93
0

AI w marketingu – przewodnik prawny: co musisz wiedzieć o przepisach UE i polskich regulacjach

93
0

Sztuczna inteligencja rewolucjonizuje marketing, oferując bezprecedensowe możliwości personalizacji treści, targetowania reklam i automatyzacji procesów. Od generowania tekstów i obrazów po tworzenie zaawansowanych deepfake’ów – AI staje się nieodłącznym narzędziem współczesnych kampanii marketingowych.

Jednak ta technologiczna rewolucja niesie ze sobą poważne wyzwania prawne. Marketerzy muszą nawigować w złożonym krajobrazie regulacji obejmujących ochronę danych osobowych, prawa autorskie, odpowiedzialność za treści oraz obowiązki transparentności. W Unii Europejskiej sytuację dodatkowo komplikuje wchodzący stopniowo w życie AI Act oraz szereg innych przepisów dostosowywanych do ery sztucznej inteligencji.

Ten przewodnik przedstawia kluczowe aspekty prawne wykorzystania AI w marketingu, koncentrując się na przepisach UE ze szczególnym uwzględnieniem polskich regulacji.

Porozmawiaj z ekspertem 🎯

Borykasz się z zagadnieniem, które tutaj poruszyłem? Skontaktuj się ze mną i ustalimy termin 15-minutowej konsultacji. Wspólnie znajdziemy najlepsze rozwiązanie dla Twojego biznesu!

Zakazane systemy AI – czego marketerzy nie mogą używać

AI Act (rozporządzenie (UE) 2024/1689) przewiduje zakaz wykorzystywania niektórych systemów sztucznej inteligencji – również w marketingu. Zakaz obejmuje te zastosowania, które w sposób oczywisty naruszają prawa człowieka, są nieprzejrzyste lub manipulacyjne. W kontekście reklamy i sprzedaży istotne są zwłaszcza dwa zakazane przypadki:

• Systemy wykorzystujące techniki podprogowe lub inne techniki manipulacyjne, które mają na celu zniekształcenie zachowania osoby fizycznej w sposób powodujący lub mogący prawdopodobnie spowodować szkodę tej osobie – art. 5 ust. 1 lit. a AI Act. Przykład: AI zmieniająca treść strony internetowej w zależności od podatności emocjonalnej użytkownika wykrytej przez kamerę.

• Systemy wykorzystujące słabości osób fizycznych wynikające z ich wieku, niepełnosprawności lub sytuacji społecznej – również jeżeli mogą powodować szkodę – art. 5 ust. 1 lit. b AI Act. Przykład: system reklamowy targetujący dzieci lub osoby starsze z wykorzystaniem ich emocjonalnych reakcji lub braku pełnej świadomości mechanizmów marketingowych.

W praktyce oznacza to zakaz: 

• stosowania AI analizującej emocje użytkownika w czasie rzeczywistym w celu wpływu na jego decyzje zakupowe, 

• stosowania AI personalizującej reklamy w sposób wykorzystujący uzależnienia (np. kompulsywne zakupy, hazard), 

• targetowania ofert specjalnych wyłącznie na podstawie czynników takich jak wiek lub samotność, jeżeli ma to charakter manipulacyjny.

Złamanie tych zakazów może skutkować: 

• administracyjnym zakazem udostępniania takiego systemu, 

• karami finansowymi (nawet do 35 mln EUR lub 7% globalnego obrotu), 

• odpowiedzialnością cywilną i reputacyjną wobec konsumentów.

Rekomendacja: zanim wdrożysz nowy system AI w kampanii, upewnij się, że jego działanie nie opiera się na manipulacji emocjonalnej ani nie wykorzystuje słabości odbiorców. Transparentność, bezpieczeństwo i poszanowanie godności klienta to nie tylko wymogi etyczne – to również wymogi prawne w UE.

RODO a AI w marketingu

Zgody i podstawy prawne

Wykorzystanie AI do profilowania klientów i personalizacji reklam musi ściśle spełniać wymagania RODO. Podstawowe zasady obejmują:

Zasada legalności, rzetelności i przejrzystości – Dane osobowe wykorzystywane przez AI do celów marketingowych muszą być przetwarzane zgodnie z prawem, w sposób rzetelny i transparentny. W praktyce oznacza to obowiązek poinformowania użytkowników w polityce prywatności o tym, jakie dane są zbierane, w jaki sposób są analizowane przez AI i w jakim celu.

Ograniczenie celu i podstawa prawna – Dane można zbierać wyłącznie w określonych, prawnie uzasadnionych celach. W przypadku personalizacji reklamy najczęściej stosuje się dobrowolną zgodę użytkownika na profilowanie reklamowe (art. 6 ust.1 lit. a RODO). Zgoda musi być świadoma, dobrowolna i jednoznaczna – użytkownik nie może być zmuszony do jej wyrażenia pod groźbą braku dostępu do usługi.

Minimalizacja danych – AI nie może przetwarzać więcej danych osobowych niż to konieczne. Należy unikać wykorzystywania danych wrażliwych (o zdrowiu, poglądach, pochodzeniu, emocjach) w celach marketingowych, gdyż to z reguły zabronione, chyba że osoba wyraźnie na to zezwoliła.

Cel przetwarzania – cel przetwarzania danych musi być zgodny z naszą działalnością, a nie działalnością dostawcy systemu AI. Innymi słowy, jeśli chcemy dostarczać jeszcze lepiej dopasowane reklamy do danego klienta to taki cel będzie ok. Nie będzie jednak ok cel związany z uczeniem się samego AI w oparciu o dostarczone dane osobowe.

Profilowanie i decyzje automatyczne

RODO przewiduje szczególne ograniczenia w stosowaniu całkowicie zautomatyzowanych decyzji wywołujących skutki prawne lub podobnie istotnie wpływających na osobę. Artykuł 22 ust.1 RODO stanowi, że osoba ma prawo do tego, by nie podlegać decyzji opartej wyłącznie na zautomatyzowanym przetwarzaniu, w tym profilowaniu.

W praktyce oznacza to, że użytkownik targetowany przez AI wyłącznie na podstawie profilu behawioralnego ma prawo żądać, aby o ważnych kwestiach (jak oferta kredytu czy znacząco zróżnicowana cena) zdecydował człowiek, lub przynajmniej ma prawo do sprzeciwu i wyjaśnień. Administrator musi wdrożyć odpowiednie środki ochrony praw osób, w tym umożliwić interwencję człowieka i złożenie odwołania od decyzji algorytmu.

Szczególną ostrożność wymagają narzędzia AI rozpoznające emocje konsumenta w celu dostosowania reklamy. AI Act przewiduje obowiązek informowania osób, wobec których stosuje się systemy rozpoznawania emocji, oraz w pewnych przypadkach, głównie na podstawie RODO, daje też prawo opt-out.

Treści generowane przez AI a prawo autorskie

Czy AI może być autorem?

Zgodnie z aktualnym stanem prawnym w Polsce i UE, utworami mogą być wyłącznie wytwory działalności człowieka. Artykuł 1 ust.1 polskiej Ustawy o prawie autorskim stanowi, że utworem jest każdy przejaw działalności twórczej o indywidualnym charakterze. Przesłanki twórczości i indywidualnego charakteru tradycyjnie rozumie się tak, że utwór musi odzwierciedlać osobisty, kreatywny wkład człowieka.

AI pozbawiona jest osobowości i świadomości, nie podejmuje twórczych decyzji w ludzkim rozumieniu – generuje treści w oparciu o statystyczne zależności z danych treningowych. Sąd Najwyższy w wyroku z 21 lutego 2020 r. (I CSK 513/18) podkreślił, że dla zakwalifikowania danego dobra niematerialnego jako przedmiotu prawa autorskiego należy wykazać, że jest rezultatem pracy człowieka i przejawem działalności twórczej o indywidualnym charakterze.

Praktyczne konsekwencje:
Treści wygenerowane samodzielnie przez AI nie mają podmiotu praw autorskich

Output z narzędzi typu ChatGPT czy Midjourney nie jest objęty monopolem autorskim, o ile człowiek nie dołożył twórczego wkładu

Potencjalnie każdy może kopiować i wykorzystywać takie treści, bo nie są prawnie chronionymi utworami, choć – co warto podkreślić – takie działanie może stanowić czyn nieuczciwej konkurencji i naruszać licencje tych systemów AI

Ryzyko naruszeń i plagiatu

Mimo braku własnego autora, generowane treści mogą zawierać fragmenty lub elementy chronione przysługujące innym podmiotom. Firma korzystająca z AI ponosi ryzyko, że publikując taki materiał naruszy cudze prawa autorskie.

Jak minimalizować ryzyko:

  • Nadzór twórczy – człowiek powinien mieć kluczowy wpływ na powstawanie treści, a AI pełnić rolę narzędzia pomocniczego
  • Dokumentowanie procesu – prowadzić zapiski decyzji kreatywnych, poprawek i czasu pracy człowieka nad utworem
  • Modyfikacja wygenerowanych treści – wprowadzać istotne autorskie przeróbki w output AI, nadając dziełu unikalny charakter lub też modyfikacja własnych treści z wykorzystaniem AI
  • Weryfikacja oryginalności – sprawdzać narzędziami antyplagiatowymi, czy wygenerowana treść nie jest zbyt podobna do istniejących dzieł
  • Prawidłowe skonstruowanie umowy – w umowach z klientami precyzyjnie określać, czy ewentualnie kiedy można korzystać z AI.

Kto odpowiada za błędy AI?

Odpowiedzialność cywilna i administracyjna

W związku z brakiem osobowości prawnej AI, odpowiedzialność za działania i błędy systemów AI ponoszą ludzie lub firmy, które z nich korzystają. Jeśli kampania wygenerowana przez AI naruszy prawo, reklamodawca lub agencja będą pociągnięte do odpowiedzialności na gruncie obowiązujących przepisów.

Główne obszary ryzyka:

Naruszenia RODO i prywatności – Firma korzystająca z AI do przetwarzania danych klientów może odpowiedzieć za wszelkie uchybienia wobec RODO. Użycie AI nie stanowi okoliczności łagodzącej – przeciwnie, organ nadzorczy może uznać, że wymagana była szczególna staranność. Prawa osób trzecich – Kampanie AI mogą generować treści naruszające cudze prawa bez świadomego zamiaru. Przykładowo, wygenerowanie reklamy z czyimś wizerunkiem bez zgody stanowi naruszenie dóbr osobistych. Podobnie, jeśli AI wygeneruje grafikę podobną do zastrzeżonego znaku towarowego, może dojść do naruszenia praw własności intelektualnej.

Reklamy wprowadzające w błąd

Automatyzacja tworzenia przekazu reklamowego niesie ryzyko, że AI wygeneruje informacje fałszywe lub mylące. Wszelkie praktyki marketingowe wprowadzające konsumentów w błąd są zakazane i mogą skutkować odpowiedzialnością na podstawie ustawy o przeciwdziałaniu nieuczciwym praktykom rynkowym.

Szczególnie problematyczne może być wykorzystanie deepfake celebrytów polecających produkt, co może zostać uznane za czyn nieuczciwej konkurencji i naruszenie dóbr osobistych. Firma musi weryfikować komunikaty przygotowane przez AI tak, jak każde inne treści marketingowe.

Czy trzeba oznaczać treści stworzone przez AI?

Obowiązki z AI Act i DSA

AI Act zawiera wyraźne wymogi informacyjne dotyczące transparentności. Systemy AI przeznaczone do interakcji z człowiekiem będą musiały być zaprojektowane tak, by użytkownik był świadomy, że rozmawia z maszyną. Chatbot obsługujący klienta powinien się jawnie zidentyfikować jako AI.

Szczególnie istotny jest obowiązek oznaczania treści generowanych lub modyfikowanych przez AI, jeśli mogą one zostać pomylone z prawdziwymi. Dotyczy to szczególnie deepfake’ów – fałszywych audio, wideo lub obrazów wyglądających jak realne. W każdej sytuacji, gdy taki materiał może zmylić odbiorcę co do autentyczności, konieczne będzie wyraźne poinformowanie o sztucznym generowaniu. Warto jednak wiedzieć, że obowiązek ten będzie miał miejsce dopiero od sierpnia 2026 r., a obecnie takie oznaczenia będą istotne choćby w kontekście uniknięcia zarzuty wprowadzania w błąd.

Akt o usługach cyfrowych (DSA) nakłada na bardzo duże platformy internetowe obowiązek oceny ryzyk związanych z rozpowszechnianiem fake content oraz wprowadzenia środków minimalizujących te ryzyka. Platformy muszą zapewnić mechanizmy wyraźnego oznaczania deepfake’ów.

Praktyka i dobre obyczaje reklamowe

Choć w brak jeszcze obowiązku prawnego nakazującego oznaczanie treści AI w reklamie, ogólne normy wymuszają pewną transparentność. Jeśli brak ujawnienia może spowodować wprowadzenie konsumentów w błąd, może to zostać uznane za praktykę wprowadzającą w błąd.

Dobre obyczaje, ale też bezpieczeństwo prawnego Twojego biznesy, przemawia już dziś za tym, aby reklamy informowały odbiorców, gdy dana treść została wygenerowana przez algorytm. Takie działania zwiększają zaufanie i budują świadomość zarówno wśród klientów, jak i konsumentów końcowych.

Czy AI może „uczyć się” na cudzych treściach?

Text and Data Mining (TDM) w UE

W trakcie uczenia modeli AI dochodzi do kopiowania i analizowania ogromnych ilości danych, w tym objętych prawem autorskim. Budzi to wątpliwości: czy wolno „skarmić” algorytm tysiącami książek, artykułów i grafik bez zgody twórców?

Co mówi dyrektywa DSM i AI Act?

Dyrektywa 2019/790 (DSM) wprowadziła wyjątki do prawa autorskiego w zakresie TDM. Artykuł 4 dyrektywy dopuszcza eksplorację danych dla celów komercyjnych, pod warunkiem że posiadacz praw autorskich nie zastrzegł opt-out (np. w meta-tagach strony internetowej).

To oznacza, że trening komercyjnego modelu AI na publicznie dostępnych danych jest legalny, chyba że twórca wyraźnie zabronił tego poprzez odpowiednie oznaczenia (np. noindex, noai).

AI Act nakłada na dostawców systemów AI obowiązek zapewnienia, że dane wykorzystywane do trenowania modeli są pozyskane zgodnie z prawem. Ponadto twórcy większych systemów AI będą musieli udostępniać ogólne informacje o źródłach danych treningowych.

Ryzyka dla marketerów:

  • Celowe polecanie AI generowania “w stylu” konkretnych utworów może rodzić zarzut nieuprawnionego korzystania
  • Generowanie na podstawie cudzego utworu może skutkować utworem zależnym naruszającym prawa oryginału
  • Zawsze należy sprawdzać oryginalność wygenerowanych treści i unikać poleceń wprost odwołujących się do chronionych dzieł

Podsumowanie i rekomendacje

Wykorzystanie AI w marketingu wymaga zachowania równowagi między innowacyjnością a przestrzeganiem prawa. Kluczowe rekomendacje dla przedsiębiorców:

Compliance z RODO:

  • Zapewnij legalne podstawy przetwarzania danych przez AI
  • Uzyskaj właściwe zgody na profilowanie reklamowe
  • Wdróż mechanizmy umożliwiające interwencję człowieka w zautomatyzowanych decyzjach
  • Regularnie przeprowadzaj oceny wpływu na ochronę danych (DPIA)

Ochrona praw autorskich:

  • Zapewnij udział człowieka w procesie twórczym
  • Dokumentuj wkład twórczy pracowników
  • Modyfikuj treści wygenerowane przez AI
  • Sprawdzaj oryginalność przed publikacją
  • Unikaj generowania “w stylu” konkretnych chronionych utworów

Transparentność:

  • Oznaczaj treści generowane przez AI, szczególnie deepfake’i
  • Informuj użytkowników o interakcji z chatbotami AI
  • Uwzględnij klauzule o AI w umowach z klientami
  • Śledź zmiany w przepisach – obowiązki transparentności będą się umacniać

Zarządzanie ryzykiem:

  • Wdróż wewnętrzne procedury compliance dla AI
  • Przeszkol zespoły z zasad korzystania z AI
  • Weryfikuj treści przed publikacją pod kątem potencjalnych naruszeń
  • Rozważ ubezpieczenie od odpowiedzialności za AI
  • Konsultuj wątpliwe przypadki z prawnikami

Przygotowanie na przyszłość:

  • Śledź rozwój AI Act i innych regulacji UE
  • Dostosuj procesy do nadchodzących wymogów transparentności
  • Rozważ inwestycje w narzędzia do weryfikacji treści AI
  • Buduj kulturę odpowiedzialnego korzystania z AI w organizacji

Pamiętaj: choć AI potrafi wygenerować przekaz w kilka sekund, odpowiedzialność za ten przekaz pozostaje na lata po stronie ludzi. Zachowanie etyki i zgodności z prawem nie tylko chroni przed sankcjami, ale też buduje zaufanie do marki w dobie rosnącej świadomości społecznej na temat AI.

Doceniasz tworzone przeze mnie treści?

Piotr Kantorowski
RADCA PRAWNY

Przedsiębiorcom służę pomocą w kwestiach związanych z prawem własności intelektualnej szczególnie w obszarze digital marketingu i IT. Tworzę też umowy tak, aby oddawały Twoje plany biznesowe i zabezpieczały firmę w najwyższym stopniu. Jeśli trzeba pomagam też poprowadzić spory korporacyjne lub z kontrahentami.

Skontaktuj się ze mną, chętnie odpowiem na Twoje pytania dotyczące naszej oferty i przedstawię rozwiązania dostosowane do Twojego biznesu.