208
0

Deepfake w reklamie: kiedy można, kiedy nie wolno i jak się nie spalić

208
0

Deepfake w reklamie nie jest z definicji nielegalny. Legalna ścieżka istnieje, ale wymaga jednocześnie: zgody, dobrze opisanego zakresu użycia, oznaczenia treści oraz dokumentacji całego procesu. Nielegalny albo bardzo ryzykowny deepfake zaczyna się najczęściej tam, gdzie kończy się zgoda, przejrzystość i kontrola nad kampanią.

Sztuczna inteligencja w reklamie przestała być ciekawostką. Syntetyczni lektorzy, cyfrowe sobowtóry modeli, warianty spotów generowane w minutach – to już codzienność agencji i działów marketingu. Pytanie nie brzmi więc, czy da się używać deepfake’ów w kampaniach. Pytanie brzmi: kiedy jest to legalne, a kiedy taki pomysł zamienia się w ryzyko prawne, finansowe i wizerunkowe.

Najważniejsza wiadomość dla biznesu: sam deepfake nie jest automatycznie zakazany. Problem pojawia się, gdy firma wykorzystuje cudzy wizerunek, głos albo tożsamość bez zgody, bez oznaczenia albo w sposób, który odbiorca może uznać za autentyczny, a nie dostaje informacji, że to tylko technologiczna iluzja. Wtedy obok prawa cywilnego wchodzą do gry: RODO, prawo konsumenckie, regulaminy platform, a od 2 sierpnia 2026 r. także obowiązki przejrzystości wynikające wprost AI Act.

Porozmawiaj z ekspertem 🎯

Borykasz się z zagadnieniem, które tutaj poruszyłem? Skontaktuj się ze mną i ustalimy termin 15-minutowej konsultacji. Wspólnie znajdziemy najlepsze rozwiązanie dla Twojego biznesu!

Legalny deepfake – jak to wygląda w praktyce

Najczęstszy błąd polega na myleniu dwóch rzeczy: technicznej możliwości wygenerowania realistycznego materiału i prawa do jego komercyjnego wykorzystania. To, że model AI potrafi stworzyć przekonujące wideo, nie oznacza, że wolno je użyć w kampanii. Z drugiej strony – nie każda reklama z użyciem syntetycznej twarzy jest zakazana. Legalna ścieżka istnieje, ale musi być poukładana już na etapie planowania.

Case: Zalando i cyfrowe sobowtóry modeli. Firma podała, że używa GenAI do szybszego tworzenia imagery marketingowego i rozwija digital twins modeli. Skrócenie produkcji z 6–8 tygodni do 3–4 dni, redukcja kosztów o ok. 90 %. Sednem nie było hasło „AI”, tylko trzy rzeczy: modelka wyraziła zgodę, zakres użycia był precyzyjnie opisany, a cały proces został udokumentowany. Właśnie tak powinien wyglądać bezpieczny deepfake w reklamie.

Case: Disney x Sora. Choć nie jest to case ściśle związany z deepfake’ami to warto o mnim wspomnieć. Z perspektywy marketingu najciekawsze nie jest samo to, że doszło do współpracy, ale sposób, w jaki ją ograniczono. Licencja obejmowała wybrane elementy IP, ale nie dawała pełnej swobody używania wizerunków i głosów aktorów. Lekcja: nawet szeroka licencja do treści nie rozwiązuje automatycznie kwestii twarzy, głosu i tożsamości konkretnych osób.

Nielegalny deepfake – granica przebiega przez zgodę

Ten case jest ważny z dwóch powodów. Po pierwsze – pokazuje klasyczny model bezprawnego użycia cudzego wizerunku w celu zwiększenia wiarygodności przekazu handlowego. Po drugie – przypomina, że odpowiedzialność nie kończy się na anonimowym twórcy materiału. Ryzyko dotyka również platformy, która na takiej reklamie zarabia i pozwala ją emitować. Deepfake bez zgody + platforma zarabiająca na takich reklamach = naruszenie RODO już dziś, a AI Act od 2 sierpnia 2026 r.

Klonowanie głosu – to nie jest „lżejszy” temat niż wizerunek

Wielu przedsiębiorców myśli, że skoro głos nie jest zdjęciem, to temat jest mniej ryzykowny. To niebezpieczne uproszczenie. Jeżeli firma klonuje głos lektora, aktora albo influencera bez umowy i bez jasnej zgody, może jednocześnie naruszyć dobra osobiste, zasady wykorzystania wizerunku (głosu – tak! Charakterystyczny głos to też część wizerunku), a niekiedy także przepisy RODO. Ba! To nie żart, a sprawa, która tego dotyczy odbyła się nie gdzie indziej jak tylko w Polsce! Sprawa dotyczy Jarosława Łukomskiego – jednego z najbardziej rozpoznawalnych lektorów w kraju, którego głos miał zostać sklonowany i użyty w reklamach dużej spółki z branży wodno-kanalizacyjnej bez jego zgody, wiedzy i wynagrodzenia. Nie wchodząc tu w przesadne szczegóły można powiedzieć krótko – tak stworzona reklama zyskała co prawda rozgłos jednak głównie z tego powodu, że spółka przegrała sprawę w Sądzie.

Osoby zmarłe – śmierć człowieka ≠ brak praw

Case: Off Radio Kraków – wywiad z Wisławą Szymborską po jej śmierci. Audycja radiowa z AI-wygenerowanym głosem poetki. Fundacja Wisławy Szymborskiej miała wyrazić zgodę – i właśnie dlatego ten przykład jest tak użyteczny. Nie potwierdza schematu „po śmierci wolno wszystko”, ale wręcz odwrotną zasadę: jeżeli sięgasz po głos lub wizerunek osoby zmarłej, musisz z wyprzedzeniem poukładać kwestie zgód i reputacji twórcy. Ochrona dóbr osobistych nie wygasa ze śmiercią, a prawa autorskie majątkowe do spuścizny trwają jeszcze 70 lat od tego momentu. Co jednak ważne, nie zawsze sama zgodność z prawem wystarczy. W tym przypadku treść wywiadu i „miałkość” odpowiedzi Noblistki, które były generowane przez AI spowodowały niesmak i powszechne oburzenie.

Oznaczanie – obowiązek, który wielu pomija, a który już dziś ma znaczenie

W praktyce wielu reklamodawców skupia się na zgodzie, a zapomina o przejrzystości wobec odbiorcy. Tymczasem to, że ktoś wyraził zgodę na wykorzystanie cyfrowego sobowtóra, nie zamyka jeszcze kwestii oznaczenia. Jeżeli odbiorca reklamy uznaje syntetyczny materiał za autentyczny, a marka niczego nie ujawnia, wchodzimy na teren wprowadzania w błąd, a już niebawem bo także w brak przejrzystości w ujęciu AI Act.

Definicja deepfake w AI Act  to wygenerowane przez AI lub zmanipulowane przez AI obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe.

AI Act nakłada obowiązek ujawnienia, że treść została sztucznie wygenerowana lub zmanipulowana. Obowiązek ten wchodzi w pełni od 2 sierpnia 2026 r. ale – i to jest kluczowe – już teraz prawo konsumenckie i zasady uczciwej konkurencji zakazują budowania przekazu handlowego na nieujawnionej manipulacji. Deepfake bez oznaczenia = potencjalnie czyn nieuczciwej konkurencji. Dodatkowo większość dużych platform – YouTube, TikTok, Meta – już teraz wymaga oznaczania treści AI w swoich regulaminach.

Kodeks Dobrych Praktyk (na moment kiedy piszę te słowa będący dopiero projektem) dotyczący Transparentności Treści Generowanych przez AI proponuje trzy poziomy oznaczeń: H (wytwór człowieka – choć tego oznaczenia nie trzeba rzecz jasna stosować), AI-H (treść tworzona z asystą AI) i AI (treść w pełni wygenerowana przez AI). Taka logika nie rozwiąże wszystkich sporów, ale pomaga ograniczyć ryzyko i daje odbiorcy jasną informację.

Satyra, sztuka i fikcja — złagodzone reguły, ale nie wolna amerykanka

Warto rozwinąć ten wątek, bo w praktyce budzi dużo nieporozumień. AI Act przewiduje, że przy deepfake’ach stanowiących część pracy o wyraźnie artystycznym, twórczym, satyrycznym, fikcyjnym lub analogicznym charakterze obowiązek oznaczania nie znika — ale zostaje złagodzony. Przepis pozwala ograniczyć ujawnienie do takiej formy, która nie utrudnia wyświetlania ani odbioru utworu.

Co to oznacza w praktyce? Jeśli agencja tworzy satyryczny spot z deepfake’iem polityka albo artystyczny film krótkometrażowy z syntetyczną twarzą — nie musi umieszczać wielkiego banera „WYGENEROWANE PRZEZ AI” na środku ekranu. Wystarczy informacja w opisie, napisach końcowych lub metadanych, pod warunkiem że jest dostępna i jednoznaczna.

Ale uwaga na dwa pułapki. Po pierwsze, to nie jest pełny wyjątek — to złagodzenie formy, nie zwolnienie z obowiązku. Informacja o syntetycznym charakterze treści nadal musi dotrzeć do odbiorcy. Po drugie, reklama z definicji ma cel handlowy. Próba ukrycia przekazu komercyjnego pod płaszczykiem „satyry” albo „sztuki” będzie oceniana rygorystycznie — zarówno przez organ nadzoru AI Act, jak i przez UOKiK na gruncie prawa konsumenckiego. Satyryczny meme na firmowym profilu to jedno. Kampania sprzedażowa udająca satyrę — to zupełnie inna historia prawna.

Syntetyczni influencerzy — gdzie zaczyna się problem prawny

To temat, który rośnie szybciej niż regulacja. Syntetyczny influencer to konto w social mediach prowadzone przez w pełni lub częściowo wygenerowaną przez AI postać — z własnym wizerunkiem, biografią, a często też „opiniami” o produktach. Lil Miquela, Noonoouri, Imma — to już nie eksperymenty, lecz komercyjne projekty z kontraktami reklamowymi wycenianymi na setki tysięcy dolarów.

Case: Arizona — pozew za AI-person oparte na cudzym wizerunku. W Arizonie złożono pozew za tworzenie i monetyzację syntetycznych postaci opartych na wizerunkach realnych osób z social mediów — bez ich zgody. Problemem nie było samo AI, lecz komercyjne użycie podobieństwa bez zgody osoby, której wizerunek posłużył za bazę.

FTC: virtual influencer = influencer. Amerykańska Federalna Komisja Handlu wprost wskazała, że wirtualny influencer może być traktowany jak influencer w rozumieniu przepisów o reklamie, choć ich wypowiedzi jakoby używali produktów to już wprowadzanie w błąd. Oznacza to, że te same zasady dotyczące oznaczania współpracy komercyjnej, zakazu fałszywych rekomendacji i transparentności stosują się do syntetycznych postaci tak samo jak do ludzi z krwi i kości.

Ryzyko prawne pojawia się w trzech scenariuszach. Po pierwsze, gdy syntetyczny influencer publikuje fałszywe testimoniale — sugeruje, że „używał” produktu i go poleca, mimo że jest algorytmem. Po drugie, gdy konto sugeruje realne doświadczenie z produktem — np. „testowałam ten krem przez miesiąc” — czego syntetyczna postać z definicji nie mogła zrobić. Po trzecie, gdy avatar jest oparty na wizerunku celebryty lub innej realnej osoby bez jej zgody.

Dla agencji i marek kluczowa lekcja jest taka: sam fakt, że influencer jest syntetyczny, nie jest problemem. Problemem jest wprowadzanie odbiorcy w błąd co do natury przekazu lub wykorzystanie cudzego wizerunku bez zgody. Syntetyczny influencer musi być oznaczony jako postać AI, jego „opinie” nie mogą sugerować realnego doświadczenia z produktem, a jeśli jego twarz przypomina konkretną osobę — potrzebna jest zgoda tej osoby. Od 2 sierpnia 2026 r. dochodzi do tego obowiązek oznaczania deepfake, ale już teraz prawo konsumenckie i regulaminy platform (Meta, TikTok, YouTube) wymagają transparentności.

Deepfake to nie tylko kreacja – to ryzyko operacyjne

Case: Hongkong, 2024 – deepfake CEO fraud na 25 mln USD. Podczas telekonferencji ktoś wykorzystał deepfake do podszywania się pod członków zarządu i zlecił przelew na równowartość ok. 25 mln dolarów. To nie była kampania reklamowa, ale doskonale pokazuje, dlaczego biznes nie może patrzeć na syntetyczne obrazy i głosy wyłącznie jak na kreatywne narzędzie.

Dla marketingu ma to podwójne znaczenie. Po pierwsze: firma powinna wiedzieć, jak reagować, gdy ktoś podszywa się pod markę, prezesa albo kampanię. Po drugie: powinna mieć własne procedury zatwierdzania materiałów, weryfikacji poleceń i reagowania kryzysowego. Wewnętrzna polityka AI – co robimy, gdy podejrzewamy deepfake – to dziś nie nadmiar, lecz minimum.

Firma nie schowa się za chatbotem, algorytmem ani platformą

Case: Air Canada v. Moffatt. Choć najczęściej chatboty nie są jednocześnie powiązane z deepfake’ami to warto też o nich wspomnieć w tym miejscu. Chatbot Air Canada błędnie poinformował klienta o możliwości uzyskania zniżki żałobnej po zakupie biletu. Kanadyjski Trybunał uznał, że firma odpowiada za treści swojego chatbota tak samo jak za inne informacje na stronie. Air Canada musiała zwrócić różnicę w cenie. To w zasadzie grosze dla linii lotniczych, ale co stanie się, gdy chatboot złoży bardziej intratną ofertę w Twojej firmie?

Lekcja dla reklamy: jeżeli AI wprowadza klienta w błąd co do warunków oferty, ceny, promocji albo właściwości produktu – odpowiada firma, nie algorytm. Chatbot nie jest tarczą odpowiedzialności. Komunikat sprzedażowy wygenerowany przez narzędzie AI nadal obciąża przedsiębiorcę.

Jeden deepfake w reklamie może uruchomić jednocześnie: roszczenie z dóbr osobistych, postępowanie UODO, karę z AI Act i postępowanie UOKiK. Plus potencjalny pozew za naruszenie praw autorskich lub znaków towarowych. Cztery organy, cztery reżimy – za ten sam materiał.

Jak poukładać umowę, żeby deepfake był narzędziem, a nie miną

Najgorsza umowa to taka, która mówi ogólnie o „wykonaniu materiałów reklamowych” i udaje, że AI nie istnieje. Przy deepfake trzeba pisać precyzyjniej. W umowie z modelem, aktorem, influencerem, agencją albo dostawcą technologii trzeba wprost opisać:

  • czy dopuszczalne jest stworzenie cyfrowej repliki twarzy, głosu, sylwetki;
  • czy wolno ją modyfikować, w ilu wersjach i w jakich kanałach;
  • jak długo i na jakim terytorium materiał będzie rozpowszechaniany;
  • kto odpowiada za oznaczenie treści i zgodność z regulaminami platform;
  • czy dostawca narzędzia może trenować model na materiałach klienta;
  • jak wygląda procedura szybkiego usunięcia materiału w razie sporu;
  • kto ponosi odpowiedzialność, jeśli model AI wygeneruje twarz łudząco podobną do osoby trzeciej (ryzyko naruszenia praw osób, które nie są stroną umowy);

prawo audytu procesu twórczego – prompty, wersje robocze, zakres edycji manualnej

Na koniec: deepfake może być przewagą konkurencyjną, ale tylko wtedy, gdy firma nie myli efektu z prawem

Deepfake w marketingu może być legalnym narzędziem. Pokazują to przykłady dobrze opisanej zgody, świadomego korzystania z cyfrowych sobowtórów i kampanii oznaczonych zgodnie z wymogami. Ale równie wyraźnie widać granicę, po której zaczyna się problem: cudzy wizerunek bez zgody, klonowanie głosu bez umowy, syntetyczny materiał udający autentyczny przekaz.

W reklamie AI nie wystarczy pytać, czy coś da się zrobić. Trzeba jeszcze zapytać: czy wolno to zrobić, kto za to odpowiada i jak to udowodnimy za rok, gdy kampania zamieni się w spór. Im szybciej marka i agencja nauczą się zadawać te pytania przed publikacją, tym większa szansa, że deepfake zostanie przewagą konkurencyjną, a nie gotowym scenariuszem dla działu kryzysowego.

Doceniasz tworzone przeze mnie treści?

Piotr Kantorowski
RADCA PRAWNY

Przedsiębiorcom służę pomocą w kwestiach związanych z prawem własności intelektualnej szczególnie w obszarze digital marketingu i IT. Tworzę też umowy tak, aby oddawały Twoje plany biznesowe i zabezpieczały firmę w najwyższym stopniu. Jeśli trzeba pomagam też poprowadzić spory korporacyjne lub z kontrahentami.

Skontaktuj się ze mną, chętnie odpowiem na Twoje pytania dotyczące naszej oferty i przedstawię rozwiązania dostosowane do Twojego biznesu.