GDPR.pl – ochrona danych osobowych w UE, RODO, IOD

Deepfake – co to jest i jak się przed tym bronić CZ. II.

Deepfake – co to jest i jak się przed tym bronić - cz.2

To druga część artykułu – część I  znajdziesz TUTAJ

Deepfake, deepfake’owi nierówny

Kluczowe znaczenie w kontekście walki z deepfake’ami ma rozróżnienie czy deepfake narusza prawo czy też, nie ma on charakteru bezprawnego. Ważne jest jednak, że nawet jak czyn nie ma charakteru bezprawnego, platforma powinna zostać poinformowana. Warto więc zgłosić naruszenie, ponieważ co do zasady zgodnie z obowiązującymi w danej organizacji wewnętrznymi regulaminami, takie zgłoszenie powinno zostać odnotowane, a materiał usunięty.

Co w przypadku, jak deepfake narusza prawo?

Gdy deepfake narusza prawo, platforma jest zobowiązana zareagować na zgłoszenie i ma obowiązek usunąć szkodliwy materiał. Jeżeli platforma mimo zgłoszenia nie usunie materiału ze strony, może ponieść za swoje działania odpowiedzialność.

Deepfake – co to jest i jak się przed tym bronić CZ. I.

W przypadku zgłoszenia bezprawnych treści, zasady odpowiedzialności platformy oraz jej obowiązki wobec zgłaszającego określa DSA. Platforma ma obowiązek stworzyć odpowiednią ścieżkę zgłaszania bezprawnych treści. Należy potwierdzić otrzymanie zgłoszenia, rozpatrzyć je „w sposób terminowy, niearbitralny i obiektywny oraz z zachowaniem należytej staranności” oraz powiadomić zgłaszającego o swojej decyzji.

Jeśli platforma zdecyduje, aby nie usuwać zgłoszonego materiału, musi zapewnić zgłaszającemu możliwość odwołania w ramach platformy. Jeśli to nie pomoże, osoba zgłaszająca może rozważyć różne zewnętrzne mechanizmy postępowania, dzięki którym możliwe jest kwestionowanie decyzji moderacyjnych platform. Obejmuje to: skargę do organu pozasądowego rozstrzygania sporów, skierowanie sprawy do sądu czy też – w niektórych przypadkach – także skargę do koordynatora ds. usług cyfrowych.

WAŻNE! W Polsce nie został powołany jeszcze koordynator ds. usług cyfrowych (DSA nie zostało wdrożone) co oznacza, że nie ma możliwości wniesienia skargi na platformę.

Z deepfake`iem jako bezprawnym działaniem mamy do czynienia, gdy bez zgody osoby jej wizerunek został wykorzystany w nielegalnych treściach. Trzeba brać wówczas pod uwagę zarówno kontekst, jak i okoliczności takiego materiału, aby ocenić czy mogło dojść do naruszenia dóbr osobistych czy nawet do przestępstwa. Wtedy zastosowanie mogą znaleźć przewidziane w DSA mechanizmy dotyczące walki z deepfake`ami.

Jak postępować, jeżeli ktoś publikuje deepfake, który nas dotyczy?

Ważne, żeby równolegle podjąć działania zmierzające do usunięcia określonej treści i działania wobec osoby, która zamieściła w sieci nielegalną treść.

  1. Po pierwsze należy zrobić zrzuty z ekranu/screeny i zapisać linki do tych stron, postów z nielegalnymi treściami wraz z datami (czyli zabezpieczyć dowody).
  2. Po drugie należy zwrócić się do platformy internetowej[1] (Facebook, YT, Tik Tok, czy Instagram mają procedury zgłaszania). W tytule zgłoszenia warto od razu wpisać, że chodzi o deepfake/fałszywe informacje.
  3. Po trzeciej, można zgłosić takie treści do NASK, zespołu CERT Polskasms nr 8080 lub cert.pl oraz jeśli są to treści o charakterze seksualnym dot. osób małoletnich – dyżurnet.pl
  4. Sprawa związana z deepfake’ami może zostać zgłoszona do organów ścigania – Policji[2] / Prokuratury. Deepfake może bowiem wypełniać znamiona np. czynu zabronionego kradzieży tożsamości (art. 190a § 2), zmuszania do określonego zachowania (art. 191), rozpowszechnienia wizerunku nagiej osoby bez zgody (art. 191a), publicznej prezentacji lub produkcji, rozpowszechniania, przechowywania i posiadania treści pornograficznych (art. 202), zniesławienia lub zniewagi (art. 212 i 216)  oszustwa (art. 286).
  5. W przypadku deepfake’ów możliwa jest również droga cywilna – pozew o ochronę dóbr osobistych. Jeżeli mimo zgłoszenia, platforma nie podejmie stosownych działań, istnieje możliwość wytoczenia powództwa o ochronę dóbr osobistych przed sądem. Co ważne, nie tylko przeciwko twórcy treści, ale też przeciwko danej platformie. Art. 23 i 24 Kodeksu cywilnego reguluje ochronę dóbr osobistych, w tym wizerunku i głosu, a art. 81 ustawy o prawie autorskim i prawach pokrewnych co do zasady wymaga zgody na rozpowszechnianie wizerunku.
  6. W zależności od okoliczności konkretnej sprawy, warto również poinformować o takich zdarzeniu rodzinę, bliskich czy też pracodawcę. Dodatkowo warto profilaktycznie zmienić hasła/dostępy do sieci, czy wprowadzić uwierzytelnianie dwuskładnikowe. Ważne jest także, aby móc porozmawiać z osobą bliską lub poszukać w razie potrzeby pomocy psychologicznej, w szczególności jak opublikowane treści mogą stawiać daną osobę w złym świetle.
  7. W przypadku, gdy sprawa dotyczy wykorzystania wizerunku danej osoby lub innych jej danych osobowych, można złożyć skargę do organu nadzorczego (Prezes UODO) (uodo.gov.pl).

Ważny jest czas! Nie należy zwlekać z działaniem, w tym ze wskazanymi zgłoszeniami. Trzeba zrobić to jak najszybciej, aby możliwie jak najbardziej zminimalizować negatywne skutki takiego zdarzenia.

Pomimo możliwych narzędzi i działań, które może podjąć osoba, której prawa mogą zostać naruszone przez deepfake, wydaje się, że w Polsce konieczne jest wprowadzenie przepisów prawa, które będą bezpośrednio i wielopłaszczyznowo, a nie fragmentarycznie, odnosić się do problematyki deepfake’ów, zapewniając ofiarom przede wszystkim możliwość skutecznego i szybkiego dochodzenia ochrony swoich praw.

Regulacje w innych krajach

Warto zwrócić uwagę, że ustawodawcy z wielu państw na świecie podejmują próby walki z deepfake’ami. Do najciekawszych z nich należą:

Dania. Przygotowywany jest rządowy projekt zmiany prawa autorskiego (narzędzia do walki z deepfake’ami). Zgodnie z projektem, ofiary deepfake`ów będą mogły żądać usunięcia takich treści z platform online, jak również żądać odszkodowania za naruszenia. Projekt  ma obejmować także „realistyczne, cyfrowo generowane imitacje” występów artystycznych bez zgody. Projekt przewiduje też zachowanie wyjątków dla parodii i satyry, które pozostaną legalne. Celem planowanej regulacji ma być ochrona obywateli przed złośliwym wykorzystaniem ich wizerunku, a nie ograniczenie wolności wypowiedzi. Duński parlament przyjął przepisy wprowadzające zakaz deepfake’ów przedstawiających prawdziwe osoby w kontekstach seksualnych. Zakaz deepfake’ów o takim charakterze został wprowadzony poprawkami do  duńskiego kodeksu karnego.

Belgia. W marcu 2023 roku senat belgijski przyjął rezolucję zawierającą stanowiska oraz rekomendacje skierowane do administracji federalnej i terenowej dotyczące kluczowych zagadnień deepfake’ów. Rezolucja nie jest prawnie wiążąca, może stanowić podwaliny przyszłych rozwiązań legislacyjnych.

USA. Amerykańska regulacja z 19.05.2025 r. tzw. TAKE IT DOWN Act, zawiera definicję cyfrowego fałszerstwa (digital forgery). Uregulowano w niej obowiązek skierowany do platform internetowych usuwania zgłoszonych treści w ciągu 48 godzin od zgłoszenia przez ofiarę oraz podejmowania działania w celu usunięcia duplikatów takich treści.

Holandia. Do deepfake`ów zastosowanie mogą mieć przepisy niderlandzkiego kodeksu karnego. Wzmocnienia wymaga jednak skuteczność w stosowaniu tego prawa.

Francja. Dotychczas nadużycia spowodowane deepfake’ami mogły podlegać przepisom francuskiego kodeksu karnego, m.in. przepisom dotyczącymi kradzieży tożsamości oraz przepisom prawa cywilnego w zakresie prawa do życia prywatnego, lecz w odpowiedzi na rosnące ryzyko przyjęto nowe przepisy dotyczące deepfake’ów, w tym ustawę dotyczącą wpływów handlowych i zwalczania nadużyć ze strony influencerów w mediach społecznościowych. Ustawa ta nakłada na influencerów szczególny obowiązek ujawniania stosowania deepfake’ów, jeśli treść została stworzona przy użyciu sztucznej inteligencji (influencer musi umieścić etykietę: „Wirtualne obrazy”). Wprowadzona została również ustawa mającą na celu zabezpieczenie i uregulowanie przestrzeni cyfrowej, która ustanowiła przestępstwo polegające na użyciu deepfake’ów.

Włochy. Zdefiniowano i wprowadzono przestępstwo związane z deepfake zagrożone karą nawet 5 lat pozbawienia wolności. Dzięki temu stały się pierwszym krajem unijnym, który tak kompleksowo podszedł do tego problemu. Na podstawie tych przepisów dzieci w wieku poniżej 14 lat mogą mieć dostęp do narzędzi AI tylko za zgodą opiekunów prawnych.

 

[1] wyrok TSUE z 2 grudnia 2025 r. w sprawie C-492/23, Russmedia ma istotne znaczenie dla oceny odpowiedzialności serwisów internetowych, w tym mediów społecznościowych za treści publikowane na platformach internetowych. TSUE uznał, że nie ma podstaw do twierdzenia, że serwisy tego typu nie mają wpływu na treść ogłoszeń czy postów zawierających dane osobowe. Wyrok jest ważny jeśli chodzi o przeciwdziałanie wykorzystywaniu wizerunku znanych osób/celebrytów (zjawisko „celeb bait”) do tworzenia fałszywych reklam. Por. sprawa Omena Mensah i Rafał Brzoska – Prezes UODO wydał postanowienia zobowiązując spółkę Meta do wstrzymania na terytorium Polski wyświetlania przez trzy miesiące na Facebooku i Instagramie fałszywych reklam wykorzystujących prawdziwe dane oraz wizerunek tych osób. W konsekwencji Meta wdrożyła rozwiązania/narzędzia, które chronią wizerunek znanych osób oraz użytkowników mediów społecznościowych przed oszustwami reklamowymi wykorzystywanymi przez oszustów. Rozwiązanie to oparte jest na bezpiecznej, odrębnej bazie danych opracowanej na podstawie profili znanych osób utworzonych na platformach społecznościowych Meta. Użytkownicy platformy, którzy podejrzewają niewłaściwe wykorzystanie ich danych w tego typu reklamach , mogą poprzez „Zgłoś reklamę” zgłosić nieprawidłowość.

[2] Por. sprawa dotycząca wygenerowania przez uczniów szkoły podstawowej fałszywego zdjęcia nagiej koleżanki (https://uodo.gov.pl/pl/138/3727), w której organ nadzorczy uznał, że takie działanie może stanowić produkowanie, posiadanie oraz rozpowszechnianie treści pornograficznych z udziałem małoletniego (czyli z uczestnictwem osoby małoletniej).

Część I artykułu pt. „Deepfake – co to jest i jak się przed tym bronić” dostępna jest TUTAJ