Naukowcy z ośrodka badawczo-rozwojowego IDEAS NCBR opracowali prototypowy program do weryfikacji, czy podczas rozmowy online przez kamerę mamy do czynienia z prawdziwą osobą, a nie deepfake.
Problem z deepfake’ami w Polsce
Deepfake to zaawansowana technika manipulacji materiałami wideo lub audio z wykorzystaniem sztucznej inteligencji (AI). Technologia ta umożliwia tworzenie realistycznych i trudnych do odróżnienia od oryginału fałszywych nagrań multimedialnych. Te technika jest często wykorzystywana przez oszustów i przestępców.
W komunikacie przesłanym przez IDEAS NCBR do PAP przypomniano, że w Polsce w marcu 2024 r. fałszywe wideo z udziałem CEO InPost Rafała Brzoski, prezydenta Andrzeja Dudy oraz piłkarza Roberta Lewandowskiego promowały „programy inwestycyjne” mające na celu wyłudzanie pieniędzy. Widać, więc że nie jest to problem, który nie dotyczy Polaków.
Nowe narzędzie
Naukowcy z IDEAS NCBR instytucji stworzyli eksperymentalny projekt o nazwie ProvenView. Wykorzystuje technikę kryptograficzną Zero-Knowledge Proof (ZKP), która pozwala na potwierdzenie prawdziwości informacji bez ujawniania jej szczegółów. Naukowcy przedstawili uproszczony przykład działania ProvenView. W pierwszym kroku twórca oryginalnego wideo generuje dowód jego autentyczności, cyfrowy zapis potwierdzający, że jest autorem materiału multimedialnego. Oprogramowanie umożliwiające taki zapis może być zintegrowane z aplikacją do nagrywania wideo lub stanowić oddzielny program. Następnie, osoba chcąca zweryfikować autentyczność wideo może sprawdzić ten cyfrowy dowód.
Twórcy ProvenView twierdzą, że program ten może znaleźć zastosowanie w interakcjach online i ochronie treści. Na przykład, po zakończeniu spotkania online, użytkownik będzie mógł zweryfikować, czy wideo jego rozmówcy rzeczywiście pochodziło z jego kamery internetowej.
Niestety narzędzie jest wciąż w fazie prototypowej i nie jest jeszcze gotowe do wdrożenia.
Równowaga w rozwoju nowych technologii
Rozwój technologii związanych ze sztuczną inteligencją powoduje, że konieczne jest równoczesne opracowanie środków pozwalających wykrywanie jej wykorzystania w danym procesie. Obecnie obrazy, teksty itd. generowane są masowo i wykorzystywane przez przedsiębiorców, a nawet instytucje państwowe.
Deepfake’i to jedno z rosnących zagrożeń związanych ze sztuczną inteligencją. ProvenView może być jednym z pierwszych narzędzi, które pozwolą wykryć deepfak. Należy jednak pamiętać, że najlepszą jak na razie ochroną jest świadomość tych zagrożeń.
Źródło: