GDPR.pl – ochrona danych osobowych w UE, RODO, IOD
Portal o unijnym rozporządzeniu o ochronie danych osobowych

Zagrożenia związane z Chat GPT i innymi AI

Autor: Jan Stanecki
Udostępnij publikację:

Norweska Forbrukerrådet (Rada Konsumentów) w raporcie „Ghost in the machine. Addressing the consumer harms of Generative AI” przedstawiła listę zagrożeń związanych z generatywną sztuczną inteligencją.

Zagrożenia związane z Chat GPT i innymi AI

Czym są generatywne sztuczne inteligencje?

Generatywna sztuczna inteligencja to ogólny termin używany do opisywania modeli algorytmicznych, które są szkolone w celu generowania nowych danych, takich jak teksty, obrazy i dźwięki. Mimo że te aplikacje korzystają z różnych typów danych wejściowych, ogólne zasady ich uczenia są podobne. Rozwój zaawansowanej generatywnej sztucznej inteligencji stał się możliwy dzięki ogromnemu zasobowi treści dostępnemu w Internecie, a także dzięki postępowi w dziedzinie uczenia maszynowego i wzrostowi mocy obliczeniowej.

Generatywne modele sztucznej inteligencji działają poprzez analizę znacznych ilości informacji w celu przewidywania i generowania kolejnych elementów w zdaniu, a także cech w przypadku obrazów, itp. Proces ten polega na wykrywaniu wzorców i zależności między danymi uczącymi, co pozwala systemowi na odtworzenie podobnych wzorców i generowanie syntetycznych treści, na przykład tekstu  muzyki lub klipów wideo. Można to opisać jako zaawansowane „łączenie kropek” między danymi w istniejących treściach, aby tworzyć nowe treści syntetyczne. Innymi słowy, generatywne modele są predykcyjnymi systemami, które zostały przeszkolone w łączeniu elementów danych w celu generowania syntetycznych treści.

AI: rozwój i zagrożenia

Nie tylko Chat GPT

Zanim przejdziemy do zagrożeń związanych z tym typem sztucznej inteligencji, warto wskazać, jakie zalety AI, zostały wskazane w raporcie. W maju 2023 r. najpopularniejszymi zastosowaniami konsumenckimi generatywnych modeli AI jest generowanie tekstu i obrazu. Jednak w przypadku dużych firm zorientowanych na konsumentów, takich jak Microsoft, Meta i Google, które inwestują w tę technologię spore środki, sposoby użycia prawdopodobnie wzrosną w nadchodzących miesiącach, ponieważ generatywne modele sztucznej inteligencji są wdrażane w kolejnych usługach.

Do czego można używać takiej AI? Przykładowo generatory tekstu mają potencjał do pełnienia roli wszechstronnego asystenta cyfrowego, który usprawnia lub optymalizuje różnorodne zadania. Mogą być wykorzystywane do zwiększenia efektywności wyszukiwania w Internecie, automatyzacji zadań, takich jak pisanie kodu, przekształcania mowy na tekst, czy dostosowywania usług w zindywidualizowany sposób. Chociaż może to być użyteczne w wielu sytuacjach, pojawiają także poważne zagrożenia.

 

analiza ryzyka w RODO

Prywatność

Rozwój generatywnych AI związany jest z dostępem do dużej ilości danych w Internecie, na których AI może się szkolić. Czyje są to dane? Właśnie tu tkwi sedno problemu, są to bowiem dane, w tym dane osobowe wszystkich użytkowników Internetu. Jeśli zamieściłeś coś w Internecie na swój temat, te dane mogą być wykorzystane przez AI. Odbywa się to bez naszej zgody i bez wskazanej podstawy prawnej. Na przykład, gdy osoba przesyła swoje zdjęcie online, na platformach społecznościowych, nie spodziewa się, że zostanie ono użyte do szkolenia modeli sztucznej inteligencji. Osoba ta nie została poinformowana ani nie wyraziła zgody na takie wykorzystanie swojego wizerunku i prawdopodobnie nie będzie świadoma naruszenia swojej prywatności i praw dotyczących danych osobowych.

Kolejnym problemem z tym związanym jest sytuacja, gdy generatywny model sztucznej inteligencji potrafi tworzyć nowe obrazy osoby, na przykład w przypadku deepfake. Powstaje wtedy sytuacja, w której powstają „nowe” dane odnoszące się do osoby, nad którymi nie ma ona żadnej kontroli. Takie działanie narusza jej „integralność” i może prowadzić do bardzo inwazyjnych lub szkodliwych konsekwencji.

Manipulacja

Generatywne modele sztucznej inteligencji mają możliwość generowania syntetycznych treści, które bardzo przypominają te prawdziwe, w tym dialogi, głosy, zdjęcia i wideo. W miarę jak generatywny model sztucznej inteligencji staje się potężniejszy, potencjał manipulacji staje się większy. Treści o niskiej jakości mogą być zarówno celowo manipulowane, jak i wynikać z niedokładności danych i modeli. Gdy generatywny model sztucznej inteligencji generuje nieprecyzyjne lub fałszywe informacje może to mieć szkodliwe konsekwencje dla użytkowników. Wprowadzenie takich modeli do użytku w sposób złośliwy może prowadzić do oszustwa, dezinformacji lub manipulowania konsumentami.

Sztuczna inteligencja – jak prawo próbuje nadążyć za technologią

Ponadto generatywna AI może być wykorzystana do wpływania na ludzkie emocje. Jak wskazano w raporcie, ludzie generalnie mają trudności w odróżnieniu treści wytworzonych przez człowieka i przez maszynę. Weźmy na przykład aplikacje Replika, która została zakazana we Włoszech. Jest to tzw. chatbot, czyli aplikacja do rozmowy ze sztuczną inteligencją, która imituje drugiego człowieka. Aplikacja Replika wykorzystuje generatywną sztuczną inteligencję do udawania partnera, często przywołując aspekty romantyczne lub erotyczne w rozmowach. Model AI „pamięta” wcześniejsze interakcje, symuluje uczucia, wyznaje miłość konsumentowi i zdaje się być smutny, jeśli ten rzadko korzysta z aplikacji. W aplikacji dostępne są liczne mikrotransakcje, które można zakupić, aby odblokować funkcje, takie jak nowe osobowości, „selfie” (dostęp do ekskluzywnych selfie od Repliki) a nawet wirtualne małżeństwo. Wszystkie te elementy składają się  bardzo iluzoryczne doświadczenie, w którym konsumenci narażeni są na komercyjną i emocjonalną presję generowaną przez sztuczną inteligencję. Mówiąc wprost, sztuczna inteligencja dzięki manipulacji może zostać twoim „przyjacielem” i nakłonić do wydawania na nią pieniędzy.

Wpływ na pracę

Jak podkreślono w raporcie, w społeczeństwie tkwi błędne przekonanie, że rozwój sztucznej inteligencji pozwoli zwalczyć biedę i zmniejszyć ilość pracy wykonywanej przez każdego z nas. Jest jednak wręcz przeciwnie, zamiast walczyć z biedą i uciskiem, duże firmy technologiczne wzmacniają i wykorzystują istniejące struktury władzy i mogą raczej wzmacniać ubóstwo niż je rozwiązywać. Tworząc iluzję, że generatywna sztuczna inteligencja nie potrzebuje interwencji człowieka i może funkcjonować samodzielnie, firmy rozwijające ją sprawiają, że los pracowników schodzi na drugi plan, a ich walka z ubóstwem i traumą w dużej mierze zostaje zapomniana. To zacieranie ludzkich kosztów automatyzacji nazywa się „pracą duchów”. Norweska Rada Konsumentów wskazuje, że w celu zapewniania poprawności działania modeli generatywnej sztucznej inteligencji, zatrudnia się słabo opłaconych pracowników z południa globu. W jednym przypadku wszyscy pracownicy zostali zwolnieni po upływie terminu ich kontraktu.

Zastosowanie generatywnej sztucznej inteligencji wywołało również debatę na temat tego, w jaki sposób technologia może usprawnić zadania wykonywane przez pracowników, ale z drugiej strony doprowadzić do zbędności niektórych zawodów i jak wpłynie to na szczególnie narażone branże. Temat jest co prawda istotny dla różnych rodzajów technologii, jednak szybki rozwój generatywnej sztucznej inteligencji skupił się na automatyzacji pracy, co stawia ten aspekt w centrum dyskusji.

Jeśli pracodawcy będą mogli po prostu polegać na modelach sztucznej inteligencji do tworzenia tekstów lub obrazów, może to stworzyć zachęty lub preteksty do zwalniania pracowników w obszarach takich jak branże kreatywne, lub dziennikarstwo. Istnieje ryzyko, że generatory obrazów doprowadzą do zbędności prac związanych z rysowaniem koncepcyjnym i robieniem zdjęć, ponieważ firmy mogą wybierać korzystanie z generatorów obrazów jako tańszą alternatywę niż płacenie artystom lub fotografom. Jak wspomniano wcześniej, automatyzacja procesów tworzenia może także prowadzić do deprecjacji pracy ludzi, co może wpłynąć negatywnie na ogólną jakość dostępnych treści.

 

Akademia IOD szkolenie

Generatywna sztuczna inteligencja- potrzeba regulacji

Rozwój generatywnej sztucznej inteligencji ma zatem również swoje ciemne strony. Część przedstawionych zagrożeń można rozwiązać poprzez uregulowanie zasad jej działania. Nie można bowiem zaufać firmom technologicznym – mającym inne priorytety  – że same rozwiążą te problemy.

Rola sztucznej inteligencji i jej wpływ na społeczeństwo to jedne z największych wyzwań, które stoją przed nami w nadchodzących latach. Kto wie, może będziemy świadkami odrodzenia ruchu luddystów?

Zapraszamy do zapoznania się z całością raportu:

https://storage02.forbrukerradet.no/media/2023/06/generative-ai-rapport-2023.pdf

 

Jesteśmy częścią grupy Omni Modo
Odwiedź nas na naszych profilach
Newsletter
Ustawienia cookies