GDPR.pl – ochrona danych osobowych w UE, RODO, IOD
Portal o unijnym rozporządzeniu o ochronie danych osobowych

AI: rozwój i zagrożenia

Autor: Jan Stanecki
Udostępnij publikację:

Rozwój sztucznej inteligencji (SI) w ostatnich latach znacząco przyśpieszył. Pojawienie się Chat GPT czy Midjourney (aplikacja do wytwarzania obrazów i zdjęć przez SI) przyniosło za sobą fale huraoptymizmu i zachwytu nad możliwościami komercyjnych programów posługującymi się sztuczną inteligencją. Jednakże taki rozwój technologii niesie ze sobą nie tylko wielkie możliwości, ale też zagrożenia, w tym dla prywatności.

AI: rozwój i zagrożenia

Brak ram prawnych

Zachwyt nad rozwojem SI przypomina optymizm związany z początkami Internetu. Wtedy uwagę opinii publicznej zajmował ogrom możliwości, jaki niósł on ze sobą, ale jak okazało  – przyniósł też wiele złego. Sytuacja może powtórzyć się ze sztuczną inteligencją.

Szef Google, Sundar Pichai, alarmuje, że ta technologia może się okazać bardzo szkodliwa. Twierdzi nawet, że obawy związane z bezpieczeństwem SI nie pozwalają mu spokojnie zasnąć. Słusznie wskazuje, że obecnie nie funkcjonują żadne ramy prawne, formalizujące rozwój SI lub regulujące jej użycie. Inicjatywa Unii Europejskiej związana z AI Act, zawiera nieaktualne już definicje, które np. nie kwalifikowałyby Chat GPT jako SI. Stany Zjednoczone i Chiny są nastawione na jak najszybszy rozwój sztucznej inteligencji i nie prowadzą żadnych inicjatyw w kierunku regulacji tej technologii. Jak wskazuje szef Google, SI niesie ze sobą duże zagrożenia związane z możliwością siania dezinformacji.

Sztuczna inteligencja – jak prawo próbuje nadążyć za technologią

Prywatność

Chat GPT i inne technologie wykorzystujące sztuczną inteligencję, aby móc rozwijać swoje możliwości, muszą być „karmione” danymi, w tym danymi osobowymi. Sporym zagrożeniem jest udostępnianie takim programom danych osobowych, gdyż przez takie działanie, tracimy nad nimi kontrolę. Chat GPT może następnie wykorzystać te dane, do sformułowania odpowiedzi innemu użytkownikowi. Nie jest jednak to jedyne zagrożenie związane z naszą prywatnością.

Wizerunek

Sztuczna inteligencja pozwala również na swobodne generowanie zdjęć lub obrazów przedstawiających dowolną treść. Opublikowane na Facebooku zdjęcie może zostać wykorzystane do stworzenia fałszywych obrazów np. wykorzystania naszego wizerunku do promocji pornografii. Sztuczna inteligencja pozwala również na tworzenie zupełnie „nowych” osób i ich zdjęć. Na Instagramie np. funkcjonuje już wiele kont, które nie publikują zdjęć prawdziwych osób, tylko te wygenerowane przez SI.

Ponadto wykorzystując próbki głosu i wideo można stworzyć tzn. „deepfake”.  W rezultacie może powstać wideo ze znanym aktorem np. Leonardo DiCaprio, gdzie aktor przemawia swoim głosem, ale recytuje Mein Kampf.

Etyczne przetwarzanie danych w systemach sztucznej inteligencji

Oszustwo z wykorzystaniem głosu

Sztuczna inteligencja może być wykorzystana również w oszustwach skierowanych przeciwko zwykłym ludziom. Jak podaje Independent, przestępcy wykorzystali SI do wygenerowania nagrania głosu młodej dziewczyny, w którym prosi o pomoc swoją mamę. Następnie zadzwonili do matki ofiary i zażądali okupu, przedstawiając głos córki jako dowód. Wygenerowany przez SI głos przekonująco płakał i błagał rodzicielkę o pomoc.  Matka dziewczyny była przekonana o prawdziwości rozmowy, była pewna, że po drugiej stronie telefonu porywacze, przetrzymują jej córkę. Na szczęście kobieta odkryła oszustwo w momencie, gdy przyjaciółka córki potwierdziła, iż dziewczyna jest zupełnie bezpieczna. Obecnie używane programy wykorzystujące sztuczną inteligencję pozwalają na takie działania, a próbka głosu pozwala podszyć się pod dowolną osobę.

Perspektywy

Nie można jednak popadać w nadmierny pesymizm. Technologia wciąż jest w fazie rozwoju i nie zawsze działa idealnie. Obecna sztuczna inteligencja nie jest również o krok od stania się Skynetem, daleko jej też do osiągnięcia samoświadomości. Trzeba jednak  pamiętać, że jej rozwój niesie ze sobą również wiele zagrożeń  – może zostać wykorzystana w celach przestępczych lub do siania dezinformacji.  Każda nowinka powinna być wykorzystywana z rozwagą i sztuczna inteligencja nie jest tu wyjątkiem.

Źródła:

https://businessinsider.com.pl/technologie/nowe-technologie/szef-googlea-o-sztucznej-inteligencji-nie-pozwala-mi-spac-w-nocy/cq28qgk

https://www.independent.co.uk/tech/ai-voice-clone-scam-kidnapping-b2319083.html

https://www.komputerswiat.pl/aktualnosci/nauka-i-technika/leonardo-dicaprio-przemowi-plynna-polszczyzna-dubbingowy-deepfake-moze-byc-rewolucja/fg185wn

https://www.livemint.com/news/world/your-favourite-instagram-face-might-not-be-a-human-how-ai-is-taking-over-influencer-roles-11659281081398.html

Jesteśmy częścią grupy Omni Modo
Odwiedź nas na naszych profilach
Newsletter
Ustawienia cookies