GDPR.pl – ochrona danych osobowych w UE, RODO, IOD
Portal o unijnym rozporządzeniu o ochronie danych osobowych

Czy aplikacje AI są bezpieczne?

Udostępnij publikację:

Z roku na rok AI jest coraz bardziej wszechobecna w różnych dziedzinach życia. Na fali boomu na sztuczną inteligencję, wciąż powstają coraz to nowsze aplikacje wykorzystujące AI w różnych celach. Aplikacje te kuszą wygodą użytkowania i szerokimi możliwościami. Przed rozpoczęciem korzystania z takich aplikacji warto jednak zastanowić się nad ryzykiem i potencjalnymi zagrożeniami, które mogą one stwarzać, w tym przede wszystkim w kontekście informacji, które będziemy w nich udostępniać.

Czy aplikacje AI są bezpieczne?

AI – nowe wyzwanie dla regulatorów

Nie ulega wątpliwości, że w branży nowych technologii są obszary lepiej zbadane przez teorię i praktykę w zakresie ochrony danych osobowych, jak i takie, w których praktyka dopiero się kształtuje. Niewątpliwie, do tej drugiej kategorii należy m.in. szeroko rozumiana sztuczna inteligencja. W Unii Europejskiej AI Act (rozporządzenie dotyczące sztucznej inteligencji) będzie stopniowo wchodził w życie w ciągu najbliższych lat, a Europejska Rada Ochrony Danych (EROD) i krajowe organy nadzorcze opracowują dopiero wytyczne dotyczące korzystania z AI.

ChatGPT w Europie

Warto zwrócić uwagę, że dotychczas głównym obiektem zainteresowania organów UE i państw członkowskich był ChatGPT, jeden z najbardziej popularnych systemów AI, opartych na modelu GPT. W 2024 roku EROD opracowała raport dotyczący właśnie tego narzędzia. Warto też zaznaczyć, że OpenAI (właściciel ChatGPT) mierzył się już z postępowaniami prowadzonymi przez krajowe organy nadzorcze. N przykład, przez pewien czas ChatGPT był niedostępny we Włoszech wskutek decyzji włoskiego organu nadzorczego. Warto też przypomnieć ciekawą sprawę pewnego obywatela Norwegii, który dowiedział się z ChatGPT, że miał zamordować własną rodzinę. W tej sprawie została złożona skarga do norweskiego organu nadzorczego. Więcej na ten temat pisaliśmy TUTAJ: https://gdpr.pl/czy-ai-wrobi-cie-w-morderstwo. Postępowanie dotyczące ChatGPT ma prowadzić również polski regulator.

Czy AI wrobi cię w morderstwo?

Niebezpieczne aplikacje

ChatGPT jest aplikacją na tyle znaną, że podlega bardzo uważnej obserwacji ze strony zarówno organów nadzorczych, jak i organizacji pozarządowych. W związku z tym, wiele zagrożeń z nim związanych jest albo powszechnie znana, albo staje się przedmiotem zainteresowań organów nadzorczych, dzięki czemu właściciel ChatGPT modyfikuje stosowane rozwiązania, aby minimalizować ryzyko związane z ochroną prywatności. Warto jednak zwrócić uwagę, że na rynku istnieje dużo mniej znanych, ale równie zaawansowanych, aplikacji, które wzbudzają mniejsze zainteresowanie regulatorów choć mogą generować również duże zagrożenie.

CACPUT – postępowanie w Ameryce

Jedną z tych aplikacji jest CAPCUT – należąca do ByteDance (chińskie przedsiębiorstwo będące właścicielem, m.in. Tiktoka) aplikacja służąca do modyfikacji i generowania zdjęć oraz filmów. Aplikacja ta jest bardzo popularna – liczbę jej aktywnych użytkowników szacuje się na około pół miliarda. Tym bardziej niepokojące mogą być kontrowersje związane z jej funkcjonowaniem.

Niekontrolowane wykorzystywanie narzędzi AI rodzi poważne ryzyko wycieku danych

W 2023 roku został złożony pozew zbiorowy do sądu w Illinois przeciwko właścicielowi CAPCUT. Powodowie zarzucili chińskiej firmie szereg nieetycznych i nielegalnych praktyk, obejmujących przede wszystkim bezpodstawne pozyskiwanie i transfer danych osobowych do Chin. Aplikacja miała bezprawnie i bez wiedzy użytkowników zbierać ich dane (w tym dane biometryczne), które następnie przekazywała do Chin. Powodowie zwrócili uwagę, że ByteDance, jako chińskie przedsiębiorstwo, było zobowiązane do dzielenia się danymi z chińskim rządem. W pozwie przytoczono wypowiedź byłego, wysokiego rangą pracownika ByteDance, który miał przyznać, że chińskie władze mają dostęp do tych danych w celu „utrzymywania wartości komunistycznych”.

Wpływ AI na zdrowie neurologiczne

Warto zwrócić uwagę na badania przeprowadzone niedawno w Massachusetts Institute of Technology (MIT) na temat wpływu korzystania z AI na sprawność intelektualną. Naukowcy z MIT przez kilka miesięcy obserwowali i badali trzy grupy badawcze (grupę kontrolną, grupę wykonującą zlecone zadania przy użyciu wyszukiwarki i grupę wykonującą je przy użyciu ChatGPT). Badania EEG, a także przeprowadzone w toku eksperymentu testy, wskazały, że grupa korzystająca z ChatGPT miała najniższe zaangażowanie mózgu, ponadto osiągała gorsze wyniki w testach lingwistycznych i behawioralnych. Autorzy badania zwracają uwagę, że nieodpowiedzialnie używane AI może mieć dewastujący wpływ na zdolności uczenia się, zwłaszcza wśród dzieci.

Niebezpieczne wykorzystanie AI

Zagrożenia związane z AI nie ograniczają się tylko do mało precyzyjnych polityk prywatności, wątpliwości gdzie mogą trafić dane lub do jakich celów zostaną one wykorzystane czy też nawet do potencjalnych konsekwencji neurologicznych. AI to bardzo potężne narzędzie, z którego należy korzystać w odpowiedzialny sposób. Warto przypomnieć o sprawie uczniów podstawówki, którzy wygenerowali nagie zdjęcia koleżanki z użyciem AI (o sprawie pisaliśmy TUTAJ: https://gdpr.pl/uczniowie-generowali-i-rozpowszechniali-nagie-zdjecia-kolezanki-sprawa-zajal-sie-organ-nadzorczy). Ta sprawa pokazała jak wielkie niebezpieczeństwo może stwarzać nieodpowiednie korzystanie z AI, jak również jak ważna jest odpowiednia edukacja w tym zakresie.

Należy pamiętać, żeby z AI – tak jak z wszystkich innych narzędzi technologicznych – korzystać z rozwagą. Warto też w każdym przypadku zastanowić się co najmniej jakimi informacjami dzielimy się lub zamierzamy podzielić się z AI.

 

Źródła:

https://time.com/7295195/ai-chatgpt-google-learning-school/

https://therecord.media/capcut-privacy-lawsuit-illinois-bipa-bytedance-china

https://uodo.gov.pl/pl/138/2823

Jesteśmy częścią grupy Omni Modo
Odwiedź nas na naszych profilach
Newsletter
Ustawienia cookies