Europejskie Centrum Praw Cyfrowych (NOYB) złożyło skargę na OpenAi do austriackiego organu nadzorczego za brak zapewnienia poprawności danych osobowych osób, których dane wyświetla ChatGPT.

Brak kontroli nad danymi
ChatGPT należący do OpenAI to generatywna sztuczna inteligencja, która jest obecnie bardzo popularna. Wielu użytkowników zaczęło wykorzystywać to narzędzie do różnych celów, w tym do zadań badawczych. Problem polega na tym, że według samego OpenAI, aplikacja generuje odpowiedzi na podstawie przewidywania najbardziej prawdopodobnych słów w reakcji na zapytania użytkowników. Oznacza to, że mimo posiadania obszernych danych szkoleniowych, firma nie jest w stanie zagwarantować, że ChatGPT dostarcza poprawne informacje. Co więcej, narzędzia generatywnej sztucznej inteligencji są znane z tego, że często „halucynują”, czyli po prostu wymyślają odpowiedzi.
Niepoprawne dane w odniesieniu do prostych zapytań mogą śmieszyć, ale sprawa staje się znacznie poważniejsza w odniesieniu do realnych danych osobowych osób fizycznych. Jak wskazuje Maartje de Graaf, prawnik ds. ochrony danych w NOYB:
„Zmyślanie fałszywych informacji jest dość problematyczne samo w sobie. Ale jeśli chodzi o fałszywe informacje o osobach fizycznych, może to mieć poważne konsekwencje. Oczywiste jest, że firmy nie są obecnie w stanie sprawić, by chatboty takie jak ChatGPT były zgodne z prawem UE podczas przetwarzania danych dotyczących osób fizycznych. Jeśli system nie może generować dokładnych i przejrzystych wyników, nie może być wykorzystywany do generowania danych o osobach fizycznych. Technologia musi podążać za wymogami prawnymi, a nie odwrotnie”.
Fałszywe dane
Skarga NOYB do austriackiego organu nadzorczego, wynikła jednak z pewnego konkretnego zdarzenia. Skarżący reprezentowany przez NOYB, zapytał ChatGPT o datę swoich urodzin. Chatbot zaczął mu podawać różne daty – wszystkie nieprawdziwe. Pomimo faktu, że data urodzenia skarżącego podana przez ChatGPT jest nieprawidłowa, OpenAI odrzucił jego prośbę o poprawienie lub usunięcie danych, argumentując, że nie jest możliwe poprawienie takich informacji. OpenAI twierdzi, że może co prawda filtrować lub blokować dane w niektórych wynikach (takich jak imię skarżącego), ale nie bez uniemożliwienia ChatGPT filtrowania wszystkich informacji o nim. OpenAI nie odpowiedział również poprawnie na prośbę skarżącego o dostęp do danych. Chociaż RODO przyznaje użytkownikom prawo do żądania od firm kopii wszystkich danych osobowych, które są przetwarzane na ich temat, OpenAI nie ujawniła żadnych informacji o przetwarzanych danych, ich źródłach lub odbiorcach. NOYB zwrócił się do austriackiego organu ochrony danych o zbadanie przetwarzania danych przez OpenAI i środków podjętych w celu zapewnienia dokładności tego procesu w kontekście dużych modeli językowych firmy.
Sztuczna inteligencja a dane osobowe
Wydaje się ,że firmy oferujące chatboty nie mogą ściśle kontrolować treści generowanych przez sztuczną inteligencję. Oczywiście cześć problematycznych wyników pracy ChatGPT i innych AI może być filtrowana, ale jest to żmudna i czasochłonna praca obarczona ponadto ryzykiem ewentualnych luk. Do tego dochodzi kwestia danych osobowych i RODO. Sztuczna inteligencja może bowiem wykorzystać czyjeś dane osobowe i zacząć je prezentować szerszej publice w zupełnie niepoprawny sposób. Pozostaje to więc istotnym wyzwaniem dla firm technologicznych i organów nadzorczych w poszczególnych państwach.
Źródło:
https://noyb.eu/en/chatgpt-provides-false-information-about-people-and-openai-cant-correct-it