Austriacka organizacja pozarządowa NOYB (None of Your Bussines) złożyła skargę do norweskiego organu nadzorczego ds. ochrony danych osobowych (Datatilsynet) na OpenAI – właściciela ChatGPT. Bezpośrednim powodem złożenia skargi miała być sprawa pewnego obywatela Norwegii, który dowiedział się z ChatGPT, że zamordował własne dzieci. Oczywiście, informacje te zostały zmyślone przez AI. W ocenie organizacji, OpenAI naruszyło w tej sprawie przepisy o ochronie danych osobowych, w tym chociażby w zakresie prawa do sprostowania danych osobowych.

AI i niewiarygodne informacje
Pomimo ogromnej konkurencji na rynku, wydaje się, że ChatGPT wciąż pozostaje jednym z najbardziej popularnych tzw. chatbotów, czyli narzędziem AI, które umożliwia zaawansowaną interakcję z użytkownikami. Narzędzie to, choć może być bardzo przydatne w wielu aspektach życia, nie jest jednak pozbawione wad. Jedną z nich jest tendencja do tzw. halucynacji, tj. wymyślania informacji w przypadku, gdy AI nie ma dostatecznej wiedzy w danym temacie. Przykładem jest sprawa obywatela Norwegii, którego ChatGPT przedstawił w dość nieciekawym świetle. Narzędzie wskazało, że osoba ta zamordowała własne dzieci i została skazana na wiele lat więzienia. Morderstwo nigdy się nie wydarzyło, niemniej historia zawierała również prawdziwe fakty, m.in. w zakresie miejscowości zamieszkania, czy ilości i płci jego dzieci. Wplecenie fałszywej historii w prawdziwe okoliczności nadawało jej pozór wiarygodności, przez co mogła ona stać się jeszcze bardziej szkodliwa dla reputacji wskazanego obywatela Norwegii.
Skarga na ChatGPT (OpenAI) za brak poprawności danych osobowych
Ostrzeżenie nie wystarczy?
ChatGPT jest opatrzony ostrzeżeniem, informującym użytkowników, że generowane przez niego informacje mogą być niezgodne z prawdą. W ocenie NOYB, tego typu ostrzeżenie jest jednak niewystarczające. Organizacja uważa, że zamieszczenie takiego ostrzeżenia nie może prowadzić do nieograniczonego rozpowszechniania fałszywych informacji na temat osób fizycznych. Zgodnie z RODO, każda osoba, której dane są przetwarzane ma prawo żądać sprostowania swoich danych. Uprawnienia tego nie można wyłączyć ogólną klauzulą stwierdzającą, że wszystko co wygeneruje model może nie być prawdą.
Dodatkowa weryfikacja w Internecie
Co ciekawe wskutek tej sprawy OpenAI zaktualizował działanie swojego chatbota, tak, aby mógł on weryfikować swoje odpowiedzi w Internecie. W ocenie NOYB, rozwiązanie to choć zmniejsza ryzyko tzw. halucynacji modelu, nie rozwiązuje jednak problemu. Organizacja podnosi, że OpenAI nie dostarcza bowiem narzędzi niezbędnych do zapewnienia prawdziwości danych generowanych przez ChatGPT. Zdaniem NOYB, dyskusyjne jest również na ile firma w ogóle jest w stanie to zrobić.
Problem z weryfikacją informacji
ChatGPT opiera się o tzw. LLM, czyli duży model językowy. Co do zasady, odpowiada on na pytania, każdorazowo generując odpowiedź, która jest najbardziej prawdopodobna z językowego i kontekstowego punktu widzenia. Zdaniem NOYB, kontrola sprawowana przez OpenAI nad działaniem modelu i generowanymi przez niego treściami nie jest pełna. Niemożliwa jest kompleksowa weryfikacja każdej generowanej odpowiedzi. Firma ma podnosić, że nie ma pełnej kontroli nad danymi treningowymi, gdyż ChatGPT w dużej mierze uczy się od swoich użytkowników. Zwróciła ona również uwagę, że możliwe są co najwyżej różnego rodzaju rozwiązania pośrednie, np. blokowanie poszczególnych tematów. Rozwiązania te jednak tylko wydają się ograniczać problem, zamiast go rozwiązywać.
Źródło: