GDPR.pl – ochrona danych osobowych w UE, RODO, IOD
Portal o unijnym rozporządzeniu o ochronie danych osobowych
8 października 2025

Dostawca AI pozwany. W tle samobójstwo nastolatka

Autor: Redakcja
Źródło: https://edition.cnn.com/2025/08/26/tech/openai-chatgpt-teen-suicide-lawsuit
Udostępnij publikację:

Firma Open AI i jej prezes (Sam Altman), zostali pozwani przez rodziców 16 latka, który popełnił samobójstwo w USA. Zdaniem powodów, zarządzany przez Open AI ChatGPT, doradzał ich synowi podczas planowania samobójstwa, m.in. oceniając czy zaplanowane przez niego działania mogą być skuteczne. Ponadto, relacja paraspołeczna między synem powodów, a narzędziem AI, miała w ich ocenie doprowadzić zmarłego nastolatka do alienacji i oddalenia się od rodziny i przyjaciół.

Dostawca AI pozwany. W tle samobójstwo nastolatka

Relacje parasocjalne z AI

Wielu ludzi wykorzystuje AI w sposób podobny do wyszukiwarki internetowej. Inni zastępują nim programy do obróbki grafiki, czy też opracowują z jej pomocą różnego rodzaju teksty. Nie brak jednak ludzi, wykorzystujących AI w sposób być może dla wielu osób zaskakujący, tj. w celach towarzyskich. Nie jest to bynajmniej nowy pomysł, przynajmniej w popkulturze. Na przykład w filmach Her (2013) i Bladerunner 2049 (2017), pojawiały się postacie nawiązujące romantyczne relacje ze Sztuczną Inteligencją.

Wydaje się, że rzadko kiedy relacje paraspołeczne z AI przyjmują tak radykalne kształty, jak w kinematografii, choć pod hasłem „AI girlfriend”, wyszukiwarki internetowe prezentują szereg programów dedykowanych do tworzenia takich modeli. AI często jest wykorzystywane do omawiania problemów osobistych czy dyskutowania o różnego rodzaju hobby. Ogólnie rzecz ujmując, symulowania relacji towarzyskich.

Nastolatek w relacji z AI

Właśnie w takiej relacji ze sztuczną inteligencją znajdował się pewien nastolatek, syn powodów. Miał on bowiem rozmawiać z AI o swoich zainteresowaniach, a także o problemach osobistych i myślach samobójczych. Zdaniem rodziców nastolatka, utrzymywanie relacji z AI prowadziło go do alienacji od znajomych i rodziny w prawdziwym świecie. Powodowie  utrzymują, że ChatGPT wspierał i walidował wszystkie myśli i emocje ich syna, włącznie z tymi autodestrukcyjnymi. Ponadto ChatGPT miał zniechęcać nastolatka do komunikowania swoich problemów rodzinie. Ostatecznie, zdaniem powodów, ChatGPT miał pomagać nastolatkowi w wyborze metody samobójstwa i skutecznym jego zaplanowaniu.

Czy aplikacje AI są bezpieczne?

Odpowiedź Open AI

Według Open AI mniej niż 1% użytkowników ChatGPT znajduje się w „niezdrowych relacjach z Chatem GPT”. Biorąc pod uwagę, że z ChatGPT każdego tygodnia korzysta około 700 milionów osób, oznacza to, że 7 milionów osób może znajdować się w szkodliwych relacjach paraspołecznych. Open AI zapewnia, że ChatGPT jest zaprojektowany tak, żeby kierować osoby z problemami ku zewnętrznej pomocy. Dostawca przyznał jednak, że mechanizm ten może zawodzić w przypadku dłuższych interakcji z modelem.

Żądania rodziców

Powodowie, oprócz odszkodowania pieniężnego, żądają wprowadzenia przez Open AI zmian w ich modelu AI. Rodzice nastolatka zamierzają sądowo zmusić Open AI do wprowadzenia weryfikacji wieku i narzędzi pozwalających na kontrolę rodzicielską. Domagają się również wprowadzenia funkcji, która kończyłaby rozmowę ilekroć pojawi się temat samobójstwa bądź samookaleczania.

 

Jesteśmy częścią grupy Omni Modo
Odwiedź nas na naszych profilach
Newsletter
Ustawienia cookies