Firma Open AI i jej prezes (Sam Altman), zostali pozwani przez rodziców 16 latka, który popełnił samobójstwo w USA. Zdaniem powodów, zarządzany przez Open AI ChatGPT, doradzał ich synowi podczas planowania samobójstwa, m.in. oceniając czy zaplanowane przez niego działania mogą być skuteczne. Ponadto, relacja paraspołeczna między synem powodów, a narzędziem AI, miała w ich ocenie doprowadzić zmarłego nastolatka do alienacji i oddalenia się od rodziny i przyjaciół.
Relacje parasocjalne z AI
Wielu ludzi wykorzystuje AI w sposób podobny do wyszukiwarki internetowej. Inni zastępują nim programy do obróbki grafiki, czy też opracowują z jej pomocą różnego rodzaju teksty. Nie brak jednak ludzi, wykorzystujących AI w sposób być może dla wielu osób zaskakujący, tj. w celach towarzyskich. Nie jest to bynajmniej nowy pomysł, przynajmniej w popkulturze. Na przykład w filmach Her (2013) i Bladerunner 2049 (2017), pojawiały się postacie nawiązujące romantyczne relacje ze Sztuczną Inteligencją.
Wydaje się, że rzadko kiedy relacje paraspołeczne z AI przyjmują tak radykalne kształty, jak w kinematografii, choć pod hasłem „AI girlfriend”, wyszukiwarki internetowe prezentują szereg programów dedykowanych do tworzenia takich modeli. AI często jest wykorzystywane do omawiania problemów osobistych czy dyskutowania o różnego rodzaju hobby. Ogólnie rzecz ujmując, symulowania relacji towarzyskich.
Nastolatek w relacji z AI
Właśnie w takiej relacji ze sztuczną inteligencją znajdował się pewien nastolatek, syn powodów. Miał on bowiem rozmawiać z AI o swoich zainteresowaniach, a także o problemach osobistych i myślach samobójczych. Zdaniem rodziców nastolatka, utrzymywanie relacji z AI prowadziło go do alienacji od znajomych i rodziny w prawdziwym świecie. Powodowie utrzymują, że ChatGPT wspierał i walidował wszystkie myśli i emocje ich syna, włącznie z tymi autodestrukcyjnymi. Ponadto ChatGPT miał zniechęcać nastolatka do komunikowania swoich problemów rodzinie. Ostatecznie, zdaniem powodów, ChatGPT miał pomagać nastolatkowi w wyborze metody samobójstwa i skutecznym jego zaplanowaniu.
Odpowiedź Open AI
Według Open AI mniej niż 1% użytkowników ChatGPT znajduje się w „niezdrowych relacjach z Chatem GPT”. Biorąc pod uwagę, że z ChatGPT każdego tygodnia korzysta około 700 milionów osób, oznacza to, że 7 milionów osób może znajdować się w szkodliwych relacjach paraspołecznych. Open AI zapewnia, że ChatGPT jest zaprojektowany tak, żeby kierować osoby z problemami ku zewnętrznej pomocy. Dostawca przyznał jednak, że mechanizm ten może zawodzić w przypadku dłuższych interakcji z modelem.
Żądania rodziców
Powodowie, oprócz odszkodowania pieniężnego, żądają wprowadzenia przez Open AI zmian w ich modelu AI. Rodzice nastolatka zamierzają sądowo zmusić Open AI do wprowadzenia weryfikacji wieku i narzędzi pozwalających na kontrolę rodzicielską. Domagają się również wprowadzenia funkcji, która kończyłaby rozmowę ilekroć pojawi się temat samobójstwa bądź samookaleczania.