GDPR.pl – ochrona danych osobowych w UE, RODO, IOD
Portal o unijnym rozporządzeniu o ochronie danych osobowych

AI tylko dla osób pełnoletnich?

Autor: Redakcja
Udostępnij publikację:

Jeden z dostawców systemu opartego o sztuczną inteligencję (Character.AI), poinformował, że zamierza ograniczyć dostęp do swoich usług dla osób niepełnoletnich. Zmiana ta prawdopodobnie jest pokłosiem pozwów wniesionych przeciwko firmie, związanych z samobójstwami nastolatków, którzy mieli wchodzić w bliskie relacje emocjonalne z chatbotami LLM. Równocześnie, amerykański kongres pracuje nad przepisami, które uczyniłby takie ograniczenie prawem federalnym.

AI tylko dla osób pełnoletnich?

Możliwy wpływ AI na najmłodszych

Jednym z najpoważniejszych problemów socjologicznych stwarzanych przez AI, jest jej prawdopodobny negatywny wpływ na psychikę dzieci i młodzieży. Wskazuje się, że nastolatkowie są wyjątkowo podatni na tworzenie paraspołecznych więzi z modelami LLM, a firmy dostarczające narzędzia AI regularnie muszą mierzyć się z pozwami, wnoszonymi m.in. w związku z samobójstwami nastolatków. O obu tych problemach pisaliśmy w sierpniu, w kontekście pozwu wniesionego przeciwko OpenAI, w którym rodzice zarzucali dostawcy, że relacja paraspołeczna z ChatemGPT była przyczyną samobójstwa ich syna. Z podobnymi zarzutami mierzy się obecnie inny dostawca AI – Character.AI.

Character.AI w ogniu krytyki

Według doniesień, w zeszłym roku firma Character.AI została pozwana w związku z samobójstwem czternastolatka, który – jak informują rodzice – wykształcił więź emocjonalną z modelem AI. Zdaniem powodów, więź ta przyczyniła się do samobójstwa nastolatka, a technologia stosowana przez Character.AI jest niebezpieczna i nieprzetestowana. To nie jedyny pozew wniesiony przeciw Character.AI w związku ze śmiercią nastolatka – dziennik Guardian donosi o co najmniej trzech innych sprawach.

Wskazane sprawy oraz plany amerykańskiej legislacji, stały się prawdopodobną przyczyną wprowadzenia przez firmę nowych standardów, zgodnie z którymi użytkownicy poniżej 18 roku życia nie będą mogli korzystać z „towarzyszy AI”. Zmiana ta ma zminimalizować negatywny wpływ AI na psychikę najmłodszych użytkowników.

Planowana zmiana przepisów w USA

W przyszłym roku w Kalifornii zacznie obowiązywać prawo zabraniające niepełnoletnim osobom dostępu do systemów AI generujących treści o charakterze seksualnym. Przepisy zobowiązywać będą również dostawców do regularnego przypominania o tym, że użytkownik rozmawia z modelem AI. Jeszcze dalej mają iść projektowane regulacje na poziomie federalnym. Projekt przewiduje całkowity zakaz dostępu do „towarzyszy AI” dla osób niepełnoletnich i nakłada powszechny obowiązek weryfikacji wieku użytkowników przez wszystkich dostawców AI.

Zdaniem niektórych komentatorów rozwiązania przyjęte przez Kalifornię mogą powodować dodatkowe problemy. Przymus weryfikacji wieku wprowadzi bowiem konieczność identyfikacji użytkownika, co całkowicie uniemożliwi anonimowe korzystanie z narzędzi AI. Autorzy tych opinii wskazują na negatywne konsekwencje dla prywatności użytkowników. Wprowadzenie takiego obowiązku doprowadzi bowiem do przetwarzania dużych ilości danych, które umożliwią powiązanie informacji posiadanych przez modele AI z konkretnymi osobami.

Źródła:

Character.AI bans users under 18 after being sued over child’s suicide | Artificial intelligence (AI) | The Guardian

A Surveillance Mandate Disguised As Child Safety: Why the GUARD Act Won’t Keep Us Safe | Electronic Frontier Foundation

Jesteśmy częścią grupy Omni Modo
Odwiedź nas na naszych profilach
Newsletter
Ustawienia cookies