Jak podaje serwis Euroactiv, członkowie Parlamentu Europejskiego zaakceptowali tekst AI Act – aktu o sztucznej inteligencji. Jest to próba uregulowania systemów sztucznej inteligencji, w tym programów podobnych do Chat GPT. Nie jest jeszcze znany cały uzgodniony tekst, ale zostały ujawnione najważniejsze zmiany.
Chat GPT
Najnowsze zmiany wokół AI Act koncentrowały się wokół systemów sztucznej inteligencji ogólnego przeznaczenia. Systemy sztucznej inteligencji ogólnego przeznaczenia to systemy sztucznej inteligencji, które mają szeroki zakres możliwych zastosowań, zarówno zamierzonych, jak i niezamierzonych przez programistów. Obecne systemy sztucznej inteligencji ogólnego przeznaczenia charakteryzują się skalą (dużo pamięci, dużo danych i dużo wydajnego sprzętu), a także polegają na uczeniu się „z transferu” (stosowaniu wiedzy z jednego zadania do drugiego). Systemy te są czasami określane jako „modele podstawowe”. Charakteryzują się szerokim zastosowaniem jako wstępnie wyszkolone modele dla innych, bardziej wyspecjalizowanych systemów sztucznej inteligencji. Chat GPT jest przykładem takiego systemu ogólnego przeznaczenia.
W jego kontekście określono, że generatywne modele sztucznej inteligencji, będą musiały być projektowane i rozwijane zgodnie z prawem UE i prawami podstawowymi, a zwłaszcza wolnością słowa. Ponadto firmy tworzące narzędzia, takie jak Chat GPT, będą musiały ujawnić, czy wykorzystały materiały chronione prawem autorskim do szkolenia lub rozwijania swoich systemów.
Systemy o określonym celu
Drugą kategorią systemów sztucznej inteligencji w AI Act są systemy o określonym celu (specific purpose AI). Będą one regulowane na podstawie poziomu ryzyka:
- Niedopuszczalne ryzyko (zakazane)- zwłaszcza:
- systemy sztucznej inteligencji wykorzystywane do „celowej” manipulacji,
- oprogramowanie do identyfikacji biometrycznej (np. rozpoznawanie twarzy) do użytku w czasie rzeczywistym (z wyjątkiem sytuacji, gdy jest używane ex post wyłącznie w przypadku poważnych przestępstw za zgodą sądową),
- oprogramowanie do rozpoznawania emocji wykorzystywane w egzekwowaniu prawa, zarządzaniu granicami, miejscu pracy i edukacji,
- działania prewencyjne w przypadku wykroczeń karnych i administracyjnych.
- Wysokie ryzyko (duże ograniczenia) – systemy, które stwarzają „znaczące ryzyko szkody dla zdrowia, bezpieczeństwa lub praw podstawowych”. Wprowadzono surowe wymagania dotyczące kontroli/ocen stronniczości, zarządzania ryzykiem, przejrzystości i zarządzania danymi oraz śladu środowiskowego.
- Niskie ryzyko (małe ograniczenia).
- Minimalne lub brak ryzyka (brak ograniczeń).
Ogólne wytyczne
Parlamentarzyści zaproponowali również dodanie artykułu zawierającego ogólne zasady dla wszystkich sztucznych inteligencji. Nie będą to nowe obowiązki, ale jedynie włączenie tych zasad do standardów technicznych i wytycznych. Zasady te obejmują udział człowieka w procesach i nadzór dokonywany przez człowieka, solidność techniczną i bezpieczeństwo, prywatność i zarządzanie danymi. Zalicza się do tego także przejrzystość, dobrobyt społeczny i środowiskowy, różnorodność, niedyskryminację i sprawiedliwość.
Etyczne przetwarzanie danych w systemach sztucznej inteligencji
AI Act- czy rozwiąże nasze problemy?
Jako że nie został opublikowany cały tekst AI Act, nie wiemy np., czy postanowiono zmienić definicje sztucznej inteligencji. Pierwotna definicja jest dość restrykcyjna i nie pozwala na objęcie nią nowych systemów SI, które z pewnością pojawią się w przyszłości. Ponadto trzeba podkreślić, że cała regulacja będzie jedną z najbardziej restrykcyjnych na świecie. Unia Europejska będzie stawiała ochronę praw i wolności wyżej niż wyścig w opracowywaniu coraz lepszych, szybszych i wydajniejszych sztucznych inteligencji. Pojawia się wiec obawa, że może to sprawić, że UE pozostanie w tyle za USA i Chinami w tym wyścigu.