GDPR.pl – ochrona danych osobowych w UE, RODO, IOD

Osiągnięto porozumienie w sprawie AI Act

European flags flap in the wind outside EU headquarters in Brussels, Belgium on Oct. 31, 2018

Osiągnięciem porozumienia zakończyły tajne negocjacje (trilogi) w sprawie uzgodnienia tekstu unijnego aktu o sztucznej inteligencji (AI Act). Teraz konieczne będzie zatwierdzenie unijnego aktu dotyczącego sztucznej inteligencji m.in. przez europosłów. Jest to jednakże ważny krok ku uchwaleniu pierwszego na świecie kompleksowego aktu prawnego regulującego tematykę sztucznej inteligencji.

Problemy z uchwaleniem AI Act

Porozumienie w sprawie AI Act stanowi istotny krok naprzód i pozwala mieć nadzieję na szybsze  uchwalenie nowego prawa. Sam akt prawny negocjowany jest już bowiem od 2021 r. Wcześniejsze porozumienie w sprawie AI Act było kwestionowane, głównie z powodu niedawnych obiekcji Francji, Niemiec i Włoch. Kraje te niespodziewanie sprzeciwiły się regulacjom dotyczącym modeli podstawowych, obawiając się, że mogą one hamować rozwój rynku sztucznej inteligencji w Europie. A państwa te, szczególnie Francja, mocno inwestują w rozwój sztucznej inteligencji.

Sztuczna inteligencja – jak prawo próbuje nadążyć za technologią

Zakazane zastosowania sztucznej inteligencji

Uzgodniony tekst AI Act mając na uwadze zagrożenia ze strony sztucznej inteligencji, zakazuje:

  1. systemów kategoryzacji biometrycznej, które wykorzystują dane wrażliwe (np. przekonania polityczne, religijne, filozoficzne, orientację seksualną, rasę);
  2. systemów sztucznej inteligencji, które manipulują ludzkim zachowaniem;
  3. pobierania obrazów twarzy z Internetu lub nagrań CCTV w celu tworzenia baz danych rozpoznawania twarzy;
  4. rozpoznawania emocji w miejscu pracy i instytucjach edukacyjnych;
  5. scoringu społecznego opartego na zachowaniach społecznych lub cechach osobistych;
  6. sztucznej inteligencji ukierunkowanej do wykorzystywania słabości ludzi (ze względu na ich wiek, niepełnosprawność, sytuację społeczną lub ekonomiczną).

Wskazane powyżej zastosowania sztucznej inteligencji będą bezwzględnie zakazane i w żadnym stopniu nie będą mogły być wykorzystywane.

Posłuchaj podcastu klikając w grafikę poniżej

Obowiązki dotyczące systemów wysokiego ryzyka

Kolejne ustalenia w sprawie AI Act dotyczą szczególnej kategorii systemów sztucznej inteligencji, które są uznane za systemy wysokiego ryzyka (ze względu na ich znaczące potencjalne szkody dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji i praworządności). W ich przypadku uzgodniono jasne obowiązki. Obligatoryjna będzie dla tych systemów ocena wpływu na prawa podstawowe. Ponadto systemy sztucznej inteligencji wykorzystywane do wpływania na wyniki wyborów i zachowania wyborców będą również klasyfikowane jako obarczone wysokim ryzykiem. Obywatele będą mieli prawo do składania skarg na systemy AI i otrzymywania wyjaśnień dotyczących decyzji opartych na systemach wysokiego ryzyka, które mają wpływ na ich prawa.

Wyjątki dla organów ścigania

W porozumieniu uzgodniono również szereg zabezpieczeń i wyjątków od stosowania biometrycznych systemów identyfikacji (RBI) w publicznie dostępnych przestrzeniach do celów egzekwowania prawa, z zastrzeżeniem uprzedniej zgody sądu i ściśle określonych list przestępstw. Zdalne RBI byłoby wykorzystywane wyłącznie w poszukiwaniach osób skazanych lub podejrzanych o popełnienie poważnego przestępstwa.

RBI „w czasie rzeczywistym” spełniałby rygorystyczne warunki, a jego użycie byłoby ograniczone w czasie i miejscu, do celów:

  1. poszukiwań ofiar (uprowadzenia, handel ludźmi, wykorzystywanie seksualne),
  2. zapobiegania konkretnemu i obecnemu zagrożeniu terrorystycznemu, lub
  3. lokalizacji lub identyfikacji osoby podejrzanej o popełnienie jednego z konkretnych przestępstw wymienionych w rozporządzeniu (np. terroryzm, handel ludźmi, wykorzystywanie seksualne, zabójstwo, porwanie, gwałt, napad z bronią w ręku, udział w organizacji przestępczej, przestępstwa przeciwko środowisku).

Bariery dla systemów sztucznej inteligencji

W celu uwzględnienia szerokiego zakres zadań, jakie mogą wykonywać systemy sztucznej inteligencji i szybki rozwój ich możliwości, uzgodniono, że systemy sztucznej inteligencji ogólnego przeznaczenia (GPAI) i modele GPAI, na których są oparte, będą musiały spełniać wymogi przejrzystości. Obejmują one sporządzanie dokumentacji technicznej, przestrzeganie prawa autorskiego UE i rozpowszechnianie szczegółowych podsumowań dotyczących treści wykorzystywanych do szkolenia. W przypadku modeli GPAI o dużym ryzyku systemowym określono bardziej rygorystyczne obowiązki. Jeśli modele te spełniają określone kryteria, będą musiały zostać poprzedzone oceną modeli, szacowaniem i ograniczaniem ryzyka systemowego, przeprowadzeniem testów kontradyktoryjności, uwzględniano również zgłaszanie Komisji poważnych incydentów, zapewnienie cyberbezpieczeństwa i raportowanie swojej efektywności energetycznej.

Sankcje i wsparcie innowacji

Porozumienie zawiera w sobie zapisy dotyczące promocji i wsparcia rozwoju sztucznej inteligencji. W tym celu promuje tak zwane piaskownice regulacyjne i testy w warunkach rzeczywistych, ustanowione przez organy krajowe w celu opracowania i przeszkolenia innowacyjnej sztucznej inteligencji przed wprowadzeniem na rynek.

Określono też sankcje za nieprzestrzeganie zasad AI Act. Brak zgodności może prowadzić do nałożenia kar w wysokości do 35 milionów euro lub 7% globalnego obrotu, w zależności od naruszenia i wielkości firmy.

AI Act nie taki idealny

AI Act nie jest wyłącznie chwalony. Cześć krytyków wskazuje, że jeśli jego przepisy wejdą w życie, to część postanowień nie będzie adekwatna do aktualnego etapu rozwoju sztucznej inteligencji. Ponadto podnosi się, że sposób uregulowania systemów sztucznej inteligencji ogólnego zastosowania nie bierze pod uwagę rzeczywistego łańcucha dostaw i nakłada wymagania, które są nieproporcjonalne oraz mogą być trudne lub niemożliwe do spełnienia przez wiele firm. Ten fakt może wpłynąć na to, że liczne podmioty nie będą konkurencyjna w stosunku do gigantów w branży, co zastopuje innowacje.

Ponadto warto wskazać, że nie przedstawiono jeszcze konkretnych przepisów AI Actu, a same proponowane treści wiele razy były zmieniane w ciągu trwania wieloletnich negocjacji. Przepisy mają zostać przedstawione w najbliższych miesiącach, ale ciągłe zmiany, powodują, że przedsiębiorcy mogą być zdezorientowani i nie wiedzieć jak planować działania na najbliższe lata.

AI: rozwój i zagrożenia

Rewolucja w sztucznej inteligencji

Porozumienie pozwoli w końcu ustalić taką formę AI Act, aby była ona akceptowalna dla państw członkowskich. Nadal nie jest pewne, czy uda się przyjąć AI Act w grudniu – Parlament Europejski musi jeszcze zatwierdzić jego ustalony kształt. Niemniej jednak porozumienie stanowi zdecydowane przełamanie impasu, który budził obawy co do możliwości finalizacji prac nad tym prawem. Ważne jest również podkreślenie, że zakłada się okres przejściowy trwający dwa lata, co oznacza, że przy założeniu jego przyjęcia w następnym roku, zacznie obowiązywać faktycznie dopiero w 2026 roku. Niemniej jednak będzie pierwszym na świecie takim prawem i podobnie jak RODO może w przyszłości stanowić wzór dla innych podobnych regulacji.