GDPR.pl – ochrona danych osobowych w UE, RODO, IOD
Portal o unijnym rozporządzeniu o ochronie danych osobowych

Etyczne przetwarzanie danych w systemach sztucznej inteligencji

Autor: Monika Adamczyk
Udostępnij publikację:
Etyczne przetwarzanie danych w systemach sztucznej inteligencji

W jednym z moich artykułów opublikowanych na portalu GDPR.pl, który dotyczył wyzwań nowoczesnych technologii dla prywatności pisałam na temat zagrożeń związanych z przetwarzaniem danych przy pomocy takich technologii jak big data i sztuczna inteligencja. Do tych zagrożeń należą między innymi utrudniona manualna interwencja w automatyczny proces decyzyjny, który może mieć wbudowany bias w swój algorytm. Innym zagrożeniem związanym ze sztuczną inteligencją to brak transparentności, jakie dane są przetwarzane, przez jaki proces i kto ponosi odpowiedzialność w przypadku, gdy system podejmuje decyzje w oparciu o algorytmy, które sztuczna inteligencja sama wypracowała.

 Technologia a etyka 

Ze względu na wyżej wymienione i inne problemy związane ze sztuczną inteligencją, ostatnio jest głośno na temat tworzenia etycznych rozwiązań w tym zakresie i budowaniu zaufania do sztucznej inteligencji ukierunkowanej na człowieka (1). Jedną z publikacji opisujących zasady dotyczące godnej zaufania sztucznej inteligencji są wytyczne przygotowane przez Niezależną Grupę Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji Komisji Europejskiej (2).

Wśród wskazówek opublikowanych w tym dokumencie, eksperci kładą nacisk na to aby systemy sztucznej inteligencji były zgodne z prawem, etyczne oraz solidne zarówno jako technologia jak i ze społecznego punktu widzenia. Eksperci tej Grupy zalecają stosowanie poniższych norm, aby zminimalizować ryzyko powodowania szkód wobec ich użytkowników:

  1. Przewodnia i nadzorcza rola człowieka
  2. Solidność techniczna i bezpieczeństwo
  3. Ochrona prywatności i zarządzanie danymi
  4. Przejrzystość
  5. Różnorodność, niedyskryminacja i sprawiedliwość
  6. Dobrostan społeczny i środowiskowy
  7. Odpowiedzialność

Przewodnia i nadzorcza rola człowieka oznacza, że ostateczną kontrolę w podejmowaniu decyzji przy udziale rozwiązań technologicznych musi mieć człowiek, a nie maszyna. Celem technologii AI powinno być wspieranie demokratycznego rozwoju społeczeństwa i poszanowania praw podstawowych człowieka. Procesy sztucznej inteligencji powinny ułatwiać każdemu z nas monitorowanie wykorzystywania naszych danych osobowych (kto i w jaki sposób), a dzieje się to zwykle na odwrót.

Techniczna solidność i bezpieczeństwo to zapobieganie nieoczekiwanym i nieprzewidzianym szkodom. Systemy przetwarzania danych muszą być weryfikowane nie tylko pod względem oczekiwanej funkcjonalności, ale także w niestandardowych scenariuszach, które pozwolą na wykorzystanie słabości (a takie prawie zawsze istnieją, nawet jeśli nie jesteśmy tego świadomi) dla wycieku danych, ich uszkodzenia lub zablokowania do nich dostępu. Słabe zabezpieczenia mogą też umożliwić wprowadzenie nieautoryzowanych i trudnych do wykrycia zmian w procesach decyzyjnych, prowadzących do negatywnych konsekwencji (np dopuszczenie do pracy osoby, która ma przeciwwskazania zdrowotne).

Kiedy mówimy o ochronie prywatności i zarządzaniu danymi, przyjmujemy, że każdy z nas ma możliwość decydowania jakie nasze dane (łącznie z tymi, które zostały wygenerowane na nasz temat przez systemy, z których korzystamy) są przetwarzane i jakim zakresie. Ważne jest też, aby nie były one wykorzystywane przeciwko nam (np. poprzez odmowę zatrudnienia ze względu na nasze poglądy polityczne czy stan zdrowia) oraz aby przeniesienie ich do innego systemu nie sprawiało trudności.

Przejrzystość to komunikowanie językiem zrozumiałym dla użytkowników o tym, że mają styczność z systemem korzystającym ze sztucznej inteligencji, o jego możliwościach i ograniczeniach w podejmowaniu zautomatyzowanych decyzji. Niezbędne jest też poinformowanie użytkownika w jaki sposób może odwołać się, kiedy istnieje podejrzenie, że system źle działa. Oczywiście aby można było ustalić powody błędnej decyzji, konieczne jest, aby same algorytmy były identyfikowalne (który został wykorzystany do podjęcia decyzji) oraz wytłumaczalne (w jaki sposób one działają).

Różnorodność, niedyskryminacja i sprawiedliwość oznaczają zapewnienie włączenia społecznego, szczególnie dla wrażliwych grup społecznych, takich jak dzieci, osoby niepełnosprawne, ale także ludzi, którzy posiadają niskie kompetencje cyfrowe lub mają ograniczony dostęp do technologii. Niezbędne jest też unikanie stronniczości wynikającej np. z wytrenowania systemu historycznymi danymi, które same są dyskryminujące. Jeśli się temu nie zapobiega, grozi to dyskryminacją a czasem zwiększonym wykluczeniem dla niektórych ludzi. Dlatego specjaliści od maszynowego uczenia rekomendują stosowanie algorytmów wykrywania uprzedzeń, aby system był także wyszkolony w naśladowania ludzkich procesów przeciwdziałania dyskryminacji (3).

Kiedy myślimy o dobrostanie społecznym i środowiskowym, kładziemy większy nacisk na systemy przynoszące zyski dla całego społeczeństwa zamiast dla ochrony danych indywidualnego człowieka, ale nadal możemy odczuwać pozytywne skutki dla każdego z nas. Ludzie żyjący w zrównoważonym i demokratycznym społeczeństwie odnoszą się bardziej pozytywnie do poszanowania prywatności innych osób oraz lepiej dbają o swoje własne informacje. Zestresowane społeczeństwo jest znacznie mniej tolerancyjne, co może pośrednio prowadzić do budowania systemów, które dyskryminują, utrudniają ludzką interwencję i nie przestrzegają zasad transparentności i rozliczalności.

Ostatnia norma to odpowiedzialność, czyli nic innego tylko zdolność do zgłaszania negatywnych efektów i możliwość dochodzenia roszczeń wobec podmiotu, który jest właścicielem takiego systemu. Odpowiedzialność jest oczywiście związana z wykonaniem oceny skutków, dla osób, na które mogą one mieć negatywny wpływ i wdrożenie odpowiednich zabezpieczeń minimalizujących poziom zagrożenia stwarzanego przez system AI.

U progu zmian

Podsumowując, możemy zauważyć, że jakkolwiek wytyczne były przygotowane dla wszystkich rozwiązań sztucznej inteligencji, bez względu na to czy następuje w nich przetwarzanie danych osobowych czy nieosobowych, to każda z tych rekomendacji może się odnieść do prywatności i ochrony naszych danych. Wiele osób nadal nie rozumie, co to jest sztuczna inteligencja i jaki ma wpływ na nasze życie, dlatego często boją się zadawać na ten temat pytania. W wielu krajach prowadzona jest edukacja na ten temat już na poziomie szkoły podstawowej, gdzie uczniowie nie tylko uczą się podstaw maszynowego uczenia, ale także na czym polega stronniczość algorytmów i w jaki sposób ich unikać (4).

Aby zrozumieć podstawowe pojęcia z tej dziedziny, nie trzeba być informatykiem lub specjalistą od analityki danych, więc nie bójmy się sięgnąć po materiały edukacyjne na ten temat. Mogą to być np. moja prezentacja: Sztuczna inteligencja dla początkujących (5) albo darmowe kursy (6) przygotowane przez OPI. Dla bardziej ambitnych, chcących rozumieć matematycznie typowe algorytmy AI i znających język angielski, polecam kurs maszynowego uczenia opracowany przez Stanford University, na który od jego początku zapisało się prawie 3 miliony ludzi z całego świata.

Bibliografia

  1. Komisja Europejska, Budowanie zaufania do sztucznej inteligencji ukierunkowanej na człowieka, https://ec.europa.eu/digital-single-market/en/news/communication-building-trust-human-centric-artificial-intelligence
  2. Niezależna Grupa Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji Komisji Europejskiej, Wytyczne w zakresie etyki dotyczącej godnej zaufania sztucznej inteligencji, https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60436
  3. Bernard Marr, Artificial Intelligence Has A Problem With Bias, Here’s How To Tackle It, https://www.forbes.com/sites/bernardmarr/2019/01/29/3-steps-to-tackle-the-problem-of-bias-in-artificial-intelligence/
  4. Blakley H. Payne, An Ethics of Artificial Intelligence Curriculum for Middle School Students, https://docs.google.com/document/d/1e9wx9oBg7CR0s5O7YnYHVmX7H7pnITfoDxNdrSGkp60/
  5. Monika Adamczyk, Sztuczna inteligencja dla początkujących, https://www.linkedin.com/posts/adamczykmonika_sztuczna-inteligencja-dla-pocz%C4%85tkuj%C4%85cych-activity-6613844518057857024-IVYB
  6. Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy, Sztuczna Inteligencja, https://www.sztucznainteligencja.org.pl

Autorką artykułu jest: Monika Adamczyk

Posiada wieloletnie doświadczenie w zakresie technologii informatycznych, prywatności, ochrony danych osobowych, bezpieczeństwa informacji i analizy ryzyka.

Aktualnie pracuje jako ekspert w Ministerstwie Cyfryzacji, gdzie pełni funkcję lidera zespołu zarządzania zasobami informacyjnym w projekcie Zintegrowanej Platformy Analitycznej. Poprzednio pracowała w Urzędzie Ochrony Danych Osobowych jako główny specjalista w zespole Analiz i Strategii, gdzie między innymi brała udział w pracach Podgrupy Technologicznej Europejskiej Rady Ochrony Danych Osobowych. Pracowała też w przeszłości dla Narodowego Centrum Badań Jądrowych (NCBJ) jako inspektor ochrony danych oraz jako specjalista informatyk i kierownik projektów dla Międzynarodowej Agencji Energii Atomowej w Wiedniu, dla agencji rządu federalnego USA oraz dla wielu komercjalnych organizacji. Jest też niezależnym ekspertem oceniającym wnioski grantowe w ramach programów Komisji Europejskiej finansujących innowacje MŚP.

Absolwent studiów drugiego stopnia (Master of Science) na Northeastern University, Boston MA w Stanach Zjednoczonych. Posiada też ukończone studia podyplomowe z Audytu i Kontroli Wewnętrznej (Uniwersytet Warszawski), z Wykonywania Funkcji Inspektora Ochrony Danych (Instytut Nauk Prawnych, Polska Akademia Nauk) i z Energetyki Jądrowej (Politechnika Warszawska).

Jesteśmy częścią grupy Omni Modo
Odwiedź nas na naszych profilach
Newsletter
Ustawienia cookies