Kobieta spędziła pół roku w areszcie wskutek pomyłki AI
Mieszkanka stanu Tennessee próbuje odbudować swoje życie po tym, jak pomyłka w identyfikacji przez system rozpoznawania twarzy oparty na sztucznej inteligencji (AI) powiązała ją ze śledztwem w sprawie oszustwa bankowego w Dakocie Północnej, w której jak się okazało nigdy nie była. Spędziła w areszcie 6 miesięcy, tracąc w tym czasie dom. To już czternasty przypadek zatrzymania kogoś w wyniku błędnej analizy danych biometrycznych przez AI.
Rozpoznawanie twarzy przez AI w ściganiu przestępstw
Rozwój Sztucznej Inteligencji zapewnił organom ścigania bezprecedensowe możliwości w obszarze rozpoznawania twarzy i zautomatyzowanego identyfikowania podejrzanych obecnych na nagraniach. Rozpoznawanie twarzy z użyciem AI jest niezwykle pomocnym narzędziem, niemniej jest również rażącą ingerencję w sferę prywatności, pociągającą bardzo poważne skutki dla osoby, która zostanie zidentyfikowana. Systemy AI służące do rozpoznawania twarzy w celu zwalczania przestępczości, należą do systemów explicite wymienionych i szczegółowo uregulowanych w AI Act. Celem tej regulacji jest minimalizacja ryzyk wiążących się z wykorzystaniem tej technologii, w szczególności ryzyka błędnej identyfikacji, która prowadzić może do zatrzymania, a nawet – jak pokazują przykłady zza oceanu – długotrwałego aresztowania niewinnej osoby.
Obecnie ciężko ukryć się przed wszechobecną inwigilacją – nie tylko za sprawą AI
Pół roku w areszcie za błąd sztucznej inteligencji
Jak donoszą media, starsza kobieta, mieszkanka stanu Tennessee została zatrzymana przez policję, a następnie aresztowana na pół roku, wskutek błędnej identyfikacji przeprowadzonej przez sztuczną inteligencję. Ta opierając się o miliardy zdjęć pochodzących z tzw. data scrapingu, jest w stanie rozpoznać twarze. Przeprowadzona przez sztuczną inteligencję analiza nagrań z monitoringu, zidentyfikowała kobietę na nagraniu związanym z wielomilionowym oszustwem finansowym popełnionym w Dakocie Północnej. Kobieta utrzymywała, że nigdy nie była w tym stanie.
Zatrzymana spędziła cztery miesiące w areszcie w Tennessee, a następnie została przetransportowana do Dakoty Północnej, gdzie stanęła przed sądem. Podczas rozprawy, adwokat zatrzymanej przedłożył dowody potwierdzające, że w chwili wykonania nagrania, zatrzymana znajdowała się ponad tysiąc pięćset kilometrów od miejsca jego wykonania. Sąd zwolnił zatrzymaną, a ta musiała skorzystać z pomocy innych osób by w ogóle móc wrócić do Tennessee. To nie był koniec jej kłopotów.
Wskutek długotrwałego zatrzymania, kobieta nie była w stanie opłacić rachunków i kredytów. Błąd AI kosztował ją, m.in. dom, samochód i psa.
Nie pierwsza taka sytuacja
Opisana mieszkanka Tennessee nie jest pierwszą starszą kobietą, mylnie powiązaną przez systemy AI z oszustwami finansowymi. Bliźniaczo podobna sytuacja miała miejsce w 2021 roku. Tym razem mieszkanka stanu Oklahoma wskutek błędnej identyfikacji dokonanej przez oprogramowanie do rozpoznawania twarzy spędziła pół roku w areszcie – najpierw w Oklahomie, potem w Maryland. Co ciekawe podobnie jak pierwszym przypadku, zatrzymana kobieta nigdy nie była w stanie Maryland.
Rozpoznanie twarzy nie zostało przeprowadzone przez organy ścigania – przeprowadził je poszkodowany bank, który następnie przedłożył jego wyniki lokalnym jednostkom policji. Organy ścigania całkowicie oparły się o informacje przekazane przez bank, ignorując, np. dane geolokalizacyjne wskazujące, że zatrzymana była w tym czasie w Oklahomie. W tym wypadku również kobieta po zwolnieniu została pozostawiona sama sobie i nie otrzymała żadnej pomocy w organizacji powrotu do rodzinnego stanu.
Także to zatrzymanie przyniosło długofalowe konsekwencje – zatrzymana kobieta straciła pracę. Obawia się również, że znów może stać się obiektem nieuzasadnionego zainteresowania organów ścigania.
Inne przypadki
Opisane sprawy nie są wcale odosobnione. Według komunikatu American Civil Liberties Union (ACLU), w Stanach Zjednoczonych odnotowano już kilkanaście przypadków niesłusznych zatrzymań wynikających z błędnych identyfikacji przez systemy AI. Wspólnym mianownikiem tych spraw jest nadmierne zaufanie policji w wyniki analiz maszynowych, bez krytycznej oceny ich przez pryzmat innych okoliczności. ACLU podkreśla również, że technologia ta wykazuje wyższą podatność na błędy w odniesieniu do określonych grup społecznych. Występowanie tzw. algorithmic bias, jest poważnym problemem, mogącym skutkować dyskryminacją, np. ze względu na rasę lub pochodzenie etniczne. W odpowiedzi na te problemy podejmowane są działania legislacyjne i postulaty ograniczenia stosowania tej technologii, w tym moratoria na jej użycie przez organy ścigania.
Niektórzy niesłusznie zatrzymani zdecydowali się wejść na drogę sądową. Postępowanie w sprawie Williams vs. City of Detroit zakończyło się ugodą, wymagającą, m.in. zmiany procedur stosowania systemów rozpoznawania twarzy przez policję w Detroit. Przypadek pana Williamsa był pierwszym publicznie znanym przypadkiem błędnego zatrzymania na podstawie rozpoznawania twarzy w USA.
https://www.theguardian.com/us-news/2026/mar/12/tennessee-grandmother-ai-fraud
https://www.aclu.org/cases/williams-v-city-of-detroit-face-recognition-false-arrest