Błędy AI. Osiem osób niesłusznie aresztowanych
Oprogramowanie rozpoznawania twarzy mylnie zidentyfikowało co najmniej ośmiu Amerykanów, prowadząc do ich aresztowania - informuje "Washington Post".
W Stanach Zjednoczonych co najmniej osiem osób zostało niesłusznie aresztowanych z powodu błędnej identyfikacji przez oprogramowanie rozpoznawania twarzy. Jak donosi "Washington Post", policja w USA korzysta z technologii sztucznej inteligencji do zatrzymywania podejrzanych, często bez dodatkowych dowodów.
Problemy z identyfikacją
Dziennik przeanalizował dane z raportów policyjnych, akt sądowych oraz rozmów z funkcjonariuszami, prokuratorami i adwokatami. Wyniki wskazują, że problem może być znacznie większy, ponieważ prokuratorzy rzadko ujawniają użycie AI, a prawo wymaga tego tylko w siedmiu stanach. Całkowita liczba niesłusznych aresztowań spowodowanych przez błędy AI pozostaje nieznana.
W ośmiu przypadkach, które udało się zidentyfikować, policja nie podjęła podstawowych działań śledczych, takich jak sprawdzenie alibi, porównanie znaków szczególnych czy analiza dowodów DNA i odcisków palców. W sześciu przypadkach zignorowano alibi podejrzanych, a w dwóch pominięto dowody przeczące założeniom policji.
Dalsza część artykułu pod materiałem wideo
Budynek miał nie rzucać się w oczy. Wielkie odkrycie pod Poznaniem
W pięciu przypadkach nie zebrano kluczowych dowodów. "Washington Post" przytacza przykład osoby aresztowanej za próbę realizacji sfałszowanego czeku, gdzie policja nie sprawdziła nawet kont bankowych podejrzanego. Trzykrotnie zignorowano cechy fizyczne podejrzanych, które były sprzeczne z rozpoznaniem AI, jak w przypadku kobiety w zaawansowanej ciąży oskarżonej o kradzież samochodu.
W sześciu przypadkach nie zweryfikowano zeznań świadków. Przykładem jest sytuacja, w której pracownik ochrony potwierdził tożsamość podejrzanego o kradzież zegarka, mimo że nie był obecny podczas zdarzenia.
Wątpliwości dotyczące technologii
Oprogramowanie do rozpoznawania twarzy działa niemal perfekcyjnie w warunkach laboratoryjnych, ale jego skuteczność w praktyce pozostaje wątpliwa. Katie Kinsey z NYU zauważa, że brak niezależnych testów sprawdzających dokładność technologii na niewyraźnych zdjęciach z monitoringu. Badania neurobiologów z University College of London pokazują, że użytkownicy AI mogą ślepo ufać jej decyzjom, co prowadzi do błędnych ocen.
"Washington Post" podkreśla, że zaufanie do systemów AI może uniemożliwić prawidłową ocenę sytuacji, co jest szczególnie niebezpieczne w kontekście wymiaru sprawiedliwości.