Nowy Jork po raz kolejny przyciąga uwagę świata – tym razem nie wieżowcami czy Wall Street, ale nowatorskim (i kontrowersyjnym) planem wprowadzenia sztucznej inteligencji do systemu metra. MTA, czyli agencja zarządzająca transportem miejskim, ogłosiła, że zamierza wdrożyć AI, która będzie analizować nagrania z kamer i wykrywać potencjalnie niebezpieczne zachowania jeszcze zanim dojdzie do przestępstw.
Ale czy „przewidywanie przestępstw” to rzeczywiście przyszłość bezpieczeństwa publicznego?
AI, które widzi więcej niż człowiek
Michael Kemper, szef bezpieczeństwa w MTA, otwarcie mówi o koncepcji „predictive prevention” – przewidywania zagrożeń zanim do nich dojdzie. W praktyce ma to wyglądać tak, że systemy sztucznej inteligencji analizują w czasie rzeczywistym obraz z kamer monitoringu i w przypadku wykrycia irracjonalnego lub podejrzanego zachowania automatycznie alarmują nowojorską policję (NYPD).
Nie chodzi jednak – jak zapewnia MTA – o rozpoznawanie twarzy. System nie będzie identyfikował osób, lecz ich zachowania. – To nie o ludzi, tylko o ich działania chodzi – podkreśla rzecznik agencji Aaron Donovan.
Wideoobserwacja w metrze – teraz jeszcze dokładniejsza
Nowojorskie metro od dawna stawia na monitoring. Każdy wagon i każda stacja ma już zainstalowane kamery, a około 40% z nich jest obecnie monitorowanych na żywo. Wszystko to w odpowiedzi na rosnące obawy pasażerów. Choć liczba najpoważniejszych przestępstw spadła od czasów pandemii, wciąż dochodzi do brutalnych napaści, a przypadki spychanych na tory osób wstrząsnęły opinią publiczną.
Gubernatorka stanu, Kathy Hochul, od początku swojej kadencji (2021) aktywnie działa na rzecz zwiększenia bezpieczeństwa w transporcie. Presja wzrosła jeszcze bardziej po ultimatum ze strony Departamentu Transportu – groźbie wstrzymania federalnego finansowania, jeśli MTA nie przedstawi skutecznego planu walki z przestępczością i bezdomnością.
Krytyka i pytania o granice
Nowe rozwiązanie nie wszystkim jednak się podoba. Amerykańscy obrońcy praw obywatelskich nie pozostawiają suchej nitki na pomyśle AI patrolującego podziemia. „Sztuczna inteligencja jest znana z błędów i uprzedzeń – wprowadzenie jej do monitoringu może tylko pogłębić społeczne nierówności i stworzyć nowe problemy”, napisał Justin Harrison z New York Civil Liberties Union.
Obawy dotyczą nie tylko ewentualnych pomyłek algorytmów, ale i samej idei – czy codzienne życie w stale nadzorowanym środowisku to naprawdę cena, jaką powinniśmy płacić za bezpieczeństwo? Przeciwnicy wskazują też, że prawdziwa poprawa bezpieczeństwa wymaga inwestycji w społeczności lokalne, a nie coraz bardziej zaawansowanego nadzoru.
Czy Polska powinna przyglądać się temu rozwiązaniu?
Choć nowojorski kontekst różni się od polskiego, nie sposób nie zauważyć, że technologie AI coraz śmielej wkraczają również do polskich miast. Systemy inteligentnego monitoringu, analiza wideo, predykcja zagrożeń – to już nie science fiction, a kierunek, w którym idą niektóre samorządy i firmy technologiczne.
Czy warto czerpać inspirację z Nowego Jorku? Na pewno warto obserwować z dystansem – i z refleksją nad tym, gdzie kończy się użyteczne bezpieczeństwo, a zaczyna nadmierna kontrola. AI może być sprzymierzeńcem – pod warunkiem, że będzie wdrażana odpowiedzialnie i z poszanowaniem praw obywatelskich.
Źródło: The Verge
