Dlaczego Sztuczna Inteligencja Ocenia Przestępców Jako Niebezpieczna? - Alternatywny Widok

Spisu treści:

Dlaczego Sztuczna Inteligencja Ocenia Przestępców Jako Niebezpieczna? - Alternatywny Widok
Dlaczego Sztuczna Inteligencja Ocenia Przestępców Jako Niebezpieczna? - Alternatywny Widok

Wideo: Dlaczego Sztuczna Inteligencja Ocenia Przestępców Jako Niebezpieczna? - Alternatywny Widok

Wideo: Dlaczego Sztuczna Inteligencja Ocenia Przestępców Jako Niebezpieczna? - Alternatywny Widok
Wideo: Sztuczna inteligencja: szansa czy zagrożenie? 2024, Może
Anonim

Sztuczna inteligencja już teraz pomaga w jakiś sposób określić Twoją przyszłość. Kiedy szukasz czegoś w wyszukiwarce, skorzystaj z usługi takiej jak Netflix lub bank oceni Twoje uprawnienia do kredytu hipotecznego. Ale co się stanie, jeśli sztuczna inteligencja będzie musiała ustalić w sądzie, czy jesteś winny, czy nie? Co dziwne, w niektórych krajach może to już mieć miejsce. Niedawno wysoki sędzia USA John Roberts został zapytany, czy mógłby wyobrazić sobie dzień, w którym „inteligentne maszyny, sterowane przez sztuczną inteligencję, pomogą w znalezieniu dowodów, a nawet w podejmowaniu decyzji sądowych”. Odpowiedział: „Ten dzień już nadszedł, a on znacząco pomaga organom wymiaru sprawiedliwości w postępowaniu”.

Być może Roberts miał na myśli niedawną sprawę Erica Loomisa, który został skazany na sześć lat więzienia z polecenia tajnego, zastrzeżonego oprogramowania z prywatnej firmy. Loomis, który miał już historię kryminalną i został skazany za ucieczkę przed policją w skradzionym samochodzie, teraz twierdzi, że jego prawo do procedury zostało naruszone, ponieważ ani on, ani jego przedstawiciele nie byli w stanie zweryfikować ani zakwestionować algorytmu rekomendacji.

Raport został przygotowany przez oprogramowanie Compas, które Notrpointe sprzedaje statkom. Program uosabia nowy trend w badaniach nad sztuczną inteligencją: pomaganie sędziom w podejmowaniu „lepszych” (lub przynajmniej bardziej opartych na danych) decyzji w sądzie.

Chociaż szczegółowe szczegóły sprawy Loomis pozostają zamknięte, z pewnością zawiera ona wykresy i liczby określające życie, zachowanie i prawdopodobieństwo nawrotu Loomisa. Należą do nich wiek, rasa, tożsamość płciowa, nawyki, historia przeglądarki i niektóre wymiary czaszki. Nikt nie wie dokładniej.

Wiadomo, że prokurator w tej sprawie powiedział sędziemu, że Loomis wykazał „wysokie ryzyko recydywy, przemocy, postępowania przygotowawczego”. To standard, jeśli chodzi o orzekanie. Sędzia zgodził się i powiedział Loomisowi, że „Compas zidentyfikował go jako osobę wysokiego ryzyka dla społeczeństwa”.

Sąd Najwyższy Wisconsin skazał Loomisa, dodając, że raport Compasa dodał cenne informacje do jego decyzji, ale zauważył, że bez niego wydał ten sam wyrok. Oczywiście na pewno nie będziesz w stanie tego sprawdzić. Jakiego rodzaju poznawcze uprzedzenia mogą wystąpić, gdy wszechmocny „inteligentny” system, taki jak Compas, jest zaangażowany w doradzanie sędziom, co robić?

Nieznane zastosowanie

Film promocyjny:

Bądźmy szczerzy, w tym, co zrobił sąd stanu Wisconsin, nie ma nic „nielegalnego” - to tylko przykład. Inne sądy mogą i będą robić to samo.

Niestety nie wiemy, w jakim stopniu sztuczna inteligencja i inne algorytmy są wykorzystywane w orzekaniu. Uważa się, że niektóre sądy „testują” systemy, takie jak Compas, w zamkniętych procesach, ale nie mogą ubiegać się o partnerstwo. Istnieje również przekonanie, że kilka startupów AI opracowuje takie inteligentne systemy.

Image
Image

Jednak wykorzystanie sztucznej inteligencji w prawodawstwie nie zaczyna się ani nie kończy wyrokiem, zaczyna się od śledztwa. W Wielkiej Brytanii opracowano już system VALCRI, który w ciągu kilku sekund wykonuje czasochłonne prace analityczne - przemykając się przez tony danych, takich jak teksty, raporty laboratoryjne i dokumenty policyjne, w celu wyodrębnienia rzeczy, które mogą wymagać dalszych badań.

Brytyjska policja West Midlands będzie testować VALCRI przez następne trzy lata, używając anonimowych danych zawierających ponad 6,5 miliona rekordów. Podobny test przeprowadza policja w Antwerpii w Belgii. Jednak w przeszłości projekty dotyczące sztucznej inteligencji i głębokiego uczenia się obejmujące ogromne zbiory danych były problematyczne.

Korzyści dla nielicznych

Technologia dostarczyła wielu przydatnych pomocy na salach sądowych, od maszyn kopiujących, przez ekstrakcję DNA od odcisków palców po zaawansowane techniki nadzoru. Ale to nie znaczy, że jakakolwiek technologia jest ulepszeniem.

Chociaż wykorzystanie sztucznej inteligencji w dochodzeniach i wyrokach skazujących może potencjalnie zaoszczędzić czas i pieniądze, stwarza poważne problemy. Raport firmy Compas z ProPublica wyjaśnił, że program błędnie uznał czarnych za bardziej recydywistów niż biali. Nawet najbardziej wyrafinowane systemy SI mogą odziedziczyć uprzedzenia rasowe i płciowe tych, którzy je tworzą.

Co więcej, jaki sens ma przenoszenie podejmowania decyzji (przynajmniej częściowo) w kwestiach, które są unikalne dla ludzi, na algorytm? W Stanach Zjednoczonych istnieje pewna trudność, kiedy przysięgłych przesłuchuje swoich rówieśników. Normy prawne nigdy nie były punktem odniesienia, więc te procesy przysięgłych są uważane za najbardziej demokratyczne i skuteczne systemy wyroków. Popełniamy błędy, ale z czasem gromadzimy wiedzę o tym, jak ich nie popełniać, dopracowując system.

Compas i podobne systemy stanowią czarną skrzynkę w systemie prawnym. Nie powinno być takich. Systemy prawne zależą od ciągłości, przejrzystości informacji i możliwości przeglądu. Społeczeństwo nie chce systemu, który zachęca do wyścigu w budowaniu start-upów AI, które tworzą szybkie, tanie i ekskluzywne rozwiązania. Pośpiesznie wykonana sztuczna inteligencja będzie straszna.

Zaktualizowana wersja Compasa o otwartym kodzie źródłowym byłaby ulepszeniem. Ale najpierw trzeba będzie podnieść standardy wymiaru sprawiedliwości, zanim zaczniemy przenosić odpowiedzialność na rzecz algorytmów.

ILYA KHEL