Sztuczna Inteligencja Może Zmienić Nasze życie Na Zawsze - Ale Obecnie Znajdujemy Się Na Ciemnej ścieżce - Alternatywny Widok

Sztuczna Inteligencja Może Zmienić Nasze życie Na Zawsze - Ale Obecnie Znajdujemy Się Na Ciemnej ścieżce - Alternatywny Widok
Sztuczna Inteligencja Może Zmienić Nasze życie Na Zawsze - Ale Obecnie Znajdujemy Się Na Ciemnej ścieżce - Alternatywny Widok

Wideo: Sztuczna Inteligencja Może Zmienić Nasze życie Na Zawsze - Ale Obecnie Znajdujemy Się Na Ciemnej ścieżce - Alternatywny Widok

Wideo: Sztuczna Inteligencja Może Zmienić Nasze życie Na Zawsze - Ale Obecnie Znajdujemy Się Na Ciemnej ścieżce - Alternatywny Widok
Wideo: Sztuczna inteligencja – jak zmienia nasze życie? 2024, Może
Anonim

Sztuczna inteligencja (AI) już teraz w widoczny sposób przekształca świat. Dane napędzają nasz globalny ekosystem cyfrowy, a technologie sztucznej inteligencji odkrywają wzorce w danych.

Smartfony, inteligentne domy i inteligentne miasta wpływają na sposób, w jaki żyjemy i współdziałamy, a systemy sztucznej inteligencji są coraz bardziej zaangażowane w decyzje o zatrudnieniu, diagnostykę medyczną i orzecznictwo. Od nas zależy, czy ten scenariusz jest utopijny, czy dystopijny.

Potencjalne zagrożenia związane ze sztuczną inteligencją są wymieniane wielokrotnie. Zabójcze roboty i masowe bezrobocie to powszechne problemy, a niektórzy ludzie boją się nawet wyginięcia. Bardziej optymistyczne prognozy mówią, że sztuczna inteligencja doda 15 bilionów dolarów do światowej gospodarki do 2030 roku i ostatecznie doprowadzi nas do jakiejś społecznej nirwany.

Z pewnością musimy wziąć pod uwagę wpływ takich technologii na nasze społeczeństwa. Jedną z głównych kwestii jest to, że systemy SI wzmacniają istniejące uprzedzenia społeczne - z niszczycielskim skutkiem.

Wiele znanych przykładów tego zjawiska spotkało się z powszechnym zainteresowaniem: nowoczesne systemy automatycznego tłumaczenia maszynowego i systemy rozpoznawania obrazu.

Te problemy pojawiają się, ponieważ takie systemy wykorzystują modele matematyczne (takie jak sieci neuronowe) do definiowania wzorców w dużych zestawach danych szkoleniowych. Jeśli dane te zostaną na różne sposoby poważnie zniekształcone, wówczas wyszkolone systemy nieuchronnie zbadają i odtworzą nieodłączne błędy.

Stronnicze technologie autonomiczne są problematyczne, ponieważ mogą potencjalnie izolować grupy, takie jak kobiety, mniejszości etniczne lub osoby starsze, pogłębiając w ten sposób istniejącą nierównowagę społeczną.

Jeśli systemy SI zostaną przeszkolone, na przykład na podstawie danych z aresztowań policyjnych, wówczas wszelkie świadome lub nieświadome uprzedzenia przejawiające się w istniejących programach aresztowań zostaną zduplikowane przez „policyjny foresight” system sztucznej inteligencji wyszkolony na podstawie tych danych.

Film promocyjny:

Uznając poważne konsekwencje tego faktu, różne renomowane organizacje zaleciły ostatnio, aby wszystkie systemy sztucznej inteligencji zostały przeszkolone w zakresie obiektywnych danych. Wytyczne etyczne opublikowane wcześniej w 2019 roku przez Komisję Europejską zasugerowały następujące zalecenie:

Gromadzone dane mogą zawierać społecznie konstruowane błędy, nieścisłości. Należy się tym zająć przed szkoleniem sztucznej inteligencji na jakimkolwiek zbiorze danych.

To wszystko brzmi rozsądnie. Niestety, czasami po prostu nie jest możliwe zapewnienie bezstronności niektórych zbiorów danych przed szkoleniem. Konkretny przykład powinien to wyjaśnić.

Wszystkie nowoczesne systemy tłumaczenia maszynowego (takie jak Tłumacz Google) uczą się na podstawie par zdań.

System anglo-francuski wykorzystuje dane łączące angielskie zdania („ona jest wysoka”) z równoważnymi zdaniami francuskimi („elle est grande”).

W danym zbiorze danych treningowych może znajdować się 500 milionów takich par, a zatem tylko miliard pojedynczych zdań. Wszelkie uprzedzenia ze względu na płeć muszą zostać usunięte z tego rodzaju zbioru danych, jeśli mamy zapobiec generowaniu w systemie wyników takich jak następujące:

Tłumaczenie francuskie zostało utworzone przy użyciu Tłumacza Google 11 października 2019 r. I jest niepoprawne: „Ils” jest męską liczbą mnogą w języku francuskim i pojawia się tutaj pomimo kontekstu wyraźnie wskazującego, że się do niego odwołuje na kobiety.

Jest to klasyczny przykład zautomatyzowanego systemu preferującego domyślny męski standard ze względu na błąd w danych szkoleniowych.

Ogólnie rzecz biorąc, 70 procent zaimków rodzajowych w zbiorach danych tłumaczeniowych to męskie, a 30 procent to żeńskie. Wynika to z faktu, że teksty używane w takich celach częściej odnoszą się do mężczyzn niż kobiet.

Aby uniknąć powtórzenia istniejących błędów systemu tłumaczeniowego, należałoby wykluczyć z danych określone pary zdań, tak aby zaimki rodzaju męskiego i żeńskiego spotykały się w stosunku 50/50 po stronie angielskiej i francuskiej. Zapobiegnie to systemowi przypisywania wyższych prawdopodobieństw zaimkom rodzaju męskiego.

I nawet jeśli wynikowy podzbiór danych jest w pełni zrównoważony pod względem płci, nadal będzie wypaczony na różne sposoby (np. Etniczny lub wiek). Prawdę mówiąc, trudno byłoby całkowicie wyeliminować wszystkie te błędy.

Jeśli jedna osoba poświęci zaledwie pięć sekund na przeczytanie każdego z miliarda zdań w danych treningowych sztucznej inteligencji, przetestowanie ich wszystkich zajmie 159 lat - a to zakłada gotowość do pracy przez cały dzień i noc, bez przerw na lunch.

Alternatywny?

Dlatego nierealistyczne jest wymaganie, aby wszystkie zestawy danych szkoleniowych były bezstronne przed zbudowaniem systemów SI. Tak wysokie wymagania zwykle zakładają, że „sztuczna inteligencja” oznacza jednorodną grupę modeli matematycznych i podejść algorytmicznych.

W rzeczywistości różne zadania AI wymagają zupełnie różnych typów systemów. Całkowite niedocenianie tej różnorodności maskuje rzeczywiste problemy związane, powiedzmy, z wysoce zniekształconymi danymi. Jest to niefortunne, ponieważ oznacza, że zaniedbuje się inne rozwiązania problemu błędu dotyczącego danych.

Na przykład odchylenia w wyszkolonym systemie tłumaczenia maszynowego można znacznie zmniejszyć, jeśli system zostanie dostosowany po przeszkoleniu w dużym, nieuchronnie obciążonym zestawie danych.

Można to zrobić przy użyciu znacznie mniejszego, mniej zniekształconego zestawu danych. Dlatego większość danych może być mocno obciążona, ale przeszkolony system nie jest konieczny. Niestety, metody te są rzadko omawiane przez osoby, które opracowują wytyczne i ramy prawne dla badań nad sztuczną inteligencją.

Jeżeli systemy SI po prostu pogłębiają istniejące nierównowagi społeczne, to z większym prawdopodobieństwem zniechęcają, niż promują pozytywne zmiany społeczne. Gdyby technologie sztucznej inteligencji, których coraz częściej używamy na co dzień, były znacznie mniej stronnicze niż my, mogłyby pomóc nam rozpoznać i stawić czoła naszym czającym się uprzedzeniom.

Oczywiście do tego powinniśmy dążyć. Dlatego projektanci sztucznej inteligencji muszą dużo dokładniej przemyśleć społeczne konsekwencje tworzonych przez siebie systemów, podczas gdy ci, którzy piszą o sztucznej inteligencji, muszą głębiej zrozumieć, w jaki sposób systemy AI są faktycznie projektowane i budowane.

Bo jeśli naprawdę zbliżamy się albo do technologicznej idylli, albo do apokalipsy, to pierwsze byłoby lepsze.

Victoria Vetrova

Zalecane: