Ludzie Nie Ufają Sztucznej Inteligencji. Jak To Naprawić? - Alternatywny Widok

Spisu treści:

Ludzie Nie Ufają Sztucznej Inteligencji. Jak To Naprawić? - Alternatywny Widok
Ludzie Nie Ufają Sztucznej Inteligencji. Jak To Naprawić? - Alternatywny Widok

Wideo: Ludzie Nie Ufają Sztucznej Inteligencji. Jak To Naprawić? - Alternatywny Widok

Wideo: Ludzie Nie Ufają Sztucznej Inteligencji. Jak To Naprawić? - Alternatywny Widok
Wideo: 15 oznak, że jesteś wybitnie inteligentny, ale o tym nie wiesz 2024, Może
Anonim

Sztuczna inteligencja już teraz potrafi przewidzieć przyszłość. Na jej podstawie policja sporządza mapę pokazującą, kiedy i gdzie może dojść do przestępstwa. Lekarze używają go do przewidywania, kiedy pacjent może mieć udar lub zawał serca. Naukowcy próbują nawet dać sztucznej inteligencji wyobraźnię, aby mogła przewidywać nieoczekiwane zdarzenia.

Wiele decyzji w naszym życiu wymaga dobrych prognoz, a agenci sztucznej inteligencji prawie zawsze radzą sobie w nich lepiej niż ludzie. Jednak pomimo tych wszystkich postępów technologicznych nadal brakuje nam zaufania do prognoz, które zapewnia sztuczna inteligencja. Ludzie nie są przyzwyczajeni do polegania na sztucznej inteligencji i wolą ufać ludzkim ekspertom, nawet jeśli ci eksperci się mylą.

Image
Image

Jeśli chcemy, aby sztuczna inteligencja przyniosła korzyści ludziom, musimy nauczyć się jej ufać. Aby to zrobić, musimy zrozumieć, dlaczego ludzie tak uparcie odmawiają zaufania sztucznej inteligencji.

Zaufaj Dr. Robotowi

Próba IBM zaprezentowania programu superkomputera onkologom (Watson for Oncology) nie powiodła się. AI zobowiązała się do zapewnienia wysokiej jakości zaleceń dotyczących leczenia 12 nowotworów, które stanowią 80% przypadków na świecie. Do chwili obecnej ponad 14 000 pacjentów otrzymało zalecenia oparte na jego obliczeniach.

Kiedy jednak lekarze po raz pierwszy spotkali się z Watsonem, znaleźli się w dość trudnej sytuacji. Z jednej strony, jeśli Watson przedstawił wytyczne leczenia zgodne z ich własnymi opiniami, lekarze nie dostrzegali dużej wartości w zaleceniach AI. Superkomputer po prostu mówił im to, co już wiedzieli, a te zalecenia nie zmieniły rzeczywistego leczenia. Mogło to zapewnić lekarzom spokój i pewność w podejmowaniu własnych decyzji. Ale IBM nie udowodnił jeszcze, że Watson faktycznie zwiększa wskaźniki przeżywalności raka.

Film promocyjny:

Image
Image

Z drugiej strony, jeśli Watson wydał zalecenia, które były sprzeczne z opinią ekspertów, lekarze stwierdzili, że Watson był niekompetentny. Maszyna nie potrafiła wyjaśnić, dlaczego jej leczenie ma działać, ponieważ jej algorytmy uczenia maszynowego były zbyt złożone, aby ludzie mogli je zrozumieć. W związku z tym doprowadziło to do jeszcze większej nieufności, a wielu lekarzy po prostu zignorowało zalecenia dotyczące sztucznej inteligencji, opierając się na własnym doświadczeniu.

W rezultacie główny partner medyczny IBM Watson, MD Anderson Cancer Center, ogłosił niedawno, że anuluje program. Duński szpital powiedział również, że rezygnuje z programu po tym, jak odkrył, że onkolodzy nie zgadzali się z Watsonem w dwóch na trzy razy.

Problem z onkologią Watsona polegał na tym, że lekarze po prostu mu nie ufali. Zaufanie ludzi często zależy od tego, jak rozumiemy, jak myślą inni ludzie i od naszego własnego doświadczenia, które buduje zaufanie do ich opinii. Stwarza to psychologiczne poczucie bezpieczeństwa. Z drugiej strony sztuczna inteligencja jest stosunkowo nowa i niezrozumiała dla ludzi. Podejmuje decyzje w oparciu o zaawansowany system analizy w celu zidentyfikowania potencjalnych ukrytych wzorców i słabych sygnałów z dużych ilości danych.

Nawet jeśli można to wyjaśnić w kategoriach technicznych, proces podejmowania decyzji w dziedzinie sztucznej inteligencji jest zwykle zbyt złożony, aby większość ludzi mogła go zrozumieć. Interakcja z czymś, czego nie rozumiemy, może wywołać niepokój i wywołać poczucie utraty kontroli. Wiele osób po prostu nie rozumie, jak iz czym działa sztuczna inteligencja, ponieważ dzieje się to gdzieś za ekranem, w tle.

Z tego samego powodu są bardziej świadomi przypadków, w których sztuczna inteligencja się myli: pomyśl o algorytmie Google, który klasyfikuje ludzi kolorowych jako goryle; chatbot Microsoftu, który stał się nazistą w niecały dzień; Pojazd Tesli w trybie autopilota powodujący śmiertelny wypadek. Te niefortunne przykłady spotkały się z nieproporcjonalnym zainteresowaniem mediów, podkreślając program, że nie możemy polegać na technologii. Uczenie maszynowe nie jest w 100% niezawodne, po części dlatego, że projektują je ludzie.

Rozłam w społeczeństwie?

Uczucia, które wywołuje sztuczna inteligencja, wnikają głęboko w naturę człowieka. Naukowcy przeprowadzili niedawno eksperyment, w którym przebadali osoby, które oglądały filmy o sztucznej inteligencji (fantazji) o automatyzacji w życiu codziennym. Okazało się, że niezależnie od tego, czy sztuczna inteligencja została przedstawiona w pozytywny, czy negatywny sposób, samo oglądanie kinowej reprezentacji naszej technologicznej przyszłości polaryzuje postawy uczestników. Optymiści stają się jeszcze bardziej optymistyczni, a sceptycy jeszcze bardziej.

Sugeruje to, że ludzie są stronniczy w stosunku do sztucznej inteligencji na podstawie własnego rozumowania, głęboko zakorzenionej tendencji do potwierdzenia: tendencji do poszukiwania lub interpretowania informacji w taki sposób, aby potwierdzić wcześniej istniejące koncepcje. Ponieważ sztuczna inteligencja jest coraz częściej prezentowana w mediach, może sprzyjać głębokim podziałom w społeczeństwie, przepaści między tymi, którzy używają sztucznej inteligencji, a tymi, którzy ją odrzucają. Dominująca grupa ludzi może uzyskać znaczną przewagę lub ułomność.

Trzy sposoby wyjścia z kryzysu zaufania AI

Na szczęście mamy kilka przemyśleń, jak radzić sobie z zaufaniem do sztucznej inteligencji. Samo doświadczenie ze sztuczną inteligencją może radykalnie poprawić stosunek ludzi do tej technologii. Istnieją również dowody na to, że im częściej korzystasz z pewnych technologii (takich jak Internet), tym bardziej im ufasz.

Innym rozwiązaniem może być otwarcie czarnej skrzynki algorytmów uczenia maszynowego i sprawienie, by działały one bardziej przejrzyście. Firmy takie jak Google, Airbnb i Twitter już publikują raporty przejrzystości dotyczące zapytań rządowych i ujawnień. Tego rodzaju praktyka w systemach sztucznej inteligencji pomoże ludziom zdobyć niezbędne zrozumienie tego, jak algorytmy podejmują decyzje.

Badania pokazują, że zaangażowanie ludzi w podejmowanie decyzji dotyczących SI zwiększy również zaufanie i umożliwi sztucznej inteligencji uczenie się na podstawie ludzkich doświadczeń. Badanie wykazało, że osoby, którym dano możliwość nieznacznej modyfikacji algorytmu, były bardziej zadowolone z wyników jego pracy, najprawdopodobniej ze względu na poczucie wyższości i możliwość wpływania na przyszłe wyniki.

Nie musimy rozumieć zawiłych wewnętrznych działań systemów sztucznej inteligencji, ale jeśli przekażemy ludziom choćby trochę informacji i kontrolę nad tym, jak te systemy są wdrażane, będą mieli więcej pewności siebie i chęci do wykorzystywania sztucznej inteligencji w swoim codziennym życiu.

Ilya Khel