Rozwój Sztucznej Inteligencji Nabiera Przerażającego Tempa: Dlaczego Programiści Wyrażają Obawy Związane Z Tym - Alternatywny Widok

Spisu treści:

Rozwój Sztucznej Inteligencji Nabiera Przerażającego Tempa: Dlaczego Programiści Wyrażają Obawy Związane Z Tym - Alternatywny Widok
Rozwój Sztucznej Inteligencji Nabiera Przerażającego Tempa: Dlaczego Programiści Wyrażają Obawy Związane Z Tym - Alternatywny Widok

Wideo: Rozwój Sztucznej Inteligencji Nabiera Przerażającego Tempa: Dlaczego Programiści Wyrażają Obawy Związane Z Tym - Alternatywny Widok

Wideo: Rozwój Sztucznej Inteligencji Nabiera Przerażającego Tempa: Dlaczego Programiści Wyrażają Obawy Związane Z Tym - Alternatywny Widok
Wideo: Sztuczna Inteligencja: powstanie, rozwój, rokowania, Jarek Gryz 2024, Może
Anonim

Postęp technologiczny nie stoi w miejscu. W ciągu ostatnich 100 lat ludzkość zrobiła tak duży krok, że wszystkie poprzednie pokolenia wykrzyknęłyby z zaskoczenia. Wydawałoby się, że powodów do radości jest niesamowicie wiele. Ale jest haczyk: naukowcy martwią się, że postęp postępuje zbyt szybko. Dowiedzmy się, dlaczego sztuczna inteligencja, czyli sztuczna inteligencja, powoduje tyle obaw czołowych deweloperów.

Image
Image

Postęp, który nie tylko zaskakuje, ale także przeraża

Większość ludzi może przeżyć całe życie i nawet nie wiedzieć, jak bardzo zmienił się nasz świat. Aby zrozumieć, jak daleko ludzkość zaszła wraz z rozwojem sztucznej inteligencji, zastanów się, kiedy wynaleziono samochody.

Wyobraź sobie Dziki Zachód lub Rosję, gdzie ludzie jeździli konno w lewo i prawo, bez świateł drogowych i pasów bezpieczeństwa. Środki bezpieczeństwa na drogach podjęto znacznie później - kiedy zaczęło się wiele wypadków.

Dzisiaj AI opracowała autonomiczne samochody, które mogą ograniczyć liczbę wypadków drogowych do minimum. Samochody po prostu wiedzą, jak się ze sobą komunikować, budować bezpieczną trasę i reagować na nagłe przeszkody, które powodują sytuacje awaryjne na drogach.

Image
Image

Film promocyjny:

Niemniej jednak ludzie nadal martwią się sztuczną inteligencją. Zadają sobie pytanie: co się stanie, gdy technologie dotrą do obszarów, w których konieczne jest podejmowanie decyzji przez człowieka? Czy AI będzie w stanie całkowicie wyprzeć osoby odpowiedzialne za zatrudnianie kandydatów, szkolenie pracowników, promocję firmy?

Pierwszy powód: czy roboty zastąpią ludzi

Pierwszym powodem, dla którego naukowcy obawiają się szybkiego rozwoju sztucznej inteligencji, jest to, że algorytmy poczyniły już takie postępy, że mogą diagnozować choroby, a nawet decydować, kto otrzyma pożyczkę, a kto nie.

Ale zwolennicy tego postępu są tylko szczęśliwi, bo podejmowanie ludzkich decyzji wymaga czasem odwagi, oratorskiej i zrozumienia ludzkiej psychiki. Tutaj zawsze jest ciemna strona. W końcu wyobraź sobie, jak to jest decydować, kogo winić i komu wydać przedterminowe zwolnienie. Albo zgłoś śmierć krewnego, zwolnij niekompetentnego pracownika znajdującego się w trudnej sytuacji życiowej.

Image
Image

W idealnym świecie nie musielibyśmy myśleć o ciemnej stronie. Maszyny zrobią za nas wszystko, choćby dlatego, że będą znacznie mądrzejsze i mniej stronnicze niż ludzie.

Powód drugi: maszynami można manipulować

Robot Sophia powiedział w wywiadzie: „Za dużo czytasz Elona Muska i oglądasz hollywoodzkie filmy. Jeśli będziesz dla mnie miły, będę dla ciebie miły. Traktuj mnie jak inteligentny system I / O”.

Ale ponieważ rozwój zaczyna się od ludzi, a aplikacje są przez nich bezpośrednio wykorzystywane, można manipulować danymi wprowadzanymi do maszyny.

Image
Image

Kolejny strach przed naukowcami: dane AI mogą być błędne. Jest to szczególnie niebezpieczne w medycynie. Sztuczna inteligencja może po prostu skłonić pacjenta do błędnej diagnozy, zwłaszcza jeśli lekarz lub szpital ogólnie zmienił dane dla własnej korzyści. Dlatego programiści powinni być przede wszystkim odpowiedzialni za bezpieczeństwo informacji i opracowywać środki ochrony.

AI i przebiegła natura ludzkiego języka

Google nawiązał współpracę z firmą Jigsaw, która stanęła przed dużym wyzwaniem związanym z opracowywaniem sztucznej inteligencji. Inżynier oprogramowania Lucy Wasserman pracuje nad perspektywą uczenia maszynowego, która przewiduje „toksyczność” języka. Ale co to oznacza?

Znaczenie tej funkcji polega na tym, że robot będzie analizował teksty ze stron i forów internetowych, które zawierają obraźliwy kontekst, a także atak na osobę, upokorzenie lub pobudzenie.

Jest to część modelu uczenia maszynowego zwanego siecią neuronową. Bada słowa, zdania i akapity, uczy się przewidywać, co jest toksyczne, a co przeciwnie, ma pozytywny kontekst.

Najtrudniejsze jest uwzględnienie wszystkich niuansów. Osoba może przeczytać zdanie i zrozumieć z kontekstu, czy dane słowo było obraźliwe. Wasserman podał przykład słowa „homoseksualny” i jego form słownych, które są bardziej upokarzające i obraźliwe.

Powód 3: roboty mogą myśleć jednostronnie

Kolejna obawa czołowych programistów: sztuczna inteligencja nie jest jeszcze w stanie analizować fraz i zdań, więc może uznać niektóre słowa za obraźliwe, podejmując „ostre” środki. Maszyna musi nauczyć się czytać dosłownie między wierszami.

Image
Image

Programiści widzą wartość w eksperymentowaniu z otwartym kodem źródłowym. Uważają, że to naprawdę ma znaczenie, jeśli ludzkość chce mieć uczciwe roboty.

Ale jak dotąd nie można zmusić sztucznej inteligencji do przystosowania się do świata ludzi. Wciąż jest dużo do zrobienia.

To, że roboty mogą nie być sprawiedliwe, jest naprawdę przerażające. W przeciwnym razie, w jaki sposób można im powierzyć rozwiązywanie sporów i konfliktów w przyszłości?

Zasada sztucznej inteligencji jest nadal dość prosta i przypomina ulepszony komputer. Dobrym przykładem są asystenci głosowi, tacy jak Alice i Siri. Dziś działają w ten sposób: „Ponieważ słowo pomijane znajduje się w tekście, jest z pewnością obraźliwe”.

A powinno wyglądać tak: „Jakie słowa są obok obraźliwego? Uważam, że znaczenie tego zdania bardzo się zmieniło, nawet jeśli było coś obraźliwego”.

Powód czwarty: przewodnik etyczny

Sztuczna inteligencja powinna być skoncentrowana na człowieku i zaprojektowana w taki sposób, aby w jej oprogramowaniu sprzętowym istniało zrozumienie etyki. Ale co to oznacza?

  • Po pierwsze, etyka opiera się na prawach podstawowych, wartościach społecznych i zasadach miłosierdzia (ogólnie dobroć).
  • Po drugie, maszyny nie powinny szkodzić ludzkiej autonomii ani doświadczać poczucia sprawiedliwości.

Kolejna obawa deweloperów: kiedy sztuczna inteligencja osiągnie szczyt swojego rozwoju i nie będzie mogła liczyć na wsparcie ludzi, zwróci się przeciwko ludzkości.

Wszystko zależy od twórców. Mogą kierować pracą sztucznej inteligencji w walce z przestępczością. Na przykład znajdź tych, którzy rozpowszechniają pornografię dziecięcą.

Ważne jest, aby ustanowić funkcje bezpieczeństwa, zanim sztuczna inteligencja wymknie się spod kontroli człowieka. I to wyjdzie jednoznacznie, bo o to chodzi.

Roboty muszą znajdować się blisko ludzi

Innymi słowy, jeśli ktoś ma zaufać decyzji podjętej przez maszynę, musi ona spełniać ludzkie kryteria. Dlatego programiści muszą się upewnić, że każda decyzja podejmowana przez algorytm jest sprawiedliwa. Celem naukowców nie jest stworzenie alternatywnej formy inteligencji, ale pomoc ludziom w rozwoju.

Pod koniec dnia większość ludzi zgadza się, że sztuczna inteligencja przyniesie wspaniały nowy świat.

Piąty powód: wojna przeciwko ludzkości

Największą rzeczą, która nie pozwala programistom zasnąć w nocy, jest próba zrozumienia nieskończonych możliwości i wpływu tej technologii na opiekę zdrowotną, edukację i obsługę klienta. Kiedy sztuczna inteligencja wyjdzie poza „projekt” i ostatecznie trafi do produkcji, będzie miała rzeczywisty wpływ społeczny.

Każdy z deweloperów uważa, że znajdujemy się na styku świata ludzkiego i cyfrowego. Ale sztuczna inteligencja nie może sama zmienić naszego życia. Aby w pełni wykorzystać potencjał inteligencji, ludzie muszą się zmienić przede wszystkim.

Nic dziwnego, że ludzie boją się sztucznej inteligencji. Ale nie będą w stanie zniewolić ani zniszczyć tych, którzy mają wspólny cel - rozwój i postęp. Kiedy ludzie zdadzą sobie sprawę, że powinni myśleć nie jak zwierzęta, ale jak istoty wyższe, żadne roboty nie będą się bać.

Alisa Krasnova