Sztuczna Inteligencja Nie Jest Tak Inteligentna, Jak Ty I Elon Musk Myślicie, że Jest - Alternatywny Widok

Spisu treści:

Sztuczna Inteligencja Nie Jest Tak Inteligentna, Jak Ty I Elon Musk Myślicie, że Jest - Alternatywny Widok
Sztuczna Inteligencja Nie Jest Tak Inteligentna, Jak Ty I Elon Musk Myślicie, że Jest - Alternatywny Widok

Wideo: Sztuczna Inteligencja Nie Jest Tak Inteligentna, Jak Ty I Elon Musk Myślicie, że Jest - Alternatywny Widok

Wideo: Sztuczna Inteligencja Nie Jest Tak Inteligentna, Jak Ty I Elon Musk Myślicie, że Jest - Alternatywny Widok
Wideo: 15 oznak, że jesteś wybitnie inteligentny, ale o tym nie wiesz 2024, Może
Anonim

W marcu 2016 roku algorytm komputerowy AlphaGo firmy DeepMind był w stanie pokonać Lee Sedola, wówczas najlepszego na świecie gracza w puzzle. Wydarzenie to stało się jednym z przełomowych momentów w historii branży technologicznej, która kiedyś stała się zwycięstwem komputera Deep Blue firmy IBM nad mistrzem świata w szachach Garrym Kasparowem oraz zwycięstwem superkomputera Watson tego samego IBM w quizie Jeopardy w 2011 roku.

Jednak pomimo tych zwycięstw, choć mogą być imponujące, bardziej chodzi o szkolenie algorytmów i wykorzystanie surowej mocy obliczeniowej niż o prawdziwą sztuczną inteligencję. Były profesor robotyki z MIT Rodney Brooks, który był współzałożycielem iRobot, a później Rethink Robotics, mówi, że nauka algorytmu do gry w skomplikowaną strategiczną łamigłówkę nie jest inteligencją. Przynajmniej nie tak, jak to sobie wyobrażamy dla osoby.

Ekspert wyjaśnia, że bez względu na to, jak silny może się okazać AlphaGo w wykonaniu powierzonego mu zadania, tak naprawdę nie jest zdolny do niczego innego. Co więcej, ustawił się tylko do gry w Go na standardowym boisku 19 x 19. W wywiadzie dla TechCrunch Brooks opowiedział o tym, jak ostatnio miał okazję porozmawiać z zespołem DeepMind i dowiedzieć się ciekawego szczegółu. Zapytany, co by się stało, gdyby organizatorzy zmienili rozmiar planszy go i zwiększyli ją do 29 x 29 kwadratów, zespół AlphaGo przyznał mu, że nawet niewielka zmiana pola gry doprowadziłaby do tego, że „jesteśmy skończeni”.

„Myślę, że ludzie widzą, jak dobrze algorytm robi jedną rzecz, i wydaje im się, że od razu myślą, że może równie skutecznie działać innym. Ale chodzi o to, że on nie może - skomentował Brooks.

Ogromna inteligencja

W maju tego roku w wywiadzie dla Davina Coldwaya w TechCrunch Disrupt Kasparow zauważył, że stworzenie komputera zdolnego do gry w szachy na poziomie globalnym to jedno, ale nazwanie takiego komputera czystą sztuczną inteligencją, skoro tak nie jest, to zupełnie co innego. To po prostu maszyna, która całą swoją moc obliczeniową przeznacza na rozwiązanie problemu, do którego przywykła najlepiej.

„W szachach maszyny wygrywają dzięki mocy głębokich obliczeń. Mogą stać się całkowicie niezwyciężeni dzięki ogromnej bazie danych, bardzo szybkiemu sprzętowi i bardziej logicznym algorytmom. Jednak brakuje im zrozumienia. Nie rozpoznają wzorców strategicznych. Maszyny nie mają żadnego celu - powiedział Kasparow.

Film promocyjny:

Gil Pratt, dyrektor generalny Toyota Institute, wydziału sztucznej inteligencji i sztucznej inteligencji Toyoty w robotach domowych i samochodach samojezdnych, również rozmawiał z TechCrunch podczas sesji robotycznej. Jego zdaniem strach, jaki słyszymy od szerokiego kręgu ludzi, w tym od Elona Muska, który ostatnio nazwał sztuczną inteligencję „egzystencjalnym zagrożeniem dla ludzkości”, może wynikać tylko z tych dystopijnych opisów świata, które oferuje nam science fiction.

„Nasze obecne systemy uczenia głębokiego są tak dobre w wykonywaniu powierzonych im zadań, jak je zaprojektowaliśmy. Ale w rzeczywistości są one dość wysoce wyspecjalizowane i niewielkie. Dlatego uważam za ważne za każdym razem w kontekście tego tematu, aby wspomnieć zarówno o tym, jak dobre są, jak i jak nieskuteczne są w rzeczywistości. A także, jak daleko jesteśmy od punktu, w którym te systemy mogą zacząć stanowić zagrożenie, o którym mówi Elon Musk i inni”- skomentował Pratt.

Brooks z kolei podczas TechCrunch Robotics Session zauważył, że wśród ludzi istnieje tendencja do przekonania, że jeśli algorytm jest w stanie poradzić sobie z zadaniem „X”, to najwyraźniej jest tak mądry jak człowiek.

„Myślę, że powodem, dla którego ludzie, w tym Elon Musk, popełniają ten błąd, jest to. Kiedy widzimy osobę wykonującą bardzo dobrą robotę z powierzonym jej zadaniem, rozumiemy, że ma wysokie kompetencje w tej kwestii. Wydaje mi się, że ludzie próbują zastosować ten sam model do uczenia maszynowego. I na tym polega największy błąd”- mówi Brooks.

Prezes Facebooka, Mark Zuckerberg, przeprowadził w zeszłą niedzielę transmisję na żywo, podczas której skrytykował również komentarze Elona Muska, nazywając je „raczej nieodpowiedzialnymi”. Według Zuckerberga sztuczna inteligencja będzie w stanie znacząco poprawić nasze życie. Musk z kolei postanowił nie milczeć i odpowiedział Zuckerbergowi, że ma „ograniczone zrozumienie” sztucznej inteligencji. Temat nie został jeszcze zamknięty, a Musk obiecał nieco później bardziej szczegółowo zareagować na ataki ze strony kolegów z branży IT.

Nawiasem mówiąc, Musk nie jest jedynym, który uważa, że sztuczna inteligencja może stanowić potencjalne zagrożenie. Fizyk Stephen Hawking i filozof Nick Bostrom również wyrażają swoje zaniepokojenie możliwością penetracji przez sztuczną inteligencję sposobu życia ludzkości. Ale najprawdopodobniej mówią o bardziej uogólnionej sztucznej inteligencji. O tym, co jest badane w laboratoriach, takich jak Facebook AI Research, DeepMind i Maluuba, a nie o bardziej wyspecjalizowanej sztucznej inteligencji, której pierwsze początki możemy dziś zobaczyć.

Brooks zauważa również, że wielu krytyków sztucznej inteligencji nawet nie działa w tej dziedzinie i zasugerował, że ci ludzie po prostu nie rozumieją, jak trudno jest znaleźć rozwiązanie każdego indywidualnego problemu w tym obszarze.

„W rzeczywistości niewiele osób uważa sztuczną inteligencję za zagrożenie egzystencjalne. Stephen Hawking, brytyjski astrofizyk i astronom Martin Rees … i kilku innych. Ironia polega na tym, że większość z nich ma jedną wspólną cechę - nawet nie działają w dziedzinie sztucznej inteligencji”- powiedział Brooks.

„Dla tych z nas, którzy pracują ze sztuczną inteligencją, jest całkiem oczywiste, jak trudne może być uzyskanie czegoś do pracy na poziomie gotowego produktu”.

Fałszywe przedstawienie AI

Część problemu wynika również z faktu, że nazywamy to wszystko „sztuczną inteligencją”. Prawda jest taka, że ta „inteligencja” wcale nie przypomina inteligencji ludzkiej, która jest zwykle opisywana w podręcznikach i słownikach jako „zdolność uczenia się, rozumienia i przystosowywania się do nowych sytuacji”.

Pascal Kaufman, dyrektor generalny Starmind, startupu, który pomaga innym firmom w wykorzystywaniu zbiorowej inteligencji do rozwiązywania problemów biznesowych, studiował neurobiologię od 15 lat. Ludzki mózg i komputer, zauważa Kaufman, działają zupełnie inaczej i ich porównywanie byłoby oczywistym błędem.

„Analogia - mózg działa jak komputer - jest bardzo niebezpieczna i przeszkadza w rozwoju sztucznej inteligencji” - mówi Kaufman.

Ekspert uważa również, że nie zrobimy postępów w zrozumieniu ludzkiej inteligencji, jeśli rozważymy ją w kategoriach technologicznych.

„To błędne przekonanie, że algorytmy działają jak ludzki mózg. Ludzie po prostu kochają algorytmy, więc myślą, że za ich pomocą można opisać mózg. Myślę, że to zasadniczo błędne stwierdzenie”- dodaje Kaufman.

Jeśli coś pójdzie nie tak

Istnieje wiele przykładów, w których algorytmy sztucznej inteligencji nie są tak inteligentne, jak o nich myśleliśmy. A jednym z być może najbardziej niesławnych jest algorytm sztucznej inteligencji Tay, stworzony przez zespół programistów systemów AI firmy Microsoft i wymknął się spod kontroli w zeszłym roku. Zmiana bota w prawdziwego rasistę zajęła mniej niż jeden dzień. Eksperci twierdzą, że może się to zdarzyć w każdym systemie sztucznej inteligencji, gdy zostanie przedstawiony zły wzór do naśladowania. W przypadku Taya uległa wpływowi rasistowskich i innych obraźliwych form słownictwa. A ponieważ został zaprogramowany do „uczenia się” i „lustrzanego zachowania”, szybko wymknął się spod kontroli naukowców.

Szeroko rozpowszechnione badania przeprowadzone w Cornell i Wyoming wykazały, że bardzo łatwo jest oszukać algorytmy wyszkolone do identyfikacji obrazów cyfrowych. Odkryli, że obraz, który dla ludzi wyglądał jak „wymieszany nonsens”, został zidentyfikowany przez algorytm jako obraz jakiegoś przedmiotu codziennego użytku, takiego jak „autobus szkolny”.

Zgodnie z artykułem opublikowanym w MIT Tech Review opisującym ten projekt, nie jest do końca jasne, dlaczego algorytm można oszukać w sposób, w jaki zrobili to badacze. Odkryto, że ludzie nauczyli się rozpoznawać to, co jest przed nimi - albo samowystarczalny obraz, albo jakiś niezrozumiały obraz. Algorytmy z kolei analizujące piksele są łatwiejsze do manipulowania i oszukiwania.

Jeśli chodzi o samochody autonomiczne, wszystko okazuje się znacznie bardziej skomplikowane. Jest kilka rzeczy, które osoba rozumie, przygotowując się do stawienia czoła określonym sytuacjom. Bardzo trudno będzie nauczyć maszynę tego robić. W obszernym artykule opublikowanym na jednym z blogów motoryzacyjnych przez Rodneya Brooksa w styczniu tego roku przytoczono kilka przykładów takich sytuacji, w tym jeden opisujący autonomiczny samochód zbliżający się do znaku stopu znajdującego się obok przejścia dla pieszych w mieście. na początku której dorosły i dziecko stoją i komunikują się.

Algorytm najprawdopodobniej zostanie dostrojony w taki sposób, aby czekać, aż piesi przejdą przez jezdnię. Ale co, jeśli ci piesi nawet nie pomyśleli o przejściu przez ulicę, gdy stoją i czekają, powiedzmy, na szkolny autobus? Kierowca ludzki w tym przypadku mógłby trącić pieszych, którzy w odpowiedzi mogliby do niego machać, informując go, że może przejść. Bezzałogowy pojazd w takiej sytuacji może po prostu utknąć w ciasnym miejscu, bez końca czekając, aż ludzie przejdą przez jezdnię, ponieważ algorytm nie rozumie tak unikalnych ludzkich sygnałów, pisze Brooks.

Każdy z tych przykładów pokazuje nam, jak daleko jeszcze musimy się posunąć w rozwoju algorytmów sztucznej inteligencji. To, jak dobrze uogólnieni programiści sztucznej inteligencji mogą odnieść sukces, wciąż pozostaje pytaniem. Są rzeczy, z którymi człowiek może sobie łatwo poradzić, ale nauka algorytmu będzie prawdziwą torturą. Czemu? Ponieważ my, ludzie, nie jesteśmy ograniczeni w nauce do określonych zadań.

Nikolay Khizhnyak