Google: „sztuczna Inteligencja Powinna Uzupełniać, A Nie Zastępować Człowieka” - Alternatywny Widok

Spisu treści:

Google: „sztuczna Inteligencja Powinna Uzupełniać, A Nie Zastępować Człowieka” - Alternatywny Widok
Google: „sztuczna Inteligencja Powinna Uzupełniać, A Nie Zastępować Człowieka” - Alternatywny Widok
Anonim

Greg Corrado, główny programista projektu Google Brain (który tworzy systemy uczenia maszynowego i sztucznej inteligencji oraz ich integrację z usługami Google) powiedział RIA Novosti, czym jest sztuczna inteligencja, dlaczego powstanie samodoskonalących się maszyn nam nie zagraża i podzielił się swoimi przemyśleniami na temat tego, jak ludzkość przystosuje się do życia w dobie „inteligentnych maszyn”.

W ostatnich latach Corrado i jego współpracownicy opracowali nowe systemy tłumaczenia maszynowego, nauczyli wyszukiwarkę grafiki Google rozpoznawać koty, psy i inne obiekty oraz stworzyli sieć neuronową, która poprawia rozdzielczość zdjęć. Obecnie pracują nad asystentem głosowym dla telefonów z systemem Android.

Greg, sądząc po twoich publikacjach, twoja kariera naukowa rozpoczęła się w neurofizjologii, a nie w rozwoju sztucznej inteligencji. Jak to się stało, że systemy AI stały się ważne dla Ciebie osobiście i ogólnie dla Google?

- Początkowo interesowały mnie zupełnie inne rzeczy - najpierw studiowałem fizykę, a potem przeszedłem na kierunek nauk o mózgu. Wtedy wydało mi się, że mózg jest najbardziej interesującym systemem fizycznym i chciałem zrozumieć, w jaki sposób rozwój naszego mózgu doprowadził do pojawienia się inteligentnych i samoświadomych istot.

Po pewnym czasie pracy w ten sposób zdałem sobie sprawę, że nie mniej interesujące jest dla mnie badanie wszystkich form inteligencji, nie tylko w jej biologicznych, ale i sztucznych przejawach. Poza tym wydawało mi się wówczas, że w dziedzinie sztucznej inteligencji będziemy w stanie postępować znacznie szybciej niż w badaniach ludzkiego mózgu.

W przypadku Google sytuacja jest inna - firma od samego początku zajmowała się sztuczną inteligencją. Samo wdrożenie wyszukiwarki, zgodnie z koncepcją założycieli firmy Sergeya Brina i Larry'ego Page'a, wymaga przynajmniej jakiejś formy sztucznej inteligencji.

Naszym głównym zadaniem nie jest stworzenie sztucznej inteligencji jako pewnego rodzaju produktu, który moglibyśmy zapakować w pudełko i sprzedać, ale wykorzystanie takich systemów do porządkowania i przetwarzania informacji. Ilość informacji stale rośnie, a im więcej danych otrzymujemy, tym gorzej je widzimy i tracimy pojęcie, co jest ważne, a co nie.

Samo matematyczny pomysł opisujący głębokie sieci neuronowe i nieliniowe metody uczenia się pojawił się ponad dziesięć lat temu, ale upowszechnił się dopiero w ostatnich dwóch, trzech latach. Jaki jest tego powód?

Film promocyjny:

- Mogę powiedzieć więcej - same zasady organizowania tych sieci pojawiły się jeszcze wcześniej, w latach 60. ubiegłego wieku, a ostatecznie sformalizowano je matematycznie w latach 80. i 90. Od tego czasu tak naprawdę się nie zmieniły. Jedynym powodem, dla którego ich renesans ma miejsce teraz, jest to, że komputery stały się zauważalnie szybsze w ostatnich latach i mamy możliwość taniego zwiększenia ich mocy.

W latach dziewięćdziesiątych i na początku 2000 roku tego nie rozumieliśmy, dlatego sieci neuronowe uważano wówczas za interesującą, ale bezużyteczną zabawkę. Ale w rzeczywistości po prostu nie mieli wystarczających zasobów obliczeniowych, aby zrobić coś pożytecznego. Gdy wolumeny danych i zasoby obliczeniowe były małe, proste metody matematyczne wykorzystywały je wydajniej niż sieci neuronowe.

Czy najpierw zdaliśmy sobie sprawę, że głębokie sieci i uczenie maszynowe mogą być przydatne? około 2010 lub 2011 roku, a przetestowanie tego pomysłu i udowodnienie, że tak było, zajęło nam około pięciu lat. Teraz każda osoba w branży rozumie, że tak jest i dąży w tym kierunku.

Z roku na rok nasza cywilizacja produkuje coraz więcej danych, których przetwarzanie będzie wkrótce niemożliwe bez użycia sztucznej inteligencji. Czy ludzkość będzie w stanie dalej się rozwijać, jak wierzą przeciwnicy AI, bez korzystania z takich systemów?

- Nie sądzę, żeby sztuczna inteligencja czy uczenie maszynowe były czymś dobrym lub złym - to tylko zbiór nowych technologii, których sposób wykorzystania będzie zależał wyłącznie od nas. Jako społeczeństwo musimy zdecydować, w jakim celu i w jaki sposób zostaną one zastosowane - na przykład możemy całkowicie porzucić je z powodów etycznych lub politycznych.

Osobiście uważam, że takie rozwiązanie byłoby skrajnie nieskuteczne i podobne do tego, gdybyśmy zakazali automatycznych maszyn do szycia i zmusili wszystkie fabryki do ręcznego szycia ubrań. Zamiast tego musimy zrozumieć, gdzie ich użycie przyniesie rzeczywiste korzyści i będzie zgodne z naszymi wartościami.

Wydaje mi się, że istnieją niezliczone obszary, w których wykorzystanie zarówno sztucznej inteligencji, jak i uczenia maszynowego przyniesie ogromne korzyści społeczeństwu, których wielu wciąż nie możemy sobie wyobrazić.

Google wykorzystuje dziś sieci neuronowe w pracy Tłumacza Google, Wyszukiwarki grafiki Google i wielu innych produktów. Gdzie w najbliższej przyszłości nastąpi główny przełom w ich stosowaniu?

- Kiedy ludzie mówią o rozwoju sztucznej inteligencji, często wyobrażają sobie coś bardzo imponującego, czym tak naprawdę nie jest. Musisz zrozumieć, że po prostu staramy się uczynić maszyny mniej głupimi niż są dzisiaj i sprawić, by współdziałały z ludźmi w najbardziej naturalny sposób.

Dodatkowo sztuczna inteligencja pozwala nam korygować błędy maszyn i zmuszać je do uczenia się na tych błędach. Istnieje rodzaj dialogu między człowiekiem a maszyną.

Mam nadzieję, że w ciągu najbliższych dziesięciu lat będziemy mieć system, być może działający na telefonach i innych urządzeniach mobilnych, który będzie dynamicznie wchodził w interakcję z właścicielem i uwzględniał jego cechy osobowości oraz pewne konkretne życzenia.

Przykładowo, prosisz takiego asystenta o pomoc w dotarciu do punktu na mapie. Kiedy zaproponuje Ci trasę, możesz poprosić go, aby położył ją bliżej parku lub spełnił inne życzenia, a system Cię zrozumie i spełni Twoje życzenia. Chcemy, aby komunikacja z takimi systemami przebiegała jak najbardziej naturalnie dla człowieka.

W ostatnich latach naukowcy coraz częściej mówią o tworzeniu samodoskonalących się systemów sztucznej inteligencji, które wielu poważnych naukowców, na przykład Stephen Hawking, uważa za bardzo niebezpieczne dla człowieka. Czy to naprawdę?

- W rzeczywistości samodoskonaląca się sztuczna inteligencja nie została jeszcze stworzona. Z technicznego punktu widzenia możliwe jest, że kiedyś takie systemy się pojawią, ale jak dotąd nie istnieją i jest mało prawdopodobne, że pojawią się w dającej się przewidzieć przyszłości.

Na przykład dzisiaj istnieją roboty, które pracują na liniach montażowych i montują maszyny oraz inne złożone urządzenia techniczne. Roboty te zostały zmontowane na tej samej linii przy udziale tych samych robotów, ale nie oznacza to, że roboty poprawiły się. To samo dotyczy technologii uczenia maszynowego - używamy ich do analizy danych, w tym innych systemów sztucznej inteligencji, ale nadal nie mogą się doskonalić bez ludzkiej kreatywności.

Na przykład system AlphaGo jest zdolny do bardzo ograniczonej formy samouczenia się, ale nie może radykalnie zmienić swojej architektury i radykalnie się zmienić, na przykład przystosowany do rozwiązywania innych problemów. To, co istnieje dzisiaj, to tylko niewielka część tego, co należy zrobić, aby stworzyć systemy samouczące się, a reszta nie została jeszcze omówiona.

Dlatego osobiście uważam, że dziś tworzenie sztucznej inteligencji coraz bardziej przypomina sztukę niż inżynierię czy naukę, a liderzy naszej branży często zaskakują siebie i współpracowników nieoczekiwanymi odkryciami i odkryciami. Ogólnie można powiedzieć, że dziś tworzenie sztucznej inteligencji jest wyłączną prerogatywą człowieka.

Czy takie systemy można wykorzystać do rozwiązywania najbardziej nietypowych zadań - na przykład jako „mózg” dla łazików lub sond, które samodzielnie badałyby odległe planety i światy?

- W zasadzie jest to całkiem możliwe i wydaje mi się, że w przyszłości sztuczna inteligencja będzie wykorzystywana do prowadzenia badań w kosmosie czy na dnie oceanu, gdzie bezpośrednia kontrola technologii jest z jakiegoś powodu niemożliwa. Systemy sztucznej inteligencji pomogą takim łazikom lub robotom rozwiązać niektóre rutynowe zadania i uniknąć niebezpieczeństw, ale prawdziwe badania naukowe będą nadal prowadzone przez ludzi.

Tylko osoba może wyznaczyć konkretne zadania naukowe i zdecydować, jak je rozwiązać. Możemy powiedzieć robotowi - „podejdź bliżej tego krateru i spróbuj znaleźć w nim białe skały”, ale sam robot w zasadzie nie może zrozumieć, dlaczego te skały nas interesują. Człowiek bardzo dobrze stawia zadania i szuka sposobów ich rozwiązania, a maszyny jeszcze takiej możliwości nie mają. W tym przypadku roboty mogą być tylko asystentami, ale nie naukowcami.

To pytanie jest bezpośrednio związane z faktem, że wiele osób nie rozumie, czym jest sztuczna inteligencja i wierzy, że naukowcy tworzą kompletny odpowiednik osoby ze swoim umysłem, uczuciami i innymi cechami. Dlaczego to się dzieje?

- Wydaje mi się, że jest to konsekwencja tego, że ludzie w ogóle nie rozumieją, dlaczego sztuczna inteligencja istnieje. Wierzą, że tworzymy maszyny jak ludzie. Całkowicie to odrzucam i mówię, że tworzymy to nie po to, by zastąpić człowieka, ale by uzupełnić jego możliwości.

Na przykład codziennie korzystam z komputera i są rzeczy, które ja i on mogę zrobić samodzielnie - dodawać lub mnożyć liczby. Komputer robi to szybciej i doceniam to również z tego powodu. W związku z tym mogę przeprowadzić „podział pracy”, przekazując obliczenia do komputera i zrobić więcej, niż byłbym w stanie zrobić bez jego pomocy. I wydaje mi się, że na tym polega istota sztucznej inteligencji.

Wydaje mi się, że idea stworzenia kompletnego odpowiednika osoby jest zakorzeniona albo w science fiction, albo w filozofii. Filozofowie od dawna zastanawiali się, czy możemy stworzyć maszyny, które wyglądają jak ludzie, ale to pytanie nie ma nic wspólnego z tym, czy tacy „sztuczni ludzie” będą dla nas przydatni i czy w ogóle jest to możliwe.

Dlatego z punktu widzenia praktyki lepiej jest tworzyć inteligencję, która będzie uzupełniać nasz własny umysł i poszerzać jego możliwości, a nie go kopiować.

Już dziś istnieją systemy podobne do maszyn z autopilotem, w których życie człowieka zależy od działań sztucznej inteligencji. Czy musimy tworzyć całkowicie nowe normy prawne, aby zdefiniować odpowiedzialność i kto będzie odpowiedzialny za działania AI?

- To bardzo ważne pytanie. Od razu podkreślę, że nie jestem prawnikiem, ale wydaje mi się, że w przeszłości były przykłady podobnych problemów. Na przykład od wielu stuleci istniały przepisy, które określają, kto jest odpowiedzialny za to, że czyjś koń kopnął obcego, pies zaatakował nieznajomego, maszyna zepsuła się i zraniła pracownika lub zaistniał jakiś inny incydent.

Wydaje mi się, że musimy wykorzystać to doświadczenie przy określaniu odpowiedzialności za zachowanie systemów sztucznej inteligencji. W związku z tym pozostaje tylko przedyskutować, w jaki sposób możemy dostosować te zasady, aby określić, w jaki sposób będziemy współdziałać z autonomicznymi maszynami i innymi urządzeniami tego typu.

Jestem pewien, że ta dyskusja będzie bardzo gorąca i długa, ale wydaje mi się, że nie będzie wymagała wprowadzenia żadnych zupełnie nowych norm i zasad prawnych. Oczywiście niektórzy sugerują traktowanie systemów AI jako „osobowości” i tak dalej, ale dla mnie osobiście jest to coś bardzo dziwnego i niezrozumiałego.

Futurolodzy i niektórzy z Twoich kolegów przewidują, że dalszy rozwój AI pozostawi wiele osób zaangażowanych w wykwalifikowaną, ale rutynową pracę - księgowych, kierowców, urzędników - bez pracy. Czy ten problem istnieje i jak można go rozwiązać?

- Oczywiście ten problem istnieje. Moi rodzice i dziadkowie byli księgowymi, a moja babcia zaczęła od pióra i papieru, a skończyła na kalkulatorach, a moja mama przeszła od kalkulatorów do arkuszy kalkulacyjnych na komputerze. Wszystkie te zmiany radykalnie zmieniły sposób pracy księgowych, ale sama istota zawodu nie zmieniła się od tego - księgowi nie zniknęli, ale jednocześnie zaczęli pracować lepiej, szybciej i lepiej.

Wydaje mi się, że coś podobnego stanie się ze sztuczną inteligencją. Zmieni się treść wielu zawodów, ale ich istota pozostanie taka sama, niektóre z nich mogą nawet zniknąć, ale taki los spotka tylko niewielką część z nich.

Ponadto mogłoby się wydarzyć coś podobnego, co stało się z dziedziną projektowania stron internetowych pod koniec lat 90. - przed nadejściem i rozpowszechnieniem się Internetu nikt nie mógł sobie wyobrazić, że ktokolwiek mógłby robić takie rzeczy. Z drugiej strony głupotą i błędem jest lekkie podejście do tej kwestii i myślenie, że nic się nie zmieni. Musisz zrozumieć, że te technologie zmienią świat, że będziesz musiał się do nich dostosować i pomóc innym w przystosowaniu się do nich.