Pięć sezonów sztucznej inteligencji. W Go bije człowieka na drobne kawałki, przejmuje kontrolę nad jego samochodem i zastępuje go w pracy, a jednocześnie może poprawić skuteczność medycyny. Jego długa historia sięga 1958 roku z ogromną maszyną, która potrafiła rozróżniać prawą i lewą stronę.
1: 0. Następnie 2: 0. I 3: 0. W marcu 2016 roku odbyło się ostatnie spotkanie w hotelu Four Seasons w Seulu, po którym nie było cienia wątpliwości: koreański mistrz go Lee Sedol przegrał 4: 1 z komputerem obsługującym program AlphaGo opracowany przez spółkę zależną Google. „Deepmind”. Po raz pierwszy w historii mechanizm „uczenia maszynowego” i „sztucznych sieci neuronowych” całkowicie przerósł ludzki mózg w tej grze, którą uważa się za trudniejszą do zasymulowania niż szachy. Wielu ekspertów podkreśla, że takiego wyniku oczekiwali dopiero za kilka lat.
Dla szerszej publiczności był to dowód na siłę nowej technologii „głębokiego uczenia się”, która jest teraz sercem asystentów głosowych, samochodów autonomicznych, rozpoznawania twarzy, tłumaczenia maszynowego, a także ułatwia diagnostykę medyczną …
Zainteresowanie technologiami automatycznego uczenia się, jakie wykazują amerykańskie i chińskie korporacje w dziedzinie wysokich technologii (Google, Amazon, Facebook, Microsoft, Baidu, Tensent), obejmuje całą planetę i coraz częściej skacze z nagłówki naukowe gazet w materiałach ekonomicznych, analitycznych i społecznych. Faktem jest, że sztuczna inteligencja nie tylko zapowiada duże zmiany w gospodarce, ale także rodzi myśli o nowej niszczycielskiej broni, powszechnej inwigilacji obywateli, zastępowaniu pracowników robotami, problemach etycznych …
Ale skąd się wzięła rewolucja technologiczna AI? Jej historia ma wystarczająco dużo wzlotów i upadków. Oparła się na osiągnięciach neuronauki i informatyki (jak można się domyślić z nazwy), a także, o dziwo, fizyki. Jej droga wiodła przez Francję, USA, Japonię, Szwajcarię i ZSRR. Na tym terenie zderzyły się ze sobą różne szkoły naukowe. Jednego dnia wygrali, a następnego przegrali. Każdy musiał wykazać się cierpliwością, wytrwałością i gotowością do podejmowania ryzyka. W tej historii są dwie zimy i trzy wiosny.
„Samoświadoma maszyna”
Wszystko zaczęło się dobrze. „Armia amerykańska mówiła o idei maszyny, która może chodzić, mówić, widzieć, pisać, reprodukować i uświadamiać sobie siebie” - napisał The New York Times 8 lipca 1958 r. Ten jednokolumnowy artykuł opisuje Perceptron, który został stworzony przez amerykańskiego psychologa Franka Rosenblatta w laboratoriach Cornell University. Ta maszyna warta 2 miliony dolarów w tamtym czasie była wielkości dwóch lub trzech lodówek i była opleciona wieloma przewodami. Podczas demonstracji przed amerykańską prasą Perceptron ustalił, czy kwadrat narysowany na kartce jest po prawej, czy po lewej stronie. Naukowiec obiecał, że przy zainwestowaniu kolejnych 100 tysięcy dolarów jego maszyna będzie w stanie czytać i pisać za rok. W rzeczywistości zajęło to ponad 30 lat …
Film promocyjny:
Tak czy inaczej, najważniejszą rzeczą w tym projekcie było źródło inspiracji, które pozostało niezmienione aż do AlphaGo i jej „krewnych”. Psycholog Frank Rosenblatt od ponad dziesięciu lat zajmuje się koncepcjami cybernetyki i sztucznej inteligencji. Nawiasem mówiąc, opracował swój Perceptron z pomocą dwóch innych psychologów z Ameryki Północnej: Warrena McCullocha i Donalda Hebba. Pierwszy opublikowany w 1943 r. Wspólny artykuł z Walterem Pittsem (Walter Pitts) z propozycją stworzenia „sztucznych” neuronów, które powinny wychodzić od naturalnych i mieć właściwości matematyczne. Drugi wprowadził zasady w 1949 roku, aby umożliwić sztucznym neuronom uczenie się metodą prób i błędów, tak jak robi to mózg.
Pomost między biologią a matematyką był odważną inicjatywą. Jednostka licząca (neuron) może być aktywna (1) lub nieaktywna (0) w zależności od bodźców z innych sztucznych formacji, z którymi jest połączona, tworząc złożoną i dynamiczną sieć. Dokładniej, każdy neuron otrzymuje określony zestaw symboli i porównuje go z pewnym progiem. Jeśli próg zostanie przekroczony, wartość wynosi 1, w przeciwnym razie jest równa 0. Autorzy pokazali, że powiązany z nimi system może wykonywać operacje logiczne, takie jak „i” i „lub”… i tym samym przeprowadzać dowolne obliczenia. W teorii.
To nowatorskie podejście do obliczeń doprowadziło do pierwszej kłótni w naszej historii. Te dwie koncepcje spotkały się w niemożliwej do pogodzenia konfrontacji, która trwa do dziś. Z jednej strony istnieją zwolennicy sieci neuronowych, z drugiej zwolennicy „klasycznych” komputerów. Te ostatnie opierają się na trzech zasadach: obliczenia są przeważnie sekwencyjne, pamięć i obliczenia są zaopatrzone w jasno zdefiniowane komponenty, każda wartość pośrednia powinna być równa 0 lub 1. W pierwszym przypadku wszystko jest inne: sieć zapewnia zarówno pamięć, jak i obliczenia, nie ma scentralizowanej kontroli, i wartości pośrednie są dozwolone.
„Perceptron” ma również zdolność uczenia się, na przykład rozpoznawania wzorca lub klasyfikowania sygnałów. W ten sposób strzelec koryguje celownik. Jeśli pocisk trafi w prawo, przesuwa lufę w lewo. Na poziomie sztucznych neuronów oznacza to osłabienie tych, którzy ciągną w prawo, na korzyść tych, którzy ciągną w lewo i pozwolenie trafić w cel. Pozostaje tylko stworzyć tę plątaninę neuronów i znaleźć sposób na ich połączenie.
Tak czy inaczej, entuzjazm zmniejszył się znacznie w 1968 roku wraz z wydaniem książki Perceptrons autorstwa Seymoura Paperta i Marvina Minsky'ego. Pokazali w nim, że struktura perceptronów pozwala rozwiązywać tylko najprostsze problemy. Była to pierwsza zima sztucznej inteligencji, której pierwsza wiosna, trzeba przyznać, nie przyniosła wiele owoców. A wiatr wiał nie wiadomo skąd: Marvin Minsky stał u podstaw powstania samej koncepcji „sztucznej inteligencji” w 1955 roku.
AI i AI zderzają się
31 sierpnia tego roku ona i jej kolega John McCarthy wysłali kilkanaście osób zapraszając ich następnego lata do udziału w dwumiesięcznych pracach nad pierwszą wówczas koncepcją sztucznej inteligencji w Dartmouth College. Obecni byli Warren McCulloch i Claude Shannon, ojciec informatyki i teorii telekomunikacji. To on przywiózł Minsky'ego i McCarthy'ego do laboratorium Bella, z którego następnie wyszły tranzystory i lasery. Ponadto to oni stali się jednym z ośrodków odrodzenia sieci neuronowych w latach 80.
Równolegle powstały dwa nowe ruchy, a ich polem bitwy stał się Uniwersytet Stanforda. Z jednej strony istniał akronim AI, „sztuczna inteligencja”, inaczej rozumiany od sieci neuronowych, którego bronił John McCarthy (odszedł z Massachusetts Institute of Technology i stworzył swoje laboratorium w Stanford). Z drugiej strony jest UI, „zwiększona inteligencja”, odzwierciedlająca nowe podejście Douglasa Engelbarta. Został zatrudniony w 1957 roku przez Stanford Research Institute (utworzony w 1946 roku przez niezależną instytucję współpracującą z sektorem prywatnym).
Douglas Engelbart miał za sobą trudną ścieżkę. Był technikiem i zajmował się radarem podczas drugiej wojny światowej, ale potem podjął studia i obronił pracę magisterską. Przed dołączeniem do Stanford stworzył nawet własną firmę, ale przetrwała ona tylko dwa lata. W nowym miejscu zaczął realizować swoją wizję doskonalenia ludzkich możliwości. Powiedział, że ma jasne wyobrażenie o tym, jak „koledzy siedzą w różnych pokojach na podobnych stanowiskach roboczych, które są podłączone do tego samego systemu informacyjnego i mogą ściśle ze sobą współdziałać i wymieniać dane” - mówi socjolog Thierry Bardini.
Wizja ta została zrealizowana w grudniu 1968 roku, dziesięć lat po wprowadzeniu Perceptronu, podczas demonstracji systemu oNLine z edytorem tekstu na ekranie, hiperłączami do dokumentów, wykresami i myszą. Douglas Engelbart był wizjonerem, ale prawdopodobnie spojrzał zbyt daleko w przyszłość, by naprawdę dać się poznać.
Styczeń 1984, pierwszy Macintosh
John McCarthy z kolei nazwał ten system niepotrzebnie „dyktatorskim”, ponieważ narzucał specjalne podejście do strukturyzacji tekstu. Ten odważny naukowiec, który podobnie jak Engelbart był finansowany przez armię amerykańską, przedstawił własną, symboliczną koncepcję sztucznej inteligencji. W tym przypadku oparł się na LISP, jednym z pierwszych języków programowania, które opracował. Pomysł polegał na naśladowaniu procesu myślowego za pomocą logicznego łańcucha reguł i symboli, a tym samym uformowanie myśli lub przynajmniej funkcji poznawczej. Nie ma to nic wspólnego z sieciami niezależnych neuronów, które mogą się uczyć, ale nie są w stanie wyjaśnić swojego wyboru. Poza robotyczną ręką, która wylewała poncz, która rozbawiła wszystkich, przewracając szklanki, nowe podejście było całkiem skuteczne w odniesieniu do tak zwanych „systemów eksperckich”. Łańcuchy reguł pozwoliły maszynom analizować dane z wielu różnych dziedzin, takich jak finanse, medycyna, produkcja czy tłumaczenia.
W 1970 roku kolega Minsky'ego przekazał magazynowi Life następujące oświadczenie: „Za osiem lat będziemy mieli maszynę z inteligencją przeciętnego człowieka. To znaczy maszyna, która potrafi czytać Szekspira, wymieniać olej w aucie, żartować, walczyć”.
Zwycięstwo symbolicznego podejścia
Najwyraźniej sztuczna inteligencja nie lubi przepowiedni. W 1973 roku w Anglii ukazał się raport, który zmroził gorące głowy: „Większość naukowców zajmujących się sztuczną inteligencją i pokrewnymi dziedzinami przyznaje, że jest rozczarowana tym, co udało się osiągnąć w ciągu ostatnich 25 lat. (…) W żadnym z obozów dotychczas dokonane odkrycia nie przyniosły obiecanych rezultatów”.
Kolejne lata potwierdziły tę diagnozę. W latach 80. biznesy AI zbankrutowały lub zmieniły dziedziny. Budynek laboratorium McCarthy został zburzony w 1986 roku.
Douglas Engelbart wygrał. W styczniu 1984 roku Apple wypuściło swojego pierwszego Macintosha, wprowadzając w życie większość pomysłów inżynierów.
W ten sposób zwycięstwo przypadło nie sztucznej inteligencji, o której marzyli Minsky i McCarthy, ale wzmocnionemu intelektowi Engelbarta. Wszystko to doprowadziło do opracowania wydajnych komputerów osobistych. Sztuczna inteligencja znalazła się w ślepym zaułku. Symbolizm okazał się silniejszy niż sieci neuronowe. Niemniej jednak nasza historia na tym się nie kończy, a oni nadal będą się deklarować.
David Larousserie