Uwolnij Sztuczną Inteligencję: Openai, Szalony Plan Elona Muska - Alternatywny Widok

Spisu treści:

Uwolnij Sztuczną Inteligencję: Openai, Szalony Plan Elona Muska - Alternatywny Widok
Uwolnij Sztuczną Inteligencję: Openai, Szalony Plan Elona Muska - Alternatywny Widok

Wideo: Uwolnij Sztuczną Inteligencję: Openai, Szalony Plan Elona Muska - Alternatywny Widok

Wideo: Uwolnij Sztuczną Inteligencję: Openai, Szalony Plan Elona Muska - Alternatywny Widok
Wideo: SZTUCZNA INTELIGENCJA ELONA MUSKA 2024, Październik
Anonim

Politycy i kapitaliści mają tradycję piątkowego popołudnia wyrzucania wielu wiadomości, aby ukryć wśród nich złe wieści. Było więc trochę dziwne, że Elon Musk, założyciel Tesli, producenta pojazdów elektrycznych, i Sam Altman, prezes renomowanego inkubatora technologicznego Y Combinator, zaprezentowali swoją nową firmę zajmującą się sztuczną inteligencją pod koniec tygodniowej konferencji AI w Montrealu w grudniu zeszłego roku.

Był powód do wprowadzenia OpenAI o tak późnej porze. Nie dlatego, że nikt nie patrzył. Ponieważ wszyscy patrzyli. Kiedy niektóre z najpotężniejszych firm w Dolinie Krzemowej wyczuły, że wieje wiatr, zaczęły oferować ogromne sumy pieniędzy nowo powołanym talentom OpenAI AI, aby zatrzymać tych geniuszy w domu. W ostatniej chwili propozycje - niektóre z samej konferencji - urosły tak duże, że Musk i Altman musieli opóźnić ogłoszenie nowego startupu. „Kwoty osiągnęły granicę szaleństwa” - mówi Wojciech Zaremba, naukowiec, który dołączył do OpenAI po stażach w Google i Facebooku i znalazł się wśród tych, którzy o 23:00 otrzymali ważne oferty.

Image
Image

Ile dolarów to granica szaleństwa? Dwa lata temu, gdy rynek najnowszej technologii uczenia maszynowego zaczął się rozgrzewać, wiceprezes Microsoft Research Peter Lee powiedział, że koszt czołowych badaczy sztucznej inteligencji przewyższył koszt najlepszego rozgrywającego w National Football League - i to w normalnych okolicznościach, a nie wtedy, gdy czołowi przedsiębiorcy Silicon Valley stara się zdobyć najlepsze talenty. Zaremba mówi, że kiedy OpenAI się połączyło, zaoferowano mu dwa do trzech razy więcej niż wartość rynkowa.

OpenAI nie spełnił tych sugestii. Zaproponował jednak coś innego: możliwość angażowania się w badania ukierunkowane wyłącznie na przyszłość, a nie na produkty i kwartalne zyski, a ostatecznie na podzielenie większości - jeśli nie wszystkich - badań między każdego, kto chce. Zgadza się: Musk, Altman i firma postanowili rozdać najbardziej przełomową technologię XXI wieku i rozdać ją za darmo.

Zaremba mówi, że propozycje na krawędzi szaleństwa w rzeczywistości go zniechęcają - pomimo ogromnego szacunku dla firm takich jak Google i Facebook. Czuł, że pieniądze zostały przekazane, aby zapobiec powstaniu OpenAI, co dodatkowo wzmocniło jego zaangażowanie w hojny startup. „Zdałem sobie sprawę”, mówi Zaremba, „że OpenAI jest dla mnie najlepszym miejscem”.

Czy czujesz ironię w sercu tej historii? Podczas gdy największe światowe firmy technologiczne starają się zatrzymać swoich naukowców tak bardzo, jak zespoły NFL starają się zachować swoich gwiazdorskich rozgrywających, sami badacze chcą tylko podzielić się swoimi spostrzeżeniami. W wyrafinowanym świecie badań nad sztuczną inteligencją najbystrzejsze umysły kierują się nie tylko kolejnym cyklem produkcyjnym lub zyskiem, albo wcale nie mają na ich punkcie obsesji. Chcą ulepszyć sztuczną inteligencję i nie da się ulepszyć sztucznej inteligencji, jeśli zachowujesz dla siebie najnowsze osiągnięcia.

OpenAI wypuściło niedawno pierwszą partię oprogramowania AI, zestawu narzędzi do tworzenia systemów sztucznej inteligencji opartych na technologii zwanej uczeniem się przez wzmacnianie, jednej z kluczowych technologii, która doprowadziła do powstania AlphaGo, sztucznej inteligencji Google, która zaskoczyła świat swoimi możliwościami. idź do gier. Dzięki temu zestawowi narzędzi możesz budować systemy, które otworzą nową generację robotów, grać w gry Atari i tak, pokonać mistrzów świata w Go.

Film promocyjny:

Ale zabawki to dopiero początek. OpenAI to misja warta miliard dolarów, mająca na celu maksymalne wykorzystanie sztucznej inteligencji. Po sposobie, w jaki firma się zjednoczyła i jakie są jej plany, widać kolejną nową falę innowacji. Nie wiemy jeszcze, czy OpenAI będzie głównym motorem tych zmian. Ale siły stojące za powstaniem tego dość nietypowego startupu pokazują, że kolejna generacja AI zmieni nie tylko technologię, ale i sposób jej działania.

Sztuczna inteligencja jest wszędzie

Dolina Krzemowa ma zamiłowanie do przesady. Odważnie brzmiące stwierdzenia zawsze należy spotykać z przymrużeniem oka. Ale w dziedzinie sztucznej inteligencji rzeczywiście zachodzą zmiany. W firmach, takich jak Google i Facebook, technologie głębokiego uczenia już pomagają usługom internetowym identyfikować twarze na zdjęciach, rozpoznawać polecenia głosowe na smartfonach i odpowiadać na zapytania wyszukiwane w Internecie. Ta sama technologia może w przyszłości rozwiązać wiele innych problemów. Może pomóc maszynom w nauce rozumienia języka naturalnego - do którego my, ludzie, jesteśmy przyzwyczajeni. Może pomóc w opracowaniu nowej rasy robotów, pozwolić automatom nie tylko wykonywać swoje zadania, ale także uczyć się w locie. Niektórzy uważają, że ostatecznie da to maszynom coś w rodzaju zdrowego rozsądku - umiejętność myślenia prawdziwie jak człowiek.

Wraz z takimi obietnicami rodzi się głęboki niepokój. Musk i Altman obawiają się, że jeśli ludzie potrafią tworzyć sztuczną inteligencję, która robi wspaniałe rzeczy, mogą budować sztuczną inteligencję, która robi straszne rzeczy. Nie są osamotnieni w swoich obawach. I choć może się to wydawać sprzeczne z intuicją, Musk i Altman uważają również, że najlepszym sposobem zwalczania złośliwej sztucznej inteligencji nie jest ograniczanie dostępu do sztucznej inteligencji, ale jej rozszerzanie. To właśnie ta aspiracja prowadzi do powstania zespołu młodych i inteligentnych idealistów.

OpenAI pojawiło się pewnego wieczoru zeszłego lata w prywatnym pokoju w hotelu Rosewood w Dolinie Krzemowej, ekskluzywnym hotelu miejskim, który dosłownie znajduje się w centrum świata kapitału wysokiego ryzyka. Elon Musk zjadł lunch z Ilyą Sutskeverem, która wtedy pracowała w Google Brain, firmie rozwijającej głębokie sieci neuronowe - systemy sztucznej inteligencji, które można wyszkolić do wykonywania zadań poprzez analizę ogromnych ilości danych cyfrowych, w tym rozpoznawanie zdjęć i pisanie e-maili, uczenie się na podstawie korespondencji. Suckever był jednym z głównych twórców projektu.

Ilya Sutskever

Image
Image

Sam Altman, którego Y Combinator pomógł ukształtować firmy takie jak Airbnb, Dropbox i Coinbase, pośredniczył w spotkaniu, gromadząc kilku badaczy sztucznej inteligencji i młodego, ale doświadczonego konstruktora firmy Grega Brockmana, wcześniej dyrektora ds. Technologii w start-up Stripe, innej firmie Y Combinator. To była eklektyczna grupa. Ale każdy miał cel: stworzyć nowy typ laboratorium sztucznej inteligencji, które mogłoby działać poza kontrolą nie tylko Google, ale wszystkich innych. „Najlepszą rzeczą, jaką mogłem sobie wyobrazić jako wyzwanie”, mówi Brockman, „jest skierowanie ludzkości ku tworzeniu prawdziwej sztucznej inteligencji na bezpiecznej ścieżce”.

Musk był tam z powodu jego długiej przyjaźni z Altmanem - oraz ponieważ sztuczna inteligencja ma kluczowe znaczenie dla przyszłości jego różnych przedsięwzięć i dla przyszłości jako całości. Tesla potrzebuje sztucznej inteligencji, jeśli chce budować autonomiczne samochody. SpaceX, kolejna firma Muska, potrzebuje sztucznej inteligencji, aby zabrać ludzi w kosmos i zapewnić im bezpieczeństwo. Ale Musk jest także jednym z pierwszych (i najgłośniejszych), którzy ostrzegają, że pewnego dnia ludzkość może stracić kontrolę nad systemami, które są wystarczająco potężne, aby uczyć się samodzielnie.

Pojawił się problem: wiele osób wystarczająco wykwalifikowanych, aby rozwiązać wszystkie te problemy, pracowało już w Google (a także w Microsoft, Facebooku, Baidu i Twitterze). I nikt na tym obiedzie nie był całkowicie pewien, że tych badaczy można zwabić do nowego startupu, nawet gdyby za tym stali Musk i Altman. Co najmniej jeden kluczowy gracz był gotowy do opuszczenia statku. „Zrozumiałem ryzyko”, mówi Suckever, „ale wiedziałem też, że warto byłoby spróbować”.

Przerwij krąg

Zachęcony rozmowami z Muskiem, Altmanem i innymi osobami z Rosewood, Brockman wkrótce zdecydował się zbudować laboratorium, o którym wszyscy myśleli. Z dużym zaangażowaniem w projekt sprowadził Yoshua Bengio, naukowca z Uniwersytetu w Montrealu i jednego z ojców założycieli ruchu głębokiego uczenia się. Dwóch innych pionierów branży - Jeff Hinton i Jan Lecun - pracuje odpowiednio w Google i Facebooku, ale Bengio aspirował do życia w świecie akademickim, gdzieś poza zasięgiem macek przemysłowych. Naszkicował listę najlepszych badaczy w tej dziedzinie i przez kilka następnych tygodni Brockman kontaktował się z każdym, kogo mógł, w tym z kilkoma innymi osobami.

Wielu z tych badaczy z zadowoleniem przyjęło ten pomysł, ale obawiało się takiej możliwości. Próbując przełamać krąg, Brockman wybrał dziesięciu odkrywców, których chciał zobaczyć najbardziej i zaprosił ich do spędzenia soboty z winem, przekąskami i rozmową w piwnicy win Napa Valley. Dla Brockmana nawet wycieczka do Napa była katalizatorem projektu. „To niedoceniany sposób zbliżania ludzi, zwłaszcza wtedy, gdy nie masz gdzie się spieszyć, aby osiągnąć swój cel” - mówi. „Musisz tam iść, ale musisz też porozmawiać”. A kiedy doszli do wina, ta atmosfera pozostała. Jak mówi Suckever, „wino było drugorzędne w rozmowie”.

Greg Brockman

Image
Image

Pod koniec dnia Brockman zaprosił wszystkich dziesięciu badaczy do laboratorium i dał im trzy tygodnie na zastanowienie. Pod koniec kadencji dowodziło dziewięciu. I zostali w nim, mimo wielkich ofert gigantów z Doliny Krzemowej. „Otrzymałem bardzo atrakcyjną ofertę pozostania, więc decyzja nie była łatwa” - mówi Suckever z Google, jego były pracodawca. „W końcu zdecydowałem się pójść do OpenAI, częściowo ze względu na bardzo silną grupę ludzi i oczywiście głównie ze względu na ich misję”.

Ruch głębokiego uczenia się rozpoczął się w środowisku akademickim. Dopiero niedawno firmy takie jak Google, Microsoft i Facebook zdecydowały się zająć tym obszarem, ponieważ postęp w brutalnej mocy obliczeniowej sprawił, że te głębokie sieci neuronowe stały się rzeczywistością, a nie tylko teoretyczną możliwością. Ludzie tacy jak Hinton i LeCune opuścili środowisko akademickie w Google i Facebooku z powodu ogromnych zasobów tych firm. Pozostał jednak blisko związany we współpracy z innymi teoretykami z tej dziedziny. Jednak, jak wyjaśnia LeCun, badania głębokiego uczenia się wymagają swobodnego przepływu pomysłów. „Kiedy prowadzisz badania w tajemnicy”, mówi, „cofasz się”.

W rezultacie duże firmy mają teraz do dyspozycji wiele swoich badań nad sztuczną inteligencją. Jest to główny atut, szczególnie dla Google, który od dawna utrzymuje technologię swojego internetowego imperium w tajemnicy. Nie tak dawno Google otworzył kod źródłowy silnika oprogramowania, który obsługuje jego sieci neuronowe. Ale w tym wyścigu na przyszłość wiele pozostaje pod kluczem. Brockman, Altman i Musk starają się jeszcze bardziej rozwinąć pojęcie otwartości, mówiąc, że nie chcą, aby jedna lub dwie duże korporacje kontrolowały przyszłość sztucznej inteligencji.

Granice otwartości

Brzmi świetnie. Ale pomimo całego idealizmu OpenAI, badacze mogą znaleźć się w takich samych warunkach, które zmusiły ich do pracy na starych stanowiskach. Otwartość ma swoje granice. A długoterminowa wizja sztucznej inteligencji to nie jedyne zainteresowanie tą grą. OpenAI nie prowadzi działalności charytatywnej. Firmy Muska odniosą duże korzyści z pracy startupu, podobnie jak Y Combinator z Altmana. „Z pewnością istnieją pewne konkurencyjne punkty”, mówi Lecun. - To organizacja non-profit, ale ma bliskie relacje z Y Combinator. A ludzie będą opłacani za pracę w tej branży”.

Laboratorium nie wypłaca takich samych astronomicznych pensji, jakie Google i Facebook dostarczyły badaczom sztucznej inteligencji, powiedział Brockman. Ale mówi też, że laboratorium „chce im dobrze zapłacić” i oferuje rekompensatę w postaci opcji na akcje, najpierw w Y Combinator, a później prawdopodobnie w SpaceX (który w przeciwieństwie do Tesli jest firmą prywatną).

Niemniej jednak Brockman podkreśla, że OpenAI nie zapewnia specjalnego traktowania powiązanych firm. OpenAI to inicjatywa badawcza, a nie firma konsultingowa. Jednak idealizm OpenAI ma swoje ograniczenia. Firma może nie otworzyć kodu dla wszystkiego, co produkuje, chociaż ostatecznym celem jest nadal dystrybucja większości z nich, czy to artykułów naukowych, czy usług internetowych. „Otwarcie niekoniecznie jest najlepszą opcją. Musisz pielęgnować ten pomysł, zobaczyć, dokąd prowadzi, a następnie opublikować - mówi Brockman. - Będziemy produkować dużo kodu open source. Ale będziemy mieć też wiele rzeczy, które nie są jeszcze gotowe do wydania”.

Suzkever dodaje również, że OpenAI może posunąć się nawet do opatentowania części swojej pracy. „W najbliższym czasie nie będziemy niczego opatentować” - mówi Brockman. „Ale jesteśmy gotowi do zmiany taktyki w dłuższej perspektywie, jeśli uznamy, że będzie ona lepsza dla świata”. Na przykład OpenAI może proaktywnie patentować, aby zniechęcić innych do uzyskiwania patentów.

Niektórzy mogą postrzegać patenty jako motyw do zysku. Ale o to właśnie chodzi w patentach.

Problem superinteligencji

Kiedy Musk i Altman przedstawili OpenAI, nakreślili projekt jako sposób na zneutralizowanie zagrożenia złośliwej superinteligencji. Oczywiście taka superinteligencja mogłaby wynikać z prac OpenAI, ale nalegają oni, aby każde zagrożenie zostało złagodzone poprzez udostępnienie technologii wszystkim. „Uważamy, że jest znacznie bardziej prawdopodobne, że wiele sztucznej inteligencji może powstrzymać przypadkowych złych aktorów” - mówi Altman.

Ale nie wszyscy w tej dziedzinie wierzą w taki wynik. Nick Bostrom, filozof z Oksfordu, który podobnie jak Musk ostrzegał przed niebezpieczeństwami sztucznej inteligencji, zwraca uwagę, że jeśli bez ograniczeń udostępniasz swoje badania, „źli aktorzy” mogą ich złapać, zanim wszyscy przekonają się, że są bezpieczni. „Jeśli masz przycisk, który sprawia, że świat jest gówniany”, mówi Bostrom, „prawdopodobnie nie chcesz, aby wszyscy mieli do niego dostęp”. Jeśli, z drugiej strony, OpenAI zdecyduje się wstrzymać badania, aby powstrzymać złoczyńców przed dostępem do nich, Bostrom pyta: czym różni się to od Google czy Facebooka?

Image
Image

Mówi, że tak, status non-profit OpenAI może, ale nie musi, zmienić rzeczy. Mówi, że prawdziwą siłą projektu jest to, że można go zweryfikować przez Google i Facebook. „Będzie w stanie zmniejszyć prawdopodobieństwo zmonopolizowania superinteligencji. Będzie w stanie usunąć jeden z możliwych powodów, dla których niektóre osoby lub grupy będą miały dostęp do lepszej sztucznej inteligencji niż wszyscy inni”.

W niedawnej pracy filozof wyjaśnia, że głównym efektem takiej inicjatywy jak OpenAI - inicjatywy swobodnego dzielenia się tym, co się dzieje - jest przyspieszenie rozwoju sztucznej inteligencji, przynajmniej w krótkim okresie. I może przyspieszyć postęp w dłuższej perspektywie, pod warunkiem utrzymania wyższego poziomu przejrzystości, niż byłby komercyjnie optymalny.

„Może się zdarzyć, że inwestor w badania i rozwój z motywacją filantropijną mógłby poważnie przyspieszyć postęp, prowadząc politykę otwartej nauki” - mówi.

Jak Xerox PARC

Na początku stycznia dziewięciu badaczy Brockmana zebrało się w jego mieszkaniu w San Francisco. Projekt był tak nowy, że nie mieli nawet białych tablic. (Wyobraź sobie.) Kupili kilka tego samego dnia i zabrali się do pracy.

Brockman mówi, że OpenAI rozpocznie od zbadania uczenia się ze wzmocnieniem, opartego na maszynach sposobu uczenia się problemów, poprzez ich ciągłe powtarzanie i śledzenie, które metody dają najlepsze wyniki. Innym poważnym wyzwaniem jest tak zwane „uczenie się bez nadzoru” - tworzenie maszyn, które mogą naprawdę samodzielnie się uczyć bez pomocy człowieka. Obecnie uczenie głębokie zależy od starannie oznaczonych danych. Jeśli chcesz nauczyć sieć neuronową rozpoznawania zdjęć kotów, musisz podać jej pewną liczbę przykładów - i te przykłady powinny być oznaczone jako zdjęcia z kotami. Takie szkolenie odbywa się przy pomocy ludzi. Ale podobnie jak wielu innych naukowców, OpenAI planuje zbudować sieci neuronowe, które mogą się uczyć bez starannej selekcji danych.

„Jeśli masz naprawdę dobrą metodologię nauczania bez nauczyciela, maszyny mogą uczyć się z całej wiedzy w Internecie - jak człowiek, po prostu rozglądając się - lub czytając książki” - mówi Brockman.

Postrzega OpenAI jako nowoczesne wcielenie Xerox PARC, laboratorium badań technologicznych, które istniało w latach 70. Tak jak otwarte i bezpłatne badania PARC dały początek wszystkim, od graficznych interfejsów użytkownika i drukowania laserowego po programowanie obiektowe, Brockman i jego zespół chcą zagłębić się w to, co kiedyś było science fiction. PARC był własnością Xerox, ale karmiony był z rąk wielu innych firm, w tym Apple, ponieważ ludzie tacy jak Steve Jobs z zadowoleniem przyjęli jego badania. Brockman chce, aby wszyscy witali badania OpenAI.

W nadziei na przyspieszenie tej dynamiki Brockman i firma zwerbowali kilku innych wybitnych badaczy, w tym Iana Goodfellowa, innego starszego członka zespołu Google Brain. Brockman mówi, że PARC w zasadzie zebrał razem grupę mądrych ludzi i postanowił zobaczyć, co się stanie. „Potrzebujesz wspólnej wizji bez centralnego sterowania”.

Brak kontroli jest niezbędny dla ideału. Jeśli przyciągniesz wystarczającą liczbę ludzi do wspólnego celu, efekt końcowy zwycięży wszystko, co potajemnie ugotowałeś. Ale jeśli sztuczna inteligencja stanie się tak potężna, jak obiecano, równanie się zmieni. Potrzebujemy zapewnienia, że nowo odkryta sztuczna inteligencja będzie wyznawać te same egalitarne ideały, które doprowadziły do jej powstania. Musk, Altman i Brockman wierzą w ludzi w tłumie. A jeśli okażą się słuszne, pewnego dnia ten tłum nie będzie całkowicie ludzki.

ILYA KHEL