„Podstawowe Zagrożenie Dla Ludzkości”. Spór Korespondencyjny Między Muskiem A Zuckerbergiem Dotyczący Sztucznej Inteligencji - Alternatywny Widok

Spisu treści:

„Podstawowe Zagrożenie Dla Ludzkości”. Spór Korespondencyjny Między Muskiem A Zuckerbergiem Dotyczący Sztucznej Inteligencji - Alternatywny Widok
„Podstawowe Zagrożenie Dla Ludzkości”. Spór Korespondencyjny Między Muskiem A Zuckerbergiem Dotyczący Sztucznej Inteligencji - Alternatywny Widok

Wideo: „Podstawowe Zagrożenie Dla Ludzkości”. Spór Korespondencyjny Między Muskiem A Zuckerbergiem Dotyczący Sztucznej Inteligencji - Alternatywny Widok

Wideo: „Podstawowe Zagrożenie Dla Ludzkości”. Spór Korespondencyjny Między Muskiem A Zuckerbergiem Dotyczący Sztucznej Inteligencji - Alternatywny Widok
Wideo: OSTATNI WYNALAZEK LUDZKOŚCI 2024, Może
Anonim

Dwóch miliarderów, którzy dorobili się fortuny w Internecie, właściciel Tesli i Space X, Elon Musk i założyciel Facebooka Mark Zuckerberg, wdali się w nieobecny spór o niebezpieczeństwa sztucznej inteligencji.

Obaj przedsiębiorcy są przekonani, że stworzenie pełnoprawnej sztucznej inteligencji (AI) to kwestia najbliższej przyszłości. Ale Musk uważa, że nadszedł czas, aby ludzkość pomyśleła o uregulowaniu rozwoju w tej dziedzinie, a Zuckerberg jest przekonany, że sztuczna inteligencja znacząco poprawi życie ludzi.

W połowie lipca Elon Musk rozmawiał z gubernatorami stanów USA i wezwał władze do zastanowienia się nad wprowadzeniem ograniczeń prawnych dla rozwoju sztucznej inteligencji.

Zuckerberg odpowiedział na pytanie o niebezpieczeństwa związane ze sztuczną inteligencją podczas rozmów z użytkownikami Facebooka. Zapytano go bez ogródek, czy uważa, że obawy Muska są uzasadnione. Twórca Facebooka powiedział, że nie rozumie, w jaki sposób Musk może poważnie wzywać do spowolnienia postępującego.

Odpowiedział, wysyłając na Twitterze „Rozmawiałem o tym z Markiem. Ma ograniczone zrozumienie tego problemu”:

Present Tense w całości publikuje przemówienia dwóch miliarderów.

„Dopóki nie zobaczymy robotów chodzących po ulicach i zabijających ludzi, nie będziemy wiedzieć, jak zareagować”. Obawy Elona Muska

Film promocyjny:

Mam dostęp do najnowszych technologii AI. Myślę, że ludzie naprawdę powinni być zainteresowani tą kwestią. Wiem, jak to brzmi, ale dopóki ludzie nie zobaczą robotów chodzących po ulicach i zabijających ludzi, nie będą wiedzieli, jak zareagować.

Wydaje się to nierealne. Myślę, że naprawdę musimy się martwić o AI. I myślę, że to rzadki przypadek, kiedy w naszych ograniczeniach prawnych musimy wyprzedzać konkurencję i nie podejmować decyzji później, kiedy jest już za późno.

Zwykle ograniczenia działają w ten sposób: na początku dzieje się wiele złych rzeczy, protesty społeczne, a po wielu latach istnieją organy regulacyjne dla tej branży. Firmy, które nie lubią zewnętrznej kontroli, stawiają opór i zajmuje to bardzo dużo czasu. W przeszłości prowadziło to już do złych konsekwencji, ale nie stanowiło fundamentalnego zagrożenia dla istnienia ludzkości.

Sztuczna inteligencja jest podstawowym zagrożeniem dla ludzkiej egzystencji. I to jest rodzaj ryzyka, jakiego nigdy nie było ani wypadki samochodowe, ani katastrofy lotnicze, problematyczne narkotyki czy złe jedzenie. Nie stanowili zagrożenia. Może były dla konkretnych osób, ale nie stanowiły zagrożenia dla całego społeczeństwa.

Sztuczna inteligencja jest fundamentalnym egzystencjalnym zagrożeniem dla cywilizacji i nie sądzę, aby ludzie byli tego w pełni świadomi. Tak, bycie ograniczonym nie jest zabawne. Ale w branży motoryzacyjnej jesteśmy kontrolowani przez Departament Transportu i wielu innych. Każdy kraj ma organy regulacyjne. W przemyśle kosmicznym jesteśmy kontrolowani przez Federal Aviation Administration. Ale jeśli zapytasz zwykłego człowieka: „Hej, chcesz pozbyć się zarządzania lotnictwem cywilnym i tylko mieć nadzieję, że producenci nie oszczędzają na samolocie, ponieważ zyski spadły w tym kwartale”, osoba ta odpowie: „Oczywiście, że nie”. Brzmi tak.

Myślę, że nawet bardzo liberalni ludzie wciąż powiedzieliby: „Miejmy oko na producentów samolotów, musimy się upewnić, że robią dobre samoloty”. Niezłe samochody, takie rzeczy. Tak więc organy regulacyjne mają do odegrania pewną rolę. Oczywiście sprzeciwiam się ścisłej kontroli. Ale myślę, że lepiej pospieszmy się z AI.

Oczywiście ten [wynalazek sztucznej inteligencji] doprowadzi do utraty miejsc pracy, ponieważ roboty mogą zrobić wszystko lepiej od nas. To znaczy lepiej niż my wszyscy. Tak. Nie wiem, co z tym zrobić. To jest dla mnie najgorszy problem. Tak, jestem pewien, że będziemy potrzebować kontroli państwa, ponieważ w ten sposób możemy zapewnić bezpieczeństwo publiczne.

Firmy się spieszą, potrzebują czasu na stworzenie sztucznej inteligencji, inaczej staną się niekonkurencyjne. Jeśli twój konkurent spieszy się, aby stworzyć sztuczną inteligencję, a ty nie, zniszczy cię. Firmy mówią: „Nie chcemy umierać, wygląda na to, że musimy też stworzyć sztuczną inteligencję”.

I w tym miejscu powinna pojawić się kontrola: „Chłopaki, wszyscy musicie zwolnić i upewnić się, że jest to bezpieczne”. Jeśli recenzenci są przekonani, że jest to bezpieczne, możesz kontynuować pracę. W przeciwnym razie zwolnij. Ale audytorzy muszą to zrobić dla każdego, kto to robi, w przeciwnym razie akcjonariusze powiedzą: „Hej, dlaczego nie rozwijacie sztucznej inteligencji szybciej niż konkurenci? To byłoby konieczne!”

Uważam, że jest to największe ryzyko, jakie podejmujemy jako cywilizacja. Myślę, że rolą państwa jest dbanie o społeczeństwo i zwracanie uwagi na to, co mu zagraża. Stąd ograniczenia. Po pierwsze, musisz dowiedzieć się jak najwięcej na ten temat, aby zrozumieć naturę problemu, obserwować postępy i niesamowite osiągnięcia w dziedzinie sztucznej inteligencji.

W zeszłym roku w grze w go, która była wystarczająco trudna do wygrania i w której ludzie myśleli, że komputer nigdy nie pokona najlepszego ludzkiego gracza lub że stanie się to za 20 lat od teraz, w zeszłym roku AlphaGo, stworzona przez DeepMind, firma kupiona przez Google pokonała najlepszego gracza go na świecie. A teraz może grać ze 150 graczami jednocześnie i pokonać ich wszystkich.

To imponujące tempo postępu i będzie się pojawiać coraz częściej. Na przykład robotyka. Istnieją roboty, które uczą się chodzić od zera w ciągu kilku godzin. Szybciej niż jakikolwiek inny gatunek. Ale najbardziej niebezpieczny - i najtrudniejszy do zrozumienia - ponieważ nie jest to coś fizycznego, to inteligencja.

Wydawałoby się, co może zrobić potężna [sztuczna] inteligencja w sieci? Na przykład rozpocznij wojnę. Na przykład tworząc fałszywe wiadomości, fałszywe komunikaty prasowe i adresy pocztowe oraz po prostu manipulując informacjami. Pióro jest potężniejsze niż miecz.

Na przykład - chcę podkreślić, nie sądzę, żeby tak się stało, mówię to czysto hipotetycznie - pamiętacie ten malezyjski samolot, który został zestrzelony na granicy rosyjsko-ukraińskiej? To znacznie zwiększyło tarcia między Rosją a UE.

Wyobraź sobie, że gdybyś miał sztuczną inteligencję, a jej celem byłaby maksymalizacja wartości portfela akcji, jednym ze sposobów byłby zakup akcji obronnych, krótkich akcji konsumenckich i rozpoczęcie wojny.

Jak mógł to zrobić? Zhakuj malezyjskie linie lotnicze, serwery tras samolotów, wytycz trasy nad strefą działań wojennych, a następnie wyślij anonimową wiadomość, że „leci nad tobą samolot wroga”.

„Wszystkie technologie mogą być wykorzystywane do krzywdy i dobra”. Optymizm Marka Zuckerberga

Mam co do tego dość mocne przekonanie. Jestem bardzo optymistyczny. Ogólnie jestem osobą optymistyczną. Myślę, że możemy tworzyć rzeczy, które uczynią świat lepszym miejscem i jestem szczególnie optymistycznie nastawiony do AI. Myślę, że po prostu nie rozumiem ludzi, którzy są zawsze sceptyczni i nieustannie onieśmielają tymi scenariuszami rychłego końca świata. Uważam, że jest to naprawdę bardzo złe i nieodpowiedzialne, ponieważ w ciągu najbliższych pięciu do dziesięciu lat sztuczna inteligencja będzie w stanie poprawić i poprawić jakość naszego życia.

Jeśli obawiasz się o bezpieczeństwo i zdrowie ludzi, sztuczna inteligencja już teraz pomaga lepiej diagnozować choroby i wybierać leki dla ludzi w zależności od tego, na co są chorzy i jak można je lepiej wyleczyć. Wiele osób otrzyma lepszą opiekę zdrowotną niż kiedykolwiek wcześniej.

Jeśli chodzi o samochody samojezdne, będą one bezpieczniejsze niż samochody kierowane przez ludzi. To tylko kwestia czasu. Wypadki samochodowe pozostają jedną z głównych przyczyn śmierci. A gdyby udało się je wyeliminować przy pomocy sztucznej inteligencji, znacznie poprawiłoby to życie ludzi.

Kiedy słyszę uzasadnienie: „Och, wiesz, sztuczna inteligencja zaszkodzi ludziom w przyszłości”, myślę, że rzeczywiście, każda technologia może być użyta zarówno do zła, jak i dobra. I musisz być ostrożny, kiedy coś tworzysz, musisz być ostrożny i myśleć o tym, jak zostanie to zastosowane.

Ale kiedy ludzie nalegają na spowolnienie procesu AI, uważam to za bardzo kontrowersyjne. Naprawdę ciężko mi to zrozumieć, bo jeśli jesteście przeciwni sztucznej inteligencji, to jesteście przeciwko bezpieczniejszym maszynom, które nie będą wypadać, przeciwko możliwości lepszego diagnozowania chorób. I po prostu nie rozumiem, jak niektórzy ludzie mogą to robić bez sprytu. Więc generalnie jestem dużo bardziej optymistycznie nastawiony do tego [tworzenia sztucznej inteligencji] niż być może wielu ludzi.

Zalecane: