Sztuczna Inteligencja: Niebezpieczny Wróg Lub Miły Pomocnik - Alternatywny Widok

Sztuczna Inteligencja: Niebezpieczny Wróg Lub Miły Pomocnik - Alternatywny Widok
Sztuczna Inteligencja: Niebezpieczny Wróg Lub Miły Pomocnik - Alternatywny Widok

Wideo: Sztuczna Inteligencja: Niebezpieczny Wróg Lub Miły Pomocnik - Alternatywny Widok

Wideo: Sztuczna Inteligencja: Niebezpieczny Wróg Lub Miły Pomocnik - Alternatywny Widok
Wideo: Jeśli zobaczysz to na niebie, masz kilka sekund na ukrycie 2024, Może
Anonim

Wykorzystanie sztucznej inteligencji (AI) w życiu codziennym gwałtownie nabiera tempa, ale ten trend coraz bardziej budzi niepokój specjalistów. Pracownicy NYU przygotowali ostrzeżenie o zagrożeniach związanych ze stosowaniem I. I. Autorzy w większości skupili się na kwestiach etycznych i społecznych, a także na braku regulacji. Raport grupy AI Now nie mówi nic nowego, ale w praktyce światowej coraz częściej podnosi się kwestię potrzeby ograniczania pracy sztucznego myślenia.

Prawie wszyscy wizjonerzy postępu technologicznego mówili o potencjalnych zagrożeniach dla sztucznej inteligencji. Stephen Hawking w listopadzie ubiegłego roku wyraził główne obawy towarzyszące refleksji nad rozwojem technologii. Jego zdaniem komputery prędzej czy później nauczą się rozmnażać. Istoty biologiczne prawdopodobnie stracą na rzecz inteligencji krzemowej zarówno zdolności umysłowe, jak i zdolność przystosowania się do środowiska, zwłaszcza na innej planecie. Wcześniej czy później inteligentne roboty uznają ludzi za przestarzałą formę i będą chciały się ich pozbyć.

Słowa Hawkinga nadal brzmią jak horror, odtwarzany dziesiątki razy w filmach i książkach, ale nawet ci, którzy pracują nad wdrożeniem inteligentnych systemów, coraz bardziej boją się przyszłości z AI, chociaż są tacy, którzy uważają takie obawy za przedwczesne. „Dzisiejszy strach przed rozwojem sztucznej inteligencji jest jak obawa przed przeludnieniem Marsa” - powiedział Andrew Ng, szef Google Brain. Jednak nie uspokoił wszystkich.

Image
Image

Wśród największych fobii związanych z wprowadzeniem komputera we wszystkie sfery życia warto zwrócić uwagę na trzy. Po pierwsze, umysł komputera zostanie użyty jako broń wojenna, która w niszczycielskiej sile znacznie przewyższy nawet broń nuklearną. Po drugie, sztuczna inteligencja zniewoli ludzi. Po trzecie, jak każdy człowiek, komputer jest podatny na błędy. Wszystkie trzy punkty można omówić bardziej szczegółowo.

21 sierpnia 2017 roku czołowi eksperci w dziedzinie badań i wdrożeń sztucznej inteligencji, w tym szefowie takich firm jak SpaceX i Deep Mind, wystosowali list otwarty do ONZ. W tekście ostrzegali społeczność światową przed opracowywaniem śmiercionośnej broni autonomicznej, czy to robotów, czy innych mechanizmów zaprojektowanych do zabijania wroga. Autorzy dokumentu zwrócili uwagę na fatalne konsekwencje użycia takiej broni. Dzięki swojej fenomenalnej skuteczności można uczciwie zapytać, w czyje ręce wpadnie. Może być używany zarówno przez wąskie grono elit, jak i terrorystów.

Autorzy listu wezwali organizację kontrolną, a wraz z nią środowisko naukowe, do nakreślenia zakresu szkodliwego wykorzystania sztucznej inteligencji. Odpowiedzialność, jaka spoczywa na człowieku za własne stworzenie, zobowiązuje go do podjęcia poważnej pracy, aby zapobiec zagrożeniom. Oprócz praw ich twórcy muszą też ograniczyć moc robotów, które będą musiały zastanawiać się, jak wyłączyć maszyny w skrajnych przypadkach.

Image
Image

Film promocyjny:

Polityczne nadużycie systemów elektronicznych zostało już wykazane za pomocą sieci społecznościowych i algorytmów analizy danych. Wiosną tego roku na świecie zagrzmiał skandal z Cambridge Analytica. Jej specjaliści przeprowadzili dogłębną analizę danych użytkowników i umieścili reklamy na Facebooku, dostosowane indywidualnie dla każdej osoby.

Pracownicy firmy nie tylko przekroczyli ramy etyczne, ale także zastosowali nowoczesne technologie, których pracy nie sposób było przeanalizować. Skuteczność uczenia maszynowego jest powracającym tematem wśród czołowych matematyków. Zgodnie przyznają, że są zdumieni niezwykłym sukcesem programów komputerowych, ale zupełnie nie są w stanie zrozumieć działania złożonego systemu. W Birmie w kwietniu tego roku posty na Facebooku również wywołały niepokój wśród mas, ale w przeciwieństwie do Stanów Zjednoczonych, gdzie odbywały się protesty, w państwie azjatyckim doszło do masakry, w której zginęło kilkaset osób. Manipulowanie ogromną liczbą ludzi to rzeczywistość, a roboty mogą tutaj zrobić z nami okrutny żart.

Image
Image

Warto pamiętać o tym samym Facebooku, na którym uruchamiane były chatboty oparte na AI. Wirtualni asystenci zostali przeszkoleni do prowadzenia dialogu z rozmówcą. Z biegiem czasu boty stały się nie do odróżnienia od prawdziwych ludzi, a następnie autorzy zdecydowali się połączyć roboty. Z biegiem czasu boty zaczęły skracać struktury leksykalne i wymieniać bełkot. Media nadmuchały sensację z wiadomości, mówią, że „maszyny zbuntowały się”. Ale odkładając na bok przesadę dziennikarzy, można uczciwie przyznać, że w przypadku, gdy maszyny zaczną się ze sobą komunikować, człowiek może tego nie zauważyć. A jak będą tam żyć własnym życiem - nikt nie wie.

Coraz bardziej złożona struktura umysłu komputera każdego dnia oddala nas od zrozumienia zasad jego działania. Ale chociaż większość algorytmów wykonuje swoją pracę, nawet dziś złożone maszyny są dalekie od ideału i popełniają błędy. Dla dalszego rozwoju sztucznej inteligencji ważne jest, aby zrozumieć nie tyle jej mocne strony, ile jej słabości. To na tym skupia się duża liczba grup naukowych, w jednej z nich jest specjalista z MIT Anish atali. Zaledwie kilka dni temu powiedział dziennikarzom o najczęstszych błędach w systemach rozpoznawania obrazu.

Jego koledzy zademonstrowali przedmioty maszynie i stwierdzili, że często poszczególne obiekty były nieprawidłowo postrzegane przez elektroniczny wzrok. Komputer mógłby nazwać baseball'a filiżanką kawy, a wydrukowanego w 3D żółwia maszyną wojskową. Grupa zebrała już około 200 pozycji, które wprowadzają w błąd algorytmy.

Image
Image

Sztuczna inteligencja, zamiast postrzegać obiekt jako całość, skupiała się na jego indywidualnych parametrach. AI ma tendencję do uczenia się na „doskonałej” próbce. W obliczu niezgodnych zjawisk nie zawsze może porzucić zwykły proces przetwarzania. Zamiast przyznać się do niemożności przetworzenia obrazu, nadal próbuje go odczytać, co prowadzi do czasami zabawnych rezultatów. Zamiast kształtu żółwia, elektroniczny mózg próbował odczytać jego teksturę, podobnie jak w kamuflażu. Z mniej więcej tego samego powodu autopiloty samochodów elektrycznych nie są jeszcze w 100% niezawodne. Samochodowi trudno jest dostrzec sylwetkę i założyć, że składa się z oddzielnych elementów.

A jeśli w nadchodzących latach uda się naprawić pewne niedociągnięcia, nie ma gwarancji, że hakerzy nie wykorzystają luki. Hakerzy korzystający z urządzeń elektronicznych stanowią obecnie prawie główną przyczynę strachu. Niewielki zespół programistów może nie tylko uzyskać dostęp do danych osobowych, ale także rekonfigurować systemy autonomiczne, przejmując kontrolę nad narzędziami o kolosalnej sile. A potem wszyscy będziemy mieli kłopoty. Ale główny wniosek, jaki można wyciągnąć, jest chyba tradycyjny - nie należy bać się samochodów, ale ludzi.

Alexander Lavrenov