Czy Sztuczna Inteligencja Jest Zawsze Obiektywna I Chce Zadowolić Osobę - Alternatywny Widok

Spisu treści:

Czy Sztuczna Inteligencja Jest Zawsze Obiektywna I Chce Zadowolić Osobę - Alternatywny Widok
Czy Sztuczna Inteligencja Jest Zawsze Obiektywna I Chce Zadowolić Osobę - Alternatywny Widok

Wideo: Czy Sztuczna Inteligencja Jest Zawsze Obiektywna I Chce Zadowolić Osobę - Alternatywny Widok

Wideo: Czy Sztuczna Inteligencja Jest Zawsze Obiektywna I Chce Zadowolić Osobę - Alternatywny Widok
Wideo: Czy sztuczna inteligencja jest przyszłością psychoterapii? | Piotr Podlaś | TEDxSGH 2024, Może
Anonim

Jak komputery podejmują dziwne decyzje

Sztuczna inteligencja rozwija się tak szybko, że wielu zaczyna odczuwać niepokój: czy wkrótce będzie w stanie przeżywać emocje i podejmować własne decyzje. Niezależnie od tego, czy jest to bot, pojazd autonomiczny czy osoba podejmująca decyzje w biznesie i nauce: sztuczna inteligencja przenika wszystkie obszary naszego życia i społeczeństwa. Mózgi maszyn są uważane za logiczne, pozbawione emocji i bezstronne, ale praktyka pokazuje, że nie zawsze decydują o wszystkim z otwartym umysłem.

Image
Image

Sztuczna inteligencja jest niezbędna tam, gdzie ważne jest rozpoznawanie wzorców w dużej ilości danych i podejmowanie na ich podstawie decyzji. Ale w przyszłości systemy sztucznej inteligencji mogłyby znaleźć zastosowanie również w dziedzinach, w których nasze samopoczucie, a nawet nasze życie, zależy bezpośrednio od wniosków - w medycynie, przy wyborze zawodów, przy udzielaniu kredytów, czy w wymiarze sprawiedliwości.

Jak obiektywnie i moralnie poprawne jest podejmowanie decyzji przez sztuczną inteligencję? Czy naprawdę możemy ufać mózgowi maszyny przy podejmowaniu tak potencjalnie ważnych decyzji?

Sztuczna inteligencja jest używana we wszystkich obszarach

Nawet teraz algorytmy adaptacyjne są używane w wielu obszarach naszego codziennego życia. Istnieją asystenci cyfrowi, którzy rozumieją polecenia głosowe i pytania. W Internecie boty internetowe pomagają w utrzymaniu i kontrolowaniu witryn internetowych, tak aby trudno było je odróżnić od ludzi. Nawet w przypadku wykrycia fałszywych wiadomości i manipulacji obrazem w grę wchodzą systemy sztucznej inteligencji.

Film promocyjny:

Image
Image

Systemy AI sprawdzają się również w przemyśle, biznesie, a nawet w rządzie. Optymalizują i kontrolują procesy produkcyjne, regulują logistykę portów kontenerowych i dużych magazynów czy prowadzą księgi rachunkowe. Firmy ubezpieczeniowe i banki mają już pierwsze inteligentne programy do sprawdzania złożonych wniosków czy podejmowania decyzji o płatnościach. W Ikea, Deutsche Telekom i wielu innych firmach, UNICEF czy bibliotekach wirtualni asystenci są zaangażowani w obsługę klienta.

Duża ilość danych przetwarzanych na potrzeby szkolenia

Wszystko to jest możliwe dzięki zdolności systemów AI do szybkiej analizy ogromnych ilości danych, identyfikacji wzorców i korelacji. Na przykład algorytm uczy się z niezliczonych zdjęć zwierząt domowych o pasujących imionach. Po okresie treningowym system może wybrać zupełnie nowe zdjęcia pożądanego gatunku. Samodzielnie rozpoznaje różnice.

Image
Image

Wiele innych systemów sztucznej inteligencji wykorzystuje tekst jako podstawę uczenia się. Oceniają kontekst, w jakim stoi słowo, i badają jego znaczenie semantyczne, a także związki z podobnymi słowami lub synonimami. Te relacje semantyczne przekładają programy na wyrażenia matematyczne, a tym samym uczą się nawet złożonych kontekstów semantycznych.

Tylko dzięki tej zdolności sztuczna inteligencja może np. Oceniać dane medyczne i dokumentację medyczną oraz wywnioskować z nich charakterystykę obrazów klinicznych. Na podstawie tych wyników systemy sztucznej inteligencji są już wykorzystywane jako pomoc diagnostyczna, potrafią rozpoznawać różne rodzaje raka, objawy choroby Alzheimera, stany samobójcze i niebezpieczne poziomy cukru w cukrzycy.

Ale choć brzmi to atrakcyjnie, coraz więcej sztucznej inteligencji ma dużą wadę. Im dalej sztuczna inteligencja penetruje praktycznie wszystkie sfery naszego społeczeństwa, tym większe są potencjalne konsekwencje jej decyzji. Finansowa lub zawodowa przyszłość człowieka, a nawet jego życie, zależy od jego osądu.

Rozwiązania AI, które mogą kosztować życie

Na przykład, jeśli AI błędnie zdiagnozuje w medycynie bez przesłuchania, pacjent może zostać poddany niewłaściwemu leczeniu lub nawet umrzeć. Wojsko korzysta z autonomicznego systemu broni, który podejmuje błędne decyzje. Na przykład SI nie może odróżnić uciekającego przyjaciela od wroga, niewinni umierają.

Image
Image

Algorytmy sztucznej inteligencji są już wykorzystywane w sądach w Stanach Zjednoczonych. Przewidują prawdopodobieństwo recydywy przestępców w sądzie. Ich ocena często wpływa na orzeczenie sądu, aw konsekwencji na karę skazanego.

Jeśli AI zdecyduje się na pożyczki

Podobnie decyzja w zakresie finansów i ubezpieczeń może wpłynąć na to, czy dana osoba otrzyma pożyczkę, czy nie. Systemy te są zwykle uczone przy użyciu baz danych.

Image
Image

I tutaj sztuczna inteligencja szuka wzorców: które osoby zwykle spłacają swoje pożyczki, a które nie? Opracowuje swoje procedury oceny i podejmuje odpowiednie decyzje. W szczególności oznacza to, że osoby z niewłaściwym miejscem zamieszkania lub zawodu nie otrzymają pożyczki, bez względu na to, ile są skłonne zapłacić, pomimo zaistniałych okoliczności.

Przy takim podziale obowiązków z komputerami osoba będzie jedynie asystentem przy wykonywaniu decyzji cyber-mózgów. I to już się dzieje.

Kto jest odpowiedzialny za błędy?

Kolejny problem w rozwoju sztucznej inteligencji: im bardziej złożone są zasady podejmowania decyzji, tym trudniej jest je zrozumieć ludziom. Podnosi również pytanie, kto jest odpowiedzialny za błędy.

Przypadki wypadków podczas prowadzenia aut na autopilocie stały się coraz częstsze: kto jest winien temu, że niektóre sytuacje nie są zapamiętane lub sztuczna inteligencja wyciąga błędne wnioski. A może wyciąga własne wnioski? Są już takie przykłady.

Granie w boty wypracowało własne zasady podczas gry

W ramach tego badania naukowcy pozwolili 100 inteligentnym robotom na interakcję ze sobą w grze koncesyjnej. Każdy z nich musi zdecydować, czy podaruje coś komuś ze swojego zespołu, czy też uczestnikowi gry z zewnątrz.

Image
Image

Co ciekawe, z biegiem czasu boty były coraz bardziej wykluczane z zewnętrznych grup i przekazują darowizny tylko członkom swoich zespołów.

Image
Image

Powód: sprytne boty dostosowały swoją strategię gry, kopiując zachowanie towarzyszy, którzy zebrali najwięcej pieniędzy i odnieśli największe sukcesy. W ten sposób pojawiły się grupy botów, które zachowywały się w ten sam sposób i konsekwentnie wykluczały niepowiązanych ze sobą uczestników gry. Stale tworząc coś, co kalkuluje, analizuje i podejmuje decyzje szybciej niż to, ludzkość pewnego dnia straci kontrolę nad swoim tworzeniem, którego działań nie będzie w stanie śledzić.

Zdaniem naukowców jest to oczywiste: sztuczna inteligencja nie potrzebuje stronniczych sztucznych danych, wystarczy mieć wokół siebie inne maszyny. Ponieważ nawet to może stworzyć zbiorowy umysł znany ze społeczności ludzkich. Dlatego korzystając ze sztucznej inteligencji, ludzie powinni pozostawić decyzję sobie.

Vasilik Svetlana