Sztuczna Inteligencja: Miecz Obosieczny? - Alternatywny Widok

Sztuczna Inteligencja: Miecz Obosieczny? - Alternatywny Widok
Sztuczna Inteligencja: Miecz Obosieczny? - Alternatywny Widok

Wideo: Sztuczna Inteligencja: Miecz Obosieczny? - Alternatywny Widok

Wideo: Sztuczna Inteligencja: Miecz Obosieczny? - Alternatywny Widok
Wideo: Uratuje nas Sztuczna Inteligencja – Wiesław Bartkowski (X Festiwal Przemiany) 2024, Może
Anonim

Mówimy, że roboty powstaną. To przejmie władzę nad światem, przejmie kontrolę nad wszystkim. Słyszeliśmy te ostrzeżenia od dziesięcioleci, a dziś, na początku XXI wieku, liczba tych ostrzeżeń tylko rośnie. Narasta strach przed sztuczną inteligencją, która położy kres naszemu gatunkowi.

Takie scenariusze nie tylko pojawiają się w Hollywood, ale także coraz częściej znajdują zwolenników na polu naukowym i filozoficznym. Na przykład Ray Kurzweil napisał, że wykładniczy rozwój sztucznej inteligencji doprowadzi do technologicznej osobliwości, punktu, w którym inteligencja maszynowa przewyższy ludzką inteligencję. Niektórzy postrzegają to jako koniec świata, inni widzą tylko możliwości. Nick Bostrom uważa, że superinteligencja pomoże nam poradzić sobie z chorobami, ubóstwem i niszczeniem środowiska, a także poprawić nas.

We wtorek słynny naukowiec Stephen Hawking dołączył do grona proroków osobliwości, a dokładniej, do ich pesymistycznej grupy, mówiąc BBC, że „rozwój w pełni rozwiniętej sztucznej inteligencji może oznaczać koniec rasy ludzkiej”. Uważa, że ludzie nie będą w stanie konkurować ze sztuczną inteligencją, która będzie w stanie przeprogramować się i osiągnąć poziom znacznie wyższy od człowieka. Jednak Hawking uważa również, że nie powinniśmy w ogóle próbować kontaktować się z kosmitami, ponieważ będą mieli tylko jeden cel: ujarzmić nas lub całkowicie nas zniszczyć.

Problem z tymi scenariuszami nie polega na tym, że są one nieuchronnie błędne - kto może przewidzieć przyszłość? - lub nie wierząc scenariuszom science fiction. To ostatnie jest nieuniknione, jeśli chcesz zrozumieć i ocenić nowoczesne technologie oraz ich wpływ na nas w przyszłości. Ważne jest, aby w takich scenariuszach postawić nasze filozoficzne pytania na stole i przeanalizować nasze obawy, aby dowiedzieć się, co jest dla nas najważniejsze.

Problem ze skupieniem się wyłącznie na sztucznej inteligencji w kontekście „końca świata” i innych fatalnych scenariuszy polega na tym, że odwraca ona naszą uwagę od innych, bardziej palących i ważnych problemów etycznych i społecznych wynikających z rozwoju technologicznego w tych obszarach. Na przykład, czy w świecie technologii informacyjnych i komunikacyjnych jest miejsce na prywatność? Czy Google, Facebook i Apple zagrażają wolności w świecie technologii? Czy dalsza automatyzacja doprowadzi do utraty miejsc pracy? Czy nowe technologie finansowe mogą zagrozić światowej gospodarce? Jak urządzenia mobilne wpływają na środowisko? (Trzeba przyznać, że Hawking wspomniał o prywatności w wywiadach, ale potem nadal mówił o końcu ludzkiej ery.)

Te pytania są znacznie mniej atrakcyjne niż superinteligencja czy koniec ludzkości. Nie stawiają też pytań o inteligencję czy roboty; dotyczą tego, jakiego rodzaju społeczeństwa potrzebujemy i jak chcemy widzieć nasze życie.

Te pytania są starożytne, pojawiły się od samego pojawienia się nauki i filozofii, a rozwijające się dzisiejsze technologie informacyjne, które zmieniają nasz świat, sprawiają, że myślimy o nich ponownie. Miejmy nadzieję, że najlepsze ludzkie umysły naszych czasów skoncentrują większość swojej energii na znalezieniu odpowiedzi na właściwe pytania, a nie na demagogii wokół przesadnych zagrożeń.

Ilya Khel

Film promocyjny: