Główny Problem W Tworzeniu Sztucznej Inteligencji To - Alternatywny Widok

Główny Problem W Tworzeniu Sztucznej Inteligencji To - Alternatywny Widok
Główny Problem W Tworzeniu Sztucznej Inteligencji To - Alternatywny Widok

Wideo: Główny Problem W Tworzeniu Sztucznej Inteligencji To - Alternatywny Widok

Wideo: Główny Problem W Tworzeniu Sztucznej Inteligencji To - Alternatywny Widok
Wideo: Sztuczna Inteligencja. Rewolucja zaczęła się wczoraj | Jakub Czakon | TEDxPolitechnikaWroclawska 2024, Wrzesień
Anonim

Eksperci od sztucznej inteligencji, Kevin Warwick i Huma Shah, znaleźli poważny problem w standardowym teście Turinga. Test określa, czy sztuczna inteligencja jest w stanie myśleć jak człowiek. W TechXplore dostępny jest komunikat prasowy na temat pracy brytyjskich naukowców. Artykuł naukowy opublikowany w Journal of Experimental & Theoretical Artificial Intelligence.

Cybernetyka odkryła, że jeśli maszyna ucieka się do swego rodzaju odpowiednika Piątej Poprawki (do Konstytucji USA), to znaczy milczy podczas całego testu, to zda test. W takim przypadku sztuczna inteligencja, która po prostu odmówi odpowiedzi na pytania sędziego, zostanie uznana za myślącą istotę. Jednak każda prymitywna maszyna, która nie posiada inteligencji, może milczeć, więc test Turinga przestaje działać w takich warunkach.

Test sprawdzający zdolności myślenia sztucznej inteligencji zaproponował w 1950 roku angielski matematyk i kryptograf Alan Turing. Zdaniem naukowca to jedyny sposób, aby dowiedzieć się, czy maszyna jest zdolna do ludzkiego myślenia. Test, znany również jako gra naśladowania, prosi ludzkiego sędziego o ślepe zadawanie pisemnych pytań dwóm podmiotom: drugiemu człowiekowi i sztucznej inteligencji. Na podstawie otrzymanych odpowiedzi musisz ustalić, który z nich jest kim. Jeśli to się nie powiedzie, maszyna jest rozpoznawana jako myśląca.

Warwick i Shah przyjrzeli się rzeczywistym taśmom testowym z konkursu Lebnera, w którym sztuczna inteligencja odmówiła „rozmowy” z sędzią. W każdym przypadku sędzia nie był w stanie stwierdzić, czy ma do czynienia z maszyną czy osobą. Podmiotem może być osoba, która zdecydowała się nie odpowiadać na pytania, sztuczna inteligencja lub maszyna po prostu niezdolna do udzielenia odpowiedzi. W rozpatrywanych testach miała miejsce trzecia opcja.

Naukowcy nazwali ten problem „piątą poprawką” przez analogię do poprawki do konstytucji Stanów Zjednoczonych, która stanowi, że nikt nie powinien być zmuszany do składania zeznań przeciwko sobie.

Konkurs Lebnera to główna platforma do przeprowadzania testów Turinga. Obejmuje twórców botów czatowych i wirtualnych rozmówców. Krytycy konkursu zauważyli, że zwycięskie programy miały na celu celowe wprowadzanie sędziów w błąd poprzez celowe popełnianie błędów ortograficznych i inne sztuczki.