Kiedy Sztuczna Inteligencja Zacznie Rozumieć Ludzkie Emocje? - Alternatywny Widok

Spisu treści:

Kiedy Sztuczna Inteligencja Zacznie Rozumieć Ludzkie Emocje? - Alternatywny Widok
Kiedy Sztuczna Inteligencja Zacznie Rozumieć Ludzkie Emocje? - Alternatywny Widok

Wideo: Kiedy Sztuczna Inteligencja Zacznie Rozumieć Ludzkie Emocje? - Alternatywny Widok

Wideo: Kiedy Sztuczna Inteligencja Zacznie Rozumieć Ludzkie Emocje? - Alternatywny Widok
Wideo: Sztuczna inteligencja i psychologia - co je łączy? M. Jaworski i A. Kołodziej 2024, Kwiecień
Anonim

Czy zaufałbyś robotowi, gdyby był to twój lekarz? Emocjonalne inteligentne maszyny mogą nie być tak daleko od nas, jak się wydają. W ciągu ostatnich kilkudziesięciu lat sztuczna inteligencja dramatycznie zwiększyła zdolność odczytywania reakcji emocjonalnych ludzi.

Ale czytanie emocji nie oznacza ich zrozumienia. Jeśli sama sztuczna inteligencja nie może ich doświadczyć, czy kiedykolwiek będzie w stanie w pełni nas zrozumieć? A jeśli nie, czy ryzykujemy przypisywanie robotom właściwości, których one nie mają?

Najnowsza generacja sztucznej inteligencji już teraz dziękuje nam za wzrost ilości danych, z których komputery mogą się uczyć, a także za wzrost mocy obliczeniowej. Maszyny te są sukcesywnie udoskonalane w sprawach, które zwykle oddawaliśmy wyłącznie ludziom do wykonania.

Image
Image

Dziś sztuczna inteligencja może między innymi rozpoznawać twarze, zamieniać szkice twarzy w fotografie, rozpoznawać mowę i grać w Go.

Identyfikacja przestępców

Nie tak dawno temu naukowcy opracowali sztuczną inteligencję, która może stwierdzić, czy dana osoba jest przestępcą, po prostu patrząc na jej rysy twarzy. System został oceniony przy użyciu bazy danych chińskich fotografii, a wyniki były po prostu oszałamiające. Sztuczna inteligencja błędnie zaklasyfikowała niewinnych ludzi jako przestępców tylko w 6% przypadków i skutecznie zidentyfikowała 83% przestępców. Ogólna dokładność wynosiła prawie 90%.

Film promocyjny:

System ten jest oparty na podejściu zwanym „głębokim uczeniem”, które sprawdziło się na przykład w rozpoznawaniu twarzy. Uczenie głębokie w połączeniu z „modelem rotacji twarzy” pozwoliło sztucznej inteligencji określić, czy dwie fotografie przedstawiają twarz tej samej osoby, nawet jeśli zmienia się oświetlenie lub kąt widzenia.

Uczenie głębokie tworzy „sieć neuronową” opartą na zbliżeniu do ludzkiego mózgu. Składa się z setek tysięcy neuronów zorganizowanych w różnych warstwach. Każda warstwa przenosi dane wejściowe, takie jak obraz twarzy, na wyższy poziom abstrakcji, na przykład zestaw krawędzi w określonych kierunkach i lokalizacjach. I automatycznie podkreśla funkcje, które są najbardziej istotne dla wykonania określonego zadania.

Biorąc pod uwagę sukces głębokiego uczenia się, nie jest zaskakujące, że sztuczne sieci neuronowe mogą odróżnić przestępców od niewinnych - jeśli rzeczywiście istnieją różne cechy twarzy. Badanie pozwoliło wyróżnić trzy cechy. Jednym z nich jest kąt między czubkiem nosa a kącikami ust, który w przypadku przestępców jest średnio o 19,6% mniejszy. Krzywizna górnej wargi jest również średnio o 23,4% większa u przestępców, a odległość między wewnętrznymi kącikami oczu jest średnio o 5,6% mniejsza.

Na pierwszy rzut oka analiza ta sugeruje, że przestarzały pogląd, że przestępców można zidentyfikować na podstawie cech fizycznych, nie jest taki błędny. Jednak to nie wszystko. Co ciekawe, dwie najistotniejsze cechy są związane z ustami i są to nasze najbardziej wyraziste rysy twarzy. Zdjęcia przestępców wykorzystane w badaniu wymagają neutralnego wyrazu twarzy, ale sztucznej inteligencji wciąż udało się znaleźć na tych zdjęciach ukryte emocje. Być może tak nieistotne, że ludzie nie mogą ich wykryć.

Image
Image

Trudno oprzeć się pokusie samodzielnego obejrzenia przykładowych zdjęć - oto one. Dokument jest nadal w trakcie przeglądu. Bliższe oględziny ukazują lekki uśmiech na fotografiach niewinnych. Jednak w próbkach nie ma wielu zdjęć, więc nie można wyciągnąć wniosków na temat całej bazy danych.

Moc obliczeń afektywnych

To nie pierwszy raz, kiedy komputer jest w stanie rozpoznać ludzkie emocje. Tak zwany obszar „przetwarzania afektywnego” lub „przetwarzania emocjonalnego” istnieje od dawna. Uważa się, że jeśli chcemy wygodnie żyć i współdziałać z robotami, maszyny te muszą być w stanie rozumieć ludzkie emocje i odpowiednio na nie reagować. Możliwości w tej dziedzinie są dość duże.

Na przykład naukowcy wykorzystali analizę twarzy, aby zidentyfikować uczniów mających trudności z nauczaniem przy użyciu komputera. Sztuczna inteligencja została nauczona rozpoznawać różne poziomy zaangażowania i frustracji, aby system mógł zrozumieć, kiedy uczniowie uważają pracę za zbyt łatwą lub zbyt złożoną. Ta technologia może być przydatna do poprawy jakości uczenia się na platformach internetowych.

Sony stara się opracować robota, który może tworzyć emocjonalne więzi z ludźmi. Nie jest jeszcze do końca jasne, w jaki sposób zamierzała to osiągnąć ani co dokładnie zrobi robot. Jednak firma twierdzi, że próbuje „zintegrować sprzęt i usługi, aby zapewnić emocjonalnie porównywalne wrażenia”.

Sztuczna inteligencja emocjonalna będzie miała szereg potencjalnych zalet, czy to rolę rozmówcy, czy wykonawcy - będzie w stanie zarówno zidentyfikować przestępcę, jak i porozmawiać o leczeniu.

Istnieją również obawy i zagrożenia etyczne. Czy należałoby pozwolić pacjentowi z demencją polegać na towarzyszu sztucznej inteligencji i powiedzieć mu, że jest emocjonalnie żywy, kiedy tak nie jest? Czy możesz umieścić osobę za kratkami, jeśli sztuczna inteligencja twierdzi, że jest winny? Oczywiście nie. Sztuczna inteligencja nie będzie przede wszystkim sędzią, ale śledczym, identyfikującym osoby „podejrzane”, ale na pewno nie winne.

Subiektywne rzeczy, takie jak emocje i uczucia, są trudne do wyjaśnienia sztucznej inteligencji, po części dlatego, że sztuczna inteligencja nie ma dostępu do wystarczająco dobrych danych, aby je obiektywnie przeanalizować. Czy AI kiedykolwiek zrozumie sarkazm? Jedno zdanie może być sarkastyczne w jednym kontekście, a zupełnie inne w innym.

W każdym razie ilość danych i moc przetwarzania stale rosną. Z kilkoma wyjątkami sztuczna inteligencja może nauczyć się rozpoznawać różne typy emocji w ciągu najbliższych kilku dekad. Ale czy mógłby kiedykolwiek sam ich doświadczyć? To kwestia dyskusyjna.

ILYA KHEL