Układ MIT Zmniejszył Zużycie Energii Przez Sieć Neuronową O 95% - Alternatywny Widok

Układ MIT Zmniejszył Zużycie Energii Przez Sieć Neuronową O 95% - Alternatywny Widok
Układ MIT Zmniejszył Zużycie Energii Przez Sieć Neuronową O 95% - Alternatywny Widok

Wideo: Układ MIT Zmniejszył Zużycie Energii Przez Sieć Neuronową O 95% - Alternatywny Widok

Wideo: Układ MIT Zmniejszył Zużycie Energii Przez Sieć Neuronową O 95% - Alternatywny Widok
Wideo: Jeśli zobaczysz to na niebie, masz kilka sekund na ukrycie 2024, Kwiecień
Anonim

Sieci neuronowe to potężna rzecz, ale bardzo żarłoczna. Inżynierom z Massachusetts Institute of Technology (MIT) udało się opracować nowy chip, który zmniejsza zużycie energii sieci neuronowej o 95%, co teoretycznie może pozwolić im pracować nawet na urządzeniach mobilnych z bateriami. Smartfony stają się obecnie coraz inteligentniejsze, oferując więcej usług opartych na sztucznej inteligencji, takich jak wirtualni asystenci i tłumaczenia w czasie rzeczywistym. Ale zwykle sieci neuronowe przetwarzają dane dla tych usług w chmurze, a smartfony przesyłają dane tylko tam iz powrotem.

Nie jest to idealne rozwiązanie, ponieważ wymaga grubego kanału komunikacyjnego i zakłada, że wrażliwe dane są przesyłane i przechowywane poza zasięgiem użytkownika. Ale kolosalnych ilości energii potrzebnej do zasilania sieci neuronowych zasilanych przez GPU nie można zapewnić w urządzeniu zasilanym z małej baterii.

Inżynierowie MIT opracowali chip, który może zmniejszyć to zużycie energii o 95%. Układ drastycznie zmniejsza potrzebę przesyłania danych między pamięcią a procesorami.

Sieci neuronowe składają się z tysięcy połączonych ze sobą sztucznych neuronów ułożonych w warstwach. Każdy neuron otrzymuje dane wejściowe z kilku neuronów w warstwie leżącej pod nim, a jeśli połączone wejście przekroczy określony próg, przekazuje wynik do kilku neuronów powyżej. O sile połączenia między neuronami decyduje ciężar, jaki ustala się podczas treningu.

Oznacza to, że dla każdego neuronu chip musi wyodrębnić z pamięci dane wejściowe dla konkretnego połączenia i wagę połączenia, pomnożyć je, zapisać wynik, a następnie powtórzyć proces dla każdego wejścia. Wiele danych przemieszcza się tu i tam, a dużo energii jest marnowane.

Nowy układ MIT eliminuje to, obliczając wszystkie wejścia równolegle w pamięci za pomocą obwodów analogowych. To znacznie ogranicza ilość danych, które należy przejąć i skutkuje znacznymi oszczędnościami energii.

Takie podejście wymaga, aby waga połączeń była binarna, a nie zakresowa, ale wcześniejsze prace teoretyczne wykazały, że nie wpłynie to znacząco na dokładność, a naukowcy odkryli, że wyniki chipa różniły się o 2-3% od zwykłej wersji działającej sieci neuronowej. na standardowym komputerze.

To nie pierwszy raz, kiedy naukowcy stworzyli chipy, które przetwarzają procesy w pamięci, zmniejszając zużycie energii przez sieć neuronową, ale jest to pierwszy przypadek, kiedy to podejście zostało zastosowane do obsługi potężnej sieci neuronowej znanej z przetwarzania obrazu.

Film promocyjny:

„Wyniki pokazują imponujące specyfikacje energooszczędnej implementacji operacji kroczących w macierzy pamięci” - powiedział Dario Gil, wiceprezes ds. Sztucznej inteligencji w IBM.

„To zdecydowanie otwiera możliwości wykorzystania w przyszłości bardziej wyrafinowanych konwolucyjnych sieci neuronowych do klasyfikacji obrazów i filmów w Internecie rzeczy”.

I to jest interesujące nie tylko dla grup B + R. Chęć umieszczenia sztucznej inteligencji na urządzeniach takich jak smartfony, urządzenia domowe i wszelkiego rodzaju urządzenia IoT popycha wiele osób w Dolinie Krzemowej w kierunku chipów o małej mocy.

Apple zintegrował już swój silnik neuronowy z iPhonem X, aby zasilić na przykład technologię rozpoznawania twarzy, a Amazon podobno opracowuje własne chipy AI dla następnej generacji asystentów cyfrowych Echo.

Duże firmy i producenci chipów również w coraz większym stopniu polegają na uczeniu maszynowym, co zmusza je do jeszcze bardziej energooszczędności swoich urządzeń. Wcześniej w tym roku ARM zaprezentował dwa nowe układy: procesor Arm Machine Learning, który obsługuje ogólne zadania AI, od tłumaczenia po rozpoznawanie twarzy, oraz procesor Arm Object Detection, który wykrywa na przykład twarze na obrazach.

Najnowszy mobilny układ Qualcomm, Snapdragon 845, ma procesor graficzny i jest w dużym stopniu oparty na sztucznej inteligencji. Firma zaprezentowała także Snapdragona 820E, który powinien pracować w dronach, robotach i urządzeniach przemysłowych.

Patrząc w przyszłość, IBM i Intel opracowują chipy neuromorficzne o architekturze inspirowanej ludzkim mózgiem i niesamowitej wydajności energetycznej. Teoretycznie mogłoby to pozwolić TrueNorth (IBM) i Loihi (Intel) na przeprowadzenie potężnego uczenia maszynowego przy użyciu tylko ułamka mocy konwencjonalnych chipów, ale te projekty są nadal wysoce eksperymentalne.

Bardzo trudno będzie zmusić chipy, które ożywiają sieci neuronowe, do oszczędzania energii baterii. Ale przy obecnym tempie innowacji to „bardzo trudne” wydaje się całkiem wykonalne.

Ilya Khel