Dlaczego Naukowcy Nie Powinni Polegać Na Sztucznej Inteligencji W Badaniach Naukowych - Alternatywny Widok

Dlaczego Naukowcy Nie Powinni Polegać Na Sztucznej Inteligencji W Badaniach Naukowych - Alternatywny Widok
Dlaczego Naukowcy Nie Powinni Polegać Na Sztucznej Inteligencji W Badaniach Naukowych - Alternatywny Widok

Wideo: Dlaczego Naukowcy Nie Powinni Polegać Na Sztucznej Inteligencji W Badaniach Naukowych - Alternatywny Widok

Wideo: Dlaczego Naukowcy Nie Powinni Polegać Na Sztucznej Inteligencji W Badaniach Naukowych - Alternatywny Widok
Wideo: 15 oznak, że jesteś wybitnie inteligentny, ale o tym nie wiesz 2024, Może
Anonim

Żyjemy w złotym wieku danych naukowych, otoczeni ogromnymi rezerwami informacji genetycznej, obrazowania medycznego i danych astronomicznych. Obecne możliwości algorytmów uczenia maszynowego pozwalają sztucznej inteligencji badać te dane równie szybko, a jednocześnie bardzo uważnie, często otwierając drzwi do potencjalnie nowych odkryć naukowych. Nie powinniśmy jednak ślepo ufać wynikom badań naukowych przeprowadzonych przez AI - mówi badacz z Rice University Genever Allen. Przynajmniej nie na obecnym poziomie rozwoju tej technologii. Zdaniem naukowca problem polega na tym, że współczesne systemy AI nie mają możliwości krytycznej oceny wyników swojej pracy.

Zdaniem Allena, systemom sztucznej inteligencji, które wykorzystują metody uczenia maszynowego, czyli gdy uczenie się następuje w procesie stosowania rozwiązań wielu podobnych problemów, a nie tylko poprzez wprowadzanie i przestrzeganie nowych zasad i przepisów, mogą podejmować pewne decyzje. Mówiąc dokładniej, całkiem możliwe jest przypisanie AI zadań w rozwiązywaniu problemów w tych obszarach, w których końcowy wynik może łatwo sprawdzić i przeanalizować sam człowiek. Jako przykład możemy przyjąć, powiedzmy, policzenie liczby kraterów na Księżycu lub przewidywanie wstrząsów wtórnych po trzęsieniu ziemi.

Jednak dokładność i wydajność bardziej złożonych algorytmów, które są używane do analizy bardzo dużych ilości danych w celu znalezienia i określenia wcześniej nieznanych czynników lub relacji między różnymi funkcjami, „są znacznie trudniejsze do zweryfikowania” - zauważa Allen. Zatem niemożność zweryfikowania danych dopasowanych przez takie algorytmy może prowadzić do błędnych wniosków naukowych.

Weźmy na przykład medycynę precyzyjną, gdzie specjaliści analizują metadane pacjentów, aby znaleźć określone grupy osób o podobnych cechach genetycznych, aby opracować skuteczne metody leczenia. Niektóre programy sztucznej inteligencji zaprojektowane do przesiewania danych genetycznych są rzeczywiście skuteczne w identyfikowaniu grup pacjentów o podobnej predyspozycji, na przykład do zachorowania na raka piersi. Okazują się jednak zupełnie nieskuteczne w identyfikacji innych typów raka, np. Jelita grubego. Każdy algorytm inaczej analizuje dane, więc przy łączeniu wyników często może wystąpić konflikt w klasyfikacji próbki pacjenta. To z kolei sprawia, że naukowcy zastanawiają się, której sztucznej inteligencji ostatecznie zaufać.

Te sprzeczności wynikają z faktu, że algorytmy analizy danych są zaprojektowane w taki sposób, aby były zgodne z instrukcjami zawartymi w tych algorytmach, które nie pozostawiają miejsca na niezdecydowanie, niepewność - wyjaśnia Allen.

Naukowcy nie lubią niepewności. Jednak tradycyjne metody określania niepewności pomiaru są przeznaczone do tych przypadków, w których wymagana jest analiza danych, które zostały specjalnie wybrane do oceny określonej hipotezy. Nie tak działają programy AI do eksploracji danych. Programy te nie są oparte na żadnym przewodnim pomyśle i po prostu analizują zebrane zbiory danych bez określonego celu. Dlatego wielu badaczy sztucznej inteligencji, w tym sama Allen, opracowuje obecnie nowe protokoły, które umożliwią systemom sztucznej inteligencji nowej generacji ocenę dokładności i powtarzalności ich odkryć.

Film promocyjny:

Badacz wyjaśnia, że jedna z nowych metod wydobycia będzie oparta na koncepcji resamplingu. Na przykład, jeśli system sztucznej inteligencji ma dokonać ważnego odkrycia, na przykład zidentyfikować grupy pacjentów klinicznie ważnych dla badań, to odkrycie to powinno zostać wyświetlone w innych bazach danych. Tworzenie nowych i większych zbiorów danych w celu walidacji próbkowania AI jest bardzo kosztowne dla naukowców. Dlatego, zdaniem Allana, można zastosować podejście, w którym „wykorzystany zostanie istniejący zestaw danych, w których informacje będą losowo mieszane w taki sposób, aby naśladowały zupełnie nową bazę danych”. A jeśli sztuczna inteligencja będzie w stanie nieustannie określać cechy charakterystyczne, które umożliwiają przeprowadzenie niezbędnej klasyfikacji, „wówczas będzie można rozważyćże masz w rękach naprawdę prawdziwe odkrycie”- dodaje Allan.

Nikolay Khizhnyak