Nadeszła Era Komputerów Kwantowych, Ale Perspektywy Są Niewyraźne - Alternatywny Widok

Spisu treści:

Nadeszła Era Komputerów Kwantowych, Ale Perspektywy Są Niewyraźne - Alternatywny Widok
Nadeszła Era Komputerów Kwantowych, Ale Perspektywy Są Niewyraźne - Alternatywny Widok

Wideo: Nadeszła Era Komputerów Kwantowych, Ale Perspektywy Są Niewyraźne - Alternatywny Widok

Wideo: Nadeszła Era Komputerów Kwantowych, Ale Perspektywy Są Niewyraźne - Alternatywny Widok
Wideo: Komputer kwantowy - nowy kamień filozoficzny? [24. FESTIWAL NAUKI] 2024, Lipiec
Anonim

Po dziesięcioleciach ciężkiej pracy bez większych nadziei na sukces nagle pojawiła się gorączkowa aktywność wokół obliczeń kwantowych. Prawie dwa lata temu IBM pokazał światu komputer kwantowy z pięcioma bitami kwantowymi (kubitami), który teraz (co brzmi trochę dziwnie) nazywają IBM Q Experience. W tamtych czasach urządzenie było bardziej zabawką dla naukowców niż narzędziem do poważnego przetwarzania danych. Jednak w projekcie zarejestrowało się 70 tysięcy użytkowników na całym świecie, a do tej pory liczba kubitów wzrosła czterokrotnie. Kilka miesięcy temu IBM i Intel ogłosiły stworzenie komputerów kwantowych z 50 i 49 kubitami. Wiadomo też, że w murach Google za skrzydłami czeka kolejny komputer. „Społeczność jest pełna energii, a ostatnie przełomy są niesamowite”.- mówi fizyk Jens Eisert z Wolnego Uniwersytetu w Berlinie.

Obecnie mówi się o zbliżającej się „supremacji kwantowej”: czasie, w którym komputer kwantowy może wykonać zadanie przekraczające możliwości nawet najpotężniejszych klasycznych superkomputerów. Jeśli porównamy tylko liczby, to takie stwierdzenie może wydawać się śmieszne: 50 kubitów kontra miliardy klasycznych bitów w każdym laptopie. Ale cały sens obliczeń kwantowych polega na tym, że bit kwantowy może znacznie więcej niż klasyczny. Przez długi czas uważano, że 50 kubitów wystarczy do wykonania obliczeń, które konwencjonalny komputer wykonywałby w nieskończoność. W połowie 2017 roku naukowcy z Google ogłosili, że do grudnia zamierzają zademonstrować wyższość kwantową. (Na niedawną prośbę o nowe dane rzecznik firmy odpowiedział: „Ogłosimy wyniki,gdy tylko zostaną dostatecznie uzasadnione, ale na razie przeprowadzana jest dogłębna analiza istniejących zmian. )

Chciałbym stwierdzić, że wszystkie główne problemy można rozwiązać, a przyszłość, w której komputery kwantowe są zjawiskiem wszechobecnym, to tylko kwestia wyposażenia technicznego. Ale on się myli. Problemy fizyczne leżące u podstaw obliczeń kwantowych są nadal dalekie od rozwiązania.

Nawet jeśli wkrótce wkroczymy w erę kwantowej supremacji, następny rok lub dwa mogą być decydujące - czy komputery kwantowe naprawdę całkowicie zmienią sposób, w jaki wykonujemy obliczenia? Stawka jest wciąż wysoka i nie ma gwarancji, że cel zostanie osiągnięty.

Zamknij się i oblicz

Zarówno korzyści, jak i wyzwania związane z komputerami kwantowymi są nieodłącznie związane z fizyką, która to umożliwia. O podstawach mówiono już niejednokrotnie, chociaż nie zawsze zostało to wyjaśnione, czego wymaga mechanika kwantowa. Klasyczne komputery przechowują informacje i przetwarzają je w kodzie binarnym (0 lub 1). W komputerach kwantowych sytuacja jest prawie taka sama, tylko każdy bit znajduje się w tak zwanej superpozycji, czyli może mieć jednocześnie 0 i 1. Oznacza to, że stan kubitu można określić tylko z pewnym prawdopodobieństwem.

Aby wykonać obliczenia z dużą liczbą kubitów, wszystkie z nich muszą znajdować się w współzależnych superpozycjach - w stanie „koherencji kwantowej”, w którym wszystkie kubity są uważane za splątane. W takim przypadku najmniejsza zmiana w jednym kubicie może wpłynąć na wszystkie pozostałe. Oznacza to, że operacje obliczeniowe wykorzystujące kubity mają wyższą wydajność niż klasyczne bity. W klasycznym urządzeniu możliwości obliczeniowe są po prostu zależne od liczby bitów, ale dodanie każdego nowego kubitu zwiększa dwukrotnie możliwości komputera kwantowego. Dlatego różnica między urządzeniem z 5 kubitami a urządzeniem z 50 kubitami jest tak znacząca.

Film promocyjny:

Zauważ, że nie powiedziałem, jak to się często robi, że przewaga komputera kwantowego nad klasycznym polega na istnieniu superpozycji, które znacznie zwiększają liczbę możliwych stanów zakodowanej informacji. Jak nie powiedziałem, splątanie pozwala na wykonywanie wielu obliczeń jednocześnie. (W rzeczywistości wysoki stopień splątania kubitów nie jest warunkiem wstępnym). Jest w tym trochę prawdy, ale żadne ze stwierdzeń nie opisuje istoty obliczeń kwantowych.

Ze względu na złożoność zrozumienia mechaniki kwantowej wyjaśnienie, dlaczego obliczenia kwantowe są tak potężne, jest trudnym zadaniem. Równania teorii kwantów z pewnością pokazują, że zadziała - przynajmniej przy niektórych rodzajach obliczeń: faktoring lub przeszukiwanie bazy danych ogromnie przyspiesza ten proces. Ale ile dokładnie?

Być może najbezpieczniejszym sposobem opisania obliczeń kwantowych jest stwierdzenie, że mechanika kwantowa w pewien sposób stwarza „możliwości” obliczeniowe, które nie są dostępne w klasycznych urządzeniach. Jak zauważył fizyk Daniel Gottesman z Perimeter Institute for Theoretical Physics (Perimeter Institute) w Waterloo: „Jeśli dostępna jest wystarczająca ilość mechaniki kwantowej, to w pewnym sensie proces przyspiesza, a jeśli nie, to nie jest”.

Chociaż niektóre punkty są nadal jasne. Obliczenia kwantowe wymagają, aby wszystkie kubity były spójne, co jest niezwykle trudne do wdrożenia. Interakcja systemu spójnych kubitów z otoczeniem tworzy kanały, przez które spójność szybko „przecieka”. Ten proces nazywa się dekoherencją. Naukowcy planujący zbudowanie komputera kwantowego muszą zapobiegać dekoherencji. Teraz udaje im się ją zatrzymać tylko na ułamek sekundy. Sytuacja komplikuje się, gdy wzrasta liczba kubitów, a co za tym idzie - zdolność do interakcji z otoczeniem. Dlatego, chociaż idea komputerów kwantowych została po raz pierwszy zaproponowana przez Richarda Feynmana w 1982 r., A teoria została opracowana na początku lat 90. XX wieku, urządzenia zdolne do wykonywania rzeczywistych obliczeń powstały dopiero teraz.

Błędy kwantowe

Istnieje drugi główny powód, dla którego zbudowanie komputera kwantowego jest tak trudne. Jak każdy inny proces na świecie, powoduje hałas. Przypadkowe fluktuacje, powstałe, powiedzmy, z powodu temperatury kubitów lub z powodu specyfiki podstawowych procesów mechaniki kwantowej, mogą zmienić kierunek lub stan kubitu, co prowadzi do niedokładnych obliczeń. Takie zagrożenie istnieje przy pracy z klasycznymi komputerami, ale jest dość łatwe do rozwiązania. Wystarczy utworzyć dwie lub więcej kopii zapasowych każdego bitu, aby przypadkowo odwrócony bit nie był liczony.

Naukowcy pracujący nad stworzeniem komputera kwantowego opracowali kilka sposobów rozwiązania problemu, ale wszystkie strategie prowadzą do pojawienia się zbyt wielu dodatkowych kosztów obliczeniowych, ponieważ cała moc obliczeniowa jest przeznaczana na korygowanie błędów, a nie na wykonywanie danych algorytmów. „Obecny poziom błędu znacznie ogranicza czas potrzebny na obliczenia” - wyjaśnia Andrew Childs, współdyrektor Joint Center for Quantum Information and Computational Sciences na University of Maryland. „Musimy znacznie poprawić wyniki, jeśli chcemy stworzyć coś interesującego”.

Wiele badań w zakresie podstawowych obliczeń kwantowych koncentruje się na technikach korekcji błędów. Część złożoności problemu wynika z innej kluczowej właściwości systemów kwantowych: superpozycje mogą być utrzymane tylko tak długo, jak długo nie mierzymy wartości kubitu. Pomiar zniszczy superpozycję i doprowadzi do określonej wartości: 1 lub 0. Jak możesz stwierdzić, czy wystąpił błąd w działaniu kubitu, jeśli nie wiesz, w jakim stanie był?

Jeden sprytny schemat sugeruje użycie obliczeń pośrednich poprzez połączenie kubitu z drugim kubitem pomocniczym. Ten ostatni nie bierze udziału w obliczeniach, więc jego pomiar nie wpływa na stan głównego kubitu. Ale jest to raczej trudne do wdrożenia. To rozwiązanie oznacza, że do stworzenia prawdziwego „kubitu logicznego”, który jest odporny na błędy, potrzeba wielu kubitów fizycznych.

Ile? Teoretyk kwantowy Alan Aspuru-Guzik z Uniwersytetu Harvarda uważa, że stworzenie jednego kubitu logicznego zajmie około dziesięciu tysięcy kubitów, co obecnie nie jest możliwe. Według niego, jeśli wszystko pójdzie dobrze, liczba ta zmniejszy się do kilku tysięcy, a nawet setek. Aisert nie jest aż tak pesymistą i uważa, że wystarczy około ośmiuset kubitów fizycznych, ale przyznaje, że nawet w tej sytuacji „dodatkowe koszty mocy obliczeniowej będą nadal duże”. Musisz znaleźć sposób na radzenie sobie z błędami.

Istnieje alternatywa dla naprawiania błędów. Można ich uniknąć lub zapobiec wystąpieniu w tak zwanym łagodzeniu błędów. Badacze z IBM projektują obwody, aby matematycznie obliczyć prawdopodobieństwo błędu, a następnie przyjąć wynik jako zerowy szum.

Niektórzy badacze uważają, że problem korekcji błędów pozostanie nierozwiązany i uniemożliwi komputerom kwantowym osiągnięcie przewidywanych wysokości. „Tworzenie kodów kwantowych korygujących błędy jest znacznie trudniejsze niż wykazanie wyższości kwantowej” - wyjaśnia matematyk z Uniwersytetu Hebrajskiego w Izraelu, Gil Kalai. Dodaje również, że „urządzenia nie poprawiające błędów są bardzo prymitywne w swoich obliczeniach, a wyższość nie może opierać się na prymitywności”. Innymi słowy, komputery kwantowe nie przewyższą klasycznych komputerów, jeśli błędy nie zostaną wyeliminowane.

Inni naukowcy uważają, że ostatecznie problem zostanie rozwiązany. Jednym z nich jest Jay Gambetta, informatyk kwantowy z IBM Center for Quantum Computing. Thomas J. Watson. „Nasze ostatnie eksperymenty wykazały podstawowe elementy korekcji błędów w małych urządzeniach, co z kolei toruje drogę dla większych urządzeń, które mogą niezawodnie przechowywać informacje kwantowe przez dłuższy czas w obecności szumu” - mówi. Jednak Gambetta przyznaje również, że nawet przy obecnym stanie rzeczy „jest jeszcze długa droga do stworzenia uniwersalnego, odpornego na błędy komputera kwantowego wykorzystującego kubity logiczne”. Dzięki takim badaniom Childs jest optymistą. „Jestem pewien, że zobaczymy pokaz jeszcze bardziej udanych eksperymentów [naprawiania błędów], aleprawdopodobnie minie dużo czasu, zanim zaczniemy używać komputerów kwantowych do prawdziwych obliczeń”.

Życie z błędami

W najbliższej przyszłości komputery kwantowe ulegną awarii. Powstaje pytanie: jak z tym żyć? Naukowcy IBM twierdzą, że w dającej się przewidzieć przyszłości dziedzina badań „przybliżonych obliczeń kwantowych” skupi się na znalezieniu sposobów przystosowania się do hałasu.

Wymaga to stworzenia takich algorytmów, które dadzą poprawny wynik, ignorując błędy. Proces ten można porównać do liczenia wyników wyborów, które nie uwzględnia zepsutych kart do głosowania. „Nawet jeśli popełnia błędy, wystarczająco duże, wysokiej jakości obliczenia kwantowe powinny być bardziej wydajne niż [klasyczne]” - mówi Gambetta.

Jedno z nowszych zastosowań tej technologii odpornych na błędy wydaje się mieć większą wartość dla naukowców niż dla całego świata: modelowanie materiałów na poziomie atomowym. (W rzeczywistości była to motywacja, która skłoniła Feynmana do stworzenia idei komputerów kwantowych). Równania mechaniki kwantowej opisują sposób obliczania stabilności lub reaktywności chemicznej (na przykład w cząsteczkach leków). Ale tych równań nie da się rozwiązać bez zastosowania wielu uproszczeń.

Jednak według Childsa kwantowe zachowanie elektronów i atomów „jest stosunkowo bliskie naturalnemu zachowaniu komputera kwantowego”. Oznacza to, że można zbudować dokładny model komputerowy cząsteczki. „Wielu członków społeczności naukowej, w tym ja, uważa, że pierwsze udane zastosowanie komputera kwantowego będzie związane z chemią kwantową i materiałoznawstwem” - mówi Aspuru-Guzik: był jednym z pierwszych, którzy zaczęli pchać obliczenia kwantowe w tym kierunku.

Modelowanie kwantowe okazuje się przydatne nawet na najmniejszych obecnie dostępnych komputerach kwantowych. Zespół badaczy, w skład którego wchodzi Aspuru-Guzik, opracował algorytm, który nazwali „Wariacyjną metodą rozwiązywania problemów mechaniki kwantowej” (dalej - VMR). Ten algorytm pozwala znaleźć najmniej energochłonny stan cząsteczki, nawet w głośnych kubitach. W tej chwili radzi sobie tylko z bardzo małymi cząsteczkami z kilkoma elektronami. Klasyczne komputery dobrze wykonują to zadanie. Jednak moc kwantów stale rośnie, jak wykazali Gambetta i jego współpracownicy we wrześniu ubiegłego roku, kiedy użyli urządzenia o sześciu kbitach do obliczenia struktury elektronowej cząsteczek, takich jak wodorek litu i wodorek berylu. Praca była „znaczącym przełomem dla nauk kwantowych”jak ujął to fizyk chemiczny Markus Reicher ze Szwajcarskiej Wyższej Szkoły Technicznej w Zurychu. „Wykorzystanie BMP do modelowania małych cząsteczek jest doskonałym przykładem zastosowania krótkoterminowych algorytmów heurystycznych” - mówi Gambetta.

Jednak według Aspuru-Guzika kubity logiczne zdolne do korygowania błędów będą potrzebne jeszcze zanim komputery kwantowe prześcigną klasyczne. „Nie mogę się doczekać, aż korekcja błędów obliczeń kwantowych stanie się rzeczywistością” - skomentował.

„Gdybyśmy mieli więcej niż dwieście kubitów, moglibyśmy robić naprawdę innowacyjne rzeczy” - dodał Reicher. „A przy 5000 kubitów komputer kwantowy może mieć duży wpływ na naukę”.

Jaka jest Twoja objętość?

Te cele są niezwykle trudne do osiągnięcia. Mimo wszystkich trudności komputery kwantowe od pięciu kubitów do 50-bitów w ciągu zaledwie roku - ten fakt daje nadzieję. Jednak nie przejmuj się tymi liczbami, ponieważ opowiadają one tylko niewielką część historii. Teraz nie chodzi o to, ile masz kubitów ważniejszych, ale o to, jak dobrze działają i jak wydajne są opracowane przez ciebie algorytmy.

Wszelkie obliczenia kwantowe kończą się dekoherencją, która tasuje kubity. Zwykle czas dekoherencji dla grupy kubitów wynosi kilka mikrosekund. Liczba operacji logicznych, które można wykonać w tak krótkim czasie, zależy od szybkości przełączania bramki kwantowej. Jeśli prędkość jest zbyt niska, nie ma znaczenia, ile kubitów masz do dyspozycji. Liczba operacji wymaganych dla danego obliczenia nazywana jest głębokością obliczeń: algorytmy o małej głębokości są bardziej wydajne niż algorytmy głębokie. Jednak nie wiadomo na pewno, czy są one przydatne w obliczeniach.

Co więcej, nie wszystkie kubity są równie hałaśliwe. Teoretycznie możliwe jest tworzenie niskoszumowych kubitów z materiałów znajdujących się w tak zwanym „topologicznym stanie elektronicznym”: jeśli cząstki w tym stanie zostaną użyte do kodowania informacji binarnych, będzie to chronione przed przypadkowym szumem. Próbując znaleźć cząstki w stanie topologicznym, naukowcy z Microsoftu przyglądają się przede wszystkim egzotycznym materiałom kwantowym. Jednak nie ma gwarancji, że ich badania zakończą się sukcesem.

Aby określić moc obliczeń kwantowych na konkretnym urządzeniu, naukowcy z IBM ukuli termin „objętość kwantowa”. To liczba, która łączy wszystkie ważne czynniki: głębokość algorytmu, liczbę i łączność kubitów, a także inne wskaźniki jakości bramek kwantowych (na przykład szum). Ogólnie rzecz biorąc, ta „objętość kwantowa” charakteryzuje moc obliczeń kwantowych. Według Gambetty konieczne jest teraz opracowanie sprzętu do obliczeń kwantowych, który zwiększy dostępną objętość kwantową.

To jeden z powodów, dla których osławiona supremacja kwantowa jest raczej niejasnym pomysłem. Pomysł, że komputer kwantowy o pojemności 50 kubitów będzie lepszy od nowoczesnych superkomputerów, brzmi atrakcyjnie, ale wiele nierozwiązanych kwestii pozostaje. Przy rozwiązywaniu dokładnie jakich problemów komputer kwantowy przewyższa superkomputery? Jak ustalić, czy komputer kwantowy otrzymał poprawną odpowiedź, jeśli nie można jej zweryfikować za pomocą klasycznego urządzenia? A co, jeśli klasyczny komputer jest bardziej wydajny niż komputer kwantowy, jeśli zostanie znaleziony lepszy algorytm?

Zatem supremacja kwantowa jest koncepcją wymagającą ostrożności. Niektórzy badacze wolą mówić o „przewadze kwantowej”, o skoku w rozwoju technologii kwantowych, niż o ostatecznym zwycięstwie komputerów kwantowych nad zwykłymi. Ponadto większość stara się nie używać słowa „wyższość”, ponieważ zawiera ono negatywne konotacje polityczne i rasistowskie.

Niezależnie od nazwy, jeśli naukowcy potrafią wykazać, że komputery kwantowe mogą wykonywać zadania, których nie potrafią klasyczne urządzenia, to będzie to niezwykle ważny moment psychologiczny dla tej dziedziny. „Wykazanie niezaprzeczalnej przewagi kwantowej przejdzie do historii. To udowodni, że komputery kwantowe mogą naprawdę rozszerzyć nasze możliwości technologiczne”- mówi Aizert.

Być może będzie to raczej wydarzenie symboliczne niż radykalna zmiana w dziedzinie informatyki. Niemniej jednak warto na to zwrócić uwagę. Jeśli komputery kwantowe przewyższają konwencjonalne komputery, to nie dzieje się tak dlatego, że IBM i Google nagle wprowadzają je na rynek. Aby osiągnąć przewagę kwantową, musisz ustanowić skomplikowany system interakcji między programistami a użytkownikami. A tych drugich trzeba mocno przekonać, że warto spróbować nowości. Dążąc do tej współpracy, IBM i Google starają się jak najszybciej udostępniać użytkownikom swoje rozwiązania. Wcześniej IBM oferował wszystkim rejestracjom w serwisie dostęp do swojego 16-kubitowego komputera IBM Q. Teraz firma opracowała wersję 20-kubitową dla klientów korporacyjnych, w tym JP Morgan Chase, Daimler, Honda, Samsung i Oxford University. Taka współpraca nie tylko pomaga klientom znaleźć coś pożytecznego i interesującego, ale także tworzy społeczność programistów posiadających umiejętności kwantowe, którzy będą opracowywać nowe funkcje i rozwiązywać problemy, których nie da się rozwiązać w jednej firmie.

„Aby dziedzina informatyki kwantowej mogła się aktywnie rozwijać, trzeba dać ludziom możliwość korzystania z komputerów kwantowych i ich badania - mówi Gambetta. „Cały świat nauki i przemysłu musi teraz skupić się na jednym zadaniu - przygotowaniach do ery komputerów kwantowych”.

Tłumaczenie projektu Nowe

Philip Ball