Standardowe procesory od lat zbliżają się do limitu prędkości i zbliżyć się nie mogą, ale już dziś poszukuje się rozwiązań, które popchną przetwarzanie danych na nowe, szybsze tory. Wielkie nadzieje na to daje wykorzystanie dziwacznej mechaniki kwantowej. Regularne podkręcanie mocy komputerów wiąże się z jednej strony z postępującą miniaturyzacją, a z drugiej strony z większym poborem prądu. W obu przypadkach pojawią się w końcu bariery związane z wielkością ścieżek układów scalonych oraz z superkomputerami, które ciągną tyle energii, co małe miasteczko. Komputery kwantowe mogą pomóc ominąć te przeszkody w bardzo sprytny sposób.
Działanie klasycznych procesorów opiera się na operacjach na bitach, czyli porcjach informacji. Bit ma wartość 1 albo 0. Ale dopiero miliardy bitów przerabianych na sekundę pozwalają na bardzo zaawansowane działania matematyczne. A co by się stało, gdyby bit potrafił „być” i jedynką i zerem i każdą liczbą pomiędzy nimi jednocześnie? Taka możliwość z pewnością wymyka się umysłom przyzwyczajonym do rzeczywistości w skali makro. A w mikroskopijnym świecie atomów, elektronów i fotonów takie rzeczy są zupełnie normalne.
Komputery kwantowe - jak działają?
Na pewno kojarzycie z lekcji fizyki model atomu, który przypomina nieco układ planetarny – wokół jądra (słońca) krążą elektrony (planety). Tak naprawdę w tym malutkim świecie wszystko wygląda inaczej. Elektrony nie posiadają stałych orbit. Istnieje tylko pewne prawdopodobieństwo znalezienia ich w określonych miejscach. Zanim badacz powie: „sprawdzam” i złapie elektron w którymś punkcie przestrzeni, zasady mechaniki kwantowej przyjmują, że leci on we wszystkich możliwych kierunkach jednocześnie. Samo „spojrzenie” na elektron wywołuje utratę jego kwantowych właściwości. Zaczyna on wtedy grzecznie respektować reguły zdrowego rozsądku i porusza się tylko w jednym kierunku.
Największym więc problemem tych naukowców, którzy chcą zbudować komputer kwantowy, jest to, żeby ten stan, gdy przykładowy niesforny elektron czuje się swobodnie i frunie w wielu kierunkach na raz, zachować jak najdłużej, by móc się mu bezkarnie przyglądać. Tylko podczas takiego króciutkiego podglądania bez naruszania spokoju nieśmiałego elektronu można przeprowadzać obliczenia. Współcześnie naukowcy starają się zaprzęgnąć do pracy inne mikroskopijne cząstki – fotony, czyli kwanty światła (najmniejsze możliwe porcje energii świetlnej). Podejmowane są rozmaite próby, które polegają albo na doskonałym odizolowaniu procesora kwantowego od otoczenia (np. w diamencie), albo na łapaniu fotonów w wyrafinowane pułapki (vide nobliści z fizyki z 2012 roku).
Grupa uczonych z kilku uniwersytetów amerykańskich i uczelni holenderskiej stworzyła 2-kubitowy kwantowy procesor, używając diamentowej otoczki. Ten ultra-twardy kamień szlachetny znakomicie odizolował układ od otoczenia, opóźniając utratę jego kwantowych właściwości. Nie użyto diamentów ze sklepu jubilerskiego, które kosztują fortunę i zwykle posiadają wiele skaz, lecz sztucznie wytwarzanych minerałów, dlatego technologia ta może nie będzie tak droga, jak się może wydawać. Eksperymentuje się także na atomach. Nie tak dawno, bo w listopadzie 2013 roku, padł rekord utrzymania ich w stanie superpozycji. Naukowcom z Uniwersytetu Simona Frasera z kanadyjskiego Burnaby udało się przy pomocy pola magnetycznego i schłodzenia do niemal zera absolutnego zachować atomy fosforu w tym stanie przez trzy godziny. W temperaturze pokojowej (25 stopni) superpozycja trwała aż 39 minut. To prawdziwy przełom na drodze do w pełni działającej maszyny kwantowej - do tej pory okresy te liczyło się w milisekundach!
Bity, bity, aż (k)ubity
Specyfika mechaniki kwantowej, która przy tak małej skali bierze górę nad codzienną fizyką newtonowską polega na tym, iż wszystko opiera się na rachunku prawdopodobieństwa. Elektronowy kubit (ang. quantum bit, qubit) jest jednocześnie zerem, jedynką oraz wszystkimi możliwymi liczbami pomiędzy. Z jednej strony pozwala to na drastyczne zwiększenie wielkości liczb, na których mogą operować kubity w stosunku do „tradycyjnych” procesorów. Niesie to za sobą ogromną oszczędność w liczbie operacji koniecznych do ukończenia skomplikowanych obliczeń.
Z drugiej strony na przeszkodzie staje konieczność „przetłumaczenia” wyników kwantowych operacji na „ludzkie” zera i jedynki. A w tym przeszkadza chociażby nieokiełznany kwantowy rachunek prawdopodobieństwa. Im więcej kubitów zaprzęgniemy do działania, tym rezultat staje się bardziej ulotny i nieprzewidywalny. Świat mikroskopijny jest bowiem kruchy i nieśmiały– sam fakt obserwacji kubitów sprawia, że zaczynają one zachowywać się zgodnie z klasyczną fizyką – stają się po prostu 0 albo 1, jak w tradycyjnych układach. A im więcej kubitów w procesorze, tym szybciej następuje proces powrotu do newtonowskich zasad. Cały ambaras polega na tym, by umieć „patrzeć” jak najdłużej na nie bez naruszania ich stanów.
Dodatkowo większość obecnie prowadzonych doświadczeń (tak jak na Uniwersytecie Simona Frasera) na kubitowych tranzystorach wymaga schłodzenia kwantów niemal do temperatury zera absolutnego, co sprawia pewne trudności logistyczne. Koszty takiej instalacji idą w miliony dolarów. Nie wspominając o tym, że łatwe operowanie jednocześnie na niewyobrażalnych z punktu widzenia dzisiejszych konstrukcji ilościach danych oznacza, pamięci komputerów kwantowych będą musiały mieć iście kosmiczne pojemności.
Marketing kwantowy
Od kilku lat w światowych mediach regularnie pojawiają się elektryzujące informacje o osiągnięciach kanadyjskiej firmy D-Wave. W 2011 roku sprzedała ona koncernowi zbrojeniowemu Lockheed-Martin rzekomo pierwszy komercyjny komputer kwantowy, 128-kubitowy D-Wave One. W świecie naukowym zawrzało, bo oto niewielkie laboratorium z Kanady ogłosiło, że z dawna wyczekiwany przełom naukowy został osiągnięty. Trzeźwo myślący fizycy od razu przystąpili do krytyki firmy, twierdząc że niewiele tu prawdziwie kwantowej technologii, a więcej przemyślanego marketingu. To stwierdzenie było podsycane przez politykę firmy, która przez długi czas nie chciała zdradzić, co znajduje się wewnątrz tajemniczej czarnej skrzynki, rozwiązującej na pokazach sudoku. Entuzjaści zaznaczali, że przecież zbrojeniowy gigant nie mógł kupić, kota (Schroedingera?) w worku. Sceptycy wskazywali na dziwnie niską cenę sprzętu – jedynie 10 milionów dolarów za przełomowe urządzenie? Mało.
Wątpliwości próbowali rozwiać niezależni naukowcy z Kalifornii, którzy po badaniach przyznali, że D-Wave One prawie na pewno korzysta z kwantowych zjawisk, jednak jedynie na 8 kubitach (a w reklamach Kanadyjczycy chwalili się aż 128-kubitową mocą). Sprzętu nie da się rozbudować o kolejne kubity. Procesor D-Wave nie trafi też pod strzechy przeciętnych zjadaczy pikseli, ponieważ jest zaprojektowany do wąskich, wyspecjalizowanych zadań. Dla Lockheed-Martina wykonuje jedynie algorytm tzw. dyskretnej optymalizacji, który w świecie pecetów domowych jest kompletnie nieprzydatny. Polega on na odnajdywaniu najlepszych rozwiązań (czyli takich, które pozwalają na maksymalne oszczędzanie zasobów) w wielu problemach matematycznych. Krótko mówiąc – nie liczcie, że szybko ujrzycie kwantowe PC. Na razie mało wiemy o tym, jak maszyna D-Wave sprawdza się w pracy dla giganta zbrojeniowego. Można się jednak domyślić, że całkiem nieźle – w 2012 roku dziesięć milionów dolarów na takie urzadzenie wysupłało z kieszeni Google, które niedawno przyznało, że w swoich laboratoriach pracuje nad własnym sprzętem kwantowym.
Ale po co?
Pytaniem, które wciąż pozostaje otwarte, jest to, czy budowa takiego komputera ma w ogóle sens. Obecnie funkcjonująca namiastka, kanadyjski D-Wave One, razem z urządzeniami chłodniczymi zajmuje powierzchnię jednego pokoju, a poza tym do swojej pracy potrzebuje oczywiście maksymalnego schłodzenia podzespołów, więc pożera ogromne ilości prądu. Wykonuje jedynie ściśle wyspecjalizowane zadania i wcale nie robi tego błyskotliwie. Został zaprzęgnięty do obliczania tzw. zwijania białek (istotne w dziedzinie biotechnologii) i na 10 tysięcy obliczeń dał...13 poprawnych wyników. Skąd wiadomo, że przytłaczająca liczba rezultatów była błędna? To proste, klasyczne komputery już umieją rozwiązać ten konkretny problem. Oczywiście w dużo dłuższym czasie. Zjawisko występowania błędów można pokonać przez przeprowadzanie wielokrotnie tych samych obliczeń, by zmniejszyć ryzyko pomyłki. Co ciekawe, w standardowych układach obliczeniowych także pojawiają się błędy w obliczeniach– oczywiście bardzo rzadko, raz na bilion operacji. Dzieje się tak dlatego, że w mikrostrukturze procesorów obowiązują naturalnie prawa mechaniki kwantowej.
Maszyny w służbie władzy
Specyfika komputerów kwantowych polega na tym, że za rozwiązaniem technologicznymi muszą iść stosowne algorytmy matematyczne, które efektywnie wykorzystają możliwości takiego sprzętu. Przykładem takiej formuły matematycznej jest algorytm Shora, pozwalający na rozłożenie liczby na jej części pierwsze. Zaawansowane komputery kwantowe będą w stanie poradzić sobie z gigantycznymi liczbami, których przetrawienie klasycznym superkomputerom zajęłoby tysiące lat! Laikowi może wydawać się, że to zupełnie niepraktyczne działanie, na dodatek mocno ograniczone. W rzeczywistości rozkładanie liczb na części pierwsze według algorytmu Shora zrewolucjonizuje kryptografię. Dzięki niemu wydajny komputer kwantowy złamie każdy stosowany współcześnie szyfr w krótkim czasie. Wielu ludzi niepokoi fakt zainwestowania przez CIA sporej sumy pieniędzy w rozwój kanadyjskiej D-Wave. W świetle ostatniej afery związanej ze szpiegowaniem milionów ludzi przez władze, te obawy wcale nie wyglądają kuriozalnie...
Kwantowa przyszłość
Wydaje się, że komputery kwantowe będą umiały wykonać pewną (raczej ograniczoną) część zadań takich, jakie realizują klasyczne układy, tylko wielokrotnie szybciej. Problemem przestaną być wszelkiego rodzaju zaawansowane symulacyjne obliczenia (jeśli uda się ujarzmić prawdopodobieństwo dobrych wyników), więc można spodziewać się olbrzymiego postępu między innymi w biochemii, bioinżynierii, nanotechnologii i samej fizyce kwantowej. Kto wie, może będziemy się nawet teleportować - tak jak w popularnych filmach science-fiction. W 2013 roku na Politechnice w Zurychu udało się teleportować 10 tysięcy bitów na odległość jednego milimetra w czasie jednej sekundy. Przy eksperymencie wykorzystano zjawisko kwantowego splątania.
Dzięki zbudowaniu w pełni zasługującego na to miano komputera kwantowego zniknie na długo bariera postępu w wydajności obliczeniowej. Wielu naukowców wskazuje, że jeśli kiedykolwiek uda nam się stworzyć prawdziwe AI, to tylko przy użyciu technologii zupełnie niepodobnej do tej dzisiejszej. A liczenie na kwantach, przy całej swojej efektywności, złożoności i nieprzewidywalności, może przypominać mechanizmy ludzkich myśli. W maju 2013 roku D-Wave Systems razem z NASA i organizacją zrzeszającą badaczy kosmosu założył laboratorium, w którym przy pomocy najnowszego D-Wave Two (deklarowane 512 kubitów mocy) będą prowadzone prace nad AI.
Technologia kwantowa, mimo potencjalnej skali błędów, jest bardzo obiecująca – miejmy nadzieję, że inżynierom uda się pokonać trudności związane z ulotnym światem kwantów i występującymi błędami w obliczeniach. Rozwiązaniem może być stworzenie hybrydy klasycznego układu z kwantowym procesorem – krzemowy CPU, który potrafiłby wyciągnąć z gąszczu cyfr prawidłowe wyniki. Naukowcy z IBM twierdzą, że na funkcjonalne komputery kwantowe trzeba będzie poczekać maksymalnie 15 lat, ale będą one stać wyłącznie w halach wielkich korporacji i rządów państw, a nie na biurkach domowych użytkowników.