Menu główne:
Zbudowanie komputera kwantowego zrewolucjonizuje współczesną informatykę i wywrze silny wpływ na technologię
Komputer kwantowy i informatyka kwantowa to pojęcia, które pojawiły się na granicy fizyki i informatyki. Robią one ostatnio sporą karierę. W „Science”, „Nature” i „Physical Review Letters” z zaskakującą częstotliwością pojawiają się nowe doniesienia o postępach w tej gwałtownie rozwijającej się dziedzinie. Informacje przenikają też do czasopism bardziej popularnych – np. „Physics Today”, czy „Scientific American” („Świat Nauki”), a nawet do szerokich mediów wyczulonych na sensacyjne wiadomości. To zainteresowanie związane jest z nowymi, zupełnie nieoczekiwanymi możliwościami informatyki kwantowej.
STARE I NOWE
Biorąc pod uwagę fakt, że świat działa raczej zgodnie z niedeterministyczną mechaniką kwantową, a nie według klasycznych praw deterministycznych, coraz poważniej podejrzewa się, że obecna informatyka klasyczna nie ma przed sobą dalekosiężnych perspektyw i mimo bezsprzecznych aktualnych jej sukcesów, może okazać się nieskuteczna wobec złożoności mikroświata. Problem ten ujawnia się np. w momencie próby symulowania na klasycznym komputerze nawet bardzo małego, w porównaniu z rzeczywistymi, układu kwantowego. Nawet jeśli układ ten byłby złożony tylko ze 100 cząstek, niezbędna będzie możliwość zapisywania rzędu 2100 liczb, co przekracza przewidywalne możliwości dowolnego komputera klasycznego. Informacja jest fizyczna, nie ulega zatem wątpliwości, że klasyczna informatyka wcześniej czy później będzie musiała zostać zastąpiona przez jej wersję kwantową. Wydaje się też, że kwantowa wersja teorii złożoności leżącej w fundamentach informatyki jest istotnie różna od klasycznej i choćby z tego powodu wejście w ten nowy obszar będzie przełomowe. Oceniane obecnie możliwości informatyki kwantowej są tak atrakcyjne, iż wydaje się, że zbudowanie komputera kwantowego zrewolucjonizuje współczesną informatykę i wywrze silny wpływ na technologię. Nic więc dziwnego, że wyścig do komputera kwantowego jest traktowany bardzo poważnie. W USA, Japonii i w Europie angażuje się obecnie w takie badania wielkie środki, mimo że nie ma pewności, czy w przewidywalnym czasie uda się skonstruować skutecznie działający duży komputer kwantowy. Trudności są bowiem ogromne i nie jest jasne, w jakim stopniu można je będzie pokonać. Prowadzone są bardzo intensywne badania, które – niezależnie od rezultatu – przyczynią się z pewnością do kolejnych przełomów technologicznych, a także do głębszego zrozumienia tajników materii.
Komputer kwantowy byłby urządzeniem, przy pomocy którego można by skutecznie symulować dowolny inny układ kwantowy w sposób niemożliwy dla klasycznych komputerów. Problematyka ta pojawiła się obecnie w 5. Programie Ramowym Unii Europejskiej. Dotyczy jej zaplanowany na lata 2000-2002 projekt Semiconductor-Based Implemantation of Quantum Information Devices (SQID). Zaproszeni do udziału w realizacji tematu uczestnicy reprezentują wiele znanych ośrodków europejskich. Są tu: Fundacja ISI z Turynu współpracująca z Uniwersytetem w Modenie oraz INFM (Instituto Nazionale Per La Fisica Della Materia) z Turynu, Instytut Fizyki Politechniki Wrocławskiej, Instytut Maxa Borna z Berlina, Instytut Fizyki Uniwersytetu w M?nster, Instytut Fizyki Uniwersytetu w Southampton, Instytut Fizyki ?cole Normale Sup?rieure w Paryżu i Międzynarodowy Instytut Solvaya z Brukseli, który jako podwykonawców zaangażował placówki Rosyjskiej Akademii Nauk z Moskwy i Petersburga.
W realizacji projektu UE SQID uczestniczy zespół prof. Lucjana Jacaka z Instytutu Fizyki Politechniki Wrocławskiej, zajmujący się problematyką kropek kwantowych, które odegrały już pewną rolę w omawianych badaniach.
NA POCZĄTKU BYŁ FEYNMAN
Rzecz całą zapoczątkował słynny fizyk amerykański Richard Feynman, który w 1982 roku wprowadził pojęcie komputera kwantowego – urządzenia kwantowego, za pomocą którego można byłoby efektywnie symulować dowolny inny układ kwantowy w sposób niedostępny dla klasycznych komputerów. Propozycja ta początkowo nie wzbudzała większego zainteresowania, w ostatnich latach nabrała jednak aktualności wraz z rozwojem badań w zakresie podstaw mechaniki kwantowej. Mimo że dziedzina ta liczy sobie już kilkadziesiąt lat (rozwija się od lat 20.) i wywarła bezprecedensowy wpływ na całą współczesną naukę i technikę, wciąż daleka jest od pełnego zrozumienia i wiele podstawowych pytań czeka na odpowiedź. Dotyczy to zwłaszcza pojęcia pomiaru na układach kwantowych i sposobów jego realizacji. Problemy sformułowane przed kilkudziesięcioma laty, jak np. słynny paradoks Einsteina-Podolskiego-Rosena, wciąż wywołują nie tylko dyskusje, ale także wielki postęp w rozumieniu tajników mechaniki kwantowej – np. sukces tzw. kwantowych nierówności Bella i doświadczalnych ich weryfikacji, zapoczątkowanych przez znany eksperyment Aspecta.
EINSTEIN, BELL ASPECT...
Albert Einstein nie chciał zaakceptować mechaniki kwantowej, zwłaszcza w jej interpretacji kopenhaskiej, pochodzącej od Nielsa Bohra. Dyskomfort ten wyraził nawet w sformułowaniu – wraz z Podolskim i Rozenem – wspomnianego paradoksu, który jednak jest nieunikniony, jeśli chce się klasycznie wyjaśniać efekty kwantowe (chodziło o dwa sprzężone ze sobą podukłady kwantowe znajdujące się w dużej odległości i reagujące kwantowo wzajemnie na zmiany, czego jednak nie sposób ująć na gruncie zasady lokalności przyjmowanej przez Einsteina).
Klasyczne nierówności Bella wyrażają zwykłe zależności rachunku prawdopodobieństwa. Przykładem takiej nierówności jest zauważenie, że w przypadku układu trzech monet suma prawdopodobieństw występowania par zwróconych identycznie jest nie mniejsza od jedynki (jasne, bo przecież monety mają tylko dwie strony i wśród trzech dwie na pewno zwrócone są tą samą stroną). Kwantowa wersja tego zagadnienia prowadzić może jednak do złamania takich – wydawałoby się oczywistych – nierówności (w przypadku z monetami – kwantowa suma prawdopodobieństw jest mniejsza od jedynki; gdyby chcieć to klasycznie wyjaśnić, to sam proces sprawdzania dwóch monet w mechanice kwantowej może doprowadzić do zniknięcia trzeciej, co oznacza, że nie należy zbyt klasycznie tłumaczyć mechaniki kwantowej).
W 1982 r. w Paryżu zespół Alaina Aspecta przeprowadził eksperyment, w którym posługując się fotonami emitowanymi przez atom wapnia potwierdzono naruszenie klasycznych nierówności Bella. W następnych latach w różnych układach kwantowych wielokrotnie zaobserwowano podobne złamanie tych nierówności. Jest to silny dowód przemawiający za kopenhaską interpretacją mechaniki kwantowej lub nielokalną jej wersją (oddalone sprzężone układy kwantowe wpływają na siebie wzajemnie natychmiastowo, ale jednak nie w taki sposób, by złamać ograniczenie wynikające z faktu istnienia maksymalnej prędkości światła).
Dziś znaczny postęp technologiczny w zakresie miniaturyzacji – nanotechnologia w coraz większym stopniu zagłębia się w mechanikę kwantową – sprawia, że studnie, druty i kropki kwantowe zaczynają dominować w zakresie badań i najbardziej zaawansowanych technologii. Dynamiczny rozwój precyzyjnej optyki kwantowej – możliwość obserwacji i manipulacji pojedynczymi fotonami, a ostatnio też ultraszybkie (piko- i femtosekundowe) techniki rezonansowego przełączania w strukturach półprzewodnikowych – nieodwołalnie wprowadza fundamentalną mechanikę kwantową do technologii.
TELEPORTACJA FOTONÓW
Prawdziwe zainteresowanie komputerem kwantowym pojawiło się jednak, gdy Peter Shor (1994) przedstawił kwantowy algorytm do faktoryzacji liczb całkowitych (tj. rozkładu liczb na czynniki pierwsze, a zatem szukania wielocyfrowych liczb pierwszych), działający eksponencjalnie szybciej niż najlepsze algorytmy klasyczne. Następnie Lov Grover (1996) przedstawił kwantowy algorytm przeszukiwania tablicy danych w czasie proporcjonalnym do pierwiastka czasu potrzebnego klasycznemu komputerowi do wykonania tego zadania. Niewielki nawet komputer kwantowy mógłby zatem w bardzo krótkim czasie na przykład złamać wszystkie kody i zabezpieczenia współczesnych systemów informatycznych (wykorzystujących właśnie duże liczby pierwsze), co dawałoby jego posiadaczom oczywistą i ogromną przewagę. Potencjalne możliwości informatyki kwantowej wydają się doprawdy imponujące. Wymienia się możliwość supergęstego – w porównaniu z klasycznym – kodowania informacji, pełne zabezpieczenie przed hakerstwem (co związane jest z wrażliwością stanów kwantowych na jakąkolwiek ingerencję) czy nawet możliwość realizacji teleportacji kwantowej, czyli przesyłania na odległość stanów kwantowych jako przepisu odbudowywania układów z cząstek dostępnych u odbiorcy (wykonano już eksperymenty z teleportacją fotonów na całkiem duże odległości, rzędu kilometra). Niebywałe możliwości komputerów kwantowych związane są z zupełnie odmienną od klasycznych urządzeń zasadą ich działania. Można je obrazowo porównać do nieskończonej liczby klasycznych procesorów działających równolegle.
MIĘDZY JEDYNKĄ I ZEREM
Informatyka kwantowa posługuje się pojęciem qubitu (bitu kwantowego), który w odróżnieniu od swojego klasycznego odpowiednika może przyjmować nie tylko wartości zero i jeden, ale też wartości pośrednie, odpowiadające zmieszaniu dwóch stanów kwantowych reprezentujących jedynkę i zero. Najistotniejszym czynnikiem w komputerach kwantowych, umożliwiającym przeprowadzanie operacji logicznych na qubitach, jest możliwość istnienia tzw. stanów splątanych dwóch (lub więcej) qubitów. Stany splątane są nieprostym iloczynem (tensorowym) stanów podukładów. Pojęcie stanu splątanego wiąże się właśnie z iloczynem tensorowym dwóch przestrzeni – dowolny element iloczynu tensorowego wcale nie jest proporcjonalny do pojedynczego iloczynu elementów baz dwóch mnożonych przestrzeni. Gdy zatem jego przedstawienie wymaga więcej niż po jednym elemencie z baz obu przestrzeni, mamy do czynienia właśnie ze stanem splątanym. Oddziaływania między układami fizycznymi prowadzą w naturalny sposób do splątania stanów kwantowych.
Można powiedzieć, że na świecie nie ma niczego powszechniejszego niż stany splątane rozmaitych układów – tworzą się one i rozpadają bez przerwy w gmatwaninie materii. Rzecz cała w tym jednak, by utrzymać wyizolowany, najprostszy nawet stan splątany możliwie długo i wykonać na nim operacje logiczne (pojawił się tu nawet nowy termin: inżynieria funkcji falowych).
NAJWAŻNIEJSZA PRZESZKODA
Stany splątane, podobnie jak wszystkie inne stany kwantowe, są niezwykle wrażliwe na zakłócenia – podlegają dekoherencji. Otoczenie układu (lub wydzielonej pary układów – np. bramki logicznej komputera kwantowego) wciąż wpływa na niego, dokonuje jakby bez przerwy serii pomiarów tego układu, wytrącając go tym samym z zadanej przez kwantową mechanikę, tj. koherentnej jego ewolucji jako niezależnego układu wyizolowanego. Wpływ otoczenia powoduje zatem dekoherencję – otoczenie, dokonując następujących po sobie tych samych pomiarów, zatrzymuje jakby samodzielną ewolucję kwantową wydzielonego układu (nazywa się to czasem kwantową wersją paradoksu Zenona).
Ważne jest, by utrzymać koherencję dostatecznie długo, tak by zdążyć wykonać potrzebne operacje logiczne na obiektach związanych ze sobą kwantowo. Dekoherencja wydaje się najtrudniejszą przeszkodą na drodze informatyki kwantowej. Rolf Landauer, znany teoretyk informatyki uważa nawet, że być może nie uda się jej pokonać. Wykazano, że na skutek oddziaływania z otoczeniem dekoherencja gwałtownie rośnie wraz z liczbą cząstek sprzężonych ze sobą kwantowo. Tymczasem, do niezbędnych w komputerach, redundantnych (tj. nadmiarowych) systemów korekty błędów potrzebne byłyby układy silnie zwielokrotnione.
Mając na względzie te i inne trudności i ograniczenia należy uznać konstrukcję dużego komputera kwantowego za bardzo trudne zadanie, ale trzeba też docenić osiągnięte już sukcesy. Zbudowano kilkuqubitowe komputery kwantowe na różnych układach kwantowych – na spułapkowanych w polu elektrycznym jonach czy na spinach jądrowych molekuł. Projektuje się stosowne układy kwantowe przy wykorzystaniu nadprzewodzących złącz Josephsona, a nawet molekularnych struktur organicznych typu DNA. Oprócz tych układów niezwykle obiecujące wydają się też realizacje qubitów na kropkach kwantowych – sztucznych atomach o kontrolowanych własnościach. Obecnie w kilku ośrodkach na świecie prowadzi się szeroko zakrojone prace interdyscyplinarne w tych kierunkach. Jest to też jeden z priorytetów 5. Programu Ramowego UE. Może warto się zastanowić nad podobnym priorytetem w Polsce?
(Prof. dr hab. inż. Lucjan Jacak, fizyk teoretyczny, pracuje w Instytucie Fizyki Politechniki Wrocławskiej.)