Artykuły - FILOZOFIA KWANTOWA-QUANTUM PHILOSPHY

Idź do spisu treści

Menu główne:

Artykuły

Teoria kwantów

Zbudowanie komputera kwantowego zrewolucjonizuje współczesną informatykę i wywrze silny wpływ na technologię


Komputer kwantowy i informatyka kwantowa to pojęcia, które pojawiły się na granicy fizyki i informatyki. Robią one ostatnio sporą karierę. W „Science”, „Nature” i „Physical Review Letters” z zaskakującą częstotliwością pojawiają się nowe doniesienia o postępach w tej gwałtownie rozwijającej się dziedzinie. Informacje przenikają też do czasopism bardziej popularnych – np. „Physics Today”, czy „Scientific American” („Świat Nauki”), a nawet do szerokich mediów wyczulonych na sensacyjne wiadomości. To zainteresowanie związane jest z nowymi, zupełnie nieoczekiwanymi możliwościami informatyki kwantowej.
STARE I NOWE
Biorąc pod uwagę fakt, że świat działa raczej zgodnie z niedeterministyczną mechaniką kwantową, a nie według klasycznych praw deterministycznych, coraz poważniej podejrzewa się, że obecna informatyka klasyczna nie ma przed sobą dalekosiężnych perspektyw i mimo bezsprzecznych aktualnych jej sukcesów, może okazać się nieskuteczna wobec złożoności mikroświata. Problem ten ujawnia się np. w momencie próby symulowania na klasycznym komputerze nawet bardzo małego, w porównaniu z rzeczywistymi, układu kwantowego. Nawet jeśli układ ten byłby złożony tylko ze 100 cząstek, niezbędna będzie możliwość zapisywania rzędu 2100 liczb, co przekracza przewidywalne możliwości dowolnego komputera klasycznego. Informacja jest fizyczna, nie ulega zatem wątpliwości, że klasyczna informatyka wcześniej czy później będzie musiała zostać zastąpiona przez jej wersję kwantową. Wydaje się też, że kwantowa wersja teorii złożoności leżącej w fundamentach informatyki jest istotnie różna od klasycznej i choćby z tego powodu wejście w ten nowy obszar będzie przełomowe. Oceniane obecnie możliwości informatyki kwantowej są tak atrakcyjne, iż wydaje się, że zbudowanie komputera kwantowego zrewolucjonizuje współczesną informatykę i wywrze silny wpływ na technologię. Nic więc dziwnego, że wyścig do komputera kwantowego jest traktowany bardzo poważnie. W USA, Japonii i w Europie angażuje się obecnie w takie badania wielkie środki, mimo że nie ma pewności, czy w przewidywalnym czasie uda się skonstruować skutecznie działający duży komputer kwantowy. Trudności są bowiem ogromne i nie jest jasne, w jakim stopniu można je będzie pokonać. Prowadzone są bardzo intensywne badania, które – niezależnie od rezultatu – przyczynią się z pewnością do kolejnych przełomów technologicznych, a także do głębszego zrozumienia tajników materii.
Komputer kwantowy byłby urządzeniem, przy pomocy którego można by skutecznie symulować dowolny inny układ kwantowy w sposób niemożliwy dla klasycznych komputerów. Problematyka ta pojawiła się obecnie w 5. Programie Ramowym Unii Europejskiej. Dotyczy jej zaplanowany na lata 2000-2002 projekt Semiconductor-Based Implemantation of Quantum Information Devices (SQID). Zaproszeni do udziału w realizacji tematu uczestnicy reprezentują wiele znanych ośrodków europejskich. Są tu: Fundacja ISI z Turynu współpracująca z Uniwersytetem w Modenie oraz INFM (Instituto Nazionale Per La Fisica Della Materia) z Turynu, Instytut Fizyki Politechniki Wrocławskiej, Instytut Maxa Borna z Berlina, Instytut Fizyki Uniwersytetu w M?nster, Instytut Fizyki Uniwersytetu w Southampton, Instytut Fizyki ?cole Normale Sup?rieure w Paryżu i Międzynarodowy Instytut Solvaya z Brukseli, który jako podwykonawców zaangażował placówki Rosyjskiej Akademii Nauk z Moskwy i Petersburga.
W realizacji projektu UE SQID uczestniczy zespół prof. Lucjana Jacaka z Instytutu Fizyki Politechniki Wrocławskiej, zajmujący się problematyką kropek kwantowych, które odegrały już pewną rolę w omawianych badaniach.
NA POCZĄTKU BYŁ FEYNMAN
Rzecz całą zapoczątkował słynny fizyk amerykański Richard Feynman, który w 1982 roku wprowadził pojęcie komputera kwantowego – urządzenia kwantowego, za pomocą którego można byłoby efektywnie symulować dowolny inny układ kwantowy w sposób niedostępny dla klasycznych komputerów. Propozycja ta początkowo nie wzbudzała większego zainteresowania, w ostatnich latach nabrała jednak aktualności wraz z rozwojem badań w zakresie podstaw mechaniki kwantowej. Mimo że dziedzina ta liczy sobie już kilkadziesiąt lat (rozwija się od lat 20.) i wywarła bezprecedensowy wpływ na całą współczesną naukę i technikę, wciąż daleka jest od pełnego zrozumienia i wiele podstawowych pytań czeka na odpowiedź. Dotyczy to zwłaszcza pojęcia pomiaru na układach kwantowych i sposobów jego realizacji. Problemy sformułowane przed kilkudziesięcioma laty, jak np. słynny paradoks Einsteina-Podolskiego-Rosena, wciąż wywołują nie tylko dyskusje, ale także wielki postęp w rozumieniu tajników mechaniki kwantowej – np. sukces tzw. kwantowych nierówności Bella i doświadczalnych ich weryfikacji, zapoczątkowanych przez znany eksperyment Aspecta.
EINSTEIN, BELL ASPECT...
Albert Einstein nie chciał zaakceptować mechaniki kwantowej, zwłaszcza w jej interpretacji kopenhaskiej, pochodzącej od Nielsa Bohra. Dyskomfort ten wyraził nawet w sformułowaniu – wraz z Podolskim i Rozenem – wspomnianego paradoksu, który jednak jest nieunikniony, jeśli chce się klasycznie wyjaśniać efekty kwantowe (chodziło o dwa sprzężone ze sobą podukłady kwantowe znajdujące się w dużej odległości i reagujące kwantowo wzajemnie na zmiany, czego jednak nie sposób ująć na gruncie zasady lokalności przyjmowanej przez Einsteina).
Klasyczne nierówności Bella wyrażają zwykłe zależności rachunku prawdopodobieństwa. Przykładem takiej nierówności jest zauważenie, że w przypadku układu trzech monet suma prawdopodobieństw występowania par zwróconych identycznie jest nie mniejsza od jedynki (jasne, bo przecież monety mają tylko dwie strony i wśród trzech dwie na pewno zwrócone są tą samą stroną). Kwantowa wersja tego zagadnienia prowadzić może jednak do złamania takich – wydawałoby się oczywistych – nierówności (w przypadku z monetami – kwantowa suma prawdopodobieństw jest mniejsza od jedynki; gdyby chcieć to klasycznie wyjaśnić, to sam proces sprawdzania dwóch monet w mechanice kwantowej może doprowadzić do zniknięcia trzeciej, co oznacza, że nie należy zbyt klasycznie tłumaczyć mechaniki kwantowej).
W 1982 r. w Paryżu zespół Alaina Aspecta przeprowadził eksperyment, w którym posługując się fotonami emitowanymi przez atom wapnia potwierdzono naruszenie klasycznych nierówności Bella. W następnych latach w różnych układach kwantowych wielokrotnie zaobserwowano podobne złamanie tych nierówności. Jest to silny dowód przemawiający za kopenhaską interpretacją mechaniki kwantowej lub nielokalną jej wersją (oddalone sprzężone układy kwantowe wpływają na siebie wzajemnie natychmiastowo, ale jednak nie w taki sposób, by złamać ograniczenie wynikające z faktu istnienia maksymalnej prędkości światła).
Dziś znaczny postęp technologiczny w zakresie miniaturyzacji – nanotechnologia w coraz większym stopniu zagłębia się w mechanikę kwantową – sprawia, że studnie, druty i kropki kwantowe zaczynają dominować w zakresie badań i najbardziej zaawansowanych technologii. Dynamiczny rozwój precyzyjnej optyki kwantowej – możliwość obserwacji i manipulacji pojedynczymi fotonami, a ostatnio też ultraszybkie (piko- i femtosekundowe) techniki rezonansowego przełączania w strukturach półprzewodnikowych – nieodwołalnie wprowadza fundamentalną mechanikę kwantową do technologii.
TELEPORTACJA FOTONÓW
Prawdziwe zainteresowanie komputerem kwantowym pojawiło się jednak, gdy Peter Shor (1994) przedstawił kwantowy algorytm do faktoryzacji liczb całkowitych (tj. rozkładu liczb na czynniki pierwsze, a zatem szukania wielocyfrowych liczb pierwszych), działający eksponencjalnie szybciej niż najlepsze algorytmy klasyczne. Następnie Lov Grover (1996) przedstawił kwantowy algorytm przeszukiwania tablicy danych w czasie proporcjonalnym do pierwiastka czasu potrzebnego klasycznemu komputerowi do wykonania tego zadania. Niewielki nawet komputer kwantowy mógłby zatem w bardzo krótkim czasie na przykład złamać wszystkie kody i zabezpieczenia współczesnych systemów informatycznych (wykorzystujących właśnie duże liczby pierwsze), co dawałoby jego posiadaczom oczywistą i ogromną przewagę. Potencjalne możliwości informatyki kwantowej wydają się doprawdy imponujące. Wymienia się możliwość supergęstego – w porównaniu z klasycznym – kodowania informacji, pełne zabezpieczenie przed hakerstwem (co związane jest z wrażliwością stanów kwantowych na jakąkolwiek ingerencję) czy nawet możliwość realizacji teleportacji kwantowej, czyli przesyłania na odległość stanów kwantowych jako przepisu odbudowywania układów z cząstek dostępnych u odbiorcy (wykonano już eksperymenty z teleportacją fotonów na całkiem duże odległości, rzędu kilometra). Niebywałe możliwości komputerów kwantowych związane są z zupełnie odmienną od klasycznych urządzeń zasadą ich działania. Można je obrazowo porównać do nieskończonej liczby klasycznych procesorów działających równolegle.
MIĘDZY JEDYNKĄ I ZEREM
Informatyka kwantowa posługuje się pojęciem qubitu (bitu kwantowego), który w odróżnieniu od swojego klasycznego odpowiednika może przyjmować nie tylko wartości zero i jeden, ale też wartości pośrednie, odpowiadające zmieszaniu dwóch stanów kwantowych reprezentujących jedynkę i zero. Najistotniejszym czynnikiem w komputerach kwantowych, umożliwiającym przeprowadzanie operacji logicznych na qubitach, jest możliwość istnienia tzw. stanów splątanych dwóch (lub więcej) qubitów. Stany splątane są nieprostym iloczynem (tensorowym) stanów podukładów. Pojęcie stanu splątanego wiąże się właśnie z iloczynem tensorowym dwóch przestrzeni – dowolny element iloczynu tensorowego wcale nie jest proporcjonalny do pojedynczego iloczynu elementów baz dwóch mnożonych przestrzeni. Gdy zatem jego przedstawienie wymaga więcej niż po jednym elemencie z baz obu przestrzeni, mamy do czynienia właśnie ze stanem splątanym. Oddziaływania między układami fizycznymi prowadzą w naturalny sposób do splątania stanów kwantowych.
Można powiedzieć, że na świecie nie ma niczego powszechniejszego niż stany splątane rozmaitych układów – tworzą się one i rozpadają bez przerwy w gmatwaninie materii. Rzecz cała w tym jednak, by utrzymać wyizolowany, najprostszy nawet stan splątany możliwie długo i wykonać na nim operacje logiczne (pojawił się tu nawet nowy termin: inżynieria funkcji falowych).
NAJWAŻNIEJSZA PRZESZKODA
Stany splątane, podobnie jak wszystkie inne stany kwantowe, są niezwykle wrażliwe na zakłócenia – podlegają dekoherencji. Otoczenie układu (lub wydzielonej pary układów – np. bramki logicznej komputera kwantowego) wciąż wpływa na niego, dokonuje jakby bez przerwy serii pomiarów tego układu, wytrącając go tym samym z zadanej przez kwantową mechanikę, tj. koherentnej jego ewolucji jako niezależnego układu wyizolowanego. Wpływ otoczenia powoduje zatem dekoherencję – otoczenie, dokonując następujących po sobie tych samych pomiarów, zatrzymuje jakby samodzielną ewolucję kwantową wydzielonego układu (nazywa się to czasem kwantową wersją paradoksu Zenona).
Ważne jest, by utrzymać koherencję dostatecznie długo, tak by zdążyć wykonać potrzebne operacje logiczne na obiektach związanych ze sobą kwantowo. Dekoherencja wydaje się najtrudniejszą przeszkodą na drodze informatyki kwantowej. Rolf Landauer, znany teoretyk informatyki uważa nawet, że być może nie uda się jej pokonać. Wykazano, że na skutek oddziaływania z otoczeniem dekoherencja gwałtownie rośnie wraz z liczbą cząstek sprzężonych ze sobą kwantowo. Tymczasem, do niezbędnych w komputerach, redundantnych (tj. nadmiarowych) systemów korekty błędów potrzebne byłyby układy silnie zwielokrotnione.
Mając na względzie te i inne trudności i ograniczenia należy uznać konstrukcję dużego komputera kwantowego za bardzo trudne zadanie, ale trzeba też docenić osiągnięte już sukcesy. Zbudowano kilkuqubitowe komputery kwantowe na różnych układach kwantowych – na spułapkowanych w polu elektrycznym jonach czy na spinach jądrowych molekuł. Projektuje się stosowne układy kwantowe przy wykorzystaniu nadprzewodzących złącz Josephsona, a nawet molekularnych struktur organicznych typu DNA. Oprócz tych układów niezwykle obiecujące wydają się też realizacje qubitów na kropkach kwantowych – sztucznych atomach o kontrolowanych własnościach. Obecnie w kilku ośrodkach na świecie prowadzi się szeroko zakrojone prace interdyscyplinarne w tych kierunkach. Jest to też jeden z priorytetów 5. Programu Ramowego UE. Może warto się zastanowić nad podobnym priorytetem w Polsce?
(Prof. dr hab. inż. Lucjan Jacak, fizyk teoretyczny, pracuje w Instytucie Fizyki Politechniki Wrocławskiej.)






TAJEMNICZE KRĘGI NA NIEBIE

Praca opublikowana w serwisie Arxiv.org relacjonuje wyniki poszukiwania wzorów w kształcie pierścieni na mapie kosmicznego promieniowania tła. Poszukiwania zakończyły się sukcesem! A to może oznaczać, że Wielki Wybuch nie był absolutnym początkiem i przed nim już istniał kosmos, gwiazdy i galaktyki.
Kosmiczne promieniowanie mikrofalowe tła, które zewsząd dobiega do Ziemi, to najstarszy świadek dawnych dziejów naszego Wszechświata. Pochodzi z okresu kilkuset tysięcy lat po Wielkim Wybuchu. To promieniowanie plazmy, rozpalonej do kilku tysięcy stopni, która wypełniała w tamtym czasie przestrzeń kosmiczną.
Do obecnych czasów to promieniowanie ostygło - stanowi dziś mikrofalowy "szum" o temperaturze ledwie 2,7 stopnia powyżej zera absolutnego, wypełniający całą przestrzeń kosmiczną. Odkryto go przypadkiem w latach 60. zeszłego wieku. Niesie najstarszy obraz, czy też zdjęcie kosmosu, jakim dziś dysponujemy.
Mikrofale są tłumione w atmosferze, więc najlepiej rejestruje się je z balonów stratosferycznych lub satelitów. Na początku lat 90. zeszłego wieku odkryto drobne różnice temperatury w tym mikrofalowym szumie. Pierwotna plazma wypełniająca kosmos nie miała jednakowej temperatury - w jednych miejscach była gęściejsza i gorętsza, a w innych rozrzedzona i zimniejsza. Kiedy się narysuje obszary chłodniejsze i cieplejsze, powstanie mapa nieba przypominająca cętkowaną skórę leoparda. To z tych zagęszczeń powstały późniejsze struktury - galaktyki i gromady galaktyk.

Tajemnicze kręgi

Od niedawna dysponujemy najdokładniejszą mapą pierwotnych mikrofal, którą wykonał europejski satelita Planck. Trzech astrofizyków - Daniel An z Uniwersytetu Stanowego Nowego Jorku, Krzysztof Meissner z Uniwersytetu Warszawskiego oraz Paweł Nurowski z Centrum Fizyki Teoretycznej PAN w Warszawie - wykryli teraz na tej mapie niespodziewany wzór. To kręgi (czy też pierścienie), których standardowe teorie nie potrafią wyjaśnić.

Cykliczna kosmologia

Według standardowej teorii Wielkiego Wybuchu nic takiego nie powinno się tworzyć. Takie kręgi przewiduje natomiast teoria brytyjskiego uczonego sir Rogera Penrose'a, zgodnie z którą Wszechświat nie miał początku, ani nie będzie miał końca. Przechodzi wieczne cykle, a każdy z nich zaczyna się Wielkim Wybuchem.

Sir Roger Penrose jest emerytowanym profesorem uniwersytetu w Oksfordzie, jednym z najwybitniejszych matematyków i fizyków naszych czasów. Największe zaszczyty - Nagroda Wolfa (1988 r.), także tytuł szlachecki od angielskiej królowej (1994 r.) - spotkały Penrose'a za prace z ogólnej teorii względności Einsteina. Jako pierwszy wykazał, że we wnętrzu czarnej dziury pojawia się osobliwość - punkt, w którym gęstość materii staje się nieskończenie duża. Potem wspólnie ze Stephenem Hawkingiem udowodnił, że nieodłączną cechą równań Einsteina jest także to, że w dalekiej przeszłości Wszechświat musiał być w podobnie ekstremalnym stanie, nieskończenie gęsty i gorący, jak środek czarnej dziury. Można by więc rzec, iż matematycznie dowiódł, że Wszechświat miał początek.

W swej nowej teorii, którą nazywa modelem - CCC, czyli cyklicznej kosmologii konformalnej - sir Penrose dokonuje jednak dramatycznego zwrotu. Twierdzi, że Wielki Wybuch był początkiem, ale tylko jednego z cykli Wszechświata, których zapewne jest nieskończenie wiele. Penrose nazywa te cykle eonami.

Szalona teoria Penrose'a

Co ta teoria mówi? Jak już wiadomo, przestrzeń kosmiczna zamiast spowalniać - zaczyna coraz szybciej się rozszerzać. Źródłem tego jest tajemnicza ciemna energia, o której wciąż mało wiemy. Jedno jest tylko coraz bardziej pewne - kosmos staje się coraz większy i zimniejszy, gromady galaktyk coraz bardziej samotne, a promieniowanie rozrzedzone. Wszystkie gwiazdy, w tym Słońce, z czasem wypalą się i ostygną. Cała materia stopniowo wpadnie do czarnych dziur, które też będą powoli znikały, gdyż - zgodnie z teorią Hawkinga - zamienią się w promieniowanie.

W końcu całą przestrzeń wypełni tylko ocean promieniowania, którego temperatura będzie się zbliżała do zera bezwzględnego.

To niezwykle odległa perspektywa, dzieli nas od niej niewyobrażalna liczba lat. - Ale czas nie ma tu żadnego znaczenia - mówi Penrose. - Bo dla promieniowania czas nie istnieje.

To jeden z zadziwiających wniosków teorii względności Einsteina. Im szybciej się poruszamy, tym bardziej nasz wewnętrzny zegar zwalnia. Dla poruszającego się z prędkością światła promieniowania - czas po prostu staje w miejscu. Zegar przestaje tykać. A ponieważ w tym odległym kosmosie, oprócz promieniowania nie będzie nic innego, nie będzie też czasu.

Wraz z czasem straci także sens pojęcie odległości - pamiętajmy, że nie będzie żadnych materialnych obiektów, a więc żadnego wzorca metra, a także zegara, który by odmierzał odległość pokonaną przez promień światła (tak jak dziś definiuje się jednostkę metra).

Ściślej rzecz biorąc, geometria przestrzeni kosmicznej nie będzie miała określonej skali. Cały monstrualnie wielki Wszechświat nagle straci miarę dla swojej wielkości. Prof. Penrose dowodzi, że rozdęty i wypełniony zimnym promieniowaniem kosmos stanie się w gruncie rzeczy bardzo podobny do tego, który istniał tuż po Wielkim Wybuchu, kiedy też dominowało promieniowanie, ale gorące. Różnica tkwi tylko w skali. Gdyby go nagle przeskalować, tj. sprasować tryliony razy, to z matematycznego punktu widzenia dostaniemy zupełnie to samo.

Naukowiec więc sugeruje, że rozszerzanie się kosmosu i wynikła z tego bezbrzeżna, zimna pustka mogą w dalekiej przyszłości przerodzić się w ponowny... Wielki Wybuch. I tak w koło będą przebiegały kolejne cykle, zwieńczone czy też zaczęte Wielkimi Wybuchami, zwane eonami.

To można sprawdzić!

- Zaletą mojej teorii jest to, że można ją potwierdzić albo obalić pewnymi obserwacjami - mówił dwa lata temu "Wyborczej". - Jeśli będziemy analizować promieniowanie mikrofalowe tła, zgodnie z moją teorią powinniśmy w nim zaobserwować pewne sygnały.

Według Penrose'a w mikrofalowym promieniowaniu tła, tym szczątkowym promieniowaniu z niemowlęcego okresu Wszechświata, powinno zapisać się echo wielkich kataklizmów, np. zderzenia galaktyk, które wydarzyły się w poprzednim eonie przed Wielkim Wybuchem. Byłby to ślad fal grawitacyjnych, które rozchodzą się koncentrycznie od miejsca, w którym nastąpił taki kataklizm. W mikrofalowym szumie powinniśmy dostrzec koncentryczne pierścienie, dokładnie takie, jakie teraz znaleźli astrofizycy.

W ubiegły czwartek opowiadał o tym prof. Marek Abramowicz w warszawskim Centrum Nauki "Kopernik" na cotygodniowym wykładzie z cyklu "Drogi do rzeczywistości". Prof. Abramowicz, który kieruje katedrą astrofizyki w Chalmers University of Technology w Göteborgu, przed każdym wykładem krótko relacjonuje, co nowego dzieje się w astrofizyce. Artykuł o znalezieniu kręgów na mikrofalowej mapie nieba uznał za najciekawszą z prac, jakie się ukazały w poprzednim tygodniu na świecie. - Ale wątpię w to, czy jej wnioski są prawdziwe - zaznaczył uczony.

Analizowanie mikrofalowej mapy nieba kryje w sobie pułapkę, o której także wspominają astrofizycy w cytowanej pracy. Mamy tylko jeden Wszechświat i jedną taką mapę. Wszelkie wzory, jakie na niej wykryjemy, mogą być po prostu przypadkiem - statystyczną fluktuacją. I jak na razie nie bardzo wiadomo, jak można rozstrzygnąć, czy kręgi są rzeczywiste, czy tylko statystyczną fatamorganą. Wprawdzie astrofizycy w swojej pracy wyliczają, że prawdopodobieństwo tego, że są one fluktuacją, wynosi mniej niż 5 proc., ale może akurat nasz Wszechświat należy do takich 5-procentowych wyjątków.

Niezależnie od tego, czy to prawda, fascynująca jest wizja, że możemy żyć teraz w jednym z kolejnych eonów, które wiecznie następują po sobie. Historia, jak wiadomo, lubi się powtarzać.


 



Algebra nieprzemienna jako narzędzie do badania świata Plancka
 
Do narzędzi potrzebnych nam do badania niezwykłego świata Plancka należy niewątpliwie nieprzemienna geometria czasoprzestrzeni oraz algebra nieprzemienna.
Wiele działań w matematyce ma własność, zwaną przemiennością.  Jest to własność, z którą tak często się stykamy, od pierwszego kursu elementarnych
rachunków, że nawet nie zwracamy na nią uwagi. Każdy  wie, że 3 razy 7 to to samo, co 7 razy 3. Działanie
mnożenia jest przemienne – zmiana kolejności czynników nie wpływa na wynik działania. W bardziej
skomplikowanych rozważaniach ważną role odgrywają rodziny funkcji. Warto wiec zadać sobie pytanie,
 jak mnoży się
funkcje. Czy jest to też działanie przemienne? Matematycy mówią, że funkcje mnoży się "po punktach", to znaczy
mnoży się ich wartości w każdym punkcie. Chcąc pomnożyć dwie funkcje f i g, określone na pewnej przestrzeni M,
wyliczamy wartość funkcji f w punkcie x przestrzeni M i wartość funkcji g w tym samym punkcie x. W ten sposób
obliczone wartości funkcji f i g są liczbami. Dwie liczby mnożymy przez siebie w zwykły sposób. Czynność tę
powtarzamy dla wszystkich punktów przestrzeni M. Tak zdefiniowane mnożenie funkcji jest oczywiście działaniem
przemiennym (ponieważ sprowadza się ono do mnożenia liczb). Okazuje się, że ta "niegroźnie" na pierwszy rzut oka wyglądająca własność ma daleko idące konsekwencje.
Nowym działem matematyki jest geometria nieprzemienna badająca przestrzenie nieprzemienne.
W świecie kwantów zachodzące zjawiska są nielokalne, możemy mierzyć tylko niektóre parametry. Opiszmy więc te mierzalne wielkości matematycznie i zbudujmy mechanikę kwantową, odwołując
się wyłącznie do lego opisu. Podejście takie propagował Niels Bohr, ale pierwszy urzeczywistnił je Werner
Heisenberg, a potem znacznie rozwinął Paul Dirac. Obiekty matematyczne, za pomocą których opisuje się wielkości
mierzalne (obserwowalne), nazwano obserwablami (obserwablami często nazywa się także same wielkości
mierzalne). Okazało się, że obserwable tworzą algebrę nieprzemienną i że dziwne własności świata kwantów są w
dużej mierze tego następstwem. Dziś wiemy, że matematyczna struktura mechaniki kwantowej to nic innego jak
nieprzemienna algebra obserwabli.
Rozpatrzmy przykład – znane i kiedyś tak mocno dyskutowane relacje nieoznaczoności Heisenberga. Relacja nieoznaczoności Heisenberga, zgodnie z
którą nie można równocześnie i z dowolną dokładnością wyznaczyć położenia i pędu elektronu, jest prostym
następstwem nieprzemienności mnożenia obserwabli. Nieprzemienność leży więc u podstaw "dziwności" mechaniki
kwantowej. Co więcej, okazuje się, że charakterystyczna dla całej mechaniki kwantowej stała Plancka h = 6,22x10^27
erg/ s jest niczym innym, jak tylko miarą tej nieprzemienności. Ponieważ wartość stałej Plancka jest bardzo mała (w
porównaniu ze skalą naszego makroskopowego świata), w fizyce klasycznej nieprzemienności nie widać (jej efekty są
praktycznie niemierzalne), ale w świecie kwantów nieprzemienność stanowi cechę dominującą.
O tym wszystkim wiedziano od dawna, od klasycznych prac Heisenberga i Diraca. Przez długi czas nikomu jednak
nie przyszło do głowy, by na nieprzemienność spojrzeć z geometrycznego punktu widzenia. Uczynił to dopiero
francuski matematyk  Alain Connes. Od jego prac wzięła początek bujnie się dziś rozwijająca geometria
nieprzemienna. Nie byłbym w stanie przeczytać, a co dopiero zrozumieć, jego 600. stronicowej pracy na temat tej niezwykłej geometrii. Muszę poprzestać na jej omówieniu
przez znanych popularyzatorów nauki, jak kosmolog prof. Michał Heller.
Dla matematyków i fizyków teoretyków nie było niespodzianką, że istnieje związek między algebrami
nieprzemiennymi a rodzinami operatorów działającymi na przestrzeni Hilberta. Wiemy już, że to właśnie obserwable w
mechanice kwantowej {czyli operatory działające na przestrzeni Hilberta} dostarczyły jednego z pierwszych i
niewątpliwie najważniejszego przykładu algebry nieprzemiennej. Zasługą Connesa było nie to, że znalazł
reprezentację algebr nieprzemiennych w przestrzeni Hilberta, lecz to, że znalazł reprezentację
właściwą. W jakim sensie właściwą? Pamiętamy, że Connesowi udało się zdefiniować operacje różniczkowania i
całkowania w języku algebr nieprzemiennych. Reprezentacja Connesa  jest
reprezentacją właściwą, ponieważ nie tylko przenosi ona własności algebraiczne z algebry nieprzemiennej na
operatory działające na przestrzeni Hilberta, lecz także własności różniczkowe i całkowe. Dzięki reprezentacji
Connesa wszystkie rachunki związane z geometrią nieprzemienną można wykonywać w dobrze pod tym względem
znanych przestrzeniach Hilberta.
Geometria nieprzemienna zyskała więc mocne podstawy obliczeniowe. Jak zatem zastosować ją do obliczeń w dziwnym świecie Plancka?
W przestrzeniach nieprzemiennych pojęcie punktu jest, do pewnego
stopnia, zastąpione pojęciem stanu. To ostatnie pojęcie ma charakter globalny w tym sensie, że w takim lub innym
stanie znajduje się cała przestrzeń. W fizyce teoretycznej pojęcie stanu odgrywa ważną rolę, ponieważ jest ono ściśle
związane z dynamiką rozważanego układu. Układ podlega dynamice, gdy występuje kolejno w różnych stanach.
Jeżeli w niektórych stanach zachowuje się patologicznie, mówimy, że są to stany osobliwe.
Opis ten możemy przenieść do przestrzeni nieprzemiennych, gdzie – jak już wiemy – pojęcie stanu jest dobrze
określone, choć ma sens ogólniejszy niż w geometrii przemiennej. I co się okazuje? W naszym modelu nie ma różnicy
między stanami osobliwymi i nieosobliwymi. Geometria nieprzemienna nie odróżnia więc stanów osobliwych od
nieosobliwych. Ale nie to jest najważniejsze. Najważniejsze jest, że zarówno stany osobliwe, jak i nieosobliwe jednakowo
dobrze poddają się badaniu metodami geometrii nieprzemiennej.
W świecie Plancka nie ma punktów, nie ma ich otoczenia, czyli nie ma przestrzeni. Nie ma też czasu. Z tego świata wyłania się nasz Wszechświat
i w tym momencie geometria nieprzemienna przechodzi w geometrię przemienną, wyłaniają się przestrzeń i czas. I oto mamy gotową teorię kwantowej grawitacji,
choć wymaga to jeszcze matematycznego potwierdzenia. Dla mnie świat Plancka jest czymś pierwotnym o naturze czysto kwantowej, który ewoluuje poza czasem
wytwarzając świadomość kwantową. Ta z kolei musi przechodzić do stanu ekspozycji, czyli tworzenia realnego świata, choć tak naprawdę owa rzeczywistość jest złudzeniem.
Wszystkie procesy toczą się nadal wewnątrz świata Plancka, a więc są nielokalne i poza czasowe. My jednak widzimy je, jako otaczający nas świat.
I na zakończenie ważny wniosek. Matematyka pozwoliła nam uchylić okna do niezwykłego świata Plancka. To, co tam "widzimy" zaskakuje i poraża.
Nie jest  prawdą to, co głosi wielu filozofów i co intuicyjnie wydaje się nam oczywiste – że brak czasu oznacza
zastój i stagnację. Matematyka bowiem, proponując model bezczasowej dynamiki, zdecydowanie temu przeczy. A matematykę trzeba traktować poważnie.
 Jeżeli ona coś proponuje, jest to przynajmniej niesprzeczne, a więc może
zaistnieć w rzeczywistym świecie. Czy jednak nasz umysł może pojąć czas zależny od stanu i bezczasową dynamikę?
Znajdujemy się w świecie makroskopowym i chcemy dotrzeć do ery Plancka, w której panują nielokalność i bezczasowość.
 Możemy iść w dwu kierunkach. Jeden kierunek to cofanie się w czasie; czyniąc to, osiągamy stany Wszechświata,
 w których gęstość materii jest coraz większa. Gdy gęstość wynosi 10^93 g/cm3, osiągamy próg Plancka.
 Drugi kierunek to kierunek „w głąb”. Sięgamy do coraz mniejszych odległości przestrzennych. Docieramy do progu Plancka, gdy odległości są rzędu 10^-33 cm.
 A zatem era Plancka była kiedyś dawno, „na początku”, ale jest też obecnie, tyle że „bardzo głęboko”.
Lecz era Plancka jest bezczasowa i nielokalna, a więc te dwa kierunki eksploracji po prostu się utożsamiają. W tym sensie można powiedzieć, że „początek jest wszędzie”.

/korzystałem z prac prof. Michała Hellera KOSMOLOGIA KWANTOWA (2001) i POCZĄTEK JEST WSZĘDZIE (2002)



 
 
Wróć do spisu treści | Wróć do menu głównego