Articolul urmează evenimentului Poligon Educational din 4 februarie, unde l-am avut invitat pe dr. fiz. Marius Paraschiv și este, în mare măsură, un rezumat al prezentării și discuțiilor. Aflați mai multe despre evenimentele noastre și participați gratuit urmărindu-ne pagina de Facebook sau site-ul.
Teoria cuantică, aplicată fizicii în general și, tot mai des, altor discipline este un exemplu favorit pentru a înțelege fluxul ideilor în științe. Afirmația lui Sir Isaac Newton, care a văzut mai departe decît alții și pentru că s-a sprijinit pe umerii giganților este cît se poate de potrivită în acest context. Trecerea de la teoria clasică, deterministă, la una cuantică, probabilistă este exact tipul de idee asupra căreia putem reflecta profund, întrebîndu-ne Cum ar putea să apară o astfel de schimbare în gîndire și mai ales, în înțelegerea naturii?
Cuantificarea în fizică
Legătura între experiment și teorie, mai ales în ce privește fizica invizibilă direct, căreia îi putem observa doar efectele, nu și cauzele, este, cel puțin în aparență, adesea fracturată. Unii fizicieni sînt mînați de observații inexplicabile în cadrul unor experimente, în timp ce alții își doresc o coerență, un fel de rotunjime a teoriilor.
Începuturile trimit la germanul Max Planck, exact în anul 1900. În urma unor observații pentru care fizica nu avea o explicație, în experimente cu spectre de emisie neașteptate ale atomilor din metale precum filamentele becurilor, Planck formulează teoria îndrăzneață a cuantificării. El propune, prin aceasta, abandonarea continuității la nivel subatomic și vorbește despre atomi cu un comportament raționat, deci fragmentat.
Teoriei cuantice îi urmează o alta, la fel de bizară și bazată pe experimente pentru care fizica momentului nu putea da explicații: dualitatea undă-corpuscul. Particulele care alcătuiesc lumina, fotonii, se pot comporta și asemenea unor corpusculi, precum boabele de piper, și similar undelor, precum cercurile pe care le propagă o piatră aruncată într-un lac. Mai mult, comportamentul dual nu doar că este simultan, ci și inseparabil. Această dualitate a fost formulată în urma experimentului prin care Albert Einstein a evidențiat efectul fotoelectric, în 1905, apoi extinsă îndrăzneț și (aproape) universal de Louis-Victor De Broglie. În 1924, francezul propune ca nu doar fotonilor, ci întregii materii să îi luăm în considerare o lungime de undă și dă chiar o formulă prin care o putem calcula.
Cuantificarea computerelor pentru simularea fizicii
Deloc surprinzător, primii pași spre calculatoare cuantice au venit de la fizicieni. Americanul Richard Feynman publică în 1981 o lucrare cu titlul Simulating Physics with Computers (Simularea fizicii cu computere). Din moment ce naturii nu i se poate neglija comportamentul cuantic, rezultă că orice computer care ar încerca să o reprezinte fidel trebuie să vorbească aceeași limbă—adică să funcționeze pe principii cuantice, spune Feynman, laureat Nobel în 1965, pentru contribuții care au integrat efectele cuantice în studiul particulelor încărcate electric.
Patruzeci de ani mai tîrziu, construcția calculatoarelor cuantice a început, dar este mai curînd în stadiul proof of concept, atît în ce privește noțiunile teoretice care să o fundamenteze, cît și ingineria propriu-zisă.
Principalele obstacole
Dacă ne gîndim că teoria cuantică se referă în primul rînd la particulele subatomice, vom crede că este normal ca un computer a cărei funcționare să o aplice este greu și (foarte) scump de construit. Știrile despre experimentele CERN cu astfel de particule menționează acceleratoare și, în general, dispozitive de o complexitate uriașă, greu de construit și de controlat, departe de familiaritatea pe care am dezvoltat-o față de computerele de acasă, de la birou, din buzunar, de la încheietura mîinii. De exemplu, sistemele cuantice sînt foarte sensibile la mișcare și impurități, motiv pentru care se păstrează în incinte strict controlate. În plus, unele componente necesită o răcire de aproximativ -270 grade Celsius, foarte aproape de limita inferioară absolută, 0 Kelvin.
Deși sînt aproape minuni inginerești, despre a căror funcționare nici nu vom începe să vorbim, mai trebuie înțeles faptul că dificultatea vine, poate în primul rînd, de la complexitatea teoretică, fundamentală, pe care comportamentul cuantic o manifestă. Iar dacă tehnologia avansează dincolo de orice imaginație, cu o viteză mai mare decît multe predicții, alcătuirea subatomică este, probabil, definitivă.
Finalul frazei anterioare este unul relevant, deoarece complexitatea subatomică este guvernată de teoria probabilităților, denumită și calcul stochastic, din grecescul stókhos (στόχος)—țintă, scop, încercare. Austriacul Erwin Schrödinger, laureat Nobel în 1933, a introdus[1] riguros această teorie în studiul comportamentului particulelor. Dualitatea undă-corpuscul despre care am vorbit funcționează în tandem cu unul dintre cele mai cunoscute postulate ale mecanicii cuantice: observarea unui sistem îl forțează să-și schimbe starea, drept care ne este refuzat accesul direct la fenomene subatomice. Astfel, calculul probabilităților ne spune pur și simplu că o stare a unui sistem cuantic se va determina mereu cu o oarecare probabilitate. Certitudinea și determinismul clasic sînt, deci, abandonate. Acest lucru se manifestă chiar la nivelul matematic și logic fundamental la care lucrează un computer: bitul. Dacă un calculator clasic, ca orice dispozitiv digital, stochează, prelucrează și transmite informația binar, adică folosind 0 și 1 (implementate electronic de curenți electrici cu valori controlate precis), calculatorul cuantic funcționează cu qubiți (denumire dată ca un joc de cuvinte între quantum și bit). Aceștia nu reprezintă niciodată cu certitudine starea 0 sau 1, ci doar cu o anume probabilitate: de exemplu, 75% probabil în starea 0 și 25% în starea 1.
Ce ar fi, apoi, un computer în lipsa unui limbaj de programare cu care să-i putem transmite instrucțiuni? Limbajele care pot opera pe calculatoare cuantice sînt în curs de dezvoltare, dar au progresul limitat de raritatea sistemelor hardware pentru testare și, desigur, de comportamentul cuantic însuși. Limbajul Q#, dezvoltat de Microsoft, este un exemplu, iar Qiskit, un pachet de dezvoltare (SDK, Software Development Kit) implementat folosind Python și dezvoltat de IBM, un altul.
Viitorul computațional este cuantic?
Pe scurt și probabilist, cum ar trebui să fie orice răspuns cuantic, nu în totalitate. În 2019, IBM a introdus primul sistem disponibil pentru public, Q System One (în imaginea de mai sus), cu un preț de aproximativ $10,000,000 și care putea folosi 20 de qubiți. În toamna lui 2022, tot IBM a lansat Osprey, cel mai performant calculator cuantic al zilelor noastre, care folosește 433 de qubiți.
Dacă un interval de doar trei ani a condus la un astfel de progres, de ce răspunsul la întrebarea inițială este negativ, totuși? Din punct de vedere ingineresc, ne putem aștepta ca tehnologia să avanseze dincolo de orice granițe ale imaginației. Limitările care rămîn sînt cele teoretice, rezumate în expresia supremație cuantică. Ea vizează o stare potențială de fapte, care este atinsă atunci cînd se demonstrează—teoretic sau practic—că un algoritm implementat pe un calculator cuantic poate rezolva o problemă imposibilă pentru calculatoarele clasice. Imposibilitatea, la rîndul ei, este una teoretică și nu are legătură cu puterea de calcul. Modul de funcționare a computerelor clasice, bazat pe conceptele matematice de automate și mașini Turing impune anumite neajunsuri logice și matematice, imposibil de depășit indiferent de hardware, cum este problema opririi. Despre acestea, însă, într-un alt articol, cu o altă ocazie.
Bibliografie și recomandări de studiu
Întrucît subiectul este unul complicat chiar și pentru cei familiarizați cu fizica modernă și teoria cuantică, am decis să păstrăm referințele la nivel istoric și, pe cît posibil, popular. Două lucrări (foarte) tehnice, totuși, sînt:
M. Nielsen, I. Chuang – Quantum Computation and Quantum Information, CUP, 2000;
W. Scherer – Mathematics of Quantum Computing, Springer, 2019.
Lucrări accesibile, relevante în primul rînd pentru dezvoltarea istorică a subiectului:
Richard P. Feynman – Simulating Physics with Computers, 1981, articol disponibil aici;
O serie de articole ale revistei Quanta, care tratează diverse probleme legate de calculatoare cuantice, algoritmi, limbaje de programare și probleme teoretice specifice;
Secțiunea dedicată calculatoarelor cuantice pe site-ul IBM, precum și planurile de viitor ale companiei în acest domeniu;
Un articol de pe Medium, care conține și bibliografie suplimentară.
Dacă preferați conținutul video, recomandăm:
O prezentare a calculatoarelor cuantice, pornind de la principiile specifice de fizică de la Quanta;
O prezentare similară, de la IBM;
O expertă prezintă conceptul în 5 grade de dificultate, în cadrul seriei 5 Levels, a revistei Wired.
[1] Originea multor idei, teorii și experimente care au alcătuit revoluția cuantică din primele decenii ale secolului XX este greu de atribuit individual. Circulația ideilor științifice și diversitatea echipelor de cercetare, atît experimentală, cît și teoretică a făcut ca mulți fizicieni să continue sau să modifice mai mult sau mai puțin semnificativ rezultatele unor colaboratori sau contemporani. Astfel, se putea trata încă un caz particular pe care o anume teorie nu îl avea în atenție.