Bits und Bytes lassen sich noch relativ leicht erklären. Bei Qubits, Verschränkung, Interferenz und Superposition wird es schon komplexer. Worin aber besteht nun tatsächlich der Unterschied zwischen einem klassischen Rechner und einem Quantencomputer? Und wo hat der Quantencomputer dabei die Nase vorn? Wagen wir einen schnellen Blick hinter die Kulissen für Einsteiger.
Ein Computer ist eine Zustandsänderungs-Maschine
Genau das passiert, wenn man eine einfache Rechenoperation von einem Computer durchführen lässt: Eine Änderung von einem Input- zu einem Output-Zustand. Dazwischen passiert die Magie. Aber wie genau? Wer weiß schon, was im Smartphone tatsächlich passiert? Mehr Rechenleistung als die Apollo-Astronauten damals zur Verfügung hatten, das ist bekannt, aber im Detail? Wie so oft begann es mit einer simplen Idee. Man könnte doch jede beliebige Zahl als eine Reihe von 0 und 1 darstellen – statt dem Dezimal-System im Binärsystem. Das allein könnte einen Blog-Beitrag füllen, aber finden wir uns mal damit ab, dass es möglich ist. Eine beispielhafte Zahl – sagen wir die 5 würde binär so aussehen: 00000101. Stellen wir uns nun vor, dass jede Stelle durch einen Schalter repräsentiert würde. In unserem Beispiel sind also grad mal zwei Schalter auf „ein“ geschaltet, der Rest ist auf „aus“ – und wir haben die Beschreibung eines Zustands. Bringt man Operanden ins Spiel lässt es sich damit hervorragend rechnen.
Von der Röhre zum Transistor, vom Bit zum Qubit
Ein großer und wichtiger Treiber der Entwicklung war und ist die Miniaturisierung der kleinsten Recheneinheiten – den Schalter-Elementen. Die ersten Computer füllten Hallen, waren stromintensiv und heiß – die Schalter waren mit Röhren realisiert. Strom fließt oder fließt nicht – hier finden wir das binäre Prinzip wieder. Mit der Entwicklung von Halbleitern war der Weg frei, für den Transistor – eine elektronische Schalteinheit, mit der heute noch der klassische Computer arbeitet – dem allseits bekannten Bit als Speicher-Einheit. Nun kann die Verkleinerung nur bis zu einer gewissen Größenordnung umgesetzt werden, die Grenze gibt erstaunlicherweise die Quantenphysik vor. Wird ein Transistorlayout zu klein, werden Quanteneffekte relevant und in den Schaltkreisen (genauer: den Gattern) treten Fehler auf, die falsche Ergebnisse zur Folge haben. Noch gilt Moores Law, das eine Verdopplung der Transistoren auf einem Chip alle 2 Jahre vorhersagt – aber wie lange noch ist schwer zu sagen. Jedenfalls gibt es eine Ober – bzw. aus technischer Sicht eine Untergrenze der Miniaturisierung – und es kann sein, dass diese bereits fast ausgereizt ist.
Die Quantenwelt und ihre Prinzipien
Unsere Welt im Kleinsten wird sehr erfolgreich durch die Quantenphysik beschrieben. Dabei kann das Verhalten von Teilchen – etwa der radioaktive Zerfall eines Isotops – statistisch vorausgesagt werden. Wie sich ein einzelnes Teilchen verhält, wenn es gemessen wird, ist aber dem Zufall unterworfen. Ein interessantes quantenphysikalisches Konzept ist die Superposition: Teilchen können sich in einem Zustand der Überlagerung befinden, also in einem Zustand der gleichzeitig 0 und 1 ist – erst bei der Messung „entscheidet“ sich das Teilchen für einen Wert. Genau dieses schräge Phänomen macht man sich beim Bau eines Quantencomputers zu Nutze, denn dadurch lassen sich Rechenoperationen auf mehreren Zuständen gleichzeitig ausführen. Die parallel errechneten Ergebnisse existieren dann in der Quantenwelt, werden aber beim Messen der Qubits auf einen einzigen Zustand reduziert. Um trotzdem einen Vorteil aus dieser parallelen Berechnung ziehen zu können, kommen zwei weitere quantenmechanische Effekte ins Spiel: Verschränkung und Interferenz. Bei Verschränkung verändert sich der Zustand eines Teilchens durch Messung eines mit ihm verschränkten Teilchens. Interferenz führt zum gegenseitigen Auslöschen bzw. Verstärken zweier Zustände – dadurch können beim Quantum Computing falsche Lösungen zum Verschwinden gebracht werden. Auf dem geschickten Ausnützen dieser drei Prinzipien basiert das geniale Konzept dieser neuen Computer-Kategorie.
Quantenmechanischen Effekte für spezielle Algorithmen
Schafft es also der erhoffte Quanten-Vorteil Rechnungen möglich zu machen, die mit klassischen Rechnern nicht möglich sind? Ja – für spezielle Anwendungen. Als konkretes Beispiel sei hier die RSA-Verschlüsselung, die Basis für sichere Bank-Transaktionen, digitale Signaturen, E-Mails, RFIDs, etc., genannt. Diese basiert auf der Faktorisierung von Primzahlen: Eine 4096-Bit Zahl lässt sich auch mit dem schnellsten derzeitigen Supercomputer in Millionen von Jahren nicht faktorisieren, mit Shor’s Algorithmus auf einem Quantencomputer (mit einer Gatter-Geschwindigkeit von 10 ns und mit genügend Qubits) wäre die Lösung aber in weniger als ein paar Stunden möglich., d.h. mit einem Quantencomputer könnte man RSA knacken. Noch ist dies mit der aktuell verfügbaren Quantenhardware nicht möglich.
Verwirrend und nicht intuitiv – aber so funktioniert unsere Welt nun mal.
„Wer glaubt, die Quantentheorie verstanden zu haben, hat sie nicht verstanden.“ verkündete einst Richard Feynmann, einer der Superstars der Physikszene – und er hat damit recht, denn Quantenphysik entzieht sich unserer Alltags-Wahrnehmung. Weder können Menschen spontan durch Wände durchtunneln noch sich an zwei Stellen gleichzeitig aufhalten. Kleinste Teilchen schaffen diese Kunststücke – wir wissen nicht warum, aber wir können dieses Verhalten zu unserem Vorteil nützen – und dabei erstaunliche Computer schaffen.
Anwendungen aus Industrie und Wirtschaft
Grundlagenforschung im Quantum Computing und konkrete Anwendungen zu verbinden, einen Brückenschlag herzustellen von der Forschung zur Anwendung – das ist unser Ziel bei Math.Tec. Konkret forschen und entwickeln wir an geeigneten Optimierungsalgorithmen in der Logistik. Wie sagte der Gründer von Ikea, Ingvar Kamprad: „Das meiste ist noch nicht getan. Wunderbare Zukunft.“
Sehen wir genau so.