Google berichtete im Oktober 2019, dass der Quantencomputer „Sycamore“ für eine Berechnung lediglich 200 Sekunden benötigt habe, die auf den aktuell schnellsten Supercomputern 10.000 Jahre gedauert hätte. Zwar war es eine Rechenaufgabe, die speziell auf diesen Quantencomputer zugeschnitten war – trotzdem hält der Quantenspezialist Prof. Dr. Will Oliver vom Massachusetts Institute of Technology das Ergebnis für genauso bedeutsam wie den Erstflug der Gebrüder Wright für die Luftfahrt. Zur Erinnerung: Am 17. Dezember 1903 flog Orville Wright mit einer Propellermaschine 37 Meter weit und der Flug dauerte 12 Sekunden. Das beschreibt im Vergleich auch die Leistung aktueller Quantencomputer. Es ist bewiesen, dass sie für spezielle Aufgaben geeignet sind. Im Moment ist das aber nur ein Anfang. Denn wie nach dem Erstflug der Gebrüder Wright ist nun mit einer verstärkten Entwicklungsdynamik zu rechnen. Es dauerte beispielsweise nur sechs Jahre, bis es Louis Blériot am 25. Juli 1909 gelang, mit einem Flugzeug den Ärmelkanal zu überqueren. Dieser Erfolg war die Basis für die Gründung kommerzieller Flugzeughersteller. So rechnet die Boston Consulting Group bis 2030 mit einem Quantencomputer-Markt mit einem Volumen von mehr als 50 Milliarden Dollar.
Bizarres Funktionsprinzip der Gleichzeitigkeit
Das Funktionsprinzip von Quantencomputern klingt bizarr und entspricht in keiner Weise unseren Alltagserfahrungen. Während bei herkömmlichen, digitalen Computern die Informationseinheiten (Bits) den Wert 0 oder 1 haben, basieren die Berechnungen eines Quantencomputers auf den Prinzipien der Quantenmechanik. Hier kann ein Quantenbit, auch verkürzt Qubit genannt, gleichzeitig den Wert 0 und 1 annehmen (Superpositionsprinzip). Diese Gleichzeitigkeit der Zustände eröffnet die Möglichkeiten des Quantenparallelismus. „Vereinfacht gesagt, erlauben die Qubits auf diese Weise, eine Rechnung für mehrere Zustände gleichzeitig durchzuführen, während klassische Bits die Rechnungen hintereinander durchführen müssen“, erläutert Andreas Fuhrer, Research Scientist bei IBM. Quantencomputer können demnach große Datenmengen je nach Aufgabe wesentlich schneller verarbeiten als klassische Rechner. Für die praktische Nutzung von Quantencomputern sind allerdings große Herausforderungen zu bewältigen.
Die Prozesse in einem Quantencomputer reagieren extrem empfindlich auf äußere Einflüsse. Bereits kleinste Veränderungen bei Temperaturen, Schwingungen, mechanischen Bewegungen oder Strahlungen beeinflussen die Qubits. Deshalb müssen für die optimale Rechenleistung die Quantencomputer in die Nähe des absoluten Nullpunkts auf Temperaturen von minus 273 Grad Celsius heruntergekühlt werden. Zudem ist der Zustand der Superposition sehr labil: Bisher ist es extrem aufwendig, die Qubits im Zustand von gleichzeitig 0 und 1, also der Superposition, zu halten, denn der Effekt der beiden gleichzeitigen Grundzustände (Dekohärenz) verschwindet nach nur etwa 100 Millisekunden.
Die dritte Herausforderung stellt die Fehleranfälligkeit dar. Für eine größere Rechenleistung ist eine wesentlich größere Anzahl von Qubits erforderlich. Das Problem: Durch die fragile Superposition steigt mit der Anzahl der Qubits auch die Fehleranfälligkeit. Sie nimmt mit der Anzahl der Qubits exponentiell zu. Deshalb entwickeln Forscher nun eine Quanten-Fehlerkorrektur, die aber mit einem Folgeproblem zu kämpfen hat: Das Verhältnis von physischen Qubits, die für die Kontrolle und Korrektur erforderlich sind, zu den Qubits, die die eigentliche Arbeit verrichten, kann dreitausend zu eins betragen. David Divincenzo, Institutsleiter am Forschungszentrum Jülich, hält es für gut möglich, dass wir innerhalb der nächsten Jahre einen Quantencomputer mit 200 Qubits sehen werden: „Sollte es gelingen, die Fehlerraten gering zu halten und außerdem effektive Algorithmen für solche Maschinen zu entwickeln, könnte er für manche Anwendungen durchaus einen Nutzen bringen. Allerdings würde ein richtiger, großer Quantencomputer, von dem man letztlich träumt, Millionen von Qubits besitzen müssen. Und davon sind wir noch weit entfernt.“
Weltweites Wettrennen um den Quantencomputer
Die Boston Consulting Group geht in einer Studie davon aus, dass sich das Quantencomputing über drei Generationen in den nächsten 25 Jahren zur Reife entwickeln wird (siehe Kasten). Dennoch sei es für Unternehmen möglich, Maschinen früherer Generationen einzusetzen, um mit ihnen den praktischen Geschäfts-, Forschungs- und Entwicklungsbedarf zu decken.
Prof. Dr. Frank Wilhelm-Mauch, Professor für Quanten- und Festkörpertheorie an der Universität des Saarlandes, benennt in einer Anhörung im deutschen Bundestag die führende Rolle von US-Unternehmen wie IBM, Google, Rigetti und IonQ im Bereich der Weiterentwicklung des Quantencomputings. Auch Intel und Microsoft zeigen sich innovativ: Intel hat demnach Chips für Quantencomputer vorgestellt und Microsoft betreibt mehrere einschlägige Forschungsinstitute. Eine Sonderrolle nimmt das Quantencomputing der kanadischen Firma D-Wave Systems ein, bei deren Ansatz zur Lösung von Optimierungsproblemen die apparativen Anforderungen geringer sind als bei konventionellen Quantencomputern.
Außer den USA sieht Wilhelm-Mauch auch China als Innovationstreiber. „Die Position Chinas ist durch die Heterogenität der Forschungslandschaft und aktuell sehr große Investitionen geprägt, die vor allen Dingen den Schritt von der grundlegenden zur angewandten Forschung beflügeln“, so der Experte. Aber auch Deutschland und Europa leisten entscheidende Beiträge zu den Grundlagen des Quantencomputings. So wurde zum Beispiel die erste Theorie eines supraleitenden Quantencomputers am Karlsruher Institut für Technologie entwickelt. Aber ebenso wie in China geht auch in den USA der Übergang von der Grundlagenforschung zur angewandten Forschung schneller als in Europa. Noch aber sei der augenblickliche Vorsprung der Amerikaner angesichts der Größe der Herausforderungen aufholbar, so Wilhelm-Mauch, der das Projekt „OpenSuperQ“ koordiniert. Dieses EU-Projekt zielt darauf ab, einen funktionsfähigen Quantencomputer mit 100 Qubits zu bauen, der auf supraleitenden Schaltkreisen basiert und dessen Betriebssystem eine Open-Source-Software sein soll, die somit jedem zur Bearbeitung offensteht.
In Deutschland existieren zahlreiche weitere Projekte, wie das auf die Grundlagen von Quantencomputing fokussierte Exzellenzcluster „ML4Q“ der Universitäten Köln und Bonn, der RWTH in Aachen und dem Forschungszentrum Jülich. Darüber hinaus befinden sich führende Arbeitsgruppen für Theorie und Software am Max-Planck-Institut für Quantenoptik und der FU Berlin. Außerdem kooperiert die Fraunhofer-Gesellschaft mit IBM. Der US-Konzern will in Bayern den „IBM Q System One“ aufbauen, den nach eigenen Angaben ersten kommerziell nutzbaren Quantencomputer. Der auf der Elektronikmesse CES 2019 in Las Vegas vorgestellte 20-Qubit-Rechner könnte in Deutschland 2021 den Betrieb aufnehmen. Dabei soll die Fraunhofer-Gesellschaft die Anwendungsorientierung gerade auch für mittelständische Unternehmen vorantreiben, und das unter vollständiger Datenhoheit nach europäischem Recht.
Spezialaufgaben für riesige Datenmengen
Quantencomputer werden herkömmliche Computersysteme nicht ersetzen. Sie sind für besonders rechenintensive Aufgaben prädestiniert, wie für Simulationen sehr großer Datenmengen etwa in der Chemie (Materialdesign), zur Modellierung physikalischer Systeme, in der Kryptographie oder zur Beschleunigung des maschinellen Lernens. Laut Forschungsministerium gibt es zahlreiche Anwendungsbeispiele, die bereits ein starkes Interesse der Industrie erkennen lassen, unter anderem aus der Raumfahrt oder der Sicherheitsforschung: „Genutzt werden die Quantenkommunikation für eine sichere Informationsübertragung durch Quantenschlüsselverteilung und die Quantensensorik für satellitengestützte Erdbeobachtung, Exploration und Navigation mit Gravimetern und Atomuhren (Airbus, OHB, SpaceTech usw.). Industrieunternehmen wie Bosch, Siemens, TRUMPF, Volkswagen und andere sind vor allem an der Optimierung von Prozessen über Quanten-Annealing interessiert. Der Einsatz von Quanteninformationssystemen zum Beispiel in der Luftfahrt birgt enormes Potenzial für die Optimierung der Flugrouten im stark ausgelasteten transatlantischen Luftraum unter Berücksichtigung windoptimierter Trajektorien.“
Auch die Boston Consulting Group sieht das größte Potenzial für den Einsatz der Quantencomputer in materialwissenschaftlich intensiven Industrien wie etwa der Arzneimittel- und der chemischen Industrie. „Selbst die größten Supercomputer haben Mühe, alles andere als die einfachste Chemie zu modellieren“, erläutert Cornelius Hempel, Co-Autor einer im Fachjournal „Physical Review X“ publizierten Studie zur Modellierung chemischer Bindungen und Reaktionen. Und auch Volkswagen sieht die Chancen des Quantencomputings in besonders rechenintensiven Aufgaben: In einer bereits 2017 veröffentlichten Studie hat der Konzern anhand eines D-Wave-Rechners untersucht, wie sich der Verkehrsfluss in einer Großstadt mithilfe eines Quantenrechners optimieren lässt.
Martin Ortgies ist Fachjournalist mit der Spezialisierung auf komplexe technische Themen aus den Bereichen Automation, Elektrotechnik, Elektronik, Logistik und IT.