Quantenära – oder nur ein neues Schlagwort?
Kaum hat sich die Öffentlichkeit an den Begriff „Künstliche Intelligenz“ gewöhnt, kündigen Feuilletons und Technologiekolumnen bereits die nächste Revolution an: die Quantenära. Quantencomputer, so heißt es, könnten Probleme lösen, die klassische Computer nie bewältigen werden. Manche sprechen sogar von einer technologischen Umwälzung, die noch tiefgreifender sein könnte als die KI.
Doch bei näherem Hinsehen fällt auf: Vieles von dem, was in diesen Texten als Neuigkeit präsentiert wird, ist es eigentlich gar nicht.
Die grundlegenden Ideen der Quantenphysik stammen aus den 1920er Jahren. Begriffe wie Superposition, Verschränkung oder Unschärferelation gehören seit fast einem Jahrhundert zum Fundament der modernen Physik. Auch die Idee des Quantencomputers ist keineswegs neu. Schon in den 1980er Jahren schlug der Physiker Richard Feynman vor, dass man Quantenmechanik möglicherweise am besten mit einer Maschine simulieren kann, die selbst quantenmechanisch funktioniert.
Seitdem hat sich ein ganzes Forschungsfeld entwickelt: die Quanteninformationstheorie. Algorithmen wie der berühmte Faktorisierungsalgorithmus von Peter Shor aus dem Jahr 1994 zeigten erstmals, dass Quantencomputer bei bestimmten mathematischen Problemen theoretisch drastische Geschwindigkeitsvorteile haben könnten. In der Theorie ist das also seit Jahrzehnten bekannt.
Warum wird dann gerade jetzt so viel darüber gesprochen?
Der Grund liegt weniger in der Physik als in der Technologiepolitik. In den letzten Jahren haben große Technologiekonzerne und Staaten begonnen, massiv in Quantentechnologie zu investieren. Unternehmen wie Google, IBM oder IonQ entwickeln experimentelle Quantenprozessoren. China hat bereits vor Jahren einen Quantensatelliten gestartet, und auch in Europa entstehen Programme zur „technologischen Souveränität“ im Bereich Quantentechnologie.
Diese Entwicklungen sind real – doch sie bedeuten nicht, dass der praktische Durchbruch unmittelbar bevorsteht.
Die größten Herausforderungen liegen nämlich nicht in der Theorie, sondern in der Technik. Quantenbits, sogenannte Qubits, sind extrem empfindlich. Schon kleinste Störungen aus der Umgebung können die fragile Quantenzustände zerstören. Dieses Problem nennt man Dekohärenz. Deshalb arbeiten viele Quantencomputer bei Temperaturen nahe dem absoluten Nullpunkt und benötigen aufwendige Fehlerkorrekturverfahren. Der Aufwand, ein System mit wenigen hundert stabilen Qubits zu betreiben, ist heute enorm.
Genau hier zeigt sich ein typisches Muster technologischer Debatten: Während die öffentliche Diskussion gerne über spektakuläre Anwendungen spricht, beschäftigt sich die Forschung vor allem mit sehr nüchternen Fragen – etwa Fehlerraten, Materialphysik oder Skalierungsarchitekturen.
Hinzu kommt ein zweiter Punkt: Selbst wenn leistungsfähige Quantencomputer eines Tages existieren, werden sie klassische Computer nicht ersetzen. Ihre Stärke liegt nur bei bestimmten Problemklassen, etwa bei Optimierungsproblemen oder bei Simulationen komplexer Moleküle und Materialien. Für die meisten alltäglichen Anwendungen bleiben klassische Rechner effizienter.
Das bedeutet nicht, dass Quantentechnologie unwichtig wäre. Im Gegenteil: In Bereichen wie Präzisionssensorik, Kryptographie oder Materialforschung könnte sie tatsächlich eine bedeutende Rolle spielen. Aber der Weg dorthin ist vermutlich länger und komplizierter, als viele populäre Darstellungen suggerieren.
Vielleicht ist genau das die eigentliche Lehre aus der aktuellen Debatte. Technologische Revolutionen entstehen selten über Nacht. Sie sind das Ergebnis jahrzehntelanger Forschung, unzähliger Fehlversuche und einer geduldigen wissenschaftlichen Infrastruktur.
Die Quantenära mag also tatsächlich kommen. Aber vermutlich nicht als plötzlicher Schock – sondern als langsame, stille Transformation im Hintergrund unserer Technologien.
