Skip to main content

Warum wir uns technologisch und strategisch neu orientieren müssen

Die Quantentechnologie vollzieht gegenwärtig den entscheidenden Schritt von der theoretischen Physik hin zur industriellen Applikation und markiert damit eine der signifikantesten Zäsuren in der Geschichte der technologischen Entwicklung. Während wir uns lange an die stetige Leistungssteigerung der klassischen Informatik gewöhnt haben, signalisiert das Aufkommen der Quantenrechner nun das Ende der klassischen Skalierung nach Moore’s Law, da die herkömmliche Miniaturisierung von Transistoren an atomare physikalische Grenzen stößt. Im Gegensatz zur klassischen Welt, deren Basis auf deterministischen, binären Zuständen beruht, instrumentalisiert das Quantencomputing quantenmechanische Phänomene wie Superposition und Verschränkung. Diese physikalischen Prinzipien erlauben es sogenannten Qubits, komplexe Zustände simultan anzunehmen, was bei spezifischen Problemklassen zu einer exponentiellen Steigerung der Rechenleistung führt.

Hybride Architekturen und ökonomisches Potenzial

Ganz im Sinne Richard Feynmans Postulat, dass die Simulation physikalischer Systeme quantenmechanische Rechner erfordert, entstehen derzeit hybride Architekturen, in denen klassische Hochleistungsrechner die Vorprozessierung übernehmen, während Quantenprozessoren (QPUs) hochspezialisierte Subroutinen berechnen. Diese fundamentale Verschiebung der technologischen Basis impliziert weitreichende Konsequenzen für globale Wirtschaftsstrukturen, wobei führende Strategieberatungen wie McKinsey und die Boston Consulting Group die potentielle Wertschöpfung auf über eine Billion US-Dollar bis zum Jahr 2035 beziffern. Besonders evident wird dieses Potenzial in der pharmazeutischen und chemischen Industrie, wo durch die präzise Simulation molekularer Interaktionen die kostenintensive Entwicklung neuer Medikamente oder Materialien drastisch beschleunigt werden könnte. Doch die Anwendungsmöglichkeiten gehen weit darüber hinaus: Da klassische Rechner bei kombinatorischen Optimierungsproblemen schnell an Leistungsgrenzen stoßen, verspricht das Quantencomputing signifikante Effizienzgewinne bei der Routenplanung und Lieferkettenoptimierung, während der Finanzsektor die Technologie bereits für Risikoanalysen mittels effizienterer Monte-Carlo-Simulationen integriert.

Disruptive Risiken und neue Kryptografie

Allerdings bringt diese enorme Rechenkraft auch disruptive Risiken mit sich, wobei die wohl unmittelbarste Auswirkung die Datensicherheit betrifft. Da etablierte Verschlüsselungsverfahren wie RSA auf der Faktorisierung großer Zahlen basieren, ein Problem, das Quantencomputer theoretisch in kürzester Zeit lösen können, etabliert sich als Reaktion darauf die Post-Quantum-Kryptografie (PQC) sowie physikalisch basierte Verfahren wie die Quantenschlüsselverteilung. Um diese Potenziale und Risiken zu managen, müssen Unternehmen jedoch keine eigene Hardware im Keller installieren.

Disruptive Risiken und neue Kryptografie

Allerdings bringt diese enorme Rechenkraft auch disruptive Risiken mit sich, wobei die wohl unmittelbarste Auswirkung die Datensicherheit betrifft. Da etablierte Verschlüsselungsverfahren wie RSA auf der Faktorisierung großer Zahlen basieren, ein Problem, das Quantencomputer theoretisch in kürzester Zeit lösen können, etabliert sich als Reaktion darauf die Post-Quantum-Kryptografie (PQC) sowie physikalisch basierte Verfahren wie die Quantenschlüsselverteilung. Um diese Potenziale und Risiken zu managen, müssen Unternehmen jedoch keine eigene Hardware im Keller installieren.Ein wesentlicher Treiber für die industrielle Adaption ist das Geschäftsmodell „Quantum-as-a-Service“ (QaaS), bei dem Hyperscaler wie AWS oder Google Quantenkapazitäten über Cloud-Plattformen schon bereitstellen und so die Eintrittsbarrieren erheblich senken wollen. Gleichzeitig ist es für Unternehmen in der EU wichtig, daß diese Angebote auch über digital souveräne Cloud-Lösungen angeboten werden können.

Forschungsökosystem und strategische Implikationen

Obwohl wir uns gegenwärtig noch in der sogenannten NISQ-Ära befinden, in der Prozessoren fehleranfällig sind und sich der Fokus der Forschung zunehmend von der reinen Quantität der Qubits hin zu deren Qualität und Fehlerkorrektur verschiebt, wächst das Marktökosystem rasant. Technologisch ist das Rennen noch offen, geprägt durch eine Dichotomie von US-Konzernen, die massive Ressourcen in Hardware wie supraleitende Qubits investieren, und europäischen Start-ups sowie Universitäten, die sich erfolgreich in Nischen positionieren. Institutionen wie die ETH Zürich, das MIT, die Universität Stuttgart oder beispielsweise die TU München bilden dabei das Rückgrat der Forschung und fungieren als Keimzellen für Spin-offs, die akademisches Wissen in marktfähige Produkte transferieren.Es lässt sich konstatieren, dass Quantentechnologie keine temporäre Erscheinung, sondern eine Basistechnologie des 21. Jahrhunderts darstellt, woraus für Unternehmen die strategische Notwendigkeit erwächst, frühzeitig „Quanten-Readiness“ aufzubauen, um in dieser neu definierten Wettbewerbslandschaft bestehen zu können.

15 11 26 | Autor:in: Prof. Dr. Stefan Hencke, CEO Convensis | © 2026 CONVENSIS GmbH

Warum wir uns technologisch und strategisch neu orientieren müssen

Die Quantentechnologie vollzieht gegenwärtig den entscheidenden Schritt von der theoretischen Physik hin zur industriellen Applikation und markiert damit eine der signifikantesten Zäsuren in der Geschichte der technologischen Entwicklung. Während wir uns lange an die stetige Leistungssteigerung der klassischen Informatik gewöhnt haben, signalisiert das Aufkommen der Quantenrechner nun das Ende der klassischen Skalierung nach Moore’s Law, da die herkömmliche Miniaturisierung von Transistoren an atomare physikalische Grenzen stößt. Im Gegensatz zur klassischen Welt, deren Basis auf deterministischen, binären Zuständen beruht, instrumentalisiert das Quantencomputing quantenmechanische Phänomene wie Superposition und Verschränkung. Diese physikalischen Prinzipien erlauben es sogenannten Qubits, komplexe Zustände simultan anzunehmen, was bei spezifischen Problemklassen zu einer exponentiellen Steigerung der Rechenleistung führt.

Hybride Architekturen und ökonomisches Potenzial

Ganz im Sinne Richard Feynmans Postulat, dass die Simulation physikalischer Systeme quantenmechanische Rechner erfordert, entstehen derzeit hybride Architekturen, in denen klassische Hochleistungsrechner die Vorprozessierung übernehmen, während Quantenprozessoren (QPUs) hochspezialisierte Subroutinen berechnen. Diese fundamentale Verschiebung der technologischen Basis impliziert weitreichende Konsequenzen für globale Wirtschaftsstrukturen, wobei führende Strategieberatungen wie McKinsey und die Boston Consulting Group die potentielle Wertschöpfung auf über eine Billion US-Dollar bis zum Jahr 2035 beziffern. Besonders evident wird dieses Potenzial in der pharmazeutischen und chemischen Industrie, wo durch die präzise Simulation molekularer Interaktionen die kostenintensive Entwicklung neuer Medikamente oder Materialien drastisch beschleunigt werden könnte. Doch die Anwendungsmöglichkeiten gehen weit darüber hinaus: Da klassische Rechner bei kombinatorischen Optimierungsproblemen schnell an Leistungsgrenzen stoßen, verspricht das Quantencomputing signifikante Effizienzgewinne bei der Routenplanung und Lieferkettenoptimierung, während der Finanzsektor die Technologie bereits für Risikoanalysen mittels effizienterer Monte-Carlo-Simulationen integriert.

Disruptive Risiken und neue Kryptografie

Allerdings bringt diese enorme Rechenkraft auch disruptive Risiken mit sich, wobei die wohl unmittelbarste Auswirkung die Datensicherheit betrifft. Da etablierte Verschlüsselungsverfahren wie RSA auf der Faktorisierung großer Zahlen basieren, ein Problem, das Quantencomputer theoretisch in kürzester Zeit lösen können, etabliert sich als Reaktion darauf die Post-Quantum-Kryptografie (PQC) sowie physikalisch basierte Verfahren wie die Quantenschlüsselverteilung. Um diese Potenziale und Risiken zu managen, müssen Unternehmen jedoch keine eigene Hardware im Keller installieren.Ein wesentlicher Treiber für die industrielle Adaption ist das Geschäftsmodell „Quantum-as-a-Service“ (QaaS), bei dem Hyperscaler wie AWS oder Google Quantenkapazitäten über Cloud-Plattformen schon bereitstellen und so die Eintrittsbarrieren erheblich senken wollen. Gleichzeitig ist es für Unternehmen in der EU wichtig, daß diese Angebote auch über digital souveräne Cloud-Lösungen angeboten werden können.

Forschungsökosystem und strategische Implikationen

Obwohl wir uns gegenwärtig noch in der sogenannten NISQ-Ära befinden, in der Prozessoren fehleranfällig sind und sich der Fokus der Forschung zunehmend von der reinen Quantität der Qubits hin zu deren Qualität und Fehlerkorrektur verschiebt, wächst das Marktökosystem rasant. Technologisch ist das Rennen noch offen, geprägt durch eine Dichotomie von US-Konzernen, die massive Ressourcen in Hardware wie supraleitende Qubits investieren, und europäischen Start-ups sowie Universitäten, die sich erfolgreich in Nischen positionieren. Institutionen wie die ETH Zürich, das MIT, die Universität Stuttgart oder beispielsweise die TU München bilden dabei das Rückgrat der Forschung und fungieren als Keimzellen für Spin-offs, die akademisches Wissen in marktfähige Produkte transferieren.Es lässt sich konstatieren, dass Quantentechnologie keine temporäre Erscheinung, sondern eine Basistechnologie des 21. Jahrhunderts darstellt, woraus für Unternehmen die strategische Notwendigkeit erwächst, frühzeitig „Quanten-Readiness“ aufzubauen, um in dieser neu definierten Wettbewerbslandschaft bestehen zu können.

15 11 26Autor:in: Prof. Dr. Stefan Hencke, CEO Convensis © 2026 CONVENSIS GmbH