10 wertvolle Tipps in diesem Whitepaper helfen Ihnen dabei, die User Experience Ihres Online-Shops strukturiert und Daten getrieben zu verbessern, Conversions zu optimieren und den Umsatz zu steigern.
Jetzt kostenlos downloaden
Unser Video zeigt, wie Sie auf iBusiness mit Webinaren und Virtuellen Konferenzen schnell, einfach und preiswert zahlreiche hochkarätige B2B-Leads für Ihren Vertrieb generieren können.
Video abrufen

iBusiness Executive Summary

Zum Inhaltsverzeichnis

Abruf exklusiv für Premium-Mitglieder

Wie Quantencomputing die Regeln der Digitalisierung neu definiert

14.01.2021 Herkömmliche Computer werden immer leistungsfähiger, doch das Wachstum stößt bald an physikalische Grenzen. Die nächste Evolutionsstufe könnte Quantencomputing sein. Wie wird das die IT-Welt verändern?

von Otto Geißler

Diesen Artikel weiterlesen?

Für Ihre Registrierung erhalten Sie ein Kontingent von fünf kostenfreien Abrufen für Premium-Analysen. Jeden Kalendermonat erhalten Sie zudem einen weiteren kostenfreien Abruf. Wenn Sie noch keinen Account bei uns haben: Einfach kostenfrei registrieren.

Jetzt registrieren!
Trackbacks / Kommentare / Bookmarks
Von: Ulf Froitzheim Zu: Wie Quantencomputing die Regeln der Digitalisierung neu definiert 14.01.2021
Vielleicht liegt es daran, dass Kollege Geißler Betriebswirt ist und nicht Physiker, jedenfalls begreife ich seine Erklärungen der quantenphysikalischen Vorgänge nicht. Vermutlich geht es anderen Lesern ähnlich. Beispiel: Warum sollen Kalkulationen simultan und schneller als beim binären Von-Neumann-Rechner ablaufen können, wenn das Bit nicht nur zwei Zustände darstellen kann? Entscheidend bei jedem IT-System sind ja das I/O und die Software. Je schneller und komplexer der eigentliche Prozessor ist, desto anspruchsvoller wird doch dessen Datenaustausch mit dem Arbeitsspeicher (selbst wenn alles in-memory verarbeitet wird). Dabei scheint aber Quantentechnik nicht zu helfen. Der Bottleneck wird demnach nur noch enger. Ich erinnere mich noch, wie schwer es war, Programme, die für lineare Rechner ausgelegt waren, sinnvoll bzw. effizient zu parellelisieren, als in den 90ern die Massiv-parallelen Systeme wie Thinking Machines, Parsytec, nCube etc. aufkamen. Heute löst man die Probleme nicht ? leicht polemisch gesagt ? mit 64000 schwachen, sondern mit acht starken Prozessoren.
Die praktischen Anwendungsbeispiele sind dementsprechend höchst hypothetischer Natur und für mich, so weit ich mitreden kann, nicht plausibel. Für personalisierte Medizin in der beschriebenen Form gibt es kein Geschäftsmodell, ja nicht mal Grundlagenforschung, die derart hohe Erwartungen rechtfertigen würde. Auch chaotischen Systemen wie dem Wettergeschehen und daraus abgeleitet dem Klimawandel wird man doch nicht dadurch besser Herr, dass man andere Prozessoren einsetzt, sondern dass man mehr Input bewältigen kann und Modelle hat, um diese Daten in Relation zu setzen und Wirkzusammenhänge zu erkennen. Gerade beim Klima müssen wir heute mit dem arbeiten, was wir wissen und können. Wenn wir abwarten, bis 2035 oder 2050 ganz tolle Quantencomputer auf dem Markt sind, helfen diese nicht mehr, weil es längst zu spät ist.
Ich warne also vor verfrühter Euphorie. Kann gut sein, dass nichts von den Visionen der Quantenleute jemals in der Realität ankommt. Das könnte so was werden wie der Kühlschrank, der ungefragt Milch bestellt: purer Medienhype.