Bitte aktivieren Sie Javascript in ihrem Browser um alle Vorteile von iBusiness nutzen zu können.
Je besser die Informationsbedürfnisse des Kunden bedient werden, desto höher steigen die Chancen auf neue Leads und somit mehr Umsatz. Erfahren Sie in diesem Webinar u.a. wie Sie die Customer Experience im Sinne der Kundenerfahrungen gestalten.
Jetzt kostenlos anmelden
Unser Video zeigt, wie Sie auf iBusiness mit Webinaren und Virtuellen Konferenzen schnell, einfach und preiswert zahlreiche hochkarätige B2B-Leads für Ihren Vertrieb generieren können.
Video abrufen
Wie Quantencomputing die Regeln der Digitalisierung neu definiert
Bild: geralt / pixabay.com

Diesen Artikel weiterlesen?

Für Ihre Registrierung erhalten Sie ein Kontingent von fünf kostenfreien Abrufen für Premium-Analysen. Jeden Kalendermonat erhalten Sie zudem einen weiteren kostenfreien Abruf. Wenn Sie noch keinen Account bei uns haben: Einfach kostenfrei registrieren.

Jetzt registrieren!
Anzeige

Ausgewählte Agenturen und Dienstleister zu diesem Themenbereich:

In diesem Beitrag genannt:

Personen:
Firmen / Sites:
kein Bild hochgeladen
Von: Ulf Froitzheim ,  UJF.biz
Am: 14.01.2021

Zu: Wie Quantencomputing die Regeln der Digitalisierung neu definiert

Vielleicht liegt es daran, dass Kollege Geißler Betriebswirt ist und nicht Physiker, jedenfalls begreife ich seine Erklärungen der quantenphysikalischen Vorgänge nicht. Vermutlich geht es anderen Lesern ähnlich. Beispiel: Warum sollen Kalkulationen simultan und schneller als beim binären Von-Neumann-Rechner ablaufen können, wenn das Bit nicht nur zwei Zustände darstellen kann? Entscheidend bei jedem IT-System sind ja das I/O und die Software. Je schneller und komplexer der eigentliche Prozessor ist, desto anspruchsvoller wird doch dessen Datenaustausch mit dem Arbeitsspeicher (selbst wenn alles in-memory verarbeitet wird). Dabei scheint aber Quantentechnik nicht zu helfen. Der Bottleneck wird demnach nur noch enger. Ich erinnere mich noch, wie schwer es war, Programme, die für lineare Rechner ausgelegt waren, sinnvoll bzw. effizient zu parellelisieren, als in den 90ern die Massiv-parallelen Systeme wie Thinking Machines, Parsytec, nCube etc. aufkamen. Heute löst man die Probleme nicht ? leicht polemisch gesagt ? mit 64000 schwachen, sondern mit acht starken Prozessoren.
Die praktischen Anwendungsbeispiele sind dementsprechend höchst hypothetischer Natur und für mich, so weit ich mitreden kann, nicht plausibel. Für personalisierte Medizin in der beschriebenen Form gibt es kein Geschäftsmodell, ja nicht mal Grundlagenforschung, die derart hohe Erwartungen rechtfertigen würde. Auch chaotischen Systemen wie dem Wettergeschehen und daraus abgeleitet dem Klimawandel wird man doch nicht dadurch besser Herr, dass man andere Prozessoren einsetzt, sondern dass man mehr Input bewältigen kann und Modelle hat, um diese Daten in Relation zu setzen und Wirkzusammenhänge zu erkennen. Gerade beim Klima müssen wir heute mit dem arbeiten, was wir wissen und können. Wenn wir abwarten, bis 2035 oder 2050 ganz tolle Quantencomputer auf dem Markt sind, helfen diese nicht mehr, weil es längst zu spät ist.
Ich warne also vor verfrühter Euphorie. Kann gut sein, dass nichts von den Visionen der Quantenleute jemals in der Realität ankommt. Das könnte so was werden wie der Kühlschrank, der ungefragt Milch bestellt: purer Medienhype.
Schreiben Sie Ihre Meinung, Erfahrungen, Anregungen mit oder zu diesem Thema. Ihr Beitrag erscheint an dieser Stelle.
Ihr Kommentar: 
Teilen Artikel merken