Quantencomputer: Gewissheit aus dem Zufall ziehen

Quantencomputer (hier ein Experiment am Technology Innovation Institute in Abu Dhabi) arbeiten bei sehr niedrigen Temperaturen, um Rauschen und unerwünschte Störungen zu minimieren. Mit einem neu entwickelten mathematischen Werkzeug ist es nun möglich, die Leistung eines Quantencomputers durch zufällige Testdaten zu bewerten und mögliche Fehler zu diagnostizieren.

Quantencomputer (hier ein Experiment am Technology Innovation Institute in Abu Dhabi) arbeiten bei sehr niedrigen Temperaturen, um Rauschen und unerwünschte Störungen zu minimieren. Mit einem neu entwickelten mathematischen Werkzeug ist es nun möglich, die Leistung eines Quantencomputers durch zufällige Testdaten zu bewerten und mögliche Fehler zu diagnostizieren.

Quantencomputer werden mit zunehmender Größe und Komplexität undurchschaubar. Mit Methoden der mathematischen Physik ist es nun einem Team gelungen, aus zufälligen Datensequenzen konkrete Zahlen abzuleiten, die als Maßstab für die Leistungsfähigkeit eines Quantencomputersystems dienen können. An der Arbeit mit Quantencomputer, die nun in Nature communications veröffentlicht ist, waren Experten des Helmholtz-Zentrum Berlin, der Freien Universität Berlin, des Qusoft Forschungszentrum Amsterdam, der Universität Kopenhagen sowie des Technology Innovation Institute Abu Dhabi beteiligt.

Mit Quantencomputern lassen sich insbesondere Quantensysteme deutlich effizienter berechnen und zum Beispiel Probleme in der Materialforschung lösen. Je größer und komplexer jedoch Quantencomputer werden, desto weniger lassen sich die Prozesse durchschauen, die zum Ergebnis führen. Um solche Quantenoperationen zu charakterisieren und die Fähigkeiten von Quantencomputern mit der klassischen Rechenleistung bei denselben Aufgaben fair zu vergleichen, werden daher passende Werkzeuge gebraucht. Ein solches Werkzeug mit überraschenden Talenten hat nun ein Team um Prof. Jens Eisert und Ingo Roth entwickelt.

Benchmarking von Quantencomputern

Roth, der aktuell am Technology Innovation Institute in Abu Dhabi eine Gruppe aufbaut, erläutert: „Aus den Ergebnissen zufällig gewählter Experimente können wir mit mathematischen Methoden nun viele verschiedene Zahlen extrahieren, die zeigen, wie nah die Operationen im statistischen Mittel an den gewünschten Operationen sind. Damit kann man aus den gleichen Daten viel mehr lernen als zuvor. Und zwar – das ist das Entscheidende – wächst die benötigte Datenmenge nicht linear sondern nur logarithmisch.“ Dies konnte das Team sogar mathematisch beweisen. Konkret bedeutet das: Um hundertmal so viel zu lernen, werden nur doppelt so viel Daten gebraucht. Eine enorme Verbesserung.

Eisert, der eine gemeinsame Forschungsgruppe zu theoretischer Physik am Helmholtz-Zentrum Berlin und der Freien Universität Berlin leitet, sagt: „Es geht hier um das Benchmarking von Quantencomputern. Wir haben gezeigt, wie man mit randomisierten Daten solche Systeme kalibrieren kann. Das ist eine sehr wichtige Arbeit für die Entwicklung von Quantencomputern.“

arö

  • Link kopieren

Das könnte Sie auch interessieren

  • Grüner Wasserstoff: MXene als Katalysatoren für die Sauerstoffentwicklung geeignet
    Science Highlight
    09.09.2024
    Grüner Wasserstoff: MXene als Katalysatoren für die Sauerstoffentwicklung geeignet
    Die Materialklasse der MXene besitzt vielfältige Talente. Nun hat ein internationales Team um HZB-Chemikerin Michelle Browne gezeigt, dass MXene als Katalysatoren für die Sauerstoffentwicklungsreaktion bei der elektrolytischen Wasserspaltung geeignet sind. Dabei arbeiten sie stabiler und effizienter als die derzeit besten Metalloxid-Katalysatoren. Das Team hat die neuartigen Katalysatoren für die elektrolytische Aufspaltung von Wasser nun umfassend an der Berliner Röntgenquelle BESSY II und am Synchrotron Soleil, Frankreich, charakterisiert.
  • SpinMagIC: EPR auf einem Chip sichert Qualität von Olivenöl und Bier
    Nachricht
    04.09.2024
    SpinMagIC: EPR auf einem Chip sichert Qualität von Olivenöl und Bier
    Bevor Lebensmittel verderben bilden sich meist bestimmte reaktionsfreudige Moleküle, sogenannte freie Radikale. Bisher war der Nachweis dieser Moleküle für Lebensmittelunternehmen sehr kostspielig. Ein Team aus HZB und Universität Stuttgart hat nun einen tragbaren und kostengünstigen „EPR-on-a-Chip“-Sensor entwickelt, der freie Radikale auch in geringsten Konzentrationen nachweisen kann. Nun bereitet das Team die Gründung eines Spin-off-Unternehmens vor, gefördert durch das EXIST-Forschungstransferprogramm des Bundesministeriums für Wirtschaft und Klimaschutz. Der EPRoC-Sensor soll zunächst bei der Herstellung von Olivenöl und Bier eingesetzt werden, um die Qualität dieser Produkte zu sichern.
  • Internationale Expertise zur Augentumortherapie mit Protonenstrahlung erschienen
    Science Highlight
    03.09.2024
    Internationale Expertise zur Augentumortherapie mit Protonenstrahlung erschienen
    Ein Team aus führenden Expertinnen und Experten aus Medizinphysik, Physik und Strahlentherapie, zu dem auch die HZB-Physikerin Prof. Andrea Denker und der Charité-Medizinphysiker Dr. Jens Heufelder gehören, hat einen Übersichtsartikel zur Protonentherapie von Augentumoren veröffentlicht. Der Beitrag ist im Red Journal, einem der renommiertesten Fachjournale in diesem Bereich erschienen. Er stellt die Besonderheiten dieser Therapieform am Auge vor, erläutert den Stand der Technik und aktuelle Forschungsschwerpunkte, gibt Empfehlungen zur Durchführung der Bestrahlungen und einen Ausblick auf künftige Entwicklungen.