Quantencomputer: Gewissheit aus dem Zufall ziehen

Quantencomputer (hier ein Experiment am Technology Innovation Institute in Abu Dhabi) arbeiten bei sehr niedrigen Temperaturen, um Rauschen und unerwünschte Störungen zu minimieren. Mit einem neu entwickelten mathematischen Werkzeug ist es nun möglich, die Leistung eines Quantencomputers durch zufällige Testdaten zu bewerten und mögliche Fehler zu diagnostizieren.

Quantencomputer (hier ein Experiment am Technology Innovation Institute in Abu Dhabi) arbeiten bei sehr niedrigen Temperaturen, um Rauschen und unerwünschte Störungen zu minimieren. Mit einem neu entwickelten mathematischen Werkzeug ist es nun möglich, die Leistung eines Quantencomputers durch zufällige Testdaten zu bewerten und mögliche Fehler zu diagnostizieren.

Quantencomputer werden mit zunehmender Größe und Komplexität undurchschaubar. Mit Methoden der mathematischen Physik ist es nun einem Team gelungen, aus zufälligen Datensequenzen konkrete Zahlen abzuleiten, die als Maßstab für die Leistungsfähigkeit eines Quantencomputersystems dienen können. An der Arbeit mit Quantencomputer, die nun in Nature communications veröffentlicht ist, waren Experten des Helmholtz-Zentrum Berlin, der Freien Universität Berlin, des Qusoft Forschungszentrum Amsterdam, der Universität Kopenhagen sowie des Technology Innovation Institute Abu Dhabi beteiligt.

Mit Quantencomputern lassen sich insbesondere Quantensysteme deutlich effizienter berechnen und zum Beispiel Probleme in der Materialforschung lösen. Je größer und komplexer jedoch Quantencomputer werden, desto weniger lassen sich die Prozesse durchschauen, die zum Ergebnis führen. Um solche Quantenoperationen zu charakterisieren und die Fähigkeiten von Quantencomputern mit der klassischen Rechenleistung bei denselben Aufgaben fair zu vergleichen, werden daher passende Werkzeuge gebraucht. Ein solches Werkzeug mit überraschenden Talenten hat nun ein Team um Prof. Jens Eisert und Ingo Roth entwickelt.

Benchmarking von Quantencomputern

Roth, der aktuell am Technology Innovation Institute in Abu Dhabi eine Gruppe aufbaut, erläutert: „Aus den Ergebnissen zufällig gewählter Experimente können wir mit mathematischen Methoden nun viele verschiedene Zahlen extrahieren, die zeigen, wie nah die Operationen im statistischen Mittel an den gewünschten Operationen sind. Damit kann man aus den gleichen Daten viel mehr lernen als zuvor. Und zwar – das ist das Entscheidende – wächst die benötigte Datenmenge nicht linear sondern nur logarithmisch.“ Dies konnte das Team sogar mathematisch beweisen. Konkret bedeutet das: Um hundertmal so viel zu lernen, werden nur doppelt so viel Daten gebraucht. Eine enorme Verbesserung.

Eisert, der eine gemeinsame Forschungsgruppe zu theoretischer Physik am Helmholtz-Zentrum Berlin und der Freien Universität Berlin leitet, sagt: „Es geht hier um das Benchmarking von Quantencomputern. Wir haben gezeigt, wie man mit randomisierten Daten solche Systeme kalibrieren kann. Das ist eine sehr wichtige Arbeit für die Entwicklung von Quantencomputern.“

arö

  • Link kopieren

Das könnte Sie auch interessieren

  • Lithium-Schwefel-Batterien im Taschenformat an BESSY II durchleuchtet
    Science Highlight
    08.01.2025
    Lithium-Schwefel-Batterien im Taschenformat an BESSY II durchleuchtet
    Neue Einblicke in Lithium-Schwefel-Pouchzellen hat ein Team aus HZB und dem Fraunhofer-Institut für Werkstoff- und Strahltechnik (IWS) in Dresden an der BAMline von BESSY II gewonnen. Ergänzt durch Analysen im Imaging Labor des HZB sowie weiteren Messungen ergibt sich ein neues und aufschlussreiches Bild von Prozessen, die Leistung und Lebensdauer dieses industrierelevanten Batterietyps begrenzen. Die Studie ist im renommierten Fachjournal "Advanced Energy Materials" publiziert.

  • Größte bisher bekannte magnetische Anisotropie eines Moleküls gemessen
    Science Highlight
    21.12.2024
    Größte bisher bekannte magnetische Anisotropie eines Moleküls gemessen
    An der Berliner Synchrotronstrahlungsquelle BESSY II ist es gelungen, die größte magnetische Anisotropie eines einzelnen Moleküls zu bestimmen, die jemals experimentell gemessen wurde. Je größer diese Anisotropie ist, desto besser eignet sich ein Molekül als molekularer Nanomagnet. Solche Nanomagnete besitzen eine Vielzahl von potenziellen Anwendungen, z. B. als energieeffiziente Datenspeicher. An der Studie waren Forschende aus dem Max-Planck-Institut für Kohlenforschung (MPI KOFO), dem Joint Lab EPR4Energy des Max-Planck-Instituts für Chemische Energiekonversion (MPI CEC) und dem Helmholtz-Zentrums Berlin beteiligt.
  • Katalysatoraktivierung und -abbau in hydrierten Iridiumoxiden
    Science Highlight
    10.12.2024
    Katalysatoraktivierung und -abbau in hydrierten Iridiumoxiden
    Die Entwicklung effizienter Katalysatoren für die Sauerstoffentwicklung (OER) ist entscheidend für den Fortschritt der Protonenaustauschmembran (PEM)-Wasserelektrolyse, wobei Iridium-basierte OER-Katalysatoren trotz der Herausforderungen im Zusammenhang mit ihrer Auflösung vielversprechend sind. Eine gemeinsame Forschung des Helmholtz-Zentrums Berlin und des Fritz-Haber-Instituts hat Einblicke in die Mechanismen der OER-Leistung und der Iridiumauflösung für amorphe hydrierte Iridiumoxide geliefert und das Verständnis dieses kritischen Prozesses vorangetrieben. Messungen an BESSY II haben dazu wesentliche Erkenntnisse geliefert.