Logarithmisches Datenwachstum Quantencomputer besser verstehen

Quantencomputer werden mit zunehmender Größe und Komplexität undurchschaubar. Mit Methoden der mathematischen Physik ist es nun einem Team gelungen, aus zufälligen Datensequenzen konkrete Zahlen abzuleiten, die als Maßstab für die Leistungsfähigkeit eines Quantencomputersystems dienen können.

Bild: John D, istock
13.09.2023

Quantencomputer werden mit zunehmender Größe und Komplexität undurchschaubar. Mit Methoden der mathematischen Physik ist es nun einem Team gelungen, aus zufälligen Datensequenzen konkrete Zahlen abzuleiten, die als Maßstab für die Leistungsfähigkeit eines Quantencomputersystems dienen können.

Mit Quantencomputern lassen sich insbesondere Quantensysteme deutlich effizienter berechnen und zum Beispiel Probleme in der Materialforschung lösen. Je größer und komplexer jedoch Quantencomputer werden, desto weniger lassen sich die Prozesse durchschauen, die zum Ergebnis führen.

Um solche Quantenoperationen zu charakterisieren und die Fähigkeiten von Quantencomputern mit der klassischen Rechenleistung bei denselben Aufgaben fair zu vergleichen, werden daher passende Werkzeuge gebraucht. Ein solches Werkzeug mit überraschenden Talenten hat nun ein Team um Prof. Jens Eisert und Ingo Roth entwickelt.

Logarithmisches statt lineares Datenwachstum

Roth, der aktuell am Technology Innovation Institute in Abu Dhabi eine Gruppe aufbaut, erläutert: „Aus den Ergebnissen zufällig gewählter Experimente können wir mit mathematischen Methoden nun viele verschiedene Zahlen extrahieren, die zeigen, wie nah die Operationen im statistischen Mittel an den gewünschten Operationen sind. Damit kann man aus den gleichen Daten viel mehr lernen als zuvor. Und zwar – das ist das Entscheidende – wächst die benötigte Datenmenge nicht linear sondern nur logarithmisch.“

Dies konnte das Team sogar mathematisch beweisen. Konkret bedeutet das: Um hundertmal so viel zu lernen, werden nur doppelt so viel Daten gebraucht. Eine enorme Verbesserung.

„Es geht hier um das Benchmarking von Quantencomputern“, sagt Eisert, der eine gemeinsame Forschungsgruppe zu theoretischer Physik am Helmholtz-Zentrum Berlin und der Freien Universität Berlin leitet. „Wir haben gezeigt, wie man mit randomisierten Daten solche Systeme kalibrieren kann. Das ist eine sehr wichtige Arbeit für die Entwicklung von Quantencomputern.“

Verwandte Artikel