Post-Quantum-sichere Kryptographie Daten quantensicher verschlüsseln

Quantencomputer werden zukünftig leistungsfähig genug sein, um die etablierten Verschlüsselungsmethoden zu knacken – im Rahmen eines Wettbewerbs wird daher nach Algorithmen gesucht, die Quantencomputern standhalten.

Bild: iStock, sakkmesterke
20.09.2023

Aufgrund ihrer speziellen Funktionsweise wird es für Quantencomputer möglich sein, die derzeit verwendeten Verschlüsselungsmethoden zu knacken. Ein Wettbewerb der US-Bundesbehörde NIST soll das ändern. Gesucht werden Algorithmen, die Cyberangriffen von Quantencomputern standhalten. Bisher zeigt sich allerdings, dass es gar nicht so einfach ist, solche Schemata zu entwickeln. Forschende der Technischen Universität München (TUM) beteiligen sich mit zwei Verfahren am Wettbewerb und sind optimistisch.

Wir surfen ohne Bedenken im Internet, geben beim Online-Shopping unsere Bankdaten preis und nutzen ganz selbstverständlich Online-Banking. Wir gehen davon aus, dass unsere Daten verschlüsselt übertragen werden und dadurch sicher sind. Aktuell steckt hinter unserer Verschlüsselung die Idee, dass es schwierig ist, eine große Zahl in ihre Faktoren zu zerlegen. Sobald Quantencomputer leistungsfähig genug sind, um solche mathematischen Probleme zu lösen, wird sich dies jedoch ändern.

Wettbewerb für neue Verschlüsselungstechnologie

Das US-amerikanische National Institute of Standards and Technology (NIST) hat daher bereits 2016 in einem Wettbewerb dazu aufgerufen, neue quantensichere Verschlüsselungsstandards zu entwickeln. Diese sollen zukünftig auch Cyberangriffen mithilfe von Quantencomputern standhalten. Die eingereichten Algorithmen können öffentlich attackiert und so auf ihre Sicherheit geprüft werden. Die von der NIST standardisierten Verfahren werden in der Regel von Unternehmen und Online-Diensten übernommen, da sie als sehr sicher gelten.

In der ersten Runde des Wettbewerbs gab es insgesamt 69 Einreichungen. Die zweite Runde erreichten 26 der Algorithmen, sieben schafften es ins Finale. Kurz bevor die NIST die Sieger des Wettbewerbs küren wollte, wurden allerdings auch vier der Finalisten stark attackiert. Eines der Verfahren musste sogar aus dem Rennen genommen werden, da es innerhalb von zwei Tagen von einem handelsüblichen Laptop geknackt wurde. Die Schwachstellen der übrigen Algorithmen konnten soweit angepasst werden, dass sie weiter im Wettbewerb bleiben.

Trotz der vielen Einreichungen haben nur sehr wenige Algorithmen diesem K.O.-Rennen standgehalten. Das zeigt, wie wichtig es ist, Verfahren zu standardisieren, die auf unterschiedlichen mathematischen Problemen basieren. So können auch bei später erkannten Schwachstellen Verschlüsselungsmethoden ausgetauscht werden.

In diesem Frühjahr hat die NIST dazu aufgerufen, weitere Algorithmen einzureichen. Antonia Wachter-Zeh, Professorin für Codierung und Kryptographie an der TUM, hat gemeinsamen mit ihrem Team sowie einer weiteren Forschungsgruppe der TUM und Forschenden der Universita Politecnica delle Marche zwei Algorithmen im Bereich der digitalen Signaturen für den Wettbewerb entwickelt. Digitale Signaturen sind eine Art elektronischer Fingerabdruck, der sicherstellt, dass die Daten auch von dem erwarteten Sender stammen und nicht im Nachhinein verändert wurden.

„Wir müssen uns dringend mit neuen Verschlüsselungsverfahren auseinandersetzen, wenn wir wollen, dass unsere Daten in einigen Jahren noch sicher sind. Auch dann soll niemand in der Lage sein, das zu entschlüsseln, was wir heute kommunizieren“, sagt Antonia Wachter-Zeh.

Eingebaute Fehler garantieren sichere Verschlüsselung

Die von Prof. Wachter-Zeh eingereichten Algorithmen beruhen dabei auf fehlerkorrigierenden Codes. Dahinter steckt das Prinzip, dass beim Übertragen und Speichern von Daten oder auch beim Telefonieren im Mobilfunknetz ständig Fehler passieren. Im binären System wird an einer Stelle zum Beispiel fälschlicherweise statt der 0 die 1 übertragen. Bei fehlerkorrigierenden Codes werden vor der Übertragung redundante Informationen eingefügt, um diese, falls bei der Übermittlung Fehler passieren, korrigieren zu können. Dadurch ist es möglich, eine bestimmte Anzahl an Fehlern in den Daten auszugleichen.

Prof. Wachter-Zeh nutzt das Prinzip der fehlerkorrigierenden Codes zur Verschlüsselung von Daten, indem sie wissentlich vor der Übertragung Fehler einbaut. Diese werden später bei der Decodierung wieder herausgerechnet. Dadurch stellt die Forscherin sicher, dass die Informationen vor unbefugtem Zugriff geschützt sind, aber gleichzeitig auch wieder korrekt entschlüsselt und abgelegt werden können.

Für den NIST-Wettbewerb hat sich das Forschungsteam dazu entschieden, ein System basierend auf fehlerkorrigierenden Codes in der Lee Metrik und eins auf Grundlage restriktiver Fehler in der Hamming-Distanz einzureichen. Die klassische Hamming-Distanz gibt an, an wie vielen Stellen sich der Ausgangscode vom Code der Verschlüsselung unterscheidet. Im Gegensatz zur klassischen können bei der restriktiven Hamming-Distanz, die Fehler nur bestimmte Werte annehmen. Dafür können deutlich mehr Stellen fehlerhaft sein. Die Lee-Metrik gewichtet zusätzlich, wie sehr diese Stellen variieren.

„Das Signaturverfahren CROSS, welches restriktive Fehler nutzt, ist sehr kompetitiv und hat gute Erfolgschancen als neuer Verschlüsselungsstandard in Frage zu kommen. Bei unserem zweiten Algorithmus FuLeeca, der auf der Lee-Metrik basiert, wurden bereits Schwachstellen erkannt. Das Prinzip ist insgesamt dennoch vielsprechend aber recht neu. Daher wird hier noch einiges an Forschungsarbeit notwendig sein“, sagt Antonia Wachter-Zeh.

Weitere Informationen:

  • In der Kryptographie werden zwei unterschiedliche Methoden genutzt, um Daten zu verschlüsseln: zum einen die symmetrischen und zum anderen die asymmetrischen Verschlüsselungsverfahren. Bei den symmetrischen Verfahren ist davon auszugehen, dass diese relativ leicht angepasst werden können und sie daher als quantensicher gelten. Der aktuelle NIST-Wettbewerb konzentriert sich daher auf asymmetrische Kryptosysteme und hierbei insbesondere auf digitale Signaturen und Schlüsselkapselungsverfahren.

  • Prof. Wachter-Zeh ist aktuell am deutsch-französischen DFG-ANR Projekt CROWD zu neuen Codeklassen in der Kryptographie beteiligt, bei dem sie Initiatorin und deutschseitige Koordinatorin ist, und am EiC Pathfinder Challenges Projekt DiDaX, das sich mit DNA Datenspeicherung beschäftigt.

  • Die Arbeit von Prof. Wachter-Zeh wurde unter anderem durch das Emmy-Noether-Programm der DFG gefördert, durch das noch laufende ERC Projekt inCREASE („Coding for Security and DNA Storage“) sowie im Rahmen des BMBF-Projektes 6g-life. Neben vielen weiteren Preisen und Auszeichnung erhielt sie 2018 den Heinz Maier-Leibnitz-Preis sowie 2019 den NVMW Memorable Paper Award.

Firmen zu diesem Artikel
Verwandte Artikel