Wettbewerb des NIST Wie man Daten quantensicher verschlüsselt
Anbieter zum Thema
Künftig werden Quantencomputer wahrscheinlich in der Lage sein, etablierte Verschlüsselungsmethoden zu knacken. Die US-Behörde NIST veranstaltet deshalb einen Wettbewerb, um quantensichere Algorithmen zu finden. Zu den Teilnehmern zählt auch die Technische Universität München (TUM).

Die verschlüsselte Übertragung von Daten gehört zum Alltag und fällt den meisten Anwendern gar nicht auf. Noch sind die Informationen sicher – doch das könnte sich in Zukunft ändern. Die Verschlüsselung basiert auf der Komplexität, eine große Zahl in ihre Faktoren zu zerlegen. Quantencomputer können in absehbarer Zeit leistungsfähig genug sein, um derartige mathematische Probleme in vergleichsweise kurzer Zeit zu lösen.
Dementsprechend sind zukunftssichere Verschlüsselungstechnologien gefragt. Das National Institute of Standards and Technology (NIST) hat bereits 2016 einen entsprechenden Wettbewerb gestartet. Allerdings kamen kurz vor der Siegerehrung vier der sieben öffentlich attackierbaren Algorithmen stark unter Kritik: Eines der Verfahren musste sogar komplett die Segel streichen, da es binnen zwei Tagen von einem handelsüblichen Notebook geknackt wurde. Die übrigen Kandidaten konnten ihre Schwachstellen beheben und blieben im Rennen.
TUM mischt mit
Im Frühjahr rief NIST nochmals auf, weitere Algorithmen einzureichen. Ein Team um Professorin Antonia Wachter-Zeh an der TUM ist diesem Aufruf gemeinsam mit Forschern der italienischen Universita Politecnica delle Marche gefolgt. Die Experten haben zwei Algorithmen aus dem Bereich der digitalen Signaturen eingereicht. Sie sollen als eine Art elektronischer Fingerabdruck sicherstellen, dass Daten auch vom erwarteten Sender stammen und nicht im Nachhinein verändert wurden.
Die eingereichten Algorithmen beruhen auf fehlerkorrigierenden Codes: Sie nutzen das Prinzip, dass beim Übertragen und Speichern von Daten oder beim Telefonieren im Mobilfunknetz ständig Fehler passieren – wie beispielsweise im binären System die Übermittlung einer 1 statt einer 0. Bei fehlerkorrigierenden Codes sind redundante Informationen eingefügt, um eine bestimmte Anzahl derartiger Fehler ausbessern zu können. Dieses Prinzip macht sich Wachter-Zeh zunutze, indem sie wissentlich vor der Übertragung Fehler einbaut, die später bei der Decodierung wieder herausgerechnet werden. Als Grundlage kommen jeweils die Lee-Metrik und restriktive Fehler in der Hamming-Distanz zum Einsatz.
„Das Signaturverfahren CROSS, welches restriktive Fehler nutzt, ist sehr kompetitiv und hat gute Erfolgschancen als neuer Verschlüsselungsstandard in Frage zu kommen. Bei unserem zweiten Algorithmus FuLeeca, der auf der Lee-Metrik basiert, wurden bereits Schwachstellen erkannt“, so die Professorin. Das Prinzip sei dennoch vielversprechend, aber recht neu. „Daher wird hier noch einiges an Forschungsarbeit notwendig sein“, ergänzt sie.
(ID:49718397)