Unabhängige Bewertung für KI-Systeme/-Produkte

Konformitätszertifikate für mehr Sicherheit beim AI Act

Erst wenn die technische Dokumentation fertiggestellt und die Konformität mit allen geltenden Richtlinien bestätigt ist, kann der Hersteller eine EU-Konformitätserklärung ausstellen.

Bild: iStock, Dragon Claws
27.11.2025

Wer vor dem obligatorischen Konformitätsverfahren eine unabhängige Bewertung ihrer technischen Dokumentation und Produktkonformität gemäß dem EU AI Act (EU-Verordnung 2024/1689) erhalten möchte, kann sich nun an TÜV Süd wenden. Zusätzliche Dienstleistungen wie Schulungen und Lückenanalysen tragen dazu bei, eine effiziente Einhaltung der Anforderungen des EU AI Acts sicherzustellen.

Die freiwillige Konformitätsbescheinigung bestätigt, dass das geprüfte Produkt einige oder alle allgemeinen technischen Anforderungen der EU-KI-Verordnung erfüllt. Zusätzlich werden die spezifischen Anforderungen überprüft, die zur Unterstützung der technischen Dokumentation gemäß Artikel 11 des EU AI Acts erforderlich sind. Dieser neue Service bietet Herstellern eine gute Möglichkeit, ihre KI-Produkte frühzeitig hinsichtlich der Anforderungen des EU AI Acts zu bewerten und sie so bei der effizienten Vorbereitung auf die gesetzlich vorgeschriebenen Konformitätsverfahren zu unterstützen.

Schritt für Schritt zur Konformität

Die Bescheinigung ersetzt nicht die gesetzlich vorgeschriebene EU-Konformitätserklärung (DoC) und berechtigt den Hersteller nicht zur Anbringung der CE-Kennzeichnung. Die Hersteller erhalten jedoch wertvolle Informationen über den Reifegrad ihres KI-Systems hinsichtlich der Einhaltung der gesetzlichen Vorschriften. Erst wenn die technische Dokumentation fertiggestellt und die Konformität mit allen geltenden Richtlinien bestätigt ist, kann der Hersteller eine EU-Konformitätserklärung ausstellen und die CE-Kennzeichnung unter seiner eigenen Verantwortung anbringen. KI-Produkte/-Anwendungen in höheren Risikoklassen müssen von einer Benannten Stelle auf ihre Konformität überprüft werden. Die Verfahren zur Einrichtung und Ernennung dieser Benannten Stellen sind jedoch noch nicht abgeschlossen.

Noch offene Fristen rücken näher: Termine nach Risikoklassen

Der EU AI Act tritt je nach Risikoklassifizierung eines KI-Systems schrittweise in Kraft. Hier sind die wichtigsten Termine nach Risikoklassen:

  • Inakzeptables Risiko: Die Verwendung dieser KI-Systeme (zum Beispiel Social Scoring durch Regierungen, bestimmte Arten der biometrischen Überwachung) ist verboten. Gilt seit 2. Februar 2025

  • Allgemeine KI: Bestimmte Transparenzanforderungen und Verhaltenskodizes für allgemeine KI (GPAI) werden schrittweise in Kraft treten. Gilt seit 2. August 2025

  • Hohes Risiko: Strenge Anforderungen (zum Beispiel Risikobewertung, Dokumentationspflichten, fortlaufende Überprüfung) für KI in den Bereichen Bildung, Medizin, Behörden und so weiter. Gilt ab 2. August 2026 (Annex III)

  • Hohes Risiko (Produkte als Sicherheitskomponenten): Betrifft insbesondere KI als Teil regulierter Produkte (Spielzeug, Medizinprodukte und so weiter). Gilt ab 2. August 2027

  • Begrenztes/ minimales Risiko: Kaum/keine Anforderungen, hauptsächlich Transparenzpflichten, wie zum Beispiel Informationen über die Interaktion mit KI. Gilt sofort oder mit allgemeiner Einführung im Jahr 2026

Der AI Act Risk Navigator, ein kostenloses Online-Tool von TÜV SÜD und TÜV AI.Lab, bietet eine erste Orientierungshilfe zur Risikoklassifizierung von KI-Systemen und -Modellen:

Firmen zu diesem Artikel
Verwandte Artikel