Die freiwillige Konformitätsbescheinigung bestätigt, dass das geprüfte Produkt einige oder alle allgemeinen technischen Anforderungen der EU-KI-Verordnung erfüllt. Zusätzlich werden die spezifischen Anforderungen überprüft, die zur Unterstützung der technischen Dokumentation gemäß Artikel 11 des EU AI Acts erforderlich sind. Dieser neue Service bietet Herstellern eine gute Möglichkeit, ihre KI-Produkte frühzeitig hinsichtlich der Anforderungen des EU AI Acts zu bewerten und sie so bei der effizienten Vorbereitung auf die gesetzlich vorgeschriebenen Konformitätsverfahren zu unterstützen.
Schritt für Schritt zur Konformität
Die Bescheinigung ersetzt nicht die gesetzlich vorgeschriebene EU-Konformitätserklärung (DoC) und berechtigt den Hersteller nicht zur Anbringung der CE-Kennzeichnung. Die Hersteller erhalten jedoch wertvolle Informationen über den Reifegrad ihres KI-Systems hinsichtlich der Einhaltung der gesetzlichen Vorschriften. Erst wenn die technische Dokumentation fertiggestellt und die Konformität mit allen geltenden Richtlinien bestätigt ist, kann der Hersteller eine EU-Konformitätserklärung ausstellen und die CE-Kennzeichnung unter seiner eigenen Verantwortung anbringen. KI-Produkte/-Anwendungen in höheren Risikoklassen müssen von einer Benannten Stelle auf ihre Konformität überprüft werden. Die Verfahren zur Einrichtung und Ernennung dieser Benannten Stellen sind jedoch noch nicht abgeschlossen.
Noch offene Fristen rücken näher: Termine nach Risikoklassen
Der EU AI Act tritt je nach Risikoklassifizierung eines KI-Systems schrittweise in Kraft. Hier sind die wichtigsten Termine nach Risikoklassen:
Inakzeptables Risiko: Die Verwendung dieser KI-Systeme (zum Beispiel Social Scoring durch Regierungen, bestimmte Arten der biometrischen Überwachung) ist verboten. Gilt seit 2. Februar 2025
Allgemeine KI: Bestimmte Transparenzanforderungen und Verhaltenskodizes für allgemeine KI (GPAI) werden schrittweise in Kraft treten. Gilt seit 2. August 2025
Hohes Risiko: Strenge Anforderungen (zum Beispiel Risikobewertung, Dokumentationspflichten, fortlaufende Überprüfung) für KI in den Bereichen Bildung, Medizin, Behörden und so weiter. Gilt ab 2. August 2026 (Annex III)
Hohes Risiko (Produkte als Sicherheitskomponenten): Betrifft insbesondere KI als Teil regulierter Produkte (Spielzeug, Medizinprodukte und so weiter). Gilt ab 2. August 2027
Begrenztes/ minimales Risiko: Kaum/keine Anforderungen, hauptsächlich Transparenzpflichten, wie zum Beispiel Informationen über die Interaktion mit KI. Gilt sofort oder mit allgemeiner Einführung im Jahr 2026
Der AI Act Risk Navigator, ein kostenloses Online-Tool von TÜV SÜD und TÜV AI.Lab, bietet eine erste Orientierungshilfe zur Risikoklassifizierung von KI-Systemen und -Modellen: