Um Risiken zu kontrollieren Die Zukunft von Chatbots unter dem neuen EU KI-Gesetz

Neues EU-Gesetz verändert die Zukunft der Chatbot und KI-gestützten Systeme.

Bild: DALL·E, publish-industry
18.04.2024

KI-gesteuerte Dienste halten immer mehr Einzug in die Gesellschaft und die Unternehmen. Angesichts der zunehmenden Nutzung hat der EU-Gesetzgeber nun ein neues Gesetz verabschiedet, um die Verpflichtungen und Vorschriften zu klären.

Mit der Zunahme von KI-gesteuerten Chat-Dienste werden automatisierte Kundengespräche immer mehr zu einem Wettbewerbsvorteil. Aufgrund ihrer leistungsstarken Fähigkeiten und ihrer weiten Verbreitung ist die generative KI mittlerweile auch in das Blickfeld der Politik gerückt.

Klare Verpflichtungen für KI-Entwickler

Die Gesetzgeber der EU haben deshalb neue Vorschriften in das KI-Gesetz aufgenommen, die sich direkt mit dem Aufkommen von hochentwickelten Chatbots und LLMs befassen sollen. Das europäische KI-Gesetz ist die erste umfassende Verordnung über Künstliche Intelligenz, die durch den Gesetzgeber erlassen wurde.

Das Gesetz legt klare Anforderungen und Verpflichtungen für KI-Entwickler und -Anwender bezüglich bestimmter Anwendungen von Künstlicher Intelligenz fest und entlastet gleichzeitig die administrativen und finanziellen Belastungen für kleine und mittlere Unternehmen.

Während die meisten KI-Systeme nur eine geringe oder gar keine Gefahr darstellen und zur Lösung vieler gesellschaftlicher Herausforderungen beitragen können, bergen bestimmte Systeme Risiken, die angegangen werden müssen, um unerwünschte Ergebnisse zu vermeiden.

Das Gesetz teilt KI-Anwendungen in verschiedene Kategorien ein und formuliert Verpflichtungen für Künstliche Intelligenz auf der Basis ihrer potenziellen Risiken und Auswirkungen:

  • KI-Systeme mit inakzeptablem Risiko gelten als Gefahr für die Bevölkerung und werden verboten. Darunter zählen Anwendungen, die durch Gesichtserkennung Menschen in der Öffentlichkeit identifizieren können.

  • KI-Systeme mit hohem Risiko wie Anwendungen in Bildung und Gesundheitswesen, unterliegen besonderen Verpflichtungen und werden vor und nach ihrem Markteintritt gründlich kontrolliert.

  • KI-Systeme mit geringem Risiko müssen sorgfältig geprüft und schwerwiegende Vorfälle an die Europäische Kommission gemeldet werden. Darunter fallen generative KI und alle anderen Anwendungen.

Auswirkungen auf Chatbots

LLM-Chatbots sind fortschrittliche KI-Systeme mit der Fähigkeit, den Kontext zu erfassen, die Bedeutung abzuleiten und kohärente und kontextbezogene Antworten zu generieren. Solche Dienste, die Gespräche mit menschlichen Nutzern mit Hilfe von Künstlicher Intelligenz simulieren können, werden im EU-KI-Gesetz besonders hervorgehoben.

Eines der zentralen Punkte des KI-Gesetzes ist die Schaffung von Transparenz im Umgang mit generativen KI-Systemen. Der KI-Aspekt einer Anwendung muss von Anfang an klar dargelegt werden, damit die Nutzer eine informierte Entscheidung über ihr Engagement treffen können.

Mit Künstlicher Intelligenz generierte oder veränderte Inhalte - Bilder, Audio- oder Videodateien (zum Beispiel Deepfakes) - müssen klar als KI-generiert gekennzeichnet werden, damit die Nutzer erkennen, wenn sie auf solche Inhalte stoßen. Ein weiteres wichtiges Kriterium ist die menschliche Verantwortung.

Verantwortung auch auf der Unternehmensseite

Unternehmen müssen sicherstellen, dass die über Chat-Dienste gesammelten personenbezogenen Daten sicher und ethisch behandelt werden. Anbieter und Entwickler sind aufgefordert, schwerwiegende Vorfälle und Fehlfunktionen zu melden, während Nutzer die Möglichkeit haben müssen, Interaktionen mit einem Chatbot abzubrechen. Mit diesem Schutz soll die Kontrolle über die Interaktion zwischen den Nutzern gewährleistet werden.

Das europäische KI-Gesetz ist eine Initiative, um das Vertrauen der Nutzer in diese Technologie zu stärken und gleichzeitig die potenziellen Risiken zu begrenzen. Die Vorschrift schafft klare Regeln und Standards, damit die Nutzung von generativer KI und Chatbots transparent und ethisch angemessen ist.

Firmen zu diesem Artikel
Verwandte Artikel