Sprachmodelle, die auf Künstlicher Intelligenz basieren, antworten zwar auf jede Frage, aber nicht immer richtig. Für Nutzerinnen und Nutzer wäre es daher hilfreich, zu wissen, wie vertrauenswürdig ein KI-System ist. Ein Team der Ruhr-Universität Bochum und der TU Dortmund schlägt sechs Dimensionen vor, mit denen sich die Vertrauenswürdigkeit von Systemen beschreiben lässt – egal, ob es sich dabei um Personen, Institutionen, klassische Maschinen oder KI-Systeme handelt.
Sechs Dimensionen von Vertrauenswürdigkeit
Dr. Carina Newen und Prof. Dr. Emmanuel Müller von der TU Dortmund sowie der Philosoph Prof. Dr. Albert Newen von der Ruhr-Universität Bochum beschreiben das Konzept im internationalen philosophischen Fachjournal „Topoi“, das am 14. November 2025 online veröffentlicht wurde. Die Frage, ob ein bestimmtes KI-System vertrauenswürdig ist, lässt sich nicht mit „Ja“ oder „Nein“ beantworten. Die Autoren und Autorinnen schlagen vor, für jedes System zu beurteilen, wie ausgeprägt die sechs verschiedenen Dimensionen sind, und so ein Profil der Vertrauenswürdigkeit zu erstellen.
Bei den Dimensionen handelt es sich um:
Objektive Funktionalität: Wie gut erledigt das System seine Kernaufgabe und wird die Qualität überprüft und garantiert?
Transparenz: Wie transparent sind die Prozesse des Systems?
Unsicherheit von zugrunde liegenden Daten und Modellen: Wie verlässlich und gesichert gegen Missbrauch sind Daten und Modelle?
Verkörperung: In welchem Maße handelt es sich um ein verkörpertes oder ein virtuelles System?
Unmittelbarkeit: In welchem Maße findet Austausch mit dem System statt?
Verpflichtung: In welchem Maße kann das System eine Verpflichtung gegenüber dem Vertrauenden haben?
„Anhand dieser Kriterien kann man sichtbar machen, dass die Vertrauenswürdigkeit gegenwärtiger KI-Systeme – wie ChatGPT oder autonome Fahrzeuge – in den meisten Dimensionen noch starke Defizite aufweist“, so das Team aus Bochum und Dortmund. „Es wird zugleich deutlich, wo der Nachholbedarf besteht, wenn KI-Systeme eine hinreichende Vertrauenswürdigkeit erreichen sollen.“
Zentrale Dimensionen aus technischer Sicht
Aus technischer Sicht sind die Dimensionen „Transparenz” und „Unsicherheit” der zugrunde liegenden Daten und Modelle entscheidend. Sie betreffen prinzipielle Defizite von KI-Systemen. „Das sogenannte Deep Learning produziert bei großen Datenmengen bemerkenswerte Leistungen. KI-Systeme sind beispielsweise im Schach jedem Menschen überlegen“, erläutert Emmanuel Müller. „Aber die zugrunde liegenden Prozesse sind für uns intransparent, wodurch bislang ein zentrales Defizit der Vertrauenswürdigkeit entsteht.“
Ähnlich verhält es sich mit der Unsicherheit von Daten und Modellen. „KI-Systeme werden bereits von Firmen eingesetzt, um Bewerbungen vorzusortieren“, gibt Carina Newen ein Beispiel. „Dabei stecken in den Daten, mit denen die KI trainiert wird, Vorurteile, die das KI-System dann fortschreibt.“
Zentrale Dimensionen aus philosophischer Sicht
Aus philosophischer Sicht führt das Team das Beispiel ChatGPT an. Zwar produziert das System bei jeder Frage und Aufgabe eine klug klingende Antwort, es kann jedoch auch halluzinieren: „Das KI-System erfindet Informationen, ohne dies sichtbar zu machen“, betont Albert Newen. „KI-Systeme können und werden als Informationssysteme hilfreich sein, aber wir müssen lernen, sie stets mit kritischem Verstand zu betrachten und nicht blind zu vertrauen.“
Die Entwicklung von Chatbots als Ersatz für menschliche Kommunikation stuft Newen hingegen als fragwürdig ein. „Zwischenmenschliches Vertrauen zu einem Chatbot aufzubauen, ist gefährlich, weil ein solcher keinerlei Verpflichtung gegenüber dem vertrauenden Menschen hat“, so Newen. „Es ergibt keinen Sinn, zu erwarten, dass der Chatbot Versprechen einhalten kann.“
Die Profilbetrachtung von Vertrauenswürdigkeit in den verschiedenen Dimensionen kann laut den Autoren und Autorinnen helfen zu verstehen, in welchem Maße Menschen KI-Systemen als Informationsexpert:innen vertrauen können. Zugleich helfe es zu erkennen, warum kritischer Alltagsverstand mehr denn je gefragt sein wird.