So gelingt die Aufgabenteilung zwischen Mensch und KI

Wenn KI entscheidet: Wer trägt die Verantwortung?

KI kann Entscheidungen vorbereiten, die Verantwortung und Kontrolle bleiben jedoch beim Menschen.

Bild: iStock, wenjin chen
24.04.2026

KI kann zwar zu Produktionsgewinnen führen, erhöht aber auch die Komplexität und Intransparenz. Um zu vermeiden, dass Effizienz auf Kosten der Sicherheit geht, ist eine klare Aufgabenteilung erforderlich. Pegasystems nennt dafür sechs Leitprinzipien für eine produktive und sichere Zusammenarbeit.

Wie können Mensch und Maschine optimal zusammenarbeiten? Die Zusammenarbeit zwischen Mensch und Maschine ist beileibe kein neues Thema. Doch mit der rasanten Entwicklung von KI gewinnt sie enorm an Brisanz. KI ermöglicht zwar enorme Produktionsgewinne, gleichzeitig wächst aber auch die Komplexität der Systeme: Sie werden immer leistungsstärker, ihre Entscheidungen immer intransparenter und ihre Auswirkungen immer weitreichender.

KI im Team: Rollen klären, Sicherheit gewinnen

Dadurch entsteht ein Spannungsfeld zwischen Effizienz auf der einen und Sicherheit auf der anderen Seite. Wie muss die Arbeit zwischen KI und Mensch aufgeteilt werden, um dieses Spannungsfeld aufzulösen? Pegasystems schlägt sechs Leitprinzipien vor:

  1. KI trifft schnelle Entscheidungen, der Mensch trifft verantwortungsvolle Entscheidungen. KI kann in kürzester Zeit große Datenmengen verarbeiten und daraus Entscheidungen ableiten. Verantwortungsvolle Entscheidungen erfordern jedoch mehr als Daten und Wahrscheinlichkeiten. Sie basieren auf Faktoren wie komplexen Wertsystemen, implizitem Wissen und Erfahrung, die sich nur schwer vollständig formalisieren lassen. Deshalb kann KI zwar Entscheidungen vorbereiten, die Verantwortung dafür muss jedoch beim Menschen verbleiben.

  2. Menschliche Kontrolle ist ein Sicherheitsnetz. Die menschliche Verantwortung für Entscheidungen macht menschliche Kontrolle unverzichtbar. Der „Human in the Loop“ ist keine optionale Funktion, sondern eine grundlegende Voraussetzung für den sicheren Einsatz von KI. Diese Kontrolle sollte nicht nur am Ende eines Prozesses, sondern entlang des gesamten Lebenszyklus stattfinden: vom Design über das Training bis zum operativen Einsatz von KI.

  3. Agentenbasierte KI braucht klare Regeln. Mit der zunehmenden Verbreitung agentenbasierter KI wächst die Versuchung, Systeme möglichst autonom agieren zu lassen. KI-Agenten benötigen jedoch von Menschen definierte Mandate, feste Regeln und eine Einbettung in kontrollierte Abläufe. Völlig autonome Agenten verlieren mit wachsendem Kontext an Stabilität und Vorhersehbarkeit und bieten dadurch keine verlässliche Grundlage für den Einsatz in Unternehmen.

  4. AI-Literacy wird zur Kernkompetenz für alle. Mit der zunehmenden Verbreitung von KI wird das Verständnis ihrer Funktionsweise, Stärken und Grenzen zur Schlüsselkompetenz. Dabei benötigt jede Rolle ein für ihren jeweiligen Aufgabenbereich angemessenes Verständnis. Anwender müssen einschätzen können, wann Ergebnisse plausibel und vertrauenswürdig sind. Fachbereiche müssen ihre Anforderungen so formulieren können, dass sie sich sinnvoll umsetzen lassen. Entwickler wiederum benötigen ein tiefes Verständnis für die technischen Zusammenhänge und die Qualität der Ergebnisse.

  5. Entscheidend sind technische und soziale Kompetenzen. Der Einsatz von KI stellt keine rein technische Herausforderung dar. Es handelt sich um ein soziotechnisches System, in dem Technologie und menschliche Faktoren eng miteinander verzahnt sind. Technische Exzellenz allein reicht nicht aus, sondern muss durch Kommunikation, Verständnis und Zusammenarbeit ergänzt werden. Die Einführung von KI ist daher immer auch ein Change-Projekt, das Systeme, Organisationen, Arbeitsweisen und Denkmodelle betrifft.

  6. Zusammenarbeit im Team ist erfolgskritisch. Mit ihrer fortschreitenden Entwicklung wird KI von einem Werkzeug zunehmend zu einem aktiven Bestandteil von Teams. Sie übernimmt Aufgaben, liefert Impulse und beeinflusst Entscheidungen. Dadurch verändert sich die Art der teaminternen Zusammenarbeit. Es braucht eine klare Rollenverteilung und ein gemeinsames Verständnis darüber, wer welche Aufgaben übernimmt. Mensch und Maschine arbeiten nicht nebeneinander her, sondern zusammen und überlappen sich dabei.

„Eine produktive und sichere Zusammenarbeit von Mensch und KI entsteht nicht von selbst. Sie erfordert klare Prinzipien, eine bewusste Gestaltung und ein tiefes Verständnis für die jeweiligen Stärken und Grenzen“, erklärt Florian Lauck-Wunderlich, Global Director Business Excellence bei Pegasystems. „Wie diese Zusammenarbeit konkret aussieht, hängt natürlich immer vom Kontext ab: von der Aufgabe, den Risiken und den Zielen. Es gibt keine universellen Lösungen, sondern nur individuell passende Ausprägungen.“

Firmen zu diesem Artikel
Verwandte Artikel