Studie zur Algorithmus-Aversion Wann sind maschinelle Entscheidungen wirklich besser?

Maschinen treffen oft fundiertere Entscheidungen als wir Menschen – aber können wir das auch akzeptieren?

Bild: iStock, NanoStockk
27.06.2023

Maschinen können bessere Entscheidungen treffen als Menschen, aber am Ende sind es doch oft wir, die das letzte Wort sprechen. Warum ist das so? An der European School of Management and Technology ist eine Studie zur sogenannten Algorithmus-Aversion durchgeführt worden.

Maschinen sind uns nicht selten in der Entscheidungsfindung überlegen, gerade wenn diese datengetrieben stattfinden. Doch Menschen haben oft Schwierigkeiten zu erkennen, wann die maschinelle Entscheidungsfindung tatsächlich präziser ist. Die Folge: Sie setzen sich mit schlechterem Ergebnis über die Entscheidungen des Algorithmus hinweg.

Dieses Phänomen ist als Algorithmus-Aversion bekannt und wird häufig auf ein angeborenes Misstrauen gegenüber Maschinen zurückgeführt. Das systematische Übergehen eines Algorithmus muss jedoch nicht unbedingt auf Algorithmus-Aversion zurückzuführen sein. Die neue Forschungsarbeit der ESMT zeigt, dass der Kontext, in dem ein menschlicher Entscheidungsträger arbeitet, den Entscheidungsträger auch daran hindern kann zu lernen, ob eine Maschine bessere Entscheidungen trifft.

Mensch bewertet Maschine

Die Ergebnisse stammen aus der Forschung von Francis de Véricourt und Hüseyin Gurkan, beide Professor of Management Science an der ESMT Berlin. Die Forscher wollten herausfinden, unter welchen Bedingungen ein menschlicher Entscheidungsträger, der eine Maschine überwacht, die kritische Entscheidungen trifft, richtig beurteilen kann, ob die Maschine bessere Empfehlungen ausspricht.

Zu diesem Zweck erstellten sie ein Analysemodell, bei dem ein menschlicher Entscheidungsträger eine Maschine beaufsichtigte, die mit wichtigen Entscheidungen betraut war. Dazu gehörte etwa, ob eine Biopsie bei einem Patienten durchgeführt werden sollte. Der menschliche Entscheidungsträger traf dann auf der Grundlage der Informationen, die er von der Maschine für jede Aufgabe erhielt, die (nach seiner Ansicht) beste Wahl.

Verzerrtes Lernen schmälert Effizienz

Die Forscher fanden heraus, dass ein menschlicher Entscheidungsträger der Maschine mehr Vertrauen schenkte, wenn er die Empfehlung der Maschine beachtete und diese sich als richtig erwies. Manchmal beobachtete der Mensch jedoch nicht, ob die Empfehlung der Maschine richtig war – das geschah zum Beispiel, wenn der menschliche Entscheidungsträger beschloss, keine Folgemaßnahmen zu ergreifen. In diesem Fall änderte sich das Vertrauen nicht, und der menschliche Entscheider lernte nichts daraus.

Diese Wechselwirkung zwischen der Entscheidung des Menschen und seiner Einschätzung der Maschine kann zu verzerrtem Lernen führen: Menschen lernen im Laufe der Zeit nicht, wie sie Maschinen effektiv einsetzen. Nicht immer ist es aus Sicht der Forscher demnach ein inhärentes Misstrauen gegenüber Maschinen, das Menschen dazu veranlasst, sich über algorithmische Entscheidungen hinwegzusetzen. „Es kann auch sein, dass wir einfach nicht lernen, wie man Maschinen richtig einsetzt, wenn unser Lernen ausschließlich auf der Richtigkeit der Vorhersagen der Maschine beruht“, sagt de Véricourt.

Vertrauen ist der Schlüssel

Aus der Studie lässt sich ableiten, dass das Vertrauen in die Entscheidungsfähigkeit einer Maschine der Schlüssel dafür ist, um sie effektiv zu nutzen. „Unsere Forschung zeigt, dass menschliche Entscheidungsträger eindeutig zu wenig von der Intelligenz einer Maschine lernen können, wenn sie deren Ratschläge nicht kontinuierlich berücksichtigen“, sagt Gurkan. „Wir müssen Wege finden, um mit den Maschinen ständig und nicht nur punktuell zu lernen.“

Den Forschern zufolge geben die Ergebnisse Aufschluss über die Bedeutung der Zusammenarbeit zwischen Mensch und Maschine, indem sie zeigen, wann wir Maschinen vertrauen sollten und wann nicht. Ein Rahmen, wie er in der Studie verwendet wurde, kann dabei helfen, Maschinen besser in die Entscheidungsfindung zu implementieren.

Verwandte Artikel