Aktuelle Nachrichten aus der Industrie wöchentlich von der Redaktion für Sie kostenfrei zusammengestellt.
Sie haben sich bereits unter der angegebenen E-Mail Adresse registriert.
Bei der Registrierung ist ein Fehler aufgetreten.
Sie müssen die AGBs bestätigen.
Registrierung erfolgreich.

Roboter, die Fehler machen, wirken auf Menschen sympathischer.

Bild: Pixabay

Ackermanns Seitenblicke Programmfehler machen sympathisch

11.10.2017

Tollpatschige Roboter sind liebenswerter! Um humanoide Roboter sympathischer zu machen, programmieren Entwickler absichtlich fehlerhaftes Verhalten in die Androiden.

Sponsored Content

Humanoide Roboter können uns in vielen Fällen das Alltagsleben erleichtern, doch sie zählen nicht vorrangig zu den Lieblingen des Menschen. Selbst wenn Maschinenwesen, wie Jarvis aus den Iron-Man-Filmen, ihre Aufgaben perfekt erledigen, heißt das noch lange nicht, dass man sie auch mag. Ähnlich geht es dem menschlichen Perfektionisten, dem auch nicht alle Herzen zufliegen; ganz im Gegensatz zum liebenswerten Tollpatsch. Das wissen auch die Androiden-Entwickler. Sie arbeiten deshalb an Methoden, ihre Schöpfungen sympathischer zu machen. Der jüngste Lösungsansatz dafür: Ein gelegentliches, noch tolerierbares, fehlerhaftes Verhalten in den Blechkameraden einzuprogrammieren, der damit menschlicher wirkt.

Unhöflich und unbeholfen

In einem Versuch wurden jeweils rund zwei Dutzend Männer und Frauen mit einem Roboter zusammengespannt, um zwei Aufgaben durchzuführen: Interviewfragen zustellen und Lego-Bausteine zu einem Turm oder einem Smiley zusammenzubauen. Rund die Hälfte der Roboter arbeitete fehlerfrei, die anderen waren „nicht völlig perfekt“ eingestellt. Ihnen unterliefen technische Pannen, etwa dass sie die Steinchen nicht richtig ergriffen oder dass sie ein und dieselbe Frage mehrmals wiederholten. Einige Fehler waren auch sogenannte Verstöße gegen soziale Normen, etwa dass sie den Interviewpartner mitten in seiner Antwort unterbrachen, oder dass sie ihrem Gegenüber den Befehl gaben, die Legosteine einfach auf den Boden zu werfen.

Wenn die Roboter Fehler machten, wurde die Reaktion der Teilnehmer beobachtet: ihre Kopf- und Körperbewegungen, Blickwinkel, ob sie lachten oder lächelten. Nach Abschluss mussten sie auf einer Skala von 1 bis 5 angeben, wie sehr sie den Roboter mochten, für wie intelligent und menschlich sie ihn hielten. Dabei stellte sich eindeutig heraus, dass die „perfekte“ Version weit weniger beliebt war und schlechter eingestuft wurde, obwohl die Einschätzung der maschinellen Intelligenz bei beiden nahezu gleich war.

Soziales Verhalten lernen

Die Forscher leiten daraus ab, dass Roboter in sozialen Umgebungen von kleinen Unvollkommenheiten profitieren und somit in ihren Aufgaben erfolgreicher sein können. Sie empfehlen deshalb den Programmierern, Methoden zu entwickeln, damit Roboter die sozialen Hinweise lesen und daraus lernen können. „Künftige Forschungen sollten darauf abzielen, dass ein Roboter die Signale versteht und nutzt. Ein Roboter, der die sozialen Signale seines menschlichen Interaktionspartners – genau wie das Nutzerverhalten insgesamt – richtig interpretieren kann, wird die bessere Lösung sein“, so die Wissenschaftler.

Ob sich das wirklich umsetzen lässt, steht aber auf einem anderen Blatt. Die Automaten sollen schließlich, egal wie sie aussehen, ständig hinzulernen, ihre Reaktionen und Handlungsweisen verbessern. Nicht zuletzt, damit ihre Hersteller auch ständig neue Verkaufsargumente haben. Es wird schwer sein, diese Vorgaben über den Haufen zu werfen, sei es im Rechenkern des Androiden oder sei es in den Köpfen der Programmierer. Die Balance zwischen Perfektionsstreben und tolerierbaren, sympathischen Fehlern schafft vorläufig nur der Mensch - und auch der nur selten.

Bildergalerie

  • Solange es die Elektronikindustrie gibt, begleitet Roland Ackermann sie. Unter anderem als Chefredakteur, Verlagsleiter und Macher des „Technischen Reports“ im Bayrischen Rundfunk prägt er die Branche seit den späten 1950er-Jahren mit.

    Bild: Roland Ackermann

Verwandte Artikel