Tests für sicherere Zusammenarbeit Hand in Hand mit dem Roboter: Demonstrator für Mensch-Maschine-Kollaboration

Dass Menschen mit einem Roboter sozusagen Hand in Hand arbeiten, ist noch eher selten, denn: Es fehlt an Akzeptanz und die Zusammenarbeit wird häufig als undurchsichtig und kompliziert empfunden.

Bild: iStock, AndreyPopov
04.03.2024

Roboter können bei repetitiven Arbeiten, zum Beispiel bei der Montage kleiner Sensorgehäuse assistieren. Wie die Interaktion mithilfe moderner Technologien wie Gestenerkennung, Sprachsteuerung und Visualisierungen in einer Augmented Reality-Brille sicherer und intuitiver gestaltet werden kann, hat ein Team der TH Köln in zwei Forschungsprojekten untersucht.

„Autonom agierende Maschinen sind in vielen Branchen wie der Automobil- und Zuliefererindustrie oder der Produktion im Einsatz. Dass Menschen mit einem Roboter sozusagen Hand in Hand arbeiten, ist dagegen noch eher selten. Es fehlt noch an Akzeptanz und die Zusammenarbeit wird oftmals noch als undurchsichtig und kompliziert empfunden“, erklärt Prof. Dr. Anja Richert vom Cologne Cobots Lab der TH Köln.

Im Projekt „MeRobot“ wurde am Beispiel des Zusammenbaus eines Sensorgehäuses untersucht, wie Sicherheit und Arbeitszufriedenheit bei der Zusammenarbeit von Mensch und Maschine gewährleistet werden können. Die Forscher*innen bauten hierfür eine sogenannte kollaborative Montagezelle auf. Der wissenschaftliche Mitarbeiter Artur Fuchs erläutert: „In unserem Versuchsszenario saßen sich Mensch und Roboter an einem Tisch gegenüber. Letzterer steckte in einem beispielhaften Arbeitsschritt zwei Komponenten zusammen, dann hielt er das Bauteil der Testperson hin, die die Schrauben anziehen sollte.“

Messdaten zeigen Belastung

Um das objektive Wohlbefinden der Proband*innen zu ermitteln, erfassten am Körper angebrachte Sensoren verschiedene Vitalwerte wie Puls, Lidschlussrate, Pupillendurchmesser sowie Hautleitfähigkeit und sendeten diese an eine zentrale Recheneinheit. Abweichungen von definierten Normwerten nach oben deuteten auf eine höhere Stressbelastung hin und waren für den Roboter das Signal, mehr Unterstützung zu leisten. Im Gegenzug wurden Arbeitsschritte ausgelassen, wenn die Testpersonen unterfordert schienen.

Anschließend wurden die Messdaten ausgewertet und das subjektive Feedback der 13 Testpersonen eingeholt. „Wir haben erfahren, dass die Zusammenarbeit mit dem Roboter oft als zu kompliziert empfunden wurde. Einige Teilnehmer*innen konnten beispielsweise nicht einschätzen, ob der Roboter ihre Eingabe erkannt hat. Solche Missverständnisse erhöhen die Unsicherheit bei den Nutzer*innen“, sagt Oliver Chojnowski, ebenfalls wissenschaftlicher Mitarbeiter am Cologne Cobots Lab.

Erweiterung um drei Funktionen

Ziel des Folgeprojekts „MyRobot“ war es daher, die Kommunikation für den Menschen intuitiver und die Interaktion transparenter zu gestalten, um so die Leistung der Montagezelle zu steigern. Dazu wurde der bereits erprobte Demonstrator mit Kameras ausgestattet und eine Künstliche Intelligenz mit den Daten der aufgezeichneten Gesten von fünf Testpersonen trainiert. Die Handbewegungen der Nutzer*innen sollten beim Roboter die gewünschten Reaktionen im Montageprozess auslösen.

Um mehr Transparenz in die Interaktionen zu bringen, wurden zusätzlich Tests mit einer Augmented-Reality-Brille durchgeführt. Die 20 Probanden und Probandinnen konnten dadurch sehen, welchen Arbeitsschritt die Maschine gerade ausführt, wie lange dieser noch dauert oder ob der Roboter eine Eingabe erwartet, zum Beispiel über einen Sprachbefehl. In einem dritten Teilprojekt wurden die von MeRobot gesammelten Daten in einen Algorithmus eingespeist, um zukünftige Vitalwerte vorhersagen zu können. Dadurch sollen Belastungsschwankungen verhindert werden.

„Wir konnten nachweisen, dass die Vitaldaten im Zeithorizont von einer Sekunde mit einer Wahrscheinlichkeit von 97,93 Prozent richtig vorhergesagt werden. Diese Erkenntnis ist auch für andere potenzielle Anwendungsbereiche wie die Pflege relevant. Unsere Untersuchung ergab zudem, dass die Probanden und Probandinnen eine konkrete Visualisierung in der AR-Brille als hilfreich empfanden. Beispiel: Der Roboter übergibt ein Bauteil, dazu erscheint ein Kasten, der den Übergabeort anzeigt“, erklärt Richert und führt aus: „Ein weiteres Ergebnis ist, dass die Testpersonen die Interaktion per Gestensteuerung als angenehmer empfanden im Vergleich zum ersten Projekt ohne diese Möglichkeit, obwohl die produzierte Stückzahl geringer war. Das lag vor allem an der höheren Fehleranfälligkeit der Maschine. Dafür kann der Mensch das Arbeitstempo einfacher bestimmen und ist zufriedener.“

Firmen zu diesem Artikel
Verwandte Artikel