1 Bewertungen

Barrierelose Mensch-Roboter-Kollaboration Wenn Roboter aus dem Käfig ausbrechen

Der KMR iiwa im Einsatz in der Kuka-Fertigung.

Bild: Kuka Roboter
14.08.2017

Roboter, die sich inmitten von Menschen frei bewegen - und dennoch Fehler machen dürfen und sollen? Welche Voraussetzungen für eine sichere Mensch-Roboter-Kollaboration ohne physische Grenzen erfüllt sein müssen, haben TÜV-Forscher nun erarbeitet.

Sie bewegen sich durch lange Industriehallen, bauen Autos und Maschinen, und das 24 Stunden lang: Industrieroboter der Zukunft. Zahlreiche Forscher arbeiten weltweit an der Idee, Industrieroboter „aus dem Käfig zu lassen“. Denn dort sind die meisten Roboter noch gefangen: innerhalb einer Eingrenzung, einer festgelegten Einsatzzone, umgeben von schützenden Gittern.

Spezialisten im Käfig

Auch, wenn es wohl noch Jahre dauern wird, bis Mensch und Roboter auf Augenhöhe zusammenarbeiten, halten schon jetzt kollaborierende Roboter Einzug in die Fertigung. Roboterassistieren dem Menschen schon seit geraumer Zeit in vielen industriellen Bereichen, vor allem aber rund um die Serienfertigung von Produkten. Diese sogenannten „nicht kollaborierenden Roboter“ sind in erster Linie Industrieroboter, die in einem eigenen Bereich arbeiten, klar getrennt durch Gitter und nicht für die direkte Zusammenarbeit mit dem Menschen ausgelegt.

Deshalb muss der Käfigh weg

Inzwischen werden Roboter auch ohne Käfig neben dem Menschen eingesetzt und können so noch effektiver mit ihnen zusammenarbeiten. Diese kollaborierenden Roboter können Montagearbeiten übernehmen, aber auch schwere oder ausladende Bauteile heben, drehen oder halten, um deren Last von den Arbeitern zu nehmen.

Der mögliche Verzicht auf bauliche Schutzeinrichtungen wie Lichtgitter, Käfige oder Barrieren spart Kosten und sorgt für flüssigere Arbeitsabläufe zwischen Arbeiter und Roboter. Diese Art von Industrierobotern findet vor allem in der Herstellung von Geräten und anderen Gütern oder im Transportwesen Anwendung. Führend ist auch die Automobilindustrie.

„Die bekanntesten Vertreter sind sicherlich die Bestückungsroboter. Industrieroboter übernehmen mittlerweile aber auch kleine, filigrane Tätigkeiten, zum Beispiel in der Handyfertigung, in Verpackungsapplikationen und in der Maschinenfertigung“, sagt Wanjing Su, Sachverständige im Bereich Funktionale Sicherheit bei TÜV Nord.

Sicherheit bei aller Freiheit

Wenn Roboter nicht mehr in Käfigen gehalten werden, sondern sich mehr oder weniger frei zwischen den Menschen bewegen, muss die Sicherheit bei ihrer Entwicklung und Herstellung im Vordergrund stehen. Die entsprechende Sicherheitstechnik wird dazu heute ins Innere des Roboters verlagert. Beim Design und der Konfigurierung von kollaborierenden Robotern kommt es auf folgende Punkte an:

  • Es muss ein Sicherheitskonzept vorhanden sein.

  • Bei der Entwicklung muss der Roboter auf fehlersicheres Verhalten ausgelegt werden.

  • Der Arbeitsbereich, der vom Roboter erkannt wird, muss klar abgegrenzt sein - auch ohne physische Gitter.

  • An den Grenzen des Arbeitsbereichs muss eine Stopp-Funktion gewährleistet sein.

  • Es muss eine Obergrenze sämtlicher überwachter Parameter definiert werden, beispielsweise Krafteinsatz, Energie oder Geschwindigkeit.

Von der Kollaboration zur Eigenständigkeit

Die Zukunft der Robotik liegt im sogenannten lernenden Roboter. „Diese Maschinen lernen wie Menschen durch Beobachten und Nachahmung, Versuch und Irrtum. Fehler machen ist ihnen erlaubt. Allerdings entstehen dadurch natürlich ganz neue Gefahrenquellen“, sagt Su.

Noch befänden sie sich in der Forschungsphase, ein flächendeckender, praktischer Einsatz findet nicht statt. Aber hinter den Kulissen tut sich einiges: Lernende Roboter besitzen ein riesiges Zukunftspotenzial.

MRK auf dem Prüfstand

Obwohl es derzeit keine verbindliche Normen zur Prüfung der Sicherheit dieser Roboter gibt, gibt es Möglichkeiten, sie zu testen: „Wenn bei lernenden Robotern die Lernfähigkeit unter Einhaltung klarer Grenzen wie zum Beispiel Krafteinsatz, Arbeitsbereich oder Geschwindigkeit stattfindet, die Lernfunktion faktisch im Käfig stattfindet, können entsprechende Prüfkriterien angewandt werden“, sagt Wanjing Su.

Dies gilt jedoch nicht für einen zweiten Fall, den Frau Su schildert. Hier lernt der Roboter selbst, wo seine Grenzen sind. In diesem Fall wird die Lernfunktion sicherheitsrelevant und kann für den Menschen gefährlich werden. Dieses Konzept könne derzeit nicht für Roboter im kollaborierenden Einsatz verfolgt werden.

Firmen zu diesem Artikel
Verwandte Artikel