Melden Sie sich kostenfrei an, um Artikel vollständig zu lesen...
News und Promotion-Beiträge sind ohne Registrierung kostenfrei zu lesen
Login

Passwort vergessen?
Registrieren
   

Passwort ist zu kurz (mind. 8 Zeichen).
Bild: Kuka
Statement

0 Bewertungen

"Roboter werden sich selbständig verbessern"

Text: Simone Käfer, A&D
Mit der modernen Fabrik kommen auch Roboter als Arbeitskollegen auf den Werker zu. Für diese Mensch-Roboter-Kollaboration müssen die Maschinen jedoch einiges können – unter anderem ihren menschlichen Kollegen erkennen. Aber die Ideen reichen noch viel weiter. Wie weit und was Roboter heute schon können, darüber sprach A&D mit Dominik Boesl, Technology Owner Apps, Cloud and IoT bei Kuka.
A&D:

Welche technischen Eigenschaften benötigt ein Roboter, wenn er den Anforderungen der modernen Fabrik gerecht werden will?

Dominik Boesl:

Die Vision ist ja, dass der Roboter mit dem Fließband spricht, das Fließband mit der Werkzeug­maschine und so weiter. Dazu muss der Roboter aber mitteilen können, wer er ist und was er kann. Also: „Ich bin ein Roboter von Kuka, ich kann Dinge bewegen und ich spreche folgende Standards …“. Dann müssten die anderen Maschinen ihm natürlich genauso antworten. Das nennt sich self description. Idealerweise müssten auch alle Geräte self configuration unterstützen. Das bedeutet, beim Anschließen an ein System müsste der Roboter erkennen, dass er mit anderen Systemen verbunden ist und dass es ein Factory Management System gibt. Dementsprechend würde er sich dann von selbst konfigurieren. Aber das ist alles noch Zukunftsmusik. Auch eine Selbstoptimierung, also dass der Roboter merkt, dass er sich noch verbessern kann, gibt es noch nicht.

Die Kommunikation zwischen Roboter und anderen Anlageelementen ist also noch eine Vision?

Das hängt stark mit den Standards zusammen. Der LBR iiwa kann das heute schon – wenn wir es einbauen. Aber es versteht ihn noch keiner.

Kann ich meinen Roboter denn zu gegebenem Zeitpunkt aufrüsten?

Bei unseren Robotern ist das möglich. Es muss lediglich neue IT-Technik in die Steuerung geladen werden. Gerade bei unserer Sunrise-Steuerung ist das einfach, da sie noch modularer ist als die bisherige Steuerung.

Welche Informationen muss ein MRK-fähiger Roboter empfangen und verarbeiten können?

Auf jeden Fall benötigen sie eine entsprechende Sensorik. Zum Beispiel hat der LBR iiwa Drehmomentsensoren in jedem Gelenk, dadurch wird er feinfühlig und erkennt Berührungen. Die Sensoren müssen für die Sicherheit natürlich zwei-kanalig sein. So erfüllt der Roboter auch die Auflagen und Normen und er darf direkt mit Menschen zusammen arbeiten.

Handelt es sich dann eher um Sensorik mit der der Roboter etwas erkennt oder mit der er fühlt?

Welche mit der er fühlt. Der LBR erkennt eine mögliche Kollision so früh, dass er stehen bleibt bevor er überhaupt Schaden zufügen kann. Anwender können ihn aber auch so einstellen, dass, wenn er sie berührt, sie ihn einfach wegschieben können. Er reagiert so schnell, dass dem Werker nichts passieren kann.

Wie kann der Roboter wissen, dass er einen Menschen berührt?

Ein Roboter weiß, wie viel Kraft er benötigt um von A nach B zu fahren. Bei einer Berührung merkt der Roboter per Ist/Soll-Vergleich, dass er mehr Widerstand bekommt als eigentlich sein sollte und schaltet sofort ab.

Wie schnell schaltet er denn ab?

Er steht unmittelbar. Auch einen Ruck beim Anhalten gibt es nicht.

Wie „kommuniziert“ ein Werker mit seinem Roboter-Kollegen?

Heutzutage hat man immer ein Bediengerät am Roboter; denn die Normen verlangen einen Zustimmschalter und einen Notaustaster. In Ausnahmefällen darf man seinen Roboter heute schon teachen, in dem man ihn mit der Hand auf der Bahn entlangführt, die er abfahren soll. Das ist die nächste Stufe. Danach wird sich sicherlich viel bei den User Interfaces tun. Ich kann mir durchaus auch Gestensteuerung vorstellen, also dass man dem Roboter nur noch ein Zeichen gibt. Wenn wir weiter in die Zukunft gehen, wird es wahrscheinlich perzeptiv-kognitive Systeme geben. Das bedeutet, dass Roboter anfangen zu lernen. Zum Beispiel wird er die Arbeitsschritte eines Werkers beobachten, interpretieren und diesem passende Vorschläge machen, wie: „Willst Du, dass ich eine Schweißnaht setzte?“ Aber bis dahin wird es noch 10 bis 15 Jahre dauern.

Firmen zu diesem Artikel

Nach oben