1 Bewertungen

Embedded Vision profitiert von KI Deep Learning fördert Embedded-Applikationen

Als „Auge der Produktion“ überwacht Machine Vision das gesamte Fertigungsgeschehen.

03.11.2020

Der Embedded-Markt wächst stark. Daher wird es immer wichtiger, robuste Machine-Vision-Funktionen auch auf Embedded-Geräten bereit zu stellen. Durch die Integration von KI-Technologien wie Deep Learning können ganz neue Applikationen realisiert und bei bestehenden Anwendungen noch bessere Erkennungsraten erzielt werden. Dies trägt zu einer durchgängigen Automatisierung der Wertschöpfungsketten im Rahmen von Industrie 4.0 bei.

In industriellen Anwendungen kommen immer häufiger kompakte Devices mit integrierter Embedded-Software zum Einsatz. Dazu zählen beispielsweise moderne Smartkameras, mobile Vision-Sensoren, Smartphones, Tablets, Handhelds, SOMs (System on Modules) sowie SOCs (System on Chips). Ein Grund für die zunehmende Verbreitung ist unter anderem, dass die Geräte bereits heute über sehr leistungsfähige Prozessoren verfügen. Auch deren Langzeitverfügbarkeit ist mittlerweile gewährleistet. So haben die Hardware-Hersteller erkannt, dass die Geräte zur Verwendung im industriellen Kontext mehr als zehn Jahre verfügbar sein müssen.

Darüber hinaus überzeugen Embedded Devices mit einigen klaren Vorteilen: Sie benötigen – verglichen mit stationären Systemen – weniger Platz, haben einen erheblich geringeren Energieverbrauch und produzieren daher deutlich weniger Abwärme. Zudem sind sie wesentlich günstiger in der Anschaffung. Und nicht zuletzt können sie mittlerweile den rauen Industriebedingungen problemlos standhalten – und das sogar deutlich besser als Industrie-PCs. Die Nachfrage nach Embedded-Systemen nimmt daher kontinuierlich zu.

Wichtig ist, dass sich die Geräte auch für die Nutzung von industrieller Bildverarbeitung (Machine Vision) eignen. Da die Technologie eine bedeutende Rolle im Rahmen von hochautomatisierten Industrie-4.0-Szenarien spielt, sollte sie durchgängig mit Embedded-Geräten kompatibel sein. Mit Machine Vision lassen sich Objekte aller Art ausschließlich anhand äußerer Merkmale automatisiert identifizieren. Hierfür nehmen Bildeinzugsgeräte wie Kameras oder 3D-Sensoren die Fertigungsprozesse aus unterschiedlichen Perspektiven auf. In einer integrierten Machine-Vision-Software werden die digitalen Bilddaten verarbeitet und zur Nutzung in allen Gliedern der automatisierten, industriellen Wertschöpfungskette bereitgestellt.

Effizient und sicher mit Machine Vision

Dabei fungiert die industrielle Bildverarbeitung quasi als „Auge der Produktion“. Das bedeutet, sie überwacht das gesamte Geschehen lückenlos und sorgt dadurch für effiziente und sichere Prozesse. Beispielsweise lassen sich mithilfe der Technologie Werkstücke zur Bearbeitung genau positionieren. Roboter können Objekte präziser greifen und handhaben. Das Zusammenspiel zwischen Menschen und Maschinen – etwa zu Montagezwecken – lässt sich synchronisieren und perfekt aufeinander abstimmen. Und schließlich kann Machine Vision die Fehlerinspektion im Rahmen der Qualitätssicherung optimieren: Defektbehaftete Produkte werden verlässlich erkannt und automatisch aussortiert. So wird effektiv verhindert, dass sie in den weiteren Warenkreislauf gelangen.

Die nahtlose Verschmelzung von Machine Vision mit Embedded-Systemen wird als Embedded Vision bezeichnet. Werden die kompakten Geräte mit performanter Bildverarbeitungssoftware ausgerüstet, können sie auch komplexe Machine-Vision-Operationen ausführen. Von großer Bedeutung ist dabei die Kompatibilität der Software mit einschlägigen Embedded-Plattformen wie etwa der weit verbreiteten Arm-Prozessor-Architektur. So lassen sich darauf standardmäßig robuste Bildverarbeitungs-Features nutzen, die sonst ausschließlich auf stationären PC-Systemen laufen.

Entwicklungsschub dank Deep Learning

Immer wichtiger werden für den Embedded-Vision-Markt moderne Verfahren, die auf künstlicher Intelligenz (KI) beruhen. Eine herausragende Bedeutung hat dabei Deep Learning, das auf einer Architektur von Convolutional Neural Networks (CNNs) gründet. Die Technologie trägt wesentlich dazu bei, dass zunehmend leistungsfähigere Embedded-Geräte in immer höherem Tempo entwickelt werden. Dies ebnet nicht nur den Weg für komplett neue Anwendungen. Auch bei bestehenden Applikationen lassen sich noch bessere Erkennungsraten erzielen und obendrein die Machine-Vision-Prozesse deutlich vereinfachen.

Ermöglicht wird die präzise Klassifizierung unterschiedlicher Objekte durch ein umfassendes Training. Basis des Trainingsprozesses sind die von den Bildeinzugsgeräten erzeugten, digitalen Bilddaten, welche die Machine-Vision-Software verarbeitet und detailliert analysiert.

Im Zuge des Trainings lernen die Deep-Learning-Algorithmen typische Merkmale, mit denen sich die zu erkennenden Gegenstände in bestimmte Klassen einordnen lassen. Dabei kann es sich um Objektklassen wie beispielsweise „Apfel“ oder „Birne“ oder auch Fehlerklassen wie „Einkerbung“ oder „Riss“ handeln. Maßgeblich für die Zuordnung sind spezifische Eigenschaften wie Form, Farbe oder Textur. Nach erfolgreichem Training können dann auch neue Bilddaten automatisch und präzise einer entsprechenden Klasse zugeordnet werden. So lassen sich die auf den Bildern zu sehenden Objekte oder Defekte mit hoher Genauigkeit erkennen und gezielt lokalisieren.

KI erfordert hohe Rechen-Performance

Deep-Learning-Methoden benötigen wie alle KI-basierten Technologien eine sehr hohe Rechenleistung. Embedded-Systeme, auf denen entsprechende Operationen schnellstmöglich ausgeführt werden, müssen deshalb mit performanten Hardware-Komponenten, wie zum Beispiel einer CPU, GPU oder einem sogenannten Deep-Learning-Beschleuniger ausgestattet sein.

Zu unterscheiden ist dabei zwischen dem eigentlichen Training und der sogenannten Inferenz, also der Ausführung von Deep-Learning-Prozessen. Während sich Letztere direkt auf dem Embedded Device realisieren lässt, war für das Training bisher ein stationärer PC mit einer dedizierten GPU erforderlich. Jedoch sind die meisten konventionellen Industrie-PCs oftmals nur mit einer klassischen CPU ausgerüstet und enthalten keine Steckplätze für eine GPU. Und selbst wenn, dann benötigt eine GPU vergleichsweise viel mehr Energie und erzeugt hohe Mengen an Abwärme. Im industriellen Umfeld ist es oftmals schwierig, die hohe Abwärme einer GPU abzuleiten.

Mit der Machine-Vision-Standardsoftware MVTec Halcon lässt sich allerdings sowohl die Inferenz als auch das Training auf einer CPU durchführen, sodass auch konventionelle Industrie-PCs hierfür nutzbar sind. Auf diese Weise kann das Training direkt an der Produktionslinie umgesetzt werden, was den Einsatz von Deep-Learning-Technologien deutlich flexibler und effizienter macht.

Für die Inferenz ist weiterhin von Vorteil, dass MVTec Halcon mit einschlägigen Embedded-Plattformen wie etwa der Arm-Prozessor-Architektur durchgängig kompatibel ist. Dadurch lassen sich sehr robuste und anspruchsvolle Machine-Vision-Funktionen wesentlich vielfältiger nutzen – nämlich nicht nur auf stationären PC-Systemen, sondern auch auf Embedded-Plattformen. Dies trägt der zunehmenden Verbreitung entsprechender kompakter Geräte Rechnung.

Embedded-Geräte profitieren von KI

Embedded-Geräte sind aufgrund ihrer positiven Eigenschaften wie der kompakten, platzsparenden Bauweise, des niedrigen Energiebedarfs und der geringen Abwärme auch im industriellen Umfeld immer mehr auf dem Vormarsch. Durch die Kompatibilität mit Machine-Vision-Technologien lassen sich die Prozessketten weitgehend automatisieren. Kommen zudem KI-Features wie Deep Learning ins Spiel, werden noch höhere Erkennungsraten erzielt. Unternehmen können dadurch ihre Produktivität erhöhen und Kosten einsparen.

Bildergalerie

  • MVTec Halcon ermöglicht den robusten Einsatz von Deep-Learning-Technologien auf Embedded-Plattformen.

    MVTec Halcon ermöglicht den robusten Einsatz von Deep-Learning-Technologien auf Embedded-Plattformen.

Firmen zu diesem Artikel
Verwandte Artikel