Interview mit Jeff Bier, Gründer der Embedded Vision Alliance „Jedes Robotersystem ist ein Kandidat“

publish-industry Verlag GmbH

Bild: Embedded Vision Alliance; iStock, Ociacia
15.02.2018

Embedded Vision gilt nach wie vor als Nische, doch von einer kuscheligen Marktlücke ist die Technologie mittlerweile weit entfernt. Neben der Automobilbranche haben auch andere Industriezweige die Vorzüge der Technologie entdeckt. Welche das sind und welche Rolle Deep-Learning dabei spielt, erklärt Jeff Bier, Gründer der Embedded Vision Alliance, im Interview.

E&E: Herr Bier, Sie haben 2011 die Embedded Vision Alliance gegründet. Welches Ziel verfolgen Sie damit?

Jeff Bier: Die Embedded Vision Alliance ist eine weltweite Industriepartnerschaft und führt Technologieanbieter und Hersteller zusammen, die innovative, praktische Anwendungen für Computer-Vision in verschiedenen Bereichen schaffen. Dazu gehören Automobile, Unterhaltungselektronik, Medizin oder der Einzelhandel. Unser Ziel ist zum einen, Hersteller zu inspirieren und sie zu befähigen, visuelle Intelligenz in neue Produkte und Anwendungen zu integrieren. Zum anderen möchten wir es Mitgliedern ermöglichen, Computer-Vision erfolgreich und schnell umzusetzen, indem wir Zulieferer, Produktdesigner und weitere Partner zusammenbringen. Das treibt die Nutzung von Computer-Vision voran, bietet frühzeitigen Einblick in Marktforschungen, Technologietrends, Standards und Anwendungsanforderungen und erlaubt es Unternehmen, als Vordenker sichtbarer zu werden. Die Mitgliedschaft steht jedem Unternehmen offen, das Technologien für Computer-Vision-Systeme und -Anwendungen liefert oder nutzt. Neben den genannten Vorteilen können Mitglieder auf der Embedded Vision Summit Conference als Sponsor auftreten, ausstellen und vortragen.

Wo steht Embedded Vision heute?

Als wir uns 2011 auf den Start der Embedded Vision Alliance vorbereiteten, waren wir zuversichtlich, dass sich die Computer-Vision-Technologie in den kommenden Jahren rasch in vielen verschiedenen Systemen verbreiten würde. Rückblickend sind wir angenehm überrascht, dass die Einführung der Embedded Vision schneller und umfassender erfolgt ist, als wir es uns erhofft hatten. Überraschend war auch das Aufkommen von Technologien, die auf maschinellem Lernen basieren und eine Alternative zu traditionellen Computer-Vision-Algorithmen bieten. Erstaunlich sind auch die rasche Reifung von Deep-Learning und dessen stabile Ergebnisse, selbst bei Problemen, die zuvor mit konventionellen Technologien gut gelöst wurden. Eine weitere Entwicklung ist die rasche Senkung der Kosten für die Implementierung von Embedded Vision, die auf Faktoren wie das Aufkommen sehr leistungsfähiger, kostengünstiger und energieeffizienter Prozessoren zurückzuführen ist.

Dennoch gibt es nach wie vor Hürden.

Viele Entwickler von Systemen, Geräten und Anwendungen sind sich noch immer nicht bewusst, welche Vorteile die Nutzung von visueller Intelligenz in ihren Designs bringt und wie sich diese Intelligenz umsetzen lässt. Es ist also wichtig, die Aufmerksamkeit für Embedded Vision zu erhöhen und genügend Informationen dazu anzubieten. Obwohl viele der Hardware-Teile des Puzzles, die für die Implementierung einer robusten Embedded-Vision-Lösung benötigt werden, bereits vorhanden sind, muss die Entwicklung von Bildverarbeitungssoftware weiter vereinfacht werden. Und was die Hardware angeht, so ist der extrem niedrige Stromverbrauch eines der Hauptmerkmale, auf das man sich weiterhin konzentrieren muss, um das Spektrum der Einsatzmöglichkeiten zu erweitern.

Immer mehr Branchen nutzen Embedded Vision. Welche Anwendung ist für Sie am vielversprechendsten?

Wir sind angenehm überrascht darüber, wie schnell und gründlich die Automobilindustrie Advanced Driver Assistance Systems angenommen hat und aggressiv auf völlig autonome Fahrzeuge hinarbeitet. Die Computer-Vision bildet das Herzstück all dieser Systeme. Die Autonomie ist aber nicht nur auf Fahrzeuge beschränkt; jedes Robotersystem ist ein Kandidat, sogar herkömmliche Staubsauger!

Intelligente Städte, Sicherheits- und andere Überwachungsanwendungen sind weitere schnell wachsende Bereiche. High-End-Vision-Produkte werden seit einigen Jahren für physische Sicherheit eingesetzt; an Flughäfen, in Strafverfolgungsbehörden oder bei Großhändlern. Typische Setups verwenden Videoanalysen, um Echtzeitalarme zu generieren, etwa wenn jemand versucht, einen sicheren Flughafenbereich über einen Ausgang zu betreten. Mitarbeiter einer zentralen Leitwarte können so mehr Videostreams zuverlässig verwalten, da sie Eindringlinge nicht mehr allein durch das Beobachten von Monitoren identifizieren müssen. Der wichtigste Trend ist, dass solche Systeme nun auch kleinen Einzelhändlern und sogar Verbrauchern zu Preisen von weit unter 100 Euro zur Verfügung stehen. Einfach einzurichten und zuverlässig im Betrieb können diese Systeme Standbilder, Videoclips und andere Warnmeldungen zum Beispiel an Smartphones senden. Der Nutzer kann dann entscheiden, wie er mit der potenziellen Bedrohung umgeht. Anwendungsfälle finden sich nicht nur in traditionellen Sicherheitsanwendungen, sondern auch in der Altenpflege oder im Fahrzeug, um die Aufmerksamkeit des Fahrers zu überwachen.

Sie sprachen über Deep Learning. Welche Rolle spielt die Technologie für Embedded Vision? Wo liegen ihre Grenzen?

Maschinelles Lernen hat sich schnell zu einer transformativen Kraft in der Computer-Vision entwickelt. Deep-Learning-Algorithmen liefern hervorragende Ergebnisse, wenn es etwa darum geht, Objekte zu erkennen, innerhalb eines Rahmens zu lokalisieren und zu bestimmen, welche Pixel zu welchem Objekt gehören. Selbst Probleme wie der optische Fluss und die Stereokorrespondenz, die mit herkömmlichen Techniken bereits gut gelöst wurden, finden jetzt mit Deep Learning noch bessere Lösungen. Die kontinuierliche Entwicklung des maschinellen Lernens ist nach wie vor rasant. Und im Vergleich zu herkömmlichen Computer-Vision-Algorithmen ist es einfacher, ohne ein großes Team von Spezialisten effektive Lösungen für neue Probleme zu finden. Allerdings hat Deep Learning einen hohen Rechen- und Speicherbedarf. Dies ist gerade bei Embedded-Systemen eine Herausforderung, da sie hohe Anforderungen an Größe, Gewicht, Kosten, Stromverbrauch und andere Randbedingungen stellen. Deep Learning entfaltet sein Potenzial nur, wenn genügend Trainingsdaten – sowohl qualitativ als auch quantitativ – vorhanden sind und der Entwickler über genügend Wissen verfügt, um die Technologie richtig einzusetzen.

Um solches Wissen zu fördern, stehen Sie in ständigem Kontakt mit Ingenieuren und Unternehmen. Welche Fragen begegnen Ihnen dabei?

Eine grundlegende Frage, mit der sich viele Produkthersteller auseinandersetzen, ist wo und wie Embedded Vision zu implementieren ist: in der Cloud, im Edge-Gerät oder verteilt zwischen den beiden? In autonomen Fahrzeugen etwa müssen Entscheidungen schnell und stabil getroffen werden. Hier eignet sich ein Edge-Ansatz, selbst wenn der Daten-Upload in die Cloud für zusätzliche Nicht-Echtzeit-Analysen ebenfalls sinnvoll sein kann. Ein Heimüberwachungssystem dagegen verarbeitet Daten nur eingeschränkt in der Kamera und sendet einen Großteil davon zur Auswertung in die Cloud. Auch dazwischen gibt es viele Anwendungsfälle. Da die Abwägung zwischen Edge und Cloud immer wichtiger wird, haben wir für den nächsten Embedded Vision Summit das Leitthema ,Enabling Computer Vision, At the Edge and In the Cloud’ gewählt. Der Gipfel findet vom 22. bis 24. Mai 2018 in Santa Clara in Kalifornien statt. Unter www.embedded-vision.com/summit finden Interessierte alle Informationen dazu und können sich online registrieren.

Was sind Ihre Erwartungen und Wünsche für die Zukunft?

Wir gehen davon aus, dass sich Computer-Vision in immer mehr Anwendungen verbreiten wird. Niedrigere Stücklistenkosten, geringerer Stromverbrauch und einfachere Entwicklung werden dies ermöglichen. Und wir sehen die von der Embedded Vision Alliance und unseren Mitgliedsunternehmen bereitgestellten Ressourcen als einen entscheidenden Faktor, um diese Ziele zu erreichen. Damit versetzen wir Produktgestalter in die Lage, sowohl konventionelle als auch Deep-Learning-Bildverarbeitung in ihren ressourcenbeschränkten Hard- und Software-Designs zu implementieren.

Bildergalerie

  • „Rückblickend sind wir angenehm überrascht, dass die Einführung der Embedded Vision schneller und umfassender erfolgt ist, als wir es uns erhofft hatten.“ Jeff Bier, Gründer der Embedded Vision Alliance

    „Rückblickend sind wir angenehm überrascht, dass die Einführung der Embedded Vision schneller und umfassender erfolgt ist, als wir es uns erhofft hatten.“ Jeff Bier, Gründer der Embedded Vision Alliance

    Bild: Embedded Vision Alliance

Verwandte Artikel