Melden Sie sich kostenfrei an, um Artikel vollständig zu lesen...
News und Promotion-Beiträge sind ohne Registrierung kostenfrei zu lesen
Login

Passwort vergessen?
Registrieren
   

Passwort ist zu kurz (mind. 8 Zeichen).
Messen & Erkennen

0 Bewertungen

Das passende Werkzeug finden

Text: Peter Keppler, Stemmer Fotos: sunstock; Stemmer
Hat man den falschen Schraubenschlüssel gewählt, kann er schnell ausgetauscht werden. Doch bei einem Software-Konzept für ein IBV-System ist der Aufwand wesentlich höher - wie auch die Kosten. Gerade bei 3D-Produkten sollte die Auswahl stimmen.

Funktionalität, Fachkenntnis von Anwendern oder Entwicklern und das Service- und Wartungsangebot des Anbieters spielen bei der Auswahl einer geeigneten Bildverarbeitungs-Software eine wichtige Rolle. An Aspekte wie Langzeitverfügbarkeit und Kosten eines Software-Pakets sollte natürlich auch gedacht werden. Oft wird jedoch vergessen, dass die richtige Software bei der Anwendungsentwicklung Zeit spart und Fehler vermeidet. Bei der Auswahl des geeigneten Software-Produkts sollte auch bedacht werden wofür es gebraucht wird: Ist die Entwicklung eines einzelnen Bildverarbeitungssystems geplant oder wird ein fest definiertes OEM-Produkt designed, das später unverändert in hohen Stückzahlen gefertigt werden soll? Für eine strategische Software-Basis mit Lösungen für verschiedene Aufgaben sind andere Auswahlkriterien entscheidend. Gerade im letzten Fall ist es sinnvoll, auf eine unabhängige Hardware und Plattform Wert zu legen. Hardware-Unabhängigkeit bezieht sich hier zunächst auf die reine Bilderfassung: Die Software-Plattform ist im optimalen Fall nicht an eine Kameratechnik oder einen Hardware-Hersteller gebunden, sondern kann an individuelle Bedürfnisse angepasst werden. Nur so stellt die Software die eigene Entwicklungsleistung auch dann noch sicher, wenn die Anforderungen an die Kameratechnik steigen, die eingesetzte Hardware abgekündigt wird oder kostengünstigere Interfaces verfügbar sind. Eine unabhängige Plattform erlaubt ein Migrieren eigener Entwicklungen auf andere Betriebssysteme und Plattformen. Dabei rücken immer kompaktere Embedded-Lösungen ARM-Prozessor-Basis unter Linux in den Fokus. Die eingesetzten Prozessoren haben eine hohe Rechenleistung und bieten mit dem Open-Source-Betriebssystem eine elegante Basis. Meist steigt mit der Erfahrung des Anwenders auch sein Bewusstsein für erweiterte Merkmale und sein Wunsch nach Flexibilität und Unabhängigkeit. Bei der Auswahl eines einzelnen IBV-Systems ist ausschlaggebend, ob die Software eine schnelle, einfache und zuverlässige Implementierung von Applikationen zulässt. Die Tools und das Leistungsvermögen der verschiedenen Software-Plattformen erscheinen dabei manchmal zuerst sehr ähnlich; bei näherer Betrachtung gibt es jedoch häufig große Unterschiede hinsichtlich der verwendeten Algorithmen, welche die Leistungsfähigkeit einer Anwendung in der Praxis stark beeinflussen.

Qualitätskontrolle mit 3D

Unter dem Begriff 3D werden eine ganze Reihe grundverschiedener Aufnahme- und Auswertungstechniken zusammengefasst. Um 3D-Informationen für die optische Qualitätskontrolle zu erhalten, ist die Triangulation eines der häufigsten Verfahren. Hier wird eine strukturierte Beleuchtung eingesetzt, also entweder eine eindimensionale Beleuchtung, wie eine Laserlinie, oder eine zweidimensionale Projektion definierter Muster: Wird das Objekt relativ zur Laserline verschoben, entsteht eine Serie von Höhenprofilen, die zu einem dreidimensionalen Abbild des Objekts zusammengesetzt werden kann. Im zweiten Fall werden auf ein stillstehendes Objekt sequentiell vordefinierte Muster projiziert, die eine eindeutige Zuordnung von Pixel und Objektpunkten ermöglichen. Daraus wird eine dreidimensionale Punktwolke bestimmt. Ein weiterer Ansatz ist die Stereobildverarbeitung. Dieses Triangulations-Verfahren besteht aus zwei Kameras und bildet das Prinzip des menschlichen Sehens nach. Eine algorithmische Herausforderung liegt darin, das Korrespondenzproblem zu lösen, also herauszufinden, welches die korrespondierenden Punkte in den beiden Kamerabildern sind. Daraus und aus der definierten Position der Kameras zueinander werden mittels geometrischer Zusammenhänge die Tiefeninformation extrahieret. Darüber hinaus existieren noch weitere Techniken wie das Time-of-Flight-Verfahren oder die Weißlicht-Interferometrie.

3D+2D = 2,5D?

Echte 3D-Bildverarbeitung - also das Aufnehmen, Verarbeiten und Auswerten von Punktwolken statt Bildern - bietet weitreichende Möglichkeiten, stellt aber auch besondere Anforderungen an die internen Datenstrukturen und Modelle der eingesetzten Software. Die fortschreitende Akzeptanz der 3D-Technik in der IBV führt dazu, dass immer mehr Software-Pakete diese Möglichkeiten anbieten. Dabei gilt es, zu analysieren, wie weitreichend die Implementierung von Punktwolken ist.Viele Software-Pakete arbeiten nur auf so genannten 2,5D-Bildern. Dabei werden die echten 3D-Daten in ein 2D-Bild projiziert, das pro Pixelposition die lokale Höheninformation als Grauwert enthält. So bleibt das Höhenbild (Range Map) kompatibel zu den 2D-Funktionen und -Algorithmen der Software. Die 3D-Aufnahmetechnik wird vielfach nur zur Erzeugung guter Kontraste benutzt.

Algorithmen für die 3D-Bildverarbeitung

Bei 3D-Projekten ist es wichtiger als bei 2D, das System korrekt zu kalibrieren. So werden perspektivische Verzerrungen und Linsenverzeichnungen aus dem Modell herausgerechnet und Pixelwerte in metrische Koordinaten umgewandelt. Für eine reproduzierbare Kalibrierung benötigt man einen exakt produzierten, mechanischen Kalibrierkörper für das Messvolumen der Installation. Die Genauigkeit hängt von vielen Faktoren ab und kann nicht pauschal beziffert werden. Will ein Anwender Prüfteilgeometrien in 3D vermessen, bildet eine metrisch kalibrierte Punktwolke die Basis. Dazu kann er entweder direkt in der Punktwolke arbeiten oder sie im Raum entsprechend ausrichten und dann in ein Range-Map-Format zur weiteren Verarbeitung zurückprojizieren. Beim Einsatz eines Triangulationssystems können Abschattungen auftreten (Löcher in der Punktwolke und in der Range Map), also Bereiche, die von der Kamera nicht eingesehen werden können. Das lässt sich reduzieren, indem zwei oder mehr Kameras verwendet werden, die das gleiche Projektionsmuster aus verschiedenen Winkeln betrachten. Dann werden die Punktwolken ausgerichtet und in Deckung gebracht. Soll nur die Abweichung zwischen Soll und Ist festgestellt werden, wird die Punktwolke eines Prüfkörpers mit einem zuvor aufgenommenen Musterteil ohne vorherige exakte mechanische Ausrichtung verglichen. Sind die beiden möglichst vollständigen und kalibrierten Punktewolken ausgerichtet, erzeugt das Matching-Verfahren ein Differenzbild mit Informationen über die lokalen Abweichungen. Der Anwender kann so recht früh defekte Teile, aus dem Produktionsprozess ausschleusen. Da 3D-Bildverarbeitung, bedingt durch den größeren Aufwand bei der Bildaufnahme sowie die komplexere Verarbeitungsalgorithmik, in der Regel anspruchsvoller ist als die Standard-2D-Bildverarbeitung, sind eine umfassende Beratung, Machbarkeitsanalysen mit Musterteilen, Schulungen und eine genaue Abstimmung von ausgewählter Hard- und Software eine zwingende Voraussetzung für eine erfolgreiche Integration.

Firmen zu diesem Artikel

Nach oben