Sicherheit im Straßenverkehr Infineon und Reality AI bringen Autos das Hören bei

Oft werden Rettungsfahrzeuge eher gehört als gesehen. Damit das eigene Auto auf die Sirenen reagieren kann, haben Infineon und Reality AI eine neue Lösung entwickelt.

Bild: iStock, deepblue4you
26.05.2021

Fahrerassistenzsysteme können bereits visuell wahrnehmen. Anders sieht es akustisch aus: Sich nähernde Einsatzfahrzeuge werden beispielsweise erst viel später erkannt, obwohl sie schon deutlich früher zu hören wären. Zwei Unternehmen haben nun Sensoren entwickelt, die Autos einen Hörsinn verleihen.

Fahrerassistenzsysteme (Advanced Driver Assistance Systems, ADAS) basieren im Normalfall auf Kameras, Radar oder Lidar. Damit sie Objekte erkennen, müssen sich diese innerhalb der Sichtlinie befinden. Das wird beispielsweise bei Einsatzfahrzeugen zur Schwachstelle, die tendenziell früher zu hören als zu sehen sind.

Eine neue Technologie von Infineon und Reality AI soll das Problem nun lösen. Sie ergänzt bestehende Sensorsysteme um Xensiv-MEMS-Mikrofone. Damit können Autos quasi um die Ecke „sehen“ und vor bewegten Objekten in einem blinden Fleck warnen – unter anderem vor Einsatzfahrzeugen, die noch weiter entfernt sind.

Geräuscherkennung mittels Machine Learning

Die neue Sensoriklösung basiert auf Xensiv-MEMS-Mikrofonen in Kombination mit Aurix-Mikrocontrollern und dem Automotive-See-With-Sound-System (SWS-System) von Reality AI. Mithilfe von Machine-Learning-Algorithmen kann das System andere Verkehrsteilnehmer erfassen, die für Fahrer oder ADAS-Sensoren (noch) nicht sichtbar sind. Das Machine Learning sorgt außerdem dafür, dass sich länderspezifische Sirenen von Einsatzfahrzeugen erkennen lassen.

Das für Automotive zertifizierte Xensiv-MEMS-Mikrofon IM67D130A verfügt über einen Betriebstemperaturbereich von -40 bis 105 °C, der verschiedene Einsatzfälle in rauen Umgebungen erlaubt. Geringe Verzerrungen (THD) und ein hoher akustischer Übersteuerungspunkt (AOP) von 130 dB SPL sollen dabei erlauben, auch in lauten Umgebungen verzerrungsfreie Audiosignale zu erfassen. Eine zuverlässige Klassifizierung ist damit auch dann möglich, wenn der Sirenenton von starken Hintergrund- oder Windgeräuschen überdeckt wird.

Die auf Schall basierende Sensortechnologie ist auch für andere Anwendungen einsetzbar. Dazu zählen unter anderem Straßenzustandsüberwachung, Schadenserkennung oder vorausschauende Wartung.

Demo auf Online-Veranstaltung

Für die Verarbeitung des Audiosignals nutzt die Reality-AI-Software die MCU-Familie Aurix TC3x von Infineon, die bereits in Automotive-Anwendungen eingesetzt wird. Die skalierbare MCU-Familie gibt es mit einem bis sechs Cores, bis zu 16 MB Flash mit funktionaler Sicherheit bis ASIL-D nach dem ISO26262-2018-Standard sowie Evita Full Cybersecurity. Das liefert die nötige Leistung und Flexibilität, um die Xensiv-MEMS-Mikrofone in ADAS-Anwendungsfälle zu integrieren.

Das MEMS-Mikrofon IM67D130A ist in einem PG-LLGA-5-4-Gehäuse verfügbar. Eine Demo der Technologie wurde auf der Virtual Sensor Experience von Infineon vorgestellt.

Firmen zu diesem Artikel
Verwandte Artikel