LeddarTech kauft VayaVision

»Das genaueste 3D-Umfeldmodell«

07. September 2020, 10:13 Uhr   |  Iris Stroh


Fortsetzung des Artikels von Teil 1 .

Warum noch upsamplen?

Mit der Software lässt sich die Auflösung des Umgebungsbildes erhöhen. Mittlerweile kommen Kameras mit einer Auflösung von 4K zum Einsatz – warum dann noch upsamplen?

Auflösung ist nicht immer gleich Auflösung. Die Systeme müssen in der Lage sein, Hindernisse zu erkennen, zu klassifizieren, zu verfolgen usw. Selbst wenn die Kamera eine hohe Auflösung hat, reicht dies nicht aus. Hohe Werte für Dynamikbereich oder Amplitude sagen nichts über die Positionsgenauigkeit aus. Sie sagen auch nichts über die Größe des Objekts, dessen Geschwindigkeit oder seine Richtung aus und sie ermöglichen auch nicht, dass zwischen einem Plakat mit dem Bild eines Autos oder Fußgängers und einem echten Auto und Fußgänger unterschieden werden kann. Und hier kommt die Qualität unserer Software ins Spiel. Damit sind wir in der Lage, Objekte genau zu erkennen, sie richtig zu klassifizieren und gleichzeitig den Fehler, Objekte falsch positiv oder negativ zu erkennen, zu eliminieren, um das System robuster und sicherer zu machen.

Genau hier setzt die Kombination von LeddarTech und VayaVision an: Mithilfe fortschrittlicher tiefer neuronaler Netze, KI und Computer-Vision ermöglichen wir eine herausragende Signalverarbeitung, Wahrnehmung und Sensorfusion.

Soll die VayaVision-Software als Produkt angeboten werden oder nur in Kombination mit der hauseigenen Technologie?

Wir bemustern gerade verschiedene Kunden im Rahmen einiger öffentlich angekündigter Programme mit Kamera- und Radar-Perception und -Fusion. Wir arbeiten auch an einem Lidar Perception Stack auf Grundlage unseres Leddar-Pixell-3D-Weitwinkel-Lidar-Sensors, der bis Ende 2020 bei führenden Kunden bemustert wird und im zweiten Halbjahr 2021 für die Serienproduktion zur Verfügung stehen wird.

Es heißt, die Software von VayaVision ist Hardware-agnostisch, also vollkommen unabhängig von der LeddarTech-Technik.

Ja, die Software ist an keine spezielle Hardware gebunden. Ein OEM oder Tier-One kann eine komplette Fusion-Plattform mit jedem Sensor, Prozessor und Betriebssystem realisieren, die auf dem Markt verfügbar sind.

Sie sagten, dass VayaVision KI-Algorithmen nutzt. Ist dann nicht eine sehr hohe Rechenleistung erforderlich?

Nein, die Software kann auf jedem Standardprozessor von Renesas, Nvidia, Qualcomm oder NXP laufen. Das ist ja das Gute: Die Perception, Sensorfusion oder Software kann auf Prozessoren laufen, die heute schon für den Automotive-Markt verfügbar sind.

Gibt es schon Tests, die zeigen, wie stark die Sensorfusion mit VayaVision-Software verbessert wird?

Ja, wir haben einige Benchmarks laufen lassen und die besten KPIs (Key Performance Indicator, die Red.) in der Industrie für Kamera-Radar-Fusion-Stacks erreicht. Das heißt: Wir sind eines der industrieweit führenden Unternehmen, was die Perception und die Sensorfusion anbelangt.

Welche Schritte sind als Nächstes geplant?

Das erste Produkt, das wir als Standardprodukt anbieten werden, wird LeddarVision sein. LeddarVision basiert auf Leddar Pixell, einem 3D-Solid-State-Lidar-Sensor mit großem Sichtfeld, den wir vor einigen Monaten eingeführt haben. Wir arbeiten auch mit einigen Kunden an einer Fusion-Plattform für Radar und Kamera sowie Radar, Kamera und Lidar. Natürlich überlegen wir auch, wie wir unser Produktportfolio weiter vervollständigen können. Wir sind immer an interessanten Akquisitionen interessiert!

Seite 2 von 3

1. »Das genaueste 3D-Umfeldmodell«
2. Warum noch upsamplen?
3. ..." wir sind an allem interessiert, das die Umgebungserfassung um das Fahrzeug verbessert."

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

Synchronregler für Always-On-Automotive-Systeme
Kooperation für die ADAS-Entwicklung
Das Mondmobil von Toyota