Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
Nr 44 2021 www markttechnik de 27 PE AK -Sys te m Mar kt Tec hn ik 20 21 -4 4 pd f PCANminiPCIe FD CAN-FD -Interface für PCI Express Mini Als Ein-Zweiund Vierkanalkarte inkl Software APIs und Treiber für Windows und Linux erhältlich PCAN-Router Pro FD Frei programmierbarer 6-Kanal-Router und Datenlogger für CAN FD und CAN 2 0 Auslieferung mit einsatzbereiter Datenlogger-Firmware und Entwicklungspaket Optional mit Ethernet PCAN-Explorer 6 Software zur Steuerung Simulation und Überwachung von CAN-FD - und CAN-Bussen Aufzeichnung und Wiedergabe Automatisierung mit VBScript und Makros Verständliche Darstellung der ID und Daten You CAN get it Hardware und Software für CAN-Bus-Anwendungen… www peaksystem com Otto-Röhm-Str 69 64293 Darmstadt Germany Tel +49 6151 8173-20 Fax +49 6151 8173-29 info@peaksystem com Ir rt ü m er u n d t ec h n is ch e Än d er u n g en v o rb eh al te n ronment Understanding“ notwendig war Zu diesem Zeitpunkt haben die einzelnen Sensoren ihre Daten erzeugt sie dann aufgrund der historischen Entwicklung einzeln zu Objektlisten verarbeitet und sie dann an den Prozessor für die Fsuion der detektierten Objekte weitergeschickt Dieser Ansatz läuft auch unter „Late Fusion“ oder eben „Object Level Fusion“ das ist historisch bedingt die logische Entwicklung Aber? Ganz klar Dieser Ansatz hat entscheidende Nachteile Mit den verschiedenen Sensoren werden unterschiedliche Modalitäten abgedeckt Radar und Lidar können die Objekte quasi im physischen Sinne erkennen Kameras wiederum erkennen Texturen Und genau diese Tatsache hilft die Umgebung besser zu verstehen Wenn die Kamera das Bild eines Autos sieht dann wird sie mit hoher Wahrscheinlichkeit auch ein Objekt eines Fahrzeugs erzeugen Ist das Auto aber nur aufgemalt dann sieht Radar bzw Lidar nichts und wird das auch in den Objektlisten so niederlegen Das klingt doch hervorragend Das Problem besteht darin dass die Sensoren die Tiefeninformationen liefern ebenfalls Artefakte aufweisen und Informationen liefern können die nicht immer korrekt sind Zum Beispiel wenn ein Radarsensor ein Objekt aufgrund einer schlechten Auflösung oder klimatischer Bedingungen nicht erkennt Und das Problem entfällt wenn Rohdaten fusioniert werden? Ja Wenn wir auf Basis der Objektdaten arbeiten bleibt ein gewisses Restrisiko bestehen Bei allen Sensoren haben wir das Problem dass sie Falsch-Positivund Falsch-Negativ-Informationen generieren das heißt dass selbst bei zwei Sensoren vier verschiedene Varianten kombiniert werden können Und das macht es sehr schwierig zu entscheiden welche Objekte wirklich präsent sind Aber wenn ich Rohdaten fusioniere muss ich entsetzlich viele Daten durch das Auto jagen Das ist einer der Punkte die immer wieder gegen die Fusion von Rohdaten verwendet werden Aber sehen wir uns das mal genauer an Bei der Rohdatenverarbeitung erfolgt die Objekterkennung erst nach der Fusion der Rohdaten Ich messe mit der Kamera RGB-Daten also Farbinformationen mit Lidar und Radar messen wir Distanz Tiefe Bei der Fusion von Rohdaten werden den RGB-Daten der Kameras noch Tiefedaten bzw Distanzdaten hinzugefügt Das heißt dass die Objekterkennung mit RGBd-Daten arbeitet Jedes Pixel hat zu den Farbinformationen auch noch die Tiefeninformation Das ist nicht so viel wie die meisten denken Es ist ganz klar Mit Kameras werden die meisten Daten generiert in Hinblick auf Datenvolumen und Datenrate also ganz eindeutig der Killersensor Das spiegelt sich auch in der Tatsache wider dass in diesem Bereich extrem viel Aktivitäten stattgefunden haben diese Daten auch energieeffizient und intelligent zu verarbeiten Wenn wir jetzt diese Masse an Daten noch mit Informationen über Entfernung und Tiefe kombinieren so sind die zusätzlichen Daten vernachlässigbar – höchstens ein Bruchteil Das heißt mit der Fusion von Rohdaten steigen die notwendigen Datenraten definitiv nicht sehr stark an Das klingt logisch aber um nicht alle einzelnen Pixel durch das Fahrzeug zu übertragen findet ja gerade direkt an der Kamera eine Vorverarbeitung statt sodass nur noch relevante Informationen übertragen werden Ja aber das ändert nichts am Prinzip Ob vorverarbeitete Daten mit Tiefenund Distanzinformationen ergänzt werden oder einfach nur Pixel in beiden Fällen steigt die Datenrate aufgrund der zusätzlichen Tiefeninformation nur marginal an Vorausgesetzt Wir bleiben in derselben Datendomäne wenn beispielsweise nur Features weitergeleitet werden sieht das anders aus Und wie wird sichergestellt dass die RGB-Daten die die Kamera für relevant hält mit den entsprechenden Tiefeninformationen versehen werden? Reza Rashidi Far LeddarTech „ Mithilfe der Fusion von Rohdaten kann im Vergleich zur Fusion von Objektdaten ein deutlich genaueres Bild der Fahrsituation erzeugt werden das wichtig ist um die richtigen Entscheidungen auf Basis dieser Informationen zu fällen “