Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
10 Elektronik automotive E-Vehicles & Autonomes Fahren Frust Diese Prozesse können sehr einfach sein wie beispielsweise die Prüfung der Aufzeichnung auf Konsistenz und Unversehrtheit Ein weiteres Beispiel ist das Überschreiten vordefinierter Schwellenwerte etwa für die Beschleunigung durch entsprechend zu kennzeichnende Signalwerte Dadurch wird die hochzuladende Datenmenge enorm reduziert 4 Sicherstellen dass die UploadStation die vorannotierten Daten nutzt und Uploads in die Cloud oder das On-Premise-Rechenzentrum korrekt priorisiert Egal ob On-Premise-Speicher Cloud oder Hybridlösung das Hochladen aller aufgezeichneten Daten dauert in jedem Fall sehr lange Nach Berücksichtigung der vorhergehenden Tipps sind die Daten bereits annotiert Jetzt sollte in einem zusätzlichen Schritt festgelegt werden welche Daten wohin übertragen werden sollen Nicht gekennzeichnete bzw annotierte Daten sollten nicht in teure Speicherorte hochgeladen werden da sie später unweigerlich gelöscht oder archiviert werden Diese Best-Practice-Methode ist insbesondere relevant wenn sich Teams im selben Land oder in derselben Region befinden Sie eignet sich auch für dringende Projekte mit hoher Priorität da nach dem Hochladen an den entsprechenden Daten gearbeitet werden kann Es sollte außerdem sichergestellt werden dass die Upload-Station die beteiligten Personen mit Updates zum Stationsstatus versorgt 5 Zum Testen eigene »Plattform« entsprechend der Anforderungen aufbauen Nur durch den Aufbau eines BestofBreed-Partnerökosystems ist es möglich umfassend von den verschiedenen Marktangeboten zu profitieren Ein solches Ökosystem sollte Rechenzentrum Hyperscaler sowie Cloud-Anbieter mit schnellem Upload für alle möglichen Anwendungsfälle ebenso umfassen wie Hardund Softwarepartner Partnerschaften mit erfahrenen Un - ternehmen stellen eine wirksame Nutzung der vorhandenen Ressourcen sicher Es gibt keine Universallösung Jedes Unternehmen hat unterschiedliche Anforderungen die häufig sogar firmenintern variieren In Bezug auf die Testansätze gibt es jedoch bei allen Organisationen gemeinsame Ziele Dazu zählen Flexibilität Wirtschaftlichkeit und Geschwindigkeit Je nach Anwendungsfall kommt schließlich jedes dieser Ziele zum Tragen Der Ansatz mancher OEMs und Tier-1-Zulieferer sieht vor alles selbst aufzubauen dies ist jedoch weder nützlich noch wirtschaftlich Unternehmen sollten sich stattdessen darauf konzentrieren ihre Produkte zu verbessern und schneller und effizienter auf den Markt zu bringen um sich von ihren Mitbewerbern abzuheben 6 Direkte Pipeline vom Datenlogger in die Cloud legen So kann der Fahrer Aufzeichnungsausschnitte nach ungewöhnlichen Ereignissen teilen Die direkte Pipeline stellt sicher dass ein Ingenieur den Sachverhalt schnellstmöglich prüfen Einblicke liefern und gegebenenfalls Probleme beheben kann Darüber hinaus lässt sich ermitteln ob die Testfahrt weiterhin relevant ist Dies ist entscheidend um nicht benötigte Daten zu vermeiden Die Beispiele reichen von der falschen Softwareversion auf einem Steuergerät bis hin zu aktualisierter Software die Bild 2 Testfahrern und Mitfahrern kommt auch bei der Datenerfassung eine wichtige Rolle zu denn sie können ungewöhnliche Ereignisse am besten einschätzen Bild Elektrobit unter bestimmten Bedingungen zum Beispiel bei wenig Licht ein ungewöhnliches Verhalten aufweist 7 Mehr Daten sind nicht zwangsläufig besser die Vielfalt des Datensatzes ist der Schlüssel zum Erfolg Die Fähigkeit den Umfang der Testabdeckung zu ermitteln sowie eine kritische Einstellung zum Trainingsdatensatz ermöglichen optimale Ergebnisse Metriken zur Einstufung und Auswertung der Daten müssen klar definiert werden Der Wert von Tools zur Analyse der Aufzeichnungen und Datensätze ist nicht zu unterschätzen Diese erfolgt anhand verschiedener Kriterien wie einer Heatmap der Position von Verkehrszeichen die zeigt wann und wo sie erfasst wurden Manche Unternehmen sammeln und archivieren für Hardware in the Loop HiL -Tests so viele Daten wie möglich Bei der Analyse der archivierten Daten eines Herstellers war jedoch festzustellen dass nur ein Bruchteil einen tatsächlichen Wert hatte Da es sich bei den übrigen Daten um Duplikate handelte war ein sehr teurer zeitintensiver Prozess die Folge Ein weiterer wichtiger Aspekt ist also die Qualität der aufgezeichneten Daten Die Aufzeichnung muss mit hoher Genauigkeit 25 ns erfolgen damit sich die Daten später auf die Mikrosekunde genau in HiLFarmen wiedergeben lassen