Safety
KIT
LFT ist Vorreiter in der Entwicklung sicherheitskritischer Softwareprodukte im Bereich LiDAR-Wahrnehmung und Datenfusion für das autonome Fahren. Unsere Regel-basierten Fusionsverfahren vereinen Eigenschaften und Objekte aus der LiDAR-Datenverarbeitung (LiDAR Perception) mit Daten unabhängiger Verarbeitungsketten verschiedener, möglichst unterschiedlicher Sensortechnologien (z.B. KI-kamerabasierter Performancepfad).
Unsere Stärken liegen nicht nur in der Generierung von reinen LiDAR-basierten Umfeldwahrnehmungsmodellen, sondern vor allem in der Gewährleistung der Funktion und Leistungsfähigkeit der Umfeldwahrnehmung im Kontext des autonomen Fahrens.
- Das Safety-Kit ist der Wegbereiter zur SAE L4-Zulassung für autonome Fahrzeuge.
- Das Safety-Kit ermöglicht Sicherheitsstufen bis zu ASIL D (SOTIF & ISO26262).
- LFT macht autonomes Fahren so sicher wie Fliegen und führt es zur Zertifizierungsstufe.
Download
ASPP TigerEye®
(LiDAR Perception)
Vorstellung des ASPP TigerEye® (Advanced Sensor Perception Processing): Eine modular aufgebaute Software Suite zur Verarbeitung von LiDAR-Daten. Basierend auf LFT's Expertise in der Filterung, Segmentierung und Klassifizierung von LiDAR-Daten in der Luftfahrtindustrie verwendet dieses Produkt ausschließlich klassische deterministische Algorithmen. Diese müssen nicht, wie bei KI-basierten Methoden, aufwändig trainiert werden. Die Verringerung der Datenmenge in frühen Verarbeitungsphasen führt zu niedrigem Rechenaufwand.
ASPP TigerEye® umfasst 8 Hauptmodule, die die komplette LiDAR-Datenverarbeitungskette zur Umfeldwahrnehmung und Überwachung abdecken:
-
TE-1: LiDAR-Sensordatenfilterung zur Beseitigung von Artefakten aus LiDAR-Tiefenbildern, die durch Empfängerrauschen, Sonneneinstrahlung, Dunst oder Streuung entstehen.
-
TE-2: Free Space Detection: Ermittelt den freien befahrbaren Raum vor dem Fahrzeug, indem es die Bodenfläche und erhabene Objekte segmentiert.
-
TE-3: Erkennung von Fahrstreifen aus dem LiDAR-Sensor.
-
TE-4: Segmentierung, Clustering und Tracking von 3D-Objekten.
-
TE-5: Offline/Online Kalibrierung: Automatisierte Kamerabild-Entzerrung und Alignment zwischen LiDAR und Kamera.
-
TE-6: LiDAR Detection Performance Monitoring: Echtzeit-Überwachung der Sensorreichweite, Identifikation von Degradationsgraden und Lieferung von CBITs für LiDAR-Sensorik.
-
TE-7: Erkennung relevanter kleiner Hindernisse.
-
TE-8: Dynamische Kollisionswarnung: Vorhersage der Trajektorie dynamischer Objekte zur Kollisionsvermeidung.
Alle Module sind separat bei LFT erhältlich und flexibel an verschiedene LiDAR-Sensoren und deren Datenformate anpassbar.
ADFS MentisFusion®
(Datenfusion)
Unsere Produktreihe ADFS MentisFusion® (Advanced Data Fusion System) ist von der Natur inspiriert – genauer gesagt von der "Gottesanbeterin". Warum? Weil dieses beeindruckende Insekt alle seine Prozesse auf eine einzige "Aktion" – das Fangen von Beute – ausrichtet.
Ähnlich fokussiert sich unser Produkt darauf, fragmentierte und teilweise widersprüchliche Sensordaten in Echtzeit zu einer verständlichen Gesamtansicht für das Fahrzeug zusammenzuführen und sicher aufzubereiten.
ADFS MentisFusion® kombiniert deterministische, regelbasierte Algorithmen zur Datenfusion von vorverarbeiteten Daten wie 2D-Strukturen, 3D-Objekten und segmentierten 3D-Datenpunkten aus verschiedenen Datenquellen. Diese Datenquellen können Kamera- oder LiDAR-Daten sein, aber auch Informationen aus Datenbanken (einschließlich cloudbasierter Daten) sowie RADAR-Informationen.
Der Zweck der Sensordatenfusion besteht darin, die systematischen Lücken verschiedener Technologien zu überbrücken und eine umfassende Erfassung der Umgebung in gleichbleibender Qualität über ein breites Anwendungsspektrum zu gewährleisten.
Um die Anforderungen an Datenintegrität zu erfüllen, werden die Daten zuerst in unabhängigen funktionalen Ketten erzeugt und dann zusammengeführt. Das Prinzip des gegenseitigen Überwachens und Unterstützens („Doer-Checker“-Prinzip) von mehrfachen, technologieübergreifenden Sensorfunktionsketten bildet einen wichtigen Teil der Datenfusion.
Ergebnisse der Fusion für umfassende Wahrnehmung
Die Fusion von unabhängigen multimodalen Funktionsketten (LiDAR und Kamera, regelbasiert und KI) sowie die Überlagerung mit Videodaten resultiert in einer beeindruckenden Wahrnehmungsverarbeitung. In einer anspruchsvollen Sequenz mit komplexen Szenarien wie überhängenden Lasten, bergauf führenden Straßen, Spurrillen und niedrigen Bordsteinen bei schwachem Umgebungslicht demonstrieren die Ergebnisse der Fusion die Vorteile der gegenseitigen Überprüfung und Ergänzung der Ergebnisse verschiedener Funktionsketten.
Module der ADFS MentisFusion®-Produktreihe
-
MF-1: Lane-Marker-Fusion
Diese Software kombiniert Informationen zur Fahrspurmarkierung von verschiedenen Sensoren. Mithilfe probabilistischer Fusionstechniken werden Fahrspurmarkierungshypothesen analysiert und kombiniert, wenn Übereinstimmung besteht. Bei fehlender Übereinstimmung, aber keiner Widersprüche zu anderen Hypothesen, werden weitere Analysen durchgeführt. Das Ziel ist eine präzise und zuverlässige Fahrspurerkennung.
-
MF-2: Freespace-Detection
Die MF-2 Software vereint Informationen zur erreichbaren Straßenfläche aus Kameradaten und LiDAR-Daten-basierten Polygonen. Durch ein "Checker-Checker" Prinzip werden die Daten gegenseitig überprüft, um die Stärken verschiedener Sensoren auszugleichen und Unzulänglichkeiten zu kompensieren. Dies ermöglicht eine genaue und zuverlässige Erkennung des befahrbaren Bereichs.
-
MF-3: Object-Fusion
MF-3 kombiniert Objektinformationen aus semantischer Kamerasegmentierung, LiDAR- und RADAR-Daten. Die räumliche Übereinstimmung relevanter Objekte wird geprüft, und Informationen aus verschiedenen Quellen werden berücksichtigt. Ziel ist die Schaffung eines umfassenden, genauen Bildes der erkannten Objekte.
-
MF-4: Combined Tracking of Object
Diese Software basiert auf den Fusionsergebnissen von MF-3 und verfolgt Objekte über die Zeit (Tracking). Unterschiedliche Datenquellen liefern Geschwindigkeitsschätzungen, die kombiniert werden, um genaue Verfolgungsergebnisse zu erzielen. Das Zusammenspiel verschiedener Datenquellen ermöglicht eine präzise Lokalisierung von statischen und bewegten Objekten.
Unsere ADFS MentisFusion®-Produkte repräsentieren eine innovative Herangehensweise an die Datenfusion und bieten eine robuste Lösung zur Schaffung einer ganzheitlichen, präzisen und zuverlässigen Wahrnehmung für autonomes Fahren.