Navigation und Service

Automotive – Schwachstellenanalyse von Sensorsystemen in Fahrzeugen

Hintergrund:
Automatisiertes Fahren ist derzeit das Ziel vieler Forschungs- und Entwicklungsprojekte. Seit einigen Jahren wird die Entwicklung von Fahrassistenzsystemen stetig vorangetrieben. Moderne Fahrzeuge sind in der Lage, komplexe Umgebungssituationen zu erfassen und teilweise selbstständig Fahrbefehle auszuführen. Teilfunktionen von modernen Fahrassistenzsystemen sind die Fußgängererkennung, die Verkehrsschilderkennung, die Kollisionswarnung oder die Fahrspurerkennung. Abhängig von den Sensordaten werden verschiedene Aktionen ausgeführt (optische und akustische Warnung des Fahrers, selbstständige Lenkbewegungen oder Notbremsvorgänge). Hierbei handelt es sich um Funktionen des teilautomatisierten Fahrens im Autonomielevel 2. Damit Fahrzeuge teilautomatisiert fahren können, werden sie mit einer Vielzahl von Sensoren (beispielsweise Radar-, Lidar- oder optische Sensoren) und Systemen zur Bestimmung der Geoposition (GPS, Galileo, GLONASS) ausgestattet. Durch die Integration dieser Sensoren in das Fahrzeug werden neue Informationskanäle in das Fahrzeug hinein geschaffen. Diese neuen Informationskanäle bieten Angreifern potentiell die Möglichkeit, in die Steuerung der Fahrzeuge einzugreifen. Somit besteht die Gefahr, dass ein Angreifer das Fahrverhalten bis hin zur Initiierung von Unfällen beeinflussen kann. Da in Zukunft Fahrzeuge im Autonomielevel 5 vollautomatisiert fahren sollen, werden keine Bedienelemente wie Lenkrad oder Pedale im Fahrzeug vorhanden sein. Somit werden die Insassen keine Möglichkeit mehr haben, bei einer Beeinflussung von außen in das Fahrgeschehen einzugreifen. Unter dem Gesichtspunkt der Funktionssicherheit werden sicherheitssensitive Systeme in Fahrzeugen mit Verantwortung in aller Regel redundant ausgelegt. Ziel ist die Beherrschung zufälliger Fehler, nicht aber gezielte Spoofing-Angriffe auf die Sensorik.

Das BSI beschäftigt sich derzeit verstärkt mit der Untersuchung von Schwachstellen optischer Fahrassistenzsysteme, um Handlungsoptionen aufzuzeigen. Hier haben sich durch vorangegangene Untersuchungen spannende Arbeitsfelder eröffnet, welche fortgeführt und um neue Ansätze erweitert werden sollen.

Mögliche Aufgabenfelder:

  • Extraktion des Kamera-/Videostreams und Fusion des Live-Streams mit den Ausgabedaten. Das Livebild des Systems soll aus dem CAN-Bus Signal extrahiert und mit den Ausgabedaten des Systems fusioniert werden, sodass die von dem System erkannten Objekte in dem Videostream identifiziert werden können.
  • Entwicklung einer GUI zur Veranschaulichung der Ausgaben des Fahrerassistenzsystems. Ziel ist es, die Ausgabedaten zu filtern und für eine manuelle Auswertung aufzubereiten, zu visualisieren und für externe Beobachter zu veranschaulichen.
  • Erstellung eines Analyse-Frameworks zur automatischen Verarbeitung und Auswertung der Ein- und Ausgabedaten des Systems.
  • Konzeptionierung einer Testumgebung, um Untersuchungen des Systems mittels Hard- und Software in the Loop (HiL und SiL)-Tests automatisiert durchführen zu können.
  • Integration von Angriffen auf Neuronale Netze (Adversarial Attacks) im Bezug auf die Verkehrsschilderkennung. Mittels Hard- und Software in the Loop sollen Adversarial-Patches gefunden werden, welche das System zu einer Falschklassifizierung bringen.
  • Konzeptionierung und Entwicklung von Angriffspfaden, insbesondere Spoofing-Angriffe auf die Fahrzeugsensorik zur Beobachtung des Fahrzeugumfeldes und zur Bestimmung der Fahrzeug-Geoposition
  • Erstellung einer 3D-Simulationsumgebung, um flexibel Verkehrssituationen realistisch darstellen zu können.

Art der Arbeit:
Praktikum; Bachelorarbeit; Masterarbeit

Nützliche Vorkenntnisse:
(abhängig vom konkreten Thema) Python, C/C++, Datenübertragungsprotokolle(CAN-Bus o.ä.), Machine-Learning

Studienrichtung:
Informatik, Technische Informatik, Automobil-/Fahrzeugtechnik, Sensorsysteme, Elektrotechnik, Physik

Ansprechpartner:
Timo Hoß, Gerd Nolden, Prof. Markus Ullmann, Daniel Fischer
Referat D 11: Bewertungsverfahren für Anwendungen vonID-Technologien