Fahrerassistenzsysteme leisten seit einigen Jahren einen wesentlichen Beitrag zur aktiven Sicherheit im Straßenverkehr. Anders als passive Sicherheitssysteme (wie Airbag, Gurtstraffer usw.) versuchen sie Unfälle erst gar nicht entstehen zu lassen. Das ist gar nicht so leicht! Auch wenn es viele nicht wahrhaben wollen, aber es gibt eine erschreckende Zahl: 90.
Offensichtlich hat die Verkehrssicherheit ein großes Problem: Menschen werden schwer verletzt oder sterben, weil andere Menschen Fehler machen. Sei es, dass sie Geschwindigkeiten oder Abstände falsch einschätzen, dass sie mit der Fahrsituation überfordert sind oder das sie schlichtweg emotional reagieren und Verletzungen riskieren.
Neuwagen können mit einer großen Anzahl an Fahrerassistenzsysteme ausgestattet werden, bishin zu teilautomatisierten Fahrfunktionen. Der Weg zum selbstfahrenden Auto ist zwar noch lang, aber der Weg dahin wird beschritten. Nicht zuletzt die Versicherer machen Druck, denn Unfälle kosten Geld. Schön wäre es doch, wenn man auch ältere Fahrzeuge mit moderner Technik ausstatten könnte. Ein nachrüstbares System auf dem Markt ist das Mobileye Kamerasystem.
Nachfolgend ein kurzer, technischer Test des Systems aus Sicht eines Entwicklers.
Seit circa zwei Jahren mischt Google medial massiv im Business der selbstfahrenden Autos mit. Man hat praktisch den Eindruck, als ob es nur noch eine Frage des äußeren Erscheinungsbildes ist, welches Fahrzeug Google nun als Taxiersatz auf die Straßen dieser Welt los lässt.
Ersatz für den privaten PKW, für das Taxigewerbe sowieso und auch Waren- und Dienstleistungen werden alsbald durch die Self Driving Cars ersetzt, so die mediale Darstellung. Journalisten und Blogger geben jedes noch so schön aussehende Foto von selbstfahrenden Autos zum besten und wiederholen Aussagen über die dinosaurierartige Entwicklungsgeschwindigkeit der deutschen Automobilhersteller.
Ich möchte mit diesem Beitrag eine kleine Einschätzung zu der aktuellen und zukünftigen Situation der selbst fahrenden Autos machen.
Prof. Amnon Shashua ist Co-founder & CTO von Mobileye und er sprach auf der Deutsche Bank Global Auto Industry Conference.
Er spricht über die historische Entwicklung der Computer Vision für Fahrerassistenzsysteme und auch die zukünftige. So wird beispielsweise dieses Jahr ein automatischer Notbremsassistent bei Audi eingeführt, welcher nur mit Computer Vision als Sensorik funktioniert. Bisher ein klassisches Betätigungsfeld für Radarsensorik oder Lidar.
Er spricht außerdem über False-Positive (d.h. es gibt kein Hindernis, das System hat aber etwas erkannt und ausgelöst) und False-Negative (d.h. es gab ein Hindernis, das Computer Vision System hat es aber nicht erkannt) Auswirkungen für die Detektion von Ereignissen.
Außerdem wird auf die Fortschritte der Straßenverlaufs- und Hinderniserkennung bei Nacht eingegangen.
Ebenfalls wird auf die Erkennung von Straßeneigenschaften, d.h. Schlaglöcher oder Schwellen, eingegangen. Diese können relativ genau erkannt und das Fahrwerk bzw. die Geschwindigkeit darauf angepasst werden. Dies wird spätestens bei autonomer Fahrt interessant.
Um das Fahrzeug in der Umgebung sicher bewegen zu können, gibt es verschiedene Ansätze. Google beispielsweise fährt umher und scannt einfach die gesamte Stadt mit 360° Laserscannern in riesigen Punktwolken ab, welche dann zu 3D Modellen zusammen gesetzt werden. Daraus können Straßen, Hindernisse, Ampeln, Bordsteine, Einfahrten etc. extrahiert werden.
Genau auf der anderen Seite der Möglichkeiten steht, gar keine Daten zu sammeln, sondern nur Sensoren immer schauen zu lassen, wie es denn gerade aussieht.
Doch all diese Step-by-Step Verbesserungen reichen nicht, um autonome Fahrt realisieren zu können. Dafür muss ein großer, riesiger Schritt getan werden.
Prof. Shashua spricht über Deep Learning und das MobileEye seit 2 Jahren an der Nutzung von Deep Learning Algorithmen (genauer: Deep Convolutional Networks) für die Umfeldsensorik arbeitet. Dabei war vor allem das Problem der vielen (kleinen) Operationen (mathematischen Faltungen = Convolutions) die Herausforderung, was aber mit dem neuen EyeQ3 Chip wohl gelöst sei.
Mit angelernten neuronalen Netzen war es möglich Fahrspuren zu erkennen, selbst wenn keine Fahrbahnmarkierungen zu ‘sehen’ waren. Außerdem erkennt das Netz freie Fahrbahn, Fahrzeuge und Straßenbegrenzungen. Siehe auch ‘Es beginnt selbst zu lernen…‘
Dies ist keine Zukunftsmusik, so Shashua, es wird dieses Jahr einen Fahrzeughersteller geben, der dies in Serie heraus bringen wird. Und er sprach viel über Tesla in diesem Vortrag. :)
Sein Fazit ist, dass die Computer Vision die Sensorik für Fahrerassistenzsysteme werden wird, Radar und Laserscanner nur zur Redundanz bzw. Absicherung eingesetzt werden, falls der Fahrzeughersteller diese Kosten auf sich nimmt. Denn Computer Vision Sensorik ist die mit Abstand günstigste.
Nungut, bei Nebel sieht ein Computer Vision System auch nichts, da muss das Radar die Abstandsinformation liefern.
Lange Rede, kurzer Sinn, hier der Vortrag:
Errata: In der ursprünglichen Fassung des Artikels war die Beschreibung für False-Positive und False-Negative vertauscht.
Es ist schon lange davon zu lesen, dass die Art der Softwaregestaltung maßgeblich die Charakteristik des Autos, je nach Hersteller, prägt. Ein Daimler wird das ESP wohl eher soft und sicher auslegen, ein Porsche wohl eher im Grenzbereich die Parameter setzen. Doch wie geht es weiter, vor allem in Bezug zur vollautonomen Fahrt?
Worst Case Szenario und Horror für jeden Autofahrer: Ein Mensch kommt hinter einem parkenden Auto vorgelaufen. Die Reaktionszeit des Menschen ist einfach zu lang um darauf zu reagieren. Kann es die aktuelle Technik besser? Der ADAC hat getestet:
Ist für das Wunschfahrzeug ein solches System erhältlich, sollte man es durchaus mit dazu ordern. Denn: Vermeidet man damit einen Unfall, hat es sich mehrfach bezahlt gemacht – Andreas Rigling, ADAC
…von der menschlichen Tragödie mal ganz abgesehen.