Irgendwann musste es passieren: Ein im automatisierten Fahrbetrieb befindliches Fahrzeug ist in einen Unfall verwickelt und kann die Situation nicht retten. In diesem Fall ist ein Mensch um’s Leben gekommen. Sehr tragisch. Was ist passiert?
Ein Truck biegt an einer Kreuzung links ab und nimmt einem geradeaus fahrenden Fahrzeug die Vorfahrt. Soweit erst einmal ein statistisch gesehen relativ häufiger Vorfall. In diesem Fall war das Fahrzeug ein Tesla Model S im ‘Autopilot’ Modus. Das bedeutet, dass das Fahrzeug selbst die Längs- und Querführung übernommen hat (Lenken & Gas/Bremse). Die Software wird von Tesla unter Realbedingungen ‘beim Kunden’ getestet, sie ist ausdrücklich als Beta Version verfügbar, das bedeutet der Kunde darf sich nicht auf die Fehlerfreiheit verlassen, denn er hat eingewilligt sie als Testfahrer zu nutzen. Mutig von Tesla, deutsche Hersteller haben sich dagegen entschieden, wenngleich sie technisch auch so weit wären.
Es ist ein Unglück, welches durch die Verkettung menschlichen Versagens hervorgerufen wird aber in der Verfehlung der Technik mündet:
Die mediale Debatte entfaltet sich natürlich in Richtung Tesla und Fehler der “Autopilot” Funktion. Wieso hat der Autopilot das nicht erkannt? Nungut, steigen wir mit ein.
Aus aktuellem Anlass der Massenkarambolage nahe Rostock ein Artikel zur Fahrzeuglängsführung.
Da nun die Staatsanwaltschaft ermittelt, gilt es sehr viele Fragen zu klären. Eine davon wird sein, wie der Weg-Zeit- bzw. Geschwindigkeits-Zeit-Verlauf jedes einzelnen Fahrzeugs gewesen ist. Daraus lässt sich dann ableiten, ob ein Fahrzeugführer eventuell eine Straftat begangen hat, oder ob es ein nicht vermeidbarer Unfall gewesen ist. Einfache Berechnungen zeigen, dass die Grenze hauchdünn ist.