Es hatte noch gebremst: Robotaxi von Waymo fährt Kind an
Während Waymo immer wieder betont, seine Robotaxis seien in viel weniger Unfälle verwickelt als Autos mit menschlichen Fahrern, zeigt der Vorfall in Santa Monica nun einmal mehr: Absolute Sicherheit gibt es nicht – auch nicht bei Robotaxis. Dabei hatte Waymo erst vergangene Woche zu seinem Launch in Miami betont, mit über 127 Millionen vollautonom gefahrenen Meilen (ca. 205 Millionen Kilometer) in seinen Betriebsgebieten habe man eine zehnfache Reduzierung der Unfälle mit schweren Verletzungen im Vergleich zu menschlichen Fahrern erreicht.
Soviel also zum Ausgangspunkt der Diskussion, die sich nun um den Unfall in Santa Monica abspielt. Zunächst zu den bekannten Fakten: In der Nähe einer Grundschule hat dort am Freitag, 23. Januar 2026, ein autonom fahrendes Robotaxi von Waymo ein Schulkind angefahren. Es erlitt leichte Verletzungen. Laut einer ersten internen Untersuchung des Vorfalls durch Waymo soll das Kind plötzlich hinter einem hohen SUV die Fahrbahn betreten und direkt in den Fahrweg des Waymo-Fahrzeugs gelaufen sein.
„Unsere Technologie erfasste die Person sofort, als sie hinter dem stehenden Fahrzeug hervortrat. Der Waymo Driver (Anmerkung der Redaktion: so nennt sich die Software) bremste stark und reduzierte die Geschwindigkeit von etwa 16 Meilen pro Stunde auf 6 Meilen pro Stunde, bevor es zum Zusammenstoß kam.“ Umgerechnet ins metrische System bedeutet das: Das Robotaxi konnte noch von 27 km/h auf 10 km/h abbremsen, bevor es zum Unfall kam. Im Anschluss soll das Kind selbstständig wieder aufgestanden und an den Straßenrand gegangen sein.
Polizei und Verkehrsbehörde NHTSA eingeschaltet
Laut eigenen Angaben hat Waymo anschließend sofort die Polizei eingeschaltet und das Fahrzeug am Unfallort belassen, bis es die behördliche Freigabe hatte. Und zudem hat Waymo laut eigenen Angaben noch am selben Tag die Verkehrssicherheitsbehörde NHTSA eingeschaltet, die eine Untersuchung des Vorfalls eingeleitet hat.
Die NHTSA will nun unter anderem prüfen, ob das Fahrzeug in der Nähe einer Schule und Kindern mit angemessener Vorsicht unterwegs gewesen ist. Waymo hatte bereits zuvor seine Software anpassen müssen, nachdem ein Fahrzeug dabei gefilmt worden war, regelwidrig einen stehenden Schulbus umfahren zu haben.
Waymo-Stellungnahme ohne Empathie
Was die Diskussion um den Unfall befeuern dürfte: Auch wenn nach erster Betrachtung das Kind den Zusammenstoß selbst verursacht haben könnte, so argumentiert Waymo in seiner Stellungnahme extrem sachlich – und drückt keinerlei Bedauern gegenüber dem Kind und seiner Familie aus. Dafür betont das Unternehmen vielmehr, ein Unfall mit einem menschlichen Fahrer wäre wohl schlimmer ausgegangen: „Unser von Experten begutachtetes Modell zeigt, dass ein voll aufmerksamer menschlicher Fahrer in derselben Situation mit etwa 14 Meilen pro Stunde mit dem Fußgänger kollidiert wäre. Diese signifikante Reduzierung der Aufprallgeschwindigkeit und -schwere belegt den erheblichen Sicherheitsnutzen des Waymo Driver.“
Dabei sind sich Experten uneins, ob autonome Fahrzeuge wirklich so viel sicherer sind als welche mit menschlichen Fahrern. Denn auch wenn Waymo-Fahrzeuge bislang weniger Unfälle pro gefahrene Meile und insbesondere deutlich weniger schwere Verletzungen verursacht haben als menschliche Fahrer, so kann das daran liegen, dass die Fahrzeuge überwiegend in begrenzten, genau kartierten Betriebsgebieten mit vorhersehbarem Verkehr und niedriger Geschwindigkeit fahren. Das reduziert die Zahl kritischer Situationen deutlich.
Sprich: Robotaxis sind statistisch seltener in Unfälle verwickelt, aber die Statistik wird durch kontrollierte Umgebung und geringere Geschwindigkeit begünstigt. Das die Technik nicht perfekt ist, wurde z.B. bei einem schweren Unfall eines Fahrzeugs der GM-Tochter Cruise deutlich, bei dem eine Frau von einem fahrerlosen Fahrzeug mehrere Meter weit mitgeschleift wurde. Danach gab GM das Robotaxi-Geschäft auf.
0 Kommentare