Autopilot verlässt sich nur auf Kameras – Teslas „grundlegender Fehler“

Anstatt seine Autos mit Sensoren wie Lidar auszustatten, verlässt Tesla sich für den Autopiloten und den vollautomatischen Fahrmodus auf Kameras, was der größte Fehler des Systems sein könnte

Für die Links auf dieser Seite können wir eine Provision verdienen.
Ein Foto eines Tesla-Armaturenbretts mit aktiviertem Autopilot.
Tesla verwendet Kameras zur Überwachung der Umgebung wenn der Autopilot aktiviert ist.
Foto: Chris Walker/Chicago Tribune/Tribune News Service (Getty Images)

Bisher wurden in diesem Jahr Tesla-Autos mit Autopilot und Full-Self-Drive-Software erwischt geparkte Polizeiautos anfahren, Züge ausschneiden und von der Straße abgekommen ist. Nun hat ein Bericht enthüllt, dass die Abstürze sind das Ergebnis von ein „fundamentaler Fehler“ in der Funktionsweise der Software.

Werbung

Teslas Autopilotsystem funktioniert durch eine Reihe von Kameras, die über die Autos angeordnet sind, darunter an der Front, Heck und an den Seiten. Die Kameras überwachen ständig den Bereich um die Autos herum und berechnen mit maschinellem Lernen, wie sich das Fahrzeug verhalten sollte, wenn der Autopilot oder der automatische Fahrmodus aktiviert ist.

Die Kameras werden von Datenexperten bei Tesla darauf trainiert, Verkehrsschilder zu erkennen und entsprechend zu reagieren. Sie sind auch darauf programmiert, Hindernisse auf der Straße zu erkennen, beispielsweise stehende Lastwagen oder Tiere. Allerdings „wissen“ sie nur dann, wie sie auf ein Hindernis reagieren sollen, wenn die Software darauf trainiert wurde, es zu erkennen. Wenn nicht, wird die Kamera automatisch erkannt. Autos wissen nicht, wie sie reagieren sollen.

Werbung

Dieser Mangel wurde dargelegt in ein neuer Bericht von der Wall Street Journal, in der mehr als 200 Unfälle untersucht wurden, an Tesla-Autos beteiligt waren, die mit Autopilot und FSD ausgestattet sind.

Werbung

Im Bericht die hier angesehen werden kannhat die Verkaufsstelle stundenlanges Filmmaterial von Unfällen mit Tesla-Fahrzeugen aufgedeckt. Von den mehr als 1.000 Unfällen, die Tesla der National Highway Traffic Safety Administration gemeldet hat, Tagebuch konnte 222 Vorfälle zusammentragen und analysieren. Von den 222 Unfällen wurden 44 durch Tesla-Autos verursacht, die plötzlich von der Fahrt abwichen und 31 ereigneten sich, als die Autos nicht anhielten oder nachgaben konnten.

Werbung

„Bei diesen Systemen laufen häufig Fehler, wie etwa, dass das System nicht anhand der Bilder eines umgekippten Doppelanhängers trainiert wurde – es wusste einfach nicht, was es war“, sagte Phil Koopman, außerordentlicher Professor für Elektro- und Computertechnik an der Carnegie Mellon University, der WSJ.

Ein Foto von Tesla-Chef Elon Musk.
Tesla-Chef Elon Musk ist davon überzeugt, dass der Autopilot Leben retten wird.
Foto: Nora Tam/South China Morning Post (Getty Images)
Werbung

„Man hätte klar gesagt: ‚Etwas Großes ist in der Mitte der Straße‘, aber maschinelles Lernen funktioniert so, dass es anhand einer Reihe von Beispielen trainiert wird. Wenn es auf etwas stößt, für das es nicht viele Beispiele hat, hat es möglicherweise keine Ahnung, was los ist.“

Dies, das Tagebuch sagt, ist der „fundamentale Fehler“ in Teslas Autopilot-Technologie und seiner Full-Self-Drive-Software. Laut der WSJ:

Teslas starke Abhängigkeit von Kameras bei seiner Autopilot-Technologie, die sich vom Rest der Branche unterscheidet, gefährdet die Öffentlichkeit.

Teslas, die mit Autopilot betrieben werden, waren seit 2016 in Hunderte von Unfällen auf US-amerikanischen Straßen und Autobahnen verwickelt. Im Laufe der Jahre hat Tesla-CEO Elon Musk immer wieder betont, dass die Technologie sicher sei.

Werbung

Externe Experten sind sich jedoch nicht so sicher, und die WSJ sprach mit Missy Cummings, Direktorin des Autonomy and Robotics Center an der George Mason University, die wiederholt gewarnt hat, dass Menschen könnten am Steuer eines Tesla sterben Bedienung des FSD und des Autopiloten.

„Ich werde mit Anfragen von Familien von Menschen überhäuft, die bei Tesla-Unfällen ums Leben gekommen sind“, sagte Cummings dem WSJ„Es ist wirklich schwer, ihnen zu erklären, dass die Technologie so konzipiert wurde.“

Werbung

Anstatt stark auf Kameras und Computer Vision zu vertrauen, versehen andere Autohersteller ihre Prototypen für selbstfahrende Fahrzeuge mit komplexeren Sensoren. Bei Unternehmen wie Volvo, Lidar und Radar werden eingesetzt um die Straße vor dem Fahrzeug abzutasten. Diese Sensoren vermessen die Straße mit Schallwellen und Lasern, um auch bei Nebel, Dunkelheit oder anderen Bedingungen, bei denen eine Kamera nicht so effektiv ist, eine klarere Sicht auf den Weg zu erhalten.

Ein Foto eines Lidar-Sensors auf einem Volvo-Auto.
Teslas selbstfahrender Konkurrent Volvo verwendet Lidar in seinen Systemen.
Bild: Volvo
Werbung

Die zusätzlichen Kosten solcher Systeme waren ein großer Faktor für Teslas Entscheidung, sie nicht zu nutzen, wobei Firmenchef Elon Musk sie einmal als „unnötig“ und als „als würde man das Auto mit einer ganzen Reihe teurer Anhänge ausstatten“ bezeichnete.

Der Wert dieser Mehrkosten sollte jedoch nicht unterschätzt werden. Bei Mercedes hat die Integration von Lidar-, Radar- und 3D-Kameras den Weg für die Einführung seiner selbstfahrenden Systeme auf Amerikas Straßen geebnet. Tatsächlich war der Autobauer das erste Unternehmen, das im vergangenen Jahr grünes Licht für die Autonomie der Stufe 3 erhielt mit Pilotsystem in Kalifornien und Nevada betreiben.

Werbung

Das Level-3-System ist dem, was Tesla anbieten kann, einen Schritt voraus, und Mercedes geht sogar so weit, volle rechtliche Haftpflicht bei Aktivierung des Drive Pilot. Stellen Sie sich vor, Tesla würde das für Autos tun, die mit Autopilot und FSD betrieben sind.

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung