da ich grad meeting-pause habe und mir langweilig ist, schreibe ich noch ein paar Gedanken zu den augenblicklich unterschiedlichen Philosophien der „autonomem“ Fahrzeuge (die vermutlich auch in den nächsten 10 Jahren nicht wirklich richtig autonom fahren können ;-)
Die europäische Philosophie: Man bevorzugt greifbare Ergebnisse ! Lidar und Radarsensoren liefern greifbare physikalische Ergebnisse für etwaige Hindernisse, können allerdings keine Fahrbahnen und Fahrbahnstreifen erkennen. Die einzelnen Abstandspunkte zu Hindernissen können allerdings ohne KI direkt im Nullkomma-nichts ausgewertet werden. Die „Regeln“ für die Auswertung gelten weltweit und müssen voraussichtlich nur einmalig (beim Fahrzeugbau) kalibriert werden. Was bei eventuellen Fahrzeugbeschädigungen durch Unfall etc. passiert, lasse ich mal dahingestellt. Der europäische Entwickler fordert auch immer eine Mischung aus verschiedenen physikalischen Messverfahren um den hohen Safety-Anforderungen (hier eigentlich SIL3) gerecht zu werden. Radar- und Lidarsensoren eignen sich hier wunderbar als Kombination (IR-Licht und Radiowellen). Der europöische Entwickler braucht natürlich zusätzlich zu den messenden Abstands-Sensoren auch Kameras, um das Straßenbild zu erfassen und entsprechende Lenkbewegungen und Geschwindigkeiten voraus zu ahnen. Vollbremsungen und Not-Schwenkbewegungen werden jedoch vornehmlich von den Lidar und Radarsensoren ausgelöst.
Das europäische System wird folglich eher eine Kombination aus Lidar, Radar und Kameras sein, die jeweils bestimmte Aufgaben haben, jedoch wird der Schwerpunkt der „Sicherheitsreaktion“ auf den Radar und Lidarsensoren liegen.
Ganz im Gegensatz zur amerikanischen, oder eher zur Elon Musk Innovation. Dieser setzt hauptsächlich auf Kamera-Bilder und weniger auf diskrete Sensorik. Natürlich sind auch dort Radarsensoren implementiert ( und möglicherweise sogar mittlerweile der eine oder andere Lidarsensor, aber sämtliche Schwerpunkte der Reaktion werden über die Kameras ausgelöst. Elon Musk vertraut hier auf täglich aufgenommene Bilder seiner Fahrzeuge und lässt diese Aktionen mit einer riesigen Rechenleistung permanent antrainieren. Man lernt sozusagen aus Fehlern der Interpretation der Kamerabilder. Spöttisch könnte man sagen: Ein Tesla ist eine grüne Banane, die durch ständigen Gebrauch reif wird ;-) Allzu spöttisch sollte man allerdings auch wieder nicht sein, denn die Auswertung über Kamerabilder hatte Tesla zumindest einen deutlichen Zeitvorteil gegeben.
Prognosen, was sich letztendlich etabliert, sind schwierig, allerdings ist mir persönlich eine Schwerpunkt-Gewichtung auf diskreten Sensoren (Radar und Lidar) deutlich angenehmer, als eine abstrakte KI-Interpretation von Kamerabildern. Ich möchte gefühlsmässig nicht die Person sein, die dem Tesla beigebracht hat, dass querende Elefanten auch rosa angemalt sein könnten und das Fahrzeug deshalb trotzdem bremsen sollte :-)) |