junge-frau-liest-buch-autonomen-auto-autoation-162980569
Metamorworks/stock.adobe.com
18.01.2021 AUTONOMES FAHREN Publikation

Anspruch und Wirklichkeit

Wenn autonome Fahrzeuge durch unsere Städte fahren, werden sie dabei von Künstlicher Intelligenz gesteuert. Bis zum völlig autonomen Fahren aber steht Wissenschaftlern und Industrie noch viel Arbeit bevor. Auch bei der Zertifizierung und dem Vertrauen der Menschen in die Technik warten Herausforderungen. Von Markus Strehlitz

Kontakt
VDE dialog - Das Technologie-Magazin
iot-smart-automotive-fahrerloses-Auto-ki_256553693

Vor allem in belebten Innenstädten stößt Künstliche Intelligenz in einem autonom fahrenden Auto an ihre Grenzen. Eine Fülle an Informationen muss verarbeitet, richtig erkannt und entsprechend in die korrekte Aktion umgesetzt werden. Problematisch ist, dass nicht jede Situation im Straßenverkehr vorhersehbar und trainierbar ist.

| Monopoly919/stock.adobe.com

Zunehmend mehr Menschen können sich mit der Idee anfreunden, in ein autonomes Fahrzeug zu steigen. Umfragen zeigen: Die Akzeptanz weltweit wächst. Zu diesem Ergebnis kommt zum Beispiel eine Studie von Capgemini, an der 5500 Verbraucher in Deutschland, Frankreich, Schweden, den USA und China teilnahmen. Laut dieser wird der Anteil der Menschen, die solche Autos nutzen möchten, bis 2024 auf 52 Prozent anwachsen. Die Studie zeigt aber auch, dass die Technologie für viele noch eine Zukunftsvision ist. Nur ein kleiner Teil ist bereit, sich schon jetzt in ein selbstfahrendes Auto zu setzen. Die Befragten haben vor allem Bedenken, wenn es um die Sicherheit geht. 71 Prozent befürchten, dass autonome Fahrzeuge bei plötzlichen Zwischenfällen falsch reagieren. Noch fehlt den Menschen das vollständige Vertrauen in die Technik. Die Sorge ist nicht unbegründet. Nach Ansicht von Toralf Trautmann, Professor für Kraftfahrzeug-Mechatronik an der HTW Dresden, stößt die Technik beim Einsatz in belebten Innenstädten an ihre Grenzen: „Ich glaube, das wird nicht machbar sein“, sagte er kürzlich dem Berliner Tagesspiegel.


Künstliche Intelligenz zwischen Performance und Sicherheit

Ein Problem liegt in den KI-Technologien, die im Fahrzeug genutzt werden. Diese funktionierten zwar meistens gut, so Prof. Dr. Mario Trapp, geschäftsführender Leiter des Fraunhofer-Instituts für Kognitive Systeme (IKS). „Aber das ‚meistens‘ ist nicht genauer spezifiziert“. Was dann passieren kann, zeigt ein Fall, der 2018 für Aufsehen sorgte. Dabei überfuhr ein Uber-Fahrzeug eine Fußgängerin. Die KI hatte die Fußgängerin als unkritisches Objekt klassifiziert, das man überfahren kann – wie zum Beispiel eine Plastiktüte. „Fachlich gesprochen reden wir von einer sogenannten Nichtlinearität bei der KI“, erklärt Trapp. „Wenn wir Software testen und unsere Testfälle gut wählen, dann gehen wir davon aus, dass sie sich auch in der Realität, die sich immer irgendwo zwischen diesen Testfällen bewegen wird, sicher verhält.“ Doch selbst wenn die KI im Testfeld ein Bild immer korrekt analysiert, kann es im realen Einsatz passieren, „dass nur ein kleines bisschen Rauschen in das Bild hineinkommt.“ Dann erhalte man ein komplett anderes Ergebnis. „Das macht die KI heute so schwer beherrschbar.“ Um das zu lösen, arbeiten Trapp und sein Team daran, mit klassischen Algorithmen den Vorschlag der KI zu plausibilisieren. Fehler zu erkennen, funktioniere mit dieser Methode schon recht gut. Die Herausforderung sei nun, nicht zu viele False-Positives zu produzieren. „Wir können das System heute schon sicher machen. Es aber abzusichern, ohne die Performance der KI zu sehr einzuschränken, ist der nächste Schritt.“

Um die KI im autonomen Fahrzeug abzusichern, muss an vielen Schrauben gedreht werden. Entsprechend groß ist die Zahl von Wissenschaftlern, die sich damit beschäftigen. Ein gemeinsames Projekt der TU Wien, des Forschungsinstituts IST Austria und des Massachusetts Institute of Technology (MIT) hat sich dafür sogar Anleihen aus der Natur geholt. Ziel sind weniger komplexe neuro­nale Netze, für die sich die Wissenschaftler etwa an einfachen Fadenwürmern orientieren. Mit einem solchen KI-­Modell ließe sich ein Fahrzeug „mit einer verblüffend kleinen Zahl von künstlichen Neuronen steuern“, heißt es in einer Presse­meldung. Dieses soll mit unsauberen Eingabedaten besser zurechtkommen als bisherige Deep-Lear­ning-Modelle. Und aufgrund seiner Einfachheit soll sich seine Funktionsweise im Detail erklären lassen. Die Black Box wäre dann nicht mehr ganz so undurchschaubar.

Zertifizierung der KI-Systeme im Auto steht vor vielfältigen Herausforderungen

Eine weitere Herausforderung liegt in der Zertifizierung des Systems. Darauf weist zum Beispiel Dr. Sebastian Hallensleben hin, Kompetenzfeldleiter Digitalisierung und KI beim VDE. In einem autonomen Fahrzeug sei Software installiert, die selbstlernend ist und sich somit ständig verändert. „Das ist sozusagen ein kontinuierliches, unkon­trolliertes Update“, erklärt Hallensleben. Dabei lernt das autonome Fahrzeug zum einen durch eigene Erfahrungen. Zum anderen nutzt es die Informationen aus anderen selbstfahrenden Autos, die ihre Daten teilen. So lernt das System zum Beispiel aus bestimmten Verkehrssituationen, die nicht Bestandteil des ursprünglichen Trainings waren.

Bisherige Zertifizierungen oder Zulassungen für sicherheitskritische Systeme seien aber darauf angelegt, „one-off zu sein“, so Hallensleben. Will heißen: Es wird einmal nach bestimmten Normen geprüft und ein Prüfbericht erstellt. Dann ist das Fahrzeug zugelassen oder eben nicht. Bei einem stark selbstlernenden System müsste diese Prüfung aber eigentlich immer wieder durchgeführt werden. „Man stelle sich nur den Fall vor, dass ein Fahrzeug hierzulande von einem anderen Auto lernt, das zum Beispiel in Neapel unterwegs ist, wo man vielleicht mal eher über eine rote Ampel fährt.“ Bisher sei noch nicht klar, wie dieses Problem zu lösen ist.

Maschinen müssen so resilient wie der Mensch werden

Möglicherweise ist das System aber auch von der Welt überfordert, in die es hineingeworfen wird. Schließlich bilden die Trainingsdaten, anhand derer es gelernt hat, immer nur den aktuellen Stand der Welt ab. Doch diese ändert sich. „Dann kommen plötzlich E-Bikes ins Spiel, die unserer Annahme, wie schnell ein Fahrrad fährt, nicht mehr entsprechen. Das ist eine große Herausforderung“, sagt Simon Burton, Kollege von Mario Trapp beim Fraunhofer IKS und dort für die Forschungsabteilung Safety verantwortlich. Dieses Problem gebe es schon bei jetzigen Systemen. Aber bei diesen kann immer noch der Mensch eingreifen. Und der ist in der Lage, sich auf neue Situationen einzustellen. „Wir arbeiten daran, Maschinen ähnlich resilient zu machen“, so Burton, „aber das ist keine einfache Aufgabe“.

Grundsätzlich wird es seiner Meinung nach nicht mit einer Methode allein möglich sein, für Sicherheit beim autonomen Fahren zu sorgen. „Es wird eine sehr breite Kombination von verschiedenen technischen Ansätzen geben – statistische und analytische Methoden ebenso wie bestimmte Rahmenbedingungen, die wir setzen müssen“, sagt Burton. Mit den Rahmenbedingungen spricht er auch das Verkehrssystem an, in dem sich die autonomen Fahrzeuge bewegen – es gilt, auch die Umgebung an die selbstfahrenden Autos anzupassen. Im Tagesspiegel plädierte Trautmann zum Beispiel dafür, Fußgänger und autonome Fahrzeuge baulich voneinander zu trennen, etwa wie beim autonomen Schienenverkehr. Nach Meinung von Burton sei es spätestens ab Level 4 (siehe Kasten) notwendig, ein sicheres Gesamtsystem aufzubauen. Die entscheidende Frage wird aber auch sein, wie viel Restrisiko wir bereit sind, zu tolerieren. „Man kann ein System entwickeln, das zu 100 Prozent sicher ist“, so Burton. „Aber das wird nur in der Garage stehen und sich nicht hinaustrauen.“ Ingenieure müssten dafür in den interdisziplinären Dialog treten und herausfinden, wie die gesellschaftlichen und rechtlichen Erwartungshaltungen aussehen.

Sein Kollege Mario Trapp warnt davor, die Technologie an sich zu verteufeln. „Man muss die Gesellschaft mitnehmen und Technologieängste abbauen. Wir müssen Lösungen zeigen und uns das Vertrauen der Menschen verdienen.“

MARKUS STREHLITZ ist freier Journalist und Redakteur beim VDE dialog.

In 5 Stufen zum autonomen Fahren

Assistiert, teilautomatisiert, hochautomatisiert, vollautomatisiert, autonom: Diese Begriffe beschreiben die fünf Level auf dem Weg zum autonomen Fahrzeug.

Level 1, Fahrassistenz: Hierzu zählen bereits Autos mit herkömmlichen Tempomaten.

Level 2, Teilautomation: In vom Hersteller definierten Situationen kann das Fahrzeug selbstständig die Spur halten oder bremsen. Auch Einpark-Assistenten zählen zu Level-2-Funktionen.

Level 3, hohe Automation: Hochautomatisierte Fahrzeuge können selbstständig überholen, bremsen und beschleunigen, je nach Anforderungen der Verkehrssituation. Der Fahrer darf in dieser Zeit sogar Zeitung lesen, muss allerdings in der Lage sein, die Fahrertätigkeit wiederaufzunehmen, wenn ihm das System ein Signal dazu gibt.

Level 4, volle Automation: Fahrzeuge dieser Stufe übernehmen alle Fahraufgaben selbstständig. Sie können auch auf die Autobahn auffahren, blinken und überholen. Hier kann der Fahrer sogar während der Fahrt schlafen.

Level 5, autonom: Der Passagier hat keine Fahraufgabe und auch keine Möglichkeit mehr, in die Fahrsituation einzugreifen. Das Fahrzeug bewältigt auch sehr komplexe Situationen wie das Überqueren einer Kreuzung autonom. Diese Fahrzeuge können auch ohne Passagiere fahren.


Interessiert an Mobility und Elektromobilität?

Mobility
metamorworks / stock.adobe.com
25.01.2024 TOP

Wer die Mobilität der Zukunft auf den Weg bringen und voranbringen will, hat viele Möglichkeiten im Zeichen von Automotive 4.0 – aber auch viele Hürden zu meistern. Denn Deutschland und internationale Märkte sind keine Technologie-Highways ohne Speedlimit. Der VDE engagiert sich deshalb für E-Mobility, C2X-Kommunikation und Autonomes Fahren.

Weitere Inhalte zum Thema Mobilität finden Sie auf unserer Themenseite Mobility.

Zur Themenseite Mobility