Vor allem in belebten Innenstädten stößt Künstliche Intelligenz in einem autonom fahrenden Auto an ihre Grenzen. Eine Fülle an Informationen muss verarbeitet, richtig erkannt und entsprechend in die korrekte Aktion umgesetzt werden. Problematisch ist, dass nicht jede Situation im Straßenverkehr vorhersehbar und trainierbar ist.
| Monopoly919/stock.adobe.comZunehmend mehr Menschen können sich mit der Idee anfreunden, in ein autonomes Fahrzeug zu steigen. Umfragen zeigen: Die Akzeptanz weltweit wächst. Zu diesem Ergebnis kommt zum Beispiel eine Studie von Capgemini, an der 5500 Verbraucher in Deutschland, Frankreich, Schweden, den USA und China teilnahmen. Laut dieser wird der Anteil der Menschen, die solche Autos nutzen möchten, bis 2024 auf 52 Prozent anwachsen. Die Studie zeigt aber auch, dass die Technologie für viele noch eine Zukunftsvision ist. Nur ein kleiner Teil ist bereit, sich schon jetzt in ein selbstfahrendes Auto zu setzen. Die Befragten haben vor allem Bedenken, wenn es um die Sicherheit geht. 71 Prozent befürchten, dass autonome Fahrzeuge bei plötzlichen Zwischenfällen falsch reagieren. Noch fehlt den Menschen das vollständige Vertrauen in die Technik. Die Sorge ist nicht unbegründet. Nach Ansicht von Toralf Trautmann, Professor für Kraftfahrzeug-Mechatronik an der HTW Dresden, stößt die Technik beim Einsatz in belebten Innenstädten an ihre Grenzen: „Ich glaube, das wird nicht machbar sein“, sagte er kürzlich dem Berliner Tagesspiegel.
Künstliche Intelligenz zwischen Performance und Sicherheit
Ein Problem liegt in den KI-Technologien, die im Fahrzeug genutzt werden. Diese funktionierten zwar meistens gut, so Prof. Dr. Mario Trapp, geschäftsführender Leiter des Fraunhofer-Instituts für Kognitive Systeme (IKS). „Aber das ‚meistens‘ ist nicht genauer spezifiziert“. Was dann passieren kann, zeigt ein Fall, der 2018 für Aufsehen sorgte. Dabei überfuhr ein Uber-Fahrzeug eine Fußgängerin. Die KI hatte die Fußgängerin als unkritisches Objekt klassifiziert, das man überfahren kann – wie zum Beispiel eine Plastiktüte. „Fachlich gesprochen reden wir von einer sogenannten Nichtlinearität bei der KI“, erklärt Trapp. „Wenn wir Software testen und unsere Testfälle gut wählen, dann gehen wir davon aus, dass sie sich auch in der Realität, die sich immer irgendwo zwischen diesen Testfällen bewegen wird, sicher verhält.“ Doch selbst wenn die KI im Testfeld ein Bild immer korrekt analysiert, kann es im realen Einsatz passieren, „dass nur ein kleines bisschen Rauschen in das Bild hineinkommt.“ Dann erhalte man ein komplett anderes Ergebnis. „Das macht die KI heute so schwer beherrschbar.“ Um das zu lösen, arbeiten Trapp und sein Team daran, mit klassischen Algorithmen den Vorschlag der KI zu plausibilisieren. Fehler zu erkennen, funktioniere mit dieser Methode schon recht gut. Die Herausforderung sei nun, nicht zu viele False-Positives zu produzieren. „Wir können das System heute schon sicher machen. Es aber abzusichern, ohne die Performance der KI zu sehr einzuschränken, ist der nächste Schritt.“
Um die KI im autonomen Fahrzeug abzusichern, muss an vielen Schrauben gedreht werden. Entsprechend groß ist die Zahl von Wissenschaftlern, die sich damit beschäftigen. Ein gemeinsames Projekt der TU Wien, des Forschungsinstituts IST Austria und des Massachusetts Institute of Technology (MIT) hat sich dafür sogar Anleihen aus der Natur geholt. Ziel sind weniger komplexe neuronale Netze, für die sich die Wissenschaftler etwa an einfachen Fadenwürmern orientieren. Mit einem solchen KI-Modell ließe sich ein Fahrzeug „mit einer verblüffend kleinen Zahl von künstlichen Neuronen steuern“, heißt es in einer Pressemeldung. Dieses soll mit unsauberen Eingabedaten besser zurechtkommen als bisherige Deep-Learning-Modelle. Und aufgrund seiner Einfachheit soll sich seine Funktionsweise im Detail erklären lassen. Die Black Box wäre dann nicht mehr ganz so undurchschaubar.