Darstellung eines abstrakten 3D-Wuerfels in blauer Farbe
VAlex / stock.adobe.com
01.07.2022 Publikation

AI Trust: Blick in die Black Box

Entscheidungen Künstlicher Intelligenz sind oft schwer nachvollziehbar. Das kann abschreckend wirken. Wirtschaft und Forschung bemühen sich darum, KI transparenter zu machen. Der VDE beteiligt sich mit einer Spezifikation, die messbar macht, ob die Systeme bestimmte Werte einhalten.

von Markus Strehlitz

Kontakt

Chefredakteurin VDE dialog

Das Image von Künstlicher Intelligenz (KI) könnte besser sein. Zwar werden die Chancen ständig gepriesen. Doch gleichzeitig schwingt dabei auch etwas Bedrohliches mit. KI wird häufig als mysteriös, als unheimliche Macht gesehen. Berichte von diskriminierenden Algorithmen fördern dieses Bild. So sorgten Fälle in der Vergangenheit für Aufsehen, in denen KI-Systeme Menschen bestimmter Herkunft benachteiligten – zum Beispiel wenn sie von Banken bei der Kreditvergabe oder von Unternehmen im Recruiting eingesetzt wurden.

Die Ursache dafür konnten erst eingehende Studien offenlegen. In vielen dieser Fälle waren es die Trainingsdaten, die quasi selbst schon Diskriminierungen in sich trugen. Diese wurden von der KI dann nur weiter verfestigt.

Es gibt eine grundsätzliche Herausforderung: Häufig lässt sich bei KI nicht nachvollziehen, wie diese zu ihrem Ergebnis kommt. Denn solche Systeme werden nicht klassisch programmiert, sondern trainiert. Und je komplexer die KI, desto intransparenter sind ihre Entscheidungswege. Neuronale Netzwerke, die beim Deep Learning verwendet werden, sind quasi eine Black Box. Das macht das Vertrauen in entsprechende Lösungen schwierig.

Explainable AI – also erklärbare KI – ist daher ein Feld, mit dem sich derzeit viele Unternehmen, Forschungsinstitute und Initiativen beschäftigen. Es gibt verschiedene Ansätze, um die Black Box transparenter zu machen oder zumindest Wege zu finden, das Vertrauen in die KI zu stärken. So hat zum Beispiel IBM ein Set aus verschiedenen Werkzeugen zusammengestellt, die KI-Entscheidungen nachvollziehbar machen sollen. Die Lösung mit dem Namen AI Explainability 360 nutzt unterschiedliche Ansätze, weil auch wir Menschen im Alltag Entscheidungen auf verschiedene Arten erklären. Wir nutzen etwa Beispiele und Gegenbeispiele, arbeiten mit Regeln oder heben bestimmte Charakteristika hervor. Einem Arzt beispielsweise, der KI für seine Diagnosen nutzt, hilft es, wenn ihm bestimmte Fälle gezeigt werden, die dem aktuellen ähnlich sind oder sich von diesem komplett unterscheiden. Ein Bankkunde, dessen Kreditantrag abgelehnt wurde, wird wissen wollen, nach welchen Regeln dies geschehen ist und was er ändern muss.

The torso of a man is shown, and he is holding up a credit card.

Credit applications: Knowing whether an AI application is attuned to and compliant with certain values helps in deciding whether to use it.

| stock.adobe.com/Peshkova

Anwendende müssen der Künstlichen Intelligenz vertrauen, um sie einzusetzen

Das IBM-Set enthält unter anderem Algorithmen für fallbezogenes Denken sowie sogenannte Post-hoc-Erklärungen, die im Nachhinein bestimmte Entscheidungen nachvollziehbar machen. Einer der verwendeten Algorithmen erklärt zum Beispiel nicht nur, warum ein bestimmtes Ergebnis zustande kam, sondern auch, warum ein anderes ausgeschlossen wurde.

Beispiel für den Einsatz der Technik ist das amerikanische Gesundheitsnetzwerk Highmark Health. Dieses nutzt KI, um Patientendaten zu analysieren. Ziel ist es, das Sepsis-Risiko bei Patienten frühzeitig zu erkennen und entsprechende Gegenmaßnahmen einzuleiten. Data Scientists erstellten dafür ein Modell, das auch Versicherungsdaten einbezieht. Die Explainable-AI-Technik macht die Ergebnisse transparent und sorgt auch dafür, dass Bias – also Verzerrungen durch die KI – aufgedeckt werden.

Vertrauen in die KI ist aber grundsätzlich in allen Anwendungsbereichen relevant. Nicht nur die Mitarbeiter im Gesundheits- oder Finanzwesen müssen sich auf die Systeme verlassen können, sondern auch Nutzende entsprechender Technologien im industriellen Umfeld. Hier setzt das Start-up IconPro an. Es nutzt KI-Methoden, um Bilddaten in der Qualitätskontrolle auszuwerten und um Prozesse in der Fertigung abzusichern. Als Ergebnis erhalten die Nutzer dann etwa eine Prognose der zu erwartenden Qualität oder einen Optimierungsvorschlag.

Geschäftsführer Dr. Markus Ohlenforst weiß, dass das Vertrauen der Anwender in die KI wichtig ist. InconPro liste daher nach jedem Training des KI-Modells die wichtigsten Einflussfaktoren auf und zeige, wie diese auf den Output wirken. „Wenn ein Unternehmen Interesse hat, bieten wir diese erste Analyse umsonst an“, erklärt Ohlenforst. „Die Ergebnisse, die wir dann zeigen, beinhalten auch die wichtigsten Einflussgrößen.“ Das können bestimmte Einstellungen an einer Fertigungsmaschine sein, die dafür sorgen, dass diese Ausschuss produziert. „Wenn diese Informationen aus Sicht unserer Kunden Sinn ergeben, dann ist das erste Vertrauen in die Technik geschaffen.“

KI muss sicher und zuverlässig sein – sonst wird es mitunter lebensgefährlich

Während die Produktion von Ausschuss in der Fabrik zwar teuer und ärgerlich ist, hängen vom Einsatz der KI in Fahrzeugen sogar Menschenleben ab. Besonders beim autonomen Fahren ist Künstliche Intelligenz unverzichtbar. Die am Verkehrsgeschehen beteiligten Menschen müssen sich darauf verlassen können, dass die KI ihre Umgebung richtig wahrnimmt und die passenden Entscheidungen trifft. Damit beschäftigt sich unter anderem das Fraunhofer IKS. Dabei geht es jedoch weniger darum, Licht in die Black Box zu bringen. Stattdessen wird das Gesamtsystem sicher und zuverlässig gemacht, indem entsprechende Überwachungskanäle eingebaut werden. Die KI berechnet anhand der Informationen von verschiedenen Sensoren am Fahrzeug mehrere Alternativen für den Weg. Mit klassischen Algorithmen wird dann überprüft, ob diese sicher sind.

Zur Verwendung von KI im Ingenieurwesen wird vielerorts geforscht. So haben das Fraunhofer IOSB, das KIT sowie das FZI Forschungszentrum Informatik das Kompetenzzentrum für KI-Engineering (CC-KING) gegründet. „KI-Engineering hat zum Ziel, Künstliche Intelligenz und Machine Learning nutzbar zu machen, vergleichbar mit klassischem Engineering“, sagt Professor Jürgen Beyerer, wissenschaftlicher Leiter des Kompetenzzentrums. Im Mittelpunkt steht dabei unter anderem, das Verhalten der Systeme vorhersehbar und die Entscheidungen erklärbar zu machen. Ziel ist es, ein Standardvorgehen für KI-Engineering zu entwickeln.

Steigende Akzeptanz von Algorithmen im Alltag

Steigende Akzeptanz von Algorithmen im Alltag: Kann in diesen Punkten ein Computer gut allein entscheiden? Das fragte die Bertelsmann Stiftung 2018 und 2022 im Rahmen repräsentativer Studien. Die Entwicklung der „Ja“-Antworten (siehe Grafik) zeigt: Die Akzeptanz automatisierter Entscheidungen ist in fast allen Einsatzgebieten gewachsen. Dabei gibt es in Bereichen, die vergleichsweise geringe soziale Auswirkungen haben, weniger Vorbehalte gegenüber (teil)automatisierten Entscheidungen.

| Institut für Demoskopie Allensbach, Bertelsmann Stiftung

Kann Künstliche Intelligenz wertekonform sein?

Grundlage für Vertrauen in die KI ist aber, überhaupt erkennen zu können, wie transparent ein entsprechendes System ist – und zwar nach einheitlich geltenden Kriterien. Dieses Ziel hat sich der VDE gesteckt. Mit einer VDE SPEC will er messbar machen, wie KI-Systeme bestimmte Werte einhalten. „Wir orientieren uns dabei an dem bekannten Energieeffizienzlabel, das für Haushaltsgeräte verwendet wird“, sagt Dr. Sebastian Hallensleben, KI-Experte des VDE und Leiter des Projekts VDE SPEC KI-Ethik. „Wir verwenden eine Skala von A bis G, um zu zeigen, wie ein System bestimmten Anforderungen gerecht wird.“ Diese Skala wird dann für verschiedene Kategorien wie etwa Transparenz, Fairness und Robustheit angelegt und zeigt einem Nutzer, wie stark eine Lösung die entsprechende Anforderung erfüllt.

Bezüglich der wissenschaftlichen Thematik stützen sich die Experten dabei auf das sogenannte VCIO-Modell. Bei diesem werden Werte (Values), Kriterien (Criteria), Indikatoren (Indicators) und Beobachtungsmerkmale (Observables) entlang einer Baumstruktur definiert. An oberster Stelle steht der entsprechende Wert, zum Beispiel Transparenz. Dann folgen festgelegte Kriterien wie Herkunft und Charakteristika der Trainingsdaten oder die Verständlichkeit des Algorithmus.

„Für jedes dieser Kriterien ist dann noch mal ein Satz von Fragen definiert, um das Ganze zu verfeinern. Und für jede Frage gibt es eine ganze Skala von Antwortmöglichkeiten“, erklärt Hallensleben. Daraus ergibt sich das Ergebnis für eine einzelne Kategorie. Dieses ist dann nicht nur für den Anwender interessant. Auch KI-Entwickler können sich daran orientieren. Sie können erkennen, was sie tun müssen, damit sich das entsprechende System zum Beispiel beim Wert Fairness von Stufe E auf Stufe A verbessert.

Die Erklärbarkeit hat vor allem im Einzelfall Grenzen

An der Entwicklung der SPEC sind Bosch, Siemens, SAP, BASF und der TÜV Süd involviert. Auf wissenschaftlicher Seite beteiligen sich der Think Tank iRights.Lab, das Karlsruher Institut für Technologie, das Ferdinand-Steinbeis-Institut sowie die Universitäten Tübingen und Darmstadt. Ziel des Konsortiums ist es, ein allgemeinverbindliches, international anerkanntes AI-Trust-Label zu entwickeln. Eine erste vielbeachtete Version des Labels wurde Ende April vom VDE veröffentlicht.

Hallensleben hebt hervor, dass es nicht um einen Standard gehe, der sagt, wie fair oder transparent ein KI-System sein muss. Das sei von der jeweiligen Anwendung, aber auch von p-olitischen Entscheidungen abhängig. Stattdessen soll die VDE SPEC dafür sorgen, dass die Einhaltung der Werte überhaupt erst einmal messbar wird.

„Dadurch erhält man eine bessere Entscheidungsgrundlage, ob man KI in einer spezifischen Anwendung einsetzen will oder nicht“, so Hallensleben. Wenn ein Unternehmen beispielsweise ein bestimmtes System für die Bearbeitung von Kreditanträgen einsetzen möchte, kann es anhand des Labels die Eingruppierung zum Beispiel beim Wert Transparenz ablesen – und seine Wahl gegebenenfalls überdenken. Der Gesetzgeber könnte aber auch Vorgaben machen, welche Stufen auf der KI-Trust-Skala eine Lösung erreichen muss, damit sie für eine bestimmte Anwendung genutzt werden darf.

Viele Ansätze, die Künstliche Intelligenz ein Stück nachvollziehbarer machen. Aber die Erklärbarkeit hat Grenzen. So kann man zwar Transparenz herstellen, indem man unter anderem offenlegt, mit welchen Daten eine KI trainiert wurde. Warum sie aber im Einzelfall auf Basis dieser Daten einem Antragsteller einen Kredit verweigert, sei zumindest bei einem komplexen System wie einem neuronalen Netz nicht erklärbar, so Hallensleben. „Wir wissen gar nicht, ob das bei neuronalen Netzen prinzipiell möglich ist.“

Letztendlich ist auch fraglich, ob es zwingend notwendig ist, die Black Box in allen Fällen vollkommen durchsichtig zu machen. KI wird ja auch deshalb eingesetzt, weil sie Ergebnisse liefert oder Dinge tut, auf die andere Systeme nicht kommen, auch wenn der Weg dorthin nicht offensichtlich ist. Ein bisschen mysteriös wird Künstliche Intelligenz vielleicht immer bleiben.


Markus Strehlitz ist freier Journalist und Redakteur beim VDE dialog.

"KI automatisiert menschliche Entscheidungen – Vorurteile inklusive"

Roboter steht vor Tafel und lernt und löst Probleme
phonlamaiphoto / stock.adobe.com
01.07.2022 Publikation

KI-Experte Sebastian Hallensleben leitet das Projekt VDE SPEC KI-Ethik. Damit wirkt er daran mit, das Vertrauen in die Künstliche Intelligenz zu stärken. Im Interview erklärt er, warum von der KI mehr Transparenz erwartet wird als vom Menschen, was der blinde Fleck beim Training entsprechender Systeme ist und wo er die ethischen Grenzen für den Einsatz von KI sieht.

Zum Interview