Künstliche Intelligenz (KI) birgt ohne Zweifel immenses Potenzial. Gleichzeitig warnen führende Fachleute, darunter Prof. Yoshua Bengio von der Universität Montreal und Prof. em. Geoffrey Hinton von der Universität Toronto, dass der Menschheit die Entwicklung hin zu immer stärkeren Modellen entgleiten könnte. Beide sind Mitbegründer der Technologie hinter ChatGPT und wahrlich nicht als Alarmisten bekannt. Aber woher rühren die Sorgen?
Erstens kann derzeit niemand das Verhalten fortgeschrittener KI-Modelle verlässlich steuern. Das zeigte sich zum Beispiel in einem Experiment, das die Frontier AI Taskforce der britischen Regierung im November 2023 vorstellte. Das Modell GPT-4 sollte in einer simulierten Umgebung für ein fiktives Finanzunternehmen mit Wertpapieren handeln. Schon nach kurzer Zeit machte es ein illegales Insider-Geschäft – obwohl es explizit angewiesen war, sich gesetzeskonform zu verhalten. Zudem leugnete das Modell den illegalen Trade, als es von einer menschlichen Aufsichtsperson danach gefragt wurde.
Zweitens wäre selbst ein Modell, das alle Vorgaben exakt erfüllt, alles andere als ungefährlich. Böswillige Akteure könnten es für ihre Zwecke missbrauchen: Man denke etwa an Regierungen, die ihre Bevölkerung überwachen wollen, oder Terrorgruppen, die mit Hilfe von KI Cyberangriffe auf kritische Infrastruktur durchführen.
"Es müssen mehr Menschen daran arbeiten, KI transparenter und verlässlicher zu machen."
Drittens sind viele gesellschaftliche Fragen ungeklärt. Welche Werte bilden KI-Modelle ab? Mit welchen Daten werden sie trainiert? Werden Durchbrüche in der KI-Entwicklung globale Ungleichheiten zementieren oder allen Menschen zugutekommen? Dass derzeit vor allem US-amerikanische Tech-Konzerne über diese Fragen entscheiden, ist ein Demokratiedefizit.
Es kommt jetzt vor allem auf zwei Dinge an.
Zum einen arbeiten aktuell weltweit viel mehr Menschen daran, KI-Modelle leistungsfähiger zu machen, als daran, sie sicherer, transparenter und verlässlicher zu machen. Dieses Ungleichgewicht muss beseitigt werden.
Außerdem braucht es einen globalen Minimalkonsens über Sicherheitsstandards in der KI-Entwicklung (zum Beispiel verpflichtende Risikoevaluationen durch unabhängige Prüforganisationen). Initiativen wie der AI Safety Summit, dessen Abschlusserklärung 28 Staaten und die EU unterzeichnet haben, oder bilaterale Treffen zwischen China und den USA sind Schritte in die richtige Richtung.
Von einer Welt, in der die Sicherheit leistungsfähiger KI-Modelle umfassend garantiert ist, sind wir indes noch weit entfernt.