Aufmacher-Debatte
stock.adobe.com/kras99
01.04.2024 VDE dialog

Debatte: KI unter Kontrolle behalten

Bei aller Begeisterung für das Potenzial immer leistungsfähigerer Modelle Künstlicher Intelligenz, dürfen drohende Risiken nicht übersehen werden: Zum Beispiel dass KI mit jeder Weiterentwicklung schwieriger zu kontrollieren wird. Wie die Gesellschaft der Gefahr begegnen kann, weiß Dr. Philip Fox.

Von Dr. Philip Fox

Porträtfoto von Dr. Philip Fox, KI-Experte

Dr. Philip Fox ist promovierter Philosoph und befasst sich am Zentrum für KI-Risiken und -Auswirkungen (KIRA) mit gesellschaftlichen Fragen rund um Künstliche Intelligenz. Er beschäftigt sich außerdem mit Ethik, Desinformation und anderen politischen und philosophischen Themen.

| privat

Künstliche Intelligenz (KI) birgt ohne Zweifel immenses Potenzial. Gleichzeitig warnen führende Fachleute, darunter Prof. Yoshua Bengio von der Universität Montreal und Prof. em. Geoffrey Hinton von der Universität Toronto, dass der Menschheit die Entwicklung hin zu immer stärkeren Modellen entgleiten könnte. Beide sind Mitbegründer der Technologie hinter ChatGPT und wahrlich nicht als Alarmisten bekannt. Aber woher rühren die Sorgen?

Erstens kann derzeit niemand das Verhalten fortgeschrittener KI-Modelle verlässlich steuern. Das zeigte sich zum Beispiel in einem Experiment, das die Frontier AI Taskforce der britischen Regierung im November 2023 vorstellte. Das Modell GPT-4 sollte in einer simulierten Umgebung für ein fiktives Finanzunternehmen mit Wertpapieren handeln. Schon nach kurzer Zeit machte es ein illegales Insider-Geschäft – obwohl es explizit angewiesen war, sich gesetzeskonform zu verhalten. Zudem leugnete das Modell den illegalen Trade, als es von einer menschlichen Aufsichtsperson danach gefragt wurde.

Zweitens wäre selbst ein Modell, das alle Vorgaben exakt erfüllt, alles andere als ungefährlich. Böswillige Akteure könnten es für ihre Zwecke missbrauchen: Man denke etwa an Regierungen, die ihre Bevölkerung überwachen wollen, oder Terrorgruppen, die mit Hilfe von KI Cyberangriffe auf kritische Infrastruktur durchführen.

"Es müssen mehr Menschen daran arbeiten, KI transparenter und verlässlicher zu machen."

Drittens sind viele gesellschaftliche Fragen ungeklärt. Welche Werte bilden KI-Modelle ab? Mit welchen Daten werden sie trainiert? Werden Durchbrüche in der KI-Entwicklung globale Ungleichheiten zementieren oder allen Menschen zugutekommen? Dass derzeit vor allem US-amerikanische Tech-Konzerne über diese Fragen entscheiden, ist ein Demokratiedefizit.

Es kommt jetzt vor allem auf zwei Dinge an.

Zum einen arbeiten aktuell weltweit viel mehr Menschen daran, KI-Modelle leistungsfähiger zu machen, als daran, sie sicherer, transparenter und verlässlicher zu machen. Dieses Ungleichgewicht muss beseitigt werden.

Außerdem braucht es einen globalen Minimalkonsens über Sicherheitsstandards in der KI-Entwicklung (zum Beispiel verpflichtende Risikoevaluationen durch unabhängige Prüforganisationen). Initiativen wie der AI Safety Summit, dessen Abschlusserklärung 28 Staaten und die EU unterzeichnet haben, oder bilaterale Treffen zwischen China und den USA sind Schritte in die richtige Richtung.

Von einer Welt, in der die Sicherheit leistungsfähiger KI-Modelle umfassend garantiert ist, sind wir indes noch weit entfernt.

Kontakt
VDE dialog - Das Technologie-Magazin