„Ich rate (euch), die Waffen niederzulegen und zu euren Familien zurückzukehren. In diesem Krieg lohnt es sich nicht zu sterben.“ Der Aufruf des ukrainischen Präsidenten Wolodymyr Selenskyj zur Kapitulation wenige Wochen nach Beginn des Krieges Russlands gegen die Ukraine verbreitete sich schnell im Internet, auch wenn sogleich klar war, dass es sich um eine Fälschung handelte. Im Video sprach ein künstlich erzeugter Selenskyj. Der Präsident selbst hat sich so nie geäußert. Die Deepfake-Technologie ist Teil der generativen Künstlichen Intelligenz (KI), einer Art des maschinellen Lernens, die Erkenntnisse über Inhalte oder Objekte aus deren Daten ableitet und diese nutzt, um realistisch wirkende Objekte zu erzeugen. Diese computergenerierte Kreativität hat sich in den vergangenen Jahren erheblich weiterentwickelt. Und die möglichen Anwendungsgebiete gehen über gefälschte Ansprachen weit hinaus. Mithilfe von Technologien, mit denen sich massenhaft unechte „Personen“ und Inhalte erzeugen lassen, kann der komplette digitale Raum manipuliert werden: Falsche Reporter beeinflussen die öffentliche Meinung, Börsenhypes werden manipuliert, auf Scoring-Portalen gewinnen unechte Bewertungen uneinholbar die Überhand. Massenhaft erzeugte Fake-Kommentare gaukeln in sozialen Netzen irreale politische Mehrheiten vor. Selbst vor Gericht droht die Fälschung von Beweismitteln. Kann man heute nichts und niemandem im Netz mehr glauben?
Generative KI Fakt oder Fake?
Ganz so drastisch sieht es Dr. Sebastian Hallensleben, Leiter Kompetenzfeld Digitalisierung und Künstliche Intelligenz beim VDE, nicht. Generative KI hat Grenzen: „Der aktuelle Stand der Deepfake-Technologie erlaubt es noch nicht, etwa komplette Kriegsszenen darzustellen.“ Außerdem ist die Technik teuer. Hallensleben sieht die Bedrohung vor allem in der Kombination gefälschter Videos, Bilder und Texte und massenhafter Tweets von Bots. „Die Automatisierung ermöglicht das künftig im großen Stil“, warnt er. Denn gerade die Skalierbarkeit von generativer KI lockt Nutzer, die sie missbräuchlich einsetzen wollen.
Sowohl zur Erzeugung als auch zur Entdeckung von Bildfälschungen dienen Generative Adversarial Networks (GANs). Sie bestehen aus zwei künstlichen neuronalen Netzen, dem Generator und dem Diskriminator. Dabei erzeugt der Generator ein Bild, das der Diskriminator als echt oder künstlich klassifiziert. Durch ständiges maschinelles Lernen voneinander und viele Wiederholungen werden die generierten Daten immer besser.
Fälschungen und Entdeckungsverfahren rüsten abwechselnd auf
Dies zu erkennen wird damit immer schwieriger. Auch wenn es online schon die Möglichkeit gibt, Videos überprüfen zu lassen. Dr. Jörn Hees, Teamleiter für Multimedia-Analyse und Data Mining am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), fürchtet eine Art „Wettrüsten“ zwischen KI-erzeugten Fälschungen und Entdeckungsverfahren. „Heutige Erkennungsverfahren stützen sich beispielsweise auf gewisse Eigenschaften, die Generierungsverfahren oft hinterlassen, zum Beispiel für Menschen unsichtbare Auffälligkeiten im hochfrequenten Spektralbereich von Bildern. Die Erkenntnisse zur Entdeckung fließen natürlich wieder in die Entwicklung kommender Generationen von Generierungsverfahren ein“, so Hees. Dieses Prinzip ist im Bereich IT-Sicherheit schon lange bekannt: Der technische Fortschritt ermöglicht ständig neue Angriffsvarianten, gegen die neue Verteidigungstechniken entwickelt werden. Im Gegenzug entwirft die Angreiferseite neue Offensivmethoden. Und der Kreislauf beginnt.
Genereller Vertrauensverlust spiegelt sich im digitalen Raum
Doch das Ringen um zuverlässige Informationen ist kein rein technisches Problem, gibt VDE Experte Hallensleben zu bedenken. Vertrauen spiele eine ebenso große Rolle: „Die Quelle einer Information, zum Beispiel ein Blogger, muss integer wirken. Durch Transparenz und Vertrauensbeziehungen kann man die Quelle besser beurteilen“, erklärt er. Allerdings steigen momentan eher Zweifel und Misstrauen als Vertrauen, gibt Dr. Andreas Kaminski, Leiter der Abteilung „Philosophy of Science & Technology of Computer Simulation“ im High Performance Computing Center Stuttgart (HLRS), zu bedenken: „Desinformation hat häufig mit der mangelnden Beziehung von Personen zu Institutionen zu tun. Daher wäre es ein besserer Schutz, den negativen biografischen Erfahrungen nachzugehen. Viele Menschen hatten in ihrer Vergangenheit das Gefühl der Zurücksetzung und der fehlenden Anerkennung durch Institutionen oder gesellschaftliche Gruppen. Das hat ihre Beziehung zu diesen beschädigt. Aufklärung über Fakes fruchtet bei ihnen weniger“, erklärt er.
Einzelne sind mit der Erkennung von Fälschungen überfordert
Trifft dieses Misstrauen Blogger oder Influencer, ist das eine Sache. Viel relevanter sei, so Kaminski, „dass das Vertrauen in demokratische Institutionen untergraben wird“. So werden unechte digitale von KI generierte Inhalte zur echten gesellschaftlichen Bedrohung.
Mit dieser Problematik hat sich eine EU-Arbeitsgruppe unter Leitung von Dr. Hallensleben beschäftigt. Die Experten und Expertinnen sind zu dem Schluss gekommen, dass die Instrumente zum Erkennen von künstlich generierten Personen und Inhalten in Europa nicht ausreichen. In ihrem Bericht listet die Arbeitsgruppe eine Reihe von Empfehlungen an politische Entscheidungsträger und andere Interessengruppen auf. „Die bestehenden Standards sind nur bedingt effektiv, unter anderem weil ihre Befolgung freiwillig ist“, kritisiert Hallensleben. Er weiß gleichzeitig um die Schwächen der einzelnen Maßnahmen. Zum Beispiel staatliche Eingriffe. Staaten sollten zwar Fake-Inhalte verbieten oder eine Kennzeichnungspflicht anordnen, aber die grenzübergreifende Durchsetzung wird schwierig – auch „weil die Urheber oft im nichteuropäischen Ausland sitzen“. Unverzichtbar sei zwar eine bessere Medienkompetenz der Nutzerinnen und Nutzer. Aber: „Die Fälschungstechnik wird so gut, dass der Einzelne mit der Erkennung überfordert wird.“ Was also tun? Hallensleben empfiehlt eine neue Plattform für die Kommunikation unter Bürgern und Bürgerinnen, die staatlich organisiert und finanziert werden soll. Erste Entwicklungen wie das Forschungsprojekt „noFake“ gibt es bereits. Nicht einzelne Ideen, sondern eine breite Strategie könne zu mehr Vertrauenswürdigkeit im Netz führen, resümiert Hallensleben: „Man sollte alle Hebel nutzen.“
Ulrich Hottelet ist freier Journalist in Berlin.