Fake-Bilder
THISPERSONDOESNOTEXIST.COM
30.09.2020 Fachinformation

Information Integrity Lab: Vertrauen ist gut

KI-basierte Fälschungen und Bots untergraben Demokratie und Wirtschaft. Der VDE schlägt deshalb ein Konzept vor, das ein Ökosystem des Vertrauens in der digitalen Welt schaffen soll. Wichtig dafür ist vor allem, dass die Verlässlichkeit einer Information anhand der Vertrauenswürdigkeit ihrer Quelle bestimmt werden kann.

von MARTIN SCHMITZ-KUHL

Kontakt

Chefredakteurin VDE dialog

Bereits heute kann dem Internet nicht mehr getraut werden. Drei Beispiele, die dies auf spielerische und dennoch eindrucksvolle Weise belegen: So generiert die Seite thispersondoesnotexist.com des US-amerikanischen Programmierers und Entwicklers Phillip Wang – oder vielmehr die dahinterliegende Künstliche Intelligenz (KI) – innerhalb von Bruchteilen ­ einer Sekunde Bilder von Menschen, die man kaum mehr von Fälschungen unterscheiden kann. Ein kanadisches Start-up bietet mit Lyrebird einen Service an, bei dem ein Computer täuschend echt spricht – und zwar mit jeder beliebigen Stimme; um diese klonen zu können, muss die KI vorher gerade mal mit einer einminütigen Tonaufnahme „gefüttert“ werden. Und im vergangenen Jahr ist es Wissenschaftlern des Samsung-­Laboratoriums in Moskau gelungen, ein KI-System zu entwickeln, das aus einem einzigen Bild ein Fake-­Video erstellen kann. Dafür schufen sie aus dem Porträt der Mona Lisa drei ­verschiedene ­Videos einer sprechenden und sich bewegenden Frau.

Deepfakes und Bots bedrohen die Wirtschaft

So originell, faszinierend und ­witzig kann diese neue Technologie sein. Und gleichzeitig so bedrohlich. Denn obwohl Medienmanipulation kein neues Phänomen darstellt, bekommt sie durch sogenannte Deepfakes (Koffer­wort, zusammengesetzt aus den Begriffen „Deep Learning“ und „Fake“) eine ganz andere Qualität. Diese nutzen künstliche neuro­nale Netzwerke, um Fälschungen weitgehend autonom zu erzeugen. Dies hat mit Techniken vergangener Tage nicht mehr viel zu tun, bei denen es meist nur um die nachträgliche Bildbearbeitung mittels Photo­shop ging. Inzwischen agieren diese Deepfakes so schnell und so gut, dass sie bereits heute ein Problem darstellen. Doch das ist nichts im Vergleich zu dem, was in absehbarer Zeit auf uns zukommen könnte. „Wenn man all diese bereits jetzt existierenden Tools kombiniert, kann man Bots bauen, die automatisch im Internet unterwegs sind und dort ihr Unwesen treiben, ohne dass sie identifiziert werden könnten“, fürchtet Dr. Sebastian Hallensleben, der beim VDE das Kompetenzfeld Digitalisierung und Künstliche Intelligenz leitet.

»In einem Umfeld ›alternativer Fakten‹ sowie der Unfähigkeit, gemeinsam einvernehmliche Lösungen zu finden, ist eine Demo­kratie nicht möglich!«

Dr. Sebastian Hallensleben, Portfoliomanager KI und Digitalisierung beim VDE

Doch welche Gefahren drohen durch solche Bots? Beispiel: Produkt­reviews, denen bekanntlich schon heute nicht vollumfänglich getraut werden sollte. Schließlich gibt es Menschen, die im Auftrag des Herstellers oder Verkäufers positiv über ein Produkt schreiben. Doch was würde passieren, wenn es nicht nur einzelne Fakes gäbe, sondern Hunderte oder Tausende, und so die echten, ehrlichen und eben vielleicht kritischen Meinungen in der Menge der Fakes untergehen würden? Genau das ist gerade schon zu beobachten, berichtet Hallensleben, „denn schon heute wird dieser Prozess zunehmend automatisiert.“ Bots treten an die Stelle der echten Fälscher – mit der Folge, dass das Vertrauen in solche Produktbewertungen weiter schwindet und es Unternehmen immer schwerer fällt, ihre Waren über Qualität und Reputation zu verkaufen.

KI-generierte Nachrichtensprecher gibt es schon

Viel schwerwiegender könnte indes sein, wenn Deepfakes und Bots nicht nur die Wirtschaft, sondern das demokratische System untergraben. Die Bots von morgen könnten eigene Blogs führen, deren KI-Urheberschaft man ihnen nicht ansieht. Sie könnten Nachrichten fälschen oder gar ganze Nachrichtenkanäle, in den sie von anderen Portalen kopierte News mit automatisch generierten Botschaften kombinieren. Und das nicht nur in Text und Bild, sondern auch mit Audio und Video. Dass dies möglich ist, hat die chinesische Nachrichtenagentur Xinhua bereits 2018 gezeigt – mit der Präsentation eines KI-generierten Nachrichtensprechers, der zwar noch etwas steif wirkte, aber doch eindrucksvoll demonstrierte, dass der ­reale Mensch in Zukunft an dieser Stelle nicht mehr benötigt wird. Auch der erste KI-generierte YouTube-Influencer dürfte daher nur eine Frage der Zeit sein und seine künstliche Identität wird man ihm dann nicht mehr unbedingt ansehen können.

Brisant: Wenn Deepfakes auf Mikrotargeting treffen

Dr. Sebastian Hallensleben

»In einem Umfeld ›alternativer Fakten‹ sowie der Unfähigkeit, gemeinsam einvernehmliche Lösungen zu finden, ist eine Demo­kratie nicht möglich!«

Dr. Sebastian Hallensleben, Portfoliomanager KI und Digitalisierung beim VDE


| VDE / Uwe Noelke

„Wenn ich mir eine noch düsterere Zukunft ausmalen möchte, dann kann ich das alles auch noch mit Mikro­targeting kombinieren“, sagt KI-Experte Hallensleben – eine Technik, die gerade in der politischen Kommunikation zunehmend kritisch gesehen wird. Dabei gilt das Mikrotargeting als solches gar nicht unbedingt als problematisch. Im Gegenteil: Bereits 2008 setzte Barack Obama darauf, seine begrenzten Wahlkampfmittel möglichst effizient und effektiv einzusetzen, indem einzelne Wählergruppen mit ihren unterschiedlichen Bedürfnissen systematisch mit zielgruppenspezifischen Botschaften angesprochen wurden. Das war jedoch erst der ­Anfang, acht Jahre später brachte Donald Trump diese Strategie zur Perfektion. Sein Team verwendete dafür auch Bots, die Pro-Trump-Botschaften inklusive Fake News in den sozialen Netzwerken verbreiteten. Nach Untersuchungen des King’s College London wurden täglich – auch mithilfe der Datenanalyse-Firma Cambridge Analytica – 40.000 bis 50.000 dieser Botschaften verbreitet. Die Reaktionen der Adressaten (Likes, Shares und Kommentare) wurden dabei ausgewertet und die Botschaften dann entsprechend angepasst und individuell zugeschnitten.

Selbst das könnte jedoch nur ein schaler Vorgeschmack auf zukünftige Fälscherqualitäten sein. Denn in der Filterbubble 2.0 könnte jeder genau die „Nachricht“ serviert bekommen, die er hören will und zu glauben bereit ist. Und eben nicht nur irgendwelche falschen Behauptungen, die sich im Zweifelsfall leicht widerlegen lassen, sondern ein komplettes Lügensystem inklusive gefälschter Nachrichten und Beweise. „Das hätte auch gravierende Folgen für unser Rechtssystem“, befürchtet Hallensleben. Nicht nur, weil man Beweise fälschen kann, sondern auch, weil alle echten Beweise in Zweifel gezogen werden könnten und müssten. „Heute kann ein Beweis­video noch dazu führen, dass ein österreichischer Vizekanzler zurücktreten muss. Morgen bräuchte er nur noch behaupten, dass das Video ein Deepfake ist.“

Klarnamenpflicht ist keine Alternative

Insgesamt wird es so für den einzelnen Bürger immer schwieriger, Wahrheit von Lüge zu unterscheiden, sich eine fundierte eigene Meinung zu bilden und einen faktenorientierten, konstruktiven Dialog zu führen. Die notwendige kritische Masse einigermaßen gut informierter und mündiger Bürger als Grundlage für tragfähige und stabile demokratische Systeme schwindet, während gleichzeitig autoritäre und populistische Führer davon profitieren. „In einem Umfeld ‚alternativer Fakten‘, weit verbreitetem Misstrauen, der Dominanz extremer Positionen sowie der Unfähigkeit, einvernehmliche Lösungen für drängende gesellschaftliche Herausforderungen zu finden, ist eine Demokratie nicht möglich“, zeigt sich Hallensleben überzeugt. Der VDE schlage deshalb ein Konzept vor, das letztlich ein Ökosystem des Vertrauens zwischen den Menschen in der digitalen Welt schafft.

Doch was heißt das konkret? Für Hallensleben ist die Grundlage für ein solches Vertrauenssystem, dass der Mensch, wenn er schon nicht die Information selbst richtig überprüfen und einordnen kann, vor allem erst einmal die Quelle dieser Information besser einschätzen können muss. Dafür ist der erste Schritt, dass erkennbar ist, ob es sich beim Gegenüber um einen realen Mensch oder eben einen KI-generierten Bot handelt. Eine einfache Lösung dafür: Jeder Mensch darf sich im digitalen Raum nur noch unter seinem echten Namen – dem „Klarnamen“ – bewegen. Ein solches System wäre allerdings vor allem der Traum jedes autoritären Regimes, weil es die freie Meinungsäußerung im Keim ersticken könnte. Nicht nur, aber auch deshalb werden solche Forderungen nicht zuletzt von den meisten Netzaktivisten rundweg abgelehnt.

 „Was wir stattdessen brauchen, ist eine Art ‚best of both worlds‘, irgend­etwas zwischen Klarnamen und Ano­nymität“, meint Hallensleben. Diese müssten einerseits gewährleisten, dass hinter einem Pseudonym tatsächlich eine reale Person steht, andererseits aber auch verhindern, dass diese „geoutet“ wird. Selbst eine Mastertabelle dürfte es nicht geben, die jedem Pseudonym einen bestimmten Klarnamen zuordnet, da diese dann ja auch wieder ge­leakt oder gehackt werden könnte. Alles in allem eine nicht ganz profane technische Problemstellung. Verschiedene, auch blockchainbasierte Lösungen seien dafür diskutiert worden, erklärt Hallensleben. Letztlich sei es jedoch darauf hinausgelaufen, dass sich die digitale Identität an einen physischen Gegenstand knüpfen muss. Und zumindest in Deutschland bietet sich hierfür der elektronische Personalausweis an, weil dieser ein bislang kaum genutztes Tool hat: Es ermöglicht die Generierung spezifischer Tokens, die den Nutzer zwar als realen, deutschen Ausweisinhaber kennzeichnen, nicht aber dessen Namen preisgeben. So wäre er selbst nicht rückverfolgbar, weil die dafür nötige Information nicht den Ausweis verlässt. Gleichzeitig könnte sich der Nutzer aber auch nicht noch einmal neu unter anderem Namen anmelden, weil pro Plattform nur ein Token generiert werden kann.

Authentische Pseudonyme als erster wichtiger Schritt

Die Pflicht zum Klarnamen soll nicht zuletzt Hate Speech – also kriminelle Äußerungen von Volksverhetzung bis hin zu konkreten Morddrohungen – im Netz verhindern. Der VDE Vorschlag böte hierfür keine Lösung. Oder zumindest nicht so unmittelbar. Denn einerseits würde den Strafverfolgungsbehörden damit ausdrücklich nicht die Arbeit erleichtert werden („Wir wollen auch kein Klarnamensystem durch die Hintertür schaffen“, so Hallensleben), andererseits hätten Plattformen dann jederzeit die Möglichkeit, solche User eine Zeit lang oder dauerhaft zu sperren, ohne dass diese die Möglichkeit hätten, sich unter anderem Namen wieder einzuschleichen. So könnte man indirekt doch etwas gegen Hate Speech machen. Und wenn sich jemand zu unrecht gesperrt sehen würde, könnte er natürlich dagegen Einspruch einlegen oder klagen. Dann jedoch unter dem richtigen Namen.

Neben dieser Idee der authentischen Pseudonyme basiert das Konzept des VDE für ein Ökosystem des Vertrauens in der digitalen Welt noch auf weiteren Bausteinen. So sieht es außerdem vor, an der Rückverfolgung von Informationen im Internet zu arbeiten und die Wertigkeit und Vertrauenswürdigkeit des jeweiligen Informanten zu kennzeichnen. Vor allem jedoch setzt Hallensleben auf neue Strukturen für Konsens und Kompromiss: „Es ist nicht zielführend, bestehende Netzwerke dazu zu bringen, plötzlich zu Orten des konstruktiven Diskurses zu werden. Denn dann würde man ihnen die Geschäftsgrundlage entziehen und sie würden zusammenbrechen“, so der KI-Experte. Statt also zu versuchen, Facebook, Twitter und Co zu reformieren, wäre es zielführender, an einer eigenen, am besten gleich europäischen Plattform zu arbeiten, die Verständigung und Ausgleich belohnt, statt auf Eskalation und Empörung zu setzen.

Information Integrity Lab steht noch am Anfang

All das, das weiß man auch im VDE, sind freilich dicke Bretter, die zu bohren sind. Nötig wäre dafür eine stabile Organisation mit einem Planungshorizont von drei bis fünf Jahren und noch sehr viel Forschung. Doch das Grobkonzept mit dem Arbeitstitel „Information Integrity Lab“ inklusive erster Roadmap steht. Nun geht es darum, weitere Partner zu finden und vor allem, die Finanzierung auf die Beine zu stellen. „Unser Anspruch ist, dieses Thema jetzt offensiv auf die Agenda zu setzen, um sich nicht in wenigen Jahren verwundert die Augen zu reiben und sich zu fragen, wie das nur alles passieren konnte“, so Sebastian Hallensleben. Denn eines sei jetzt schon klar: „Da kommt etwas auf uns zu!“

MARTIN SCHMITZ-KUHL ist freier Autor aus Frankfurt am Main und Redakteur beim VDE dialog.

Interessiert an Cyber Security und IT-Sicherheit?

Mann arbeitet am Laptop zum Thema IT-Sicherheit
putilov_denis / stock.adobe.com
29.07.2020 TOP

Der VDE engagiert sich auf vielfältige Weise für Cyber Security: Wir gestalten zum Beispiel mit CERT@VDE IT-Sicherheits-Prozesse für industrielle KMU und sorgen für Innovationstransfer aus Wissenschaft und Forschung in die Praxis und Märkte. Und wir stärken die deutsche Wirtschaft – vor allem den Mittelstand und Start-ups – auch im internationalen Wettbewerb.

Weitere Inhalte zum Thema IT-Sicherheit finden Sie auf unserer Themenseite Cyber Security.

Zur Themenseite Cyber Security