Bereits heute kann dem Internet nicht mehr getraut werden. Drei Beispiele, die dies auf spielerische und dennoch eindrucksvolle Weise belegen: So generiert die Seite thispersondoesnotexist.com des US-amerikanischen Programmierers und Entwicklers Phillip Wang – oder vielmehr die dahinterliegende Künstliche Intelligenz (KI) – innerhalb von Bruchteilen einer Sekunde Bilder von Menschen, die man kaum mehr von Fälschungen unterscheiden kann. Ein kanadisches Start-up bietet mit Lyrebird einen Service an, bei dem ein Computer täuschend echt spricht – und zwar mit jeder beliebigen Stimme; um diese klonen zu können, muss die KI vorher gerade mal mit einer einminütigen Tonaufnahme „gefüttert“ werden. Und im vergangenen Jahr ist es Wissenschaftlern des Samsung-Laboratoriums in Moskau gelungen, ein KI-System zu entwickeln, das aus einem einzigen Bild ein Fake-Video erstellen kann. Dafür schufen sie aus dem Porträt der Mona Lisa drei verschiedene Videos einer sprechenden und sich bewegenden Frau.
Deepfakes und Bots bedrohen die Wirtschaft
So originell, faszinierend und witzig kann diese neue Technologie sein. Und gleichzeitig so bedrohlich. Denn obwohl Medienmanipulation kein neues Phänomen darstellt, bekommt sie durch sogenannte Deepfakes (Kofferwort, zusammengesetzt aus den Begriffen „Deep Learning“ und „Fake“) eine ganz andere Qualität. Diese nutzen künstliche neuronale Netzwerke, um Fälschungen weitgehend autonom zu erzeugen. Dies hat mit Techniken vergangener Tage nicht mehr viel zu tun, bei denen es meist nur um die nachträgliche Bildbearbeitung mittels Photoshop ging. Inzwischen agieren diese Deepfakes so schnell und so gut, dass sie bereits heute ein Problem darstellen. Doch das ist nichts im Vergleich zu dem, was in absehbarer Zeit auf uns zukommen könnte. „Wenn man all diese bereits jetzt existierenden Tools kombiniert, kann man Bots bauen, die automatisch im Internet unterwegs sind und dort ihr Unwesen treiben, ohne dass sie identifiziert werden könnten“, fürchtet Dr. Sebastian Hallensleben, der beim VDE das Kompetenzfeld Digitalisierung und Künstliche Intelligenz leitet.
»In einem Umfeld ›alternativer Fakten‹ sowie der Unfähigkeit, gemeinsam einvernehmliche Lösungen zu finden, ist eine Demokratie nicht möglich!«
Dr. Sebastian Hallensleben, Portfoliomanager KI und Digitalisierung beim VDE
Doch welche Gefahren drohen durch solche Bots? Beispiel: Produktreviews, denen bekanntlich schon heute nicht vollumfänglich getraut werden sollte. Schließlich gibt es Menschen, die im Auftrag des Herstellers oder Verkäufers positiv über ein Produkt schreiben. Doch was würde passieren, wenn es nicht nur einzelne Fakes gäbe, sondern Hunderte oder Tausende, und so die echten, ehrlichen und eben vielleicht kritischen Meinungen in der Menge der Fakes untergehen würden? Genau das ist gerade schon zu beobachten, berichtet Hallensleben, „denn schon heute wird dieser Prozess zunehmend automatisiert.“ Bots treten an die Stelle der echten Fälscher – mit der Folge, dass das Vertrauen in solche Produktbewertungen weiter schwindet und es Unternehmen immer schwerer fällt, ihre Waren über Qualität und Reputation zu verkaufen.
KI-generierte Nachrichtensprecher gibt es schon
Viel schwerwiegender könnte indes sein, wenn Deepfakes und Bots nicht nur die Wirtschaft, sondern das demokratische System untergraben. Die Bots von morgen könnten eigene Blogs führen, deren KI-Urheberschaft man ihnen nicht ansieht. Sie könnten Nachrichten fälschen oder gar ganze Nachrichtenkanäle, in den sie von anderen Portalen kopierte News mit automatisch generierten Botschaften kombinieren. Und das nicht nur in Text und Bild, sondern auch mit Audio und Video. Dass dies möglich ist, hat die chinesische Nachrichtenagentur Xinhua bereits 2018 gezeigt – mit der Präsentation eines KI-generierten Nachrichtensprechers, der zwar noch etwas steif wirkte, aber doch eindrucksvoll demonstrierte, dass der reale Mensch in Zukunft an dieser Stelle nicht mehr benötigt wird. Auch der erste KI-generierte YouTube-Influencer dürfte daher nur eine Frage der Zeit sein und seine künstliche Identität wird man ihm dann nicht mehr unbedingt ansehen können.