Von „Fake News“ zu Deep Fakes
Experten diskutierten am 10. Juli im PresseClub über immer komplexere Bild- und Sprachmanipulationen
Dass sich Bilder manipulieren lassen, wissen nicht nur diejenigen, die Photoshop nutzen. Seit der Erfindung der Fotografie werden Köpfe ausgetauscht oder unliebsame Personen aus Bildern entfernt.
Julian Wörmann, Experte für Maschinelles Lernen vom fortiss Forschungsinstitut für softwareintensive Systeme und Services, veranschaulichte das in seinem Impulsvortrag anhand von Fotos von Abraham Lincoln und Josef Stalin.
Neue manipulative Möglichkeiten
Mit KI, der Künstlichen Intelligenz, erklärte Wörmann, stehen für Manipulationen nun viel effektivere Methoden bereit, und sie werden ständig besser. Denn die Programme nutzen zwei künstliche neuronale Netze, die sich gegenseitig trainieren (Generative Adversarial Networks: GAN).
Eines erzeuge etwa das Bild eines Menschen, das zweite unterscheide zwischen realem und „gefaktem“ Bild. Das erste Netzwerk lerne anhand einer riesigen Menge Daten so täuschend echte Mimik und Mundbewegungen etwa eines Menschen zu erzeugen, dass das zweite Netzwerk nicht mehr unterscheiden könne.
Mehr über Wörmann finden Sie auf der fortiss-Website, dort gibt es einen Text und ein Interview einer Journalistin mit ihm zum Thema „Deep Fakes erkennen“.
Welche Folgen haben solch schwerwiegende Manipulationen für die Glaubwürdigkeit von (Bewegt-)Bild und -Ton in unserer audiovisuell geprägten Gesellschaft? Eingeladen zu Vortrag und Podiumsdiskussion hatten der Bezirksverband München – Oberbayern des BJV, der Internationale PresseClub München und die Technisch-Literarische Gesellschaft (TELI) in Zusammenarbeit mit dem fortiss Forschungsinstitut des Freistaaats Bayern für softwareintensive Systeme und Services zu einer Diskussionsrunde „Von Fake News zu Deep Fake: totale Bild- und Sprachmanipulation – was Journalisten wissen sollten“. Rund 80 Besucher*innen verfolgten die Diskussionsrunde im vollbesetzten Münchner PresseClub.
Deep Fakes-Technologie: Wer trägt die Verantwortung?
Die Technologie, die Deep Fakes möglich macht, soll eigentlich etwa die Bildqualität bei Videokonferenzen verbessern oder Stimmgeschädigten eine realistische Stimme geben.
Neu sei die Perfidie, mit der etwa Politikern falsche Äußerungen in den Mund gelegt oder Gesichter von Prominenten in Pornovideos montiert werden könnten, führte Moderator Arno Kral von der TELI aus und fragte, welche Kompetenzen Journalist*innen benötigten, um die Spreu vom Weizen zu trennen.
Prof. Dr. Sonja Kretzschmar, Professorin für Innovation im Journalismus an der Universität der Bundeswehr München, sieht JournalistInnen in der Verantwortung, stärker zu hinterfragen, welche politischen Interessen hinter Veröffentlichungen von Deep Fakes stecken können.
Kretzschmar plädierte für eine Verzahnung mit Technik und Wissenschaft, die selbst nicht nur für die technische Neuentwicklungen zuständig seien, sondern auch dafür zu vermitteln, welche positiven und negativen Anwendungsmöglichkeiten sich aus den zum Teil kostenlos verfügbaren Programmen ergeben. Konzerne wie Facebook, die die Macht über riesige Datenmengen besäßen, seien im Zugzwang, ethische Regeln für den Umgang damit aufzustellen.
Deep Fakes verifizieren: Tools
Faktencheckerin Johanna Wild führt ihre Schulungen für Journalist*innen und Lehrende mit öffentlich zugänglichen Überprüfungs-Tools durch. Wild sieht Potenzial in Anwendungen, die Fotos und Videos mit „Wasserzeichen“ als verifiziert kennzeichnen können und weist darauf hin, Material immer auch in einen inhaltlichen Kontext einzuordnen, um die Echtheit zu prüfen.
Wild ist Gründerin der digitalen Fact-Checking-Agentur wafana und Koordinatorin für Tool-Entwicklung und AI beim investigativen Recherchenetzwerk Bellingcat.
Deep Fakes verbreiten: Wer trägt die Verantwortung?
Der Wissenschaftsjournalist Wolfgang Goede nimmt die „mündigen Bürger“ in die Pflicht, Nachrichten, Bild- und Tonmaterial vor der Weitergabe auch selbst zu prüfen, sonst seien sie Teil des betrügerischen Kreislaufs. Hierzu brauche es freilich mehr Medienkompetenz bei allen Beteiligten.
Die Frage, ob sich Blockchain-Technologie, mit der Transaktionen von digitalen Währungen nahezu in Echtzeit durchgeführt und verifiziert werden können, auch für die Überprüfung von Deep Fakes eignet, verneinte Dr. Hao Shen, ebenfalls Experte für Machine Learning bei fortiss. Das sei zu energieaufwändig. Eine einzige Technologie, die Deep Fakes erkennen oder gar abwehren könne, sei nicht in Sicht.
Shen war sich mit den Teilnehmer*innen des Podiums einig, dass eine intensivere interdisziplinäre Zusammenarbeit aller Kommunikationsakteure zu diesem Thema notwendig sei.