Multimedia | Beitrag | Lesedauer etwa 2 Minuten - Deepfake: KI-generierte Inhalte erkennen
Ein Deepfake zeigt Menschen in Video und Audio bei Dingen, die sie nie getan oder gesagt haben. Was ist echt - was nicht? Dieser Check hilft beim Erkennen.
Deepfakes sind mit Hilfe von Künstlicher Intelligenz (KI) generierte Fotos, Audios und Videos. Diese können Personen zeigen oder aber Szenen, die so nie stattgefunden haben. Beim Deepfake wird entweder vorhandenes Tonmaterial und Videomaterial mit Hilfe einer KI manipuliert, oder der Deepfake ist eine komplette Erfindung, die von der KI erstellt wird. Die Mittel der Fälschungen (Fakes) reichen von Lippenmanipulationen bis zu gefälschten Audiospuren, für die eine KI die Stimme der gezeigten Person manipuliert hat.
Das Problem: Deepfakes wirken so echt, dass sie nicht ohne Weiteres als solche entlarvt werden können. Und sie werden oft nicht nur zum Spaß, sondern vor allem auch zur Verbreitung von Desinformationen eingesetzt oder sollen gezielt Personen schaden. Das macht den Deepfake gefährlich, weshalb auch das Bundesamt für Sicherheit und Informationstechnik davor warnt und Bedrohungsszenarien erklärt.
Deepfake Beispiel: Promis werben für Neobroker
Investieren ist angesagt, vor allem mit sogenannten Neobrokern auf dem Smartphone. Ist es da so erstaunlich, wenn bekannte Prominente, etwa CDU-Chef Friedrich Merz, dafür werben? Seit Mai machen genau solche Videos - für eine Investment-Plattform namens Immediate Matrix - die Runde. Aber Achtung: Die Videos, in denen hohe Gewinne bei minimalem Einsatz versprochen werden, sind gefälscht, so eine Warnung des europäischen IT-Sicherheitsanbieters Eset. Es sind sogenannte Deepfakes, also "tiefe Fälschungen".
Eset warnt davor, auf die vermeintlich lukrativen Investitionsmöglichkeiten einzugehen. "Eine bekannte Persönlichkeit gibt eine scheinbar seriöse Empfehlung, wie man sein Geld am besten anlegt - fallen Nutzer darauf herein und investieren, ist ihr Geld weg", so Eset-Forscher Ondrej Novotny.
Als Grundlage für ihre Fake-Videos nutzen die Hacker nach den Recherchen von Eset echte Nachrichtenbeiträge. "Politiker und andere Personen des öffentlichen Lebens sind eine wahre Goldgrube für KI-Betrüger", so Novotny. Von ihnen existiere eine Fülle an Bildern, Videos und Audioaufnahmen, mit denen die KI-Werkzeuge gefüttert werden können.
Vielleicht erinnern sich ja auch die ein oder anderen noch an das Videotelefonat von Franziska Giffey, damals noch Bürgermeisterin Berlins, und Vitali Klitschko 2022? Schnell ging durch die Presse, dass Giffey auf ein Deepfake des Kiewer Bürgermeisters reingefallen sei.
Am Ende war das Bild von Klitschko eine einfache Fälschung - und kein Deepfake. Doch wenn das kein Deepfake war, die Werbung für Immediate Matrix aber schon - was sind Deepfakes dann und woran kann man sie erkennen?
Hinweise auf Manipulation bei einem Deepfake
Der Echtheits-Check für ein Foto, Audio oder Video erfordert etwas Zeit und Recherche. Zunächst einmal kann man sich die Quelle des Videos ansehen. Wer hat es gepostet? Ist das Video von einer vertrauenswürdigen Seite? Was wird auf dem Account sonst noch gepostet?
Dann kann man sich den Kontext des Gezeigtem und Gesagten vornehmen. Wenn jetzt beispielsweise Bundeskanzler Olaf Scholz in einem Video plötzlich seinen Rücktritt bekanntgeben würde, obwohl er kurz zuvor in einem Interview an seiner Kanzlerschaft festgehalten hat, dann kann die Echtheit schon angezweifelt werden. Also: Passt das Gesagte zu den aktuellen Gegebenheiten? Ergibt das Sinn?
Als nächsten Schritt kann man mit der Bilderrückwärtssuche nach weiteren Indizien für einen Deepfake suchen. Dafür kann man einen Screenshot des vermeintlich gefälschten Videos machen und es in die Bilderrückwärtssuche bei einer Suchmaschine der Wahl eingeben. Taucht das Foto dort in einem anderen Kontext auf - bei unserem Scholz-Beispiel könnte das ein Bild vom ARD-Sommerinterview sein - dann wurde das Videobild manipuliert. Dazu wurde das vorhandene Bild mit der KI verändert und in einen neuen Kontext gesetzt.
Über die Rückwärtsbildersuche lässt sich nichts finden? Dann kann man sich als nächstes die Audiospur vornehmen. Stimmt die Art des Sprechens, also die Betonung, der Rhythmus? Das kann man mit älteren, verifizierten Tonaufnahmen der betroffenen Person vergleichen. Details, wie sichtbare Muttermale oder Tattoos sind ebenfalls ein guter Hinweisgeber auf die Echtheit von Videos und Fotos. Fehlende Schatten, unnatürliche Mimik und Gestik (abgehackt), inkorrekte Lippensynchronisation oder ein leerer Blick können ebenfalls auf eine Fälschung hinweisen.
Zu guter Letzt bleibt noch die sogenannte Geolokalsierung - hier sind wir aber schon im Profibereich. Dabei wird geschaut, ob im Hintergrund Gebäude oder Landschaften zu erkennen sind, die gar nicht zum Video oder dem Ort, an dem es aufgenommen worden sein soll, passen.
Deepfakes von Profis erkennen lassen
Auch bei der kleinsten Unsicherheit über die Echtheit eines Videos oder Fotos, lohnt es sich zweimal zu überlegen, ob man diese Inhalte an Freunde und Bekannte weiterschicken möchte - oder vorher lieber einmal mehr hinschaut. Was aber natürlich auch stimmt: Ein Deepfake, vor allem ein gut gemachtes, ist nicht innerhalb von zwei Minuten zu erkennen. Wem die Zeit für einen Echtheits-Check fehlt, oder wer sich einfach noch nicht sicher genug bei der Analyse von Deepfakes ist, kann sich auch an Profis wenden. Auffällige Inhalte können beispielsweise an die Faktencheck-Teams vom Correctiv-Faktencheck, der dpa oder der Deutschen Welle zur Überprüfung geschickt werden.
Ein Beitrag von SUPER.MARKT, 27.08.2024.