Haben Sie schon einmal darüber nachgedacht, was passiert, wenn Sie von Deepfakes getäuscht werden? Wenn Sie plötzlich ein Video von einer bekannten Person sehen, einem Menschen, der Ihnen nahesteht, der im Clip allerdings etwas Unvorstellbares verlangt oder sagt?
Deepfakes kommen so langsam aber sicher in der Gesellschaft an und die immer modernere Technik ermöglicht es inzwischen jedem, der wirklich will, einen entsprechenden Deepfake zu erstellen. Es braucht dafür nur die richtige Software, etwas Wissen und genügend Zeit für die Ausarbeitung.
Doch was sind Deepfakes genau? Wie gefährlich werden sie und was können Sie in Zukunft tun, um sich vor Deepfakes zu schützen oder diese zumindest möglichst schnell als solche zu erkennen? Wir klären auf und geben praktische Tipps.
Was sind Deepfakes?
Bevor wir vollends in das Thema einsteigen, möchten wir Ihnen zunächst einmal erklären, was Deepfakes genau sind. Bei Deepfakes handelt es sich in der Regel um aufwendig und mittels künstlicher Intelligenz (KI) erstellter Gesichter, Bilder, Videos, die dahin gehend manipuliert wurden, dass die dort zu sehende Person in Wahrheit jemand anderes ist.
Sehr häufig sind aktuell etwa Deepfakes von Prominenten im Umlauf, wo sich IT-Experten einen Spaß erlauben und diese in untypischen Situationen darstellen. Ein Beispiel aus der Vergangenheit ist eine Videokonferenz zwischen Vitali Klitschko und Berlins Bürgermeisterin Giffey. Was hier noch harmlos und witzig erscheint, offenbart zugleich das eigentliche Problem von Deepfakes. Sie lassen sich nicht ohne Weiteres als solche identifizieren.
Vor allem dann nicht, wenn gar nicht mit einem Deepfake gerechnet wird und der Empfänger wenig vertraut mit der Technologie ist. Wer also nicht ganz genau darauf achtet, was in dem Deepfake zu sehen ist, wird dieses als vermeintlich echt empfinden. Das ist gefährlich, in jederlei Hinsicht und aus jeder Perspektive.
Zu sehen ist nicht etwa Tom Cruise, sondern Miles Fisher, ein weniger bekannter Schauspieler, der sich mit seinen Deepfakes einen Spaß daraus gemacht hat, als Tom Cruise in Erscheinung zu treten.
Warum sind Deepfakes so gefährlich?
Das eigentlich gefährliche an Deepfakes ist sicherlich ihr Potenzial zur Täuschung. Selbiges mag bei dem oben genannten und gezeigten Tom Cruise Deepfake keine allzu große Rolle spielen, geht jedoch viel weiter. Was, wenn Politiker auf diese Weise reden und Dinge verbreiten, die sie nie gesagt haben. Oder wenn die Sekretärin mit dem vermeintlichen Chef des Unternehmens spricht, der in Wahrheit aber nur ein Deepfake ist.
Auch bei dem Thema der Videoidentifikation, beispielsweise um ein Konto zu eröffnen oder offizielle Dokumente zu beglaubigen, könnten Deepfakes problematisch für die Sicherheit werden. Plötzlich kann jeder Mensch jeden anderen imitieren und infolgedessen geschäftsschädigende Entscheidungen treffen oder geheime Informationen erlangen.
Was aktuell aufgrund des großen Aufwands noch etwas abwegig erscheint, wird sich schnell ändern. Die Hardware und Technik wird immer besser, Quantencomputer stehen bereits in den Startlöchern und auch die Technologie hinter den Deepfakes selbst wird sich weiterentwickeln.
Schon jetzt sind manche TikTok- oder Instagram-Filter derart gut, dass sie unser Gesicht live verändern können. Lange wird es also nicht mehr dauern, bis auch Deepfakes deutlich ausgereifter in Erscheinung treten und täuschend echte Ergebnisse hervorbringen. Einfach so, nur mit dem Smartphone. Das ist gruselig und es ist gefährlich, da es die Sicherheit und Privatsphäre von jedem Einzelnen bedroht. Mit Fawkes gibt es zumindest ein Open Source Projekt um eine unathorisierte Gesichtserkennung zu verhindern. Was derzeit nur IT-Experten beherrschen, wird in Zukunft vermutlich für alle zugänglich sein.
Spannend wird dabei sein, ob mit Deepfakes dann biometrische Systeme umgangen werden können. Auf diese Weise könnte mittels Deepfake problemlos ein Face-ID entsperrt werden. Verleumdung und Desinformation sind schließlich noch die mildesten aller Attacken, die durch Deepfakes möglich werden.
Wie Sie Deepfakes erkennen können
Deepfakes zu erkennen, ist gar nicht so einfach. Aktuell ist die Technik aber noch nicht fein genug, um gar nicht mehr aufzufallen. Das bedeutet, dass es immer entsprechende Hinweise gibt. Sie müssen nur gezielt darauf achten. Gefährlich bei Deepfakes ist, dass niemand davon ausgeht, einen Deepfake vor sich zu haben, wenn er das Gesicht doch klar und deutlich erkennen kann. Er schaut also gar nicht erst genauer hin.
Falls doch, sind z. B. beim Face-Swapping oft Artefakte sichtbar. Dort, wo das Gesicht des Deepfakes zur eigentlichen Person übergeht, bilden sich also Unreinheiten, wie eben Artefakte oder Farbverschiebungen, die Ihnen mindestens komisch vorkommen sollten. Gleiches gilt für die Augen und Zähne, welche aufgrund der Technik oft nicht scharf dargestellt werden und deshalb ein wenig »matschig« wirken.
Der größte Anhaltspunkt, um Deepfakes zu erkennen, liegt aber in der Mimik einer Person. Deepfakes benötigen unglaublich viele Berechnungen. Je schneller ein Deepfake realisiert wurde, umso weniger Mimik-Daten besitzt er. Außerdem sind solche Daten gar nicht in Gänze verfügbar. Wer in einer Videokonferenz skeptisch ist, der kann seinen Gegenüber dazu bitten einmal das seitliche Gesicht zu zeigen. Als Betrachter wird dann schnell entdeckt, dass die Berechnung von Deepfakes aktuell noch Grenzen hat und die seitliche Ansicht des Gesichts sehr unnatürlich aussieht.
Gesichter wirken also ein wenig lebloser als in der Realität, zeigen weniger Emotionen, erscheinen fast schon ein wenig »steif« oder gar »betäubt«. Falls Sie die Person kennen, werden Sie zudem schlichtweg eine andere Art der Mimik feststellen, die nicht mehr mit der realen Person übereinstimmt. Doch das erkennt nur jemand, der den Deepfake überhaupt vermutet und die reale Person des Öfteren sieht.
Da zum Deepfake in der Regel aber auch die passende Stimme gehört, gibt es einen weiteren Anhaltspunkt, um Deepfakes als solche zu entlarven. Denn künstlich erzeugte Stimmen wirken eher monoton und häufig etwas blechern oder verzerrt. Auch darauf ist also zu achten, wenn Sie einen Fake erkennen möchten. Dumm nur, dass Verzerrungen in der Videotelefonie, genau wie übrigens Artefakte, mehr oder weniger dazugehören.
Diese Sicherheitsmaßnahmen gibt es gegen KI erzeugte Inhalte
Besonders effektiv sind derzeit Seitenansichten einer Person. Die Website metaphysics.ai zeigt wunderbar, wie aktuelle Deepfakes daran scheitern, wenn sich die Person zur Seite neigt. Ein einfacher Test, um Videoanrufe zu überprüfen, ist es daher, die Person zu bitten, ihren Kopf einmal um 90 Grad zu drehen. Am besten in beide Richtungen.
Geprüft werden sollten immer auch die Übergänge an Hals und Haaren. Sind hier Artefakte oder Farbunterschiede zu sehen? Dann könnte es sich um KI erzeugte Inhalte handeln. Und sind die Zähne unnatürlich verwaschen und nicht scharf dargestellt, ist auch das ein Indiz für eine künstliche Erstellung des Videos. Ähnlich wie eine auffällig glatte Haut ohne sichtbare Konturen.
Wirklichen Schutz gewährt nur ein kryptografisches Verfahren, bei dem das Quellmaterial klar einer Identität zuzuordnen ist. Auch eine Überprüfung in der Medienforensik ist denkbar. Methoden aus der Medienforensik können feststellen, ob und wo Artefakte unnatürlich erscheinen und es sich somit um eine Fälschung, also einen Deepfake handelt.
Hier ist auch davon auszugehen, dass es in Zukunft vermehrt Software für die Prüfungen geben wird. Oder aber, dass Deepfake-Analysen eines Tages Teil von allen entsprechenden Systemen werden. Also in Videoanrufen automatisch überprüft wird, ob es sich um einen Deepfake handelt oder nicht.
KI-generierte Inhalte – ein Zukunftsausblick
Das bringt uns dann zum letzten Abschnitt unseres Artikels, indem wir noch einmal kurz die Zukunft erläutern möchten. Wir sind zwar keine Hellseher, doch die Technik macht bekanntlich große Sprünge. Die wiederum sorgen dafür, dass Deepfakes besser werden und immer einfacher zu realisieren sind. Das wiederum schafft ein realistisches Risiko, dass wir uns in Zukunft alle mit Deepfakes auseinandersetzen müssen, weil sie unter Umständen zum Teil unseres Alltags werden.
Den Videoanruf vom Chef nicht zu hinterfragen, könnte dann zum potenziellen Sicherheitsrisiko werden. Der CEO-Fraud war bereits in der Vergangenheit eine erfolgreiche Betrugsmasche. Nicht darauf zu achten, ob es sich wirklich um bestimmte Personen handelt, könnte auch in den Medien, besonders politischen Nachrichten, entscheidend sein. Nur weil etwas echt aussieht, muss es noch lange nicht echt sein. Das wissen wir längst und achten dennoch viel zu wenig darauf, ob entsprechende Bilder oder Videos manipuliert wurden.
Der Trend wird sich also fortsetzen und es ist wichtig, das Thema der Deepfakes ernst zu nehmen. Speziell in Unternehmen. Achten Sie in Zukunft besser darauf, ob die Person, die in Ihrem digitalen Umfeld auftritt, wirklich die ist, für die sie sich ausgibt.