Betrugsmasche / Datendiebstahl / Künstliche Intelligenz

Fakenews und Fakeprofile zu erkennen könnte in Zukunft schwieriger werden!

Veröffentlicht am

Dazulernende K.I.-Systeme könnten in Zukunft vermehrt dafür verwendet werden, um täuschend echte Bilder für Fakeprofile, Ransomware Kampagnen und Fakenews zu erstellen und zu verbreiten. Die Qualität der Ergebnisse steigt dabei kontinuierlich an und stellt  Menschen vor neuen Herausforderungen, diese zu erkennen.

Fake Profile mit der Rückwärtsbildersuche zu enttarnen funktioniert nicht mehr lange.

Während ein mit Stockphotos ausgestattetes Profil bei Facebook oder Instagram relativ schnell über eine Rückwärtsbildersuche entlarvt ist, kann man inzwischen automatisiert Bilder generieren, welche nicht auf real existierenden Personen bzw. Gesichtern basieren. Auch Texte können immer einfacher mit wenig Aufwand und trotzdem überzeugend erstellt werden. Wir wollen wissen, was das für die Zukunft bedeutet.

Profilbilder für Fakeprofile und schwer erkennbare Fakenews per Mausklick?

Basierend auf einem von Nvidia entwickelten GAN (Generative Adversarial Network), welches zur Modellierung von Gesichtern für z.B. Videospiele entwickelt wurde, kann jeder auf thispersondoesnotexist.com täuschend echte Porträts von Personen erstellen, die nicht existieren.

Die Seite generiert bei jedem aktualisieren der Website ein neues Bild, welches auf den ersten Blick aussieht wie ein echtes Foto. Bei genauem Hinsehen erkennt man teilweise Artefakte, die auf ein unechtes Bild hinweisen. Gerade wenn zwei Personen abgebildet sind, Schmuck oder Hintergründe seltsam erscheinen, sind das Indizien dafür, dass das Profilfoto nicht echt ist. Wenn man allerdings die Seite ein paar Mal aktualisiert, findet man für jeden Bedarf ein passendes, ausreichend überzeugendes Foto. Auch falsche Bilder von Kindern werden generiert.

Auch das automatisierte Erstellen von (fast) menschlich erscheinenden Texten ist inzwischen keine Science-Fiction-Fantasie mehr. Forscher von openai.com (https://blog.openai.com/better-language-models/) haben ein „Language Model“ entwickelt, welches aus einem kleinen Paragraphen einen ganzen Text erstellt, der einem, von einem Menschen geschriebenen Roman, Blogbeitrag oder Onlineartikel täuschend ähnlichsieht. Auch hierbei gibt es noch ein paar Feinheiten, die den aufmerksamen Leser erkennen lassen, dass es sich hierbei um künstlich erzeugte Texte handelt.

Was erwartet uns im Bereich Fakeprofile und Fakenews?

Diese Technologien stecken noch in den Kinderschuhen und haben noch nicht ihr Potenzial erreicht. Allerdings können schon jetzt Fälschungen erstellt werden, die auf den ersten Blick überzeugen und erst auf den zweiten Blick als Fälschung zu erkennen sind. Bei der Weiterentwicklung dieser Systeme werden diese Probleme wohl noch ausgeräumt.

Fakeprofile in Zukunft als solche zu enttarnen wird deshalb zunehmend schwieriger. Gerade die Automatisierung von bislang von Menschenhand durchgeführten Tätigkeiten, macht es für motivierte Personen interessant diese für die eigenen Zwecke einzusetzen. Somit könnte die Gefahr, die im Internet von solchen Fakeprofilen und Fakenews ausgeht, in Zukunft noch größer werden als bisher. Fähigkeiten falsche Profile und News als solche zu enttarnen wird schwieriger. Überprüfungsmechanismen sollte deshalb jeder kennenlernen und regelmäßig überdenken. Falsche Freunde bei Facebook, Xing und LinkedIn können zu Problemen führen.

Foto des Autors

Chris Wojzechowski

Mein Name ist Chris Wojzechowski und ich habe vor wenigen Jahren meinen Master in Internet-Sicherheit in Gelsenkirchen studiert. Ich bin geschäftsführender Gesellschafter der AWARE7 GmbH und ausgebildeter IT-Risk Manager, IT-Grundschutz Praktiker (TÜV) und besitze die Prüfverfahrenskompetenz für § 8a BSIG. Unser Brot und Buttergeschäft ist die Durchführung von Penetrationstests. Wir setzen uns darüber hinaus für ein breites Verständnis für IT-Sicherheit in Europa ein und bieten aus diesem Grund den Großteil unserer Produkte kostenfrei an.