Munscheidstr. 14 in 45886 Gelsenkirchen

Jetzt anrufen 0209 - 8830 6760

Bildgenerator-Beben: Die Kunst der KI und die ethische Herausforderung

M.Sc. Jan Hörnemann

Mit den gigantischen Fortschritten, die künstliche Intelligenz derzeit vollzieht, werden die Möglichkeiten immer größer. KI-Bildgeneratoren fälschen Kunst sogar derart gut, dass die Fälschung wie ein Original erscheint. KI erschafft Objekte aus dem Nichts, die mittlerweile nicht mehr künstlich platziert wirken, sondern wie real vorhanden erscheinen. KI erstellt dabei Bilder, die ausschließlich durch eine Beschreibung, also einen sogenannten Promt erschaffen werden.

Damit hat künstliche Intelligenz nicht nur für sich genommen eine Revolution ausgelöst, sondern auch die Kunstwelt nahezu vollständig auf den Kopf gestellt. KI-Bildgeneratoren sind plötzlich überall, und so richtig scheint niemand darauf vorbereitet gewesen zu sein. Das wiederum bringt die typischen Probleme von technischen Errungenschaften mit sich, die bislang nicht zu Ende gedacht wurden.

KI-Bildgeneratoren sind somit Möglichkeit, aber auch Gefahr gleichermaßen. Verschwindet nun die Kunstwelt und sind alle Bilder plötzlich nicht mehr als ein guter Fake? Welche ethischen Herausforderungen warten auf die Gesellschaft in Bezug auf von KI generierten Bildern?

Hype um KI-Bildgeneratoren

Innerhalb kürzester Zeit hat künstliche Intelligenz als Begriff und Tool den Weg in unseren Alltag gefunden. Allen voran ChatGPT von Open AI, die mit ihrem cleveren Chatbot schnell von sich reden machten. Noch nie war es so einfach, eine KI zu befragen, wie es heutzutage und mithilfe von ChatGPT der Fall ist. Doch ChatGPT erzeugt bekanntlich keine Bilder. DALL-E von Open AI jedoch schon, genau wie andere KI-Tools auch, etwa die Midjourney AI oder auch Stable Diffusion.

Mit diesen KI-Bildgeneratoren ist es also möglich, realistische Bilder oder auch fantastische Werke zu erzeugen. Die KI beherrscht dabei, genau wie ChatGPT, viele Möglichkeiten für eine Umsetzung, die via KI-Promt (also eine geschriebene Textanweisung) in eine entsprechende Richtung gelenkt werden können. Auf diese Weise entstehen Bilder aus dem Nichts, die jeden Stil imitieren und jede Darstellung erschaffen können. Machbar ist dies, weil die KI gelernt hat, wie bestimmte Dinge aussehen und sich in ihre Umgebung einfügen.

Die Möglichkeiten scheinen dabei erst einmal unbegrenzt. Ohne Limit oder künstliche Beschränkung, ist es einer KI ohne Weiteres möglich, Menschen nach einer Beschreibung hin zu formen oder ganze Szenen darzustellen. Sie kann also als Hilfe in der Entwicklung dienen (Videospielcharaktere, Web Designs etc.), aber auch Kunst erzeugen (Gemälde, Druckvorlagen etc.) oder Vorschaubilder für journalistische Artikel generieren.

Wie KI-Bildgeneratoren arbeiten

KI-Bildgeneratoren funktionieren über einen Generator und einen sogenannten Diskriminator. Doch fangen wir ganz am Anfang an. Bei den KI-Bildgeneratoren handelt es sich um sogenannte Generative Adversarial Networks (GANs). Das wiederum sind, heruntergebrochen auf das Wesentliche, zwei neuronale Netzwerke, die stetig miteinander interagieren müssen, um das gewünschte Ergebnis zu realisieren.

Der Generator erstellt dabei das Bild aus einem simplen Rauschen, welches er zunehmend detaillierter gestaltet, bis es reale Formen, Farben und Strukturen annimmt. Je mehr Zeit wir ihm dafür geben und je mehr Rechenleistung er bekommt, desto eindrucksvoller wird das generierte Bild. Der Generator arbeitet also schrittweise, um sich dem von uns gewünschten Ergebnis mehr und mehr anzunähern.

Beim Diskriminator handelt es sich um das zweite neuronale Netzwerk, welches ausschließlich darauf trainiert ist, Unterschiede zwischen dem vom Generator erstellten Bild und echten Bildern zu erkennen. Beide Netzwerke sind wichtig, um schlussendlich das bestmögliche Ergebnis zu erzeugen.

Das Generative Adversarial Networks (GANs) arbeitet nämlich so, dass Generator und Diskriminator beständig gegeneinander antreten. Auf diese Weise werden KI-Bildgeneratoren trainiert. Der Generator erzeugt Bilder, mit denen er den Diskriminator täuschen will. Der Diskriminator hingegen versucht, den Generator zu entlarven und einen Fake zu erkennen.

Somit wird der Generator beständig besser, sodass er in der Lage ist, Bilder zu erzeugen, die von den echten nicht mehr zu unterscheiden sind. Texturen oder Modelle für Videospiele, Buttons und Elemente für ein Web Design oder auch Gesichter und sogar Porträts, die fast täuschend echt wirken. Es ist verblüffend, wie gut KI-Bildgeneratoren inzwischen arbeiten und wie schwer es selbst für ein geschultes Auge ist, zu erkennen, dass ein Bild mittels KI erstellt wurde.

Herausforderungen bei KI-Bildern

Künstliche Intelligenz stellt uns als Gesellschaft vor eine große Herausforderung. Vor allem, wenn es darum geht, reale Bilder von KI-Bildern zu unterscheiden, entstehen ein paar überaus große Probleme. Das hat schon allein damit zu tun, dass oft keine gesonderte Markierung von KI-Bildern erfolgt, sodass diese eben kaum bis gar nicht erkannt werden können. So etwas wirft wiederum die ethische Frage auf, ob nicht ein Betrug am Betrachter stattfindet, wenn diesem nicht klar ist, dass es sich um ein von KI generiertes Bild handelt.

KI könnte somit Kriegsbilder erzeugen, die nie stattgefunden haben. Leid zeigen und Propaganda betreiben, obwohl nichts davon der Wirklichkeit entspricht. Sie könnte Personen an Orten darstellen, an denen sie nie waren. Politiker in Schmutzkampagnen verwickeln, die nur auf einem Bild beruhen, welches seitens einer KI erzeugt wurde. Prominente ins falsche Licht rücken oder von Männern und Frauen missbraucht werden, um Ex-Partner mit Nacktbildern zu diffamieren.

Zwar haben KI-Bildgeneratoren für letzteres meist eine entsprechende Sperre integriert, doch da viele dieser Anwendungen Open Source sind, gibt es inzwischen auch eine Vielzahl sogenannter Nudify-Dienste oder gar angepasste Nudify KIs. Solche Dienste verweisen zudem einen starken Besucherzuwachs, was sicherlich kaum jemand als ungewöhnlich bezeichnen würde. Und da es, je nach Land und Region, kaum bis gar keine Regulierung KI-gesteuerter Apps gibt, sind die Gefahren groß. Nacktfotos sind da erst der Anfang, denn vor solchen wäre in Zeiten einer unregulierten KI ohnehin kein Mensch mehr sicher.

Die Europäische Union will KI-Anwendungen in Zukunft aber immerhin streng regulieren. Zwischen Europaparlament und den EU-Staaten wurde dafür der AI Act ins Leben gerufen, der einen Rechtsrahmen für KI-Entwicklungen bieten soll. Unter anderem geht es beim AI Act darum, Urheberrechte zu schützen und ein KI-Gesetz zu schaffen, welches auch KI-Bildgeneratoren entsprechend stark reguliert.

KI-Generierte Bilder erkennen

Je realistischer KI Bildgeneratoren werden, umso wichtiger wird es auch, ein geschultes Auge für potenzielle Merkmale von KI-Bildern zu bekommen. Eines der derzeit offensichtlichsten Eigenheiten von KI-Bildern sind verschwommene Übergänge und ein allgemein sehr weichgezeichnetes Erscheinungsbild. Doch solche Dinge werden verschwinden, wenn Bild-KIs besser werden und keinen starken Weichzeichner mehr benötigen, um Übergänge zu kaschieren.

Weil KI-Bildgeneratoren also zunehmend komplexer und die Erkennung von KI-Bildern soBildmit schwieriger wird, gibt es derzeit verschiedene Bemühungen in diesem Bereich. KI-Bilder sollen etwa ein unlöschbares Wasserzeichen erhalten oder aber grundsätzlich unter eine Kennzeichnungspflicht fallen. Doch selbst dann werden sich diejenigen, die für die Sicherheit eine Gefahr darstellen, nicht daran halten oder aber Wege finden, die Beschränkungen effektiv zu umgehen.

Speziell bei von der KI generierten Porträts ist die Gefahr zudem groß, dass diese beim Social Engineering verwendet werden. Personenprofile können erstellt und somit Vertrauen erschlichen werden. Schließlich gibt es auf einem Fake-Profil bei Instagram dann nicht mehr nur ein manipuliertes Profilbild, sondern gleich eine ganze Timeline mit realistisch anmutenden Fake-Bildern.

Wer mal selbst testen möchte, ob er gefälschte Profilbilder erkennt, kann auf der Website »thispersondoesnotexist.com« vorbeischauen. Dort werden realistische Bilder mit StylGAN generiert. Absolut beeindruckend, ebenso aber unglaublich erschreckend. Von einem echten Foto sind diese Porträts nahezu nicht zu unterscheiden. Gefälschte Identitäten zu erzeugen, wäre damit jedenfalls kein Problem.

Um Fake-Bilder von einer KI zu erkennen, müssen Sie auf die Details achten. Oft sind Haare abgeschnitten, Ohrringe merkwürdig verformt oder aber Brillen nicht mehr in Gänze vorhanden. Auch im Hintergrund kommt es oft zu Verformungen, und Kleidung sieht gelegentlich extrem merkwürdig aus, weil die KI nicht verstanden hat, wie das Kleidungsstück korrekterweise aussehen an der Person aussehen müsste.


Erkennen Sie zuverlässig Phishing E-Mails?

Jetzt das AWARE7 Phishing Quiz absolvieren
und das eigene Wissen überprüfen!


Cybersicherheit in Gefahr

Wer ernsthaft überzeugt ist, er könnte Bilder, die von einer KI erstellt wurden, dauerhaft von realen Darstellungen unterscheiden, ist ziemlich naiv. Für uns ist es nur eine Frage der Zeit, bis das nicht mehr möglich sein wird. Umso wichtiger sind Standards, die wie eine Art Wasserzeichen funktionieren, sowie gesetzliche Vorgaben, die eine Markierung von KI-Bildern verlangen. Auch und vor allem deshalb, weil KI-Bildgeneratoren die Cybersicherheit derzeit massiv gefährden.

Zudem sollte die Ethik bei dem ganzen Thema in den Fokus rücken. Ein Internet voller von KI-generierten Nacktbildern, von gewissermaßen jedem Menschen auf der Welt, möchte wohl niemand von uns. Für Unternehmen stellen KI-Bildgeneratoren ohnehin schon eine große Gefahr dar. Angefangen beim Social Engineering, über gefälschte Screenshots und Belege, die mal eben per KI erstellt werden, gibt es hier viele theoretische Szenarien. Angreifer haben es in diesem Bereich leichter denn je, denn sie müssen nicht einmal mehr ihre Künste in Photoshop unter Beweis stellen, das erledigt die KI für sie.

Die große Herausforderung unserer Zeit wird daher sein, KI-generierte Bilder erkennen zu können. Es verlangt also nach Lösungsansätzen und Ideen, um dieses Problem in den Griff zu bekommen. Aktuell ist das Potenzial, KI-Bilder für betrügerische Zwecke zu verwenden, nämlich noch viel zu groß. Wie die Maßnahmen in Zukunft aussehen werden, muss sich allerdings erst noch zeigen. 


Hat Ihnen der Beitrag gefallen? Gerne benachrichtigen wir Sie, wenn wir einen neuen Beitrag veröffentlicht haben. Tragen Sie jetzt Ihre E-Mail-Adresse ein. Für Sie entstehen keine Kosten.


Foto des Autors

M.Sc. Jan Hörnemann

Hallo liebe/r Leser/in, mein Name ist Jan Hörnemann. Ich bin TeleTrust Information Security Professional (T.I.S.P.) und beschäftigte mich seit 2016 nahezu tagtäglich mit Themen rund um die Informationssicherheit. Der CeHv10 war meine erste praktische Zertifizierung in dem Bereich. Durch den Abschluss Master of Science in dem Fachbereich Internet-Sicherheit habe ich viele verschiedene Aspekte kennengelernt und versuche diese sowohl in Live Hacking Shows als auch in unserem Blog zu vermitteln. Darüber hinaus bin ich als Informationssicherheitsbeauftragter tätig und vom TÜV für diese Tätigkeit qualifiziert worden (ISB nach ISO 27001)