Dass künstliche Intelligenz derzeit ein großes Thema ist, haben seit ChatGPT sicherlich alle begriffen. Noch nie war KI in unserem Alltag derart präsent und konnte so einfach genutzt werden, wie es derzeit mit ChatGPT möglich ist. Doch wo KI viel Gutes bewirkt, lässt sich leider auch viel Schlechtes finden. Wie das Beispiel von WormGPT nur allzu konkret zeigt.
WormGPT ist dabei so etwas wie der missratene Bruder von ChatGPT. Bösartig, von Anfang an für das Schlechte entwickelt und voller Potenzial, die guten Systeme vollständig zu zerstören. Als Sicherheitsexperten war es uns nun ein Anliegen, Sie über WormGPT umfassend aufzuklären und aufzuzeigen, wie Sie sich vor der gefährlichen KI schützen können.
Was ist WormGPT?
WormGPT ist eine veränderte und stark angepasste Variante von ChatGPT, wenn man so möchte. Wobei es eigentlich auf dem quelloffenen GPT-J basiert. Damit ist es für Drittanbieter derzeit nicht schwer, modifizierte Varianten zu veröffentlichen, ohne dafür selbst erst ein großes Sprachmodell trainieren zu müssen. Mit WormGPT wurde diese Offenheit jedoch für etwas Schlechtes ausgenutzt, nämlich einer KI, die Hackern bei Angriffen helfen soll.
Dafür nutzt WormGPT, wie zuvor erwähnt, einen angepassten Algorithmus von ChatGPT. Letzteres soll eigentlich dafür sorgen, dass KI-Kommunikation glaubwürdiger und somit authentischer wird. WormGPT hingegen hat ein gänzlich anderes, nämlich ein sehr düsteres Ziel. WormGPT soll nichts weiter als Phishing-Mails erzeugen, die besonders echt und somit glaubwürdig klingen.
Damit wurde die künstliche Intelligenz in erster Linie für Hacker geschaffen, um sie dabei zu unterstützen, möglichst ernst zu nehmende Phishing-Mails versenden zu können. Da diese, wenn auch nicht nur, meist aus entfernten Ländern stammen, werden die Möglichkeiten für Angreifer um einiges größer. Auch wenn sie kein gutes Deutsch sprechen und keine klaren Sätze verfassen, wird ihnen WormGPS dann nämlich glaubwürdige Phishing-Mails generieren, die absolut authentisch wirken.
WormGPT, FraudGPT, ChatGPT-4
Nun werden Sie sich sicherlich erst einmal die Frage stellen, warum WormGPT so viel besser darin sein soll, Phishing-Mails zu schreiben, als es beispielsweise ChatGPT-4 ist. Immerhin können KI-Chatbots wie ChatGPT auch so schon dafür verwendet werden, um glaubwürdige E-Mails für Hacker zu verfassen. Das ist richtig und gleichzeitig auch nicht.
Denn ChatGPT hat viele Limits, die eine kriminelle Nutzung verhindern sollen. WormGPT oder ähnliche schadhafte KI-Systeme, wie FraudGPT, haben diese Limitierungen jedoch nicht. Damit gibt es gleich mehrere Angebote, die es Angreifern erlauben sollen, möglichst glaubwürdige Spam- und Phishing-Nachrichten zu verfassen.
Solche KI-Systeme werden im Darknet und Deepweb dann zur Miete angeboten oder sind Teil von SaaS-Angeboten. Ebenso wie Ransoware as a Service sind diese neuartigen, zur Miete stehenden Cyberwaffen, eine enorm große Gefahr für Unternehmen. Denn je cleverer Angreifer agieren und, desto einfacher sie an derartige Software gelangen, umso schwieriger wird es, die typischen Anzeichen für Spam und Phishing bereits frühzeitig zu erkennen.
Erkennung wird deutlich schwieriger
Das Problem von WormGPT ist, dass es Phishing-Mails auf ein bislang nicht bekanntes Niveau hebt. Waren Phishing-Mails bislang für gewöhnlich oft auch durch ihre Rechtschreibfehler oder Sprachbarrieren zu entlarven, fällt dieser Faktor mit KI-Systemen wie WormGPT nahezu vollkommen weg. Plötzlich wirkt jede Phishing-Mail, wie offiziell verfasst, da das Sprachmodell die menschliche Schreibweise erschreckend gut imitiert und somit weitgehend authentisch erscheint.
Schon jetzt erleben wir im Alltag mit Unternehmen, dass typische Phishing-Mails um ein Vielfaches schwieriger erkannt werden können. Unsere Phishing-Simulationen und Live Hacking Shows haben wir daher bereits an die neuen Gegebenheiten angepasst. In unseren Security Awareness Trainings vermitteln wir inzwischen auch, wie typische KI-Angriffe und KI-verfasste Phishing-Mails aussehen können und wie Sie diese effektiv aufdecken.
Problematisch in diesem Zusammenhang ist, dass WormGPT nicht nur die Formulierung und die Rechtschreibung übernimmt, sondern zugleich auch für eine psychologische Komponente sorgen kann. In dem Test eines Sicherheitsforschers, der WormGPT ausprobierte, zeigte sich recht schnell, dass WormGPT eine kluge Formulierung wählt, die mehr Druck auf den Angegriffenen ausüben soll. Von der KI erzeugte E-Mails von echten zu unterscheiden, ist daher oft nicht mehr möglich. Mehr noch, die KI wählt sogar bessere und treffendere Formulierungen, um so Druck und Zwang zu erzeugen. Gerade an den Formulierungen scheiterten viele Angreifer. Mit WormGPT wird nun also ein neues Zeitalter der Phishing-Mails eingeläutet.
Neues Zeitalter der Phishing-Mails
Bislang war es so, dass KI-Systeme wie ChatGPT bestimmte Grenzen besaßen. Durch strenge Limitierungen und Filter ist in ChatGPT bei Weitem nicht alles möglich. Das soll, laut Entwickler OpenAI, in erster Linie dafür sorgen, dass ChatGPT nicht für sexuelle oder eben illegale Inhalte verwendet wird. Bislang klappt das auch hervorragend, jedenfalls im Falle von ChatGPT.
Doch mit WormGPT, FraudGPT und auch anderen Systemen, wie zum Beispiel CriminaLLLama, welches auf Metas Sprachmodell Llama 2 basiert, gibt es inzwischen bereits viele kriminelle Akteure im Markt der künstlichen Intelligenzen. Vor allem deshalb, weil viele der Sprachmodelle ganz oder zumindest zum Großteil auch Open Source veröffentlicht wurden. Was eigentlich gut ist, wird hier zum Problem, denn plötzlich bekommen Hacker und Betrüger Zugriff auf Systeme, die sie ohne den Open-Source-Ansatz selbst nur schwer entwickeln und trainieren könnten.
Damit wird, egal wie man es betrachten möchte, ein neues Zeitalter für Phishing-Mails und Cyberangriffe ausgerufen. Nämlich das Zeitalter der KI-gesteuerten Hacks. Speziell beim Phishing war es bislang nämlich so, dass viele E-Mails schnell unglaubwürdig erschienen. Das ist nun vorbei. Unternehmen müssen sich bewusst sein, dass die neuartigen Phishing-Mails keine typischen Fehler mehr enthalten und demnach wie echt wirken. Darauf sollten Sie Ihre Mitarbeiter unbedingt vorbereiten und ihnen klarmachen, dass jetzt besondere Vorsicht geboten ist.
Unsere Meinung zu WormGPT
Als Sicherheitsunternehmen haben wir entsprechende Phishing-Mails natürlich längst zu Gesicht bekommen. Es ist wirklich schockierend, dass sich diese mittlerweile kaum noch von echten E-Mails unterscheiden lassen. Die typischen Anzeichen dafür, dass eine E-Mail gefälscht ist, sind nahezu vollständig verschwunden. Ein wahrer Albtraum für die Cybersicherheit in Unternehmen.
Damit wird die Gefahr, versehentlich auf solch eine E-Mail hereinzufallen, unweigerlich größer. Mehr Aufmerksamkeit ist von Mitarbeitern gefragt. Aufmerksamkeit, die im stressigen Alltag eines Betriebs nicht immer vorhanden sein dürfte. Security Awareness Trainings helfen auch hier dabei, ein Bewusstsein zu stärken, doch das Hauptproblem bleibt bestehen. Phishing-Mails wirken mit einem Mal so echt wie niemals zuvor und lassen sich auch auf den zweiten Blick nicht mehr von echten Mails unterscheiden.
Die Bedrohung durch WormGPT und andere KI-Systeme ist somit allgegenwärtig und überaus real. Wir müssen als Gesellschaft daran arbeiten, künstliche Intelligenz verantwortungsvoll einzusetzen und deren Einsatzgebiete möglichst deutlich darzustellen. Den Einsatz unter Hackern werden wir damit jedoch nicht verhindern. Vielmehr sollten auch Unternehmen zunehmend auf KI-Erkennungssysteme setzen und daran mitarbeiten, dass KI-generierte Inhalte auch als solche markiert werden müssen und somit leichter erkannt werden können.