Awareness

Richtlinien für KI: Vertrauen in die Zukunft

Aktualisiert am

Das Bestreben nach künstlicher Intelligenz gab es schon seit jeher. Ob in Science-Fiction-Filmen, Videospielen, der Industrie oder aber der Forschung, stets war der große Traum von selbstlernenden und denken Systemen präsent. Die Fantasie kreiste demnach schon immer um eine KI, die repetitive Aufgaben für den Menschen übernimmt, besonders komplizierte Rechnungen löst oder schlichtweg alles automatisiert, was irgendwie möglich ist.

Aktuell sind wir diesem Ziel, zumindest dem Anschein nach, näher als jemals zuvor. ChatGPT hat uns eindrucksvoll gezeigt, was heute schon machbar ist, wobei es zugleich auch klare Grenzen des Möglichen gesetzt hat. Nun aber stellt sich die Frage, wohin die Reise noch geht. Wie weit darf eine KI entwickelt werden, wie frei sollte sie antworten dürfen, wie tiefgehend kann sie in soziale Strukturen, Machtverhältnisse und Gewohnheiten eingreifen?

Es ist nicht nur die Ethik, die solche Diskussionen bestimmt. Auch technisch gibt es Möglichkeiten wie auch Grenzen, die gesellschaftlich durchdacht sein wollen. Und genau deshalb braucht es Richtlinien für eine sichere Entwicklung von Künstlicher Intelligenz (KI). Schauen wir uns also gemeinsam an, wo wir uns mit der KI gerade befinden, wo wir hingehen werden und wovor wir vielleicht sogar Angst haben sollten.

Was KI steuern und welche Katastrophen sie auslösen kann

Die größte Gefahr von KI liegt in den Entscheidungen, die sie für den Menschen treffen könnte. Angefangen von Personalentscheidungen, Bewertungen oder gar Ideen auf politischer Ebene. Bei letzteren hat sie gar das Potenzial, vermeintlich rückständige Staaten und ganze Länder in eine neue Zeit zu katapultieren, da plötzlich auch hier KI-gesteuerte Systeme für viel Automation und Fortschritt sorgen könnten. KI kann bestehende Machtverhältnisse also gänzlich durcheinanderbringen, was potenziell schon einmal sehr gefährlich ist.

Auch die Finanzwelt profitiert von künstlicher Intelligenz. Investments werden automatisiert, Geld wird bewegt und verwaltet, ganz ohne persönliche Mutmaßungen, sondern rein auf den rationalen Entscheidungen einer künstlichen Intelligenz. Doch was passiert genau, wenn jeder dank der bestehenden KI entsprechend clever investieren kann und es mit einem Mal keine Verlierer am Finanzmarkt mehr gibt? Wenn alle nur noch Geld verdienen, weil die KI durchgehend die richtigen Entscheidungen trifft? Bricht das System dann nicht unweigerlich in sich zusammen?

Im Geschäftsbetrieb muss sich hingegen gefragt werden, welche Branchen weiterhin existieren. Eine KI kann keine kreativen Bücher verfassen, wohl aber simple Blogartikel schreiben. Zwar unterscheiden sich die am Ende immer von menschlichen Werken, doch wie lange ist das noch so? Wie lange braucht es bei der Tageszeitung einen Redakteur und wie lange professionelle Fotografen, bis die KI die benötigten Bilder einfach selbst erzeugt? Was passiert, wenn wir Worten, Bildern und Videos nicht mehr trauen können, weil KI so gut wird, dass sie diese wie real erscheinen lässt? Was bedeutet das für Unternehmen und für die Sicherheit selbst?

Phishing ist schon heute dank KI und Deep Learning eine extreme Gefahr. Wie groß wird diese Gefahr erst werden, wenn eine KI sogar Stimmen vollkommen authentisch nachahmt, Bilder erzeugt und ganze Profile erstellt, die absolut real und glaubwürdig erscheinen? Wenn Scheinfirmen entstehen, gefüllt mit Informationen einer künstlichen Intelligenz? Geschäftsführer, die es nie gab und Registereinträge, die nur echt aussehen, aber nicht echt sind?

Sie merken sicherlich schon, dass wir unendlich so weitermachen könnten. Wir könnten weitere positive Faktoren aufführen, wie die medizinische Forschung und wie diese von einer KI profitiert, nur um dann gleich wieder zum Militär und möglicher Propaganda zu wechseln, um möglichst negative Seiten zu zeigen. KI wird alles verändern, soviel scheint bei all den Diskussionen jedoch sicher zu sein. Umso wichtiger sind klare KI-Richtlinien für deren zukünftige Entwicklung.

Richtlinien für eine sichere und humane Entwicklung

Dass KI einen gewissen ethischen Grundsatz voraussetzt, primär aufgrund der potenziellen Gefahren dieser Technik, haben auch die meisten darin involvierten Unternehmen bereits verstanden. Mehrere große IT-Unternehmen und Dienstleister einigten sich zuletzt auf neue Richtlinien, um KI in Zukunft möglichst verantwortungsvoll weiterzuentwickeln. Unterzeichnet haben dort etwa OpenAI (ChatGPT), aber auch die BBC oder der Social-Media-Dienst TikTok. 

Ziel ist unter anderem transparent darüber aufzuklären, was KI kann, wo KI im Einsatz ist und wie diese im konkreten Fall arbeitet. Damit wird ein Bewusstsein für die KI geschaffen, woraufhin Menschen verstehen, in welchen Bereichen eine künstliche Intelligenz überhaupt aktiv ist. Das wiederum ist wichtig, um KI-Inhalte auch als solche wahrzunehmen und somit zu verinnerlichen, wie die Unterschiede zwischen menschlichen und künstlich erzeugten Inhalten aussehen. 

Die Richtlinien dienen dazu, sicherzustellen, den Menschen mit der entwickelten KI nicht »zu schaden, sie zu entmachten oder zu entrechten«. Das jedoch ist leichter gesagt als getan, denn bislang verbreitet sich KI rasend schnell und viele der generierten Inhalte oder Arbeiten verfügen nach wie vor über keinerlei Wasserzeichen oder Signatur, mit denen sie zuverlässig erkannt werden können. Anders als echte Fotos beispielsweise, für die Sony, Nikon und Canon inzwischen eine Art DRM entwickelt haben, der mittels eindeutiger Signatur beweisen soll, dass ein Foto ein unbearbeitetes Original ist und eben kein verändertes oder gar von KI erzeugtes Machwerk.

Auch das National Cyber Security Centre (NCSC) hat bereits Leitlinien für einen sicheren Umgang und eine humane Entwicklung von KI-Systemen herausgegeben. Dumm nur, dass all die Richtlinien und freiwilligen Übereinkünfte nicht viel helfen, solange sie nicht tatsächlich auch eingehalten oder umgesetzt werden.

Warum Leit- und Richtlinien für KI derzeit kaum helfen

Wie eben bereits angedeutet, bringen die besten Regeln nichts, wenn sich niemand an sie hält. ChatGPT und der Bildgenerator DALL-E von OpenAI haben deshalb bestimmte Grenzen. Sie sind stark zensiert, wie Kritiker immer wieder monieren, was im Grunde aber nur verhindert, dass beispielsweise sexualisierte oder illegale Inhalte erzeugt und ausgegeben werden. Zumindest soll genau das damit vollständig vermieden werden.

Um all diese strengen Regeln also Wirklichkeit werden zu lassen, braucht es genügend Aufpasser, die sie durchsetzen. Keine Selbstverpflichtung und keine Versprechen, sondern App Stores und Cloud-Anbieter, die KIs ohne Kontrolle schlichtweg verbieten und nicht mehr listen. Nur so ist es auf lange Sicht möglich, die Grenzen der KI gesellschaftlich und gemeinschaftlich bestimmen zu können.

Denn schon jetzt gibt es genügend Alternativen zu ChatGPT oder DALL-E. Generatoren, die ganz ohne Zensur sexualisierte Inhalte erzeugen, illegale Aktivitäten beinhalten oder eben ohne jegliche Grenze fremde Inhalte zum Lernen verwenden. Es gibt viele schwarze Schafe, die es nun im Zaum zu halten gilt. Mit kontrollierten App Stores und Hostern, die illegale KIs ausschließen. Aber auch mithilfe gesetzlicher Bestimmungen, die KI-Grenzen setzen und eine Signatur erzeugen, um deren Ursprung klar aufzuzeigen. Freiwillige Richtlinien hingegen werden uns nicht dabei helfen.

Risiken und Nutzen von Künstlicher Intelligenz

Allerdings gibt es auch ganz klare Bereiche, in denen KI-Systeme unheimlich nützlich erscheinen. In Unternehmen kann eine künstliche Intelligenz hervorragend repetitive und sich wiederholende Aufgaben ausführen. Das macht Mitarbeiter frei von solchen lästigen Verantwortlichkeiten, die fortan automatisiert via KI abgehakt werden können. 

Gleichzeitig lauert hier auch eine enorme Gefahr. Wurde keine interne KI angelernt und entwickelt, die abgeschottet für sich funktioniert, gelangen schnell vertrauliche Informationen oder ganz konkret Geschäftsgeheimnisse an die Öffentlichkeit. Mitarbeiter müssen in dem Umgang mit einer KI daher besonders geschult werden, um bei der Eingabe von Promts keine Daten zu leaken oder andere ungewollte Reaktionen seitens der KI hervorzurufen.

Im Bereich der Cybersicherheit kann KI im Guten wie auch im Schlechten förderlich sein. Sie kann Sicherheitslücken aufspüren, Tests entwickeln oder aber Schwachstellen finden. Das kann die Gegenseite, in diesem Fall ein bösartiger Hacker, jedoch ebenso für sich nutzen. Umso wichtiger ist es, von der KI identifizierte oder identifizierbare Risikobereiche sofort entsprechend zu bearbeiten und abzusichern. Was eine KI findet, wird in Zukunft also auch jeder Angreifer mittels KI entlarven können.

Grenzen gibt es dann nur noch bei der Aktualität. Das Update eines großen Sprachmodells (LLMs) kann nämlich nicht in Echtzeit erfolgen. KIs denken daher immer nur bis zu einem gewissen Datum. Das Wissen darüber hinaus fehlt ihnen schlichtweg. Neuste Erkenntnisse können sie daher in der Regel auch nicht verarbeiten. 

Vorsichtig sollten Unternehmen auch bei der Generierung von Code auf Basis einer künstlichen Intelligenz sein. Hier ist potenziell unsicherer und ungeprüfter Code möglich, der große Schwachstellen hervorbringen kann. 

Künstliche Intelligenz zwischen Gefahr und Potenzial

Auch wir benutzen KI in unserem Unternehmen, um bestimmte Geschäftsbereiche zu beschleunigen und andere durch den Einsatz von KI aufzuwerten. Doch wir sind Profis, haben Sicherheitsexperten bei uns sitzen und wissen, was wir tun. Wer das nicht weiß, geht ein großes Geschäftsrisiko ein, wenn er KI produktiv einsetzen möchte, ohne sie gänzlich zu verstehen oder ihr die notwendigen Grenzen zu setzen.

Dafür sollen in Zukunft die hier beschriebenen und behandelten KI-Richtlinien dienen. Sie setzen Grenzen, wo die Entwickler einer KI noch keine gesetzt haben oder sie erst noch setzen müssen. Die großen Anbieter solcher KI-Systeme sind sich zudem längst im Klaren darüber, dass eine Regulierung stattfinden muss. KI darf nicht leichtfertig immer mächtiger werden. Ihr Einfluss auf das soziale, finanzielle und politische Geschehen könnte sonst ungeahnte Auswirkungen nach sich ziehen.

Foto des Autors

Chris Wojzechowski

Mein Name ist Chris Wojzechowski und ich habe vor wenigen Jahren meinen Master in Internet-Sicherheit in Gelsenkirchen studiert. Ich bin geschäftsführender Gesellschafter der AWARE7 GmbH und ausgebildeter IT-Risk Manager, IT-Grundschutz Praktiker (TÜV) und besitze die Prüfverfahrenskompetenz für § 8a BSIG. Unser Brot und Buttergeschäft ist die Durchführung von Penetrationstests. Wir setzen uns darüber hinaus für ein breites Verständnis für IT-Sicherheit in Europa ein und bieten aus diesem Grund den Großteil unserer Produkte kostenfrei an.