Awareness

AI Act – Europas KI-Herausforderungen

Veröffentlicht am

Künstliche Intelligenz begleitet IT-Experten schon eine ganze Weile. Genau so, wie 3D-Brillen gerade in Form von VR- und Augemented Reality Headsets ihren zweiten Frühling erleben, ist es auch mit der künstlichen Intelligenz. Die ist aktuell vorwiegend in Form von sogenannten Chatbots im Gespräch, die durch KI-Systeme clevere Antworten auf allerlei Fragen geben können und somit zur KI-Hilfe im Alltag werden.

Doch so beeindruckend viele der KI-Tools zurzeit auch sind, so schockierend sind ihre Auswirkungen, die sie auf unser Leben und unser Miteinander haben. Sobald KI nämlich Entscheidungen trifft, wird es zunehmend brenzlig. Was bedeutet so etwas für den Arbeitsmarkt und kann eine KI den Menschen über kurz oder lang vollständig ersetzen? Die Angst ist, gerade in Deutschland, riesengroß und das hat nun auch die Politik verstanden.

Europa kümmert sich derweil in Form des sogenannten AI Acts darum, die Regeln für KI-Systeme genauer abzustecken und ihnen Grenzen zu setzen. Solche Regelungen sind auch bitter nötig, da künstliche Intelligenz immer weniger Grenzen zu respektieren scheint. Sie erstellt Texte, Fotos, Videos, komponiert Musik, übt sich in Kunst und wird damit zur Bedrohung der Gesellschaft. Jedenfalls dann, wenn es kein entsprechendes Gesetz über ihren ethisch korrekten Einsatz gibt.

Was ist der AI Act überhaupt?

Der AI Act ist ein europäisches Gesetz, welches die Anwendung von KI im europäischen Raum genauer regeln soll. AI und KI sind dabei übrigens ein und dieselbe Sache. AI steht im Englischen für »Artificial Intelligence« (kurz AI), was übersetzt »Künstliche Intelligenz« (kurz KI) bedeutet. Einen Unterschied gibt es nicht. International ist jedoch immer von AI statt KI die Rede, was hierzulande mitunter für ein wenig Verwirrung sorgt.

Mit dem AI Act möchte Europa nun also Regelungen aufstellen, die den Einsatz von KI strenger kontrollieren und entsprechend regulieren. Das ist notwendig, weil die meisten KI-Unternehmen aus den USA stammen und dort für gewöhnlich weniger auf Themen wie den Datenschutz oder ethisch korrekte Einsatzzwecke achten. Die EU versucht somit, ähnlich wie bei der DSGVO, eine EU-weite Richtlinie aufzustellen, an die sich automatisch weltweit alle halten, weil das einfacher und vor allem auch günstiger ist, als unterschiedliche Systeme für mehrere Länder zu entwickeln und bereitzustellen. Bei der DSGVO hat das bereits geklappt; jetzt soll der AI Act ähnliche Erfolge hervorbringen.

Damit soll der AI Act schlussendlich auch dafür sorgen, dass alle KI-Systeme in Europa entsprechend fair und nachvollziehbar eingesetzt werden. Statt unregulierte Ergebnisse zu ermöglichen, setzt Europa also auf strenge Richtlinien, um die Künstliche Intelligenz unter Kontrolle zu halten und die Risiken, die mit ihr einhergehen, entsprechend zu reduzieren. Eine grundsätzlich gute Idee also.

Wo genau soll der AI Act eingreifen?

In erster Linie dient der AI Act zur Regulierung von KI-Systemen. Dabei unterscheidet der AI Act aber sehr genau, um was für eine Art von KI es sich handelt. Bevor regulierend eingegriffen wird, geht es erst einmal nur um die grundlegende Art von KI, die wiederum das Maß einer möglichen Regulierung bestimmt.

Dazu teilt der AI Act die unterschiedlichen künstlichen Intelligenzen in die jeweiligen Risikoklassen ein. Einfache KI-Systeme werden somit kaum reguliert, während KI-Systeme mit hohem Risiko speziellen Regeln unterliegen und daher besonders stark von der Regulierung betroffen sind. Eigentlich ein recht einfaches wie auch logisches System.

Stellt sich die Frage, wo ein hohes Risiko und wo ein eher niedriges Risiko vorliegt. Eine KI, die Ihnen einen Artikel zusammenfasst oder aus dem Englischen übersetzt, wird vermutlich ein eher geringeres Risiko aufweisen. Eine KI jedoch, die Bewerbungen aussortiert, über Gehälter entscheidet oder den Verkehr überwacht, weist ein sehr hohes Risiko auf.

Auch die Einteilung ist somit im Grunde alles andere als kompliziert. Wo KI über Menschen entscheidet, ist immer ein hohes Risiko gegeben. Wo KI hingegen nur Kleinkram erledigt, Dokumente sortiert oder zusammenfasst, scheint das Risiko eher geringer Natur.

Wie reguliert der AI Act die KI-Systeme?

Zunächst einmal werden KI-Systeme unterschiedlichen Risikostufen zugeordnet. Für jede Stufe gelten spezielle Regeln und dementsprechend auch Regularien, die dann eingehalten werden müssen. Die betreffen weniger die KI, als vielmehr ihre Entwicklung und den Einsatz im jeweiligen Bereich. Wer also KI entwickeln oder einsetzen möchte, muss sich dahin gehend an den AI Act halten.

Mit diesem Ansatz wird eine Künstliche Intelligenz also nicht pauschal reguliert und deren Entwicklung blockiert, sondern es wird immer geschaut, wo und wie die KI eingesetzt oder entwickelt werden soll. Die Grundidee dieser Herangehensweise sieht vor, dass jede KI, sei sie auch noch so klein, großen Schaden verursachen kann, wenn sie in entsprechend sensiblen Bereichen zum Einsatz kommt.

Auch Systeme wie ChatGPT müssen also einer Risikoklasse zugeordnet werden können, was nahezu unmöglich ist, weil sie überall eingesetzt werden könnten. Stattdessen sieht der AI Act hier eine besondere Aufklärung vor. KI-Entwickler müssen genügend Informationen über die Arbeitsweise ihrer KI bereitstellen, um beim Anwender ein Verständnis für die richtige Anwendung und eventuelle Fehler hervorzurufen. Je nach Umfang des KI-Systems müssen mitunter auch spezielle Cybersicherheitsmaßnahmen ergriffen werden.

Aktuelle KI-Systeme erreichen jedoch noch gar nicht die Rechenleistung, ab der eine entsprechende Regulierung stattfindet. Das ist auch volle Absicht, da europäische KI-Systeme nicht den Anschluss an OpenAI und ChatGPT, Googles Gemini oder Apples KI-Systeme verlieren sollen, indem sie schon jetzt strenger reguliert und benachteiligt werden. Der AI Act ist also eher der erste Schritt in die Zukunft, um dort eine Handhabe gegen zu starke KI-Systeme zu haben.

Welche KI-Systeme gibt es zurzeit?

Wir haben Ihnen im letzten Absatz etwas über europäische KI-Systeme gesagt und nun fragen Sie sich sicherlich, um welche es sich dabei handelt. Denn wie man es auch dreht und wendet, viel mehr als ChatGPT, MetaAI und Google Gemini sind derzeit nicht bekannt. Doch es gibt sie, wenn auch noch sehr vereinzelt. Zu lesen ist meist trotzdem nur von ChatGPT und Metas, Googles oder Apples KI-Bemühungen.

Neben ChatGPT und MetaAI gibt es dann aber auch aus Europa ein paar spannende Teilnehmer. Da wäre etwa das deutsche Start-up Aleph Alpha und das französische KI-Unternehmen Mistral AI. Gerade von letzterem haben Sie vielleicht auch schon einmal gehört, denn Mistral AI, mitsamt dem eigenen Sprachmodell Mistral Large und dem ChatGPT-Konkurrenten Le Chat, konnte sich zuletzt eine über mehrere Jahre hinweg dauernde Partnerschaft mit Microsoft sichern.

Die große Angst, die gerade europäische Anbieter im Zuge des AI Acts indessen verfolgt, ist die, dass sie keine Chance mehr haben, mit ihren Mitbewerbern aus den USA oder China zu konkurrieren. Diese halten sich mitunter nämlich an keinerlei Regulierung, während in Europa dann der AI Act gelten würde, sofern er denn streng und zeitnah umgesetzt wird.

Zudem kommen immer mehr KI-Modelle zum Vorschein. Zuletzt war das Devin, eine Künstliche Intelligenz, die sich rein auf das Programmieren konzentriert und Programmierer somit weitestgehend überflüssig machen möchte. Devin soll dabei ungefähr so leistungsfähig sein wie das Sprachmodell Llama von Meta und stammt vom Start-up Cognition Labs.

Welche Gefahren gibt es durch KI und den AI Act?

Es war schon beschlossene Sache, da gab es plötzlich einen großen Aufschrei. Der AI Act soll gigantische Lücken offenbaren, die eine Massenüberwachung ermöglichen und KI-unterstützte Maßnahmen der Strafverfolgung ungewollt umfangreich realisieren und sogar begünstigen.

Das ist jedoch auch kein Wunder, denn wenn die EU-Kommission, das EU-Parlament und der EU-Rat mit allen teilnehmenden Ländern an einem Gesetz arbeiten, ist kaum vorstellbar, dass dort etwas Sinnvolles herauskommt. Zu viele Köche verderben schließlich bekanntermaßen den Brei. Fast 900 Seiten umfasst der AI Act als Gesetzestext, was zeigt, wie irrsinnig dort das weitere Vorgehen beschrieben wird. Wer sich das Ganze einmal genauer ansehen möchte, kann hier alles nachlesen.

Möglich und nicht verboten ist eine Emotionserkennung. Das klingt erst einmal sinnvoll, beispielsweise um aggressive Personen in einer Menge zu entlarven, ist menschlich aber schnell missbrauchbar. Unternehmen könnten mittels KI ihre Mitarbeiter überwachen und eine Art Lügendetektor, auf Basis der entdeckten Emotionen, wäre ebenfalls denkbar.

Für alles, was die nationale Sicherheit betrifft, bestehen weitere Schlupflöcher im Gesetzestext. Im Grunde sind alle militärischen, verteidigungspolitischen und Zwecke der nationalen Sicherheit davon ausgeschlossen. Für diese gilt die Verordnung also gar nicht erst. Wer sich an Pegasus von der NSO Group erinnert, welches ebenfalls nur der nationalen Sicherheit dienen sollte, dann aber massiv missbraucht wurde, sollte nun abermals darüber nachdenken, wie weit das Feld der nationalen Sicherheit gesteckt werden kann.

Wo KI derzeit bereits zum Einsatz kommt

Inzwischen kommt KI in fast allen Bereichen zum Einsatz, allerdings noch sehr beschränkt, um ehrlich zu sein. Bekannt dürfte allen Endanwendern der Begriff Chatbot sein. ChatGPT und Google Gemini haben gezeigt, wie einfach das sein kann. Es wird nur die Frage eingeben, schon generiert die KI eine Antwort. Die ist derzeit nicht immer richtig, oft aber brauchbar für eine weitere Recherche. Einfache Fragen beantwortet die KI außerdem schon recht zuverlässig. Chatbots lassen KI somit besonders zugänglich werden.

In Amerika und auch hierzulande, jedoch oft nicht ganz offen kommuniziert, wird Künstliche Intelligenz auch immer wieder im Bereich der Risikobewertung eingesetzt. Beispielsweise vor der Vergabe eines Kredits in Form des Scorings. Hier ist KI wegweisend, um rein rationale Entscheidungen auf Basis großer Datenmengen (Big Data) treffen zu können. Dabei kann sie allerdings Existenzen ruinieren, sollte sie eine falsche Entscheidung treffen.

Auch der Aktienmarkt und Investmentfirmen im Allgemeinen haben bereits seit Jahren verstanden, dass KI die Zukunft sein wird. Keine Entscheidung ist so nüchtern und kann derart viele Parameter auf einmal berücksichtigen, wie die einer Künstlichen Intelligenz. Was gekauft und verkauft oder weiter gehandelt wird, ist oft nur noch eine Entscheidung der entsprechend darauf trainierten künstlichen Intelligenz.

KI ist somit bereits überall im Einsatz. Die Frage ist nur, ob wir das als Gesellschaft auch so wollen. Europa zeigt, dass es zumindest stark regulieren möchte. Der AI Act spiegelt das jedoch nur teilweise wider, da er allgemein recht schwammig und offen formuliert wurde. Was er also wirklich bringt und in welche Richtung sie die KI-Gesetze entwickeln, wird die Zukunft erst noch zeigen.

Foto des Autors

Chris Wojzechowski

Mein Name ist Chris Wojzechowski und ich habe vor wenigen Jahren meinen Master in Internet-Sicherheit in Gelsenkirchen studiert. Ich bin geschäftsführender Gesellschafter der AWARE7 GmbH und ausgebildeter IT-Risk Manager, IT-Grundschutz Praktiker (TÜV) und besitze die Prüfverfahrenskompetenz für § 8a BSIG. Unser Brot und Buttergeschäft ist die Durchführung von Penetrationstests. Wir setzen uns darüber hinaus für ein breites Verständnis für IT-Sicherheit in Europa ein und bieten aus diesem Grund den Großteil unserer Produkte kostenfrei an.