KI-Systeme treffen immer häufiger Entscheidungen, die das Leben von Menschen direkt beeinflussen. Während diese Technologie enorme Chancen bietet, bringt sie auch erhebliche Risiken mit sich: Was passiert, wenn eine KI diskriminiert? Wer haftet, wenn ein Algorithmus falsche Entscheidungen trifft? Wie verhindern wir Missbrauch und Intransparenz?
Um diesen Herausforderungen zu begegnen, hat die Europäische Union mit dem AI Act (Artificial Intelligence Act) das weltweit erste umfassende Gesetz zur Regulierung von Künstlicher Intelligenz entwickelt. Dieses Regelwerk soll sicherstellen, das KI sicher, transparent und im Einklang mit europäischen Werten wie Datenschutz und Menschenrechten eingesetzt wird.
Der AI Act verfolgt einen risikobasierten Ansatz: Er stuft KI-Systeme je nach ihrem potenziellen Schaden in verschiedene Kategorien ein, von minimalem bis hin zu unannehmbaren Risiko. Während harmlose Anwendungen wie KI-gestützte Übersetzer kaum Einschränkungen unterliegen, müssen Hochrisiko-Systeme, etwa in der Medizin oder Strafverfolgung, strenge Auflagen erfüllen. Besonders problematische Anwendungen, wie Social Scoring-Systeme oder manipulative KI, werden sogar vollständig verboten.
Doch welche praktischen Auswirkungen hat der AI Act für Unternehmen, Entwickler und Verbraucher? Welche Chancen und Herausforderungen bringt das Gesetz mit sich? Und wie kann Europa mit dieser Regulierung im globalen Wettbewerb bestehen? Wir bieten eine tiefgehende, aber verständliche Analyse des AI acts. Wir erklären, warum die Regulierung notwendig ist, wie sie funktioniert und welche Veränderungen sie mit sich bringt, für Unternehmen, für KI-Experten, aber auch für Bürgerinnen und Bürger, die von KI-Systemen im Alltag betroffen sind.
Hintergrund: Warum braucht Europa den AI Act?
Künstliche Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht. KI-gestützte Systeme helfen Unternehmen, Prozesse zu automatisieren, analysieren riesige Datenmengen und ermöglichen völlig neue Anwendungen, von medizinischen Diagnosen über autonome Fahrzeuge bis hin zur Entscheidungsfindung in Banken und Behörden. Diese Entwicklung bringt jedoch nicht nur Chancen, sondern auch erhebliche Herausforderungen, die eine sorgfältige Regulierung erfordern.
Risiken unkontrollierter KI
Diskriminierung durch fehlerhafte Algorithmen
KI-Systeme basieren auf Trainingsdaten. Wenn diese Daten Vorurteile enthalten, können Algorithmen unbewusst diskriminierende Entscheidungen treffen, etwa bei der Vergabe von Krediten, bei Bewerbungsverfahren oder in der Strafjustiz. Ein Beispiel dafür sind KI-Systeme, die Bewerbungen automatisch aussortieren, weil sie bestimmte Namen oder Herkunftsmerkmale mit einer niedrigen Eignung assoziieren.
Manipulation von Deepfakes und Fehlinformationen
Durch KI-generierte Videos und Texte können gefälschte Inhalte täuschend echt erscheinen. Deepfakes ermöglichen es, Personen in Videos Dinge sagen oder tun zu lassen, die sie nie getan haben, eine Technologie, die gezielt zur politischen Manipulation oder Rufschädigung eingesetzt werden kann. In sozialen Netzwerken verbreiten sich durch KI generierte Fake-News oft schneller als echte Nachrichten, was das Vertrauen in Medien und demokratischen Prozesse untergräbt.
Sicherheitsrisiken durch unkontrollierte KI-Nutzung
Besonders heikel ist der Einsatz von KI in sicherheitskritischen Bereichen wie der automatisierten Strafverfolgung oder der Überwachung öffentlicher Räume. Gesichtserkennungssysteme, die verdächtige Personen identifizieren sollen, haben in der Vergangenheit gezeigt, dass sie oft ungenau sind und bestimmte Gruppen überproportional falsch identifizieren. Dies kann zu willkürlichen Verhaftungen oder ungerechtfertigter Überwachung führen.
Der globale Vergleich
Während viele Länder sich mit den Herausforderungen von KI beschäftigen, verfolgen sie unterschiedliche Strategien in der Regulierung:
China: KI als Überwachungsinstrument
China setzt stark auf KI, insbesondere für staatliche Kontrolle und Überwachung. Systeme wie Social Scoring bewerten das Verhalten von Bürgern, beeinflussen ihren Zugang zu bestimmten Dienstleistungen und schaffen ein System sozialer Kontrolle. KI wird dort als Werkzeug zur politischen Steuerung eingesetzt, was aus der Sicht der Menschenrechte problematisch ist.
USA:Marktgetriebene Entwicklung mit minimaler Regulierung
In den Vereinigten Staaten wird KI größtenteils von privaten Unternehmen entwickelt. Technologiekonzerne wie Google, OpenAI oder Microsoft investieren Milliarden in KI-Systeme, die sich schnell weiterentwickeln. Regulierung erfolgt eher reaktiv, das heißt, erst wenn Probleme entstehen, greifen bestehende Gesetzte. Diese Herangehensweise fördert Innovation, kann aber zu unkontrollierten Risiken führen.
Europa: Ein regulierter, ethikorientierter Ansatz
Die EU hat mit dem AI Act eine Mittelposition zwischen China und den USA gewählt. Ziel ist es, Innovation zu ermöglichen, aber gleichzeitig klare Grenzen zu setzen, um die Grundrechte der Bürger zu schützen. Europa setzt auf einen risikobasierten Ansatz, bei dem besonders gefährliche KI-Systeme strengen Regeln unterliegen oder ganz verboten werden. Gleichzeitig sollen ethische Standards und Transparenz gewährleistet werden, um das Vertrauen der Bevölkerung in KI-Technologie zu stärken.
Der AI Act als Schutzschild für die Zukunft der KI
Die Regulierung durch den AI Act ist nicht nur eine Antwort auf die Risiken von KI, sondern auch eine strategische Entscheidung. Europa will nicht nur verhindern, dass KI Schaden anrichtet, sondern auch eine Vorreiterrollen in der Entwicklung verantwortungsvoller KI-Technologien übernehmen. Während Unternehmen weltweit mit immer leistungsfähigeren KI-Systemen experimentieren, setzt die EU auf Sicherheit, Ethik und Transparenz, ein Modell, das in Zukunft möglicherweise auch für andere Regionen zum Standard werden könnte.
Die Kernpunkte des AI Acts
Der AI Act verfolgt einen risikobasierten Ansatz, um Künstliche Intelligenz gezielt zu regulieren, ohne Innovationen unnötig zu bremsen. Das bedeutet: Je höher das Risiko eines KI-Systems für die Gesellschaft oder Einzelpersonen, desto strengere Regeln gelten für dessen Entwicklung und Einsatz.
KI-Anwendungen werden dabei in vier Risikokategorien unterteilt:
Risikostufe | Beschreibung |
---|---|
Unannehmbares Risiko | Verbotene KI-Systeme, die als gefährlich oder ethisch nicht vertretbar gelten |
Hohes Risiko | Streng regulierte KI mit Auflagen für Transparenz, Nachvollziehbarkeit und menschliche Kontrolle |
Begrenztes Risiko | KI-Systeme mit milden Transparenzpflichten, z. B. Chatbots oder Deepfakes |
Minimales Risiko | KI-Anwendungen ohne besondere Regulierung, z. B. automatisierte Rechtschreibprüfung oder Spam-Filter |
Durch diesen gestaffelten Ansatz sollen Hochrisiko-KI-Systeme sicherer gemacht werden, während gleichzeitig ungefährliche Anwendungen ohne übermäßige Einschränkungen weiterentwickelt werden können.
Verbotene KI-Systeme: Wenn künstliche Intelligenz zu gefährlich wird
Bestimmte KI-Anwendungen sind laut AI Act zu riskant für Gesellschaft und Demokratie und werden daher komplett verboten. Dazu gehören unter anderem:
- Social Scoring-Systeme (ähnlich dem chinesischen Sozialkredit-System), die das Verhalten von Bürgern bewerten und Sanktionen verhängen könnten
- Manipulative KI, die bewusst Emotionen ausnutzt oder Menschen unbewusst zu bestimmten Entscheidungen drängt
- KI-gestützte biometrische Identifikation im öffentlichen Raum, sofern sie nicht ausdrücklich für spezifische Strafverfolgungszwecke zugelassen ist
- Predictive Policing, also KI-Systeme, die vorhersagen, ob eine Person wahrscheinlich eine Straftat begehen wird
Diese Verbote sollen sicherstellen, dass KI nicht zur Massenüberwachung oder gesellschaftlichen Kontrolle missbraucht wird.
Hochrisiko-KI: Strenge Regeln für kritische Anwendungen
KI-Systeme, die direkten Einfluss auf das Leben oder die Grundrechte von Menschen haben, gelten als hochriskant. Sie dürfen nur unter strengen Auflagen eingesetzt werden.
- KI in der Medizin – Diagnosesysteme oder Robotik in der Chirurgie müssen höchste Sicherheitsstandards erfüllen
- KI in der Strafverfolgung – Automatisierte Erkennung von Verdächtigen oder Analyse von Kriminalitätsmustern darf nur unter Einhaltung strenger Regeln erfolgen
- KI im Arbeitsmarkt – Bewerbungsfilter oder KI-gestützte Leistungskontrollen müssen transparent sein und dürfen keine unfaire Diskriminierung erzeugen
- KI im Finanzsektor – Bonitätsprüfungen oder Kreditentscheidungen dürfen nicht durch intransparente Algorithmen getroffen werden
Unternehmen, die solche Hochrisiko-KI einsetzen, müssen regelmäßige Prüfungen durchführen, menschliche Kontrolle sicherstellen und Nachweise über die Fairness ihrer KI liefern.
KI mit begrenztem Risiko: Transparenz als Schlüssel
Viele alltägliche KI-Anwendungen fallen in die Kategorie “begrenztes Risiko”. Hier geht es weniger um strikte Regulierung als vielmehr um klare Transparenzpflichten.
- Chatbots und virtuelle Assistenten – Nutzer müssen wissen, wenn sie mit einer KI und nicht mit einem Menschen sprechen
- Deepfake Technologien – KI-generierte Bilder oder Videos müssen als solche gekennzeichnet sein
- Empfehlungsalgorithmen (z.B. in sozialen Netzwerken oder Onlineshops) – Plattformen müssen erklären, nach welchen Kriterien Inhalte oder Produkte vorgeschlagen werden
Diese Maßnahmen sollen sicherstellen, dass Menschen bewusst entscheiden können, ob und wie sie mit KI interagieren.
Welche Verpflichtungen haben Entwickler und Bereitsteller?
Der AI Act unterscheidet klar zwischen KI-Entwicklern (Developer) und KI-Bereitstellern (Deployer), da beide unterschiedliche Aufgaben und Verantwortlichkeiten im Lebenszyklus eines KI-Systems haben.
Entwickler sind diejenigen, die ein KI-Modell konzipieren, trainieren und technisch bereitstellen. Sie tragen die Verantwortung dafür, dass ihre Systeme fair, sicher und nachvollziehbar arbeiten. Dazu gehört, dass sie bereits während der Entwicklung Mechanismen zur Vermeidung von Verzerrungen oder Diskriminierung integrieren und regelmäßig Tests durchführen, um mögliche Fehlfunktionen frühzeitig zu erkennen. Zudem sind sie verpflichtet, eine umfassende technische Dokumentation zu führen, die nachweist, dass ihr System den gesetzlichen Anforderungen entspricht und im Falle von Problemen eine genaue Nachvollziehbarkeit der Prozesse ermöglicht.
Bereitsteller hingegen sind Akteure, die KI-Systeme in der Praxis einsetzen, beispielsweise in Unternehmen, Behörden oder Organisationen. Sie sind dafür verantwortlich, dass die KI korrekt verwendet wird und nicht gegen gesetzliche Vorgaben verstößt. Besonders in sensiblen Bereichen, etwa in der Medizin, im Finanzwesen oder in der Strafverfolgung, müssen sie sicherstellen, dass menschliche Kontrollmechanismen bestehen und dass Betroffene über die Nutzung der KI aufgeklärt werden. Transparenz ist hierbei ein zentraler Aspekt: Nutzer haben das Recht zu wissen, dass sie mit einer KI interagieren und welche Entscheidungen von Algorithmen beeinflusst werden.
Diese klare Rollenverteilung sorgt dafür, dass Unternehmen sich nicht aus der Verantwortung ziehen können, wenn KI-Systeme fehlerhafte oder unfaire Entscheidungen treffen. Während Entwickler für die technische Sicherheit der KI sorgen müssen, liegt es in der Verantwortung der Bereitsteller, diese Technologie verantwortungsvoll und im Einklang mit den gesetzlichen Vorgaben einzusetzen. Dieses Zusammenspiel aus technischer Kontrolle und praktischer Regulierung soll dazu beitragen, dass Künstliche Intelligenz in Europa sowohl innovativ als auch sicher bleibt.
Strafen & Durchsetzung: Was passiert bei Nichteinhaltung
Verstoß | Mögliche Strafe | Beispiele für Verstöße | Ziel der Sanktionen |
---|---|---|---|
Einsatz verbotener KI-Systeme | Bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes | Nutzung von Social Scoring-Systemen, manipulativen KI-Anwendungen oder unerlaubter biometrischer Überwachung | Sicherstellen, dass besonders gefährliche oder ethisch fragwürdige KI-Systeme nicht in der EU verwendet werden |
Verstöße gegen Transparenz- oder Sicherheitsauflagen | Bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes | Fehlen klarer Kennzeichnungen bei Deepfake-Technologien, nicht nachvollziehbare KI-Entscheidungen oder unzureichende Sicherheitsmaßnahmen bei Hochrisiko-KI | Transparenz und Sicherheit gewährleisten, sodass KI-Nutzer nachvollziehen können, wie Algorithmen arbeiten |
Fehlende Dokumentation oder unzureichende Tests von Hochrisiko-KI | Bis zu 7,5 Millionen Euro oder 1,5 % des weltweiten Jahresumsatzes | Unzureichende technische Dokumentation, nicht nachgewiesene Fairness eines KI-Systems oder fehlende Risikobewertung | Unternehmen dazu verpflichten, KI-Modelle sorgfältig zu testen und ihre Auswirkungen regelmäßig zu überprüfen |
Diese hohen Geldstrafen machen deutlich, dass die EU den verantwortungsvollen Einsatz von Künstlicher Intelligenz mit Nachdruck durchsetzen will. Die Regulierung voll verhindern, dass KI-Systeme in sensiblen Bereichen ohne ausreichende Kontrolle eingesetzt werden.
Die Durchsetzung des AI Acts wird von den nationalen Behörden der EU-Mitgliedsstaaten übernommen. Sie haben die Aufgabe, regelmäßige Audits und Kontrollen durchzuführen, um sicherzustellen, das Unternehmen die gesetzlichen Anforderungen erfüllen. Ähnlich wie bei der Datenschutz-Grundverordnung (DSGVO) könnte es in Zukunft spezialisierte Aufsichtsbehörden geben, die sich ausschließlich mit der Überprüfung von KI-Systemen befassen.
Die Sanktionen sollen nicht nur als Abschreckung dienen, sondern auch Unternehmen dazu anregen, frühzeitig in sichere und transparente KI-Technologien zu investieren. Indem Verstöße konsequent geahndet werden, dass Europa eine führende Rolle in der Entwicklung verantwortungsvoller KI einnimmt.
Auswirkung auf Unternehmen und Entwickler?
Der AI Act verpflichtet Unternehmen, ihre KI-Systeme nachvollziehbar, sicher und fair zu gestalten. Besonders Hochrisiko-KI unterliegt strengen Vorschriften, darunter Dokumentationspflichten, regelmäßige Sicherheitsprüfungen und Transparenzmaßnahmen für Nutzer. Unternehmen sollten daher frühzeitig ihre bestehenden KI-Systeme überprüfen: Welche Modelle fallen unter die Regulierung? Erfüllen sie bereits die neuen Anforderungen? Eine frühzeitige Anpassung minimiert spätere Risiken und Strafen.
Anpassung bestehender KI-Systeme
Viele Unternehmen müssen ihre KI-Systeme überarbeiten, um mehr Transparenz und Kontrolle zu gewährleisten. Besonders Black-Box-Modelle, deren Entscheidungsfindung nicht nachvollziehbar ist, werden zum Problem. Systeme müssen erklärbare Algorithmen, menschliche Kontrollmechanismen und klare Nachvollziehbarkeit bieten. Dies betrifft insbesondere KI-Anwendungen in sensiblen Bereichen wie Kreditvergabe, Bewerbungsprozessen oder medizinischen Diagnosen, wo Entscheidungen erhebliche Folgen haben.
Welche Unternehmen sind besonders betroffen?
Vor allem Unternehmen in regulierten Branchen müssen sich auf umfassende Anpassungen einstellen. Diese Branchen müssen ihre Systeme frühzeitig anpassen, um die neuen Anforderungen zu erfüllen und Haftungsrisiken zu vermeiden.
- Banken & Finanzsektor – Kredit-Scoring und KI-gestützte Behandlungen unterliegen und überprüfbar sein.
- Gesundheitswesen – Medizinische Diagnosesysteme und KI-gestützte Behandlungen unterliegen strengen Prüfungen
- Öffentliche Verwaltung – Behörden dürfen KI nicht intransparent oder diskriminierend einsetzen.
- Personalwesen – KI-gestützte Bewerbungsprozesse müssen Fairness sicherstellen und dürfen keine systematische Benachteiligung verursachen.
Chancen für europäische KI-Entwicklung
Trotz strengerer Vorgaben bietet der AI Act auch Wettbewerbsvorteile. Kunden und Investoren setzten zunehmend auf vertrauenswürdige, transparente KI. Unternehmen, die frühzeitig faire und ethische KI entwickeln, könnten sich als Marktführer positionieren.
Gleichzeitig könnte Europa mit dem AI Act eine globale Vorreiterrolle für ethische KI-Standards übernehmen, ähnlich wie mit der DSGVO im Datenschutz. Unternehmen, die sich an die neuen Standards halten, könnten langfristig sogar von der Regulierung profitieren, indem sie ihre KI-Lösungen als sicher und regelkonform vermarkten.
Herausforderungen und Kritik am AI Act
Der AI Act setzt weltweit Maßstäbe für die Regulierung von Künstlicher Intelligenz, doch nicht alle Experten sind überzeugt, dass er das richtige Gleichgewicht zwischen Sicherheit und Innovation findet. Kritiker werfen der EU vor, die Regeln seien entweder zu streng oder nicht weitreichend genug. Während Unternehmen in regulierten Branchen strenge Dokumentationspflichten und hohe Strafen für Verstöße befürchten, kritisieren Bürgerrechtsorganisationen, dass einige potenziell gefährliche KI-Anwendungen weiterhin erlaubt bleiben. Besonders im Bereich der biometrischen Überwachung und Gesichtserkennung gibt es Forderungen nach strengeren Einschränkungen oder vollständigen Verboten, da solche Technologien tief in die Privatsphäre eingreifen können.
Schafft der AI Act Bürokratie oder Innovation?
Die Regulierung soll sicherstellen, dass KI-Technologien fair, sicher und nachvollziehbar sind – doch bringt sie auch einen erheblichen bürokratischen Aufwand mit sich. Unternehmen müssen neue Compliance-Strukturen aufbauen, Risikobewertungen durchführen und detaillierte Berichte über ihre KI-Systeme erstellen. Gerade für kleinere Firmen oder Start-ups könnte dies zu einer finanziellen und administrativen Belastung werden, die Innovation eher behindert als fördert.
Befürworter argumentieren jedoch, dass der AI Act langfristig Vertrauen in europäische KI schafft, was wiederum Innovation begünstigt. Klare gesetzliche Vorgaben könnten Unternehmen helfen, Risiken besser einzuschätzen und Investoren sowie Kunden mehr Sicherheit bieten. Ähnlich wie bei der DSGVO könnte der AI Act europäische Unternehmen dazu zwingen, hochwertigere, ethisch verantwortungsvolle KI-Systeme zu entwickeln, die weltweit als Standard gelten könnten.
Kritik aus der Industrie: Hemmt der AI Act europäische KI-Entwicklung?
Ein zentrales Argument der Kritiker aus der Wirtschaft ist, dass der AI Act europäische Unternehmen im globalen Wettbewerb benachteiligen könnte. Während Firmen in den USA und China ihre KI-Technologien oft ohne strenge regulatorische Hürden entwickeln und testen können, müssen europäische Unternehmen umfassende Prüfprozesse durchlaufen, bevor sie neue KI-Produkte auf den Markt bringen dürfen. Dies könnte dazu führen, dass KI-Start-ups in Europa langsamer wachsen oder sogar in andere Regionen abwandern, um dort unter weniger restriktiven Bedingungen zu arbeiten.
Gleichzeitig sehen einige Experten die Regulierung als Chance für nachhaltige und ethische KI-Innovation. Unternehmen, die sich an hohe Standards halten, könnten langfristig von einer höheren Akzeptanz und Marktfähigkeit ihrer KI-Produkte profitieren. Der Erfolg der DSGVO zeigt, dass strenge Regulierung nicht zwangsläufig wirtschaftliche Nachteile bringt, sondern auch dazu beitragen kann, neue globale Standards zu setzen.
Wie wirkt sich der AI Act auf internationale Unternehmen aus?
Internationale Unternehmen, die KI-Produkte in der EU anbieten, müssen sich an die neuen Vorschriften halten – auch wenn sie außerhalb Europas entwickelt wurden. Das bedeutet, dass große Tech-Konzerne wie Google, Microsoft oder OpenAI ihre KI-Dienste möglicherweise anpassen müssen, um den EU-Standards zu entsprechen.
Für einige Unternehmen könnte dies zu höheren Kosten und zusätzlichem Aufwand führen. Gleichzeitig schafft der AI Act klare Spielregeln für alle Marktteilnehmer, sodass europäische Unternehmen nicht gegenüber außereuropäischen Anbietern benachteiligt werden. Langfristig könnte dies sogar dazu führen, dass globale Unternehmen ihre KI-Modelle nach europäischen Standards ausrichten, wenn sie den europäischen Markt nicht verlieren wollen.
Der AI Act steht damit nicht nur für eine europäische KI-Regulierung, sondern hat das Potenzial, auch die internationale KI-Landschaft zu beeinflussen.
Was bedeutet der AI Act für Europa?
Der AI Act ist ein bahnbrechendes Gesetz, das Europa zum globalen Vorreiter für eine verantwortungsvolle Regulierung von Künstlicher Intelligenz macht. Er verfolgt einen risikobasierten Ansatz, bei dem besonders gefährliche KI-Systeme verboten oder streng reguliert werden, während innovative und sichere Anwendungen weiterhin gefördert werden. Unternehmen müssen sich auf neue Transparenz- und Dokumentationspflichten einstellen, insbesondere wenn sie Hochrisiko-KI in Bereichen wie Finanzwesen, Gesundheitswesen oder Personalmanagement einsetzen. Verstöße gegen die Vorgaben können empfindliche Strafen nach sich ziehen, ähnlich wie bei der DSGVO.
Während Kritiker befürchten, dass die Regulierung europäische Unternehmen im globalen Wettbewerb behindern könnte, bietet der AI Act auch Chancen für eine vertrauenswürdige und nachhaltige KI-Entwicklung. Klare gesetzliche Rahmenbedingungen schaffen mehr Sicherheit für Unternehmen und Verbraucher, indem sie Diskriminierung, Manipulation und intransparente KI-Entscheidungen verhindern.
Warum der AI Act ein wichtiger Schritt für vertrauenswürdige KI ist
Die zunehmende Integration von KI in Wirtschaft und Gesellschaft macht es unerlässlich, klare Regeln für ihre Nutzung aufzustellen. Ohne eine Regulierung könnten fehlerhafte oder unethische KI-Systeme unkontrolliert eingesetzt werden, mit potenziell gravierenden Folgen für Grundrechte, Datenschutz und Fairness.
Mit dem AI Act setzt Europa bewusst auf ein Gleichgewicht zwischen Innovation und Sicherheit. Er soll verhindern, dass KI-Technologie blind entwickelt und eingesetzt wird, ohne die Auswirkungen auf Menschen zu berücksichtigen. Stattdessen fördert er eine KI, die fair, erklärbar und vertrauenswürdig ist. Unternehmen, die sich frühzeitig auf diese Standards einstellen, können sich langfristig als führende Anbieter für ethische KI-Lösungen etablieren.