Den EU AI Act verstehen "für Dummys" (Teil 1)

Zur Event Anmeldung
Du möchtest am Event teilnehmen?
Vielen Dank für deine Anmeldung, wir senden dir eine Email!
Upps etwas ist schief gelaufen. Versuche es erneut

Warum du diesen Artikel lesen solltest

Der EU AI Act ist das weltweit erste umfassende KI-Gesetz und betrifft jedes Unternehmen, das KI nutzt - von der einfachen ChatGPT-Nutzung bis hin zu komplexen KI-Systemen. Während viele Artikel den AI Act als komplexes Regelwerk darstellen, konzentriert sich dieser Text auf die wirklich relevanten Kernpunkte, die du als Praktiker verstehen musst. Du erfährst, welche KI-Anwendungen wie reguliert werden, wann welche Pflichten greifen und was das konkret für dein Unternehmen bedeutet.

Das Grundprinzip: Risiko bestimmt Regulierung

Der EU AI Act folgt einem eleganten Grundprinzip: Je höher das Risiko einer KI-Anwendung, desto strenger die Regulierung. Diese risikobasierte Herangehensweise macht das Gesetz praktikabel und verhindert, dass harmlose KI-Anwendungen übermäßig belastet werden. Das Gesetz ist seit August 2024 in Kraft, wird aber schrittweise umgesetzt, um Unternehmen ausreichend Zeit zur Anpassung zu geben.

Die vier Risikokategorien im Detail

Die vier Risikokategorien bilden das Herzstück des AI Act.

KI-Systeme mit inakzeptablem Risiko sind komplett verboten - dazu gehören Social Scoring-Systeme wie in China, manipulative KI-Techniken und die meisten Formen der Gesichtserkennung im öffentlichen Raum. Diese Verbote gelten bereits seit Februar 2025 und sind nicht verhandelbar.

Hochrisiko-KI-Systeme unterliegen den strengsten Anforderungen. Hierzu zählen KI-Anwendungen in kritischen Bereichen wie Gesundheitswesen, Bildung, Strafverfolgung oder kritischer Infrastruktur. Schätzungsweise fallen nur etwa 20 Prozent aller KI-Anwendungen in diese Kategorie, aber für diese gelten umfassende Dokumentations-, Test- und Überwachungspflichten. Anbieter solcher Systeme müssen Risikomanagement-Systeme etablieren, die Datenqualität sicherstellen und kontinuierliche Überwachung gewährleisten.

KI-Systeme mit begrenztem Risiko - wie Chatbots oder Deepfake-Generatoren - müssen hauptsächlich Transparenzpflichten erfüllen. Nutzer müssen klar erkennen können, dass sie mit KI interagieren oder KI-generierte Inhalte konsumieren. Diese Kategorie ist besonders relevant für Unternehmen, die generative KI wie ChatGPT oder ähnliche Tools nutzen.

Die vierte Kategorie umfasst KI mit minimalem Risiko, wie Videospiele oder Spam-Filter. Für diese gelten keine besonderen Auflagen, sie müssen lediglich die allgemeinen Rechtsprinzipien beachten.

undefined

General Purpose AI: Die ChatGPT-Regeln

Eine Besonderheit stellen General Purpose AI-Modelle dar - die großen Sprachmodelle wie GPT, Claude oder Gemini. Für deren Anbieter gelten spezielle Regeln, unabhängig davon, wie die Modelle später eingesetzt werden. Sie müssen technische Dokumentation bereitstellen, Urheberrechte beachten und Zusammenfassungen ihrer Trainingsdaten veröffentlichen. Bei besonders leistungsstarken Modellen mit systemischem Risiko kommen zusätzliche Sicherheitstests und Meldepflichten hinzu.

Der Zeitplan: Wann was gilt

Der zeitliche Rahmen der Umsetzung ist gestaffelt und gibt Unternehmen Planungssicherheit. Seit Februar 2025 sind die Verbote in Kraft und Unternehmen müssen ihre Mitarbeiter in KI-Kompetenz schulen. Ab August 2025 greifen die Regeln für General Purpose AI vollständig. Die umfassenden Anforderungen für Hochrisiko-Systeme werden erst ab August 2026 vollständig durchgesetzt, mit finalen Übergangsfristen bis August 2027.

Durchsetzung und Strafen

Die Durchsetzung erfolgt durch nationale Aufsichtsbehörden, die bis August 2025 benannt werden sollten (was nicht überall klappen wird…). In Deutschland wird voraussichtlich die Bundesnetzagentur diese Rolle übernehmen. Die Bußgelder sind erheblich und können bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes betragen - je nachdem, was höher ist.

Chance statt Bürde

Unser Fazit: Entscheidend ist zu verstehen, dass der AI Act nicht nur Pflichten auferlegt, sondern auch Chancen schafft. Unternehmen, die frühzeitig compliant werden, können dies als Wettbewerbsvorteil nutzen und Vertrauen bei Kunden und Partnern aufbauen. Der Act schafft einen einheitlichen europäischen Rahmen, der Rechtssicherheit bietet und Innovation in verantwortungsvolle Bahnen lenkt.

Bei diesem Artikel hatte ich digitale Unterstützung: KI hat beim Research und beim Formulieren geholfen, die Endredaktion und inhaltliche Verantwortung liegen bei mir als Autor.

Download PDF
Melde dich an um diese Masterclass zu schauen

Login or Register to Join the Conversation

Create an AccountLog in
Be the first to leave a comment.
Someone is typing...
No Name
Set
Moderator
4 years ago
Your comment will appear once approved by a moderator.
This is the actual comment. It's can be long or short. And must contain only text information.
(Edited)
No Name
Set
Moderator
2 years ago
Your comment will appear once approved by a moderator.
This is the actual comment. It's can be long or short. And must contain only text information.
(Edited)
Load More Replies

New Reply

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Load More Comments
Loading
Kai Hermsen
Digital Governance Experte

Kai, Digital Governance Experte & Co-Founder von DECAID.secure, revolutioniert die sichere KI-Implementierung für Unternehmen. Sein Weg führte von Führungspositionen im Konzern bis zum erfolgreichen Unternehmertum, darunter die Leitung der Charter of Trust bei Siemens und die Förderung digitaler Transformation bei Identity Valley. Als einer der führenden Köpfe im Bereich Digital Trust entwickelt er mit der twinds foundation zukunftsweisende Vertrauenslösungen. Seine Expertise bringt er aktiv im World Economic Forum und Munich Security Network ein.

Mehr von diesem Autor:
Human-in-the-Loop: Warum menschliche Kontrolle in der KI unverzichtbar ist
Wenn Regeln das Spiel lähmen (2/3 der Serie “Reflektionen zu Regeln”)
Keine Freiheit ohne Regeln (1/3 der Serie “Reflektionen zu Regeln)
Case Study: Der ORF Approach zu KI Governance