EU AI Guidelines unter Beschuss: Warum 45+ Top-Manager eine 2-Jahres-Verschiebung fordern

Zur Event Anmeldung
Download PDF

Massive Kritik am Code of Practice zwei Wochen vor Enforcement-Deadline – Siemens CEO nennt AI Act "toxic für digitale Geschäftsmodelle"

Executive Summary

Nur zwei Wochen vor der Enforcement-Deadline am 2. August 2025 steht der EU AI Act unter massivem Beschuss. Der am 16. Juli veröffentlichte General Purpose AI Code of Practice löste eine Welle der Kritik aus, die von Bitkom über 45+ Top-Manager europäischer Konzerne bis hin zu NGOs reicht. Siemens CEO Roland Busch und SAP CEO Christian Klein gehen so weit, eine fundamentale Revision des gesamten AI Acts zu fordern.

Die Kritik konzentriert sich auf vier Kernprobleme: überstürzte Timelines, unklare Definitionen, bürokratische Überlastung und die Gefährdung der europäischen Wettbewerbsfähigkeit. Während die EU mit dem weltweit ersten KI-Gesetz Maßstäbe setzen wollte, droht das Vorhaben zum Bumerang für die europäische Innovation zu werden.

Für DACH-Unternehmen bedeutet dies: Compliance-Strategien müssen trotz der Unsicherheiten entwickelt werden, während gleichzeitig politischer Druck für Nachbesserungen aufgebaut wird. Die nächsten Wochen werden entscheidend für die Zukunft der KI-Regulierung in Europa.

Der Code of Practice: Ambitioniert, aber problematisch

Struktur und Inhalte

Der General Purpose AI Code of Practice gliedert sich in drei Hauptkapitel, die jeweils spezifische Compliance-Anforderungen definieren:

Transparency-Kapitel:Bietet eine benutzerfreundliche Vorlage für die Dokumentation, um Anbietern die Erfüllung der Transparenzpflichten nach Artikel 53 des AI Acts zu erleichtern. Unternehmen müssen detaillierte Informationen über ihre KI-Modelle, Trainingsdaten und Entscheidungsprozesse offenlegen.

Copyright-Kapitel:Definiert praktische Lösungen für die Compliance mit EU-Urheberrechtsgesetzen. Besonders kontrovers ist die Anforderung, detaillierte Informationen über Trainingsdaten bereitzustellen, einschließlich des Nachweises ihrer rechtmäßigen Beschaffung.

Safety and Security-Kapitel:Beschreibt konkrete, state-of-the-art Praktiken für den Umgang mit systemischen Risiken fortgeschrittener KI-Modelle. Diese Bestimmungen gelten nur für Anbieter von General-Purpose AI (GPAI) Modellen mit systemischen Risiken.

Timeline-Problematik

Die Entwicklung des Code of Practice erfolgte unter extremem Zeitdruck. Die EU AI Office konsultierte etwa 1.000 Stakeholder, gab aber nur 10 Tage für Feedback zum ersten Entwurf im November 2024. Der zweite Entwurf wurde am 19. Dezember veröffentlicht – mitten in der Weihnachtszeit – was Stakeholder zwang, über die Feiertage zu arbeiten.

Boniface de Champris von der Computer and Communications Industry Association (CCIA) kritisiert: "Die Mängel des AI Acts, insbesondere der übermäßig enge Zeitrahmen für die Anwendung seiner Regeln, werden bereits deutlich."

Massive Unternehmenskritik: Von Bitkom bis zu den CEOs

Bitkom: Diplomatische Kritik mit klaren Forderungen

Der deutsche Digitalverband Bitkom äußert sich noch relativ diplomatisch, sieht aber kritische Punkte. Susanne Dehmel, Mitglied des Bitkom-Vorstands, warnt: "Der Code of Practice darf nicht zur Bremse für Europas KI-Position werden."

Bitkom kritisiert insbesondere:

  • Verschärfte Anforderungen für die offene Risikoidentifikation bei sehr leistungsstarken KI-Modellen
  • Umfassende, aber vage formulierte Audit-Anforderungen
  • Erhebliche bürokratische Belastung
  • Unklare Definitionen, die zu Rechtsunsicherheit führen

45+ Top-Manager fordern Verschiebung

In einem offenen Brief an die EU fordern mehr als 45 Spitzenmanager eine zweijährige Verschiebung der AI Act-Implementierung. Die Initiative der EU AI Champions Initiative, die rund 110 EU-Unternehmen vertritt, wird von Führungskräften von Mercedes-Benz, Lufthansa, Philips, Celonis, Airbus, AXA und BNP Paribas unterstützt.

Die Manager warnen, dass sich die EU in der Komplexität der KI-Regulierung verliert und damit ihre eigene Wettbewerbsfähigkeit gefährdet. Die Vorschriften seien in einigen Bereichen unklar und in anderen widersprüchlich.

Siemens und SAP: Fundamentale Revision gefordert

Siemens CEO Roland Busch und SAP CEO Christian Klein gehen noch weiter. In einem Interview mit der Frankfurter Allgemeinen Zeitung fordern sie eine fundamentale Revision des EU AI Acts. Busch bezeichnet den AI Act in seiner aktuellen Form als "toxic für die Entwicklung digitaler Geschäftsmodelle".

Die beiden CEOs fordern ein neues Framework, das Innovation fördert statt sie zu behindern. Ihre Kritik konzentriert sich auf:

  • Übermäßige Bürokratie, die Innovationszyklen verlangsamt
  • Unklare Definitionen, die zu Rechtsunsicherheit führen
  • Wettbewerbsnachteile gegenüber US- und asiatischen Konkurrenten
  • Fehlende Berücksichtigung der Realitäten der KI-Entwicklung

NGO-Perspektive: Verwässerung durch Big Tech

The Future Society: Kritik an US-Einfluss

The Future Society, eine NGO, die sich als Vertreterin der Zivilgesellschaft sieht, kritisiert, dass US-Tech-Anbieter in geschlossenen Sitzungen wichtige Punkte abschwächen und verwässern konnten.

Nick Moës, Executive Director von The Future Society, erklärt: "Dieser geschwächte Code benachteiligt europäische Bürger und Unternehmen und verpasst Chancen, Sicherheit und Rechenschaftspflicht weltweit zu stärken. Er untergräbt auch alle anderen Stakeholder, deren Engagement und Bemühungen für das Gemeinwohl vom Einfluss der US-Big-Tech überschattet blieben."

Vier Hauptkritikpunkte der NGOs

1. Verspätete Informationsübermittlung:Das AI Office erhält wichtige Informationen erst nach der Markteinführung der Produkte. Anbieter teilen den Modellbericht mit Risikobewertung erst nach dem Deployment – nach dem "Publish first, then question"-Ansatz.

2. Unzureichender Whistleblower-Schutz:Interne Informationen sind in kapital- und marktgetriebenen Branchen entscheidend. Das AI Office muss ein sicherer Hafen sein und die gleichen Schutzstandards bieten wie die EU-Whistleblower-Richtlinie.

3. Fehlende Notfallpläne:Solche Protokolle sind in anderen Hochrisikobereichen Standard. Da sich Schäden bei GPAI extrem schnell ausbreiten können, müssen Anbieter verpflichtet werden, Notfallreaktions- und Schadensbegrenzungsstrategien im Voraus zu planen.

4. Extensive Entscheidungsmacht der Anbieter:Durch Lobbying wurden ergebnisbasierte Regeln eingeführt. Anbieter dürfen nun selbst Risiken identifizieren, Schwellenwerte definieren und kontinuierliche Bewertungen durchführen.

Strukturelle Probleme: Personalmangel und Zeitdruck

AI Office: Massiv unterbesetzt

Das AI Office ist laut MEP Axel Voss, Shadow Rapporteur für den AI Act, "massiv unterbesetzt". Von 85 Mitarbeitern arbeiten nur 30 an der Implementierung des AI Acts. Zum Vergleich: Das neu gegründete UK AI Safety Institute beschäftigt über 150 Mitarbeiter.

Diese Personalknappheit erklärt teilweise die hastigen Timelines und die unzureichende Stakeholder-Konsultation. Wenn der Code nicht bis August finalisiert wird, muss das AI Office die Regeln selbst festlegen – ein Schritt, der die Legitimität des AI Acts erheblich beschädigen würde.

Rechtsunsicherheit bei Verboten

Ein Verbot von KI-Praktiken mit "unannehmbaren Risiken" gilt seit dem 2. Februar 2025. Dazu gehören KI für Social Scoring, emotionale Erkennung am Arbeitsplatz und in Bildungseinrichtungen sowie Verhaltensmanipulation. Bei Nichteinhaltung drohen Geldstrafen von bis zu 7% des Jahresumsatzes.

Entscheidende Details darüber, welche Systeme unter diese verbotene Kategorie fallen, bleiben jedoch unspezifiziert. Das AI Office wollte Richtlinien zu Verboten "rechtzeitig zum Inkrafttreten dieser Bestimmungen am 2. Februar" veröffentlichen. Nur wenige Tage vor der Deadline wurden jedoch keine Details veröffentlicht.

Internationale Perspektive: Trump-Effekt und US-Widerstand

Verstärkter US-Widerstand

Donald Trumps Rückkehr ins Weiße Haus hat US-Tech-Unternehmen ermutigt, eine trotzige Haltung gegenüber EU-Gesetzgebung einzunehmen. Bereits im Herbst weigerten sich Anthropic, Apple und Meta, den freiwilligen AI Pact der EU zu unterzeichnen, der die frühzeitige Compliance mit dem AI Act fördern sollte.

Google und Meta-Führungskräfte kritisierten die Entwurfsregeln als "Schritt in die falsche Richtung" und brachten den EU-Plan zur Regulierung fortgeschrittener KI-Modelle in Gefahr.

Globale Regulierungslandschaft

Während die EU mit dem AI Act voranprescht, entwickeln sich unterschiedliche Ansätze:

USA: Fokus auf Innovation und Marktmechanismen, minimale RegulierungChina: Staatliche Kontrolle und strategische KI-EntwicklungUK: Pragmatischer Ansatz mit dem AI Safety InstituteSingapur: Sandbox-Modell für KI-Innovation

Diese Divergenz könnte zu einem regulatorischen Flickenteppich führen, der globale KI-Entwicklung erschwert.

Compliance-Strategien für DACH-Unternehmen

Sofortmaßnahmen trotz Unsicherheit

Trotz der Kritik und Unsicherheiten müssen DACH-Unternehmen Compliance-Strategien entwickeln:

Kurzfristig (bis August 2025):

  • Inventarisierung aller KI-Systeme im Unternehmen
  • Risikobewertung nach AI Act-Kategorien
  • Dokumentation von Trainingsdaten und -prozessen
  • Implementierung von Transparenz-Mechanismen

Mittelfristig (bis 2026):

  • Aufbau von KI-Governance-Strukturen
  • Schulung von Compliance-Teams
  • Integration in bestehende Risikomanagement-Systeme
  • Vorbereitung auf Audit-Anforderungen

Langfristig (ab 2026):

  • Kontinuierliche Compliance-Überwachung
  • Anpassung an regulatorische Updates
  • Internationale Harmonisierung
  • Wettbewerbsvorteile durch Compliance-Excellence

Branchenspezifische Herausforderungen

Finanzdienstleistungen:Zusätzliche Anforderungen durch BaFin und EBA-Guidelines. Besondere Aufmerksamkeit für algorithmische Entscheidungsfindung bei Krediten und Versicherungen.

Gesundheitswesen:Medizinprodukte-Verordnung (MDR) und AI Act-Compliance müssen koordiniert werden. Besondere Sorgfalt bei KI-gestützter Diagnostik und Therapieempfehlungen.

Automobilindustrie:Autonomous Driving-Systeme fallen unter Hochrisiko-Kategorien. Enge Abstimmung mit Typgenehmigungsverfahren erforderlich.

Fertigung:Predictive Maintenance und Quality Control-Systeme müssen dokumentiert und validiert werden. Integration in bestehende Qualitätsmanagementsysteme.

Politische Dynamik und Reformchancen

Wachsender politischer Druck

Die massive Kritik aus der Wirtschaft zeigt Wirkung. Mehrere EU-Parlamentarier haben bereits Nachbesserungen gefordert. Die Europäische Kommission steht unter Druck, einen Mittelweg zwischen Innovation und Regulierung zu finden.

Mögliche Reformansätze:

  • Verlängerung der Implementierungsfristen
  • Vereinfachung der Compliance-Anforderungen
  • Klarstellung unklarer Definitionen
  • Stärkung der Sandbox-Mechanismen

Rolle der deutschen Regierung

Deutschland als größte EU-Volkswirtschaft hat erheblichen Einfluss auf die weitere Entwicklung. Die Bundesregierung steht vor dem Dilemma, deutsche Unternehmen zu schützen und gleichzeitig die EU-Einheit zu wahren.

Erwartete Initiativen:

  • Bilaterale Gespräche mit der Europäischen Kommission
  • Koordination mit anderen Mitgliedstaaten
  • Unterstützung für Sandbox-Programme
  • Förderung von KI-Innovation trotz Regulierung

Zukunftsszenarien und strategische Empfehlungen

Drei mögliche Szenarien

Szenario 1: Status Quo (Wahrscheinlichkeit: 40%)Der AI Act wird wie geplant implementiert, mit minimalen Anpassungen. Unternehmen müssen sich an die bestehenden Anforderungen anpassen.

Szenario 2: Moderate Reform (Wahrscheinlichkeit: 45%)Verlängerung der Fristen und Vereinfachung einiger Anforderungen nach intensiven Verhandlungen. Grundstruktur bleibt erhalten.

Szenario 3: Fundamentale Überarbeitung (Wahrscheinlichkeit: 15%)Umfassende Reform nach massivem politischen und wirtschaftlichen Druck. Neue Ansätze für KI-Regulierung.

Strategische Handlungsempfehlungen

Für Compliance-Verantwortliche:

  1. Parallel-Strategie: Compliance-Vorbereitung bei gleichzeitigem Lobbying für Reformen
  2. Branchenkooperationen für gemeinsame Standards und Best Practices
  3. Kontinuierliches Monitoring der regulatorischen Entwicklungen
  4. Aufbau flexibler Compliance-Systeme, die sich an Änderungen anpassen können

Für Geschäftsführer:

  1. Aktive Teilnahme an politischen Diskussionen über Branchenverbände
  2. Investment in KI-Governance als Wettbewerbsvorteil
  3. Internationale Diversifikation der KI-Entwicklung
  4. Aufbau von Regulatory Affairs-Kapazitäten

Für Innovationsmanager:

  1. Sandbox-Programme nutzen für experimentelle KI-Entwicklung
  2. Compliance-by-Design in KI-Entwicklungsprozesse integrieren
  3. Internationale Kooperationen für regulatorische Arbitrage
  4. Aufbau von Regulatory Technology (RegTech) Lösungen

Fazit: Zwischen Innovation und Regulierung

Der EU AI Act steht an einem Wendepunkt. Die massive Kritik aus Wirtschaft und Zivilgesellschaft zeigt, dass der ursprüngliche Ansatz Nachbesserungen benötigt. Gleichzeitig bleibt das Ziel, vertrauenswürdige KI zu fördern, richtig und wichtig.

Für DACH-Unternehmen bedeutet dies eine Zeit der Unsicherheit, aber auch der Chancen. Wer jetzt proaktiv handelt, kann sowohl Compliance-Risiken minimieren als auch Wettbewerbsvorteile durch überlegene KI-Governance aufbauen.

Die nächsten Monate werden entscheidend sein. Die EU muss beweisen, dass sie Innovation und Regulierung in Einklang bringen kann. Scheitert sie dabei, droht Europa im globalen KI-Wettbewerb zurückzufallen.

Die Zeit für Nachbesserungen läuft ab. Jetzt ist politisches Handeln gefragt – bevor der AI Act von der Lösung zum Problem wird.

Quellen:

  • CEPA: "Europe's AI Act Stumbles Out of the Gate" (Januar 2025)
  • CIO.com: "EU guidelines on AI use met with massive criticism" (Juli 2025)
  • Politico: "Google, EU rules for advanced AI are step in wrong direction" (Februar 2025)
  • Ogletree: "EU AI Act Update: Navigating the Future" (Juli 2025)
  • Frankfurter Allgemeine Zeitung: Interview mit Siemens und SAP CEOs
  • EU AI Champions Initiative: Offener Brief der 45+ Top-Manager

Melde dich an um diese Masterclass zu schauen

Login or Register to Join the Conversation

Create an AccountLog in
Be the first to leave a comment.
Someone is typing...
No Name
Set
Moderator
4 years ago
Your comment will appear once approved by a moderator.
This is the actual comment. It's can be long or short. And must contain only text information.
(Edited)
No Name
Set
Moderator
2 years ago
Your comment will appear once approved by a moderator.
This is the actual comment. It's can be long or short. And must contain only text information.
(Edited)
Load More Replies

New Reply

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Load More Comments
Loading
Maximilian Moehring
CEO & Founder DECAID Group

Maximilian, GenAI Business Innovator und DECAID-Founder & CEO, revolutioniert die Geschäftsmodelle der Kreativbranche im KI-Zeitalter. Mit seinem "Min-Max-Prinzip" und AI-nativen Frameworks unterstützt er Führungskräfte dabei, den kritischen Wandel vom klassischen "Zeit-für-Geld"- zum zukunftsfähigen "Ergebnis-für-Geld"-Modell zu vollziehen. Seine Masterclasses und Transformations-Workshops (NPS >85) haben bereits renommierte Kreativagenturen und Marken auf ihrem Weg zu AI-nativen Organisationen begleitet.

Mehr von diesem Autor:
DECAID AI Marketing Report 2025
Agentic vs. Traditional AI: Warum 89% der Unternehmen KI noch falsch nutzen
AWS Agentic AI: Die nächste Multi-Milliarden-Dollar-Revolution für Unternehmen
Mini-Playbook: Warum KI generische Ergebnisse liefert und wie man es ändert