Massive Kritik am Code of Practice zwei Wochen vor Enforcement-Deadline – Siemens CEO nennt AI Act "toxic für digitale Geschäftsmodelle"
Nur zwei Wochen vor der Enforcement-Deadline am 2. August 2025 steht der EU AI Act unter massivem Beschuss. Der am 16. Juli veröffentlichte General Purpose AI Code of Practice löste eine Welle der Kritik aus, die von Bitkom über 45+ Top-Manager europäischer Konzerne bis hin zu NGOs reicht. Siemens CEO Roland Busch und SAP CEO Christian Klein gehen so weit, eine fundamentale Revision des gesamten AI Acts zu fordern.
Die Kritik konzentriert sich auf vier Kernprobleme: überstürzte Timelines, unklare Definitionen, bürokratische Überlastung und die Gefährdung der europäischen Wettbewerbsfähigkeit. Während die EU mit dem weltweit ersten KI-Gesetz Maßstäbe setzen wollte, droht das Vorhaben zum Bumerang für die europäische Innovation zu werden.
Für DACH-Unternehmen bedeutet dies: Compliance-Strategien müssen trotz der Unsicherheiten entwickelt werden, während gleichzeitig politischer Druck für Nachbesserungen aufgebaut wird. Die nächsten Wochen werden entscheidend für die Zukunft der KI-Regulierung in Europa.
Der General Purpose AI Code of Practice gliedert sich in drei Hauptkapitel, die jeweils spezifische Compliance-Anforderungen definieren:
Transparency-Kapitel:Bietet eine benutzerfreundliche Vorlage für die Dokumentation, um Anbietern die Erfüllung der Transparenzpflichten nach Artikel 53 des AI Acts zu erleichtern. Unternehmen müssen detaillierte Informationen über ihre KI-Modelle, Trainingsdaten und Entscheidungsprozesse offenlegen.
Copyright-Kapitel:Definiert praktische Lösungen für die Compliance mit EU-Urheberrechtsgesetzen. Besonders kontrovers ist die Anforderung, detaillierte Informationen über Trainingsdaten bereitzustellen, einschließlich des Nachweises ihrer rechtmäßigen Beschaffung.
Safety and Security-Kapitel:Beschreibt konkrete, state-of-the-art Praktiken für den Umgang mit systemischen Risiken fortgeschrittener KI-Modelle. Diese Bestimmungen gelten nur für Anbieter von General-Purpose AI (GPAI) Modellen mit systemischen Risiken.
Die Entwicklung des Code of Practice erfolgte unter extremem Zeitdruck. Die EU AI Office konsultierte etwa 1.000 Stakeholder, gab aber nur 10 Tage für Feedback zum ersten Entwurf im November 2024. Der zweite Entwurf wurde am 19. Dezember veröffentlicht – mitten in der Weihnachtszeit – was Stakeholder zwang, über die Feiertage zu arbeiten.
Boniface de Champris von der Computer and Communications Industry Association (CCIA) kritisiert: "Die Mängel des AI Acts, insbesondere der übermäßig enge Zeitrahmen für die Anwendung seiner Regeln, werden bereits deutlich."
Der deutsche Digitalverband Bitkom äußert sich noch relativ diplomatisch, sieht aber kritische Punkte. Susanne Dehmel, Mitglied des Bitkom-Vorstands, warnt: "Der Code of Practice darf nicht zur Bremse für Europas KI-Position werden."
Bitkom kritisiert insbesondere:
In einem offenen Brief an die EU fordern mehr als 45 Spitzenmanager eine zweijährige Verschiebung der AI Act-Implementierung. Die Initiative der EU AI Champions Initiative, die rund 110 EU-Unternehmen vertritt, wird von Führungskräften von Mercedes-Benz, Lufthansa, Philips, Celonis, Airbus, AXA und BNP Paribas unterstützt.
Die Manager warnen, dass sich die EU in der Komplexität der KI-Regulierung verliert und damit ihre eigene Wettbewerbsfähigkeit gefährdet. Die Vorschriften seien in einigen Bereichen unklar und in anderen widersprüchlich.
Siemens CEO Roland Busch und SAP CEO Christian Klein gehen noch weiter. In einem Interview mit der Frankfurter Allgemeinen Zeitung fordern sie eine fundamentale Revision des EU AI Acts. Busch bezeichnet den AI Act in seiner aktuellen Form als "toxic für die Entwicklung digitaler Geschäftsmodelle".
Die beiden CEOs fordern ein neues Framework, das Innovation fördert statt sie zu behindern. Ihre Kritik konzentriert sich auf:
The Future Society, eine NGO, die sich als Vertreterin der Zivilgesellschaft sieht, kritisiert, dass US-Tech-Anbieter in geschlossenen Sitzungen wichtige Punkte abschwächen und verwässern konnten.
Nick Moës, Executive Director von The Future Society, erklärt: "Dieser geschwächte Code benachteiligt europäische Bürger und Unternehmen und verpasst Chancen, Sicherheit und Rechenschaftspflicht weltweit zu stärken. Er untergräbt auch alle anderen Stakeholder, deren Engagement und Bemühungen für das Gemeinwohl vom Einfluss der US-Big-Tech überschattet blieben."
1. Verspätete Informationsübermittlung:Das AI Office erhält wichtige Informationen erst nach der Markteinführung der Produkte. Anbieter teilen den Modellbericht mit Risikobewertung erst nach dem Deployment – nach dem "Publish first, then question"-Ansatz.
2. Unzureichender Whistleblower-Schutz:Interne Informationen sind in kapital- und marktgetriebenen Branchen entscheidend. Das AI Office muss ein sicherer Hafen sein und die gleichen Schutzstandards bieten wie die EU-Whistleblower-Richtlinie.
3. Fehlende Notfallpläne:Solche Protokolle sind in anderen Hochrisikobereichen Standard. Da sich Schäden bei GPAI extrem schnell ausbreiten können, müssen Anbieter verpflichtet werden, Notfallreaktions- und Schadensbegrenzungsstrategien im Voraus zu planen.
4. Extensive Entscheidungsmacht der Anbieter:Durch Lobbying wurden ergebnisbasierte Regeln eingeführt. Anbieter dürfen nun selbst Risiken identifizieren, Schwellenwerte definieren und kontinuierliche Bewertungen durchführen.
Das AI Office ist laut MEP Axel Voss, Shadow Rapporteur für den AI Act, "massiv unterbesetzt". Von 85 Mitarbeitern arbeiten nur 30 an der Implementierung des AI Acts. Zum Vergleich: Das neu gegründete UK AI Safety Institute beschäftigt über 150 Mitarbeiter.
Diese Personalknappheit erklärt teilweise die hastigen Timelines und die unzureichende Stakeholder-Konsultation. Wenn der Code nicht bis August finalisiert wird, muss das AI Office die Regeln selbst festlegen – ein Schritt, der die Legitimität des AI Acts erheblich beschädigen würde.
Ein Verbot von KI-Praktiken mit "unannehmbaren Risiken" gilt seit dem 2. Februar 2025. Dazu gehören KI für Social Scoring, emotionale Erkennung am Arbeitsplatz und in Bildungseinrichtungen sowie Verhaltensmanipulation. Bei Nichteinhaltung drohen Geldstrafen von bis zu 7% des Jahresumsatzes.
Entscheidende Details darüber, welche Systeme unter diese verbotene Kategorie fallen, bleiben jedoch unspezifiziert. Das AI Office wollte Richtlinien zu Verboten "rechtzeitig zum Inkrafttreten dieser Bestimmungen am 2. Februar" veröffentlichen. Nur wenige Tage vor der Deadline wurden jedoch keine Details veröffentlicht.
Donald Trumps Rückkehr ins Weiße Haus hat US-Tech-Unternehmen ermutigt, eine trotzige Haltung gegenüber EU-Gesetzgebung einzunehmen. Bereits im Herbst weigerten sich Anthropic, Apple und Meta, den freiwilligen AI Pact der EU zu unterzeichnen, der die frühzeitige Compliance mit dem AI Act fördern sollte.
Google und Meta-Führungskräfte kritisierten die Entwurfsregeln als "Schritt in die falsche Richtung" und brachten den EU-Plan zur Regulierung fortgeschrittener KI-Modelle in Gefahr.
Während die EU mit dem AI Act voranprescht, entwickeln sich unterschiedliche Ansätze:
USA: Fokus auf Innovation und Marktmechanismen, minimale RegulierungChina: Staatliche Kontrolle und strategische KI-EntwicklungUK: Pragmatischer Ansatz mit dem AI Safety InstituteSingapur: Sandbox-Modell für KI-Innovation
Diese Divergenz könnte zu einem regulatorischen Flickenteppich führen, der globale KI-Entwicklung erschwert.
Trotz der Kritik und Unsicherheiten müssen DACH-Unternehmen Compliance-Strategien entwickeln:
Kurzfristig (bis August 2025):
Mittelfristig (bis 2026):
Langfristig (ab 2026):
Finanzdienstleistungen:Zusätzliche Anforderungen durch BaFin und EBA-Guidelines. Besondere Aufmerksamkeit für algorithmische Entscheidungsfindung bei Krediten und Versicherungen.
Gesundheitswesen:Medizinprodukte-Verordnung (MDR) und AI Act-Compliance müssen koordiniert werden. Besondere Sorgfalt bei KI-gestützter Diagnostik und Therapieempfehlungen.
Automobilindustrie:Autonomous Driving-Systeme fallen unter Hochrisiko-Kategorien. Enge Abstimmung mit Typgenehmigungsverfahren erforderlich.
Fertigung:Predictive Maintenance und Quality Control-Systeme müssen dokumentiert und validiert werden. Integration in bestehende Qualitätsmanagementsysteme.
Die massive Kritik aus der Wirtschaft zeigt Wirkung. Mehrere EU-Parlamentarier haben bereits Nachbesserungen gefordert. Die Europäische Kommission steht unter Druck, einen Mittelweg zwischen Innovation und Regulierung zu finden.
Mögliche Reformansätze:
Deutschland als größte EU-Volkswirtschaft hat erheblichen Einfluss auf die weitere Entwicklung. Die Bundesregierung steht vor dem Dilemma, deutsche Unternehmen zu schützen und gleichzeitig die EU-Einheit zu wahren.
Erwartete Initiativen:
Szenario 1: Status Quo (Wahrscheinlichkeit: 40%)Der AI Act wird wie geplant implementiert, mit minimalen Anpassungen. Unternehmen müssen sich an die bestehenden Anforderungen anpassen.
Szenario 2: Moderate Reform (Wahrscheinlichkeit: 45%)Verlängerung der Fristen und Vereinfachung einiger Anforderungen nach intensiven Verhandlungen. Grundstruktur bleibt erhalten.
Szenario 3: Fundamentale Überarbeitung (Wahrscheinlichkeit: 15%)Umfassende Reform nach massivem politischen und wirtschaftlichen Druck. Neue Ansätze für KI-Regulierung.
Für Compliance-Verantwortliche:
Für Geschäftsführer:
Für Innovationsmanager:
Der EU AI Act steht an einem Wendepunkt. Die massive Kritik aus Wirtschaft und Zivilgesellschaft zeigt, dass der ursprüngliche Ansatz Nachbesserungen benötigt. Gleichzeitig bleibt das Ziel, vertrauenswürdige KI zu fördern, richtig und wichtig.
Für DACH-Unternehmen bedeutet dies eine Zeit der Unsicherheit, aber auch der Chancen. Wer jetzt proaktiv handelt, kann sowohl Compliance-Risiken minimieren als auch Wettbewerbsvorteile durch überlegene KI-Governance aufbauen.
Die nächsten Monate werden entscheidend sein. Die EU muss beweisen, dass sie Innovation und Regulierung in Einklang bringen kann. Scheitert sie dabei, droht Europa im globalen KI-Wettbewerb zurückzufallen.
Die Zeit für Nachbesserungen läuft ab. Jetzt ist politisches Handeln gefragt – bevor der AI Act von der Lösung zum Problem wird.
Quellen:
0 Comments
Login or Register to Join the Conversation
Create an AccountLog in