Leeres Plenum des Europäischen Parlaments in Brüssel - Symbol für EU AI Act-Regulierung 2026
14.04.2026

EU AI Act greift seit 6. April 2026: Was Mittelstands-Tech-Teams jetzt bis August klären müssen

7 Min. Lesezeit

Seit dem 6. April 2026 greifen die ersten verbindlichen Verbote des EU AI Act. Social Scoring durch Staaten, manipulative KI, die Willensfreiheit unterläuft, Emotionserkennung am Arbeitsplatz und biometrische Massenüberwachung sind in der EU nicht mehr zulässig. Bei Verstößen drohen Bußgelder bis 35 Millionen Euro oder 7 Prozent des weltweiten Konzernumsatzes. Der Branchenverband Bitkom beziffert die Compliance-Kosten für deutsche Unternehmen auf bis zu 20 Milliarden Euro jährlich. Stand: 14. April 2026.

Das Wichtigste in Kürze

  • Ab 6. April 2026 verboten: Social Scoring durch Behörden, manipulative KI, Emotionserkennung am Arbeitsplatz, biometrische Kategorisierung im Recruiting.
  • Bußgelder bis 35 Millionen Euro oder 7 Prozent Jahresumsatz: Das ist höher als DSGVO-Maximum (20 Mio oder 4 Prozent).
  • Nächster Meilenstein: August 2026: Dann greifen Zertifizierungspflichten für Hochrisiko-Systeme. Bis dahin müssen KI-Inventare erstellt und klassifiziert sein.

VerwandtCSRD-Datenmodell 2026 im Mittelstand  /  Medtech-Mittelstand: MDR, NIS2, PFAS

Die Verordnung läuft gestaffelt. Die am 6. April in Kraft getretenen Artikel betreffen zunächst verbotene Praktiken. Ab August 2026 kommt die eigentliche Arbeit: Hochrisiko-KI-Systeme in Personalmanagement, Gesundheitsversorgung, Bildung und kritischer Infrastruktur müssen zertifiziert, dokumentiert und überwacht werden. Dazwischen liegen vier Monate, in denen jedes Unternehmen seine KI-Landschaft sortieren muss.

Die offizielle Rechtsgrundlage steht auf der Website der EU-Kommission. Wer statt Papieren lieber Handlungsdruck hat: Das Folgende ist kein Panik-Leitfaden, sondern eine konkrete Checkliste, die an drei Abenden in einem Tech-Team abzuarbeiten ist.

Was genau seit 6. April 2026 verboten ist

Die Verordnung listet in Artikel 5 acht Praktiken, die in der EU nicht mehr zulässig sind. Drei davon sind für die meisten Unternehmen praxisrelevant. Erstens: Emotionserkennung am Arbeitsplatz. Das schließt Systeme ein, die Stimmungen von Mitarbeitenden über Kamera-, Stimm- oder Schreibmuster-Analyse erheben – auch wenn die Daten angeblich nur aggregiert ausgewertet werden. Viele Callcenter- und Recruiting-Tools fallen darunter, wenn sie Emotionsanalyse als Feature anbieten.

Zweitens: biometrische Kategorisierung zur Ableitung sensibler Merkmale wie politische Einstellung, sexuelle Orientierung oder Religion. Social-Media-Analyse-Tools, die Kundenprofile anreichern, treffen das oft ungewollt. Wer Adtech-Stacks mit Face-Recognition-Komponenten nutzt, muss diese Systeme prüfen.

Drittens: manipulative KI, die Willensfreiheit unterläuft. Die EU meint damit vor allem unbewusst wirkende Nudging-Mechanismen auf schutzbedürftige Gruppen. Der Anwendungsfall ist eng, aber präzise formuliert. E-Commerce-Plattformen mit aggressivem Dark-Pattern-Design landen in der Grauzone. Die Aufsichtsbehörden werden die Auslegung über die nächsten 18 Monate schärfen.

Die gute Nachricht: Social Scoring durch Behörden betrifft öffentliche Stellen und ist für die meisten Unternehmen kein Thema. Biometrische Massenüberwachung trifft primär Sicherheitsdienstleister. Der Kernanteil der neuen Verbote liegt damit bei Systemen, die HR und Marketing-Technologie berühren.

Wer ist betroffen – die Zahlen

Die Reichweite der Verordnung ist größer als viele Mittelständler vermuten. Betroffen sind nicht nur KI-Entwickler. Jedes Unternehmen, das KI-Systeme einsetzt – auch zugekaufte – ist als Deployer in der Pflicht. Das umfasst auch SaaS-Produkte, die intern KI nutzen, ohne es explizit zu kommunizieren.

MAX SANKTION
35 Mio €
oder 7 Prozent Jahresumsatz
BITKOM
20 Mrd €
Compliance-Kosten pro Jahr DE
FÖRDERUNG
500 Mio €
Bundesprogramm KI-Compliance

Die Bußgeld-Systematik ist abgestuft. Verstöße gegen die verbotenen Praktiken (Artikel 5) stehen an der Spitze mit 35 Millionen oder 7 Prozent. Verstöße gegen Hochrisiko-Pflichten werden mit 15 Millionen oder 3 Prozent geahndet. Fehlerhafte Dokumentation bei Foundation-Modellen mit 7,5 Millionen oder 1,5 Prozent. Die Bundesregierung hat parallel ein Förderprogramm über 500 Millionen Euro aufgelegt, das kleine und mittlere Unternehmen bei der Compliance-Umsetzung unterstützt.

Pros und Cons der operativen Umsetzung

Die Verordnung hat klare Vor- und Nachteile für betroffene Unternehmen.

Pro

  • Klare EU-weite Rechtssicherheit für KI-Einsatz, ersetzt 27 nationale Auslegungen.
  • Wettbewerbsvorteil für Anbieter mit sauberer Governance: Zertifizierung wird zum Einkaufskriterium.
  • Förderprogramme der Bundesregierung (500 Mio) und EU-InvestAI (~20 Mrd) senken die Kostenlast für KMU.
  • Starke Signalwirkung nach außen: Compliance schafft Vertrauen bei Kunden und Investoren.
Contra

  • Dokumentationsaufwand ist erheblich, besonders für Hochrisiko-Systeme (Datenherkunft, Modell-Bias-Tests, Change-Logs).
  • Deutsche Aufsichtsbehörde (Bundesnetzagentur) ist noch im Aufbau, Rechtsrat unsicher.
  • Definition „Hochrisiko“ in Grenzfällen unklar – viele Systeme bewegen sich in der Grauzone.
  • Wettbewerbsnachteil gegenüber US- und China-Anbietern, die EU-Ausnahmeregelungen nutzen.

Operative Checkliste für die nächsten 4 Monate

Wer Hochrisiko-Anwendungen im Stack hat und bis August 2026 vorbereitet sein will, arbeitet drei Blöcke ab. Der erste ist Inventarisierung. Eine vollständige Liste aller KI-Systeme im Unternehmen – inklusive der eingebetteten, oft vergessenen Komponenten. Chatbots, Empfehlungs-Engines, Fraud-Detection, HR-Screening-Tools, CRM-Scoring-Module. Gerade in modernen ERP-Systemen laufen KI-Agenten oft unter dem Radar und müssen jetzt explizit klassifiziert werden.

Der zweite Block ist Risiko-Klassifizierung. Für jedes System die AI-Act-Kategorie bestimmen: verboten, Hochrisiko, begrenztes Risiko, minimales Risiko. Die EU-Kommission veröffentlicht Leitfäden, die Auslegung wird aber über die nächsten Monate schärfer. Konservativ vorgehen: Im Zweifel höher einstufen. Eine Hochrisiko-Klassifizierung kostet Dokumentationsaufwand, eine falsche Niedrig-Einstufung kostet bis zu 15 Millionen Euro.

Der dritte Block ist Dokumentation. Für Hochrisiko-Systeme braucht es technische Dokumentation (Datenherkunft, Training-Methodik, Evaluationsergebnisse), Risikomanagement-Prozesse, menschliche Aufsicht und Transparenz-Angaben gegenüber Nutzenden. Viele dieser Bausteine überlappen mit CSRD-Berichtspflichten und bestehenden ESG-Datenmodellen, wenn ein Unternehmen das schon sauber aufgestellt hat.

Was bis August realistisch ist und was nicht

Vier Monate sind knapp. Für ein Unternehmen mit zehn bis dreißig KI-Systemen im Einsatz ist die Inventarisierung in acht Wochen machbar, wenn eine Person dafür freigestellt wird. Klassifizierung und erste Dokumentations-Pakete brauchen nochmal sechs bis zehn Wochen. Wer also am 15. April loslegt, ist Ende Juli fertig für die Hochrisiko-Systeme – knapp vor dem August-Stichtag.

Unrealistisch ist dagegen, alle Systeme bis August vollständig zertifizieren zu lassen. Die ersten externen Konformitätsbewertungsstellen nehmen erst ab Juni ihre Arbeit auf. Für die meisten Hochrisiko-Systeme reicht bis August die Dokumentation und ein interner Konformitätsnachweis. Externe Zertifizierung folgt bis Ende 2026 oder Anfang 2027. Das ist aus Sicht der Aufsichtsbehörden auch so geplant – die Phaseneinführung berücksichtigt die Ressourcenknappheit bei den Zertifizierern.

Wichtig ist die Priorität. Systeme, die in die verbotenen Praktiken fallen könnten, sind Nummer eins – hier drohen die höchsten Bußgelder und die sofortige Wirkung. Hochrisiko-Systeme in HR und Kundenkontakt kommen auf Platz zwei, weil sie die höchste öffentliche Sichtbarkeit haben. Alles andere kann mit sauberer Roadmap bis Ende 2026 geordnet werden. Ähnlich wie bei der E-Rechnungspflicht seit Januar 2025 gilt: wer früh anfängt, hat keinen Engpass am Stichtag.

Welche Rolle spielt das Bundesprogramm und die EU-Förderung

Die Bundesregierung hat im März 2026 ein KI-Compliance-Förderprogramm mit 500 Millionen Euro Laufzeit bis 2028 aufgelegt. Förderfähig sind kleine und mittlere Unternehmen bis 500 Mitarbeitende, die nachweisen, dass sie mindestens ein Hochrisiko-KI-System im Einsatz haben. Die Fördermittel decken bis zu 50 Prozent der Compliance-Kosten, maximal 250.000 Euro pro Unternehmen. Der Antragsprozess läuft über die BAFA, die ersten Bescheide sind ab Mai 2026 zu erwarten.

Parallel dazu fließen EU-Mittel aus der InvestAI-Initiative mit einem Gesamtvolumen von rund 20 Milliarden Euro in KI-Infrastruktur und Forschung. Ein Teil davon kommt den Konformitätsbewertungsstellen zugute, die Zertifizierungen durchführen. Für Unternehmen mit internationalen Ambitionen lohnt auch der Blick auf nationale Förderprogramme in Frankreich (800 Millionen Euro) und den Niederlanden (275 Millionen Euro), die parallel ausgeschüttet werden.

Ein pragmatischer Tipp: Wer die Förderung beantragen will, sollte die KI-Inventarisierung in einer strukturierten Form dokumentieren. Die BAFA verlangt im Antragsprozess ein Verzeichnis der betroffenen Systeme, eine Risiko-Klassifizierung und einen Projektplan für die Compliance-Umsetzung. Wer das ohnehin für die AI-Act-Konformität erstellt, spart Doppelarbeit.

Was Tech-Teams jetzt konkret bauen müssen

Auf der technischen Seite ergeben sich aus dem AI Act drei neue Anforderungen, die in bestehende Dev-Workflows integriert werden müssen. Erstens: ein Modell-Registry. Jedes produktive KI-System braucht eine eindeutige ID, Versions-Historie, Training-Daten-Provenance und Konformitätsstatus. Tools wie MLflow, Weights and Biases oder eine einfache Datenbank mit klar definiertem Schema reichen für den Start. Wichtig ist, dass jeder Production-Deploy einen Eintrag produziert.

Zweitens: Bias- und Fairness-Testing als Teil der CI-Pipeline. Für Hochrisiko-Systeme müssen regelmäßige Evaluations durchgeführt und dokumentiert werden. Open-Source-Tools wie Fairlearn, AIF360 oder What-If-Tool von Google lassen sich in bestehende Test-Pipelines einbinden. Die Anforderung ist keine einmalige Zertifizierung, sondern eine kontinuierliche Überwachung. Wer das als Automation aufsetzt, hat den Aufwand einmal und spart ihn danach.

Drittens: Audit-Logging für menschliche Aufsicht. Der AI Act verlangt, dass Menschen KI-Entscheidungen überwachen können und Overrides möglich sind. Für jedes Hochrisiko-System braucht es Logs, die Entscheidungen nachvollziehbar machen – Input, Output, Zeitstempel, Versionsnummer des Modells. Das entspricht strukturell einem Event-Log wie es viele Teams ohnehin für Monitoring und Debugging betreiben, nur mit höheren Aufbewahrungsfristen.

Praktisch gilt: Diese drei Anforderungen lassen sich gestaffelt einführen. In den ersten zwei Wochen reicht ein Spreadsheet-basiertes Modell-Registry, um die Inventarisierung schnell abzuschließen. Danach folgt die Migration in ein robusteres Tool. Bias-Testing wird idealerweise in einem existierenden CI-System (GitHub Actions, GitLab CI, Jenkins) als zusätzlicher Check eingefügt – nicht als neues System. Audit-Logs nutzen bestehende Observability-Infrastruktur, wenn sie vorhanden ist.

Der häufigste Fehler in frühen Compliance-Projekten ist Over-Engineering. Teams bauen neue Spezial-Tools für AI-Governance, obwohl viele Anforderungen mit bestehenden Bausteinen abgedeckt werden können. Ein sauberes Code-Review-Verfahren, klar definierte Deploy-Prozesse und strukturierte Monitoring-Dashboards decken bereits 60 bis 70 Prozent der technischen Anforderungen ab. Die verbleibenden 30 Prozent sind Dokumentation und Governance-Prozesse, also organisatorische Arbeit, nicht technische.

Ein letzter Gedanke zur Priorisierung: Die größten Effizienzgewinne entstehen, wenn KI-Governance und bestehende IT-Compliance-Prozesse zusammengeführt werden. ISO 27001, DSGVO-Verfahrensverzeichnis, TISAX oder SOC 2 – all diese Frameworks haben Überlappungen mit AI-Act-Anforderungen. Wer ein integriertes Compliance-Framework aufbaut, statt für jeden Standard separate Dokumentation zu pflegen, spart langfristig 40 bis 60 Prozent Aufwand. Die organisatorische Kür liegt hier, nicht in der Technik.

Häufige Fragen

Gilt der EU AI Act auch für US-Anbieter wie OpenAI oder Anthropic?

Ja. Die Verordnung greift territorial: Sobald ein KI-System auf dem EU-Markt angeboten oder dessen Output in der EU genutzt wird, gelten die Regeln. US-Anbieter haben für 2026 entsprechend EU-konforme Produkte angekündigt – teilweise mit Funktionsunterschieden zum US-Markt.

Wer überwacht die Einhaltung in Deutschland?

Die Bundesnetzagentur übernimmt die Koordinierung, sektorale Aufsichten (BaFin, BfArM, Datenschutzbehörden) behalten ihre bestehenden Zuständigkeiten für ihre Bereiche. Die Struktur ist noch im Aufbau, einheitliche Praxis ist 2026 nicht zu erwarten.

Was passiert mit bestehenden KI-Systemen, die vor dem 6. April im Einsatz waren?

Bestandsschutz gibt es nur eingeschränkt. Verbotene Praktiken müssen sofort eingestellt werden. Hochrisiko-Systeme haben bis August 2027 Zeit für die volle Konformität, wenn sie vor dem 2. August 2026 in Verkehr gebracht wurden. Neue Systeme nach diesem Datum müssen sofort konform sein.

Wie hoch sind die realistischen Kosten für ein mittelständisches Unternehmen?

Bitkom schätzt die Gesamtkosten für deutsche Unternehmen auf 20 Milliarden Euro jährlich. Für ein Unternehmen mit 500 Mitarbeitenden und mittlerem KI-Einsatz liegen die initialen Compliance-Kosten geschätzt zwischen 80.000 und 250.000 Euro, plus laufende Dokumentationskosten von 30.000 bis 70.000 Euro jährlich. Das Bundesprogramm übernimmt bis zu 50 Prozent.

Gibt es Ausnahmen für Forschung und Entwicklung?

Ja. Die Verordnung enthält Forschungsprivilegien – KI-Systeme in Forschungsprojekten vor dem Markteintritt sind weitgehend ausgenommen. Sobald Produkt-Testing mit Endnutzenden stattfindet, greifen aber die üblichen Pflichten. Regulatory Sandboxes der EU-Mitgliedstaaten bieten zusätzliche Experimentierräume.

Quelle Titelbild: Pexels / Jonas Horsch (px:11682403)

Ein Magazin der evernine media GmbH