Zum Inhalt springen

KI-generierte Inhalte: Antworten werden von einer KI erstellt, automatisch zusammengestellt und können Fehler enthalten. Conformi ist ein Recherche-Tool und ersetzt keine Rechtsberatung oder rechtliche Prüfung im Einzelfall. Alle Antworten sind anhand der verlinkten Originalquellen zu verifizieren.

🤖Künstliche Intelligenz

EU AI Act — Verordnung über Künstliche Intelligenz

Analyse vom 17. April 20263 QuellenKonsolidierte Fassung vom 12.07.2024 (Originalfassung mit Berichtigung C1)EUR-Lex Original

Welches unserer KI-Projekte muss sofort gestoppt werden, und was kostet es, wenn wir die Hochrisiko-Konformität bis August 2026 nicht schaffen?

Wer KI-Systeme in der EU anbietet oder betreibt, muss verbotene Praktiken seit dem 2. Februar 2025 abgestellt haben und Hochrisiko-Systeme bis zum 2. August 2026 konform machen — sonst drohen Bußgelder bis 35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes [Art. 99 Abs. 3].

Kurzantwort

Der AI Act verbietet seit dem 2. Februar 2025 manipulative KI-Techniken, Social Scoring und biometrische Echtzeit-Fernidentifizierung in öffentlich zugänglichen Räumen [Art. 5, Art. 113 lit. a]. Anbieter von KI-Modellen mit allgemeinem Verwendungszweck (GPAI) müssen seit dem 2. August 2025 technische Dokumentation führen und Urheberrechtspflichten einhalten [Art. 53, Art. 113 lit. b]. Für Hochrisiko-KI-Systeme in den Bereichen Biometrie, kritische Infrastruktur, Personalwesen oder Strafverfolgung gelten ab dem 2. August 2026 strenge Anforderungen an Risikomanagement, Datenqualität, Transparenz und menschliche Aufsicht — vor Inverkehrbringen ist eine Konformitätsbewertung durchzuführen und das System in der EU-Datenbank zu registrieren [Art. 6, Art. 8–15, Art. 43, Art. 49].

Betroffen

Betroffen sind alle Akteure in der KI-Wertschöpfungskette: Anbieter, Betreiber, Einführer und Händler von KI-Systemen, die in der EU in Verkehr gebracht, in Betrieb genommen oder deren Output in der EU genutzt wird — unabhängig vom Sitz des Unternehmens [Art. 2 Abs. 1]. Auch Produkthersteller, die KI-Systeme unter eigener Marke vertreiben, und Bevollmächtigte von Drittland-Anbietern fallen in den Anwendungsbereich [Art. 2 Abs. 1 lit. e, f]. Für KMU und Start-ups gelten reduzierte Bußgelder, jedoch keine materiellen Ausnahmen [Art. 99 Abs. 6]. Ausgenommen sind rein persönliche und nicht berufliche Nutzung, ausschließlich militärische Zwecke sowie reine Forschung und Entwicklung vor Inverkehrbringen [Art. 2 Abs. 3, 6, 8, 10].

Frist

Nächste Frist: 2. August 2026 — ab dann gelten die vollständigen Anforderungen für Hochrisiko-KI-Systeme nach Anhang III einschließlich Konformitätsbewertung, Registrierung und Marktbeobachtung [Art. 113]. Bereits wirksam: Verbote seit 2. Februar 2025 [Art. 113 lit. a], GPAI-Pflichten und Governance-Strukturen seit 2. August 2025 [Art. 113 lit. b]. Spätere Frist: 2. August 2027 — Pflichten für Hochrisiko-Systeme, die Sicherheitsbauteile von Produkten nach Art. 6 Abs. 1 sind [Art. 113 lit. c]. Gestaffelte Geltung: Kapitel I+II ab 02.02.2025, Kapitel III Abschnitt 4 + Kapitel V + VII + XII + Art. 78 ab 02.08.2025, Gesamtanwendung ab 02.08.2026, Art. 6 Abs. 1 ab 02.08.2027.

Risiko

Verbotene Praktiken [Art. 5]: bis zu 35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes, je nachdem, welcher Betrag höher ist [Art. 99 Abs. 3]. Verstöße gegen Hochrisiko-Anforderungen, Betreiberpflichten oder Transparenzpflichten: bis zu 15 Mio. EUR oder 3 % des Umsatzes [Art. 99 Abs. 4]. Falsche, unvollständige oder irreführende Informationen an Behörden: bis zu 7,5 Mio. EUR oder 1 % des Umsatzes [Art. 99 Abs. 5]. Für KMU und Start-ups gilt jeweils der niedrigere der beiden Beträge [Art. 99 Abs. 6]. Für GPAI-Anbieter kann die Kommission direkt Geldbußen bis 15 Mio. EUR oder 3 % des Umsatzes verhängen [Art. 101 Abs. 1].

Belege

Rechtsstand

  • In Kraft
  • Stand 2026-04-17
  • Konsolidierte Fassung vom 12.07.2024 (Originalfassung mit Berichtigung C1)

Primärquellen

Was jetzt zu tun ist

Legal / DPO

  • Inventar aller KI-Systeme erstellen und jedes System gegen die verbotenen Praktiken nach Art. 5 prüfen — manipulative Techniken, Social Scoring und bestimmte biometrische Identifizierung sind seit dem 2. Februar 2025 untersagt [Art. 5].
  • Jedes KI-System rechtlich einordnen: verboten, Hochrisiko nach Art. 6 Abs. 1 (Sicherheitsbauteil) oder Abs. 2 (Anhang III), transparenzpflichtig nach Art. 50 oder minimales Risiko — die Einordnung ist vor Inverkehrbringen zu dokumentieren [Art. 6 Abs. 4].
  • Verträge mit KI-Zulieferern und GPAI-Modellanbietern auf Informations- und Kooperationspflichten prüfen: Anbieter nachgelagerter Systeme benötigen technische Dokumentation und ausreichende Rechte des GPAI-Anbieters [Art. 25, Art. 53].

Compliance

  • Für jedes Hochrisiko-KI-System ein kontinuierliches Risikomanagementsystem einrichten, das den gesamten Lebenszyklus abdeckt und regelmäßig aktualisiert wird — einschließlich systematischer Identifizierung und Analyse bekannter und vorhersehbarer Risiken [Art. 9].
  • Ein Qualitätsmanagementsystem implementieren, das Verfahren für Design, Datenmanagement, Konformitätsbewertung, Marktbeobachtung und Meldung schwerwiegender Vorfälle innerhalb von 15 Tagen dokumentiert [Art. 17, Art. 72, Art. 73].
  • KI-Kompetenz im Unternehmen sicherstellen: alle Personen, die KI-Systeme betreiben oder nutzen, müssen über ausreichendes technisches Verständnis verfügen — Schulungsprogramme aufsetzen und dokumentieren [Art. 4].

IT / Security

  • Robustheit und Cybersicherheit für Hochrisiko-KI-Systeme implementieren: Schutz gegen Fehler, Störungen, Data Poisoning und adversariale Angriffe — insbesondere Maßnahmen gegen die Manipulation von Trainings-, Validierungs- und Testdaten [Art. 15].
  • Automatische Protokollierung (Logging) in Hochrisiko-KI-Systeme integrieren, die Ereignisse während des Betriebs aufzeichnet und eine Rückverfolgbarkeit über den gesamten Lebenszyklus ermöglicht [Art. 12].
  • Daten-Governance für Trainings-, Validierungs- und Testdaten durchsetzen: Zugriffskontrollen, Integritätsprüfung, Bias-Monitoring und Schutz personenbezogener Daten nach Art. 10 Abs. 5 im Einklang mit der DSGVO [Art. 10].

Product / Engineering

  • Hochrisiko-KI-Systeme so entwerfen, dass wirksame menschliche Aufsicht möglich ist — der Betreiber muss das System anhalten, seine Ausgabe übersteuern oder in den Betrieb eingreifen können [Art. 14].
  • Umfassende technische Dokumentation gemäß Anhang IV und klare Betriebsanleitungen erstellen, die Zweckbestimmung, Leistungskennzahlen, bekannte Einschränkungen und Restrisiken für Betreiber transparent machen [Art. 11, Art. 13].
  • Konformitätsbewertung vorbereiten: für biometrische Systeme nach Art. 6 Abs. 2 i. V. m. Anhang III Nr. 1 ist eine Bewertung durch eine notifizierte Stelle erforderlich; für andere Hochrisiko-Systeme genügt eine interne Kontrolle nach Anhang VI [Art. 43].

Wichtige Begriffe

KI-System
Maschinengestütztes System, das für einen gewissen Grad an Autonomie ausgelegt ist und aus Eingaben ableitet, wie Ausgaben erzeugt werden, die physische oder virtuelle Umgebungen beeinflussen können [Art. 3 Nr. 1].
Anbieter
Natürliche oder juristische Person, Behörde oder sonstige Stelle, die ein KI-System oder ein GPAI-Modell entwickelt oder entwickeln lässt und es unter eigenem Namen oder eigener Marke in Verkehr bringt oder in Betrieb nimmt [Art. 3 Nr. 3].
Betreiber
Natürliche oder juristische Person, die ein KI-System in eigener Verantwortung verwendet, ausgenommen im Rahmen einer rein persönlichen, nicht beruflichen Tätigkeit [Art. 3 Nr. 4].
Hochrisiko-KI-System
KI-System, das entweder als Sicherheitsbauteil eines regulierten Produkts einer Konformitätsbewertung durch Dritte unterliegt (Art. 6 Abs. 1) oder in einem der in Anhang III genannten kritischen Bereiche eingesetzt wird und ein erhebliches Risiko birgt [Art. 6 Abs. 2].
KI-Modell mit allgemeinem Verwendungszweck (GPAI-Modell)
KI-Modell mit erheblicher allgemeiner Verwendbarkeit, das ein breites Spektrum unterschiedlicher Aufgaben kompetent erfüllen und in eine Vielzahl nachgelagerter Systeme integriert werden kann [Art. 3 Nr. 63].
Konformitätsbewertung
Verfahren zum Nachweis, dass ein Hochrisiko-KI-System die Anforderungen des Kapitels III Abschnitt 2 erfüllt — durchzuführen vor Inverkehrbringen, entweder als interne Kontrolle oder durch eine notifizierte Stelle [Art. 43].
Systemisches Risiko
Risiko, das spezifisch für GPAI-Modelle mit Fähigkeiten hoher Wirkkraft ist und aufgrund der Reichweite oder vorhersehbarer negativer Folgen erhebliche Auswirkungen auf den Unionsmarkt haben kann [Art. 3 Nr. 65].
?

Häufige Fragen

Was ist ein KI-System im Sinne des AI Act?
Ein maschinengestütztes System, das für einen gewissen Grad an Autonomie ausgelegt ist und das aus Eingaben ableitet, wie Ausgaben — etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen — erzeugt werden, die physische oder virtuelle Umgebungen beeinflussen können [Art. 3 Nr. 1].
Wann gilt ein KI-System als hochriskant?
Wenn es entweder als Sicherheitsbauteil eines Produkts dient, das einer Konformitätsbewertung durch Dritte unterliegt [Art. 6 Abs. 1], oder wenn es in einem der in Anhang III aufgeführten Bereiche eingesetzt wird — etwa Biometrie, kritische Infrastruktur, Bildung, Beschäftigung oder Strafverfolgung — und kein Ausnahmegrund nach Art. 6 Abs. 3 vorliegt. Nimmt das System Profiling natürlicher Personen vor, gilt es stets als hochriskant [Art. 6 Abs. 3 Unterabsatz 3].
Welche KI-Praktiken sind vollständig verboten?
Verboten sind unter anderem: unterschwellige Manipulation, Ausnutzung von Schutzbedürftigkeit, Social Scoring, prädiktive Polizeiarbeit allein auf Basis von Profiling, ungezieltes Scraping von Gesichtsbildern aus dem Internet, Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen sowie biometrische Echtzeit-Fernidentifizierung in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (mit engen Ausnahmen) [Art. 5 Abs. 1].
Sind Open-Source-KI-Modelle von der Verordnung ausgenommen?
KI-Systeme unter freien und quelloffenen Lizenzen sind grundsätzlich ausgenommen, es sei denn, sie werden als Hochrisiko-System oder als System unter Art. 5 oder Art. 50 in Verkehr gebracht [Art. 2 Abs. 12]. Für GPAI-Modelle gelten reduzierte Pflichten, sofern sie kein systemisches Risiko bergen und ihre Parameter frei zugänglich sind [Art. 53 Abs. 2].
Welche Transparenzpflichten gelten für Chatbots und Deepfakes?
Anbieter müssen sicherstellen, dass Nutzer informiert werden, wenn sie mit einem KI-System interagieren [Art. 50 Abs. 1]. KI-generierte oder manipulierte Bild-, Ton- oder Videoinhalte (Deepfakes) müssen als künstlich erzeugt gekennzeichnet werden — ausgenommen sind offensichtlich künstlerische, satirische oder fiktionale Werke [Art. 50 Abs. 4].
Was passiert bei wesentlicher Veränderung eines Hochrisiko-KI-Systems?
Eine wesentliche Veränderung, die die Konformität beeinträchtigt oder die Zweckbestimmung ändert, erfordert ein neues Konformitätsbewertungsverfahren — das System gilt dann als neu in Verkehr gebracht [Art. 3 Nr. 23, Art. 43 Abs. 4].
Was sind KI-Modelle mit allgemeinem Verwendungszweck (GPAI) und welche Pflichten gelten?
GPAI-Modelle sind Modelle mit erheblicher allgemeiner Verwendbarkeit, die ein breites Aufgabenspektrum erfüllen können [Art. 3 Nr. 63]. Anbieter müssen seit dem 2. August 2025 technische Dokumentation erstellen, eine Urheberrechtspolitik einhalten und nachgelagerten Anbietern ausreichende Informationen bereitstellen [Art. 53]. Für GPAI-Modelle mit systemischem Risiko gelten zusätzliche Pflichten wie Modell-Evaluierungen und Cybersicherheitsmaßnahmen [Art. 55].

Werkzeuge & Vorlagen

KI-generierte Compliance-Hilfen

Vorschau
13
Gap-Checks
2
SOPs
3
Vorlagen
Entscheidungen

1. Gap-Analyse Checkliste

!

Wurde geprüft, ob die von uns entwickelten, in Verkehr gebrachten oder genutzten KI-Systeme unter die verbotenen Praktiken gemäß Art. 5 fallen?

Art. 5|Verbotene Praktiken
!

Haben wir einen Prozess zur Klassifizierung unserer KI-Systeme etabliert, um festzustellen, ob sie als 'Hochrisiko-KI-Systeme' gemäß Art. 6 gelten?

Art. 6|Klassifizierung
!

Wurde für jedes Hochrisiko-KI-System ein Risikomanagementsystem gemäß Art. 9 eingerichtet, dokumentiert und aufrechterhalten?

Art. 9|Hochrisiko-KI-Systeme: Anforderungen

2. SOP-Vorlagen

SOP: Erstellung und Pflege der Technischen Dokumentation für Hochrisiko-KI-SystemeArt. 11, Art. 18, Anhang IV

Zweck: Diese SOP stellt sicher, dass für jedes Hochrisiko-KI-System eine konforme, vollständige und aktuelle technische Dokumentation erstellt und für den gesetzlich vorgeschriebenen Zeitraum aufbewahrt wird, um die Konformität mit dem EU AI Act nachzuweisen.

Geltungsbereich: Diese SOP gilt für alle als 'hochriskant' eingestuften KI-Systeme, die von [Name des Unternehmens] entwickelt oder in Verkehr gebracht werden.

Schritte:
  1. 1

    Identifizierung eines KI-Systems als Hochrisiko-KI-System gemäß Klassifizierungsprozess (siehe Entscheidungsbaum).

    Verantwortlich: Produktmanagement / Compliance Officer | Output: Dokumentierte Klassifizierung des KI-Systems als 'Hochrisiko'.

  2. 2

    Anlegen einer neuen Struktur für die technische Dokumentation basierend auf Anhang IV.

    Verantwortlich: Leiter des Entwicklungsteams / Technischer Redakteur | Output: Leere, strukturierte Vorlage für die technische Dokumentation im Dokumentenmanagementsystem.

  3. 3

    Zusammentragen und Einfügen aller erforderlichen Informationen gemäß Anhang IV, u.a.: Allgemeine Beschreibung, Methoden der Entwicklung, Daten-Governance, Risikomanagement-Dokumentation, Testberichte, Betriebsanleitung, Plan zur Beobachtung nach dem Inverkehrbringen.

    Verantwortlich: Entwicklungsteam, Data Scientists, Produktmanagement, Technischer Redakteur, Compliance Officer | Output: Ausgefüllter Entwurf der technischen Dokumentation.

  4. 4

    Formale Überprüfung der Vollständigkeit und Korrektheit der technischen Dokumentation.

    Verantwortlich: Compliance Officer / Qualitätsmanagement | Output: Freigabeprotokoll für die technische Dokumentation.

  5. 5

    Archivierung der finalen Version der technischen Dokumentation vor dem Inverkehrbringen. Sicherstellung der Verfügbarkeit für Behörden.

    Verantwortlich: IT / Dokumentenmanagement | Output: Archivierte, versionierte technische Dokumentation.

  6. 6

    Einrichtung eines Prozesses zur Aktualisierung der technischen Dokumentation bei jeder wesentlichen Änderung des KI-Systems oder bei neuen Erkenntnissen aus dem Post-Market-Monitoring.

    Verantwortlich: Produktmanagement / Compliance Officer | Output: Definierter und dokumentierter Aktualisierungsprozess.

  7. 7

    Sicherstellung der Aufbewahrung der Dokumentation für 10 Jahre nach dem letzten Inverkehrbringen des Systems.

    Verantwortlich: IT / Rechtsabteilung | Output: Konfigurierte Aufbewahrungsrichtlinie im Archivsystem.

Prüffrequenz: Jährlich sowie bei jeder wesentlichen Änderung des KI-Systems.

3. Textbausteine

Musterklausel für Lieferantenverträge (Komponenten für Hochrisiko-KI-Systeme)Art. 25 Abs. 4

Anwendungsfall: Zur Aufnahme in Verträge mit Lieferanten von KI-Systemen, Instrumenten, Diensten, Komponenten oder Verfahren, die in ein Hochrisiko-KI-System integriert werden sollen.

Klausel X: Zusammenarbeit im Rahmen der EU-Verordnung über Künstliche Intelligenz (AI Act) 1. Der Lieferant ([Name des Lieferanten]) sichert zu, dass die gelieferte(n) Komponente(n)/der gelieferte Dienst ([genaue Bezeichnung der Komponente/des Dienstes]) für die Integration in ein Hochrisiko-KI-System im Sinne der Verordnung (EU) 2024/1689 (AI Act) geeignet ist/sind. 2. Der Lieferant verpflichtet sich, dem Auftraggeber ([Name des Anbieters des Hochrisiko-KI-Systems]) alle nach dem allgemein anerkannten Stand der Technik erforderlichen Informationen, Fähigkeiten, technischen Zugang und sonstige Unterstützung zur Verfügung zu stellen, die der Auftraggeber benötigt, um seine Pflichten als Anbieter eines Hochrisiko-KI-Systems gemäß dem AI Act vollständig zu erfüllen. 3. Dies umfasst insbesondere, aber nicht ausschließlich, die Bereitstellung von: a) Detaillierter technischer Dokumentation über die Funktionsweise, das Design, die Daten und die Leistung der Komponente/des Dienstes. b) Informationen über durchgeführte Tests, Validierungen und Qualitätssicherungsmaßnahmen. c) Unterstützung bei der Durchführung der Konformitätsbewertung des Hochrisiko-KI-Systems des Auftraggebers. d) Unverzügliche Information über bekannte Schwachstellen, Risiken oder Non-Konformitäten der Komponente/des Dienstes. 4. Die Bereitstellung der Informationen und der Unterstützung gemäß dieser Klausel erfolgt unter Wahrung der Rechte des geistigen Eigentums und der Geschäftsgeheimnisse des Lieferanten. Die Parteien werden bei Bedarf eine separate Vertraulichkeitsvereinbarung treffen, um den Schutz dieser Rechte zu gewährleisten. 5. Diese Verpflichtung gilt nicht, wenn die Komponente/der Dienst unter einer freien und quelloffenen Lizenz zur Verfügung gestellt wird, es sei denn, es handelt sich um ein KI-Modell mit allgemeinem Verwendungszweck.

Platzhalter: [Name des Lieferanten], [genaue Bezeichnung der Komponente/des Dienstes], [Name des Anbieters des Hochrisiko-KI-Systems]

+10 Gap-Checks, 1 SOPs, 2 Vorlagen warten auf Sie

7 Tage kostenlos testen

KI-generierte Compliance-Hilfen. Keine Rechtsberatung. Bitte mit Rechtsabteilung abstimmen.

3

Prüfungsfaktoren & Checkliste

Premium
4

Fragen für Ihren Anwalt

Premium
5

Fazit & Zusammenfassung

Premium

Detaillierte Analyse mit Quellenlinks.

Schalten Sie die KI-Analyse frei — mit markierten Fundstellen und direkten Links zu EUR-Lex. 7 Tage kostenlos testen.

Keine Kreditkarte heute. Kündigung jederzeit.