Der EU AI Act legt Anforderungen und Pflichten für Anbieter von Hochrisiko-Systemen fest. Wir haben in zehn Punkten zusammengefasst, was Unternehmen in Hochrisikobereichen jetzt beachten sollten.
Die EU hat den EU AI Act (dt. KI Verordnung) verabschiedet, um eine vertrauenswürdige und verantwortungsvolle Nutzung von Künstlicher Intelligenz in ganz Europa sicherzustellen. Die Verordnung führt eine Reihe von Anforderungen und Pflichten für Unternehmen ein, die KI-Systeme bereitstellen oder einsetzen – insbesondere in sogenannten Hochrisikobereichen. Fällt Ihr System in diesen Bereich? Finden Sie heraus, ob Ihr KI-System als Hochrisiko gilt – und was das für Sie bedeutet!
Der EU AI Act ist ein Gesetz der Europäischen Kommission, der Anfang 2024 von den EU-Mitgesetzgebern sowie den Mitgliedstaaten verabschiedet wurde. Ziel ist es, KI europaweit rechtssicher, vertrauenswürdig und ethisch nutzbar zu machen.
Die Verordnung verfolgt einen risikobasierten Ansatz und unterscheidet vier Risikostufen:
Die Anforderungen variieren je nach Risikokategorie, wobei Hochrisiko-Systeme den höchsten regulatorischen Pflichten unterliegen. Auch sogenannte General Purpose AI (GPAI) – also KI-Systeme mit einem weiten Anwendungsbereich – werden vom Gesetz erfasst und folgen Auflagen, je nachdem, wie viel Rechenleistung in das Training der Modelle geflossen ist.
Die EU stuft KI-Systeme als hochriskant ein, wenn diese potenziell erhebliche Schäden für Bürger*innen oder die Umwelt verursachen können. Beispiele sind:
Mehr Informationen finden Sie in diesem Artikel oder im Anhang II und III des EU AI Acts, die eine umfangreiche Liste von Hochrisiko-Systemen enthalten.
Unternehmen, die die Anforderungen des EU AI Acts – insbesondere bei Hochrisiko-KI – nicht einhalten, riskieren hohe Geldstrafen:
Zusätzlich drohen Reputationsschäden und rechtliche Schritte durch betroffene Personen.
Titel III des EU AI Acts legt die Anforderungen und Pflichten für Anbieter von Hochrisiko-Systemen fest. Wir haben diese im Folgenden zusammengefasst, um einen klaren Überblick darüber zu geben, was auf Unternehmen in Hochrisikobereichen zukommt.
Derzeit wird der AI Act dafür kritisiert, dass er nicht genau vorgibt, wie diese Anforderungen konkret umzusetzen sind – was noch Spielraum für Interpretationen lässt.
1. Einrichtung eines Qualitätsmanagementsystems, das folgende Elemente umfasst:
2. Durchführung einer Grundrechtsverträglichkeitsprüfung (Fundamental Rights Impact Assessment), bei der unter anderem mögliche negative Auswirkungen auf marginalisierte Gruppen und die Umwelt berücksichtigt werden.
3. Bereitstellung von Kontaktinformationen für Nutzer*innen und andere relevante Stakeholder.
4. Protokollierungspflichten über den gesamten Lebenszyklus hinweg zur Sicherstellung von Rückverfolgbarkeit und Überwachung. Die Logs müssen u. a. den Nutzungszeitraum, Eingabedaten und beteiligte Personen zur Ergebnisverifizierung enthalten.
5. Umsetzung von Transparenzmaßnahmen wie:
6. Aufbewahrung relevanter Dokumentationen für zehn Jahre, darunter
7. Registrierung des KI-Systems und Durchführung einer Konformitätsbewertung, um die EU-Konformitätserklärung und die entsprechende CE-Kennzeichnung zu erhalten. Dies gilt auch für außereuropäische Anbieter, die KI auf dem EU-Markt bereitstellen – einschließlich der vollständigen Einhaltung aller Anforderungen. Bei Abweichungen sind geeignete Korrekturmaßnahmen zu treffen und die zuständige Behörde zu informieren.
8. Nachweispflicht bei Audits – auf Anforderung müssen Unternehmen die Konformität belegen können, einschließlich aktueller technischer Dokumentation und der neuesten Protokolle zur Systemleistung.
9. Menschliche Aufsicht während der Nutzung des Systems, um dessen Fähigkeiten und Grenzen zu verstehen, Ausgaben korrekt zu interpretieren und ggf. eingreifen zu können.
10. Cybersicherheitsmaßnahmen zum Schutz vor Angriffen, zur Sicherstellung der Systemrobustheit und zur Vermeidung von Systemausfällen. Die Genauigkeit der Modelle ist zu wahren. Systeme mit kontinuierlichem Lernen müssen so gestaltet sein, dass sie Verzerrungen in den Ausgaben vermeiden, die zukünftige Operationen beeinflussen könnten.
Wenn Sie nach einem KI-Governance-Framework suchen, das auf die EU AI Act Anforderungen abgestimmt ist, fragen Sie eines hier an.
Die Einhaltung des EU AI Act kann für Unternehmen mit Hochrisiko-Anwendungen herausfordernd sein. Unser Rat: Beginnen Sie frühzeitig mit dem Aufbau von Governance-Strukturen.
Bis spätestens 2026 müssen Organisationen mit Hochrisiko-Systemen die Vorgaben der KI-Verordnung einhalten. Frühzeitig eingeführte Prozesse wie Risikomanagement, Logging und Dokumentation sorgen dafür, dass bereits heute entwickelte Systeme auch in Zukunft weiterverwendet werden können. Zudem erhöhen sie die Transparenz und Effizienz im Unternehmen.
Minimieren Sie technische, organisationsspezifische und gesellschaftliche Risiken und fördern Sie das Verständnis für verantwortungsvolle KI-Entwicklung sowohl innerhalb Ihrer Organisation als auch bei Ihren Kund*innen.
Erfahren Sie in diesem Artikel, wie Sie die ersten Schritte in der KI-Governance umsetzen können.
Gerne beraten wir Sie auch persönlich und unterstützen Sie beim Aufbau der richtigen Tools und Prozesse zur Steigerung von Transparenz und Qualität beim Einsatz von KI in Ihrem Unternehmen. Kontaktieren Sie uns hier.