Anbieter von Hochrisiko-KI-Systemen müssen eine sogenannte „Konformitätserklärung“ abgeben, also belegen und zusichern, dass sie sich an die geltenden EU-Gesetze und an die Vorgaben der KI-Verordnung halten. Für die Kontrolle und Zertifizierung wird hierzu pro Mitgliedsstaat mindestens 1 gesonderte Stelle eingerichtet.
Außerdem müssen Anbieter solcher KI-Systeme Qualitäts- und Risikomanagementsysteme einführen, um die Einhaltung der Anforderungen sicherzustellen und die Risiken für gewerbliche Nutzer:innen und betroffene Personen zu minimieren. Das gilt auch, nachdem ein Produkt bereits in Verkehr gebracht wurde.
Sie müssen beispielsweise:
- Risiken der KI-Systeme stetig analysieren und bewerten,
- Hochrisiko-Systeme testen und geeignete Konzepte und Maßnahmen entwickeln, um Risiken möglichst zu beseitigen oder zu verringern sowie
- Gewerbliche Nutzende über Risiken informieren und ihre Angestellten entsprechend schulen
Welche KI-Systeme haben ein geringes Risiko?
Unter KI-Systeme mit einem geringen Risiko, also die der Risikogruppe 1, fallen all jene Systeme, die kein unannehmbares oder hohes Risiko darstellen. Dazu zählen
- Spam-Filter
- Chatbots
- KI in Video-Spielen
- Suchalgorithmen
Sie unterliegen nach KI-Verordnung weniger strengen Anforderungen. Sie können unter Einhaltung von Transparenz- und Informationspflichten entwickelt und verwendet werden.
Diese Pflichten bestehen zum Beispiel, sobald KI-Systeme mit Personen interagieren und mit echten Menschen verwechselt werden können, etwa in Telefon-Hotlines, oder KI-Systeme die Emotionen von Menschen erkennen und analysieren. Auch wenn Bild-, Audio- oder Videoinhalte erzeugt oder manipuliert werden, die wirklichen Personen oder Orten ähneln und fälschlicherweise als echt erscheinen, sogenannten "Deep Fakes", muss offengelegt werden, dass Inhalte durch KI erstellt wurden.
Wer überwacht die Einhaltung der KI-Regelungen?
Bei Verstößen gegen die Verordnung können Sanktionen gegenüber den Entwicklern oder Betreibern der KI-Systeme verhängt werden. Zur Aufsicht sollten die Mitgliedsstaaten bis August 2025 entsprechende Aufsichtsbehörden zur Überwachung einrichten.
Der deutsche Gesetzgeber hat bislang keine Aufsichtsbehörde festgelegt. So wurde bis dato kein Gesetz zur Umsetzung der KI-Verordnung verabschiedet. Mit dem Gesetz ist nicht nur die Benennung der nationalen Aufsichtsbehörde verbunden, sondern auch eine Festlegung von Sanktionen.
Zudem wird auf EU-Ebene ein Amt für Künstliche Intelligenz eingerichtet, um gemeinsam mit den Stellen der Mitgliedsstaaten die Überwachung in der EU vorzunehmen.
Wie geht es mit dem AI Act weiter?
Der AI Act ist am 1. August 2024 in Kraft getreten und 2 Jahre nach Inkrafttreten vollständig anwendbar.
Folgende Ausnahmen bestehen hiervon:
- Das Verbot für KI-Systeme mit einem unannehmbaren Risiko gilt bereits 6 Monate nach Inkrafttreten. Sie dürfen dann nicht mehr verwendet werden.
- Nach 12 Monaten greifen die Regelungen für KI-Systeme mit allgemeinem Verwendungszweck wie ChatGPT.
- Alle anderen Regeln greifen nach 2 Jahren.
- Einige Hochrisiko-KI Systeme, die bereites anderen EU-Regeln unterworfen sind, bekommen 36 Monate Zeit.
Die EU-Kommission prüft jährlich, ob künftig Anpassungen zum Beispiel an der Kategorisierung der KI-Systeme vorzunehmen sind, um auch auf technische Entwicklungen und neue Anwendungsgebiete reagieren zu können.