Dieser Artikel zur Umsetzung der KI-Verordnung (KI-Vo) – AI Act) betrifft ausschließlich die Herausforderungen für Betreiber (Anwender – Nutzer) von KI-Systemen.
Unternehmen, die KI in ihren Prozessen einsetzen müssen ab dem 1. August 2024 sich mit der Ki-Verordnung (KI-Vo – AI-Act) auseinandersetzen.
01.08.2024: KI-Verordnung in Kraft getreten
Besonders wichtig:
Geltung der Vorschriften über verbotene KI-Systeme (Beendigung der Nutzung solcher Systeme).
Die ersten Herausforderungen für Betreiber einer KI:
Die KI-Verordnung (AI-Act) legt für den 2. Februar 2025 wichtige Fristen und Anforderungen fest, die insbesondere für Unternehmen und Organisationen gelten, die Generative KI-Modelle wie ChatGPT, LLAMA, Claude oder andere Generative Pretrained AI (GPAI)-Modelle verwenden. Diese Anforderungen betreffen:
Schulung und Qualifikation im Umgang mit KI-Systemen
Unternehmen müssen für den allgemeinen Einsatz von KI-Systemen die KI-Kompetenz ihres Personals nachweisen.
Relevante Artikeln in der KI-Verordnung:
Artikel 4 stellt allgemeine Prinzipien für den Einsatz von KI auf und legt fest, dass alle Beteiligten, die mit KI-Systemen arbeiten oder diese einsetzen, über die nötigen Kenntnisse und Fähigkeiten verfügen müssen. Dies bedeutet, dass Mitarbeiter entsprechend geschult sein müssen, um:
- Die Funktionsweise und Grenzen des KI-Systems zu verstehen,
- Die Risiken des KI-Systems einschätzen zu können,
- Verantwortungsbewusst mit dem KI-System umgehen zu können, um ethische, sichere und rechtskonforme Anwendungen zu gewährleisten.
Dies gilt für alle Arten von KI-Systemen!
Schulung und Qualifikation bei hochrisiko KI-Systemen
Die nachfolgende Artikeln geben ebenfalls hinweise zu den Anforderungen zur Schulung und Qualifikation der Betreiber und seine Mitarbeiter beim Einsatz von hochrisikobehafteten KI-Systemen.
- Artikel 9 und Erwägungsgrund 65 (Risikomanagement)
- Artikel 13 und die Erwägungsgründe 66 und 72 (Transparenz und Bereitstellung von Informationen für Einsatzkräfte)
- Artikel 14 und die Erwägungsgründe 73 und 66 (Menschliche Aufsichtsbehörden)
- Transparenz,
- Dokumentation,
- Sicherheitsmaßnahmen
- Risikobewertungen
Generativen KI-Modellen
Bis zum 2. Februar 2025 müssen Betreiber – Anwender – Nutzer von Generativen KI-Modellen wie ChatGPT, LLAMA und Claude oder andere Generative-Pretrained-AI-Modelle (GPAI) die Transparenzanforderungen der KI-Verordnung erfüllen.
Unternehmen, die diese Modelle verwenden, müssen sicherstellen, dass sie nutzerspezifische Informationen bereitstellen, Datenschutz gewährleisten und potenzielle Risiken überwachen.
Für hochrisikobehaftete Anwendungen sind zusätzliche Sicherheits- und Konformitätsprüfungen erforderlich.
Die Umsetzung dieser Vorgaben bis zum 2.Februar 2025 ist von zentraler Bedeutung, um rechtlichen Sanktionen zu entgehen.
02.02.2025