KI-Einsatz im Unternehmen: Sind Ihre Beschäftigten schon geschult?
Seit 2. Februar 2025 gilt für Unternehmen die europäische KI-Verordnung: Im Zuge des EU AI Act werden ihnen damit vor allem Pflichten bei der KI-Kompetenz auferlegt, einige Anwendungen zudem verboten. Unternehmen, die Produkte oder Dienstleistungen mit Künstlicher Intelligenz anbieten, müssen nun sicherstellen, dass ihre Beschäftigten über ausreichend KI-Kompetenz verfügen, sie also geschult sind. Es gibt keine Ausnahmen für KMU oder gemeinnützige Organisationen, und schon die Nutzung von ChatGPT oder Microsoft Copilot spielt dabei eine Rolle.
Für wen gilt der EU AI Act?
Die europäische KI-Verordnung gilt zum einen für Anbieter von KI-Systemen. Dazu gehören alle Unternehmen und Organisationen, die KI-Systeme entwickeln und auf dem europäischen Markt anbieten. Auch solche mit Sitz außerhalb der EU sind betroffen, wenn ihre KI-Systeme in der Europäischen Union eingesetzt werden.
Aber nicht nur die Anbieter selber müssen ihre Beschäftigten im Umgang mit KI schulen, auch die Nutzer von KI-Systemen – also alle Personen und Organisationen, die KI-Systeme innerhalb der EU verwenden, unabhängig davon, wo sich der Anbieter befindet. Und nicht zuletzt Importeure und Händler: Wer KI-Systeme aus Drittländern in die EU importiert oder hier vertreibt, unterliegt dem EU AI Act.
Zu den wenigen Ausnahmen gehören Aktivitäten im Bereich der Forschung und Entwicklung von KI-Systemen ausgenommen, um Innovationen nicht zu behindern. Auch für KI-Systeme, die für private und nicht-berufliche Tätigkeiten genutzt werden, gilt der EU AI Act nicht.
Was ist seit 2. Februar 2025 verboten?
Der EU AI Act verbietet bestimmte KI-Systeme, die als zu riskant eingestuft werden.
- Manipulative KI-Systeme: Systeme, die unterschwellige oder täuschende Techniken nutzen, um das Verhalten von Personen oder Gruppen zu beeinflussen und dabei ihren freien Willen zu umgehen, was potenziell erheblichen Schaden verursachen kann.
- Ausnutzung menschlicher Schwächen: KI-Systeme, die gezielt Schwächen von Menschen ausnutzen, z. B. aufgrund von Alter, Behinderung oder sozialer Lage, und dadurch Schaden verursachen können.
- Social Scoring: Systeme, die Menschen auf Basis ihres Verhaltens oder anderer Merkmale bewerten, ähnlich wie das “Social Scoring” in einigen Ländern.
- Echtzeit-Biometrische Überwachung: Systeme, die in Echtzeit biometrische Daten wie Gesichtserkennung im öffentlichen Raum nutzen, es sei denn, sie sind ausnahmsweise für Strafverfolgungszwecke zugelassen.
Entscheidend: Artikel 4 der KI-Verordnung
Unternehmen, die KI-Systeme nutzen oder entwickeln, müssen gewährleisten, dass ihre Beschäftigten die dafür notwendige Kompetenz haben, „wobei ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI‑Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI‑Systeme eingesetzt werden sollen, zu berücksichtigen sind“, heißt es in Artikel 4. Die Schulung muss also auf den konkreten Einsatz von KI-Systemen im Unternehmen abgestimmt sein.
Hochrisiko-KI
Gerade der Einsatz sogenannter Hochrisiko-KI birgt Risiken für Menschen und Gesellschaft speziell in Bereichen wie Sicherheit, Privatsphäre, Menschenrechte oder sogar demokratischen Prozessen. Beispiele:
- Medizin: Entscheidungen zur Diagnostik oder Therapie
- Justiz: Unterstützung bei Urteilsfindungen oder rechtlichen Bewertungen
- Überwachung: Gesichtserkennung oder andere invasive Technologien
- Autonome Systeme: Selbstfahrende Fahrzeuge oder Waffensysteme
Der Fokus des AI Acts bei Hochrisiko-KI liegt darauf sicherzustellen, dass diese Technologien so entwickelt und verwendet werden, dass sie transparent, ethisch und sicher sind.
Risikobewertung: Das müssen Unternehmen jetzt tun
Ziel des EU AI Act ist der sichere und transparente Umgang mit KI unter Einhaltung ethischer Standards. Unternehmen, die solche Systeme entwickeln oder nutzen, sind nun gefordert:
- Risikobewertung und Klassifizierung: Unternehmen müssen ihre KI-Systeme bewerten und in Risikokategorien einteilen. Erfüllen die Systeme die Anforderungen des EU AI Acts nicht, müssen sie entweder verändert oder aus dem Vertrieb genommen werden.
- Schulungen und Kompetenzen: Die Überwachung und rechtskonforme Nutzung von KI-Systemen sind jedoch nur möglich, wenn die Beschäftigten entsprechende Kompetenzen im Umgang mit KI haben. Deshalb sind seit Februar entsprechende Schulungen vorgeschrieben.
- Technische Dokumentation: Unternehmen müssen detaillierte technische Dokumentationen vorlegen, aus denen zu entnehmen ist, wie ihre KI-Systeme funktionieren, um sie transparent und nachvollziehbar zu machen.
- Überwachung: Insbesondere Unternehmen mit Hochrisiko-KI-Systemen müssen diese kontinuierlich überwachen und auditieren, damit sie durchgängig den gesetzlichen Vorschriften genügen.
- Registrierung und Berichterstattung: Hochrisiko-KI-Systeme müssen in einer zentralen EU-Datenbank registriert werden, um die Einhaltung der Vorschriften zu gewährleisten.
Konsequenzen
Unternehmen, die die Anforderungen der KI-Verordnung nicht erfüllen, drohen hohe Bußgelder von bis zu 6 % des weltweiten Jahresumsatzes. Allerdings: Wie genau die Beschäftigten die KI-Fachkenntnis erwerben sollen, ist nicht geregelt. Es gibt auch noch keine Schulungsanbieter, die selber dafür zertifiziert sind.
Wer den EU AI Act also jetzt umsetzen muss, sollte vor allem nah am Anwendungsfall des jeweiligen Beschäftigten schulen und sensibilisieren, bis die Vorschriften konkretisiert sind.
Lassen Sie uns miteinander sprechen, wie wir Sie zum Beispiel bei der Risikoanalyse unterstützen können.