Arbeitswelt der Zukunft
Klare Grenzen: Was Künstliche Intelligenz nicht mehr darf
Neue EU-Verordnung soll auch in der Arbeitswelt für mehr Sicherheit und Fairness sorgen
Künstliche Intelligenz (kurz: KI) ist auch aus unserem Arbeitsalltag nicht mehr wegzudenken. In vielen Bereichen erleichtert und beschleunigt KI zahlreiche Arbeitsschritte.
Damit Firmen und Unternehmen KI verantwortungsvoll einsetzen, Missbrauch verhindert wird und die Grundrechte der EU-Bürger:innen geschützt werden, hat die EU die KI-Verordnung erlassen.
Die Anforderungen der KI-Verordnung treten in den nächsten zwei Jahren schrittweise in Kraft und bringen umfangreiche regulatorische Anforderungen mit sich. Bereits seit dem 2. Februar 2025 gibt es eine Liste verbotener KI-Praktiken und Personen, die KI in Unternehmen einsetzen, müssen „KI-Kompetenz“ nachweisen.
Die Verordnung, die als erste umfassende Regulierung im Bereich der künstlichen Intelligenz gilt, soll einen vertrauenswürdigen und sicheren Einsatz von KI gewährleisten. Für Unternehmen bedeutet die Verordnung weitreichende Veränderungen bei der Entwicklung, Nutzung und Implementierung von KI-Systemen.
„Unternehmen müssen prüfen, ob die von ihnen eingesetzten KI-Systeme unter die verbotenen Praktiken der KI-Verordnung fallen. Wer solche Systeme weiter betreibt, muss mit empfindlichen Bußgeldern rechnen. Mit diesen neuen Verboten setzt die EU ein Zeichen für den Schutz der Bürger:innen“, erklärt Sebastian Klocker, ÖGB-Digitalisierungssexperte.
Folgende KI-Praktiken sind seit 2. Februar 2025 in der EU verboten:
1. Manipulation und Täuschung
KI-Systeme dürfen nicht eingesetzt werden, um Menschen bewusst zu manipulieren oder zu täuschen. Dies betrifft beispielsweise unterschwellige Botschaften oder Tricks, die das Verhalten von Menschen ohne deren Wissen beeinflussen. Ziel ist es, Schaden durch solche Methoden zu verhindern.
2. Ausnutzung von Schwachstellen
Besonders schutzbedürftige Gruppen wie Kinder, ältere oder sozial benachteiligte Menschen dürfen nicht gezielt durch KI-Technologien beeinflusst werden. Dies soll sie vor unfairer Behandlung oder Ausbeutung schützen.
3. Soziale Bewertungssysteme ("Social Scoring")
KI-Systeme, die Menschen nach ihrem Verhalten oder anderen Kriterien bewerten, sind verboten. Solche Systeme können zu ungerechtfertigten Benachteiligungen führen, etwa indem sie bestimmte Gruppen bevorzugen oder benachteiligen.
4. Kriminalitätsvorhersage durch Profiling
KI darf nicht allein aufgrund von Profilen oder Persönlichkeitsmerkmalen vorhersagen, ob jemand eine Straftat begehen könnte. Es gibt jedoch Ausnahmen: Wenn objektive Beweise vorliegen und Menschen in den Entscheidungsprozess eingebunden sind, dürfen solche Systeme unter bestimmten Bedingungen eingesetzt werden.
5. Gesichtserkennungs-Datenbanken
Das massenhafte Sammeln und Speichern von Gesichtern aus dem Internet oder von Videoaufnahmen ist verboten. Diese Praxis könnte zu flächendeckender Überwachung und Missbrauch führen.
6. Emotionserkennung am Arbeitsplatz und in der Schule
KI-Systeme, die die Gefühle von Arbeitnehmer:innen oder Schüler:innen analysieren, sind nicht erlaubt. Ausnahmen gibt es nur für medizinische oder sicherheitsrelevante Zwecke.
7. Biometrische Kategorisierung
Menschen dürfen nicht anhand biometrischer Daten (z.B. Gesichtszüge oder Stimmmerkmale) bestimmten Gruppen zugeordnet werden, z.B. nach ethnischer Herkunft, Religion oder politischer Einstellung. Eine Ausnahme gilt für Strafverfolgungsbehörden, wenn sie rechtmäßig erhobene Daten auswerten.
8. Biometrische Fernidentifikation in Echtzeit
Das Scannen von Gesichtern in der Öffentlichkeit zur Identifizierung von Personen ist grundsätzlich verboten. Es gibt jedoch Ausnahmen, z.B. bei der Suche nach Vermissten, der Abwehr terroristischer Gefahren oder der Fahndung nach Straftätern. Hier gelten allerdings strenge Voraussetzungen.
KI-Kompetenz als zentrale Anforderung des KI-Gesetzes
Die Verordnung verlangt, dass alle Personen, die mit dem Einsatz und Betrieb von KI-Systemen betraut sind, über ein „angemessenes Maß an KI-Kompetenz“ verfügen müssen.
Was genau als „angemessen“ gilt, ist jedoch auslegungsbedürftig und hängt von mehreren Faktoren ab - unter anderem von den Vorkenntnissen der Mitarbeitenden, dem spezifischen Anwendungsbereich der KI sowie den betroffenen Zielgruppen. Um diesen Anforderungen gerecht zu werden, sollten Unternehmen frühzeitig Schulungsmaßnahmen einplanen, die technische, regulatorische und anwendungsspezifische Aspekte abdecken.
Die Einführung von KI-Systemen am Arbeitsplatz kann das Machtungleichgewicht zwischen Arbeitgebern und Arbeitnehmer:innen verschärfen, da Betriebsräte oft nur begrenztes Wissen über die Systeme haben - dies kann die Durchsetzung von Mitbestimmungsrechten erschweren.
Der ÖGB fordert:
- Der Einsatz von KI muss unter Einbeziehung der Arbeitnehmer:innen erfolgen, um positive Effekte wie gesündere und sicherere Arbeitsbedingungen sowie mehr Freizeit und Flexibilität zu ermöglichen.
- Für viele KI-Systeme, die bereits im Einsatz sind, muss es zwingend Betriebsvereinbarungen geben, insbesondere wenn es sich um Kontrollmaßnahmen handelt, die die Menschenwürde berühren oder die Verarbeitung personenbezogener Daten geht.
In Betrieben ohne Betriebsrat sind Einzelvereinbarungen zu schließen.
- Stärkung der Mitbestimmungsrechte: Der ÖGB setzt sich für die Sicherstellung der Mitbestimmungsrechte der Arbeitnehmer:innen sowie ihrer (über)betrieblichen Interessenvertretungen ein.
- Arbeitnehmer:innenvertretungen sollen in die Gestaltung von KI-Technologien sowie in Standardisierungs- und Kodifizierungsprozesse eingebunden werden.
- Zur Qualifizierung der Beschäftigten im Umgang mit KI muss es gezielte Maßnahmen in Unternehmen geben.
- Transparenz beim Einsatz von KI: Unternehmen müssen offenlegen, welche KI-Systeme verwendet werden, welche Daten verarbeitet werden und welche Auswirkungen diese auf die Arbeitsbedingungen haben.