KI wirft jetzt ganz neue Fragen auf. Was bedeutet der Einsatz von KI arbeitsrechtlich? Was kann man mit den bestehenden Regeln lösen? So wie man sich vor bald 20 Jahren darüber unterhalten hatte, ob E-Mails im Vergleich zu Briefen Rechtsgültigkeit haben, entstehen jetzt mit dem rasanten technischen Fortschritt auch ganz neue rechtliche Fragen. Und da das Thema noch so neu ist, konnte es heute nur ein ganz grober, erster Überblick sein und ein Ausblick, wohin die Reise gehen könnte.
Künstliche Intelligenz ist dabei nicht fest definiert, zumal sie im eigentlichen Sinne auch nicht intelligent ist. KI kann nicht selbst denken, sie kann nur sammeln und zusammenstellen. Die Grenzen zwischen bekannten Apps und schon lange verwendeten Lösungen wie Übersetzungsprogrammen oder Rechtsschreibprüfungen zu neueren, auf Large Language Modells (LLMs) basierenden Lösungen sind dabei fließend:
„Als Künstliche Intelligenz werden Computersysteme bezeichnet, die intelligentes Verhalten zeigen, dh. die in der Lage sind, Aufgaben auszuführen, die in der Vergangenheit menschliche Kognition und menschliche Entscheidungsfähigkeit erfordert haben.“
(Bundesregierung Österreich)
Auch wenn die LLMs Basis sind, ist generative KI inzwischen schon weiter, als nur mit Sprache zu arbeiten. Auch Bilder und Videos sind nun möglich, was Gefahr sogenannter Deep-Fakes vergrößert.
Die Menschliche Firewall hat viele neue Löcher bekommen
Jeder User trägt mit jeder Frage zum Deep-Learning der KI Systeme bei. Das heißt aber auch, dass durch Fragen ("Prompts") in viele KI Anwendungen übermittelte Daten offenliegen und irgendwo in die Weiten des Netzes gehen. Das, was in den „Schrems“-Urteilen behandelt wurde – dass nämlich die Übertragung personenbezogener Daten in Länder außerhalb Europas unter bestimmten Umständen rechtswidrig sein kann – wird in diesem Kontext sogar noch übertroffen. Je bessere Antworten man will, desto genauere Fragen muss man stellen. Das heißt dann aber auch, dass durch Fragen oft personenbezogene Daten an die KI Systeme übermittelt werden, und damit Datenschutzfragen berührt sind. Daten, die unter personendaten- oder patentrechtlichen Schutz fallen, werden – meist aus Unachtsamkeit - schnell eingegeben und sind dann verfügbar. Wenn frei verfügbare Systeme wie GPT-3, LaMDA (Google), Turing-NLG (Microsoft) oder LLaMa (Meta / Facebook) nutzt, kann man nie sagen, wo die externen Daten in der Antwort herkommen und wo die internen Daten aus der Frage ("Prompt") hingehen und auch nicht, was mit den Daten in der Black Box der KI Anwendung gemacht wird. Hier kommt schon die bestehende DSGVO mit ins Spiel, während zukünftige Rechtsgrundlagen bereits in Arbeit sind.
Nur am Rande erwähnt, aber dennoch wichtig ist das aufkommende Nachhaltigkeitsproblem: KI-basierte Anwendungen verbrauchen gigantische Rechenleistung, für welche wiederum große Serverfarmen benötigt werden. Der Bedarf an elektrischer Energie ist keines falls zu unterschätzen, sondern bewegt sich in den Dimensionen des Energieverbrauchs größerer Städte.
Es wird auch in Zukunft nichts geschenkt geben
Gerade beim Umgang des HR-Managements mit personenbezogenen Daten wie bei der Auswahl von Bewerbern, der Zulassung zu beruflichen und anderen Fortbildungen, bei Entscheidungen über Beförderungen, Versetzungen oder Kündigungen oder für die Überwachung und Bewertung von Verhalten und Leistung der Belegschaft, spricht man von Hochrisiko-Anwendungen, die im Vorschlag für eine KI-Verordnung (AI Act) (COM(2021) 206 final) III schon mitbehandelt werden.
Bei nicht-Hochrisiko-Bereichen gibt es natürlich Einsatzmöglichkeiten in Personalentwicklung, Text- und Dokumentenmanagement, in denen viele Personenstunden eingespart werden können. Das betrifft aber meist niedrig qualifizierte Tätigkeiten und ist auch nichts bahnbrechend Neues. Wirkliche Prozesserleichterungen können sich zum Beispiel ergeben mit Fragebots für Onboarding-Prozesse oder bei Stellenbeschreibungen und Entwürfen für Online-Inserate.
Es ist davon auszugehen, dass die Mitarbeiter mit zunehmender Nutzung und immer mehr Kommunikation über KI-Systeme sensibler werden und mehr auf ihre Rechte und ihre Privatsphäre achten. Dafür muss aber HR durch entsprechende Learnings und Aufklärungen Beitrag leisten. Insbesondere können sich hier auch neue Felder für die Tätigkeiten des Betriebsrates ergeben. Das HR-Management muss hier schon sehr genau wissen, wie ein KI Tool funktioniert und mit welchen Daten es gefüttert wird. Der Einsatz von KI-Systemen kann Arbeit einsparen, aber die Ergebnisse dürfen nie ungeprüft übernommen werden.
Abschließend stellte Jana Eichmeyer noch den EU-Vorschlag der Richtlinie für künftige KI-Haftungsregelungen vor.
Der Mensch muss bei sensiblen KI-Anwendungen immer letztes Wort haben und die KI-gestützte Entscheidung muss nachvollziehbar und damit letztendlich auch juristisch zu verteidigen sein, wenn man als HR- oder Rechtsabteilung auf der sicheren Seite sein will.
RA Dr. Jana Eichmeyer, LL.M. gehört zu den führenden Expertinnen im österreichischen Arbeitsrecht. Sie ist Partnerin bei E+H Rechtsanwälte. Ihre Schwerpunkte liegen in allen arbeits- und sozialversicherungsrechtlichen Angelegenheiten, u.a. Rationalisierungs- und Restrukturierungsmaßnahmen, Gestaltung sowie Auflösung von Geschäftsführerdienst- und Vorstandsanstellungsverträgen, der Führung von Vorstands- und Geschäftsführerhaftungsprozessen sowie in Fragen des Gesellschaftsrechts.
Zu unserem Bereich "Human Resources"
Zu unserem Bereich "Datenschutz"