Wie der Datenschutz die Auswirkungen der KI zu spüren bekommt
Gregor König ist Group Data Protection Officer bei der Erste Group Bank. Im Vorfeld der PriSec sprechen wir über die Risiken, die KI für den Datenschutz bringt und wie man als CISO am besten damit umgeht.
Business Circle: Sehr geehrter Herr Dr. König, Sie sind Group Data Protection Officer bei der Erste Group Bank, können Sie uns kurz Ihren Weg beschreiben, der Sie dorthin geführt hat?
Gregor König: Ich habe in Wien Rechtswissenschaften studiert und mich im Postgraduate bereits auf Informationsrecht inklusive Datenschutzrecht spezialisiert. Dies kam mir bereits zu Gute, als ich vom Verwaltungsgerichtshof zur Datenschutzkommission, der Vorgängerbehörde der heutigen Datenschutzbehörde, gewechselt bin. Ich war zunächst als Referent tätig, später dann mehrere Jahre als stellvertretender Leiter der Geschäftsstelle und geschäftsführendes Mitglied der Kommission. 2014 bin ich in die Erste Group gewechselt, habe dort die Datenschutzorganisation aufgebaut und gestaltet und bin seit Inkrafttreten der DSGVO als Gruppendatenschutzbeauftragter (sowie lokaler DPO der Gesellschaften in Österreich) tätig.
BC: Welche sind Ihres Erachtens die größten Risiken für den im Zusammenhang mit KI und Datenschutz?
König: KI stellt zunächst eine neue technologische Entwicklung dar, die von der technologieneutralen DSGVO gleichermaßen wie anderen Formen der Datenverarbeitung erfasst wird. Mit einigen Grundsätzen der DSGVO tut sich die KI-Verwendung aber schwer: das betrifft einerseits die Erklärbarkeit der Vorgänge im Zusammenhang mit der Rechenschaftspflicht des Verantwortlichen, demzufolge der Transparenz gegenüber den betroffenen Person, aber auch der Richtigkeit der Daten (Stichwort: Halluzinationen der KI) sowie dem Grundsatz der Datenlöschung, was aus Modellen schwierig bis unmöglich ist. Hier gibt es noch keine zufriedenstellenden Antworten.
BC: Better safe than sorry: Was sollte der CISO vor allem beachten, um den Einsatz von KI möglichst risikoarm zu halten?
König: Ganz grundsätzlich ist, auch im Hinblick auf den AI Act, eine solide Governance im Unternehmen zur Behandlung von KI Usecases aufzubauen. Das bedeutet
• Involvierung aller relevanten Stellen, neben Security auch Legal, Datenschutz, Compliance, IT etc.,
• Aufbau einer ausreichenden Awareness zum Thema, den Gefahren von KI sowie den rechtlichen Anforderungen und Schnittstellen (zu Datenschutz, Urheberrecht, etc)
• Adaptierung bestehender Prozesse der IT Governance im Hinblick auf die Besonderheiten der KI. Ein Pre-Check nach den von der CNIL (französische Datenschutzbehörde) erarbeiteten Fragebögen kann hier Sinn machen
BC: Daten, die unter personendaten- oder patentrechtlichen Schutz fallen, werden – meist aus Unachtsamkeit – bei Prompts schnell eingegeben und sind dann irgendwo in den Weiten des Netzes. Wie ist der unternehmensinterne Datenschutz hier gefordert, was kann man tun, um die „menschliche Firewall“ wieder dicht zu bekommen?
König: Wann immer Menschen Daten an einer Schnittstelle verarbeiten, deren Missbrauch man nicht rechtssicher technisch beschränken kann, sind drei Säulen von Bedeutung:
• strenge Regeln zur Verwendung – was darf eingegeben werden oder – manchmal sinnvoller – wo liegen die Grenzen der zulässigen Eingabe
• Awareness, awereness, awareness zu diesen Regeln, in unterschiedlicher Form und regelmäßig
• Adäquate Kontrollsysteme, deren Ergebnisse wiederum die Regeln und Awarenessmaßnahmen beeinflussen können
KI-generierte Ergebnisse immer plausibilisieren
BC: KI-gestützte Systeme werden häufig als „Black Box“ wahrgenommen, man weiß nicht wie die Algorithmen funktionieren und mit welchen Daten die Systeme „gefüttert“ werden. Wie geht man damit um, besser eigenen Systeme programmieren oder die erhaltenen Ergebnisse dann doch mit einer gewissen Skepsis betrachten?
König: Beides hilft: natürlich ist das eigens kreierte KI System auf eigenen Systemen das relativ sicherere – was allerdings einen Preis hat. Jedenfalls darauf achten sollte man, dass kein offenes KI-System verwendet, das die Erkenntnisse aus den eingespielten Informationen auch für andere Unternehmen und KI-Kunden verwendet. Geschlossene Systeme, zumal wenn personenbezogene Daten verwendet werden sollen, sind hier unumgänglich. In allen Anwendungsfällen rät es sich außerdem, Ergebnisse der KI zu plausibilisieren – viele Anwendungsfälle lösen ja manuelle bestehende Prozesse ab, das entsprechende Wissen um korrekte Ergebnisse sollte also vorhanden sein. Wenn in Zukunft KIs mit KIs interagieren oder solches Wissen fehlt, ist größere Skepsis angebracht, sind aber auch die Möglichkeiten der Kontrolle eingeschränkt bzw nicht (mehr) vorhanden.
BC: Zum Abschluss: Sie begleiten Die PriSec jetzt schon seit Anfang an. Was ist für Sie das Besondere an dieser Konferenz und der Community?
König: Die PriSec ist insofern einzigartig, als sie im Konferenzbereich die Themen Security und Datenschutz verschränkt – was die Praxis in Unternehmen sehr gut widerspiegelt. Ich kehre immer wieder gerne zurück, nicht nur wegen der interessanten Vorträge und fachlichen Inputs, sondern auch aufgrund der vielen fachlichen Kollegen und Freunde, mit welchen man sich in lockerer Atmosphäre austauschen kann.
BC: Sehr geehrter Herr Dr. König! Danke für dieses Gespräch, wir freuen uns aus das Wiedersehen zur PriSec!
_______
Bei der PriSec am 14./15. Oktober ist Mag. Dr. Gregor König, LL.M., MA Teil einer Podiumsdiskussion zum Thema KI und Datenschutz und Gastgeber eines Round Tables.