Business Circle: Sehr geehrter Herr Dr. Hasenauer, in unserem letzten Interview haben wir über Nachhaltigkeit gesprochen. Um die Brücke zum heurigen Thema zu schlagen: Wie können KI – Lösungen dazu dienen, Ressourcen schonender einzusetzen und Taxonomie-Standards zu erfüllen?
Clemens Hasenauer: Durch die Analyse großer Datenmengen und die Anwendung von maschinellem Lernen können KI-Systeme dabei helfen, den Einsatz von Ressourcen zu optimieren. Das kann beispielweise zur Verbesserung der Energieeffizienz von Gebäuden, der Überwachung von Lieferketten oder einer intelligenteren Verkehrssteuerung beitragen.
BC: Eine KI ist nur so gut, wie die Daten, mit der sie gespeist wird. Damit können einzelne Personen oder Unternehmen sehr großen Einfluss nehmen. Werden neben technischen Fähigkeiten für das Erstellen von KI-Systemen auch besondere ethische Qualifikationen notwendig?
Hasenauer: Entwicklern von KI-Systemen kommt ein ganz erheblicher Einfluss auf das tägliche Leben der Menschen zu, weshalb sie ganz besonders darauf achten müssen, möglichst vorurteils- und diskriminierungsfreie Programme zu schaffen. Ethische Qualifikationen sind aber nicht nur bei den Entwicklern, sondern auch bei denjenigen erforderlich, die die Systeme einsetzen, regulieren und politische Entscheidungen dazu treffen.
BC: Schon in der industriellen Revolution konnte die Gesetzgebung mit der technischen Entwicklung nicht immer Schritt halten. Wo lauern hier Ihres Erachtens die größten Gefahren?
Hasenauer: Neue Technologien und Innovationen können rechtliche Lücken schaffen, da es möglicherweise keine spezifischen Gesetze oder Vorschriften gibt, die auf sie zugeschnitten sind. Wenn es keine angemessenen gesetzlichen Rahmenbedingungen gibt, könnten bestimmte Technologien missbraucht werden. Dies kann von Datenschutzverletzungen über Cyberkriminalität bis hin zu ethisch fragwürdigen Anwendungen reichen.
BC: Daran anschließend: wo sollten seitens des Gesetzgebers Grenzen gezogen werden, damit die KI der Gesellschaft nicht entgleitet?
Hasenauer: Es ist wichtig, dass der Gesetzgeber in enger Zusammenarbeit mit Experten, Fachleuten und der Zivilgesellschaft arbeitet, um angemessene und ausgewogene Gesetze und Vorschriften zu entwickeln. Der rechtliche Rahmen sollte flexibel genug sein, um technologische Entwicklungen zu berücksichtigen und zugleich den Schutz von Gesellschaft und individuellen Rechten zu gewährleisten. Hierfür bedarf es auch klarer Haftungsregime.
BC: Eine Frage, die in Bezug auf KI schon lange diskutiert wird: Wer würde bei einem Verkehrsunfall autonomer, KI-gesteuerter Fahrzeuge haftbar sein?
Hasenauer: Das ist eine komplexe und vielschichtige rechtliche Fragestellung. Ganz neu ist das Problem aber nicht: Als im 19. Jahrhundert die Eisenbahn zu einem Massenverkehrsmittel wurde, stand der Gesetzgeber vor ähnlichen Problemen: Wer haftet bei Unfällen mit diesen neuartigen Eisenbahnen? Das Reichshaftpflichtgesetz von 1871 führte damals eine verschuldensunabhängige Haftung des Betriebsunternehmers ein, auch bei Verkehrsunfällen besteht heute eine verschuldensunabhängige Haftung des Fahrzeughalters. Denkbar wäre hier aber auch eine Haftung des Fahrzeugherstellers, der das KI-System entwickelt und in das Fahrzeug integriert hat oder des Software-Entwicklers, wenn die Ursache des Unfalls in einer fehlerhaften Programmierung liegt. Man wird sehen, ob auch wir unser Schadenersatzrecht an diese technischen Veränderungen anpassen werden müssen.
BC: Software zum KI-gestützten Erstellen von Verträgen ist ja schon länger im Einsatz. Inwiefern denken Sie, dass eine KI-basierte Urteilsfindung Einfluss auf das Berufsbild des Richters haben wird?
Hasenauer: Die Rolle des Richters als unabhängiger und unparteiischer Entscheidungsträger, der die Gesetze interpretiert und individuelle Umstände berücksichtigt, wird auch weiterhin absolut unverzichtbar sein. KI kann dem Richter aber als wertvolles Werkzeug dienen, etwa als Unterstützung bei der Recherche in großen Datenbanken und Gesetzesmaterialien, aber auch bei der Analyse von Präzedenzfällen, indem sie dem Richter dabei hilft, Muster und Trends in der Rechtsprechung zu erkennen. Aber Achtung: Zwei New Yorker Anwälten droht etwa bereits ein Disziplinarverfahren, weil sie Gerichtsentscheidungen in ihren Schriftsätzen zitierten, die gar nicht existierten, sondern von KI erfunden wurden.
Juristische Kernkompetenzen sind nicht automatisierbar
BC: Welche Fähigkeiten werden Juristen künftig brauchen? Welche Arten von nicht-automatisierbarer Beschäftigung werden in Zukunft im juristischen Arbeiten noch wichtiger werden?
Hasenauer: Die Fähigkeit, rechtliche Risiken zu bewerten, komplexe juristische Probleme zu analysieren und maßgeschneiderte Lösungen zu entwickeln, ist eine entscheidende nicht-automatisierbare Tätigkeit. Hier sind das menschliche Urteilsvermögen und auch ein reicher Erfahrungsschatz gefragt. Auch im Bereich der Verhandlungsführung und Streitbeilegung sind zwischenmenschliche Fähigkeiten erforderlich, da die menschliche Interaktion und das Verständnis von Emotionen bei der Lösung von Streitigkeiten und der Kompromissfindung unverzichtbar bleiben.
BC: Abschließend: Was wäre das wichtigste Learning, das das Publikum aus der Schluss-Diskussion mitnehmen soll? Welcher Impuls hinsichtlich KI sollte von der RuSt 2023 ausgehen?
Hasenauer: Das Publikum soll motiviert werden, sich aktiv mit KI auseinanderzusetzen, das Bewusstsein für deren Potenzial und Auswirkungen zu schärfen und zur Gestaltung einer verantwortungsvollen und nachhaltigen KI-Entwicklung beizutragen.
BC: Sehr geehrter Herr Dr. Hasenauer, wir danken Ihnen für dieses Gespräch und freuen uns schon auf die RuSt!
RA Dr. Clemens Hasenauer, LL.M., MBA, ist Managing Partner bei CERHA HEMPEL in Wien. Tätigkeitsschwerpunkte: M&A-Transaktionen, Gesellschafts-, Übernahme-, Kapitalmarktrecht & Umgründungen. Er leitet das auf M&A und Übernahmen spezialisierte Corporate Transactions Department. Er ist der fachliche Gesamtleiter der RuSt, welche heuer am 12./13. Oktober stattfinden wird. Die Closing Session ist dem Thema „KI – Gamechanger, Plagiat oder Bedrohung?“ gewidmet.