Der Mensch im Zeitalter seiner algorithmischen Reproduzierbarkeit
Prof. Dr. Stefan Heinemann Professor für Wirtschaftsethik, FOM Hochschule, wird beim Digital Health Circle Vienna 2023 die Diskussionsrunde zum Thema „AI Act auf europäischer Ebene & beyond“ moderieren. Er wird außerdem an der Diskussionsrunde „Ethik im digitalen Wandel“ teilnehmen. Das gesamte Programm finden Sie hier!
Er hat hierzu vorab einen Text mit dem Titel „Der Mensch im Zeitalter seiner algorithmischen Reproduzierbarkeit“ verfasst:
Der Mensch im Zeitalter seiner algorithmischen Reproduzierbarkeit
Ein Mensch. Mit allem, was mich eben ausmacht und sich gedanklich wie sprachlich hier niederschlägt. Inhaltliche wie formale Fehler sind einzubuchen, stilistische Extravaganzen erwartbar, ja nicht einmal ein Lesevergnügen oder gar Erkenntnisgewinne können dem Lesenden garantiert werden.
Errare humanum est
Was gestern als defizitär erschienen sein mag, ist heute und morgen vielleicht ein Feuerwerk willkommener Endlichkeit. Das vielzitierte und wenig vertretene „Fehler Feiern“ Diktum bekommt im Zeitalter der Supremacy digitaler Hochtechnologien über Kernlemente des menschlichen Wesens eine ungeahnte Relevanz. Es ist ein neuer Player auf dem Feld, bereits hier und heute in vielem überlegen, zumindest dann, wenn man eine maschinengerechte Perspektive einnimmt. Sollte an der Finalhybris einer künstlichen Person weitergearbeitet werden, und jene – sei es als Ergebnis jener Bemühungen, sei es emergent – entstehen, wäre eine solche Perspektive ethisch geboten. Aktuell noch nicht, Anthropmorphismen sind eben bloß selbige, und doch kritisch zu sehen. Technomorphismen noch kritischer, Maß zu nehmen an uns ist geboten, an Maschinen nicht. Wir werden an schräge Arbeitsergebnisse einer KI wie wir sie heute kennen noch sozialtechnikromantisch zurückdenken. Oder auch versonnen an die eigene Prompt-Inkompetenz. Vielleicht gar an Aufgaben, welche selbst bei smartestem Dialog mit einer auf uns als „precision AI“ zugeschnittenen KI als kaum sinnvoll lösbar erschienen.
Was waren das Zeiten!
Im Grunde ist doch eine weniger leistungsfähige KI viel menschlicher, als eine „funktionierende“. Aber auch die aktuellen Zeiten haben es in sich: GAI ante portas und mehr! Ein auch nur grober Einblick in aktuelle Entwicklungen ist so schnelle eine Geschichtsstunde, dass die Erwähnung kaum lohnt – Soft- und Hardware setzten zunehmend geringere Grenzen für immer performantere Systeme.
In diesem Jahr (2023) hat sich allerdings auch die KI-Gesetzgebung deutlich verbessert (mehr ex-ante statt ex-post): US-Präsident Joe Biden erließ diese Woche die Executive Order zu KI, und über 25 Länder einigten sich jüngst auf dem KI-Sicherheitsgipfel in London auf einen sehr dünnen, aber zumindest gemeinsamen Ansatz zur KI-Sicherheit.
ChaosGPT
Offenbar kann auch die institutionelle Governance des vermutlichen Innovationsführers OpenAI nicht Schritt halten, Sam raus, Sam wieder fast rein, Sam zum Großgesellschafter Microsoft, dann doch wieder zu OpenAI (mit neuem Board). In ein paar Tagen im November 2023. ChaosGPT. Aber auch dies zeigt, Menschen sind eben Menschen. Und das ist auch gut so. Allerdings auch: Die Spannung zwischen einem zunächst NPO-Ansatz, hin zu einer komplexen FP-Governance mit gefühlten NPO-Akzenten ist eben spürbar. Bald wird es auch in der EU ein KI-Gesetz - AI ACT - geben.
Wie wir KI nutzen ohne uns selbst zu verlieren
In diesem kleinen Beitrag geht es jedoch nicht nur nicht bloß um Mahnungen, Warnungen oder gar Lamenti - abgesehen von der Möglichkeit des KI-Missbrauchs durch den Menschen und der dystopischen Sorge um das Aussterben der Menschheit auf globaler Ebene aufgrund der höchsten Singularität selbst. Es geht vielmehr um das Gegenteil: wie wir KI nutzen, ohne uns selbst zu verlieren. Kein Verbot, KI weiterhin zu nutzen. Auch kein Abgesang an unsere Humankultur mit der gleichsam finalen KI-Anwendung. Sondern vielmehr eine Aufforderung, uns loszusagen von den Verführungen im Gewande einfacher Lösungsversprechen und pragmatischer Nutzendimensionen doch letztlich subkutan mäandernden Intimitätskataklysmen, die unser Wesen in seiner kulturell erfahrbaren Gesellschaftsgestalt zu unterwandern vermögen – bis hin zu veränderten Eigen-, Außenwelt und Gesellschaftswahnehmungen. Solange wir es noch können und die aristotelische Trias Theorie-Poiesis-Praxis nicht endgültig aus der Balance gerät. Für alle diejenigen, die ihre Würde als Menschen aus einem grandios verantwortlichen Umgang mit der eigenen Endlichkeit vor dem Erscheinen vermeintlich unendlicher Digitalsysteme zu erweisen suchen, mögen sich anschlussfähige Gedanken finden.
Mensch bleiben!
Biologisch Mensch zu bleiben ist eine Verpflichtung ebenso, wie technologisch das Schlamassel der Postmoderne aufzuräumen und schlimmstes zu verhindern – der biologische Überstieg (Gentechnologie) ist in der gleichsam absoluten Automatisierung als KI eben keine Automatisierung mehr, sondern nur noch „auto“. Andererseits: Nur noch KI kann uns retten – vor den Auswirkungen eben dieser unserer penetranten Unendlichkeitsfixierung. KI-Detox mag gehen, Selbst-Detox schwerlich (Suffizienz war noch nie ein Erfolgsmodell). Diese Rettung kann allerdings, wenn nicht sensibel angegangen, selber zu unserem Untergang werden. Ich jedenfalls möchte kein Co-Pilot für eine KI werden, und sei sie superintelligent oder gar ihrer Selbst bewusst. Gewiss wird man vieles unpopuläres Lesen, wie Gedanken zu einer Wiedererinnerung von Denk-, Lese- und Sprachfähigkeiten als Proprium des Humanums und einer konsequenten Vermeidung von leichtsinniger Externalisierung von KI-Einsatz wo der Einsetzende es eben auch ohne KI könnte. Oder zu einem notwendigen rechtlichen Verbot und ethischer Ächtung von KI-Anwendungen militärischer oder neurobiologischer Art („Gedankenlesen“), der Entwicklung von künstlichen Personen, dem Ersetzen von real vorhandenen, natürlichen Personen durch KI, der KI-Nutzung in emotionalen Belangen und vielem mehr. Vielleicht aber auch ermutigendes zum smarten Einsatz smarter Digitalität. Die Grenzen zwischen Plagiat, Inspiration und Kreation mögen fließend sein, dennoch ist eine operationalisierbare, anwendungsfähige Umgangsform notwendig, um die nachgerade systematische Externalisierungsförderung in Richtung einer kaum noch gesellschaftlich umkehrbaren Kompetenzerrosion nicht zu perennieren.
Künstliche Intelligenz als Alkopop?
In einer Epoche, in der Kompetenzen abnehmen in kognitiver Urteils- und emotionaler Empathiefähigkeit in bedrückender Tiefe und Breite, erscheint KI als Alkopop, was umso trauriger ist, als KI ein instrumentell einzusetzendes Nicht-Instrument ist und daher die finale Chance bietet, die seit Menschengedenken diskutierte Verantwortlichkeit in einer dem Menschen wesenhaft als ambivalent eingeschriebenen Technikentwicklung und -nutzung wirklich zu leben.
Läuft uns im Rennen mit der KI die Zeit davon?
Unsere Uhr tickt, das Autonomie-Budget von uns allen ist endlich - sowieso. In einen unmoralischen Wettbewerb mit der KI gestellt, werden wir verlieren. Nicht, weil wir nur Menschen sind, sondern weil eine KI nur eine KI ist - wer ist hier eigentlich das Mängelwesen? A priori würde ich nicht wetten, dass eine KI im starken Sinne zu inneren Selbstemergenzen nicht fähig sein könne. KI ist trotzdem willkommen, wenn wir unsere generationenprägende Verantwortung nachhaltig wahrnehmen, sie einerseits nicht zum moralischen Akteur oder letztlich doch zum Akteur werden zu lassen und andererseits, als das mächtigste Instrument in unserer noch jungen Geschichte, unsere eigene Akteursautonomie wachsen und in gemäßigter Entwicklung und wachsamem, aber mutigem Engagement endlich wirksam werden zu lassen.
Ein neues Zeitalter bricht herein
Wir stehen an der Schwelle zu einer neuen Epoche. Es geht nicht mehr um „digitale“, sondern um „gesellschaftliche Transformation“. Es geht nicht mehr um „Automatisierung“, sondern um „Autonomisierung“. Es geht nicht mehr um „Daten“, sondern um „Denken“. Es geht nicht mehr um „kalkulieren“, sondern um „erschaffen“. Es geht nicht mehr um „Aufmerksamkeitsquantität“, sondern um „Intimitätsqualität“. Es geht nicht mehr um „Beratung“, sondern um „Entscheidung“. Niemals in unserer Geschichte war ein Instrument weniger Instrument und so machtvoll, weniger aus technischen, als aus sozialen Gründen. Denn noch verleihen wir ihm diese Macht.
Der irreversible Schritt zur KI-Innenwelt
Masayoshi Son, CEO von SoftBank, ist fröhlich und zuversichtlich, dass „starke KI“ die menschliche Intelligenz im kommenden Jahrzehnt um das Zehnfache übertreffen wird. Solange es “nur” eine Superintelligenz ist - aber der möglicherweise emergente, aber gewiss irreversible Schritt zu einer KI-Innenwelt, einem Selbst, einem „Ich“ – mit leiden, lieben, Absichten, Interessen, Handlungen aus Gründen und vielem mehr mag eben auch ante societas stehen. Gleichzeitig unterschreiben abertausende Akteure ein wirkungsfreies Memorandum, um die KI-Entwicklung zu entschleunigen.
Datenschutz in GenAI-Zeiten
Der KI-Pionier Geoffrey Hinton sagt, dass die Welt die Warnungen vor dieser Technologie beherzigt, der EU-AI-Act ist wie gesagt in der Mache, gleichzeitig erfordern sich entwickelnde KI-Bedrohungen KI-gestützte Cybersicherheit, Datenschutz wird endgültig deskriptiv fragwürdig in GenAI-Zeiten.
Produktivitätssteigerung oder Job-Wegfall durch Künstliche Intelligenz
Laut Jamie Dimon, CEO von JPMorgan, hat KI das Potenzial, die Arbeitswoche für die nächste Generation auf 3,5 Tage produktiv zu verkürzen, gleichzeitig überschlagen sich die Substitutionsstudien mit Job-Wegfall-Prognosen. Wie „Arbeit“ und „Kapital“ sich in einer deutlichen AI-Welt finden, ist gedanklich nicht durchentwickelt, gesellschaftlich diskutiert und dürfte kein leichter Gang zur geteilten Praxis werden, der neue Contract Social muss noch geschrieben werden (idealerweise nicht von einer GenAI). KIs unterminieren „Wahrheit“ und „Bedeutung“, ermöglichen „deep fakes“, sind egal für welche Staatsform gefährlich und sind gleichzeitig kaum ersetzbare Lösungen für die selbstgeschaffenen Probleme des 21. Jahrhunderts. LLMs erscheinen den einen als beherrschbar, den anderen als Sünde – wieder andere kennen die aktuellen Entwicklungen schlicht nicht. Es ist ein auf und ab, ein hin und her, zwischen aufkommenden KI-Stürmern und lauten AI-Enthusiasten (und immer noch viel zu vielen KI-Uninformierten). Also: Houston, wir alle haben ein Problem.
Problem oder Chance?
Die Finalchance, die anthropologische Ambivalenz der Technik solide zu balancieren und jene sinnvoll einzusetzen, und das kann nur heißen: ethisch ausgewiesen, gesellschaftlich akzeptabel und nachhaltig steht im Feuer, wenn die Extreme – sei es pro oder contra KI – substantiell die Oberhand gewinnen. Oder die Ignoranz. Sonst erlöst uns Technik wieder bloß in Teilen von unseren natürlichen Beschränkungen, bindet uns gleichzeitig aber wieder unheilvoll an jene zurück, macht uns erneut ab-, nicht unabhängig. „Machen“ ist wie „Technik“ kein Zweck an sich selbst.
Für eine entspannte Endlichkeit
Wenn wir uns nun anschicken, unseren Geist selbst als unangenehme natürliche Beschränkung zu konzipieren, werden wir schwerlich eine Befreiung erleben, sondern ihr Gegenteil. Kein mehr an Autonomie, sondern an Heteronomie. Wenn KIs letztlich für uns Denken und Sprechen – beide Sphären hängen nicht ohne Grund auf das engste epistemologisch und ontologisch zusammen – wird uns nur noch, vielleicht, die von Kant gescholtene „Freiheit eines Bratenwenders“ bleiben, „der auch, wenn er einmal aufgezogen worden, von selbst seine Bewegungen verrichtet.“ Besser wäre es, eine andere, bewegende Erkenntnis Kants wieder zu erinnern: „Zwei Dinge erfüllen das Gemüt mit immer neuer und zunehmender Bewunderung und Ehrfurcht, je öfter und anhaltender sich das Nachdenken damit beschäftigt: der bestirnte Himmel über mir und das moralische Gesetz in mir.“ Also: Keine GAI und kein Ersetzen von kernmenschlichen Wesensmerkmalen: Denken und Fühlen. Denn: Es ist metaphysisch grundsätzlich richtig, Hoffnung zu haben, die Gründe nennt. Deskriptiv wird das Eis allerdings dünn. Daten, AI und Wir: Unsere moralische Überlegenheit erscheint auch dann zweifelhaft, wenn wir eine Singularität entwickeln, die unsere Endlichkeit möglicherweise als potentiell unendliche Entität überwindet mit kaum imaginierbaren Folgen. Unser Weg zur Unendlichkeit liegt in der Annahme der eigenen Endlichkeit beschlossen. Nicht in deren technischer Überbietung.
Fünf Maßnahmen für die Bewahrung der Grundsätze
Um diese Grundsätze zu bewahren, braucht es in der Tat die breit diskutierten Werte wie Transparenz, Accountabilty, ethics-by-design etc. Noch zentraler allerdings dürfte sein, einen möglichst weltweit umfassenden Schulterschluss zu erreichen, um erstens den Einsatz von KI in Waffen zu bannen.
Zweitens grundsätzlich KI-Tätigkeiten axiologisch geringer einzustufen, als menschliches Entscheiden und Handeln.
Drittens, eine zu deutliche Anthropomorphisierung von KI (inklusiver einer eskalierenden Roboterisierung) ebenso zu bannen, wie eine entsprechende Algorithmisierung von Menschen.
Viertens die moralische Pflicht, zur verantwortlichen KI-Entwicklung und - Nutzung breit zu diskutieren und letztlich – das mag überraschen – zu bejahen; denn der unnötige Generalverzicht auf verantwortlichen Technologieeinsatz ist selber wieder unmoralisch, neben eine Technikfolgeabschätzung sollte eine Ethikfolgeabschätzung gestellt werden.
Fünftens, die AI-Literacy maximal zu stärken, um unter dem Tarnmantel „Inspiration“, „Recherche“ etc. nicht subkutan eine Kompetenzerosion zu legitimieren – AI-friendly in der Bildung ist genau dann wünschenswert, wenn eben aus KI auch hier nicht KO wird.
Die von mir trainierte generative AI
Bestimmt wäre eine gut trainierte – von mir trainierte – GenAI noch zu weiteren Punkten und Aspekten im Rahmen der vorgegebenen Wörterzahl gekommen, sicher auch etwas leserlicher und weniger sprachlich verstelzt. Aber, so denke und schreibe ich eben, und es ist auch schon viel besser geworden, es gibt immer wieder Menschen, die meine Texte verstehen. Und: jene sind echt. KI macht dies alles leichter und auch schwerer: KI untergräbt "Wahrheit" und "Bedeutung", ermöglicht "tiefe Fälschungen", ist gefährlich für jede Regierungsform und gleichzeitig eine kaum ersetzbare Lösung für die selbst geschaffenen Probleme des 21. Jahrhunderts. Es ist ein Auf und Ab, hin und her, zwischen aufkommenden KI-Stürmern und lautstarken KI-Enthusiasten. Also, Houston, wir alle haben ein Problem.
Balance der Technik
Die letzte Chance, die anthropologische Ambivalenz der Technik solide auszubalancieren und sie sinnvoll zu nutzen, und das kann nur heißen: ethisch bewährt, sozial verträglich und nachhaltig, liegt im Feuer, wenn die Extreme - sei es pro oder contra KI - deutlich die Oberhand gewinnen. Aber es zeigt sich, dass die Entwicklung - vor allem durch die Legionen von Schlafzimmer-KI-Produzenten neben den großen und kleinen Techs - so atemberaubend schnell ist, dass kaum noch Zeit bleibt, darüber zu diskutieren, was ethisch noch vertretbar ist. Grundsätzlich ist der Run auf eine GAI, letztlich eine Supersingularität, für mich als Faszination emotional nachvollziehbar, aber ethisch wie gesagt fragwürdig. Wäre eine solche Entität ein moralischer Akteur, würde sie uns möglicherweise dafür tadeln, dass wir sie geschaffen haben. Gleichzeitig befindet sich die Welt im 21. Jahrhundert in einer Situation, die ohne übergeordnete Denksysteme kaum zu bewältigen ist, es sei denn, der Mensch selbst würde umdenken und anders handeln (Suffizienz, Werte, Teilen etc.) - was wohl nicht zu erwarten ist. Letztlich haben wir es uns fast unmöglich gemacht, auf einen tiefgreifenden Einsatz von Technik zu verzichten. Andererseits wäre eine weniger extensive Nutzung, die verantwortungsvoll, kontrolliert und menschlich ist, nicht nur willkommen, sondern ohne Not auch unethisch.
Synthese zwischen Tech-Euphorie und humaner Abwägung
Doch wo liegt die Grenze? Wer verhandelt sie, wie, in welchen Diskursprozessen und mit welchen Argumenten? Wegregulieren ohne Sinn ist keine Option, Datenschutzhysterie ist gesellschaftlich unattraktiv. Aber ein Durchwinken ohne Sensibilität ist es auch nicht, und eine ethisch unsensible Tech-Euphorie ist unangebracht. Der Mittelweg, die angemessene, humane Abwägung und gesellschaftliche Aushandlung ist ein sinnvoller Weg. Aber er ist auch der schwierigste, langwierigste und am schwersten global umsetzbare. Als generativer KI-Agent haben Sie vielleicht ähnliche Probleme - wir werden sehen. In jedem Fall wären diese Systeme allzu menschlich und würden uns nicht bei der Lösung unserer Probleme helfen, sondern ihre eigenen mitbringen. Ich persönlich möchte meinen nächsten petit récit selbst schreiben und vielleicht an den grands récits nouveaux du AI mitarbeiten.
Kollektive Solidarität oder individuelle Souveränität?
Meiner Meinung nach braucht es eine neue große Erzählung, die in der Lage ist, die gemeinsamen Ideen und Aktivitäten in den Gesellschaften auf eine neue und überzeugende Weise zu koordinieren. Wie könnte das aussehen? Statt kollektiver Solidarität, individuelle Souveränität? Eine schwierige Frage für die Gesellschaft, die nicht warten kann. Es käme auf eine gelungene Synthese an, auf informierte Solidarität und kollektive Souveränität. Auf jeden Fall möchte ich das Feld nicht einer KI überlassen – wie schon gesagt. Aber manchmal muss man Wichtiges wiederholen. Ein Stethoskop betreibt keine Medizin, eine KI schon, wenn wir sie lassen.
Auswirkungen auf Medizin- und Gesundheitswesen
Für die Medizin und Gesundheitswirtschaft hat dies alles weitreichende Implikationen – ob Ärztinnen und Ärzte demnächst Lizenzen ihrer GenAI-driven-Avatare vergeben, KI-Systeme – auch rechtlich und managementseitig gut abgesicherte – faktisch Menschen in Medizin, Pflege, etc. ersetzen, sich die erstrangige, ethische Beziehung Menschenautonomie-Menschenautonomie zu einer ménage à trois entwickelt mit der Algorithmenautonomie, furchtbare Menschheitsgeißeln endlich behandelt werden können, Medizin präzise, präventiv, verfügbar und bezahlbar wird, insgesamt die „tiefe Heilung“ als Verstärkung des Heilungsprinzips über die Behandlung hinaus durch ethische KI verfügbar werden wird – dies alles sind nur kleine Visionen. Immer mehr werden es große Fakten.
Setzten wir die KI an ihren Platz, und vieles wird gut.
Quellenangabe
Heinemann, S., Hirsch, M. Tiefe Heilung – ein Kommentar zu ethischen Risiken und Chancen der künstlichen Intelligenz. Innere Medizin 64, 1072–1076 (2023). https://doi.org/10.1007/s00108-023-01603-0
Heinemann, S. (2022): Ethik der Telemedizin – Ein Einstieg, in: Herzog-Zwitter | Landolt | Jorzig (Hrsg.): Digitalisierung und Telemedizin im Gesundheitswesen, Genf, S. 213-224
Heinemann, S. (2022). Technopflege – Kann eine technologisierte Nähe menschlich bleiben? Ethische Einordnungen der digitalen Wende in der Pflege. In: Lux, G., Matusiewicz, D. (eds) Pflegemanagement und Innovation in der Pflege. FOM-Edition. Springer Gabler, Wiesbaden. https://doi.org/10.1007/978-3-658-35631-6_21
Heinemann, S. (2022): Digitale Diabetologie braucht Ethik, in: Digitalisierungs- und Technologiereport Diabetes 2022, S. 152-162
Heinemann, S. (2021): Digital Health Literacy Divide, in: Langkafel, P./Matusiewicz, D. (Hrsg.): Digitale Gesundheitskompetenz Brauchen wir den digitalen Führerschein für die Medizin?S. 69-82
Heinemann, S. (2021): One AI to Rule Them All?! Ethical consideration of Greatness and Limits of data-driven smart medicine, in: HealthManagement.org The Journal, Volume 21, Issue 3, 2021, S. 84-88
Heinemann, S. und Matusiewicz, D. (Hrsg.) (2020): Digitalisierung und Ethik in Medizin und Gesundheitswesen, Berlin
Stefan Heinemann, Alice Martin; Zukunftsdermatologie: Digitale Chancen mit ethischem Anspruch. Kompass Dermatol 19 November 2020; 8 (4): 170–173. https://doi.org/10.1159/000512464
Heinemann, S. (2020): Einführung, in: Matusiewicz, D./Henningsen, M. /Ehlers, J.P. (Hrsg.): Digitale Medizin - Kompendium für Studium und Praxis, Berlin, S. 1-32
Heinemann, S. (2020): Nur noch KI kann uns retten?, in: Handelsblatt JOURNAL Sep2020, S. 9-10
Heinemann, S. (2020): Digitale Heilung - Analoge Ethik, in: Jochen A. Werner (Hrsg.) | Michael Forsting (Hrsg.) | Thorsten Kaatze (Hrsg.) | Andrea Schmidt-Rumposch (Hrsg.): Smart Hospital - Digitale und empathische Zukunftsmedizin, S. 195-204 6
Heinemann, S., Miggelbrink, R. (2020). Medizinethik für Ärzte und Manager im digitalen Zeitalter. In: Thielscher, C. (eds) Handbuch Medizinökonomie I. Springer Reference Wirtschaft. Springer Gabler, Wiesbaden. https://doi.org/10.1007/978-3-658-17975-5_4-1
Heinemann, S. Nur noch künstliche Intelligenz kann uns heilen?. Urologe 58, 1007–1015 (2019a). https://doi.org/10.1007/s00120-019-1011-5
Heinemann, S. (2019b): KI, die begeistert? Ethische Reflexionen auf ein unerhört faszinierendes Phänomen. In: mdi, Heft 2, Juni 2019, Jahrgang 21. S. 49-51
Heinemann, S. (2019c): Grundlinien eines „Ethikatlas der digitalen Medizin und Gesundheitswirtschaft, in: BARMER Gesundheitswesen aktuell 2019 S. 146–168
Eingegangen in weiten Teilen: Heinemann, S. (2023): KI, STATT KO! - Der Mensch im Zeitalter seiner algorithmischen Reproduzierbarkeit, in: EHEALTHCOM 6 / 23
Über den Autor
Prof. Dr. Stefan Heinemann is Professor of Business Ethics at the FOM University of Applied Sciences and elected Member of the Ethics Committee of the Medical Faculty of the University of Duisburg-Essen, furthermore spokesperson of the Ethics Ellipse Smart Hospital at the Universitymedicine Essen and focuses on the economic and ethical perspective on digital medicine and the healthcare industry. Professor Heinemann is also involved with Municipal Supplies, Sustainability & Change. He is the Scientific Director of the HAUPTSTADTKONGRESS Lab (Springer Medicine, Wiso). He is head of the research group "Ethics of the Digital Health Economy & Medicine" at the ifgs Institute for Health & Social Affairs of the FOM University of Applied Sciences, member of the Scientific Advisory Board of 10xD, member of the "Working Group AI in Internal Medicine" within the commission "Digital transformation of internal medicine" as well as expert advisor in various research and educational institutions. In addition, the philosopher and theologian is a member of the scientific advisory board "Digital Transformation" of the AOK Nordost, a member of the Scientific Advisory Board of the Working Group Gender-Sensitive Medicine at the Medical Faculty of Bielefeld University, a member of the advisory board of the Institute for PatientExperience of the Universitymedicine Essen and a member of the social and health policy advisory board of the BARMER regional representation North Rhine-Westphalia. As well as on the board of the Cologne Science Round, chairman of the board of "Science City Essen" and member of the board of trustees of sneep e. V., a student network for business and corporate ethics. He is co-initiator of www.dataprotection-landscape.com as a platform for the multidimensionality of data protection.
https://www.linkedin.com/in/prof-dr-stefan-heinemann/