Die Stellungnahme des Deutschen Ethikrats vom 20.03.23 mit der Überschrift „Künstliche Intelligenz darf menschliche Entfaltung nicht vermindern“ hat ausführlich die gesundheitslastigen Implikationen dargestellt: https://www.ethikrat.org/mitteilungen/mitteilungen/2023/ethikrat-kuenstliche-intelligenz-darf-menschliche-entfaltung-nicht-vermindern/?cookieLevel=not-set
Dazu passt die aktuelle Studie des Büros für Technikfolgenabschätzung des Deutschen Bundestages vom 21.04.23 – TAB-Hintergrundpapier Nr. 26: ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen: https://www.tab-beim-bundestag.de/news-2023-04-studie-zu-chatgpt-fur-den-deutschen-bundestag.php. Hier wurden die Gesundheits-Themen komprimierter dargestellt. Helfen aber sehr gut in der Einordnung.
Über einen sehr interessanten Ansatz wurde in der FAZ berichtet. Das Heidelberger Start-up Aleph Alpha will in seinem Modell nachvollziehbar machen, woher die KI ihre Informationen bezieht: https://www.faz.net/aktuell/wirtschaft/digitec/aleph-alpha-woher-chatgpt-informationen-bezieht-18818474.html
Und ganz aktuell hat Geoffrey Hinton, der Pionier der Forschung zu Künstlicher Intelligenz, dieser Tage vor „ernsten Risiken für Gesellschaft und Menschheit“ gewarnt. Bis vor kurzem hat er für Google in diesem Kontext gearbeitet.
Warum ist das wichtig: Chancen und Risiken von KI-basierten Services müssen natürlich untersucht, bewertet und gewichtet und deren Arbeitsweise transparent gemacht werden. Wichtig ist im Gesundheitsbereich, das Thema in den Kontext Intelligence Augmentation zu stellen: Um eine Intelligenzerweiterung bei der es darum geht, den Menschen mit künstlicher Intelligenz stärker zu machen bzw. ihn zu ergänzen.