Was darf Künstliche Intelligenz?
In seiner Stellungnahme hält der Ethikrat fest: „Verantwortung kann […] nicht direkt von maschinellen Systemen übernommen werden, sondern nur von den Menschen, die in je unterschiedlichen Funktionen hinter diesen Systemen stehen, gegebenenfalls im Rahmen institutioneller Verantwortung. Auch wenn ein technisches System eingesetzt wird, um im Rahmen einer automatisierten Datenauswertung Schlussfolgerungen wie die Gewährung eines Kredits anzuwenden, ist es die Verantwortung des Menschen, dieses System in einer ethisch vertretbaren Weise zu entwickeln und einzusetzen.“
„KI-Anwendungen können menschliche Intelligenz, Verantwortung und Bewertung nicht ersetzen“, betont Julian Nida-Rümelin, stellvertretender Vorsitzender des Deutschen Ethikrates und stellvertretender Sprecher der zuständigen Arbeitsgruppe. Ausgehend von dieser grundsätzlich nicht auslöschbaren menschlichen Verantwortung habe der Mensch eine Vorrangstellung gegenüber der Technologie. Dabei soll die Technologie – auch wenn sie partiell komplett menschliche Tätigkeiten ersetzt – ein Instrument menschlichen Handelns bleiben. „Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern. KI darf den Menschen nicht ersetzen. Das sind grundlegende Regeln für die ethische Bewertung“, sagt Alena Buyx, Vorsitzende des Deutschen Ethikrats.
Die Maschine übernimmt keine Verantwortung
Der Ethikrat hat sich den Einsatz von KI-Systemen in den Bereichen Medizin, schulische Bildung, öffentliche Kommunikation und Meinungsbildung sowie öffentliche Verwaltung angeschaut. Dabei sollte die Beurteilung von KI immer kontext-, anwendungs- und personenspezifisch erfolgen. „Wenn menschliche Tätigkeiten an Maschinen delegiert werden, kann dies für verschiedene Personengruppen, Akteure und Betroffene ganz unterschiedliche Auswirkungen haben“, sagt Judith Simon, Sprecherin der für die Stellungnahme zuständigen Arbeitsgruppe des Ethikrats. „Daher ist es wichtig, genau hinzuschauen, für wen dies mit erweiterten Handlungsspielräumen verbunden ist und wessen Handlungsmöglichkeiten eher vermindert werden.“
In der medizinischen Forschung sieht der Ethikrat viele Einsatzmöglichkeiten, etwa bei der Literaturrecherche in Datenbanken oder beim Analysieren großer Datenmengen. So könnten KI-Algorithmen beispielsweise bei der Erforschung von Krankheitsmechanismen und der Entwicklung von Therapeutika eingesetzt werden.
In der medizinischen Versorgung liegen mittlerweile erste Erfahrungen mit dem Einsatz von KI-Systemen vor. In der Diagnostik sind inzwischen Unterstützungssysteme im Einsatz, die beispielsweise mit der automatisierten Durchsicht von Patientenakten Entscheidungsprozesse modellieren. In der Krebsdiagnostik wird KI bei der Früherkennung von Haut- und Brustkrebs eingesetzt, bei Prostatakarzinomen konnte durch Überlagerung von zuvor erstellten mpMRT-Aufnahmen mit Ultraschallaufnahmen in Echtzeit die Biopsie so verbessert werden, dass sich die Entdeckung behandlungsbedürftiger Prostatakarzinome von etwa 50 auf 90 Prozent erhöhte. Auch KI-gestützte Operationsroboter bieten heute bereits nachweisbare Vorteile: Sie können Ränder von Tumorgeweben präziser als der Operateur identifizieren und ermöglichen besonders gewebeschonende Eingriffe.
Der Prozess wird zur Blackbox
Den Chancen der KI stehen jedoch auch Risiken gegenüber. Eine Besonderheit von KI-Systemen, die auf mit maschinellem Lernen aus Daten gewonnenen Modellen basieren, bestehe darin, dass bei manchen Systemen selbst diejenigen, die diese Instrumente entwickeln, aufgrund der enormen Komplexität der Datenverarbeitungsprozesse nicht mehr rekonstruieren können, wie bestimmte Resultate zustande gekommen sind, da die Eingaben mit hochgradig nichtlinearen und verteilten Prozessen verarbeitet werden: ..Der Prozess wird zur Blackbox.“ Im Hinblick darauf sei bei der KI-Entwicklung ein „Höchstmaß an Erklärbarkeit der jeweiligen Resultate anzustreben (Explainable AI)“, betont der Ethikrat. Auch sollten Anwender die Resultate der KI „stets einer eigenen Plausibilitätsprüfung unterziehen, um den Gefahren eines ungerechtfertigten blinden Vertrauens in die Technik (Automation Bias) zu entgehen.“
Für die Entwicklung und den Einsatz von KI-Produkten empfiehlt der Ethikrat spezifische Zertifizierungen, um den Datenschutz und die Sicherheit der Anwendung zu gewährleisten. Dazu sollten die Zulassungsbehörden eng mit den zuständigen medizinischen Fachgesellschaften zusammenarbeiten, um hohe Qualitätsstandards zu etablieren. Erwiesen überlegene KI-Anwendungen sollten zügig in die klinische Ausbildung des ärztlichen Fachpersonals integriert werden.
Bei routinemäßiger Anwendung von KI weist der Ethikrat auf „die Gefahr eines Verlustes von theoretischem wie haptisch-praktischem Erfahrungswissen und entsprechenden Fähigkeiten (deskilling)“ hin – dem sollte mit spezifischen Fortbildungsmaßnahmen begegnet werden.
Im Hinblick auf die Patientenkommunikation wird festgestellt: „Je höher der Grad der technischen Substitution menschlicher Handlungen durch KI-Komponenten ist, desto stärker wächst der Aufklärungs- und Begleitungsbedarf der Patientinnen und Patienten.“ Der KI-Einsatz dürfe nicht zu einer Abwertung der sprechenden Medizin oder zu Personalabbau führen: „Eine vollständige Ersetzung der ärztlichen Fachkraft durch ein KI-System gefährdet das Patientenwohl.“
Für den mit der Anwendung von vielen KI-Systemen relevanten Schutz von Patientendaten verweist der Ethikrat auf das bereits 2017 entwickelte Konzept der Datensouveränität. Danach müssen die Patientendaten „nicht allein als wichtiges individuelles Gut […], sondern auch in ihrer kollektiven Dimension verstanden werden". Die Zuschreibung einer nicht näher beschriebenen „kollektiven Dimension" für die individuellen Patientendaten könnte noch zu Diskussionsbedarf führen, wenn etwa in spezifischen Einzelfällen geklärt werden muss, ob dem individuellen oder dem kollektiven Interesse der Vorrang eingeräumt werden muss.
Die Stellungnahme des Deutschen Ethikrats ist unter www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf abrufbar.