Die KI muss ihre Ergebnisse erklären können
Die Leistungsfähigkeit von KI-Modellen wird maßgeblich bestimmt durch deren Datengrundlage: Ein Modell, das nur an Daten aus einer Praxis oder Klinik trainiert wurde, wird nicht zwingend in anderen Kliniken oder Praxen funktionieren. Gleiches gilt für ein Modell, das nur mit Daten einer spezifischen Gruppe – beispielsweise Senioren, Männern oder Menschen mit gutem Gesundheitszustand – entwickelt wurde. Generalisierbarkeit heißt, dass KI-Modelle solche Einschränkungen überwinden und unter verschiedenen Bedingungen zuverlässig laufen.
Die Resultate müssen verallgemeinerbar sein
Zahnmedizinische KI-Anwendungen sollten demnach bei Menschen verschiedenen Alters und Geschlechts, aber auch Mundgesundheitszustands (etwa die Anzahl der Zähne, Karieserfahrung und Restaurationszustand) gleichbleibende Ergebnisse liefern. Bei der Röntgenbildanalyse sollte die KI zudem auf Bildern von Carestream so gut funktionieren wie auf Bildern von Dürr oder Morita. Nur wenn die Datengrundlage im Rahmen des Trainings divers genug war, kann das entwickelte KI-Modell auch auf unterschiedlichen Datenquellen zuverlässige Ergebnisse erzielen.
So konnten wir zeigen, dass KI-Modelle zur Detektion apikaler Läsionen auf Panoramaschichtbildern, die auf Röntgenbildern aus Deutschland trainiert wurden, nicht nur die typischen Charakteristika dieser Läsionen, sondern auch andere Korrelationen lernen – beispielsweise, dass apikale Läsionen oftmals in der Nähe von Wurzelkanalfüllungen auftreten. Wird nun eine solche in Deutschland trainierte KI-Software in Regionen der Welt ohne ausreichende Gesundheitsversorgung mit dementsprechend wenig durchgeführten Wurzelkanalbehandlungen eingesetzt, wird sie scheitern: Sie „vermisst“ die nach ihrem Training zu einer apikalen Läsion gehörige Wurzelkanalfüllung. Das KI-Modell dieser Software ist nicht generalisierbar – um zuverlässig zu funktionieren, muss es auch an den Daten der jeweiligen Regionen trainiert werden.
Generalisierbarkeit ist jedoch keineswegs nur ein Thema großer wirtschaftlicher oder kultureller Unterschiede, sondern kann auch in kleinem Rahmen mit unterschiedlichen Patientengruppen zwischen einzelnen Praxen Effekte erzeugen. Anwender sollten ihre KI-Software deshalb im Hinblick auf die Generalisierbarkeit kennen und möglicherweise in einer Pilotanwendung an ihren eigenen Patienten erproben.
Durch Logik werden die Ergebnisse ERklärbar
Ein weiterer Aspekt ist die sogenannte Erklärbarkeit. KI-Modelle werden oft als „Black Box“-Modelle beschrieben, da nicht immer einfach zu durchdringen ist, auf welcher Grundlage die komplexen, durch die Maschine selbst entwickelten Modelle entscheiden. Gerade in der Medizin sollte allerdings sichergestellt werden, dass es eine Logik hinter diesen Entscheidungen gibt, die mit medizinischen Erwägungen zu erklären ist. KI-Nutzer sollten kritisch nach dieser Erklärbarkeit von KI fragen.
KI IN DER ZAHNARZTPRAXIS
Erste Anwendungen mit Künstlicher Intelligenz (KI) für die Zahnarztpraxis gibt es inzwischen, doch noch immer herrscht viel Unsicherheit darüber, was KI eigentlich ist und leisten kann. Was können Zahnärztinnen und Zahnärzte vom Einsatz einer KI im Alltag erwarten? Welchen Mehrwert kann ein solches Werkzeug bringen? In der Reihe „KI in der Zahnarztpraxis“ erörtern Experten Fragen zum Verständnis der KI.
Bei der Bildanalytik hieße dies beispielsweise, im Röntgenbild die Areale zu markieren, die für die KI entscheidungsrelevant sind – dann können Nutzer selbst nachprüfen, ob die aufgefundene Stelle erkrankt ist. Bei der Vorhersage von Zahnverlusten sollte deutlich werden, anhand welcher Parameter die KI die Vorhersage getroffen hat – so wäre beispielsweise ein ausgeprägter Knochenverlust über 70 Prozent ein Parameter, der mit medizinischem Wissen konsistent ist. Kann die Entscheidung der KI nicht erklärt werden, sollte deren Einsatz nur äußerst vorsichtig erfolgen.
Fazit
Wer KI-Software in der Praxis einsetzen will, sollte vor dem Kauf gezielt nachfragen, in welchen Settings die Software trainiert wurde. Waren die Settings divers genug? Passt das gelernte Wissen der KI-Anwendung zu den Patienten und Anforderungen in meiner Praxis? Darüber hinaus ist es wichtig, dass Anwender nachvollziehen können, nach welchen Kriterien die KI ihre Entscheidungen fällt. Ohne dieses Wissen wird die neue digitale KI-Kollegin keinen Mehrwert bringen können.