Bei 72 von 100 pädiatrischen Fällen stellte ChatGPT (auf Basis von GPT-4) eine Fehldiagnose, in weiteren elf Fällen waren die Schlussfolgerungen zu allgemein gehalten, um sie tatsächlich als korrekt zu bewerten: Das ergab eine Anfang Januar über das "JAMA Network" (
via "Axios") veröffentlichte wissenschaftliche Studie. Demnach war der Chatbot beispielsweise nicht in der Lage, Zusammenhänge wie den zwischen Autismus und Vitaminmangel zu erkennen. Das unterstreiche, wie wichtig die klinische Erfahrung der Ärzte nach wie vor sei.
Ein Argument gegen das Potenzial von KI sind die Ergebnisse jedoch ebenfalls nicht. Denn laut den Autoren gehörten mehr als die Hälfte der Fehldiagnosen (56,7 %) zum gleichen Organsystem wie die richtige Diagnose. Das soll wiederum darauf hindeuten, dass die KI schlicht gezielter trainiert werden muss, um die Diagnosegenauigkeit zu verbessern. Eine der Schlussfolgerungen der Studie ist daher, dass Ärztinnen und Ärzte eine aktivere Rolle bei der Erstellung von Datensätzen für KI-Modelle übernehmen müssen, um diese gezielt auf medizinische Aufgaben vorzubereiten.
Unterstützung können die grossen Sprachmodelle beziehungsweise Chatbots laut den Autoren zudem bereits bei Verwaltungsaufgaben wie dem Schreiben von Forschungsartikeln und der Erstellung von Patientenanweisungen leisten. Gleichzeitig gilt es jedoch, zahlreiche ethische Fragestellungen zu klären, bevor die Technologie umfassend im medizinischen Sektor zum Einsatz kommen kann.
(sta)