Microsoft präsentiert KI-Assistenten für Kliniker
Wiebke PfohlMit Dragon Copilot präsentiert Microsoft einen neuen KI-Assistenten für das Gesundheitswesen. Bei uns erfahren Sie, was der neue Assistent kann, welche KI-Assistenten es für Medizinerinnen und Mediziner bereits gibt und was die Bundesärztekammer zum Einsatz von Large Language Models in der Medizin sagt.
Microsoft hat Microsoft Dragon Copilot vorgestellt, einen KI-Assistent für klinische Abläufe. “Wir bei Microsoft sind seit langem davon überzeugt, dass KI das unglaubliche Potential hat, Kliniker von einem Großteil des Verwaltungsaufwands im Gesundheitsaufwand zu befreien und sie in die Lage zu versetzen, sich wieder auf die Versorgung der Patienten zu konzentrieren”, sagte Joe Petro, Corporate Vice President der Microsoft Health and Life Science Solutions and Platforms, in einer aktuellen Pressemitteilung des Technologieunternehmens. Dragon Copilot kombiniert laut Microsoft die Fähigkeiten zweier Softwares: die von Dragon Medical One und DAX Copilot.
Ab Mai soll der Dragon Copilot laut Microsoft in den USA und Kanada verfügbar sein. In Deutschland soll der KI-Assistent in den ersten Kliniken ab Juli kommen, wie das Technikportal heise online berichtet.
Was kann der KI-Assistent Microsoft Dragon Copilot?
Dragon Copilot könne etwa Notizen aus Arzt-Patienten-Gesprächen erstellen (“ambient note creation”) sowie als Diktierfunktion und für Sprachmemos genutzt werden, so Microsoft in der aktuellen Pressemitteilung. Ärztinnen und Ärzte können dem KI-Assistenten dann Fragen stellen, etwa ob der Patient Ohrenschmerzen hatte oder der Patient auf Lungenkrebs untersucht werden sollte, berichtet der US-amerikanische Sender CNBC. Außerdem könnten Nutzerinnen und Nutzer Dragon Copilot auch etwa bitten, die passenden ICD-10-Codes in den Bericht mit aufzunehmen.
Außerdem lassen sich mit Dragon Copilot Aufgaben in der Klinik automatisieren, etwa das Erstellen von Überweisungsschreiben und Berichten, so Microsoft. Zudem ermögliche der KI-Assistent Klinikerinnen und Klinikern die Suche nach medizinischen Informationen aus vertrauenswürdigen Quellen.
Dragon Copilot nicht der erste KI-Assistent für Mediziner
Microsoft ist nicht das erste Unternehmen, das einen KI-Assistenten für Ärztinnen und Ärzte auf den Markt bringt. So hatte etwa das dänische Unternehmen Corti Ende vergangenen Jahres einen eigenen KI-Assistenten auf den Markt gebracht, der ebenfalls während des Arzt-Patienten-Gesprächs Notizen erstellen und bei der Dokumentation unterstützen kann. Ein anderes Beispiel: jameda hat mit Noa Notes einen KI-basierten Assistenten für Ärztinnen, Ärzte und medizinisches Fachpersonal entwickelt. Auch dieser macht automatisch Notizen zu medizinischen relevanten Inhalten in Arzt-Patienten-Gesprächen und strukturiert diese nach den Wünschen der Ärztin oder des Arztes.
Das sagt die Bundesärztekammer zu KI-Assistenten und Large Language Models in der Medizin
Der Wissenschaftliche Beirat der Bundesärztekammer hat kürzlich eine Stellungnahme zu “Künstliche Intelligenz in der Medizin” erarbeitet, die die 2021 erschienene Stellungnahme “Entscheidungsunterstützung ärztlicher Tätigkeit durch KI” der Zentralen Ethikkommission der Bundesärztekammer (ZEKO) ergänzen soll. In der aktuellen Publikation geht der Wissenschaftliche Beirat auch auf die Rolle von Large Language Models (LLM) in der Medizin ein.
Was sind Large Language Models (LLMs)?
Ein Large Language Model ist ein Sprachmodell, das Text sowohl analysieren und verstehen kann, sowie Antworten generieren und sprachbezogene Aufgaben ausführen kann. Ein LLM ist auch die Grundlage von ChatGPT, einem Chatbot des US-amerikanischen Softwareunternehmen OpenAI, der einen regelrechten Hype um diese KI-Modelle ausgelöst hat. Modelle wie ChatGPT werden zuerst mit großen Mengen unstrukturierter Daten trainiert und können danach auf bestimmte Bereiche, etwa Medizin, oder bestimmte Aufgaben trainiert werden. Neben GPT-artigen Modellen gibt es auch noch andere Large Language Models. Außerdem können in einigen Modellen neben Sprache auch etwa Bilder und Videos verarbeitet bzw. generiert werden.
Zu beachten ist, dass ein LLM Text/Bilder/Videos auf Basis von Wahrscheinlichkeiten - nicht Wahrheitsgehalt - ausgibt. Das kann dazu führen, dass die Ausgaben falsch oder irreführend sind („Halluzinationen“).
KI-Assistenten sind Systeme, die Anfragen der Nutzerinnen und Nutzer beantworten und Aufgaben für sie erledigen können. Dabei kann es sich zum Beispiel um einen Chatbot handeln, der mithilfe eines LLMs umgesetzt wird.
“Durch ihre Fähigkeit, sämtliche Daten über Patienten simultan zu verarbeiten und in der Diagnostik, Behandlung, Dokumentation und Abrechnung zu kombinieren, können LLMs entlang der gesamten Kette der Patientenversorgung eingesetzt werden. Die Einsatzbereiche reichen von der Präklinik bis hin zur Entlassung und Nachsorge, wobei sie auch transsektoral eingesetzt werden können. Vor einem Klinikaufenthalt können diese Modelle bei der Dokumentation, Diagnostik und Informationsübermittlung unterstützen”, schreiben die Autorinnen und Autoren des Berichts.
Besonders die Arbeit in der Notfallversorgung könne durch LLMs erleichtert werden. Dadurch dass die KI parallel zum Arzt-Patienten-Gespräch automatisch eine sprachbasierte Dokumentation übernehmen kann (“Ambient Listening”), könne nachweislich Zeit eingespart werden. So würden solche KI-Assistenten bereits heute in Kliniken eingesetzt, etwa auch Dragon Medical One, eine der Softwares, auf denen auch der neue Microsoft Dragon Copilot basiert. Im Schockraum könne mithilfe dieser Assistenten Behandlungsinformationen zusammengefasst und strukturiert werden, um damit einem Informationsverlust vorzubeugen und die Therapie zu verbessern.
Das können LLMs in der Medizin noch
LLMs können laut dem Bericht außerdem:
Relevante Informationen aus Befunden auslesen und strukturiert verfügbar machen
Relevanten Kontext aus Studien, Publikationen und Leitlinien liefern
Automatisierte Protokolle und Berichte, z.B. von Operationen, anfertigen (LLMs gut geeignet, da sie sowohl Video als auch Sprache verstehen können)
Dokumente, wie etwa Entlassungsbriefe, automatisiert entwerfen
State-of-the-Art Modelle können bei der Bewertung von Differentialdiagnosen unterstützen
Bei der Kodierung und Abrechnung unterstützen
Als KI-basierte Chatbots häufige Anfragen auf elektronischem Wege bearbeiten (insbesondere Organisatorisches wie Terminvereinbarungen oder Terminerinnerungen)
Als Chatbots eine Erstberatung anbieten. Laut Bericht werden bereits etwa KI-gestützte Aufklärungs-Chatbots eingesetzt, um Patientinnen und Patienten vor einem elektiven Eingriff Fragen zu Narkose bzw. Operation zu beantworten. Unklarheiten und weitere Fragen werden dann in anschließenden Aufklärungsgesprächen beantwortet.
Limitationen von Large Language Models (LLMs) in der Medizin
Verschiedene Aspekte sind beim Einsatz von LLMs in der Medizin laut der Stellungnahme des Wissenschaftlichen Beirats der Bundesärztekammer zu beachten. Besonders wichtig sei es, die mithilfe von KI erzeugten Ergebnisse kritisch zu hinterfragen. Denn bei der Anwendung dieser Modelle bestehe das Risiko von sogenannten Halluzinationen, also das Risiko, dass die KI falsche oder irreführende Ergebnisse generiert. Essenziell sei dabei außerdem, die Modelle mit möglichst qualitativ hochwertigem und aktuellem Kontext zu füttern.
Der Bericht betont ebenfalls, dass Systeme wie ChatGPT keine datenschutzkonforme Umgebung gewährleisten. Sie sollten daher nicht zur Verarbeitung von Patientendaten und zur Dokumentation verwendet werden. “Daher sind derzeit Zweifel angebracht, ob der Einsatz von LLMs oder generativer KI mit dem Ziel, Entscheidungshilfen in Echtzeit zu bieten oder mögliche diagnostische und therapeutische Strategien aufzuzeigen, der Komplexität einer kontinuierlichen und umfassenden Versorgung gerecht werden”, schreiben die Autorinnen und Autoren der Stellungnahme, “Eine datenschutzkonforme Alternative zu Systemen wie ChatGPT stellen sichere Cloud-Umgebungen dar. Derzeit machen jedoch nur wenige Kliniken und Gesundheitseinrichtungen von der Möglichkeit Gebrauch, ihre Daten in der dedizierten Cloud zu lagern. Dies trägt dazu bei, dass in Deutschland aktuell nur wenige klinische Daten für das Training von LLMs verfügbar sind und dass keine hinreichend guten, frei verfügbaren LLMs existieren, die für klinische Zwecke genutzt werden können.”
Zu bedenken seien außerdem die Anforderungen an Hardware und Graphikprozessoren. Es gebe in Deutschland zurzeit kaum Kliniken, die diese Modelle skalierbar betreiben könnten, so der Bericht. Die Verfasser fordern: “Um diese Herausforderungen zu bewältigen, sollte die Recheninfrastruktur deutscher Kliniken dringend ausgebaut werden. Zudem sollten geeignete „Datentöpfe“ auf der Grundlage von in Deutschland erhobenen Daten geschaffen werden, um das Training von klinischen LLMs für das hiesige Gesundheitssystem zu fördern.”