Sie sind hier: Startseite Abstracts Kurzfassungen 2019 Viele offene Fragen, viele Herausforderungen
x
Um unsere Webseite für Sie optimal zu gestalten und fortlaufend verbessern zu können, verwenden wir Cookies. Durch die weitere Nutzung der Webseite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen zu Cookies erhalten Sie in unserer Datenschutzerklärung.

Viele offene Fragen, viele Herausforderungen

04.06.2018 14:00
Welche Folgen hat der Einsatz von Algorithmen in der Gesundheitsversorgung? Dieser Frage geht eine interdisziplinäre Analyse von ceres nach. Die Wissenschaftler haben untersucht, wo in der Medizin Algorithmen bereits eingesetzt und in Zukunft genutzt werden. Dabei legen sie großen Wert auf den Praxisbezug, indem sie konkrete Anwendungsfälle betrachten. Zwei Beispiele – aus der Gegenwart und Zukunft der Gesundheitsversorgung – sollen die ethischen Fragestellungen verdeutlichen, die sich aus dem Einsatz der Algorithmen für den Einzelnen, die staatlichen Institutionen und die Gesellschaft als Ganzes ergeben.

http://doi.org/10.24945/MVF.01.19.1866-0533.2116

>> Die Studie „Algorithmen in der digitalen Gesundheitsversorgung“ markiert den Auftakt in einem größeren Projekt der Bertelsmann Stiftung mit dem Titel „Der digitale Patient“. Im Zentrum des Projekts stehen ethische und gesellschaftliche Herausforderungen, die mit der Digitalisierung des Gesundheitswesens einhergehen. In der aktuellen Untersuchung identifizieren die ceres-Wissenschaftler folgende Anwendungsbereiche für Algorithmen in der Medizin:
• Public Health,
• Gesundheitsversorgung/Versorgungsforschung,
• medizinische Forschung,
• Prävention,
• Prädiktion und Risikoprofilbildung,
• Diagnostik,
• Therapie,
• Prognose,
• Rehabilitation
• sowie Pflege.

Als gegenwärtiges Beispiel aus dem Gebiet Public Health führen die Wissenschaftler Produkte der israelischen Firma MedAware an. Diese sollen Verschreibungsfehler von Ärzten identifizieren und dem Arzt einen Warnhinweis geben. Dazu verwendet das Unternehmen maschinelle Lernalgorithmen, mit deren Hilfe große Datenmengen aus Millionen von elektronischen Patientenakten verarbeitet werden. Hierbei werden die Verordnungsmuster aller Ärzte abgegriffen, um das „normale“ Behandlungsspektrum zu bestimmen. Auf dieser Grundlage erstellt MedAware ein mathematisches Modell, das diese realen Behandlungsmuster abbildet. Die Annahme ist, dass eine ärztliche Verschreibung, die von diesem Standard-Behandlungsspektrum abweicht, mit hoher Wahrscheinlichkeit fehlerhaft ist. Daraufhin werden verschiedene Entscheidungshilfen und Werkzeuge für das Risikomanagement angeboten, etwa das Produkt MedAware Alerting System (MedAS).
Immer wenn ein Arzt ein Rezept in das System eingibt, führt das System anhand des aktuellen Patientenprofils eine Echtzeitauswertung für das entsprechende Medikament durch. Stellt MedAS eine Abweichung vom normalen Behandlungsspektrum von Patienten mit ähnlichem Profil fest, erhält der Arzt einen Warnhinweis. Das System wird laufend aktualisiert und mit neuen Patientendaten, etwa zu neuen Blutwerten oder Diagnosen, angereichert. Der Arzt erhält darüber hinaus eine Nachricht, wenn neue Informationen über ein Medikament, etwa bislang unbekannte Wechsel- oder Nebenwirkungen, bekannt werden.
Aus der Gesundheitsversorgung beziehungsweise Versorgungsforschung beschreiben die Studienautoren ein weiteres Produkt von MedAware: Das Risk Management Decision Support Tool „MedRIM“ soll Prozesse in der Gesundheitsversorgung verbessern und Abläufe des Risikomanagements sowie der Qualitätskontrolle optimieren. Darüber hinaus soll es Ärzten Feedback bei potenziell fehlerhaften Verschreibungen geben.
Das System sammelt Patienten- sowie Rezeptdaten und gleicht diese mithilfe von Algorithmen mit den historischen Daten etwa eines Krankenhauses ab. Entdeckt „MedRIM“ Ausreißer, werden diese für eine weitere Analyse von einem Experten gekennzeichnet. Dadurch können Abteilungen mit außergewöhnlich hohen Raten an Verschreibungsfehlern, am häufigsten falsch verschriebene Medikamente oder auch einzelne Ärzte, die zu einer hohen Fehlerquote neigen, identifiziert werden. Auf Grundlage dieser Ergebnisse können fehlerhafte Prozesse verbessert und insgesamt die Patientensicherheit erhöht werden, heißt es in der Studie.
Zukunft der Algorithmen
Die Untersuchung enthält sechs Anwendungsszenarien, die die Chancen und Herausforderungen von Algorithmen verdeutlichen sollen. Die gewählten Beispiele stammen aus der aktuellen Forschung und Praxis. Die Szenarien reichen von der Algorithmenanwendung bei der Analyse von Bildinhalten in sozialen Medien zur Prädiktion von depressiven Erkrankungen über Entscheidungsunterstützungssysteme für den Einsatz in verschiedenen klinischen Kontexten bis hin zu Monitoringsystemen, die Pflegebedürftigen dabei unterstützen, möglichst lange in ihrer gewohnten Umgebung zu leben.
Im Folgenden soll auf das Beispiel zur Datenbasierten Unterstützung bei ärztlichen Therapieentscheidungen eingegangen werden, da dieses an das aktuelle Anwendungsbeispiel aus der Gesundheitsversorgung (s. o.) anknüpft. Dabei geht es um Empfehlungssysteme, die derzeit vermehrt im Online-Handel eingesetzt werden, um dem Nutzer gezielt Produkte vorzuschlagen.  
In der Medizin werden Empfehlungssysteme bislang kaum eingesetzt, sie haben jedoch erhebliches Potenzial, so die Studie. Als Beispiel wird ein Therapieempfehlungssystem genannt, das auf zwei verschiedenen algorithmenbasierten Empfehlungssystemen beruht: dem „Collaborative Recommender“ und dem „Demographic-based Recommender“. Beide Empfehlungsalgorithmen verwenden sowohl explizite als auch implizite frühere Bewertungen der Benutzer als „Ausdruck der Präferenz“.
„Präferenz“ bedeutet, dass ein Patient positiv auf eine Therapie anspricht. Der „Collaborative Recommender“ berücksichtigt die Bewertungen anderer Benutzer, hier in erster Linie das Ansprechen dieser Patienten auf bestimmte Therapien, erklären die Studienexperten. Auf dieser Grundlage werden Vorhersagen über die Präferenzen weiterer Personen getroffen, also darüber, ob und wie verschiedene individuelle Patienten auf eine Therapie ansprechen. Dazu wertet der Algorithmus Daten über die Ergebnisse aller vorangegangenen medizinischen Konsultationen des Patienten aus. Der hybride „Demograpic-based Recommender“ berücksichtigt neben diesen Daten auch noch weitere verfügbare patientenbezogene Daten.
Ziel eines solchen klinischen Entscheidungsunterstützungssystems ist es zu prognostizieren, welche Therapie für einen bestimmten Patienten zu einem bestimmten Zeitpunkt anzuraten ist. In der Studie wird ein Empfehlungssystem von Gräßer et al. angeführt, das anhand von Therapieempfehlungen für Patienten mit der Hautkrankheit Schuppenflechte (Psoriasis) getestet wurde. Als Datengrundlage dienten die Krankenakten von 213 Patienten aus der Klinik und Poliklinik für Dermatologie des Universitätsklinikums Dresden, die insgesamt Daten von 1.111 medizinischen Konsultationen dieser Patienten enthielten. Darin finden sich Patienten- und Therapiebeschreibungen, demographische Daten sowie Informationen zum Gesundheitszustand, zu Komorbiditäten sowie aktuellen Behandlungen. Diese Daten wurden aus den Krankenakten manuell in eine digitale Datenbank überführt; unvollständige oder fehlerhafte Daten wurden korrigiert oder entfernt. Die Daten wurden von den Algorithmen verarbeitet, um die potenziell effektivste Therapie für die jeweiligen Patienten zu empfehlen. In einem vorhergehenden Prognoseschritt wurde das individuelle Resultat aller verfügbaren Therapien geschätzt, die bei dem entsprechenden Patienten bislang noch nicht eingesetzt wurden.
Untersucht wurde die Wirksamkeit beider Algorithmen anhand der Genauigkeit und Präzision der Vorhersage. Dabei zeigte der „Collaborative Recommender“ bessere Ergebnisse als der „Demographic-based Recommender“. Eine Ursache liege in der Ähnlichkeitsberechnung, erklären die Autoren, die Letzterem zugrunde liegt und durch weniger relevante Informationen ungünstig beeinflusst wird, während wichtigere Faktoren gleichzeitig zu wenig Einfluss haben. Dies solle künftig insbesondere mithilfe von Methoden zur Auswahl und Gewichtung von Merkmalen verbessert werden. Darüber hinaus sei eine Berücksichtigung weiterer Informationen bei der Therapieempfehlung unerlässlich, wenn zu Patienten keine oder nur wenige Daten über bisher erfolgte Therapien vorliegen. Für das vorgestellte System verknüpften die Wissenschaftler die beiden Empfehlungsansätze, um den Nachteil fehlender Informationen auszugleichen und die jeweiligen Nachteile der Einzeltechniken des Data-Mining und Machine-Learning zu überwinden. Die Kombination beider Ansätze zeigte die größte Genauigkeit und Präzision der Vorhersage, resümieren die ceres-Autoren.
„No human error“
Die Autoren der Studie sind überzeigt, dass Empfehlungssysteme vor allem Chancen im Hinblick auf eine verbesserte Patientensicherheit und eine erhöhte Effektivität der fachmedizinischen Tätigkeiten eröffnen. Als weitere Vorteile werten sie folgende Punkte:
• bessere Entscheidungen der Ärzte durch schnelleren und umfassenderen Zugriff auf relevante Informationen,
• deutliche Verbesserungen in der Prognostik,  da systematisch geordnete Informationen aus der Patientenakte und den neuesten medizinischen Fachpublikationen zusammengebracht und relevante Muster, z. B. mögliche Wechselwirkungen, automatisch erkannt werden.
• Die durch Informationsmängel bedingte Fehler werden vermieden und die Patientensicherheit erhöht.
• Der Arzt muss weniger Zeit für die Informationsbeschaffung aufwenden und hätte mehr Zeit für ausführlichere Patientengespräche und die Versorgung von mehr Patienten.
• Vermeidung von menschlichen Fehlern aufgrund von Konzentrationsmängeln, z. B. durch Übermüdung.
• Neue Erkenntnisse aus der Forschung können schneller und umfassender Einzug in die medizinische Praxis finden. Die Versorgung der Patienten wird stetig auf den neuesten wissenschaftlichen Stand gebracht.
• Wenn Erfahrungen aus der individuellen Praxis in elektronischen Patientenakten ihrerseits festgehalten und zu Zwecken der wissenschaftlichen Auswertung freigegeben werden, ist ein verstärkter und beschleunigter Rückfluss neuer Erkenntnisse aus der Praxis in die wissenschaftliche Forschung zu erwarten.
• Ein umfassender Datenabgleich kann neuartige wissenschaftliche Erkenntnisse zutage fördern. Diese kommen den Patienten selbst zugute, da die Einordnung von Patienten in spezifische Risikogruppen verbessert werden kann.
Offene Fragen
Der Einsatz von den Empfehlungssystemen geht mit mehreren Herausforderungen und offenen Fragen einher. So fragen sich die Studienautoren aus der individualethischen Perspektive, ob die medizinische Sicherheit durch Entscheidungsunterstützungssysteme tatsächlich in allen Anwendungsbereichen erhöht wird. „Sollten dergleichen Systeme in einigen Bereichen schlechtere Ergebnisse als menschliche Entscheider erzielen, wäre ihr Einsatz aus Gründen der Patientensicherheit ethisch problematisch und das Prinzip der Schadensvermeidung verletzt“, lautet ihre Schlussfolgerung.
• Die Frage nach der Anwendungssicherheit sei letztlich empirisch zu klären. Dabei müsse untersucht werden, wie mit möglichen Fehlern des Systems umgegangen wird. Was passiert, wenn behandelnde Ärzte die Kontrolle über medizinische Entscheidungen verlieren und Empfehlungen des Systems auch dann Folge geleistet wird, wenn menschliche Entscheider es besser könnten?
• Mögliche Auswirkungen von Entscheidungsunterstützungssystemen auf das Arzt-Patienten-Verhältnis: Dieses könnte insofern degradieren, als der Arzt zum bloßen „Erfüllungsgehilfen“ von Empfehlungssystemen  und der Patient zum bloßen „Datensubjekt“ werden. Problematisch wäre es, wenn Ärzte die durch das System bereitgestellten Informationen stärker gewichten, als die Informationen, die ihnen die Patienten selbst geben.
• „automation bias“: Ärzte und Ärztinnen unterliegen einem solchen Bias, wenn sie wertvolles kontextuelles Wissen, wie es ein Arzt allein im Patientengespräch gewinnen kann, weniger Aufmerksamkeit schenken als algorithmisch generierten Informationen. Sollte der Einsatz von Algorithmen einen Verlust menschlicher und professioneller Kompetenzen nach sich ziehen, stiege nicht allein das Risiko medizinischer Fehlentscheidungen, sondern auch das Risiko eines grundlegenden Vertrauensverlusts im Verhältnis zwischen Arzt und Patient, so die Befürchtung der Experten.  
• Die menschliche Fähigkeit, auf persönliche Präferenzen, Ängste und Überzeugungen von Patienten einzugehen sei unabdingbar, um eine Prognose in eine ärztliche Empfehlung zu übersetzen. Nur wenn die individuellen Werte und Interessen von Patienten bekannt sind, könne eine individuelle Wahl zwischen verschiedenen „Trade-offs“ getroffen werden. Diese individuelle Wahl sei aufgrund des Respekts gegenüber der Selbstbestimmungsfähigkeit von Patienten ethisch „hochgradig bedeutsam“.
Nach den individualethischen betrachten die Autoren die institutionenethischen Herausforderungen. Besonderes Augenmerk richten sie dabei auf Systeme, die lernende Algorithmen enthalten.
• In diesen Fällen würden oft weder die Programmierer noch die Anwender die für eine Empfehlungsgenerierung relevanten Prozesse in hinreichendem Maße überblicken. Daher stellten sich einige Herausforderungen, die vor allem die Transparenz und Nachvollziehbarkeit der Arbeitsweise von Algorithmen betreffen. „Verantwortliche klinische Entscheidungen verlangen eine hinreichende Kenntnis der Funktionsweisen des Systems, damit die Vorteile und Grenzen der jeweiligen Empfehlungen nachvollzogen und die automatisch generierten Vorschläge in der jeweils konkreten Situation bewertet und eingeordnet werden können.“
• Insbesondere unüberwacht und teilüberwacht lernende Algorithmen gingen mit Problemen einher. Diese erzeugten eigenständig neue Anweisungen und Modelle, die dann der Steuerung weiterer Prozesse zugrunde gelegt würden. Das Leistungsspektrum dieser Systeme bedinge damit zwangsläufig erhebliche Ungewissheit darüber, wie und warum bestimmte Ergebnisse generiert werden. „Die Anwender können entsprechend keine Unterscheidung zwischen einzelnen Fehlleistungen (im Sinne individueller „system bugs“) und systematischen Fehlleistungen, z. B. aufgrund von „system bias“, treffen.
• Die Studienverfasser sehen daher institu-
tionelle Akteure vor erheblichen Herausforderungen stehen, wenn es um die Ermöglichung verantwortlichen Handelns durch individuelle Akteure geht. Es gelte die Bedingungen zu klären, unter denen es Ärzten gestattet sein sollte, Empfehlungen des Systems zu ignorieren. In diesem Zusammenhang wird folgender Vorschlag erwähnt: Eine maschinell generierte Empfehlung für den behandelnden Arzt sollte in Abhängigkeit davon revidierbar sein, welche Risiken mit der jeweiligen Intervention verbunden sind und welche Kenntnisse der Komplikationsraten bei einem Eingriff und der Fehlentscheidungsraten des Empfehlungssystems existieren.

Vom gesellschaftspolitischen Standpunkt aus fragen die Studienexperten schließlich nach der Verantwortung für ärztliche Fehlentscheidungen oder Fehler von Empfehlungssystemen.
• Das bisherige Haftungsrecht müsse möglicherweise angepasst werden.
• Geklärt werden muss außerdem, in welchen medizinischen Kontexten und für welche Ziele Empfehlungssysteme künftig eingesetzt werden dürfen. „Sollen Algorithmen dazu genutzt werden, Prognosen über die verbleibende Lebensdauer und -qualität schwer kranker Patienten zu generieren?“
• Weitere zu klärende Fragen sind: Sollen die Empfehlungssysteme eingesetzt werden, um Aussagen über die Effizienz unterschiedlicher Behandlungsmethoden zu treffen oder die Aussicht auf eine positive Kosten-Nutzen-Ratio bei individuellen Patienten zu bestimmen?
• Wie weit soll der Einsatz von Algorithmen in der Prognostik gehen?
• Sollen Algorithmen auch dann zur Unterstützung ärztlicher Entscheidungen in Frage kommen, wenn es darum geht, lebenserhaltende Maßnahmen vorzuenthalten oder abzustellen?
• Werden Algorithmen eingesetzt, um eine umfassende Optimierung der Kosten-Nutzen-Bilanz zu erzielen, könnte das Vertrauen ins Gesundheitssystem nachhaltig erschüttert werden, da ein zentrales Prinzip der gesundheitlichen Versorgung hierbei auf der Strecke bliebe – die Würde des Individuums.

Schließlich müsse eine gesellschaftliche Diskussion darüber angestoßen werden, unter welchen Bedingungen ärztliche Entscheidungen durch Algorithmen unterstützt werden sollten und unter welchen Bedingungen ein solcher Einsatz digitaler Systeme nicht infrage kommt. <<
Autorin:
Olga Gilbers

 

Zitationshinweis: Gilbers,O.: „Viele offene Fragen, viele Herausforderungen“, in: „Monitor Versorgungsforschung“ (01/19), 16-19.; doi: 10.24945/MVF.01.19.1866-0533.2116

Ausgabe 01 / 2019

Editorial

RoskiHerausgeber
Prof. Dr.
Reinhold
Roski

 

 

Gemeinsamer Priorisierungskatalog

« Dezember 2022 »
Dezember
MoDiMiDoFrSaSo
1234
567891011
12131415161718
19202122232425
262728293031