„Wir stoßen mit den etablierten Methoden an Grenzen“
http://doi.org/10.24945/MVF.02.20.1866-0533.2206
>> Sie sind seit einem guten Jahr, seit März 2019, Chairman des hih. Was haben Sie denn in dieser Funktion in diesem Zeitraum erreicht?
Zunächst waren wir damit beschäftigt, das Experiment namens health innovation hub mit Struktur und Leben zu erfüllen, um in der Lage zu sein, die Digitalisierung der Medizin voran zu bringen. Das ist erfreulicherweise gut gelungen, obwohl die Rahmenbedingungen nicht ganz optimal waren, weil wir zeitlich doch recht eng beschränkt sind, da wir uns ja schon Ende 2021 wieder auflösen werden. Dennoch ist es uns gelungen, qualifizierte Experten aus attraktiven bestehenden Jobs herauszulösen und sie dazu zu animieren, sich auf dieses Experiment, ja auf dieses Abenteuer, ein Stück weit einzulassen. Nun haben wir eine fast einmalige Interdisziplinarität zwischen Ärzten, Apothekern, Pflegern, Juristen, Politikwissenschaftlern und Start-Up-Unternehmern versammelt, die bei uns in einer – man darf das schon so sagen – ganz besonderen Symbiose zusammenarbeiten.
Wie wollen Sie nun den Bereich der Digitalisierung voranbringen, um mit dieser Technologie die Medizin zu verbessern?
Wir wollen zumindest unseren Beitrag dazu leisten, die Medizin ein wenig besser zu machen. Das ist das, was uns trägt.
Nachgehakt: Was haben Sie bislang erreicht?
Orientiert an der Agenda des BMG, die gerade in Sachen Digitalisierung sehr reichhaltig ist, tragen wir dazu bei, dass die recht theo-
retisch im Gesetz verankerte Digitalisierung auch tatsächlich beim Patienten ankommt. Dabei ist allen klar, dass der Weg von der Idee über ein Konzept und über den Gesetzestext bis eben hin in die Detailliertheit derer, die damit arbeiten sollen, ein sehr weiter ist. Doch ist für uns Technologie und Digitalisierung eben kein Selbstzweck, sondern immer nur Mittel zum Zweck, um die Medizin besser zu machen.
Worin genau liegt der Nutzen?
Es geht darum, eine Idee – wie beispielsweise jener der elektronischen Patientenakte – so zu strukturieren, dass ein Maximum an Nutzen für die Patienten herauskommt. Solche Initiativen startet man ja nicht, um Menschen mit Dokumentationspflichten zu quälen, sondern letztendlich um die Medizin ein Stück weit besser zu machen. Das betrifft verschiedenste Dimensionen, beginnend dabei, dass durch gut eingesetzte Digitalisierung die Jobs im Gesundheitswesen attraktiver werden, weil die Digitalisierung dazu beitragen wird, dass alle Leistungserbringer wieder mehr das tun können, für das sie ausgebildet wurden: mit den und am Menschen zu arbeiten. Mit gut strukturierter und am Nutzen orientierter Digitalisierung kann man durchaus dem Pflegenotstand als auch der Ärzteknappheit, die wir in einigen Bereichen schon erleben, entgegenwirken, weil ganz einfach die Produktivität erhöht wird.
Der health innovation hub ist aber nun nicht Teil des Gesundheitsministeriums, sondern lediglich ein Think Tank: Vor- oder Nachteil?
Aus meiner Sicht hat das nur Vorteile, weil wir eben keine nachgeordnete Behörde sind, um das auf Berlin- oder auch Politikdeutsch auszudrücken. Das ist insofern positiv, weil wir in unseren Vorstellungen sehr frei und auch niemandem anderen verpflichtet sind. Und da das Ende unserer Geschäftstätigkeit ohnehin feststeht, müssen wir uns auch nicht um Folgeaufträge, Verlängerungen oder dergleichen kümmern.
Die Gedanken sind frei, aber was wird daraus?
Stimmt schon. Darum müssen wir vorsichtig sein, nicht damit zu beginnen, in einer Art luftleerem Raum zu agieren und zu postulieren. Wir können die tollsten Ideen haben, die gar nichts bringen werden, wenn es niemanden gibt, der sie irgendwo auf der anderen Seite des Zauns auffängt. Das gilt natürlich auch vice versa, denn es gibt natürlich auch Beamte auf Seiten des BMG, die gute Idee haben, die wir dann als solche anerkennen und versuchen, diese weiterzuent-wickeln. Unsere Existenz ist wie die Digitalisierung kein Selbstzweck, sondern funktioniert eben nur im direkten Zusammenspiel mit einem innovativ denkenden und dynamischen Bundesministerium für Gesundheit. Ich sage bewusst nicht nur Bundesminister für Gesundheit, weil nicht nur Jens Spahn dynamisch ist, sondern mit ihm das ganze Team des BMG, das die in dieser Legislaturperiode besonders sichtbar gewordene Dynamik mitträgt.
Es ginge also auch dann weiter, wenn der Gesundheitsminister wechseln sollte, früher oder später.
Das wollen wir mal nicht hoffen. Da hatten wir schon so manche Schreckminute diesbezüglich hinter uns. Doch eigentlich hatte ich gehofft, die seien für die nächsten anderthalb Jahre vorbei.
Scheinen sich neue Schrecksekunden anzubahnen?
Es ist nun einmal so, dass der Spirit, die Geisteshaltung all jener, die aktuell im Team des BMG arbeiten und von denen einige mit Jens Spahn neu ins Ministerium gekommen sind, ein Stück weit an-
steckend sind. Ich finde es beeindruckend, wie offen uns begegnet wird und wie offen uns – vielleicht mit wirklich wenigen Ausnahmen – die Türen stehen. Das ist alles bestimmt nicht selbstverständlich.
Auf einen Think Tank wie der von Ihnen geführte hat auch bestimmt keiner in Berlin gewartet.
Wie man in den Wald hinein ruft, so schallt es wieder raus, sagt dazu der Volksmund. Doch was wir vorgefunden haben, ist keine bloße Ansammlung von Bäumen, sondern ein lebendiger Wald voller guter Echos. Es macht wirklich ausgesprochen Freude so zusammenzuarbeiten.
Was haben Sie für die nächsten zwei Jahre mit dem health innovation hub vor?
Im Fokus stand bisher die App auf Rezept; ein Thema, das in großen
Teilen durch das BMG und insbesondere durch Gottfried Ludewig und seine Abteilung durchdekliniert worden ist. Vielleicht haben wir die eine oder andere Einzelfrage dann noch ein wenig detaillieren dürfen, doch im Endeffekt bestand unsere Arbeit darin, den gesetzlich definierten Rahmen mit einer Rechtsverordnung zu füllen. Den ersten Leistungsausweis für unsere Arbeit haben wir dann erzielt, wenn das BfArM die ersten Apps zugelassen hat und wir dann hoffentlich feststellen werden, dass es ganz viele Menschen geben wird, die diese auch wirklich haben wollen.
Dann wird sicherlich die eigentlich spannende Frage lauten: Cui bono oder wie die Engländer sagen: to whom is it a benefit?
Wir konnten aktuell nur die Voraussetzungen dafür schaffen, dass digitale Gesundheitsanwendungen in die Erstattung kommen und damit verschrieben werden können. Nun wird es darum gehen, mit welchen Anwendungen die Medizin wirklich besser wird und wie man tatsächlich Nutzer davon überzeugen kann, diese auch zu nutzen. Das sind die drei großen Proofpoints, die wir vor uns haben: erst die Zulassung durch das BfArM, dann die Nutzung durch die Patienten und schlussendlich der damit erzeugte Benefit.
Welche Kandidaten werden erfolgreich durch diese Trias kommen?
Es gibt hier verschiedene Kategorien. Zum einen gibt es auch heute
schon digitale Gesundheitsanwendungen, die sich großer Beliebtheit erfreuen. Denken Sie nur an die App „Was hab ich?“ Die finde ich einfach großartig, weil sie das Arztdeutsch in normal verständliches Deutsch übersetzt. Oder eine App des Berufsverbandes der Dermatologen, die das Problem erkannt hat, dass Menschen nun einmal Probleme haben, zeitnah Termine bei Hautärzten zu bekommen und deshalb mit einem Start-Up eine digitale Anwendung anbieten, mit der man Fotos von der entsprechenden Hautveränderung machen und einschicken kann, damit diese bewertet werden können. Und wenn es ernst ist, bekommt man innerhalb von drei Tagen einen Termin bei einem Dermatologen um die Ecke.
Die Nutzung der App kostet 39 Euro. Das muss man fairerweise dazu sagen.
Dennoch werden sich solche Apps relativ schnell durchsetzen, wenn der Nutzen groß genug ist.
Wo insbesondere?
Wir werden es mit zwei großen Bereichen zu tun haben. Zum
Ersten rund um das Management chronischer Erkrankungen, wie etwa Diabetes, Multiple Sklerose, Parkinson, Rheuma und viele, viele andere mehr. Hier geht es vor allen darum, den Menschen zu helfen, ihren Krankheitsverlauf erst einmal zu dokumentieren, um dann den behandelnden Arzt anhand dieses dokumentierten Krankheitsverlaufs in die Lage zu versetzen, besser therapeutisch oder auch medikamentös zu intervenieren. Der zweite Bereich, wo wir relativ schnell Fortschritte sehen werden, ist der des postoperativen Coaching-Bereichs. Hier denke ich zum Beispiel an die Orthopädie, bei der nach einer Hüft- oder Knie-OP eben nicht nur mit dem Physiotherapeuten ein- oder vielleicht zweimal pro Woche geübt wird, sondern täglich, weil eine Art digitaler Gesundheitscoach individualisiert genau steuert, wie hoch das Bein gebeugt werden und wie viel Gewicht darauf verlagert werden darf.
Es wird sicherlich darüber hinaus noch ganz viele andere spannende Dinge geben.
Das ist ja das Schöne dabei, dass man immer wieder aufs Neue positiv davon überrascht wird, wie kreativ die Entwickler sind. Man denke nur einmal an Schuhe von potenziellen Parkinson-Patienten, in denen Sensoren eingebaut werden können, die in der Lage sind, sehr frühzeitig zu erkennen, wenn sich das Gangbild verändert. Das räumt dem Arzt viel frühzeitiger als bislang die Möglichkeiten ein zu intervenieren, lange bevor es zur Krise und zur Entgleisung kommt. Es wird sicher ganz viele solcher Applikationen geben. Aber wie immer im Leben ist der Anfang schwer. Und jetzt geht es nun einmal darum, dass wir die erste Handvoll digitaler Gesundheitsanwendungen durch das BfArM bekommen und diese damit eine Zulassung erhalten. Dann sind wir alle gespannt, ob die Menschen auch bereit sind, diese neue Form der Medizin wirklich anzunehmen und umzusetzen.
Eine Versorgungsforschungsfrage würde lauten, auf welcher Evidenz eine Zulassung erfolgen darf?
Wir brechen hier ganz bewusst mit bewährten Traditionen.
Demnach werden keine RCT gefordert?
Zunächst einmal muss man sagen, dass das, was wir in Deutschland in der Zulassung und in der Nutzenbewertung machen, von der Stringenz her wirklich ausgesprochen positiv und ausgesprochen wichtig ist. Dennoch stoßen wir mit den hier etablierten Methoden und den darin angewandten Instrumentarien an Grenzen, die eigentlich ganz natürlich, weil systemimmanent sind. Gerade wenn es darum geht, digitale Innovationen zu bewerten, gilt das schon alleine aufgrund der zeitlichen Dimension: Wenn eine umfassende Prüfung samt der geforderten Studienlage rund drei Jahre erfordert, kann man davon ausgehen, dass innerhalb dieses Zeitraums schon die nächste, wohl schon die übernächste digitale Innovation am Markt sein wird. Demzufolge wird die in der Zulassung und Nutzenbewertung zu recht geforderte Evidenz immer hinter der immens volatilen Marktentwicklung hinterherhinken und dies nahezu ständig. Insofern ging es darum, dass wir bei der Inverkehrbringung auf der Seite der Sicherheit keine Kompromisse machen, weshalb in Deutschland ein zweistufiges Zulassungsverfahren eingeführt wurde. Das ist auch richtig und wichtig so, denn wir dürfen und wollen auf keinen Fall Schaden anrichten.
Kein Schaden ist noch kein Nutzen.
Deshalb muss im zweiten Schritt, bei dem es um die Frage der Erstattung geht, der Nutzen nachgewiesen werden. Da jedoch der hier geforderte und ja auch sinnvolle Nutzennachweis sehr lange dauert und mit der eben beschriebenen zeitlichen Dynamik digitaler Innovation nicht kompatibel ist, wurde eine einjährige Fast-Track-Phase eingeführt. Hier muss eine Nutzenhypothese vorliegen, aber eben nicht der Nutzen nachgewiesen sein. Es reicht dabei vollkommen, wenn der Inverkehrbringer eine ziemlich konkrete Vorstellung davon hat, welcher Nutzen mit seiner digitalen Innovation verbunden ist.
Doch bewiesen sein muss das noch nicht.
Nein. Der Beweis kann nur in einer wirklichen Real-Life-Situation erbracht werden. Das heißt, dass man zwar mit der Zulassung eine digitale Gesundheitsanwendung in die Erstattung nimmt, dieser jedoch ein Jahr Zeit gibt, die für einen Nutzenbeweis erforderlichen Daten zu sammeln, um so den Nachweis zu erbringen, dass der Nutzen, den man vorher nur geglaubt hat, auch wahrhaft erbracht werden kann. Das ist schon eine sehr fundamentale Abkehr von den bisherigen Traditionen.
Und eine in der Wissenschaft nicht unumstrittene.
Wichtig ist mir, da es um Patienten geht, noch einmal festzuhalten, dass es keine Kompromisse in der Sicherheit gibt. Wir verändern lediglich die Regeln der Erstattung. Auch hier haben wir sehr viel Verantwortung gegenüber den Beitragszahlern, damit im Endeffekt nur das erstattet wird, was wirklich Nutzen bringt. Um dies abzusichern, muss das BfArM vor der Inverkehrbringung überprüfen, ob die zur App vorgelegte Hypothese valide ist. Wenn sie das nicht ist, hat sie keine Chance.
Dennoch wird eine neue App mit einer hinreichend validen Hypothese in einer echten Versorgungssituation ein Jahr lang erstattet, was nichts anders als solidarisch finanzierte Generierung von Real-Life-Data ist. Doch: Ist dieses eine Jahr nicht viel zu kurz?
Das mag sein. Doch hat man auch schon nach einem Jahr recht gute Vorstellungen davon, ob die App hinterher ein Erfolg wird oder nicht. Der große Vorteil dieser Methode besteht vor allen Dingen darin, dass diejenigen, die solche digitalen Gesundheitsanwendungen entwickeln, und diejenigen, die solche Apps finanzieren, die Möglichkeit haben, in diesem einen Jahr relativ schnell und relativ gut die Frage zu beantworten, ob die Menschen die Anwendung annehmen oder nicht. Wenn die Antwort darauf positiv ist, dann findet sich auch die notwendige Zeit und Energie, den Nutzenbeweis wirklich zu erbringen. Ganz nebenbei ist es durchaus so, dass man das eine Jahr um ein zweites verlängern kann. Doch das muss man dann separat beantragen, weil dies auch Einfluss auf das Pricing hat. Doch letztlich wird auch der Einjahres-Zeitraum ausreichend sein, um zumindest ein Gefühl oder eine Idee davon zu bekommen, ob die betreffende Applikation von den Menschen akzeptiert und genutzt wird. Auch das ist schon ein Proof of Concept an sich: Menschen nutzen aktiv eine längere Zeit eben nur das, was für sie tatsächlich einen Benefit entfaltet. Insofern bin ich da entspannt.
Müssen nicht die Evaluationsmethoden und -standards parallel mit entwickelt werden?
Es ist in der Tat so, dass wir hier Neuland betreten. Im Übrigen ist das nicht nur für die digitalen Gesundheitsanwendungen relevant, sondern für die gesamte Medizin. Es gibt zwei Entwicklungen, die uns dazu zwingen, über neue Möglichkeiten und neue Instrumentarien nachzudenken. Das ist zum einen die bereits angesprochene zeitliche Dynamik, die sich auch bei der Entwicklung neuer Medikamente verändert – hier sei nur die Onkologie oder seltene Erkrankungen erwähnt. Das Zweite ist das Thema der personalisierten Medizin. Wenn wir davon ausgehen, dass Menschen auf unterschiedliche Therapien oder unterschiedliche Dosierungen unterschiedlich reagieren, müssen wir viel differenzierter forschen. Damit wird das klassische RCT als Standard der medizinischen Evaluation überfordert, quasi von links überholt.
Was wird die Lösung sein?
Wir müssen uns diesbezüglich neue Methoden einfallen lassen oder aus welchen Gründen auch immer bisher nicht genutzte reaktivieren, um die immer stratifizierteren Patientengruppen beforschen zu können. Das Problem ist, dass diese oft viel zu klein sind, als dass wir sie in klassischen RCT abbilden könnten. Aus diesem Grund haben wir Ende Februar dieses Jahres in Heidelberg den „1. Evidenz Researchathon“ organisiert, bei dem wir Experten, die mit der Evaluation medizinischer Innovation zu tun haben, zusammenbringen. Die Teilnehmer sollten neue Evaluations-Methoden entwerfen oder bestehende, aber nicht genutzte überprüfen. Wir sind der festen Überzeugung, dass wir neben den RCT, die sicherlich für einen Großteil der Fragestellungen immer noch eingesetzt werden können, neue Instrumente brauchen, die uns bezüglich der zeitlichen Dynamik und der zunehmenden Differenzierung in der Nutzenfrage weiter voranbringen.
Im schlimmsten Fall ist der Nutzen 0, im besten Fall 100 Prozent.
Zwischen diesen beiden Antipoden bewegen wir uns. Doch anstatt das vorher tatsächlich in aufwändigen Studien bewiesen zu haben, wollen und müssen wir schneller sein und sammeln die nötigen Daten während der Einjahres-Phase des sogenannten „Fast Tracks“. Was mir daran ganz besonders gefällt, ist die damit verbundene Einsicht und Erkenntnis, dass am Ende eben nicht alles vorhergesagt werden kann. Mit und in dieser Geisteshaltung beobachten das BMG und auch wir die Entwicklung sehr genau, um dann in ein oder zwei Jahren die richtigen Schlüsse zu ziehen und im Zweifel korrigierend eingreifen zu können. Diese Phase des Experimentierens im Bereich des Nutzens brauchen wir, davon bin ich fest überzeugt. Keiner hat – Stand heute – wirklich die Lösung dafür parat. Das ist nun einmal ein iterativer Prozess, den wir gestartet haben und durch den wir gehen müssen.
Das ist auch für die Versorgungsforschung ein neues Gebiet, auf dem man methodisch weiterarbeiten muss.
Ich finde es ermutigend, dass es auch beim G-BA und IQWiG zu spüren ist, dass man sich hier gedanklich öffnet. Deshalb finde ich es spannend, dass bei dem „1. Evidenz Researchathon“ nicht nur das BMG, sondern auch das IQWiG mitgemacht hat und wir eine breite Koalition von Menschen gefunden haben, die sich dieser Herausforderung stellen will. Wir kennen die Antwort nicht, wir wollen uns aber daran beteiligen, neue Antworten auf die drängendsten Fragen zu finden und dafür einen Rahmen zu bilden. Das ist eine klassische Aufgabe, wie sie uns aus meiner Sicht als hih gut zu Gesichte steht: Wir können keine Lösungen vorgeben, wenn wir sie nicht kennen, aber wir können einen Rahmen bieten, in dem wir gemeinschaftlich um die beste Lösung ringen; immer im vollsten Bewusstsein, dass wir mit unseren heutigen Instrumentarien an deren Grenzen gestoßen sind.
Haben Sie schon eine Vorstellung davon, wie eine Nutzengenerierung aus der Zusammenführung von Real-Life-Daten aussehen kann?
Zunächst einmal besteht der Nutzen für den Patienten darin, dass er zum ersten Mal über alle Leistungserbringer hinweg seine Daten longitudinal sammeln kann. Das ist schon ein Wert an sich. Die Daten gibt es natürlich heute überall, nur liegen sie in abgeschotteten Daten-Silos – meist liegen sie eben da, wo sie herkommen. Der gemeinsame Nenner dieser Daten heißt bisher darum Entstehungsort: in der Praxis, Zahnarztpraxis, Reha oder Krankenhaus. Neu ist, dass sich dieser gemeinsame Nenner ändert: der heißt heute Patient. Damit werden unabhängig vom Entstehungsort die Daten zusammengeführt. Das wird einen hohen Nutzen gerade bei der Betreuung chronisch erkrankter Patienten entfalten, weil es hier um die Longitudinalität geht.
Mit welchem Kernnutzen?
Die Datenvielfalt wird die Versorgungsrealität der Menschen deutlich verbessern. Und ganz nebenbei werden wir auch in der Lage sein, durch Übersicht nur der Medikamente die Medikamentensicherheit und -interaktionen, Compliance und Adhärenz in Deutschland dramatisch zu verbessern. Das alleine ist aus meiner Sicht schon ein riesiger Schritt hin zu einer besseren Medizin. Nun kommt noch hinzu, dass es gewisse Zusammenhänge in der Medizin geben kann, die wir bislang noch nicht einmal erahnen können. Um dieser Zusammenhänge habhaft werden zu können, brauchen wir möglichst viele Daten, die man matchen kann. Deshalb ist es mir ganz wichtig gewesen, dass auch im Referentenentwurf des DVG steht, dass jeder Mensch seine Daten freigeben, sozusagen der Wissenschaft in anonymisierter Form spenden kann. Wenn man Millionen dieser Datensätze aggregiert, weiß man aktuell zwar nicht, was herauskommen wird, aber man wird sicher ganz neue Rückschlüsse ziehen und auf neue Zusammenhänge aufmerksam werden, die wir im Augenblick gar nicht erkennen oder auch nur erahnen. Genau das ist das Geheimnis von Big Data.
Was ja auch, wenn wir nur einmal an das Thema der Hypothesengenerierung denken, jedwede Form von Kritik hervorruft.
Das ist völlig normal. Immer wenn es Veränderung gibt, gibt es auch Beharrungskräfte, die so falsch nicht sind. Das Spannende ist aber nun, dass wir in der Wissenschaft eine gravierende Veränderung vor uns haben, die es so bisher nicht gab. Bislang war und funktioniert die Wissenschaft rein hypothesengetrieben. Das heißt, dass vorher eine Idee und eine dazu passende Fragestellung formuliert wird, die dann mit einem adäquaten Studiendesign erforscht wird.
Und auf einmal gibt es dank Big Data einen Zusammenhang zwischen dem Pro-Kopf-Verbrauch von Schokolade und der Anzahl der Nobelpreisträger in einem Land.
Das liegt aber nur daran, weil bei solchem Nonsens die Kausalität vernachlässigt wird. Wer mit Big Data arbeiten will, braucht eben sogenannte kuratierte Datensätze. Das sind verifizierte Daten, die das verhindern, was die Engländer „Garbage In, Garbage Out“ nennen. Solche verifizierte Datensätze zu erzeugen, benötigt einen hohen Aufwand und würde sich in einem europäischen Kontext erheblich leichter durchführen lassen als in einem nationalen. Deshalb hoffe ich, dass wir die Gelegenheit der EU-Ratspräsidentschaft Deutschlands im nächsten halben Jahr nutzen können, um eine Diskussion der Datenraumgestaltung in Gang bringen zu können.
Was braucht man dazu?
Zunächst einmal technisches Know-how: Wie geht man mit solchen Datensätzen um, wie kuratiert und handhabt man sie? Dann brauchen wir ein Governance-Modell, das die Menschen dazu befähigt, ihre Daten freiwillig zu spenden. In einigen europäischen Ländern ist das übrigens bereits heute anders als bei uns: In Finnland zum Beispiel hat jeder Bürger, der das Krankenversicherungssystem in Anspruch nimmt, die Verpflichtung, seine Daten zu spenden, weil sie dem System helfen, sich weiterzuentwickeln. Ich persönlich halte das für sinnvoll, auch wenn es bei uns kulturell und auch historisch anders aussieht. Wie auch immer, braucht man ein Governance-System, das genau festlegt, wer Zugriff auf die Daten im welchem Kontext haben darf. Dafür müssen wir einige Voraussetzungen schaffen, die nicht so ganz einfach sind. Da geht es vor allen Dingen um die rechtliche Frage, weil der Patient heute der Verwendung seiner Daten in einem wissenschaftlichen Kontext zustimmen muss. Stand heute ist diese Zustimmung zweckgebunden, damit auch gebunden an eine Hypothese, eine Fragestellung. Wenn wir jedoch die Fragestellung vorher gar nicht mehr formulieren können, weil wir in einem Big-Data-Zeitalter sind, müssen wir dieses rechtliche Instrumentarium überholen und uns eine neue Lösung überlegen. Auch an dieser Diskussion wollen wir uns aktiv beteiligen und sind dabei, Alternativlösungen zu diskutieren.
Gibt es konkrete Vorhaben, was in diesem Themenfeld während der europäischen Ratspräsidentschaft, die Deutschland ab Juli übernimmt, passieren soll?
Das BMG arbeitet intensiv daran, wobei wir an der einen oder anderen Planung mit beteiligt sind. Es ist für Jens Spahn eine Herzensangelegenheit, dieses Thema weiter zu befördern. Im Rahmen unserer Möglichkeiten unterstützen wir dieses Vorhaben; abgesehen davon aber auch, weil ich ganz persönlich davon überzeugt bin, dass wir uns als Gesundheitsstandort nicht abhängen lassen dürfen. Es gilt diese Entwicklung in der Wissenschaft nicht nur mitzumachen, sondern aktiv mitzugestalten – dies trotz der deutschen Datenschutzphilosophie und auch trotz der Gläubigkeit an RCT, die sicherlich immer noch ihre Berechtigung haben, aber eben ein Stück weit überholt sind.
Im Digitale-Versorgung-Gesetz wurde auch festgelegt, dass es ein Datenforschungszentrum geben wird.
Im Augenblick ist noch unklar, wer Betreiber dieses Datenforschungszentrums sein wird. Doch halte ich dieses durchaus für eine nationale Aufgabe. Insofern muss es eine Institution sein, die viel Anerkennung und Know-how mitbringt und mit der technischen Umsetzung beauftragt werden kann. Als ersten Schritt werden in dieses Datenforschungszentrum dann die Abrechnungsdaten der Krankenkassen eingespeist. In einigen Fällen sind das wirklich Datenschätze, die damit der Wissenschaft zugänglich gemacht werden. Das ist aber nur der erste Schritt. Der zweite und der aus medizinisch und wissenschaftlicher Sicht wesentlich interessantere ist die Spende von longitudinalen Datengeschichten aus elektronischen Patientenakten. Damit wird ein ständig aufwachsendes Volumen an Daten und
Erkenntnissen erzeugt. Mit dem Datenforschungszentrum wird genau dafür die erforderliche Architektur geschaffen, um alle Datenströme zu sammeln und dann kuratieren zu können. Was nichts anderes heißt, als den Datenmüll von den wahrhaften Daten zu trennen. In diesen Bereich zu investieren, wird ein ausgesprochen hilfreiches Instrumentarium erzeugen, mit dem die Medizin in Deutschland wirklich weiterentwickelt werden kann.
Das wird für den Forschungsstandort Deutschland eminent wichtig werden, weil es hier nicht mehr nur darum geht, nur von Universitätskliniken entsprechende Forschungsdaten zu sammeln, sondern in der Breite und Tiefe Versorgungsdaten zu aggregieren.
Doch bei aller Liebe zu Daten: Wir wollen kein amerikanisches Datenmodell, wo jeder, der Geld hat, die Daten kaufen kann. Wir wollen auch kein chinesisches Modell, in dem der Staat sagt, alle Daten gehören ihm. Wir wollen vielmehr ein individualisiertes Modell, in dem jeder freiwillig seine Daten zur Verfügung stellen kann oder eben nicht, ohne dass es irgendeine Konsequenz für ihn in der weiteren Versorgung gibt. Das scheint mir schon mal ein sehr wichtiger Wert. Dass wir darüber hinaus alles tun werden, um Daten zu schützen, sind wir den Menschen schuldig. Das wird zugegebenermaßen nie zu 100 Prozent funktionieren, weil mit massiver krimineller Energie alle Systeme korrumpierbar sind. Doch wird der Nutzen, der damit einhergeht, für alle eminent viel größer sein als ein möglicher Schaden, so dass ich persönlich bereit bin, dieses Risiko einzugehen. Das aber ist eine sehr individuelle Entscheidung, die jeder so handhaben mag, wie er es für richtig hält.
Mehrere aktuelle Referentenentwürfe für Gesetzgebungsvorhaben beschäftigen sich mit den eben angesprochenen Themen, so das Datenschutz-Anpassungs- und -Umsetzungsgesetz, das Patientendaten-Schutzgesetz und die Digitale-Gesundheitsanwendungen-Verordnung. All das sind Referentenentwürfe, die noch verändert werden können und zu denen natürlich die Fach- und Interessenvertreter, so denn die derzeitige Corona-Krise einmal ausgestanden sein wird, ihre Stimmen erheben werden. Wie glauben Sie, werden sich diese Gesetzes-entwürfe verändern?
Das Schöne dabei ist: Wir alle waren und sind oder werden alle einmal Patienten. Je nachdem, wie intensiv diese Erfahrung war, wird derjenige entsprechend motiviert sein, dass die anstehenden Referentenentwürfe erfolgreich werden.
Das deutsche Gesundheitswesen zeichnete sich in den letzten Jahren ja nicht unbedingt durch revolutionäre Tendenzen aus.
Das ist vielleicht auch gar nicht schlecht so. Ich persönlich habe jedoch den Eindruck gewonnen, dass heute eigentlich alle begriffen haben, dass eine Veränderung kommen wird, ob man das will oder nicht. Die Frage ist nur jene: Kommt sie in einer Weise, in der wir sie noch gestalten können? Oder schaffen am Ende des Tages die Amazons und Googles dieser Welt ohne unser Zutun ihre eigene Realität, nach der wir dann leben müssen?
Nun beginnen wir ganz klein mit dem elektronischen Patientenpass, der als Schlüssel zur elektronischen Patientenakte dient, in der zu Anfang nicht besonders viel drin ist. Ist da der Frust nicht vorprogrammiert?
Aller Anfang ist schwer, aber irgendwo und irgendwann muss man nun einmal anfangen. Wichtig ist uns, dass auch das Wenige, das drin ist, schon Nutzen schafft. Alleine der Notfalldatensatz ist hier schon ein Anker, weitere die Listen der Diagnosen und der laufend eingenommenen Medikamente und der Allergien. Wenn diese Informationen beim Erstkontakt zwischen Patient und Arzt – ganz besonders in einer Notfallsituationen – vorliegen, ist schon viel geholfen. Wenn wir dieses erstverfügbare, zugegeben kleine Datenkontinuum dann durch Entlassungsbriefe der Krankenhäuser ergänzen, würden wir sehr viele Probleme, die sich jeden Tag in den Praxen in Deutschland abspielen, lösen, weil heute kein Hausarzt weiß, was gestern im Krankenhaus passiert ist und mit welchen Medikamenten der Patient entlassen wurde. Damit wird die Ungewissheit, die durch unsere sektorübergreifenden Strukturen determiniert wird, ein Stück weit zurückgedrängt.
Wann geht es in die nächste Stufe, dass mehr als einzelne Dokumente vorgehalten werden?
Das Schöne an Software und ein ebenso großer Unterschied zur Hardwareentwicklung ist, dass man sie kontinuierlich entwickeln und ständig verbessern kann. Ich war neulich zu Besuch bei Doctolib, ein Unternehmen in Paris, das ein Terminmanagement-Tool für Praxen und Patienten gebaut und inzwischen 115.000 Nutzer hat. Das Start-Up-Unternehmen hat nur zwei Regeln. Die erste Regel lautet, dass jeden Tag eine Innovation in deren Software implementiert wird – wirklich jeden Tag, zumindest jeden Werktag. Die zweite Regel ist die, dass nicht das Unternehmen entscheidet, welche Innovation implementiert wird, sondern das Panel der 115.000 Nutzer bestimmt, welche Innovation es als nächstes haben will. Das ist ein schönes Beispiel dafür, wie man Software tatsächlich ständig optimieren kann, indem man Updates an vom Nutzer gewollten Benefit orientiert. Insofern würde ich mir wünschen, dass die gematik auch auf die Idee kommt zu fragen, was die Ärzte wirklich wollen. Die Tatsache, dass 170.000 deutsche Ärzte per Konnektor an die Infrastruktur angebunden sind, muss man doch aktiv nutzen, um die Schlagfrequenz zu erhöhen. Nur dann kommt man softwaretechnisch weiter. Das ist die Philosophie einer restrained gegenüber der klassischen hardwarebezogenen Plattformstruktur.
Wie würden Sie den Zeitraum einschätzen, wann die nächste Stufe jenseits der bloßen PDF-Sammlung kommt?
Zumindest bei den medizinischen Informationsobjekten (MIO) sind wir schon ein bisschen weiter als mit einer Sammlung von PDFs. Manche bezeichnen sie zwar als digitale Aldi-Tüte, aber ich finde das gar nicht so schlecht, weil darin immerhin schon die verfügbaren Daten gesammelt vorliegen. Das ist für die meisten Menschen schon einmal ein Riesenschritt in die richtige Richtung. Ich glaube nicht, dass der zweite Schritt lange dauern wird. Geben wir der Sache ein Jahr, in dem wir im Rhythmus der Neuerungen relativ schnell vorankommen. Jetzt geht es zunächst einmal darum, zum 1.1.2021 die EPA auf die Straße zu bringen. Wenn man realistisch ist, wird uns klar sein müssen, dass auch dieser Termin schon das eine oder andere Problem zeitigen wird. Darauf muss man dann eben reagieren, aber so etwas nicht zum Anlass nehmen, alles gleich in Grund und Boden zu verdammen. Vielmehr muss für uns jede Verzögerung Ansporn sein, das System besser zu machen und zu stabilisieren.
Was ist mit dem Zeitrahmen?
Ich gehe einmal davon aus, dass die EPA Mitte 2021 stabil funktionieren wird und wir uns spätestens ab Herbst bis Ende 2021 über Neuerungen und weitere Ergänzungen Gedanken machen können. Wie gesagt: Solche Systeme sind lebende Strukturen. Um noch einmal auf Doctolib zurückzukommen: Das Unternehmen gab es vor fünf Jahren noch gar nicht. Was dieses junge Unternehmen in nur wenigen Jahren zustande gebracht hat, muss der Maßstab für uns für die digitale Gesundheitsakte sein, die über die gematik gesteuert wird. Daran arbeiten Markus Leyck Dieken als neuer gematik-Chef und viele andere und nicht zuletzt auch wir, dass diese Idee Realität wird.
Herr Prof. Debatin, vielen Dank für das Gespräch. <<
Das Interview führte MVF-Herausgeber Prof. Dr. Reinhold Roski, Bearbeitung: MVF-Chefredakteur Peter Stegmaier.
Zitationshinweis:
Zitationshinweis
Debatin, J., Roski, R., Stegmaier, P.: „Wir stoßen mit den etablierten Methoden an Grenzen“, in „Monitor Versorgungsforschung“ (02/20), S. 6-11; doi: 10.24945/MVF.02.20.1866-0533.2206