Sie sind hier: Startseite Abstracts Kurzfassungen 2020 MVF 05/20 „Die mangelnde Datenverfügbarkeit ist die größte Hürde“
x
Um unsere Webseite für Sie optimal zu gestalten und fortlaufend verbessern zu können, verwenden wir Cookies. Durch die weitere Nutzung der Webseite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen zu Cookies erhalten Sie in unserer Datenschutzerklärung.

„Die mangelnde Datenverfügbarkeit ist die größte Hürde“

08.10.2020 09:00
Roland Nagel, Geschäftsführer der Gesundheitsforen Leipzig GmbH, beschäftigt sich schon sein halbes Leben lang mit Daten der Gesundheitswirtschaft und betreibt ganz aktuell gleich mehrere Register, wie etwa das nationale Transplantationsregister, das RECCORD-Register der Deutschen Gesellschaft für Angiologie und der Gesellschaft für Gefäßmedizin, und bereitet obendrein gerade die Auswertungsstelle der organisierten Krebsfrüherkennungsprogramme für den G-BA vor. „Monitor Versorgungsforschung“ sprach mit Roland Nagel über den aktuellen Stand der Big-Data-Diskussion in Deutschland.

http://doi.org/10.24945/MVF.05.20.1866-0533.2244

PDF

>> Herr Nagel, in der Ausgabe 05/2018 von „Monitor Versorgungs-forschung“ haben wir mit Prof. Antes und Prof. Häussler ein Streitgespräch zu Big Data geführt, in dem es vor allem um die Potenziale und Hindernisse von Big Data ging. Mehr als zwei Jahre später wollen wir mit Ihnen das Thema erneut aufgreifen. Was sagen Sie aus heutiger Sicht zu den damaligen Aussagen?
In diesem Interview steckte eine Menge „theoretischer Sprengstoff“. Wir gehen jedoch die Themen in der Praxis viel weniger dogmatisch an – aber vielleicht versuchen wir die Dinge mal ein wenig zu sortieren.

Gerne, dann lassen Sie uns doch gleich mit der Kernfrage des damaligen Pro-Kontra-Interviews beginnen: Wie passen Big Data und Kausalität zusammen?
Big Data ist als Begriff nicht sehr gut definiert, eher ein Konglomerat aus Trends und Fiktionen – da stimme ich Prof. Antes zu. Was mir wesentlicher erscheint, ist die Tatsache, dass wir durch die gestiegene Leistungsfähigkeit der Informatik, verbunden mit der Konvergenz der Technologien, immer schneller zu Ergebnissen kommen. Ich denke, das hat man versucht, mit den sogenannten vier bzw. fünf V-Eigenschaften von Big Data abzubilden. Doch ansonsten gibt es ein ziemliches Begriffs-Wirrwarr (Digitalisierung, Machine Learning etc.). Da beschreibt es der von Prof. Häussler verwendete Begriff etwas bodenständiger. Er spricht von „Explorativer Analyse“. Das ist sicherlich auch immer der erste Schritt in der Nutzung von Daten, sollte aber nicht der einzige bleiben.

Sie sprachen eben die vier bzw. fünf V-Eigenschaften an: Volume, Variety, Velocity, Validity, Value. Wo sehen Sie hier Probleme?
Die Eigenschaften Validity und Value wurden übrigens auch in Ihrem Interview mit Prof. Häussler und Prof. Antes angesprochen. Wesentlich erscheint mir immer mehr auch das V, das für Variety und die zunehmende Breite an Daten steht. Gerade darin liegen neue Chancen. Big Data führt natürlich nicht direkt zu einem Verständnis von Kausalität. Richtig ist: Große Datenmengen führen ohne geeignete Methoden und Verifizierungsprozesse zu gar nichts. Aber das tun Randomisierte Kontrollierte Studien, kurz RCT, auch nicht. Die Data-Science-Gemeinschaft forscht derzeit – soweit ich es beobachten kann – zunehmend daran, sich mit Modellen der Kausalität zumindest anzunähern. Dabei spielt die Diversität oder Breite der Daten eine viel größere Rolle als deren Menge bzw. die anderen Vs. Allein schon das durch aktuelle Diskussionen zunehmende Bewusstsein, dass Korrelationen in Beobachtungsdaten wenig bedeutungsvoll sind und man an deren Stelle die Fragen nach den Mechanismen hinter den Korrelationen stellen muss, ist hilfreich. Da halte ich es mit Yoshua Bengio, der 2019 in der Fachzeitschrift „WIRED“ gesagt hat: „Die zentrale Frage ist, mit Algorithmen das ‚Warum‘ zu verstehen und nicht ‚nur‘ Muster zu erkennen.“ Es geht an der Stelle also eher um die Frage: „Warum passiert etwas?“ als um die Frage „Was passiert?“. Polemisierende Beispiele von den Kindern und den Störchen oder dem Käse und der Bettdecke, die im Interview mit den beiden Professoren gebracht wurden, versuchen hingegen Big Data zu diskreditieren und tragen in der Debatte um dieses eben noch relativ junge Forschungsfeld, in dem es noch viel zu entdecken gibt, wenig bei.

Da Sie Praktiker sind: Hätten Sie ein Beispiel?
Na sicher. Wir beschäftigen uns seit längerem mit der Analyse strukturierter Daten mittels neuer Methoden und Technologien. So haben wir beispielsweise seit einiger Zeit eine Kooperation mit dem Münchner Start-up Xplain Data, dessen Technologie uns u. a. hilft, über banale Korrelationen hinaus mögliche Ursache-Wirkungs-Beziehungen in Daten zu identifizieren oder zumindest Zusammenhänge besser zu verstehen.

Wie das?
Das erklärt Dr. Michael Haft von Xplain Data immer so: „Basierend auf Beobachtungsdaten kann man Kausalität nicht beweisen, aber man kann Hinweise gewinnen – je nach Art der Daten auch sehr konkrete Hypothesen.“ Ich übersetze das, in dem ich behaupte: Das Wissen über „Was verursacht was?“ ist die Grundlage für intelligente
Interventionen und damit auch für die Vision von Precision Medicine.

Geht es noch etwas konkreter?
Eines von vielen Beispielen: Das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) hat vor einiger Zeit davor gewarnt, dass es bei der Gabe von Fluorchinolantibiotika zu schweren und langanhaltende Nebenwirkungen im Bereich der Muskeln und Gelenke sowie des Nervensystems bis hin zu erhöhten Suizidraten kommen kann. Da stellen sich aus meiner Sicht dann für die Praxis sofort mindestens zwei zentrale Fragen:
1. Wenn das BfArM eine solche Warnung ausspricht: Wie erfährt eigentlich der Patient davon?
2. Findet man in den Gesundheitsdaten – in unserem Kontext mit Big-Data-Methoden – die durch Medizin und Pharmakologie inzwischen belegte Ursache-Wirkungs-Beziehung bei den Fluorchinolantibiotika?

Das bedeutet?
Hier stellt sich für mich ganz automatisch die Frage, ob wir zukünftig solche Nebenwirkungen nicht systematisch und frühzeitiger mit den geeigneten Methoden aus Routinedaten erkennen können?

Die Antwort dazu lautet?
Zu ersten Frage: Gar nicht oder über den Arzt, jedenfalls nicht gezielt und zeitnah. Da wäre es aus meiner Sicht notwendig, dass man die Patienten proaktiv und systematisch über verschiedene Kanäle informiert. Hier müsste angesetzt werden, denn die Daten dazu sind ja vorhanden. Das bedeutet: Wir wissen oder könnten zumindest wissen, wer die Medikamente bekommen hat, wer das Risiko einer Nebenwirkung hat und in welchem Fall wir besonders vorsichtig sein müssen. Etwas polemisch formuliert: Eine Person, die zu Depressionen neigt, mit Chinolonen zu behandeln, provoziert einen Suizid. Und das lassen wir auch noch zu!

Und zur zweiten Frage?
Hier kann man ansetzen, wenn man denn die nötigen Daten hat. Dann findet man Beziehungen in den Daten und das mit einem „Bestimmtheitsgrad“, der deutlich über eine normale Korrelation hinausgeht.

Dabei handelt es sich aber doch um keine kausale Beziehung?
Nein, das nicht. Aber es ergeben sich in den Daten, die – das ist ausschlaggebend – vorqualifiziert sind, Hinweise auf Ursache-Wirkungs-Beziehungen. Der Begriff „Vorqualifizierung“ ist hier sehr passend, denn man braucht Methoden, die den „Wald von Korrelationen“ schnell auf wenige relevante Hypothesen einschränken. Sonst sieht man den Wald vor lauter Bäumen nicht. Diese vorqualifizierten Hypothesen müssen dann nach wie vor in der Diskussion mit den Experten der anderen Disziplinen (Medizin, Pharmakologie etc.) bewertet werden.

An dieser Stelle kommt doch sicher häufig der Einwurf zu unbekannten Confoundern.
Natürlich kann und wird es diese geben – aus diesem Grund muss der Experte die Ergebnisse auch interpretieren. Trotzdem sollte der Datenwald auf Basis der vorhandenen Daten erst einmal so gut es geht gelichtet werden. Da kommt uns Big Data sehr weit entgegen: Mehr und möglichst diverse Daten und starke Suchmethoden bedeuten hier, dass weniger Confounder unentdeckt bleiben. Letztendlich halte ich es mit George Box, der schon in den 70er Jahren sagte: „Alle Modelle sind falsch, aber einige sind nützlich“. Zentral ist die immer folgende Frage: Entstehen neue Hinweise oder Erkenntnisse, die wir sonst nicht oder nur mit sehr viel größerem Aufwand hätten?

Was unterscheidet eine „normale“ von einer kausalen Korrelation?
Kausalität lässt sich basierend auf reinen Beobachtungsdaten überhaupt nicht beweisen. Dennoch kann man viele Hypothesen ausschließen, weil eine direkte Kausalität bestimmten Bedingungen genügen muss.

Ein Beispiel?
Wir würden beispielsweise einen kausalen Zusammenhang zwischen zwei Variablen X und Y nur dann vermuten, wenn Y zeitlich nach X folgt, weil immer die Wirkung (Y) der Ursache (X) folgen muss. Zudem muss es einen deutlichen Zusammenhang zwischen X und Y geben, das nennt man dann eine „normale“ Korrelation. Das Problem dabei ist, dass es fast beliebig viele solcher „Korrelationen“ gibt und zudem die meisten davon völlig bedeutungslos sind – da hat Prof. Antes absolut recht. Daher ist die dritte Bedingung die wichtigste: Der beobachtete Zusammenhang lässt sich nicht (oder nur teilweise) über andere Variablen erklären.

Was hat man dann davon?
Erst mit der dritten Bedingung können wir viele Hypothesen ausschließen – und damit gewissermaßen zumindest etwas Licht in den Wald bringen. Sehr vereinfacht formuliert, könnten wir sagen: Der „direkte kausale Anteil“ einer normalen Korrelation ist der signifikante Teil, der sich nicht über andere Variablen erklären lässt. Wichtig in der Praxis ist aber der zweite Teil dieser Bedingungsaussage, der lautet: „nicht über andere Informationen erklärbar“. In der Praxis bedeutet das natürlich, dass dieser kausale Anteil nicht über die anderen verfügbaren Informationen erklärt werden kann – mit der Betonung auf „verfügbar“. Im konkreten Fall sind die Informationen in den Daten oft nicht vorhanden oder stehen nicht in Form von Variablen zur Verfügung.

Also ein Nullsummenspiel?
Aber nein. Hier greifen die anderen Vs: Volume, Variety und Velocity. Der eindeutige Vorteil von Big Data ist, dass mit wachsenden Kontextinformationen – Variety! – aus einer zunächst schwachen Vermutung einer Kausalität eine zunehmend interessante Hypothese werden kann. Daher lautet mein eindeutiges Petitum, dass man die vorhandenen Daten der Forschung viel stärker zugänglich machen muss, als bisher geschehen.

Ein weiterer Knackpunkt des Interviews mit den Professoren Antes und Häussler zu Big Data war die Aussage, dass mehr Daten nicht automatisch zu mehr bzw. proportional mehr Erkenntnissen führen.
Das stimmt. Aber mit Blick auf das Gesundheitswesen muss man einfach sagen: In keinem anderen Markt sitzen die Akteure so sehr auf ihren Daten und sind – hier nenne ich exemplarisch die Stichworte „Datenschutz“ und der „gläserne Patient“ – nicht bereit, ihre Daten zu teilen. Viele Initiativen der Vergangenheit haben das leider gezeigt. Gesundheitsminister Spahn hat seit Langem wieder Dynamik in den Prozess gebracht. Da kann man sich nur wünschen, dass es kein Strohfeuer ist.

Man könnte fast den Eindruck gewinnen, dass Sie mit dem Datenschutz ein wenig auf Kriegsfuß stehen?
Ganz und gar nicht. Die Anforderungen, die der Datenschutz stellt, sind aus meiner Sicht überwiegend erfüllt und durchaus erfüllbar. Man sollte nur die Dinge nicht verwechseln. Wenn ich in Artikeln lese – hier einmal exemplarisch formuliert, dass „viele Bürger besorgt sind, dass ihre sensiblen Patientendaten der Forschung zugänglich gemacht werden, ohne dass ihnen ein Widerspruchsrecht eingeräumt wird“, dann habe ich maximale Zweifel. Was heißt viele? Wo ist die Evidenz? Aus meiner Sicht wird hier ein Problem der Akteure auf die Patienten projiziert.

Was sagen denn die Patienten bei Ihren Projekten?
In all den Projekten, in denen wir mit Patienten oder deren Vertretern zusammenarbeiten, haben die Patienten am wenigsten Probleme mit dem Datenschutz – und zwar nicht, weil sie leichtsinnig mit ihren Daten umgehen, sondern weil sie sich ganz konkret Erkenntnisse für ihre Versorgung erhoffen, die helfen, ihren Alltag zu verbessern und ihre individuelle Situation besser zu verstehen.

Könnten Sie auch hierzu ein Beispiel nennen?
Beim nationalen Transplantationsregister, welches wir im Auftrag der Bundesärztekammer, des GKV-Spitzenverbandes und der Deutschen Krankenhausgesellschaft aufbauen und betreiben dürfen, lagen die Datenschutzstandards von Anfang an sehr hoch und sind natürlich vollumfänglich mit dem Bundesbeauftragten für den Datenschutz abgestimmt. Von Anfang an waren auch die Patientenvertreter eingebunden. Ebenso wird es per Gesetz möglich sein, diese Daten für die Qualitätssicherung und Forschung zu exportieren.

Was geschieht mit den Daten selbst?
Das angesprochene Problem ist zumindest im Gesundheitswesen von theoretischer Natur. Alleine schon deshalb, weil wir uns maximal schwertun, einen wirklich großen Datenpool aufzubauen. Das ist aus wettbewerblicher Sicht im Vergleich zu den Schwergewichten USA und China ein maximaler Nachteil für die deutschen Big-Data- und KI-Forschungsfelder – auch wenn ich keines der beiden Modelle nach Europa importieren möchte. Sie können zudem davon ausgehen, dass wir nationale Initiativen, wie beispielsweise die Nationale Kohorte Gesundheitsstudie (NAKO) oder die gerade ins Leben gerufene Enquete-Kommission „Künstliche Intelligenz“, sehr genau beobachten.

Gibt es dazu einen Anlass?
Nehmen wir die Corona-Pandemie: Wir sehen uns mit einer Fülle von Spekulationen darüber konfrontiert, welche Komorbiditäten einen schwierigen Verlauf bedingen oder auch welche Wirkstoffe diesen verhindern – Stichwort: Hydroxychloroquine. Berichtet werden aber zumeist Korrelationen. Wir erleben aktuell alle, wie schwer es ist, Antworten für solch eine neue Herausforderung zu finden. Dabei wird ein Großteil der Zeit dafür verschwendet, die Daten, die wir haben, mühsam zusammenzutragen – seien es nun die Daten der Krankenversicherungen, der Kliniken, der Gesundheitsämter oder die Daten, die wir über Apps und Studien erst noch generieren müssen.

Welchen Beitrag könnten Sie konkret liefern?
Wir sind bei den Gesundheitsforen in der glücklichen Lage, dass wir sowohl Daten von Krankenversicherungen in einer Forschungsdatenbank halten, als auch verschiedene Register und nationale Datenpools betreiben dürfen, wie zum Beispiel die Krankenhaus-Qualitätsberichte des Gemeinsamen Bundessauschusses (G-BA). Dennoch ist der allgemeine Zugang der Forschungseinrichtungen zu den verfügbaren Daten äußerst schlecht. Das Bundesministerium für Gesundheit will mit dem neuen Forschungsdatenzentrum diesem Missstand begegnen, aber mit Blick auf die letzten 20 Jahre wurden die Hürden bisher nicht wirklich reduziert.

Und worin sehen Sie den Grund dafür?
Es prallen hier Systemwelten aufeinander. Die Frage, die es noch zu beantworten gilt, lautet: Organisieren wir unser Gesundheitssystem stärker marktwirtschaftlich? Dann sind die Daten im Sinne von „Assets“ das neue Öl für die Player, welche durch all die „Real World Evidence“- und Data-Science-Initiativen sowie Organisationseinheiten dokumentiert werden.

Der Antipode wäre?
Leisten wir uns für die Daseinsvorsorge der Gesellschaft im Bereich der Gesundheit zumindest so viel Transparenz, dass wir zentrale Steuerungsfragen beantworten können?

Das tun wir heute nicht?
Das kann man am besten mit einem Beispiel erklären: Mit Einführung des Gesundheitsfonds sind Diagnosen ein zentraler Parameter der Verteilung geworden. Man darf also davon ausgehen, dass die Diagnosen gut dokumentiert vorliegen – mit all den Verwerfungen, die das mit sich gebracht hat und die ich hier nicht nochmals diskutieren möchte. Wir konnten bereits 2012 im Rahmen einer privaten, auf Routinedaten basierenden Studie zeigen, dass die Prävalenz der Multiplen Sklerose in Deutschland weit über allen vorher in medizinischen Publikationen veröffentlichten Prävalenzangaben liegt. Nach einer von uns gemeinsam mit Partnern durchgeführten Veröffentlichung in 2015 haben auch die medizinischen Fachgesellschaften die Zahlen übernommen, zwar erst in den Jahren 2018/2019, aber immerhin. Das heißt aber auch, dass es sechs bis sieben Jahre Zeitverzug gab, um auch nur die einfachsten, deskriptiven Ergebnisse auf Basis von Daten, die eigentlich zur Verfügung stehen, zu übernehmen. Und da reden wir noch nicht einmal von Korrelationen. Ein anderes aktuelles Beispiel: Im Rahmen der Covid-19-Pandemie gab es zu Beginn naturgemäß viele Fragen. Für uns alle war das Thema neu. Daher sollte es auch wissenschaftlich zugelassen werden, dass man nun einmal nicht alle Antworten sofort liefern kann und auch seine Meinung ändern muss, wenn sich die Datenlage ändert. Dennoch hätten einige Thesen sehr schnell auf Basis von Routinedaten verifiziert oder falsifiziert werden können, vorausgesetzt man hätte diese Routinedaten zeitnah nutzen dürfen. In der Realität haben wir aber erst mit der Pandemie begonnen, die Daten zu sammeln. Nicht, dass ich falsch verstanden werde: Für neue Themenstellungen werden die bisherigen Daten in der Regel nicht ausreichen, aber diese gar nicht zur Verfügung zu haben und nutzen zu können, verbraucht einfach wertvolle Zeit.

Und Ihr Unternehmen könnte das?
Wir sind da sicher nicht die Einzigen in der Republik, aber wir haben die Pandemie auf Basis der Routinedaten unserer Partner aus der gesetzlichen Krankenversicherung seit ihrem Ausbruch beobachten können. Gewünscht hätte ich mir einen nationalen, offenen Forschungspool. Damit wären wir deutlich schneller gewesen. Die Verfügbarkeit solcher Daten bestimmt letztendlich auch, wie führend oder nicht-führend Deutschland bei der Entwicklung neuer Big-Data- und KI-Methoden ist.

Ist das denn gewünscht?
Das ist die Frage aller Fragen. In diesem Fall ist es hilfreich, die Argumente anzusehen und sich zu fragen „Was ist die Motivation?“ oder auch „Cui bono?“, also „Wem nutzt das Argument?“.

Schauen wir doch auf die wesentlichen Akteure und ihre Argumente, wie zum Beispiel die Politik.
Wie eben kurz ausgeführt, bemüht sich das BMG gerade um die Errichtung eines Forschungsdatenzentrums, das beim Deutschen Institut für Medizinische Dokumentation und Information (DIMDI) angesiedelt ist, welches nun in das BfArM integriert wurde. Eigentlich gibt es diese Möglichkeit seit Jahren – sie ist aber schwerfällig und die Daten sind nicht aktuell genug. Dennoch wird der Minister als zu „industriefreundlich“ und nicht „datenschutzkonform“ angefeindet.

Wie agieren die Kassen und die Ärzte?
Das zentrale Problem der Krankenversicherungen liegt aus meiner Sicht im Wettbewerb untereinander. Hier werden die Daten zwischenzeitlich als Assets verstanden. Bei den Ärzten ist es so, dass deren Lobbyorganisationen seit Jahrzehnten alle Bemühungen torpedieren, die zu mehr Transparenz führen und den eigenen Hoheitsraum beschneiden. Das kann man gut bei der Gesundheitskarte und Telematik-Infrastruktur beobachten. Nicht, dass ich falsch verstanden werde: Wenn viele Parteien darum ringen, ein Stück vom Kuchen abzubekommen, zeigt das nur, dass mittlerweile verstanden wurde, wie viel Potenzial in den Daten und der Digitalisierung liegt. Daher beansprucht jeder ein möglichst großes Stück für sich. Niemand will die Deutungshoheit abgeben oder verlieren.

Das kann einem schon Sorge bereiten, oder?
Sicher. Meine Sorge besteht hauptsächlich darin, dass wir im Bereich KI und Big Data in Deutschland und Europa weiter an Anschluss verlieren, wenn wir das Problem der Datenverfügbarkeit nicht lösen.

Und fast wie immer kommen wir zu guter Letzt zu den Bürgern.
Die meisten Menschen sind in der Regel dazu bereit, sich mit ihren Daten zu beteiligen – das konnten wir gerade im Rahmen der Pandemie vielfältig beobachten. Mit Ausdrücken wie der „gläserne Patient“ wird überwiegend versucht, den Bürger oder den Patienten in der Debatte zu instrumentalisieren.

Ein weiterer zentraler Streitpunkt in der Auseinandersetzung zum Für und Wider von Big Data betraf den Anspruch strengster Wissenschaftlichkeit versus einem ziellosen Herumwühlen in Daten. Welche Daten sind denn nun geeignet?
Das hat Prof. Windeler im Rapid Report A19-43 im Mai dieses Jahres aufgegriffen und damit die Routine- sowie Patientenaktendaten als fundierte Forschungsquelle disqualifiziert. Lediglich Register und Studien seien das Mittel der Wahl, meint das Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG).  
Was sagen Sie dazu?
Ich denke, dass wir mit dem Ausschluss von Routinedaten einen Fehler machen.

Was heißt das?
Ein einfaches Beispiel: Ein Patient geht zum Arzt und erhält ein Rezept. Der Vorgang wird im Arztinformationssystem vermerkt, sodass die Daten mittelbar zu Daten des Arztes geworden sind. Der Patient erhält auch anno 2020 immer noch ein Stück Papier, genannt Rezept. Damit geht er zur Apotheke. Dort wird dann das Papier eingescannt und im Apothekeninformationssystem erfasst, womit deren Inhalte mittelbar Daten der Apotheke werden. Anschließend sendet die Apotheke das Rezept auch noch zur Abrechnung an ein Apothekenrechenzentrum, das dann wiederum diese Daten an verschiedene Broker und Analysten verkauft. Anschließend geht der Datensatz an das Abrechnungszentrum der Krankenkassen und von dort an die betreffende Krankenkasse, die den Bezahlvorgang auslöst und damit stolzer Besitzer von Routinedaten geworden ist. Bei all diesen Zwischenschritten gilt: An den Eigentums- und Schutzverhältnissen ändert auch die Digitalisierung dieses Prozesses nichts Wesentliches. Aber auch hier gilt: All diese Daten stehen der Forschung immer noch nicht systematisch zur Verfügung. Der Punkt ist also: Es gibt an vielen Stellen, in vielen Organisationen Daten – nur eben leider nicht national.

Ein letzter Aspekt aus dem eingangs erwähnten Streitgespräch bezog sich auf den „Data Scientist“, der bezüglich seiner Kompetenzen nicht besonders gut weggekommen ist. Was meinen Sie dazu?
Als ich Informatik studiert habe, gab es den Begriff „Data Science“
noch gar nicht. Dieser ist systematisch erst Mitte der 90er Jahre entstanden. Die Informatik sollte heute gleichberechtigt neben den Disziplinen der Biometrie, Medizin, Epidemiologie, Genetik, Biologie und Mathematik stehen dürfen. Es hilft nichts, sich gegen das zu wehren, was zwangsläufig auf uns zukommen wird: eine immer höhere Komplexität verbunden mit einer immer höheren Geschwindigkeit. Um die anstehenden Probleme zu lösen, werden zwangsläufig auch unterschiedliche Disziplinen gebraucht.

Herr Nagel, vielen Dank für das Gespräch. <<

Das Interview führte MVF-Chefredakteur Peter Stegmaier.

Zitationshinweis:
Nagel, R., Stegmaier, P.: „Die mangelnde Datenverfügbarkeit ist die größte Hürde“, in „Monitor Versorgungsforschung“ (05/20), S. 6-9; doi: http://doi.org/10.24945/MVF.05.20.1866-0533.2244

Ausgabe 05 / 2020

Editorial

RoskiHerausgeber
Prof. Dr.
Reinhold
Roski

 

 

Gemeinsamer Priorisierungskatalog

« Dezember 2022 »
Dezember
MoDiMiDoFrSaSo
1234
567891011
12131415161718
19202122232425
262728293031