Sie sind hier: Startseite Abstracts Kurzfassungen 2021 MVF 02/21 Möglichkeiten und Grenzen der Covid-19-Modellierung
x
Um unsere Webseite für Sie optimal zu gestalten und fortlaufend verbessern zu können, verwenden wir Cookies. Durch die weitere Nutzung der Webseite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen zu Cookies erhalten Sie in unserer Datenschutzerklärung.

Möglichkeiten und Grenzen der Covid-19-Modellierung

30.03.2021 12:00
„Viele dieser mathematischen Modelle, das sehen wir auch jetzt bei Covid-19, betrachten die Pandemie unabhängig davon, wie das menschliche Verhalten – als Antwort auf das Infektionsgeschehen – sich ändert. Sie modellieren die Ausbreitung der Pandemie sehr gut, sie versuchen, möglichst alle Details zu erfassen und wirklichkeitsgetreu abzubilden.“ Das sagt Prof. Dirk Brockmann, Physiker und Professor am Institut für Biologie der Humboldt-Universität Berlin in einem Interview in der „TAZ“. Damit hat er recht, und bringt das Wesen eines jeden Modells auf den Punkt: die inhärente Unsicherheit. Dennoch, so Brockmann, gebe es hervorragende Modelle, die verschiedene mögliche Szenarien skizzieren können, wenn nicht klar sei, welches Szenarium am Ende eintreffe, doch sei es „schon mal ein Gewinn, zu wissen, wie es aussehen könnte“. An dieser Frage arbeiten weltweit viele Forscher vieler Fachrichtungen – vor allem aus der Mathematik und Physik. Die Versorgungsforschung ist – bis auf sehr wenige Ausnahmen – nicht dabei.

doi: http://doi.org/ 10.24945/MVF.02.21.1866-0533.2290

PDF

>> Das „Covid-19 Bayesian Modelling for Outbreak Detection“ soll laut Prof. Dr. Gordon Pipa, Leiter der Arbeitsgruppe Neuroinformatik auf dem KI-Campus an der Universität Osnabrück, die das BSTIM-Modell entwickelt hat, zwei wesentliche Merkmale besitzen, die es von anderen Methoden unterscheidet: „Zum einen liefert die neue Methode einen Vorhersagehorizont, der es ermöglicht, die Verlässlichkeit der Prognosen zu beurteilen“, erklärt Pipa in einer Pressemitteilung vom 23. September 2020 zur Vorstellung eines „Neuen Modells für landkreisbezogene Corona-Vorhersagen“. Zum anderen sei der Einfluss „vom örtlich benachbarten Infektionsgeschehen mit einbezogen“, was es erlaube, auch die Dynamik der Ausbreitung zu bewerten.“ Laut Pipa ist eine von mehreren Herausforderungen bei der Auflösung nach einzelnen Landkreisen die niedrige Fallzahl. „Eine einzelne Prognosekurve kann irreführend sein, da sich die Verlässlichkeit der Vorhersage nicht beurteilen lässt“, erläutert Pipa. Das von seinem Thema und ihm verwandte BSTIM-Modell berechnet daher nicht nur einen einzelnen wahrscheinlichen Verlauf, sondern berücksichtigt viele mögliche Verläufe, die zu den Daten konform sind. Pipa: „Dies ermöglicht die Berechnung sogenannter Vorhersagehorizonte als Maß für die Streuung der Wahrscheinlichkeiten. Auf diese Weise ist eine Einschätzung der Situation einschließlich statistischer Unsicherheiten möglich, die auch bei niedrigen Fallzahlen hilfreiche Informationen liefern kann.“ Darum geben Modelle wie diese Vorhersagehorizonte meist in Quantilen an – um das mögliche Maß für die Streuung der Wahrscheinlichkeiten darzustellen. Diese kann, je nachdem, wie weit in die Zukunft eine Prognose reicht, ganz schön weit sein. Generell gilt: Je weiter, desto höher wird die Streuung. Darum unterscheidet Pipa in seinem Modell zwischen einem Nowcast – der Schätzung der Werte für den aktuellen Tag, korrigiert um die Zahlen durch womöglich verzögerte Meldewerte – sowie einem Forecast für die kommenden fünf Tage. Lediglich fünf!
Problematisch wird es, wenn die Politik  Aktionen mit derartigen Prognosen begründet. Einerseits sei dies zwar „grundsätzlich sehr begrüßenswert“, sagt die Mathematikerin Dr. Marie-Therese Wolfram (2) in einem Interview unter dem Titel „Warum es so schwer ist, die Verbreitung von Covid-19 zu modellieren“ mit der Österreichischen Akademie der Wissenschaften. Andererseits müsse jedoch bedacht werden, wie in diesem Zusammenhang Kommunikation funktioniere, sagt die Assistenzprofessorin an der britischen University of Warwick: „Die Konfidenz-
intervalle, mit denen Wissenschaftler ihre Prognosen versehen, werden von der Politik meistens unter den Teppich gekehrt.“ So hätte der englische Premierminister Boris Johnson versucht, seine politischen Entscheidungen mithilfe einer Gleichung zu untermauern. Wolfram in dem Interview: „Die Gleichung machte absolut keinen Sinn – er hat quasi Äpfel mit Birnen verglichen.“
Obwohl ihrer Meinung nach jegliche Prognosen mit Vorsicht zu genießen seien, hätten derartige mathematische Modellierungen dennoch ihren Stellenwert. Wolfram: „Die Modelle können ständig verbessert werden und je länger der Beobachtungszeitraum wird, desto besser werden auch die Daten.“ So hätten zum Beispiel Kollegen am Imperial College in London ihre Prognosen bereits mehrfach verbessert und revidiert, „einfach weil sie bessere Informationen über die Übertragungsraten für verschiedene Berufs- oder Altersgruppen zur Verfügung hatten“.
Gleiches macht übrigens auch die kürzlich vorgestellte „Simulation der Intensivbettenauslastung für Covid-19 in Abhängigkeit von der Infektionsdynamik und dem zu erwartenden Impfeffekt“. Das DIVI-Prognosemodell hat indes einen eindeutigen Vorteil gegenüber vielen, vielleicht sogar den meisten anderen Modellierungsversuchen (siehe Seiten 26-28). Die durch die Simulation errechneten Konsequenzen für die Belegung der Intensivbetten – abhängig von dem jeweils zu erwartenden R-Wert für den Wildtyp und dem der sich zunehmend verbreitenden Mutanten sowie den gegenläufigen, positiven Auswirkungen der Impfkampagne – können tagesgenau durch die tatsächliche Belegung der Intensivbetten gegengecheckt werden. In der Pressekonferenz anlässlich der Vorstellung des DIVI-Prognosemodells konnte Prof. Dr. Andreas Schuppert vom Institut für Computational Biomedicine der RWTH Aachen überzeugend darlegen, dass sich die Treffer-Wahrscheinlichkeit des Modells bei rund 10% bewegen würde.
Dem ist jedoch leider nicht immer so. „Epidemieprognosen haben eine zweifelhafte Erfolgsbilanz“, stellen Ioannidis, Cripps und Tanner in ihrer bei Elsevier publizierten Arbeit „Forecasting for Covid-19 has failed“ (3) fest. Einige der Ursachen für diese Fehlschläge seien
• schlechte Dateneingabe,
• falsche Modellierungsannahmen,
• hohe Sensitivität der Schätzungen,
• mangelnde Einbeziehung epidemiologischer Merkmale,
• schlechte Nachweise über die Auswirkungen verfügbarer Interventionen in der Vergangenheit,
• mangelnde Transparenz,
• Irrtümer,
• mangelnde Bestimmtheit,
• Berücksichtigung nur einer oder weniger Dimensionen des vorliegenden Problems,
• fehlende Expertise in entscheidenden Disziplinen,
• Gruppendenken,
• Mitläufereffekte sowie
• selektive Berichterstattung.
Die Autoren konstatieren in ihrer Arbeit, dass es unwahrscheinlich sei, dass die Epidemieprognose aufgegeben werde, doch könnten einige (aber nicht alle) der genannten Probleme behoben werden. Ihr Rat: „Eine sorgfältige Modellierung von Vorhersageverteilungen, anstatt sich auf Punktschätzungen zu konzentrieren, die Berücksichtigung mehrerer Wirkungsdimensionen und die kontinuierliche Neubewertung von Modellen auf der Grundlage ihrer validierten Leistung können helfen.“ Doch falls wichtige Entscheidungen (z. B. drakonische Abriegelungen) auf
derlei Prognosen beruhen würden, müssen nach Meinung der Autoren „die Schäden in Bezug auf Gesundheit, Wirtschaft und die Gesellschaft insgesamt und die Asymmetrie der Risiken ganzheitlich betrachtet“ werden, – unter Berücksichtigung der Gesamtheit der Beweise.
Als warnende Beispiele führen die drei Autoren mehrere Real-Fälle an, darunter eines aus New York (4). So hätten „anspruchsvolle Wissenschaftler“ – so New Yorks Gouverneur Andrew Cuomo am 10. April 2020 – den kommenden Ausbruch des Coronavirus untersucht und ihre Prognosen seien alarmierend. Weil sich die Infektionen fast alle drei Tage verdoppeln würden, würde der Staat New York bis zu 140.000 Krankenhausbetten und bis zu 40.000 Intensivstationen mit Beatmungsgeräten benötigen, um eine Katastrophe abzuwenden. Es kam jedoch anders, wie Ioannidis und seine Mitautoren schreiben: Die Zahl der belegten Intensivbetten sei erstmals in der Krise auf 4.908 gesunken, zum anderen wäre die Gesamtzahl der Krankenhausaufenthalte mit dem Virus mit 18.569 weit niedriger als die düstersten Erwartungen ausgefallen. Cuomos damaliges Lamento am 25. Mai 2020: „Hier ist mein Projektionsmodell. Hier ist mein Prognosemodell. Sie waren alle falsch. Sie waren alle falsch.“ (5)
Auch andere Vorhersagen für den Bedarf an Krankenhäusern und Intensivbetten hätten völlig falsch gelegen. Allerdings seien nur sehr wenige Krankenhäuser letztendlich überlastet gewesen – und das auch nur für ein paar Wochen. Ioannidis, Cripps und Tanner: „Die meisten Krankenhäuser unterhielten weitgehend leere Stationen, in Erwartung eines Tsunamis, der nie kam.“ Tragischerweise sei es dadurch in vielen Gesundheitssystemen zu schwerwiegenden negativen Folgen gekommen, nicht durch Überlastung der Covid-19-Fälle, sondern aus ganz anderen Gründen. So hätten Patienten mit Herzinfarkten Krankenhäuser zur Versorgung gemieden (De Filippo, D‘Ascenzo, Angelini, et al. 2020), wichtige Behandlungen (z. B. bei Krebs) seien ungerechtfertigt verzögert (Sud et al. 2020) worden und auch die psychische Gesundheit hätte gelitten (Moser, Glaus, Frangou, et al. 2020). Die Generalkritik des Autorentrios: „Öffentliche Entscheidungsträger vertrauten Modellen (manchmal sogar Blackboxen ohne offengelegte Methodik), die eine massive Überlastung der Gesundheitskapazitäten vorhergesagt hätten.“ (6)
Dennoch plädieren Ioannidis und seine Mitautoren dafür, Daten zu nutzen, um zu verfolgen, wie sich die Epidemie und ihre Auswirkungen entwickeln. Daten könnten helfen, Entscheidungen unter Berücksichtigung von Risikoverteilungen zu titrieren. Sie warnen allerdings davor, dass schlecht funktionierende Modelle und solche, die nur für eine Dimension der Auswirkungen gut funktio-
nieren, ebenso gut Schaden anrichten können. Darum sei dieses Thema nicht nur ein Thema der akademischen Debatte, sondern laut Jefferson et al. ein Thema von potenziell verheerenden, falschen Entscheidungen (7).
Noch eines kommt hinzu: Da sich die Covid-19-Pandemie in Deutschland wie überall auf der Welt nie konstant, sondern immer in mehreren Phasen entwickelt, muss man dazu auch „unterschiedliche mathematische Modelle“ verwenden, die diese Phasen dann auch mehr oder weniger gut beschreiben können. Dies rät zumindest Ingo Dahn (8), der bis 2015 das zentrale eLearning-Institut der Universität Koblenz-Landau leitete. Seit seiner Pensionierung veröffentlicht er unter Dahn Research Neuigkeiten, Gedanken und Ressourcen im Zusammenhang mit seiner Arbeit, so auch zu Fragen der mathematischen Modellierung. Dahns Rat:
• In der ersten Phase, etwa bis Ende März, erfolgt die Ausbreitung des Virus im Wesentlichen ungehemmt, so dass sich das am Besten mit einem exponentiellen Modell beschreiben lässt.
• In der zweiten Phase, die etwa bis Anfang Mai 2020 geht, wird die Ausbreitung des Virus gehemmt – das SI-Modell erweist sich als optimal zur Beschreibung der Situation.
• Die dritte Phase umfasst den Zeitraum von Anfang Mai bis Mitte Juni 2020. Die Lockdown-Maßnahmen wirken, Infektionsketten werden unterbrochen, immer mehr Personen scheiden nach überstandener Krankheit aus dem Infektionsgeschehen aus. Jetzt kann das SIR-Modell die Entwicklung am Besten beschreiben.
• Schließlich werden in Phase 4 Lockdown-Maßnahmen gelockert, das Infektionsgeschehen ist örtlich sehr unterschiedlich. Damit verlieren deutschlandweite Modelle an Bedeutung; andere Modelle, insbesondere zur Modellierung der räumlichen Ausbreitung des Virus, gewinnen an Bedeutung.

Laut Dahn altern Modelle aber auch. Um die Vorhersagequalität eines Modells zu erhalten, sei es daher erforderlich, seine Parameter kontinuierlich anzupassen – solange wie dies möglich ist und kein besseres Modell zur Verfügung steht.  Das weiß man am besten, wenn man es selbst ausprobiert hat. Aus diesem Grund hat er auf seiner Website ein sogenanntes Jupyter-Notebook aufgesetzt, das vor allem für die selbständige, interaktive Arbeit gedacht sei, das aber auch gerne in der Lehre eingesetzt werden könne. Mit diesem Tool kann jeder Nutzer die Grundlagen von drei wichtigen epidemiologischen Modellen verstehen, selbst ausprobieren und damit die Leistungsfähigkeit und die Grenzen der behandelten mathematischen Modelle erforschen. Dies erfordere lediglich ein gewisses Verständnis für ein System von Differentialgleichungen und dessen näherungsweise numerische Lösung mit dem Runge-Kutta-Verfahren. Tja, einfach mal ausprobieren! <<
von:
MVF-Chefredakteur Peter Stegmaier

Zitationshinweis: Stegmaier, P.: „Möglichkeiten und Grenzen der Covid-19-Modellierung“, in „Monitor Versorgungsforschung“ (02/21), S. 22-26. doi: http://doi.org/10.24945/MVF.02.21.1866-0533.2290


Literatur
1: https://www.uni-osnabrueck.de/kommunikation/kommunikation-und-marketing-angebot-und-aufgaben/pressestelle/pressemeldung/news/neues-modell-fuer-landkreisbezogene-corona-vorhersagen-neuroinformatiker-der-universitaet-osnabrueck/?tx_news_pi1%5Bcontroller%5D=News&tx_news_pi1%5Baction%5D=detail&cHash=8f5d14b23e5e0d034c6fdb5329dd3b23
2: doi: 10.1016/j.ijforecast.2020.08.004
3: doi: 10.1016/j.ijforecast.2020.08.004
4: https://www.nytimes.com/2020/04/10/nyregion/new-york-coronavirus-hospitals.html und https://www.forbes.com/sites/sethcohen/2020/05/26/we-all-failed--the-real-reason-behind-ny-governor-andrew-cuomos-surprising-confession/#3e700be06fa5
5: https://www.syracuse.com/news/2020/05/cuomo-ny-coronavirus-projections-all-wrong-too-early-to-tell-if-reopening-is-working.html
6: http://www.healthdata.org/research-article/forecasting-covid-19-impact-hospital-bed-days-icu-days-ventilator-days-and-deaths
7: https://pubmed.ncbi.nlm.nih.gov/21735402/
8: https://mybinder.org/v2/gh/ingodahn/Corona/master?filepath=Deutschland.ipynb

Ausgabe 02 / 2021

Editorial

RoskiHerausgeber
Prof. Dr.
Reinhold
Roski

 

 

Gemeinsamer Priorisierungskatalog

« Dezember 2022 »
Dezember
MoDiMiDoFrSaSo
1234
567891011
12131415161718
19202122232425
262728293031