Big Data

„Mehr Daten bedeutet nicht automatisch mehr Wissen“

Evidenzbasierte, also wissenschaftliche Medizin ist in Deutschland mit seinem Namen verbunden. Im Interview äußert sich Prof. Dr. rer. nat. Gerd Antes, Co-Direktor von Cochrane Deutschland, zum Hype der Big Data, warnt vor falschen Versprechen und bringt Selbstverständliches in Erinnerung.

Big Data gelten als neue Heilsbringer für die Medizin. Teilen Sie als Vertreter der evidenzbasierten Medizin die Zuversicht?

Prof. Dr. Gerd Antes, einer der deutschen Lordsiegelbewahrer evidenzbasierter Medizin. © Cochrane Deutschland

Man muss sich nicht auf den Standpunkt evidenzbasierter Medizin zurückziehen, sondern braucht nur die grundlegenden Kriterien von Wissenschaft anzuwenden. Dann wird schnell klar, dass die pauschale ‚Hyperisierung‘ von Potenzial eine völlig einseitige Betrachtungsweise ist. Evidenzbasierte Medizin achtet akribisch auf Nutzen, Schaden und Kosten. Bei allen Lobpreisungen der Big Data fällt auf, dass diese beiden letzten Punkte schlicht „vergessen“ wurden. Schaden und Kosten kommen nicht vor. Das ist gerade bei Einführung neuer Technologien oder großer Umwälzungen ein fataler Fehler. Jede Technikfolgenabschätzung wägt diese drei Aspekte grundsätzlich gegeneinander ab. Dieses Fehlen fällt auch dem Laien schnell auf. Nur traut sich bei diesem Hype niemand, das laut zu sagen.

Mehr Daten bedeutet nicht automatisch mehr Information. Mehr Daten können sehr wohl mehr falsche Informationen bedeuten. Natürlich gibt es Aspekte, die Nutzen haben, aber die muss man finden und dann bevorzugt fördern. Wir brauchen nicht niedrigere Schranken und mehr Geld in Big Data. Wir brauchen eine schnellere Bewertung dessen, was wirkliches Potenzial hat.

Für die einen sind prospektive randomisierte kontrollierte Studien (RCT) Goldstandard für die Bewertung diagnostischer und therapeutischer Verfahren. Andere kritisieren deren experimentelle Anordnung und bezweifeln ihre Aussagekraft für Patienten unter Alltagsbedingungen (Real Life Data). Was ist von solch gegensätzlichen Bewertungen zu halten?

Glossar

  • Ein Gen ist ein Teil der Erbinformation, der für die Ausprägung eines Merkmals verantwortlich ist. Es handelt sich hierbei um einen Abschnitt auf der DNA, der die genetische Information zur Synthese eines Proteins oder einer funktionellen RNA (z. B. tRNA) enthält.
  • Eine monogenetische Erkrankung ist ein von einem einzigen defekten Gen ausgelöstes Erbleiden.
  • Translation im biologischen Sinn ist der Prozess, bei dem die Basensequenz der mRNA in die Aminosäuresequenz des Proteins übersetzt (translatiert) wird. Dieser Vorgang findet an den Ribosomen statt. Nach der Vorlage eines einzigen mRNA-Moleküls können zahlreiche Proteinmoleküle synthetisiert werde
  • Bioinformatik ist eine Wissenschaft, die sich mit der Verwaltung und Analyse biologischer Daten mit Hilfe modernster Computertechnik, befasst. Dient derzeit hauptsächlich zur Vorhersage der Bedeutung von DNA-Sequenzen, der Proteinstruktur, des molekularen Wirkmechanismus und der Eigenschaften von Wirkstoffen. (2. Satz: mwg-biotech)
  • Validierung oder Validation ist der Prozess der Prüfung einer These oder eines Lösungsansatzes in Bezug auf das zu lösende Problem.
  • Die Computertomographie (CT) ist ein bildgebendes Verfahren zur Darstellung von Strukturen im Körperinneren. Dabei werden Röntgenaufnahmen aus verschiedenen Richtungen gemacht und anschließend rechnerbasiert ausgewertet, um ein dreidimensionales Bild zu erhalten.
  • Die Parkinson-Krankheit (auch: Morbus Parkinson) ist eine langsam fortschreitende degenerative Erkrankung des Gehirns. Ausgelöst wird sie durch das Absterben von Dopamin ausschüttenden Nervenzellen im Gehirn. Dadurch kommt es zu einem Mangel an Dopamin und zu einer verminderten Aktivität der sog. Basalganglien, die wichtig für die Kontrolle der Motorik sind. Die fortschreitende Störung der Motorik äußert sich in den typischen Parkinson-Symptomen Muskelstarre, Muskelzittern Bewegungsarmut, sowie Haltungsinstabilität.
  • Bei der Pandemie wird eine (Infektions-) Krankheit länder- und kontinentübergreifend verbreitet. Abgeschiedene Gebiete, wie einsame Inseln, manche Urwälder oder Gebirgstäler, können vor einer Infektion verschont bleiben.

Das Abheben auf Real Life Data ist eine der ganz großen Fehlentwicklungen beim Erkenntnisgewinn. Wissenschaft produziert Richtiges und Falsches und damit zwanglos auch „falsch Positive“. Dieser Begriff kommt aus der Diagnostik, gilt aber für die Wissenserzeugung ganz allgemein. Da gibt es Aussagen, die z. B. von Big-Data-Mechanismen als neues Wissen gekennzeichnet werden, tatsächlich aber falsch sind. Wir werden zwangsläufig von einer Welle von falsch Positiven überrollt werden, wenn wir nicht die von Ioannidis (s.u.) geforderte rigide Methodik anwenden. Sie ist auch nicht fehlerfrei, aber viel sicherer als Beobachtungsstudien oder riesige Datenmengen, deren Validierung nicht mehr nötig erscheint.

Ist es nicht grundsätzlich sinnvoll, auf weitere Daten aus bildgebenden Verfahren, Genomsequenzierungen, Registern, Beobachtungsstudien oder generell auf Sekundärdaten zuzugreifen?

Ja. Grundsätzlich ist es sinnvoll. Wir haben jedoch 20 Jahre Erfahrung, die zeigt, wie fehlerhaft das sein kann. Zwei Beispiele: Krankenkassen analysieren ihre Abrechnungsdaten, die aber wegen der Abrechnungssysteme großenteils kein Abbild der Krankheiten geben. Zieht man aus ihnen Schlüsse auf die Medizin, sind diese zwangsläufig falsch. Ähnliches gilt für genomassoziierte Daten: Es ist naiv zu glauben, wenn ich einen genetischen Schalter gefunden habe, diesen umzulegen und damit die Krankheit zu heilen. (Das gilt nicht für monogenetische Krankheiten, d. Red.) Hier wird jede Menge falsche Hoffnung produziert. Warum? Weil es für eine Krankheit nicht einen genetischen Schalter, sondern eine Fülle davon gibt, die überdies wechselseitig miteinander agieren. Die Bioinformatik quält sich seit vielen Jahren damit herum, dort Ordnung zu schaffen. Und jetzt kommen die Heilsversprecher von Big Data und tun so, als ob das mit einem Fingerschnippen erledigt werden könnte.

Welchen wissenschaftlichen Ansprüchen müssen Daten genügen, die vorgeblich näher am medizinischen Alltag sind, also die medizinische Routineversorgung widerspiegeln?

Das sind schon Beobachtungsstudien. Aber wenn ich nicht den ersten Schritt tue – den proof of principle“ – dann weiß ich nicht, ob etwas überhaupt funktioniert und gucke gleich, was macht es im Alltag. Damit bewege ich mich auf extrem dünnen Eis. Ich führe etwas ein und frage danach die Patienten. Werden die „richtigen“ Leute gefragt, also diejenigen, die zufrieden sind, dann ist dieses Verfahren „erfolgreich“.

Inwieweit könnten Real Life Data in RCTs integriert werden und dazu beitragen, die Bewertung diagnostischer und therapeutischer Verfahren vielleicht sogar zu verbessern? Gibt es dafür Beispiele?

Ja, seit 30 Jahren. Natürlich sind RWD* das, was in der Arzneimittelentwicklung seit Ewigkeiten gemacht wird: Nach der Zulassung kommt die Phase IV, wo die randomisierten Studien mit Marktdaten ergänzt werden.

Mein orthodoxes Credo lautet: Wir haben fast alles, müssen diese Methodik nur viel rigider anwenden, die fast 90 Jahre lang seit der Randomisierung (1932) von vielen klugen Köpfen entwickelt worden ist. Jetzt kommen Leute daher und meinen, sie müssten ein bisschen disruptiv sein. Deren Argumente sind aber nicht wissenschaftlich. Es gibt Artikel und Bücher, die fordern regelrecht die Abschaffung der Theorie durch Datenwissenschaft, weil die Datensintflut helfe, alle Probleme sicher zu lösen. Das ist wohl der größte Schwachsinn, den man aus wissenschaftlicher Perspektive formulieren kann.

Die personalisierte Medizin, die auf Omics-Daten setzt, bringt mitunter Ein-Patienten-Studien ins Spiel. Ist das eine Alternative zu den RCTs?

Nein, natürlich nicht. Wir predigen seit Jahrzehnten, dass ein einzelner Fall keinerlei Verallgemeinerungsfähigkeit für den nächsten Patienten hat. Die Präzisionsmedizin hat den gleichen Traum, dass sie mit der völligen genetischen Entschlüsselung die komplette Architektur des Menschen kennt und damit auch den Schalter, mit dem sie Symptome ausschalten kann. Ich verweise hier auf einen Artikel zur Entstehung von Parkinson (Gasser, s.u.). Alles, was man für die Entwicklung von Therapien braucht, ist das bekannte Repertoire: falsch-positive Ergebnisse kleinhalten, im ganzen Entwicklungsprozess das Richtige schneller finden, das Falsche schneller ausschließen und Fehler grundsätzlich minimieren.

Gibt es Beispiele, wo Big Data in Studien integriert wurden, die den Prinzipien wissenschaftlicher Evidenz gehorchten?

Farbliche Darstellung der Aktivität eines Wikipedia-Bots über einen längeren Zeitraum: typisches Beispiel der Veranschaulichung von „Big Data“ mit einer Visualisierung. © CC-Lizenz

Da muss man auf die Definition von Big Data zurückkommen: Big Data sind nicht definiert. Das ist die Grundlage der Verwirrung. Bücher wie „Das Ende des Zufalls. Wie die Welt vorhersagbar wird“, die wissenschaftlich nicht ernst zu nehmen sind, tun dann ihr Übriges und schalten in weiten Kreisen jede Reflexion und kritische Betrachtensweise aus.

Natürlich gibt es überall gute Beispiele. Deswegen wäre es auch ein Fehler und auch faktisch unmöglich, den Fortschritt zu verdammen. Zum Beispiel Register mit kompletten Daten, mit denen medizinisch sehr relevante Fragen beantwortet werden können. Das gibt es alles, aber das ist kein Big Data.

Big Data ist das Versprechen, dass wir nur Zugang zu allen Daten haben müssen, auf die irgendwelche intransparenten Mechanismen losgelassen werden. Negativbeispiel hierfür ist Watson von IBM, der laut Werbung die Welt verbessern wird. Dafür gibt es bisher nicht die geringsten Belege. Dr. Watson ist gerade aus einer der größten US-amerikanischen Krebskliniken, MD Anderson, herausgeflogen.

Der etablierte Grundsatz orthodoxer Methodik für Entscheidungen in der Medizin ist, systematische Fehler (Bias) zu minimieren (Risk-of-Bias-Konzept) und damit das Risiko, zu kontrollieren, systematisch falsche Ergebnisse zu produzieren. Künstliche Intelligenz kennt dieses Problem überhaupt nicht, weil sie automatisch alles richtig macht. Belege dafür fehlen jedoch weitgehend. In einschlägigen Publikationen werden aus der Medizin immer die gleichen Beispiele für den Big-Data-Erfolg genannt. So konnte Google angeblich Grippe-Pandemien vorhersagen. Das ist längst widerlegt (Nature 494, 155–156 (14 February 2013) doi:10.1038/494155a). Die Prognose gelang ein oder zwei Jahre, im dritten nicht mehr. Warum? Sie hatten die ersten beiden Jahre einfach Glück, es wird jedoch selbst heute noch als Erfolgsstory genannt. Die Beispiele stammen großenteils aus erfolgreicher Verkaufsförderung durch personalisierte Werbung, die als Vorbild für die Medizin sicherlich zweifelhaft ist.

Was muss passieren, damit das viel beschworene Potenzial von Big Data in der Medizin dem Patienten nutzt?

Man muss sich wieder darauf besinnen, dass der Patient im Mittelpunkt steht. Blickt man auf Förderprogramme, so sind manche geradezu schädlich. Ich beobachte seit Jahren eine Biologisierung der Medizin, wo der Patient völlig aus dem Blick gekommen ist und wo wir Milliarden in die falsche Richtung werfen und Erkenntnisse gewonnen werden, die nicht zielgerichtet zu Methoden entwickelt werden und implementiert werden. Trotz der geforderten Translation von Forschungsergebnissen in die Praxis erleben wir eine extreme Asymmetrie des Mitteleinsatzes zugunsten von Big Data und Digitalisierung, während die Umsetzung der Erkenntnisse am Menschen als kostengünstige Selbstverständlichkeit angesehen wird. Das ist sicherlich falsch. Gerade der letzte Schritt für den Menschen braucht eine valide Methodik, rigide Überprüfung des Erfolgs durch empirische Verfahren. Der Erfolg muss an patientenrelevanten Ergebnissen gemessen werden, nicht an der Anzahl Datenbanken oder dem Digitalisierungsgrad von Kliniken und Arztpraxen. Dafür sind Big Data und Digitalisierung Hilfsmittel, aber nicht das Ziel der Medizin.

* RWD: Real World Data, Anm.d.Red.

Literatur:

http://www.zeit.de/2017/25/medizin-studien-forschung-fehler-pharmaindustrie-john-ioannidis/
Thomas Gasser, Das Zittern hat eine Geschichte, in: FAZ, 17.5.2017, http://www.ghst.de/fileadmin/images_redesign/neurowissenschaften/Alterserkrankungen/FAZ_Gasser.pdf

Literatur von Prof. Dr. Gerd Antes:
http://www.laborjournal.de/editorials/981.lasso
https://www.aerzteblatt.de/archiv/175874/Big-Data-und-Personalisierte-Medizin-Goldene-Zukunft-oder-leere-Versprechungen

Weiterführende Literatur:
Netzwerk Evidenzbasierte Medizin: http://www.ebm-netzwerk.de/
Mehr Daten kann auch mehr falsche Infos bedeuten: Meng , XL /Xie, X.: I got more data, my model is more refinded, but my estimator is getting worse! Am I just a dumb?, Econometric Reviews, Vol. 33, 2014, http://dx.doi.org/10.1080/07474938.2013.808567
Traue keinen Anekdoten: http://www.students4bestevidence.net/1-2-anecdotes-are-unreliable-evidence/
Casey Ross, Ike Swetlitz: IBM pitched its Watson supercomputer as a revolution in cancer care. It’s nowhere close, STAT, 5.9.2017, https://www.statnews.com/2017/09/05/watson-ibm-cancer/

Seiten-Adresse: https://www.telemedbw.de/de/fachartikel/mehr-daten-bedeutet-nicht-automatisch-mehr-information/