/KI

Krebsforschung: KI von Google erkennt genetische Mutationen in Tumoren

Megan Molteni (WIRED US) 19.09.2018 Lesezeit 7 Min

Im Kampf gegen Krebs wollen Mediziner auch auf Künstliche Intelligenz setzen. Wissenschaftler in New York haben nun eine Open-Source-KI von Google dazu gebracht, sogar Mutationen innerhalb von Tumoren zu erkennen. WIRED-Autorin Megan Molteni hat mit den Forschern gesprochen.

Als ich in den frühen 2000er Jahren auf der High School war, verbrachte ich eine Woche meiner Sommerferien damit, einen Pathologen im örtlichen Krankenhaus zu begleiten. Jeder Tag in seinem Kellerbüro lief ziemlich gleich ab: Er richtete sein Mikroskop auf eine Gewebeprobe, beäugte diese minutenlang und machte sich methodisch Notizen über die Form der Zellen, ihre Größe und das, was drum herum war. Wenn er genug Anhaltspunkte gesammelt hatte, griff er zum Telefon: „Plattenepithelkarzinom.“ „Adenokarzinom.“ „Gutartig.“

Seit Jahrzehnten verlassen sich Ärzte bei der Krebsdiagnose ihrer Patienten auf die gut ausgebildeten Augen von Humanpathologen. Jetzt bringen Forscher dem Computer bei, diese zeitaufwändige Arbeit in wenigen Sekunden zu erledigen.

In einer neuen Forschungsarbeit, die vor kurzem in der Fachzeitschrift Nature Medicine veröffentlicht wurde, haben Wissenschaftler der New York University (NYU) einen handelsüblichen Google Deep-Learning-Algorithmus neu geschult, um zwei der häufigsten Arten von Lungenkrebs mit einer Genauigkeit von 97 Prozent zu unterscheiden. Das ist dieselbe Art von KI, die Gesichter, Tiere und Objekte in Bildern identifiziert, die in die Online-Dienste von Google hochgeladen werden. Und sie hat sich bei der Diagnose von Krankheiten, einschließlich Augenerkrankungen durch Diabetes und Herzerkrankungen, bewährt. Doch das neuronale Netzwerk der NYU lernte etwas, was bisher keinem Pathologen gelungen ist: die genetischen Mutationen, die in jedem Tumor vorzufinden sind, auf nur einem einzigen Bild zu identifizieren.

KI wurde mit hunderttausenden Bildern trainiert

„Ich dachte, die wirkliche Neuerung wäre, nicht nur zu zeigen, dass die KI so gut ist wie der Mensch, sondern dass sie Erkenntnisse liefern kann, die ein menschlicher Experte nicht bieten könnte“, sagt Aristotelis Tsirigos, Pathologe an der NYU School of Medicine. Er ist der Hauptautor der neuen Studie.

Sein Team besorgte sich also Googles Inception v3, einen Open-Source-Algorithmus, den Google dafür trainierte, 1000 verschiedene Objektklassen zu identifizieren. Um dem Algorithmus beizubringen, Bilder von erkranktem und gesundem Gewebe zu unterscheiden, speisten die Forscher hunderttausende Bilder ein, die in einer öffentlichen Datenbank mit dem Namen The Cancer Genome Atlas (TCGA) bereitstehen.

Sobald Inception herausgefunden hatte, wie man Krebszellen mit einer Genauigkeit von 99 Prozent erkennt, war der nächste Schritt, der KI beizubringen, zwei Arten von Lungenkrebs zu unterscheiden: Adenokarzinom und Plattenepithelkarzinom. Diese stellen die häufigsten Formen der Krankheit dar, an der jährlich allein in den USA mehr als 150.000 Menschen sterben. Unter dem Mikroskop sehen sie fast gleich aus, dabei werden die beiden Krebsarten sehr unterschiedlich behandelt. Den Unterschied zu erkennen, kann für Patienten den Unterschied zwischen Leben und Tod bedeuten.

Beim Test mit Patienten ging die Genauigkeit etwas zurück

Als die Forscher Inception bei zufälligen Proben von Krebspatienten der NYU testeten, ging die Genauigkeit etwas zurück, aber nicht viel. Die KI diagnostizierte die Bilder in 83 bis 97 Prozent der Fälle immer noch korrekt. Das ist nicht überraschend, sagt Tsirigos, da die Proben des Krankenhauses viel mehr Störeinflüsse wie Entzündungen, abgestorbenes Gewebe und weiße Blutkörperchen aufwiesen und oft anders verarbeitet wurden als die gefrorenen TCGA-Proben. Die Verbesserung der Genauigkeit wird nur eine Frage der Zeit sein, sind sich die Forscher sicher. Sie müssten der KI nur diese neuen Einflussfaktoren zeigen, damit der Algorithmus lernen kann, auch diese zu identifizieren.

Es war übrigens kein Mensch, der der Google-KI beibrachte, genetische Mutationen in den histologischen Bildern zu „sehen“. Der Algorithmus lernte diesen Trick von selbst.

Tsirigos' Team fütterte Inception mit genetischen Profilen und Bildern für jeden Tumor aus der TCGA-Datenbank. Als sie ihr System an neuen Bildern testeten, konnte die KI nicht nur feststellen, welche Bilder Krebsgewebe aufwiesen sondern auch die genetischen Mutationen dieser speziellen Gewebeprobe erkennen. Das neuronale Netzwerk hatte gelernt, extrem feine Veränderungen am Aussehen einer Tumorprobe zu bemerken, die Pathologen nicht sehen können. „Diese krebserregenden Mutationen scheinen mikroskopische Unterschiede zu haben, die der Algorithmus erkennen kann“, sagt Tsirigos. Was diese subtilen Veränderungen jedoch sind, „wissen wir nicht. Sie liegen irgendwo in den Tiefen des Algorithmus und niemand weiß wirklich, wie man sie herausholt.“

Das Black-Box-Problem bei Algorithmen

Das ist das Black-Box-Problem von Deep Learning, und es ist besonders dringlich in der Medizin. Kritiker argumentieren, dass Algorithmen erst besser verstanden werden müssen, bevor sie großflächig zum Einsatz kommen. Wie soll man andernfalls in der Lage sein, die unvermeidlichen Fehlschläge zu erkennen, die den Unterschied zwischen Leben und Tod eines Patienten ausmachen können? Aber Leute wie Olivier Elemento, der Direktor des Instituts für Präzisionsmedizin an der Cornell Universität, finden, es wäre geradezu dumm, ein Verfahren, das in 99 Prozent der Fälle die richtigen Antworten liefert, nicht in einem klinischen Test anzuwenden – auch wenn man nicht wisse, wie es funktioniert.

„Ehrlich gesagt, damit ein solcher Algorithmus in einem klinischen Test eingesetzt werden kann, muss er nicht vollständig entschlüsselt sein. Er muss nur zuverlässig sein“, sagt Elemento. Eine nahezu perfekte Zuverlässigkeit zu erreichen ist aber gar nicht so einfach. Verschiedene Krankenhäuser behandeln ihre Tumorproben mit unterschiedlichen Instrumenten und Verfahren. Einem Algorithmus beizubringen, mit all diesen Variationen umzugehen, wird in der Tat eine schwierige Aufgabe sein.

Doch genau das haben Tsirigos und sein Team vor. In den kommenden Monaten werden die Forscher ihr KI-Programm mit mehr Daten aus verschiedensten Quellen weiter trainieren. Dann werden sie darüber nachdenken, ein Unternehmen zu gründen, um die Zulassung der FDA zu erhalten, der zuständigen amerikanischen Behörde. Die Sequenzierung von Tumorproben ist in den USA aus Kosten- und Zeitgründen nicht immer Standard. Doch man stelle sich vor, man könnte einfach das digitale Foto einer Tumorprobe einsenden und erhält fast sofort eine Diagnose mit geeigneten Behandlungsmöglichkeiten? Genau das soll das Projekt möglich machen.

„Die große Frage ist, ob die Sache vertrauenswürdig genug ist, um die derzeitige Vorgehensweise zu ersetze“", sagt Daniel Rubin, Direktor für biomedizinische Informatik am Stanford Cancer Institute. Es werden wohl erstmal sehr viele Überprüfungen nötig sein, meint er. Trotzdem deute alles auf eine Zukunft hin, in der menschliche Pathologen mit Computern zusammenarbeiten. „Was diese Studie wirklich zeigt, ist, dass auf den Bildern viel mehr Informationen zu sehen sind, als ein Mensch darauf erkennen kann.“

Menschen können sich um die schwierigen Fragen kümmern

Das ist ein Thema, das über die reine digitale Pathologie hinausgeht. Da Google und andere Unternehmen modernste Algorithmen als Open-Source-Code zur Verfügung stellen, können Forscher nun relativ einfach ihre eigenen KI-Projekte starten. Mit nur ein wenig Anpassungsarbeit sind die neuronalen Netze bereit, auf einen Berg von biomedizinischen Bilddaten losgelassen zu werden – nicht nur Bilder von Tumoren.

Ich frage Tsirigos, ob er Schwierigkeiten hatte, Pathologen zu finden, die freiwillig seinen Krebs-Klassifikator trainieren wollten. Er lacht. Am Anfang hätte er Angst gehabt, jemanden von der NYU zu bitten, sich dem Projekt anzuschließen. Schließlich würden sie dazu beitragen, einen zukünftigen Konkurrenten aufzubauen. Doch am Ende war es einfach. Die Leute waren neugierig darauf, was Inception bewirken kann. Nicht nur bei Lungenkrebs, sondern auch bei eigenen Projekten. Sie hätten keine Angst davor, ersetzt zu werden, sagt Tsirigos. Sie seien begeistert, dann selbst tiefer gehende Fragen stellen zu können, weil sich die Maschine um die einfachen kümmert. Nach dem Motto: Überlasst die Objekterkennung den Maschinen, es ist noch viel Medizin für den Menschen übrig.

Dieser Artikel erschien zuerst bei WIRED.com
Das Original lest ihr hier.