Suchen

Montag, 21. November 2022

KI in der Medizin

Prof. Dr. Daniel Sonntag im Interview
Redaktion: Deutsches Forschungszentrum für Künstliche Intelligenz GmbH, DFKI
INTERVIEW
Kaiserslautern/gc. Interaktives Maschinelles Lernen, kurz IML, ist der jüngste Forschungsbereich am neuen DFKI-Standort Niedersachsen. Geleitet wird er von Prof. Dr. Daniel Sonntag, der Ende 2020 seine Expertise aus Saarbrücken nach Oldenburg brachte. Im Interview erzählt er, wie es dazu kam, was seinen Forschungsbereich ausmacht und wie er KI in der Medizin noch stärker nutzbar machen will.

Ihr Forschungsbereich profitiert von
Ihrer langjährigen Erfahrung im DFKI. Wie begann alles?
Ich habe tatsächlich als Hiwi angefangen, 1998, im Forschungsbereich Computerlinguistik und Sprachverarbeitung. Dann ging es zur Firma Xtramind, einer Ausgründung des DFKI, als Softwareentwickler. Das war aber auch im damals neugebauten DFKI-Gebäude in Saarbrücken. Von 2002 bis 2004 war ich dann in der Forschungsabteilung Information Mining bei DaimlerChrysler tätig. Da hat es mir eigentlich sehr gut gefallen, nur gab es wenig Möglichkeiten, an wissenschaftlichen Konferenzen teilzunehmen, und der Plan der amerikanischen Partner war es, die Forschungsabteilungen in Deutschland in Vorentwicklung umzubenennen und umzugestalten. Glücklicherweise konnte ich 2004 ans DFKI zurück, in den Forschungsbereich Intelligente Benutzerschnittstellen von Prof. Wolfgang Wahlster, den ich bei der European Conference on AI (ECAI) im Sommer 2004 traf. Unser heutiger Chefberater war damals wissenschaftlicher Geschäftsführer des DFKI. Ich habe diese Entscheidung nie bereut.

Und wie ging es dann weiter?
2016 wurde ich Research Fellow des DFKI und 2020 wie gesagt Forschungsbereichsleiter. Meine Spezialgebiete von damals wie heute sind intelligente Benutzerschnittstellen und Informationsextraktion aus Texten, Bildern und Sensoren.

Das bedeutet?
Zum einen geht es darum, bei zunehmender Anwendungs-Komplexität multimodale, adaptive, mobile und mit Sensoren ausgestattete Benutzerschnittstellen bereitzustellen, so dass diese sich künftig an den Menschen anpassen und nicht umgekehrt. Dies gilt für die Mensch-Umgebungs-Interaktion, Mensch-Roboter-Interaktion und persönliche Smartphone-Assistenten gleichermaßen. Zum anderen wollen wir durch die Kombination von Semantischen Technologien und Maschinellem Lernen (beispielsweise Common-Sense Reasoning und Deep Learning) intuitive Bedienbarkeit erzielen und KI-Systeme insgesamt mit mehr Intelligenz ausstatten für den Alltag, im Bereich der kognitiven, sensomotorischen, emotionalen und sozialen Intelligenz.

Wie kam es zur Namensgebung „IML“?
Da wir Intelligente Benutzerschnittstellen (intelligent user interfaces) immer als Schnittmenge von HCI, also Human Computer Interaction, und KI verstanden haben, und ich diese Tradition weiterführen wollte, stellte sich die Frage, welche Spezialisierung wir im Forschungsfeld einschlagen und damit welches Thema in der Grundlagenforschung wir darstellen würden. Die Idee war dabei, möglichst viele Data Mining und Machine Learning Methoden aus Projekten der Vergangenheit miteinzubeziehen. Außerdem war und ist der Trend zu mehr Machine Learning (ML) unverkennbar, sowie meiner Meinung nach die Konvergenz von AI und ML. Jedenfalls war das Thema schnell klar, die Schnittstelle zwischen HCI und ML und der Name damit gefunden: Interaktives Maschinelles Lernen.

Womit genau befasst sich der Forschungsbereich?
Wir erarbeiten die Grundlagen intelligenter Algorithmen und Benutzerschnittstellen, die Maschinelles Lernen mithilfe von menschlicher Interaktion ermöglichen. Dies erreichen wir durch natürlichen Dialog oder Lernen durch Beobachtungsdaten; also Human-in-the-Loop Systeme, manche sprechen in diesem Zusammenhang auch von „Machine Teaching“. Es ist wichtig herauszustellen, dass wir daran forschen, Computern Sachverhalte und intelligentes Verhalten einfacher beibringen zu können. Ich denke, dass dies in wenigen Jahren gerade für den Mittelstand interessant sein wird. Menschzentrierte KI-Forschung für den Mittelstand wird medizinische, industrielle und insgesamt nachhaltigere Anwendungssysteme hervorbringen, die sich aufgrund der menschlichen Eingabe kontinuierlich verbessern. Dabei geht es uns insbesondere darum, möglichst effizient Benutzereingaben zu verarbeiten und gleichzeitig den Benutzenden durch neue Assistenzsysteme Zeit zu verschaffen: to get more Human Time. Damit ist gemeint, dass man zum einen Endbenutzer geschickt motivieren muss, ein adaptives KI-System anzutrainieren, und andererseits, dass sich diese Investition lohnt, da man dadurch effektive Assistenzsysteme schaffen kann, die der jeweiligen Expertin wiederum Zeitersparnis bringen. Wenn tausende „KI-Augen“ auf viele Patientenakten gleichzeitig schauen können, bietet das sicherlich eine neue Art der Entscheidungsgrundlage bei medizinischen Entscheidungen.

In welchen Anwendungsfeldern möchten
Sie Ihre Forschung hauptsächlich nutzbar machen?
Unsere angewandte KI-Forschung (Applied AI) fließt vor allem in medizinische (https://ai-in-medicine.dfki.de) und industrielle (https://smartfactories.dfki.de) Anwendungen ein. Wir beschäftigen uns außerdem mit dem Thema Nachhaltigkeit und KI (https://cst.dfki.de).

Können Sie ein Beispiel nennen?
Nehmen wir KI in der Medizin. Wie solche IML-Systeme und intelligente Benutzerschnittstellen in medizinischen Anwendungen nutzbar gemacht werden können, ist die zentrale Frage beim Transfer. Am DFKI haben wir schon 2010 gemeinsam mit Kolleginnen und Kollegen ein Sprachdialogsystem für Radiologen und dann später digitale Demenztests entwickelt. Gerade bei diesen Beispielanwendungen, wie auch in KI in der Medizin allgemein, wird es auf ein paar Dinge ankommen. Entscheidend für die erfolgreiche Anwendung von KI und Nutzbarmachung sind der Zugang zu Daten und die Integration in komplexe medizinische Dienstleistungen im klinischen und nichtklinischen Umfeld.

Was ist nötig, damit der Transfer gelingen kann?
Die Menge an nutzbaren, qualitativ hochwertigen Daten muss deutlich erhöht werden. Meiner Auffassung nach wird in Zukunft der Schlüssel zum Erfolg darin liegen, wie gut unsere Strategie ist, Daten und Wissen zu akquirieren. Technologien können relativ leicht repliziert werden, qualitative Daten nicht, weil sie auf längere Sicht zur Verarbeitung mit KI-Technologien mühsam aufgebaut werden müssen. Längerfristig könnte Deutschland damit punkten, wenn es gelingt, die Erfassung patientenrelevanter Basisdaten und anderer digitaler Informationen zum Krankheitsstand zu motivieren und auszubauen. Es gibt bereits Prototypanwendungen, die mithilfe hochqualitativer Daten einer klinischen Studie in dem Projekt Klinische Datenintelligenz (KDI) des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) realisiert wurden. Viele ähnliche Entscheidungsunterstützungssysteme wären heute schon möglich, wenn Datenpartnerschaften zwischen Kliniken und Forschungsinstituten existierten. Dann würden die Potenziale des Einsatzes von KI in der Medizin besser ausgeschöpft werden können. Analysen von Fehlfunktionen klinischer Entscheidungsunterstützungssysteme sind aber unbedingt notwendig. Das gilt auch für industrielle Anwendungen und Daten, sowie Anwendungen und Daten beim Thema Nachhaltigkeit.

Wo ist die Verbindung zwischen IML und Nachhaltigkeit?
Mir gefällt, was DFKI-CEO Antonio Krüger kürzlich zu digitalen Ökosystemen im Unternehmensmagazin geschrieben hat: „Der Begriff der Nachhaltigkeit fokussiert moderne industrielle Wertschöpfung als notwendige Voraussetzung für einen hohen Lebensstandard, gute Arbeit und Bildung, Klimaschutz, zirkuläre Wirtschaft und gesellschaftliche Teilhabe.“ Das zeigt, wie divers das Thema ist und welche Zusammenhänge mit der Wirtschaft existieren können, auch vor dem Hintergrund der 17 Nachhaltigkeitsziele der UN. Es deutet aber auch darauf hin, dass mit KI-Kompetenz (in der Industrie) kein einzelnes Produkt gebaut wird, sondern dass im Zusammenhang mit Nachhaltigkeit die technische Fähigkeit gemeint ist, international relevante und kompetitive Systeme zu bauen. Es stellt sich also die Frage, wie das an einem Forschungsbereich zunächst im Kleinen gelingen kann. Mich interessiert dabei, parallel zur „computational linguistics“, aus dem die Sprachtechnologie hervorgeht, die „computational sustainability“, aus der zukünftig die Nachhaltigkeitstechnologie in Kombination mit IML hervorgehen soll.

Was hat es mit einem mobilen KI-Labor auf sich?
Daran arbeiten wir derzeit. Anknüpfend an die erste Welle der Digitalisierung von smart factories, Daten digital und mobil verfügbar zu machen sowie in Echtzeit kontextabhängig zu interpretieren, fokussieren wir uns nun auf die Nachhaltigkeit: ein mobiles KI-Labor. Dieses kann Edge-Support liefern, hat also eine geringe Latenz-Zeit bei z.B. Virtual Reality-Anwendungen und Echtzeit-Bildverarbeitung, und es gewährt gleichzeitig die Datenhoheit. Dadurch müssten z.B. Patientendaten nicht mehr aufwändig anonymisiert werden.

Und es werden Ressourcen gespart?
Mit einem mobilen KI-Labor wollen wir den Weg zu einer schlanken KI ebnen, da hochqualitative Datensätze schneller erzeugt werden können und starken Transfer-Charakter aufweisen, wodurch die ML-Modelle nicht ständig neu trainiert werden müssen. Dieser Weg in Richtung Ressourcen-Effizienz, also Lernen mit wenigen Daten sowie Lernen mit Feedback der Benutzenden, ist ja interessanterweise zentrales Thema bei IML und reiht sich nahtlos in die technischen Nachhaltigkeitsziele ein, weniger „Carbon Footprint“ zu erzeugen. Der momentane GPU-Energieverbrauch der USA erzeugt etwa halb so viel CO₂ wie der gesamte Flugzeugverkehr in den USA. In Zukunft sollte viel mehr Forschung in effizientere und effektivere ML-Methoden einfließen, also sowohl Daten, Modelle und Algorithmen. Welchen Beitrag dabei Human-in-the-Loop-ML-Systeme leisten können, ist demnach eine der spannenden Fragen. Wie oft muss man neu trainieren, oder gibt es einen Weg zu inkrementellen, iterativen Systemen? Mit Human-in-the-Loop und Selbstlernfähigkeit? Bei gleichzeitiger Ressourceneffizienz und Langzeitautonomie? Zur Beantwortung dieser Fragen müssen sicherlich die Anforderungen der lokalen Dateninfrastrukturen des mobilen KI-Labors mitberücksichtigt werden, ich denke, das wird ein spannender Auftrag. Ich bin gespannt, bei welcher Organisation wir zuerst einen Test vor der Tür machen können, ohne Infrastruktur- oder Bandbreitenprobleme.

Ihr FB ist in den vergangenen anderthalb Jahren stark gewachsen, das Team ist international und arbeitet sowohl in Oldenburg als auch in Saarbrücken, der Keimzelle von IML. Wie würden Sie Ihr Team beschreiben?
Unser Ansatz ist es, in den nächsten fünf Jahren Verfahren zu entwickeln, in denen Computer menschliches Feedback zu ihren Aktionen erhalten, während sie gleichzeitig Daten automatisch erfassen, etwa mittels Eye-Tracking oder Bilderkennung. Daran arbeiten derzeit interdisziplinäre Teams aus der Medieninformatik, der Medizininformatik, der Informatik und Computerlinguistik, der Sprachwissenschaft und allgemein der Kognitionswissenschaften sowie der Mathematik, Human-Computer-Interaction und des theoretischen und praktischen maschinellen Lernens. Künftig sind sicher noch weitere Kompetenzen vonnöten, wenn wir den IML-Prozess mit dem Ziel optimieren wollen, dass Maschinen leichter und schneller vom Menschen lernen. Unser Team stammt heute bereits aus 18 Ländern (https://iml.dfki.de/news/increasing-diversity-within-the-iml-team/). Bedanken möchte ich mich bei allen aktuellen und ehemaligen Mitarbeiterinnen und Mitarbeitern. Ganz besonders bei Alexander Prange, Michael Barz und Hans-Jürgen Profitlich, die den Forschungsbereich mitgegründet haben.

Welches Forschungsvorhaben zählt aktuell zu Ihren wichtigsten?
Es ist wohl die technische Gestaltung von Erklärbarkeit (XAI) der KI-Modelle vor dem Hintergrund des Interaktiven Maschinellen Lernens. 2019 kam mir die Idee, für einen Vortrag beim AAAI Fall Symposium in Washington den Titel „Interactive Machine Learning and Explainable AI, two sides of the same coin“ zu nehmen. Jetzt werden die Ideen viel konkreter und sind auch Gegenstand eines voraussichtlich 2023 beginnenden Projektes des Bundesministeriums für Bildung und Forschung (BMBF) No-IDLE über interaktives Deep Learning, wo KI-Systeme Erklärungen zu ihren interaktiv gelernten Modellen abgeben sollen, und zwar im Kontext von echten Usecases mit realen Bildern. Gleichzeitig sollen die KI-Systeme durch dialogbasierte Erklärungen der nutzenden Experten das richtige Konzept lernen. Durch die Interaktion mit der Benutzerin oder dem Benutzer wird der hohe Stellenwert der Kognitionswissenschaften und Sprachtechnologie deutlich, da robuste KI-Systeme der Zukunft offensichtlich nicht als reine ML-basierte Blackbox-Systeme gestaltet werden können. Ich denke auch in diesem Zusammenhang über eine Ausgründung nach. Das jetzt entstehende KI-Ökosystem mit sechs KI-Kompetenzzentren in Deutschland kann mit den großen DAX-Unternehmen die geeignete massive Intrastruktur bieten, auch diese forschungslastigen Themen in Produkte für Großkunden sowie kleine und mittlere Unternehmen fließen zu lassen. Darum ist auch die instrumentelle Förderung des BMBF in Verbundprojekten mit der Wirtschaft zukünftig in der dritten Welle der KI noch wichtiger.

Über Daniel Sonntag:
Prof. Dr. Daniel Sonntag leitet am DFKI den Forschungsbereich „Interaktives Maschinelles Lernen“ (IML) in Oldenburg und Saarbrücken. An der Universität Oldenburg hat er die Stiftungsprofessur „Applied Artificial Intelligence“ am Department für Informatik inne. Neben Künstlicher Intelligenz in der Medizin und der Industrie spielt das Thema Nachhaltigkeit eine große Rolle und wird in Oldenburg im Rahmen des Forschungsfeldes „Computational Sustainability & Technology" bearbeitet. Sonntag ist außerdem Hauptherausgeber der Deutschen Zeitschrift für Künstliche Intelligenz der Gesellschaft für Informatik (GI).

Wissenschaftliche Ansprechpartner:
Prof. Dr. Daniel Sonntag

Weitere Informationen:
______________________________________