Diagnostik: Bessere Bildgebung dank künstlicher Intelligenz
Forschende der ETH und der Uni Zürich haben ein noch junges Verfahren der medizinischen Bildgebung mit Künstlicher Intelligenz optimiert. Dadurch liefern günstige Geräte ähnlich gute Bilder wie teure und unterstützen die Diagnostik.
Das Wichtigste in Kürze
- Mithilfe Künstlicher Intelligenz (KI) haben Forschende um Daniel Razansky von der ETH und der Universität Zürich ein medizinisches Bildgebungsverfahren verbessert.
Ihren lernenden Algorithmus wendeten sie für die sogenannte optoakustische Bildgebung an, allerdings liesse sich die Methode auch auf andere Verfahren übertragen und damit die Diagnostik unterstützen, schrieben die beiden Hochschulen am Montag in einer Mitteilung.
Die optoakustische Bildgebung beruht auf Laserpulsen, die ins Gewebe geschickt werden. Dort werden sie absorbiert und in Ultraschallwellen umgewandelt. Wie bei der Ultraschallbildgebung lassen sich diese mit Sensoren detektieren, und die Daten zu einem Bild der Gewebestrukturen verarbeiten. Das Verfahren braucht keine Kontrastmittel, kann aber nur Gewebe bis zu wenigen Zentimetern Tiefe abbilden.
Die Bildqualität hängt unter anderem mit der Anzahl Ultraschallsensoren zusammen. Kostengünstige Geräte besitzen aber nur wenige Sensoren. Das Team um Razansky stellte kürzlich eine Möglichkeit vor, auch mit solch kostengünstigen Geräten Gewebebilder mit hoher Qualität zu erzeugen. Davon berichteten sie im Fachblatt «Nature Machine Intelligence».
Zunächst sammelten sie qualitativ hochwertige Bilder von Mäusen, die sie mit einem eigens entwickelten hochwertigen Optoakustik-Gerät aufnahmen. Dieses erfasste die Ultraschallwellen mit 512 Sensoren. Mit diesen hochqualitativen Bildern trainierten sie ein sogenanntes künstliches neuronales Netzwerk - einen bestimmten Typ künstlicher Intelligenz.
Anschliessend schalteten die Forschenden einen Grossteil der Sensoren ab und erfassten Bilder mit nur noch 128 beziehungsweise 32 Sensoren, wie die beiden Hochschulen schrieben. Das schlug sich in der Bildqualität nieder in Form von streifenartigen Störsignalen. Der zuvor trainierte lernende Algorithmus konnte diese Verzerrungen jedoch korrigieren und für die mit 128 Sensoren erzeugten Bilder eine vergleichbare Qualität wie mit 512 Sensoren erzeugen.
Auf ähnliche Weise kann der Algorithmus die Bildqualität erhöhen, wenn sich das zu untersuchende Gewebe nur aus einer Richtung «durchleuchten» lässt. Neben der Sensoranzahl spielt für die Qualität nämlich auch eine Rolle, aus wie vielen unterschiedlichen Richtungen das Untersuchungsobjekt erfasst wird.
Die Qualität ist umso besser, je grösser der Sektor, in dem die Sensoren um das Objekt herum angeordnet sind. Mithilfe des entwickelten Algorithmus liessen sich auch aus einem engumfassten Sektor aufgenommene Bilder verbessern.
«Dies ist bei klinischen Anwendungen von Bedeutung, denn die benutzten Laserpulse durchdringen nicht den ganzen menschlichen Körper, und die meisten oberflächennahen Teile des menschlichen Körpers kann man nur aus einer Richtung erfassen», liess sich Razansky in der Mitteilung zitieren.
http://dx.doi.org/10.1038/s42256-019-0095-3