332 12 26MB
German Pages 686 [688] Year 2014
Olaf Dössel, Thorsten M. Buzug Biomedizinische Technik – Medizinische Bildgebung Studium
Biomedizinische Technik
| Herausgegeben von Ute Morgenstern und Marc Kraft
Olaf Dössel, Thorsten M. Buzug
Biomedizinische Technik – Medizinische Bildgebung | Band 7
Herausgeber Prof. Dr. rer. nat. Olaf Dössel Karlsruher Institut für Technologie (KIT) Institut für Biomedizinische Technik Fritz-Haber-Weg 1 76131 Karlsruhe E-Mail: [email protected] www.ibt.kit.edu Prof. Dr. rer. nat. Thorsten M. Buzug Universität zu Lübeck Institut für Medizintechnik Ratzeburger Allee 160 23538 Lübeck E-Mail: [email protected] www.imt.uni-luebeck.de ISBN 978-3-11-025205-7 e-ISBN 978-3-11-025214-9 Library of Congress Cataloging-in-Publication Data A CIP catalog record for this book has been applied for at the Library of Congress. Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. Der Verlag hat für die Wiedergabe aller in diesem Buch enthaltenen Informationen (Programme, Verfahren, Mengen, Dosierungen, Applikationen etc.) mit Autoren bzw. Herausgebern große Mühe darauf verwandt, diese Angaben genau entsprechend dem Wissensstand bei Fertigstellung des Werkes abzudrucken. Trotz sorgfältiger Manuskriptherstellung und Korrektur des Satzes können Fehler nicht ganz ausgeschlossen werden. Autoren bzw. Herausgeber und Verlag übernehmen infolgedessen keine Verantwortung und keine daraus folgende oder sonstige Haftung, die auf irgendeine Art aus der Benutzung der in dem Werk enthaltenen Informationen oder Teilen davon entsteht. Die Wiedergabe der Gebrauchsnamen, Handelsnamen, Warenbezeichnungen und dergleichen in diesem Buch berechtigt nicht zu der Annahme, dass solche Namen ohne weiteres von jedermann benutzt werden dürfen. Vielmehr handelt es sich häufig um gesetzlich geschützte, eingetragene Warenzeichen, auch wenn sie nicht eigens als solche gekennzeichnet sind. © 2014 Walter de Gruyter GmbH, Berlin/Boston Satz: le-tex publishing services GmbH, Leipzig, Grafik: Dr. Martin Lay, Breisach Druck und Weiterverarbeitung: Hubert & Co., Göttingen Einbandabbildung: Hemera Technologies, AbleStock/GettyImages ♾ Gedruckt auf säurefreiem Papier Printed in Germany www.degruyter.com
Vorwort zur Lehrbuchreihe Biomedizinische Technik Die Biomedizinische Technik umfasst die Bereitstellung und Anwendung ingenieurund naturwissenschaftlicher Mittel und Methoden auf lebende Systeme in Biologie und Medizin. Es ist ein faszinierendes, breit angelegtes und interdisziplinäres Fachgebiet, das in der Lehrbuchreihe „Biomedizinische Technik“ aus unterschiedlichen Blickwinkeln betrachtet wird. Mit diesem Band halten Sie einen der Fachbände der Reihe Biomedizinische Technik in den Händen, der sich mit den Grundlagen der Medizinischen Bildgebung befasst – einem wesentlichen Teilgebiet, um Informationen vom Patienten oder lebenden Systemen zu erfassen, aufzubereiten und dem Arzt und Forscher zu präsentieren. Die medizinische Bildgebung ist neben der Aufnahme, Verarbeitung und Präsentation von Biosignalen als wichtiges diagnostisches Verfahren etabliert. Technik zur Bildgebung unterstützt den Arzt dabei, die therapievorbereitende Diagnose für einen Erkrankten zu erstellen, und den Forscher, neue Erkenntnisse über Struktur und Funktion des menschlichen Organismus zu gewinnen. Verfahren der Bildgebung stellen zur Unterstützung und Ergänzung des menschlichen Sehvermögens eine ganz wesentliche technische Assistenz im Rahmen der Biomedizinischen Technik dar. Zuerst gab es Zeichnungen und Modelle als Abbildungen der Realität in Lehrbüchern und wissenschaftlichen Abhandlungen. Dann folgten technische Mittel zur Unterstützung unzulänglicher Sehfunktion des Betrachters (Linse, Mikroskop zur Strukturvergrößerung), später hielten Fotografie und Videografie in die Medizin Einzug. Der Wunsch, auch Dinge zu sehen, die von außen nicht sichtbar sind, führte zur Entwicklung endoskopischer Technik, die Informationen aus dem Innern des Körpers über Körperöffnungen zugänglich macht. 1895 gelang es Wilhelm Conrad Röntgen eher zufällig, mit der Röntgentechnik eine völlig neue Ära der Bildgebung zu eröffnen. Multimodale tomographische Verfahren haben sich inzwischen daraus entwickelt. Standardisierte Systeme und Datenformate und effektive Verarbeitungs-, Rekonstruktions-, Navigations- und Kompressionsverfahren ermöglichen einen großen Informationsgewinn über das Untersuchungsobjekt. Vielfältige technische Präsentationsmöglichkeiten für die gewonnenen Bilddaten unterstützen den Arzt bei der Entscheidungsfindung. Im Rahmen der Biomedizinischen Technik findet man heute eine breite Palette der Bildgebung von miniaturisierten Kameras zur Darminspektion bis hin zu den bildgebenden Großgeräten für hochaufgelöste Ganzkörperuntersuchungen. Im Band „Medizinische Bildgebung“ werden die physikalischen Grundlagen der Verfahren dargelegt, Verarbeitungsalgorithmen erläutert, die (medizinisch motivierten) Zielstellungen und Gütekriterien erläutert und die technischen Randbedingungen definiert. Weitere Aspekte der Biomedizinischen Technik finden Sie in den anderen Bänden der Lehrbuchreihe.
VI | Vorwort zur Lehrbuchreihe Biomedizinische Technik Spannende Fragen, die in den Lehrbüchern beantwortet werden: Welche Informationen über den Gesundheitszustand des Patienten und sein Umfeld werden den behandelnden Fachärzten, der Versicherung oder einer Selbsthilfegruppe im Internet preisgegeben? Lassen sich bei einer telemedizinischen Operation Informationen mit vielfältigen Datenformaten über lange Übertragungsstrecken zuverlässig, schnell, sicher und verlustfrei übertragen? Kann mein persönlicher Assistenzroboter mir eine Mahlzeit angepasst an meine Blutglukosewerte zubereiten?
Was ist zu tun, um präoperativ erfasste Computertomographiebilder mit dem Mikroskopbild während einer Hirnoperation zu überlagern? Übertrumpft ein vorprogrammiertes Robotersystem den „Knopfloch-Chirurgen“? Lassen sich räumliche Bilddaten ferngesteuert ohne direkte Sicht aus dem Körperinneren erfassen und dreidimensional darstellen?
Kann man die nötige „Verkabelung“ des Patienten im Schlaflabor durch geschickte Auswertung von Videodaten vermindern? Mit welcher Wahrscheinlichkeit lässt sich anhand weniger detektierter Biomarkermoleküle eine Tumorbildung vorhersagen? Wie ergänzen die erfassten Zeitverläufe von Biosignalen und tomographische Bilder einander bei einer Herzkatheterisierung?
Abbildungen: Biomedizinische Technik. Von oben nach unten: Telemedizinisches Beratungssystem; Operation mit bildgestützter Navigation; Monitoring von Vitalparametern im Schlaflabor.
Vorwort zur Lehrbuchreihe Biomedizinische Technik |
VII
Wenn Sie an Antworten auf diese und weitere Fragen interessiert sind, dann lesen Sie weiter! Experten aus allen Bereichen haben in den zwölf Banden der Reihe eine in sich stimmige systematische Darstellung der Biomedizinischen Technik komponiert: Ausgehend vom einführenden strukturierten Überblick werden über die medizinischen, physikalischen, terminologischen und methodischen Grundlagen in den Fachbänden der Reihe die wesentlichen Teilgebiete dargestellt. Den Abschluss bildet ein Band zur Entwicklung und Bewirtschaftung von Medizinprodukten, mit dem die Brücke vom theoretischen Hintergrund der biomedizintechnischen Verfahren und Geräte zur praktischen klinischen Nutzung geschlagen wird. Die Herausgeberschaft der Reihe liegt im Fachausschuss „Aus- und Weiterbildung Biomedizinische Technik im Studium“ der Deutschen Gesellschaft für Biomedizinische Technik (DGBMT) im Verband der Elektrotechnik Elektronik Informationstechnik (VDE).
Die jeweiligen Bandherausgeber bilden den Wissenschaftlichen Beirat der Lehrbuchreihe, der auf ausgewogene Darstellung der Biomedizinischen Technik aus wissenschaftstheoretischer, Anwender- und Herstellersicht achtet. Die Autoren vertreten eine Vielfalt unterschiedlicher Aspekte aus der Lehre, der Forschung und Entwicklung, der Produktion, der Klinik, dem Standardisierungs- und Prüfwesen sowie der Gesundheitswirtschaft.
VIII | Vorwort zur Lehrbuchreihe Biomedizinische Technik
Die 12 Bände der Lehrbuchreihe im Überblick Biomedizinische Technik Band 1: Faszination, Einführung, Überblick Herausgegeben von Ute Morgenstern und Marc Kraft ISBN: 978-3-11-025198-2 e-ISBN: 978-3-11-025218-7 Biomedizinische Technik Band 2: Physikalische, medizinische und terminologische Grundlagen Herausgegeben von Ewald Konecny und Clemens Bulitta ISBN: 978-3-11-025200-2 e-ISBN: 978-3-11-025219-4 Biomedizinische Technik Band 3: Biomaterialien, Implantate und Tissue Engineering Herausgegeben von Birgit Glasmacher und Gerald H. Urban ISBN: 978-3-11-025201-3 e-ISBN: 978-3-11-025216-3 Biomedizinische Technik Band 4: Modellierung und Simulation Herausgegeben von Ute Morgenstern, Falk Uhlemann und Tilo Winkler ISBN: 978-3-11-025202-6 e-ISBN: 978-3-11-025224-8 Biomedizinische Technik Band 5: Biosignale und Monitoring Herausgegeben von Gerald H. Urban und Harald Malberg ISBN: 978-3-11-025203 e-ISBN: 978-3-11-025217-0 Biomedizinische Technik Band 6: Medizinische Informatik Herausgegeben von Hartmut Dickhaus und Petra Knaup-Gregori ISBN: 978-3-11-025204-0 e-ISBN: 978-3-11-025222-4
Vorwort zur Lehrbuchreihe Biomedizinische Technik |
Biomedizinische Technik Band 7: Medizinische Bildgebung Herausgegeben von Olaf Dössel und Thorsten M. Buzug ISBN: 978-3-11-025205-7 e-ISBN: 978-3-11-025214-9 Biomedizinische Technik Band 8: Bild- und computergestützte Interventionen Herausgegeben von Tim Lüth ISBN: 978-3-11-025206-4 e-ISBN: 978-3-11-025215-6 Biomedizinische Technik Band 9: Automatisierte Therapiesysteme Herausgegeben von Jürgen Werner ISBN: 978-3-11-025207-1 e-ISBN: 978-3-11-025213-2 Biomedizinische Technik Band 10: Rehabilitationstechnik Herausgegeben von Marc Kraft und Catherine Disselhorst-Klug ISBN: 978-3-11-025208-8 e-ISBN: 978-3-11-025226-2 Biomedizinische Technik Band 11: Neurotechnik Herausgegeben von Steffen Rosahl, Thomas Stieglitz und Ulrich G. Hofmann ISBN: 978-3-11-025209-5 e-ISBN: 978-3-11-025225-5 Biomedizinische Technik Band 12: Entwicklung und Bewirtschaftung von Medizinprodukten Herausgegeben von Stephan Klein, Felix Capanni, Uvo M. Hölscher, Frank Rothe ISBN: 978-3-11-025210-1 e-ISBN: 978-3-11-025223-1
IX
X | Vorwort zur Lehrbuchreihe Biomedizinische Technik
Besonderheiten der Reihe Jeder Band der Reihe ist inhaltlich eigenständig angelegt. Im Überblicksband (Band 1) werden alle Schwerpunktthemen der Fachbände kurz dargestellt. Es bietet sich daher an, den ersten Band als Einstieg zu nutzen und um die Inhalte der nachfolgenden Bände zu ergänzen, in denen die Fachthemen behandelt werden, die jeweils von persönlichem Interesse sind. – Wir haben uns für die Vermittlung des Stoffes in deutscher Sprache entschieden, um allen Lesern, insbesondere Studierenden der deutschsprachigen Bachelor-, Master- und Diplomstudiengange, ein fundiertes und einfach zu erschließendes Grundlagenwissen mit auf den Weg zu geben. In allen Bänden der Lehrbuchreihe wird selbstverständlich auch auf ergänzende, weiterführende Fachliteratur in englischer Sprache verwiesen. – Alle zwölf Bände sind nach den gleichen didaktischen Prinzipien aufgebaut: Es werden für das weitere Verständnis erforderliche Grundlagen des jeweiligen Fachgebiets mit aussagekräftigen Übersichten und Abbildungen dargelegt und mit anwendungsorientierten Praxisbeispielen verknüpft. – Alle Kapitel besitzen Zusammenfassungen in deutscher und englischer Sprache sowie (in den Bänden zwei bis zwölf) Testfragen zur Prüfungsvorbereitung, deren Antworten sich im Text finden. Ein kapitelbezogenes Glossar fasst in jedem Band die wichtigsten Begriffe und Definitionen zusammen. Formelzeichen und Abkürzungen sind jeweils für die Bände zusammengestellt. – Über den vom Verlag angebotenen elektronischen Zugriff auf die Bande lassen sich Querverweise und Suchstrategien besonders gut realisieren. Einzelne Kapitel wie z. B. die „Medizinische Terminologie für die Biomedizinische Technik“ werden bereits durch eine Lernsoftware ergänzt – beste Voraussetzungen, um den Stoff spielerisch kennenzulernen und zu trainieren und ggf. medizinische Fachbegriffe auf unterhaltsame Weise auswendig zu lernen. Die Herausgeber danken allen Beteiligten für das große Engagement, mit dem die Reihe auf den Weg gebracht wurde: den Hochschullehrern und Autoren, den Verlagsmitarbeitern und Lektoren, den Grafikern und Administratoren und allen anderen fleißigen Helfern, die zum Gelingen beigetragen haben! Alle Autoren freuen sich über Anregungen zur Verbesserung unserer Lehrbuchreihe! Wir wünschen allen Lesern viel Erfolg und tiefgründige Erkenntnisse, aber auch großes Vergnügen beim Lesen und Lernen, beim Einarbeiten in die Thematiken der Biomedizinischen Technik und beim Vertiefen interessanter Teilgebiete! Die Herausgeber der Lehrbuchreihe Ute Morgenstern und Marc Kraft
Vorwort zu Band 7 der Lehrbuchreihe Biomedizinische Technik – Medizinische Bildgebung Liebe Leser, Medizinische Bildgebung ist kein neues Gebiet der Medizin. Ganz im Gegenteil. Man kann den Beginn der modernen Bildgebung sicher mit der Entdeckung von „X-Strahlen“ durch Wilhelm Conrad Röntgen 1895 identifizieren. Er beobachtete eine neue Art von Strahlung, die ansonsten undurchsichtige Materie zu durchdringen vermochte. Dies geschah fast zeitgleich zu den Forschungen von Rudolf Virchow, dessen Zellularpathologie am Ende des 19. Jahrhunderts die Erkenntnis hervorbrachte, dass sich Funktionsstörungen des Körpers in morphologischen Veränderungen widerspiegeln. Sehr schnell war dem Physiker Röntgen klar, dass seine Entdeckung eine wichtige medizinische Anwendung hat. Er selbst veröffentlichte das erste Röntgenbild einer Hand, und Siemens¹ hatte bereits 1906 ein entsprechendes Produkt für medizinische Anwendungen im Programm. Die Bildgebung mit Röntgenstrahlen gehört seit diesem Zeitpunkt bis heute zum Standardrepertoire der medizinischen Diagnostik. Angetrieben durch den offensichtlichen Nutzen von Bildern in der Medizin, aber auch durch die Nachteile der einfachen Röntgenbildgebung wurden danach alternative Techniken entwickelt. Einige bahnbrechende Entwicklungen wie zum Beispiel die Computertomographie und die Magnetresonanztomographie wurden ebenso wie die ursprüngliche Entdeckung von Röntgen mit Nobelpreisen gewürdigt, was die herausragende Bedeutung dieser Entwicklungen für die Medizin unterstreicht. Die Faszination, die von der Bildgebung ausgeht, liegt in der einfachen Tatsache, dass wir in den Menschen schauen können, ohne ihn dafür öffnen zu müssen. Die Visualisierung von Organveränderungen, die heute in dreidimensionalen Repräsentationen möglich ist, erleichtert die Diagnose erheblich. Neben der Diagnostik haben sich auch neue Anwendungen in der Therapieplanung und der bildgeführten Intervention erfolgreich etabliert und damit das Gebiet der Bildgebung erweitert. Dennoch – ein großer Wandel des gesamten diagnostischen Marktes zeichnet sich durch den zunehmenden Einsatz molekularbiologischer Techniken ab. Vor wenigen Jahren wurde noch prognostiziert, dass die Diagnostik mit Bildgebung mittels Ultraschall (US), Computertomographie (CT) oder Magnetresonanztomographie (MRT) durch die reine Labordiagnostik mit molekularbiologischen Methoden bald abgelöst würde.
1 Damals noch im Unternehmen Reiniger, Gebbert & Schall, welches später von Siemens übernommen wurde.
XII | Vorwort zu Band 7 der Lehrbuchreihe Biomedizinische Technik – Medizinische Bildgebung Mittlerweile hat sich jedoch die Erkenntnis durchgesetzt, dass die Methoden sich nicht verdrängen, sondern ergänzen: beim Molecular Imaging gelingt es, molekularbiologische Prozesse durch Weiterentwicklungen der bisherigen Bildgebungsmethoden sichtbar zu machen. Gleichzeitig werden molekularbiologische lokale Therapien unter Führung durch die Bildgebung möglich. So wird der Bereich der Bildgebung seine große Bedeutung in der Medizintechnik in Zukunft eher noch weiter ausdehnen. Am Horizont erscheinen ganz neue bildgebende Modalitäten – sie alle werden in diesem Buch kurz beschrieben. Dabei ist es fast unmöglich vorherzusagen, welche Methode den Weg in den klinischen Alltag schaffen wird. Erst muss die Technik in hoher Qualität entwickelt werden. Auch müssen hohe Sicherheitsanforderungen erfüllt werden, bevor die klinische Erprobung beginnen kann. Erst danach weiß man, welchen Beitrag die neue Methode für die Diagnostik leisten wird. Mit der Entwicklung neuer Modalitäten wird den aktuellen Standardverfahren häufig eine sinkende Bedeutung voraus gesagt. Dabei darf aber nicht übersehen werden, dass die konventionellen Modalitäten ebenfalls eine rasante Weiterentwicklung erfahren. Man denke dabei zum Beispiel an die CT, der mit der Entwicklung der MRT das Aussterben prognostiziert wurde. Tatsächlich hat CT heute, vor allem durch die Weiterentwicklung der Multislice-Detektortechnologie, durch die enorme Leistungsfähigkeit moderner Röntgenröhren und nicht zuletzt wegen der geringeren Kosten eine viel größere Verbreitung als die MRT gefunden. Dieses Buch wendet sich an Leser, die verstehen möchten, wie die bildgebenden Verfahren der Medizin funktionieren, und welche neuen Entwicklungen gerade erarbeitet werden. International anerkannte Experten auf ihrem Gebiet erklären die neuesten Methoden. Den klassischen bildgebenden Modalitäten wird dabei der größte Raum gegeben, aber auch neue heute noch exotische Techniken werden kurz beschrieben. Die Technik der Bildgebung steht immer im Vordergrund, aber auch die bevorzugten Einsatzgebiete in der Medizin werden erwähnt. Wir wünschen unseren Lesern, dass sie sich von unserer Begeisterung für all das, was heute im Bereich der medizinischen Bildgebung möglich ist, anstecken lassen. Die Herausgeber des siebten Bandes Olaf Dössel und Thorsten M. Buzug Karlsruhe und Lübeck, Februar 2013
Inhalt Vorwort zur Lehrbuchreihe Biomedizinische Technik | V Vorwort zu Band 7 der Lehrbuchreihe Biomedizinische Technik – Medizinische Bildgebung | XI Hinweise zur Benutzung | XIX Verzeichnis der Abkürzungen | XXI Verzeichnis der Formelzeichen, Symbole und Indizes | XXVII Olaf Dössel 1 Die bildgebenden Verfahren in der Medizin | 1 1.1 Historie und Motivation | 2 1.2 Übersicht über die Verfahren der medizinischen Bildgebung | 4 1.3 Von der medizinischen Fragestellung über die Bildgebung zum Befund | 6 Til Aach, Olaf Dössel 2 Bildgebung durch Projektionsröntgen | 9 2.1 Diagnostik mit Projektionsröntgen | 10 2.2 Physikalische Grundlagen | 12 2.3 Dosimetrische Größen | 23 2.4 Komponenten zur Erzeugung von Röntgenstrahlung | 25 2.5 Detektion von Röntgenstrahlung | 32 2.6 Bildqualität: Modulationsübertragungsfunktion (MTF) und detektierte Quanteneffizienz (DQE) | 45 2.7 Phasenkontrast-Röntgen | 51 2.8 Gesetzliche Vorschriften zur Qualitätssicherung | 54 2.9 Medizinische Applikationen und spezifische Systeme | 55 2.10 Neuere Entwicklungen und Trends | 56 Thorsten M. Buzug, Thomas Flohr 3 Computertomographie | 59 3.1 Einleitung | 60 3.2 Historie der Computertomographie | 62 3.3 Technologie | 70 3.4 Bildrekonstruktion | 77 3.5 Artefakte | 87
XIV | Inhalt 3.6 3.7 3.8 3.9
Aufnahmeplanung, Datenaufbereitung und Bilddarstellung | 91 Klinische Anwendungen | 96 Dosis und Dosisreduktion | 102 Spezielle CT-Systeme | 106
Thomas Mertelmeier 4 Tomosynthese | 113 4.1 Grundprinzip, diagnostische Zielsetzung und historische Entwicklung | 114 4.2 Rekonstruktionsalgorithmen | 116 4.3 Systemoptimierung und Gerätetechnik | 124 4.4 Klinische Anwendungen | 126 Kristin Kötz, Henrik Botterweck 5 Szintigraphie und SPECT | 135 5.1 Einleitung und Geschichte | 136 5.2 Kernphysikalische Grundlagen | 137 5.3 Radiopharmaka | 140 5.4 Nuklearmedizinische Messtechnik | 142 5.5 Gammakamera und Szintigraphie | 149 5.6 SPECT | 156 5.7 Qualitätskontrolle | 167 5.8 Klinische Anwendungen | 168 5.9 Hybridbildgebung | 169 Simone Beer, Henrik Botterweck 6 PET | 173 6.1 Diagnostische Zielsetzung | 174 6.2 Grundlagen | 174 6.3 Technik | 182 6.4 Algorithmen | 188 6.5 Klinische Anwendungen | 195 6.6 Qualitätssicherung und Normen | 197 6.7 Nebenwirkungen/Grenzwerte | 199 6.8 Neue Entwicklungen und Trends | 199 Olaf Dössel 7 Biologische Wirkung ionisierender Strahlung und Dosimetrie | 203 7.1 Motivation und Einleitung | 204 7.2 Stochastische und deterministische Wirkungen | 204 7.3 Dosimetrische Größen und deren Einheiten | 205
Inhalt | XV
7.4 7.5 7.6 7.7
Quantitative Bewertung des Risikos für Schäden durch ionisierende Strahlung | 209 Typische Dosis bei Röntgen- und nuklearmedizinischen Untersuchungen | 210 Dosimeter | 211 Gesetzliche Vorschriften | 213
Helmut Ermert, Christian Hansen 8 Ultraschall | 217 8.1 Einleitung | 218 8.2 Ultraschallanwendungen in der Medizin | 219 8.3 Physikalische Grundlagen | 226 8.4 Ultraschallwandler | 236 8.5 Ultraschall-Bildgebung in der Medizin | 251 8.6 Doppler-Verfahren | 279 8.7 Spezielle Modalitäten | 299 8.8 Physikalische Effekte, biologische Wirkungen, Grenzwerte | 313 Tobias Schaeffter 9 Magnetische Resonanztomographie | 327 9.1 Einleitung | 328 9.2 Kernmagnetische Resonanz | 329 9.3 Ortsauflösung | 351 9.4 Sequenzen und Bildkontrast | 362 9.5 Artefakte | 381 9.6 Aufbau eines MR-Tomographen | 385 9.7 Signal-Rausch-Verhältnis | 390 9.8 Sicherheitsaspekte | 391 9.9 Klinische Anwendungen | 395 Olaf Dössel 10 Abbildung bioelektrischer Quellen | 407 10.1 Elektrophysiologische Grundlagen | 408 10.2 Messung bioelektrischer und biomagnetischer Signale | 410 10.3 Konventionelle Diagnostik mit bioelektrischen Signalen und neue Fragestellungen für die Bildgebung bioelektrischer Quellen | 412 10.4 Mathematische Modelle von bioelektrischen Quellen | 413 10.5 „Lead fields“, das „Vorwärtsproblem“ und die Abbildungsgleichung | 416 10.6 Das inverse Problem und Regularisierungsmethoden | 419 10.7 Applikationen in der Medizin | 421
XVI | Inhalt Thorsten M. Buzug, Bernhard Gleich und Jörn Borgert 11 Magnetic Particle Imaging | 425 11.1 Einführung | 426 11.2 Geschichte des Magnetic Particle Imaging | 427 11.3 Funktionsweise des MPI | 428 11.4 Von Daten zu Bildern – Rekonstruktion | 434 Olaf Dössel 12 Impedanztomographie | 441 12.1 Die Impedanz von Körpergewebe | 442 12.2 Messsysteme mit Elektroden | 444 12.3 Bildrekonstruktion | 446 12.4 Alternative Messsysteme | 450 12.5 Anwendungen der Impedanztomographie in der Medizin | 451 Thomas Wittenberg 13 Endoskopie | 455 13.1 Einführung | 456 13.2 Eine kurze Geschichte der Endoskopie | 457 13.3 Starre Endoskope | 459 13.4 Flexible Faserendoskope | 462 13.5 Videoendoskope | 465 13.6 Schluckkapselendoskope | 466 13.7 Farbkontrast und Marker | 468 13.8 Anwendungen der Endoskopie | 468 Julia Walther, Edmund Koch 14 Optische Kohärenztomographie | 471 14.1 Diagnostische Zielsetzung | 472 14.2 Physikalische Grundlagen | 473 14.3 Technik und Algorithmen | 475 14.4 Anwendungen in der Medizin | 482 14.5 Qualitätssicherung und Normen | 496 14.6 Nebenwirkungen/Grenzwerte | 496 Dirk Grosenick, Rainer Macdonald 15 Diffuse optische Bildgebung | 505 15.1 Einleitung | 506 15.2 Lichtausbreitung in Gewebe | 507 15.3 Transilluminationsbildgebung | 510 15.4 Diffuse optische Tomographie | 513
Inhalt | XVII
Thorsten M. Buzug, Cila Herman 16 Medizinische Infrarot-Bildgebung | 519 16.1 Einleitung | 520 16.2 Systemdesign | 522 16.3 Infrarot-Physik | 525 16.4 IR-Bildgebung bei medizinischen Anwendungen | 527 16.5 Grenzen von IR-Bildgebung bei medizinischen Anwendungen | 530 Marko Helbig 17 Mikrowellen-, Ultrabreitband- und THz-Bildgebung | 533 17.1 Einführung | 534 17.2 Aktive Mikrowellen-Bildgebung | 538 17.3 Aktueller Stand in Forschung und Entwicklung | 541 Fabian Kiessling 18 Molekulare Bildgebung | 545 18.1 Einführung | 546 18.2 Molekulare Marker | 547 18.3 Die Sonden | 548 18.4 Die Bildgebungsmodalitäten | 553 18.5 Molekulare Bildgebung mit SPECT und PET | 554 18.6 Molekulare Bildgebung mit optischer Bildgebung | 555 18.7 Molekulare Bildgebung mit Ultraschall | 555 18.8 Molekulare Bildgebung mit Magnetresonanztomographie | 556 18.9 Molekulare Bildgebung mit Computertomographie | 558 Olaf Dössel, Tim C. Lüth 19 Interventionelle Bildgebung | 561 19.1 Medizinische Fragestellung bei der interventionellen Bildgebung | 562 19.2 Interventionelle Radiologie – interventionelle Methoden mit Röntgenstrahlen | 563 19.3 Interventionelle Ultraschall-Bildgebung | 565 19.4 Interventionelle Magnetresonanztomographie | 566 19.5 Interventionelle Endoskopie | 567 19.6 Mikroskopie im Operationssaal | 568 19.7 Bildgebung bei der Strahlentherapie – MV-Imaging und EPIDs | 568 19.8 Lokalisieren und Registrieren | 569 19.9 Darstellung der präoperativen und der intraoperativen Bilder | 571 19.10 Trends und Entwicklungen | 572
XVIII | Inhalt Michael Kaschke, Michael Stefan Rill 20 Operationsmikroskopie | 575 20.1 Einleitung | 576 20.2 Aufbau eines Stereomikroskops | 578 20.3 Optische Eigenschaften | 579 20.4 Variable Bildvergrößerung | 581 20.5 Beleuchtung | 582 20.6 Stative | 583 20.7 Medizinische Applikationen | 585 20.8 Aktuelle Trends | 585 Olaf Dössel 21 Systemtheorie abbildender Systeme | 589 21.1 Motivation | 590 21.2 Lineare Transformationen von Bildern | 590 21.3 Räumliche Auflösung und die Modulationsübertragungsfunktion MTF | 596 21.4 Das Abtasttheorem | 601 21.5 Das Rauschen und die detektierte Quantenausbeute DQE | 601 21.6 Der Kontrast | 605 21.7 Die zeitliche Auflösung | 606 21.8 Erkennen von Details in Bildern und die Perzeption | 606 21.9 Das Dreieck aus räumlicher Auflösung, zeitlicher Auflösung und Rauschen | 608 Autorenverzeichnis | 611 Bandspezifisches Glossar | 615 Sachwortverzeichnis | 641
Hinweise zur Benutzung Methodischer Hinweis Ob elektronisch oder auf Papier: Es empfiehlt sich immer, ein Lehrbuch als Arbeitsbuch zu benutzen, es mit persönlichen Notizen, Hervorhebungen und Markierungen zu versehen. Über www.degruyter.de lassen sich auf elektronischem Wege beim Verlag Kapitel aus Bänden zu einem eigenen Sammelwerk zusammenstellen. Ergänzende interaktive Lernsoftware findet man z. B. unter www.theragnosos.de. Gender-Hinweis Im Gegensatz zu rein technischen Fächern ist im Bereich der Biomedizinischen Technik das Geschlechterverhältnis ausgewogener. In den Banden der Lehrbuchreihe „Biomedizinische Technik“ liegt der Schwerpunkt auf fachlichen Darstellungen der Grundlagen unseres Berufsbildes, bei dem das Geschlecht des Akteurs selbst keine Rolle spielt. Aus diesem Grund wird generell für alle Personen- und Funktionsbezeichnungen das generische (geschlechtsneutrale) Maskulinum verwendet, das die weibliche Form einschließt. Verzeichnis der Abkürzungen Allgemeine Abkürzungen sind im Abkürzungsverzeichnis aufgeführt (s. S. XXI). Verzeichnis der Formelzeichen, Symbole und Indizes Formelzeichen, Symbole und Indizes sind im Formelzeichenverzeichnis aufgeführt (s. S. XXVII). Quellen Die Quellenangaben bei Normen und Standards sind grundsätzlich ohne Jahreszahl vermerkt, da die jeweils aktuelle Ausgabe zu beachten ist. Soweit in den Abbildungen Quellen genannt werden, finden sich Erstautor und Jahreszahl in eckigen Klammern, die im Quellenverzeichnis am Ende des Kapitels aufgelöst werden. Verzeichnis der Autoren Alle Autoren des Bandes sind im Autorenverzeichnis am Ende des Bandes aufgeführt (s. S. 611). Bandspezifisches Glossar Alle Definitionen des Bandes sind im Glossar am Ende des Bandes zusammengeführt (s. S. 615).
XX | Hinweise zur Benutzung Sachwortverzeichnis Wichtige Begriffe, auf deren Erläuterung man beim Suchen im Sachwortverzeichnis am Ende des Bandes verwiesen wird, sind im Text gefettet dargestellt. Im Text verwendete Symbole sowie Sonderauszeichnungen des Textes Neben den üblichen mathematischen Symbolen und Sonderzeichen wird folgendes Symbol im Text verwendet: verweist auf Abbildungen, Tabellen, Glossarbegriffe, Kapitel und Bände innerhalb der Reihe Biomedizinische Technik. Alle Einträge, die im Sachwortverzeichnis und im bandspezifischen Glossar verzeichnet sind, sind im Text hervorgehoben durch eine fette Auszeichnung des Begriffs. Alle Definitionen innerhalb der Kapitel sind gekennzeichnet durch einen grau hinterlegten Kasten. Alle erläuternden Beispiele und Exkursionen innerhalb der Kapitel sind gekennzeichnet durch dieses Symbol und einen gerahmten Kasten mit einer, den Textabschnitt begrenzenden, blauen Ober- und Unterlinie. Dieses Symbol markiert den Übungsteil in Form von Testfragen zum Verständnis des jeweiligen Kapitels am Kapitelende.
Verzeichnis der Abkürzungen 1D 2D 3D 5-ALA A ADC ADP AEC
eindimensional zweidimensional dreidimensional 5-Aminolävulinsäure Amplitude Analog-Digital-Konverter Adenosindiphosphat Automatic Exposure Control, automatische Belichtungssteuerung bei der Aufnahme von Röntgenbildern ALI akutes Lungenversagen AMD altersbedingte Makuladegeneration APD Avalanche-Photodiode ARFI Acoustic Radiation Force Imaging ART Algebraic Reconstruction Theory ATP Adenosintriphosphat B Brightness, Helligkeit BfS Bundesamt für Strahlenschutz BGO Wismutgermanat BOLD-Contrast Blood Oxygen Level Dependent Contrast BP Bandpass BSPM Body-Surface-Potential-Map CARS Coherent Anti-Stokes Raman Scattering CAT Computerized Axial Tomography, Computertomographie im anglikanischen Sprachraum CBF zerebraler Blutfluss, Cerebral Blood Flow CBV zerebrales Blutvolumen, Cerebral Blood Volume CCD Charge-Coupled Device, lichtempfindliches elektronisches Bauteil CEST Chemical Exchange Saturation Transfer, molekulare MRT-Bildgebungsmethode CFOV Central Field of View Cho Cholin CMOS Complementary Metal Oxide Semiconductor COR Center of Rotation = Fulcrum Cr/PCr Kreatin/Kreatinphosphat CSF zerebrospinale Flüssigkeit, Liquor CsI Cäsiumjodid CSLM Confocal Laser Scanning Microscope, Scanning-Laser-Mikroskopie CT Computertomographie, Computed Tomography CTA Computertomographie-Angiographie
XXII | Verzeichnis der Abkürzungen CW CZT DAS DEGUM DIN DNA DOCT DOI DOPU DOTA DQE DSA DTPA DUX EBCT EEG EKG EM EPI EPID EIT FAF FAG FASC FBP FD OCT FDA FDG FDTD FEM FFA FFP FFT FID FIR FN FNF FOA FOV FP FPF
Continuous Wave Cadmium-Zink-Tellurid Detector Angular Subtense Deutsche Gesellschaft für Ultraschall in der Medizin Deutsches Institut für Normung Deoxyribunucleic Acid, Desoxyribonukleinsäure Doppler-OCT Depth of Interaction Degree of Polarization Uniformity Tetraazacyclododecan-Tetraessigsäure Detective Quantum Efficiency, detektive Quantenausbeute digitale Subtraktionsangiographie Diethylentriaminpentaessigsäure Duplexer Electron-Beam Computed Tomography, Elektronenstrahl-Computertomographie Elektroenzephalogramm, Elektroenzephalographie Elektrokardiogramm, Elektrokardiographie Expectation Maximization Echo Planar Imaging, Echo-Planar-Bildgebung Electronic Portal Imaging Device Electrical Impedance Tomography Fundus-Augenfluoreszenz Fluorescein-Angiographie Full Angle Spatial Compounding Filtered Back Projection, gefilterte Rückprojektion Fourier Domain OCT Food and Drug Administration Fluordesoxyglukose Finite-Difference Time-Domain, Finite-Differenzen-Methode Finite-Elemente-Methode Fokus-Film-Abstand feldfreier Punkt Fast Fourier Transform Free Induction Decay Fern-Infrarot false negative (Feld in der Wahrheitsmatrix) False Negative Fraction = FN/(TP + FN) (auch False Negative Rate) Fokus-Objekt-Abstand Field of View false positive (Feld in der Wahrheitsmatrix) False Positive Fraction = FP/(FP + FN) (auch False Positive Rate)
Verzeichnis der Abkürzungen | XXIII
FWHM GFP Glx GPS GRAPPA GSO H HDTV HF HU HWZ ICAM ICEIT ICG ICRP IEC IFOV IR IRFI IVUS Kerma Lac LASC LD LED LOCT LOR LSF LSO LSQ LTI LWIR MAMI MAP MEG MHU MI MIC MIP MIST
Full Width at Half Maximum, Halbwertsbreite Green Fluorescent Protein Glukose Global Positioning System Generalized Autocalibrating Partially Parallel Acquisition Gadoliniumoxyorthosilikat Hilbert-Transformation High Definition Television Hochfrequenz Hounsfield Unit, Hounsfield-Einheit Halbwertszeit Intercellular Adhesion Molecule, Zelladhäsionsmolekül, das häufig als Target für molekulare Diagnostika dient Induced Current Electrical Impedance Tomography Indocyaningrün (ein Farbstoff und optisches Kontrastmittel) Internationale Strahlenschutzkommission (International Commission on Radiation Protection) International Electrotechnical Commission Instantaneous Field-of-View Infrarot Infrared Functional Imaging intravaskulärer Ultraschall Kinetic Energy Released in Matter Laktat Limited Angle Spatial Compounding letale Dosis Light-Emitting Diode, Licht emittierende Halbleiterdiode lineare optische Kohärenztomographie Line-of-Response Line Spread Function Lutetiumoxyorthosilikat Least Squares Quadratic Linear and Time Invariant Systems Mittelwellen-Infrarot Multistatic Adaptive Microwave Imaging maximum a posteriori Magnetoenzephalographie Mega Heat Unit mechanischer Index Minimal Invasive Surgery Maximum Intensity Projection Microwave Imaging via Space Time Beamforming
XXIV | Verzeichnis der Abkürzungen MIT MITS MKG ML MLO MMP MPG MPI MPR MR MREIT MRI MRT MTF MTT MWIR MZB NA NAA NADH NBI NECR NEDT NEMA NEQ NMR NOTES NPS NSF NTSC OCT ODT OP OSEM PACS PAL PCa PEEP PET PHA PMT PNS
Magnetic Induction Tomography Matrix Inversion Tomosynthesis Magnetokardiographie Maximum Likelihood mediolateral-oblique Projektion, Medio-Lateral Oblique Projection Matrix-Metalloproteinasen Medizinproduktegesetz Magnetic Particle Imaging multiplanare Reformatierung Magnetresonanz Magnetic Resonance Electrical Impedance Tomography Magnetic Resonance Imaging, magnetische Resonanzbildgebung Magnetresonanztomographie Modulation-Transfer Function, Modulationsübertragungsfunktion Mean Transit Time, mittlere Transitzeit Mittelwellen-Infrarot maximal zulässige Bestrahlung numerische Apertur N-Acetylaspartat reduzierte Form von Nicotinamid-Adenin-Dinukleotid Narrow-Band Imaging Noise Equivalent Count Rate Noise Equivalent Differential Temperature National Electrical Manufacturers Association Noise Equivalent Quanta Nuclear Magnetic Resonance Natural Orifice Transluminal Endoscopic Surgery Noise Power Spectrum nephrogene systemische Fibrose National Television Systems Committee Optical Coherence Tomography, Optische Kohärenztomographie Optical Doppler Tomography Operationssaal Ordered Subset Expectation Maximization Picture Archiving and Communication System Phase Alternating Line Prostatakarzinom positiver endexspiratorischer Druck Positronen-Emissions-Tomographie Pulse Height Analyser Photomultiplier Tube, Photomultiplier periphere Nervenstimulation
Verzeichnis der Abkürzungen | XXV
PRF PS OCT PSA PSF PTCA PVDF PW PZT QWIP R RADAR RARE RF RFP ROC ROI RöV RPE RR RSNA RSOD SARS SART SC SD OCT SECAM SENSE SEV SiPM SIRT SLD SLO SMASH SNR SOR SPECT SPIO SPIR SPTA SQUID SRB
Pulswiederholfrequenz Polarisationssensitive OCT prostataspezifisches Antigen Pointspread Function, Punktbildfunktion perkutane transluminale koronare Angioplastie Poly-Vinyliden-Di-Fluorid Pulse Wave Blei-Zirkonat-Titanat Quantum Well Infrared Photon Detektor, Quantendetektor rückwärts (bezüglich Flussrichtung) Radio Detection and Ranging Rapid Acquisition with Relaxation Enhancement Radiofrequenz, Radio Frequency Red Fluorescent Protein Receiver Operating Characteristic Region of Interest Röntgenverordnung retinales Pigmentepithel relatives Risiko Radiological Society of North America Rapid Scanning Optical Delay Lines Severe Acute Respiratory Syndrome Simultaneous Algebraic Reconstrucion Theory Spatial Compounding Spektral-Domänen-OCT Séquentiel couleur à mémoire Sensitivity Encoding Sekundärelektronenvervielfacher Silicon-Photomultiplier Simultaneous Iterative Reconstruction Technique Superlumineszenzdiode Scanning-Laser-Ophthalmoskopie Simultaneous Acquisition of Spatial Harmonics Signal-to-Noise Ratio, Signal-Rausch-Verhältnis Spill Over Ratio Single Photon Emission Computed Tomography, Einzelphotonen-Emissions-Computertomographie Superparamagnetic Iron Oxide (Nanopartikel) Spectral Presaturation Inversion Recovery Spatial Peak Temporal Average supraleitender Quanten-Interferenz-Detektor Sulforhodamin B
XXVI | Verzeichnis der Abkürzungen SSFP SSK StrlSchV SVD SWIR TACT TAVI TD OCT TEC TEM TEW TFT TGC THI THz TM TN TOF TP TS TSE TTP UFOV US USPIO UWB V VCAM VEGFR VLWIR VOx W WHO WL WPW WW
Steady State Free Precession Strahlenschutzkommission Strahlenschutzverordnung Singular Value Decomposition, Singuläre Wertezerlegung Short Wavelength Infrared Imaging Band Tuned Aperture Computed Tomography Transkatheter-Aortenklappenimplantation Time Domain OCT thermoelektrischer Kühler transanale endoskopische Mikrochirurgie Triple Energy Window Dünnfilmtransistor Time Gain Compensation Tissue Harmonic Imaging Terahertz Time-Motion true negative (Feld in der Wahrheitsmatrix) Time of Flight true positive (Feld in der Wahrheitsmatrix) Time Shift Turbo Spin Echo Time to Peak, Zeit bis zum Erreichen des Bolusmaximums Useful Field of View Ultraschall Ultrasmall Superparamagentic Iron Oxide Nanoparticles Ultra-Wideband, Ultrabreitband vorwärts (bezüglich Flussrichtung) Vascular Cell Adhesion Molecule, Zelladhäsionsmolekül, das häufig als Target für molekulare Diagnostika dient Vascular Endothelial Growth Factor langwelliges Infrarot Vanadiumoxid Wand (Gefäßwand) World Health Organization, Weltgesundheitsorganisation Window Level, Fenstermitte Wolf-Parkinson-White-Syndrom Window Width, Fensterbreite
Verzeichnis der Formelzeichen, Symbole und Indizes A
a AdB AD A(z) b B B⃗ 0 = B0 ⋅ e⃗z B1 (t) B̂ 1 (t) B/A c C C=
I1 −I2 Iref
c0 cb Ci (x, y, z) Cn d D
Ḋ dD dS DT dV e e E E↑ = − 21 𝛾 ⋅ ℏ ⋅ B0 E↓ = 21 𝛾 ⋅ ℏ ⋅ B0
1. Fläche in m2 , 2. Massenzahl, 3. Aktivität in 1/s oder in Becquerel Bq, A(x) = zu rekonstruierende Aktivitätsverteilung, 4. Lead-Field-Matrix Radius in m Dämpfung in dB Detektorfläche in m2 Betrag der Rückstreuamplitude aus der Tiefe z Stereobasis in m 1. Belichtungsmaß (bei Röntgenaufnahmen), 2. magnetische Induktion in T statisches Magnetfeld, besser: magnetische Induktion in T zeitlich variierende magnetische Induktion in Querrichtung in T Amplitudenpulsform der zeitlich variierenden transversalen magnetischen Induktion in T Nichtlinearitätsparameter 1. spezifische Wärme in J/(K ⋅ kg), 2. Schall- bzw. Lichtgeschwindigkeit in m/s 1. Konzentration eines Kontrastmittels in 1/m3 , 2. Kapazität in F, 3. Kontrast Kontrast Lichtgeschwindigkeit im Vakuum (c0 = 2,998 ⋅ 108 m/s) spezifische Wärme von Blut in J/(K ⋅ kg) Empfindlichkeit der i-ten Spule bei der parallelen Bildgebung Konzentration in 1/m3 piezoelektrische Ladungskonstante in C/N 1. dielektrische Verschiebungsdichte in As/m2 , 2. Durchmesser in m, 3. Energiedosis in Gray, Gy = J/kg, 4. optischer Diffusionskoeffizient in m oder cm, 5. Tiefenschärfe in m Energiedosisleistung in Gy/s lineare Ausdehnung des Detektors in m Flächenelement in m2 Totzeitanteil in % Volumenelement in m3 Elementarladung (Landung des Elektrons)= 1,602 ⋅ 10−19 As Eulersche Zahl = 2,718281828. . . 1. Kodiermatrix bei der parallelen Bildgebung, 2. elektrische Feldstärke in V/m Energie des energetisch günstigen Energiezustands in J oder eV Energie des energetisch höheren Zustands in J oder eV
XXVIII | Verzeichnis der Formelzeichen, Symbole und Indizes EK,L,M Ekin E(t, z)
Energie der K-, L-, oder M-Schale (Ionisationsenergie) in J oder eV kinetische Energie der Elektronen, in J oder eV Elektrisches Feld einer ebenen elektromagnetischen Welle in Abhängigkeit von Zeit und Ort in V/m ex , ey , ez Einheitsvektoren in x-, y-, und z-Richtung e⃗x , e⃗y , e⃗z Einheitsvektoren in kartesischen Koordinaten f 1. Frequenz in Hz, 2. Brennweite des Systems in m Δf Frequenzbandbreite in Hz F{. . .} Fourier-Transformierte von {. . . } F IR-Brennweite geteilt durch den Aperturdurchmesser F(u, v) Fouriertransformierte von f (x, y) F(ux , uy , uz ) Fouriertransformierte von f (x, y, z) f (x, y) Bild am Eingang eines bildgebenden Systems f (x, y, z) (zu rekonstruierende) Objektfunktion f0 Mittenfrequenz in Hz g piezoelektrische Druckkonstante in V ⋅ m/N G elektronische Verstärkung des Systems 𝜕B 𝜕B 𝜕B Gx = 𝜕xz ; Gy = 𝜕yz ; Gz = 𝜕zz Gradienten der magnetischen Induktion in T/m G(u, v) Fouriertransformierte von g(x, y) G(ux , uy , uz ) Fouriertransformierte von g(x, y, z) g(x, y) Bild am Ausgang eines bildgebenden Systems g(x, y, z) rekonstruiertes (3D-)Bild Gkn Systemfunktion h 1. Plancksches Wirkungsquantum h = 6,6626 ⋅ 10−34 Js; ℏ = h/2𝜋 = 1,055 ⋅ 10−34 Js, 2. Höhe in m H{. . .} Hilbert-Transformierte von {. . . } H 1. Äquivalentdosis in Sievert Sv = J/kg, 2. Magnetfeld in A/m, 3. Äquivalentdosisleistung in Sv (Sievert) H(u, v) komplexe Systemübertragungsfunktion in 2D = Fouriertransformierte von h(x, y) H(ux , uy , uz ) komplexe Systemübertragungsfunktion in 3D = Fouriertransformierte von h(x, y, z) h(x, y) Punktbildfunktion = inverse Fouriertransformierte von H(u, v) h(x, y, z) 3D-Punktbildfunktion h𝛾 (𝜉) hochpassgefiltertes Projektionsprofil I 1. Spinquantenzahl, 2. elektrische Stromstärke in A, 3. Inhomogenität eines Bildes (differentiell oder absolut), 4. Intensität IA Anodenstrom (einer Röntgenröhre) in A IG , IR , IP Intensität des Gesamtlichtes, des Referenzlichtes und des Lichtes, das von der Probe reflektiert wird IH Heizstrom (einer Röntgenröhre) in A
Verzeichnis der Formelzeichen, Symbole und Indizes |
Im {. . .} j j J
XXIX
Imaginärteil von {. . . } imaginäre Einheit j2 = −1 Index für aufeinanderfolgende A-Scans 1. in der Bildebene ankommende Leistung der Röntgenstrahlung pro Fläche in W/m2 , 2. Ionendosis in As/kg, 3. Schallintensität in W/m2 , 4. Stromdichte in A/m2 J⃗ Eigendrehimpuls, auch Kernspin in kg m2 /s J̇ Ionendosisleistung in A/kg JB gesamte von einer Röntgenröhre abgestrahlte flächenbezogene Leistung in W/m2 Ji eingeprägte Stromdichte in A/m2 JID Ionendosis in As/kg Jn Stromdichte in Normalenrichtung in A/m2 J𝜈 (𝜈) abgestrahlte Leistung pro Fläche und Frequenzintervall in W/(Hzm2 ) k Boltzmann-Konstante (k = 1,38 ⋅ 10−23 J/K) k 1. Wellenzahl, Variable im Fourierraum in 1/m, 2. piezoelektrischer Koppelfaktor in %, 3. thermische Leitfähigkeit von Gewebe in W/(mK) K 1. K bzw. Kerma, Kinetic Energy Released in Matter in J/kg oder Gy (Gray), 2. Rampenfilter, K = F −1 |k|F, 3. Reflexionskoeffizient (dimensionslos) 𝛾 kx,y,z (t) = 2𝜋 ∫ Gx,y,z (t)dt Komponenten des k-Vektors in 1/m l Akkommodationslänge des Auges in m L Induktivität in Henry H lc Kohärenzlänge des Lichtes in m ld deutliche Sehweite in m L(A|P) likelihood von A, L(A|P) = Wahrscheinlichkeit von P gegeben A M Magnetisierung in A/m makroskopische Magnetisierung in A/m M⃗ = ∑Nn=1 ⟨𝜇n⃗ ⟩ me Masse des Elektrons in kg Magnetquantenzahl mI mp Masse des Positrons in kg MTF(u, v) Modulation Transfer Function, Modulations-Übertragungsfunktion n 1. Brechungsindex eines Mediums, 2. Ordnungszahl: 1, 2, 3, . . . (dimensionslos), 3. Zahl der auftreffenden (Röntgen-)Photonen pro Fläche und Zeit in 1/(m2 s) N 1. Zahl der Projektionen, 2. Zählrate allgemein in counts per second cps oder 1/s N↑ , N↓ Anzahl der magnetischen Momente (oder Spins), die entlang und entgegengesetzt zum externen Magnetfeld ausgerichtet sind
XXX | Verzeichnis der Formelzeichen, Symbole und Indizes n0 n𝜃 , n⊥𝜃 NA NPS(u, v) Nq (f ) Nsys (f ) Ny P p p(x) p(x , y ) P(z, t) P(𝜃, s) pr PSF(x, y) Pt p𝛾 (𝜉) P𝛾 (q) q Q q⃗ q q q̂ q0 (r,⃗ t) Qm R r⃗ R1 = T1 , R2 = 1 r1,2 RD (𝜆) Rf R[A] Re{. . .} s
1 T2
Parameter der Poisson-Verteilung, Mittelwert der gezählten Photonen Vektoren parallel und senkrecht zur LOR-Richtung 𝜃 numerische Apertur Noise Power Spectrum in W/Hz Rauschleistungsdichtespektrum in W/Hz Rauschleistungsdichtespektrum der Elektronik des Detektors in W/Hz Wiederholung der Phasenkodiergradienten mit unterschiedlichen Stärken 1. Leistung in W, 2. Polarisierbarkeit in As/m2 , 3. Streustrahlanteil 1. Schalldruck in Pa, 2. Stromdipol in Am Wahrscheinlichkeit für das Auftreten des Messwertes x Projektionen von einem Kegelstrahl gemessen in einer Bildebene Wärme, die pro Volumen eingelagert wird in J Sinogramm, gemessene LOR mittlere Positronenreichweite in m Pointspread Function, Punktbildfunktion gesamte von einer Röntgenröhre abgestrahlte Leistung in W gemessenes Projektionsprofil (Linienintegral) Fouriertransformierte von p𝛾 (𝜉) 1. zu 𝜉 gehörenden Ortsfrequenz in 1/m, 2. Faktor (dimensionslos), 3. allgemeine skalare Größe Gütefaktor allgemeine vektorielle Größe analytisches Signal Mittelwert Scheitelwert Quellterm in der Diffusionsgleichung für den Photonentransport in (Photonen)/(m3 s) oder (Photonen)/(cm3 s) metabolische Wärmeproduktion pro Volumen 1. (Ohmscher) Widerstand in Ω, 2. Auflösung in m, 3. Strecke in m, 4. Zählrate der zufälligen Koinzidenzen in counts per second cps Ortsvektor in m Relaxationsraten zu T1 und T2 , in 1/s Relaxivität in 1/s spektrale Antwort des Systems Radon- oder X-ray-Transformation einer Funktion f Radon-Transformation von A Realteil von {. . . } Elastizitätskonstante in 1/Pa
Verzeichnis der Formelzeichen, Symbole und Indizes |
S
S(t) SAR So ΔT T
T⃗ t Δt T1 T2 T2∗ TA TA-Scan TE TI TP TR TS tan 𝛿 u U UA UB Uk U(t) v V v⃗ Vf Vm VM vz Vz W
XXXI
1. Deformation, 2. Empfindlichkeit eines Röntgenfilms (nach DIN), 3. Fläche in m2 , 4. Sensitivität in % oder cps/Bq, 5. Signal, z. B. gezählte Photonen in einem Pixel, 6. Zählrate der gestreuten Koinzidenzen in counts per second cps Signal spezifische Absorptionsrate in W/kg optische Dichte Temperaturdifferenz in K 1. absolute Temperatur in K, 2. spektrale Transmission, 3. Zählrate der echten Koinzidenzen in counts per second cps oder 1/s, 4. Dauer in s, 5. mechanische Spannung in Pa, 6. Temperatur in K Drehmoment in Nm Zeit in s Zeitdifferenz in s Spin-Gitter-Relaxationszeit in s Spin-Spin-Relaxationszeit in s effektive Querrelaxationszeit in s Referenztemperatur (arterielles Blut) in K oder °C Zeitdifferenz zwischen der Aufnahme zweier aufeinanderfolgender A-Scans in s 1. Echozeit in s, 2. Belichtungszeit (bei Röntgenaufnahmen) in s Inversionszeit in s Primärstrahltransparenz Wiederholzeit (engl. repetition time) in s Streustrahltransparenz dielektrischer Verlustwinkel 1. Öffnungswinkel/Aperturwinkel, 2. elektrische Spannung (Zeitbereich) in Volt, 3. Raumfrequenz in x-Richtung in 1/m elektrische Spannung (Frequenzbereich) in Volt Anodenspannung (einer Röntgenröhre) in V Beschleunigungsspannung meistens in kV Spannungen in V induzierte Spannung in der Empfangsspule in V Raumfrequenz in y-Richtung in 1/m Messsignal in V Schallschnelle in m/s förderliche Vergrößerung Transmembranspannung in V Gesamtvergrößerung eines Mikroskops Geschwindigkeitskomponente in z-Richtung in m/s Geschwindigkeit eines Teilchens in z-Richtung in m/s Pixelwerte in einem Bild
XXXII | Verzeichnis der Formelzeichen, Symbole und Indizes W1 (kz ) wm (T)
Gewichtsfunktion zur Modulation des HF-Feldes Funktion, die bei temperaturabhängiger Perfusion zum Tragen kommt WL Fenstermitte (Window Level) WW Fensterbreite (Window Width) x Ortskordinate in m y Bildhöhe eines Objekts von der optischen Achse in m Y Admittanz in 1/Ω = S y Ortskoordinate in m Z 1. Impedanz in Ω, 2. Feldwellenwiderstand, Schallimpedanz in kg/(m2 s), 3. Ordnungszahl eines Elementes z 1. Ortskoordinate in m, 2. Ortskoordinate in Strahlrichtung bzw. in die Tiefe des Objekts in m 𝛼 1. stereoskopische Winkelauflösung, 2. Absorptionskoeffizient in dB/(cm ⋅ MHz), 3. Tomosynthesewinkel 𝛼(𝜆, T) Absorptionsvermögen 𝛼(T) = 𝜀(T) = 1 Absorptionsvermögen des idealen Schwarzen Körpers 𝛼(𝜔) Dämpfungsmaß cos 𝛼opt = e−TR /T1 Ernst-Winkel 𝛼 = 𝜔1 ⋅ Tp = 𝛾 ⋅ B1 ⋅ Tp Kippwinkel, Flipwinkel 𝛽(𝜔) Phasenmaß 𝛤 Identitätsmatrix 𝛤(z) komplexes Rückstreusignal aus der Tiefe z 𝛤H Äquivalentdosisleistungskonstante in Sv m2 /(As) oder Sv m2 /(A min) 𝛾 1. Vergrößerung des Zoom-Systems, 2. Reflektivität 𝛾 (dimensionslos), 3. gyromagnetisches Verhältnis, (— 𝛾 = 2𝜋 ) in Hz/T, 4. Projektionswinkel 𝛾(𝜏) Kohärenzfunktion 𝛤(𝜔) Reflexionsfaktor 𝜕2 𝜕2 𝜕2 Δ = 𝜕x 2 + 𝜕y2 + 𝜕z2 Delta-Operator (hier: Beispiel für kartesische Koordinaten) Δ Laplace-Operator 𝛿 1. räumliche Auflösung in m, 2. chemische Verschiebung in ppm, 3. Diracsche Deltafunktion 𝜀0 elektrische Feldkonstante (= 8,854 ⋅ 10−12 As/Vm) 𝜀r Permittivität, komplexe relative Dielektrizitätszahl 𝜀(𝜆, T) Emissionsvermögen eines Materials 𝜀 Nachweiswahrscheinlichkeit in % 𝜂 1. Kristallwirkungsgrad, 2. Wirkungsgrad einer Röntgenröhre 𝜗 stereoskopische Tiefenwahrnehmung in m 𝜃 Brechungswinkel
Verzeichnis der Formelzeichen, Symbole und Indizes | XXXIII
𝜃e , 𝜃r , 𝜃t 𝜅 𝜆 Δ𝜆 𝜆0 𝜆S 𝜇 𝜇a 𝜇S 𝜇⃗ = 𝛾 ⋅ J ⃗ ⟨𝜇⟩ ⟨𝜇z ⟩ = mI 𝛾ℏ 𝜈 𝜉 𝛱(kz ) 𝜋 𝜌 𝜌(𝜆, T) 𝜌b 𝛴 𝜎 𝜎2 𝜏 𝛷 𝛷(r,⃗ t) 𝛷(t) 𝜙 𝜙(y, Ty ) = 𝜔 ⋅ Ty 𝜑 𝛹 𝜓 𝛺
Einfallswinkel, Reflexionswinkel, Brechungswinkel (in °[Winkelgrad]) 1. Leitfähigkeitstensor in 1/Ωm, 2. Kompressibilität in m2 /N 1. Wellenlänge in m, 2. Zerfallskonstante in 1/s, 3. Regularisierungsparameter spektrale Breite (FWHM) einer Lichtquelle in m Zentralwellenlänge einer breitbandigen Lichtquelle in m Wellenlänge der sogenannten Schwarzkörperstrahlung in m 1. linearer Schwächungskoeffizient in 1/m oder 1/cm, 2. Mittelwert einer Verteilung, 3. Röntgenschwächungskoeffizient in 1/m Absorptionskoeffizient in 1/m oder 1/cm reduzierter Streukoeffizient in 1/m oder 1/cm magnetisches Moment in Am2 Erwartungswert des magnetischen Moments Vektorkomponenten des magnetischen Momentes entlang des statischen Magnetfeldes in Am2 Frequenz eines Photons in Hz Detektorelement Fensterfunktion Kreiszahl = 3,1415926. . . 1. spezifischer Widerstand in Ωm, 2. Spindichte in 1/m3 , 3. Dichte in kg/m3 oder g/cm3 spektrale Energiedichte in J/(m3 Hz) Dichte von Blut in kg/m3 oder g/cm3 Selektivität eines Streustrahlenrasters 1. Leitfähigkeit in 1/Ωm, 2. Streuquerschnitt in m2 , 3. Standardabweichung einer Verteilung Varianz einer Verteilung 1. Aktivierungszeit in s, 2. Relaxationszeit in s, 3. Koinzidenzfenster in ns, 4. Zeitverzögerung in s 1. elektrisches Potential in V, 2. Teilchenfluenz in (Zahl der Teilchen)/m2 orts- und zeitabhängige Photonendichte im streuenden Medium in (Photonen)/m3 oder (Photonen)/cm3 magnetischer Fluss durch die Empfangsspule in Tm2 1. Teilchenflussdichte in (Zahl der Teilchen)/m2 s, 2. Phasenverschiebung zwischen Referenz- und Probenwelle eingestellte Phase bei den Phasenkodierschritten Packungsdichte in % Energiefluenz in J/m2 Energieflussdichte in J/(m2 s) Raumwinkel
XXXIV | Verzeichnis der Formelzeichen, Symbole und Indizes 𝜔 Kreisfrequenz in 1/s Δ𝜔 Bandbreite (Kreisfrequenz) in 1/s 𝜔0 Larmor-Frequenz in 1/s 𝜕 𝜕 ∇ = e⃗x 𝜕x + e⃗y 𝜕y + e⃗z 𝜕z𝜕 Nabla-Operator (hier: Beispiel für kartesische Koordinaten)
Olaf Dössel
1 Die bildgebenden Verfahren in der Medizin 1.1 1.2 1.3
Historie und Motivation | 2 Übersicht über die Verfahren der medizinischen Bildgebung | 4 Von der medizinischen Fragestellung über die Bildgebung zum Befund | 6
Zusammenfassung: Bilder vom Inneren des Körpers sind oft die wichtigste Grundlage für eine genaue und zuverlässige Diagnostik. Welches sind die wichtigsten Methoden der medizinischen Bildgebung, wie funktionieren sie und welche Rolle spielen sie bei der Diagnostik? Die bildgebenden Verfahren werden hier tabellarisch vorgestellt und eingeordnet. Es wird deutlich, dass die Bildgebung immer in einen medizinischen Ablauf eingebettet ist. Abstract: Images depicting the inside of the body are often the most essential basis for precise and reliable diagnostics. This chapter addresses questions such as: which are the most important methods of medical imaging, how do they function, and what is their specific role for diagnostics? The various modalities of medical imaging are listed and ordered here, and it becomes apparent that medical imaging is always embedded into a clinical workflow.
2 | Olaf Dössel
1.1 Historie und Motivation Der Wunsch des Arztes, in den Körper des Patienten hineinzuschauen, ist sehr alt und nahe liegend. Beim Sezieren von Leichen hatte man bei kranken Menschen typische Gewebeveränderungen entdeckt. Die Möglichkeit, diese Veränderungen schon frühzeitig am lebenden Patienten zu sehen, kann die Diagnose verbessern. Sie kann helfen, die richtige Therapie auszuwählen, und damit eine Heilung ermöglichen bzw. beschleunigen. Wilhelm Conrad Röntgen erkannte am 8. November 1895 sofort, dass er einen Weg zum „Blick in das Innere eines Patienten“ gefunden hatte (Abb. 1.1). Inzwischen sind zur Röntgentechnik viele andere Verfahren – man spricht auch von bildgebenden Modalitäten – hinzugekommen. Sie alle werden in diesem Kapitel sehr kurz, in den folgenden Kapiteln dann ausführlich beschrieben. Parallel zu den technischen Systemen der Bildgebung haben sich medizinische Fachdisziplinen entwickelt, die sich mit der richtigen Aufnahme und Interpretation der Bilder befassen: die Radiologie und die Nuklearmedizin. Die Vorbereitung des Patienten, seine richtige Lagerung im bildgebenden System, die Aufnahmeparameter, welche den optimalen Informationsgewinn versprechen, die Auswahl eines geeigneten Tracers bei den nukleardiagnostischen Verfahren sowie das Erstellen des Befunds (die medizinische Interpretation der Bilder) sind wichtige Themen der Radiologie und Nuklearmedizin, aber nicht Gegenstand dieses Buches. Aber natürlich soll in jedem Kapitel ein kurzer Blick auf die medizinischen Fragestellungen und Indikationen ge-
Abb. 1.1: Eines der ersten Röntgenbilder zeigt Albert von Koellikers Hand, aufgenommen von Wilhelm Conrad Röntgen am 23. Januar 1896.
1 Die bildgebenden Verfahren in der Medizin |
3
worfen werden, bei denen die jeweilige Modalität heute die „Methode der ersten Wahl“ ist. Die medizinische Bildgebung begann mit der Abbildung und Erkennung von Tumoren und Knochenbrüchen („morphologische Bildgebung“). Frühzeitig kam die Abbildung von Blutgefäßen (Angiographie) hinzu, mit der beispielsweise Stenosen (Gefäßverengungen) oder Aneurysmen (Gefäßaussackungen) entdeckt werden können. Es folgte die Erweiterung auf die Abbildung von krankhaften Gewebeveränderungen und Malformationen (Fehlbildungen) jeglicher Art zu einem möglichst frühen Zeitpunkt der Erkrankung. Ein neues Kapitel der Bildgebung wurde mit der „funktionellen Bildgebung“ eröffnet. Beispielsweise wird hierbei die zeitliche Dynamik bestimmt, mit der ein Kontrastmittel in ein Organ oder ein Gewebe einfließt und wieder herausgespült wird, um so funktionelle Prozesse in diesem Organ zu studieren. Auch Bewegungsabläufe von Gelenken oder vom kontrahierenden Herzen können dargestellt werden. Die funktionelle Magnetresonanztomographie kann u. a. zeigen, welcher Teil des Gehirns nach einem sensorischen Stimulus zu arbeiten beginnt. Die „quantitative Bildgebung“ liefert dem Arzt nicht nur Grauwertbilder, sondern Zahlen auf einer metrischen Skala, die physikalischen Messgrößen entsprechen. So kann die Computertomographie den Röntgen-Schwächungskoeffizienten genau bestimmen und damit beispielsweise einen wichtigen Beitrag zur Osteoporose-Diagnostik liefern. Andere Größen wie die Perfusion von Gewebe oder der Blutfluss in den Gefäßen sind ebenfalls quantitative Messgrößen, die mit bildgebenden Systemen erfasst werden können. Mit der „molekularen Bildgebung“ wird gerade wieder ein neues Kapitel der medizinischen Bildgebung aufgeschlagen. Lange bevor sich in den konventionellen Bildern Gewebeveränderungen in einem erkrankten Organ zeigen, laufen dort biochemische Vorgänge in veränderter Form ab. Diese sichtbar zu machen, hat sich die molekulare Bildgebung zum Ziel gesetzt. Beispielsweise möchte man Biomarker, die auf eine Erkrankung hinweisen, ortsaufgelöst darstellen. Die „interventionelle Bildgebung“ ist eine weitere besondere Form der Bildgebung: Während eines ärztlichen Eingriffs in den Körper des Patienten sollen quasi in Echtzeit Bilder aufgenommen werden, die dem Arzt die Navigation erleichtern und ihm zeigen, ob das Ziel der Intervention (die Resektion eines Tumors, die Aufweitung eines Blutgefäßes etc.) vollständig erreicht wurde. Oft erkennt man, dass eine bildgebende Modalität alleine noch nicht alle offenen Fragen des Arztes beantworten kann. Zur Lösung sind hier die Systeme der „multimodalen Bildgebung“ entstanden, z. B. die Kombination aus PET und CT. Alle diese Aspekte der medizinischen Bildgebung sollen in diesem Buch zusammen mit den Grundprinzipien der wichtigsten Modalitäten vorgestellt werden.
4 | Olaf Dössel
1.2 Übersicht über die Verfahren der medizinischen Bildgebung Tabelle 1.1 zeigt eine Übersicht über die heute in der Diagnostik eingesetzten bildgebenden Verfahren in der Medizin. Das älteste bildgebende Verfahren der Medizin ist das Projektionsröntgen, bei dem Röntgenstrahlen den Körper des Patienten durchdringen und das „Schattenbild“ der Röntgenabschwächung mit einem flächenhaften Detektor für Röntgenstrahlen (vom Röntgenfilm bis zum „Flat Dynamic X-Ray-Detector“) aufgezeichnet wird. Das Verfahren ist vergleichsweise preiswert, leicht zu bedienen, liefert sehr schnell gute Bilder und ist damit die Basismodalität der medizinischen Bildgebung. Mit der Computertomographie, kurz: CT (engl.: Computed Tomography), gelingt es, überlagerungsfreie Schichtbilder des Körpers zu erzeugen. Die Frage: „Was liegt davor und was liegt dahinter?“, die beim Projektionsröntgen noch offen bleibt, kann so beantwortet werden. Aus einem Stapel von mehreren Schichtbildern entsteht ein 3D-Datensatz. Bei der CT rotieren Röntgenröhre und Detektorzeile bzw. -fläche um den Patienten und nehmen Daten auf, aus denen der Computer ein Bild berechnen kann. Bei der Szintigraphie und der Einzelphotonen-Emissions-CT, der Single Photon Emission Computed Tomography, kurz SPECT, werden Moleküle in den Körper eingebracht (durch Injizieren, Schlucken oder Inhalieren), die einen Gammastrahler entTab. 1.1: Die heute in der Diagnostik routinemäßig eingesetzten bildgebenden Verfahren. Bildgebende Modalität
Beschreibung des Verfahrens
Projektionsröntgen
Aufnahme von Schattenbildern des Körpers mit Röntgenstrahlen Schichtbildverfahren zur Abbildung des RöntgenSchwächungskoeffizienten Abbildung der Aktivitätsverteilung von mit einem Gammastrahler markierten Molekülen
Computertomographie, CT Szintigraphie und EinzelphotonenEmissionstomographie (Single Photon Emission Computed Tomography), SPECT Positronen-Emissions-Tomographie, PET Magnetresonanztomographie, MRT Ultraschall-Bildgebung, US Endoskopie
Optische Kohärenztomographie, OCT Operationsmikroskopie
Abbildung der Aktivitätsverteilung von mit einem Positronenstrahler markierten Molekülen Abbildung eines Produktes aus Protonendichte und Funktionen der Relaxationszeiten T1 und T2 Darstellung des Ultraschall-Echos von Gewebegrenzflächen und der rückgestreuten Schallintensität von Gewebe Blick in den menschlichen Körper durch natürliche Körperöffnungen oder kleine Einschnitte, unter Nutzung optischer Linsensysteme, Glasfaserbündel und Bildsensoren Darstellung der optischen Rückstreuung in den obersten 100 μm bis 1 mm eines Organs, z. B. der Netzhaut Vergrößerte optische Darstellung während einer Operation
1 Die bildgebenden Verfahren in der Medizin |
5
halten. Durch den Nachweis der aus dem Körper emittierten Gamma-Quanten mit einer Gammakamera kann ein Bild der Gamma-Aktivität rekonstruiert werden und damit der Weg des Gammastrahlers („Tracer“) im Körper des Patienten verfolgt werden. Im Gegensatz zur SPECT werden bei der Positronen-Emissions-Tomographie (kurz: PET) Positronenstrahler in den Körper gebracht. Da die emittierten Positronen aber schon nach ca. 1 mm im Körper mit einem Elektron kollidieren und dabei zwei Gamma-Quanten entstehen, werden außerhalb des Körpers wieder Gamma-Quanten nachgewiesen. Die Tatsache, dass die beiden Gamma-Quanten genau in entgegengesetzte Richtungen von ihrem Entstehungsort wegfliegen, führt dazu, dass mit einem Koinzidenz-Detektor und einem geeigneten Algorithmus ein sehr genaues Bild der Aktivitätsverteilung im Körper rekonstruiert werden kann. Bei der Ultraschall-Bildgebung wird eine Schallwelle im Frequenzbereich 1 MHz bis typisch 20 MHz in den Körper des Patienten gesendet und das zurückkommende Echo aufgezeichnet. An Grenzflächen zwischen zwei Gewebearten mit unterschiedlicher Schallimpedanz kommt es zu starken Reflexen. Wird eine schmale „Schallkeule“ durch den Körper geschwenkt, kann so ein Bild dieser Grenzflächen ähnlich wie beim Radar dargestellt werden. Auch aus dem zwischen den Grenzflächen liegenden Gewebe werden Signale zurückgestreut – ihr räumlich-zeitlicher Verlauf lässt Schlüsse auf krankhafte Gewebeveränderungen zu. Die Echos und Streusignale von bewegten Objekten zeigen wegen des Doppler-Effektes eine charakteristische Frequenzverschiebung, die zur quantitativen Bestimmung von Blutfluss und Gewebebewegung genutzt werden kann. Die Magnetresonanztomographie – kurz MRT – ist das jüngste unter den abbildenden Verfahren der Medizin mit einer weltweit herausragenden Bedeutung. Der Patient wird in ein sehr starkes und sehr homogenes statisches Magnetfeld gelegt (z. B. 1 T oder 3 T). Dadurch werden die Protonen-Spins, die sich in allen gebundenen H-Atomen in großer Zahl im Körper des Menschen befinden, ausgerichtet und zur Präzession gebracht. Ein hochfrequentes (HF), mit genau dieser Präzessionsfrequenz rotierendes elektromagnetisches Feld (z. B. 42,6 MHz bei 1 T oder 127,8 MHz bei 3 T) kann diese Spins umklappen. Nach Abstellen des HF-Feldes klappen die Spins zurück in den Grundzustand und senden dabei selber HF-Signale aus, die mit Antennen aufgenommen werden. Durch geschickt überlagerte Magnetfeld-Gradienten kann der Ort der sendenden Protonen verschlüsselt werden. So entstehen am Ende mithilfe eines Rekonstruktionsalgorithmus Bilder der Protonendichte (genauer: der Dichte von gebundenen H-Atomen), die zusätzlich mit Funktionen der zwei charakteristischen Abklingkonstanten (T1 und T2) gewichtet sind. Während Knochen wegen ihres niedrigen Gehalts an gebundenen H-Atomen weitgehend unsichtbar bleiben, können die Weichteile des Körpers hervorragend sichtbar gemacht werden. Auch die Endoskopie hat das Ziel, Bilder vom Inneren des Körpers darzustellen. In der traditionellen Endoskopie werden Bilder der inneren Organe und Gewebe erzeugt, so wie sie sich darstellen würden, wenn der Körper aufgeschnitten und direkt betrachtet würde. Mithilfe von Linsensystemen oder miniaturisierten Bildsensoren werden die starren oder flexiblen Endoskope vom Arzt durch natürliche oder mittels
6 | Olaf Dössel kleiner Schnitte künstlich geschaffene Körperöffnungen in die Hohlräume des Patienten geschoben. Die Beleuchtung der Hohlräume erfolgt überwiegend über externe Lichtquellen, deren Lichteinkopplung über Glasfaserbündel geschieht. Neben der traditionellen sogenannten „Weißlichtendoskopie“, bei der Xenonlampen oder heute auch LEDs zum Einsatz kommen, werden überdies in jüngster Zeit Fluoreszenzlichtquellen oder konfokale Laserscanning-Systeme zur Begutachtung des Gewebes und dessen Eigenschaften verwendet. Die Möglichkeit, ein krankhaft verändertes Organ im gleichen Arbeitsschritt mittels im Endoskopschaft vorgeschobener Instrumente zu behandeln, macht das Endoskop zu einem der wichtigsten Werkzeuge der minimalinvasiven Chirurgie. Die optische Kohärenztomographie (OCT) ist in der Lage, optische Eigenschaften (Reflexionskoeffizienten) von Gewebe in den obersten Schichten (typisch 100 μm bis 1 mm) eines Organs abzubilden. Im klinischen Einsatz ist das Verfahren heute bei der spezifischen Diagnose der Netzhaut des Menschen. Andere Anwendungen, z. B. die Abbildung von Stenosen in Blutgefäßen mit dem Ziel, vulnerable Plaques (gefährliche Ablagerungen) zu erkennen, oder die Abbildung von Melanomen (Pigmentzellentumoren) mit dem Ziel, Hautkrebs zu erkennen, sind Gegenstand der medizinischen Forschung. Neben den oben genannten bildgebenden Verfahren, die in der Klinik eine große Bedeutung haben, gibt es andere Methoden, die noch im Stadium der Forschung sind und/oder sich bis heute nur in einzelnen spezifischen medizinischen Fragestellungen als vorteilhaft erwiesen haben. Sie sind in Tab. 1.2 zusammengefasst. An dieser Stelle können sie nicht beschrieben werden, sie sind aber in den folgenden Kapiteln ausführlich erklärt.
1.3 Von der medizinischen Fragestellung über die Bildgebung zum Befund In diesem Abschnitt soll die gesamte Kette der Bildgebung kurz betrachtet werden. Jede medizinische Bildgebung beginnt mit einer Fragestellung. Der Arzt kann das Ziel haben, eine Hypothese abzuklären, also zu verifizieren oder auszuschließen. In diesem Sinne stellt ein sogenannter „negativer Befund“ keine unnötige Aufnahme dar, sondern liefert oft eine entscheidende Information für die Wahl des richtigen Behandlungspfades – und manchmal auch eine gute Nachricht für den Patienten. Der Arzt kann weiterhin das Ziel haben, den Verlauf einer bekannten Erkrankung zu überwachen oder auch zu prüfen, ob eine Therapie erfolgreich ist (Monitoring). Beim sogenannten Screening wird eine ganze Bevölkerungsgruppe ohne einen konkreten Anfangsverdacht auf eine Erkrankung hin untersucht. Schließlich dienen bildgebende Verfahren während einer Intervention der Orientierung, der Optimierung des Ergebnisses der Intervention und dem Minimieren von Komplikationen. Nach der Formulierung der medizinische Fragestellung muss als nächstes die Entscheidung gefällt werden, welches bildgebende Verfahren (man sagt auch: welche
1 Die bildgebenden Verfahren in der Medizin |
7
Tab. 1.2: Bildgebende Verfahren der Medizin, die sich noch im Stadium der Forschung und Entwicklung befinden. Phasenkontrast-Röntgen und Phasenkontrast-CT Impedanzbildgebung und Impedanztomographie Abbildung bioelektrischer Quellen Digitale Tomosynthese
Magnetic Particle Imaging Mikrowellen und TerahertzBildgebung Thermographie
Optische Bildgebung
Bestimmung von Bildern des Brechungsindex von Gewebe bei Photonenenergien im Bereich der Röntgenstrahlung Abbildung der elektrischen Impedanz von Gewebe (Realteil und/oder Imaginärteil bzw. 𝜀 und 𝜎, d. h. Dielektrizitätskonstante und Leitfähigkeit) Abbildung der bioelektrischen Ströme und Quellspannungen im Körper, z. B. im Kopf (EEG/MEG) oder im Herzen (EKG/MKG) Abbildung von Schichten, berechnet aus mehreren Röntgenprojektionen, aufgenommen aus einem eingeschränkten Winkelbereich Abbildung von kleinsten Mengen magnetischer Nanopartikel im Körper für die Angiographie und für die molekulare Bildgebung Abbildung der Streueigenschaften von Gewebe für Mikrowellen oder für Terahertz-Strahlung Abbildung der Temperaturverteilung an der Körperoberfläche, um daraus Rückschlüsse auf die darunter liegenden Organe zu ermöglichen (z. B. Erkennung von Entzündungen) Durchleuchten oder Beleuchten des Körpers mit Licht im sichtbaren bzw. nahinfraroten Spektralbereich bzw. Abbildung von fluoreszierenden Stoffen im Körper
„Modalität“) zur Beantwortung der Frage am besten geeignet ist. Einige bildgebende Systeme sind so preiswert und leicht zu bedienen, dass der behandelnde Arzt sie selber einsetzt, andere sind komplexer und kostspieliger, so dass der Patient an einen Facharzt, z. B. einen diagnostischen Radiologen oder Nuklearmediziner, überwiesen wird. Vor der eigentlichen Aufnahme beginnt dann eine sorgfältige Vorbereitung des Patienten. Der Patient sollte – soweit dies möglich und erforderlich ist – in einem „genormten Zustand“ in die Bildgebung gehen. Dann erfolgt die optimale Lagerung des Patienten für die Bildaufnahme. Es muss entschieden werden, ob ein Kontrastmittel eingesetzt werden sollte. Falls ja, muss das richtige Kontrastmittel an der richtigen Stelle und zum richtigen Zeitpunkt appliziert werden. Erst an dieser Stelle beginnt das technische System der Bildgebung: Die Parameter des bildgebenden Systems müssen so eingestellt werden, dass die Fragestellung bestmöglich beantwortet werden kann und dabei dem Patienten so wenig Schaden wie möglich zugefügt wird. Es erfolgt nun die Datenakquisition. Nur im Falle eines klassischen Röntgenbildes ist an dieser Stelle das Bild quasi fertig. In fast allen anderen Fällen wird aus den Messdaten des bildgebenden Systems erst ein Bild erzeugt. Hierbei kommen häufig mathematische Gleichungen und Algorithmen zum Einsatz. Die Wahl des richtigen Algorithmus ist für die Qualität des Be-
8 | Olaf Dössel medizinische Fragestellung
welches bildgebende Verfahren?
Vorbereitung Lagerung Kontrastmittel
Bildakquisition
Befundung
Bild Darstellung
Bildverarbeitung
Algorithmen zur Bildberechnung
Abb. 1.2: Schematische Darstellung der Kette von der medizinischen Fragestellung bis zum Befund.
fundes ebenso entscheidend wie die richtigen Parameter bei der Bildaufnahme; beide müssen optimal zusammenpassen. Klassische Röntgenbilder werden zur Befundung in den sogenannten Lichtkasten gehängt. Digital vorliegende Bilder werden auf einem Befundungsmonitor betrachtet. An diesen Monitor werden besondere Anforderungen bezüglich Auflösung, Kontrast und Grundhelligkeit gestellt. Außerdem gibt es die Option, die Bilder am Befundungsmonitor mithilfe der digitalen Bildverarbeitung so zu verändern, dass die medizinische Fragestellung am besten beantwortet werden kann. Dies geschieht oft auch interaktiv. Der Kontrast kann nachträglich verändert werden, das Signal-Rausch-Verhältnis kann zulasten der räumlichen Auflösung verbessert werden, es können Falschfarben eingesetzt werden, man kann eine „Zoom-Funktion“ verwenden oder es können Bilder mit anderen Bildern überlagert werden, um nur einige Optionen zu nennen. Am Ende der Kette ist es Aufgabe des Arztes, mithilfe der Bilder einen Befund zu erstellen. Was war auf den Bildern zu sehen? Wie wird die Frage, mit der die Bildgebung initiiert wurde, beantwortet? War auf den Bildern noch etwas anderes zu erkennen, was nicht erwartet wurde? Wie kann das Bild dazu beitragen, den Gesundheitszustand des Patienten zu verbessern? An diesem Ziel muss sich die gesamte Bildgebungskette orientieren. Technische Spielereien sind unnütz und unnötig. Am Ende zählt nur, was dem Patienten einen messbaren Vorteil bringt (evidence based medicine). Abb. 1.2 zeigt schematisch die Kette von der Fragestellung bis zum Befund.
Weiterführende Literatur Beutel J., Kundel H. L., van Metter R. L.: Handbook of Medical Imaging Volume 1. Bellingham: SPIE Press 2000. Dössel O.: Bildgebende Verfahren in der Medizin. Berlin: Springer 2000. Morneburg H.: Bildgebende Systeme für die medizinische Diagnostik. Erlangen: Publicis 1995. Oppelt A.: Imaging Systems for Medical Diagnostics. Erlangen: Publicis 2005. Smith N. B., Webb A.: Introduction to Medical Imaging, Cambridge: Cambridge University Press 2011. Suetens P.: Fundamentals of Medical Imaging. Cambridge: Cambridge University Press 2009. Webb A.: Introduction to Biomedical Imaging. Hoboken: John Wiley 2003.
Til Aach, Olaf Dössel
2 Bildgebung durch Projektionsröntgen Diagnostik mit Projektionsröntgen | 10 Physikalische Grundlagen | 12 Dosimetrische Größen | 23 Komponenten zur Erzeugung von Röntgenstrahlung | 25 Detektion von Röntgenstrahlung | 32 Bildqualität: Modulationsübertragungsfunktion (MTF) und detektierte Quanteneffizienz (DQE) | 45 2.7 Phasenkontrast-Röntgen | 51 2.8 Gesetzliche Vorschriften zur Qualitätssicherung | 54 2.9 Medizinische Applikationen und spezifische Systeme | 55 2.10 Neuere Entwicklungen und Trends | 56
2.1 2.2 2.3 2.4 2.5 2.6
Zusammenfassung: Projektionsröntgen ist nach wie vor das „Flaggschiff“ der medizinischen Bildgebung: schnell, zuverlässig, von hoher diagnostischer Aussagekraft und vergleichsweise preiswert. Das Kapitel beginnt mit den physikalischen Grundlagen der Erzeugung und Abschwächung von Röntgenstrahlen. Die Technik der Röntgenröhre und der Bildaufnahmesysteme wird beschrieben. Die quantitativen Messgrößen der Bildqualität sind die Modulationsübertragungsfunktion MTF und die detektierte Quanteneffizienz DQE. Auch auf die gesetzlichen Vorschriften zur Qualitätssicherung, auf medizinische Applikationen und auf neuere Entwicklungen wird eingegangen. Abstract: Projection X-ray imaging is still the “flagship” of medical imaging: it is fast, reliable and delivers important diagnostic information at a reasonably low cost. This chapter starts by describing the physics of generating and attenuating X-rays. Subsequently, the technology of the X-ray tube and the X-ray detection system are described. Quantitative measures of the image quality are the Modulation Transfer Function (MTF) and the Detective Quantum Efficiency (DQE). Finally, regulations for quality assurance, medical applications, and new developments are outlined.
Til Aach ist, nachdem er den größten Teil dieses Kapitels geschrieben hat, leider verstorben. Wir haben mit ihm einen guten Freund und einen exzellenten Hochschullehrer und Wissenschaftler verloren. Wir werden ihn nicht vergessen.
10 | Til Aach, Olaf Dössel
2.1 Diagnostik mit Projektionsröntgen Röntgenstrahlung wurde bereits kurz nach ihrer Entdeckung 1895 durch W. C. Röntgen zur medizinischen Diagnose eingesetzt. Bis heute ist Bildgebung durch Projektionsröntgen eines der vielseitigsten und am häufigsten genutzten bildgebenden Verfahren in der medizinischen Diagnostik, beispielsweise in Form von Projektionsradiographie bei Verdacht auf Frakturen oder in Form von Durchleuchtung (Fluoroskopie) bei Herzkatheteruntersuchungen. Abb. 2.1 zeigt das Bildgebungsprinzip: Die durch eine Röntgenröhre erzeugte Strahlung durchdringt den Patienten und wird durch photoelektrische Absorption und Streuung geschwächt. Ein vor der Röhre angebrachter, verstellbarer Kollimator engt das Strahlenbündel auf den entsprechend der diagnostischen Fragestellung relevanten Bereich des Patienten ein. Auf der der Röhre gegenüberliegenden Seite des Patienten wird das geschwächte Strahlungsmuster durch einen planaren Detektor aufgezeichnet. Projektionsröntgen: strukturabbildendes projektives Verfahren in der Medizin auf Basis von Röntgenstrahlen. Projektion: (lat. proicere – hinauswerfen, hinwerfen): in der BMT das Integral der abgebildeten Gewebseigenschaften auf dem Strahlweg bei der Bildgebung, speziell des Röntgenschwächungskoeffizienten durch den Körper des Patienten hindurch, entweder als einzelner Nadelstrahl oder als eine Linie aus vielen Nadelstrahlen.
Zur Reduktion des Streustrahlanteils kann unmittelbar vor dem Detektor ein Streustrahlenraster in den Strahlengang eingebracht werden. Die aufgezeichneten Projektionen hängen somit von der Schwächung ab, welche die Röntgenstrahlen beim Durchgang durch den Patienten erfahren haben. Da die Strahlen hierbei meist meh-
Röntgenröhre Kollimator
Patient Streustrahlenraster Detektor
Abb. 2.1: Schematische Darstellung der Bildgebung durch Projektionsröntgen.
2 Bildgebung durch Projektionsröntgen
|
11
Fokus O X Y Z Fokus-ObjektAbstand Z0
Fokus-FilmAbstand b Patient P
o Film
P x
y
Abb. 2.2: Schematische Darstellung der Abbildungsgeometrie.
rere hintereinanderliegende Gewebestrukturen oder Organe nacheinander durchlaufen, überlagern sich diese Strukturen in den aufgenommenen Bilddaten, wie beispielsweise in Abb. 2.19 erkennbar ist. Die erforderliche Größe des Detektors hängt von der Größe des abzubildenden Objekts ab. Wir gehen idealisiert davon aus, dass die Röntgenstrahlung in einem als Brennfleck bezeichneten Punkt der Röhre entsteht. Abb. 2.2 zeigt die Abbildungsgeometrie: Der Brennfleck entspricht dem Projektionszentrum O des Strahlengangs, dieser Punkt ist gleichzeitig Ursprung der kartesischen Koordinaten X, Y, Z. Der Abstand zwischen dem Brennfleck O und dem Objekt entlang der Z-Achse entspricht der Gegenstandsweite bzw. dem Fokus-Objekt-Abstand (FOA) Z0 und der Abstand zwischen Brennfleck und Detektor der Bildweite bzw. dem Fokus-Film-Abstand (FFA) b. Der Ursprung o der Koordinaten x, y in der Detektorebene wird durch den Schnittpunkt zwischen der Z-Achse und der Detektorebene gebildet. Ein Objektpunkt mit den Koordinaten P = [X, Y, Z] wird dann auf den Punkt p = [x, y] in der Detektorebene abgebildet, wobei x und y sich berechnen gemäß b b p = [x, y] = [ X, Y] Z Z
(2.1)
Da der FFA b größer ist als der FOA Z0 , vergrößert diese Abbildungsgeometrie, so dass je nach diagnostischer Fragestellung Detektoren bis zu einer Größe von ca. 50 × 50 cm zum Einsatz kommen.
12 | Til Aach, Olaf Dössel
2.2 Physikalische Grundlagen 2.2.1 Erzeugung von Röntgenstrahlung Diagnostische Röntgenstrahlung wird in einer hochevakuierten Röntgenröhre durch Abbremsen beschleunigter Elektronen mit der Elementarladung e = 1,602 u 10−19 As an einer Anode erzeugt. Der schematische Aufbau einer Röntgenröhre ist in Abb. 2.3 gezeigt. Röntgenröhre: Vakuumröhre, in der elektrische Leistung in Röntgenstrahlung (und Wärme) umgewandelt wird.
Durch Aufheizen der Kathode treten aus dieser Elektronen aus, die durch Anlegen einer positiven Beschleunigungsspannung UA zwischen Anode und Kathode zur Anode hin beschleunigt werden. Die eingestellte Beschleunigungsspannung hängt dabei von der diagnostischen Fragestellung ab und liegt zwischen 20 und 150 kV. Hierbei ergeben sich – je nach dem durch die Kathode fließenden Heizstrom IH – Anodenstromstärken im Bereich einiger Milliampere bis ca. 1,5 Ampere. Die Elektronen dringen beim Auftreffen auf die Anode in das Anodenmaterial ein und werden dabei abgebremst. Der weitaus größte Anteil der auftreffenden Elektronen kollidiert hierbei mit Elektronen in der Hülle von Atomen des Anodenmaterials und schlägt diese Elektronen aus den Atomhüllen heraus, wodurch die Atome ionisiert werden. Die hierbei von den beschleunigten Elektronen an das Anodenmaterial abgegebene Energie wird in Gitterschwingungen, also Wärme, umgesetzt [Oppelt 2005, Hsieh 2003, Buzug 2004].
Bremsstrahlung Ein sehr kleiner Anteil von ca. 1 % der Elektronen gelangt jedoch in die Nähe eines Atomkerns des Anodenmaterials und wird in dessen elektrischem Feld abgebremst. Die kinetische Energie, die das Elektron hierbei verliert, wird in Form von Bremsstrahlung in Röntgenstrahlung umgesetzt. Trifft das ankommende Elektron auf einen Atomkern, wird es bis zum Stillstand abgebremst und gibt seine gesamte kinetische Energie Ekin = e⋅UA in Form von Röntgenstrahlung ab. Diese beiden Wechselwirkungsprozesse sind in Abb. 2.4 dargestellt. Bremsstrahlung ist also nicht monoenergetisch, U
Anode
Kathode Röntgenstrahlen
Abb. 2.3: Schematische Darstellung der Erzeugung diagnostischer Röntgenstrahlung in einer hochevakuierten Röhre.
2 Bildgebung durch Projektionsröntgen
| 13
Abb. 2.4: Entstehung von Bremsstrahlung durch Abbremsung eines auftreffenden Elektrons im elektrischen Feld eines Atomkerns (links) und durch direkte Kollision mit einem Atomkern (Mitte). Rechts: Entstehung charakteristischer Strahlung durch Kollision mit einem Elektronen in der inneren Elektronenhülle.
sondern enthält Röntgenphotonen mit einem Spektrum unterschiedlicher Energien, wobei die maximale Energie eines erzeugten Röntgenphotons durch die kinetische Energie Ekin begrenzt wird. Mit dem Planckschen Wirkungsquantum h = 6,6 ⋅ 10−34 Js berechnen sich die maximale Frequenz 𝜈max bzw. die minimale Wellenlänge 𝜆 min der erzeugten Röntgenphotonen zu Ekin = e ⋅ UA = h ⋅ 𝜈max = h ⋅ ⇒ 𝜈max =
eUA , h
𝜆 min
c 𝜆 min hc = eUA
(2.2)
wobei c für die Lichtgeschwindigkeit steht. Bremsstrahlung: bei Röntgenstrahlung diejenige Strahlung, die durch das Abbremsen schneller Elektronen entsteht. Bremsstrahlung hat ein breites Spektrum.
Die überwiegende Mehrheit der abgebremsten Elektronen gibt die Energie in einer Folge von Abbremsprozessen wie in Abb. 2.4 links gezeigt ab, wobei sich bei jeder Wechselwirkung die Flugrichtung des Elektrons ändert. In der Summe ist die Intensität ungefilterter Bremsstrahlung deshalb nahezu unabhängig von der Abstrahlrichtung (Abb. 2.5). Lediglich bei großen Abstrahlwinkeln, d. h. bei Abstrahlrichtungen nahezu parallel zur Anodenoberfläche, kommt es zur Absorption von Strahlung durch die Anodenoberfläche selbst. Der damit einhergehende Abfall der Intensität wird als Heel-Effekt bezeichnet.
14 | Til Aach, Olaf Dössel
e– e– Abb. 2.5: Verteilung der abgestrahlten Intensität von Bremsstrahlung über dem Abstrahlwinkel.
Charakteristische Strahlung Schlägt das ankommende Elektron ein gebundenes Elektron aus der K-, L-, M- oder N-Schale eines Atomkerns des Anodenmaterials heraus, wird der freigewordene Platz unmittelbar durch ein Elektron aus einer weiter außen liegenden Schale eingenommen. Die Differenz der Bindungsenergien wird als elektromagnetische Welle abgestrahlt. Bei Übergängen auf die kernnahen K- und L-Schalen mit hohen Bindungsenergien entsteht Röntgenstrahlung. Da die zu den Elektronenschalen gehörenden Energieniveaus gequantelt sind, gilt dies auch für die abgestrahlten Energiedifferenzen. Die erlaubten Energiedifferenzen sind für das jeweilige Anodenmaterial charakteristisch. Sie erscheinen als Linienspektrum in der erzeugten Röntgenstrahlung, welches als charakteristische Strahlung bezeichnet wird. Charakteristische Strahlung: Röntgenstrahlung, die durch hochenergetische Übergänge in den Elektronenhüllen von Atomen oder Molekülen entsteht. Sie bewirkt diskrete Linien im Röntgenspektrum.
Abb. 2.6 zeigt das Energieniveauschema für das Element Wolfram, welches oft für Anoden genutzt wird. Die kinetische Energie der auftretenden Elektronen muss größer sein als die Bindungsenergie, z. B. der K-Schale, um ein gebundenes Elektron aus dieser Schale herauszuschlagen (das sind bei Wolfram 69,5 keV). Durch Auffüllen des Lochs durch ein Elektron aus der L-, M- oder N-Schale entstehen die K𝛼 bzw. K𝛾 -Linien mit den Energien EK𝛼 = EK − EL = 69,5 keV − 11,3 keV = 58,2 keV EK𝛽 = EK − EM = 69,5 keV − 2,3 keV = 67,2 keV EK𝛾 = EK − EN = 69,5 keV − 0,5 keV = 69,0 keV
(2.3)
Je nach Drehimpulsquantenzahl der Elektronen spalten sich diese Linien noch geringfügig in die K𝛼1 und K𝛼2 -Linien auf und entsprechend auch für die Übergänge aus der M- und N-Schale.
Spektrale Verteilung von Röntgenstrahlung Die spektrale Verteilung der erzeugten Röntgenstrahlung setzt sich aus der Verteilung von Bremsstrahlung und der Verteilung der charakteristischen Strahlung zusammen.
2 Bildgebung durch Projektionsröntgen
Bindungsenergie in keV 0 1 2 3 4 5 6 7 8 9 10 11 12 13
69 70
Kα Kβ Kγ
| 15
0,5 N-Schale Mα
Lα Lβ
2,3 M-Schale
11,3 L-Schale
69,5 K-Schale
Abb. 2.6: Vereinfachte Darstellung der Bindungsenergien des Elements Wolfram.
Im Folgenden bezeichnen wir mit J𝜈 (𝜈) die abgestrahlte Leistung pro Frequenzintervall und Fläche für Bremsstrahlung; diese spektrale Energieflussdichte hat dann die Einheit W/(Hz ⋅ m2 ) = J/m2 . Experimentell zeigt sich, dass die spektrale Energieflussdichte für ungefilterte Bremsstrahlung im Vakuum linear mit der Frequenz 𝜈 abfällt gemäß [Haxel 1968] J𝜈 (𝜈) = k𝜈 ⋅ Z ⋅ (𝜈max − 𝜈) für 0 ≤ 𝜈 ≤ 𝜈max
(2.4)
wobei Z für die Ordnungszahl des Anodenmaterials steht und k𝜈 eine Proportionalitätskonstante ist, die ihrerseits proportional zum Anodenstrom IA ist. Dieser Verlauf der spektralen Energieflussdichte ist in Abb. 2.7 für verschiedene Anodenspannungen gezeigt. Steigt die kinetische Energie der Elektronen über die Bindungsenergie von Elektronen auf einer der kernnäheren Schalen des Anodenmaterials, kommt charakteristische Strahlung zur Bremsstrahlung hinzu. Die Lage der Beiträge der charakteristischen Strahlung zur spektralen Energieflussdichte wird durch das Moseleysche Gesetz beschrieben [Haxel 1968]. Für die K𝛼 -Strahlung liegen diese Beiträge bei der Frequenz 3 𝜈K𝛼 ≈ ⋅ 𝜈R ⋅ (Z − 1)2 (2.5) 4 mit der Rydberg-Frequenz 𝜈R = 3.29 ⋅ 1015 s−1 . Die durch Überlagerung von Bremsstrahlung und charakteristischer Strahlung entstehende gesamte spektrale Energie-
16 | Til Aach, Olaf Dössel
Energieflussdichte in J/m2s
flussdichte ist ebenfalls in Abb. 2.7 gezeigt. Die niedrigenergetischen Bremsstrahlungsbeiträge wurden hierbei durch Einbringen einer dünnen Aluminiumscheibe in den Strahlengang absichtlich herausgefiltert. Diese „weichen“ Strahlungsanteile würden im Körper eines Patienten vollständig absorbiert und damit die Strahlungsbelastung erhöhen, ohne zur Bildqualität beizutragen. Diese Filterung erzeugt einen von Gl. (2.4) abweichenden Abfall der spektralen Energieflussdichte bei niedrigen Frequenzen.
7
50 kV
6
45 kV
5
40 kV
4
35 kV
3
30 kV
2
25 kV
1
20 kV
0
3
4
Grenzfrequenz
5
6 7 8 9 Frequenz ν × 1018 in s−1
(a)
11
12
Kα
7
Kβ Kγ
6 Energieflussdichte in J/m2s
10
5
Dämpfung durch Aluminiumfilter
4 3 2 1 0
(b)
0
2
4
6
8 10 12 14 16 Frequenz ν × 1018 in s−1
18
20
22
24
Abb. 2.7: (a) Spektrale Energieflussdichte ungefilterter Bremsstrahlung im Vakuum für verschiedene Beschleunigungsspannungen. (b) Spektrale Energieflussdichte als Überlagerung gefilterter Bremsstrahlung und charakteristischer Strahlung.
2 Bildgebung durch Projektionsröntgen
| 17
Wirkungsgrad der Erzeugung von Röntgenstrahlung Die gesamte von der Röntgenröhre abgestrahlte flächenbezogene Leistung (oder Intensität) JB entspricht der Fläche unter der spektralen Energieflussdichte. Die schmalbandige charakteristische Strahlung trägt dabei nur wenig zur Gesamtleistung bei, so dass wir uns im Folgenden auf die Bremsstrahlung konzentrieren. Für ungefilterte Bremsstrahlung ergibt die Integration von Gl. (2.4) und Einsetzen von Gl. (2.2) 𝜈max
JB = ∫ J𝜈 (𝜈)d𝜈 = k𝜈 ⋅ Z ⋅ 0
2 𝜈max k ⋅ e2 = 𝜈 2 ⋅ Z ⋅ UA2 . 2 2h
(2.6)
Die Gesamtleistung der Röntgenstrahlung Pt ist wiederum proportional zu JB . Fasst man die Konstanten in Gl. (2.6) zu einer neuen Konstanten zusammen und berücksichtigt explizit die Proportionalität zwischen JB und dem Anodenstrom IA , so ergibt sich für die Leistung der ungefilterten Bremsstrahlung Pt = kt ⋅ IA ⋅ Z ⋅ UA2 .
(2.7)
Den Wirkungsgrad 𝜂 erhält man durch Normieren von Pt auf die aufgewendete Leistung zu Pt 𝜂= = kt ⋅ Z ⋅ UA (2.8) UA ⋅ IA Wirkungsgrad: bei Röntgenröhren der Quotient aus der aufgenommenen elektrischen Leistung und der herauskommenden Röntgenleistung.
Der Wert der Konstanten kt wurde für ungefilterte Bremsstrahlung experimentell zu kt = 1,1 ⋅ 10−9 V−1 ermittelt. Betreibt man eine Röntgenröhre mit einer Anode aus Wolfram (Ordnungszahl Z = 74) bei einer Anodenspannung von UA = 125 kV, so beträgt der Wirkungsgrad nur etwa ein Prozent. Einer Erhöhung des Wirkungsgrads durch höhere Anodenspannungen sind enge Grenzen gesetzt, da die damit einhergehende Verschiebung der spektralen Energieflussdichte zu höheren Photonen-Energien und damit zu einem geringeren Kontrast in den Röntgenaufnahmen führt. Das Herausfiltern weicher Strahlungsanteile und die Einengung der Röntgenstrahlung auf einen kleinen, von der diagnostischen Fragestellung abhängigen Raumwinkel reduzieren praktisch den Wirkungsgrad weiter auf Werte deutlich unter ein Prozent.
2.2.2 Schwächung von Röntgenstrahlung durch Materie Das Schwächungsgesetz Röntgenstrahlung erfährt beim Durchgang durch Materie eine Schwächung, die für diagnostische Röntgenstrahlung (bis zu einigen 100 keV) im Wesentlichen durch Absorption und durch Streuung der Röntgenquanten verursacht wird. Wir betrachten
18 | Til Aach, Olaf Dössel dx n
d n + dn
n₀
n (d)
x
x
Abb. 2.8: Links: Schwächung von Röntgenstrahlung an einer dünnen Schicht. Rechts: Schwächung von Röntgenstrahlung durch eine Schicht der Dicke d.
zunächst ein paralleles Strahlenbündel, welches orthogonal auf eine dünne Materialschicht der Dicke dx auftrifft, wie links in Abb. 2.8 gezeigt. Die Zahl der pro Fläche und Zeit auftreffenden Photonen sei n. Ferner sei die Strahlung monoenergetisch, d. h., sie bestehe aus Photonen mit derselben Energie h𝜈. Die aus dem Material austretende Anzahl von Photonen werde mit n + dn bezeichnet. Durch Schwächung gehen dem auftreffenden Strahlenbündel Quanten verloren, dn ist damit negativ. Außerdem wird dn proportional zur Schichtdicke dx und zu n sein [Haxel 1968], woraus dn = −𝜇 ⋅ n ⋅ dx (2.9) folgt. Die positive Proportionalitätskonstante 𝜇 (Einheit: m−1 ) ist materialabhängig und wird als Schwächungskoeffizient bezeichnet. Für die rechts in Abb. 2.8 gezeigte Materialschicht der Dicke d, auf die n0 Photonen pro Fläche und Zeit auftreffen, ergibt sich aus Gl. (2.9) die Differentialgleichung dn = −𝜇 ⋅ n , dx
mit n(x = 0) = n0 ,
n(x = ∞) = 0
(2.10)
die durch das exponentielle Gesetz n(d) = n0 ⋅ e−𝜇⋅d
(2.11)
für die austretende Photonenzahl n(d) gelöst wird. Besteht die Materialschicht aus mehr als einem Material, so ist der Schwächungskoeffizient selbst ortsabhängig und Gl. (2.11) wird zu d
n(d) = n0 ⋅ e− ∫0 𝜇(x)dx
(2.12)
Multipliziert man die flächen- und zeitbezogene Photonenzahl n mit der Photonenenergie h𝜈, so erhält man die Intensität J der Strahlung in der Einheit W/m2 und Gl. (2.12) wird zu d
J(d) = J0 ⋅ e− ∫0 𝜇(x)dx
(2.13)
mit der einfallenden Intensität J0 und der austretenden Intensität J(d). Dieser Zusammenhang wird als Lambert–Beersches Gesetz bezeichnet. Lambert–Beersches Gesetz: Gesetz, das die Schwächung von Röntgenstrahlung beim Durchgang durch einen Körper mittels Schwächungskoeffizienten 𝜇(x) beschreibt.
2 Bildgebung durch Projektionsröntgen
| 19
Der Schwächungskoeffizient μ ist für ein gegebenes Material abhängig von der Energie bzw. der Frequenz der Röntgenphotonen. Für polychromatische Röntgenstrahlung mit der spektralen Energieflussdichte J𝜈 (𝜈) auf der Einfallsseite muss das monoenergetische Schwächungsgesetz 2.13 deshalb für jeden infinitesimalen Intensitätsbeitrag J𝜈 (𝜈)d𝜈 separat angesetzt und anschließend über alle Frequenzen integriert werden, woraus sich 𝜈max
d
J(d) = ∫ J𝜈 (𝜈) ⋅ e− ∫0 𝜇(x,𝜈)dx d𝜈
(2.14)
0
für die austretende Intensität ergibt. Der Schwächungskoeffizient μ hängt insbesondere von der Ordnungszahl Z und der Dichte 𝜌 des Materials ab, wobei er für Röntgenstrahlung näherungsweise proportional zur Dichte ist. Oft wird statt des Schwächungskoeffizienten deshalb auch der auf die Materialdichte 𝜌 bezogene Massenschwächungskoeffizient 𝜇/𝜌 (Einheit: m2 /g) angegeben. Im Allgemeinen wird niedrigenergetische Strahlung stärker abgeschwächt als höherenergetische Strahlung, d. h., der Schwächungskoeffizient fällt mit steigender Photonenenergie. Beim Durchgang von polyenergetischer Röntgenstrahlung durch Materie kommt es deshalb zu einer relativen Verschiebung der spektralen Energieflussdichte hin zu höheren Energien. Dieser Effekt ist im Teil a) von Abb. 2.9 gezeigt und wird Strahlaufhärtung genannt. Außerdem unterscheiden sich, wie im Teil b) von Abb. 2.9 dargestellt, die Schwächungskoeffizienten unterschiedlicher Gewebe bei höheren Energien immer weniger, was zu dem bereits oben erwähnten Kontrastverlust in Radiographien bei Bildgebung mit zu hoher Anodenspannung führt.
Wechselwirkung von Röntgenstrahlung mit Materie Die Schwächung diagnostischer Röntgenstrahlung durch Materie wird im Wesentlichen durch den Photoeffekt mit dem Schwächungskoeffizienten 𝜇p , die ComptonStreuung mit dem Schwächungskoeffizienten 𝜇c und die Rayleigh-Streuung mit dem Schwächungskoeffizienten 𝜇r verursacht. Nur bei dem Photoeffekt handelt es sich um eine echte Absorption, während die Streueffekte die Röntgenstrahlung durch Ablenken der Röntgenquanten aus ihrer Bahn schwächen, so dass die Quanten nicht in gerader Linie auf den Detektor treffen. Der gesamte Schwächungskoeffizient ergibt sich aus der Summe der einzelnen Koeffizienten [Oppelt 2005, Webb 2003].
Photoeffekt Kollidiert ein Photon mit der Energie h𝜈 mit einem Elektron in der Hülle eines Atoms und ist die Photonenergie größer als die Bindungsenergie Eb des Elektrons, so wird das Elektron aus der Hülle herausgeschlagen und fliegt als freies Photoelektron mit der kinetischen Energie Ee = h𝜈 − Eb weiter (Abb. 2.10 (a)). Das Photon wird dabei
20 | Til Aach, Olaf Dössel
Intensität
ohne Patient hinter 10 cm Gewebe hinter 20 cm Gewebe
5
0
10 15 Frequenz ν × 1018 in s−1
(a)
25
Knochen Muskelgewebe Fett
10¹
μᵨ in cm² g¯¹
20
10⁰
10¯¹ (b)
0
5
10 15 Frequenz ν × 1012 in s−1
20
25
Abb. 2.9: (a) Strahlaufhärtung beim Durchgang polychromatischer Strahlung durch Material. (b) Qualitativer Verlauf des Schwächungskoeffizienten verschiedener Gewebe über der Frequenz 𝜈. Für hohe Frequenzen nähern sich die Kurven immer mehr an.
vollständig absorbiert. Das entstandene Loch in der Schale wird wieder aufgefüllt, wobei niedrigenergetische Strahlung entsteht (4. . . 35 keV), die schnell absorbiert wird. Für den Verlauf des Massenschwächungskoeffizienten gilt 𝜇p 𝜌
∝
Z3 (h𝜈)3
(2.15)
er wird jedoch durch Sprünge unterbrochen (Abb. 2.10 (b)). Liegt die Photonenenergie beispielsweise unterhalb der Bindungsenergie von Elektronen in der K-Schale,
2 Bildgebung durch Projektionsröntgen
| 21
Photoelektrischer Effekt 10³
(a)
Massenschwächungskoeffizient in m²/kg
10²
10¹
10⁰
10¯¹
10¯²
10¯³ 1 (b)
10
100
1000
Energie in keV
Abb. 2.10: (a) Schematische Darstellung des Photoeffekts. (b) Abhängigkeit des Massenschwächungskoeffizienten von der Energie für den Photoeffekt in Xenon.
ist der Photoeffekt beschränkt auf Elektronen in weiter außen liegenden Schalen, wie die L- und M-Schale. Überschreitet h𝜈 die Bindungsenergie der K-Schale, kommt es zu einem bedeutenden Anstieg der Wahrscheinlichkeit der Wechselwirkung mit K-Elektronen, wodurch der Schwächungskoeffizient sprungartig in Form der sogenannten K-Absorptionskante ansteigt. Photoeffekt: lichtelektrischer Effekt, der auf der Wechselwirkung von Photonen mit Materie beruht. Dabei überträgt ein Photon seine Energie auf ein gebundenes Elektron und löst es aus dem Atomverbund heraus.
22 | Til Aach, Olaf Dössel Compton-Streuung Hierbei trifft ein Röntgenphoton auf ein schwach gebundenes Elektron in einer äußeren Schale eines Materieatoms. Das einfallende Photon schlägt dabei das Elektron aus der Schale heraus, überträgt aber aufgrund dessen geringer Bindungsenergie nur einen kleinen Teil seiner Energie an das Elektron (Abb. 2.11 (a)). Das Photon wird dabei aus seiner Bahn abgelenkt und fliegt mit geringfügig reduzierter Energie weiter. Da sich die Frequenzen des Photons vor und nach dem Streuvorgang unterscheiden, wird die Compton-Streuung auch als inkohärente Streuung bezeichnet. Die Energie Ec des Photons nach dem Streuvorgang hängt dabei von dem Winkel 𝜗 ab, um den das Photon aus seiner Bahn gelenkt wird. Sie wird durch die Klein-Nishina-Gleichung beschrieben [Beutel 2000]: Ec =
h𝜈 , 1 + 𝛼(1 − cos 𝜗)
mit 𝛼 =
h𝜈 511 keV
(2.16)
Die kinetische Energie des gestreuten Photons fällt also mit steigendem Streuwinkel. Ein Photon mit der Energie 100 keV, welches beispielsweise um 𝜗 = 60° gestreut wird, fliegt nach der Streuung mit der Energie Ec = 91 keV weiter. Die geringste Energie ergibt sich für Rückwärtsstreuung, d. h. für 𝜗 = 180°. Compton-Streuung: Photonen-Streuung an quasifreien, äußeren Hüllenelektronen. Kollidiert ein Photon mit einem solchen Elektron, so kann es bei dem Stoß Energie und Impuls auf das Elektron übertragen, vergleichbar mit dem Zusammenstoß von zwei Billardkugeln.
Rayleigh-Streuung Bei der Rayleigh-Streuung trifft ein Röntgenphoton elastisch auf ein Materieatom und wird dabei abgelenkt, das Photon gibt dabei aber keine Energie an das Atom ab und ionisiert dies nicht (Abb. 2.11 (b)). Das gestreute Photon fliegt damit in eine andere
(a)
(b)
Abb. 2.11: Schematische Darstellung der Compton-Streuung (a) und der Rayleigh-Streuung (b).
2 Bildgebung durch Projektionsröntgen
|
23
Richtung, aber mit unveränderter Energie bzw. Wellenlänge weiter, man spricht deshalb auch von kohärenter Streuung. Abb. 2.12 zeigt die Anteile von Schwächung durch Compton- und RayleighStreuung sowie durch Photoabsorption am gesamten Massenschwächungskoeffizienten für Blei und Wasser [Haxel 1968] für Energien bis 1 MeV. Während bei 100 keV für Blei die Photoabsorption überwiegt, wird in Wasser der Hauptteil der Schwächung durch Compton-Streuung verursacht, gleiches gilt für Weichgewebe im menschlichen Körper. Diese Streustrahlung erreicht auch nicht im ursprünglichen Röntgenstrahl liegende Organe des Patienten und gegebenenfalls anwesendes Klinikpersonal, welches sich durch Bleiwesten und Bleifenster vor dieser Strahlung schützen muss. Außerdem verschlechtert Streustrahlung den Kontrast in den aufgenommenen Bildern.
2.3 Dosimetrische Größen Diagnostische Röntgenstrahlung ionisiert Materie durch Photoeffekt und ComptonStreuung. Die Energiedosis D beschreibt die dabei an den Absorber abgegebene Energie dEabs pro Masse dm des Absorbers (s. auch Kap. 7, Biologische Wirkung ionisierender Strahlung und Dosimetrie): D=
dEabs dm
(2.17)
Sie wird gemessen in der Einheit Gray (Gy) = J/kg. Beim Durchgang von Röntgenstrahlung durch Materie fällt die Energiedosis immer weiter ab, die für Röntgenaufnahmen maßgebliche Energiedosis wird deshalb für die ersten Volumenelemente direkt unter der Haut angegeben und als Hautdosis bezeichnet. Die Energiedosis lässt sich allerdings praktisch nur schwer direkt messen. Leichter ist die durch Ionisierung erzeugte Ladung (eines Vorzeichens) messbar. Man betrachtet deshalb die kinetische Energie dEkin , die von den Röntgenquanten bei der ersten Wechselwirkung auf die in der Masse dm erzeugten geladenen Teilchen übertragen wird. Diese Größe wird Kerma (kinetic energy released in matter) genannt. Sie ist gegeben durch dEkin K= (2.18) dm Sie wird wie die Energiedosis in der Einheit Gray angegeben. Für Luft entspricht die Kerma näherungsweise der Energiedosis direkt an der Haut. Die Kerma berechnet sich in Luft bei monoenergetischer Bestrahlung mit Photonen der Energie h𝜈 und der spektralen Energieflussdichte J𝜈 (𝜈) zu KLuft = J𝜈 (𝜈) ⋅
𝜇Luft . 𝜌Luft
(2.19)
Kennt man die im Mittel nötige Energie zur Bildung eines Ladungsträgerpaares in Luft, so kann die Kerma aus der Ionendosis berechnet werden. Die Ionendosis JID ist die
24 | Til Aach, Olaf Dössel Massenschwächungs− und Absorptionskoeffizienten L1
10²
L2 L3 K−Kante
Ph
10¹
ot
Ra
oa
yle
eu
io pt
str
or
bs
igh
un
n
g
cm²/g Blei
10⁰ Schwächungskoeffizient Comptonstreuung
gesamte Absorption Ph
10¯¹
n
io pt or bs oa ot
10¯²
10¯³ (a)
10
100 Quantenenergie in keV
1000
Massenschwächungs− und Absorptionskoeffizienten
10¹
Schw
ächun
t Pho
gskoe
Com
oab
10¯¹
ffizien
pto
t
nstr
euu n ng
bsorptio
A gesamte
g
un
on pti
u re st
h ig
sor
e yl
Ra
cm²/g Wasser
10⁰
10¯²
10¯³ (b)
10
100 Quantenenergie in keV
1000
Abb. 2.12: Abhängigkeit der Anteile von Streuung und Photoabsorption an der Gesamtschwächung von Blei (a) und Wasser (b) von der Photonenenergie [Haxel 1968].
2 Bildgebung durch Projektionsröntgen
|
25
durch ionisierende Strahlung in Luft erzeugte Ladung dQ (eines Vorzeichens) bezogen auf die Masse dmL der dabei durchstrahlten Luft. Wir erhalten also JID =
dQ , dmL
(2.20)
mit der Einheit As/kg. (Früher wurde die Ionendosis in der Einheit Röntgen (R) gemessen, mit der Umrechnung 1 R = 2,58 ⋅ 10−4 As/kg.) Die Ionendosis kann mit einem Stabdosimeter oder einer Ionisationskammer gemessen werden. Bezeichnet man die zur Bildung eines Ionenpaares in Luft erforderliche mittlere Energie mit Wion , so kann die Kerma in Luft aus der Ionendosis berechnet werden, indem die erzeugte Ladung eines Vorzeichens auf die Elementarladung bezogen und mit Wion multipliziert wird, also durch [Oppelt 2005] KLuft =
dQ Wion = f ⋅ JID , ⋅ e dmL
mit f =
Wion . e
(2.21)
Für Luft liegt die Ionisierungsenergie bei Wion = 33, 73 eV, woraus sich für den Faktor f zwischen Luft-Kerma und Ionendosis der Wert f = 33,73 Gy/(As/kg) = 33,73 J/As = 33,73 V ergibt. Ganz ähnlich kann die an einer bestimmten Stelle (immer in Luft gemessene!) Ionendosis in die Energiedosis umgerechnet werden, die in einem bestimmten Material an derselben Stelle deponiert werden würde. In Gl. (2.21) ändert sich hierbei lediglich der Umrechnungsfaktor f, der von dem Material und der spektralen Energieflussdichte der Röntgenstrahlung abhängt. Bei einer Beschleunigungsspannung von UA = 100 kV und Filterung mit einer 4,2 mm dicken Aluminiumscheibe gilt für Wasser fW = 34,5 V und für Muskelgewebe fM = 35,66 V. Zur Beschreibung der von einem Röntgendetektor erzielten Bildqualität ist eine weitere dosimetrische Größe von Interesse. Die Bildqualität hängt wesentlich von der Anzahl der zur Bildgebung beitragenden Quanten ab. Als Quantendosis wird dazu die Anzahl der eintreffenden Quanten pro Fläche herangezogen. Die Quantendosis kann aus der Energiedosis oder Luftkerma wie auch aus der Ionendosis ermittelt werden [Johns 1974]. Die Quantendosis hängt dabei auch von der Energie der Quanten ab und liegt in tabellierter Form vor [Boone 1997]. Eine graphische Darstellung der Umrechnung von Energiedosis und Ionendosis in Quantendosis in Abhängigkeit von der Energie ist in Abb. 2.13 gezeigt.
2.4 Komponenten zur Erzeugung von Röntgenstrahlung 2.4.1 Röntgenröhren Qualitätskriterien für eine diagnostische Röntgenquelle sind eine hohe und genau einstellbare Röntgenleistung, ein kleiner Fokus, eine einstellbare mittlere Quantenenergie (typisch 60 bis 120 keV), eine kostengünstige Herstellung und eine lange Lebensdauer. Mit einer hohen Röntgenleistung kann die Belichtungszeit so kurz wie möglich
26 | Til Aach, Olaf Dössel 1,2 × 10¹²
30 × 10³
0,8 × 10¹²
20 × 10³
0,6 × 10¹² 0,4 × 10¹²
10 × 10³
Quanten/mm² pro μGy
Quanten/mm² pro As/kg
1,0 × 10¹²
0,2 × 10¹²
0
20
40
60
80
100 120
140 160
Energie in keV Abb. 2.13: Umrechnung von Energiedosis bzw. Ionendosis in Quantendosis.
gewählt werden, wodurch ein Verwackeln der Aufnahme verhindert wird. Der kleine Fokus ist für eine gute räumliche Auflösung nötig, da sonst an scharfen Kanten Halbschatten auftreten. Die Quantenenergie muss der medizinischen Fragestellung angepasst werden können, um so einen möglichst großen Kontrast zu erreichen. Radioaktive Isotope und Synchrotronstrahlung sind neben der Röntgenröhre mögliche Quellen, sie erfüllen aber eine oder mehrere der oben genannten Bedingungen nicht. Das größte technische Problem beim Bau einer Röntgenröhre ist wegen des kleinen Wirkungsgrades (s. Kap. 2.2.1) die extrem große Verlustleistung. So muss die unvermeidlich entstehende Wärme so gut wie möglich abgeführt werden. Zwei Tricks helfen dabei: die Schrägstellung und die sehr schnelle Rotation der Anode. Mit einer schräg gestellten Anode gelingt es, die Wärme auf einer größeren Fläche in die Anode zu führen und gleichzeitig einen kleinen Fokus zu behalten (Abb. 2.14). Mit der Drehanode kann die Wärme auf einen Ring verteilt werden. Dies führt allerdings dazu, dass im Vergleich zu einer feststehenden Anode nun die Wärme über Wärmestrahlung und über das Drehlager abgeführt werden muss. Kathode
Bahn des Brennflecks auf der Drehanode
Abb. 2.14: Schräg gestellte Anode zur Verkleinerung des Brennflecks.
2 Bildgebung durch Projektionsröntgen |
27
Drehanode
Anodenanschluss
Kathodenanschluss
Kugellager
Rotor
Graphit
Vakuumkolben
Kathode
Anodenmaterial
Abb. 2.15: Röntgenröhre mit Drehanode.
Abb. 2.15 zeigt schematisch eine Röntgenröhre mit Drehanode. Gegenüber dem rotierenden Anodenteller ist die Kathode mit der Glühwendel angeordnet. An den Enden sind die Hochspannungsanschlüsse. Um das Lager herum ist der Motor angeordnet, der die Drehung antreibt. Anode, Kathode, Vakuumkammer, Lager und Motor sollen im Folgenden kurz besprochen werden. Ausführlichere Beschreibungen finden sich in [Oppelt 2005]. Drehanode: Konstruktionsprinzip einer Röntgenröhre, bei dem die Anode als ein sich sehr schnell drehender Anodenteller realisiert ist. Dies dient dazu, die Wärme besser zu verteilen.
Als Anodenmaterial wird fast ausschließlich Wolfram eingesetzt. Es bietet den besten Kompromiss aus hoher Schmelztemperatur, hoher Ordnungszahl (siehe Wirkungsgrad) und guter Wärmeleitfähigkeit. Für eine bessere Langzeitstabilität werden dem Wolfram 5 bis 15 % Rhenium hinzugefügt. Nur für die Mammographie werden Anoden aus Molybdän verwendet, da die K𝛼 -Linie von Molybdän für diese Fragestellung den bestmöglichen Kontrast liefert. Für die digitale Mammographie wird heute zunehmend auch Wolfram verwendet. Das eigentliche Anodenmaterial ist nur 1 bis 2 mm dick und eingebettet in einen Teller aus einem anderen Metall, z. B. Molybdän (Abb. 2.16). Unter dem Anodenteller wird oft Graphit angeordnet. Es hat eine hohe Wärmekapazität bei niedrigem Gewicht (und damit niedrigem Beitrag zum Trägheitsmoment). So kann die Drehanode während des Einschaltens des Anodenstromes mehr Wärmeenergie aufnehmen (bis zu 106 Ws), bevor die maximal zulässige Temperatur erreicht wird. So eine Anode kann z. B. 10 s lang mit 100 kW betrieben werden. Danach muss
28 | Til Aach, Olaf Dössel Wolfram-Rhenium
Molybdän
Graphit
Abb. 2.16: Schematische Darstellung eines Anodentellers.
eine Pause erfolgen, in der diese Wärmeenergie wieder abgegeben wird. Der Anodenteller erwärmt sich während des Betriebes auf Temperaturen bis zu 2000°C. Die Kathode soll eine möglichst punktförmige Elektronenquelle (< 1 mm) mit möglichst großem Strom sein (bis zu 1 A). In den meisten Röntgenröhren werden Glühwendeln aus Wolframdraht verwendet, es werden aber auch flächenhafte Elektronenquellen und Quellen aus vielen senkrecht stehenden Nanoröhrchen vorgeschlagen (Feldemission). Die Wolframwendel wird auf Temperaturen um die 2600°C erhitzt, so dass viele Elektronen die Austrittsarbeit überwinden können und in die Vakuumkammer gelangen (thermische Emission). Dort werden sie mit einem sogenannten Wehnelt-Zylinder abgesaugt. Durch eine optimierte Form dieses Metallringes gelingt es, den Brennfleck zu fokussieren und ihm ein Gauss-förmiges Profil zu geben (Halbwertsbreite 0,6 bis 0,8 mm), da dieses Profil die Modulationsübertragungsfunktion MFT des Systems natürlich beeinflusst (s. Kap. 21, Systemtheorie). Im „Standby“-Betrieb wird die Temperatur der Glühwendel etwas heruntergefahren, um die Lebensdauer der Röhre zu verlängern. Wenn die Röntgenröhre Strahlung emittieren soll, wird der Heizstrom der Glühwendel hochgefahren. Der eigentliche Anodenstrom wird durch eine unabhängige Regelung am Wehnelt-Zylinder eingestellt. Die Vakuumkammer wurde früher aus Glas gefertigt, mit Pumpen auf ein Vakuum von ungefähr 10−6 mbar abgepumpt und der Pumpstutzen dann „abgeschmolzen“. Später ging man dazu über, dass nur der mittlere Bereich zur Isolation der Hochspannung aus Glas und die Enden aus Metall gefertigt wurden. Heute werden oft auch keramische Materialien für die Isolation verwendet. Das Drehlager befindet sich bei den üblichen Röntgenröhren im Vakuum. Das grenzt die Wahl der Schmierstoffe ein: Es können nur flüssige Metalle verwendet werden. Blei wird nach dem Hochlaufen der Röhre flüssig, es gibt auch Metalllegierungen (eutektische Gemische), die schon bei Zimmertemperatur flüssig sind (z. B. eine Indium-Gallium-Zinn-Legierung). Üblich sind Kugellager, es gibt aber auch Gleitrillenlager, bei denen sich vergleichbar mit dem Aquaplaning ein „Wulst“ aus dem flüssigen Metall ausbildet, auf dem das drehende Teil quasi schwimmt. Der Motor ist meistens ein Asynchron-Motor, der den Anodenteller auf Drehzahlen von 100 bis 150 /s bringt (das sind 6000 bis 9000 Umdrehungen pro Minute). Es gibt Röntgenröhren mit zwei Elektronenquellen (z. B. zwei Wolfram-Wendeln) – damit ist es möglich, von einem Modus mit kleinem Fokus und kleinem Strom auf einen Modus mit größerem Fokus und größerem Strom umzuschalten. In eini-
2 Bildgebung durch Projektionsröntgen
| 29
Öl zur Kühlung Rotation
Kathode
Motor
AblenkungsAnode spulen Elektronenstrahl Röntgenstrahlen Abb. 2.17: Röntgenröhre mit rotierendem Vakuumgefäß (Drehkolben-Röhre) (Quelle: Siemens Healthcare).
gen Röntgenröhren befindet sich eine Ablenkeinheit für den Elektronenstrahl, so dass elektronisch von einem Fokus auf einen anderen um wenige Millimeter verschobenen Fokus umgeschaltet werden kann. Dies ist für die Computertomographie wichtig (s. Kap. 3.5.5, CT und „flying focus“). Schließlich gibt es Röntgenröhren, bei denen der Anodenstrom mithilfe eines Gitters in wenigen Millisekunden an- und ausgeschaltet werden kann. Im Jahr 2001 wurde von Siemens ein neuartiger Röhrentyp vorgestellt: eine Röntgenröhre mit rotierender Vakuumkammer (Drehkolben-Röhre). Das Interessante daran ist, dass das Lager nun nicht mehr im Vakuum angeordnet ist und der Anodenteller direkten Kontakt mit dem Kühlmedium hat (z. B. Öl). Bei dieser Röhre liegt die Kathode in der Mitte der Drehachse. Im Koordinatensystem des rotierenden Vakuumgefäßes wird der Elektronenstrahl mithilfe von Magnetfeldern auf einem aus dem Anodenmaterial realisierten Kreisring mit hoher „Umdrehungsgeschwindigkeit“ herumgeführt. Nun dreht sich gleichzeitig das Vakuumgefäß genau mit der gleichen Umdrehungsgeschwindigkeit in umgekehrter Richtung, so dass der Fokus im Laborkoordinatensystem stehen bleibt (Abb. 2.17). Alle Röntgenröhren befinden sich in einem Schutzgehäuse, welches die Kühlung, die Abschirmung, das Austrittsfenster für die Röntgenstrahlen und die Hochspannungszuführung enthält. Röhre und Gehäuse werden auch „Strahler“ genannt. Durch das Gehäuse wird bei Betrieb kontinuierlich eine Kühlflüssigkeit, meist Öl, hindurch gepumpt. Es ist mit Absorbermaterial (meist Blei) ausgekleidet, so dass nur an einer Stelle Röntgenstrahlung austreten kann. Als Fenster ist für diagnos-
30 | Til Aach, Olaf Dössel tische Röntgenstrahlung eine Scheibe aus dickem Aluminium vorgeschrieben, um die weiche Röntgenstrahlung, die den Patienten schädigen könnte, die aber nicht zur Bildgebung beiträgt, zu absorbieren (bis 60 kV: 2 mm Al; bis 80 kV: 3 mm Al; bis 120 kV: 4 mm Al). Röntgen-Strahler: System zur Erzeugung von Röntgenstrahlen inklusive Gehäuse, Kühlung und Abschirmung.
2.4.2 Röntgengeneratoren und Belichtungssteuerung Der sogenannte Generator erzeugt die Hochspannung für die Röntgenröhre und steuert die bildgebende Dosis. Es geht also darum, eine Hochspannung im Bereich 60 bis 120 kV und einen Strom von einigen mA bis 1 A für eine genau definierte Zeit sehr genau einzustellen. Es gibt Röntgengeneratoren, die kurzzeitig eine elektrische Leistung von 100 kW bereitstellen. Früher wurde hierfür direkt der Netz-Drehstrom (in Europa: 50 Hz) verwendet, der in Dreiecksschaltung an eine Primärwicklung eines Hochspannungstrafos angeschlossen wurde. Der Trafo enthielt zwei Sekundärkreise, einen in Dreiecksschaltung und einen in Sternschaltung. Die abgehenden sechs Leitungen wurden mit einer Vollweggleichrichtung über zwölf Dioden auf die Röntgenröhre gegeben. So ergaben sich zwölf Spannungspulse in einer Periode des 50-Hz-Signals. Ein Glättungskondensator sorgte für eine ausreichend konstante Hochspannung. Leider sind 50-Hz-Hochspannungstransformatoren groß und schwer. Heute verwendet man überwiegend Hochfrequenz-Hochspannungsgeneratoren (Abb. 2.18). Die Netzspannung wird zunächst gleichgerichtet und dann mit Hochleistungs-Halbleiter-Bauelementen zerhackt. In der Anfangsphase dieser Technologie wurden Frequenzen von 10 kHz realisiert, heute sind Frequenzen bis 100 kHz üblich. Das ermöglicht eine noch kompaktere Bauweise und führt nicht mehr zu hörbaren Schwingungen. Dieses hochfrequente Signal wird nun mit einem Transformator auf die gewünschte Hochspannung transformiert und wieder gleichgerichtet. Wegen der hohen Frequenz genügt ein sehr kleiner Glättungskondensator. Hochfrequenz-Hochspannungsgenerator: Einrichtung zur Erzeugung der für eine Röntgenröhre notwendigen Hochspannung. Hierbei wird die Netzspannung zunächst gleichgerichtet, dann in eine hochfrequente Spannung umgewandelt, auf die Hochspannung transformiert und wieder gleichgerichtet.
In der Steuerungselektronik des Generators sind typische Belastungskurven der Röhren gespeichert. Je nach Anodenspannung und Anodenstrom darf die Röhre nur eine gewisse Zeit eingeschaltet werden, bevor sie Schaden nimmt. Der Generator sollte
2 Bildgebung durch Projektionsröntgen
| 31
Röntgenröhre AC
DC Netz
DC
AC
DrehanodenMotorsteuerung AC DC Spannungsregelung
U
IH I
Heizkreis
Abb. 2.18: Prinzip des Hochfrequenz-Hochspannungsgenerators (nach [Morneburg 1995]).
bei Erreichen dieser Grenze abschalten – so wird möglicherweise eine unterbelichtete Aufnahme in Kauf genommen, die Röhre aber geschützt. Das Einstellen der richtigen bildgebenden Dosis ist für die Qualität der Aufnahmen von entscheidender Bedeutung. Sie wird in Kap. 2.5.1 für das Film-Folien-System eingeführt und wird in Kap. 2.6 (Bildqualität) weiter erläutert. Hier sollen die Techniken beschrieben werden, mit denen die gewünschte bildgebende Dosis eingestellt werden kann. Nach Gl. (2.7) beträgt die von der Röhre abgegebene Leistung der ungefilterten Bremsstrahlung Pt = k ⋅ IA ⋅ Z ⋅ UA2 (2.22) Die abgegebene Dosis ist damit D = k ⋅ IA ⋅ Z ⋅ UA2 ⋅ TE
(2.23)
wobei TE die Belichtungszeit ist. Das Spektrum der Röntgenstrahlung hinter dem Patienten ist anders als vor dem Patienten: Vom niederenergetischen Ende wurde mehr absorbiert als vom hochenergetischen Ende. Die Röntgenstrahlen sind auf dem Weg durch den Patienten „härter“ geworden (Strahlaufhärtung). Strahlaufhärtung: Veränderung der Röntgenstrahlung beim Durchtritt durch Materie. Röntgenröhren emittieren u. a. Bremsstrahlung, die ein breites Spektrum hat. Trifft die Röntgenstrahlung auf den Patienten, so wird der niederenergetische Teil stärker abgeschwächt als der höherenergetische Teil, da die niederenergetischen Quanten im Körper stärker absorbiert werden, so dass sich der Schwerpunkt des Strahlenspektrums hin zu höheren Energien verschiebt.
32 | Til Aach, Olaf Dössel Dies lässt sich näherungsweise berücksichtigen, indem man einen etwas größeren Exponenten für die Anodenspannung verwendet: D = k ⋅ IA ⋅ Z ⋅ UAn ⋅ TE
(2.24)
mit ungefähr n = 3. So nimmt die bildgebende Dosis stärker als nach Gl. (2.23) vorhergesagt mit der Anodenspannung zu. Will man also für einen ausgewählten Detektortyp (s. Kap. 2.5) eine bestimmte bildgebende Dosis vorgeben, um eine optimal belichtete Aufnahme zu erhalten, so muss man das richtige Produkt aus Anodenstrom, Belichtungszeit und (Anodenspannung)n wählen. Offensichtlich hängt die bildgebende Dosis auch stark von der Größe des untersuchten Körperteils (z. B. Arm oder Thorax) und von der Größe bzw. Dicke des Patienten ab. Bei der sogenannten „Dreiknopf-Steuerung“ gibt der Bediener der Anlage alle drei Größen selbst vor – dies ist riskant und führt nur bei großer Erfahrung zu brauchbaren Bildern. Die „Zweikopf-Steuerung“ bedeutet, dass die Anodenspannung und das „Milliampere-Sekunden-Produkt“ (mAs-Produkt) vorgegeben werden. Die Anlage wählt dann selbst den größtmöglichen Anodenstrom, so dass die Belichtungszeit minimiert wird. Bei der „Einknopf-Steuerung“ wird schließlich nur noch die Anodenspannung vorgegeben. Das System enthält eine Belichtungsautomatik, die selbst das richtige mAs-Produkt wählt (Automatic Exposure Control, AEC). Bilddetektoren mit Halbleiter-Flachdetektoren (s. Kap. 2.5.4) können in Realzeit das Signal in der Bildebene bestimmen und die Belichtung so lange einschalten, bis die gewünschte bildgebende Dosis erreicht ist. Film-Folien-Systeme (s. Kap. 2.5.1) und Speicherfoliensysteme (s. Kap. 2.5.2) benötigen einen oder mehrere Sensoren hinter dem Bilddetektor, welche die bildgebende Dosis messen und so die richtige Belichtungszeit wählen. Das ist nicht unproblematisch. Zum einen muss eine Region of Interest (ROI) definiert werden, in der die Detektoren liegen. Diese ROI muss dem vom Benutzer eingestellten Strahlungsfeld folgen, damit kein Sensor in einem Bereich liegt, der gar nicht von Röntgenstrahlen getroffen wird. Dann dürfen nicht einer oder mehrere Detektoren in stark abgeschatteten Gebieten liegen, z. B. hinter Knochen. Schließlich ist das Spektrum der Röntgenstrahlung hinter dem Bilddetektor härter als das Spektrum vor dem Detektor. Trotz dieser Schwierigkeiten können Systeme mit Belichtungsautomatik in der Regel die Zahl der falsch belichteten Bilder deutlich reduzieren.
2.5 Detektion von Röntgenstrahlung 2.5.1 Film-Folien-Systeme Röntgenfilme bestehen aus einer Trägerschicht, auf die beidseitig lichtempfindliche, ca. 3. . . 5 nm dicke Emulsionsschichten aufgebracht sind. Als Photondetektoren dienen Silberbromidkristallkörner in den Emulsionsschichten, die durch Ionenbindun-
2 Bildgebung durch Projektionsröntgen
| 33
Abb. 2.19: Lichtkasten mit verstellbaren Blenden ohne Röntgenfilm (Foto: T. Oesterlein, IBT am KIT).
gen zwischen positiv geladenen Silberionen und negativ geladenen Bromidionen gebildet werden. Die einfallenden Quanten lösen eine Redox-Reaktion aus, bei der Silber entsteht, wodurch der Film geschwärzt wird. Zunächst oxidiert ein Röntgenphoton der Energie h𝜈, welches auf ein Silberbromidkorn fällt, Bromidionen zu Brom gemäß Br− + h𝜈 = Br + e−
(2.25)
wobei freie Elektronen entstehen. Die Elektronen reduzieren Silberionen zu Silber durch (2.26) Ag+ + e− = Ag . In den Emulsionsschichten entstehen damit Silberkeime. Die Entwicklung des Films reduziert an den Keimen Millionen weiterer Silberionen zu Silberatomen, die den Film entsprechend der Belichtung schwärzen. Es entsteht ein „negatives“ Bild, auf dem stärker schwächende Strukturen, wie Knochen, hell dargestellt werden. Die Empfindlichkeit des Filmes wird durch die Größe der Silberbromidkristalle bestimmt. Höhere Empfindlichkeit erfordert dabei größere Kristallkörner, wodurch die Auflösung sinkt. Zur Befundung werden die entwickelten und fixierten Röntgenfilme vor einen Lichtkasten gehängt, der die Filme von hinten möglichst homogen durchleuchtet (Abb. 2.19). Quantitativ wird die Schwärzung des Films durch die optische Dichte So beschrieben. Die optische Dichte gibt die logarithmierte Schwächung an, die Licht beim Durchgang durch den Film erfährt. Bezeichnet man die vom Lichtkasten einfallende Lichtintensität mit IL0 und die transmittierte Intensität mit IL , so ist die optische Dichte So = log10
IL0 IL
(2.27)
34 | Til Aach, Olaf Dössel Durch die Logarithmierung ist die optische Dichte der Helligkeitsempfindung des menschlichen Auges angepasst, die logarithmisch von der Lichtintensität abhängt. Der Film wird nun wesentlich durch seine Schwärzungskurve charakterisiert, welche die Abhängigkeit der optischen Dichte von der (ebenfalls logarithmierten) Detektordosis angibt. Die Detektordosis ist das Produkt aus der auf den Film fallenden Röntgenintensität Idet und der Belichtungszeit TE : Ddet = Idet ⋅ TE
(2.28)
Mit der auf den Patienten einfallenden Intensität I0 ergibt sich dann aus dem Lambert–Beerschen Gesetz das Schwächungsintegral d
I ln det = − ∫ 𝜇(x)dx I0
(2.29)
0
Bezieht man die Detektordosis auf eine Referenzdosis Dref , so erhält man als Belichtungsmaß d
D I ⋅T B = ln det = ln det E = − ∫ 𝜇(x)dx + const. , Dref Iref ⋅ TE
(2.30)
0
welches bis auf eine additive Konstante dem Schwächungsintegral entspricht. Abb. 2.20 zeigt beispielhaft eine Schwärzungskurve. Die Steigung des (näherungsweise) linearen Teils der Kurve wird als Gammawert des Films bezeichnet. Eine steile Kurve ergibt hohe Kontraste, erlaubt aber nur einen kleinen Belichtungsbereich, während ein kleiner Gammawert geringeren Kontrast über einem größeren Belichtungsbereich ergibt. Röntgenfilme nutzen allerdings nur etwa ein bis zwei Prozent der einfallenden Röntgenstrahlung zur Bildgebung, der Großteil der Strahlung durchdringt den Film, ohne zur Bildgebung beizutragen. Die Emulsionsschicht kann nicht dicker gemacht werden, da sonst die Entwickler- und Fixierlösung nicht mehr in die Schicht eindringen kann. Die Filme werden deshalb mit Verstärkerfolien kombiniert, in denen sich der Film hinter einer Folie oder zwischen zwei Folien befindet, die aus Lumineszenzstoffen bestehen. Aufgabe der Verstärkerfolien ist die Umsetzung eines möglichst großen Teils der einfallenden Röntgenstrahlung in sichtbares Licht, dessen Spektrum der spektralen Empfindlichkeit des Filmes möglichst gut angepasst ist. Die Röntgenstrahlung hebt dabei Elektronen aus dem Valenzband des Lumineszenzstoffes in das Leitungsband. Beim schrittweisen Zurückfallen in das Valenzband wird Licht ausgesandt, welches den Film belichtet. Beispiele für Leuchtstoffe sind terbiumdotiertes Gadoliniumoxidsulfid (Gd2 O2 S : Tb, grüne Lichtemission) oder terbiumdotiertes Lantanoxybromid (LaOBr : Tb, blaue bis ultraviolette Lichtemission). Die Röntgenabsorption der Leuchtstoffe hängt von der Energie der Quanten und der Dicke der Verstärkerfolien ab. Die Leuchtstoffe enthalten viele Elemente mit hoher Ordnungszahl, um eine hohe Röntgenabsorption zu erreichen. Für 100 μm dicke Folien liegt sie
2 Bildgebung durch Projektionsröntgen
| 35
3,5 3 2,5
S₀
2 1,5 1 0,5 0 0
0,5
1
1,5 B
2
2,5
3
Abb. 2.20: Schwärzungskurve eines Röntgenfilms (nach [Morneburg 1995]).
für diagnostische Röntgenstrahlung zwischen 30 und 75 %. Um Auflösungsverluste und Verzeichnungen möglichst klein zu halten, müssen die Folien dicht auf dem Film aufliegen. Film-Folien-Systeme werden dazu oft in Kassetten untergebracht, welche die (mehrfach verwendbaren) Folien auf den Film pressen und gleichzeitig den Film vor Lichteinfall von außen schützen. Gegenüber der direkten Nutzung von Film erlauben Verstärkerfolien dann eine Dosisreduktion um einen Faktor 10 bis 20. Film-Folien-System: System zur Aufnahme von Röntgenbildern. Hierbei wird die Röntgenstrahlung mittels Lumineszenz-Folie in sichtbares Licht umgewandelt, das dann mit einem Film aufgenommen wird.
Die Empfindlichkeit von Film-Folien-Systemen hängt von der Röntgenstrahlqualität ab und wird oft für eine Anodenspannung von 70 kV angegeben. Nach DIN 6867 ist die Empfindlichkeitszahl S umgekehrt proportional zur Luftkerma, die eine optische Dichte von S0 = 1 über dem Schleier des Films erzeugt. Tab. 2.1 zeigt verschiedene Empfindlichkeitszahlen und die entsprechende Luftkerma.
Empfindlichkeit S in DIN
Luftkerma in μGy
50 100 200 400 800
20 10 5 2,5 1,25
Tab. 2.1: Empfindlichkeitsklassen von Film-FolienSystem und zugehörige Luftkerma.
36 | Til Aach, Olaf Dössel 2.5.2 Speicherfoliensysteme Ähnlich wie bei Verstärkerfolien erfolgt auch bei Speicherfoliensystemen die Bildgebung durch mehrfach verwendbare röntgenempfindliche Folien, die in Kassetten untergebracht sind. Im Unterschied zu Verstärkerfolien können die in Speicherfoliensystemen eingesetzten Speicherphosphore die aufgezeichneten Bilder allerdings bis zu mehreren Tagen oder Wochen speichern. Das Auslesen der Bildinformation erfolgt durch Anregung mit einem Laser. Abb. 2.21 verdeutlicht die Bildgebung durch ein Speicherfoliensystem [Oppelt 2005]: Zunächst hebt die einfallende Röntgenstrahlung Elektronen aus dem Valenzband des Speicherphosphors in das Leitungsband. Zum Teil fallen diese freien Elektronen unter spontaner Lichtaussendung wieder in das Valenzband zurück. Ein Teil der Elektronen wird jedoch von Haftstellen eingefangen, die durch Dotierung in das Folienmaterial eingebracht werden und deren Energieniveau etwas unterhalb des Leitungsbandes liegt. Speicherfolie: System zur Aufnahme von Röntgenbildern, bei dem zunächst die Speicherfolie belichtet und danach in einer separaten Einrichtung das Bild erzeugt wird.
In einem Auslesegerät wird die belichtete Speicherfolie mit einem Laser im roten Wellenlängenbereich abgetastet, wodurch die von den Haftstellen eingefangenen Elektronen in das Leitungsband gehoben werden und von dort unter Aussendung von kurzwelligerem, blauen Licht in das Valenzband zurückfallen. Das Licht wird von einem Photomultiplier aufgezeichnet, anschließend wird das Signal digitalisiert. Ein Farbfilter mit einer Durchlasskurve im blauen Bereich verhindert dabei, dass Licht von dem Ausleselaser auf den Photomultiplier fällt. Die Speicherfolie wird zuletzt durch
Ablenkspiegel
Leitungsband Laser
Photomultiplier
Valenzband Farbfilter
Leuchtzentren
Speicherfolie
(a)
(b)
Abb. 2.21: Belichtung (a), metastabile Speicherung und Auslesen (b) bei einer Speicherfolie.
2 Bildgebung durch Projektionsröntgen
| 37
intensives Ausleuchten in den Grundzustand zurückversetzt und kann für die nächste Aufnahme verwendet werden. Mittels Speicherfoliensystemen aufgezeichnete Bilder liegen nach dem Ausleseprozess somit als digitale Radiographien vor. Zudem weisen sie einen deutlich höheren Empfindlichkeitsbereich als Film-Folien-Systeme auf und sind damit unempfindlicher gegenüber Fehlbelichtungen. Aufgrund ihrer Bauform können Speicherfolienkassetten meist in denselben Röntgensystemen verwendet werden, in denen klassisch analoge Film-Folien-Kassetten benutzt wurden.
2.5.3 Röntgenbildverstärker Film-Folien-Systeme und Speicherfolien zeichnen einzelne Radiographien auf, die erst nach dem Entwicklungsprozess bzw. dem Ausleseprozess betrachtet werden können. Zur Beobachtung dynamischer Vorgänge in Echtzeit, z. B. bei der Platzierung eines Katheters, ist jedoch die direkte Umsetzung der auf den Detektor fallenden Röntgenstrahlung in ein sichtbares Bewegtbild erforderlich. Diese Bildgebungsmodalität wird als Durchleuchtung oder Röntgenfluoroskopie bezeichnet und durch elektronenoptische Bildverstärker (Abb. 2.22) ermöglicht. Röntgenbildverstärker: System zur Aufnahme von Röntgenbildern, bestehend aus einer Lumineszenzschicht, einer Photokathode, einer Elektronenoptik und einem Fluoreszenzschirm.
Der Röntgenbildverstärker besteht aus einer evakuierten Röhre von 17 bis 40 cm Durchmesser. Die Röntgenquanten fallen auf den fluoreszierenden Eingangsleuchtschirm des Bildverstärkers und erzeugen dort Lichtquanten („Szintillator“). Die Lichtquanten treffen auf die mit dem Eingangsschirm verbundene Photokathode, wo
einfallende Röntgenstrahlen
Elektroden der Elektronenoptik Elektronenbahnen
Ausgangsleuchtschirm
Anodenspannung +25 bis +35 kV Eingangsleuchtschirm
Photokathode (0 V)
Vakuumgefäß
Abb. 2.22: Schematischer Längsschnitt durch einen Röntgenbildverstärker.
38 | Til Aach, Olaf Dössel sie Photoelektronen auslösen. Die an jedem Punkt der Photokathode ausgelösten Photoelektronen werden dabei in verschiedene Richtungen emittiert. Eine Elektronenoptik, bestehend aus Photokathode, ringförmigen Hilfselektroden und einer Anode, beschleunigt die Photoelektronen in Richtung des Ausgangsleuchtschirms, wobei die Elektronen eine Potentialdifferenz von 30 bis 35 kV durchlaufen. Gleichzeitig bündelt die Elektronenoptik die von jedem Punkt der Photokathode emittierten Elektronen derart, dass sie auf je einen Punkt des Ausgangsschirms treffen und dort Lichtquanten erzeugen. Auf dem Ausgangsschirm mit einem Durchmesser von ca. 25 bis 50 mm entsteht so ein sichtbares Bewegtbild, was durch eine Kamera aufgezeichnet und unmittelbar auf einem Bildschirm wiedergegeben wird. Die hohe Effizienz eines Bildverstärkers wird dabei wesentlich durch die Umsetzung von Lichtquanten in Photoelektronen und deren Beschleunigung durch die Elektronenoptik erreicht [Oppelt 2005]: Bei diagnostischer Röntgenstrahlung erzeugt ein im Eingangsschirm absorbiertes Röntgenquant rund 3000 Lichtquanten, von denen jedoch nur ein Teil die Photokathode erreicht. Insgesamt entstehen dort rund 300 Photoelektronen je absorbiertem Röntgenquant. Bei Beschleunigung mit 30 kV erzeugt jedes Photoelektron bei Auftreffen auf dem Ausgangsschirm etwa 1000 Lichtquanten, wodurch sich rund 300 000 Lichtquanten pro absorbiertem Röntgenquant ergeben. Der Eingangsschirm eines Bildverstärkers soll eine möglichst hohe Röntgenabsorption aufweisen und spektral möglichst gut an die nachgeschaltete Photokathode angepasst sein. In den allermeisten Fällen besteht er aus natriumdotiertem Cäsiumjodid (Cs I : Na), dessen K-Absorptionskanten bei 36 keV für Cäsium und bei 33 keV für Jod liegen. Abb. 2.23 zeigt den Massenabsorptionskoeffizienten von Cäsiumjodid über der Energie sowie eine typische spektrale Verteilung diagnostischer Röntgenstrahlung. Das Spektrum des erzeugten Lichts hat ein Maximum bei etwa 400 nm und ist gut an die spektrale Empfindlichkeit von Photokathoden aus Cäsiumantimon angepasst. Der Eingangsschirm wird durch Aufdampfen von Cäsiumjodid auf einem Substrat hergestellt, wobei eine säulenartige Struktur entsteht. Diese Säulen verhalten sich wie Lichtleiter für die erzeugten Lichtquanten, die eine laterale Ausbreitung des Lichts auf dem Weg zur Photokathode verhindern (Abb. 2.24). Hierdurch können relativ dicke Eingangsschirme (etwa 400 μm) mit einer hohen Röntgenabsorption hergestellt werden, ohne dass dies mit wesentlichen Auflösungsverlusten einhergeht. Neben der Verstärkung ermöglicht die Elektronenoptik durch Umschalten der Potentiale der Hilfselektroden auch eine Bildvergrößerung, indem nur ein Ausschnitt des Eingangsschirms auf den Ausgangsschirm projiziert wird. Die Aufnahme des Schirmbildes durch eine Kamera erfordert einen planaren Ausgangschirm. Die scharfe Abbildung des Eingangsbildes auf dem Ausgangsschirm wird dann allerdings durch einen gekrümmten, näherungsweise kugelkalottenförmigen Eingangsschirm begünstigt, der zu geometrischen Verzerrungen des Bildes führt. Am Rand des Bildverstärkers liegende Punkte können nicht so effektiv auf den Ausgangsschirm abgebildet werden, so dass es dort zu einer leichten Abdunklung kommt („Vignetting“). Darüber hinaus sind Röntgenbildverstärker aufgrund ihrer Größe recht unhandlich und
2 Bildgebung durch Projektionsröntgen
39
Massenschwächungskoeffizient von CSI:Na Cs−Kante
30 Massenschwächungskoeffizient in cm²/g
|
CsI
25 I−Kante 20
Relative spektrale Verteilung der Strahlung
15
10
5
0 20
25
30
35
40
45
50
55
60
65
70
Energie in keV
Abb. 2.23: Massenschwächungskoeffizient von Cäsiumjodid und relative spektrale Verteilung von Röntgenstrahlung (Anodenspannung 70 kV, Dämpfung durch 15 cm Wasser) (nach [Morneburg 1995]).
Röntgenstrahlung Röntgenquant
CsI-Schichtdicke (ca. 0,4 mm)
CsI
Photokathode Abb. 2.24: Säulenstruktur des aufgedampften Cäsiumjodids und deren Wirkung als Lichtleiter.
40 | Til Aach, Olaf Dössel (a)
(b)
Abb. 2.25: Schematische Darstellung der direkten (a) und indirekten (b) Konversion.
empfindlich gegenüber äußeren elektrischen und magnetischen Feldern. Röntgenbildverstärker-Kamera-Systeme werden deshalb zunehmend durch Flachdetektoren auf Halbleiterbasis abgelöst.
2.5.4 Halbleiter-Flachdetektoren Flachdetektoren auf Basis von amorphem Silizium werden seit Beginn dieses Jahrhunderts in immer stärkerem Maße sowohl für diagnostische als auch interventionelle Röntgenbildgebung eingesetzt. Die verwendete Technologie deckt dabei Anforderungen der dynamischen Bildgebung wie Fluoroskopie oder Angiographie bis hin zur statischen Röntgenbildgebung ab. Halbleiter-Flachdetektoren: System zur Aufnahme von Röntgenbildern, basierend auf einer Umwandlung von Röntgenquanten in elektrische Ladung, die dann mithilfe einer Elektronik bestimmt („ausgelesen“) wird.
Flachdetektoren werden heute bis zu einer Größe von ca. 50 × 50 cm hergestellt und weisen je nach Anwendung bis zu ca. 10 Megapixel auf (für die Mammographie sogar deutlich mehr). Kern des Detektionsprozesses ist die Umwandlung von Röntgenstrahlung in elektrische Ladung. Unterschieden wird hierbei zwischen direkter Konversion und indirekter Konversion. Bei direkter Konversion wird die einfallende Röntgenstrahlung durch Photoabsorption (meist in amorphem Selen) unmittelbar in elektrische Ladung umgewandelt. Bei indirekter Konversion hingegen wird die Röntgenstrahlung durch Szintillation zunächst in sichtbares Licht umgesetzt, welches von Photodioden detektiert und in Ladung konvertiert wird [Aach 1999, Overdick 2006, Oppelt 2005]. Abb. 2.25 zeigt die beiden Prinzipien schematisch. In beiden Fällen folgt auf die Konversion eine Pixel-Elektronik, die Photodioden, Dünnfilmtransistoren als Schaltelemente und Pixel-Kapazitäten enthält, sowie die allen Pixeln gemeinsame Ausleseelektronik [Overdick 2006]. Da die mit indirekter Konversion arbeitenden Detektoren mit Abstand am weitesten verbreitet sind, werden nur diese hier behandelt.
2 Bildgebung durch Projektionsröntgen
| 41
CsI-Szintillator
a-Si Sensormatrix
Verstärker/Multiplexer A/D-Wandler Glassubstrat
Adressierung
Abb. 2.26: Schematische Ansicht eines Flachdetektors mit indirekter Konversion.
Vorspannungsleitungen Zeilentreiber Gateleitungen Ausleseleitungen analoger Multiplexer
AnalogDigitalUmsetzer
Abb. 2.27: Vereinfachtes Schaltbild der aktiven Pixelmatrix.
Abb. 2.26 zeigt schematisch die Ansicht eines Flachdetektors mit indirekter Konversion. Die zu detektierende Röntgenstrahlung trifft zuerst auf die Szintillatorschicht und wird dort in sichtbares Licht umgewandelt. Wie bei Röntgenbildverstärkern wird hier überwiegend Cäsiumjodid eingesetzt, welches in einer säulenartigen Struktur mit einer Schichtdicke zwischen 0,3 und 2,5 mm auf den Detektor aufgebracht wird. Durch Dotierung mit Thallium wird das Maximum der emittierten Lichtintensität in den grünen Wellenlängenbereich (ca. 550. . . 600 nm) gelegt, wo die Empfindlichkeit der Photodioden hoch ist [Aach 1999]. Das erzeugte Licht trifft auf die Photodioden der in einer Matrixstruktur angeordneten Pixel. Das Prinzipschaltbild der aktiven Matrix zeigt Abb. 2.27. Die in Sperrrichtung betriebenen Photodioden werden über die Vorspannungsleitung auf die Vorspannung aufgeladen. Das von der Szintillatorschicht einfallende Licht erzeugt innerhalb der Photodioden freie Elektron-Lochpaare, durch welche die Photodioden entsprechend dem Lichteinfall entladen werden. Der Ausleseprozess erfolgt zeilenweise, indem die Dünnfilmtransistoren einer Zeile durch die Zeilentreiber über die Gateleitungen durchgeschaltet werden. Die Photodioden werden dann über die in Spaltenrichtung angeordneten Ausleseleitungen nachgeladen, wobei die in jede Photodiode fließende Ladung durch einen ladungssensitiven Verstärker erfasst wird.
42 | Til Aach, Olaf Dössel
Abb. 2.28: Mit einem Flachdetektor ausgestattetes C-Bogensystem.
Das so in jedem Pixel erzeugte Signal wird anschließend digitalisiert. Die Pixelgrößen liegen zwischen 100 und 200 μm, wobei die Photodioden ca. 70 % der Pixelfläche ausfüllen. Abb. 2.28 zeigt ein Beispiel für ein mit einem Flachdetektor ausgerüstetes C-Bogen-System. Durch ihre flache Form treten bei Flachdetektoren im Gegensatz zu Röntgenbildverstärkern keine geometrischen Verzerrungen und kein Vignetting (Abfall der Lichtintensität zu den Bildrändern hin) auf, außerdem sind ihre mechanischen Abmessungen und ihr Gewicht geringer. Die erzielbare Bildqualität wird wesentlich durch das Übertragungsverhalten des Detektorsystems für Bildsignal und Quantenrauschen sowie von dem systemintern generierten Rauschen bestimmt. Die wesentlichen systeminternen Rauschquellen sind das Rauschen der ladungssensitiven Verstärker und das Reset-Rauschen der Photodioden [Aach 1999, Overdick 2006]. Letzteres wird auch als kTC-Rauschen bezeichnet, da sich seine Varianz aus dem Produkt der Boltzmann-Konstanten k, der Temperatur T und der Pixelkapazität C (ca. 2 pF) berechnet. Aus diesen Größen wird als Qualitätsmaß für ein Detektorsystem die detektierte Quanteneffizienz (DQE) berechnet und als ortsfrequenzabhängige Funktion aufgetragen. Das Kap. 2.6 führt zunächst in die DQE ein und zeigt dann beispielhaft Ergebnisse für einige Flachdetektorsysteme.
2.5.5 Streustrahlenraster Wie Abb. 2.12 zeigt, wird der Hauptanteil der Schwächung von diagnostischer Röntgenstrahlung im menschlichen Körper durch Compton-Streuung verursacht. Durch die Streuung werden die Röntgenquanten aus ihrer direkten Bahn abgelenkt. Diejenigen Quanten, die nach Streuvorgängen noch auf den Detektor treffen, erreichen ihn deshalb nicht mehr entlang einer vom Anodenbrennfleck ausgehenden geraden Linie, sondern auf indirektem Weg (Abb. 2.29).
2 Bildgebung durch Projektionsröntgen
| 43
Brennfleck
Patient Raster Bleilamellen Detektor Abb. 2.29: Streuung in einem durchstrahlten Objekt und Wirkung eines Streustrahlenrasters.
Streustrahlenraster: System bei der Aufnahme von Röntgenbildern, mit dem die störende Streustrahlung im Bild unterdrückt werden kann.
Bezeichnet man die den Detektor direkt erreichende Intensität als Primärintensität Ip und die ihn nach Streuung erreichende Intensität als Streuintensität Is , so ist der Streustrahlanteil P definiert als I P= s (2.31) Ip Der Streustrahlanteil hängt unter anderem von der Größe und der Dicke des durchstrahlten Bereiches des Patienten ab und kann zwischen 50 und 90 % liegen. Die Streuintensität ist nahezu homogen über den Detektor verteilt und überlagert sich als kontrastreduzierender Schleier der Primärintensität. Die damit einhergehende Zunahme der Gesamtintensität der auf den Detektor treffenden Strahlung erhöht zudem das Rauschen in dem detektierten Bild, wodurch geringe Intensitätsunterschiede nicht mehr wahrnehmbar werden. Der Kontrast C zwischen zwei benachbarten Bildregionen mit geringfügig unterschiedlichen Röntgenintensitäten I1 und I2 ist dabei gegeben durch I −I 𝛥I (2.32) C= 1 2 = I1 + I2 2 ⋅ I wobei I für die mittlere Intensität steht (vgl. Kap. 21.6, Systemtheorie). Der Kontrast Cp ohne Streustrahlung ergibt sich damit zu Cp =
𝛥Ip 2 ⋅ Ip
(2.33)
44 | Til Aach, Olaf Dössel Akzeptanzwinkel für Röntgenstrahlen Schachtmedium Bleilamellen
h
D
d
Röntgenfilm
Abb. 2.30: Schnitt durch ein Streustrahlenraster.
mit der mittleren Primärintensität Ip . Unter Berücksichtigung der Streuintensität ergibt sich für den Kontrast Cs =
𝛥Ip 2(Ip + Is )
= Cp ⋅ (1 − P)
(2.34)
Bei einem Streustrahlanteil von 80 % reduziert sich der Kontrast somit auf 20 % des Kontrastes der Primärintensität. Zur Reduktion der Streuintensität werden nach Gustav Bucky (1913) sogenannte Streustrahlenraster auf den Detektor aufgebracht [Morneburg 1995]. Sie bestehen aus vielen dünnen Bleilamellen, zwischen denen sich ein für Röntgenstrahlung durchlässiges Schachtmedium befindet (Abb. 2.30). Ein Großteil der Primärintensität kann die Schächte zwischen den Bleilamellen wegen des geradlinigen Weges von der Quelle zum Raster ungehindert passieren, während ein wesentlicher Anteil der Streuintensität wegen des schrägen Einfalls auf die Bleilamellen trifft und dort absorbiert wird. Physikalisch ist ein Streustrahlenraster durch seine Primärstrahltransparenz Tp , seine Streustrahltransparenz Ts und seine Selektivität 𝛴 gekennzeichnet. Bezeichnet man die den Detektor mit aufgebrachtem Raster erreichende Primärintensität mit Ipr und die ihn erreichende Streuintensität mit Isr , so gilt: Tp =
Ipr Ip
, Ts =
Isr , Is
𝛴=
Tp Ts
(2.35)
Ziel bei der Dimensionierung eines Streustrahlenrasters sind eine möglichst hohe Primärstrahltransparenz, eine möglichst niedrige Streustrahltransparenz und damit eine möglichst hohe Selektivität. Diese physikalischen Kenngrößen hängen dabei von den geometrischen Größen des Rasters in Abb. 2.30 ab. Typische Werte für ein Streustrahlenraster sind h = 1,4 mm für die Lamellenhöhe, d = 0,07 mm für die Lamellenbreite und D = 0,18 mm für die Schachtbreite. Die Selektivität hängt allerdings auch von der Anodenspannung ab und liegt typisch zwischen 3 und 12.
2 Bildgebung durch Projektionsröntgen
| 45
Der mit einem Streustrahlenraster erzielbare Kontrast Cr berechnet sich zu Cr =
𝛥Ipr 2(Ipr + Isr )
=
Tp ⋅ 𝛥Ip
2(Tp Ip + Ts Is ) 𝛴 = Cp ⋅ (1 − P) ⋅ 𝛴 − P(𝛴 − 1) 𝛴 = Cs ⋅ 𝛴 − P(𝛴 − 1)
(2.36)
Liegt der Streustrahlanteil ohne Einsatz eines Streustrahlenrasters wie in obigem Beispiel bei P = 80 % und wird nun ein Streustrahlenraster mit der Selektivität 𝛴 = 12 eingesetzt, so ergibt sich für den Kontrast Cr = Cp ⋅ 0, 75 = Cs ⋅ 3, 75
(2.37)
Durch den Einsatz des Streustrahlenrasters wird der Kontrast also um das 3,75Fache erhöht, und zwar auf das 0,75-Fache des Kontrastes, der sich ganz ohne Streuintensität ergeben würde.
2.6 Bildqualität: Modulationsübertragungsfunktion (MTF) und detektierte Quanteneffizienz (DQE) Die Erzeugung von Röntgenquanten in der Röntgenröhre unterliegt statistischen Schwankungen. Bezeichnet man die Anzahl der erzeugten Quanten pro Fläche und Zeit mit n, so gehorcht diese einer Poisson-Verteilung [Aach 1999, Buzug 2004]. Die Wahrscheinlichkeit Pr, dass n den Wert k annimmt, ist damit gegeben durch Pr(n = k) =
nk0 −n0 e k!
(2.38)
wobei k eine nichtnegative ganze Zahl und n0 ein Parameter der Poisson-Verteilung ist (vgl. Kap. 21.5, Systemtheorie). Mittelwert und Varianz 𝜎2 der Poisson-Verteilung sind beide gleich dem Parameter n0 . Fasst man den Mittelwert als Signal S auf und die Varianz 𝜎2 als sogenanntes Quantenrauschen, so ist das „intrinsische“ Signal-RauschVerhältnis (SNR) der Strahlung gegeben durch SNR = S2 /𝜎2 = n0
(2.39)
Ein höherer mittlerer Quantenfluss n0 erhöht also die Quantenrauschleistung linear, die Signalleistung quadratisch und das SNR wiederum linear. Wir betrachten nun das in Abb. 2.31 gezeigte Modell eines Detektors. Auf die Pixelfläche Ap fallen in der Belichtungszeit TE im Mittel Sin = n0 ⋅ Ap ⋅ TE = q0
(2.40)
46 | Til Aach, Olaf Dössel
AP
I Abb. 2.31: Vereinfachtes Diagramm eines Röntgendetektors als Absorptionsstufe (Quantenabsorption 𝛼, Pixelfläche Ap ).
Quanten, was als Eingangssignal des Detektors aufgefasst werden kann. Die Varianz der einfallenden Quanten beträgt aufgrund der Poisson-Natur ebenfalls 𝜎2 = q0 , wo2 durch sich das SNR am Eingang ergibt zu. SNRin = S2in /𝜎in = q0 Signal-Rausch-Verhältnis (SNR): Verhältnis der Signalleistung bezogen auf die Rauschleistung. Quantenrauschen: durch den statistischen Charakter beim Nachweis von Röntgenquanten hervorgerufenes Rauschen im Bild. Die Häufigkeit, mit der in einem Pixel eine bestimmte Zahl von Röntgenquanten gezählt wird, schwankt und kann mit der POISSON-Statistik beschrieben werden.
Bezeichnet man die Quanteneffizienz, d. h. den Anteil der vom Detektor tatsächlich nachgewiesenen Quanten, mit 𝛼, so erhält man am Detektorausgang: 2 Sout = 𝛼 ⋅ q0 = 𝜎out 2 SNRout = S2out /𝜎out = 𝛼 ⋅ q0
DQE0 = SNRout /SNRin = 𝛼
(2.41)
Das SNR am Detektorausgang entspricht also dem Mittelwert der nachgewiesenen Quanten und wird deshalb auch als Anzahl der rauschäquivalenten Quanten (Noise Equivalent Quanta, NEQ) bezeichnet. Ein realer Detektor, der nur einen Anteil 𝛼 der einfallenden Quanten nachweist, kann deshalb wie ein idealer Detektor aufgefasst werden, der alle Quanten detektiert, aber mit geringerer Quantendosis betrieben wird. Durch Normierung des SNR am Detektorausgang auf das SNR am Detektoreingang erhält man eine von der Quantendosis unabhängige Größe, die sogenannte detektierte Quanteneffizienz DQE . Als Beispiel betrachten wir einen Flachdetektor mit einer Pixelgröße von Ap = 200 μm × 200 μm und einer Quanteneffizienz 𝛼 = 70 %, der im Fluoroskopiemodus mit 25 Bildern pro Sekunde, einer Dosisrate von 0,25 μGy/s und einem Spektrum mit einer mittleren Quantenenergie von 60 keV betrieben wird. Die Belichtungszeit ergibt sich somit zu TE = 1/25 s und die Dosis pro Bild zu D = 10 nGy. Aus Abb. 2.13 liest man
2 Bildgebung durch Projektionsröntgen
q₀ Nq²
a
Abb. 2.32: Diagramm eines Röntgendetektors, bestehend aus einer Absorptionsstufe, Verstärkung, ortsfrequenzabhängiger Filterung und additivem Systemrauschen.
Sout
H(u,v)
N²out N²sys
G
| 47
für diese Strahlqualität und Dosis eine Quantendosis von qDA = 35 ⋅ 103 Quanten pro mm2 und μGy ab. Die mittlere auf einen Pixel einfallende Zahl von Röntgenquanten pro Bild, die Rauschleistung und das SNR am Eingang betragen damit Sin = q0 = D ⋅ qDA ⋅ Ap = 14 2 = q0 = 14 𝜎in
SNRin =
S2in = 14 2 𝜎in
(2.42)
Am Detektorausgang ergibt sich Sout = 𝛼q0 = 9,8 2 = 𝛼q0 = 9,8 𝜎out
SNRout =
S2out = 9,8 2 𝜎out
(2.43)
Die bisherige vereinfachte Behandlung von NEQ und DQE ging von örtlich homogenen Aufnahmen aus, bei der jedes Pixel mit demselben Signal belichtet wird und vernachlässigte das vom Detektorsystem selbst erzeugte Rauschen. Im Folgenden leiten wir deshalb eine erweiterte Definition für NEQ und DQE elektronischer Detektorsysteme ab, die die Ortsfrequenzabhängigkeit der Modulationsübertragungsfunktion (Modulation Transfer Function, MTF) des Detektors sowie Systemrauschen berücksichtigen. Wir folgen hier den Ableitungen in [Aach 1999, Rabbani 1987]. Abb. 2.32 zeigt das zugrunde liegende Detektormodell: Der Absorptionsstufe folgt eine Verstärkung um den Faktor G, welche die Konversion von Röntgenquanten in andere Informationsträger wie Elektronen beschreibt. Auf die Verstärkerstufe folgt eine auflösungsbegrenzende lineare verschiebungsinvariante Filterung, die beispielsweise Streueffekte im Szintillator und die Integration über die Pixelgröße erfasst und im Ortsfrequenzbereich durch die MTF beschrieben wird. Zum Schluss wird unabhängiges, vom Detektorsystem erzeugtes Rauschen mit dem Rauschleistungsdichtespektrum Nsys (u) addiert, wobei u für die Ortsfrequenz steht. Die in Abb. 2.32 dargestellte Verarbeitungskette filtert somit sowohl das Signal wie auch das Quantenrauschen am Detektoreingang. Bei der Ortsfrequenz Null ergibt sich für das Ausgangssignal bei einer mittleren Anzahl von q0 einfallenden Röntgenquanten pro Pixel Sout = q0 ⋅ 𝛼 ⋅ G (2.44) wobei die MTF bei der Ortsfrequenz Null auf eins normiert wurde. Das einfallende Quantenrauschen ist weiß [Rabbani 1987, Aach 1999], d. h., sein Rauschleistungsdich-
48 | Til Aach, Olaf Dössel tespektrum Nq (u) ist frequenzunabhängig und hat für jede Ortsfrequenz denselben Wert Nq (u) = q0 (2.45) Bei Übertragung des Quantenrauschens über die Verarbeitungskette in Abb. 2.32 wird das Quantenrauschen verstärkt und mit der MTF gefiltert, so dass das ursprünglich weiße Rauschen zu farbigem Rauschen wird. Unter Berücksichtigung des additiven unabhängigen Systemrauschens mit dem Rauschleistungsdichtespektrum Nsys (u) erhalten wir für das Rauschleistungsdichtespektrum am Detektorausgang Nout (u) = q0 ⋅ 𝛼 ⋅ G2 ⋅ MTF2 (u) + Nsys (u)
(2.46)
Wir betrachten nun eine Aufnahme mit dem Sinussignal qu (x) = q0 (1 + 𝜀 sin(2𝜋ux)) ,
0 1) kann man die Dosis verringern, allerdings auf Kosten zunehmender Spiralartefakte und schlechterer Auflösung in der Patientenlängsrichtung durch wachsende effektive Schichtdicken. Bei vielen Mehrzeilen-CT-Geräten gilt dieser Zusammenhang im Prinzip auch. Eine Ausnahme machen die Mehrzeilen-CT-Scanner der Fa. Siemens. Hier ist die Spiralinterpolation so gestaltet, dass die räumliche Auflösung in Patientenlängsrichtung unabhängig vom Pitch immer gleich ist. Um bei dieser Technik ein pitchunabhängiges Bildrauschen zu erhalten, wird der Röhrenstrom (mAs-Wert) mit zunehmendem Pitch automatisch vergrößert. Als Konsequenz daraus bleibt die Strahlendosis bei jedem Pitch konstant.
Filterkern Die Wahl des Filter- oder Faltungskerns hat zunächst keinen unmittelbaren Einfluss auf die Dosis. Allerdings geht bei konstanter Strahlendosis höhere Bildschärfe, die durch schärfere Faltungskerne erreicht wird, immer auf Kosten von erhöhtem Bildrauschen. Soll bei hoher Ortsauflösung das Rauschen verringert werden, muss die Strahlendosis erhöht werden.
3.8.2 Maßnahmen zur Dosisreduktion Die effektivste Maßnahme zur Reduktion der Strahlendosis ist die Anpassung der Dosis an die Anatomie des Patienten. Gerade bei dünnen Patienten und bei Kindern kann die Dosis zur Erreichung diagnostischer Bildqualität stark reduziert werden, und zwar entweder manuell – durch Anpassung des mAs-Wertes oder gegebenenfalls auch der Röhrenspannung – oder automatisch durch Techniken, die der Belichtungsautomatik bei einer Fotokamera ähneln. Verfahren zur automatischen anatomischen Dosismodulation sind in praktisch allen modernen CT-Scannern implementiert, unter Namen wie z. B. „CareDose4D“ (Siemens). Sie lassen die Röhrenspannung unverändert und passen den Röhrenstrom an die anatomische Situation an. Dabei sind zwei Arten der Modulation zu unterscheiden. Der Röhrenstrom bzw. die Dosis kann im ersten Schritt dynamisch an die anatomische Situation und die unterschiedlichen Schwächungsverhältnisse entlang der Patientenlängsachse (z-Achse) angepasst werden (longitudinale Dosismodulation). In anatomischen Bereichen, in denen eine kleine Schwächung der Röntgenintensität zu erwarten ist, z. B. im Bereich der Lunge, können der Röhrenstrom und damit die Dosis herabgesetzt werden, ohne dass es zu einer Verschlechterung der Bildqualität kommt. In anatomischen Bereichen mit hoher Schwächung, z. B. der Schulter, ist im Gegensatz dazu eventuell sogar eine Erhöhung des Röhrenstroms notwendig.
3 Computertomographie |
verringerter Röhrenstrom
mAs
mAs
100 %
100 %
60 %
60 %
20 %
20 % Winkel
105
20° 80° 20° Winkel
erhöhter Röhrenstrom
Abb. 3.19: Prinzip der organselektiven Dosismodulation, hier zum Schutz der weiblichen Brust. Die Dosisverteilungen entstanden durch Monte-Carlo-Simulation. Rot bedeutet geringere Dosis.
Die Schwächungsverhältnisse entlang der Patientenlängsachse erhält man vor dem geplanten CT-Scan aus der Analyse der Übersichtsaufnahme (Topogram, Scout View). Der zweite Schritt ist die dynamische Veränderung des Röhrenstroms über den Projektionswinkel 𝛾 (zirkulare Dosismodulation). Diese Modulation ist besonders wirkungsvoll bei allen Körperbereichen mit stark unterschiedlichen Schwächungen in den verschiedenen Projektionsrichtungen, z. B. Schulter und Pelvis. Die Anpassung des Röhrenstroms während eines Umlaufs wird entweder aus der Analyse der vor dem CT-Scan erstellten Übersichtsaufnahme abgeleitet oder in Echtzeit während des CTScans durch die Auswertung des Detektorsignals ermittelt, das ein Maß für die aktuelle Schwächung ist. In der Praxis werden longitudinale und zirkulare Dosismodulation in Kombination eingesetzt. Eine seit Kurzem verfügbare Variante der anatomischen Dosismodulation ist die organabhängige Steuerung des Röntgenstroms, um die Strahlendosis in bestimmten strahlensensitiven Organen selektiv zu verringern. Um beispielsweise die weibliche Brust bei einer Thoraxaufnahme möglichst wenig zu belasten, wird der Röhrenstrom in dem Projektionswinkelintervall reduziert, in dem sich die Röntgenröhre direkt über der Brust befindet und sie so direkt bestrahlt. Zum Ausgleich muss der Röhrenstrom im gegenüberliegenden Winkelbereich erhöht werden (Abb. 3.19). Bei EKG-gegateten Aufnahmen des Herzens wird der Röhrenstrom durch das EKG des Patienten gesteuert, um die Dosis zu verringern. Nur in der vom Benutzer vorselektierten Phase des Herzzyklus, in der Bilder rekonstruiert werden sollen, erreicht der Röhrenstrom seinen Nominalwert. In den anderen Herzphasen wird er deutlich reduziert.
106 | Thorsten M. Buzug, Thomas Flohr Neben der automatischen anatomischen Modulation des Röhrenstroms wurde kürzlich ein Verfahren eingeführt, das auch die Röhrenspannung automatisch an die Anatomie des Patienten und die geplante Untersuchung anpasst („CAREkV“, Siemens AG, Forchheim, Deutschland). Bei CT-Untersuchungen mit Kontrastmittel kann durch den bei niedrigen Röhrenspannungen höheren CT-Wert der jodgefüllten Gefäße und Gewebeareale höheres Bildrauschen toleriert und damit die Strahlendosis abgesenkt werden. Allerdings ist die Leistung der Röntgenröhre bei niedrigen Spannungen beschränkt, so dass die zu untersuchende Anatomie des Patienten geeignet sein muss – dies wird automatisch durch eine Analyse der Übersichtaufnahme und der geplanten Untersuchung sichergestellt.
3.9 Spezielle CT-Systeme Für bestimmte Anwendungen wurden in den letzten Jahrzehnten immer wieder spezielle Systeme entwickelt, von denen einige hier vorgestellt werden. Speziell für die Herzbildgebung optimiert wurde das Dual Source CT (s. Kap. 3.9.1) und ein nichtmechanisches CT, das Elektronenstrahl-CT (s. Kap. 3.9.2). Sollen sehr kleine Strukturen im μm-Bereich untersucht werden, so ist die räumliche Auflösung der klinischen CTs nicht ausreichend. Hierfür wurden spezielle Mikro-CTs entwickelt (s. Kap. 3.9.3). Da die Nuklearbildgebung mittels PET in der Lage ist, den Metabolismus des Körpers abzubilden, und CT dazu gewissermaßen komplementär nur die Morphologie abbildet, ist eine konsequente Weiterentwicklung die Kombination beider Geräte in sogenannten PET-CT-Scannern (s. Kap. 9.4).
3.9.1 Dual Source CT Der Dual-Source-Computertomograph, der 2005 erstmals vorgestellt wurde, ist eine pragmatische Umsetzung einer naheliegenden Idee, um die Zeitauflösung von CTSchichtaufnahmen zu verbessern. Dabei sind auf der Gantry zwei Messsysteme – jeweils bestehend aus einem Röntgenstrahler und dem dazugehörigen Detektor – unter einem Winkel von 90° angeordnet (Abb. 3.20). Beide Messsysteme nehmen gleichzeitig Daten auf. Um den zur Bildrekonstruktion notwendigen Projektionswinkelbereich von 180° (im Drehzentrum) zu erhalten, genügt somit eine Viertelrotation des Gerätes. Jedes Messsystem nimmt dann gerade zwei 90° Segmente auf, die zu einem 180° Halbumlaufintervall zusammengefügt werden können. Damit entspricht die kürzeste Aufnahmezeit für ein CT-Bild gerade einem Viertel der Gantry-Rotationszeit. Dual Source CT (dt. Doppelquellen-CT): Computertomographie mit zwei Röntgenröhren und Detektorsystemen, die um etwa 90° versetzt sind.
3 Computertomographie |
107
Drehrichtung der Gantry
z x J
I
26
J
cm
I
Detektor B
y
Detektor A Abb. 3.20: Prinzip eines Dual-Source-CT-Gerätes, in dem zwei Messsysteme um einen Winkel von 90° versetzt angeordnet sind.
Bei der ersten Generation des Dual Source CTs mit einer Rotationszeit von 0,33 s betrug die zeitliche Auflösung 83 ms, bei der zweiten, im Jahre 2009 eingeführten Generation mit einer Rotationszeit von 0,28 s beträgt die zeitliche Auflösung 75 ms. Diese kurze Aufnahmezeit ist besonders vorteilhaft bei der Untersuchung bewegter Organe wie z. B. dem Herzen. Tatsächlich haben klinische Studien inzwischen gezeigt, dass es mit der Dual Source CT möglich ist, die Herzkranzgefäße in diagnostischer Qualität auch bei Patienten mit hohen und unregelmäßigen Herzraten darzustellen (Abb. 3.21). Durch optimale Umsetzung der EKG-gesteuerten Dosismodulation und andere Maßnahmen ist dabei – trotz des gleichzeitigen Betriebes von zwei Röntgenröhren – die Strahlenbelastung für den Patienten nicht größer und bei höheren Herzraten sogar geringer als bei entsprechenden Single Source CT. Dual-Source-CT-Geräte ermöglichen auch die gleichzeitige Aufnahme von zwei Messdatensätzen mit unterschiedlichen Röntgenspektren, indem beide Röntgenstrahler mit unterschiedlichen Röhrenspannungen betrieben werden. Mit der sogenannten Dual-Energy-Technik lassen sich unterschiedliche Gewebetypen chemisch charakterisieren oder die Jodaufnahme im Gewebe quantitativ darstellen (Abb. 3.22). Diese Untersuchungsmethode befindet sich noch im Stadium klinischer Forschung, allerdings zeichnen sich bereits erste Routineanwendungen ab, z. B. die Charakterisierung von Nierensteinen.
108 | Thorsten M. Buzug, Thomas Flohr
Abb. 3.21: CT-Angiographie der Herzkranzgefäße, aufgenommen mit einem Dual-Source-CTGerät bei einem Patienten mit Myokardbrücke (Pfeil). Trotz der während der Untersuchung zwischen 77 und 103 Herzschlägen pro Minute schwankenden Herzfrequenz konnte wegen der guten zeitlichen Auflösung von 75 ms das Herz ohne Bewegungsartefakte abgebildet werden. Courtesy Thorax Center, Erasmus University Rotterdam, The Netherlands.
Dual energy-Aufnahme mit Kontrastmittel
virtuelles Nativbild/ Jodbild
CT-Angiographie
Dual energy-CT Plaque-removal
Harnsäurekristalle (Gicht)
Abb. 3.22: Verschiedene Dual-Energy-Anwendungen: Charakterisierung von Harnsäure zur Differentialdiagnose von Gicht, automatische Erkennung kalzifizierter Plaques aus einer CT-Angiographie der Karotiden, Jodsubtraktion zur Berechnung eines „virtuellen“ Nativbildes.
3.9.2 Elektronenstrahl-CT (EBCT) Wenn man zu sehr kurzen Datenakquisitionszeiten kommen möchte, muss man das Konzept mechanisch bewegter Systeme vollständig verlassen. Einen Ansatz dazu bietet die Elektronenstrahl-Computertomographie (Electron Beam Computerized Tomography, EBCT). Diese Form der Computertomographie wurde speziell für Aufnahmen des Herzens entwickelt. Eine lokalisierte Röntgenröhre, die sich um den Patienten dreht, gibt es hier nicht mehr. Vielmehr befindet sich der Patient gewissermaßen innerhalb der Röntgenröhre. Ein Elektronenstrahl wird auf kreisförmig um den Patienten angeordnete Wolframtargetringe fokussiert und erzeugt beim Aufprall auf das
3 Computertomographie |
109
Wolfram den gewünschten Röntgenstrahlfächer. Die Röntgenstrahlung wird dann mit einem fest stehenden Detektorring gemessen. Solche Systeme wurden von der Firma Imatron überwiegend an Kardiologen verkauft. Das Elektronenstrahlverfahren ist in der Lage, Schichtbilder in 50 ms zu akquirieren. Weitere technische Details findet man zum Beispiel bei G. Weisser [Weisser 2000]. Wegen der unzureichenden Bildqualität bei allgemeinradiologischen Schichtaufnahmen und der trotz der guten zeitlichen Auflösung limitierten Bildqualität bei Herzuntersuchungen wurde das Elektronenstrahl-Prinzip inzwischen aufgegeben.
3.9.3 Mikro-CT Seit einiger Zeit sind sogenannte Mikro-CTs kommerziell erhältlich, die im Wesentlichen einer miniaturisierten Form eines Volumen-CTs entsprechen und zur zerstörungsfreien, dreidimensionalen Mikroskopie genutzt werden. Das durchstrahlte Messfeld ist mit typischerweise 2 cm3 so klein, dass Patientenuntersuchungen ausscheiden. Tatsächlich werden diese Geräte eher in der Materialprüfung und -analyse verwendet, aber auch medizinische Anwendungen rücken zunehmend in das Zentrum des Interesses. Humanmedizinische Fragestellungen sind zum Beispiel Untersuchungen der Trabekularstruktur von Knochen. Mikro-CTs sind darüber hinaus ideale Geräte, um radiologische Diagnostik an Kleintieren zu betreiben. Mikro-CTs sind häufig als Tischgeräte ausgelegt und besitzen eine Messkammer, die mit Bleiwänden gegen nach außen dringende Röntgenstrahlung vollständig abgeschirmt ist, so dass keine weiteren Schutzmaßnahmen ergriffen werden müssen. Das zu untersuchende Objekt wird auf einem Drehteller platziert, der von einem Schrittmotor gesteuert wird. Die beiden entscheidenden Komponenten eines Mikro-CTs sind die Röntgenröhre und das Detektorarray. Hierbei sind es speziell die Fokusgröße und die Größe der Detektorelemente, die neben der mechanischen Genauigkeit der Drehbewegung das Auflösungsvermögen bestimmen, wobei Röntgenfokusgrößen unterhalb von 10 μm wünschenswert sind. Natürlich kann bei einer solch kleinen Elektronentargetfläche der Anodenstrom nicht sehr groß gewählt werden – typische Ströme liegen im Bereich von < 100 μA. Da der Strom die Intensität des Röntgenspektrums steuert, unterliegt man in Bezug auf die zu untersuchenden Materialien natürlich gewissen Einschränkungen. Als Detektor wird häufig ein gekühlter 12 Bit Röntgen-CCD-Chip mit einer Pixelmatrix von 1024 × 1024 genutzt, der über eine Fiberoptik an einen Szintillationskristall angekoppelt ist. Die Größe der Bildelemente liegt ebenfalls in der Größenordnung von etwa 10 μm. Die Firma SkyScan gibt ein Auflösungsvermögen von insgesamt etwa 10 μm an. Da es sich bei Mikro-CTs um Kegelstrahlröntgensysteme handelt, sind dreidimensionale Rekonstruktionsverfahren erforderlich, um die Bilder zu berechnen.
110 | Thorsten M. Buzug, Thomas Flohr 3.9.4 PET-CT Wenn man von Kontrastmitteltechniken absieht, dann vermag die Computertomographie für sich genommen nur morphologische Informationen, also Informationen über die Form der Objekte und ihren Röntgenschwächungskoeffizienten, zu liefern. Andererseits liefert die Positronen-Emissions-Tomographie (PET) Informationen über den Metabolismus, also die Funktion bzw. den Stoffwechsel [Ruhlmann 1998]. Da die Computertomographie auf der Absorption von Röntgenstrahlung beruht, können sich unterschiedliche Organe mit unterschiedlichen Absorptionseigenschaften nur der Form nach abbilden. Der Patient bleibt in diesem Verfahren passiv, d. h., er fungiert im Gegensatz zur PET nicht selbst als Strahler. Bei der Positronen-Emissions-Tomographie wird dem Patienten ein radioaktiv markierter sogenannter Tracer gespritzt, der beim Stoffwechsel im Körper des Patienten eine wichige Rolle spielt (s. Kap. 6, PET). Ein interessanter Ansatz in der bildgebenden Diagnostik ist die Kombination beider Verfahren. Die Idee, neben der Form auch die Funktion in einem Bild darzustellen, wird schon länger mit Methoden der sogenannten Bildregistrierung verfolgt. Dabei wird der Patient nacheinander mit verschiedenen Geräten aufgenommen. Aufgrund der unterschiedlichen Lagerung des Patienten ist aber immer die Registrierung als Bildverarbeitungsschritt erforderlich. Außerdem vergeht eine gewisse Zeit zwischen den beiden Aufnahmen. In PET-CT-Kombinationsgeräten werden PET- und CT-Bilder praktisch simultan in gleicher Patientenlage gemessen, so dass die Lage eines Tumors im Verhältnis zur übrigen Anatomie unmittelbar dargestellt und der diagnostische Wert der Aufnahme erhöht werden kann.
Quellenverzeichnis Brunst G.: High resolution digital flat panel detectors for X-ray applications – basics. In: Niederlag W., Lemke H. U. (Eds.): Medical imaging. Dresden: Health Academy 02, 2002: 63. Buzug T. M.: Computed tomography. Heidelberg: Springer-Verlag, 2008. Heinzerling J.: Röntgenstrahler. In: Ewen K. (Hrsg.): Moderne Bildgebung. Stuttgart: Thieme Verlag, 1998: 77. Hsieh J.: Computed tomography. Bellingham: SPIE Press, 2003. Kalender W. A.: Computertomographie. München: Publicis MCD Verlag, 2000. Kalender W. A., Seissler W., Vock P.: Single-breath-hold spiral volumetric CT by continuous patient translation and scanner rotation. Radiology 1989; 173: 4. Morneburg H. (Hrsg.): Bildgebende Systeme für die medizinische Diagnostik. München: Publicis MCD Verlag, 1995. Nagel H. D. (Hrsg.): Strahlenexposition in der Computertomographie, 3. Aufl. Hamburg: CTB-Publications, 2002. Radon J.: Über die Bestimmung von Funktionen längs gewisser Mannigfaltigkeiten. Berichte der mathematisch-physikalischen Kl. Sächsischen Gesellschaft der Wissenschaften, Leipzig, 1917: 262.
3 Computertomographie |
111
Ruhlmann J., Oehr P., Biersack H. J. (Hrsg.): PET in der Onkologie – Grundlagen und klinische Anwendung. Heidelberg: Springer-Verlag, 1998. Seeram E.: Computed tomography. Philadelphia: W. B. Saunders Company, 2001. Sternberg S.: CT scans: ‘a very high-dose’ diagnosis. USA Today 20, 2000. Weisser G.: Technische Grundlagen der EBCT. In: Gaa J., Lehmann K. J., Georgi M. (Hrsg.): MR-Angiographie und Elektronenstrahl-CT-Angiographie. Stuttgart: Thieme-Verlag, 2000: 145.
Testfragen 1. Worin unterscheiden sich die vier ersten Generationen der Computertomographie? 2. Was sind die Vorteile der Mehrschicht-Detektor-Technologie in der Computertomographie in Bezug auf die klinische Applikationen? 3. Welche Detektortypen gibt es in der Computertomographie? 4. Welchen Zusammenhang beschreibt das Fourier-Scheiben-Theorem? 5. Welche Art von Filterung wird bei der gefilterten Rückprojektion vorgenommen und welches Signal wird gefiltert? 6. Welche Bedeutung hat der Begriff „Pitch“ in der Spiral-CT? Welchen Wertebereich darf dieser Parameter besitzen? 7. Welche Artefakte treten bei der CT auf und welche gemeinsame Ursache haben sie fast immer? 8. Was wird mit der Hounsfield-Skala beschrieben? 9. Mit welcher Technik können CT-Bilder des Herzens aufgenommen werden? 10. Welches sind die wichtigsten Maßnahmen zur Dosisreduktion bei der Computertomographie?
Thomas Mertelmeier
4 Tomosynthese 4.1 4.2 4.3 4.4
Grundprinzip, diagnostische Zielsetzung und historische Entwicklung | 114 Rekonstruktionsalgorithmen | 116 Systemoptimierung und Gerätetechnik | 124 Klinische Anwendungen | 126
Zusammenfassung: Aus mehreren Bildern, die aus verschiedenen Richtungen wie beim Projektionsröntgen aufgenommen werden, können Schnittbilder durch den Körper des Patienten erzeugt werden – der Trick mit der „Tomosynthese“ macht es möglich. Nach einem historischen Rückblick auf die Entwicklung der klassischen Schichttechnik und der digitalen Tomosynthese wird ein Überblick über die in der Tomosynthese eingesetzten Bildrekonstruktionsalgorithmen gegeben. Neben der Bildverarbeitung bestimmen als wesentliche Aufnahmeparameter die Art der Abtastung, der Tomosynthesewinkel, die Zahl der Projektionen und die Strahlendosis die erreichbare Bildqualität. Als Anwendungen stehen die Mamma-Tomosynthese, die Lungenbildgebung und orthopädische Fragestellungen im Mittelpunkt. Abstract: Tomosynthesis allows for the creation of cross sectional images of the body using several images taken from various directions, similar to projection X-ray. This chapter starts with a historical view on the development of conventional tomography and digital tomosynthesis. Subsequently, an overview on image reconstruction algorithms employed for tomosynthesis is given. The most important acquisition parameters that determine the achievable image quality, besides image processing, are the tomosynthetic angle, the number of projections, and the radiation dose. Finally, the most prominent applications, namely breast tomosynthesis, chest tomosynthesis, and orthopedics, are discussed.
114 | Thomas Mertelmeier
4.1 Grundprinzip, diagnostische Zielsetzung und historische Entwicklung Schon wenige Jahre nach der Entdeckung der Röntgenstrahlung durch W. C. Röntgen im Jahre 1895 kamen Ideen auf, wie man mit Röntgenstrahlung nicht nur Schattenbilder erzeugen könnte, sondern auch Information über die räumliche Struktur des zu untersuchenden Objekts gewinnen könnte. Das Grundprinzip ist, mehrere Aufnahmen des Objekts aus unterschiedlichen Richtungen aufzunehmen und so auch Teile sichtbar zu machen, die bei einer reinen Projektionsaufnahme durch darüber- oder darunterliegende Strukturen abgeschwächt oder ganz verdeckt würden. Diese Methoden vor der Zeit der Computertomographie werden oft unter den Namen „klassische Tomographie“, „konventionelle Tomographie“ oder „Verwischungstomographie“ zusammengefasst. Dabei gibt es aber sehr viele Varianten ähnlicher Verfahren, die sich durch Details der Bilddatenakquisition unterscheiden. Allen Verfahren ist gemeinsam, dass die Röntgenröhre sich relativ zum Objekt bewegt und so Aufnahmen aus unterschiedlichen Blickrichtungen gemacht werden, d. h., man schaut sozusagen um sich überdeckende Details herum und reduziert damit den Überlagerungseffekt. Um eine scharfe Abbildung in einer ausgewählten Ebene zu erhalten, erfolgt die Röhrenbewegung um einen Drehpunkt (Fulcrum) in dieser Ebene, was dazu führt, dass alle Punkte außerhalb der Ebene unscharf, d. h. durch die Bewegung verwischt abgebildet werden. Daher hat sich der Name Verwischungstomographie herausgebildet. Je nach Umfang der Bewegung muss auch der Bildempfänger synchronisiert mitbewegt werden, um ein genügend großes Bildfeld zu erhalten. Die einfachste Variante ist die lineare Verwischungstomographie (Abb. 4.1). Hierbei bewegen sich Röhre und Detektor gegenläufig um das Objekt auf parallelen Geraden. Erfolgt die Bewegung um einen Punkt in der Ebene S1, so werden die Punkte in dieser Ebene immer auf den gleichen Ort im Detektor abgebildet und dabei trotz der Bewegung aufsummiert, während die Punkte einer anderen Ebene verschmiert werden. Genauso kann eine andere Ebene, z. B. S2, scharf abgebildet werden. Jedoch ist hierfür eine weitere Schichtaufnahme, d. h. ein Scan erforderlich, was die Strahlungsdosis für die Abbildung eines ganzen Volumens erheblich in die Höhe treibt. Die Erfindung der Planigraphie von Bocage [Bocage 1922] markiert den Beginn der selektiven Schichtbilddarstellung Hierbei bewegen sich Röhre und Detektor in horizontalen parallelen Ebenen gegenläufig zueinander. Die oben beschriebene lineare Verwischungstomographie ist die einfachste Variante der Planigraphie. Ziedses des Plantes veröffentlichte 1931 seine Arbeiten zur Planigraphie [Ziedses des Plantes 1931]. Weil er als Erster die neue Technik in der Praxis, nämlich auf Schädelaufnahmen, anwandte, wird er häufig als der Erfinder der Tomographie betrachtet. Bei der Stratigraphie [Vallebona 1931] bewegen sich Röhre und Bildempfänger in einer Art C-Bogen-Geometrie, d. h. mit konstantem Abstand voneinander. Allerdings lässt
4 Tomosynthese | 115
Röntgenfokus
α
S1
S1
S2
S2
δS
δS δS Bildempfänger Abb. 4.1: Schnittbildgenerierung mit linearer Bewegung von Röntgenquelle und Bildempfänger. Quelle: Härer 1999, mit freundlicher Genehmigung von Springer Science and Business Media.
sich damit nicht eine komplette Ebene scharf abbilden, sondern nur der Drehpunkt. Auch Mischformen der Bewegung wurden erprobt. Mit der Bewegung des Detektors parallel zu einer Ebene durch den Patienten erreicht man, dass diese Ebene scharf abgebildet wird, auch mit einer sich auf einem Bogen bewegenden Röntgenquelle. Dieses Prinzip wurde 1934 von Grossmann [Grossmann 1934] patentiert und Tomographie genannt. Der Begriff Tomographie setzte sich als Oberbegriff für alle Schichtverfahren durch. Eine in der Dentalradiographie relevante Variante ist die Pantomographie [Paatero 1949], welche die Grundlage der heutigen Dentalpanoramaaufnahme (Orthopantomographie) darstellt. Dabei werden die Zahnreihen des Kiefers auf gekrümmten Flächen entlang des Kieferbogens abgebildet. Ein aufschlussreicher historischer Überblick über die Historie der Tomographieverfahren wurde von Webb gegeben [Webb 1990], eine Einführung in die klassische Tomographie ist in Härer [2001] zu finden. Tomosynthese: Abbildung von Schichten, berechnet aus mehreren Röntgenprojektionen, aufgenommen aus einem eingeschränkten Winkelbereich.
116 | Thomas Mertelmeier Die klassische Verwischungstomographie ist der Vorläufer der digitalen Tomosynthese. Bei dieser wird das Schichtbild nicht durch Aufsummieren während der Bilddatenakquisition generiert, sondern durch die digitale Nachbehandlung von einzeln abgespeicherten Projektionsaufnahmen. Wie später beschrieben wird, ist es so in einfacher Weise möglich, retrospektiv aus dem Datensatz eines Scans jede beliebige Ebene durch das Objekt zu rekonstruieren. Damit einher geht ein immenser Dosisvorteil, da nicht mehr – wie in der klassischen Tomographie – für jede Ebene ein eigener Scan erforderlich ist. Mit der digitalen Tomosynthese sind die Schichtverfahren, welche aufgrund der Erfindung der Computertomographie (CT) nahezu ausgestorben waren, wieder aufgelebt. Die wesentlichen Gründe dafür waren die Einführung schneller digitaler Röntgendetektoren und die für die schnelle Rekonstruktion erforderliche Rechenleistung moderner Computer.
4.2 Rekonstruktionsalgorithmen In diesem Abschnitt soll ein Überblick über die Rekonstruktionsverfahren gegeben werden, die für die Tomosynthese eingesetzt werden. Dabei beschränken wir uns im Wesentlichen auf die lineare Tomosynthese, d. h. Tomosynthese mit linearer Abtastung, dasjenige Verfahren, das für die Brust- und Lungenbildgebung in der Praxis eingesetzt wird. Bei der Tomosynthese handelt es sich um ein dreidimensionales Abbildungsverfahren, das wegen des eingeschränkten Winkelbereichs auf unvollständiger Abtastung des Objekts beruht, d. h., es handelt sich um „limited angle tomography“. Der Tomosynthesewinkel, d. h. der Winkel, um den das Messsystem geschwenkt wird, beträgt typischerweise bei den heute eingesetzten Systemen zwischen 10 und 60°. Im Gegensatz zur Verwischungstomographie, bei der während des Scans kontinuierlich das Schichtbild aufsummiert wird, werden bei der Tomosynthese endlich viele Projektionen gemessen, d. h., nicht nur der Winkelbereich ist eingeschränkt, sondern auch das Winkelinkrement ist endlich. Aus Dosisgründen ist mit verrauschten Projektionsdaten zu rechnen. Dies alles führt dazu, dass das inverse Problem nicht exakt gelöst werden kann und notwendigerweise mit Artefakten zu rechnen ist. Ein aussichtsreicher Rekonstruktionsalgorithmus muss diesen Herausforderungen Rechnung tragen. Die analytischen Verfahren sind vergleichbar bzw. Weiterentwicklungen der CTRekonstruktion, basierend auf der gefilterten Rückprojektion (FBP). Die iterativen Verfahren gehen ähnliche Wege, wie sie in den Kapiteln über SPECT (s. Kap. 5) und PET (s. Kap. 6) beschrieben werden.
4 Tomosynthese | 117
4.2.1 Analytische Algorithmen Obwohl sich die für die Tomosynthese eingesetzten Bildrekonstruktionsalgorithmen an denen der CT orientieren, sind wegen der unvollständigen Abtastung Unterschiede zu erwarten. Einige der in der Tomosynthese verwendeten Algorithmen wurden in der Literatur beschrieben [Dobbins 2003, Wu 2004]. Eine Diskussion der Tomosynthese im Rahmen der rekonstruktiven 3D-Bildgebung wird in [Härer 1999] präsentiert. Das der Tomosynthese zugrunde liegende Konzept ist die „Synthetisierung“ von Bildebenen (Schnittbildern) durch das Objekt aus der Menge der gemessenen Projektionsbilder. Die rekonstruierten Ebenen sind i. A. parallel zur Detektoroberfläche, da die Abtastung in einem kleinen Winkelbereich relativ zur Detektornormalen erfolgt und damit Information aus der orthogonalen Richtung fehlt. Dies wird im Folgenden anhand der linearen Tomosynthese beschrieben (Abb. 4.1). Definieren wir die Projektion p(x, y) als die logarithmierten Messdaten p(x, y) = − ln (
I(x, y) ) I0
(4.1)
wobei I(x, y) die gemessenen Intensitäten an den Bildkoordinaten x, y eines Projektionsbildes und I0 die einfallende Intensität bezeichnen. Im einfachsten Fall wird ein Schichtbild durch das Verschieben der einzelnen Projektionen so rekonstruiert, dass Objekte in der scharf abzubildenden Ebene aufsummiert werden. Center of Rotation (COR; dt. Rotationszentrum; auch fulcrum): Punkt, in dem sich bei der Tomosynthese alle Verbindungslinien vom punktförmig gedachten Röntgenfokus zum Zentrum der Bildebene schneiden.
Betrachten wir N Projektionen pi (x , y ), (i = 1, . . ., N) eines abzubildenden Punktes (x, y, z), aufgenommen mit einem in x-Richtung translationsinvarianten linearen Tomosynthesesystem mit Scanrichtung y (Abb. 4.2). Dann ergibt sich das so rekonstruierte Bild g(x, y, z) bis auf eine Normierungskonstante als Summe über die verschobenen Projektionen N
N
i=1
i=1
g(x, y, z) = ∑ pi (x , yi − ci ) = ∑ pi (x , yi ) ∗ 𝛿(yi − ci ) ,
(4.2)
was als Summe über die Faltung (∗) mit einer Deltafunktion geschrieben werden kann. Hierbei sind die Koordinaten yi − ci auf dem Detektor bezüglich des Fulcrums verschoben. Die Größe yi -ci hängt von der Aufnahmegeometrie und von den Koordinaten
118 | Thomas Mertelmeier ys2
ys1
ys3
(x,y,z) L COR
zCOR
y'3
y'2
c3
c2
c1
y'1
Abb. 4.2: Lineare Tomosynthesegeometrie, illustriert mit 3 Projektionen, jeweils mit dem Strahl durch das Fulcrum (center of rotation, COR) und dem Strahl durch den abzubildenden Punkt (x, y, z).
x, y, z des abzubildenden Punktes ab. Für die in Abb. 4.2 illustrierte Geometrie gelten (i = 1, . . . , N für N Projektionen): yi =
z L y− y L−z L − z si
und
(4.3)
zCOR y (4.4) L − zCOR si Hier bezeichnen L den Fokus-Detektor-Abstand, ysi die y-Koordinate des Röntgenfokus und zCOR die z-Koordinate des Fulcrums (center of rotation). Die Objekte außerhalb der abzubildenden Ebene z erscheinen jedoch bei der Summation an verschiedenen Stellen als mehr oder weniger schwache Artefakte. Dieses Verfahren wird im Allgemeinen als Shift-and-Add-Algorithmus bezeichnet [Niklason 1997] und ist äquivalent zur ungefilterten Rückprojektion, bei der die Werte der Projektionen durch den abzubildenden Punkt entsprechend aufsummiert werden. Dieser Algorithmus ist zwar einfach und schnell, leidet aber unter erheblichen Artefakten, sowohl innerhalb der rekonstruierten Ebene (Verwischungsartefakte) als auch senkrecht dazu (Out-of-plane-Artefakte). Deshalb werden auch in der Tomosynthese, wie in der CT, Algorithmen vom Typ gefilterte Rückprojektion (Filtered Backprojection, FBP) eingesetzt. Basierend auf der grundlegenden Arbeit von Grant [Grant 1972], einer Methode mit dem Namen Ectomographie [Edholm 1980] und dem Prinzip der inversen Filterung [Matsuo 1993], formulierten Lauritsch und Härer [Lauritsch 1998] ein FBP-Verfahren zunächst für die zirkulare Tomosynthese, das sich durch spezielle Filter zum Unterdrücken der Bildartefakte auszeichnet. Dieses Verfahren kann auch für die lineare Tomosynthese formuliert werden [Haerer 1998, Mertelmeier 2006]. Unter der Annahme, dass das System nicht nur linear, sondern auch ci = −
4 Tomosynthese |
119
verschiebungsinvariant ist, lassen sich die Methoden der Systemtheorie (s. Kap. 21) anwenden. Die Verschiebungsinvarianz ist bei Parallelstrahlgeometrie gegeben und kann bei hinreichend großem Fokusabstand näherungsweise angenommen werden. Gemäß dem Fourier-Slice-Theorem (s. Kap. 3.4.1), auch Projection-SliceTheorem genannt, wird bei der Datenaufnahme, approximiert in Parallelstrahlgeometrie, die Ebene senkrecht zur Strahlrichtung abgetastet (Abb. 4.3 (a)). Während eines Tomosynthese-Scans entlang der y-Achse (und Translationsinvarianz entlang x) um den Winkel 2𝛼 (−𝛼 bis +𝛼) werden also die Daten auf den in einem Doppelkeil mit Öffnungswinkel 2𝛼 angeordneten Ebenen im Frequenzraum gemessen (Abb. 4.3 (b)). D. h., für einen typischen Tomosynthesewinkel 𝛼 wird nur ein kleiner Teil des Frequenzraums abgetastet. Im Sinne der Systemtheorie kann das Rekonstruktionsproblem folgendermaßen formuliert werden. Die Systemgleichung G(u) = H(u) ⋅ F(u)
(4.5)
verknüpft die Fouriertransformierte F(u) der Objektfunktion f (r) (ortsabhängiger Schwächungskoeffizienten) mit der Fouriertransformierten der rekonstruierten Objektfunktion G(u) durch die Übertragungsfunktion H(u), wobei u = (ux , uy , uz ) den dreidimensionalen Ortsfrequenzvektor bezeichnet. Da das inverse Problem nicht exakt gelöst werden kann, nehmen wir an, dass die Übertragungsfunktion in eine Filterfunktion Hfilter und in einen Projektions-Rückprojektions-Anteil HP aufgespaltet werden kann, H(u) = Hfilter (u) ⋅ HP (u) (4.6) Die Filterfunktion Hfilter wird wiederum in Anteile zerlegt, welche die Inversion des Projektions-Rückprojektions-Vorgangs und eine zusätzliche Filterung beschreiben. Diese zusätzliche Filterfunktion ist erforderlich, um einerseits das Rauschen der Messdaten zu unterdrücken (Regularisierung) und andererseits die aufgrund der unvollständigen Abtastung zu erwartenden Artefakte zu reduzieren. Gleichzeitig kann damit der Bildcharakter gesteuert werden, in ähnlicher Weise wie in der CT verschiedene Rekonstruktionsfilterkerne eingesetzt werden. Damit schreiben wir die Filterfunktion als Hfilter (ux , uz ) = Hspectrum (uy ) ⋅ Hprofile (uz ) ⋅ Hinverse (uy , uz )
(4.7)
wobei Hinverse die Übertragungsfunktion des Projektions-Rückprojektions-Prozesses im abgetasteten Bereich darstellt und für die Abtastung mit konstantem Winkelinkrement gegeben ist durch 2Hinverse (uy , uz ) = 2𝛼√u2y + u2z =0
für |uz | < |uy | tan(𝛼) ,
(4.8)
sonst
D. h., Hinverse ist proportional zum Rampenfilter im abgetasteten Bereich. Mit realistischen verrauschten Daten verstärkt der Rampenfilter bekanntermaßen das
120 | Thomas Mertelmeier Röntgenfokus-Trajektorie
z
uz ux
Abtastebene uξ
uη
y
uy
x (a)
(b)
Abb. 4.3: Datenakquisition bei Scan entlang y: (a) Mit der bei Winkel 𝜑(−𝛼 ≤ 𝜑 ≤ 𝛼) liegenden Röhre werden die Daten in der gekennzeichneten Ebene (sampling plane) gemessen. (b) Bewegt sich die Röhre über einen Winkelbereich von −𝛼 bis 𝛼, wird im Frequenzraum der gekennzeichnete Doppelkeil abgetastet. Die Beziehung zwischen Objektfrequenzraum (ux , uy , uz ) und Projektionsfrequenzraum (u𝜉 , u𝜂 ) ist angedeutet.
Rauschen. Dies kann durch den Spektralfilter Hspectrum kompensiert werden. Für den Spektralfilter kann beispielsweise ein von-Hann-Filter (auch „Hanning-Filter“ genannt) gewählt werden: Hspectrum (𝜔y ) = 0,5 (1 + cos (
𝜋 𝜔y
=0
A
))
für |uy | < A
(4.9)
sonst
mit dem Parameter A (A > 0), um hohe Frequenzen zu unterdrücken. Selbst nach Anwendung dieser Filter verursacht die Unstetigkeit in uz -Richtung zwischen abgetastetem und nicht abgetastetem Bereich (Abb. 4.3 (b)) Überschwingund Out-of-plane-Artefakte im rekonstruierten Bild. Deshalb kann es vorteilhaft sein, den stufenförmigen Übergang mit einem sogenannten Schichtdickenfilter Hprofile (uz ) zu vermeiden. Damit können das Schichtprofil bzw. die Schichtdicke gesteuert [Lauritsch 1998] und die Tomosynthese-typischen Out-of-plane-Artefakte unterdrückt werden. In einfachster Form wird der Schichtdickenfilter ebenfalls durch eine HanningFunktion ausgedrückt: Hprofile (𝜔z ) = 0,5 (1 + cos ( =0
𝜋𝜔z )) B
für |uz | < B und |uz | < tan(𝛼)|uy | ,
(4.10)
sonst.
Mit dem Parameter B wird die Grenzfrequenz in uz und damit die Schichtdicke bzw. das Schichtprofil im Bildraum eingestellt. Jedoch verhindert die unvollstän-
4 Tomosynthese |
121
ichs ere B n ete tast bge a s de nze „vollständige” Abtastung Gre
uz
uz-max α
uy
Hprofile Abb. 4.4: Die Einführung der Schichtdickenfilterfunktion Hprofile (uz ) gewährleistet ein konstantes Schichtprofil über einen weiten Frequenzbereich.
dige Datenaufnahme ein konstantes Schichtprofil über den kompletten Frequenzraum (Abb. 4.4). Falls die Grenzfrequenz in uz innerhalb des abgetasteten Bereichs liegt, ist die Schichtdicke wohldefiniert. Für kleine Frequenzen in Scanrichtung, uy < uz−max / tan(𝛼), wächst die Schichtdicke an. Anders als bei der CT kann in der Tomosynthese kein konstantes Schichtprofil erzielt werden. Vielmehr hängt die Schichtdicke vom Frequenzinhalt des Objekts ab. Für den Rückprojektionsschritt ist die exakte Berücksichtigung der Projektionsgeometrie entscheidend. Eine geeignete Methode dazu ist die Verwendung von Projektionsmatrizen, welche die Geometrie der Datenaufnahme beschreiben [Wiesent 2000]. Damit können die vielfältigen Tomosynthese-Aufnahmegeometrien behandelt werden; es müssen nur die Projektionsmatrizen für jede Projektion bekannt sein. Diese können entweder bei der Datenakquisition mitgemessen oder bei ausreichender mechanischer Stabilität durch Kalibrierung vorab bestimmt werden. Die von Webber für die Dentalbildgebung entwickelte Methode Tuned Aperture Computed Tomography (TACT) ist auf beliebige Abtastbahnen anwendbar und verwendet künstliche Marker, um die Aufnahmegeometrie retrospektiv zu bestimmen [Webber 1997]. Eine Eigenschaft der FBP-basierten Rekonstruktion ist die Unterdrückung der niedrigen Frequenzen aufgrund der Dominanz des Rampenfilters bei kleinen Ortfrequenzen. Dies führt zu einem durch Kantenverstärkung dominierten Bildeindruck und Verlust von Graustufeninformation. Aus diesem Grund wurde ein alternativer Filtermechanismus formuliert [Kunze 2007, Ludwig 2008]. Dabei wurde der Filter aus einem iterativen Rekonstruktionsverfahren (simultaneous iterative reconstruction technique, SIRT) abgeleitet, was zu einer realistischen Grauwertdarstellung führt, wie sie auch mit iterativer Rekonstruktion erhalten wird. Der mathematische Grund dafür ist ein nicht verschwindender Beitrag der Filterfunktion bei der Frequenz 0. Das heißt,
122 | Thomas Mertelmeier eine generelle Eigenschaft der Tomosynthese ist es, den Schwächungskoeffizienten nicht quantitativ zu rekonstruieren. Deshalb sind für die Bewertung verschiedener Algorithmen neben dem subjektiven Bildeindruck klinische Studien erforderlich. Die gefilterte Rückprojektion hat als analytischer Rekonstruktionsalgorithmus die Vorteile, dass sie effizient und als Pipeline-Struktur implementiert und die Bildqualität mithilfe eines speziellen Filterdesigns an die jeweilige Sehaufgabe angepasst werden kann. Andererseits sind diese Algorithmen weniger geeignet, mit dem Problem der unvollständigen Datenaufnahme umzugehen, die ja die Ursache für die Tomosynthese-typischen Artefakte ist. Deshalb machen wir im folgenden Abschnitt einen Ausflug in die Welt der iterativen Rekonstruktionsalgorithmen.
4.2.2 Iterative Rekonstruktion Eine Alternative zur deterministischen FBP-Rekonstruktion ist, mit einem stochastischen Modell die statistische Natur der Röntgenquanten zu berücksichtigen und damit die Wahrscheinlichkeit für die gemessenen Daten zu maximieren (Maximum-Likelihood-Schätzung). Auch andere physikalische Phänomene der Datenaufnahme können als Randbedingung modelliert werden, was die Rekonstruktionsqualität erhöhen kann. Eine weitere Erwartung ist, dass die Tomosynthese-typischen Artefakte reduziert werden können, da während der Rekonstruktion permanent mit den Messdaten verglichen wird. Außerdem versprechen solche Algorithmen, die Strahlungsdosis zu reduzieren, da die wirkliche Quantenstatistik zugrunde liegt. Auch die klassischen iterativen Algorithmen wie ART (Algebraic Reconstruction Theory), SART (Simultaneous ART) und SIRT (Simultaneous ART) werden untersucht und eingesetzt. Der generelle Ablauf bei einer iterativen Rekonstruktion besteht aus folgenden Schritten: 1. Schätzung eines Startwertes für die gesuchte Funktion des dreidimensionalen Schwächungskoeffizienten f (0) 2. Berechnung der Vorwärtsprojektionen der Objektfunktion im Iterationsschritt k, k = 1, . . ., Nit (Zahl der Iterationen) 3. Vergleich der berechneten Projektionen mit den gemessenen Projektionen 4. Berechnung einer verbesserten Objektfunktion basierend auf Schritt 3 5. Iteration der Schritte 2 bis 4, bis ein Abbruchkriterium erfüllt ist. Unterschiedliche iterative Algorithmen unterscheiden sich durch die Art und Weise, wie die Objektfunktion bei jedem Iterationsschritt aktualisiert wird. In [Wu 2003, Wu 2004 und Zhang 2006] wird über die Anwendung iterativer Rekonstruktionsalgorithmen bei der Brust-Tomosynthese berichtet.
4 Tomosynthese | 123
4.2.3 „Deblurring“-Methoden Bevor die in Kapitel 4.2.2 beschriebenen iterativen Algorithmen für die Tomosynthese aufkamen, wurde als Alternative zur Entwicklung neuartiger Filter zur Artefaktunterdrückung (s. Kap. 4.2.1) versucht, die typischen Verwischungs- und Out-of-PlaneArtefakte mit speziellen Verfahren zu reduzieren. Die wichtigsten davon werden im Folgenden kurz angerissen. Beim sogenannten iterativen „Deblurring“ (iterative restoration) – entwickelt von Ruttiman et al. [Ruttiman 1984, Suryanarayanan 2000] – werden Strukturen außerhalb der zu rekonstruierenden Ebene mithilfe der aus der Geometrie abgeleiteten Übertragungsfunktion [Grant 1972] unterdrückt. Das Verfahren erlaubt die gleichzeitige Entfaltung aller mit dem Shift-and-Add-Algorithmus rekonstruierten Ebenen. Dazu muss ein Gleichungssystem, das den Einfluss der benachbarten Ebenen beschreibt, iterativ gelöst werden, um die Verwischungsartefakte zu subtrahieren. Diese Methode der iterative Restoration ähnelt der sogenannten Matrix Inversion Tomosynthesis (MITS) [Godfrey 2001, Dobbins 2003], welche die mit Shift-and-AddAlgorithmus berechneten Tomosynthese-Schichtbilder ti , i = 1, . . ., n, aus den echten Objektschichten sj , j = 1, . . .n, durch Faltung mit den Verwischungs-Übertragungsfunktionen fij ausdrückt: t1 = s1 ∗ f11 + s2 ∗ f12 + . . . + sn ∗ f1n .. .
.. .
(4.11)
tn = s1 ∗ fn1 + s2 ∗ fn2 + . . . + sn ∗ fnn . Die Fouriertransformation ergibt das Gleichungssystem T1 = S1 ⋅ F11 + S2 ⋅ F12 + . . . + Sn ⋅ F1n .. .
(4.12)
Tn = S1 ⋅ Fn1 + S2 ⋅ Fn2 + . . . + Sn ⋅ Fnn in Matrixschreibweise T = F ⋅ S.
(4.13)
Die Inversion dieses Gleichungssystems liefert schließlich die Schichtbilder als inverse Fouriertransformation von F −1 ⋅ T. Diese Methode liefert gute Ergebnisse für die Lungentomosynthese [Godfrey 2006], leidet jedoch an Rauschen bei niedrigen Ortsfrequenzen. Der Grund hierfür ist die schlechte Konditionierung des zu invertierenden Gleichungssystems bei niedrigen Frequenzen, da die Tiefenauflösung dort aufgrund der fehlenden Information relativ gering ist (Abb. 4.3). Ein weiteres Verfahren ist die nichtlineare Rückprojektion, bei der für die Rekonstruktion einer Ebene Projektionswerte weggelassen werden, von denen erwartet wird, dass sie nicht zum Signal beitragen bzw. für eine aus einer anderen Ebene
124 | Thomas Mertelmeier kommenden Artefaktstruktur verantwortlich sind. Mit der Minimumoperation können beispielsweise Projektionen identifiziert werden, die sich erheblich vom Beitrag anderer Projektionen unterscheiden (Ausreißer) und damit für die Rückprojektion ausgeschlossen werden [Claus 2002]. Dieses Verfahren liefert hauptsächlich für Objekte mit hohem Kontrast brauchbare Ergebnisse. Alle Methoden zur Artefaktreduktion sind jedoch relativ aufwendig und leiden unter verstärktem Rauschen. Deshalb sind Rekonstruktionsalgorithmen zu bevorzugen, die inhärent Artefakte unterdrücken.
4.3 Systemoptimierung und Gerätetechnik 4.3.1 Systemoptimierung Die Abbildungseigenschaften und die Bildqualität eines Tomosynthesesystems hängen von vielen Parametern ab, d. h., Design und Optimierung sind ein Multiparameterproblem. Im Folgenden werden die wichtigsten Systemparameter der linearen Tomosynthese diskutiert.
4.3.2 Aufnahmemodi Eine Vielzahl von möglichen Geometrien für die synchronisierte Bewegung von Strahlungsquelle und Detektor relativ zum Objekt ist denkbar. In Abb. 4.5 (a) ist die geradlinige Bewegung sowohl von Röhre als auch von Detektor illustriert. Jedoch kann sich die Röhre bei geradliniger Detektorbewegung auch auf einem Kreisbogen um das Objekt bewegen (Abb. 4.5 (b)). Bei einer C-Bogen-Geometrie (Abb. 4.5 (c)) bewegen sich sowohl Röhre als auch Detektor synchron auf einem Kreisbogen. In der Mammographie befindet sich die Brust in unmittelbarer Nähe zum Detektor, um aufgrund der hohen Detektorauflösung eine hohe Systemauflösung zu erzielen. Deshalb wird hier meist der Detektor gar nicht oder nur sehr gering bewegt. Mit allen diesen Varianten ist die Realisierung der linearen Tomosynthese möglich. Die Geometrie muss lediglich bei der Bildrekonstruktion korrekt berücksichtigt werden. Da die meistens eingesetzten Detektoren einen festen Zyklus für Bestrahlungsund Auslesezeitintervall haben, wird die Röhre gepulst. Dabei kommen Systeme zum Einsatz, bei denen sich das Messsystem zwischen den Aufnahmen der Einzelprojektionen von einer Winkelposition zur nächsten bewegt, während der Aufnahme jedoch steht (sogenannte Step-and-Shoot-Betrieb). Es gibt aber auch Systeme mit kontinuierlicher Bewegung; in letzterem Fall besteht die Gefahr der Bewegungsverwischung. Bei den heute eingesetzten Tomosynthesesystemen ist die Bewegung allerdings rela-
4 Tomosynthese | 125
geradlinige Bewegung (a) von Röhre und Detektor
Bewegung der Röhre (b) auf einem Kreisbogen
(c)
C-BogenGeometrie
Abb. 4.5: Geradlinige Bewegung von Röhre und Detektor (a), Bewegung der Röhre auf einem Kreisbogen (b), C-Bogen-Geometrie (c).
tiv langsam, so dass sich diese Verunschärfung in der Praxis nicht auswirkt und nur einen kleinen Beitrag zur Systemauflösung darstellt. Die Aufnahmezeit kann verkürzt werden, wenn beim Auslesen des Detektors Pixel zusammengefasst werden (pixel binning). Der Verlust der Auflösung wird in der Bildqualität durch ein höheres Signal-Rausch-Verhältnis kompensiert. Details hängen vom Systemdesign, von den Eigenschaften des Detektors und von der Anwendung ab.
4.3.3 Tomosynthesewinkel, Anzahl der Projektionen und Dosis Der als Tomosynthesewinkel bezeichnete Scanwinkel (2𝛼) beeinflusst die Tiefenschärfe und die sogenannte vertikale Auflösung. Je größer der Winkelbereich ist, desto höher wird die Tiefenauflösung, desto kleiner wird die effektive Schichtdicke und desto weniger Out-of-plane-Artefakte erhält man. Aber auch die Kontrastauflösung von Objekten mit niedrigem Frequenzinhalt kann mit einem größeren Tomosynthesewinkel gesteigert werden [Zhao 2009, Mertelmeier 2008], da mehr Information speziell bei kleinen Ortsfrequenzen vorhanden ist (Abb. 4.3 und 4.4). Jedoch ist zu bedenken, dass bei Verwendung eines stationären, nicht mitbewegten Detektors das zugängliche Volumen durch die Schrägeinstrahlung verringert wird. Aus der CT ist bekannt, dass die Abtastung mit zu wenigen Projektionen zu Streifenartefakten führt. Dies gilt auch in der Tomosynthese, bei der i. A. das Winkelinkrement nicht größer als einige Grad sein sollte, um diese Streifenartefakte zu vermeiden. Da die heutigen Tomosynthesesysteme trotz eines speziellen Detektormodus eher Radiographiesystemen als CT-Systemen ähneln, wird die Zahl der Projektionen in der Praxis durch die minimal
126 | Thomas Mertelmeier mögliche Dosis für den Detektor bestimmt, um die Gesamtdosis auf die Größenordnung einer Radiographie zu begrenzen. Bei gegebener Bildrate des Detektors erhöhen mehr Projektionen die Aufnahmezeit. In der Praxis muss ein Kompromiss zwischen Bildqualität in Form von Auflösung, Rauschen, Artefaktniveau, Dosis und Untersuchungszeit gefunden werden. Dieser Kompromiss hängt vom eingesetzten Instrumentarium und von der Anwendung ab.
4.3.4 Gerätetechnik Mit Stand von Frühjahr 2012 sind nach Wissen des Autors vier kommerzielle Tomosynthesesysteme für radiologische Anwendungen erhältlich. Alle Tomosynthesegeräte sind als Modifikationen von Radiographie- bzw. Mammographiesystemen realisiert, was den praktischen Einsatz und die Akzeptanz erleichtert. Für den Einsatz in der Mammographie ist die Tomosynthese gemäß der wissenschaftlichen Literatur offensichtlich am interessantesten, da für diese Anwendung aufgrund der Strahlenbelastung die Ganzkörper-CT nicht in Frage kommt. Deshalb sind für die mammographische Anwendung auch einige Prototypen in Entwicklung. Für alle anderen Anwendungen steht als rekonstruktives 3D-Röntgenverfahren die CT mit echter 3D-Auflösung zur Verfügung.
4.4 Klinische Anwendungen Seit der ersten Konzeption der digitalen Tomosynthese werden zahlreiche klinische Anwendungen diskutiert. Jedoch ist bei den meisten Anwendungen die CT als Konkurrenzverfahren zu betrachten, was eine erfolgreiche Markteinführung erschwert und die Tomosynthese als Nischenanwendung erscheinen lässt. Eine Ausnahme ist die Brustbildgebung, da hier die CT aus Dosisgründen, zumindest heute, nicht als Alternative zur Verfügung steht. Deshalb wird im Folgenden zunächst die Anwendung auf die Brustbildgebung beschrieben. Danach wird auf andere Einsatzgebiete eingegangen.
4.4.1 Brust Die Brust- oder Mamma-Tomosynthese erfährt momentan sowohl in der Forschung als auch in der industriellen Entwicklung großes Interesse [Baker 2011]. Obwohl das Mammographie-Screening die einzige Brustbildgebung ist, für die in randomisierten kontrollierten Studien nachgewiesen wurde, dass damit die Mortalität (zwischen 20 und 40 %) gesenkt werden kann [Tabar 2000, Humphrey 2002, Nyström 2002, Berry 2005, Bick 2006], ist die Röntgenmammographie keineswegs perfekt. Es wur-
4 Tomosynthese | 127
de gezeigt, dass bei der Filmmammographie zwischen 15 und 30 % der Karzinome übersehen werden könnten [Bird 1992, Laming 2000]. Die digitale Mammographie erlaubt zwar, die Dosis zu senken, bringt aber in Hinsicht auf die diagnostische Leistungsfähigkeit höchstens eine geringe Verbesserung, wie in einer großen Studie mit fast 50 000 Frauen nachgewiesen wurde [Pisano 2005]. Die Ursache dafür ist in der komplexen Überlagerung von dichtem Brustgewebe bei der zweidimensionalen Abbildung zu finden, wodurch Läsionen übersehen oder – im umgekehrten Fall – vorgetäuscht werden können. D. h., sowohl Sensitivität als auch Spezifität sind nicht optimal. Der Effekt dieser Gewebeüberlagerungen auf die Bildqualität wird oft als anatomisches Rauschen oder Strukturrauschen bezeichnet. Durch die Rekonstruktion von Schichten können solche Gewebeüberlagerungen stark reduziert werden. Während eines der ersten Tomosynthesesysteme ein digitales Mammographiesystem mit kleinem Bildfeld, CCD-Detektor und TACT-Rekonstruktion war [Lehtimäki 2003], konzentrieren sich die heutigen Entwicklungen auf digitale Vollfeldmammographiesysteme. Die Anforderungen bei der Anwendung auf die Mammographie sind besonders hoch, da die zu entdeckenden Tumoren im Allgemeinen einen sehr kleinen Kontrast aufweisen und für die Entdeckung und Beurteilung von Mikrokalzifikationen eine hohe Ortsauflösung gegeben sein muss. Ein Beispiel für eine Tomosyntheseaufnahme der Mamma ist in Abb. 4.6 zu sehen. Es sind vier ausgewählte Schichten durch die Brust in der mediolateral-obliquen Position dargestellt. Schicht 1 und Schicht 39 (etwa 1 mm bzw. 39 mm über dem Objekttisch, Abb. 4.6 (a) und (d)) der auf 40 mm komprimierten Brust zeigen die Hautporen, subkutanes Fett und oberflächennahe Gefäße. In Schicht 21 (in 21 mm Höhe, Abb. 4.6 (b)) ist eine runde Struktur zu sehen, in Schicht 26 befindet sich der Schwerpunkt einer Mikrokalkgruppe (26 mm Höhe, Abb. 4.6 (c)). In den Abb. 4.6 (e) und (f) sind die Strukturen aus Abb. 4.6 (b) und (c) vergrößert dargestellt. Abb. 4.7 vergleicht eine Mammographieaufnahme (Abb. 4.7 (a)) mit einer Tomosyntheseschicht (Abb. 4.7 (b)) derselben Brust. In diesem Fall eines sehr dichten Brustgewebes wurde das Karzinom nur mithilfe der Tomosynthese gefunden. Die Rekonstruktion dieser Schichtbilder erfolgte mit dem in Kapitel 4.2.1 beschriebenen FBP-Algorithmus. Die Brusttomosynthese erscheint vielversprechend, da damit voraussichtlich mehr Tumoren in einem frühen Stadium gefunden werden können wie in ersten klinischen Studien gezeigt wurde [Andersson 2008, Teertstra 2010, Svahn 2010, Gur 2011, Svahn 2012]. Aber auch die Anzahl falsch positiver Befunde sollte sich reduzieren, da bei der tomosynthetischen Aufnahme mehr Information für die Diagnose zur Verfügung steht. Dazu wurden bereits mehrere Studien mit kleineren Patientenkollektiven veröffentlicht [Poplack 2007, Gur 2009]. Darüber hinaus werden zurzeit mehrere klinische Studien durchgeführt mit dem Ziel, die Einsatzgebiete (Screening, diagnostische Abklärung, Patientinnenkollektiv) für die Tomosynthese besser zu verstehen. Eine weitere zu klärende Frage ist die der Dosis. Während die heutigen
128 | Thomas Mertelmeier
(a)
(e)
1
(b)
21
(c)
26
(d)
37
(f)
Abb. 4.6: Rekonstruierte Schichten durch die Brust in MLO-Projektion. Von unten nach oben ((a) bis (d)), die Läsionen aus Schicht (b) und (c) sind in (e) und (f) vergrößert dargestellt. 25 Projektionen über 45°. Quelle: Dr. I. Andersson, Universitätskrankenhaus Malmö, Schweden.
Systeme mit einer Parenchymdosis von etwa der ein- bis zweifachen Dosis eines digitalen Mammogramms arbeiten, versprechen iterative Rekonstruktionsalgorithmen, die Dosis in den Bereich der Dosis für ein Mammogramm zu senken.
4.4.2 Lunge Das zweithäufigste Einsatzgebiet für die Tomosynthese dürfte zurzeit die Lungenbildgebung sein. Die wichtigste Anwendung ist die Entdeckung von Lungenknoten, die mit zweidimensionaler Projektionsradiographie wegen überlappender Gewebestrukturen nur schwer zu finden sind. Hier könnte die Tomosynthese eine kostengünstige Alternative mit niedriger Dosis zur CT darstellen. In einer kürzlich veröffentlichten
4 Tomosynthese | 129
(a)
(b)
Abb. 4.7: Mammogramm in MLO-Projektion (a) und eine rekonstruierte Tomosyntheseschicht durch dieselbe Brust (b), in welcher der in der Mammographie nicht gefundene Tumor sichtbar ist (ovale Markierung). Quelle: Baker 2011, mit freundlicher Genehmigung von Elsevier, Copyright [2011].
Studie [Vikgren 2008] mit 89 Patienten konnte gezeigt werden, dass die Rate der lokalisierten Lungenknoten mit der Tomosynthese etwa um den Faktor 3 höher liegt als bei der Projektionsradiographie bei weit niedriger Dosis als mit CT, jedoch bei niedrigerer Spezifität. Die Effektivdosis wurde mit 0,13 mSv angegeben [Johnsson 2010], was nur leicht über der einer Lungenaufnahme liegt. Ähnliche Ergebnisse wurden von Dobbins [Dobbins 2008] berichtet.
4.4.3 Orthopädie Auch bei orthopädischen Anwendungen ist die Anforderung an die Ortsauflösung hoch. Detektorbedingt haben Radiographiesysteme zum gegenwärtigen Zeitpunkt eine höhere Auflösung als CT, was für das Finden und Bewerten feiner Frakturen von Vorteil sein kann. Die Tomosynthese, implementiert auf einem Radiographie-/ Fluoroskopiesystem, liefert darüber hinaus dreidimensionale Information. Der Vorteil der Tomosynthese für orthopädische Anwendungen wurde von Flynn et al. [Flynn 2007] beschrieben. Die Rekonstruktion fand dabei mit einem Algorithmus statt, welcher der in Kapitel 4.2.1 beschriebenen gefilterten Rückprojektion sehr ähnlich ist. Abb. 4.8 zeigt zwei Tomosyntheseschichten, rekonstruiert mit ungefilterter Rückprojektion (Abb. 4.8 (a), (b)) entsprechend der konventionellen Tomographie
130 | Thomas Mertelmeier
(a)
(b)
(c)
(d)
Abb. 4.8: Zwei Schichten durch ein Kniephantom im Abstand von 1,6 cm voneinander, aufgenommen mit einem Siemens Obertisch-Fluoroskopiesystem (51 Projektionen über einen Winkelbereich von 56°), rekonstruiert mit ungefilterter Rückprojektion ((a), (b)) und mit gefilterter Rückprojektion ((c), (d)).
und mit der gefilterten Rückprojektion (Abb. 4.8 (c), (d)), wo deutlich der Kontrastund Schärfegewinn zu erkennen ist. Die Bildgebung von Fingergelenken zur Diagnose von Arthritis ist eine weitere orthopädische Anwendung [Duryea 2003].
4.4.4 Dentalbildgebung Als eine der ersten Anwendung wurde die digitale Tomosynthese für die Dentalbildgebung realisiert. Gründe hierfür dürften sein, dass digitale Detektoren mit kleiner Fläche schon relativ früh zur Verfügung standen und die Panoramaschichtaufnahme eine etablierte Technik war. Panoramaschichtverfahren, Orthopantomographie: Verfahren zur Aufnahme einer dentalen Röntgenaufnahme, bei der alle Zähne des Ober- und Unterkiefers in einem Bild dargestellt werden.
Für sogenannte Intraoralsysteme mit kreisförmiger Röhrenbewegung außerhalb des Kopfes wurde die zirkulare Tomosynthese mit TACT- oder FBP-Rekonstruktion [Webber 1997, Lauritsch 1998] entwickelt. Ein Beispiel zur Darstellung zweier Schichten durch einen Zahn ist in Abb. 4.9 gegeben. Die Verbesserung durch die gefilterte Rückprojektion (Abb. 4.9 (c), (d)) hinsichtlich Orts- und Kontrastauflösung gegenüber der traditionellen Schichttechnik (ungefilterte Rückprojektion, Abb. 4.9 (a), (b)) tritt deutlich zutage.
4 Tomosynthese | 131
(a)
(b)
(c)
(d)
Abb. 4.9: Zwei Schichten durch ein Phantom eines Backenzahns mit 3 Wurzeln; (a), (b) ungefilterte Rückprojektion, (c), (d) gefilterte Rückprojektion.
4.4.5 Weitere Anwendungen In der langen Geschichte der Tomosynthese wurden und werden noch weitere Anwendungen erprobt und erschlossen. Diese reichen von der Angiographie, Urologie (intravenöses Pyelogramm) bis zur Darmbildgebung. Neuerdings wird die Tomosynthese als Bildgebungsmodalität bei der bildgestützten Strahlentherapie diskutiert (s. Kap. 19.7) [Pang 2008, Maltz 2009]. Bei allen Anwendungen sind die relativ leichte Verfügbarkeit, geringe Dosis, exzellente Ortsauflösung in den Tomosyntheseschichten und niedrigen Kosten jedoch mit der Verfügbarkeit von CT abzuwägen, womit im Gegensatz zur Tomosynthese echte dreidimensionale Information gewonnen werden kann.
132 | Thomas Mertelmeier
Quellenverzeichnis Andersson I., Ikeda D. M., Zackrisson S., Ruschin M., Svahn T., Timberg P., Tingberg A.: Breast tomosynthesis and digital mammography: a comparison of breast cancer visibility and BIRADS classification in a population of cancers with subtle mammographic findings. Eur Radiol 2008; 18: 2817–2825. Baker J. A., Lo J. Y.: Breast tomosynthesis: state-of-the-art and review of the literature. Acad Radiol 2011; 18, 1298–1310. Berry D. A., Cronin K. A., Plevritis S. K., et al.: Effect of screening and adjuvant therapy on mortality from breast cancer. N Engl J Med 2005; 353: 1784–1792. Bick U.: Mammographie-Screening in Deutschland: Wie, wann und warum? Fortschr Röntgenstr 2006; 178: 957–969. Bird R. E., Wallace T. W., Yankaskas B. C.: Analysis of cancers missed at screening mammography. Radiology 1992; 184: 613–617. Bocage A. E. M.: Procédé et dispositifs de radiographie sur plaque en mouvement. Französisches Patent 536464, 1922. Claus B. E. H., Eberhard J. W.: A new method for 3D reconstruction in digital tomosynthesis. Proc SPIE 2002; 4684: 814–824. Dobbins J. T. III, McAdams P., Song J.-W., et al.: Digital tomosynthesis of the chest for lung nodule detection: interim sensitivity results from ongoing NIH-sponsored trial. Med Phys 2008; 35: 2554–2557. Duryea J., Dobbins J. T. III, Lynch J. A.: Digital tomosynthesis of hand joints for arthritis assessment. Med Phys 2003; 30: 325–333. Edholm P., Granlund G., Knutsson H., Petersson C.: Ectomography – a new radiographic method for reproducing a selected slice by varying thickness. Acta Radiologica 1980; 21: 433–442. Flynn M. J., McGhee R., Blechinger J.: Spatial resolution of x-ray tomosynthesis in relation to computed tomography for coronal/sagittal images of the knee. Proc SPIE 2007; 6510: 6510D1. Godfrey D. J., Warp R. J., Dobbins J. T. III: Optimization of matrix inverse tomosynthesis. Proc SPIE 2001; 4320: 696–704. Godfrey D. J., McAdams H. P., Dobbins J. T. III: Optimization of the matrix inversion tomosynthesis (MITS) impulse response and modulation trransfer function characteristics for chest imaging. Med Phys 2006; 33: 655–667. Grant D. G.: Tomosynthesis: a three-dimensional radiographic imaging technique. IEEE Trans Biomed Eng 1972; 19: 20–28. Grossmann G.: Procédé et dispositif pour la représentation radiographique des section des corps. Französisches Patent 771887, 1934. Gur D., Abrams G. S., Chough D. M., et al.: Digital Breast Tomosynthesis: Observer Performance Study. Am J Roentg 2009; 193: 586–591. Gur D., Bandos A. I., Rockette H. E., Zuley M. L., Sumkin J. H., Chough D. M., Hakim C. M.: Localized detection and classification of abnormalities on FFDM and tomosynthesis examinations rated under an FROC paradigm. Am J Roentg 2011; 196: 737–741. Härer W., Lauritsch G., Mertelmeier T.: Tomographie – Prinzip und Potenzial der Schichtbildverfahren. In: Schmidt T. (Hrsg.): Handbuch Diagnostische Radiologie, Bd. 1, Strahlenphysik, Strahlenbiologie, Strahlenschutz. Berlin: Springer, 2001: 191–199. Härer W., Lauritsch G., Mertelmeier T., Wiesent K.: Rekonstruktive Röntgenbildgebung. Physikalische Blätter 1999; 55: 37–42. Haerer W., Lauritsch G., Zellerhoff M.: Verfahren zur Rekonstruktion eines dreidimensionalen Bildes eines im Rahmen einer Tomosynthese abgetasteten Objekts sowie Vorrichtung zur Tomosynthese. Patentschrift DE19842944, 1998.
4 Tomosynthese |
133
Humphrey L. L., Helfand M., Chan B. K., et al.: Breast cancer screening: a summary of the evidence for the U. S. Preventive Services Task Force. Ann Intern Med 2002; 137: 347–360. Johnsson Å. A., Vikgren J., Svalkvist A., et al.: Overview of two years of clinical experience of chest tomosynthesis at Sahlgrenska university hospital. Radiation Protection Dosimetry 2010; 139: 124–129. Kunze H., Haerer W., Orman J., Mertelmeier T., Stierstorfer K.: Filter determination for tomosynthesis aided by iterative reconstruction techniques. In: 9th International Meeting on Fully ThreeDimensional Image Reconstruction in Radiology and Nuclear Medicine, 2007; 309–312. Laming D., Warren R: Improving the detection of cancer in the screening of mammograms. J Med Screen 2000; 7: 24–30. Lauritsch G., Haerer W. H.: A theoretical framework for filtered backprojection in tomosynthesis. Proc SPIE 1998; 3338: 1127–1137. Lehtimäki M., Pamilo M., Raulisto L., et al.: Diagnostic clinical benefits of digital spot and digital 3D mammography. Proc SPIE 2003; 5029: 698–706. Ludwig J., Mertelmeier T., Kunze H., Härer W.: A novel approach for filtered backprojection in tomosynthesis based on filter kernels determined by iterative reconstruction techniques. In: Krupinski E. (Hrsg.): Lecture Notes in Computer Science 5116, Digital Mammography, 9th International Workshop, IWDM 2008. Berlin, Heidelberg: Springer, 2008: 612–620. Maltz J. S., Sprenger F., Fuerst J., et al.: Fixed gantry tomosynthesis system for radiation therapy image guidance based on a multiple source x-ray tube with carbon nanotube cathodes. Med Phys 2009; 36: 1624–1636. Matsuo H., et al.: Three-dimensional image reconstruction by digital tomo-synthesis using inverse filtering. IEEE Transactions on Medical Imaging 1993; 12: 307–313. Mertelmeier T., Orman J., Haerer W., Kumar M. K.: Optimizing filtered backprojection reconstruction for a breast tomosynthesis prototype device. Proc SPIE 2006; 6142: 61420F. Mertelmeier T., Ludwig J., Zhao B., Zhao W.: Optimization of tomosynthesis acquisition parameters: angular range and number of projections. In: Krupinski E (Hrsg.): Lecture Notes in Computer Science 5116, Digital Mammography, 9th International Workshop, IWDM 2008. Berlin, Heidelberg: Springer, 2008: 220–227. Niklason L. T., Christian B. D., Niklason L. E., et al.: Digital tomosynthesis in breast imaging. Radiology 1997; 205: 399–406. Nyström L., Andersson I., Bjurstam N., et al.: Long-term effects of mammography screening: updated overview of the Swedish randomised trials. Lancet 2002; 359: 909–919. Paatero Y. V.: A new tomographical method for radiographing curved outer surfaces. Acta Radiol 1949; 32: 177. Pang G., Bani-Hashemi A., Au P., et al.: Megavoltage cone-beam digital tomosynthesis (MV-CBDT) for image-guided radiotherapy: A clinical investigational system. Phys Med Biol 2008; 53: 999–1013. Pisano E. D., Gatsonis C., Hendrick E., et al.: Diagnostic performance of digital versus film mammography for breast-cancer screening. N Engl J Med 2005; 353: 1773–1783. Poplack S. P., Tosteson T. D., Kogel C. A., Nagy H. M: Digital breast tomosynthesis: initial experience in 98 women with abnormal digital screening mammography. Am J Roentg 2007; 189, 616–623. Ruttimann U. E., Groenhuis R. A. J., Webber R. L.: Restoration of digital multiplane tomosynthesis by a constraint iteration method. IEEE Trans Med Imaging 1984; 3: 141–148. Suryanarayanan S., Karellas A., Vedantham S., et al.: Comparison of tomosynthesis methods used with digital mammography. Academic Radiology 2000; 7: 1085–1097. Svahn T., Andersson I., Chakraborty D., Svensson S., Ikeda D., Förnvik D., et al.: The diagnostic accuracy of dual-view digital mammography, single-view breast tomosynthesis and a dual-view combination of breast tomosynthesis and digital mammography in a free-response observer performance study. Radiation Protection Dosimetry 2010; 139: 113–117.
134 | Thomas Mertelmeier Svahn T. M., Chakraborty D. P., Ikeda D., Zackrisson S., Do Y., Mattson S., Andersson I.: Breast tomosynthesis and digital mammography: a comparison of diagnostic accuracy. Brit J Radiol 2012; accepted for publication Tabar L., Vitak B., Chen H. H., et al. The Swedish Two-County Trial twenty years later. Updated mortality results and new insights from longterm follow-up. Radiol Clin North Am 2000; 38: 625–651. Teertstra H. J., Loo C. E., van den Bosch M. A., et al.: Breast tomosynthesis in clinicla practice: initial results. Eur Radiol 2010; 20: 16–24. Vallebona A.: Radiography with great enlargement microradiography and a technical method for the radiographic dissociation of the shadow. Radiology 1931; 17: 340. Vikgren J., Zackrisson S., Svalkvist A., et al.: Comparison of chest tomosynthesis and chest radiography for detection of pulmonary masses. Radiology 2008; 249: 1034–1041. Webber R. L., Horton R. A., Tyndall D. A., Ludlow J. B.: Tuned-aperture computed tomography (TACT). Theory and application for three-dimensional dento-alveolar imaging. Dentomaxillofac Radiol 1997; 26: 53–62. Wiesent K., Barth K., Navab N., Durlak P., Brunner T. M., Schuetz O., Seissler W.: Enhanced 3-D reconstruction algorithm for C-arm systems suitable for interventional procedures. IEEE Trans Medical Imaging 2000; 19: 391–403. Wu T., Stewart A., Stanton M., et al.: Tomographic mammography using a limited number of low-dose cone-beam projection images. Med Phys 2003; 30: 365–380. Wu T., Moore R. H., Rafferty E. A., Kopans D. B.: A comparison of reconstruction algorithms for breast tomosynthesis. Med Phys 2004; 31: 2636–2647. Zhang Y., Chan H.-P., Sahiner B., et al.: A comparative study of limited-angle cone-beam reconstruction methods for breast tomosynthesis. Med Phys 2006; 33: 3781–3795. Zhao B., Zhou J., Yue-Houng Hu, Mertelmeier T., Ludwig J., Zhao W.: Experimental validation of a three-dimensional linear system model for breast tomosynthesis. Med Phys 2009; 36: 240–251. Ziedes des Plantes, B. G.: Een bijzondere methode voor het maken van Röntgenphoto’s van schedel en wervelkolom. Ned Tijdschr Geneesk 1931; 75: 5218–5222.
Weiterführende Literatur Dobbins J. T. III, Godfrey D. J.: Digital x-ray tomosynthesis: current state of the art and clinical potential. Phys Med Biol 2003; 48: R65–R106. Webb S.: From the watching of shadows. The origins of radiological tomography. Bristol and New York: Adam Hilger, 1990.
Testfragen 1. Beschreiben Sie das Prinzip der Tomosynthese. 2. Was ist der Unterschied zwischen konventioneller/klassicher Tomographie und der Tomosynthese? 3. Warum ist das inverse Problem der Tomosynthese nicht mathematisch exakt lösbar? 4. Beschreiben Sie die typischen Artefakte bei der Tomosynthese. 5. Was sind die wichtigsten/häufigsten Anwendungen der Tomosynthese in der medizinischen Bildgebung?
Kristin Kötz, Henrik Botterweck
5 Szintigraphie und SPECT 5.1 5.2 5.3 5.4 5.5 5.6 5.7 5.8 5.9
Einleitung und Geschichte | 136 Kernphysikalische Grundlagen | 137 Radiopharmaka | 140 Nuklearmedizinische Messtechnik | 142 Gammakamera und Szintigraphie | 149 SPECT | 156 Qualitätskontrolle | 167 Klinische Anwendungen | 168 Hybridbildgebung | 169
Zusammenfassung: Die Szintigraphie stellt die Verteilung eines radioaktiv markierten Pharmakons, das einen bestimmten Stoffwechselvorgang im Organismus verfolgt, bildlich dar. Die spezielle Technik der Einzelphotonen-Emissionstomographie (SPECT) liefert eine dreidimensionale Aktivitätsverteilung. Dieses Kapitel beschreibt die physikalischen und radiochemischen Grundlagen und widmet sich dann ausführlich dem Aufbau, der Funktion, den Leistungsmerkmalen und der Qualitätskontrolle der Gammakamera. Wir beschreiben den Einfluss verschiedener Aufnahmeparameter auf die Bildentstehung und erläutern die Rekonstruktion der Bilder. Abschließend wird ein Überblick zu diagnostischen Anwendungsmöglichkeiten und zur Hybridbildgebung gegeben. Abstract: Nuclear medicine uses radiolabeled drugs to trace a particular metabolic pathway in vivo. The image obtained is called a scintigram, and three-dimensional activity distributions can be obtained using single-photon emission computerized tomography (SPECT). This chapter briefly covers basic nuclear physics and radiochemistry and subsequently describes the principal components, function, performance parameters and quality control of a gamma camera. The effect of various acquisition parameters on the final image as well as the reconstruction of 3D images from 2D raw data are described. The chapter concludes with a brief overview of medical applications and hybrid imaging.
136 | Kristin Kötz, Henrik Botterweck
5.1 Einleitung und Geschichte In der Nuklearmedizin (lateinisch nucleus – Kern) werden Kernwechselwirkungen und Strahlung aus radioaktiven Kernübergängen zur diagnostischen Bildgebung (Szintigraphie) und zu therapeutischen Zwecken genutzt. Single Photon Emission Computed Tomography (SPECT) ist eine spezielle Technik der Szintigraphie zur Schnittbilddarstellung in der Nuklearmedizin und ermöglicht die dreidimensionale Darstellung der Aktivitätsverteilung eines Radiopharmakons im Körper des Patienten. Diese Aktivitätsverteilung wird mithilfe eines rotierenden zweidimensionalen Detektors, der sogenannten Gammakamera, außerhalb des Patienten erfasst, durch mathematische Algorithmen als dreidimensionale Aktivitätsverteilung rekonstruiert und üblicherweise in Schichtaufnahmen (z. B. transversale, coronale, sagittale Schnittführung) dargestellt. Single Photon Emission Computed Tomography (SPECT; dt. Einzelphotonen-Emissionscomputertomographie): funktionsabbildendes Verfahren in der Medizin zur überlagerungsfreien Schnittbilddarstellung auf Basis von Gammastrahlenemission von in den Körper eingebrachten Radiopharmaka.
Historisch waren dazu viele Erkenntnisse aus verschiedenen Wissenschaftsbereichen erforderlich, u. a. – die Entdeckung der Radioaktivität durch Henri Becquerel (1896), – die nach Johann Radon (1917) benannte Radon-Transformation und ihre Inversion, – die Herstellung künstlicher radioaktiver Isotope, erstmals das 13 N von Irene Curie und Frédéric Joliot (1934). Entwicklung von bildgebenden Geräten/Komponenten: – Entdeckung der Fähigkeit von bestimmten Kristallen, Quanten zu absorbieren und in Szintillationslicht zu konvertieren, – Beschreibung des Rektilinearscanners durch Benedict Cassen (1951), – gefolgt von der Entwicklung der Gammakamera durch Hal O. Anger (1953 erster Prototyp, publiziert 1958 in „Reviews of Scientific Instruments“; 1962 erste kommerzielle Gammakamera), – erste SPECT-Aufnahme durch Kuhl und Edwards (1963).
5 Szintigraphie und SPECT | 137
5.2 Kernphysikalische Grundlagen 5.2.1 Stabile und instabile Nuklide Jedes Element im Periodensystem kann unterschiedliche Kernvarianten (sogenannte Isotope) aufweisen. Isotope sind Atome desselben chemischen Elements (d. h., sie haben die gleiche Anzahl an Protonen), aber mit einer unterschiedlichen Anzahl von Neutronen. Alle Isotope eines chemischen Elements haben dieselben chemischen Eigenschaften, da der Aufbau der Atomhülle gleich ist. Nuklid: durch Protonen- und Neutronenanzahl spezifizierter Typ von Atomkernen. Isotop: Variante eines Nuklides, die sich von anderen Varianten mit derselben Kernladungszahl Z durch eine unterschiedliche Massenzahl A auszeichnet. Instabile Isotope (Radioisotope) gehen unter Aussendung von radioaktiver Strahlung in einen stabilen Zustand über.
Die Bezeichnung der Isotope eines Elements erfolgt folgendermaßen: AZ X mit A: Massenzahl (Zahl der Nukleonen im Kern), X: Symbol des chemischen Elementes, Z: Zahl der Protonen im Kern, Beispiel 131 53 I steht für Jod 131. Stabile Atomkerne zeichnen sich durch eine hohe Beständigkeit hinsichtlich der Protonen- und Neutronenzahl und ihrer inneren Energie gegenüber äußeren Einwirkungen aus. Instabile Atomkerne (radioaktive Isotope, Radionuklide) sind durch ein Missverhältnis zwischen Protonen und Neutronen oder durch eine zu hohe innere Energie charakterisiert. Sie zerfallen ohne äußeren Anlass und unabhängig von mechanischer, thermischer oder anderer Beeinflussung durch Energieabgabe in Form von radioaktiver Strahlung mit einer für das Isotop spezifischen Halbwertszeit, bis ein stabiler Atomkern mit normalem Protonen-Neutronen-Verhältnis entsteht und damit ein energetisch stabiler Endzustand erreicht wird. Beim Zerfall kommt es zur Emission von Strahlung, die genügend Energie besitzt, um Atome und Moleküle zu ionisieren, d. h., sie kann aus elektrisch neutralen Atomen und Molekülen positiv und negativ geladene Teilchen freisetzen.
5.2.2 Strahlungsarten Die Abgabe von Energie kann als Teilchen- (Korpuskel-)strahlung oder als elektromagnetisches Quant (Photon, Gammastrahlung) erfolgen (Tab. 5.1). Teilchenstrahlung nach Kernzerfall mit Alpha-Emission (𝛼-Strahlung), Beta-Minus-Emission (𝛽− -Strahlung) und Positronen-Emission (𝛽+ -Strahlung) ist für die Szintigraphie nicht unmittelbar nutzbar, allerdings kann dabei Gammastrahlung als Begleitprozess auftreten.
138 | Kristin Kötz, Henrik Botterweck Tab. 5.1: Strahlungsarten. Alphastrahlung Betastrahlung Gammastrahlung Positronenstrahlung Neutronenstrahlung
He2+ , auch 2 Protonen und 2 Neutronen Elektronen, auch Beta minus Photonen, meist mit hoher Energie > 100 keV Positronen (Antiteilchen von Elektronen), auch Beta plus Neutronen
Gammastrahlung (𝛾-Strahlung) Die 𝛾-Strahlung ist eine energiereiche elektromagnetische Strahlung mit diskreter Energie und sehr hoher Frequenz, etwa im Bereich medizinisch genutzter Röntgenstrahlung oder höher. Diese Strahlung kann ihrer Natur nach weder elektrisch noch magnetisch abgelenkt werden. Alle bei der diagnostischen Szintigraphie angewendeten Nuklide senden Gammaquanten aus.
Isomerer Übergang (Isomeric Transition, IT) Befindet sich ein Kern nach einem Zerfall für eine messbar lange Zeit in einem energetisch angeregten Zustand, spricht man von einem Isomer oder auch metastabilem Nuklid, das durch den Zusatz „m“ zur Massenzahl gekennzeichnet wird. Unter Emission von 𝛾-Strahlung gehen diese Nuklide in einen stabilen Zustand über, z. B. 99 Mo − (𝛽− , 𝛾) → 99m Tc − (𝛾) → 99 Tc.
Elektroneneinfang (Electron Capture, EC) Dieser Prozess steht in Konkurrenz zum 𝛽+ -Zerfall. Hierbei wird vom Kern ein Elektron aus der Elektronenhülle (meist aus der K-Schale) eingefangen. Bei der Auffüllung der in der Elektronenhülle entstandenen Lücke kommt es zur Emission von charakteristischer Röntgenstrahlung oder von Auger-Elektronen. Führt der Elektroneneinfang zu einem angeregten Folgekern, kommt es sekundär zur Emission von 𝛾-Strahlung, z. B. 201
Tl − (EC, 𝛾) → 201 Hg .
5.2.3 Zerfallsgesetz Das Zerfallsgesetz beschreibt, wie sich die Zahl der noch nicht zerfallenen Atomkerne einer radioaktiven Substanz im Laufe der Zeit verringert. Die Halbwertszeit (HWZ) ist die Zeit, in der die Hälfte der anfangs vorhandenen Atome zerfallen ist. Sie ist konstant und charakteristisch für jedes Isotop und wird auch als physikalische Halbwertszeit bezeichnet.
5 Szintigraphie und SPECT | 139
Radioaktives Zerfallsgesetz: N(t) = N0 ⋅ e−𝜆t
(5.1)
N0 Zahl der radioaktiven Atome zum Zeitpunkt Null N Zahl der radioaktiven Atome zum Zeitpunkt t 𝜆 Zerfallskonstante = ln(2/HWZ) mit HWZ: Halbwertszeit t Zeit
5.2.4 Aktivität Die Aktivität A ist die Zahl N der Zerfallsakte pro Zeiteinheit. Die SI-Einheit ist Becquerel = Zerfälle pro Sekunde. Definition der Aktivität: A(t) = −
dN(t) dt
Zahl der Zerfallsakte pro Zeiteinheit
(5.2)
5.2.5 Strahlenexposition und Dosis Die biologische Halbwertszeit beschreibt die Zeit, in der die Hälfte des Radiopharmakons aus dem Organismus ausgeschieden wird. Die effektive HWZ Teff berücksichtigt sowohl die physikalische Tphys als auch die biologische HWZ Tbiol : T(eff) =
T(phys) ⋅ T(biol) T(phys) + T(biol)
(5.3)
Die Energiedosis D ist die absorbierte Energie pro Masseeinheit. Die Einheit für die Energiedosis ist Gray (Gy); 1 Gy = 1 J/kg. Bei der Äquivalentdosis H wird die Energiedosis mit dem dimensionslosen Qualitätsfaktor Q gewichtet, der die relative biologische Wirksamkeit der verschiedenen Arten ionisierender Strahlung beschreibt. Die Einheit der Äquivalentdosis ist Sievert (Sv). H = D⋅Q (5.4) Die effektive Dosis Eeff berücksichtigt zusätzlich die unterschiedliche Empfindlichkeit verschiedener Gewebe und Organe mit dem dimensionslosen Gewebewichtungsfaktor wT . Die Einheit der effektiven Dosis ist ebenfalls Sievert (Sv) (s. Kap. 7, Biologische Wirkung ionisierender Strahlung und Dosimetrie). E = ∑ wT HT T
(5.5)
140 | Kristin Kötz, Henrik Botterweck Tab. 5.2: Häufig verwendete Isotope, Radiopharmaka und nuklearmedizinische Untersuchungsverfahren, zusammen mit typischen applizierten Aktivitäten und einer typischen effektiven Dosis. Isotop HWZ
Energie(n) der 𝛾-Strahlung
Pharmakon
Untersuchung
Applizierte Aktivität
99m
Phosphonate Pertechnetat Sestamibi
Skelett Schilddrüse Myokard Nebenschilddrüse Lungeninhalation Lungenperfusion
700 MBq 75 MBq 600 MBq 900 MBq 40 MBq 200 MBq
4,4 mSv 1 mSv 5 mSv 7,6 mSv 0,6 mSv 2,2 mSv
Hirnperfusion Lymphsystem Knochenmark
550 MBq 100 MBq 550 MBq
5 mSv 2 mSv 3 mSv
Niere Somatostatinrezeptor TumorSzintigraphie Schilddrüse Dopaminrezeptor
100 MBq 220 MBq
0,7 mSv 17 mSv
400 MBq
6 mSv
400 MBq 185 MBq
5 mSv 6,3 mSv
Tc
6h
141 keV
Tc Tc 99m Tc 99m Tc
6h 6h 6h 6h
141 keV 141 keV 141 keV 141 keV
99m
6h 6h 6h
141 keV 141 keV 141 keV
6h 67 h
99m 99m
Tc Tc 99m Tc 99m
99m
123
I
13 h
141 keV 171 keV 245 keV 159 keV
123
I I
13 h 13 h
159 keV 159 keV
111
Tc In
123
Aerosol makroaggregierte Albumine (MAA) ECD, HMPAO Kolloide Kolloide, Antikörper MAG3 Pentetreotide (Octreoscan® ) Iobenguane (MIBG) Jodid IBZM
Effektive Dosis
5.3 Radiopharmaka 5.3.1 Herstellung radioaktiver Isotope Natürlich vorkommende Radionuklide haben für medizinische Anwendungen eine zu lange HWZ und sind mit anderen Radionukliden verunreinigt. Eine Trennung der Nuklide ist technisch sehr aufwendig. Deshalb werden in der Nuklearmedizin künstlich hergestellte Radionuklide aus Reaktoren oder Zyklotronen eingesetzt. Sie sind durch kurze HWZ und hohe Radionuklidreinheit gekennzeichnet. Im Zyklotron werden z. B. 123 I, 67 Ga und 201 Tl produziert. Sie sind nicht täglich verfügbar und müssen unmittelbar nach der Anlieferung verwendet werden. Der Vorteil von Generatorsystemen ist die längere Verfügbarkeit direkt am Ort der Anwendung. Radionuklidgeneratoren enthalten in einem bleiabgeschirmten Gefäß ein Mutternuklid mit mittlerer HWZ, welches in das für die medizinische Anwendung gewünschte Tochternuklid mit kurzer HWZ zerfällt. Mit einem chemischen Verfahren werden die beiden Nuklide im Generator getrennt und das kurzlebige lässt sich danach mit einem Eluationsmittel (z. B. Kochsalzlösung) herauslösen. Der am häufigsten verwendete Generator ist der 99 Mo/99m Tc-Generator. Tab. 5.2 gibt einen Überblick über häufig verwendete Radioisotope.
5 Szintigraphie und SPECT | 141
5.3.2 Radionuklide zur nuklearmedizinischen Diagnostik Zur Anwendung kommen Radionuklide, die bestimmte chemische (für die Markierung) und physikalische (Strahlenart, Energie, HWZ) Eigenschaften aufweisen. Durch breite Verfügbarkeit, Preis, günstige Energie (140 keV) und HWZ (6 h) hat 99m Tc die größte Bedeutung bei der medizinischen Anwendung. Weitere Radionuklide sind Jodisotope aufgrund der natürlichen Affinität zur Schilddrüse und einfacher Markierungsverfahren. Infolge seiner Strahleneigenschaften (Betastrahler) findet 131 I fast ausschließlich Anwendung in der nuklearmedizinischen Therapie. Hingegen ist 123 I ein reiner Gammaemitter, und besitzt eine günstige HWZ (13,3 h). Jedoch ist die technische Herstellung (Zyklotron) aufwendiger, deshalb ist 123 I nur eingeschränkt verfügbar. 201 Tl wird als Thalliumchlorid insbesondere zur Herzdiagnostik eingesetzt, wird aber zunehmend von 99m Tc-markierten Substanzen abgelöst. Weitere Radionuklide zur nuklearmedizinischen Diagnostik sind u. a. 111 In, 67 Ga, 133 Xe sowie Positronenstrahler zur PET-Diagnostik (18 F, 11 C, 13 N, 15 O, 68 Ga, 82 Rb).
5.3.3 Radioaktive Markierung, Markierungsbesteck, Kinetik der Radiopharmaka Radiopharmaka (Tracer) sind reine Radioisotope oder mit Molekülen (Trägersubstanzen) markierte Radioisotope, die einen Stoffwechselvorgang, eine Organfunktion oder einen Austauschvorgang von Neurotransmittern im Körper beschreiben. Zum Einsatz kommen nur geringe Substanzmengen, welche die untersuchten Prozesse weder quantitativ noch qualitativ beeinflussen. Tracer: mit einem radioaktiven Isotop (Gammastrahler oder Positronenstrahler) markiertes Molekül in der nuklearmedizinischen Diagnostik, das man im Körper verfolgen möchte.
Markierungsbestecke (kits) ermöglichen eine Markierung des frisch eluierten Nuklids (z. B. 99m Tc) mit einer organspezifischen Trägersubstanz und werden von der Industrie für verschiedene Untersuchungen gebrauchsfertig angeboten. Die radioaktiven Markierungen finden in einem radiochemischen Labor am Ort der Anwendung statt und unterliegen Qualitätskontrollen, u. a. zur Radionuklid- und radiochemischen Reinheit. Die Prüfung des Tracers auf Toxizität, Sterilität, Pyrogenfreiheit und pH-Wert sind für den Anwender zu aufwendig und angesichts der kurzen physikalischen HWZ oft nicht vor der Anwendung durchführbar. Die Prüfungen werden daher bereits vom Hersteller der Kits durchgeführt. Die Biokinetik beschreibt das örtliche und zeitliche Verhalten von Pharmaka im Organismus. Radiopharmaka besitzen biochemische oder pharmakokinetische Eigenschaften, welche verschiedene Stufen eines bestimmten Stoffwechselweges (Resorption, Distribution, Metabolisierung, Exkretion) darstellen können.
142 | Kristin Kötz, Henrik Botterweck
5.4 Nuklearmedizinische Messtechnik 5.4.1 Detektoren für Gammaquanten Man unterscheidet – gasgefüllte Detektoren (Ionisationsmesskammern, Proportionalzählrohre, Geiger-Müller-Zählrohre) – Detektoren mit Flüssigkeitsszintillator – Detektoren mit Festkörperszintillator (Szintillationsdetektor, Thermolumineszenzkristall, Halbleiterdetektor) Der in den bildgebenden Verfahren am häufigsten genutzte Detektor zum Nachweis von Gammaquanten in dem von H. O. Anger entwickelten Gammakameraprinzip beruht auf der Szintillation. Seit einiger Zeit werden Detektoren, die nicht auf dem Szintillationsprinzip beruhen, z. B. Cadmium-Zink-Tellurid-(CZT-) Halbleiterdetektoren, kommerziell angewendet, aus Kostengründen derzeit aber nur in Gammakameras mit kleinem Gesichtsfeld, z. B. zur Herzdiagnostik. Szintillation: Abgabe von Lichtblitzen nach Anregung eines Materials durch energiereiche Strahlung. Gammakamera: Gerät zur Abbildung mit Gammaphotonen, vgl. Anger-Kamera. Anger-Kamera: Abbildung von Gammaphotonen mittels Kollimator, Szintillator und Photomultipliern. Bei jedem detektierten Ereignis wird zur Erhöhung der Ortsauflösung der Schwerpunkt von allen Photomultipliersignalen bestimmt.
Für nicht bildgebende Verfahren in der Nuklearmedizin stehen darüber hinaus sogenannte Bohrlochmessplätze, Szintillationssonden und Ganzkörperzähler (z. B. für Inkorporationsmessungen) zur Verfügung.
Szintillationsdetektor Wechselwirkungsprozesse zwischen den Gammaquanten und dem Szintillationsmaterial sind der Photoeffekt und die Compton-Streuung. Die Paarbildung ist bei den verwendeten Energiebereichen/Isotopen meist nicht relevant. Im Szintillationsdetektor erfolgt der Nachweis von ionisierender Strahlung durch die Umwandlung der Strahlungsenergie in sichtbares Licht. Diesen Effekt nennt man Szintillation (lat. scintillare = blitzen) oder auch Lumineszenz. Die Energie der Gammaquanten wird im Szintillator absorbiert und dabei werden die Elektronen des Szintillatormaterials auf ein höheres Energieniveau gebracht. Zum Wiedererreichen des Grundzustandes wird die absorbierte Energie durch das Aussenden von Lichtblitzen abgegeben. Die Lichtmenge, d. h. die Anzahl der Photonen des ausgesen-
5 Szintigraphie und SPECT |
143
Signale Elektronik Bleiabschirmung Photomultiplier Lichtleiter Kristall Kollimator einfallendes Gammaquant Abb. 5.1: Schematischer Aufbau eines Gammakamerakopfes.
deten sichtbaren Szintillationslichtes, ist proportional zur Energie der absorbierten Gammaquanten. Als Szintillationsdetektoren werden in der nuklearmedizinischen Bildgebung fast ausschließlich Thallium-dotierte Natriumjodidkristalle (NaI[Tl]) verwendet, da deren Eigenschaften am besten geeignet sind, um die verwendeten Gammaenergien zu detektieren. Ein Gammakameradetektor besteht aus einem (auswechselbaren) Kollimator, einem NaI(Tl)-Szintillationskristall, einem Lichtleiter (z. B. Silikonfett), einem Array von Photomultipliern und der weiterverarbeitenden Elektronik (Abb. 5.1).
5.4.2 Kollimatoren Durch den Kollimator werden die vom Objekt ausgesendeten Gammaquanten einer Filterung unterzogen, die letztlich eine Richtungsortung der Gammaquanten erlaubt. Ein Kollimator ist vom Prinzip her eine den Detektor bedeckende Blei- oder Wolframplatte mit Tausenden kleiner Löcher. Kollimator: Anordnung zur Orts-/Richtungsselektion von Strahlung/Teilchen, um z. B. im Falle von Gammateilchen ohne Linse eine Abbildung zu erreichen.
Das Kollimatormaterial wird so gewählt, dass es im Idealfall alle auf die Lochwände (Septen) treffenden Gammaquanten vollständig absorbiert. Das Durchtreten von Gammaquanten durch die Septen (Septenpenetration) verschlechtert die Bildqualität. Die Penetration sollte 5 % nicht überschreiten. Deshalb wird die Auswahl des Kollimators durch das benutzte Radioisotop und dessen charakteristische Gammaenergie(n) be-
144 | Kristin Kötz, Henrik Botterweck D
L
Punktbildfunktion
Z
Halbwertsbreite R D Z+— L R=— L 2
(
)
x
Abb. 5.2: Die Breite der Punktbildfunktion eines Kollimatorelementes wird kleiner, wenn D/L kleiner wird, und größer, wenn der Abstand Z größer wird.
Objekt
Detektor
Parallelloch
divergierend konvergierend
Pinhole
Abb. 5.3: Schematische Darstellung verschiedener Kollimatorengeometrien.
stimmt. Im Allgemeinen werden drei Energiebereiche (Niedrig-, Mittel-, Hochenergie) unterschieden. Die konkurrierenden konstruktiven Parameter, wie Anzahl der Löcher, Lochdurchmesser, Lochlänge und Septenwandstärke, werden so gewählt, dass ein bestmöglicher Kompromiss zwischen Septenpenetration, Ortsauflösung und Sensitivität erzielt wird. So erhöhen ein kleiner Lochdurchmesser und eine große Lochlänge die Ortsauflösung, verschlechtern aber gleichzeitig die Sensitivität (Abb. 5.2). Die geometrische Anordnung der Löcher im Kollimator kann parallel oder fokussierend sein. Am häufigsten werden Parallellochkollimatoren verwendet. Die Löcher fokussierender Kollimatoren können objektseitig divergierend oder konvergierend angeordnet sein; das abzubildende Objekt wird entsprechend verkleinert oder vergrößert (Abb. 5.3). Typische fokussierende Kollimatoren sind Fanbeam-
5 Szintigraphie und SPECT |
145
und Conebeam-Kollimatoren. Weitere Spezialkollimatoren sind Single-Pinhole, MultiPinhole, Slanthole und 7-Loch-Kollimatoren. Die Filterungsleistung der Kollimatoren wird deutlich, wenn man das Verhältnis der vom Kollimator durchgelassenen zu den eintreffenden Quanten betrachtet. Für einen Parallellochkollimator ist dies in etwa 10−5 bis 10−6 . Parallel-Kollimator: Kollimator, der aus vielen parallel angeordneten Öffnungen besteht. Pinhole-Kollimator: Kollimator aus einem oder wenigen Öffnungen („Camera obscura“).
5.4.3 Kristall Ein Gammaquant, welches den Kollimator passiert hat, gibt seine Energie teilweise (Compton-Effekt) oder vollständig (Photoeffekt) an den Szintillationskristall ab. Dabei ist die Intensität der Lichtemission proportional zur Energie der absorbierten Strahlung. Um die Lichtausbeute zu erhöhen, wird der Natriumjodidkristall mit Thallium dotiert. Dennoch wird nur ein sehr geringer Anteil der Wechselwirkungen im Kristall zu einer Szintillation führen, 80. . . 90 % der absorbierten Energie gehen als Wärmeenergie verloren. Compton-Effekt: Ergebnis des Wechselwirkungsprozesses von Photonen mit Materie. Das Photon streut an einem Elektron, gibt dadurch einen Teil seiner Energie an das Elektron ab und ändert seine Richtung (Compton-Streuung).
Für 99m Tc, dem meist verwendeten Nuklid, hat der NaI(Tl)-Kristall durch seine hohe Dichte und Ordnungszahl einen hohen Wirkungsgrad. Die Strahlenabsorption erfolgt überwiegend mittels Photoeffekt, somit wird eine sehr gute Lichtausbeute, Energieund Ortsauflösung erreicht. Eabs(𝛾) (5.6) NL = 𝜂K ⋅ EL NL Anzahl der Szintillationslichtquanten pro Absorption eines 𝛾-Quants hK Wirkungsgrad des Kristalls Eabs(𝛾) absorbierte Energie des 𝛾-Quants EL Energie des emittierten Lichtphotons Zwei Szintillationen können zeitlich nicht beliebig dicht aufeinander folgen (begrenztes zeitliches Auflösungsvermögen des Kristalls); während der sogenannten Totzeit können keine weiteren Szintillationen gemessen werden. Die Dicke eines Kristalls bestimmt die Empfindlichkeit und die Auflösung abhängig von der Energie des verwendeten Isotops. Ein dünner Kristall kann weniger Gam-
146 | Kristin Kötz, Henrik Botterweck Photokathode Lichtphoton fokussierende Elektrode
Dynode
PMT
Anode
Abb. 5.4: Photomultiplier PMP.
maquanten nachweisen, hat aber eine sehr gute räumliche Auflösung. In einem dickeren Kristall ist zum einen der Parallaxe-Effekt leicht schräg einfallender Gammaquanten höher, zum anderen erfolgt die Energieumwandlung zunehmend durch den Compton-Effekt, folglich verschlechtert sich die Ortsauflösung insbesondere bei niedrigen Energien. Die Wahl der Kristalldicke ist daher ein Kompromiss. Die typische Form des Kristalls ist heutzutage rechteckig. Die Dicke wird in Zoll angegeben; üblich sind für Gammakameras 3/8 Zoll (= 9,5 mm). Bei den meist rechteckigen Kristallen beträgt die Diagonale 60 bis 70 cm. Temperaturschwankungen des Kristalls sollten unbedingt vermieden werden, da auftretende Spannungen sehr schnell zum Kristallbruch führen können. Darüber hinaus ist der Wirkungsgrad der Lichtemission temperaturabhängig. Der Kristall ist außerdem gegenüber mechanischen Erschütterungen sehr empfindlich und stark hygroskopisch; Wassereinlagerungen können zum Verlust der Szintillationsfähigkeit führen. Der Szintillator ist direkt oder über einen Lichtleiter mit den Photomultipliern verbunden, an allen anderen Flächen ist der Kristall mit einer reflektierenden Aluminiumfolie ausgestattet.
5.4.4 Photomultiplier Die aus dem Kristall austretenden Lichtblitze werden von einem Array von Photomultipliern (PMP) in ein elektrisches Signal umgewandelt und anschließend verstärkt. Der PMP (auch Photomultiplier Tube, PMT oder Sekundärelektronenvervielfacher, SEV) besteht aus einem evakuierten Glaskolben mit einer Photokathode, weiteren Elektroden (Dynoden) und einer Anode (Abb. 5.4). Die angelegte Hochspannung hängt von der Zahl der Dynoden ab und beträgt ca. 1000 V. Über den Lichtleiter kann das Szintillationslicht auf die Photokathode der PMP treffen und dort infolge des photoelektrischen Effekts Elektronen freischlagen. Diese werden durch die von Dynode zu Dynode ansteigende Spannung auf die Anode hin beschleunigt und schlagen beim Auftreffen auf die Dynoden weitere Sekundärelektronen frei. Die Dynoden sind geometrisch so arrangiert, dass sie auf die jeweilig folgende fokussieren und somit insgesamt ca. 106 Sekundärelektronen pro Photon erzeugen können. Wichtig ist eine stabile Hochspannung, da sonst die Proportionalität zwischen der Intensität des Lichtes und der Zahl der freigesetzten Elektronen nicht
5 Szintigraphie und SPECT | 147
PMP
Vorverstärker
Linearverstärker
ADC
Ortungselektronik (x,y)
Z-Puls (Summen-)
Impulshöhenanalysator
Anzeigemonitor
Registriereinheit
Korrekturen
Abb. 5.5: Vereinfachte Darstellung der Komponenten der Signalverarbeitung.
mehr gegeben ist. Die intrinsische Auflösung eines Detektors steigt mit der Anzahl der Photomultiplier. Deren Anzahl pro Detektor variiert von weniger als 40 bis hin zu mehr als 100.
5.4.5 Nachgeschaltete Elektronik Die Ladungsimpulse des PMP haben eine zu geringe Signalamplitude und eine ungeeignete Form für die Weiterverarbeitung. Diesem tragen ein Vorverstärker und ein Linearverstärker Rechnung (Abb. 5.5). Weiterhin müssen die erzeugten Impulse dem Ort des Szintillationsereignisses zugeordnet werden. Bei modernen Detektoren werden sie bereits vor der Ortungselektronik, direkt nach der Verstärkung der Impulse, digitalisiert. Im Vorverstärker werden die Ladungsimpulse zunächst linear um den Faktor 5. . . 20 verstärkt, dies wird für die später folgende Analyse der Energiebereiche vorausgesetzt. Zum anderen werden die Ladungsimpulse in Spannungsimpulse umgewandelt. Im Linearverstärker werden die vom Vorverstärker gelieferten Spannungsimpulse wiederum auf einige Volt linear verstärkt und die noch relativ breiten Signale werden in eine Form gebracht, die die Signaldauer erheblich verkürzt. Dies ermöglicht eine höhere Zählrate. Die bislang verarbeiteten Signale sind analoge Signale. Für die weitere Verarbeitung, Speicherung und zur Anzeige am Computermonitor werden sie mittels eines Analog-Digital-Konverters (ADC) digitalisiert.
Elektronische Ortszuordnung Die elektronische Ortszuordnung beruht meistens auf dem analogen Prinzip der Widerstandsmatrix von Anger. Da für die Ortungsanalyse viele verschiedene, mehr oder
148 | Kristin Kötz, Henrik Botterweck N gestreut
primär
E₀
E
Abb. 5.6: Ein Impulshöhenanalysator kann primäre Gammaquanten von gestreuten Gammaquanten relativ gut trennen. Je höher die untere Schwelle gesetzt wird, desto besser werden gestreute Quanten unterdrückt. Gleichzeitig werden aber auch immer mehr primäre Quanten abgeschnitten.
weniger digitalisierte Modifizierungen existieren, soll hier nur das grundlegende Prinzip dargestellt werden. In einem über dem Szintillationskristall zentrisch angeordneten Koordinatensystem sind jedem Photomultiplier vier Widerstandspaare zugeordnet, so dass jedes Photomultiplier-Ausgangssignal durch vier Koordinaten (+x, −x, +y, −y) beschrieben und der Positionierungselektronik zugeleitet wird.
Z-Puls (amerik. Zee) Da die Energie des registrierten Gammaquants proportional zur Höhe des Impulses ist, kann dieser Impuls einem entsprechenden Energiekanal zugeordnet werden. Für die sogenannte Impulshöhenanalyse werden alle vier Ortsausgangssignale (+x, −x, +y, −y) nach der Ortungsanalyse der PMP zum Z-Puls aufsummiert und an den Impulshöhenanalysator weitergegeben.
Impulshöhenanalysator Der Impulshöhenanalysator (Pulse Height Analyzer, PHA) erkennt und charakterisiert den Energiebereich der gemessenen Impulse. Mithilfe zweier Diskriminatoren werden eine untere und eine obere Schwellenhöhe eingestellt ( Abb. 5.6). Ihre Differenz ist der gemessene Energiekanal, der charakteristisch für jedes Nuklid ist. Dieser erlaubt den Ausschluss unerwünschter Energien (z. B. von gestreuten Quanten), d. h., diese Einheit filtert die registrierten Ereignisse. Man unterscheidet die Systeme nach Einkanal-, Mehrkanal- und Vielkanal-Analysatoren. Für die üblicherweise verwendeten Gammakameras sind das Vielkanal-PHAs mit 256 bis 512 Kanälen.
Registriereinheit Die angeschlossene Registriereinheit bereitet die Anzeige und Speicherung der vom PHA durchgelassenen Impulse vor und dient der Ablaufsteuerung der Aufnahme (z. B. Messzeit). An modernen Gammakameras werden ausschließlich digitale Registrier-
5 Szintigraphie und SPECT | 149
einheiten verwendet. Man unterscheidet dabei die Anzeige von Impulszahl und Impulsrate. Letztere wird angegeben in cpm (counts per minute) oder cps (counts per second). Der Zähler (counter) arbeitet in zwei verschiedenen Modi. Zum einen kann die Aufnahme nach einer voreingestellten Messzeit (preset time) beendet werden. Ebenso kann eine bestimmte Impulszahl (preset counts) voreingestellt sein und die Messung wird nach deren Erreichen automatisch beendet. Auch eine Kombination beider ist möglich, so dass die Messung beendet wird, wenn eine der beiden Voreinstellungen erfüllt ist. Die gesamte elektronische Nachverarbeitung (u. a. Impulsanalyse, Signalkorrekturen und Pile-up-Korrektur) wird, ebenso wie die Korrekturen (z. B. Energie, Linearität, Homogenität), in modernen Kameras in real time mikroprozessorgesteuert durchgeführt, d. h., bevor die Daten zum Auswerterechner übermittelt werden.
5.5 Gammakamera und Szintigraphie Gammakamerasysteme gibt es in den unterschiedlichsten Ausführungen (Abb. 5.7). Sie unterscheiden sich in der Größe, Anzahl, Anordnung und den Bewegungsmöglichkeiten der Detektoren. Es gibt ein sehr vielfältiges Angebot an Gammakameras, z. B. feststehende Gantry, frei bewegliche Detektoren oder kleine mobile Kameras. Auch die Größe des Gesichtsfeldes (Field of View, FOV) kann variieren. Szintigraphie: funktionsabbildendes projektives Verfahren in der Medizin auf Basis von Gammastrahlenemission durch in den Körper eingebrachte Radiopharmaka.
Für SPECT können Ein- und Mehrkopfsysteme verwendet werden, vorzugsweise sind dies mindestens zwei Detektoren (sogenannte Doppelkopfkameras). Dabei können die Detektoren meist in unterschiedlichen Winkeln zueinander stehen (180°, 90°, 76°). In der Praxis hat sich die Doppelkopfkamera mit einem großen FOV als das am vielseitigsten einsetzbare System durchgesetzt.
5.5.1 Charakteristika/Kenngrößen Die wesentlichsten Leistungsmerkmale einer Gammakamera sind: – Ausbeute – Ortsauflösung – Energieauflösung – Zeitlauflösung – Linearität – Homogenität
150 | Kristin Kötz, Henrik Botterweck
Photomultiplier Kristall Kollimator
ein Messkopf, kreisförmiger Orbit
zwei Messköpfe
ein Messkopf, elliptischer Orbit
drei Messköpfe
Abb. 5.7: Verschiedene Anordnungen und Anzahl von Messköpfen bei Gammakameras.
Weitere Kenngrößen sind: – Modulationsübertragungsfunktion (MTF) – Gesichtsfeld – Matrixgröße/Pixelgröße – Abbildungsmaßstab/Rastermaßstab
Ausbeute Mit „Ausbeute“ bezeichnet man die Nachweisempfindlichkeit für Gammaquanten – sie wird durch das Verhältnis von gemessenen zu tatsächlichen Impulsen einer radioaktiven Quelle beschrieben. Beeinflusst wird die Ausbeute maßgeblich vom Kollimator, der Kristalldicke und dem Energiefenster.
Ortsauflösung Die Ortsauflösung beschreibt die Fähigkeit des bildgebenden Systems, zwei getrennte Strukturen (Punktquelle oder auch Linienquelle) voneinander getrennt im Szintigramm abzubilden. Die Abbildung einer Punkt- oder Linienquelle wird auch als Point
5 Szintigraphie und SPECT | 151
30 mm
5 cm
10 cm
15 cm
20 cm
25 cm
30 cm
40 cm
50 cm
Abb. 5.8: Abstandsabhängige Variation der extrinsischen Auflösung am Beispiel der PSF einer Punktquelle.
Spread Function (PSF, Punktantwortfunktion) oder Line Spread Function (LSF) bezeichnet. Die Halbwertsbreite (Full Width at Half Maximum, FWHM) dieser Funktion gilt als Maß der räumlichen Auflösung und wird in mm angegeben. Man unterscheidet zwischen der intrinsischen Auflösung (auch inhärente Auflösung, ohne Kollimator) und der extrinsischen Auflösung (auch Systemauflösung, mit Kollimator). Da die Ortsauflösung stark von den Kollimatoreigenschaften und vom Abstand des zu messenden Objektes vom Detektor (Abb. 5.8) abhängt, kommt der Systemauflösung die größere Bedeutung zu. Die intrinsische Auflösung der heutigen Gammakameras liegt bei ca. 4. . . 10 mm. Sie ist abhängig von der Energie der Gammaquanten und nimmt mit dem Inversen der Wurzel ihrer Energie ab. Die räumliche Auflösung des Kollimators wird bestimmt von den geometrischen Eigenschaften wie Lochdurchmesser, Anzahl der Löcher, Lochlänge.
Energieauflösung Die Energieauflösung ist die Fähigkeit, zwei Gammaquanten unterschiedlicher Energie als solche zu erkennen. Da die Szintillation einen stochastischen Prozess darstellt, werden Gammaquanten derselben Energie i. A. zu unterschiedlich hohen Messimpulsen führen. Diese statistischen Schwankungen führen effektiv zu einer Faltung des linienhaften Photopeaks, der somit einer Gauss-Verteilung (Abb. 5.2.) ähnelt. Die Registrierung kurz hintereinander eintreffender Quanten, die im Körper des Patienten Compton-gestreut wurden, können durch deren Aufsummierung fälschlich in das Photopeakfenster fallen. Die Energieauflösung wird als relative Halbwertsbreite angegeben und ist auf eine bestimmte Energie bezogen. Oft wird sie auch als Zehntelwertsbreite (Full Width at Tenth Maximum, FWTM) angegeben. Für NaI(Tl)-Detektoren ist die Energieauflösung < 10 %. Beeinflussende Faktoren sind Kristallmaterial, Kristalldicke und die Energie der Photonen.
Zählrate
152 | Kristin Kötz, Henrik Botterweck
Aktivität
Abb. 5.9: Zählrate in Abhängigkeit von der Aktivität.
Zeitauflösung Die zeitliche Auflösung ist die Zeit, die vom gesamten System benötigt wird, um ein absorbiertes Gammaquant zu verarbeiten. In dieser Zeit können keine weiteren Impulse registriert werden (Totzeit des Systems). Die zeitliche Auflösung des Systems bedingt die von dem System verarbeitbare Impulsrate, welche proportional zur Aktivität ist. Wird bei zunehmender Impulsrate ein Schwellenwert überschritten, können nicht mehr alle tatsächlich vorhandenen Impulse registriert werden. Es kommt durch die Totzeit des Systems zum Zählratenverlust oder zu sogenannten Pile-up-Effekten, die etwa gleichzeitig detektierte Photopeakereignisse zu einem Ereignis falscher Energie zusammenfassen (i.A. eine etwas über dem Photopeak liegende Energie). Die Impulsratencharakteristik kann als Funktion von gemessener Zählrate zur Aktivität dargestellt werden (Abb. 5.9).
Linearität Die Linearität beschreibt die Nichtverzerrung etwa einer räumlich geraden Struktur. Nach dem Anger-Prinzip operierende Detektoren verzerren die Linearität jedoch immer. Zur Korrektur wird eine Aufnahme mit einer geometrischen Bleimaske, die auf die Kristalloberfläche platziert und von einer fernen Punktquelle beleuchtet wird, herangezogen. Üblicherweise wird eine Korrekturmatrix, die das gemessene, verzerrte Bild auf die bekannte, unverzerrte Bleimaske abbildet, berechnet und im Kamerakopf gespeichert. Dies ist die Linearitätskorrektur.
Homogenität Die „Homogenität“ ist eine homogene bildliche Darstellung einer gleichmäßigen Aktivitätsverteilung. Sie folgt immer nach der Linearitätskorrektur. Die Inhomogenität eines Systems wird als differentielle und integrale Inhomogenität angegeben. Die Impulswerte bei der differentiellen Inhomogenität Idiff werden durch die größte Differenz 𝛥Wmax von fünf benachbarten Pixelwerten in einer Spalte
5 Szintigraphie und SPECT |
(a)
153
(b)
Abb. 5.10: Homogenität vor Korrektur (a), nach Korrektur (b).
Fouriertransformation
MTF
PSF
1
Abb. 5.11: Grafische Darstellung von PSF und MTF.
oder Zeile beschrieben, bezogen auf die Summe dieser Werte: Idiff [⋅] = 100 ⋅
𝛥Wmax ∑W
(5.7)
Die integrale Inhomogenität Iint beschreibt den größten Unterschied von zwei Impulswerten im gesamten Gesichtsfeld: Iint [⋅] = 100 ⋅
Wmax − Wmin Wmax + Wmin
(5.8)
Inhomogenitäten, die ohne Kollimator gemessen werden, bezeichnet man als inhärent (intrinsisch), mit Kollimator wird die Systeminhomogenität (extrinsisch) ermittelt. Insbesondere bei SPECT kann eine zu große Inhomogenität zu starken Abbildungsartefakten führen. Eine Korrekturmatrix kann die Inhomogenität ausgleichen (Abb. 5.10). Diese erfolgt, wie auch die Linearitätskorrektur, schon während der Datenerfassung in Echtzeit.
Modulationsübertragungsfunktion Die Modulationsübertragungsfunktion (Modulation Transfer Function, MTF) beschreibt die quantitative Abbildungseigenschaft des Systems (Abb. 5.11). Sie ergibt sich üblicherweise aus dem Leistungsspektrum der Fouriertransformierten der PSF (oder LSF) (s. Kap. 21, Systemtheorie).
154 | Kristin Kötz, Henrik Botterweck Gesichtsfeld Das Gesichtsfeld wird von der Kristallgröße und vom Kollimator bestimmt. Angegeben werden Länge/Breite und/oder die Diagonale. Unterschieden werden, insbesondere für Qualitätskontrollen, das gesamte nutzbare Gesichtsfeld (Useful Field of View, UFOV) und das zentrale Gesichtsfeld (Central Field of View, CFOV, ca. 75 % vom UFOV).
Matrixgröße/Pixelgröße Die Aufteilung der Detektorfläche erfolgt in ein Raster quadratischer Elemente. Das Raster selbst wird auch dann quadratisch angelegt, wenn der Kristall rechteckig ist. Die Matrixwahl erfolgt vor der Aufnahme (im frame mode, s. u.) und bestimmt neben der Zoomeinstellung die Pixelgröße und limitiert damit die Ortsauflösung. Typische Matrixgrößen sind 64 × 64, 128 × 128, 256 × 256, 512 × 512. Für Ganzkörperaufnahmen werden i. A. rechteckige Matrizen mit 256 x 1024 Pixeln verwendet.
Abbildungsmaßstab/Rastermaßstab Der Abbildungsmaßstab wird definiert als x : y-Verhältnis eines Pixelelements und ist vom verwendeten Kollimator abhängig. Für Parallellochkollimatoren sollte er 1 : 1 betragen. Werden divergierende oder konvergierende Kollimatoren benutzt, so ist der Abbildungsmaßstab weitgehend vom Abstand des Objektes zum Kollimator bestimmt. Der Rastermaßstab ist als Kehrwert der Pixelgröße (Pixel/cm) definiert.
5.5.2 Aufnahmetechniken Bei der szintigraphischen Bildgebung können unterschiedliche Aufnahmetechniken verwendet werden. Zunächst bedingt durch die Form des Detektors, sind alle Aufnahmen (Szintigramme) zweidimensionale Darstellungen. Die planare Aufnahmetechnik bildet dabei die Aktivitätsverteilung von radioaktiven Stoffen aus einem dreidimensionalen Raum (Volumen, Patient, Phantom) im Gesichtsfeld der Gammakamera als zweidimensionales Bild ab. Genau genommen wird das mit einem Sensitivitätsfaktor multiplizierte Integral der Aktivität auf einem sich mit zunehmender Entfernung aufweitenden Kegel durch den Körper des Patienten gemessen. Planare Szintigramme können über eine bestimmte Zeitdauer (statische Aufnahme) und bei Bewegung des Detektors oder Patiententisches entlang der Längsachse des Patienten auch als Ganzkörperszintigramm angefertigt werden (Abb. 5.12). Die Aufnahme schneller planarer Bildserien (z. B. ein Bild pro Sekunde) wird als dynamische Akquisition bezeichnet und typischerweise direkt nach Injektion des Radiopharmakons zur Beurteilung der regionalen Perfusion eingesetzt. Hierbei und immer
5 Szintigraphie und SPECT |
(a)
(b)
(c)
(d)
155
Abb. 5.12: Szintigraphie und SPECT: (a) statische Aufnahme der Schilddrüse. (b) Dynamische Nierensequenz. (c) Skelettganzkörperszintigraphie. (d) SPECT-Hirnperfusion.
wenn die Gammakamera bewegt wird, muss jede gemessene Zählrate mithilfe der bekannten Zerfallskonstante des verwendeten Isotops auf eine Aktivität zur Zeit der Injektion korrigiert werden. Für eine Volumendarstellung ist es notwendig, eine bestimmte Anzahl planarer Projektionen aus verschiedenen Winkelrichtungen zum Objekt aufzunehmen. Diese Aufnahmetechnik wird als SPECT bezeichnet. Mithilfe spezieller mathematischer Rechenalgorithmen (s. Kap. 5.6.1 und Kap. 3.4, Computertomographie) ist es möglich, aus zweidimensionalen Projektionsbildern einen dreidimensionalen Volumendatensatz zu berechnen und die Radioaktivitätsverteilung überlagerungsfrei in einzelnen Schichten darzustellen (Tomographie). Wenn die Projektionen mit zusätzlichen Informationen, z. B. EKG oder Atmung des Patienten, verbunden sind, spricht man von einem getriggerten (gated) SPECT. Bei der Aufnahme von Szintigrammen unterscheidet man den frame mode und den list mode. Beim frame mode wird jedes registrierte Quant sofort bezüglich seines Ereignisortes in einer vorher definierten Bildmatrix gespeichert. Die Information des
156 | Kristin Kötz, Henrik Botterweck Zeitpunktes der Registrierung wird somit entweder gänzlich verworfen oder implizit verwertet, etwa bei der Nutzung einer Bildmatrix pro Winkelstellung des SPECTDetektors. Beim list mode werden die Orts- und Zeitinformationen der registrierten Quanten fortlaufend gespeichert. Oftmals werden andere simultan akquirierte Informationen (EKG-, Atemtriggerung oder Bewegung) mit synchronisierten Zeitmarkern erfasst und erlauben eine vielfältige Nachbearbeitung der Bilddaten unter gewissen Gesichtspunkten (reframing). Dies erfordert einen wesentlich größeren Speicherplatz, eine spezielle Software zur Datenverarbeitung und wird deshalb meist nur zu speziellen Untersuchungen genutzt. Bei szintigraphischen Bilddaten können viele Möglichkeiten der digitalen Bildverarbeitung und -auswertung (z. B. Glättungsfilter, Kantenfilter, Quantifizierung mittels ROI [Region of Interest] oder VOI [Voxel of Interest], Zeit-Aktivitäts-Kurven) genutzt werden.
5.6 SPECT 5.6.1 Prinzip SPECT als tomographische Darstellung bedingt die Aufnahme mehrerer Projektionsbilder aus verschiedenen Richtungen. Deshalb muss die Halterung der Kamera eine Rotation des Detektors um die zu untersuchende Region ermöglichen (Abb. 5.13). Dabei nimmt der Detektor in einer vordefinierten Anzahl von Winkelschritten zweidimensionale Bilder (Projektionen) auf. Nach Rekonstruktion dieser Projektionsaufnahmen erhält man überlagerungsfreie Schnittbilder. Dabei sollten möglichst viele Projektionsbilder in kleinen Winkelabständen mindestens über einen Winkelbereich von 180°, besser über einem Vollkreis aufgenommen werden. Günstig sind mindestens zwei Detektoren, so dass für 360° -Projektionen jeder Detektor nur einen Halbkreis abtasten muss.
5.6.2 Aufnahmeparameter Ideale Aufnahmeparameter (große Anzahl von Projektionen, lange Aufnahmezeit, minimaler Objekt-Detektor-Abstand, streuungsfreies Objekt, hochauflösende Matrix) stehen im Kontrast zu den realen Bedingungen. Deshalb müssen die Parameter sorgfältig ausgewählt werden und sind immer ein Kompromiss zwischen Zählratenstatistik, räumlicher Auflösung und der Untersuchungsdauer. Lange Untersuchungszeiten führen zu Patientenbewegungen und verursachen Bewegungsartefakte. Statistisch ausreichend hohe Impulszahlen und damit ein verbessertes Signal-Rausch-Verhältnis können durch entsprechend hohe Aktivitäten, lange Aufnahmezeiten und die optimale Wahl des Kollimators erreicht werden. Aus
5 Szintigraphie und SPECT | 157
Gammakamera
Abb. 5.13: Messprinzip bei der SPECT: rotierende Gammakamera.
Strahlenschutzgründen ist die Dosis für den Patienten so gering wie möglich zu halten (sogenannte diagnostische Referenzwerte). Der Detektorabstand zum Patienten sollte so gering wie möglich sein, um Auflösungsverluste zu minimieren.
Energiefenster Das Energiefenster (peak) und die Fensterbreite müssen entsprechend dem verwendeten Isotop voreingestellt sein und sollten überprüft werden.
Kollimatorwahl Entscheidend ist die Energie des Isotops. Unterteilt in nieder-, mittel- und hochenergetische Bereiche, stellt die Kollimatorwahl einen Kompromiss von Empfindlichkeit (Ausbeute) und Ortsauflösung dar. Bei höheren Energien bedingt die stärkere Septenpenetration dickere Kollimatorwände, was andererseits die Sensitivität oder bei entsprechend vergrößerten Öffnungen auch die Ortsauflösung verringert. Der am häufigsten verwendete Kollimator ist der Parallellochkollimator mit hoher Ortsauflösung.
Matrix Die Matrix sollte der untersuchten Körperregion (bzw. dem untersuchten Organ) und der Systemauflösung angepasst sein. Generell gilt, dass der Verlust an räumlicher Auflösung, der mit der Verwendung einer kleineren Matrix einhergeht, irreversibel ist. Bei Verwendung von größeren Matrizen kann es zu einer zu geringen Impulszahl pro Pixel kommen. In diesem Fall sind iterative Rekonstruktionsverfahren, die explizit
158 | Kristin Kötz, Henrik Botterweck die statistische Verteilung der Zählraten berücksichtigen (s. u.) vorteilhaft. Dies gilt für aktuelle iterative Rekonstruktionsmethoden nicht mehr. Größere Matrizen benötigen mehr Speicherplatz und Rechenleistung. Üblich für die SPECT ist 128 × 128.
Zoom Für kleine Objekte kann es sinnvoll sein, bei der Akquisition das aktive Gesichtsfeld des Detektors zu verändern, d. h. im Allgemeinen zu verkleinern. Dabei wird der Rastermaßstab geändert und nicht die Matrixgröße. Für den Rekonstruktionsalgorithmus ist es notwendig, immer den ganzen Körper von ganz rechts bis ganz links im Blickfeld zu haben. Falls dies nicht der Fall ist, sind spezielle Korrekturen zur Vermeidung von Trunkations-(Abschneide-)artefakten notwendig.
Rotationswinkel Für den Rekonstruktionsalgorithmus notwendig sind viele Projektionen über einen Bereich von 180°. Optimal ist die Aufnahme von Projektionen in einem Vollkreis, da nur so eine gleichmäßig gute Auflösung erreicht werden kann. Bei nur 180° wird die Zählstatistik der rückwärtigen Bereiche wegen der Absorption unter Umständen zu schlecht (im Unterschied zur CT). Bei Doppelkopfkameras mit gegenüberstehenden Detektoren ist demnach eine Abtastung um 180° ausreichend. Für nicht zentrisch liegende Organe (Herz) ist es auch üblich, Projektionen über einen Rotationswinkel von nur 180° zu akquirieren; dabei stehen die Detektoren in einem Winkel von 90° oder 76° zueinander.
Rotationsform Die Detektoren können sich in einem fest definierten Abstand kreisförmig (circular) oder auf einer elliptischen (non circular) Bahn körpernah um das Objekt bewegen.
Rotationsbewegung Die Rotation kann schrittweise (step and shoot) oder kontinuierlich (continuous) erfolgen. Bei der schrittweisen Bewegung bleibt der Kamerakopf zur Aufnahme einer Projektion in vordefinierten Winkelschritten stehen, um nach der Aufnahme in die nächste Position zu rotieren. Bei der kontinuierlichen Bewegung werden mit stetig rotierendem Kamerakopf fortlaufend Projektionsdaten aufgenommen und in einer vorgegebenen Anzahl von Projektionen gespeichert. Mit zunehmender Projektionszahl wird beim schrittweisen Modus der Zeitanteil für die Bewegungen (Anfahren und Stoppen) an der Gesamtaufnahmedauer größer. Daher gewinnt der kontinuierliche Modus an Bedeutung, wobei die Auflösungsverluste durch die kontinuierliche Bewegung meist vernachlässigbar sind.
5 Szintigraphie und SPECT | 159
Projektionen Für eine artefaktfreie Rekonstruktion mit guter Auflösung ist prinzipiell eine hochauflösende Matrix notwendig. Für analytische Rekonstruktionen sind darüber hinaus Projektionsbilder in 180°-Rotation (s. o. Rotationswinkel) mit möglichst kleinen Winkelschritten notwendig, wobei sich hier die Zahl der Projektionen bei gewählter Matrix durch das Abtasttheorem ergibt. So sollten für eine SPECT mit 128 × 128 Pixeln bei einer Rotation von 180° insgesamt 128 Projektionsbilder aufgenommen werden. Iterative Rekonstruktionsalgorithmen benötigen deutlich weniger Projektionsbilder.
Aufnahmezeit Mit langen Aufnahmezeiten werden statistische Fehler kleiner und das Signal-RauschVerhältnis besser. Limitierend ist die bei langen Aufnahmezeiten zunehmende Patientenbewegung.
5.6.3 Prinzipien der SPECT-Rekonstruktion In diesem Abschnitt sollen die für die SPECT spezifischen Eigenarten der tomographischen Bildrekonstruktion dargestellt werden. Die mathematische Modellierung des Bildgebungsprozesses ist analog zum Fall der Röntgen-Transmissions-CT (s. Kap. 3.4, CT): Die Messdaten ergeben sich aus der Anwendung eines mathematischen Operators auf die zugrunde liegende räumliche Verteilung einer für die Wechselwirkung verantwortlichen Größe – dort die Schwächung der Röntgenintensität, hier der spontane radioaktive Zerfall mit anschließender 𝛾-Emission. Für beide Fälle gilt: – Es gibt keine effizienten Röntgenlinsen: Deshalb muss die Richtungsinformation der auf den Detektor treffenden Photonen auf andere Weise kodiert werden: über eine Punktquelle bei der Transmissions-CT, Koinzidenzmessungen bei PET (s. dort) und Kollimation bei SPECT. – Da nur Projektionen (also Integrale längs eines Weges durch den Patienten) gemessen werden, geht auch die Tiefeninformation verloren. Das Signal in einem Detektorpixel entspricht ideal einem Linienintegral bzw. real dem Integral über das Blickfeld aus einer Kollimatoröffnung. – Die Abbildung ist in guter Näherung linear: Der Summe zweier Aktivitätsverteilungen entspricht die Summe ihrer Projektionen.
Rekonstruktion: Berechnung eines 2D/3D-Schnittbildes aus Projektionsdaten durch Lösen des zugeordneten inversen Problems.
160 | Kristin Kötz, Henrik Botterweck Im einfachsten Modell ergibt sich für die Abbildung eines Objektes mit einem idealen Parallelkollimator die lineare „X-ray“-Transformation (auch John-Transformation): Projektionen sind Linienintegrale der Emissionsdichte. Der im Vergleich zur Transmission fehlende Logarithmus vereinfacht die statistische Interpretation der Projektionsdaten (s. u.). In n = 2 Dimensionen fällt diese Integraltransformation mit der bekannteren Radon-Transformation (Integration über n− 1 dimensionale Hyperebenen) zusammen, für die effiziente analytische Rekonstruktionsformeln bekannt sind (s. Kap. 3.4, CT). Radon-Transformation: Abbildung einer n-dimensionalen Funktion auf ihre Integrale über (n − 1)dimensionale Hyperebenen. Vgl. X-ray-Transformation. X-ray-Transformation: Abbildung einer zweidimensionalen Funktion auf ihre Integrale entlang eindimensionaler Geraden, vgl. RADON-Transformation.
In realen Systemen ist die Transformation komplizierter: – Wegen der Abbildungseigenschaften des Kollimators werden die Linienintegrale durch gewichtete Integrale über angenähert kegelförmige Volumina ersetzt. – Die Absorption des Gewebes erzeugt eine Gewichtung des Beitrags eines Punktes zur Projektion, die entsprechend dem Schwächungsgesetz vom Integral über den Absorptionskoeffizienten (im Exponenten einer e-Funktion) abhängt. Falls dessen Verteilung der Schwächungskoeffizienten bekannt ist (s. u.), spricht man von der geschwächten X-ray- bzw. Radon-Transformation. – Streuung erzeugt weitere Beiträge zu den Projektionen, die zwar linear von der Emissionsverteilung, aber wegen der Möglichkeit von Mehrfachstreuung nichtlinear von der Verteilung der Streukoeffizienten abhängen. Die Aufgabe der SPECT-Rekonstruktion ist allgemein die Inversion des linearen Abbildungsoperators, also das Auffinden der originalen räumlichen Verteilungsfunktion der Emission. Dieses Problem ist mathematisch schlecht gestellt: Zwei sehr verschiedene Emissionsverteilungen können praktisch gleiche, sehr ähnliche Projektionen erzeugen – umgekehrt ist die Rekonstruktion also unstetig, kleine Abweichungen von der mathematisch idealen Projektion etwa durch die unvermeidlich diskrete Verteilung gemessener Photonen können zu sehr großen Abweichungen im rekonstruierten Volumen führen. Diese Abweichungen sind aber im Allgemeinen sehr stark räumlich oszillierend, also unphysiologisch. Es kann also in geeigneter Weise Vorwissen in die Rekonstruktion eingebracht werden, um realistische Bilder zu erhalten. Im einfachsten Fall entspricht diese Regularisierung einer Glättung des Bildes. Weniger problematisch ist der Umstand, dass nicht alle möglichen idealen vorstellbaren Projektionen als Ergebnis des Abbildungsoperators auftreten können. Den gemessenen Projektionen entsprechen also wiederum wegen Messfehlern und Diskretisierung im Allgemeinen überhaupt keine räumlichen Emissionsverteilungen. Dieses Problem wird bei den verschiedenen Rekonstruktionen teilweise implizit durch einen
5 Szintigraphie und SPECT | 161
Ersatz der gemessenen Projektionen durch solche im Bildbereich des Abbildungsoperators gelöst. Die entscheidende Frage ist nun, auf welche Weise dies geschieht: – Das Kriterium der kleinsten quadratischen Abstände (Least Squares, LSQ) ist statistisch optimal, solange die Projektionsdaten um den idealen Wert Gauss-verteilt sind. Das ist aber bei der SPECT wegen der geringen Zählraten im Unterschied zur Transmissions-CT nicht erfüllt. Darauf basierende Verfahren wie die Varianten der ART (algebraische Rekonstruktion) sind hier deshalb weniger sinnvoll. – Bei analytischen Rekonstruktionen, die auf geschlossenen Darstellungen im nichtdiskretisierten Fall beruhen, weicht die implizit gewählte ideale Projektion i. A. vom LSQ-Typ ab. Trotzdem sind solche Verfahren sehr erfolgreich bei großen Zählraten (s. Kap. 3.4, CT) und auch bei der SPECT wurden lange Zeit Verfahren der gefilterten Rückprojektion (Filtered Back Projection, FBP) wegen ihrer numerischen Effizienz und einfachen Regularisierbarkeit durch Filter im Fourierraum eingesetzt. – Die Grundidee der statistischen Rekonstruktion ist es, diejenige Emissionsdichte zu postulieren, die mit der größten Wahrscheinlichkeit unter Berücksichtigung aller statistischen Abbildungseffekte inklusive „Messfehlern“ die gemessenen Projektionen erzeugt hat. Der große Vorteil ist also die Möglichkeit, die Poisson-Verteilung der gezählten Photonen um den idealen Erwartungswert herum genauso zu berücksichtigen, wie alle weiteren, unter Umständen nur empirisch zu beschreibenden Effekte etwa durch Mehrfachstreuung, Totzeit im Detektor, elektronisches Rauschen etc. – Die Wahrscheinlichkeit, dass eine Emissionsverteilung eine Projektion (Beobachtung) erzeugt, heißt auch deren likelihood. Obiges Prinzip der statistischen Rekonstruktion ist also deren Maximierung (Maximum Likelihood, ML), dies „löst“ das Problem der Abweichung der Messdaten vom Bildraum des Abbildungsoperators. Die Frage der Regularisierung des schlecht gestellten Problems stellt sich aber nach wie vor. Die statistisch erstrebenswerte Lösung ist die Einbeziehung der A-priori-Wahrscheinlichkeit möglicher Emissionsverteilungen: Die likelihood wird maximiert bei Gewichtung mit der (physiologischen) Wahrscheinlichkeit der Emissionsverteilung (Maximum a posteriori, MAP). Im einfachsten (und numerisch durchführbaren) Fall reduziert sich die A-priori-Gewichtung wieder auf eine Bevorzugung glatter Verteilungen. Weitergehende anatomische Einschränkungen sind riskant: Im Extremfall würde nur das rekonstruiert werden, was man sehen „will“, etwa ein gesundes Herz ohne „unwahrscheinliche“ Läsionen.
Maximum-likelihood-Methode: statistisches Schätzkriterium zur Maximierung der Wahrscheinlichkeit bei gegebenen Beobachtungen.
Diese vier prinzipiellen Herangehensweisen sind in Abb. 5.14 schematisch visualisiert.
162 | Kristin Kötz, Henrik Botterweck Volumen-Raum
Sinogramm-Raum unstetiges Rˉ¹
Rekon EM P
Bild
LSQ LSQ
wa hr a p sc rio he ri in lic he r
n Reko
(R)
FBP
FB Rekon
EM
AP ert/M arisi l u g re
W-Verteilung des Rauschens
Messung
Abb. 5.14: Schematische Darstellung der Rekonstruktion als Inversion des Abbildungsoperators und speziell der Rolle statistisch motivierter Rekonstruktion (maximum-likelihood/EM und MAP). Links ist der Raum aller möglichen Emissionsverteilungen gezeigt, rechts derjenige der Projektionen und darin die Menge „konsistenter“, idealer Projektionen im Bildbereich des Abbildungsoperators R. Die Rekonstruktion führt von den gemessenen Projektionen zurück in den Raum der Emissionsverteilungen.
5.6.4 Statistische Rekonstruktionsalgorithmen Die meisten heute eingesetzten Verfahren beruhen auf dem EM-Algorithmus [Lange 1984]. Er findet iterativ die Lösung eines Maximum-likelihood-Problems durch abwechselnde Schätzung der Beobachtungen unter Annahme unbeobachtbarer Größen – hier der Verteilung der einzelnen Emissionsorte – und anschließender Maximierung der likelihood unter der gegebenen Verteilung. Konkret bedeutet dies im ersten Schritt die Simulation der Bildgebung für eine angenommene Emissionsverteilung – die Vorwärtsprojektion – und anschließend die numerische Zurückprojektion von Korrekturfaktoren in das modellierte Volumen, um eine verbesserte Schätzung zu erhalten. Diese Korrekturfaktoren sind das Verhältnis der gemessenen zu den in der Vorwärtsprojektion geschätzten Zählraten je Pixel. Die Laufzeit dieses Algorithmus wird erst praktikabel, wenn je Iterationsschritt nur je eine von mehreren repräsentativen Teilmengen aller gemessenen Projektionen verwendet wird (Ordered Subset EM, OSEM). Weiterentwicklungen des OSEM-Algorithmus betreffen die Berücksichtigung von Vorwissen (MAP-Verfahren) oder empirisch geschicktere Wahlen der Korrekturwerte (RAMLA) [Browne 1996].
5 Szintigraphie und SPECT | 163
Ordered Subset Expectation Maximisation (OSEM): verbreiteter, statistisch basierter, iterativer Rekonstruktionsalgorithmus.
Ein Problem ist in jedem Fall die Feststellung, wann die Iteration abzubrechen ist. Häufig werden nur zwei oder drei vollständige Schritte durchgeführt, dies entspricht einer impliziten Regularisierung (s. o.) – anschließend würden die Bilder immer stärkere oszillierende Artefakte aufweisen. Während also eine mathematisch exakte Charakterisierung der Konvergenz und Stabilität von OSEM-Algorithmen schwieriger als für analytische Verfahren ist, so ist doch deren großer Vorteil die Möglichkeit, die im folgenden Abschnitt beschriebenen physikalischen Effekte direkt im Vorwärtsprojektor berücksichtigen zu können: OSEM ist nicht direkt abhängig von der idealisierten X-ray-Transformation, die analytischen Verfahren zugrunde liegt. Aus dem gleichen Grund werden auch weitere Verallgemeinerungen möglich, z. B. die gleichzeitige Rekonstruktion mehrerer Nuklide, um z. B. Stress- und Ruheaufnahmen des Herzens in einer Sitzung zu erhalten [Botterweck 2007].
Quantitative Rekonstruktion Im Allgemeinen gilt SPECT im Unterschied zur PET als nicht quantitativ: Es werden zwar numerische Werte wie z. B. relative Emissionsintegrale bestimmt, aber nicht absolute Angaben über die Stoffmenge und Aktivität des angelagerten Tracers z. B. etwa in Bq/cm3 . Dies liegt zum Teil an der historisch frühen Entwicklung der Technik mit analoger Elektronik, zum anderen Teil aber an den großen Schwankungen absoluter Werte bei fehlerhafter Schwächungskorrektur und bei nicht exakter Berücksichtigung der statistischen Verteilung der Zählraten. Diese und weitere Effekte wie Down-scatter (Streuung höherenergetischer Emissionsenergien in ein Energiefenster an einem niederenergetischen Peak, bei einem oder mehreren gleichzeitigen Nukliden) können aber prinzipiell mit den beschriebenen Rekonstruktionsverfahren hinreichend genau modelliert werden. Forschungsbestrebungen sind deshalb auf dieses Ziel hin ausgerichtet, da moderne Diagnostik auch in Kombination mit anderen Modalitäten immer spezifischere funktionale Daten benötigt.
5.6.5 SPECT-Rekonstruktion für reale Systeme In konkreten Implementationen eines Rekonstruktionsalgorithmus sind verschiedene mögliche Fehlerquellen zu berücksichtigen. Grundsätzlich können Effekte, die von der idealisierten SPECT-Bildgebung – Linienintegralen über Poisson-verteilte Emissionen – abweichen, entweder – vor der Rekonstruktion auf den Messdaten beseitigt,
164 | Kristin Kötz, Henrik Botterweck – –
in einem entsprechend verallgemeinerten Rekonstruktionsalgorithmus explizit berücksichtigt oder auf den rekonstruierten Volumina korrigiert werden.
Kalibrierung der Rohdaten Der erste Fall entspricht einer Kalibrierung. Typischerweise werden damit physikalisch bedingte Abweichungen der Gammakamera korrigiert, vor allem (s. Kap. 5.2.1 und 5.4): – räumlich inhomogene Sensitivitäten, die von den Photomultipliern herrühren, – Verzerrungen gerader Linien, die aus der Koordinatenberechnung mittels AngerLogik stammen, wenn wiederum die PM ungleich sind, – Abweichungen der Lotrechten auf dem Kamerazentrum vom gedachten Rotationszentrum (Center-of-rotation-Korrektur), – Fehler in der Energiebestimmung einzelner Quanten, die von einer GaussVerteilung um den wahren Wert abweichen – je nach verwendetem Radionuklid. Solche Abweichungen können im Rahmen regelmäßiger Qualitätskontrollen mithilfe geeigneter Messphantome festgestellt werden, teils in täglichen oder wöchentlichen Routineverfahren, teils bei selteneren Service-Prozessen. Sie werden in parametrisierter Form typischerweise direkt in der Kameraelektronik gespeichert, die dann auch die gemessenen Rohdaten entsprechend korrigiert. Es gibt Bestrebungen, die routinemäßigen Kalibrierungsschritte durch automatisierte Verfahren zu vereinfachen, die keine oder weniger Kollimatorwechsel oder sonstige manuelle Eingriffe erfordern.
Modellierung von Korrekturen in der Rekonstruktion Effekte, die nicht von der Detektion selbst herrühren, können nicht durch Kalibrationstabellen in der Kamera repräsentiert und berücksichtigt werden. Sie betreffen also die Datenverarbeitung im Rekonstruktionsrechner. Während die Kameraelektronik aus Effizienzgründen optimierte Hardware zur Signalverarbeitung enthält, ist Letzterer eine übliche Workstation, im Allgemeinen getrennt von einem weiteren Rechner innerhalb des Gerätes zur Systemsteuerung. Verbesserte Rekonstruktionsverfahren können also im Rahmen qualitätsgesicherter Updates flexibel installiert werden.
Schwächung durch Absorption Vordringlich ist die Berücksichtigung der Schwächung durch Absorption im Patienten selbst. Wird sie vernachlässigt, erreichen aus dem Zentrum des Patienten weniger Photonen den Detektor als erwartet, so dass das rekonstruierte Bild eine zum Rand hin stark ansteigende Intensität vorgaukelt. Auch die Annahme einer homogenen
5 Szintigraphie und SPECT | 165
Schwächung von Wasser mit elliptischem Profil, ähnlich einem Patientenkörper, ist unzureichend. Eine spezifische Schwächungskarte (attenuation map) mit einer Transmissionsmessung gefunden. Teilweise werden dazu Linienquellen verwendet, die im SPECT-Gerät fest integriert und normalerweise abgeschirmt sind. Sie werden gegenüber der Kamera parallel zu ihr verschoben, während in der Kamera die nicht senkrecht unter der Quelle befindlichen Regionen elektronisch maskiert werden. Auf diese Weise kann ein Transmissions-Tomogramm erzeugt werden, dass die Verteilung des Absorptionskoeffizienten im Energiebereich der Strahlenquelle reflektiert. Typisch ist 153 Gd als Radionuklid mit einer nicht zu kleinen Halbwertszeit von 240,4 Tagen und Haupt-Emissionsenergien von 41 keV und 102 keV im Bereich typischer SPECT-Nuklide. Die Schwächung muss dann unter Annahme typischer Materialien auf die jeweils verwendeten Nuklide umgerechnet werden. Wegen des geringen Photonenflusses und der mäßigen räumlichen Auflösung ist die so erzeugte Schwächungskarte sehr grobpixelig und nicht mit einer CT-Aufnahme vergleichbar. Außerdem stellt die Handhabung der festen Quellen (Strahlenschutz) und deren fortwährender Zerfall eine praktische Erschwernis dar. Auf der anderen Seite erhält man eine zur SPECT-Messung zeitnahe Schwächungsverteilung, wie sie sonst nur mit einer aufwendigen SPECT-CT Kombination realisierbar wäre. Es gibt analytische Formeln zur SPECT-Rekonstruktion bei bekannter Schwächung [Novikov 2002]. Da sich jedoch iterative Verfahren durchsetzen, kann die Schwächung direkt im Vorwärtsprojektor (Expectation-Schritt des EM-Algorithmus) berücksichtigt werden: Für die im aktuellen Schritt geschätzte Emissionsverteilung wird der Erwartungswert der Projektionen entsprechend der Lage der Emissionsorte und der auf dem Weg zur Detektion befindlichen Absorptionszentren bestimmt. Alternativ zu eingebauten Strahlungsquellen können vorhandene CT-Daten auf die für die SPECT notwendigen Energien und (geringeren) Ortsauflösungen umgerechnet werden. Dedizierte SPECT/CT Kombinationen erlauben die zeitnahe Messung beider Modalitäten, sind aber wegen der geringeren Flexibilität (Auslastung), höheren Kosten und des im Vergleich zur PET/CT schlechter aufgelösten SPECT-Bildes (noch) wenig verbreitet.
Streuung Bei einer Oberkörperaufnahme werden viele Photonen gestreut, etwa 20. . . 30 % sogar mehrfach. Bei niedrigen Energien ist der Beitrag der elastischen Rayleigh-Streuung nicht zu vernachlässigen: Ein Streuzentrum erscheint dann für die Kamera wie eine Originalemission. Für die meisten SPECT-Nuklide oberhalb 50 keV überwiegt jedoch die Compton-Streuung. Wegen des damit verbundenen Energieverlustes des Photons könnten Streusignale im Detektor prinzipiell durch eine Energieselektion am Emissionswert unterdrückt werden. Das ist aufgrund der schlechten Energieauflösung im Bereich von 10 % nur für Rückstreuung und Mehrfachstreuung um größere Winkel effektiv. Es funktioniert gar nicht im Falle mehrerer Emissionsenergien: Beispielsweise
166 | Kristin Kötz, Henrik Botterweck emittiert 201 Tl zu etwa 10 % Photonen bei 135 keV und 167 keV zusätzlich zum Hauptpeak um 71 keV. Wegen der geringeren Schwächung bei höheren Energien tragen diese Quanten nach Streuung in den Bereich um 70 keV signifikant zu den Detektionen bei. Ein gutes Korrekturverfahren beruht auf der Messung mehrerer Energiefenster um den Hauptpeak herum (Triple Energy Window, TEW), so dass aus der Interpolation der Nebenfenster auf den Emissionspeak im zentralen Fenster geschlossen werden kann. Eine große Klasse von Korrekturansätzen beruht auf der Berücksichtigung der Streuung während der Rekonstruktion selbst. Im einfachsten Fall kann der Streubeitrag unter Annahme eines homogenen Wasservolumens geschätzt werden. Dabei werden allerdings starke bzw. von Wasser abweichend schwache Streubeiträge etwa an Knochenoberflächen oder in der Lunge falsch angenommen. Die Compton-Streuung hängt im Wesentlichen von der Elektronendichte ab. Diese kann aus CT- oder weniger genau auch Festquellen-Transmissionsdaten (s. o.) geschätzt werden, wenn eine Materialklassifikation durchgeführt wird (grob nach Luft/Lunge, Weichgewebe, Knochen). Wieder kann die Streuung also im Vorwärtsprojektor des EM-Algorithmus geschätzt werden. Numerisch vorteilhaft ist dabei, dass sie als additiver Beitrag in den geschätzten Projektionen verbleibt, statt vor der Rekonstruktion von den Messdaten subtrahiert zu werden. Die Subtraktion fehlerbehafteter Größen ist wegen der relativen Fehlerverstärkung unbedingt zu vermeiden. Die Gerätehersteller implementieren verschiedene Methoden, um die Streuung effizient in iterativen Rekonstruktionen zu schätzen. Typisch ist die Verwendung vorberechneter Streu-Faltungskerne und die Reduktion notwendiger Speicherzugriffe durch ein geeignetes räumliches Abarbeiten der Beiträge. Als Goldstandard können Monte-Carlo-Simulationen des Bildgebungsprozesses dienen. Um diese aber nicht nur in der Forschung, sondern auch in Echtzeitanwendungen einsetzen zu können, sind deutliche Vereinfachungen und Beschleunigungsmethoden zu verwenden [Botterweck 2007 und Ref. darin]. Wegen der Subjektivität der Beurteilung von SPECT-Aufnahmen gerade im Hinblick auf Streuartefakte ist die Optimierung der Streukorrektur und der Vergleich verschiedener Verfahren nicht leicht. Ein möglicher Zugang ist der Einsatz numerischer Beobachter (Observer) als statistischer Klassifikatoren des Nutzwertes eines Bildes [Farncombe 2004 und Referenzen darin] (s. Kap. 21, Systemtheorie und ROC).
Tiefenabhängige Auflösung Große Fortschritte bei der Bildqualität kommerzieller Systeme wurden durch die Berücksichtigung der tiefenabhängigen Ortsauflösung, allgemeiner der Punkt-Abbildungsfunktion des Kollimators (PSF) erreicht. In der Vorwärtsprojektion werden die Beiträge in einem gegebenen Abstand zur Kamera mit der entsprechenden PSF gefaltet, bevor sie auf die Kamera projiziert werden. In der Rückprojektion kann Gleiches geschehen, jedoch kann dies die Konvergenz des EM-Algorithmus verschlechtern.
5 Szintigraphie und SPECT | 167
Bewegungskorrektur Wegen der langen Aufnahmezeiten sind Bewegungsartefakte problematisch. Wichtige Beispiele sind die Leberspitze, die durch Atembewegung scheinbar durch das Zwerchfell hindurch das Herz erreichen und dessen Bildgebung stören kann, oder Teile des Herzens selbst, die durch Atmung in extrakorporale Gebiete gelangen, wobei dann die Schwächungskorrektur nicht mehr greift. Lösungsansätze hierzu basieren auf der Korrektur der Projektionen um gemessene oder geschätzte Bewegungen oder auf der Zerlegung der Aufnahme in Zeitfenster (Gating) jeweils ähnlicher Bewegungszustände von Atmung und/oder Herzschlag. In diesem Fall kann versucht werden, zur Verbesserung der dann geringen Zählraten auch statistische Information aus den jeweils anderen Zeitfenstern zu verwenden.
5.7 Qualitätskontrolle 5.7.1 Gesetze, Verordnungen, Richtlinien, Leitlinien Verbindlich auf nationaler Ebene sind das Atomgesetz und die Strahlenschutzverordnung (StrlSchV). Daraus sind Richtlinien, DIN-Vorschriften und Empfehlungen abgeleitet. Bestandteil der Qualitätssicherung ist die Zustandsprüfung (auch Abnahmeprüfung), die daraus abgeleiteten Referenzbedingungen und die regelmäßigen Konstanzprüfungen. Insbesondere bei tomographischen Untersuchungen können schon geringe Abweichungen von den Referenzwerten zu schwerwiegenden Artefakten bei der Bildrekonstruktion führen. Die folgenden Angaben dienen nur der Übersicht und beziehen sich auf eine SPECT-fähige Gammakamera (Tab. 5.3). Weiterführende Erklärungen und praktische Anleitungen können z. B. auf der Homepage der Deutschen Gesellschaft für Nuklearmedizin (www.nuklearmedizin.de) unter der Rubrik Leitlinien in „Nuklearmedizinische Bildgebung“ nachgelesen werden. – Nulleffekt – Die Untergrundmessung dient der Erkennung von Kontaminationen am Messkopf oder störenden radioaktiven Quellen in der Umgebung. – Peak – zur Überprüfung der Energiefenstereinstellung für die verwendeten Nuklide. Tab. 5.3: Übersicht – Qualitätskontrollen eines SPECT-Systems. (arbeits)täglich (arbeits)täglich wöchentlich wöchentlich wöchentlich halbjährlich
Untergrundzählrate Energiefenstereinstellung Inhomogenität (extrinsisch) Ausbeute Center of Rotation COR Linearität (Ortsauflösung)
168 | Kristin Kötz, Henrik Botterweck – – –
–
Inhomogenität – Die Systemhomogenität wird mit einer Flächenquelle überprüft und bei Bedarf muss eine Korrekturmatrix erstellt werden. Ausbeute – Kontrolle der Nachweisempfindlichkeit mit einer Punkt- oder Flächenquelle. Rotationszentrum (Center of Rotation, COR) – Die vorstellbare Drehachse der Detektoren bei einer kreisförmigen Bewegung. Elektronisch oder mechanisch bedingte Abweichungen (offset) müssen nachjustiert werden. Die Kalibrierung erfolgt mithilfe einer Linienquelle oder Punktquelle. Linearität – Die Kontrolle der Linearität erfolgt mit Lochmuster- oder BleistreifenPhantomen.
Weitere empfohlene Konstanzprüfungen sind: – Abbildungsmaßstab/Rastermaßstab, – tomographische Inhomogenität und Kontrast, – Kippwinkel des Messkopfes, – Überprüfung der Dokumentationseinrichtung.
5.8 Klinische Anwendungen SPECT ist ein verhältnismäßig aufwendiges Untersuchungsverfahren und kommt deshalb in der klinischen Routine nur bei einem Teil der Untersuchungen zur Anwendung (Abb. 5.15). Bei einigen Untersuchungen (z. B. Schilddrüsenszintigramm) besteht kein klinisch relevanter Informationsgewinn gegenüber der planaren Aufnahmetechnik. Dynamische Untersuchungen (z. B. Nierensequenzszintigramm) sind mit einem SPECT-System, das mit rotierenden Detektoren operiert, nicht möglich. Neuere Entwicklungen in Richtung statischer SPECT-Systeme könnten auch dynamische Untersuchungen im SPECT-Modus erlauben. Klinische relevante Vorteile von SPECT sind: – überlagerungsfreie Darstellung, – höherer Kontrast (target-to-background ratio), der zur besseren Abbildung kleinerer Läsionen führt, – die Möglichkeit, aus dem dreidimensionalen Datensatz zweidimensionale Schnittbilder beliebiger Orientierung herzustellen (Reorientierung), – Überlagerung mit anderen Untersuchungsverfahren (CT, MR). Weitergehende Informationen stellen die einschlägigen Fachgesellschaften zur Verfügung (www.nuklearmedizin.de, www.eanm.org, www.snm.org).
5 Szintigraphie und SPECT |
169
(a)
(b) Abb. 5.15: Bildbeispiel SPECT: Somatostatinrezeptor (a) und Myokardperfusion (b).
5.9 Hybridbildgebung 5.9.1 Hybridbildgebung SPECT kann funktionelle Vorgänge darstellen, die mit anderen bildgebenden Verfahren nicht erfassbar sind, enthält aber oft nur unzureichende Informationen über deren genaue anatomische Lage. Diese ist jedoch bei der Planung regional wirksamer Therapieverfahren (z. B. Operation, Strahlentherapie) unabdingbar. Unter Hybridbildgebung versteht man hier die Überlagerung mehrerer schnittbildgebender Verfahren.
170 | Kristin Kötz, Henrik Botterweck 5.9.2 Softwarebasierte Hybridbildgebung Dabei werden die einzelnen Untersuchungen an getrennten Geräten durchgeführt und können anschließend separat und überlagert (Bildfusion) dargestellt werden. Ein typisches Problem ist dabei die unterschiedliche Lagerung und Verfassung des Patienten. Eine gute Anwendungsmöglichkeit stellen z. B. SPECT/MR-Hirnuntersuchungen dar – Patientenlagerungsfehler sind minimal, dedizierte Hybridgeräte (s. u.) stehen derzeit aber nicht zur Verfügung.
5.9.3 Hardwarebasierte Hybridbildgebung Es werden mehrere Untersuchungsverfahren an einem dedizierten Hybridgerät durchgeführt. Kommerziell verfügbar sind SPECT/CT-, PET/CT-, SPECT/PET/CT-, PET/MR- und PET/Mammographie-Geräte. In den meisten Fällen sind zwei Untersuchungseinheiten (z. B. Doppelkopf-SPECT und CT) hintereinander in einem Gerät mit gemeinsamer Patientenliege untergebracht. Dies bedingt eine sequenzielle Auf-
Abb. 5.16: Nebenschilddrüsen-SPECT-CT.
5 Szintigraphie und SPECT | 171
nahme beider Verfahren. Vorteile der hardwarebasierten Hybridbildgebung sind die präzisere Bildfusion, die Möglichkeit einer CT-gestützten Schwächungskorrektur und die Verkürzung diagnostischer Untersuchungswege durch gleichzeitige Durchführung mehrerer Verfahren (z. B. Myokardperfusionsszintigraphie mit SPECT und Koronarangiographie mit CT) (Abb. 5.16).
Quellenverzeichnis Botterweck H., Bippus R., Gödicke A., Salomon A., Wieczorek H.: Iterative Monte-Carlo based reconstruction for quantitative simultaneous multiple isotope SPECT. Imaging, Proc Fully 3D 2007; 221–224; www.fully3d.org/2007/Fully3D{_}HPIR{_}Proceedings.pdf. Zugriff: 15.12.2011. Browne J., de Pierro A. B.: A row-action alternative to the EM algorithm for maximizing likelihood in emission tomography. IEEE Trans Med Imag 1996; 15: 687–699. Farncombe T., et al.: Assessment of scatter compensation strategies for 67Ga SPECT using numerical observers and human LROC studies. J Nucl Med 2004; 45: 802–812. Lange K., Carson R.: EM reconstruction algorithms for emission and transmission tomography. J Comput Assist Tomogr 1984; 8: 306–316. Novikov R. G.: An inversion formula for the attenuated X-ray transform. Ark Math 2002; 40: 145–167.
Testfragen 1. Was ist Szintigraphie? Was wird dabei gemessen, was wird für den Arzt dargestellt? 2. Was ist SPECT? Was wird dabei gemessen, was wird für den Arzt dargestellt? 3. Welche Strahlungsarten werden in der nuklearmedizinischen Diagnostik angewandt und wo entstehen diese? 4. Was sind Radiopharmaka (Tracer)? 5. Welche Detektoren werden zum Nachweis von Gammaquanten genutzt? 6. Was sind Bestandteile einer Anger-Kamera? 7. Skizzieren Sie den schematischen Aufbau eines Gammakamerakopfes. 8. Was sind fokussierende Kollimatoren? 9. Welche Komponenten und Aufgaben hat ein Photomultiplier (PMT)? 10. Warum wird die Ortsauflösung durch die Eigenschaften des Kollimators bestimmt? 11. Worin unterscheiden sich statische und dynamische Akquisitionen? 12. Wie unterscheidet sich das reale Rekonstruktionsproblem der SPECT von der mathematisch idealen Inversion der Radon-Transformation (min. vier physikalisch-technische Gründe)? 13. Erläutern Sie die statistische Formulierung des Rekonstruktionsproblems: Warum ist diese in der nuklearmedizinischen Bildgebung (bisher) wichtiger als bei der Transmissions-CT? 14. Für Fortgeschrittene: Stellen Sie einen mathematischen Ausruck für den Logarithmus der likelihood der SPECT dar – in zwei Dimensionen, ohne Schwächung und mit einem idealen (im Grenzwert nichtdiskreten) Detektor und Kollimator. 15. Was versteht man unter Hybridbildgebung?
Simone Beer, Henrik Botterweck
6 PET 6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8
Diagnostische Zielsetzung | 174 Grundlagen | 174 Technik | 182 Algorithmen | 188 Klinische Anwendungen | 195 Qualitätssicherung und Normen | 197 Nebenwirkungen/Grenzwerte | 198 Neue Entwicklungen und Trends | 199
Zusammenfassung: Das genaueste Abbildungsverfahren der Nuklearmedizin ist die Positronen-Emissions-Tomographie (PET): mit einer vergleichsweise geringen Strahlenbelastung können funktionale Prozesse im Körper des Patienten präzise abgebildet werden. Vom Tracer ausgesendet wird zwar zuerst ein Positron, dieses Positron wird aber beim Zusammenstoß mit einem Elektron vernichtet („Annihilation“) und die dabei entstehenden Gammaquanten werden nachgewiesen. Notwendig sind schnelle, empfindliche Szintillationskristalle mit passenden Photomultipliern und eine gute Korrektur verschiedener Artefakte. Stärken der PET sind die molekulare Empfindlichkeit, die mit spezifischen Tracern und auch in Kombination mit der Transmissions-CT eine funktionale Bildgebung erlaubt. Abstract: The most accurate imaging technique of nuclear medicine is Positron Emission Tomography (PET): with a comparably low radiation dose, PET depicts images of functional processes in the patient. Slice images are calculated from coincidence measurements of two 𝛽+ -annihilation gamma photons by tomographic reconstruction. Critical components are fast and sensitive scintillators with matching photomultipliers and an efficient artifact correction. Recent improvements comprise time-offlight measurements and the detection of the depth-of-interaction for scintillation. The strength of PET is its molecular sensitivity combined with highly specific tracers, allowing for truly functional imaging. Advantageous is also the combination with transmission-CT for anatomical imaging.
174 | Simone Beer, Henrik Botterweck
6.1 Diagnostische Zielsetzung Die Positronen-Emissions-Tomographie (PET) ist ein bildgebendes Verfahren, das den radioaktiven Zerfall von Positronenstrahlern ausnutzt und hauptsächlich in der Nuklearmedizin eingesetzt wird. Die Positronenstrahler werden in Zyklotronen erzeugt und dann verwendet, um Substanzen zu markieren, die von biologischem Interesse sind, z. B. mit radioaktivem Fluor markierte Glukose. Patienten bekommen diese sogenannten Tracer injiziert. Mittels PET können dann die entsprechenden biochemischen und physiologischen Stoffwechselvorgänge im Körper aufgezeichnet werden. PET ist ein bewährtes Verfahren in der molekularen Bildgebung.
6.2 Grundlagen 6.2.1 Positronenstrahler Der Atomkern besteht aus zwei Sorten von Elementarteilchen mit nahezu gleicher Masse, den positiv geladenen Protonen und den ungeladenen Neutronen. Die Kernladung wird durch die Anzahl der Protonen ausgedrückt und entspricht der Ordnungszahl Z des Atoms, die Summe von Protonen und Neutronen der Massenzahl A. Die Nuklide werden durch das Symbol des chemischen Elementes X (z. B. Fe für Eisen oder C für Kohlenstoff) und die Massenzahl A, gelegentlich auch zusätzlich durch die Ordnungszahl Z beschrieben: AZ X bzw. A X. Nuklide mit demselben Z, aber unterschiedlichem A werden als Isotope bezeichnet. Isotope mit überschüssigen Protonen oder Neutronen sind instabil und gehen unter Aussendung von radioaktiver Strahlung in einen stabilen Zustand über. Solche Isotope werden als Radioisotope oder Radionuklide bezeichnet. Für die PET von Interesse sind die Radioisotope mit Protonenüberschuss, die durch Positronenemission, auch Beta-Plus-Zerfall (𝛽+ ) genannt, zerfallen. Ein Proton des Kernes wird in ein Neutron umgewandelt, und dabei werden ein Positron und ein Neutrino ausgesandt. Die freiwerdende Energie wird zwischen den beteiligten Teilchen aufgeteilt. Daher haben die Positronen ein Spektrum an unterschiedlichen Energien bis hin zu einer Maximalenergie. Der zeitliche Verlauf des radioaktiven Zerfalls wird durch die Halbwertszeit charakterisiert, d. h. der Zeit, nach der jeweils die Hälfte der Kerne zerfallen ist. Tabelle 6.1 zeigt einige für die PET wichtige Radionuklide und ihre Eigenschaften. Hergestellt werden PET-Radionuklide durch Bestrahlung von Flüssigkeiten oder Gasen in sogenannten Zyklotronen. Das Positron ist das Antiteilchen des Elektrons. Wenn ein Positron auf ein Elektron trifft, vernichten sich die beiden unter Aussendung von zwei in entgegengesetzte Richtung auseinanderfliegende Gammaquanten, die jeweils eine Energie von 511 keV haben (Abb. 6.1).
6 PET
| 175
Tab. 6.1: Positronenstrahler und ihre Eigenschaften [Pfennig 1998, Levin 1999]. Radionuklid
Halbwertszeit in min
Emax in MeV
Halbwertsbreite der Positronenreichweite in mm
C N 15 O
20,38 9,96 2,03
1,0 1,2 1,7
0,188 0,282 0,501
18
109,7
0,6
0,102
11
13
F
Positronen-emittierendes Radionuklid
511 keV Photon Positron
Elektron
511 keV Photon Abb. 6.1: Positronenemission und nachfolgende Annihilation unter Aussendung von zwei 511 keV Photonen.
Diese entspricht der Masse der beiden Teilchen nach der Einsteinschen MasseEnergie-Beziehung E = mc2 = me c2 + mp c2 (6.1) Dabei sind me und mp die Massen des Elektrons und des Positrons, c ist die Lichtgeschwindigkeit (3 ⋅ 108 m/s). Dieser Prozess wird Annihilation genannt. Annihilation (lat.: annihilatio – das Zunichtemachen): Vorgang der Paarvernichtung beim Aufeinandertreffen von Teilchen und Antiteilchen. Im Falle der Positron-Elektron-Annihilation werden beide Teilchen vollständig vernichtet. Dabei entstehen nach E = mc2 zwei Gammaquanten mit einer Energie von jeweils 511 keV.
6.2.2 Das PET-Prinzip Zwei wichtige Eigenschaften der Annihilation ermöglichen die Bildgebung mittels PET: zum einen die recht hohe Energie der emittierten Photonen von 511 keV, die mit hoher Wahrscheinlichkeit den Körper durchdringen und mit externen Detektoren
176 | Simone Beer, Henrik Botterweck nachgewiesen werden können; zum anderen die Tatsache, dass die beiden emittierten Photonen eine klare zeitliche und geometrische Beziehung zueinander haben. Gelingt es, beide Photonen nachzuweisen, dann geht die Verbindungslinie (Line of Response, LOR) beider Punkte durch den Ort der Annihilation, der wiederum dem Punkt der Positronenemission sehr nahe liegt. Zusammengehörende Photonenpaare erkennt man daran, dass sie gleichzeitig nachgewiesen wurden. Dieses bezeichnet man als Koinzidenz. Koinzidenz: zeitgleiches Auftreten, z. B. gleichzeitiger Nachweis eines zusammengehörenden Photonenpaares in zwei Detektoren. Line of Response (LOR): Verbindungslinie zwischen zwei Detektoren, die ein Photonenpaar in Koinzidenz nachgewiesen haben.
In einer typischen PET-Aufnahme werden viele Millionen solcher Photonenpaare von einem Ring aus Detektoren nachgewiesen. Aus diesen Millionen Verbindungslinien kann durch mathematische Rekonstruktionsverfahren ein Bild der Verteilung der Substanz im Körper ausgerechnet werden. Die grundsätzlich erreichbare Auflösung wird dabei von zwei Faktoren limitiert. Der erste ist die Positronenreichweite, d. h. die Entfernung vom Annihilations- zum Emissionspunkt des Positrons. Aufgrund der Energie, die dem Positron bei der Emission mitgegeben wird, folgt es zunächst einem gewundenen Pfad und gibt dabei Energie ab, bis es auf ein Elektron stößt, mit dem es annihiliert. Die maximale Positronenreichweite kann je nach Isotop einige mm betragen, aber die häufige Richtungsänderung auf dem Weg vom Emissionszum Annihilationspunkt sorgt dafür, dass die mittlere Reichweite deutlich unter der maximalen Reichweite liegt. In der Rekonstruktion des Bildes kann die Positronenreichweite zwar nicht korrigiert, wohl aber als inhärente Glättung des Bildes berücksichtigt werden. Der zweite Faktor ist die Winkelunschärfe, die sich aus der Tatsache ergibt, dass Positron und Elektron zum Zeitpunkt der Annihilation nicht vollkommen in Ruhe sind. Der kleine Restimpuls sorgt dafür, dass sich die Annihilationsphotonen nicht ganz genau diametral voneinander wegbewegen, sondern dass es eine kleine Abweichung (∼ 0,5° Halbwertsbreite) gibt. Diese Abweichung sorgt für eine gewisse Unschärfe, da die Verbindungslinie zwischen den nachgewiesenen Photonen nicht exakt durch den Annihilationsort geht. Dieser Effekt spielt mit zunehmendem Durchmesser des Tomographen eine immer stärkere Rolle.
6.2.3 Wechselwirkung von 511 keV Photonen mit Materie Die wichtigsten Wechselwirkungen, die ein 511-keV-Photon mit Materie haben kann, sind Photoeffekt und Compton-Effekt. Beim Photoeffekt transferiert das Pho-
6 PET | 177
Tab. 6.2: Schwächungskoeffizienten ausgewählter Gewebetypen und Materialien für 511-keVPhotonen [Hubbell 2004, Melcher 2000]. Material
𝜇 in cm−1
Halbwertsdicke in cm
Luft Fettgewebe Knochen Gehirn Skelettmuskulatur Wasser Blei BGO (Bi4 Ge3 O12 ) LSO (Lu2 SiO5 )
0,0001 0,09 0,17 0,1 0,1 0,096 1,83 0,96 0,87
6.602 7,5 4,0 6,9 6,9 7,15 0,38 0,72 0,8
ton seine Energie vollständig auf ein Hüllenelektron eines Atoms und wird dadurch vollständig absorbiert. Das Hüllenelektron wird in einen angeregten Zustand gehoben oder verlässt sogar das Atom. In Festkörpern und Flüssigkeiten wird es aber sehr schnell wieder absorbiert, so dass in diesen Fällen das Resultat des Photoeffektes die komplette Absorption des Photons ist. Die gesamten 511 keV werden lokal im umgebenden Material deponiert. Im Gegensatz dazu wird das Photon beim Compton-Effekt an einem Elektron gestreut. Dabei geht ein Teil der Energie auf das Elektron über, und das Photon ändert seine Richtung abhängig vom Energieübertrag. Die Wahrscheinlichkeit, dass ein Photoeffekt oder Compton-Effekt auftritt, hängt von der Kernladungszahl des Materials ab. Die Abhängigkeit geht für den Photoeffekt etwa mit Z 4 , für den Compton-Effekt mit Z. Zusammengenommen werden diese Effekte durch den linearen Schwächungskoeffizienten 𝜇 ausgedrückt. Er hat die Einheit 1/cm, d. h., er beschreibt die Wahrscheinlichkeit für die Absorption eines Photons im Verhältnis zur Dicke des Materials und ist von der Energie des einfallenden Photons sowie der Kernladungszahl des absorbierenden Materials abhängig. Tab. 6.2 zeigt den Schwächungskoeffizienten für 511-keV-Photonen von einigen ausgewählten Gewebetypen und Detektormaterialien sowie für Blei, das häufig zur Abschirmung verwendet wird. Die Wechselwirkung kann nun durch ein Exponentialgesetz beschrieben werden: I(x) = I(0) exp(−𝜇x) (6.2) Dabei ist I(0) die Intensität des einfallenden Photonenflusses und I(x) die Intensität des Photonenflusses nach einer Distanz x im Material. Die Halbwertsdicke in Tab. 6.2 gibt die Stärke des Materials an, nach der nur noch die Hälfte der einfallenden Photonen vorhanden ist. Während die Wechselwirkung der Photonen im Gewebe ein unerwünschter und störender Prozess ist, ist sie für den Nachweis im Detektor die unbedingte Voraussetzung.
178 | Simone Beer, Henrik Botterweck 6.2.4 Echte, gestreute und zufällige Koinzidenzen Unter idealen Bedingungen würden nur echte Koinzidenzen gemessen, d. h. Koinzidenzen, die aus ein und demselben Ereignis stammen und ungestört den Körper verlassen haben. Die Wechselwirkungswahrscheinlichkeit der Photonen im Gewebe sorgt allerdings dafür, dass ein Teil der Photonen den Körper erst nach einer ComptonStreuung verlässt und dementsprechend eine Richtungsänderung erlitten hat. Werden in diesem Fall die beiden Photonen in Koinzidenz nachgewiesen, geht die Verbindungslinie nicht mehr durch den Punkt der Annihilation. Diese Ereignisse werden gestreute Koinzidenzen genannt. Sie tragen zum Untergrund bei und reduzieren den Kontrast im Bild. Die gestreuten Koinzidenzen hängen von der Verteilung der Aktivität und der Form sowie der Zusammensetzung des Streumediums ab. Ihr Anteil kann bis auf über 50 % anwachsen. Sie werden üblicherweise während der Datenweiterverarbeitung mittels aufwendiger mathematischer Verfahren korrigiert. Die aus einer Annihilation stammenden Photonen werden zwar gleichzeitig emittiert, aber aufgrund der endlichen Zeitauflösung der Detektoren kann es beim Nachweis der Photonen im Detektor Zeitunterschiede von wenigen Nanosekunden geben. Deshalb werden Signale als koinzident akzeptiert, wenn sie innerhalb eines gewissen Zeitfensters auftreten. Dadurch ist es aber auch möglich, dass in dieser Zeitspanne zufällig eine weitere Annihilation stattfindet und aus den beiden Annihilationen jeweils ein Photon nachgewiesen wird. Da diese beiden Photonen nicht miteinander in Beziehung stehen, geht auch hier die Verbindungslinie nicht durch den Ort der Annihilation. Solche Art Ereignisse werden zufällige Koinzidenzen genannt. Sie tragen auch zum Untergrund bei. Seien N1 und N1 die Einzelzählraten der beiden beteiligten Detektoren und 𝜏 das Zeitfenster, in dem eine Koinzidenz als solche akzeptiert wird, dann lässt sich die Rate der zufälligen Koinzidenzen durch NR = 2𝜏N1 N2 ausdrücken. Die Einzelzählraten der Detektoren sind proportional zur Aktivität im Messfeld. Daraus folgt, dass die Rate der zufälligen Koinzidenzen quadratisch mit der Aktivität im Messfeld steigt.
6.2.5 Parallaxeneffekt Fehlzuordnungen von der Verbindungslinie zum Annihilationspunkt können auch durch den sogenannten Parallaxeneffekt hervorgerufen werden. Er ist darauf zurückzuführen, dass die Wechselwirkung des Photons nicht an der Detektoroberfläche, sondern im Inneren des Detektors stattfindet. Parallaxeneffekt: Abstand zwischen Annihilationsort und Verbindungslinie der koinzidenten Detektoren hervorgerufen bei schräg zur Verbindungslinie stehenden Detektoren durch die Wechselwirkungstiefe der Photonen im Detektor.
6 PET |
179
Abb. 6.2: Parallaxeneffekt am Beispiel eines Ringsystems mit diskreten Detektoren.
Abb. 6.2 soll den Parallaxeneffekt am Beispiel eines Ringsystems mit diskreten Detektoren verdeutlichen. Die Photonenpaare, die aus dem Zentrum des Messfeldes emittiert werden, dringen senkrecht in den Detektor ein. Unabhängig von der Eindringtiefe geschieht die Wechselwirkung immer noch in dem Detektor, in den das Photon ursprünglich eingedrungen ist. Für Photonen, die am Rande des Messfeldes emittiert werden, stellt sich die Situation anders dar. Sie können schräg auf die Detektoren auftreffen und mehrere Detektoren durchdringen, bevor es zu einer Wechselwirkung kommt. Verbindet man die Detektoren, in denen die Wechselwirkung stattgefunden hat, miteinander, bekommt man eine Abweichung der Verbindungslinie vom ursprünglichen Ort der Annihilation. Dieser Effekt verursacht eine Verschlechterung der Auflösung in radialer Richtung und ist von besonders großer Bedeutung in Tomographen mit einem kleinen Durchmesser. Abhilfe bieten Systeme, die in der Lage sind, die Wechselwirkungstiefe (Depth of Interaction, DOI) in den Detektoren zu bestimmen. Depth of Interaction (DOI; dt. Wechselwirkungstiefe): Wechselwirkungstiefe im Detektor. Mithilfe ihrer Bestimmung kann der Parallaxeneffekt reduziert werden.
180 | Simone Beer, Henrik Botterweck 6.2.6 Laufzeitverfahren (Time of Flight) Durch die Bestimmung einer Koinzidenz lässt sich zunächst nur eine Linie ermitteln, auf der eine Annihilation stattgefunden hat. Eine Annäherung an den Punkt der Annihilation auf der Linie lässt sich erreichen, wenn es gelingt, zwischen den beiden Photonen einen Zeitunterschied nachzuweisen. Wenn der Annihilationsort näher an Detektor 1 als an Detektor 2 liegt, wird das Photon in Detektor 1 eher nachgewiesen als das in Detektor 2. Der Zusammenhang zwischen der Zeitdifferenz 𝛥t und dem Ort der Annihilation, bezogen auf einen Punkt exakt in der Mitte zwischen den Detektoren, ist gegeben durch Δt ⋅ c d= (6.3) 2 wobei c die Lichtgeschwindigkeit (3 ⋅ 108 m/s) ist. Diese Technologie wird „Time of Flight“ (TOF) genannt. Moderne Positronen-Emissions-Tomographen können eine Zeitauflösung von ∼ 500 ps erreichen. Damit liegt die Genauigkeit, mit der der Annihilationsort auf der Verbindungslinie der Detektoren bestimmt werden kann, bei 7,5 cm. Die Time-of-flight-Technologie lohnt sich also erst bei Tomographen mit größeren Durchmessern und ausgedehnten Messobjekten. Wird diese Information aber in die Rekonstruktionsverfahren mit einbezogen, kann sie eine Verbesserung der Bildqualität bewirken. Time-of-Flight-Verfahren (TOF; dt. Laufzeitverfahren): Technologie, die den Zeitunterschied zwischen dem Nachweis von zwei Annihilations-Photonen ausnutzt, wenn der Annihilationsort näher an einem der beiden Detektoren liegt.
6.2.7 Leistungsmerkmale eines Positronen-Emissions-Tomographen Die erreichbare Auflösung eines Positronen-Emissions-Tomographen kann als Faltung von Positronenreichweite, Winkelunschärfe, geometrischen Faktoren und intrinsischer Detektorauflösung ausgedrückt werden. Unter der Annahme, dass diese Faktoren näherungsweise mit Gauss-Kurven beschrieben werden können, ergibt sich für die Auflösung R die folgende Beziehung: R ≈ √p2r + (0,0022 ∗ D)2 + R2int
(6.4)
Dabei ist pr die mittlere Positronenreichweite, D der Durchmesser des Tomographen und Rint die intrinsische Auflösung eines Detektorpaares. Unter optimalen Bedingungen, d. h. für Tomographen mit geringem Durchmesser, kleinen Detektoren und für Isotope mit geringer Positronenreichweite können zurzeit Auflösungen von knapp 1 mm erreicht werden.
6 PET |
181
Eine höhere Auflösung allein ist allerdings nicht automatisch mit einer besseren Bildqualität gleichzusetzen. Ein Bild besteht aus kleinen Volumenelementen, deren Inhalt farblich dargestellt wird. Eine höhere Auflösung bedeutet gleichzeitig, dass die Volumenelemente des Bildes kleiner werden müssen. Bei einer Verbesserung der Auflösung um einen Faktor 2 muss die Anzahl der Volumenelemente um einen Faktor 23 = 8 erhöht werden. Dementsprechend muss auch die 8-fache Menge an Daten aufgenommen werden, um denselben statistischen Fehler pro Volumenelement zu erhalten. Wenn nicht entweder die injizierte Dosis oder die Messzeit erhöht werden soll, muss die Sensitivität (Angabe in Prozent) des Tomographen als weiterer signifikanter Parameter betrachtet werden. Sie kann ausgedrückt werden als S = 100 ⋅
𝜀2 𝜑𝛺 4𝜋
(6.5)
wobei 𝜀 die Nachweiswahrscheinlichkeit eines einzelnen Detektors für 511-keVPhotonen ist. Die Packungsdichte 𝜑 beschreibt das Verhältnis zwischen Detektormaterial und Füllmaterial wie z. B. Reflektormaterial und liegt bei ca. 80 %. 𝛺 ist der von den Detektoren bedeckte Raumwinkelbereich. Typische Sensitivitätswerte liegen bei ca. 5 %. Eine äquivalente und häufig benutzte Einheit der Sensitivität ist auch cps/Bq. Für eine korrekte Interpretation der Messdaten ist ein linearer Zusammenhang zwischen Aktivitätskonzentration im Messfeld und aufgenommenen Daten unabdingbar. Durch die Totzeit des Tomographen, zu der sowohl die Detektoren als auch die Elektronik beitragen, gibt es bei höheren Aktivitätskonzentrationen eine Abweichung vom linearen Zusammenhang. Der Totzeitanteil DT ist definiert als %DT = 1 − T/Tex und ist eine Funktion der Aktivitätskonzentration. Dabei ist T die Rate der gemessenen echten Koinzidenzen und Tex die erwartete Rate der echten Koinzidenzen, die sich aus einer linearen Extrapolation der Rate bei sehr geringen Zählraten ergeben würde. Das Signal-Rausch-Verhältnis wird nicht nur durch das statistische Rauschen beeinflusst. Auch gestreute und zufällige Koinzidenzen verursachen einen Untergrund. Der Anteil an zufälligen Koinzidenzen steigt quadratisch mit der Aktivität im Messfeld und trägt bei hohen Dosen zur Totzeit des Tomographen bei. Ein praktisches Maß für das Signal-Rausch-Verhältnis unter Berücksichtigung der Totzeit ist die rauschäquivalente Zählrate (Noise Equivalent Count Rate, NECR oder NEC), eine Funktion, die von der Aktivitätskonzentration im Messfeld abhängig ist: NEC =
T2 T + S + 2fR
(6.6)
Dabei ist T die Rate der echten, R die Rate der zufälligen Koinzidenzen und S sind die gestreuten Koinzidenzen. f ist ein Maß für die Größe des Phantoms, das zur Messung der NEC-Kurve verwendet wird, im Verhältnis zur Messfeldgröße.
182 | Simone Beer, Henrik Botterweck
Zählrate in cps
Peak NECR
Aktivität in Bq
Abb. 6.3: NEC-Kurve (Noise Equivalent Count Rate).
Noise Equivalent Count Rate (NEC; dt. rauschäquivalente Zählrate): auf gestreute und zufällige Koinzidenzen korrigierte Zählrate; praktisches Maß für das Signal-Rausch-Verhältnis unter Berücksichtigung der Totzeit.
Abb. 6.3 zeigt eine typische NEC-Kurve. Aus der Kurve lässt sich abschätzen, welche Aktivitätskonzentrationen im Messfeld zu sinnvollen Ergebnissen führen. Häufig wird der Wert des Maximums der NEC-Kurve (Peak NECR in cps) angegeben. Je höher der Wert ist, desto günstiger ist das Verhältnis von echten zu störenden Koinzidenzen. Die Bildqualität kann durch die Homogenität des Bildes in homogenen Bereichen, das Überstrahlen von heißen in kalte Bereiche („Spill-Over Ratio“, SOR) und die sogenannten Recovery-Koeffizienten beschrieben werden. Die Homogenität wird durch die Standardabweichung, die das Bild von einem homogen gefüllten Volumen hat, beschrieben. Befindet sich ein kalter Bereich in einer radioaktiven Umgebung, wird durch die Bildrekonstruktion Aktivität in den kalten Bereich „hineinrekonstruiert“. Dieses „Übersprechen“ stammt im Wesentlichen aus gestreuten oder zufälligen Ereignissen. Eine möglichst kleine spill-over-ratio ist ein Zeichen für gut funktionierende Korrekturverfahren. Wenn ein Volumen klein ist im Vergleich zur Auflösung des Tomographen, verschmiert es aufgrund der begrenzten Auflösung und stellt sich als größeres Volumen mit geringerer Aktivität dar. Das wird als Partialvolumeneffekt bezeichnet. Die Recovery-Koeffizienten geben für Strukturen unterschiedlicher Größe den Faktor (zwischen 0 und 1) an, mit dem sich die dargestellte Aktivität von der wirklichen unterscheidet. Partialvolumeneffekt: Bildartefakt in der Computertomographie. Dabei stellt sich ein Volumen, das im Vergleich zur Auflösung klein ist, als größeres Volumen mit geringerer Intensität dar.
6.3 Technik Positronen-Emissions-Tomographen wurden ständig weiterentwickelt, seit die ersten Instrumente mit einer Ortsauflösung von 1. . . 2 cm und geringer Sensitivität Mitte der
6 PET | 183
1970er Jahre aufgebaut wurden. Moderne Ganzkörper-PET haben mittlerweile eine Auflösung von 3. . . 5 mm mit deutlich höherer Sensitivität. Neue Entwicklungen zielen darauf ab, sowohl die Bildqualität als auch die Ortsauflösung bis hin zur physikalischen Grenze weiter zu verbessern. Die Detektoren und die Frontend-Elektronik tragen entscheidend zum Erreichen dieser Ziele bei.
6.3.1 Szintillationskristalle Für eine möglichst hohe Bildqualität müssen PET-Detektoren einige Anforderungen erfüllen. Um eine gute Auflösung zu erreichen, sollten die Detektoren in der Lage sein, den Ort der Wechselwirkung des Photons im Detektor möglichst präzise zu bestimmen. Das gelingt entweder über sehr kleine Detektorelemente oder über ausgedehnte Detektoren, die eine Möglichkeit zur genauen Ortsbestimmung der Wechselwirkung haben. Darüber hinaus sollten sie eine hohe Nachweiswahrscheinlichkeit für 511-keV-Photonen haben und eine hohe Packungsdichte erreichen. Sie sollten die Signale der eintreffenden Photonen schnell verarbeiten, damit ein möglichst kurzes Koinzidenzfenster verwendet werden kann. Die Energieauflösung der Detektoren sollte gut genug sein, um eine Energiediskriminierung zur Unterdrückung von gestreuten Photonen zu ermöglichen. Heutzutage verwenden nahezu alle Positronen-Emissions-Tomographen Szintillationsdetektoren. Ein Szintillationsdetektor (von lateinisch scintillare: funkeln, flackern) besteht aus einem transparenten Material, das die Eigenschaft hat, Lichtblitze auszusenden, wenn es von ionisierender Strahlung getroffen wird. Je höher die Energie der einfallenden Strahlung ist, desto mehr Lichtblitze entstehen. Diese werden dann durch einen Photomultiplier (PMT) oder eine Photodiode detektiert und in messbaren Strom umgewandelt. In diesem Zusammenhang ist es wichtig, zwischen den einfallenden hochenergetischen Photonen (511 keV) und den im Szintillator erzeugten optischen Photonen mit geringer Energie (wenige eV) zu unterscheiden. Ein einfallendes Photon erzeugt im Szintillator viele tausend optische Photonen. Das Signal eines PET-Detektors, egal ob es aus einem PMT oder einer Photodiode kommt, muss so weiterverarbeitet werden, dass zum einen eine Koinzidenzerkennung möglich ist und zum anderen die Informationen über die Position und die Energie des einfallenden Photons erhalten bleiben. Das verlangt unter Umständen eine speziell angepasste Frontend-Elektronik, bevor die Signale digitalisiert und weggeschrieben werden können. Szintillator: Material, das Lichtblitze aussendet, wenn es von ionisierender Strahlung getroffen wird.
Wichtige Szintillatoren für PET sind anorganische Kristalle. Sie werden charakterisiert durch ihre Dichte, die Menge an Photonen pro einfallendem 511-keV-Photon, die Dau-
184 | Simone Beer, Henrik Botterweck Tab. 6.3: Eigenschaften von Szintillatoren für die Positronen-Emissions-Tomographie [Knoll 2010].
NaJ(Tl) BGO GSO:Ce LSO:Ce
Dichte in g/cm3
Lichtausbeute in Photonen/MeV
3,67 7,13 6,71 7,4
38 000 8 200 9 000 25 000
Szintillationszeit Emissionsin ns Wellenlänge in nm 230 300 ∼ 56 47
415 480 440 420
Brechungsindex 1,85 2,15 1,85 1,82
er des Lichtblitzes und die Wellenlänge des emittierten Lichtes. Szintillatoren, die in der PET eingesetzt werden, sollten eine möglichst hohe Dichte haben, um die 511-keVPhotonen effektiv nachweisen zu können. Die Dauer des Lichtblitzes sollte möglichst kurz sein, damit ein enges Koinzidenzfenster benutzt werden kann und die Totzeit des Detektors nicht zu hoch wird. Eine wesentliche Quelle von Rauschen im Detektorsignal sind statistische Fluktuationen in der Anzahl der detektierten Szintillationsphotonen. Diese Fluktuationen unterliegen der Poisson-Statistik und gehen mit 1/√N, wobei N die Anzahl der detektierten Photonen ist. Da das Signal des Photodetektors sowohl zur Positionsbestimmung des einfallenden Photons als auch zur Energiediskriminierung verwendet wird, sollten die Fluktuationen möglichst gering sein. Daher sollte die Menge der erzeugten Photonen hoch sein und die Wellenlänge in einem Bereich liegen, in dem der Photodetektor empfindlich ist. Auch der Brechungsindex des Szintillators ist nicht unwichtig, da ein unpassender Brechungsindex unerwünschte Reflexionen an der Grenzfläche zwischen Photodetektor und Szintillator hervorrufen kann. Tab. 6.3 zeigt die Eigenschaften einiger für die PET wichtigen Szintillatoren. In den frühen 1980er-Jahren war Wismutgermanat (BGO) der Szintillator der Wahl. In den Folgejahren wurde er mehr und mehr durch neu entwickelte Szintillatoren wie Gadoliniumoxyorthosilikat (GSO) und Lutetiumoxyorthosilicat (LSO) ersetzt, die sich insbesondere durch eine höhere Lichtausbeute und kürzere Szintillationszeit auszeichnen. Heutzutage ist LSO oder LYSO (LSO mit geringem Zusatz an Yttrium, aber ansonsten fast gleichen Eigenschaften) in den meisten Fällen der Szintillator der Wahl, weil er im Vergleich zu BGO und GSO noch dichter ist und eine sehr hohe Lichtabgabe erzielt. Das erlaubt die Herstellung einzelner, sehr kleiner Detektorkristalle. Ein Nachteil von LSO-basierten Detektoren ist allerdings ein kleiner Anteil an intrinsischer Radioaktivität, der auf das Vorkommen des langlebigen radioaktiven Isotops 176 Lu im natürlichen Lutetium zurückzuführen ist.
6.3.2 Photodetektoren In den meisten PET-Detektoren werden Photomultiplier (PMT) als Photodetektoren verwendet (SPECT, s. Kap. 5, Abb. 5.4). Photomultiplier bestehen aus einer Pho-
6 PET | 185
tokathode, mehreren Dynoden und einer Anode. Das Szintillationslicht geht durch ein Fenster auf die Photokathode, eine lichtempfindliche Schicht, aus der durch die Photonen Elektronen gelöst werden. Jedes optische Photon hat, abhängig von seiner Wellenlänge, eine gewisse Wahrscheinlichkeit, ein Photoelektron auszulösen. Diese Wahrscheinlichkeit wird als Quanteneffizienz bezeichnet. Für die Szintillatoren aus Tab. 6.3 und typische Bialkali-Photokathoden liegt diese Wahrscheinlichkeit bei ∼ 20 %. Von der Photokathode werden die Elektronen durch ein elektrisches Feld auf die erste Dynode beschleunigt, eine Elektrode, die wiederum mit einem Material beschichtet ist, aus dem sich leicht Elektronen lösen können. Jedes beschleunigte Elektron löst in der Dynode mehrere Elektronenemissionen aus. Der Elektronenstrom wird also um einen entsprechenden Faktor verstärkt. Die Elektronen aus der ersten Dynode werden auf die zweite Dynode beschleunigt und so weiter, bis z. B. nach zehn Stufen eine Verstärkung des Elektronenstroms um ca. 106 erreicht wird. In der Anode werden am Ende die Elektronen gesammelt und erzeugen einen Spannungsimpuls. PMTs sind in verschiedensten Größen sowie als ortsempfindliche Varianten erhältlich. Der Vorteil von Photomultipliern ist die hohe erreichbare Verstärkung des Szintillationslichtes. Sie sind unempfindlich, stabil und sehr schnell. Ein Nachteil ist ihre Größe und der Preis. Außerdem sind sie sehr empfindlich gegenüber Magnetfeldern, wodurch sich ein Einsatz beispielsweise in kombinierten PET/MRT-Geräten verbietet. Eine Alternative zu PMTs sind Photodioden. Photodioden sind Halbleiterzähler. In ihnen findet keine Verstärkung wie im Photomultiplier statt. Daher ist das Signal einer Photodiode um einen Faktor ∼ 106 schwächer als das Signal eines PMTs. Das Resultat ist ein sehr viel schlechteres Signal-Rausch-Verhältnis und die Notwendigkeit, das Signal sehr viel länger integrieren zu müssen. Daher werden einfache Photodioden normalerweise in der PET nicht verwendet, obwohl sie sehr kostengünstig hergestellt werden können. Eine Modifizierung der Photodiode ist die Avalanche-Photodiode (APD). Sie unterscheidet sich von der herkömmlichen Photodiode dadurch, dass eine viel höhere Spannung angelegt wird. Dadurch bildet sich eine Ladungsträger-Lawine aus. Ein einzelnes Photon kann in einer APD einige tausend Ladungsträgerpaare erzeugen. Das Signal einer APD ist damit zwar längst nicht so hoch wie das eines PMTs, aber doch wesentlich höher als das einer normalen Photodiode. Allerdings haben APDs eine viel bessere Quanteneffizienz als Photomultiplier, so dass die geringere Verstärkung dadurch zum Teil kompensiert wird. Sie sind darüber hinaus klein und kompakt und nicht sensitiv auf Magnetfelder. Das macht sie zu interessanten Detektoren für die PET. Ein Nachteil ist allerdings die Empfindlichkeit der Verstärkung der APD auf Spannungs- und Temperaturschwankungen, so dass besondere Sorgfalt beim Betrieb von APDs angezeigt ist. Eine moderne Umsetzung der APD-Technik findet sich in sogenannten Silicon-Photomultipliern (SiPM) [Buzhan 2003].
186 | Simone Beer, Henrik Botterweck 6.3.3 Detektoraufbau Es gibt verschiedene Möglichkeiten, Szintillationskristalle so an Photodetektoren zu koppeln, dass die Position der einfallenden Strahlung möglichst gut wiedergegeben wird. Die am häufigsten verwendete Variante bei Tomographen der Humanmedizin ist der Block-Detektor (Abb. 6.4 (a)) [Casey 1986]. Ein Szintillationskristall wird von vier PMTs ausgelesen. Der Szintillationskristall ist mit Schnitten von unterschiedlicher Tiefe in Segmente geteilt. Das Szintillationslicht, das sich im Kristall ausbreitet, wird so geleitet und entsprechend auf die vier Photomultiplier verteilt. So wird z. B. das Licht, das in einer Ecke des Blocks erzeugt wird, fast ausschließlich von einem Detektor erfasst werden. Licht, das in der Mitte des Kristalls erzeugt wird, wird von allen vier Detektoren gesehen. Die Koordinaten des Kristalls, in dem die Szintillation stattgefunden hat, werden berechnet, indem die Signale der vier Photomultiplier miteinander in Beziehung gesetzt werden (vgl. das Anger-Prinzip der Gamma-Kamera in Kap. 5.5). Der Block-Detektor ist eine kostengünstige Variante, da 64 Positionen mit nur vier Photomultipliern ermittelt werden können. Somit können Tomographen mit tausenden von Detektorelementen realisiert werden. Für kleinere PET wird auch eine 1 : 1-Ankopplung von kleinen Szintillationskristallen an ortsempfindliche PMTs realisiert, entweder direkt (Abb. 6.4 (b)) oder über Lichtleiter. Mit dieser Variante lässt sich eine noch bessere Auflösung erreichen. Bis jetzt ging es nur darum, die X- und Y-Koordinate der Wechselwirkung zu ermitteln. Werden aber dickere Kristalle verwendet, um die Sensitivität des Tomographen zu erhöhen, ist eine Bestimmung der Wechselwirkungstiefe (DOI) im Kristall sinnvoll, um den Parallaxeneffekt zu reduzieren. Dazu gibt es verschiedene Möglichkeiten: Eine Variante ist, zwei verschiedene Szintillationskristalle sandwichartig aufeinander zu stapeln und z. B. anhand der unterschiedlichen Szintillationszeiten zu unterscheiden. Dieses Prinzip ist bekannt unter dem Namen Phoswich („Phosphor Sandwich“).
(a)
(b)
Abb. 6.4: Detektorkonzepte: (a) Block-Detektor; (b) direkte Kopplung.
6 PET |
187
Bei einer zweiten Variante werden die Szintillatoren von zwei Seiten ausgelesen. Auch die Abschätzung der Wechselwirkungstiefe aus der Signalform ist möglich.
6.3.4 Multimodale Bildgebung Da die PET aufgrund des Messprinzips nur funktionelle Information, aber keine Information über die zugrunde liegende Anatomie liefert, besteht grundsätzlich ein großes Interesse daran, auch die anatomische Information hinzuziehen zu können. Geeignete Modalitäten für die Darstellung der Anatomie sind die Computertomographie (CT) und die Magnetresonanztomographie (MRT oder kurz MR). Werden mehrere Modalitäten zusammen angewendet, spricht man von multimodaler Bildgebung oder Hybridbildgebung. Multimodale Bildgebung: Bildgebung mit mehreren, sich komplementär ergänzenden Modalitäten, z. B. PET/CT oder PET/MRT.
Dabei gestaltet sich die Kombination von PET und CT als relativ unkompliziert. Beide Tomographen werden in der Regel in einer Tandem-Konfiguration hintereinander in einem Gehäuse platziert, mit einer gemeinsamen Patientenliege, auf der der Patient durch beide Modalitäten gefahren wird. Zusätzlich zur anatomischen Information kann das CT auch dazu dienen, die Schwächungskorrektur für PET durchzuführen [Townsend 2004]. Dabei ist zu beachten, dass es durch die sehr kurze Messzeit des CT im Vergleich zur PET zu Bewegungsartefakten kommen kann. Ein Nachteil der zusätzlichen Untersuchung mittels CT ist allerdings die zusätzliche Strahlenbelastung aufgrund der Röntgenstrahlen. MRT liefert im Vergleich zum CT einen besseren Weichteilkontrast ohne jegliche zusätzliche Strahlenbelastung. Darüber hinaus besteht mit funktioneller MRT auch die Möglichkeit, zusätzliche funktionelle Information aus der MRT zu bekommen. Die Kombination von MRT und PET verspricht also viele interessante Möglichkeiten. Allerdings ist die instrumentelle Kombination von PET und MRT eine große Herausforderung, da konventionelle PET-Detektoren PMTs verwenden, die sehr empfindlich auf das Magnetfeld der MRT reagieren. Auf der anderen Seite können die PET-Signale die elektromagnetischen Hochfrequenz-Impulse der MRT stören. Daher müssen alternative Detektorkonzepte für die PET-Detektoren entwickelt werden. Zurzeit gibt es die ersten „PET-Inserts“, basierend auf Avalanche-Photodioden, für den Einsatz in der Humanmedizin und für Kleintier-Tomographen. Während bei einer PET/CT-Untersuchung beide Modalitäten sequentiell gemessen werden, können bei einem MRT mit PET-Insert die MRT- und die PETUntersuchung simultan stattfinden. Dieses bietet aufgrund der noch kürzeren Messzeit noch mehr Komfort für die Patienten. Außerdem werden Bewegungsartefakte weiter reduziert.
188 | Simone Beer, Henrik Botterweck
6.4 Algorithmen Ein idealer PET-Algorithmus würde alle physikalischen Effekte explizit und statistisch korrekt berücksichtigen. Das ist allerdings mathematisch und numerisch nicht realisierbar. Deshalb wird im Allgemeinen nur der 𝛽+ -Zerfall in der Rekonstruktion selbst modelliert, deren Regularisierung und Optimierung damit gut beherrschbar werden. Weitere Effekte wie Streuung und Zufallskoinzidenzen werden als Störung aufgefasst. Sie können entweder in der Vorverarbeitung als Datenkorrektur oder nachträglich als Bildkorrektur berücksichtigt werden. Dem Vorteil vereinfachter, separater Betrachtung dieser Effekte steht der Nachteil einer nicht mehr konsistenten statistischen Modellierung des Gesamtsystems gegenüber.
6.4.1 List mode – Sinogramm Die primären PET-Daten sind Koinzidenzen, die schon in der Hardware aufgrund der Signalstärken und -verläufe klassifiziert werden. Die Liste all dieser Ereignisse versehen mit Zeitmarken repräsentiert die vollständige Messinformation. Mit solchen Listmode-Daten können deshalb statistisch korrekte Rekonstruktionen gemacht werden; außerdem können nachträglich weitere Rekonstruktionsversuche optimiert werden. Jedoch ist eine direkte List-mode-Rekonstruktion sehr zeit- und speicheraufwendig, denn es müssen einige 108 Ereignisse sequentiell und wiederholt verarbeitet werden. Es ist deshalb üblich, die Ereignisse in eine diskrete Menge geometrisch vereinfachter LOR zu akkumulieren. Im idealisierten Fall würde jeder Gerade im Raum eine LOR entsprechen. Im zweidimensionalen Fall können die LOR nach ihrer Richtung und Verschiebung gegenüber dem Ursprung aufgetragen werden. Ein einzelner Aktivitätspunkt x im Objekt trägt dann zu einer LOR bei, die auf einer Sinuskurve erscheinen, deren Amplitude und Phase eindeutig von x abhängen, dem Sinogramm. Der Diskretisierung (binning) entspricht eine Integration aller Zerfälle über näherungsweise quaderförmige Volumenelemente entlang den LOR. Ursprünglich wurden alle zweidimensionalen Schichten separat gemessen und rekonstruiert. Vorteile dabei waren die schnellere Rekonstruktion und die Reduktion von Streuung durch Kollimatorbleche zwischen den Ebenen. Moderne PET-Scanner erfassen sämtliche Koinzidenzen im zylinderförmigen Detektor, wodurch die Sensitivität signifikant erhöht wird. List Mode (LM; dt. Listenmodus): Datenformat, in dem alle Ereignisse nacheinander, ggf. zusammen mit weiteren Informationen (Zeit, Position, Energie), in Form einer Liste gespeichert werden. Sinogramm (lat. sinus – Krümmung): Datenformat, in dem die Projektionen nach Richtung und Verschiebung vom Ursprungsort aufgetragen werden; ergibt einen vollständigen Datensatz zur Rekonstruktion einer Schicht als Gesamtheit aller Projektionen, zugeordnet zum Detektionsort, über eine Drehung von 0°bis 180°. Ein Punkt stellt sich im Sinogramm als Sinuskurve dar.
6 PET | 189
6.4.2 Analytische Rekonstruktion: Pseudo-Inverse Wie jede Tomographie ist die PET-Rekonstruktion ein schlecht gestelltes inverses Problem. Nicht zu jedem (fehlerbehafteten) Sinogramm P(𝜃, s) existiert eine passende Aktivitätsfunktion A(x). Die Radontransformation ist nicht surjektiv, ihr Bildbereich nur ein linearer Unterraum im Raum aller Sinogramme. Außerdem ist der Bildbereich der Radontransformation nicht abgeschlossen. Das bedeutet, dass die Rekonstruktion als inverse Transformation selbst auf dem Bildbereich nicht stetig ist. Beliebig kleine Fehler resultieren in großen Abweichungen des Urbildes (vgl. Abb. 5.14 in Kap. 5). Die mangelnde Surjektivität ist kein schwerwiegendes Problem, denn daraus folgen Konsistenzbedingungen an den Bildbereich möglicher Sinogramme, die die Entwicklung analytischer Rekonstruktionsalgorithmen sogar vereinfachen können, z. B. [Natterer 2001]. Da die Radontransformation also nicht allgemein invertierbar ist, kann man ihre Pseudo-Inverse betrachten, die jedem Sinogramm p eine Aktivitätsfunktion A zuordnet, so dass die L2 -Norm ‖RA − P‖ minimiert wird [Rieder 2003]. Diese least-squares(LSQ-) Lösung wird meist iterativ gefunden. Numerisch stabiler und effizienter ist die gefilterte Rückprojektion (Filtered Backprojection, FBP), wobei die Projektionen mit einem Ramp-Filter |k| im Fourierraum gefiltert und dann direkt zurückprojiziert werden. Weitere analytische Rekonstruktionsformeln lassen sich gewinnen, die bei rausch- und fehlerfreien Sinogrammen immer exakt invertieren, ansonsten aber zu verschiedenen Ergebnissen führen [Natterer 1999]. Für die PET müssen wir uns aber in stärkerem Maße als etwa bei der CT dem Problem der Regularisierung und den statistischen Effekten durch kleine Zählraten widmen. In Kombination erlaubt dies bisher keine sehr gute analytische Lösung, so dass iterative Verfahren entwickelt werden.
6.4.3 Schlecht gestellte Probleme und Regularisierung Wirklich schlecht gestellt wird die PET-Rekonstruktion durch obigen zweiten Punkt, die Unstetigkeit der Rekonstruktion. Es wird also eine Regularisierung notwendig: zusätzliche Terme oder Annahmen, die den inversen Radon-Operator durch eine geglättete, stetige Variante ersetzen [Scherzer 2009]. Die Aufgabe ist die Optimierung der Glättungsparameter als Kompromiss zwischen den Effekten der Datenfehler – kleine Rauschbeiträge ergeben große Abweichungen der Rekonstruktion – und der Regularisierungsfehler – zu starke Glättung und Verlust diagnostischer Details. Bei den analytischen Algorithmen der PET sind Regularisierungen gut verstanden. Bei der gefilterten Rückprojektion zeigt sich die Notwendigkeit der Regularisierung im unbeschränkten Anwachsen des Filterkerns |k|. Wie bei der CT können sie in glatter Weise bei hohen Frequenzen durch Fensterfunktionen abgeschnitten werden.
190 | Simone Beer, Henrik Botterweck Ein Nachteil vieler statistischer Verfahren ist die nur implizite Regularisierung durch vorzeitiges Beenden der Iteration. Es ist schwer, allgemeine Regeln zur optimalen Iterationszahl anzugeben.
6.4.4 Die Integraltransformation der PET Einer PET-Aufnahme entspricht mathematisch eine Abbildung vom Raum der 3DAktivitätsverteilungen A im Objekt in die Koinzidenzverteilungen über die LOR. Ohne Streuung ist diese Abbildung eine X-ray-Transformation – die Integration von A entlang der LOR, gewichtet mit der Schwächung entlang des Strahls. Eine Vereinfachung der PET gegenüber SPECT ergibt sich aus der Tatsache, dass sich die Schwächung der Zählrate aus dem Produkt der Schwächungen beider einzelnen Photonenpfade ergibt. Deshalb ist sie unabhängig von der Position eines Zerfalls auf der LOR. In 2D mit dem LOR-Richtungswinkel 𝜃 der Verschiebung s, dem Einheitsvektor n𝜃 in LOR-Richtung und n⊥𝜃 senkrecht darauf sowie dem lokalen Absorptionskoeffizienten 𝜇(x) ist die PET-Transformation: ⊥
R[A](𝜃, s) = e∫ 𝜇(sn𝜃 +tn𝜃 )dt ∫ A(sn⊥𝜃 + tn𝜃 )dt
(6.7)
Wenn die Schwächung aus einer zusätzlichen Transmissionstomographie bekannt ist, wird eine quantitative Rekonstruktion von A(x) aus R[A](𝜃, s) möglich. Transmission (lat. trans – hinüber; mittere – schicken): Durchstrahlung des Messobjektes aus Quellen, die sich innerhalb des Detektorrings befinden; dient zur Abschätzung der Schwächung der Emissionsstrahlung durch das Objekt und zur Streukorrektur.
6.4.5 Klassifikation der PET-Rekonstruktionsverfahren Man kann die Rekonstruktionsalgorithmen in analytische und diskrete unterteilen, sie als „statistisch“ oder „nichtstatistisch“ auffassen sowie geschlossene Lösungen den iterativen gegenüberstellen (vgl. Kap. 5.6 SPECT Rekonstruktionsverfahren). All diese Unterscheidungen sind unabhängig voneinander! Wir unterscheiden drei unabhängige Diskretisierungsschritte: 1. die Zerlegung der Volumenaktivität in eine endliche Linearkombination von Basisfunktionen, normalerweise kartesischen Voxeln, aber alternativ auch symmetrieangepasste Volumenelemente oder auch rotationssymmetrische Blobs für eine realistischere Modellierung der (Rück-) Projektion 2. die Zerlegung des Projektionsraumes in diskrete LOR, passend zu den physikalischen Detektorpaaren oder in interpolierter Geometrie
6 PET |
3.
191
die Diskretisierung der Zerfallsaktivität in Photonen, wie sie durch die Quantenmechanik unvermeidlich ist.
Ein Rekonstruktionsverfahren kann vor oder nach der Diskretisierung betrachtet werden. Die gefilterte Rückprojektion (FBP) wird primär im kontinuierlichen Raum entwickelt, statistische Rekonstruktionen sind endlichdimensional und diskret.
6.4.6 Statistisch modellierte PET-Rekonstruktion Jeder Rekonstruktion liegt implizit oder explizit ein statistisches Modell der Messung zugrunde. Der 𝛽+ -Zerfall ist als Folge unabhängiger, gleichverteilter Ereignisse Poisson-verteilt; die Wahrscheinlichkeit, dass in einem Teilvolumen mit Aktivität A innerhalb der Zeit T genau n Zerfälle stattfinden ist: p(n) = e−AT
(AT)n n!
(6.8)
Bei hohen Zählraten kann eine Gauss-Verteilung angenommen werden. Unter dieser Näherung sind least-squares und die ähnlich wirkenden Rückprojektionsalgorithmen (FBP) nahezu optimal. Aber je mehr Eingangskanäle existieren (3D-PET, TOF, DOI), desto weniger Ereignisse werden im Einzelnen erwartet. Wenn man aus solchen zufallsverteilten Größen abgeleitete Parameter – also die Aktivitätsverteilung – schätzen will, so ist ein unter gewissen Bedingungen bestmögliches Optimierungsprinzip die Maximum-Likelihood-Schätzung: Wenn p(P|A) eine bekannte Wahrscheinlichkeitsdichte für Sinogramme P bei gegebener Aktivitätsverteilung A ist, dann ist L(A|P) = p(P|A) die likelihood von A bei beobachtetem P und AML = arg maxA L(A|P)
(6.9)
die Maximum-Likelihood-(ML-)Schätzung von A. Im Grenzfall großer Beobachtungsmengen konvergiert sie gegen den wahren Wert und dann hat auch kein anderer erwartungstreuer Schätzer eine bessere, d. h. geringere Varianz. Für kleine Stichprobenmengen muss das aber nicht gelten und schon gar nicht, wenn die Verteilung p(P|A) nur näherungsweise bekannt ist. Beides bewirkt, dass bei der PET-Rekonstruktion zum einen eine realistische Modellierung angestrebt wird, zum anderen die eigentliche ML-Lösung gar nicht berechnet wird, sondern eine regularisierte Form. Eine wichtige Variante stellen die Maximum-a-posteriori-(MAP-)Schätzer dar. Es soll zu einem beobachteten Sinogramm P die wahrscheinlichste Aktivität A unter Berücksichtigung von Vorwissen gefunden werden. Mit der Bayes’schen Regel stellen wir um: p(A) p(A|P) = p(P|A) ⋅ (6.10) p(P) Dabei ist p(A) die A-priori-Wahrscheinlichkeit, also unsere Erwartung an die möglichen A aufgrund anatomischen Wissens oder gewisser Glättungsannahmen. Die be-
192 | Simone Beer, Henrik Botterweck dingte Wahrscheinlichkeit p(A|P) stellt den A-posteriori-Wert unter Berücksichtigung der Messung dar. Dieses Vorgehen wäre optimal, wenn die A-priori-Verteilung gut bekannt wäre. Aus praktischen und numerischen Gründen werden aber oft nur Glattheitsbedingungen gestellt.
6.4.7 Expectation maximization Für PET kann die likelihood nur iterativ maximiert werden. Der am weitesten verbreitete Algorithmus ist Expectation Maximization (EM). Statt der eigentlich zu optimierenden Funktion wird eine betrachtet, die von weiteren, unbeobachtbaren Fakten abhängt – nämlich vom tatsächlichen Herkunftsort der einzelnen Ereignisse einer LOR. Zwei Schritte wechseln sich ab: Expectation (E-Schritt): Bestimme den Erwartungswert der log-likelihood der Aktivität, gemittelt über alle möglichen Werte der unbeobachtbaren Größen (Annihilationsorte). Die Gewichte dieser Mittelung ergeben sich aus den Beobachtungen und der aktuellen Aktivitätsschätzung. Maximisation (M-Schritt): Bestimme eine neue Aktivitätsschätzung durch Maximieren der im letzten Schritt gefundenen Funktion. Für PET heißt das konkret [Shepp und Vardi 1982]: Bestimme zur aktuellen Schätzung das erwartete Sinogramm (Vorwärtsprojektion). Hier können alle Effekte realistisch modelliert werden, was den großen Vorteil iterativer Verfahren gegenüber den analytischen ausmacht. Berechne den Quotienten aus den gemessenen und den eben geschätzten LOR-Raten. Multipliziere die Aktivität an Orten x mit einem Faktor entsprechend den Quotienten des vorigen Schritts im Sinogrammraum, wenn man sie so gewichtet, wie sich die Annihilationen bei x über das Sinogramm verteilen (Rückprojektion). Der letzte Schritt bedeutet anschaulich, dass die Korrekturkoeffizienten vom Sinogramm entlang den LOR zurück in das Aktivitätsvolumen projiziert werden und sich dort entsprechend mitteln. Unpraktikabel wird der originale EM-Algorithmus durch seine schlechte Konvergenz; oft wären über 100 Iterationen notwendig. Eine Reduktion wird möglich, wenn in jedem Schritt nur eine Teilmenge aller LOR betrachtet wird: Ordered Subset EM (OSEM). Für stabile Konvergenz müssen die Teilmengen möglichst gleichviel, aber komplementäre Information enthalten. Grundsätzlich ist das Konvergenzverhalten des OSEM-Algorithmus nicht trivial: Verschiedene Größen- und Frequenzskalen konvergieren unterschiedlich, so dass Artefakte entstehen können. Bei einer empirisch zu bestimmenden Iterationszahl ergibt sich die beste Bildqualität, entsprechend der Regularisierung bei analytischen Algorithmen.
6 PET | 193
6.4.8 Korrekturen Um die bestmögliche Bildqualität zu erreichen und eine quantitative Auswertung zu ermöglichen, müssen noch einige Korrekturen durchgeführt werden. Zu den wichtigsten zählen die Detektornormierung und die Kalibrierung. Die Sensitivität ist für jede LOR unterschiedlich: Die Szintillationskristalle sind nicht optisch äquivalent, die Photomultiplier dejustieren mit der Zeit etc. Man kann die LOR-Sensitivität vereinfachend als Produkt voneinander unabhängiger Faktoren schreiben, die jeweils nur von der Geometrie (Einfallswinkel) oder einem einzelnen Detektorelement abhängen. Damit kann die Anzahl unbekannter Normierungsfaktoren von mehreren Millionen (Anzahl der LOR) auf einige Tausend (Detektorelemente) reduziert werden, was eine statistisch stabilere Messung ermöglicht. Die Zeitspanne verringerter Sensitivität eines einzelnen Detektorpixels wird bestimmt von optischen (Nachleuchtdauer der Szintillation) und elektronischen Komponenten. Durch die Koinzidenzdetektion kommen systemweite Effekte hinzu. Verwandt ist das Phänomen des pile-up: Mehrere Photonen treffen gleichzeitig einen Kristall an verschiedenen Positionen oder einzelne Photonen werden gestreut und produzieren an verschiedenen Stellen Szintillationslicht. Diese Effekte sind unter der Detektortotzeit zusammengefasst. Abgeschätzt wird sie durch Messungen des Zerfalls starker Quellen. Die Abweichung vom erwarteten exponentiellen Zerfallsgesetz zeigt die Totzeiteffekte auf. Die Zählrate für zufällige Koinzidenzen lässt sich zwar aus den Einzelraten der Detektoren abschätzen, aber wegen der Detektortotzeit ist es üblich, sie aus den Koinzidenzraten selbst zu schätzen. Dazu werden für jede LOR zusätzlich diejenigen Koinzidenzen gezählt, die sich ergeben, wenn einer der beiden Detektorkanäle um eine feste Zeit D verschoben wird, die größer als T ist. So ergeben sich ausschließlich Zufallskoinzidenzen, so dass aus dem Vergleich der zeitverschobenen mit den originalen Daten auf die Rate der zufälligen Koinzidenzen geschlossen werden kann. Bei einer Subtraktion der Zufallsereignisse ist die schlechtere Statistik der Koinzidenzraten im Vergleich zu den Einzelraten zu beachten – die Differenz fehlerbehafteter Größen kann den relativen Fehler stark vergrößern. In einer statistischen Rekonstruktion können die Zufallsereignisse auch im Vorwärtsprojektor einbezogen werden, was die Subtraktion erspart. Durch die teilweise sehr kleinen physikalischen Halbwertszeiten der verwendeten Tracer ist auch eine Zerfallskorrektur erforderlich. Die Zählratenschwächung durch Absorption ist bei PET unabhängig von der Position der Emission entlang der LOR. Sie ist jedoch recht groß, da viele LOR weit im Körper verlaufen. Die gemessenen Ereignisse werden dadurch je nach Patient und Aufnahme um 50. . . 95 % reduziert. Ohne Korrektur erscheinen ernsthafte Artefakte. Es muss deshalb für jede LOR ein Korrekturfaktor bestimmt werden. Traditionell werden dazu stabförmige, innerhalb des Detektorrings rotierende Quellen (z. B. 68 Ge/68 Ga oder 137 Cs) zu einer Transmissionsmessung verwendet. Wenn eine CT-Rekonstruktion
194 | Simone Beer, Henrik Botterweck vorhanden ist (PET/CT), kann auch diese zur Schwächungskorrektur verwendet werden. Sie hat im Allgemeinen eine höhere Ortsauflösung und man kann die LORKorrekturfaktoren durch Integration über die entsprechenden Strecken gewinnen. Wichtig ist die Umrechnung der Absorption aus dem Bereich der Ursprungsmessung um 100 keV auf die PET-Energie von 511 keV. Wegen der starken Abhängigkeit der Absorption von der Kernladungszahl Z und der Photonenenergie E ist die Extrapolation stark materialabhängig. Man segmentiert die gemessene Schwächung deshalb nach dem Gewebetyp, im Wesentlichen Knochen, Muskel-/Fettgewebe, Lunge, Luft, und verwendet die entsprechenden Wirkungsquerschnitte. Die Streuung der Photonen trägt vor allem im 3D-Modus stark zur Zählrate bei. Ein Detektor mit idealer Energieauflösung würde eine Abtrennung der gestreuten Photonen durch Verwendung von Energieschwellen ermöglichen. Nun haben die bei der PET verwendeten Szintillationsdetektoren in der Regel Energieauflösungen von 10. . . 20 %. Viele Annihilationsphotonen übertragen durch den Compton-Effekt auch nur einen Bruchteil ihrer Energie im Szintillator. Daher sind PET-Energiefenster häufig sehr groß, etwa 350. . . 650 keV, so dass bis zur Hälfte der detektierten Ereignisse gestreut sind. Allen Korrekturansätzen liegt ein Streumodell sowie die Messung ergänzender Information zugrunde. Bei der geometrischen Streuinterpolation beobachtet man einen etwa exponentiellen Abfall der Streuung an den Objekträndern. Aus daran angepassten Extrapolationsfunktionen wird die Streuung im Innern geschätzt und vom Sinogramm subtrahiert. Diese Methode funktioniert nur bei sehr homogenen Objekten. In ähnlicher Weise kann man versuchen, aus schon erkannten starken Streuzentren die sie umgebende Streuung durch Entfaltung mit einem geschätzten Streukern herauszurechnen (Dekonvolution). Eine weitere weit verbreitete Methode ist die Energieextrapolation, eine Schätzung aus zusätzlichen Energiefenstern. Im einfachsten Fall wird die Streuung für Zählraten bei Energien weit unter 511 keV gemessen und auf das gemessene Energiefenster für Koinzidenzen zurückgerechnet. Dafür sind Kalibrationsmessungen zur Berücksichtigung energieabhängiger Detektoreffizienzen notwendig; außerdem ändert sich die Energieabhängigkeit der Streuung mit der Objektstruktur, wodurch modellabhängiges Vorwissen eingeht. Da Phantommessungen zeitaufwendig und fehleranfällig sind, ist eine feinere Modellierung vorteilhaft. Ein Beispiel dafür ist die Verwendung dreier statt zweier Energiefenster [Shao 1994]. Einen Schritt weiter gehen modellgestützte Verfahren, in denen die Streuung im Objekt basierend auf einem vorhandenen Modell des Objekts und Scanners (Phantommessungen) berechnet wird [Ollinger 1996]. Besonders attraktiv sind solche Algorithmen, wenn eine gute Transmissionsrekonstruktion (PET/CT) vorliegt und deshalb die Absorption und Compton-Streuung ortsabhängig bekannt sind. Die aufwendigsten Methoden bestimmen die Streuung aus einer realitätsnahen Simulation, die auf einer vorherigen Rekonstruktion ohne oder mit einfacher Streukorrektur beruht. Daraus werden Organ- und Körpergrenzen segmentiert, um den gesamten Bildgebungsprozess nachzubilden.
6 PET | 195
6.4.9 Effiziente Implementierung Bei der statistischen 3D-PET Rekonstruktion sind sehr viele LOR iterativ zu betrachten. Es ist entscheidend, speziell die Vorwärtsprojektion effizient zu implementieren. So muss nicht für jeden Annihilationsort der geometrische Beitrag zu jeder LOR berechnet werden, da das System Symmetrien in der zylinderförmigen Detektoranordnung besitzt. Es können symmetrieangepasste Koordinaten verwendet werden. So wird auch eine List-mode-Rekonstruktion über jeden beobachteten Zerfall einzeln möglich. LOR, die bezüglich der Symmetrie äquivalent sind, können zusammengefasst werden; mehrere solcher Gruppen können dann gleichzeitig von verschiedenen Prozessorkernen bearbeitet werden. Zu verfolgende LOR-Strahlen sollten so abgearbeitet werden, dass jeweils auf die physikalischen Speicherzellen einer „memory page“ zugegriffen wird. Das ist nicht ganz einfach, da ja der Computerspeicher linear angeordnet, das zu betrachtende Volumen aber dreidimensional ist.
6.5 Klinische Anwendungen Die PET wird hauptsächlich zur Erkennung und Überwachung von Tumoren und Metastasen, in der Diagnostik kardiologischer und neurologischer Erkrankungen sowie in der präklinischen Forschung eingesetzt. Abb. 6.5 zeigt einige kommerziell erhältliche Tomographen. Neben einer Bildqualität, die präzise Aussagen ermöglicht, sollten Tomographen der Humanmedizin eine hohe Sensitivität haben, um einen hohen Patientendurchsatz bei möglichst geringer applizierter Dosis zu ermöglichen. In der Onkologie ist 18 F-Fluordesoxyglukose (FDG), ein Glukoseanalogon, der Tracer der Wahl. Tumorzellen verbrauchen aufgrund eines erhöhten Stoffwechsels meistens viel Glukose. Daher ist die PET mit FDG eine sensitive Methode für die Erkennung und das Staging (die Stadienbestimmung zur Feststellung des Ausbreitungsgrades eines bösartigen Tumors) von Tumorerkrankungen sowie für die Überprüfung des Ansprechens auf Therapien. Einen Überblick über FDG-PET/CT in der Onkologie gibt [Krause 2007]. FDG 18 F-Fluordesoxyglukose: Standardtracer für PET.
In der Kardiologie kann der funktionelle Aspekt einer Herzerkrankung für die Therapieplanung und Prognoseabschätzung von großer Bedeutung sein. Die PET wird dabei zur Untersuchung der myokardialen Perfusion und des myokardialen Stoffwechsels 82 eingesetzt. Als Tracer werden neben FDG auch 13 NH3 , H15 2 O und Rb eingesetzt. Einen Überblick über die Methoden und klinischen Anwendungen der Nuklearkardiologie gibt der Positionsbericht der Arbeitsgemeinschaft Kardiovaskuläre Nuklearmedizin der Deutschen Gesellschaft für Nuklearmedizin 2001 [Arbeitsgemeinschaft Kardio-
196 | Simone Beer, Henrik Botterweck
(a)
(b)
Abb. 6.5: Beispiele für Positronen-Emissions-Tomographen der (a) Humanmedizin und (b) für Kleintiere (Bilder von Siemens Health Care).
vaskuläre Nuklearmedizin 2001]. Bei PET-Untersuchungen des Herzens wird die Bildqualität von Bewegungsartefakten durch Atmung und Herzschlag beeinflusst. Abhilfe schafft hier eine Synchronisation der Datenaufnahme mit der Bewegung („gated-PET“). Die Bewegungen werden durch geeignete Sensoren erfasst und in die Auswertung mit einbezogen, indem z. B. die Daten zeitlich so geordnet werden, dass sie jeweils nur aus einer bestimmten Phase des Herzzyklus stammen. Die effektive Aufnahmezeit pro Bild wird dementsprechend reduziert. Für PET-Untersuchungen des Gehirns, insbesondere zur Befundung bei Epilepsie, Demenzen und Hirntumoren, wird sehr häufig wiederum FDG verwendet. Darüber hinaus kommt aber auch eine Reihe von weiteren Tracern zum Einsatz. Neben der Messung des zerebralen Glukosemetabolismus erlauben sie unter anderem die Untersuchung des regionalen zerebralen Blutflusses und die Messung komplexer biochemischer Vorgänge wie z. B. die Interaktion von Rezeptoren mit spezifischen Liganden. In der Forschung ist PET zudem zu einem wertvollen Werkzeug in der Arzneimittelentwicklung geworden, indem es wesentliche Erkenntnisse über die Wirkmechanismen und Kinetik der Substanzen und damit Informationen über eine optimale Dosierung liefert. Im Rahmen der präklinischen Bildgebung mittels PET werden grundlegende biochemische Prozesse von Krankheiten, neue Tracer oder die Wirkung neuer Therapien an lebenden Tieren erforscht [Chatziioannou 2002]. Da es sich in der Regel um Mäuse oder Ratten handelt, sollte die Auflösung der präklinischen Tomographen entsprechend gut sein, um auch sehr kleine Strukturen analysieren zu können.
6 PET |
197
Sowohl für klinische Ganzkörperuntersuchungen als auch Herzuntersuchungen ist ein Tomograph mit einem Durchmesser nötig, der möglichst wenig Menschen aufgrund ihres Gewichtes von einer Untersuchung ausschließt. Für diese Anwendungen kann auch das Einbeziehen einer Time-of-Flight-(TOF-)Information sinnvoll sein, da die Verbesserung der Bildqualität aufgrund von TOF proportional zur Größe des untersuchten Objektes ist [Surti 2006]. Da für die Tomographie des Kopfes oder auch für Kleintiere ein deutlich kleinerer Ringdurchmesser nötig ist, können für spezielle Hirn-Tomographen oder KleintierTomographen aufwendigere und teurere Detektorkonzepte verwendet werden, durch die z. B. die Auflösung des Tomographen erhöht wird. Auch die simultane MR/PETBildgebung wurde als Erstes für spezielle Tierscanner und Hirnscanner umgesetzt, z. B. als PET-Insert in ein MRT [Judenhofer 2008]. Während für Ganzkörper-PET die Kombination von PET mit CT mittlerweile zum Standard gehört, ist aufgrund der besseren Weichteil-Kontrastdarstellung eine Kombination mit der MRT besonders gut zur funktionalen Bildgebung in der Neurologie geeignet.
6.6 Qualitätssicherung und Normen 6.6.1 Strahlenschutzverordnung Der Umgang mit offenen Radionukliden wird durch die Strahlenschutzverordnung (StrlSchV) geregelt. Richtlinien wie die „Richtlinie Strahlenschutz in der Medizin“ ergänzen diese Verordnung und dienen als Ausführungsbestimmungen. Ärzte, die radioaktive Stoffe am Menschen anwenden, müssen die erforderliche Fachkunde im Strahlenschutz besitzen. Außerdem ist die Mitwirkung eines Medizinphysik-Experten erforderlich. Die Strahlenschutzverordnung regelt u. a. die Genehmigungsvoraussetzungen, Fragen zur Beförderung der radioaktiven Stoffe, Fachkunde und betriebliche Organisation des Strahlenschutzes, Indikationen und Beschränkungen der Anwendung radioaktiver Stoffe am Menschen sowie Maßnahmen zur Qualitätssicherung. In der atomrechtlichen Genehmigung der zuständigen Behörde zum Betrieb eines Positronen-Emissions-Tomographen können weitere Auflagen enthalten sein.
6.6.2 Regelmäßige Qualitätskontrolle Um eine einwandfreie technische Durchführung der Untersuchung zu erreichen, verlangt § 83 Absatz 5 StrlSchV, dass in regelmäßigen Abständen Messungen zur Qualitätskontrolle durchgeführt werden und die Aufzeichnungen 10 Jahre aufzubewahren sind. Für die grundlegenden Messungen werden in der Regel geeignete Messprotokolle und Phantome vom Hersteller des Tomographen zur Verfügung gestellt. Die Normen DIN 6855-4 (Qualitätsprüfung nuklearmedizinischer Messsysteme – Teil 4: Konstanz-
198 | Simone Beer, Henrik Botterweck prüfung von Positronen-Emissions-Tomographen [PET]) und DIN EN 61675-1 (Bildgebende Systeme in der Nuklearmedizin – Merkmale und Prüfbedingungen – Teil 1: Positronen-Emissions-Tomographen) regeln die notwendigen Verfahren und Prüfhäufigkeiten für Konstanzprüfungen an den Tomographen, zu denen als halbjährliche Prüfung die Prüfung von Kalibrierungsfaktor und Kreuzkalibrierung, die transversale Auflösung, der Abbildungsmaßstab und die Bilddokumentation zählen. Jährlich ist eine Überprüfung der mechanischen Teile durchzuführen. In jedem Fall sollte zu Beginn eines jeden Untersuchungstages ein sogenannter Daily Check durchgeführt werden. Das ist ein möglichst einfaches, innerhalb weniger Minuten durchzuführendes Messverfahren zur Analyse der grundlegenden Leistungen der Hardware. Eine visuelle Kontrolle des Ergebnisses erlaubt es, beispielsweise defekte Detektoren zu identifizieren. Weitere Werte wie z. B. Uniformität oder Zeitverhalten können zusätzlich protokolliert werden. Abweichungen im Verlauf der Zeit können darauf hinweisen, dass eine neue Detektoreinrichtung erfolgen sollte. Darüber hinaus sollten regelmäßig eine Detektornormierung, ein Blank-Scan und eine Quantifizierungskalibrierung durchgeführt werden. Im Rahmen einer regelmäßigen Wartung des Tomographen werden darüber hinausgehende Einstellungen durch den Kundendienst durchgeführt.
6.6.3 NEMA-Standard Neben den DIN-Normen gibt es weitere Standards für Charakterisierungsmessungen von Positronen-Emissions-Tomographen, die von der National Electrical Manufacturers Association (NEMA) herausgegeben worden sind. Da Positronen-Emissions-Tomographen in der Vergangenheit in den USA eine größere Verbreitung gefunden haben als in den meisten europäischen Ländern, hat sich der NEMA-Standard als meistbenutzter Standard etabliert. Aktuelle Standards sind NEMA NU 2-2007 für Tomographen der Humanmedizin und NEMA NU 4-2008 für hochauflösende Kleintier-Tomographen. Die Messungen des NEMA NU 2-2007 Standards und seiner Vorgänger NU 2-1994 und NU 2-2001 sind so ausgelegt, dass sie besonders aussagekräftig für Ganzkörper-Untersuchungen sind. Beide Standards sind geeignet für Tomographen mit intrinsischer Radioaktivität, die von lutetiumhaltigen Szintillatoren stammt. Sie geben Phantome und genaue Mess- und Auswertevorschriften für die Ermittlung der Ortsauflösung, Sensitivität, Totzeitverhalten und Bildqualität vor. Für die meisten kommerziellen Positronen-Emissions-Tomographen lässt sich in der Literatur eine Charakterisierung nach einem NEMA-Standard finden (z. B. [Bao 2009, Brix 1997, Jakoby 2011, Mawlawi 2004, Surti 2007]). Da die Messungen standardisiert sind, ist dadurch auch ein fairer Vergleich zwischen unterschiedlichen Tomographen möglich.
6 PET | 199
6.7 Nebenwirkungen/Grenzwerte Die bei einer PET-Untersuchung verwendeten Radiopharmaka sind häufig aufgrund der Messmethode den körpereigenen Substanzen sehr ähnlich, außerdem werden sie in sehr geringer Dosierung verabreicht. Aus diesem Grund sind Nebenwirkungen aufgrund der pharmakologischen Intervention nicht zu erwarten. Mögliche, aber sehr unwahrscheinliche Nebenwirkungen können sich aufgrund des notwendigen Zugangs zu den Blutgefäßen für die Injektion des Tracers oder eine notwendige Blutabnahme ergeben. Hauptsächlich liegt das Risiko einer PET-Untersuchung darin, dass die Patienten radioaktiver Strahlung ausgesetzt werden. Der Strahlenschutz der Bevölkerung folgt gemäß den Empfehlungen der Internationalen Strahlenschutzkommission ICRP einer einfachen Regel: „ALARA – as low as reasonably achievable“. Für eine PET-Untersuchung ist von einem Arzt mit der erforderlichen Fachkunde im Strahlenschutz die „rechtfertigende Indikation“ nach § 80 StrlSchV zu stellen, d. h., der gesundheitliche Nutzen für den Patienten muss die möglichen Risiken überwiegen. Eine Untersuchung mit [18 F]-FDG beispielsweise bewirkt typischerweise eine effektive Dosis von ∼ 7 mSv. Diese Dosis ist in Relation zur natürlichen Strahlenexposition zu sehen, die durch Quellen wie z. B. kosmische Strahlung oder die Strahlung der natürlich vorkommenden Radionuklide in der Umwelt bei 2,1 mSv pro Jahr liegt. Die Schwellendosis für akute Schäden aufgrund von radioaktiver Strahlung liegt bei einer deutlich höheren Dosis von ∼ 200 mSv. Mit steigender Dosis nimmt aber die Wahrscheinlichkeit für Spätschäden zu. Dabei erhöht sich die Wahrscheinlichkeit für das Auftreten von tödlichem Krebs um 0,005 % pro mSv und die Wahrscheinlichkeit für das Auftreten von schweren Erbschäden um 0,001 % pro mSv. Dem „allgemeinen“ Risiko für tödlichen Krebs von ca. 23 % und dem raucherspezifischen Risiko von ca. 8 % steht damit ein Risiko von 0,035 % durch eine [18 F]-FDG-Messung gegenüber (s. auch Kap. 7, Biologische Wirkung ionisierender Strahlung und Dosimetrie). In den Veröffentlichungen der Internationalen Strahlenschutzkommission ICRP sind für eine große Anzahl weiterer Tracer detaillierte Informationen über die Biokinetik und die entsprechenden Organ- und Körperdosen zu finden ([ICRP 1988] und zugehörige Addenda). Bei der PET/CT kommt zur Strahlenexposition des PETRadiopharmazeutikums zusätzlich die Strahlenexposition durch die CT, als ob es sich um getrennte Untersuchungen handeln würde.
6.8 Neue Entwicklungen und Trends Die technischen Herausforderungen der kombinierten PET/MRT sind soweit gelöst, dass die Geräte bereits in der Praxis eingesetzt werden können. Aus den Anwendungen erwachsen neue Fragestellungen, die sich z. B. aus der unterschiedlichen Auflösung der beiden Modalitäten ergeben und Bewegungskorrekturen nötig machen, oder
200 | Simone Beer, Henrik Botterweck auch die Nutzung der MRT-Daten für notwendige Korrekturen wie die Schwächungskorrektur. Bei der Weiterentwicklung von PET-Detektoren spielen die neuen „Silicon-Photomultiplier“ (SiPM) [Buzhan 2003] aktuell eine große Rolle und scheinen eine sehr interessante Alternative zu herkömmlichen Photomultipliern zu sein, da sie sehr kompakt sind und unempfindlich auf Magnetfelder reagieren. Eine neue Entwicklung bei den Kristallen sind monolithische Szintillationskristalle, in denen der Ursprung des Szintillationslichtes durch mathematische Methoden ermittelt wird. Sie haben gegenüber Block-Detektoren oder einzelnen Kristallstäbchen eine Menge Vorteile, so z. B. eine genaue Ermittlung der Wechselwirkungstiefe und hohe Sensitivität, da kein Raum durch Schnitte oder reflektierende Materialen verloren geht. Eine Herausforderung ist die Stabilität der Positionsbestimmung bzw. der nötigen Kalibrationsmessungen [van Dam 2011]. Diese neuen Entwicklungen versprechen die Bildqualität der PositronenEmissions-Tomographen sowie die Kombinierbarkeit mit anderen Modalitäten weiter zu verbessern. Auch durch die Entwicklung neuer, spezifischer Tracer wird die PET mit ihrer hohen Sensitivität ihre Bedeutung im wachsenden Bereich der molekularen Bildgebung behalten. Dabei werden verlässliche quantitative Rekonstruktions- und Auswertemethoden auch im Bereich der Forschung immer wichtiger.
Quellenverzeichnis Arbeitsgemeinschaft Kardiovaskuläre Nuklearmedizin der Deutschen Gesellschaft für Nuklearmedizin e.V.: Methoden und klinische Anwendung der Nuklearkardiologie: Positionsbericht. Göttingen: Deutsche Gesellschaft für Nuklearmedizin (DGN), 2001. Bao Q., Newport D., Chen M., Stout D. B., Chatziioannou A.: Performance evaluation of the Inveon dedicated PET preclinical tomograph based on the NEMA NU-4 Standards. J Nucl Med 2009; 50: 401–408. Brix G., Zaers J., Adam L-E., Bellemann M. E., Ostertag H., Trojan H., Haberkorn U., Doll J., Oberdorfer F., Lorenz W. J.: Performance evaluation of a whole-body PET scanner using the NEMA Protocol. J Nucl Med 1997; 38: 1614–1623. Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit: Strahlenschutz in der Medizin. Richtlinie nach der Verordnung über den Schutz vor Schäden durch ionisierende Strahlen (Strahlenschutzverordnung – StrlSchV). Berlin: 2002. Buzhan P., Dolgoshein B., Filatov L., Ilyin A., Kantzerov V., Kaplin V., et al.: Silicon photomultiplier and its possible applications. Nucl Instr Meth A 2003; 504: 48–52. Casey M. E., Nutt R.: A multicrystal two dimensional BGO detector system for positron emission tomography. IEEE Trans Nucl Sci 1986; 33: 460–463. Chatziioannou A. F.: Molecular imaging of small animals with dedicated PET tomographs. Eur J Nucl Med 2002; 29: 98–114. Hubbel J. H., Seltzer S. M.: Tables of X-ray mass attenuation coefficients and mass energy-absorption coefficients from 1 keV to 20 MeV for elements Z = 1 to 92 and 48 additional substances of dosimetric interest. NIST Standard Reference Database 126. Gaithersburg, MD: National Institute of Standards and Technology (NIST), 2004.
6 PET | 201
International Commission on Radiological Protection: Radiation dose to patients from radiopharmaceuticals. ICRP Publication 53. Ann ICRP 1988; 18 (1–4). Jakoby B. W., Bercier Y., Conti M., Casey M., Bendriem B., Townsend D. W.: Physical and clinical performance of the mCT time-of-flight PET/CT scanner. Phys Med Biol 2011; 56: 2375–2389. Judenhofer M. S., Wehrl H. F., Newport D. F., Catana C., Siegel S. B., Becker M., et al.: Simultaneous PET-MRI: a new approach for functional and morphological imaging. Nat Med 2008; 14: 459–465. Krause B. J., Beyer T., Bockisch A., Delbeke D., Kotzerke J., Minkov V., Reiser M., Willich N., Arbeitsausschuss PET in der DGN: FDG-PET/CT in der Onkologie. Nuklearmedizin 2007; 46: 291–301. Levin C., Hoffman E. J.: Calculation of positron range and its effect on the fundamental limit of positron emission tomography system spatial resolution. Phys Med Biol 1999; 44: 781–799. Mawlawi O., Podoloff D. A., Kohlmyer M. S., Williams J. J., Stearns C. W., Culp R. F., Macapinlac H.: Performance characteristics of a newly developed PET/CT scanner using NEMA standards in 2D and 3D modes. J Nucl Med 2004; 45: 1734–1742. Melcher C. L.: Scintillation crystals for PET. J Nucl Med 2000; 41: 1051–1055. National Electrical Manufacturers Association: Performance measurements of positron emission tomographs. NEMA Standards Publication NU 2–2007. Rosslyn, VA., 2007. National Electrical Manufacturers Association: Performance measurements of small animal positron emission tomographs. NEMA Standards Publication NU 4–2008. Rosslyn, VA., 2008. Normenausschuss Radiologie (NAR) im DIN: DIN 6855-4 Qualitätsprüfung nuklearmedizinischer Messsysteme – Teil 4: Konstanzprüfung von Positronen-Emissions-Tomographen (PET). Berlin: DIN Deutsches Institut für Normung, 2004. Normenausschuss Radiologie (NAR) im DIN: DIN EN 61675-1 Bildgebende Systeme in der Nuklearmedizin – Merkmale und Prüfbedingungen – Teil 1: Positronen-EmissionsTomographen. Berlin: DIN Deutsches Institut für Normung, 2010. Ollinger J. M.: Model-based scatter correction for fully 3D PET. Phys Med Biol 1996; 41: 153–176. Pfennig G., Klewe-Nebenius H., Seelmann-Eggebert W.: Karlsruher Nuklidkarte, 6. Aufl., korrig. Nachdr. Lage, Lippe: Haberbeck, 1998. Scherzer O., Grasmair M., Grossauer H., Haltmeier M., Lenzen F.: Variational methods in imaging. Reihe: Applied Mathematical Sciences 167. Berlin: Springer, 2009. Shao L., Freifelder R., Karp J. S.: Triple energy window scatter correction technique in PET. IEEE Trans Med Imaging 1994; 13: 641–648. Shepp L. A., Vardi Y.: Maximum likelihood reconstruction in positron emission tomography. IEEE Trans Med Imaging 1982; 1: 113–122. Surti S., Karp J., Popescu L. M., Daube-Witherspoon M., Werner M.: Investigation of time-of-flight benefit for fully 3-D PET. IEEE Trans Med Imag 2006; 25: 529–538. Surti S., Kuhn A., Werner M. E., Perkins A. E., Kolthammer J., Karp J. S.: Performance of Philips Gemini TF PET/CT scanner with special consideration for its time-of-flight imaging capabilities. J Nucl Med 2007; 48: 471–480. Townsend D. W., Carney J. P. J., Yap J. T., Hall N. C.: PET/CT today and tomorrow. J Nucl Med 2004; 45: 4S-14S. Van Dam H. T., Seifert S., Vinke R., Dendooven P., Löhner H., Beekman F. J., Schaart D. R.: Improved nearest neighbour methods for gamma photon interaction position determination in momolithic scintillator PET detectors. IEEE Trans Nucl Sci 2011; 58: 2139–2147. Verordnung über den Schutz vor Schäden durch ionisierende Strahlen (Strahlenschutzverordnung – StrlSchV). Bonn: Bundesgesetzblatt Jahrgang 2001, Teil I, Nr. 38, 2001.
202 | Simone Beer, Henrik Botterweck
Weiterführende Literatur Knoll G. F.: Radiation detection and measurement. 4. Aufl. New York: Wiley, 2010. Natterer F.: Numerical methods in tomography. Acta Numerica 1999. Natterer F., Wübbeling F.: Mathematical methods in image reconstruction. Monographs on Mathematical Modeling and Computation 2001; 5: SIAM. Phelps M. E.: PET: molecular imaging and its biological applications. New York: Springer, 2004. Phelps M. E.: PET: Physics, instrumentation, and scanners. New York: Springer Science+Business Media, LLC, 2006. Rieder A.: Keine Probleme mit inversen Problemen. Wiesbaden: Vieweg, 2003.
Testfragen 1. Welche beiden Faktoren limitieren die grundsätzlich erreichbare Auflösung der Positronen-Emissions-Tomographie? 2. Welche Anforderungen muss ein PET-Detektor erfüllen? 3. Was wird in der PET-Datenerfassung als list mode bezeichnet? Warum wird dieser in der Rekonstruktion häufig durch akkumulierte Sinogramm-Daten ersetzt? 4. Warum stellt die Schwächung durch Absorption in der PET ein kleineres Problem dar als in der SPECT? Formulieren Sie dazu die Integraltransformation der PET mit Schwächung mathematisch. 5. Zählen Sie typische Korrekturen der PET-Rekonstruktion auf, die zusätzlich zum idealisierten Verfahren berücksichtigt werden müssen. 6. Welche Eigenschaften dürfen PET-Detektoren nicht haben, wenn sie in einem MRT betrieben werden sollen? Gilt das auch, wenn sie in einem CT betrieben werden?
Olaf Dössel
7 Biologische Wirkung ionisierender Strahlung und Dosimetrie 7.1 7.2 7.3 7.4 7.5 7.6 7.7
Motivation und Einleitung | 204 Stochastische und deterministische Wirkungen | 204 Dosimetrische Größen und deren Einheiten | 205 Quantitative Bewertung des Risikos für Schäden durch ionisierende Strahlung | 209 Typische Dosis bei Röntgen- und nuklearmedizinischen Untersuchungen | 210 Dosimeter | 211 Gesetzliche Vorschriften | 213
Zusammenfassung: Ionisierende Strahlung wie z. B. Röntgen- oder Gammaquanten kann dem Menschen schaden. Es wäre ein Fehler, darauf in diesem Buch nicht einzugehen. Die biologische Wirkung ionisierender Strahlung ist aber ein sehr weites Forschungsthema, das hier nur sehr kurz behandelt werden kann. Deterministische und stochastische Wirkungen werden beschrieben. Die dosimetrischen Größen dienen der quantitativen Bewertung des Risikos, durch diagnostische Röntgen- oder Gammastrahlung einen gesundheitlichen Schaden zu erleiden. Die bei Röntgenaufnahmen oder nuklearmedizinischen Untersuchungen üblichen Dosen werden angegeben. Mehrere gesetzliche Vorschriften regeln den Betrieb von röntgendiagnostischen oder nuklearmedizinischen Einrichtungen und gewährleisten einen sicheren Umgang mit ionisierender Strahlung. Abstract: Ionizing radiation can be harmful for humans – an aspect that cannot be neglected in a book on medical imaging. However, the biological effect of ionizing radiation is a wide research area that can only be discussed briefly in this book. Deterministic and stochastic effects are described first. Further the methodology to quantitatively evaluate the risk of health hazards arising from ionizing radiation is outlined on the basis of quantities and units of dosimetry. Typical doses applied in X-ray imaging and nuclear medicine are presented. The safe operation of X-ray and nuclear medicine systems and laboratories is ensured by several legal regulations that are summarized here.
204 | Olaf Dössel
7.1 Motivation und Einleitung In einem Buch über die bildgebenden Verfahren der Medizin, in dem die Röntgentechnik und die nuklearmedizinischen Abbildungsverfahren beschrieben werden, darf der Hinweis auf die mögliche Schädigung des Körpers durch ionisierende Strahlung nicht fehlen. Aber es muss darauf hingewiesen werden, dass es andere Bücher gibt, die dieses Thema in den Vordergrund gestellt haben und es damit sehr viel ausführlicher behandeln, als es hier möglich ist [Schlegel und Bille 2002]. Ionisierende Strahlen sind Röntgen- bzw. Gammaquanten, Elektronen, Protonen, Neutronen, schwere Kerne (z. B. C), Alphateilchen und Fragmente der Kernspaltung. In diesem Buch ist nur von Röntgen- und Gammaquanten die Rede, daher wird die biologische Wirkung der anderen Strahlenarten hier nicht behandelt.
7.2 Stochastische und deterministische Wirkungen Trifft ein Röntgen- oder Gammaquant auf eine Zelle, so werden in erster Linie viele Wassermoleküle getroffen und es entstehen Ionen, Radikale und Elektronen mit hoher kinetischer Energie (Abb. 7.1). Die Elektronen können weitere Wassermoleküle treffen. Zu einem deutlich geringeren Prozentsatz werden auch andere Moleküle direkt getroffen – hier sei wegen der besonderen Bedeutung die DNA im Zellkern genannt. Radikale sind hoch reaktive kurzlebige Molekülfragmente mit mindestens einem ungepaarten Elektron. Das wichtigste Radikal in diesem Zusammenhang ist ein Frag-
ionisierendes Teilchen
Zelloberfläche Liposomen Ribosomen
Mitochondrium vom Tubulus-Typ
raues endoplasmatisches Retikulum
Nucleolus Poren der Kernhülle
Golgi-Komplex
Abb. 7.1: Zelle und ionisierendes Teilchen.
Mitochondrium vom Crista-Typ
7 Biologische Wirkung ionisierender Strahlung und Dosimetrie |
205
ment des Wassers: das Hydroxyl-Radikal OH− . Diese Radikale können den Zellen Schaden zufügen, indem sie mit Molekülen der Zelle reagieren und so deren Funktion beeinträchtigen. Eine ganze Reihe solcher Schäden wird nach kurzer Zeit durch natürliche Prozesse wieder „repariert“, wenn die Einwirkung von außen ein „erträgliches Maß“ nicht überschreitet. Die Dosis, die nicht überschritten werden darf, kann für alle Zelltypen des Körpers folgendermaßen bestimmt werden: Gesunde Zellen in einem Kulturmedium teilen sich mit einer typischen Rate. Wird durch die Einwirkung der Strahlen diese „Kolonienbildung“ gestoppt, so ist die maximale Dosis erreicht. Bleibt man unterhalb dieser Dosis, gilt: je kleiner die Dosis, desto kleiner der Effekt auf die Zellteilungsrate (der Effekt ist nicht unbedingt linear: siehe Dosiseffektkurven). Schäden, die sich so verhalten, werden als deterministische Schäden bezeichnet. Bei großen kerntechnischen Unfällen ist es vorgekommen, dass Menschen einer so großen Strahlung ausgesetzt waren, dass ein sehr großer Teil ihrer Zellen nicht repariert werden konnte und sie daran gestorben sind. Auch dies sind deterministische Schäden. Die LD 50/60 ist die lethale Dosis, bei der 50 % der betroffenen Menschen nach 60 Tagen verstorben sind. Sie beträgt für gesunde Menschen 3 bis 5 Gy [Knedlitschek und Weibezahn 2002] (die Einheit wird in Kap. 7.3 erklärt). Deterministische Schäden: Schäden des Körpers durch ionisierende Strahlen, die umso größer werden, je größer die Dosis ist. Stochastische Schäden: Schäden des Körpers durch ionisierende Strahlen, bei denen die Wahrscheinlichkeit für einen Schaden mit der Dosis zunimmt.
Nun gibt es aber auch Schäden, die nicht repariert werden können oder bei deren Reparatur zufällig etwas „schief gegangen ist“. Hierzu zählen insbesondere Schäden an der DNA, die sowohl durch direkte Treffer als auch durch Reaktion mit freien Radikalen entstanden sein können. Man unterscheidet stochastische Schäden an den allgemeinen Körperzellen und stochastische Schäden an den Keimzellen. Die Ersteren können in einer Kaskade weiterer Prozesse Krebs auslösen. Die Zweiten können zu einer Schädigung des möglicherweise aus diesen Keimzellen entstehenden Lebewesens führen. Schon eine sehr kleine Dosis kann, wenn auch mit sehr kleiner Wahrscheinlichkeit, einen stochastischen Schaden auslösen.
7.3 Dosimetrische Größen und deren Einheiten Die quantitative Messung von einem Fluss von Röntgen- oder Gammaquanten durch den Raum (ein Strahlenfeld) führt zu den Größen „Teilchenflussdichte“ und „Energieflussdichte“.
206 | Olaf Dössel Die Teilchenflussdichte von einem parallelen Strahlenbündel ist als Zahl der Teilchen N (z. B. Photonen) pro senkrecht zum Flussvektor stehender Fläche dA pro Zeit dt definiert. Teilchenflussdichte 𝜙: Zahl der Teilchen bzw. Photonen pro Durchtrittsfläche und Zeitintervall in 1/(m2 s). Zahl der Teilchen d2 N 𝜙= = Fläche (senkrecht) ⋅ Zeit dA ⋅ dt Teilchenfluenz 𝛷: Teilchenflussdichte, integriert über ein Zeitintervall in 1/m2 . 𝛷=
Zahl der Teilchen dN = = ∫ 𝜙dt Fläche (senkrecht) dA
Die Teilchenfluenz 𝛷 ist die über eine vorgegebene Zeitspanne integrierte Photonenzahl pro Fläche. Diese Größe erlaubt unmittelbar die Berechnung der Zahl der Photonen pro Pixel, die für das Quantenrauschen (Poisson-Statistik, s. Kap. 21.5) maßgeblich ist. Für einen nicht in eine Richtung ausgerichteten Photonenfluss wird die Zahl der Photonen genommen, die pro Zeit dt in eine Kugelfläche dA eintritt. Die Energieflussdichte 𝜓 ist bei einem parallelen Strahlenbündel die Energie E, die durch eine senkrecht stehende Fläche dA pro Zeit dt hindurchtritt. Sie ist bei Photonen identisch mit dem Poyntingvektor der elektromagnetischen Feldtheorie. Energieflussdichte 𝜓: durch eine Fläche pro Zeitintervall hindurchtretende Energie in Form von Strahlung in J/m2 s = W/m2 . 𝜓=
durchtretende Energie d2 E = Fläche (senkrecht) ⋅ Zeit dA ⋅ dt
Energiefluenz 𝛹: Energieflussdichte, integriert über ein Zeitintervall, in J/m2 . 𝛹=
dE = ∫ 𝜓dt dA
Die Energiefluenz 𝛹 ist die über ein Zeitintervall integrierte Energieflussdichte. Hätte man einen monoenergetischen Photonenstrahl mit der Quantenenergie h𝜈, so würde gelten: 𝜓 = h𝜈 ⋅ 𝜙 und 𝛹 = h𝜈 ⋅ 𝛷 (7.1) Die Aufgabe, ein Strahlenfeld quantitativ auszumessen, führt zu den Größen Ionendosis und Ionendosisleistung. Die genauen Definitionen sind: Halten wir eine mit Luft gefüllte Messkammer in einen Strahlengang und bestimmen die in dieser Messkammer durch Ionisation gebildete Ladungsmenge (eines Vorzeichens) dividiert durch die Masse des Gases in der Kammer, so erhalten wir die Ionendosis J. Die zeitliche Ableitung der Ionendosis ist die Ionendosisleistung.
7 Biologische Wirkung ionisierender Strahlung und Dosimetrie
| 207
Ionendosis: Maß für die ionisierende Strahlung. Die in einem Messobjekt durch Strahlung gebildete Ladung (eines Vorzeichens) pro Masse des Messobjekts (z. B. der Masse des Gases in einer Messkammer) in As/kg. Ionendosis J =
in einer Messkammer gebildete Ladungsmenge dQ = Masse des Gases in der Messkammer dm
Ionendosisleistung J:̇ Ionendosis pro Zeitintervall, in A/kg. Ionendosisleistung J ̇ =
dJ dt
Früher wurde die Ionendosis in der Einheit Röntgen (R) angegeben, wobei 1 R = 2,58 ⋅ 10−4 As/kg. Die Masse des Gases in der Messkammer erhält man, indem man den Druck und die Temperatur misst und daraus die Dichte bestimmt. Dann multipliziert man die Dichte mit dem Volumen der Messkammer und erhält die Masse. Es sollte beachtet werden, dass die Messkammer selber den Photonenfluss nur sehr wenig absorbieren sollte. Mithilfe eines geeigneten Massenschwächungskoeffizienten von Luft (der natürlich von der Photonenergie abhängt), kann aus der Teilchenflussdichte 𝜙 die Ionendosisleistung berechnet werden (und umgekehrt). Die Frage nach dem Schaden, der einem Körper zugefügt wird, der sich diesem Photonenfluss aussetzt, führt als Erstes zu der Größe Kerma K (kinetic energy released in matter): Kerma K: Energiedosis bei Sekundärelektronengleichgewicht in J/kg = Gy (Gray). K=
dEtr bei der ersten Wechselwirkung übertragene kinetische Energie = dm Masse
Die Kerma kann mit einem geeigneten Massenschwächungskoeffizienten 𝜇/𝜌 aus der Energiefluenz berechnet werden. Der Massenschwächungskoeffizient hängt vom Material (Wasserkerma bzw. Luftkerma) und der Photonenergie ab. Im nächsten Schritt definiert man die gesamte im Objekt deponierte Energie pro Masse: die Energiedosis D. Energiedosis D: in einem Körper durch Strahlung deponierte Energie pro Masse des Körpers in J/kg = Gy (Gray). in der Probe deponierte Energie Energiedosis = D = Masse der Probe ̇ Energiedosisleistung D: Energiedosis pro Zeitintervall in J/(kg s) = Gy/s. Energiedosisleistung Ḋ =
dD dt
208 | Olaf Dössel Tab. 7.1: Bewertungsfaktoren q für verschiedene Strahlenarten (für Neutronen und Protonen unbekannter Energie).
Bewertungsfaktor q
Photonen
Elektronen
Neutronen
Protonen
Alphateilchen
1
1
10
10
20
Früher wurde die Energiedosis in Rad (rd) gemessen, wobei 1 rd = 10 mGy. Die Energiedosis wird in Gray gemessen und beschreibt schon relativ gut den biologischen Schaden, der durch die Strahlung im Körper angerichtet wird. Sie kann auch aus der Energiefluenz 𝛹 berechnet werden (vgl. Kerma). Unterschiedliche Strahlenarten richten einen unterschiedlich großen Schaden im Gewebe an. Beispielsweise zeigen Protonen eine sehr viel dichtere Spur von Ionen und sind damit schädlicher als Photonen. Diesem Umstand trägt man dadurch Rechnung, dass ein strahlenartabhängiger relativer Bewertungsfaktor eingeführt wird. Tab. 7.1 zeigt die festgelegten Werte für den Bewertungsfaktor q. Mit diesem Bewertungsfaktor erhält man schließlich die Definition der Äquivalentdosis: Äquivalentdosis: Produkt aus Energiedosis und einem strahlenartabhängigen Faktor, der die biologische Wirksamkeit berücksichtigt. Dieser Faktor wurde für Röntgenstrahlen auf 1 festgelegt. Die Äquivalentdosis wird in der Einheit Sievert (Sv) angegeben. Äquivalentdosis = H = q ⋅ D Äquivalentdosisleistung H:̇ Äquivalentdosis pro Zeitintervall in J/kgs = Sv/s. Äquivalentdosisleistung = Ḣ = q ⋅ Ḋ
Der Bewertungsfaktor für Photonen wurde willkürlich auf 1 festgelegt. Früher wurde die Äquivalentdosis in rem angegeben, wobei 1 rem = 10 mSv. Die jetzt gültige Einheit der Äquivalentdosis ist, da der Bewertungsfaktor keine Einheit hat, wieder J/kg. Um Verwechslungen zu vermeiden, wurde die Einheit Sievert (Sv) für die Äquivalentdosis eingeführt. Da der Bewertungsfaktor für die in diesem Buch interessierenden Röntgen- und Gammaquanten 1 ist, ist der Zahlwert für die Energiedosis in Gy und die Äquivalentdosis in Sv hier gleich. Absorbiert ein Körper tatsächlich einen wesentlichen Anteil der auftreffenden Photonen, so wird ein kleines Volumenelement an der Oberfläche die größte Dosis erhalten (Hautdosis). Je tiefer das Volumenelement im Körper liegt, desto kleiner ist dann die Energiedosis (Tiefendosis). Bei der sogenannten Ganzkörperdosis wird die ungleichmäßige Verteilung der Dosis im Körper vernachlässigt und einfach die gesamte deponierte Energie durch das Körpergewicht geteilt. Bei der Organdosis wird entsprechend die im Organ deponierte Energie durch das Gewicht des Organs geteilt.
7 Biologische Wirkung ionisierender Strahlung und Dosimetrie
|
209
Für verschiedene Anodenspannungen und Aluminiumfilter (die das Spektrum der Röntgenstrahlen festlegen) sowie für verschiedene Absorbermaterialien (im Wesentlichen Luft, Wasser und Körpergewebe) hat man nun die Energiedosis, die zu einem Strahlungsfeld einer bestimmten Ionendosis gehört, sehr genau ausgemessen und in Tabellen festgehalten. Damit kann man aus einer gemessenen Ionendosis die zu erwartende Energiedosis ausrechnen [DIN 6827]. Beispielsweise gilt: J⋅f =D fWasser, 100 kV, 4,2 mm Al = 34, 50 Gy/(As/kg) fMuskel, 100 kV, 4,2 mm Al = 35, 66 Gy/(As/kg)
(7.2)
7.4 Quantitative Bewertung des Risikos für Schäden durch ionisierende Strahlung Man muss zwischen dem Risiko, an Krebs zu erkranken, und dem Risiko einer Schädigung des Erbgutes unterscheiden. Das Risiko, aufgrund einer Untersuchung mit diagnostischer Röntgenstrahlung an Krebs zu erkranken, kann nur aus wenigen empirischen Studien u. a. mit den Opfern der Atombomben auf Hiroshima und Nagasaki abgeschätzt werden. Hierbei muss zwischen kleinen Dosen im Bereich einiger mSv und großen Dosen im Bereich einiger Sv unterschieden werden. Für diagnostische Röntgenstrahlung sind nur die kleinen Dosen maßgeblich. Das relative Risiko RR, durch eine diagnostische Strahlenexposition an Krebs zu erkranken, gibt den Faktor an, um den die Spontanrate der jeweiligen Tumoren durch Strahlenexposition erhöht wird. Bezieht man sich hierbei auf das Risiko, irgendwann im Verlauf des gesamten restlichen Lebens an Krebs zu erkranken, so spricht man vom relativen Lebenszeitkrebsrisiko. Das attributive Risiko beträgt RR − 1, da bei keiner Erhöhung des Risikos der Wert für RR gerade 1 ist. Relatives Risiko (RR): Risiko, durch eine Strahlenexposition an Krebs zu erkranken. Es, gibt den Faktor an, um den die Spontanrate der Tumorerkrankung durch die Exposition erhöht wird. Relatives Lebenszeitrisiko: relatives Risiko, irgendwann im restlichen Leben an Krebs zu erkranken. Attributives Risiko: relatives Risiko minus 1. Damit ist das attributive Risiko Null, wenn durch die bewerteten Einflüsse keine zusätzlichen Erkrankungen auftreten.
Das attributive relative Lebenszeitrisiko muss genau genommen für alle Organe des Körpers getrennt angegeben werden, da jedes Organ unterschiedlich empfindlich auf ionisierende Strahlung reagiert (Gewebegewichtsfaktoren und effektive Dosis). Auch ist das Risiko natürlich vom Alter bei der Strahlenexposition abhängig: Bei Kindern
210 | Olaf Dössel und Jugendlichen ist das Risiko deutlich größer als bei Menschen, die älter als 40 Jahre sind. Schließlich muss man zwischen Männern und Frauen unterscheiden. Trotzdem macht es Sinn, auch die pauschalen Werte abzuschätzen. Man sollte aber wissen, dass es für den Einzelfall (wenn Alter, Geschlecht und Art der Exposition bekannt sind) Methoden gibt, das Risiko genauer zu bestimmen. Die Internationale Strahlenschutzkommission ICRP gibt einen pauschalen Wert von 5,2 % pro Sievert für das attributive Lebenszeitrisiko, an Krebs zu erkranken, und für vererbbare Schäden einen Wert von 0,2 % pro Sievert an [ICRP 2007]. Das bedeutet, dass nach einer Aufnahme mit 1 mSv im statistischen Mittel von 1 Mio. Patienten 52 dadurch an Krebs sterben. Das muss verglichen werden mit einer Zahl von ca. 220 000 Krebstoten pro Jahr in Deutschland. Bezogen auf ca. 80 Mio. Einwohner entspricht das 2750 Krebstoten pro 1 Mio. Menschen. In Deutschland beträgt die natürliche Strahlenexposition 2,4 mSv pro Jahr. Die 220 000 Krebstoten pro Jahr haben also überwiegend andere Ursachen als die natürliche oder diagnostische Strahlenbelastung. Ebenfalls sei zum Vergleich gesagt: Ein Transatlantikflug verursacht eine zusätzliche Dosis von ca. 0,03 mSv. Diese Dosis kann bei ca. zwei von 1 Mio. Passagieren eine Krebserkrankung auslösen.
7.5 Typische Dosis bei Röntgen- und nuklearmedizinischen Untersuchungen Die Äquivalentdosis, die bei einer typischen Röntgenuntersuchung appliziert wird, schwankt sehr stark. Daher ist es riskant, hier Werte anzugeben. Trotzdem erscheint es dem Autor wichtig, die Größenordnung der applizierten Äquivalentdosis anzugeben (Tab. 7.2). Hierbei ist mit „effektiver Dosis“ diejenige Dosis gemeint, die bei der Berechnung des Risikos mit den Pauschalwerten verwendet werden sollte. Man erkennt, dass die Nierenangiographie und die Koronarangiographie (Herzkatheter) mit relativ großen Dosen verbunden sind. Hierbei ist zu beachten, dass die Tab. 7.2: Typische Äquivalentdosen in der Röntgendiagnostik [Jung 1998]. Untersuchung
Organ
Organdosis in mSv
Effektive Dosis in mSv
Schädel Thorax Becken Mammographie Angiographie CT vom Schädel CT vom Thorax Durchleuchtung Magen-Darm
rotes Knochenmark Lunge und weibliche Brust rotes Knochenmark weibliche Brust rotes Knochenmark rotes Knochenmark Lunge, weibliche Brust rotes Knochenmark
4 0,3 0,3 4 40 5 20 17
0,2 0,2 0,1 2,5 30 2 10 6
7 Biologische Wirkung ionisierender Strahlung und Dosimetrie
211
|
Tab. 7.3: Typische Äquivalentdosen in der Nuklearmedizin [wikibooks 2012]. Organ
Radiopharmazeutikum
Applizierte Dosis in MBq
Effektive Dosis in mSv
Schilddrüse
99m
Lunge – Perfusion Leber Knochen
99m
185 150 74 74 740
1,9 9,2 0,8 0,7 4,2
Tc-Pertechnetat 131I -Jodid
Tc-MAA Tc-S-Kolloid 99m Tc-MDP 99m
Krankheiten, die es zu untersuchen gilt (z. B. Herzinfarkt), oft einen tödlichen Ausgang nehmen und daher ein höheres Strahlenrisiko akzeptiert wird. In der Szintigraphie erfolgt die Berechnung der Äquivalentdosis völlig anders als in der Röntgendiagnostik, da in der Nuklearmedizin ein radioaktives Isotop in den Körper des Patienten injiziert wird. Aber die Äquivalentdosis hat natürlich die gleiche Bedeutung wie in der Röntgendiagnostik. Tabelle 7.3 zeigt einige typische Werte. An einigen Durchleuchtungssystemen wird am Bedienpult der Anlage die im Verlauf der Untersuchung insgesamt applizierte Äquivalentdosis angezeigt. Wie kann die Röntgenanlage abschätzen, welche Dosis der Patient bereits abbekommen hat? Der Schlüssel zu der Antwort ist die sogenannte Äquivalentdosisleistungskonstante 𝛤H (Abb. 7.2). Diese Zahl gibt die Äquivalentdosisleistung bei 1 mA Anodenstrom und 1 m Abstand zwischen Röhre und Patient an. Daraus erhält man die Äquivalentdosisleistung nach folgender Formel: I Ḣ = 𝛤H ⋅ A rRP
(7.3)
wobei IA der Anodenstrom und rRP der Abstand zwischen der Röntgenröhre und dem Patienten ist. Die Äquivalentdosis ist dann das Zeitintegral der Äquivalentdosisleistung, also die Summe aus allen gewählten Äquivalentdosisleistungen multipliziert mit den zugehörigen Belichtungszeiten. Wird für die Röhre beispielweise eine Anodenspannung von 100 kV gewählt, ein 2 mm Aluminiumfilter verwendet, 60 mA Anodenstrom und eine Belichtungszeit von 1 s eingestellt, so hat der Patient eine Dosis von 10 mSv bekommen.
7.6 Dosimeter Das Personal, welches im Bereich einer röntgendiagnostischen oder nuklearmedizinischen Einrichtung arbeitet, unterliegt der Strahlenschutzkontrolle. Es muss bei der Arbeit ständig Dosimeter am Körper tragen, um eine Messung der Äquivalentdosis, die möglicherweise versehentlich appliziert wurde, zu ermöglichen. Im Einsatz sind sogenannte Stabdosimeter und Dosimeter mit Filmplaketten. Bei den Stabdosimetern wird ein kleiner beweglicher Faden in einer kleinen Ionisations-
212 | Olaf Dössel 1000 Filter in mm
Äquivalentdosisleistungskonstante I¯R in (mSv m²)/(mA min)
1 Be 100 0,2 Al 0,5 Al 1 Al 2 Al 3 Al 10 0,5 Cu
2 Cu
1
3,4 Cu
0,1 50
150 100 Röhrenspannung in kV
200
Abb. 7.2: Äquivalentdosisleistungskonstante nach [DIN 6812].
kammer elektrostatisch aufgeladen. Geht nun ionisierende Strahlung durch das Dosimeter, so entlädt sich der Faden und verkippt im Dosimeter. Dies ist mit einer Lupe zu erkennen. Die Filmplaketten sind mit einem hochempfindlichen Röntgenfilm ausgestattet und zeigen eine Schwärzung, wenn sie belichtet wurden. In den Plaketten sind außerdem verschiedene Metallplättchen angebracht, mit deren Hilfe eine Aussage über die ungefähre Energie der Strahlung und deren Einfallsrichtung möglich ist. Die Filme müssen regelmäßig entwickelt und quantitativ ausgemessen werden.
7 Biologische Wirkung ionisierender Strahlung und Dosimetrie
| 213
7.7 Gesetzliche Vorschriften Den ordnungsgemäßen Umgang mit Röntgenquellen in der Röntgendiagnostik und mit radioaktiven Isotopen in der Nuklearmedizin regeln in Deutschland Gesetze und Verordnungen. Sie sollen hier kurz erwähnt werden. Den Betrieb von Röntgeneinrichtungen regelt die Röntgenverordnung RöV (zu finden unter www.gesetze-im-internet.de, einem Service des Bundesministeriums der Justiz). Hier soll nur ein Ausschnitt der Verordnung skizziert werden, der das Original nicht ersetzen kann, sondern nur einen Eindruck vermittelt. Die Röntgeneinrichtungen müssen eine Bauartzulassung haben. Der Betreiber muss das Aufstellen bei der zuständigen Behörde (verschieden je nach Ort) anzeigen und die Einrichtung abnehmen lassen. Die Anlage darf nur in speziellen dafür zugelassenen Räumen betrieben werden. Jede Änderung muss angezeigt und von der zuständigen Einrichtung abgenommen werden. Es muss einen Strahlenschutzverantwortlichen und Strahlenschutzbeauftragte geben, welche die nötige Sachkunde nachweisen und die bei der zuständigen Behörde benannt werden müssen. Eine regelmäßige Qualitätssicherung ist vorgeschrieben, zu der auch die sogenannte „Konstanzprüfung“ [DIN 6868] gehört, die mindestens einmal im Monat durchgeführt werden muss. Darin sind bestimmte Messprozeduren detailliert vorgeschrieben, die regelmäßig durchgeführt und protokolliert werden müssen. Die Mitarbeiter, die im Bereich der Röntgeneinrichtung arbeiten, gehören zur Gruppe der „beruflich strahlenexponierten Personen“. Sie unterliegen der Strahlenüberwachung, müssen am Arbeitsplatz ständig Körperdosimeter tragen und einen Strahlenpass führen. Die Anwendung von Röntgenstrahlen am Menschen dürfen nur Ärzte mit der nötigen Fachkunde anordnen. Sie müssen dabei die ärztlichen Leitlinien einhalten, insbesondere muss eine „rechtfertigende Indikation“ vorliegen. Darüber hinaus gelten die Vorschriften des Medizinproduktegesetzes [MPG]. Für nuklearmedizinische Einrichtungen ist die Strahlenschutzverordnung maßgeblich (StrlSchV, zu finden unter www.gesetze-im-internet.de). Auch die bildgebenden Systeme der Nuklearmedizin unterliegen der Genehmigung und Überwachung durch die zuständige Behörde und müssen arbeitstäglich (Energiefenster, Untergrundzählrate) bzw. wöchentlich (Homogenität, örtliche Auflösung) auf ihre Funktion geprüft werden [DIN 6855]. Das Personal unterliegt der Strahlenschutzkontrolle, und es müssen Dosimeter getragen werden. Die Anwendung von radioaktiven Substanzen am Patienten darf nur durch Ärzte erfolgen, welche die erforderliche Fachkunde erworben haben. Auch hier unterliegt die Anwendung mehreren ärztlichen Leitlinien, von denen nur in begründeten Fällen abgewichen werden darf. Im Vergleich zu Projektionsröntgen und CT kommt der Umgang mit radioaktiven Substanzen hinzu, der besonderen Bestimmungen unterliegt. Auch die Exkremente der Patienten (insbesondere der Urin) sind möglicherweise radioaktiv und müssen den Vorschriften entsprechend entsorgt werden.
214 | Olaf Dössel
Quellenverzeichnis DIN 6812: Deutsches Institut für Normung e. V. www.din.de. DIN 6827: Deutsches Institut für Normung e. V. www.din.de. DIN 6855: Deutsches Institut für Normung e. V. www.din.de. DIN 6868: Deutsches Institut für Normung e. V. www.din.de. de.wikibooks.org/wiki/Physikalische_Grundlagen_der_Nuklearmedizin/_Dosimetrie, Zugriff: Juni 2012. ICRP: Die Empfehlungen von 2007 der Internationalen Strahlenschutzkommission (ICRP) von 2007, – ICRP-Veröffentlichung 103, www.icrp.org/. Zugriff: Juni 2012. Jung H.: Strahlenrisiken. In: Ewen K. (Hrsg.): Moderne Bildgebung. Stuttgart: Thieme Verlag, 1998: 24–42. Knedlitschek B., Weibezahn K. F.: Biologische Grundlagen der Strahlenwirkung. In: Schlegel W., Bille J. (Hrsg.): Medizinische Physik. Band 2: Medizinische Strahlenphysik. Berlin: Springer, 2002: 123–134. Schlegel W., Bille J. (Hrsg.): Medizinische Physik. Band 2: Medizinische Strahlenphysik. Berlin: Springer, 2002.
Weiterführende Literatur BMU (Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit): Umweltradioaktivität und Strahlenbelastung. Jahresbericht 1994. Bundesärztekammer: Leitlinien der Bundesärztekammer zur Qualitätssicherung in der Röntgendiagnostik. Qualitätskriterien röntgendiagnostischer Untersuchungen. Deutsches Ärzteblatt 1995; 92: B 1691–1703. Laubenberger T., Laubenberger J.: Technik der medizinischen Radiologie. Köln: Deutscher Ärzte-Verlag, 1994. Medizinproduktegesetz (MPG): www.gesetze-im-internet.de/mpg. Röntgenverordnung (RöV): www.gesetze-im-internet.de/r_v_1987. Strahlenschutzverordnung (StrlSchV): www.gesetze-im-internet.de/strlschv_2001/index.html.
7 Biologische Wirkung ionisierender Strahlung und Dosimetrie
| 215
Testfragen 1. Was ist der Unterschied zwischen stochastischen und deterministischen Wirkungen ionisierender Strahlung? 2. Wie sind die Teilchenflussdichte und die Teilchenfluenz definiert? 3. Wie sind die Energieflussdichte und die Energiefluenz definiert? 4. Wie sind die Ionendosis und die Ionendosisleistung definiert und in welcher Einheit werden sie gemessen? 5. Wie sind die Energiedosis und die Energiedosisleistung definiert und in welcher Einheit werden sie gemessen? 6. Wie sind die Äquivalentdosis und die Äquivalentdosisleistung definiert und in welcher Einheit werden sie gemessen? Nennen Sie den Bewertungsfaktor für Photonen und für Protonen. 7. Wie groß ist die jährliche natürliche Äquivalentdosis in Deutschland? 8. Wie sind das relative Risiko (RR), das relative Lebenszeitrisiko und das attributive Risiko, durch eine Strahlenexposition an Krebs zu erkranken, definiert? 9. Wie kann man mit Hilfe der Äquivalentdosisleistungskonstanten die Äquivalentdosis abschätzen, der ein Patient bei einer Röntgenaufnahme ausgesetzt wird? 10. Welche Gesetzte und Verordnungen regeln in Deutschland den sachgerechten Umgang mit Röntgenstrahlen in der medizinischen Diagnostik?
Helmut Ermert, Christian Hansen
8 Ultraschall 8.1 8.2 8.3 8.4 8.5 8.6 8.7 8.8
Einleitung | 218 Ultraschallanwendungen in der Medizin | 219 Physikalische Grundlagen | 226 Ultraschallwandler | 236 Ultraschall-Bildgebung in der Medizin | 251 Doppler-Verfahren | 279 Spezielle Modalitäten | 299 Physikalische Effekte, biologische Wirkungen, Grenzwerte | 313
Zusammenfassung: Mit Schallwellen Bilder vom Inneren des menschlichen Körpers erzeugen – das ist die faszinierende Technik der Bildgebung mit Ultraschall (auch Sonographie genannt). Zunächst werden die Grundlagen der Ausbreitung von Ultraschall im biologischen Gewebe und vom Aufbau und Funktion von Ultraschallwandlern behandelt. Anschließend folgt die Darstellung der Technik konventioneller Ultraschallbildgebung (B-Bild-Technik, Doppler-Verfahren). Neue Modalitäten wie z. B. Compounding, Elastographie und Ultraschall-Kontrastmittel eröffnen immer neue diagnostische Möglichkeiten. Grenzwerte zur Vermeidung von Schädigungen beim Patienten und Maßnahmen zur Sicherstellung der Gerätequalität sorgen für einen sicheren und zuverlässigen Einsatz der Ultraschalltechnik in der Medizin. Abstract: Using ultrasound waves to produce images of the human body – this is the fascinating world of sonography. This chapter first presents basic foundations of ultrasound wave propagation in biological tissue and the design and operation of transducers. Following sections discuss the conventional ultrasonic imaging concepts Bmode and Doppler-based systems. New ultrasonic imaging modalities such as compounding, elastography, and application of contrast agents open up new diagnostic options. Finally, relevant aspects of patient safety and system quality assurance will be discussed.
218 | Helmut Ermert, Christian Hansen
8.1 Einleitung Diagnostischer Ultraschall gilt als relativ kostengünstige, strahlenphysikalisch ungefährliche, unbelastende, mobile und leicht zu applizierende Modalität, die neben der konventionellen Röntgentechnik das am weitesten verbreitete medizinisch-diagnostische Bildgebungsverfahren darstellt. Die Technik der diagnostischen Bildgebung mit Ultraschall hat einen hohen Stand erreicht. Mit den Entwicklungen der letzten Jahrzehnte auf dem Gebiet der Elektronik, Sensorik und Signalverarbeitung konnte erreicht werden, dass heute selbst Ultraschallgeräte der mittleren und unteren Preisklasse einschließlich tragbarer Systeme eine Bildqualität hervorbringen, die zu Zeiten der Anfänge des medizinisch-diagnostischen Ultraschalls nicht denkbar gewesen wären. Zwar erfordern die Ultraschallbilder auch moderner B-Bild-Geräte immer noch ein erfahrenes und geübtes Auge aufseiten des Anwenders, aber nicht mehr in dem Maße wie in den Anfängen des Ultraschalls. Auf dem heutigen Stand der Technik fungiert das Ultraschallgerät als leicht handhabbares System für den Arzt, für den sich Ultraschalluntersuchungen in Bezug auf den Grad der Interaktivität und den organisatorischen Ablauf bei der Anwendung von Röntgen-, CT- und MR-Untersuchungen wesentlich unterscheiden. Man kann dem bildgebenden Ultraschall drei verschiedene diagnostische Zielrichtungen zuordnen: Die dominierende und traditionelle ist die morphologische Abbildung, die im Rahmen des B-Bild-Konzeptes zu einer grauwertkodierten Schnittbilddarstellung im Echtzeitbetrieb mit den bereits erwähnten Qualitätsfortschritten geführt hat, welche sich vornehmlich auf räumliche Auflösung und Kontrastauflösung beziehen. Morphologische Abbildung: Darstellung geometrischer Formen von Objekten.
Weitere Fortschritte im Bereich der morphologischen Abbildung betreffen neuartige Ansätze und Lösungen, z. B.: – bei der sende- und empfangsseitigen Fokussierung in Array-Systemen („beam forming“), – bei der Entwicklung zweidimensionaler Arrays für die Reduzierung der Schichtdicke in der Schnittbildtechnik und für die 3D-Abbildung, – bei der Nutzung der Nichtlinearität des Gewebes als akustisches Übertragungsmedium („harmonic imaging“), – bei multidirektionalen Techniken (compounding), s. Kap. 8.7.1, – beim hochfrequenten Ultraschall für kleine Organe und intravaskuläre Anwendung (IVUS), s. Kap. 8.7.4, sowie – bei Konzepten zur Visualisierung mechanischer Eigenschaften des Gewebes in Schnittbildern (Elastographie ), s. Kap. 8.7.2.
8 Ultraschall
| 219
Funktionelle Abbildung: Darstellung funktioneller Vorgänge (z. B. Bewegung, Fluss, Stoffwechselprozesse) in medizinischen Bildern.
Neben der morphologischen Abbildung ist die funktionelle Abbildung eine zweite, äußerst bedeutende Zielrichtung. Beim Ultraschall ist es insbesondere die technische Nutzung des Doppler-Effektes (s. Kap. 8.6), welche die Quantifizierung und Visualisierung von Blutfluss erlaubt und damit funktionsdiagnostische Möglichkeiten schafft. Die Entwicklungen auf dem Gebiet der farbkodierten, bildgebenden Doppler-Sonographie in den 1980er-Jahren haben mit zu dem großen Erfolg der Ultraschalltechnik beigetragen und diese für die Kardiologie und die Angiologie zu einer unverzichtbaren diagnostischen Technik werden lassen. Mehr noch als die flussrichtungsselektive Darstellungsweise („color flow“) ist die flussintensitätsorientierte Darstellung (power mode“) geeignet, Vaskularisierung und Perfusion zu visualisieren, und hat damit die diagnostischen Möglichkeiten weiter bereichert. Die Technik zur Darstellung von Flusszuständen in kleinen Gefäßen mit Ultraschall als funktionelle Abbildungsmodalität hat mit der Entwicklung von kurzlebigen und lungengängigen Ultraschallkontrastmitteln (s. Kap. 8.7.3) einen weiteren Impuls erfahren, der u. a. die Möglichkeiten der quantitativen Flussanalyse verbessert und Anwendungsmöglichkeiten in den Bereichen erschließt, in denen die Doppler-Technik ohne Kontrastmittel aus Gründen der relativ geringen Empfindlichkeit nur begrenzt einsetzbar ist. Die Anwendung spezieller Kontrastmittel verspricht auch einen erfolgreichen Einsatz des Ultraschalls in der molekularen Bildgebung.
8.2 Ultraschallanwendungen in der Medizin 8.2.1 Diagnostische Anwendungen Das Hauptanwendungsgebiet des Ultraschalls in der Medizin liegt im Bereich der medizinischen Diagnostik. Die Ultraschalltechnik hat seit ihren ersten medizinischdiagnostischen Anwendungen in den 1940er- und 1950er-Jahren [Dussik 1942, Howry et al. 1952, Wild 1950], begünstigt durch ihren erfolgreichen Einsatz in der Gynäkologie und Geburtshilfe, in nahezu allen Fachbereichen der Humanmedizin Einzug gehalten. Ultraschallabbildungsverfahren finden heutzutage hauptsächlich Verwendung in der bereits erwähnten Gynäkologie und Geburtshilfe, in der Gastroenterologie, in der Kardiologie und allgemein in der Radiologie. Darüber hinaus wird die Sonographie unter anderem auch in der Pädiatrie, der Orthopädie, der Chirurgie sowie in der Neurologie, der Onkologie, der Urologie und der Angiologie eingesetzt. Obwohl die Technik der Ultraschallbildgebung detailliert in Kapitel 8.5 beschrieben wird, ist es für das Verständnis der folgenden Ausführungen sinnvoll, bereits an dieser Stelle das grundsätzliche Prinzip der Ultraschallabbildung vor-
220 | Helmut Ermert, Christian Hansen Schallwandler: Array aus Einzelelementen
Ultraschallbild (grauwertkodiertes B-Bild) x (lateral)
z (axial)
Haut, Fett Muskel
Muskel Schilddrüse Luftröhre
y (elevat.)
Halsschlagader
1
Scan
2
Strahllinie 3 (a)
(b)
1
2
3
cm
Abb. 8.1: Puls-Echo-Betrieb am Beispiel der Schilddrüsenabbildung. (a) Schematische Skizze. (b) BBild mit folgenden Artefakten (vgl. Kap. 8.5): Abschattung hinter der Luftröhre (Stern), Randschatten von der Halsschlagader (Kreuze), dorsale Schallverstärkung hinter der Halsschlagader (Kreis) und Speckle im Bereich der Schilddrüse (Dreieck). Das Ultraschallbild wurde mit einem Siemens Acuson Antares und dem Linear-Array VF10-5 mit einer Mittenfrequenz von 7,5 MHz aufgenommen.
zustellen. Die in der Medizin konventionell eingesetzte zweidimensionale Ultraschallabbildung erfolgt im sogenannten Puls-Echo-Betrieb. Hierbei wird von einem Schallwandler ein Ultraschallpuls ausgesandt, der an Grenzschichten und Streuern im Gewebe reflektiert bzw. rückgestreut wird. Die Schallausbreitung erfolgt fokussiert in einem begrenzten Raumbereich entlang eines Schallstrahls (beamline). Die zum Schallwandler zurücklaufenden Echosignale werden von diesem empfangen und zeitaufgelöst ausgewertet. Durch eine Aufnahme mehrerer, räumlich versetzter (z. B. paralleler) Bildlinien in einer Ebene kann ein zweidimensionales grauwertkodiertes Schnittbild der Echoamplitude, ein sogenanntes B-Bild (B: brightness), des zu untersuchenden Objektes generiert werden. Das Verfahren bringt Bewegtbilder in Echtzeit hervor. Abb. 8.1 (a) zeigt dieses Prinzip schematisch. In Abb. 8.1 (b) ist (als Momentaufnahme) ein konventionelles Ultraschallbild einer Schilddrüse in transversalem Schnitt zu sehen. Dieses ist die in der Ultraschalldiagnostik überwiegend angewandte und in verschiedenen technischen Modifikationen (Art der Wandler, Frequenzbereiche) ausgeführte Betriebsart. Diese Vielfalt gestattet eine Vielzahl diagnostischer Aufgaben, welche die Sonographie in verschiedenen Teilgebieten der Medizin zu übernehmen in der Lage ist. Grundsätzlich sind folgende vier klinische Anwendungsgebiete zu unterscheiden [Lehmann et al. 1997]: – Differentialdiagnostik: Neben anderen diagnostischen Methoden kann die Sonographie zur bildbasierten Diagnostik eingesetzt werden, um Befunde und Symptome möglichen Krankheitsbildern zuzuordnen. Weiterhin kann sie zur Differentialdiagnostik (vergleichende Diagnostik ähnlicher Krankheitsbilder) eingesetzt werden, um eine Diagnose zu bestätigen oder auszuschließen.
8 Ultraschall
–
–
–
| 221
Screening: Auch ohne initialen diagnostischen Befund kann die Sonographie zur regelmäßigen Vorsorgeuntersuchung (Screening) bei Personen eingesetzt werden, die bestimmten (Risiko-)Gruppen angehören. Therapie- und Verlaufskontrolle: Die Sonographie kann zur Therapie- und Verlaufskontrolle eingesetzt werden, um regelmäßig das Stadium einer Erkrankung oder die Wirkung einer Therapie zu dokumentieren und zu überwachen. Überwachung interventioneller Maßnahmen: Ultraschall kann während interventioneller Maßnahmen wie Operationen zur bildbasierten Überwachung und Kontrolle eingesetzt werden.
Die Sonographie ist neben der herkömmlichen Röntgendiagnostik, der RöntgenComputertomographie (Röntgen-CT) und der Magnetresonanztomographie (MRT, auch Kernspintomographie genannt) eines der am häufigsten verwendeten bildgebenden Verfahren in der Humanmedizin. In vielen Bereichen steht der medizinische Ultraschall sogar an erster Stelle in der Reihe der Abbildungsmodalitäten. Diese herausragende Stellung ist hauptsächlich auf die folgenden, dem Ultraschall eigenen Vorteile zurückzuführen: – Verträglichkeit: Die Sonographie ist zumeist nichtinvasiv und erzielt ohne Verwendung ionisierender Strahlung besonders patientenschonend eine hohe diagnostische Aussagekraft. – Flexibilität: Ultraschall ist mit geringem Aufwand und flexibel anwendbar, was vor allem durch die Mobilität der Ultraschallgeräte bedingt ist. – Kosten: Ultraschallgeräte sind vergleichsweise kostengünstig in der Anschaffung und im Betrieb. – Echtzeitfähigkeit: Die Abbildung erfolgt mit Bildwiederholraten von bis zu 200 Bildern/Sekunde, so dass die Ultraschallabbildung echtzeitfähig ist. – Doppler-Blutflussmessung: Zusätzlich zur rein morphologischen Darstellung von Objekten ist im Rahmen einer Funktionsdiagnostik auch die quantitative Messung des Blutflusses mit Doppler-Messmethoden möglich (s. Kap. 8.6). – Kontrastmittelanwendung: Im Bereich der Funktionsdiagnostik können neben den Doppler-Verfahren auch klinisch zugelassene und gut verträgliche Ultraschallkontrastmittel eingesetzt werden, um die Durchblutung von Organen zu visualisieren oder zu messen (s. Kap. 8.7.3). Neben den aufgeführten Vorteilen der Sonographie existieren allerdings auch Nachteile, die ihren Einsatz gerade in Konkurrenz zur Röntgen-CT oder MRT limitieren: – Transmissionsgrenzen: Die Anwendbarkeit von Ultraschall ist (bis auf wenige Ausnahmen) auf die Darstellung von Weichgewebe begrenzt, da die üblicherweise in der Medizin genutzten Ultraschallwellen in gasgefüllte Bereiche und rigide Strukturen wie Knochen kaum eindringen können. Auch Regionen, die in Schallausbreitungsrichtung hinter Knochen oder gasgefüllten Regionen liegen, können nicht abgebildet werden. In Weichgewebe breitet sich Ultraschall hingegen bes-
222 | Helmut Ermert, Christian Hansen
–
–
–
ser aus. Allerdings ist auch hier die Eindringtiefe begrenzt, da die Schallwellen im Gewebe gedämpft werden. Rauschen: Ultraschallbilder sind von Speckle-Rauschen überlagert (vgl. Abb. 8.1 (b)). Die Ursache für das Auftreten von Speckle wird in Kapitel 8.5.2 näher beschrieben. Im Vergleich zur rauscharmen Darstellung in CT- und MRTAufnahmen werden diese Speckle häufig als störend empfunden. Unidirektionalität: Röntgen-CT und MRT nehmen als multidirektionale Aufnahmeverfahren das zu untersuchende Objekt aus einer Vielzahl verschiedener Blickrichtungen in einer Schnittebene auf. Dies ist zwar bei diesen rekonstruktiven Verfahren für die Bildgebung unumgänglich [Buzug 2004, Kalender 2006, Oppelt 2005, Morneburg 1995], führt allerdings direkt dazu, dass im entstehenden Bild keine Vorzugsrichtung existiert. Die konventionelle Sonographie arbeitet hingegen unidirektional. Hier kommt es zu Phänomenen bei der Abbildung (z. B. Tiefenabhängigkeiten und Artefakte), die von der Einfallsrichtung der Schallwellen und der damit verbundenen Interaktion zwischen Schallwellen und Objekten abhängen (vgl. Kap. 8.5.3). Bildorientierung: Die Orientierung der Bildebene (axial, lateral und elevational gemäß Abb. 8.1) in einem an dem Schallwandler ausgerichteten Koordinatensystem ist in Relation zu den Koordinatenachsen des Patienten (koronal, transversal und sagittal [Sobotta 2002]) nicht eindeutig festgelegt, sondern variiert mit der Position und Ausrichtung des Schallwandlers. Dies bedingt, dass bei den Ultraschallaufnahmen stets angegeben werden oder durch standardisierte Untersuchungsprotokolle definiert sein muss, wie ein Ultraschallbild entstanden ist. Bei CT- oder MRT-Aufnahmen hingegen ist eine Darstellung von Schnittebenen üblich, die an den Koordinatenachsen des Patienten ausgerichtet sind (z. B. die typische Drei-Felder-Ansicht bei Volumendatensätzen). Die variable Orientierung der Ultraschallbildebene führt zu einer erschwerten Deutung der sonographisch dargestellten Anatomie.
Eine Besonderheit der Sonographie ist die Möglichkeit eines hohen Maßes an Interaktivität von Ultraschalluntersuchungen, die durch die vielen Freiheitsgrade in der Aufnahmetechnik entsteht. Durch manuelles Verschieben des Schallkopfes und Druckapplikation ändert sich die Darstellung von Organen im Ultraschallbild. Das Speckle-Muster verändert sich mit der dargestellten Form des Objektes, Artefakte zeigen sich an anderer Position im Bild, und Objekte verändern ihre Lage zueinander. Diese Möglichkeit kann einerseits als vorteilhaftes Merkmal der Sonographie angesehen werden. Die Interaktivität erlaubt es, eine Bildebene (auch durch manuelle Kompression des Gewebes) einzustellen, die eine Befundung und Diagnose optimal ermöglicht. Auf der anderen Seite entsteht auf diese Weise eine große Intra- und Inter-ObserverVariabilität der Diagnose, da nicht sichergestellt ist, dass die optimale Bildebene von dem aktuellen Untersucher auch gefunden wird. Die Ultraschalluntersuchung erfor-
8 Ultraschall
|
223
dert daher große Erfahrung auf Seiten des Anwenders. Forderungen nach standardisierten Untersuchungsverfahren sind die Folge. Einen Schritt weiter gehen Systeme, die nicht nur die Durchführung der Untersuchung festlegen, sondern darüber hinaus eine automatisierte Bildaufnahme ggf. sogar dreidimensional ermöglichen. Solche Systeme sind allerdings klinisch bislang nicht etabliert oder befinden sich noch in der technischen Entwicklung. Durch ihren Einsatz könnte jedoch eine Reproduzierbarkeit und gute Dokumentierbarkeit der Bilderzeugung erzielt werden. Ein besonderer Vorteil entstünde dadurch, dass solche Systeme ggf. von Assistenzpersonal bedienbar sind. Derzeit werden in Deutschland Ultraschalluntersuchungen nur von Ärzten durchgeführt und beurteilt. Das hingegen bei CT- und MRT-Untersuchungen übliche arbeitsteilige Konzept, die Bildaufnahmen standardisiert durch Assistenzpersonal durchführen zu lassen und die Bilder nur zur Diagnose einem Arzt vorzulegen, wird zur Senkung von Betriebskosten in Ländern wie Großbritannien oder den USA auch bei der Ultraschallabbildung angewandt. Aufgrund der oben beschriebenen Untersucherabhängigkeit der Sonographie wird in Deutschland allerdings davon Abstand genommen. Die automatisierte Bilderzeugung könnte eine solche Arbeitsteilung hingegen ermöglichen, sofern sie sich in zeitoptimierter Weise und mit gesicherten Qualitätsstandards in den klinischen Betrieb integrieren ließe. Möglichkeiten zur Realisierung einer automatisierten und reproduzierbaren Bilderzeugung bieten Systeme, die für die Anwendung an speziellen Organen entworfen wurden. Im Vordergrund des Interesses steht dabei häufig die Mammadiagnostik. Hier gibt es derzeit mehrere Entwicklungsaktivitäten und auch bereits einige Produkte. Zum Beispiel hat die Firma Siemens Healthcare ein System auf den Markt gebracht, bei dem ein besonders breiter Schallwandler frontal auf die Mamma aufgesetzt und automatisiert über die weibliche Brust senkrecht zur Bildebene (elevational gemäß Abb. 8.1) verfahren wird, um so 3D-Datensätze aufzunehmen [Wöhrle et al. 2010]. Die Firma Toshiba Medical Systems unterstützt Entwicklungsarbeiten zu einem Scanner, bei dem ein Schallwandler in aufrechter Position elevational um die Brust rotiert [Halliwell et al. 2008, Shipley et al. 2005]. Hier ist unter anderem auch die Technik des spatial compoundings (s. Kap. 8.7.1) anwendbar. Die Firma Techniscan Medical Systems [www.techniscanmedicalsystems.com], die Firma Helix Medical Systems [www.helix.co.il] und das Karmanos Cancer Institute [Duric et al. 2007, Glide et al. 2007] haben unabhängig voneinander Ultraschallscanner für die Mammadiagnostik entwickelt, die nach einem vergleichbaren Prinzip arbeiten. Eine flexible Lösung für einen Echo-CT-Mammascanner, die ein konventionelles Ultraschallgerät zur Bildgebung verwendet und den Einsatz von Kontrastmitteln gestattet, wurde in [Hansen 2009] gefunden. Neben den oben beschriebenen klinischen Anwendungen können bei der Ultraschalldiagnostik auch verschiedene diagnostische Ziele unterschieden werden.
224 | Helmut Ermert, Christian Hansen Morphologische Diagnostik Die in der Medizin konventionell eingesetzte zweidimensionale Ultraschallabbildung erfolgt, wie bereits weiter oben am Beispiel der Abb. 8.1 beschrieben, im sogenannten Puls-Echo-Betrieb. Die auf Echos an Grenzschichten und Streuern im Gewebe basierende Bildinformation in den Schnittbildern repräsentiert in erster Linie die Morphologie (Größen, Formen, Dimensionen, Umrandungen, Grenzschichten) des Objektes. Häufig unterscheiden sich verschiedene Areale in den morphologischen Bildern durch die dargestellte Textur (s. Kap. 8.7.5) und das auftretende Speckle (s. Kap. 8.5.3), womit indirekt bereits ein Hinweis auf bestimmte Arten bzw. Zustände des biologischen Gewebes gegeben sind. Die diagnostische Aussagekraft der morphologischen Bildinformation wird wesentlich durch die Echtzeitfähigkeit der Ultraschallbildgebung unterstützt. Letztere gestattet bereits einen Schritt in Richtung einer funktionellen Diagnostik. Textur: Feinstruktur, Musterstruktur in der Helligkeitsverteilung von medizinischen Bildern.
Funktionsdiagnostik Neben einer diagnostischen Beurteilung der anatomischen Verhältnisse über die abgebildete Morphologie und Textur von Organen und Gewebearten besteht auch die Möglichkeit, funktionelle Untersuchungen sonographisch durchzuführen. Neben der Untersuchung von Bewegungsabläufen in den morphologischen Echtzeitbildern liegt der Schwerpunkt funktionsdiagnostischer Verfahren in der Untersuchung der Blutversorgung des Gewebes bzw. der Organe. Etablierte Verfahren sind hier die qualitative Darstellung und die quantitative Messung von Blutflussgeschwindigkeiten in Blutgefäßen, die weitgehend auf dem Doppler-Effekt basieren [Bogdahn 1998, Jensen 1996]. Erstmalig angewandt in 1957 [Satomura 1957], hat gerade die quantitative Blutflussabbildung der Sonographie einen großen Aufschwung in den 1980er-Jahren verschafft. Die Blutbestandteile (im Wesentlichen Erythrozyten, Leukozyten und Thrombozyten) erzeugen nur eine geringe Rückstreuung der Ultraschallwellen. In einem Ultraschallbild in gewebeoptimierter Aussteuerung ist das echoarme Innere von größeren Blutgefäßen daher dunkel dargestellt (z. B. die Halsschlagader in Abb. 8.1 (b)). Trotz dieser sehr geringen Rückstreuung können die aus dem Blutgefäß empfangenen Echosignale genutzt werden, um die Bewegung von Blutteilchen (hier aufgrund ihrer dominierenden Größe und Menge vorrangig der Erythrozyten) über einen kurzen Zeitraum zu beobachten und deren Bewegungsrichtung und Geschwindigkeit zu schätzen. Die verschiedenen Modifikationen der Doppler-Sonographie werden in Kapitel 8.6 vorgestellt. Bei großer klinischer Akzeptanz und Anwendung sind die Doppler-Verfahren im Bereich niedriger Flussgeschwindigkeiten von unter zehn Zentimetern pro Sekunde, wie sie in kleinen Gefäßen des Blutkreislaufes vorkommen, nicht einsetzbar.
8 Ultraschall
|
225
Hier versagt die Geschwindigkeitsbestimmung, da schon kleinste Bewegungen des Schallwandlers oder der Organe aufgrund von Atmung oder Herzschlag zu Störungen führen, die in der gleichen Größenordnung liegen wie die zu bestimmenden Flussgeschwindigkeiten. Wie bereits oben zu den Vorteilen der Ultraschallbildgebung aufgeführt, können alternativ zu den Doppler-Verfahren auch Ultraschallkontrastmittel eingesetzt werden, um die Blutversorgung des Gewebes zu untersuchen [Bogdahn 1998, Goldberg et al. 2001]. Diese Kontrastmittel bestehen aus hüllenstabilisierten Gasbläschen (Mikrobläschen), die im Durchmesser kleiner sind als 10 μm und somit ungestört die kleinsten Gefäße des Menschen (Kapillaren) passieren. Sie werden intravenös appliziert und stören die Hämodynamik nicht. Hämodynamik: die von den Gefäßeigenschaften beeinflussten räumlich-zeitlichen Zusammenhänge zwischen Drücken, Flussgeschwindigkeiten, Flussmengen etc. beim Blutfluss in Gefäßen.
Trotz ihrer geringen Größe bewirken der große akustische Impedanzunterschied zwischen Blutplasma und Gasbläschen und das besondere Schwingverhalten der Mikrobläschen im Schallfeld allerdings eine starke Rückstreuung der Ultraschallwellen. Diese Eigenschaft wurde ursprünglich ausgenutzt, um bei Messungen des Blutflusses mithilfe der Doppler-Technik ein besseres Signal-Rausch-Verhältnis zu erzielen. Zwar werden auch heute noch Kontrastmittel zu diesem Zweck klinisch eingesetzt, allerdings ist es zudem möglich, ohne den Einsatz von Doppler-Verfahren die charakteristische nichtlineare Oszillation der Mikrobläschen im Schallfeld zu detektieren, um so eine kontrastmittelspezifische Ultraschallabbildung zu realisieren. Bei einer solchen Abbildung werden Echosignalanteile vom Gewebe weitgehend unterdrückt, so dass hauptsächlich das Ultraschallkontrastmittel hell abgebildet wird. Die Technik der kontrastmittelgestützten Sonographie wird in Kapitel 8.7.3 beschrieben.
8.2.2 Therapeutische Anwendungen Neben den oben aufgeführten Einsatzgebieten der bildgebenden Ultraschalltechnik gibt es auch verschiedene medizinisch-therapeutische Anwendungen des Ultraschalls, wobei es entweder die mechanischen oder die thermischen Wirkungen des Ultraschalls sind, die für therapeutische Zwecke genutzt werden. In die erste Gruppe gehören beispielsweise die Lithotripsie zur extrakorporalen Zerstörung von Nierensteinen mit Ultraschallstoßwellen [Chaussy et al. 1980, Wilbert et al. 1987, Wilbert 2002] und die Entfernung von Zahnstein. Lithotripsie: Verfahren zur mechanischen Zertrümmerung von Steinen in Organen.
226 | Helmut Ermert, Christian Hansen Zur zweiten Gruppe ist das sogenannte HIFU-Verfahren (High-Intensity Focused Ultrasound, HIVU) zu zählen, das hochfokussierten Ultraschall zur thermischen Behandlung von Tumoren verwendet und in den letzten Jahren an Interesse gewonnen hat [Kremkau 1979, Randal 2002, Kennedy et al. 2003]. Wegen der thematischen Ausrichtung dieses Bandes werden therapeutische Verfahren hier nicht weiter behandelt.
8.3 Physikalische Grundlagen Als Ultraschall werden Schallwellen bezeichnet, deren Frequenz jenseits der menschlichen Hörschwelle im Bereich von 20 kHz bis 1 GHz liegen. In seiner medizinischdiagnostischen Anwendung wird Ultraschall überwiegend in einem Frequenzbereich von ungefähr 1,5 bis 20 MHz eingesetzt. Die Ausbreitung von Ultraschallwellen im weichen biologischen Gewebe gleicht jener in fluiden Medien. Fluide Medien: Medien ohne Formelastizität (z. B. Gase, Flüssigkeiten), in denen sich im Fall idealer Fluidität nur longitudinale akustische Wellen, nicht aber Scherwellen ausbreiten können.
In beiden Fällen breitet sich Ultraschall als longitudinale Wechseldruckwelle aus. Scherwellen, die sich gut in Festkörpern ausbreiten können, sind im Gewebe trotz einer gewissen Viskosität, die gegenüber idealen Fluiden das Auftreten von Scherkräften möglich macht, aufgrund zu starker Dämpfung kaum ausbreitungsfähig. Ultraschallwellenfelder können durch die orts- und zeitveränderlichen Feldgrößen Druck p und Schnelle v⃗ beschrieben werden. Die fluiden Medien, in denen sich Ultraschallwellen ausbreiten, lassen sich durch die Materialkenngrößen Dichte 𝜌0 und Kompressibilität 𝜅0 charakterisieren. Die Zusammenhänge zwischen den Feldgrößen und den Materialkenngrößen ergeben sich aus den Feldgleichungen und den daraus resultierenden Wellengleichungen. Schallschnelle: Geschwindigkeit der periodischen Auslenkung von Masseteilchen aus ihrer Ruhelage in einem akustischen Wellenfeld.
Bei der Schnelle handelt es sich, im Unterschied zur Schallgeschwindigkeit, um die Geschwindigkeit, welche die Masseteilchen des akustischen Übertragungsmediums bei ihrer Bewegung aus ihrer Ruhelage heraus annehmen. Speziell in fluiden Medien wird die Wellenausbreitung über die Euler-Gleichung, die Kontinuitätsgleichung und die Zustandsgleichung beschrieben [Hamilton 1997; Meyer, Neumann 1979]. Obwohl diese Gleichungen nichtlinear sind, werden sie meist in linearisierter Form verwendet. Aus ihnen können die im Folgenden vorgestellten Kenngrößen abgeleitet werden, die zur Beschreibung des Schallfeldes und dessen Interaktion mit Objekten herangezogen werden.
8 Ultraschall
|
227
Die Euler-Gleichung
dv⃗ , (8.1) dt beschreibt den Zusammenhang zwischen dem lokalen Druckgradienten im Medium und der Beschleunigung der Masseteilchen des Mediums. Die Kontinuitätsgleichung d𝜌 −∇(𝜌v)⃗ = (8.2) dt erfasst die Beziehung zwischen der Bewegung der Masseteilchen und der zeitlichen Abnahme der lokalen Dichte. Eine dritte Beziehung, die zur Herleitung einer Wellengleichung für den Ultraschall erforderlich ist, ist die Zustandsgleichung, die beim Ultraschall wegen der Schnelligkeit der Ausbreitungsvorgänge und des daher vernachlässigbaren Wärmeaustauschs der Feldanteile mit ihrer Umgebung einen adiabatischen Zustandsprozess beschreibt. Sie definiert den nichtlinearen Zusammenhang zwischen Druck und Dichte gemäß p = p(𝜌, T) ≈ p(𝜌) , (8.3) −∇p = 𝜌
wobei der Einfluss thermischer Austauschvorgänge vernachlässigt werden kann.
8.3.1 Lineare Theorie der Ultraschallwellenausbreitung in fluiden Medien Die Besonderheit beim Ultraschall in homogenen fluiden Medium besteht darin, dass die Feldgrößen Druck und Dichte sich jeweils einem räumlichen und zeitlichen Gleichanteil p0 bzw. 𝜌0 überlagern, während dieses auf die Feldgröße Schnelle (Geschwindigkeit der Masseteilchen) bei einem ruhenden Medium nicht zutrifft. Berücksichtigt man in allen Gleichungen, dass die Gleichanteile viel größer sind als die der Ultraschallwelle zugehörigen Wechselanteile, lassen sich nützliche Näherungen anwenden, die jeweils zu einer Linearisierung der Beziehungen führen. Für die Zustandgleichung ergibt sich eine solche Linearisierung aus einer Taylor-Reihen-Entwicklung in der Umgebung des statischen „Arbeitspunktes“ p0 , 𝜌0 , welche für kleine Wechselsignale zu einer Beziehung 1 𝜕p = 𝜌0 (8.4) 𝜅0 𝜕𝜌 𝜌=𝜌0 führt, mit der die Kompressibilität 𝜅0 neben der Dichte 𝜌0 als Materialkenngröße des fluiden Mediums definiert werden kann. Kompressibilität: Eigenschaft, die die Volumenelastizität fluider Medien beschreibt (Kehrwert des Kompressionsmoduls).
228 | Helmut Ermert, Christian Hansen Damit lassen sich nun die Beziehungen zwischen den Feldgrößen einer Ultraschallwelle in Form zweier linearer, verkoppelter Differentialgleichungen (Feldgleichungen) angeben 𝜕v⃗ , 𝜕t 𝜕p −∇v⃗ = 𝜅0 , 𝜕t
−∇p = 𝜌0
(8.5) (8.6)
aus denen sich die Wellengleichungen für den Schalldruck und die Schallschnelle in quellenfreien, homogenen Medien (∇2 −
1 𝜕2 )p = 0 c20 𝜕t2
(8.7)
(∇2 −
1 𝜕2 ) v⃗ = 0 c20 𝜕t2
(8.8)
herleiten lassen. Es zeigt sich, dass die Ausbreitungsgeschwindigkeit einer Ultraschallwelle durch die Materialparameter Dichte 𝜌0 und Kompressibilität 𝜅0 bestimmt wird. Somit wird die Schallgeschwindigkeit c0 : c0 =
1 √𝜌0 ⋅ 𝜅0
.
(8.9)
Schallgeschwindigkeit: Geschwindigkeit der Ausbreitung einer ebenen akustischen Welle.
Die wichtigsten Zusammenhänge bei der Ausbreitung von Wellen in bestimmten Medien lassen sich anhand homogener ebener Wellen recht gut beschreiben. Eine sich in positiver z-Richtung eines kartesischen Koordinatensystems in einem homogenen, verlustfreien Medium ausbreitende homogene ebene monofrequente Welle sei durch die Feldgrößen p(z, t) = p̂ cos(𝜔t − kz) ,
(8.10)
⃗ t) = e⃗z v̂ cos(𝜔t − kz) v(z,
(8.11)
gegeben. e⃗z sei der Einheitsvektor in z-Richtung und kennzeichnet den vektoriellen Charakter der Schnelle. Häufig ist es vorteilhaft, bei sinusförmiger Zeitabhängigkeit der Signale die komplexwertige harmonische Exponentialfunktion zu benutzen, womit sich die Feldgrößen in folgender Form darstellen lassen: p(z, t) = Re {p(z)ej𝜔t } , −jkz
̂ p(z) = pe
,
j𝜔t ⃗ t) = Re {v(z)e ⃗ v(z, }, −jkz
⃗ = e⃗z vê v(z)
.
(8.12) (8.13)
Die komplexwertigen Feldgrößen werden hier durch einen Unterstrich gekennzeichnet. Nach Berechnung von komplexwertigen Feldgrößen können die physikalisch realen Größen durch Anwendung der Beziehungen in Gl. (8.12) gewonnen werden.
8 Ultraschall
| 229
Tab. 8.1: Schallgeschwindigkeiten c0 und Schallimpedanzen Z0 für einige Materialien [Szabo 2004].
c0 Z0
Wasser
Blut
Fett
Muskel
Leber
Knochen
Luft
Einheit
1482 1,482
1584 1,679
1430 1,327
1580 1,645
1578 1,657
3198 6,364
331 0,00043
m/s 106 kg/(m2 s)
Wellenzahl k: Kenngröße, die im Sinne einer Ortsfrequenz die räumliche Periodizität eines Wellenfeldes beschreibt. Sie ist mit der (Zeit-)Frequenz f und der Ausbreitungsgeschwindigkeit c (z. B. Schallgeschwindigkeit) über die Beziehung k = 2𝜋f /c verknüpft.
Aus den Wellengleichungen ergibt sich nun für die Wellenzahl k die Beziehung k=
2𝜋f 2𝜋 𝜔 = = , c0 c0 𝜆
(8.14)
in der von dem Zusammenhang zwischen Frequenz, Schallgeschwindigkeit und Wellenlänge (8.15) 𝜆 = c0 /f Gebrauch gemacht wird. Für die Amplituden der Feldgrößen erhält man die Relation 𝜌 p̂ = √ 0 = Z0 , 𝜅0 v̂
(8.16)
aus der sich der Feldwellenwiderstand bzw. die Schallimpedanz Z0 als Materialkenngröße definieren lässt. Schallimpedanz, Feldwellenwiderstand: Materialeigenschaft, die das Verhältnis zwischen zwei Wellengrößen bestimmt (z. B. Schalldruck zu Schallschnelle beim Ultraschall).
Im menschlichen Weichgewebe nimmt die Dichte 𝜌0 Werte zwischen ungefähr 950 kg/m3 und 1100 kg/m3 an, und die Werte für die Kompressibilität 𝜅0 liegen zwischen 380 ⋅ 10−12 m2 /N und 510 ⋅ 10−12 m2 /N [Angelsen 2000]. Die Werte der Schallgeschwindigkeit liegen somit gewebespezifisch im Bereich von 1400 bis 1600 m/s. Für den medizinisch genutzten Frequenzbereich und die hier vorliegenden Schallgeschwindigkeiten betragen die Wellenlängen im Gewebe ungefähr 70 μm bis 1,6 mm. Einige Werte der Schallgeschwindigkeit und der Schallimpedanz sind in Tab. 8.1 zusammengestellt. Eine wichtige Größe ist die Schallintensität einer Welle. Im Fall der oben angenommenen ebenen Welle lässt sich die Schallintensität als die räumliche Dichte der durch eine Ebene (z = constant) transportierten Leistung interpretieren und kann aus T
1 ⃗ J(z) = ∫ p(z, t) ⋅ v(z, t) dt T 0
(8.17)
230 | Helmut Ermert, Christian Hansen berechnet werden. Beim Beispiel der sich in positiver z-Richtung ausbreitenden ebenen Welle gemäß Gl. (8.10) und Gl. (8.11) ist im Falle eines verlustlosen Mediums die Intensität an jeder Stelle z gleich groß und beträgt 1 1 2 J = p̂ ⋅ v̂ = p̂ . 2 2Z0
(8.18)
Schallintensität: flächenbezogene Dichte der transportierten Leistung einer Schallwelle.
Ein Maß, das vor allem zur Abschätzung der mechanischen Beanspruchung des Gewebes eingesetzt wird, ist der mechanische Index (MI). Er berechnet sich aus dem negativen Spitzendruck p̂ neg (in MPa) und der Frequenz f (in MHz) gemäß: MI =
p̂ neg MPa f √ MHz
(8.19)
Intensität und mechanischer Index sind für die Festlegung von Grenzwerten von Bedeutung, die für eine sichere Anwendung des diagnostischen Ultraschalls am Patienten zu beachten sind (s. Kap. 8.8.3). Mechanischer Index: aus dem negativen Spitzendruck und der Frequenz einer Schallwelle abgeleiteter Faktor, der in der Ultraschalldiagnostik als Grenzwert zur Vermeidung mechanischer Schäden durch die Schallwellen benutzt wird.
Während der Schallausbreitung kommt es zu den typischen wellenphysikalischen Interaktionen zwischen der Ultraschallwelle und dem Gewebe: Reflexion: An flächenhaften Materialübergängen, deren Ausdehnungen größer sind als die Wellenlänge der Schallwelle, kommt es zur Reflexion. Für den Reflexionswinkel 𝜃r gilt bei strahlengeometrischer Näherung gemäß Abb. 8.2: 𝜃r = 𝜃e . Bestimmend für die Stärke der Reflexion ist der Unterschied der Schallimpedanzen Z1 und Z2 der beiden Medien. Je größer der Impedanzunterschied ist, desto stärker ist
c₁, Z₁ Ѳe
Ѳr
c₂, Z₂ Ѳt
Abb. 8.2: Schematische Darstellung der Reflexion und Brechung von Schallwellen in strahlengeometrischer Näherung.
8 Ultraschall
| 231
Tab. 8.2: Reflexionskoeffizienten an Grenzschichten zwischen verschiedenen Medien in % (berechnet aus den Werten in Tab. 8.1, senkrechter Einfall).
Wasser Blut Fett Muskel Leber Knochen Luft
Wasser
Blut
Fett
Muskel
Leber
Knochen
Luft
0,000
0,388 0,000
0,304 1,371 0,000
0,272 0,010 1,145 0,000
0,311 0,004 1,223 0,001 0,000
38,717 33,930 42,892 34,717 34,437 0,000
99,884 99,898 99,870 99,895 99,896 99,973 0,000
die Reflexion. Das Maß der Reflexion kann über den Reflexionskoeffizient Kr bestimmt werden, wobei die Schallintensität der reflektierten Welle Jr ins Verhältnis zur Schallintensität der einfallenden Welle Je gesetzt wird. Er ergibt sich in Abhängigkeit des Einfallswinkels 𝜃e und des Transmissionswinkels 𝜃t zu [Millner 1987]: 2
Kr =
(Z ⋅ cos 𝜃e − Z1 ⋅ cos 𝜃t ) Jr = 2 Je (Z2 ⋅ cos 𝜃e + Z1 ⋅ cos 𝜃t )2
(8.20)
Da sich die Schallimpedanzen der verschiedenen Arten von biologischem Weichgewebe nur geringfügig unterscheiden, sind die Reflexionskoeffizienten nicht sehr groß. Zur Veranschaulichung sind in Tab. 8.2 einige Werte des Reflexionskoeffizienten für den senkrechten Einfall der Schallwelle auf die Grenzschicht zusammengestellt. Grenzschicht: flächenhafter Raumbereich zwischen zwei Medien mit Unterschieden in den für die Wellenausbreitung (Brechung, Reflexion, Streuung) relevanten Materialparametern (Wellenwiderstand, Ausbreitungsgeschwindigkeit).
An Grenzschichten zwischen biologischem Gewebe und gasförmigen Medien (z. B. Luft) betragen die Reflexionskoeffizienten fast 100 %. Aus diesem Grunde und wegen der großen Dämpfung des Ultraschalls in Gasen bei den üblichen diagnostischen Frequenzen sind luft- oder gasgefüllte Bereiche im menschlichen Körper diagnostisch nicht erfassbar. Gleiches gilt für Gewebe hinter gasgefüllten Zonen wegen der totalen akustischen Abschattung dieser Bereiche. Transmission: Die Schallwelle wird aufgrund geringer Impedanzunterschiede im biologischen Gewebe meist nicht vollständig reflektiert. Neben der reflektierten Welle in Medium 1 existiert eine transmittierte Welle in Medium 2, deren Ausbreitungsrichtung durch Brechung (Refraktion) an der Grenzfläche verändert wird. Der Transmissionswinkel 𝜃t kann in strahlengeometrischer Näherung nach dem Snellius-Brechungsgesetz in Abhängigkeit der Schallgeschwindigkeiten c1 und c2 in den Me-
232 | Helmut Ermert, Christian Hansen dien berechnet werden (vgl. Abb. 8.2): sin 𝜃t sin 𝜃e = c2 c1
(8.21)
Analog zum Reflexionskoeffizienten kann ein Transmissionskoeffizient Kt definiert werden, der die Schallintensität der transmittierten Welle Jt ins Verhältnis zur Schallintensität Je setzt [Millner 1987]. Es gilt mit Kr + Kt = 1: Kt =
Jt 4 ⋅ Z1 ⋅ Z2 ⋅ cos 𝜃e ⋅ cos 𝜃t = Je (Z2 ⋅ cos 𝜃e + Z1 ⋅ cos 𝜃t )2
(8.22)
Die Richtungsänderung einer transmittierten Welle infolge der Brechung gemäß Gleichung Gl. (8.21) ist bei weichem Gewebe wegen der Ähnlichkeit der Schallgeschwindigkeitswerte gering. Zum Beispiel ist bei der Transmission durch eine Grenzschicht zwischen Fettgewebe und Muskelgewebe und bei einem Einfallswinkel von 20° (im Fett) der Austrittswinkel der gebrochenen Welle (im Muskel) ca. 22,2°. Wegen des geringen Unterschiedes wird in den diagnostischen Ultraschallgeräten der Effekt der Brechung vernachlässigt. Beugung: Bei der Ausbreitung und der Interaktion mit Objekten kommt es zusätzlich zur Reflexion und zur Brechung zu einer Beugung (Diffraktion) der Schallwellen. Das entstehende Wellenfeld ergibt sich gemäß dem Huygens-Prinzip. Die Beugungsgesetze stellen auch eine wichtige Grundlage zur Berechnung der Schallwellenfelder dar, die von Ultraschallwandlern ausgehen. Apertur: Begriff aus der Antennentheorie, der die Geometrie (Länge oder Fläche) eines Sende- oder Empfangssystems (einzelne Antenne, Gruppenantenne) beschreibt.
y x Apertur S
→
→
R =Ωr₁ – r₂Ω
dS →
r₂
→
r₁
Feldpunkt p(r→₁,t)
z νn
Abb. 8.3: Anordnung zur Berechnung des von einer ebenen Apertur ausgehenden Schallwellenfeldes.
8 Ultraschall
| 233
Das von zumeist ebenen Wandleroberflächen ausgehende Schallfeld kann in einem Feldpunkt gemäß Abb. 8.3 mittels des Rayleigh-Integrals [Pierce 1989] 𝜌 p(r1 , t) = 0 ∬ 2𝜋
𝜕 v 𝜕t n
S
r ⃗ −r ⃗ (r2⃗ , t − | 1 c 2 | ) dS ⃗ r1 − r2⃗
(8.23)
berechnet werden. Es wird dabei angenommen, dass die Oberfläche („Apertur“) Bestandteil einer unendlich ausgedehnten Ebene ist und die Apertur mit nur einer Normalkomponente der Schallschnelle belegt ist, während die Schallschnelle außerhalb der Apertur auf der gesamten Ebene verschwindet. Für den Fall eines monofrequenten Wellenfeldes und einer homogenen Belegung der Apertur mit einer Schnelle vn (z = 0, t) = Re {v̂ n ej𝜔t }
(8.24)
lässt sich die Feldverteilung aus p(r1⃗ ) =
j𝜔𝜌0 e−jkR v̂n ⋅ ∬ dS 2𝜋 R
mit R = r1⃗ − r2⃗
(8.25)
S
und p(r1⃗ , t) = Re {p(r1⃗ )ej𝜔t }
(8.26)
bestimmen. Streuung: Neben den makroskopisch beschreibbaren Effekten der Reflexion, Brechung und Beugung kommt es zur Streuung des Ultraschalls an Streukörpern, die kleiner sind als die Wellenlänge der Schallwelle. Aufgrund der mikroskopischen Inhomogenität des biologischen Gewebes tritt diese Rayleigh-Streuung permanent bei der Schallausbreitung im Weichgewebe auf, so dass sie bei der Abbildung von Gewebestrukturen hauptsächlich ausgenutzt wird. Ein Maß für die Streuung ist der Streuquerschnitt 𝜎s , der sich aus der Leistung der gestreuten Welle Ps und der Leistungsdichte der einfallenden Welle Je ergibt: 𝜎s =
Ps Je
(8.27)
Die lokale Reflektivität 𝛾(x, y, z) ergibt sich in Abhängigkeit von den Ortskoordinaten (x, y, z) und bei Annahme einer schwachen Inhomogenität der Schallimpedanz Z(x, y, z) um den Mittelwert Z näherungsweise zu: 𝛾(x, y, z) =
Z(x, y, z) − Z 2⋅Z
.
(8.28)
Reflektivität: räumlich verteilte Materialeigenschaft, bei Puls-Echo-Verfahren ein Maß für die durch die Feinstruktur des Materials erzeugten Echopegel (z. B. im biologischen Gewebe).
234 | Helmut Ermert, Christian Hansen Tab. 8.3: Dämpfungswerte für Wasser und für einige Gewebearten [Szabo 2004]. Dämpfung
Wasser
Blut
Fett
Muskel
Leber
Knochen
dB/(MHz ⋅ cm)
0,00217
0,14
0,6
0,57
0,45
3,54
Dämpfung: Während ihrer Ausbreitung im Gewebe verliert die Ultraschallwelle mit zunehmender Wegstrecke (Eindringtiefe) an Energie. Neben der sogenannten „Freiraumdämpfung“, die eine lokale Energieverminderung aufgrund von Beugungseffekten im Falle eines divergierenden Wellenfeldes in einem homogenen Medium hervorruft, existieren zwei weitere Gründe für diesen Energieverlust: Zum einen führen die Reflexion und die Streuung im Gewebe zur Minderung der transmittierten Schallenergie. Zur Dämpfung trägt dieser Effekt mit einem Anteil von ca. 10. . . 15 % bei. Zum anderen kommt es während der Wellenausbreitung zur Absorption (Umwandlung von Feldenergie, z. B. aus Wellenfeldern, in Wärme in einem Medium) von Schallenergie aufgrund von Viskositäts- und Relaxationsverlusten im Medium und zur Wärmeentwicklung. Dämpfung: Reduktion der Amplitude bzw. der Leistung einer Welle infolge Absorption, Reflexionen, Streuung und/oder Beugung im Übertragungsmedium; definiert als Verhältnis zweier (elektrischer, optischer, akustischer o. a.) Leistungs- (oder Amplituden-)werte, oder der 10-fache (Leistung) bzw. 20-fache (Amplitude) dekadische Logarithmus dieses Verhältnisses mit der Einheit Dezibel (dB).
Die Stärke dieser Gewebedämpfung wird durch die Materialeigenschaften des Gewebes bestimmt. Es ergibt sich für die Leistungsdichte über der Tiefe z: J(z) = J(0) ⋅ e−𝛼(f )⋅z
(8.29)
wobei 𝛼 der Absorptionskoeffizient ist, für den in Abhängigkeit von der Frequenz f gemäß empirischer Untersuchungen [Angelsen 2000, Duck 1990] gilt: 𝛼(f ) ∼ f q
mit 1 ≤ q ≤ 2
(8.30)
Die Dämpfung der Schallwellen nimmt im menschlichen Gewebe also mit zunehmender Tiefe und höheren Frequenzen zu. Sie liegt bei linearer Näherung von Gl. (8.30) typischerweise im Bereich von ca. 0,5 dB/(cm·MHz). In Tab. 8.3 sind die Dämpfungswerte für Wasser und einige Gewebearten zusammengestellt.
8.3.2 Nichtlineare Effekte Nichtlineare Effekte treten bei der Schallwellenausbreitung in vielfältiger Weise auf. Im Gewebe kann es in Abhängigkeit von der Schallamplitude zu Strahlungsdrücken
8 Ultraschall
| 235
(Langevinscher und Rayleighscher Strahlungsdruck), zu Gleichströmungen (Quarzwind), zur Kavitation oder zur Ausbildung von Stoßwellen kommen [Meyer, Neumann 1979]. Stoßwellen: pulsförmige akustische Wellen höherer Amplitude, die durch die nichtlinearen Eigenschaften des biologischen Gewebes bei der Ausbreitung ihre Form verändern und wegen der Ausbildung steiler Pulsflanken zur Steinzertrümmerung genutzt werden können. Akustischer Strahlungsdruck: Durch die nichtlineare Wirkung eines Mediums erzeugter Gleichanteil des Schalldruckes in einem akustischen Wellenfeld.
Während über die Begrenzung der Sendeleistung von Ultraschallgeräten Gewebeschädigungen vermieden werden, kommt es dennoch zur nichtlinearen Verzerrung der Schallwellen während ihrer Ausbreitung im Gewebe. Zwei Effekte führen zu solchen Verzerrungen: Bewegung des Mediums: Aufgrund der ultraschallinduzierten Bewegung der Teilchen im Medium variiert die Schallgeschwindigkeit c lokal mit der dort auftretenden Schallschnelle um einen konstanten Wert c0 . Für z. B. eine ebene Welle nach Gl. (8.10) und Gl. (8.11) gilt in der Ebene z = 0 die Beziehung: c(t, z = 0) = c0 + v̂ cos(𝜔t) .
(8.31)
Nichtlinearität des Mediums: Die in der Zustandsgleichung Gl. Gl. (8.3) beschriebene Abhängigkeit des Drucks p von der Dichte 𝜌 ist nichtlinear [Hamilton 1997, Meyer u. Neumann 1979]. Entwickelt man den Druck p (𝜌) in einer Taylor-Reihe um einen Arbeitspunkt 𝜌0 und bei einem stationären Druck p0 , so ergibt sich: p − p0 = A ⋅ (
𝜌 − 𝜌0 𝜌 − 𝜌0 2 B )+ ⋅( ) + ... 𝜌0 2! 𝜌0
(8.32)
Unter Vernachlässigung von Anteilen höherer Ordnung wird über das Verhältnis aus dem Faktor B des quadratischen Anteils zum Faktor A des linearen Anteils die Nichtlinearität des Mediums charakterisiert. Der Quotient B/A wird als Nichtlinearitätsparameter bezeichnet. Es ist 𝜕c B = 2 ⋅ 𝜌0 ⋅ c0 ( ) A 𝜕p 𝜌=𝜌0
(8.33)
Typische Werte von B/A liegen bei menschlichem Gewebe im Bereich zwischen 5 und 10. Die Schallgeschwindigkeit c wird durch diese Nichtlinearität lokal erhöht. Es gilt [Hamilton 1997, Meyer u. Neumann 1979]: c(t) = c0 +
B ⋅ v̂ cos(𝜔t) . 2A
(8.34)
In Kombination führen beide Effekte dazu, dass die Schallgeschwindigkeit asymmetrisch und amplitudenabhängig mit v⃗ variiert und die Form der Wellenfronten verzerrt
236 | Helmut Ermert, Christian Hansen
p(t–τ)
p(t) t
Zeitbereich
t
Ausbreitung ΩP( ƒ )Ω
ΩP( ƒ )Ω
Energie
Frequenzbereich ƒ₀
2ƒ₀
ƒ
ƒ₀
2ƒ₀
ƒ
Abb. 8.4: Veranschaulichung der nichtlinearen Wirkung eines Übertragungsmediums.
wird:
B ) ⋅ v̂ cos(𝜔t) (8.35) 2A In Abb. 8.4 ist veranschaulicht dargestellt, wie der zeitliche Verlauf einer Wellengröße (z. B. des Druckes p(t)) mit der Frequenz f0 während der Ausbreitung (z. B. nach einem Laufweg z = c0 ⋅ 𝜏) verzerrt und Signalenergie vom Spektralbereich um die Frequenz f0 in den Bereich der ersten Harmonischen 2f0 übergekoppelt wird. c = c0 + (1 +
8.4 Ultraschallwandler 8.4.1 Der piezoelektrische Effekt Der piezoelektrische Effekt tritt in einer Reihe kristalliner und teilkristalliner Medien auf. In seiner direkten Form besteht dieser Effekt darin, dass sich an den gegenüberliegenden, z. B. planparallelen Außenflächen von z. B. zylindrischen Körpern, die aus piezoelektrischen, elektrisch nichtleitenden Materialien bestehen, elektrische Ladungen bilden können. Diese Ladungen treten auf, wenn auf diese Körper eine mechanische Spannung, die mit einer Deformation verbunden ist, senkrecht zu den Stirnflächen einwirkt. Der reziproke piezoelektrische Effekt bewirkt das Auftreten einer mechanischen Spannung und einer Dehnung als Folge einer Einwirkung einer elektrischen Spannung. In den Wandlern, die für die diagnostische Anwendung von Ultraschall genutzt werden, finden heute überwiegend piezoelektrische Materialien Anwendung. Piezoelektrischer Effekt: in piezoelektrischen Materialien auftretender Effekt, der eine Umwandlung von akustischer in elektrische Energie („direkter“ Effekt) und umgekehrt („reziproker“ Effekt) bewirkt.
8 Ultraschall
| 237
I = A⋅∂D ∂t A
S⋅h h
E
T⋅A
U = E⋅h
D
Abb. 8.5: Kreiszylindrischer Körper der Höhe h und der Fläche A als piezoelektrisches Element.
An einem kreiszylindrischen piezoelektrischen Element gemäß Abb. 8.5 soll der piezoelektrische Effekt erläutert werden. Es soll angenommen werden, dass es sich bei diesem Element um eine sehr flache Scheibe handelt, bei der alle mechanischen und elektrischen Vorgänge parallel zueinander und nur in Richtung der Zylinderachse orientiert sind. Alle in radialer oder azimuthaler Richtung orientierten Komponenten sollen vernachlässigt werden. Außerdem sei das piezoelektrische Material des Elementes so polarisiert, dass der piezoelektrische Effekt nur in Richtung der Zylinderachse wirksam ist. Wird zunächst angenommen, dass das Material nicht piezoelektrisch ist, agiert das Element elektrisch als Plattenkondensator und unabhängig davon mechanisch als elastischer Körper, wobei das Verhalten durch die Beziehungen D = 𝜀E
(8.36)
S = sT
(8.37)
und beschrieben wird. Darin ist die Beziehung zwischen der dielektrischen Verschiebungsdichte D und der elektrischen Feldstärke E durch die Dielektrizitätskonstante 𝜀 und die Beziehung zwischen der Deformation (englisch: strain) S und der mechanischen Spannung (englisch: stress) T durch die Elastizitätskonstante s gegeben. Bei piezoelektrischen Materialien sind diese Gleichungen nicht mehr voneinander entkoppelt, es entsteht ein System zweier verkoppelter Gleichungen D = 𝜀T E + d ⋅ T S = d ⋅ E + sE T ,
(8.38)
in denen die Größe d die Verkopplung von elektrischer und mechanischer Energie repräsentiert und „piezoelektrische Ladungskonstante“ genannt wird. Darin ist 𝜀T die Dielektrizitätskonstante bei konstanter mechanischer Spannung T und sE die Elastizitätskonstante bei konstanter elektrischer Feldstärke E. In anderer Darstellung lau-
238 | Helmut Ermert, Christian Hansen ten die Beziehungen: S = +sD T + g ⋅ D 1 E = −g ⋅ T + T D . 𝜀
(8.39)
Hier wird g die „piezoelektrische Druckkonstante“ genannt. sD ist die Elastizitätskonstante bei konstanter dielektrischer Verschiebungsdichte D und 𝜀T die Dielektrizitätskonstante bei konstanter mechanischer Spannung T. Zwischen Ladungskonstante und Druckkonstante besteht ein Zusammenhang gemäß d sE = 𝜀T √ D , g s
(8.40)
wobei diese Größen wegen ihrer für die Praxis relevanten Wirkung auch wie folgt interpretiert werden können: erzeugte Deformation ⇒ Sendekonstante d= angelegtes elektrisches Feld mech. Leerlauf erzeugtes elektrisches Feld ⇒ Empfangskonstante g= el. Leerlauf angelegten Druck Die gesamte Energiewandlung wird durch einen Koppelfaktor k beschrieben, der von beiden Faktoren d und g abhängig ist: k2 =
d2 g2 = sD sE 𝜀T T
(8.41)
𝜀
Als Beispiele piezoelektrischer Materialien sind Einkristalle (z. B. Quarz), aufgedampfte oder gesputterte dünne Schichten (z. B. CdS oder ZnO), keramische Materialien (z. B. PZT: Blei-Zirkonat-Titanat) sowie Polymere in Form von Folien (z. B. PVDF: Polyvinylidendifluorid) zu nennen. Außerdem gibt es Zusammensetzungen (Mischungen, Schichtungen) aus piezoelektrischem Keramikmaterial und dielektrischem Füllmaterial, um die akustischen Eigenschaften besser an die anzukoppelnden Medien anzupassen (composite transducer). Für die Wandler beim diagnostischen Ultraschall wird überwiegend das Material PZT verwendet. Bei höheren Frequenzen wird auch vom Material PVDF Gebrauch gemacht. In Tab. 8.4 werden die wichtigsten Kenngrößen von PZT und PVDF anhand typischer Werte miteinander verglichen. Piezomaterial: einkristallines, polykristallines (z. B. keramisches) oder kunststoffartiges Material mit piezoelektischen Eigenschaften.
Es ist erkennbar, dass PZT die besseren Sendeeigenschaften und PVDF die besseren Empfangseigenschaften besitzt. PVDF ist zwar wegen seiner kleineren akustischen Impedanz besser an eine fluide Umgebung angepasst, PZT besitzt aber einen größeren Koppelfaktor k und ist außerdem verlustärmer als PVDF.
8 Ultraschall
|
239
Tab. 8.4: Zum Vergleich: Kenngrößen von PZT und PVDF.
PZT PVDF
g 10−3 V ⋅ m/N
d 10−12 C/N
k %
𝜖r
c0 m/s
Z0 106 kg/(m2 ⋅ s)
10 216
110 23
30 12
1 200 12
4 350 2 250
30 2,7
Polyvinylidenfluorid (PVDF): für die Verwendung in Schallwandlern geeigneter Kunststoff mit piezoelektrischen Eigenschaften. Blei-Zirkonat-Titanat (PZT): für die Verwendung in Schallwandlern geeignetes Keramikmaterial mit piezoelektrischen Eigenschaften.
8.4.2 Wandler: Aufbau und Funktion Wandlerformen und Eigenfrequenzen Bei den für die medizinische Ultraschalldiagnostik bestimmten Wandlern werden sogenannte Dickenschwinger verwendet, die in ihrer Wirkungsweise dem Konzept in Abb. 8.5 entsprechen und bei denen der piezoelektrische Effekt durch Dickenschwingungen begleitet wird. In den Betriebszuständen, bei denen die Schwinger in mechanischer Resonanz sind, lässt sich der piezoelektrische Effekt besonders effizient nutzen. In Abb. 8.6 sind die Verläufe von Druck (durchgehende Linien) und Schnelle (gestrichelte Linien) dargestellt, wie sie in einer piezoelektrischen Scheibe gemäß Abb. 8.5 im Fall von Dickenschwingungen auftreten. Der Zylinderachse des Elements in Abb. 8.5 sei dazu die z-Achse in Abb. 8.6 zugeordnet. Es wird angenommen, dass das Element von einem unendlich dünnen Medium umgeben ist. Dann fordern die Randbedingungen für akustische Wellenfelder an den Stirnflächen des Elements Nullstellen für den Schalldruck, weil sich dort kein Druck aufbauen kann. Demgegenüber nimmt der Verlauf der Schallschnelle an den Stirnflächen Maxima ein. Es entsteht im Resonanzfall eine stehende akustische Welle im Piezoelement, die bei einer flachen Scheibe näherungsweise als homogen und eben angenommen Ωp(z,t = t₀)Ω Ωνz(z,t = t₀ + Tn/4)Ω Druck p Schnelle νz
h
z n=1
z n=3
Abb. 8.6: Resonanzzustände eines Dickenschwingers.
240 | Helmut Ermert, Christian Hansen werden kann. Aus den Ansätzen für den Druck und die Schnelle gemäß Gl. (8.10) und Gl. (8.11) ergeben sich nach Überlagerung zweier gegenläufiger Wellen gleicher Amplitude für die Einhüllenden die Ausdrücke
und
p(z, t = t0 ) = 2p̂ ⋅ sin(kn z)
(8.42)
vz (z, t = t0 + Tn /4) = 2v̂z cos(kn z) ,
(8.43)
wobei t0 einen der Zeitpunkte beschreibt, zu denen der Schalldruck seine maximale Amplitude annimmt. Die Schnelle erreicht ihre maximale Amplitude um ein Viertel der Schwingungsdauer Tn später. Dickenschwingungen treten nur dann auf, wenn die Schallschnellen an den Stirnflächen des Schwingers entgegengesetztes Vorzeichen haben. Das ist dann der Fall, wenn die Schwingerdicke einem ungeradzahligen Vielfachen der halben Schallwellenlänge im Schwingermaterial entspricht. Bei geradzahligen Vielfachen ändert sich die Dicke des Schwingers nicht, es existiert keine Dickenschwingung. Die Resonanzfrequenzen und die entsprechenden Periodendauern lassen sich aus 𝜔 c 1 fn = n = = n ⋅ PZT mit n = 1, 3, 5, . . . . (8.44) 2𝜋 Tn 2⋅h berechnen, wobei cPZT die Schallgeschwindigkeit des piezoelektrischen Materials für die Ausbreitung in z-Richtung ist. Dickenschwinger führen auch parasitäre Radialschwingungen aus. Im Falle flacher Scheiben mit einem Radius gemäß a = √A/𝜋 ≫ h
(8.45)
liegen diese in einem anderen Frequenzbereich und sollen hier außer Acht gelassen werden. Neben den Dickenschwingern gibt es auch andere Schwingerformen wie z. B. Längsschwinger, Ringschwinger, Rohrschwinger, Radialschwinger [Lerch et al. 2009], die teilweise dadurch gekennzeichnet sind, dass die elektrischen und die mechanischen Feldgrößen senkrecht zueinander orientiert sind.
Elektrische Eingangsimpedanz An den elektrischen Anschlussklemmen eines Wandlerelements stellt sich dieses als 2-Pol-Netzwerk dar, dessen Bauelemente das elektrische und das mechanische Verhalten beschreiben und das in Abb. 8.7 dargestellt ist. Das piezoelektrische Element mit den Metallisierungen auf seinen Stirnflächen wirkt zunächst als Plattenkondensator C0 = 𝜀A/h , (8.46) dessen Eigenschaften durch die Geometrie und die dielektrischen Eigenschaften des Wandlermaterials beschrieben werden. Die Wandlerfunktion bei k > 0 kann durch
8 Ultraschall
Lm Y
Cm Rm
C₀
| 241
RV RS
Abb. 8.7: Elektrisches Ersatzschaltbild, das die Eingangsadmittanz eines Wandlers beschreibt.
Im Y
ω
ωM ωA
ωR Re Y
Abb. 8.8: Ortskurve der Eingangsadmittanz Y eines Schallwandlerelements.
zusätzliche elektrische Bauelemente berücksichtigt werden, die das mechanische Verhalten des Wandlers repräsentieren. Die Reaktanzen Cm = C0
k2 (1 − k 2 )
und Lm =
1 (𝜔12 Cm )
(8.47)
bestimmen die Resonanzfrequenz 𝜔1 des Reihenschwingkreises Lm /Cm in Abb. 8.7 und speichern die mechanische Energie der Schwingung. Der Verlustwiderstand RV =
1 (𝜔1 Cm Q)
(8.48)
nimmt die Leistung auf, die im Wandler absorbiert wird und sich aus einem Gütefaktor Q=
𝜔1 𝛥𝜔3 dB
(8.49)
mittels der 3dB-Bandbreite bestimmen lässt. Der „Strahlungswiderstand“ RS repräsentiert die Verlustanteile, die durch die Abstrahlung entstehen. An der Ortskurve der Eingangsadmittanz in Abb. 8.8, die das Verhalten des Wandlerelementes in der Umgebung der Resonanz beschreibt, lässt sich erkennen, dass die Admittanz bei den Frequenzen 𝜔R („Resonanz“) und 𝜔A („Antiresonanz“) rein reelle Werte annimmt.
242 | Helmut Ermert, Christian Hansen
Sende- und Empfangsverhalten
dPZT
dAS
Δƒ Abstrahlung ƒ₀ dPZT =
λPZT 2
ƒ =
cPZT 2ƒ₀
Anpassungsschicht (ZAS, cAS) Metallisierung (Kontakt) Piezokeramik (ZPZT, cPZT) Absorbermaterial („Backing”, ZB) Abb. 8.9: Schematische Darstellung des Aufbaus eines Schallwandlers.
Bei der Frequenz 𝜔M wird in der Nähe der Resonanzfrequenz der Betrag der Admittanz maximal. Die Schaltungsumgebung des Wandlers muss so ausgelegt sein, dass dieser im Bereich der Resonanzfrequenz optimal an Sender und Empfänger angepasst ist. Es gibt auch Ersatzschaltbilder für Ultraschallwandler, die als 3-Tor-Netzwerke sowohl die elektrische als auch die beiden akustischen Seiten der Wandler mit einbeziehen. Dazu sei hier auf die Literatur [Szabo 2004] verwiesen. Schallwandler, Transducer: Bauelement zur bidirektionalen elektroakustischen Wandlung von Signalen, vorwiegend durch Nutzung des direkten und des reziproken piezoelektrischen Effektes.
In einem Ultraschallwandler ist das piezoelektrische Element beidseitig in eine Schichtstruktur eingebettet. Die Stirnflächen sind metallisiert und mit Kontakten für den elektrischen Anschluss versehen. Zur Sendeseite hin folgt wegen des großen Unterschiedes zwischen der akustischen Impedanz des Wandlermaterials und den Impedanzen der Umgebung (biologisches Gewebe) eine Anpassungsschicht, deren Dicke gleich einem Viertel der Wellenlänge in dieser Schicht und deren Schallimpedanz gleich dem geometrischen Mittel aus den benachbarten Schallimpedanzen (Wandlermaterial/Gewebe) ist. Das Konzept der Anpassung zwischen verschiedenen Medien über 𝜆/4 dicke Schichten ist u. a. aus der Optik bekannt. In Abb. 8.9 ist das Innere eines kreiszylindrischen Wandlers schematisch dargestellt. Nicht dargestellt ist ein zylindrisches Gehäuse, in das die Wandlerstruktur eingebettet ist und innerhalb dessen die Kontaktierung nach außen zu einem Koaxialstecker geführt wird. Die piezolektrische Scheibe fungiert als Dickenschwinger in
8 Ultraschall
| 243
der niedrigsten Schwingungsordnung (n = 1). Es ist dPZT =
𝜆 PZT . 2
(8.50)
Die Rückseite des piezoelektrischen Elementes ist an ein Absorbermaterial („Backing“) angekoppelt, in dem der nach hinten abgestrahlte Schallanteil gedämpft wird. Die Schallimpedanz ZB soll ungefähr der Schallimpedanz des Schallwandlermaterials ZPZT entsprechen, um eine gute Ankopplung zu gewährleisten. Backing (dt. Hinterfüllung): dämpfendes, an der nicht benutzten Rückseite eines piezoelektrischen Schallwandlerelements angekoppeltes Material.
Eine perfekte Anpassung lässt sich nicht realisieren; die beiden Impedanzen können prinzipiell nicht gleich sein, weil das Wandlermaterial verlustarm und das BackingMaterial stark verlustbehaftet ist. Die Ausdehnung der Backing-Schicht nach hinten ist so zu bemessen, dass Echos von ihrer Rückseite den Wandler nur noch stark gedämpft erreichen können oder total abgeklungen sind. Die Bedämpfung auf der Rückseite des Wandlers beeinflusst das Resonanzverhalten in der Weise, dass es die Bandbreite Δf gegenüber dem Fall einer akustisch leerlaufenden Rückseite vergrößert. Die größere Bandbreite beim Sende- und Empfangsverhalten des Wandlers erlaubt den Betrieb mit kürzeren Impulssignalen, was für eine gute axiale Auflösung in der Echosonographie vorteilhaft ist, auch wenn gleichzeitig die Empfindlichkeit reduziert wird. Die Anpassungsschicht wird gemäß dAS =
𝜆 AS cAS , = 4 4f0
ZAS = √ZPZT ZF
(8.51)
dimensioniert, wobei ZF die Schallimpedanz der fluiden Umgebung ist. Diese Anpassung wirkt nur bei der Mittenfrequenz f0 und ist schmalbandig, was die angestrebte Breitbandigkeit des Wandlers ein wenig beeinträchtigt. Eine Abhilfe kann hier durch die Beschichtung mit mehr als einer Anpassungsschicht geschaffen werden. Das von einem Wandler abgestrahlte Wellenfeld kann auf unterschiedliche Weise ermittelt werden. Für ebene Wandler mit kreisförmiger oder rechteckförmiger Oberfläche gibt es analytische Lösungen mit begrenzter Genauigkeit [Stenzel und Brosze 1958]. Aus diesen Lösungen können einige Parameter abgeleitet werden, welche die Konturen des Schallfeldes gemäß Abb. 8.10 beschreiben. In unmittelbarer Nähe zur Oberfläche eines kreisförmigen Wandlers mit dem Durchmesser D wird ein Wellenfeld aufgebaut, das innerhalb eines Kreiszylinders etwa gleichen Durchmessers D und der Länge zF =
D2 D2 = f 4𝜆 4c
(8.52)
244 | Helmut Ermert, Christian Hansen zF α D
z
α Nahfeldbereich
Fernfeldbereich
Abb. 8.10: Vereinfachte Darstellung der Form des von einem ebenen Wandler abgestrahlten Wellenfeldes.
Abb. 8.11: Monofrequentes Wellenfeld eines kreisförmigen Wandlers mit ebener Oberfläche (Durchmesser 12 mm, Frequenz 2 MHz) im Bereich z < zF .
verteilt ist. Dieser Abstand stellt den Übergang vom sogenannten Nahfeld zum Fernfeld dar, in dem die Ultraschallwelle mit einem Divergenzwinkel sin 𝛼 = 1,2 ⋅
𝜆 D
(8.53)
divergiert und bei großen Entfernungen z den Charakter einer Kugelwelle annimmt. Eine experimentelle Möglichkeit zur Bestimmung von Ultraschallwellenfeldern ist die schlierenoptische Darstellung. In Abb. 8.11 ist das schlierenoptisch aufgenommene monofrequente Wellenfeld dargestellt, das von einem kreisförmigen Wandler (Material PZT) mit einem Durchmesser von 12 mm bei der Frequenz 2 MHz aufgenommen wurde [Neumann et al. 2005]. Die Länge des dargestellten Wellenfeldes beträgt ca. 25 mm und ist wesentlich kleiner als die Fernfeldgrenze (zf = 46 mm). Durch Fokussierungsmaßnahmen, die bei Einzelwandlern akustisch durch sphärisch gekrümmte Wandlerscheiben oder mittels einer Linse und bei Arrays elektronisch durch die Ansteuerung der Arrayelemente getroffen werden können, kann die Strecke zF verändert, z. B. verkürzt, werden. Eine typische Kontur des resultierenden Schallstrahls ist in Abb. 8.12 dargestellt. Eine entsprechende schlierenoptische Aufnahme ist in Abb. 8.13 zu finden.
8 Ultraschall
| 245
zF D
z
Abb. 8.12: Vereinfachte Darstellung der Form des von einem fokussierenden Wandler abgestrahlten Wellenfeldes.
(a)
(b)
Abb. 8.13: Schlierenoptisch aufgenommene Wellenfelder eines fokussierenden Wandlers (Durchmesser 12 mm, Mittenfrequenz f0 = 2 MHz, Bandbreite f = 0,8 MHz), (a) CW-Betrieb, (b) Pulsbetrieb mit zu verschiedenen Verzögerungszeiten aufgenommenen „Momentaufnahmen“ der zwei Perioden langen Pulse.
elektr. Abschirmung Masseleitung
Dämpfungskörper
λ/4-Anpassung
z x y
Koaxial-Kabel Signalleitung
Gehäuse
Piezoelement akustische Linse
Abb. 8.14: Ultraschallgruppenwandler („Array“) für den Einsatz in der bildgebenden Echosonographie.
Für die diagnostische Bildgebung werden Ultraschallgruppenwandler („Arrays“) verwendet, die aus nebeneinander liegenden streifenförmigen Einzelelementen bestehen und nach dem in Abb. 8.9 beschriebenen Konzept aufgebaut sind. In Abb. 8.14 ist der Aufbau eines solchen Gruppenwandlers dargestellt. Array (dt. Reihe, Anordnung): in der Radar- und Ultraschalltechnik eine aus einzelnen Antennenelementen bestehende Gruppenantenne.
In Abb. 8.15 sind zwei Ultraschallarrays mit unterschiedlicher Feinteilung bei der Aufgliederung in Einzelelemente ohne Anpassungsschicht dargestellt.
246 | Helmut Ermert, Christian Hansen
Abb. 8.15: Darstellung zweier unbeschichteter Arrays mit unterschiedlicher Feinteilung.
Zusätzlich zu der Anpassungsschicht ist das Array noch mit einer akustischen Zylinderlinse versehen, mit der eine Fokussierung des Schallfeldes in elevationaler Richtung (y) erreicht werden kann und die Wellenfelder auf eine endliche Schichtdicke in y-Richtung konzentriert werden. In Abb. 8.16 ist eine solche Anordnung dargestellt. Linear Array (dt. lineare Reihe): eindimensionale Antennengruppe, bei der die Gruppenelemente entlang einer Linie angeordnet sind. Elevation: bei Schnittbildverfahren die Richtung senkrecht zur Schnittbildebene.
Im Bildgebungsbetrieb sind jeweils Gruppen nebeneinander liegender Wandlerelemente aktiv. Eine solche Untergruppe bildet im dargestellten Beispiel eine rechteckförmige Aperturfläche, die bei Parallelschaltung, d. h. Phasengleichheit aller Gruppenelemente, ungefähr ein akustisches Wellenfeld aufbaut, wie ein rechteckförmiger Wandler mit gleicher Oberfläche. Eine Ansteuerung der Elemente einer solchen Gruppe mit Zeitverschiebungen zwischen den Pulssendezeiten der einzelnen Elemente erlaubt eine gezielte laterale Fokussierung in verschiedenen Tiefen (siehe Abb. 8.30 und Abb. 8.31). Das CW-(continuous wave) Ultraschall-Wellenfeld einer rechteckigen Wandlerapertur mit Abmessungen, wie sie einer in einem Linear-Array eines Ultraschallgerätes gleichzeitig aktivierten und gleichphasig angesteuerten Wandlergruppe entsprechen,
8 Ultraschall
| 247
piezoelektrisches Schallwandlerelement
aktive Untergruppe
F₁
laterale Fokussierung
F₂ zylindrische Fokussierungslinse
F₃ x y
elevationale Fokussierung z
laterale Scan-Richtung Abb. 8.16: Lineares Wandler-Array.
x elevationale Auflösung
laterale Auflösung
Δy z Δx
Apertur y Abb. 8.17: Apertur einer Wandlergruppe eines Linear-Arrays.
wurde für eine Sendefrequenz von fo = 8,5 MHz in [Hiltawsky 2005] gemäß Gl. (8.25) berechnet. Die Aperturlänge in lateraler Richtung betrug Δx = 14,08 mm, die Aperturbreite in elevationaler Richtung Δy = 2,50 mm. Die Geometrie der Anordnung ist in Abb. 8.17 dargestellt.
248 | Helmut Ermert, Christian Hansen Einhüllende der Schalldruckamplitude in dB –10 y in mm
90 0
10
80 70 0
10
20
30 z in mm
40
50
60
Abb. 8.18: Schallfeld einer Array-Element-Gruppe in der Ebene x = 0.
Einhüllende der Schalldruckamplitude in dB –10 x in mm
90 0
10
80 70 0
10
20
30 z in mm
40
50
60
Abb. 8.19: Schallfeld einer Array-Element-Gruppe in der Ebene y = 0.
Die Schallfeldverteilung in elevationaler Richtung ist in Abb. 8.18 dargestellt. Sie ist mit der Verteilung in Abb. 8.10 vergleichbar und gibt die divergierende Schichtdicke des Wellenfeldes wieder. Die Schichtdicke wird bei einem realen Schallwandlerarray durch die zylindrische Linse gemäß Abb. 8.16 optimiert. In Abb. 8.19 ist die laterale Feldverteilung in der Ebene y = 0 dargestellt. Sie ist mit der Feldverteilung des Wandlers in Abb. 8.11 vergleichbar. Es zeigt sich, dass eine Feldverteilung, wie sie von einer gleichphasig betriebenen Wandlergruppe erzeugt wird, in lateraler Richtung kaum fokussiert ist. Hier bedarf es bei der Bildgebung zusätzlicher Fokussierungsmaßnahmen („Beamforming“), die in Kapitel 8.5 beschrieben werden. Zur weiteren Veranschaulichung des Gesamtfeldes sind in Abb. 8.20 die berechneten Feldverteilungen in zueinander senkrechten Längsschnitten dargestellt. Für medizinische Anwendungen gibt es eine große Vielfalt verschiedener Ausführungen von Ultraschallwandlern. Einige Beispiele werden in Abb. 8.21 gezeigt. Alle Wandler werden bei ihrer Anwendung in den meisten Fällen durch eine direkte Berührung mit der Haut an das zu untersuchende Gebiet angekoppelt. Wegen der großen Reflexionsfaktoren der Grenzschichten Wandlermaterial/Luft und Luft/biologisches Gewebe sind selbst dünnste Luftschichten zwischen Wandler und Haut zu vermeiden. Die Ankopplung erfolgt deshalb mittels geeigneter Ankopplungsmedien („Ultraschallgel“). Es gibt auch Wandler, die so gestaltet sind, dass
8 Ultraschall
|
249
Einhüllende der Schalldruckamplitude in dB 100 90
x in mm
10 60 0
–10 5 yi n m 0–5 m
40 20
z
m in m
80
70
0
Abb. 8.20: Schallfeld einer Array-Element-Gruppe (ohne Beamforming) in den Ebenen x = 0 und y = 0.
Abb. 8.21: Einige Ultraschallwandler: Oben: lineares Standardarray (links), Curved-Array (Mitte), Matrix-Array (rechts) Unten: Rektalsonde für z. B. transrektale Prostatasonographie (links), intravaskulärer Wandler für Katheteruntersuchungen in den Herzkranzgefäßen (Mitte), Hochfrequenz-Wandler für die Dermatologie (rechts).
der Ultraschall über eine sogenannte „Wasservorlaufstrecke“ in das Gewebe eingekoppelt wird (z. B. Abb. 8.21 unten rechts).
Betriebsarten für piezoelektrische Wandler Wegen des reziproken piezoelektrischen Effektes sind die piezoelektrischen Wandler als Sender und/oder Empfänger einsetzbar. Hauptsächlich wird in der Ultraschalldiagnostik das Prinzip der Puls-Echo-Sonographie genutzt. Da hier Sende- und
250 | Helmut Ermert, Christian Hansen
DUX Puls
Echo
Abb. 8.22: Sende-Empfangs-Konzept der Puls-Echo-Sonographie (DUX = Duplexer).
Eingang
Wandler
1
2 470
4700 3 Ausgang Abb. 8.23: Einfache Duplexer-Schaltung für die Puls-Echo-Sonographie.
Empfangswandler identisch sind, bedarf es, wie bei einer Radar-Anlage, einer elektronischen Schaltung (Duplexer, „DUX“), die in der Funktion als Signalweiche den Sendeimpuls (mit hoher Amplitude) an den Wandler leitet und dabei die empfindliche Empfangselektronik entkoppelt und die das Echosignal (mit kleiner Amplitude) an die Empfangselektronik leitet und dabei auch den Weg zur Sendeelektronik versperrt (Abb. 8.22). In der Ultraschalltechnik lassen sich solche Duplexer in Form nichtlinearer Schaltungen realisieren. Ein typisches, einfaches Netzwerk, das als Sende-Empfangsweiche arbeitet, ist in Abb. 8.23 dargestellt. Mit zueinander antiparallel geschalteten Diodenpaaren lassen sich das Sperren und das Öffnen der Sendeseite sowie der Empfangsseite in Abhängigkeit von den auftretenden Signalpegeln erreichen. Duplexer: Signalweiche zur Trennung von Sende- und Echosignal in einem Puls-Echo-System.
Ein simultanes Senden und Empfangen mit einem einzelnen Wandler bereitet auf elektronischer Seite wegen des großen Pegelunterschiedes zwischen Sende- und Empfangssignal Schwierigkeiten. Bei monofrequentem Betrieb, wie er zum Beispiel beim CW-Doppler-Verfahren angewandt wird (s. Kap. 8.6), wird aus diesem Grunde mit getrennten Sende- und Empfangswandlern gearbeitet. Diese lassen sich z. B. mit halb-
8 Ultraschall
| 251
Abb. 8.24: Wandlerkonzept für CW-Anwendungen (Doppler).
kreisförmigen Aperturen galvanisch getrennt und mechanisch voneinander entkoppelt gemäß Abb. 8.24 in einem Gehäuse unterbringen. Im Zielgebiet dieses Wandlers überlappen sich die Sende- und die Empfangscharakteristik, so dass hier das Prinzip der Echosonographie mit kontinuierlichen (z. B. monofrequenten) Ultraschallsignalen angewandt werden kann.
8.5 Ultraschall-Bildgebung in der Medizin Grundlage der zweidimensionalen Ultraschallabbildung ist die Abtastung eines Bildbereichs durch mehrere benachbarte Schallstrahlen. Bevor auf den zweidimensionalen Bildaufbau eingegangen werden kann, soll zunächst die Aufnahme der Ultraschallsignale entlang solcher Linien und deren Formung beschrieben werden.
8.5.1 A-Scan- und TM-Scan-Technik Puls-Echo-Betrieb Die medizinische Ultraschallabbildung erfolgt üblicherweise, wie bereits in Kap. 8.2.1 erwähnt, im Puls-Echo-Betrieb. Hierbei werden von einem Schallwandler breitbandige Sendepulse in einem begrenzten Raumbereich entlang gebündelter Schallwellen ausgesandt und die durch Reflexion und Streuung erzeugten Echosignale entlang dieser Linien wieder empfangen. Abgebildet wird somit die Reflektivität des Gewebes, die aufgrund von Inhomogenitäten in den Verteilungen von Dichte und Kompressibilität lokal variiert. A-Scan: eindimensionale echosonographische „Abtastung“ von Objekten; Aufnahme eines Ultraschallechos aus einer einzelnen Richtung, z. B. zur Berechnung einer einzelnen Bildlinie aus der Amplitude des demodulierten hochfrequenten Echos (A = Amplitude).
In Abb. 8.25 wird das Konzept erläutert. Das Sendesignal eines fokussierenden Ultraschallwandlers, hier in Form des Schalldrucks pS (t), breitet sich in einem streifenförmigen Bereich des zu untersuchenden Gewebes aus. Wegen der Reziprozität des Sende- und Empfangsverhaltens des Wandlers gelangen Echos, die bei der Wechselwirkung des Ultraschallsignals mit dem Gewebe entstehen, als Empfangssignale, hier in Form einer elektrischen Spannung u(t), an den Wandler zurück. Aus diesem Sig-
252 | Helmut Ermert, Christian Hansen Ultraschallwandler
biologisches Gewebe = Streuer-Ensemble
z p(t) t u(t) t GTGC(t) t Bild-Zeile GTGC(t): zeitabhängige Verstärkung (TGC: „Time-Gain-Compensation”) Abb. 8.25: Zur Erläuterung des A-Scans und der Bildung einer grauwertkodierten B-Bild-Zeile.
nal wird eine Einhüllende gewonnen, deren Amplitude zur Grauwertkodierung einer Bildzeile genutzt werden kann. Die eindimensionale bzw. einzeilige Version dieser Technik wird mit „A-Scan“ (A = Amplitude) bezeichnet, der Aufbau eines flächenhaften Schnittbildes, das sich aus parallelen A-Scan-Zeilen zusammensetzt, wird B-Scan (B = Brightness) genannt. B-Scan: zweidimensionale echosonographische Abtastung von Objektquerschnitten mittels räumlich versetzter A-Scans zum Aufbau eines flächenhaften B-Bildes.
In Abb. 8.26 sind am Beispiel des Schalldrucks einige Zeitsignale und ihre Betragsspektren dargestellt. Die Darstellung lässt erkennen, dass es einen systematischen Zusammenhang zwischen der Dauer der Signale und der Breite ihrer Spektren gibt. Experimentell gewonnene Beispiele der Sende- und Empfangssignale eines Ultraschallsystems sind in Abb. 8.27 dargestellt. Die Abb. 8.27 (a) zeigt für einen Sendepuls mit einer Mittenfrequenz von f0 = 2,25 MHz den Druckverlauf p(t) über der Zeit t (Hydrophonmessung am Schallwandler CH4-1 des Ultraschallgerätes Siemens Acuson Antares). Das zugehörige Betragsspektrum |P(f )| ist in Abb. 8.27 (c) dargestellt. Die Bandbreite 𝛥f der derzeit in der Medizin verwendeten Schallwandler aus piezoelektrischen Materialien liegt typischerweise in der Größenordnung von 0,8f0 . Innerhalb dieser Grenzen kann die Mittenfrequenz (spektraler Mittelwert eines bandbegrenzten Signals) der Schallpulse variiert werden.
8 Ultraschall
| 253
ΩP₀( ƒ )Ω
p₀(t)
Δƒ = 0 t T₀ → ∞
ƒ₀
ƒ
ΩP₁( ƒ )Ω
p₁(t)
Δƒ₁
t T₁
ƒ₀
ƒ
ΩP₂( ƒ )Ω
p₂(t)
Δƒ₂
t T₂
ƒ₀
ƒ
Abb. 8.26: Einige Zeitsignale und ihre Betragsspektren.
Bandbreite: spektrale Breite eines Signals oder des Übertragungsverhaltens (Durchlass, Dämpfung) eines Übertragungssystems (z. B. eines Bandfilters).
Unmittelbar nachdem der Ultraschallpuls ausgesandt wurde, wird mittels einer Sende-Empfangsweiche nach Art der Schaltung in Abb. 8.23 vom Sende- in den Empfangsbetrieb umgeschaltet und mit dem schon für das Senden verwendeten Schallwandler das (hochfrequente) Echosignal u(t) aufgenommen. Exemplarisch ist ein solches Echosignal in Abb. 8.27 (b) dargestellt. Abb. 8.27 (d) zeigt daszugehörige Betragsspektrum |U(f )|. Als Maß für die Reflektivität der streuenden oder reflektierenden Strukturen wird die Amplitude a(t) der empfangenen Echosignale ausgewertet. Sie kann (ggf. nach Filterung in geeigneten Bandgrenzen) über eine Hüllkurvendetektion aus u(t) berechnet werden. Ist u(t) mittelwertfrei, so kann a(t) beispielsweise mit 2 a(t) = u(t) (8.54) aus dem analytischen Signal u(t) bestimmt werden, das mit der Hilberttransformation H [Fettweis 1996]: u(t) = u(t) + jH {u(t)} (8.55)
254 | Helmut Ermert, Christian Hansen
7,4
Echoamplitude a(t) in a.u.
Druck p(t) in MPa
0,5 0 –0,5 –1
50 0 –50
–100 0
(a)
2
4 Zeit t in μs
6
8
95 (b)
100 Zeit t in μs
105
0 Betragsspektrum ΩU( ƒ )Ω in dB
0 Betragsspektrum ΩP( ƒ )Ω in dB
8
100
1
–10
–20
–30
–40
–10
–20
–30
–40 0
(c)
Tiefe s(t) in cm 7,6 7,8
2 4 6 Frequenz ƒ in MHz
8
0 (d)
2 4 6 Frequenz ƒ in MHz
8
Abb. 8.27: Signalverläufe bei der Abbildung im Puls-Echo-Betrieb: (a) Druckverlauf p(t) eines Sendepulses mit f0 = 2,25 MHz, (b) Empfangsecho u(t) bzw. u(s) (grau) und Hüllkurve a(t) bzw. a(s) (schwarz) (Umrechnung t → s gemäß Gl. (8.56)), (c) Betragsspektrum des Sendepulses, (d) Betragsspektrum des Empfangsecho. (b) Das gezeigte Echosignal stammt von einer In-vivo-Aufnahme der Leber. Die Aufnahme wurde mit einem Ultraschallgerät Siemens Acuson Antares und dem Schallwandler CH4-1 gemacht, wobei das hochfrequente Echo u(t) über eine Schnittstelle abgerufen und gespeichert wurde.
aus dem Messsignal u(t) gewonnen wird. Das demodulierte Signal a(t) wird als A-Linie bezeichnet (A = Amplitude). Die Zeitkoordinate t steht bei u(t) und a(t) stets in direkter Beziehung zur Tiefe z = s, aus welcher das Echo empfangen wird. Es gilt allgemein für jedes t0 : t0
1 s(t0 ) = ∫ c(t) ⋅ dt 2 0
(8.56)
8 Ultraschall
| 255
Hierbei ist s(t0 ) die dem Zeitpunkt t = t0 entsprechende Tiefe (Distanz zwischen Schallwandler und Streuer), t die Zeit, die direkt mit dem Empfang bei t = 0 beginnt und bis t0 läuft und schließlich bei der Empfangszeit tE endet, und c(t) die Schallgeschwindigkeit im Gewebe, mit der sich die Schallwelle zur jeweiligen Zeit ausbreitet. Da im Regelfall über die inhomogene Schallgeschwindigkeitsverteilung im menschlichen Gewebe keine Informationen vorliegen, wird bei der konventionellen Sonographie nur näherungsweise mit einer konstanten Schallgeschwindigkeit c, üblicherweise c = 1540 m/s, gerechnet. Es gilt somit: s(t) =
1 ⋅c⋅t 2
(8.57)
Aufgrund der tiefenabhängigen Dämpfung des gesendeten und des reflektierten Schallsignals weisen die Echos von tiefer liegenden Strukturen systematisch geringere Amplituden auf als jene von wandlernahen Strukturen. Die Signale u(t) sind daher tiefenabhängig zu verstärken. Eine solche tiefenabhängige Verstärkung GTGC (s) wird als Time Gain Compensation (TGC) bezeichnet (siehe Abb. 8.25). Da allerdings die Verteilung des materialabhängigen Dämpfungkoeffizienten 𝛼 im Gewebe inhomogen und im Regelfall unbekannt ist, muss der optimale Verlauf von GTGC (s) geschätzt werden. Time Gain Compensation (TGC; dt. Dämpfungskompensation mit zeitlich veränderlicher Verstärkung): Zeitsteuerung der Empfangsverstärkung eines Puls-Echo-Systems, mit dem der Einfluss der Dämpfung im Übertragungsmedium für unterschiedliche Objektentfernungen ausgeglichen wird.
In Ultraschallgeräten sind daher empirisch getestete TGC-Kurven hinterlegt, die bei der Bildgebung verwendet werden und bei Bedarf manuell nachgeregelt werden können. Selbstverständlich sind dem Konzept der tiefenabhängigen Verstärkung Grenzen gesetzt, wenn die aufzunehmenden Echosignale zu stark abgeklungen sind und im Empfangsrauschen nicht mehr detektiert werden können. Es existiert daher in Abhängigkeit der Dämpfungseigenschaften des zu untersuchenden Gewebes eine maximale Tiefe smax , bis zu der hin eine Ultraschallabbildung möglich ist. Diese maximale Eindringtiefe wird mit zunehmender Sendefrequenz geringer. Bei Anwendung des Puls-Echo-Verfahrens wird davon ausgegangen, dass sich die Schalllaufwege beim Aussenden der Schallpulse (Ausbreitung vom Schallwandler zum Streuer) nicht von denen beim Empfang (Ausbreitung vom Streuer zum Schallwandler) unterscheiden bzw. dass nach Streuung der Schallwelle am Streukörper genügend Schallenergie entlang des angenommenen Schallstrahls zurückläuft. Nur unter dieser Voraussetzung können die Echos der gesendeten Pulse vom selben Schallwandler empfangen werden. Das Auftreten von Mehrfachreflexionen wird hierbei nicht berücksichtigt (vgl. Born-Approximation [Angelsen 2000]). Bei modernen Ultraschallgeräten erfolgt die Signalverarbeitung digital, so dass die Signale u(t) bzw. a(t) zeitdiskret zu den Zeitpunkten tm , mit (m = 1, 2, . . ., M), vorliegen. Ihre Abtastung erfolgt beispielsweise mit einer Abtastfrequenz von fabt =
256 | Helmut Ermert, Christian Hansen Konturen in Bewegung
Wandler
A-Scan t B-Scan-Zeile
t „schnelle” Zeitachse
„langsame” Zeitachse
t
TM-Scan
t
Abb. 8.28: Darstellung des Time-Motion-ScanKonzepts.
1/𝛥tabt = 40 MHz. Bei Beachtung des Abtasttheorems wird hierdurch die Ultraschallabbildung auf den Einsatz von Pulsen mit maximalen Frequenzanteilen bis zu 20 MHz beschränkt. Im Folgenden soll die Beschreibung der Echosignale aber zeitkontinuierlich erfolgen. Nur bei Bedarf wird zu der zeitdiskreten Notation übergegangen. Gleiches gilt für die ebenfalls diskret vorliegende Koordinate sm .
TM-Scan Aus dem A-Scan-Konzept lässt sich das TM-Scan-Verfahren (TM=Time Motion), manchmal auch M-Scan genannt, herleiten (siehe Abb. 8.28). Bei diesem Verfahren wird kein lateraler Scan durchgeführt. Der Wandler verharrt in einer bestimmten Position und registriert über eine Serie von Puls-Echo-Zyklen Bewegungen von Diskontinuitäten, die sich innerhalb seiner gebündelten Schallstrahlcharakteristik befinden. Die Ortsveränderung dieser Grenzschichten wird über einer sogenannten „langsamen“ Zeitachse aufgezeichnet, so dass eine zweidimensionale Darstellung entsteht, mit der Bewegungsabläufe gut analysiert werden können. Das TM-ScanVerfahren wird überwiegend in der Kardiologie und der Angiologie angewandt und simultan zur Echtzeit-B-Bildgebung betrieben. Time Motion Scan (TM; dt. Abbildung der Bewegung im Zeitverlauf): auf dem A-Scan basierendes Verfahren zur Beobachtung und Aufzeichnung von Bewegungsabläufen von Grenzschichten (z. B. Herzklappen) entlang einer Schallstrahlachse.
8 Ultraschall
| 257
Strahlformung Um die Ultraschallwellen räumlich entlang eines definierten Schallstrahls im Sendefall zu bündeln und darüber hinaus auch im Empfangsfall gerichtet die Echosignale aufzunehmen, bedarf es einer präzisen Strahlformung (beamforming). Eine solche Strahlformung modifiziert die Richtcharakteristik der Sende- und Empfangsapertur in lateraler und elevationaler Richtung gemäß Abb. 8.29. Beamforming (dt. Strahlformung): Methode zur Erzeugung einer bestimmten Strahlform (Breite und Richtung) durch die Ansteuerung der Elemente eines Arrays.
Hierbei werden eine Fokussierung des Schallfeldes zur Verbesserung der Auflösung und ein Schwenken der Strahllinie zur gerichteten Aufnahme realisiert: Curved Array (dt. gekrümmte Gruppe): Array mit gekrümmter, z. B. konvexer Aperturgeometrie.
Laterale Strahlformung: Die laterale Strahlformung erfolgt bei den üblicherweise genutzten Array-Schallwandlern gemäß Abb. 8.29 über die zeitverzögerte Ansteuerung der Einzelelementwandler der aktiven Apertur. Die aktive Apertur kann ihrerseits (wie beim Linear-Array aus Abb. 8.1 oder beim Curved-Array aus Abb. 8.29 (a) aus einer Untergruppe von Einzelelementwandlern oder wie beim Phased-Array gemäß Abb. 8.30 aus sämtlichen Einzelelementwandlern des Arrays bestehen. Phased Array (dt. phasengesteuerte Gruppe): Gruppenantenne mit elektronischer Steuerung der Phasenbelegung der Antennenelemente zum Zweck der elektronischen Fokussierung und des elektronischen Schwenkens der Richtcharakteristik.
Im Rahmen der Sendefokussierung kann die Fokustiefe sF zwar frei gewählt werden, ist aber für einen einmal ausgesendeten Puls nicht mehr veränderbar. Meist wird der Schallstrahl daher im Sinne einer verbesserten Tiefenschärfe über einen größeren Tiefenbereich gleichbleibend breit gehalten. Die laterale Fokusbreite ist dabei zwangsläufig größer als die für diskrete Tiefen minimal mögliche Breite. Sollen mehrere laterale Sendefokuszonen verwendet werden, so ist der Puls-Echo-Betrieb entlang desselben Schallstrahls entsprechend zu wiederholen und die Empfangsechos sind nach Hüllkurvendetektion gewichtet zu addieren. Anders als im Sendefall kann der Fokus beim Empfang laufend jener Tiefe angepasst werden, aus der die aktuell empfangenen Echos eintreffen (dynamische Empfangsfokussierung).
258 | Helmut Ermert, Christian Hansen (a)
Curved-Array aus Einzelelementen
(b)
Curved-Array in Seitenansicht
aktive Apertur
axial elevational lateraler Fokus lateral
axial elevationaler Fokus
Scan
Abb. 8.29: Darstellung der lateralen (a) und elevationalen (b) Strahlformung am Beispiel eines Curved-Arrays. Schematisch sind drei Einzelelemente zu einer aktiven Apertur zusammengefasst. Bei realen Array-Schallwandlern ist diese Anzahl deutlich größer.
Phased-Array
Sender τn
τ8
τ4
τ1 Verzögerungselemente
lateraler Fokus Array axial Wellenfront lateral Schallausbreitungsrichtung Scan (a)
elektronisch schwenkbare Wellenfront
(b)
Abb. 8.30: Darstellung der lateralen Strahlformung am Beispiel eines Phased-Arrays. Hier werden alle Einzelelemente zu einer aktiven Apertur zusammengefasst. Bei realen Phased-Array-Schallwandlern ist diese Anzahl deutlich größer. Elementbreite und Elementabstand müssen aus beugungsphysikalischen Gründen wesentlich geringer sein als beim Linear-Array oder Curved-Array. (a) Simultanes Fokussieren und Schwenken durch verzögerte Ansteuerung der Einzelelemente. (b) Darstellung des Beamforming und Scan-Konzepts.
8 Ultraschall
|
259
Dynamische Fokussierung: Zeitliche Steuerung der Fokustiefe einer Gruppenantenne (Array) in der Empfangsphase eines Puls-Echo-Systems. Der momentane Ort des Fokus entspricht dabei jeweils dem Entstehungsort des momentan empfangenen Echos.
Eine große Tiefenschärfe ist hier nicht erforderlich, so dass die Fokusbreite im Empfangsfall minimiert werden kann. Um diese für alle Tiefen konstant zu halten, wird meist die aktive Apertur für geringe Tiefen verringert. Für die F-Zahl FN , die über die Fokustiefe sF und die Breite der aktiven Apertur Dap definiert ist, ergeben sich tiefenunabhängig konstante Werte: s (8.58) FN = F Dap F-Zahl: Kenngröße von Ultraschallwandlern; Verhältnis von Fokus-Abstand (Wandler – Fokus) zum Wandlerdurchmesser.
Zusätzlich zur lateralen Fokussierung kann auch ein Schwenken des Schallstrahls realisiert werden. Während ein solches Schwenken bei Linear-Arrays meist optional (s. Kap. 8.7.1) möglich ist, ist es bei Phased Arrays für die Bildgebung konzeptionell (siehe Abb. 8.30). Üblicherweise wird neben der zeitverzögerten Ansteuerung der Einzelelemente auch eine Gewichtung ihrer Sende- und Empfangssignale [Cobbold 2007] vorgenommen (Apodisierung; Abb. 8.31). Bei Verwendung räumlicher Apodisierungsfunktionen (z. B. eines Hanning- Fensters [Szabo 2004]) werden zur Reduzierung von Nebenkeulen (sidelobes, siehe Abb. 8.38) die Beiträge von Elementen am Rand der aktiven Apertur weniger stark gewichtet als solche von zentral gelegenen Elementen [Angelsen 2000]. Apodisierung: Amplitudenbelegung der Elemente einer Gruppenantenne.
Elevationale Strahlformung: Die elevationale Sendefokussierung wird meist über akustische Linsen gemäß Abb. 8.14 und Abb. 8.29 (b) realisiert. Zum Teil werden aber auch weitere Reihen von Einzelelementwandlern eingesetzt, die elevational neben dem eigentlichen Array liegen und diesem temporär parallel geschaltet sind. Im ersten Fall spricht man üblicherweise von 1D-Arrays, im zweiten Fall häufig von 1.XDArrays (Abb. 8.32). Ein simultanes Fokussieren und Schwenken des Schallstrahls in elevationaler Richtung ist erst bei 2D-Arrays möglich, die teilweise im Rahmen der 3D-Ultraschallabbildung eingesetzt werden (vgl. Kap. 8.5.5).
260 | Helmut Ermert, Christian Hansen Sendephase: ein Fokus pro Sendepuls (einstellbar, aber fixiert)
Empfangsphase: optimaler Fokus für jede Tiefe (mitlaufend, dynamisch)
Sendeapertur
variable Empfangsapertur Array Fokus 1 Fokus 2
Fokus
Fokus 3
Fokus 4
Abb. 8.31: Sendefokussierung und Empfangsfokussierung.
1D fixierte Elevationsapertur, fester Fokus 1.25D variable Elevationsapertur, statische Fokussierung 1.5D dynamische Fokussierung, symmetrisch 1.75D wie 1.5D, aber unsymmetrische Ansteuerungsmöglichkeit Abb. 8.32: 1.XD-Arraykonzepte für die Optimierung der Strahlformung in elevationaler Richtung.
8.5.2 B-Bild-Technik Bildaufbau Zweidimensionale Ultraschall-B-Bilder (B = Brightness) werden erzeugt, indem der zuvor beschriebene Puls-Echo-Betrieb für mehrere lateral benachbarte Schallstrahlen wiederholt wird und die einzelnen A-Linien grauwertkodiert und in geometrisch korrekter Lage nebeneinander angeordnet werden. Obwohl die Schallausbreitung auch elevational fokussiert in einem begrenzten Raumbereich erfolgt, werden sämtliche Empfangssignale ohne elevationale Ortsauflösung in einer zweidimensionalen Ebene dargestellt. Es existiert somit eine elevationale Schichtdicke, innerhalb derer alle elevational benachbarten Objekte mit unterschiedlicher Gewichtung zum dargestellten
8 Ultraschall
|
261
Grauwert beitragen (vgl. Kap. 8.5.4). Stark echogene Bereiche, die eine hohe lokale Reflektivität aufweisen und/oder hinter Bereichen geringer Dämpfung liegen, werden in B-Bildern hell, schwach echogene Bereiche dunkel dargestellt. B-Bild: auf dem B-Scan-Konzept (B = Brightness; dt. Helligkeit) basierendes Ultraschallbild mit grauwertcodierter Schnittbild-Darstellung von Objekten.
Um den Bildbereich durch Abtastung mit benachbarten Schallstrahlen zu scannen, bestehen bei Array-Schallwandlern zwei Möglichkeiten: Zum einen kann zu einem lateral benachbarten Schallstrahl weitergeschaltet werden, indem die Apodisierungsfunktion, die durch die Elemente der aktiven Apertur räumlich abgetastet wird, lateral verschoben wird. Dies ist für Linear- und Curved-Arrays der Fall (Abb. 8.29). Zum anderen kann der Schallstrahl über die zeitlich verzögerte Ansteuerung der Einzelelemente geschwenkt werden. Diese Technik wird beim Phased-Array eingesetzt (Abb. 8.30). In beiden Fällen liegen Echosignale un (tn ) bzw. A-Linien an (tn ) zu insgesamt N Schallstrahlen vor, wobei n = 1, 2, . . ., N und N ≈ 300 ist. Die Zeitkoordinate tn ist hierbei an den jeweiligen Schallstrahl n gebunden und beginnt mit tn = 0 für jede Linie erneut (es wird der Übersichtlichkeit halber im Folgenden verkürzt un (t) und an (t) geschrieben). Es gilt 0 ≤ tn ≤ tE , wobei tE die Empfangszeit pro Schallstrahl ist. Die Menge aller zu einem B-Bild gehörenden hochfrequenten Echosignale un (t) wird im Folgenden als Ultraschallframe bezeichnet. In Abb. 8.33 (a) sind parallel nebeneinander die logarithmisch skalierten A-Linien ℓ an (t) dargestellt, die bei der Abbildung einer Leber mit einem Curved-Array aufgenommen wurden. Die Darstellung in logarithmischer Skalierung ist bei der Ultraschallabbildung nötig und üblich, da der Dynamikbereich der Echosignale bis zu 80 dB umfasst. Soweit nicht anders beschrieben, werden im Folgenden Ultraschallbilder stets in dieser logarithmischen Skalierung gezeigt. Die logarithmierten Amplituden ℓ an (t) werden als (Bild-)Intensitäten bezeichnet. Dynamikbereich: Verhältnis zwischen dem maximalen Signalpegel und dem kleinsten, über dem Rauschuntergrund detektierbaren Signalpegel in einem System.
Bevor der Puls-Echo-Betrieb für den Schallstrahl n + 1 (oder für einen weiteren Sendefokus) beginnt, muss der Empfang für Linie n (bzw. für den vorherigen Sendefokus) abgeschlossen sein. Die Pulswiederholrate (pulse repetition frequency, PRF) ist somit fPRF =
1 , tE
(8.59)
wobei für die Empfangszeit tE gilt: 2 ⋅ sbild 2 ⋅ smax ≤ tE ≤ (8.60) c c Hierin sind c die angenommene Schallgeschwindigkeit, sbild die gewählte Bildtiefe und smax die maximale Tiefe, bis zu der hin eine Ultraschallabbildung aufgrund der
262 | Helmut Ermert, Christian Hansen A-Linien n/100 1 2
3 1
4
2
6
3
8
4
10
5 6 110 90 70 Abstrahlwinkel φ in Grad
–10 –20 10 z in cm
2
12 (a)
0
5 Abtastpunkte m/1000
Tiefe s(t) in cm
0
–30 –40 15
–50
–10
0 x in cm
(b)
10
–60 dB
Abb. 8.33: B-Bildgebung am Beispiel einer Leberaufnahme mit einem Curved-Array: (a) Parallel angeordnete, grauwertkodierte A-Linien (in typisch logarithmischer Skalierung). (b) B-Bild nach Scankonvertierung. Das Dreieck markiert ein Spiegelartefakt, das Rechteck einen Bereich, dessen Amplitudenverteilung weiter unten analysiert wird. Die Aufnahme wurde mit einem Siemens Acuson Antares und dem Curved-Array CH4-1 mit einer Mittenfrequenz von 2,5 MHz durchgeführt. f0 in MHz smax in cm
2,0 30
3,5 17
5,0 12
17,5 8
10,0 6
Tab. 8.5: Reichweiten bzw. maximale Bildtiefen für verschiedene Frequenzen.
15,0 4
Dämpfung möglich ist. Diese Tiefe lässt sich mit der Beziehung D
[
[ dBeff ] smax ]= cm 2 ⋅ 𝜂 ⋅ [f0 /MHz]
(8.61)
abschätzen, in der Deff der nutzbare Dynamikbereich des Puls-Echo-Systems, f0 die Mittenfrequenz der Ultraschallsignale und 𝜂 ein Proportionalitätsfaktor ist, der nach den Ausführungen in Kapitel 8.3.1 (siehe auch Tab. 8.3) zwischen 0,5 und 1 liegt. Für einen Dynamikbereich von 100 dB erhält man beispielsweise bei einer Frequenz von 5 MHz und bei einer Annahme von 𝜂 = 0,8 eine Reichweite von 12,5 cm. Praktikable Richtwerte für die Reichweite bzw. maximale Bildtiefe sind in Tab. 8.5 zusammengestellt. Bei einer Bildtiefe von beispielsweise sbild = 10 cm ergibt sich aus Gl. Gl. (8.60) mit c = 1540 m/s eine minimale Empfangszeit von tE = 0,13 ms und damit eine PRF von fPRF = 7,7 kHz. Für die Aufnahme eines aus 300 A-Linien bestehenden Ultraschallframes wird mindestens eine Aufnahmezeit von 𝛥tfr = 39 ms benötigt. Hierbei ist t eine globale Zeitkoordinate, die anders als t an keinen besonderen Vorgang (wie den Puls-EchoBetrieb für einen Schallstrahl) gebunden ist. Die Bildwiederholrate (frame rate) ergibt sich für nur einen Sendefokus aus ffr =
1 1 c = ≤ N ⋅ tE 2 ⋅ N ⋅ sbild 𝛥tfr
(8.62)
8 Ultraschall
| 263
Für das genannte Beispiel beträgt sie ffr = 39 Hz. In Abhängigkeit der Bildtiefe und der Liniendichte ergeben sich aber durchaus Werte von bis zu 200 Hz. Im Falle mehrerer Sendefoki reduziert sich ffr bei Erhöhung von 𝛥tfr entsprechend.
Scankonvertierung Um eine ortsrichtige Abbildung zu realisieren, sind im Rahmen einer Scankonvertierung die aufgenommenen A-Linien in korrekter geometrischer Lage zueinander anzuordnen (Abb. 8.33). Während beim Linear-Array nur der Abstand der parallel liegenden A-Linien anzupassen ist, muss beim Curved-Array und beim Phased-Array die Lage der A-Linien unter Berücksichtigung des Abstrahlwinkels korrigiert werden.
8.5.3 Eigenschaften von Ultraschallsystemen Auflösung Unter der Auflösung eines Abbildungssystems versteht man den kleinsten Abstand, den zwei Punktobjekte voneinander entfernt sein dürfen, um im Bild noch getrennt dargestellt zu werden. Auflösung, räumlich: Maß für die Fähigkeit eines Abbildungssystems, kleine, nah beieinander liegende Objekte als separate Objekte darstellen zu können.
Im Falle der Ultraschallabbildung ist die Auflösung stark anisotrop (Anisotropie: Richtungsabhängigkeit, z. B. von Systemeigenschaften oder von Materialeigenschaften). Man unterscheidet zwischen der axialen Auflösung, der lateralen Auflösung und der elevationalen Auflösung (Schichtdicke). Die axiale Auflösung ist bei der zweidimensionalen Ultraschallabbildung deutlich besser als die laterale; die elevationale Auflösung ist am schlechtesten. Alle drei Größen variieren zusätzlich mit ihrem axialen Abstand zur Ultraschallquelle, so dass die Auflösung tiefenabhängig ist. Die axiale Auflösung ist, wie weiter unten erläutert wird, nur in geringerem Maße von der Tiefe abhängig als die laterale und die elevationale. Aufgrund der anisotropen und tiefenabhängigen Auflösung des Ultraschallbildes variiert die Darstellung aufgenommener Objekte grundsätzlich mit der Einfallsrichtung des Ultraschalls. Abb. 8.34 zeigt beispielhaft die Bilder eines transversal abgebildeten linienförmigen Streuers (dünner Draht) für verschiedene Tiefen. Zur Charakterisierung der räumlichen Auflösung eines Ultraschallsystems kann die Ausdehnung der Punktbildfunktion im Ultraschallbild benutzt werden. Dabei interessiert der Verlauf der Echoamplitude des Punktbildes in axialer, lateraler und elevationaler Richtung für Positionen des Punktes in verschiedenen Tiefen z = z.̆ Die Halbwertsbreiten der Amplitudenverläufe 𝛿x , 𝛿y , 𝛿z in den Raumrichtungen x (lateral), y (elevational) und z (axial) können als Maße für die räumliche Auflösung betrachtet
264 | Helmut Ermert, Christian Hansen werden, wobei kleine Werte der Halbwertsbreiten jeweils eine hohe Auflösung bedeuten. Die Halbwertsbreite ergibt sich als Abstand zwischen den Punkten im Amplitudenverlauf, an denen die Amplitude um die Hälfte ihres Maximalwertes (um 6 dB der Maximalintensität) abgefallen ist. Punktbildfunktion (PBF): Bildfunktion eines kleinen (idealerweise punktförmigen) Objekts, das der Charakterisierung eines Abbildungssystems dient. Die Halbwertsbreite der Punktbildfunktion wird oft als Maß für die räumliche Auflösung verwendet.
Die axiale Auflösung eines im B-Modus arbeitenden Ultraschallsystems hängt von der Dauer der verwendeten Ultraschallpulse T6 dB ab. Die wesentlichen Zusammenhänge sollen am Beispiel eines HF-Echosignals u(t) mit der Mittenfrequenz f0 , der Bandbreite ΔfE und einer Gauss-förmigen Einhüllenden erläutert werden. Die Einhüllende des Echosignals repräsentiert über den Zusammenhang Gl. (8.57) den in axialer Richtung geschnittenen Längsschnitt der Punktbildfunktion. Als Maß für die axiale Auflösung lässt sich die 6-dB-Breite („Halbwertsbreite“) der Einhüllenden 1 𝛿ax = c ⋅ T6 dB (8.63) 2 definieren. In Abb. 8.35 ist erkennbar, dass das Echo eines zweiten Streuers hinter dem ersten Streuer vom Echo des ersten Streuers noch unterschieden werden kann,
z in cm
vor lateralem Fokus
im lateralen Fokus
11,0 11,5
(a)
hinter lateralem Fokus
14,6
19,6
15,0 –1
–0,5
0 0,5 x in cm
1
(b)
20,2 –1
–0,5
0 0,5 x in cm
1
(c)
–1
–0,5
0 0,5 x in cm
1
Abb. 8.34: Linienbilder eines transversal abgebildeten Drahtes für verschiedene Tiefen relativ zum Sendefokus sF = 8 cm.
ΩU( ƒ )Ω
T6dB
50 % 50 %
u(t)
ΔƒE
t
ƒ₀
Abb. 8.35: Zur Erläuterung der axialen Auflösung: links: HF-Echosignal eines Punktstreuers, Einhüllende (grün), Einhüllende des Echos eines weiteren Punktstreuers (grün gestrichelt), rechts: Betragsspektrum des Echosignals.
ƒ
8 Ultraschall
| 265
wenn sich beide Einhüllenden nicht weiter als bis zu ihren Halbwertsbreiten überlappen. Streng genommen überlagern sich die Einhüllenden nicht additiv. Die Überlagerung der Echosignale erfolgt im HF-Bereich, und als resultierende Einhüllende entstehen komplexe Zeitverläufe. Erfahrungsgemäß ist die Annahme in Gl. (8.63) aber trotzdem anwendbar. Für die meisten in der Echosonographie verwendeten Pulsformen gibt es einen fundamentalen Zusammenhang zwischen Pulsdauer und Bandbreite, der hier auch gültig ist: 𝛥fE ⋅ T6dB ≈ 1 (8.64) In der Regel fungiert der Schallwandler mit seiner begrenzten Bandbreite Δf als Bandpass für das ausgesandte Sendesignal und das empfangene Echosignal. Bandpass: Filter, das die Übertragung von Signalen auf eine bestimmte Bandbreite begrenzt.
Wegen der zweifachen Filterung auf Hinweg und Rückweg ist die 6-dB-Bandbreite des Echosignals ΔfE nur halb so groß wie die Bandbreite des Wandlers Δf . Somit lässt sich die axiale Auflösung auch über die Bandbreite Δf des Ultraschallgerätes definieren: 𝛿ax ≈
c0 𝛥f
(8.65)
Gleichung Gl. (8.65) stellt die gegenüber Gl. (8.63) universellere Definition der axialen Auflösung dar. Sie ist auch anwendbar auf Signale, deren Zeit-Bandbreite-Produkt gemäß Gleichung Gl. (8.64) viel größer als 1 ist. Von solchen Signalen wird in speziellen Puls-Echo-Systemen unter Nutzung des Konzepts der Pulskompression [Rao et al. 1993, Paßmann et al. 1996] Gebrauch gemacht. Da die Bandbreite bei zunehmender Mittenfrequenz steigt (Δf ≈ 0,8 f0 ), nimmt auch die axiale Auflösung mit der Mittenfrequenz zu. Für einen Sendepuls mit einer Gauss-förmigen Einhüllenden und einer Mittenfrequenz von f = 2,25 MHz ergibt sich theoretisch bei einer Bandbreite von 𝛥f ≈ 0,8 f0 = 1,8 MHz und für eine Schallgeschwindigkeit von c0 = 1540 m/s eine axiale Auflösung von 𝛿 ax = 0,86 mm. Eine Tiefenabhängigkeit der axialen Auflösung ergibt sich aus der frequenzabhängigen Dämpfung des Gewebes, da mit zunehmender Wegstrecke bei der Ausbreitung des Ultraschalls höhere Frequenzanteile der Signale stärker gedämpft werden als niedrigere, woraus eine Verschiebung der Mittenfrequenzen zu niedrigeren Werten hin und eine Reduzierung der Bandbreite resultieren. Die laterale Auflösung wird durch die laterale Breite des Schallstrahls bestimmt (vgl. Abb. 8.29 und Abb. 8.30). Da die Strahlform maßgeblich durch die Fokussierung beeinflusst wird, variiert auch die laterale Auflösung tiefenabhängig mit der Wahl des Sende- und Empfangsfokus. Insofern lässt sich für die laterale Auflösung kein einheitliches Maß angeben. Von besonderem Interesse ist die laterale Auflösung im Fokus des Ultraschallstrahls. Dort ist sie optimal und wird maßgeblich durch die Mittenfrequenz f0 , von dem Abstand Wandler – Fokus sF und von der lateralen
266 | Helmut Ermert, Christian Hansen Ausdehnung der aktiven Apertur Dap bestimmt. Im Fokus eines B-Bildes, der sich im Sende- und Empfangsfall statisch in gleicher Tiefe befindet (Abb. 8.31), gilt für die laterale Halbwertsbreite der Punktbildfunktion die Proportionalität 𝛿lat ∼
sF ⋅ f0 , Dap
(8.66)
wobei der hier weggelassene Proportionalitätsfaktor in der Größenordnung von 1 liegt [Lang et al. 1997] und von der lateralen Form des Schallwandlers oder der aktiven Schallwandlergruppe abhängt. Da die Richtcharakteristik dieser Apertur im Puls-Echo-Betrieb zweimal durchlaufen wird, entspricht die 6-dB-Auflösung der 3-dB-Breite des gesendeten Schallfeldes. Bei einem Ultraschallgerät und einem Curved-Array mit einer Mittenfrequenz von 2,5 MHz wurde beispielsweise in einer Fokustiefe von 13 cm experimentell eine laterale Auflösung (laterale Halbwertsbreite der Punktbildfunktion) von 2,5 mm ermittelt [Hansen 2009]. Die elevationale Auflösung bezieht sich auf die zweite, zur Schallausbreitungsrichtung transversale Raumkoordinate. Hier gilt die Beziehung Gl. (8.66) entsprechend. Ein wie oben beschrieben experimentell ermittelter Wert für die elevationale Auflösung (Schichtdicke) in beispielsweise 8 cm Tiefe betrug 4 mm.
Speckle Ultraschallbilder weisen stets eine granulare Struktur auf, die als Speckle-Muster bezeichnet wird. Speckle entstehen durch die Überlagerung der rückgestreuten Echos einer Vielzahl von Streuern, die sich gemeinsam innerhalb einer Auflösungszelle befinden. Solche Verhältnisse liegen in biologischem Gewebe regelmäßig vor, da die Zellstrukturen des Gewebes wesentlich kleiner sind als eine Auflösungszelle. Bei der Ausbreitung der Echosignale kommt es sowohl zu konstruktiver als auch zu destruktiver Interferenz. Infolge dieser Interferenzen entsteht nach der Hüllkurvendetektion das typische Speckle-Muster. Speckle (dt. Fleck): granulare Feinstruktur von Bildern bei der Bildgebung mittels kohärenter Wellen infolge von Interferenzeffekten.
Die mathematische Beschreibung dieses Phänomens kann nur stochastisch erfolgen [Wagner et al. 1983]. Die Echos der zufällig verteilten Streuer können näherungsweise als monofrequente Signale mit zufällig verteilter Amplitude und Phase beschrieben werden. Die rückgestreuten Echosignale sind dann komplexe Zufallszahlen, die in Summe am Schallwandler anliegen. Die Überlagerung der aus einer Auflösungszelle stammenden Echos entspricht in der komplexen Ebene einem Random-Walk [Macovski 1993]. Das Empfangssignal un (t) kann somit auch als komplexer Zufallsvektor beschrieben werden, dessen Real- und Imaginärteil infolge der großen Zahl von Einzelsignalen näherungsweise bivariat normalverteilt ist. Die durch Hüllkurvende-
8 Ultraschall
| 267
relative Häufigkeit η
0,03
0,02
0,01
0 0
0,5 normierte Amplitude
1
Abb. 8.36: Im Histogramm dargestellte relative Häufigkeiten der Echoamplituden (linear skaliert und normiert) des in Abb. 8.33 (b) markierten Bereichs. Die an das Histogramm angepasste Kurve repräsentiert eine RayleighVerteilung.
tektion gewonnene, linear skalierte Echoamplitude a folgt dann einer RayleighVerteilung mit der Wahrscheinlichkeitsdichte 𝜂(a). Für diese gilt in Abhängigkeit von der Standardabweichung 𝜎k des Real- und Imaginärteils der komplexen Empfangssignale: a − a2 𝜂(a) = 2 ⋅ e 2𝜎k (8.67) 𝜎k In Abb. 8.36 ist exemplarisch das Histogramm der linear skalierten Echoamplituden für den in Abb. 8.33 markierten Bereich dargestellt. Die an das Histogramm angepasste Kurve repräsentiert eine Rayleigh-Verteilung. Die reale Amplitudenverteilung des Histogramms wird durch sie in guter Näherung beschrieben. Für den Erwartungswert 𝜇 und die Standardabweichung 𝜎 einer RayleighVerteilung gilt: 𝜋 4-𝜋 𝜇 = √ ⋅ 𝜎k und 𝜎=√ (8.68) ⋅ 𝜎k 2 2 Das Verhältnis aus Erwartungswert und Standardabweichung nimmt somit stets den konstanten Wert 1,91 an. Wird der Mittelwert der Echoamplituden (als Schätzer für den Erwartungswert ebenfalls mit 𝜇 bezeichnet) als informationstragendes Signal verstanden, dem Speckle als Rauschen überlagert sind, so kann dieses Verhältnis als SignalRausch-Verhältnis (SNR) interpretiert werden. Es gilt somit: 𝜇 SNR = ≈ 1, 91 (8.69) 𝜎 Für das obige Beispiel der Leberabbildung ergibt sich für den markierten Bereich ein gemessener Wert von SNR = 1,83. Abweichungen vom theoretischen SNR-Wert ergeben sich, wenn die Anzahl der Streuer in einer Auflösungszelle gering ist, ihre Anordnung regelmäßig ist, Rauschen anderer Quellen dem Speckle-Muster überlagert ist oder aber Nichtlinearitäten im Abbildungsprozess existieren. Nichtlinearitäten entstehen einerseits durch Amplitudenbegrenzungen beim Empfang oder bei der Signal- und Bildverarbeitung.
268 | Helmut Ermert, Christian Hansen Andererseits führen aber auch die bei der Tissue Harmonic Imaging-Abbildung (THI, siehe Kap. 8.5.4) ausgenutzten nichtlinearen Effekte bei der Wellenausbreitung (z. B. im Gewebe) oder bei der Streuung (z. B. bei Kontrastmittel) dazu, dass es zu Abweichungen von der Rayleigh-Verteilung kommt.
Artefakte in Ultraschallbildern Als Artefakte werden lokale Fehldarstellungen in Ultraschallbildern bezeichnet, die aufgrund der Eigenschaften und der Methodik der Ultraschallbildgebung entstehen. Wegen der unidirektionalen Aufnahmetechnik und der besonderen Relevanz wellenphysikalischer Phänomene bei der Schallausbreitung ist das Auftreten solcher Artefakte abhängig von der Schalleinfallsrichtung. Artefakte beeinträchtigen die Bildqualität in Abhängigkeit ihrer Stärke und ihrer Position im B-Bild und können bei einer Fehlinterpretation durch den Untersucher eine Diagnose negativ beeinflussen. Eine erste Gruppe von Artefakten entsteht aufgrund der Interaktion der Schallwellen mit Objekten und Strukturen im Gewebe: – Abschattung: Ein häufig auftretendes Artefakt ist die Abschattung von Bildbereichen hinter stark reflektierenden oder stark dämpfenden Objekten wie beispielsweise Knochen. Wird die Abschattung durch eine stark reflektierende Struktur erzeugt, so erscheint bei senkrechtem Einfall der Schallwelle auf die Grenzfläche vor dem dunklen Schallschatten eine echogene Struktur im B-Bild. Bei schrägem Einfall erscheint nur der schwarze Schallschatten. In Abb. 8.1 (b) ist ein Abschattungsartefakt im Bereich der Luftröhre zu erkennen. Bei runden oder ovalen Grenzflächen können bei tangentialem Auftreffen der Schallpulse Randschatten entstehen. Die Pulse werden in diesem Fall von der Grenzfläche seitlich abgelenkt, so dass kaum Schallenergie in die Randbereiche hinter diesen Strukturen gelangt. In Abb. 8.1 (b) treten solche Randschatten seitlich hinter der Halsschlagader auf. – Dorsale Schallverstärkung: Die dorsale Schallverstärkung entsteht im B-Bild aufgrund von Dämpfungsunterschieden in Objekten, die in der Bildebene lateral nebeneinander liegen. Das beispielsweise axial hinter (dorsal) einer Zyste oder einem großen Gefäß liegende Gewebe wird aufgrund schwacher Dämpfung in dem flüssigkeitsgefüllten Bereich heller (scheinbar verstärkt) dargestellt als lateral benachbarte Bereiche des gleichen Gewebetyps. Die Bezeichnung dieses Artefakts als Schallverstärkung ist in Hinblick auf seine Ursache zwar inkorrekt, aber üblich. In Abb. 8.1 (b) ist eine dorsale Schallverstärkung zentral hinter der Halsschlagader zu erkennen. – Geometrische Verzerrungen: Bei der Berechnung von B-Bildern werden Brechungs- und Beugungseffekte nicht berücksichtigt und Laufzeitunterschiede der Schallsignale durch die Verwendung einer konstanten Schallgeschwindigkeit c = 1540 m/s vernachlässigt. Grundsätzlich erscheinen daher alle abgebildeten Objekte geometrisch verzerrt. Hierbei ist die Größe der Schallgeschwindigkeits-
8 Ultraschall
–
–
| 269
unterschiede der Objekte maßgeblich für die Stärke dieser Verzerrungen. Die Abb. 8.37 veranschaulicht dies am Beispiel eines Kugel-Hohlraumphantoms, das nacheinander mit unterschiedlichen Flüssigkeiten befüllt und abgebildet wurde. Die Abb. 8.37 (a) und (c) zeigen den Strahlengang und das B-Bild für den Fall, dass das Innere der Kugel mit dem sie auch umgebenden Wasser befüllt ist (cw = 1540 m/s). Die Abb. 8.37 (b) und (d) zeigen den Fall, dass sich im Inneren der Kugel Isopropanol befindet (cobj ≈ 1200 m/s < cw ). Im ersten Fall passieren die Schallsignale ungebrochen und mit unveränderter Geschwindigkeit die Kugel, so dass im B-Bild keine Fehler auftreten. Im zweiten Fall treten zwei beobachtbare Effekte auf: Zum einen werden die Schallstrahlen am Rand der Kugel gebrochen, so dass sich ihre Ausbreitungsrichtung verändert. Zum anderen durchlaufen die Schallsignale die Kugel mit verringerter Geschwindigkeit. Im B-Bild erscheint die Rückwand der Kugel daher verbreitert (Brechung) und axial nach hinten versetzt (Laufzeit). Ähnliche Effekte sind nicht nur an der Kugel selbst, sondern auch an Objekten hinter ihr zu beobachten. Grundsätzlich werden die Schallstrahlen nicht nur in der Bildebene sondern auch elevational gebrochen. Die Schallwellen können somit auch aus der Bildebene hinauslaufen und dort gestreut werden. Neben den beschriebenen Brechungs- und Laufzeiteffekten treten Beugungseffekte auf, wodurch die Form des Schallstrahls verändert wird. Solche Effekte sind im beispielhaft präsentierten Fall aber von geringerer Stärke. Wiederholartefakt: Wiederholartefakte (Reverberationen) entstehen aufgrund von Mehrfachreflexionen der Schallwellen zwischen stark reflektierenden Grenzschichten. Da bei jeder der Reflexionen immer auch ein Teil der Schallwelle transmittiert wird, werden wiederholt Echosignale derselben Grenzflächen empfangen. Der feste zeitliche Abstand dieser Echos ist abhängig von der Distanz der beiden reflektierenden Grenzflächen. Im B-Bild werden die zeitverzögert eintreffenden Echos mehrfach untereinander dargestellt. Als Sonderfall können Mehrfachreflexionen auch zwischen Grenzflächen im Gewebe und der Schallwandleroberfläche auftreten. Spiegelartefakt: Hinter spiegelnd reflektierenden Grenzschichten kommt es gelegentlich zum Spiegelartefakt. Hierbei werden die Sendepulse von der Grenzfläche umgelenkt, so dass Objekte und Strukturen, die eigentlich vor oder seitlich neben der stark reflektierenden Grenzfläche liegen, im B-Bild auch hinter dieser Grenzfläche dargestellt werden. In Abb. 8.42 (b) ist solch ein Spiegelartefakt neben dem Zwerchfell (siehe Dreieckmarkierung) zu sehen.
Neben der vorgestellten ersten Gruppe von Artefakten, die auf Besonderheiten bei der Interaktion der Schallwelle mit Objekten und Strukturen im Gewebe zurückzuführen sind, existiert eine zweite Gruppe von Artefakten, die hauptsächlich aufgrund der speziellen Eigenschaften oder Einstellungen des Ultraschallgerätes entstehen: – Überreichweiteartefakte: Bei einer zu klein gewählten Pulswiederholrate PRF kann es dazu kommen, dass bei der Aufnahme der n-ten A-Linie starke Echos
270 | Helmut Ermert, Christian Hansen
(a)
(b)
5 cm
(c)
5 cm
(d)
Abb. 8.37: Geometrische Verzerrungen in Ultraschallbildern am Beispiel des Kugel- Hohlraumphantoms, gefüllt mit dem umgebenden Wasser (a, c) und mit Isopropanol (b, d): schematische Skizze der realen Strahlenverläufe (a, b) und B-Bilder (c, d). Die für den Strahlengang verwendeten Grauwerte in den oberen Bildern (a, b) symbolisieren die von der Schallgeschwindigkeit abhängigen Signallaufzeiten. Die Ultraschallbilder wurden mit einem Siemens Acuson Antares und dem CurvedArray CH4-1 mit einer Mittenfrequenz von 2,5 MHz aufgenommen.
–
empfangen werden, die von Reflexionen des vorherigen Sendepulses in Schallstrahl n-1 verursacht wurden. Solche Echos werden im B-Bild also in der falschen A-Linie und in falscher (meist zu niedriger) Tiefe als Überreichweiteartefakt dargestellt. Trotz einer Optimierung der PRF kommt es gelegentlich zu solchen stark zeitverzögerten Echos aufgrund von Reflexionen hinter schwach dämpfenden Objekten oder hinter Objekten, deren Schallgeschwindigkeit stark negativ von der angenommenen Schallgeschwindigkeit (1540 m/s) abweicht. Im ersten Fall gelangen energiereiche Schallwellen in Gebiete unterhalb der eingestellten Bildtiefe. Im zweiten Fall erreichen die Schallwellen die erwartete Bildtiefe zeitverzögert. Überreichweiteartefakte können grundsätzlich durch eine Verringerung der PRF eliminiert werden. Neben- und Gitterkeulen: In Abhängigkeit der geometrischen Ausgestaltung der Sende- und Empfangsapertur kommt es in der Richtcharakteristik von Schallwandler-Arrays zu Neben- und Gitterkeulen (side- und gratinglobes, siehe
8 Ultraschall
| 271
ϑ
w(χ)
x W(ϑ)
Hauptkeule
Gitterkeule Nebenkeule
ϑ W(ϑ)
Hauptkeule
Gitterkeule Nebenkeule
ϑ Abb. 8.38: Abstrahlverhalten eines Linear-Arrays: Arraygeometrie mit Aperturbelegungsfunktion (oben), Hauptkeule, Neben- und Gitterkeulen beim Schwenkwinkel = 0° (Mitte), Hauptkeule, Nebenund Gitterkeulen beim Schwenkwinkel > 0° (unten), rote Linie: Richtcharakteristik des Einzelelements.
–
Abb. 8.38). Die Richtcharakteristik einer Apertur ist bei Fresnel- und Fraunhofer-Näherung proportional zu ihrer Fourier-Transformierten der Aperturbelegungsfunktion (Szabo 2004). Bei einem Array entstehen daher gratinglobes aufgrund der diskreten Verteilung der Einzelelemente und sidelobes aufgrund der endlichen lateralen Breite der gesamten aktiven Apertur. Gratinglobes werden vermieden, indem der Abstand zwischen den Einzelelementen (Pitch) klein gehalten wird. Die Einzelelemente eines Linear-Arrays können beispielsweise so eng angeordnet werden, dass die entstehenden gratinglobes (ohne Schwenken des Schallstrahls) außerhalb des Bildfeldes liegen. Soll der Schallstrahl (wie beim Phased-Array) allerdings geschwenkt werden, so ist der Pitch weiter zu verringern, da mit der Hauptkeule auch die gratinglobes in den Bildbereich hineingeschwenkt werden. Sidelobes werden typischerweise durch eine Amplituden-Gewichtung der Aperturfunktion (Apodisierung) in Form von beispielsweise einem Hanning-Fenster auf Kosten der lateralen Auflösung unterdrückt (Szabo 2004). Schichtdickenartefakte: Zu Schichtdickenartefakten kommt es aufgrund der endlichen elevationalen Strahlbreite und der damit verbundenen Schichtdicke eines Ultraschallbildes: Da sich die gesendeten Ultraschallpulse stets in einem begrenzten Raumbereich ausbreiten, treffen sie eine Objektgrenze immer auch
272 | Helmut Ermert, Christian Hansen
Objekt
elevationale Schichtdicke
Breite der Fehldarstellung
2D-Schnittebene
Schallwandler (Seitenansicht)
Abb. 8.39: Zur Erläuterung des Schichtdickenartefakts.
an elevational verschiedenen Stellen (siehe Abb. 8.39). Da sich die zum Schallwandler zurückzulegenden Weglängen für die Echos elevational benachbarter Bereiche unterscheiden, treffen diese Echos kontinuierlich zeitverzögert am Schallwandler ein. Im B-Bild kommt es daher zu einer zu dicken und unscharfen Abbildung der Objektgrenze. Die genannten Artefakte lassen sich anhand ihrer Richtungsabhängigkeit detektieren. Bildet man die Arterie aus Abb. 8.1 (b) aus verschiedenen Richtungen ab, so verschiebt sich z. B. die dorsale Schallverstärkung im B-Bild. Eine hyperechogene Gewebestruktur würde hingegen stets an gleicher Stelle relativ zum Blutgefäß abgebildet.
8.5.4 Nichtlineare Bildgebung Die bei der Schallwellenausbreitung auftretenden nichtlinearen Verzerrungen (vgl. Kap. 8.3.2) führen dazu, dass im Spektrum der Echosignale nicht nur Frequenzanteile im Bereich der Grundfrequenz f0 (Fundamentalfrequenz oder 1. Harmonische), sondern auch im Bereich ganzzahliger Vielfache dieser Grundfrequenz, also um 2 f0 , 3 f0 etc., auftreten (Oberwellen oder höhere Harmonische). In einem stark vereinfachten Modell wird zur Beschreibung der Gewebenichtlinearität das Empfangssignal u(t) über eine Potenzreihe aus dem Sendesignal p(t) und den Faktoren q1 , q2 , . . . genähert: u(t) = q1 ⋅ p(t) + q2 ⋅ p2 (t) + q3 ⋅ p3 (t) + . . . .
(8.70)
Für das Empfangssignal zu einem monofrequenten Sendesignal p(t) = sin(𝜔0 t) mit Mittenfrequenz f0 = 𝜔0 /2𝜋 gilt dann: u(t) = q1 ⋅ sin(𝜔0 ⋅ t) + q2 ⋅ sin2 (𝜔0 ⋅ t) + q3 ⋅ sin3 (𝜔0 ⋅ t) + . . .
(8.71)
= q1 ⋅ sin(𝜔0 ⋅ t)+ q2 ⋅ (1 + sin(2𝜔0 ⋅ t))+ q3 ⋅ (1 + sin(𝜔0 ⋅ t) + sin(3𝜔0 ⋅ t)) + . . . .
(8.72)
8 Ultraschall
| 273
Das Auftreten von Harmonischen ist in diesem Modell also darüber zu erklären, dass quadratische Anteile im Empfangssignal zu Frequenzanteilen bei 2𝜔0 , kubische Anteile zu Frequenzanteilen bei 3𝜔0 etc. führen. Wie nachfolgend gezeigt wird, kann eine Auswertung allein der höheren Harmonischen im Rahmen der nativen Ultraschallabbildung zu Vorteilen gegenüber der rein fundamentalen Bildgebung führen. Man spricht in diesem Zusammenhang von Harmonic Imaging. Harmonic Imaging (nichtlineare Bildgebung): echosonographisches Abbildungsverfahren, bei dem durch nichtlineares Verhalten des Übertragungsmediums (Gewebe) oder von Objekten (Kontrastmittel) erzeugte harmonische Spektralanteile des Sendesignals als Echosignale aufgenommen und für die Bildgebung verarbeitet werden.
Betragsspektrum A(f) in dB
Aufgrund der begrenzten Bandbreite von Ultraschallwandlern und der Breitbandigkeit der Sende- und Empfangssignale lässt sich im Empfangsspektrum meist nur die 2. Harmonische um 2f0 nachweisen. Die Bilderzeugung allein aus Signalanteilen mit Frequenzen um 2f0 wird als 2nd Harmonic Imaging bezeichnet. Abb. 8.40 (a) und (c) 0
0
–10
–10
–20
–20
–30
–30
–40
–40
–50
–50 0
Tiefe s(t) in cm
(a)
2 4 6 Frequenz ƒ in MHz
8
0
0
2
2
4
4
6
6
8
8
10
10
12
2 4 6 Frequenz ƒ in MHz
8
0 –20 –40 –60
12 0
(c)
0 (b)
2 4 6 Frequenz ƒ in MHz
–80 0
8 (d)
2 4 6 Frequenz ƒ in MHz
8 dB
Abb. 8.40: Spektren von konventionellen Empfangsechos (a, c) und von Empfangsechos bei Verwendung der Phaseninversionstechnik (b, d). Dargestellt sind die Spektren der gesamten Empfangssignale (a, b) und die Spektren über der Tiefe, die aus einer Fensterung in verschiedenen Tiefen resultieren (c, d). Das gezeigte Spektrum stammt von einer In-vivo-Aufnahme der Leber. Die Aufnahme wurde mit einem Siemens Acuson Antares im THI-Modus (s. u.) unter Verwendung des Schallwandlers CH4-1 gemacht.
274 | Helmut Ermert, Christian Hansen
1 Druck p(t) in MPa
Druck p(t) in MPa
1 0,5 0 –0,5 –1
0,5 0 –0,5 –1
2
0 (a)
4 Zeit t in μs
6
8
2
0 (b)
Tiefe s(t) in cm
2,45
2,65
2,45
8
2,55
2,65
6
40 un(t), an(t) in a.u.
unA(t), unB(t), un(t ) in a.u.
6
Tiefe s(t) in cm
2,55
60
20 0 –20
4 2 0 –2
–40 –4
–60 32 (c)
4 Zeit t in μs
33 Zeit t in μs
34
32 (d)
33
34
Zeit t in μs
Abb. 8.41: Sendepulse (a, b) und Empfangssignale (c, d) bei der THI-Abbildung mittels Phaseninversionstechnik: (a) Sendepuls mit 0° Phasenlage; (b) Sendepuls mit 180° Phasenlage (blau: Sendepuls aus (a)); (c) Empfangssignale unA (t) (blau) und unB (t) (grün) sowie deren Addition un (t) (schwarz); (d) Summensignal un (t) und seine Einhüllende an (t).
zeigen das Empfangsspektrum (über der Tiefe) eines Empfangssignals zum Sendepuls mit Mittenfrequenz f0 = 2,25 MHz (vgl. Abb. 8.41 (a)). Während der Pegel der 2. Harmonischen deutlich unter dem der 1. Harmonischen liegt, überlappen die signaltragenden Frequenzbereiche beider Harmonischen stark. Eine einfache Bandpass-Filterung um 2f0 = 4,5 MHz führt daher entweder dazu, dass nicht alle Frequenzanteile der 1. Harmonischen ausgeblendet werden oder dass die 2. Harmonische nicht vollständig erfasst wird. Auch muss eine solche Filterung tiefenabhängig durchgeführt werden, da es aufgrund der frequenz- und tiefenabhängigen Dämpfung (vgl. Kap. 8.3.1) typischerweise zu einer Verminderung der Bandbreite in der Tiefe und damit zu einer scheinbaren Verschiebung des Spektrums zu niedrigeren Frequenzen kommt (vgl. Abb. 8.40 (c)).
8 Ultraschall
| 275
Eine effiziente Technik, Signalanteile der 1. Harmonischen im Rahmen des 2nd Harmonic Imaging zu unterdrücken, ist die Phaseninversionstechnik (auch Pulsinversionstechnik) [Chapman et al. 1997, Hope Simpson et al. 1999]. Bei dieser Technik, die bereits für viele kommerziell erhältliche Ultraschallgeräte verfügbar ist, wird der Puls-Echo-Betrieb zu jedem Schallstrahl nacheinander mit zwei Sendepulsen ausgeführt, deren Phasenlagen um 180° gegeneinander verschoben sind (phasenkodierte Pulssequenz). Die PRF ändert sich hierbei nicht. Für jeden Schallstrahl liegen somit zwei Empfangsechos unA (t) und unB (t) vor. Vor der Hüllkurvendetektion werden diese hochfrequenten Empfangsechos addiert, um die Beiträge der Grundfrequenz f0 und aller ggf. empfangenen, ungeradzahligen Vielfachen (3f0 , 5f0 etc.) zu unterdrücken: un (t) = unA (t) + unB (t)
(8.73)
Da bei der Phaseninversionstechnik ein Ultraschallframe aus den addierten Empfangsechos besteht, wird die Framerate ffr entsprechend halbiert (Die Framerate [Bildwiederholrate] bezieht sich auch bei Verwendung der Phaseninversionstechnik auf die dargestellten Ultraschallbilder). Abb. 8.41 zeigt zwei zueinander phaseninvertierte Sendepulse (a und b). Zusätzlich zeigt Abb. 8.41 die Empfangsechos unA (t) und unB (t) (c) sowie das resultierende Echo un (t) und seine Einhüllende an (t) (d). Die gezeigten Empfangssignale stammen von einer In-vivo-Aufnahme der Leber (Abb. 8.42). Das aus dem Echosignal un (t) berechnete Spektrum ist dem Spektrum nur eines Empfangssignals unA (t) in Abb. 8.40 gegenübergestellt. Man sieht deutlich, wie fast sämtliche Frequenzanteile um f0 unterdrückt werden und nur Frequenzanteile um 2f0 verbleiben. Die Bandbreite Δf um diese 2. Harmonische ist größer als die Bandbreite der 1. Harmonischen allein. Phase Inversion (dt. Phasenumkehr): Konzept zur Erzeugung und Aussendung einer Sequenz von Sendesignalen für die nichtlineare Abbildung, bei der das zweite Sendesignal durch Phasenumkehr aus dem zuerst ausgesandten Sendesignal gewonnen wird.
Für das Tissue Harmonic Imaging (THI) ergeben sich bei Verwendung der Phaseninversionstechnik folgende Vorteile gegenüber der herkömmlichen B-Bildgebung: – Axiale Auflösung: Aufgrund einer größeren nutzbaren Signalbandbreite, die nach der Addition der Echosignale unA (t) und unB (t) um die 2. Harmonische vorliegt, verbessert sich die axiale Auflösung. – Laterale Auflösung: Die Empfangssignale weisen die doppelte Mittenfrequenz auf wie die Sendesignale. Außerdem unterscheiden sich die Richtcharakteristiken im Sende- und Empfangsfall aufgrund der verschiedenen Mittenfrequenzen. Die Lage von Side- und Gratinglobes (vgl. Kap. 8.5.3) variiert daher für beide Fälle. Beide Effekte führen gemeinsam zu einer Verbesserung der lateralen Auflösung. – Elevationale Auflösung: Auch die elevationale Auflösung wird verbessert. Die Gründe entsprechen denen, die für die laterale Auflösung aufgezählt wurden.
276 | Helmut Ermert, Christian Hansen Abbildung von Ultraschallkontrastmitteln: Es besteht die Möglichkeit, die Phaseninversionstechnik zur Abbildung von Ultraschallkontrastmitteln einzusetzen. Diese Anwendung wird in Kapitel 8.7.3 ausführlich beschrieben.
–
Nachteilig wirken sich bei der THI-Abbildung folgende Eigenschaften aus: – Signal-Rausch-Verhältnis: Aufgrund der geringen Signalamplituden der 2. Harmonischen (vgl. Abb. 8.41 (d)) kommt es zu einer Verminderung des SignalRausch-Verhältnisses (SNR) (vgl. Abb. 8.40). – Tiefenabhängige Ausprägung der 2. Harmonischen: Die nichtlinearen Verzerrungen der Schallwellen bilden sich während ihrer Ausbreitung im Gewebe aus. Es können daher erst ab einer gewissen Tiefe auswertbare Echosignale empfangen werden. Die Stärke der nichtlinearen Verzerrungen hängt überdies von der Leistungsdichte ab, die lokal aufgrund der Fokussierung und Dämpfung variiert. Dies führt ebenfalls zu einer Tiefenabhängigkeit. – Tiefenabhängigkeit beim Empfang: Die gestreuten Anteile der 2. Harmonischen erfahren aufgrund ihrer höheren Frequenzen eine stärkere Dämpfung als die fundamentalen Frequenzanteile. Dies vermindert die maximal darstellbare Bildtiefe im Vergleich zur herkömmlichen B-Bildgebung. Die genannten Eigenschaften des THI sind in Abb. 8.42 zu sehen. Hier wird ein konventionelles B-Bild einem THI-Bild gegenübergestellt. Beide Bilder wurden aus demselben THI-Datensatz berechnet, der bei der Abbildung einer Leber gewonnen wurde. Tissue Harmonic Imaging (THI; dt. Gewebebildgebung mit höheren Harmonischen): nichtlineare Abbildung (siehe Harmonic Imaging), die auf der nichtlinearen Wirkung des Übertragungsmediums (z. B. des biologischen Gewebes) basiert.
0
5
–10 –20 z in cm
10 –30 –40 15
–50 –10
(a)
0 x in cm
10 –10 (b)
0 x in cm
10
–60 dB
Abb. 8.42: B-Bild (a) und THI-Bild (b) der Leber. Beide Bilder wurden aus demselben Datensatz berechnet. Die Aufnahme wurde mit einem Siemens Acuson Antares im THI-Modus unter Verwendung einer HF-Daten-Schnittstelle und mit dem Schallwandler CH4-1 gemacht.
8 Ultraschall
| 277
Die Konzepte der Signalverarbeitung bei der nichtlinearen Abbildung variieren bei den verschiedenen Geräteherstellern ebenso wie die Bezeichnungen. Bei den Verfahren, die auf der Basis der Nichtlinearität des Gewebes arbeiten, hat sich die Bezeichnung „Tissue Harmonic Imaging“ (THI) international allgemein durchgesetzt, auch wenn es neben dem Verfahren der Pulsinversion, welches die oben beschriebenen Unsymmetrien bezüglich positiver und negativer Echosignalanteile nutzt, andere Verfahren gibt, bei denen die Reaktion des Gewebes auf unterschiedliche Signalleistungspegel (power modulation) ausgenutzt werden [Cobbold 2007, Jiang et al. 1998].
8.5.5 Prinzipien der dreidimensionalen Ultraschallabbildung Die konventionelle Sonographie bildet Objekte im zweidimensionalen Schnittbildverfahren ab. Mit zunehmender Rechenleistung und der damit verbundenen Möglichkeit zur schnellen Verarbeitung großer Datenmengen sind zunehmend aber auch Verfahren in den Fokus der Entwicklung und Anwendung gerückt, die eine dreidimensionale Abbildung von Objekten ermöglichen. Hierdurch können Objekte vollständig über ihre Ausdehnung in alle drei Raumrichtungen abgebildet werden. Grundlage der zurzeit eingesetzten 3D-Verfahren ist allerdings stets die oben vorgestellte zweidimensionale Schnittbildgebung. Um einen dreidimensionalen Ultraschalldatensatz aufzunehmen, werden üblicherweise mehrere 2D-Ultraschallframes in nebeneinander liegenden Bildebenen aufgenommen und anschließend zueinander in ein geometrisch korrektes Verhältnis gesetzt. Abb. 8.43 zeigt schematisch zwei mögliche Aufnahmetechniken. In Abb. 8.43 (a) wird der Schallwandler in elevationaler Richtung verschoben, wobei nacheinander die parallelen Bildebenen A, B, C usw. abgebildet werden. In Abb. 8.43 (b) werden die elevational benachbarten Bildebenen A, B, C usw. durch Schwenken der Bildebene abgebildet. In beiden Fällen kann der Volumendatensatz anschließend aus den aufgenommenen Ultraschallframes durch eine dreidimensionale Interpolation vollständig gefüllt werden, so dass alle Voxel dieses Datensatzes Informationen tragen. Hierbei ist darauf zu achten, dass die Abtastung durch die Bildebenen in elevationaler Richtung dicht genug erfolgt und das Abtasttheorem erfüllt bleibt. Grundsätzlich können die Verfahren zur Erfassung eines Volumendatensatzes bezüglich folgender Eigenschaften unterteilt werden: – Scanpfad: Wie Abb. 8.43 zeigt, können Aufnahmeverfahren anhand des Scanpfades unterschieden werden. Es existiert die Möglichkeit der translatorischen Verschiebung der Bildebene, ihres Schwenkens oder einer Kombination aus beidem. – Automatisierungsgrad: Es kann unterschieden werden, ob die Bildebene freihändig oder automatisiert bewegt wird. Im ersten Fall ist der Schallwandler ma-
278 | Helmut Ermert, Christian Hansen
A
F
B
E (a)
C
B
A
(b)
D
C
Abb. 8.43: Schematische Darstellung zweier Verfahren zur Aufnahme eines Ultraschallvolumendatensatzes. (a) Verschiebung des Schallwandlers. (b) Schwenken der Bildebene.
–
–
nuell zu verfahren bzw. zu verkippen. Im zweiten Fall sind mechanische oder elektronische Hilfsmittel zur gesteuerten Wandlerbewegung nötig. Art der automatisierten Bewegung: Wird die Bildebene gemäß dem vorherigen Punkt automatisiert bewegt, so kann zwischen einer mechanischen Bewegung des gesamten Schallwandler-Arrays und dem elevationalen Schwenken der Bildebene mittels eines elektronischen Beamforming unterschieden werden. Art der Registrierung: Um die aufgenommenen Ultraschallframes in eine geometrisch korrekte Beziehung zueinander zu bringen (Registrierung), existieren verschiedene Möglichkeiten. Bei der automatisierten Bewegung bietet es sich an, die Position und Orientierung des Arrays bzw. die Abstrahlwinkel der Ultraschallpulse zu jedem Frame zu speichern. Bei Freihandverfahren können einerseits Positionserfassungssysteme eingesetzt werden, um die Position und Orientierung des Arrays jeweils zu ermitteln. Andererseits können aber auch bildbasiert (beispielsweise über Korrelationsverfahren) die Informationen der aufgenommenen Ultraschallframes in gegenseitige Beziehung gesetzt werden.
Ohne dass der Einsatz zusätzlicher experimenteller Aufbauten erforderlich ist, unterstützen klinische Ultraschallgeräte häufig sowohl Freihandverfahren als auch automatisierte Verfahren zur Aufnahme von 3D-Datensätzen. Während die Freihandverfahren nur die Installation zusätzlicher Software auf den Ultraschallgeräten erfordern, werden für die automatisierte Aufnahme spezielle Schallwandler benötigt. Derzeit sind zwei Arten von Schallwandlern kommerziell erhältlich, die beide die Bildebene gemäß Abb. 8.43 (b) automatisch schwenken: Zum einen existieren Wandler, die ein 1D-Curved-Array in einem größeren Gehäuse mechanisch um eine feste Achse drehen (Abb. 8.45). Zum anderen existieren 2D-Phased-Arrays, sogenannte MatrixWandler [Dausch et al. 2008], welche die Bildebene über ein elektronisches Beam-
8 Ultraschall
geschwenktes 1D-Array
elevationaler Scan (mechanisch)
2D-Array
e n lev (m ale atio ec r S ha ca nis n ch )
n Sca ler isch) a r late ktron (ele
(a)
| 279
n Sca ler isch) a r late ktron (ele
(b)
Abb. 8.44: Arrays für die 3D-Abbildung: mechanisch geschwenktes 1D-Array (a), 2D-Array (b).
forming in elevationaler Richtung schwenken (Abb. 8.44). Bildbeispiele für beide Versionen sind in Abb. 8.46 zu finden.
8.6 Doppler-Verfahren 8.6.1 Der Doppler-Effekt Ein Vorteil bei der Anwendung von Ultraschall in der medizinischen Diagnostik besteht darin, dass sich Bewegungen mit relativ geringem technischem Aufwand durch die Nutzung des Doppler-Effektes messen und auch visualisieren lassen. Dieses ist insbesondere für die Messung und Darstellung von fließendem Blut von Interesse. Der Doppler-Effekt wurde von dem österreichischen Physiker C. A. Doppler [Gill 1965] beschrieben und besteht darin, dass sich bei der Wellenausbreitung zwischen Sendern und Empfängern die Frequenzen bzw. Spektren der Empfangssignale gegenüber denen der Sendesignale verändern, wenn sich Sender und/oder Empfänger in der Sende- bzw. Empfangsphase relativ zueinander bewegen. Falls sich infolge der Relativbewegung zwischen Sender und Empfänger der Übertragungsweg verkürzt, erfolgt beim Empfangssignal eine spektrale Verschiebung zu höheren Frequenzen hin, bei einer Verlängerung der Wegstrecke gibt es eine Verschiebung zu niedrigeren Frequenzen. Doppler-Effekt: Verschiebung von Frequenzen bzw. Spektren von Signalen während der wellenförmigen Ausbreitung infolge der Bewegung des Senders und/oder des Empfängers und/oder eines im Wellenfeld befindlichen Streuobjektes.
280 | Helmut Ermert, Christian Hansen
(a)
(b)
Abb. 8.45: Schallkopf mit mechanisch schwenkendem Curved-Array: Gesamtansicht (a), Innenansicht (b).
(a)
(b)
Abb. 8.46: 3DUltraschall-Abbildungen: Pränataldiagnostik, mechanisch schwenkendes 1DArray (a), Kardiologie, 2 D-Array (b). (Mit freundlicher Genehmigung des MedArchivs der Siemens AG).
8 Ultraschall
| 281
Ähnlich wie bei Radarverfahren gibt es beim diagnostischen Ultraschall die Besonderheit, dass Sender und Empfänger identisch und stationär sind und dass hier der Doppler-Effekt dadurch hervorgerufen wird, dass durch die Bewegung eines reflektierenden bzw. rückstreuenden Objektes während der Wechselwirkung mit dem Signal die aus Hinweg (Sender – Objekt) und Rückweg (Objekt – Empfänger) bestehende Gesamtstrecke verändert, d. h. verkürzt oder verlängert, wird. Diese Situation wird im Folgenden anhand der Abb. 8.47 erläutert. Das Sendesignal und das Empfangssignal sollen hier ganz allgemein, unabhängig von ihrer physikalischen Natur, durch die Zeitfunktionen fS (t) bzw. fE (t) beschrieben werden. Für das Empfangssignal lässt sich der Ausdruck fE (t) = A ⋅ fS (t − 𝜏)
(8.74)
angeben, in dem A ein Amplitudenfaktor und 𝜏 die Verzögerung ist, die das Echosignal gegenüber dem Sendesignal wegen des Laufweges 2z0 (Hin- und Rückweg zwischen Wandler und Streuer) erfährt. Dabei soll näherungsweise angenommen werden, dass die Amplitude der Rückstreuung frequenz- und entfernungsunabhängig ist. Falls sich das Streuobjekt bewegt, trägt näherungsweise nur die z-Komponente der Geschwindigkeit vz zur Entfernungsänderung bei. Der Abstand Wandler – Streuer ändert sich gemäß z = z0 + vz t , (8.75) und die Verzögerung 𝜏 wird zu einer Zeitfunktion entsprechend 𝜏(t) =
2v 2 (z + vz t) = 𝜏0 + z t , c0 0 c0
(8.76)
in der c die frequenzunabhängige Ausbreitungsgeschwindigkeit und z0 ein Anfangswert für den Abstand Wandler – Streuer ist, der zu einem zeitunabhängigem Anteil 𝜏0 der Laufzeitverzögerung führt. Für das Echosignal ergibt nun sich der Ausdruck fE (t) = A ⋅ fS (b ⋅ t − 𝜏0 ) mit b = (1 −
(8.77)
2vz ). c0
(8.78)
Sendesignal
ƒS(t)
ν→
νX
ϑ νZ
Schallwandler Objekt ƒE(t)
Echosignal 0
Abb. 8.47: Zur Erläuterung des Doppler-Effektes bei bewegtem Streuziel.
z0
z
282 | Helmut Ermert, Christian Hansen Es lässt sich erkennen, dass beim Echosignal die Zeitachse gegenüber dem Sendesignal durch einen Faktor b gestaucht oder gestreckt wird, je nachdem, ob sich das Streuobjekt zum Wandler hin bewegt (vz < 0, b > 1, „Rückwärtsbewegung“) oder vom Wandler entfernt (vz > 0, b < 1, „Vorwärtsbewegung“). Während der Faktor b eine spektrale Veränderung des Echosignals beschreibt, haben die Anfangswerte z0 und 𝜏0 keinen Einfluss auf diese Veränderung und sollen im Folgenden unberücksichtigt bleiben. Für ein monofrequentes Signal fS (t) = cos(𝜔0 t) = cos(2𝜋f0 t)
(8.79)
fE (t) = A ⋅ fS (b ⋅ t)
(8.80)
fE (t) = A ⋅ cos(𝜔0 − 𝜔D )t ,
(8.81)
erhält man nun mit das Echosignal in dem die spektrale Veränderung („Doppler-Verschiebung“) durch den Ausdruck 𝜔D =
2vz 𝜔 c0 0
bzw.
fD =
2vz f c0 0
(8.82)
gegeben ist. Die Doppler-Frequenz fD liegt bei den vorliegenden Gegebenheiten (Flussgeschwindigkeiten in den Blutgefäßen, Schallgeschwindigkeit im Gewebe und im Blut, übliche Sendefrequenzen f0 ) in einem Frequenzbereich, der bei einer akustischen Wiedergabe im Bereich des menschlichen Hörvermögens liegt. Von dieser nützlichen Option wird in den Doppler-Systemen Gebrauch gemacht. Darauf wird weiter unten noch eingegangen. Bei der Anwendung von Ultraschall-Doppler-Verfahren in der Medizin kommt es nur in seltenen Fällen vor, dass der Blutfluss exakt in der Richtung der Schallwellenausbreitung erfolgt. Eine typische Anordnung, bei der die Richtung der Schallwellenausbreitung und die Richtung des Blutflusses nicht gleich sind, ist in Abb. 8.48 dargestellt. Schallwandler Kontaktgel
Hautoberfläche
ϑ Blutgefäß
ν→ Abb. 8.48: Typische Anordnung bei der Doppler-Sonographie.
8 Ultraschall
|
283
In einer solchen Anordnung muss berücksichtigt werden, dass der DopplerEffekt, wie bereits oben erläutert, nur durch die Richtungskomponente des Geschwindigkeitsvektors bewirkt wird, die parallel zur Schallausbreitungsrichtung ist. Um die Geschwindigkeit aus der Doppler-Messung bestimmen zu können, muss der Neigungswinkel 𝜗 bekannt sein. Die Doppler-Verschiebung ergibt sich damit aus 2 v⃗ fD = sign {vz } ⋅ f0 ⋅ cos 𝜗 , c
(8.83)
während sich der Betrag der Flussgeschwindigkeit aus c0 fD ⃗ v = . 2 cos 𝜗 f0
(8.84)
berechnen und die Richtung der z-Komponente des Geschwindigkeitsvektors aus dem Vorzeichen von fD ableiten lässt. Die Geschwindigkeitskomponente senkrecht zur Wellenausbreitungsrichtung wird bei Anwendung von Doppler-Radar-Verfahren im Luftverkehr „Blindgeschwindigkeit“ genannt. Dieser Ausdruck beschreibt das Phänomen, dass ein Flugkörper im Radarbild nicht sichtbar ist, wenn er sich zum Beispiel auf einer Kreisbahn um die Position des Radarsystems bewegt und damit seine Entfernung zum Radarsystem nicht verändert. Der Einfluss einer lateralen Geschwindigkeitskomponente ist aber nur näherungsweise verschwindend klein. Da beim Ultraschall in der Regel mit fokussierenden Wandlern gearbeitet wird, die relativ stark gebündelte Schallwellen erzeugen, bewirkt das laterale Durchqueren eines Schallstrahls durch ein Streuobjekt eine Variation der Amplitude des Rückstreusignals. Diese Art der Amplitudenmodulation führt auch zu einer Beeinflussung des Spektrums des Echosignals, was wiederum die Genauigkeit der Geschwindigkeitsbestimmung reduzieren kann. Andererseits bietet eine genaue Auswertung dieses Phänomens auch die Möglichkeit, Informationen über die laterale Bewegung des Objektes zu gewinnen. Bei der Anwendung von Ultraschall-Doppler-Verfahren zur Messung der Geschwindigkeit von fließendem Blut muss natürlich auch beachtet werden, dass es sich hier nicht, wie bisher oben angenommen, um jeweils einzelne Streuobjekte handelt, die sich durch eine bestimmte Geschwindigkeit und eine bestimmte Geschwindigkeitsrichtung auszeichnen, sondern durch eine strömende Flüssigkeit, die sich aus einem Gemenge von Partikeln zusammensetzt, die in unterschiedlicher Weise zur Rückstreuung von Schallsignalen beitragen. Beim Blut handelt es sich um eine Suspension aus zellularen und fluiden Bestandteilen. Letztere machen beim Menschen etwa 55 % des Blutvolumens aus, bestehen zu 90 % aus Wasser und werden als Blutplasma bezeichnet. Die restlichen 45 % bestehen zu ca. 95 % aus roten Blutkörperchen (Erythrozyten), zu 0,13 % aus weißen Blutkörperchen (Leukozyten) und zu 4,87 % aus Blutplättchen (Thrombozyten). In Tab. 8.6 sind die Größen und die Volumenanteile der zellulären Bestandteile des Blutes zusammengestellt.
284 | Helmut Ermert, Christian Hansen Tab. 8.6: Dichte und Größe der Blutkörperchen im menschlichen Blut. Zelluläre Bestandteile
Mittlere Anzahl in 106 /ml
Mittlerer Durchmesser in μm
Erythrozyten Leukozyten Thrombozyten
4800...5400 ∼ 7,4 ∼ 280
8,4 ∼ 7 . . . 20 2...5
Das akustische Streuverhalten von Blut im Ultraschallbereich ist ausführlich untersucht worden [Shung 2006, Xu 1997]. Die Erythrozyten tragen im Wesentlichen zum akustischen Rückstreuverhalten des Blutes bei, wie auch die Werte in Tab. 8.6 zeigen. Trotz ihrer hohen Konzentration im Blut sind die Echopegel, die durch die roten Blutkörperchen erzeugt werden, relativ klein und liegen ca. 30. . . 50 dB unterhalb der Echopegel aus den stationären Anteilen des biologischen Gewebes. Entsprechend empfindlich muss die Empfangselektronik der Doppler-Systeme ausgelegt werden. Es ist aber zu beachten, dass die Flussgeschwindigkeiten innerhalb eines Gefäßquerschnitts räumlich nicht konstant sind. Zum Beispiel sind die Geschwindigkeiten bei einem laminaren Flusszustandes innerhalb eines Gefäßquerschnittes nach einem parabolischen Profil verteilt. Bei turbulenten Strömungen sind die Geschwindigkeitsverteilungen wesentlich komplexer. In Anbetracht der Tatsache, dass der Blutfluss außerdem durch die Druckveränderungen, die durch die periodische Pumpfunktion des Herzen erzeugt werden, zeitlich verändert wird, stellen sich die Messung und die Darstellung des Blutflusses als komplexes räumlich-zeitliches Messproblem dar.
8.6.2 CW-Doppler-Verfahren
Doppler-Sonographie: Methode zur Bestimmung der Geschwindigkeit von fließendem Blut (oder auch der Bewegung von Gewebe) mithilfe eines Ultraschallsystems. Die Methode basiert auf dem Doppler-Effekt (benannt nach Christian Doppler). Continuous Wave (CW; dt. Dauerstrich): Betriebsart mit kontinuierlichen Wellenformen (z. B. Sinuswellen).
Das sogenannte CW-Doppler-Verfahren (continuous wave, CW) ist das älteste und technisch einfachste Doppler-Verfahren der Ultraschalldiagnostik. Es wird sowohl perkutan in einer der Abb. 8.48 entsprechenden Anordnung als auch intravaskulär mittels kleiner Sonden angewandt, wobei im letzteren Fall bei einer im Gefäß innerhalb der Blutströmung positionierten Sonde die Winkelkorrektur entfällt. Im stark vereinfachten Fall einer zeitlich und räumlich konstanten Blutströmung entsteht ein Echospektrum gemäß Abb. 8.49 (a), das sich aus einer spektral unveränderten Linie, die den Anteil der Festziele repräsentiert, und einer spektral verschobenen Linie,
8 Ultraschall
|
285
die dem Echo aus dem fließenden Blut zuzuordnen ist, zusammensetzt. Im realen Fall nimmt das Echospektrum eher eine Verteilung nach Abb. 8.49 (b) an, die dadurch gekennzeichnet ist, dass die Spektrallinien verbreitert sind. Die Verbreiterung in der Umgebung von ± 𝜔0 lässt sich damit erklären, dass einige Gewebebereiche, insbesondere die Gefäßwände, Bewegungen durchführen, die vom Doppler-System erfasst werden. Die Verbreiterung der Linie ± (𝜔0 − 𝜔D ) hängt ursächlich mit der räumlich inhomogen verteilten Fließgeschwindigkeit des Blutes in dem erfassten Gefäß zusammen. Die Spektralanteile bei |𝜔| > 𝜔0 deuten auf Blutfluss in umgekehrter Richtung hin. Dieser Anteil kann z. B. von anderen Gefäßen stammen, die bei der Doppler-Messung mit erfasst werden. Es gibt aber auch Gefäßstrukturen, in deren Querschnitten sich Bereiche befinden, in denen zu gleicher Zeit Blutfluss mit entgegengesetzten Flussrichtungen auftritt.
Nichtdirektionale Signalverarbeitung Die einfachste Form der Auswertung der Echosignale besteht in einer Signalverarbeitung, bei der die verschiedenen Flussrichtungen nicht unterschieden werden. Ein solches nichtdirektionales Verfahren lässt sich mit einer Schaltung nach Abb. 8.50 realisieren, in der das Echosignal mittels eines als Multiplikator wirkenden Mischers mit einem monofrequenten Signal gemischt wird, das dieselbe Frequenz 𝜔0 besitzt wie das Sendesignal. Die Signalverarbeitung sei hier der Anschaulichkeit wegen an einem einfachen Beispiel erläutert, bei dem nur ein Geschwindigkeitswert auftritt. Es sei fS (t) = A ⋅ cos 𝜔0 t
(8.85) ΩFEΩ
ΩFEΩ
ωD ω₀
–ω₀
ω
(a)
–ω₀
ω₀
ω
(b)
Abb. 8.49: Echo-Spektren beim CW-Doppler: Idealisierter Fall (a), realer Fall (b).
ƒE(t)
ƒM(t)
cos(ω₀t)
BP
ƒD(t) Abb. 8.50: Abwärtsmischung des Echosignals bei der nichtdirektionalen Signalverarbeitung.
286 | Helmut Ermert, Christian Hansen f0 /MHz 1 3,5 5 10
1 13,3 46,6 656 133
10
100
133 466 665 1 333
1 333 4 655 6 650 13 333
vz cm/s
Hz Hz Hz Hz
Tab. 8.7: Einige typische Zahlenbeispiele für die Doppler-Verschiebung fD gemäß Gl. (8.82).
das Sendesignal, das bei einer Flussgeschwindigkeit vz vom bewegten Ziel ein Echosignal fE (t) = B ⋅ cos b𝜔0 t (8.86) mit b gemäß Gl. (8.78) hervorruft. (Echos von nicht-bewegten Zielen sollen hier nicht betrachtet werden.) A und B seien beliebige Amplitudenfaktoren, c sei die Schallgeschwindigkeit. Die Multiplikation führt zu einem Signal fM (t) = fE (t) ⋅ cos 𝜔0 t = B ⋅ cos (b𝜔0 t) ⋅ cos 𝜔0 t
(8.87)
am Ausgang des Mischers, das sich gemäß fM (t) =
B [cos (𝜔0 (1 − b) t) + cos (𝜔0 (1 + b) t)] 2
(8.88)
aus zwei Frequenzanteilen zusammensetzt, von denen der höherfrequente Anteil durch die nachfolgende Bandpassfilterung unterdrückt wird. Am Ausgang des Systems wird das Signal fD (t) =
2𝜔 v B B B ⋅ cos [𝜔0 (1 − b) t] = ⋅ cos 0 z t = cos 𝜔D t 2 2 c0 2
(8.89)
erzeugt, dessen Frequenz 𝜔D = 2𝜋fD bei den üblichen Ultraschallfrequenzen und den vorkommenden Flussgeschwindigkeiten im Bereich des menschlichen Hörvermögens liegt. In Tab. 8.7 sind einige Werte der möglichen Doppler-Frequenzen zusammengestellt, die veranschaulichen, dass die erzeugten Signale hörbar gemacht werden können. Diese akustische Information ist für geübte Anwender des Verfahrens außerordentlich nützlich. ΩFMΩ
–2ω₀ Abb. 8.51: Ausgangssignal des Mischers.
2ω₀
ω
8 Ultraschall
| 287
In Abb. 8.51 wird gezeigt, wie sich die Bandpassfilterung auf ein typisches Doppler-Signal auswirkt. Der Bandpass, dessen Frequenzgang durch die gestrichelte Linie gekennzeichnet ist, ist so dimensioniert, dass alle hochfrequenten Signalanteile und solche niederfrequente Anteile, die auf sehr geringe Geschwindigkeiten (Bewegung der Gefäßwände im Herzzyklus) zurückzuführen sind, unterdrückt werden („Wandfilter“). Es ist auch zu erkennen, dass im abwärtsgemischten Signal die Flussanteile mit entgegengesetzten Richtungen (vorwärts/rückwärts) nicht mehr unterscheidbar sind.
Direktionale Signalverarbeitung Das Ziel einer Unterscheidbarkeit der Flussrichtungen kann mit einer direktionalen Signalverarbeitung erreicht werden. Das klassische Konzept besteht in einer zweikanaligen Verarbeitung nach dem Prinzip der Quadraturdemodulation. Ein Blockschaltbild ist in Abb. 8.52 dargestellt. Quadraturdemodulation: zweikanalige Demodulation eines Signals durch Abwärtsmischung mit zueinander orthogonalen Mischersignalen (Sinus/Kosinus).
Die Funktion dieses Verfahrens soll anhand eines Echosignalspektrums erläutert werden, wie es in Abb. 8.53 dargestellt ist. Es setzt sich aus Signalanteilen zusammen, die durch vorwärts (V) und rückwärts (R) fließendes Blut hervorgerufen werden. AuƒC1(t)
ƒE(t)
BP
ƒC2(t)
τH
ƒC3(t) + +
ƒV(t)
H
+ ƒS3(t) –
ƒR(t)
cos(ω₀t) sin(ω₀t) ƒS1(t)
BP
ƒS2(t)
Abb. 8.52: Direktionale Signalverarbeitung beim CW-Doppler: Quadraturdemodulation.
FE(w) W R
W V
–ω₀ – ωD –ω₀ –ω₀ + ωD
V
0
ω₀ – ωD
R
ω₀ ω₀ + ωD
Abb. 8.53: Echosignalspektrum bei Flussanteilen in Vorwärts- und Rückwärtsrichtung.
288 | Helmut Ermert, Christian Hansen DurchlassCharakteristik
–ω₀
–ωD
0
ωD
ω₀
Abb. 8.54: Bandpass-Charakteristik des Wandfilters.
ßerdem sind Anteile hoher Amplitude enthalten, die von stationären und sehr langsam bewegten Gewebebereichen, vorwiegend von den Gefäßwänden (W), stammen. Das Spektrum FE (𝜔) des Echosignals fE (t) lässt sich durch folgenden Ausdruck beschreiben: FE (𝜔) = +V(𝜔 − 𝜔0 + 𝜔D ) + W(𝜔 − 𝜔0 ) + R(𝜔 − 𝜔0 − 𝜔D ) + V(𝜔 + 𝜔0 − 𝜔D ) + W(𝜔 + 𝜔0 ) + R(𝜔 + 𝜔0 + 𝜔D )
(8.90)
Im oberen Signalzweig ergibt die Multiplikation mit dem Signal cos(𝜔0 t) in der Zeitbereichsdarstellung 1 (8.91) fC1 (t) = fE ⋅ [ej𝜔0 t + e−j𝜔0 t ] 2 und im Spektralbereich eine Faltung gemäß FC1 (𝜔) ∼ FE (𝜔) ∗ [𝛿(𝜔 − 𝜔0 ) + 𝛿(𝜔 + 𝜔0 )] ,
(8.92)
wobei Amplitudenfaktoren weggelassen wurden. Die Faltungsoperationen bewirken eine Spektralverschiebung der einzelnen Anteile gemäß FC1 (𝜔) = +V(𝜔 + 𝜔D ) + W(𝜔) + R(𝜔 − 𝜔D ) + V(𝜔 − 𝜔D ) + W(𝜔) + R(𝜔 + 𝜔D ) + V(𝜔 − 2𝜔0 + 𝜔D ) + W(𝜔 − 2𝜔0 ) + R(𝜔 − 2𝜔0 − 𝜔D ) + V(𝜔 + 2𝜔0 − 𝜔D ) + W(𝜔 + 2𝜔0 ) + R(𝜔 + 2𝜔0 + 𝜔D )
(8.93)
Der Bandpass in Abb. 8.54 mit seiner Wandfilterfunktion unterdrückt die hochfrequenten und die sehr niederfrequenten Anteile, so dass am Ausgang des Bandpasses das Signal FC2 (𝜔) entsteht, dessen Spektrum nach einer Verzögerung 𝜏H , die aus Symmetriegründen erforderlich ist, um die Verzögerung bei der Hilbert-Transformation in dem anderen Signalzweig zu kompensieren, nicht verändert wird. Wandfilter: Hochpass zur Unterdrückung der durch statisches Gewebe und durch sehr langsam bewegte Objekte erzeugten Signale.
Damit gilt FC3 (𝜔) ∼ FC2 (𝜔) ∼ [V(𝜔 + 𝜔D ) + R(𝜔 − 𝜔D ) + V(𝜔 − 𝜔D ) + R(𝜔 + 𝜔D )] .
(8.94)
Die Multiplikation mit sin(𝜔0 t) im unteren Signalzweig ergibt im Zeitbereich den Ausdruck 1 fS1 (t) = fE (t) ⋅ sin(𝜔0 t) = fE (t) ⋅ [e+j𝜔0 t − e−j𝜔0 t ] (8.95) 2j
8 Ultraschall
FR(w)
R
–ωD
FV(w)
R
0
| 289
+ωD
V
ω
–ωD
V
0
+ωD
ω
Abb. 8.55: Getrennte Spektren der Doppler-Signale für die Flussanteile in Vorwärtsrichtung und in Rückwärtsrichtung.
und führt im Frequenzbereich zu einer ähnlichen Spektralverschiebung wie im oberen Signalzweig und nach Bandpassfilterung zu einem Signal FS2 (𝜔) ∼ [V(𝜔 + 𝜔D ) + R(𝜔 − 𝜔D ) − V(𝜔 − 𝜔D ) − R(𝜔 + 𝜔D )] ,
(8.96)
auf das noch eine Hilbert-Transformation angewandt wird, deren Wirkung im Spektralbereich durch Multiplikationen gemäß {−j für 𝜔 < 0 HH (𝜔) = { +j für 𝜔 > 0 {
(8.97)
beschrieben werden kann. Damit entsteht nun das Signal FS3 (𝜔) = FS2 (𝜔) ⋅ HH (𝜔) ∼ [−V(𝜔 + 𝜔D ) + R(𝜔 − 𝜔D ) − V(𝜔 − 𝜔D ) + R(𝜔 + 𝜔D )] , (8.98) das mit dem entsprechenden Signal des oberen Signalzweiges in der Weise kombiniert werden kann, dass sich gemäß FR (𝜔) ∼ (FC3 (𝜔) − FS3 (𝜔)) ∼ [R(𝜔 − 𝜔D ) + R(𝜔 + 𝜔D )]
(8.99)
FV (𝜔) ∼ (FC3 (𝜔) + FS3 (𝜔)) ∼ [V(𝜔 − 𝜔D ) + V(𝜔 + 𝜔D )]
(8.100)
die Anteile des vorwärts und des rückwärts gerichteten Flusses trennen lassen. In Abb. 8.55 sind die Spektren der beiden Ausgangssignale fV (t) und fR (t) dargestellt. Die Bestimmung der diagnostisch interessanten Flussinformation aus den Signalen fD (t) bei nichtdirektionaler Verarbeitung bzw. fV (t) und fR (t) bei direktionaler Verarbeitung kann nun auf verschiedene Weise erfolgen: 1. Berechnung des zeitlichen Verlaufs des Mittelwertes der Doppler-Verschiebung nach Berechnung des Kurzzeitspektrums des Doppler-Signals innerhalb eines Zeitfensters T mittels schneller Fourier-Transformation (FFT) gemäß t+T/2
∫ 𝜔|FDT (𝜔, t)|2 d𝜔 𝜔(t) =
t−T/2
(8.101)
t+T/2
∫ |FDT t−T/2
(𝜔, t)|2 d𝜔
290 | Helmut Ermert, Christian Hansen ƒD(t) t T FFT FDT (ω,t) – ω
–(t) ω
t Abb. 8.56: Kurzzeit-FFT zur Bestimmung eines zeitabhängigen Mittelwertes der Flussgeschwindigkeit innerhalb eines Zeitfensters T.
2.
Der in Abb. 8.56 dargestellte Zeitverlauf dieses Mittelwertes während vollständiger Herzzyklen ist von diagnostischem Interesse. Näherungsweise Berechnung des zeitlichen Verlaufs des Mittelwertes der Doppler-Verschiebung unter Nutzung der Autokorrelationsfunktion des DopplerSignals: t+T/2
rsD sD T (𝜏, t) = ∫ sD (t )sD (t + 𝜏)dt
(8.102)
t−T/2
Darin ist sD (t) = fD (t) + jH {fD (t)}
(8.103)
das Doppler-Signal in komplexer, analytischer Form, das aus dem Messsignal durch Anwendung der Hilbert-Transformation gewonnen werden kann. Es kann gezeigt werden, dass sich damit der Mittelwert der Doppler-Verschiebung näherungsweise aus der zeitlichen Ableitung der Phase der Autokorrelationsfunktion 𝜔(t) ≈
d arg rsD sD T (𝜏, t)𝜏=0 d𝜏
(8.104)
bestimmen lässt. Da sich diese Berechnung gegenüber der in 1. dargestellten Methode sehr schnell durchführen lässt, wird sie auch bei dem weiter unten zu behandelnden „Color-Flow“-Verfahren benutzt, das simultan zur B-Bild-Abbildung eine Echtzeit-Abbildung von Flusszuständen in Schnittbildern erlaubt [Kasai et al. 1985]. Die Wiedergabe der Doppler-Information kann akustisch oder graphisch vorgenommen werden: – akustische Wiedergabe durch Lautsprecher oder Kopfhörer (ggf. zweikanalig bei direktionaler Verarbeitung) – visuelle, grauwertkodierte Darstellung des zeitlichen Verlaufs der mittels schneller Fourier-Transformation (FFT) gewonnenen Kurzzeitspektren des DopplerSignals gemäß Abb. 8.57.
8 Ultraschall
ω
| 291
FE(ω)
(a)
t
(b)
Abb. 8.57: Grauwertkodierte Darstellung der Kurzzeit-FFT: schematisch (a), aufgenommenes Spektrum aus einem Gefäß (b).
Während die Flusszustände in normalen Gefäßen abseits von Verzweigungen im Ruhezustand weitgehend laminar sind, tritt an natürlichen Gefäßverzweigungen und an pathologischen Verengungen der Gefäße turbulente Strömung auf. Die Erhöhung der Vielfalt der Flussgeschwindigkeitsanteile führt zu einer signifikanten Verbreiterung der Doppler-Spektren, was anhand der Kurzzeit-Spektren erkannt werden kann.
8.6.3 PW-Doppler-Verfahren Beim CW-Doppler lassen sich mit der direktionalen Methode zwar Flüsse mit entgegengesetzten Richtungen unterscheiden, es gibt allerdings keine Informationen über die Entfernungen, aus denen die Doppler-Signale stammen. Die Forderung nach gleichzeitiger Gewinnung von Flussinformation und Entfernungsinformation führt zu einem gewissen Konflikt. Für die Entfernungsinformation (axiale Auflösung) wird die Bandbreite benötigt (siehe Gl. (8.65)), die durch Signale mit kurzer Dauer (Pulse, siehe Gl. (8.63)) realisiert werden kann. Für die Gewinnung von Bewegungsinformation aus dem Dopplereffekt werden aber Signale mit großer Dauer benötigt, wie weiter unten gezeigt wird (siehe Gl. (8.112)). Die beim CW- Doppler verwendeten monofrequenten Signale verfügen über eine große Dauer, ihre Bandbreite ist aber theoretisch gleich Null. Mit dem Puls-Doppler-Verfahren (auch Pulsed-Wave-Doppler bzw. PW-Doppler) wird dieses Problem durch Anwendung einer Pulssequenz gelöst, die sowohl über eine genügend große Bandbreite als auch über eine genügend große Signaldauer verfügt. Pulsed Wave (PW; dt. Pulswelle): Betriebsart mit gepulsten Wellenformen.
Ein typisches Sendesignal, wie es beim PW-Doppler-Verfahren benutzt wird, ist in Abb. 8.58 dargestellt. Das Signal lässt sich als Pulsfolge interpretieren, die dadurch entsteht, dass aus einem CW-Signal mittels einer Rechteckfunktion Teilstücke bestimmter Länge mit zueinander definiertem zeitlichem Abstand herausgeschnitten werden. Wenn TB die Pulslänge, TA der zeitliche Abstand der Pulse und N die Gesamtzahl der gesendeten
292 | Helmut Ermert, Christian Hansen TB
TA Abb. 8.58: Sendesignal beim Puls-Doppler-Verfahren.
Verzögerungsglied
Generator
Filter
Sample&HoldGlied
Duplexer
Signalausgang
Demodulator
Verstärker
Schallwandler
Abb. 8.59: Einfaches Blockschaltbild eines Puls-Doppler-Systems.
Pulse ist, stellt sich das Sendesignal wie folgt dar: N
fS (t) = cos(𝜔0 t) ⋅ u1 (t)
mit u1 (t) = ∑ rect ( n=1
t − nTA ) TB /2
(8.105)
Ein einfaches Blockschaltbild für ein Puls-Doppler-System, mit dem die Flussinformation durch Wahl bestimmter Verzögerungszeiten aus definierten Objekttiefen gewonnen werden kann, ist in Abb. 8.59 dargestellt. Wird nun zur Auswertung der empfangenen Echosignale eines homogenen Strömungszustandes z. B. die Signalverarbeitung gemäß Abb. 8.52 angewandt, so erhält man demodulierte Signale der Form N
fD (t) = cos(𝜔D t + 𝜑0 ) ⋅ ∑ rect ( n=1
t − t0 − nTA ), TB /2
(8.106)
die das mit einer Rechteckfunktion abgetastete kontinuierliche Doppler-Signal des CW-Doppler-Verfahren darstellen. Wie die Abb. 8.60 veranschaulicht, müssen der Pulsabstand TA und die Periodendauer des Doppler-Signals TD = 1/fD in einer bestimmten Beziehung zueinander stehen, damit das Doppler-Signal korrekt abgetastet und die Flussgeschwindigkeit eindeutig bestimmt werden können. Dazu ist die Abtastvorschrift TA
2zmax . c0
(8.109)
Aus diesen beiden Vorschriften resultiert eine Beziehung zwischen der eindeutig messbaren maximalen Geschwindigkeit und dem maximalen Entfernungsbereich: c2 vz max ⋅ zmax < 0 8f0
(8.110)
In Abb. 8.61 sind für einige Ultraschallfrequenzen die Zusammenhänge aus Gl. (8.110) graphisch dargestellt.
Auflösungseigenschaften Informationen über die räumliche Auflösung der Doppler-Informationen können aus einer Betrachtung der Ambiguity-Funktion des Puls-Doppler-Konzepts abgeleitet werden. Während sich die Ortsauflösung bei der Entfernungsbestimmung der Doppler-Echos aus der Pulsbreite gemäß 𝛿z =
c0 ⋅ TB 2
(8.111)
ergibt, kann für die Genauigkeit der Geschwindigkeitsmessung ein Ausdruck für die Geschwindigkeitsauflösung angegeben werden 𝛿v =
c0 2,4 , 4f0 N ⋅ TA
(8.112)
der aussagt, dass neben der Schallgeschwindigkeit und der Sendefrequenz die zeitliche Dauer des Sendesignals N⋅TA einen wesentlichen Einfluss auf die Messgenauigkeit hat [Jensen 1996, Shung 2006, Xu 1995].
8.6.4 TS-Verfahren Alternativ zur spektralen Analyse von Doppler-Signalen kann eine Geschwindigkeitsmessung auch im Zeitbereich erfolgen. Bei diesem Verfahren, das in der Literatur mit „TS-Verfahren“ bezeichnet wird (Time Shift, TS), wird die Zeitverschiebung ausgewertet, die bei aufeinanderfolgenden Echos eines bewegten Zieles auftritt. Für dieses Verfahren gibt es andere Grenzen bezüglich der maximal messbaren Geschwindigkeiten. Diese Grenzen sind im Wesentlichen durch die zeitliche Auflösung bei der Abtastung und Verarbeitung der Echosignale bestimmt. Außerdem hat die frequenzabhängige Dämpfung des biologischen Gewebes, die die Doppler-Spektren verfälschen kann, hier einen geringen Einfluss. Für weitere Details sei hier auf die Literatur verwiesen [Jensen 1996, Shung 2006].
8 Ultraschall
|
295
Time Shift (TS; dt. Zeitverschiebung): Verfahren, bei dem alternativ zu den Doppler-Verfahren die Blutflussinformation aus dem Vergleich zeitverschobener Echosignale gewonnen wird.
8.6.5 Bildgebende Verfahren Color-Flow-Konzept In Abb. 8.62 werden die verschiedenen Doppler-Verfahren hinsichtlich der geometrischen Orte verglichen, aus denen jeweils Flussinformationen gewonnen und verarbeitet werden. Während die Flussinformation beim CW-Doppler lediglich eine durch die Wandlercharakteristik geprägte laterale Auflösung, aber keinerlei Tiefenauflösung besitzt, kann beim PW-Doppler ein bestimmtes räumliches Zielgebiet vorgegeben werden, innerhalb dessen die Doppler-Information (Spektren, Mittelwerte) ausgewertet werden kann. Ziel der bildgebenden Verfahren ist, simultan zur morphologischen B-BildDarstellung des interessierenden Organbereiches eine ortsaufgelöste Flussinformation in Echtzeit zur Verfügung zu stellen („Duplex-Betrieb“). Dabei gibt es zwei Probleme. Zum einen kann innerhalb eines Bildpunktes nicht die gesamte Information über einen Flusszustand dargestellt werden. Deshalb wird hier üblicherweise der Mittelwert der Flussgeschwindigkeit benutzt und in farbkodierter Weise dargestellt. Das zweite Problem liegt in den Anforderungen an die Geschwindigkeit der SignalverarMessfenster
CW-Doppler
PW-Doppler
„Farb-Doppler”
Abb. 8.62: Vergleich von CW-Doppler, PW-Doppler und bildgebendem Doppler („Farb-Doppler“).
296 | Helmut Ermert, Christian Hansen Geschwindigkeit (Farbsättigung)
vo
är rw
ts
ng tu h ic
R är kw c rü
ts
Abb. 8.63: Farbkodierung beim Farb-Doppler.
Abb. 8.64: Beispiel einer „Momentaufnahme“ aus einer Farb-Doppler-Bildsequenz (rechts) als Ergänzung zum grauwertkodierten B-Bild (links): Gefäßverzweigung mit Ablagerung in einem Blutgefäß („Plaque“) und Flussanteilen in verschiedenen Richtungen. (Mit freundlicher Genehmigung des MedArchivs der Siemens AG).
beitung. Erst nachdem man geeignete Näherungsverfahren zur schnellen Berechnung der Geschwindigkeit gefunden und darauf aufbauend schnelle Algorithmen und Prozessoren entwickelt hatte, wurde die Bildgebung innerhalb der Ultraschall-DopplerTechnik möglich [Kasai et al. 1985]. Das Verfahren basiert auf dem oben dargestellten Berechnungskonzept. Es wird zweikanalig für die Flussrichtungen „vorwärts“ und „rückwärts“ durchgeführt. Das Konzept der Farbkodierung ist in Abb. 8.63 beschrieben.
8 Ultraschall
| 297
Abb. 8.65: Beispiel einer „Momentaufnahme“ aus einer Farb- Doppler-Bildsequenz in Ergänzung zum grauwertkodierten B-Bild: Leber mit Teilen ihrer Gefäßarchitektur, dazu die Darstellung des PW-Doppler-Signals in einem speziellen Zielgebiet (mit freundlicher Genehmigung des MedArchivs der Siemens AG).
Color Flow Imaging (dt. „Farbdoppler“): farbkodierte Dopplersonographie. Farbkodierte, ortsaufgelöste, quantitative Echtzeit-Darstellung des Blutflusses (Richtung, mittlere Geschwindigkeit) in Gefäßen durch Nutzung des Doppler-Effektes und Auswertung von Amplitude und Phase der Echosignale.
Zwei Bildbeispiele mit Farb-Doppler-Aufnahmen sind in den Abbildungen Abb. 8.64 und Abb. 8.65 dargestellt.
Power-Doppler-Konzept Ein besonderes Merkmal der Farb-Doppler-Technik besteht darin, dass sich die Flussinformation aus kleinen Gefäßen wegen der Begrenztheit der Doppler-Signalpegel und wegen der geringen Flussgeschwindigkeiten nicht darstellen lassen. Aus diesem Grunde reißt in den Bildern die Farbinformation aus den Gefäßen hin zu kleinen Gefäßdurchmessern ab. Eine Verbesserung lässt sich mit dem Power-Flow-Verfahren erreichen, das auf die Richtungsinformationen des Blutflusses verzichtet und eine um einiges vollständigere Darstellung von Perfusionszuständen des Gewebes und von Gefäßarchitekturen unter Verzicht auf quantitative Flussinformationen gestattet. Dargestellt wird das Leistungsdichtespektrum der Doppler-Signale, das sich aus +∞
2 ∫ FD (𝜔) d𝜔
−∞
(8.113)
298 | Helmut Ermert, Christian Hansen
Abb. 8.66: Zum Vergleich: Farb-Doppler (links) und Power-Doppler (rechts).
Wandfilter
Wandfilter Blutfluss
Blutfluss
Rauschen
Rauschen ƒD
ƒD
Abb. 8.67: Power-Doppler: Leistungsdichtespektren bei verschiedenen mittleren Flussgeschwindigkeiten.
bestimmen lässt. Abb. 8.66 zeigt die beiden Modalitäten anhand einer Darstellung des Flusses in zwei benachbarten Gefäßen mit entgegengesetzter Flussrichtung. Power Mode (dt. Leistungsmodus): farbkodierte, ortsaufgelöste, qualitative Echtzeit-Darstellung von Blutflusszuständen in Gefäßen und von Perfusionszuständen im Gewebe durch Nutzung des Doppler-Effektes und Auswertung der Echo-Signalleistung.
In Abb. 8.67 werden zwei Leistungsdichtespektren verglichen. Bei einer großen mittleren Flussgeschwindigkeit (links) liegt das Spektrum außerhalb des Wandfilterspektrums. Bei kleinen Flussgeschwindigkeiten (rechts), bei denen z. B. der Mittelwert innerhalb des Wandfilterspektrums liegt, liegen wesentliche Anteile des Leistungsdichtespektrums (blaue Fläche in Abb. 8.67) außerhalb des Wandfilterspektrums. Diese Anteile können beim Power-Doppler erfasst werden und zur Flussdarstellung beitragen. Beim Farb-Doppler, das die mittlere Flussgeschwindigkeit darstellt, würde die Flussinformation vom Wandfilter unterdrückt. Ein weiteres Beispiel für die Anwendung des Power-Doppler-Verfahrens ist in Abb. 8.68 zu finden, das die komplette Gefäßarchitektur (Geometrie der räumlichen Verzweigung von Blutgefäßen) einer Niere zeigt.
8 Ultraschall
|
299
Abb. 8.68: Power-Flow-Darstellung: Beispiel (Gefäßarchitektur einer Niere). (Mit freundlicher Genehmigung des MedArchivs der Siemens AG).
– – –
Die Vorzüge des Power Mode gegenüber dem Farb-Doppler sind: besseres Rauschverhalten (u. a. wegen der Möglichkeit einer stärkeren Mittelwertbildung) geringere Abhängigkeit vom Winkel zwischen Flussrichtung und Richtung des Schallstrahls Das Abtastproblem zur eindeutigen Bestimmung von Flussgeschwindigkeit und Flussrichtung besteht nicht.
Damit lassen sich mit der Power-Mode-Technik Gefäßarchitekturen empfindlicher erfassen und im Sinne einer Ultraschall-Angiographie vollständiger darstellen, wobei auch Flussanteile, die nahezu senkrecht zur Schallstrahlrichtung orientiert sind, in stärkerem Maße mit erfasst werden als beim Farb-Doppler-Verfahren.
8.7 Spezielle Modalitäten 8.7.1 Spatial Compounding Die Bildqualität konventioneller Ultraschallbilder ist stark von der unidirektionalen Aufnahmetechnik des Puls-Echo-Betriebs gekennzeichnet. Die hiermit verbundenen Artefakte und Probleme der Bilddarstellung können teilweise gelöst werden, indem das zu untersuchende Objekt nicht nur aus einer Richtung, sondern aus einer Vielzahl verschiedener Blickrichtungen (Aspektwinkel) in einer Schnittebene aufgenom-
300 | Helmut Ermert, Christian Hansen men wird und die Empfangsdaten der Einzelbilder ortsrichtig miteinander kombiniert werden. Legt man den beim medizinischen Ultraschall üblichen Puls-Echo-Betrieb und die konventionelle Bilderzeugung durch mehrere fokussierte Strahllinien zugrunde, so können die aus unterschiedlichen Richtungen empfangenen Echolinien auch Grundlage einer multidirektionalen Bildgebung sein. Anders als im unidirektionalen Fall werden sich diese Linien im Bildbereich allerdings schneiden, so dass einem Pixel des Bildbereiches mehrere Werte zugeordnet sind. Eine Kombination dieser Werte kann dadurch erfolgen, dass sie inkohärent (nach Hüllkurvendetektion der Echolinien) addiert werden. Man spricht in diesem Fall von Spatial Compounding. Das Prinzip des Spatial Compoundings wurde bereits in wissenschaftlichen Untersuchungen aus den 1970er- und 1980er-Jahren beschrieben. In jener Zeit wurden viele Arbeiten zum Spatial Compounding veröffentlicht, welche bei verschiedener Anwendung das Potential zur Verbesserung der Bildqualität grundsätzlich wie folgt beschreiben [Burkhardt 1978, Einighammer 1985, Ermert et al. 1986, Hiller et al. 1982, Jago 1994, Röhrlein et al, 1987, Shankar et al, 1994, Trahey et al. 1986]: – Rausch-Reduktion: Speckle und elektronisches Rauschen werden durch die Multidirektionalität reduziert, wenn das in den einzelnen Ultraschallbildern vorhandene Rauschen nicht miteinander korreliert ist. Die Speckle-Formation eines Ultraschallbildes hängt von der Konfiguration der Streuer relativ zur Schallwellenausbreitung ab, so dass das Speckle-Muster sich bei Beschallung aus unterschiedlichen Richtungen ändert. Je größer der Unterschied in den Aspektwinkeln ist, desto geringer ist die Korrelation des Speckle-Musters. Ist das Speckle-Muster der aufgenommenen Einzelbilder unkorreliert, so reduziert sich bei W aufgenommenen Einzelbildern das in Gl. (8.69) definierte SNR um den Faktor √W. – Isotrope Auflösung: Während beim konventionellen Ultraschallbild die Auflösungen in axialer und lateraler Richtung stark differieren, kann die Multidirektionalität des Spatial Compoundings abhängig von der Anzahl und der Verteilung der Aspektwinkel dazu führen, dass die Auflösung isotroper wird. – Artefaktunterdrückung: Bildartefakte, deren Auftreten von der Einfallsrichtung des Ultraschalls abhängen, werden reduziert. – Vollständige Darstellung: Spiegelnd reflektierende Strukturen, die nur abschnittsweise in den einzelnen Ultraschallbildern als echogene Linien erscheinen, werden beim Spatial Compounding zusammenhängend dargestellt. – Reduzierung tiefenabhängiger Intensitätsverteilungen: Durch die Abbildung eines Objektes aus verschiedenen Richtungen liegen dieselben Objektstrukturen in den Einzelbildern in unterschiedlichen Tiefen. Bei der Überlagerung der Einzelbilder wird die tiefenabhängige Dämpfung der konventionellen Ultraschallabbildung somit kompensiert. Compounding (dt. Zusammensetzung): Abbildung einer einzelnen Querschnittsebene eines Objektes durch Kombination mehrerer aus verschiedenen Aspektwinkeln aufgenommener Schnittbilder.
8 Ultraschall
|
301
Technisch kann ein Spatial Compounding durch elektronische Strahlschwenkung oder durch manuelle oder mechanische Bewegung des Schallwandlers realisiert werden (siehe Abb. 8.69 und Abb. 8.71). Die Anzahl von Aspektwinkeln und deren Ausrichtung zueinander kann variieren. Grundsätzlich können zwei Fälle unterschieden werden: – Limited Angle Spatial Compounding (LASC): Erfolgt die koplanare Aufnahme eines Objektes unter Aspektwinkeln, die nur in einem begrenzten Raumbereich [Röhrlein et al. 1985, Opretzka et al. 2011] verteilt liegen, so kann dies als Limited Angle Spatial Compounding (LASC) bezeichnet werden. Verbesserungen der Bildqualität sind zwar vorhanden, die beschriebenen Vorteile des Spatial Compoundings entwickeln sich aber aufgrund des limitierten Winkelbereichs nur unvollständig [Treece et al. 2007]. Zwar kann das Speckle-Rauschen reduziert werden, allerdings wird die Richtungsabhängigkeit der Ultraschallabbildung nur teilweise kompensiert: Artefakte werden nicht vollständig unterdrückt, die Tiefenabhängigkeit bleibt erhalten, echogene, linienhafte Objekte werden nur begrenzt zusammenhängend dargestellt und die Auflösung bleibt anisotrop. Kommerziell vertriebene Ultraschallgeräte verfügen meist über die Möglichkeit, ein solches LASC durch elektronisches Strahlschwenken in Echtzeit zu realisieren [Berson et al. 1981, Hofer 2002]. Beispiele sind die Produkte SonoCT der Firma Philips und SieClear der Firma Siemens, die für einige Ultraschallgeräte als optionale Softwarefeatures erhältlich sind. Abb. 8.70 zeigt beispielhaft ein konventionelles Ultraschallbild der Schilddrüse (a) und ein Ultraschallbild, das mittels LASC erzeugt wurde (b). Positiv fällt im LASC-Bild vor allem die geschlossene Darstellung von Grenzschichten auf (Pfeile). Auch ist die Darstellung homogener Gewebebereiche von Speckle-Rauschen befreit (Kreis). Im konventionellen B-Bild täuscht die granulare Speckle-Musterung hingegen eine Abbildung feiner Strukturen vor, die tatsächlich im Gewebe nicht existieren.
(a)
(b)
Abb. 8.69: (a) Linearer B-Scan, Compounding durch elektronisches Schwenken des Bildfeldes, (b) Compounding durch mechanische Translation eines Wandlers mit sektorförmigem Bildfeld.
302 | Helmut Ermert, Christian Hansen
(a)
(b)
(c)
Abb. 8.70: Beispiele für ein Limited Angle Spatial Compunding (LASC) mit konventionellen Ultraschallgeräten. (a) Konventionelles B-Bild der Schilddrüse, (b) LASC-Ultraschallbild gleicher Schnittebene. Man erkennt eine Speckle-Reduktion (Kreis) und die zusammenhängende Darstellung von echogenen Faszien (Pfeile). Randschatten werden nicht vollständig unterdrückt (Kreuze). Die Ultraschallbilder wurden mit einem Siemens Acuson Antares und dem Linear-Array VF10-5 mit einer Mittenfrequenz von 7,5 MHz und unter Verwendung des Features SieClear aufgenommen. (c) Panoramabild derselben Schilddrüse in ähnlicher Schnittebene. Das Ultraschallbild wurde mit einem Siemens Acuson Antares und dem Linear-Array VF10-5 mit einer Mittenfrequenz von 7,5 MHz und unter Verwendung des Features SieScape aufgenommen.
12 14 16 Objekt 18 20 (a)
(b)
cm –6
–4
–2
0
2
4
Abb. 8.71: 360°-Echo-Tomographie: Full Angle Spatial Compounding (FASC): Scan-Konzept (a), Invivo-Aufnahme einer gesunden weiblichen Brust, 72 Aspektwinkel, THI-Modus, Mittenfrequenz 2,5 MHz (b).
Zusätzlich zu der beschriebenen Art des LASC wird bei kommerziellen Ultraschallgeräten häufig die Möglichkeit geboten, den Schallwandler während des Betriebs in der Schnittebene lateral zu verschieben und zu verkippen, um durch die Kombination mehrerer benachbarter Einzelbilder ein Panoramabild zu generieren [Hofer 2002]. Ein Beispiel für eine solche Panoramabildgebung ist das Produkt SieScape der Firma Siemens, das als optionales Softwarefeature für einige Ultraschallgeräte erhältlich ist. Abb. 8.70 (c) zeigt ein Beispiel hierzu. Die Kombination von zusammengehörigen Bildbereichen erfolgt hierbei ohne Positionserfassung des
8 Ultraschall
–
| 303
Schallwandlers rein bildbasiert (z. B. mittels zweidimensionaler Korrelationsverfahren). Objektbereiche, die mehrfach aus unterschiedlichen Winkeln aufgenommen werden, können dann ebenfalls durch ein LASC kombiniert werden. Full Angle Spatial Compounding (FASC): Anders als beim LASC kann die koplanare Abbildung eines Objektes auch unter Aspektwinkeln erfolgen, die vollständig um das Objekt verteilt liegen. Diese Möglichkeit ist bei Körperteilen oder Organen von Interesse, die einen Aspektwinkelbereich von 360° erlauben (z. B. bei der weiblichen Brust). In diesem Fall spricht man von Full Angle Spatial Compounding (FASC). Arbeiten allgemeiner Art finden sich hierzu beispielsweise in [Hiller et al. 1982, Hoskins et al. 2006]. Arbeiten mit spezieller Ausrichtung auch auf die Mammadiagnostik finden sich in [Duric et al. 2007, Jago 1994]. Ein Beispiel ist in Abb. 8.71 dargestellt [Hansen 2009, Hollenhorst et al. 2010].
Limited Angle Spatial Compounding (LASC; dt. Zusammensetzung über einen begrenzten Raumwinkelbereich): Compounding über einen begrenzten Aspektwinkelbereich (< 360°). Full Angle Spatial Compounding (FASC; dt. Zusammensetzung über den gesamten Raumwinkelbereich): Compounding über einen Aspektwinkelbereich von 360°.
8.7.2 Elastographie Unter Elastographie versteht man die ortsaufgelöste Bestimmung und Abbildung elastischer Gewebeparameter. Elastographie lässt sich prinzipiell unter Nutzung verschiedener Bildgebungsmodalitäten (Ultraschall, Magnetresonanztomographie, optische Kohärenztomographie) betreiben, ist aber mit Ultraschall am einfachsten handhabbar und am weitesten entwickelt. Ultraschall-Elastographie ist zwar seit 1991 bekannt [Ophir et al. 1991], konnte jedoch aufgrund der fehlenden Echtzeitfähigkeit nicht in angemessener Form am Patienten eingesetzt werden. Ende der 1990er-Jahre wurde eine neue Technik entwickelt [Pesavento et al. 1999], mit der die Elastographie in Echtzeit betrieben werden kann. Die Elastographie ist mittlerweile in den Ultraschallgeräten diverser Hersteller als spezielle Modalität verfügbar. Elastographie: Qualitative oder quantitative Darstellung mechanischer Gewebeeigenschaften (z. B. weich/hart bzw. Schermodul) in medizinischen Bildern (z. B. mittels Ultraschall, MRT oder OCT).
Ein wichtiges Anwendungsgebiet der Elastographie ist die Tumordiagnostik. Da sich maligne Tumoren oft aus mechanisch härterem Gewebe zusammensetzen, kann die Diagnostik durch die Abbildung der elastischen Eigenschaften des Gewebes zusätzlich zum konventionellen Ultraschall sicherer gemacht werden. Bei der einfachsten Version der Elastographie werden kleine Gewebeverschiebungen aus aufeinander
304 | Helmut Ermert, Christian Hansen
Kompression
hart
weich
hart
weich
Abb. 8.72: Das Konzept der Elastographie: unterschiedliche Verformung nach Kompression unterschiedlich harter Areale.
folgenden Ultraschalldatensätzen berechnet, die unter verschiedenen Gewebekompressionen aufgenommen werden. Harte Gewebebereiche werden unter Kompression nicht so stark verformt wie weiche Gewebebereiche. Der numerische Vergleich der Echosignalsequenzen erlaubt die Berechnung der lokalen Dehnung oder Kompression des Gewebes. Das Maß muss klein sein, um Bedingungen für eine erfolgreiche Kreuzkorrelation der Echosignalsequenzen zu sichern, es liegt unter 1 % und ist damit auch unbelastend. Im einfachsten Fall wird bei dieser Art der Elastographie, mit der sogenannte Dehnungsbilder in Echtzeit generiert werden, die Kompression des Gewebes manuell vom untersuchenden Arzt unter Nutzung des Ultraschallwandlers herbeigeführt. Abb. 8.72 veranschaulicht den Vorgang der Kompression. Der einfachste Ansatz zur Darstellung elastischer Gewebeeigenschaften besteht in der Ermittlung der lokalen Dehnung aus A-Scan-Sequenzen gemäß Abb. 8.73. Das in Abb. 8.74 dargestellte Experiment erläutert die Prozedur der Dehnungsbildgebung. Ein wichtiger Anwendungsbereich der Elastographie ist die Früherkennung des Prostatakarzinoms [Pesavento et al. 2000, Sommerfeld et al. 2003, König et al. 2005, Eggert et al. 2008]. Die üblichen Diagnoseverfahren (digitaler Tastbefund, transrektaler Ultraschall, PSA-Wert-Analyse) sind relativ unsicher. Die Diagnose des Prostatakarzinoms unter Anwendung von Echtzeitelastographie mittels Ultraschall bietet die Möglichkeit, Tumore sicherer und früher zu diagnostizieren. In Abb. 8.75 wird ein Beispiel aus einer klinischen Studie gezeigt [Sommerfeld et al. 2003]. Neben den üblichen, mit Rektalsonden gewonnenen Ultraschallbildern („B-Bilder“) wurden Elastogramme (Dehnungsbilder) berechnet und dargestellt. In Abb. 8.75 ist erkennbar, dass der Tumor, der im Querschnittsbild unten links lokalisiert ist, in der Elastographie wesentlich besser erkannt werden kann als im B-Bild.
8 Ultraschall
| 305
Tiefe z A-Scan unkomprimiert ΔI = c · τ(z₁)
ΔI = c · τ(z₂)
A-Scan komprimiert Phasen-NullstellenSuche Verschiebung
Abb. 8.73: Bestimmung der lokalen Dehnung aus den A-Scan-Signalen vor und nach der Kompression.
Differentiation Dehnung
Wandler hart
F 0,3 cm 1 cm
1,5 cm
(a)
AgarAgar
Schaumstoff 4 cm
7 cm (b)
(c)
weich
Abb. 8.74: Elastographie. (a) Experiment: Mit dem Ultraschallwandler wird ein Objekt komprimiert, das ein kreiszylindrisches Areal mit größerer Härte enthält. (b) B-Bild des Objektes, das Areal ist nicht sichtbar, weil sich die Echogenität nach Kompression nicht geändert hat. (c) Dehnungsbild.
Abb. 8.75: B-Bild (links), Elastogramm (Mitte) und Histologie (rechts) einer Prostata mit Karzinom (PCa).
306 | Helmut Ermert, Christian Hansen Weitere Anwendungsbereiche der Elastographie sind die Diagnostik anderer innerer Organe (z. B. Leber), die Mammadiagnostik [Hiltawsky et al. 2001], die Gefäßdiagnostik (intravaskulärer Ultraschall [Perrey et al. 2002], Altersbestimmung von Thromben [Geier et al. 2005]), die Dermatologie [Vogt et al. 2005] und das Thermotherapiemonitoring mit Ultraschall [Siebers et al. 2003]. Neben der oben beschriebenen Elastographie in Form der Dehnungsbildgebung gibt es noch weitere Versionen, zum Beispiel die Elastographie mittels Gewebeverformungen, die durch im Gewebe akustisch erzeugte Strahlungsdrücke (Acoustic Radiation Force Impulse Imaging, ARFI) entstehen [Nightingale et al. 2002], die Scherwellenelastographie [Bercoff et al. 2004] und die quantitative, rekonstruktive Elastographie [Khaled et al. 2006]. Acoustic Radiation Force Impulse Imaging (ARFI-Imaging): spezielle Version der Elastographie, bei der die Gewebedeformation durch akustisch induzierte Strahlungsdrücke hervorgerufen wird.
8.7.3 Kontrastmittelgestützte Abbildung Mithilfe von Ultraschallkontrastmitteln ist es möglich, eine Funktionsdiagnostik zu realisieren, mit der sowohl die Darstellung von größeren Gefäßstrukturen (Angiographie) als auch die Abbildung der Gewebedurchblutung über das Kapillarsystem (Perfusionsabbildung) gelingt. Die zur bildgebenden Ultraschalldiagnostik üblicherweise eingesetzten Kontrastmittel bestehen aus gasgefüllten, hüllenstabilisierten Mikrobläschen mit Durchmessern im Bereich von 1 bis 10 μm [Albrecht et al. 2004, Goldberg et al. 2001, Lindner 2004, Postema et al. 2006]. Sie werden innerhalb einer Trägerflüssigkeit (meist eine physiologische Kochsalzlösung) intravenös appliziert, stören die Hämodynamik nicht und passieren als lungengängiges Kontrastmittel das gesamte Kapillarbett des Menschen weitgehend unbeschadet. Die Halbwertszeit der Mikrobläschen ist begrenzt und abhängig vom Gas und der Hülle der Bläschen, ihrer Größe und den Umgebungsbedingungen. Im Blutkreislauf beträgt ihre Lebensdauer aufgrund mechanischer Beanspruchung durch das Herz-Kreislauf-System und Diffusion ca. 10 bis 20 Minuten. Das Gas (z. B. Luft oder Octafluorpropan) und die Hülle der Bläschen (z. B. Galaktose oder Albumin) werden nach ihrer Zerstörung problemlos vom Körper absorbiert. Bei der Ultraschallabbildung von Kontrastmitteln kommt es zu diversen Interaktionen zwischen der Ultraschallwelle und den Mikrobläschen, so dass sich die Empfangsechos (und damit auch die Ultraschallbilder) eines mit Kontrastmittel angereicherten Gewebes von jenem ohne Kontrastmittel (native Abbildung) unterscheiden. Hierbei ist zu beachten, dass der Durchmesser der Mikrobläschen in aller Regel kleiner als die Wellenlänge der medizinisch genutzten Ultraschallsignale ist und die Bläschen
8 Ultraschall
| 307
somit eine Streuung der Schallpulse verursachen. Folgende physikalische Phänomene sind zu beobachten [Bouakaz et al. 2005, Goldberg et al. 2001, Rychak et al. 2007]: – Bewegung durch Strahlungsdruck: Mikrobläschen, die sich frei in einer Flüssigkeit bewegen, werden vom einfallenden Ultraschall in axiale Richtung bewegt. Dies kann dazu führen, dass sich Mikrobläschen an Gefäßwänden ansammeln. – Lineare Streuung: Die Mikrobläschen führen im Schallfeld eine Radialschwingung aus. Die Bläschen verhalten sich somit selbst wie Schallquellen, die ihre Energie aus dem anregenden Schallsignal beziehen. Der Streuquerschnitt eines solchen sphärischen, gasgefüllten Streuers, dessen Radius wesentlich kleiner ist als die Wellenlänge des anregenden Signals, ist in einer Flüssigkeit aufgrund der deutlich größeren Kompressibilität des Gases im Vergleich zur Umgebung besonders groß. – Nichtlineare Oszillation: In Abhängigkeit von der Anregungsamplitude ist die Oszillation der Mikrobläschen nichtlinear: Während für äußerst geringe Sendeleistungen die Radialschwingung noch linear verläuft, tritt mit zunehmendem Schalldruck ein nichtlineares Schwingverhalten in den Vordergrund und es kommt zu einer asymmetrischen Schwankung des Bläschendurchmessers. Die Kompression der Mikrobläschen gegen den Druck des eingeschlossenen Gases fällt hierbei geringer aus als ihre Expansion. Schon für Anregungsamplituden mit einem mechanischen Index (Gl. (8.19)) MI < 0,1 ist dieses nichtlineare Verhalten zu beobachten. Solche Anregungsamplituden können im Gewebe bereits mit Sendeleistungen von 1 % der maximal bei Ultraschallgeräten anwählbaren Sendeleistung erzielt werden. Die nichtlineare Oszillation der Mikrobläschen führt dazu, dass das empfangene Echosignal neben Frequenzanteilen um die Sendefrequenz f0 auch bei den Harmonischen 2f0 , 3f0 etc. Frequenzanteile enthält. – Zerstörung: Wird die Sendeleistung weiter erhöht, so kommt es zur Zerstörung der Mikrobläschen. Hierbei können verschiedene Szenarien einzeln oder in Kombination auftreten: – Die Hülle eines Mikrobläschens kann vollständig zerstört werden, so dass nur eine oder mehrere hüllenlose und kurzlebige Gasbläschen zurückbleiben. – Das Mikrobläschen kann in mehrere kleinere Bläschen mit Hülle zerfallen. – Das zerstörte Bläschen kann sich mit Fragmenten anderer zerstörter Bläschen zusammenschließen (Coalescence). Welche Effekte bei der Zerstörung tatsächlich auftreten und wie viele Bläschen überhaupt zerstört werden, ist abhängig von den gesamten Randbedingungen der WelleBläschen-Interaktion. In den meisten Fällen kommt es aber bei der Zerstörung der Bläschen zu kurzzeitigen Emission eines relativ starken akustischen Signals (stimulierte akustische Emission). Weiterhin ist häufig zu beobachten, dass die wandlernah liegenden Mikrobläschen bei einer Zerstörung viel Schallenergie absorbieren und somit wandlerferne Bläschen zunächst nicht zerstört werden.
308 | Helmut Ermert, Christian Hansen Qualitative Kontrastmittelabbildung Bei der qualitativen Kontrastmittelabbildung wird die zeitvariante, räumliche Verteilung des Kontrastmittels anhand einer Ultraschall-Bildserie bewertet, ohne Kennzahlen abzuleiten und so die Abbildung zu quantifizieren. Im einfachsten Fall werden rein visuell die dynamischen Veränderungen in der Kontrastmittelverteilung am Monitor des Ultraschallgerätes beobachtet. Die folgenden Anwendungen sind möglich: – Angiographie: Eine Darstellung des Verlaufs von einzelnen Gefäßen (Angiographie) gelingt in zwei Fällen: Zum einen ist es möglich, Gefäße darzustellen, die groß genug sind, um vom Ultraschallabbildungssystem aufgelöst zu werden. Zum anderen kann aber auch der Verlauf von Gefäßen dargestellt werden, die zwar zu klein sind, um im nativen Ultraschallbild (ohne Kontrastmittel) abgebildet zu werden (< 1. . .3 mm), aber räumlich separiert von anderen Gefäßen verlaufen. Solche Gefäße sind üblicherweise innerhalb des Speckle-Musters des nativen Ultraschallbildes nicht sichtbar, können aber über das starke Echo des Kontrastmittels im kontrastmittelspezifischen Bild detektiert werden. – Perfusionsabbildung: Liegen hingegen die feinen Gefäße zu dicht beieinander, um einzeln dargestellt zu werden, kann nur eine generelle Intensitätszunahme des rückgestreuten Echos im gesamten Gewebe beobachtet werden. In diesem Fall kann die Gewebeperfusion (Blutversorgung durch das mikroskopische Kapillarsystem) über die dynamische Intensitätsänderung bei der Kontrastmittelapplikation abgebildet werden. Abb. 8.76 zeigt Beispiele einer angiographischen Abbildung und einer Perfusionsabbildung [Engelhardt et al. 2007]. Die kontrastmittelspezifische Abbildung der Blutversorgung des Gewebes kann klinisch genutzt werden, um Gefäßanomalien darzustellen oder eine Hypo-bzw. Hyperperfusion zu beobachten und somit pathologische Veränderungen im Gewebe zu detektieren. Perfusionsunterschiede zum gesunden Gewebe zeigen zum Beispiel ischämische Prozesse wie den Herzinfarkt und den Schlaganfall, die über eine Hypoperfusion erkannt werden können. Ein weiteres Beispiel sind pathologische Gewebeneubildungen (Neoplasien bzw. Tumoren), die sowohl als hypo- als auch als hyperperfundierte Läsionen zu erkennen sein können [Hohmann et al. 2003]. Ultraschallkontrastmittel verfügen in ihrer Eigenschaft als Marker (Targeted Imaging) bei der sonographischen Bildgebung neben der Anwendung zur Darstellung von Blutfluss und Perfusion (Durchblutung von Gewebebereichen über kleine Gefäße, auch Mikrozirkulation) über ein hohes diagnostisches und therapeutisches Anwendungspotential [Wei 2011]. Sie sind insbesondere im Zusammenhang mit verschiedenen Ansätzen der Molekularen Bildgebung [Behm et al. 2008, Voigt 2009] und der ultraschallgesteuerten, gezielten Medikamentengabe (drug delivery) [Ferrara et al. 2007, Pitt et al. 2004] von großem Interesse.
8 Ultraschall
(a)
(b)
(c)
(d)
| 309
Abb. 8.76: Beispiele kontrastmittelspezifischer Ultraschallaufnahmen in vivo. Angiographische Darstellung: transkranielle Aufnahme des Circulus Willisii vor Kontrastmittelgabe (a) und danach (b). Perfusionsabbildung: intraoperative Aufnahme zweier hyperperfundierter Hirntumoren (durchgezogene Pfeile) vor Kontrastmittelgabe (c) und danach (d). Gestrichelte Pfeile markieren Gefäße. Die Ultraschallbilder wurden mit einem Siemens Sonoline Elegra im THI-Modus (vgl. Kap. 8.5.4) aufgenommen. Die transkraniellen Bilder wurden mit dem Phased Array 2.5PL20 (Mittenfrequenz: 2,5 MHz) aufgenommen, die intraoperativen Bilder mit dem endokavitären Curved Array 6.5EC10 (Mittenfrequenz: 3 MHz).
Semiquantitative Perfusionsabbildung Das Ziel der semiquantitativen Auswertung von kontrastmittelspezifischen Bildserien ist es, aus dem zeitlichen Verlauf der Kontrastmittelkonzentration physiologisch aussagekräftige Kennzahlen zu bestimmen. Während angiographische Verfahren meist nur qualitativ arbeiten, besteht bei der Perfusionsabbildung die Möglichkeit, die Perfusionsdynamik zu quantifizieren und voneinander möglichst unabhängige perfusionsbeschreibende Parameter zu extrahieren. Relevante Parameter sind beispielsweise die Blutmenge, die sich innerhalb eines betrachteten Gewebebereiches befindet, und die Perfusionsrate, mit der Blut in den Gewebebereich eindringt. Da die Art der Quantifizierung intraindividuell zwar den quantitativen Vergleich verschiedener Gewebetypen zulässt, aber für verschiedene Patienten interindividuell unterschiedliche Werte liefert, wird sie häufig als semiquantitativ bezeichnet. Es existieren unterschiedliche Methoden zur semiquantitativen Perfusionsabbildung: die Bolus-Methode, die Wiederanreicherungsmethode und die Verarmungsmethode, die in der Literatur näher beschrieben werden [Hansen 2009].
310 | Helmut Ermert, Christian Hansen
Bolus: Intravenöse Schnellinjektion eines Kontrastmittels. So entsteht ein mit Kontrastmittel angereicherter Abschnitt im Blut.
8.7.4 Hochfrequenz-Ultraschall Die räumliche Auflösung bei der Ultraschallabbildung kann durch eine Erhöhung der Mittenfrequenz und der Bandbreite der verwendeten Ultraschallsignale gegenüber den allgemein üblichen Frequenzen beträchtlich gesteigert werden [Foster et al. 2000, Vogt et al. 2010]. Allerdings verringert sich die Reichweite der Abbildungssysteme wegen der mit der Frequenz ansteigenden Dämpfung des Ultraschalls im biologischen Gewebe (siehe Gl. (8.30)) bei hohen Frequenzen erheblich. Hochfrequenz-Ultraschall-Systeme sind erforderlich und können vorteilhaft (a) bei „nahen“ Objekten mit geringer Ausdehnung und (b) bei Objekten mit geringer akustischer Dämpfung eingesetzt werden. Zur Gruppe (a) gehören die Haut mit ihren pathologischen Veränderungen, Gefäßwände bei intravaskulärer Diagnostik sowie Schleimhäute innerer Organe bei der endoskopischen Anwendung von Ultraschall. Auch Kleintiere und Organe von Kleintieren (z. B. Mäuse), bei denen im Rahmen präklinischer Forschung hochfrequenter Ultraschall angewandt wird, gehören zu dieser Kategorie. Zur Gruppe (b) gehört das Auge. In der Dermatologie werden z. B. Ultraschallfrequenzen im Bereich von 20 bis 150 MHz verwendet [Ermert et al. 1997]. Da bei Frequenzen oberhalb von 30 MHz die Arraytechnologie noch nicht sehr hoch entwickelt ist, werden hier vielfach fokussierende Einzelwandler in mechanisch scannenden Systemen verwendet. Außerdem können wegen besonderer Anforderungen an die Verarbeitung der hochfrequenten mm 0,0
mm 1,0 0,0 20 MHz
0,2
1,0 100 MHz
0,2 0,8
0,4 0,6
0,6
0,6
0,8
0,8
1,0
0,4 1,0
1,2
0,8
0,4
0,6
0,4
1,2 0,2
1,4
0,2 1,4
1,6
0,0 1,6 0
2
4
6
8
10
12 mm
0,0 0
2
4
6
8
10
12 mm
Abb. 8.77: HF-Ultraschall: Aufnahme eines Hauttumors (malignes Melanom) bei verschiedenen Frequenzen.
8 Ultraschall
| 311
Abb. 8.78: Intravaskuläres Querschnittsbild einer Herzkranzarterie mit Ablagerung (siehe Pfeil). Momentaufnahme aus einer IVUSBildsequenz (System Boston Scientific Scimed Atlantis, 40 MHz).
Signale die universellen Standardgeräte der Ultraschalldiagnostik nicht verwendet werden. Als dermatologisches Beispiel ist in Abb. 8.77 ein malignes Melanom bei 20 und bei 100 MHz dargestellt [Gambichler et al. 2007]. Im Bereich der Ophthalmologie werden Geräte eingesetzt, deren Mittenfrequenz im Bereich von 20 bis 50 MHz liegt [Pavlin et al. 1995]. Diese Geräte bringen hervorragend aufgelöste Bilder des hinteren (20 MHz) und des vorderen Augenabschnittes (30. . . 50 MHz) hervor. Bei 100 MHz wurden bisher lediglich Aufnahmen mit Laborsystemen hergestellt [Passmann et al. 1996]. In der Endoskopie, die zur Gruppe (a) gehört, wird Objektnähe durch das Einführen des Wandlersystems in Körperhöhlen hergestellt. Hier liegen bei ultraschalldiagnostischen Systemen die Frequenzen im Bereich von 7 bis 40 MHz. Diesem Bereich ist auch die intravaskultäre Ultraschalldiagnostik zuzuordnen. Die heute im Einsatz befindlichen Ultraschallkatheter, die entweder mit rotierenden Wandlerelementen oder mit kleinen Ringarrays arbeiten und laterale Panoramabilder der Gefäßquerschnitte hervorbringen, verwenden Frequenzen im Bereich von 10. . . 40 MHz [Bom et al. 2000]. Ein Beispiel [Perrey et al. 2002] ist in Abb. 8.78 dargestellt. Intravaskuläre Ultraschallbildgebung („intravaskulärer Ultraschall“, IVUS): Form der sonographischen Bildgebung mittels spezieller Ultraschallkatheter für die Untersuchung von Blutgefäßen.
8.7.5 Sonohistologie Ziel der Gewebecharakterisierung mit Ultraschall („Sonohistologie“, „virtuelle Histologie“) ist die Gewinnung histologischer Informationen auf nicht invasivem Wege aus Ultraschall-Echosignalen und die Zuordnung daraus abgeleiteter Parameter zu
312 | Helmut Ermert, Christian Hansen den regulären Ultraschall-Schnittbildern. Dazu werden parallel zur Echtzeit-Bildgebung über eine spezielle Schnittstelle die hochfrequenten Ultraschall-Echodaten, aus denen im Ultraschallgerät die B-Bilder entstehen, erfasst und in einem Rechner separat verarbeitet. Eine Reihe von Signalparametern (Spektralparameter) und Bildparameter (Texturparameter) können aus den Hochfrequenzdaten gewonnen und einem Klassifikationssystem zugeführt werden. Ergebnisse sind u. a. sogenannte Malignitätskarten, die Schnittbildbereiche markieren, in denen das Gewebe mit hoher Wahrscheinlichkeit bösartig verändert ist. Histologische Abbildung: Gewinnung und Darstellung gewebetypischer Merkmale in medizinischen Bildern.
In Abb. 8.79 wird ein Beispiel aus einer klinischen Studie gezeigt, in der die Sonohistologie [Scheipers et al. 2008] bei der Diagnostik des Prostatakarzinoms erprobt wurde. Neben den üblichen, mit Rektalsonden gewonnenen Ultraschallbildern („B-Bilder“) wurden u. a. Malignitätskarten basierend auf dem Konzept der Sonohistologie berechnet und dargestellt. Die Sonohistologie wurde auch erfolgreich in der Hals-Nasen-Ohren-Heilkunde [Siebers et al. 2010] und in der Gefäßdiagnostik [Nair et al. 2001] angewandt.
8.7.6 Weitere Modalitäten Es soll hier auf weitere Modalitäten der bildgebenden Ultraschalldiagnostik hingewiesen werden, die zum größten Teil aber noch nicht Einzug in die medizinische Praxis gehalten haben und Gegenstand von Forschung und Entwicklung sind. – Transmissionsultraschall: Die Domäne der diagnostischen Ultraschallbildgebung ist die Echo-Sonographie. Es gibt aber auch einige Anwendungen, bei denen die Transmission des Ultraschalls durch biologisches Gewebe genutzt wird. Dazu zählen die Ultraschall-Transmissions-Tomographie, die eine Rekonstruktion der Dämpfung und der Schallgeschwindigkeit in biologischem Gewebe gestattet und häufig mit der Echo-CT kombiniert wird [Hansen 2009], die Messung der Ultraschalldämpfung im Knochen zur Osteoporose-Diagnostik [Bauer et al. 1997, Laugier et al. 2000, Barkmann et al. 2007] sowie quasioptische Abbildungssyste-
PCa Abb. 8.79: B-Bild (links), Sono-Histologie (Mitte) und Histologie (rechts) einer Prostata mit Karzinom.
8 Ultraschall
–
–
|
313
me („Ultraschall-Kamera“) zur akustischen „Durchleuchtung“ von Körperteilen, Organen und Kleinkindern [Ermert et al. 2000]. Multimodale Konzepte (Multimodale Bildgebung): Die Kombination verschiedener Bildgebungsverfahren ist vorteilhaft, wenn sich die gewonnenen diagnostischen Informationen in Richtung einer sichereren Diagnostik ergänzen. Im engeren Sinne können die Kombination der B-Bild-Technik mit der DopplerBildgebung oder mit der Elastographie als multimodal bezeichnet werden. Im weiteren Sinne wird Multimodalität aber allgemein als Kombination verschiedener Bildgebungsarten wie z. B. Ultraschall und Röntgenbildgebung, MRT oder optoakustischer Verfahren [Niederhauser et al. 2005] verstanden. Hybride Verfahren sind Verfahren, bei denen verschiedene Konzepte nicht nur einfach kombiniert werden, sondern bei denen eine Wechselwirkung zwischen verschiedenen Wellen, Strahlen, Kräften und Feldern genutzt wird. Dazu zählt im engeren Sinne die Ultraschall-Elastographie, da hier die Wechselwirkung des Ultraschalls mit mechanischen Verformungsvorgängen genutzt wird. Im weiteren Sinne gehören die photo-akustische Bildgebung und die akusto-optische Bildgebung in diese Kategorie, weil hier Wechselwirkungen von Schall und Licht für die Bildgebung genutzt werden [Wang 2003, Xu et al. 2006].
Hybride Abbildung: Abbildung, bei der mehrere unterschiedliche Strahlungs- oder Wellenarten, die auch in Wechselwirkung miteinander stehen können, genutzt werden (z. B. photo-akustische Bildgebung).
8.8 Physikalische Effekte, biologische Wirkungen, Grenzwerte 8.8.1 Physikalische Effekte Beim Ultraschall handelt es sich um mechanische Wellen, die das biologische Gewebe wegen der auftretenden Absorption thermisch und wegen der lokalen und transienten Druckschwankungen und Bewegungsvorgänge mechanisch belasten können. Aus diesem Grunde sind diese beiden Belastungsarten zu unterscheiden und auf mögliche schädigende Einwirkungen auf das Gewebe zu untersuchen. Bei der Definition von Betriebsparametern, welche die thermische und mechanische Belastung des biologischen Gewebes beschreiben, sind neben den Ultraschallfrequenzen die Kenngrößen des Pulsbetriebs und des Scanbetriebs sowie der Fokussierungsgrad der Schallwandler zu beachten. Zur Bewertung möglicher Gefährdungen [Duck 2008, ter Haar 2010] ist neben einem Kennwert für die Schallintensitäten, aus denen sich Erwärmungseffekte im Gewebe ableiten lassen, auch ein Kennwert, der für mechanische Wirkungen, insbesondere Kavitationsbildung, verantwortlich ist, definiert worden. Zur Abschätzung
314 | Helmut Ermert, Christian Hansen thermischer Wirkungen dient der zeitlich gemittelte räumliche Spitzenwert (spatial peak temporal average) der Leistungsdichte SSPTA . [Begriff 3.62 in IEC 62127-1, 2007]. Zur Abschätzung möglicher mechanischer Schädigungen auf das biologische Gewebe dient der mechanische Index MI gemäß Gl. (8.19), in den der Spitzenwert der negativen Druckamplituden p̂ neg und die Ultraschallfrequenz eingehen. In einer Studie [Henderson et al. 1995] wurden die Betriebswerte typischer Ultraschallgeräte ermittelt und zusammengestellt (siehe Tab. 8.8). Bei den mechanischen Effekten, die ein Gefährdungspotential bilden, ist es insbesondere das Auftreten von Kavitation [Kuttruff 1988, Leighton 1998], das zu Gewebeschäden und Blutungen führen kann. Man unterscheidet zwei Arten von Kavitation: – Weiche Kavitation: In fluiden Medien können Gase in gelöster Form vorhanden sein. Bei einer transienten Druckverminderung entstehen Gasblasen, wie sie z. B. durch den Druckverlust beim Öffnen einer Mineralwasserflasche entstehen. – Harte Kavitation: tritt in völlig entgasten und gereinigten Flüssigkeiten auf. Da die Siedetemperatur von Flüssigkeiten druckabhängig ist, können bei der transienten Druckabnahme in den Sogphasen eines Ultraschallwellenfeldes Verdampfungseffekte auftreten, es entstehen Dampfblasen, die in den Druckphasen wieder implodieren. Begleiterscheinungen sind hohe Drücke mit Schallemission (bis 100 MPa), hohe Temperaturen (bis 1000°C), zusätzliche Absorption sowie Sonolumineszenz und sonochemische Reaktionen. Der Pegel für das Auftreten von Kavitation ist frequenzabhängig. Die Schwellwerte für das Auftreten von Kavitation wachsen mit steigender Frequenz, steigendem statischen Druck und mit dem Grad der Viskosität eines fluiden Mediums, sie sinken mit steigendem Gasgehalt und steigender Temperatur. Für Wasser gibt es Abschätzungen zum Schwellwert für das Auftreten von Kavitation [Kuttruff 1988], siehe Abb. 8.80. Im biologischen Gewebe tritt Kavitation bevorzugt an Grenzschichten zwischen Materialien unterschiedlicher Konsistenz auf, insbesondere an Grenzschichten zwischen gasgefüllten Arealen und Weichgewebe. Ein Schwellwert lässt sich wegen der Komplexität der Gewebestrukturen und ihrer Grenzbereiche nicht angeben. Tab. 8.8: Betriebsdaten von Ultraschallgeräten in verschiedenen Betriebsarten. Betriebsart
Negative Druckamplitude p (Spitzenwert) in MPa
ISPTA (Maximalwert) in mW/cm2
Akustische Gesamtleistung Ptot in mW
(T)M-Modus B-Modus Puls-Doppler Farb-Doppler
0,45 ... 0,45 ... 0,67 ... 0,46 ...
11,2 ... 0,3 ... 173 ... 21 ...
1 ... 0,3 ... 10 ... 15 ...
5,54 5,54 5,32 4,25
430 991 9080 2050
68 285 440 440
8 Ultraschall
|
315
negativer Druck in Pa
10⁸
10⁷
10⁶
10⁵
10⁴ 10³
10⁴
10⁵ 10⁶ Frequenz in Hz
10⁷
Abb. 8.80: Schwellwerte für das Auftreten von Kavitation in Wasser.
Kavitation: Bildung von stabilen oder transienten Hohlräumen in fluiden Medien durch die Einwirkung akustischer Wellenfelder.
8.8.2 Biologische Wirkungen Bei den Untersuchungen über mögliche biologische Wirkungen und Schädigungen durch die Einwirkung von Ultraschall sind folgende Möglichkeiten berücksichtigt worden: Verbrennungen, thermische Nekrosen, physiologische Irritationen, Zerstörung von Zellgewebe, Zerstörung kleiner Organe (Embryos), Schädigung des Erbgutes, Mutagenese, Karzinogenese und Teratogenese (siehe unten), wobei neben den möglichen, bekannten Ursachen (Wärmebildung und Kavitation) auch noch unbekannte Ursachen nicht ausgeschlossen werden können. Für die Schädigung durch Ultraschall gilt prinzipiell: – „Schwellencharakter“, d. h., unterhalb bestimmter Schwellen (abhängig von Amplitude, Dauer etc.) treten keine Schädigungen auf. – keine Integrationseffekte wie bei ionisierenden Strahlen. Mögliche Schädigungsarten sind: – Mutagenese (Erzeugung von Mutationen, z. B. in Keimzellen) entsteht normalerweise spontan oder aber durch ionisierende Strahlung oder durch Chemikalien. Die Ursachen von Karzinogenese (Erzeugung von Krebs) sind vielfältig. Nach jahrzehntelangen, intensiven Untersuchungen im Bereich des diagnostischen Ultraschalls bei verschiedenen Intensitäten gibt es keine Hinweise auf Mutationen im Gewebe (Säugetiere) und auf die Bildung von Malignomen (bösartige Geschwülste).
316 | Helmut Ermert, Christian Hansen –
–
Mit Teratogenese bezeichnet man das Auftreten von Zellteilungshemmung, die z. B. zur Erzeugung von Missbildungen bei Embryos führen kann. Bei Hyperthermie (Übererwärmung) ist Teratogenese prinzipiell möglich. Bei Erwärmungen auf Temperaturen von < 38,5°C besteht kein teratogenes Risiko. Bei Temperaturen > 41°C ist ein solches Risiko vorhanden, wobei Fieber als ein zusätzlicher Risikofaktor angesehen wird. Die Möglichkeit der Schädigung des Gewebes in Form thermischer Nekrosen (Absterben des Gewebes) oder durch Einblutungen infolge Kavitation ist bei therapeutischen Ultraschallpegeln wesentlich größer als bei der Anwendung diagnostischer Systeme. Die dauerhafte Schädigung (Nekrosen) wird bei der therapeutischen Anwendung von Ultraschall bewusst herbeigeführt. Die Gefährlichkeit vorübergehender Schädigungen wie z. B. Einblutungen ist umstritten, sie wird bei der therapeutischen Anwendung von Stoßwellen für Zwecke der Lithotripsie (Steinzertrümmerung) in Kauf genommen.
8.8.3 Grenzwerte Für die thermische Wirkung des Ultraschalls wäre es eigentlich sinnvoll, Temperaturgrenzwerte festzulegen. Da Temperaturerhöhungen aber nicht zuverlässig bestimmt werden können, werden die Leistungsdichtewerte des Ultraschallwellenfeldes benutzt. Es gibt eine Aussage der Weltgesundheitsorganisation (WHO) von 1977, wonach es im unteren Megahertzbereich (< 5 MHz) keine von unabhängigen Stellen bestätigten, signifikanten Effekte in biologischem Gewebe von Säugetieren gibt, das einer unfokussierten In-vivo-Beschallung von Ultraschall mit Intensitäten unterhalb von 100 mW/cm2 ausgesetzt wird. Darüber hinaus sollen auch bei fokussiertem Ultraschall mit höheren Intensitäten entsprechende Effekte nicht nachweisbar sein, wenn die Einwirkungsdauer des Ultraschalls zwischen 1 Sekunde und 500 Sekunden liegt und das Produkt aus Intensität und Einwirkungsdauer kleiner als 50 Ws/cm2 ist [Hill, 1977]. Diese Zusammenhänge sind in Abb. 8.81 graphisch dargestellt. Es gibt eine Empfehlung [US Department of Health and Human Services 2008], wonach bei Ultraschalluntersuchungen Ultraschallwellen mit Druckamplituden unterhalb von 1 MPa eingesetzt werden sollen. Die Schallintensität J (räumliche Leistungsdichte) liegt hierbei unter 720 mW/cm2 . Dieser Wert wird in B-Bild-Systemen nicht erreicht. Er kann aber in Farb-Doppler-Systemen auftreten. Hier wird allerdings die Einhaltung des Grenzwertes durch die Steuersoftware der Geräte und eine geeignete Gestaltung der Bedienungskonsole sichergestellt [AIUM/NEMA 2004]. Nach Aussagen der Strahlenschutzkommission (SSK) der Bundesregierung können thermische Schäden bei Patienten ohne Fieber oberhalb einer lokalen Temperaturerhöhung von 2°C über der normalen Körpertemperatur von 37°C nicht ausgeschlossen werden. Für das embryonale oder fetale Gewebe empfiehlt die SSK einen
8 Ultraschall
100
möglicher Schädigungsbereich sicherer Bereich: Sz < 100 mW cm–2 oder Szt < 50 Ws cm–2
10 Sz/(W cm–2)
| 317
1
0,1
0,01 0
10
10² t/s
10³
1h
10⁴
Abb. 8.81: Definition sicherer und möglicherweise schädigender Betriebsbereiche von Ultraschallgeräten (Sz = Intensität, t = Einwirkungsdauer).
niedrigeren Wert. Beim Erwachsenen sind kurzfristige Überwärmungen oftmals harmlos. Beim Embryo dagegen können sie zu Fehlbildungen wie einem zu kleinem Gehirn führen [Bundesamt für Strahlenschutz, Salzgitter, http://www.bfs.de.] Der negative Spitzendruck [Begriff 3.44 in IEC 62127-1 MOD] ist ein Maß für die Kavitationsgefahr, die mit steigender Frequenz sinkt. Üblicherweise werden in der klinischen Anwendung maximale MI-Werte gemäß Gl. (8.19) von 1 bis 1,9 toleriert [US Department of Health and Human Services 2008]. Die Strahlenschutzkommission gibt als Grenzwerte für die negative Schalldruckamplitude allgemein einen Wert von 5 MPa und bei gashaltigem Gewebe 1 MPa (Lunge) bzw. 2 MPa (Darm) an. Die Grenzwerte und ihre experimentelle Überprüfung sind auch in einigen DIN/IEC-Normen festgelegt [u. a. IEC 60601-2-37 Ed. 1, 2001 und Ed. 2, 2007].
8.8.4 Qualitätsmanagement Bei der diagnostischen Anwendung von Ultraschall bedarf es eines angemessenen Qualitätsmanagements, das nicht nur die Geräte, sondern auch das Bedienungspersonal betrifft. Ziele dabei sind die Sicherung der Zuverlässigkeit der Diagnostik und die Einhaltung von Grenzwerten beim Betrieb der Geräte zum Schutze der Patienten. Deshalb spielen Ausbildung und Weiterbildung des Bedienpersonals beim Ultraschall eine besonders große Rolle. Weiterhin ist die regelmäßige Überprüfung der Geräte im Hinblick auf die Spezifikationen (Empfindlichkeit, Schallleistungen) für eine sichere Diagnostik ebenso wichtig wie für die Patientensicherheit, wozu UltraschallGewebephantome (Bildqualität, [Satrapa et al. 2002, 2006]) und Schall-Leistungsmesseinrichtungen (Sicherheit, [DIN EN 62359, 2011]) nützliche Hilfen bilden.
318 | Helmut Ermert, Christian Hansen
Phantom: auf eine bestimmte Bildgebungsmodalität zugeschnittene technische Nachbildung eines diagnostischen Objektes (Gewebe, Organ).
In den Bereichen Qualitätssicherung und Weiterbildung engagieren sich besonders die nationalen und internationalen Fachgesellschaften wie zum Beispiel die Deutsche Gesellschaft für Ultraschall in der Medizin (DEGUM). Sie stellen besondere ServiceAngebote bereit (http://www.degum.de/Qualitaetssicherung_III_Stufen.60.0.html, http://www.degum.de/Weiterbildung.61.0.html.)
Quellenverzeichnis Albrecht T., Blomley M., Bolondi L., Claudon M., Correas J. M., Cosgrove D., et al.: Guidelines for the use of contrast agents in ultrasound. Ultraschall in Med 2004; 25: 249–256. Barkmann R., Laugier P., Moser U., Dencks S., Padilla F., Haïat G., Heller M., Glüer C.-C.: A method for the estimation of femoral bone mineral density from variables of ultrasound transmission through the human femur. Bone 2007; 40 (1): 37–44. Bauer D. C., Glüer C. C., Cauley J. A., Vogt T. M., Ensrud K. E., Genant H. K., Black M. D.: Broadband ultrasound attenuation predicts fractures strongly and independently of densitometry in older women. A prospective study. Study of Osteoporotic Fractures Research Group. Arch Intern Med 1997; 157 (6): 629–634. Behm C. Z., Lindner J. R.: Cellular and molecular imaging with targeted contrast ultrasound. Ultrasound Q 2006; 22 (1): 67–72. Bercoff J., Tanter M., Fink M.: Supersonic shear imaging: a new technique for soft tissue elasticity mapping. IEEE Trans Ultrason Ferroelectr Freq Control 2004; 51 (4): 396–409. Berson M., Roncin A., Pourcelot L.: Compound scanning with an electrically steered beam. Ultrason Imaging 1981; 3: 303–308. Bogdahn U., Becker G., Schlachetzki G. (Hrsg.): Echoenhancers and transcranial color duplex sonography. 4. Aufl. Berlin u. a.: Blackwell Science, 1998. Bom N., Carlier S. G., van der Steen A. F. W., Lancee C. T.: Intravascular scanners. Ultrasound Med Biol 2000: 26 (1), S6–S9. Bouakaz A., Verslius M., de Jong N.: High-speed optical observations of contrast agent destruction. Ultras Med Biol 2005; 31 (3): 391–399. Burkhardt C.: Speckle in Ultrasound B-mode Scans. IEEE Trans Sonics Ultrason 1978; 25: 1–6. Buzug T. M.: Einführung in die Computertomographie. Berlin: Springer, 2004. Chapman C., Lazenby J.: Ultrasound imaging system employing phase inversion substraction to enhance the image. US Patent: No. 5.632.2777, 1997. Chaussy C., Brendel W., Schmiedt E.: Extracorporeally induces destruction of kidney stones by shock waves. Lancet 1980; 316: 1265–1258. Dausch D., Castellucci J., Chou D., von Ramm O.: Theory and operation of 2-D array piezoelectric micromachined ultrasound transducers. IEEE Transactions on Ultrasonics, Ferroelectrics and Frequency Control 2008; 55: 2484–2492. Duck F. A.: Physical properties of tissue. London: Academic Press, 1990. Duck F. A.: Hazards, risks and safety of diagnostic ultrasound. Medical Engineering and Physics 2008: 30: 1338–1348.
8 Ultraschall
| 319
Duric N., Littrup P., Poulo L., Babkin A., Pevzner R., Holsapple E., et al.: Detection of breast cancer with ultrasound tomography: first results with the computerized ultrasound risk evaluation (CURE) prototype. Med Phys 2007; 34 (2): 773–785. Duric N., Littrup P., Rama O., Holsapple E. T.: Computerized ultrasound risk evaluation (CURE): first clinical results. Acoustical Imaging 2007; 28: 177–185. Dussik K. T.: Über die Möglichkeit hochfrequente mechanische Schwingungen als diagnostische Hilfsmittel zu verwenden. Z Ges Neurol Psychat 1942; 174: 153–168. Eggert T., Khaled W., Wenske S., Ermert H., Noldus J.: Impact of elastography in clinical diagnosis of prostate cancer. A comparison of cancer detection between B-mode sonography and elastography-guided 10-core biopsies. Urologe 2008; 47 (9): 1212–1217. Einighammer H. J.: Ultrasonic rotational compound scans of the breast. Diagn Imag Clin Med 1985; 54: 223–228. Engelhardt M., Hansen C., Eyding J., Wilkening W., Brenke C., Krogias C., et al.: Feasibility of contrast-enhanced sonography during resection of cerebral tumours – initial results of a prospective study. Ultrasound Med Biol 2007; 33 (4): 571–575. Ermert H., Röhrlein G.: Ultrasound reflection-mode computerized tomography for in-vivo imaging of small organs. Proceedings: IEEE Intern Ultrason Symp 1986; 2: 825–828. Ermert H., Hiltawsky K. M., Khaled W., Lorenz A., Perrey C., Pesavento A., et al.: Prinicple, applications and limitations of ultrasound based elastography. Acoustical Imaging 2003; 27: 503–510. Ermert H., Vogt M., Paßmann C., el Gammal S., Kaspar K., Hoffmann K., Altmeyer P.: High frequency ultrasound (50–150 MHz) in dermatology. In: Altmeyer P., Hoffmann K., Stücker M. (Hrsg.): Skin cancer and UV radiation. Berlin, Heidelberg, New York: Springer, 1997: 1023–1051. Ermert H., Keitmann O., Oppelt R., Granz B., Pesavento A., Vester M., Tillig B., Sander V.: A new concept for a real-time ultrasound transmission camera. IEEE 2000 Ultrasonics Symposium Proceedings 2000; 2: 1611–1614. Ferrara K., Pollard R., Borden M.: Ultrasound microbubble contrast agents: fundamentals and application to gene and drug delivery. Annu Rev Biomed Eng 2007; 9: 415–447. Fettweis A.: Elemente nachrichtentechnischer Systeme. 2. Aufl. Stuttgart: BG Teubner, 1996. Foster F. S., Pavlin C. J., Harasiewicz K. A., Christopher D. A., Turnbull D. H.: Advances in ultrasound biomicroscopy. Ultrasound Med Biol 2000; 26 (1): 1–27. Gambichler T., Moussa G., Bahrenberg K., Vogt M., Ermert H., Weyhe D., et al.: Preoperative ultrasonic assessment of thin melanocytic skin lesions using a 100-MHz ultrasound transducer: a comparative study. Dermatol Surg 2007; 33 (7): 818–824. Geier B., Barbera L., Muth-Werthmann D., Siebers S., Ermert H., Philippou S., Mumme A.: Ultrasound elastography for the age determination of venous thrombi. Evaluation in an animal model of venous thrombosis. Thromb Haemost 2005; 93 (2): 368–374. Gill T. P.: The Doppler-effect: An introduction to the theory of the effect. London: Logos-Press, 1965. Glide C., Duric N., Littrup P.: A novel approach to evaluating breast density utilizing ultrasound tomography. Med Phys 2007; 34 (2): 744–753. Goldberg G. G., Raichlen J. S., Forsberg F.: Ultrasound contrast agents: basic principles and clinical applications. 2. Aufl. London: Martin Dunitz, 2001. Halliwell M., Curtis S.: Ultrasound breast imaging: a 3-dimensional approach, work-in-process. Toshiba Medical Systems: Visions 2008; 12: 67–75. Hansen C., Hollenhorst M., Hüttebräuker N., Wilkening W., Heuser L., Schulte-Altedorneburg G., Ermert H.: Ultrasound breast imaging using full angle spatial compounding: in-vivo results. Proceedings: IEEE Intern Ultrason Symp 2008; 54–57. Hansen C.: Kontrastmittelspezifische Ultraschall-Computertomographie. Dissertation RuhrUniversität Bochum, 2009.
320 | Helmut Ermert, Christian Hansen Hansen C., Hüttebräuker N., Wilkening W., Ermert H.: A method to expedite data acquisition for multiple spatial-temporal analyses of tissue perfusion by contrast-enhanced ultrasound. IEEE Transactions on Ultrasonics, Ferroelectrics and Frequency Control 2009; 56: 507–519. Henderson J., Willson K., Jago J. R., Whittingham T. A.: A survey of the acoustic outputs of diagnostic ultrasound equipment in current clinical use. Ultrasound Med Biol 1995; 21 (5): 699–705. Hill C. R.: Manual on health aspects exposure to non ionizing radiation. Chapter: Ultrasound. WHO Regional Office for Europe, 1977. Hiller D., Ermert H.: Tomographic reconstruction of B-scan images. Acoustical Imaging 1982; 10: 347–364. Hiller D., Ermert H.: Ultrasound computerized tomography using transmission and reflection mode: application to medical diagnosis. Acoustical Imaging 1982; 12: 553–562. Hiltawsky K. M.: Analyse und Optimierung von Abbildungseigenschaften der UltraschallElastographie. Dissertation Ruhr-Universität Bochum, 2005. Hiltawsky K. M., Krüger M., Starke C., Heuser L., Ermert H., Jensen A.: Freehand ultrasound elastography of breast lesions: clinical results. Ultrasound in Med & Biol 2001; 27 (11): 1461–1469. Hofer M.: Sono Grundkurs: Ein Arbeitsbuch für den Einstieg. 4. Aufl. Stuttgart: Georg Thieme Verlag, 2002. Hohmann J., Albrecht T., Hoffmann C. W., Wolf K. J.: Ultrasonographic detection of focal liver lesions: increased sensitivity and specificity with microbubble contrast agents. Eur J Radiol 2003; 46 (2): 147–159. Hollenhorst M., Hansen C., Hüttebräuker N., Schasse A., Heuser L., Ermert H., SchulteAltedorneburg G.: Ultrasound computed tomography in breast imaging: first clinical results of a custom-made scanner. Ultraschall Med 2010; 31 (6): 604–609. Epub 7.7.2010. Hope Simpson D., Chin C., Burns P.: Pulse inversion Doppler: a new method for detecting nonlinear echoes from microbubble contrast agents. IEEE Trans Ultrason Ferroelect Freq Contr 1999; 46 (2): 372–382. Hoskins P. R., Anderson T., Meagher S., MacGillivray T. J., Sharp M., McDicken W. N.: B-mode compound imaging in mice. Ultrasound Med Biol 2006; 32 (1): 29–32. Howry D., Bliss W.: Ultrasonic visualization of soft tissue structures of the body. J Lab Clin Med 1952; 40 (4): 579–592. Jago J.: An automated method for determining the centre of rotation of a mechanically scanned reflection UCT system. Phys Med Biol 1994; 39: 2367–2371. Jiang P., Mao Z., Lazenby J. C.: A new tissue harmonic imaging scheme with better fundamental frequency cancellation and higher signal-to-noise ratio. IEEE International Ultrasonics Symposium Proceedings 1998; 2: 1589–1594. Kalender W. A.: Computertomographie: Grundlagen, Gerätetechnologie, Bildqualität, Anwendungen. 2. Aufl. Erlangen: Public Corporate Publishing, 2006. Kasai C., Namekawa K., Koyano A., Omoto R.: Real-time two-dimensional blood flow imaging using an autocorrelation technique. IEEE Transactions on Sonics and Ultrasonics 1985; 32: 458–464. Kennedy J. E., ter Haar G. R., Cranston D.: High intensity focused ultrasound: surgery of the future? British Journal of Radiology 2003; 76: 590–599. Khaled W., Reichling S., Bruhns O. T., Ermert H.: Ultrasonic strain imaging and reconstructive elastography for biological tissue. Ultrasonics 2006; 44: E199–E202. König K., Scheipers U., Pesavento A., Lorenz A., Ermert H., Senge T.: Initial experiences with real-time elastography guided biopsies of the prostate. J Urol 2005; 174 (1): 115–117. Kremkau F. W.: Cancer therapy with ultrasound: a historical review. J Clin Ultrasound 1979; 7: 287–300.
8 Ultraschall
| 321
Lang M., Ermert H.: Linear synthetic aperture modes for ultrasonic pulse-echo imaging. Biomedizinische Technik 1997; 42 (5): 108–115. Laugier P., Padilla F., Camus E., Chaffai S., Chappard C., Peyrin F., Talmant M., Berger G.: Quantitative ultrasound for bone status assessment. Ultrasonics Symposium 2000 IEEE; 2 (2): 1341–1350. Lehmann T., Oberschelp W., Pelikan E., Repges R.: Bildverarbeitung für die Medizin. Berlin: Springer, 1997. Leighton T. G.: An introduction to acoustic cavitation. In: Duck F. A., Baker A. C., Starritt H. C. (Hrsg.): Ultrasound in medicine. Bristol: Institute of Physics Publishing, 1998: 199–233. Lindner J. R.: Microbubbles in medical imaging: current applications and future directions. Nat Rev Drug Discov 2004; 3 (6): 527–532. Nair A., Kuban B. D., Obuchowski N., Vince D. G.: Assessing spectral algorithms to predict atherosclerotic plaque composition with normalized and raw intravascular ultrasound data. Ultrasound Med Biol 2001; 27 (10): 1319–1331. Neumann T., Ermert H.: Schlieren visualization of ultrasonic wave fields with high spatial resolution. Ultrasonics 2006; 44 (Suppl 1): e1561–1566. Epub 15.6.2006. Niederhauser J. J., Jaeger M., Lemor R., Weber P., Frenz M.: Combined ultrasound and optoacoustic system for real-time high-contrast vascular imaging in vivo. IEEE Trans Med Imaging 2005; 24 (4): 436–440. Nightingale K., Soo M. S., Nightingale R., Trahey G.: Acoustic radiation force impulse imaging: in vivo demonstration of clinical feasibility. Ultrasound Med Biol 2002; 28 (2): 227–235. Ophir J., Alam S. K., Garra B., Kallel F., Konofagou E., Krouskop T., Varghese T.: Elastography: ultrasonic estimation and imaging of the elastic properties of tissues. Proc Inst Mech Eng H 1999; 213 (3): 203–233. Opretzka J., Vogt M., Ermert H.: A high-frequency ultrasound imaging system combining limited-angle spatial compounding and model-based synthetic aperture focusing. IEEE Trans Ultrason Ferroelectr Freq Control 2011; 58 (7): 1355–1365. Paßmann C., Ermert H.: A 100 MHz ultrasound imaging system for dermatologic and ophthalmologic diagnostics. IEEE Trans Ultras Ferr Freq Contr 1996; 43 (4): 545–552. Pavlin C. J., Foster F. S.: Ultrasound biomicroscopy of the eye. New York: Springer, 1995. Perrey C., Neumann T., Bojara W., Holt S., Ermert H.: Real time intravascular ultrasound elastography with rotating single element transducers. IEEE Ultrasonics Symposium Proceedings 2002; 2: 1913–1916. Pesavento A., Lorenz A., Ermert H.: System for real-time elastography. Electronics Letters 1999; 35 (11): 941–942. Pesavento A., Lorenz A., Siebers S., Ermert H.: New real-time strain imaging concepts using diagnostic ultrasound. Phys Med Biol 2000; 45: 1423–1435. Pitt W. G., Husseini G. A., Staples B. J.: Ultrasonic drug delivery – a general review. Expert Opin Drug Deliv 2004; 1 (1): 37–56. Postema M., Schmitz G.: Bubble dynamics involved in ultrasonic imaging. Expert Rev Mol Diagn 2006; 6 (3): 493–502. Randal J.: High Intensity focused ultrasound makes its debut. Nat Cancer Inst 2002; 94: 962–964. Rao N., Mehra S.: Medical ultrasound imaging using pulse compression. Electronics Letters 1993; 29: 649–651. Röhrlein G., Ermert H.: Limited angle reflection mode computerized tomography. Acoustical Imaging 1985; 14: 413–424. Röhrlein G., Ermert H.: Speckle in ultrasound computerized reflection mode tomography. Acoustical Imaging 1987; 15: 341–357.
322 | Helmut Ermert, Christian Hansen Rychak J. J., Graba J., Cheung A. M., Mystry B. S., Lindner J. R., Kerbel R. S., Foster F. S.: Microultrasound molecular imaging of vascular endothelial growth factor receptor 2 in a mouse model of tumor angiogenesis. Mol Imaging 2007; 6 (5): 289–296. Satomura S.: Ultrasonic Doppler method for the inspection of cardiac functions. J Acoust Soc Am 1957; 29: 1181–1185. Satrapa J., Doblhoff G., Schultz H. J.: Automatisierte Qualitätsprüfung von diagnostischen Ultraschallgeräten. Ultraschall in Med 2002; 23: 123–128. Satrapa J., Schultz H.-J., Doblhoff G.: Automatisierte Qualitätskontrolle von Ultraschall-B-Mode-Scanner in Kliniken und Praxen mithilfe von gewebeäquivalentem 3D-Zystenphantom.Ultraschall in Med 2006; 27: 262–272. Scheipers U., König K., Sommerfeld H. J., Garcia-Schürmann M., Senge T., Ermert H.: Sonohistology – ultrasonic tissue characterization for prostate cancer diagnostics. Cancer Biomark 2008; 4 (4–5): 227–250. Schmitz G., Ermert H., Senge T.: Tissue-characterization of the prostate using radio frequency ultrasonic signals. IEEE Trans Ultrason Ferroelectr Freq Control 1999; 46 (1): 126–138. Shankar P. M., Newhouse V. L.: Specificity and sensitivity of lesion detection by spatial compounding of B-mode images. Proceedings: IEEE Intern Ultrason Symp 1984; 2: 739–742. Shipley J. A., Duck F. A., Goddard D. A., Hillman M. R., Halliwell M., Jones M. G., Thomas B. T.: Automated quantitative volumetric breast ultrasound data-acqusition system. Ultrasound Med Biol 2005; 31 (7): 905–917. Siebers S., Zenk J., Bozzato A., Klintworth N., Iro H., Ermert H.: Computer aided diagnosis of parotid gland lesions using ultrasonic multi-feature tissue characterization. Ultrasound Med Biol 2010; 36 (9): 1525–1534. Siebers S., Scheipers U., Welp C., Werner J., Ermert H.: Ultrasound based methods for monitoring of thermal therapies. In: Arnold W (Hrsg.): Acoustical Imaging, Vol. 27. New York: Kluwer Academic/Plenum Publisher, 2003: 643–650. Sobotta J.: Atlas der Anatomie des Menschen. 21. Aufl. München: Elsevier (Urban & Fischer), 2002. Sommerfeld H. J., Garcia-Schurmann J. M., Schewe J., Kuhne K., Cubick F., Berges RR., et al.: Prostate cancer diagnosis using ultrasound elastography. Introduction of a novel technique and first clinical results. Urologe A 2003; 42 (7): 941–945. ter Haar G., Duck F. A. (Hrsg.): The safe use of ultrasound in medical diagnosis. London: British Institute of Radiology, 2000. ter Haar G.: Ultrasound bioeffects and safety. Proc Inst Mech Eng H 2010; 224 (2): 363–373. Trahey G. E., Smith S., Ramm O.: Speckle pattern correlation with lateral aperture translation: experimental results and implications for spatial compounding. IEEE Trans Ultrason Ferroelect Freq Contr 1986; 33 (3): 257–264. Treece G. M., Gee A. H., Prager R. W.: Ultrasound compounding with automatic attenuation compensation using paired angle scans. Ultrasound Med Biol 2007; 33 (4): 630–642. Vogt M., Ermert H.: Development and evaluation of a high-frequency ultrasound-based system for in vivo strain imaging of the skin. IEEE Trans Ultrason Ferroelectr Freq Control 2005; 52 (3): 375–385. Vogt M., Opretzka J., Perrey C., Ermert H.: Ultrasonic microscanning. Proceedings of the Institution of Mechanical Engineers Part H – Journal of Engineering In Medicine 2010; 224 (H2): 225–240. Voigt J. U.: Ultrasound molecular imaging. Methods 2009; 48 (2): 92–97. Epub 24.3.2009. Wagner R. F., Smith S. W., Sandrik J. M., Lopez H.: Statistics of speckle in ultrasound B-scans. IEEE Trans Sonics Ultrason 1983; 30 (3): 156–163. Wang L. V.: Ultrasound-mediated biophotonic imaging: a review of acousto-optical tomography and photo-acoustic tomography. Dis Markers 2003–2004; 19 (2–3): 123–138. Wei K.: Future applications of contrast ultrasound. J Cardiovasc Ultrasound 2011; 19 (3): 107–114.
8 Ultraschall
| 323
Wilbert D. M., Reichenberger H., Noske E., Hohenfellner R.: New generation shock wave lithotripsy. The Journal of Urology 1987; 138: 563–565. Wilbert D. M.: A comparative study of extracorporeal shock wave generation. BJU International 2002; 90: 507–511. Wild J. J.: The use of ultrasonic pulses for the measurement of biologic tissues and the detection of tissue density changes. Surgery 1950; 27 (2): 183–188. Wöhrle N. K., Hellerhoff K., Notohamiprodjo M., Reiser M. F., Clevert D. A.: Automated breast volume scanner (ABVS): a new approach for breast imaging. Radiologe 2010; 50 (11): 973–981. Xu M. W., Lihong V.: Photoacoustic imaging in biomedicine. Review of Scientific Instruments 2006; 77 (4): 041101–041122. Xu S., Ermert H.: Modelle zur Beschreibung der Ultraschallstreuung in Blut. Biomedizinische Technik 1997; 42 (5): 123–131. Xu S.: Zweidimensional Abbildungsverfahren zur quantitativen Rekonstruktion der Blutströmungsgeschwindigkeit mittels Ultraschall-Doppler-Technik in der medizinischen Diagnostik. Düsseldorf: VDE-Verlag, Reihe 17 (Biotechnik), Nr. 122, 1995.
Weiterführende Literatur AIUMINEMA UD3: Standard for real-time display of thermal and mechanical acoustic output indices on diagnostic ultrasound equipment. UD 3-2004 rev. 2. American Institute for Ultrasound in Medicine I National EIectrical Manufacturers Association, USA, 2004. Angelsen B. A. J.: Ultrasound imaging. Vol. I. + vol. 2. Trondheim: Emantec AS., 2000/2001. Azhari H.: Basics of biomedical ultrasound for engineers. Hoboken: John Wiley & Sons, 2010. Bundesamt für Strahlenschutz, Salzgitter. http://www.bfs.de/de/ion/medizin/diagnostik/alternative_schnittbildverfahren/sono.html. Zugriff: 1.4.2010. Cobbold R. S. C.: Foundations of biomedical ultrasound. Oxford: Oxford University Press, 2007. DIN EN 61161: 2011–11 Ultraschall – Leistungsmessung – Schallfeldkraft-Waagen und Anforderungen an ihre Funktionseigenschaften (IEC 87/483/CDV: 2011); Deutsche Fassung FprEN 61161: 2011. DIN EN 62359: 2011–11 Ultraschall – Charakterisierung von Feldern – Prüfverfahren für die Ermittlung des thermischen und des mechanischen Indexes bezogen auf medizinische Ultraschalldiagnostikfelder (IEC 62359: 2010 + Cor.: 2011); Deutsche Fassung EN 62359: 2011. Dössel O.: Bildgebende Verfahren in der Medizin: Von Technik zur Anwendung. Berlin: Springer, 1999. Empfehlungen zur Patientensicherheit bei Anwendungen der Ultraschalldiagnostik in der Medizin (Empfehlung der Strahlenschutzkommission einschließlich wissenschaftlicher Begründung). Berichte der Strahlenschutzkommission 1998; Heft 14. Empfehlungen zur Patientensicherheit bei Anwendungen der Ultraschalldiagnostik in der Medizin (Empfehlung der Strahlenschutzkommission, Verabschiedet auf der 150. Sitzung der SSK am 11./12.12.1997). Veröffentlicht im BAnz Nr. 145a vom 7.8.1998. European Communities: Council Directive 931421 EEC of 14 June 1993 concerning medical devices. Official Journal of the European Communities 1993; 169: 12.7.1993. Haerten R., Mück M.: Doppler- und Farbdoppler-Sonographie. Erlangen: Siemens, 1992. Hamilton M. F., Blackstock D. T.: Nonlinear acoustics. San Diego: Academic Press, 1998. Hill C. R., Bamber J. C., ter Haar G. R.: Physical principles of medical ultrasonics. 2. Aufl. Chichester: John Wiley, 2004.
324 | Helmut Ermert, Christian Hansen Hoskins P., Martin K., Thrush A. (Hrsg.): Diagnostic ultrasound – physics and equipment. Cambridge: Cambridge University Press, 2010. IEC 60601-2-37, Medical electrical equipment – Part 2-37: Particular requirements for the basic safely and essential performance of ultrasonic medical diagnostic and monitoring equipment, EN 60601-2–37. IEC 61157, Standard means for the reporting of the acoustic output of medical diagnostic ultrasonic equipment, EN 61157, 2007. IEC 61161, Ultrasonics – Power measurement – Radiation force balances and performance requirements, EN 61 161, 2007. IEC 61828, Ultrasonics – Focusing transducers – Definitions and measurement methods for the transmitted fields, EN 61828, 2001. IEC 62127-1, Ultrasonics – Hydrophones – Part 1: Measurement and characterization of medical ultrasonic fields up to 40 MHz, EN 62127-1, 2007. IEC 62127-2, Ultrasonics – Hydrophones – Part 2: Calibration of hydrophones to be used in ultrasonic fields up to 40 MHz, EN 62127-2, 2007. IEC 62127-3, Ultrasonics – Hydrophones – Part 3: Properties of hydrophones for ultrasonic fields up to 40 MHz, EN 62127-3, 2007. IEC 62306, Ultrasonics – Field characterization – Test objects for determining temperature elevation in medical diagnostic ultrasonic fields. Geneva: International Electrotechnical Commission, 2005. IEC 62359, Ultrasonics – Field characterization – Test methods for the determination of thermal and mechanical indices related to medical diagnostic ultrasonic fields. Geneva: International Electrotechnical Commission, 2005. Jensen J. A.: Estimation of blood velocities using ultrasound. A signal processing approach. Cambridge: Cambridge University Press, 1996. Kremkau F. W.: Sonography principles and instruments. St. Louis: Elsevier Saunders, 2011. Krestel E. (Hrsg.): Bildgebende Systeme für die medizinische Diagnostik. Berlin: Siemens AG, 1988. Kuttruff H.: Physik und Technik des Ultraschalls. Stuttgart: S. Hirzel Verlag, 1988. Lerch R., Sessler G., Wolf D.: Technische Akustik. Berin: Springer-Verlag, 2009. Macovski A.: Medical imaging systems. Englewood Cliffs: Prentice-Hall, 1983. Meyer E., Neumann E. G.: Physikalische und Technische Akustik. 3. Aufl. Braunschweig: Vieweg, 1979. Millner R. (Hrsg.): Ultraschalltechnik. Weinheim: Physik Verlag, 1987. Morneburg H. (Hrsg.): Bildgebende Systeme für die medizinische Diagnostik. Erlangen: Publicis MCD Verlag, 1995. Oppelt A. (Hrsg.): Imaging systems for medical diagnostics. Erlangen: Publicis Corp. Publ., 2005. Pierce A. D.: Acoustics: an introduction to its physical principles and applications. New York: Acoustical Society of America, 1989. Shung K. K., Smith M. B., Tsui B.: Principles of medical imaging. San Diego: Academic Press, 1992. Shung K. K: Diagnostic ultrasound, imaging and blood flow measurements. Boca Raton: Taylor & Francis Group, 2006. Sicherheitsaspekte der Sonographie/Sachverständigenanhörung der Strahlenschutzkommission, 2./3. März 1995). Veröffentlichungen der Strahlenschutzkommission 1998; Band 35. Stenzel H., Brosze O.: Leitfaden zur Berechnung von Schallvorgängen. Berlin: Springer, 1958. Suslick K. S. (Hrsg.): Ultrasound – its chemical, physical, and biological effects. New York: VCH Publishers, 1988. Sutilov V. A.: Physik des Ultraschalls – Grundlagen. Wien: Springer, 1984. Szabo T. L.: Diagnostic ultrasound imaging – inside out. Amsterdam: Elsevier Inc, 2004.
8 Ultraschall
| 325
US Department of Health and Human Services, Food and Drug Administration, Center for Devices and Radiological Health: Guidance for Industry and FDA Staff: Information for Manufacturers Seeking Marketing Clearance of Diagnostic Ultrasound Systems and Transducers. Silver Spring, 2008. www.fda.gov, document ucm070911.pdf. Zugriff: 1.4.2010. Webb S. (Hrsg.): The physics of medical imaging. Bristol: IOP Publishing Ltd, 1988. Wells P. N. T.: Biomedical ultrasonics. London: Academic Press, 1977. Wells P. N. T. (Hrsg.): Special issue on ultrasonic imaging and therapy. Journal of Engineering in Medicine 2010; 224 (H2): 127–391.
326 | Helmut Ermert, Christian Hansen
Testfragen 1. Welche Art von Schallwellen kann sich in einem idealen fluiden Medium ausbreiten (nur Longitudinalwellen, nur Scherwellen, beide?)? 2. In welchem der genannten Frequenzbereiche (20...1000 kHz, 1...100 MHz, 0,1...1 GHz) wird der diagnostische Ultraschall betrieben? 3. In welchem der genannten Bereiche (1...50 μm, 50...1000 μm, 10...100 mm) liegen die Wellenlängen des diagnostischen Ultraschalls? 4. Bei welcher der genannten biologischen Gewebearten (Fett, Muskel, Blut, Knochen) ist die Ausbreitung des diagnostischen Ultraschalls stark eingeschränkt und was ist der Grund dafür? 5. Für eines der genannten Organe (Herz, Leber, Lunge, Niere) ist die Ultraschalldiagnostik nicht gut geeignet. Welches ist dieses Organ und was ist der Grund dafür? 6. Warum benutzt man zur Ankopplung eines Schallwandlers an die Haut ein Ankopplungsmittel („Ultraschallgel“)? 7. Was ist der Unterschied zwischen der Schallschnelle und der Schallgeschwindigkeit? 8. Mit welchen beiden Schallfeldgrößen lässt sich die von einer Schallwelle transportierte Leistung beschreiben? 9. Aus welchen Materialeigenschaften lässt sich die Schallgeschwindigkeit (für homogene ebene Wellen) berechnen? 10. Aus welcher Beziehung zwischen den Schallfeldgrößen einer homogenen ebenen Welle resultiert der akustische Wellenwiderstand? 11. Aus welchen Materialeigenschaften lässt sich der akustische Wellenwiderstand (für homogene ebene Wellen) berechnen? 12. Wie lässt sich bei der Schallwellenausbreitung der Unterschied zwischen Absorption und Dämpfung beschreiben? 13. Was versteht man unter dem piezoelektrischen Effekt? 14. Mit welcher physikalischen Größe wird der „direkte“ piezoelektrische Effekt beschreiben? 15. Mit welcher physikalischen Größe wird der „reziproke“ piezoelektrische Effekt beschrieben? 16. Welche piezoelektrischen Materialien sind für die Anwendung in Ultraschallwandlern von Interesse? 17. Welchem der genannten technischen Systeme (Radar-Anlage, Röntgengerät, Photoapparat) entspricht das Funktionsprinzip eines Ultraschallgerätes am ehesten? 18. Welche Betriebsparameter (Signal: Frequenz, Wellenlänge, Amplitude, Dauer; Schallwandler: Apertur, Bandbreite; Medium: Schallgeschwindigkeit, Wellenwiderstand) bestimmen bei der BBild-Technik die axiale Auflösung und welche Betriebsparameter bestimmen die laterale Auflösung? 19. Für welche Ultraschall-Bildgebungsmodalität lässt sich das nichtlineare Verhalten des biologischen Gewebes nutzen? 20. Was sind die Vorteile des „Harmonic Imaging“ gegenüber der klassischen B-Bild-Technik? 21. Welchen Einfluss haben bei der Nutzung des Doppler-Effektes in der Ultraschalldiagnostik die Geschwindigkeit des Blutflusses und die Geschwindigkeit der Wellenausbreitung (Schallgeschwindigkeit) auf die Frequenzverschiebung der Echosignale? 22. Welche Betriebsparameter (Signal: Frequenz, Wellenlänge, Amplitude, Dauer; Schallwandler: Apertur, Bandbreite; Medium: Schallgeschwindigkeit, Wellenwiderstand) bestimmen bei der Puls-Doppler-Technik die Doppler-Auflösung (Genauigkeit der Geschwindigkeitsmessung)? 23. Warum lassen sich bei Anwendung der Puls-Doppler-Technik bei größeren Entfernungen zwischen Blutgefäß und Schallwandler größere Flussgeschwindigkeiten nicht messen? 24. Welcher Grenzwert muss zur Vermeidung thermischer Schäden im Gewebe beachtet werden? 25. Welcher Grenzwert muss zur Vermeidung mechanischer Schäden im Gewebe beachtet werden?
Tobias Schaeffter
9 Magnetische Resonanztomographie 9.1 9.2 9.3 9.4 9.5 9.6 9.7 9.8 9.9
Einleitung | 328 Kernmagnetische Resonanz | 329 Ortsauflösung | 351 Sequenzen und Bildkontrast | 362 Artefakte | 381 Aufbau eines MR-Tomographen | 385 Signal-Rausch-Verhältnis | 390 Sicherheitsaspekte | 391 Klinische Anwendungen | 395
Zusammenfassung: 1973 hätte kein Mensch ahnen können, dass aus einer „unbedeutenden“ Entdeckung¹ von Paul Lauterbur eines der wichtigsten abbildenden Verfahren der Medizin werden könnte. Die MRT ist ein nichtinvasives Verfahren zur Charakterisierung der Anatomie, der Physiologie und des Stoffwechsels. Aufgrund ihres hervorragenden Weichteilkontrastes ohne Verwendung von ionisierender Strahlung ist sie eine Methode der Wahl für viele klinische Anwendungen. In diesem Kapitel werden zunächst die physikalischen Grundlagen der MRT beschrieben, danach werden der Aufbau eines MR-Tomographen sowie ausgewählte Messverfahren und deren Anwendungen besprochen. Abstract: In 1973 nobody could imagine that an “insignificant“ invention² of Paul Lauterbur would become one of the most important imaging modalities in medical applications. Magnetic resonance imaging (MRI) is a non-invasive technique that allows the characterization of morphology, physiology, and metabolism in-vivo. It provides superior soft tissue contrast without the use of ionizing radiation and has consequently become the method of choice in many clinical applications. This chapter describes the basic principles and the instrumentation of MRI. In addition, selected MR-sequences and their clinical applications are discussed.
1 Kommentar eines Gutachters zur ersten von Paul Lauterbur bei Nature eingereichten Publikation, der zur Ablehnung des Beitrags führte. 2 A referee’s comment on Paul Lauterbur’s first submission to Nature that led to the rejection of the publication.
328 | Tobias Schaeffter
9.1 Einleitung Die ersten Experimente zum Nachweis der kernmagnetischen Resonanz (engl. Nuclear Magnetic Resonance, NMR) wurden bereits im Jahre 1937 von Isidor Rabi und Mitarbeitern durchgeführt. Dabei konnten sie Resonanzen von Atomkernen in einem Molekülstrahl (Moleküle in der Gasphase) nachweisen und die magnetischen Momente der Kerne sehr präzise bestimmen. Im Jahre 1946 entdeckten unabhängig voneinander zwei Arbeitsgruppen um F. Bloch an der Stanford Universität und E. Purcell an der Harvard University die kernmagnetische Resonanz in kondensierter Materie, d. h. im Festkörper und in Flüssigkeiten. Dabei führte Bloch seine Experimente mit Wasser durch, während Purcell den NMR-Effekt im festen Paraffin nachwies. Für diese Arbeiten wurden F. Bloch und E. Purcell 1952 gemeinsam mit dem Nobelpreis für Physik ausgezeichnet. Anfang der 1950er-Jahre konnte durch W. Procter bzw. W. Dickinson gezeigt werden, dass die Resonanzfrequenz nicht nur vom Kern selbst, sondern auch von seiner chemischen Umgebung abhängig ist. Mit dieser Entdeckung war die NMR-Spektroskopie geboren, welche den Nachweis von Molekülen in einer Probe ermöglicht. In den 1960er-Jahren entwickelte die Arbeitsgruppe um R. Ernst die gepulste NMR-Anregung in Kombination mit der Fourier-Transformationsanalyse, die eine empfindliche Strukturaufklärung von Molekülen ermöglicht. Für diese Entwicklung erhielt R. Ernst 1991 den Nobelpreis in Chemie. Anfang der 1970er-Jahre wurde durch R. Damadian nachgewiesen, dass sich die NMR-Relaxation von Tumorgewebe von gesunden Gewebeproben unterscheidet. Mit dieser Entdeckung wurde die Basis für die kernmagnetische Resonanz als medizinisches Diagnoseverfahren gelegt. 1973 zeigte P. Lauterbur, dass die Verwendung eines ortsabhängigen Magnetfeldes eine räumliche Zuordnung der NMR-Signale erlaubt, die zur Bildgebung (engl. Magnetic Resonance Imaging, MRI) genutzt werden kann. Die technischen Entwicklungen der folgenden Jahre machten die NMR-Bildgebung zu einem wichtigen medizinischen Diagnoseverfahren. Insbesondere die Arbeiten der Arbeitsgruppe um P. Mansfield zur schnellen NMR-Bildgebung führten zu einer verbreiteten Anwendung. 2003 erhielten P. Lauterbur und P. Mansfield gemeinsam den Nobelpreis für Medizin. Im Allgemeinen wird in der medizinischen Anwendung der Magnetresonanz (MR) ein tomographisches Verfahren verwendet. Diese tomographische Bildgebung bietet neben der Darstellung der Anatomie mit hervorragendem Weichteilkontrast auch die Möglichkeit zur Messung einer Vielzahl anderer diagnostischer Parameter, wie Blutfluss, Perfusion, Diffusion oder Blutoxygenierung. Daher ist die MR-Tomographie in den letzten Jahrzehnten zu einem der wichtigsten bildgebenden Verfahren in der klinischen Praxis und biomedizinischen Forschung geworden. Im Folgenden sollen zunächst die physikalischen Grundlagen der kernmagnetischen Resonanz und der Ortsauflösung beschrieben werden.
9 Magnetische Resonanztomographie
|
329
Kernmagnetische Resonanz: physikalischer Effekt, der die Grundlage für die Magnetresonanztomographie bildet. Dabei treten Atomkerne mit einem Kernspin in Wechselwirkung mit einem magnetischen Wechselfeld.
9.2 Kernmagnetische Resonanz Wie der Begriff kernmagnetische Resonanz (NMR) andeutet, müssen drei Voraussetzungen vorliegen, um diesen physikalischen Effekt zu messen: Kerne, Magnetfelder und Resonanz. Um das Phänomen der kernmagnetischen Resonanz zu verstehen, muss man zunächst das zu messende Objekt betrachten. Jedes biologische oder physikalische Objekt besteht aus unterschiedlichen Molekülen, die sich aus Atomen zusammensetzen, die wiederum aus einem Kern und Elektronen bestehen (Abb. 9.1). Jeder Atomkern enthält positiv geladene Protonen und meistens auch Neutronen, die elektrisch neutral sind. Die Anzahl der Protonen wird als Kernladungszahl bezeichnet und dient als Ordnungszahl für die betreffende Atomsorte. Die Masse der Protonen und Neutronen (1,67 ⋅ 10−27 kg) bestimmen zusammen die Atommasse, da die Masse der Elektronen an der Gesamtmasse nur einen verschwindend kleinen Anteil hat. Jeder Atomkern ist von einer Elektronenhülle umgeben. Im Normalfall enthält diese Hülle genau so viele (negativ geladene) Elektronen, wie im zugehörigen Kern Protonen vorhanden sind. Daher befindet sich das Atom im elektrisch neutralen Zustand, da die einander entgegengesetzten elektrischen Ladungen von Proton und Elektron gleich groß (1,6 ⋅ 10−19 As) sind. Zur genauen Beschreibung der Atome muss auf die Quantenmechanik zurückgegriffen werden. Für die unterschiedlichen energetischen Zustände werden verschiedene Quantenzahlen definiert, die im Folgenden verwendet werden, ohne die Theorie im Einzelnen zu erläutern.
9.2.1 Kernspin und magnetisches Moment Der kernmagnetische Effekt beruht auf einer quantenmechanischen Eigenschaft des Kernes: Alle Atomkerne (lat. Nucleus) mit ungerader Ordnungszahl oder atomarer
Abb. 9.1: Atommodell, das aus einem Kern mit Protonen und Neutronen und einer Hülle mit Elektronen besteht.
330 | Tobias Schaeffter → Masse besitzen einen Eigendrehimpuls J , der auch Kernspin genannt wird. Der Eigendrehimpuls kann nur diskrete Werte annehmen („gequantelt“) und wird durch die Spinquantenzahl I bestimmt: J = ℏ√I(I + 1)
(9.1)
wobei ℏ das Plancksche Wirkungsquantum (h/2𝜋 = 1,05510−34 Ws2 ) ist. Die Spinquantenzahl hängt von der Ordnungs- und Massenzahl ab und kann nur ganzzahlige oder halbzahlige Werte annehmen: 1 3 5 I = 0, , 1, , 2, , 3, . . . 2 2 2
(9.2)
Bei Kernen mit einer ungeraden Massenzahl nimmt die Spinquantenzahl den Wert I = 1/2 an. Zum Beispiel besteht der Kern des Wasserstoffatoms nur aus einem Proton und besitzt daher einen Kernspin, der durch die Spinquantenzahl I = 1/2 bestimmt wird. Andere typische Atome mit einem Kernspin sind Kohlenstoff (13 C), Fluor (19 F) oder Phosphor (31 P). Es ist zu beachten, dass nur das seltene Kohlenstoffisotop 13 C einen Kernspin aufweist, während das häufig vorkommende Isotop 12 C (gerade Ordnungszahl) keines besitzt. Alle genannten Kerne 1 H, 13 C, 19 F, 31 P haben eine ungerade Massenzahl und damit eine Spinquantenzahl von I = 1/2. Diese Kerne werden auch als Spin-1/2-Systeme bezeichnet und stellen den Großteil der Kerne für die biomedizinische Anwendung dar. Der Einfachheit halber beschränken wir uns im Folgenden auf diese Spin-1/2-Systeme. Der Betrag des Kernspins ist dabei durch ⃗ 1 1 3 J = ℏ√ ( + 1) = ℏ√ 2 2 4
(9.3)
gegeben. Aufgrund quantenmechanischer Gesetze ist mit dem Kernspin ein magnetisches Moment verbunden. Kernspin und magnetisches Moment zeigen immer in die gleiche Richtung: → → 𝜇 =𝛾⋅ J (9.4) wobei die Proportionalitätskonstante 𝛾 als gyromagnetisches Verhältnis bezeichnet wird und oft auch in der normierten Form — 𝛾=
𝛾 2𝜋
(9.5)
verwendet wird. Das gyromagnetische Verhältnis ist charakteristisch für jeden Kern und eine physikalische Konstante (Tab. 9.1). Die Atomkerne unterscheiden sich auch in ihrer natürlichen Häufigkeit. Im Gewebe tritt Wasserstoff in Wasser und Fettverbindungen mit einer sehr hohen Konzentration auf, während die Konzentration von Wasserstoff (1 H) und Phosphor (31 P) in Stoffwechselprodukten und Proteinen sehr gering ist (< 10 mMol). Auf der anderen Seite ist die natürliche Häufigkeit von Kohlenstoff (13 C) vernachlässigbar. Daher müssen Moleküle spezifisch mit 13 C markiert werden.
9 Magnetische Resonanztomographie
|
331
Tab. 9.1: Natürliche Häufigkeit verschiedener Kerne mit Kernspin und gyromagnetisches Verhältnis. Kern 1
Wasserstoff H Kohlenstoff 13 C Fluor 19 F Phosphor 31 P
J, μ
+
Natürliche Häufigkeit (%)
Gyromagnetisches Verhältnis — 𝛾 in MHz/T
99,9 1,1 100 100
42,58 10,71 40,05 17,24
μ
Abb. 9.2: Ein Kernspin mit positiver Ladung führt zu einem magnetischen Moment, welches als kleiner magnetischer Dipol interpretiert werden kann.
Dieses Markieren („Label“) erlaubt den gezielten Nachweis der markierten Moleküle („Tracer“) oder deren Stoffwechselprodukte im Körper. Obwohl der Kernspin und das dazugehörende magnetische Moment eine quantenmechanische Eigenschaft des Kernes ist, können beide Größen durch die Betrachtungsweise der klassischen Mechanik veranschaulicht werden. Dabei führt der Eigendrehimpuls zur Rotation des Kerns. Da der Kern eine oder mehrere verteilte positive Ladungen trägt, führt die Rotation der Ladungen zu einem Kreisstrom, welcher wiederum ein lokales Magnetfeld erzeugt (Abb. 9.2). Der Betrag des magnetischen Momentes hat aufgrund von Gl. (9.3) und Gl. (9.4) einen festen diskreten Wert und nimmt für ein Spin-1/2-System folgenden Wert an 3 (9.6) 𝜇⃗ = 𝛾ℏ√ 4 Unter normalen Bedingungen sind die individuellen magnetischen Momente aller Atome im Messobjekt wegen der thermischen Bewegung willkürlich ausgerichtet, so dass außerhalb der Probe keine Magnetisierung messbar ist. Um eine makroskopische Magnetisierung im Objekt zu erzeugen, wird ein externes statisches Magnetfeld benötigt (dieses Magnetfeld ist die zweite Voraussetzung zum Nachweis der kernmagnetischen Resonanz) (Abb. 9.3). Nach einer Konvention legt das externe statische Magnetfeld die Richtung des Koordinatensystems fest, d. h., das externe Feld mit der Stärke B0 zeigt in z-Richtung:³ B⃗ 0 = B0 ⋅ e⃗z
3 In diesem Kapitel wird die magnetische Induktion B durchgängig „Magnetfeld“ genannt.
(9.7)
332 | Tobias Schaeffter
N S
magnetisches Feld in medizinischer Anwendung 0,5 bis 3 Tesla
magnetisches Feld 5 ‧ 10–5 Tesla
Abb. 9.3: Stärke des externen magnetischen Feldes im Vergleich zum Erdmagnetfeld.
Statische Magnetfeldstärke: Kenngröße in der Magnetresonanztomographie, die wesentlich die Messempfindlichkeit der kernmagnetischen Resonanz bestimmt.
Streng genommen ist das magnetische Moment 𝜇 eine quantenmechanische Eigenschaft und anschauliche Beschreibungen als mikroskopischer Magnet sind daher unvollständig. Trotzdem wird in vielen Lehrbüchern eine semiklassische Beschreibung des Verhaltens des magnetischen Momentes vorgenommen, die hier angedeutet werden soll. Eine exakte Beschreibung als Lösung der Schrödinger-Gleichung findet man beispielsweise in Kap. 5 des Lehrbuches von [Haacke 1991]. In der Quantenmechanik werden messbare Größen durch den Erwartungswert einer quantenmechanischen Größe beschrieben, welcher im Folgenden durch zwei eckige Klammern „⟨ ⟩“ notiert wird. Wegen des quantenmechanischen Zeeman-Effekts kann der Erwartungswert des magnetischen Momentes eines Spin-1/2-Systems nur zwei diskrete Orientierungen einnehmen, d. h., für die z-Komponente gilt: ⟨𝜇z ⟩ = mI 𝛾ℏ
(9.8)
Dabei ist mI die Magnetquantenzahl, die für ein Spin-1/2-System die beiden Werte ±1/2 annimmt. Dadurch, dass sich der Erwartungswert der z-Komponente und der Betrag des magnetischen Momentes unterscheiden, muss sich der Erwartungswert des magnetischen Momentes unter einem Winkel zum externen Magnetfeld ausrichten. Für ein Spin-1/2-System ergibt sich: cos 𝛩 =
±1 ⟨𝜇z ⟩ 1 = 2 =± ; 3 √ ⟨𝜇⟩ 3 √4
(9.9)
9 Magnetische Resonanztomographie
B₀
B₀
ω₀
μ
μ
| 333
54,7°
T
Abb. 9.4: Der Erwartungswert des magnetischen Momentes kann in einem externen magnetischen Feld nur zwei Zustände annehmen. Es stellt sich dabei wegen des Zeemann-Effekts ein fester Winkel mit dem äußeren Feld ein.
Daher kann der Erwartungswert des magnetischen Momentes nur zwei Einstellwinkel von 𝛩 = ±54.7° zum externen Magnetfeld einnehmen, d. h. entweder entlang oder entgegengesetzt zum externen Magnetfeld (Abb. 9.4). In der semiklassischen Beschreibung wirkt wegen des Winkels ein Drehmoment T⃗ auf die Erwartungswerte des Moments, welches sich durch das Kreuzprodukt beschreiben lässt: T⃗ = ⟨𝜇⟩⃗ × B⃗ 0
(9.10)
Das Drehmoment zeigt aus der Zeichnungsebene heraus und führt zu einer Drehbewegung des Erwartungswertes des magnetischen Momentes um das externe Magnetfeld. Diese Drehbewegung wird auch als Präzession bezeichnet. Nach dem Drehimpulserhaltungssatz ist das Drehmoment gleich der zeitlichen Ableitung des Eigendrehimpulses: dJ ⃗ (9.11) = T⃗ = ⟨𝜇⟩⃗ × B⃗ 0 dt Der Eigendrehimpuls kann nach Gl. (9.4) durch das magnetische Moment ersetzt werden, so dass sich folgende Bewegungsgleichung ergibt: d ⟨𝜇⟩⃗ (9.12) = 𝛾 ⋅ ⟨𝜇⟩⃗ × B⃗ 0 dt Da das externe Magnetfeld per Definition nur eine z-Komponente aufweist, ergibt sich nach dem Kreuzprodukt für die einzelnen Komponenten des Erwartungswertes des magnetischen Momentes: d ⟨𝜇x ⟩ = 𝛾 ⋅ B0 ⋅ ⟨𝜇y ⟩ dt d ⟨𝜇y ⟩ = 𝛾 ⋅ B0 ⋅ ⟨𝜇x ⟩ dt d ⟨𝜇z ⟩ =0 (9.13) dt Durch weiteres zeitliches Ableiten der ersten zwei Gleichungen und gegenseitigem Einsetzen ergibt sich eine gekoppelte Differentialgleichung zweiter Ordnung: d2 ⟨𝜇x ⟩ 2 = − (𝛾 ⋅ B0 ) ⋅ ⟨𝜇x ⟩ dt2 d2 ⟨𝜇y ⟩ 2 = − (𝛾 ⋅ B0 ) ⋅ ⟨𝜇y ⟩ dt2
(9.14)
334 | Tobias Schaeffter Zur Vereinfachung wird die Abkürzung 𝜔0 = 𝛾 ⋅ B0
(9.15)
eingeführt. Die Lösung der Differentialgleichungen beschreibt eine Rotationsbewegung (Präzession) des Erwartungswertes des magnetischen Moments um das externe Magnetfeld ⟨𝜇x (t)⟩ = ⟨𝜇x (0)⟩ ⋅ cos(𝜔0 t) + ⟨𝜇y (0)⟩ ⋅ sin(𝜔0 t) ⟨𝜇y (t)⟩ = − ⟨𝜇x (0)⟩ ⋅ cos(𝜔0 t) + ⟨𝜇y (0)⟩ ⋅ sin(𝜔0 t) ⟨𝜇z (t)⟩ = ⟨𝜇z (0)⟩
(9.16)
mit der Winkelgeschwindigkeit 𝜔0 , die auch Larmor-Frequenz genannt wird und proportional zur Stärke des externen Magnetfeldes ist (siehe Gl. (9.15)). Es ist zu beachten, dass das magnetische Moment im mathematisch negativen Sinn (d. h. im Uhrzeigersinn) rotiert. Larmor-Frequenz: charakteristische Frequenz der Präzessionsbewegung der Spins in der Magnetresonanztomographie. Diese ist proportional zur Magnetfeldstärke.
Eine weitere Möglichkeit, die Larmor-Frequenz herzuleiten, erfolgt über die Beschreibung der potentiellen Energie des magnetischen Momentes im externen Magnetfeld. Wegen des Zeeman-Effektes ergeben sich dabei zwei verschiedene Energiezustände: (9.8) 1 E = − ⟨𝜇⟩⃗ ⋅ B⃗ 0 = − ⟨𝜇z ⟩ ⋅ B0 = ± 𝛾 ⋅ ℏ ⋅ B0 2
(9.17)
Daher ergibt sich für den Erwartungswert des magnetischen Momentes entlang des externen Magnetfeldes ein energetisch günstiger Energiezustand: 1 E↑ = − 𝛾 ⋅ ℏ ⋅ B0 2
(9.18a)
und für den Erwartungswert des magnetischen Momentes entgegengesetzt des externen Magnetfeldes ein energetisch höherer Zustand (Abb. 9.5): 1 E↓ = 𝛾 ⋅ ℏ ⋅ B 0 2
(9.18b)
Die Energiedifferenz der beiden Zustände bestimmt die charakteristische Frequenz, mit der Übergänge zwischen diesen Energiezuständen erreicht werden können, und entspricht dem Wert aus Gl. (9.15): !
𝛥E = E↓ − E↑ = 𝛾 ⋅ ℏ ⋅ B0 = ℏ ⋅ 𝜔0 ⇒ 𝜔0 = 𝛾 ⋅ B0
(9.19)
9 Magnetische Resonanztomographie
| 335
E
E
N↓
I=
–½ ΔE = — h γ B₀
I=
N↑
+½
B=0
N
B = B₀
Abb. 9.5: Energieniveauschema der Kernspins im Magnetfeld. Dabei entstehen zwei unterschiedliche Energieniveaus. Die Besetzung der beiden Niveaus wird durch die Boltzmann-Verteilung bestimmt.
9.2.2 Magnetisierung Bisher wurde das Verhalten der Erwartungswerte der magnetischen Momente beschrieben. Um das kollektive Verhalten aller Momente im Messobjekt zu erfassen, wird die makroskopische Magnetisierung M⁴ eingeführt. Diese ergibt sich aus der Vektorsumme aller Erwartungswerte: N
M⃗ = ∑ ⟨𝜇n⃗ ⟩
(9.20)
n=1
Wie bereits erwähnt, sind bei Fehlen eines externen magnetischen Feldes alle magnetischen Momente wegen der thermischen Bewegung willkürlich ausgerichtet. Daher mitteln sich die Magnetfelder der Momente im Messobjekt aus, und es ist keine makroskopische Magnetisierung nach außen sichtbar. Beim Anlegen eines externen Magnetfeldes ergeben sich für die Erwartungswerte der magnetischen Momente zwei Einstellmöglichkeiten. Im semiklassischen Bild fangen die einzelnen Erwartungswerte der Momente an zu präzedieren. Durch die nichtkohärente Präzessionsbewegung der verschiedenen Erwartungswerte mitteln sich alle transversalen Komponenten aus und es verbleibt nur noch eine Magnetisierung entlang des externen Magnetfeldes. N
N
N
N
M⃗ = ( ∑ ⟨𝜇x ⟩n ) ⋅e⃗x + ( ∑ ⟨𝜇y ⟩n ) ⋅e⃗y + ( ∑ ⟨𝜇z ⟩n ) ⋅ e⃗z = ∑ ⟨𝜇z ⟩n ⋅ e⃗z n=1 n=1 n=1 n=1 ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ =0
(9.21)
=0
Die Magnetisierung ergibt sich aufgrund einer unterschiedlichen Besetzung der unterschiedlichen Energieniveaus, d. h., das energetisch günstigere Niveau wird mit einer
4 Genau genommen ist die Magnetisierung das magnetische Moment pro Volumen.
336 | Tobias Schaeffter höheren Wahrscheinlichkeit besetzt. Der Unterschied in der Besetzung der Energieniveaus wird dabei durch die Boltzmann-Verteilung bestimmt: N↑ N↓
= exp (−
𝛥E ) k⋅T
(9.22)
wobei T die absolute Temperatur, k die Boltzmann-Konstante (1,38 ⋅ 10−23 J/K) und N = N↑ + N↓ die Anzahl der magnetischen Momente (oder Spins) ist, die entlang und entgegengesetzt zum externen Magnetfeld ausgerichtet sind. Im Allgemeinen ist die thermische Energie wesentlich größer als der Energieunterschied aufgrund der Zeeman-Aufspaltung: 𝛥E ≪ kT ⇒ exp (
𝛾 ⋅ ℏ ⋅ B0 𝛥E 𝛥E )≈1+( )=1+( ) kT kT kT
(9.23)
Für den Unterschied in der Besetzung ergibt sich mit N = N↑ − N↓ : N ↑ − N↓ N
≈
𝛾 ⋅ ℏ ⋅ B0 2kT
(9.24)
Da der Unterschied in der Besetzung zwischen den beiden Energieniveaus sehr gering ist, ergibt sich ein kleiner Überschuss von Spins auf dem energetisch niedrigeren Niveau und damit eine kleine makroskopische Magnetisierung. Beispielsweise ergibt sich bei Raumtemperatur (T = 300 K) und einem externen Magnetfeld der Stärke B0 = 1T ein Unterschied von 3 ⋅ 10−6 , d. h. in einer Million Spins sind drei Spins mehr entlang des externen Feldes ausgerichtet (Abb. 9.6).
B₀ = 0
B₀ ≠ 0
M₀ = 0
M₀
Abb. 9.6: Durch Anlegen eines externen statischen Feldes richten sich die individuellen magnetischen Momente entlang oder entgegengesetzt zum externen Feld aus. Da sich im Mittel mehr Momente entlang des Feldes ausrichten, wird eine Magnetisierung entlang des externen Feldes erzeugt.
9 Magnetische Resonanztomographie
|
337
Die Stärke der Magnetisierung ergibt sich damit aus dem Überschuss der Besetzungen der Energieniveaus zu: N
𝛾 ⋅ ℏ ⋅ B0 (9.24) ⟨𝜇z ⟩ ⋅ e⃗z M⃗ = M0 ⋅ e⃗z = ( ∑ ⟨𝜇z ⟩n ) ⋅ e⃗z = (N↑ − N↓ ) ⟨𝜇z ⟩ ⋅ e⃗z ≈ N 2kT n=1 2
(𝛾 ⋅ ℏ) ⋅ N ⋅ B0 (9.25) e⃗z 4kT Damit hängt die Stärke der Magnetisierung von der Anzahl aller Spins N, der Temperatur T und der Stärke des externen Magnetfeldes B0 ab. Für höhere Feldstärken entsteht im Messobjekt eine größere Magnetisierung und damit eine höhere Messempfindlichkeit. Gängige Feldstärken für medizinische Anwendungen liegen zwischen 1 und 3 Tesla. Bei Forschungssystemen werden aber auch Felder mit 7 Tesla und höher verwendet. Die Anforderungen an das Magnetfeld sind groß, insbesondere an die räumliche Homogenität und die zeitliche Stabilität. =
9.2.3 Anregung und Kernmagnetische Resonanz Die dritte Bedingung zur Messung der kernmagnetischen Resonanz und des NMREffektes ist die Verwendung eines zeitlich variierendes Magnetfeldes, das in „Resonanz“, d. h. bei der Larmor-Frequenz, eingestrahlt wird. Dieses zeitlich variierende Magnetfeld B1 (t) wird senkrecht zum statischen Magnetfeld B0 angelegt. Bei einem statischen Magnetfeld der Stärke B0 = 1, 5 T bzw. 3 T ergeben sich nach Gl. (9.15) charakteristische Resonanzfrequenzen von 63,9 MHz und 127,8 MHz. Da diese im Radiofrequenzbereich (RF) liegen und das zeitlich variierende Feld nur kurzzeitig (d. h. für ungefähr eine Millisekunde) eingeschaltet wird, nennt man es auch RF-Puls. Dieser Puls ergibt sich aus der Amplitudenpulsform B̂ 1 (t), der Trägerfrequenz 𝜔1 und der Phase 𝜑 zu: B⃗ 1 (t) = B̂ 1 (t) ⋅ [cos(𝜔1 t + 𝜑) ⋅ e⃗x − sin(𝜔1 t + 𝜑) ⋅ e⃗y ] (9.26) Für einen rotierenden RF-Puls müssen daher zwei Sendespulen verwendet werden, die senkrecht zueinander in der transversalen Ebene angeordnet sind (Abb. 9.7). Diese wird als Quadratur-Anordnung bezeichnet. Es ist aber auch möglich, nur eine Spule zu verwenden, die ein linear polarisiertes RF-Feld aussendet, wobei sich jedes linear polarisierte Feld mathematisch in zwei entgegengesetzt rotierende Felder zerlegen lässt. Damit ergibt sich auch für eine einzelne Spule ein rotierender RF-Puls, allerdings mit kleinerer Amplitude. Der RF-Puls bewirkt, dass die longitudinale Magnetisierung um einen bestimmten Winkel aus der Ruhelage herausgekippt wird. Das zeitliche Verhalten der Magnetisierung ergibt sich analog zur Bewegungsgleichung des Erwartungswertes des magnetischen Momentes (Gl. (9.12)) aus dem Drehimpulserhaltungssatz: dM⃗ = 𝛾 ⋅ M⃗ × B⃗ = 𝛾 ⋅ M⃗ × (B⃗ 0 + B⃗ 1 ) dt
(9.27)
338 | Tobias Schaeffter z
B₀ M
Resonanz-Bedingung: ωRF = ω₀
B₁-Feld
RF-Coil RF-Coil
sinus cosinus
rotierendes RF-Feld B₁
Abb. 9.7: Zwei Sendespulen erzeugen ein rotierendes RF-Feld B1 in der Transversalebene.
Zur Vereinfachung wird für den RF-Puls B1 angenommen, dass die initiale Phase 𝜑 = 0 und seine Trägerfrequenz 𝜔1 konstant ist. Darüber hinaus wird zur einfacheren mathematischen Beschreibung das rotierende Koordinatensystem eingeführt. In einem solchen rotierenden Koordinatensystem bewegt sich die transversale Ebene mit der Winkelgeschwindigkeit 𝜔, während die z-Achse konstant bleibt, d. h., für die im Uhrzeigersinn rotierenden Koordinaten gilt: e⃗x = cos(𝜔t) ⋅ e⃗x − sin(𝜔t) ⋅ e⃗y e⃗y = sin(𝜔t) ⋅ e⃗x + cos(𝜔t) ⋅ e⃗y e⃗z = e⃗z
(9.28)
Der Vorteil des rotierenden Koordinatensystems besteht in der Tatsache, dass ein RFPuls der Frequenz 𝜔 in einem mit 𝜔-rotierendem System in eine konstante Richtung zeigt: B (t) cos(𝜔t) [ 1,x ] = [ B1,y (t) sin(𝜔t) B (t) B̂ (t) [ 1,x ] = [ 1 ] B1,y (t) 0
− sin(𝜔t) B1,x (t) (9.26) cos(𝜔t) ] = [ ][ B1,y (t) sin(𝜔t) cos(𝜔t)
− sin(𝜔t) B̂ (t) ⋅ cos(𝜔t) ] ] [ 1̂ −B1 (t) ⋅ sin(𝜔t) cos(𝜔t) (9.29) (9.30)
9 Magnetische Resonanztomographie
| 339
Zur Beschreibung der zeitlichen Ableitung in Gl. (9.27) werden die zeitlichen Ableitungen des rotierenden Koordinatensystems benötigt: de⃗x = −𝜔 ⋅ sin(𝜔t) ⋅ e⃗x − 𝜔 ⋅ cos(𝜔t) ⋅ e⃗y dt de⃗y = 𝜔 ⋅ cos(𝜔t) ⋅ e⃗x − 𝜔 ⋅ sin(𝜔t) ⋅ e⃗y dt de⃗z =0 dt
(9.31)
Da das Koordinatensystem im Uhrzeigersinn rotiert, gilt 𝜔⃗ = −𝜔 ⋅ e⃗z und damit nach Gl. (9.27) für das Kreuzprodukt: 𝜔⃗ × e⃗x = −𝜔 ⋅ (cos(𝜔t) ⋅ e⃗z × e⃗x − sin(𝜔t) ⋅ e⃗z × e⃗y ) = −𝜔 ⋅ sin(𝜔t) ⋅ e⃗x − 𝜔 ⋅ cos(𝜔t) ⋅ e⃗y 𝜔⃗ × e⃗y = −𝜔 ⋅ (sin(𝜔t) ⋅ e⃗z × e⃗x + cos(𝜔t) ⋅ e⃗z × e⃗y ) = 𝜔 ⋅ cos(𝜔t) ⋅ e⃗x − 𝜔 ⋅ sin(𝜔t) ⋅ e⃗y 𝜔⃗ × e⃗z = 0 (9.32) Nach Gl. (9.31) und Gl. (9.32) gilt daher: de⃗x = 𝜔⃗ × e⃗x dt de⃗y = 𝜔⃗ × e⃗y dt de⃗z = 𝜔⃗ × e⃗z dt
(9.33)
Nach der Produktregel gilt damit für die zeitliche Ableitung der Magnetisierung im rotierenden Koordinatensystem: de⃗y de⃗ de⃗ dMx dMy dMz dM⃗ =( e⃗x + e⃗ y + e⃗z ) + (Mx x + My + Mz z ) dt dt dt dt dt dt dt dM⃗ dt
(9.33)
=
𝜕M⃗ + 𝜔⃗ × M⃗ 𝜕t
(9.34)
Damit lässt sich für die Bewegungsgleichung der Magnetisierung (Gl. (9.27)) im rotierenden Koordinatensystem schreiben: (9.27) 𝜕M⃗ dM⃗ = + 𝜔⃗ × M⃗ = 𝛾M⃗ × B⃗ dt 𝜕t 𝜕M⃗ = 𝛾 (M⃗ × B⃗ ) − 𝜔⃗ × M⃗ = 𝛾 (M⃗ × B⃗ ) + M⃗ × 𝜔⃗ 𝜕t 𝜕M⃗ 𝜔⃗ = 𝛾 (M⃗ × (B⃗ + )) 𝜕t 𝛾
(9.35)
340 | Tobias Schaeffter z
B₀
z
M
M
B₁-Feld
Felder im rotierenden System: ω B₀' = B₀ + — γ
y
y'
x
x'
rotierendes RF-Feld B₁ im Laborsystem
konstantes Feld B₁ im rotierenden System (Frequenz ω₀ = γB₀)
Abb. 9.8: Felder im Laborsystem und im rotierenden Koordinatensystem.
z
B₀ z
M
M y x
y' x'
Laborsystem
B₁-Feld rotierendes Koordinatensystem
Abb. 9.9: Wirkung einer RF-Anregung im Laborsystem und im rotierenden Koordinatensystem.
Mit der Definition eines effektiven Magnetfeldes Beff erhält man (Abb. 9.8) 𝜔⃗ B⃗ eff = B⃗ + 𝛾 𝜕M⃗ = 𝛾 (M⃗ × B⃗ eff ) 𝜕t
(9.36)
Diese Bewegungsgleichung besagt, dass die Magnetisierung im rotierenden Koordinatensystem ein verändertes effektives Magnetfeld Beff „sieht“. Dies ermöglicht eine einfachere Beschreibung des Verhaltens des RF-Pulses B1 , wenn ein mit 𝜔⃗ = −𝛾 ⋅ B0 ⋅ e⃗z = −𝜔0 ⋅ e⃗z rotierendes Koordinatensystem verwendet wird (Abb. 9.9): 𝜔 𝜔⃗ B⃗ eff = B0 ⋅ e⃗z + B1 ⋅ e⃗x + = B0 ⋅ e⃗z + B1 ⋅ e⃗x − 0 ⋅ e⃗z = B1 ⋅ e⃗x 𝛾 𝛾 ⃗ 𝜕M = 𝛾 (M⃗ × B1 ⋅ e⃗x ) 𝜕t
(9.37)
9 Magnetische Resonanztomographie
|
341
d. h., die Magnetisierung sieht im mit der Resonanzfrequenz rotierenden Koordinatensystem nur das B1 -Feld und für die Komponenten der Magnetisierung gilt nach Gl. (9.37): 𝜕Mx =0 𝜕t 𝜕My = 𝛾 (Mz ⋅ B̂ 1 (t)) 𝜕t 𝜕My (9.38) = 𝛾 (My ⋅ B̂ 1 (t)) 𝜕t Bleibt das B1 -Feld für die Pulsdauer Tp eingeschaltet, so ergibt sich während des RF-Pulses folgende Lösung mit den Anfangsbedingungen Mx (0) = My (0) = 0 und Mz (0) = M0 : Mx (t) = 0 My (t) = M0 ⋅ sin(𝜔1 t) Mz (t) = M0 ⋅ cos(𝜔1 t)
(9.39)
Daher beginnt die Magnetisierung während des RF-Pulses, um dieses Magnetfeld mit 𝜔⃗ = −𝛾⋅B⃗ 1 zu präzedieren. Wie weit die Magnetisierung präzediert, hängt somit von der Amplitude und der Dauer des RF-Pulses ab, d. h., es ergibt sich ein Winkel zwischen der Magnetisierung und der z-Achse: Tp
Tp
𝛼 = ∫ 𝜔1 (t)dt = ∫ 𝛾B̂ 1 (t)dt 0
(9.40)
0
Dieser wird auch Kippwinkel (engl. flip-angle) genannt. Im Falle eines rechteckförmigen RF-Pulses ergibt sich 𝛼 = 𝜔1 ⋅ Tp = 𝛾 ⋅ B1 ⋅ Tp . Beispielsweise führt ein RF-Puls mit B1 = 12 μT und Tp = 0,5 ms Dauer zu einem Kippwinkel von 90°. Im rotierenden Koordinatensystem wird durch einen solchen RF-Puls (aus der x-Richtung) die gesamte Magnetisierung M0 in die transversale xy-Ebene (entlang der y-Achse) gekippt. Dieser Vorgang wird auch als RF-Anregung bezeichnet. Verwendet man einen kleineren Kippwinkel, so wird die longitudinale Magnetisierung nur um einen kleineren Winkel in die transversale Ebene gekippt (Abb. 9.10). Neben der Anregung mittels eines rechteckförmigen RF-Pulses lassen sich auch andere Pulseinhüllende verwenden, um eine frequenzselektive Anregung zu erreichen. Nach dem RF-Puls rotiert die transversale Komponente im Labor-Koordinatensystem um das statische Magnetfeld B0 mit der Larmor-Frequenz 𝜔0 . Die Magnetisierung kippt aber nur, wenn die Frequenz des RF-Pulses mit der Larmor-Frequenz der Kerne übereinstimmt. Dieses Phänomen wird als kernmagnetische Resonanz⁵ bezeichnet.
5 In vielen medizinischen Anwendungsfeldern wird allerdings ausschließlich der Begriff magnetische Resonanz (MR) verwendet, da der Begriff Kern (engl. nuclear) zu Fehlinterpretationen mit nuklearmedizinischen Verfahren führt.
342 | Tobias Schaeffter B₀ z
Mz M Mz longitudinale Komponente Mxy transversale Komponente
y x
Mxy
Abb. 9.10: Longitudinale und transversale Komponente der Magnetisierung nach einem RF-Puls mit kleinem Kippwinkel.
Zur Detektion der transversalen Magnetisierung wird diese durch Verwendung einer Empfangsspule in ein elektrisches Signal gewandelt. Diese Wandlung basiert auf dem Faradayschen Induktionsgesetz, das den Zusammenhang zwischen induzierter Spannung und dem zeitlich variierenden magnetischen Fluss durch eine Leiterschleife beschreibt. Aufgrund der rotierenden Transversalmagnetisierung ändert sich der magnetische Fluss durch die Empfangsspule und erzeugt in der Spule eine Wechselspannung ähnlich wie bei einem Dynamo. Nach dem Reziprozitätstheorem ergibt sich der magnetische Fluss durch Multiplikation der Magnetisierung mit dem von der Spule erzeugten magnetischen Feld B1 (r) am Ort r (hervorgerufen von einem Einheitsstrom). Die Wechselspannung ergibt sich dann aus der zeitlichen Ableitung des magnetischen Flusses des gesamten Messobjektes: ⃗ t)dv 𝛷(t) = k ∫ B⃗ 1 (r) ⋅ M(r, V
U(t) = −
𝜕 𝜕𝛷(t) ⃗ t)dv = −k ∫ B⃗ 1 (r) ⋅ M(r, 𝜕t 𝜕t
(9.41)
V
(Der Proportionalitätsfaktor k wird im Folgenden wie allgemein üblich weggelassen.) Die Amplitude der Wechselspannung hängt von der Orientierung und Empfindlichkeit der Empfangsspule B1 (r), der zeitlichen Ableitung der Magnetisierung und von der Larmor-Frequenz ab (Abb. 9.11). Das bedeutet, dass bei einer höheren Feldstärke eine höhere Spannung sowohl aufgrund einer höheren Larmor-Frequenz als auch wegen der größeren Magnetisierung M0 (Gl. (9.25)) induziert wird: U(t) ∼ B20
(9.42)
9 Magnetische Resonanztomographie
B₀
| 343
z RF-Spule
RF-Spule
t
rotierende Mxy
Signaldetektion
rotierender Magnet
induzierte Spannung
Abb. 9.11: Eine transversale Magnetisierung induziert eine Spannung in der RF-Spule.
Das empfangene Signal wird in einem sogenannten Quadraturdetektor mit der Frequenz 𝜔0 heruntergemischt (s. Kap. 9.6.4). Damit entspricht das Signal hinter dem Mischer der Magnetisierung im rotierenden Koordinatensystem.
9.2.4 Relaxation Nachdem die Magnetisierung aus ihrer ursprünglichen longitudinalen Orientierung gekippt wurde, kehrt sie nach einer gewissen Zeit in ihr thermisches Gleichgewicht M0 zurück. Dieses wird durch zwei unabhängige Relaxationsmechanismen bestimmt (Abb. 9.12). Der erste Mechanismus beschreibt die Längsrelaxation, d. h., wie schnell sich die longitudinale Magnetisierung nach der Anregung erholt. Diese beruht auf der Wechselwirkung der Spins mit der molekularen Umgebung. Da diese Umgebung unabhängig vom physikalischen Zustand als Gitter bezeichnet wird, spricht man auch von der Spin-Gitter-Relaxation. Der zweite Mechanismus beschreibt den Zerfall der Transversalmagnetisierung. Diese Querrelaxation beruht auf der Wechselwirkung zwischen den Spins und wird auch Spin-Spin-Relaxation genannt. Nach Bloch können beide Mechanismen durch exponentielle Anstiegs- bzw. Abklingkurven mit den Relaxationskonstanten T1 und T2 genähert werden: dMz M0 − Mz − t ⇒ Mz (t) = M0 − (M0 − Mz (0))e T1 = dt T1 dMxy Mxy − t ⇒ Mxy (t) = Mxy (0)e T2 =− dt T2
(9.43)
Relaxation: Mechanismus in der Physik, der die Rückkehr eines angeregten Zustands in seinen Gleichgewichtszustand beschreibt. Unterschiedliche Gewebearten haben unterschiedliche Kernspin-Relaxationszeiten, woraus sich u. a. der Bildkontrast zur Darstellung verschiedener Gewebearten mittels MRT gewinnen lässt.
344 | Tobias Schaeffter longitudinale Relaxation nach 90°-Anregung
Mz
tranversale Relaxation Mxy
M0
M0 T1
–t
63 % 0
T1
Mz = M0 (1 – 2T1
–t eT1 )
95 % 3T1
Mz Fett Muskel Liquor
0
T2
Mxy = M0 eT2
37 %
5%
T2
2T2
3T2
Mxy
Liquor 37 %
Fett Muskel
t
t
Abb. 9.12: Längs- und Querrelaxation nach einem 90°-RF-Puls. Unterschiedliche Gewebearten haben unterschiedliche Relaxationszeiten T1 und T2 .
Für biologisches Gewebe ist diese Näherung gültig, während sie für viele Festkörper nicht mehr zulässig ist. Insgesamt ist die T1 -Relaxationszeit immer größer oder gleich T2 . Der Einfluss der Relaxation kann auch in die Bewegungsgleichung (im rotierenden Koordinatensystem) integriert werden, die als Blochsche Gleichungen bezeichnet werden: Mx e⃗x + My e⃗y (Mz − M0 ) e⃗z 𝜕M⃗ − (9.44) = 𝛾 (M⃗ × B⃗ eff ) − 𝜕t T2 T1 Der Grund für die beiden Relaxationsprozesse liegt in mikroskopisch fluktuierenden Feldern [Gadian 1995]. Diese beeinflussen das Verhalten der Magnetisierung in ähnlicher Weise wie das B0 - bzw. das B1 -Feld. Ähnlich wie bei einem RF-Puls bewirken fluktuierende Felder in der xy-Ebene eine Veränderung der longitudinalen Magnetisierung, falls diese Felder Frequenzkomponenten bei der Resonanzfrequenz aufweisen. Beispielsweise kann die thermische Bewegung der Moleküle zu fluktuierenden Feldern aufgrund benachbarter magnetischer Momente (Dipol-Dipol-Wechselwirkung) führen. Dabei hängen die resultierenden Frequenzkomponenten von der Molekülstruktur (z. B. Größe und Bindungen) und auch von der Temperatur ab. Nur die Frequenzkomponenten, die mit der Resonanzfrequenz übereinstimmen, sind für die longitudinale Relaxation verantwortlich. Dadurch hängt die T1 -Relaxationszeit sowohl vom Gewebetyp als auch von der Feldstärke B0 ab. Bei der Querrelaxation spielen die fluktuierenden Feldkomponenten entlang der z-Richtung eine Rolle und werden von benachbarten Spins hervorgerufen. Dies führt insgesamt zu einer Dephasierung und damit zu einem Zerfall der transversalen Ma-
9 Magnetische Resonanztomographie
| 345
gnetisierung. Im Gegensatz zu der longitudinalen Relaxation ist die Querrelaxation weniger von der Feldstärke abhängig. Zusätzlich zum Zerfall aufgrund der Spin-SpinWechselwirkung kann eine örtliche Inhomogenität des B0 Feldes zu einer weiteren Dephasierung führen. Diese örtliche Inhomogenität des Magnetfeldes entsteht aufgrund des Einflusses des Messobjektes auf das Magnetfeld. Insbesondere führen lokale Unterschiede in der Permeabilität zu einer Verzerrung des Magnetfeldes und damit zu lokalen Feldgradienten. Diese Feldgradienten werden vom Objekt selber hervorgerufen und werden daher oft als intern bezeichnet. Zur Veranschaulichung des Einflusses der Feldinhomogenität kann man ein Volumenelement in Bereiche mit unterschiedlicher Larmor-Frequenz unterteilen: I
M⃗ = ∑ m⃗ 𝜔i
(9.45)
i=1
Diese Magnetisierungsanteile präzedieren mit unterschiedlicher Frequenz (Isochromaten). Im rotierenden Koordinatensystem nehmen Isochromaten (physikalische Größe mit gleicher Frequenz) mit 𝜔i > 𝜔0 eine positive Phase auf, während die Isochromaten mit 𝜔i < 𝜔0 über die Zeit eine negative Phase aufbauen. Dies führt zu einer zusätzlichen Dephasierung, so dass eine insgesamt größere Relaxationszeit T∗2 sichtbar ist: −
t ∗
Mxy (t) = Mxy (0)e T2 1 1 1 = + T2∗ T2 T 𝛥B0 2
(9.46)
Betrachtet man das Verhalten der Magnetisierungskomponenten nach einem 90° RFPuls, so klingt die transversale Magnetisierung exponentiell mit T2∗ ab, was zu einer abklingenden Wechselspannung in der Empfangsspule führt. Dieses Signal wird auch als freier Induktionszerfall (engl. Free Induction Decay, FID) bezeichnet. Während die transversale Magnetisierung mit T2∗ zerfällt (Abb. 9.13), baut sich die longitudinale Magnetisierung mit der Relaxationszeit T1 auf. Im Allgemeinen ist nach Abklingen der transversalen Komponente die longitudinale Magnetisierung noch nicht beim Wert des thermischen Gleichgewichts angekommen, da T1 > T2∗ ist. In Tab. 9.2 sind die Relaxationszeiten für unterschiedliche Gewebe und unterschiedliche Feldstärken aufgeführt. Sie liegen zwischen 40 und 2000 ms. Man erkennt, dass die T1 -Zeiten im Allgemeinen erheblich länger als die T2 -Zeiten sind. Die T2 -Zeiten von Flüssigkeiten (Blut, CSF) sind länger als bei Gewebe. Während sich die T1 -Zeiten von 1,5 zu 3 Tesla verlängern, ist bei den T2 -Zeiten kaum eine Feldstärkenabhängigkeit feststellbar. Es soll darauf hingewiesen werden, dass nach T1 bzw. T2 die Relaxation nicht abgeschlossen ist, sondern die Magnetisierung erst auf Mxy (T2 ) = 37 % zerfallen ist bzw. sich zu Mz (T1 ) = 63 % M0 erholt hat (Abb. 9.12).
346 | Tobias Schaeffter z
y x B₀ RF-Spule
FID T₂*
t
rotierende Mxy
Signaldetektion
Abb. 9.13: Der freie Induktionszerfall (FID) zerfällt mit T2∗ aufgrund zusätzlicher Dephasierung.
9.2.5 Kontrastmittel Die Relaxationszeiten lassen sich durch Gabe von Kontrastmittel verändern. Diese bestehen aus paramagnetischen oder ferromagnetischen Materialien. Die Verwendung von paramagnetischen Ionen zur Beeinflussung der Relaxation wurde bereits in den Anfangsjahren der kernmagnetischen Resonanz beschrieben [Bloch 1946, Bloembergen 1948]. Eines der am häufigsten eingesetzten paramagnetischen Kontrastmittel ist das Gadolinium-Ion Gd3+ . Wegen der hohen Giftigkeit von freien Gadolinium-Ionen werden Chelatkomplexe wie z. B. DTPA (Diethylentriaminpentaessigsäure) und DOTA (Tetraazacyclododecan-Tetraessigsäure) verwendet, welche das hochreaktive Tab. 9.2: Relaxationszeiten T1 und T2 für unterschiedliche Gewebe bei 1,5 und 3 Tesla [Stanisz 2005].
Gewebe
1,5 Tesla T1 in ms T2 in ms
3,0 Tesla T1 in ms T2 in ms
Weiße Hirnsubstanz Graue Hirnsubstanz Rückenmark Blut Herzmuskel Leber Niere
884 ± 50 1124 ± 50 745 ± 37 1441 ±120 1030 ± 34 576 ± 30 690 ± 30
1084 ± 45 1820 ±114 993 ± 47 1932 ± 85 1471 ± 31 812 ± 64 1194 ± 27
72 ± 4 95 ± 8 74 ± 6 290 ±30 40 ± 6 46 ± 6 55 ± 3
69 ± 3 99 ± 7 78 ± 2 275 ±50 47 ±11 42 ± 3 56 ± 4
9 Magnetische Resonanztomographie
|
347
Ion vor chemischen Reaktionen im Gewebe schützen. Dabei gibt es eine Reihe von Kontrastmitteln mit unterschiedlichen Chelaten [Rohrer 2005]. Wird nun eine paramagnetische Substanz in den Körper eingebracht, so bewirkt die thermische Bewegung des Kontrastmittelmoleküls zusätzlich fluktuierende Felder, die zu einer verstärkten Relaxation der Magnetisierung führen. Der Einfluss vom Kontrastmittel auf die Relaxation wird dabei besser durch die Relaxationsrate, d. h. die Inverse der Relaxationszeit, beschrieben: R1 =
1 T1
R1 = R01 + r1 ⋅ C
R2 =
1 T2
R2 = R02 + r2 ⋅ C
(9.47)
Dabei ergibt sich die resultierende Relaxationsrate als Summe der ursprünglichen Rate des Gewebes R01,2 und dem zusätzlichen Anteil durch das Kontrastmittel, der durch die sogenannte Relaxivität r1,2 und die Konzentration C gegeben ist. Da paramagnetische Ionen magnetische Momente tragen, die 1000-mal größer sind als die der Kernspins, werden relativ geringe Konzentrationen (z. B. 1 mMol) verwendet. Obwohl die Relaxivität für die beiden Relaxationsprozesse für viele Kontrastmittel ähnlich ist (z. B. r1,2 = 4 (mMs)−1 ), ist der Einfluss der paramagnetischen Kontrastmittel auf die T1 -Relaxationszeiten im Allgemeinen größer als für T2 . Grund dafür sind die Unterschiede in den T1 - und T2 -Relaxationszeiten der Gewebe. Für ein Gewebe mit T1 = 1000 ms und T2 = 100 ms ergibt sich: R01 =
1 1 = 1 s−1 ; R02 = = 10 s−1 ; r1,2 ⋅ C = 4 s−1 T1 T2
R1,2 = R01,2 + r1,2 ⋅ C R1 = 5s−1 ⇒ T1 = 200 ms R2 = 14s−1 ⇒ T2 = 71 ms
(9.48)
Im Beispiel verändert das Kontrastmittel die T1 -Relaxationszeit des gewählten Gewebes um 500 %, während die T2 -Zeit nur um 30 % reduziert wird. Neben der Verwendung von Gd-Kontrastmitteln wurden in der Vergangenheit auch Eisenoxidpartikel verwendet. Diese beeinflussen ebenfalls die T1 -Relaxationszeit, aber sie haben einen stärkeren Einfluss auf die T2 - und T2∗ -Relaxation. Dabei spielt die Größe der Eisenoxidpartikel sowohl für die Relaxation als auch für die Aufnahme in den verschiedenen Organen (Pharmakokinetik) eine entscheidende Rolle. In den letzten Jahren wurden die Eisenoxidkontrastmittel mehr oder weniger vollständig von den Gd-basierten Kontrastmitteln verdrängt und spielen zur Zeit nur noch in der Forschung eine Rolle.
348 | Tobias Schaeffter 9.2.6 „Inversion Recovery“-Sequenz Zur Messung beider Relaxationszeiten werden zwei bestimmte zeitliche Abfolgen (Sequenz) von RF-Pulsen verwendet. Die Messung der T1 -Zeit kann durch eine sogenannte „Inversion Recovery“-Sequenz erfolgen (Abb. 9.14). Dabei wird zunächst die longitudinale Magnetisierung durch einen 180° RF-Puls invertiert, d. h., die gesamte Magnetisierung zeigt nach dem RF-Puls in die negative z-Richtung und es ergibt sich keine transversale Magnetisierung. Während der Inversionszeit TI erholt sich die longitudinale Magnetisierung nach Gl. (9.43) mit der Anfangsbedingung Mz (0) = −M0 : Mz (TI ) = M0 (1 − 2e
T
− TI
1
)
(9.49)
Beim Zeitpunkt TI wird zur Detektion ein 90° RF-Puls eingestrahlt, der die zu diesem Zeitpunkt „erholte“ Magnetisierung Mz (TI ) in die transversale Ebene kippt. Dies führt zu einem FID-Signal, dessen Amplitude ein Maß für die longitudinale Magnetisierung zur Zeit TI ist. Durch Wiederholung dieser Sequenz und Variation der Inversionszeit TI kann die exponentielle Kurve gemessen werden. Es ist zu beachten, dass zwischen den Experimenten eine Wartezeit eingehalten wird, um eine Erholung der longitudinalen Magnetisierung in das thermische Gleichgewicht (M0 ) für jedes Experiment zu gewährleisten. In der Praxis reicht eine Wiederholzeit (engl. repetition time)) von ca. TR = 4T1 aus. 180°
180°
RF TR Mz +M₀ Fett
–M₀
Abb. 9.14: „Inversion Recovery“-Sequenz.
Muskel
9 Magnetische Resonanztomographie
| 349
9.2.7 Spinecho-Sequenz Wie im vorhergehenden Abschnitt beschrieben, klingt nach einer Anregung die trans𝛥B versale Magnetisierung aufgrund von Feldinhomogenitäten (vgl. T2 0 in Gl. (9.46)) schneller ab. Diese zusätzliche Dephasierung kann durch eine sogenannte SpinechoSequenz zurück gedreht werden (Abb. 9.15). Dazu wird zunächst ein 90° RF-Puls eingestrahlt, der die gesamte longitudinale Magnetisierung in die transversale Ebene kippt. Die transversale Magnetisierung klingt dabei mit der Zeitkonstanten T2∗ ab. Dabei bewirken die Feldinhomogenitäten eine Aufspaltung der Magnetisierung in verschiedene Isochromaten. Wie beschrieben laufen einige der Isochromaten schneller 𝜔i > 𝜔0 , während andere 𝜔i < 𝜔0 langsamer laufen. Nach der Zeit TE /2 haben die Isochromate unterschiedliche positive oder negative Phasen 𝜑i = 𝜔i TE /2. Nach der Zeit TE /2 wird nun ein 180° RF-Puls eingestrahlt, der eine Umkehr der Phasenlage bewirkt, d. h., das Vorzeichen der Phase ändert sich. Nach der Zeit TE kommt es zu einer kom180° Spin-Echo 90° TE
Dephasierung
Rephasierung
Abb. 9.15: Spin-Echo-Sequenz: Nach einer Anregung wird nach TE /2 ein 180° RF-Puls geschaltet, der eine Refokussierung der Isochromaten bewirkt und zu einem Spinecho zum Zeitpunkt TE führt.
180°
180°
180°
180°
90°
Signal Abb. 9.16: Multi-Spinecho-Sequenz: Nach einer Anregung wird eine Reihe von 180° RF-Pulsen geschaltet, die eine Reihe von Spinecho-Signalen erzeugen.
350 | Tobias Schaeffter pletten Rephasierung aller Isochromaten und es entsteht ein sogenanntes Spinecho. Die Amplitude des Spinecho-Signals wird dabei durch die Zeitkonstante T2 bestimmt. Zur Messung der T2 -Zeitkonstante können weitere 180° -RF-Pulse eingefügt werden und es entstehen Spinecho-Signale, aus deren Amplitude der exponentielle Zerfall bestimmt werden kann (Abb. 9.16).
9.2.8 Chemische Verschiebung Wie beschrieben, hat jede Atomkern-Art ein bestimmtes gyromagnetisches Verhältnis (Tab. 9.1). Damit ergibt sich eine charakteristische, eigene Resonanzfrequenz, an der sie erkannt werden kann. Neben dem Typ des Atomkerns hängt die Resonanzfrequenz aber auch von der chemischen Umgebung eines Atomkerns ab. Dabei führt der Einfluss der Bindungselektronen zu einer lokalen minimalen Veränderung des externen Magnetfeldes am Ort des Atomkernes und dementsprechend zu einer Variation der Resonanzfrequenz von an sich identischen Atomkernen. Aufgrund dieser Eigenschaft kann die kernmagnetische Resonanz zur Strukturaufklärung von Molekülen eingesetzt werden. Um eine von der Feldstärke unabhängige Größe zu definieren, wird die Änderung der Resonanzfrequenzen nicht als absoluter Wert, sondern als relative „chemische Verschiebung“ gegenüber einer Referenzsubstanz, dem sogenannten Standard, angegeben: f − fref 𝛿= (9.50) fref Als Referenzsubstanz für 1 H- und 13 C-Spektren organischer Lösungen wird die Resonanzfrequenz der jeweiligen Kerne in Tetramethylsilan (TMS) verwendet. Da die Werte der chemischen Verschiebung sehr klein sind, werden sie in Millionstel der Resonanzfrequenz (parts per million, ppm) angegeben. Die Veränderung der Resonanzfrequenzen aufgrund der chemischen Verschiebung ist insbesondere im Vergleich zur Frequenzänderung wegen des Atomkerns gering. Die Zahl und die Intensität der bei der NMR-Spektroskopie auftretenden Frequenzlinien sind charakteristisch für unterschiedliche Moleküle. Dazu wird ein NMR-Signal (z. B. das FID-Signal) aufgenommen und die unterschiedlichen Frequenzanteile werden durch eine FourierTransformation berechnet. Dieses Frequenzspektrum zeigt dann die unterschiedlich auftretenden Resonanzfrequenzen, d. h. chemischen Verschiebungen der Substanzen in der Probe. Der Vergleich des Spektrums mit Werten aus einer Vergleichstabelle ermöglicht eine Zuordnung der spektralen Anteile zu bestimmten chemischen Verbindungen, während die Signalstärke proportional zur Konzentration der jeweiligen Stoffe ist. Die nachweisbaren Moleküle und die verwendeten MR-Messverfahren unterscheiden sich für die einzelnen Atomkerne. Die absoluten Frequenzunterschiede wegen der chemischen Verschiebung nehmen mit zunehmender Feldstärke zu. Daher lassen sich einzelne Linien besser bei höheren Feldern unterscheiden.
9 Magnetische Resonanztomographie
|
351
9.3 Ortsauflösung Bisher wurde die Messung der kernmagnetischen Resonanz der gesamten Magnetisierung in einem Objekt beschrieben. Bei der MR-Tomographie werden allerdings Schnittbilder der transversalen Magnetisierungsverteilung gemessen. Dazu wird eine Ortskodierung benötigt, welche die Signale jedes einzelnen Volumenelementes (Voxel) kodiert. Grundsätzlich lassen sich zwei Methoden der Ortsauflösung unterscheiden: selektive Anregung und örtliche Kodierung. Für beide Verfahren werden magnetische Feldgradienten verwendet, die auch kurz Gradienten genannt werden. Diese Gradienten bewirken eine örtlich lineare Veränderung der z-Komponente des statischen Magnetfeldes. Je nach Raumrichtung lassen sich drei Gradienten unterscheiden: Bz (x, y, z) = B0 + Gx (t) ⋅ x + Gy (t) ⋅ y + Gz (t) ⋅ z Gx =
𝜕Bz = const ; 𝜕x
Gy =
𝜕Bz = const ; 𝜕y
Gz =
𝜕Bz = const 𝜕z
(9.51)
Die Stärke und Zeitdauer der unterschiedlichen Gradienten lassen sich unabhängig voneinander steuern. Wegen Gl. (9.15) hängt die Präzessionsfrequenz somit über die Gradienten vom Ort ab und erlaubt somit eine Ortskodierung: 𝜔(x, y, z) = 𝛾 ⋅ B0 + 𝛾 ⋅ Gx (t) ⋅ x + 𝛾 ⋅ Gy (t) ⋅ y + 𝛾 ⋅ Gz (t) ⋅ z 𝜔(x, y, z) = 𝜔0 + 𝛾 ⋅ Gx (t) ⋅ x + 𝛾 ⋅ Gy (t) ⋅ y + 𝛾 ⋅ Gz (t) ⋅ z
(9.52)
Im Folgenden soll die Verwendung der einzelnen Gradienten zu Erzeugung eines zweidimensionalen Schichtbildes besprochen werden.
Selektive Schichtanregung Bei der selektiven Schichtanregung wird ein Gradient während eines frequenzselektiven RF-Pulses angelegt. Der Gradient bewirkt, dass sich die Resonanzfrequenz über den Ort linear ändert. Der frequenzselektive RF-Puls regt aber nur diejenigen magnetischen Momente an, welche die Resonanzbedingung erfüllen, d. h., die Frequenz der magnetischen Momente muss mit der Frequenz des RF-Pulses übereinstimmen. Damit wird nur in einer Schicht die Magnetisierung in die transversale Ebene gekippt. Hierbei bestimmen die Mittenfrequenz und die Stärke des Gradienten (d. h. Steilheit der Magnetfeldänderung) den Ort der Schicht, während die Schichtbreite durch die Bandbreite des RF-Pulses und die Stärke des Gradienten bestimmt wird (Abb. 9.17). Für eine mathematische Beschreibung der Schichtselektion müssen die Blochschen Gleichungen Gl. (9.44) gelöst werden. Der Einfachheit halber soll der Einfluss der Relaxation während des RF-Pulses vernachlässigt werden, da die Pulsdauer im Allgemeinen sehr viel kürzer als die Relaxationszeiten ist. Ferner soll nur ein Gradient (z. B. z-Richtung) während des RF-Pulses (in x-Richtung) mit der Mittenfrequenz
352 | Tobias Schaeffter Schicht
ω ω(z) = γ(B₀ + Gzz)
RF-Puls ωRF ω₀ = γB₀
Δz
z
Abb. 9.17: Schichtselektion: Durch gleichzeitiges Schalten eines Gradienten und eines RF-Pulses wird die Magnetisierung nur in einer Schicht angeregt. Dabei bestimmt die Frequenz des RF-Pulses die Position der Schicht, während die Bandbreite und die Gradientenstärke die Schichtdicke bestimmt.
𝜔RF angelegt werden. Damit ergibt sich für die Blochschen Gleichungen im mit -𝜔RF rotierenden Koordinatensystem:
B⃗ eff
𝜕M⃗ = 𝛾 (M⃗ × B⃗ eff ) 𝜕t 𝜔 = B1 (t) ⋅ e⃗ x + (B0 + Gz z − RF ) ⋅ e⃗ z 𝛾
(9.53)
Um eine Schicht bei z0 anzuregen, muss die Mittenfrequenz des RF-Pulses zu 𝜔RF = 2𝜋fc = 𝜔0 + 𝛾Gz z0
(9.54)
gewählt werden. Damit ergibt sich für Beff und die Gl. (9.52): B⃗ eff = B̂ 1 (t) ⋅ e⃗ x + Gz (z − z0 ) ⋅ e⃗ z Mx B̂ 1 (t) Mx d (My ) = (My ) × ( ) 0 dt Gz (z − z0 ) Mz Mz dMx (z, t) = My (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 ) dt dMy (z, t) = −Mx (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 ) + Mz (z, t) ⋅ 𝛾 ⋅ B̂ 1 (t) dt dMz (z, t) = −My (z, t) ⋅ 𝛾 ⋅ B̂ 1 (t) dt
(9.55)
9 Magnetische Resonanztomographie
| 353
Dieses Gleichungssystem lässt sich für kleine Kippwinkel in einer geschlossenen Form lösen. Dafür nimmt man an, dass sich die z-Komponente der Magnetisierung für kleine Kippwinkel nicht ändert, d. h. Mz (z, t) = M0 : dMx (z, t) = My (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 ) dt dMy (z, t) = −Mx (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 ) + M0 ⋅ 𝛾 ⋅ B̂ 1 (t) dt dMz (z, t) =0 dt
(9.56)
Für die einfachere Beschreibung wird die komplexe transversale Magnetisierung Mxy eingeführt: Mxy = Mx + iMy dMxy (z, t) dt dMxy (z, t) dt dMxy (z, t) dt
=
dMy (z, t) dMx (z, t) +i dt dt
= My (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 ) − iMx (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 ) + iM0 ⋅ 𝛾 ⋅ B̂ 1 (t) = −iMxy (z, t) ⋅ 𝛾 ⋅ Gz (z − z0 ) + iM0 ⋅ 𝛾 ⋅ B1 (t)
(9.57)
Die Lösung dieser Differentialgleichung zum Zeitpunkt T ergibt sich mit der Anfangsbedingung Mxy (z, 0) = 0 zu: T
T
−i ∫ 𝛾Gz ⋅(z−z0 )d𝜏∗
Mxy (z, T) = i𝛾M0 ∫ B̂ 1 (𝜏) ⋅ e
𝜏
d𝜏
(9.58)
0
Zur einfacheren Formulierung kann die Abkürzung kz eingeführt werden, die sich aus dem zeitlichen Verlauf des Gradienten ergibt: T
kz (t) = − ∫ 𝛾Gz (𝜏∗ )d𝜏∗
(9.59)
t
damit erhält man nach Substitution von kz (t): kz (T)
Mxy (z, T) = i𝛾M0 ∫ kz (0)
W1 (kz ) =
B̂ 1 (kz ) dkz dt
kz (T)
⋅e
ikz (z−z0 )
dkz = i𝛾M0 ∫ W1 (kz ) ⋅ eikz (z−z0 ) dkz kz (0)
B̂ 1 (kz )
(9.60)
dkz dt
Zur weiteren Vereinfachung betrachtet man zunächst z0 = 0 und erweitert die Integrationsgrenzen durch Einführung einer Fensterfunktion 𝛱(kz ) mit der Verschiebung ks : ∞
Mxy (z) = i𝛾M0 ∫ W1 (kz ) ⋅ 𝛱𝛥k (kz − ks ) ⋅ e−ikz z dkz z
−∞
(9.61)
354 | Tobias Schaeffter Die Gleichung beschreibt eine Fourier-Transformation zwischen einem kz -Raum und dem Ortsbereich. Daher kann das Schichtprofil Mxy (z) aus der FourierTransformierten der Funktion W1 (kz ) berechnet werden, welche vom RF-Puls abhängt. Der Vorteil dieser Beschreibung ist, dass für ein gewünschtes Schichtprofil und einen beliebigen Gradientenzeitverlauf der geeignete RF-Puls berechnet werden kann. Es soll darauf hingewiesen werden, dass der kz -Raum der Anregung immer bei Null endet. Dies hat Auswirkung auf die Phase des Schichtprofils der Magnetisierung. Betrachtet man einen RF-Puls während eines konstanten Gradienten, so ergibt sich eine lineare Veränderung im kz -Raum: Gz (t) = G;̂ 0 < t < T) kz (t) = −𝛾 ⋅ Ĝ ⋅ (T − t) 𝛥kz = 𝛾 ⋅ Ĝ ⋅ T ks = 𝛥kz /2 ∞
Mxy (z) = i𝛾M0 ∫ W1 (kz − ks ) ⋅ eikz z dkz
(9.62)
−∞
Nach dem Verschiebungstheorem der Fourier-Transformation [Bracewell 1999] ergibt sich eine lineare Phase über dem Schichtprofil, d. h., die transversale Magnetisierung ist entlang der Schicht dephasiert, was zur einer Reduktion des Signals führt (Abb. 9.18). Es soll nun gezeigt werden, dass ein zusätzlicher Gradient nach dem Anregungspuls zu einer Rephasierung der transversalen Magnetisierung entlang des Schichtprofils führt (Abb. 9.19). Diese Fläche dieses Gradienten wird halb so groß wie die Fläche des Schichtselektionsgradienten gewählt. Damit ergibt sich folgender kz -Raum: {Ĝ ; 0