248 29 19MB
German Pages 483 [484] Year 2015
Hartmut Dickhaus, Petra Knaup-Gregori Biomedizinische Technik – Medizinische Informatik Studium
Biomedizinische Technik
| Herausgegeben von Ute Morgenstern und Marc Kraft
Hartmut Dickhaus, Petra Knaup-Gregori
Biomedizinische Technik – Medizinische Informatik | Band 6
Prof. Dr.-Ing. Hartmut Dickhaus Universität Heidelberg Institut für Medizinische Biometrie und Informatik Im Neuenheimer Feld 305, 69120 Heidelberg E-Mail: [email protected] Prof. Dr. sc. hum. Petra Knaup-Gregori Universität Heidelberg Institut für Medizinische Biometrie und Informatik Im Neuenheimer Feld 305, 69120 Heidelberg E-Mail: [email protected]
ISBN 978-3-11-025204-0 e-ISBN (PDF) 978-3-11-025222-4 e-ISBN (EPUB) 978-3-11-038515-1 Library of Congress Cataloging-in-Publication Data A CIP catalog record for this book has been applied for at the Library of Congress. Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. Der Verlag hat für die Wiedergabe aller in diesem Buch enthaltenen Informationen (Programme, Verfahren, Mengen, Dosierungen, Applikationen etc.) mit Autoren bzw. Herausgebern große Mühe darauf verwandt, diese Angaben genau entsprechend dem Wissensstand bei Fertigstellung des Werkes abzudrucken. Trotz sorgfältiger Manuskriptherstellung und Korrektur des Satzes können Fehler nicht ganz ausgeschlossen werden. Autoren bzw. Herausgeber und Verlag übernehmen infolgedessen keine Verantwortung und keine daraus folgende oder sonstige Haftung, die auf irgendeine Art aus der Benutzung der in dem Werk enthaltenen Informationen oder Teilen davon entsteht. Die Wiedergabe der Gebrauchsnamen, Handelsnamen, Warenbezeichnungen und dergleichen in diesem Buch berechtigt nicht zu der Annahme, dass solche Namen ohne weiteres von jedermann benutzt werden dürfen. Vielmehr handelt es sich häufig um gesetzlich geschützte, eingetragene Warenzeichen, auch wenn sie nicht eigens als solche gekennzeichnet sind. © 2015 Walter de Gruyter GmbH, Berlin/Boston Satz: le-tex publishing services GmbH, Leipzig Druck und Weiterverarbeitung: Hubert & Co. GmbH & Co. KG, Göttingen Einbandabbildung: Getty Images/Science Photo Library RF ♾ Gedruckt auf säurefreiem Papier Printed in Germany www.degruyter.com
Vorwort zur Lehrbuchreihe Biomedizinische Technik Die Biomedizinische Technik umfasst – kurz gesagt – die Bereitstellung ingenieurwissenschaftlicher Mittel und Methoden und deren Anwendung auf lebende Systeme in Biologie und Medizin. Es ist ein faszinierendes, breit angelegtes und interdisziplinäres Fachgebiet, das in der Lehrbuchreihe „Biomedizinische Technik“ aus unterschiedlichen Blickwinkeln betrachtet wird. Spannende Fragen, die in den Lehrbüchern beantwortet werden: Was machen technische Werkstoffe wie Stahl, Keramik, Car bon oder Titan inmitten eines lebenden Menschen, und was kann passieren, wenn sie in Kontakt mit dem Blutstrom kom men? Wie passt man Kugelkopf und Schaft bei einem künstli chen Hüftgelenk am besten an die natürlichen anatomischen Verhältnisse des Patienten an? Ist es günstiger, eine defekte Herzklappe durch die eines gesunden Schweines oder durch ei ne technische Nachbildung mit hörbar klapperndem Ventil zu ersetzen?
„Ich atme, also bin ich“ – was ist, wenn ich nicht mehr selbst atme? Was tut die Beatmungsmaschine, um Leben zu erhalten, und warum heißt das Gerät zur maschinellen Beatmung Ven tilator und nicht Respirator? Wodurch unterscheiden sich eine natürliche und eine ganz anders konstruierte Künstliche Nase bei der Atemgasanfeuchtung? Welches physikalische Grund prinzip nutzte der Forscher W. J. Kolff, basierend auf seinen Ex perimenten mit Zellophan, für die erste erfolgreiche Dialysebe handlung?
Wenn ein Stromschlag für den Menschen tödlich sein kann, wieso reizt man dann mit elektrischen Impulsen bewusst be stimmte Nerven? Weswegen ist gerade Wasser ein guter Ver mittler der Ionenbewegung zwischen Neurotechnik und biolo gischem Gewebe? Wie stellen wir uns zukünftig eine technische Sehhilfe vor, die nicht nur Helligkeitsunterschiede, sondern so gar hochaufgelöste farbige Bildinformation wahrnehmen und dem Hirn übermitteln kann?
Abbildungen: Biomedizinische Technik. Von oben nach unten: Bewegung mittels künstlichem Hüft gelenk; maschinelle Überdruckbeatmung; Retina-Implantat als Sehhilfe.
VI | Vorwort zur Lehrbuchreihe Biomedizinische Technik
Wenn Sie an Antworten auf diese und weitere Fragen interessiert sind, dann lesen Sie weiter! Experten aus allen Bereichen haben in den zwölf Bänden der Reihe eine in sich stimmige systematische Darstellung der Biomedizinischen Technik komponiert: Ausgehend vom einführenden strukturierten Überblick werden über die medizinischen, physikalischen, terminologischen und methodischen Grundlagen in den Fachbänden der Reihe die wesentlichen Teilgebiete dargestellt. Den Abschluss bildet ein Band zur Entwicklung und Bewirtschaftung von Medizinprodukten, mit dem die Brücke vom theoretischen Hintergrund der biomedizintechnischen Verfahren und Geräte zur praktischen klinischen Nutzung geschlagen wird. Die Herausgeberschaft der Reihe liegt im Fachausschuss „Aus- und Weiterbildung – Biomedizinische Technik im Studium“ der Deutschen Gesellschaft für Biomedizinische Technik (DGBMT) im Verband der Elektrotechnik Elektronik Informationstechnik (VDE).
Die jeweiligen Bandherausgeber bilden den Wissenschaftlichen Beirat der Lehrbuchreihe, der auf ausgewogene Darstellung der Biomedizinischen Technik aus wissenschaftstheoretischer, Anwender- und Herstellersicht achtet. Die Autoren vertreten eine Vielfalt unterschiedlicher Aspekte aus der Lehre, der Forschung und Entwicklung, der Produktion, der Klinik, dem Standardisierungs- und Prüfwesen sowie der Gesundheitswirtschaft.
Vorwort zur Lehrbuchreihe Biomedizinische Technik |
Die 12 Bände der Lehrbuchreihe im Überblick Biomedizinische Technik Band 1: Faszination, Einführung, Überblick Herausgegeben von Ute Morgenstern und Marc Kraft ISBN: 978-3-11-025198-2 e-ISBN: 978-3-11-025218-7 Biomedizinische Technik Band 2: Physikalische, medizinische und terminologische Grundlagen Herausgegeben von Ewald Konecny und Clemens Bulitta ISBN: 978-3-11-025200-2 e-ISBN: 978-3-11-025219-4 Biomedizinische Technik Band 3: Biomaterialien, Implantate und Tissue Engineering Herausgegeben von Birgit Glasmacher und Gerald A. Urban ISBN: 978-3-11-025201-3 e-ISBN: 978-3-11-025216-3 Biomedizinische Technik Band 4: Modellierung und Simulation Herausgegeben von Ute Morgenstern, Falk Uhlemann und Tilo Winkler ISBN: 978-3-11-025202-6 e-ISBN: 978-3-11-025224-8 Biomedizinische Technik Band 5: Biosignale und Monitoring Herausgegeben von Hagen Malberg und Gerald A. Urban ISBN: 978-3-11-025203-3 e-ISBN: 978-3-11-025217-0 Biomedizinische Technik Band 6: Medizinische Informatik Herausgegeben von Hartmut Dickhaus und Petra Knaup-Gregori ISBN: 978-3-11-025204-0 e-ISBN: 978-3-11-025222-4
VII
VIII | Vorwort zur Lehrbuchreihe Biomedizinische Technik
Biomedizinische Technik Band 7: Medizinische Bildgebung Herausgegeben von Olaf Dössel und Thorsten M. Buzug ISBN: 978-3-11-025205-7 e-ISBN: 978-3-11-025214-9 Biomedizinische Technik Band 8: Bild- und computergestützte Interventionen Herausgegeben von Tim Lüth ISBN: 978-3-11-025206-4 e-ISBN: 978-3-11-025215-6 Biomedizinische Technik Band 9: Automatisierte Therapiesysteme Herausgegeben von Jürgen Werner ISBN: 978-3-11-025207-1 e-ISBN: 978-3-11-025213-2 Biomedizinische Technik Band 10: Rehabilitationstechnik Herausgegeben von Marc Kraft und Catherine Disselhorst-Klug ISBN: 978-3-11-025208-8 e-ISBN: 978-3-11-025226-2 Biomedizinische Technik Band 11: Neurotechnik Herausgegeben von Thomas Stieglitz, Ulrich G. Hofmann und Steffen Rosahl ISBN: 978-3-11-025209-5 e-ISBN: 978-3-11-025225-5 Biomedizinische Technik Band 12: Entwicklung und Bewirtschaftung von Medizinprodukten Herausgegeben von Stephan Klein, Felix Capanni, Uvo M. Hölscher und Frank Rothe ISBN: 978-3-11-025210-1 e-ISBN: 978-3-11-025223-1
Vorwort zur Lehrbuchreihe Biomedizinische Technik |
IX
Besonderheiten der Reihe Jeder Band der Reihe ist inhaltlich eigenständig angelegt. Im Überblicksband (Band 1) werden alle Schwerpunktthemen der Fachbände kurz dargestellt. Es bietet sich daher an, den ersten Band als Einstieg zu nutzen und um die Inhalte der nachfolgenden Bände zu ergänzen, in denen die Fachthemen behandelt werden, die jeweils von persönlichem Interesse sind. – Wir haben uns für die Vermittlung des Stoffes in deutscher Sprache entschieden, um allen Lesern, insbesondere Studierenden der deutschsprachigen Bachelor-, Master- und Diplomstudiengänge, ein fundiertes und einfach zu erschließendes Grundlagenwissen mit auf den Weg zu geben. In allen Bänden der Lehrbuchreihe wird selbstverständlich auch auf ergänzende, weiterführende Fachliteratur in englischer Sprache verwiesen. – Alle zwölf Bände sind nach den gleichen didaktischen Prinzipien aufgebaut: Es werden für das weitere Verständnis erforderliche Grundlagen des jeweiligen Fachgebiets mit aussagekräftigen Übersichten und Abbildungen dargelegt und mit anwendungsorientierten Praxisbeispielen verknüpft. – Alle Kapitel besitzen Zusammenfassungen in deutscher und englischer Sprache sowie (in den Bänden zwei bis zwölf) einen Wissenstest zur Prüfungsvorbereitung. Ein kapitelbezogenes Glossar fasst in jedem Band die wichtigsten Begriffe und Definitionen zusammen. Formelzeichen und Abkürzungen sind jeweils für die Bände zusammengestellt. – Über den vom Verlag angebotenen elektronischen Zugriff auf die Bände lassen sich Querverweise und Suchstrategien besonders gut realisieren. Einzelne Kapitel wie z. B. die „Medizinische Terminologie für die Biomedizinische Technik“ werden bereits durch eine Lernsoftware ergänzt – beste Voraussetzungen, um den Stoff spielerisch kennenzulernen und zu trainieren und ggf. medizinische Fachbegriffe auf unterhaltsame Weise auswendig zu lernen. Die Herausgeber danken allen Beteiligten für das große Engagement, mit dem die Reihe auf den Weg gebracht wurde: den Hochschullehrern und Autoren, den Verlagsmitarbeitern und Lektoren, den Grafikern und Administratoren und allen anderen fleißigen Helfern, die zum Gelingen beigetragen haben! Alle Autoren freuen sich über Anregungen zur Verbesserung unserer Lehrbuchreihe! Wir wünschen allen Lesern viel Erfolg und tiefgründige Erkenntnisse, aber auch großes Vergnügen beim Lesen und Lernen, beim Einarbeiten in die Thematiken der Biomedizinischen Technik und beim Vertiefen interessanter Teilgebiete. Die Herausgeber der Lehrbuchreihe Ute Morgenstern und Marc Kraft
Vorwort zu Band 6 der Lehrbuchreihe Biomedizinische Technik – Medizinische Informatik Liebe Leserinnen und Leser, Medizinische Informatik ist in ihren zahlreichen Facetten mit der Medizin, der Informatik und der Biomedizinischen Technik eng verwoben und nimmt als Querschnittsfach eine besondere Rolle ein. Zum Beispiel erfordert heute die Bearbeitung medizinisch-biologischer Problemstellungen unbedingt effiziente Methoden der Informationsverarbeitung und moderne IT-Infrastrukturen. Darüber hinaus hat die Medizinische Informatik ein spezifisches Anwendungsspektrum im Kontext der zahlreichen Aufgaben und Prozesse in unserem Gesundheitssystem. Beispiele sind die Entscheidungsunterstützung bei diagnostischen oder therapeutischen Fragestellungen, das Management und die Präsentation der zahlreichen Daten ganz unterschiedlicher Art in Krankenhausinformationssystemen sowie die effiziente Speicherung von Forschungsdaten in Datenbanken. Der vorliegende Band will den Studierenden das breite Spektrum der Fragestellungen und Anwendungsfelder der Medizinischen Informatik vor Augen führen und das Verständnis für die komplexen Zusammenhänge fördern. Die Interdisziplinarität des Faches und ihr breites Methodenspektrum aus vielen Bereichen der Natur- und Lebenswissenschaften unterstreichen die aktuelle Bedeutung des Faches und seine hohe Attraktivität. Die Themen des vorliegenden Bandes bieten zu mancherlei Inhalten der weiteren Bände dieser Lehrbuchreihe wertvolle Ergänzungen und Bezüge. So kann z. B. das Kapitel „Bildverarbeitung“ dieses Bandes in unmittelbarem Bezug zu Band 7 (Medizinische Bildgebung) gesehen werden. Band 5 (Biosignale und Monitoring) steht wiederum im Zusammenhang mit den Kapiteln „Telemedizin“ und „Technische Assistenzsysteme“. So bleibt schließlich zu hoffen, dass durch das Studium dieses Bandes die Bedeutung der Medizinischen Informatik im Gesundheitswesen in ihrer Eigenständigkeit – aber auch durch ihre die Biomedizinische Technik ergänzenden Funktionen – demonstriert werden kann und dies den interessierten Studierenden wertvolle Anleitung und Unterstützung sein wird. Wir danken allen Autoren, die mit hoher Kompetenz und großer Sorgfalt geholfen haben, dass dieser Band in seiner Vielfalt der Themen zustande gekommen ist. Für die praktische Unterstützung bei der Erstellung dieses Bandes danken wir besonders den Mitarbeitern unserer Sektion Medizinische Informatik Christoph Auer, Martin Löpprich, Lydia Roeder und Marianne Schmidt. Darüber hinaus haben wir die sorgfältige und kompetente Begleitung der Mitarbeiter des DeGruyter-Verlags besonders zu schätzen gelernt. Insbesondere danken wir der Lektorin Frau Priv.-Doz. Dr. Eva
Vorwort zu Band 6 der Lehrbuchreihe Biomedizinische Technik – Medizinische Informatik |
XI
Gottfried und Frau Dr. Britta Nagl, die uns jederzeit in allen redaktionellen Fragen bei der Erstellung des Bandes pragmatisch und mit hohem Sachverstand beraten haben. Nicht zuletzt sei den Herausgebern und Initiatoren der 12-bändigen Lehrbuchreihe zur Biomedizinischen Technik gedankt, Frau Priv.-Doz. Dr. Ute Morgenstern, Universität Dresden und Herrn Prof. Dr. Marc Kraft, Freie Universität Berlin. Sie haben beide als Leiter des Fachausschusses „Aus- und Weiterbildung“ der Deutschen Gesellschaft für Biomedizinische Technik im VDE mit unermüdlicher Geduld und hohem persönlichem Einsatz dafür gesorgt, dass nun auch dieser Band im Rahmen der Lehrbuchreihe fertig gestellt werden konnte. Die Herausgeber des sechsten Bandes
Hartmut Dickhaus und Petra Knaup-Gregori Heidelberg, im Mai 2015
Inhalt Vorwort zur Lehrbuchreihe Biomedizinische Technik | V Vorwort zu Band 6 der Lehrbuchreihe Biomedizinische Technik – Medizinische Informatik | X Hinweise zur Benutzung | XVII Verzeichnis der Abkürzungen | XIX Verzeichnis der Formelzeichen und Symbole | XXVIII Hartmut Dickhaus 1 Einführung in die Medizinische Informatik | 1 1.1 Historische Entwicklung des Fachgebiets | 4 1.2 Lehre und Ausbildung, Fachgesellschaften | 7 1.3 Gesellschaftliche Aspekte der Medizinischen Informatik | 12 1.4 Herausforderungen und zukünftige Entwicklungen | 14 1.5 Inhalte und Gliederung des Bandes | 18 Franziska Jahn 2 Krankenhausinformationssysteme | 27 2.1 Einleitung | 28 2.2 Anwendungssysteme im Krankenhaus | 29 2.3 Architektur von Krankenhausinformationssystemen | 35 2.4 Integration im Krankenhausinformationssystem | 44 2.5 Management von Krankenhausinformationssystemen | 48 2.6 Qualität von Krankenhausinformationssystemen | 54 2.7 Zusammenfassung und Ausblick | 56 Petra Knaup-Gregori 3 Patientenakten | 59 3.1 Einleitung | 60 3.2 Grundlagen der medizinischen Dokumentation | 62 3.3 Entwicklungsstufen von Patientenakten | 65 3.4 Begriffsbestimmung im Kontext elektronischer Patientenakten | 76 3.5 Standards für elektronische Patientenakten | 77 3.6 Zusammenfassung und Ausblick | 80
XIV | Inhalt
Hans-Ulrich Prokosch 4 IT für die medizinische Forschung | 83 4.1 Einleitung | 84 4.2 Grundlegende Begriffe im Kontext der medizinischen Forschung | 85 4.3 Institutionen im Umfeld der medizinischen Forschung | 90 4.4 Datenmanagement in Studien und für Register | 94 4.5 Datenschutz in der medizinischen Forschung | 97 4.6 Beispiele für IT-Anwendungen in der medizinischen Forschung | 98 4.7 Die CDISC-Standards für die medizinische Forschung | 110 4.8 Ausblick | 111 Richard Lenz, Thomas Ganslandt 5 Medizinische Datenbanken | 115 5.1 Einleitung | 116 5.2 Grundlagen | 117 5.3 Datenbankmodell und Datenbankentwurf | 124 5.4 Verteilte Datenhaltung und Systemintegration | 137 5.5 Data Warehouses in der Medizin | 142 5.6 Data Mining | 160 Cord Spreckelsen, Peter Schlattmann 6 Medizinische Entscheidungsunterstützung | 165 6.1 Einleitung | 166 6.2 Statistische Konzepte | 167 6.3 Symbolische Wissensverarbeitung | 170 6.4 Klassifikation und Mustererkennung | 175 6.5 Lernen aus Daten | 178 6.6 Probabilistische Entscheidungsfindung | 180 6.7 Biomedizinische Ontologien und ihre formale Repräsentation | 182 6.8 Klinische Entscheidungsunterstützungssysteme | 188 6.9 Standardisierungsansätze für Clinical Decision Support Systems | 191 6.10 Ausgewählte Anwendungsgebiete | 193 6.11 Zusammenfassung und Ausblick | 197 Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin 7 Bioinformatik und Systembiologie | 201 7.1 Einleitung | 202 7.2 Biologisch-genetische Grundlagen | 204 7.3 Bioinformatik | 212 7.4 Systembiologie | 227 7.5 Zusammenfassung und Ausblick | 240
Inhalt | XV
Hartmut Dickhaus, Heinz Handels 8 Medizinische Bildverarbeitung | 243 8.1 Einleitung | 244 8.2 Typen und Formate medizinischer Bilddaten | 245 8.3 Operatoren und Transformationen | 251 8.4 Segmentierung | 258 8.5 Registrierung medizinischer Bilddaten | 263 8.6 3D-Visualisierung | 269 8.7 Zusammenfassung und Ausblick | 280 Martin Staemmler, Michael Walz 9 Telemedizin | 285 9.1 Einführung | 286 9.2 Teleradiologie | 287 9.3 Telepathologie | 296 9.4 Telekonferenz | 299 9.5 Telemonitoring | 303 9.6 Rahmenbedingungen | 311 9.7 Zusammenfassung und Ausblick | 315 Edwin Naroska, Christian Ressel, Gudrun Stockmanns 10 Technische Assistenzsysteme im Kontext des demografischen Wandels | 319 10.1 Einleitung | 320 10.2 Wurzeln und Ausprägungen des Ambient Assisted Living (AAL) | 321 10.3 Ziele und Aufgaben von Ambient-Assisted-Living-Systemen | 325 10.4 Herausforderungen technischer Assistenz im Rahmen von AAL | 331 10.5 Technische Infrastruktur eines AAL-Systems | 334 10.6 Beispiele zentraler Dienste: Verhaltensanalyse und Aktivitätserkennung | 342 10.7 Zusammenfassung und Ausblick | 345 Kai U. Heitmann 11 IT-Standards in der Medizin | 351 11.1 Einleitung | 352 11.2 Grundlagen | 353 11.3 Kommunikationsstandards | 359 11.4 Terminologiestandards | 377 11.5 Zusammenfassung und Ausblick | 380
XVI | Inhalt
Klaus Pommerening, Marita Muscholl 12 Datenschutz und IT-Sicherheit in der Medizin | 385 12.1 Einleitung | 386 12.2 Rechtliche Rahmenbedingungen | 387 12.3 Problemfelder des Datenschutzes in der Medizin | 390 12.4 Technische Grundlagen der IT-Sicherheit | 398 12.5 Konzepte zur IT-Sicherheit | 409 12.6 Zusammenfassung | 417 Autorenverzeichnis | 421 Bandspezifisches Glossar | 425 Sachwortverzeichnis | 441
Hinweise zur Benutzung Methodischer Hinweis Ob elektronisch oder auf Papier: Es empfiehlt sich immer, ein Lehrbuch als Arbeitsbuch zu benutzen, es mit persönlichen Notizen, Hervorhebungen und Markierungen zu versehen. Über www.degruyter.de lassen sich auf elektronischem Wege beim Verlag Kapitel aus Bänden zu einem eigenen Sammelwerk zusammenstellen. Ergänzende interaktive Lernsoftware findet man z. B. unter www.theragnosos.de. Gender-Hinweis Im Gegensatz zu rein technischen Fächern ist im Bereich der Biomedizinischen Technik das Geschlechterverhältnis ausgewogener. In den Bänden der Lehrbuchreihe „Biomedizinische Technik“ liegt der Schwerpunkt auf fachlichen Darstellungen der Grundlagen unseres Berufsbildes, bei dem das Geschlecht des Akteurs selbst keine Rolle spielt. Aus diesem Grund wird generell für alle Personen- und Funktionsbezeichnungen das generische (geschlechtsneutrale) Maskulinum verwendet, das die weibliche Form einschließt. Verzeichnis der Abkürzungen Allgemeine Abkürzungen sind im Abkürzungsverzeichnis aufgeführt (s. S. XIX). Verzeichnis der Formelzeichen, Symbole und Indizes Formelzeichen, Symbole und Indizes sind im jeweiligen Verzeichnis aufgeführt (s. S. XXVIII). Quellen Die Quellenangaben bei Normen und Standards sind grundsätzlich ohne Jahreszahl vermerkt, da die jeweils aktuelle Ausgabe zu beachten ist. Soweit in den Abbildungen Quellen genannt werden, finden sich Erstautor und Jahreszahl in eckigen Klammern, die im Quellenverzeichnis am Ende des Kapitels aufgelöst werden. Verzeichnis der Autoren Alle Autoren des Bandes sind im Autorenverzeichnis am Ende des Bandes aufgeführt (s. S. 421). Bandspezifisches Glossar Alle Definitionen des Bandes sind im Glossar am Ende des Bandes zusammengeführt (s. S. 425).
XVIII | Hinweise zur Benutzung
Sachwortverzeichnis Wichtige Begriffe, auf deren Erläuterung man beim Suchen im Sachwortverzeichnis am Ende des Bandes verwiesen wird, sind im Text gefettet dargestellt. Im Text verwendete Symbole sowie Sonderauszeichnungen des Textes Neben den üblichen mathematischen Symbolen und Sonderzeichen wird folgendes Symbol im Text verwendet: verweist auf Abbildungen, Tabellen, Glossarbegriffe, Kapitel und Bände innerhalb der Reihe Biomedizinische Technik. Alle Einträge, die im Sachwortverzeichnis und im bandspezifischen Glossar verzeichnet sind, sind im Text hervorgehoben durch eine fette Auszeichnung des Begriffs.
Alle Definitionen innerhalb der Kapitel sind gekennzeichnet durch einen grau hinterlegten Kasten.
Alle erläuternden Beispiele und Exkursionen innerhalb der Kapitel sind gekennzeichnet durch dieses Symbol und einen gerahmten Kasten mit einer, den Textabschnitt begrenzenden, blauen Ober- und Unterlinie. Dieses Symbol markiert den Übungsteil in Form von Testfragen zum Verständnis des jeweiligen Kapitels am Kapitelende.
Verzeichnis der Abkürzungen 1NF 2NF 2PC 3LGM2 3NF AAL ACCR aCGH ACID ACK ACR ADaM ADL ADT AES AHD AL ALC AMG AmI AML ANSI ART ATP AWMF BÄK BCNF BD2K BfArM BLAST BMBF BMG BMI
erste Normalform zweite Normalform 2Phase Commit 3-Layer Graph-Based Metamodel, 3-Ebenen-Metamodell dritte Normalform Ambient Assisted Living, altersgerechte Assistenzsysteme für ein selbstbestimmtes Leben, umgebungsunterstütztes Leben Advisory Committee on Computers in Research Array-based Comparative Genome Hybridization Atomicity, Consistency, Isolation and Durability, AKID, Atomarität, Konsistenz, Isolation und Dauerhaftigkeit Acknowledgement, Bestätigung American College of Radiology Analysis Dataset Model Archetype Definition Language, Sprache zur Definition von Archetypen 1. Abrechnungsdatenträger, 2. Arbeitsgemeinschaft Deutscher Tumorzentren Advanced Encryption Standard Application Hosting Device, Anwendungsspeichergerät Aussagenlogik Attributive Concept Language with Complements Arzneimittelgesetz Ambient Intelligence, Umgebungsintelligenz akute myeloische Leukämie American National Standards Institute Adverse Reaction Terminology Adenosintriphosphat Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften Bundesärztekammer Boyce-Codd-Normalform Big Data to Knowledge Bundesinstitut für Arzneimittel und Medizinprodukte Basic Local Alignment Search Tool Bundesministerium für Bildung und Forschung Bundesministerium für Gesundheit Body Mass Index
XX | Verzeichnis der Abkürzungen
BPMN BSI BVMI CAP CBR CCC CCOW CCR CD CDA CDASH CDER CDISC
cDNA CDS CDSS CDSTC CEN CFR C-Get CHA CIO CKM CM COPD CORBA COSTART CPG CPOE
CPR CRF
Business Process Model Notation, Notation für Geschäftsprozessmodelle Bundesamt für Sicherheit in der Informationstechnik Berufsverband Medizinischer Informatiker College of American Pathologists Case-based Reasoning, fallbasiertes Schließen Comprehensive Cancer Center Clinical Context Object Workgroup Continuity of Care Record Compact Disc Clinical Document Architecture Clinical Data Acquisition Standards Harmonization Center for Drug Evaluation and Research Clinical Data Interchange Standards Consortium, Standardisierungsorganisation für Standards zum Austausch von Daten aus klinischen Studien complementary Deoxyribonucleic Acid, komplementäre Desoxyribonukleinsäure Clinical Decision Support, klinische Entscheidungsunterstützung Clinical Decision Support System, klinisches Entscheidungsunterstützungssystem Clinical Decision Support Technical Committee Comité Européen de Normalisation, Europäisches Komitee für Standardisierung Code of Federal Regulations DICOM-Operation zur Bildbereitstellung Continua Health Alliance Chief Information Officer, Leiter des Informationsmanagements Clinical Knowledge Manager Context Manager Chronic Obstructive Pulmonary Disease, chronisch obstruktive Lungenerkrankung Common Object Request Broker Architecture Coding Symbols for a Thesaurus of Adverse Reaction Terminology Computerized Clinical Practice Guidelines, computerunterstützte Leitlinien Computerized Physician Order Entry, 1. computerbasierte Leistungsanforderung, 2. elektronische Arzneimittelverordnung Computer-based Patient Record, elektronische Patientenakte Case Report Form, Prüfbogen in klinischen Studien
Verzeichnis der Abkürzungen | XXI
CSCW C-Store CT D2D DAG DBS DBVS DCA DDBJ DECT DH-Algorithmus DICOM DIMDI DIN DIP DL DMP DNA DPKK DRG DSS DSS-SFM DVD DWH E/R EAV EBM ECA ECC eCRF EDC EDD EDV EEG EFMI EGA eHBA EHR
Computer Supported Cooperative Work, computerunterstützte Gruppenarbeit DCIOM-Operation zur Bildspeicherung 1. Computertomographie, 2. Computertomograph Doctor to Doctor Directed Acyclic Graph, gerichteter azyklischer Graph Datenbanksystem Datenbankverwaltungssystem Divide-and-Conquer-Verfahren, Teile-und-Herrsche-Verfahren DNA Data Bank of Japan Digital Enhanced Cordless Telecommunication, digitale schnurlose Sprachübertragung Diffie-Hellman-Algorithmus Digital Imaging and Communications in Medicine, digitale Bildverarbeitung und Kommunikation in der Medizin Deutsches Institut für Medizinische Dokumentation und Information Deutsches Institut für Normung Database of Interacting Proteins Description Logics, Beschreibungslogiken Disease Management Program, Disease-Management-Programm Deoxyribonucleic Acid, Desoxyribonukleinsäure Deutsches Prostatakarzinom-Konsortium Diagnosis Related Groups, diagnosebezogene Fallpauschalen Decision Support Service Decision Support Service Functional Model Digital Video Disc Data Warehouse, Data Warehousing Entity Relationship Entity Attribute Value einheitlicher Bewertungsmaßstab Event Condition Action Elliptic Curve Cryptography electronic Case Report Form, elektronischer Prüfbogen Electronic Data Capture, elektronische Datenerfassung Enterprise Data Dictionary elektronische Datenverarbeitung Elektroencephalogramm European Federation for Medical Informatics elektronische Gesundheitsakte, Electronic Health Record elektronischer Heilberufeausweis Electronic Health Record, elektronische Gesundheitsakte
XXII | Verzeichnis der Abkürzungen
EKG EMA EMBL EMR EPA EPR ERP EST ETL FAMI FDA FHIR fMRT GB GCKD-Kohorte GCP GELLO GEO GI GMDS GMP GO GOÄ GPG GPRS GPS GSEA GTDS HDPE HDTV HIMSS HL7 HRN HSI HSSP HTTP HTTPS i2b2
Elektrokardiogramm European Medicines Agency European Molecular Biology Laboratory Electronic Medical Record elektronische Patientenakte, electronic patient record Electronic Patient Record, elektronische Patientenakte Enterprise Resource Planning Expressed Sequence Tags Extraction, Transformation, Loading, Extrahieren, Transformieren, Laden Fachausschuss Medizinische Informatik Food and Drug Administration, US-Behörde zur Lebensmittelüberwachung und Arzneimittelzulassung Fast Healthcare Interoperability Resources funktionelle Magnetresonanztomographie Gigabyte, 1 Milliarde Byte German-Chronic-Kidney-Disease-Kohorte Good Clinical Practice, Gute Klinische Praxis Guideline Expression Language Gene Expression Omnibus Gesellschaft für Informatik e. V. Deutsche Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie e. V. Good Manufacturing Practice, gute Herstellungspraxis Gene Ontology Gebührenordnung für Ärzte GNU Privacy Guard General Packet Radio Service Global Positioning System, globales Positionsbestimmungssystem Gene Set Enrichment Analysis Gießener Tumordokumentationssystem High Density Polyethylen, Polyethylen mit hoher Dichte High-definition Television Healthcare Information and Management Systems Society Health Level Seven Health Record Network Hue-Saturation-Intensity-Farbraum Health-Care Services Specification Project Hypertext Transfer Protocol Hypertext Transfer Protocol Secure Informatics for Integrating Biology and the Bedside
Verzeichnis der Abkürzungen | XXIII
ICD
ICD-10-GM
ICF
ID ID3 IEEE IGeL IHE IHTSDO IIT IMAP IMIA IP IrDA ISO IST ISTAG IT ITIL JIC JPEG JSON KAS KBV KDMS KEGG KH KI KIS KKS KVP LAB
1. International Statistical Classification of Diseases and Related Health Problems, Internationale statistische Klassifikation der Krankheiten und verwandter Gesundheitsprobleme; 2. implantable cardioverter-defibrillator, implantierbarer Kardioverter-Defibrillator Internationale statistische Klassifikation der Krankheiten und verwandter Gesundheitsprobleme, 10. Revision, German Modification International Classification of Functioning, Disability and Health, Internationale Klassifikation der Funktionsfähigkeit, Behinderung und Gesundheit Identifikationsnummer Iterative Dichotomiser 3 Institute of Electrical and Electronics Engineers individuelle Gesundheitsleistung Integrating the Healthcare Enterprise International Health Terminology Standards Development Organisation Investigator Initiated Trial Internet Message Access Protocol International Medical Informatics Association Internet Protocol Infrared Data Association International Organization for Standardization, Internationale Organisation für Normung Investigator Sponsored Trial Information Society Technologies Advisory Group Informationstechnik Information Technology Infrastructure Library Joint Initiative Council Joint Photographic Experts Group JavaScript Object Notation klinisches Arbeitsplatzsystem Kassenärztliche Bundesvereinigung klinisches Dokumentations- und Managementsystem Kyoto Encyclopedia of Genes and Genomes Krankenhaus Künstliche Intelligenz Krankenhausinformationssystem Koordinierungszentrum für Klinische Studien kontinuierlicher Verbesserungsprozess Laboratory Data Model
XXIV | Verzeichnis der Abkürzungen
LAN LIS LoG LOINC MAP MAPK MB MBO MCU MDK MedDRA MLM MOLAP MOM MPEG MPG MPI MR mRNA MRT MTRA MUMPS NASA NCBI NEMA NFC NGS NIH OCG OCL ODE OID OLAP OLTP OMIM OP openEHR OPS OSGi OWL
Local Area Network, lokales Netzwerk Laborinformationssystem Laplacian of Gaussian Operator Logical Observation Identifiers Names and Codes Maximum-a-posteriori-Regel Mitogen-Activated Protein Kinase Megabyte Musterberufsordnung für Ärzte Multipoint Control Unit Medizinischer Dienst der Krankenkassen Medical Dictionary for Regulatory Activities Medical Logic Module multidimensionales OLAP Message Oriented Middleware Moving Picture Expert Group Medizinproduktegesetz Master Patient Index Magnetresonanzverfahren messenger Ribonucleic Acid, Boten-RNA 1. Magnetresonanztomographie, 2. Magnetresonanztomograph medizinisch-technischer Radiologieassistent Massachusetts General Hospital Utility Multi-Programming System National Aeronautics and Space National Center for Biotechnology Information National Electrical Manufacturers Association Near Field Communication Next Generation Sequencing National Institutes of Health Österreichische Computergesellschaft Object Constraint Language Ordinary Differential Equations, gewöhnliche Differentialgleichung Object Identifier Online Analytical Processing Online Transactional Processing, Online-Transaktionsverarbeitung Online Mendelian Inheritance in Man Operation Open Electronic Health Record Operationen- und Prozedurenschlüssel Open Services Gateway Initiative Web Ontology Language
Verzeichnis der Abkürzungen |
PACS
XXV
Picture Archiving and Communication System, Bildarchivierungsund Kommunikationssystem PAM Percent Accepted Mutations PAN Personal Area Network, persönliches Netzwerk PCR Polymerase Chain Reaction, Polymerase-Kettenreaktion PDA Personal Digital Assistant PDCA Plan, Do, Check, Act PDF Portable Document Format PDF/A Portable Document Format zur Langzeitarchivierung PDMS Patientendatenmanagementsystem PDV Patientendatenverwaltung PET 1. Positronen-Emissions-Tomograph, 2. Positron Emission Tomography, Positronen-Emissions-Tomographie PGP Pretty Good Privacy PHI-BLAST Pattern Hit Initiated BLAST PHR Personal Health Record, persönliche Gesundheitsakte PIN Patientenidentifikationsnummer PKI Public Key Infrastructure PL-1 Prädikatenlogik erster Stufe PM Procedural Manager PMBOK Project Management Body of Knowledge PMS Patientenmanagementsystem POP3 Post Office Protocol Version 3 PR Protocol Representation PSI-BLAST Position-Specific Iterated BLAST RBAC Role Based Access Control, rollenbasierte Zugriffskontrolle RDE Remote Data Entry RDF Resource Description Framework RDF/N3 Resource Description Framework Notation 3 RDWH Research Data Warehouse RFID Radio-Frequency Identification, Identifizierung mithilfe elektromagnetischer Wellen RGB Rot-Grün-Blau-Farbraum RIS Radiologieinformationssystem RKI Robert Koch-Institut RNA Ribonucleic Acid, Ribonukleinsäure ROLAP relationales OLAP RöV Röntgenverordnung RPC Remote Procedure Call RSA-Algorithmus Rivest-Shamir-Adleman-Algorithmus RSNA Radiological Society of North America
XXVI | Verzeichnis der Abkürzungen
SAE SCIPHOX SCP SCU SDM-XML SDO SDTM SDV SGB SGMI SMBL SMTP SNOMED-CT SOA SOP SPECT SSL SVM T TCP TCP/IP TDM TIFF TMF TMZ TR tRNA TTP UAW UCUM UML UML-AC UMTS UN/EDIFACT URI
Serious Adverse Event, schwerwiegende unerwünschte Nebenwirkung Standardized Communication of Information Systems in Physician Offices and Hospitals using XML Service Class Provider Service Class User Study Design Model in XML Standards Development Organization, Standardisierungsorganisation Study Data Tabulation Model Source Data Verification Sozialgesetzbuch Schweizerische Gesellschaft für Medizinische Informatik Systems Biology Markup Language Simple Mail Transfer Protocol Systematized Nomenclature of Medicine – Clinical Terms, systematisierte Nomenklatur der Medizin – klinische Begriffe Service Oriented Architecture, serviceorientierte Architektur Standard Operating Procedure, Standardvorgehensweise Single Photon Emission Computed Tomography, Einzelphotonen-Emissions-Computertomographie Secure Socket Layer Support Vector Machine Template, Muster Transmission Control Protocol, Übertragungssteuerungsprotokoll Transmission Control Protocol / Internet Protocol Trial Design Model Tagged Image File Format Technologie- und Methodenplattform für die vernetzte medizinische Forschung Telemedizinisches Zentrum Teleradiologie transfer-Ribonucleic Acid, Transfer-Ribonukleinsäure Trusted Third Party, unabhängige vertrauenswürdige Instanz unerwünschte Arzneimittelwirkung Unified Code for Units of Measure Unified Modeling Language Unified Modelling Language – Activity Charts Universal Mobile Telecommunications System United Nations/Electronic Data Interchange For Administration, Commerce and Transport Unified Resource Identifiers
Verzeichnis der Abkürzungen | XXVII
USB VDE VPN VStG W3C WADO WAN WHO WLAN WR XDS XDS-I xDT XML
Universal Serial Bus Verband der Elektrotechnik, Elektronik und Informationstechnik Virtual Private Network Versorgungsstrukturgesetz World Wide Web Consortium Web Access to DICOM Objects, Web-Zugriff auf persistente DICOM-Objekte Wide Area Network, großräumiges Netzwerk World Health Organisation, Weltgesundheitsorganisation Wireless Local Area Network, drahtloses lokales Netzwerk Wissensrepräsentation Cross-Enterprise Document Sharing XDS for Imaging Datenaustauschformate Extensible Markup Language
Verzeichnis der Formelzeichen und Symbole Kapitel 4 eGFR
estimated Glomerular Filtration Rate, geschätzte glomeruläre Filtrationsrate
Kapitel 6 f (x) P pj P(Y|X) P(Y ∩ X) P(Ω) P(T − |D− ) P(T + |D+ ) N(x|μ, Σ) X, Y, K X, Y „¬“ „∧“ „∨“ „→“ „∀“ „∃“ ⊢ μ
lineare Funktion Wahrscheinlichkeit Mischungsgewichte bedingte Wahrscheinlichkeit für das Eintreffen des Ereignisses Y unter der Bedingung X Verbundwahrscheinlichkeit für das gemeinsame Eintreffen der Ereignisse X und Y Wahrscheinlichkeit für das Eintreffen des sicheren Ereignisses Wahrscheinlichkeit, einen Gesunden als gesund zu erkennen Wahrscheinlichkeit, einen Kranken als krank zu erkennen Normalverteilung der Variable x mit dem Mittelwert μ und der Varianz Σ Zufallsvariable für die Ereignisse X, Y, oder K Zufallsvariable für die Ereignisse „nicht X“ bzw. „nicht Y“ logischer Junktor: Negation logischer Junktor: Konjunktion logischer Junktor: Disjunktion logischer Junktor: Subjunktion Quantor: eine bestimmte Variable steht für alle Individuen Quantor: eine bestimmte Variable steht für mindestens ein Individuum semantische Folgerung syntaktische Folgerung Mittelwert
Kapitel 7 A k
Platzhalter für einen Ausgangsstoff in einer monomolekularen Reaktion Reaktionsgeschwindigkeitskonstante bei Reaktionen 1. Ordnung in 1/s
Verzeichnis der Formelzeichen und Symbole
KM r [S] t X
| XXIX
Michaelis-Menten-Konstante in mol/l Reaktionsgeschwindigkeit in mol/s Substratkonzentration in mol/l Zeit in s Platzhalter für ein Reaktionsprodukt in einer monomolekularen Reaktion
Kapitel 8 Anmerkung: Fettgedruckte Zeichen stellen vektorielle Größen dar. 2D 3D 3D+t α ai b bj b(m, n) B(m, n) b(x, y) Di E f(m, n, z) G(m, n, z) ∇b(x, y) h Ha H ab I(n, m, z) Ia IL Iamb Idiff Ispec It L4 L8 L Ri
zweidimensional dreidimensional zeitliche Folge von 3D-Daten Rotationswinkel in ° (Grad) Grauwert, dimensionslos Blickrichtung des Betrachters auf eine Fläche Grauwert, dimensionslos diskrete Bildfunktion, Wert eines Bildpunkts (Pixel) an der Stelle m, n Binärbild kontinuierliche Bildfunktion Approximation einer partiellen Ableitung in i-Richtung Energie, dimensionslos Bildfunktionswert eines Objektvoxels 3D-Gradientenvektor Gradient der Funktion b(x, y) Operator oder Maske Entropie der Grauwerte a i in bit/Zeichen Verbundentropie der Grauwerte a i und b j in bit/Zeichen Richtungsvektor der Lichtquelle ambientes Licht einer Szene erzeugt eine konstante Grundhelligkeit Intensität der Lichtquelle ambiente Reflektion aufgrund von Ia diffuse Reflektion aufgrund der Lichtquelle IL spiegelnde Reflektion aufgrund der Lichtquelle IL Isofläche Maske des Laplace-Operators Maske des isotropen Laplace-Operators Landmarke i des Bildes R
XXX | Verzeichnis der Formelzeichen und Symbole
Λ M m N n N(m, n, z) Ns ν(s) p(a) p(a, b) R r(m, n, z) ramb rdiff rspec Ψ s(m, n, z) S Si SDi T t ttresh U(m, n) v(m, n, z) w x x(m, n, z) y z Z
Transinformation, mutual information Anzahl der Spalten der Bildmatrix Spaltennummer der Bildmatrix Anzahl der Zeilen der Bildmatrix Zeilennummer der Bildmatrix Flächennormalenvektor diskrete Menge von Pixeln oder Voxeln Konturlinie Wahrscheinlichkeit für das Auftreten der Bildintensität a Verbundwahrscheinlichkeit für das gemeinsame Auftreten der Bildintensitäten a und b Referenzbild Richtung des reflektierten Anteils Koeffizient der ambienten Reflexion Koeffizient der diffusen Reflexion Koeffizient der spiegelnden Reflexion Abbildungstransformation Translationsvektor Sobel-Operator Maske des Sobel-Operators mit Wirkung in i-Richtung Maske des symmetrischen Differenzoperators in i-Richtung Template-Bild Zeit in s Schwellenwert Lokale Ausdehnung der Operatorumgebung Wert eines Volumenelements (Voxel) an der Stelle m, n, z Gewichtsfaktor kontinuierliche Ortskoordinate Ortsvektor eines Voxels kontinuierliche Ortskoordinate Schichtnummer eines Bildstapels Anzahl der Schichten
Hartmut Dickhaus
1 Einführung in die Medizinische Informatik 1.1 1.2 1.3 1.4 1.5
Historische Entwicklung des Fachgebiets | 4 Lehre und Ausbildung, Fachgesellschaften | 7 Gesellschaftliche Aspekte der Medizinischen Informatik | 11 Herausforderungen und zukünftige Entwicklungen | 14 Inhalte und Gliederung des Bandes | 18
Zusammenfassung: Die Medizinische Informatik hat sich in den letzten fünfzig Jahren parallel mit der Einführung von Computern und elektronischer Datenverarbeitung als eigenständiges Fachgebiet entwickelt. Schon bald wurde ihre Bedeutung für die vielfältigen administrativen und klinischen Aufgaben in allen Bereichen des Gesundheitswesens deutlich. Aufgrund der zunehmenden Digitalisierung und fast vollständigen Durchdringung unserer Gesellschaft mit Computern unterschiedlichster Größe und Leistung sind unzählige Anwendungen der Medizinischen Informatik in der ambulanten und stationären Versorgung wie auch in der Forschung zur Selbstverständlichkeit geworden. Abstract: In keeping with the invention and increasing application of computers and electronic data processing over the past fifty years, medical informatics has developed as an independent scientific discipline. It did not take long to discover its important role in various administrative and clinical fields of our health care system. To date, our society has almost completely been saturated by an increasing digitalization thanks to computers of varying size and performance, which have turned out as basic equipment for in-patient and out-patient treatment as well as medical research.
2 | Hartmut Dickhaus
Die Medizinische Informatik ist ein Fachgebiet, das von der entsprechenden Fachgesellschaft in Deutschland wie folgt charakterisiert wird [GMDS 2015]: Die Medizinische Informatik wird als „die Wissenschaft der systematischen Erschließung, Verwal tung, Aufbewahrung, Verarbeitung und Bereitstellung von Daten, Informationen und Wissen in der Medizin und im Gesundheitswesen“ verstanden.
Weiter heißt es: „Sie ist von dem Streben geleitet, damit zur Gestaltung der bestmöglichen Gesundheitsversorgung beizutragen. Zu diesem Zweck setzt sie Theorien und Methoden, Verfahren und Techniken der Informatik und anderer Wissenschaften ein und entwickelt eigene“. Gegenstand der Medizinischen Informatik sind somit Daten, Information und Wissen mit Anwendungsbereich in der Medizin und im Gesundheitswesen. Beispiele sind Daten im Rahmen der Registrierung eines Elektrokardiogramms (EKG) oder der Computertomographie (CT), Informationen eines Patienten über sein Krankheitsbild und Wissen über die bestmögliche Behandlung einer Erkrankung. Zu ihrer Verarbeitung wird das Methodenspektrum der Informatik und anderer Wissenschaften genutzt [van Bemmel 2008]. In diesem Buch wird also ein Fachgebiet thematisiert, das sich in hohem Maße anwendungsorientiert definiert und sich mit Problemstellungen im Kontext der Lebenswissenschaften bzw. des Gesundheitswesens beschäftigt. Das Verständnis für multidisziplinäre Ansätze und deren gesellschaftliche Auswirkungen ist eine wichtige Voraussetzung dafür. Durch die hohe Dynamik in den Bereichen Medizin und Technik sind auch die zu bearbeitenden Fragestellungen einem stetigen Wandel unterworfen. Im Kontext schnelllebiger Veränderungen, pluralistischer Wertvorstellungen, globalisierter Arbeitswelten und einer zunehmenden Vernetzung bei gleichzeitiger Betonung der Individualisierung sind Konzepte für die zukünftige Gestaltung eines adäquaten Gesundheitsversorgungssystems eine große Herausforderung. So erwartet unsere Gesellschaft die operationale und finanzielle Garantie von ausgewogenen Leistungsansprüchen auf hohem medizinischen Niveau [Dierks 2008]. Auch hierzu sollte die Medizinische Informatik einen Beitrag leisten. Wenn die Digitalisierung heute zunehmend als Innovationstreiber verstanden und gefördert wird, der nicht zuletzt Wachstum und Fortschritt ermöglichen soll [Digitale Agenda 2014–2017], müssen auch die gesellschaftlichen Konsequenzen bis ins private Verhalten hinein bedacht und angemessen berücksichtigt werden. Dazu gehört unter anderem der Schutz der Privatsphäre und personenbezogener Daten vor Missbrauch. In Deutschland wurde schon früh in den Anfängen des Fachgebietes diskutiert, ob die Medizinische Informatik eine eigenständige Wissenschaft sei. Hierzu fehlt laut Wingert aber die Abgrenzung einer eigenständigen Methodik, ein Merkmal der klassischen Definition eines wissenschaftlichen Faches [Wingert 1979]. So definierten dann auch Fachvertreter in den siebziger Jahren die Medizinische Informatik eher durch ihre Anwendungsbereiche und methodischen Werkzeuge, die auf die
1 Einführung in die Medizinische Informatik | 3
jeweiligen Probleme zugeschnitten werden müssen. Reichertz betonte, dass die Medizinische Informatik ein Denken in Systemen erfordere und die Integration unterschiedlicher Wissensbereiche für Problemlösungen benötige [Reichertz 1978]. Van Bemmel formulierte in den achtziger Jahren: Medical Informatics comprises the theoretical and practical aspects of information processing and communication, based on knowledge and experience derived from processes in medicine and health care [van Bemmel 1984].
Auch hier finden wir eine Fokussierung auf das Anwendungsgebiet mit der Betonung auf die methodische Ausrichtung der Informationsverarbeitung.
Daten, Information und Wissen B. Blum, der in den frühen sechziger Jahren einer der Pioniere der Informatik in den USA war und seit 1976 hauptsächlich mit medizinischen Fragestellungen bei der NASA betraut wurde, begann seine Betrachtungen gerne mit der Trias von Daten, Information und Wissen [Blum 1990] (Abb. 1.1). Unabhängig von der Komplexität einer Anwendung der Medizinischen Informatik lässt sich ihr Gegenstand immer auf Daten, Information und Wissen zurückführen. Dabei geht es meist um deren Verknüpfung, Verarbeitung, Speicherung, Bereitstellung oder Übertragung. Entsprechend bieten Informations- und Kommunikationstechnologien die wesentlichen technischen Grundlagen im Zusammenwirken mit Methoden der Informatik. Daten können als symbolische Abbildungen von Sachverhalten bzw. als Zeichenketten angesehen werden, z. B. der Messwert des systolischen Blutdrucks, der Nachname eines Patienten oder die Farbe der Augen. Informationen sind hingegen kontextualisierte Daten, d. h. die Daten stehen in einem inhaltlichen Zusammenhang und machen in diesem eine Aussage. Häufig haben Informationen eine beobachterabhängige Bedeutung, die auch mit der Auftrittswahrscheinlichkeit zusammenhängt. So ist die Aussage, dass bei einer Medikamentenstudie unter kontrollierten Bedingungen die Mortalität bei Einnahme der Wirksubstanz einen bestimmten Prozentsatz beträgt, eine Information. Wissen hingegen repräsentiert beispielsweise Fakten, Regeln oder Gesetzmäßigkeiten, die als gültig erkannt wurden. Dabei wird häufig nochmals zwischen verschiedenen Formen von Wissen unterschieden, wie z. B. explizites und implizites, exaktes oder empirisches Wissen. Der Übergang zwischen Wissen und Information ist häufig fließend. So kann durch Analyse und Verknüpfung von Informationen Wissen generiert werden. Die Auswertung mehrerer Studien mit der gleichen Wirksubstanz unter identischen Bedingungen kann in der vergleichenden Beurteilung einer Metaanalyse Wissen über die verabreichte Substanz erzeugen. Wissen wird häufig durch eine abstrakte Formulierung mittels Regeln, Formeln oder Heuristiken gewonnen.
4 | Hartmut Dickhaus
entscheiden verknüpfen Wissen analysieren strukturieren Information zusammenfassen Daten sammeln
Abb. 1.1: Daten, Information und Wissen. Daten können gesammelt werden. Durch Zusammen fassung und Strukturierung der Daten kann In formation gewonnen werden. Durch Analysieren und Verknüpfen von Information und Wissen kön nen Entscheidungen getroffen werden; verändert nach [TTI Tectran 2015].
Die Informatik stellt mit dem Computer (Hardware) und den Algorithmen (Software) hervorragende Werkzeuge zur Verfügung, um die verschiedenen Entitäten wie Daten, Information und Wissen miteinander in Beziehung zu setzen. Daten werden gesammelt, gespeichert und nach bestimmten Vorschriften zusammengefasst oder ausgewertet [Haux 2011]. Aber auch Informationen und Wissen können heute mit formalisierten Regeln automatisch verarbeitet bzw. generiert werden. Man spricht von computergestützter Wissensverarbeitung mit Methoden der künstlichen Intelligenz, der Heuristik und des automatischen Erkennens bzw. Schließens. Einerseits werden Informationen aus Daten extrahiert und als Wissen gespeichert, andererseits werden aus gespeichertem Wissen Informationen gewonnen, um z. B. sinnvolles Handeln und Entscheiden zu ermöglichen. Neben diesen klassischen Methoden und Werkzeugen der computergestützten Verarbeitung erschließt die elektronische Vernetzung ganz neue Dimensionen, wie Internet oder World Wide Web [Naughton 2000]. Das Internet dient im weitesten Sinne als Kommunikationsvehikel für Daten, Informationen und Wissen. Aufgrund seiner Omnipräsenz und Geschwindigkeit ergeben sich revolutionäre Möglichkeiten zur Informierung und Kommunikation zu jeder Zeit, an jedem Ort und über fast alle denkbaren Sachverhalte. Die hierdurch bereits erzielten und noch zunehmenden Auswirkungen, auch auf das Gesundheitswesen als wesentlicher Teil unserer Gesellschaft, sind noch nicht abzusehen. Bereiche wie eHealth (electronic health; auch E-Health) und mHealth (mobile health; auch M-Health) stehen in ihrer Nutzung wohl erst noch am Anfang und stellen die Medizinische Informatik vor neue Herausforderungen, bieten aber auch zahlreiche faszinierende Möglichkeiten, die hoffentlich im Sinne einer höheren Effizienz und Qualität für die Patientenversorgung genutzt werden.
1.1 Historische Entwicklung des Fachgebiets 1.1.1 Medizinische Informatik in Deutschland In Deutschland liegen die Wurzeln der Medizinischen Informatik in den sechziger Jahren. Fragestellungen zur Dokumentation und Aufbewahrung von Krankenakten, der Identifikation von Patienten während ihrer Behandlungen und Aufenthalte in
1 Einführung in die Medizinische Informatik |
5
Krankenhäusern sowie der Klassifikation von Krankheiten mit sogenannten Diagnoseschlüsseln standen am Anfang der Medizinischen Informatik. Aufgrund der Einsicht, dass die damals neu aufkommenden Werkzeuge in Form von Computern mit entsprechenden Programmen auch für Aufgaben im Krankenhaus oder allgemein im Gesundheitswesen nützlich sein konnten, wurde ein eigenständiges, aufgabengetriebenes Arbeitsfeld entwickelt.
Eine Dokumentation klinischer Basisdaten und Krankengeschichten wurde bereits im frühen 16. Jahr hundert, beispielsweise im St. Bartholomew’s Hospital in London oder durch den Nürnberger Stadt arzt Magenbuch betrieben [Assion und Telle 1972].
Man erkannte schnell, dass auch administrative Prozesse und die damit verbundenen Tätigkeiten wirkungsvoll mit der in den sechziger und siebziger Jahren aufkommenden elektronischen Datenverarbeitung (EDV) unterstützt werden konnten. Schon bald wurden komplexere Systeme entworfen, die Eigenschaften von Managementsystemen aufwiesen und für verschiedene Aufgaben im Krankenhaus eingesetzt wurden. Wesentliches Merkmal dieser Systeme war die zentrale Erfassung, Speicherung und Bereitstellung von Patientendaten aus unterschiedlichen klinischen Bereichen und Prozessen während des Aufenthalts der Patienten im Krankenhaus. Daneben wurden logistische und administrative Aufgaben, wie z. B. das Bestellwesen und die Leistungsabrechnung, in das System integriert. Derartige Softwareentwicklungen wurden schon damals als rechnerbasierte Krankenhausinformationssysteme (KIS) bezeichnet. Ihre Entwicklung wurde häufig in den neu eingerichteten universitären Instituten, die sich mit der klinischen Datenverarbeitung auseinandersetzten, strategisch und operational vorangetrieben. Heute sind diese Systementwicklungen jedoch weitgehend in Händen der Industrie, wo sie entsprechend den Erfordernissen der Kliniken angepasst kontinuierlich erweitert werden.
Hier sei erwähnt, dass der Berliner Nervenarzt Placzek schon Ende des 19. Jahrhunderts bei einem USA-Besuch von der Einführung der Hollerith-Anlage für die Sterbestatistik des Board of Health in New York sehr beeindruckt war. Er regte daraufhin an, diese Technik auch für die Bearbeitung medizini scher Fragestellungen wie die Erstellung von Krankenakten in Deutschland einzusetzen. Dies erfolgte allerdings erst 1943 in Form von Lochkarten bei der damaligen deutschen Wehrmacht [Placzek 1894, Mikat 1960].
Im akademischen Bereich wurden in dieser Zeit die ersten Lehrstühle für Medizinische Informatik bzw. für Dokumentation und Statistik oder Biometrie eingerichtet, beispielsweise 1963 an der Medizinischen Fakultät in Mainz, Prof. Koller; 1964 an der Medizinischen Fakultät der Universität Heidelberg, Prof. Wagner; 1964 an der Medizinischen Fakultät in Paris, Prof. Grémy und 1971 an der Medizinischen Hochschule
6 | Hartmut Dickhaus
Hannover (MHH), Prof. Reichertz, um nur einige wenige zu nennen, in deren Abteilungen wiederum Kollegen weiterer Lehrstühle habilitierten [Köhler 2003]. Die Medizinische Informatik entwickelte sich in Deutschland damals weitgehend parallel zur Biomedizinischen Technik. Einige Gebiete der Medizinischen Informatik wie die medizinische Signalverarbeitung z. B. des Elektrokardiogramms (EKG) oder des Elektroenzephalogramms (EEG) und später die Generierung und Auswertung von medizinischen Bildern der Computertomographie (CT), Magnetresonanztomographie (MRT) und Positronen-Emissions-Tomographie (PET) wurden wesentlich von Ingenieuren vorangetrieben.
1.1.2 Medical Informatics in den USA Betrachtet man die letzte Hälfte des 20. Jahrhunderts in der USA und versucht hier die Entwicklung nachzuzeichnen, findet man eine deutlich breitere Auseinandersetzung mit dem Fachgebiet der Medizinischen Informatik, die interessanterweise auch die Biomedizinische Technik bzw. das Biomedical Engineering von Anfang an stärker berücksichtigt. Hier kann man zwei sich gegenseitig beeinflussende Entwicklungsstränge verfolgen. Erstens den mehr technikorientierten, durch Ingenieure beeinflussten Ansatz, der die aufkommenden Computer als weiteres elektronisches Gerät für verschiedenste Anwendungen einsetzt und erprobt. Dazu gehören auch Problemstellungen aus der Medizin und der Biologie, die sich aus Forschung und Diagnostik ergaben, z. B. für die Hirn- und Krebsforschung oder die EKG- und Zelldiagnostik. Zweitens entstanden zwei weitere wichtige Richtungen, die typische Problemstellungen des medizinisch-klinischen Spektrums aufgriffen: die Informations- und Datenverarbeitung im Krankenhaus und die Unterstützung der klinischen Diagnostik durch sogenannte wissensbasierte Systeme. Während man sich im Krankenhaus in den siebziger Jahren ähnlich wie in Deutschland schwerpunktmäßig mit der Entwicklung von elektronischen Patientenakten (EPA, electronic patient record, EPR) und problemorientierten medizinischen Informationssystemen (problem-oriented medical information system, PROMIS) befasste, gab es auf dem Gebiet der wissensbasierten Systeme zu Beginn der Medizinischen Informatik in unserem Lande keine echte Entsprechung. In den USA entstand hierzu eine ganze Reihe spezifischer Systeme, die für verschiedene diagnostische Fragestellungen entwickelt wurden, z. B. MYCIN, CASNET, HELP, INTERNIST. Namen wie Shortliffe, Warner, Kulikowski und Myers sind mit diesen Systemen verbunden [Blum 1990]. Anhand dieser Systeme wurde eine wesentlich neue Komponente des Fachgebietes entwickelt. Durch die Verknüpfung medizinischen Wissens für diagnostische Zwecke mit statistischen Verfahren und Methoden der künstlichen Intelligenz wird Einsicht in medizinische Problemstellungen möglich und neues Wissen generiert. In den USA gehörten zum Fachgebiet der Medizinischen Informatik auch Problemstellungen und Arbeitsbereiche, die in Deutschland eher der Biomedizinischen Tech-
1 Einführung in die Medizinische Informatik |
7
nik zugeordnet werden. Dazu hat wohl auch die Etablierung des Advisory Committee on Computers in Research (NIH-ACCR) vom NIH beigetragen, zu dessen wesentlichen Aufgaben die Identifizierung der Einsatzmöglichkeiten von Computern in der medizinischen und biologischen Forschung, die Begutachtung von Forschungsprojekten und die laufende Überwachung der Forschung auf diesen Gebieten zählte. Medizinische Informatik und Biomedizinische Technik haben in Deutschland keine derartige gemeinsame Tradition. Gewiss hat man heute auch hierzulande gelernt, dass sich beide Gebiete synergistisch ergänzen und aufeinander angewiesen sind [Hasmann 2011]. In vielen Bereichen gehen die Grenzen inzwischen fließend ineinander über, wobei Ingenieure, Informatiker, Mediziner und Biologen gemeinsam an aktuellen Fragestellungen mit ihren jeweiligen Kompetenzen arbeiten. Natürlich hat jedes Fach durch seine Vertreter eine eigene Kultur im Laufe seiner Entwicklung geformt. Diese gilt es verstehen zu lernen, zu integrieren und gemeinsam weiter zu entwickeln – eine Aufgabe, die gerade auch den jungen Kolleginnen und Kollegen beider Fachgebiete empfohlen werden muss.
1.2 Lehre und Ausbildung, Fachgesellschaften Die akademische Ausbildung und fachliche Weiterbildung in der Medizinischen Informatik und in verwandten Fachgebieten ist an vielen Standorten in Deutschland möglich. Zunächst soll hier auf akkreditierte Studiengänge Bezug genommen werden, die Bachelor- und Masterabschlüsse an Hochschulen und Universitäten anbieten.
1.2.1 Studiengänge in Medizinischer Informatik und verwandten Fächern Das Studium der Medizinischen Informatik und verwandter Fächer in Deutschland erfolgt in der Regel in einem sechs- oder sieben-semestrigen Bachelorstudiengang, der einen berufsqualifizierenden Abschluss anstrebt – teilweise mit integriertem Praxissemester – und einem konsekutiven drei- oder vier-semestrigen Masterstudiengang mit dem Ziel der Befähigung zu wissenschaftlichem Arbeiten. An 25 Hochschulen in Deutschland (Fachhochschulen, Hochschulen für angewandte Wissenschaften, Technische Hochschulen und Universitäten) sind zurzeit insgesamt 17 Studiengänge mit Bachelorabschluss und acht Studiengänge mit Masterabschluss in Medizinischer Informatik bzw. Gesundheitsinformatik, eHealth und Medizinischer Dokumentation bzw. Medizinisches Informationsmanagement akkreditiert. Weiterhin wird an 40 Hochschulen im Rahmen des Studienfachs Informatik (22 Studiengänge mit Bachelorabschluss und 18 Studiengänge mit Masterabschluss) die Vertiefungsrichtung Medizinische Informatik angeboten (Abb. 1.2). Diese wird im Mittel von ca. 20 % der Informatik-Studierenden gewählt. Eine detaillierte Übersicht über
8 | Hartmut Dickhaus
alle Studiengänge mit ihren Charakteristika findet man bei Schmücker [Schmücker 2013]. Je nach Studiengang ist die Ausbildung im Bereich Medizin und medizinverwandten Fächern unterschiedlich deutlich ausgeprägt. Im Allgemeinen liegt der Schwerpunkt auf der Ausbildung in der Informatik sowie der Medizin und den Naturwissenschaften. Eine führende Rolle in der konzeptuellen Gestaltung eines grundständigen Studiengangs Medizinische Informatik übernahm der erste Diplomstudiengang dieser Art in Europa, der seit 1972 gemeinsam von der Universität Heidelberg und der Hochschule Heilbronn angeboten wird. Er verfolgt die Integration des Anwendungsfachs Medizin vom ersten Semester im Bachelor- bis zum Abschluss im Masterstudiengang [Knaup 2009].
1.2.2 Lernziele und Kernkompetenzen im Studiengang Medizinische Informatik Im Studiengang Medizinische Informatik sollten Kenntnisse und Kompetenzen in folgenden Bereichen erworben werden: – Grundzüge der Medizin, Physiologie, Anatomie, Genetik, – Gesundheitsökonomie, – Grundzüge der Mathematik und Stochastik, – Gesundheitssysteme und deren Einrichtungen, – Bedeutung der systematischen Informationsverarbeitung im Gesundheitswesen, – Eigenschaften, Funktionen und Architektur von Informationssystemen im Gesundheitswesen, – Management von Informationssystemen, – Datenmanagement und Dokumentation im Gesundheitswesen, – Methoden der praktischen Informatik, – Methoden der technischen Informatik, – Methoden des Software-Engineering, – Datenbanken, – Datenrepräsentation und Datenanalyse, – Projektmanagement, – Standards der Medizinischen Informatik, – Biometrie und Epidemiologie, – Entscheidungsunterstützung in der Medizin, – eHealth und Telemedizin, – biomedizinische Signal- und Bildverarbeitung, – klinische Bioinformatik, – IT-Security.
1 Einführung in die Medizinische Informatik | 9
Flensburg Stralsund
Kiel Lübeck
Rostock Greifswald
Hamburg
Wilhelmshaven
Berlin
Hannover
Brandenburg
Magdeburg
Braunschweig
Senftenberg Bochum Krefeld Aachen
Dortmund Hagen St. Augustin
Göttingen Leipzig Dresden
Bonn
Zwickau
Ilmenau Giessen Frankfurt
Trier
Kaiserslautern Saarbrücken
Mannheim Heidelberg Heilbronn Karlsruhe
Tübingen
Regensburg
Reutlingen Ulm
Freiburg Konstanz
Muttenz
Erlangen Nürnberg
Zürich
Krems Hagenberg München
Hall in Tirol
Graz
Biel Bern
Wien
Spittal a.d. Drau
Abb. 1.2: Standorte der Studiengänge Medizinische Informatik und Bioinformatik in Deutschland [Fachausschuss Medizinische Informatik (FAMI) der GMDS 2015].
Empfehlungen für die Gestaltung des Studiums wurden u. a. von der International Medical Informatics Association (IMIA) zusammengestellt [Mantas 2010]. In weiteren Beiträgen hat sich die Amerikanische Fachgesellschaft American Medical Informatics Association (AMIA) ausführlich in einem White Paper zum Verständnis der Biomedizinischen Informatik und ihrer Kernkompetenzen geäußert [Kulikowski 2012].
10 | Hartmut Dickhaus
1.2.3 Arbeitsgebiete und Tätigkeiten Arbeitsplätze und Karrieren nach Abschluss eines Studiums in Medizinischer Informatik ergeben sich z. B. in der Industrie, in Krankenhäusern und Versorgungseinrichtungen, bei Ministerien, Behörden und Verbänden des Gesundheitssystems, Leistungsträgern und Krankenkassen, Forschungseinrichtungen und Universitäten. Typische Tätigkeiten sind dabei: Softwareentwicklung, Systemintegration, Qualitätssicherung, IT-Beratung und Organisation, Produktmanagement, Prozessmanagement, taktisches und strategisches Management von Informationssystemen, Consulting. Im Studium der Humanmedizin ist die Medizinische Informatik auch Bestandteil des Curriculums. Wichtige Lernziele für angehende Mediziner wurden von Dugas in einem Lernzielkatalog den folgenden sieben Themengebieten zugeteilt [Dugas 2013]: – Medizinische Dokumentation und Informationsverarbeitung, – Medizinische Klassifikationssysteme und Terminologien, – Informationssysteme im Gesundheitswesen, – Gesundheitstelematik und Telemedizin, – Datenschutz und Datensicherheit, – Zugriff auf medizinisches Wissen, – Medizinische Signal- und Bildverarbeitung.
Zertifikat Medizinische Informatik Die Deutsche Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie e. V. (GMDS) vergibt zusammen mit der Gesellschaft für Informatik e. V. (GI) das Zertifikat „Medizinische Informatik“ an Persönlichkeiten mit breiten Fachkenntnissen und Managementerfahrungen, die sich beruflich weiterentwickeln wollen und Führungsaufgaben anstreben. Die notwendigen Bedingungen für die Vergabe sind: Hochschulstudium, komplementäre Fachkenntnisse, operationelle Qualifikation durch nachgewiesene einschlägige, mindestens fünfjährige Berufsausübung, ausführliche Stellungnahmen [Zertifikat Medizinische Informatik 2015].
1.2.4 Fachgesellschaften und Berufsverbände Das Fachgebiet der Medizinischen Informatik wird durch folgende Fachgesellschaften und Verbände in Deutschland und dem deutschsprachigen Ausland vertreten:
1 Einführung in die Medizinische Informatik |
11
Deutsche Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie e. V. (GMDS) Die GMDS mit Sitz in Köln ist Mitglied der Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften (AWMF). Die GMDS versteht sich als wissenschaftlich-medizinische Fachgesellschaft. Medizinische Informatik ist einer der drei Fachbereiche innerhalb der Gesellschaft neben der Medizinischen Biometrie und Epidemiologie sowie der Medizinischen Dokumentation.
Berufsverband Medizinischer Informatiker e. V. (BVMI) Der Verband, ansässig in Heidelberg, versteht sich als Ansprechpartner bei berufspolitischen Fragen auf dem Gebiet der Medizinischen Informatik. Er fördert und vertritt Belange der Fort- und Weiterbildung in der Medizinischen Informatik.
Schweizerische Gesellschaft für Medizinische Informatik (SGMI) Die SGMI fördert das Studium, die Entwicklung und die Nutzung der Informatik im Gesundheitswesen, d. h. die Medizinische Informatik.
Österreichische Computergesellschaft (OCG) Eine besondere Gesellschaft oder Organisationsstruktur für das Fachgebiet der Medizinischen Informatik ist in Österreich nicht existent.
European Federation for Medical Informatics (EFMI) Die EFMI ist die führende Europäische Organisationseinheit für die Belange der Medizinischen Informatik. Zurzeit sind 32 europäische Staaten Mitglied in der EFMI.
International Medical Informatics Association (IMIA) Die IMIA versteht sich als Körperschaft für die Belange der Gesundheitsinformatik und der Medizinischen Informatik in der Welt. IMIA übernimmt eine globale Brückenfunktion zwischen den einzelnen nationalen Organisationseinheiten und ihren Mitgliedern. Die IMIA sieht sich in einer führenden Rolle in der Anwendung von Informationswissenschaften und -technologien im Gesundheitswesen und in der Forschung bezüglich der Medizinischen Informatik, der Gesundheitsinformatik und der Bioinformatik.
12 | Hartmut Dickhaus
1.3 Gesellschaftliche Aspekte der Medizinischen Informatik In welche Richtung werden sich die medizinische Versorgung und das Gesundheitswesen entwickeln? Wer und was sind die treibenden Kräfte für Veränderungen in unserer Gesellschaft? Welche Bedeutung haben sie für das Gesundheitssystem? Wer wird sie kontrollieren? Welche Rolle werden dabei die sich mit hoher Dynamik entwickelnde Technik, die Informatik und die Industrie einnehmen? Dies sind Fragen, die sicherlich nicht allein aus Sicht der Medizinischen Informatik zu beantworten sind, sondern in hohem Maße die Politik fordern. Allerdings kann die Medizinische Informatik zur Moderation und Beantwortung dieser Fragen einen wesentlichen Beitrag leisten und sollte dies auch versuchen [Hübner 2014]. Dies wiederum wird nur dann möglich sein, wenn sich die Protagonisten des Fachgebiets ihrer Verantwortung bewusst sind und versuchen, zwischen Problemen, technischen Lösungsmöglichkeiten und ethischer Verantwortung gegenüber der Gesellschaft wie jedem Einzelnen eine Balance zu finden, die nachhaltig die körperliche und seelische Gesundheit des Einzelnen in der Gesellschaft zum obersten Ziel macht. Die demographische Entwicklung in Europa wird maßgeblich die Bedürfnisse unserer Gesellschaft bestimmen. Die Relationen zwischen jungen, berufstätigen und älteren Menschen im Ruhestand verschieben sich zunehmend. Die umfassende Globalisierung aller Bereiche, angefangen bei Wirtschaft und Finanzen, Nahrungsmitteln und Bodenschätzen, Kommunikation und Energieressourcen konfrontiert uns auch in unserem Lande mehr und mehr mit Fragen und Problemen der Verfügbarkeit, Verteilung und deren Nachhaltigkeit. Dies gilt nicht nur für unsere Umwelt, sondern genauso für alle Bereiche des Miteinanders in einem sozial verträglichen Gemeinwesen und damit auch für unser Gesundheitswesen. Hier gilt es, ein Verständnis für die Abhängigkeiten und Verzahnung der immer komplexer werden Sachverhalte zu gewinnen und zu durchschauen, wie schließlich der erwartete Benefit verteilt sein wird, wer daran partizipiert und wer den dafür notwendigen Aufwand leisten muss. Gewiss werden die Möglichkeiten einer präziseren Diagnostik und wirksameren Therapie aufgrund des technischen Fortschritts und eines besseren Verständnisses für die Entstehung von Krankheiten zunehmen. Das wird aber auch höhere Kosten nach sich ziehen. Wird damit zwangsläufig einer befürchteten Zwei-Klassen-Medizin Vorschub geleistet, die den Wohlhabenden in unserer Gesellschaft wesentliche Vorteile durch Hightech-Medizin sichert und sozial schwächeren Schichten nur Minimalversionen der Versorgung anbietet? Werden medizinische Daten als Ware ausgewertet und missbraucht, um interessante Informationen an Arbeitgeber und Wirtschaft weitergeben zu können? Leistungsbewusstsein, Stressbewältigung und Effektivität werden in unserer Gesellschaft immer stärker gefordert, führen aber auch zunehmend zu Resignation und Depressionen in allen Bevölkerungsschichten. Die allumfassenden Kommunikationsmöglichkeiten begleiten uns auf Schritt und Tritt und vermitteln das Bewusstsein, Teil einer virtuellen, stets erreichbaren Gemeinschaft zu sein. Das suggeriert Sicher-
1 Einführung in die Medizinische Informatik | 13
heit und erhöht die Lebensqualität. Und doch nimmt die Zahl der psychosomatisch Erkrankten mit Symptomen von Vereinsamung, Versagen und Autismus in erschreckendem Maße besonders bei jungen Menschen zu. Bei aller Begeisterung für den technischen Fortschritt sollte hier auch gefragt werden, ob elektronische Kommunikation und ihre faszinierenden Angebote, robotergestützte Pflege und spannende Computerspiele in jedem Fall die richtige Antwort auf elementare Bedürfnisse z. B. nach menschlicher Begegnung sind [Niederlag 2008]. Der mittlerweile häufig anzutreffende Lifestyle zwischen Wellness und extremer Arbeitsbelastung, unausgewogenem Ernährungsverhalten und extremen Freizeitbeschäftigungen führt zu schlecht ausbalancierten Lebensrhythmen, Dysregulationen, Stoffwechselerkrankungen und Abhängigkeiten, die langfristig chronische Krankheitsbilder mit sich bringen können. Manche versuchen diesem Trend durch permanente Verfügbarkeit von Vitalparametern, Leistungsindikatoren und Befindlichkeitsindices mit leicht erwerbbaren Apps auf Smartphones zu begegnen. Diese Art von Vorsorge mag auch dahingehend kritisch hinterfragt werden, ob nicht viel mehr ein ausgewogenes Verhalten ohne permanente Informiertheit über seine Leistungsgrenzen eher einen gesundheitsfördernden Einfluss hat. Ein wichtiger Aspekt bei zunehmender Kommunikation und Digitalisierung in unserer Gesellschaft ist die Wahrung der Privatsphäre und der Schutz vor Missbrauch persönlicher Daten [Pommerening 2010]. Dies gilt insbesondere für personenbezogene medizinische Daten und solche, die es ermöglichen, das Verhalten von Personen in verschiedenster Art und Weise abzubilden, zu rekonstruieren oder vorherzusagen. Wir sind täglich von dieser Art des Datensammelns betroffen, auch ohne Nutzung sozialer Netzwerke und ohne unsere explizite Zustimmung. Jeder Klick im Internet kann seine Spuren hinterlassen und ein weiteres Detail zur virtuellen Persönlichkeit hinzufügen. Welche Konsequenzen hier auf den Einzelnen in der Gesellschaft zukommen, sei es hinsichtlich der Transparenz über seine Mobilität, über sein soziales Verhalten oder seine Wünsche und Vorlieben, ist noch gar nicht absehbar. Die Gefahr von Persönlichkeitsschäden durch fahrlässige oder sogar gezielte Manipulation ist naheliegend. Gewiss mag der höhere Komfort im Rahmen des elektronischen Einkaufens von zu Hause oder eine elektronische Erinnerung an Sport primär einmal für uns reizvoll sein. Aber gerade durch die Anhäufung von Daten und deren kaum kontrollierbaren Austausch steigen die Möglichkeiten des Missbrauchs. Deshalb sollten die bestehenden Instrumente der Selbstregulierung, wie z. B. Beachtung der Datenschutzgesetzgebung, Entwicklung von Standard Operating Procedures (SOP), von Regeln der Best Practice und Audits genutzt werden [Weichert 2014]. Es gilt in der Gesellschaft aber auch ein Problembewusstsein zu wecken, das die zu erwartenden Entwicklungen im Bereich Big Data realistisch einschätzt und eine verfassungsrechtliche Verankerung für den Umgang damit anstrebt. Wenn nun auch die inzwischen gigantischen Möglichkeiten zur Speicherung, Aggregation und Verarbeitung von Daten immer bedrohlichere Szenarien des Missbrauchs und der Entmündigung der Person möglich erscheinen lassen, soll hier nicht
14 | Hartmut Dickhaus
einseitig ein negatives Bild durch Aufzeigen möglicher Risiken skizziert werden. Vielmehr soll zur Wahrung und Übernahme von Verantwortung ermutigt werden, sich der Einengung der Persönlichkeit durch verselbstständigte und fehlgeleitete Euphorie für das Machbare entgegenzustellen. Der Faszination der Möglichkeiten steht eben auch die Gefahr von Macht und Manipulation gegenüber, die jetzt schon die Informatik in ihren verschieden Spielarten in sich birgt. Sie sollte durch kritisches Nachfragen und Bedenken der Konsequenzen zum Wohle der Gesellschaft und des Einzelnen gepflegt werden. Umso wichtiger ist es, dass sich gerade junge Menschen mit Kompetenz, Begeisterung, Phantasie und hohem Engagement dieser Disziplin annehmen und sie nach bestem Wissen und Vermögen verantwortlich für eine für alle lohnende Zukunft prägen.
1.4 Herausforderungen und zukünftige Entwicklungen Die Medizinische Informatik, als anwendungsorientierte Wissenschaft, adressiert die medizinischen Herausforderungen, die sich aktuell und in nächster Zukunft abzeichnen und versucht Lösungsansätze für diese Probleme zu generieren. Darüber hinaus werden durch die sich entwickelnden technischen Möglichkeiten verstärkter Miniaturisierung, zunehmender Speicherkapazitäten und steigender Leistungsfähigkeit von Prozessorsystemen neue Technologien und Strategien verfügbar, die ihrerseits eine eigene Dynamik entwickeln [Dössel 2008, Shah 2012, Bellazzi 2014, Heimann 2015]. Einige Bereiche, die schon jetzt mit innovativen Anwendungen und entsprechenden Schlagzeilen auf sich aufmerksam machen bzw. erste Realisierungen vorstellen, gehören zur aktuellen Thematik Big Data und beziehen sich auf die Generierung und Verarbeitung riesiger Datenmengen; es geht also um datengetriebene Entwicklungen. Big Data wird häufig durch vier, jeweils mit dem Buchstaben V beginnenden Begriffen gegenüber klassischen Datenbank- und Analysemethoden charakterisiert: Volume (Volumen), Variety (Vielfalt), Velocity (Verarbeitungsgeschwindigkeit) und Veracity (Verlässlichkeit) [Martin-Sanchez 2014]. Dabei geht es hier nicht nur um technologische Weiterentwicklungen. Vielmehr will man mit dem Stichwort Big Data völlig neue Herausforderungen adressieren, die innovative Konzepte der Hard- und Software-Architektur für die Datenhaltung und das Management erfordern. Ebenfalls sind neue methodische Ansätze für Data Mining, Analyse und Visualisierung strukturierter und unstrukturierter riesiger Datenmengen nötig. Dabei ist besonders zu beachten, dass Daten aus dem Gesundheitsbereich und den sozialen Netzwerken häufig aus subjektiven, wenig reproduzierbaren oder unbekannten Quellen stammen und deswegen gerne auch als weiche Daten mit teilweise eingeschränkter Verlässlichkeit (Veracity) bezeichnet werden. Initiatoren der Entwicklung von Big Data waren Ende des letzten Jahrhunderts Forschungsansätze der Teilchenphysik mit der Auswertung ihrer komplexen datenin-
1 Einführung in die Medizinische Informatik | 15
tensiven Experimente (z. B. im CERN) sowie in den letzten zehn Jahren Unternehmen wie Google und Facebook. Die im Jahr 2014 täglich erzeugten realen Datenmengen werden insgesamt auf 2, 5×1018 Bytes geschätzt. Bei dem Unternehmen Google wurden auch bereits mit der sogenannten Map-Reduce-Technik richtungsweisende Konzepte für die parallele Datenverarbeitung entwickelt, deren Implementierung mit dem Namen Hadoop weltweit eingesetzt wird. Daneben sind auch neuartige Datenbankkonzepte, abweichend von der üblichen relationalen Modellierung und Data Warehouses als verteilte Systeme entstanden. In-Memory Processing und Cloud Computing werden in unterschiedlichen Versionen für High Performance Computing genutzt [Bellazzi 2014]. In der Medizin lassen sich bereits erste Anwendungsbeispiele für Big Data ausmachen: Identifikation von Menschen mit bestimmten Risiken, um sie besonderen Überwachungs- oder Vorsorgeprogrammen zugänglich zu machen; Angebot einer optimalen Tumortherapie auf Basis eines individuellen genomischen Screenings und des Abgleichs mit allen möglichen Antitumorsubstanzen sowie zugehöriger Studien; frühzeitige Diagnose von Erkrankungen anhand unspezifischer Symptome und zahlreicher persönlicher Merkmale [Grätzel von Grätz 2014]. Die Reihe der Beispiele ließe sich leicht fortführen. Nicht zuletzt ist im Rahmen der Entwicklungen der Big Data die Initiative Big Data to Knowledge (BD2K) zu erwähnen, die im Jahr 2012 vom National Institute of Health (NIH) in den USA etabliert wurde. Diese Institution hat es sich zur Aufgabe gemacht, die biomedizinische Forschung insbesondere unter dem Aspekt von Big Data in allen Bezügen und Facetten zu fördern, Ergebnisse und Literatur verfügbar zu machen und neues Wissen zum Wohle der Gemeinschaft zu generieren [BD2K 2015]. Die molekularbiologische Diagnostik geht einher mit der Möglichkeit der effizienten Sequenzierung des Genoms oder spezieller Teile davon. So werden große Anstrengungen unternommen, möglichst aussagefähige Beziehungen bzw. Prädiktionen zwischen bestimmten Genmutationen und beobachteten Erkrankungen zu generieren. Die Hochdurchsatztechnologie des Next Generation Sequencing ist inzwischen schon so weit entwickelt, dass diese Art der Auswertung in kurzer Zeit und mit relativ geringen Kosten möglich ist [Mardis 2008]. Dennoch ist man von der anfänglichen Begeisterung, ein hochspezifisches und individuell anwendbares diagnostisches Prognosewerkzeug schnell entwickeln zu können, wieder ein Stück weit abgerückt, weil inzwischen auch die Problematik dieser Vorgehensweise immer deutlicher wird. Leider ist z. B. die Zuordnung von Genen und genetischen Mutationen zu bestimmten Erscheinungsformen von Krankheiten nicht eindeutig möglich, weil in der Regel mehrere Gene zusammenspielen. Dennoch besteht in der Krebsdiagnostik wie auch bei chronischen Erkrankungen ein hohes Interesse an genetischer Identifizierung und Risikoprädiktion. Dass im Rahmen entsprechender Forschungsbemühungen Konzepte für genetische Speichertechnologien entwickelt wurden, die außerordentlich große Datenmengen auf kleinstem Raum langfristig und zerstörungssicher konservieren, zeigt
16 | Hartmut Dickhaus
die enge Verflechtung von zielgerichteter Grundlagenforschung und Spin-offs, deren Realisierung zukünftig höchst bedeutsam werden könnten [Church 2012]. In dieses Umfeld der Auswertung und Verarbeitung großer Datenmengen gehört auch die inzwischen etablierte Systembiologie. Diese versucht mithilfe von Modellen, die hinsichtlich der Zeit und der räumlichen Geometrie multiskalierbar sind, das komplexe Zusammenspiel und die Informationsverarbeitung der Strukturen der molekularen Ebene, wie auch der Zell- und Organebene zu verstehen und zu simulieren [Ghosh 2011]. Auch in der personalisierten Medizin werden in Zukunft große Mengen an Daten generiert [Hüsing 2010, Hamburg 2010]. So hat sich gezeigt, dass gleiche Wirkstoffe bei scheinbar gleichen Krankheitsbildern bei verschiedenen Menschen höchst unterschiedlich wirken. Auf den individuellen Patienten abgestimmte Therapieansätze erfordern neben genomischen Daten auch immer eine größere Menge aktueller klinischer Informationen über die betroffenen Personen. Hierbei sind nicht nur die Datenmenge und Speicherkapazität, sondern vielmehr auch die zugrundeliegenden Modelle, ihre Variablen und Methoden der Verknüpfung eine Herausforderung für die Zukunft. Welches sind die entscheidenden, aussagefähigen Parameter? Welche Kombinationen von Merkmalen unter welchen Umständen sind zielführend in der Entwicklung eines therapeutischen Konzeptes? Dies sind nur wenige Beispiele für Fragen, die mit Knowledge-Mining-Technologien bearbeitet werden und die Entwicklung lernender Systeme erfordern. Bei der zielgerichteten Therapie (target-oriented therapy, targeted therapy) soll die Wirkung einer Substanz möglichst unmittelbar am Ort des betroffenen Organs oder Zellverbandes erfolgen. Dies erfordert neben der technischen Problematik der Lokalisation und Ziel-Navigation auch eine detaillierte Berechnung der Mengen von Wirksubstanz und Marker. Zunehmend wichtiger werden Prävention und Aufklärung zur Verhinderung von Erkrankungen, wofür eine angemessene und möglichst breite Informierung der Gesellschaft einen wesentlichen Beitrag leisten kann. Darüber hinaus gilt es aber auch, in der Bevölkerung ein Bewusstsein dafür zu wecken, eine Erkrankung nicht passiv zu erleben, sondern sich aktiv an dem diagnostisch-therapeutischen Prozess zu beteiligen. Auch hierfür ist Information über die Prozesse, die Möglichkeiten der Beteiligung und über die Interaktionen zwischen Arzt und Patient nötig. Der Patient muss diesbezüglich aufgeklärt werden, um seine Rechte zur aktiven Gestaltung wahrnehmen zu können. Dieses sogenannte Empowerment des Patienten bedeutet natürlich auch, dass der Patient die Hohheit über seine Daten hat und auch wahrnimmt, so wie es eine Gesundheitsakte im Ansatz vorsieht [Hafen 2014]. Die intersektorale Versorgung von Patienten innerhalb unseres Gesundheitssystems gilt weiterhin als wichtiges Thema, das mit Sicherheit neue Kommunikationskonzepte bei allen am Versorgungsprozess beteiligten Institutionen und Akteuren erfordert. Kosten zu senken und gleichzeitig Qualität zu sichern sind die zwei größten Herausforderungen mit permanenter Aktualität in unserem Gesundheitssystem. Hier-
1 Einführung in die Medizinische Informatik | 17
zu müssen neue Lösungsansätze erarbeitet werden, die Konzepte wie Disease Management und Case Management konsequent weiterentwickeln. Disease Management (Behandlungsprogramm für chronisch kranke Menschen) zielt auf die umfassende Betreuung von Krankheitsverläufen, unter Case Management (Unterstützungsmanagement) wird die fallbezogene, individuelle Betreuung des Patienten bei kostenintensiven Indikationen verstanden. Bei chronischen Krankheiten wie Diabetes, Bluthochdruck oder Asthma kann eine bessere Zusammenarbeit von Hausärzten, Fachärzten und Krankenhäusern zur Verbesserung der Versorgungsqualität bei gleichzeitiger Kostenreduktion führen. Allerdings scheint eine wirksame Integration der verschiedenen beteiligten Einheiten weniger durch informations- oder datentechnische Probleme eingeschränkt zu sein, sondern vielmehr bedarf es hier noch gesundheitspolitischer Entscheidungen, die auch wirksam durch Leistungserbringer und -träger umzusetzen sind [Müller 2014]. Die demographische Entwicklung und die dabei zunehmende Prävalenz von Demenzerkrankungen stellt unsere Gesellschaft vor weiteren großen Herausforderungen, unter anderem bezüglich bezahlbarer Versorgungskonzepte. Aktuelle Technologien zur Unterstützung der Betroffenen durch eine Vielzahl intelligenter Hilfsmittel können in der Tat bereits jetzt schon erfolgreich eingesetzt werden. Hierzu zählen einfache technische Erinnerungshilfen, diskrete Monitoringmaßnahmen, wie auch Kommunikations- und Mobilisationshilfen. Allerdings kann noch nicht von einer verbreiteten Nutzung gesprochen werden, weil insbesondere datenrechtliche Fragen, ethische Implikationen und der Schutz der Privatsphäre noch völlig unbefriedigend gelöst sind. Darüber hinaus haben sich bislang wenige Geschäftsmodelle für den Einsatz relevanter Technik etabliert und die Technologieakzeptanz in der betroffenen Bevölkerung ist noch nicht ausreichend [BMBF/VDE 2012]. In diesem Zusammenhang erweist sich die zunehmend installierte Breitbandtechnologe mit schnellem Zugang zum Internet als besonders bedeutsam. Webbasierte Anwendungen zur Kommunikation, Informierung, Alarmierung und Intervention sind technisch durchaus in der Lage, auch für den Bereich der Pflege und privaten Versorgung wirksame Hilfe und Schutzfunktionen zu ermöglichen [Kalfhues 2012]. Allerdings erfordern gerade hier Datenschutz- und Datensicherungsprobleme einen beträchtlichen Aufwand. Dennoch ist von telemedizinischen Diensten und Applikationen, die in unserem Lande erst am Anfang einer bezahlten Leistungserbringung stehen, zukünftig eine schnellere und kostengünstigere Primärversorgung zu erwarten. Hier werden sich die Kostenträger Finanzierungsmodelle überlegen müssen. Visionen von sogenannten smart cities in zukünftigen digitalen Welten, die von einer Vielzahl komplett vernetzter unauffälliger Sensorfunktionen ausgehen und in denen die Akteure in allen Lebensbereichen hinsichtlich zu treffender Entscheidungen bestens informiert werden, bedürfen einer Kommunikations- und Informationsstruktur, die hohe Anforderungen an Hardware und Software stellen wird [Ferreira de Souza 2010]. Auch die medizinische Versorgung wird als Dienstleistung in allen Be-
18 | Hartmut Dickhaus
reichen integriert werden müssen und die entsprechende Datenkommunikation wird Teil eines umfassenden Kommunikationsnetzes werden. Abschließend sei festgestellt, dass der stetige Fortschritt in der Medizin und den Lebenswissenschaften durch neue und verbesserte Technologien und Prozesse, wie auch durch Technik und Informatik, ein enormes Potential bedeutet und einen kontinuierlichen Wissenszuwachs hervorbringt. Nicht so dynamisch verändern sich jedoch die Strukturen und Prozesse innerhalb unseres Gesundheitssystems bzw. in unserer Gesellschaft, die normativen und gesetzlichen Regeln unterworfen sind. Hier gilt es in gleichem Maße, mit Sensibilität, Weitblick und Offenheit die technischen Veränderungen zu begleiten, Transparenz zu fordern, Risiken aufzuzeigen sowie zu minimieren und gleichzeitig den gesetzlichen Rahmen zu schaffen, um den nötigen Schutz vor Datenmissbrauch zu garantieren.
1.5 Inhalte und Gliederung des Bandes Aus dem Vorangegangen wurde sicherlich schon deutlich, wie breit das Fachgebiet der Medizinischen Informatik aufgestellt ist. Für diesen Band werden wichtige Themen der Medizinischen Informatik von häufigen und typischen Aufgabenstellungen im Rahmen des Gesundheitssystems und der Medizin zu etwas spezifischeren Themen wie Telemedizin und Ambient Assisted Living vorgestellt. Dies zeigt auch im Großen und Ganzen die chronologische Entwicklung des Fachgebietes in Deutschland. Eine Ausnahme sind die beiden letzten Kapitel ‚Datenschutz und Datensicherheit‘ sowie ‚IT-Standards‘, die eher Querschnittsthemen behandeln und den Band runden sollen.
Krankenhausinformationssysteme (Kapitel 2) Wie bereits dargestellt, wurden die Verwaltung von Patientendaten, die Unterstützung administrativer Abläufe im Krankenhaus und die Dokumentationstätigkeit anfangs als vordringlichste Aufgaben gesehen, für die eine rechnergestützte Bearbeitung mit dem Aufkommen der elektronischen Rechenmaschinen oder Computer hochwillkommen war. Die Integration weiterer Dienste und Aufgaben, die auch mehr den medizinischen Bereich betrafen, wurden schnell erkannt und zunehmend realisiert. Diese Entwicklung führte zu den heute weitverbreiteten, rechnerbasierten Krankenhausinformationssystemen (KIS), welche zunehmend auch medizinische Anwendungen in der stationären und ambulanten Versorgung im Krankenhaus gut widerspiegeln und Thema von Kapitel 2 sind. Verschiedenste miteinander kommunizierende Anwendungssysteme erfordern eine ausgefeilte Kommunikations- und Informationsinfrastruktur, die wiederum auf die Architektur eines KIS abgebildet werden muss. Daneben werden in diesem Kapitel aber auch die unterschiedlichen Aufgaben im Rahmen des strategischen, taktischen und operativen Managements eines KIS er-
1 Einführung in die Medizinische Informatik | 19
läutert und Kriterien zur Überwachung und Bewertung der Qualität von KIS besprochen.
Patientenakten (Kapitel 3) Das folgende Kapitel befasst sich mit der Strukturierung, Dokumentation und Archivierung von Daten, Befunden, Medikationen, Therapie- und anderen Berichten, die zu einem Patienten im Verlauf einer Erkrankung, bei verschiedenen Krankhausaufenthalten oder über einen ganzen Lebensabschnitt, anfallen. Auch wenn die traditionelle Form der papierbasierten Akte nach wie vor vielerorts geführt wird, ist die elektronische Version, die sogenannte elektronische Patientenakte (EPA), mittlerweile recht weitverbreitet, weil sie bezüglich der Erstellung, Kommunikation und Archivierung beträchtliche Vorteile bietet. Das Kapitel beschreibt die verschiedenen Ansätze für elektronische Patientenakten, bis hin zur Gesundheitsakte, bei der ein Patient die Hoheit über seine Daten und Dokumente haben muss und er allein entscheidet, welcher Arzt welche Daten einsehen darf. Eine Gesundheitsakte ist fallübergreifend und begleitet einen Patienten idealerweise sein Leben lang. Im Weiteren wird in diesem Kapitel noch auf Standards für die Entwicklung sogenannter EPA-Systeme eingegangen, die für die Verwaltung von Patientenakten eingesetzt werden.
IT für die medizinische Forschung (Kapitel 4) Das vierte Kapitel erläutert die Bedeutung der Informationstechnik und -verarbeitung für die medizinische Forschung. Die klinische Forschung versucht die Ursachen verschiedenster Krankheitsbilder aufzudecken und neue diagnostische und therapeutische Konzepte und Produkte zu entwickeln, die der Krankheitsbekämpfung dienen oder eine frühzeitige Diagnose ermöglichen. Bei der translationalen medizinischen Forschung wird versucht, Ergebnisse der Grundlagenforschung bereits in klinischen Studien zu nutzen. Fragestellungen zur Verbreitung von Krankheiten oder Risikofaktoren für bestimmte Erkrankungen werden der epidemiologischen Forschung zugeordnet. Unabhängig von der speziellen Thematik und Ausrichtung der genannten Forschungsgebiete und ihren spezifischen Anforderungen sind alle Bemühungen im Rahmen der Forschung im hohen Maße auf die Unterstützung aktueller Datenerfassungstechniken, Datenspeicherkonzepte sowie effizienter Verarbeitungsmethoden angewiesen. Im Weiteren wird in diesem Kapitel an zahlreichen Beispielen gezeigt, wie sich die im Krankenhausinformationssystem elektronisch vorliegenden Daten gezielt für bestimmte Fragestellungen der klinischen Forschung einsetzen lassen.
20 | Hartmut Dickhaus
Medizinische Datenbanken (Kapitel 5) Wie eingangs erwähnt, werden medizinische und klinische Daten verschiedenster Formate und Semantik in Datenbanksystemen oder Data Warehouses (DWH) bzw. Research Warehouses (RWH) gespeichert. Das Kapitel befasst sich mit der Thematik Datenbanken und erklärt die zum Verständnis notwendigen Grundlagen. Datenspeicherung wird in Zeiten von Big Data immer wichtiger. Allein das ständig wachsende Wissen über Gensequenzierungsdaten und Genexpressionsdaten wird in über 1 000 molekularen Datenbanken weltweit gesammelt und permanent aktualisiert. Jedes rechnerunterstützte Krankenhausinformationssystem basiert auf Datenbanken, in denen die umfangreichen Patientendaten abgelegt werden. Von besonderem Interesse ist die gezielte Suche oder Recherche innerhalb solcher Systeme, die zahlreiche Bedingungen an die Administration und Organisation, aber auch an die Struktur des Datenmodells stellt. Die Datensicherheit spielt für medizinisch sensible und personenbezogene Daten eine besondere Rolle.
Medizinische Entscheidungsunterstützung (Kapitel 6) Häufiges Ziel informationsverarbeitender Prozeduren liegt in der Aufbereitung, Transformation und Verknüpfung von Daten und Wissen, um Fragestellungen zu beantworten, Hypothesen zu beurteilen oder Effekte zu bewerten. Letztlich müssen bei diesen Aufgabenstellungen immer Entscheidungen gefällt werden und Alternativen hinsichtlich eines Kriterienkatalogs bewertet werden. Das Kapitel erläutert verschiedene Verfahren auf diesem Gebiet, die bereits aktuell in die medizinische Forschung und klinische Versorgung Eingang gefunden haben. Computergestützte Methoden versuchen häufig mit statistischen Ansätzen, die auf größere Datenbestände angewendet werden können, Risiken einzuschätzen und Handlungsstrategien zu entwerfen, beispielsweise für die Entwicklung medizinischer Leitlinien. Aus vielen Daten über ähnliche Fälle lassen sich Gemeinsamkeiten extrahieren und auf andere Situationen extrapolieren. Mithilfe von Datenbanken, Algorithmen und einer dafür optimierten Hardware können darüber hinaus im Kontext der sogenannten künstlichen Intelligenz (KI) sehr wirksame diagnoseunterstützende Verfahren implementiert werden.
Bioinformatik und Systembiologie (Kapitel 7) Die Thematik des siebten Kapitels spielt auch für die Medizinische Informatik inzwischen eine wichtige Rolle. So haben die Bioinformatik und Systembiologie in den letzten Jahrzehnten eine hohe Dynamik entwickelt, die deutlich methoden- und technikgetrieben ist. Nur mit computergestützten Verfahren und Hochdurchsatztechnologien sind die hier üblichen riesigen Datenmengen generierbar und auswertbar. Dieser Sachverhalt wird bei der Sequenzierung von DNA-Daten besonders deutlich. Moderne Verfahren des Next Generation Sequencing (NGS) bieten Möglichkeiten der beschleunigten Sequenzierung durch extreme Parallelisierung auf entspre-
1 Einführung in die Medizinische Informatik
| 21
chend angepasster Hardware. Inzwischen werden bereits Techniken der sogenannten dritten Generation eingesetzt, die eine genauere und schnellere Untersuchung des kompletten Genoms des Menschen ermöglichen. Allerdings muss sich der praktische Nutzen beispielsweise beim Verständnis der Ursachen von Erkrankungen wie Krebs oder der Entwicklung maßgeschneiderter Medikamente und Therapien noch erweisen. Das Kapitel geht auch auf die Systembiologie als wissenschaftliche Disziplin ein, die mit einem umfassenden, möglichst quantitativen Ansatz auf die Beschreibung von gekoppelten Systemen der molekularen bis zur Organebene abzielt.
Medizinische Bildverarbeitung (Kapitel 8) Im folgenden Kapitel werden Verfahren der Bildverarbeitung und Visualisierung besprochen und ihre vielseitige Bedeutung für Diagnostik und Therapie dargestellt. Die Segmentierung von Objekten in digitalen Bildern unterschiedlicher Modalitäten spielt bei fast allen Anwendungen in der Medizin eine bedeutende Rolle. Ein weiterer Schwerpunkt des Kapitels sind Registrierungsverfahren, die aufgrund von dynamischen Bildfolgen und ihrer quantitativen Auswertung oder bei der Fusion verschiedener Bildmodalitäten angewendet werden. Schließlich spielen Visualisierungstechniken sowohl für die invasive Diagnostik bei der bildgestützten chirurgischen Intervention als auch bei einer optimierten Strahlentherapieplanung eine wichtige Rolle. Inwieweit sich Methoden der virtual reality bei chirurgischen Eingriffen durchzusetzen vermögen, bleibt abzuwarten. Sicherlich muss aber festgestellt werden, dass der Einsatz bildgebender Verfahren und die schnelle Hardware-gestützte, weitere Verarbeitung der Bildinformation einen enormen Ausbau der zugehörigen Speichermedien in Form von PACS- und RIS-Archiven und eine effiziente Vernetzung mit Krankenhausinformationssystemen erfordert.
Telemedizin (Kapitel 9) Die Telekommunikation in allen Variationen und mit verschiedensten Endgeräten gehört heute zur standardmäßigen Versorgung unserer Gesellschaft. In der Medizin werden bisher jedoch überwiegend Telefon und Fax zum schnellen Austausch von Informationen zwischen Ärzten genutzt. Es gibt aber bereits seit knapp zwei Jahrzehnten Projekte auf dem Gebiet der Telemedizin, die in der Praxis erprobt und deren Nutzen in Studien nachgewiesen wurde. Das Kapitel Telemedizin beleuchtet die Situation in Deutschland und führt in die wichtigsten etablierten Anwendungen und Szenarien ein. Der Einsatz von mobilen Endgeräten und diversifizierter Sensortechnologie eröffnet durch die ortsunabhängige Übertragung verschiedenster Signale und Informationen ein neues Feld für Vorsorge und Überwachung. Patienten, die mit geeigneter Technologie ausgestattet sind, können gesundheitsrelevante Parameter an sogenannte telemedizinische Zentren übermitteln. Dort erfolgt das Monitoring, und bei auffälligen Werten kann Kontakt mit dem Patienten aufgenommen werden, um notwendige Ver-
22 | Hartmut Dickhaus
sorgungsmaßnahmen einzuleiten. Dadurch verspricht man sich eine frühe Erkennung von Problemen und eine Vermeidung von kostenintensiven Versorgungsmaßnahmen wie Krankenhausaufenthalten. Das Potenzial von telemedizinischen Anwendungen wird in deutlich weniger dicht besiedelten Ländern, z. B. in Afrika oder Lateinamerika, besonders hoch eingestuft.
Technische Assistenzsysteme (Kapitel 10) Getrieben durch die sich verändernde Altersstruktur der Bevölkerung westlicher Länder inklusive Deutschland wird die medizinische Versorgung, Pflege und Unterstützung älterer Menschen deutlich zunehmen. Damit wird aber auch die Kostenproblematik aufgrund steigenden Personalbedarfs immer drängender. Hier erhofft man sich durch verstärkte Integration von intelligenter Technik und Kommunikationsstrategien Unterstützung und neue Lösungen. Das Kapitel erläutert Ansätze, wie mithilfe verschiedener Sensoren, intelligenter Vernetzungstechnik, mobilen und telemetrischen Systemen und spezialisierter Software eine unauffällige Bereitstellung von Hilfsfunktionen, Kommunikationshilfen und Überwachungsmöglichkeiten gelingen kann. Häufig wird hierfür auch die Bezeichnung Ambient Assisted Living genutzt, die deutlich machen soll, dass es um Unterstützungsfunktionen in der gewohnten Umgebung des Betroffenen geht. Neben den technischen Herausforderungen sind vor allem auch ethische Gesichtspunkte und rechtliche Fragen bezüglich des Datenschutzes und des Schutzes der Privatsphäre zu beachten, die noch längst nicht zufriedenstellend gelöst sind.
IT-Standards in der Medizin (Kapitel 11) Zur funktionsfähigen korrekten Kommunikation zwischen verschiedenen technischen Systemen zum Datenaustausch muss die Interoperabilität der Systeme auf verschiedenen Ebenen gesichert sein. Zu diesem Zweck werden Standards eingeführt, die letztlich für ein gemeinsames Verständnis der Informationen sorgen können und in diesem Kapitel beschrieben werden. In der Medizin sind verschiedene nationale und internationale Standards und Initiativen zur Implementierung der Interoperabilität entstanden. Der einfache Nachrichtenaustausch für alphanumerische Daten (Patientenstammdaten, Diagnosen, Befunde, Laborwerte etc.) wird häufig durch den Kommunikationsstandard von HL7 (Health Level Seven) erreicht. Der Austausch von Bilddaten wird durch den DICOM-Standard (Digital Imaging and Communications in Medicine) geregelt und für Forschungsdaten werden Standards durch das Clinical Data Interchange Standards Consortium (CDISC) entwickelt. Ergänzend hierzu tragen Terminologien zur semantischen Interoperabilität bei, z. B. die International Classification of Diseases (ICD), die auch Grundlage für die DRGs (Fallpauschalen) ist. Weiterhin sind semantische Begriffsnetze wie SNOMED-CT (Systematized Nomencla-
1 Einführung in die Medizinische Informatik |
23
ture of Medicine – Clinical Terms) für ein einheitliches Verständnis von Informationen bedeutsam.
Datenschutz und IT-Sicherheit in der Medizin (Kapitel 12) Während sich der Datenschutz auf die Person und ihr Recht auf informationelle Selbstbestimmung bezieht, also z. B. die Privatsphäre abschirmt oder missbräuchliche Datenverarbeitung über die betroffene Person verhindern soll, ist mit IT-Sicherheit die fehlerfreie technische Realisierung digitaler Repräsentationsformen der Daten und ihrer Übertragung gemeint. Beide Bereiche hängen inhaltlich zusammen und werden in diesem Kapitel auch gemeinsam diskutiert. Es werden wirksame Maßnahmen erläutert, die eine vor Zugriff und Verfälschung technisch sichere Realisierung ermöglichen. Im Bereich der Medizin sind die Daten der Betroffenen von besonderer Brisanz, da ihre missbräuchliche Nutzung für die jeweilige Person oder den Patienten besonders nachhaltig negative Folgen haben kann. Der Gesetzgeber hat diesbezüglich – vollkommen unabhängig von technischen Realisierungen – die Verschwiegenheitspflicht im Strafgesetzbuch verankert. Bei der Entwicklung von technischen Geräten und insbesondere von Systemen und Software zur Datenverarbeitung sind rollenabhängige Zugriffsrechte eindeutig umzusetzen. Technische Maßnahmen zur Datensicherheit wie kryptographische Verfahren sind neben ihrer Wirksamkeit auch hinsichtlich ihres Aufwandes und ihrer Kosten zu beurteilen.
Quellenverzeichnis Assion P., Telle J.: Der Nürnberger Stadtarzt Johannes Magenbuch. Zum Leben und Werk eines Medi ziners zur Reformationszeit. Sudhoffs Archiv 56, 353–421, 1972. BD2K: Online im Internet: http://datascience.nih.gov/bd2k, Stand: 1. 5. 2015. Bellazzi R.: Big Data and Biomedical Informatics: A Challenging Opportunity. Yearb Med Inform 2014, 8–13. Berufsverband Medizinischer Informatiker e. V.: Online im Internet: http://www.bvmi.de, Stand: 1. 4. 2015. Blum B. I.: Medical Informatics in the United States, 1950–1975. In: A history of medical informatics. B. I. Blum, K. Duncan (eds). ACM Press, Addison-Wesley Publishing Company, New York, 1990. BMBF/VDE Innovationspartnerschaft AAL (Hrsg.): Ambient Assisted Living – Ein Markt der Zukunft. Potenziale, Szenarien, Geschäftsmodelle, Berlin, Offenbach: VDE Verlag, 2012. Church G. M., Gao Y., Kosuri S.: Next-Generation Digital Information Storage in DNA. Science. 2012 Sep 28;337(6102):1628. Deutsche Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie. Online im Inter net: http://gmds.de/fachbereiche/informatik/wir_ueber_uns.php, Stand: 1. 4. 2015. Dierks M. L.: Gesundheitwesen 2025 – Was erwarten Patientinnen und Patienten? In: Gesundheits wesen 2025. W. Niederlag, H. H. Lemke, E. Nagel, O. Dössel (Hrsg.). Health Akademy Desden 2008.
24 | Hartmut Dickhaus
Digitale Agenda 2014–2017. Online im Internet: www.bundesregierung.de/Content/DE/_Anlagen/2014/08/2014-08-20-digitale-agenda.pdf, Stand: 1. 4. 2015. Dössel O.: Medizintechnik 2025 – Trends und Visionen. In: Gesundheitswesen 2025, Implikationen, Konzepte, Visionen. W. Niederlag, H. U. Lemke, E. Nagel, O. Dössel (Hrsg.). Health Academy, Dresden 2008. Dugas M., Röhrig R., Stausberg J.: Lernzielkatalog Medizinische Informatik: Wissen und Verantwor tung. Dtsch Arztebl 2013;110(6):A-243/B-227/C-227. European Federation For Medical Informatics: Online im Internet: http://www.efmi.org, Stand: 1. 4. 2015. Fachausschuss Medizinische Informatik (FAMI) der GMDS, Online im Internet: http://www.gmds.de/ weiterbildung/biomedinfo.php, Stand: 1. 4. 2015. Ferreira de Souza R. C.: Information Technology in Urban Places: A theoretical framework for the development of IT applied in the space. Lap Lambert, Academic Publishing, 2010. Ghosh S, Matsuoka Y, Asai Y, Hsin KY, Kitano H.: Software for systems biology: from tools to integra ted platforms. Nat Rev Genet. 2011 Nov 3;12(12):821–832. GMDS, Deutsche Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie: Online im Internet:http://www.gmds.de/, Stand: 15. 5. 2015. Grätzel von Grätz P.: Findungsprozesse. EHEALTHCOM 05/14:14–19,2014. Hafen E., Kossmann D., Brand A.: Health Data Cooperatives – Citizen Empowerment. Methods Inf Med. 2014,53:82–86. Hamburg M. A., Collins F. S.: The Path to Personalized Medicine. N Engl J Med 2010;363:301–304. Haux R.: On the Methodology and Scientific Fundamentals of Organizing, Representing and Ana lysing Data, Information and Knowledge in Biomedicine and Health Care. Methods Inf Med 2011;50(6):487–490. Hasman A., Ammenwerth E., Dickhaus H., Knaup P., et al.: Biomedical Informatics – A Confluence of Disciplines? Methods Inf Med 2011;50(6):508–524. Heimann T.: Studie IT-Trends 2015. Online im Internet: https://www.de.capgemini.com/it-trendsstudie, Stand: 1. 4. 2015. Hübner U., Prokosch H. U., Breil, B.: Medizinische Informatik in der digitalen Gesellschaft: Im Span nungsfeld vielfältiger Aufgaben. Dtsch Arztebl 2014;111(48):A-2102/B-1784/C-1707. Hüsing B.: Personalisierte Medizin – Grundlagen und Entwicklungstendenzen. In: Personalisierte Medizin und Informationstechnologie. W. Niederlag, H. U. Lemke, O. Rienhoff, (Hrsg.). Health Academy Dresden 2010. International Medical Informatics Association (IMIA). Online im Internet: http://www.imia-medinfo. org/new2/, Stand: 15. 4. 2015. Kalfhues A. J., Hübschen, M., Löhrke, E., Nunner G., Perszewski H., Schulze J. E., Stevens T.: JUTTA – JUST-in-Time Assistance: Betreuung und Pflege nach Bedarf. In: Shire K. A., Leimeister J. M.: Technologiegestützte Dienstleistungsinnovation in der Gesundheitswirtschaft (German Editi on). Wiesbaden: Gabler Verlag 2012. Kitano H.: Systems Biology: a brief overview, Science,295:1662–1664,2002. Knaup P., Haag M., Leven F. J., Dickhaus H.: Challenges in the evolution of medical informatics pro gram Heidelberg/Heilbronn (Germany). Methods Inf Med. 2009;48(1):66–75. Köhler C. O.: Historie der Medizinischen Informatik in Deutschland von den Anfängen bis 1980. 16. 9. 2003: Keynote Medizinische Informatik GMDS. Online im Internet: http://www.cokoehler. de/cms/index.asp?inst=cokoehler&snr=1590&t=--%26gt%3Bmehr+dazu, Stand: 5. 5. 2015. Kulikowski C. A., Shortliffe E. H., Currie L. M., et al.: AMIA Board white paper. Definition of biomedi cal informatics and specification of core competencies for graduate education in the discipline. J AM Med Inform Assoc. 2012;19(6):931–938.
1 Einführung in die Medizinische Informatik |
25
Lusted L. B.: Some roots of Clinical Decision Making. In: A history of medical informatics. B. I. Blum K. Duncan (eds). ACM Press, Addison-Wesley Publishing Company, New York, 1990. Mantas J., Ammenwerth E., Demiris G., et al.: IMIA Recommendations on Education Task Force, Re commendations of the International Medical Informatics Association (IMIA) on Education in Biomedical and Health Informatics. First Revision. Methods Inf Med. 2010;49(2):105–120. Mardis E. R.: The impact of next-generation sequencing technology on genetics. Trends in Genetics 2008,24(3):133–141. Martin-Sanchez F., Verspoor K.: Big Data in Medicine Is Driving Big Changes. Yearb Med Inform 2014, 14–20. Mikat B.: Archivierung und Dokumentation der Krankenblätter im Zentralarchiv für Wehrmachtmedi zin. Wehrmed. Mitt. 1960;6:81–85. Müller R., Ganten D., Larisch J.: Public Health: Gesundheit ist mehr als Medizin. Dtsch Arztebl 2014;111(44):A-1900/B-1624/C-1556. Naughton J.: A Brief History of the Future: The Origins of the Internet. Phoenix, London 2000. Niederlag W., Lemke H. U., Nagel E., Dössel O.: Gesundheitswesen 2025, Implikationen, Konzepte, Visionen. Health Academy, Dresden 2008. Österreichische Computergesellschaft: Online im Internet: http://www.ecdl.at/de/about-ocg, Stand: 1. 4. 2015. Placzek S.: Die medizinische Wissenschaft in den Vereinigten Staaten. Thieme, Leipzig, 1894. Pommerening K.: Personalisierte Medizin und Informationstechnologie – Aspekte des Datenschut zes. In: Personalisierte Medizin und Informationstechnologie. W. Niederlag, H. H. Lemke, O. Rienhoff (Hrsg.). Health Academy, Dresden 2010:239–250. Reicherts P. L.: Aufgaben, Ziele und Möglichkeiten der Medizinischen Informatik. In: 15 Jahre Medizi nische Statistik und Dokumentation – Aspekte eines Fachgebietes. H. J. Lange, J. Michaelis, K. Überla (Hrsg.). Springer, Berlin 143–150, 1978. Schmücker P.: Studienangebote für die Medizinische Informatik. In: Forum der Medizin, Dokumenta tion und Medizin-Informatik. 3, 2013. BVMI (Hrsg.), Berlin. Schweizerische Gesellschaft für Medizinische Informatik: Online im Internet: http://www.sgmi-ssim.ch, Stand: 1. 4. 2015. Shah N. H., Tennenbaum J. D.: The coming age of data-driven medicine: translational bioinformatics next frontier. J Am Med Inform Assoc. 2012;19(e1):e2-e4d. TTI Tectran GmbH: Daten- und Wissens-Management (DWM). Online im Internet: http://www.ttitectran.com/kompetenzen-management.html, Stand: 04. 05. 2015. Van Bemmel J. H.: Medical Informatics is interdisciplinary avant la lettre. Methods Inf Med 2008;47:318–321. Van Bemmel J. H.: The structure of medical informatics. Methods Inf Med 1984;9:175–180. Weichert T.: Medizinisches Big Data und Datenschutz. In: Big Data in Medizin und Gesundheitswirt schaft. P. Langkafel (Hrsg.). Medhochzwei Verlag GmbH, Heidelberg, 2014. Wikipedia-Internet. Aktuelles aus Wissenschaft und Gesellschaft. Online im Internet: http://www. ihdsl.de/2015/02/17/internet-wikipedia/, Stand: 1. 4. 2015. Wingert F.: Medizinische Informatik. Teubner, Stuttgart 1979. Zertifikat Medizinische Informatik. Online im Internet: www.gmds.de/organisation/zertifikate/med_informati.php, Stand: 1. 4. 2015.
26 | Hartmut Dickhaus
Verzeichnis weiterführender Literatur Daskalaki A. (Editor): Handbook of Research on Systems Biology Applications in Medicine. Medical Information Science Reference, October 2008. Dugas M., Schmidt K.: Medizinische Informatik und Bioinformatik: Ein Kompendium für Studium und Praxis (Springer Lehrbuch). Springer Verlag. Berlin, Heidelberg, New York. 2013. Langkafel P.: Big Data in Medizin und Gesundheitswirtschaft. Medhochzwei Verlag GmbH, Heidel berg, 2014. Moir E., Moonen T., Clark C.: What are future cities – origins, meaning and uses (June, 2014). Online im Internet: https://www.gov.uk/.../14-820-what-are-future-cities, Stand: 15. 4. 2015. Shortliffe E. H.: Biomedical Informatics: Computer Applications in Health Care and Biomedicine (Health Informatics). Springer Science+Business Media, New York, 2012.
Franziska Jahn
2 Krankenhausinformationssysteme 2.1 2.2 2.3 2.4 2.5 2.6 2.7
Einleitung | 28 Anwendungssysteme im Krankenhaus | 29 Architektur von Krankenhausinformationssystemen | 35 Integration im Krankenhausinformationssystem | 44 Management von Krankenhausinformationssystemen | 48 Qualität von Krankenhausinformationssystemen | 54 Zusammenfassung und Ausblick | 56
Zusammenfassung: Krankenhausinformationssysteme (KIS) unterstützen die Aufgaben eines Krankenhauses durch geeignete Erfassung und Bereitstellung von Informationen. Dies erfolgt durch eine Vielzahl verschiedener Anwendungssysteme, die miteinander kommunizieren und somit integriert werden müssen. Die Komplexität und Heterogenität moderner KIS kann nur durch ein systematisches Informationsmanagement beherrscht werden. Das Informationsmanagement hat die Aufgabe, das Erreichen der Krankenhausziele zu unterstützen, wobei sowohl die Wirtschaftlichkeit als auch die Qualität des KIS gewährleistet sein müssen. Abstract: Hospital information systems (HIS) support the functions of a hospital by recording and providing information. They contain a variety of application systems which are integrated in order to communicate with each other. The complexity and heterogeneity of modern HIS can only be mastered by a systematic information management. The main task of a HIS is to support the achievement of hospital goals taking account of cost effectiveness and quality.
28 | Franziska Jahn
2.1 Einleitung Im Jahr 2013 waren ca. 1 164 000 Personen in knapp 2 000 deutschen Krankenhäusern beschäftigt. 14 % der Krankenhausangestellten zählen zum ärztlichen Personal [Statistisches Bundesamt 2014]. Die Gruppe des nichtärztlichen Personals setzt sich unter anderem aus Pflegekräften, Verwaltungsangestellten, medizintechnischem sowie medizininformatischem Personal zusammen. Alle genannten Berufsgruppen benötigen für die Erfüllung ihrer Aufgaben bestimmte Informationen, was an einigen Beispielen verdeutlicht werden soll. Das ärztliche Personal benötigt während der täglichen Visite Informationen zum bisherigen Behandlungsverlauf des Patienten sowie aktuelle Befunde. In den administrativen Bereichen des Krankenhauses werden die erbrachten Leistungen abgerechnet und die Diagnosen aller Patienten des Krankenhauses zusammengeführt, um Diagnosestatistiken zu erstellen. Das medizintechnische Personal muss wissen, an welchen Medizinprodukten in naher Zukunft sicherheitstechnische Kontrollen durchgeführt werden müssen. Einerseits müssen somit dem Krankenhauspersonal für die Durchführung vieler Krankenhausaufgaben Informationen zur richtigen Zeit in der richtigen Form zur Verfügung stehen. Andererseits entstehen im Krankenhaus viele Informationen, die dokumentiert werden müssen, sei es aufgrund gesetzlicher Vorschriften oder als Erinnerungs- und Kommunikationshilfe. Über 25 % seiner Arbeitszeit verbringt das ärztliche Personal mit Dokumentation [Ammenwerth 2009]. Beispielsweise muss am Ende eines stationären Krankenhausaufenthaltes ein Arztbrief verfasst werden, wofür auf zuvor erstellte Dokumente wie Befunde, Medikationspläne und OP-Berichte zurückgegriffen wird. Das pflegerische Personal muss Pflegeanamnesen, Pflegeverlaufsdokumentationen und auch Pflegeabschlussberichte erstellen. Das administrative Personal stellt Rechnungen für die Krankenkassen zusammen, verfasst aber auch Controlling- oder Qualitätsberichte. Nicht zuletzt ist die Krankenhausleitung darauf angewiesen, aggregierte Informationen über das Krankenhausgeschehen zu erhalten, um steuernd eingreifen zu können. Alle Berufsgruppen im Krankenhaus benötigen somit verschiedenste Informationen, um ihre Aufgaben erledigen zu können. Auch entstehen bei fast allen Aufgaben Informationen, die dokumentiert werden müssen. Für die Bereitstellung und Erfassung von Informationen ist das Informationssystem des Krankenhauses verantwortlich. Krankenhausinformationssysteme (KIS) dienen zur Unterstützung der vielfältigen Aufgaben eines Krankenhauses durch geeignete Erfassung und Bereitstellung von Informationen.
Diese weit gefasste Definition impliziert, dass ein Krankenhausinformationssystem nicht nur aus einem Anwendungssystem (Computerprogramm, das bestimmte Aufgaben unterstützt) besteht und auch nicht ausschließlich computerbasiert ist. Vielmehr trifft man im Krankenhaus auf eine Vielzahl unterschiedlicher Anwendungssysteme
2 Krankenhausinformationssysteme | 29
und auch nicht-computerbasierter Werkzeuge, die für die Erledigung der verschiedenen Aufgaben im Krankenhaus genutzt werden. Schließlich kann ein Informationssystem nur funktionieren, wenn Personen zusammenarbeiten, die Informationen nutzen und dokumentieren, weshalb Informationssysteme auch als soziotechnische Systeme bezeichnet werden. In den nächsten Abschnitten liegt der Fokus auf dem computerbasierten Teil des Krankenhausinformationssystems, auch wenn nach wie vor in vielen Krankenhäusern manches auf Papier dokumentiert wird. In Kapitel 2.2 werden typische Anwendungssysteme eines Krankenhauses vorgestellt. Wie sich diese in die Architektur eines Krankenhausinformationssystems einfügen, wird in Kapitel 2.3 beschrieben. An Krankenhausinformationssysteme bestehen verschiedene Integrationsanforderungen, die in Kapitel 2.4 erläutert werden. Die Umsetzung der Anforderungen obliegt dem Informationsmanagement. In Kapitel 2.5 werden strategische, taktische und operative Aufgaben des Informationsmanagements im Krankenhaus beschrieben. Zum Abschluss wird in Kapitel 2.6 der Frage nachgegangen, wie die Qualität von Krankenhausinformationssystemen beurteilt werden kann.
2.2 Anwendungssysteme im Krankenhaus 2.2.1 Anwendungssysteme zur Unterstützung von Krankenhausaufgaben Die Schritte von der Patientenaufnahme bis zur Entlassung sind in unterschiedlichem Maße durch den Einsatz von Computersystemen geprägt. Anwendungssysteme, d. h. für das jeweilige Krankenhaus installierte, individuell angepasste Softwareprodukte, unterstützen das Krankenhauspersonal bei der Durchführung vielfältiger Aufgaben. Im Krankenhaus trifft man in der Regel auf eine große Anzahl von Anwendungssystemen, die auf die Bedürfnisse der verschiedenen Nutzergruppen (z. B. ärztliches Personal, Pflegekräfte, Verwaltungspersonal) in den unterschiedlichen Organisationseinheiten zugeschnitten sind. In den folgenden Abschnitten sollen anhand der Abläufe im Krankenhaus typische Anwendungssysteme sowie deren Funktionalitäten beschrieben werden. Anwendungssysteme entstehen durch die Installation und Inbetriebnahme von Softwareproduk ten und unterstützen das Krankenhauspersonal bei der Durchführung seiner Aufgaben.
30 | Franziska Jahn
2.2.2 Patientenmanagementsystem (PMS) Bei der Patientenaufnahme im Krankenhaus werden wie bei niedergelassenen Ärzten zunächst die administrativen Patientendaten eingelesen, die auf der elektronischen Gesundheitskarte gespeichert sind. Wird ein Patient erstmalig in einem Krankenhaus aufgenommen, erhält er im Patientenmanagementsystem eine eindeutige Patientenidentifikationsnummer (PIN), die im jeweiligen Krankenhaus lebenslang zur Identifikation des Patienten dient. Zusätzlich wird bei jedem stationären Aufenthalt oder einer quartalsinternen Folge ambulanter Krankenhausbesuche eine Fallnummer vergeben. Die Fallnummer gilt bei einem stationären Aufenthalt von der Aufnahme über mögliche Verlegungen innerhalb des Krankenhauses hinweg bis zur Entlassung (Abb. 2.1). Die fallbezogene Darstellung von Patientendaten unterstützt die in Deutschland vorgeschriebene Abrechnung von stationären Krankenhausbehandlungen über diagnosebezogene Fallpauschalen (Diagnosis Related Groups, DRG). Für die Berechnung der DRG müssen die Diagnosen des Patienten und die an ihm durchgeführten Prozeduren dokumentiert und verschlüsselt werden, d. h. Diagnoseklassen und Prozedurenklassen werden zugewiesen. Die Verschlüsselung von Diagnosen erfolgt nach der ICD-10-GM. Die ICD-10 (Internationale statistische Klassifikation der Krankheiten und verwandter Gesundheitsprobleme) wird von der Weltgesundheitsorganisation (WHO) herausgegeben und liegt momentan in der 10. Revision vor. Für Deutschland gilt eine sogenannte German Modification (GM). Prozeduren werden nach dem Operationen- und Prozedurenschlüssel (OPS) verschlüsselt, der sich aus der Internationalen Klassifikation der Prozeduren in der Medizin ableitet. Die DRG-Berechnung aufgrund von Diagnosen und Prozeduren erfolgt mit Hilfe von Verschlüsselungssystemen, die anschließende Leistungsabrechnung wird im Patientenmanagementsystem vorgenommen.
Patientenname: Erika Mustermann Patientenidentifikationsnummer: 1621107
Fallnummer: 11235813 stationärer Aufenthalt 14.04.2014–23.04.2014
Fallnummer: 11251442 ambulanter Besuch 01.07.2014
Fallnummer: 23571113 stationärer Aufenthalt 15.10.2014–17.10.2014
ambulanter Besuch 08.07.2014 ambulanter Besuch 04.08.2014 Abb. 2.1: Im Patientenmanagementsystem werden den Patienten eindeutige Nummern zugeordnet. Die Patientenidentifikationsnummer gilt innerhalb des Krankenhauses lebenslang, und für jeden ambulanten oder stationären Fall wird eine eigene Fallnummer vergeben.
2 Krankenhausinformationssysteme | 31
Neben den Aufgaben der Patientenaufnahme, der Verlegung und Abrechnung unterstützen Patientenmanagementsysteme auch administrative Abläufe auf Station wie die Zuweisung von Patienten zu Räumen und Betten. Ein Patientenmanagementsystem (PMS), auch Patientenverwaltungssystem genannt, ist ein An wendungssystem, das administrative Aufgaben in der Patientenbehandlung von der Patienten identifikation bis zur Leistungsabrechnung unterstützt.
2.2.3 Klinisches Dokumentations- und Managementsystem (KDMS) Mit der administrativen Patientenaufnahme ist die Patientenaufnahme im klinischen Sinne noch nicht abgeschlossen. Sowohl von ärztlicher Seite als auch von pflegerischer Seite erfolgt die Erhebung einer Anamnese, d. h. der Patient wird zu seiner Krankengeschichte und dem aktuellen Gesundheitszustand sowie seinem Pflegebedarf befragt. Ärztliches und pflegerisches Personal werden dabei unterstützt vom klinischen Dokumentations- und Managementsystem (KDMS), auch klinisches Arbeitsplatzsystem genannt, das beispielsweise einen Anamnesebogen als elektronisches Formular mit Auswahllisten, Checkboxen und Freitextfeldern bereitstellen kann. Klinische Dokumentations- und Managementsysteme ermöglichen darüber hinaus die Einsicht in alle behandlungsbezogenen Dokumente wie Arztbriefe, Befunde, Behandlungs- und Medikationspläne und unterstützen deren Erstellung. Häufig wird das KDMS deshalb auch als EPA-System (elektronisches Patientenakten-System, Kapitel 3) bezeichnet. Damit medizinische Dokumente erstellt werden können, sollten Kataloge medizinischer Begriffe im KDMS hinterlegt sein, wie z. B. die aktuelle ICD-10-GM-Version zur Verschlüsselung von Diagnosen sowie der aktuelle OPS zur Verschlüsselung medizinischer Prozeduren (Kapitel 11.3). Im besten Falle bietet ein KDMS nicht nur eine Zusammenstellung patientenbezogener Dokumente, sondern bildet die ärztlichen und pflegerischen Abläufe der Patientenbehandlung ab. Ein KDMS und ein Patientenmanagementsystem müssen miteinander kommunizieren, um die eindeutige Zuordnung von klinischen Dokumenten zu den administrativen Patientendaten inklusive Patientenidentifikationsnummer und Fallnummer gewährleisten zu können. Als klinisches Dokumentations- und Managementsystem (KDMS) bezeichnet man ein Anwen dungssystem, das die ärztliche und pflegerische Behandlungsplanung und -durchführung unter stützt.
32 | Franziska Jahn
2.2.4 Computerized Physician Order Entry System (CPOE-System) Computerized Physician Order Entry (CPOE, auch Computerized Provider Order Entry) ist der englische Fachbegriff für die computerbasierte Leistungsanforderung im Krankenhaus. Im Laufe des Krankenhausaufenthaltes wird es meistens notwendig, diagnostische und therapeutische Leistungsstellen (z. B. Radiologie, Labor, Nuklearmedizin, Apotheke) in die Behandlung des Patienten einzubeziehen. Im CPOE-System kann das ärztliche Personal bestimmte elektronische Anforderungsformulare auswählen, ausfüllen und auf digitalem Wege an Anwendungssysteme der diagnostischen Leistungsstellen übermitteln, wie z. B. an das Radiologie- oder Laborinformationssystem (RIS, LIS, Kapitel 2.2.5). Der Begriff CPOE-System wird auch für Anwendungssysteme verwendet, die ausschließlich Funktionalitäten für die elektronische Medikamentenanforderung im Krankenhaus bereitstellen. In diesem Fall enthält das CPOE-System zusätzlich entscheidungsunterstützende Komponenten (Clinical Decision Support, CDS). Diese überprüfen bei der Verordnung von Medikamenten für einen Patienten Wechselwirkungen und Kontraindikationen, um bei möglicher Gefährdung des Patienten den Nutzer des Systems (z. B. Arzt) zu alarmieren. Ein Computerized Physician Order Entry System (CPOE-System) ist ein Anwendungssystem mit folgenden Funktionalitäten: – Erstellung und Übermittlung von elektronischen Anforderungen an Leistungsstellen wie Ra diologie oder Labor, – Erstellung von Medikamentenanforderungen unter Nutzung von entscheidungsunterstützen den Komponenten.
2.2.5 Anwendungssysteme in diagnostischen Leistungsstellen: LIS und RIS In Krankenhäusern werden aufwändige Diagnostikverfahren in spezialisierten Leistungsstellen (z. B. Labor, Radiologie, Endoskopie, Pathologie) durchgeführt. Die Prozesse in diesen Leistungsstellen laufen nach einem definierten Schema ab und sind gut planbar. Aufgrund der hohen Spezialisierung in den Leistungsstellen kommen spezialisierte Anwendungssysteme wie Laborinformationssysteme (LIS) oder Radiologieinformationssysteme (RIS) zum Einsatz. Laboranforderungen, die aus einer Probe (z. B. Blut, Harn oder Liquor) und einem Dokument mit den angewiesenen Untersuchungen bestehen, müssen im LIS eindeutig einander zugeordnet werden. Das LIS steuert Laborgeräte an und fasst die von den Geräten ermittelten Werte zu einem Laborbefund zusammen. Obwohl die Prozesse im Labor hochautomatisiert ablaufen, ist eine ständige Überwachung und Plausibilitätsprüfung durch Labormediziner und Laborassistenten notwendig.
2 Krankenhausinformationssysteme
| 33
Im Gegensatz zum Labor muss der Patient in der Radiologie vorstellig werden, weshalb ein RIS die Terminkoordination unterstützen sollte. Im RIS werden die Patienten den Modalitäten (z. B. Röntgengerät, Computertomograph, Magnetresonanztomograph) zugeordnet und die Modalitäten angesteuert. Das RIS unterstützt den Radiologen bei der Befundung. Dazu muss es eng mit dem Picture Archiving and Communication System (PACS) integriert sein, welches die radiologischen Bilder speichert (Kapitel 2.2.7). Ein Laborinformationssystem (LIS) steuert die Abläufe in einem medizinischen Labor und unter stützt die Befunderstellung. Ein Radiologieinformationssystem (RIS) ist ein Anwendungssystem, das die Behandlungsabläufe und die Befunderstellung in der Radiologie unterstützt.
2.2.6 Patientendatenmanagementsysteme Auf einer Intensivstation werden Patienten behandelt, die sich in einem lebensbedrohlichen Zustand befinden und aufwändiger medizinischer Maßnahmen bedürfen. Eine engmaschige Überwachung ihrer Vitalparameter (z. B. Körpertemperatur, Blutdruck, Sauerstoffsättigung des Blutes) ist notwendig, damit das ärztliche und pflegerische Personal in lebensgefährdenden Situationen schnell reagieren und lebenserhaltende Maßnahmen einleiten kann. Zu diesem Zweck werden am Körper des Patienten Sensoren angebracht, deren Messwerte an das Patientendatenmanagementsystem (PDMS) übermittelt werden. Das PDMS visualisiert die Vitalparameter des Patienten und warnt bei gefährlichen Abweichungen. Meist werden auch Befunde des klinisch-chemischen Labors oder der Mikrobiologie integriert. Des Weiteren können entscheidungsunterstützende Funktionalitäten im PDMS implementiert werden, die z. B. Abhängigkeiten zwischen Vitalparametern, Medikamentengabe und Laborwerten berechnen und interpretieren. PDMS werden auch im Bereich der Anästhesie eingesetzt, weil auch während der Narkose die Vitalparameter des Patienten überwacht werden müssen. Bei der intensivmedizinischen Versorgung werden besondere Anforderungen an Dokumentation und Leistungsabrechnung gestellt, die ein PDMS unterstützen muss. Das Patientendatenmanagementsystem (PDMS) bezeichnet ein Anwendungssystem, das die Be handlung und Überwachung von Intensivpatienten sowie die Leistungsabrechnung auf Inten sivstationen unterstützt.
34 | Franziska Jahn
2.2.7 Digitale Archivsysteme und PACS Die in Deutschland gesetzlich vorgeschriebenen Aufbewahrungsfristen für die unterschiedlichen medizinischen Dokumente betragen zwischen 10 und 30 Jahren (Kapitel 3). Patientenakten sollten 30 Jahre aufbewahrt werden, weil erst dann eventuelle Schadensersatzansprüche von Patienten verjähren. Beim Einsatz konventioneller, papierbasierter Akten entstehen durch die Archivierung enorme Papiermengen, die sicher und wiederauffindbar in großen Archiven aufbewahrt werden müssen. Aufgrund von Platzproblemen gehen Krankenhäuser in den letzten Jahren jedoch dazu über, Patientenakten vollständig zu digitalisieren. Dies wird durch den breiten Einsatz von klinischen Anwendungssystemen erleichtert, da nun viele zu archivierende Patientendaten bereits digital vorhanden sind. Dennoch liegen in den meisten Krankenhäusern wichtige Dokumente der Patientenbehandlung noch in Papierform vor (z. B. Anamnesebögen, Fieberkurven, ausgedruckte und unterschriebene Arztbriefe). Eine Methode zur langfristigen, revisionssicheren Aufbewahrung der Dokumente ist die Digitalisierung. Hierbei werden die Dokumente eingescannt, indexiert und in einem digitalen Archivsystem langfristig gespeichert. Dieses muss ebenfalls gewährleisten, dass die archivierten Daten jederzeit schnell auffindbar sind, jedoch nicht manipuliert werden können. Dabei werden spezielle Speicherformate wie PDF/A für die Langzeitarchivierung genutzt. Neben der Platzersparnis, die ein digitales Archivsystem gegenüber einem konventionellen Aktenarchiv gewährleistet, ist auch ein ungleich schnelleres Auffinden älterer Patientendaten möglich. Eine Besonderheit hinsichtlich der Archivierung stellen medizinische Bilddaten dar. Für sie existiert in Krankenhäusern in der Regel ein eigenes Anwendungssystem, das Picture Archiving and Communication System (PACS). Große Mengen medizinischer Bilddaten entstehen in radiologischen Abteilungen (z. B. durch Röntgen-, MRT-, CT- und Ultraschallaufnahmen), aber auch in Hautkliniken (z. B. Fotoaufnahmen von Hautpartien). Für radiologische Bilder wird als Speicherformat der DICOM-Standard verwendet (Kapitel 8 und 11), Fotoaufnahmen werden in gängigen Bildformaten wie TIFF, JPEG oder als Rohdaten abgelegt. Ein digitales Archivsystem ist ein Anwendungssystem, das die langfristige, manipulationssichere Speicherung von digitalen und digitalisierten Patientendaten unterstützt. Picture Archiving and Communication System (PACS) bezeichnet ein Anwendungssystem zur Ver waltung, Speicherung und Bereitstellung medizinischer Bilddaten.
2.2.8 Enterprise-Resource-Planning-Systeme Die bisher vorgestellten Anwendungssysteme unterstützen hauptsächlich die patientenbezogene administrative und klinische Dokumentation und sind somit bis
2 Krankenhausinformationssysteme
| 35
auf digitale Archivsysteme krankenhausspezifisch. Ein Anwendungssystem, das sowohl in Krankenhäusern als auch in anderen Branchen genutzt wird, ist das Enterprise-Resource-Planning-System (ERP-System). Es unterstützt die betriebswirtschaftlichen Aufgaben und dient der Planung und Koordinierung der Ressourcen des Krankenhauses einschließlich Kapital, Betriebsmittel und Personal. Meist bestehen ERP-Systeme aus mehreren Modulen, die Funktionalitäten für einen bestimmten administrativen Bereich, wie das Personalmanagement, die Finanzbuchhaltung, die Materialwirtschaft, das Gebäudemanagement und das Controlling, bereitstellen. Da die Patientenabrechnung die Grundlage für die Finanzierung des Krankenhauses bildet, ist es sinnvoll, das PMS als Teil des ERP-Systems zu etablieren. Zumindest müssen PMS und ERP-System gut integriert sein. Ein Enterprise-Resource-Planning-System (ERP-System) ist ein Anwendungssystem, das zur Pla nung für betriebswirtschaftliche Aufgaben und Ressourcen (Kapital, Betriebsmittel und Personal) dient.
2.3 Architektur von Krankenhausinformationssystemen 2.3.1 Der Architekturbegriff Im vorhergehenden Kapitel wurden typische Anwendungssysteme als wichtiger Teil des Krankenhausinformationssystems dargestellt. Dieses ist jedoch aus vielen weiteren Komponenten aufgebaut, die untereinander und mit ihrer Umwelt in Beziehung stehen. Zum Beispiel müssen Patientendaten, die in ein PMS eingegeben werden, in einem zugehörigen Datenbanksystem (Kapitel 5) gespeichert werden. Werden diese Daten auch von anderen Anwendungssystemen benötigt, so ist es sinnvoll, Schnittstellen zwischen den Anwendungssystemen zu implementieren. Damit Anwendungssysteme und Datenbanksysteme überhaupt funktionsfähig sind, werden leistungsfähige physische Datenverarbeitungssysteme (Hardwarekomponenten) in Form von Servern und Clients benötigt. Letztendlich gehören auch die Nutzer von Hard- und Software zum Informationssystem und werden bei der Durchführung ihrer Aufgaben unterstützt. Die Gesamtheit der strukturellen Komponenten des Informationssystems sowie die zugrundeliegenden Prinzipien ihrer Integration werden auch als Architektur des Informationssystems bezeichnet. Architekturen von Krankenhausinformationssystemen sind durch Komplexität und Heterogenität gekennzeichnet. In großen Krankenhäusern können zwischen 50 und 200 Anwendungssysteme unterschiedlicher Hersteller im Einsatz sein, die jeweils über eigene Datenbanksysteme verfügen. Um komplexe Krankenhausinformationssysteme planen, steuern und überwachen zu können, müssen die Komponenten ihrer Architektur und deren Zusammenspiel im Auge behalten werden. In Kapitel 2.3.2
36 | Franziska Jahn wird mit 3LGM2 eine Beschreibungssprache für Informationssysteme eingeführt, mit deren Hilfe Informationssysteme systematisch zu erfassen, zu verstehen und zu managen sind. Mit Architektur bezeichnet man den Aufbau eines Informationssystems aus Komponenten und de ren Beziehungen untereinander bzw. zu ihrer Umwelt sowie die zugrundeliegenden Gestaltungsund Entwicklungsprinzipien (ISO/IEC/IEEE 42010).
2.3.2 3LGM2 – Ein Metamodell für die Beschreibung von Krankenhausinformationssystem-Architekturen In der Informatik werden häufig Modelle zur Beschreibung von Systemen eingesetzt. Metamodelle dienen als Modellierungsvorschrift für eine Klasse von Modellen und geben die Syntax und Semantik für Modelle vor, wie auch die Repräsentation der Modellelemente und manchmal auch Modellierungsregeln. Das 3-Ebenen-Metamodell (3LGM2 , 3-Layer Graph-Based Metamodel) eignet sich für die Modellierung von Informationssystemen im Sinne der eingangs eingeführten Definition. Mit einem auf dem Metamodell 3LGM2 basierenden Modell (kurz: 3LGM2 -Modell) lässt sich beschreiben, durch welche computerbasierten oder nichtcomputerbasierten Werkzeuge Informationen im Krankenhaus verarbeitet werden, damit die Aufgaben des Krankenhauses erfüllt werden können. Die Modellierung erfolgt auf drei miteinander verbundenen Ebenen [Winter 2011]: – fachliche Ebene, – logische Werkzeugebene, – physische Werkzeugebene.
Die fachliche Ebene Auf der fachlichen Ebene eines 3LGM2 -Modells wird dargestellt, welche Aufgaben in einem Krankenhaus erfüllt werden und welche Informationen hierzu verarbeitet werden müssen. Die fachliche Ebene abstrahiert von zugrundeliegender Informationstechnologie wie Anwendungssystemen und physischen Datenverarbeitungssystemen. Aufgaben stellen Zielvorschriften für das Handeln dar und tragen zum Erreichen der Krankenhausziele bei. Sie werden in Organisationseinheiten, d. h. durch die in bestimmte Zuständigkeiten voneinander abgegrenzten Teilbereiche des Krankenhauses, ausgeführt.
Aufgaben eines Krankenhauses sind z. B. die Patientenbehandlung, die Krankenhausverwaltung, die Krankenhausleitung, das Ressourcenmanagement sowie Forschung und Lehre.
2 Krankenhausinformationssysteme | 37
In Hinblick auf Informationssysteme ist besonders wichtig, welche Informationen zur Erfüllung der Krankenhausaufgaben benötigt werden und welche dabei entstehen. Objekttypen repräsentieren im Metamodell 3LGM2 Informationen über gleichartige Objekte der realen Welt.
Objekttypen im Krankenhaus sind z. B. Patient, Diagnoseklasse, Befund, Ressource oder klinische Studie.
Die Abbildung 2.2 veranschaulicht einen Ausschnitt der fachlichen Ebene eines KIS. Als Beispiel sind Aufgaben und Objekttypen dargestellt, die im Zusammenhang mit der radiologischen Diagnos tik bei stationären Patienten stehen: Voraussetzung für die radiologische Diagnostik ist die adminis trative Patientenaufnahme. Dabei werden identifizierende Daten über den Objekttyp Patient, beste
administrative Patientenaufnahme
Patientenidentifikation Patient
Befundanforderung
Fall Radiologieanforderung
Terminvergabe und Untersuchungsplanung in der Radiologie
terminierter Einzelauftrag
radiologische Diagnostik radiologische Untersuchung radiologische Bildbefundung
radiologisches Bild
Qualitätssicherung
Angaben nach RöV
Behandlungsplanung
Behandlungsplan
Befundbericht Radiologie
Diagnosen- und Prozedurenverschlüsselung
Prozedur Diagnose
stationäre Abrechnung Rechnung
Abb. 2.2: Ausschnitt einer fachlichen Ebene eines Krankenhauses. Die Abbildung beschreibt die Aufgaben im Umfeld der radiologischen Diagnostik. Aufgaben sind als Rechtecke, Objekttypen als Ellipsen dargestellt.
38 | Franziska Jahn
hend aus Patientenidentifikation und Fall, angelegt oder geändert, falls der Patient bereits zuvor im Krankenhaus war. Pfeile von einer Aufgabe zu einem Objekttyp repräsentieren einen bearbeitenden Zugriff auf den Objekttyp bei der Durchführung der Aufgabe. Der Objekttyp Patient wird wiederum bei allen nachfolgenden patientenbezogenen Aufgaben (Befundanforderung, radiologische Diagnostik) benötigt. Dieser interpretierende Zugriff auf Patient wird durch einen Pfeil vom Objekttyp zur Aufgabe dargestellt. Aus der Radiologieanforderung wird im Rahmen der Terminvergabe und Untersuchungs planung in der Radiologie ein terminierter Einzelauftrag. Dieser wird wiederum bei der radiologi schen Diagnostik (zusammengesetzt aus der radiologischen Untersuchung und der radiologischen Bildbefundung) interpretiert. Der Befundbericht ist einerseits Voraussetzung für die weitere Behand lungsplanung, andererseits können aus ihm Diagnosen und Prozeduren abgeleitet werden, die für die stationäre Abrechnung des Patienten nach dem DRG-System relevant sind.
Die logische Werkzeugebene Ein Bestandteil der logischen Werkzeugebene von KIS sind die in Kapitel 2.2 vorgestellten Anwendungssysteme. Sie unterstützen die Durchführung von Aufgaben auf der fachlichen Ebene. Anwendungssysteme basieren auf Softwareprodukten, die für das Krankenhaus individuell adaptiert wurden. Auch die lauffähige Software von Medizingeräten (z. B. Computertomographen, Laborautomaten) wird in einem 3LGM2 -Modell durch Anwendungssysteme repräsentiert. Datenbanksysteme sind Teile von Anwendungssystemen und dienen der Speicherung von Datensatztypen. Anwendungssysteme kommunizieren über Schnittstellen, indem sie Nachrichtentypen austauschen. Datensatztypen und Nachrichtentypen repräsentieren Objekttypen, die auf der fachlichen Ebene dargestellt werden. Ein Nachrichtentyp kann auf einem Kommunikationsstandard (z. B. HL7, DICOM, ISO/IEEE 11073) basieren, der ein Datenformat für die Übertragung zwischen Anwendungssystemen definiert (Kapitel 11).
Für die Kommunikation von administrativen und medizinischen Patientendaten wird im Krankenhaus meist noch der Health Level Seven (HL7)-Standard in der Version 2.x verwendet. HL7 in der Version 3 unterscheidet sich deutlich von seinem Vorgänger. Es basiert auf einem Referenz-Informationsmodell (HL7-RIM) für Einrichtungen des Gesundheitswesens und definiert neben Nachrichtenformaten mit der Clinical Document Architecture (CDA) auch ein standardisiertes Dokumentenformat.
In radiologischen Abteilungen ist darüber hinaus der Digital Imaging and Communications in Medici ne (DICOM)-Standard von großer Bedeutung. Er gewährleistet die Verarbeitung und Kommunikation digitaler Bilddaten. HL7 und DICOM werden im Kapitel 11 beschrieben.
2 Krankenhausinformationssysteme |
39
Die Standard-Familie ISO/IEEE 11073 definiert ein Austauschformat für Vitalparameter, das z. B. für die Kommunikation zwischen Point-of-Care-Testing-Geräten (POCT-Geräten) und dem Laborinforma tionssystem genutzt werden kann.
Neben Anwendungssystemen, die computerbasierte Komponenten eines KIS sind, werden auf der logischen Werkzeugebene auch die nicht-computerbasierten Organisationssysteme dargestellt. Darunter werden alle konventionellen bzw. papierbasierten Werkzeuge der Informationsverarbeitung (z. B. Papierakte, Telefon, Briefablage) zusammengefasst sowie Regeln oder Pläne zu deren Anwendung.
Die Abbildung 2.3 zeigt einen Ausschnitt aus dem rechnerbasierten Teil der logischen Werkzeu gebene eines KIS. Es sind die Anwendungssysteme dargestellt, die für die Aufgaben im Umfeld der radiologischen Diagnostik benötigt werden. Das Patientenmanagementsystem wird bei der Patien tenaufnahme genutzt. Die in seinem Datenbanksystem gespeicherten administrativen Patientenda ten werden über den Kommunikationsserver ( Kapitel 2.4.2) an andere Anwendungssysteme wie das klinische Dokumentations- und Managementsystem, das CPOE-System und das Radiologieinforma tionssystem übermittelt. Das Radiologieinformationssystem erhält vom CPOE-System die Leistungs anforderung als HL7-Nachricht und unterstützt die Terminvergabe und Untersuchungsplanung in der Radiologie. Wenn Terminwünsche nicht berücksichtigt werden können, erfolgt per Telefon (Teil des Organisationssystems der Radiologie) eine Rücksprache mit der Station. Der gefundene Termin wird dann im Radiologieinformationssystem eingetragen. Es steuert die Modalitäten (CT, MRT, Röntgen)
Patientenmanagementsystem
CT
MRT
Klinisches Dokumentations- und Managementsystem
CPOE-System
Kommunikationsserver
Verschlüsselungssystem
PACS
Bild- und BefundServer
Röntgen
Modalitäten
Radiologieinformationssystem
Organisationssystem der Radiologie Abb. 2.3: Ausschnitt aus der logischen Werkzeugebene eines Krankenhausinformationssystems mit Fokus auf Anwendungssysteme der Radiologie. Anwendungssysteme sind als Rechtecke darge stellt. Kreise repräsentieren Schnittstellen, Pfeile veranschaulichen die Richtung der Kommunikati on; Datenbanken sind als Zylinder dargestellt.
40 | Franziska Jahn
an, indem es unter Nutzung des DICOM-Standards die Patientendaten sowie die für die Untersuchung notwendigen Parameter an sie übergibt. Mit Modalitäten sind auf der logischen Werkzeugebene nicht die physisch greifbaren Geräte gemeint, sondern die darauf installierte und sie steuernde Software. Hiervon werden die digitalen Bilder an das PACS kommuniziert und im DICOM-Format gespeichert. Bei der radiologischen Bildbefundung im Radiologieinformationssystem werden die Bilder im PACS auf gerufen. Über den Bild- und Befundserver werden die radiologischen Befunde auf Station abgerufen, damit mit Hilfe des klinischen Dokumentations- und Managementsystems die Behandlungsplanung erfolgen kann. Das Verschlüsselungssystem wird schließlich für die Diagnosen- und Prozedurenver schlüsselung genutzt.
Die physische Werkzeugebene Die physische Werkzeugebene besteht aus einer Menge von physischen Datenverarbeitungssystemen, die durch Datenübertragungsverbindungen Daten austauschen. Anwendungssysteme und Datenbanksysteme sind auf physischen Datenverarbeitungsbausteinen installiert. Physische Datenverarbeitungssysteme sind physisch greifbare Gegenstände oder simulierte physisch greifbare Gegenstände, mit denen Daten verarbeitet (entgegengenommen, gespeichert, weitergeleitet oder verändert) werden können. Simulierte physische Datenverarbeitungssysteme entstehen durch Virtualisierung. Durch die Virtualisierung von Servern lassen sich beispielsweise mehrere physische Server wie ein einzelner administrieren. Andererseits wird es möglich, auf einem Server mehrere virtuelle Maschinen einzusetzen; diese können wie unabhängige Server genutzt werden, indem auf jeder virtuellen Maschine beispielsweise ein eigenes Betriebssystem läuft. Virtualisierungstechniken schaffen eine Abstraktionsschicht zwischen Hard- und Software und helfen dabei, die vorhandenen Rechnerressourcen optimal auszuschöpfen. Die physische Werkzeugebene von KIS unterscheidet sich prinzipiell nicht von physischen Werkzeugebenen von Institutionen anderer Branchen. Allerdings werden neben Computersystemen auch medizintechnische Geräte wie Röntgengeräte als physische Datenverarbeitungssysteme aufgefasst. Ebenso zählen konventionelle Aktenarchive, Telefone, Faxgeräte und im erweiterten Sinne auch Menschen zu den physischen Datenverarbeitungssystemen in einem Krankenhaus.
Server, virtuelle Server, PC, Tablets, Switches, Laborautomaten, Röntgengeräte, MRT-Geräte, konven tionelle Aktenarchive, Telefon und Faxgeräte sind Beispiele für physische Datenverarbeitungssyste me.
Die Abbildung 2.4 veranschaulicht die physische Werkzeugebene des bisher betrachteten Ausschnitts aus einem Krankenhausinformationssystem. Die nicht radiologiespezifischen Anwendungssysteme (Patientenmanagementsystem, klinisches Dokumentations- und Managementsystem, CPOE-System und Verschlüsselungssys-
2 Krankenhausinformationssysteme | 41
virtuelles Rechenzentrum
Netzwerkkomponenten KH
Radiologie-PCs
Röntgen Netzwerk Radiologie
PC1
PC2
PC3
PC4
MRT Radiologie-Terminals Thin Thin Thin Thin Thin Client 1 Client 2 Client 3 Client 4 Client 5
CT RIS-Applikationsserver
RIS-Terminalserver
PACS-Applikationsserver
RIS-DB-Cluster
PACS-DB-Cluster
RIS-DB-Server1 RIS-DB-Server2
PACS-DB-Server1 PACS-DB-Server2
Telefon Faxgerät
Abb. 2.4: Ausschnitt der physischen Werkzeugebene eines Krankenhausinformationssystems. Phy sische Datenverarbeitungssysteme sind als Rechtecke oder mit Symbolen dargestellt; Pfeile zwi schen physischen Datenverarbeitungssystemen veranschaulichen Datenübertragungsverbindun gen.
tem) sind auf virtuellen Maschinen des virtuellen Rechenzentrums installiert. Über die Netzwerkkomponenten KH sind sie mit den physischen Datenverarbeitungssystemen in der Radiologie verbunden, deren Server noch nicht virtualisiert sind. Das PACS ist auf dem PACS-Applikationsserver installiert, sein Datenbanksystem auf dem PACS-DB-Cluster. Auch ein RIS-Applikationsserver und ein RIS-DB-Cluster werden benötigt. Für die RIS-unterstützte radiologische Bildbefundung stehen Thin Clients bereit, weshalb ein RIS-Terminal-Server erforderlich ist. Die Geräte für Röntgen, MRT und CT sind über das Netzwerk der Radiologie mit den Servern von RIS und PACS verbunden.
2.3.3 Architekturstile Der Architekturstil eines Krankenhausinformationssystems definiert sich über die Komponenten der fachlichen Ebene, der logischen Werkzeugebene oder der physischen Werkzeugebene und deren Zusammenspiel.
42 | Franziska Jahn
Abb. 2.5: Ausschnitt aus einem Krankenhausinformationssystem mit Best-of-Breed-Architektur, dargestellt als 3LGM2 -Modell. Die Aufgaben der fachlichen Ebene stehen in Verbindung mit den Anwendungssystemen der logischen Werkzeugebene, durch die sie unterstützt werden.
Architekturstile der fachlichen und logischen Werkzeugebene Betrachtet man die fachliche Ebene und die logische Werkzeugebene des zuvor eingeführten 3LGM2 -Modells in vereinfachter Form (Abb. 2.5), so zeigt sich anhand des Zusammenhangs zwischen Aufgaben und Anwendungssystemen ein typischer Stil der logischen Werkzeugebene von KIS. Unterschiedliche Aufgaben des Krankenhauses werden durch unterschiedliche, auf die jeweiligen Aufgaben zugeschnittene Anwendungssysteme unterstützt. Man spricht auch von einer Best-of-Breed-Architektur. Eine solche Architektur geht mit einer Vielzahl von Anwendungssystemen einher, die auf Softwareprodukten unterschiedlicher Hersteller basieren und über eigene Datenbanksysteme verfügen. Der Vorteil einer solchen Architektur besteht darin, dass die Nutzer des Informationssystems bei ihren Aufgaben bestmöglich durch hochspezialisierte Anwendungssysteme unterstützt werden. Allerdings entsteht ein erhöhter Administrationsaufwand und es bestehen besondere Anforderungen an die Integration (Kapitel 2.4). Das Gegenstück zur Best-of-Breed-Architektur ist eine monolithische Architektur, die sich durch Homogenität auf der logischen Werkzeugebene auszeichnet. Die höchste Stufe der Homogenität wäre durch den Einsatz eines einzigen Anwendungssystems erreicht, das alle Krankenhausaufgaben unterstützt. Praktisch tritt dieser Fall jedoch
2 Krankenhausinformationssysteme
| 43
nicht ein; oftmals sind es lediglich Teilbereiche eines KIS, die eine monolithische Architektur aufweisen. So können beispielsweise mehrere für die Patientenbehandlung nötige Anwendungssysteme wie PMS, CPOE-System, KDMS, PDMS und ein OP-Dokumentationssystem innerhalb eines Anwendungssystems zusammengefasst sein. Die Teil-Anwendungssysteme greifen dann auf dasselbe Datenbanksystem zu. Mehrere Softwarehersteller für den Krankenhausbereich bieten solche umfassenden Softwareprodukte an, die modular aufgebaut sind und deren Teil-Anwendungssysteme auch nacheinander dazugekauft werden können. Allerdings besteht auch hier die Notwendigkeit, Schnittstellen zu anderen Anwendungssystemen wie dem ERP-System herzustellen.
Architekturstile der physischen Werkzeugebene Die physische Werkzeugebene von KIS ist durch Client-Server-Architekturen geprägt. Server bieten Dienste in Form von Anwendungssystemen und zugehörigen Datenbanksystemen an, auf die von den Clients (z. B. PC, Workstation, Tablet-PC) aus zugegriffen wird. Client-Server-Architekturen unterscheiden sich hinsichtlich der Zuständigkeit von Servern oder Clients für Datenhaltung, Bereitstellung von Funktionalität und Präsentation von Daten. Man spricht auch von unterschiedlichen Schichten, die innerhalb der Client-Server-Architektur verteilt sind: Die Datenhaltungsschicht ist durch Datenbanksysteme repräsentiert, die funktionale Schicht durch Anwendungssysteme. Die Präsentationsschicht bildet die vom Softwareprodukt bereitgestellte Nutzungsschnittstelle, über die auf Funktionalität und Daten zugegriffen werden kann. Von einer Zwei-Schichten-Architektur spricht man, wenn der physische Server für die Datenhaltungsschicht und evtl. die funktionale Schicht zuständig ist (Datenbank- und Applikationsserver) und der Client die gesamte oder anteilige Ausführung des Anwendungssystems und die Präsentation übernimmt. In einer Zwei-SchichtenArchitektur kommen Fat Clients in Form von PCs zum Einsatz, die über eigene Rechenleistung und eigenen Speicher verfügen. Vorteile des Einsatzes von Fat Clients sind deren Funktionstüchtigkeit, auch wenn die Verbindung zum Server unterbrochen ist, und die Entlastung von Datenübertragungsverbindungen und Servern. Dem steht ein hoher Wartungsaufwand gegenüber, der gleichfalls mit hohen Kosten verbunden ist. Eine Drei-Schichten-Architektur besteht aus einem Datenbankserver, einem Applikationsserver und Clients. Der Datenbankserver stellt das Datenbanksystem bereit, auf das vom Applikationsserver zugegriffen wird, der das Anwendungssystem bereitstellt. Der Client übernimmt in der Drei-Schichten-Architektur meist nur die Präsentationsschicht. Deshalb reicht es aus, Thin Clients in Form von Workstations bereitzustellen, die über wenig eigene Rechenleistung verfügen. Thin Clients bieten eine kostengünstige Alternative gegenüber Fat Clients und lassen sich leichter administrieren. Es werden jedoch leistungsstarke Server benötigt, die genug Rechenkapazität bereit-
44 | Franziska Jahn
stellen bzw. untereinander aufteilen können. Deshalb sollten in Drei-Schichten-Architekturen Virtualisierungstechniken (Kapitel 2.3.2) zum Einsatz kommen. Neben der Virtualisierung von Servern bzw. ganzen Rechenzentren setzen die Verantwortlichen für KIS zusätzlich auf hochredundante physische Werkzeugebenen. Diese spiegeln sich mittlerweile in vielen Krankenhäusern in redundanten Rechenzentren wider. Hierbei existieren nebeneinander mindestens zwei Rechenzentren, wovon im Regelfall nur eines in Betrieb ist. Bei einem Ausfall des einen Rechenzentrums übernimmt innerhalb kürzester Zeit das redundante Rechenzentrum den Betrieb. So kann eine 24-Stunden-Verfügbarkeit des computerbasierten Teils des KIS gewährleistet werden, wie sie in Krankenhäusern gefordert ist. Sinnvollerweise werden redundante Rechenzentren an unterschiedlichen physischen Standorten untergebracht.
2.4 Integration im Krankenhausinformationssystem 2.4.1 Arten von Integration Unter Integration versteht man das Zusammenfügen von Teilen zu einem Ganzen, wobei das Ganze gegenüber seinen Teilen eine neue Qualität aufweist. Bezogen auf das KIS ist Integration dann hergestellt, wenn das System, ungeachtet seiner vielen einzelnen Komponenten, als Einheit funktioniert und von dem Krankenhauspersonal nicht in seiner gesamten Komplexität und Heterogenität wahrgenommen wird. Hierdurch ergibt sich eine neue Qualität gegenüber nicht computerunterstützten Informationssystemen: So müssen beispielsweise dieselben Daten eines Patienten innerhalb des Krankenhauses nicht mehrmals erfragt werden, weil das KIS sie nach einmaliger Erfassung überall dort zur Verfügung stellt, wo sie benötigt werden.
Datenintegration ist dann hergestellt, wenn Patientendaten wie Name, Adresse, Geburtsdatum, die mit Hilfe eines Anwendungssystems einmal erhoben wurden, an anderer Stelle im Krankenhaus nicht mehr eingegeben werden müssen. Funktionale Integration ist beispielsweise erfüllt, wenn die Funk tionalität zur administrativen Patientenaufnahme von Anwendungssystemen aus verfügbar ist, die diese Funktionalität nicht selbst bereitstellen.
Meldet sich das ärztliche Personal an einem Anwendungssystem an und wird die Anmeldung oder der Patientenkontext beim Wechsel zu einem anderen Anwendungssystem beibehalten, so spricht man von Kontextintegration. Besitzen die unterschiedlichen Anwendungssysteme eine ähnliche Benut zeroberfläche mit gleichartiger Anordnung von Menüs, Schaltflächen oder Listen, ist zusätzlich Prä sentationsintegration gewährleistet. Läuft ein Prozess wie die Arztbriefschreibung, bei dem Daten aus mehreren Anwendungssystemen zusammengeführt werden und mehrere Personen am gleichen Dokument arbeiten, reibungslos ab, dann ist Prozessintegration im KIS gewährleistet.
2 Krankenhausinformationssysteme
| 45
Tab. 2.1: Integrationsarten für den computerbasierten Teil des KIS nach [Winter 2011]. Integrationsart
Beschreibung
Datenintegration
Daten werden in einem Anwendungssystem erfasst und sind dann überall verfügbar, wo sie benötigt werden. Funktionalitäten, die von einem Anwendungssystem unterstützt werden, können überall dort genutzt werden, wo sie benötigt werden. Wird während der Arbeit von einem Anwendungssystem in ein anderes gewechselt, bleibt der Kontext erhalten. Die Benutzeroberfläche verschiedener Anwendungssysteme ist gleichartig gestaltet. Das Informationssystem ermöglicht einen reibungslosen, effizienten und effektiven Ablauf von Prozessen. Verschiedene Anwendungssysteme interpretieren Begriffe auf die gleiche Art und Weise. Dafür muss den Anwendungssystemen ein gleiches Begriffssystem zugrunde liegen, d. h. für die gleichen Objekttypen werden gleiche Benennungen verwendet. Alternativ muss das Begriffssystem eines Anwendungssystems eindeutig auf das Begriffssystem des anderen Anwendungssystems abgebildet werden. Auf Anwendungssysteme kann überall dort zugegriffen werden, wo sie benötigt werden.
Funktionale Integration Kontextintegration Präsentationsintegration Prozessintegration Semantische Integration
Zugriffsintegration
Die Tabelle 2.1 listet die für Informationssysteme relevanten Integrationsarten auf und beschreibt, unter welchen Bedingungen sie erfüllt sind. Datenintegration, funktionale Integration, Präsentationsintegration, Kontextintegration und semantische Integration werden im computerbasierten Teil der logischen Werkzeugebene von KIS hergestellt. Zugriffsintegration wird durch die Bereitstellung physischer Datenverarbeitungssysteme am richtigen Ort erreicht und ist somit vom Zusammenspiel der logischen und physischen Werkzeugebene abhängig.
2.4.2 Methoden zur Herstellung von Integration Um Integration im KIS herzustellen, sind die in Kapitel 2.3.3 vorgestellten typischen Architekturstile der logischen und physischen Werkzeugebene zu beachten. Auf der logischen Werkzeugebene ist in den meisten KIS Datenintegration innerhalb einer Best-of-Breed-Architektur herzustellen, weil unterschiedliche Anwendungssysteme von verschiedenen Herstellern mit jeweils eigenem Datenbanksystem vorliegen, die Daten untereinander austauschen müssen. Werden z. B. die administrativen Patientendaten innerhalb des Patientendatenmanagementsystems erfasst, so müssen diese zur Erfüllung von Datenintegration an das KDMS, das LIS, das RIS usw. übermittelt werden. Die in der Praxis gängige Lösung zur Herstellung von Datenintegration in KIS wird durch den Einsatz von Kommunikationsservern und Kommunikationsstan-
46 | Franziska Jahn
dards gewährleistet. Kommunikationsstandards wie HL7 und DICOM definieren einheitliche Formate für den Austausch von Nachrichten zwischen Anwendungssystemen (Kapitel 2.3.2). Die von der Integrating the Healthcare Enterprise (IHE) herausgegebenen Profile definieren darüber hinaus, wie Anwendungssysteme über HL7 und DICOM kommunizieren müssen, um Prozesse im Krankenhaus zu unterstützen (Kapitel 11). Kommunikationsserver koordinieren und vollführen die Übermittlung der Nachrichten zwischen Anwendungssystemen auf der logischen Werkzeugebene, wobei sie selbst zu den Anwendungssystemen zählen. Sie verfügen über folgende Funktionalitäten: – Nachrichtenempfang: Der Kommunikationsserver empfängt Nachrichtentypen, die auf Kommunikationsstandards oder proprietären (herstellerspezifischen) Nachrichtenformaten beruhen, – Übersetzung von Nachrichtenformaten: Nachrichtentypen eines bestimmten Formats werden durch den Kommunikationsserver in Nachrichtentypen eines anderen Formats umgewandelt, – Nachrichtenpufferung: Nachrichten werden zwischengespeichert und später versendet, falls das empfangende Anwendungssystem nicht bereit ist, die Nachricht entgegenzunehmen, – Nachrichtenverteilung: Eine Nachricht wird an einen oder mehrere Empfänger weitergeleitet. Die Abbildung 2.6 veranschaulicht, wie die mit dem Patientenmanagementsystem erfassten Patientendaten über den Kommunikationsserver an andere Anwendungssysteme weitergeleitet werden. Der Kommunikationsserver übersetzt dabei ein proprietäres Nachrichtenformat in das HL7-Nachrichtenformat. Durch den Einsatz eines Kommunikationsservers erreicht man die Minimierung von Kommunikationsverbindungen auf der logischen Werkzeugebene, da direkte Kommunikationsverbindungen zwischen je zwei Anwendungssystemen wie PMS und RIS eingespart werden können. Kommunikationsserver können sowohl die asynchrone als auch die synchrone Kommunikation unterstützen. Bei der synchronen Kommunikation wartet der Sender, bis der Empfänger eine Nachricht erhalten hat und ist während dieser Zeit blockiert. Bei der asynchronen Kommunikation erfolgt die Zustellung zeitversetzt ohne Blockierung des Senders. Synchrone Kommunikation ist eine Voraussetzung für die Herstellung funktionaler Integration. Diese kann durch den Einsatz verschiedener Technologien erreicht werden. Remote Procedure Calls (RPC, Aufrufe einer entfernten Prozedur) ermöglichen innerhalb eines Anwendungssystems den Aufruf von Prozeduren anderer Anwendungssysteme. Wird z. B. die Patientenaufnahme durch das PMS unterstützt, so kann mittels RPC der Aufruf der Prozedur zur Patientenaufnahme aus dem RIS oder dem KDMS ermöglicht werden. Ein modernerer Ansatz zur Herstellung funktionaler Integration, bei dem auch RPC zum Einsatz kommen können, sind serviceorientier-
2 Krankenhausinformationssysteme | 47
klinisches Dokumentations- und Managementsystem
Patientenmanagementsystem proprietär Radiologieinformationssystem DICOM
PACS
HL7
HL7
Kommunikationsserver
HL7
CPOE-System
HL7
PDMS
Abb. 2.6: Der Kommunikationsserver übermittelt administrative Patientendaten vom Patientenma nagementsystem an andere Anwendungssysteme. Er übersetzt das proprietäre Nachrichtenformat des Patientenmanagementsystems im HL7-Nachrichtenformat. Pfeile bezeichnen die Übermitt lungsrichtung von Nachrichten. Datenbanksysteme sind als Zylinder dargestellt.
te Architekturen (SOA). In einer SOA bieten Anwendungssysteme definierte Dienste (Services) in Form von Funktionalitäten an, die von anderen Anwendungssystemen aufgerufen werden können. Anwendungssysteme können sowohl selbst Services anbieten als auch selbst Services aufrufen. Die Koordinierung der Dienste erfolgt über eine Integrationsplattform, die auch die Präsentationsintegration sicherstellen könnte. In einer SOA lässt sich auch Kontextintegration gewährleisten, beispielsweise in Form der Beibehaltung des Nutzerkontextes im anderen Anwendungssystem. Eine weitere Möglichkeit, Kontextintegration herzustellen, bietet die Anwendung des standardisierten Protokolls CCOW (Clinical Context Object Workgroup), das wie der HL7-Standard (Kapitel 2.3.2) von der Organisation Health Level Seven International entwickelt wurde. Semantische Integration zwischen Anwendungssystemen kann erreicht werden, wenn sie das gleiche Begriffssystem verwenden, z. B. wenn Diagnosen immer als ICD10-GM-Code gespeichert werden (Kapitel 2.2.1). In diesem Fall können Diagnosen ohne großen Aufwand aufeinander abgebildet werden. Oft nutzen Anwendungssysteme jedoch unterschiedliche Begriffssysteme. Dann bietet sich die Nutzung von Ontologien oder semantischen Netzen an, die Begriffe und ihre semantische Beziehung untereinander formal spezifizieren. Zugriffsintegration wird durch die Bereitstellung geeigneter physischer Datenverarbeitungssysteme für die Erfüllung von Krankenhausaufgaben erreicht. Während für die Arztbriefschreibung, die Befundschreibung und die meisten Verwaltungsaufgaben ein fest verorteter PC oder eine Workstation ausreicht, bestehen für bestimmte ärztliche oder pflegerische Aufgaben besondere Anforderungen. So kann es für die tägliche Visite oder die pflegerische Pflegeverlaufsdokumentation vorteilhaft sein,
48 | Franziska Jahn
wenn für die Einsicht oder Erfassung patientenbezogener klinischer Daten im KDMS mobile Werkzeuge wie Tablets oder Notebooks zur Verfügung stehen. Um schließlich Prozessintegration im KIS zu gewährleisten, muss das Informationsmanagement Prozesse im Krankenhaus verstehen. Hierzu zählen die Abläufe bei Krankenhausaufgaben in ihrer zeitlichen und logischen Reihenfolge, wie auch die dabei eingesetzten Werkzeuge der Informationsverarbeitung. Maßnahmen zur Herstellung von Datenintegration, funktionaler Integration, Kontextintegration, Präsentationsintegration, semantischer Integration und Zugriffsintegration können dann miteinander kombiniert werden, um Prozessintegration zu erreichen.
2.5 Management von Krankenhausinformationssystemen 2.5.1 Organisation des Informationsmanagements Unter dem Begriff Management werden Führungsaufgaben zusammengefasst, die zur Erreichung der Ziele einer Organisation bzw. Organisationseinheit beitragen. Ebenso bezeichnet Management die Organisationseinheit oder die Gruppe von Personen, die für die Führungsaufgaben zuständig ist. Das Informationsmanagement im Krankenhaus beschäftigt sich mit dem Management des KIS. Hierzu sind Planungs-, Steuerungs- und Überwachungsaufgaben auszuführen, die sich mit strategischen, taktischen und operativen Fragestellungen beschäftigen [Winter 2011], die in den folgenden Kapiteln beschrieben sind. In Krankenhäusern existiert meist eine zentrale Abteilung für Informationsmanagement, deren Leiter als IT-Leiter oder seltener als Chief Information Officer (CIO) bezeichnet wird. Ferner kommt es vor, dass in bestimmten klinischen Abteilungen einzelne lokale IT-Verantwortliche beschäftigt sind.
2.5.2 Strategisches Informationsmanagement Wie muss das Krankenhausinformationssystem in fünf Jahren aussehen, wenn es die strategischen Ziele des Krankenhauses unterstützen soll? Welche technologischen Entwicklungen müssen beachtet werden, um mit anderen Krankenhäusern Schritt halten zu können? An welchen Stellen kann das KIS einen monetär messbaren Wertbeitrag leisten, der über Prozessunterstützung hinausgeht? Mit diesen und ähnlichen Fragen befasst sich das strategische Informationsmanagement im Krankenhaus, das die Weiterentwicklung des KIS in seiner Gesamtheit plant, steuert und überwacht. Wesentlicher Bestandteil der Planung im strategischen Informationsmanagement ist die Erstellung eines strategischen Rahmenplans, der häufig auch als IT-Strategie bezeichnet wird. Er beschreibt, welche Veränderungen am KIS innerhalb eines Zeitrahmens von drei bis fünf Jahren durchgeführt werden müssen, damit die
2 Krankenhausinformationssysteme |
49
strategischen Ziele des Informationsmanagements erreicht werden. Diese leiten sich wiederum aus den strategischen Zielen eines Krankenhauses ab. Hat ein Krankenhaus beispielsweise das strategische Ziel, die Information und Mitentscheidung des Patienten während des Behandlungsablaufs zu verbessern (patient empowerment), so könnte sich daraus für das Informationsmanagement das strategische Ziel ableiten, ein Patienteninformationsportal zu etablieren. Dieses würde dem Patienten verständliche Informationen zu seiner Krankheit, seinem Behandlungsablauf und Befunden zur Verfügung stellen, auf deren Basis sein Vertrauen und seine Mitsprache bei der Behandlung gestärkt würden. Die strategische Planung des Informationsmanagements sollte immer mit der Krankenhausleitung abgestimmt sein. Im Rahmen der strategischen Überwachung wird überprüft, inwieweit die Ziele des strategischen Rahmenplans innerhalb des veranschlagten Zeitraums umgesetzt werden. Bei Abweichungen muss steuernd eingegriffen werden. Zu den Aufgaben der strategischen Überwachung und Steuerung zählen auch regelmäßige Qualitätskontrollen des KIS und die Ableitung von Optimierungsmaßnahmen, was z. B. innerhalb von einmaligen Evaluationen oder einem regelmäßig durchgeführten Benchmarking geschehen kann (Kapitel 2.6.2). Als strategisches Informationsmanagement wird eine Managementperspektive bezeichnet, die sich mit der langfristigen Planung, Steuerung und Überwachung des Krankenhausinformations systems in seiner Gesamtheit befasst.
2.5.3 Taktisches Informationsmanagement Der strategische Rahmenplan definiert die erforderlichen Schritte, mit deren Hilfe die strategischen Ziele des Informationsmanagements zu erreichen sind. Die einzelnen Schritte werden in Form von Projekten umgesetzt. Ein Projekt ist ein durch Zeit und Ressourcen begrenztes, zielgerichtetes Vorhaben.
Das taktische Informationsmanagement beschäftigt sich innerhalb von Projekten mit einzelnen Komponenten des Informationssystems. Beispielsweise werden Anwendungssysteme oder physische Datenverarbeitungssysteme eingeführt, evaluiert oder abgelöst. Es kann aber auch eine bestimmte Aufgabe wie die Leistungsanforderung im Mittelpunkt stehen, deren Unterstützung durch das Informationssystem in einem Projekt verbessert werden soll. Projekte zur Eigenentwicklung von Software spielen meist in Abteilungen für Informationsmanagement eine untergeordnete Rolle. Auf dem Markt sind Softwareprodukte für die unterschiedlichsten Aufgaben eines Krankenhauses verfügbar, Ressourcen für eigene Softwareentwicklungen fehlen im Krankenhaus aber oftmals.
50 | Franziska Jahn
Projektinitiierung
Projektdurchführung
Projektplanung Systemanalyse und -bewertung Systemspezifikation Systemauswahl Systemeinführung Systemevaluation
Projektabschluss
Abb. 2.7: Projektphasen nach [Ammenwerth 2014]. Pro jekte untergliedern sich in Projektinitiierung, Projektpla nung, Projektdurchführung und Projektabschluss.
Für Projekte des taktischen Informationsmanagements empfiehlt sich die Einhaltung eines Vorgehensmodells, das Teilaufgaben und Rollen innerhalb eines Projekts vorgibt. Ein solches Vorgehensmodell für IT-Projekte im Gesundheitswesen nach [Ammenwerth 2014] ist in Abbildung 2.7 skizziert. Projekte untergliedern sich demnach in Projektinitiierung, Projektplanung, Projektdurchführung und Projektabschluss. Ein Projekt kann einerseits unmittelbar durch eine entsprechende Vorgabe im strategischen Rahmenplan initiiert werden. Andererseits können auch kurzfristige Ereignisse wie Gesetzesänderungen oder neue Anforderungen seitens einer medizinischen Abteilung des Krankenhauses Auslöser für die Durchführung eines Projekts sein. Am Ende der Projektinitiierung wird der Projektauftrag vom Auftraggeber an den Auftragnehmer, z. B. die Abteilung für Informationsmanagement, übergeben. In der Phase der Projektplanung geht es darum, die genauen Ziele des Projekts zu definieren, hieraus Arbeitspakete abzuleiten und die Zeit- und Ressourcenplanung durchzuführen. Die eigentliche Durchführung kann aus einem oder mehreren der in Abbildung 2.7 aufgeführten Projektmodule bestehen. Eine Systemanalyse und -bewertung dient dazu, Stärken und Schwächen von Informationssystemen bzw. seiner Komponenten zu identifizieren. In der Systemspezifikation wird festgelegt, welche Anforderungen an eine geeignetere Komponente bestehen. Die Systemauswahl dient dazu, auf dem Markt befindliche Produkte hinsichtlich ihrer Übereinstimmung mit den zuvor spezifizierten Anforderungen zu überprüfen. Dabei kann es erforderlich sein, eine öffentliche Ausschreibung vorzunehmen. Wurde ein Produkt ausgewählt, so beginnt anschließend die Systemeinführung. Da es sich hierbei meist um Softwareprodukte handelt, erfolgt zuerst eine Adaptierung. Dabei wird das Softwareprodukt an die Gegebenheiten im Krankenhaus angepasst, z. B. würde in einem neuen ERP-System die Kostenstellenstruktur des Krankenhauses hinterlegt werden. Zur Einführung eines neuen Anwendungssystems müssen ebenfalls die zukünftigen Nutzer geschult werden. Im Anschluss an die Systemeinführung sollte eine Evaluation erfolgen, um festzustellen, ob die Ziele aus dem Projektplan erreicht wurden
2 Krankenhausinformationssysteme | 51
oder Probleme bei der Nutzung der neuen Informationssystemkomponente auftreten. Der Projektabschluss dient der Abnahme des Projektes durch den Auftraggeber. Es erfolgt eine Abschlusspräsentation vor dem Auftraggeber sowie die Aushändigung des Projektabschlussberichtes.
Beispiel der Einführung eines PDMS im Krankenhaus. In einem Großkrankenhaus sollte aufgrund der gestiegenen Anforderungen an die Anästhesiedokumentation die papierbasierte Dokumentati on durch die Einführung eines PDMS abgelöst werden. In der Systemanalyse wurde festgestellt, dass Anästhesisten vor, während und nach einer Operation am Patientenbett, im Einleitungsraum, im Ope rationssaal und im Aufwachraum dokumentieren. Es musste somit eine Lösung spezifiziert werden, bei der das PDMS auf einem mobilen Endgerät durch den Anästhesisten genutzt werden kann. Die Systemauswahl der PDMS-Software erfolgte in einer zwei Jahre andauernden Marktanalyse. Ein ge eignetes mobiles Endgerät in Form eines Tablet-PC wurde von den Ärzten identifiziert. Vor der Ent scheidung für den Tablet-PC musste auch bedacht werden, dass Daten von Medizinprodukten wie Beatmungs- und Narkosegeräten auf den Tablet-PC, der kein Medizinprodukt ist, übertragen werden müssen. Auch der geplante WLAN-Einsatz im Umfeld von Medizinprodukten barg Risiken. Aus diesen Gründen war die Zusammenarbeit der Abteilungen für Informationsmanagement und Medizintechnik gefordert. Es wurde ein gemeinsames Projekt zur Durchführung eines Risikomanagements zum Ein satz von Medizinprodukten in IT-Netzwerken nach DIN EN 80001-1 initiiert und unter Beteiligung des klinischen Personals durchgeführt. Nach der Auseinandersetzung mit möglichen Risiken und fest gelegten Maßnahmen zu deren Minimierung konnte die PDMS-Einführung fortgesetzt werden. Das Informationsmanagement stand z. B. noch vor der Herausforderung, die für ein bestimmtes Betriebs system entwickelte PDMS-Software auf dem Tablet-PC mit anderem Betriebssystem zum Laufen zu bringen; dies gelang mit Hilfe einer Virtualisierungslösung. Nach erfolgreicher Einführung des PDMS wurden die zugehörigen Prozesse im Klinikalltag erprobt und entsprechend angepasst [Schütz 2014].
Weitere gängige Vorgehensmodelle, die auch für das Projektmanagement in Krankenhäusern genutzt werden können, sind der De-Facto-Standard PRINCE2 (Projects in Controlled Environments), PMBOK (Project Management Book of Knowledge) oder auch Scrum, das ursprünglich ausschließlich für Softwareentwicklungsprojekte genutzt wurde. Das taktische Informationsmanagement bezeichnet eine Managementperspektive, die sich mit der Ablösung, Änderung und Einführung einzelner Informationssystemkomponenten in Form von Projekten beschäftigt.
2.5.4 Operatives Informationsmanagement Ziel des operativen Informationsmanagements ist der störungsfreie Betrieb des Informationssystems. Um diesen zu gewährleisten, müssen zunächst die Ressourcen des Informationsmanagements wie Mitarbeiter, Räume, Finanzen, aber auch das vorhandene Wissen in der täglichen Routine planvoll eingesetzt und gesteuert werden.
52 | Franziska Jahn
strategisches Informationsmanagement taktisches Informationsmanagement operatives Informationsmanagement
strategischer Rahmenplan
Projekt Projekt
Projekt
Projekt
Projekt
Weiterentwicklung des KIS als Ganzes Weiterentwicklung einzelner Komponenten Sicherstellung des Betriebs Zeit
Abb. 2.8: Zusammenhang zwischen strategischem, taktischem und operativem Informationsmana gement. Entscheidungen des strategischen Managements beziehen sich auf einen längeren Zeit raum, z. B. drei bis fünf Jahre. Projekte des taktischen Managements sind deutlich kürzer, und die Aufgaben des operativen Managements fallen kontinuierlich an.
Entscheidungen bezüglich der Ressourcen, wie die langfristige Kompetenzentwicklung des Personals, die Einführung wichtiger Informationssystemkomponenten oder der Aufbau einer Wissensbasis des Informationsmanagements, werden jedoch zuvor auf strategischer Ebene und in der Form von Projekten umgesetzt. Der Zusammenhang zwischen dem strategischen, taktischen und operativen Informationsmanagement ist in Abbildung 2.8 dargestellt. Für einen störungsfreien Betrieb des KIS müssen möglichst viele Störungen wie Ausfälle im Netzwerk automatisch erfasst werden, um schnell reagieren zu können. Dies wird beispielsweise durch Netzwerküberwachungssysteme unterstützt. Gleichzeitig muss es aber auch für die Nutzer möglich sein, Störungen wie den Ausfall eines Anwendungssystems zu melden oder die Bereitstellung bestimmter Software oder Hardware anzufordern. Als zentrale Anlaufstelle verfügt das Informationsmanagement deswegen über einen Help-Desk bzw. Service-Desk (Kapitel 2.5.5), der meist ein Ticketsystem verwendet, in dem alle Störungen oder Anfragen sowie der Status ihrer Bearbeitung dokumentiert werden. Das operative Informationsmanagement bezeichnet eine Managementperspektive, die sich mit der Sicherung des kontinuierlichen Betriebs des KIS beschäftigt.
2.5.5 Das Informationsmanagement als Dienstleister für das Krankenhaus Der Begriff Informationsmanagement wird sowohl für die strategischen, taktischen und operativen Aufgaben des Informationsmanagements als auch für die Organisationseinheit verwendet, die für das Informationsmanagement verantwortlich ist. Die Sicht auf diese Organisationseinheit hat sich in den letzten Jahren gewandelt. Während Rechenzentren vor 20 bis 30 Jahren die Rechenressourcen für die Informa-
2 Krankenhausinformationssysteme
| 53
tionsverarbeitung zur Verfügung stellten und administrierten sowie Software selbst entwickelten, werden Abteilungen für Informationsmanagement mittlerweile als Dienstleister im eigenen Haus wahrgenommen. Einzelne Kliniken oder Abteilungen des Krankenhauses sind Kunden des Informationsmanagements und müssen sich auf die Erbringung definierter Dienstleistungen (Services) verlassen können. Solche Dienstleistungen umfassen beispielsweise: – das Vorhandensein einer zentralen, von allen Nutzern rund um die Uhr erreichbaren Anlaufstelle in Form eines Service-Desks, – die schnelle Reaktion auf Störungen im Informationssystem (Ausfall eines Anwendungssystems oder des WLAN), – die Umsetzung beantragter Änderungen am Informationssystem (Einführung eines neuen Anwendungssystems, Programmierung neuer Schnittstellen). Für die Erbringung von Dienstleistungen durch das Informationsmanagement, das auch als IT Service Management bezeichnet wird, existiert mit Information Technology Infrastructure Library (ITIL) ein etabliertes Rahmenwerk mit Definition der Best Practices (beste Praktiken). Aufgrund ihrer Komplexität werden ITIL-basierte Prozesse vorrangig in großen Krankenhäusern wie Universitätskliniken eingeführt, anfangs meist mit Fokus auf operative Themen wie der Einführung eines Incident Management (Störungsmanagement) über einen Service-Desk.
2.5.6 Herausforderungen für das Informationsmanagement Sowohl auf strategischer, taktischer als auch operativer Ebene müssen KIS geplant, gesteuert und überwacht werden. Zugleich benötigt das Informationsmanagement die Fähigkeit, auf ungeplante Veränderungen reagieren zu können. Gesetzesänderungen, organisatorische Änderungen, neue Technologien oder auch Ressourcenknappheit können ein Abweichen von zuvor verabschiedeten Plänen erfordern. Die meisten Abteilungen für Informationsmanagement in Krankenhäusern haben ein begrenztes IT-Budget. Insofern müssen KIS nach dem Prinzip der Wirtschaftlichkeit arbeiten und Investitionen in neue Komponenten des KIS priorisiert werden. Diese Priorisierung sollte von der Strategie des Krankenhauses abhängen. Viele Krankenhausleitungen fordern zudem, dass ihr Informationsmanagement nicht nur Anwendungssysteme und physische Datenverarbeitungssysteme bereitstellt, sondern auch die Prozesse mitgestaltet. Wie gut dies dem Informationsmanagement gelingt, kann sich u. a. in der Nutzerzufriedenheit ausdrücken. Ein besonderes Augenmerk liegt auch auf Datenschutz und Datensicherheit. Das Informationsmanagement muss dafür sorgen, dass Unbefugte nicht auf sensible Patientendaten zugreifen können. Zudem muss auch sichergestellt sein, dass Patientendaten nicht versehentlich gelöscht oder mutwillig manipuliert werden können. Eine häufige Fehlerquelle sind darüber hinaus die Schnittstellen zwischen dem computerbasierten und dem nicht-computerbasierten
54 | Franziska Jahn
Teil des Informationssystems. Sobald z. B. Daten von einem Papierdokument in ein Anwendungssystem händisch übertragen werden, findet eine Transkription statt, bei der Fehler unterlaufen können. Die Zahl solcher Medienbrüche sollte im KIS minimiert werden.
2.6 Qualität von Krankenhausinformationssystemen 2.6.1 Qualitätskriterien In verschiedenen Situationen kann es für das Informationsmanagement wichtig sein, die Qualität des gesamten KIS oder einzelner Komponenten des KIS zu messen. Qualität drückt aus, inwieweit ein Objekt mit zuvor definierten Kriterien übereinstimmt.
Für das operative Informationsmanagement ist es wichtig, Ausfälle von Schnittstellen und Anwendungssystemen zu quantifizieren und gegebenenfalls steuernd einzugreifen. Wird im Rahmen eines Projekts beispielsweise ein neues Laborinformationssystem eingeführt, so wäre es nützlich, einige Zeit nach seiner Einführung eine Evaluation zur Ermittlung der Nutzerzufriedenheit in Bezug auf das Anwendungssystem durchzuführen. Bei der strategischen Überwachung des gesamten KIS ist immer die Heterogenität des KIS, die sich durch die Anzahl unterschiedlicher Anwendungssysteme ausdrückt, im Blick zu behalten. In einem Arbeitstreffen der Arbeitsgruppe mwmKIS (Methoden und Werkzeuge für das Management von Krankenhausinformationssystemen) der GMDS (Deutsche Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie) wurde der Frage nachgegangen, wann ein KIS gut sei [mwmKIS 2014]. CIOs von Krankenhäusern, IT-Berater im Gesundheitswesen und Wissenschaftler trugen die in Tabelle 2.2 aufgeführten Qualitätskriterien zusammen. Dabei wurde unterschieden zwischen der Qualität des KIS an sich, der Qualität von Prozessen des Informationsmanagements und der Qualität der Ressourcen des Informationsmanagements. Es wird davon ausgegangen, dass die Qualität des Informationsmanagements einen Einfluss auf die Qualität des KIS hat. Als wichtige Qualitätskriterien für KIS wurden nutzernahe Faktoren wie der Grad der Prozessintegration durch das KIS, Nutzerzufriedenheit oder Usability (Bedienbarkeit), aber auch die Datensicherheit genannt. Für das Informationsmanagement wurden z. B. die strategische Ausrichtung des Informationsmanagements an den Krankenhauszielen sowie eine gute Organisation in Form definierter Prozesse oder angemessener Nutzung von Ressourcen als wichtig erachtet. Um die in Tabelle 2.2 genannten Qualitätskriterien zu operationalisieren, sind Kennzahlen zu definieren, mit deren Hilfe Abweichungen von einem bestimmten Ziel
2 Krankenhausinformationssysteme
| 55
Tab. 2.2: Beispiele für Qualitätskriterien für Informationssysteme und Informationsmanagement. Diese wurden bei einem gemeinsamen Workshop von Krankenhaus-CIOs, IT-Beratern und Wissen schaftlern ermittelt [mwmKIS 2014]. Themenbereich zu KIS Qualität des Informationssystems – fachliche Ebene – logische Werkzeugebene – physische Werkzeugebene
Qualität des Informationsmanagements – Qualität des strategischen Informationsmanagements – Qualität des taktischen Informationsmanagements – Qualität des operativen Informationsmanagements
Qualitätskriterien
– – – – – – –
Grad der Prozessintegration durch das KIS Nutzerzufriedenheit Usability von Anwendungssystemen Digitalisierungsgrad des Krankenhauses Datensicherheit Integration Innovationspotenzial des KIS
–
Vorhandensein standardisierter Prozesse des Informationsmanagements enge Bindung von Krankenhausleitung und Informationsmanagement Ausrichtung der IT-Strategie an der Krankenhausstrategie Aufbau eines kontinuierlichen Verbesserungsprozesses Organisations- und Entscheidungskompetenz
– – – –
Qualität der Ressourcen des Informationsmanagements – Personalressourcen – Qualität des Teams – finanzielle Ressourcen – Angemessenheit der Ressourcen – Werkzeuge des Informationsmanagements – Innovationsspielraum
gemessen werden können. So ließe sich die Nutzerzufriedenheit mit dem KIS oder mit einzelnen Anwendungssystemen auf einer Ordinalskala messen, wozu eine entsprechende standardisierte Befragung der Nutzer erfolgen müsste. Für die Messung des Grades der Prozessintegration oder des Innovationspotenzials des KIS wären allerdings komplexer zu bestimmende Kennzahlen erforderlich.
2.6.2 Methoden der Qualitätsbewertung Für die Qualitätsbewertung steht eine Vielzahl allgemeiner oder domänenspezifischer Rahmenwerke, Vorgehensmodelle und Methoden zur Verfügung. Im Rahmen der Bewertung von KIS hat sich die Durchführung von Evaluationen bewährt. Hierbei wird bewertet, inwieweit zuvor definierte Ziele nach Durchführung einer Maßnahme er-
56 | Franziska Jahn
reicht wurden und welches Verbesserungspotenzial besteht [Ammenwerth 2014]. Evaluationen können Fragen des strategischen, des taktischen und des operativen Informationsmanagements beantworten. In den letzten Jahren nimmt auch das Benchmarking eine wichtige Rolle bei der Qualitätsbewertung von KIS und deren Management ein. Nach Camp [Camp 1994] versteht man unter Benchmarking den kontinuierlichen Prozess des Vergleichens von Produkten, Prozessen oder Dienstleistungen mit Wettbewerbern bzw. den besten Unternehmen anderer Branchen, um beste Praktiken zu identifizieren und im eigenen Unternehmen anzuwenden. Bezogen auf KIS können somit die Ressourcen des Informationsmanagements (z. B. die Kosten), die Prozesse des Informationsmanagements oder das KIS an sich Untersuchungsobjekt innerhalb eines Benchmarking sein. Während man bei Evaluationen frei in der Wahl der zu ermittelnden Merkmale wie Kennzahlen ist, müssen bei einem Benchmarking Merkmale gefunden werden, die in gleicher Weise für unterschiedliche Institutionen ermittelt werden können. Für die Erhebung bestimmter Merkmale des KIS in einer Evaluation oder einem Benchmarking können je nach Zielstellung unterschiedliche Methoden zum Einsatz kommen. Um nutzernahe Qualitätskriterien (z. B. Nutzerzufriedenheit) zu ermitteln, eignen sich mündliche oder schriftliche Befragungen. Beobachtungen oder Zeitmessungen von Nutzern während der Interaktion mit Anwendungssystemen liefern beispielsweise Informationen zur Usability. Die Auswertung von Routinedaten aus Anwendungssystemen kann ebenfalls helfen, die Interaktion mit bestimmten Anwendungssystemen zu beurteilen. Kostenbezogene Fragestellungen lassen sich durch Kosten-Nutzen-Analysen beantworten. Sollen bestimmte Aspekte der Architektur des KIS beleuchtet werden, eignen sich (semi-)formale Beschreibungen wie ein 3LGM2 -Modell.
2.7 Zusammenfassung und Ausblick Krankenhausinformationssysteme bestehen aus computerbasierten und nicht-computerbasierten Komponenten, die auf verschiedene Arten miteinander in Beziehung stehen. Der computerbasierte Teil des KIS setzt sich auf der logischen Werkzeugebene meist aus einer Vielzahl integrierter Anwendungssysteme zusammen, deren Verfügbarkeit durch redundante, virtualisierte Strukturen auf der physischen Werkzeugebene gewährleistet wird. Zum nicht-computerbasierten Teil des KIS zählen u. a. Papierdokumente, deren Aufbewahrungsorte und die Nutzer des Informationssystems. Auch die Patientenakte liegt in den meisten Krankenhäusern noch zu einem Teil in Papierdokumenten vor, während das KDMS bzw. EPA-System die elektronische Patientenakte verwaltet (Kapitel 3). Um den Betrieb und die Weiterentwicklung des KIS bei begrenzten Ressourcen zu gewährleisten, ist ein systematisches Informationsmanagement in strategischer, taktischer und operativer Hinsicht notwendig.
2 Krankenhausinformationssysteme | 57
Obwohl der Fokus dieses Kapitels auf internen Strukturen und Zusammenhängen des KIS liegt, darf nicht außer Acht gelassen werden, dass Krankenhäuser Teile von Gesundheitsnetzwerken unterschiedlicher Komplexität sind. Somit werden nicht nur innerhalb des Krankenhauses Informationen ausgetauscht, sondern es kommt auch zum Informationsaustausch mit anderen Institutionen des Gesundheitswesens wie Krankenversicherungen, Arztpraxen, Pflegeeinrichtungen und anderen Krankenhäusern. Zu diesem Zwecke existieren einrichtungsübergreifende Informationssysteme des Gesundheitswesens, an die ähnliche Anforderungen wie an ein KIS bestehen. So muss die eindeutige Identifikation von Patienten wie auch Datenschutz und -sicherheit gewährleistet werden, weshalb auch Verantwortlichkeiten für das Informationsmanagement bestehen müssen. Darüber hinaus kommen spezielle Anwendungen der Telemedizin wie Teleradiologie und -pathologie zum Einsatz (Kapitel 9). In Universitätskliniken, die neben der Patientenversorgung auch für Forschung und Lehre verantwortlich sind, bestehen zusätzliche Anforderungen an das KIS (Kapitel 4). Eine Herausforderung besteht hierbei in der Herstellung von Architekturen der Informationssysteme, die eine Weiterverwendung von Daten aus der Patientenversorgung (aus KDMS, LIS, PACS usw.) im Rahmen der klinischen und epidemiologischen Forschung ermöglichen.
Dank Die hier eingeführte Systematik für Krankenhausinformationssysteme und deren Management wurde maßgeblich durch die Zusammenarbeit mit Alfred Winter, Reinhold Haux, Elske Ammenwerth, Birgit Brigl und Nils Hellrung an einem gemeinsamen Lehrbuch (siehe Quellenverzeichnis) beeinflusst. Praxisnahe Ausführungen sind geprägt durch die Durchführung von IT-bezogenen Projekten an Universitätskliniken und gemeinsame Workshops der Arbeitsgruppe mwmKIS (Methoden und Werkzeuge für das Management von Krankenhausinformationssystemen) der GMDS.
Quellenverzeichnis Ammenwerth E.; Spötl H.-P.: The Time Needed for Clinical Documentation versus Direct Patient Care. Methods Inf Med 48 (2009) 84–91, doi: 10.3414/ME0569. Ammenwerth E., Haux A., Knaup-Gregori P., Winter A.: IT-Projektmanagement im Gesundheitswesen: Lehrbuch und Projektleitfaden – Taktisches Management von Informationssystemen. Stuttgart: Schattauer 2. Auflage 2014. Camp R. C.: Benchmarking. München, Wien: Carl Hanser Verlag 1994. mwmKIS: 27. Arbeitstreffen am 17. 06. 2014 in Leipzig, Thema: „Wann ist die Krankenhaus-IT gut?“, http://mwmkis.imise.uni-leipzig.de/de/Arbeitstreffen/20140617?v=13lb, Stand: 30. 04. 2015. Schütz T.: Einführung eines PDMS – Anästhesiedokumentationssystem. mdi Forum der Medi zin_Dokumentation und Medizin_Informatik 16, 4 (2014) 120–122.
58 | Franziska Jahn
Statistisches Bundesamt: Gesundheit – Grunddaten der Krankenhäuser. Fachserie 12, Reihe 6.1.1. Wiesbaden: Statistisches Bundesamt 2014. Winter A., Haux R., Ammenwerth E., Brigl B., Hellrung N., Jahn F.: Health Information Systems – Architectures and Strategies. London: Springer 2011.
Verzeichnis weiterführender Literatur Heinrich L. J., Stelzer D.: Informationsmanagement: Grundlagen, Aufgaben, Methoden. München: Oldenbourg Wissenschaftsverlag 2011. Jahn F., Ißler L., Takabayashi K., Winter A.: Comparing a Japanese and a German Hospital Informati on System. Methods Inf Med 48, 6 (2009) 531–539. Kaiser J.; Gassner U. M.; Reng M.; Prokosch H. U.; Bürkle T.: Risiken und Nebenwirkungen der Inte gration medizinischer Software in klinische IT-Strukturen – Erlanger Memorandum. GMS Med Inform Biom Epidemiol 8, 1 (2012) Doc03. Kempter S.; Kempter A.: ITIL Wiki. http://wiki.de.it-processmaps.com/index.php/Hauptseite. Stand: 19. 02. 2015. Liebe J. D., Hübner U.: Developing and Trialling an Independent, Scalable and Repeatable IT-bench marking Procedure for Healthcare Organisations. Methods Inf Med 52, 4 (2013) 360–369. Project Management Institute: A Guide to the Project Management Body of Knowledge (5th Edn.). Newton Square, Pennsylvania: Project Management Institute 2013. Schlegel H. (Hrsg.): Steuerung der IT im Klinikmanagement. Edition CIO. Wiesbaden: Vieweg + Teub ner Verlag 2010. Shortliffe E. H., Cimino J. J. (Hrsg.): Biomedical Informatics: Computer Applications in Health Care and Biomedicine (Health Informatics). London: Springer 2013.
Standards DIN EN 80001-1:2011 (IEC 80001-1:2010): Anwendung des Risikomanagements für IT-Netzwerke, die Medizinprodukte beinhalten – Teil 1: Aufgaben, Verantwortlichkeiten und Aktivitäten ISO/IEEE 11073: Kommunikation patientennaher medizinischer Geräte, 2006–2014 ISO/IEC/IEEE 42010:2011: Systems and software engineering – Architecture description
Testfragen 1. Nennen Sie typische Anwendungssysteme im Krankenhaus! Welche Aufgaben werden durch diese unterstützt? 2. Welche Integrationsarten müssen bei der Integration klinischer Anwendungssysteme und medi zintechnischer Geräte beachtet werden? 3. Welche Projektphasen müssen durchlaufen werden, bevor ein neues Patientenmanagementsys tem eingeführt werden kann? 4. Welche Unterschiede bestehen bei der Planung im strategischen und im taktischen Informati onsmanagement? 5. Welche Methoden eignen sich für die Untersuchung folgender Qualitätskriterien von Informati onssystemen: Nutzerzufriedenheit, Usability und Grad der Datenintegration?
Petra Knaup-Gregori
3 Patientenakten 3.1 3.2 3.3 3.4 3.5 3.6
Einleitung | 60 Grundlagen der medizinischen Dokumentation | 62 Entwicklungsstufen von Patientenakten | 65 Begriffsbestimmung im Kontext elektronischer Patientenakten | 76 Standards für elektronische Patientenakten | 77 Zusammenfassung und Ausblick | 80
Zusammenfassung: Informationen über Patienten, Entscheidungen bezüglich Diagnose und Therapie sowie Befunde und Verläufe werden in Patientenakten gesammelt und über gesetzlich geregelte Zeiträume aufbewahrt. Dabei kann ihre Speicherung, Bereitstellung und Verwaltung von der Medizinischen Informatik unterstützt werden. Die zunehmend elektronische Speicherung ermöglicht einrichtungsübergreifende Patientenakten; die hohe Mobilität der Bevölkerung motiviert einrichtungsunabhängige Gesundheitsakten. Hiermit soll insbesondere die mehrfache Erfassung von Daten und die wiederholte Durchführung von Untersuchungen vermieden werden. Abstract: Information on patients, decisions on diagnosis and therapy as well as medical reports and progress notes are collected in patient records and have to be archived according to current legal regulations. Medical Informatics can provide methods and tools that efficiently support storage, retrieval and management of patient records. The fact that patient records are increasingly stored electronically has enabled inter-institutional patient records. In addition, institution independent electronic health records would be useful due to high mobility of patients. These two approaches could prevent multiple recording of data and multiple medical procedures.
60 | Petra Knaup-Gregori
3.1 Einleitung Entscheidungen in der medizinischen Versorgung basieren in der Regel auf Informationen über Patienten. Wenn ein Patient bei einem Arztbesuch über Brustschmerzen klagt, stellt dies für den Arzt eine Information dar, die ihn vermutlich zu der Entscheidung veranlasst, ein EKG schreiben zu lassen. Die Information, die Anordnung des EKG und das Ergebnis der Untersuchung müssen dokumentiert und über einen längeren Zeitraum aufbewahrt werden. Den Ärzten dient die Dokumentation vor allem als Erinnerungs- und Kommunikationshilfe, z. B. wenn der Patient erneut vorstellig wird oder ein einweisender Kollege über die Ergebnisse der Untersuchung informiert werden soll. Die medizinische Dokumentation hat darüber hinaus auch das Ziel, rechtliche Vorgaben zu erfüllen, die Verwaltung eines Krankenhauses bei strategischen Entscheidungen zu unterstützen, und sie ist Grundlage der klinischen Forschung. Medizinische Dokumentation ist für Entscheidungen in der Medizin so bedeutsam, dass Ärzte bis zu 30 % ihrer Arbeitszeit dafür aufwenden müssen [Blum 2003]. Daher hat die Medizinische Informatik die wichtige Aufgabe, die Ärzte und pflegendes Personal durch eine geeignete Informationsverarbeitung bei der Dokumentation zu unterstützen. Informationen zu einem Patienten werden üblicherweise in einer Patientenakte gesammelt. Die Patientenakte ist eine Sammlung aller Daten und Dokumente, die im Zusammenhang mit der medizinischen Versorgung eines Patienten stehen.
Eine Patientenakte enthält unter anderem Informationen über Beschwerden, verordnete Medikamente, Untersuchungsbefunde und Berichte von Kollegen aus anderen Versorgungseinrichtungen (Fachärzte, Krankenhäuser). Die Abbildung 3.1 zeigt einige Beispiele für typische Dokumente in einer Patientenakte. Je nach Krankenhaus, Erkrankung und Aufenthaltsdauer kann eine Patientenakte sehr umfangreich werden und nicht selten enthält sie mehr als 50 Dokumente. Da einige Universitätskliniken jährlich etwa 50 000 stationäre Patienten versorgen, bedarf es effizienter organisatorischer und informationstechnischer Strukturen, um die Archivierung und Einsichtnahme gewährleisten zu können. Gesundheitsversorgungseinrichtungen sind gesetzlich verpflichtet, Informationen über Patienten über einen langen Zeitraum aufzubewahren. Einige Zahlen zu den konkreten Archivierungsfristen finden sich in Kapitel 3.2.4. Die Archivierung dient vor allem dazu, Informationen nachschlagen zu können, wenn ein Patient nach einer gewissen Zeit erneut zur Behandlung in die Versorgungseinrichtung kommt. Patientenakten müssen aber auch deshalb lange aufgehoben werden, um bei Bedarf Schadenersatzansprüche von Patienten prüfen zu können.
3 Patientenakten |
61
Röntgen Anamnese
Arztbrief
Stammdaten
Pflegeplanung
Aufklärungsbogen
Medikamentenanforderung
Patientenakte
Röntgenakte
klinische Befunde
Röntgenanforderung
Röntgenbefunde
Laborbefunde
OP-Bericht
Abb. 3.1: Typische Dokumente in einer Patientenakte. Ein Röntgenbild ist meist zu groß für eine papierbasierte Patientenakte und wird separat archiviert.
Lange Jahre waren Patientenakten einrichtungsbezogen und somit auf ein Krankenhaus beschränkt. Mittlerweile erweitert sich der Begriff und es gibt einrichtungsübergreifende Patientenakten, die manchmal auch als Gesundheitsakten bezeichnet werden. Im vorliegenden Kapitel werden diese Begriffe präzisiert. Kapitel 3.2 enthält einige Grundlagen der medizinischen Dokumentation, die für den Umgang mit Patientenakten aus Sicht der Medizinischen Informatik wichtig sind. Anschließend werden in Kapitel 3.3 mehrere Arten von Patientenakten unterschieden, ihre Möglichkeiten diskutiert und der aktuelle Stand bezüglich Methoden und Werkzeugen zur Etablierung von Patientenakten aufgezeigt. Vor diesem Hintergrund erfolgt in Kapitel 3.4 eine Begriffsbestimmung mit der Abgrenzung von Patientenakten zu Krankenhausinformationssystemen und einem Hinweis auf die Vielfalt von Bezeichnungen, die zur Beschreibung von Patientenakten nicht immer einheitlich genutzt werden. In Kapitel 3.5 werden Standards für elektronische Patientenakten vorgestellt. Lernziele des gesamten Kapitels sind: – Verständnis der Bedeutung von Patientenakten für die medizinische Versorgung und die persönliche Gesundheit, – Fähigkeit zur Charakterisierung von Patientenakten anhand unterschiedlicher Kriterien,
62 | Petra Knaup-Gregori
– –
Kennenlernen des Inhalts von Patientenakten und der typischen Funktionen von Systemen zum Management von Patientenakten, Einordnung der im Zusammenhang mit Patientenakten genutzten Begriffe.
3.2 Grundlagen der medizinischen Dokumentation 3.2.1 Inhalte von Patientenakten Der Umfang der Dokumentation und die Vielfalt der Dokumente sind in einem Krankenhaus besonders hoch. Die Tabelle 3.1 zeigt, welche Daten oder Dokumente zu unterschiedlichen Zeitpunkten während eines Krankenhausaufenthaltes anfallen können und dann auch in der Patientenakte aufbewahrt werden müssen. Dabei ist zu beachten, dass ein Krankenhausaufenthalt nicht immer linear abläuft und auch Zyklen entstehen können, beispielsweise bis eine Diagnose eindeutig gestellt werden kann. Die zugehörigen Dokumenttypen tauchen dann mehrfach in der Patientenakte auf. Nimmt ein Patient an einer klinischen Studie teil (Kapitel 4) oder wird eine Maßnahme durchgeführt, bei der eine Dokumentationspflicht zur Qualitätssicherung besteht, sind zusätzliche Erhebungsbogen mit weiteren Merkmalen auszufüllen.
3.2.2 Strukturierung von Patientenakten Die Sammlung von Daten und Dokumenten in Patientenakten ist nur dann sinnvoll, wenn man darin die benötigte Information auch wiederfinden kann. Hierzu muss zuerst die Akte selber gefunden werden, die zu diesem Zweck indiziert ist. Dabei wird die Akte durch bestimmte Merkmale beschrieben, wie z. B. durch Namen und Geburtsdatum des Patienten. Um die enthaltenen Informationen innerhalb der Akte schnell aufzufinden, bietet sich eine Strukturierung in Unterkategorien – wie z. B. Arztbriefe oder Laborbefunde – an. Dies bezeichnet man als quellenorientierte Strukturierung von Patientenakten. Wenn man innerhalb von Dokumenten gezielt Informationen finden möchte, ohne den ganzen Arztbrief lesen zu müssen – ein Arztbrief kann durchaus 3–4 Seiten umfassen – hilft eine Strukturierung der Dokumente in einzelne Abschnitte. Wenn diese Struktur für alle Dokumente von einem bestimmten Typ einheitlich vorgegeben ist, spricht man von einer Standardisierung des Dokuments. Eine mögliche Vorgabe wäre, dass jeder Arztbrief zunächst allgemeine Informationen über den Patienten und die Diagnose bei Vorstellung enthält. Dann folgen die Informationen über die Anamnese, Diagnose, Therapie, Prognose und Vorschläge für die Weiterbehandlung in genau dieser Reihenfolge. Damit wäre eine Standardisierung auf relativ niedrigem Niveau erreicht.
3 Patientenakten | 63
Tab. 3.1: Inhalte einer Patientenakte und Zeitpunkt der Entstehung während eines Krankenhausauf enthaltes. Zeitpunkt
Beispiele für Daten und Dokumente
Patientenaufnahme
Stammdaten (demographische Daten, Versicherung, eindeutige Patientenidentifikationsnummer, Einweisungsdiagnose) Anamnese, klinische Befunde, Meldung der Aufnahmediagnosen an die Krankenkasse, Pflegepersonalregelung, Pflegeplanung Medikation (Medikamenteneinnahme, -dosierung, Einnahmeschema), Anforderung des Medikaments in der Krankenhausapotheke Anforderungsformular (Maßnahme, Grund, Fragestellung, mögliche Kontraindikation), Dokumentation in der Akte (Maßnahme, Grund, Fragestellung) Aufklärungsbogen, Laboranforderung Originaldokument (Röntgenbild, Film), Befund (Bericht, Verlauf, Beurteilung), evtl. externe Qualitätssicherung (z. B. bei Herzkatheteruntersuchung), Prozedurencode (OPS 301) Diagnosemeldung an die Krankenkasse, bei Bedarf Veranlassung weiterer Diagnostik Anforderungsformular (Maßnahme, Grund, Fragestellung, mögliche Kontraindikation), Dokumentation in der Akte (Maßnahme, Grund), bei Bedarf Aufklärung, Labor, Vorbereitung Originaldokument, Therapieverlauf, Prozedurencode, Qualitätssicherung Beurteilung des Therapieerfolgs, bei Bedarf: Anforderung weiterer Diagnostik zur Beurteilung Kurzarztbrief, Diagnosemeldung (Kodierung, Hauptdiagnose, Nebendiagnose), Qualitätssicherung, bei Bedarf: Terminvereinbarung Fallpauschalen (DRG), Arztbrief Rückfragen der Krankenkassen, Nachsorge
Eingangsuntersuchung Anpassung der Medikation Anordnung Diagnostik
Vorbereitung Diagnostik Durchführung Diagnostik
Diagnostische Einordnung Anordnung Therapie
Durchführung Therapie Einordnung Therapieerfolg Entlassung Abschluss des Falls poststationärer Verlauf
Formulare, in denen nicht nur Merkmalsarten oder Fragen, sondern auch Antwortmöglichkeiten fest vorgegeben sind, ermöglichen eine stark standardisierte Dokumentation.
Eine stark standardisierte Dokumentation hat den Vorteil, dass die Daten nach einheitlichen Definitionen aufgezeichnet werden können und sich für viele tausend Patienten gemeinsam auswerten und mit deskriptiver Statistik berechnen lassen. Daher sind die Erhebungsbogen in klinischen Studien (Case Report Form, CRF, Prüfbogen Kapitel 4) meist stark standardisiert. Außerdem können somit einmal erfasste Daten für weitere Ziele, wie z. B. Qualitätsmanagement und klinische Forschung, multipel verwendet werden. In der Realität ist dies allerdings oft recht schwierig zu erreichen. Zwar ist es heute möglich, die benötigten technischen Schnittstellen zu implementieren, die erforderliche Harmonisierung von Prozessen und Terminologien im Rahmen der klinischen Arbeit ist aber häufig eine große Herausforderung.
64 | Petra Knaup-Gregori
Trotz der Vorteile einer starken Standardisierung sollte darauf geachtet werden, dass eine Dokumentation nicht zu restriktiv wird. Einzelfälle mit ihren Details und Besonderheiten können nicht immer auf standardisierte Erhebungsbogen abgebildet werden. Eine ausgewogene Mischung zwischen vordefinierten Antwortmöglichkeiten und Freitext ist ratsam.
3.2.3 Merkmalsarten In der Dokumentation setzt sich ein Merkmal zusammen aus einer Merkmalsart und einer Merkmalsausprägung. Mit Merkmal wird die Eigenschaft bezeichnet, die eine Entität näher beschreibt. Ein Merkmal setzt sich zusammen aus einer Merkmalsart und einer Merkmalsausprägung. Merkmalsarten werden in anderen Zusammenhängen auch als Variable, Objekttypen oder Items bezeichnet.
Wenn eine Person blonde Haare hat, ist das ein Merkmal, das diese Person näher beschreibt. Die Merkmalsart ist die Haarfarbe und die Merkmalsausprägung ist bei dieser konkreten Person blond. Andere mögliche Merkmalsausprägungen für die Merkmalsart Haarfarbe wären schwarz, braun, brü nett, rot und sonstige. Diese bilden den sogenannten Wertebereich der Merkmalsart. Wichtig ist, dass eine Merkmalsausprägung für sich alleine nicht ausreicht, um ein Merkmal zu beschreiben. Wenn Sie z. B. die Merkmalsausprägung 75 hören, bildet das erst dann eine relevante Information für Sie, wenn Sie wissen, ob es sich dabei um die Größe, das Gewicht, den Puls oder das Alter einer Person handelt. Wenn in einer Patientenakte Daten stark standardisiert dokumentiert werden, sind auf dem Formular die Merkmalsarten und teilweise mögliche Merkmalsausprägungen vorgegeben. Bei der Dokumenta tion werden dann die konkreten Merkmalsausprägungen für einen konkreten Patienten erfasst.
3.2.4 Archivierung von Patientenakten Wie schon in der Einleitung erwähnt, gibt es in der Medizin gesetzliche Vorschriften, Daten und Dokumente über Patienten auch nach Behandlungsabschluss aufzubewahren. Dieser Zeitraum ist in der (Muster-) Berufsordnung für Ärzte derzeit auf zehn Jahre festgesetzt (§ 10 Abs. 3 der MBO). Ausnahmen zu dieser Regelung sind in separaten Gesetzen festgehalten, mit Abweichungen nach oben und nach unten. Das Transfusionsgesetz schreibt z. B. für die Aufbewahrung von Daten über Behandlungen mit Blutprodukten einen Zeitraum von 15 Jahren vor, und die Strahlenschutzverordnung fordert, dass Daten über die Nutzung radioaktiver Stoffe oder ionisierender Strahlen in der Medizin 30 Jahre aufgehoben werden müssen. Durchschriften von Rezepten über Betäubungsmittel müssen nach der Betäubungsmittelverschreibungsverordnung drei Jahre aufbewahrt werden und Arbeitsunfähigkeitsbescheinigungen nur für ein Jahr. Zivilrechtliche Ansprüche nach dem Bürgerlichen Gesetzbuch ver-
3 Patientenakten | 65
jähren jedoch erst nach 30 Jahren. Daher wird empfohlen, Daten und Dokumente auch über die gesetzliche Aufbewahrungsfristen hinaus so lange aufzuheben, bis aus der ärztlichen Behandlung keine Schadensersatzansprüche mehr erwachsen können. In Krankenhäusern besteht durch die Krankenhausverordnung ohnehin die Verpflichtung, Patientenakten 30 Jahre aufzubewahren. Eine Ausnahme stellt das Versterben eines Patienten im Krankenhaus dar. In diesem Fall muss die Akte nur noch 20 Jahre aufgehoben werden. Generell wird für die Aufbewahrung der medizinischen Daten gefordert, dass es sich entweder um ein Originaldokument handeln muss oder aber um eine rechtssichere, also nicht veränderbare Kopie. Hier wurden in den letzten Jahrzehnten häufig Mikrofilme genutzt, da sie deutlich weniger Platz beanspruchen als konventionelle (papierbasierte) Akten. Elektronische Dokumente galten lange Zeit als nicht rechtssicher. Auch in der Medizin wird heute das PDF/A-Format als eine Möglichkeit der Langzeitarchivierung diskutiert. Dennoch werden in Ergänzung zu einer elektronischen Archivierung auch heute noch häufig Mikrofilme erstellt. Für die Dokumentation auf elektronischen Datenträgern oder anderen Speichermedien müssen besondere Sicherungs- und Schutzmaßnahmen getroffen werden. Dabei muss verhindert werden, dass Dokumente verändert, vernichtet oder unrechtmäßig verwendet werden.
3.3 Entwicklungsstufen von Patientenakten
konventionelle Akte
einrichtungsbezogene elektronische Akte
einrichtungsübergreifende elektronische Akte
Gesundheitsakte (einrichtungsunabhängig, patientenbezogen)
Datenvolumen
Im heutigen Gesundheitswesen findet man auch Patientenakten, die nicht mehr nur auf eine Einrichtung beschränkt sind, sondern einrichtungsübergreifend oder sogar einrichtungsunabhängig die Daten zu einem Patienten sammeln. Diese Entwicklung wurde dadurch möglich, dass Daten und Dokumente über Patienten zunehmend
Abb. 3.2: Arten von Patientenakten. Ausgehend von der konventionellen Akte bis hin zur Gesund heitsakte steigt der Umfang an verfügbaren Informationen ( Band 1, Kapitel 10).
66 | Petra Knaup-Gregori
elektronisch verfügbar sind und rechnerbasierte Anwendungssysteme zur Führung elektronischer Patientenakten entwickelt wurden. Im vorliegenden Kapitel werden die Entwicklungsstufen von der konventionellen papierbasierten Patientenakte über einrichtungsbezogene und einrichtungsübergreifende elektronische Akten bis hin zur Gesundheitsakte beschrieben. Abbildung 3.2 veranschaulicht die vier Entwicklungsstufen.
3.3.1 Konventionelle Akten und konventionelle Archivierung Bei einer konventionellen Patientenakte erfolgt die Dokumentation papierbasiert und die entstehenden Dokumente werden in einer mehr oder weniger strukturierten Mappe gesammelt. Daten, die vielleicht schon elektronisch vorliegen, müssen ausgedruckt und in der Akte abgelegt werden. Nach Abschluss des Falles wird die Patientenakte an ein konventionelles Archiv übermittelt, dort im Archivverwaltungssystem eingetragen und im Regalsystem einsortiert. Die Aufbewahrungsfristen können in einem Krankenhaus der Maximalversorgung wie Universitätskrankenhäusern dazu führen, dass jährlich 1,5 km Regalfläche zur Archivierung neuer Akten benötigt werden. Da der Archivraum in Krankenhäusern meistens recht teuer ist, werden länger nicht mehr eingesehene Akten in sogenannte Altarchive ausgelagert. Diese befinden sich häufig in größeren Lagerhallen in deutlicher räumlicher Entfernung zum Krankenhaus, was zwar die Transportwege verlängert, aber die Raumkosten reduziert. Die Erfahrung hat gezeigt, dass bei über 97 % der Anfragen nur auf Akten der letzten drei Jahre zurückgegriffen werden muss. Bei der konventionellen Archivierung ist inzwischen der Aufwand an Raum und Personal so groß, dass langfristig eine digitale Archivierung günstiger erscheint.
Vor- und Nachteile konventioneller Patientenakten Neben dem enormen Platzbedarf stellt die Verfügbarkeit an nur einem Ort und zu einer Zeit einen weiteren Nachteil der konventionellen Patientenakten dar. Sie können also nicht von mehreren an der Behandlung beteiligten Partnern zeitgleich eingesehen werden. Dies birgt auch die Gefahr, dass die Akte verlegt wird und längere Zeit nicht auffindbar ist. Wurde die Akte nach Abschluss des Falles ins Archiv gegeben, kann sie nur zu den Öffnungszeiten des Archivs wieder ausgeliehen werden und ist z. B. bei einem nächtlichen Notfall nicht verfügbar. Außerdem sind konventionelle Akten in der Regel deutlich weniger standardisiert als eine elektronische Dokumentation, was das Auffinden von Informationen erschweren kann. Weiterhin sind konventionelle Akten nicht beliebig sortier- und filterbar und es ist nicht möglich, die Daten je nach Relevanz für eine Nutzergruppe wie Ärzte und Pflegekräfte unterschiedlich aufzubereiten. Der geringe Standardisierungsgrad führt auch dazu, dass die Daten in der konventionellen Patientenakte nicht automatisiert auswertbar sind.
3 Patientenakten | 67
Möchte ein Krankenhaus mit einer konventionellen Patientenakte beispielsweise ermitteln, wie viele Patienten im letzten Jahr mit Verdacht auf akute Blinddarmentzündung operiert wurden, so müssen diese Daten noch einmal separat in einem rechnerbasierten Anwendungssystem erfasst werden.
Dennoch darf man die Stärken der konventionellen Patientenakte nicht unterschätzen. Sie ist für viele Mitarbeiter im Krankenhaus eine bewährte Erinnerungs- und Kommunikationshilfe. Die konventionelle Patientenakte kann ohne weitere Schulungsmaßnahmen genutzt werden, und viele Anwender schätzen die Möglichkeit der handschriftlichen Dokumentation und des Blätterns. Außerdem kann ein neues Dokument ohne weiteren Aufwand in die Akte eingeordnet werden. Die konventionelle Patientenakte ist einfach zu transportieren und kann bei der Visite an das Bett des Patienten mitgenommen werden. Ein Zugriff auf die elektronische Patientenakte über mobile Werkzeuge während der Visite hat sich zum Zeitpunkt der Erstellung dieses Buches noch nicht durchgesetzt.
Methoden und Werkzeuge Auch wenn eine konventionelle Akte wenig standardisiert erscheint, gibt es doch einige Entscheidungen, die bezüglich ihrer Handhabung zu treffen sind. So ist zu vereinbaren, wie die Dokumente innerhalb der Akte zu sortieren sind. Üblich ist entweder eine chronologische Sortierung nach dem Zeitpunkt des Entstehens des Dokuments oder eine inhaltliche Sortierung nach Art des Dokuments. Im letztgenannten Fall würde man in der Akte Bereiche für Laboruntersuchungen, Röntgenbefunde, Arztbriefe etc. anlegen. Darüber hinaus ist festzulegen, welche Dokumente in der Akte zu sammeln sind und welche separat gehandhabt werden. Häufig gibt es z. B. ein separates Archiv für die Aufbewahrung der Ergebnisse von bild- und signalgebenden Verfahren wie Röntgenbilder oder EKG-Aufzeichnungen, da diese ein anderes Format aufweisen und den Rahmen der konventionellen Patientenakte sprengen würden. Weitergehende Entscheidungen betreffen die Archivorganisation. Es gibt Krankenhäuser, in denen für jeden stationären Aufenthalt eines Patienten eine eigene Akte angelegt und auch separat archiviert wird. In anderen Häusern werden sogenannte Mutterbehälter angelegt, in denen die Akten für alle stationären Fälle des Patienten übergreifend gesammelt werden. Darüber hinaus gibt es unterschiedliche Sortierungs-Systeme für Akten in einem Archiv. So kann man die Akten sehr einfach nach einer laufenden Nummer ablegen. Jede neue Akte wird dann jeweils an das Ende der Reihe einsortiert. Problematisch daran ist das schlechte Auffinden von falsch einsortierten Akten. Eine andere Möglichkeit ist es, Akten nach dem Nachnamen des Patienten zu sortieren. Dabei ist zu beachten, dass manche Namen häufig sind und damit die Regalreihen unterschiedlich ausgelastet werden. Auch ein konventionelles Archiv kommt heutzutage nicht mehr
68 | Petra Knaup-Gregori
ohne Rechnerunterstützung aus. Entsprechend muss ein Leiter eines konventionellen Archivs ein rechnerbasiertes Archivverwaltungssystem auswählen und parametrieren. Weiterhin hat er dafür zu sorgen, dass die Ausleihe gewährleistet und organisiert wird, und er hat zu entscheiden, nach welchem Zeitraum Akten in ein Altarchiv ausgelagert werden sollen.
3.3.2 Intrainstitutionelle elektronische Patientenakten Grundsätzlich hat eine elektronische Patientenakte dieselben Aufgaben wie eine konventionelle. Sie ist lediglich auf einem elektronischen Datenträger abgelegt. Eine elektronische Patientenakte (EPA; engl. electronic patient record, EPR) ist eine auf einem elektronischen Datenträger abgelegte Patientenakte ( Band 1, Kapitel 10).
Wird von der elektronischen Patientenakte gesprochen, ist damit häufig nicht nur die Sammlung von Daten und Dokumenten gemeint, sondern gleichzeitig auch das Anwendungssystem, in dem die Daten und Dokumente gespeichert bzw. verwaltet werden und mit dessen Hilfe auf die Inhalte zugegriffen und darin navigiert werden kann. Das EPA-System ist ein rechnerbasiertes Anwendungssystem, das elektronische Patientenakten speichert und verwaltet, sodass auf ihre Inhalte zugegriffen werden kann.
Bei elektronischen Patientenakten lassen sich zwei Ansätze unterscheiden: – beim datenbezogenen Ansatz liegen die Informationen in der Patientenakte stark standardisiert als Einzelwerte vor, die weiterverarbeitet und z. B. für Berechnungen genutzt werden können, – beim dokumentenbasierten Ansatz kann nur das Dokument als Ganzes weiterverarbeitet werden.
Der Unterschied soll am Beispiel von Laborwerten erläutert werden: Bei einer dokumentenbasierten Patientenakte kann man beispielsweise recherchieren, ob für einen Patienten ein großes Blutbild erstellt wurde. Wird das zugehörige Dokument aufgerufen, können die einzelnen Werte für Hämoglobin und Leukozyten nachgelesen werden. Beim datenbezogenen (merk malsbasierten) Ansatz könnte jeder einzelne Leukozytenwert nachgeschlagen und die Einzelwerte könnten zur Darstellung eines zeitlichen Verlaufs automatisch in ein Diagramm eingetragen werden. In der Praxis wird man häufig eine Mischform antreffen. Auch bei überwiegend dokumentenbasierten Ansätzen werden zumindest die sog. Stammdaten wie Name, Geburtsdatum, Adresse etc. als weiter bearbeitbare Merkmale vorliegen.
3 Patientenakten | 69
Vor- und Nachteile intrainstitutioneller elektronischer Patientenakten Die elektronische Patientenakte hat den großen Vorteil, dass Medienbrüche vermieden werden und Röntgenbilder, Videos und Tonaufnahmen ebenfalls in der Patientenakte gespeichert werden können. Darüber hinaus kann auf eine elektronische Patientenakte von verschiedenen Orten zugegriffen werden, und man ist bei ihrer Einsicht unabhängig von den Öffnungszeiten eines Archives. Innerhalb einer Einrichtung können auch mehrere Personen zeitgleich auf die elektronische Patientenakte zugreifen. Dabei können unterschiedliche Personen oder Personengruppen unterschiedliche Sichtweisen auf dieselbe Patientenakte haben. So kann bei nicht direkt an der Behandlung beteiligten Mitarbeitern die Berechtigung für die Einsicht einiger Daten deutlich eingeschränkt sein (z. B. für Physiotherapeuten oder psychosoziale Dienstleister). Auch können für Personen in unterschiedlichen Rollen (Arzt oder Pflegepersonal) die Daten unterschiedlich aufbereitet angezeigt werden. Je stärker die Daten in der elektronischen Patientenakte standardisiert sind, desto besser können sie ausgewertet werden: Merkmale können automatisch berechnet werden, so z. B. der Body Mass Index (BMI) aus Größe und Gewicht des Patienten oder die Kumulativdosis eines verordneten Medikaments. Darüber hinaus besteht die Möglichkeit bei Überschreitung von Grenzwerten wie einer Tages-Maximaldosis eine Warnung auszugeben und den Sachverhalt in der Akte zu visualisieren. Die Möglichkeit der automatisierten Auswertung von Daten in der elektronischen Patientenakte ermöglicht auch eine höhere Datenqualität. Einerseits können Fehler bei der Berechnung vermieden werden, andererseits können in der elektronischen Patientenakte vorliegende Daten in viele Formulare automatisch übernommen werden, sodass Übertragungsfehler und Redundanzen vermieden werden können. Auch die Eingabe von Daten selbst kann bereits auf Fehler überprüft werden. Dennoch fällt das konsequente Arbeiten mit elektronischen Patientenakten einigen Mitarbeitern schwer. Bei der Dokumentation bevorzugen viele die eigene Handschrift anstatt der Tastatur, obwohl das oft zu – für andere – schwer lesbaren Einträgen führt. Auch bei der Einsicht von Befunden beispielsweise während der Visite können sich manche Mitarbeiter auf Papier und in den gewohnten Strukturen einen besseren Überblick verschaffen als mit Monitoren oder mobilen Geräten wie Tablet-PCs oder Notebooks. Wichtig für eine gute Akzeptanz ist, dass ein System mit elektronischen Patientenakten technisch einwandfrei funktioniert und ausreichend Geräte zur Verfügung stehen. Auch die Gewährleistung einer Ausfallsicherung erfordert einen erheblichen Aufwand. Darüber hinaus erscheint das Risiko der Manipulation und unberechtigten Einsichtnahme in die Daten größer als bei konventionellen Akten (Kapitel 12).
70 | Petra Knaup-Gregori
Methoden und Werkzeuge Häufig wird nicht zwischen der elektronische Patientenakte als Sammlung von Daten und Dokumenten und dem Anwendungssystem zu deren Speicherung und Verwaltung unterschieden. Das Anwendungssystem bietet eine grafische Benutzeroberfläche für den Einsatz der elektronischen Patientenakte. Im Falle eines Krankenhauses bieten die klinischen Anwendungssysteme eines Krankenhausinformationssystems (KIS), wie sie in Kapitel 2 beschrieben sind, den Zugang zu der elektronischen Patientenakte. Primäre Aufgabe eines KIS ist es, die Prozesse in einem Krankenhaus zu unterstützen. Das Führen der Patientenakte ist einer dieser Prozesse, zu denen das Anlegen der Patientenakte, das Ausfüllen von Dokumenten oder Bildschirmformularen, das Einordnen von Dokumenten und die Archivierung der Patientenakte gehören. Besonders wichtig ist auch die Suche in den Daten und Dokumenten. Ausführliche Informationen zu den Funktionen von EPA-Systemen finden sich in der Literatur [Haas 2005]. Häufig unterscheidet sich in einem Krankenhaus das Anwendungssystem zum Führen der Patientenakte von dem zur Archivierung, da ein wichtiger Bestandteil der Aktenführung die Dokumentation in der Akte ist. Archivierte Dokumente dürfen sich jedoch nicht mehr ändern und das Archivierungssystem muss bestimmte Funktionen bereitstellen, die dies gewährleisten. Im Sprachgebrauch ist eine Trennung zwischen beiden Anwendungssystemen häufig schwierig. Wenn also von einer einrichtungsweiten elektronischen Patientenakte gesprochen wird, können drei Fälle unterschieden werden: – In dem Krankenhaus wird eine elektronische Patientenakte geführt und die klinische Dokumentation erfolgt überwiegend rechnerunterstützt. Allerdings erfolgt die Archivierung noch konventionell, sodass bei Abschluss eines Falles alle Inhalte der elektronischen Patientenakte ausgedruckt, in eine konventionelle Akte sortiert und an ein konventionelles Archiv übermittelt werden müssen. – In dem Krankenhaus erfolgt die klinische Dokumentation überwiegend auf Papier, aber die Archivierung erfolgt digital. In diesem Fall müssen alle Dokumente in der konventionellen Patientenakte eingescannt, indexiert und in die elektronische Patientenakte integriert werden. – In dem Krankenhaus erfolgt sowohl die Führung als auch die Archivierung der elektronischen Patientenakte digital. In der Realität sind auch Mischformen anzutreffen. Selbst bei einer elektronischen Patientenakte, bei der sowohl die Führung als auch die Archivierung digital erfolgen, werden auch in Zukunft noch papierbasierte Dokumente im Behandlungsprozess eine Rolle spielen. So kann es sein, dass der Patient bei der Einweisung in das Krankenhaus Dokumente von niedergelassenen Ärzten mitbringt oder technische Geräte nicht so in das KIS eingebunden sind, dass Untersuchungsergebnisse automatisch in die elektronische Patientenakte übernommen werden können. Daher müssen alle konventionel-
3 Patientenakten | 71
len Dokumente gesammelt, eingescannt und in die elektronische Patientenakte des entsprechenden Patienten eingeordnet werden.
3.3.3 Einrichtungsübergreifende Patientenakten Der Fortschritt in der Medizin hat zu einer hohen Spezialisierung geführt, sodass Ärzte unterschiedlicher Fachrichtungen häufig für eine optimale Versorgung des Patienten zusammenarbeiten müssen. So sind z. B. an der Versorgung von Tumorpatienten oft Internisten, Chirurgen und Radiologen beteiligt, die auch noch in unterschiedlichen Versorgungseinrichtungen angesiedelt sein können. Außerdem erfolgt eine Behandlung in Deutschland häufig sektorenübergreifend, was bedeutet, dass sowohl stationäre Aufenthalte als auch ambulante Besuche erfolgen können. Auf konventionellem Wege würden sich die an der Behandlung beteiligten Partner vor allem über Telefon und zusammenfassende Berichte (Arztbriefe) über den Patienten austauschen. Eine einrichtungsübergreifende elektronische Patientenakte ermöglicht dagegen die gegenseitige Einsicht der an der Behandlung beteiligten Personen in alle relevanten Daten und Dokumente. Einrichtungsübergreifende Patientenakten ermöglichen die Sammlung aller Daten und Dokumen te zu Patienten oder Fällen, die auf elektronischen Datenträgern abgelegt sind und aus mehreren eigenständigen Versorgungseinrichtungen stammen können.
Da die Patientendaten Einrichtungsgrenzen verlassen, ist es besonders wichtig, dass alle Regelungen des Datenschutzes eingehalten werden und dass alle Daten und Dokumente eindeutig dem richtigen Patienten und Fall zugeordnet werden können. Es ist leicht vorstellbar, welcher medizinische Schaden entstehen könnte, wenn die Daten von zwei verschiedenen Patienten, die zufällig denselben Namen tragen, unbemerkt in einer einrichtungsübergreifenden Akte zusammengeführt würden.
Vor- und Nachteile einrichtungsübergreifender Patientenakten Der Vorteil einer einrichtungsübergreifenden Patientenakte ist, dass sich alle Versorgungspartner einen umfassenden Überblick über den aktuellen Fall verschaffen können und dass zeitgleich Partner aus unterschiedlichen Einrichtungen die Daten einsehen können. So ist es z. B. nicht mehr nötig, dem Patienten eine Röntgenaufnahme in die Hand zu geben, was sowohl für den Patienten eine Erleichterung sein kann als auch für die Einrichtung, welche die Röntgenaufnahme angefertigt hat. Letztere ist in jedem Fall verpflichtet, die Aufnahme zu archivieren. Für eine gemeinsame Besprechung der Röntgenaufnahme können Telefon- oder Videokonferenzen eingeleitet werden, bei denen allen Kommunikationspartnern die Aufnahme und weitere behandlungsrelevante Dokumente vorliegen. Von einer einrichtungsübergreifenden
72 | Petra Knaup-Gregori
Patientenakte verspricht man sich sowohl die Vermeidung unnötiger Mehrfachaufzeichnungen von Daten als auch mehrfacher Durchführungen von Untersuchungen. Außerdem soll sie die nahtlose Zusammenarbeit von ambulanter und stationärer Versorgung unterstützen. Dies funktioniert jedoch nur, wenn die technische Verfügbarkeit des Systems hoch ist und ein Ausfallkonzept besteht. Die Implementierung von einrichtungsübergreifenden Patientenakten ist nicht trivial. Um die Vertraulichkeit zu gewährleisten, sind zunächst Berechtigungskonzepte so zu implementieren, dass die an der Behandlung beteiligten Partner nur die für sie relevanten Daten und Dokumente einsehen dürfen. Darüber hinaus müssen sich die Partner über die Authentizität der Daten und Dokumente aus den anderen Einrichtungen zu jeder Zeit sicher sein. Damit die gemeinsame Akte möglich ist, muss eine Standardisierung von Daten und Metadaten erreicht werden, im besten Fall auch auf semantischer Ebene (Kapitel 11).
Methoden und Werkzeuge Die einrichtungsübergreifende Patientenakte wie oben beschrieben ist zunächst nur ein gedankliches Konzept. Technisch lässt sie sich ganz unterschiedlich realisieren: – Die an der Versorgung beteiligten Partner können Daten und Dokumente über standardisierte Kommunikationsschnittstellen austauschen (Kapitel 11). Dies ist z. B. der Grundgedanke des sogenannten Continuity of Care Record (CCR), der die aktuell wichtigsten Daten über den Gesundheitszustand eines Patienten zusammenfasst. Er enthält unter anderem Informationen über Diagnosen, medizinische Probleme, Medikation, Allergien sowie den Therapieplan und kann elektronisch zwischen Versorgungseinrichtungen ausgetauscht werden. Zur Implementierung des CCR wurde bereits ein Dokument der HL7 Clinical Document Architecture (CDA) spezifiziert (Kapitel 11). – Die beteiligten Partner können gegenseitig den Zugriff auf die lokalen rechnerunterstützten Informationssysteme erlauben. Dabei ist der Zugriff auf den gemeinsam behandelten Fall eines Patienten und auf Daten in unmittelbarem Zusammenhang mit der Behandlung beschränkt. Ein Beispiel ist die sogenannte elektronische Fallakte (eFA) in Deutschland. Diese bietet Spezifikationen, bei der die Daten nicht auf eine gemeinsame Plattform geladen werden. Stattdessen erhält der berechtigte Nutzer Zugriff auf die Dokumente des gemeinsamen Falles, die sich ihm wie eine Akte darstellen, auch wenn die Dokumente in verschiedenen Einrichtungen liegen. Dabei können Daten und Dokumente aber nicht ins eigene System übernommen werden. Bei einem Einweiser- oder auch Zuweiserportal handelt es sich um einen webbasierten Dienst eines Krankenhauses für niedergelassene Ärzte (Einweiser). Diese können über das Portal Termine für Patienten vereinbaren, Vorbefunde übermitteln und die Daten des Krankenhauses über den von Ihnen eingewiesenen Fall einsehen.
3 Patientenakten | 73
–
Beim Aufbau einer gemeinsamen Datenhaltung wird eine Plattform etabliert, auf die an der Behandlung beteiligte Partner alle relevanten Dokumente eines gemeinsamen Falles speichern, sodass es sich hierbei nicht um eine virtuelle Akte wie bei der eFA handelt.
Bei diesen Implementierungsmöglichkeiten sind die geeigneten Netzwerktechnologien bereitzustellen und das Einverständnis des Patienten für die gemeinsame Nutzung der Daten einzuholen (patient consent). Die Dokumente sollten digital signiert (Kapitel 12) sein, damit ihre Authentizität gewährleistet ist. Da in Deutschland keine bundesweit einheitliche Patientenidentifikationsnummer vergeben ist, wird jeder Patient in den lokalen Informationssystemen eine unterschiedliche Identifikationsnummer (ID) haben. Daher muss für die Realisierung von einrichtungsübergreifenden Patientenakten ein sogenannter Master Patient Index (MPI) implementiert werden, dessen Aufgabe es ist, IDs aus unterschiedlichen Informationssystemen für einen Patienten aufeinander abzubilden. Hierfür wird für jeden Patienten innerhalb des MPI eine eindeutige (weitere) Identifikationsnummer erzeugt, und die Identifikationsnummern in den beteiligten Informationssystemen werden referenziert.
3.3.4 Elektronische Gesundheitsakte Patienten sind heutzutage meist recht mobil, sie ändern den Wohnort und unternehmen lange oder weite Reisen. Um zu vermeiden, dass Untersuchungen mehrfach durchgeführt werden und um zu gewährleisten, dass medizinische Entscheidungen auf allen vorliegenden Informationen beruhen, gewinnt die elektronische Gesundheitsakte zunehmend an Bedeutung. Die Gesundheitsakte ist eine einrichtungsunabhängige Patientenakte, bei der jeder Patient sel ber die Hoheit über seine Daten und Dokumente hat. Er allein entscheidet, welcher Arzt welche Da ten einsehen darf. Eine Gesundheitsakte ist fallübergreifend und begleitet einen Patienten idea lerweise sein Leben lang.
Es werden zwei Arten von Gesundheitsakten unterschieden: – bei der arztgeführten Gesundheitsakte ist es die Aufgabe des Arztes, medizinische Daten und Dokumente aus Versorgungseinrichtungen in die Akte einzustellen, – bei der patientengeführten Gesundheitsakte wird das Einstellen medizinischer Daten und Dokumente überwiegend vom Patienten übernommen. In diesem Fall wird auch von der persönlichen Gesundheitsakte (personal health record, PHR) gesprochen.
74 | Petra Knaup-Gregori
Am sinnvollsten ist es, wenn sowohl Arzt als auch Patient Daten und Dokumente in die Gesundheitsakte einstellen können. Die Inhalte der Gesundheitsakte beschränken sich nicht auf einen Fall bzw. eine akute Erkrankung, sondern begleiten den Patienten idealerweise sein Leben lang. Um die Gesundheit eines Menschen in seiner Gesamtheit erfassen zu können, sollte eine Gesundheitsakte nicht nur die medizinischen Daten enthalten, sondern z. B. auch das tägliche Fitnessprogramm. Auch sollte ein Patient selbst Einträge in seine Gesundheitsakte vornehmen können. Dies führt zu einem erheblichen Umfang an Informationen ganz unterschiedlicher Art und Herkunft in einer Gesundheitsakte. Daher gilt es mit Methoden der Informationsverarbeitung einem Nutzer der Daten einen geeigneten Zugang zu den Informationen zu bieten.
Vor- und Nachteile elektronischer Gesundheitsakten Die Stärke der elektronischen Gesundheitsakte liegt darin, dass sie ein umfassendes Bild über einen Patienten bieten kann und nicht auf seinen aktuellen Krankheitsfall beschränkt ist. So ist es z. B. für einen Krankenhausarzt oder einen niedergelassenen Facharzt von Vorteil, wenn er einen schnellen Überblick erhalten kann, welche Medikamente der Patient in letzter Zeit regelmäßig verordnet bekam. Der Zugriff auf die Daten und Dokumente in einer Gesundheitsakte ist nicht nur durch eine von vornherein definierte Gruppe von Gesundheitsversorgern möglich. Diese Vorteile bringen aber auch gleichermaßen Nachteile mit sich, die dazu führen, dass die Gesundheitsakte noch kontrovers diskutiert wird und nicht sehr verbreitet ist. Zum einen kann der Umfang an Daten in einer Gesundheitsakte sehr hoch sein, wenn sie lebenslang geführt wird. Es muss jedem, der an der Behandlung eines Patienten beteiligt ist, eine geeignete Sicht auf die Daten geboten werden, damit er zielgerichtet die für ihn relevanten Informationen finden kann. Weiterhin ist ein komplexes Berechtigungskonzept bereitzustellen, das so flexibel ist, unterschiedlichen Beteiligten im Gesundheitswesen Einsicht auf Daten zu gewähren. Bei der Gesundheitsakte muss der Patient selbst entscheiden, wer welche seiner Daten einsehen darf. Hierbei ist noch unklar, wie sensibel die breite Masse von Patienten mit der Vergabe von Berechtigungen und der Verantwortung des Führens der eigenen Gesundheitsakte umgehen wird. Außerdem können sich die Bedürfnisse bezüglich der Vergabe von Berechtigungen über die Jahre hinweg verändern. Verschlimmert sich die gesundheitliche Lage eines Patienten so sehr, dass er jederzeit mit einem akuten Notfall rechnen muss, mag er vermutlich andere Daten zur Einsicht freigeben als Personen, die sich überwiegend gesund fühlen. Daher ist es ganz besonders wichtig, dass für jeden Patienten jederzeit transparent ist, wem er welche Berechtigungen erteilt hat. Unklar ist auch noch, ob Patienten sich in der Lage fühlen, eigenständig ihre gesundheitsrelevanten Daten in einer elektronischen Gesundheitsakte einzupflegen und die Berechtigungen für den Zugriff darauf zu verwalten. Bei der Nutzung einer patientengeführten Akte wird sich die Frage stellen, wie hoch die Qualität der eingestellten Daten und Dokumente sein muss, um sich auf diese
3 Patientenakten | 75
Informationen verlassen zu können. Nur wenn die Qualität der Daten und Dokumente in der Gesundheitsakte als hoch erachtet wird, werden sich Mehrfachuntersuchungen vermeiden lassen. Diese Unsicherheiten trugen bisher sicherlich dazu bei, dass die Gesundheitsakte noch nicht weit verbreitet ist. Entsprechend haben auch die Informationssysteme des Gesundheitswesens nur selten Schnittstellen, mit denen sie die Daten aus ihren lokalen Systemen an die Gesundheitsakte des Patienten übermitteln können. Angesichts des demographischen Wandels ist allerdings das Potenzial einer Gesundheitsakte nicht zu unterschätzen (Kapitel 10). Sie bietet verschiedene Möglichkeiten, den Patienten stärker in den Versorgungsprozess einzubinden, weil er hier regelmäßig Verläufe dokumentieren kann. Ein Beispiel sind sogenannte Schmerztagebücher. Auch angesichts des erwarteten Fachkräftemangels im Gesundheitswesen ist dies zum Erhalt einer qualitativ hochwertigen Patientenversorgung von enormer Wichtigkeit.
Beispielsweise könnten die von Sensoren beim Patienten gemessenen Parameter direkt in die Ge sundheitsakte übertragen und beim nächsten Arztbesuch zusammenfassend präsentiert werden. Der behandelnde Arzt erhält somit objektiv gemessene Werte und ist nicht allein auf den Bericht eines Pa tienten angewiesen. Weiterhin ist vorstellbar, dass die Inhalte einer Gesundheitsakte mit qualitativ hochwertigen, auf den Patienten zugeschnittenen Hintergrundinformationen verknüpft werden und der Patient so in der Lage ist, sich über seine Erkrankung, alternative Therapien oder Vorsorgemaß nahmen zu informieren.
Methoden und Werkzeuge Die oben genannten Eigenschaften von elektronischen Gesundheitsakten sind nach heutigem Stand der Technik bereits umsetzbar und es gibt verschiedene Anbieter von Gesundheitsakten. Allerdings ist der Markt großem Wandel unterzogen und Gesundheitsakten haben sich noch nicht in der Bevölkerung und bei den Gesundheitsversorgern durchgesetzt. Technisch kann eine Gesundheitsakte auf einem tragbaren Medium wie einem USB-Stick gespeichert werden, oder aber sie kann webbasiert über sichere Server bereitgestellt werden. Im zuletzt genannten Fall müssen sichere Zugangsmöglichkeiten zu der Akte implementiert werden. Eine Möglichkeit ist die Nutzung einer elektronischen Gesundheitskarte als Zugangsschlüssel zu den Informationen in der Gesundheitsakte. Diese sind für einen Versorger nur dann einsehbar, wenn er sich mit seinem elektronischen Heilberufeausweis (eHBA) als berechtigt ausweisen kann. Weitere Funktionen eines eHBA können die digitale Signatur und das Verschlüsseln von Dokumenten sein. Die Nutzung von Gesundheitskarte und Heilberufeausweis zur Einsichtnahme und Verwaltung von Daten und Dokumenten einer Gesundheitsakte erfordert die Implementierung einer bundesweiten Telematik-Infrastruktur.
76 | Petra Knaup-Gregori
Damit Daten und Dokumente von den Gesundheitsversorgern in Gesundheitsakten übernommen werden können, wären vor allem Schnittstellen von den gängigen Krankenhausinformationssystemen oder Arztpraxissystemen zu etablieren.
3.4 Begriffsbestimmung im Kontext elektronischer Patientenakten 3.4.1 Elektronische Patientenakten und KIS Es ist wichtig, zwischen einer elektronischen Patientenakte (EPA) und einem EPA-System zu unterscheiden. – Die elektronische Patientenakte (EPA) ist zunächst nur ein abstrakter Begriff, der die Sammlung aller Dokumente zu einem Patienten in einer Versorgungseinrichtung beschreibt. Somit ist die EPA eine auf einem elektronischen Datenträger abgelegte Patientenakte. – Ein EPA-System ist ein elektronisches Anwendungssystem, mit dem die Verwaltung von Patientenakten möglich ist. Dazu gehören z. B. das Anlegen von neuen Akten, das Einstellen von Dokumenten und die Suche in diesen. Diese Trennung ist unabhängig davon, ob es sich um eine einrichtungsübergreifende, institutionsbezogene oder patientenbezogene Akte handelt. In einem Krankenhaus erfolgt der Zugriff auf elektronische Patientenakten meist über das Krankenhausinformationssystem (KIS, Kapitel 2). Damit umfasst ein KIS auch Funktionen eines EPA-Systems. Typische Funktionen eines EPA-Systems wurden von HL7 in einem sogenannten Anforderungskatalog beschrieben, dem HL7 EHR-System Functional Model [Health Level Seven 2004]. Die Funktionen dienen als Grundlage zur Kommunikation zwischen Anwendern und Entwicklern, wenn ein Lastenheft für die Entwicklung eines konkreten EPA-Systems zusammengestellt werden soll. In diesem Fall kann für jede Funktion des Anforderungskatalogs angegeben werden, ob diese unbedingt verfügbar sein muss, oder ob sie eine optionale Funktion darstellt. Durch die Beschreibung der Funktionen wird gewährleistet, dass genau die Funktionalität bereitgestellt wird, die der Anwender erwartet. Einen vergleichbaren Katalog gibt es für die Funktionalität von Systemen zur Verwaltung von patientengeführten persönlichen Gesundheitsakten (PHR), das HL7 PHR Systems Functional Model.
3.4.2 Unterschiedliche Verwendung der Begriffe in der Literatur In der Literatur wird noch nicht einheitlich zwischen den Begriffen Patientenakte und Gesundheitsakte unterschieden. Außerdem kursiert eine Vielzahl an Bezeich-
3 Patientenakten | 77
nungen, die nicht einheitlich definiert und genutzt werden. Gängige Bezeichnungen in der Literatur sind z. B.: – electronic patient record (EPR), – electronic medical record (EMR), – computer-based patient record (CPR), – electronic health record (EHR), – personal health record (PHR). Zuweilen werden auch Spezialanwendungen für wissenschaftliche Untersuchungen als Patientenakten bezeichnet. Bei Berichten über erfolgreiche EPA-Systeme werden besonders in den Niederlanden und den USA häufig Systeme von niedergelassenen Ärzten betrachtet. Auch für einrichtungsübergreifende Akten werden unterschiedliche Bezeichnungen verwendet, wie „Fallakten“ oder „Einweiserportal“. Generell muss bei Literatur über Patientenakten immer sorgfältig geprüft werden, um welche Art von Patientenakte es sich wirklich handelt [Prokosch 2001].
3.5 Standards für elektronische Patientenakten Wenn Daten aus Patientenakten mit anderen Systemen ausgetauscht werden sollen, sind Standards notwendig, damit sie vom Empfänger auch sinnvoll in die eigene Patientenakte integriert und weiterverarbeitet werden können. In Kapitel 11 werden unterstützende Terminologiestandards und Kommunikationsstandards betrachtet. So kann ein sendendes System eine Nachricht dem HL7-Standard gemäß generieren, und das empfangende System kann diese Daten im Krankenhausinformationssystem weiterverarbeiten. Mit der Clinical Document Architecture (CDA) (Kapitel 11) können auch klinische Dokumente stärker strukturiert und in einer HL7-Nachricht verschickt werden. Für die Entwicklung von elektronischen Patientenakten sind darüber hinausgehend auch Standards relevant, welche die Entwicklung von EPA-Systemen unterstützen. Diese werden in den folgenden drei Unterkapiteln angesprochen.
3.5.1 Zwei-Ebenen-Modellierung für EPA-Systeme Nachdem die medizinischen Daten in einer elektronischen Patientenakte sehr umfangreich sind und sich über die Jahre hinweg auch ändern können, wurde ein Konzept der Zwei-Ebenen-Modellierung für die Architektur von EPA-Systemen etabliert. Auf der ersten Ebene wird ein Datenmodell als Referenz für die Implementierung von EPA-Systemen entworfen, die in der Lage sind, Patientenakten zu verwalten, zu speichern, anzuzeigen und Teile davon oder auch ganze Akten mit anderen Systemen auszutauschen. In dem Referenzdatenmodell werden jedoch keine klinischen Informationen modelliert, sondern rein abstrakte Container definiert wie Einträge, Ordner, Ver-
78 | Petra Knaup-Gregori
bund (composition) etc. Die klinischen Daten, die in der Patientenakte erfasst werden sollen, werden auf der zweiten Ebene, den sogenannten Archetypen modelliert. Archetypen sind Referenzinformationsmodelle, die für abgegrenzte medizinische Bereiche (so genannte Konzepte) vorgeben, welche Informationen erfasst werden sollen.
Archetypen sind Maximaldatensätze, die Informationen für alle denkbaren Dokumentationen zu einem Konzept bereitstellen können. Beispielsweise wird in einem Archetyp für das Konzept Blutdruck definiert, dass ein systolischer und ein diastolischer Wert erhoben werden sollen, welche Ausprägung diese Werte haben können und in welcher Einheit sie erfasst werden. Außerdem enthält er Informationen, ob ein Patient bei der Messung gesessen, gelegen oder gestanden hat sowie welche Mess-Manschette angelegt wurde. Bei einem üblichen Arztbesuch werden diese Informationen meistens nicht erfasst, da es hier ein Standardvorgehen in der Arztpraxis gibt. Weitere Archetypen gibt es für Diagnose, Medikation und viele andere mehr. EPA-Systeme, die gemäß dem Referenzdatenmodell entwickelt wurden, können Archetypen verarbeiten. Die Archetypen sind somit in keinem Datenbankschema festgeschrieben, sondern werden erst zur Laufzeit eingelesen. Des Weiteren ist ein EPA-System, das gemäß der Zwei-Ebenen-Modellierung entwickelt wurde, unabhängig davon, ob sich Wissen und Informationsbedarf in der Medizin ändern oder nicht. Das EPA-System verändert sich nicht, auch wenn neue medizinische Erkenntnisse die Speicherung neuer Merkmalsarten erforderlich machen. In diesem Fall müssen lediglich neue Archetypen eingelesen und den bereits dokumentierten Daten zugeordnet werden. Die Zwei-Ebenen-Modellierung wird gerne mit Lego-Bausteinen veranschaulicht. Das Referenzdatenmodell gibt vor, welche Arten von Lego-Bausteinen es gibt (Farbe, Größe, Form) und die Archetypen stellen eine Bauanleitung dar, wie aus den Bausteinen ein bestimmtes Objekt sinnvoll gebaut werden kann. Archetypbasierte EPA-Systeme implementieren das Referenzdatenmodell und müssen in der Lage sein, Archetypen zu interpretieren. Diese technische Implementierung kann von System zu System variieren. Informationssysteme, welche dieselben Archetypen nutzen, sind semantisch interoperabel, auch wenn Sie technisch gesehen ganz unterschiedlich implementiert wurden. Damit können Daten aus verschiedenen EPA-Systemen zusammengeführt und gemeinsam ausgewertet werden. Zwei Beispiele mit Umsetzung der Zwei-Ebenen-Modellierung sind openEHR und die europäische Norm EN 13606. Beide werden im Folgenden kurz beschrieben (Abb. 3.3). openEHR bietet Spezifikationen für ein vollständiges EPA-System, die EN 13606 nur für die Teile, die den Austausch von Daten aus elektronischen Patientenakten betreffen.
3 Patientenakten | 79
Zwei-Ebenen-Modellierung Referenzdatenmodell Archetypen
Beispiele openEHR
EN13606
Abb. 3.3: Bestandteile und Beispiele der Zwei-Ebe nen-Modellierung von Patientenakten. Bei den zwei Ebenen der Modellierung handelt es sich um das Re ferenzdatenmodell und die Archetypen. Beispiele für Ansätze, die die Zwei-Ebenen-Modellierung umset zen, sind openEHR und die EN13606.
3.5.2 openEHR als Beispiel der Zwei-Ebenen-Modellierung für EPA-Systeme openEHR ist eine Non-Profit-Organisation, die Spezifikationen für EPA-Systeme gemäß der Zwei-Ebenen-Modellierung bereitstellt. Das openEHR-Referenzdatenmodell setzt Anforderungen an die Architektur von EPA-Systemen vollständig um. Für die Entwicklung von Archetypen stellt openEHR eine Sprache zur Verfügung – die Archetype Definition Language (ADL). Weiterhin stellt openEHR für die Entwicklung von Archetypen auch ein Werkzeug namens Archetype Designer mit einer graphischen Benutzungsoberfläche bereit. Dieses ist in der Lage, die Archetyp-Definition gemäß ADL automatisch zu generieren. openEHR stellt auch den Clinical Knowledge Manager (CKM) als Archetypen-Repository online zur Verfügung. Im CKM werden verschiedene Archetypen zu medizinischen Konzepten bereitgestellt, die frei eingesehen und zur Nutzung in archetypbasierte Informationssysteme geladen werden können. Nachdem Archetypen Maximaldatensätze darstellen, müssen für eine konkrete Patientenakte gar nicht alle Merkmalsarten erhoben werden, die in dem Archetyp spezifiziert sind. Auch müssen nicht alle Merkmalsarten eines Archetyps vollständig auf einem Formular erfasst werden, sondern können auf mehrere Formulare verteilt werden. Außerdem kann ein Formular mit Merkmalsarten aus verschiedenen Archetypen gefüllt sein. Damit Anwender des EPA-Systems sich geeignete Formulare zusammenstellen können, bietet openEHR sogenannte Templates und einen Template-Designer an. Mit diesem können Merkmalsarten aus Archetypen ausgewählt und zu einem Bildschirmformular zusammenfasst werden.
3.5.3 EN ISO 13606 als Beispiel der Zwei-Ebenen-Modellierung für EPA-Systeme Die EN ISO 13606 heißt mit vollständigem Namen Health informatics – Electronic health record communication standard und ist ursprünglich eine europäische Norm, die mittlerweile auch zu einer ISO-Norm geworden ist. Sie bietet Spezifikationen, die den Austausch von Auszügen aus elektronischen Patientenakten erlauben. Die EN ISO 13606 umfasst aber keine vollständige Spezifikation zur Erstellung, Wartung, Speicherung und Abfrage von Gesundheitsakten. Damit bietet die Norm keine Spezifikationen für ein vollständiges EPA-System. Sie umfasst z. B. auch keine Vorgaben für Versionierung und Workflow-Management. Die
80 | Petra Knaup-Gregori
EN ISO 13606 verfolgt das Prinzip der Zwei-Ebenen-Modellierung und gliedert sich in fünf Teile: – ein Referenzdatenmodell, das ein umfassendes generisches Modell für Auszüge von Patientenakten darstellt, und das abbildbar ist auf HL7 RIM und CDA (Kapitel 11), – eine Spezifikation zum Austausch von Archetypen, die sowohl kompatibel sind mit dem openEHR-Archetypen-Ansatz als auch mit HL7-Template-Spezifikationen, – Archetypen und ein standardisiertes Vokabular, – Maßnahmen für Zugriffskontrolle, Einverständniserklärung und Nachvollziehbarkeit des Austausches von Akten, – Nachrichten und Schnittstellen für Dienste, die den Austausch von Akten und Archetypen ermöglichen.
3.6 Zusammenfassung und Ausblick Die Dokumentation von Merkmalen über den Patienten, über Entscheidungen bezüglich Diagnose und Therapie sowie über Befunde und Verläufe ist eine wichtige Grundlage für die Versorgung eines Patienten. Diese Informationen werden in Patientenakten gesammelt und über gesetzlich geregelte Zeiträume aufbewahrt. Die Aufbewahrung, Zugänglichkeit und Verwaltung von Patientenakten ist eine Aufgabe, die von der Medizinischen Informatik effizient unterstützt werden kann. Durch elektronische Patientenakten wird versucht, den Aufwand zu senken und die Effizienz zu steigern. Durch die gestiegene Spezialisierung in der Medizin werden Patienten bei einem Krankheitsfall häufig auch von mehreren Ärzten behandelt, sodass einrichtungsübergreifende Patientenakten die Versorgung unterstützen können. Die hohe Mobilität der Bevölkerung motiviert auch eine einrichtungsunabhängige Gesundheitsakte. Durch den Einsatz von einrichtungsunabhängigen und einrichtungsübergreifenden Patientenakten könnte besonders die mehrfache Erfassung von Daten und die wiederholte Durchführung von Untersuchungen vermieden werden. Trotz dieses Potenzials haben sie sich bis im Jahr 2015 noch nicht durchgesetzt. Insbesondere für die Nutzung von Gesundheitsakten hat sich noch kein Markt entwickelt. Auch einrichtungsübergreifende Patientenakten werden zumeist nur in Modellprojekten betrieben, deren Nachhaltigkeit noch zu zeigen ist. So sind Patientenakten auch heute noch zu einem großen Teil dokumentenbasiert. Wirkliche Fortschritte bei einem sinnvollen einrichtungsübergreifenden Austausch von Gesundheitsdaten bis hin zu einer multiplen Verwendung von Daten im Gesundheitswesen können nur dann erzielt werden, wenn Merkmale von Patienten stärker strukturiert erfasst und unter Einigung auf ihre semantische Bedeutung gespeichert und übermittelt werden. Aufgrund des hohen Umfangs der medizinischen Begriffe erweist sich dies seit Jahrzehnten als schwierig. Neuerungsansätze sind z. B. SNOMED-CT (Kapitel 11) und die Zwei-Ebenen-Modellierung (Kapitel 3.5.1).
3 Patientenakten | 81
Nach wie vor schwierig ist, wenn für die verschiedenen Arten von Patientenakten keine einheitliche Bezeichnungen verwendet werden. Dieses Phänomen wurde auch schon als babylonische Begriffsverwirrung bezeichnet [Prokosch 2001] und beschränkt sich nicht auf den deutschen Sprachgebrauch. Zur Einführung von Patientenakten sind weitere, in anderen Kapiteln des Buches detailliert beschriebene Aspekte relevant. So bieten Krankenhausinformationssysteme (Kapitel 2) die Funktionalität für die Verwaltung von und den Zugriff auf elektronische Patientenakten. Zur Realisierung von elektronischen Patientenakten und insbesondere zur Realisierung des Austauschs der Daten in elektronischen Patientenakten sind Standards wichtig (Kapitel 11). Dabei sind immer auch Aspekte des Datenschutzes von Bedeutung (Kapitel 12). Das gilt insbesondere für den Einsatz von Daten aus Patientenakten in der klinischen Forschung (Kapitel 4).
Dank Die Autorin dankt den Mitarbeitern des Verlages Walter de Gruyter sehr herzlich für die Unterstützung bei der Aufbereitung des Kapitels.
Quellenverzeichnis Blum, K.; Müller, U.: Dokumentationsaufwand im Ärztlichen Dienst der Krankenhäuser. Hrsg.: Deut sches Krankenhausinstitut e. V., Bd. 11, Düsseldorf 2003: Deutsche Krankenhaus Verlagsge sellschaft mbH. Haas, P.: Medizinische Informationssysteme und Elektronische Krankenakten. Heidelberg: Springer (2005). Health Leven Seven: HL7 EHR System Functional Model: A Major Development Towards Consensus on Electronic Health Record System Functionality. Health Level Seven, ®Inc. (2004). Down load unter http://www.hl7.org/documentcenter/public/wg/ehr/EHR-SWhitePaper.pdf, Stand 13. 10. 2013. Prokosch, H. U.: KAS, KIS, EKA, EPA, EGA, E-Health: – Ein Plädoyer gegen die babylonische Begriffs verwirrung in der Medizinischen Informatik. Informatik, Biometrie und Epidemiologie in Medi zin undBiologie 32, 2 (2001) 371–382.
Verzeichnis weiterführender Literatur Häyrinen, K.; Saranto, K.; Nykanen, P.: Definition, structure, content, use and impacts of electronic health records: A review of the research literature. Int J Med Inform. 77, 5 (Mai 2008) 291–304. Leiner, F.; Gaus, W.; Haux, R.; Knaup-Gregori, P.; Pfeiffer, K.-P.; Wagner, J.: Medizinische Dokumen tation: Grundlagen einer qualitätsgesicherten integrierten Krankenversorgung Lehrbuch und Leitfaden. 6. Auflage. Stuttgart: Schattauer 2012.
82 | Petra Knaup-Gregori
Schmücker, P.; Dujat, C.; Seidel, C.: GMDS-Praxisleitfaden Dokumentenmanagement, digitale Archi vierung und elektronische Signaturen im Gesundheitswesen. Dietzenbach: Antares 2012. Shabo, A.: A global socio-economic-medico-legal model for the sustainability of longitudinal elec tronic health records. Part 1. Methods Inf Med, 45, 3 (2006) 240–245. Shabo, A.: A Global Socio-economic-medico-legal Model for the Sustainability of Longitudinal Elec tronic Health Records – Part 2. Methods Inf Med, 45, 5 (2006) 498–505. Shortliffe, E. H.: The evolution of electronic medical records. Acad Med, 74, 4 (1999) 414–419. Winter, A.; Haux, R.; Ammenwerth, E.; Brigl, B.; Hellrung, N.; Jahn, F.: Health Information Systems: Architectures and Strategies. New York: Springer 2011.
Standards EN ISO 13606 Health informatics – Electronic health record communication standard
Testfragen 1. Nennen Sie die Vor- und Nachteile von Patientenakten auf jeder der vier beschriebenen Entwick lungsstufen! 2. Welche organisatorischen Maßnahmen sind für die Ablage von Akten in einem konventionellen Archiv zu treffen? 3. Welche generellen technischen Konzepte zur Umsetzung von einrichtungsübergreifenden Pati entenakten gibt es? 4. Recherchieren Sie im Internet nach Artikeln, die sich mit dem Thema Patientenakte oder Gesund heitsakte befassen und versuchen Sie, die dort beschriebenen Akten gemäß den beschriebenen Entwicklungsstufen einzuordnen! 5. Wie lange müssen klinische Dokumente im deutschen Gesundheitswesen aufbewahrt werden? Welche gesetzlichen Regelungen kennen Sie? 6. Welches sind die Vorteile einer Zwei-Ebenen-Modellierung von EHR-Systemen?
Hans-Ulrich Prokosch
4 IT für die medizinische Forschung 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8
Einleitung | 84 Grundlegende Begriffe im Kontext der medizinischen Forschung | 85 Institutionen im Umfeld der medizinischen Forschung | 90 Datenmanagement in Studien und für Register | 94 Datenschutz in der medizinischen Forschung | 97 Beispiele für IT-Anwendungen in der medizinischen Forschung | 98 Die CDISC-Standards für die medizinische Forschung | 110 Ausblick | 111
Zusammenfassung: In der medizinischen Forschung wird heutzutage eine so enorm große Menge an Daten generiert, dass alle Bereiche von der Grundlagenforschung bis zur klinischen und epidemiologischen Forschung durch Informationstechnik unterstützt werden müssen. Beispiele sind die elektronische Datenerfassung für klinische Studien und die Verwaltung von Proben aus menschlichen Körpersubstanzen in Biobanken. Durch die Wiederverwendung von Daten, die in der Routineversorgung in elektronischen Krankenaktensystemen gespeichert wurden, für die klinische Forschung, verspricht man sich eine höhere Effizienz in den Forschungsprozessen. Dem Datenschutz kommt auch im Forschungskontext eine besondere Bedeutung zu. Wichtige Standards zur Speicherung und Kommunikation von Forschungsdaten werden von dem Clinical Data Interchange Standards Consortium (CDISC) erarbeitet. Abstract: As an enormous amount of data is processed in all areas of medical research, medical informatics methods and tools are necessary for clinical and epidemiologic research as well as basic science. Examples are electronic data capture for clinical trials or the management of samples in biobanks. Using data from patient care directly for clinical research without re-entering can lead to more efficient processes. In addition, data protection has become an important topic and finally standards for the storage and communication of medical research data, developed by the Clinical Data Interchange Standards Consortium (CDISC), are important to ensure data interoperability.
84 | Hans-Ulrich Prokosch
4.1 Einleitung Die medizinische Forschung lässt sich unterteilen in die Bereiche medizinische Grundlagenforschung, translationale medizinische Forschung, klinische Forschung und epidemiologische Forschung. Sie hat das Ziel, die Erkenntnislage über anatomische, physiologische, biochemische, molekulare und genetische Grundlagen der menschlichen Gesundheit kontinuierlich zu verbessern. Dazu sollen Zusammenhänge zwischen umweltbedingten Faktoren, menschlichem Verhalten und auftretenden Gesundheitseinschränkungen erkannt, sowie diagnostische und therapeutische Konzepte und Produkte weiterentwickelt werden. Es ist ein langer und zeitaufwändiger Weg vom Verständnis genetischer, molekularer, biochemischer, anatomischer oder physiologischer Zusammenhänge im Rahmen der medizinischen Grundlagenforschung über die Entwicklung einer therapeutischen Substanz mit Nachweis seiner Wirksamkeit bis hin zur Messung der Lebensqualität beim behandelten Patienten. Im Unterschied zur klinischen Forschung, welche in der Literatur oft nur auf Arzneimittelforschung reduziert wird, ist die medizinische Grundlagenforschung weder wirtschafts- noch anwendungsorientiert. Mit dem Ziel, das allgemeine medizinische und naturwissenschaftliche Wissen zu vermehren, erfolgt sie typischerweise im Labor in Tiermodellen oder mittels in-vitro-Modellen, bei denen Wissenschaftler sich auf molekularer oder zellulärer Ebene mit Krankheiten befassen, um die biologischen Abläufe vom Gen zum Protein und zur phänotypischen Ausprägung und medizinischen Symptomatik besser zu verstehen (Kapitel 7). Im Rahmen translationaler medizinischer Forschung versucht man, Erkenntnisse dieser grundlagenorientierten Forschung möglichst schnell durch klinische Studien für Patienten unmittelbar nutzbar zu machen. Translationale Forschung wird daher oft mit dem Begriff from bench to bedside (vom Labortisch zum Krankenbett) assoziiert und als wichtige Schnittstelle zwischen präklinischer und klinischer Forschung bezeichnet. Umgekehrt sollen aber auch klinische Beobachtungen als Anregung und Rückkoppelung wieder in die Grundlagenforschung einfließen. Für eine erfolgreiche translationale Forschung ist somit die Expertise und Zusammenarbeit vieler unterschiedlicher Spezialisten erforderlich. Vor diesem Hintergrund liegen die Schwerpunkte dieses Kapitels auf den verschiedenen Varianten der medizinischen Forschung (Kapitel 4.2), den relevanten Institutionen (Kapitel 4.3) sowie den Aufgabenstellungen des Datenmanagements, des Monitorings, des Qualitätsmanagements und der Pharmakovigilanz, welche für die Durchführung von Studien bzw. den Aufbau von Registern von großer Relevanz sind (Kapitel 4.4). Für den Umgang mit sensiblen patientenbezogenen Daten im Forschungskontext ist die Berücksichtigung der Datenschutzvorgaben von entscheidender Bedeutung und mit einem eigenen Kapitel berücksichtigt (Kapitel 4.5) Nach der Beschreibung aller relevanten Rahmenbedingungen bildet die Darstellung verschiedener Beispiele für IT-Anwendungen in der medizinischen Forschung in Kapitel 4.6 den Schwerpunkt. Abschließend werden in Kapitel 4.7 die wichtigsten Standards für die medizinische Forschung vorgestellt.
4 IT für die medizinische Forschung
– –
–
– – – –
|
85
Das vorliegende Kapitel soll einführen in: verschiedene Varianten der medizinischen Forschung (klinische Studien, epidemiologische Studien, Kohortenstudien sowie Register), die Rolle und Bedeutung der Kompetenznetze in der Medizin, der Koordinierungszentren für Klinische Studien (KKS), der Comprehensive Cancer Center (CCC) und weiterer wichtiger Einrichtungen für die medizinische Forschung, die Bedeutung des Datenschutzes für die medizinische Forschung, die Konzepte der Anonymisierung und Pseudonymisierung, den Begriff der k-Anonymität sowie Konzepte zur Trennung zwischen informationeller Macht und dem Identitätsmanagement, Grundfunktionalitäten eines Electronic-Data-Capture-Systems zur Unterstützung der Datenhaltung und des Datenmanagements bei Studien und in Registern, den Grundgedanken des Single-Source-Konzeptes, das Konzept des Biobanking und insbesondere die Aufgaben von IT-Anwendungen zu dessen Unterstützung, die wichtigsten Standards zur Speicherung und Kommunikation von Forschungsdaten (CDISC) sowie deren Einsatzgebiet.
4.2 Grundlegende Begriffe im Kontext der medizinischen Forschung 4.2.1 Klinische Arzneimittelstudien
Als klinische Studie (auch klinische Prüfung) wird eine Untersuchung bezeichnet, die mit Pati enten oder gesunden Probanden durchgeführt wird, um Behandlungsformen bzw. medizinische Interventionen weiter zu entwickeln oder völlig neue Behandlungsformen auf ihre Wirksamkeit und Sicherheit zu überprüfen. Ziel ist es, die medizinische Behandlung zukünftiger Patienten zu verbessern. Eine Behandlung kann ein Medikament, ein medizinisches Gerät oder ein neuer The rapieansatz sein.
Eine klinische Studie kann erst dann durchgeführt werden, wenn ausreichend Daten zur Sicherheit der neuen Behandlungsform vorhanden sind und ein positives Votum der betroffenen Ethikkommission vorliegt. Die erheblichen Kosten klinischer Studien werden von Sponsoren übernommen, die aus unterschiedlichen Motiven Interessen mit einer Studie verbinden. Hierzu zählen langfristige ökonomische Vorteile bei der Vermarktung neuer Produkte für die Pharmaindustrie, der medizinische Erkenntnisgewinn, die Verbesserung der Gesundheitsversorgung sowie die wissenschaftliche Reputation bei Forschungsprojekten, die unmittelbar von naturwissenschaftlich oder medizinisch akademisch tätigen Wissenschaftlern angestoßen werden. Man unterscheidet zwei Formen:
86 | Hans-Ulrich Prokosch
–
–
Auftragsforschungsstudien mit kommerziellem Interesse, bei denen die Gesamtverantwortung (Sponsorfunktion) laut Arzneimittelgesetz (AMG) bei einem pharmazeutischen Unternehmen liegt, Studien, bei denen die Initiative von einem sogenannten Prüfarzt ausgeht, sogenannte Investigator Sponsored Trials (IST) und Investigator Initiated Trials (IIT).
Bei klinischen Studien werden Probanden (Versuchspersonen) zufällig (randomisiert) einer, auf ihre Wirksamkeit zu überprüfenden, ggf. neuen Intervention unterzogen und das Ergebnis dieser Intervention mit Personen verglichen, die diese Intervention nicht erhalten (Kontrollgruppe). Die Entwicklung eines Medikaments wird in sogenannte klinische Phasen unterteilt. Diese Unterteilung in fünf Phasen geht auf den Code of Federal Regulations der US-amerikanischen Behörde Food and Drug Administration (FDA, Kapitel 4.3) zurück.
Die fünf Phasen klinischer Studien Phase 0: prä-klinische Phase Probanden: ca. 10–15 Personen Dauer: Wochen Ziel: Bestimmung der Pharmakokinetik und Pharmakodynamik eines Wirkstoffs, Tests erfolgen mit subtherapeutischen Dosen Phase 1–3 (Zulassungsstudien): Phase 1 Probanden: ca. 20–80 Personen Dauer: Wochen/Monate Ziel: Bestimmung der Pharmakokinetik und Pharmakodynamik eines Wirkstoffs, Prüfung auf Verträg lichkeit und Sicherheit des Wirkstoffs Phase 2 Probanden: ca. 50–200 Personen Dauer: Monate Ziel: Überprüfung des Therapiekonzepts und Findung der geeigneten Therapiedosis Phase 3 Probanden: ca. 200–10 000 Personen Dauer: Monate bis Jahre Ziel: signifikanter Wirkungsnachweis und Marktzulassung der Therapie Phase 4: nach Zulassung Probanden: ab 1 000 bis 1 000 000 Personen Dauer: Jahre Ziel: Studien mit bereits zugelassenen Medikamenten in der zugelassenen Indikation. Werden oft von Zulassungsbehörden verlangt, um sehr seltene Nebenwirkungen zu erkennen, die erst in großen Patientenkollektiven auftreten
4 IT für die medizinische Forschung |
87
Bei der Durchführung einer klinischen Studie müssen international anerkannte, nach ethischen und wissenschaftlichen Gesichtspunkten aufgestellte Regeln beachtet werden (Good Clinical Practice (GCP), Gute Klinische Praxis). Besonderen Wert wird dabei auf den Schutz der Studienteilnehmer, deren informierte Einwilligung (informed consent) sowie die Qualität der Studienergebnisse gelegt. Die Anforderungen an die klinische Prüfung von Medizinprodukten sind im Medizinproduktegesetz analog dem Arzneimittelgesetz aufgebaut. Es handelt sich dabei um geplante systematische Studien an Versuchspersonen, die vorgenommen werden, um die Sicherheit und/oder Leistungsfähigkeit eines bestimmten Medizinprodukts zu überprüfen. Besonderheiten sind umfassend in der Norm ISO 14155 (Clinical investigation of medical devices for human subjects – Good Clinical Practice) und z. B. als Zusammenfassung bei [Volk 2010] beschrieben.
4.2.2 Epidemiologische Studien
Epidemiologie ist die Wissenschaft, die sich mit der Verteilung von Krankheiten, physiologischen Variablen und sozialen Krankheitsfolgen in einer Bevölkerungsgruppe beschäftigt (deskriptive oder beschreibende Epidemiologie, z. B. in Bezug auf regionale Verteilung von Krankheitsauftre ten sowie die zeitliche Entwicklung des Auftretens über Jahre hinweg). Des Weiteren untersucht sie die Faktoren, die diese Verteilung beeinflussen (analytische Epidemiologie).
Die epidemiologische Forschung wird oft gemäß den betrachteten Krankheiten unterteilt (z. B. Infektions-, Herz-Kreislauf- oder Krebsepidemiologie), oder aber nach den untersuchten Einflussfaktoren (z. B. Berufs-, Umwelt-, Strahlen-, Ernährungsoder genetische Epidemiologie). Im Gegensatz zu klinischen Studien sind epidemiologische Studien reine Beobachtungsstudien am Menschen unter realen, durch die Studie nicht veränderten, Umweltbedingungen. Sie liefern unter anderem die Basis für die Abschätzung des Erkrankungsrisikos eines Menschen in einer bestimmten Population. Durch Aussondern aller zuvor bereits Erkrankten bei der Rekrutierung und Verfolgung aller anfangs noch nicht Erkrankten über einen vorgegebenen Zeitraum (z. B. ein Jahr) kann man die Neuerkrankungsrate (Inzidenz) ermitteln. Oft möchte man dabei gleichzeitig auch feststellen, ob es bestimmte Faktoren gibt, die das Auftreten der Krankheit fördern (sogenannte Risikofaktoren). Solche Studien werden meist prospektiv (in die Zukunft blickend) durchgeführt, können aber in geeigneten Fällen auch mit zurückverlegtem Beobachtungsbeginn retrospektiv (zurück schauend) durchgeführt werden. Eine prospektive Studie erfolgt in einer ausgewählten und für die Studie rekrutierten Personen gruppe und wird über einen vorab definierten zukünftigen Zeitraum durchgeführt.
88 | Hans-Ulrich Prokosch
In einer retrospektiven Studie wird eine zu betrachtende Population anhand bestimmter zu un tersuchender Merkmale und Ergebnisse ausgewählt. Dabei wird versucht, anhand vorliegender Daten z. B. die Wirksamkeit eines medizinischen Behandlungsverfahrens zu bestimmen oder Ein flussgrößen, die zu einer Erkrankung geführt haben, empirisch herauszuarbeiten.
Bei Querschnittsstudien (cross-sectional studies) wird jeder Teilnehmer aus einer repräsentativen Stichprobe der interessierenden Grundgesamtheit nur genau einmal untersucht oder befragt. Dabei kommt man sowohl zu einer Aussage bezüglich der Erkrankungshäufigkeit (Prävalenz), als auch zu Erkenntnissen über die Assoziation von Erkrankungsstatus und bestimmten, gleichzeitig erfassten Expositionen. Es lassen sich somit erste Hypothesen zum Zusammenhang zwischen Erkrankung und Exposition aufstellen. Die Kohortenstudie oder Längsschnittstudie ist eine der wichtigsten epidemiologischen Studienformen, bei der eine Kohorte von Personen mit gemeinsamem Merkmal (z. B. Zugehörigkeit zu einem Betrieb oder Beruf, Einwohner eines bestimmten Gebietes oder Ortes, in einem bestimmten Jahr geboren, oder das Auftreten eines bestimmten medizinischen Ereignisses annähernd zum selben Zeitpunkt) über einen gewissen Zeitraum nach der initialen Rekrutierung verfolgt wird. Kohortenstudien stellen eine spezielle Form einer prospektiven oder retrospektiven Längsschnitt studie bei der bestimmte Untersuchungen/Befragungen bei allen Personen einer ausgewählten Bevölkerungsstichprobe (der sogenannten Kohorte) zu vordefinierten Zeitpunkten im Abstand zur Ersterhebung wiederholt durchgeführt werden. Es werden zwei Formen von Kohortenstudien unterschieden: Im Intra-Kohortenvergleich wird die zeitliche Entwicklung bestimmter Merkmale innerhalb einer Kohorte untersucht, beim Inter-Kohortenvergleich werden dagegen bestimmte Merkmale der Mitglieder verschiedener Kohorten miteinander verglichen.
Das wohl bekannteste Beispiel für eine Kohortenstudie ist die auch heute noch aktuelle, sogenannte Framingham-Studie. In dieser wurden alle Personen, die zu Beginn der Studie (1948) zwischen 30 und 60 Jahre waren und in der Stadt Framingham (USA) lebten, über 30 Jahre hinweg alle 2 Jahre nach einem festgelegten Schema untersucht. In Deutschland wurde eine ähnlich große Kohortenstudie als sogenannte Nationale Kohorte initiiert. Als Beispiel einer prospektiven Kohortenstudie wird in diesem Kapitel nachfolgend an verschiedenen Stellen auf die GCKD-Studie Bezug genommen, welche deshalb an dieser Stelle kurz vorgestellt wird.
German Chronic Kidney Disease (GCKD)-Studie: Im Rahmen der GCKD-Studie wurde eine umfassende deutsche Kohorte von Patienten mit einer Nierenfunktionseinschränkung mittleren Schweregrades etabliert. Die 5 000 Patienten werden über einen Zeitraum von bis zu 10 Jahren in zweijährigen Abständen untersucht. Ziel der Studie ist es, durch Analyse der gewonnenen Daten, die Ursachen, Einflussfaktoren und Konsequenzen einer pro
4 IT für die medizinische Forschung
|
89
gredienten Nierenerkrankung besser zu verstehen, um neue Ansätze für Prävention, Verlaufskontrolle und Therapie entwickeln zu können. Für die Teilnahme an der GCKD-Studie kommen Personen in Frage, die folgende Einschluss kriterien erfüllen: Alter 18–74 Jahre und chronische Niereninsuffizienz (entweder eGFR = 30...60 ml/min, bezogen auf 1,73 m2 Körperoberfläche oder Albuminurie > 300 mg/g Kreatinin). Von den eingeschlossenen Patienten werden in regelmäßigen Abständen biologische Materialien (Serum, Urin, DNA) gewonnen, aufbewahrt und zu späteren Zeitpunkten mit modernsten Analyseverfahren untersucht.
4.2.3 Klinische und epidemiologische Register Der Aufbau klinischer Register wird oft von medizinischen Fachgesellschaften oder Qualitätssicherungsinstitutionen initiiert. Ziel ist es, Aussagen hinsichtlich der klinischen Prozess- und Ergebnisqualität bei bestimmten Krankheitsbildern treffen und Verbesserungsmaßnahmen für die Versorgung ableiten zu können. Solche Register werden heute häufig als Internet-basierte Datenbanken mit retro- oder prospektiver Datenerfassung etabliert. Sie sollen unter anderem der Implementierung und Überprüfung von Leitlinien und ihrer Wirksamkeit in bestimmten Patientenpopulationen dienen. Entsprechende Register wurden insbesondere für Tumorerkrankungen schon vor vielen Jahren etabliert. Ein klinisches Krebsregister verfolgt z. B. das Ziel, auf der Basis einer systematischen Erhebung eines deutschlandweit abgestimmten Merkmalskatalogs (ADT-Datensatz; ADT = Arbeitsgemeinschaft Deutscher Tumorzentren e. V.) Langzeitdaten zu Erstauftreten, Anamnese, Diagnostik, Therapie, Verlauf und Nachsorge von Patienten mit Tumorerkrankungen in einer Datenbank zu speichern. Durch die regelmäßige Auswertung dieser Daten sollen Erkenntnisse gewonnen werden, die zur verbesserten Behandlung von Tumorpatienten führen. Fragestellungen, die zu diesem Zweck verfolgt werden, dienen z. B. dem Vergleich von Therapien („Welche Therapie ist bei welchem Krankheitsstadium am besten geeignet?“). Durch ihre enge Interaktion mit den klinischen Einrichtungen zur Versorgung von Tumorpatienten können klinische Krebsregister auch die Optimierung der individuellen Betreuung unterstützen. Über eine Erinnerung von Patienten an anstehende Termine, kann beispielsweise sichergestellt werden, dass Nachsorge-Untersuchungen gemäß den jeweiligen Leitlinien in regelmäßigen Zeitabständen erfolgen. Neben den klinischen Krebsregistern gibt es auch epidemiologische Krebsregister, welche das Auftreten von Tumorerkrankungen deutschlandweit beobachten, um beispielsweise Aussagen zu regionalen Häufungen von Tumorerkrankungen treffen zu können. Gleichzeitig wird die zeitliche Entwicklung des Auftretens von Tumorerkrankungen verfolgt (zeitliches und räumliches Monitoring). Durch die frühzeitige Erkennung regionaler oder zeitlicher Häufungen von Erkrankungen sowie das Aufzeigen von Zusammenhängen mit potentiellen Einflussfaktoren sollen der Gesundheitspolitik statistisch gesicherte Daten zur Veranlassung steuernder Maßnahmen gelie-
90 | Hans-Ulrich Prokosch
fert werden. In Deutschland ist die epidemiologische Krebsregistrierung in Landesgesetzen geregelt. Der Ausbau der einzelnen Register ist in den verschiedenen Bundesländern unterschiedlich weit fortgeschritten. Einige Länderregister haben bereits eine vollzählige Registrierung erreicht, andere erreichen diese für einzelne Erkrankungen wie z. B. Brustkrebs. Alle epidemiologischen Landeskrebsregister übermitteln ihre anonymisierten Daten in regelmäßigen Abständen an das Robert Koch-Institut (RKI), welches wiederum aufsetzend auf diesen deutschlandweiten Daten regelmäßig die Publikation „Krebs in Deutschland“ herausgibt und darin über die Entwicklung und aktuelle Situation von Tumorerkrankungen in Deutschland informiert. Im günstigen Falle arbeiten klinische und epidemiologische Krebsregister sehr eng zusammen, sodass Ärzte ihre Behandlungsdaten nur einmal an ein klinisches Register melden müssen und diese ihre Daten dann an ein epidemiologisches Register weiterleiten. Das 2013 in Kraft getretene Krebsregistergesetz verfolgt dieses Ziel. Damit die Auswertungen klinischer und epidemiologischer Register wirklich gute Ergebnisse liefern können, müssen deren Datenbestände gewisse Qualitätskriterien erfüllen. Es müssen zum einen mindestens 90 % (besser 95 %) aller Neuerkrankungen der betreffenden Registerregion auch gemeldet und dokumentiert sein (Vollzähligkeit). Zum anderen ist es wichtig, auch den gesamten Erkrankungsverlauf auf der Basis eines in der Regel vordefinierten Merkmalsatzes vollständig zu erfassen und möglichst wenig „fehlende Werte“ zu haben (Vollständigkeit). Eine der wichtigsten Aufgaben klinischer Krebsregister ist die Berechnung von Überlebensraten für Tumorpatienten. Dazu ist es erforderlich, über den Erfolg einer Tumortherapie möglichst lange nach deren Durchführung noch Daten zu dokumentieren. Insbesondere im Todesfall von Patienten ist es wichtig, ob der Tod durch die Krebserkrankung bedingt war oder eine andere Todesursache vorlag.
4.3 Institutionen im Umfeld der medizinischen Forschung Im Bereich der medizinischen Forschung spielen verschiedene nationale und internationale Institutionen eine wichtige Rolle (Tab. 4.1). Nachfolgend werden deshalb die bekanntesten Institutionen bzw. Forschungsverbünde kurz vorgestellt und deren wichtigste Beiträge zur medizinischen Forschung, vor allem auch im Hinblick auf ITEntwicklungen, erläutert. Diese Übersicht ist allerdings nur beispielhaft zu verstehen und erhebt keinerlei Anspruch auf Vollständigkeit. Um innovative, multidisziplinäre und standortübergreifende Gesundheitsforschung auf höchstem Niveau zu ermöglichen, werden vom Bundesministerium für Bildung und Forschung (BMBF) seit 1999 die sogenannten Kompetenznetze in der Medizin gefördert. Diese fokussieren jeweils auf ein bestimmtes Krankheitsbild und haben es sich zum Ziel gesetzt, Grundlagenforschung, klinische Studien und Krankheitsregister überregional zu etablieren. Im Jahr 2015 werden 17 Kompetenznetze zu verschiedenen Krankheitsbildern gefördert [BMBF 2015].
4 IT für die medizinische Forschung
|
91
Tab. 4.1: Übersicht zu Einrichtungen im Umfeld der medizinischen Forschung. Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) Comprehensive Cancer Center (CCC) European Medicines Agency (EMA) U.S. Food and Drug Administration (FDA) Kompetenznetze in der Medizin Koordinierungszentrum für Klinische Studien (KKS) Technologie- und Methodenplattform für die vernetzte medizinische Forschung (TMF)
http://www.bfarm.de/DE/BfArM/BfArM-node.html http://www.krebshilfe.de/spitzenzentren.html http://www.ema.europa.eu/ http://www.fda.gov/ http://www.accessdata.fda.gov/scripts/cdrh/cfdocs/cfcfr/ CFRSearch.cfm?CFRPart=11 http://www.kompetenznetze-medizin.de/ http://www.kks-netzwerk.de/ http://www.tmf-ev.de/Ueber_uns/Infomaterial.aspx http://www.tmf-ev.de/Arbeitsgruppen_Foren/AGITQM.aspx
Um standortbezogen die Kompetenzen und Ressourcen zur Durchführung klinischer Studien zu bündeln und zu optimieren, wurde von 1999 bis 2009 ebenfalls die Etablierung von Koordinierungszentren für Klinische Studien (KKS) als akademische Wissenschaftsdienstleister zentral an medizinischen Fakultäten bzw. Universitätskliniken gefördert. Ein KKS stellt personelle und logistische Ressourcen vor Ort zur Verfügung, um klinische Studien nach international anerkannten Qualitätsstandards (GCP-konform) zu planen, durchzuführen und auszuwerten. An vielen Standorten stellen die KKS auch zentrale IT-Komponenten zur Studienunterstützung zur Verfügung. Die einzelnen Koordinierungszentren sind im KKS-Netzwerk zusammengeschlossen und meist auch Mitglieder in der TMF (Technologie- und Methodenplattform für die vernetzte medizinische Forschung e. V.). Wichtige Ziele bei der Etablierung eines sogenannten Comprehensive Cancer Center (CCC) sind die interdisziplinäre Zusammenarbeit (z. B. in Tumorkonferenzen), eine einrichtungsweit standardisierte und qualitätsgesicherte Diagnostik und Therapie, sowie eine starke klinische und translationale Forschung. Letzteres soll dafür Sorge tragen, dass Forschungsergebnisse aus der Grundlagenforschung den Krebspatienten in Deutschland schneller zugutekommen. Konzepte zur professionellen, integrierten IT-Unterstützung für Krankenversorgung und Forschung, insbesondere auch für das Biobanking (Kapitel 4.6.4) spielen hierbei eine wichtige Rolle. Die Förderung derartiger CCC als Onkologisches Spitzenzentrum wurde 2007 erstmals durch die Deutsche Krebshilfe etabliert. Historisch waren amerikanische CCC bereits in den 1970er Jahren Vorbild für deutsche Tumorzentren, seit 2004 wurde dieses Konzept nach US-amerikanischem Vorbild verstärkt in Deutschland aufgegriffen.
92 | Hans-Ulrich Prokosch
CCC Erlangen Das Universitätsklinikum Erlangen wurde von der deutschen Krebshilfe 2009 als Onkologisches Spit zenzentrum ausgezeichnet. Vorarbeiten zum Aufbau einer professionellen IT-Infrastruktur für dieses CCC begannen bereits 2007. Die wichtigsten in 2015 etablierten IT-Kernkomponenten sind: – eine umfassende Tumordokumentation und die standardisierte, strukturierte Planung und Do kumentation von Tumorboards innerhalb der elektronischen Krankenakte, – die Tumorregistrierung inkl. einer automatisierten Datenübernahme aus der elektronischen Pa tientenakte (EPA) in das Tumordokumentationssystem des klinischen Krebsregisters, – eine kommerzielle, GCP-zertifizierte, webbasierte Studien-Datenbank (RDE-System, Remote Da ta Entry), – ein kommerzielles Biobank-Managementsystem, – die Open-Source-Softwaresuite i2b2 als klinisches Data Warehouse und Integrationsplattform zur benutzerfreundlichen Recherche nach Patientenpopulationen für neue Forschungsprojekte. – ein standortbezogenes Studienregister, in dem alle an der Erlanger Medizinischen Fakultät initi ierten Studien und ihr jeweiliger Status verwaltet werden. Der Gesamtansatz folgt dem Grundgedanken der Wiederverwendung von einmal in der elektronischen Patientenakte dokumentierten Daten für die klinische/translationale Forschung.
Medizinische Forschung wird national und international zunehmend in Verbünden durchgeführt. Bei der Arbeit an verteilten Standorten mit notwendigem Austausch von Daten und Informationen ergeben sich organisatorische, rechtliche und technologische Probleme und Herausforderungen, für die nicht immer kommerzielle Lösungen verfügbar sind. Da sich viele dieser Fragestellungen unabhängig vom klinischen Gebiet oder der Forschungsrichtung grundsätzlich klären lassen, wurde die Technologie- und Methodenplattform für die vernetzte medizinische Forschung e. V. (TMF) ins Leben gerufen. Ihr Hauptziel ist es, die Organisation und Infrastruktur für die vernetzte medizinische (d. h. klinische, epidemiologische und translationale) Forschung in Deutschland zu verbessern. Projekte und Produkte der TMF beschäftigen sich mit Rahmenbedingungen und IT-Infrastrukturkomponenten für die patientenorientierte medizinische Forschung. Das reicht vom Qualitätsmanagement über Biobanken bis hin zu Fragen des Netzwerkmanagements und der Öffentlichkeitsarbeit. Ein entscheidender Faktor für den Erfolg der Arbeit in der TMF ist die rege Aktivität ihrer Mitglieder in den themenspezifischen Arbeitsgruppen (z. B. Arbeitsgruppe IT-Infrastruktur und Qualitätsmanagement). Zur Unterstützung der medizinischen Forschung mittels professioneller IT-Lösungen werden Forschungsprozesse zunächst analysiert, harmonisiert und modelliert, um eine ideale Abbildung durch Software zu ermöglichen. Daraus entstanden z. B. generische Datenschutzkonzepte und Werkzeuge, mit deren Hilfe datenschutzgerechte Lösungen auf Basis zeitgemäßer kryptographischer Pseudonymisierungstechniken umgesetzt werden können (Kapitel 12). Weitere über die TMF verfügbare Dienste sind ein Werkzeugkasten für die standardisierte Aufbereitung und automatisierte Auswertung von Daten aus klinischen Studien auf der Basis des CDISC-Standards (Clinical Data Interchange Standards Consortium, Kapitel 4.7 und Kapitel 11), der Online-Assistent
4 IT für die medizinische Forschung
|
93
Informed Consent, der SDTM-Wandler (Study Data Tabulation Model, ein Format zur Einreichung von Studiendaten bei Behörden) und eine SAE-Software (serious adverse event, Meldung schwerwiegender unerwünschter Arzneimittelwirkungen). Das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) ist eine selbstständige Bundesoberbehörde im Geschäftsbereich des Bundesministeriums für Gesundheit. Seine Aufgabe ist u. a. die Abwehr von Gesundheitsgefahren durch die kontinuierliche Verbesserung der Arzneimittelsicherheit. Ein Schwerpunkt der Arbeit des BfArM ist somit die jeweils auf 5 Jahre befristete Zulassung von Arzneimitteln auf der Grundlage des Arzneimittelgesetzes. Wenn nach der Arzneimittelzulassung bisher nicht bekannte bzw. dokumentierte Nebenwirkungen auftreten, so müssen diese an die Abteilung Pharmakovigilanz des BfArM übermittelt werden. Das BfArM sammelt Berichte zu unerwünschten Arzneimittelwirkungen, bewertet diese und initiiert Maßnahmen zur Risikominimierung. Als europäisches Pendant zum BfArM und anderen landesspezifischen Organisationen dient die European Medicines Agency (EMA) als regulatorische Einrichtung der Europäischen Union zur „wissenschaftlichen Evaluation von Medikamenten“ und hat entsprechende länderübergreifende Aufgaben der Arzneimittelzulassung übernommen. Darüber hinaus gehört zu den Aufgaben des BfArM die Risikobewertung sogenannter Vorkommnismeldungen zu Medizinprodukten. Hierbei handelt es sich um Meldungen zu Ereignissen, die bei bereits zugelassenen Produkten auftreten und bei denen ein Produktmangel als ursächlich für einen Todesfall oder eine schwerwiegende Verschlechterung des Gesundheitszustandes eines Patienten angesehen wird. Kommt das BfArM zu dem Ergebnis, dass aus Sicherheitsgründen Änderungen am Produkt erforderlich sind und veranlasst der Hersteller dies nicht bereits gemäß seiner gesetzlichen eigenen Verantwortung, spricht das BfArM eine Empfehlung an den Hersteller bzw. die für die Überwachung zuständige Landesbehörde aus. Bei den letztgenannten Stellen liegen die gesetzlichen Möglichkeiten, um diese Empfehlungen notfalls anzuordnen und ihre Umsetzung zu überwachen. Generell ergeben sich die Aufgaben des BfArM im Bereich der Medizinprodukte durch das Medizinproduktegesetz (MPG), die Medizinproduktesicherheitsverordnung (MPSV) und die Verordnung über klinische Prüfung von Medizinprodukten (MPKPV). Das amerikanische Pendant zum BfArM ist die U.S. Food and Drug Administration (FDA), eine Einrichtung innerhalb des amerikanischen Department of Health and Human Services. Das FDA Center for Drug Evaluation and Research (CDER) ist verantwortlich für den Schutz der öffentlichen Gesundheit durch die Gewährleistung von Sicherheit (safety und security) und Wirksamkeit (efficacy) von Arzneimitteln, biologischen Produkten und Medizinprodukten. Seit 1991 arbeitet die FDA an der Entwicklung und Fortschreibung von Regeln, die erfüllt werden müssen, wenn die Kommunikation mit der FDA und die Zulassung von neuen Medikamenten nicht mehr in Papierform, sondern in elektronischer Form erfolgt. Dabei wird keine feste Technologie vorgeschrieben, sondern eine Anzahl von Richtlinien gegeben. Ein wichtiger Bestandteil ist hierbei die Dokumentation der Prozesse. Dieses Regelwerk wurde unter
94 | Hans-Ulrich Prokosch
dem Namen „21 CFR Part 11“ (CFR = Code of Federal Regulations) bekannt und enthält die vollständigen Anforderungen an die elektronische Aufzeichnung (electronic record) von GCP-relevanten Informationen und die Voraussetzungen für den Einsatz elektronischer Unterschriften (electronic signature). Damit soll sichergestellt werden, dass elektronisch gespeicherte Informationen und elektronische Unterschriften den gleichen Anforderungen unterliegen wie Dokumente in Papierform. Validierung im Sinne einer Authentifizierung des Autors eines Records, Schutz von archivierten Records, Verwendung sogenannter Audit-Trails innerhalb der Dokumentationssoftware und der kontrollierte Zugriff auf die Informationen sind nur einige der darin beschriebenen Konzepte.
4.4 Datenmanagement in Studien und für Register Für das Datenmanagement in einem medizinischen Forschungsprojekt gibt es keine allgemein anerkannte einheitliche Definition. Je nach Studientyp und verfügbaren Ressourcen kann es unterschiedliche Teilaktivitäten umfassen. Wichtiger Bestandteil sind die verschiedenen Zeitpunkte der Studie, zu denen Patienten untersucht oder befragt werden sollen; diese werden als Visiten bezeichnet. Typischerweise beginnt das Datenmanagement in einer klinischen Studie mit dem Erstellen einer strukturierten Übersicht über alle Visitentermine der Studie. Dann werden die zu erhebenden und zu speichernden Datenelemente mit ihrem jeweiligen Datentyp und den für jedes katalogbasierte Datenelement möglichen Merkmalsausprägungen festgelegt (Value-List). Dies wird oft als Data Dictionary bezeichnet. Um die Dokumentation unplausibler Daten zu vermeiden, erstellt man anschließend den Datenvalidierungsplan. Dieser schränkt beispielsweise den Wertebereich einzelner numerischer Datenelemente ein oder beschreibt Abhängigkeiten von Ausprägungen über mehrere Datenelemente hinweg. So kann z. B. das von einer Erkrankung betroffene Organ bei Frauen nicht die Prostata sein oder bei Männern sollten keine Fragen zur Schwangerschaft gestellt werden. Allerdings können nicht alle nicht plausiblen Eingaben bereits während der Dateneingabe abgefangen werden. Die Korrektur eventuell falsch erfasster Daten oder das Nachtragen fehlender Daten erfolgt im Rahmen des sogenannten Query-Managements, bei dem aus der Datenbank falsch erscheinende oder fehlende Datenelemente herausgefiltert und den Studienassistenten noch einmal zur Kontrolle mitgeteilt werden. Nach Festlegung des Visitenplans, des Data Dictionary und des Datenvalidierungsplans erfolgt in der Regel die Erstellung der Papier-Erfassungsbögen sowie der elektronischen Erfassungsformulare innerhalb eines Electronic-Data-Capture-Systems (EDC-System, Studien-Datenbank; Kapitel 4.6.1). Hierzu sollte ein leistungsfähiger Formulargenerator zur Verfügung stehen, um die Erfassungsformulare hinsichtlich Layout, relevanten Datentypen und Plausibilitätsregeln sowie einer dynamisch anpassbaren Eingabeführung auch für Personal ohne Programmierkenntnisse benutzerfreundlich gestalten zu können.
4 IT für die medizinische Forschung
|
95
Ein weiterer Schritt im Datenmanagement ist die Dateneingabe selbst. Diese kann entweder während der Befragung eines Patienten direkt in das entsprechende EDC-System erfolgen, oder es können zunächst die Patientenantworten/-merkmale auf Papier aufgezeichnet und zu einem späteren Zeitpunkt in das EDC-System übertragen werden. Da Übertragungsfehler beim Abtippen von einem Papierformular nicht ganz ausgeschlossen werden können, verwendet man zum Zweck der Qualitätssicherung in einem solchen Fall häufig das sogenannte Double Data Entry, bei dem die gleichen Papier-Erfassungsbögen von zwei unterschiedlichen Personen unabhängig voneinander eingegeben und die gespeicherten Inhalte elektronisch miteinander abgeglichen werden. Bei voneinander abweichenden Eingaben werden die Eingabekräfte in der Regel im Nachhinein durch entsprechende Korrekturlisten darauf hingewiesen, diese Datenelemente noch einmal anhand der Original-Erfassungsbögen zu kontrollieren. Um fehlerhafte Dateneingaben und fehlende Datenelemente frühzeitig zu erkennen und korrigieren zu lassen, erfolgt zu vordefinierten Zeitpunkten die sogenannte Datenbereinigung (cleaning), bei der die bis zum jeweiligen Zeitpunkt gespeicherten Daten noch einmal gegen die Regeln des Validierungsplans kontrolliert werden und damit Vorgaben zu Wertebereichen von Datenelementen oder logischen Abhängigkeiten zwischen Datenelementen in Form von Plausibilitätsregeln erneut geprüft werden. Abweichungen gegenüber dem Validierungsplan können entweder direkt im EDC-System bei den entsprechenden Patienten und Datenelementen angezeigt werden, oder aber sie werden als sogenannte Query-Listen ausgedruckt und elektronisch oder auf dem Postweg an die jeweiligen Erfassungskräfte zur Verifikation und Korrektur bzw. zum Nachtragen fehlender Daten verschickt. Diesen Gesamtprozess bezeichnet man als Query-Management. Gemäß GCP müssen Änderungen an den einmal in einer Studie erfassten Daten zu jedem Zeitpunkt nachvollziehbar sein, sodass für jede notwendige Änderung festgehalten werden muss, wer und zu welchem Zeitpunkt sie durchgeführt hat und welchen Inhalt das Datenelement vor dem Zeitpunkt der Änderung hatte. Dies gilt sowohl bei Erhebung der Daten nur auf Papierformularen als auch für die elektronische Speicherung der Daten. Die Nachvollziehbarkeit der Änderungen muss durch den sogenannten Audit-Trail gewährleistet werden. Ein EDC-System sollte über einfache Auswertungen bzw. Berichtfunktionen verfügen, die es einem Prüfarzt (Kapitel 4.2.1) ermöglichen, sich jederzeit einen schnellen Überblick über die Anzahl der gerade rekrutierten Patienten und deren Verteilung auf die einzelnen Prüfzentren bei multizentrischen Studien zu verschaffen. Bei längeren Studien sollten darüber hinaus einfache deskriptive Patientenübersichten z. B. stratifiziert nach Geschlecht und Altersgruppen erstellt werden können. Falls solche Übersichten und Auswertungen vom EDC-System nicht standardmäßig ermöglicht werden, muss durch das Datenmanagement in regelmäßigen Abständen ein Datenexport erfolgen und die entsprechenden Auswertungen mithilfe von Statistikprogrammen (z. B. SPSS, SAS oder R) generiert werden.
96 | Hans-Ulrich Prokosch
Nach Abschluss einer Studie, d. h. nach vollständiger Erfassung und Qualitätssicherung aller Visiten bei allen rekrutierten Patienten gemäß Visitenplan, sollte ein abschließender Datenexport zur Übergabe der Daten an einen Biometriker/Epidemiologen zur Durchführung der geplanten statistischen Analysen erfolgen. Als letzten Schritt sollte die rechtsgültige Archivierung und längerfristige Aufbewahrung gemäß der jeweils gültigen regulatorischen Bestimmungen aller in der Studie erzeugten Papierdokumente und elektronisch gespeicherter Daten erfolgen (Kapitel 3). Aufgabe des Qualitätsmanagements ist es, die GCP-Konformität einer klinischen Studie sowie eine hohe Datenqualität zu gewährleisten. Um das Vorgehen während aller Phasen einer Studie jederzeit nachvollziehbar zu machen und diese insbesondere bei multizentrischen Studien über alle Zentren zu vereinheitlichen, werden Standardvorgehensweisen (Standard Operating Procedure, SOP) erstellt. Diese gelten in der Regel für alle Aufgabenbereiche der Studiendurchführung, mindestens aber für die unmittelbare Patientenbefragung und Patientenuntersuchung während einer Studienvisite. Das klinische Monitoring durch speziell dafür ausgebildete Personen (Monitore) stellt eine weitere Maßnahme zur Qualitätssicherung in der medizinischen Forschung dar. Ein Monitor stellt vor Beginn einer klinischen Studie sicher, dass alle notwendigen Dokumente im Prüfzentrum vorliegen. Im Rahmen regelmäßiger Besuche im Prüfzentrum kontrolliert er die Studiendurchführung entsprechend den Vorgaben des Prüfplans, die Dokumentation in den entsprechenden Prüfbögen (Case Report Form, CRF), die zugehörige Speicherung der Daten im EDC-System und den Gebrauch der Studienmedikation. All dies dient dazu, die GCP-gerechte Durchführung der klinischen Prüfung und die ordnungsgemäße Dokumentation der Studiendaten sicherzustellen. Ein wichtiger Qualitätssicherungsschritt im Rahmen des Monitorings ist die Source Data Verification (SDV), welche aus einem Abgleich der Studiendokumentation mit den Originaldaten (in der Regel aus der Krankenakte) besteht. Art und Umfang des Monitorings, insbesondere der SDV, werden vom Sponsor festgelegt. Je nach Studientyp, Zielsetzung, Zweck, Design und Komplexität der klinischen Prüfung können sich die einzelnen Aktivitäten des klinischen Monitorings unterscheiden. In klassischen Industriestudien wird in der Regel ein hundertprozentiges Monitoring, also aller eingeschlossener Patienten durchgeführt. Zur Reduktion des Arbeitsaufwands kann auch eine statistisch kontrollierte Stichprobennahme zur Auswahl zu prüfender Daten im Sinne eines optimierten, adaptieren Monitorings zum Zuge kommen. Dabei wird entweder 100 % der Studiendokumentation einer ausgewählten Patientenstichprobe überprüft oder es werden nur wesentliche Datenelemente von 100 % der Patienten geprüft oder beide Ansätze werden kombiniert. Während aller Phasen der klinischen Entwicklung eines Arzneimittels wird neben der Untersuchung der erwünschten Wirkungen auch schon die Sammlung und Erfassung von unerwünschten Arzneimittelwirkungen (UAW, Nebenwirkungen) durchgeführt. Da das Arzneimittel bis zur Zulassung immer nur an einer vergleichsweise geringen Patientenzahl unter speziell für die Prüfung ausgewählten Patienten
4 IT für die medizinische Forschung
|
97
erprobt wird und die Studienergebnisse nicht unbedingt repräsentativ für die gesamte Bevölkerung sind, ist die Überwachung nach Marktzulassung besonders wichtig. Nur so können auch seltene unerwünschte Wirkungen sowie Wechselwirkungen mit anderen Medikamenten erkannt werden. Da sich also neue Erkenntnisse über die Sicherheit von Arzneimitteln noch lange Zeit nach ihrer Zulassung ergeben können, ist die laufende und systematische Überwachung der Sicherheit eines Fertigarzneimittels (Pharmakovigilanz) unabdingbar. Daraus resultieren Maßnahmen zur Risikominimierung und der Vorbeugung von Therapiefehlern durch die Vermittlung von Arzneimittelinformationen. Unerwünschte Arzneimittelwirkungen sowie auch Vorkommnisse mit Medizinprodukten müssen an das BfArM oder die entsprechenden internationalen Organisationen gemeldet werden. Um diese einheitlich dokumentieren und auswerten zu können, dürfen diese Meldungen nicht als unstrukturierter Freitext, sondern nur strukturiert, auf der Basis eines international standardisierten Klassifikationssystems, erfolgen. Dazu wurde die Adverse Reaction Terminology (WHO ART) etabliert und über mittlerweile mehr als 30 Jahre hinweg durch das Uppsala Monitoring Centre der WHO kontinuierlich weiterentwickelt. Das Klassifikationssystem ist so flexibel organisiert, dass neue Begriffe regelmäßig und ohne größere Probleme aufgenommen werden können. Dies wird durch eine vierstufige Hierarchie ermöglicht, die auf der obersten Ebene aus 32 sogenannten Körpersystem/Organ-Klassen besteht. Darunter befinden sich weitere 180 Gruppen mit General- bzw. High-Level-Begriffen, die einen möglichst breiten Blick auf Arzneimittelprobleme erlauben sollen. Innerhalb dieser breiten Kategorien gibt es über 2 000 sogenannte bevorzugte Begriffe die eine sehr präzise Beschreibung unerwünschter Arzneimittelwirkungen ermöglichen. Da viele Mediziner in der klinischen Praxis zur Verwendung eher umgangssprachlicher Begriffe tendieren, wurden diese als sogenannte zusätzlich eingeschlossene Begriffe (included terms; mittlerweile etwa 3 500 Begriffe) aufgenommen, die als Synonyme zu den bevorzugten Begriffen definiert werden können. Coding Symbols for a Thesaurus of Adverse Reaction Terms (COSTART) ist eine parallele Entwicklung der amerikanischen FDA. Mittlerweile wurde COSTART durch MedDRA (Medical Dictionary for Regulatory Activities) abgelöst, welches heute als klinisch validierte internationale Terminologie der regulatorischen Organisationen und der biopharmazeutischen Industrie im Gesamtkontext aller Stufen des Arzneimittelzulassungsprozesses verwendet wird. Auch das MedDRA-Wörterbuch ist nach Körpersystem bzw. Organklassen organisiert und enthält darunter Begriffe auf vier weiteren Hierarchieebenen.
4.5 Datenschutz in der medizinischen Forschung Konzepte zum Schutz der Patientenselbstbestimmung und der von Probanden in klinischen Studien erhobenen sensiblen medizinischen Daten vor unbefugtem Zugriff stellen Kernkomponenten für IT-Lösungen in der medizinischen Forschung, insbeson-
98 | Hans-Ulrich Prokosch
dere in der vernetzten Verbundforschung dar. Die wichtigsten Ansätze hierzu sind die Anonymisierung sowie die Pseudonymisierung der über Netzwerke kommunizierten und in Datenbanken abgelegten Daten. Bei manchen Studienkonzepten würde eine vollständige Anonymisierung der Daten aber die Erreichung des Studienziels unmöglich machen. Dies gilt beispielsweise für Längsschnitterhebungen mit langjährigem Follow-Up oder für Studien, in denen Daten zu einem Patienten aus unterschiedlichen Quellen kommen, zu verschiedenen Zeitpunkten entstehen und für Auswertungen in einer Datenbank zusammengeführt und aufbereitet werden müssen. Die Pseudonymisierung von Daten kann nach unterschiedlichen technischen Verfahren und in verschiedenen Stufen erfolgen. Zur Definition und Abgrenzung dieser beiden Begriffe voneinander sei auf das Kapitel 12 verwiesen. Dort finden sich auch weitere Details in Bezug auf potentiell verbleibende Reidentifizierungsrisiken und Verfahren zur Erzielung der sogenannten k-Anonymität. Weitergehende Anforderungen an den Datenschutz in vernetzten, medizinischen Forschungsverbünden, insbesondere Konzepte zur Trennung der informationellen Macht und dem Identitätsmanagement durch vertrauenswürdige Dritte (Trusted Third Parties, TTP) sind in den generischen TMF-Datenschutzkonzepten und im Kapitel 12 dieses Lehrbuchs beschrieben.
4.6 Beispiele für IT-Anwendungen in der medizinischen Forschung 4.6.1 Electronic-Data-Capture-Systeme Die elektronische Speicherung der Studiendokumentation erfolgt inzwischen in vielen Studien mittels Datenbank-gestützter Softwaresysteme, die als Studiendatenbank oder Electronic-Data-Capture-System (EDC-System) bezeichnet werden. Da ein Großteil von Studien heute multizentrisch über viele Standorte hinweg durchgeführt wird, sollte ein solches EDC-System eine verschlüsselte Übertragung von Daten zwischen webbasierten Erfassungsformularen (eCRF, elektronischer Prüfbogen) und der zentralen Studiendatenbank ermöglichen. Da mit solchen Systemen eine verteilte Datenerfassung in mehreren Standorten ermöglicht wird, spricht man oft auch von Remote-Data-Entry-Systemen (RDE-Systemen). Typischerweise besteht ein EDC-System aus folgenden vier unterschiedlichen Kernkomponenten: – ein Werkzeug zur Administration des Gesamtsystems, inkl. des Benutzermanagements, – ein Werkzeug zur Gestaltung von eCRF, inkl. im Validierungsplan definierter Plausibilitätsregeln (Formulargenerator), – ein Werkzeug zur eigentlichen Datenerfassung (data capture), – ein Werkzeug zur Erstellung einfacher Reports und zum Datenexport.
4 IT für die medizinische Forschung
|
99
Ein leistungsfähiges EDC-System sollte darüber hinaus Möglichkeiten zum BatchImport von Massendaten aus anderen Quellen enthalten, z. B. von Analyseergebnissen, die aus einem klinisch-chemischen Labor elektronisch übermittelt werden. Zur Vereinfachung des klinischen Monitorings und des Query-Managements sollte die Software über Komponenten zur Workflow-Unterstützung verfügen. Ein Modul zur Verwaltung von Zentren, Benutzern, Rollen und Zugriffsrechten rundet typischerweise das Funktionsspektrum eines EDC-Systems ab, damit beispielsweise in einer multizentrischen Studie sichergestellt werden kann, dass Mitarbeiter eines Prüfzentrums nur jeweils die Daten der Patienten ihres eigenen Zentrums einsehen können. Ein zentrumsübergreifender Zugriff darf lediglich für klinische Monitore und Mitarbeiter der Studienzentrale z. B. für Qualitätssicherungszwecke, Query-Management und statistische Auswertungen erlaubt sein. Auch muss es möglich sein, für unterschiedliche Berufsgruppen (Prüfärzte, Studienassistenten, QM-Mitarbeiter, klinische Monitore) jeweils eine unterschiedliche Menge an Funktionen des EDC-Systems zur Nutzung freizugeben. Für die oben beschriebenen Grundfunktionalitäten eines EDC-Systems werden nachfolgend einige Funktionen anhand stilisierter Bildschirmmasken illustriert. Zum Einstieg in die Dokumentation der Daten eines Studienpatienten kann man diesen durch Eingabe seines Pseudonyms auswählen. Oft wird aber als Einstiegsbildschirm eine Übersicht über den Status aller bisher in die Studie eingeschlossenen Patienten und deren Dokumentationsstatus angeboten. In Abbildung 4.1 ist die Patientenübersicht einer Studie dargestellt, in der Patientenuntersuchungen und deren Dokumentation zum Patienteneinschluss im Rahmen einer Screening-Untersuchung erfolgen. Für alle Patienten wird anschließend eine Baseline-Untersuchung durchgeführt. Nachfolgende Visitendokumentationen wurden für zwei weitere Zeitpunkte definiert. Für jeden Patienten und jeden Visitenzeitpunkt findet man in dieser Übersichtsmatrix ein farbiges Symbol, welches über den Status der Dokumentation zu diesem Zeitpunkt informiert. Rote Kreise zeigen, dass für einen Patienten zur jeweiligen Visite noch keine Dokumentation vorliegt. Grüne Kreise illustrieren, dass die Dokumentation zu einem Visitenzeitpunkt bereits vollständig vorliegt. Wurde die Dokumentation begonnen, aber noch nicht endgültig abgeschlossen, so entspricht dies einem gelben Kreis. Zusätzliche Symbole können anzeigen, ob für einen Patienten schon Queries angestoßen wurden oder durch das Monitoring eine SDV initiiert wurde. Die Abbildung 4.2 zeigt einen Ausschnitt aus einem Audit-Trail mit zugehöriger Historie eines Query-Dialogs zwischen Monitor und Studienassistenten. Aus der Abbildung ist ersichtlich, dass der T-Wert der Tumorklassifikation am 26. 02. 2011 als T3 dokumentiert wurde. Im Rahmen des SDV-Prozesses stellte der Monitor am 22. 03. 2011 fest, dass dies mit dem in der Patientenakte dokumentierten T4-Wert nicht übereinstimmt und weist die Eingabekraft darauf hin. Am 23. 03. 2011 nimmt die Eingabekraft die Korrektur auf T4 vor und teilt dies dem Monitor über den Query-Dialog mit. Der Monitor schließt die Query daraufhin am 24. 03. 2011.
100 | Hans-Ulrich Prokosch
Studie XY
Datum: XX.XX.XXXX Projektleiter: XX Projekt: Studie XY
Patientenliste Visitenübersicht
Zentrum 1
Zus-ID
Gesamtstatus
screening
Baseline 0
Zeitpunkt 1
Zeitpunkt 2
01001 01002 01003 01004 01005 01006 ... keine Dokumentation begonnene Dokumentation vollständige Dokumentation
Die Farben illustrieren den Bearbeitungsstatus des jeweiligen eCRF
Abb. 4.1: Beispielhafte Übersicht zum Dokumentationsstatus aller für eine Studie dokumentier ten Patienten. Die Patienten sind pseudonymisiert. Eine Zeile entspricht einem Patienten und wird durch dessen Pseudonym identifiziert. Jeweils eine Spalte entspricht einer im Prüfplan festgelegten Visite.
4.6.2 Das Single-Source-Konzept IT-Unterstützung für die Krankenversorgung in Arztpraxen und Krankenhäusern erfolgt heute meist noch völlig getrennt von IT-Anwendungen zur Unterstützung der medizinischen Forschung. An vielen deutschen Universitätskliniken gibt es für Forschungsprojekte noch keine kommerziellen Standardsysteme, die projektunabhängig genutzt werden können. Stattdessen werden oft für einzelne Forschungsprojekte spezielle Datenbanken konzipiert und entwickelt. Die Datenerhebung erfolgt über projektspezifische Papierformulare (Case Report Forms, CRF) mit anschließender Eingabe in die entsprechenden Datenbanken. Typischerweise haben diese Forschungsanwendungen bzw. Forschungsdatenbanken aber noch keine Schnittstellen zu den IT-Systemen der Krankenversorgung. Derartige Ansätze werden als Dual-Source-Konzepte bezeichnet. Dies führt in vielen Fällen zu mehrfachen, redundanten Datenerfassungen für unterschiedliche Zielsetzungen (Routineversorgung, Abrechnung, Qualitätssicherung, Benchmarking, Forschungsdokumentation). Mediziner, insbesondere mit onkologischem Schwerpunkt, sprechen von einem „gigantischen dokumentatorischen Gesamtwerk, in dem sich zahlreiche Dokumentationsprozesse gegenseitig aufplustern“ [Beckmann 2010] und verweisen u. a. auf Dokumentationsanforderungen für Brustkrebspatientinnen, bei denen neben der Routinedokumentation noch
4 IT für die medizinische Forschung
|
101
Audit Trail „Tumoranamnese“ Query-Historie Teilnehmer
Zeitpunkt
Anlass
Monitor X
24.03.2011- 9:32:02
Query geschlossen
Studienassistent Y
23.03.2011- 13:02:31
Daten modifiziert „Query bearbeitet“
Studienassistent Y
23.03.2011- 13:02:11
Query beantwortet
Monitor X
22.03.2011- 12:00:31
Query eingefügt
Teilnehmer
Zeitpunkt
Änderung
Begründung
Studienassistent Y
23.03.2011- 13:02:31
T- Kategorie 4- T4 N- Kategorie 2b- N2b M- Kategorie 0-MO
Datenmodifizierung aufgrund einer Query
Studienassistent Y
26.02.2011- 16:26:03
T- Kategorie 3- T3 N- Kategorie 2b- N2b M- Kategorie 0-MO
Dateneingabe
Dokumentationshistorie
Abb. 4.2: Beispielhafte Darstellung eines Audit-Trails. Hierin sind sowohl die Historie der Verände rung des Eintrags im Datenelement T-Kategorie von T3 auf T4, als auch die einzelnen Schritte des im EDC-Systems dazu durchgeführten Query-Prozesses dokumentiert.
Dokumentationen für das Mammakarzinom-Screening, für die Zertifizierung zu einem Brustkrebszentrum und für das klinische Krebsregister anfallen. Vor diesem Hintergrund wird die Nutzung von Daten aus der elektronischen Patientenakte für die klinische Forschung in den letzten Jahren häufig als eine der großen Herausforderungen der Medizinischen Informatik bezeichnet [Prokosch 2009]. Als Single-Source-Konzepte werden in der Fachliteratur IT-Architekturkonzepte bezeichnet, bei denen die Wiederverwendung einmal bei der Krankenversorgung elektronisch dokumentierter Daten für multiple Zwecke in Vordergrund steht, insbesondere im Rahmen der translationalen Forschung. Allerdings ist es wichtig zu beachten, dass bei entsprechenden Single-Source-Projekten nicht nur die Realisierung technischer Schnittstellen zwischen den Krankenhaus-Routinesystemen und einer Forschungsdatenbank notwendig ist, sondern dass darüber hinaus noch eine Vielzahl z. B. gesetzlicher Regularien, Datenschutzvorgaben, Qualitätssicherungsund Datenvalidierungsaspekte sowie auch terminologische Probleme beachtet werden müssen. Auch wenn die FDA mit dem Regelwerk 21 CFR Part 11 die Anforderungen an die elektronische Aufzeichnung relevanter Informationen gemäß Good Manufac-
102 | Hans-Ulrich Prokosch
turing Practice (GMP) und die Voraussetzungen für den Einsatz elektronischer Unterschriften sehr streng formuliert hat, so unterstützt sie neue Konzepte zur Wiederverwendung von Routinedaten für Forschungszwecke doch stark. Insbesondere an den Prozess der Source Data Verification stellen Single-Source-Konzepte neue Ansprüche, da die ursprüngliche Dokumentation eines Studienmerkmals (eSource) in diesem Kontext oftmals nicht mehr auf Papier vorliegt, sondern nur noch in digitaler Form in einer Datenbank. Da bei der Realisierung von Schnittstellen zwischen einem KIS und Forschungsanwendungen unterschiedliche (Nachrichten-) Standards aufeinander treffen, hat sich das Clinical Data Interchange Standards Consortium (CDISC) in den letzten Jahren intensiv mit Fragestellungen zu eSource und der Harmonisierung der Standards beider Welten auseinander gesetzt (vgl. [CDISC 2006] sowie der Abschnitt über das BRIDG-Projekt in Kapitel 4.7). Im Rahmen von Forschungsprojekten können grundsätzlich folgende vier verschiedene Szenarien durch Single-Source-Konzepte unterstützt werden: – die explorative Analyse von Routinedatenbeständen zur Generierung von Forschungshypothesen und bei der Vorbereitung von Forschungsprojekten, – die Rekrutierung von Patienten für Studien bzw. Register, – die unmittelbare Wiederverwendung von Daten der elektronischen Patientenakte innerhalb von Forschungsdatenbanken, – die frühzeitige Erkennung von unerwünschten Arzneimittelwirkungen (Pharmakovigilanz). Erste Single-Source-Projekte wurden in den USA bereits Ende des letzten Jahrhunderts initiiert, zunächst mit dem Ziel, die Rekrutierung von Patienten für klinische Studien zu unterstützen. Das wohl bekannteste frühe Projekt zur Wiederverwendung von Daten aus einer elektronischen Krankenakte für eine klinische Studie ist das 2003/2004 durchgeführte STARBRITE-Projekt [Kush 2007]. Allerdings war dies noch ein reines Proof-of-Concept-Projekt, in dem die vollständige Übertragung der Daten aus der Routinedokumentation in eine Studiendatenbank lediglich für zwei beispielhafte Patienten vollständig umgesetzt wurde. Wegweisend an diesem Projekt war weniger die tatsächliche Routinenutzung, als vielmehr die Vielzahl neuer Erkenntnisse, die durch den Vergleich von Dokumentationsanforderungen, Datenformaten und Prozessabläufen zwischen klinischer Routine und einer laufenden Studie gewonnen wurden. Erkenntnisse aus diesem Projekt waren es dann auch, die u. a. zur Initiierung des CDISC-Projekts CDASH (Clinical Data Acquisition Standards Harmonization) und zur Etablierung von BRIDG (Biomedical Research Integrated Domain Group) führten (Kapitel 4.7). In Deutschland wurde diese Thematik erst ab 2007 mit Arbeiten zur Unterstützung der Patientenrekrutierung für klinische Studien und der Interoperabilität zwischen den Dokumentationswelten der Krankenversorgung und der klinischen Forschung aufgegriffen [Ohmann 2007] und ist auch heute noch eine der großen Herausforderungen der Medizinischen Informatik.
4 IT für die medizinische Forschung
|
103
4.6.3 Beispiele für Single-Source-Projekte Nachfolgend werden bespielhaft drei Projekte aus den Universitätsklinika Münster und Erlangen beschrieben. Es handelt sich um Pilotprojekte zur KIS-basierten Unterstützung bei der Patientenrekrutierung, den Aufbau einer deutschlandweiten Integrationsdatenbank und eines Projektvermittlungsportals für die Prostatakarzinomforschung sowie die Wiederverwendung von Daten aus der elektronischen Krankenakte für ein multizentrisches Forschungsprojekt zum kolorektalen Karzinom.
KIS-basierte Unterstützung der Patientenrekrutierung für AML-Studien. Zur Unterstützung der Rekrutierung von Patienten für eine Studie zur akuten myeloischen Leuk ämie (AML) wurden am Universitätsklinikum Münster Datenbankabfragen auf der Routinedatenbank des Münsteraner klinischen Arbeitsplatzsystems (KAS) implementiert. Mit diesen wurde regel mäßig überprüft, ob Patienten identifiziert werden können, welche die Einschlusskriterien für die AML-Studie erfüllten. Identifizierte Patienten wurden auf einer Vorschlagsliste dem zugeordneten Studiensekretariat vorgelegt. Während der 50-tägigen Projektphase wurden vom System 41 po tentielle Studienpatienten identifiziert, von denen 13 Patienten anschließend auch in die Studie eingeschlossen wurden. Eine parallele Analyse der Papierdokumentation zeigte, dass vom System kein potentieller Studienpatient übergangen wurde [Dugas 2008]. Dieses System wurde anschlie ßend ausgeweitet und für insgesamt sieben laufende Studien evaluiert, wobei für drei der Studien im Beobachtungszeitraum eine Steigerung der rekrutierten Patienten um bis zu 40 % erreicht wurde. Allerdings zeigte sich auch, dass die Präzision der Ergebnisse der Datenbankabfrage zwischen den sieben Studien stark variierte. Je nach Formulierung der Ein- und Ausschlusskriterien und der dabei verwendeten Patientendaten greift eine solche KIS-basierte Patientenrekrutierung derzeit also noch unterschiedlich gut [Dugas 2010].
Single Source im Kontext der Erlanger Prostatakarzinom-Dokumentation. Der Ausbau der klinischen Tumordokumentation der Urologischen Klinik des Universitätsklinikums Erlangen verfolgte auch das Ziel, die Anforderungen zur Datenbereitstellung für das Erlanger Tumor zentrum zu erfüllen und Qualitätsindikatoren für die Zertifizierung als Prostatakarzinomzentrum au tomatisiert ableiten zu können. Angelehnt an die Dokumentationsvorgaben der Arbeitsgemeinschaft Deutscher Tumorzentren (ADT) wurden innerhalb des KAS Dokumentationsbögen zur Erfassung der anamnestisch-diagnostischen Informationen, des Operationsverlaufs, der Strahlentherapie, der sys temischen Therapie und der Tumornachsorge realisiert. Weiterhin wurden innerhalb des KAS prozess unterstützende Formulare zur Planung und Dokumentation der interdisziplinären urologischen Tumor konferenz sowie zur Anforderung der pathologischen Diagnostik und der pathologischen Befundung erstellt. Diese Dokumentation wird von den Kliniken für Urologie, Hämatologie/Onkologie und Strah lentherapie sowie dem Institut für Pathologie seit Herbst 2008 genutzt und dient seit 2010 als Basis für Auswertungen zur Zertifizierung als Prostatakarzinomzentrum. Eine automatisierte Übermittlung der entsprechenden ADT-Basisdokumentationsdaten an das Gießener Tumordokumentationssystem (GTDS) des Klinischen Krebsregisters wurde 2011 umgesetzt. Als zusätzliches Ziel kristallisierte sich im Projektverlauf auch die Weiterverwendung eines Teils dieser Daten für die im Aufbau befindliche Forschungskooperationsdatenbank des Deutschen Prosta takarzinomkonsortiums (DPKK) heraus. Ein früherer Prototyp dieser Datenbank hatte noch die Ein gabe eines entsprechenden Prostatakarzinom-Kerndatensatzes über eine Web-Oberfläche erfordert,
104 | Hans-Ulrich Prokosch
war aber aufgrund dieser zusätzlichen Arbeitsbelastung auf wenig Akzeptanz gestoßen. Die neue Ver sion der DPKK-Forschungskooperationsdatenbank für Prostatakarzinom-Patienten entstand deshalb auf Basis eines Data-Warehouse-Ansatzes ( Kapitel 5) unter Verwendung der an der Harvard Medical School im i2b2-Projekt (Informatics for Integrating Biology and the Bedside) entwickelten Open-Sour ce-Integrationsplattform. Dazu werden aus der Primärdokumentation im Erlanger KAS Patientendaten zum definierten Kerndatensatz exportiert, pseudonymisiert und in eine lokale i2b2-Instanz impor tiert. Diese lokale i2b2-Instanz steht am jeweiligen Klinikstandort für Patientenrecherchen zur Ver fügung. Als webbasierte deutschlandweite Forschungskooperationsdatenbank wurde eine zentrale DPKK-i2b2-Instanz bereitgestellt. Mehrere jeweils lokale klinikbezogene i2b2-Instanzen kommunizie ren mit dieser zentralen Datenbank und übermitteln ihre Daten dorthin in anonymisierter Form. Diese DPKK-i2b2-Instanz bietet wiederum eine webbasierte Rechercheoberfläche zur Identifikation von Pa tientenkohorten für gemeinsame Projekte [Ganslandt 2010].
Wiederverwendung von Daten aus der elektronischen Krankenakte für ein Forschungsprojekt zum kolorektalen Karzinom. Das multizentrische BMBF-geförderte Polyprobe-Projekt verfolgt das Ziel, eine Gruppe von Biomar kern auf mRNA-Ebene zu validieren, um damit Tumorstadien, Überleben und Ansprechen auf Chemo therapie und Radiochemotherapie einzelner Patienten mit kolorektalem Karzinom besser vorhersa gen zu können. U. a. soll ein neues Verfahren validiert werden, mit dem erstmals intakte RNA aus Formalin-fixiertem Paraffin-eingebettetem Gewebe extrahiert werden kann, das im Routineablauf pa thologischer Diagnostik gewonnen wurde. An den Universitätskliniken Erlangen und Frankfurt sollen für die Studie innerhalb von 3 Jahren über 600 Patienten rekrutiert werden. Aus Gewebeproben dieser Patienten wird RNA extrahiert und entsprechende Genexpressionsanalysen (Polyprobe-Tests) durch geführt. Die Ergebnisse der Genexpressionsanalysen werden mit klinischen Parametern der Patienten zusammengeführt und auf Korrelation mit bestimmten Merkmalen überprüft. Der Merkmalsdatensatz der Studie lehnt sich stark an die bisher schon im Erlanger Chirurgischen Krebsregister verwendeten Merkmale für Patienten mit kolorektalem Karzinom an. Anstatt der Entwicklung einer neuen isolier ten Forschungsdatenbank für dieses Projekt wurde beschlossen, die entsprechenden Dokumentati onsformulare der Studie innerhalb des Erlanger KAS umzusetzen. Als Zielsystem für die endgültige Zusammenführung aller klinischen Daten aus Erlangen und Frankfurt sowie der Genexpressionsda ten aus der externen Labordiagnostik wird ein kommerzielles GCP-zertifiziertes EDC-System verwen det. Innerhalb dieses EDC-Systems wurden eCRFs angelegt, die den entsprechenden KAS-Dokumen tationsformularen entsprechen. Während die klinischen Studiendaten der Erlanger Patienten sowie die Analyseergebnisse aus der Genexpressionsanalyse elektronisch aus der jeweiligen Primärdaten quelle bereitgestellt und mittels Batch-Import-Verfahren in das EDC-System eingespielt werden, nutzt das Frankfurter Studienzentrum die webbasierten eCRF zur direkten Online-Dateneingabe [Ganslandt 2010].
4.6.4 IT-Anwendungen zur Unterstützung des Biobanking Bei der Suche nach Erkrankungsursachen kommt der medizinischen Grundlagenforschung auf molekularer und genetischer Ebene eine immer größere Bedeutung zu. Dabei ist sie auf die Verfügbarkeit qualitativ hochwertiger menschlichen Körpersubstanzen, den sogenannten biologischen Materialen (oft fälschlich als Biomaterial be-
4 IT für die medizinische Forschung
|
105
zeichnet) angewiesen. Biobanken oder Biomaterialbanken, in denen Proben klinisch gut charakterisierter Probanden bzw. Patienten gesammelt und gelagert werden, stellen somit ein zunehmend wichtiges Forschungsinstrument dar. Aufbau, Betrieb und Nutzung von Biobanken sind in den letzten Jahren immer mehr in den Fokus medizinischer Forschungsprojekte gerückt. Im internationalen Verständnis umfasst der Begriff der Biobank ein weites Spektrum an Sammlungen von biologischen Materialien, angefangen von DNA-Asservaten in gerichtsmedizinischen Instituten über Blutproben bis hin zu Zellkulturen etc. Der deutsche Nationale Ethikrat betont den Doppelcharakter einer Biobank als Proben- und Datensammlung. Eine Biobank ist eine Sammlung menschlicher Körpersubstanzen, „die mit personenbezogenen Daten und Informationen ihrer Spender verknüpft sind bzw. verknüpft werden können“ [Nationaler Ethikrat 2004].
Die Nutzung von biologischem Material für Forschungszwecke ist allerdings auch mit ethischen, persönlichkeitsrechtlichen und datenschutzrechtlichen Fragen verbunden. Datenschutzaspekte wurden in einem generischen Datenschutzkonzept für Biomaterialbanken beschrieben ([Pommerening 2007] und Kapitel 12). IT-Lösungen, die zur Unterstützung des unmittelbaren Betriebs und der Nutzung von Biobanken dienen, wurden sowohl standortbezogen als auch im Kontext multizentrischer Projekte entwickelt. Im Prinzip besteht eine Biobank aus: – einem System zur physikalischen Lagerung von biologischen Materialien (z. B. Tiefkühlschränke), – einem Softwaresystem zur Verwaltung aller das biologische Material beschreibender Parameter sowie der Informationen zu deren Transport und Lagerung, – einer Datenbank, in der Informationen über den Phänotyp der Spender (klinische Annotation) gespeichert sind. Um Patientenpopulationen für neue Forschungsprojekte zu identifizieren, wird zusätzlich eine Integrationsdatenbank benötigt, in der Probendaten und Phänotypdaten zusammengeführt und mittels eines benutzerfreundlichen Abfragewerkzeugs abgefragt werden können. Man unterscheidet in diesem Kontext: Ein Biobank-Management-System ist eine Softwarekomponente, die alle organisatorischen, tech nischen und logistischen Abläufe rund um die Gewinnung, den Transport, die Lagerung und Wei terverwendung von biologischen Materialien unterstützt. Ein Biobank-Query-Tool ist eine Softwarekomponente, die Kliniker/Forscher darin unterstützt, kli nisch charakterisierte Patientenpopulationen aus einem großen klinischen Data Warehouse (wel ches evtl. auch die Proben beschreibende Parameter enthält) herauszufiltern.
106 | Hans-Ulrich Prokosch
Anforderungen an eine IT-Unterstützung für Biobanken lassen sich von zwei unterschiedlichen Standpunkten aus formulieren: dem Betreiber der Biobank und dem Forscher, der biologisches Material in Projekten nutzen möchte. Der Betreiber/Verwalter einer Biobank benötigt Funktionalitäten, mit denen der komplette Weg eines biologischen Materials vollständig dokumentiert werden kann, von der Entnahme beim Probanden über alle Transportwege bis hin zur Biobank, der Einlagerung des Materials sowie dessen spätere (Teil-) Entnahme. Ziel ist es, jederzeit mit geringem Aufwand einen vollständigen Überblick über den Inhalt der Biobank und den Status/Verlauf eines bestimmten biologischen Materials zu haben. Zusätzlich sollten Funktionen (Workflows) bereitgestellt werden, die das Antrags- und Genehmigungsverfahren zur Nutzung von eingelagerten biologischen Materialien durch einzelne Forscher elektronisch unterstützen. Die Funktionalitäten und Arbeitsabläufe, die ein Biobank-Management-System unterstützen sollte, sind demgemäß [Prokosch 2010]: – Stammdatenverwaltung für Projekte, Institutionen, Personen, Lagerorte und die Lagerhierarchie, – Dokumentation von Probengewinnung, Präanalytik und Probeneingang, sowie der Probenaliquotierung, – Management der Lagerung in entsprechenden Lagermodulen (in der Regel Tiefkühlschränke); in diesem Kontext ist u. a. auch die Realisierung von Schnittstellen zu automatisierten Roboter-basierten Kühlsystemen erforderlich, – Kapazitäts- und Temperaturüberwachung der Lagermodule, – Statusabfrage zu eingelagerten biologischen Materialien sowie zum generellen biologischen Materialbestand bzw. zum Status verfügbarer Lagerorte, – Qualitätskontrolle, – Probenanforderung und Probenversand, – Verwaltung von Analyseergebnissen, die aus bereits durchgeführten Untersuchungen am entsprechenden Material gewonnen wurden, – Dokumentation der Aufbewahrungs-/Verwendungsgenehmigung für Proben durch Patienten/Probanden/Spender incl. deren Rücknahme oder Erweiterung. Ein Forscher, der in einem Projekt (z. B. einem krankheitsbezogenen Forschungsverbund) oder innerhalb einer Institution (z. B. für die Tumorbank eines Klinikums) biologische Materialien sammelt, diese in einer Biobank qualitätsgesichert lagern und später wiederverwenden möchte, benötigt sowohl ein Dokumentationssystem, mit dem er die klinische Annotation der Spender/Proben erheben und verwalten kann, als auch ein flexibles, möglichst generisches und benutzerfreundliches Abfrage-/Recherchewerkzeug (Query-Tool), welches die Filterung einer großen Patienten-/Probenkohorte nach Auswahl entsprechender Patientencharakteristika ermöglicht. Da die klinische Annotation der Spender in der Praxis entweder im Kontext der Krankenversorgung in der elektronischen Krankenakte eines Klinikums oder im Studienkontext in einem EDC-System erfolgt, sollte für den Zweck des Biobanking zur Akzeptanz bei
4 IT für die medizinische Forschung
|
107
den medizinischen Forschern keine zusätzliche Annotationsdatenbank erforderlich sein. Vielmehr sollten die Daten aus solchen bereits etablierten Annotationsdatenbanken für spätere Patientenrecherchen exportiert und in ein klinisches Data Warehouse importiert werden können, welches wiederum über ein leistungsfähiges Biobank-Query-Tool verfügt. Ein Gesamtsystem zur Unterstützung des Biobanking sollte somit in seiner Architektur die Anforderungen bzgl. getrennter Verantwortlichkeiten und getrennter Speicherorte aus dem TMF-Datenschutzkonzept für Biobanken [Pommerening 2007] erfüllen. Damit muss es datenschutzgerecht voneinander getrennte Umgebungen für patientenidentifizierende Daten, pseudonymisierte klinische Annotationen, Analysedaten, probenbeschreibende Daten und Daten zum Aufbewahrungsort von Proben besitzen. Dies wird am nachfolgenden Beispiel illustriert.
Biobanking in der GCKD-Studie (German Chronic Kidney Disease Kohorte). Im Rahmen der GCKD-Studie wird am Universitätsklinikum Erlangen eine Biobank aufgebaut. Für die geplanten 5 000 Patienten werden über 10 Jahre hinweg alle 2 Jahre je 13 Probenröhrchen mit Blut, Serum und Urin deutschlandweit in nephrologischen Praxen während der entsprechenden Visiten termine entnommen und gekühlt nach Erlangen transportiert. Nach Analyse dieser Probenlogistik er kannte man, dass in der zentralen Erlanger GCKD-Biobank täglich ca. 200 bis 400 Proben gefroren eintreffen, registriert und eingelagert werden müssen. Der Probeneinschluss wurde in eine Vorsortie rung mit anschließender Einlagerung in die Kühlschränke aufgeteilt, um einen höheren Durchsatz zu erreichen. Um das hohe Probenaufkommen mit knappen Personalressourcen bewältigen zu können und gleichzeitig das Risiko des Probeneinsortierens an einem falschen Lagerstandort zu minimie ren, wurde das eingesetzte kommerzielle Biobank-Management-System mit Schnittstellen zu einem mobilen Handheld-PC mit integriertem Barcodescanner erweitert. Auf der Basis eines ticketbasier ten Sitzungsmanagements wird jeder Arbeitsschritt zur Probeneinlagerung in den Tiefkühlschränken und zur Identifikation des Lagerorts (Kühlschrank, Fach, Einschub, Box, Röhrchenposition) per Scan quittiert. Innerhalb der ersten 6 Projektmonate wurden auf diesem Weg fast 20 000 Proben in der Biobank eingelagert und etwa 2 800 Kryobox-Transfers zwischen Eingangsarbeitsplatz und Tiefkühl schrank durchgeführt. Die gesamte IT-Architektur wird in Abbildung 4.3 illustriert und besteht derzeit aus: – einem webbasierten Laboranforderungssystem zur Identifikation aller Laboraufträge und Proben sowie zum Erstellen entsprechender Probenetiketten, – einem EDC-System zur Dokumentation der in den Visiten erhobenen und in den eCRF dokumen tierten Informationen zum Phänotyp, – einem Biobank-Management-System, – der Integrationsplattform i2b2 als Biobank-Query-Tool. Vor jeder Patientenvisite in einer nephrologischen Praxis werden zunächst im jeweiligen Regional zentrum unter Verwendung der Web-Oberfläche des in der Erlanger Studienzentrale betriebenen La boranforderungssystem Lauris Etiketten zur Identifikation der Probenröhrchen und zur Verknüpfung der Proben mit dem Patientendatensatz auf dem Papier-CRF erzeugt (Schritt 1). Bei der Untersuchung eines Patienten und der Probenentnahme werden jeweils identische Probenetiketten auf ein Röhr chen und die zugehörigen CRF geklebt (Schritt 2). Am Ende eines Untersuchungstages stellt die Stu dienassistentin eine Box mit allen Probenröhrchen zusammen, welche tiefgekühlt zur Erlanger Bio bank geschickt wird (Schritt 3). Die Patientenbeschreibungen überträgt sie zu einem späteren Zeit
108 | Hans-Ulrich Prokosch
Regionalzentrum 1 Laboranforderungssystem (Lauris)
=
Patientenpseudonym anlegen nephrologische Praxis
2
2
4 Dateneingabe pseudonymisiert
3
Studienzentrale
Biobank
Patientendaten
EDC-System Studien-DB (secuTrial) 5 Datenexport/ -import
5
Qualitätssicherung des Einlagerungsprozesses
7
6 Probendaten
8
Biobank Query-Tool (I2b2)
Probenrecherche
7 Datenexport/ -import
BiobankManagementSystem (Starlims)
4 IT für die medizinische Forschung
|
109
Abb. 4.3 (linke Seite): Die IT-Architektur der GCKD-Studie zur Unterstützung des Probenmanage ments und des Biobanking besteht aus: einem webbasierten Laboranforderungssystem, einem EDC-System, einem Biobank-Management-System und der Integrationsplattform i2b2 als Bio bank-Query-Tool. Die mit 1 bis 8 gekennzeichneten Arbeitsschritte werden im Text erläutert.
punkt vom Papier-CRF in die Studien-Datenbank (Schritt 4). Beim Eintreffen in der Biobank werden die Probenröhrchen zunächst nach Materialart in neue Kryoboxen einsortiert (Schritt 5). Zur Reduktion des Erfassungsaufwandes ist die Materialart bereits im Barcode des Probenetiketts kodiert und kann beim Einlagern eines Probenröhrchens direkt eingescannt werden. Im Biobankmanagementsystem wird dann für jede Kryobox der Ziellagerort in den Tiefkühlschränken der Biobank ermittelt. Dieser wird mittels WLAN-Übertragung an eine mobile PDA-Scanner-Anwendung übertragen (Schritt 5). Der Lagerort wird nun am Display des Scanners angezeigt, sodass die Labormitarbeiterin erkennt, wohin eine Box gebracht werden muss. Jeder Lagerort in den Tiefkühlschränken ist mit einem Barcode-Eti kett versehen, das den Lagerort eindeutig identifiziert. Vor der endgültigen Einlagerung wird dieser Barcode zur Qualitätssicherung eingescannt und mit dem auf dem PDA gespeicherten Ziellagerort ver glichen (Schritt 6). Entsprechend des TMF-Datenschutzkonzeptes werden die Patienten-bezogenen klinischen Annotationen (im EDC-System) und die Proben beschreibenden Daten (im Biobank-Mana gement-System) in getrennten Datenbanken abgelegt. Lediglich für Recherchezwecke zur Identifika tion von Patientenpopulationen und deren verfügbaren biologischen Materialien werden diese Daten temporär in der Integrationsdatenbank i2b2 zusammengeführt (Schritt 7). Über die benutzerfreund liche i2b2-Abfrageoberfläche können Abfragen zur Recherche von Patientenpopulationen (Schritt 8), die bestimmte Merkmale erfüllen, mittels Drag and Drop erzeugt werden ( Abb. 4.4).
Ontologie
Query-Oberfläche
Zusammenstellen einer Query mittels Drag and Drop
Datenelemente der klinischen Annotation (hierarchischer Explorerbaum)
Trefferliste
Abb. 4.4: i2b2-Workbench als Biobank-Query-Tool: grafische Benutzeroberfläche zur Recherche von Patientenpopulationen.
110 | Hans-Ulrich Prokosch
4.7 Die CDISC-Standards für die medizinische Forschung Das Clinical Data Interchange Standards Consortium (CDISC) ist das Pendant zur HL7-Gruppe im Bereich der klinischen Forschung (Kapitel 11). Es beschäftigt sich mit der Entwicklung von globalen, herstellerneutralen und Plattform-unabhängigen Standards zur Verbesserung der Datenqualität und für den Austausch von Daten aus klinischen Studien. Zur Definition der CDISC-Standards dienen XML-Schemata. Die erste wichtige Entwicklung dieses Konsortiums war der CDISC-Einreichungsstandard (CDISC-SDTM), welcher von der FDA im Juli 2004 als Format zur elektronischen Einreichung der Daten klinischer Prüfungen anerkannt wurde. SDTM steht für Study Data Tabulation Model, nach welchem sogenannte tabulierte Datensets als sogenannte Views auf die Daten einer Studie erzeugt werden. Solche Datensets können sowohl die in der Studie erhobenen Rohdaten als auch schon daraus abgeleitete Variable beinhalten. SDTM basiert auf dem Konzept von Beobachtungen zu Studienpatienten, die wiederum als eine Menge von Variablen beschrieben werden, die typischerweise einer Zeile in einer Datenbanktabelle entsprechen. Ein weiterer von CDISC herausgegebener Standard ist das Operational Data Model (ODM), das die Archivierung und den Austausch von Metadaten einer Studie und Studiendaten selbst unterstützen soll. Der Vorteil kommt insbesondere dann zum Tragen, wenn Daten einer Studie an verschiedenen Standorten mit unterschiedlichen, aber alle auf dem gleichen ODM beruhenden EDV-Anwendungen erhoben und gespeichert werden und dann nachträglich zusammengeführt werden sollen. Weitere vom CDISC-Konsortium in den letzten Jahren etablierte Standards sind das Study Design Model in XML (SDM-XML, eine ODM-Erweiterung zur Beschreibung von Struktur, Workflows und zeitlichen Ereignissen einer Studie), das Laboratory Data Model (LAB, zum Austausch von klinischen Labordaten zwischen Laboratorien und den Pharmaunternehmen), das Analysis Dataset Model (ADaM, zur Dokumentation der statistischen Auswertemethoden) sowie die Protocol Representation (PR, zur Beschreibung von Inhalt und Format zum Austausch von Informationen aus den Studienprotokollen klinischer Prüfungen). Die von CDISC initiierte CDASH-Initiative verfolgt das Ziel, einen Standard zur Erhebung und Dokumentation einzelner Datenelemente unabhängig vom Dokumentationsmedium oder Dokumentationssystem zu definieren und damit Forschungseinrichtungen die Durchführung klinischer Studien und die damit verbundene Datenerhebung zu vereinfachen. Ausgehend von der Definition von Datenelementen für die Domäne unerwünschte Arzneimittelwirkungen wurden für insgesamt 18 Domänen der klinischen Forschung die wichtigsten und am häufigsten erhobenen Datenelemente einheitlich definiert. Dazu wird jedes Datenelement anhand von sechs Attributen beschrieben: – Datenelement, – Variablenname, – Variablenbeschreibung,
4 IT für die medizinische Forschung
– – –
|
111
CRF-Ausfüllerläuterung, zusätzliche Informationen für den Sponsor einer Studie, optionales CDASH Core Attribute.
Tabelle 4.2 gibt eine Übersicht über die genannten CDISC-Standards. Tab. 4.2: CDISC-Standards. SDTM, Study Data Tabulation Model, CDISC-Einreichungsstandard ODM, Operational Data Model, Datenmodell für den Austausch von Daten und Metadaten SDM-XML, Study Design Model, ODM-Erweiterung LAB, Laboratory Data Model, Datenmodell zum Austausch von Labordaten ADaM, Analysis Dataset Model, Dokumentation der statistischen Methoden PR, Protocol Representation, Austausch von Information aus den Studienprotokollen CDASH, Clinical Data Acquisition Standards Harmonization, Standard zur Erhebung der Datenelemente
http://www.cdisc.org/sdtm http://www.cdisc.org/odm http://www.cdisc.org/study-trial-design http://www.cdisc.org/lab http://www.cdisc.org/adam http://www.cdisc.org/protocol http://www.cdisc.org/cdash
Seit 2001 arbeiten CDISC und HL7 daran, ihre jeweiligen Standards in einem schrittweisen Harmonisierungsprozess einander näher zu bringen, um Synergieeffekte zwischen IT-Lösungen der Krankenversorgung und der klinischen Forschung zu erzielen. Im BRIDG-Projekt (Biomedical Research Integrated Domain Group) wurde versucht, zusätzlich unterstützt durch das amerikanische National Cancer Institute (NCI) und die FDA, zwischen unterschiedlichen Organisationen, technischen und inhaltlichen Domänen-Experten sowie verschiedenen klinischen Informationsmodellen erstmalig eine „Brücke“ zu schlagen. Ziel des Projekts ist es, gemeinsame Definitionen für die Daten, Beziehungen und Prozesse zu etablieren, welche die Domäne der protokollgesteuerten Forschung und der damit assoziierten regulatorischen Artefakte beschreibt. Dies spielt insbesondere bei Single-Source-Projekten eine große Rolle. Gemeinsamen Definitionen, oft auch als view of shared semantics bezeichnet, sind als objektorientiertes Klassenmodell mittels der Unified Modeling Language (UML) und als HL7 Model (auf dem HL7 Reference Information Model (RIM) basierend) beschrieben.
4.8 Ausblick Die Bedeutung von IT-Infrastrukturen und innovativen Konzepten zur Wiederverwendung klinischer Routinedaten für Forschungszwecke hat in den letzten Jahren
112 | Hans-Ulrich Prokosch enorm an Bedeutung gewonnen. Beim Aufbau der in Kapitel 4.6.2 beschriebenen Forschungsdatenbanken spielt immer mehr auch die Integration von klinischen Parametern mit Analyseergebnissen aus neuen Technologieplattformen eine Rolle, die als sogenannte Omics-Daten z. B. aus Verfahren der Hochdurchsatz-Sequenzierung, aus Genexpressionsanalysen und aus der molekularen Diagnostik generiert werden. Die Integration dieser heterogenen Datenquellen stellt neue Herausforderungen auch an die semantische Annotation der Datenbestände. Aufgrund ihrer Heterogenität, Variabilität und oft auch noch mangelhaften Datenqualität spricht man hier mittlerweile von sogenannten Big Data-Technologien zu deren Auswertung neue analytische Verfahren des Data Minings sowie auch neue Hardware-Technologien, Betriebssysteme und Datenbankkonzepte (z. B. InMemory-Datenbanken und NoSQL-Datenbanken) entwickelt werden.
Dank Der Autor dankt allen die an der Erstellung des Kapitelmanuskripts durch sehr konstruktive und hilfreiche Kommentare beteiligt waren.
Quellenverzeichnis Beckmann, K.; Jud, S.; Hein, A.; Heusinger, K.; Bayer, C.; Schwenk, M.; Häberle, L.; Beck mann, M. W.: Dokumentation in der gynäkologischen Onkologie – Im Spannungsfeld zwischen Qualitätssicherung und Wissenschaft, Ergonomie und Rechtssicherheit. Gynäkologe 43 (2010) 400–410. DOI 10.1007/s00129-009-2503-y. BMBF. Kompetenznetze in der Medizin. 20. 08. 2015. http://www.gesundheitsforschung-bmbf.de/ de/159.php, Stand: 01. 03. 2015. CDISC, Electronic Source Data Interchange (eSDI) Group. Leveraging the CDISC Standards to Facilitate the Use of Electronic Source Data within Clinical Trials. Version: 1.0 No vember 2006. Download unter: http://www.cdisc.org/stuff/contentmgr/files/0/ 2f6eca8f0df7caac5bbd4fadfd76d575/miscdocs/esdi.pdf. Stand: 18. 09. 2011. Dugas, M.; Lange, M.; Berdel, W. E.; Müller-Tidow, C.: Workflow to improve patient recruitment for clinical trials within hospital information systems – a case-study. Trials 2008; 9: 2. doi:10.1186/1745-6215-9-2. http://www.trialsjournal.com/content/9/1/2. Stand: 18. 09. 2011. Dugas, M.; Lange, M.; Müller-Tidow, C.; Kirchhof, P.; Prokosch, H. U.: Routine data from hospital information systems can support patient recruitment for clinical studies. Clinical Trials 0 (2010) 1–7. doi:10.1177/1740774510363013. Ganslandt, T.; Prokosch, H. U.; Beyer, A.; Schwenk, M.; Starke, K.; Bärthlein, B.; Köpcke, F.; Mate, S.; Martin, M.; Schöch, W.; Seggewies, C.; Bürkle, T.: Single-Source-Projekte am Universi tätsklinikum Erlangen. Forum der Medizin_Dokumentation und Medizin_Informatik 2 (2010) 62–66. Kush, R.; Alschuler, L.; Ruggeri, R.; Cassels, S.; Gupta, N.; Bain, L.; Claise, C.; Shah, M.; Nahm, M.: Implementing Single Source: The STARBRITE Proof-of-Concept Study. J Am Med Inform Assoc, 14 (2007) 662– 673. doi 10.1197/jamia.M2157.
4 IT für die medizinische Forschung
|
113
Nationaler Ethikrat. Stellungnahme: Biobanken für die Forschung. Saladruck, Berlin 2004. Ohmann, C.; Kuchinke, W.: Meeting the challenges of patient recruitment – a role for electronic health records. Int J Pharm Med 21 (2007) 263–720. Pommerening, K.: Das Datenschutzkonzept der TMF für Biomaterialbanken. it – Information Techno logy 49, 6 (2007) 352–359. Prokosch, H. U.; Ganslandt, T.: Perspectives for Medical Informatics: Reusing the Electronic Medical Record for Clinical Research. Methods Inf Med 48 (2009): 38–44. doi: 10.3414/ME9132. Prokosch, H. U.; Beck, A.; Ganslandt, T.; Hummel, M.; Kiehntopf, M.; Sax, U.; Ückert, F.; Semler, S.: IT Infrastructure Components for Biobanking. Appl Clin Inf 1 (2010) 419–429. Volk, N; Klüß C.: Klinische Studien von Medizinprodukten: Übersicht und Ausblick der aktuellen Gesetzgebung und Normen. Kardiotechnik 1 (2010) 12–19.
Verzeichnis weiterführender Literatur Dugas, M.; Breil, B.; Thiemann, V.; Lechtenbörger, J.; Vossen, G.: Single source information systems to connect patient care and clinical research. Stud Health Technol Inform. 150 (2009) 61–65. Ganslandt, T.; Mate, S.; Helbing, K.; Sax, U.; Prokosch, H. U.: Unlocking Data for Clinical Research – The German i2b2 Experience. Appl Clin Inf 2 (2011) 116–127. Karjoth, J.: Sind anonymisierte Daten anonym genug? Digma, 1 (2008) 18–23. Lund, G. O.; Lindqvist, P.; Litton, J. E.: BIMS: An information management system for biobanking in the 21st century. IBM Systems Journal, 46, 1 (2007) 171–182. Murphy, S. N.; Weber, G.; Mendis, M.; Gainer, V.; Chueh, H. C.; Churchill, S. et al.: Serving the en terprise and beyond with informatics for integrating biology and the bedside (i2b2). J Am Med Inform Assoc 17, 2 (2010) 124–130. Ohmann, C.; Kuchinke, W.: Future developments of medical informatics from the viewpoint of net worked clinical research, interoperability and integration. Methods Inf Med. 48, 1 (2009) 45–54. Prokosch, H. U.; Ries, M.; Beyer, A.; Schwenk, M.; Seggewies, C.; Köpcke, C.; Mate, S.; Martin, M.; Bärthlein, B.; Beckmann, M. W.; Stürzl, M.; Croner, R.; Wullich, B.; Ganslandt, T.; Bürkle, T.: IT Infrastructure Components to Support Clinical Care and Translational Research Projects in a Comprehensive Cancer Center. MIE Proceedings, 2011, 892–896. Stege, A.; Hummel, M.: Erfahrungen bei Einrichtung und Betrieb einer Biobank. Pathologe 29 [Suppl 2] (2008) 214–217. Sweeney, L.: k-anonymity: a model for protecting privacy. International Journal on Uncertainty, Fuz ziness and Knowledge-based Systems, 10, 5 (2002) 557–570. Sweeney, L.: Achieving k-anonymity privacy protection using generalization and suppression. In ternational Journal on Uncertainty, Fuzziness and Knowledge-based Systems, 10, 5 (2002) 571–588. Viertler, C.; Zatloukal, K.: Biobanking and Biomolecular Resources Research Infrastructure (BBMRI). Implications for pathology. Pathologe 29 [Suppl 2] (Nov 2008) 210–213.
114 | Hans-Ulrich Prokosch
Testfragen 1. Wozu dient eine klinische Studie? 2. Was versteht man unter translationaler Forschung? 3. Was ist der Unterschied zwischen klinischen und epidemiologischen Registern? 4. Worin unterscheiden sich Vollzähligkeit und Vollständigkeit eines Registers? 5. Was ist eine IIT? 6. Welches sind die drei Phasen klinischer Zulassungsstudien und welches Ziel wird in der jeweili gen Phase verfolgt? 7. Welches Klassifikationssystem wird von der FDA zur Kodierung unerwünschter Ereignisse bei der Einnahme von Arzneimitteln verwendet? 8. Was ist eine Biobank? 9. Was versteht man unter dem Begriff Pharmakovigilanz? 10. Welche deutsche Institution ist für die Entgegennahme und Bearbeitung von Meldungen uner wünschter Arzneimittelwirkungen zuständig? 11. Welche Aktivitäten des Datenmanagements kennen Sie? 12. Was ist ein EDC-System? 13. Was ist ein Visitenplan? 14. Was ist ein eCRF? 15. Was sind, neben den eigentlichen biologischen Materialien, die wichtigsten Bestandteile einer Biobank? 16. Was versteht man unter Pseudonymisierung? 17. In welchen Forschungssituationen lässt sich das Prinzip der Anonymisierung nicht anwenden, ohne den Ablauf des Forschungsprojekts zu blockieren? 18. Welches sind die grundlegenden datenschutzrechtlichen Überlegungen beim Aufbau einer ITInfrastruktur für das Biobanking? 19. Was versteht man unter Single-Source-Konzepten?
Richard Lenz, Thomas Ganslandt
5 Medizinische Datenbanken 5.1 5.2 5.3 5.4 5.5 5.6
Einleitung | 116 Grundlagen | 117 Datenbankmodell und Datenbankentwurf | 124 Verteilte Datenhaltung und Systemintegration | 137 Data Warehouses in der Medizin | 142 Data Mining | 160
Zusammenfassung: Datenbanksysteme bieten Mechanismen zum schnellen Zugriff auf große Datenmengen und sind damit essenzieller Bestandteil medizinischer Informationssysteme. Sie implementieren Mechanismen zur Kontrolle der Konsistenz der Daten und zum Schutz vor Datenverlust. Grundlage der Entwicklung von Datenbanken ist der konzeptionelle, logische und physische Entwurf von Datenbankschemata. In der medizinischen Forschung und Versorgung werden die Daten häufig in unterschiedlichen Datenbanksystemen erfasst. Aus diesen können sie extrahiert und in einem Data Warehouse zusammengeführt werden, von dem aus sie aufbereitet, ausgewertet und in Berichtform gebracht werden können. Ein qualitativ hochwertiges Data Warehouse ist auch die Voraussetzung für die Anwendung von Techniken des Data Mining, mit denen neue Erkenntnisse aus den Daten gewonnen werden sollen. Abstract: Database systems enable fast access to high volume data. They implement dedicated mechanisms to control data consistency and avoid data loss. With this they are an integral part of medical information systems. Databases are developed with the help of conceptual, logical and physical database schemas. Data for patient care and medical research is often captured in different application systems and stored in separate databases. It can be extracted from these operational systems be transformed, integrated and cleansed and stored in a common data warehouse, which is the basis for data analysis and reporting. A high quality data warehouse is also a prerequisite for the application of data mining techniques, which are intended to discover new knowledge in large sets of data.
116 | Richard Lenz, Thomas Ganslandt
5.1 Einleitung Datenbanksysteme sind heute integraler Bestandteil medizinischer Informationssysteme. Sie bieten Mechanismen zum schnellen Zugriff auf große Datenmengen, ermöglichen eine gewisse Kontrolle der Datenqualität und schützen vor Datenverlust bei Systemausfällen und anderen Fehlern. In medizinischen Datenbanken werden insbesondere patientenbezogene Daten gesammelt, die einerseits unmittelbar zur Entscheidungsfindung im diagnostisch-therapeutischen Prozess beitragen, und andererseits auch für spätere Zugriffe zuverlässig verfügbar sein müssen. Dazu gehören Daten unterschiedlichster Art, wie Biosignale, Bilddaten, Labordaten, Verlaufsdokumentationen verschiedener Art, aber auch administrative Daten wie Abrechnungsdaten. Es ist offensichtlich, dass hierbei der Schutz vor Datenverlust von immenser Bedeutung ist. Im Bericht Crossing the Quality Chasm“ des Institute of Medicine wird die Nichtverfügbarkeit von Information zu den wichtigsten Ursachen für unerwünschte Nebenwirkungen (adverse events) gezählt [Corrigan 2005]. Die elektronische Speicherung medizinischer Daten gilt als Schlüsseltechnologie zur Handhabung der zunehmenden Datenflut und zur Verbesserung der Verfügbarkeit der Daten. Elektronisch gespeicherte Daten sind schneller abrufbar, können nach unterschiedlichen Kriterien gezielt durchsucht werden und können wesentlich besser analysiert werden. Spezielle Systeme, wie die Umsetzung einer elektronischen Patientenakte werden in anderen Kapiteln (Kapitel 3) besprochen. Datenbanksysteme bilden dabei die zentrale Basistechnologie, weil sie die gemeinsame, effiziente Benutzung großer Datenmengen durch viele Benutzer und Anwendungen ermöglichen. Gleichzeitig schützen sie sensible Daten vor unbefugtem Zugriff. Zentral aber ist die Konsistenzsicherung: Ein Datenbanksystem garantiert, dass dokumentierte Änderungen selbst bei externen Fehlern wie Stromausfällen nicht verlorengehen. Nachfolgend wird in Kapitel 5.2 beschrieben, wie auf der Basis des Transaktionskonzepts die Konsistenzsicherung in Datenbanken erfolgt. In Kapitel 5.3 wird der Prozess der Datenmodellierung erläutert, mit deren Hilfe die Struktur einer Datenbank bedarfsgerecht und redundanzfrei spezifiziert werden kann. Im Rahmen des medizinischen Versorgungprozesses werden Daten meist in unterschiedlichen Systemen erfasst und auch in unabhängig entwickelten Datenbanksystemen gespeichert. Die Problematik der verteilten Datenhaltung und der Systemintegration wird in Kapitel 5.4 diskutiert. Zum Zweck der Datenanalyse werden Daten häufig aus den operativen Systemen extrahiert und in einer speziellen Datenbank (Data Warehouse) zusammengeführt und in besonderer Weise aufbereitet. In Kapitel 5.5 wird die Verwendung solcher Data Warehouses im Kontext der Medizin erörtert. So bildet ein Data Warehouse eine konsolidierte Informationsbasis zur Generierung von Berichten und Statistiken. Darüber hinaus kann dieser Datenbestand aber auch als Basis zur Anwendung von Data-Mining-Techniken herangezogen werden, um neue Erkenntnisse aus den Daten zu gewinnen. Die hierfür angewendeten Methoden werden in Kapitel 5.6 kurz beschrieben.
5 Medizinische Datenbanken |
117
Lernziele dieses Kapitels sind: – Kennenlernen von Konzepten zur Sicherung der Konsistenz von Datenbanken und zur Ermöglichung von Nebenläufigkeit, – Kenntnisse über konzeptionellen und logischen Datenbankschemaentwurf und die Normalisierung von Datenbankschemata, – Verstehen der Problematik der verteilten Datenhaltung in medizinischen Informationssystemen, – Kennenlernen der Bedeutung von Data Warehouses und der Konzepte des Data Warehousing in der Medizin.
5.2 Grundlagen Eine Datenbank ist eine strukturierte Sammlung elektronisch gespeicherter zusammengehöriger Daten, die mithilfe eines Datenbankverwaltungssystems genutzt werden kann. Ein Datenbankverwaltungssystem (DBVS) oder Datenbankmanagementsystem (DBMS) beinhaltet die Programme, welche den Zugriff auf eine Datenbank ermöglichen und koordinieren. Datenbank und Datenbankverwaltungssystem zusammen bilden ein Datenbanksystem (DBS).
Die Aufgabe eines Datenbanksystems (DBS) besteht darin, eine Datenbank, die von vielen Benutzern und Anwendungen konkurrierend benutzt wird, konsistent zu halten. Konsistenz bedeutet dabei im Wesentlichen Freiheit von Widersprüchen. Um dies zu erreichen bieten DBS verschiedene Mechanismen zur Verbesserung der Datenqualität. Wesentliche Aufgabe des DBS ist insbesondere die Sicherung der Datenkonsistenz im Fehlerfall, wozu Fehler in Programmen genauso wie Betriebssystemabstürze und Medienfehler zählen. In begrenztem Umfang können durch sogenannte Integritätsbedingungen auch Bedienungsfehler auf der Datenbankebene erkannt werden. Es stellt sich die Frage, wie die Konsistenz der Datenbank erhalten werden kann, wenn einmal eine drohende Konsistenzverletzung erkannt wurde. Der zentrale Mechanismus zur Konsistenzsicherung ist das Transaktionskonzept. Die Transaktion ist eine Folge logisch zusammengehöriger Datenbankoperationen, welche eine Datenbank von einem konsistenten Zustand wieder in einen möglicherweise veränderten konsis tenten Zustand überführt.
118 | Richard Lenz, Thomas Ganslandt
Ein typisches Beispiel für eine Transaktion ist die Überweisung eines Betrags von einem Konto auf ein anderes, wozu mehrere Datenbankoperationen erforderlich sind. Zuerst muss der Kontostand beider Konten eingelesen werden. Wenn der Überweisungsbetrag auf dem einen Konto zur Verfügung steht, muss er dort abgebucht und dann dem anderen Konto gutgeschrieben werden. Es darf keinesfalls vorkommen, dass nur eine dieser Änderungsoperationen ausgeführt wird und die andere unterlassen wird.
Logisch zusammengehörige Datenbankoperationen, werden in einer Transaktion zusammengefasst. Vereinfachend kann eine Transaktion aus der Sicht des DBS als eine Folge von Leseoperationen (r = read) und Schreiboperationen (w = write) verstanden werden, die als eine Ausführungseinheit zu betrachten ist. Anfang und Ende der Transaktion müssen somit dem DBS mitgeteilt werden. Eine Transaktion kann entweder mit der Anweisung commit (c) oder mit abort (a) abgeschlossen werden.
Abstraktes Beispiel für eine Transaktion T : BOT r(x)r(y)w(x)w(y)c BOT (Begin of Transaction) signalisiert den Anfang der Transaktion, Es folgen Lese- und Schrei boperationen auf den Objekten x und y und c (commit) signalisiert das Ende der Transaktion.
Das DBS sichert die Konsistenz eines Datenbestands, indem es für jede Transaktion bestimmte Eigenschaften sicherstellt: – Atomicity (Atomarität – Unteilbarkeit): Es werden immer alle oder keine der Operationen einer Transaktion ausgeführt. Wenn eine Transaktion mehrere Datenbankobjekte ändert, werden entweder alle diese Änderungen wirksam oder keine. – Consistency (Konsistenz – Widerspruchsfreiheit): Jede Transaktion erhält die Konsistenz der Datenbank. Nach Abschluss der Transaktion sind alle definierten Integritätsbedingungen erfüllt, auch wenn zwischenzeitlich inkonsistente Datenbankzustände durchlaufen werden. – Isolation (Isolation – Freiheit von Wechselwirkungen): Aus Sicht einer Transaktion treten keine Interferenzen mit anderen nebenläufigen Transaktionen auf. Es soll der Eindruck erweckt werden, dass während der Ausführung der Transaktion keine anderen nebenläufigen Aktivitäten auf der Datenbank stattfinden (logischer Einbenutzerbetrieb). – Durability (Dauerhaftigkeit): Nach erfolgreichem Abschluss einer Transaktion (Commit) gehen die Änderungen in der Datenbank, welche die Transaktion bewirkt hat, nicht mehr verloren. Diese Transaktionseigenschaften werden üblicherweise mit dem Akronym ACID abgekürzt. Man spricht dementsprechend auch von ACID-Transaktionen.
5 Medizinische Datenbanken |
119
Eine Transaktion kann entweder durch commit oder abort abgeschlossen werden. Die Anweisung commit signalisiert dem DBS, dass nun alle Änderungen durch die Transaktion dauerhaft und sichtbar gemacht werden sollen. Durch die Anweisung abort wird signalisiert, dass alle Änderungen der Transaktion rückgängig gemacht werden sollen und der Zustand vor Ausführung der Transaktion wieder herzustellen ist. Wird eine Transaktion durch einen äußeren Fehler wie bspw. einen Betriebssystemabsturz unterbrochen, so muss sie ebenfalls vollständig rückgängig gemacht werden. Alle notwendigen Informationen, die das DBS benötigt, um im Fehlerfall die Datenbank wiederherstellen zu können, werden vom DBVS in eine Protokolldatei geschrieben. Beim Wiederanlauf nach einem Fehler muss das DBS auf Basis der Informationen in der Protokolldatei sicherstellen können, dass alle Transaktionen, die zum Zeitpunkt des Systemabsturzes noch nicht abgeschlossen waren, vollständig zurückgesetzt werden. Außerdem muss garantiert werden, dass alle Transaktionen, die zum Zeitpunkt des Fehlers bereits abgeschlossen waren, tatsächlich vollständig überleben (Dauerhaftigkeit). Die Atomarität von Transaktionen wird vor allem durch ein zweiphasiges Freigabeprotokoll sichergestellt (2-Phase Commit, 2PC). Das Grundprinzip wird in Abbildung 5.1 dargestellt. Um die Rücksetzbarkeit einer Transaktion sicherstellen zu können, dürfen Datenbankobjekte nicht überschrieben werden, ohne vorher den alten Zustand des Objekts auf stabilem (nichtflüchtigem) Speicher zu hinterlegen. Anwendungsprogramm
Datenbanksystem
Beginn der Transaktion Datenbankoperationen (read/write)
Das Datenbanksystem muss sicherstellen, dass Änderungsoperationen ggf. noch rücksetzbar sind.
commit
1. Phase
Sicherstellen der Wiederholbarkeit der Änderungen Commit protokollieren: „Point of no return“
2. Phase
Freigeben der gesperrten Betriebsmittel Bestätigung über erfolgreiches Ende
Abb. 5.1: Sicherung der Atomarität einer Transaktion durch ein 2-Phasen-Freigabeprotokoll (2-Phase Commit, 2PC). Links wird der Zeitverlauf eines Transaktionsprogrammes von oben nach unten dar gestellt. Rechts ist abgebildet, was das Datenbanksystem tun muss, um die Atomarität der Transak tion sicherzustellen.
120 | Richard Lenz, Thomas Ganslandt
Eine Transaktion ist erfolgreich beendet, sobald der zugehörige Commit-Satz in der Protokolldatei auf stabilem Speicher steht. Der Commit-Satz darf aber erst dann geschrieben werden, wenn zuvor die Wiederholbarkeit der Transaktion sichergestellt ist und somit alle Änderungen der Transaktion ebenfalls auf stabilem Speicher stehen. Erst nachdem der Commit-Satz geschrieben ist, dürfen in der zweiten Phase des Protokolls die Änderungen der Transaktion für andere Transaktionen sichtbar gemacht werden (Freigabe der gesperrten Betriebsmittel). Beim Wiederanlauf nach einem Systemabsturz werden die Änderungen all der Transaktionen wiederhergestellt, deren Commit-Satz in der Protokolldatei zu finden ist. Zurückgesetzt werden Änderungen an der Datenbank, die zu Transaktionen gehören, deren Commit-Satz nicht in der Protokolldatei steht. Die Gewährleistung der Konsistenz einer Datenbank liegt nicht nur in der Verantwortung des DBS, sondern vor allem auch in der Verantwortung des Programmierers der Transaktionsprogramme. Das DBS kann am Ende einer Transaktion zwar überprüfen, ob bestimmte definierte Integritätsbedingungen eingehalten wurden und ggf. eine Transaktion zurücksetzen. Der Programmierer ist aber dafür verantwortlich, dass das Transaktionsprogramm die Datenbank tatsächlich von dem einem konsistenten Zustand wieder in einen anderen konsistenten Zustand überführt. Wenn jede Transaktion in dieser Art konsistenzerhaltend ist, so ist auch die Ausführung vieler Transaktionen hintereinander konsistenzerhaltend. Eine solche sequentielle Ausführung von Transaktionen ist aber in der Regel nicht ausreichend, um einen hohen Transaktionsdurchsatz zu erreichen. Damit viele Benutzer gleichzeitig mit der Datenbank arbeiten können und auch akzeptable Antwortzeiten erreichen, müssen viele Transaktionen – unter Erhalt der Konsistenz – quasi gleichzeitig erfolgen. Ausgehend von dieser Überlegung wird eine nebenläufige Ausführung einer Menge von Transaktionen dann als korrekt bezeichnet, wenn es auch eine sequenzielle Ausführungsreihenfolge dieser Transaktionen gibt, welche die gleichen Ergebnisse produziert. Ist dieses Kriterium erfüllt, spricht man von einer serialisierbaren nebenläufigen Ausführung. Die Isolation von nebenläufigen Transaktionen wird durch Verfahren erreicht, welche die Serialisierbarkeit der Transaktionen sicherstellen. Ohne ein derartiges Verfahren kann es zu unerwünschten Nebenläufigkeitsanomalien kommen. In Abbildung 5.2 werden diese Anomalien veranschaulicht. Aus der Sicht eines DBS erzeugen nebenläufige Transaktionen eine durchmischte Folge von Datenbankoperationen (nebenläufige Historie), die dann korrekt ist, wenn sie äquivalent zu einer seriellen Historie ist. Bei den in Abbildung 5.2 dargestellten Anomalien ist dies nicht der Fall. Es kann z. B. vorkommen, dass eine Transaktion T1 ein Objekt x liest und das gleiche Objekt danach ändert. Wird zwischen diesen beiden Operationen das Objekt x noch von einer anderen Transaktion T2 geändert, so geht diese Änderung verloren (lost update). Eine Transaktion, die zweimal das gleiche Objekt liest, könnte erwarten, dass sie auch zweimal den gleichen Wert liest. Wird der Wert jedoch zwischenzeitlich von einer anderen Transaktion geändert, so ist die Isolation verletzt (unrepeatable read). Sieht eine Transaktion T2 eine Änderung einer anderen Transaktion T1 , die
5 Medizinische Datenbanken |
121
verlorengegangene Änderung (lost update): Transaktion 1 Transaktion 2
BOT
r(x)
BOT
w(x)
r(x)
w(x)
c c
inkonsistente Analyse (unrepeatable read): Transaktion 1 Transaktion 2
BOT
r(x)
BOT
w(y) w(x)
r(x) w(z)
c
c
Lesen „schmutziger“ Daten (dirty read): Transaktion 1
BOT
r(x) w(x)
Transaktion 2 BOT Beginn der Transaktion r(x) Lesen des Objektes x
BOT
r(x)
w(y)
w(x) Schreiben des Objektes x c Commit
Abb. 5.2: Nebenläufigkeitsanomalien. lost update: Transaktion 2 überschreibt eine Änderung von Transaktion 1 unrepeatable read: Transaktion 1 liest verschiedene Werte für dasselbe Objekt dirty read: Transaktion 2 sieht Änderungen einer nicht abgeschlossenen Transaktion.
noch nicht freigegeben ist, so nennt man dies einen dirty read (schmutziges Lesen). Das Problem dabei ist, dass die Transaktion T1 auch noch abgebrochen werden könnte, was zur Folge hätte, dass T2 einen Wert gelesen hätte, den es nie gegeben hat. Verfahren zur Vermeidung solcher Nebenläufigkeitsanomalien müssen konfligierende Operationen verschiedener Transaktionen erkennen können. Zwei Operationen von zwei Transaktionen stehen immer dann im Konflikt, wenn beide das gleiche Objekt betreffen und mindestens eine der Operationen eine Schreiboperation ist. Am weitesten verbreitet sind die Sperrverfahren, bei denen Datenbankobjekte vor der Benutzung mit einer Sperre belegt werden, sodass konfligierende Zugriffe erkannt und blockiert werden können. Nach der Benutzung muss die Sperre wieder freigegeben werden. Üblicherweise werden zahlreiche unterschiedliche Sperrmodi unterschieden, mindestens jedoch wird zwischen Lese- und Schreibsperren unterschieden. Eine Lesesperre wird nur dann gewährt, wenn keine Schreibsperre auf dem Objekt gewährt ist. Eine Schreibsperre wird nur gewährt, wenn gar keine anderen Sperren auf dem Objekt gewährt sind. Auf diese Weise wird garantiert, dass zu einem Zeitpunkt nur eine Transaktion ein Objekt ändern kann, und dass währenddessen keine andere Transaktion das Objekt liest. Es ist aber gestattet, dass mehrere Transaktionen das gleiche Objekt gleichzeitig lesen. Wenn die Sperren gleich nach der Datenbankoperation wieder freigegeben werden, kann die Serialisierbarkeit der Transaktionen nicht gewährleistet werden. Dazu ist ein Zwei-Phasen Sperrprotokoll erforderlich.
122 | Richard Lenz, Thomas Ganslandt
Ein Sperrverfahren ist zweiphasig, wenn keine Sperren mehr angefordert werden, nachdem die erste Sperre freigegeben wurde. In der ersten Phase der Transaktion werden also nur Sperren angefordert, in der zweiten Phase werden nur Sperren freigegeben. Wenn alle Transaktionen dieser Regel folgen und niemals Transaktionen abgebrochen werden, dann garantiert ein solches Verfahren die Serialisierbarkeit der nebenläufigen Transaktionen. Da es vorkommen kann, dass Transaktionen abgebrochen werden, birgt die vorzeitige Freigabe von Sperren (vor dem Commit der Transaktion) die Gefahr, dass die Dauerhaftigkeit von Transaktionen und die Isolation nicht mehr gleichzeitig gewährleistet werden können. Dies sei an einem Beispiel verdeutlicht. Gegeben sei die nebenläufige Historie H1 der Transaktionen T1 und T2 . Die Zugehörigkeit einer Operation zu einer Transaktion wird durch einen entsprechenden Index und zur optischen Verdeutlichung auch durch einen jeweils anderen Schrifttyp angezeigt: H1 :
BOT 1 w1 (x) BOT 2 r2 (x)w2 (y)c2
a1
Die Transaktion T2 sieht den Wert von x, den T1 zuvor geschrieben hat, und wird erfolgreich beendet (c2 ). Danach wird T1 abgebrochen (a1 ). Um die Serialisierbarkeit zu gewährleisten, müsste nun T2 auch abgebrochen werden. Da T2 aber bereits abgeschlossen ist, würde ein nachträglicher Abbruch die Dauerhaftigkeit verletzten. Die Historie H1 ist nicht wiederherstellbar (unrecoverable). Neben der Serialisierbarkeit ist also die Wiederherstellbarkeit von Transaktionen eine weitere Eigenschaft, die von nebenläufigen Historien gefordert werden muss. Die Wiederherstellbarkeit von Transaktionen kann sichergestellt werden, wenn das Commit jeder Transaktion T1 solange verzögert wird, bis alle Transaktionen T2 . . . T n , von denen T1 schmutzige Daten gelesen hat, abgeschlossen sind. Bricht allerdings eine der Transaktionen T2 . . . T n ab, so muss auch T1 abgebrochen werden. Die Verzögerung des Commit ist notwendig, um diesen Abbruch überhaupt zu ermöglichen, ohne die Dauerhaftigkeit zu gefährden. Um solche kaskadenartigen Abbrüche zu vermeiden, dürfen schmutzige Daten überhaupt nicht gelesen werden. Das kann dadurch erreicht werden, dass Schreibsperren immer bis zum Ende der Transaktion gehalten werden. Ein Leser, der dann eine Lesesperre anfordert, bekommt diese erst, wenn die schreibende Transaktion fertig ist, d. h. wenn feststeht, dass Änderungen nicht mehr rückgängig gemacht werden (die geänderten Objekte also nicht mehr „schmutzig“ sind). Erst in der zweiten Phase des Freigabeprotokolls (Abb. 5.1) dürfen die Schreibsperren freigegeben werden, weil vorher nicht feststeht, ob die Transaktion wirklich erfolgreich abgeschlossen wird. Lesesperren können theoretisch bereits vor dem Commit freigegeben werden, ohne die Wiederherstellbarkeit zu gefährden. Da in der Praxis aber normalerweise nicht bekannt ist, ob eine Transaktion in ihrem weiteren Verlauf noch weitere Sperren benötigt, werden auch die Lesesperren zur Sicherstellung der Zweiphasigkeit bis zum Ende der Transaktion gehalten. Ein Sperrverfahren, bei dem die Sperren bis zum Ende der Transaktion gehalten werden, wird als striktes 2-Phasen-Sperrprotokoll bezeichnet.
5 Medizinische Datenbanken |
123
Sperrverfahren sind blockierende Verfahren: Wenn eine Sperre nicht gewährt werden kann, wird die anfordernde Transaktion blockiert, d. h. solange unterbrochen, bis die Sperre gewährt werden kann. Wenn nun Sperren bei Bedarf im Laufe einer Transaktion nacheinander angefordert werden, kann es vorkommen, dass die Transaktion bereits Sperren besitzt und gleichzeitig blockiert wird, weil sie auf weitere Sperren wartet. Das kann zu einer zyklischen Wartesituation führen, die als Verklemmung oder Deadlock bezeichnet wird. Ohne äußeres Zutun würden die an einer Verklemmung beteiligten Transaktionen für immer blockiert bleiben. Um dies zu verhindern, müssen geeignete Maßnahmen getroffen werden. Entweder muss von vornherein verhindert werden, dass eine Verklemmungssituation eintreten kann, oder aber Verklemmungen müssen erkannt und aufgelöst werden. Ein sehr einfaches Verfahren zur Auflösung von Verklemmungen ist das Timeout-Verfahren: Es wird eine Zeitschranke (Timeout) vorgegeben, die festlegt, wie lange eine Transaktion längstens auf eine Sperre warten darf. Wird die Zeitschranke überschritten, so wird die Transaktion zurückgesetzt. Durch dieses Verfahren werden alle Verklemmungen aufgelöst. Es kann aber auch sein, dass unnötig viele Transaktionen zurückgesetzt werden. Wenn beispielsweise der Timeout zu kurz gewählt ist, könnte es sein, dass Transaktionen aufgrund einer hohen Last zurückgesetzt werden, obwohl gar keine Verklemmung vorliegt. Wird der Timeout zu lange gewählt, so werden bei einer Verklemmung die Ressourcen der beteiligten Transaktionen unnötig lange blockiert. Zur Auflösung einer Verklemmung reicht es aus, eine der beteiligten Transaktionen zurückzusetzen. Damit nicht alle an einer Verklemmung beteiligten Transaktionen durch den gleichen Timeout abgebrochen werden, kann die Zeitschranke für jede Transaktion geringfügig variiert werden. Um den Transaktionsdurchsatz zu erhöhen, bieten viele Datenbankverwaltungssysteme die Möglichkeit, die Isolation von Transaktionen einzuschränken, sodass weniger Blockierungen auftreten. Allerdings werden dabei einige Nebenläufigkeitsanomalien bewusst in Kauf genommen. In diesem Zusammenhang spricht man oft auch von Isolationsstufen (isolation levels). Durch Variationen des Sperrverfahrens können vier Isolationsstufen unterschieden werden: – Stufe 0: Es werden nur für die Dauer von Änderungsoperationen kurze Schreibsperren angefordert, damit nicht zwei Transaktionen gleichzeitig das gleiche Objekt ändern können. Alle beschriebenen Nebenläufigkeitsanomalien können hier vorkommen. Außerdem kann das Rücksetzen einer Transaktion möglicherweise nicht mehr gefahrlos durchgeführt werden, weil geänderte Objekte zwischenzeitlich wieder geändert sein könnten (schmutziges Schreiben = dirty write). – Stufe 1: Schreibsperren werden bis zum Ende der Transaktion gehalten. Auf diese Weise wird immerhin das sichere Rücksetzen einer Transaktion ermöglicht. Alle beschriebenen Anomalien kommen aber immer noch vor. Da keine Lesesperren angefordert werden, kann trotz der Schreibsperren jederzeit gelesen werden, sodass auch schmutziges Lesen (dirty read) möglich ist.
124 | Richard Lenz, Thomas Ganslandt
–
–
Stufe 2: Schreibsperren werden bis zum Ende der Transaktion gehalten, Lesesperren werden nach der Leseoperation sofort wieder freigegeben. Schmutziges Lesen wird dadurch verhindert, die inkonsistente Analyse (Abb. 5.2) aber nicht. Stufe 3: Lese- und Schreibsperren werden bis zum Ende der Transaktion gehalten, sodass serialisierbare Historien garantiert sind.
Wenn für jede Transaktion mindestens die Stufe 1 sichergestellt ist, dann können die Isolationsstufen für nebenläufige Transaktionen unabhängig gewählt werden.
5.3 Datenbankmodell und Datenbankentwurf Grundlage jedes Datenbankverwaltungssystems ist ein Datenbankmodell, das die grundsätzliche Struktur der Daten vorgibt, die verwaltet werden sollen. Ein Datenmodell (hier auch: Datenbankmodell) gibt die grundlegende Form der Datenstrukturie rung in einem Datenbankverwaltungssystem vor.
Das Datenbankmodell ist demnach ein charakteristisches Merkmal jedes Datenbankverwaltungssystems. Das historisch älteste Datenbankmodell ist das hierarchische Datenbankmodell, bei dem logisch zusammenhängende Datensätze im Rahmen hierarchisch strukturierter Datenstrukturen auch physisch benachbart abgespeichert werden. Das hierarchische Datenmodell spielt im Zusammenhang mit medizinischen Datenbanken eine besondere Rolle, da es durch das MUMPS-Programmiermodell (Massachusetts General Hospital Utility Multi-Programming System) als Grundlage zahlreicher Krankenhausinformationssysteme jahrzehntelang verbreitet war. Der große Vorteil hierarchischer Datenbanken besteht darin, dass der lesende Zugriff sehr schnell ist, wenn entlang der definierten Hierarchien zugegriffen wird. Wird beispielsweise gefragt: „Gib mir alle Befunde des Patienten Mustermann“, dann geht das sehr schnell, weil alle Daten zu diesem einem Patienten abgefragt werden. Wird aber gefragt „Gib mir alle Patienten, die einen Befund zu Hirntumor haben“, dauert das sehr lange, weil bei allen Patienten nach einem entsprechenden Befund gesucht werden muss. Der entscheidende Nachteil des hierarchischen Datenbankmodells ist sein geringer Grad an Datenunabhängigkeit. Der Benutzer einer Datenbank muss die physische Speicherungsstruktur kennen, um die Datenbank nutzen zu können. Die Speicherungsstruktur kann damit auch nicht verändert werden, ohne in der Folge auch alle Anwendungsprogramme ändern zu müssen, die auf die Datenbank zugreifen. Das relationale Datenbankmodell ist heute das gängigste Modell.
5 Medizinische Datenbanken |
125
Beim relationalen Datenmodell (hier auch relationales Datenbankmodell) werden alle Daten in Tabellen abgelegt. Alle Felder in einer Tabelle enthalten dabei nur atomare Attributwerte und keine Listen oder geschachtelten Tabellen.
Ein wesentliches Merkmal dieses Datenmodells ist sein hoher Grad an Datenunabhängigkeit, sodass sein Benutzer keine Kenntnisse über die physische Speicherung der Datensätze benötigt, um sie nutzen zu können. Das ist wichtig, damit Änderungen auf der Ebene der physischen Datenspeicherung keine Auswirkungen auf die Anwendungsprogramme haben. Die unmittelbare Konsequenz daraus ist, dass logisch zusammengehörige Datensätze nicht durch physisch benachbarte Speicherung, aber auch nicht durch physische Zeiger, die auf einen Speicherbereich verweisen, verkettet werden dürfen (wie das z. B. im Netzwerk-Datenbankmodell der Fall ist). Stattdessen sollen Datensätze im relationalen Datenbankmodell allein aufgrund von Attributwerten identifiziert werden können. Diese Forderung schlägt sich besonders in der Konzeption der deskriptiven Datenbanksprache SQL nieder, die eng mit dem relationalen Datenbankmodell verknüpft ist. Die nachfolgende Darstellung beschreibt den Entwurf eines relationalen Datenbankmodells. Eine konkrete Datenbank wird durch ein Datenbankschema beschrieben und unscharf oft auch als „Datenmodell“ bezeichnet. Ein Datenbankschema beschreibt eine konkrete Datenbank auf der Basis eines Datenmodells.
Der Entwurf eines Datenbankschemas beginnt üblicherweise mit der Erstellung eines implementierungsunabhängigen konzeptionellen Datenbankschemas, oft in Form eines Entity-Relationship-Diagramms (E/R-Diagramm, Abb. 5.3). Im Rahmen des E/R-Modells wird der Gegenstandsbereich der Datenbank, die sogenannte Miniwelt, beschrieben. Insbesondere werden Integritätsbedingungen spezifiziert, die das Datenbanksystem später sicherstellen soll. arbeitet_in N
Arzt
Personalnummer Name
1
Abteilung
Abteilungsnummer Fachbereich
Vorname Gehalt Abb. 5.3: Einfaches E/R-Diagramm. Hier wird ein Entity-Typ Arzt und ein Entity-Typ Abteilung durch einen Relationship-Typ arbeitet_in verknüpft. Ein Entity-Typ ist durch ein Rechteck, ein Relation ship-Typ durch eine Raute dargestellt.
126 | Richard Lenz, Thomas Ganslandt
Das konzeptionelle Datenbankschema wird im Rahmen des logischen Entwurfs auf ein logisches Datenbankschema abgebildet, das auf der Basis des zu verwendenden Datenbankmodells zu formulieren ist. Dabei ist darauf zu achten, dass die im konzeptionellen Schema formulierten Bedingungen möglichst verlustfrei formuliert werden und zusätzliche Einschränkungen vermieden werden, damit Sachverhalte, die auf der Basis des konzeptionellen Modells darstellbar sind, auch im logischen Modell darstellbar sind. Integritätsbedingungen, die im konzeptionellen Modell explizit formuliert sind, sollen durch das logische Modell auch umgesetzt werden. Das logische Datenbankschema wird in einem weiteren Schritt unter Berücksichtigung der zu erwartenden Datenbanklast ergänzt oder modifiziert, um die Performanz des Datenbanksystems zu verbessern. Das Ergebnis wird als physisches Datenbankschema bezeichnet. Eine typische Modifikation im Rahmen des physischen Datenbankentwurfs ist beispielsweise die gezielte Denormalisierung von Tabellen, d. h. die explizite Duldung redundanter Information innerhalb einer Tabelle. Typische Ergänzungen sind Indexstrukturen zur Beschleunigung des Zugriffs über häufig verwendete Suchschlüssel. In den nachfolgenden Abschnitten werden der konzeptionelle und der logische Entwurf etwas genauer betrachtet.
5.3.1 Das konzeptionelle Datenbankschema Die Aufgabe des konzeptionellen Datenbankschemas besteht unter anderem darin, unabhängig von Implementierungszwängen die in der Datenbank abzubildenden Sachverhalte mit Domänenexperten zu besprechen und zu spezifizieren. Das EntitiyRelationsship-Modell (E/R-Modell) kommt dieser Intention entgegen, da es nur sehr wenige Modellierungsprimitive umfasst und somit leicht verständliche Darstellungen ermöglicht. Das Entity-Relationship-Modell (E/R-Modell) stellt eine Methode zur implementierungsunabhän gigen Modellierung eines in einer Datenbank abzubildenden Ausschnitts der realen Welt dar.
Alles, was in der Datenbank durch einen strukturierten Datensatz repräsentiert werden soll und eine eigenständige Existenz aufweist, wird in dieser Methodik als Entity oder Gegenstand aufgefasst. Ein Entity-Typ oder Gegenstandstyp beschreibt die gemeinsamen Merkmale gleichartiger Entities. Beispielsweise könnte ein Entity-Typ Arzt durch die Attribute Personalnummer, Name, Vorname, Gehalt beschrieben werden. Jedes Entity dieses Typs wird dann durch konkrete Werte in diesen Attributen beschrieben. Unterstrichene Attribute sind Schlüsselattribute und der Wert in einem Schlüsselattribut identifiziert genau ein Entity. Es gibt z. B. keine zwei Ärzte mit der gleichen Personalnummer. Schlüsselattribute spielen eine besondere Rolle, weil ihre Werte als logische Zeiger auf einzelne Datensätze verwendet werden können.
5 Medizinische Datenbanken |
127
Verschiedene Entities können zueinander in Beziehung stehen. Eine Beziehung zwischen zwei Entities wird in dieser Methodik auch als Relationship bezeichnet. Analog zu den Entities werden gleichartige Beziehungen durch Relationship-Typen oder auch Beziehungstypen beschrieben, die ebenfalls Attribute aufweisen können. Die Darstellung erfolgt üblicherweise in Form von E/R-Diagrammen, für die es zahlreiche unterschiedliche Notationen gibt (Abb. 5.3). Die nachfolgende Darstellung orientiert sich wesentlich an der von Elmasri und Navathe in ihrem Lehrbuch verwendeten Notation [Elmasri 2010]. Hier wird ein Entity-Typ Arzt und ein Entity-Typ Abteilung durch einen Relationship-Typ arbeitet_in verknüpft. Ein Entity-Typ wird durch ein Rechteck, ein Relationship-Typ durch eine Raute dargestellt. Die Verbindungslinien können einfach oder doppelt sein. Eine doppelte Linie signalisiert die totale Teilnahme eines Entity-Typs an diesem Beziehungstyp. D. h. für das Beispiel aus Abbildung 5.3 gilt: Jeder Arzt wird mindestens einer Abteilung zugeordnet. Zusätzlich sind die Verbindungslinien zu den Entity-Typen mit Kardinalitätsangaben annotiert. Insbesondere ist die Kante zum Entity-Typ Abteilung mit einer 1 annotiert, was bedeutet, dass jeder Arzt höchstens einer Abteilung zugeordnet wird. Jeder binäre Beziehungstyp verbindet genau 2 Entity-Typen miteinander (A und B). Jede einzelne Beziehung dieses Typs setzt genau 2 Entities zueinander in Beziehung, nämlich ein a vom Typ A und ein b vom Typ B. Ohne Kardinalitätsangaben kann jede beliebige Kombination (a, b) in die Menge der Beziehungen aufgenommen werden. In diesem Fall spricht man auch von N : M-Beziehungen. Durch die Kardinalitätsangaben bei Beziehungstypen wird die Anzahl der möglichen Beziehungen eingeschränkt (constraints). Das Beispiel aus Abbildung 5.3 stellt eine 1 : N-Beziehung dar, bei der ein Arzt höchstens einer Abteilung zugeordnet ist. Wenn auf beiden Seiten des Beziehungstyps Einschränkungen definiert sind, spricht man von 1 : 1-Beziehungen. Die Kardinalitätsangaben bei Beziehungstypen werden gebraucht, um Integritätsbedingungen in der abzubildenden Miniwelt zu modellieren, die das Datenbanksystem später sicherstellen soll. Diese Überprüfung kann dazu beitragen, die Korrektheit des Datenbestands zu verbessern. Die Korrektheit des Datenbestands kann niemals vollständig garantiert werden, aber es können bestimmte Zusammenhänge der realen Welt im Datenbanksystem als Regelwerk hinterlegt werden, sodass zumindest diese Regeln automatisch sichergestellt werden können. Welche Regeln durch ein Modell definiert werden können, hängt von der Ausdrucksmächtigkeit der Modellierungssprache ab. Eine einfache Methode wie das E/R-Modell reicht i. A. nicht aus, um alle realen Zusammenhänge exakt im Modell nachzubilden. Die Kardinalitätsangaben sind aber besonders wichtig, weil sie einen Einfluss darauf haben, welche Möglichkeiten es überhaupt gibt, Datensätze auf Tabellen abzubilden. Zur Spezifikation der Kardinalität eines Beziehungstyps können unterschiedliche Notationen verwendet werden. Die in Abbildung 5.3 verwendete Notation ist die sogenannte Chen-Notation, die nach dem Erfinder der E/R-Methodik Peter Chen benannt ist. Sie ist dadurch charakterisiert, dass die funktional abhängigen Entity-Typen jeweils durch eine „1“ an der entsprechenden Kante gekennzeichnet werden. Häufig
128 | Richard Lenz, Thomas Ganslandt
A
(0,1)
(1,N)
B
Abb. 5.4: Min-Max-Notation für Beziehungstypen. Jedes Entity vom Typ A nimmt an höchstens einer Beziehung teil. Jedes Entity vom Typ B nimmt an mindestens einer Beziehung teil.
A
N
1
B
Abb. 5.5: Chen-Notation für Beziehungstypen. Jedes Entity vom Typ A nimmt an höchstens einer Beziehung teil. Jedes Entity vom Typ B nimmt an mindestens einer Beziehung teil.
wird statt der Chen-Notation auch die Min-Max-Notation verwendet, die sich in ihrer Definition grundlegend von der Chen-Notation unterscheidet. Die Min-Max-Notation wird verwendet, um zu spezifizieren, an wie vielen Beziehungen eines Beziehungstyps ein Entity eines bestimmten Entity-Typs beteiligt sein kann. Dazu wird eine untere und eine obere Grenze definiert (min, max) (Abb. 5.4). Das Beispiel besagt: Ein a vom Typ A kann entweder an keiner oder an höchstens einer Beziehung teilnehmen. Jedes b vom Typ B nimmt an beliebig vielen Beziehungen teil, mindestens aber an einer. Eine totale Teilnahme eines Entity-Typs an einem Beziehungstyp kann mithilfe der Min-Max-Notation modelliert werden, indem für diesen Entity-Typ eine untere Grenze größer als 0 gewählt wird. Im Beispiel aus Abbildung 5.4 hat der Entity-Typ B eine totale Teilnahme am dargestellten Beziehungstyp. Bei der Chen-Notation werden keine Angaben darüber gemacht, an wie vielen Beziehungen ein Entity teilnehmen kann. Stattdessen wird definiert, welche Entity-Typen funktional durch die übrigen Entity-Typen bestimmt sind. Bei einem binären Beziehungstyp zwischen zwei Entity-Typen A und B bedeutet das: Steht beim Entity-Typ B eine 1, dann wird B durch A funktional bestimmt. Das bedeutet, zu einem a vom Typ A gibt es nur höchstens ein b vom Typ B. Anders ausgedrückt: für jedes a vom Typ A gibt es nur höchstens ein Tupel (a, b) in der Menge der Beziehungen. Eine totale Teilnahme eines Entity-Typs an einem Beziehungstyp kann mithilfe der Chen-Notation modelliert werden, indem dieser Entity-Typ durch eine doppelte Linie mit dem Beziehungstyp verbunden wird. Dies entspricht einer unteren Grenze 1 bei der Min-Max-Notation. Im Beispiel in Abbildung 5.5 hat der Entity-Typ B eine totale Teilnahme am dargestellten Beziehungstyp. Die beiden angeführten Beispiele (Abb. 5.4 und Abb. 5.5) sind äquivalent. Es gibt aber auch Bedingungen (z. B. bei einer unteren Grenze größer als 1), die nur durch die Min-Max-Notation modelliert werden können. Außerdem gibt es Bedingungen, die nur durch die Chen-Notation modelliert werden können, insbesondere bei mehrstelligen Beziehungstypen.
5 Medizinische Datenbanken |
Gebäude
129
Raum Gebäudenummer
Raumnummer
Abb. 5.6: Schwacher Entity-Typ und identifizierender Beziehungstyp. Ein Entity vom Typ Raum muss immer genau einem Entity vom Typ Gebäude zugeordnet sein. Ein Raum kann nur mit der Raumnummer zusammen mit der zugehörigen Gebäudenummer identifiziert werden. Das Schlüsselattribut Gebäudenummer ist unterstrichen. Der partielle Schlüssel Raumnum mer ist unterstrichelt.
Neben den regulären Entity-Typen und den regulären Relationship-/Beziehungstypen gibt es noch sogenannte schwache Entity-Typen, die durch einen speziellen identifizierenden Beziehungstyp mit einem regulären oder auch starken Entity-Typ verbunden sind. Ein Beispiel ist in Abbildung 5.6 aufgeführt. Hier ist ein schwacher Entity-Typ Raum durch einen identifizierenden Beziehungstyp zum starken Entity-Typ Gebäude zugeordnet. Das bedeutet: Räume können ohne das zugehörige Gebäude nicht existieren, und jeder Raum ist genau einem Gebäude zugeordnet. Im Diagramm werden der schwache Entity-Typ und der zugehörige identifizierende Beziehungstyp jeweils durch eine doppelte Umrandung angezeigt. Beim schwachen Entity-Typ gibt es kein Schlüsselattribut, was ein entscheidender Unterschied zum starken Entity-Typ ist. Wenn es, wie in diesem Beispiel, pro Gebäude mehrere Räume gibt, so können diese durch einen partiellen Schlüssel (Raumnummer) unterschieden werden. Im Unterschied zum Schlüssel können in einem partiellen Schlüssel aber Duplikate vorkommen: Die gleiche Raumnummer kann es in mehreren Gebäuden geben. Ein Raum kann also nur durch die Kombination aus Gebäudenummer und Raumnummer eindeutig identifiziert werden.
5.3.2 Das logische Datenbankschema Das konzeptionelle Datenbankschema wird auf ein logisches Datenbankschema abgebildet, das den Regeln des Datenbankmodells des Zielsystems folgt. In unserem Fall ist dies das relationale Datenbankmodell (Kapitel 5.3). Ein relationales Datenbankschema basiert auf einem relationalen Datenmodell.
Bevor die Abbildung eines E/R-Diagramms auf ein relationales Datenbankschema erläutert werden kann, sind zunächst die Grundlagen des relationalen Datenbankmodells zu erklären. Eine Relation ist eine Menge gleichartiger Datensätze, die auch als Tabelle dargestellt werden kann. Die Spalten in dieser Tabelle werden als Attribute bezeichnet, die Zeilen der Tabelle bezeichnet man als Tupel. Ein Tupel in einer Tabelle ist als Da-
130 | Richard Lenz, Thomas Ganslandt
CREATE TABLE Mitarbeiter (
PNr Vorname Nachname Abteilungsnummer Telefon Vorgesetzter
INT, VARCHAR(20), VARCHAR(20), INT NOT NULL DEFAULT 1, INT UNIQUE, INT,
CONSTRAINT MitarbeiterPK PRIMARY KEY (PNr), CONSTRAINT VorgesetzterFK FOREIGN KEY (Vorgesetzter) REFERENCES Mitarbeiter(PNr) ON DELETE SET NULL ON UPDATE CASCADE, CONSTRAINT AbteilungFK FOREIGN KEY (Abteilungsnummer) REFERENCES Abteilung(AbtNr) ON DELETE SET DEFAULT ON UPDATE CASCADE)
Abb. 5.7: SQL-Anweisung zur Erzeugung einer Datenbanktabelle. Hier wird die Tabelle „Mitarbeiter“ mit den Attributen PNr, Vorname, Nachname, Abteilungsnummer, Telefon und Vorgesetzter angelegt. Durch die Definition des Primärschlüssels PNr garantiert das DBVS, dass in diesem Attribut keine Duplikate und keine Nullwerte vorkommen. Durch die Spezifi kation der Fremdschlüsselattribute Vorgesetzter und Abteilungsnummer, wird festgelegt auf welche Weise die referenzielle Integrität für diese Attribute sichergestellt werden soll.
tensatz aufzufassen, der in erster Näherung ein Entity repräsentiert. In einer Tabelle gibt es keine zwei gleichen Tupel, d. h. je zwei Tupel unterscheiden sich in mindestens einem Attributwert. Darüber hinaus haben die Tupel in einer Tabelle keine definierte Reihenfolge. Jedes Attribut hat einen definierten Wertebereich, der angibt, welche Werte in dieser Spalte zulässig sind. Ein Datenbankadministrator definiert typischerweise die Struktur einer Tabelle, indem er der Tabelle einen Namen gibt und für jedes Attribut einen Attributnamen und einen Wertebereich definiert. Darüber hinaus können verschiedene Integritätsbedingungen spezifiziert werden, die das Datenbanksystem sicherstellen soll. Ein Beispiel zur Definition einer Tabelle in SQL ist in Abbildung 5.7 zu sehen. Jedes Tupel hat in jedem Attribut entweder einen Wert aus dem zugehörigen Wertebereich oder den Wert NULL. Hat ein Tupel in einem Attribut den Wert NULL, so darf dieser Wert i. A. nicht interpretiert werden. NULL bedeutet lediglich, dass hier kein Wert steht. Der Grund dafür könnte sein, dass der Wert nicht bekannt ist, obwohl er existiert. Es könnte aber auch heißen, dass der Wert gar nicht existiert oder dass nicht bekannt ist, ob er existiert. Bei der Definition einer Tabelle kann der Datenbankadministrator angeben, in welchen Attributen NULL-Werte zulässig sind und in welchen nicht (NOT NULL). Darüber hinaus kann der Datenbankadministrator auch Spalten definieren, die keine Duplikate enthalten dürfen (UNIQUE). Im Beispiel in
5 Medizinische Datenbanken |
131
Abbildung 5.7 ist das Attribut Gehalt als NOT NULL deklariert, das bedeutet, ein Tupel, das in diesem Attribut keinen Wert hat, kann nicht in die Datenbank eingetragen werden. Das Attribut Telefon ist im Beispiel als UNIQUE deklariert. Das bedeutet: es darf keine zwei Tupel geben, in denen die gleiche Telefonnummer steht. Es darf aber sehr wohl Tupel geben, in denen keine Telefonnummer steht. Um die Zeilen in einer Tabelle eindeutig referenzieren zu können, wird im Allgemeinen ein Attribut oder eine Kombination von Attributen festgelegt, die zur Identifikation der Tupel geeignet sind. Eine Attributkombination ist Schlüsselkandidat, wenn sie diese identifizierende Eigenschaft besitzt und auch kein Teil weggelassen werden kann, ohne dass diese Eigenschaft verloren geht. Der Primärschlüssel einer Tabelle ist ein ausgewählter Schlüsselkandidat. Im Primärschlüssel dürfen keine NULL-Werte und keine Duplikate vorkommen. Jeder Wert im Primärschlüsselattribut identifiziert dann genau eine Zeile, und jede Zeile ist durch einen solchen Primärschlüsselwert auch referenzierbar. Ein anderes Attribut, das solche logischen Referenzen als Werte enthält, bezeichnet man als Fremdschlüsselattribut. In einem Fremdschlüsselattribut dürfen durchaus auch NULL-Werte vorkommen, sofern dies nicht explizit untersagt wird. Jeder andere Wert, der in einem Fremdschlüsselattribut steht, ist als logische Referenz aufzufassen, die auf ein Tupel in einer anderen oder in der gleichen Tabelle verweist. Deswegen dürfen in einem Fremdschlüsselattribut nur solche Werte vorkommen, die im referenzierten Primärschlüsselattribut auch tatsächlich vorhanden sind. Diese Eigenschaft der referentiellen Integrität ist eine spezielle Integritätsbedingung in relationalen Datenbanken. Ein relationales DBS garantiert die Einhaltung der referentiellen Integrität für Attribute, die als Fremdschlüsselattribute deklariert wurden. Dazu muss dem DBS allerdings mitgeteilt werden, was zu tun ist, wenn eine Verletzung dieser Eigenschaft droht. D. h. es muss spezifiziert werden, was mit einem Fremdschlüsselwert passieren soll, wenn eine Transaktion im Begriff ist, das referenzierte Tupel zu ändern oder zu löschen. Prinzipiell könnte das referenzierende Tupel mitgeändert bzw. mitgelöscht werden (in SQL ist das die Option CASCADE, die bei der Definition eines Fremdschlüsselattributs mit angegeben wird – vgl. Abb. 5.7), der Fremdschlüsselwert könnte auf NULL gesetzt werden (in SQL: SET NULL), alternativ könnte die Operation abgelehnt werden (in SQL: RESTRICT). Welche dieser Optionen die sinnvollste ist, hängt von der Semantik des abzubildenden Sachverhaltes ab. Nachfolgend wird zur Angabe von Beispieltabellen eine verkürzte Notation verwendet, bei der nur noch der Name der Relation angegeben wird gefolgt von einer Liste der zugehörigen Attribute. Attribute, die zum Primärschlüssel der Tabelle gehören werden unterstrichen. Fremdschlüsselattribute werden angezeigt indem die referenzierte Tabelle in Klammern mit angegeben wird. Als Beispiel hier die Kurzschreibweise für die in Abbildung 5.7 definierte Tabelle:
132 | Richard Lenz, Thomas Ganslandt
Mitarbeiter (PNr, Vorname, Nachname, Abteilungsnummer [Abteilung], Telefon, Vorgesetzter [Mitarbeiter])
Die Abbildung eines E/R-Diagramms auf ein relationales Datenbankschema erfolgt in definierten Schritten. Das Ergebnis ist die Beschreibung einer Menge von Tabellen und darauf definierten Integritätsbedingungen. Im ersten Schritt wird für jeden Entity-Typ E eine entsprechende Tabelle T angelegt. Für jedes einfache Attribut aus E wird eine Spalte in T definiert. Aus den Schlüsselattributen von E wird eines ausgewählt, das als Primärschlüssel der Tabelle T definiert wird. Im zweiten Schritt wird für jeden schwachen Entity-Typ W eine Tabelle S definiert. Alle einfachen Attribute aus W werden zu Spalten in der Tabelle S. Zusätzlich wird der Primärschlüssel der Tabelle zum zugehörigen starken Entity-Typ als Fremdschlüssel mit in die neue Tabelle S aufgenommen. Wenn der schwache Entity-Typ keinen partiellen Schlüssel hat, ist dies auch gleichzeitig der Primärschlüssel von S. Ansonsten bildet dieser Fremdschlüssel zusammen mit dem partiellen Schlüssel den Primärschlüssel der Tabelle S. Im dritten Schritt wird für jeden N : M-Beziehungstyp B eine eigene Tabelle T definiert. Alle Primärschlüsselattribute der Tabellen zu den an B beteiligten Entity-Typen werden als Fremdschlüsselattribute in T mit aufgenommen und bilden zusammen den Primärschlüssel von T. Im vierten Schritt werden 1 : N-Beziehungen abgebildet. Hierbei muss keine neue Tabelle definiert werden. Die Tabelle zum Entity-Typ auf der N-Seite des Beziehungstyps wird um einen Fremdschlüssel ergänzt, der auf die Tabelle des anderen Entity-Typs verweist. Auch werden alle Attribute des Beziehungstyps in die Tabelle aufgenommen, in die auch der Fremdschlüssel aufgenommen wurde. Im fünften Schritt wird mit 1 : 1-Beziehungen genauso verfahren wie mit 1 : NBeziehungen. Der Fremdschlüssel auf die jeweils andere Tabelle kann nun nach Wahl in eine der beteiligten Entity-Tabellen aufgenommen werden. Um NULL-Werte zu vermeiden, sollte die kleinere der beiden Tabellen ausgewählt werden. Im Idealfall wählt man einen Entity-Typ mit totaler Teilnahme. Das Fremdschlüsselattribut kann dann sogar als NOT NULL deklariert werden. Im sechsten Schritt wird für jedes mehrwertige Attribut eine eigene Tabelle mit zwei Spalten definiert: eine Spalte für das mehrwertige Attribut und eine Spalte für den Fremdschlüssel, der auf die Tabelle verweist, zu der dieses Attribut gehört. Der Primärschlüssel dieser Attribut-Tabelle ist dann die Kombination aus beiden Attributen. Im siebten Schritt wird für mehrstellige Beziehungstypen jeweils eine eigene Tabelle mit Fremdschlüsseln auf die beteiligten Entity-Tabellen erzeugt. Bei erweiterten E/R-Diagrammen, die auch Generalisierungshierarchien enthalten, folgen weitere Abbildungsschritte.
5 Medizinische Datenbanken |
133
5.3.3 Normalisierung Um die Redundanzfreiheit eines relationalen Datenbankschemas sicherzustellen, ist die Normalisierung der Tabellen erforderlich. Wenn das relationale Datenbankschema mithilfe eines E/R-Diagramms entworfen wurde, entstehen meist bereits auf intuitivem Weg normalisierte Tabellen. Eine Tabelle ist nicht normalisiert, wenn sie Informationen zu mehreren unabhängigen Entity-Typen enthält. Das verursacht unerwünschte Effekte, die als Änderungs-, Einfüge- oder Löschanomalien bezeichnet werden. Ein Beispiel für eine nicht normalisierte Tabelle: Untersuchung (UntersuchungsID, PatientenID, Name, Vorname, Adresse, ...).
Name, Vorname und Adresse eines Patienten müssen in der Beispieltabelle mit jeder neuen Untersuchung wieder neu abgelegt werden. Dies widerspricht dem Grundsatz „one fact in one place“. Ändert sich die Adresse eines Patienten, so muss das an vielen Stellen in der Datenbank korrigiert werden (Änderungsanomalie). Ohne Untersuchung kann darüber hinaus kein Patient in diese Tabelle eingetragen werden (Einfügeanomalie). Wird die einzige vorhandene Untersuchung eines Patienten gelöscht, so verschwindet damit auch die Information über den Patienten (Löschanomalie). Durch Normalisierung sollen solche Effekte verhindert werden. Die aufeinander aufbauenden Normalformen von Tabellen basieren auf der Analyse funktionaler Abhängigkeiten zwischen den Attributen einer Tabelle. Ein Attribut X ist funktional von einem Attribut Y abhängig (Y → X), wenn es zu jedem Wert in Y höchstens einen Wert in X gibt. Y wird dabei auch bestimmendes Attribut oder Determinante genannt, X wird auch abhängiges Attribut genannt. X und Y können auch Attributkombinationen sein. Die Grundidee der Normalisierung besteht darin, dass eine funktionale Abhängigkeit Y → X darauf hindeutet, dass hier Entities in der Datenbank beschrieben werden sollen, die durch Y identifiziert werden, und die ein weiteres beschreibendes Attribut X haben. Nachfolgend werden die folgenden Normalformen unterschieden: – erste Normalform (1NF), – zweite Normalform (2NF), – dritte Normalform (3NF), – Boyce-Codd-Normalform (BCNF). Diese Normalformen bauen aufeinander auf. Das heißt, eine Tabelle in 2NF ist auch in 1NF, eine Tabelle in 3NF ist auch in 2NF und eine Tabelle in BCNF ist auch in 3NF. Für eine Tabelle in erster Normalform (1NF) gilt: Alle Attribute der Tabelle sind immer funktional abhängig von jedem Schlüsselkandidaten in dieser Tabelle: Ein Attributwert eines Schlüsselkandidaten identifiziert genau eine Zeile in der Tabelle. Wenn alle Attribute funktional abhängig sind vom Schlüsselkandidaten, dann gibt
134 | Richard Lenz, Thomas Ganslandt
es also pro Zeile in jedem Attribut nur einen Attributwert. D. h. wenn in jedem Feld der Tabelle tatsächlich nur ein Wert gegeben ist und nicht mehrere, dann steht die Tabelle in 1NF. Hierauf aufbauend gibt es weitere Normalformen. Eine Tabelle ist in zweiter Normalform (2NF), wenn sie in erster Normalform ist und jedes Nicht-Schlüsselattribut voll funktional abhängig ist von jedem Schlüsselkandidaten. Ein Attribut X, das von einem zusammengesetzten Schlüsselkandidaten AB funktional abhängig ist, aber auch bereits von A funktional abhängt, ist nicht voll funktional abhängig von AB, sondern nur partiell abhängig von AB. Durch die 2NF werden solche partiellen Abhängigkeiten eliminiert. Hier ein Beispiel für eine Tabelle, die nicht in 2NF ist: Medikation (PatientID, Medikament, Name, Vorname, Dosierung)
Es gelten die folgenden funktionalen Abhängigkeiten: PatientID → Name, Vorname; PatientID, Medikament → Dosierung
Da Name und Vorname nur von einem Teil des Primärschlüssels abhängen, liegt hier eine partielle Abhängigkeit vor, die eliminiert werden muss. Die Auflösung erfolgt durch eine Aufsplittung in zwei Tabellen, wobei die partiell abhängigen Attribute aus der ursprünglichen Tabelle extrahiert werden. Für das Beispiel ergeben sich die folgenden Tabellen: Patient (PatientID, Name, Vorname) Medikation (PatientID, Medikament, Dosierung)
Eine Tabelle ist in dritter Normalform (3NF), wenn sie in zweiter Normalform ist und kein Nicht-Schlüsselattribut transitiv abhängig von einem Schlüsselkandidaten ist. Eine solche transitive Abhängigkeit liegt vor, wenn ein Nicht-Schlüsselattribut funktional von einem anderen Nicht-Schlüsselattribut abhängt. Die Tabelle Patient (PatientID, Name, Vorname, AnschriftPatient, Hausarzt, AnschriftHausarzt)
ist nicht in 3NF. Alle Attribute sind hier vom Primärschlüssel voll funktional abhängig und es gibt keine partiellen Abhängigkeiten. Damit ist die Tabelle in 2NF. Wegen der transitiven Abhängigkeit PatientID→Hausarzt→AnschriftHausarzt ist die Tabelle aber nicht in 3NF. Zur Auflösung und Darstellung als 3NF muss nun das transitiv abhängige Attribut in eine eigene Tabelle extrahiert werden:
5 Medizinische Datenbanken |
135
Patient (PatientID, Name, Vorname, AnschriftPatient, Hausarzt) Hausarzt (Hausarzt, AnschriftHausarzt)
Eine Tabelle ist in Boyce-Codd-Normalform (BCNF), wenn die Determinanten aller funktionalen Abhängigkeiten Schlüsselkandidaten sind. Die ursprünglich als Präzisierung der 3NF gedachte Formulierung ist tatsächlich strenger als die 3NF, da hier auch Schlüsselattribute in die Definition einbezogen werden. Die als Beispiel für 3NF dargestellte Tabelle (s. o.) kann in BCNF überführt werden, indem wieder das Attribut, das von einem Nicht-Schlüsselattribut abhängt, in eine eigene Tabelle extrahiert wird: Patientenzuständigkeit (PatientID, Arzt) Stationszugehörigkeit (Arzt, Station)
Im Gegensatz zu den zuvor vorgestellten Zerlegungen ist diese Zerlegung allerdings nicht abhängigkeitserhaltend: Die funktionale Abhängigkeit PatientID, Station → Arzt, welche durch die ursprüngliche Tabelle sichergestellt wurde, kann nach der Zerlegung nicht mehr garantiert werden. Die Tabelle 5.1 zeigt eine schematische Darstellung der Redundanzformen, die durch entsprechende Normalformen eliminiert werden. Neben den hier dargestellten Normalformen gibt es noch weitere Normalformen, die spezielle Formen der Redundanz eliminieren, bspw. solche, die durch mehrwertige funktionale Abhängigkeiten zustande kommen (A B bedeutet: A bestimmt mehrere Werte von B). Dazu wird an dieser Stelle auf weiterführende Fachliteratur verwiesen [Elmasri 2010]. Die Auflösung von Redundanz im Rahmen der Normalisierung bedeutet immer die Aufspaltung einer Tabelle in mehrere neue Tabellen. Die Performanz von Datenbankanfragen könnte ggf. darunter leiden. Im Rahmen des physischen Datenbankentwurfs wird daher häufig bewusst in begrenztem Rahmen wieder denormalisiert, um häufig vorkommende Anfragen schneller beantworten zu können. Tab. 5.1: Normalformen 2NF, 3NF und BCNF. Normalform
Aufgabe
Beispiel für eine nicht normalisierte Tabelle
Auflösung
2NF
Eliminierung partieller Abhängigkeiten
R (A, B, C, D) B→C
R1 (A, B[R2], D) R2 (B, C)
3NF
Eliminierung transitiver Abhängigkeiten
R (A, B, C, D) A→ B; B A; B → C;
R1 (A, B[R2], D) R2 (B, C)
BCNF
Eliminierung schlüsselunterbrechender transitiver Abhängigkeiten
R (A, B, C,) C→ B
R1 (A, C[R2]) R2 (C, B)
136 | Richard Lenz, Thomas Ganslandt
5.3.4 Entity-Attribute-Value-Schemata In medizinischen Datenbanken ist häufig die Zahl der Attribute eines Entity-Typs nicht a priori bekannt. Wenn beispielsweise in einer Labordatenbank die Messwerte verschiedener Analyte abzulegen sind, dann ist zum Zeitpunkt des Datenbankentwurfs oft gar nicht bekannt, um welche Analyte es sich handeln wird. Darüber hinaus sind nicht selten viele verschiedene Analyte zu unterscheiden, sodass es nicht praktikabel ist, für jedes Analyt ein spezielles Attribut vorzusehen. In solchen Fällen werden oft sogenannte Entity-Attribute-Value (EAV)-Schemata verwendet. Anstatt für jedes Attribut eine eigene Spalte in einer Tabelle vorzusehen, werden bei diesem Ansatz die Attribute gar nicht im Datenbankschema fixiert. Stattdessen werden alle Informationen in einer EAV-Tabelle mit den drei Spalten Entity (E), Attribute (A) und Value (V) abgelegt: R(E, A, V). Eine Zeile (e,a,v) in einer solchen Tabelle gibt an, dass dem Entity e für das Attribut a der Wert v zugewiesen wird. In Abbildung 5.8 wird das konventionelle Datenbankdesign dem EAV-Design gegenübergestellt. Durch die generische EAV Tabelle wird es möglich, neue Attribute in der Datenbank zu hinterlegen, ohne das Datenbankschema ändern zu müssen. Ein weiterer Vorteil des Ansatzes besteht darin, dass keine NULL-Werte vorkommen können: Nur für tatsächlich erhobene Attributwerte wird eine entsprechende Zeile in die EAV-Tabelle eingefügt. Demgegenüber steht vor allem der Nachteil, dass die semantische Kontrolle auf Datenbankebene verloren geht. So werden beispielsweise alle Attribute auf den gleichen Datentyp abgebildet. Das Datenbanksystem hat damit keine Möglichkeit mehr, die Typkonformität von Eingaben zu erzwingen. Das kann umgangen wer-
Patient 1
Entity-ID Datum
Patient Entity-ID
1
Blutdruck
N
Untersuchung
Hämatokrit N Untersuchung
Datum
1
arterieller pH-Wert
N
Attribut
Ergebnis
Hämoglobin
Wert
Natrium Kalium … Untersuchung
Untersuchung
Entity-ID
Entity-ID Datum Blutdruck … Kalium
Ergebnis
Entity-ID Attribut
konventionelles Datenbankdesign
Datum
generisches Datenbankschema mit EAV-Tabelle
Abb. 5.8: Konventionelles Datenbank-Design und EAV-Design.
Wert
5 Medizinische Datenbanken |
137
den, wenn für jeden Datentyp eine eigene EAV Tabelle angelegt wird. Bei Datenbankabfragen müssen dann allerdings ggf. mehrere Tabellen konsultiert werden, um die einem Entity zugeordneten Attributwerte zusammenzutragen. Die fehlende semantische Kontrolle äußert sich auch darin, dass Pflichtfelder (NOT NULL) nicht mehr im Schema festgelegt werden können, und auch andere Integritätsbedingungen nicht mehr spezifiziert und sichergestellt werden können. Attributbezogene Datenbankanfragen auf EAV-Tabellen werden im Vergleich zum konventionellen Design komplexer. Nadkarni und Coautoren versuchen mit dem EAV/CR-Ansatz die semantische Kontrolle zum Teil wiederzugewinnen, indem sie explizit Tabellen anlegen, in denen die fehlenden Metadaten zu den abzulegenden Daten hinterlegt werden [Nadkarni 1999]. Diese Metadaten werden dann allerdings nicht von der Datenbank, sondern von der Anwendung interpretiert. Dadurch steigt die Komplexität von Datenbankanfragen so sehr an, dass Ad-hoc-Anfragen nicht mehr mit vertretbarem Aufwand zu bewältigen sind. Dieser Ansatz ist daher nur praktikabel, wenn dem Endbenutzer bzw. auch dem Programmierer von Datenbankanwendungen durch eine Zusatzebene suggeriert wird, dass er mit konventionell modellierten Tabellen arbeitet.
5.4 Verteilte Datenhaltung und Systemintegration Gemäß des Datenbankgrundsatzes „one fact in one place“ sollen Daten idealerweise nur an einer Stelle im Informationssystem gespeichert werden, damit sie auch nur an einer Stelle geändert werden müssen, und damit die Gefahr divergierender, unkontrollierter Kopien vermieden wird. In gewachsenen Informationssystemen des Gesundheitswesens lässt sich diesem Grundsatz oftmals nicht folgen, weil die Abläufe im Gesundheitswesen i. A. den Zuständigkeitsbereich einer einzigen Krankenhausabteilung oder Organisation überschreiten. Ein im Krankenhaus vorstelliger Patient wird in einem administrativen System zur Patientendatenverwaltung erfasst. Je nach Behandlungsverlauf werden zu diesem Patienten aber Daten in verschiedenen Anwendungssystemen gespeichert, z. B. im Abteilungssystem der Kardiologie, im Radiologieinformationssystem (RIS), im Laborinformationssystem (LIS), im OP-Planungssystem und ggf. in weiteren Systemen. Subsysteme, wie ein Radiologieinformationssystem, können ihrerseits wieder (teil-)autonome Komponenten enthalten, wie beispielsweise ein Bildarchivierungssystem (PACS = Picture Archiving and Communication System). Darüber hinaus sind auch medizinische Modalitäten häufig mit eigenen unabhängigen Datenbanken ausgestattet, die ebenfalls in ein umfassendes Krankenhausinformationssystem in geeigneter Weise zu integrieren sind. Die typischen Komponenten und Architekturvarianten in einem klinischen Informationssystem werden in Kapitel 2 ausführlich behandelt. An dieser Stelle bleibt festzustellen, dass zur angemessenen Unterstützung systemübergreifender Abläufe in der Regel viele autonome und unabhängig entwickelte Systeme gekoppelt werden müssen, damit Daten zwischen den Systemen ausge-
138 | Richard Lenz, Thomas Ganslandt
tauscht werden können. Oftmals werden dabei prozessrelevante Daten auch mehrfach redundant in unterschiedlichen Systemen abgelegt. Die Datenbankschemata der beteiligten Systeme unterscheiden sich oft gravierend (semantische Heterogenität), wodurch ein Datenaustausch zusätzlich erschwert wird. Die Ursache der Probleme besteht in der Autonomie der unabhängigen Teilsysteme. In einem verteilten System ist die Autonomie von Teilsystemen durchaus eine wünschenswerte Eigenschaft, weil Austauschbarkeit, unabhängiger Betrieb, unabhängige Administration und Wartbarkeit in einer dezentralen Organisationsstruktur mit unterschiedlicher Zuständigkeit erwünscht sind. Leider ist die Autonomie der Teilsysteme in einem verteilten System aber nicht völlig in Einklang zu bringen mit anderen wünschenswerten Eigenschaften wie Transparenz, Effizienz und Konsistenz. Mit Transparenz ist gemeint, dass ein verteiltes System sich aus der Sicht eines Benutzers verhalten soll, wie ein nicht verteiltes System. Im Idealfall bemerkt der Benutzer nicht einmal, dass er mit einem verteilten System arbeitet. Effizienz beinhaltet Fehlertoleranz und kurze Antwortzeiten. Konsistenz bedeutet Freiheit von Widersprüchen, was insbesondere bedeutet, dass redundante Daten keine unterschiedlichen Änderungsstände aufweisen sollen (Replikationskonsistenz). Die verschiedenen Ziele sind gegenläufig, sodass für eine bestimmte Anwendungssituation ein bedarfsorientierter Kompromiss zu finden ist, bei dem die verschiedenen Anforderungen in Abhängigkeit vom jeweiligen Bedarf und den vorgegebenen Rahmenbedingungen abgeschwächt werden. Dazu ist es hilfreich, verschiedene Aspekte der Autonomie zu unterscheiden, und die jeweiligen Implikationen zu verdeutlichen. Sheth und Larson unterscheiden 5 verschiedene Aspekte der Autonomie [Sheth 1990], von denen hier nur die Entwurfsautonomie und die Ausführungsautonomie herausgegriffen werden: – Bei Entwurfsautonomie können Entwurfsentscheidungen auf unterschiedlichen Ebenen unabhängig getroffen werden. Die Konsequenz ist die Heterogenität der Teilsysteme auf allen Ebenen: unterschiedliche Hardware, verschiedene Betriebssysteme, verschiedene Datenbanksysteme und heterogene Datenbankschemata. Vor allem die semantische Heterogenität der Datenbankschemata macht die Integration unabhängig entwickelter Systeme sehr aufwändig. Da in vielen Fällen nicht direkt entschieden werden kann, welche Daten in einem System A semantisch äquivalent mit Daten aus einem System B sind, ist in der Regel bei der Zusammenführung von Daten aus heterogenen Quellsystemen mit einem hohen manuellen Integrationsaufwand zu rechnen. Ein Fachmann, der die Bedeutung der Daten kennt, muss Entscheidungen treffen, wie diese aus verschiedenen Systemen sinnvoll zugeordnet werden können. Colomb unterscheidet zwischen struktureller semantischer Heterogenität und fundamentaler semantischer Heterogenität [Colomb 1997]. Im ersten Fall ist eine Zusammenführung der Daten mithilfe geeigneter Format- und Strukturkonvertierung möglich, im zweiten Fall ist eine Zusammenführung nicht mehr möglich, ohne mindestens eines der zu integrierenden Systeme zu verändern.
5 Medizinische Datenbanken |
–
139
Bei Ausführungsautonomie können die Operationen auf einem System unabhängig von externen Komponenten ausgeführt werden. Als unmittelbare Konsequenz kann nicht garantiert werden, dass die Reihenfolge von Änderungsoperationen bei replizierten Datenobjekten auf allen Replikaten die gleiche ist. Bei derart autonom operierenden Systemen kann also die wechselseitige Konsistenz redundanter Daten nicht ohne Weiteres erzwungen werden. Dennoch ist die Ausführungsautonomie eines Systems durchaus wünschenswert, da der Ausfall einer Komponente nicht dazu führen sollte, dass andere Komponenten nicht mehr betriebsbereit sind. Um in einer solchen Situation zu verhindern, dass die Ausführungsautonomie gewährleistet ist, und dass redundante Daten dennoch nicht divergieren, versucht man pragmatische Ansätze auf Anwendungsebene. Wird für bestimmte redundante Daten jeweils ein führendes System definiert und eine Änderung der Daten nur noch im führenden System vorgenommen, kann Divergenz vermieden werden.
Der unabhängige Entwurf und der unabhängige Betrieb von Softwaresystemen sind also zwei völlig unterschiedliche Aspekte der Autonomie, die beide gravierende Auswirkungen auf die systemübergreifende Datenkonsistenz haben. Um die Heterogenität in den Griff zu bekommen, ist es unerlässlich, die Entwurfsautonomie mithilfe von Standards einzuschränken. Welche unterschiedlichen Standards bei der Systemintegration eine Rolle spielen, wird nachfolgend mit Verweis auf die Literatur zusammengefasst [Lenz 2007]. Unabhängig von der Anwendungsdomäne, in unserem Fall das Gesundheitswesen, werden zur Überbrückung unterschiedlicher Rechner, Betriebssysteme und syntaktischer Konventionen Standards für eine technische Integration bei der Datenrepräsentation benötigt. Im Gegensatz zur technischen Integration werden bei der semantischen Integration domänenspezifische Standards benötigt, welche die Bedeutung von Daten und Funktionen in Informationssystemen im Gesundheitswesen betreffen. Bei der Integration von Anwendungssystemen ist zwischen Datenintegration und funktionaler Integration zu unterscheiden. Die Datenintegration beschreibt die Konsensfindung bezüglich der Syntax und der Semantik ge meinsam genutzter Daten. Die funktionale Integration beschreibt die funktionale Abstimmung der Komponenten in einem verteilten System, um ein sinnvolles Zusammenspiel zu ermöglichen.
Eine Vierfeldermatrix verdeutlicht, für welchen Zweck welcher Standard benötigt wird (Tab. 5.2). Auf die wichtigsten domänenspezifischen Standards wird in Kapitel 11 näher eingegangen. Standards verbessern die Kompatibilität unabhängig entwickelter Systeme. Hersteller, die sich an Standards orientieren, sind in ihren Entwurfsentscheidungen eingeschränkt, weil sie sich an den Vorgaben der Standards orientieren müssen. Daten,
140 | Richard Lenz, Thomas Ganslandt
Tab. 5.2: Standards zur Integration heterogener Systeme im Gesundheitswesen. Technische Integration
Semantische Integration
Datenintegration
Standards zur syntaktischen Repräsentation von Daten (z. B. XML)
Standards zur Gewährleistung der Kompatibilität auf Datenbankschemaebene (z. B. HL7); Standards zur Vereinheitlichung der Terminologie bei Datenbankinhalten (medizinische Vokabulare und Terminologien, z. B. ICD)
Funktionale Integration
Standards, die einen ortstransparenten Zugriff auf Funktionen von Fremdsystemen ermöglichen (z. B. .NET, CORBA etc.)
Standards zum funktionalen Zusammenwirken verschiedener Komponenten im Gesundheitswesen (z. B. IHE)
die in einer HL7-Nachricht kommuniziert werden sollen, müssen auch in der lokalen Datenbank eines Systems hinterlegt sein, d. h. der Standard HL7 muss bereits beim Datenbankschemaentwurf berücksichtigt werden. Der Standard HL7 trägt tatsächlich in erster Linie dazu bei, die semantische Heterogenität zwischen medizinischen Informationssystemen zu reduzieren. Die Syntax der HL7-Nachrichten ist von sekundärem Interesse – auf den Inhalt der Nachrichten kommt es an. Wenn alle notwendigen Inhalte in der Datenbank hinterlegt sind, können sie leicht in das richtige Format gebracht werden. Deswegen muss ein Hersteller, der HL7-Nachrichten in seiner Software unterstützen will, darauf achten, dass die notwendigen Inhalte in der Datenbank auch abgelegt werden können. Bei der Integration unabhängig entwickelter Systeme, die sich nicht an Standards orientieren, ist es vor allem die semantische Heterogenität der Datenbankschemata, die den oft nicht abschätzbaren Aufwand für die Integration solcher Systeme verursacht. Sollen Daten von einem System in ein anderes übertragen werden, muss zuerst die Bedeutung der Daten verstanden werden, um sie im Quellsystem finden und im Zielsystem richtig zuordnen zu können, sofern sie dort überhaupt abgelegt werden können. Der nötige Aufwand, um ein System mit einer standardkonformen HL7-Schnittstelle in eine gegebene Systemlandschaft zu integrieren, ist vor allem deswegen deutlich geringer, weil die semantische Integration bereits beim Systementwurf berücksichtigt wird: Eine HL7-Nachricht wird vom sendenden System so befüllt, dass sie von jedem, denselben Standard unterstützenden System eingelesen und in der Datenbank gespeichert werden kann. Trotz Standardisierung ist aber immer noch ein beträchtlicher Aufwand erforderlich, um tatsächlich eine bedarfsorientierte Kommunikation über standardisierte Schnittstellen zu ermöglichen. Das liegt zum einen daran, dass die verfügbaren Standards viele Freiheitsgrade erlauben, die je nach Hersteller unterschiedlich interpretiert werden. Darüber hinaus wird in konkreten Systemen oft auch der Austausch nicht standardisierter Daten erforderlich. Die Restheterogenität der zu integrierenden
5 Medizinische Datenbanken |
141
Systeme muss also mithilfe manuell zu spezifizierender Zuordnungen und Formatkonvertierungen bewältigt werden. Ein verteiltes System zum Austausch von Nachrichten zwischen verschiedenen Systemkomponenten über solche Schnittstellen ist schwer zu warten, wenn die Komponenten jeweils paarweise gekoppelt werden, und die Zahl der zu integrierenden Komponenten steigt. Aus diesem Grund werden in Krankenhäusern häufig Werkzeuge eingesetzt, welche den Betrieb verteilter Systeme mit autonomen Komponenten erleichtern. Im Wesentlichen handelt es sich dabei um eine Nachrichten-orientierte Middleware (Message Oriented Middleware, MOM), die im Krankenhaus i. A. als Kommunikationsserver bezeichnet wird. Ein Kommunikationsserver erleichtert die Spezifikation, Einrichtung und Überwachung von Kommunikationsverbindungen zwischen unabhängigen Systemkomponenten. Gleichzeitig entkoppelt der Kommunikationsserver Sender und Empfänger von Nachrichten im laufenden Betrieb. Jede Nachricht wird zunächst an den Kommunikationsserver gesendet, der auf der Basis der vorliegenden Spezifikationen die eingehenden Nachrichten erkennen, transformieren und weiterleiten kann. Die Entkopplung von Sender und Empfänger erfolgt über einen Store-and-forward-Mechanismus auf Basis persistenter Warteschlangen. Der Sender muss dabei nicht mehr warten, bis der Empfänger die Nachricht entgegengenommen hat – der Kommunikationsserver garantiert stattdessen mit der Entgegennahme einer Nachricht, dass diese nicht verloren geht und weitergeleitet wird (send and forget). Falls der Empfänger gerade nicht verfügbar ist, versucht der Kommunikationsserver die Weiterleitung zu einem späteren Zeitpunkt. Da es aus verschiedenen Gründen vorkommen kann, dass eine Nachricht tatsächlich vom Empfänger nicht entgegengenommen werden kann, erfordert der Betrieb eines Kommunikationsservers auch immer einen Administrator, der benachrichtigt wird, wenn Fehler dieser Art aufgetreten sind. Der Administrator kann in diesem Fall entscheiden, welche Maßnahmen erforderlich sind, um die Konsistenz wieder herzustellen. Die bisherigen Ausführungen betreffen ausschließlich die Kopplung von operativen Systemen, welche zur Unterstützung von Routineabläufen eingesetzt werden. Solche Systeme sind durch viele kurze Transaktionen charakterisiert, mit deren Hilfe die zu dokumentierenden Ereignisse und Prozessergebnisse (Messwerte, Befunde, etc.) erfasst und in die jeweilige Datenbank eingebracht werden. Darüber hinaus stellen diese Systeme natürlich auch den Benutzern Informationen bereit, die im jeweiligen Prozesskontext benötigt werden. Für die Datenanalyse, z. B. im Rahmen des Controllings oder der medizinischen Forschung, werden ganz andere Anforderungen an die Datenhaltung gestellt, weil üblicherweise Daten aus vielen Systemen zu einer systemübergreifenden konsistenten Gesamtsicht zusammengeführt werden müssen. Diese Problematik wird im nächsten Abschnitt etwas ausführlicher behandelt.
142 | Richard Lenz, Thomas Ganslandt
5.5 Data Warehouses in der Medizin 5.5.1 Herkunft und Anwendung Der parallele Betrieb verschiedener Anwendungssysteme resultiert in einer Fragmentierung der Unternehmensdaten auf viele voneinander getrennte Datenbanken. Bei inhaltlichen Überschneidungen müssen Daten mehrfach redundant in den verschiedenen unabhängigen Datenbanken geführt werden. Dies betrifft vor allem Stammdaten, wie z. B. Organisationshierarchien.
Beispielszenario Die Gesundbrunnen-Klinik setzt für Finanzbuchhaltung, Controlling und Materialwirtschaft das ERPSystem eines großen deutschen Softwareanbieters ein. Die Personalabteilung verwendet eine Indi vidualsoftware. Für die patientenbezogene Basisdokumentation wird ein klinisches Arbeitsplatzsys tem (KAS) eines amerikanischen Herstellers eingesetzt, die Dokumentation von Operationen erfolgt aber über ein Abteilungssystem eines weiteren Herstellers. Die Listen der Kostenstellen und Kostenarten werden unabhängig voneinander sowohl im ERP-, Personal- als auch im KAS-System geführt. Abrechnungsziffern müssen sowohl im ERP-System als auch dem KAS gehalten werden. KAS und OP-System enthalten jeweils eigene Kataloge für Diagno sen, Prozeduren und Organisationseinheiten, jedoch mit unterschiedlichen ID-Codes für die jeweili gen Einträge ( Abb. 5.9).
klinische Anwendungen KAS
OPDokumentation Stammdaten Kostenstellen und -arten Abrechnungsziffern
betriebswirtschaftliche Anwendungen ERP
Personalwesen
Diagnosen und Prozeduren Organisationseinheiten
Abb. 5.9: Systemdiagramm der Gesundbrunnen-Klinik (fiktives Beispiel). Bestimmte Daten werden redundant in verschiedenen operativen Systemen vorgehalten.
5 Medizinische Datenbanken |
143
Zur Unterstützung von Managemententscheidungen müssen Auswertungen aus den jeweiligen operativen Systemen durchgeführt werden. Diese decken jedoch nur den Datenumfang des jeweiligen einzelnen Systems ab – übergreifende Auswertungen sind nicht möglich. Bei der Gegenüberstellung von Einzelauswertungen mehrerer Systeme kommt es häufig zu Widersprüchen, da die zugrundeliegenden Stammdaten voneinander abweichen oder die Systeme unterschiedliche Regeln zur Filterung und Aggregation der Rohdaten anwenden. Die Erstellung komplexer Auswertungen lastet die operativen Systeme häufig stark aus, sodass sich Auswirkungen auf die Performanz für die Routineanwender ergeben.
Beispielszenario Das Controlling der Gesundbrunnen-Klinik möchte die abgerechneten Leistungsziffern mit der OPDokumentation abgleichen. Da eine integrierte Auswertung nicht möglich ist, müssen Einzelberichte aus dem ERP- und dem OP-System unabhängig voneinander erstellt werden. Da das ERP-System kos tenstellenbezogen arbeitet, das OP-System seine Daten jedoch mit Bezug auf Organisationseinheiten verwaltet, müssen die Daten händisch zusammengeführt werden. Hierbei fällt auf, dass im OP-Sys tem Leistungen auf stornierte Behandlungsfälle erfasst wurden, die im ERP-System nicht zugeordnet werden können. Die Generierung der monatlichen Diagnosestatistik lastet das KAS über mehrere Stunden aus und kann nur über Nacht durchgeführt werden, um den Routinebetrieb nicht zu beeinträchtigen (vgl. Abb. 5.9).
Das Konzept des Data Warehousing (DWH) wurde eingeführt, um die o. g. Nachteile heterogener Systemlandschaften zu eliminieren und ein einheitliches Berichtswesen über einen integrierten Datenbestand aufbauen zu können. Ein Data-Warehouse-System ist ein spezielles Datenbanksystem, in dem Daten aus verschiede nen Quellen in einheitlichem Format zusammengeführt werden, speziell zur Unterstützung der Datenanalyse.
William Inmon beschrieb die Kernaufgaben wie folgt: „A Data Warehouse is a subject-oriented, integrated, time-varying, non-volatile collection of data in support of the management’s decision making process“ [Inmon 2005]. Im Data Warehouse werden Daten nicht nach Quellsystem, sondern nach Themengebieten organisiert (subject-oriented). Hierzu müssen Daten verschiedener Quellsysteme zusammengeführt, ggf. weiterverarbeitet oder bereinigt werden (integrated). Datenbestände werden im Data Warehouse dauerhaft konserviert, auch wenn sie im Quellsystem möglicherweise verändert oder gelöscht wurden (time-varying, non-volatile). Die Datensammlung und -aufbereitung dient der Unterstützung von Entscheidungen des Managements (decision making).
144 | Richard Lenz, Thomas Ganslandt
Neben dem inhaltlichen Nutzen einer Zusammenführung auswertungsrelevanter Daten ergeben sich auch technische Vorteile: Auswertungen können über eine separate, zu diesem Zweck optimierte Datenbank erstellt werden und sind damit von den operativen Systemen entkoppelt, sodass Performanzeinschränkungen vermieden werden können. Ein einheitliches Portal für Berichte erleichtert darüber hinaus die zentrale Steuerung der Zugriffsrechte. Neben einem monolithischen Data Warehouse können auch mehrere sog. Data Marts geführt werden, die jeweils einen in sich geschlossenen Teilaspekt des gesamten, zusammengeführten Datenpools bereitstellen. Ein Data Mart bietet einen Ausschnitt aus einem Data Warehouse, der auf einen bestimmten Ana lysezweck zugeschnitten ist.
5.5.2 Konzepte des Data Warehouse Die Anforderungen an die Datenhaltung für die Datenanalyse unterscheiden sich grundlegend von den Anforderungen an die Datenhaltung in operativen Systemen. Aus diesem Grund unterscheidet man den OLAP-Ansatz (Online Analytical Processing) vom OLTP-Ansatz operativer Systeme (Online Transactional Processing). – OLTP ist auf die aktive lesende und schreibende Verarbeitung von Daten im produktiven Routinebetrieb ausgerichtet. Primäre Ziele sind hierbei die möglichst redundanzfreie (normalisierte) Datenablage sowie die Optimierung des Zugriffs auf einzelne Datensätze, um sie schnell anzeigen und bearbeiten zu können. – Die primären Ziele von OLAP sind dagegen die performante Aufbereitung von Rohdaten zu aggregierten Berichten sowie eine intuitive Navigation innerhalb der Berichtsdaten. Zur Erreichung dieser Ziele werden die Rohdaten aus den operativen Systemen gezielt neu zusammengestellt, wobei häufig auch Redundanzen zur Beschleunigung des Zugriffs in Kauf genommen werden. Nach ihrer Aufbereitung erfolgt der Zugriff auf OLAP-Datenbestände in der Regel rein lesend. Durch eine Voraggregation der Rohdaten auf die für die spätere Auswertung benötigte Granularität kann die Laufzeit von Abfragen zum Berichtszeitpunkt verkürzt werden. Mit Granularität ist hier der Grad der Aggregation gemeint: Die „Anzahl der Fälle pro Woche“ ist beispielsweise ein feineres Granulat als die „Anzahl der Fälle pro Quartal“. Durch Verlagerung der Berichtsdaten aus normalen relationalen Datenbanken in spezialisierte multidimensionale Speicherformen (OLAP-Cubes) können weitere Performanzsteigerungen erzielt werden.
5 Medizinische Datenbanken |
145
Beispielszenario Im ERP-System der Gesundbrunnen-Klinik ist die Kostenstellenhierarchie in drei Tabellen abgelegt, die den Ebenen „Geschäftsbereich“, „Fachabteilung“ und „Kostenstelle“ entsprechen. Die Kostenar tenhierarchie ist in zwei Tabellen mit den Ebenen „Kostenartengruppe“ und „Kostenart“ gespeichert. Die Buchungen des Controllings sind im ERP-System in einer Tabelle mit einer großen Menge von Einzelpositionen abgelegt. Das KAS hält die ICD-Diagnosecodes in vier Tabellen vor, die den Ebenen „Kapitel“, „Gruppe“, „Dreisteller“ und „ICD-Code“ entsprechen. Diagnosen werden in jeweils einer eigenen Tabelle im KAS und im OP-System erfasst ( Abb. 5.10).
ERP-System Geschäftsbereich
1
Fachabteilung
N
1
Kostenstelle
N
1 N
Kostenartengruppe
1
Kostenart
N
1
Buchungen
N
KAS Kapitel
1
N
Gruppe
1
N
Dreisteller
1
N
ICD-Code 1 N
Diagnosen
OP-Dokumentation Kapitel
1
N
Gruppe
1
N
Dreisteller
1
N
ICD-Code 1 N
Diagnosen
Abb. 5.10: ER-Diagramme der Rohdaten in den Produktivsystemen des Beispielszenarios. Daten, die in verschiedenen Datenbanken abgelegt sind stehen zueinander in Beziehung. Teilweise sind Daten redundant in mehreren Datenbanken abgespeichert.
Die Rohdaten aus den operativen Systemen können grob in Stammdaten und Transaktionsdaten unterteilt werden. Stammdaten, wie eine Kostenstellenhierarchie oder ein Diagnosekatalog, zeichnen sich durch seltene Änderungen aus und werden im Routinebetrieb durch die Endanwender in der Regel nicht verändert, sondern von den Administratoren der Systeme eingepflegt und bei Bedarf angepasst. Änderungen können z. B. bei der Schließung einer Kostenstelle oder dem Erscheinen eines neuen Diagnosekatalogs zum Jahresende nötig werden. Transaktionsdaten wie z. B. eine Control-
146 | Richard Lenz, Thomas Ganslandt
ling-Buchung oder eine Hauptdiagnose eines Behandlungsfalls werden dagegen im Routinebetrieb durch die Endanwender laufend neu erfasst und bearbeitet. Für die Strukturierung eines DWH werden diese Datenklassen in Form von Dimensionen und Fakten aufgegriffen. – Dimensionen werden aus den Stammdaten abgeleitet und dienen der Selektion relevanter Datenbestände innerhalb von Auswertungen. Dimensionen werden zur Strukturierung von Berichten eingesetzt, indem sie die Zeilen- und Spaltenüberschriften sowie Achsenbeschriftungen liefern, nach denen die Rohdaten im Bericht angezeigt und aggregiert werden. Dimensionen helfen den Benutzern außerdem bei der Navigation innerhalb von Berichtsdaten, um z. B. die Selektionskriterien oder Aggregationsebene einer Auswertung zum Berichtszeitpunkt zu verändern. Dimensionen sind innerhalb eines DWH häufig hierarchisch aufgebaut, um verschiedene Aggregationsebenen abbilden zu können. – Fakten leiten sich aus den Transaktionsdaten ab und liefern die Inhalte, die nach Filterung und Aggregation in den Auswertungen angezeigt werden. Fakten sind häufig numerisch und müssen dann z. B. durch Summen- oder Mittelwertbildung aggregierbar sein (Kennzahlen). Fakten können bei der Aufbereitung für das DWH auf eine niedrige Granularität voraggregiert werden, wenn für die Auswertungen der Zugriff auf einzelne Rohdatensätze nicht erforderlich ist. Durch die Aggregation verringert sich die Anzahl der zu speichernden Datensätze, und die Berichtsperformanz steigt. Bei der Durchführung einer Auswertung werden im DWH Dimensions- und Faktendaten im Sinne einer relationalen Join-Operation miteinander verknüpft. Die Verbindung wird dabei in der Regel auf der kleinsten gemeinsamen Granularitätsebene hergestellt. Stammdaten werden in operativen Systemen in der Regel normalisiert gespeichert, um Redundanzen zu vermeiden und Änderungen nur an einer zentralen Stelle durchführen zu müssen. Im o. g. Beispielszenario liegen die Quelldaten der Dimensionen in den operativen Systemen jeweils über mehrere Tabellen verteilt vor, die jeweils eine Hierarchieebene enthalten. Um in einer Auswertung mehrere Ebenen einer Dimension zur Filterung oder Anzeige von Daten verwenden zu können, müssten die Tabellen aller eingebundenen oder dazwischenliegenden Ebenen mithilfe von Joins mit der dazugehörigen Faktentabelle verbunden werden. Bei Nutzung mehrerer Dimensionen innerhalb einer Auswertung steigt die Zahl der notwendigen Tabellen entsprechend weiter an. Die resultierende Datenbankabfrage ist aufgrund der hohen Zahl verwendeter Tabellen komplex und u. U. nicht performant. Aufgrund der verzweigten Struktur von Abfragen über normalisierte Dimensionstabellen spricht man von einem Snowflake-Schema (Abb. 5.11).
5 Medizinische Datenbanken |
Faktentabelle FK-D1 FK-D2
Dimension1 PK-D1 FK-D1.2
Dimension1-Ebene2 PK-D1.2 …
FK-D3
Kennzahl
Dimension2 PK-D2 FK-D2.2
Dimension2-Ebene2 PK-D2.2 FK-D2.3
Dimension2-Ebene3 PK-D2.3 …
147
Dimension3 PK-D3 FK-D3.2a
FK-D3.2b
Dimension3-Ebene2a PK-D3.2a …
Dimension3-Ebene2b PK-D3.2b …
Abb. 5.11: Snowflake-Schema. Der eigentliche Datenwürfel wird durch eine Faktentabelle repräsentiert. Der Primärschlüssel der Faktentabelle setzt sich zusammen aus den Fremdschlüsseln (FK), die auf die Dimensionen verwei sen. Für jede Dimension gibt es mehrere Tabellen, und zwar je Klassifikationsstufe (Ebene) eine eigene Tabelle.
Ein Snowflake-Schema bezeichnet ein relationales Datenbankschema zur Beschreibung multidi mensionaler Daten. Beim Snowflake-Schema gibt es eine Faktentabelle und je Dimension mehrere Dimensionstabellen, hierbei für jede Klassifikationsstufe eine eigene Tabelle.
Zur Verbesserung der Übersichtlichkeit und Performanzoptimierung werden im DWHBereich die verschiedenen Klassifikationsstufen einer Dimension häufig in einer gemeinsamen Tabelle zusammengefasst. Die hierbei entstehende redundante Speicherung von Daten höherer Klassifikationsstufen wird bewusst in Kauf genommen. Da je Dimension jetzt nur noch eine Tabelle existiert und die zentrale Faktentabelle somit auf alle Dimensionstabellen verweist, spricht man von einem Star-Schema (Abb. 5.12). Ein Star-Schema ist ein relationales Datenbankschema zur Beschreibung multidimensionaler Da ten. Beim Star-Schema gibt es eine Faktentabelle und je Dimension genau eine Dimensionstabelle.
Auch wenn die Verwendung von Star-Schema-Modellen im DWH-Bereich üblich ist, kann der Einsatz eines Snowflake-Schemas dennoch sinnvoll sein. Ein Beispiel hierfür ist der Aufbau des Berichtswesens direkt auf einer operativen Datenbank bzw. einer
148 | Richard Lenz, Thomas Ganslandt
Dimension1 PK-D1 K-D1.2
Dimension3 PK-D3 K-D3.2a
…
Faktentabelle FK-D1 FK-D2
FK-D3
K-D3.2b
…
Kennzahl
Dimension2 PK-D2 K-D2.2
K-D2.3
…
Abb. 5.12: Star-Schema. Die Faktentabelle unterscheidet sich nicht vom Snowflake-Schema. Pro Dimension gibt es hier aber nur je eine Dimensions-Tabelle. Diese Dimensionstabellen sind nun nicht mehr normalisiert, da sie zwangsläufig transitive Abhängigkeiten enthalten.
nicht veränderlichen Kopie der operativen Daten, bei denen die Stammdaten häufig normalisiert vorliegen und bereits dem Aufbau einer Snowflake entsprechen. Dimensionen können in einem DWH oft mit mehreren Bedeutungen verwendet werden (z. B. die Zeit-Dimension für ein Buchungsdatum, Aufnahmedatum, Entlassungsdatum), wobei man von role-playing dimensions spricht. Die Inhalte der Dimensionstabelle sind dabei jeweils identisch, aber sie werden den Fakten in unterschiedlichen Kontexten zugeordnet. Um eine gleichzeitige Verwendung einer solchen Dimension in mehreren Kontexten zu ermöglichen, können entweder physikalische oder virtuelle Kopien (Views) in der Datenbank angelegt werden. Wenn eine Dimension im gleichen Kontext über mehrere Faktentabellen angewendet werden kann (z. B. ein Buchungsdatum für Personalkosten und Zeiterfassungsbuchungen), spricht man von einer „konformanten Dimension“. Diese erlaubt die Zusammenführung unterschiedlicher Fakten zum Berichtszeitpunkt sowie die Navigation zwischen verschiedenen Fakten innerhalb des Berichtswesens.
Beispielszenario Im DWH der Gesundbrunnen-Klinik wird für den Controlling-Bereich eine Dimension D_KOSTENSTELLEN mit den Ebenen Geschäftsbereich, Fachabteilung und Kostenstellen sowie eine Dimension D_KOSTENARTEN mit den Ebenen Kostenartengruppe und Kostenart geführt. Eine Faktentabel le F_CO_BUCHUNGEN wird aus den Einzelpositionen aufgebaut, in dem diese pro Kostenstelle, Kostenart, Jahr und Monat summiert werden. Im Klinik-Bereich des DWH wird eine Dimension D_ICD_DIAGNOSEN mit den Ebenen Kapitel, Gruppe, Dreisteller und ICD-Code geführt. Eine Faktenta belle F_DIAGNOSEN wird aus den Diagnosetabellen des KAS und des OP-Systems zusammengeführt. Die Dimension D_ZEIT mit den Ebenen Jahr, Quartal und Monat wird gemeinsam (konformant) für den Controlling- und den Klinik-Bereich des DWH genutzt. Die Umsetzung erfolgt als Star-Schema, d. h. jede Dimension wird unabhängig von der Zahl ihrer Hierarchieebenen denormalisiert und in nur einer Tabelle zusammengefasst ( Abb. 5.13).
5 Medizinische Datenbanken |
149
D_CO_KOSTENARTEN
D_CO_KOSTENSTELLEN
Kostenart
Kostenstelle Fachabteilung Geschäftsbereich
Kostenartengruppe
F_CO_BUCHUNGEN Kostenstelle Kostenart
Monat
Betrag D_ZEIT Monat
Quartal
Jahr
F_DIAGNOSEN ICD_Code Quellsystem
Monat
Anzahl_Diagnosen
D_ICD_DIAGNOSEN ICD_Code
Dreisteller
Gruppe
D_QUELLSYSTEME Kapitel
Quellsystem Langname
Abb. 5.13: Dimensionen und Fakten des Beispielszenarios. Der Primärschlüssel jeder Faktentabelle setzt sich zusammen aus den Fremdschlüsseln, die auf die Dimensionstabellen verweisen. Eine Zeile in der Faktentabelle F_CO_BUCHUNGEN gibt den Bu chungsbetrag pro Kostenstelle, Kostenart und Monat an, und entspricht damit genau einer Zelle in einem dreidimensionalen Würfel, der durch die drei Dimensionen aufgespannt wird. Die Dimension Zeit wird für beide Datenwürfel verwendet. In der Faktentabelle F_DIAGNOSEN wird die Anzahl der Diagnosen pro Monat, Quellsystem und Diagnosecode aufgeführt.
Der Anwender kann die verschiedenen Hierarchieebenen der verbundenen Dimensionen nutzen, um Daten auf jeder abgebildeten Granularitätsstufe auszuwählen und für den Bericht aggregieren zu lassen. Die Auswertungen werden bei dieser Form der Navigation im DWH häufig als Kreuztabelle dargestellt, an deren Kanten jeweils eine Dimension aufgetragen ist (z. B. Kostenstellen vs. Zeit). Den Wechsel von einer groben zu einer untergeordneten feineren Granularitätsstufe bezeichnet man im DWH als Detaillierung oder Drill-Down. Die umgekehrte Navigation aus einer Detailebene zu einer stärker aggregierten Ebene wird als Verdichtung oder Roll-Up bezeichnet. Wenn eine Auswertung mehr als zwei Dimensionen enthält, spricht man von multidimensionalen Datenwürfeln bzw. OLAP-Cubes. Dimensionen können in der Kreuztabelle zum
150 | Richard Lenz, Thomas Ganslandt
Berichtszeitpunkt ausgetauscht oder unterverschachtelt werden, um sie gleichzeitig in der Auswertung zu verwenden. Mithilfe eines Drill-Through kann in einen anderen Bericht verzweigt werden. Hierbei werden die im Ausgangsbericht gewählten Daten als Selektionskriterien für eine neue Auswertung verwendet, die z. B. einen anderen Detaillierungsgrad liefert oder zusätzliche Dimensionen und Kennzahlen zu den selektierten Daten bereitstellt. Die Möglichkeit, mittels Drill-Down, Roll-Up und DrillThrough innerhalb von Berichten navigieren zu können, ist ein typisches Merkmal von OLAP-Auswertungen.
Beispielszenario Der Controller der Gesundbrunnen-Klinik ruft im Data Warehouse einen Buchungsbericht auf, der als Kreuztabelle mit den Kanten Kostenstellen und Zeit angezeigt wird. In der Grundeinstellung werden die Buchungsdaten auf der Ebene Geschäftsbereich und Jahr aufsummiert dargestellt.
2011
2012
65.102.005 €
64.099.103 €
272.510.100 €
279.132.356 €
23.205.110 €
28.318.106 €
Verwaltung Krankenversorgung Forschung
Drill-Down in der Zeitdimension (Jahr → Quartale)
Verwaltung Krankenversorgung Forschung
2011-Q1
2011-Q2
2011-Q3
2011-Q4
17.574.132 €
16.931.557 €
15.884.793 €
14.711.523 €
65.414.689 €
67.148.489 €
69.787.179 €
70.159.743 €
4.813.891 €
5.210.131 €
6.413.112 €
6.767.976 €
Drill-Down in der Kostenstellendimension (Geschäftsbereich → Fachabteilungen) 2011-Q1 Innere Medizin
2011-Q2
2011-Q3
2011-Q4
17.001.113 €
17.451.723 €
18.137.512 €
18.234.341 €
Chirurgie
25.661.891 €
26.342.053 €
27.377.199 €
27.523.355 €
Frauenheilkunde
22.751.685 €
23.354.713 €
24.272.468 €
24.402.048 €
Drill-Down in der Zeit- und Kostenstellendimension (Quartale → Monate, Fachbereiche → Kostenstellen) 2011/04
2011/05
2011/06
93210010 CH Ambulanz
1.200.710 €
1.320.188 €
1.180.774 €
93210020 CH Station
2.869.133 €
2.780.012 €
2.991.225 €
93210030 CH OP
4.232.774 €
4.885.676 €
4.881.561 €
Abb. 5.14: Auszüge aus Berichten mit Drill-Downs in verschiedenen Dimensionen.
5 Medizinische Datenbanken |
151
Durch einen Doppelklick auf die Spaltenüberschrift des Jahrs 2011 wird der Bericht auf die Ebe ne der Quartale innerhalb dieses Jahres detailliert, wobei die anderen Jahre ausgeblendet werden. Durch einen Doppelklick auf die Zeilenüberschrift Krankenversorgung werden die Fachabteilungen dieses Geschäftsbereichs detailliert und die anderen Geschäftsbereiche ausgeblendet. Durch einen Doppelklick auf den Kreuzungspunkt Chirurgie und 2. Quartal 2011 (2011-Q2) wird die Detaillierung für beide Dimensionen durchgeführt: es werden die Buchungen auf einzelnen Kostenstellen der Chir urgie angezeigt, die sich auf die Monate innerhalb des 2. Quartals 2011 beziehen ( Abb. 5.14). Zur Anzeige der Kostenarten wird die Zeitdimension durch die Kostenartendimension er setzt, wobei die Filterung auf das 2. Quartal 2011 bestehen bleibt. In den Spaltenüberschriften erscheinen jetzt die Kostenartengruppen. Durch Rechtsklick auf den Kreuzungspunkt „CH OP“ und „Personalkosten“ kann ein Drill-Through auf einen neuen Bericht aus der Zeiterfassung des Perso nalbereichs geöffnet werden. Die Selektionskriterien CH OP und 2. Quartal 2011 werden in den neuen Bericht übernommen, als Kennzahl werden summierte gebuchte Anwesenheitsstunden, bezogen auf Kostenstellen und Personalgruppen, dargestellt. Durch Rechtsklick auf die Summenzeile wird der Bericht auf der Kostenstellendimension verdichtet und die summierten Zeiterfassungsdaten nach Fachabteilungen getrennt dargestellt ( Abb. 5.15).
Sachkosten
Personalkosten
sonstiges
240.001 €
2.800.113 €
661.558 €
93210020 CH Station
1.221.331 €
5.113.116 €
2.305.923 €
93210030 CH OP
3.441.334 €
8.113.881 €
2.444.796 €
gesamt
4.902.666 €
16.027.110 €
5.412.277 €
93210010 CH Ambulanz
Drill-Through in Zeiterfassungsbericht mit gleichen Filterkriterien Ärztl. Dienst
Pflegedienst
sonstige
93210010 CH Ambulanz
2.475 h
8.250 h
2.475 h
93210020 CH Station
4.950 h
19.800 h
3.300 h
93210030 CH OP
6.600 h
31.350 h
12.375 h
14.025 h
59.400 h
18.150 h
gesamt
Roll-Up in Kostenstellendimension (Kostenstellen → Fachabteilungen) Ärztl. Dienst
Pflegedienst
sonstige
Innere Medizin
12.774 h
33.417 h
7.642 h
Chirurgie
14.025 h
59.400 h
18.150 h
Frauenheilkunde
13.761 h
45.312 h
12.871 h
gesamt
40.560 h
138.129 h
38.663 h
Abb. 5.15: Auszüge aus Berichten mit Drill-Through und Roll-Up.
152 | Richard Lenz, Thomas Ganslandt
Ein Data Warehouse sollte alle relevanten Dimensionen und Kennzahlen eines Unternehmens enthalten und bietet ein übergreifendes Berichtswesen, in dem Daten unterschiedlicher Geschäftsbereiche mithilfe gemeinsamer (konformanter) Dimensionen dargestellt werden. Es ist möglich, zusätzlich Data Marts aufzubauen, in denen aus dem Gesamtdatenpool nur die Daten einer Fachabteilung oder eines Geschäftsbereichs speziell aufbereitet werden. Dies kann aus Gründen der Performanz notwendig werden, wenn z. B. die Daten eines Geschäftsbereichs überproportional umfangreich sind und deshalb über ein eigenes, entsprechend performant ausgelegtes Portal verfügbar gemacht werden müssen. Ebenso ist auch eine Segmentierung des Berichtswesens zur Steuerung der Zugriffsrechte möglich, um z. B. die Personaldaten der Mitarbeiter nur einem dafür speziell berechtigten Nutzerkreis zugänglich zu machen. Dimensionen und Kennzahlen sollten jedoch in ihrer Definition und Aufbereitung auch bei Data Marts mit dem globalen DWH übereinstimmen, um ein über alle Bereiche hinweg konsistentes Berichtswesen sicherzustellen.
5.5.3 Komponenten zur Umsetzung Die Vorteile des DWH-Ansatzes können insbesondere dann voll ausgeschöpft werden, wenn die Daten der operativen Systeme in eine separate Berichtsplattform übertragen werden, dort in Struktur und Inhalt für Auswertungszwecke optimierbar sind und dann für Berichte zur Verfügung gestellt werden können. Diese Verarbeitungskette wird im DWH-Bereich als ETL bezeichnet (Extraktion, Transformation und Loading) (Abb. 5.16). Extraktion steht hierbei für die Übertragung von Quelldaten operativer Systeme in den Vorbereitungsbereich (staging area) des DWH. Die Transformation beinhaltet die Konsolidierung, Filterung und berichtsbezogene Aufbereitung der Daten des Staging-Bereichs. Loading steht für die Übertragung der fertiggestellten Daten in den Berichtsbereich des DWH oder einen Data Mart. Beim Extraktionsschritt werden die Daten der angeschlossenen operativen Systeme (Quellsysteme) zunächst in unveränderter Form in den Vorbereitungsbereich (staging area) des DWH kopiert. Da bei diesem Schritt häufig große Datenmengen bewegt werden, wird dies in der Regel außerhalb der normalen Betriebszeit durchgeführt. Durch das Erstellen einer Kopie der Quelldaten im Staging-Bereich können alle weiteren Verarbeitungsschritte unabhängig von den operativen Systemen durchgeführt werden und beeinträchtigen somit ihre Performanz nicht. Die Häufigkeit, mit der Daten aus den Quellsystemen in den Staging-Bereich übernommen werden, richtet sich sowohl nach der für die Berichte erforderlichen Aktualität als auch nach dem Zeitaufwand für den Import. Große Datenmengen, für die nur ein monatliches Berichtswesen erforderlich sind, sollten in der Regel auch nur einmal im Monat übertragen werden (z. B. Übernahme der Controlling-Buchungen jeweils nach dem Monatsabschluss); Daten mit hoher Aktualität können dagegen auch täglich oder in noch kürzeren Abständen übernommen werden (z. B. nächtliche Übernahme von Diagnosecodes für das Me-
5 Medizinische Datenbanken |
153
Quellsystem 1 Staging
Data Warehouse
Quellsystem 2 Extraktion
Transformation and Loading
Quellsystem 3
Quellsystem 4 Abb. 5.16: Verarbeitungskette im DWH-Bereich: Der ETL-Prozess (Extraktion, Transformation und Loading).
dizin-Controlling). Stammdaten können entsprechend ihres langsameren Änderungsrhythmus oft auch in größeren Abständen übertragen werden als Transaktionsdaten. Die Datenübernahme kann als Vollimport durchgeführt werden, bei dem der Datenbestand des Staging-Bereichs verworfen und aus dem jeweiligen Quellsystem neu aufgebaut wird. Daneben ist auch ein Delta-Import möglich, bei dem lediglich die seit der letzten Datenübernahme neu angelegten oder veränderten Datensätze in den Staging-Bereich übernommen werden. Voraussetzung für einen Delta-Import ist die Verfügbarkeit eines durchgängig geführten Zeitstempels für Neuanlagen und Änderungen in den jeweiligen Quelltabellen. Delta-Importe können gegenüber der vollständigen Datenübernahme erhebliche Geschwindigkeitsvorteile ermöglichen, sollten jedoch periodisch auf ihre Übereinstimmung mit den Quelldaten validiert werden.
Beispielszenario Aus dem ERP-System der Gesundbrunnen-Klinik werden die Buchungsdaten des Controllings monat lich nach dem Monatsabschluss in den Staging-Bereich des DWH kopiert. Ein durchgängig geführ tes Buchungsdatum in der Buchungstabelle ermöglicht die Datenübernahme im Delta-Verfahren. Die Stammdaten der Kostenstellen und Kostenarten werden nach Änderungen manuell als Vollimport übertragen. Die fallbezogen erfassten Diagnosen aus dem KAS werden jede Nacht per Delta-Verfah ren in den Staging-Bereich übernommen. Die Diagnosen aus dem OP-System werden ebenfalls jede Nacht übertragen, aufgrund eines fehlenden Zeitstempels jedoch als Vollimport. Der ICD-Diagnose katalog wird einmal jährlich aus den vom Deutschen Institut für Medizinische Dokumentation und Information (DIMDI) bereitgestellten Textdateien importiert.
154 | Richard Lenz, Thomas Ganslandt
Beim Transformationsschritt werden die aus den verschiedenen Quellsystemen in den Staging-Bereich kopierten Daten zu einer integrierten, auswertungsbezogenen Form weiterverarbeitet. Im Gegensatz zum Extraktionsschritt, bei dem Daten 1:1 übernommen werden, geht der Transformation eine detaillierte Modellierung des Zieldatenbankschemas voraus, die u. a. die Aufteilung der Daten in relevante Dimensionen und Fakten beinhaltet. Bei diesem Schritt können erstmals auch Daten unterschiedlicher Quellsysteme zu einem einheitlichen Datenbankschema zusammengeführt werden. Im Rahmen der Transformation können Datenelemente überprüft und ggf. gefiltert werden, z. B. indem die erhobenen Diagnosecodes mit dem offiziellen ICD-Katalog abgeglichen werden. Informationen, die zu einem Prozessschritt in verschiedenen Systemen erhoben wurden, können zusammengeführt werden, wenn ein gemeinsamer Primärschlüssel vorliegt (z. B. Prozedurencodes des KAS mit zugehörigen Abrechnungsziffern aus dem ERP-System). Daten können u. U. im Transformationsschritt voraggregiert werden, um die Berichtsperformanz zu erhöhen. Ebenfalls Bestandteil der Transformation ist die Aufbereitung der Daten in einer für Auswertungsabfragen optimierten Form. Dies können relationale Tabellenschemata sein, die z. B. im Star-Schema denormalisiert vorliegen (relationales OLAP, ROLAP). Ebenso sind auch spezialisierte multidimensionale Datenwürfel möglich, die in Abhängigkeit von Umfang und Komplexität eine wesentliche Performanzsteigerung gegenüber rein relationalen Lösungen erbringen können (multidimensionales OLAP, MOLAP). Der Performanzgewinn wird hierbei durch eine spezialisierte Aufbereitung und Speicherung der Daten erreicht, die häufig dateibasiert, ohne zugrundeliegende relationale Datenbank, sowie teilweise auch ausschließlich im Arbeitsspeicher (in-memory) erfolgt.
Beispielszenario Im DWH der Gesundbrunnen-Klinik werden im Rahmen der Transformation für das Controlling Dimen sionstabellen zu Kostenstellen und Kostenarten sowie eine Faktentabelle aus Buchungsdaten gene riert, die zusammen mit einer Zeitdimension in einem gemeinsamen Star-Schema mit vier Tabellen abgelegt werden ( Abb. 5.13). Die Daten werden in einem weiteren Transformationsschritt zu einem MOLAP-Cube umgewandelt, der nicht in der Datenbank, sondern in einem spezialisierten Format als Datei im Filesystem abgelegt wird. Für das Medizin-Controlling werden die erfassten Diagnosecodes des KAS und des OP-Systems zu einer Faktentabelle zusammengefasst, die gemeinsam mit der ICD-Diagnosedimension und der Zeitdimension in einem Star-Schema gebündelt wird. Die Faktentabelle enthält außerdem noch demo graphische Daten aus dem KAS (Alter und Geschlecht der Patienten) sowie Daten zu den Behandlungs fällen (Aufnahme- und Entlassdatum, Falldauer). Entsprechende Dimensionen (Altersgruppenhierar chie, Geschlecht) sind ebenfalls im Star-Schema vorhanden. Da die Zeitdimension sowohl für das Dia gnose- wie auch das Aufnahme- und Entlassdatum angewendet werden kann, werden drei Kopien im Sinne von role-playing dimensions angelegt. Da es sich im Vergleich zu den Controlling-Buchungen um einen kleineren Datenbestand handelt, werden die Tabellen direkt aus der Datenbank für die Be richte verwendet (= ROLAP, Abb. 5.17).
5 Medizinische Datenbanken |
D_ZEIT_ENTLASSUNG
D_ZEIT_AUFNAHME Monat
Quartal
Monat
Jahr
Quartal
Jahr
155
D_ZEIT_DIAGNOSE Monat
Quartal
Jahr
F_DIAGNOSEN ICD_Code
Quellsystem
Aufnahmemonat
D_ICD_DIAGNOSEN ICD_Code
Dreisteller
Gruppe
Entlassmonat
Diagnosemonat
D_QUELLSYSTEME Kapitel
Quellsystem
Langname
Geschlecht
Alter
Anzahl_Diagnosen
D_GESCHLECHT Geschlecht
D_ALTER Alter
Altersgruppe
Abb. 5.17: Star-Schema Medizin-Controlling: Die Faktentabelle F_DIAGNOSEN ist mit Dimensionen für die zeitliche Einordnung, dem Diagnosen katalog, den Quellsystemen sowie zur Demographie verbunden.
Beim Loading-Schritt werden die transformierten Daten in den Berichts-Bereich des DWH bzw. der Data Marts eingespielt. Da es sich in der Regel um große Datenmengen handelt, werden oft spezielle Loader-Programme verwendet, die zur Beschleunigung des Imports Konsistenz- und Indexmechanismen der zugrundeliegenden relationalen Datenbanken außer Kraft setzen. Da es sich nicht um transaktionale Systeme handelt, ergeben sich hieraus keine Nachteile. Essentiell für die spätere Performanz der Auswertung ist außerdem die Indizierung der Fakten und ggf. Dimensionstabellen. Indizes auf den für die Datenselektion relevanten Spalten können die Berichtsperformanz um Größenordnungen optimieren. Einige relationale Datenbanksysteme bieten darüber hinaus spezialisierte Funktionen, um die Berichtsperformanz bei großen Datenmengen oder komplexen Datenstrukturen weiter zu verbessern (z. B. Partitionierung von Tabellen, materialisierte Views, Bitmap-Indizes).
Beispielszenario Die Controlling-Tabellen der Gesundbrunnen-Klinik werden mit einem Loader-Programm in das DWH geladen. Eine Indizierung der Dimensions- oder Faktentabellen ist auf Datenbankebene nicht erfor derlich, da die Auswertungen über einen optimierten MOLAP-Würfel durchgeführt werden, der zum Berichtszeitpunkt komplett in den Speicher geladen wird. Die Daten des Medizin-Controllings werden ebenfalls mit einem Loader-Programm in die Daten bank überführt. Für die verschiedenen role-playing dimensions der Zeitdimension werden in der Da tenbank entsprechend benannte Views angelegt. Die Diagnose-Faktentabelle wird auf den Spalten Diagnose-, Aufnahme- und Entlassdatum sowie Alter und Geschlecht indiziert, um eine schnelle Se lektion im ROLAP-Berichtswesen zu ermöglichen.
156 | Richard Lenz, Thomas Ganslandt
Auf Basis der beim ETL-Prozess generierten Daten kann das Berichtswesen (Reporting) im DWH durchgeführt werden. Wesentliche Softwarekomponenten sind hierbei Modellierungswerkzeuge, Reporting-Portale und OLAP-Viewer. Mithilfe eines Modellierungswerkzeugs können die ausgelieferten Datenbanktabellen für das Berichtswesen strukturiert werden. Wesentliche Aufgaben sind hierbei die Identifizierung von Dimensions- und Faktentabellen sowie die explizite Angabe der Verknüpfungen zwischen den Tabellen im Sinne eines E/R-Diagramms, sodass diese vom Berichtsgenerator bei der Generierung geeigneter Abfragen genutzt werden können. Berichtsportale stellen Möglichkeiten zur Anlage und Bearbeitung von Berichten sowie Mechanismen zur Berechtigungssteuerung zur Verfügung. Berichte können häufig sowohl als komplexe, von den DWH-Administratoren vorgegebene Auswertungen, als auch als interaktiv vom Endanwender zusammengeklickte Auswertungen umgesetzt werden. Die Portale erlauben oft die modulare Zusammenstellung von Berichten aus Tabellen und Diagrammen sowie die Zusammenfassung von Berichtsdaten in Form von Dashboards. Berechtigungen können häufig auf Berichtsebene (Object Security) sowie auf Ebene der innerhalb eines Berichts anzuzeigenden Daten (row-level security) eingestellt werden. OLAP-Viewer dienen der Anzeige eines optimierten MOLAP-Datenwürfels bzw. einer entsprechend modellierten ROLAP-Tabellenstruktur. Sie unterstützen die verschiedenen Navigationsschritte (Drill-Down, Roll-Up, Drill-Through) meist auf Basis von Kreuztabellendarstellung sowie von interaktiven Diagrammen.
5.5.4 Einsatz von DWH in Klinik und Forschung Data Warehouse-Lösungen haben sich zunächst im Bereich von Wirtschaftsbetrieben etabliert, erst später folgte die Ausbreitung in den klinischen Bereich. Ein wesentlicher Antrieb für den Einzug von DWH-Plattformen in deutsche Kliniken war die Einführung der fallpauschalierten Abrechnung nach dem DRG-System im Jahr 2003, die den Druck sowohl in Richtung einer wirtschaftlichen Leistungserbringung als auch einer vollumfänglichen abrechnungsbezogenen Dokumentation verstärkte. DWH-Lösungen konnten entscheidend dazu beitragen, die vollständige und fristgerechte DRG-Dokumentation zu überwachen, erzielte und erwartete Erlöse zu ermitteln und kritische Parameter des DRG-Systems, wie Case Mix (Summe der Fallschwerepunkte), Case Mix Index (CMI, mittlerer Fallschweregrad) und Verweildauern zeitnah auszuwerten. Basis eines DRG-Berichtswesens sind gesetzlich festgelegte Datenelemente, die dem KAS bzw. der Patientendatenverwaltung (PDV) einer Klinik entnommen werden können. Darüber hinaus sind alle benötigten Daten auch im sog. §21-Datensatz enthalten, der im Krankenhausentgeltgesetz zur Ermittlung der Fallpauschalen vorgeschrieben ist. Da sein Format eindeutig definiert ist, und er von jedem zur DRG-Dokumentation geeigneten KAS/PDV-System exportiert
5 Medizinische Datenbanken |
157
werden kann, eignet er sich insbesondere auch zur schnellen Einführung eines DWHbasierten DRG-Berichtswesens, da kein aufwändig einzurichtender klinikspezifischer ETL-Prozess erforderlich ist. Der §21-Datensatz enthält u. a. Basisangaben zur Klinik sowie fallbezogene Daten über Diagnosen, Prozeduren und andere zur DRG-Ermittlung notwendige Falldaten (z. B. Falldauer, Beatmungsdauer). Da der §21-Datensatz auf DRG-relevante Dokumentationsmerkmale eingeschränkt ist, ist für ein darüber hinausgehendes Berichtswesens dennoch eine klinikspezifische Erweiterung inkl. eigenem ETL erforderlich.
Beispielszenario Bei der Einführung des DWH der Gesundbrunnen-Klinik wurde zunächst ein Standard-Berichtswesen auf Basis des §21-Datensatzes aufgebaut. Nach Einspielen der DWH-Plattform und eines Standard pakets für Import und Aufbereitung des Datensatzes konnte im Medizin-Controlling unmittelbar mit dem System gearbeitet werden. Zeitgleich wurde mit dem Aufbau einer individuellen ETL-Strecke für ERP-, KAS und OP-System begonnen, um mittelfristig ein übergreifendes Berichtswesen etablieren zu können.
Durch Einbindung zusätzlicher Datenquellen kann ein DRG-Berichtswesen ausgebaut werden, um z. B. eine leistungsbezogene Erlösaufteilung zwischen den Fachabteilungen zu etablieren. Ebenso kann ein DWH auch die Einführung einer Kostenträgerrechnung unterstützen, bei der die Vollkosten des Klinikbetriebs nach vorgegebenen Regeln auf die einzelnen Behandlungsfälle verteilt werden. Ein klinisches DWH ergibt sich durch Integration von klinischen Daten, die über die rein administrative abrechnungsbezogene Dokumentation hinausgehen, z. B. Labor- und Medikationsdaten. Ein klinisches DWH bietet erweiterte Anwendungsmöglichkeiten beispielsweise zur medizinischen Qualitätssicherung und Prozessoptimierung. Ebenso wird das DWH für eine Vielzahl von Forschungsfragestellungen geöffnet. Hierdurch können historische Daten zur Generierung von Hypothesen sowie zur Überprüfung der Durchführbarkeit von Studien (protocol feasibility) ausgewertet werden. Retrospektive Fragestellungen können in manchen Fällen vollständig aus dem Datenbestand des DWH beantwortet werden. Ebenso können mit tagesaktuellen Daten Auswertungen zur Unterstützung der Patientenrekrutierung in laufenden Studien durchgeführt werden. Ein umfangreiches klinisches DWH kann darüber hinaus die Grundlage für Data-Mining-Verfahren bieten, mit denen neue Zusammenhänge im Datenpool aufgedeckt werden können. Mindestvoraussetzung für die Nutzung von Patientendaten außerhalb des Behandlungszusammenhangs ist das informierte Einverständnis (informed consent) der einbezogenen Patienten bzw. das Vorliegen einer entsprechenden gesetzlichen Regelung, die eine weitergehende Nutzung klinischer Daten z. B. für die Forschungszwecke gestattet (Kapitel 12). In diesem Zusammenhang ist häufig der Einsatz von Verfahren zur Pseudonymisierung bzw. Anonymisierung von medizinischen Da-
158 | Richard Lenz, Thomas Ganslandt
tensätzen notwendig. Die Verfügbarkeit einer grafischen Abfrageoberfläche, die von klinischen bzw. wissenschaftlichen Anwendern intuitiv benutzt werden kann, ist eine weitere wichtige Voraussetzung für den erfolgreichen Einsatz eines klinischen DWH. Bei allen Forschungsabfragen an ein klinisches DWH ist zu berücksichtigen, dass die Daten im Rahmen der klinischen Routine erhoben wurden, sodass ihre Eignung für den geplanten Zweck kritisch hinterfragt werden muss.
Beispielszenario Im DWH der Gesundbrunnen-Klinik hat das Medizin-Controlling standardisierte Berichte für die jähr liche Generierung des Qualitätsberichtswesens angelegt. Zur Durchführung wissenschaftlicher Auswertungen wurde die Open-Source-Plattform i2b2 an das DWH angebunden. Berechtigtes ärztliches Personal kann mithilfe des Systems Abfragen über einen Pool relevanter klinischer Merkmale durchführen. Zur Unterstützung der Rekrutierung in einer kardiologischen Studie werden regelmäßig Auswer tungen über den Datenbestand durchgeführt, deren Ergebnis der Studienleitung als Vorschlagsliste präsentiert wird ( Abb. 5.18).
operative Quellsysteme
Staging
Routine-DWH ControllingBerichte
Forschungs-Portal
RekrutierungsBerichte
ERP
KAS Extraktion LIS
Transformation and Loading 1
Transformation and Loading 2
i2b2
OP-Dokumentation
Biobank Abb. 5.18: Systemskizze Forschungs-DWH (Data Warehouse): Daten der operativen Quellsysteme werden im Rahmen der Extraktion in den Staging-Bereich ko piert und von dort per Transformation in das Routine-Data Warehouse übertragen. In einem weite ren Transformationsschritt werden die Daten für die Nutzung im Forschungs-Warehouse aufbereitet.
5 Medizinische Datenbanken |
159
5.5.5 Chancen und Grenzen von Data Warehouses in der Medizin Klinische DWH-Lösungen bieten ein erhebliches Potenzial, die zunehmend elektronisch dokumentierten klinischen Routinedaten für eine nachhaltige Nutzung zu erschließen. Diesem stehen allerdings auch verschiedene Hürden gegenüber, die bei der Implementierung zu berücksichtigen sind. Klinische Datenquellen sind gegenüber dem betriebswirtschaftlichen Umfeld häufig sehr heterogen, weil viele Abteilungssysteme eingebunden werden müssen, die sich oft inhaltlich mit unternehmensweiten Plattformen oder anderen Abteilungssystemen überschneiden. Dementsprechend ergibt sich ein Mehraufwand bei der Extraktion und Transformation der Quelldaten, insbesondere auch durch die Notwendigkeit, redundant dokumentierte Datenelemente zu erkennen und ggf. zusammenzuführen (z. B. bei der Dokumentation von Diagnosen und Prozeduren in KAS und Abteilungssystemen). Alternativ muss ein führendes System festgelegt werden, dem die Daten anderer Quellsysteme nur informativ gegenübergestellt werden. Eine wesentliche Herausforderung ergibt sich auch aus der Vielfalt und Heterogenität der Quelldaten selbst. In Laborsystemen oder auch in einem zur flexiblen klinischen Dokumentation eingesetzten KAS können tausende von Datenelementen erhoben und verarbeitet werden, die häufig ohne ein übergreifendes Kodiersystem oder Data Dictionary über längere Zeiträume historisch gewachsen sind. Im Laborbereich kann ein einzelner Laborparameter wie der Hämoglobinwert durch Erbringung einer Laborleistung in verschiedenen Laborabteilungen, durch den Wechsel von Bestimmungsmethoden über die Zeit oder durch organisatorische Faktoren eine Vielzahl unterschiedliche Codes aufweisen. Für die an sich einfach erscheinende Abfrage der Hämoglobinwerte eines Patientenkollektivs muss hier zunächst der gesamte Pool an verfügbaren Laborparametern durchsucht werden, um alle Ausprägungen des Hämoglobin-Parameters für die Auswertung zu identifizieren. Ein Ansatz zur Lösung dieser semantischen Heterogenität besteht im Aufbau eines zentralen Enterprise Data Dictionary (EDD), welches alle in den relevanten Systemen geführten Merkmale enthält und eine Definition möglichst mit Verknüpfung mit einer geeigneten offiziellen Terminologie aufweist. Im Fall der Laborparameter existiert mit dem Kodiersystem LOINC (Logical Observation Identifiers Names and Codes) eine Terminologie, die eine Vielzahl von Laboruntersuchungen exakt beschreibt und auf mehreren Achsen in Bezug auf Untersuchungsmaterial, Messmethode und andere Kriterien charakterisiert. Nach Abbildung der lokalen Laborparameter auf den LOINC können seine zusätzlichen Metadaten zur Recherche im Pool der verfügbaren Laborwerte genutzt werden. Ebenso kann bei der Neuanlage von Parametern im Laborsystem einfacher recherchiert werden, ob der neue Laborwert bereits kodiert wurde und ggf. wiederverwendet werden kann. Analog zum LOINC stehen auch für viele andere Themenbereiche spezialisierte Terminologien zur Verfügung, die beim Aufbau eines EDD genutzt werden können.
160 | Richard Lenz, Thomas Ganslandt
5.6 Data Mining In der Regel werden in einem DWH große Datenmengen aus unterschiedlichen Quellen zusammengeführt, um sie besser und schneller analysieren zu können. Eine solche Datenbasis kann ggf. auch dazu genutzt werden, um nach neuen, bisher unbekannten Mustern zu suchen und neue Erkenntnisse abzuleiten. Tatsächlich ist die Wissensgenerierung anhand von Datenbanken ein aufwändiger Prozess, der die Erstellung eines geeigneten DWH als Datenbasis beinhaltet. Der eigentliche Schritt der Datenanalyse zur Wissensgenerierung wird auch als Data Mining bezeichnet. Data Mining bezeichnet ein Methodenspektrum zur explorativen Datenanalyse, um aus großen Datenbeständen neues Wissen zu extrahieren, das nicht explizit in den Daten enthalten ist.
Die Menge der Daten, die im Rahmen des diagnostisch-therapeutischen Prozesses anfällt, wächst stetig. Die Chance, Erkenntnisse aus diesen Daten zu gewinnen, wird immer geringer, da der Umgang mit so großen Datenmengen die kognitiven Fähigkeiten des Menschen übersteigt. Spezielle Analyseverfahren können hier helfen, setzen aber die sorgfältige Aufbereitung der Daten z. B. im Rahmen eines DWH voraus. Mögliche Zielsetzungen für den Einsatz dieser Verfahren könnten beispielsweise sein: – Unterstützung der medizinischen Forschung, – Früherkennung von Krankheiten und von Pandemien, – Kostenreduktion (bspw. durch Vermeidung invasiver diagnostischer Verfahren). Data-Mining-Verfahren können grob unterschieden werden in: – beschreibende Verfahren (z. B. Ausreißererkennung, Clusteranalyse, Assoziationsanalyse) – prognostische Verfahren (z. B. Klassifikation und Regressionsanalyse). Verfahren zur Ausreißererkennung sollen helfen, Datensätze mit stark vom Erwartungswert abweichenden Merkmalen zu finden. Ein möglicher Einsatzbereich solcher Verfahren ist das Erkennen von Messfehlern, um medizinische Fehlentscheidungen auf der Basis fehlerhafter Daten zu vermeiden. Darüber hinaus können Verfahren zur Ausreißeranalyse auch eingesetzt werden, um betrügerische Aktivitäten wie Versicherungsbetrug aufzudecken. Bei der Clusteranalyse versucht man eine möglichst gute Klassifikation von Elementen auf Basis einer Menge von Merkmalen zu finden, sodass Gruppen von ähnlichen Elementen (Cluster) in einer Klasse zusammengefasst werden. Jedes Element wird dabei als Vektor von n Merkmalsausprägungen interpretiert, der einen Punkt in einem n-dimensionalen Raum darstellt. In der Medizin können durch Clusteranalyse Patienten in Gruppen eingeteilt werden, um unterschiedliche Varianten einer Krankheit besser differenzieren zu können (z. B. unterschiedliche Symptomatik in verschiedenen Clustern).
5 Medizinische Datenbanken |
161
Mithilfe von Assoziationsanalysen wird versucht, Zusammenhänge zwischen verschiedenen Merkmalen zu identifizieren. Ein typisches Beispiel ist die sogenannte Warenkorbanalyse, bei der untersucht wird, welche Produkte häufig zusammen eingekauft werden. In der Medizin kann mithilfe der Assoziationsanalyse bspw. Untersucht werden, welche Krankheiten besonders häufig gemeinsam auftreten. Anders als bei der Clusteranalyse ist bei der Klassifikation die Klasseneinteilung bereits vorhanden. Hier ist das Ziel, nicht klassifizierte Elemente möglichst gut einem bestehenden Klassensystem zuzuordnen. Hier wird also nach einem Verfahren gesucht, das auf der Basis der Merkmalsausprägungen eines nicht klassifizierten Objekts eine möglichst wahrscheinliche Klassenzuordnung findet. Bei der Regressionsanalyse geht es darum, den Zusammenhang zwischen einer oder mehreren unabhängigen Variablen und einer abhängigen Variablen zu quantifizieren. Die einfachste Variante ist die lineare Regression, bei der ein linearer Zusammenhang zwischen abhängiger und unabhängiger Variable angenommen wird. Solche Verfahren können bspw. eingesetzt werden, um die Entwicklung eines Tumors über die Zeit, basierend auf Messwerten aus der Vergangenheit, zu prognostizieren. Ein anderes Beispiel ist die Prognose des Blutdrucks in Abhängigkeit von Gewicht und Alter eines Patienten. Die hier aufgeführten Beispiele decken das Einsatzspektrum des Data Mining in der Medizin bei weitem nicht ab und sind eher dazu gedacht, die grundlegende Zielsetzung der verschiedenen Verfahren zu illustrieren. Tatsächlich sind vielfältige Varianten und Kombinationen dieser Verfahren überall dort einsetzbar, wo große Datenbestände zu untersuchen sind, wie bspw. in so unterschiedlichen Anwendungsgebieten wie epidemiologischen Datenbanken oder Genexpressions-Microarrays (Kapitel 7). Die Werkzeuge, die heute zur Anwendung von Data-Mining-Verfahren zur Verfügung stehen, werden immer mächtiger in ihrer Funktionalität und Adaptierbarkeit. Dennoch erfordert die zielgerichtete Anwendung der Verfahren nicht nur ein hohes Maß an Methodenkompetenz, sondern auch eine hohe Fachkompetenz in der jeweiligen Anwendungsdomäne. Maschinengenerierte Muster sind oft nur für den Fachexperten aussagekräftig, können aber für diesen durchaus eine sehr gute Unterstützung zur kognitiven Bewältigung großer Datenvolumina darstellen.
Dank Die Autoren danken allen an der Erstellung des Kapitelmanuskripts beteiligten weiteren Personen sowie den Bereitstellern von Daten und Informationen.
162 | Richard Lenz, Thomas Ganslandt
Quellenverzeichnis Colomb R. M.: Impact of semantic heterogeneity on federating databases. The Computer Journal 40.5 (1997): 235–244. Corrigan J. M.: Crossing the quality chasm. Building a Better Delivery System (2005). Elmasri R., Navathe S.: Fundamentals of Database Systems. Prentice Hall, 2010. Inmon W. H.: Building the data warehouse. John Wiley & Sons, 2005. Lenz R., Beyer M., Kuhn K. A.: Semantic Integration in Healthcare Networks. Int J Med Inform 2007;76(2–3):201–207. Nadkarni P. M., Marenco L., Chen R., Skoufos E., Shepherd G., Miller P.: Organization of hetero geneous scientific data using the EAV/CR representation. J Am Med Inform Assoc. 1999 NovDec;6(6):478–493. Sheth A. P., Larson J. A.: Federated database systems for managing distributed, heterogeneous, and autonomousdatabases. ACM Computing Surveys (CSUR) 22.3 (1990): 183–236.
Verzeichnis weiterführender Literatur Bauer A., Günzel H.: Data Warehouse Systeme. Architektur, Entwicklung, Anwendung. Heidelberg (2001). Bellazzi R., Zupan B.: Predictive data mining in clinical medicine: current issues and guidelines. International journal of medical informatics 77.2 (2008): 81–97. Bernstein P. A.: Vassos Hadzilacos, and Nathan Goodman. Concurrency control and recovery in data base systems. Vol. 370. New York: Addison-wesley, 1987. Conrad S., et al.: Enterprise Application Integration. Spektrum Akademischer Verlag, 2005. Elmasri R., Navathe S.: Fundamentals of Database Systems. Prentice Hall, 2010. Fayyad U., Piatetsky-Shapiro G., and Smyth P.: From data mining to knowledge discovery in databases. AI magazine 17.3 (1996): 37. Gray J., Reuter A.: Transaction processing. Morgan Kaufíann Publishers, 1993. Kemper A., Eickler A.: Datenbanksysteme: Eine Einführung. Oldenbourg Verlag, 2011. Koh H. C., Tan G.: Data mining applications in healthcare. Journal of healthcare information manage ment 19.2 (2011): 65. Lavrač N.: Selected techniques for data mining in medicine. Artificial intelligence in medicine 16.1 (1999): 3–23. Nadkarni P. M.: Metadata-driven Software Systems in Biomedicine: Designing Systems that Can Adapt to Changing Knowledge. Springer Science & Business Media, 2011. Rahm E.: Mehrrechner-Datenbanksysteme: Grundlagen der verteilten und parallelen Datenbankver arbeitung. Erhard Rahm, 1994. Tan P. N., Steinbach M., Kumar V.: Introduction to data mining. Vol. 1. Boston: Pearson Addison Wes ley, 2006. Weikum G., Vossen G.: Transactional information systems. (2002). Witten I. H., Frank E.: Data Mining: Practical machine learning tools and techniques. Morgan Kauf mann, 2005.
5 Medizinische Datenbanken |
163
Testfragen 1. Welche Bedeutung hat das Transaktionskonzept im Zusammenhang mit Datenbanken, und wel che Eigenschaften sollte es sicherstellen? 2. Welche besonderen Herausforderungen ergeben sich in Bezug auf die Datenbank durch neben läufige Ausführung von Transaktionen? 3. Warum ist heute das relationale Datenbankmodell am weitesten verbreitet? 4. Entwerfen Sie ein konzeptionelles Datenbankschema mit einem E/R-Diagramm für die Verwal tung von Vorlesungen, Dozenten und Prüfungen in ihrem Studiengang! 5. Erläutern Sie die Begriffe „Dimension“, „Fakten“, „Snowflake-Schema“ und „Star-Schema“ im Kontext des Data Warehouse! 6. Welche Berichte würden Sie als Verwaltungsleiter einer Hochschule aus einem Data Warehouse generieren wollen? Identifizieren Sie Dimensionen und Fakten! 7. Nennen Sie Beispiele für Methoden des Data Mining!
Cord Spreckelsen, Peter Schlattmann
6 Medizinische Entscheidungsunterstützung 6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8 6.9 6.10 6.11
Einleitung | 166 Statistische Konzepte | 167 Symbolische Wissensverarbeitung | 170 Klassifikation und Mustererkennung | 175 Lernen aus Daten | 178 Probabilistische Entscheidungsfindung | 180 Biomedizinische Ontologien und ihre formale Repräsentation | 182 Klinische Entscheidungsunterstützungssysteme | 188 Standardisierungsansätze für Clinical Decision Support Systems | 191 Ausgewählte Anwendungsgebiete | 193 Zusammenfassung und Ausblick | 197
Zusammenfassung: Entscheidungsunterstützung wird im medizinischen Kontext zur Interpretation klinischer Daten und medizinischen Wissens genutzt. Statistische Methoden und Konzepte der Logik spielen dabei eine besondere Rolle. Probabilistische Ansätze wie das Bayessche Verfahren, Supportvektoren und Clusterverfahren werden zur Klassifikation, Mustererkennung und zum Data Mining angewendet. Zunehmende Bedeutung bekommen die Ontologien, die durch natürliche Sprachen wie auch durch formale Sprachen mithilfe von Computerprogrammen bearbeitet werden können. Sie erlauben eine standardisierte und dennoch flexible Verschlagwortung von Informationsquellen bzw. Kodierung von Sachverhalten. Für die klinische Nutzung entscheidungsunterstützender Systeme bzw. entsprechender Komponenten ist die standardisierte Systemintegration von besonderer Bedeutung. Abstract: Decision support techniques facilitate the interpretation of clinical data and medical knowledge. Methods of statistics and formal logics are of special relevance. Probabilistic approaches such as the Bayesian approach, support vectors and clustering are applied for classification, pattern recognition, and data mining. There is an emphasis on new ontologies which are processed by combining natural language definitions with formal specifications in computer programs. Ontologies support standardised but flexible indexing of information sources and coding of facts, respectively. Standardised system integration turned out to be of special importance for the clinical use of decision support systems or selected components.
166 | Cord Spreckelsen, Peter Schlattmann
6.1 Einleitung Die hohen Anforderungen an Zuverlässigkeit und Effizienz ärztlichen Handelns bringen es mit sich, dass Ärzte bei ihren Entscheidungen auf Hilfsmittel zurückgreifen müssen. Solche Hilfsmittel reichen vom Buch – etwa Handbüchern zur Differentialdiagnose oder Therapie – über Tabellen und Normogramme zur Ermittlung entscheidungsrelevanter Werte bis zu Ablauf- oder Entscheidungsdiagrammen klinischer Behandlungspfade oder diagnostischer Leitlinien. Diese Formen der Entscheidungsunterstützung sind bereits etabliert und im klinischen Alltag unverzichtbar. Inzwischen spielen aber auch rechnergestützte Systeme eine immer wichtigere Rolle bei ärztlichen Entscheidungsprozessen. Zunächst erleichterten Computer vor allem die Kommunikation und den Zugriff auf entscheidungsrelevante Informationen. Dadurch wurden klassische Entscheidungshilfen flexibler oder schneller. Darüber hinaus wurden inzwischen aber auch Ansätze und Systeme entwickelt, in denen Entscheidungen anhand von Schlussfolgerungen und Ergebnissen mithilfe von Computerprogrammen getroffen werden. Medizinische Entscheidungsunterstützungssysteme (medical decision support systems) ermög lichen es, klinische Daten zu interpretieren, aus ihnen Schlussfolgerungen zu ziehen oder – etwa in Form von Warnmeldungen – auf diese zu reagieren. Dabei werden Patientendaten mit medizi nischem Wissen verknüpft, um kontextbezogene Empfehlungen zu erzeugen.
Zu Beginn des Kapitels stehen grundlegende Begriffe und Konzepte der Statistik und der symbolischen Wissensrepräsentation im Vordergrund. Verfahren zur Klassifikation und Mustererkennung werden anhand exemplarischer Ansätze wie den Bayes-Klassifikatoren, Support-Vektoren und Cluster-Verfahren vorgestellt und durch einen kurzen begriffsklärenden Abschnitt zum Lernen aus Daten ergänzt. Nach den Grundlagen widmet sich das nächste Kapitel dem Schwerpunkt der wahrscheinlichkeitstheoretisch unterstützten Entscheidungsfindung, vorgestellt am Beispiel der Entscheidungsanalyse und den Bayes-Netzen. Zur strukturierten, expliziten und computerunterstützten Erfassung medizinischen Wissens bilden sogenannte Ontologien eine wichtige Voraussetzung. Deshalb werden zunächst die formalen Ansätze der Ontologiearbeit eingeführt und anschließend mit SNOMED-CT und Gene Ontology zwei praktisch relevante Ontologien für die Biomedizin vorgestellt. Die folgenden vier Kapitel beleuchten wichtige Aspekte klinischer Entscheidungsunterstützungssysteme. Das erste nimmt Begriffsklärungen vor und benennt kritische Erfolgsfaktoren rechnerbasierter, klinischer Entscheidungsunterstützung. Danach werden wichtige Standardisierungsansätze vorgestellt und im darauffolgenden Kapitel Anwendungsgebiete demonstriert. Das zusammenfassende letzte Kapitel versucht eine Bewertung klinischer Entscheidungsunterstützung anhand ausgewählter Evaluationsergebnisse.
6 Medizinische Entscheidungsunterstützung
– – – –
| 167
Insgesamt sollen folgende Lernergebnisse erzielt werden: Erläutern der klinischen Entscheidungsunterstützung und ihrer grundlegenden Konzepte, Verstehen der statistischen Grundlagen klinischer Entscheidungsunterstützung, Einschätzen relevanter Anwendungsszenarien medizinischer Entscheidungsunterstützung, Kennen und adäquates Berücksichtigen von Erfolgsfaktoren.
6.2 Statistische Konzepte Entscheidungen sind mit Unsicherheit behaftet, die mithilfe der Statistik quantifiziert werden sollen. Statistik ist es, diese Unsicherheit zu quantifizieren. Dies geschieht unter Verwendung der Wahrscheinlichkeitsrechnung.
6.2.1 Wahrscheinlichkeit
Die Wahrscheinlichkeit P für das Eintreffen von Ereignissen K P(K) ist nach den Axiomen von Kol mogorov eine reelle Zahl im Intervall [0, 1]. Wenn sich die Ereignisse gegenseitig ausschließen und alle möglichen Ereignisse der Grundgesamtheit Ω umfassen, muss die Summe der zugehöri gen Wahrscheinlichkeiten sich zu Eins summieren.
Die Grundideen der Wahrscheinlichkeitsrechnung werden anhand eines einfachen Beispiels entwickelt.
Als Gedankenexperiment betrachten wir zwei Kästen, die jeweils schwarze und weiße Kugeln enthal ten. In diesem Experiment wählen wir zufällig einen der beiden Kästen (entweder 1 oder 2) und aus dem gewählten Kasten ziehen wir zufällig eine Kugel, die dann wieder in den Kasten zurückgelegt wird. Dieses Experiment wird nun sehr oft wiederholt. In diesem Experiment ist die Wahl des Kastens eine Zufallsvariable K, die nur die beiden Werte „1“ oder „2“ annehmen kann. Eine Definition von Wahrscheinlichkeit ist nach Laplace als der Quoti ent der günstigen Ereignisse und der möglichen Ereignisse formuliert. Für unendlich viele Versuche konvergiert diese Definition nach dem schwachen Gesetz der großen Zahlen gegen die Wahrschein lichkeit der Ereignisse. Nehmen wir nun an, dass der erste Kasten in 40 % der Fälle und der zweite Kasten in 60 % aller Fälle gezogen wird. Die Wahrscheinlichkeit, die erste Kiste zu ziehen, ist damit P(K = 1) = 4/10 und die Wahrschein lichkeit, die zweite Kiste zu ziehen, ist dann P(K = 2) = 6/10. Im Beispiel ist P(K = 1) + P(K = 2) = 4/10 + 6/10 = 1. Ferner ist damit die Wahrscheinlichkeit des sicheren Ereignisses P(Ω) = 1.
168 | Cord Spreckelsen, Peter Schlattmann
Nun können wir die Frage stellen, wie sich die Wahrscheinlichkeit, eine schwarze Kugel (Ereignis: F = schwarz) aus dem ersten Kasten zu ziehen, berechnen lässt.
6.2.2 Bedingte Wahrscheinlichkeit Die Wahrscheinlichkeit ist P(F = schwarz|K = 1) = 2/8 = 1/4. Diese sogenannte bedingte oder konditionale Wahrscheinlichkeit P(Y|X) ist definiert als: P (Y|X) =
P(Y ∩ X) P(X)
(6.1)
Dabei ist P(Y ∩ X) die Verbundwahrscheinlichkeit, oder die Wahrscheinlichkeit, dass beide Ereignisse gemeinsam eintreten. Für abhängige Ereignisse gilt dann die Produktregel: P (Y ∩ X) = P (Y|X) ⋅ P (X)
(6.2)
Wichtig ist auch die Summenregel: P (Y) = ∑ P (X) ⋅ P(Y|X)
(6.3)
X
Beide Regeln können angewendet werden, um die Wahrscheinlichkeit, eine schwarze Kugel zu ziehen, auszurechnen.
Für unser Beispiel gilt dann: P(F = Schwarz) = P(K = 1) ⋅ P(F = Schwarz|K = 1) + P(K = 2) ⋅ P(F = Schwarz|K = 2) = 0,4 × 0,25 + 0,6 × 0,75 = 0,55
(6.4)
6.2.3 Bayes-Theorem Nehmen wir an, wir hätten eine schwarze Kugel gezogen und interessierten uns für die Wahrscheinlichkeit, dass diese Kugel aus dem ersten Kasten kommt. Dieser Sachverhalt kann mit Hilfe des Bayes-Theorems berechnet werden. Allgemein gilt: P(X|Y) =
P(X ∩ Y) = P(Y)
P(X∩Y) P(X) P(X)
P(Y)
=
P(Y|X)P(X) P(Y)
(6.5)
Anwendung der Summenregel auf P(Y) führt zu: P(X|Y) =
P(X)P(Y|X) ̄ P(X)P(Y|X) + P(X)P(Y| X)̄
Dabei ist P(X)̄ die Gegenwahrscheinlichkeit.
(6.6)
6 Medizinische Entscheidungsunterstützung |
169
In unserem Beispiel lässt sich somit die Wahrscheinlichkeit, dass eine schwarze Kugel aus der ersten Kiste kommt, berechnen als: P(K = 1)P(F = Schwarz|K = 1) P(K = 1)P(F = Schwarz) + P(K = 2)P(F = Schwarz|K = 2) 0.4 × 0.25 = = 0.182 0.4 × 0.25 + 0.6 × 0.75
P(K = 1|F = Schwarz) =
(6.7)
6.2.4 Markov-Modelle Häufig ist in der Medizin der zeitliche Verlauf einer Erkrankung von Interesse. Im Verlauf der Erkrankung werden vielfach einander sich ausschließende Zustände wie „Gesund“, „Krank“ oder „Tot“ angenommen. Diese zeitlichen Zustandsänderungen eines Individuums oder einer Population können mit Markov-Modellen bzw. Markov-Prozessen oder Markov-Ketten analysiert werden. Dabei wird zunächst die Zeit in gleich große Intervalle (cycles) eingeteilt. Die Zeitintervalle werden dabei so gewählt, dass diese klinisch sinnvoll interpretierbar sind. Für eine Infektionskrankheit würden z. B. Zeitintervalle im Wochenabstand gewählt, während für eine Tumorerkrankung evtl. Monate oder Jahre sinnvoll wären. In jedem Zeitintervall sind Übergänge (transitions) von einem Zustand in den anderen mit bestimmten Übergangswahrscheinlichkeiten (transition probability) möglich. Ein Patient kann im bestehenden Zustand mit einer bestimmten Wahrscheinlichkeit verbleiben oder in einen anderen Zustand wechseln. Abbildung 6.1 zeigt ein sogenanntes Blasen-Diagramm (bubble diagram) mit den Übergangswahrscheinlichkeiten für die Zustände krank, gesund und tot. Der Zustand tot ist ein sogenannter absorbierender Zustand, da er nicht wieder verlassen werden kann. Markov-Modelle sind gedächtnislos, d. h. die Übergangswahrscheinlichkeit für den Zustand des nächsten Zyklus hängt nur vom aktuellen Zustand und nicht vom bisherigen Verlauf ab.
Therapie 0,4 krank
gesund 0,2
0,2
0,01
tot
Abb. 6.1: Markov-Modell mit 3 Zuständen (im Beispiel: krank, gesund, tot) und Übergangs wahrscheinlichkeiten.
170 | Cord Spreckelsen, Peter Schlattmann
Zur Anwendung von Markov-Modellen müssen die Übergangswahrscheinlichkeiten aus verfügbaren Daten geschätzt werden. Der Verlauf von Markov-Modellen kann mit einer Kohortensimulation analysiert werden. Hier wird für jeden Zyklus der Zustand der Patienten einer hypothetischen Kohorte betrachtet. Im Verlauf der Markov-Kette wird dann anhand der Übergangswahrscheinlichkeiten protokolliert, in welchem Zustand sich die Kette befindet. Alternativ kann mithilfe der Matrizenrechnung oder Monte-Carlo-Simulation die Analyse durchgeführt werden.
6.3 Symbolische Wissensverarbeitung Die symbolische Wissensverarbeitung überträgt Sachverhalte aus der Wirklichkeit mittels Zei chen in ein Modell (Modellierung), um bei angenommenen Voraussetzungen durch Berechnungs verfahren Konsequenzen zu ermitteln (d. h. zu schlussfolgern). Die wichtigste Grundlage dafür sind formale Logiken, die garantieren, dass die im Modell durch Manipulation von Symbolen er zeugten Schlussfolgerungen auch zutreffen.
6.3.1 Formale Logik Um die Grundidee einer formalen Logik verstehen zu können, ist es nötig, drei weitere Konzepte zu verstehen: Den Begriff der formalen Sprache, die Unterscheidung zwischen Syntax und Semantik und schließlich die Unterscheidung zwischen syntaktischer und semantischer Folgerung. Jede formale Logik ist auch eine formale Sprache. Beispiele für formale Sprachen sind Programmiersprachen. In einer formalen Sprache wird zunächst ein Zeichenvorrat definiert. Ausdrücke der formalen Sprache entstehen, indem man Zeichen aus dem Zeichenvorrat verkettet. Produktionsregeln erzeugen bzw. definieren die zulässigen Ausdrücke der formalen Sprache aus dem Zeichenvorrat (generative Grammatik). Der Zeichenvorrat und die generative Grammatik bilden die Syntax der Sprache. Die Semantik legt demgegenüber die Bedeutung einer Sprache fest. In formalen Sprachen erfolgt dies durch die Angabe von Interpretationsfunktionen. Eine Interpretationsfunktion bildet sprachliche Ausdrücke (Aussagen) auf ein aus Bausteinen der Mengentheorie (Elemente, Mengen, Relationen) aufgebautes Modell ab. Das Modell ist ein Ausschnitt der Welt gewissermaßen durch eine mengentheoretische Brille betrachtet. Formale Sprachen definieren ihre Semantik kompositionell, sodass eindeutig geklärt ist, wie sich die Bedeutung eines zusammengesetzten Ausdrucks aus der Bedeutung seiner Teilausdrücke und der für seinen Aufbau verwendeten syntaktischen Regeln ergibt. So kann es vorkommen, dass sich bei gegebener Interpretation
6 Medizinische Entscheidungsunterstützung
| 171
von Teilausdrücken im Modell keine Entsprechung für den Gesamtausdruck finden lässt. Im Rahmen einer Interpretation im gewählten Modell gilt dann die Gesamtaussage nicht. Ausdrücke einer formalen Logik sind in Abhängigkeit vom gewählten Modell wahr oder falsch bzw. gelten oder gelten nicht. Für eine formale Logik ist zusätzlich definiert was eine Folgerung ist. Beim Argumentieren machen wir intuitiv von Folgerungen Gebrauch. Hierbei gehen wir von Aussagen aus, die als erwiesen gelten und argumentieren, dass dann auch bestimmte andere Aussagen zutreffen müssen. Der Folgerungsbegriff einer formalen Logik besagt, dass ein gegebener Ausdruck der formalen Sprache logisch aus einer Menge anderer Ausdrücke folgt, wenn dieser Ausdruck immer dann wahr ist, wenn alle Ausdrücke in der Menge wahr sind – und zwar ganz unabhängig von der Interpretation. Dies ist die semantische Folgerung (notiert durch das Zeichen zwischen Aussagenmenge und gefolgerter Aussage). Demgegenüber ist eine Herleitung eine rein syntaktische Operation, die aus einer Menge von Ausdrücken durch Umformungsregeln einen weiteren Ausdruck erzeugt. Man spricht hier von syntaktischer Folgerung (notiert durch das Zeichen ⊢ zwischen Ausgangsmenge und erzeugtem Ausdruck). Wenn es gelingt, syntaktische Folgerungen (d. h. Herleitungen) so zu definieren, dass jeder einzelnen eine semantische Folgerung entspricht, nennt man dies einen korrekten logischen Kalkül. Kann dann umgekehrt für jeden Ausdruck, der sich semantisch folgern lässt, ein entsprechender Ausdruck syntaktisch gefolgert werden, so spricht man von einem vollständigen logischen Kalkül. Ein korrekter logischer Kalkül definiert rein syntaktische Umformungen, bei denen die Wahrheit erhalten bleibt (wahrheitserhaltende Transformationen) und lässt zu, dass wahre Ausdrücke „mechanisch“ erzeugt werden. Formale Logik bezeichnet eine formale Sprache, deren Ausdrücke abhängig von der gewählten Interpretation in einem Modell gelten oder nicht gelten (d. h. wahr oder falsch sind), und für welche ein Kalkül, d. h. ein Satz wahrheitserhaltender syntaktischer Transformationen, definiert ist.
Es gibt nicht nur eine einzige sondern mehrere formale Logiken. Diese unterscheiden sich im Umfang ihrer syntaktischen Ausdrucksmöglichkeiten sowie durch die Wahl ihrer Semantik. Formale Logiken bieten die Grundlage für bestimmte algorithmische Hilfen: – der Erfüllbarkeitstest dient zur Klärung, ob eine Formel erfüllbar ist, d. h., ob es eine Interpretation ihrer elementaren Bestandteile gibt, sodass die ganze Formel als erfüllt bzw. wahr zu interpretieren ist, – der Test auf Bestehen einer Folgerungsbeziehung klärt, ob ein Ausdruck logisch aus einem oder mehreren gegebenen Ausdrücken folgt, – bei der Herleitung werden aus gegebenen Ausdrücken durch Veränderung von Zeichen syntaktisch weitere Ausdrücke erzeugt, die semantisch aus diesen folgen.
172 | Cord Spreckelsen, Peter Schlattmann
Im Folgenden werden zwei besonders wichtige formale Logiken beispielhaft vorgestellt: die Aussagenlogik – an der sich die bisher eingeführten Begriffe besonders einfach illustrieren lassen – und die Prädikatenlogik erster Stufe, die für viele weitere Logiken grundlegend ist.
6.3.2 Aussagenlogik Die Syntax der Aussagenlogik (AL) umfasst die Möglichkeit, aus alphanumerischen Zeichen sogenannte elementare Aussagen zu bilden. Dies sind einfache Zeichenketten wie beispielsweise „Es ist nass“ oder „A“. Eine aussagenlogische Interpretationsfunktion weist jeder elementaren Aussage einen der Booleschen Werte „wahr“ oder „falsch“ zu. Elementare Aussagen werden in AL durch spezielle Zeichen zu komplexen Ausdrücken verknüpft. Diese speziellen Zeichen sind die logischen Junktoren „¬“ (Negation), „ ∧“ (Konjunktion), „∨ “ (Disjunktion), „→ “ (Subjunktion) und außer diesen noch die Klammern.
Beispiel für einen aussagenlogischen Ausdruck: „(EsRegnet ∧ (¬RegenschirmVorhanden)) → (NasseHaare)“
Dabei ist für jeden Junktor tabellarisch festgelegt, welcher Wahrheitswert aus welchen Wahrheitswerten der Teilausdrücke resultiert. Auf diese Weise lässt sich der Wahrheitswert jedes Ausdrucks der Aussagenlogik über seinen syntaktischen Aufbau auf die Wahrheitswerte seiner elementaren Aussagen zurückführen (kompositionelle Semantik). Die Semantik der AL ist so einfach, dass sich das Bestehen einer Folgerungsbeziehung direkt überprüfen lässt. Man erfasst dazu alle Kombinationsmöglichkeiten von Wahrheitswerten für die enthaltenen elementaren Aussagen tabellarisch und ermittelt die jeweils resultierenden Wahrheitswerte der betrachteten Ausdrücke in einer Wahrheitstafel. Hieraus lässt sich direkt ersehen, ob eine Folgerungsbeziehung besteht: Das Bestehen einer Folgerungsbeziehung ist daher in der Aussagenlogik algorithmisch entscheidbar. Viele andere formale Logiken sind dagegen nicht entscheidbar.
6.3.3 Prädikatenlogik Die einfache Semantik der Aussagenlogik versagt allerdings schon häufig, wenn sinnvoll mit Eigenschaften von Objekten oder Personen argumentiert werden soll. So ist es beispielsweise nicht möglich, formal den Schluss zu ziehen, dass eine allge-
6 Medizinische Entscheidungsunterstützung
| 173
meingültige Eigenschaft, auch im Einzelfall gilt („Weil alle Menschen sterblich sind, ist auch der Mensch Sokrates sterblich.“). Um dies leisten zu können, wurde eine umfangreichere Logik eingeführt, die Prädikatenlogik erster Stufe (PL-1). Syntaktisch dient hierzu die Einführung von Prädikatsausdrücken (z. B. „IstSterblich(. . . “)), die zwischen den Klammern Individuenkonstanten (z. B. „IstSterblich(S)“) oder Variablen (z. B. „IstSterblich(x)“) enthalten. Individuenkonstanten müssen bei jeder Interpretation durch ein einzelnes Element einer Menge interpretiert werden; Variablen rangieren dagegen über eine Menge. Zusätzlich zu den aus der Aussagenlogik bekannten Junktoren gibt es in der Prädikatenlogik Quantoren. Mit ihrer Hilfe wird notiert, ob eine bestimmte Variable für alle Individuen („∀“) oder für mindestens ein Individuum („∃“) steht. Eine Aussage wie „Alle Menschen sind sterblich“ lässt sich beispielsweise in der Prädikatenlogik wie folgt notieren: „∀ x.IstMensch(x) → IstSterblich(x)“. Die Semantik der Prädikatenlogik ist deutlich komplizierter als die der Aussagenlogik. So ist in der Prädikatenlogik die Interpretation eines einzigen Prädikats durch eine Menge gegeben. Bei Prädikaten, die mehrere Individuenkonstanten oder Variablen enthalten, dienen Relationen, d. h. Mengen von Tupeln, als Interpretation. Diese komplexere Semantik ist dafür verantwortlich, dass das Bestehen einer Folgerungsbeziehung in der Prädikatenlogik durch ein Programm nicht entscheidbar ist. Auch gibt es keinen Erfüllbarkeitstest. Der Kalkül der Prädikatenlogik erster Stufe ist aber vollständig. Die Prädikatenlogik ermöglicht durch ausschließlich „mechanische“ Anwendung von Vorschriften zum Ändern von Zeichenketten aus einer gegebenen Menge wahrer (erfüllter) Ausdrücke sämtli che Ausdrücke zu erzeugen, die ebenfalls wahr sind, ohne dabei falsche Aussagen zu erzeugen.
6.3.4 Wissensrepräsentationsformate Wissensrepräsentationsformate dienen dazu, Fachwissen so darzustellen, dass ein Computerprogramm daraus Schlussfolgerungen ziehen kann. In diesem allgemeinen Sinne ist jede formale Logik bereits ein Wissensrepräsentationsformat. In der praktischen Anwendung erweist es sich jedoch als schwierig, menschliche Experten dazu zu bringen, ihr Wissen in Form formal logischen Ausdrücken zu notieren. Hierzu ist die Syntax oft zu unübersichtlich und zu flexibel. Es hat sich bewährt, stattdessen eine überschaubare und vergleichsweise leichter zu erlernende Auswahl von Ausdrucksmitteln vorzugeben. Um zu garantieren, dass die spätere Verarbeitung des so repräsentierten Wissens korrekt erfolgt, fordert man, dass sich jedes Wissensrepräsentationsformat in eine formale Logik übersetzen lässt. Regeln sind das wohl bekannteste Wissensrepräsentationsformat. Im Allgemeinen enthalten Regeln Prädikate wie im Fall der Prädikatenlogik.
174 | Cord Spreckelsen, Peter Schlattmann
Regeln formulieren Wenn-Dann-Beziehungen zwischen Teilaussagen (logische Subjunktion). Eine Regelbasis fasst mehrere Regeln zusammen, die allesamt gelten (logische Konjunktion der ent haltenen Regeln).
Die Regelverarbeitung beginnt mit der Eingabe von Fakten, die als Aussagen formalisiert werden. Zur Auswertung von Regeln dient der verallgemeinerte Modus ponens. Für dieses Verfahren werden zunächst Variablen, die in den Regelausdrücken vorhanden sein können, durch entsprechende Individuenkonstanten aus den gegebenen Fakten ersetzt. Für die eigentliche Regelauswertung gibt es zwei unterschiedliche Vorgehensweisen: Bei der Vorwärtsverkettung werden zunächst die Prämissen der Regel (Aussagen im „Wenn-Teil“ der Regel) mit den vorhandenen Fakten abgeglichen. Zeigt sich dabei, dass der „Wenn-Teil“ der Regel erfüllt ist, wird der „Dann-Teil“ der Regel zur vorhandenen Faktenmenge hinzugefügt. Hierdurch können dann unter Umständen weitere Regeln ausgewertet werden, deren Prämissen noch nicht vollständig erfüllt waren. Das Verfahren endet, wenn keine weiteren Fakten gefolgert werden können. Eine Anwendung der Vorwärtsverkettung ist beispielsweise die Generierung sämtlicher möglicher Verdachtsdiagnosen auf der Basis eingegebener Symptome eines Patienten. Die Rückwärtsverkettung wertet die Regeln beginnend mit ihrem „Dann-Teil“ aus. Für eine vorgegebene Aussage wird zunächst eine Regel gesucht, welche diese Aussage in ihrem „Dann-Teil“ enthält, d. h. folgern lässt. Für die Prämissen dieser Regel wird nun überprüft, ob sie bereits in einer vorgegebenen Faktenmenge enthalten sind oder durch andere Regeln erzeugt werden können. Es ergibt sich eine Kaskade von Regeln, deren Voraussetzungen jeweils überprüft werden. Das Verfahren endet, wenn keine zusätzlichen Regeln mehr zur Bereitstellung von Voraussetzungen ausgewertet werden können. Gelingt es, dabei alle notwendigen Voraussetzungen direkt in der vorgegebenen Faktenmenge zu finden oder mittelbar durch andere Regeln folgen zu lassen, so gilt die zuerst eingegebene Aussage als bestätigt. Eine Anwendung dieses Verfahrens ist beispielsweise die Überprüfung, ob sich eine Diagnose durch die vorliegende Symptomatik des entsprechenden Patienten rechtfertigen lässt. Im biomedizintechnischen Bereich sind Regeln allein oft zu starr für eine angemessene Wissensrepräsentation. Eine klassische Regel funktioniert nach einem Alles-oder-Nichts-Prinzip: Sind alle Prämissen erfüllt, gilt die Folgerung mit Gewissheit, andernfalls lässt sie sich nicht bestätigen. Ein graduelles Anwachsen der Gewissheit wird nicht unterstützt. In einem der ersten medizinischen Expertensysteme, MYCIN, wurde daher bereits in den 1970er Jahren die Regelauswertung um eine Verarbeitung von certainty factors ergänzt. Hierbei handelt es sich jedoch um einen Ansatz, bei dem sich die sachliche Korrektheit der ermittelten Gewissheitsfaktoren mathematisch nicht zeigen lässt.
6 Medizinische Entscheidungsunterstützung
| 175
Objektorientierte Formate, wie sie inzwischen im Rahmen der objektorientierten Programmierung eine zentrale Rolle spielen, haben sich auch auf dem Gebiet der Wissensrepräsentation als nützlich erwiesen. Objektorientierte Formate unterscheiden zwischen Klasse und Objekt. Eine Klasse gibt ein Sche ma für viele gleichartige Objekte vor. Sie gibt die Merkmale (Attribute) vor, deren mögliche Aus prägungen im Sinne von Wertemengen definiert werden.
Vor allem bei der Erhebung von Wissen spielen objektorientierte Repräsentationsformate eine wichtige Rolle. Sie erlauben es, Sachbereiche auf strukturerhaltende Weise zu modellieren. Hierbei entsprechen Elemente und Beziehung des Modells genau den Elementen und Beziehung des Sachbereichs. Die formallogische Semantik objektorientierter Repräsentationsformate lässt sich erst durch Beschreibungslogiken (Kapitel 6.7.2) angeben.
6.4 Klassifikation und Mustererkennung 6.4.1 Bayes-Klassifikatoren Das Bayes-Theorem wird u. a. bei der Beurteilung diagnostischer Tests in der Medizin verwendet. Bei Früherkennungsmaßnahmen wie z. B. der Mammographie für die Früherkennung von Brustkrebs bei Frauen ist für die betroffenen Frauen wichtig, ob sie bei positiver Mammographie tatsächlich an Brustkrebs leiden. Unter Verwendung von Zahlen aus [Hoffrage2000] ergibt sich eine Prävalenz von Brustkrebs von 0,6 %. Die Sensitivität der Mammographie, d. h. die Wahrscheinlichkeit P(T + |D+ ) eine Kranke als krank zu erkennen, liegt bei 94 %. Die Spezifität, d. h. die Wahrscheinlichkeit P (T − |D− ) eine Gesunde als gesund zu erkennen, ist 93 %. Unter Anwendung des Bayes-Theorems ergibt sich für die Wahrscheinlichkeit, dass eine Frau mit positiver Mammographie tatsächlich Brustkrebs hat: P(D+ )P(T + |D+ ) P(D+ )P(T + |D+ ) + P(D− )P(T + |D− ) 0.006 × 0.94 = 0.075 = 0.006 × 0.94 + 0.994 × 0.07
P(D+ |T + ) =
(6.8)
Die Wahrscheinlichkeit, dass eine Frau mit positiver Mammographie tatsächlich Brustkrebs hat, beträgt also nur 7,5 %. In anderen Worten heißt dies, nur etwa acht von 100 Frauen mit positivem Testergebnis leiden tatsächlich unter Brustkrebs. Im Umkehrschluss leiden 92,5 % der positiv getesteten Frauen nicht unter Brustkrebs.
176 | Cord Spreckelsen, Peter Schlattmann
Die Klassifikation kann nach einer Maximum-A-Posteriori (MAP)-Regel erfolgen. P(D− )P(T + |D− ) P(D− |T + ) = + P(D )P(T + |D+ ) + P(D− )P(T + |D− ) 0.994 × 0.07 = 0.925 (6.9) = 0.006 × 0.94 + 0.994 × 0.07 Die Zuordnung erfolgt in die Gruppe für die die A-posteriori-Wahrscheinlichkeit maximal wird.
6.4.2 Support-Vektoren
Eine Support Vector Machine (SVM) ist eine Methode des überwachten maschinellen Lernens, die der Klassifikation von Daten dient. Die Grundidee besteht darin, linear trennbarbare Daten so durch eine Hyperebene zu trennen, dass diese von den beiden Datenmengen möglichst weit entfernt ist.
Die Hyperebene soll durch möglichst wenige Support-Vektoren bestimmt werden und fehlerhafte Datenpunkte ignorieren. Dieser lineare Klassifikator wird anhand von Testdaten geschätzt, um neue Beobachtungen klassifizieren zu können. In der Grundform wird dabei von zwei Klassen ausgegangen. Im Rahmen der Klassifikation mit Support Vector Machines wird von n Trainingsdaten (x1 , y1 ), (x2, y2 ), . . . , (x n , y n ) mit y1 ∈ {±1} (für i = 1, 2, . . . , n) ausgegangen. Dabei entsprechen die ersten Vektorkomponenten den Eingangsdaten und die zweiten Komponenten den beiden Klassen, in die eingeordnet werden soll. Mit Hilfe der Funktion f(x) wird ein Eingabevektor der Form x1 , x2 , . . . , x n der positiven Klasse y i = 1 zugeordnet, falls f(x) ≥ 0 gilt, sonst der negativen Klasse. Die lineare Funktion f läßt sich schreiben als n
f(x) = ⟨w ⋅ x⟩ + b = ∑ w i x i + b
(6.10)
i=1
Wobei w i und b Parameter der Funktion sind und aus den Daten geschätzt werden müssen. Eingabevektoren, die sich durch eine solche Hyperebene trennen lassen heißen linear separabel. Für nicht nichtlinear trennbare Probleme können kernelbasierte Methoden verwendet werden [Hastie 2009].
6.4.3 Cluster-Verfahren Es gibt eine große Bandbreite von Cluster-Verfahren, von denen hier zwei exemplarisch vorgestellt werden sollen. Zunächst wird das k-Means-Verfahren beschrieben.
6 Medizinische Entscheidungsunterstützung
| 177
Hier wird für jeden p-dimensionalen Zufallsvektor x1 , . . . , x n eine Indikatorvariable. z ij ∈ {0, 1} definiert, die beschreibt, zu welchem Cluster j = 1, . . . , k die i-te Beobachtung gehört. Der Vektor z i = (0, 1, 0) würde hier anzeigen, dass die i-te Beobachtung zur zweiten Klasse gehört. Für jede unbeobachtete Klasse postulieren wir ein vektorwertiges Centroid μ j , das z. B. durch den Mittelwertvektor gegeben sein kann. Dann ist die zu optimierende Funktion n k D = ∑ ∑ z ij x i − μ2j
(6.11)
i=1 j=1
Dies kann als Summe der Quadrate der Entfernung des Datenpunktes x i zum Mittelwert μ j interpretiert werden. Durch eine iterative Prozedur werden die {z ij } und die {μ j } so gesucht, dass D minimal wird. Eine Beschreibung der Algorithmen findet sich bei [Bishop 2006]. Bei diesem Verfahren muss auch die Zahl der Cluster k bestimmt werden. Alternativ können semiparametrische Mischverteilungsmodelle als modellbasiertes Cluster-Verfahren genutzt werden. Diese sind eine gewichtete Summe parametrischer Dichten, z. B. von Normalverteilungen: k
f(x, P) = ∑ p j N(x i |μ j , Σ j )
(6.12)
j=1
Damit sind p j die Mischungsgewichte mit ∑kj=1 p j = 1. Die Mittelwertvektoren der einzelnen Klassen sind durch μ j gegeben und die zugehörigen Kovarianzmatrizen durch Σ j . Diese Parameter müssen aus den Daten inklusive der Zahl der Klassen geschätzt werden. Dies wird vielfach mittels Maximum Likelihood durch den nachfolgend beschriebenen sogenannten EM-Algorithmus bewerkstelligt [Schlattmann 2009]. Wäre die Klassenzugehörigkeit z ij der Beobachtung x i bekannt, wäre die Schätzung der Parameter leicht. Denn dann könnten einfach für die jeweilige Klasse die Parameter geschätzt werden. Die Grundidee des EM-Algorithmus besteht darin, die sogenannte Complete-Data Likelihood zu maximieren. Hier wird im E(xpectation)Schritt die Klassenzugehörigkeit z ij der jeweiligen Beobachtung x i mithilfe des Satzes von Bayes geschätzt: e ij =
p j N(x i |μ j , Σ j ) k ∑l=1 p l N(x i |μ l , Σ l )
(6.13)
Im M(aximization)-Schritt werden dann komponentenweise die Mittelwertvektoren und die Kovarianzmatrizen unter Berücksichtigung der Klassenzugehörigkeitswahrscheinlichkeiten e ij berechnet. Dies beginnt mit geeigneten Startwerten für die Parameter und wird bis zur Konvergenz fortgeführt. Nach Konvergenz des Algorithmus können die Wahrscheinlichkeiten e ij zur Klassifikation der Beobachtungen x i verwendet werden. Zuordnung einer Beobachtung zu einer Klasse erfolgt für die Klasse, für die e ij maximal wird.
178 | Cord Spreckelsen, Peter Schlattmann 0,03
Mischverteilungsdichte Einzelkomponenten
Dichte
0,02
0,01
0 150 200 100 systolischer Blutdruck in mmHg
250
Abb. 6.2: Darstellung von Blutdruckdaten des Gesundheitssurvey NHANEs mittels Cluster-Ver fahren. Mischverteilungsdichte (mixed density, blau) und Normalverteilungsdichten (single com ponents, grün). Erstellt mit dem R-Paket CAMAN [Schlattmann 2015].
Als Beispiel verwenden wir Daten des US-amerikanischen Gesundheitssurvey National Health and Nutrition Examination Survey (NHANES). Hierbei handelt es sich um den systolischen Blutdruck von 7 126 Teilnehmern des Surveys, gemessen in den Jahren 2001 bis 2002.
Der Verlauf des Diagramms in Abbildung 6.2 macht deutlich, dass die Daten besser durch eine Mischverteilung als durch eine einfache Normalverteilung beschrieben werden können. Anhand des Mischverteilungsmodells findet sich eine Lösung mit k = 3 Klassen. Die zugehörige Mischverteilungsdichte ist gegeben durch: f(x, P) = 0.83 ⋅ N(112.95, 155.6) + 0.14 ⋅ N(147.63, 155.6) + 0.03 ⋅ N(187.36, 155.6) (6.14) Ein Individuum mit einem Blutdruck von 138 mmHg erhält Zuordnungswahrscheinlichkeiten ej = {0.51, 0.49, 0} und würde somit in die 1. Klasse eingeordnet.
6.5 Lernen aus Daten
Beim maschinellen Lernen aus Daten werden Entscheidungskriterien oder allgemeines Wissen über Sachverhalte anhand von Erfahrung möglichst ohne Beteiligung eines Nutzers in computerverarbeitbarer Form gewonnen (Generierung von Wissen aus Erfahrung).
Eine solche maschinelle Generierung von Wissen aus Daten strebt man dadurch an, dass aus umfangreichen Datenbeständen regelhafte Zusammenhänge extrahiert bzw.
179
6 Medizinische Entscheidungsunterstützung |
Ausgangsattribute
Ziel
Alter < 40
Datensätze
Alter Raucher P_syst
> 60
P_diast Therapie
1
< 40
ja
< 140
< 90
nein
2
< 40
ja
> 140
> 90
ja
3
> 60
nein
> 140
< 90
nein
4
> 60
ja
< 140
> 90
ja
5
> 60
nein
< 140
< 90
ja
Raucher ja P_syst < 140 1
Raucher ja ja
> 140 2
nein P_syst < 140 5
> 140 3
Abb. 6.3: Erzeugung eines Entscheidungsbaumes aus tabellarischen Datensätzen. Das aktuell aus gewertete Attribut ist blau hervorgehoben. Die Werte des Zielattributs sind durch die graue/grüne Färbung eines Symbols für jeden Datensatz angedeutet.
Klassifikationsparameter berechnet werden (Data Mining) oder ein bestimmtes Systemverhalten trainiert wird. In diesem Sinne fallen die oben eingeführten Verfahren zur Klassifikation und Mustererkennung, die ihre Parameter aus der Analyse gegebener Daten erhalten, unter den Begriff des Lernens aus Daten. Die Analyse von Datenbeständen lässt sich auch zur Gewinnung von Wissen für eine symbolische Wissensverarbeitung nutzen. Ein sehr einfaches Beispiel hierfür ist die Ermittlung von Entscheidungsregeln bzw. -bäumen aus tabellarisch erfassten Daten. Enthält eine Tabelle zeilenweise Datensätze, so können diese iterativ jeweils nach den Werten der Spalten untergruppiert werden – so lange bis die Werte einer ausgewählten Spalte (Zielattribut) für jede Untergruppe einheitlich, d. h. eindeutig durch die Untergruppe bestimmt sind. Die Hierarchie der Gruppen und Untergruppen bildet dann einen Entscheidungsbaum. Die Abbildung 6.3 zeigt den Stand nach dem letzten Iterationsschritt mit dem resultierenden Baum. Entscheidungsbäume sind eine kompakte Darstellung von Entscheidungsregeln. Alle Bedingungen auf dem Weg zu einem Endknoten sind logisch durch und verknüpft
Wenn Alter > 60 und Raucher: Ja, dann Therapie: Ja.
Alle unterschiedlichen Wege, die zum selben Wert des Zielattributs führen, sind logisch durch oder verknüpft. Dieses einfache Beispiel zeigt, wie sich durch Datenanalyse Grundlagen einer symbolischen Wissensrepräsentation erlernen lassen. Das erläuterte Verfahren ist noch sehr unvollkommen. Die erzeugten Entscheidungsbäume sind oft viel größer als nötig; im gerade erläuterten Beispiel würde es völlig ausreichen, nur das Attribut P_diast auszuwerten. Zur Verbesserung setzt man Heuristiken ein. Dabei kann man z. B. immer zuerst das Attribut wählen, das den
180 | Cord Spreckelsen, Peter Schlattmann
größten Informationsgewinn (eine aus der Entropie der Daten berechnete Größe) verspricht. Siehe hierzu das klassische ID3-Verfahren [Quinlan 1979], das die Heuristik des Informationsgewinns verwendet. Es kann auch vorkommen, dass es keinen Baum gibt, der zu einheitlichen Werten des Zielattributs in den Datensätzen führt. In diesem Fall führt die Anwendung der Entscheidungsregeln nicht zu einer sicheren Entscheidung, sondern zu Wahrscheinlichkeitsangaben für das Auftreten eines bestimmten Wertes. Eine Übersicht über wichtige Verfahren des Data Mining gibt die Literatur [Wu 2007].
6.6 Probabilistische Entscheidungsfindung 6.6.1 Entscheidungsanalyse Komplexe Entscheidungen und Prozesse sind in der Regel mit Unsicherheit behaftet. Zur Bewertung solcher Entscheidungen wurde die Entscheidungsanalyse als Disziplin entwickelt. Dabei werden komplexe Probleme und Prozesse in einzelne Komponenten zerlegt, die individuell analysiert werden können. Anschließend müssen die einzelnen Elemente mit quantitativen Methoden wieder zusammengefügt werden. Ein Beispiel ist der im vorherigen Abschnitt eingeführte Entscheidungsbaum. Eine weitere Möglichkeit sind die sogenannten naiven Bayes-Klassifikatoren. Die Bayes-Regel kann leicht verallgemeinert werden. Wenn simultan mehrere Einflussgrößen B1 , . . . , B n betrachtet werden sollen, kann der sog. naive Bayes-Ansatz angewendet werden. Dieser impliziert, dass alle Attribute gleichermaßen wichtig und zudem statistisch unabhängig sind. Für eine Hypothese A können wir die A-priori-Wahrscheinlichkeit P(A) angeben und mit den konditionalen Wahrscheinlichkeiten P(B i |A) der i-ten Einflussgröße die A-posteriori-Wahrscheinlichkeit berechnen: P(A|B) =
P(A)P(B1 |A)P(B2 |A) . . . P(B n |A) P(B)
(6.15)
Die zugehörigen Wahrscheinlichkeiten werden aus vorhandenen Daten geschätzt und anhand dieser Schätzungen kann dann die Klassifikation neuer Daten erfolgen.
6.6.2 Einflussgraphen und Bayes-Netze Bei naiven Bayes-Klassifikatoren werden alle Ereignisse als unabhängig angenommen. Diese sehr starke (und in der Regel im medizinischen Kontext nicht erfüllte) Annahme wird in Bayes-Netzen aufgegeben. Ein Bayes-Netz ist ein gerichteter azyklischer Graph, der unter der Annahme bedingter Unabhän gigkeit die Wahrscheinlichkeitsverteilung von Zufallsvariablen modelliert.
6 Medizinische Entscheidungsunterstützung |
181
A B C
Abb. 6.4: Ein einfaches Bayes-Netz mit Elternknoten A.
Die Abbildung 6.4 zeigt schematisch ein Bayes-Netz bei dem A als sogenannter Wurzel- oder Elternknoten mit A-priori-Wahrscheinlichkeit P(A) vorkommt. Die Pfeile (Kanten) beschreiben die direkte Abhängigkeit zwischen den Knoten. Die Wahrscheinlichkeit für das Auftreten des Ereignisses B ist dann gegeben durch die bedingte Wahrscheinlichkeit P(B|A). Für das gemeinsame Eintreten mehrerer Ereignisse wird die Kettenregel angewandt. Die Verbundwahrscheinlichkeit für das Eintreten der Ereignisse A, B, C ist dann gegeben durch: P(A ∧ B ∧ C) = P(C|A ∧ B) ⋅ P(B|A) ⋅ P(A)
(6.16)
Ein Bayes-Netz für ein gegebenes Fachgebiet muss die Bedingung erfüllen, dass sich die Verbundverteilung für die betrachteten Zufallsvariablen, also für die beschreibenden Größen des Fachgebiets, tatsächlich konsistent berechnen lässt. Diese Bedingung ist nur dann erfüllt, wenn jeder Knoten unter der Bedingung seiner Elternknoten unabhängig von seinen Vorgängerknoten ist. True False
0.01 0.99
True False
verminderter Abfluss im Kammerwinkel
wässrige Überproduktion
w. Üb. v. Abfl. True False
erhöhter Augeninnendruck
Netzhautschaden
e. Aug. True False
True 0.05 0.95
False 0.001 0.999
0.02 0.98
True True False 0.3 0.1 0.7 0.9
False True False 0.05 0.0001 0.95 0.9999
verminderte Blutversorgung des Sehnervkopfes e. Aug. True False
True 0.05 0.95
False 0.0002 0.9998
Abb. 6.5: Beispiel für ein Bayes-Netz. Stark vereinfachtes Einflussdiagramm aus der Augenheilkun de über Ursachen eines Glaukoms. Die Tabellen enthalten fiktive Wahrscheinlichkeitsbewertungen bzw. Verbundverteilungen zu den Zufallsvariablen.
182 | Cord Spreckelsen, Peter Schlattmann
Bayes-Netze sind dazu geeignet, hochdimensionale Daten anhand von gerichteten Graphen unter der Annahme konditionaler Unabhängigkeit zu modellieren. Anwendung finden diese z. B. in der medizinischen Diagnostik und Therapie. Für das Bayes-Netz in Abbildung 6.5 kann berechnet werden, welche Wahrscheinlichkeit für eine Verminderung der Blutversorgung des Sehnervenkopfes besteht, wenn durch Untersuchung geklärt wurde, dass ein Netzhautschaden bereits vorliegt, der Abfluss im Kammerwinkel vermindert ist, aber keine wässrige Überproduktion stattfindet. Die resultierende Wahrscheinlichkeit einer verminderten Blutversorgung ist 4,2 %, wobei der Augeninnendruck mit 82 % Wahrscheinlichkeit erhöht ist (fiktive Zahlenwerte). Einzelheiten zu Bayes-Netzen finden sich z. B. bei Cowell [Cowell 1999].
6.7 Biomedizinische Ontologien und ihre formale Repräsentation 6.7.1 Ontologie Im Kontext der medizinischen Entscheidungsunterstützung spielen Ontologien eine zunehmend wichtigere Rolle. Sie ermöglichen die systematische Erhebung von Fachwissen sowie die Strukturierung der Wissensbasen. Sie unterstützen aber auch die Definition und Nutzung einer international vereinheitlichten medizinischen Terminologie. Gruber formulierte die klassische Definition einer Ontologie im engeren informatischen Sinne als „explizite Spezifikation einer Konzeptualisierung“ [Gruber 1993]. Ontologie im informatischen Sprachgebrauch spezifiziert, d. h. bestimmt detailliert und ausdrück lich, welche Aspekte eines Sachbereichs als Elemente, Mengen und Beziehungen begrifflich an gesprochen werden und wie die zur Beschreibung des Sachbereichs einzusetzenden Begriffe de finiert sind.
Wie eingangs erwähnt, setzt die Semantik formaler Logik voraus, dass der relevante Sachbereich durch die „Brille der Mengentheorie“ betrachtet wird. Im Rahmen der sog. Konzeptualisierung muss festgelegt werden, was im Sachbereich als Einzelobjekt, Menge und Relation gilt. So könnte beispielsweise ein Klinikum wahlweise als ein elementares Objekt oder aber als eine Menge von Elementen aufgefasst werden, die durch verschiedene Beziehungen miteinander verknüpft sind. Gerade die große Freiheit möglicher Konzeptualisierungen erschwert oft die logische Modellierung und provoziert Missverständnisse. Eine „explizite Spezifikation einer Konzeptualisierung“ [Gruber 1993] ist eine genaue Beschreibung der bei der Konzeptualisierung getroffenen Festlegungen. Sie beschreibt, welche Arten von Gegenständen (z. B. Diagnosen, Symptome, Kaffeetassen), welche Eigenschaften (z. B. Schweregrad, Name, Preis) und welche Typen von Beziehungen (z. B. verwandt mit, Symptom von, hergestellt durch)
6 Medizinische Entscheidungsunterstützung
| 183
bei der formalen Modellierung des Sachbereichs zu berücksichtigen sind. In diesem Sinne spielen Ontologien die Rolle von Schemata für Sachbereiche. Ihren vollen Nutzen entfalten Ontologien, wenn sie sowohl natürlich sprachlich dokumentiert als auch in einer formalen Sprache notiert sind. Die Formalisierung erlaubt die Auswertung durch ein Computerprogramm. Durch die natürlich sprachliche Dokumentation verständigen sich menschliche Nutzer auf eine einheitliche Interpretation und Nutzung der Ontologie. Im biomedizintechnischen Bereich entstanden umfangreiche Ontologien vor allem als Klassifikationen, die eine standardisierte und dennoch flexible Verschlagwortung von Informationsquellen bzw. Kodierung von Sachverhalten erlauben.
6.7.2 Beschreibungslogiken
Beschreibungslogiken (Description Logics, DL) stellen eine Familie formaler Logiken dar, die sich besonders zur Repräsentation von Begriffen, ihrer Definition und ihrer Verknüpfungen eignen, z. B. zur Modellierung von Terminologien, Klassifikationen, Ontologien und objektorientierten Mo dellen.
Frühe Ansätze wurden daher auch als Konzept-Sprachen oder Terminologie-Sprachen bezeichnet. Ein Beispiel ist der folgende beschreibungslogische Ausdruck: „Viruserkrankung ≐ Infektionskrankheit ⊓(∀ hatErreger.Virus)“.
Der Ausdruck definiert eine Viruserkrankung als Infektionskrankheit, die ausschließlich durch Viren verursacht wird. DL wurden durch die theoretische Informatik detailliert untersucht, und es gibt inzwischen eine Fülle uneingeschränkt praxistauglicher Implementierungen zu ihrer Verarbeitung. Fast alle sind Teilmengen der Prädikatenlogik erster Stufe. Zwar wird dabei meist eine neue – abgekürzte – Syntax eingeführt, die Bausteine dieser Syntax lassen sich jedoch prädikatenlogisch übersetzen. Weil DL nur einen Teil der Prädikatenlogik umfassen, ist ihre Ausdrucksstärke geringer. Für die meisten DL hat das aber einen wichtigen Vorteil. Anders als im Falle der Prädikatenlogik lässt sich in diesen Fällen entscheiden, ob ein Ausdruck erfüllbar – also in mindestens einer Interpretation erfüllt (wahr) ist. Mit einem solchen Erfüllbarkeitstest lässt sich u. a. eine Qualitätskontrolle durchführen. Im Falle der DL leistet der Erfüllbarkeitstest jedoch noch mehr. Für zwei beschreibungslogisch definierte Begriffe (Konzepte) lässt sich damit prüfen, ob das eine Konzept eine Spezialisierung des anderen ist (Subsumptionstest). DL unterscheiden zwischen einer T- und einer A-Box. Diese Unterscheidung ist weitestgehend analog zu der zwischen Klassenschema und Objekten eines objektorientierten Datenmodells.
184 | Cord Spreckelsen, Peter Schlattmann
Die T-Box einer DL definiert Konzepte. Hierzu verwendet sie Bezeichnungen für Konzepte („Patient“, „Diagnose“ oder „C1 “) und für Rollen („hatDiagnose“, „hatSymptom“ oder „r3 “). Ein Konzept entspricht in der Prädikatenlogik einem (einstelligen) Prädikat und bedeutet deshalb immer eine Menge (d. h. der Wert der Interpretationsfunktion ist eine Menge). Ein Beispiel ist die Menge aller Patienten oder die Menge aller Diagnosen.
Spezielle Operatoren erlauben es, bestehende Konzepte zu verknüpfen. Das Angebot solcher Operatoren hängt von der jeweiligen Beschreibungslogik ab. Die wichtigsten sind Konjunktion „∧“, Disjunktion „∨“ und Komplement „¬“, die auf semantischer Ebene durch Schnittmenge, Vereinigungsmenge und Mengenkomplement erklärt sind. Dies nutzt man zur Definition von Konzepten aus, indem dem Bezeichner des Konzepts ein komplexer Ausdruck aus anderen Konzepten als seine Definition zugewiesen wird. Die Definition vieler Konzepte bezieht sich auf Beziehungen innerhalb der begrifflich beschriebenen Sachverhalte. So ist es kennzeichnend für Viruserkrankungen, dass sie immer Viren als Erreger haben, während bei Bakterieninfektionen definitionsgemäß Bakterien als Erreger auftreten. Um das ausdrücken zu können, nutzen DL Rollen und Rollenrestriktionen. Im Kontext der DL versteht man unter einer Rolle ein zweistelliges Prädikat, semantisch also ei ne Relation (Menge von Paaren). In einer naheliegenden Interpretation entspricht z. B. die Rolle „hatErreger“ allen Paaren, deren zweites Element der Erreger des ersten ist.
Der Ausdruck „∀ hatErreger.Virus“, ∀-Rollenrestriktion, selektiert nur diejenigen Elemente, die in den Paaren der Relation „hatErreger“ ausschließlich mit Elementen der Menge für „Virus“ (der Interpretation von „Virus“) kombiniert sind. Die ∃-Rollenrestriktion „∃ hatErreger.Virus“ selektiert stattdessen Elemente, die mindestens mit einem Element der Menge für „Virus“ gepaart auftreten (Kapitel 6.3.2). Durch ggf. verschachtelte Nutzung von Rollenrestriktionen und Operatoren zur Konzeptkombination lassen sich komplexe Konzeptdefinitionen aufbauen. Am eingangs genannten Beispiel der Viruserkrankung: „Viruserkrankung ≐ Infektionskrankheit ⊓ ∀ hatErreger.Virus“. Die bisher eingeführten Bausteine (Konjunktion, Disjunktion, Komplement, ∀- und ∃-Rollenrestriktion) definieren den Sprachumfang der DL namens Attributive Concept Language with Complements (ALC). Ausdruckstärkere Beschreibungslogiken führen Rollenrestriktionen mit Kardinalitätsangaben (Wie viele höchstens/mindestens?), Unterrollen (z. B.: „ist_Kind_von“ sei Unterrolle von „ist_verwandt_mit“), Transitivität der Rolle, d. h. Rollen, die zu einer transitiven Relation gehören, Beispiel:
6 Medizinische Entscheidungsunterstützung
| 185
x < y und y < z, dann auch x < z und inversen Rollen („ist_Kind_von“ sei invers zu „ist_Elternteil_von“).
6.7.3 Resource Description Framework
Ein Resource Description Framework (RDF) ist ein System zur Beschreibung von Ressourcen und gilt als Ansatz zu einer einheitlichen maschinenlesbaren Beschreibung von Informationen über Webseiten (Web-Metadaten).
Inzwischen existieren mehrere sich ergänzende Standards des World Wide Web Consortiums (W3C) zu RDF. Weil das RDF inhaltliche Charakteristika von Webseiten algorithmisch auswertbar macht, bildet es eine Grundlage für das Semantische Web (semantic web). Kernbaustein des RDF sind die RDF-Tripel. Diese repräsentieren eine Aussage der Struktur Subjekt-Prädikat-Objekt: X (Subjekt) hat die Eigenschaft Y (Prädikat) spezifiziert durch Z (Objekt). Zunächst gewöhnungsbedürftig ist, dass nicht nur das Subjekt (oft ja ohnehin diejenige Webseite, zu der Metadaten erfasst werden), sondern auch das Prädikat in Form von Unified Resource Identifiers (URI) anzugeben ist, d. h. ähnlich aussieht, wie eine vollständige Web-Adresse. Dies hat den Vorteil, die Bestandteile der Aussage weltweit eindeutig identifizieren bzw. auseinanderhalten zu können. So vermeidet man beispielsweise, dass gleich bezeichnete, aber von unterschiedlichen Urhebern unterschiedlich verstandene Prädikate zu Komplikationen führen: Sie lassen sich durch die vorangestellte Webadresse unterscheiden. RDF wird in der Extensible Markup Language (XML) notiert (RDF/XML), jedoch alternativ auch in der kürzeren sogenannten Notation 3 (RDF/N3). Eine gute Einführung gibt der RDF-Primer des W3C [W3C 2004].
6.7.4 Web Ontology Language
Web Ontology Language (OWL) ist ein vom W3C verabschiedeter Standard (W3C-Recommendation) zur Notation von Ontologien.
OWL entstand im Kontext des Semantic Web und basiert auf der RDF-Syntax, wobei auch alternative Notationen verwendet werden. Der Aufbau von OWL folgt dem der DL. Den DL-Konzepten entsprechen die OWL-Klassen, den DL-Rollen die OWL-Properties, Objekte werden in der Regel als Instanzen bezeichnet. Operatoren dienen dazu, aus einfachen Klassen komplexe Klassen zu bilden.
186 | Cord Spreckelsen, Peter Schlattmann
Das nachfolgende Beispiel deklariert die Klasse „Vater“ als Schnitt der Klassen „Mann“ und „Eltern teil“ (Notation hier der besseren Lesbarkeit wegen in der sog. Functional-Style Syntax): EquivalentClasses( :Vater ObjectIntersectionOf(:Mann:Elternteil) )
OWL Property Restrictions entsprechen den Rollenrestriktionen der DL. Sie dienen dazu, weitere Konstruktionsmöglichkeiten für komplexe Klassen anzubieten, die durch Bedingungen an die Properties definiert werden. Die Klasse „Elternteil“ lässt sich z. B. deklarieren als Menge derjenigen Instanzen, die mindestens eine „Person“ als „Kind“ haben. Es existieren zwei syntaktische Hauptvarianten von OWL 2: OWL 2 Full und OWL 2 DL. OWL etabliert sich auch im biomedizintechnischen Bereich zunehmend als Austauschformat für Ontologien.
6.7.5 SNOMED-CT Eine der umfangreichsten biomedizinischen Ontologien ist SNOMED-CT. Ihren Schwerpunkt bildet die Systematisierung klinischer Terminologie. SNOMED-CT wird in Kapitel 11 genauer behandelt. SNOMED-CT stellt eine der umfangreichsten medizinischen Ontologien dar. Sie ist beschreibungs logisch formalisiert und erlaubt die algorithmische Prüfung der Hierarchie von Konzepten hin sichtlich Konsistenz, Vollständigkeit und Redundanz.
Für anatomische Begriffe führte SNOMED-CT sogenannte SEP-Tripletts ein, um Aspekte der „Teil-Ganzes“-Beziehung angemessen repräsentieren zu können. Ausgangsproblem ist z. B.: Ein Finger ist anatomisch Teil der Hand. Zwar ist nun eine Fraktur des Fingers immer auch eine Fraktur der Hand (wird „vererbt“) jedoch ist die Amputation eines Fingers glücklicherweise nicht auch eine Amputation der ganzen Hand. Um entsprechende Definitionen zu ermöglichen, wurden anatomische Begriffe nicht durch ein einziges, sondern gleich durch drei SNOMED-CT-Konzepte repräsentiert. Jeweils eines dieser Konzepte steht für das Ganze, d. h. den vollständigen anatomischen Gegenstand (E-Class), ein weiteres für jeden beliebigen Teil dieses Gegenstands (P-Class), und ein Konzept für beides zusammen (S-Class). In der Hierarchie notiert man eine Verallgemeinerungsbeziehung (Is-A-Verknüpfung) nur zwischen der S-Class des Unterbegriffs und der P-Class des Oberbegriffs. Ein Konzept, welches sich auf den Gegenstand als Ganzes bezieht, wird mit der E-Class verknüpft
6 Medizinische Entscheidungsunterstützung |
187
Hand (S-Class) IsA
lokalisiert_an
IsA
Hand (P-Class)
Hand (E-Class) PartOf
lokalisiert_an
IsA
Entzündung
Amputation Finger (S-Class)
IsA (gefolgert)
IsA
IsA
Finger (P-Class)
Finger (E-Class) PartOf
lokalisiert_an Entzündung
lokalisiert_an Amputation
Abb. 6.6: Beispiel für SEP-Tripletts in SNOMED-CT. Durch Einsatz der Tripletts kann die automatische Subsumption solcher Entitäten unterbunden werden, die nur nur echte Teile einer anatomischen Entität betreffen.
(beispielsweise eine Amputation). Auf diese Weise wird die Vererbung entlang der Teil-Ganzes-Hierarchie unterbunden (eine Amputation des Fingers als Ganzen ist keine Amputation der Hand als Ganze). Ist die Vererbung einer Beziehung erlaubt, verknüpft man mit der P-Class („Entzündung des Fingers“, „Entzündung der Hand“). Die Abbildung 6.6 veranschaulicht diesen Ansatz.
6.7.6 Gene Ontology
Gene Ontology (GO) zielt auf eine datenbankübergreifende, standardisierte Beschreibung von Ge nen und Genprodukten unterschiedlicher Spezies.
Anwendungsschwerpunkte sind vor allem die Molekularbiologie und die Bioinformatik (Kapitel 7). Verantwortlich für die GO ist das Gene Ontology Consortium, das die Ontologie stetig weiterentwickelt, zur informationstechnischen Erschließung von Genprodukten verwendet (Annotation von Genprodukten) und außerdem verschiedene Programme zur Erstellung, Pflege und Nutzung der GO entwickelt. Die GO umfasst drei Hauptgebiete (Domänen): die Domäne der Zellbestandteile, die der molekularen Funktionen und die der biologischen Prozesse. In der Domäne der Zellbestandteile werden Substrukturen von Zellen klassifiziert, durch die Teil-
188 | Cord Spreckelsen, Peter Schlattmann
Ganzes-Beziehung verknüpft, als Genprodukte identifiziert oder als Lokalisation von Genprodukten gekennzeichnet werden. Biologische Prozesse sind in der GO verschiedene Abfolgen molekularer Ereignisse mit jeweils definiertem Anfang und Ende. Auch biologische Prozesse werden klassifiziert und über Teil-Ganzes-Beziehungen miteinander verknüpft. Der Bereich molekularer Funktionen ordnet Genprodukten spezifische Fähigkeiten zu, beispielsweise die Fähigkeiten, etwas zu transportieren, etwas zusammenzuhalten oder zu ändern. Einige der wichtigsten molekularbiologischen Datenbanken verwenden die GO zur terminologisch einheitlichen, algorithmisch auswertbaren Beschreibung von Sachverhalten. Hierzu zählen vor allem die gemeinsam über das NCBI-Entrez-Portal erschlossenen Datenbanken wie Gene, Protein, Online Inheritance in Man (OMIM) und PubMed. Siehe hierzu Übersichtstabelle Datenbanken in Kapitel 5. Die GO ist in verschiedenen Formaten frei verfügbar [Gene Ontology Consortium 2014], unter anderem im OWL-Format.
6.8 Klinische Entscheidungsunterstützungssysteme 6.8.1 Wissensbasierte Systeme Ein wissensbasiertes System ist ein Informationssystem, dessen Serviceleistungen durch die al gorithmische Auswertung eines formal repräsentierten Wissensmodells zustande kommen.
Zunächst wurden wissensbasierte Systeme über längere Zeit als eine Art Container aufgefasst, in welchen die Wissensinhalte der menschlichen Experten lediglich umzufüllen wären. Die obige Definition folgt einer klassischen Formulierung von Wielinga [Wielinga 1992] basierend auf der Einsicht, dass die Implementierung eines wissensbasierten Systems eine Modellierungsaufgabe ist. An dieser Aufgabe arbeiten Fachexperten und Wissensingenieure idealerweise gemeinsam, um aus impliziten Kenntnissen und Fähigkeiten der Experten ein explizites Wissensmodell zu konstruieren und zu überprüfen, das in dieser Form vorher nicht existierte – auch nicht im Kopf des Fachexperten.
6.8.2 Expertensysteme Ein Expertensystem ist ein spezielles wissensbasiertes System, welches die Problemlösefähig keiten menschlicher Experten nachbildet.
Bereits die ersten Ansätze zur Nutzung künstlicher Intelligenz in der Medizin zielten auf die Implementierung diagnostischer oder therapeutischer Expertensysteme.
6 Medizinische Entscheidungsunterstützung
| 189
Hierzu zählen das Leeds Abdominal Pain System zur Diagnose akuter Bauchschmerzen [de Dombal 1991], Mycin zur Diagnose und Therapie von Infektionskrankheiten [Shortliffe 1976] und CASNET zur Diagnose und Behandlung von Erkrankungen in der Ophthalmologie [Kulikowski 1982]. Trotz enormen Aufwands und informationswissenschaftlicher Erfolge auf dem Gebiet konnten sich Expertensysteme in der Medizin nicht durchsetzen. Neben Schwierigkeiten bei der Erhebung und Pflege der nötigen, sehr umfangreichen medizinischen Wissensbasen sowie dem Umgang mit medizintypischem, unsicherem Wissen, wird hierfür weithin die (durchaus verständliche) mangelnde Akzeptanz durch die Ärztinnen und Ärzte verantwortlich gemacht.
6.8.3 Entscheidungsunterstützende Assistenz Nach dem ausbleibenden Erfolg klassischer Expertensysteme im medizinischen Bereich fokussierte sich die weitere Entwicklung darauf, medizinische Fachexperten bei ihrer Arbeit gezielt zu unterstützen und nicht – durch Simulation ihrer Expertise – überflüssig zu machen. Wissensbasierte, entscheidungsunterstützende Assistenzsysteme sind wissensbasierte Syste me zur Unterstützung von Experten. Sie übernehmen klar spezifizierte Aufgaben in gut verstande nen Teilbereichen der Entscheidungsfindung.
Beispiele für entscheidungsunterstützende Assistenz sind: – die gezielte Versorgung mit entscheidungsrelevanten Informationen, – die Erzeugung von Hinweisen auf fehlerhafte Eingaben in der klinischen Dokumentation, – die Generierung von Warnmeldungen, ausgehend von Patientenparametern, – das Umsetzen allgemeiner Planungsvorgaben in einem konkreten Therapieplan. Solchen Assistenzfunktionen ist gemeinsam, dass sie klar umrissene, gut verstandene Teilaufgaben lösen können.
6.8.4 Erfolgsfaktoren für klinische Entscheidungsunterstützung Erfahrungsberichte und Evaluationsergebnisse zur Entscheidungsunterstützung in der Medizin bieten die Grundlage für eine seit längerem geführte wissenschaftliche Diskussion über Faktoren einer erfolgreichen Implementierung von Entscheidungsunterstützungssystemen [Peleg 2006].
190 | Cord Spreckelsen, Peter Schlattmann
Anreizsysteme Wegen des hohen Aufwands bei der Implementierung klinischer Entscheidungsunterstützung ist es vorteilhaft, organisatorische oder gesundheitspolitische Rahmenbedingungen zu schaffen, welche den Aufbau, die zuverlässige Nutzung und die nachhaltige Aktualisierung von Entscheidungsunterstützungssystemen belohnen. In den USA macht z. B. der Health Information Technology for Economic and Clinical Health (HITECH) Act von 2009 die Vergabe umfangreicher Fördergelder für elektronische Patientenakten von der Erfüllung des Meaningful-Use-Kriteriums abhängig. Dieses fordert die computerbasierte Auswertung der in der Akte enthaltenen Patienteninformation zur Entscheidungsunterstützung.
Bedarfsgerechtigkeit Die Entscheidungsunterstützung sollte dem tatsächlichen Bedarf entsprechen und die vorhandenen Kompetenzen der Mediziner ergänzen, statt diese zu simulieren. Die Bedarfsanalyse sollte bei Entscheidungsproblemen ansetzen, die sich als kritisch für den Behandlungserfolg erwiesen haben. Zur Bedarfsgerechtigkeit gehört auch, dass die Unterstützung in einer angemessenen Form erfolgt. So ergab die Studie von Kawamoto, dass direkte (Handlungs-)Empfehlungen zu besseren Ergebnissen führen, als eine dem Entscheider vorgelegte Situationsbewertung durch das System [Kawamoto 2005].
Computerbasiertheit Erfolgreiche Entscheidungsunterstützung sollte die Möglichkeiten einer computerbasierten Daten-, Informations- und Wissensverarbeitung nutzen.
Evaluation Die klinischen Auswirkungen und Kosten des Systems sollten evaluiert werden. Insbesondere sollte das Anwenderfeedback kontinuierlich zur Verbesserung der Entscheidungsunterstützung genutzt werden.
Evidenzbasiertheit Im Sinne einer evidenzbasierten Medizin sollte das zur Entscheidungsunterstützung herangezogene, durch das System verbreitete oder verarbeitete Wissen auf beweiskräftigen Grundlagen basieren, z. B. auf Ergebnissen großer randomisierter, kontrollierter klinischer Studien, Kohortenstudien oder umfangreichen epidemiologischen Datenerhebungen.
6 Medizinische Entscheidungsunterstützung |
191
Point-Of-Need-/Point-Of-Care-Unterstützung Die Entscheidungsunterstützung sollte genau zu dem Zeitpunkt und genau an dem Ort verfügbar sein, an denen die klinische Entscheidung gefällt werden muss.
Wartbarkeit, Flexibilität und Erweiterbarkeit Bei der Implementierung entscheidungsunterstützender Systeme ist darauf zu achten, dass das System und seine Wissensbasis revidiert und aktualisiert werden können, dass es ausreichende Erweiterungsmöglichkeiten gibt und dass die Entscheidungsunterstützung durch Einstellungsmöglichkeiten oder die Eingabe ergänzenden Wissens durch die Ärzte flexibel an den Einsatzkontext angepasst werden kann.
Workflow-Integration Die Entscheidungsunterstützung sollte möglichst bruchlos in die klinischen Arbeitsabläufe eingebunden werden. Hierbei ist sowohl auf die technische Integration, die Einbindung der Systeme oder Systemmodule in das bestehende klinische Informationssystem, die Übernahme vorhandener Daten, die Verfügbarkeit entscheidungsunterstützender Funktionen in routinemäßig genutzten Benutzerschnittstellen als auch auf die Integration im Organisationskontext, die Vermeidung zusätzlicher Arbeitsschritte und die Sichtbarkeit je nach Arbeitskontext zu achten.
6.9 Standardisierungsansätze für Clinical Decision Support Systems Die möglichst bruchlose Integration eines Clinical Decision Support System (CDSS) (klinisches Entscheidungsunterstützungssystem) in das klinische Informationssystem (Kapitel 2) ist ein wesentlicher Erfolgsfaktor für entscheidungsunterstützende Systeme. Daher sind Standardisierungsansätze der klinischen Informationsverarbeitung für jede Systementwicklung in diesem Bereich wichtig. Entsprechende Standardisierungsansätze werden insbesondere durch Health Level Seven (HL7), das American National Standards Institute (ANSI) und das Europäische Komitee für Standardisierung (CEN) entwickelt und verbreitet (Kapitel 11).
192 | Cord Spreckelsen, Peter Schlattmann
6.9.1 Arden-Syntax
Die Arden-Syntax ist ein durch die HL7 Arden-Syntax Special Interest Group und das Clinical De cision Support Technical Committee (CDSTC) gepflegter ANSI-Standard für den Aufbau modularer medizinischer Wissensbasen.
Modular bedeutet hier, dass einzelne Bausteine (Module) relativ unabhängig voneinander zur Wissensbasis hinzugenommen oder aus ihr gelöscht werden können. Ein solcher Baustein einer Arden-Syntax-Wissensbasis heißt Medical Logics Module (MLM). Ein MLM ist eine Verbindung von Produktionsregel und prozeduralen Anweisungen und ist für sich genommen ausreichend, mindestens eine Entscheidung zu fällen bzw. eine Aktion auszulösen.
6.9.2 Guideline Expression Language (GELLO)
Die Guideline Expression Language (GELLO) stellt den Sprachstandard für die medizinische Ent scheidungsunterstützung im HL7 CDSTC. GELLO ist eine objektorientierte Sprache, mit der klini sche Daten abgefragt (query language) und Entscheidungskriterien deklariert werden können (ex pression language).
GELLO wurde im Jahr 2005 von HL7 und vom ANSI als Standard verabschiedet. Zur Formulierung von Kriterien und Abfragen nutzt GELLO die Syntax der Object Constraint Language (OCL).
6.9.3 Infobutton
Infobutton ist eine Komponente, die aus einem klinischen Anwendungssystem heraus Anfragen automatisch erzeugt und an elektronische Informationsquellen sendet, um den Ärzten oder dem Pflegepersonal aktuell benötigte Informationen zu beschaffen [Cimino 2008].
Die HL7-Gruppe erarbeitete als entsprechenden ANSI-Standard den HL7 Version 3 Standard: Context-Aware Knowledge Retrieval Application (Infobutton); Knowledge Request, Release 2.
6 Medizinische Entscheidungsunterstützung
| 193
6.9.4 Decision Support Service Functional Model (DSS-SFM)
Das Decision Support Service Functional Model (DSS-SFM) ist ein HL7-Standard im Entwurfs- und Erprobungsstatus (DSTU: HL7 Version 3: Decision Support Service (DSS), Release 1).
Entwickelt wird dieser Standard unter der Schirmherrschaft des Healthcare Services Specification Project (HSSP) der HL7. DSS-SFM ist einer der ersten Standardisierungsansätze im Bereich der klinischen Entscheidungsunterstützung, der auf eine serviceorientierte Systemarchitektur (SOA) zielt.
6.10 Ausgewählte Anwendungsgebiete 6.10.1 Computerunterstützte Leitlinien und Behandlungspfade
Computerunterstützte Leitlinien (Computerized Clinical Practice Guidelines, CPG) sind systema tisch entwickelte Anweisungen, die Ärzte und Patienten bei Entscheidungen zur angemessenen medizinischen Versorgung unter spezifischen klinischen Umständen unterstützen sollen und die digital vorliegen. Sie basieren auf klinischen Leitlinien.
Computerunterstützte Leitlinien basieren laut Field und Lohr auf „systematisch entwickelten Anweisungen, die Ärzte und Patienten bei Entscheidungen zur angemessenen medizinischen Versorgung unter spezifischen klinischen Umständen unterstützen sollen“ [Field 1990]. Leitlinien haben sich als geeignetes Mittel erwiesen, evidenzbasierte Entscheidungskriterien in der klinischen Routine zu verankern [Lugtenberg 2009]. Den in Textform dokumentierten Leitlinien sind oft Checklisten, Entscheidungs- oder Ablaufdiagramme beigefügt. Diese fassen den Inhalt der Leitlinie in komprimierter, übersichtlicher Form zusammen. Ein klinischer Behandlungspfad (clinical pathway) ist ein Prozessmodell bzw. Ablaufplan für eine medizinische Behandlung in einem konkreten Krankenhaus. Oftmals entstehen Behandlungspfa de, indem allgemeine Leitlinien an die örtlichen Gegebenheiten eines Krankenhauses angepasst und mit dem beteiligten klinischen Personal vereinbart werden.
Die Computerisierung von Leitlinien und Behandlungspfaden bedeutet, dass diese (zumindest teilweise) in eine durch Computerprogramme interpretierbare Form gebracht werden. Diese Interpretierbarkeit bezieht sich auf die logische Struktur und die Ablaufstruktur. So soll beispielsweise die logische Widerspruchsfreiheit von Bedingungen (z. B. diagnostischen Kriterien) in einer Leitlinie algorithmisch geprüft oder die Abfolge bedingter Prozessschritte schrittweise mit verfolgt werden (z. B. durch suk-
194 | Cord Spreckelsen, Peter Schlattmann
chronischer Husten Beschaffen der Patientendaten Kommt ACE-H. als
Ursache in Frage? ja ACE-H. für 4 Wochen aussetzen
in beliebiger
Reihenfolge
nein
Röntgen-Thorax
auf Behandlung warten
nein
Röntgen-Thorax direkt durchführbar? ja
Hustenbehandlung
Erneute Begutachtung des Patienten Röntgen-Thorax Patient
hustenfrei? ja
nein Hustenbehandlung
Abb. 6.7: Modellierung einer Leitlinie „Chronischer Husten“ als activity chart der Unified Modeling Language (UML-AC).
zessive Präsentation von Eingabemasken im klinischen Informationssystem). Hierfür ist es notwendig, die Leitlinien und Behandlungspfade in eine formale Notation zu überführen, welche dann durch ein Computerprogramm verarbeitet werden kann. Man nennt dies Leitlinienformalisierung. Für den medizinischen Bereich wurden spezielle formale Notationen eingeführt. Bekannte Ansätze sind u. a. Asbru, Eon, Guide, Glif, Helena, Proforma, Prodigy und Prestige. Neben den speziell für die Leitlinienformalisierung eingeführten Notationen lassen sich auch Ansätze verwenden, die ganz allgemein zur Repräsentation von Prozessabläufen (workflows) entwickelt wurden. Zu diesen zählen die Business Process Model Notation (BPMN) oder die activity charts der Unified Modelling Language (UML-AC). Van der Aalst führte einen Vergleich dieser Notationen durch, der eine überraschend hohe Übereinstimmung zwischen den speziell für den medizinischen Bereich entwickelten Formaten und den allgemeinen Ansätzen zeigt [van der Aalst 2003], was den Einsatz von beispielsweise BPMN oder UML-AC zur Leitlinienformalisierung rechtfertigt. Die Abbildung 6.7 zeigt die Modellierung einer Leitlinie „Chronischer Husten“ in UML-AC.
6 Medizinische Entscheidungsunterstützung
| 195
Computerisierte Leitlinien und Behandlungspfade dienen auch der Entscheidungsunterstützung. Sie bieten eine strukturierte Übersicht über den Entscheidungsprozess oder das klinische Vorgehen. Bestehen Wahlmöglichkeiten, so sind Entscheidungskriterien explizit angegeben oder können z. T. sogar automatisch abgefragt werden. Workflow- bzw. Leitlinienmanagementsysteme führen die Beteiligten schrittweise durch den Gesamtprozess und dokumentieren detailliert das Vorgehen.
6.10.2 Computerized Physician Order Entry (CPOE)
Die elektronische Erfassung und Weiterverarbeitung von therapeutischen Anweisungen (insbe sondere von Arzneimittelverordnungen) in einem klinischen Informationssystem wird als Compu terized Physician Order Entry (CPOE) bezeichnet.
In den letzten Jahren konnten erfolgreich entscheidungsunterstützende Funktionen in CPOE-Systeme eingebunden werden. Diese Funktionen zielen darauf, die Rate fehlerhafter therapeutischer Anweisungen zu senken, also z. B. die Verschreibung von Wirkstoffen, gegen die eine Allergie vorliegt, zu verhindern. Oft werden hierfür Warnmeldungen (Alerts) angeboten, die auf Inkonsistenzen, Gegenanzeigen etc. hinweisen oder aber Erinnerungsmeldungen, bei denen z. B. an den Termin für eine Folgemaßnahme erinnert wird (Reminders). Der Erfolg solcher entscheidungsunterstützenden CPOE-Komponenten ist stark abhängig von der Benutzbarkeit und Bedienbarkeit (Usability) und ihrer Integration in die routinemäßig genutzten Benutzerschnittstellen (Graphical User Interfaces, GUI) des klinischen Informationssystems [Khajouei 2008]. Die zusätzlich angebotenen Funktionen dürfen die Routinearbeit mit dem System nicht behindern, müssen aber im Falle von Warnungen oder Erinnerungen deutlich auffallen. Mehrfacheingaben derselben Daten sind zu vermeiden. In der praktischen Nutzung entscheidungsunterstützender CPOE-Komponenten hat sich gezeigt, wie schwierig ein angemessener Kompromiss ist zwischen der Zahl unnötiger Warnungen oder Fehlalarme und der Anforderung, keine wichtigen Probleme zu übersehen. Diese Schwierigkeit tritt ganz ähnlich beispielsweisebei diagnostischen Tests (Verhältnis der Sensitivität zur Spezifität) oder als Signal-Rausch-Verhältnis auf. Häufiger Fehlalarm (falsch positive Warnmeldungen) führen dazu, dass die Warnmeldungen nicht mehr ernst genommen werden [Robertson 2010]. Fehlalarme lassen sich systemseitig durch die Anpassung von Filtern reduzieren oder aber durch Eingriffe der Nutzer, die bis zum Abschalten der Komponente reichen können. Vorteilhaft ist eine algorithmische Auswertung von Relevanz-Feedbacks, bei dem die Nutzer an das System zurückmelden, ob ein Alarm angemessen war oder nicht. Inzwischen konnte in zahlreichen Studien gezeigt werden, dass der Einsatz von CPOE- Systemen mit Entscheidungsunterstützung die Rate therapeutischer Fehler ef-
196 | Cord Spreckelsen, Peter Schlattmann
fektiv senkt [Khajouei 2008]. Allerdings kommen die Untersuchungen zu unterschiedlichen Bewertungen des Kosten-Nutzen-Verhältnisses für die Krankenhäuser, weil der organisatorische Aufwand und die Kosten der Eingewöhnung von Nutzern bei der Einführung solcher Systeme oft höher sind als erwartet [Moxey 2010].
6.10.3 Intensiv-Monitoring und Interpretation von Vitalparametern Die Überwachung von Vitalparametern, wie sie in der Intensivpflege von Patienten kontinuierlich erhoben werden, verlangt eine dauerhafte Aufmerksamkeit, die von Pflegekräften und Ärzten nicht erbracht werden kann. Es bietet sich an, die Überwachung und Interpretation solcher Parameter zu automatisieren, zumal die Parameter in der Regel selbst durch Geräte erhoben und in Form eines Datenstroms verfügbar gemacht werden. Im einfachsten Fall wird ein einzelner Vitalparameter mit einem Schwellenwert verglichen, dessen Überschreitung zum Auslösen eines Alarms führt. Dieser einfache Fall reicht jedoch selbst bei Konzentration auf einen einzigen Vitalparameter meist nicht aus, weil die Parameter oft in Form kontinuierlicher Signale anfallen (Band 5). Hier ist nicht die absolute Höhe eines Einzelwerts wichtig, sondern ein kritisches Muster, das durch Signalverarbeitung aus Amplitude und Frequenz des Signals erst erstellt werden muss. Ergänzend nutzen einige Ansätze die Methoden der Fuzzy Logic, um anstelle exakter Bedingungen gleitende Übergänge zur Definition kritischer Patientenzustände verwenden zu können [Otero 2009]. Wissensgestütztes Intensiv-Monitoring beruht auf der Erkennung kritischer Muster verschiede ner Vitalparameter, die in Bezug auf den allgemeinen Patientenzustand (Diagnose, Nebendiagno sen, Therapie) gesetzt werden können [Heldt 2006].
Neuere Entwicklungen setzen telemedizinische Module zur automatischen Überwachung von Vitalparametern ein. So tragen bespielsweise Patienten aus speziellen Risikogruppen im Alltag mobile Sensoren, deren Daten per Funk zum Arzt übertragen und ausgewertet werden. Ähnlich wie bei den CPOE-Warnmeldungen muss die Zahl der Fehlalarme möglichst niedrig gehalten werden, ohne ein tatsächlich kritisches Ereignis zu übersehen [Laramee 2006]. Eine Gefahr bei der Nutzung des intelligenten Monitorings von Vitalparametern ist der sogenannte Automation-Bias. Dieser führt dazu, dass die Nutzer einer automatischen Entscheidungshilfe den Empfehlungen folgen, ohne die Angemessenheit der vorgeschlagenen Maßnahmen zu prüfen.
6 Medizinische Entscheidungsunterstützung |
197
6.10.4 Pharmakovigilanz
Die Pharmakovigilanz zielt nach einer Definition der WHO darauf, unerwünschte Nebenwirkungen oder generelle Probleme, die beim Einsatz von Arzneimitteln auftreten können, zu entdecken, zu beurteilen und zu verstehen sowie darauf aufbauend geeignete Vorbeugemaßnahmen zu ergrei fen.
Die Pharmakovigilanz ist wichtig, da die Kenntnisse über die Sicherheit von Arzneimitteln zum Zeitpunkt ihrer erstmaligen Zulassung nicht vollständig sein können, weil die Zahl der behandelten Patienten während der Zulassung vergleichsweise klein ist und damit seltene Nebenwirkungen möglicherweise noch nicht bekannt sind. Deshalb sieht das Arzneimittelgesetz der Bundesrepublik Deutschland vor, dass nach der Zulassung eines Arzneimittels die Erfahrungen bei seiner Anwendung fortlaufend und systematisch gesammelt und ausgewertet werden. Diese geschieht überwiegend durch Spontanmeldungen von Ärzten, Apothekern aber auch Patienten. Schwerwiegende Nebenwirkungen von Medikamenten kennen keine Grenzen, daher gibt es Bestrebungen für eine einheitliche Datenbank der Europäischen Union namens EuroPharm, die zentral Daten für alle in der EU vertriebenen Arzneimittel sammeln und bereithalten soll. Verdachtsmeldungen führen vielfach zu weitergehenden Studien. So kann in pharmakoepidemiologischen Studien die Assoziation zwischen der Arzneimittelwirkung und dem Auftreten schwerwiegender Nebenwirkungen untersucht und quantifiziert werden. Naturgemäß sind solche Studien aufgrund der erforderlichen großen Patientenzahlen teuer und aufwändig. Deshalb wird versucht, pharmakoepidemiologische Fragestellungen anhand publizierter Daten im Rahmen von MetaAnalysen kontrollierter Studien zu klären. Ein berühmtes Beispiel ist die Rücknahme der Zulassung für die Substanz Rosiglitazon in Europa und den USA [Nissen 2010], für die Meta-Analysen ein erhöhtes Odds Ratio für das Auftreten von Myokardinfarkten gezeigt hatten.
6.11 Zusammenfassung und Ausblick Aus über drei Jahrzehnten der Forschung zur medizinischen Entscheidungsunterstützung liegt inzwischen eine Fülle von Fachpublikationen zur Evaluation dieser Ansätze vor [Chaudhry 2006]. Schon früh zeigten Einzelstudien Möglichkeiten, die diagnostische Fachkompetenz menschlicher Experten durch medizinische Expertensysteme zu simulieren. Für eng umrissene Kompetenzbereiche erreichten die Expertensysteme zum Teil ähnlich hohe Zuverlässigkeit wie klinische Fachexperten [Heckerman 1992]. Garg [Garg 2005] fasste Studien zur Auswirkung einer computerbasierten Entscheidungsunterstützung auf die klinische Performanz von Ärzten und auf das
198 | Cord Spreckelsen, Peter Schlattmann
Behandlungsergebnis zusammen. Dabei zeigt sich, dass der Nutzen der computerbasierten Entscheidungsunterstützung für das Behandlungsergebnis nur schwer nachweisbar ist. Auswirkungen auf die Qualität und Schnelligkeit ärztlicher Tätigkeiten ließen sich dagegen leichter zeigen. Weniger als die Hälfte der betrachteten Studien zeigten eine Verbesserung der Diagnoseunterstützung, während eine deutliche Mehrheit (zwischen 62 und 76 %) der Studien eine gesteigerte klinische Performanz nachwiesen. Während die Verbreitung medizinischer Expertensysteme jahrelang vor allem an Akzeptanz- und Integrationsdefiziten scheiterte, zeichnet sich inzwischen deutlich ab, dass entscheidungsunterstützende Komponenten klinischer Informationssysteme (z. B. durch das Meaningful-Use-Kriterium eingefordert) in Zukunft eine immer wichtigere Rolle spielen werden.
Dank Die Autoren danken allen an der Erstellung des Kapitelmanuskripts beteiligten weiteren Personen sowie den Bereitstellern von Daten und Informationen.
Quellenverzeichnis Bishop, C.: Pattern Recognition and Machine Learning. Berlin New York: Springer 2006. Böhning, D.: Computer-assisted analysis of mixtures and applications: meta-analysis, disease map ping, and others. Boca Raton, Fla.: Chapman & Hall/CRC 1999. Chaudhry, B.; Wang, J.; Wu, S.; Maglione, M.; Mojica, W.; Roth, E. et al.: Systematic review: impact of health information technology on quality, efficiency, and costs of medical care. Ann. Intern. Med. 144, 10 (16. Mai 2006) 742–752. Cimino, J. J.: InfoButtons: anticipatory passive decision support. AMIA AnnuSymp Proc. (2008) 1203–1204. Cowell, R. G.; Dawid, P.; Lauritzen, S. L.; Spiegelhalter, D. J.: Probabilistic Networks and Expert Sys tems Exact Computational Methods for Bayesian Networks. Berlin New York: Springer 1999. deDombal, F. T.; Dallos, V.; McAdam, W. A.: Can computer-aided teaching packages improve clinical care in patients with acute abdominal pain? British Medical Journal 1302 (1999) 1492–1497. Del Fiol, G.; Rocha, R.; Cimino, J. J.: HL7 Infobutton Standard API Proposal. Online im Internet: http:// www.hl7.org/documentcenter/.../HL7-InfoButton-API-v2.2-20040224.doc, Stand: 24.2.2004. Field, M. J.; Lohr, K. N.: Clinical Practice Guidelines: Directions for a New Program. Washington D. C.: National Academy Press 1990. Garg, A. X.; Adhikari, N. K. J.; McDonald, H.; Rosas-Arellano, M. P.; Devereaux, P. J.; Beyene J., u. a.: Effects of computerized clinical decision support systems on practitioner performance and patient outcomes: a systematic review. JAMA. 293, 10 (9. März 2005) 1223–1238. Gene Ontology Consortium: Gene Ontology Homepage. Online im Internet: http://geneontology. org/Stand: 22.9.2014. Gruber, T. R.: A Translation Approach to Portable Ontology Specifications. Knowledge Acquisition; 5, 2 (1993) 199–220.
6 Medizinische Entscheidungsunterstützung
| 199
Hastie, T.; Tibshirani, R.; Friedman, J.: The Elements of Statistical Learning. Dordrecht: Springer 2009. Heckerman, D. E.; Nathwani, B. N.: An evaluation of the diagnostic accuracy of Pathfin der.Comput.Biomed. Res. 25, 1 (Feb 1992) 56–74. Heldt, T.; Long, B.; Verghese, G. C.; Szolovits, P.; Mark, R. G.: Integrating data, models, and reaso ning in critical care. Conf. Proc IEEE Eng Med Biol Soc. 1 (2006) 350–353. HISEVAL 2003: Declaration of Innsbruck. Results from the European Science Foundation Sponsored Workshop on Systematic Evaluation of Health Information Systems (HIS-EVAL), April 4–6th, 2003. Yearb Med Inform. 121–123, 2006. Hoffrage, U.; Kurzenhauser, S.; Gigerenzer, G.: How can one improve the understanding and com munication of the importance of medical test results? Z Arztl Fortbild Qualitatssich 94, 9 (Oct 2000) 713–719. Kawamoto, K.; Houlihan, C. A.; Balas, E. A.; Lobach, D. F.: Improving clinical practice using clini cal decision support systems: a systematic review of trials to identify features critical to suc cess.BMJ. 2005, 330, 7494 (2. Apr 2005) 765. Khajouei, R.; Jaspers, M. W. M.: CPOE system design aspects and their qualitative effect on usability. Stud Health Technol Inform 136 (2008) 309–314. Kuliokowski, A. C.; Weiss, S. M.: Representation of expert knowledge for consultation – The casnet and expert project. In: Szolowitz, P. (Hrsg): Artificial Intelligence in Medicine. Boulder: West view Press, 21–57, 1982. Laramee, C. B.; Lesperance, L.; Gause, D.; McLeod, K.: Intelligent alarm processing into clinical knowledge. ConfProc IEEE Eng Med Biol Soc. Suppl (2006) 6657–6659. Lugtenberg, M.; Burgers, J. S.; Westert, G. P.: Effects of evidence-based clinical practice guidelines on quality of care: a systematic review. QualSafHealth Care. 18, 5 (2009) 385–392. McLachlan, G. J.; Peel, D.: Finite mixture models. New York: Wiley 2000. Moxey, A.; Robertson, J.; Newby, D.; Hains, I.; Williamson, M.; Pearson S. A.: Computerized clinical decision support for prescribing: provision does not guarantee uptake. J Am Med Inform Assoc. 17, 1 (2010) 25–33. NHANES (National Health and Nutrition Examination Survey).Online im Internet: http://www.cdc. gov/nchs/nhanes.htm Stand: 22. 9. 2014. Nissen, S. E.; Wolski, K.: Rosiglitazone revisited: an updated meta-analysis of risk for myocardial infarction and cardiovascular mortality. Arch Intern Med. 170, 14 (2010) 1191–1201. Otero, A.; Félix, P.; Barro, S.; Palacios, F.: Addressing the flaws of current critical alarms: a fuzzy constraint satisfaction approach. ArtifIntell Med. 47, 3 (2009) 219–238. Peleg, M.; Tu, S.: Decision support, knowledge representation and management in medicine. Jearb Med Inform. 2006 (2006) 72–80. Quinlan, J. R.: Discovering rules by induction from large collections of examples. In: Michie D. (Hrsg.): Expert systems in the micro electronic age. Edinburgh University Press, Edinburgh 1979. Robertson, J.; Walkom, E.; Pearson, S. A.; Hains, I.; Williamsone, M.; Newby, D.: The impact of phar macy computerized clinical decision support on prescribing, clinical and patient outcomes: a systematic review of the literature. Int J Pharm Pract. 18, 2 (2010) 69–87. Schlattmann, P.: Medical applications of finite mixture models. Berlin: Springer-Verlag 2009. Schlattmann, P.; Verba, M.; Dewey, M.; Walther, M.: Mixture models in diagnostic meta-analyses– clustering summary receiver operating characteristic curves accounted for heterogeneity and correlation. J Clin Epidemiol. 68, 1 (2015) 61–72. Shortliffe, E. H.: Computer-based medical consultations – MYCIN. Amsterdam: Elsevier 1976.
200 | Cord Spreckelsen, Peter Schlattmann
Sim, I.; Gorman, P.; Greenes, R. A.; Haynes, R. B.; Kaplan, B.; Lehmann, H.; et al.: Clinical decision support systems for the practice of evidence-based medicine. J Am MedInformAssoc. Dez; 8, 6 (2001) 527–534. van der Aalst, W.; ter Hofstede, A.; Kiepuszewski, B.; Barros A.: Workflow Patterns. Distributed and Parallel Databases. 14, 3 (2003) 5–51. Vetterlein, T.; Mandl, H.; Adlassnig, K. P.: Fuzzy Arden Syntax. A fuzzy programming language for medicine. ArtifIntell Med. 49, 1 (Mai 2010) 1–10. Wielinga, B.J.; Schreiber, A. T.; Breuker, J. A.: KADS: A modelling approach to knowledge engineer ing. Knowledge acquisition. 4, 1 (1992) 5–53. Wu, X.; Kumar, V.; Ross Quinlan, J.; Ghosh, J.; Yang, Q.;Motoda, H.; u. a.: Top 10 algorithms in data mining. KnowlInf Syst. 14, 1 (Dez 2007) 1–37.
Verzeichnis weiterführender Literatur Mayring, P.: Einführung in die qualitative Sozialforschung. Psychologie Verlags Union, Weinheim 2002. Schlattmann, P.: Medical applications of finite mixturemodels. Berlin: Springer-Verlag 2009. W3C: RDF Primer W3C Recommendation 10 February 2004. Online im Internet: http://www.w3.org/ TR/2004/REC-rdf-primer-20040210/Stand: 22. 9. 2014.
Testfragen 1. Was versteht man unter symbolischer Wissensverarbeitung? 2. Erläutern Sie die Begriffe semantische Folgerung, syntaktische Folgerung und logischer Kalkül und grenzen Sie diese gegeneinander ab! 3. Wie lässt sich eine Folgebeziehung im Rahmen der Aussagenlogik überprüfen? 4. Erläutern Sie ein modellbasiertes Clusterverfahren, das auf einem Mischverteilungsmodell be ruht! 5. Was versteht man unter einem Bayes-Netz? 6. Nennen und erläutern Sie mindestens drei SNOMED-CT-Konzepte für anatomische Begriffe! 7. Erklären Sie die Bedeutung von Ontologien für die medizinische Entscheidungsunterstützung! 8. Nennen Sie Erfolgskonzepte für die klinische Entscheidungsunterstützung! 9. Was versteht man unter Arden-Syntax? 10. Erläutern Sie die Begriffe klinischer Behandlungspfad und computerunterstützte Leitlinie!
Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
7 Bioinformatik und Systembiologie 7.1 7.2 7.3 7.4 7.5
Einleitung | 202 Biologisch-genetische Grundlagen | 204 Bioinformatik | 212 Systembiologie | 227 Zusammenfassung und Ausblick | 240
Zusammenfassung: Die Bioinformatik trägt wesentlich zum Verständnis der molekularen Zusammenhänge funktioneller Strukturen innerhalb der Zellen bei. Auch genetische Dispositionen und molekularbiologische Ursachen von Krankheiten können z. B. mit Hilfe der Bioinformatik ermittelt werden. Verschiedene Sequenzanalyseverfahren und Techniken zur Quantifizierung der Genexpression sind durch den massiven Einsatz von Methoden der Informatik, Statistik und Mustererkennung und unter Benutzung von Datenbanken und Hochdurchsatzmethoden entwickelt worden. Im Bereich der Systembiologie wird anhand von experimentellen Daten, theoretischen Modellen und verschiedenen Simulationstechniken versucht, komplexe Zusammenhänge sowie Wechselwirkungen in biologischen Systemen zu ermitteln. Abstract: Bioinformatics as a scientific field substantially helps to unravel molecular relationships of functional structures within cells. Especially the methods of bioinformatics contribute to the determination of genetic predisposition and the origin of diseases on the molecular level. Analytical methods for the characterisation of biological sequences or the quantification of gene expression constantly use methods from computer science, statistics or pattern recognition as well as dedicated databases and high-throughput techniques like microarray analysis. Systems biology aims at using experimental data, theoretical models and simulation techniques to unravel, characterise or even predict complex relations and interactions in biological systems.
202 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
7.1 Einleitung Bioinformatik und Systembiologie tragen maßgeblich dazu bei, molekulare Daten aus biologischen Systemen mittels statistischer Mustererkennung und Informationsverarbeitung zu analysieren und interpretieren. Während in der Anfangsphase dieser noch jungen Fachgebiete vorwiegend grundlegende Fragestellungen zur molekularen Biologie und Genetik im Vordergrund standen, haben sie heute ihren Anwendungsschwerpunkt in der Medizin. Fragen zur Entstehung von Krankheiten, insbesondere auch Krebserkrankungen verschiedener Organe, ihre molekularen Ursachen und genetische Disposition, wie auch individuelle Risiken und gezielte personalisierte Therapie sind wichtige Themen einer modernen medizinischen Bioinformatik. Sie ermöglicht aber auch ein besseres Verständnis für die ineinander verwobenen Beziehungen von Zell-, Gewebe- und Organfunktionen auf unterschiedlichem Skalenniveau. Ein Meilenstein im Zuge der sich entwickelnden Bioinformatik war das 1990 begonnene internationale Human Genome Project [Venter 2001], das die Sequenz von ca. drei Milliarden Basenpaaren des menschlichen Genoms identifizieren sollte. Das aufwändige Projekt wurde 2003 durch den massiven Einsatz computergestützter Methoden abgeschlossen. Bislang wurde allerdings der praktische Gewinn aus diesen Massendaten den Erwartungen noch nicht gerecht. Allerdings gehört inzwischen die Sequenzanalyse der Desoxyribonukleinsäure (DNA) zu den klassischen Anwendungsgebieten der Bioinformatik. An der Analyse von DNA-Sequenzen besteht ein vitales Interesse seitens verschiedenster Bereiche der Medizin, sei es die Humangenetik und Reproduktionsmedizin, die Onkologie, die Pharmakologie und andere. Da inzwischen die Erstellung sogenannter Sequenzprofile gängige Praxis ist und auch die Kosten deutlich gesunken sind, ist mit einer zunehmenden praktischen Bedeutung dieser Technologie zu rechnen. Insbesondere gilt das sogenannte Next Generation Sequencing (NGS) als zukunftsträchtige Methode, um den Datensatz des kompletten Genoms eines Menschen in digitalisierter Form zu erfassen. Neben der klassischen Sequenzbioinformatik, die Ähnlichkeiten zwischen Nukleinsäure- und Proteinsequenzen mathematisch beschreibt und Algorithmen zur optimalen Anordnung von Sequenzen zueinander oder zur Datenbankrecherche liefert, haben sich weitere Spezialgebiete der Bioinformatik etabliert. So versucht die evolutionäre Bioinformatik mithilfe von Ergebnissen der Sequenzanalyse und unter der Annahme mathematischer Modelle die Evolution einzelner Proteine nachzuzeichnen. Die dabei gewonnenen Erkenntnisse sind für die moderne Evolutionsbiologie von hohem Interesse. Ein weiteres Forschungsfeld in diesem Kontext ist die Genombioinformatik, mit deren Hilfe die Zusammensetzung und Organisation ganzer Genome einer Spezies beschrieben werden kann. Schließlich ist noch die Strukturbioinformatik zu nennen, bei der aus der Sequenz von Aminosäuren die dreidimensionale Struktur von Proteinen ermittelt werden soll. Diese Fragestellung ist äußerst komplex und erfordert profunde Kenntnisse der Biophysik sowie der Strukturbiologie und soll hier nur kurz erwähnt werden.
7 Bioinformatik und Systembiologie
|
203
Mit der zunehmenden Etablierung bioinformatischer Methoden und der Verbreitung des weltweit operierenden Internets begann eine neue Zeitrechnung der molekularen Biologie und damit auch der Bioinformatik. So führte die Automatisierung der molekularen Analyse – bis hin zu den heutigen Hochdurchsatz-Geräten – zu einer molekularen Revolution. In wenigen Jahren wurden über 1 000 molekulare Datenbanken entwickelt, die Daten weltweit erfassen und über das Internet verfügbar machen. Zur Gewinnung von Daten über den Aktivierungszustand von Genen mittels Hochdurchsatzanalysen eignen sich Microarrays oder Biochip-Analysen. Sie ermöglichen einen computergestützten Vergleich mit paralleler Analyse der Aktivität von mehreren zehntausend Genen. Als aktuelles Forschungsgebiet im Kontext der Bioinformatik hat sich die Systembiologie entwickelt. Sie verfolgt den Ansatz, eine Zelle, ein Gewebe oder ein ganzes Organ nicht über die isolierte Charakterisierung der einzelnen Komponenten, sondern im Zusammenwirken derselben als gesamtes System zu verstehen. Hierzu werden auf verschiedenen Abstraktionsebenen (Netzwerk-)Modelle entwickelt. Die Vielfalt reicht von der Beschreibung des Metabolismus (biochemischer Stoffwechsel) von Zellen, über ihre genregulatorischen Netzwerke zu Signaltransduktionsnetzwerken der Zelle, über die extrazellulär wahrgenommene Signale im Zellinneren weitergeleitet und verarbeitet werden. Die Modelle erfassen neben der Zellebene ebenso die Gewebe- und Organebene. Wichtige methodische Bestandteile systembiologischer Beschreibungen kommen dabei aus der Theorie komplexer Systeme der Ingenieurwissenschaften. Das vorliegende Kapitel ist in die beiden Abschnitte Bioinformatik und Systembiologie gegliedert, in denen jeweils die oben skizzierten verschiedenen Forschungs-, Anwendungs- und Methodenaspekte dargestellt werden. Zum besseren Verständnis werden zuerst einige wichtige biochemische und genetische Sachverhalte bzw. Zusammenhänge vorgestellt und erläutert, um das Verständnis der Fragestellungen und des methodischen Vorgehens in der Bioinformatik zu erleichtern. Da sich der Band vorwiegend an Leser mit technischem Hintergrund richtet, sei der interessierte Leser zusätzlich auf die am Ende des Kapitels aufgeführte Standardliteratur zur Klärung weiterer Details und Zusammenhänge verwiesen. So kann im Rahmen dieses Kapitels nur eine Einführung und komprimierte Übersicht bezüglich einiger relevanter Gebiete und Fragestellungen zur Bioinformatik und Systembiologie gegeben werden, die als Anregung verstanden werden sollten, sich intensiver mit diesem wichtigen interdisziplinären Gebiet zu befassen. Das Studium dieses Kapitels soll zu folgenden Lernergebnissen führen: – Kenntnisse über die molekularen Grundlagen der Zellbiologie und Genetik, – Erläuterung wichtiger Sequenzanalyseverfahren und Arten des Alignments, – Kenntnisse über Hochdurchsatztechniken zur Ermittlung von Genexpressionsdaten mittels Microarray-Analyse, – Kenntnisse über typische Datenbanken und ihre Anwendungsfelder,
204 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
– –
Verständnis der Grundzüge der Modellierung in der Systembiologie und Erläuterung von Begriffen wie genregulatorische Netzwerke und Multiskalenmodell, Erläuterung bekannter Softwaresysteme und ihrer jeweiligen Anwendungscharakteristik zur Modellierung spezieller Fragestellungen im Kontext dieses Kapitels.
7.2 Biologisch-genetische Grundlagen In diesem Abschnitt wird zunächst auf die zum Verständnis der folgenden Themen notwendigen biologischen Grundlagen eingegangen. Besonderes Augenmerk wird hierbei auf die Struktur und die sich dadurch ergebende Funktion der DNA sowie der Proteine gelegt. In einem weiteren Abschnitt wird der Frage nachgegangen, wie eine Zelle die auf der DNA codierte Information entschlüsselt, um daraus funktionelle Proteine zu generieren. Im letzten Teil dieses Abschnitts werden Methoden vorgestellt, die durch gentechnische Veränderung von Mikroorganismen neue Produktionsprozesse (Fermentation) in der Industrie ermöglichen, bzw. neuartige Therapieansätze in der Medizin bereitstellen.
7.2.1 DNA – Träger der genetischen Information Es ist höchst faszinierend zu sehen, wie sich die biologische Forschung auf dem Gebiet der Molekularbiologie bis hin zur synthetischen Biologie in wenigen Jahren entwickelt hat. James Watson und Francis Crick, die Entdecker der DNA-Struktur im Jahr 1953, waren sich der Bedeutung ihrer Entdeckung zweifelsohne bewusst. Womit sie jedoch sicherlich nicht gerechnet hatten, war die Welle an Innovationen, die sie mit ihrer Entdeckung auslösten, welche zu einer rasanten Entwicklung der Genetik führte und deren Ausläufer heute in den Zeiten der synthetischen Biologie immer noch zu spüren sind. Das humane Genom bzw. die genetische Information in Form der DNA-Sequenz ist heute bereits weitgehend entschlüsselt. Mit den neuesten Sequenziermethoden kann die gesamte genetische Information eines Menschen inklusive genetischer Defekte und Risikofaktoren innerhalb von 24 Stunden bestimmt und im Anschluss bioinformatisch analysiert werden. DNA-Moleküle können problemlos synthetisch hergestellt werden und zukünftig z. B. als Diebstahlschutz zur Identifikation des Eigentums oder als neuartiger Datenträger zur Speicherung großer Datenmengen fungieren, wenn auch derzeit noch einer serienmäßigen Nutzung noch die hierfür relativ hohen Kosten im Wege stehen. Im folgenden Abschnitt werden wir uns mit dem Aufbau der DNA beschäftigen (Abb. 7.1). Wir werden ihre einzelnen Bausteine kennenlernen und verstehen, wie durch deren Variation Information gespeichert und weitergegeben wird.
7 Bioinformatik und Systembiologie
PhosphatdesoxyriboseStrang
S
S Basenpaar
S
T
P
S
C
S P
G S
S Nukleotid
3'
A Adenin
P
A Nukleinsäure
S P
P
C
G
P
DNA-Doppelhelix
3'
T
A
P
205
PhosphatdesoxyriboseStrang
Basenpaare
5'
|
T
Thymin
P
C Cytosin
5'
G Guanin
Abb. 7.1: Räumliche Struktur der DNA in Form einer Doppelhelix und Aufbau der DNA aus antiparallel verlaufenden Polynukleotidketten. Die Nukleotide bestehen aus einer Phosphatgruppe (P), einem Zuckermolekül (S = sugar) sowie einer Base. Die Kohlenstoffatome des Zuckermoleküls sind durch nummeriert. Am ersten Kohlenstoffatom (C1 bzw. 1‘) ist die jeweilige Base, am fünften Kohlenstoffa tom (C5 bzw. 5‘) die freie Phosphatgruppe gebunden. Dieser Aufbau verleiht den DNA-Strängen eine antiparallele Orientierung, da der eine Einzelstrang in 5‘-3‘-Richtung, der andere in 3‘-5‘-Richtung verläuft.
Nukleotide Mit Nukleotid bezeichnet man einen Grundbaustein der DNA/RNA, bestehend aus einem Zucker (Ribose bei RNA; Desoxyribose bei DNA), einer Stickstoffbase (Adenin, Guanin, Cytosin, Thymin und Uracil) und einer Phosphatgruppe.
Alle drei Bestandteile des Nukleotids beeinflussen dessen Eigenschaften signifikant. Das Zuckermolekül kann entweder eine Ribose (bei RNA) oder eine Desoxyribose (bei DNA) sein. Beide Zuckermoleküle haben grundsätzlich den gleichen Aufbau, bestehend aus einem Ring aus fünf Kohlenstoffatomen (C-Atomen), welche aus nomenklatorischen Gründen von 1 bis 5 (C1 bis C5, bzw. 1‘ bis 5‘) durchnummeriert werden. Der einzige Unterschied zwischen beiden Molekülen findet sich am zweiten Kohlenstoffatom. Dieses hat im Falle der Ribose eine gebundene OH-Gruppe. Bei der Desoxyribose fehlt diese OH-Gruppe, an deren Stelle nur ein Wasserstoffatom (H) tritt. Dieser Unterschied erscheint marginal, und doch entstehen auf dieser Basis zwei Informationsträger mit unterschiedlichen Eigenschaften. Die zweite Komponente der DNA ist die Phosphat-
206 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin gruppe. Sie ist am fünften C-Atom (5‘ in Abb. 7.1) des Zuckers gebunden und verleiht dem Nukleotid eine negative Ladung. Die Bindung der Phosphatgruppe am fünften C-Atom (5‘) sowie die freie OH-Gruppe am dritten C-Atom (3‘) verleihen der DNA eine Polarität, auf die wir später noch genauer eingehen werden. Die dritte Komponente stellen die Basen. Je nach chemischer Zusammensetzung unterscheidet man hier zwei Gruppen: Die Purinbasen Adenin und Guanin, die einen Purinring tragen, und die Pyrimidinbasen, die einen Pyrimidinring enthalten und zu denen Cytosin, Thymin und Uracil zählen. Die Basen binden am ersten Kohlenstoffatom des Zuckers und komplettieren das Nukleotid.
Aufbau der DNA Desoxyribonukleinsäure (DNA) bezeichnet ein Biomolekül und ist Träger der Erbinformation. Die DNA besteht aus zwei antiparallel verlaufenden Polynukleotidketten in Form einer Doppelhelix. Sie wird aus vier verschiedenen Nukleotid-Bausteinen gebildet, die sich durch die jeweils gebun denen Basen unterscheiden (Adenin=A, Cytosin=C, Guanin=G, Thymin=T).
In Abbildung 7.1 wird die Struktur der Doppelhelix schematisch dargestellt. Es bindet immer die 3‘-OH Gruppe des einen Nukleotids an die 5‘-Phosphatgruppe des folgenden Nukleotids. Daraus ergibt sich eine Polarität der Polynukleotidkette mit einem freien 3‘-OH-Ende und einem 5‘-Phosphat-Ende. Jede Kette wird hierbei als DNA-Strang bezeichnet. Zwei DNA-Stränge lagern sich zu einem Doppelstrang zusammen, indem die jeweiligen Basen Wasserstoffbrücken-Bindungen miteinander eingehen. Bei dieser komplementären Basenpaarung geht jeweils Guanin mit Cytosin, sowie Adenin mit Thymin eine stabile Verbindung ein. Um diese Basenpaarungen zu ermöglichen, winden sich die beiden DNA–Stränge in Form einer Doppelhelix umeinander. Die Stränge kommen hierbei antiparallel zu liegen, d. h. während der eine Strang in 5‘-3‘Richtung ausgerichtet ist, verläuft der andere Strang entgegengesetzt in 3‘-5‘ Richtung. Dies hat zur Folge, dass die Basen im Inneren der Doppelhelix punktsymmetrisch ausgerichtet sind und sich in einem energetisch stabilen gleichen Abstand zueinander befinden.
Replikation der DNA Bei der Zellteilung muss sichergestellt sein, dass die genetische Information ohne Verluste an die Tochterzelle weitergegeben wird (Band 2). Zu diesem Zweck wird eine Kopie der DNA erstellt, d. h. sie wird repliziert. Um die DNA-Replikation zu initiieren, muss die komplexe dreidimensionale Struktur der Doppelhelix aufgebrochen werden, um die jeweiligen Nukleotide den Replikationsenzymen zugänglich zu machen. Hierzu bindet das Enzym DNA-Helikase an die DNA und entwindet die Doppelhelix. Nach dem Aufbrechen der DNA bildet sich die Replikationsgabel aus, an der die Replikation
7 Bioinformatik und Systembiologie
|
207
der beiden Stränge in gegenläufiger Orientierung (5‘ -3‘) abläuft. An die freien Basen der einzelsträngigen DNA innerhalb der Replikationsgabel lagern sich unter Mitwirkung des Enzyms DNA-Polymerase komplementäre Nukleotide an. Dieses bindet die freien Nukleotide immer an die freie 3‘-OH-Gruppe des vorherigen Nukleotids. Aus diesem Grund kann die DNA-Polymerase am 3‘-5‘-Einzelstrang den neuen, komplementären Strang kontinuierlich, d. h. ohne Unterbrechung des Strangs, mit Fortschreiten der Replikationsgabel in 5‘–3‘-Richtung erzeugen. Bei dem anderen DNA-Einzelstrang muss die DNA-Polymerase den neuen DNA-Strang in entgegengesetzter Richtung polymerisieren. Durch diese diskontinuierliche Polymerisation entstehen kleine unverbundene DNA-Fragmente, die anschließend durch ein weiteres Enzym, die DNA-Ligase zu einem kontinuierlichen Strang verbunden werden.
7.2.2 Proteine
Proteine sind biologische Makromoleküle, die aus Aminosäuren aufgebaut sind und wichtige Funktionen als Zellbausteine, beim Stoffwechsel, beim Stofftransport und bei regulatorischen Pro zessen innerhalb einer Zelle übernehmen.
Aminosäuren – Bausteine des Lebens Proteine bestehen aus 20 verschiedenen Aminosäuren, die in Abhängigkeit ihrer chemischen Eigenschaften in vier Gruppen unterteilt werden: unpolare, polare, saure/azide und basische Aminosäuren. Die einzelnen Aminosäuren verknüpfen sich zu langen Ketten, den sog. Polypeptidketten, die entsprechend ihrer Aminosäurezusammensetzung spezifische Eigenschaften aufweisen.
Proteinstruktur Bei Proteinen unterscheidet man vier verschiedene Strukturebenen: die Primär-, Sekundär-, Tertiär- und Quartärstruktur. Die Abfolge der Aminosäuren in einer Polypeptidkette wird als Primärstruktur der Proteine bezeichnet. Je nach chemischer Eigenschaft sind einzelne Aminosäuren entweder wasserliebend (hydrophil), oder wassermeidend (hydrophob). Dies hat zur Folge, dass sich eine in Wasser befindliche Polypeptidkette so faltet, dass die hydrophoben Aminosäuren möglichst wenig Kontakt zum äußeren Medium (Wasser) haben und nach innen ausgerichtet sind, während die hydrophilen Aminosäuren nach außen gerichtet sind. Hieraus ergeben sich verschiedene Faltstrukturen wie die α-Helix und die β-Faltblatt-Struktur, die als Sekundärstruktur der Proteine bezeichnet werden. Je nach Länge der Polypeptidkette können mehrere dieser Sekundärstrukturen innerhalb einer Polypeptidkette vorkommen und sich ihren Eigenschaften entsprechend im Medium anordnen. Die räumliche Anordnung mehrerer α-Helices bzw. β-Faltblattstrukturen wird als Tertiärstruktur der Pro-
208 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
teine bezeichnet. Viele Proteine bestehen nicht aus einer einzelnen Polypeptidkette, sondern sind aus vielen verschiedenen Polypeptidketten mit ihren entsprechenden Faltungen zusammengesetzt. Die Zusammenlagerung dieser einzelnen Untereinheiten zu einem funktionellen Protein wird als Quartärstruktur bezeichnet.
7.2.3 Von der DNA zum Protein Um die auf der DNA gespeicherte Information in funktionelle Proteine zu übersetzen, sind viele Zwischenschritte notwendig. Zunächst muss der DNA-Abschnitt, welcher die Information für das spezifische Protein enthält, in eine transportable Form gebracht werden, was als Transkription bezeichnet wird. Diese kann aus dem Nukleus (Zellkern; Ort der DNA) in das Zytoplasma, den Ort der Proteinbiosynthese oder Translation transferiert werden. In der Translation wird die genetische Information von zytoplasmatischen Proteinen gelesen und in eine Abfolge von Aminosäuren übersetzt. Im Folgenden wird auf diese beiden essentiellen Schritte eingegangen.
Transkription Im Rahmen der Transkription wird die genetische Information von der Desoxyribonukleinsäure (DNA) auf die Ribonukleinsäure (messenger RNA) durch das Enzym RNA-Polymerase übertragen.
Durch die Transkription wird eine komplementäre Kopie des DNA-Leitstranges, welcher auch als codogener Strang bezeichnet wird, hergestellt. Als Gen wird ein DNA-Abschnitt bezeichnet, der die Grundinformation für ein funktionelles RNAMolekül enthält.
Innerhalb des Gens wird zwischen DNA-Sequenzen unterschieden, die für das spezifische Protein kodieren (open reading frame) und jenen, die genregulatorische Funktionen haben. Vor einem Gen liegt der Promotor, der als Startpunkt der Transkription eine spezifische DNA-Sequenz – die sog. TATA-Box (5‘-TATAAA-3‘) – enthält, an die sich das für die Transkription erforderliche Enzym RNA-Polymerase anlagert. Zunächst bildet sich ein Präinitiationskomplex, bestehend aus Transkriptionsfaktoren und RNA-Polymerase an der TATA-Box des Promotors. Ausgehend von diesem Präinitiationskomplex lagern sich weitere Transkriptionsfaktoren an und aktivieren die RNA-Polymerase. Diese transkribiert die DNA in RNA, indem sie in 3‘-5‘-Richtung an der DNA entlangwandert und das RNA-Molekül entsprechend in 5‘-3‘-Richtung synthetisiert. Hierbei werden die Basen der DNA (A-T-G-C) komplementär in die Basen der RNA (U-A-C-G) umgeschrieben (bei der RNA wird Uracil an Stelle von
7 Bioinformatik und Systembiologie
|
209
Thymin eingebaut). Der Abbruch der Transkription erfolgt an der Terminationssequenz der DNA. Das fertig synthetisierte RNA-Molekül wird als prä-mRNA (m von messenger) bezeichnet. Es enthält sowohl Exons (proteinkodierende Sequenzen) als auch Introns (nicht kodierende Sequenzen). Die prä-mRNA wird innerhalb des Zellkerns weiter prozessiert: Zum einen werden durch verschiedene Splicing-Enzyme die Intron-Sequenzen entfernt. Zum anderen wird die RNA durch weitere Prozessierungsschritte vor vorzeitigem Abbau durch intrazelluläre Enzyme geschützt. Die prozessierte mRNA (messenger-RNA, Boten-RNA) gelangt durch die Kernporen des Zellkerns in das Zytoplasma und wird dort an den Ribosomen zur Proteinbiosynthese genutzt.
Translation In der Translation wird die genetische Information (Basenabfolge) in eine Sequenz von Aminosäu ren übersetzt. Jedes Basentriplett (Codon) kodiert eine Aminosäure.
Da insgesamt 20 Aminosäuren existieren, jedoch nur 4 verschiedene Basen zur Codierung zur Verfügung stehen, kann eine Aminosäure nicht durch eine einzelne Base kodiert werden. Zwei Basen könnten aufgrund 42 = 16 nur 16 Aminosäuren kodieren. Eine Abfolge von drei Basen jedoch bietet mit 43 = 64 verschiedenen Kombinationsmöglichkeiten genügend Variationen, um alle Aminosäuren abzudecken. Die Aminosäuren werden durch Basentripletts (Codons) kodiert, bei denen bis zu 6 Tripletts für ein und dieselbe Aminosäure stehen. Dieser degenerierte genetische Code ist weniger anfällig für Fehler durch zufällige Basenaustausche: Die Aminosäure Phenylalanin wird beispielsweise durch die vier Basentripletts UUC, UUU, UUA und UUG kodiert. Ein fehlerhafter Austausch der dritten Base würde trotz einer Änderung des Tripletts nicht zu einer anderen Aminosäure führen. An die mRNA lagern sich zu Beginn der Translation Ribosomen an. Diese bestehen aus zwei Untereinheiten und erkennen die Translations-Startsequenz auf der mRNA mithilfe der tRNA (transfer-RNA). Die tRNA vermittelt während der Translation die richtige Aminosäure für das passende Basentriplett der mRNA. Hierfür besitzt jede tRNA ein bestimmtes Anticodon, bestehend aus 3 Basen, das komplementär zu einem aminosäurekodierendem Triplett auf der mRNA ist. Zusätzlich ist an der tRNA die für das Triplett passende Aminosäure gebunden. Die mit der Aminosäure Methionin beladene Start-tRNA enthält bspw. das Anticodon (UAC), welches komplementär mit dem Startcodon (AUG) auf der mRNA paaren kann. Die Verlängerung der Polypeptidkette um eine Aminosäure nach der anderen erfolgt jeweils in drei Schritten: Die mit der entsprechenden Aminosäure beladene tRNA bindet durch das Ribosom an die mRNA, die Aminosäuren werden durch das Ribosom enzymatisch miteinander
210 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
wachsende Polypeptidkette
Nukleus
Ribosom
Trp
Bindung der Aminosäure an die entsprechende tRNA
Aminosäure Phe
C U C
A A A
Gly
C C A
tRNA Anticodon
A G G U U U G G U
Codon Cap
mRNA
Poly(A )
Abb. 7.2: Translation der messenger-RNA (mRNA) in eine Polypeptidkette mittels tRNA und Ribo somen. Die mRNA weist zu deren Beginn und Ende zwei charakteristische Strukturen auf: Die CapStruktur ist eine Erkennungssequenz, die das Andocken des Ribosoms ermöglicht. Das Poly(A)-Ende schützt die mRNA vor enzymatischem Abbau und erleichtert deren Übergang vom Nukleus in das Cytoplasma.
verknüpft und die unbeladene tRNA verlässt das Ribosom, sodass eine neue, Aminosäure-beladene tRNA binden kann. Während der Verlängerung der Polypeptidkette wandert das Ribosom kontinuierlich auf der mRNA in 5‘-3‘-Richtung entlang, bis es auf ein Stopp-Triplett trifft. Ein Stopp-Triplett kodiert keine Aminosäure und führt zur Terminierung der Translation.
7.2.4 Gentechnische Methoden Wie bereits dargestellt, ist die jeweilige genetische Information für die individuelle Proteinausstattung einer Zelle essentiell. In der modernen Medizin und Industrie wird diese Erkenntnis genutzt, um Organismen durch verschiedenste Methoden hinsichtlich ihrer Funktion zu verändern oder „umzuprogrammieren“. Dadurch können beispielsweise – Bakterien, wie das Darmbakterium E. coli, zur Insulinproduktion eingesetzt werden, – Pflanzen resistenter gegen Schädlinge gemacht werden, – ertragreichere Gehölze erhalten werden.
7 Bioinformatik und Systembiologie
|
211
Die genannten Beispiele stellen nur eine kleine Auswahl von zahlreichen Applikationsmöglichkeiten der modernen Gentechnik dar. Dieses Kapitel soll anhand eines Beispiels verschiedene Methoden der Gentechnik vorstellen und erläutern, wie sich Organismen genetisch verändern lassen.
Fallbeispiel: Insulinproduktion im Bakterium Escherichia coli (E. coli) Bis in die 1980er-Jahre wurde Insulin für Diabetiker aus Schweinebauchspeicheldrüsen extrahiert. Durchschnittlich benötigte ein Diabetiker pro Woche die Insulinmenge einer vollständigen Schweine bauchspeicheldrüse. Bei den heute fast 300 Millionen insulinpflichtigen Diabetikern würde das einer jährlichen Anzahl von 1,5 Milliarden Schweinen entsprechen, sodass eine ausreichende Insulinver sorgung keinesfalls gewährleistet wäre. Dank Gentechnik lässt sich die weltweit benötigte Insulin menge jedoch inzwischen mithilfe gentechnisch veränderter Organismen, wie dem Darmbakterium E. coli, in Fermentationsprozessen herstellen. Die gentechnische Veränderung von E. coli lässt sich in einzelne Schritte einteilen: Isolierung des Zielgens Das Hormon Insulin wird von Zellen der menschlichen Bauchspeicheldrüse gebildet, deren DNA ex trahiert werden kann. Der gewünschte für Insulin kodierende DNA-Abschnitt wird mithilfe von DNAschneidenden Enzymen, sog. Restriktionsenzymen, aus der DNA isoliert. Durch die Anwendung der Polymerase-Kettenreaktion (PCR) kann unter Verwendung bestimmter DNA-Sequenzen (Primer) die spezifische DNA-Sequenz, welche für das Insulin kodiert, vervielfältigt werden. Transformation der Bakterien Nachdem die gewünschte DNA-Sequenz vermehrt wurde, wird sie mittels eines Vektors in das Bak terium eingeschleust. Als Vektor wird typischerweise ein Plasmid, d. h. ein kurzes ringförmiges DNAMolekül, verwendet. Dieses kommt natürlicherweise in Bakterien vor und dient diesen zur Weitergabe von Genen. Das Plasmid wird mithilfe von Restriktionsenzymen geöffnet und die gewünschte DNASequenz mittels DNA-Ligasen in das Plasmid eingefügt. Das fertige Plasmid kann über verschiedene Methoden wie Elektroporation oder Transformation mittels Kalziumchlorid in das Bakterium einge bracht werden. Bei der Elektroporation wird die bakterielle Zellmembran durch Anlegen einer elek trischen Spannung kurzfristig permeabilisiert und das im Medium befindliche Plasmid kann in das Bakterium eindringen. Das Plasmid enthält neben der gewünschten DNA-Sequenz noch weitere Ge ne für Antibiotikaresistenzen (Ampicillinresistenz- und Tetracyclinresistenzgene), mit deren Hilfe sich die Bakterien mit aufgenommenem Plasmid auf einem mit Antibiotika behandelten Nährboden leicht selektionieren lassen. Fermentation und Aufreinigung Die selektionierten E.-coli-Bakterien, welche das Plasmid mit der gewünschten Ziel-DNA enthalten, werden in Fermentationsprozessen vermehrt und produzieren das Insulin in Form von Fusionsprote inen. Um das Insulin zu erhalten, werden die Bakterien nach dem Vermehrungsprozess mechanisch zerstört und das Fusionsprotein nach weiteren Schritten der Spaltung, korrekten Faltung und Aufrei nigung zu Insulin aufgearbeitet.
Für weitere Einzelheiten und Erläuterungen zu den oben beschriebenen biologischgenetischen Grundlagen sei auf die angegebene weiterführende Literatur [Voet 2010, Alberts 2012] verwiesen.
212 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
7.3 Bioinformatik Wie bereits einleitend erläutert, werden in diesem Abschnitt vier verschiedene aktuelle Forschungsbereiche der Bioinformatik skizziert, wobei die Sequenzbioinformatik aufgrund ihrer Bedeutung für medizinische Fragestellungen etwas ausführlicher behandelt wird. In einem zweiten Abschnitt werden Probleme und Anwendungsbereiche der evolutionären Bioinformatik, der Genom- und der Strukturbioinformatik besprochen. Anschließend sollen zwei für Forschung und praktische Anwendungen unverzichtbare Werkzeuge erläutert werden, nämlich die spezialisierten Datenbanken und die Hochdurchsatzanalyse.
7.3.1 Sequenzbioinformatik Eine der ersten Fragestellungen in der Bioinformatik war die Analyse biologischer Sequenzen, insbesondere von Proteinen und Nukleinsäuren. Sie stellt bis heute ein wichtiges Anwendungsfeld dar, z. B. zur Untersuchung von funktionellen oder evolutionären Verwandtschaftsverhältnissen (Phylogenie). Weiterhin wird die Sequenzanalyse zur Aufklärung von Proteinfunktionen oder zur Planung molekularbiologischer Experimente wie bspw. das Design von Primern (kurze Nukleinsäuremoleküle) genutzt, die für die Sequenzierung oder die Polymerase-Kettenreaktion gebraucht werden. Im Rahmen dieses Abschnitts werden wir vor allem Ähnlichkeitsuntersuchungen durch optimale Anordnung von Sequenzen (Alignment) zueinander sowie die Datenbanksuche nach Sequenzähnlichkeit besprechen. Im Alignment wird die optimierte Anordnung zweier oder mehrerer Gen-Sequenzen zueinander aufgrund von Ähnlichkeitskriterien ermittelt. Algorithmen, die ein optimales Alignment finden, werden auch als Alignment-Verfahren bezeichnet.
Für Details sowie weitere hier nicht genannte Verfahren sei auf die genannten Lehrbücher am Ende dieses Kapitels [Durbin 1998; Mount 2004] verwiesen.
Paarweises Alignment Beim paarweisen Alignment wird die Anordnungen von Sequenzen zueinander betrachtet. Diese stellen jeweils eine geordnete Abfolge von Zeichen (Zeichenkette) über einem Alphabet dar. Das Alphabet für Nukleinsäuren umfasst die Zeichen für die vier Basen Adenin (A), Cytosin (C), Guanin (G) und Uracil bzw. Thymin (U bzw. T), während das Alphabet für Proteine aus einem Einbuchstaben-Code für die 20 universell in der Natur vorkommenden Aminosäuren besteht. Als Ähnlichkeitsmaß zweier Sequenzen kann z. B. die Hamming-Distanz verwendet werden. Diese zählt die Anzahl unterschiedlicher Zeichen in beiden Sequenzen. Für biologische Sequenzen wird in
7 Bioinformatik und Systembiologie
EISZEIT...... ...ZEITGLEICH xxx xxxxxx -EIS-ZEITZEITGLEICH x x x (a) -EIS... ZEIT... (b)
Insertion von „Z“ in Sequenz 2
|
213
Hamming-Distanz = 9
Edit-Distanz = 3
-EIS--ZEIT ZEITGLEICH x xxxx (c)
Edit-Distanz = 5
ZEIT... -EIS... Deletion von „Z“ aus Sequenz 2
Abb. 7.3: Distanzfunktionen zwischen Sequenzen. (a) Hamming-Distanz und Edit-Distanz für ein Sequenzpaar. (b) Insertionen und Deletionen sind von der Wahl der Referenzsequenz abhängig. (c) Distanzen sind abhängig von der relativen Anordnung der Sequenzen zueinander.
der Regel die Edit-Distanz eingesetzt. Sie kennt neben Übereinstimmung (Match) und Nichtübereinstimmung (Mismatch) auch die Operationen Einfügung (Insertion) und Fehlstelle (Deletion), wobei letzteres Lücken in eine der beiden Sequenzen einfügt (Abb. 7.3a). Da im Allgemeinen die Reihenfolge der Sequenzen beliebig ist und das Einfügen eines Zeichens in eine Sequenz dem Löschen eines Zeichens aus der zweiten Sequenz entspricht (Abb. 7.3b), spricht man auch von Indels, d. h. einer Verschmelzung aus Insertion sowie Deletion. Die Edit-Distanz entspricht eher der biologischen Evolution von Sequenzen, die sowohl durch Basenaustausche (Mismatch) als auch durch Insertionen und/oder Deletionen gekennzeichnet ist. Ein weiterer in der Evolution verwendeter Mechanismus, die Rekombination, wird dagegen von Sequenzvergleichsverfahren nicht abgebildet. Sowohl die Hamming-Distanz als auch die Edit-Distanz sind abhängig von der Anordnung der Sequenzen zueinander (Abb. 7.3c). Verfahren, die Sequenzen so anordnen, dass eine Distanzfunktion minimal bzw. ein Ähnlichkeitsmaß maximal wird, bezeichnet man als Alignment-Verfahren. Die Ähnlichkeit kann dabei über die gesamte Länge beider Sequenzen optimiert werden (globales Alignment), oder nur über Abschnitte der größten Ähnlichkeit (lokales Alignment). Weiterhin unterscheidet man Verfahren, die Heuristiken genannt werden. Diese lösen das Alignment-Problem nicht notwendigerweise optimal, liefern aber für viele Fälle eine gute oder sogar die bestmögliche Antwort. Heuristiken haben eine bessere Laufzeitkomplexität und eignen sich daher für Anwendungen, in denen die Sequenzen entweder sehr lang sind (Genomvergleiche), oder in denen sehr viele Alignments gleichzeitig berechnet werden müssen (Datenbanksuche, s. u.). Verfahren, die das Alignment-Problem optimal lösen, verwenden die Technik der dynamischen Programmierung, z. B. den Needleman-Wunsch-Algorithmus (globales Alignment) oder den Smith-Waterman-Algorithmus (lokales Alignment). Für Details sei auf die weiterführende Literatur verwiesen [Waterman 1995].
214 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
Alignment-Verfahren sowie die dazu verwendeten Ähnlichkeitsmaße (ScoreFunktionen) machen implizit Annahmen. So wird z. B. jede Position in einer Sequenz oder in einem Alignment als unabhängig von den Nachbarpositionen angenommen. Das ist in der Realität oft nicht der Fall und stellt somit eine Vereinfachung dar. Weiterhin werden alle Positionen in einer Proteinsequenz als äquivalent angesehen, was entsprechend dem Modell der neutralen Evolution auf der Annahme einer konstanten Mutationsrate beruht. In der Realität gibt es dagegen strukturell und funktionell wichtige Aminosäuren, deren Erhalt für den Organismus von besonderer Bedeutung ist. Solange ihre Zahl aber nicht zu hoch ist, bietet das Modell der neutralen Evolution eine gute Näherung.
Multiples Alignment Häufig müssen mehrere Sequenzen zueinander angeordnet werden. Dieses Vorgehen bezeichnet man als multiples Sequenz-Alignment. Die optimale Lösung für eine gegebene Score-Funktion hat exponentielle Komplexität in Anhängigkeit von der Anzahl der Sequenzen und ist deshalb für praktische Probleme meist nicht geeignet. Am häufigsten werden progressive Alignment-Verfahren angewendet. Dabei werden zunächst alle paarweisen Sequenzvergleiche durchgeführt. Als Ergebnis hiervon erhält man eine Distanzmatrix aller Sequenzen zueinander, mit deren Hilfe ein sogenannter Leitbaum (guide tree) erstellt wird. Dieser wird dann genutzt, um progressiv zunächst die ähnlichsten Sequenzen zueinander anzuordnen und das Alignment dann schrittweise zu erweitern. Da dieses Verfahren Schwächen aufweist, wurden alternative Methoden entwickelt. Das Divide-and-Conquer-Verfahren (DCA) führt in vergleichsweise kurzer Zeit optimale multiple Sequenz-Alignments für kurze Stücke der anzuordnenden Sequenzen durch. Das Finden der optimalen Schnittstellen in den einzelnen Sequenzen ist jedoch schwierig, sodass hierfür eine Heuristik benutzt wird. Der abhängig vom Alignment zu optimierende Score ist meistens als Sum of Pairs-Score gegeben, d. h. für jedes Paar von Sequenzen wird ein paarweiser Score an einer Position des Alignments berechnet, und diese über alle Paare und alle Positionen des Alignments summiert.
Score-Matrizen Score-Funktionen verwenden Inkremente für jedes Paar von Zeichen, die in einem Alignment aufeinander treffen können. Diese Inkremente werden in Score-Matrizen gespeichert. Für Proteine haben sie die Dimension 20 × 20, d. h. für jedes Paar von Aminosäuren wird ein einzelner Wert festgelegt. Die Wahl einer geeigneten Score-Matrix ist z. B. für das Auffinden entfernt verwandter Proteine in Datenbanken essenziell. Hintergrund dessen ist die unterschiedliche Häufigkeit von Aminosäureaustausche je nach ihren physikochemischen Eigenschaften. Kleine, aliphatische Aminosäuren werden z. B. häufig gegeneinander ausgetauscht, da sie sich in ihrer Funktion gegen-
7 Bioinformatik und Systembiologie
|
215
seitig ersetzen können. Ein Austausch gegen eine große aromatische Aminosäure wie z. B. Tryptophan ist dagegen sehr unwahrscheinlich. Häufig verwendet man zur Quantifizierung des beobachteten Anteils von Austauschen den Begriff des evolutionären Abstands. Unter dem evolutionären Abstand versteht man den beobachteten Anteil an Austauschen zwi schen zwei Sequenzen, der in PAM (percent accepted mutations) gemessen wird. Ein Abstand von 20 PAM bedeutet, dass 20 von 100 Aminosäuren einer bestimmten Proteinsequenz in einer weite ren Sequenz durch andere Aminosäuren ersetzt sind.
Bei langen evolutionären Zeitabständen können auch mehrere Austausche hintereinander stattfinden oder Rücksubstitutionen, bei denen im Endergebnis kein Unterschied zu beobachten ist, obwohl zwei Mutationen nacheinander stattgefunden haben. Score-Matrizen werden aus empirisch bestimmten Austauschwahrscheinlichkeiten berechnet.
Gapkosten-Modelle Für Insertionen und Deletionen werden in Score-Funktionen Strafbeiträge, sogenannte Gapkosten verwendet. Je länger eine Insertion oder Deletion ist, desto höher fallen die Gapkosten aus. Es hat sich jedoch nicht als vorteilhaft erwiesen, die Strafbeiträge linear ansteigen zu lassen. In der Praxis verwendet man meist ein affin-lineares Modell, bei dem sich die Gapkosten aus einem Beitrag zum Eröffnen einer Lücke (gap opening cost) und einem von der Länge der Lücke abhängigen Beitrag für ihre Erweiterung (gap extension cost) zusammensetzen. Die gap opening cost ist typischerweise 5 bis 10 Mal höher als die gap extension cost. Dies ist der Fall, weil Insertionen oder Deletionen in der Evolution vergleichsweise selten entstehen, sich aber nach deren Entstehung leicht verlängern, da sie oftmals in Regionen einer Proteinstruktur vorkommen, in denen ihr Einfluss auf die Proteinfaltung oder -funktion minimal ist.
7.3.2 Evolutionäre Bioinformatik, Genombioinformatik und Strukturbioinformatik Neben der Sequenzbioinformatik nehmen die evolutionäre Bioinformatik, die Genombioinformatik und die Strukturbioinformatik immer mehr an Bedeutung zu.
Evolutionäre Bioinformatik Evolutionäre Verwandtschaftsbeziehungen können aus Sequenzdaten mithilfe der schließenden Statistik und mathematischer Modelle der Evolution ermittelt werden. Dies ist für die Evolutionsbiologie ein unverzichtbares Werkzeug, da sich die Vorgänge auf nicht beobachtbaren Zeitskalen abspielen. Universelle Verwandt-
216 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
schaftsbeziehungen, wurden vor dem 19. Jahrhundert noch anhand der Ähnlichkeit beobachtbarer Merkmale aufgestellt; heute werden diese ausschließlich durch die Ähnlichkeit molekularer Sequenzen, insbesondere der ribosomalen RNA definiert. Evolution findet auf Ebene der DNA durch zufällige Veränderung statt. Hierdurch wird innerhalb einer Population von Individuen genetische Variabilität erzeugt, die sich auch in unterschiedlicher Anpassung an gegebene oder sich ändernde Umweltbedingungen zeigt. Man spricht dann von Fitness. Durch den Mechanismus der Selektion werden genetische Varianten mit verbesserter Fitness bevorzugt und setzen sich langfristig in der Population durch. Die moderne Evolutionstheorie ist eine Synthese aus der Darwinschen Lehre von der Entwicklung der Arten, der Mendelschen Genetik, den Erkenntnissen der Molekularbiologie sowie der Populationsgenetik. Genetische Veränderungen sind vor allem Basenaustausche, also Punktmutationen, die wegen der Degeneration oder Mehrdeutigkeit des genetischen Codes nur zum Teil Änderungen in der Aminosäure-Sequenz der kodierten Proteine bewirken. Weiterhin werden kleinere und größere Insertionen und Deletionen beobachtet, sowie auch genetische Rekombination zwischen weit entfernten Orten im Genom. Darüber hinaus wird beim horizontalen Gentransfer genetisches Material aus einem Organismus auf einen anderen übertragen, was insbesondere bei Bakterien weit verbreitet ist. Verwandtschaftsbeziehungen werden oft in Form von Bäumen dargestellt. Ein phylogenetischer Baum ist ein Spezialfall eines gerichteten azyklischen Graphen, bei dem alle Knoten entweder eine eingehende und zwei ausgehende Kanten (innere Knoten) oder nur eine eingehende Kante (Blätter) aufweisen.
Das Problem der Ermittlung von Verwandtschaftsverhältnissen kann somit auf die Erstellung einer Baumstruktur (Topologie) reduziert werden, welche die Verwandtschaftsverhältnisse am besten wiedergibt (Abb. 7.4). Als Eingabe für Algorithmen, mit denen man solche phylogenetischen Bäume (aus altgr. phylogenetisch = stammesgeschichtlich) erstellen kann, werden multiple Sequenz-Alignments verwendet. Maximum-Parsimony-Verfahren versuchen Bäume mit minimalen Änderungen entlang der Äste zu rekonstruieren. Dieses Prinzip der „maximalen Sparsamkeit“ (wörtliche Übersetzung für maximum parsimony) funktioniert gut für nahe verwandte Proteine, die sich noch nicht durch viele Aminosäureaustausche unterscheiden. Für weiter entfernte Proteine können distanzbasierte Verfahren eingesetzt werden. Hierbei werden paarweise Distanzen zwischen Proteinen mithilfe von Score-Matrizen und ein Baum aus der Distanzmatrix geschätzt, z. B. durch das Neighbor-Joining-Verfahren. Den Distanzfunktionen liegen bereits mathematische Evolutionsmodelle zugrunde, die aber durch empirische Bestimmung von Austauschwahrscheinlichkeiten ergänzt sind. Vollends auf Modellrechnungen beruhen schließlich Maximum-Likelihood-Verfahren, die solche Bäume finden, die eine statistische Plausibilitätsfunktion (likelihood, Wahrscheinlichkeit) optimieren.
7 Bioinformatik und Systembiologie
|
217
Wurzel Zeit A
B
C
D
(a)
innerer Knoten
Ancestor von A und B
E
A (b)
B
D
E
C
Blatt
Abb. 7.4: Das Prinzip phylogenetischer Bäume. (a) Beim ungewurzelten Baum gibt die Topologie die Verwandtschaftsbeziehungen qualitativ wieder. (Evolutionäre) Distanzen zwischen Sequenzen wer den durch unterschiedliche Astlängen wiedergegeben. (b) Eine gewurzelte Darstellung desselben Baumes. Durch die Wurzel (Ursprung) wird eine zeitliche Abfolge evolutionärer Ereignisse definiert. Ein historischer Vorläufer zweier Taxa (molekularer Spezies) wird als Ancestor bezeichnet.
Genombioinformatik Die Genombioinformatik führt alle Informationen über ein Genom, die darin kodierten Proteine und Ribonukleinsäuren sowie regulatorische Elemente zusammen.
Die Gesamtheit aller Arten unterteilt sich in Eukaryoten, deren Zellen komplexe, membranumhüllte Strukturen wie Zellkern oder Mitochondrien enthalten, sowie Prokaryoten ohne Zellkern, bei denen die DNA frei im Cytoplasma liegt (Eubakterien und Archaebakterien). Eukaryoten haben eine durch viele Introns unterbrochene Genstruktur. Deshalb ist eine eindeutige Zuordnung von genomischer Sequenz und proteinkodierender Sequenz nur dann möglich, wenn die Sequenz der zugehörigen mRNA experimentell in voller Länge (Exons plus Introns) bestimmt wurde. Experimentell ist es schwierig, ungesplicte RNAs zu isolieren. Seit längerem wird aber cDNA (complementary DNA) durch reverse Transkription aus RNA gewonnen, welche die exprimierten Sequenzen enthält. Solche Sequenzstücke bezeichnet man als EST (expressed sequence tags), und sie werden derzeit im Hochdurchsatz sequenziert. Durch die große Menge an sequenzierten ESTs hofft man, die fehlenden Informationen ausgleichen zu können. ESTs enthalten wertvolle Informationen, z. B. über Sequenzpolymorphismen oder die Transkriptionsstärke eines Gens in bestimmten Geweben. Außerdem werden von einem Gen oft mehrere verschiedene mRNAs abgelesen, die sich durch unterschiedliche Kombinationen der Exons unterscheiden (alternatives Splicing). Die zur Analyse von ESTs notwendigen Algorithmen müssen mit einer hohen Fehlerrate zurechtkommen. Wo keine Information über exprimierte Sequenzen vorliegt, können proteinkodierende Bereiche im Genom auch durch Computervorhersage bestimmt werden. Hierzu
218 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
kann man alle Eigenschaften von Nukleinsäuren heranziehen, die sich zwischen proteinkodierenden und nicht kodierenden Bereichen unterscheiden, in der Praxis meist die Frequenz von Hexanukleotiden. Diese können zum Training von Maschinenlernverfahren eingesetzt werden, die dann auf bislang nicht charakterisierten Genombereichen kodierende Sequenzstücke vorhersagen. Als Verfahren verwendet man entweder Künstliche Neuronale Netze oder Hidden-Markov-Modelle (Kapitel 6). Nicht kodierende RNA-Abschnitte sowie die genauen Grenzen der kodierenden Sequenzabschnitte lassen sich mit derzeit verfügbaren Methoden nicht zufriedenstellend vorhersagen.
Strukturbioinformatik Räumliche Proteinstrukturen können experimentell durch Röntgenbeugung an Einkristallen oder durch Magnetresonanzverfahren ermittelt werden. Die experimentelle Bestimmung der Proteinstruktur ist aufwändig und liegt bislang nur für eine kleine Zahl von Proteinen vor. In diesem an Bedeutung wachsenden Feld werden inzwischen auch erfolgreich Computerverfahren eingesetzt. Die Strukturbioinformatik untersucht den Zusammenhang zwischen der eindimensionalen Prote insequenz und der dreidimensionalen Struktur der Proteine.
Die Strukturbioinformatik ist ein Grenzbereich zwischen Biophysik und Strukturbiologie und wird hier nur ansatzweise skizziert. Die Faltung der Aminosäuresequenz in funktionsfähige Proteinuntereinheiten erfolgt teilweise mithilfe von Hilfsproteinen (Chaperonen) während und nach der Proteinsynthese. Fehlgefaltete Proteine werden über das Ubiquitin-Proteasom-System wieder abgebaut, was wesentlich zur Qualitätskontrolle der zellulären Abläufe beiträgt. Dennoch sind bis heute alle Bemühungen gescheitert, universelle Prinzipien der Proteinfaltung in Form von Proteinsequenzmustern zu beschreiben. Die Vorhersage einer Struktur ist wegen der vielen Freiheitsgrade bei der Faltung außerordentlich kompliziert und nur in Grenzen möglich. Dabei sind verschiedene Kräfte zu berücksichtigen, welche die Proteinfaltung beeinflussen: elektrostatische Wechselwirkungen zwischen geladenen Aminosäuren, Van-Der-Waals-Kräfte, hydrophobe Wechselwirkungen und quantenmechanische Beiträge aus abweichenden Bindungsgeometrien. Da die Ab-initio-Vorhersage (ohne Vorinformation) der Proteinstruktur allein aus der Sequenz nur mit großen Einschränkungen und unter hohem Rechenaufwand möglich ist, werden alternative Verfahren eingesetzt, bei denen zumindest die Struktur eines homologen (verwandten) Proteins bekannt ist. Durch SequenzStruktur-Alignment werden zunächst die Aminosäureketten des zu modellierenden Proteins über die bekannte Struktur des verwandten Proteins gelegt. Bereiche, die nur in dem zu modellierenden Protein vorkommen (Insertionen) werden mit einer Daten-
7 Bioinformatik und Systembiologie
|
219
bank von Loop-Strukturen abgeglichen, um ein Start-Strukturmodell zu erhalten. In einem anschließenden Homology-Modelling-Schritt wird die Energie des Strukturmodells durch kleine Änderungen an der Struktur minimiert. Wenn die Struktur eines Proteins bekannt ist, kann dieses Verfahren auch zur Ermittlung der Struktur von Proteinen genutzt werden, die aufgrund einer Mutation einen Aminosäureaustausch enthalten. Die Struktur eines Proteins enthält oft wichtige Hinweise auf seine Funktionsweise, insbesondere bei molekularen Einheiten, wie dem bakteriellen Flagellenmotor oder der mitochondrialen ATP-Synthase. Die Proteinstruktur erlaubt auch Aussagen über die Auswirkung von Aminosäureänderungen durch natürliche Variation oder artifiziell induzierte Punktmutationen in der DNA.
7.3.3 Datenbanken Die experimentell gewonnenen Massendaten werden systematisch in Datenbanken gespeichert und stehen zu Forschungszwecken für weitere Analysen zur Verfügung (Tab. 7.1). Grundlage bioinformatischer Untersuchungen sind Sequenzdatenbanken, die Nukleinsäure- bzw. Aminosäuresequenzen von DNA, RNA oder Proteinen enthalten. Drei Datenbanken GenBank, EMBL-Bank (European Molecular Biology Laboratory-Bank) und DDBJ (DNA Data Bank of Japan) archivieren DNA-Sequenzen und gleichen alle 24 Stunden ihre Daten miteinander ab. Genomdatenbanken haben das Ziel, Nukleinsäuresequenzen bestimmter Gene einer Art in den Kontext seiner gesamten genetischen Information (Genom) zu stellen. So können z. B. Veränderungen wie Mutationen in ihrer Auswirkung besser verstanden werden, da sie proteinkodierenden Genabschnitten zuzuordnen sind. Auch die Architektur des Genoms einer Art wird so besser verständlich, sei es bei der Untersuchung der Anordnung bestimmter Gene nebeneinander oder bei der Frage, welche Abschnitte außerhalb von Gensequenzen regulatorische Funktionen übernehmen. Beispiele für Genomdatenbanken sind ENTREZ-Genomes und die ENSEMBL-Datenbank. In den Genexpressionsdatenbanken werden Massendaten abgelegt, die in Microarray-Experimenten oder durch RNA-Sequenzierung erhalten wurden. Beispiele hierfür sind Arrayexpress oder die Gene-Expression-Omnibus (GEO)-Datenbank. In Interaktionsdatenbanken wie DIP (Database of Interacting Proteins) oder IntAct werden Daten über die Interaktionen von Proteinen abgelegt. PathwayDatenbanken (z. B. KEGG, Kyoto Encyclopedia of Genes and Genomes) enthalten metabolische Pathways, Signaltransduktionswege und andere funktionelle Module biologischer Prozesse. Organismenspezifische Datenbanken (z. B. BIOCYC) enthalten die Daten der metabolischen Netzwerke und Genome einzelner Organismen. Beispiele für Datenbanken mit organ- und krankheitsbezogenen Informationen sind OMIM (Online Mendelian Inheritance in Man), Cancer Gene (CENSUS krebsassoziierte Gene) und ENDONET (endokrine Netzwerke).
Institution
National Center for Biotechnology Information (NCBI)
European Molecular Biology Laboratory
DNA Data Bank of Japan
Kanehisa Laboratories
National Center for Biotechnology Information (NCBI)
Wellcome Trust Sanger Institute and European Bioinformatics Institute
European Bioinformatics Institute
National Center for Biotechnology Information (NCBI)
Datenbank
GenBank
EMBL-Bank
DDBJ
KEGG
ENTREZ-Genomes
ENSEMBL-Datenbank
ArrayExpress
Gene-Expression-Omnibus (GEO)-Datenbank
Tab. 7.1: Datenbanken zum Einsatz in der Bioinformatik.
Genexpressionsdaten aus Microarray- und Hochdurchsatzse quenzierungs-Studien
Genexpressionsdaten aus Microarray- und Hochdurchsatzse quenzierungs-Studien
Datenbank mit der Sequenz des vollständigen Genoms verschiedener Organismen
Datenbank mit der Sequenz des vollständigen Genoms verschiedener Organismen
Datenbank über Stoffwechselwege, Gene, biologische Systeme und die Struktur von Biomolekülen
Datenbank mit DNA-Nukleotidsequenzen
Datenbank mit DNA- bzw. RNANukleotidsequenzen
annotierte Sammlung aller öffentlich verfügbaren DNA-Sequenzen
Inhalt
http://www.ncbi.nlm.nih.gov/geo
https://www.ebi.ac.uk/arrayexpress/
http://www.ensembl.org
http://www.ncbi.nlm.nih.gov/genome
http://www.genome.jp/kegg
http://www.ddbj.nig.ac.jp
http://www.ebi.ac.uk/ena
http://www.ncbi.nlm.nih.gov/genbank
URL [Stand: 30.01.15]
220 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
Institution
University of California, Los Angeles
European Bioinformatics Institute
SRI International
National Center for Biotechnology Information (NCBI)
Universitätsmedizin Göttingen
National Center for Biotechnology Information (NCBI)
Memorial Sloan-Kettering Cancer Center & University of Toronto
Memorial Sloan-Kettering Cancer Center & University of Toronto
European Bioinformatics Institute
Datenbank
DIP
IntAct
BioCyc
OMIM
ENDONET
ENTREZ-System
Pathway Commons
Pathguide
BioModels
Tab. 7.1 (Forts.): Datenbanken zum Einsatz in der Bioinformatik.
Datenbank mit quantitativen In-silico-Modellen biologischer Prozesse
umfassende Sammlung von frei zugänglichen biologischen Datenbanken
Datenbank zu biologischen Netzwerken verschiedener Organismen (Genregulation, Signalwege und Metabolismus)
datenbankübergreifende Suchanfragen in viele Datenbanken aus den Gesundheitswissenschaften
Datenbank zum endokrinen Netzwerk
umfassendes Kompendium humaner Gene und genetischer Phänotypen
Sammlung von Datenbanken zum Genom, zu Signalwegen und Stoffwechselwegen
Datenbank mit Molekül-Interaktionen
experimentell ermittelte Daten zu Interaktionen zwischen Proteinen
Inhalt
http://www.ebi.ac.uk/biomodels-main
http://www.pathguide.org
http://www.pathwaycommons.org
http://www.ncbi.nlm.nih.gov/gquery
http://endonet.bioinf.med.uni-goettingen.de/
http://www.ncbi.nlm.nih.gov/omim
http://biocyc.org
http://www.ebi.ac.uk/intact
http://dip.doe-mbi.ucla.edu
URL [Stand: 30.01.15]
7 Bioinformatik und Systembiologie |
221
222 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
In der Bioinformatik und der Systembiologie spielt die Datenintegration eine wichtige Rolle. Das vom National Center for Biotechnology Information (NCBI) betriebene ENTREZ-System bietet beispielsweise gleichzeitig Zugriff auf insgesamt 38 Datenbanken und stellt Analysewerkzeuge zur Verfügung. Bei Pathway Commons handelt es sich um einen Data-Warehouse-Ansatz zur Aggregation von Daten aus Pathway- und Interaktionsdatenbanken (Kapitel 5). Zur Visualisierung und Analyse der Daten wird das Programm Cytoscape verwendet. Bei Pathguide findet sich eine umfangreiche Zusammenstellung von Pathway-Datenbanken, die nach Themenbereichen kategorisiert sind (Tab. 7.1).
Datenbanksuche Bei der Suche in Nukleinsäure- oder Proteinsequenzdatenbanken werden mit einer Suchsequenz (query) ähnliche oder identische Sequenzen ermittelt. Hierzu wird eine hohe Zahl paarweiser lokaler Sequenz-Alignments berechnet und die besten Treffer ausgegeben. Die Komplexität des optimal arbeitenden Smith-Waterman-Algorithmus zur Lösung des Alignment-Problems ist l × m, wenn l die Länge der Suchsequenz und m die Anzahl aller in der Datenbank vorhandenen Zeichen ist. Damit ist dieses Verfahren für eine zeiteffektive Datenbanksuche ungeeignet. Hierfür werden die in diesem Zusammenhang besseren heuristischen Verfahren BLAST (Basic Local Alignment Search Tool) und FASTA eingesetzt. Diese liefern meist gute Ergebnisse, sind aber nicht sensitiv genug, um entfernt verwandte Proteine mit hoher Sicherheit zu finden. Weiterentwicklungen wie PSI-BLAST (Position-Specific Iterated BLAST) [Altschul 1997] oder PHI-BLAST (Pattern Hit Initiated-BLAST) [Zhang 1998] bieten Lösungsansätze für dieses Problem. Mit der zunehmenden Verbreitung von Datenbanksuchmaschinen trat das Problem der statistischen Bewertung der Treffer in einer Datenbank auf, da Suchverfahren wie BLAST oder FASTA nur einen Score in absoluten Einheiten zurückgeben. Je nach Größe und Zusammensetzung der Datenbank können Scores in einer bestimmten Höhe aber auch zufällig auftreten. Statistische Maße wie beispielsweise der E-Wert und der P-Wert beschreiben die Signifikanz des Ergebnisses einer Datenbanksuche. Der E-Wert einer Datenbankrecherche beschreibt den Erwartungswert für die Zahl an Se quenz-Alignments aus einer Datenbanksuche in zufällig zusammengesetzten Datenbanken, die den gleichen oder einen höheren Score als ein gefundenes Alignment aufweisen. Der P-Wert einer Datenbankrecherche gibt die Wahrscheinlichkeit an, mit der ein Alignment mit gleichem oder höherem Score zufällig gefunden wird.
Für verwandte Proteine ist der E-Wert klein, typischerweise kleiner als 10−6 . Die Bewertung der Treffer einer Datenbanksuche ist komplex und erfordert Erfahrung sowie gute Kenntnisse über Struktur und Funktion des in der Suchsequenz kodierten Proteins.
7 Bioinformatik und Systembiologie
|
223
7.3.4 Analyse hochdimensionaler Daten aus der Molekulargenetik Moderne Verfahren der Molekulargenetik sind in der Lage, hochdimensionale Informationen über den Zustand von Biomolekülen in einer Zelle zu liefern. Ein Teil dieser Verfahren beruht auf Hybridisierung, bei der eine spezifische Paarung von einzelsträngigen Nukleinsäuren mit einer komplementären Sequenz erstellt wird. Dabei werden Sequenzstücke, sog. Sonden, in einer rechteckigen Gitteranordnung (Array) auf einen festen Träger aufgebracht oder direkt an der Oberfläche synthetisiert. Durch Fortschritte bei der dabei eingesetzten Robotik können bis zu 1 000 000 Fragmente auf der Fläche weniger Quadratzentimeter mit Abständen im MikrometerBereich angeordnet werden. In einer typischen Anwendung werden RNA-Fragmente mit Fluoreszenzfarbstoffen markiert und mit einem solchen Microarray hybridisiert. Nach mehreren Prozessierungs- und Waschschritten können dann spezifisch gebundene Fragmente anhand ihres Fluoreszenzsignals identifiziert und quantifiziert werden (Abb. 7.5). Diese Technik wird für die Bestimmung des Expressionsprofils von mRNAs und microRNAs eingesetzt, d. h. zur Messung der relativen Konzentration vieler zehntausend verschiedener mRNAs oder microRNAs. Diese Technik gehört damit in den Bereich der Transkriptomik, welche sich mit der Analyse der Expressionsstärke der Gene beschäftigt, was in seiner Gesamtheit als Transkriptom bezeichnet wird. Weitere Anwendungen der Array-Technologie sind die Analyse von Veränderungen der Kopienzahl einzelner DNA-Abschnitte in Tumorzellen mittels aCGH (array-based Comparative Genome Hybridization) sowie die Aufklärung der Bindestellen DNA-bindender Proteine. Bei diesen Verfahren werden je untersuchter Probe zwischen mehreren zehntausend und mehreren hunderttausend Variablen gleichzeitig bestimmt, sodass die weitere Verarbeitung und Analyse der Daten nur computergestützt möglich ist. Der erste Schritt dabei ist die Analyse der Fluoreszenzbilder mit Segmentierung der Signale, Zuordnung eines Signals zu einer definierten Position im Array sowie die Quantifizierung der Signale. Die hierfür notwendigen Bildanalyseprogramme sind im Allgemeinen auf den jeweiligen Fluoreszenzscanner optimiert und werden mit ihm zusammen als Geräteeinheit geliefert. Die weitere Verarbeitung der Daten kann mit einer Vielzahl von Programmpaketen erfolgen, die unterschiedliche Verfahren der multidimensionalen Statistik und des Maschinenlernens für diese Art von Daten implementieren. Neben Paketen wie DCHIP für Affymetrix-Microarrays sind dies vor allem die freie Statistik-Umgebung R und die dafür erhältlichen Programmbibliotheken in Bioconductor. Ein wichtiger Schritt bei der Verarbeitung hochdimensionaler Daten ist die Qualitätskontrolle. Dabei werden verschiedene statistische Parameter, Verteilungen etc. erfasst, um sicherzustellen, dass zwischen verschiedenen Messungen in einer Serie keine systematischen, technisch bedingten Unterschiede (Bias) bestehen. Solche Unterschiede können ein Ergebnis derart verzerren, dass die Ermittlung der eigentlich gesuchten biologischen Unterschiede in einem Experiment nicht mehr möglich ist.
224 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
Gewebeprobe
Referenzgewebe
RNA
reverse Transkription zu cDNA und Markierung mit Farbstoff
Chip-Hybridisierung
Gen 1
Gen 2 cDNA-Chip
Auslesen mit Fluoreszenzscannern Datenauswertung Abb. 7.5: Schema des Microarray-Verfahrens zur Bestimmung der Expression eines Gens.
Wegen der großen Zahl an Variablen können sich auch kleine systematische Unterschiede zu großen Effekten addieren. An die Qualitätskontrolle schließt sich die Normalisierung der Daten an. Hierbei werden systematische Unterschiede, die sich beispielsweise durch Unterschiede in der Menge des eingesetzten Materials ergeben, rechnerisch korrigiert. Oft beinhaltet die Normalisierung auch eine varianzstabilisierende Transformation der Daten. Darüber hinaus können Werte von Sonden für das gleiche Biomolekül miteinander verrechnet werden, was als Summation bezeichnet wird. Für alle Schritte der Normalisierung werden robuste statistische Verfahren eingesetzt, die sich durch einzelne Ausreißer nicht beeinflussen lassen.
7 Bioinformatik und Systembiologie
|
225
Bei geplanten Experimenten werden zwei oder mehrere Gruppen untersuchter Proben miteinander verglichen. Beispiele wären der Vergleich von behandelten Tieren gegen eine Kontrolltiergruppe oder von stimulierten gegen unstimulierten Zellen. Zur Ermittlung differentiell exprimierter Gene in den durch Transkriptomik-Verfahren untersuchten Gruppen werden häufig statistische Tests eingesetzt: T-Test, F-Test, ANOVA. Die gebräuchlichen Tests sind oft modifiziert, um der besonderen Situation tausender paralleler Tests bei nur wenigen Beobachtungen der gemessenen Variablen Rechnung zu tragen. Von größerer Bedeutung als die Auswahl des korrekten Tests ist zudem die Korrektur für multiples Testen, welche die Fehlerwahrscheinlichkeiten (P-Wert) eines Tests für die Anzahl parallel getesteter Hypothesen korrigiert. Näheres siehe weiterführende Literatur [Köhler 2012]. In einigen Fällen werden Gruppen von biologischen Proben untersucht, zwischen denen Unterschiede vermutet werden, ohne dass die Zielwerte ausdrücklich bekannt sind. In diesen Fällen helfen sog. unüberwachte Lernverfahren (unsupervised learning), die Gruppenstruktur zu erkennen. Am weitesten verbreitet sind Clusterverfahren, in denen eine Distanzmatrix zwischen den biologischen Proben zur Gruppeneinteilung verwendet wird. Agglomerative Clusterverfahren wie das hierarchische Clustering erlauben in eine beliebige Zahl von Gruppen zu unterteilen, da ein Dendrogramm Ähnlichkeit der Proben zueinander mittels einer Baumstruktur beschreibt und an jeder Stelle in Cluster zerschnitten werden kann. Partitionierende Clusteralgorithmen, z. B. das k-Means-Verfahren, liefern dagegen eine vorherbestimmte Zahl von Clustern. Hierarchische Clusterverfahren werden häufig eingesetzt, um die Zeilen und Spalten einer Datenmatrix nach Ähnlichkeit zu sortieren; die Werte werden dann in einer farbkodierten Karte dargestellt, die als Heatmap bezeichnet wird (Abb. 7.6). Weitere statistische Verfahren werden in Kapitel 6 beschrieben. Zu Details der statistischen Verfahren sei auch auf die weiterführende Literatur [Köhler 2012] verwiesen. Sind die Zielwerte der Gruppen dagegen bekannt, z. B. Tumorproben von Patienten, die auf eine Therapie ansprechen (Responder), gegenüber solchen Patienten, die nicht auf eine Therapie reagiert haben (Non-responder), können überwachte Lernverfahren (supervised learning) eingesetzt werden. Eine große Zahl an Lernverfahren steht zur Verfügung, z. B. lineare Diskriminanzanalyse, Support-Vektor-Maschinen, K-Nächste-Nachbarn-Verfahren oder Random Forests, siehe hierzu auch Kapitel 6. Die Schwierigkeit besteht auch hier weniger in der Auswahl des geeigneten Verfahrens als in der Kombination geeigneten Merkmalsauswahlverfahren und Test-Kreuzvalidierungsschleifen, die bei falscher Konstruktion eine viel zu hohe Performance des Klassifikators vorgaukeln. Genmuster, die aus den vorstehenden Analysen resultieren, liefern oft keine eindeutige Aussage über die veränderten zellbiologischen Prozesse der verglichenen Gruppen. Anreicherungsverfahren (enrichment analysis) prüfen, ob Gene aus solchen Mustern häufiger als erwartet definierten funktionellen Modulen (Pathways)
226 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
Gen 10 Gen 7 Gen 4 Gen 3 Gen 9 Gen 6 Gen 2 Gen 1 Gen 8
T6
T7
T8
T5
T3
T2
T4
T1
Gen 5
Abb. 7.6: Schematische Heatmap von Genexpressionswerten. Werte von Transkripten (gene 1 etc.) sind in Zeilen aufgetragen, Werte einer biologischen Probe (T1 etc.) in Spalten. Die Werte sind farb kodiert; rot: hohe Expression; blau: niedrige Expression; grau: mittlere Expression. Zeilen und Spal ten der Matrix wurden durch hierarchisches Clustering geordnet und als Dendrogramm dargestellt (links bzw. oberhalb) [Golub 1999]. Der Farbbalken über der Heatmap zeigt die Klassen der Proben an; grün: akute lymphatische Leukämie; lila: akute myeloische Leukämie.
zugeordnet werden können. In vielen Fällen werden dazu Tests auf der Grundlage der hypergeometrischen Verteilung genutzt [Zapatka 2008]. Eine Variante sind Gruppentests, z. B. Gene Set Enrichment Analysis (GSEA), [Subramanian 2005] oder der Globaltest [Goeman 2004]. Zwei Beispiele sollen die bioinformatischen Anwendungen in der Analyse hochdimensionaler Daten demonstrieren. Alizadeh und Kollegen haben mit Genexpressions-Microarrays verschiedene Proben von Patienten mit diffus-großzelligem B-ZellLymphom untersucht [Alizadeh 2000]. Es war bekannt, dass diese Erkrankung oft unterschiedliche Verläufe zeigt, die jedoch kaum vorhersagbar waren. Durch Clusteranalyse der Genexpressionsdaten konnten die Autoren zwei verschiedene Typen identifizieren, die sich sowohl in ihrem Verlauf unterscheiden als auch verschiedenen biologischen Mechanismen folgen. Die vorgeschlagene Einteilung in Keimzen-
7 Bioinformatik und Systembiologie
|
227
tren-Lymphome (germinal B cell lymphoma) und aktivierte B-Zell-Lymphome (activated B cell lymphoma) ist heute Standard in der klinischen Beschreibung der Krankheit. van de Vijver und Kollegen untersuchten Tumorproben von Brustkrebspatientinnen, von denen einige innerhalb von 5 Jahren Metastasen entwickelt hatten [van de Vijver 2002]. Mit den erhaltenen Genexpressionsdaten trainierten die Autoren ein Lernverfahren, das die Vorhersage der Wahrscheinlichkeit eines Rückfalls erlaubt. Das von ihnen entwickelte Verfahren ist heute von der US-amerikanischen Zulassungsbehörde (FDA) als Diagnostikverfahren zugelassen und wird unter dem Namen MammaPrint® kommerziell angeboten. Durch Weiterentwicklung der Verfahren für die Hochdurchsatzsequenzierung (Next-Generation Sequencing, NGS) lassen sich heutzutage durch Sequenzierung von Nukleinsäuren Expressionsdaten erhalten, die den in Array-basierten Verfahren generierten Daten gleichwertig sind. Die größte Herausforderung dabei stellt die informationstechnische Verarbeitung durch Speicherung, Netzwerktechnik und parallele Verarbeitung auf Hochleistungsrechnern. Ein größeres derartiges Projekt kann Daten im Petabyte-Bereich (entspricht 1015 Bytes) erzeugen und liegt damit in derselben Größenordnung wie Daten aus der Teilchenphysik, des bisher datenintensivsten Teilbereichs der Naturwissenschaften.
7.4 Systembiologie Die Systembiologie ist ein junges interdisziplinäres Forschungsfeld, das Experten und ihre Methoden aus Biologie, Mathematik, Informatik, Physik, Ingenieurwissenschaften, Regelungstechnik und Medizin vereint. Das Ziel der Systembiologie besteht in einer ganzheitlichen, möglichst quantitativen Beschreibung der Funktionen biologischer Systeme. Es wird versucht, die experimentell gewonnen Daten zunächst in Hypothesen und dann in Modelle umzusetzen, deren Analyse und Simulation zu einem verbesserten Verständnis der zellulären Prozesse führen. Dieses iterative Vorgehen (Abb. 7.7) ist ein zentrales Prinzip der Systembiologie. Biologische Prozesse sind dynamischer Natur und können auf unterschiedlichen funktionellen Ebenen verschiedene zeitliche Auflösungen haben. In biologischen Systemen werden hierarchisch strukturierte, biologische Prozesse auf verschie denen zeitlichen und räumlichen Ebenen charakterisiert. Biologische Systeme zeichnen sich durch eine Vielzahl miteinander verknüpfter Komponenten aus. Diese Verknüpfungen sind oft nichtlinearer Natur, besitzen Vorwärtsschleifen und Rückkopplungen und bilden komplexe Inter aktionsnetzwerke.
228 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
daten- u. hypothesengetriebene Modellierung
eriment Exp
Datenanalyse u. -synthese
In-vitro- od. In-vivoExperimente
Simulation ng & ieru ell od M
biologisches Wissen u. biologische Daten
Systembiologischer Ansatz
Experiment-Design u. Technologieentwicklung
In-silicoExperimente (Simulationen)
Systemanalyse u. Theoriebildung
Vorhersagen und Hypothesenverfeinerung
se aly An
se aly An
Abb. 7.7: Systembiologischer Ansatz nach Kitano [Kitano 2002]. Der dargestellte Zyklus verdeutlicht die einzelnen sequentiell durchlaufenen Schritte bestehend aus experimenteller Datengewinnung (in vitro/in vivo), datengetriebener Hypothesen- und Modellbildung, Modellsimulation und Modell verfeinerung auf der Grundlage der Simulationsergebnisse. Einer ersten Sequenz dieser Schritte können nach Überarbeitung der Experimente weitere folgen.
Die in den letzten Jahrzehnten entwickelten Hochdurchsatzmethoden (Microarrays, Ultraparallele Sequenzierung, Massenspektrometrie etc.) liefern eine große Menge experimenteller Daten, die direkte oder indirekte Hinweise auf die Zusammenhänge und Vernetzung zwischen den untersuchten Einheiten geben und integriert werden müssen. Wie biologische Netzwerke auf Gen-, Protein-, metabolischer und weiteren Ebenen die Funktionen der Zelle beeinflussen bzw. erklären, sodass die Vielfalt von beobachteten Phänotypen entsteht, ist eine der Kernfragen der Systembiologie. In den folgenden Abschnitten soll auf verschiedene biologische Netzwerke und ihre Beschreibung beispielhaft eingegangen werden. Weiterhin wird in zwei Abschnitten eine jeweils spezifische Modellierung verschiedener Netzwerke besprochen. Abschließend werden noch übliche und häufig genutzte Software-Systeme für Modellierung und Simulation diskutiert.
7 Bioinformatik und Systembiologie
|
229
7.4.1 Biologische Netzwerke In der Zelle reagieren Biomoleküle unterschiedlichster Art miteinander – Gene, Proteine, Metaboliten – und bilden stabile oder instabile Komplexe, regulieren andere Moleküle und werden selbst auf mehreren Stufen reguliert. Zelluläre Netzwerke stellen eine qualitative Beschreibung dieser Interaktionen dar. So können beispielsweise mithilfe gerichteter Graphen die Abfolge von biochemischen Reaktionen und die dazu benötigten Enzyme dargestellt werden. Die dynamischen Aspekte z. B. von Stoffwechsel- und Signalflüssen können darauf aufbauend mittels quantitativer Modellierung und Simulation untersucht werden. Topologische Untersuchungen tragen zum Verständnis des Aufbaus und der Funktionsweise biologischer Netzwerke bei. So wurden z. B. sogenannten Netzwerkmotive entdeckt, die immer wieder auftretende funktionelle Grundbausteine der biologischen Netze darstellen. Zelluläre Netzwerke werden anhand von Graphen erfasst und beschrieben. Sie stellen sowohl In teraktionen auf rein physikalischer Ebene als auch indirekte Interaktionen auf logischer oder phä nomenologischer Ebene dar.
Biologische Netzwerke sind skalenfrei. Im Gegensatz zu den Zufallsnetzen bestehen sie aus vielen Knoten mit wenigen Nachbarn und wenigen Knoten mit sehr vielen Nachbarn. Topologiemerkmale wie Zentralität, Exzentrizität und Cluster-Koeffizient wurden im Zusammenhang mit der Essentialität eines Knotens im biologischen Netzwerk untersucht. Außerdem werden auch Statistik-basierte Modelle zur Modellierung der Emergenz biologischer Netze angewandt [Bulashevska 2010]. Zelluläre Netzwerke lassen sich konzeptionell in drei Bereiche gliedern: – genregulatorische Netzwerke, – Signaltransduktionsnetzwerke, – metabolische Netzwerke. Ein extrazelluläres Signal wird einer Zelle über Membranrezeptoren vermittelt und anschließend intrazellulär verarbeitet, was wiederum die Aktivierung oder Inaktivierung von Transkriptionsfaktoren bewirkt. Dies ändert die Genexpression in der Zelle und ergibt eine neue Zusammenstellung von Proteinen, was Einfluss auf den Metabolismus nimmt. Signale können auch an die Nachbarzellen weitergegeben werden. Die zuvor genannten drei Teil-Netzwerke, ihre Verschaltungen und Rückkopplungen ändern sich dynamisch. Die Modellierungsansätze für die drei Netzwerk-Typen sind sehr unterschiedlich, da ihre Dynamik unterschiedlich ist. Während die Signalweiterleitung im Sekundenbereich liegt, kann die Proteinexpression im Minuten- bis Stundenbereich erfolgen.
230 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
Genregulatorische Netzwerke Die Genexpression in Zellen wird durch spezielle Proteine, den Transkriptionsfaktoren, kontrolliert. Transkriptionsfaktoren sind Proteine, die an die Promotoren der Gene binden und die Genexpres sion aktivieren oder inhibieren. Da ein Transkriptionsfaktor an der Regulierung mehrerer Gene beteiligt sein kann und ein Gen durch mehrere Transkriptionsfaktoren reguliert wird, entstehen komplexe regulatorische Beziehungen.
Der interne Zustand der Zelle und die Anpassung an verschiedene äußere Einflüsse ergeben sich durch den jeweiligen Aktivierungszustand der Transkriptionsfaktoren und folglich auch der Gene zu einem bestimmten Zeitpunkt. Die Genexpression von Tausenden von Genen kann z. B. mit Microarrays bestimmt werden, um Tumorgewebe mit normalem Gewebe zu vergleichen. Diese Daten werden zur Rekonstruktion von genregulatorischen Netzwerken eingesetzt. Ein hierfür häufig genutztes Verfahren ist das unüberwachte Clustering, mit dem sich Gruppen von Genen mit ähnlichem Expressionsmuster finden lassen. Man geht von der Hypothese aus, dass ähnlich exprimierte Gene gemeinsame Regulatoren haben. So versucht man, diese zu identifizieren, indem man Promotorbereiche der Gene der gleichen Gruppe analysiert und Bindungsstellen für neue oder bekannte Transkriptionsfaktoren über Motivsuche identifiziert. Eine andere Herangehensweise ist die Integration der Genexpressionsdaten mit den Vorhersagen von Bindungsstellen, um z. B. mit Hilfe von logistischer Regression zu ermitteln, welche Transkriptionsfaktoren für eine differenzierte Regulation der Gene verantwortlich sind. Probabilistische Zusammenhänge zwischen Genen können mittels Bayesscher Netze beschrieben werden. Ein Bayessches Netz ist ein gerichteter azyklischer Graph (directed acyclic graph, DAG), in dem die Knoten Zufallsvariablen beschreiben und jedem Knoten eine bedingte Wahrscheinlichkeits verteilung abhängig von den Elternknoten zugeordnet ist. Elternknoten sind diejenigen Knoten, von denen eine Kante zum jeweilig betrachteten Knoten führt.
Bedingte Wahrscheinlichkeiten werden z. B. mit Hilfe von diskreten multinominalen Verteilungen oder Normalverteilungen beschrieben. Das Bayessche Netz gibt Hinweise über die unmittelbaren Abhängigkeiten der betrachteten Moleküle oder Gene. Die Bayessche Modellierung weist für die Systembiologie mehrere Vorteile auf: Die Möglichkeit der hierarchischen Formulierung komplexer Modelle, das Einbringen von A-priori-Wissen ins Modell und die simulationsbasierte Inferenz von Parametern. Da die Genregulation ein dynamischer Prozess ist, verwendet man auch zeitlich aufgelöste Genexpressionsdaten. Methoden der Zeitreihenanalyse wie z. B. State Space Models, Hidden Markov Models oder dynamische Bayessche Netze wurden hierzu angewandt. Trotz ihrer Komplexität haben diese Methoden den Nachteil, dass sie die Stationarität des zugrundeliegenden Prozesses voraussetzen, wobei zu jedem
7 Bioinformatik und Systembiologie
|
231
Zeitpunkt die Regeln der Regulation, also die Topologie des Netzwerkes, gleich sein sollte. Für biologische Prozesse ist diese Voraussetzung aber nicht zutreffend, da unter dynamisch veränderlichen Bedingungen auch die Menge der aktiven Regulatoren und der von ihnen regulierten Gene variiert.
Signaltransduktionsnetzwerke Signaltransduktionsnetzwerke beschreiben die Weiterleitung von Signalen innerhalb der Zelle mittels biochemischer Reaktionen.
Bestimmte Strukturen des gesamten Netzwerks mit umschriebener Funktion werden Signaltransduktionswege (Signal Transduction Pathways) genannt und in Datenbanken gespeichert. Ein extrazellulärer Ligand, z. B. ein Hormon, Zytokin oder ein Wachstumsfaktor, bindet an ein Rezeptorprotein, das durch die Bindung aktiviert wird und eine Folge von chemischen Reaktionen (Signalkaskaden) auslöst, in deren Verlauf das Signal moduliert, verstärkt oder durch weitere Faktoren beeinflusst werden kann. Am Ende eines Signaltransduktionsweges stehen Transkriptionsfaktoren, welche die Genregulation der Zelle beeinflussen (Abb. 7.8). Signalkaskaden zwischen Zellmembran und Zellkern beinhalten im Wesentlichen zwei Mechanismen: chemische Modifikationen von Proteinen (z. B. Phosphorylierung) und die Bildung von Molekülkomplexen. Signaltransduktionswege sind an vielen zellulären Prozessen wie Zellteilung und Apoptose (programmierter Zelltod) beteiligt. Signaltransduktionswege werden über eine Vielzahl von Inhibitoren und Aktivatoren beeinflusst und sind untereinander vernetzt. GF GF R A TF
TF
Transkription von Zielgenen
Abb. 7.8: Vereinfachte Darstellung eines Signaltransdukti onsweges. Ein Wachstumsfaktor (GF, growth factor) bindet an ein Rezeptormolekül (R) an der Zelloberfläche. Über einen oder mehrere Adaptoren (A) werden dann Transkrip tionsfaktoren (TF) aktiviert, die schließlich im Zellkern (dunkelblau) die Transkription von Zielgenen regulieren.
232 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
Metabolische Netzwerke Metabolische Netzwerke bestehen aus verketteten biochemischen Reaktionen, die durch Enzyme katalysiert werden und Metabolite in andere Metabolite umwandeln.
Metabolische Pathways oder Stoffwechselwege sind kleine Ausschnitte aus dem gesamten metabolischen Netz. Die Glykolyse z. B. wandelt den zentralen Energielieferanten Glukose über mehrere Zwischenschritte in Pyruvat (Brenztraubensäure) um, das je nach Stoffwechselsituation entweder über den Krebszyklus und die Atmungskette zu Kohlendioxid verstoffwechselt oder aber zu Laktat (Milchsäure) umgesetzt wird. Bei beiden Prozessen entstehen Energieäquivalente, die von der Zelle für energieabhängige Prozesse wie Biosynthesen verwendet werden. Ein wesentlicher Unterschied zwischen Signal- und metabolischen Netzwerken besteht darin, dass metabolische Netzwerke die Umwandlung von Stoffen und somit den Transport von Masse beschreiben. Ein Metabolit geht als Substrat in eine Reaktion hinein und wird in einen anderen Metaboliten umgewandelt. Bei Signalnetzwerken hingegen handelt es sich um Signalflüsse, bei denen beispielsweise durch Phosphorylierung Enzyme aktiviert werden. Ein und dasselbe Enzym kann, solange es aktiv ist, immer wieder Reaktionen katalysieren, und wird dabei nicht verbraucht. Ein Signal kann unter bestimmten Bedingungen auch dafür sorgen, dass ein Stoffwechselweg für eine gewisse Zeit unterbrochen wird. Zu weiterführender Information sei auf die Literatur verwiesen [Alberts 2012].
7.4.2 Modellierung biologischer Netzwerke Die Eigenschaften biologischer Systeme stellen eine große Herausforderung für die Modellierung dar. Modellierungsansätze lassen sich nach der Art der vorzunehmenden Abstraktion klassifizieren. Diskrete Modelle beschreiben eine endliche Anzahl von Zustandsänderungen zu diskreten Zeitpunkten, während sich bei kontinuierlichen Modellen der Systemzustand ununterbrochen ändert. In qualitativen Modellen wird der Sachverhalt mit qualitativ beschriebenen Zuständen repräsentiert (vorhanden/nicht vorhanden, aktiv/inaktiv, niedrig/mittel/hoch), wobei die Zustandsvariablen beispielsweise nur ganzzahlige Werte annehmen. Bei den quantitativen Modellen ist der Zustandsraum kontinuierlich. Deterministische Modelle zeichnen sich dadurch aus, dass das Systemverhalten bei gleichen Ausgangswerten reproduzierbar ist. Stochastische Modelle beruhen auf der Wahrscheinlichkeitstheorie und operieren mit Zufallsvariablen und ihren Verteilungen (Band 4). Traditionell werden biochemische Reaktionen mit gewöhnlichen Differentialgleichungen (ordinary differential equations, ODE) modelliert, die Konzentrationsänderungen der Substanzen in Abhängigkeit von der Zeit beschreiben. Dieser Ansatz ist somit kontinuierlich, quantitativ und deterministisch. Zur Modellierung genregula-
7 Bioinformatik und Systembiologie
|
233
torischer Netzwerke wurden Boolesche Netze genutzt, in denen jeder Knoten durch eine Boolesche Variable repräsentiert ist und das Verhalten eines einzelnen Knotens durch eine Boolesche Funktion beschrieben ist. Dies ist ein Beispiel der diskreten, qualitativen und deterministischen Modellierung. Allgemein gilt: wenn die Anzahl der in der Reaktion vorkommenden Moleküle groß ist, kann man auf die Modellierung stochastischer Aspekte verzichten. In biologischen Prozessen mit kleiner Anzahl von Molekülen spielen stochastische Phänomene dagegen eine wichtige Rolle. Nur wenige Moleküle eines Transkriptionsfaktors sind zur Genaktivierung ausreichend. In hybriden Ansätzen werden unterschiedliche Sachverhalte vereint, beispielsweise sowohl diskrete als auch kontinuierliche. Man kann z. B. deterministische Petri-Netze mit einer Zufallskomponente erweitern, sodass aus mehreren Transitionen eine einzige mit einer gewissen Wahrscheinlichkeit ausgewählt wird. Systembiologische Modelle müssen einen prädiktiven (vorhersagbaren) Charakter haben und die Formulierung von Hypothesen ermöglichen, die durch Simulationen oder weiteren biologischen Experimenten überprüfbar sind. Letztendlich sollte dies wiederum zur Modellverbesserung führen.
Modellierung biochemischer Netzwerke Die Grundlage für die quantitative Modellierung in der Systembiologie ist die chemische Kinetik. Die chemische Kinetik beschreibt, mit welcher Geschwindigkeit molekulare Reaktionen ablaufen, wobei die Reaktionsgeschwindigkeit als Konzentrationsänderung der Reaktionsprodukte über der Zeit in Form von Differentialgleichungen angegeben wird.
Bei vielen Reaktionen kann beobachtet werden, dass die Reaktionsgeschwindigkeit direkt proportional zum Produkt der Konzentrationen der Ausgangsstoffe ist. Betrachten wir eine monomolekulare Reaktion, bei der ein Stoff A in einen Stoff X umgewandelt wird: A→X (7.1) Die Veränderung der Konzentration des Ausgangstoffes A und damit die zeitliche Veränderung der Konzentration des Reaktionsproduktes c X ist definiert als: dc X = kc A dt
(7.2)
Der positive Proportionalitätsfaktor k wird Reaktionsgeschwindigkeitskonstante genannt. Die Differentialgleichung (Formel Gl. (7.2)) lässt sich bei bekannten Ausgangsbedingungen analytisch lösen. Die chemische Kinetik erlaubt also, die Konzentration der Stoffe zu verschiedenen Zeiten vorherzusagen und liefert quantitative Beschreibungen der Reaktionen.
234 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
Für komplexere enzymatische Reaktionen kann man vereinfachende Annahmen machen, die eine analytische Lösung des Differentialgleichungssystems erlauben. Bekannt ist vor allem die Michaelis-Menten-Gleichung: k1
k
2 c ES cE + cS ← → cE + cP →
k1
k 1 + k 2 k1 rmax c S r= cS + KM
KM =
(7.3) (7.4) (7.5)
Enzym E und Substrat S bilden zunächst mit der Rate k1 einen Enzym-Substratkomplex ES, der mit der Rate k 1 wieder in Enzym und Substrat dissoziieren kann. Mit der Rate k 2 reagieren Enzym und Substrat zum Produkt P. Die maximale Reaktionsgeschwindigkeit entspricht rmax und die Michaelis-Menten-Konstante entspricht K M . Die Substratkonzentration ist hier mit c S , die Enzymkonzentration mit c E und die Konzentration des Produkts mit c P bezeichnet. Für Details sei auf die Lehrbücher der Biochemie z. B. [Voet 2010] verwiesen. Wenn es sich um mehrere miteinander verkettete Reaktionen handelt, lässt sich das zugehörige Differentialgleichungssystem (ODE-System) in der Regel nicht mehr analytisch lösen, da keine Lösung in geschlossener Form existiert. Zur Bestimmung der Konzentrations-Zeitverläufe muss hier auf numerische Verfahren zurückgegriffen werden, wie z. B. das Runge-Kutta-Verfahren. Unter der Annahme stationärer Zustände lassen sich biochemische Reaktionsketten auch durch die metabolische Kontrolltheorie [Heinrich 1996], die Flux-Balance-Analyse [Edwards 2000] oder durch Elementary Flux Modes [Schuster 1999] beschreiben und in ihren wesentlichen Eigenschaften verstehen.
Modelle der Signaltransduktion Signaltransduktionssysteme weisen ein kompliziertes dynamisches Verhalten auf. Sie bestehen aus Bausteinen, die als Verstärker wirken, als Schalter funktionieren und ein adaptives oder oszillierendes Verhalten haben. Ein grundlegender Mechanismus der Signaltransduktion ist die Phosphorylierung und Dephosphorylierung von Signalmolekülen in Form einer Kaskade. Die MAPK (mitogen-activated protein kinase)-Kaskade ist ein zentraler aber vielschichtiger und verzweigter Signalweg, der bei vielen zellulären Prozessen wie auch der Zellteilung eine wichtige Rolle spielt. Er wird durch extrazelluläre Wachstumsfaktoren aktiviert und führt am Ende der Kaskade beispielsweise zur Aktivierung des Transkriptionsfaktors ERK (im Schema mit K3 bezeichnet). Dieser beeinflusst wiederum die Transkription verschiedener Gene und ist somit an der Entscheidung beteiligt, ob sich die Zelle teilt oder einer bestimmten Funktion gerecht wird. Die Signalübertragung wird schematisch in Abbildung 7.9 dargestellt.
7 Bioinformatik und Systembiologie
|
235
Stimulus k1 K1
k–1
K1P
k2 K2
k–2
K2P
k3 K3
k–3
K3P
Abb. 7.9: Schema der MAPK-Kaskade. Ein Stimulus aktiviert K1 (MAPKkinase-kinase, MAPKKK), eine Kinase, die ein anderes Molekül phospho ryliert und damit aktiviert. K1 phosphoryliert K2 (MAPK-kinase, MAPKK), die wiederum K3 (MAPK) phosphoyliert und aktiviert. K3 kann beispiels weise der Transkriptionsfaktor ERK sein, der die Transkription verschiede ner Gene reguliert.
Beispielsweise kann das Dosis-Antwort-Verhalten der MAPK-Kaskade durch verschiedene Konzentrationen eines Wachstumsfaktors in-silico (am Computer) simuliert werden. Wenn man berücksichtigt, dass jede Stufe in einfach oder zweifach phosphorylierter Form vorliegen kann, so ergeben sich steile sigmoide Antworten (S-förmige Kurve), und die Kaskade wirkt als Schalter.
7.4.3 Hierarchische Modellierung und Multiskalenmodelle Ein wichtiger Ansatz in der Systembiologie ist die hierarchische Modellierung von komplexen biologischen Systemen größeren Umfangs in multiskalierten Modellen. Hierbei werden Ereignisse unterschiedlicher räumlicher und zeitlicher Auflösung, die mit experimentellen Methoden untersucht wurden, auf mehreren Skalen hierarchisch modelliert. Die Abbildung 7.10 zeigt die verschiedenen Längen und zeitlichen Dimensionen, die ein multiskaliertes Modell umfassen kann. Die Mehrheit der gegenwärtig vorhandenen multiskalierten Modelle umfassen die Gewebe-Zell-Protein-Ebenen. Zunehmend wird in großen dedizierten Verbundforschungsprojekten auch die Organebene mit eingeschlossen.
Beispielsweise wurde von Nyman und Kollegen ein Modell vorgeschlagen, das die insulingesteuer te Signaltransduktion in humanen Adipozyten mit der Glukose-Homöostase im ganzen menschlichen Körper zu verbinden versucht und die drei Ebenen „Organismus – Organ – intrazelluläre Prozesse“ umfasst [Nyman 2011]. Das Modell basiert auf Daten über den Flux von Insulin und Glukose im mensch lichen Körper, abhängig von der Nahrungsaufnahme. Diese werden mit Daten über Phosphorylie rungsreaktionen von Enzymen verbunden, die am Insulin-Signalweg mitwirken.
Multiagenten-Systeme bilden einen Modellierungsansatz aus der Informatik, der in der Systembiologie für die Modellierung und Simulation multiskalierter Systeme Ver-
236 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin Gen
Protein
Meter
10–9
Sekunden
10–6
Enzymkatalyse
Zelle
10–6 10–3 Diffusion Zellkommunikation
Organ
Gewebe
10–3 100
103
Zellmotilität
Mitose
Organismus
100 106
109
Proteinumsatz
Alterung
Abb. 7.10: Darstellung eines Multiskalenmodells. Die Abbildung zeigt die räumliche und die zeitli che Skala mit zugeordneten biologischen Prozessen und den damit jeweils verbundenen Modelle benen.
wendung findet. Hierbei wird ein komplexes Verhalten des Systems durch eine Gesellschaft autonomer, interagierender Agenten simuliert. Jeder Agent besitzt sein eigenes Wissen über seinen Zustand und interagiert nach seinen eigenen Aktionsregeln mit seiner unmittelbaren Umgebung. Einen Agenten zeichnet seine lokale Sicht auf das Gesamtsystem aus, d. h. kein Agent des Multiagenten-Systems kennt das gesamte System oder besitzt globales Wissen. So erhält das System ein selbstorganisierendes (emergentes) und wissensverteiltes Verhalten. Aus den vergleichsweise einfachen Aktionsregeln der Agenten und deren lokaler Interaktion kann ein komplexes makroskopisches Verhalten des Gesamtsystems folgen. Agenten können mit Hilfe von endlichen Automaten deterministisch, stochastisch oder auch hybrid modelliert werden. Multiagenten-Systeme finden häufig in der Modellierung multizellulärer Systeme wie Geweben und insbesondere deren Simulation Anwendung. In diesem Zusammenhang bildet ein Agent des Multiagenten-Systems eine biologische Zelle ab. Beispielhaft für den Einsatz von Multiagenten-Systemen sei an dieser Stelle die multiskalierte Modellierung epithelialer Gewebe, insbesondere der humanen Epidermis, genannt [Sütterlin 2013]. Es ließen sich epidermale Prozesse wie Zellzyklus, Differenzierung, transepidermaler Stofftransport und die daraus resultierenden Gewebefunktionen sowie die charakteristische Stratifizierung des Gewebes simulieren (Abb. 7.11 (a)). Der Zellzyklus wird mit gewöhnlichen Differentialgleichungen modelliert und wird in jeder Zelle (jedem Agenten) der Simulation individuell quantitativ simuliert (Abb. 7.11 (c)). Multiagentenbasierte Modelle können auch an kontinuierliche Reaktions-Diffusions-Modelle gekoppelt werden. Dies erlaubt beispielsweise die Simulation von Chemotaxis, der gerichteten Migration von beispielsweise Immunzellen (Abb. 7.11 (b)) in einem Chemokingradienten (Abb. 7.11 (d), Überblendung). Ein Chemokin ist ein Signalprotein, das entweder anziehend oder abstoßend auf Zellen wirkt.
7 Bioinformatik und Systembiologie
(a)
(b)
(c)
(d)
|
237
Abb. 7.11: Gewebesimulation realisiert mit der Software EPISIM [Sütterlin 2013]: (a) Multiagenten basierte Simulation der Epidermis. (c) Geschichtete Gewebemorphologie entsteht als emergentes Simulationsergebnis des multiskalierten Modells, das ein kontinuierliches, ODE-basiertes Zellzy klusmodell beinhaltet. Die numerische Simulation des Zellzyklusmodells ist für eine exemplarische Zelle im Inset zu sehen. (b) Gerichtete Zellmigration in einem Chemokin-Konzentrationsgradienten, der in (d) als Überblendung dargestellt ist.
In der Medizin werden Multiagenten-Systeme und der systembiologische Forschungsansatz auch erfolgreich im Bereich der Analyse und Simulation von Veränderungen der Gewebemorphologie während der Wundheilung angewandt [Safferling 2013]. Eine weitere medizinische Anwendung der Systembiologie ist die Untersuchung der Dichte und Verteilung von Immunzellen im Tumorgewebe, die einen Zusammenhang zwischen der patientenindividuellen Immunantwort und dem Erfolg der Chemotherapie nachweist [Halama 2009]. In diesem Abschnitt konnten nur einige wenige Ansätze in der Systembiologie exemplarisch vorgestellt werden. Der interessierte Leser sei auf die weiterführende Literatur [Haefner 2005, Alon 2006, Klipp 2009] verwiesen.
238 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
7.4.4 Software-Systeme für die Systembiologie Die Systembiologie ist durch ein breites methodisches Spektrum aus den unterschiedlichen naturwissenschaftlichen Disziplinen gekennzeichnet. Nicht selten sind diese Methoden komplex und deren technische Umsetzung in ein computerausführbares Programm zu Modellsimulationszwecken nicht trivial. Während in den Anfängen der Systembiologie Ad-hoc-Implementierungen von Modellen und den darin verwendeten Methoden die Regel waren, setzen sich zunehmend dedizierte Software-Systeme durch, die der stetig ansteigenden Modellkomplexität Rechnung tragen. In Tabelle 7.2 sind einige der gebräuchlichsten Software-Systeme zusammengestellt. Eine Reihe quantitativer Modellierungsansätze sind in sog. Ready-touse-Software-Systemen realisiert. Sie ermöglichen, im Rahmen der Systembiologie Modelle zu entwerfen, zu analysieren und zu simulieren, sowie eine graphische Repräsentation des Lösungsraums zu erzeugen. Da viele Modelle auf gewöhnlichen Differentialgleichungen (ODEs) beruhen, bieten zahlreiche Tools Routinen zur Lösung und numerischen Simulation dieser an. Zu nennen sind die Systeme Biology Toolbox (SBTOOLBOX) und Simbiology in Matlab. Die Software COPASI bietet eine große Palette von Tools zur ODE-basierten und stochastischen Simulation von biochemischen Netzen an, wie auch Funktionen zur Schätzung von Parametern anhand von Messdaten (Least Squares Fitting), basierend auf verschiedenen Optimierungsmethoden. Zur Analyse und Simulation metabolischer Netzwerke werden CellNetAnalyzer und DBSolve angewandt. Cytoscape ist eine Software zur Visualisierung, Analyse und auch Simulation von meist qualitativen biologischen Netzwerken. Die Software CellDesigner erlaubt die graphische Modellierung von quantitativen biochemischen und genregulatorischen Netzwerken. Dabei kommen die weit verbreiteten Standards Systems Biology Markup Language (SMBL) zur Modellrepräsentation und Systems Biology Graphical Notation (SBGN) zur Modelldarstellung zum Einsatz. Das internationale Projekt BioModels ist eine öffentliche Datenbank von kurierten und annotierten systembiologischen Modellen, die u. a. im SBML-Standard verfügbar sind und bspw. mit den Software-Systemen CellDesigner oder COPASI importiert als auch simuliert werden können. Die bisher genannten Software-Systeme realisieren im Wesentlichen die Modellerstellung und Modellsimulation auf subzellulärer Ebene, weil diese immer noch den Kern der Bemühungen in der Systembiologie darstellen. Jedoch stehen auch zur multiskalierten, insbesondere der multizellulären Modellierung und Simulation eine überschaubare Anzahl von frei verfügbaren Software-Systemen zur Verfügung, wie z. B. die rein graphische Modellierungs- und Simulationsumgebung EPISIM, die mit Prozessdiagrammen die Modellierung zellulären Verhaltens ermöglicht (Tab. 7.2). Die grafischen Zellverhaltensmodelle werden automatisch in ausführbaren Code übersetzt und im Rahmen einer Multiagenten basierten Simulation zum Einsatz gebracht. Weitere Software-Systeme in diesem Bereich sind CompuCell3D und Morpheus, die jeweils eine domänenspezifische, XML-basierte Sprache zur Modellerstellung bereitstellen. Zur Vereinfachung der Modellerstellung trennen sowohl EPISIM als auch
7 Bioinformatik und Systembiologie
|
239
Tab. 7.2: Software-Systeme für die Systembiologie. Software
Institution
URL
Cytoscape
The Cytoscape Consortium (http://www. cytoscapeconsortium.org)
Analyse und Visualisierung komplexer (intrazellulärer) Netzwerke
http://www. cytoscape.org
Bioconductor
u. a. Fred Hutchinson Cancer Research Center
Analyse von HochdurchsatzGenom-Daten
http://www. bioconductor.org
Systems Biology Toolbox
u. a. Chalmers Research Centre Industrial Mathematics
Modellierung, Simulation und Analyse biologischer Systeme
http://www. sbtoolbox.org
Simbiology
MathWorks
Modellierung, Simulation und Analyse dynamischer Systeme, insbesondere im Bereich Pharmakokinetik und -dynamik
http: //de.mathworks. com/products/ simbiology
COPASI
Universität Heidelberg, Virginia Bioinformatics Institute & University of Manchester
Simulation und Analyse biochemischen Netzwerken und deren Dynamik
http: //www.copasi.org
CellNetAnalyzer Max Planck Institute for Dynamics of Complex Technical Systems, Magdeburg
strukturelle und funktionelle Analyse zellulärer Netzwerke
http://www2.mpimagdeburg.mpg. de/projects/cna/ cna.html
DBSolve
Institute for Systems Biology, Moskau
Erstellung und Analyse mathematischer Modelle von biologischen Systemen
http: //www.insysbio.ru/ en/software/dbsolve-optimum
CellDesigner
The Systems Biology Institute, Tokyo
grafische Modellierung und Simulation biochemischer Reaktionen
http://www. celldesigner.org
EPISIM
Hamamatsu TIGA Center, Universität Heidelberg
multizelluläre Modellierung und Simulation biologischer Systeme
http: //www.tiga.unihd.de/episim.html
CompuCell3D
Biocomplexity Institute, Indiana University
multizelluläre Modellierung und Simulation biologischer Systeme
http://www. compucell3d.org
Morpheus
Technische Universität Dresden
multizelluläre Modellierung und Simulation biologischer Systeme
http://imc.zih.tudresden.de/wiki/ morpheus
CompuCell3D und Morpheus die technische Komplexität und Realisierung der Modellsimulation von der Erstellung des Modells und seiner Repräsentation. Dies fördert
240 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
auch den Wiedereinsatz bereits aufgestellter und validierter Modelle im Rahmen der Forschungsgemeinschaft.
7.5 Zusammenfassung und Ausblick Das in der medizinischen Bioinformatik und Systembiologie angewandte Methodenspektrum wird zur Analyse genetischer Daten, der Wissensgenerierung durch Data Mining und der Modellierung und Simulation biologischer Netzwerke auf verschiedensten Ebenen bis hin zu funktionellen Abhängigkeiten von Organsystemen eingesetzt. Die Methoden der molekularen Biologie bilden die Grundlage der experimentellen Datengewinnung auf Zell- und Genomebene. Sie ermöglichen die Generierung von Hypothesen und deren Abbildung in theoretischen Modellen im Kontext der Systembiologie mit anschließender Validierung des Modells in speziell entworfenen In-vitrosowie In-vivo-Experimenten. Statistische mathematische Konzepte zur quantitativen Systemtheorie und ihre auf die Problemstellung angepasste algorithmische Umsetzung in Form von Computerprogrammen sind hierzu nötig. Die angewandte Informatik stellt in diesem Kontext das adäquate Werkzeug zur Verfügung. Die Bioinformatik und die Systembiologie sind somit wesentliche Facetten der Medizinischen Informatik, die zum Fortschritt einer modernen individualisierten Medizin einen wichtigen Beitrag leisten. Es ist zu erwarten, dass die beachtlichen Erfolge zur Aufklärung und Bedeutung des Genoms für zahlreiche Erkrankungen und ihrer individuellen Therapie weiter vorangetrieben werden. Allerdings sollten dabei nicht nur die Machbarkeit und die faszinierenden Möglichkeiten für die Lebenswissenschaften, insbesondere für die Medizin, berücksichtigt werden, sondern gleichermaßen auch die ethische Implikation für den Einzelnen und für die Gesellschaft diskutiert werden, wenn der erreichte Fortschritt tatsächlich ganzheitlichen Gewinn bedeuten soll.
Dank Die Autoren danken allen an der Erstellung des Kapitelmanuskripts beteiligten weiteren Personen sowie den Bereitstellern von Daten und Informationen.
Quellenverzeichnis Alizadeh, A. A.; Eisen, M. B.; Davis, R. E.; Ma, C.; Lossos, I. S.; Rosenwald, A.; Boldrick, J. C.; Sa bet, H.; Tran, T.; Yu, X.; et al.: Distinct types of diffuse large B-cell lymphoma identified by gene expression profiling. Nature 403(2000): 503–511.
7 Bioinformatik und Systembiologie
|
241
Altschul, S. F.; Madden, T. L.; Schäffer, A. A.; Zhang, J.; Zhang, Z.; Miller, W.; Lipman, D. J.: Gapped BLAST and PSI-BLAST: a new generation of protein database search programs. Nucleic Acids Res 25(1997): 3389–3402. Bulashevska, S.; Bulashevska, A.; Eils, R.: Bayesian statistical modelling of human protein interacti on network incorporating protein disorder information. BMC Bioinformatics 11(2010): 46. Edwards, J. S.; Palsson, B. O.: Metabolic flux balance analysis and the in silico analysis of Escheri chia coli K-12 gene deletions. BMC Bioinformatics 1(2000): 1. Goeman, J. J.; van de Geer, S. A.; de Kort, F.; van Houwelingen, H. C.: A global test for groups of ge nes: testing association with a clinical outcome. Bioinformatics 20(2004): 93–99. Golub, T.R.; Slonim, D. K.; Tamayo, P.; Huard, C.; Gaasenbeek, M.; Mesirov, J. P.; Coller, H.; Loh, M. L.; Downing, J. R.; Caligiuri, M. A.; Bloomfield, C. D.; Lander, E. S.: Molecular classificati on of cancer: class discovery and class prediction by gene expression monitoring. Science 286(1999) no. 5439: 531–537. Halama, N.; Michel, S.; Kloor, M.; Zoernig, I.; Pommerencke, T.; von Knebel Doeberitz, M.; Schirma cher, P.; Weitz, J.; Grabe, N.; Jäger, D.: The localization and density of immune cells in primary tumors of human metastatic colorectal cancer shows an association with response to chemo therapy. Cancer Immunology 19(2009): 9:1. Heinrich, R.; Schuster, S.: The Regulation of Cellular Systems, Chapman and Hall (1996). Kitano, H.: Systems biology: a brief overview. Science 295(2002) no. 5560:1662–1664. Nyman, E.; Brännmark, C.; Palmér, R.; Brugård, J.; Nyström, F.H.; Strålfors, P.; Cedersund, G.: A hier archical whole-body modeling approach elucidates the link between in Vitro insulin signaling and in Vivo glucose homeostasis. Journal of Biological Chemistry, 22(2011): 26028–26041. Safferling, K., Sütterlin, T., Westphal, K., Ernst, C., Breuhahn, K., James, M., Jäger, D., Halama, N., Grabe, N.: Wound healing revised: A novel reepithelialization mechanism revealed by in vitro and in silico models. Journal of Cell Biology, 203(2013) 4: 691–709. Schuster, S.; Dandekar, T.; Fell, D.A.: Detection of elementary flux modes in biochemical networks: a promising tool for pathway analysis and metabolic engineering. Trends Biotechnology, 17(1999) no. 2: 53–60. Subramanian, A.; Tamayo, P.; Mootha, V. K.; Mukherjee, S.; Ebert, B. L.; Gillette, M. A.; Paulovich, A.; Pomeroy, S. L.; Golub, T. R.; Lander, E. S.; Mesirov, J. P.: Gene set enrichment analysis: a knowledge-based approach for interpreting genome-wide expression profiles. Proc Natl Acad Sci USA 102(2005): 15545–15550. Sütterlin, T.; Kolb, C.; Dickhaus, H.; Jäger, D.; Grabe, N.: Bridging the scales: semantic integration of quantitative SBML in graphical multi-cellular models and simulations with EPISIM and COPASI. Bioinformatics 29 (2013) no. 2: 223–229. van de Vijver, M. J.; He, Y. D.; van’t Veer, L. J.; Dai, H.; Hart, A. A.; Voskuil, D. W.; Schreiber, G. J.; Pe terse, J. L.; Roberts, C.; Marton, M. J.; Parrish, M.; Atsma, D.; Witteveen, A.; Glas, A., Delahaye, L.; van der Velde, T.; Bartelink, H.; Rodenhuis, S.; Rutgers, E. T.; Friend, S. H.; Bernards, R.: A gene-expression signature as a predictor of survival in breast cancer. N Engl J Med. 347(2002) no. 25: 1999–2009. Venter, J. C.; Adams, M. D.; Myers, E. W.; Li, P. W.; Mural, R. J. et al.: The Sequence of the Human Ge nome. Science. 291 (2001 no. 5507:1304–1351. Zapatka, M.; Koch, Y.; Brors, B.: Ontological analysis and pathway modeling in drug discovery. Phar maceutical Medicine 22(2008): 99–105. Zhang, Z.; Schäffer, A. A.; Miller, W.; Madden, T. L.; Lipman, D. J.; Koonin, E. V.; Altschul, S. F.: Protein sequence similarity searches using patterns as seeds. Nucleic AcidsRes 26(1998):3986–3990.
242 | Benedikt Brors, Svetlana Bulashevska, Kai Safferling, Thomas Sütterlin
Verzeichnis weiterführender Literatur Alberts, B.; Bray, D.; Hopkin, K.; Johnson, A.; Lewis, J.; Raff, M.; Roberts, K.; Walter, P.: Lehrbuch der Molekularen Zellbiologie. Wiley-VCH 2012. Alon, U. S.: An introduction to systems biology: design principles of biological circuits. Chapmann & Hall/CRC Press 2006. Berg, H. van den: Mathematical models of biological systems. Oxford University Press 2011. Durbin, R.; Eddy, S.; Krogh, A.; Mitchison, G.: Biological Sequence Analysis. Cambridge University Press 1998. Eckstein, S.: Informationsmanagement in der Systembiologie: Datenbanken, Integration, Modellie rung. Springer 2011. Haefner, J. W.: Modeling biological systems: principles and applications. Springer 2005. Klipp, E. (ed.): Systems biology: a textbook. Wiley-VCH 2009. Köhler, W.; Schachtel, G.; Voleske, P.: Biostatistik. Eine Einführung für Biologen und Agrarwissen schaftler. 5. Aufl.: Springer 2012. Liu, E. T., Lauffenburger, D.: Systems biomedicine. Amsterdam, Heidelberg: Academic Press / Else vier 2010. Mount, D. W.: Bioinformatics. Sequence and Genome Analysis. 2nd edn.: Cold Spring Harbor Labo ratory Press 2004. Voet, D.; Voet, J. G.; Pratt, C. W.: Lehrbuch der Biochemie. Wiley-VCH 2010. Waterman, M. S.: Introduction to ComputationalBiology. Chapman & Hall / CRC Press 1995.
Testfragen 1. Welche Etappen kennzeichnen den Weg vom Gen zum Protein? Benennen und beschreiben Sie die einzelnen Vorgänge! 2. Welche strukturellen Ebenen werden beim Aufbau eines Proteins unterschieden, und welche hiervon sind in der DNA kodiert? 3. Welche biologischen Sequenzen werden im Rahmen der Bioinformatik und Systembiologie un terschieden und wie wird versucht, Ähnlichkeiten zwischen verschiedenen Sequenzen zu ermit teln? 4. Welche Verfahren werden zur Suche in Sequenzdatenbanken eingesetzt und was unterscheidet sie voneinander? 5. In welchem Zusammenhang wird das Microarray-Verfahren eingesetzt und wie werden aus den damit gewonnenen experimentellen Daten biologische Informationen ermittelt? 6. Inwieweit unterscheidet sich der systembiologische Ansatz von traditioneller biologischer For schung? Was kennzeichnet diesen Ansatz? 7. Was kann in biologischen Netzwerken abgebildet werden und durch welche strukturellen Eigen schaften werden diese charakterisiert? 8. Was unterscheidet quantitative und qualitative bzw. diskrete sowie kontinuierliche Modellie rungsansätze? Welche Aussagen können mit dem jeweiligen Ansatz getroffen werden? 9. Was ist ein Multiagenten-System, welche Eigenschaften besitzen die individuellen Agenten und weshalb eignen sich solche Systeme besonders zur Simulation von Geweben? 10. Welche wesentlichen Skalen werden in einem Multiskalenmodell unterschieden? Nennen Sie Beispiele für biologische Prozesse, die nur durch ein Multiskalenmodell abgebildet werden kön nen!
Hartmut Dickhaus, Heinz Handels
8 Medizinische Bildverarbeitung 8.1 8.2 8.3 8.4 8.5 8.6 8.7
Einleitung | 244 Typen und Formate medizinischer Bilddaten | 245 Operatoren und Transformationen | 251 Segmentierung | 258 Registrierung medizinischer Bilddaten | 263 3D-Visualisierung | 269 Zusammenfassung und Ausblick | 280
Zusammenfassung: Die medizinische Bildverarbeitung hat für die klinische Forschung, Therapie und Diagnostik wie auch für die medizinische Versorgung wesentliche Bedeutung erlangt. Mathematische Methoden und ihre algorithmische Umsetzung erschließen durch ständig steigende Computerperformance wie auch durch aktuelle Bildgebungsverfahren und Bilderfassungstechnologien viele wichtige und faszinierende Anwendungen in der Medizin und Biologie. Grundlegende Verarbeitungsschritte wie Filtern und Segmentieren relevanter Bildstrukturen, Transformation und Abbildung verschiedener Bildmodalitäten in einem Koordinatensystem sowie die Visualisierung von Bilddaten in realistischen 3D-Darstellungen und Animationen gehören heute zu den Basisfunktionen, die bereits in Echtzeit realisiert werden können. Abstract: Medical image processing has an increasing impact on clinical research, therapy and diagnosis as well as on medical care. Mathematical methods and their algorithmic implementation have developed many relevant and fascinating applications in medicine and biology taking advantage of improved computer performance and image acquisition techniques. Fundamental processing steps such as filtering and segmentation of relevant image structures, transformation and registration of different image modalities within one coordinate system as well as visualization of 3D image data and animations have become basic functions that can be run in real time.
244 | Hartmut Dickhaus, Heinz Handels
8.1 Einleitung Die medizinische Bildverarbeitung (medical image processing) hat für die Medizinische Informatik inzwischen große Bedeutung. Da die meisten bildgebenden Verfahren digital kodierte Bilder bzw. Bildfolgen erzeugen, können mithilfe geeigneter Algorithmen rechnergestützt unterschiedlichste Problemlösungen für die medizinische Forschung sowie die klinische Diagnostik und Therapie erzielt werden. Die Anwendungsgebiete reichen von Fragestellungen in der Grundlagenforschung der Molekularbiologie und Genomik, die zukünftig wichtige Beiträge zur sogenannten personalisierten Medizin leisten werden, über computer- und robotergestützte Operationsplanungssysteme verschiedenster Fachdisziplinen bis zur quantitativen Auswertung von Bildern und Bildfolgen für diagnostische Zwecke. Leistungsfähige vernetzte Prozessorarchitekturen, schnelle Speichertechnologien und effiziente hardwarenahe Programmiertechniken erlauben die problemlose Ausführung rechenintensiver Algorithmen auf größeren Bilddaten in Echtzeit. Speicherung und Übertragung von Bilddaten, Aufbereitung der Bildinformation für weitere Bildanalyseschritte wie Erkennung und Quantifizierung bestimmter Bildinhalte oder Modellierung und Visualisierung von 3D-Objekten bzw. bewegten Szenen gehören im weiteren Sinne zu den Aufgaben und Anwendungsfeldern der digitalen Bildverarbeitung. Für das Fachgebiet ist charakteristisch, dass interdisziplinäre Arbeitsgruppen, bestehend aus Medizinern und Informatikern, Physikern, Ingenieuren u. a. eng zusammenarbeiten und gemeinsam effektive Lösungskonzepte für die zahlreichen Problemstellungen entwickeln. In diesem Kapitel sollen einige grundlegende methodische Konzepte der digitalen Bildverarbeitung vor dem Hintergrund medizinischer Anwendungsbeispiele erläutert werden. Der Leser soll neben einem systematischen Überblick typische, mathematisch fundierte Operationen im Rahmen der digitalen Bildverarbeitung kennen und verstehen lernen sowie anhand von verfügbaren Programmumgebungen und Toolboxen wie z. B. MATLAB, LabVIEW oder MeVisLab in die Lage versetzt werden, eigenständig einfache Probleme der Bildverarbeitung in der Praxis zu lösen. Natürlich können in dem hier vorgegebenen Rahmen nur kursorisch ausgewählte Methoden beispielhaft beschrieben und erläutert werden. Vielleicht wecken sie aber das Interesse für dieses Fachgebiet mit seinen faszinierenden Möglichkeiten und spannenden Anwendungsszenarien. Dem interessierten Leser wird deshalb die jeweils weiterführende Literatur zum Studium empfohlen. In einem ersten Abschnitt dieses Kapitels werden verschiedene Typen von Bilddaten und deren Formate beschrieben. Anschließend erfolgt eine Darstellung der wichtigsten Operationen zur Bildverbesserung bzw. Filterung im Ortsfrequenzbereich. Der darauffolgende Abschnitt beschäftigt sich mit verschiedenen Verfahren zur Segmentierung (Aufteilung) von Bildern in Bereiche, die aufgrund unterschiedlicher Eigenschaften und Bedeutung voneinander abgegrenzt werden sollen. Daran anschließend wird das für viele praktische Anwendungen immer wichtiger werden-
8 Medizinische Bildverarbeitung
|
245
de Thema der Bildregistrierung oder Bildfusion mehrerer Bilder bzw. verschiedener Modalitäten (bildgebende Verfahren/Geräte) behandelt. Der letzte größere Abschnitt dieses Kapitels erläutert Verfahren zur Modellierung und Visualisierung von 3D-Bildserien verschiedenster Modalitäten zur Unterstützung der Diagnostik sowie zur Planung und Therapie. Nicht behandelt werden die physikalischen und technischen Grundlagen der bildgebenden Verfahren und Systeme (Band 7) dieser Lehrbuchreihe. Auch muss in diesem Rahmen auf Verfahren des sogenannten Bilderkennens und Bildverstehens bzw. des Computer Vision verzichtet werden, die komplexere Methoden der mathematischen Bildanalyse und Mustererkennung nutzen. Auch hierfür sei auf die weiterführende Literatur verwiesen. In Band 1 dieser Lehrbuchreihe findet man in Kapitel 1 wie auch in Kapitel 10.4 einige einführende Bemerkungen zur Bildgebungskette und den weiteren Schritten der Bildverarbeitung.
8.2 Typen und Formate medizinischer Bilddaten Medizinische Bilddaten werden durch eine Vielzahl von Verfahren erzeugt. Die Abbildung 7.1 zeigt hierzu verschiedene Bildbeispiele. In der klinischen Diagnostik steht die Erzeugung und Auswertung von Schnittbildsequenzen für unterschiedliche Untersuchungsmethoden wie Röntgen, Computertomographie (CT), Magnetresonanztomographie (MRT) oder Ultraschall zur Darstellung innerer anatomischer Gegebenheiten und Organe im Vordergrund. Gleichermaßen können mittels sogenannter funktioneller bildgebender Verfahren wie funktioneller Magnetresonanztomographie (fMRT) bzw. Single Photon Emission Computed Tomography (SPECT) und der Positron Emission Tomography (PET) Funktionsabläufe an Organen dargestellt werden. Darüber hinaus spielt zunehmend die digitale Mikroskopie bzw. die Bildgebung molekularbiologischer Sachverhalte für die klinische und pharmakologische Forschung eine große Rolle. Bezüglich der Einzelheiten zu den bildgebenden Verfahren sei hier auf Band 7 dieser Reihe verwiesen. Von besonderem Interesse ist die bildhafte Überlagerung der dargestellten Funktionen mit der jeweiligen Anatomie des Organs. Da i. A. die Bildgebung verschiedener Modalitäten in jeweils eigenen Koordinatensystemen mit unterschiedlicher räumlicher Auflösung, verschiedenen Intensitäten und in unterschiedlichen Positionen des Patienten oder des zu untersuchenden Objekts erfolgt, müssen die resultierenden Bilddaten einander angepasst bzw. aufeinander abgebildet oder registriert werden. In der radiologischen Onkologie kann z. B. durch Bildgebung der zu bestrahlenden Organe und anschließenden Bearbeitungsprozeduren eine zeitlich dynamisch optimierte Therapie des Tumorgewebes erfolgen, weil Bildfolgen während der Therapie in Echtzeit analysiert werden können.
246 | Hartmut Dickhaus, Heinz Handels
anatomische Bildgebung
Röntgen
CT
MRT
Mikroskopie
Ultraschall
Micro-Arrays
fMRT
Szintigraphie
molekulare Bildgebung
SPECT
PET funktionelle Bildgebung
Abb. 8.1: Beispiele für verschiedene anatomische und funktionelle bildgebende Verfahren. Obere Reihe von links nach rechts: Röntgenverfahren, Computertomographie, Magnetresonanztomogra phie, Ultraschallverfahren. Mittlere Reihe: Mikroskopieverfahren, Microarray-Verfahren, molekulare Bildgebung mithilfe von Tracern. Untere Reihe: funktionelle Magnetresonanztomographie, Szinti graphie, Single Photon Emission Computed Tomography, Positron Emission Tomography.
Die digitale hochauflösende Mikroskopie (virtual microscopy) ist in der quantitativen Zellmorphologie bzw. anatomischen Pathologie sowie für die schnelle Auswertung von Microarray-Proben und Genexpressionsmustern in der Molekulargenetik von großem Interesse. Entsprechend dem technisch physikalischen Bilderzeugungsprozess werden also verschiedene Bildtypen und Bildformate zur Übertragung sowie zur weiteren Verarbeitung unterschieden. Dabei wird stets von einer digitalen Darstellung zweidimensionaler Bilder, der sogenannten Pixelmatrix, ausgegangen. Die zweidimensionale Matrix wird mit M Spalten und N Zeilen aufgespannt und enthält somit M × N Matrixelemente oder Bildpunkte b(m, n), die auch als Pixel (picture elements) bezeichnet werden. Der Nullpunkt des Bildkoordinatensystems befindet sich per Definition in der linken oberen Ecke. Jedem Bildpunkt ist ein diskreter Grau-, Signal- oder Parameterwert zugeordnet, der i. A. mit 12 bit kodiert ist, also 4 096 verschiedene Werte annehmen kann. Davon abweichend sind aber je nach Bedeutung der Bildpunkte auch andere Auflösungen, wie z. B. 16 bit, beim Digitalen Röntgen üblich.
8 Medizinische Bildverarbeitung
247
|
8.2.1 Bildtypen Bildtypen werden in zweidimensionale (2D) und dreidimensionale (3D) Bilder eingeteilt und weiterhin in deren zeitlich aufgelöste Bewegtbildfolgen. 2D-Bilder stellen im einfachsten Fall Zahlenwerte dar, die meistens als Grauwerte kodiert sind und entsprechend dem physikalischen Abbildungsprozess z. B. durch das CT- oder MRT-Verfahren interpretiert werden müssen. Aber auch Farbbilder oder Parameterbilder, die beliebige räumlich aufgelöste, quantifizierbare Eigenschaften kodieren, werden häufig als zweidimensionale Bilder, z. B. in der medizinischen Funktionsdiagnostik, erzeugt. Verschiedene Beispiele sind in Abbildung 8.1 dargestellt. Darüber hinaus kann die Anzahl der kodierten Kanäle pro Pixel (bei Farbbilder i. A. drei) natürlich auch höher sein. In diesem Fall spricht man von Multispektralbildern. Derartige Bildtypen werden häufig von speziellen Kameras aufgenommen oder durch komplexe Verfahren wie der Spektroskopie oder der Magnetresonanztomographie erzeugt. Wird nun ein räumlich ausgedehntes Objekt durch einen gleichzeitig oder quasigleichzeitig aufgenommenen Stapel von 2D-Bildern so zusammengesetzt, dass die dritte, orthogonale Raumkoordinate rekonstruierbar wird, spricht man von Volumenbilddaten. Dies ist beim CT-Scanner mit 64 oder 128 Schichten der Fall. Das 2D-Bildelement (Pixel) wird auf diese Weise zum 3D-Volumenelement (Voxel, volume element) v(m, n, z) ergänzt. Die Ausdehnung eines Voxels kann gegebenenfalls in allen drei Raumrichtungen unterschiedlich sein (Abb. 8.2). Weiterhin ist die dynamische Veränderung der bislang statisch aufgenommenen Bilddaten über die Zeit interessant. Zu diesem Zweck erzeugt man zeitliche 2Doder 3D-Bildfolgen, d. h. die Bildaufnahmen oder Scans erfolgen zu verschiedenen Zeitpunkten repetitiv. Dabei kann der zeitliche Abstand bzw. die zeitliche Auflösung je nach Anwendungszweck sehr unterschiedlich sein, z. B. von wenigen Millisekunden bis hin zu mehreren Stunden dauern. Räumlich-zeitliche Bildfolgen, auch als 0
m
M-1
0
Voxel v(m,n,z+1)
n
Voxel v(m,n,z)
Schicht z+1 Schicht z
Pixel: b(m,n)
Z N Sc
hic
hta
(a)
bs
M
N-1 (b)
Pixel b(m,n)
Abb. 8.2: Schematische Darstellung der Pixelmatrix (a) und des Voxelraums (b).
tan
d
248 | Hartmut Dickhaus, Heinz Handels
3D+t-Daten bezeichnet, sind in der medizinischen Diagnostik besonders für die Analyse von Bewegungsvorgängen wichtig, z. B. der Bewegung der Extremitäten oder der Herzklappen sowie der Verfolgung ausgezeichneter Markerpunkte bestimmter Organe bei der onkologischen Radiotherapie. Dynamisch sich ändernde Genexpressionsraten erzeugen unter bestimmten Einflüssen in Microarray-Messungen ebenfalls derartige Bildfolgen.
8.2.2 Bilddatenformate In der Medizin wird ein Bild in der Regel gemeinsam mit einer Vielzahl von Bildzusatzinformationen (z. B. Patientenname, Untersuchungsdatum, Pixelgröße etc.) in einer Datei gespeichert. DICOM (Digital Imaging and Communications in Medicine) gilt als Standard zur digitalen Reprä sentation medizinischer Bilder und ihrer Zusatzinformationen.
DICOM (Digital Imaging and Communications in Medicine) wurde vom American College of Radiology und der National Electrical Manufactures Association entwickelt [NEMA 2015]. Der DICOM-3.0-Standard beschreibt neben dem Bilddatenformat die Struktur der zu jedem Bild gespeicherten Zusatzinformationen, die im Bildheader (zu Beginn des Bilddatenfiles) abgelegt sind (Abb. 8.3). Hierdurch ermöglicht der DICOM-Standard den standardisierten Zugriff auf Bilddaten und die zugehörigen Bildzusatzinformationen. Darüber hinaus werden im DICOM-Standard Kommandos und Protokolle spezifiziert, durch die eine Kommunikation (message exchange) und der
allgemein
Netzwerk Kommunikation
Datenträger und Speicherung
Einführung und Überblick
Teil 1:
Konformität Teil 4:
Definition der Serviceklassen
Teil 11:
Teil 3:
Definition der Informationsobjekte
Teil 6:
Datenlexikon
Teil 5:
Datenstrukturen und Kodierung
Anwendungsprofile für die Speicherung auf Medien
Teil 2:
Teil 7:
Nachrichtenaustausch
Teil 8: Netzwerkkommunikationsunterstützung für Datenaustausch
Teil 9: Point-to-Point Kommunikation für Datenaustausch
Teil 10: Speicherung auf Medien und Dateiformat für den Medienaustausch Teil 12: Medienformate und physische Medien für den Medientausch
Abb. 8.3: Wesentliche Bestandteile des DICOM 3.0 Standards.
8 Medizinische Bildverarbeitung |
249
Bilddatenaustausch zwischen bildgebenden Modalitäten unterschiedlicher Hersteller auf der Basis von Standard-Netzwerkprotokollen wie TCP/IP möglich wird. Dies unterstützt insbesondere den Aufbau herstellerunabhängiger, radiologischer Bildarchivund Kommunikationssysteme (Picture Archiving and Communication Systems, PACS). In der Medizin werden neben radiologischen Bildern, die meistens als sogenannte Grauwertbilder vorliegen, auch Farbbilder generiert und verarbeitet. Sie werden beispielsweise in der Dermatologie zur Dokumentation von Hauttumoren, in der ZellPathologie zur Kontrastierung bestimmter Gewebe- und Zellbestandteile oder in der Augenheilkunde bei der Untersuchung des Augenhintergrundes erzeugt. Es werden verschiedene Farbräume zur Farbdarstellung verwendet, z. B. der mehr technisch orientierte RGB-Raum (Rot-Grün-Blau-Raum) oder der wahrnehmungsorientierte HSI-Raum (engl. Hue, dt. Farbton; Saturation, dt. Sättigung; Intensity, dt. Helligkeit). In Abbildung 8.4 werden der RGB- und der HSI-Farbraum gegenübergestellt. Ein RGB-Farbbild besteht aus drei Kanälen (Rot-, Grün- und Blaukanal), die kurz als RGB-Kanäle bezeichnet werden (Abb. 8.5). Bei einem Farbbild mit 24 bit Farbtiefe stehen für jeden Farbkanal 1 Byte = 8 bit und somit 28 = 256 verschiedene Farbabstufungen zur Verfügung. Dies ermöglicht die Darstellung von 224 ≈ 16, 7 Millionen verschiedenen Farben. Für Farbbilder mit 24 bit Farbtiefe resultiert im Vergleich zu Grauwertbildern mit derselben Bildauflösung ein um den Faktor 3 erhöhter Speicherbedarf. Durch Reduktion der Anzahl der in einem Bild darstellbaren Farben kann der Speicherbedarf eines Farbbildes allerdings deutlich verringert werden. Bei der Repräsentation von Farbbildern im JPEG-Format (nach der Joint Photographic Expert Group benannt) [JPEG 2015] werden verschiedene Farbtiefen unterstützt. In der Regel wird eine verlustbehaftete Kompression der Farbbilder zur Reduktion des Speicherbedarfs vorgenommen. Den Grad der Kompression und des damit verbundenen Qualitätsverlustes kann man bei Konvertierung eines Bildes in das JPEG-Format zumeist interaktiv festlegen. Im TIFF-Format (Tagged Image File Format) können True-Color-Bilder mit bis 32 bit pro Farbkanal repräsentiert werden. Zur Reduktion des Speicherbedarfs werden verlustbehaftete und verlustfreie Kompressionsverfahren eingesetzt. Bei digitalen medizinischen Farbbildern, die computergestützt weiterverarbeitet und analysiert werden sollen, ist eine verlustfreie Speicherung der Bilder mit 3 mal 8 bit = 24-bit-Farbtiefe z. B. im TIFF-Format sinnvoll. Bei der Bilddatenkompression wird die Bildinformation in Form der Pixelwerte so kodiert, dass der Speicher- oder Repräsentationsaufwand für das betroffene Bild geringer wird. Bei einer ver lustfreien Kompression lässt sich die Bildinformation exakt rekonstruieren. Bei der verlustbehaf teten Kompression ist dies nicht mehr exakt der Fall. Dennoch können verlustbehaftete Verfahren sehr sinnvoll sein, wenn die visuell wahrnehmbare Information dadurch nicht beeinträchtigt wird. Letztlich wird die wahrnehmbare Auflösung durch die Anordnung der Sinneszellen in der Retina des Auges bestimmt ( Band 2).
250 | Hartmut Dickhaus, Heinz Handels B (0, 0, 1)
cyan
magenta weiß Grauwerte
(0, 1, 0)
(1, 0, 0)
G
R (a)
gelb weiß I
cyan
H
gelb
S
rot blau
magenta
Intenstität/Helligkeit
grün
H S
H S
(b)
schwarz
Abb. 8.4: Farbräume zur Farbdarstellung in der Bildgebung. (a) RGB-Raum in kartesischen Koordina ten. Die Koordinaten sind jeweils auf 1 normiert. (b) HSI-Raum in Zylinderkoordinaten.
B G R
(a)
87 54 8 15 17 4 3 23 83 92 77 62 3 35 8 76 26 89 84 87 89 77 3 8 71 45 99 1 5 40 89 77 3 8 9 45 99 1 5 45 47 52 58 73 45 99 1 5 23 79 47 52 58 73 78 93 58 21 73 11 85 17 33 47 52 93 21 11 17 37 93 21 11 17 38
(b)
Abb. 8.5: RGB-Struktur eines 24-bit-Farbbildes. (a) RGB-Struktur und (b) Darstellung eines angefärb ten mikroskopischen Gewebeschnitts einer Epidermis. (Quelle: N. Grabe, TIGA Center, BIOQUANT, Universität Heidelberg)
8 Medizinische Bildverarbeitung
|
251
Für Bildfolgen bewegter Szenen oder Videos von Digitalbildern sind aufgrund des hohen Datenaufkommens ebenfalls Kompressionsverfahren für Bewegtbild-Folgen entwickelt worden, deren Prinzip darauf beruht, möglichst viele Bildteile nur durch die Differenz des Bildinhaltes, – der wiederum komprimiert wird –, zum vorherig kodierten Bild zu beschreiben. Der verfügbare Standard MPEG 4 (Moving Picture Expert Group) [MPEG 2015] wird ständig erweitert und auch gleichzeitig in verschiedenen Varianten für Audiosignale definiert.
8.3 Operatoren und Transformationen Mithilfe sogenannter Bildverarbeitungsoperatoren sollen die Qualität und Semantik eines Bildes entsprechend bestimmter Zielvorstellungen modifiziert oder bestimmte Strukturen erkannt werden. Beispielsweise sollen die im Bild sichtbaren Kanten verstärkt oder hervorgehoben werden oder aber das vorhandene Rauschen bei gleichzeitigem Erhalt der Kanten unterdrückt werden. Man wünscht sich quantitative Längen-, Flächen- oder Volumenangaben definierter Objekte, zeitliche Verläufe extrahierter charakteristischer Parameter oder aber die Identifizierung bestimmter Formen. Die Palette hierfür geeigneter Operatoren lassen sich grob einteilen in: – Bildpunktoperatoren, – lokale Operatoren, – globale Operatoren bzw. Transformationen. Ausführliche Darstellungen dieser Operatoren findet man in [Deserno 2011, Jähne 2005, Handels 2009].
8.3.1 Bildpunktoperatoren
Bildpunktoperatoren transformieren den Wert eines einzelnen Pixels mit Hilfe einer Abbildungs vorschrift in einen anderen Wert. Hat die Position des Pixels innerhalb der Grauwertmatrix keinen Einfluss, spricht man von homogenen Punktoperationen.
Derartige Abbildungs- oder Zuordnungsvorschriften haben häufig Verbesserungen des Kontrastverhaltens des Bildes zum Ziel. Dabei versteht man unter dem Kontrast des Bildes den Unterschied in der maximalen und minimalen Leuchtdichte zwischen zwei Bildpunkten. Beispiele für homogene Punktoperationen sind die Histogrammspreizung, die Linearisierung, beliebige Kennlinien-Transformationen oder Pseudofarbcodierungen. Die Wirkungen von Punktoperationen lassen sich an sogenannten Histogrammen der Bilder verdeutlichen.
252 | Hartmut Dickhaus, Heinz Handels
Spreizung
Linearisierung
Logarithmierung
Pseudo-Farbkodierung
Abb. 8.6: Wirkungen verschiedener Punktoperatoren. Spreizung, Linearisierung, Logarithmierung mit anschließender Pseudofarbkodierung demonstriert an einem unterbelichteten Röntgenbild. Die blauen Histogramme entsprechen der jeweiligen Häufigkeit der Grauwerte (Abszisse: Grauwertbe reich; Ordinate: Anzahl der jeweiligen Grauwerte im Bild); die rote Kurve stellt die kumulative oder Summenhäufigkeit dar (Abszisse: Grauwertbereich; Ordinate: kumulative Häufigkeit).
Ein Histogramm stellt die relative Häufigkeit der verschiedenen möglichen Intensitätswerte einer Pixelmatrix dar. Es gilt als Schätzer der zugehörigen Dichtefunktion. Das kumulative Histogramm beschreibt die Summenhäufigkeit dieser Werte und kann als Schätzer der zugehörigen Vertei lungsfunktion interpretiert werden.
Die Abbildung 8.6 verdeutlicht die verschiedenen Wirkungen der Punktoperatoren anhand der zugehörigen Histogramme und der entsprechenden Ergebnisbilder. Bei der Histogrammspreizung wird der vorliegende, häufig eingeschränkte Grauwertbereich über den gesamten möglichen Grauwertbereich gestreckt. Die Linearisierung bildet die vorliegende Grauwertverteilung in Form des kumulativen Histogramms auf eine Gerade ab und erhöht damit den Kontrast benachbarter Grauwerte. Ein unteroder überbelichteter Grauwertbereich kann durch eine nichtlineare Kennlinie, z. B. mit logarithmischem Verlauf, korrigiert werden. Ein gegebener Grauwertbereich kann auch zur besseren Unterscheidung verschiedener Graustufen über Farbtabellen oder Kennlinien auf sogenannte Pseudofarbbilder abgebildet werden.
8 Medizinische Bildverarbeitung
|
253
8.3.2 Lokale Operatoren Ein lokaler Operator beschreibt für jeden Bildpunkt (m, n) eine auf seine lokale Nachbarschaft be schränkte Transformation. Zur Beschreibung und Durchführung lokaler Transformationen werden Masken bzw. Fenster (masks, templates, windows) verwendet, deren Größe durch die betrachtete Bildumgebung mit dem Bildpunkt (m, n) als Zentrum festgelegt wird.
Bei linearen Filtern ergibt sich das transformierte Bild b eines Originalbildes b wie folgt: b = b ∗ h
k
mit
k
b (m, n) = ∑ ∑ b(m + i, n + j) ⋅ h(i, j)
(8.1)
i=−k j=−k
Der Operator (∗) beschreibt die diskrete lineare Faltungsoperation, die entsprechend Formel (8.1) definiert ist und hier als Filterung interpretiert werden soll. Die Maske h wird auch als Faltungskern (convolution kernel) bezeichnet (siehe Abb. 8.7). Die Masken-Koeffizienten werden häufig normiert, sodass deren Summe 1 ergibt. Bei der Durchführung der Filterung wird das Bild vollständig durchlaufen und für jeden Bildpunkt an der Stelle (m, n) die o.g. Operation durchgeführt. Die hierbei entstehenden reellwertigen Funktionswerte b (m, n) werden auf den nächsten diskreten Intensitätswert gerundet. Eine Erweiterung der Filter auf größere 2D-Bildumgebungen sowie ihre Verallgemeinerung zu 3D-Operatoren, bei denen räumliche Nachbarschaften in medizinischen 3D-Bilddaten berücksichtigt werden, können in analoger Weise vorgenommen werden. Für praktische Anwendungen werden zwei wichtige Filtertypen unterschieden, die wiederum unterschiedliche Realisierungen haben können: Die Glättungsfilter, auch Tiefpassfilter genannt, und die Kantenfilter auch Hochpassfilter genannt. –2 –1
0
1
2
–2 –1
(a)
0
–1
1
–1
0
0
1
1
(b)
2
Abb. 8.7: Maskenadressierung in einer 3 × 3-Umgebung (links) und einer 5 × 5-Umgebung (rechts) eines Bildpunktes.
254 | Hartmut Dickhaus, Heinz Handels
Glättungsfilter Glättungs- oder Tiefpassfilter werden zur Rauschunterdrückung (noise suppression) und Bildglät tung (image smoothing) eingesetzt.
Durch Tiefpassfilter werden lokale Variationen der Pixelwerte in den Bilddaten reduziert und somit eine Homogenisierung in verschiedenen Bildregionen erreicht. Neben dem linearen Mittelwert- und Gauß-Filter wird das Medianfilter als Vertreter nichtlinearer Glättungsfilter kurz vorgestellt. Bei der Mittelwertfilterung wird jedem Bildpunkt der gerundete Mittelwert seiner durch die Maske h überdeckten Nachbarpunkte zugeordnet. Benachbarte Pixelwerte sind durch die Mittelung stärker voneinander abhängig geworden, und der Bereich erscheint visuell glatter. Kanten werden abgeflacht, wodurch das gefilterte Bild unscharf und weniger strukturiert erscheint. Die Variation der Grauwerte in homogenen Regionen wird reduziert, wodurch das Bildrauschen verringert wird. Der Glättungseffekt bzw. die Wirkung des Filters wird mit zunehmender Maskengröße verstärkt, da die Standardabweichung des Rauschens im Fall normalverteilter Pixelwerte um den Faktor √n reduziert wird, wenn n die Anzahl der gemittelten Bildpunkte ist. Der Gauss-Filter ist ein linearer Filter zur Rauschreduktion, dessen Maskenkoeffizienten an der Form der zweidimensionalen symmetrischen Normalverteilung orientiert sind. Das Maximum der Verteilung ist auf den Maskenmittelpunkt zentriert. Die Elemente der Maske (Filterkoeffizienten) werden als Koeffizienten einer Binominalverteilung berechnet. Dadurch wird eine diskrete Approximation der zweidimensionalen Gaussschen Normalverteilung erreicht. Im gefilterten Bild wird die originäre Bildinformation stärker betont. Insbesondere werden Kanten nicht so abgeflacht wie bei der Mittelwertfilterung. Der Medianfilter ist ein nicht-linearer Glättungsfilter, bei dem einem betrachteten Pixel an der Stelle (m, n) der Median der in seiner lokalen Umgebung U(m, n) auftretenden Bildfunktionswerte zugeordnet wird b Median (m, n) = Median(m i ,n j )∈U(m,n){b(m i , n j )}
(8.2)
Der Medianfilter reduziert das Rauschen und eliminiert vereinzelte Ausreißer im Bild, d. h. lokale Extrema der Bildfunktion. Er hat gegenüber dem Mittelwertfilter den Vorteil, dass Objektkanten im gefilterten Bild besser erhalten bleiben. In Abbildung 8.8 werden die glättenden Wirkungen drei verschiedener Filter gleicher Maskengröße an ein und demselben Testbild vergleichend dargestellt. Die sehr gute Rauschunterdrückung und Kantenerhaltung des Medianfilters ist offensichtlich. Bei allen Filtertypen nimmt die Stärke der Filterwirkung mit der Maskengröße zu.
8 Medizinische Bildverarbeitung
Original
Mittelwert [5x5]
Median [5x5]
255
|
Gauß [5x5, 1.5]
Abb. 8.8: Vergleichende Darstellung der Wirkungen eines Mittelwert-, Median- und GAUßfilters gleicher Maskengröße, angewandt auf ein künstlich verrauschtes MRT-Bild eines Kniegelenks (Ori ginal).
Kantenfilter Kantenfilter werden zur Hervorhebung bzw. Detektion von Kanten im Bild eingesetzt. Eine Kante ist eine deutliche lokale Veränderung der Bildfunktionswerte entlang gerader oder ge krümmter Linien, die idealerweise als Sprung oder Impuls gedeutet werden kann.
Kanten werden quantitativ dadurch charakterisiert, dass der Betrag des Gradienten der Bildfunktion b hier ein lokales Maximum annimmt, während seine zweite Ableitung einen Nulldurchgang hat. Der Gradient an der Stelle (x, y) einer als kontinuierlich betrachteten Bildfunktion b ist ein zweidimensionaler Vektor, der in die Richtung des steilsten Anstiegs der Bildfunktion b weist. Der Gradient ∇b(x, y) entlang einer Kante steht daher immer senkrecht zur Kantenrichtung ∂b(x,y) ∂x ) grad(b(x, y)) = ∇b(x, y) = ( ∂b(x,y)
(8.3)
∂y
Aufgrund der diskreten Struktur digitaler Bilder ist eine diskrete Approximation des Gradienten ∇b(x, y) in einer lokalen Umgebung U(m, n) des betrachteten Punktes (m, n) notwendig. Hierzu können die partiellen Ableitungen in x-Richtung und entsprechend in y-Richtung wie folgt durch Differenzenquotienten approximiert werden: b(m, n) − b(m − 1, n) b x (m, n) ≅ = b(m, n) − b(m − 1, n) (8.4) m − (m − 1) Der Betrag des Gradienten, der ein Maß für die Stärke der Änderung der Bildfunktion b ist, ist gegeben durch |grad(b(m, n)| = √b x (m, n) + b y2 (m, n) 2
(8.5)
256 | Hartmut Dickhaus, Heinz Handels
0
0
0
Dx = –1
1
0
0
0
0
0
–1
0
0
1
0
0
0
0
0
0
0
0
–1
0
SDx = ½ –1
0
1
0
0
0
0
0
0
0
1
0
Dy =
SDy = ½
Abb. 8.9: Differenzenoperatoren Dx und Dy so wie die symmetrischen Differenzenoperatoren SDx und SDy in x- und y-Richtung.
Die Richtung des Gradienten wird durch den Winkel Φ(m, n) zwischen dem Gradientenvektor und der x-Achse beschrieben, für den gilt: tan Φ(m, n) =
b y (m, n) b x (m, n)
(8.6)
Die Approximation der partiellen Ableitungen wird durch die Faltung der Masken Dx und Dy mit dem Bild b berechnet (Abb. 8.9). Die so definierten Operatoren werden als Differenzenoperatoren in x- bzw. y-Richtung bezeichnet. Durch Einsetzen der diskreten Approximation der partiellen Ableitungen können der Gradientenbetrag und seine Richtung in jedem Bildpunkt ermittelt werden. Alternativ kann der Gradient durch Betrachtung der beiden Nachbarn in x- bzw. y-Richtung durch die symmetrischen Differenzenoperatoren SDx und SDy approximiert werden. Im Vergleich zu den Differenzenoperatoren mit Masken Dx und Dy führt die Anwendung symmetrischer Differenzenoperatoren zu einer Verbreiterung der Kanten. Differenzenoperatoren heben lokale Variationen der Bildfunktionswerte hervor und verstärken so mit neben den Kanten auch in den Bildern auftretende Rauscheffekte.
Sobel-Operator Der Sobel-Operator ist ein richtungsabhängiger Kantenfilter aufgrund einer Gradientenapproxi mation mit gleichzeitiger Glättungswirkung orthogonal zur Gradientenrichtung. Durch die Kom bination der Wirkungen verschiedener Sobel-Masken, z. B. durch Summation der Beträge, lässt sich auch Richtungsunabhängigkeit erzeugen.
Vertikale, horizontale und diagonale Kanten können durch spezielle Varianten der Sobel-Masken S x , Sy , S/ und S\ gezielt hervorgehoben werden (Abb. 8.10). Die Anwendung der Masken S x , und Sy und anschließende Summation der Beträge ergibt den sogenannten Betrag des Sobel-Operators, der sich gut zur Kantendetektion eignet. Abbildung 8.11 demonstriert die Wirkung beider Masken separat und die Summation der Beträge. S = |S x | + |S y |.
8 Medizinische Bildverarbeitung
–1
0
1
Sx = ⅛ –2 0
2
–1
0
–1 –2 –1 Sy = ⅛
1
0
0
0
1
2
1
S/ = ⅛
|
257
–2 –1
0
0
–1 –2
1
0
–1
S\ = ⅛ –1
0
1
2
1
0
0
1
2
Abb. 8.10: 3 × 3-Masken des Sobel-Operators zur Betonung vertikaler Sx -, horizontaler Sy - und diagonaler (S/ , S\ )-Kanten.
(a)
(b)
Abb. 8.11: Wirkungen der Sobel-Masken auf ein Röntgenbild einer Hand. (a) Röntgenbild eines Kin des. (b) Summe der Beträge nach Anwendung der Masken Sx und Sy ; häufig auch als Sobel-Betrag bezeichnet.
Eine richtungsunabhängigere Kantenbetonung wird durch den kombinierten Sobel-Operator S = max{|Sx |, |S y |, |S/ |, |S\ |} (8.7) erzielt. Anhand des dargestellten Sobel-Bildes (Abb. 8.11) wird deutlich, dass durch die beim Sobel-Operator durchgeführte Mittelung, neben einer Hervorhebung, auch eine Verbreiterung der Kanten auftritt.
Laplace-Operator Richtungsunabhängige Differenzenoperationen lassen sich durch punktsymmetrische Masken erzeugen. Hierfür wird häufig der Laplace-Operator eingesetzt Der Laplace-Operator ist ein richtungsunabhängiger Kantenfilter aufgrund einer Approximation des mathematischen Laplace-Operators (2. Ableitung). Da Kanten hierbei durch Nulldurchgänge charakterisiert werden, müssen sie durch eine anschließende Nulldurchgangsdetektion noch er mittelt werden.
258 | Hartmut Dickhaus, Heinz Handels
0
–1
0
L4 = –1
4
–1
0
–1
0
–1 –1 –1 L8 = –1 8
–1
–1 –1 –1
Abb. 8.12: Diskrete Laplace-Operatoren der Größe 3 × 3 mit unterschiedlichen Isotropieeigenschaften.
Die diskrete Approximation der zweiten Ableitungen für die x- und y-Richtung sowie ihre Summe führt bei einer 3 ×3 Maske zur symmetrischen Matrix L4 . Eine bessere Approximation im Sinne höherer Isotropie wird durch die Matrix L8 erzielt (Abb. 8.12). Unter Isotropie wird die Richtungsunabhängigkeit der Wirkung des Operators verstanden. Der Laplace-Operator ist rotationsinvariant. Nachteilig ist seine Rauschempfindlichkeit, die zur Generierung von Pseudokanten führen kann. Man verwendet deshalb auch häufig den Laplace-Operator in Kombination mit einem Tiefpassfilter, wie z. B. einem Gauss-Filter. Diese Kombination wird Laplacian of Gaussian (LoG) genannt und gerne zur Kantendetektion eingesetzt.
8.4 Segmentierung Die Segmentierung (segmentation) bedeutet die Abgrenzung relevanter Bildbereiche vom Hinter grund oder von anderen Objekten durch Zuordnung von Bildelementen (Pixel, Voxel) zu Bildteilen (Segmente).
Bei medizinischen Bildern werden beispielsweise Weichteilgewebe gegenüber Knochen unterschieden oder Gefäße verschiedenster Größe gegenüber dem umgebenden Gewebe. Häufig ist die Diskriminierung pathologischer Gewebeveränderungen von gesunden, anatomischen Strukturen von besonderem Interesse. Da die verschiedenen bildgebenden Verfahren nicht immer ohne weiteres eine Differenzierung bzw. Diskriminierung der abgebildeten Gewebeeigenschaften erlauben, muss durch zusätzliche Maßnahmen bei der Bildgebung der Kontrast der zu segmentierenden Strukturen erhöht werden. Das kann z. B. durch spezielle Kontrastmittel erreicht werden, die über die Blutbahn injiziert oder oral verabreicht werden. Teilweise werden auch hierfür sogenannte Marker benutzt, die an Transportproteine gekoppelt sind und von bestimmten Geweben bzw. Molekülen aufgenommen werden und dadurch selektiv bestimmte Bereiche hervorheben. Bei mikroskopischen, zellhistologischen Bildern bedient man sich häufig verschiedener Färbetechniken, die Zellen unterschiedlicher Gewebearten farblich voneinander unterscheidbar machen. Auch Radionuklide werden bei nuklearmedizinischen Untersuchungen als sogenannte Tracer eingesetzt, um spezielle Funktionsbereiche im Gewebe von Organen gegenüber solchen mit anderen Eigenschaften hervorzuheben und abzugrenzen. Wesentlicher Effekt dieser Maßnahmen ist der erzielte Kontrast, der visuell oder maschinell eine möglichst genaue Differenzie-
8 Medizinische Bildverarbeitung |
259
rung erlauben soll. Für die Bildgebung erschwerend ist die meist nicht so hohe Bildqualität aufgrund von Rauschen bzw. Inhomogenitäten und die hohe biologische Variabilität. Automatisch arbeitende, rein datengetriebene Segmentierungsmethoden, wie die von Gonzalez und Wintz für eine bestimmte Fragestellung entwickelte Methode [Gonzalez 1987], scheitern meistens an der Problematik der biologischen, individuellen Variationsbreite. Daher beschäftigt sich die Forschung in neuerer Zeit zunehmend mit modellbasierten Segmentierungsverfahren, die Vorwissen über die zu segmentierenden Strukturen modellieren und während der Segmentierung nutzen. In der Praxis werden häufig interaktive Methoden eingesetzt, die benutzergestützt halbautomatisch arbeiten. Im Folgenden sollen einige übliche Segmentierungsansätze vorgestellt werden: – Schwellwertverfahren, – Region-Growing-Verfahren, – aktive Konturmodelle und deformierbare Modelle.
8.4.1 Schwellwertverfahren
Bei der schwellwertbasierten Segmentierung (thresholding) werden die zu einem oder mehreren Bildobjekten gehörenden Pixel eines Bildes anhand zweier Schwellwerte t min und tmax markiert und als Binärbild B dargestellt.
{1, falls tmin ≤ b(m, n, ) ≤ tmax (8.8) B(m, n, ) = { 0, sonst { In der Praxis ist die Möglichkeit zur Segmentierung medizinischer Bildobjekte mithilfe von Schwellwertverfahren meistens auf Spezialfälle limitiert. So ist beispielsweise die Abgrenzung des Bildobjektes vom Bildhintergrund und eine Segmentierung der Hautoberfläche in CT- oder MR-Bildern häufig durch eine Schwellwertoperation möglich, wie auch die Segementierung einzelner Zellen in einem Gewebe (Abb. 8.13). Weiterhin können Knochen in CT-Bildfolgen unter Verwendung eines charakteristischen Hounsfield-Intervalls durch Schwellwertverfahren segmentiert werden. Generell gilt, dass ein schwellwertbasiertes Segmentierungsverfahren erfolgversprechend ist, wenn die Grauwerteverteilung des Bildes im zugehörigen Grauwerthistogramm deutliche Gipfel bzw. Senken aufweist.
260 | Hartmut Dickhaus, Heinz Handels
(a) Sternzellen Retina
(b) Schwellwert = 50
(c) Schwellwert = 100
Abb. 8.13: Schwellwertbasierte Segmentierung von Sternzellen der Retina. (a) Originalbild, (b) nach Anwendung der Schwellwerte tmin = 50 und tmax = max. Pixelwert, (c) nach Anwendung eines Schwellwertes tmin = 100 und tmax = max. Pixelwert.
8.4.2 Region Growing
Das Region-Growing-Verfahren, auch Bereichswachstumsverfahren genannt, wird häufig zur Seg mentierung zusammenhängender gleicher Regionen eingesetzt, die hinsichtlich einfacher Krite rien der Bildpunkte wie z. B. dem Grauwert möglichst homogen sind.
Für die Segmentierung von 3D-Bildfolgen wird dieses Verfahren zum Volumenwachstumsverfahren (volume growing) verallgemeinert. Der Algorithmus arbeitet prinzipiell folgendermaßen: Im ersten Schritt wird ein Pixel des zu segmentierenden Objektes als Saatpunkt (seed point) benutzerabhängig markiert. Ausgehend vom Saatpunkt werden alle Pixel betrachtet, die die Menge N S der Nachbarpixel in diesem initialen Zustand bilden. Die Wahl des Saatpunktes wird zumeist interaktiv innerhalb des betrachteten Gewebes vorgenommen. In der Menge N S sind stets alle Bildpunkte enthalten, an denen das aktuelle Segment noch expandierbar ist. Erfüllt ein Pixel das Ähnlichkeits- oder Homogenitätskriterium, so wird es mit dem Segmentindex markiert und seine noch nicht segmentierten Nachbarn werden zur Menge N S hinzugenommen. Wird das Homogenitätskriterium nicht erfüllt, so wird das Pixel als bearbeitet markiert und mit dem nächsten Nachbarpixel fortgefahren. Der Algorithmus stoppt, wenn kein Pixel der Menge N S das Homogenitätskriterium mehr erfüllt und somit das Segment nicht mehr erweitert werden kann. Zur Charakterisierung von zu segmentierenden Bildstrukturen durch Homogenitätskriterien lassen sich Intervalle der Intensitätswerte oder einfache statistische Maße kleiner Umgebungen der betrachteten Pixel einsetzen. Werden durch die einge-
8 Medizinische Bildverarbeitung |
(a) MRT-T1 Gehirn (transversale Schicht)
261
(b) Segmentierung der grauen Substanz durch Region Growing
Abb. 8.14: Segmentierung der grauen Substanz in einer transversalen MRT-Schichtabbildung ei nes Gehirns. Die Saatpunkte sind markiert. (a) Originalbild. (b) An den durch blau punktierte Linien gekennzeichneten Stellen ist das sogenannte Auslaufen des Verfahrens über schmale Stege er kennbar.
stellten Wachstumsbedingungen nicht alle Pixel des zu segmentierenden Bereiches erfasst, muss die nächste Iteration mit etwas gelockerten Bedingungen durchgeführt werden. Fehlerhaftes Wachstum, was evtl. durch schlecht ausgeprägte Grenzen auftreten kann (siehe Abb. 8.14), wird anschließend interaktiv korrigiert. Beim Bereichswachstumsverfahren werden in jedem Iterationsschritt Bildpunkte in der unmittelbaren Nachbarschaft des aktuellen Pixels betrachtet. Die Erweiterung des Algorithmus vom Bereichs- zum Volumenwachstumsverfahren wird durch die Betrachtung räumlicher Nachbarschaften erreicht. Sind die Pixel eines 3D-Bildes durch einen Quader repräsentiert, so können die 3D-Nachbarschaftsrelationen wie folgt definiert werden: Zwei Pixel einer 3D-Bildfolge sind Nachbarn, falls sie über eine Fläche, eine Kante oder eine Ecke des Pixelquaders miteinander verbunden sind. Sie werden als direkte Nachbarn bezeichnet, wenn beide Pixel über eine Fläche miteinander verbunden sind. Das Volumenwachstumsverfahren wird häufig zur 3D-Segmentierung medizinischer Bildobjekte eingesetzt, um eine 3D-Darstellung der segmentierten Bildstrukturen zu generieren oder ihr Volumen zu bestimmen.
262 | Hartmut Dickhaus, Heinz Handels
8.4.3 Aktive Konturmodelle und deformierbare Modelle
Aktive Konturmodelle (snakes oder deformable contour models) bilden einen wichtigen Spezialfall deformierbarer Modelle. Sie zählen zu den kantenorientierten Segmentierungsalgorithmen, die eine Bestimmung der Kontur eines Bildobjektes zum Ziel haben.
Aktive Konturmodelle sind insbesondere für die Segmentierung von Bildobjekten geeignet, deren Kantenstärke entlang der Außenkontur stark variiert oder deren Kanten von Lücken durchbrochen sind [Kass 1987a, Kass 1987b]. Aktive Konturen können anschaulich als biegsame planare Gummiringe interpretiert werden, die sich während des Segmentierungsprozesses sukzessive den Objektgrenzen anpassen. Demgegenüber werden deformierbare 3D-Modelle zur oberflächenbasierten Segmentierung von 3D-Objekten in räumlichen Bilddaten eingesetzt. Die deformierbaren Oberflächenmodelle bilden eine direkte Verallgemeinerung aktiver Konturmodelle, bei deren Anwendung durch sukzessive Anpassung der aktiven Oberfläche eine 3D-Segmentierung von Bildobjekten in räumlichen Bilddaten erzielt werden kann. Zur Bestimmung der Objektkontur wird unter Verwendung eines pseudo-physikalischen Modells das folgende Energiefunktional minimiert: 1 !
Esnake (v) = ∫ Einnen (v(s)) + Eaußen (v(s))ds = min
(8.9)
0
Ziel des Optimierungsverfahrens ist es, eine Kontur ν = {ν(s) = (x(s), y(s))} mit s ∈ [0, 1] so zu bestimmen, dass die Energie der Kontur Esnake (ν) minimal wird. Die innere Energie, auch interne Energie genannt, modelliert das Vorwissen über die Kontur und stellt ein implizites Konturmodell dar. Wesentliche Modelleigenschaften, die insbesondere bei Berandungen biologischer Objekte in medizinischen Bilddaten häufig auftreten, sind die Stetigkeit, Geschlossenheit und Glattheit der gesuchten Objektkontur, die wie folgt modelliert werden können: Einnen (v(s)) =
dv(s) 2 α ⋅ ds ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟ Stetigkeitsterm‚ Elastizität, Geschlossenheit‘
2 2 d v(s) β ⋅ 2 d s ⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟⏟
+
Glattheitsterm‚ Biegsamkeit, Krümmung‘
(8.10) Durch die äußere Energie, auch externe Energie genannt, wird der Einfluss der Bildinformation auf den Konturfindungsprozess modelliert. Zur Charakterisierung von Kantenpixeln kann die äußere Energie durch den negativen lokalen Gradientenbetrag beschrieben werden: Eaußen (ν(s)) = −wKante |grad(b(ν(s)))|
(8.11)
8 Medizinische Bildverarbeitung
|
263
Hierbei gibt wKante ≥ 0 den Gewichtsfaktor an, mit dem dieser Energieanteil in das Optimierungskriterium einfließt. Der Betrag des Gradienten |grad(b(ν(s)))| kann im diskreten Bild durch Kantenoperatoren wie den Gradienten- oder Sobel-Operator approximiert werden. Durch diese Modellierung werden Kantenpixel, die sich durch hohe Gradientenbeträge auszeichnen, bevorzugt als Konturpunkte ν(s) ausgewählt, da diese aus Sicht des Optimierungskriteriums günstige Lösungen mit geringer externer Energie repräsentieren. Ziel des Optimierungsprozesses ist die Minimierung der Energie der aktiven Kontur E(N(ν)) = Einnen (N(ν)) + Eaußen (N(ν)). Beim effizienten Greedy-Verfahren z. B. von [Williams 1992] werden in jedem Iterationsschritt d Nachbarn N(ν) eines Konturpunktes v betrachtet und ihre Energiebeiträge E(N(ν)) berechnet. Ist die Energie eines der Nachbarpixel kleiner als die des aktuellen Konturpixels, so wird der Konturpunkt dem Nachbarn minimaler Energie zugeordnet. Anderenfalls bleibt die Position des Konturpunktes unverändert, da er sich bereits in Relation zu seiner Nachbarschaft in dem energetisch günstigsten Zustand befindet. Diese auf die lokale Nachbarschaft beschränkte Betrachtung wird sukzessive für alle Punkte der aktiven Kontur durchgeführt. Der Algorithmus terminiert, wenn in einem Iterationsschritt keine weitere Reduzierung der Konturenergie erzielt werden konnte. Weitere Methoden wie das Live-Wire-Verfahren [Barret 1996] oder das LevelSet-Verfahren [Osher 1988] mögen anhand der Literatur studiert werden.
8.5 Registrierung medizinischer Bilddaten Die Bildregistrierung (image registration) umfasst eine Transformation, durch die ähnliche, mit einander korrespondierende Bildstrukturen zweier unterschiedlicher Bilddatensätze aufeinander so abgebildet werden, dass die transformierten Bilddaten gemeinsam in einem Koordinatensys tem dargestellt und analysiert werden können.
Die Bildregistrierung ist wichtig, wenn von einem Patienten Daten eines bestimmten Zielvolumens bearbeitet werden sollen, die zu verschiedenen Zeitpunkten oder mit verschiedenen Bildmodalitäten aufgenommen wurden. Dieses Szenario tritt häufig in der Bestrahlungsplanung oder funktionellen Diagnostik auf. Man spricht in diesem Fall von einer intraindividuellen Registrierung. Werden dabei Bilddaten verschiedener Untersuchungsmethoden wie MRT, CT oder Ultraschall verwendet, spricht man auch von Bildfusion (Abb. 8.15). Demgegenüber steht die Abbildung eines normierten Zielvolumens, das z. B. als Atlas auf verschiedene entsprechende Zielvolumina anderer Patienten übertragen werden soll [Ganser 2004] und als interindividuelle Registrierung bezeichnet wird. Dieser Anwendungsfall findet sich beispielsweise bei der atlasgestützten Neurochirurgie oder der Übertragung von räumlich-zeitlichen Bewegungsfeldern.
264 | Hartmut Dickhaus, Heinz Handels
(a) MRT/fMRT
(b) CT/MRT
(c) MRT/Diffusionsbildgebung
Abb. 8.15: Beispiele zur intraindividuellen Registrierung bzw. Bildfusion. (a) Koronare MRT/fMRTRegistrierung von Aufnahmen des Gehirns. (b) Sagittale CT/MRT-Registrierung des knöchernen Schädels (rot) mit sagittalem MRT des Gehirns. (c) MRT/Diffusionsbildgebung von Fasertracks des Gehirns und entsprechendem sagittalen MRT mit linksseitigem großen Tumor. (Quelle: R. Bendl, DKFZ Heidelberg, Abt. Med. Physik in der Strahlentherapie und K. Maier-Hein, DKFZ Heidelberg, Abteilung Med. u Biol. Informatik).
Mathematisch lässt sich die Registrierung folgendermaßen als Optimierungsproblem formulieren: Es sind die Bilder R (Referenzbild) und T (Template-Bild) durch eine optimale und plausible Transformation Ψ so aufeinander abzubilden, dass das transformierte Template-Bild T(Ψ(x)) dem Referenzbild R(x) ähnlich ist. Der Vektor x gibt die zugehörigen Pixel- oder Voxelkoordinaten an. Registrierungsmethoden lassen sich anhand der beim Registrierungsprozess verwendeten Bildinformationen unterscheiden. Außerdem können zwei Transformationsklassen unterschieden werden: – Parametrische Transformationen: Bei landmarken-, kurven- und oberflächenbasierten Registrierungsverfahren muss vor ihrer Anwendung eine Selektion oder Segmentierung ausgewählter Punkte, Linien oder Objekte durchgeführt werden. Sie gehören zu der Transformationsklasse parametrischer Transformationen, die durch eine begrenzte Zahl an Parametern charakterisiert sind. – Nichtparametrische Transformationen: Sie erlauben im Rahmen der voxelbasierten Registrierung die Anpassung von Bilddaten mit lokalen Deformationen. Ein allgemeines Schema verschiedener Transformationseigenschaften ist in Abbildung 8.16 dargestellt. Verschiedene Arten von Transformationen werden im Folgenden beschrieben.
8 Medizinische Bildverarbeitung
Original
rigide
affin
perspektivisch
|
265
elastisch
Abb. 8.16: Eigenschaften verschiedener Transformationen.
8.5.1 Transformationen Bei einer starren Transformation (rigid transformation), auch rigide Transformation genannt, werden ausschließlich Rotationen und Translationen für die Koordinatentransformation angewendet und die zu transformierenden Bildobjekte somit als starre Körper aufgefasst. Die starre Transformation ist durch die Angabe von 6 Parametern, bestehend aus den drei Rotationswinkeln um die jeweiligen Achsen sowie den drei Komponenten des Translationsvektors eindeutig bestimmt. Bei affinen Transformationen (affine transformation) werden parallele Linien auf parallele Linien abgebildet. Neben Rotationen und Translationen werden durch affine Transformationen Scherungen und Skalierungen zwischen den betrachteten Datensätzen berücksichtigt. Perspektivische Transformationen (perspective transformation) garantieren lediglich, dass Linien auf Linien abgebildet werden. Bei perspektivischen Transformationen, die durch 15 Parameter eindeutig beschrieben sind, werden neben Translationen, Rotationen und Scherungen auch perspektivische Verzerrungen zwischen verschiedenen Bilddaten kompensiert. Bei elastischen Transformationen (elastic transformation) wird das transformierte Bild durch Verzerrung eines wie auf Gummi aufgebrachten Referenzbildes erzeugt.
8.5.2 Ähnlichkeitsmaße, Metriken Zur Durchführung des Registrierungsprozesses werden Ähnlichkeitsmaße oder Metriken verwendet, welche die durch die aktuelle Transformation Ψ erzielte Ähnlichkeit zwischen dem transformierten Template-Bild T(Ψ(x)) und dem Referenzbild R(x) beschreiben. Nachfolgend werden zwei häufig verwendete Optimierungskriterien und die hier verwendeten Ähnlichkeitsmaße näher vorgestellt und diskutiert: Summe der quadratischen Intensitätsdifferenzen und die Mutual Information.
266 | Hartmut Dickhaus, Heinz Handels
Summe der quadratischen Intensitätsdifferenzen Bei der Minimierung der Summe der quadratischen Intensitätsdifferenzen werden voxelweise die Differenzen der Intensitätswerte des Referenzbilddatensatzes R(x) und des transformierten Template-Bilddatensatzes T(Ψ(x)) gebildet und die Summe aller quadrierten Differenzen als Maßzahl für die Güte der Ausrichtung berechnet. n
!
∑ (R(x i ) − T(Ψ(x i )))2 = min
(8.12)
i=1
n gibt dabei die Anzahl der betrachteten Bildpunkte, x i die Voxelkoordinaten an. Die Verwendung dieses Kriteriums ist sinnvoll, wenn die Gewebe in den auszurichtenden Bilddaten ähnliche Intensitätswerte aufweisen (z. B. bei monomodalen Bilddaten).
Mutual Information Ein Ansatz für eine robuste Ausrichtung multimodaler Bilddaten wie CT- und MR-Bilddaten, bei dem kein Vorwissen über die Abhängigkeiten zwischen den Intensitätswerten in beiden Datensätzen benötigt wird, ist in [Collignon 1995] und in [Wells 1996] vorgeschlagen. Hierfür wird ein informationstheoretisches Maß, die sogenannte Mutual Information oder auch Transinformation, als Gütekriterium verwendet, in das die Entropien der Intensitätsverteilungen in den Bilddatensätzen sowie ihrer gemeinsamen Verteilung eingehen. Gegeben sei ein Bild mit Intensitäten a1 , . . . , a v und ihre Verteilung p(a1 ), . . . , p(a v ), dann ist v
H a = − ∑ p(a i ) ln(p(a i ))
(8.13)
i=1
die Entropie oder der mittlere Informationsgehalt pro Grauwert. Die Entropie H a,b der gemeinsamen Verbundverteilung zweier Bilddatensätze ergibt sich in analoger Weise durch Betrachtung der Wahrscheinlichkeiten für das gemeinsame Auftreten der Intensitätswerte a1 , . . . , a v und b 1 , . . . , b w und ist gegeben durch: v
w
H a,b = − ∑ ∑ p(a i , b j ) ln(p(a i , b j ))
(8.14)
i=1 j=1
Die Mutual Information Λ der Intensitätsverteilung des Referenzdatensatzes R(x) und des transformierten Bilddatensatzes T(Ψ (x)) ist dann gegeben durch: Λ R(x),T(Ψ(x)) = H R(x) + H T(Ψ(x)) − H R(x),T(Ψ(x))
(8.15)
Die Verwendung der Mutual Information Λ R(x),T(Ψ(x)) bei der Registrierung zweier Bilddatensätze wird dadurch begründet, dass die Entropie H R(x),T(Ψ(x)) der gemeinsamen
8 Medizinische Bildverarbeitung |
(a)
267
(b)
Abb. 8.17: Schachbrettdarstellung zweier korrespondierender Protonen- und T1-gewichteter MRTBilder. 3D-Bilddatensatz vor (a) und nach (b) der starren voxelbasierten Registrierung unter Verwen dung von Mutual Information. In der Schachbrettdarstellung sind die Protonen- und T1-gewichteten MR-Bilder abwechselnd in verschiedenen Ausschnitten dargestellt [Handels 2009].
Intensitätsverteilung reduziert wird, falls durch die Transformation Ψ vermehrt homogene Bildstrukturen in beiden Bilddatensätzen zueinander korrespondieren, siehe hierzu auch das Beispiel in Abbildung 8.17. Bei der Registrierung zweier Bilddatensätze wird somit eine Minimierung der Entropie der gemeinsamen Intensitätsverteilung H R(x),T(Ψ(x)) und hierdurch eine Maximierung der Mutual Information angestrebt: ! Λ R(x),T(Ψ(x)) = H R(x) + H T(Ψ(x)) − H R(x),T(Ψ(x)) = max (8.16) Eine effiziente Methode zur Schätzung der Wahrscheinlichkeiten p(a i ), p(b j ) und p(a i , b j ) bildet die Parzen-Window-Technik [Parzen 1962], die häufig bei der voxelbasierten Registrierung verwendet wird [Wells 1996]. Ein wesentlicher Vorteil der Mutual-Information-Metrik liegt darin, dass durch ihre Maximierung auch multimodale Bilddaten wie CT-MR-Bilddaten in robuster Weise registriert werden können [Collignon 1995, Wells 1996, Studholme 1996]. Ein Nachteil besteht in der hohen benötigten Rechenzeit im Vergleich zur Verwendung der Summe der quadratischen Intensitätsdifferenzen.
8.5.3 Landmarkenbasierte Registrierung Bei der landmarkenbasierten Registrierung wird eine Anpassung verschiedener Bilddaten anhand ausgewählter Landmarken (landmarks) durchgeführt. Unter Landmarken versteht man ausgezeichnete anatomische Punkte. Sie können interaktiv durch den Benutzer selektiert oder aufgrund besonderer geometrischer Eigenschaften, wie z. B. Punkte maximaler lokaler Krümmung oder Eckpunkte, algorithmisch
268 | Hartmut Dickhaus, Heinz Handels
bestimmt werden. Zur genauen Ausrichtung, wie sie beispielsweise im Bereich der computergestützten Navigation und Operation benötigt wird, werden oftmals externe Marker verwendet. Anhand von Schrauben (Pins), die in den Knochen eingelassen werden, oder aufgeklebter Gadolinium-Marker kann die Anpassung der präoperativ gewonnenen CT- oder MRT-Bilddaten an das Koordinatensystem im Operationssaal vorgenomen werden. Hierzu werden die Raumkoordinaten der Landmarken im OP mithilfe eines Navigationssystems gemessen und mit ihren Koordinaten im Bilddatensatz abgeglichen (Band 1, Kapitel 12 und Band 8). Bei der landmarkenbasierten Registrierung werden n Paare (LRi , LTi ) , i = 1, . . . , n zueinander korrespondierender Landmarken in den beiden auszurichtenden Bilddatensätzen R und T betrachtet, welche dieselben anatomischen Strukturen markieren. Für die Anpassung der unterschiedlichen Bildkoordinatensysteme werden die Bilddaten einer parametrischen Transformation Ψ unterworfen, wobei häufig eine starre oder affine Transformation (Kapitel 8.5.1) verwendet wird [Maintz 1998]. Den Kern der Registrierung bildet die Bestimmung einer Koordinatentransformation bzw. der zugehörigen Transformationsparameter. Die Parameter werden so gewählt, dass die beiden betrachteten Datensätze bezüglich eines Optimierungskriteriums bestmöglich zueinander ausgerichtet werden. Als Optimierungskriterium wird in der Regel die mittlere quadratische Euklidische Distanz zwischen den Positionen der transformierten Landmarken im Template-Bild T und den korrespondierenden Landmarken im Referenzbild R minimiert: n
2 !
∑ (Ψ(LTi ) − LRi ) = min
(8.17)
i=1
Die Transformationsparameter werden durch Einsetzen der Punktepaare von R und T in die Transformationsgleichung und durch anschließende Lösung des so erhaltenen Gleichungssystems bestimmt. Bei ausreichender Anzahl von Punktepaaren erhält man ein überbestimmtes Gleichungssystem, das beispielsweise durch die Gausssche Methode der kleinsten Fehlerquadrate gelöst werden kann.
8.5.4 Voxelbasierte Registrierung Voxelbasierte Registrierungsmethoden sind für die medizinische Anwendung von besonderer Bedeutung, da sie automatisch und ohne vorangehende Vorverarbeitungsschritte direkt auf die in den Bildpunkten bzw. Voxeln repräsentierten Grauwertinformationen angewendet werden können. Das Problem der voxelbasierten Registrierung zweier Bilddatensätze kann als Optimierungsproblem formuliert werden, dessen Lösung ausgehend von einer Startlösung iterativ approximiert wird. Bei der iterativen Optimierung besteht jedoch stets die Gefahr, dass der Optimierungsprozess gegen ein lokales und nicht gegen das globale Optimum konvergiert.
8 Medizinische Bildverarbeitung
|
269
Durch die Verwendung von Multi-Resolution-Ansätzen , bei denen zunächst eine Registrierung in einem vergröberten Bilddatensatz durchgeführt wird, der nachfolgend sukzessive verfeinert wird, kann die Robustheit der Registrierung erhöht und eine Beschleunigung erzielt werden.
Nichtlineare voxelbasierte Registrierung Die nichtlinearen, nichtparametrischen Registrierungsalgorithmen ermöglichen die Berücksichtigung lokaler Deformationen in den Bilddaten bei der Registrierung und eröffnen hierdurch im Vergleich zu den parametrischen Transformationen weitergehende Anpassungsmöglichkeiten für die Registrierung medizinischer Bilddaten. So können beispielsweise mittels nichtparametrischer Registrierungsalgorithmen atmungsbedingte Bewegungen des Patienten zwischen zwei Bildaufnahmen bei der Bestrahlungsplanung kompensiert oder präoperative Bilddaten und der darauf abgestimmte Operationsplan an intraoperativ aufgenommenen Bilddaten mit lokalen Weichteildeformationen angepasst werden. Weitere Details z. B. zur elastischen Registrierung sind der Literatur zu entnehmen [Modersitzki 2004, Handels 2009]. Darüber hinaus werden neue Anwendungen wie die strukturerhaltende Interpolation von räumlichen und zeitlichen Bilddaten sowie die voxelbezogene Schätzung von Bewegungsfeldern in (2D+t)- und (3D+t)-Bilddaten möglich [Ehrhardt 2007].
8.6 3D-Visualisierung Moderne Bildgebungstechniken wie MRT, CT, PET oder SPECT erzeugen überlagerungsfreie planare Bildsequenzen in Schichtabständen, die teilweise der geometrischen Auflösung in der Schicht selber entsprechen oder größer sind. Derartige Bildstapel lassen sich unmittelbar als volumetrische digitale Repräsentation eines gescannten 3D-Objektes, z. B. eines Organs, des gesamten Körpers oder auch nur einzelner kleiner Zellstrukturen auffassen. Die kleinste Einheit dieses Volumenmodells ist dann das 3D-Volumenelement oder Voxel (Abb. 8.2). Der Wert, der einem Voxel zugewiesen wird, ist entweder der Wert des entsprechenden Pixels in der zugehörigen 2D-Tomogrammschicht oder aber ein interpolierter Wert aus den beiden benachbarten Pixeln aufeinanderfolgender tomographischer Schichten. Die Bedeutung bzw. Interpretation dieses Wertes hinsichtlich der Eigenschaften des Gewebes soll an dieser Stelle keine Rolle spielen. Natürlich könnten auch mehrere Werte unterschiedlicher Bedeutung diesem Voxel zugewiesen werden, wenn diese z. B. als Ergebnis einer Multispektralaufnahme erfasst wurden oder verschiedene Gewebeeigenschaften diesem Voxel zugewiesen werden können. Aus dem 3D-Voxelraum können nicht nur Darstellungen von Objekten (Organe, Tumore usw.) erzeugt werden, sondern auch beliebige Schnittebenen und gekrümm-
270 | Hartmut Dickhaus, Heinz Handels
te Schnittflächen, die definierte Substrukturen der Objekte abgrenzen und darstellen. Damit wird eine Fülle nützlicher Anwendungen in Klinik und medizinischer Forschung erschlossen. Da inzwischen die digitale Bilderzeugungstechnik und die zugehörige Computerhardware so effizient und schnell geworden ist, dass eine laufzeitoptimierte, realistische Darstellung einer 3D-Momentaufnahme in Echtzeit möglich ist, können auch sich dynamisch verändernde Objekte durch 3D-Bildfolgen in Bruchteilen von Sekunden visualisiert werden. Diese Technologie erweitert nochmals erheblich den Einsatz der statischen 3D-Darstellungen in Richtung dynamischer Visualisierung ähnlich wie vom analogen Film oder Video bekannt. Im Folgenden sollen kurz einige Szenarien in der Medizin genannt werden, in denen die Visualisierung heute unverzichtbar geworden ist. An erster Stelle steht die klinische Diagnostik und Therapie im medizinischen Alltag. Hier werden Methoden zur Generierung pseudo-realistischer 3D-Darstellungen benötigt, um die räumliche Struktur und Ausdehnung der Organe zu veranschaulichen. So kann beispielsweise der Verlauf und die Struktur von Gefäßsystemen mit möglichen Missbildungen in 3D-Visualisierungen übersichtlich dargestellt werden (Abb. 8.18a). Die Größe und Lage von Tumoren ist sowohl anatomisch als auch mittels funktioneller Parameter des Stoffwechsels erfassbar. In der Strahlentherapie werden 3D-Darstellungen zur Berechnung optimierter Bestrahlungspläne auf Grundlage der individuellen anatomischen Gegebenheiten des Patienten regelhaft eingesetzt (Abb. 8.18b). Im Rahmen der computerassistierten Chirurgie (computer assisted surgery) entwickeln interdisziplinäre Arbeitsgruppen Methoden und Systeme für die präoperative 3D-Operationsplanung und die intraoperative Navigation [Dickhaus 2002] (Abb. 8.18c). Im Bereich der computergestützten Planung und realitätsnahen Simulation von Operationen werden Techniken der virtuellen Realität (virtual reality) eingesetzt [Earnshaw 1993, Handels 2001]. Bei diesen Anwendungen kann der Benutzer in die computergestützt erzeugten 3D-Szenen hineintauchen (Immersion) und mit den dargestellten 3D-Objekten in Echtzeit interagieren. Zur realitätsnahen 3D-Interaktion werden haptische Kraftrückkopplungsgeräte (force feedback devices) eingesetzt, mit denen virtuelle Körper ertastet und chirurgische Werkzeuge wie Skalpelle, Nadeln und Bohrer geführt werden können. Das Deformationsverhalten biologischer Strukturen wie Haut, Gewebe, Knochen oder Tumore kann in virtuellen Körpern beispielsweise mithilfe von Finite-Elemente-Methoden (finite element methods), deformierbaren Masse-Feder-Modellen (mass-spring models) oder Finite-DifferenzenMethoden simuliert werden [Fortmeier 2013]. Auch in der medizinischen Ausbildung und Lehre werden zunehmend VirtualReality-Trainingssimulatoren verwendet, bei denen der Benutzer an virtuellen Körpern chirurgische Eingriffe unter Verwendung haptischer Kraftrückkopplungsgeräte realitätsnah trainieren kann [Färber 2010].
8 Medizinische Bildverarbeitung |
(a)
(b)
(c)
(d)
271
Abb. 8.18: Beispiele zur Visualisierung in der medizinischen Diagnostik, Therapie und Grundlagen forschung. (a) Gefäßdarstellung mit Aneurysma, rekonstruiert aus Rotationsangiographiedaten. (b) Überlagerter Isodosenplan mit Risikoorganen. (c) Registrierte Atlasdaten auf MRT-Patientenda ten. (d) Simulationsmodell einer embryonalen Zellteilung. (Quellen: (b) R. Bendl, DKFZ Heidelberg, Abt. Med. Physik in der Strahlentherapie, (d) E. Gladilin, Theoretical Bioinformatics DKFZ Heidel berg).
Schließlich profitiert auch die biologisch-medizinische Grundlagenforschung von Visualisierungstechniken. 3D-Modelle von Zellen (Abb. 8.18d) und Molekülstrukturen werden dargestellt, um anschaulich mechanische Eigenschaften oder das Bindungsverhalten verschiedener Komplexe zu veranschaulichen. Die Erforschung von Genmutationen und ihre räumliche Strukturveränderung kann erfasst werden, und die Dichte und Anordnung von Zellorganellen kann quantifiziert und realistisch visualisiert werden. Selbst dynamische Vorgänge, wie sie bei der Zellteilung ablaufen, sind über fluoreszenzmikroskopische Techniken und Videoaufnahmen verfolgbar und in ihrer Dynamik modellier- und darstellbar. Diese Daten und Animationen fördern das Verständnis bzw. stützen systembiologische komplexe Modelle (Kapitel 7).
272 | Hartmut Dickhaus, Heinz Handels
Im Folgenden sollen zwei häufig eingesetzte Rekonstruktionsansätze zur 3DModellierung von Objekten dargestellt und Methoden zur realistischen Oberflächendarstellung durch Beleuchtungseffekte erläutert werden.
8.6.1 Oberflächenorientierte 3D-Visualisierung Oberflächenorientierte Verfahren setzen i. A. die Segmentierung der Objekte in einzelnen Schnittebenen bzw. Identifizierung der Voxel der zu visualisierenden Objekte voraus. Die oberflächenorientierte (surface rendering) 3D-Visualisierung dient der Approximation der Oberflächen von Objekten eines 3D-Voxelraums durch geschlossene Polygon- oder Drahtgitter netze, bei denen i. A. Dreiecke als Basiselemente dienen. Ihre Berechnung und Darstellung kann durch spezielle Grafik-Hardware sehr effizient unterstützt werden.
Triangulationsverfahren Ein häufig verwendeter Ansatz zur Erzeugung eines Drahtgitternetzes, das grob die Oberfläche eines Objektes darstellt, ist das Triangulationsverfahren. Hierbei werden, von zwei Polygonen benachbarter Schichten ausgehend, nebeneinander liegende Polygoneckpunkte der i-ten Schicht mit dem jeweils nächsten Polygonpunkt der benachbarten i+1-ten Schicht verbunden (Abb. 8.19). Dadurch entsteht zwischen den beiden benachbarten Polygonen ein aus Dreiecken gebildeter Oberflächenstreifen (Abb. 8.19a, b). Die Polygone wurden durch einen vorher in jeder Schicht durchgeführten Segmentierungsschritt gewonnen. Zur Berechnung der Verbindungslinien respektive Dreiecksseiten, können Optimierungskriterien wie die geringste Länge oder der kleinste Flächeninhalt des entstehenden Dreiecks verwendet werden. Auf diese Weise wird die Triangulation zwischen allen
(a)
(b)
(c)
Abb. 8.19: Triangulationsverfahren. (a, b) Schematische Abbildung zur Erzeugung von Dreiecksflä chen zwischen zwei Polygonen benachbarter segmentierter Konturlinien. (c) Drahtgitternetz aus Dreiecksflächen der Oberfläche des segmentierten Gehirns.
8 Medizinische Bildverarbeitung
|
273
weiteren Polygonen fortgesetzt, bis eine geschlossene Oberfläche das gesamte Objekt als Gitternetz umschließt (Abb. 8.19c). Bei Verästelungen und irregulären Konturen mit von Schicht zu Schicht geänderten Verläufen kann dieses Verfahren nur eingeschränkt automatisiert werden. Außerdem ist in einem weiteren Schritt gegebenenfalls die Anzahl der entstehenden Dreiecke abhängig von der Krümmung der Oberfläche zu optimieren.
Marching-Cube-Algorithmus Ein weiteres Verfahren zur Erzeugung von Oberflächen aus 3D-Bilddaten ist der sogenannte Marching-Cube-Algorithmus [Lorensen 1987]. Der Voxelraum des 3D-Objekts wird auf ein starres Punktgittermodell (Abb. 8.20) abgebildet, bei dem jedes Voxel nur durch seinen Raummittelpunkt repräsentiert wird, dem ein Bildfunktionswert f(m, n, z), d. h. Signal-, Parameter-, Grau- oder Farbwert, zugeordnet ist. Durch Vorgabe eines frei wählbaren Schwellwertes t ∈ ℝ wird eine Isofläche I t definiert, die durch die Menge der zugehörigen Oberflächenpunkte I t = {(m, n, z)| f(m, n, z) > t} beschrieben wird. Die Objektvoxel und Nicht-Objektvoxel sind dann durch Schwellwertbildung in dem 3D-Bilddatensatz definiert: {1, falls B(m, n, z) = { 0, falls {
f(m, n, z) > t f(m, n, z) ≤ t
(8.18)
Zur Oberflächenrekonstruktion werden in zwei benachbarten Schichten des 3D-Bilddatensatzes lokale Voxelkonfigurationen betrachtet, die aus acht benachbarten Voxeln bestehen, wobei jeweils vier der Voxel aus einer der beiden betrachteten Schichten stammen. Diese Voxelkonfigurationen werden i. A. durch Quader repräsentiert, an deren acht Eckpunkte die Voxel dargestellt sind. In einem solchen Quader können daher 28 = 256 verschiedene binäre Konfigurationen von Objekt- und Nicht-Objektvoxeln auftreten. Diese 256 Konfigurationen lassen sich aufgrund von Symmetrieeigenschaften auf 15 topologisch verschiedene Konfigurationen reduzieren (Abb. 8.21). Bei der Oberflächengenerierung wird der 3D-Bilddatensatz sukzessive durchlaufen und geprüft, welche Voxelkonfiguration lokal vorliegt. Die Voxelkonfigurationen
Abb. 8.20: Punktgittermodell, das ein Voxel als Schnittpunkt (Kugel) der Gitterlinien einer Schicht repräsentiert.
274 | Hartmut Dickhaus, Heinz Handels
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
Abb. 8.21: Schematische Darstellung der 15 topologisch verschiedenen Voxelkonfigurationen beim Marching-Cubes-Algorithmus [Lorensen 1987]. Die durch schwarze Kugeln repräsentierten Voxel gehören zu dem Objekt, das durch einen Bildfunktionswert charakterisiert ist.
werden mit den zugehörigen Polygonbeschreibungen in einer Tabelle repräsentiert. Eine Auswahl der passenden Voxelkonfiguration bzw. der zugehörigen Polygonbeschreibung wird über einen 8 bit tiefen binären Index vorgenommen, der durch Werte der acht Eckpunkte des betrachteten Quaders gegeben ist. Anschließend wird die der erkannten Voxelkonfiguration zugeordnete Oberfläche konstruiert. Die so erhaltene Oberfläche verläuft im Subvoxelbereich.
8 Medizinische Bildverarbeitung
|
275
Beleuchtung und Schattierung Zur Darstellung realistischer Eindrücke derartig rekonstruierter Oberflächen bedarf es noch weiterer Optimierungsschritte. Dabei ist einerseits die Beleuchtung der Oberfläche mit ihren Oberflächeneigenschaften und die beim Betrachter dadurch hervorgerufene Wirkung zu modellieren (Beleuchtungsmodell) und weiterhin der Eindruck der aus Dreiecken zusammengesetzten Oberflächen mit Kanten zu glätten (Schattierung). Häufig wird das von Phong vorgeschlagene Beleuchtungsmodell [Phong 1975] genutzt, das die Wechselwirkungen mit dem Betrachter dreier verschiedenener Beleuchtungsanteile überlagert (siehe Abb. 8.22). Die beim Betrachter entstehende resultierende Lichtintensität setzt sich aus einem ambienten Anteil Iamb , einem diffusen Streuanteil Idiff und einem spiegelnd reflektierten Anteil Ispec zusammen.
Lichtquelle Reflexion N
r
I
Φ b
α
Betrachter
Abb. 8.22: Schematische Darstellung des Phongschen Beleuchtungsmodells.
Zur Modellierung der jeweiligen Anteile spielen die Orientierung der Oberfläche, dargestellt durch Ihre Flächennormale N, der Richtungsvektor l der Lichtquelle und der Vektor der idealen Reflexion r wie auch die Richtung b, unter der der Betrachter auf die Oberfläche schaut, eine Rolle.
Ambiente Reflexion Iamb = ramb I a
(8.19)
I a ist das ambiente Licht, gilt für die gesamte Szene und wird vom Betrachter und der Oberflächenorientierung unabhängig angenommen.
Diffuse Reflexion Idiff = rdiff I L cos(ϕ)
(8.20)
ist unabhängig von der Position des Betrachters, aber abhängig von der Orientierung der Oberfläche und der Richtung der Lichtquelle. I L ist die Intensität der Lichtquelle.
276 | Hartmut Dickhaus, Heinz Handels
Spiegelnde Reflexion Ispec = rspec I L cosq (α)
(8.21)
ist abhängig von der Richtung des Betrachters und der Richtung des reflektierten Anteils. Der Exponent q ist eine objektspezifische Konstante. Ebenso sind die jeweiligen Koeffizienten ramb , rdiff und rspec situationsangepasst und abhängig von der Beschaffenheit des Materials der Oberfläche zu bestimmen. Die resultierende Lichtintensität berechnet sich jetzt zu: Iges = Iamb + Idiff + Ispec (8.22) Das Gitternetz aus einzelnen Dreiecken ist durch die Normalenvektoren der jeweiligen Dreiecksflächen gekennzeichnet. Oberflächennormale bezeichnen die Senkrechte auf der Dreiecksfläche, die aus den Koordinaten der Dreieckspunkte berechnet werden kann.
Somit kann eine Dreiecksfläche jeweils mit einem konstanten Schattierungswert (flat shading bedeutet Schattierung mit konstantem Wert) belegt werden. Durch diese einfache Zuordnung entstehen allerdings an den Kanten benachbarter Dreiecke Sprünge der Lichtintensität (Abb. 8.23a). Für eine realistische Darstellung müssen diese Sprünge durch Interpolationsverfahren wie dem Gouraud- oder Phongschen Schattierungsverfahren geglättet werden (Abb. 8.23b). Weiterhin wird häufig auch das Gitternetz verändert, wenn z. B. Dreiecksflächen mit ähnlichen Normalenvektoren in einer regionalen Nachbarschaft zusammengefasst werden. Dadurch kann die Anzahl der Dreiecke erheblich reduziert werden. Die Gouraud-Schattierung (Gouraud shading) ist ein effizientes Schattierungsverfahren zur 3D-Darstellung virtueller Körper mit glatt wirkenden Objektoberflächen
(a)
(b)
Abb. 8.23: Darstellung eines Femurs (Oberschenkelknochenkopf und -hals) mit verschiedenen Schattierungsarten. (a) Flat shading. Die störenden Helligkeitsübergänge zwischen benachbarten Dreiecken sind deutlich erkennbar. (b) Schattierung nach dem Phongschen Interpolationsverfah ren.
8 Medizinische Bildverarbeitung
|
277
[Gouraud 1971]. Zur Berechnung der Intensität wird das Beleuchtungsmodell nach Phong in der Regel auf seine ambienten und diffusen Lichtanteile beschränkt, da die Form der durch das spiegelnd reflektierte Licht erzeugten Glanzpunkte hier stark von der Struktur der Dreiecksoberfläche abhängt. Bei der Gouraud-Schattierung werden in einem ersten Schritt die Intensitäten an den Eckpunkten des betrachteten Dreiecks ermittelt. Hierzu wird der Normalenvektor eines Eckpunktes als Mittelwertvektor der Normalenvektoren aller Dreiecke berechnet, die sich in dem Eckpunkt berühren. Die Lichtintensitäten im Inneren des Dreiecks werden dann in einem zweiten Schritt aus den Intensitäten der Dreieckspunkte durch bilineare Interpolation berechnet. Dies entspricht einer Glättung der Intensitätsübergänge innerhalb und zwischen den Dreiecken. Entsprechend wirken die so dargestellten 3D-Oberflächen realistisch und die zugrunde liegende Dreiecksstruktur des Oberflächenmodells ist nicht mehr erkennbar. Eine weitere Variante zur Schattierung stellt die Phong-Schattierung (Phong shading) dar, bei der für jeden Punkt der Dreiecksfläche ein eigener Normalenvektor aus den Normalenvektoren der Dreieckspunkte durch bilineare Interpolation ermittelt wird. Entsprechend wird dann in jedem Punkt die Intensität nach dem Phongschen Beleuchtungsmodell berechnet.
8.6.2 Volumenorientierte 3D-Visualisierung
Bei der volumenorientierten 3D-Visualisierung (volume rendering) werden 3D-Darstellungen un mittelbar aus dem Volumendatensatz generiert. Sie sind spezifisch auf die voxelorientierte Struk tur tomographischer Bilddaten abgestimmt und können aus segmentierten und nichtsegmentier ten Volumendaten gewonnen werden.
Im Folgenden sollen als Beispiel für die volumenorientierte 3D-Visualisierung das Prinzip von Strahlverfolgungsmethoden (ray-tracing method bzw. ray-casting method) kurz vorgestellt werden. Das Ziel der Strahlverfolgungsmethode besteht darin, die räumliche Struktur der 3D-Bilddaten auf dem 2D Bildschirm darzustellen. Die auf dem Bildschirm zu generierende 3D-Ansicht wird in einer 2D-Bildmatrix repräsentiert, die als virtuelle Bildebene (view plane) bezeichnet wird. Ausgehend von den Punkten der Bildebene werden Strahlen (rays) in Betrachtungsrichtung des Objektes durch das Objekt hindurch verfolgt. Dabei werden die entlang des Strahls auftretenden Werte der Bildfunktion erfasst. Anhand bestimmter Bedingungen bezüglich der Bildfunktionswerte entlang des Strahls (Extremwerte, Steigungen usw.) können spezifische Merkmale der Bildfunktion identifiziert und ihre zugehörigen Voxel gekennzeichnet werden. Die Darstellung dieser Voxel ist z. B. als Oberfläche bezüglich der verwendeten Kriterien interpretierbar, sei es bei einem 3D-Datensatz des Kopfes als Oberfläche des knöchernen Schädels
278 | Hartmut Dickhaus, Heinz Handels
1200 1000
Tumor Gehirn
800
Haut 600 400 200
Liquor
0 0 100 200 300 400 500 600 700 800 900 1000
(a)
(b)
(c)
Abb. 8.24: Strahlabtastung beim Ray-Tracing-Verfahren. (a) Darstellung des in einem MRT-Datensatz verfolgten Strahls; darüber das Profil der Bildfunktionswerte entlang des Strahls als weißer Linien zug. (b) Strahlverlauf in der korrespondierenden MRT-Schicht eines Tumorpatienten. (c) Darstellung der entlang des Strahls auftretenden Bildfunktionswerte als Profil; die Peaks ausgewählter, vom Strahl abgetasteter Bildstrukturen sind markiert (verändert nach [Handels 2009]).
oder des Hirns oder eines Tumors. Die Abbildung 8.24 verdeutlicht das Verfahren, indem ausgehend von der Bildebene das Intensitätsprofil entlang eines Strahls als weißer Linienzug beispielhaft dargestellt ist. Ray Casting ist eine vereinfachte und beschleunigte Form des Ray Tracings. Treffen Strahlen auf eine Objektoberfläche, so werden beim Ray Tracing die gebrochenen und reflektierten Strahlen weiterverfolgt. Demgegenüber ist beim Ray Casting die Abtastung des Strahls mit dem Aufeinandertreffen von Objekt und Strahl beendet. Es wird also auf eine Weiterverfolgung der reflektierten und gebrochenen Strahlen verzichtet und eine deutliche Beschleunigung der Berechnung ohne wesentliche Qualitätsverluste erzielt. Bei der direkten Volumenvisualisierung werden die emittierten und absorbierten Farbwerte entlang des Strahls integriert, um einen Farb- oder Grauwert für einen Bildpunkt der virtuellen Bildebene zu berechnen. Man spricht hier auch vom Volumenrenderingintegral, das in der diskreten Realisierung als Summation über absorbierte und emittierte Helligkeitswerte der einzelnen durchlaufenen Voxel gebildet wird. Sind die Position und der dortige Bildfunktionswert bestimmt, so muss sein Beitrag zum Farbwert des verfolgten Strahls ermittelt werden. Dies erfolgt durch die Klassifikation des Voxels mithilfe von Transferfunktionen z. B. für den Farbwert und die Opazität (Lichtundurchlässigkeit). Diese Transferfunktionen sind zur schnellen Berechnung als sogenannte Look-up-Tabellen realisiert. Darüber hinaus können optional Beleuchtungs- und Schattierungsverfahren eingesetzt werden, um den 3D-Eindruck in der erzeugten 3D-Ansicht zu verbessern. Diese erfordern jedoch die Approximation von Normalenvektoren, die aus den Bildgradientenvektoren geschätzt werden können. Für weitere Details sei auf die Literatur verwiesen [Handels 2009].
8 Medizinische Bildverarbeitung
(a)
|
279
(b)
Abb. 8.25: 3-D Visualisierungen des Thorax von zwei verschieden Patienten, generiert mit direktem Volumenrendering und Softwaretool 3D-Slicer [Fedorow 2012]. (a) Darstellung von Lunge und Trachi albaum mit Andeutung der Rippen, (b) Darstellung mit Sternum und Rippen. Zu sehen ist auch eine Elektrode.
Bei der Anwendung des direkten Volumenrenderings in der medizinischen Bildverarbeitung werden als Farbtransferfunktionen häufig vereinfachend Abbildungen auf Grauwerte verwendet. Hierdurch werden 3D-Grauwertvisualisierungen generiert. Die Aussagekraft der erhaltenen 3D-Visualisierungen hängt stets von den gewählten Transferfunktionen ab (Abb. 8.25). In der Praxis ist die Definition geeigneter Transferfunktionen oftmals schwierig und wird häufig durch die Trial-andError-Methode interaktiv bestimmt. Die Laufzeitkomplexität der Ray-Tracing-basierten Volumenrenderingalgorithmen ist von der Anzahl der Voxel im Volumendatensatz sowie von der Anzahl der in der Bildebene darzustellenden Bildpunkte abhängig, die wiederum die Anzahl der zu verfolgenden Strahlen bestimmt.
Approximation der Normalen im Voxelmodell Entgegen der Berechnung der Normalenvektoren anhand eines vorgegebenen Dreiecksnetzes bei der oberflächenbasierten Visualisierung fehlen im nicht-segmentierten Voxelmodell Informationen über Objektgrenzen und Oberflächen. Die nachfolgend beschriebene Methode zur Normalenapproximation besteht in der Berechnung des 3D-Gradienten der Bildfunktion an dem betrachteten Voxel. Als einfache Standardmethode hat sich die Gradientenschattierung (gradient shading) etabliert [Höhne 1986].
280 | Hartmut Dickhaus, Heinz Handels
Durch Gradienten-Schattierung (gradient shading) erfolgt eine Approximation des Normalenvek tors eines Voxels basierend auf der Betrachtung seiner sechs direkten Nachbarn durch den 3D-Gra dienten grad(f(m, n, z)) = G(m, n, z) ∈ ℝ3 .
G x = g(i + 1, j, k) − g(i − 1, j, k) G y = g(i, j + 1, k) − g(i, j − 1, k)
(8.23)
G z = g(i, j, k + 1) − g(i, j, k − 1) Diese Darstellung entspricht der Berechnung des symmetrischen 3D-Differenzenoperators. Die gesuchte Normale ist durch den normalisierten Gradientenvektor gegeben: G(m, n, z) N(m, n, z) = (8.24) |G(m, n, z)| Dies wird dadurch motiviert, dass der Normalenvektor an Geweberändern senkrecht zur Oberfläche des Gewebes steht. 3D-Visualisierungen spielen in der klinischen Anwendung eine immer bedeutendere Rolle, insbesondere in der computergestützten Diagnostik, der OP-Planung wie auch Durchführung und bei Therapiesystemen. Auch Trainingssysteme in der chirurgischen Ausbildung profitieren von 3D-Simulationen und realitätsnahen interaktiven Eingriffen. In diesem Zusammenhang sind auch Szenarien der virtuellen Realität zu erwähnen, die allerdings hier nicht weiter beschrieben werden. Abschließend sei nochmals erwähnt, dass in diesem Kapitel nur kursorisch einige wichtige Bereiche und Themen der Medizinischen Bildverarbeitung aufgegriffen und angerissen werden konnten. Dem interessierten Leser sei die weiterführende Literatur empfohlen.
8.7 Zusammenfassung und Ausblick Die medizinische Bildverarbeitung gehört mit zu den methodisch orientierten Bereichen der Medizinischen Informatik. Sie nimmt eine Schnittstellenfunktion zwischen der Medizintechnik, der Informatik und den medizinischen Disziplinen wahr. Aufgrund ständiger Verbesserungen und neuer Konzepte in der Bildgebung und Bildaufnahme, einer noch nicht abzusehenden Miniaturisierung technischer Komponenten und steigernder Performance der Systeme bezüglich Speicherkapazitäten, Rechenleistung und Vernetzung werden ständig weitere Anwendungsfelder in der Medizin und Biologie erschlossen. Bereiche wie eHealth (electronic health) und mHealth (mobile health) profitieren zunehmend von der medizinischen Bildverarbeitung und ermöglichen damit neue Konzepte in der medizinischen Versorgung. Die personalisierte oder individualisierte Medizin nutzt in besonderer Weise neuartige bildgestützte Verfahren und Methoden und gewinnt damit neue Erkenntnisse für die medizinisch biologische Grundlagen-
8 Medizinische Bildverarbeitung
|
281
forschung, die Wirkstoffentwicklung und die molekulare Genetik. Aber auch die bildgestützte OP-Planung und Intervention ermöglichen präzisere und für den Patienten schonendere wie auch kürzere Operationen. Wenn sich auch in den vergangenen Jahren der Trend zur komplett automatischen robotergestützten Chirurgie abgeschwächt hat, ist doch die Unterstützung durch immer intelligentere Werkzeuge mit bildgestützten Funktionen zunehmend zu erkennen. Die medizinische Bildverarbeitung wird mit Sicherheit in den kommenden Jahren eine vielversprechende Forschungs- und Entwicklungsrichtung bleiben, von der Schlüsselfunktionen und Impulse für weitere klinische Einsatzbereiche und die medizinische Versorgung zu erwarten sind.
Dank Die Autoren danken Herrn Christoph Auer und Herrn Sebastian Kallus für ihre Mitarbeit an der Erstellung des Kapitelmanuskripts sowie den bereits erwähnten Kollegen Niels Grabe, Rolf Bendl, Klaus Maier-Hein und Evgeny Gladilin für die Überlassung des zitierten Bildmaterials.
Quellenverzeichnis Barrett, W. A.; Mortenson, E. N.: Fast, Accurate and Reproducible Live-Wire Boundary Extraction. In Höhne, K. H.; Kikinis, R.: Lecture Notes in Computer Science, Springer, Berlin, 183–192, 1996. Collignon, A.; Maes, F.; Delaere, D.; van der Meulen, D.; Suetens, P.; Marchal, G.: Automated MultiModality Image Registration based on Information Theory. In: Information Processing in Medi cal Imaging. Y. e. a. Bizais (ed.), Kluwer Academic Publishers, Netherlands, 263–274, 1995. Deserno, T. M. (ed.): Biomedical Image Processing. Springer-Verlag, Berlin Heidelberg, 2011. Dickhaus, H.; Eisenmann, U.; Ganser, K. A.; Metzner, R.; Wirtz, Ch.: A Multimodal Computerbased System for Neurosurgical Interventions IFMBE Proceed. 12th Nordic Baltic Conference on Bio med. Eng. and Med. Physics; pp. 90–91; 2002. Earnshaw, R. A.; Gigante, M. A.; Jones, H.: Virtual Reality Systems. Academic Press, London, 1993. Ehrhardt, J.; Werner, R.; Frenzel, T.; Säring, D.; Lu, W.; Low, D.; Handels, H.: Optical Flow Based Me thod for Improved Reconstruction of 4D CT Data Sets Acquired During Free Breathing. Medical Physics, 34, 711–721, 2007. Färber, M.; Hummel, F.; Gerloff, C.; Handels, H.: Virtual Reality Simulator for the Training of Lumbar Punctures. Methods of Information in Medicine, 48, 5, 493–501, 2009. Fedorow, A.; Beichel, R.; Kalpathy-Cramer, J.; Finet, J.; Fillion-Robin, J-C.; Pujo, S.; Bauer, C.; Jen nings, D.; Fenness, F.; Sonka, M.; Buatti, J.; Aylward, S. R.; Miller, J. V.; Pieper, S.; Kikinis, R.: 3D Slicer as an Image Computing Platform for the Quantitative Imaging Network. Magn Reson Imaging. 30(9), 1323–1341, 2012. Fortmeier, D.; Mastmeyer A.; Handels, H.: Image-based Soft Tissue Deformation Algorithms for Realtime Simulation of Liver Puncture. Current Medical Imaging Reviews, 9, 2, 154–165, 2013. Ganser, K.; Dickhaus, H.; Metzner, R.; Wirtz, Ch.: A deformable digital brain atlas system according to Talairach and Tournoux. J. Medical Image Analysis 8; 3–22, 2004.
282 | Hartmut Dickhaus, Heinz Handels
Gouraud, H.: Illumination for Computer Generated Pictures. Comm. ACM, 18 (60), 311–317, 1971. Gonzalez, R. C.; Wintz, P.: Digital Image Processing. Addison Wesley, London, 1987. Haberäcker, P.: Praxis der digitalen Bildverarbeitung und Mustererkennung. Carl Hanser Verlag, München, 1995. Handels, H.: Medizinische Bildverarbeitung. Vieweg+Teubner, Wiesbaden, 2009. Handels, H.; Ehrhardt, J.; Plötz, W.; Pöppl, S. J.: Simulation of Hip Operations and Design of Custommade Endoprostheses using Virtual Reality Techniques. Methods of Information in Medicine, 40, 74–77, 2001. Höhne, K. H.; Bernstein, R.: Shading 3D-Images from CT Using Gray Level Gradients. IEEE Transacti ons on Medical Imaging, 5 (1), 45–47, 1986. Jähne, B.: Digitale Bildverarbeitung. Springer Verlag, Berlin, 2005. Kass, A.; Witkin, A.; Terzepopoulus, D.: Active Contour Models. International Journal of Computer Vision, 1 (4), 133–144, 1987a. Kass, A.; Witkin, A.; Terzepopoulus, D.: Snakes: Active Contour Models. First International Confe rence on Computer Vision, London, 259–268, IEEE, Piscattaway, NJ, 1987b. Lorensen, W. E.; Cline, H. E.: Marching Cubes: A High Resolution 3-D Surface Construction Algorithm. Computer Graphics, 21 (4), 163–169, 1987. Maintz, J. B. A.; Viergever, M. A.: A Survey of Medical Image Registration. Medical Image Analysis, 2 (1), 1–36, 1998. Modersitzki, J.: Numerical Methods for Image Registration. Oxford University Press 2004. Osher, S.; Sethian, J. A.: Fronts Propagating with Curvature-Dependent Speed: Algorithms Based on Hamilton–Jacobi Formulations. Journal of Computational Physics, 79, 12–49, 1988. Parzen, E.: On Estimation of a Probability Denstiy and Mode. Ann. Math. Stat., 33, 1065–1076, 1962. Phong, B. T.: Illumination for Computer Generated Pictures. CACM, 18, 311–317, 1975. Studholme, C.; Hill, D. L. G.; Hawkes, D. J.: Automatied 3-D Registration of MR and CT Images of the Head. Medical Image Analysis, 1 (2), 163–175, 1996. Wells, W.; Viola, P.; Atsumi, H.; Nakajima, S.; Kikinis, R.: Multi-modal Volume Registration by Maxi mization of Mutual Information. Medical Image Analysis, 1 (1), 35–51, 1996. Williams, D. J. und Shah, M.: A Fast Algorithm for Active Contours and Curvature Estimation. Compu ter Vision and Graphics in Image Processing: Image Understanding, 55 (1), 1992.
Verzeichnis weiterführender Literatur Bässmann, H.; Besslich, P. W.: Konturorientierte Verfahren in der digitalen Bildverarbeitung. Sprin ger Verlag, Berlin, 1989. Deserno, T. M. (ed.): Biomedical Image Processing. Springer Verlag, Berlin, Heidelberg, 2011. Dössel, O.: Bildgebende Verfahren in der Medizin. Springer Verlag, Berlin, 2000. Dössel, O.; Buzug, T. M. (eds.): Biomedizinische Technik Bd. 7. Walter de Gruyter GmbH; Berlin, Boston, 2013. Ehricke, H.-H.: Medical Imaging, Digitale Bildanalyse und -kommunikation in der Medizin. Vieweg, Wiesbaden, 1997. Foley, J.; v. Dam, A. S. F.; Hughes, J.: Computer Graphics: Principles and Practice, Addison Wesley, 1990. Gonzalez, R. C.; Wintz, P.: Digital Image Processing, Addison Wesley, London, 1987. Haberäcker, P.: Praxis der digitalen Bildverarbeitung und Mustererkennung, Carl Hanser Verlag, München, 1995. Handels, H.: Medizinische Bildverarbeitung. Vieweg+Teubner, Wiesbaden 2009.
8 Medizinische Bildverarbeitung |
283
Jähne, B.: Digitale Bildverarbeitung. Springer Verlag, Berlin, 2005. Lehmann, T.; Oberschelp, W.; Pelikan, E.; Repges, R.: Bildverarbeitung für die Medizin. Springer Verlag, Berlin, 1997. Modersitzki, J.: Numerical Methods for Image Registration. Oxford University Press, 2004. Morneburg, H.: Bildgebende Systeme für die medizinische Diagnostik: Röntgendiagnostik und Angiographie/Computertomographie/Nuklearmedizin/Magnetresonanztomographie/ Sonographie/Integrierte Informationssysteme. Publicis Mcd, Siemens 1995. Nischwitz, A.; Fischer, M.; Haberäcker, P.: Computergrafik und Bildverarbeitung. Vieweg, Wiesba den, 2007. Pavlidis, T.: Algorithmen zur Grafik und Bildverarbeitung. Heise Verlag, Hannover, 1990.
Hersteller und Normungsgremien MATLAB: Online im Internet: http://de.mathworks.com/products/matlab/index.html Stand: 15. 2. 2015. LabVIEW: Online im Internet: http://www.ni.com/labview/d/ Stand: 15. 2. 2015. MeVisLab: Medical image processing and visualization. Online im Internet: http://www.mevislab. de/mevislab/features/ Stand: 15. 2. 2015. JPEG: Joint Photographic Expert Group. http://www.jpeg.org/ Online im Internet. Stand: 15. 2. 2015. MPEG: The Moving Picture Experts Group. http://www.mpeg.org/ Online im Internet. Stand: 15. 2. 2015. NEMA: The Association of Electrical Equipment and Medical Imaging Manufacturers. Online im Inter net: http://dicom.nema.org/, Stand: 15. 2. 2015.
Testfragen 1. Nennen Sie fünf bildgebende Verfahren, die in der klinischen Diagnostik eingesetzt werden und erklären Sie kurz die physikalischen Grundlagen der jeweiligen Bilderzeugung! 2. Erläutern Sie den HSI- und den RGB-Farbraum! 3. Was versteht man unter einer Bilddatenkompression? 4. Erläutern Sie quantitativ eine diskrete Faltungsoperation! 5. Geben Sie den Faltungskern (Maske) eines 3 × 3 Laplace-Operators an! 6. Beschreiben Sie qualitativ das Region-Growing-Verfahren! 7. Erläutern Sie den Begriff Bildregistrierung! 8. Was versteht man unter einem Triangulationsverfahren im Kontext einer oberflächenorientierten Visualisierung? 9. Erläutern Sie das Phongsche Beleuchtungsmodell! 10. Geben Sie an, wie ein 3D-Gradient an einem Voxel der Position (m, n, z) mithilfe seiner sechs Nachbarn gebildet werden kann!
Martin Staemmler, Michael Walz
9 Telemedizin 9.1 9.2 9.3 9.4 9.5 9.6 9.7
Einführung | 286 Teleradiologie | 287 Telepathologie | 296 Telekonferenz | 299 Telemonitoring | 303 Rahmenbedingungen | 311 Zusammenfassung und Ausblick | 315
Zusammenfassung: Telemedizinische Anwendungen und Dienste liegen für unterschiedliche Fachgebiete vor, sei es Radiologie, Pathologie oder Kardiologie. Sie bilden medizinische Anwendungsszenarien ab, die entweder als Arzt-Arzt Kooperation oder durch eine Arzt-Patient-Interaktion zu einer orts- und zeitunabhängigen qualitativ hochwertigen Gesundheitsversorgung beitragen. Jedes Szenario ist durch spezifische Anforderungen gekennzeichnet, die eine geeignete informationstechnische und organisatorische Umsetzung unter Berücksichtigung der regulatorischen Rahmenbedingungen erfordern. Der Telemedizin wird als interdisziplinäres Gebiet ein hohes Wachstumspotential zugebilligt, insbesondere unter dem Aspekt mobiler Geräte und Systeme. Abstract: Applications and services provided by telemedicine have been established in different medical subjects, e.g. radiology, pathology or cardiology. They are able to facilitate a ubiquitous, high quality healthcare and contribute to the cooperation of physicians as well as the interaction between physician and patient. Each application is characterized by its own requirements leading to a dedicated implementation considering information technology, organisation and regulatory affairs. Telemedicine is an interdisciplinary domain with high growth potential, in particular with regard to mobile devices and systems.
286 | Martin Staemmler, Michael Walz
9.1 Einführung Telemedizin (telemedicine) ist ein Teilbereich von eHealth (electronic health), in dem Informati ons- und Kommunikationstechnologien zur Überbrückung einer räumlichen Distanz zwecks dia gnostischer und/oder therapeutischer Interaktionen eingesetzt werden [Field 1996].
Zahlreiche telemedizinische Anwendungen sind bereits entwickelt und erprobt. Sie lassen sich wie folgt einteilen: – Arzt – Arzt: Telemedizin fördert die Kooperation zwischen Ärzten, indem die Expertise externer Kollegen als zweite Meinung oder in einer Notfallsituation zeitnah zur Verfügung steht oder Untersuchungen durch Experten aus der Ferne verantwortet und betreut werden, – Patient – Arzt: Für den Patienten erlaubt die Telemedizin eine Betreuung im häuslichen Umfeld oder auch unterwegs durch Ärzte, telemedizinische Zentren oder Pflegedienste, die z. B. an Hand von regelmäßig oder aktuell übermittelten Vitaldaten den Gesundheitszustand beurteilen und geeignet reagieren können. Dies trägt zu einem persönlichen Sicherheitsgefühl der Patienten bei und hilft eine Verschlechterung des Gesundheitszustands rechtzeitig zu erkennen sowie aufwändige, den Patienten belastende, aber auch kostenintensive Behandlungen zu reduzieren. Damit bietet die Telemedizin eine Grundlage, um die Verfügbarkeit und die Qualität der medizinischen Versorgung unter dem Druck der demographischen Entwicklung, des Anstiegs der Zahl chronisch Kranker, einer in der Fläche abnehmenden Zahl von Ärztinnen und Ärzten und eines zunehmenden Kostendrucks ortsunabhängig und hochqualitativ zu gewährleisten. In diesem Kapitel werden, ausgehend von medizinischen Szenarien, telemedizinische Anwendungen mit ihren Anforderungen und ihrer Umsetzung vorgestellt sowie einer Bewertung unterzogen. Ausgehend von der bereits schon früh etablierten Teleradiologie folgen die Abschnitte zur Telepathologie, Telekonferenz und dem Telemonitoring jeweils im medizinischen Kontext. Diese Anwendungen werden im Rahmen der technischen und organisatorischen Anforderungen mit Lösungen und Erfahrungen aus der Umsetzung und bezüglich einer Einschätzung des aktuellen Entwicklungsstands vorgestellt. Anschließend wird zu Fragen der Einbindung von Telemedizin in Behandlungsprozesse und auf übergreifende Rahmenbedingungen der Telemedizin (Verfügbarkeit und Ausfallkonzepte, standesrechtliche und gesetzliche Vorgaben) eingegangen. Abschließend wird in der Zusammenfassung der Entwicklungsstand der Telemedizin, gerade auch unter Berücksichtigung der Akzeptanz bei den Beteiligten, bewertet.
9 Telemedizin | 287
Damit soll dieses Kapitel zu folgenden Lernergebnissen führen: – Kenntnis typischer telemedizinischer Anwendungsfelder und ihrer spezifischen technischen Anforderungen, – Grundlagen zur Planung telemedizinischer Anwendungen unter Berücksichtigung von Rahmenbedingungen, – Kompetenz zur Umsetzung telemedizinischer Anwendungen in Zusammenarbeit mit medizinischen Partnern und der notwendigen Einbindung in Behandlungsprozesse, – Erkenntnis, dass nicht nur die Verfügbarkeit von Technologie und Systemen den Erfolg der Telemedizin bestimmt, sondern vielmehr die Entwicklung einer den Aufgaben angemessenen Lösung für ein konkretes Problem in der Betreuung und Behandlung von Patienten und in der Förderung ihrer Mitwirkung liegt, – Reflexion und Vertiefung der Lehrinhalte durch Fallbeispiele.
9.2 Teleradiologie Damit Bilddaten nicht nur am Ort der Entstehung zur Verfügung stehen, ist es Aufgabe der Teleradiologie, diese Daten unter Nutzung von Kommunikationstechniken anderen Ärzten, die an der Behandlung eines Patienten beteiligt sind, bereitzustellen. In der Radiologie werden verschiedene bildgebende Verfahren (Band 7) zur medizinischen Diagnostik oder auch zunehmend zur Therapie als interventionelle Maßnahmen eingesetzt. Die häufigsten Bilddaten entstehen durch Röntgenverfahren, wie der Projektionsradiographie inkl. Mammographie und Angiographie sowie durch die Computer-Tomographie (CT) und die Positronen-Emissions-Tomographie (PET). Mittels Magnet-Resonanz-Tomographie (MRT) und Sonographie in verschiedenen Varianten werden Bilddaten ohne ionisierende Strahlung erzeugt. Zunehmend werden auch sogenannte Hybrid-Systeme mit Kombination verschiedener Verfahren genutzt wie z. B. das PET-CT. Radiologische Bilder dienen auch als Grundlage für intraoperative Navigationssysteme oder für die Strahlentherapieplanung. Die Teleradiologie (teleradiology) erfüllt radiologische Dienste für einen entfernten Ort, bietet jeg liche Fernübertragung radiologischen Bildmaterials und ermöglicht ganz allgemein die Telekom munikation innerhalb des radiologischen Fachgebietes.
Dabei können mehrere Szenarien betrachtet werden: – Die Bereitstellung von Bilddaten wird für die Bildverteilung innerhalb eines Klinikums oder für Zuweiser genutzt. Als Zuweiser werden Haus- und Fachärzte sowie Ärzte in anderen Kliniken bezeichnet, die Patienten an eine Einrichtung zur ambulanten oder stationären Behandlung überweisen. Die Übertragung der Bilddaten von Einrichtung A an Einrichtung B erfolgt über einen Datenträger z. B.
288 | Martin Staemmler, Michael Walz
Praxis/Krankenhaus A Modalität
Radiologe
Praxis/Krankenhaus B
Befundung
Bildnutzung Bilddatenübertragung
Facharzt, Operateur
Datenleitung/ DICOM-CD
Abb. 9.1: Teleradiologie-Szenario zur Bereitstellung von Bilddaten.
Praxis/Krankenhaus A Modalität
Radiologe
Befundung
Bilddatenübertragung mit benötigten, weiteren Informationen
Praxis/Krankenhaus B Befundung
Radiologe, Experte
Zweitmeinung Befund
Abb. 9.2: Teleradiologie-Szenario Zweite Meinung.
–
–
–
DICOM-CD, auf dem die Bilddaten im DICOM-Format abgelegt sind (Kapitel 8 und Kapitel 11) oder über eine Datenleitung (Abb. 9.1). In vielen Fällen werden auf Seiten der Einrichtung B zur Darstellung der Bilddaten webbasierte Viewer genutzt, sodass der Aufwand für die Installation des Viewers als Applet im Browser minimal ist. In dieses Szenario gehört auch die Übertragung von Bilddaten an ein Navigations- oder Planungssystem. Beim Telekonsil, Expertenkonsultation oder Zweiter Meinung (second opinion) wird in Einrichtung B ein Fachkollege oder Experte hinzugezogen, um eine Diagnose zu stellen oder eine Therapieempfehlung abzusichern. Dazu wird in angemessener Zeit eine Zweitmeinung oder – im Sinne der effizienzfördernden Arbeitsteilung – ein Befund erwartet (Abb. 9.2). Voraussetzung hierfür ist die Möglichkeit, bei einer Anfrage weitere klinische Informationen bereitstellen zu können, die als Text oder Dokument parallel zu den Bildern übertragen werden. Alternativ werden diese Informationen auch synchron, sei es per Telefon oder Video- bzw. Telekonferenz, ausgetauscht. Bei der Verlegungsentscheidung wird vergleichbar dem vorherigen Szenario in Kooperation mit Einrichtung B eine Entscheidung über die weitere Behandlung getroffen, die ggf. zu einer Verlegung des Patienten führt (Abb. 9.3). Die Entwicklung dieses Teleradiologie-Szenariums ist mit höheren zeitlichen Anforderungen und einer zunehmenden Verantwortungsübernahme auf Seiten der Einrichtung B verbunden. Auch die Teleradiologie nach Röntgenverordnung (RöV) erreichte in den letzten Jahren weitreichende Verbreitung. Dabei übernimmt der Tele- Radiologe in Einrichtung B die Verantwortung für die rechtfertigende Indikation, also für die Entscheidung über die medizinische Notwendigkeit und die Art der Röntgenanwendung und die Durchführung der radiologischen Untersuchung in Einrichtung A.
9 Telemedizin | 289
Praxis/Krankenhaus A Modalität
Radiologe
Befundung
Bilddatenübertragung mit benötigten, weiteren Informationen
Praxis/Krankenhaus B/zu Hause Entscheidung über weitere Behandlung
Verlegungsentscheidung Patiententransport weitere Behandlung
Abb. 9.3: Teleradiologie-Szenario Verlegungsentscheidung.
Praxis/Krankenhaus A Ort der technischen Durchführung Modalität MTRA Arzt
Telekommunikation Abklärung Indikation, weitere Information
Praxis/Krankenhaus B/zu Hause Befundung
verantwortlicher Teleradiologe
Bilddatenübertragung Telekommunikation Befundung
Abb. 9.4: Teleradiologie-Szenario Teleradiologie nach Röntgenverordnung (RöV).
–
–
Dieses Szenario ist in Abbildung 9.4 dargestellt. Dazu steht der Teleradiologe mit den Mitarbeitern am Ort der Durchführung in unmittelbarem Kontakt. Anforderungen an die beteiligten Ärzte, die Organisation und die technische Umsetzung gemäß RöV [DIN 6868-159, 2009] zeigt Tabelle 9.1. Rein wirtschaftliche Aspekte reichen als Begründung nicht aus. Weitere Szenarien existieren z. B. im Kontext des Mammographie-Screenings, einer Vorsorgeuntersuchung der weiblichen Brust für Frauen zwischen 50 und 70 Jahren, deren Anforderungen denen der Bereitstellung von Bilddaten vergleichbar ist. Des Weiteren gibt es krankheitsspezifische Anwendungen der Teleradiologie zur Schlaganfallbehandlung und -Nachsorge [Fröhlich 2007, Audebert 2007]. Hierbei handelt es sich um zeitkritische Anwendungen mit entsprechend hohen Anforderungen an Organisation und Bandbreite der Datenleitungen. Im weiteren Sinne können zur Teleradiologie auch Online-Demonstrationen und -Diskussionen, Weiterbildungsveranstaltungen und wissenschaftliche Zusammenarbeit und Produktbetreuung bezüglich bildgebender Verfahren gerechnet werden. Gemeinsame Befundbesprechungen werden weiter unten im Abschnitt zur Telekonferenz behandelt.
9.2.1 Anforderungen Beim Szenario Bereitstellung von Bilddaten sind die Anforderungen aus informationstechnischer Sicht meist moderat, obwohl große Datenmengen übertragen werden müssen. Einzelne Röntgenaufnahmen liegen in der Größenordnung von mehreren
290 | Martin Staemmler, Michael Walz
Tab. 9.1: Genehmigungsvoraussetzungen für die Teleradiologie (TR) nach RöV. Genehmigungsvoraussetzungen nach RöV
Anforderungen Ein Teleradiologe benötigt Strahlenschutz-Vollfachkunde, CT-Fachkunde ist nicht ausreichend
Beteiligte Personen
Die durchführende Fachkraft vor Ort muss zumindest eine Medizinisch-technische Radiologieassistentin (MTRA) sein, eine Arzthelferin mit Röntgenschein ist nicht ausreichend. Ein Arzt mit erforderlichen Kenntnissen im Strahlenschutz muss vor Ort sein, z. B. ein Chirurg mit Strahlenschutz-Fachkunde, „Notfalldiagnostik und Teleradiologie-Unterweisung, ggf. Nachweis von Kursen erforderlich. Der Teleradiologe (oder Vertreter) muss innerhalb von 45 min. vor Ort sein können.
Organisation
Teleradiologie ist standardmäßig nur für Nacht- und Wochenenddienst möglich, im 24 h-Betrieb nur bei Bedarf für die Patientenversorgung. Eine Genehmigung kann auf 3 Jahre befristet werden (mit Verlängerungsmöglichkeit).
Megabyte (MB), CT-Untersuchungen an modernen Geräten bei mehreren Hundert MB und vereinzelt auch im Gigabyte-Bereich. Vergleichbare Volumina weist das Mammographie-Screening auf, bei dem nur wenige Bilder mit einer sehr hohen Auflösung erzeugt werden. Für eine gleichberechtigte Übertragung zwischen Senden (upload) und Empfangen (download) sollten symmetrische Internetanbindungen mit mehr als 2 Mbit/s eingesetzt werden. Die Vorgabe einer maximalen Übertragungszeit für einen typischen Datensatz liefert ein weiteres Kriterium für die minimale benötigte Bandbreite. Für die Teleradiologie nach RöV [RöV 2003 und 2011] wurden spezifische Vorgaben definiert, die auch Auswirkungen auf andere Telemedizinanwendungen haben. Damit wurde im Jahr 2002 erstmals in Deutschland eine Telemedizinanwendung in einem Gesetzeswerk aufgenommen. RöV § 2 Abs. 24 besagt: Jede Anwendung von Röntgenstrahlen ohne einen im Strahlenschutz aus reichend fachkundigen Arzt vor Ort, d. h. beim Röntgengerät, wird als Teleradiologie angesehen.
In der RöV § 3 Abs. 4 und § 4 Abs. 4 Satz 3 werden die Genehmigungsvoraussetzungen dargelegt, die für den Aufbau und Betrieb einer Teleradiologie notwendig sind. Eine Übersicht über beteiligte Personen und Organisation in der Teleradiologie gibt die Tabelle 9.1.
9 Telemedizin | 291
Auch von technischer Seite wurde mit der DIN 6868-159 eine Norm erstellt, die insbesondere für die zeitkritische Teleradiologie nach RöV gültig ist, aber auch auf andere Szenarien übertragbar ist [DIN 6868-159 2009]. Wesentliche Anforderungen der DIN lauten: – Teleradiologiesysteme müssen Daten im DICOM-Format austauschen können. Der Nachweis kann über ein sogenanntes DICOM Conformance Statement der Hersteller für die relevanten Komponenten erfolgen. – Bei Abnahme des Teleradiologiesystems muss durch dreimalige Messung zu allen relevanten Untersuchungsarten nachgewiesen werden, dass die Bilddaten innerhalb von maximal 15 min. vom Röntgengerät bis zur Befundungs-Workstation übertragen werden können. – Anhand bestimmter Kriterien wie Bildanzahl und DICOM-Header-Einträgen soll die Vollständigkeit und Korrektheit der Datenübertragung geprüft werden. – Eine unmittelbare Kommunikation zwischen den Personen vor Ort (an der Röntgeneinrichtung) und dem Teleradiologen, in der Regel per Telefon, muss während der Röntgenanwendung verfügbar sein. – Die Bildqualität wird visuell nach der Datenübertragung geprüft, – Ein Nachweis oder eine Abschätzung der Verfügbarkeit des Teleradiologiesystems für mindestens 98 % des Jahres ist erforderlich, z. B. durch Zusagen der Provider der Datenübertragungsdienste. – Durch monatliche oder kontinuierliche automatisierte Messungen ist durch die beteiligten Einrichtungen oder den beauftragten Dienstleister zu überprüfen, ob die Anforderungen an Übertragungszeit, Bildqualität und Vollständigkeit erfüllt sind. – Die Funktionsfähigkeit ist täglich, am besten vor Einsatz des Teleradiologiesystems zu testen. Die Ergebnisse dieser Überprüfungen werden dokumentiert. Ärztliche Stellen nach RöV, als Institutionen für die externe Qualitätssicherung, überprüfen in meist mehrjährigen Abständen anhand von Untersuchungsprotokollen, der Strahlenexposition, der Bildqualität und der etablierten Prozesse und Strukturen, ob die oben genannten Vorgaben zur Qualitätssicherung und zur Qualität bei den Röntgenanwendungen erreicht werden.
9.2.2 Umsetzung Zur Realisierung der oben genannten Teleradiologie-Szenarien gibt es inzwischen eine Vielzahl technischer Alternativen. Die einfachste Variante nutzt das weltweit in vielen Krankenhäusern eingesetzte DICOM-Protokoll, um eine direkte Verbindung zwischen Einrichtung A und B herzustellen (Abb. 9.5). Dabei stellt das DICOM-Protokoll definierte Methoden zum Ver-
292 | Martin Staemmler, Michael Walz
DICOM C-Store A → B
Einrichtung A
Einrichtung B
DICOM-System
DICOM-System
SCU
SCP
Abb. 9.5: Direkte Kommunikation zwischen zwei Einrichtungen mit dem DICOM-Protokoll.
Einrichtung B DICOM C-Store B → A, C → A oder D → A
Einrichtung A + Zentrale DICOM-System SCP
DICOM-System Einrichtung C SCU DICOM-System SCU Einrichtung D DICOM-System SCU
Abb. 9.6: Kommunikation von mehreren Einrichtungen zu einem zentralen Krankenhaus.
bindungsaufbau zwischen den Anwendungen und zum Austausch und Management von Bilddaten im DICOM-Format auf Basis von IP-basierten Netzwerkverbindungen bereit. Dies ist unter der Bedingung einer Öffnung der DICOM-Ports bei beiden Krankenhäusern leicht zu realisieren. Dabei bezeichnet der Service Class User (SCU) einen Client, der einen Dienst in Anspruch nimmt, und ein Service Class Provider (SCP) einen zugehörigen DICOM-Server für die Bearbeitung der Anfrage. Bei einer Zahl von n Partnern ergeben sich n∗(n−1) mögliche SCU- zu SCP-Verbindungen, sodass die Verwaltung eines solchen Netzes bei einer größeren Anzahl von Partnern sehr aufwändig wird. Bei einer noch relativ einfach zu realisierende Variante übertragen mehrere kleinere Krankenhäuser Bilddaten per DICOM zu einem zentralen Krankenhaus (Abb. 9.6). Als Erweiterung dieses auf dem DICOM-Protokoll basierenden Konzeptes kann eine Institution die Aufgabe einer informationstechnischen Zentrale übernehmen (Abb. 9.7). In anderen Modellen werden Zugangsinformationen zwar zentral verwaltet, aber über Router eine direkte Verbindungen zwischen den einzelnen Krankenhäusern per DICOM-Protokoll erlaubt, sodass die Zentrale nicht durch einen hohen Datentransfer belastet wird. DICOM eMail ist als ein weltweiter Übertragungsstandard für medizinische Bilddaten definiert [DICOM-54 2004]. Er wird von der Deutschen Röntgengesellschaft für den Einsatz in der Teleradiologie empfohlen (Abb. 9.8). DICOM eMail verwendet eine Punkt-zu-Punkt-Verbindung, die auf einfache Art die Kommunikation auch mit einer größeren Zahl von Einrichtungen erlaubt. Protokolle wie SMTP, POP3 und IMAP4 und ihre SSL-geschützten Varianten dienen dem Versand und Empfang von eMails. Die Mitnutzung des in jeder Einrichtung vorhande-
9 Telemedizin |
DICOM C-Store Einrichtung – Zentrale Zentrale – Einrichtung
293
Zentrale SCP/SCU Einrichtung A
Einrichtung D
DICOM-System
DICOM-System
SCP/SCU
SCU/SCP
Einrichtung B DICOM-System SCP/SCU
Einrichtung C DICOM-System SCU/SCP
Abb. 9.7: Kommunikation zwischen mehreren Einrichtungen über eine Zentrale.
SCP
SMTP
DICOM-eMail POP3/ SCU IMAP
POP3/ IMAP
SCU
Einrichtung B
DICOM-eMail
SMTP Server
Einrichtung A DICOM-System
DICOM-System SCP
Abb. 9.8: Kommunikation zwischen Einrichtungen per DICOM eMail.
SCP
SMTP
POP3/ IMAP
SCU
Einrichtung B
DICOM-eMail
SMTP Server
Einrichtung A DICOM-System
DICOM-eMail POP3/ SCU IMAP
DICOM-System SCP
Abb. 9.9: Kommunikation zwischen Einrichtungen per DICOM eMail mit eigenen eMail-Diensten in Einrichtung B.
nen eMail-Zugangs und die Initiierung der Kommunikation aus der Einrichtung wird von IT-Verantwortlichen eher akzeptiert als speziell für die Teleradiologie eingerichtete SSL-Verbindungen oder VPN-Tunnel, die zusätzliche Ports benötigen. Ebenso erlaubt das eMail-Protokoll Anhänge mit beliebigen Datenformaten, sodass Flexibilität für die Zukunft besteht. Allerdings bedarf es hierfür in jeder beteiligten Einrichtung einen DICOM eMail Client, der DICOM-Objekte für das eMail-Protokoll passend umsetzt, wobei große Datenvolumina auf mehrere eMails verteilt werden. Für zeitkritische Bilddatenübertragungen wie in der Teleradiologie nach RöV, sind zudem dedizierte eMail-Server nötig und typischerweise in den Krankenhäusern der Maximalversorgung lokalisiert (Abb. 9.9). Innerhalb eines Krankenhauses wird häufig eine Webverteilung eingesetzt, um radiologische Untersuchungen den verschiedenen Abteilungen einfach per JPEG oder auch in originärer DICOM-Qualität zur Verfügung zu stellen (Abb. 9.10). Von Vorteil sind bei dieser Technik eine meist einfache Nutzerverwaltung und geringe Anforderungen an die Arbeitsplatz-PCs der Anwender wie auch die installierte Software.
294 | Martin Staemmler, Michael Walz
Einrichtung A
Einrichtung B
DICOM-System
DICOM Webserver
SCU
HTTP/ HTTPS
SCP
Web-Client HTTP/ HTTPS
Web-Viewer JPEG/ DICOM
Abb. 9.10: Bereitstellung von Bilddaten im JPEG- oder DICOM-Format per Webserver.
Einrichtung A DICOM System SCU Datei/CD Akte lokal/ Gateway
Import in Akten SCP Dateimport
Akte fallbezogen/ Akte fallbezogen/ Akte fallbezogen/ zentral/föderiert
Einrichtung B Import in Akten SCU Dateiexport
DICOM System SCP Datei/CD Datei / CD Akte lokal/ Gateway
Abb. 9.11: Bilddatenbereitstellung und -kommunikation mittels elektronischer Aktensysteme.
DICOM Web Access to DICOM Objects (WADO) geht einen ähnlichen Weg und stellt DICOM-Objekte anhand einer eindeutigen Kennung bereit [DICOM-85 2005]. Beide Techniken sind gut für Einweiserportale geeignet, weil andere Einrichtungen gezielt auf Bilddaten, bereitgestellt vom Webserver, zugreifen können. Einschränkungen können sich bezüglich der Umsetzung des Datenschutzes, der Übertragungsgeschwindigkeiten oder der Bildqualität ergeben. Zugriffe auf DICOM-Objekte oder bei der lokalen Ablage können ebenfalls problematisch sein. Als zukunftsweisende Technik bietet sich die Bildübertragung in Verbindung mit einer Patientenakten-Funktionalität an (Abb. 9.11). So macht z. B. die Organisation Integrating the Healthcare Enterprise (IHE) umfangreiche Vorgaben zum Cross Enterprise Document Sharing (XDS) mittels einer Akte (Kapitel 3). Über diese Akte können radiologische Bilder wie auch andere Daten zur Verfügung gestellt werden. Zudem bietet das Profil XDS for Imaging (XDS-I) eine direkte Bilddatenübertragung zwischen Einrichtungen über lokale Gateways unter Nutzung zentraler Funktionen der Akte. Eine Entscheidung für das jeweils geeignete System und die Umsetzung mittels einer Akte sollte die Nutzbarkeit (usability) für die Anwender, die Komplexität des Lösungsansatzes und die inhaltliche Strukturierung der Akte berücksichtigen. Ebenso bestehen Fragen zur Patientenidentifikation und zum Rechte- bzw. Einwilligungsmanagement, die exemplarisch im IHE Cookbook [IHE-D 2012] adressiert werden (Kapitel 11). Die Tabelle 9.2 enthält eine zusammenfassende Bewertung der unterschiedlichen teleradiologischen Anbindungen. Dabei ist neben der rein DICOM-basierten Kommunikation (mit * gekennzeichnet) bei direktem Zugriff auf die bildgebenden Modalitäten, Befundungsstationen oder das Bildarchivierungssystem (Picture Archiving and Communication System, PACS) auch eine HTTP(S)-basierte Kommunikation mög-
9 Telemedizin |
295
Tab. 9.2: Übersicht zu den Eigenschaften teleradiologischer Anbindungen. Bewertungskriterien Kommunikation
Anzahl Partner
offene Ports
DICOM Funkt.
TR nach RöV
Abhängigkeit von
direkt KH als Zentrale separate Zentrale eMail, externer Provider eMail, KH Provider Web access (WADO) Webserver aktenbasiert
2–3 n n n n n n n
DICOM* DICOM* DICOM* eMail eMail HTTP(S) HTTP(S) HTTP(S)
alle alle alle C-Store C-Store C-Get – möglich
ok ok ok – ok – möglich möglich
KH KH KH, Dienstleister Provider KH KH KH KH, Dienstleister
KH: Krankenhaus
lich, die dann allerdings auf ein Gateway (Software oder Hardware) pro Einrichtung angewiesen ist, um DICOM-Funktionen und Objekte zu kapseln. Die beschriebenen teleradiologischen Vorgehensweisen bilden zudem die Grundlage für andere medizinische Fachgebiete. Beispielhaft seien die folgenden genannt: – In der Kardiologie dient die Übertragung von Bildern und Videos von Herzkatheteruntersuchungen (spezielle Angiographien mit hoher zeitlicher Auflösung) z. B. der Planung von Herzoperationen. Angiographien, die als DICOM-Objekte gespeichert sind, erfordern jedoch im Vergleich zu radiologischen Bildern eine Darstellung als Bildfolge ggf. in Verbindung mit kardiologischen Parametern wie dem EKG oder Druckverläufen. Für diese bildbasierte Telekardiologie ist es meist notwendig, zusätzliche Module für die Darstellung zu erwerben. – Auf Initiative der Deutschen Gesellschaft für Unfallchirurgie wurden regionale Traumanetze mit jeweils 10 bis 15 Kliniken gebildet, um die Versorgung von Schwerverletzten zu koordinieren und zu verbessern. Dies erfordert neben der Übertragung von radiologischen Bildern eines polytraumatischen Patienten auch die Übermittlung zusätzlicher Informationen wie Konsilanfragen, Fotos, Befunde, insbesondere auch zur Absprache der weiteren Therapie oder bei geplanter Verlegung. Für diese Telekooperation, die auch für Nachbehandler wie Rehabilitationskliniken, niedergelassene Ärzte oder Physiotherapeuten offen ist, wurde eine bundesweite, zentrale Infrastruktur realisiert. Ausgehend von einer Basisversion mit webbasierter Anwendung bis zur weitgehend automatisierten Bildübertragung wird diese den unterschiedlichen Anforderungen der Nutzer gerecht [Staemmler 2012]. – In der akuten Versorgung von Schlaganfallpatienten wird vielfach eine Kombination verschiedener Bereiche der Telemedizin wie Teleradiologie und Telekonferenz mit einem Neurologen genutzt (Kapitel 9.4), wenn keine neurologische Facharztkompetenz in einem kleineren Krankenhaus vorhanden ist.
296 | Martin Staemmler, Michael Walz
9.2.3 Bewertung Die Teleradiologie ist einer der Vorreiter der Telemedizin, sowohl aus technischer Sicht als auch bzgl. der Ausgestaltung der Rahmenbedingungen bis zu gesetzlichen Ausprägungen wie Röntgenverordnung und Normen für die Qualitätssicherung der Übertragungssysteme. Die Teleradiologie gilt als eigener Bereich innerhalb der Telemedizin, da für die Radiologie beson dere Aspekte in Bezug auf Anforderungen und Bedarf zu beachten sind.
In den letzten Jahren haben einerseits die klassischen, bezüglich des klinischen Nutzens kaum in Frage gestellten Bereiche der Teleradiologie, wie Notfall- und Expertenkonsultationen an Bedeutung gewonnen; andererseits haben die organisations-, service- oder kostenbegründeten Anwendungen in der Praxis an Zahl zugenommen. Auch das Interesse und die Kenntnisse bzgl. der Teleradiologie sind unter den deutschen Radiologen deutlich gewachsen. So liegen für das Szenario Teleradiologie nach RöV im Jahr 2011 in Deutschland über 200 Genehmigungen vor. Auch im Bereich der Schlaganfallversorgung, für Expertenkonsultationen bei anderen medizinischen Fragestellungen, in der Telekardiologie und für die Traumanetz-Tele-Kooperation haben sich viele Teleradiologienetze etabliert. Die großen Netze, entweder regional organisiert (in Nordbaden) oder bundesweit organisiert (von einem Anbieter für Teleradiologie nach RöV), weisen jeweils mehr als 50 teilnehmende Institutionen auf, verbunden mit einer großen Zahl medizinischer Nutzer. Die Tendenz, vorhandene Netze zu verbinden und erweiterte Funktionalitäten bis zum Anschluss an Patientenakten (Kapitel 3) oder Krankenhausinformationssysteme (Kapitel 2) aufzubauen, zeigt die aktuelle Dynamik in der Teleradiologie.
9.3 Telepathologie Die Pathologie untersucht krankhafte Veränderungen von Gewebe mithilfe mikroskopischer, biochemischer und molekularbiologischer Methoden. Relevant für die Telepathologie sind vorrangig Gewebeschnittuntersuchungen mittels Mikroskop. Die Telepathologie (telepathology) umfasst die Untersuchung von Gewebeproben durch einen Pa thologen, der sich nicht am Ort der Gewebeprobe befindet und die Distanz durch Telekommuni kation überbrückt.
Dabei sind insbesondere zwei Szenarien zu unterscheiden: – Bei einem fachlichen Konsil wird das optische Abbild eines oder mehrerer Präparate mit einer Kamera digital erfasst und an einen Fachkollegen elektronisch übermittelt. Bilderstellung und Übermittlung sowie die konsiliarische Befundung erfolgen zeitversetzt innerhalb von Stunden oder Tagen.
9 Telemedizin | 297
–
Beim intraoperativen Schnellschnitt übernimmt ein Telepathologe, der sich nicht am Ort der Bilderfassung befindet, die primäre Befundung des Präparats aus der Ferne. Ziel ist es, intraoperativ (während der Operation) zu entscheiden, ob z. B. eine bösartige Erkrankung vorliegt und der Tumor vollständig und mit ausreichendem Sicherheitsabstand entfernt wurde, oder ob noch Tumorgewebe im Körper verblieben ist und umfassender operiert werden muss. Da heutzutage in kleineren Krankenhäusern ein Pathologe oft nicht ständig zur Verfügung steht, hilft die Telepathologie, spezielle Operationen überhaupt durchführen zu können. Weil der Transport der Probe zu einem externen Pathologen entfällt, können dem Patienten eventuell verlängerte Operationszeiten oder zusätzliche Operationen, beispielsweise aufgrund zuerst unvollständiger Entfernung eines Tumors, erspart bleiben.
Grundvoraussetzung für beide Szenarien ist eine entsprechende Aufbereitung des entnommenen Gewebes. Zunächst erfolgt eine makroskopische Beurteilung des Gewebes, d. h. von Form, Homogenität, Struktur, Veränderungen am Resektionsrand bis hin zum Geruch. Durch Zuschnitt entstehen bei größeren Gewebeproben mehrere kleine Präparate, die konventionell in Paraffin eingebettet bzw. für den Schnellschnitt tiefgefroren werden. Mit einem Mikrotom, ähnlich einem Hobelmesser, werden aus diesen ca. 2. . .5 μm dicke Schichten geschnitten, die auf einen Glasträger gezogen und auf unterschiedliche Weise angefärbt werden können, um die Gewebe- und Zellstrukturen sichtbar zu machen. Erst dann stehen die Schnittpräparate für eine Begutachtung am Mikroskop zur Verfügung. Diese stützt sich in der Regel auf eine Vielzahl einzelner Schnitte, um viele Bereiche des entnommenen Gewebes betrachten zu können, ggf. auch in unterschiedlicher Vergrößerung und Fokussierung. Den Ablauf und die benötigten Komponenten für den intraoperativen Schnellschnitt zeigt Abb. 9.12. Die Aufbereitung des Gewebes durch technische Angestellte oder Ärzte wird durch den Telepathologen mithilfe eines makroskopischen Bildes der Gewebeprobe interaktiv begleitet. Liegen schließlich die einzelnen Schnittpräparate
Krankenhaus OP-Saal Gewebeentnahme
Institut für Pathologie Telepathologe
Labor, MTA makroskopische Beurteilung, Zuschnitt
Kamerabild der Gewebeprobe
Probenauswahl für Schnellschnitt
Videokonferenz mit Pathologe
OP wird angehalten Schnellschnitt Anfärbung mikroskopische Untersuchung OP fortgesetzt Objektträgerwechsel oder weitere Gewebeentnahme
Kamerabild des Schnellschnitts Fernsteuerung des Mikroskops
Vergrößerung, Positionierung im Schnellschnitt Befundung Dokumentation
Abb. 9.12: Komponenten und Ablauf in der Telepathologie zur Befundung eines Gewebeschnitts.
298 | Martin Staemmler, Michael Walz
vor, kann z. B. über ein ferngesteuertes Mikroskop sowohl der Objektträgertisch in allen drei Raumachsen als auch ein Objektivwechsel durch den Telepathologen unter bildlicher Kontrolle gesteuert werden. Bei einer Mikroskopkamera mit z. B. 4 Megapixel Bildumfang umfasst jedes Bild als Farbbild 12 MB. Selbst bei einer Kompression mit dem Faktor 1:20 sind es immer noch 0,6 MB, sodass eine interaktive Übertragung des Mikroskopbildes (bei 25 Bildern/s entsprechend 15 MB/s = 120 Mbit/s) ohne weitergehende Kompression oder Reduktion der Bildzahl problematisch ist. Ein Bild stellt damit, abhängig von der gewünschten Auflösung, meistens nur einen Teil des Präparats dar.
Beispielsweise werden bei einer Auflösung von 0,5 μm × 0,5 μm und einer 4-Megapixel-Kamera (2 k × 2 k) nur 1 mm × 1 mm erfasst, obwohl ein Objektträger eine Fläche von 20 mm × 20 mm bietet. Um gekehrt bedeutet dies, dass für diese Fläche bei der gegebenen Auflösung ein Datenvolumen von unkomprimiert 20 × 20 × 12 MB = 4 800 MB = 4,8 GB entsteht.
Systemlösungen zur Telepathologie werden von mehreren Herstellern angeboten. Erste Entwicklungen im Rahmen von EU-Projekten nutzten das Mikroskop mit einem Kameraaufsatz zur Erfassung der Bilder und eine Fernsteuerung des Mikroskops durch den Telepathologen [Winokur 1998, Haroske 2001]. Um trotzdem ein flüssiges Arbeiten zu ermöglichen, wird in der Regel das Bild nur bei Änderungen des Bildausschnitts übertragen. Weiterhin wird versucht, die Übertragung auf die neuen Bildinhalte zu beschränken, sofern dies aufgrund des Fokus und der gewählten Vergrößerung möglich ist. Telepathologisch gestützte Konsile und interoperative Schnellschnitte haben den Weg in die Routineversorgung genommen. Dennoch fehlen konkrete Vorgaben der Fachgesellschaften zur Telepathologie, sowohl zu Leitlinien als auch zur Standardisierung für zugehörige Prozesse. Aus ärztlicher Sicht ist beim intraoperativen Schnellschnitt der Zuschnitt des Gewebes durch technische Angestellte (ohne Anwesenheit eines Pathologen) problematisch, insbesondere für großvolumige Proben (kleine Proben werden in der Regel ohne Zuschnitt verwendet). Zudem besteht für den Telepathologen in der Regel kein taktiles Feedback, er kann die Probe nicht fühlen kann, um die Gewebestruktur zu beurteilen. Einen neuen vielversprechenden Ansatz stellt die virtuelle Mikrokopie dar, die auf ein konventionelles Mikroskop verzichtet. Die virtuelle Mikroskopie (virtual microscopy) dient zur digitalen Erfassung lichtmikroskopischer Präparate in hoher Auflösung und Bereitstellung der Bilddaten über ein Computernetzwerk.
Ein hochauflösendes Scan-System erlaubt die Aufnahme eines Bildes des Schnittpräparats mit unterschiedlicher Vergrößerung ausschließlich über einen Bildsensor mit
9 Telemedizin |
299
mikroskopähnlicher Optik. Für die Routineanwendung können bis zu einigen hundert Objektträger automatisch nacheinander in hoher Auflösung (0,5 μm × 0,5 μm) mithilfe eines sogenannten Slide-Scanners erfasst werden. Danach stehen die Bilder in einer vom Anwender wählbaren Auflösung am Monitor zur Befundung zur Verfügung. Bei einer Auflösung bis zu 10 Megapixel gewährleistet der Monitor eine möglichst detaillierte und großflächige Darstellung des Präparats. Die virtuelle Mikroskopie verlagert die Befundung vom Mikroskop zum Monitor. Der Einsatz eines Slide-Scanners erlaubt somit die Aufnahmen vor der Befundung an den PC-Arbeitsplatz zu übertragen oder mit der Wahl des Bildausschnitts die Übertragung mit der gewünschten Auflösung zu erhalten. Die virtuelle Mikroskopie stellt hohe Anforderungen, da – große Datenmengen bereitgestellt und in kurzer Zeit übertragen werden müssen (10 Megapixel in 100 ms entsprechen 107 × 3 × 8 bit/100 ms = 2,4 Gbit/s), – eine Auflösung von 0,5 μm bei 20 × 20 mm Fläche eine Bildmatrix mit 40 k × 40 k Pixeln erforderlich ist, – trotz möglicher Komprimierung im Vergleich zur Radiologie ein deutlich höheres Datenvolumen (ca. 100 GB) schon bei nur 20 Schnitten pro Patient mit je 4,8 GB zu übertragen sind. Derzeit bieten einige Anbieter Systeme für die virtuelle Mikroskopie an. Obwohl mit den DICOM Supplements 122 und 145 bereits heute standardkonforme Vorgaben zu Datenformaten sowie mit dem IHE Pathology Workflow Vorgaben zu Abläufen vorliegen [DICOM 122; DICOM 145; IHE Pathology], setzen die Unternehmen noch auf herstellerspezifische Lösungen. Diese Situation ist vergleichbar mit den Anfängen der Teleradiologie, bei der erst durch den DICOM-Standard ein herstellerübergreifendes Format verfügbar wurde. Es ist zu erwarten, dass sich die virtuelle Mikroskopie – trotz der umfangreichen Anforderungen – am Markt durchsetzen wird und damit auch eine gute Ausgangsbasis für weitere telepathologische Anwendungen bereitstellen wird. In einem vergleichbaren Ansatz unterstützt die virtuelle Mikrokopie die medizinische Ausbildung, indem Bilder des gesamten Schnittpräparats in einem eLearning-Ansatz den Studierenden in beliebiger Auflösung und Ausschnitten webbasiert zur Verfügung stehen und mittels mobiler Endgeräte z. B. Smartphones geladen werden können.
9.4 Telekonferenz Telekooperation zwischen räumlich entfernten Ärzten kann asynchron (mit zeitlicher Verzögerung) oder synchron (zeitgleich) erfolgen. Die einfachste Form der Telekonferenz ist ein Telefonat zwischen Fachkollegen. Obwohl es den mündlichen Austausch über die Situation eines Patienten erlaubt, ist es in Bezug auf die Hinzunahme von weiteren Informationen zu dem Patienten sehr eingeschränkt.
300 | Martin Staemmler, Michael Walz
Die Telekonferenz (teleconference) ermöglicht einen simultanen Austausch von Audio- und Video daten sowie Datenobjekten zwischen mehreren Personen und Systemen, die voneinander räum lich entfernt, aber über ein Telekommunikationssystem miteinander verbunden sind.
Eine interdisziplinäre Fallkonferenz erfordert die Teilnahme von mehr als zwei Personen mit Bereitstellung aller relevanten Informationen zu meist mehreren Patienten und der Dokumentation der gemeinsam erreichten Entscheidung zur Diagnose und Therapie. Typische Beispiele sind Fallkonferenzen im Vorfeld einer geplanten Therapie, zur Besprechung eines unklaren Befundes (z. B. bei Verdacht auf Karzinom) oder die Durchführung eines Konsils durch einen externen Neurologen bei einem Schlaganfallpatienten zur Bewertung vorliegender Funktionseinschränkungen und zur Empfehlungen bezüglich der weiteren Therapie. Die Telekonferenz zwischen räumlich voneinander entfernten Ärzten muss für alle Teilnehmer die gleiche Darstellung gewährleisten und zudem sicherstellen, dass es sich tatsächlich um Informationen zu dem aktuell ausgewählten Patienten handelt. Die genannten Anforderungen sind am besten mit Werkzeugen des CSCW (Computer Supported Cooperative Work) umzusetzen, bei denen ein Teilnehmer seine Sicht bezüglich des vorliegenden Falles bzw. der aktuellen Anwendung allen anderen Teilnehmern zur Verfügung stellt [Gross 2007]. So wird z. B. die Darstellung eines Office- oder PDF-Dokuments für alle synchron sichtbar, und jeder Teilnehmer hat mit seiner Maus die Möglichkeit, auf spezifische Inhalte hinzuweisen, indem sein Mauszeiger bei dem anderen Teilnehmer farblich gekennzeichnet dargestellt wird. Ebenso werden Änderungen wie Blättern oder Öffnen weiterer Dokumente an alle Teilnehmer weitergeleitet. Allerdings eignet sich dieses Vorgehen kaum für die Betrachtung radiologischer Bilddaten bzw. anderer umfangreicher Datenmengen, da diese dann zum Zeitpunkt der Betrachtung an alle Teilnehmer übertragen werden müssten. Für diese hochvolumigen Daten empfiehlt sich der Einsatz eines Konferenzmanagement-Tools, mit dem im Vorfeld der Konferenz relevante Daten bereits an die Teilnehmer versandt werden und lokal und ohne Zeitverlust zur Visualisierung bereitstehen [Otto 2007]. Dazu stellen manche Viewer (Anwendungen zur Darstellung radiologischer Bilder) die Möglichkeit zur Synchronisation bereit, indem Mauszeiger und Bedienelemente wie beim CSCW gekoppelt sind, der Datenzugriff aber lokal erfolgt. Soll der CSCW-Ansatz eine weitergehende Diskussion unterstützen, so bietet sich das sogenannte Whiteboard an, bei dem alle Teilnehmer Zugriff auf eine Zeichenfläche haben und sich so mit ihren Ideen und Vorstellungen einbringen können. Die technische Umsetzung der Telekonferenz kann bei nur zwei Teilnehmern mit gleicher Ausstattung in einer Punkt-zu-Punkt-Topologie erfolgen (Abb. 9.13). Für mehr als zwei Teilnehmer ist eine zentralistische Topologie mit einer Konferenzinfrastruktur notwendig, da nur so die Verteilung der Datenströme an die beteiligten Teilnehmer möglich ist (Abb. 9.14).
9 Telemedizin |
Teilnehmer A
DICOM Bilddaten im Vorfeld ausgetauscht
301
Teilnehmer B
Steuerbefehle, Mauszeiger „online“ Audio- und Video-Daten „online“ (H323 via TCP/IP)
Abb. 9.13: Telekonferenz zwischen zwei Teilnehmern in einer Punkt-zu-Punkt-Topologie zur Übertra gung von Audio- und Video-Daten.
Teilnehmergruppe A im Konferenzraum
Teilnehmer B Konferenzinfrastruktur Bildverteilung, Konferenzmanagement zentrale MCU Multi Control Unit (Audio- und Videoverteilung)
Teilnehmer C
Abb. 9.14: Telekonferenz zwischen mehreren Teilnehmern in einem zentralistischen Ansatz.
Hinzu kommt in der Praxis eine unterschiedliche Ausstattung der Teilnehmer mit Konferenzlösungen, sodass die Audio- und Videosignale in verschiedenen Kodierungen (Codec) vorliegen, die nur mittels der zentralen Einheit (Multipoint Control Unit, MCU) umgerechnet bzw. in den jeweiligen auf der Empfängerseite benötigten Codec umgeformt werden können. Sie unterstützt zudem in ihrer Rolle eines Gatekeepers den Anmeldeprozess von Teilnehmern (meist analog wie beim Telefon) und gleicht die gegenseitigen Fähigkeiten für die Audio- und Videoübertragung ab. Die Transferraten der Codecs in Tabelle 9.3 verdeutlichen, dass der Betrieb einer MCU als zentraler Knoten über einen Netzzugang verfügen muss, dessen Bandbreite größer als die Summe der Transferraten zu den einzelnen Teilnehmern ist, um verzögerungsfrei Audio-, Video- und sonstige Daten übertragen zu können. Die Erfahrung zeigt, dass bereits ein zeitlicher Versatz (delay oder jitter) von mehr als 50 ms zwischen Audio- und Videosignal als irritierend empfunden wird. Deutlich störender noch ist ein Stillstand („Hängenbleiben“) von Sprache oder Bild. Gerade wenn keine speziellen Standleitungen verwendet werden oder die Verbindung über unterschiedliche Providernetze läuft, sind die 50 ms nur schwer zu garantieren bzw. müssen durch eine retrospektive Synchronisation erreicht werden. Für die Aufnahme der Audio- und Videosignale kommt es in der Regel zum Einsatz hochwertiger Flächenmikrofone mit Kugelcharakteristik (ohne spezifische Richtwirkung) sowie Kon-
302 | Martin Staemmler, Michael Walz
Tab. 9.3: Übersicht Videokonferenzbandbreiten für Widescreen-Monitore (16:9). Transferrate
Auflösung
Bilder pro s
Beschreibung
128 kbit/s 384 kbit/s 512 kbit/s 768 kbit/s 1,7 Mbit/s
432 ×240 Pixel 912 ×512 Pixel 1 072 ×608 Pixel 1 280 ×720 Pixel 1 920 ×1 080 Pixel
30 Vollbilder 30 Vollbilder 30 Vollbilder 30 Vollbilder 30 Vollbilder / 60 Halbbilder
Widescreen CIF Kabelfernsehen DVD-Auflösung HDTV 720p HDTV 1080i
ferenzkameras, die meist in zwei Achsen schwenkbar und mit einer Zoomfunktion ausgestattet sind. In der Kopplung beider Einheiten kann bei einer Diskussionsrunde auch der jeweils sprechende Teilnehmer automatisch von der Kamera anvisiert werden. Neben der technischen Umsetzung bestehen auch Anforderungen an das soziale Verhalten der Teilnehmer. Bei einem gleichberechtigten Zugang muss sichergestellt sein, dass alle Teilnehmer ohne das sofortige Eingreifen der anderen agieren dürfen. Man stelle sich eine solche Situation beim gemeinschaftlichen Editieren eines Textes vor. Ist dieses Verhalten nicht gewährleistet, so kann ein Aktivitäts-/Rederecht auch zwischen Teilnehmern weitergereicht werden, sodass immer nur ein Teilnehmer in der Anwendung tätig werden kann, und alle anderen seine Aktionen sehen. Eine analoge Betrachtung gilt auch für die Audioübertragung in einer Telekonferenz, wenn alle gleichzeitig reden, wäre kaum etwas zu verstehen. Im Rahmen der Video-Übertragung kann jeder Teilnehmer durch die Aufteilung des Monitors in Teilbereiche sein Videobild und das der anderen Teilnehmer darstellen. Hierzu stehen bei Telekonferenzsystemen meist Doppelmonitore zur Verfügung, um die Teilnehmer und die Anwendung bzw. das Whiteboard auf separaten Monitoren zu zeigen. Telekonferenzsysteme werden heutzutage in der klinischen Routine genutzt. Tumor- und interdisziplinäre Fallkonferenzen bedürfen erfahrungsgemäß einer straffen Organisation, einerseits für die Vorbereitung mit einer Informationsbereitstellung und andererseits, um alle Teilnehmer aus den verschiedenen Standorten zum abgesprochenen Zeitpunkt präsent zu haben. Im Gegensatz zu einem face-to-face-Treffen können so – gerade in Gegenden mit geringer Krankenhausdichte – signifikant Reisezeiten und -kosten gespart werden. Telekonferenzen finden zunehmend Einsatz in der medizinischen Diagnose und zur Therapiekontrolle. So konnte im Projekt TEMPiS eine deutliche Verbesserung der Prognose für Schlaganfallpatienten nachgewiesen werden, wenn durch Telekonferenz die Diagnose und die Entscheidung zur weiteren Behandlung unterstützt wird [Audebert 2007]. Detaillierte Empfehlungen des Einsatzes solcher Systeme finden sich in [Schwamm 2009]. Auch in der Rehabilitation erlaubt ein mobiles Telekonferenzsystem die Beurteilung des Therapieerfolgs durch einen entfernten Neurologen, der im audiovisuellen Kontakt mit dem Patienten steht und Bewegungs- und Sprachfähigkeit anhand gestellter Aufgaben beurteilt. Eine weitere Anwendung hat die Telekonferenz in der Ausbildung, bei der beispielsweise eine
9 Telemedizin | 303
Operation live übertragen wird, um das Vorgehen zu vermitteln, zu erläutern und zu dokumentieren.
9.5 Telemonitoring Über 20 % der Bevölkerung in Deutschland leiden an chronischen Erkrankungen wie koronarer Herzkrankheit (25,3 %), Diabetes mellitus (23,7 %), Asthma (35,9 %) oder chronischer Atemwegserkrankung (Chronic Obstructive Pulmonary Disease, COPD) (12 %) [Lugert 2009], mit steigender Tendenz in unserer Wohlstandsgesellschaft. Zudem führt die demographische Entwicklung in Deutschland zu umfangreichen Belastungen für das Gesundheits- und Pflegesystem. Verbunden damit ist aber auch die Frage, wie die zunehmende Zahl von Patienten durch eine abnehmende Zahl im Erwerbsleben stehender Personen betreut werden kann, da geschätzt wurde, dass der Altenquotient von 40 % im Jahr 2020 schon auf 55 % im Jahr 2030 steigen wird (Abb. 9.15). Das Telemonitoring (Fernüberwachung im Bereich des Gesundheitswesens) bezeichnet die Erfas sung und Auswertung von medizinischen Vitalparametern sowie ihre Überwachung, Kontrolle und Rückmeldung.
Projekte im Rahmen des Telemonitorings und des Ambient Assisted Living (AAL), wie auch Smart Home und Home Care erarbeiten Lösungskonzepte, um den negativen Folgen dieser Entwicklung entgegenzuwirken. Ziel ist es, insbesondere Älteren und Hilfebedürftigen durch technische Systeme und Dienstleistungen möglich lange ein Leben in der eigenen Wohnung zu ermöglichen und zu einem persönlichen Sicherheitsgefühl durch nutzerkontrollierte und unaufdringliche Überwachungs- und Alarmsysteme beizutragen. Politik und Kostenträger erwarten hierdurch nicht nur eine Kostendämpfung, sondern auch die Entwicklung neuer Märkte.
< 20 Jahre 20–64 Jahre > 65 Jahre Bevölkerung Altenquotient
2020
2030
2040
2050
2060
17 % 60 % 23 % 80 Mill. 40 %
16 % 55 % 29 % 77,4 Mill. 55 %
15 % 52 % 33 % 73,9 Mill. 66 %
14 % 50 % 36 % 69,4 Mill. 71 %
13 % 49 % 38 % 64 Mill. 77 %
Annahmen: Geburtenhäufigkeit fallend auf 1,2 Kinder je Frau bis 2060, jährlicher Zuzug 100000 Personen, Lebenserwartung 87,7 J (m), 91,2 J (w)
Abb. 9.15: Bevölkerungsentwicklung für die Jahre 2020–2060 nach [Destatis 2012].
304 | Martin Staemmler, Michael Walz
Dabei umfasst Smart Home die intelligente Kontrolle häuslicher Einrichtungen, z. B. von Beleuchtung, Rollläden, Energiebedarf, Zugangssicherung durch den Benutzer und/oder durch Steuer- und Regelungssysteme. AAL fokussiert auf die Unterstützung des alltäglichen Lebens (Kapitel 10). AAL nutzt Sensor- und Aktorsysteme, sei es zur Erfassung und Auswertung täglicher Aktivitäten, zur Gewährleistung von Sicherheit in der Küche (z. B. eingeschalteter Herd) und im Bad (z. B. offener Wasserhahn) oder Interaktionssysteme zur Einbindung von Angehörigen, Nachbarn und Hilfsdiensten. Dagegen adressiert Home Care – gemäß dem Grundsatz „ambulant vor stationär“ – die sektorübergreifende betreuende, pflegerische und medizinische Versorgung (Mobilisation, Ernährung, Infusion, Dekubitusprophylaxe, Stoma- und Wundversorgung, Beatmung usw.) und kann auf Telemonitoring-Systeme zurückgreifen. Typische Szenarien des Telemonitorings sind: – Überwachung von ambulanten Patienten oder Personen mit gesundheitlichem Risiko, – bei einem definierten Krankheitsbild (z. B. Herzerkrankung mit deutlicher Einschränkung der körperlichen Leistungsfähigkeit, wenn auch ohne Beschwerden in Ruhe, oder regelmäßige Messung des Blutzuckers bei Diabetes mellitus Typ 1 oder 2), – zur Änderung eines gesundheitsbeeinträchtigenden Verhaltens (z. B. Kontrolle des Body Mass Index (BMI), bei BMI > 30 liegt Adipositas vor), – zur Nachbetreuung bei einer frühzeitigen Entlassung aus der stationären Versorgung mit dem Ziel, durch eine häusliche Überwachung kostenintensive Krankenhaustage zu reduzieren. In der Regel geht die Initiative zur Überwachung von den behandelnden Ärzten und Einrichtungen aus und wird meist im Rahmen eines Disease Management Programs (DMP) oder eines Modellvorhabens der jeweiligen Krankenkasse durchgeführt und begleitet. Des Weiteren können Rehabilitationseinrichtungen oder Physiotherapeuten an der Behandlung beteiligt sein. – Überwachung von Personen bei gefährlichen Tätigkeiten (z. B. Einsatzkräfte der Feuerwehr und des Technischen Hilfswerks, Nuklearunfälle, Astronauten, Militär). – Im Rettungswesen werden bereits vom Unfallort oder aus dem Notarztwagen Vitaldaten, (bes. EKG) an Fachärzte in einem Krankenhaus übertragen. Ziel ist es, bereits im Notarztwagen eine Entscheidung für das am besten geeignete Krankenhaus zur weiteren Behandlung zu treffen sowie die Vorbereitung im Krankenhaus zu optimieren. – Ebenso können Patienten, deren Gesundheit gefährdet ist (z. B. durch eine Herzerkrankung, einen überstandenen Schlaganfall oder eine problematische Schwangerschaft) selbst das kostenpflichtige Angebot eines Telemedizinischen Zentrums (TMZ) für ihr persönliches Sicherheitsgefühl (peace of mind) nutzen. Dazu erhält der Patient Messgeräte, um jederzeit per Mobiltelefon seinen Vitalstatus an das TMZ übertragen zu können. Die Befundung erfolgt unmittelbar, entweder
9 Telemedizin | 305
–
mit der Aussage „ohne Befund“ (alles in Ordnung) oder mit der Empfehlung zum Aufsuchen des Haus- bzw. Facharztes oder der Einleitung und Koordination von Hilfs- und Rettungsmaßnahmen durch das TMZ. Das TMZ kooperiert mit betreuenden Haus- und Fachärzten und informiert diese über jedes Ereignis. Während die vorigen Szenarien vorwiegend Vitaldaten durch Sensoren außerhalb des Körpers erfassen, können auch Implantate verwendet werden. Ein Beispiel sind Herzschrittmacher mit integrierter Defibrillationsfunktion (Implantable Cardioverter-Defibrillator, ICD), die sowohl den kardialen Status des Trägers (Extrasystolen, Arhythmien) als auch die Funktionsbereitschaft des ICD (Batteriestatus, Elektrodenwiderstand) erfassen und an eine Basisstation in der Nähe des Trägers übertragen. Die Daten werden zur Auswertung an das TMZ des Geräteherstellers gesendet, das die beteiligten Ärzte bzw. Kliniken gegebenenfalls benachrichtigt.
9.5.1 Anforderungen Der Einsatz von Telemonitoring folgt keinem Selbstzweck, sondern in der Regel einer medizinischen Indikation und der Unterstützung der Behandlung einer bestimmten Erkrankung. Dieser Sachverhalt ist in Abbildung 9.16 schematisch dargestellt. Telemonitoring erfordert eine eindeutige klinische Indikationsstellung.
Die Indikationsstellung ist auch die Voraussetzung für die Aufnahme in ein Telemonitoring-Programm, das neben allen technischen Leistungen sowohl krankheitsbezogene Information, Schulung und Training als auch ein aktives Telecoaching für den Patienten umfassen sollte. Ziel ist es, die Akzeptanz und Mitwirkung des Patienten langfristig zu fördern, auch durch Festlegung von Zielen. Hierzu zählt ein Feedback an den Patienten und – sofern er zustimmt – an seine Angehörigen. Ebenso wichtig
Indikationsbezogen – Information (Patienten, behandelnde Ärzte, ...) – Schulung, Training – Qualitätssicherung
technisches Monitoring – Datenerfassung – Datenübernahme – Datenmanagement
Datenmanagement, Prozessorganisation und Informationsflüsse für das Telemonitoring Feedback/Auswertung – für Patient – für Angehörige – für behandelnden Arzt – für Kostenträger
Abb. 9.16: Indikationsbezogene Aufgaben für das Telemonitoring.
Telecoaching – telefonische Betreuung – Compliance fördern – Ziele mit Patient festlegen
306 | Martin Staemmler, Michael Walz
ist die Einbindung der ambulanten oder stationären Behandler des Patienten, damit der Patient kooperativ betreut werden kann und die Mitarbeiter und Kollegen des Telemonitoring-Anbieters nicht als Konkurrenz empfunden, sondern als Partner akzeptiert werden. Aus technischer Sicht – benötigt die Datenerfassung Sensoren für eine Vielzahl von Vital- und Umgebungsparametern (Tab. 9.4), die für Betroffene bzw. Patienten einfach zu nutzen sind, optisch ansprechend wirken und möglichst unaufdringlich gestaltet sind sowie lange Batterie- oder Akkulaufzeiten, – ist die Übernahme der erfassten Sensordaten und Signale in eine stationäre oder mobile Plattform zur weiteren Auswertung erforderlich, – muss für die Auswertung der Daten, für die Verwaltung der Kunden und Patienten und für die Koordination von Maßnahmen ein Informationssystem bei dem jeweiligen Dienstleister bereitgestellt werden.
Tab. 9.4: Messgrößen und Messverfahren des Telemonitoring. Messgröße
Messverfahren
Messart
Standort
Temperatur
Thermometer (Temperaturfühler)
Zeitpunkt
mobil
Gewicht
Waage
Zeitpunkt
ortsfest
Körperfett
Impedanz (bei Messung über Waage)
Zeitpunkt
ortsfest
Gerinnung
Blut, Teststreifen
Zeitpunkt
mobil
Blutdruck
Manschette am Oberarm/Handgelenk Pulswellenlaufzeit Handgelenk
Zeitpunkt kontinuierlich
mobil mobil
Blutzucker
Blut, Teststreifen Glukose-Sensor im subkutanen Gewebe
Zeitpunkt kontinuierlich
mobil mobil
Herzfrequenz
Brustgurt mit Elektroden
kontinuierlich
mobil
Atemfrequenz
Brustgurt mit Impedanzmessung
kontinuierlich
mobil
EKG
Einkanal: über wenige Kontakte Mehrkanal: Gurt und Referenzelektroden
kontinuierlich kontinuierlich
mobil mobil
Aktivität
Beschleunigungs- und Lagesensoren
kontinuierlich
mobil
Sturz
Beschleunigungs- und Lagesensoren
kontinuierlich
mobil
Tonometrie
Augeninnendruck per Applanation
Zeitpunkt
mobil
Ortung
RFID, optisch, WLAN in bekannten Umgebungen, GPS im Freien
kontinuierlich kontinuierlich
mobil mobil
Tagebuch
Fragenkatalog
Zeitpunkt
mobil
Medikation
Erinnerung und Freigabe von Medikamenten Sensoren zur Entnahmekontrolle
Zeitpunkt Zeitpunkt
mobil mobil
9 Telemedizin | 307
9.5.2 Umsetzung Für das Telemonitoring steht eine Vielzahl von Sensoren und Geräten mit unterschiedlichen Messprinzipien zur Erfassung von Vitalgrößen zur Verfügung. Einzelheiten zu Messverfahren und Messgeräten sind in Band 5 erläutert. Die Tabelle 9.4 gibt einen exemplarischen Überblick. Hierbei kann generell zwischen einer kontinuierlichen Messung oder einer Messung zu einem definierten Zeitpunkt unterschieden werden. Dem Vorteil der kontinuierlichen Messung und Übertragung steht jedoch die begrenzte Batterie- oder Akkukapazität der mobilen Sensoren entgegen. So liefern Blutdruckmessgeräte mit aufblasbaren Manschetten pro Messung einen systolischen und einen diastolischen Wert. Blutdruckmessgeräte auf Basis der Pulswellenlaufzeit sind prinzipiell geeignet, kontinuierlich den Blutdruck zu messen. Eine ähnliche Situation besteht bei der Blutzuckermessung: Teststreifen nutzen einen Tropfen Blut für einen Momentanwert, wohingegen die in subkutanes Gewebe am abdominalen Bauch implantierten GlukoseSensoren eine kontinuierliche Messung im Minutentakt erlauben, wenn auch derzeit nur mit begrenzter Lebensdauer der Sensoren. Sensoren, die in Bänder, Brustgurte oder sogar in Kleidungsstücke (wearable sensors) integriert sind, können die Herz- und Atemfrequenz aufzeichnen, ggf. auch ein EKG mit mehreren Kanälen. Deutlich einfacher ist ein EKG-Sensor in Form einer Scheckkarte, der über vier Kontakte für ca. 30 s Daten eines Einkanal-EKG aufzeichnet und dann eine Übertragung der Messdaten an ein TMZ auf akustischem Wege über ein beliebiges Telefon erlaubt. Inertialsensoren nutzen die Messung der translatorischen und rotatorischen Beschleunigung in ein bis drei Raumachsen. Dies ist hilfreich für das Aktivitätsmonitoring zur Abschätzung des motorischen Kalorienverbrauchs oder zum Erkennen eines Sturzes auf Basis einer entsprechenden Auswertung, die aufgrund des Datenvolumens bereits im Sensorsystem erfolgt. Sensorsysteme mit integriertem Radio Frequency Identification Tag (RFID) oder Wireless LAN (WLAN) Tag dienen der Ortung von verwirrten oder dementen Bewohnern in Heimen und warnen beim Verlassen vorgegebener Aufenthaltsbereiche. Alternativ oder ergänzend vereinfacht ein sensor-integriertes Global Positioning System (GPS) die Suche nach der Person durch Rettungskräfte. Telemonitoring kann zudem durch Anwendungen auf einem Mobiltelefon, einem PDA oder einem PC (alle Formen von einem Tablet bis zum Tower) ergänzt werden. So kann durch die Beantwortung von Fragen ein Tagebuch zum Essverhalten, zu Schmerzen oder zum Befinden bei psychischen Erkrankungen wie Depression geführt werden. Ein einfacher Schritt in der Verknüpfung von Sensoren und Aktoren ist im Rahmen der Medikation möglich. Patienten werden – sofern notwendig – an die rechtzeitige Einnahme erinnert, das Fach mit den Medikamenten wird freigegeben und Sensoren detektieren die Entnahme von Pillen.
308 | Martin Staemmler, Michael Walz
Tab. 9.5: Verfahren und ihre Eigenschaften für die Kommunikation mit Sensoren. Kommunikationsebenen und Eigenschaften Verfahren proprietär USB IrDA Radio Frequency Identification (RFID) Near Field Communication (NFC) Bluetooth, ZigBee DECT WLAN, Wi–Fi USB Personal Health Device Communication (PHDC) Bluetooth Health Device Profile (HDP) ZigBee Health Care ANT+ Communication and Device Profiles ISO/IEEE 11073–20601 Personal Health Device (PHD)
Transport
Anwendung
Datenschutz
Protokoll (P) / Format (F)
k. A. × × × × × × × ×
k. A. – – – – – – – –
k. A. – – – – opt. opt. opt. –
k. A. P P P P P P P P
× × ×
– – ×
× × opt.
P P P, F
–
×
×
P, F
Legende: k. A. – keine Angabe möglich, opt. – optional, × – erfüllt, – – nicht erfüllt
Diese Anwendungen des Telemonitorings sind ohne eine Datenübernahme und -übertragung nicht möglich. Dafür haben die Hersteller bisher meist eigenständige Lösungen entwickelt. Die Sensoren kommunizieren mit einer home unit, Set-Top-Box oder dem Mobiltelefon, die dokumentierte Messdaten an das Datenmanagement des Herstellers übertragen. Hierzu werden Standardprotokolle wie TCP/IP, GPRS oder UMTS eingesetzt (Kapitel 11). Im Gegensatz dazu nutzen die Sensoren eine Vielzahl von Verfahren und Protokollen. Tabelle 9.5 zeigt, dass neben proprietären, herstellerspezifischen Protokollen auch verschiedene standardisierte Protokolle eingesetzt werden. Deutlich wird aber auch, dass bis auf wenige Ausnahmen nur die Transportebene und auf Anwendungsebene keine definierten Formate unterstützt werden. Die Problematik einer fehlenden Interoperabilität ist seit langem bekannt und hat im Jahr 2006 zur Gründung der Continua Health Alliance (CHA) geführt, der sich inzwischen ca. 250 Unternehmen und Organisationen aus dem sogenannten Personal-Health-Bereich angeschlossen haben. Ziel ist es, Vorgaben für interoperable Architekturen auf der Basis verfügbarer Standards (z. B. ISO, IEEE, HL7) und Profilen (z. B. von IHE) zu entwickeln und jährlich fortzuschreiben (Kapitel 11.3). Dabei nimmt die CHA nicht die Rolle einer Standardisierungsorganisation wahr, sondern legt fest, wie Standards und Profile für konkrete Anwendungen genutzt werden sollen und bietet zudem für die Hersteller eine Zertifizierung an. Konkret bedeutet dies,
9 Telemedizin | 309
häusliches/mobiles Umfeld PAN Device PAN Interface
LAN Device Activity Living Hub
LAN Interface
Leistungs- und Dienstanbieter
Application Hosting Device AHD
WAN Device
WAN Interface
HRN Device
HRN Interface
Abb. 9.17: Referenzarchitektur gemäß den Vorgaben der Continua Health Alliance.
dass CHA-zertifizierte Blutdruckmessgeräte verschiedener Hersteller über die gleiche Schnittstelle angeschlossen werden können. Für das Telemonitoring hat die CHA eine Referenzarchitektur entwickelt und spezifiziert, die ausgehend von Sensoren die Übertragung und das Management von Messdaten bis zu einer Bereitstellung in einer elektronischen Akte beinhaltet (Abb. 9.17). Vitaldaten werden im häuslichen bzw. mobilen Umfeld durch sogenannte Personal Area Network (PAN) Devices erfasst. Für typische Arten von Vitaldaten, wie Pulsoximetrie, Herzfrequenz, Blutdruck, Temperatur, Gewicht, Blutzucker, stellt der verwendete Standard ISO/IEEE 11073 ein Plug-and-play-Verhalten für die Sensoren bereit. Dabei kann sich ein Sensor selbst mit seinen Eigenschaften und Fähigkeiten über die PAN-Schnittstelle bei der Application Hosting Device (AHD) anmelden. Verbunden damit sind sogenannte Domäneninformationsmodelle, die neben den Messwerten auch den Kontext einer Messung abbilden (z. B. Messmethode). Mit dem Activity Living Hub wird die Local Area Network (LAN)-Schnittstelle zum AAL-Bereich unterstützt (z. B. Sturzerkennung, Alarme von Rauchmeldern). Die AHD übernimmt dabei die Aggregation von Daten. Ihre Übermittlung an Leistungs- und Dienstanbieter über das Wide Arrea Network (WAN) basiert auf den Vorgaben von IHE und HL7 und nutzt definierte Nachrichtenstrukturen, die mittels Webservices übertragen werden. Die Ablage der Daten in einer elektronischen Akte (electronic health record, EHR) verwendet das international akzeptierte IHE-Profil Cross-Enterprise Document Sharing (XDS) zusammen mit dem Health Record Interface (HRN). Für jede der dargestellten Geräteklassen (PAN, LAN, AHD, WAN, HRN Device) können somit Produkte verschiedener Hersteller eingesetzt werden, da die zugehörigen Schnittstellen, Formate und Protokolle eindeutig festgelegt sind. Obwohl die verwendeten Standards und Profile schon seit einigen Jahren verfügbar waren, hat erst die CHA ihre Nutzung zur Gewährleistung weitgehender Interoperabilität auf den Weg gebracht. Deutlich wird dies an ca. 80 zertifizierten Sensorsystemen bzw. Geräten im Jahr 2014.
310 | Martin Staemmler, Michael Walz
9.5.3 Bewertung Das Telemonitoring kann in mehrerlei Hinsicht zu Verbesserungen in der Gesundheitsversorgung beizutragen: – Steigerung der Behandlungsqualität auf Basis quasi-kontinuierlich erfasster Vitaldaten im Vergleich zu Momentbeobachtungen an einem Arzttermin im ambulanten oder stationären Bereich, – Aufbau eines durchgängigen Versorgungsmanagements, das durch ein individualisiertes Telecoaching den Kunden bzw. Patienten begleitet, motiviert und alle Behandler sektorübergreifend einbezieht, – Steigerung der Verantwortungsübernahme für die eigene Gesundheit: Telemonitoring ermöglicht sowohl Bürgern durch Lifestyle-Angebote für Fitness und Wellness, aber auch Patienten mit krankheitsbezogenen Programmen, zum Manager der eigenen Gesundheit zu werden, – Beitrag zum Übergang von der Behandlung von bereits Erkrankten zur Prävention, d. h. Bewahrung und Verbesserung der eigenen Gesundheit, um Erkrankungen vorzubeugen. Steigerung der Lebensqualität durch bessere Versorgung und größeres persönliches Sicherheitsgefühl sowie längeres eigenständiges Leben aufgrund der Inanspruchnahme von Telemonitoring, AAL und SmartHome-Diensten. Trotz dieser positiven Aspekte ist das Telemonitoring erst auf dem Weg in die Regelversorgung. Technologisch liegen – trotz aller Probleme in Bezug auf die Interoperabilität – ausgereifte Lösungen vor. Eine wesentliche Voraussetzung für die Aufnahme in die Regelversorgung stellt der Nachweis eines positiven Beitrags zur Gesundheitsversorgung (Evidenz) dar. Die Summe der Erwartungen und der Kriterien – wie zu Beginn dieses Abschnitts dargestellt – erschwert den Nachweis der Wirksamkeit.
Beispielsweise wurden im Projekt Partnership for the Heart in den Jahren 2008–2010 im Rahmen ei ner Studie ca. 700 Patienten mit chronischer Herzinsuffizienz über einen Zeitraum von 26 Monaten in zwei Gruppen leitliniengerecht, mit oder ohne Telemonitoring behandelt. Die Auswertung der Studie ergab keinen signifikanten Unterschied zwischen beiden Gruppen in Bezug auf die allgemeine Sterb lichkeit, das Versterben aufgrund von Herzinsuffizienz und die Anzahl der Krankenhaustage wegen kardialer Probleme [Köhler 2011]. Betrachtet man allerdings bestimmte Teilgruppen kardial instabiler Patienten, so hatten diese vom Telemonitoring primär durch eine geringere Zahl von Krankenhausta gen profitiert [Köhler 2011]. Ältere Studien, wie die TEN-HMS aus dem Jahr 2005, kommen zu deutlich positiveren Ergebnissen in Bezug auf die Sterblichkeit und Krankenhaustage, was auf unterschied liche Patientenkollektiven zurückgeführt werden kann [Cleland 2005]. Allein diese beiden Studien zeigen die Schwierigkeiten eines evidenzbasierten Nachweises.
Eine weitere Voraussetzung für die Aufnahme in die Regelversorgung sind tragfähige Kosten- und Erstattungsmodelle. Für die Kosten (ca. 50 bis 100 €/Monat) kommen
9 Telemedizin | 311
neben den Krankenkassen die Kunden bzw. Patienten als Selbstzahler oder die Rentenversicherungen in Betracht. Aus wissenschaftlicher Sicht bietet das Telemonitoring die Chance zu sogenannten closed-loop-Lösungen, die in sich geschlossenen Regelkreise auf unterschiedlichen Ebenen liefern. Der erste Regelkreis kann bereits im Sensorsystem umgesetzt werden, indem z. B. durch eine kontinuierliche Messung die Dosis einer Medikamentengabe innerhalb festgelegter physiologischer Grenzen geregelt wird. Eine Erweiterung ergibt sich durch die Einbeziehung des TMZ in den Regelkreis, das auf Basis einer Vielzahl von Messgrößen und entsprechender Algorithmen eine Modellbildung ermöglicht oder wissensbasierte Ansätze verwendet, um weitgehend automatisiert eine Beeinflussung in Form einer Regelung vorzunehmen. Die Vorgabe physiologischer oder patientenindividueller Parameter und Grenzwerte obliegt dem Arzt, der in den äußeren Regelkreis eingebunden ist. Lösungsansätze für den closed loop sind Bestandteil der Europäischen Forschungsprogramme wie ICT for Health und müssen neben allen technischen Anforderungen auch Fragen der Verlässlichkeit, der möglichen Haftung und des Standesrechts adressieren, um den Weg in die Regelversorgung zu ebnen.
9.6 Rahmenbedingungen Rahmenbedingungen beeinflussen die Entwicklung, die Umsetzung und den Betrieb von Telemedizinanwendungen und sind Voraussetzung für eine langfristige Nachhaltigkeit.
9.6.1 Integration telemedizinischer Anwendungen mit Bestandssystemen Grundvoraussetzung für die Nutzbarkeit (usability) telemedizinischer Anwendungen ist die Integration in die bestehende Arbeitsumgebung der Ärzte und die Behandlungsprozesse. So behindert eine Übernahme von Bildern oder Vitalwerten per copy&paste eine manuelle Zuordnung von Daten zu einem Patienten oder eine ausschließlich Browser-basierte Benutzerschnittstelle der telemedizinischen Anwendung die praktische Nutzung. Wünschenswert dagegen wäre, dass telemedizinisch erhobene Daten als solche automatisch der elektronischen Patientenakte eines Patienten zugeordnet werden oder das Einholen einer zweiten Meinung per Teleradiologie bei einer externen Einrichtung wie ein einrichtungsinterner Auftrag (order entry) initiiert werden könnte. Diesem Wunsch steht jedoch die Vielzahl der verschiedenen Praxissysteme (ca. 100) und der Krankenhausinformationssysteme (ca. 10) entgegen, die keine übergreifende Schnittstelle für eine solche Integration aufweisen. Beginnend auf der Ebene der Protokolle (technisch) und Datenformate (strukturell) setzt sich dieses im Nachrichtenaufbau (Syntax) und der Bedeutung (Semantik) fort. Schnittstellen
312 | Martin Staemmler, Michael Walz
auf der Ebene der Geschäftsprozesse, z. B. Auftrag, Befundübermittlung, Abrechnung, sind damit kaum möglich. Von einzelnen Herstellern oder Herstellergruppen liegen Lösungsansätze vor, allerdings erreichen diese aus Wettbewerbsgründen nur Teile des Marktes. Der oft genutzte Ausweg über elektronische Akten zur asynchronen Kommunikation (Partner A stellt ein Dokument ein, Partner B greift zu einem späteren Zeitpunkt darauf zu) unterliegt der gleichen Problematik. Das erreichbare Niveau der Integration sollte daher bei der Konzeption einer telemedizinischen Anwendung zusammen mit den späteren Anwendern diskutiert werden und eine Grundlage für die Entscheidung zur Umsetzung bilden.
9.6.2 Ärztliche Schweigepflicht und Datenschutz Die Anforderungen der ärztlichen Schweigepflicht, die sowohl in der Berufsordnung als auch in der Strafgesetzgebung verankert ist, müssen ebenso wie die allgemeine Anforderung des Datenschutzes in vollem Umfang erfüllt werden. Personenbezogene Patientendaten sollten nicht nur über verschlüsselte Leitungen übertragen werden, sondern auch selbst verschlüsselt sein, um eine Einsichtnahme beispielsweise durch Systemadministratoren zu verhindern. Die Datenhaltung selbst sollte dem Prinzip einer Auftrennung zwischen personenbezogenen Stammdaten und den Verlaufsdaten auf zwei separate Datenbanken folgen. Bei der Planung und Umsetzung einer Telemedizinumgebung sind die Empfehlungen des Bundesamtes für Sicherheit in der Informationstechnik (BSI) zu berücksichtigen, die u. a. Login und Passwort als alleinige Zugangsberechtigung als nicht ausreichend einstufen und eine 2-Faktor-Authentifizierung vorsehen. Auch sind Besonderheiten wie beim Beschlagnahmeschutz zu beachten; nach aktuellem Stand können Daten, die sich nicht innerhalb einer medizinischen Einrichtung befinden, möglicherweise beschlagnahmt werden. Für die meisten telemedizinischen Anwendungen ist nach Ansicht der Juristen eine spezielle Einwilligung des Patienten zur Datenübertragung erforderlich; bei Durchführung einer Telekonsultation ist die Einwilligung des Patienten auch zur Einbeziehung weiterer Ärzte erforderlich. Falls der Patient nicht in der Lage ist, eine Einwilligung zu erteilen, z. B. bei einer Schädelverletzung, kann im zeitkritischen Notfall von einer mutmaßlichen Einwilligung ausgegangen werden – andernfalls ist ein gesetzlicher Vertreter zu kontaktieren.
9.6.3 Fernbehandlung und Facharztstandard Bis zum Jahr 2011 sahen die Berufsordnungen der Landesärztekammern ein Verbot der „ausschließlichen Behandlung oder auch Beratung über Computerkommunikationsnetze“ vor. Die hinzugefügte Ergänzung lautet: „Auch bei telemedizinischen Verfahren ist zu gewährleisten, dass eine Ärztin oder ein Arzt die Patientin oder den Pa-
9 Telemedizin |
313
tienten unmittelbar behandelt“ [BÄK 2011]. Nach mehrheitlicher Ansicht der Juristen kann diese Anforderung erfüllt werden, wenn in die telemedizinischen Abläufe ein Arzt einbezogen ist, der in direktem Kontakt mit dem Patienten steht. Die Grenzen sind allerdings unscharf und können sich, wie beim Telemonitoring immer mehr in Richtung einer zentralen Betreuung verschieben. Sowohl in der Diagnostik als auch in der Therapie hat der Patient ein Anrecht auf Erfüllung des Facharztstandards. Gerade die Telemedizin kann hier Lösungen anbieten, z. B. durch die Teleradiologie nach RöV (Kapitel 9.2.1). Dennoch muss im Regelfall ein Arzt mit Facharztstandard oder der Facharzt selbst kurzfristig am Patienten verfügbar sein.
9.6.4 Organisation, Verantwortung und Weisungsrecht Bei Telemedizinanwendungen müssen die Prozesse und Strukturen in geeigneter Form entwickelt, mit den Beteiligten abgestimmt und z. B. durch einen PDCA-Zyklus (plan, do, check, act) oder einen kontinuierlichen Verbesserungsprozess realisiert werden. Typische Schwierigkeiten ergeben sich daraus, dass sich kompetente Personen zwar um die einzelnen Teilbereiche wie die IT kümmern, dass die Gesamtkoordination aber vernachlässigt wird. Notwendig erscheinen auch Festlegungen von Verantwortungsbereichen, von Vorgehensweisen bei Konflikten und Meinungsverschiedenheiten und von Weisungsrechten der Ärzte an verschiedenen Orten.
9.6.5 Haftung, Organisationsfehler, Ausfallkonzept Ebenso wie die medizinische Behandlung unterliegen telemedizinische Anwendungen der Dokumentationspflicht. Eine lückenlose, revisionssichere, d. h. nicht nachträglich manipulierbare Dokumentation erlaubt die Zuordnung, wann, durch wen und in welcher Abfolge Entscheidungen getroffen wurden, und ist die Voraussetzung zur Aufklärung von Fragen in Bezug auf medizinische Fehler und Vermeidung der sogenannten Beweislastumkehr. Aber es kann nicht nur die einzelne Person durch das konkrete Verschulden, sondern auch die Organisation von einer Regressforderung betroffen sein, wenn zugrundeliegende Strukturen und Prozesse nicht dem Stand der Technik entsprechen. Krankenhäuser in der Notfallversorgung können sich meist nicht auf das Prinzip „Not kennt kein Gebot“ berufen, sondern müssen geeignete Lösungen im Vorfeld bereitstellen. Dazu gehört auch ein Ausfallkonzept für Telemedizinsysteme in der Patientenversorgung. So hat im Jahr 2007 der Verband der Elektrotechnik (VDE) auf Basis der Struktur der Qualitätsmanagement-Norm DIN ISO 9011 Anwendungsempfehlungen für das Telemonitoring aufgestellt [VDE Initiative MikroMedizin 2007].
314 | Martin Staemmler, Michael Walz
9.6.6 Externe Qualitätssicherung, Zertifizierung, Studien In vielen Bereichen der medizinischen Versorgung ist inzwischen eine externe Qualitätssicherung bzw. ein Qualitätsmanagement, ggf. mit Zertifizierung vorgeschrieben. Beispiele sind die ärztlichen Stellen, die für die Überprüfung der Teleradiologiesysteme, die Durchführung der vorgegebenen Qualitätssicherung und der Röntgenanwendungen zuständig sind. Auch im Rahmen der Zertifizierungen von Onkologie-, Darmoder Brustzentren werden Prozesse und elektronische Kommunikationsverfahren betrachtet. Weiterhin finden Prüfungen durch den Medizinischen Dienst der Krankenkassen (MDK) und der Behörden oder Datenschutzbeauftragten statt. Verbunden damit ist die Anforderung, dass anonymisierte bzw. aggregierte Daten diesen externen Stellen zur Verfügung gestellt werden. Eine ähnliche Anforderung ergibt sich in Bezug auf eine Datenextraktion meist in einer pseudonymisierten Form für wissenschaftliche Studien z. B. in der Versorgungsforschung.
9.6.7 Vergütung Die Vergütung telemedizinisch erbrachter Leistungen ist bisher nur sehr eingeschränkt in den relevanten Gebührenordnungen für Ärzte (GOÄ, EBM) abgebildet. Eine Überarbeitung sieht das Versorgungsstrukturgesetz (VStG) vor [VStG 2011]. In der stationären Krankenversorgung bestehen viele Verträge zwischen den Institutionen für telemedizinische Leistungen, z. B. für die Teleradiologie nach RöV. Häufig verlangen die zentralen Kliniken und telemedizinischen Leistungserbringer aber kein Entgelt, da für sie aus wirtschaftlicher Sicht die Kundenbindung wichtiger ist und sie z. B. von Verlegungen der Patienten in ihre Institution nach durchgeführter Telekonsultation profitieren. Andererseits können in manchen Fällen bestimmte Leistungen nur abgerechnet werden, wenn eine telemedizinische Anbindung nachgewiesen werden kann, z. B. eine Telekonferenz mit einem Neurologen in der Schlaganfallversorgung.
9.6.8 Akzeptanz bei den Beteiligten Die Akzeptanz bei den beteiligten Personengruppen ist Voraussetzung für die erfolgreiche Einführung und die Nachhaltigkeit eines Telemedizinprojektes. Dabei sind verschiedene Einflussfaktoren zu beachten. Wichtig ist die frühzeitige Einbeziehung der lokalen Entscheidungsträger und Projektteilnehmer, wie Geschäftsführung, ITVerantwortliche, Ärzte und Patienten. Neben der Integration (Kapitel 9.6.1) sind berufspolitische und sozioökonomische Gesichtspunkte zu berücksichtigen. Wenn die Beteiligten eine neue Technik beispielsweise als Gefahr für den Fortbestand ihres Arbeitsplatzes empfinden, steigt die Wahrscheinlichkeit für das Scheitern des Projek-
9 Telemedizin |
315
tes enorm; dies wird noch verstärkt, wenn Interessensgruppen wie Berufsverbände den Widerstand organisieren. Manche Telemedizinanwendungen sind auch als Telebzw. Heimarbeit einzuordnen, bei denen positive und negative Aspekte zu beachten sind. Häufig werden Patientenflüsse zwischen den Institutionen im Gesundheitswesen oder die Auswahl von Experten zur Telekonsultation durch persönliche Beziehungen der Ärzte und anderer Beteiligter geprägt. Diese bestehenden Strukturen und Abläufe sollten möglichst durch neu eingeführte elektronische Kommunikationswege genutzt werden, da ansonsten Widerstände bis zur Verweigerung auftreten können.
9.7 Zusammenfassung und Ausblick Telemedizin ist ein fester Bestandteil der heutigen medizinischen Versorgung geworden. Teleradiologie, Telekonferenz oder Telepathologie als typische Vertreter einer Arzt-Arzt Kooperation gewährleisten eine qualitativ hochwertige Gesundheitsversorgung, die unabhängig von Ort und Zeit auf medizinische Kompetenz und Expertise angewiesen ist. Patienten und Gesundheitseinrichtungen profitieren gleichermaßen davon, sei es durch Einholen einer zweiten Meinung, durch eine gemeinschaftliche Verlegungsentscheidung der beteiligten Krankenhäuser oder durch extern betreute und verantwortete Untersuchungen. Erste Übernahmen in die Regelleistungskataloge beispielsweise zur Schlaganfallversorgung oder das Telekonsil demonstrieren die klinische Nutzung und die erreichte Evidenz. Im Gegensatz dazu steht für das Telemonitoring, als eine Interaktion zwischen Arzt bzw. telemedizinischem Zentrum und Patienten, die Übernahme in die Regelversorgung noch aus, auch wenn eine Vielzahl von Modellvorhaben und Studien seine Evidenz für klar abgegrenzte Krankheitsbilder nachgewiesen haben. Telemonitoring unterstützt durch die quasi-kontinuierliche Beobachtung relevanter Vitalparameter die Entwicklung einer verstärkt präventiv ausgerichteten medizinischen Versorgung. Sie trägt zu einer Steigerung der Lebensqualität des Patienten bei und liefert einen positiven Beitrag zur Bewältigung des demographischen Wandels. Über die genannten Anwendungen hinaus gibt es eine Vielzahl weiterer Ansätze, wie Telepsychiatrie, Teledermatologie, Teleophthalmologie, Teleendoskopie, Telekardiotokographie (CTG), Teleteaching, Telechirurgie, die in Szenarien wie Einholen einer zweiten Meinung, Expertenkonsultation, Monitoring, medizinische Ausbildung oder gar Fernbehandlung eingesetzt werden. Der geringen Verbreitung in Deutschland steht eine umfangreichere internationale Nutzung gegenüber, die sich auf große räumliche Entfernungen, schlechte Erreichbarkeit, hohe Risiken aber auch anders strukturierte Systeme der Gesundheitsversorgung bzw. der Vergütung zurückführen lässt. So zeigt die Erhebung der WHO aus dem Jahr 2010, dass die Teleradiologie in 53 %, die Telepathologie und Teledermatologie in je 28 % und die Telepsychiatrie in 18 % der betrachteten 114 Länder als Angebote etabliert sind bzw. sich in der Erpro-
316 | Martin Staemmler, Michael Walz
bung befinden [WHO 2010]. Nur in 30 % der Länder planen und koordinieren nationale Agenturen die Entwicklung telemedizinischer Versorgung, mehrheitlich wird sie durch wissenschaftliche Einrichtungen in Projekten vorangetrieben. Dies gilt für Entwicklungsländer und entwickelte Länder gleichermaßen. Telemedizinische Dienste sind auf die Einbindung der behandelnden Ärzte in Praxen und Krankenhäuser angewiesen. Damit sind neben der Entwicklung einer technisch ausgereiften Lösung die beteiligten Organisationen, Prozesse, vertragliche Regelungen und Rahmenbedingungen zu berücksichtigen. Akzeptanz und Mitwirkung auf Seiten des Nutzers erfordern eine kontinuierliche Betreuung, übersichtliche und gut verständliche Benutzerschnittstellen und für Systeme des Telemonitoring ein ansprechendes Gerätedesign, das nicht stigmatisierend wirkt. Dieser Facettenreichtum lässt erfolgreiche telemedizinische Anwendungen nur in der interdisziplinären Zusammenarbeit zwischen verschiedenen Berufsgruppen entstehen und bietet zudem die Chance für neue Berufsbilder, gerade auch in Verbindung mit AAL und Smart Home.
Quellenverzeichnis Audebert, H. J.; Schenkel, J.; Haberl, R. L.; Hahn, R.; Clarmann von Clarenau, S.; Schlachetzki, F.; Bogdahn, U.: Prognoseverbesserung beim Schlaganfall. Deutsches Ärzteblatt, 2007: 104 (27) 1962–1966, 2007. BÄK, (Muster-)Berufsordnung für die in Deutschland tätigen Ärztinnen und Ärzte in der Fassung der Beschlüsse des 114. Deutschen Ärztetages 2011 in Kiel, §7 (4). Online im Internet: http: //www.bundesaerztekammer.de/recht/berufsrecht/muster-berufsordnung-aerzte/musterberufsordnung/ 2011. Cleland, J. G. F.; Louis, A. A.; Rigby A. S.; Janssens, U.; Balk, A. H. M. M.: Noninvasive Home Tele monitoring for Patients With Heart Failure at High Risk of Recurrent Admission and DeathThe Trans-European Network-Home-Care Management System (TEN-HMS) study. J Am Coll Cardiol. 2005;45(10):1654–1664, 2005. Destatis: Online im Internet. http://www.destatis.de/bevoelkerungspyramide/ Stand: 16. 8. 2012. Field, M. J.; Telemedicine: A Guide to Assessing Telecommunications in Health Care, National Acade my Press, Washington D. C. 1996. Fröhlich, C. P.: Telerdiologie im Mammographie-Screening: Evaluation eines Testnetzes mit dedizier ten Befundungsstationen, Dissertation, Ernst-Moritz-Arndt-Universität, Greifswald 2007. Gross, T.; Koch, M.: Computer-Supported Cooperative Work. Interaktive Medien zur Unterstützung von Teams und Communities. Oldenbourg, München 2007. Haroske, G.: Point-to-point Versus Web-based Telepathology in Intra-operative Diagnostics, in Health Academy, Editors W. Niederlag, H. U. Lemke, Band 2/2001, Dresden 2001. IHE Pathology, Technical Framework – Anatomic Pathology Workflow (APW). Online im Internet: http://www.ihe.net/Technical_Framework/index.cfm “ \l „pathology“ Stand: 15. 7. 2014. IHE-D Cookbook. Online im Internet. http://wiki.hl7.de/index.php/IHE_DE_Cookbook Stand: 15. 7. 2014. Köhler, F.; Winkler, S.; Schieber, M.; Sechtem, U.; Stangl, K.; Böhm, M.; Boll H.; Baumann, G.; Ho nold, M.; Koehler, K.; Gelbrich, G.; Kirwan, B. A.; Anker, S. D. and on behalf of the TIM-HF Investigators: The impact of remote telemedical management on mortality and hospitaliza
9 Telemedizin | 317
tions in ambulatory patients with chronic heart failure: TIM-HF study. Circulation. 2011 May 3;123(17):1873–1880. Epub 2011 Mar 28, 2011. Koehler, F.; Winkler, S.; Schieber, M.; Sechtem, U.; Stangl, K.; Böhm, M.; de Brouwer, S.; Perrin, E.; Baumann, G.; Gelbrich, G.; Boll, H.; Honold, M.; Koehler, K.; Kirwan, B. A.; Anker, S. D.: Telemedicine in heart failure: Pre-specified and exploratory subgroup analyses from the TIM-HF trial. Int J Cardiol. 2011 Oct 7. [Epub ahead of print]. Lugert, P.: Weiblich, alt und chronisch krank? Die Inanspruchnahme medizinischer Leistungen von chronisch kranken Versicherten, Online im Internet: http://www.dstatis.de, Stand: 15. 7. 2014, 2009. Otto, K.; Ehricke, H-H.; Staemmler, M.; Bethke, R.: Tele-Tumorkonferenz-Plattform mit integriertem Workflowmanagement. Proceedings Telemed eHealthweek 2007, Berlin, 16–20. 4. 2007. RöV (Röntgenverordnung) letzte Änderung BGBl I Nr. 51 13.Okt. 2011 Art 2 der Bekanntmachung vom BGBl I Nr. 7, 30. 4. 2003 S. 604, 2011. Schwamm, L. H.; Audebert H.J, et al.: Recommendations for the Implementation of Telemedicine within Stroke Systems of Care: A Policy Statement from the American Heart Association. Stroke 2009, 40:2635–2660; originally published online May 7, 2009. Staemmler, M.; Walz, M.; Weisser, G.; Sturm, J.: Bundesweites Netzwerk für die Telekooperation in Trauma Netzwerken, e-Health 2012, 148–154, Hsrg: F. Duesberg, medical future verlag 2012. VDE Initiative MikroMedizin, VDE Anwendungsregeln für TeleMonitoring Qualitätsmanagement DIN EN ISO 9001:2000, VDE, Frankfurt 2007. VStG, Versorgungsstrukturgesetz, Bundesgesetzblatt, Nr. 70 vom 28. 12. 2011, 2983–3022, 2011. Winokur, T. S.; McClellan, S.; Siegal, G. P.; et al.: An initial trial of a prototype telepathology sys tem featuring static imaging with discrete control of the remote microscope. Am J Clin Pathol 110:43–49, 1998. WHO, Telemedicine – Opportunities and developments in Member States. Online im Internet: http: //www.who.int/goe/publications/goe_telemedicine_2010.pdf, Stand: 15. 7. 2014.
Verzeichnis weiterführender Literatur Bake, C.; Blobel, B.; Münch, P.: Handbuch Datenschutz und Datensicherheit im Gesundheits- und Sozialwesen, 3. Auflage. Hüthig Jehle Rehm, Heidelberg 2009. Budych, K.; Carius-Düssel, C.; Schultz, C.; Helms, T. M.; Schultz, M.; Dehm, J.; Pelleter, J.; Lee, S-Y.; Zippel-Schlutz, B.: Telemedizin: Wege zum Erfolg. Kohlhammer, Stuttgart 2013. Duesberg, F.: e-Health. medical future verlag, Solingen (jährliche Ausgabe). Garlisle, G.; Whitehouse, D.; Duquenoy, P.: eHealth: Legal, Ethical and Governance challenges. Springer, Heidelberg 2013. Gärtner, A.: Telemedizin und computerunterstützte Medizin, Medizintechnik und Informationstech nologie. TÜV Media GmbH, Köln 2006. Kayser, K.; Szymas, J.; Weinstein, R.: Telepathology: Telecommunication, Electronic Education and Publication in Pathology. Springer, Berlin 1999. Pianykh, O. S.: Digital Imaging and Communications in Medicine (DICOM). Springer, Berlin 2008. Wichert, R.; Eberhardt, B.: Ambient Assisted Living. Springer, Heidelberg 2012.
318 | Martin Staemmler, Michael Walz
Standards DIN 6868-159, Sicherung der Bildqualität in röntgendiagnostischen Betrieben – Teil 159: Abnahme und Konstanzprüfung in der Teleradiologie nach RöV, DIN 2009. DICOM-54, DICOM MIME Type, DICOM Standard, supplement 54, verfügbar unter medical.nema.org 2004. DICOM-85, Web Access to DICOM Objects, DICOM Standard, supplement 85 und Part 18, verfügbar unter medical.nema.org 2005. DICOM-122, Specimen Module and Revised Pathology SOP Classes, DICOM Standard, supplement 122, verfügbar unter medical.nema.org 2008. DICOM-145, Whole Slide Microscopic Image IOD and SOP Classes DICOM Standard, Supplement 145, verfügbar unter medical.nema.org 2010.
Testfragen 1. Benennen Sie Gründe für die heutige Rolle der Telemedizin und die zukünftig erwartete positive Entwicklung! 2. Welche Voraussetzungen sind für eine Teleradiologie nach Röntgenverordnung bei der Geneh migung und im Betrieb zu erfüllen? 3. Kann eine Traumaspirale (CT-Aufnahme von Kopf bis Fuß) mit 2 000 Bildern (je ca. 512 kB) inner halb von 15 Minuten über eine 10 Mbit/s Datenleitung übertragen werden? 4. Welchen Lösungsansatz würden Sie wählen, um in einem Verbund von 12 Kliniken sowohl die Teleradiologie als auch eine Telekonferenz für onkologische Fälle zu realisieren? Begründen Sie Ihren Ansatz! 5. Beschreiben Sie, was mit dem Begriff „virtuelle Mikroskopie“ gemeint ist! Welcher Einfluss ist von der „virtuellen Mikroskopie“ auf etablierte telepathologische Vorgehensweisen zu erwar ten? 6. Stellen Sie den Ansatz vor, den die Continua Health Alliance verfolgt! Benennen Sie seine Vorund Nachteile aus Sicht der Nutzer und der Hersteller von Lösungen zum Telemonitoring! 7. Nennen Sie die wichtigsten Rahmenbedingungen, die zum nachhaltigen, effektiven Einsatz der Telemedizin gegeben sein sollten! 8. Erstellen Sie eine Rangfolge der Rahmenbedingungen in Abhängigkeit der folgenden Gruppen: Patienten, Ärzte und Anbieter telemedizinischer Dienstleistungen! 9. Erarbeiten Sie Kriterien, um die Eigenschaften der „Arzt-Arzt-Kooperation“ mit denen der „ArztPatient-Konsultation“ zu vergleichen! Führen Sie den Vergleich anhand einer Tabelle durch!
Edwin Naroska, Christian Ressel, Gudrun Stockmanns
10 Technische Assistenzsysteme im Kontext des demografischen Wandels 10.1 10.2 10.3 10.4 10.5 10.6 10.7
Einleitung | 320 Wurzeln und Ausprägungen des Ambient Assisted Living (AAL) | 321 Ziele und Aufgaben von Ambient-Assisted-Living-Systemen | 325 Herausforderungen technischer Assistenz im Rahmen von AAL | 331 Technische Infrastruktur eines AAL-Systems | 334 Beispiele zentraler Dienste: Verhaltensanalyse und Aktivitätserkennung | 342 Zusammenfassung und Ausblick | 344
Zusammenfassung: Durch den demografischen Wandel bedingte strukturelle Veränderungen in der Gesellschaft wirken sich vielfältig auf die Betreuung und Pflege älterer Menschen aus. Der Einsatz technischer Systeme in der häuslichen Wohnumgebung, die es älteren Menschen erlauben, weitestgehend selbstbestimmt und selbständig in ihrer eigenen Wohnung zu leben, stellen einen adäquaten Lösungsansatz dar. Die primären Aufgaben solcher Assistenzsysteme sind nach heutigem Stand die Erkennung von Notfallsituationen, die Überwachung des gesundheitlichen Zustandes, die Hilfe bei der Haushaltsführung sowie die Unterstützung des Pflegepersonals. Abstract: Structural alterations in modern societies due to the demographic change have a critical impact on the care of elderly people. The use of technical devices and computer-based systems could be an adequate solution enabling elderly people to enjoy a mainly autonomous and independent life in their familiar domestic surroundings as long as possible. These so-called technical assistance systems are designed to detect emergencies, assess the medical condition of older people, help with everyday housekeeping and support nursing staff.
320 | Edwin Naroska, Christian Ressel, Gudrun Stockmanns
10.1 Einleitung Der demografische Wandel wird tiefgehende Veränderungen in der Gesellschaft hinterlassen und auch unser Gesundheitssystem ist davon im hohen Maße betroffen. So muss z. B. bereits schon heute eine steigende Anzahl älterer, pflegebedürftiger Menschen von einer stetig abnehmenden Anzahl von Pflegekräften betreut werden. Ursachen hierfür sind nicht nur der absolute Anstieg von Pflegefällen sowie die wachsende Intensität der Pflege, sondern auch ein zunehmender Mangel an qualifiziertem Pflegepersonal. Zwar ist ein hohes Alter nicht zwangsläufig mit Pflegebedürftigkeit verbunden, dennoch ist ein Großteil der Senioren gerade im höheren Alter auf medizinische und praktische Hilfe, Unterstützung, Betreuung und Pflege angewiesen. Da dies mit den Mitteln und Möglichkeiten des heutigen Pflegesystems in Zukunft nicht zu bewältigen sein wird, müssen neue Pflegekonzepte entwickelt und umgesetzt werden. Ein vielversprechender Ansatz wird in technischen Assistenzsystemen gesehen, die eine Betreuung älterer und/oder kranker Menschen ohne zusätzlichen Personaleinsatz unterstützten [Bayen 2013, BMFSFJ 2010, Krüger-Brand 2009, Ressel 2008]. Dabei sollen die technischen Systeme in die heimische Wohnumgebung integriert werden, um die Eigenständigkeit der älteren Menschen zu verbessern und ihnen auf diese Weise ein länger selbstbestimmtes Leben zu ermöglichen. Dieses Konzept wird Ambient Assisted Living (AAL) (altersgerechte Assistenzsysteme für ein selbstbestimmtes Leben) genannt. So verheißungsvoll der Gewinn durch solche AAL-Systeme auch sein mag, so groß sind aber auch die technologischen und gesellschaftlichen Herausforderungen, um diese zu entwerfen, zu realisieren und auch auf breiter Front zum Einsatz zu bringen. In den nachfolgenden Abschnitten sollen die Ziele von AAL-Systemen, ihre technischen Grundlagen und auch die aktuellen Herausforderungen näher beschrieben werden. Das Kapitel beginnt mit einer kurzen Erläuterung des demografischen Wandels hinsichtlich seiner Auswirkungen auf die Gesellschaft und insbesondere auf den Pflegebereich. Anschließend werden in Kapitel 10.3 zentrale Begriffe aus dem Umfeld des AAL sowie die Ziele und die typischen Aufgaben eines AAL-Systems erklärt. Dabei wird deutlich, dass man auf dem Weg zu einer auf breiter Front einsetzbaren technikorientierten assistiven Umgebung erst am Anfang steht. Das Kapitel 10.4 erläutert die Herausforderungen, die auf diesem Weg zu bewältigen sind. Anschließend werden in Kapitel 10.5 die technischen Voraussetzungen an eine Wohnumgebung beschrieben, um AAL-Systeme installieren zu können. Im darauffolgenden Kapitel 10.6 wird dann auf die zentralen Funktionen der Verhaltensanalyse und Aktivitätserkennung eingegangen. Sie bilden die Basis vieler bereits jetzt entwickelter Problemlösungen für verschiedene Unterstützungsaufgaben. Daher ist es sinnvoll diese beiden Funktionen als zentrale Komponenten in ein AAL-System zu integrieren. Schließlich wird noch im Kapitel 10.7 ein Ausblick auf zukünftige Entwicklungen und Herausforderungen gegeben. Das Studium des gesamten Kapitels soll zu folgenden Lernergebnissen führen:
10 Technische Assistenzsysteme im Kontext des demografischen Wandels | 321
– – – – –
Verständnis für die gesellschaftliche Problematik und Bedeutung technischer Assistenzsysteme im Kontext der demografischen Entwicklung, Darstellung und Erläuterung technischer und monetärer Herausforderungen, Verständnis der technischen Infrastruktur eines AAL-Systems und seiner Komponenten, Kompetenz zum Entwurf dezidierter Assistenzsysteme für einfache Anwendungen, Bedeutung und Einschätzung wissensbasierter Komponenten für den Entwurf intelligenter Assistenzsysteme an Beispielen.
10.2 Wurzeln und Ausprägungen des Ambient Assisted Living (AAL) Zentrale Triebfeder für die Entwicklung technischer Assistenzsysteme, insbesondere für den Einsatz bei älteren Menschen, ist die demografische Entwicklung der Bevölkerung. Wie Analysen des Statistischen Bundesamts für Deutschland zeigen, wird sich die Altersstruktur in den kommenden Jahren radikal ändern [Statistisches Bundesamt 2013]. Wesentliche Gründe hierfür sind die niedrigen Geburtenraten gepaart mit einer wachsenden Lebenserwartung. Folglich werden immer weniger junge Menschen immer mehr ältere Menschen versorgen, pflegen und betreuen müssen (Kapitel 10.5). Veränderungen in der Altersstruktur der Bevölkerung werden als demografischer Wandel bezeich net.
Zahlen des Statistischen Bundesamts Deutschland prognostizieren, dass in der BRD die Anzahl der Personen im Erwerbsalter von 50,1 Millionen im Jahr 2005 auf 40,5 Millionen im Jahre 2050 sinkt. Im gleichen Zeitraum wird die Zahl der über 65-jährigen Menschen von 15,9 auf 23,6 Millionen steigen [Statistisches Bundesamt 2013]. Dieser Sachverhalt wird das Gesundheitssystem, die Altersvorsorge aber auch viele anderen Bereiche in der Gesellschaft nachhaltig beeinflussen. Sowohl Erkrankungen als auch nachlassende motorische und mentale Fähigkeiten im Alter wirken sich nachteilig auf die Verrichtung vieler Tätigkeiten des täglichen Lebens aus. Die Tabelle 10.1 verdeutlicht den Unterstützungsbedarf von Senioren. In der Tabelle ist der prozentuale Anteil an Senioren aufgeführt, die eine bestimmte Tätigkeit nur schwer oder gar nicht mehr verrichten können und somit Hilfe benötigen. Der Bedarf wächst stark mit dem Alter an und umfasst viele Aspekte des täglichen Lebens vom Säubern der Wohnung, über Zubereitung von Mahlzeiten bis hin zur Benutzung der Toilette. Charakteristisch für wichtige technische Unterstützung ist ihre Integration in der gewohnten häuslichen Umgebung. Man spricht deshalb auch häufig von Ambient Assisted Living (AAL), also einer Unterstützung in der Lebensum-
322 | Edwin Naroska, Christian Ressel, Gudrun Stockmanns
Tab. 10.1: Unterstützungsbedarf bei Tätigkeiten des täglichen Lebens. Es ist der Anteil der Senioren angegeben, die eine Tätigkeit nur schwer oder gar nicht mehr durchführen können. Betrachtet wur den Personen ab 65 Jahren (71,8 %, im Alter zwischen 65 und 79 Jahren und 28,2 % über 80 Jahre) [Link 1999]. Tätigkeit
65. . . 79-Jährige
über 80-Jährige
Insgesamt (≥ 65 Jahre)
Reinigung der Wohnung Lebensmittel einkaufen Treppensteigen Baden Mahlzeiten zubereiten Duschen/Waschen An- und Ausziehen Wohnung heizen Telefonieren Umhergehen Medikamente richten Toilette benutzen
12,9 % 12,2 % 13,1 % 8,9 % 5,9 % 5,7 % 6,2 % 5,5 % 3,0 % 3,6 % 2,6 % 2,4 %
38,9 % 38,3 % 33,5 % 30,2 % 24,8 % 21,9 % 19,5 % 19,8 % 16,8 % 14,3 % 14,8 % 10,8 %
20,2 % 19,5 % 18,8 % 14,9 % 11,2 % 10,2 % 9,9 % 9,5 % 6,9 % 6,6 % 6,0 % 4,8 %
gebung. Ein effizientes AAL-System sollte somit eine große Palette unterschiedlicher Funktionalitäten personenspezifisch zur Verfügung stellen können. Von zentraler Bedeutung für die Entwicklung derartiger technischer Assistenzsysteme sind die Bedürfnisse der Zielgruppe. So haben AAL-Systeme primär Senioren und Menschen mit Beeinträchtigungen im Fokus. Generell hat die Mehrheit der älteren Menschen den Wunsch, ihr Leben möglichst lange selbstbestimmt und in der heimischen Umgebung zu verbringen. Die Entwicklung und der Einsatz geeigneter Informationstechnologien sollen die Erfüllung dieses Wunsches unterstützen, indem sie einen eigenständigen Alltag erlauben, ohne dabei Gesundheit oder gar das Leben des Bewohners zu gefährden. Dies verspricht zudem eine finanzielle Entlastung des Gesundheitssystems und verbindet somit die Wünsche der Zielgruppe mit den Anforderungen des Sozialsystems. Ansätze für solche Technologien werden im noch jungen Forschungsgebiet Ambient Intelligence (AmI) untersucht und entwickelt, das sich aufbauend auf den Visionen des Ubiquitous Computing und des Pervasive Computing in Europa etabliert hat. Die einzelnen Zielvorstellungen und Paradigmen werden im Folgenden kurz beleuchtet.
10.2.1 Ubiquitous Computing Der Begriff Ubiquitous Computing (Rechnerallgegenwart) wurde von Mark Weiser in seiner Veröffentlichung The Computer for the 21st Century [Weiser 1991] geprägt und hat sich seitdem in der wissenschaftlichen Szene verbreitet. Der Begriff beschreibt keine Technologie, sondern eine akademisch idealistische Vision der zukünftigen Computerentwicklung.
10 Technische Assistenzsysteme im Kontext des demografischen Wandels
| 323
Der Begriff Ubiquitous Computing (Rechnerallgegenwart) bezeichnet eine in der Zukunft umsetz bare Technikvision, in der die Bedürfnisse des Menschen in den Mittelpunkt gestellt werden und in der die Interaktion mit allgegenwärtiger Technik eher unbewusst erfolgt.
Weiser und sein Team waren schon Anfang der 90er Jahre davon überzeugt, dass die Verwendung eines Computers als Universalgerät dem Benutzer zu viel Aufmerksamkeit abverlangt, die zur Bewältigung der eigentlichen Aufgaben dann nicht mehr zur Verfügung steht. Die Lösung sieht Weiser in der Auflösung des Universalgerätes in viele kleine, spezielle Prozessoren, die in einem Raum oder einer Umgebung verteilt und in unterschiedliche Alltagsgegenstände eingebettet bzw. dort versteckt sind. Ein solcher Computer besitzt nicht mehr zwingend das Aussehen eines heutigen PCs und hat ggf. auch keine Maus, Tastatur oder Monitor. Weiser und sein Team gingen davon aus, dass in einem Raum Hunderte solcher Computer verteilt sind. Für diese soll auch keine Zuordnung zu Einzelpersonen bestehen wie beispielsweise beim Personal Computer, sondern die Geräte sollen alle Benutzer der Umgebung bestmöglich und unaufdringlich unterstützen. Dem Anwender soll bei der Verwendung eines solchen Systems gar nicht bewusst sein, dass viele kleine vernetzte Prozessoren und Microcontroller ihn bei seiner Arbeit helfen. Dabei sei „der Computer ist nicht mehr Gegenstand der Aufmerksamkeit“ (übersetzt nach [Weiser 1991]). Der Benutzer verwendet sie, ohne über die Technik und deren Eigenschaften nachzudenken.
10.2.2 Pervasive Computing Einen weiteren Begriff mit fast identischer Bedeutung führte die Industrie, vor allem vertreten durch IBM, nur wenige Jahre später ein: Pervasive Computing (Rechnerdurchdringung) [Hansmann 2001]. Pervasive Computing (Rechnerdurchdringung) bezeichnet die Vernetzung von verteilten Compu tern, die eine allgegenwärtige Informationsverarbeitung ermöglichen.
Hierzu verwenden Pervasive-Computing-Anwendungen bestehende Technologien, die miteinander kombiniert ein Produkt ermöglichen, das kommerziell vermarktet werden kann. Eine zentrale Rolle dieser Produkte nimmt dabei die ständige Anbindung an das Internet ein. Daten können von unterschiedlichen Geräten gesammelt und an einen Server im Internet weitergeleitet werden, der diese speichert, miteinander verknüpft und auswertet. Die gewonnen Daten können wiederum kommerziell genutzt werden (z. B. im Rahmen des eCommerce). Die partielle Umsetzung dieser Vision findet sich heute schon im Alltag wieder. Hierzu gehören z. B. standortbasierte Dienste, um beispielsweise Freunde oder Sehenswürdigkeiten in seiner direkten Umgebung finden zu können. Aber auch andere
324 | Edwin Naroska, Christian Ressel, Gudrun Stockmanns
Anwendungen aus den Bereichen Cloud Computing und Wearable Computing können dem Pervasive Computing zugeordnet werden. Noch nicht ganz so stark verbreitet – aber auf dem Vormarsch – sind Systeme, welche die herkömmliche Hausinstallation ersetzen und eingebettete Systeme in jedem Lichtschalter, jedem Rollladenkasten, jedem Heizkörper und jeder Steckdose einsetzen. Ein solches System ermöglicht die vollständige Automatisierung der Haustechnik.
10.2.3 Ambient Intelligence Aufbauend auf den dargestellten Ansätzen formulierte die Information Society Technologies Advisory Group (ISTAG), ein Beratungsgremium der Europäischen Union, 2001 erstmals eine grobe Vorstellung der hier betrachteten Ambient Intelligence (AmI, Umgebungsintelligenz). Ambient Intelligence (AmI, Umgebungsintelligenz) bezeichnet ein technologisches Paradigma für die Gestaltung von menschlichen Lebensräumen und Umgebungen durch die Installation von in telligenten und intuitiven Schnittstellen, die in jeglicher Form in Objekten eingebettet sind. Auch ist die Umgebung selbst in der Lage, verschiedene Individuen zu erkennen und auf diese in an gemessener Weise zu reagieren. Dieser Vorgang erfolgt dabei nahtlos, unaufdringlich und ist für den Benutzer meist nicht explizit sichtbar [IST 2001, IST 2002].
Als Haupteigenschaften von AmI-Systemen werden von der ISTAG genannt: – Unaufdringlichkeit: das System ist kaum wahrnehmbar in die Umgebung eingebettet, – Personalisierbarkeit: das System erkennt den Benutzer und berücksichtigt seine individuellen Bedürfnisse, – Adaptierbarkeit: das Systemverhalten reagiert auf Benutzeraktionen und Veränderungen in der Umgebung, – vorausschauende Eigenschaften: das System erkennt möglichst selbstständig die Wünsche des Benutzers und dessen Umgebung. Diese Kerneigenschaften sind zentral mit dem AmI-Konzept verbunden und hatten in den vorhergehenden Visionen eine untergeordnete Bedeutung [Aarts 2009].
10.2.4 Ambient Assisted Living Werden AmI-Systeme in häuslichen Wohnumgebungen eingesetzt, um die Lebensqualität für die Bewohner zu erhöhen, so werden diese allgemein als technische As-
10 Technische Assistenzsysteme im Kontext des demografischen Wandels
| 325
sistenzsysteme oder auch als Ambient-Assisted-Living-Systeme (AAL-Systeme) bezeichnet. Mit Ambient Assisted Living (AAL) werden altersgerechte Assistenzsysteme für ein selbstbestimm tes Leben bezeichnet. Hierzu zählen Konzepte, Produkte und Dienstleistungen, die neue Techno logien und soziales Umfeld miteinander verbinden, um die Lebensqualität der Menschen in allen Lebensabschnitten zu erhöhen.
Zudem werden seit einigen Jahren immer häufiger auch technische Systeme, die das Pflegepersonal bei der täglichen Arbeit unterstützen, als AAL-Systeme bezeichnet. Das technische System befindet sich dabei immer im Spannungsfeld zwischen dem technisch Machbaren und dem ethisch, rechtlich oder persönlich Vertretbaren. Nicht alles was technisch möglich ist, wird auch von der Gesellschaft oder den betroffenen Einzelnen getragen. Somit stellt sich bei jeder technischen Entwicklung auch sofort die Frage nach deren Akzeptanz. Das bedeutet aber nicht, dass man im Vorfeld schon alle Forschungsansätze vermeiden sollte, die zurzeit gesellschaftlich nicht akzeptiert werden oder auch rechtlich problematisch sind. Vielmehr ist es die Aufgabe von Forschung und Industrie verschiedene Möglichkeiten und Lösungen aufzuzeigen, sowie eine Diskussion in der Gesellschaft anzuregen, inwieweit eine tatsächliche Umsetzung der jeweiligen Technologie gewollt ist und an welche Rahmenbedingungen diese vielleicht geknüpft sein sollte.
10.3 Ziele und Aufgaben von Ambient-Assisted-Living-Systemen 10.3.1 Anwendungsszenarien Ein grundlegender Schritt bei der Entwicklung von AAL-Systemen ist die Definition der Anforderungen an das System. Die an dem Definitionsprozess beteiligten Akteure stammen aus einer Vielzahl von verschiedenen Berufsgruppen. Die Verständigung der Mitglieder einer Berufsgruppe untereinander ist unkritisch, da diese ein gemeinsames Fachvokabular verwenden und die Vorgehensweisen und die relevanten Themen gegenseitig bekannt sind. Setzt sich die Gruppe der Beteiligten multidisziplinär zusammen, ist das zielgerichtete Zusammenführen der Beteiligten und die Berücksichtigung aller relevanten Fragestellungen eine besondere Herausforderung. Als hilfreich hat sich hier die Verwendung von Anwendungsszenarien gezeigt [VDE AAL 2011]. Auch wenn diese Szenarien zunächst trivial erscheinen, bieten sie doch die Möglichkeit, das Umfeld technischer Assistenzsysteme in einer ganzheitlichen, anwendungsrelevanten und intuitiven Betrachtungsweise aus der Sicht des Nutzers bzw. aller beteiligten Akteure zu beschreiben. Das folgende prototypische Anwendungsszenario soll die Lebenssituation der Zielgruppe älterer Mensch, das Arbeitsumfeld der Pflegekräfte, die potentiellen Zie-
326 | Edwin Naroska, Christian Ressel, Gudrun Stockmanns
le technischer Assistenzsysteme und weiterhin Grundlagen für die Erarbeitung des Anforderungsprofils aus den verschiedenen Blickwinkeln beispielhaft aufzeigen.
Anwendungsszenario Frau Elisabeth H. ist 82 Jahre alt und wohnt seit 55 Jahren in einer Vorort-Siedlung einer städtischen Wohnungsbaugesellschaft. Frau H. ist glücklich, dass sie trotz ihrer leichten Vergesslichkeit und ih rer Vorerkrankungen weiter in ihrer Wohnung bleiben kann. Dies wurde erst durch die behinderten gerechte Umgestaltung der Wohnung vor zwei Jahren möglich. Neben der Barrierefreiheit verfügt ihre Wohnung nun auch über ein integriertes Assistenzsystem, das nach Bedarf sukzessive erweitert wer den kann. Frau H. war zunächst sehr skeptisch. Sie wollte nicht durch Technik überwacht werden und sorgte sich auch um die Finanzierbarkeit der Sicherung ihrer Selbstständigkeit. Heute, nach zwei Jah ren Erfahrungen mit der Technik, ist Frau H. von diesem System überzeugt. Sie fühlt sich sicher, da sie weiß, dass ihr System in der Lage ist, automatisch einen Notruf auszulösen, wenn sie plötzlich stürzen oder ohnmächtig werden sollte. Weiter beinhaltet das System die Funktionalität der Ernäh rungs- und Bewegungsberatung, die abgestimmt auf ihre gesundheitliche Situation Menüvorschläge und Anregungen für ein Fitnesstraining zur Verfügung stellt. Ihr tägliches Leben ist auch durch die verfügbaren Dienste, die sie über ihren Fernseher buchen und organisieren kann, sehr viel einfacher geworden. Diese Dienste werden zum einen von kommerziellen Anbietern kostenpflichtig bereitge stellt, zum anderen auch von sozialen Einrichtungen, wie der Altenstube im Quartier, kostenfrei zur Verfügung gestellt. Den Lieferservice für Lebens- und Arzneimittel sowie den Reinigungsservice für Wohnung und Kleidung nimmt sie regelmäßig in Anspruch, weitere Dienste, wie den Lieferservice für das Mittagessen, den mobilen Friseurservice und die Wäschereiservice nur temporär, je nach aktu ellem Gesundheitszustand. Nach einem halben Jahr verschlechtert sich der Gesundheitszustand von Frau H. Das Fortschreiten ihres Diabetes und ihrer Herzinsuffizienz macht eine regelmäßige Kontrolle ihres Gesundheitszustands notwendig. Auch steigt die Gefahr einer Ohnmacht oder eines Sturzes. In Abstimmung mit ihrem Hausarzt wird das Assistenzsystem mit dem Modul einer medizinischen Betreuung erweitert. Dieses wird explizit auf ihre Vorerkrankungen abgestimmt und erlaubt die früh zeitige Erkennung typischer Notfälle. Da ihre berufstätige Tochter im Ausland lebt und die Koordinati on der regelmäßig notwendigen Arzttermine nicht übernehmen kann, schließt die Tochter für Frau H. einen Vertrag für einen Telefonservice ab, der die Terminkoordination von Arztbesuchen und Unter suchungen sowie die Kontrolle über das Einhalten der Termine übernimmt. Die Kommunikation zwischen Mutter und Tochter wird durch einen speziellen Sessel unterstützt. Von diesem Sessel aus kann Frau H. alle Kommunikationsmedien bequem bedienen. Selbst ein län geres Gespräch mit ihren Freudinnen kann Frau H. komfortabel und unangestrengt führen, da in dem Sessel ein Lautsprecher und ein Bildschirm integriert sind. Weiter kann Frau H. an dem Sessel eine Funktion aktivieren, die der Tochter oder ihrer besten Freundin automatisch anzeigt, dass sie in dem Sessel sitzt und bereit für ein Telefonat ist. Frau H. ist seit der Verschlechterung ihres Gesundheitszustandes nicht immer in der Lage, die ge samte Körperpflege selbstständig durchzuführen. Sie nimmt deshalb einen Pflegedienst in Anspruch, der sie nicht nur zu vereinbarten Terminen badet, sondern sie auch im akuten Bedarfsfall unterstützt. Der Bedarfsfall wird durch ihr Assistenzsystem ermittelt. Im dringenden Bedarfsfall kann der Pflege dienst mit genauer Beschreibung der akuten Situation alarmiert werden. Dieses Szenario entstand in Anlehnung an [Dogangün 2010, Kalfhues 2012 und Krüger-Brand 2009].
10 Technische Assistenzsysteme im Kontext des demografischen Wandels | 327
Das Anwendungsszenario ist zwar aus der Sicht eines Mitglieds der Zielgruppe beschrieben, bietet jedoch die Möglichkeit alle Beteiligte, somit auch das Pflegepersonal zu motivieren, ihre Anforderungen an ein potentielles System zu definieren. Das Pflegepersonal, das gewohnt und geschult ist, das Umfeld aus der Sicht der zu betreuenden Bewohner zu betrachten, kann durch ein solches Szenario stimuliert werden, das Umfeld und die entsprechenden Lösungsansätze detaillierter zu analysieren. Das Szenario vermittelt einen ersten Eindruck von den wesentlichen Inhalten und Fragestellungen dieses Lehrbuchkapitels, die im Folgenden näher betrachtet werden. Weitere AAL-Anwendungsszenarien sind in der Sammlung der Arbeitsgruppe „Schnittstellenintegration und Interoperabilität“ und „Kommunikation der BMBF/VDE Innovationspartnerschaft AAL“ [VDE-AAL 2011] zu finden.
10.3.2 Funktionen technischer Assistenzsysteme und die beteiligten Akteure Bei der Entwicklung von AAL-Systemen steht immer der Nutzen für die beteiligten Personen im Vordergrund. Somit stellt sich zunächst die Frage, wer die Nutzer eines solchen Systems überhaupt sind. An erster Stelle steht natürlich die betreute Person, der „primäre Adressat“ des Systems. Wie Tabelle 10.2 zu entnehmen ist, gibt es aber noch weitere Profiteure wie Verwandte und Freunde der betreuten Personen. Sie sind meist um die Sicherheit und Gesundheit ihres Nächsten besorgt und suchen daher nach Lösungen, welche die Autonomie der älteren Menschen bewahren, ohne ihre geistige und körperliche Unversehrtheit zu gefährden. Daher sind Möglichkeiten, unkompliziert mit den primären Adressaten in Kontakt treten zu können, um sich z. B. über ihr aktuelles Befinden zu erkundigen oder sie am eigenen Leben beteiligen zu können, von besonderer Bedeutung. Weiter können technische Assistenzsysteme aber auch den Dienstleistern nützlich sein, indem sie deren Tätigkeiten oder Prozesse unterstützen, erleichtern oder sogar ökonomischer gestalten (Tab. 10.3). Unter diesem Aspekt sind Assistenzsysteme auch für die Pflegewirtschaft von Bedeutung, indem sie beispielsweise durch eine bedarfsgerechte Pflege zu einer Steigerung der Lebensqualität der primären Adressaten beitragen und eine Reduzierung der Kosten für Betreuung und Pflege ermöglichen [Kalfhues 2012].
Grundlegende Bedürfnisse Die Grundbedürfnisse von Menschen mit einem erhöhten Betreuungsbedarf, wie Senioren oder Personen mit körperlichen oder geistigen Einschränkungen, unterscheiden sich nicht wesentlich von anderen Menschen. Die Bedürfnisse lassen sich ganz allgemein mittels der Maslowschen Bedürfnispyramide beschreiben (Abb. 10.1). Basis der Bedürfnishierarchie sind die körperlichen Bedürfnisse nach Luft, Nahrung, Trinken, Schlaf und weitere. Daran anschließend gibt es Bedürfnisebenen wie
328 | Edwin Naroska, Christian Ressel, Gudrun Stockmanns
Wachstumsmotivation
Defizitmotivation
V
Selbstaktualisierung/-verwirklichung: „Einheit mit seiner Persönlichkeit“
IV
Selbstachtung/Ich-Bedürfnisse: „Anerkennung und Status“
III
soziale (Liebes-)Bedürfnisse: „Freundschaft, Liebe und Gruppenzugehörigkeit“
II
Sicherheitsbedürfnisse: „(materielle und berufliche) Sicherheit und Ordnung“
I
physiologische (Grund-)Bedürfnisse: „Hunger, Durst, Schlaf“
Abb. 10.1: Maslowsche Bedürfnispyramide nach [Betz 2010a].
Sicherheit, soziale Bedürfnisse, Selbstachtung und Selbstverwirklichung. Die Ebenen I bis IV werden Defizitbedürfnisse genannt. Werden diese nicht erfüllt, so hat dies gravierend negative Konsequenzen für das Überleben des Menschen, wie z. B. Krankheit oder Verunsicherung. Der Mensch versucht, beginnend mit den Bedürfnissen der untersten Ebene (Ebene I) der Reihe nach, sich weitere essentielle Bedürfnisse höherer Ebenen (Ebene II bis Ebene V) zu erfüllen [Betz 2010a]. Assistenzsysteme unterstützen die primären Adressaten bei der Erfüllung ihrer Bedürfnisse durch angepasste Funktionalitäten, wobei die Aufrechterhaltung der Autonomie unabhängig ob zu Hau se oder in einer Pflegeeinrichtung im Vordergrund steht.
Tab. 10.2: Adressaten eines AAL-Systems in der ambulanten und stationären Pflegesituation. Akteur
Beschreibung
Primärer Adressat Pflegekraft
Die betreute Person, also der primäre Profiteur des Assistenzsystems. Die Pflegekraft hat den direkten Kontakt zur betreuten Person. Sie übernimmt die pflegerischen und medizinischen Tätigkeiten und stellt oft auch einen wichtigen sozialen Ansprechpartner dar. Der Pflegedienstleister ist ein Unternehmen, welches die Einsätze der Pflegekraft organisiert und unterstützt. Die Angehörigen der betreuten Personen können zum einen pflegerische Aufgaben übernehmen, sind zum anderen aber auch Nutzer des AAL-Systems, das ihnen Informationen über das Wohlbefinden des Angehörigen liefern kann. Externe Dienstleister, die nicht primäre pflegerische oder medizinische Aufgaben übernehmen, können ebenfalls in ein AAL-System eingebunden werden. Solche Aufgaben können z. B. Haushaltsdienste sein (Hausmeisterservice, Einkaufen, Wäscheservice etc.).
Pflegedienstleister Angehörige
Externe Dienstleister
10 Technische Assistenzsysteme im Kontext des demografischen Wandels |
329
Tab. 10.3: Funktionsauswahl eines AAL-Systems aufgeschlüsselt nach Funktionsgruppen und Adres saten der Funktionen. Funktion
Adressaten
Beschreibung
Notfallerkennung
Primärer Adressat
Ein wichtiges Ziel von AAL-Systemen besteht in der frühzeitigen Er kennung von akuten Notfällen. Hierzu gehören insbesondere Stürze, Bewusstlosigkeit und Bewegungsunfähigkeit.
Medizinische Unterstüt zung
Primärer Adressat, Pflegepersonal
Da die betreuten Personen meist an Krankheiten leiden, sollte das AAL-System auch den medizinischen Betreuungsprozess unterstüt zen (Telemedizin). Solche unterstützenden Funktionen können z. B. sein: Erfassung, Speicherung und Übertragung von medizinischen Daten (Körpertemperatur, Gewicht, Puls, Blutdruck). Dies kann sowohl ei ne direkte Messung der Daten durch ambiente Sensorik sein, als auch die Erinnerung des Patienten, eine entsprechende Messung vorzunehmen. Erinnerung und Überwachung von Medikationen. Hier sind verschie dene Ausprägungen denkbar: Beginnend mit der einfachen Erinne rung an eine Medikamenteneinnahme, über die Kontrolle der Hand lungsausführung (Medikamentenschrank geöffnet, Pillendose ge öffnet/geschlossen) bis hin zu einem automatischen Medikamen tenspender, der auch die Entnahme erkennt.
Komfort und Sicherheit
Primärer Adressat
Sind in die Umgebung entsprechende Sensoren und Aktoren inte griert, bietet sich die Nutzung dieser Ressourcen auch zur direkten Steigerung des Wohnkomforts an. Der Nutzen kann hier sehr vielfäl tig sein und reicht von Komfortfunktionen (z. B. automatische Lichtszenarien) über Sicherheitsbedürfnisse (Habe ich den Herd ausge schaltet?) bis hin zu Energiesparfunktionen (z. B. nutzungsgerechte Wohnraumtemperierung).
Soziale Vernetzung
Primärer Adressat, Angehörige
Die soziale Vernetzung mit der Familie sowie mit Freunden und Be kannten ist ein natürliches Bedürfnis aller Menschen. Geeignete AAL-Technologie kann den Bewohner dabei unterstützen, in Kontakt mit seiner Umgebung zu bleiben. Das beginnt mit seniorengerecht bedienbaren Kommunikationssystemen und geht hin bis zu sozialen Plattformen, die den Teilnehmern ermöglicht ihre sozialen Kontak te zu pflegen und weiter auszubauen. Angehörigen ist wichtig, sich über das Wohlbefinden der betreuten Person informieren zu können.
Präventive Verhaltens analyse
Primärer Adressat, Pflegeperso nal
Gesundheitliche Veränderungen im Vorfeld zu erkennen ist eine der großen Herausforderungen von AAL-Systemen. Hierbei soll das Ver halten des Bewohners über einen längeren Zeitraum hinweg ana lysiert werden, um auch schleichende Veränderungen erkennen zu können. Solche Verhaltensänderungen können Indikatoren für ge sundheitliche Veränderungen sein und sind eine wertvolle zusätz liche Informationsquelle für das Pflegepersonal. Letztlich wird es dann aber die Aufgabe der Pflegekräfte sein, die erkannten Verän derungen zu analysieren und geeignete Schlüsse und Maßnahmen daraus abzuleiten.
330 | Edwin Naroska, Christian Ressel, Gudrun Stockmanns
Tab. 10.3 (Forts.): Funktionsauswahl eines AAL-Systems aufgeschlüsselt nach Funktionsgruppen und Adressaten der Funktionen. Funktion
Adressaten
Beschreibung
Dokumentation
Pflegepersonal, Pflege dienstleister
Eine der zeitraubenden Tätigkeiten des Pflegepersonals ist die Er stellung und Pflege von Dokumenten und Protokollen. Diese Arbei ten sind gesetzlich gefordert und umfassen sowohl eine regelmä ßige Bestandsaufnahme des Bewohnerzustands als auch die Pro tokollierung der vom Pflegepersonal verrichteten Tätigkeiten. Hier kann ein AAL-System das Pflegepersonal entlasten, indem es mög lichst viele der dokumentationsrelevanten Ereignisse und Informa tionen selbständig erfasst und speichert.
Abrechnung
Pflegedienstleister
Mit der Dokumentation eng verknüpft ist die Abrechnung der vom Pflegepersonal erbrachten Leistungen gegenüber dem Leistungsträ ger (Krankenkassen). Ein AAL-System kann das Pflegepersonal hier in unterstützten, indem es die abrechnungsrelevanten Ereignisse er fasst und in das Abrechnungssystem des Pflegedienstleisters ein speist.
Externe Komfort dienste
Externe Dienstleister
Die mit dem Alterungsprozess einhergehenden körperlichen und kognitiven Einschränkungen lassen viele Aktivitäten des täglichen Lebens zu einem Problem werden. Moderne AAL-Technologie kann dem Bewohner helfen, einfach und bequem auf den Service von ex ternen Dienstleistern zuzugreifen, um sich z. B. automatisch aufge brauchte Lebensmittel nachliefern zu lassen oder auch den Haus meister zu benachrichtigen, wenn z. B. eine Gerät in der Wohnung ausgefallen ist.
Betrachtet man die Lebenssituation der primären Adressaten, so haben diese generell den starken Wunsch nach Autonomie und Selbstbestimmtheit (Bedürfnisse der höchsten Ebenen IV und V – Wachstumsmotivation). Gibt man diesen Bedürfnissen den Vorrang, so muss Sorge dafür getragen werden, dass in den daraus resultierenden Lebenssituationen (z. B. Verbleib in der eigenen Wohnung), die körperliche Unversehrtheit gewahrt wird (Bedürfnisse der niedrigeren Ebenen – Defizitmotivation). So muss neben der Bewältigung des Haushaltes, der Erhalt der Körperhygiene und der Gewährleistung der Gesundheitsversorgung auch die Vermeidung und Erkennung von Notfällen im Vordergrund stehen. Sind die oben genannten Bedürfnisse der Ebenen I und II erfüllt, so müssen für ein umfassendes Wohlbefinden der primären Adressaten zusätzlich die sozialen Bedürfnisse Berücksichtigung finden [Betz 2010a, Betz 2010b].
Funktionen eines AAL-Systems Die nächste Fragestellung befasst sich mit den typischen Funktionen, die ein AALSystem für die beteiligten Adressaten wahrnehmen kann. Die Tabelle 10.3 stellt die wichtigsten Funktionen zusammen.
10 Technische Assistenzsysteme im Kontext des demografischen Wandels |
331
10.4 Herausforderungen technischer Assistenz im Rahmen von AAL Die Entwicklung und der Einsatz von technischen Assistenzsystemen müssen sich unterschiedlichen Herausforderungen stellen, die unterschiedlichen Bereichen zuzuordnen sind.
10.4.1 Technische Herausforderungen Grundsätzlich muss ein technisches Assistenzsystem oder AAL-System – wie andere Computersysteme – die DIN EN ISO 9241 erfüllen. Hierbei handelt es sich um einen Standard, der Richtlinien für die Interaktion zwischen Mensch und Computer beschreibt. Allgemeine Anforderungen zur Effektivität und Effizienz des Systems sowie zur Zufriedenheit des Benutzers finden sich in den Anforderungen zur Gebrauchstauglichkeit (DIN EN ISO 9241-11). Normen legen generelle Anforderungen fest. Durch das Anwendungsfeld ergeben sich jedoch noch spezielle Herausforderungen, die bei der Entwicklung eines AALSystems ebenfalls zu beachten sind: – Interoperabilität/Integration: In einer Wohnumgebung kommen die unterschiedlichsten Geräte verschiedener Hersteller zum Einsatz. Diese Geräte sind Teil unterschiedlicher Subsysteme mit verschiedenen physikalischen Anbindungen und Protokollen. Dennoch soll ein einheitliches Gesamtsystem gebildet werden, welches die Daten mit Hilfe der unterschiedlichen Subsysteme aufnimmt, interpretiert und koordinierte Aktionen in den Teilsystemen auslösen kann. Auch für den Benutzer soll sich das System als ein Gesamtsystem über eine Benutzungsschnittstelle mit einem einheitlichen Bedienkonzept und Benutzerführung darstellen. – Erweiterbarkeit, dynamisches System: Eine Wohnumgebung ist keine statische Einheit, sondern unterliegt Veränderungen. Der dem Bewohner angebotene Funktionsumfang kann durch Hinzufügen, Entfernen oder Austauschen von Geräten verändert werden. Auch können alte oder defekte Geräte durch neuere ersetzt werden, welche u. U. den gleichen Funktionsumfang aber andere Schnittstellen bieten. Weiterhin befinden sich manche Geräte nur temporär in einer Wohnumgebung. – Mangelnde Allgemeingültigkeit: Wohnumgebungen unterscheiden sich nicht nur durch die eingesetzten Geräte, Gerätekonfigurationen oder durch die allgemeine Infrastruktur, auch die Raumaufteilung und Raumnutzung sind unterschiedlich. Allgemeine Aussagen über die Beschaffenheit von Wohnumgebungen oder Regeln zur Hausautomatisierung können daher durch einen Entwickler nur eingeschränkt und nicht spezifisch für alle real existierenden Wohnumgebungen formuliert werden. Bedingt durch diesen Umstand ist meist hoher Konfigura-
332 | Edwin Naroska, Christian Ressel, Gudrun Stockmanns
–
–
–
–
tionsaufwand bei der Inbetriebnahme des Systems durch einen Spezialisten notwendig. Die Individualität der verschiedenen primären Adressaten und ihre unterschiedlichen Angewohnheiten, Verhaltensmuster und Wünsche stellen Entwickler meist jedoch vor noch größere Herausforderungen. Dabei wäre gerade hier eine Allgemeingültigkeit wünschenswert, um aus der Kombination einzelner Sensordaten höherwertigere Informationen, z. B. über die aktuelle Situation oder Tätigkeit des primären Adressaten, zu gewinnen. Eine entsprechende manuelle Konfiguration während der Inbetriebnahme ist wenn überhaupt nur sehr aufwändig durchführbar und für ein massenmarktfähiges Produkt nicht vorstellbar. Daher verfolgen neuere Lösungen eine Kombination aus individueller Konfiguration, allgemeingültigen Beschreibungen und lernenden Algorithmen. Multi-User-Betrieb: In einer Wohnumgebung leben häufig mehrere Bewohner. Dementsprechend sind Sensordaten auch unterschiedlichen Bewohnern zuzuordnen. Für Daten von körpernahen Sensoren kann die Zuordnung ohne größere Herausforderungen erfolgen. Für Daten von Sensoren, die in die Umgebung integriert sind, fehlt diese Zuordnung jedoch meist. Selten kann in solchen Situationen Abhilfe durch ein Ortungssystem oder durch eine geeignete Benutzererkennung geschaffen werden. Weiterhin muss das System den gleichzeitigen Zugriff von Benutzern über mehrere Benutzungsschnittstellen akzeptieren. Entstehende Konflikte bei simultanen Änderungen müssen erkannt und durch entsprechende Synchronisations-Mechanismen aufgelöst werden. Zuverlässigkeit: Unter dem Begriff der Zuverlässigkeit werden hier zwei Teilanforderungen verstanden. So muss ein AAL-System zum einen robust sein, d. h. möglichst fehlerfrei implementiert worden sein. Auch darf es auf unerwartete Ereignisse oder bei vorübergehenden Ausfällen von Teilsystemen (z. B. beim Zusammenbrechen des WLANs) nicht zum Ausfall des Systems kommen. Zum anderen wird unter dem Begriff Zuverlässigkeit die Validität der Algorithmen verstanden. So muss z. B. sichergestellt werden, dass lernende Algorithmen oder wissensbasierte Dienste, die mit einer unsicheren Wissensbasis arbeiten, zuverlässig das Ergebnis produzieren, welches von dem Dienst erwartet wird. Sicherheit: Es versteht sich von selbst, dass ein AAL-System nach dem jeweils aktuellen Stand der Technik gesichert sein muss. AAL-Systeme werden voraussichtlich ähnlich wie PCs oder Smartphones potentielles Ziel von Angreifern mit Schadsoftware werden. Datenschutz: AAL-Systeme sammeln Daten, die in der äußerst sensiblen Privatsphäre der Wohnumgebung entstehen. Diese Daten ermöglichen meist nicht nur Rückschlüsse auf Krankheiten, sondern auch auf Verhaltensweisen und Bedürfnisse der Bewohner. Ein AAL-System benötigt daher ein ausgereiftes Rechtesystem (Kapitel 11). Dieses muss es dem Benutzer ermöglichen, differenziert festzulegen, welcher Dienst auf welche Daten zugreifen darf. Besonders kritisch ist die Kommunikation von Daten über das Internet mit einem zentralen Dienst. Der Da-
10 Technische Assistenzsysteme im Kontext des demografischen Wandels | 333
tenaustausch zwischen Wohnumgebung und zentralen Diensten sollte auf ein notwendiges Minimum beschränkt werden. Lässt sich ein Datenaustausch nicht vermeiden, so müssen Entwickler berücksichtigen, dass rechtliche Anforderungen und Beschränkungen bestehen, die im Einzelnen zu prüfen und zu erfüllen sind. Es sei an dieser Stelle angemerkt, dass nur durch einen verantwortlichen Umgang mit dieser Problematik und einer Kontrollinstanz für den Datenfluss entsprechende AAL-Systeme langfristig akzeptiert und eine Marktdurchdringung erfahren werden.
10.4.2 Monetäre Herausforderungen AAL-Anwendungen im Gesundheitswesen werden i. d. R. dem ersten oder dem zweiten Gesundheitsmarkt zugeordnet [Kartte 2008]. Der erste Gesundheitsmarkt stellt Dienstleistungen der klassischen Gesundheitsversorgung dar, wie Betreuung durch Ärzte und die Versorgung in Krankenhäusern, Dienstleistungen im Rahmen der Rehabilitation, der Pflege und im Kurwesen. Ebenfalls enthält er per Rezept verordnete Leis tungen laut der offiziellen Richtlinien der Heilmittelverordnung (inkl. physiotherapeutische Maß nahmen). Der zweite Gesundheitsmarkt stellt Dienstleistungen, Gesundheitskonzepte und Produkte dar, die privat finanziert sind und zu einem bewussteren und gesünderen Lebensstil anhalten, z. B. Fitness- und Wellness-Dienstleistungen, Gesundheitstourismus, Functional Food oder Bio-Lebens mittel. Eine bereits verbreitete Art des Angebots sind individuelle Gesundheitsleistungen (IGeL).
Die angebotenen Dienstleistungen und Produkte der beiden Märkte ähneln sich teilweise sehr stark, in der Finanzierung bestehen jedoch erhebliche Differenzen. Der erste Gesundheitsmarkt stellt den größten Anteil aller gesundheitsrelevanter Ausgaben. Der zweite Gesundheitsmarkt gewinnt stetig an Bedeutung und ihm wird für die kommenden Jahre ein jährliches Wachstum von ca. 5 % prognostiziert [David 2009]. Die Finanzierung im ersten Gesundheitsmarkt ist grundsätzlich reguliert: Sozialgesetzbuch V (SGB V) und Sozialgesetzbuch XI (SGB XI) regeln die Leistungen der Kranken- bzw. Pflegeversicherung, die Abrechnung von Ärztlichen Dienstleistungen erfolgt nach der Gebührenordnung für Ärzte, stationär erbrachte Dienstleistungen werden nach Fallpauschalen (Diagnosis Related Groups, DRG) abgerechnet. Die Finanzierung über die Pflegeversicherung hängt maßgeblich von der Anerkennung der Pflegebedürftigkeit einer Person nach §14 SGB XI ab [Gersch 2011b]. Derzeit ist noch unklar, über welchen der zwei Gesundheitsmärkte AAL-Systeme und Produkte maßgeblich vertrieben werden sollen. Ebenfalls möglich erscheinen Mischfinanzierungen wie Premiummodelle, Ansparmodelle oder Umlagemodelle. Zur weiteren Lektüre wird [Gersch 2011a] empfohlen.
334 | Edwin Naroska, Christian Ressel, Gudrun Stockmanns
Die Verbindung der beiden Märkte auf technischer Ebene wird derzeit vor allem durch die Nutzung von HL7 als Beschreibungsstandard für medizinische Dienstleistungen diskutiert [Meister 2011]. Über die Strukturierung des derzeitigen Marktes gibt es bislang keine einheitliche Sicht. Es gibt drei maßgebliche Positionen in der Diskussion: Die klassische Auslegung sieht bereits jetzt schon einen Markt für AAL-Produkte. Diese Sichtweise stammt aus der ingenieurwissenschaftlichen Forschung und es wird versucht, bereits entwickelte Produkte zu vertreiben. Eine weitere Position vertritt die Ansicht, es bestehen in vielen verschiedenen Märkten Nischen für AAL-Produkte. So werden im Auto bereits viele Assistenzsysteme eingesetzt. Auf dem Markt für Neuwagen werden AAL-ähnliche Konzepte bereits gut aufgenommen. In ähnlicher Weise lassen sich für beinahe jede Branche Nischen für AAL-Produkte finden. Die dritte Position vertritt den Standpunkt, dass noch gar kein Markt für die typischen AALProdukte besteht, da noch keine ausreichende Nachfrage existiert. Diese Sichtweise impliziert, dass vor bzw. parallel zum Markteintritt die Nachfrage erhöht bzw. stabilisiert werden muss. Eine ausführliche Beschreibung der drei Sichtweisen findet sich in dem Buch der Arbeitsgruppe Geschäftsmodelle [BMBF/VDE Innovationspartnerschaft AAL 2011]. Daraus ergeben sich zwei wesentliche Herausforderungen an Anbieter eines AALProduktes oder einer AAL-Dienstleistung: 1. sie müssen sich entscheiden, auf welchem Markt sie ihr Produkt einführen möchten, 2. basierend auf diesem Markt, müssen sie sich für das passende Geschäftsmodell entscheiden. Hierbei beeinflusst die Wahl des Finanzierungsmodells und die Kommunikation des Nutzens maßgeblich die Kaufbereitschaft. Auch die passende Wertschöpfungskette spielt eine wichtige Rolle. Die Entwicklung von adäquaten Geschäftsmodellen ist derzeit die maßgebliche Herausforderung.
10.5 Technische Infrastruktur eines AAL-Systems Die Architektur eines AAL-Systems besteht aus mehreren Ebenen und Elementen (Abb. 10.2): – den Sensoren und Aktoren, – einer Gruppe von Gateways, – einem oder mehreren Kontrollrechnern, die gegebenenfalls über das Internet mit einem zentralen Server-System verbunden sind. Die Sensoren und Aktoren sind die „Augen und Hände“ des AAL-Systems. Die erfassten Sensordaten werden lokal von einem Kontrollrechner aufbereitet und die daraus extrahierten Ergebnisse an ein zentrales System, häufig im Internet realisiert, gesendet und/oder auf einem geeigneten Bedieninterface dem Bewohner und dem Pflege-
10 Technische Assistenzsysteme im Kontext des demografischen Wandels | 335
Internet
Kamera
lokale(r) Kontrollrechner
Ethernet (LAN/WLAN)
Gateway A
Gateway B
Bus-System A
Bus-System B
Sensoren/Aktoren
Sensoren/Aktoren
Abb. 10.2: Architektur eines typischen AAL-Systems.
personal zur Verfügung gestellt. Die Gateways verbinden schließlich die verschiedenen im AAL-System verwendeten Netzwerke miteinander. Ein AAL-System basiert auf einer technischen Basisinfrastruktur und einer Middleware, mit deren Hilfe verschiedene Dienste und Funktionen realisiert werden.
Die Basisinfrastruktur hat die Aufgabe, alle Komponenten (Sensoren, Aktoren, Kontrollrechner etc.) miteinander zu einem Netzwerk zu verknüpfen, sodass Informationen untereinander ausgetauscht werden können. Die Middleware hat die Aufgabe, registrierte Daten bzw. Steuerinformationen der Sensoren/Aktoren soweit aufzubereiten und zu abstrahieren, dass sie unabhängig vom jeweiligen Hersteller der Komponenten kommuniziert werden können. Weiterhin stellt sie grundlegende Basisdienste bereit, die wiederum von weiteren Diensten und Funktionen genutzt werden, um die gewünschten AAL-Funktionalitäten zur Verfügung zu stellen. Dienste sind Aktivitäten, Tätigkeiten, Arbeiten oder Leistungen, die man für jemanden anderen auf dessen Anforderung hin erbringt. Im engeren Sinne ist ein Dienst eine fest umrissene Aufga be, die allgemein in einem Rechnernetz oder von einem Betriebssystem angeboten wird [Duden Informatik 2001].
336 | Edwin Naroska, Christian Ressel, Gudrun Stockmanns
10.5.1 Sensoren/Aktoren Die von den Sensoren gelieferten Daten, ihre Qualität, ihr Volumen und ihre Detailfülle legen fest, welche Funktionen das AAL-System überhaupt wahrnehmen kann. Um die Informationen auswerten zu können, müssen die Daten aggregiert und analysiert werden. Dies geschieht typischerweise an zentraler Stelle durch den lokalen Kontrollrechner oder optional auch auf einem im Internet ausgelagerten Server. Somit ist die Anbindung der Sensoren/Aktoren an das Gesamtsystem durch Vernetzung von entscheidender Bedeutung. Herausforderungen bei der Vernetzung von Sensoren und Aktoren sind: – Heterogenität und Netzwerkfähigkeit der verwendeten Schnittstellen, – Konfiguration der Komponenten, – Bewertung der von den Sensoren gelieferten Informationen. Die für ein AAL-System benötigten Sensoren und Aktoren nehmen die unterschiedlichsten Funktionen wahr. Das Spektrum reicht von einfachen Sensoren wie Temperaturmessgeräten, über Sensoren zur Positionsbestimmung bis hin zu drahtlos kommunizierenden Sensoren für lebenswichtige kardio-respiratorische Parameter. Ähnliches gilt auch für Aktoren, die einfache Ein-Ausschaltfunktionen in einer Wohnung tätigen oder aber auch komplexere Aufgaben übernehmen, wie z. B. die Steuerung extrakorporaler Pumpen. Damit wird offensichtlich, dass alle benötigten Komponenten kaum von einem einzelnen Hersteller bezogen werden können, sodass die Integration zu einem System von entscheidender Bedeutung ist.
10.5.2 Bussysteme Eine wichtige Voraussetzung für die Integration von Sensoren und Aktoren zu einem AAL-System ist ihre Netzwerkfähigkeit. Am Markt gibt es eine Vielzahl von Vernetzungsstandards, die für verschiedene Einsatzzwecke optimiert worden sind und somit unterschiedliche Eigenschaften bzw. Ausprägungen dieser Eigenschaften haben. Bei der Wahl eines für eine bestimmte AAL-Umgebung geeigneten Bussystems sind insbesondere folgende Eigenschaften von Bedeutung (Sensoren steht im Folgenden stellvertretend für Sensoren und Aktoren): – Energieversorgung: Für den Betrieb benötigen die Sensoren Energie. Während der technologische Fortschritt die Sensorelemente immer kleiner und leistungsfähiger werden lässt, bleibt die Energieversorgung immer noch ein großes Problem. Gängige Arten der Energieversorgung sind drahtgebundene Netzteile, Energieversorgung über die Kommunikationsleitung, mobile Energiequellen und Energy Harvesting.
10 Technische Assistenzsysteme im Kontext des demografischen Wandels |
337
Drahtgebundene Netzteile stellen eine ausreichende Energieversorgung sicher. Nachteilig ist allerdings der mit der Verdrahtung verbundene Aufwand und nicht überall können einfach zusätzliche Leitungen nachträglich verlegt werden. Investiert man nicht schon beim Neubau bzw. bei der Renovierung einer Wohnung in eine entsprechende Verkabelung, sind die damit verbundenen Zusatzkosten oft ein Problem. Eine Energieversorgung der Komponenten über das Netzwerkkabel ist ein Kompromiss, der die gemeinsame Nutzung eines Kabels für die Energieversorgung und die Kommunikation gestattet. Aber auch hier sind der Installationsaufwand bzw. die Kosten dafür zu berücksichtigen. Mobile Energiequellen wie Batterien oder Akkus haben einen entsprechend ungünstigen Einfluss auf das Gewicht und die physikalischen Abmessungen des Sensors. Ungünstig ist ebenfalls der zusätzliche Wartungsaufwand, der mit der Überprüfung, dem Austausch oder Aufladen des Energiespeichers verbunden ist. Mit der Energiegewinnung aus der Umgebung (Energy Harvesting aus Licht, Vibration etc.) kann man zurzeit meist nur einen begrenzten Energiebeitrag gewinnen. Dies kann u. U. die Zuverlässigkeit der Sensoroperationen beeinträchtigen. – Datenrate: Die verschiedenen Bus- bzw. Netzwerkarten unterscheiden sich sehr stark in der unterstützen Datenbandbreite. Schnelle Netzwerke haben dabei einen höheren Energieumsatz und sind daher nur selten für den dauerhaften mobilen Betrieb geeignet. Das gilt insbesondere für drahtlose Technologien, bei denen hohe Datenraten mit einem besonders hohen Energiebedarf einhergehen. Energetisch sparsame Funklösungen besitzen daher nur eine geringe Bandbreite. Weiterhin haben drahtlose Lösungen naturgemäß eine größere Anfälligkeit gegenüber Störungen durch andere Funk-Teilnehmer. – Nachrüstfähigkeit: Für die praktische Anwendung ist wichtig, mit welchem Aufwand ein AAL-System nachträglich in eine bestehende, teilweise auch ältere Wohnumgebung installiert werden kann. Nur selten ist eine geeignete Businfrastruktur bereits vorhanden. Im Vergleich zu drahtgebundenen Netzwerken sind hier drahtlose Systeme natürlich im Vorteil. – Kosten: Bei den Kosten sind nicht nur die Anschlusskosten zur Anbindung eines Sensors/Aktors an das Netzwerk zu beachten, sondern auch eventuell anfallende Kosten durch Supportkomponenten wie Gateways, Router etc. Hinzu kommen außerdem Wartungs- und Instandhaltungskosten. Am Markt sind eine Vielzahl von Netzwerk- bzw. Busarten verfügbar, die sich zum Teil stark in ihren Eigenschaften unterschieden. Grob kann man Netzwerke nach ihrer Datenbandbreite (hoch/niedrig) sowie ihrem Übertragungsmedium (drahtgebunden/drahtlos) unterscheiden: – Netzwerke mit einer hohen Datenbandbreite können auch für die Anbindung von Sensoren mit einem hohen Datenbandbreitenbedarf wie z. B. Kameras genutzt werden. Dahingegen eignen sich langsame Netzwerke nur für die Anbindung von einfachen Sensoren wie Lichtschaltern oder Bewegungsmeldern.
338 | Edwin Naroska, Christian Ressel, Gudrun Stockmanns
–
Drahtgebundene Netzwerke können meist auch Energie über das Kabel übertragen, haben aber einen erhöhten Installationsaufwand als Nachteil. Drahtlose Netze können ohne große Umbauten in eine bereits existierende Wohnumgebung integriert werden, benötigen aber entsprechend mehr Energie für die Kommunikation. Zudem muss eine separate Lösung für die Energieversorgung gefunden werden. Die drahtlose Energieübertragung steckt zurzeit noch in ihren Anfängen und ist somit nur in Ausnahmefällen eine nutzbare Option.
Aufgrund der unterschiedlichen Anforderungen verschiedener Komponenten, werden in vielen Fällen zwei oder auch mehrere Netzwerkarten miteinander kombiniert. Oft dient z. B. Ethernet oder WLAN als schnelles Hintergrundnetzwerk, um Sensoren mit einem hohen Bandbreitenbedarf sowie die zentralen Rechenkomponenten, wie den Kontrollrechner, anzubinden (Abb. 10.2). Einfache Sensoren und Aktoren sind hingegen über ein langsames Netzwerk wie KNX/EIB integriert. Mithilfe von Gateways werden schließlich die verschiedenen Netzwerke zu einem durchgehenden Gesamtnetz verknüpft.
10.5.3 Benutzungsschnittstellen Ein AAL-System stellt viele Möglichkeiten für automatische Abläufe bereit, die ein autonomes Steuern von Geräten oder Diensten erlauben. Dennoch werden weiterhin Benutzungsschnittstellen benötigt, mit denen der Bewohner Einfluss auf das Geschehen in seiner Wohnumgebung nehmen kann. Aber auch spezielle Funktionen für Benutzer mit anderen Rollen (z. B. Pflegekräfte) müssen in einem entsprechenden Bedienkonzept integrierbar sein. Durch die Vernetzung der Geräte und Dienste innerhalb einer Wohnumgebung kann das einfache Zusammenführen von Funktionalitäten unterschiedlicher Geräte und Dienste auf eine einzelne Benutzungsschnittstelle, wie bei einer universellen Fernbedienung erfolgen. Die Zusammenführung auf ein Bediengerät wird meist dienst-zentriert vorgenommen, d. h. unabhängig von den Funktionen der anderen Dienste. Bei der Benutzung erfolgt erst die Wahl des Dienstes/Geräts und dann der Zugriff auf die gesuchte Funktion. In einer ausgeprägten Form der dienst-zentrierten Zusammenführung liegen die jeweiligen Benutzungsschnittstellen der einzelnen Geräte und Dienste als unabhängige Programme vor, z. B. als Anwendungssoftware (application software, App) die durch den Benutzer zu starten ist. Es existieren aber auch Programme, die dienst-übergeordnete Funktionen wie „Szenarien“ definieren oder Funktionen unterschiedlicher Dienste/Geräte auf einer Bedienseite anbieten. So kann beispielsweise auf einer einzelnen Bedienseite Wetterinformationen, Hinweise zur Einstellung der Raumtemperatur (ggf. mehrere Geräte) und zur Solarthermie dargestellt werden. Das Zusammenfassen der Bedienung unterschiedlicher Dienste und Geräte in einer übergeordneten Benutzeroberfläche wird
10 Technische Assistenzsysteme im Kontext des demografischen Wandels | 339
in manchen Veröffentlichungen auch als integrierte Bedienung bezeichnet. Die einzelnen miteinander vernetzten Systeme stellen sich dem Benutzer erst durch die Einführung einer solchen Bedienung als Gesamtsystem mit einheitlichem Aussehen und einheitlicher Handhabung (Look&Feel) dar. Der Benutzer soll hierdurch das Gefühl erhalten, mit einem Gesamtsystem zu interagieren und nicht mit einer Ansammlung von Einzelsystemen. Heutzutage müssen die einzelnen Bedienseiten, welche die Funktionen unterschiedlicher Geräte anbieten, während einer umfangreichen Konfiguration durch den Benutzer erzeugt werden. Zur Vermeidung dieses Konfigurationsaufwandes setzen manche Forschungsansätze auf Beschreibungen der Wohnumgebung und der Dienstfunktionen sowie auf eine abstrakte, von tatsächlichen Diensten, Geräten und Funktionen unabhängige Beschreibung der Nutzerführung. Die tatsächlichen Menü-Einträge und Bedienseiten werden während der Benutzung durch das System erzeugt.
10.5.4 Middleware und Dienste Schon sehr früh hat man erkannt, dass man mit den Betriebssystemkonzepten, wie sie für den klassischen Computer-Betrieb entwickelt wurden, bei der Steuerung intelligenter Wohnumgebungen an Grenzen stößt. So ist die Installation, das Starten und Stoppen von Programmen bei herkömmlichen Computern oft mit einem manuellen Eingriff eines Operators oder Administrators verbunden. Dies ist natürlich bei einem AAL-System nicht akzeptabel, da dieses ja weitgehend autonom – also ohne zeit- und damit auch kostenintensiven Eingriff eines Technikers – operieren soll. Gleichzeitig ist eine feste Auswahl und Konfiguration von Anwendungsmodulen aufgrund der individuellen Wohnumgebungen und verschiedenen Gewohnheiten der Bewohner nicht möglich. Eine heute sehr verbreitete Lösung, um den sogenannten Management-Zyklus (Installation, Starten, Stoppen von Diensten bzw. Anwendungen) durch eine Management-Software zu unterstützen bzw. zu automatisieren, bietet die Middleware OSGi [Condry 1999]. OSGi ist ein auf Java basierter Betriebssystemaufsatz, der sich um die Verwaltung von Diensten/Anwendungen auf einem Computer kümmert und so ein weitestgehend automatisiertes Management von Diensten und Applikationen ermöglicht. Zwar können damit einige grundlegende Aspekte des automatisierten Betriebs von Software gelöst werden, für die zentralen Herausforderungen, welche die Individualität von Bewohner und Wohnumgebungen an AAL-Systeme stellen, bieten aber auch OSGi für sich alleine genommen keine Lösung (Kapitel 1). Trotzdem eignet sich OSGi als Basis, auf die dann aber noch weitere Funktionalitäten aufgesetzt werden müssen. In den letzten Jahren hat man daher Konzepte und erste Lösungen entwickelt, um diese Herausforderungen zumindest zum Teil zu adressieren, z. B. universAAL [Kilintzis 2013] oder Continua Health Alliance [Carroll 2007]. Diese Lösungen beinhalten ei-
340 | Edwin Naroska, Christian Ressel, Gudrun Stockmanns
Procedural Manager
Composer
Aktoren
States Rules
Procedures
Context Manager (CM)
Procedure Templates
User Context
Sensoren
Abb. 10.3: Architektur der SOPRANO Middleware nach [Balfanz 2008].
ne weitere Middleware-Schicht, mit deren Hilfe Sensor-Daten, Dienste und NutzerSchnittstellen zusammengeführt werden können, ohne dass eine aufwändige und manuelle Konfiguration des Systems erforderlich ist. Im Folgenden wird die Middleware SOPRANO als ein Beispiel für diesen Zweck kurz erläutert [Klein 2007, Schmidt 2009]. Die Konzepte von SOPRANO finden sich mit Variationen in vielen aktuellen AAL-Systemen wieder. Die Architektur von SOPRANO ist in Abbildung 10.3 grob schematisch dargestellt. Mit Ausnahme der Aktoren und Sensoren sind dabei alle Bestandteile SoftwareKomponenten, die auf dem zentralen Kontrollrechner ausgeführt werden. Eine der wichtigsten Komponenten in der SOPRANO Middleware ist der Context-Manager (CM) (Abb. 10.3). Er hat die Aufgabe, die in der Wohnumgebung erfassten Sensorinformationen zu analysieren, um daraus auf die Aktivitäten und den Zustand von Bewohner und Wohnumgebung zu schließen. Eine wichtige Forderung ist dabei die Erzeugung von Kontextinformationen [Day 1999] auf einem höheren Abstraktionsniveau. Dazu verknüpft der Context-Manager das Wissen über das menschliche Verhalten mit den gewonnenen Sensordaten, um daraus wiederum auf den aktuellen Zustand oder die Tätigkeit des Bewohners oder auch der Wohnumgebung zu schließen. So folgert das System z. B. aus den Ereignissen, die von Bewegungsmeldern und Kontakten an der Kühlschranktür erzeugt wurden sowie unter Berücksichtigung der aktuellen Uhrzeit auf die Aktivität „Frühstück bereiten“. Diese Umwandlung basiert auf den in einer Datenbank States Rules Database hinterlegten Regeln. Die so gewonnenen Informationen werden mit einem Zeitstempel versehen und in der User Context Database abgelegt. Der CM löst nun bei Veränderungen von Kontextinformationen oder bei direkten Nutzeranforderungen entsprechende Ereignisse aus, die an den Procedural Manager (PM) weitergleitet werden. Der Kontext bezeichnet die Information, die zur Charakterisierung der Situation einer Entität ge nutzt werden kann. Eine Entität kann dabei eine Person, ein Ort oder ein Objekt sein, welche rele vant für die Interaktion zwischen Applikation und Benutzer ist. In diesem Zusammenhang werden auch Informationen über den Benutzer oder über die Applikation als Kontext bezeichnet.
10 Technische Assistenzsysteme im Kontext des demografischen Wandels |
341
Der Procedural Manager hat die Aufgabe, auf die Kontextveränderungen mit passenden Aktionen zu reagieren. Als Basis hierzu dienen die Procedure Templates, welche auf einem hohen abstrakten Niveau Workflows beschreiben, die unabhängig vom jeweils installierten System und Bewohner formuliert wurden, ähnlich der Beschreibung von Geschäftsprozess-Schablonen [Sosunovas 2006]. Bei der System-Installation und Pflege werden die für den Einzelfall sinnvollen Schablonen ausgewählt, ggf. konkretisiert, mit individuellen Vorgaben angereichert und dann als konkrete Prozeduren in der Datenbank Procedures abgelegt. Der PM arbeitet einen Satz von ECA-Regeln (Event, Condition, Action) ab, die ausgelöst von einem Ereignis (event) unter den Kontextbedingungen (condition) einen festgelegten Workflow auslösen. Dieser Workflow mit seinen procedures ist allerdings abstrakt, d. h. nicht mit konkreten Sensoren/Aktoren der aktuellen Wohnumgebung verknüpft. Vielmehr enthalten sie abstrakte Aktionen bzw. Ziele (z. B. den Bewohner warnen), deren konkrete Ausgestaltung an den aktuellen Kontext angepasst werden muss. Ist der Bewohner z. B. schwerhörig und befindet sich gerade im Wohnzimmer, so könnte der PM z. B. diese Aktion in eine konkretere Form „den Bewohner mithilfe optischer Mittel im Wohnzimmer warnen“ übersetzen. Diese Aktion wird an den Composer weitergereicht, der schließlich die Aufgabe hat, die geeigneten Aktoren zum Erreichen des Ziels auszuwählen und anzusteuern. Zur Umwandlung der abstrakten Ziele in konkrete Aktor-Aktionen nutzt der Composer die in der States Rules Database hinterlegten Regeln. Diese entscheiden dann, dass Nachrichten in optischer Form dargestellt werden sollen, z. B. mittels des Fernsehers. Damit wird die Verbindung zwischen dem abstrakten Ziel „optische Warnung“ und konkretes Gerät bzw. Aktion „Nachricht auf Fernseher anzeigen“ realisiert. So vielversprechend diese Konzepte auch sind, es müssen noch eine Vielzahl von Herausforderungen gelöst werden, z. B. die Zuverlässigkeit solcher komplexen Systeme. Vom korrekten Arbeiten der AAL-Umgebung hängt unter Umständen das Wohlergehen des Bewohners ab. Wie kann also nachgewiesen werden, dass ein System in kritischen Situationen auch korrekt reagiert? Ein anderes Problem ist die Konfiguration der Sensoren und Aktoren. Die logische Vernetzung des AAL-Systems, d. h. die Vergabe von eindeutigen Adresskennungen zur Identifikation der Komponenten im Netzwerk, ist bei Einsatz entsprechender Technologie einfach zu realisieren. Wie kommen aber Konfigurationsinformationen in das System, welche die Komponenten mit ihrer physikalischen Umgebung in Beziehung setzten, z. B. Ort, Funktion, Nutzen des Sensor/Aktors? Siehe hierzu auch Kapitel 10.4.1. Solche Informationen von Hand zu konfigurieren ist nur bei einer überschaubaren Anzahl von Komponenten praktikabel. Es ist aber zu erwarten, dass in Zukunft Hunderte von Komponenten in eine Wohnumgebung integriert werden müssen. Zudem werden Komponenten dynamisch hinzukommen oder auch verschwinden (Kapitel 10.4.1), sodass es Mechanismen bedarf, die diese Konfigurationsinformationen automatisch gewinnen und pflegen.
342 | Edwin Naroska, Christian Ressel, Gudrun Stockmanns
10.6 Beispiele zentraler Dienste: Verhaltensanalyse und Aktivitätserkennung Am Beispiel der beiden Dienste Verhaltensanalyse und Aktivitätserkennung soll die Komplexität der jeweiligen individuellen Aufgabenstellungen erläutert werden. Eine zentrale Aufgabe ist die Ermittlung der aktuell vorliegenden Aktivität des Benutzers oder der Situation in der er sich befindet. Das System muss hierzu Daten von mehreren Sensoren aufnehmen, kombinieren und interpretieren. Weiterhin können im Vorfeld dem System mitgeteilte Informationen z. B. über den Benutzer und sein spezielles Verhaltensmuster in diesen Interpretationsprozess einbezogen werden. Ist das Problem der Aktivitätserkennung bzw. der Kontexterkennung prinzipiell gelöst, können Dienste entwickelt werden, die diese Informationen nutzen. Die Detailtiefe mit der die Aktivität bzw. der Kontext erkannt werden muss, ist dabei stark von dem Anwendungsszenario abhängig, in dem der Dienst des AAL-Systems eingesetzt werden soll. Ein Dienst, der z. B. einen an Demenz erkrankten Bewohner bei der Durchführung seiner Badezimmerhygiene unterstützt, in dem er dem Bewohner anzeigt, was er als nächstes tun muss, falls dieser während der Durchführung den nächsten Schritt plötzlich vergessen haben sollte, benötigt eine detaillierte Kenntnis über die genaue Aktivität, die der Benutzer gerade durchführt. Eine entsprechend aufwändige Interpretation von Sensordaten ist notwendig, um beispielsweise zwischen Händewaschen und Zähneputzen unterscheiden zu können. Solche Dienste nutzen meist Kontexte, die auch für gesunde Menschen spezifische Bedeutung haben und denen Label (Markierungen) zugeordnet werden können. Derart gekennzeichnete Kontexte könnten z. B. „Händewaschen“, „Frühstücken“, „Schlafen“ oder „Anziehen“ lauten. Bei einem anderen Dienst hingegen müssen die Sensordaten nicht so weitgehend interpretiert werden. Ein solcher Dienst kann dann mit anonymen, nicht mit Label versehenen Kontexten, arbeiten, d. h. es wird kein allgemeingültiges menschliches Verhalten als Tätigkeit formuliert oder ausgedrückt. Stattdessen werden Situationen z. B durch das Zusammenfassen entsprechender teilweise interpretierter Sensordaten gekennzeichnet. Eine entsprechende Zusammenfassung könnte Attribute besitzen, wie „Anwesenheit im Badezimmer“, „Waschbeckenwasser läuft“, „Seifenspender benutzt“. Eine Interpretation zum Kontext Händewaschen erfolgt nicht.
10.6.1 Interpretation, Expertenwissen und Wissensrepräsentation Für die Interpretation der registrierten Daten wird Wissen benötigt, wie die Sensordaten und deren Kombination zu deuten sind. Ein entsprechender Dienst stellt somit ein wissensbasiertes System dar, bei dem, wie bei den meisten wissensbasierten Systemen, eine Trennung zwischen Wissen und Verarbeitungsroutinen als Architekturprinzip zu empfehlen ist [Lämmel 2008] (Kapitel 6). Diese Trennung ermöglicht
10 Technische Assistenzsysteme im Kontext des demografischen Wandels | 343
neben einer einfachen Wiederverwendung der Routinen oder den Einsatz von allgemeinen Routinen (z. B. einer Logikmaschine) auch das Editieren der Regeln oder des Wissens in einer höheren abstrakten Sprache/Darstellung, die auch von Experten ohne Programmierkenntnisse verstanden werden sollte. Sie können dadurch einfacher an der Definition und an Diskussionen über Interpretationsregeln beteiligt werden. Folgende Kriterien sollten bei der Auswahl einer Wissensrepräsentation (WR) beachtet werden [Lämmel 2008]: – Die Darstellung des Wissens des betrachteten Anwendungsszenarios muss in der ausgewählten WR-Sprache möglich sein. – Das Wissen des betrachteten Anwendungsszenarios muss durch einen Inferenzmechanismus verarbeitet werden können. Die Verarbeitung muss innerhalb eines überschaubaren Zeitraums erfolgen und zu einer Lösung führen. Gerade bei größeren Wissensbasen ist dieser Punkt zu beachten. – Die Antworten müssen den Erfordernissen des Problems genügen. Einfache Wissensbasen sind in Form von regelbasierten Systemen aufgebaut. Solche Systeme besitzen eine Menge von Regeln, die z. B. auch von einer Event-ConditionAction-Machine interpretiert werden können (Kapitel 10.5.4). Die Verarbeitungsroutinen werden dann durch einen sogenannten Regelinterpreter oder auch durch eine Inferenzmaschine (business rules engine) bereitgestellt. Weitere Informationen zum Thema regelbasierte Systeme finden sich z. B. in [Boersch 2007]. Komplexere Zusammenhänge können auch durch eine semantische Modellierung dargestellt werden. Bei dieser Herangehensweise soll aus explizit formuliertem Wissen durch ein Reasoning-Verfahren implizites Wissen abgeleitet werden. Hierzu bietet sich die Verwendung von Ontologien an, wobei allgemeingültige Konzepte und ihre Beziehungen untereinander einheitlich semantisch beschrieben werden (Kapitel 6). Bei den Beziehungen ist nicht nur die Modellierung von Konzepthierarchien, sondern auch die von beliebigen Beziehungen möglich. So lassen sich z. B. Aktivitäten/Situationen in einem Haushalt allgemeingültig ohne einen expliziten Bezug auf einen Sensor definieren. Es werden dann abstrakte Gerätezustände, Handlungsabläufe und benutzte Gegenstände beschrieben und evtl. mit der Tageszeit und Ortsinformationen in Zusammenhang gebracht. Ist die Modellierung von allgemeingültigen Zusammenhängen nur schwer möglich, so kann versucht werden die WR auf einem sogenannten fallbasierten System (Case-based Reasoning, CBR) aufzubauen. Fallbasierte Systeme beruhen auf einer Falldatenbasis, in der Problemstellungen zusammen mit Lösungen als Paare abgelegt sind [Beierle 2006]. Wird eine Situation in Form von z. B. Sensordaten beobachtet, so wird in der Falldatenbasis nach derselben Beobachtung gesucht und die zugehörige Aktion oder Kontextbezeichnung verwendet. Teilweise kann auch – wenn keine gleiche Beobachtung vorliegt, eine ähnliche Beobachtung (also eine vergleichbare Situation) herangezogen werden. Die Schlussfolgerung, die das System bei der Verwen-
344 | Edwin Naroska, Christian Ressel, Gudrun Stockmanns
dung einer ähnlichen Beobachtung zieht, ist allerdings immer mit einer gewissen Unsicherheit belegt, da eine entsprechende Bewertung durch das System vorgenommen werden muss. Generell gibt es noch weitere Ansätze, zur Modellierung von unsicherem Wissen (Kapitel 6). Bei der Wahl eines entsprechenden Ansatzes ist aber immer zu berücksichtigen, dass Fehlentscheidungen durch das System getroffen werden können, was auch rechtliche Fragen hinsichtlich der Haftung oder der zu erfüllenden Norm (z. B. dem Medizinproduktegesetz, MPG) aufwirft.
10.6.2 Lernen des Benutzerverhaltens Neben dem allgemeingültigen Wissen darüber, wie das AAL-System gewisse Sensordaten interpretieren und auf diese reagieren soll, muss das System für viele Dienste auch benutzerspezifische Verhaltensmuster erkennen und lernen darauf zu reagieren. Nur so ist es möglich, dass das System abweichendes Verhalten des Benutzers vom Normalverhalten erkennt und dann beispielsweise den Pflegedienst informiert. Veränderungen des Bewegungsverhaltens bei Alzheimererkrankten können beispielsweise als wichtige Indikatoren für Veränderungen der kognitiven Funktionen oder Anzeichen von Depressionen darstellen. Ansätze zur Modellierung des individuellen Benutzerverhaltens basieren auf Beobachtungen und dem Erkennen und Lernen von wiederkehrenden Mustern. Ansätze zur Modellierung des Benutzerverhaltens lassen sich grob in zwei unterschiedliche Arten von Vorgehensweisen strukturieren. Dies sind zum einen die Gruppe der sequenzbasierten Ansätze und zum anderen die der systemzustandsbasierten Ansätze. Die sequenzbasierten Ansätze gehen davon aus, dass Menschen nach gewissen Mustern in ihren Abläufen handeln, d. h. dass aus einer Sequenz von beobachteten Aktionen auf die nachfolgende Aktion geschlossen werden kann. Diese Verfahren verwenden häufig N-Gramme, bei denen Aktionssequenzen bestimmte Auftrittswahrscheinlichkeiten zugeordnet werden. Den systemzustandsbasierten Ansätzen liegt die Annahme zu Grunde, dass menschliches Handeln situationsbezogen ist und dass ein Benutzer in gleichen Situationen auch gleich handelt. Eine Situation wird hierbei durch das Auftreten von bestimmten Systemzuständen gekennzeichnet. Bei den systemzustandsbasierten Ansätzen erfolgt also eine mit einer Wahrscheinlichkeit gewichtete Zuordnung zwischen Systemzuständen und Benutzeraktionen. Entsprechende Ansätze beruhen z. B. auf Bayesschen Netzen (Kapitel 6).
10 Technische Assistenzsysteme im Kontext des demografischen Wandels | 345
10.7 Zusammenfassung und Ausblick Die Entwicklung von AAL-Systemen unterliegt großen technischen, gesellschaftlichen und ethischen Herausforderungen, was sicherlich bisher dazu beigetragen hat, dass ein markttaugliches Produkt zurzeit noch nicht existiert. Auf technischer Seite ist die Entwicklung einer geeigneten Middleware zur logischen Vernetzung der beteiligten AAL-Komponenten eine der schwierigsten Aufgaben. Hier wurden in den letzten Jahren Fortschritte gemacht, was an der wachsenden Anzahl konkurrierender Middleware-Systeme deutlich zu erkennen ist. Ein eindeutig favorisiertes System oder ein Standard zeichnet sich aber noch nicht ab, und es ist zurzeit auch unklar, ob es diesen Prototyp jemals geben wird. Große Fortschritte wird es sicherlich auf dem Gebiet der Sensoren und Aktoren geben. Es ist zu erwarten, dass hier neue Sensoren entwickelt werden, die dank ihrer Kommunikationsfähigkeiten, Energieeffizienz und Miniaturisierung ohne Probleme und großen Installationsaufwand in einer Wohnumgebung installiert oder auch direkt vom Menschen getragen werden können. Solche Sensoren werden es erlauben, aussagekräftige Informationen über den Zustand der betreuten Person zu gewinnen und somit die Funktionsfähigkeit der Assistenzsysteme entscheidend zu verbessern. Eine weitere Herausforderung bleibt die Integration von Technologien aus dem Gebiet der Künstlichen Intelligenz, die moderne AAL-Systeme überhaupt erst in einem breiten Markt einsatzfähig machen. Noch steht der Beweis aus, dass diese Technologien tatsächlich ihre an sie gestellten Erwartungen halten und mit überschaubaren Kosten realisiert werden können. Zudem sind die Zuverlässigkeit und somit Haftungs- und Rechtsfragen noch mit großer Unsicherheit behaftet. Was in einem geschlossenen Testumfeld möglich ist, muss noch lange nicht in einer beliebigen realen Wohnumgebung funktionieren. Die bisherigen Erfahrungen mit ersten AAL-Systemen im Bereich Forschung und Entwicklung zeigen, dass eine primäre Fokussierung auf den älteren Menschen als Zielgruppe durch die Stigmatisierungseffekte problematisch ist. Vielmehr wird eine Ausrichtung der Systeme auf die Bedürfnisse einer möglichst breiten Zielgruppe unterschiedlichen Alters als erfolgversprechender angesehen. Soweit wie möglich sollten derartige Systeme den Prinzipien des Universal Designs genügen. Universal Design (universelles Design) wurde definiert als „Design of products and environments to be usable by all people to the greatest extent possible” [Scott 2003]. Hierbei handelt es sich um ein internationales Design-Konzept, das Produkte, Geräte, Umgebungen und Systeme derart ge staltet, dass sie für so viele Menschen wie möglich ohne weitere Anpassung oder Spezialisierung nutzbar sind.
Abschließend gilt festzustellen, dass ethische Bedenken und damit verbunden die gesellschaftliche Akzeptanz für solche Assistenztechnologien noch große Herausforderungen darstellen. Allerdings erscheint der Einsatz von AAL-Systemen unter den der-
346 | Edwin Naroska, Christian Ressel, Gudrun Stockmanns
zeitigen Umständen und gesellschaftlichen Trends in Zukunft notwendig zu werden. Derzeit sind kaum belastbare Prognosen über die Gestalt des zukünftigen Pflegesystems möglich. Somit wird eine rege und vielleicht an manchen Stellen auch schmerzhafte Diskussion darüber notwendig zu sein, wie die Gesellschaft sich die zukünftige Pflege und Betreuung vorstellt. Diese Diskussion muss alle Aspekte, also den Nutzen für den Menschen, die ethischen, rechtlichen Rahmenbedingungen genauso wie die ökonomischen und technischen Möglichkeiten beleuchten und gegenüberstellen.
Dank Ein besonderer Dank geht an Herrn Dr. Alexander Rachmann für seine wertvolle Unterstützung in Form von Beiträgen und Anmerkungen. Weiter möchten wir uns bei den studentischen Hilfskräften Florian Jäger und Tobias Wegner für die Arbeiten beim Erstellen und Redigieren des Textes bedanken.
Quellenverzeichnis Aarts, E.; de Ruyter, B.: New research perspectives on Ambient Intelligence. Journal of Ambient Intelligence and Smart Environments 1, 2009: 5–14, 2009. Balfanz, D.; Klein, M.; Schmidt, A.; Santi, M.: Partizipative Entwicklung einer Middleware für AALLösungen. In: GMS Medizinische Informatik, Biometrie und Epidemiologie 4, 2008: 1–14. Bayen, U. J.; Dogangün, A.; Grundgeiger, T.; Haese, A.; Stockmanns, G.; Ziegler, J.: Evaluating the effectiveness of a memory aid system. In: Gerontology, International journal of experimental and clinical gerontology 59, 2013: 77–84. Beierle, C.; Kern-Isberner, G.: Methoden wissensbasierter Systeme. Grundlagen, Algorithmen, An wendungen. Wiesbaden: Vieweg+Teubner Verlag, 2006. Betz, D.; Häring, S.; Lienert, K.; Lutherdt, S.; Meyer S.: Grundlegende Bedürfnisse potentieller AALNutzer und Möglichkeiten der Unterstützung durch moderne Technologien. In: Meyer, S.; Mol lenkopf, H. (Bd.-Hrsg.): AAL in der alternden Gesellschaft. Anforderungen, Akzeptanz und Perspektiven. Analyse und Planungshilfe. Berlin: VDE Verlag (AAL-Schriftenreihe, 2), 2010a: 40–44, 2010. Betz, D.; Cieslik, S.; Dinkelacker, P.; Glende, S.; Hartmann, C.; Klein, P.; Kosinski, D.; Kött, A.; Lie nert, K.; Lutherdt, S.; Meyer, S.; Mollenkopf, H.; Podtschaske, B.; et al.: Grundlegende Anforde rungen an AAL-Technologien und -Systeme. In: Meyer, S.; Mollenkopf, H.: AAL in der alternden Gesellschaft Anforderungen Akzeptanz und Perspektiven. Analyse und Planungshilfe. Berlin, Offenbach: VDE-Verlag (AAL-Schriftenreihe, 2), 2010b: 63–108, 2010. BMBF/VDE Innovationspartnerschaft AAL (Hrsg.): Ambient Assisted Living – Ein Markt der Zukunft. Potenziale, Szenarien, Geschäftsmodelle, Berlin, Offenbach: VDE Verlag, 2012. BMFSFJ Sechster Bericht zur Lage der älteren Generation in der Bundesrepublik Deutschland: Alters bilder in der Gesellschaft. Bericht der Sachverständigenkommission an das Bundesministeri um für Familie, Senioren, Frauen und Jugend. Berlin: Bundesministerium für Familie, Senioren, Frauen und Jugend, 2010. Boersch, I.; Heinsohn, J.; Socher, R.: Wissensverarbeitung- Eine Einführung in die künstliche Intelli genz für Informatiker und Ingenieure. Berlin: Spektrum Akademischer Verlag, 2007.
10 Technische Assistenzsysteme im Kontext des demografischen Wandels |
347
Carroll, R.; Cnossen, R.; Schnell, M.; Simons, D.: Continua: An Interoperable Personal Healthcare Ecosystem. In: IEEE Pervasive Computing 6, 2007: 90–94. Condry, M.; Gall, U.; Delisle, P.: Open Service Gateway Architecture Overview. In: IEEE Industrial Electronics Society: Annual Conference of the Industrial Electronics Society (IECON) 1999, 25th. California, USA: IEEE Press, 1999: 735–742. David, S.; Neumann, K.; Friedl, M.: E-Health. Wachstumsperspektiven für die Telekommunikations branche. Roland Berger Strategy Consultants, 2009. Day, A.; Abowd, G.: Towards a Better Understanding of Context and Context-Awareness. HUC ’99: Proceedings of the 1st International symposium on Handheld and Ubiquitous Computing, 1999. Dogangün, A.; Naroska, E.; Stockmanns, G.: Ambient Awareness-Assistenten im Pflegeumfeld. In: Ambient assisted living. 3. Deutscher AAL-Kongress mit Ausstellung Assistenzsysteme im Dienste des Menschen – Zuhause und Unterwegs 2010. 26. – 27. Januar 2010 in Berlin, Ta gungsbandbeiträge, Berlin: VDE-Verlag, 2010. Duden Informatik, Ein Fachlexikon für Studium und Praxis. Mannheim: Bibliographisches Institut & F. A. Brockhaus AG 2001. Gersch, M.; Schröder, S.: Erlös- und Finanzierungssysteme vernetzter AAL-Systeme auf dem Ersten und Zweiten Gesundheitsmarkt – Erste empirische Ergebnisse sowie erkennbare ökonomische Konsequenzen. In: 4. Deutscher AAL-Kongress, 25.–26. 01. 2011 Berlin 2011a. Gersch, M.; Schröder, S.; Hewing, S.: Erlös- und Finanzierungsmöglichkeiten innovativer Versor gungs- und Geschäftssysteme im Gesundheitswesen – Systematischer Überblick und ex emplarische Analyse ausgewählter Geschäftssysteme. Arbeitsbericht des Verbundprojekts E-Health@Home 2011b. Hansmann, U.; Merk, U.; Nicklous, M.; S.; Stober, T.: Pervasive Computing. Berlin: Springer Verlag 2001. IST2001, IST Advisory Group. Scenarios for Ambient Intelligence in 2010. Report, Information Society Technologies, Februar, 2001. IST2002, IST Advisory Group. Software technologies, embedded systems and distributed systems – A European strategy towards an Ambient Intelligent Environment. Report, Information Society Technology, Juni 2002. Kalfhues, A. J.; Hübschen, M.; Löhrke, E.; Nunner, G.; Perszewski, H.; Schulze, J. E.; Stevens, T.: JUTTA – JUST-in-Time Assistance: Betreuung und Pflege nach Bedarf. In: Shire, K. A., Leimeister, J. M.: Technologiegestützte Dienstleistungsinnovation in der Gesundheitswirtschaft (German Edition). Wiesbaden: Gabler Verlag 2012. Kartte, J.; Neumann, K.: Der Gesundheitsmarkt – Sicht der Bürger – Strategien der Anbieter. Roland Berger Strategy Consultants. München 2008. Kilintzis, V.; Moulos, I.; Koutkias, V.; Maglaveras, N.: Exploiting the universAAL Platform for the Design and Development of a Physical Activity Monitoring Application. In: PETRA 2013 Pro ceedings of the 6th International Conference on Pervasive Technologies Related to Assistive Environments, 2013. Krüger-Brand, H. E.: Fraunhofer-Projekt „inHaus 2“: Assistenz für alle, Dtsch Arztebl 2009; 106(40): 6 Supplement: PRAXIS, 2009. Klein, M.; Schmidt, A.; Lauer R.: Ontology-Centred Design of an Ambient Middleware for Assisted Living: The Case of SOPRANO in Towards Ambient Intelligence Methods for Cooperating En sembles in Ubiquitous Environments. AIMCU 30th Annual German Conference on Artificial Intelligence KI Osnabruck, 2007. Lämmel, U.; Cleve, J.: Künstliche Intelligenz. München: Carl Hanser Verlag 2008. Link, L.: Unselbständigkeit im Alter aus ökologischer Perspektive, Dissertation im Fachbereich Sozi alwesen der Universität Gesamthochschule Kassel 1999.
348 | Edwin Naroska, Christian Ressel, Gudrun Stockmanns
Meister, S.; Houta, S.; Impidjati, D.: HL7-basierte Vernetzung von erstem und zweitem Gesund heitsmarkt als Enabler für neue Präventions-Gesundheitsdienstleistungen. In: 4. Deutscher AAL-Kongress, 25.-26.01. 2011 in Berlin 2011. Ressel, C.: Modellbasierte Generierung von personalisierten und adaptiven Benutzungsschnittstel len für integrierte Wohnumgebungen, Lohmar: Josef Eul Verlag 2008. Schmidt, A.; Wolf P.; Klein M.; Balfanz, D.: SOPRANO Ambient Middleware: Eine offene, flexible und markt-orientierte semantische Diensteplattform für Ambient Assisted Living. In: 2. Deutscher Kongress Ambient Assisted Living. Berlin: VDE Verlag, Januar 2009. Scott, S. S.; Mcguire, J. M.; Shaw, S. F.: Design for Instruction: A New Paradigm for Adult Instruction in Postsecondary Education. In: Remedial and Special Education 24, 2003: 369–379. Sosunovas, S.; Vasilecas, O.: Precise notation for business rules templates. In: Proceedings of the 7th International Baltic Conf. on Databases and Information Systems, 2006. Statistisches Bundesamt, Wiesbaden – Gruppe VI A, Bericht „11. koordinierte Bevölkerungsvoraus berechnung – Annahmen und Ergebnisse“, Online im Internet: https://www.destatis.de/DE/ PresseService/Presse/Pressekonferenzen/2006 VDE AAL, AAL-Anwendungsszenarien der Arbeitsgruppen „Schnittstellenintegration und Interopera bilität“ und „Kommunikation“ der BMBF/VDE Innovationspartnerschaft AAL, 2011. Weiser, M.: The Computer for the 21st Century. In: Scientific American Special Issue on Communica tions, Computer and Networks, Volume 265 (3), September 1991.
Verzeichnis weiterführender Literatur Augusto, J. C.; Huch, M.; Kameas, A.; et al.: Handbook of Ambient Assisted Living. Technology for Healthcare, Rehabilitation and Well-being. IOS Press 2012. BMBF-VDE-Innovationspartnerschaft AAL: Eichelberg, M. (Bd.-Hrsg.). „Interoperabilität von AAL-Sys temkomponenten – Teil 1: Stand der Technik“, Berlin, Offenbach: VDE Verlag GmbH 2010. BMBF-VDE-Innovationspartnerschaft AAL: Meyer S.; Mollenkopf, H. (Bd.-Hrsg.). „AAL in der altern den Gesellschaft – Anforderungen, Akzeptanz und Perspektiven – Analyse und Planungshilfe“, Berlin, Offenbach: VDE Verlag GmbH 2010. BMBF-VDE-Innovationspartnerschaft AAL: Sträter, O. (Bd.-Hrsg.): „Qualitätskriterien von AAL- Pro dukte, Dienstleistungen, Systeme“, Berlin, Offenbach: VDE Verlag GmbH 2011. BMBF-VDE-Innovationspartnerschaft AAL: Rode-Schubert, C. (Bd.-Hrsg.), „Ambient Assisted Living – ein Markt der Zukunft – Potentiale, Szenarien, Geschäftsmodelle“, Berlin, Offenbach: VDE Verlag GmbH 2012. BMBF-VDE-Innovationspartnerschaft AAL: Knaup-Gregori, P.; Schöpe, L. (Bd.-Hrsg.): „Von eingebet teten zu soziotechnischen Systemen – Potentiale und Forschungsbedarf auf dem Gebiet der IT im AAL-Umfeld“, Berlin, Offenbach: VDE Verlag GmbH 2012. Driller, E.; Karbach, U.; Stemmer, P.; Gade, U.: Ambient Assisted Living: Technische Assistenz für Menschen mit Behinderung. Freiburg: Lambertus Verlag GmbH 2009. Symonds, J.; Khosrow-Pour, M.: Ubiquitous and Pervasive Computing: Concepts, Methodologies, Tools, and Applications, Information Science Reference – Imprint of: IGI Publishing 2009. VDE Ambient Assisted Living, AAL-Anwendungsszenarien der Arbeitsgruppen „Schnittstelleninte gration und Interoperabilität“ und „Kommunikation“ der BMBF/VDE Innovationspartnerschaft AAL, 2011.
10 Technische Assistenzsysteme im Kontext des demografischen Wandels | 349
Testfragen 1. Warum braucht man AAL-Systeme? 2. Welche gesellschaftlichen Ziele werden mit dem Einsatz von AAL-Systemen verfolgt? 3. Was versteht man unter Ubiquitous Computing, Pervasive Computing und Ambient Intelligence? Was sind Unterschiede und Gemeinsamkeiten? 4. Wer sind die Akteure im Umfeld eines AAL-Systems? 5. Was sind die zentralen Funktionen eines AAL-Systems? 6. Welche speziellen technischen Herausforderungen gilt es bei der Entwicklung von AAL-Systemen zu berücksichtigen? 7. Skizzieren Sie die technische Infrastruktur eines AAL-Systems! 8. Beschreiben Sie die Aufgaben der Middleware in einem AAL-System und benennen Sie zwei kon krete Middleware-Systeme! 9. Was versteht man unter Kontext im Umfeld der AAL-Systeme? 10. Welche Möglichkeiten gibt es, Wissen in einem technischen Assistenzsystem zu modellieren? 11. Was versteht man unter Universal Design?
Kai U. Heitmann
11 IT-Standards in der Medizin 11.1 11.2 11.3 11.4 11.5
Einleitung | 352 Grundlagen | 353 Kommunikationsstandards | 359 Terminologiestandards | 377 Zusammenfassung und Ausblick | 380
Zusammenfassung: In Einrichtungen des Gesundheitswesens werden heterogene Anwendungssysteme genutzt, nicht nur innerhalb einer Einrichtung, sondern auch über Einrichtungsgrenzen hinweg. Für eine effiziente Informationsverarbeitung ist es wichtig, dass Anwendungssysteme miteinander kommunizieren (strukturelle Interoperabilität) und die Bedeutung der ausgetauschten Informationen verstehen können (semantische Interoperabilität). Wichtige Standardisierungsaktivitäten für strukturelle Interoperabilität in der Medizin sind beispielsweise HL7, DICOM, IHE und xDT. Wichtige Terminologiestandards sind derzeit LOINC, SNOMED, UCUM, ICD und OIDs. Aufgrund der Vielzahl und Komplexität der Standardisierungsaktivitäten wird eine Kooperation von Standardisierungsorganisationen immer bedeutsamer. Abstract: Healthcare institutions use heterogeneous applications not only within institutions but also between them. For an efficient information management it is especially important that application systems are able to communicate with each other (syntactical interoperability) and can understand the meaning of the exchanged information (semantic interoperability). Important activities for syntactical interoperability in health care include HL7, DICOM, IHE, and xDT. LOINC, SNOMED, UCUM, ICD, OIDs currently function as important terminology standards. Due to the variety and complexity of standardization activities, the cooperation among Standards Development Organisations (SDO) is increasingly important.
352 | Kai U. Heitmann
11.1 Einleitung Bereits in den 1950er Jahren wurde in den USA versucht, Computersysteme in der Medizin einzusetzen. In Deutschland begann Anfang der 1970er Jahre die Unterstützung bestimmter Bereiche im Krankenhaus durch den Einsatz von – damals noch Großräume füllenden – Computersystemen. Anfangs standen administrative Aufgaben wie Finanzbuchhaltung und stationäre Abrechnung im Vordergrund; dann folgten Fachbereiche, in denen eine Automatisierung nicht nur möglich, sondern auch lohnend war, wie in der Laboratoriumsmedizin. Seither ist der Einsatz von Computern nicht nur einfacher und kostengünstiger geworden, sondern es gibt auch gesetzliche und fachliche Vorgaben zur Nutzung informationsverarbeitender Anwendungssysteme im Gesundheitswesen. Allerdings steht auch heute noch kein umfassendes Informationssystem zur Verfügung, das alle Belange innerhalb der Krankenhäuser und den übrigen Bereichen des Gesundheitswesens vollständig abdeckt. Deshalb werden Systeme von verschiedenen Anbietern und mit unterschiedlichen Funktionen eingesetzt. Für eine sinnvolle Zusammenarbeit sind diese Systeme miteinander funktional zu koppeln – sie müssen kommunizieren. Diese Kommunikation zum Zwecke der sinnvollen Zusammenarbeit wird Interoperabilität genannt (Band 1). Interoperabilität bezeichnet die Fähigkeit zur problemlosen und korrekten Kommunikation.
Dabei geht es nicht nur darum, Informationen auszutauschen (funktionale oder strukturelle Interoperabilität, die Struktur und Syntax festlegt), sondern auch darum, die Bedeutung der Informationen zu verstehen und sie zu nutzen (semantische Interoperabilität). Diese erreicht man nachhaltig durch gemeinsam festgelegte Informations- und Terminologiemodelle (zu verwendende Begriffe, Codes etc.). Darüber hinaus sind für eine erfolgreiche Zusammenarbeit von Bereichen des Gesundheitswesens auch Abläufe und Vorgänge abzustimmen (organisatorische oder auch Service-Interoperabilität). Abbildung 11.1 zeigt die verschiedenen Ebenen der Interoperabilität auf. Die genannten Aspekte der Interoperabilität werden im vorliegenden Kapitel näher beschrieben. Die gemeinsamen Festlegungen sind im Idealfall als Standards etabliert, an die sich die beteiligten Parteien zu halten haben. Die Problematik dabei wird anhand der Herausforderungen bei der Kommunikation im Gesundheitswesen erläutert, welche die eigentliche Motivation für Interoperabilität darstellt: gemeinsame Festlegungen zu Struktur, Syntax, Semantik und Architektur, um sicher und zuverlässig miteinander Informationen auszutauschen. Dabei müssen Daten bzw. Merkmale und Prozesse standardisiert werden. Dies führt zur Festlegung von Kommunikationsstandards. Ein wichtiger Teilaspekt zur Erlangung der semantischen Interoperabilität sind Terminologiestandards.
11 IT-Standards in der Medizin
| 353
strukturelle Interoperabilität
syntaktische Interoperabilität
semantische Interoperabilität nachhaltige Bedeutung und Interpretation von Daten durch gemeinsame Informations- und Terminologiemodelle
organisatorische/Service-Interoperabilität harmonisierte Geschäftsprozesse (Architektur) Abb. 11.1: Verschiedene Ebenen der Interoperabilität, vgl. Text.
Für die Etablierung von Standards sind Standardisierungsorganisationen (SDO, Standards Development Organization) zuständig, von denen die wichtigsten in Bezug auf Kommunikations- und Terminologiestandards im vorliegenden Kapitel beschrieben werden. Lernziele des Kapitels IT-Standards in der Medizin sind: – die Bedeutung und Problematik von Interoperabilität im Gesundheitswesen zu verstehen, – die wichtigsten Kommunikationsstandards in der Medizin kennenzulernen, – die wichtigsten terminologischen Standards in der Medizin kennenzulernen, – die Bedeutung und Komplexität von Harmonisierungsbemühungen bei der Standardisierung im Gesundheitswesen kennenzulernen.
11.2 Grundlagen 11.2.1 Standards Im Laufe der Zeit wurden zur Erreichung der Interoperabilität eine Reihe von Standards und Normen entwickelt und nutzbar gemacht. Als Kommunikationsstandard gilt eine vorab vereinbarte Übereinkunft zu Art und Weise des Aus tauschs und zur Bedeutung von Informationen.
In Bezug auf die funktionale Interoperabilität ermöglichen Standards eine einheitliche Struktur und Zusammenstellung der Informationen (Syntax). Ebenso können Art und Weise des Austauschs vorgegeben werden. Die Möglichkeiten reichen vom Kommunizieren über sogenannte Nachrichten bis hin zu Schnittstellen zwischen Systemen, die bestimmte vollständige Funktionen zur Verfügung stellen (Services).
354 | Kai U. Heitmann
Semantische Interoperabilität beinhaltet schließlich auch Vereinbarungen über Bedeutung, die zu verwendenden sprachlichen Mittel (Terminologien) und Einigkeit über die zugrundeliegenden Prozesse. Standards erleichtern den Austausch von medizinischen Daten (idealerweise bis hin zum sogenannten plug and play), indem sie bei allen Beteiligten für ein gemeinsames Verständnis über Informationsobjekte und -prozesse und deren Beziehungen zueinander sorgen. Für die Medizin sind eine Reihe von nationalen und internationalen Standards sowie Initiativen entstanden, um diese Interoperabilität zu erreichen. Die oberste Standardisierungsorganisation ist die International Organization for Standardization (ISO), eine Versammlung der Repräsentanten nationaler Standardisierungsorgane, die 1947 mit Sitz in Genf gegründet wurde. Auf europäischer Ebene werden Standards vom Comité Européen de Normalisation (CEN) erarbeitet. Schließlich ist auf nationaler Ebene zur Abstimmung deutscher Belange mit der internationalen und europäischen Standardisierung das Deutsche Institut für Normung (DIN) aktiv. Im Fachbereich Medizinische Informatik des DIN werden die internationalen Arbeiten begutachtet, deutsche Stellungnahmen zur Weiterleitung an CEN und ISO erstellt sowie neue Standardisierungsprojekte initiiert. Daneben sind weitere Standardisierungsorganisationen mit der Erstellung von Standards beschäftigt. Die historisch und praktisch wichtigsten internationalen Kommunikationsstandards sind: – HL7 Version 2, vornehmlich in Krankenhäusern zwischen den dort etablierten Systemen eingesetzt, – HL7 Version 3 für den sektorenübergreifenden XML-basierten Nachrichtenaustausch im gesamten Gesundheitswesen, – Clinical Document Architecture (CDA) als Teil von HL7 Version 3 für Struktur und Inhalt medizinischer Dokumente, – Fast Healthcare Interoperability Resources (FHIR), – DICOM zum Austausch von Bildinformationen, – CDISC zum Austausch von Daten aus klinischen Studien. Die Anbieterinitiative Integrating the Healthcare Enterprise (IHE) hat sich zum Ziel gesetzt, diese Standards zu sogenannten Profilen, ähnlich den im Weiteren beschriebenen Implementierungsleitfäden, zu verarbeiten und damit die Implementierung zu ermöglichen bzw. zu vereinfachen. Zudem gibt es in einigen Ländern nationale Definitionen. Hier ist für Deutschland im Wesentlichen die Sammlung der sogenannten xDT-Schnittstellendefinitionen für Arztpraxissysteme zu nennen. Ergänzend hierzu sind passende Terminologien bedeutungsvoll, die von anderen Organisationen verwaltet werden und zur semantischen Interoperabilität wesentlich beitragen, unter anderem sind dies: – LOINC (Logical Observation Identifier Names and Codes), – SNOMED-CT (Systematized Nomenclature of Medicine – Clinical Terms),
11 IT-Standards in der Medizin
– – – –
| 355
ICD (International Classification of Diseases, internationale Statistische Klassifikation der Krankheiten und verwandter Gesundheitsprobleme), ICF (International Classification of Functioning, Disability and Health, internationale Klassifikation der Funktionsfähigkeit, Behinderung und Gesundheit), ISO-Tabellen (Ländercodes, Sprachen etc.), UCUM (Unified Code for Units of Measure) als Terminologie für Maßeinheiten.
Schließlich sei in diesem Zusammenhang noch auf die Bedeutung von sogenannten OID-Registern (Object Identifier) hingewiesen, welche die eindeutigen Zuordnungen von Identifizierungen von Objekten wie Organisationen und Kodiersystemen festhalten. Anhand der Herausforderungen bei der Kommunikation im Gesundheitswesen wird im Folgenden die eigentliche Motivation für Interoperabilität darstellt.
11.2.2 Kommunikation im Gesundheitswesen Prozessanalyse und Architektur Für eine saubere Abbildung der Kommunikationsbedürfnisse ist zunächst eine Analyse der Abläufe (Workflows) Voraussetzung. Für die Dokumentation dieser Abläufe werden in der Regel Standardwerkzeuge und -methoden wie z. B. die Unified Modeling Language (UML) genutzt. Für die Festlegungen zur Prozessanalyse und Architektur werden die verschiedenen auftretenden Situationen, die sogenannten Anwendungsfälle (use cases), mit ihren Beteiligten (Akteuren) und deren jeweiligen Rollen und Verantwortlichkeiten festgelegt, z. B. in einem sogenannten Use-Case-Diagramm. Zeitliche Abfolgen und der Anlass bzw. Auslöser des Informationsaustausches werden dokumentiert (Aktivitäten- und Sequenzdiagramm). Schließlich werden der Umfang und die Eigenschaften der Daten festgelegt und auf welche Weise sie versendet werden. Zusammenfassend werden also Antworten gefunden auf die Fragen: was, wie, wo, durch wen, wann, warum.
Modellierung Nach der Dokumentation der Prozesse werden Informations- und Terminologiemodelle erstellt, indem die genaue Struktur der Daten sowie deren Eigenschaften festgelegt werden. Die Modelle sind zumeist objektorientiert, gliedern die Eigenschaften in Klassen zusammengehöriger Attribute und zeigen die Beziehung der Klassen untereinander auf.
356 | Kai U. Heitmann
Beispiel: Modell und Wirklichkeit: Ein Patient wird durch eine Organisation betreut. Im Modell wird dies wiedergegeben durch eine Klasse Patient mit verschiedenen Eigenschaften wie Name und Geburtsdatum, die in Beziehung mit einer oder mehreren Organisationen steht (betreut durch) ( Abb. 11.2).
Patient Id Name Adresse Geburtsdatum Geschlecht
0..*
Organisation betreut durch Id Name 0..* Adresse
Abb. 11.2: Klassendiagramm: „Patient wird betreut durch eine Organisation“, wiedergegeben als Klassen mit Eigenschaften und einer Beziehung der Klassen.
In diesem Schritt werden auch die anzuwendenden Terminologien definiert, z. B. Codesysteme oder -tabellen.
Das Geschlecht eines Patienten wird in kodierter Form ausgetauscht. In einer möglichen Codetabelle kann festgelegt werden, dass hier M für männlich und F für weiblich genutzt wird.
Typischerweise sind derartige Modelle selbst in eine Art Hierarchie eingebettet. Von allgemeineren Modellen erstellt man daraus abgeleitete verfeinerte Modelle, bis die dokumentierten Klassen und Attribute dem Informationsbedürfnis genügen.
Das Modell zur Abbildung von Proben eines Patienten für eine Laboruntersuchung ist recht groß und komplex und umfasst alle möglichen Situationen für die Gewinnung, Verarbeitung und Ableitung von Proben inklusive mikrobiologischer Bakterienkulturen aus dem Blut des Patienten bei Infektionen. Für eine einfache Blutentnahme z. B. zur Kaliumbestimmung kann (unter anderem durch Weglassen der nicht benötigten Klassen) ein vereinfachtes Modell abgeleitet werden, das nur Blutproben zur einmaligen Analyse umfasst.
11 IT-Standards in der Medizin |
357
Standardisierung Um mehrfache Festlegungen und widersprüchliche Definitionen zu vermeiden, können sie in größerem Kreise (national, international) veröffentlicht werden. Ziel ist es, auch von anderen Gruppen Kommentare in Bezug auf die Korrektheit der Analyse zu erhalten, einen Konsens bei Meinungsverschiedenheiten zu erreichen und schließlich eine Version herauszugeben, die von einer möglichst großen Anzahl Beteiligter getragen wird (Konsensus). Um konsentierte Standards für das Gesundheitswesen zu veröffentlichen, bringen Standardisierungsorganisationen Spezifikationen in ein Abstimmungsverfahren ein, bei dem nach festen Regeln Kommentare einer möglichst großen Gruppe Fachkundiger gesammelt und verwertet werden. Dabei wird meist zwischen Entwürfen in der Anfangsphase, informativen und normativen (bindenden) Standards und Standards, die sich in der praktischen Anwendungen zunächst für einige Jahre in der Testphase befinden (draft standards for trial use) und erst später normativ werden. Wenn die Spezifikation nach vordefinierten Abstimmungsegeln eine positive Begutachtung erhält, wird sie als Standard veröffentlicht und hat nach Typ des Standards einen national oder international bindenden Charakter.
Implementierungsleitfäden Um Informationen zwischen Systemen austauschen zu können, müssen die oben genannten Aspekte auch in Anwendungssystemen ihren Niederschlag finden.
Ein Kommunikationsszenario kann festlegen, dass Geburtsdatum und Geschlecht eines Patienten do kumentiert und ausgetauscht werden sollen. Voraussetzung dafür ist, dass diese Daten auch im je weiligen Anwendungssystem eingegeben bzw. wiedergegeben werden können und im System auch angemessen gespeichert werden.
Man spricht hier von Implementierung, also dem Umsetzen der Anforderungen aus der Analyse in ein Anwendungssystem, so wie es von einem Standard vorgegeben ist. Ein Implementierungsleitfaden enthält detaillierte Vorschriften, wie bestimmte Sachverhalte in Anwendungen realisiert werden müssen.
Ein allgemeiner Standard hat festgelegt, dass zu jedem Patienten eine Patientenidentifikationsnum mer erfasst werden muss. Allgemein kann nicht näher bestimmt werden, um welchen Patienten-Iden tifikator es sich handelt. Der Implementierungsleitfaden eines Landes, in dem jeder Patient eine national eindeutige Iden tifikationsnummer hat (z. B. Schweden), legt die Nutzung dieses nationalen Identifikators fest.
358 | Kai U. Heitmann
Kommunikation innerhalb von Institutionen Der Krankenhausbetrieb war historisch gesehen einer der ersten Bereiche, in dem die elektronische Datenverarbeitung (EDV) Einzug hielt, zunächst in der Verwaltung und für die Abrechnung, später auch im klinischen Umfeld. Die Unterstützung mit Softwaresystemen führte auch schnell zum Bedarf an Kommunikation: Klinische Anwendungssysteme sollten demografische Daten der Patienten von den Aufnahmesystemen der Verwaltung übernehmen. Auch die verschiedenen medizinischen Disziplinen hatten auf sie abgestimmte Subsysteme, die untereinander Daten austauschen mussten. Beispiel hierfür sind die Laborsysteme, die Anforderungen von Anwendern der Stationssysteme erhalten und die Befunde an diese zurücksenden (Kapitel 2). Im Laufe der Zeit wechselte mehrfach die Sichtweise auf EDV-Unterstützung im Krankenhaus von vielen spezialisierten Subsystemen (mit vielen Verbindungen zwischen den Systemen, sogenannten Schnittstellen) hin zu wenigen größeren Systemen, die ein möglichst breites Leistungsspektrum abdecken mussten. Das Spektrum von Krankenhausinformationssystemen (KIS) reicht daher von einer koordinierten und kooperierenden Sammlung der besten spezialisierten Systeme (best of breed) bis hin zu einem „monolithischen“ Gesamtansatz. Mehr Informationenen zu Krankenhausinformationssystemen finden sich im Kapitel 2. In Bezug auf die Kommunikation innerhalb einer einzigen Institution bedeutet dies, dass Schnittstellen zwischen den jeweiligen beteiligten Parteien kurzfristig abgesprochen werden konnten. Dies betraf beispielsweise die Verwendung von PatientenNummern, Codesystemen oder auch Prozessen. Standards wie HL7 Version 2 halfen bei der Etablierung funktionierender Kopplungen.
Kommunikationsserver Seit etwa Mitte der 1990er Jahre sind für eine effiziente Unterstützung der Kommunikationswege in einem Krankenhaus sogenannte Kommunikationsserver im Einsatz. In fast allen größeren Krankenhäusern werden Funktionen wie Nachrichtenweiterleitung und Konversion zwischen verschiedenen Formaten, „Dialekten“ (Formatvariationen) oder Kodierungen von Kommunikationsservern übernommen, die daher für Interoperabilität im Krankenhaus eine zentrale Rolle spielen. Das Potenzial dieser „Datendrehscheiben“ als Integrationsinstrumente ist allerdings auch heute noch weitaus größer als bisher tatsächlich genutzt. Vor allem beim Aufbau intersektoraler Kommunikation und der Etablierung von Infrastrukturen gibt es weitere sinnvolle Einsatzmöglichkeiten. Kommunikationsserver sind ebenfalls in Kapitel 2 genauer beschrieben.
11 IT-Standards in der Medizin
| 359
Sektorenübergreifende Kommunikation Neue Probleme ergeben sich aus der Notwendigkeit, auch über Institutionsgrenzen hinweg Daten auszutauschen (einrichtungsübergreifende Kommunikation). Eine innerhalb des Krankenhauses geltende Vereinbarung kann nicht ohne weiteres auf andere Einrichtungen des Gesundheitswesens übertragen werden.
Die Patientennummer wird innerhalb eines Krankenhauses vergeben und gilt eindeutig innerhalb die ses Krankenhauses. Damit können Daten eines Patienten sicher zusammengeführt werden. Für die Kommunikation außerhalb des Krankenhauses ist dieser Identifikator nicht eindeutig und muss durch entsprechende Mechanismen ergänzt werden, die auch sektorenübergreifend eine eindeutige Iden tifikation eines Patienten möglich macht.
Anfang des Jahres 2000 beschäftigte sich in Deutschland die SCIPHOX-Gruppe (Standardized Communication of Information Systems in Physician Offices and Hospitals using XML) auch mit möglichen ersten Schritten der sektorenübergreifenden Kommunikation. Hier sollten zunächst die Überweisungsformulare von Patienten ins Krankenhaus mittels EDV-Technik abgebildet werden. Angesichts der Entwicklungen in Deutschland bis zu diesem Zeitpunkt (siehe auch Abschnitt HL7 Version 2 11.3.1 und xDT 11.3.4) klang die Zusammenführung der Anforderungen des ambulanten und stationären Sektors und die Entwicklung einer gemeinsamen Spezifikation zunächst sehr ungewöhnlich. Die Arbeiten der Gruppe basierten auf der ersten Version der Clinical Document Architecture (CDA), siehe Abschnitt 11.3.1) und führten später zu Definitionen für Arztbriefe im deutschen Gesundheitswesen.
11.3 Kommunikationsstandards Ziel aller Kommunikationsstandards ist die Förderung der Interoperabilität. Ihre Einteilung in Nachrichten-, Dokumenten- oder Patientenaktenstandards verschwamm in den vergangenen Jahren immer mehr, sodass hierauf nicht näher eingegangen werden soll. Folgende Kommunikationsstandards mit verschiedenen Kernmerkmalen werden unterschieden: – HL7, HL7 Version 2, HL7 Version 3, CDA – DICOM – IHE – xDT – UN/EDIFACT – openEHR/EN13606
360 | Kai U. Heitmann
11.3.1 Kommunikationsstandards von HL7 HL7 oder genauer HL7 International (http://hl7.org) ist eine SDO. Sie wurde als Organisation 1986 in den Vereinigten Staaten gegründet und ist im Laufe der 1990er Jahre zu einer internationalen Gruppe herangewachsen. Neben einigen wenigen bezahlten Mitarbeitern ist es im Wesentlichen eine Versammlung Freiwilliger aus den Bereichen Industrie, Beratung, Wissenschaft und Anwendung. HL7 hat weltweit etwa 2 300 Mitglieder und ca. 30 Ländervertretungen (local affiliates). Die eigentliche Standardisierungsarbeit wird in themenorientierten Arbeitsgruppen (working groups) durchgeführt. Dazu werden in etwa viermonatigem Abstand einwöchige Arbeitstreffen durchgeführt, bei denen jeweils 400. . . 600 Experten an den Standards arbeiten. Nach der Erarbeitung der Entwürfe folgt ein Abstimmungsverfahren (ballot), in dem Mitgliedern der Arbeitsgruppe, der gesamten Mitgliedschaft bzw. jedem Interessierten, Gelegenheit gegeben wird, nach klaren Regeln Kommentare und Vorschläge zur Verbesserung der Entwürfe einzureichen. Diese werden so lange in die Entwürfe eingearbeitet, bis diese schließlich positiv abgestimmt sind und damit zu einem internationalen oder nationalen Standard werden. Zur Wahrung nationaler Interessen gibt es in über 30 Ländern Tochter-Organisationen von HL7. Ihre Aufgaben liegen einerseits darin, die internationalen Standards für nationale Verhältnisse anzupassen bzw. zu übersetzen und zu verbreiten, andererseits typisch nationale Belange in die internationale Organisation einzubringen. HL7 ist nicht die einzige SDO für Informations- und Kommunikationstechnologie im Gesundheitswesen. Sie hat vielfältige Verbindungen zu anderen Organisationen, die im Laufe der Zeit entstanden und gewachsen sind. HL7 ist bei der amerikanischen Normierungsbehörde ANSI seit 1992 akkreditiert. Um das Jahr 2000 begann die intensivere Zusammenarbeit mit der CEN und der International Organization for Standardization (ISO). Später folgten IHE und IHTSDO (International Health Terminology Standards Development Organisation, Kapitel 11.4.2). Mittlerweile führen enge Kollaborationen im sogenannten Joint Initiative Council (JIC) zu harmonisierten Standardvorschlägen, die durch alle bedeutenden SDOs getragen werden. Seit Anfang der 1990er Jahre wird HL7 stärker durch internationale Strömungen beeinflusst. 2010 hat sich HL7 schließlich umbenannt in HL7 International, um dieser Globalisierung auch in seinem Namen Rechnung zu tragen. Arbeitstreffen finden seit 2004 auch außerhalb der USA statt. Zurückblickend hat HL7 etwa Mitte der 1980er Jahre zunächst die Version 2 des Kommunikationsstandards veröffentlicht, ein pragmatischer Standard für den Einsatz im Krankenhaus. Etwa 1995 begannen die Entwicklung rund um HL7 Version 3 (HL7 V3). Die Namensgebung suggeriert, dass V3 der Nachfolger der Version 2 ist; tatsächlich handelt es sich aber um eine völlig neue, modellorientierte Entwicklung. HL7 V3 basiert auf dem Reference Information Model (RIM), einem Referenzmodell, von dem sich alle V3-Standards ableiten.
11 IT-Standards in der Medizin
| 361
Trigger Event
HL7 Nachricht senden
HL7 Nachricht empfangen Netzwerk
HL7 ACK empfangen
HL7 ACK senden
System A
System B
Abb. 11.3: Basisprinzip des Nachrichtenaustauschs. Ein Ereignis der realen Welt ist Anlass (trigger event) für die Erzeugung und Versendung einer Nachricht an einen Empfänger. Die empfangene Nachricht wird vom Empfänger beim Sender quittiert durch eine ACK (acknowledgement)-Nachricht.
Erstes Familienmitglied der HL7-V3-Standards war die Clinical Document Architecture (CDA) in einem ersten Entwicklungsschritt (Release 1, im Jahr 2000), einige Jahre später folgte das Release 2. CDA gilt aus Sicht tatsächlicher Implementierungen weltweit als bisher erfolgreichstes HL7-V3-Mitglied. Inzwischen haben bei den HL7-Experten Service-Paradigmen ebenso Einzug gehalten wie die Erkenntnis, dass Terminologien eine sehr bedeutsame Rolle spielen. Das führte zu einer zum Teil erheblichen Ausweitung der Reichweite der HL7-Standard-Defintionen.
Der HL7 Standard Retrieve, Location, and Updating Service (RLUS) ermöglicht es einem Informations system, auf Daten zuzugreifen und diese auch zu verwalten. Mit dem Terminologie-Standard Common Terminology Services 2 (CTS2) werden Services defi niert, mit deren Hilfe man u. a. Codesysteme zusammenstellen, verwalten und für Informationssyste me verfügbar machen kann.
Der Name HL7 steht für Health Level Seven und bezieht sich auf die oberste (siebente) Schicht des Kommunikationsmodells der International Organization for Standardization (ISO) für Verbindungen offener Systeme (Open System Interconnection, OSI). Diese Schicht wird auch Anwendungsebene (application layer) genannt. Sollen z. B. zwischen einem Anwendungssystem in der Patienten-Administration (A) und einem anderen Anwendungssystem (B) im Labor Patienteninformationen wie Name, Geburtsdatum, Geburtsname, Geschlecht etc. auf elektronischem Wege ausgetauscht werden, müssen sie als Nachricht von System A nach B gebracht werden. Die Abbildung 11.3 verdeutlicht das Basisprinzip eines Nachrichtenaustauschs. Eine der einfachsten Möglichkeiten hierzu wäre die Versendung per elektronischer Post, genannt E-Mail. Voraussetzung hierfür ist lediglich die Verbindung beider
362 | Kai U. Heitmann
Der Patient Hans Meier, geboren am 24. September 1951, wurde am 12. September 2011 um 16:12 Uhr auf Station 9A aufgenommen.
Abb. 11.4: Beispiel für eine unstrukturierte Nach richt. Die Nachricht ist für einen Menschen gut zu verstehen, für Computer aber sehr schlecht weiter verwendbar.
Computersysteme über ein Netzwerk. Bei der E-Mail werden die Informationen – wie bei Briefen üblich – formlos und unstrukturiert weitergegeben (Abb. 11.4). Ein menschlicher Kommunikationspartner wird die Botschaft verstehen, weil er weiß, welche Teile zum Namen und zum Geburtsdatum gehören und worum es hier eigentlich geht. Für Computer ist diese unstrukturierte Nachricht allerdings nicht ohne weiteres verständlich oder automatisch zu verarbeiten. Damit ist der Aufwand, übermittelte Daten im empfangenden System eindeutig zu identifizieren und wiederzuverwenden – gegebenenfalls auch in einem anderen Kontext – relativ hoch. Sollen die Daten in strukturierter Form übertragen werden, geht dem Austausch eine Vereinbarung zwischen den beiden Kommunikationspartnern voraus. Darin muss z. B. festgelegt werden: – die zur Kommunikation genutzte Methode: über ein im Prinzip öffentlich zugängliches Netzwerk (Internet) oder ein geschlossenes Netzwerk oder per Datenträger wie CD-ROM, DVD-ROM, USB-Stick und welche Technologien, wie beispielsweise Webservices, angewendet werden, – das Format für den Datenaustausch: z. B., in welcher Reihenfolge die einzelnen Datenelemente übertragen werden (Sequenz), ob jedes Datenelement durch besondere Zeichenfolgen eingefasst bzw. identifiziert wird, welche Trennzeichen zur Differenzierung zwischen den Datenelementen stehen, – welche Notation einzelne Daten haben: z. B., wie ein Datum oder ein Messwert vom Labor genau angegeben wird, – welche Bedeutung (Semantik) die einzelnen Datenelemente haben: z. B. bei einer Orientierung nach Reihenfolge soll das erste Element der Vorname eines Patienten sein. Im einfachsten Fall etabliert man zwischen jedem Paar von Systemen zum Datenaustausch eine eigene Schnittstelle, welche die oben genannten Punkte festlegt. Diese Vorgehensweise führt aber schnell zu erheblichen Nachteilen: – hoher Aufwand für detaillierte Absprachen zwischen den Kommunikationspartnern über Art und Inhalt der auszutauschenden Daten, – viele und unübersichtliche Kommunikationsbeziehungen, z. B. sind bei fünf Systemen bereits 20 Schnittstellen möglich, – hoher Wartungsaufwand und damit auch Kosten- und Personalaufwand zur Pflege der Schnittstellen,
11 IT-Standards in der Medizin |
Daten
Daten
Nachsorge/ Reha
Hausarzt Patient Daten
Daten
363
Spezialist Daten
Daten
Selbstverwaltung etc.
Behörden etc.
Krankenhaus
Abb. 11.5: In der sektorenübergreifenden Kommunikation gilt es, alle Gesundheitsdienstleister miteinander zu verbinden [Heitmann 2009].
–
bei Austausch eines Systems müssen gegebenenfalls mehrere Schnittstellen neu definiert werden.
Um die zwischen den Systemen notwendigen Schnittstellen zu vereinheitlichen und zu standardisieren, steht mit HL7 eine wertvolle Hilfe bei der Implementierung der Schnittstellen in eine Anwendung zur Verfügung. Mit der Nutzung von HL7 als Kommunikationsprotokoll vereinheitlicht sich das Kommunikationsgefüge im Krankenhaus. Hierfür wird überwiegend HL7 Version 2 genutzt. Die organisationsübergreifende Patientenversorgung (siehe Abb. 11.5) schließt nicht nur medizinische Informationsströme ein, sondern unter anderem auch finanziell orientierte Kommunikation, z. B. zum Zwecke der Abrechnung administrativ-medizinischer Daten wie beispielsweise Meldungen unerwünschter Arzneimittelwirkungen, Infektionsschutz etc. Dies ist vor allem der Anwendungsbereich von HL7 Version 3.
HL7 Version 2 HL7 Version 2 ist weit verbreitet und dient der Systemintegration innerhalb von Krankenhäusern, beispielsweise zur Kommunikation von Patienten- und Leistungsdaten sowie Leistungsanforderungen und Befunden. Es werden Inhalt und Struktur der zu übermittelnden Daten festgelegt. HL7 Version 2 ist weltweit der am meisten genutzte
364 | Kai U. Heitmann
Tab. 11.1: Liste der einzelnen Kapitel des HL7 Version 2-Standards (siehe http://www.hl7.org/implement/standards/product_brief.cfm?product_id=185). Kapitel
Name
Beschreibung
1 2 3 4 5 6 7 8 9 10
Introduction Control Patient Administration Order Entry Query Financial Management Observation Reporting Master Files Document Management Scheduling
11 12 13 14 15
Patient Referral Patient Care Laboratory Automation Application Management Personnel Management
Einführung für alle Nachrichten geltende Regeln demographische Patientendaten Übertragung von Aufträgen oder Bestellungen Regeln für Abfragen und ihre Antworten finanzielle Transaktionen/Abrechnung klinische patientenorientierte Daten verteilte Stammdaten-Kataloge Dokumentenverwaltung Planung von Terminen für Dienstleistungen oder Nutzung von Ressourcen Überweisung eines Patienten problemorientierte Krankengeschichte Integration und Anbindung von Analyse-Systemen Anwendungsintegration über Netzwerke demographische Mitarbeiterdaten
Standard für den Informationsaustausch im Gesundheitswesen. Nahezu 100 % aller deutschen Krankenhäuser nutzen HL7 Version 2 für ihre interne Kommunikation. Der Standard deckt alle notwendigen Anwendungsgebiete im Krankenhaus ab: Patientendaten-Administration, Befundkommunikation, Leistungsanforderung und -übermittlung, Dokumenten- und Stammdatenaustausch, Mitarbeiterdaten sowie Logistik, Materialmanagement und Ressourcenplanung. Eine Übersicht über den Anwendungsbereich ist in der Tabelle 11.1 wiedergegeben. Das Austauschformat für HL7 Version 2 ist einfach (Abb. 11.6) und textbasiert, jedoch benötigt man zum Verarbeiten der Informationen spezielle Parser (Einleseprozeduren). Die Nachrichten sind in Segmente und Felder (Komponenten) gegliedert (Abb. 11.7).
MSH|^~\&|PAS|HBE|RAD||2008040112149||ADT^A01|20080401112149 |P|2.5|||AL|NE| EVN|A01|200804010800|20080401112149||| PID||""|8005069^^^HBE^PI~24109642356^^^F-NUM^NPNO| |Haugen^^Terje^^^L||19961024|M||| Jonas Storm vei 23^^Bergen^^5022^^HP|| 70555366|""||""|||||||""|""|||| Abb. 11.6: Beispiel einer HL7 Version 2-Nachricht. Es ist zu beachten, dass derartige Nachrichten nicht dazu gedacht sind, von einem Menschen gelesen zu werden.
11 IT-Standards in der Medizin |
Segment
365
Komponente
Nachrichtentyp Segment
Feld
Komponente
Abb. 11.7: Ein Nachrichtentyp wird definiert durch Segmente, die aus Feldern und ggf. aus Kompo nenten bestehen.
Wie oben erwähnt, führt ein reales Ereignis (trigger event) zur Versendung einer Nachricht. Dieses Ereignis bestimmt den Inhalt der Nachricht (Nachrichtentyp).
Die Aufnahme eines Patienten in einem Krankenhaus hat gerade stattgefunden und soll an andere Systeme, z. B. an das Laborsystem, übermittelt werden. Dazu wird aus dem Kapitel Patienten-Admi nistration (ADT) der entsprechende Nachrichtentyp gewählt (ADT_A01) und die Nachricht mit den Da ten gefüllt.
Eine ADT_A01 Nachricht besteht aus den drei Segmenten: – MSH (message header), welches unter anderem den Absender und Empfänger identifiziert, – EVN (event), welches das auslösende Ereignis beschreibt, – PID (patient identification), das die Informationen zum Patienten selbst enthält. Das PID-Segment besteht wiederum aus nummerierten Feldern, die jeweils mit einer bestimmten Bedeutung belegt sind. So sind die Felder PID-1 bis PID-4 gedacht für verschiedene Patientennummern, Feld PID-5 enthält den Namen des Patienten, Feld PID-7 das Geburtsdatum usw. (Abb. 11.8 und Abb. 11.9).
1
ADT A01
MSH
2
EVN
3
PID
4 5 Name
Familienname Vorname
6 7 Geburtsdatum Abb. 11.8: Das PID-Segment (Patienten-Identifikation) mit Feldern wie Name und Geburtsdatum und weiteren Unterteilungen (Komponenten) wie Vorname und Familienname.
366 | Kai U. Heitmann
PID|||…|Haugen^Terje||19961024|M|||… Abb. 11.9: Beispielfragment eines PID-Segments von Terje Haugen, männlich, geboren am 24. Okto ber 1996.
Merkmalsbezeichner
Messwert Maßeinheit
LOINC-Code
Normbereich
Datum
OBX|1|NM|10839-9^TROPONIN-I^LN||5|ng/ml|0-1.3|H||H|F|20010818 Ergebnis ist nummerisch
zeigt an, dass kein Normalwert vorliegt
Abb. 11.10: HL7 Version 2 Segment (Observation – OBX) zur Übermittlung eines Laborwertes (Tropo nin-I). Die Nachricht ist mit dem LOINC-Code 10839–9 codiert [Heitmann 2009].
Manche Felder besitzen Komponenten. So ist der Patientenname (Feld PID-5) selbst noch unterteilt in Familiennamen, Vornamen usw. Diese Komponenten sind Teil der Definition des Datentyps eines Feldes. Felder und Komponenten haben einen bestimmten Datentyp. So ist für PID-7 Geburtsdatum hinterlegt, dass dies eine Zeitangabe (time stamp) ist. Für jedes dieser Datentypen ist eine genaue Vorschrift im Standard vorhanden, in welchem Format diese Komponenten zu füllen sind. Für Datumsangaben etwa YYYYMMDD, z. B. 20110924 für den 24. September 2011. Nach diesem Prinzip werden administrative, aber auch medizinische Informationen übermittelt. In Abbildung 11.10 ist die Übermittlung eines Laborwertes gezeigt, wofür das OBX-Segment definiert ist. Die einzelnen Komponenten tragen auch hier Bedeutungen wie Messwert, Maßeinheit, Untersuchungsdatum. In einer Initiative am Beginn des 21. Jahrhunderts durch die damalige HL7 Special Interest Group XML wurde neben der textbasierten Repräsentation von HL7-Version-2-Inhalten auch eine XML-basierte Form vorgestellt. Damit können Nachrichten gleichen Inhalts in einem anderen Format übermittelt werden. Das Regelwerk von Version 2 mit Nachrichtentypen, trigger events, Segmenten, Feldern, Komponenten und Datentypen wurde dafür nicht verändert. Auch v2.xml-Nachrichten sind genauso wie ursprüngliche Nachrichten aufgebaut. Damit sollte ein leichterer Übergang zu XML ermöglicht werden. XML ist Repräsentationsformat für HL7 Version 3 und steht für die Extensible Markup Language, ein 1998 verabschiedeter Internetstandard, der bis heute weite Verbreitung gefunden hat. HL7 Version 2 ist pragmatisch entstanden, ein explizites Modell gibt es im Wesentlichen nicht. Die Tragweite des Standards ist in vielen Punkten klar auf den Einsatz innerhalb eines Krankenhauses beschränkt. Dem Wunsch nach Interoperabilität kommt man damit aber ein großes Stück näher. Der bedeutendste Wert von HL7 Ver-
11 IT-Standards in der Medizin |
367
sion 2 liegt sicherlich in seiner leichten Implementierbarkeit, der weiten Verbreitung in Krankenhäusern und dem zugrundeliegenden Wissen über medizinische Sachverhalte (Prozesse und Informationsinhalte). Wenngleich ab Mitte der 1990er Jahre das im gesamten Gesundheitswesen einsetzbare HL7 Version 3 entwickelt wurde, bleibt Version 2 vermutlich noch viele Jahre in Krankenhäusern etabliert. Erst die sektorenübergreifende Kommunikation macht den Übergang zu anderen und weitergehenden Standards notwendig (Abb. 11.5).
HL7 Version 3 HL7 Version 3 ist ein Standard für die umfassende Integration aller Einrichtungen des Gesundheitswesens zur Realisierung einer integrierten Versorgung. Er wird weltweit zunehmend implementiert und ist gekennzeichnet durch eine konsistente Modellierung der Kommunikationsvorgänge. Tatsächlich stellt HL7 Version 3 eine ganze Familie von Kommunikationsstandards auf XML-Basis dar. Alle Modelle basieren auf dem Referenz-Informations-Modell (RIM). Version 3 deckt große Teile für reale Anwendungen sowohl im klinischen als auch im administrativen und finanziellen Bereich ab. Zahlreiche Projekte weltweit haben die Einsatzfähigkeit und Reife des Standards gezeigt. In einigen Ländern ist V3 zur nationalen Strategie erwählt, um sogenannte Infrastrukturen aufzubauen, für die Inhaltsvorgaben zur Verfügung gestellt werden.
Referenz-Informations-Modell (RIM) Das RIM ist Grundlage aller Modelle in HL7 V3 und besteht aus vier Basisklassen sowie zahlreichen abgeleiteten Klassen. Es ist weltweit anerkannt als das Meta-Modell für Gesundheitsinformation (ISO/HL7 21731:2014). Die vier Basisklassen sind: – Entität (entity): Personen, Organisation, Orte, Medikamente etc., – Rolle (role): Patienten, Angehörige der Heilberufe, Angehörige der Patienten – Partizipation (participation): nähere Beschreibung der Teilnahme an einer Aktivität, wie z. B. erster Operateur und Assistent bei einer Operation, – Aktivität (act): Handlungen im Rahmen der medizinischen Behandlung, Untersuchungen, Eingriffe, Medikamentenverordnungen, Ergebnisberichte usw. Ergänzt werden die Basisklassen um zwei weitere Verbindungsklassen ( Abb. 11.11): – Beziehungen von Rollen untereinander (role relationship): z. B. Arzt-Patient-Verhältnis, – Beziehungen von Aktivitäten untereinander (act relationship), z. B. zur Dokumentation der Zusammengehörigkeit einer Laboranforderung und eines Laborergebnisses.
368 | Kai U. Heitmann
Role Relationship
Entity
Role
Act Relationship
Participation
Act
Abb. 11.11: Die vier Basisklassen des RIM sowie die Klassen zum Ausdruck von Beziehungen zwi schen Rollen bzw. zwischen Aktivitäten (siehe [HL7RIM 2015]).
Die vier Basisklassen des RIM werden genutzt, um in geeigneter Weise ein modellhaftes Abbild der Wirklichkeit zu erlangen. Dabei steht eine Reihe von allgemeinen und spezialisierten Klassen zur Verfügung.
Eine Person nimmt als Patient an einer Untersuchung teil. Dieses Beispiel kann leicht auf die Klassen des RIM abgebildet werden: Eine Person (Entität) nimmt als Patient (Rolle) teil (Partizipation) an einer Untersuchung (Aktivität). In vergleichbarer Weise wird auch der die Untersuchung ausführende Angehörige ei nes Heilberufs modelliert ( Abb. 11.12).
Person A
Patient
Objekt Untersuchung
Person B
Heilberufler
Ausführender
Abb. 11.12: Einfaches Klassenmodell zur Wiedergabe einer Untersuchung (Aktivität) mit den Anga ben zum involvierten Patienten und zum ausführenden Angehörigen der Heilberufe.
Auf diese Weise werden nicht nur die Klassen zusammengestellt, sondern die Klassen tragen auch Attribute, welche Eigenschaften der Klasse wiedergeben (Abb. 11.13). So hat die Klasse Person (entity) ein Attribut zur Wiedergabe des Personennamens (name) oder auch des Geburtsdatums der Person (birthTime). So wie in Version 2 die Felder Datentypen haben, so sind in Version 3 die Attribute mit Datentypen spezifiziert. Die Modellierung der Informationsstrukturen in HL7 erfolgt in festgelegten Schritten. Zunächst werden die Anwendungsfälle zusammengetragen, die ein Modell abbilden soll. Danach werden sogenannte Domain Message Information Models (D-MIM, bzw. auch DAM, Domain Analysis Model genannt) aufgestellt, die den Informationsbedarf aller Use Cases (Anwendungsfälle) in einem Klassendiagramm erfassen. Beispiele für solche Domänenmodelle beziehen sich auf den Bereich Patient Administration (demografische Patientendaten), Pharmacy (Dokumentation der Versorgung eines Patienten mit Medikamenten) oder Orders and Observations (Auftrags- und Befund-
11 IT-Standards in der Medizin
| 369
Person classCode: