bildnachverarbeitung teil 2: algorithmen und workflow; image postprocessing part 2: algorithms and...

5
Radiologe 2013 · 53:1110–1114 DOI 10.1007/s00117-013-2517-2 Online publiziert: 14. November 2013 © Springer-Verlag Berlin Heidelberg 2013 T. Baumann · M. Langer Abteilung Röntgendiagnostik, Universitätsklinikum Freiburg, Freiburg Bildnachverarbeitung  Teil 2: Algorithmen  und Workflow Im ersten Teil wurde bereits angedeu- tet, dass die für die Bildnachverarbeitung verfügbaren Algorithmen stets komple- xer und vielseitiger werden [2]. Wäh- rend bisher einige grundlegende Verfah- ren der Bildaufbereitung, Visualisierung und Segmentierung erläutert wurden, sol- len im zweiten Teil nun komplexere Algo- rithmen im Mittelpunkt stehen, die basie- rend auf den Bilddaten abstrakte Ergeb- nisse liefern oder Entscheidungen unter- stützen. Natürlich wird es für einen Ra- diologen im klinischen Alltag nicht mög- lich und vermutlich auch wenig von Nut- zen sein, die Funktionsweise aller von ihm direkt oder indirekt eingesetzten Nach- verarbeitungsverfahren im Detail zu ken- nen. Ein grundlegendes Verständnis typi- scher Architekturen und Funktionsweisen kann jedoch zur einer besseren Auswahl und einer effizienteren Nutzung derarti- ger Tools beitragen. Natürlich endet für den Anwender die Bildnachverarbeitung nicht mit dem rei- nen Erstellen und Betrachten neu gewon- nener Bilder oder Parameter. Vielmehr er- fordert der radiologische Workflow eine Interpretation und Kommunikation die- ser Informationen im Rahmen der Be- funderstellung und -verteilung. Wie die Nachverarbeitung im Befundprozess technisch integriert werden kann, soll an- hand ausgewählter Szenarien verdeutlicht werden. Algorithmen Die meisten fortgeschrittenen Nachverar- beitungstools, wie beispielsweise die auto- matische Erkennung bestimmter anato- mischer Strukturen oder Läsionen („com- puter-aided detection/diagnosis“, CAD), stellen für den Anwender eine Blackbox dar. Ein gewisses Frustrationspotenzial bei der Anwendung ergibt sich, wenn die Software für den menschlichen Benutzer scheinbar leicht vermeidbare Fehler regel- mäßig wiederholt oder aber korrekte Be- funde oder Werte erhebt, die für den Be- trachter schwer nachvollziehbar sind. Die folgende Systematik soll das Verständnis einiger dieser „typischen“ Verhaltenswei- sen komplexer Algorithmen erleichtern. Unterteilung in Subprozesse Während es dem Mensch häufig schwer fällt, genau zu erklären, wie und warum er eine bestimmte Entscheidung getroffen hat, beruht ein elektronischer Algorith- mus meist auf einer festgelegten Abfol- ge von Subprozessen und Entscheidungs- bäumen. Eine vereinfachte Prozesskette einer typischen CAD-Anwendung könn- te wie folgt aussehen (. Abb. 1; [3]). Zunächst muss derjenige Bereich des Datensatzes definiert werden, der für die weitere Analyse relevant ist. Im Fall der Rundherddetektion handelt es sich da- bei um eine relativ einfache Segmentie- rung der Lunge, die im Wesentlichen auf ihren niedrigen Dichtewerten beruht. Bei anderen Aufgaben, wie der virtuellen Ko- lonographie, kann bereits dieser Segmen- tierungsschritt relativ aufwendig sein. Die im Rahmen eines CAD erstellte Segmen- tierung des Datensatzes sollte für den An- wender sichtbar gemacht werden, da hier leicht erkennbare Fehlerquellen lauern: Abgeschnittene Läsionen werden automa- tisch übersehen, wohingegen angeschnit- tene Strukturen positive Befunde vortäu- schen können (Zwerchfellkuppe wird als Rundherd fehlinterpretiert). In dem festgelegten Abschnitt schließt sich nun ein Suchvorgang an, durch den möglichst viele Kandidaten detektiert werden, die als gesuchten Strukturen in Frage kommen. Dieser Schritt legt folglich die maximale Sensitivität der Methode fest, da Läsionen, die nicht als Kandida- ten ausgewählt werden, auch im weiteren Prozess nicht mehr berücksichtigt werden können. Naturgemäß wird ein sensitiver Suchalgorithmus, der alle richtig-positi- ven Läsionen findet, zunächst auch eine gewisse Anzahl falsch-positiver Kandida- ten generieren. Im nächsten Schritt werden verschie- dene Eigenschaften der Kandidaten analy- siert (Extraktion). Dabei kann es sich um Parameter handeln, die auch ein mensch- licher Untersucher berücksichtigen wür- de, wie Größe, Dichte oder Berandung. Darüber hinaus sind für den Computer aber auch visuell schwer oder nicht greif- bare Eigenschaften auf mathematischem Wege zugänglich. Informationstechnologie und Management Infobox 1 Der erste Teil des Beitrags zum Thema "Visu- alisierung und Segmentierung" erschien in  Ausgabe 09/2013 von Der Radiologe 1110 | Der Radiologe 12 · 2013

Upload: m

Post on 23-Dec-2016

214 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Bildnachverarbeitung Teil 2: Algorithmen und Workflow; Image postprocessing part 2: algorithms and workflow;

Radiologe 2013 · 53:1110–1114DOI 10.1007/s00117-013-2517-2Online publiziert: 14. November 2013© Springer-Verlag Berlin Heidelberg 2013

T. Baumann · M. LangerAbteilung Röntgendiagnostik, Universitätsklinikum Freiburg, Freiburg

Bildnachverarbeitung Teil 2: Algorithmen und Workflow

Im ersten Teil wurde bereits angedeu-tet, dass die für die Bildnachverarbeitung verfügbaren Algorithmen stets komple-xer und vielseitiger werden [2]. Wäh-rend bisher einige grundlegende Verfah-ren der Bildaufbereitung, Visualisierung und Segmentierung erläutert wurden, sol-len im zweiten Teil nun komplexere Algo-rithmen im Mittelpunkt stehen, die basie-rend auf den Bilddaten abstrakte Ergeb-nisse liefern oder Entscheidungen unter-stützen. Natürlich wird es für einen Ra-diologen im klinischen Alltag nicht mög-lich und vermutlich auch wenig von Nut-zen sein, die Funktionsweise aller von ihm direkt oder indirekt eingesetzten Nach-verarbeitungsverfahren im Detail zu ken-nen. Ein grundlegendes Verständnis typi-scher Architekturen und Funktionsweisen kann jedoch zur einer besseren Auswahl und einer effizienteren Nutzung derarti-ger Tools beitragen.

Natürlich endet für den Anwender die Bildnachverarbeitung nicht mit dem rei-nen Erstellen und Betrachten neu gewon-nener Bilder oder Parameter. Vielmehr er-fordert der radiologische Workflow eine Interpretation und Kommunikation die-ser Informationen im Rahmen der Be-funderstellung und -verteilung. Wie die Nachverarbeitung im Befundprozess technisch integriert werden kann, soll an-

hand ausgewählter Szenarien verdeutlicht werden.

Algorithmen

Die meisten fortgeschrittenen Nachverar-beitungstools, wie beispielsweise die auto-matische Erkennung bestimmter anato-mischer Strukturen oder Läsionen („com-puter-aided detection/diagnosis“, CAD), stellen für den Anwender eine Blackbox dar. Ein gewisses Frustrationspotenzial bei der Anwendung ergibt sich, wenn die Software für den menschlichen Benutzer scheinbar leicht vermeidbare Fehler regel-mäßig wiederholt oder aber korrekte Be-funde oder Werte erhebt, die für den Be-trachter schwer nachvollziehbar sind. Die folgende Systematik soll das Verständnis einiger dieser „typischen“ Verhaltenswei-sen komplexer Algorithmen erleichtern.

Unterteilung in Subprozesse

Während es dem Mensch häufig schwer fällt, genau zu erklären, wie und warum er eine bestimmte Entscheidung getroffen hat, beruht ein elektronischer Algorith-mus meist auf einer festgelegten Abfol-ge von Subprozessen und Entscheidungs-bäumen. Eine vereinfachte Prozesskette einer typischen CAD-Anwendung könn-te wie folgt aussehen (. Abb. 1; [3]).

Zunächst muss derjenige Bereich des Datensatzes definiert werden, der für die weitere Analyse relevant ist. Im Fall der Rundherddetektion handelt es sich da-bei um eine relativ einfache Segmentie-

rung der Lunge, die im Wesentlichen auf ihren niedrigen Dichtewerten beruht. Bei anderen Aufgaben, wie der virtuellen Ko-lonographie, kann bereits dieser Segmen-tierungsschritt relativ aufwendig sein. Die im Rahmen eines CAD erstellte Segmen-tierung des Datensatzes sollte für den An-wender sichtbar gemacht werden, da hier leicht erkennbare Fehlerquellen lauern: Abgeschnittene Läsionen werden automa-tisch übersehen, wohingegen angeschnit-tene Strukturen positive Befunde vortäu-schen können (Zwerchfellkuppe wird als Rundherd fehlinterpretiert).

In dem festgelegten Abschnitt schließt sich nun ein Suchvorgang an, durch den möglichst viele Kandidaten detektiert werden, die als gesuchten Strukturen in Frage kommen. Dieser Schritt legt folglich die maximale Sensitivität der Methode fest, da Läsionen, die nicht als Kandida-ten ausgewählt werden, auch im weiteren Prozess nicht mehr berücksichtigt werden können. Naturgemäß wird ein sensitiver Suchalgorithmus, der alle richtig-positi-ven Läsionen findet, zunächst auch eine gewisse Anzahl falsch-positiver Kandida-ten generieren.

Im nächsten Schritt werden verschie-dene Eigenschaften der Kandidaten analy-siert (Extraktion). Dabei kann es sich um Parameter handeln, die auch ein mensch-licher Untersucher berücksichtigen wür-de, wie Größe, Dichte oder Berandung. Darüber hinaus sind für den Computer aber auch visuell schwer oder nicht greif-bare Eigenschaften auf mathematischem Wege zugänglich.

Informationstechnologie und Management

Infobox 1

Der erste Teil des Beitrags zum Thema "Visu-alisierung und Segmentierung" erschien in Ausgabe 09/2013 von Der Radiologe

1110 |  Der Radiologe 12 · 2013

Page 2: Bildnachverarbeitung Teil 2: Algorithmen und Workflow; Image postprocessing part 2: algorithms and workflow;

Abschließend erfolgt eine Klassifika-tion, bei der anhand der gesammelten Eigenschaften entschieden wird, ob es sich bei einem Kandidaten nun um eine echte oder falsche Läsion handelt. Somit ist dieser Teilprozess wesentlich für die Spezifität des Gesamtalgorithmus ver-antwortlich. Manche Algorithmen gene-rieren im Rahmen dieses Entscheidungs-prozesses einen Konfidenzwert, der die Wahrscheinlichkeit angibt, mit der es sich um eine echte Läsion handelt. Die endgül-tigen Darstellung wird dann anhand eines interaktiven Schwellwerts bestimmt, so-dass der Betrachter selbst seine Arbeits-weise beeinflussen kann: Bei einem nied-rigen Schwellwert werden die meisten Läsionen markiert, es gibt aber auch vie-le falsch-positive Anzeigen. Bei einem ho-hen Schwellwert gibt es kaum falsch-posi-tive Befunde, möglicherweise werden aber echte Läsionen übersehen.

Die Einzelparameter unterliegen im Rahmen der Klassifikation einer gewis-sen Filterung, die den Einfluss von Aus-

reißern oder Messfehlern mindern soll. So werden Läsionen z. B. nur bis zu einer gewissen Maximalgröße akzeptiert. Die wichtigsten dieser Eckdaten sollten für den Benutzer transparent sein, da ein nicht markierter großer Tumor dem Pro-gramm sonst fälschlicherweise als grober Fehler angelastet wird.

Analyse visuell verborgener Eigenschaften

Im Rahmen der Nachverarbeitung kön-nen auch solche Eigenschaften aus ra-diologischen Untersuchungen extrahiert werden, die bei noch so genauer Beob-achtung für einen menschlichen Betrach-ter nicht beurteilbar sind. Die so genann-te Texturanalyse umfasst dabei die mathe-matisch-statistische Betrachtung der Ver-teilung von Dichte- oder Signalwerten in einer Struktur, beispielsweise einem Tu-mor. Die einfachsten Berechnungen (Tex-turen erster Ordnung) beziehen sich auf die Parameter, die direkt aus dem Histo-

gramm der Einzelwerte gewonnen wer-den können: Durchschnitt, Varianz, Steil-heit und Schiefe der Verteilung sowie verschiedene Perzentilen. Darüber hin-aus können komplexere Zusammenhän-ge wie die Verteilung von Gradienten, die Homogenität in bestimmten Bereichen, Richtungen oder Distanzen ebenso wie Ähnlichkeitskriterien oder Wavelettrans-formation evaluiert werden. Die Bedeu-tung der Textur von Organen und Tumo-ren als Biomarker wird momentan inten-siv diskutiert und erforscht. Die Erken-nung und Graduierung der Leberfibrose und des Lungenemphysems sowie biolo-gische Eigenschaften von Tumoren und sogar das Überleben von Tumorpatienten konnten bereits mit Texturen in Zusam-menhang gebracht werden [1, 4].

Ansätze zur Beschleunigung

Neben der Genauigkeit und der klini-schen Relevanz der Ergebnisse hängt die Akzeptanz vieler Werkzeuge auch von ihrer Geschwindigkeit ab. Neben Verbes-serungen der Hardware sowie der Paral-lelisierung einzelner Rechenschritte wird auch auf Ebene der Algorithmen selbst eine Beschleunigung angestrebt. Natür-lich gibt es auch hier eine große Band-breite an Möglichkeiten, aber einige Bei-spiele aus dem Bereich des „volume ren-dering“ sollen die grundsätzliche Heran-gehensweise verdeutlichen:

Die Methode zum „rendering“, die der tatsächlichen Ausbreitung von Licht am nächsten käme, wäre die Berechnung der Lichtstrahlen, die von jedem einzelnen Voxel des Datensatzes ausgehen. Da aber nur ein kleiner Teil dieser Lichtstrahlen in das Auge eines virtuellen Betrachters fallen würde, ist diese Methode sehr in-effizient. Man geht daher den umgekehr-ten Weg und schickt virtuelle Lichtstrah-len vom Augpunkt durch die Pixel der Be-trachtungsebene in die dreidimensionale Szene. Beim „raytracing“ werden zusätz-liche Strahlen für die korrekte Darstellung von Reflexionen und Beugungen verwen-det („recasting“). Da die Datenqualität ra-diologischer 3-D-Datensätze die Berück-sichtigung dieser Effekte meist weder er-laubt noch erfordert, kommt das einfache-re „raycasting“ zum Einsatz, das pro Pixel nur einen Strahl verwendet.

Abb. 1 8 Schematische Prozesskette einer CAD-Anwendung am Beispiel einer fiktiven Rundherder-kennung. Auf die Segmentierung der Lunge folgt die Detektion möglichst aller Kandidaten, die als Rundherde in Frage kommen. Als Eigenschaften werden in diesem Beispiel die maximalen Diame-ter in transversaler (tra) und koronarer (cor) Schichtführung vermessen und deren Quotient (Exzentri-zität, exz.) berechnet. Die endgültige Klassifikation hängt dann vom Schwellwert ab. Tatsächlich han-delt es sich nur bei dem dorsalsten Befund um einen echten Rundherd. CAD „computer-aided detec-tion/diagnosis“

1111Der Radiologe 12 · 2013  | 

Page 3: Bildnachverarbeitung Teil 2: Algorithmen und Workflow; Image postprocessing part 2: algorithms and workflow;

Dennoch wäre das vollständige Ren-dern eines großen CT-Datensatzes auch mittels „raycasting“ für eine interaktive Betrachtung immer noch zu zeitinten-siv, sodass weitere Beschleunigungsver-fahren zum Einsatz kommen [7]. Zum einen werden Strahlen, die eine akkumu-lierte Opazität von 1 erreicht haben, ab-gebrochen („early ray termination“). Da-bei werden Bereiche des Datensatzes von der Berechnung von vornherein ausge-schlossen, die von undurchsichtigen Ob-jekten komplett verdeckt werden („oc-clusion culling“). Zum anderen wird die Struktur des Volumendatensatzes so ver-einfacht, dass immer 8 benachbarte Voxel zu einem Block zusammengefasst werden („octree“). Acht benachbarte Blöcke erge-ben wieder einen größeren Block und so weiter. Für jeden Block wird neben den Raumkoordinaten die maximale und mi-nimale Dichte der 8 Unterteile gespei-chert. Beim Rendern werden die Blöcke dann in hierarchischer Reihenfolge be-arbeitet. Vergleicht man die Maximal- und Minimalwerte eines Blocks mit der Transferfunktion, kann sich die Betrach-tung tieferer Ebenen erübrigen. Die Zahl der Rechenschritte lässt sich so bei großen homogenen Datenbereichen, wie der um-gebenden Luft, drastisch reduzieren.

Grad der Benutzerinteraktion

Meist erwartet man als Benutzer von mo-derner Software einen besonders ho-hen Grad an Automatisierung. Diese Er-wartungshaltung ist angesichts der tech-nischen Möglichkeiten auch berechtigt. Dennoch gibt es durchaus Teilprozesse, die für den Computer alleine sehr schwer und daher fehleranfällig sein können, während der Mensch diese Aufgabe prob-lemlos übernehmen könnte, wie beispiels-weise die Identifikation eines bestimmten Gefäßes. Ebenso stellt sich die Frage, wel-che relevanten Zwischenschritte dem Be-nutzer zur Kontrolle oder zumindest als nachträgliche Korrekturoption angeboten werden sollen. Ein durchdachtes Maß an Interaktion kann also das Gesamtergeb-nis positiv beeinflussen und gleichzeitig effizient sein. An welchem Punkt der Be-arbeitungskette eine Benutzerinteraktion aber sinnvoll platziert werden kann, ohne dass es zu ungewünschten Verzögerungen

kommt, ist eng mit der technischen Integ-ration der Nachverarbeitung in den radio-logischen Workflow verbunden.

Workflow

Aufgrund der höheren Hardwareanfor-derungen wurden spezialisierte Anwen-dungen zur Bildnachverarbeitung lange auf dedizierten Workstations eingerichtet (. Abb. 2). Heute existiert dieses Konzept v. a. noch in Form der so genannten Mo-dalitätenworkstations, die mit den Scan-nern im Paket angeschafft und betrie-ben werden. Häufig dienen diese Work-stations zur erweiterten Rekonstruktion und Abarbeitung standardisierter Nach-verarbeitungen. Für die direkte Nutzung im Befundungsprozess selbst ergeben sich jedoch entscheidende Nachteile:F  Hardware und Software bilden ein

abgeschlossenes System, so dass ver-schiedene Aufgaben ggf. verschiedene Workstations erfordern,

F  die Workstation befindet sich an einem festen Ort und muss zur Be-nutzung extra aufgesucht werden,

F  auf der Workstation selbst ist kei-ne Befundungssoftware (Picture Ar-chiving and Communication System [PACS], Radiologieinformationssys-tem [RIS], Diktiersystem etc.) verfüg-bar,

F  die Bilddaten müssen extra an jede Workstation übertragen werden.

Der Fortschritt bei Hard- und Software hat dazu geführt, dass für grundlegende Nachverarbeitungsalgorithmen eine Inte-gration in den radiologischen Arbeitsplatz, also den PACS-Viewer, möglich wurde. So sind viele der in Teil 1 angesprochenen Visualisierungsmethoden heute auf Stan-dardsystemen verfügbar.

Wenn eine bestimmte Anwendung höhere Ansprüche an die Hardware stellt, gleichzeitig aber an verschiedenen Arbeitsplätzen zur Verfügung stehen soll, kommen heute meist Client-Server-Lö-sungen zum Einsatz [6]. Dabei erfolgt die eigentliche Datenspeicherung und Be-rechnung auf einem spezialisierten Ser-ver. Bedienung und Steuerung dieses Ser-vers erfolgen jedoch durch kleinere Pro-gramme mit niedrigeren Anforderungen, den so genannten Clients. Diese können

Zusammenfassung · Abstract

Radiologe 2013 · 53:1110–1114DOI 10.1007/s00117-013-2517-2© Springer-Verlag Berlin Heidelberg 2013

T. Baumann · M. Langer

Bildnachverarbeitung. Teil 2: Algorithmen und Workflow

ZusammenfassungÜber die Verfahren zur reinen Visualisierung hinaus bietet die moderne Bildnachverarbei-tung eine breite Palette an Algorithmen zur komplexen Analyse radiologischer Daten-sätze. Die Kenntnis charakteristischer Eigen-schaften und typischer Konzepte dieser Al-gorithmen erlaubt dem ärztlichen Anwender eine bessere Auswahl der zur Verfügung ste-henden Systeme sowie eine effizientere und erfolgreichere Nutzung. Zusätzlich zur reinen Funktion der Algorithmen kommt der Integ-ration in den radiologischen Workflow eine große Bedeutung zu. Hierfür steht eine gan-ze Reihe verschiedener Szenarien zur Verfü-gung. Die genaue Formulierung der Zielset-zungen einer Installation sowie die Analy-se der bestehenden Infrastruktur bilden die Grundlage einer erfolgreichen Integration.

SchlüsselwörterNachverarbeitung · Integration · „Computer-aided detection“ (CAD) · Infrastruktur · Befundprozess

Image postprocessing, part 2: algorithms and workflow

AbstractApart from various display options, a large variety of complex algorithms to analyze ra-diological datasets have become available by means of advanced visualization. Basic knowledge of common concepts and prop-erties allows the physician to choose and employ these algorithms more efficient-ly and successfully. In addition to functional-ity alone, the seamless integration of these methods into the radiological workflow is of special importance. Different scenarios can be implemented to achieve this integration. Detailed information on the individual goals of an installation and on the existing infra-structure represent prerequisites for success-ful integration.

KeywordsPostprocessing · Integration · Computer-aided detection (CAD) · Infrastructure · Diagnostics

1112 |  Der Radiologe 12 · 2013

Page 4: Bildnachverarbeitung Teil 2: Algorithmen und Workflow; Image postprocessing part 2: algorithms and workflow;

dann an einer Vielzahl von Arbeitsplätzen verfügbar gemacht werden. Je nachdem wie die Rechenleistung zwischen Server und Client verteilt wird, spricht man vom „thick client“ (viel Leistung auf Seite des Clients) oder vom „thin client“ (wenig

Leistung auf Seite des Clients). Ein Spe-zialfall der „thin clients“ sind reine Web-anwendungen, die kaum noch speziali-sierte Anforderungen an die Hard- oder Softwareumgebung stellen und nur einen Browser für ihren Betrieb benötigen.

Ist bereits eine umfangreiche IT-Inf-rastruktur vorhanden, muss hinterfragt werden, ob jede serverseitige Funktiona-lität tatsächlich in Form neuer Hardware beschafft werden muss. Um ein besseres und gezielteres Management von Hard- und Software zu ermöglichen, werden heute bereits häufig virtualisierte Server angeboten. Dabei entspricht ein Server nicht mehr einem echten Gerät, sondern er wird selbst als Programm in einer be-reits vorhandenen Architektur eingerich-tet.

Kommuniziert man mit einem vir-tualisierten Nachverarbeitungspro-gramm nur noch über ein Web-Inter-face, erscheint es zunehmend unwichti-ger, an welchem Ort die eigentliche Ser-verleistung erbracht wird. Man könnte al-so die Rechenleistung gar nicht selbst zur Verfügung stellen, sondern nur den Ser-vice von einem Anbieter über das Inter-net beziehen. Ob dieser Service dann von einem einzigen Server erbracht wird oder die Aufgaben im Hintergrund an Dritte aufgeteilt und weitergeleitet werden, ist für den Anwender weder nachvollzieh-bar noch ausschlaggebend. So ließen sich auch Dienstleistungen verschiedener An-bieter in einem Portal kombinieren. Die-se teils schon realisierte Vision wird als Cloud Computing bezeichnet [5]. Auch wenn sich hier in Zukunft viele interes-sante Anwendungen ergeben werden und viele Hersteller die Cloud als werbewirk-sames Schlagwort entdeckt haben, sind die Bedenken aus datenschutzrechtlicher Sicht momentan noch immens. Als Zwi-schenlösung bieten manche Hersteller so genannte Private Clouds an. Dabei han-delt es sich letztendlich um eine virtuali-sierte Client-Server-Lösung, die komplett beim Kunden installiert wird, aber Kom-munikationstechnologie nutzt, die auch für den Anschluss an eine echte externe Cloud zum Einsatz kämen.

Aufgrund der zunehmenden Verbrei-tung von Client-Server-Lösungen können heute verschiedenste Serveranwendungen von einem Arbeitsplatz aus genutzt wer-den. Oberfläche und Bedienerführung der Anwendungen unterscheiden sich aber z. T. so stark, dass der schnelle Wech-sel zwischen den Programmen den Benut-zer eher verwirrt. Ein Ansatz, die Nach-verarbeitung tiefer zu verankern und da-

Abb. 2 8 Vier Szenarien der Workflowintegration für „advanced visualization“: als separate Worksta-tion oder Erweiterung der vorhandenen Befundstation (orange); als Server-Client-Lösung (grün) oder durch externe Anbieter mittels Cloud-Computing (dunkelrot). PACS Picture Archiving and Communica-tion System

1113Der Radiologe 12 · 2013  | 

Page 5: Bildnachverarbeitung Teil 2: Algorithmen und Workflow; Image postprocessing part 2: algorithms and workflow;

rüber in Zukunft ein einheitliches „Ge-sicht“ auch für Anwendungen verschie-dener Hersteller zu ermöglichen, bietet das „application hosting“ [6]. Im DICOM-Standard (Digital Imaging and Commu-nications in Medicine) sind hierfür bereits Schnittstellen definiert, aber die kommer-zielle Nutzung in größerem Rahmen lässt noch auf sich warten.

Fazit

Die Bildnachverarbeitung bietet heu-te ein breites Spektrum an Darstellungs-formen und Auswertungen für verschie-denste klinische Anwendungsgebiete. Über die reine Funktionalität der Algo-rithmen oder Werkzeuge hinaus wird die Zufriedenheit des Anwenders maßgeb-lich durch eine reibungslose Integration in den jeweiligen Arbeits- und Befundab-lauf beeinflusst. Daher gibt es auch kei-ne allgemeingültigen Regeln, welches der oben geschilderten Integrationssze-narien zu bevorzugen ist. Vielmehr sind die Anforderungen der jeweiligen Praxis oder Abteilung sowie die bestehende In-frastruktur zu berücksichtigen. Darüber hinaus sind Konzepte für die Verwaltung der Archive und Speicher, die Zugriffs-teuerung, die angebotenen Lizenzmo-delle sowie Möglichkeiten zur Übernah-me von Ergebnissen in die Befundsyste-me zu beachten.

Korrespondenzadresse

Dr. T. BaumannAbteilung Röntgendiagnostik,  Universitätsklinikum Freiburg,Hugstetter Str. 55, 79106 [email protected]

Einhaltung ethischer Richtlinien

Interessenkonflikt.  T. Baumann und M. Langer geben an, dass kein Interessenkonflikt besteht. 

Dieser Beitrag beinhaltet keine Studien an Menschen oder Tieren.

Literatur

  1.  Bahl G, Cruite I, Wolfson T et al (2012) Noninvasive classification of hepatic fibrosis based on texture parameters from double contrast-enhanced ma-gnetic resonance images. J Magn Reson Imaging 36(5):1154–1161

  2.  Baumann T, Langer M (2013) Bildnachverarbeitung Teil 1: Visualisierung und Segmentierung. Radiolo-ge. doi:10.1007/s00117-013-2513-6

  3.  Liang J, Bi J (2007) Computer aided detection of pulmonary embolism with tobogganing and mu-tiple instance classification in CT pulmonary an-giography. Inf Process Med Imaging 20:630–641

  4.  Ng F, Ganeshan B, Kozarski R et al (2013) Assess-ment of primary colorectal cancer heterogeneity by using whole-tumor texture analysis: contrast-enhanced CT texture as a biomarker of 5-year sur-vival. Radiology 266(1):177–184

  5.  Philbin J, Prior F, Nagy P (2011) Will the next gene-ration of PACS be sitting on a cloud? J Digit Ima-ging 24(2):179–183

  6.  Wang KC, Filice RW, Philbin JF et al (2011) Five le-vels of PACS modularity: integrating 3D and ot-her advanced visualization tools. J Digit Imaging 24(6):1096–1102

  7.  Xie K, Yang J, Zhu YM (2008) Real-time visuali-zation of large volume datasets on standard PC hardware. Comput Methods Programs Biomed 90(2):117–123

Kommentieren Sie diesen Beitrag auf springermedizin.de

7 Geben Sie hierzu den Bei-tragstitel in die Suche ein und nutzen Sie anschließend die Kommentarfunktion am Bei-tragsende.

1114 |  Der Radiologe 12 · 2013

Neuer Operationen- und Prozedurenschlüssel veröffentlicht

Das Deutsche Institut für Medizinische Do-

kumentation und Information (DIMDI) hat 

die neue Version 2014 des Operationen- 

und Prozedurenschlüssels (OPS) veröffent-

licht. Die wichtigsten Neuerungen sind im 

Kommentar im Vorspann des systemati-

schen Verzeichnisses enthalten.

Der OPS bildet die Grundlage für die Leis-

tungsabrechnung der German Diagnosis 

Related Groups (G-DRG). Nach dem OPS 

müssen Operationen und Prozeduren im 

ambulanten und stationären Bereich ver-

schlüsselt werden. Die Kodierung erfolgt 

auf Grundlage des Systematischen Ver-

zeichnisses des Schlüssels.

Wichtige Änderungen in der Version 2013 

sind unter anderem die Ergänzung und 

Verbesserung von Kodes für die Neuro-

stimulation sowie die Ergänzung der 

Beispiellisten für die Chemotherapie. Die 

Kodes für die erweiterte Magenresektion 

wurden gestrichen und die Hinweise zur 

neurologischen Komplexbehandlung des 

akuten Schlaganfalls ergänzt. Außerdem 

wurden neue Zusatzkodes für den Bereich 

der Psychiatrie und Psychosomatik aufge-

nommen. Für diesen Bereich gibt es zudem 

im OPS 2014 den neuen Anhang „Therapie-

einheiten Psych“.

Bei den Metadaten wurden zwei neue 

Felder ergänzt, die die Kennzeichnung für 

Zusatzkodes oder Einmalkodes enthalten.

Für den OPS 2014 wird die EDV-Fassung 

ASCII zum letzten Mal bereitgestellt. Ab 

2015 sollen stattdessen das von der WHO 

empfohlene Standardformat ClaML oder 

die Metadaten verwendet werden.

Der OPS 2014 ist auf der Internetseite des 

DIMDI kostenfrei erhältlich.

Quelle: Deutsches Institut für Medizinische

Dokumentation und Information (DIMDI),

www.dimdi.de

Fachnachrichten