Bildnachverarbeitung Teil 2: Algorithmen und Workflow; Image postprocessing part 2: algorithms and workflow;

Download Bildnachverarbeitung Teil 2: Algorithmen und Workflow; Image postprocessing part 2: algorithms and workflow;

Post on 23-Dec-2016

213 views

Category:

Documents

0 download

Embed Size (px)

TRANSCRIPT

  • Radiologe201353:11101114DOI10.1007/s00117-013-2517-2Onlinepubliziert:14.November2013Springer-VerlagBerlinHeidelberg2013

    T.BaumannM.LangerAbteilungRntgendiagnostik,UniversittsklinikumFreiburg,Freiburg

    BildnachverarbeitungTeil2:AlgorithmenundWorkflow

    Im ersten Teil wurde bereits angedeu-tet, dass die fr die Bildnachverarbeitung verfgbaren Algorithmen stets komple-xer und vielseitiger werden [2]. Wh-rend bisher einige grundlegende Verfah-ren der Bildaufbereitung, Visualisierung und Segmentierung erlutert wurden, sol-len im zweiten Teil nun komplexere Algo-rithmen im Mittelpunkt stehen, die basie-rend auf den Bilddaten abstrakte Ergeb-nisse liefern oder Entscheidungen unter-sttzen. Natrlich wird es fr einen Ra-diologen im klinischen Alltag nicht mg-lich und vermutlich auch wenig von Nut-zen sein, die Funktionsweise aller von ihm direkt oder indirekt eingesetzten Nach-verarbeitungsverfahren im Detail zu ken-nen. Ein grundlegendes Verstndnis typi-scher Architekturen und Funktionsweisen kann jedoch zur einer besseren Auswahl und einer effizienteren Nutzung derarti-ger Tools beitragen.

    Natrlich endet fr den Anwender die Bildnachverarbeitung nicht mit dem rei-nen Erstellen und Betrachten neu gewon-nener Bilder oder Parameter. Vielmehr er-fordert der radiologische Workflow eine Interpretation und Kommunikation die-ser Informationen im Rahmen der Be-funderstellung und -verteilung. Wie die Nachverarbeitung im Befundprozess technisch integriert werden kann, soll an-

    hand ausgewhlter Szenarien verdeutlicht werden.

    Algorithmen

    Die meisten fortgeschrittenen Nachverar-beitungstools, wie beispielsweise die auto-matische Erkennung bestimmter anato-mischer Strukturen oder Lsionen (com-puter-aided detection/diagnosis, CAD), stellen fr den Anwender eine Blackbox dar. Ein gewisses Frustrationspotenzial bei der Anwendung ergibt sich, wenn die Software fr den menschlichen Benutzer scheinbar leicht vermeidbare Fehler regel-mig wiederholt oder aber korrekte Be-funde oder Werte erhebt, die fr den Be-trachter schwer nachvollziehbar sind. Die folgende Systematik soll das Verstndnis einiger dieser typischen Verhaltenswei-sen komplexer Algorithmen erleichtern.

    UnterteilunginSubprozesse

    Whrend es dem Mensch hufig schwer fllt, genau zu erklren, wie und warum er eine bestimmte Entscheidung getroffen hat, beruht ein elektronischer Algorith-mus meist auf einer festgelegten Abfol-ge von Subprozessen und Entscheidungs-bumen. Eine vereinfachte Prozesskette einer typischen CAD-Anwendung knn-te wie folgt aussehen (.Abb.1; [3]).

    Zunchst muss derjenige Bereich des Datensatzes definiert werden, der fr die weitere Analyse relevant ist. Im Fall der Rundherddetektion handelt es sich da-bei um eine relativ einfache Segmentie-

    rung der Lunge, die im Wesentlichen auf ihren niedrigen Dichtewerten beruht. Bei anderen Aufgaben, wie der virtuellen Ko-lonographie, kann bereits dieser Segmen-tierungsschritt relativ aufwendig sein. Die im Rahmen eines CAD erstellte Segmen-tierung des Datensatzes sollte fr den An-wender sichtbar gemacht werden, da hier leicht erkennbare Fehlerquellen lauern: Abgeschnittene Lsionen werden automa-tisch bersehen, wohingegen angeschnit-tene Strukturen positive Befunde vortu-schen knnen (Zwerchfellkuppe wird als Rundherd fehlinterpretiert).

    In dem festgelegten Abschnitt schliet sich nun ein Suchvorgang an, durch den mglichst viele Kandidaten detektiert werden, die als gesuchten Strukturen in Frage kommen. Dieser Schritt legt folglich die maximale Sensitivitt der Methode fest, da Lsionen, die nicht als Kandida-ten ausgewhlt werden, auch im weiteren Prozess nicht mehr bercksichtigt werden knnen. Naturgem wird ein sensitiver Suchalgorithmus, der alle richtig-positi-ven Lsionen findet, zunchst auch eine gewisse Anzahl falsch-positiver Kandida-ten generieren.

    Im nchsten Schritt werden verschie-dene Eigenschaften der Kandidaten analy-siert (Extraktion). Dabei kann es sich um Parameter handeln, die auch ein mensch-licher Untersucher bercksichtigen wr-de, wie Gre, Dichte oder Berandung. Darber hinaus sind fr den Computer aber auch visuell schwer oder nicht greif-bare Eigenschaften auf mathematischem Wege zugnglich.

    Informationstechnologie und Management

    Infobox 1

    DerersteTeildesBeitragszumThema"Visu-alisierungundSegmentierung"erschieninAusgabe09/2013vonDer Radiologe

    1110 | DerRadiologe122013

  • Abschlieend erfolgt eine Klassifika-tion, bei der anhand der gesammelten Eigenschaften entschieden wird, ob es sich bei einem Kandidaten nun um eine echte oder falsche Lsion handelt. Somit ist dieser Teilprozess wesentlich fr die Spezifitt des Gesamtalgorithmus ver-antwortlich. Manche Algorithmen gene-rieren im Rahmen dieses Entscheidungs-prozesses einen Konfidenzwert, der die Wahrscheinlichkeit angibt, mit der es sich um eine echte Lsion handelt. Die endgl-tigen Darstellung wird dann anhand eines interaktiven Schwellwerts bestimmt, so-dass der Betrachter selbst seine Arbeits-weise beeinflussen kann: Bei einem nied-rigen Schwellwert werden die meisten Lsionen markiert, es gibt aber auch vie-le falsch-positive Anzeigen. Bei einem ho-hen Schwellwert gibt es kaum falsch-posi-tive Befunde, mglicherweise werden aber echte Lsionen bersehen.

    Die Einzelparameter unterliegen im Rahmen der Klassifikation einer gewis-sen Filterung, die den Einfluss von Aus-

    reiern oder Messfehlern mindern soll. So werden Lsionen z. B. nur bis zu einer gewissen Maximalgre akzeptiert. Die wichtigsten dieser Eckdaten sollten fr den Benutzer transparent sein, da ein nicht markierter groer Tumor dem Pro-gramm sonst flschlicherweise als grober Fehler angelastet wird.

    AnalysevisuellverborgenerEigenschaften

    Im Rahmen der Nachverarbeitung kn-nen auch solche Eigenschaften aus ra-diologischen Untersuchungen extrahiert werden, die bei noch so genauer Beob-achtung fr einen menschlichen Betrach-ter nicht beurteilbar sind. Die so genann-te Texturanalyse umfasst dabei die mathe-matisch-statistische Betrachtung der Ver-teilung von Dichte- oder Signalwerten in einer Struktur, beispielsweise einem Tu-mor. Die einfachsten Berechnungen (Tex-turen erster Ordnung) beziehen sich auf die Parameter, die direkt aus dem Histo-

    gramm der Einzelwerte gewonnen wer-den knnen: Durchschnitt, Varianz, Steil-heit und Schiefe der Verteilung sowie verschiedene Perzentilen. Darber hin-aus knnen komplexere Zusammenhn-ge wie die Verteilung von Gradienten, die Homogenitt in bestimmten Bereichen, Richtungen oder Distanzen ebenso wie hnlichkeitskriterien oder Wavelettrans-formation evaluiert werden. Die Bedeu-tung der Textur von Organen und Tumo-ren als Biomarker wird momentan inten-siv diskutiert und erforscht. Die Erken-nung und Graduierung der Leberfibrose und des Lungenemphysems sowie biolo-gische Eigenschaften von Tumoren und sogar das berleben von Tumorpatienten konnten bereits mit Texturen in Zusam-menhang gebracht werden [1, 4].

    AnstzezurBeschleunigung

    Neben der Genauigkeit und der klini-schen Relevanz der Ergebnisse hngt die Akzeptanz vieler Werkzeuge auch von ihrer Geschwindigkeit ab. Neben Verbes-serungen der Hardware sowie der Paral-lelisierung einzelner Rechenschritte wird auch auf Ebene der Algorithmen selbst eine Beschleunigung angestrebt. Natr-lich gibt es auch hier eine groe Band-breite an Mglichkeiten, aber einige Bei-spiele aus dem Bereich des volume ren-dering sollen die grundstzliche Heran-gehensweise verdeutlichen:

    Die Methode zum rendering, die der tatschlichen Ausbreitung von Licht am nchsten kme, wre die Berechnung der Lichtstrahlen, die von jedem einzelnen Voxel des Datensatzes ausgehen. Da aber nur ein kleiner Teil dieser Lichtstrahlen in das Auge eines virtuellen Betrachters fallen wrde, ist diese Methode sehr in-effizient. Man geht daher den umgekehr-ten Weg und schickt virtuelle Lichtstrah-len vom Augpunkt durch die Pixel der Be-trachtungsebene in die dreidimensionale Szene. Beim raytracing werden zustz-liche Strahlen fr die korrekte Darstellung von Reflexionen und Beugungen verwen-det (recasting). Da die Datenqualitt ra-diologischer 3-D-Datenstze die Berck-sichtigung dieser Effekte meist weder er-laubt noch erfordert, kommt das einfache-re raycasting zum Einsatz, das pro Pixel nur einen Strahl verwendet.

    Abb. 18SchematischeProzessketteeinerCAD-AnwendungamBeispieleinerfiktivenRundherder-kennung.AufdieSegmentierungderLungefolgtdieDetektionmglichstallerKandidaten,diealsRundherdeinFragekommen.AlsEigenschaftenwerdenindiesemBeispieldiemaximalenDiame-terintransversaler(tra)undkoronarer(cor)SchichtfhrungvermessenundderenQuotient(Exzentri-zitt,exz.)berechnet.DieendgltigeKlassifikationhngtdannvomSchwellwertab.Tatschlichhan-deltessichnurbeidemdorsalstenBefundumeinenechtenRundherd.CADcomputer-aideddetec-tion/diagnosis

    1111DerRadiologe122013 |

  • Dennoch wre das vollstndige Ren-dern eines groen CT-Datensatzes auch mittels raycasting fr eine interaktive Betrachtung immer noch zu zeitinten-siv, sodass weitere Beschleunigungsver-fahren zum Einsatz kommen [7]. Zum einen werden Strahlen, die eine akkumu-lierte Opazitt von 1 erreicht haben, ab-gebrochen (early ray termination). Da-bei werden Bereiche des Datensatzes von der Berechnung von vornherein ausge-schlossen, die von undurchsichtigen Ob-jekten komplett verdeckt werden (oc-clusion culling). Zum anderen wird die Struktur des Volumendatensatzes so ver-einfacht, dass immer 8 benachbarte Voxel zu einem Block zusammengefasst werden (octree). Acht benachbarte Blcke erge-ben wieder einen greren Block und so weiter. Fr jeden Block wird neben den Raumkoordinaten die maximale und mi-nimale Dichte der 8 Unterteile gespei-chert. Beim Rendern werden die Blcke dann in hierarchischer Reihenfolge be-arbeitet. Vergleicht man die Maximal- und Minimalwerte eines Blocks mit der Transferfunktion, kann sich die Betrach-tung tieferer Ebenen erbrigen. Die Zahl der Rechenschritte lsst sich so bei groen homogenen Datenbereichen, wie der um-gebenden Luft, drastisch reduzieren.

    GradderBenutzerinteraktion

    Meist erwartet man als Benutzer von mo-derner Software einen besonders ho-hen Grad an Automatisierung. Diese Er-wartungshaltung ist angesichts der tech-nischen Mglichkeiten auch berechtigt. Dennoch gibt es durchaus Teilprozesse, die fr den Computer alleine sehr schwer und daher fehleranfllig sein knnen, whrend der Mensch diese Aufgabe prob-lemlos bernehmen knnte, wie beispiels-weise die Identifikation eines bestimmten Gefes. Ebenso stellt sich die Frage, wel-che relevanten Zwischenschritte dem Be-nutzer zur Kontrolle oder zumindest als nachtrgliche Korrekturoption angeboten werden sollen. Ein durchdachtes Ma an Interaktion kann also das Gesamtergeb-nis positiv beeinflussen und gleichzeitig effizient sein. An welchem Punkt der Be-arbeitungskette eine Benutzerinteraktion aber sinnvoll platziert werden kann, ohne dass es zu ungewnschten Verzgerungen

    kommt, ist eng mit der technischen Integ-ration der Nachverarbeitung in den radio-logischen Workflow verbunden.

    Workflow

    Aufgrund der hheren Hardwareanfor-derungen wurden spezialisierte Anwen-dungen zur Bildnachverarbeitung lange auf dedizierten Workstations eingerichtet (.Abb.2). Heute existiert dieses Konzept v. a. noch in Form der so genannten Mo-dalittenworkstations, die mit den Scan-nern im Paket angeschafft und betrie-ben werden. Hufig dienen diese Work-stations zur erweiterten Rekonstruktion und Abarbeitung standardisierter Nach-verarbeitungen. Fr die direkte Nutzung im Befundungsprozess selbst ergeben sich jedoch entscheidende Nachteile:FHardware und Software bilden ein

    abgeschlossenes System, so dass ver-schiedene Aufgaben ggf. verschiedene Workstations erfordern,

    Fdie Workstation befindet sich an einem festen Ort und muss zur Be-nutzung extra aufgesucht werden,

    Fauf der Workstation selbst ist kei-ne Befundungssoftware (Picture Ar-chiving and Communication System [PACS], Radiologieinformationssys-tem [RIS], Diktiersystem etc.) verfg-bar,

    Fdie Bilddaten mssen extra an jede Workstation bertragen werden.

    Der Fortschritt bei Hard- und Software hat dazu gefhrt, dass fr grundlegende Nachverarbeitungsalgorithmen eine Inte-gration in den radiologischen Arbeitsplatz, also den PACS-Viewer, mglich wurde. So sind viele der in Teil 1 angesprochenen Visualisierungsmethoden heute auf Stan-dardsystemen verfgbar.

    Wenn eine bestimmte Anwendung hhere Ansprche an die Hardware stellt, gleichzeitig aber an verschiedenen Arbeitspltzen zur Verfgung stehen soll, kommen heute meist Client-Server-L-sungen zum Einsatz [6]. Dabei erfolgt die eigentliche Datenspeicherung und Be-rechnung auf einem spezialisierten Ser-ver. Bedienung und Steuerung dieses Ser-vers erfolgen jedoch durch kleinere Pro-gramme mit niedrigeren Anforderungen, den so genannten Clients. Diese knnen

    Zusammenfassung Abstract

    Radiologe201353:11101114DOI10.1007/s00117-013-2517-2Springer-VerlagBerlinHeidelberg2013

    T.BaumannM.Langer

    Bildnachverarbeitung. Teil 2: Algorithmen und Workflow

    ZusammenfassungberdieVerfahrenzurreinenVisualisierunghinausbietetdiemoderneBildnachverarbei-tungeinebreitePaletteanAlgorithmenzurkomplexenAnalyseradiologischerDaten-stze.DieKenntnischarakteristischerEigen-schaftenundtypischerKonzeptedieserAl-gorithmenerlaubtdemrztlichenAnwendereinebessereAuswahlderzurVerfgungste-hendenSystemesowieeineeffizientereunderfolgreichereNutzung.ZustzlichzurreinenFunktionderAlgorithmenkommtderInteg-rationindenradiologischenWorkfloweinegroeBedeutungzu.Hierfrstehteinegan-zeReiheverschiedenerSzenarienzurVerf-gung.DiegenaueFormulierungderZielset-zungeneinerInstallationsowiedieAnaly-sederbestehendenInfrastrukturbildendieGrundlageeinererfolgreichenIntegration.

    SchlsselwrterNachverarbeitungIntegrationComputer-aideddetection(CAD)InfrastrukturBefundprozess

    Image postprocessing, part 2: algorithms and workflow

    AbstractApartfromvariousdisplayoptions,alargevarietyofcomplexalgorithmstoanalyzera-diologicaldatasetshavebecomeavailablebymeansofadvancedvisualization.Basicknowledgeofcommonconceptsandprop-ertiesallowsthephysiciantochooseandemploythesealgorithmsmoreefficient-lyandsuccessfully.Inadditiontofunctional-ityalone,theseamlessintegrationofthesemethodsintotheradiologicalworkflowisofspecialimportance.Differentscenarioscanbeimplementedtoachievethisintegration.Detailedinformationontheindividualgoalsofaninstallationandontheexistinginfra-structurerepresentprerequisitesforsuccess-fulintegration.

    KeywordsPostprocessingIntegrationComputer-aideddetection(CAD)InfrastructureDiagnostics

    1112 | DerRadiologe122013

  • dann an einer Vielzahl von Arbeitspltzen verfgbar gemacht werden. Je nachdem wie die Rechenleistung zwischen Server und Client verteilt wird, spricht man vom thick client (viel Leistung auf Seite des Clients) oder vom thin client (wenig

    Leistung auf Seite des Clients). Ein Spe-zialfall der thin clients sind reine Web-anwendungen, die kaum noch speziali-sierte Anforderungen an die Hard- oder Softwareumgebung stellen und nur einen Browser fr ihren Betrieb bentigen.

    Ist bereits eine umfangreiche IT-Inf-rastruktur vorhanden, muss hinterfragt werden, ob jede serverseitige Funktiona-litt tatschlich in Form neuer Hardw...

Recommended

View more >