photonik: grundlagen, technologie und anwendung

538
Ekbert Hering · Rolf Martin (Hrsg.) Photonik

Upload: rolf-martin

Post on 27-Dec-2016

684 views

Category:

Documents


25 download

TRANSCRIPT

Page 1: Photonik: Grundlagen, Technologie und Anwendung

Ekbert Hering · Rolf Martin (Hrsg.)

Photonik

Page 2: Photonik: Grundlagen, Technologie und Anwendung

Autoren:

Dr. Ralf Bergmann, Robert Bosch GmbH, Kap. 5Prof. Dr. Rainer Börret, Hochschule Aalen, Kap. 2Prof. Dr. Günter Dittmar, Hochschule Aalen, Kap. 5Prof. Dr. Thomas Hellmuth, Hochschule Aalen, Kap. 5Prof. Dr. Dr. Ekbert Hering, Hochschule Aalen, Kap. 6Dipl.-Ing. Heinrich Hippenmeyer, Sick AG, Kap. 4Dr. Frank Höller, Carl Zeiss AG, Kap. 10Prof. Dr. Alexander Hornberg, Hochschule Esslingen, Kap. 11Prof. Dr. Albrecht Kettler, Hochschule Aalen, Kap. 5Prof. Dr. Jürgen Krapp, Hochschule Aalen, Kap. 5Prof. Dr. Michael Küchel, Hochschule Aalen, Kap. 5Dipl.-Ing. Matthias Lambertz, Richard Wolf GmbH, Kap. 9Prof. Dr. Dr. h.c. Rolf Martin, Hochschule Esslingen, Kap. 1, Kap. 8 und Kap. 11Dr. Christoph Nachtigall, Sick AG, Kap. 4Prof. Dr. Hans Obermayer, Hochschule Aalen, Kap. 5Dr. Bernhard Schmitz, DINCERTCO GmbH, Kap. 12Dipl.-Ing. Volker Schumacher, opsira GmbH, Kap. 7Prof. Dr. Dr. h.c. Otto Strobel, Hochschule Esslingen, Kap. 3

Page 3: Photonik: Grundlagen, Technologie und Anwendung

Ekbert Hering · Rolf Martin (Hrsg.)

Photonik

Grundlagen, Technologie und Anwendung

Mit 415 Abbildungen und 50 Tabellen

123

Page 4: Photonik: Grundlagen, Technologie und Anwendung

Herausgeber:

Professor Dr. Dr. Ekbert HeringHochschule AalenBeethovenstraße 173430 [email protected]

Professor Dr. h.c. Rolf MartinHochschule EsslingenFlandernstraße 10173732 [email protected]

Bibliografische Information der Deutschen Bibliothek

Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detailliertebibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar.

ISBN-10 3-540-23438-1 1. Aufl. Springer Berlin Heidelberg New YorkISBN-13 978-3-540-23438-8 1. Aufl. Springer Berlin Heidelberg New York

Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Überset-zung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, derMikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungs-anlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkesoder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen desUrheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassungzulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen desUrheberrechtsgesetzes.

Springer ist ein Unternehmen von Springer Science+Business Mediaspringer.de© Springer-Verlag Berlin Heidelberg 2006Printed in Germany

Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigtauch ohne besondere Kennzeichnung nicht zu der Annahme, daß solche Namen im Sinne der Warenzeichen- undMarkenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften.

Sollte in diesem Werk direkt oder indirekt auf Gesetze, Vorschriften oder Richtlinien (z. B. DIN, VDI, VDE)Bezug genommen oder aus ihnen zitiert worden sein, so kann der Verlag keine Gewähr für die Richtigkeit,Vollständigkeit oder Aktualität übernehmen. Es empfiehlt sich, gegebenenfalls für die eigenen Arbeiten dievollständigen Vorschriften oder Richtlinien in der jeweils gültigen Fassung hinzuziehen.

Satz und Herstellung: LE-TEX Jelonek, Schmidt & Vöckler GbR, LeipzigUmschlaggestaltung: medionet AG, BerlinGedruckt auf säurefreiem Papier 7/3142/YL - 5 4 3 2 1 0

Page 5: Photonik: Grundlagen, Technologie und Anwendung

Vorwort

Passend zum Einsteinjahr (100 Jahre Lichtquantenhypothese) und zum 100. Todestag des bedeutenden Optikers Ernst Abbe erscheint dieses Werk. Seit dieser Zeit hat die Erscheinung des Lichts nichts von seiner Faszination und Bedeutung verloren. Im Gegenteil: die optischen Techno-logien spielen in der Technik und in der Informatik heute und in Zukunft eine wichtige Rolle. In diesem Wachstumsmarkt gilt es, sich zu behaupten. Zu diesem Thema führt das Geleitwort weitere Gedanken aus.

Dieses Werk wendet sich an alle Studierende und Praktiker, die das Licht als Produktionsfaktor einsetzen und in diesem Feld lernen, lehren und forschen. Um den Studierenden den Einstieg zu erleichtern, enthalten die Grundlagenkapitel viele Übungsaufgaben mit Lösungen. Das Buch ist darüber hinaus geschrieben, um Interesse und Neugier all derer zu wecken, die das Licht als faszinierende Erscheinung kennen und mehr über seine Anwendungen erfahren möchten. Es existieren bereits viele sehr gute Grundlagenbücher über Optik, aber kaum welche über die Technologien und die Anwendungen von Licht. Diese Lücke will unser Werk schließen.

Das erste Kapitel stellt in aller Kürze die wesentlichen Grundlagen der Photonik dar. Im zweiten Kapitel werden die Fertigungsverfahren für opti-sche Komponenten vorgestellt. Das dritte Kapitel behandelt die optischeNachrichtentechnik, das vierte Kapitel die Sensoren und das fünfte Kapiteldie optische Messtechnik. Licht wird mit großem Erfolg in der Produkti-onstechnik eingesetzt. Dies wird im sechsten Kapitel beschrieben. Die Beleuchtungstechnik spielt bei Fahrzeugen und in der täglichen Arbeits- und Lebensumgebung eine immer wichtigere Rolle (Kapitel 7). Die Um-wandlung von Licht in elektrische Energie, die Fotovoltaik, wird in Kapi-tel 8 dargestellt. Optische Technologien spielen in der Medizin und in LifeScience eine immer wichtigere Rolle. Dies beschreibt Kapitel 9. Das Kapi-tel 10 zeigt den Einsatz der Photonik in vielen Gebrauchsgütern. Bildauf-nahme und -wiedergabe wird in Kapitel 11 dargestellt. Kapitel 12 zeigt, wie wichtig in photonischen Anwendungen der Augenschutz und die Ar-beitssicherheit sind.

Die Herausgeber haben in erster Linie den vielen Autoren zu danken. Nur mit deren Fachwissen und deren Erfahrungen war es möglich, dieses umfassende Werk zu erstellen. Auf der Suche nach kompetenten Autoren

Page 6: Photonik: Grundlagen, Technologie und Anwendung

VI Vorwort

wurden wir vom Geschäftsführer der Photonics BW, Herrn Dr. AndreasEhrhardt erfolgreich unterstützt. Dafür herzlichen Dank.

Herzlicher Dank gebührt aber auch den vielen Unternehmen, die uns mit ihrem wertvollen und aussagefähigen Bildmaterial unterstützt haben. Stell-vertretend für alle möchten wir Frau Heidi Peters vom Fraunhofer-Institut für Produktionstechnologie IPT, Herrn Dr. Dirk Petring vom Fraunhofer-Institut für Lasertechnik ILT, Herrn Ulrich Russek von der Firma Huf Tools GmbH, Herrn Christoph von Arx von der Firma Leister, Herrn SvenEderer, Herrn Dr. Joachim Hutfless, Herrn Markus Lindenmann und Herrn Dr. Klaus Paray von der Firma TRUMPF Lasertechnik GmbH, Frau PetraWallenta von der Firma TUI Laser GmbH für ihre Unterstützung danken.

Ein solches Werk kann nur gelingen, wenn die Verlagsleitung für eine exzellente Abwicklung und Herstellung sorgt. Dies geschah auch dieses Mal wieder mit großem Erfolg. Zu danken haben wir Frau Eva Hester-mann-Beyerle mit ihrem Team vom Springer Verlag. Dankbar sind wir auch unseren Familien. Sie gaben uns die Zeit und den Freiraum, dieses Buch intensiv zu betreuen.

Wir wünschen uns viele Leser, die sich vom Phänomen Licht begeistern lassen. Sie mögen spüren und erfahren, wie viel wirtschaftliches, kreatives und faszinierendes Potenzial die Photonik bereit hält. Wir hoffen, dass wir unsere Leser ermuntern können, uns konstruktiv kritisch zu begleiten, um dieses Werk weiter aktualisieren zu können.

Aalen, Esslingen im Juli 2005 Ekbert Hering Rolf Martin

Page 7: Photonik: Grundlagen, Technologie und Anwendung

Geleitwort

Die optischen Technologien eröffnen unserer modernen Gesellschaft neue Wege in die Zukunft. Die Prognose lautet: Das 21. Jahrhundert wird das Jahrhundert des Photons werden. Die optischen Technologien sind für die Industriegesellschaft notwendige Schrittmachertechnologien. Sie sind bran-chenübergreifend und weisen eine hohe Wertschöpfung auf. Im englischen Sprachraum spricht man von einer „Enabling Technology“, um deutlich zu machen, dass diese Technologien als Querschnitts- und Schlüsseltechnolo-gien die Grundlage und Voraussetzung für weitere technologische Entwick-lungen und Anwendungen in der Zukunft sind. Die optischen Technologien sind als Hochtechnologien nicht nur Innovationstreiber für die Märkte der Zukunft. Schon heute lassen sich 16% der Arbeitsplätze in der verarbeiten-den Industrie mittelbar oder unmittelbar den optischen Technologien zuord-nen, das sind über eine Million Arbeitsplätze in Deutschland. Der Verein Deutscher Ingenieure (VDI) schätzt, dass in Deutschland in der Herstellung optischer Technologien derzeit 110.000 Menschen beschäftigt sind, die ei-nen Jahresumsatz von 10 Mrd. € erwirtschaften.

Licht bietet Möglichkeiten, für die es in der Technikgeschichte keine Vorbilder gibt. Beispiele für diese neuen Chancen sind: Die Herstellungkleinster Strukturen in Computerchips, die Übertragung extrem hoher Datenmengen über Glasfasern für den Info-Highway der Multimediage-sellschaft, die rasche Erforschung von Medikamenten für bislang als un-heilbar geltende Krankheiten mit optischen Biochips oder die Kontrollevon Lebensmitteln mit optischen Screening-Verfahren. Die optischen Technologien stellen in der heutigen Industrielandschaft eine Innovations-spitze dar, die in fast alle Sektoren abstrahlt und damit für die Märkte von morgen einen Wettbewerbsfaktor ersten Ranges darstellt. Folgerichtig verstärken die maßgeblichen Industrieländer ihre diesbezüglichen Aktivi-täten in Wissenschaft, Wirtschaft und Politik. Deutschland, ein Land mit optischer Tradition, kann sich aufgrund der vorhandenen hervorragenden nationalen Infrastrukturen in Industrie und Forschung und deren umsichti-ger Förderung international einen Spitzenplatz ausrechnen.

Die optischen Technologien umfassen die Gesamtheit aller physikali-schen, chemischen und biologischen Naturgesetze und Technologien zur Erzeugung, Verstärkung, Manipulation, Speicherung, Übertragung, Mes-sung und Nutzbarmachung von Licht. In dieser Definition wird die gesam-

Page 8: Photonik: Grundlagen, Technologie und Anwendung

VIII Geleitwort

te Wertschöpfungskette des Lichtes sichtbar: Licht muss in geeigneten Quellen erzeugt werden, es muss zur Anwendung verstärkt, manipuliert, gespeichert und zum Ort der Anwendung übertragen werden. Dort kommt Licht als Fertigungsmittel, als Sicherheitselement oder als Messmethode zum Einsatz.

Grundlagen/Lichtquellen

Die Grundlagen für die modernen optischen Technologien legte Albert Einstein 1905 und 1917 in seinen Arbeiten über die Quantentheorie der Strahlung. Insbesondere die korpuskularen Wirkungen im Ultroviolett-Bereich (UV) und Extrem-Ultraviolett-Bereich (EUV), im Röntgenspekt-rum sowie die stimulierte Emission, die zur monochromatischen kohären-ten Laserstrahlung führt, sind als bahnbrechende Technologien daraus entstanden und entwickeln sich heute schneller als je zuvor.

Forschungsbedarf besteht insbesondere bei der Entwicklung neuartiger und innovativer kohärenter und inkohärenter Photonenstrahlquellen zur Erschließung neuer Zeitbereiche, Spektralbereiche, Funktionalitäten und weiterer Qualitätsmerkmale. Die Beherrschung der Materie auf atomarer und molekularer Ebene sowie die Erforschung und Nutzung der Bausteine des Lebens in zellulärer Umgebung setzen aber auch die Kontrolle von Elementarprozessen im Zeitbereich von 10 Picosekunden bis etwa 1 Fem-tosekunde voraus. Femtosekundenlaser verfügen hierzu über das notwen-dige technologische Potenzial. Die Erzeugung bzw. Analyse von Struktu-ren im Bereich kleiner als 100 Nanometer mit ausreichender Präzision und Genauigkeit erfordert unter anderem die Beherrschung des optischen Spektralbereichs kleiner als 150 nm bis zu 0,1 nm. Forschungsarbeiten im Vakuum-Ultraviolett-Bereich (VUV) richten sich auf Laserstrahlquellen vorwiegend bei 193 nm und neuerdings bei 13 nm für die Lithografie und Nanostrukturierung. Mit nichtlinearen optischen Effekten (NLO) lassen sich relevante Parameter des Lichts wie Wellenlänge, Phase und Polarisa-tion gezielt steuern.

Optoelektronische Bauelemente, die aus organischen Molekülen beste-hen, sind in den letzten Jahren weltweit erforscht und gebaut worden. Dis-plays auf der Basis sogenannter OLEDs (Organic Light Emitting Diodes) erobern gegenwärtig große Marktanteile und versprechen als Konkurrenz zu etablierten LED (lichtemittierenden Dioden) oder Plasmabildschirmen höhere Farbbrillianz, einen geringeren Energieverbrauch sowie niedrigere Herstellungskosten. Deshalb wurde vom Bundesministerium für Bildung und Forschung (BMBF) im Februar 2005 zusammen mit Unternehmen eine deutsche „OLED-Initiative“ gestartet, in die in einem Zeitraum von fünf Jahren etwa 100 Millionen Euro investiert werden. Dabei geht es um

Page 9: Photonik: Grundlagen, Technologie und Anwendung

Geleitwort IX

die Forschung und Entwicklung von organischen Leuchtdioden (OLEDs) für innovative Beleuchtung und neuartige Displays.

Optische Systeme der nächsten Generation

Auch in den optischen Systemen bahnt sich ein von den Anwendern drin-gend gewünschter Generationenwechsel an. Photonenstrahlquellen und Optikkomponenten müssen leistungsfähiger, kompakter, schneller, zuver-lässiger und energiesparender werden. Diese Systeme sind eine wichtige Voraussetzung für die Gewinnung von weiterem technischen Neuland mit der Skalierung „Tera“ und „Nano“. In der Tera-Welt kommuniziert man mit Datentransferraten von über 10 Terabit pro Sekunde. Die Grenze des Nano-Kosmos beginnt bei Strukturen kleiner als 0,1 Mikrometer. Wird diese Grenze überwunden, können Computer gebaut werden, die mit 10-Gigahertz-Taktraten und Speicherbausteinen im Gigabit-Bereich arbeiten.

Dem modernen Optik-Design liegt ein integratives Konzept zugrunde, das alle relevanten Elemente der Wertschöpfungskette zur Herstellung optischer Systeme berücksichtigt. Durch geeignete Kombination der phy-sikalischen Effekte Beugung, Brechung und Reflexion lassen sich maßge-schneiderte optische Komponenten in effiziente, kompakte und robuste Optiksysteme integrieren. Ziel ist eine Verringerung der Anzahl optischer Flächen und die Erweiterung der Funktionsparameter bei geringerem tech-nischen Aufwand als in herkömmlicher Weise.

Optische Informations- und Kommunikationstechnik

Die derzeit ungebrochene Leistungssteigerung der Chiptechnologie, die von der Mikroelektronik zur Nano-Elektronik führt, basiert auf dem Fort-schritt in den optischen Technologien. Die weltweit zunehmenden Daten-ströme sind ohne optische Technologien nicht zu bewältigen. Die notwen-dige Steigerung der Datenübertragungskapazität gelingt nur mit optischenNetzen. Die bereits heute in Massenproduktion hergestellten Speicher aus dem allgemeinen Konsumenten- und professionellen Bereich wie CD und DVD basieren auf optischen Technologien. Für CD- und DVD-Geräte rechnet man in den kommenden Jahren mit jährlichen Steigerungsraten von 27% bis 30%. Projektionssysteme haben jährliche Wachstumsraten von 10%. Der Anteil der lichtemittierenden Dioden (LEDs) an diesem Volumen beträgt etwa 5%. In der Datenspeicherung sind die kontinuierli-che Erhöhung der Speicherdichte und die Verkürzung der Such- und Zugriffszeiten die größten Herausforderungen.

Licht transportiert schon heute mehr als 90% der Datenmengen über das Glasfasernetz der Bundesrepublik. Diese Datenmengen werden in den nächsten Jahren allein durch den Internet-Datenverkehr exponentiell an-steigen. Über Telefon wird in 10 Jahren voraussichtlich nur noch 5% des

Page 10: Photonik: Grundlagen, Technologie und Anwendung

X Geleitwort

gesamten Datenverkehrs laufen. Durch Nutzung der WDM-Technik (Wa-velength Division Multiplexing) können künftig über eine einzige Faser einige Terabit/s übertragen werden. Versuchsstrecken mit Übertragungs-kapazitäten von 3,2 Terabit/s werden derzeit realisiert; das entspricht etwa 40 Millionen Telefonkanälen.

Optische Sensorik in Industrie, Medizin und Umwelt

Ein großes Anwendungsfeld für optische Sensoren eröffnet sich im per-sönlichen Umfeld zur Überwachung und Steuerung von Automobilen, Hausgeräten und Sicherheitseinrichtungen. Auch die medizinische Vor-sorge wird durch optische Sensorik revolutioniert: die Gesundheitsparame-ter können in Zukunft zuhause gemessen und die Daten an die vernetzte Arztpraxis übermittelt werden; die optische Analyse auf Bio-Chip-Arrayswird prompt und objektiv die individuellen Gesundheitszustandsdaten erfassen und eine auf den Patienten individuell zugeschnittene und opti-mierte Therapie ermöglichen.

Optische Technologien helfen, neue Erkenntnisse über Entstehung und Heilung der Krankheiten zu gewinnen, insbesondere auf der molekularen Ebene. Damit wird auch eine Basis für die Entwicklung neuer Therapieme-thoden und Medikamente geschaffen, die zugleich auch neue Präventions-formen gestattet. Optische Screening-Verfahren etwa beschleunigen die Entwicklung von Medikamenten mit verbesserter Wirksamkeit, die gleich-zeitig schneller und kostengünstiger auf den Markt gebracht werden kön-nen. Im Operationssaal beispielsweise bieten optische Technologien die Möglichkeit nahezu unblutiger Operationen und es assistieren bei kritischen Operationen optisch navigierte Roboter. Der künftige Einsatz optischer Technologien im Gesundheitssystem, begleitet von neuen Entwicklungen in der Biotechnologie sichert eine leistungsfähige und wirtschaftliche medizi-nische Versorgung für alle Gruppen der Bevölkerung.

Auch die Überwachung von Luft-, Wasser-, Boden- und Lebensmittel-qualität und die Schadstoffreduzierung sind dringliche Aufgaben, um unse-re Umwelt für uns und die künftigen Generationen gesund und lebenswert zu erhalten. Hierzu liefert die optische Messtechnik schon jetzt einen we-sentlichen Beitrag.

Messtechnik für optische Komponenten und Systeme

Optische Komponenten und Systeme passen die Eigenschaften des Lichts an die unterschiedlichsten Anforderungen der Anwender an. Entsprechen-de Mess- und Prüfverfahren müssen bereitgestellt werden. Hier werden vorwiegend klassische optische Verfahren wie konfokale Mikroskopie,Wellenfrontanalyse und Interferometrie eingesetzt. Vor allem durch den Trend in Richtung nanostrukturierter Optikkomponenten, beispielsweise

Page 11: Photonik: Grundlagen, Technologie und Anwendung

Geleitwort XI

für die EUV-Lithografie und für die Untersuchungen lebender Zellen müs-sen neue Messmethoden erforscht werden. Nahfeld- und Fluoreszenzmik-roskopie leisten dazu einen bedeutenden Beitrag, da bei diesen Methoden eine Auflösung unterhalb der verwendeten Lichtwellenlänge erreicht wird.

Produktionstechnik

Moderne Produktionstechniken erhalten die Wettbewerbsfähigkeit und sichern damit Arbeitsplätze in Deutschland. Hier wird das „Werkzeug Licht“ meist in der Form immer leistungsfähigerer Laser in stetig wachsen-den Anwendungsfeldern eingesetzt. Die klassische, mechanisch orientierte Fertigung wird durch optische Fertigungstechniken höchster Präzision und Schnelligkeit ergänzt bzw. abgelöst. Mit photonischen Mikrofertigungs-techniken lassen sich kleinste integrierbare Bauteile wie Aktuatoren, Senso-ren, Pumpen, Düsen oder Mikrooptiken herstellen. Sie lassen sich zu Mik-rosystemen immer höherer Komplexität und Intelligenz zusammenfügen und werden in vielfältigsten Bereichen eingesetzt.

Die optische Messtechnik übernimmt auch in der Fertigungsmesstechnik heute unentbehrliche Aufgaben an wichtigen Stellen des Produktionspro-zesses. Optische Verfahren, die in die Fertigungsprozesse integriert wer-den, sind ideale Messverfahren, da sie schnell und präzise arbeiten, modu-lar aufgebaut sind und über definierte Schnittstellen zur Elektronik verfügen. Auch im Maschinenbau, in der Kunststoff- und Automobilin-dustrie kommen bei den Prüfverfahren der Qualitätssicherung immer mehr optische Verfahren zur Anwendung: So werden Teile auf Maßhaltigkeit geprüft, optische Sensoren mit integrierter digitaler Bildverarbeitung zur Steuerung der Fertigung eingesetzt, in der Auto- und Flugzeugindustrie Blechteile auf Oberflächenfehler und Bauteile aus Verbundmaterialien in der Serie geprüft. Optische Technologien haben innerhalb der Automati-sierungstechnik Marktanteile zwischen 35% und 70%. Ein wichtiges Wachstumsfeld werden in Zukunft bildverarbeitende Systeme sein mit jährlichen Wachstumsraten zwischen 10% und 20%.

Beleuchtung

Allein in Deutschland wurden im Jahr 2003 durch Lampen mehr als 40 Mrd. kWh elektrische Energie verbraucht, das entspricht etwa 8% der ge-samten elektrischen Energieproduktion (daraus resultierendes Treibhausgas Kohlendioxid: mehr als 26 Mrd. kg/Jahr). Die technische Weiterentwick-lungen und Forschung zur Steigerung des Wirkungsgrades bei der Lichter-zegung sowie und eine optimierte Systemintegration können erheblich zur Entlastung der Umwelt beitragen. Licht schafft Sicherheit durch verbesser-te Scheinwerfer am Kraftfahrzeug mit sensorgesteuerter Lichtverteilungauf der Fahrbahn und macht aktive optische Warnsysteme möglich. Ein

Page 12: Photonik: Grundlagen, Technologie und Anwendung

XII Geleitwort

höheres Beleuchtungsniveau auf Straßen und Plätzen erhöht die Sicherheit erheblich. Die „kalten“ Lichtquellen wie lichtemittierende Dioden wurden bereits mit Erfolg in vielen Städten in Verkehrsampeln installiert. In diesem Anwendungsfeld spielt insbesondere die Fotovoltaik als Wirtschaftsfaktor eine große Rolle.

Querschnittsfunktion

Den optischen Technologien kommt eine wichtige Querschnittsfunktion bei der Lösung anstehender Aufgaben für die Gesellschaft zu, so etwa in den Bereichen Gesundheit, Umwelt, Verkehr und Mobilität. Sie sind Schrittmacher für andere technologische Entwicklungen und Anwendun-gen wie die Kommunikations- und Produktionstechnik, die Biotechnologie und die Nano-Elektronik. Wichtig für die Volkswirtschaft in Deutschland ist die Verfügbarkeit der optischen Technologien mit leistungsfähigen Technologieregionen im eigenen Land. Deutschland ist in ausgewählten Bereichen der optischen Technologien bereits an der Weltspitze. Diese Position ist nicht zuletzt ein Ergebnis der Förderpolitik der vergangenen Jahre. Herausragendes Beispiel ist dabei die Materialbearbeitung mit La-sern. Die deutsche Laserindustrie erreichte hier bei den Laserquellen einen Weltmarktanteil von rund 40%. Vor allem in den Bereichen Automobilfer-tigung und ihrer Zulieferindustrie sind in jüngster Zeit die Einsatzmöglich-keiten merklich gestiegen: im Karosseriebau, bei der Fertigung von Ge-triebe- und Motorteilen über Katalysatoren bis hin zu moderner Sensorik für Einspritzdüsen. Der verstärkte Einsatz von Lasergeräten im deutschen Automobil- und Maschinenbau trug entscheidend zur deutlichen Verbesse-rung der Wettbewerbsfähigkeit dieser Branchen in den letzten Jahren bei.

Deutschland hat ein enormes Potenzial, auch in anderen Bereichen der optischen Technologien an die Weltspitze vorzudringen. Dabei erfordern immer kürzer werdende Innovationszyklen im internationalen Wettbewerb die frühzeitige Vernetzung unterschiedlicher wissenschaftlicher Diszipli-nen, um Synergien zu nutzen. Diese Aufgabe erfüllen die Kompetenznetze Optische Technologien, von denen seit dem Jahr 2000 acht vom BMBF gefördert werden. Sie leisten seit rund 4 Jahren wertvolle Arbeit bei der Vernetzung von Wirtschaft und Wissenschaft sowie von Herstellern und Anwendern. Heute sind bereits 111 Forschungseinrichtungen und 230 Unternehmen, die insgesamt 40.000 Beschäftigte repräsentieren, in diesen Netzen organisiert, an deren Finanzierung die Unternehmen selbst zu 50% der Kosten beteiligt sind.

Förderung der Forschung und Entwicklung

Der industriegeführte Strategieprozess „Optische Technologien für das 21. Jahrhundert“ zur Bildung neuer Innovationsstrukturen hat sich als das

Page 13: Photonik: Grundlagen, Technologie und Anwendung

Geleitwort XIII

passende Werkzeug erwiesen. Jetzt hat Deutschland die Chance – auch vor dem Hintergrund verstärkter Anstrengungen in den USA und Fernost – auf dem Gebiet der optischen Technologien seine Spitzenstellung auszubauen. Die Voraussetzung dazu sind ausreichend gut ausgebildete Spezialisten auf diesem Gebiet.

Das Bundesministerium für Bildung und Forschung (BMBF) unterstützt im Rahmen des Förderprogramms „Optische Technologien – Made in Germany“ für die Jahre 2002 bis 2006 diese Ziele mit etwa 280 Millionen Euro auf der Grundlage der Deutschen Agenda, in der weit über 100 Hand-lungsempfehlungen an Wirtschaft, Wissenschaft und Staat zusammenge-fasst wurden. Die Handlungsempfehlungen spannen den Bogen von Fra-gen zur Stärkung der Zusammenarbeit von Wissenschaft und Wirtschaft,zur Förderung von interdisziplinären Netzwerken, zur Stärkung der Grund-lagenforschung und der Etablierung eines entsprechenden Dachverbandes für die optischen Technologien bis hin zur Aus- und Weiterbildung.

Die Bildung ist eine Zukunftsinvestition. Die optischen Technologien müssen einen festen Platz in den Studiengängen der Ingenieurwissenschaf-ten und in der Berufsausbildung haben. Es besteht erhöhter Bedarf an Fach-kräften auf allen Ebenen. Darüber hinaus zeichnet sich in den Betrieben derBedarf an neuen optikspezifischen Berufsbildern ab. So entstehen neue Berufe, wie der Mechatroniker, der Bachelor oder Master in Präzisionsfer-tigungstechnik oder der Master of Photonics. Die Nachfrage nach qualifi-zierten Mitarbeitern wird in Deutschland zunehmen. Einschlägige Aus- undWeiterbildungsangebote müssen auf allen Bildungsebenen ansetzen, umdurch gut ausgebildete Fachkräfte die Unternehmen in der anstehendenWachstumsphase zu unterstützen. Die Erfolgsaussichten für den StandortDeutschland sind vor dem Hintergrund der bestehenden Strukturen sehr gut.

Wachstumspotenziale

Der Markt für optische Technologien wird in den nächsten 10 Jahren vor-aussichtlich ein Umsatzvolumen von weltweit mehr als 500 Mrd. € errei-chen. Allein die Laserbranche konnte in den letzten 10 Jahren durch-schnittlich zweistellige jährliche Wachstumsraten verzeichnen. Bis zum Jahr 2010 rechnen die Unternehmen mit der Schaffung von 15.000 neuen Arbeitsplätzen in den optischen Technologien. Laut einer Studie, erstellt vom Institut für Strukturpolitik und Wirtschaftsförderung und im Auftrag des Bundesbildungsministeriums herausgegeben vom VDI Technologie-zentrum, beabsichtigen 90% der befragten 410 OT-Unternehmen mit neu-en Produkten und Leistungen ihren Marktanteil zu vergrößern, 78% von ihnen wollen neue Geschäftsfelder erschließen und 60% erwägen eine Firmenerweiterung.

Page 14: Photonik: Grundlagen, Technologie und Anwendung

XIV Geleitwort

Zusammenfassend kann folgendes festgestellt werden: Die Marktchan-cen für die Anwendungen der optischen Technologien sind sehr groß. In Zeiten einer eher schwachen europäischen Volkswirtschaft gehören sie zu einer der wenigen Wachstumsbranchen. Deshalb werden die optischen Technologien auch in den künftigen Forschungsprogrammen der Europäi-schen Union eine bedeutende Rolle spielen. Wer heute die Weichen für die optischen Technologien richtig stellt, wird an dem zu erwartenden Wachs-tum und damit an der Generierung von neuen Arbeitsplätzen teilhaben.

Mit der Deutschen Agenda wurde erstmals ein umfassender Strategie-prozess zur Gestaltung der Zukunft eines für den Standort Deutschland wichtigen Wirtschaftsgebietes eingesetzt. Der Weg in das „Jahrhundert des Photons“ erfordert dabei in Zukunft erhebliche weitere gemeinsame An-strengungen von Wirtschaft, Wissenschaft und Politik. Erfolgreiche In-novationsstrukturen bedürfen neben hoher Kompetenz in den Köpfen einer intensiven Zusammenarbeit, Förderung und schneller Umsetzung. Die Wis-senschaft liefert die Grundlagen und kreative Anstöße für Innovationen.

Die Aufgabe der Wirtschaft ist die Umsetzung von Innovationen in wett-bewerbsfähige Produkte oder Verfahren. Der Staat hat die Pflicht, interna-tional wettbewerbsfähige Rahmenbedingungen und ein innovationsför-derndes Wirtschaftsklima zu schaffen.

Wir freuen uns, dass es den Herausgebern und den Autoren gelungen ist, dieses Werk zu verfassen. Es zeigt dem Leser in profunder und an-schaulicher Weise die vielen Bereiche und Branchen, in denen photonische Technologien zum Einsatz kommen. Wir wünschen dem Werk viele Leser innerhalb und vor allem auch außerhalb der photonischen Welt.

Dr. Andreas Ehrhardt Dr. Christel Budzinski

Photonics BW e.V., Kompetenznetz Optische Technologien in Baden-Württemberg

Page 15: Photonik: Grundlagen, Technologie und Anwendung

Inhaltsverzeichnis

1 Grundlagen ....................................................................................... 11.1 Geometrische Optik.................................................................. 1

1.1.1 Lichtstrahlen ............................................................... 11.1.2 Reflexion des Lichts ................................................... 21.1.3 Brechung des Lichts.................................................... 41.1.4 Abbildung durch Linsen ............................................. 91.1.5 Matrixmethoden der paraxialen Optik ...................... 16

1.2 Wellenoptik ............................................................................ 231.2.1 Elektromagnetische Wellen ...................................... 231.2.2 Polarisation ............................................................... 281.2.3 Interferenz ................................................................. 36

1.3 Radio- und Fotometrie ........................................................... 561.3.1 Strahlungsphysikalische Größen............................... 571.3.2 Lichttechnische Größen ............................................ 60

1.4 Quantennatur des Lichts......................................................... 611.4.1 Photonen ................................................................... 611.4.2 Schwarzer Strahler .................................................... 631.4.3 Laser.......................................................................... 66

1.5 Halbleiter-Lichtquellen .......................................................... 701.5.1 Strahlende Rekombination........................................ 701.5.2 Lumineszenzdioden .................................................. 731.5.3 Halbleiter-Laser ........................................................ 77

1.6 Halbleiter-Detektoren............................................................. 911.6.1 Absorption in Halbleitern ......................................... 911.6.2 Fotoleiter ................................................................... 931.6.3 Fotodioden ................................................................ 93

1.7 Literatur................................................................................ 104

2 Fertigung optischer Komponenten und Systeme....................... 1052.1 Übersicht .............................................................................. 1052.2 Klassische Bearbeitung ........................................................ 107

2.2.1 Übersicht ................................................................. 1072.2.2 Formen (Trennen, Schleifen, Diamantdrehen)........ 1082.2.3 Glätten..................................................................... 1112.2.4 Messtechnik ............................................................ 115

Page 16: Photonik: Grundlagen, Technologie und Anwendung

XVI Inhaltsverzeichnis

2.3 Abformen ............................................................................. 1162.3.1 Übersicht ................................................................. 1162.3.2 Glas abformen (Blankpressen)................................ 1172.3.3 Kunststoff abformen ............................................... 1192.3.4 Messtechnik ............................................................ 120

2.4 Strukturierung ...................................................................... 1212.4.1 Diffraktive Optik..................................................... 1212.4.2 Lithografie .............................................................. 1222.4.3 Abformen ................................................................ 1232.4.4 Messtechnik ............................................................ 123

2.5 Beschichtung ........................................................................ 1232.5.1 Prinzip..................................................................... 1232.5.2 Herstellung optischer Komponenten....................... 1242.5.3 Bedampfen mit PVD-Verfahren ............................. 1252.5.4 Sputter-Technologie................................................ 1262.5.5 Abscheiden organmetallischer Lösungen ............... 1272.5.6 Messtechnik ............................................................ 128

3 Optische Nachrichtenübertragung ............................................. 1293.1 Einführung............................................................................ 1293.2 Glasfasern............................................................................. 131

3.2.1 Dämpfung in Glasfasern ......................................... 1333.2.2 Dispersionen in Glasfasern ..................................... 1373.2.3 Typenklassen von Glasfasern ................................. 146

3.3 Optische Sender und Empfänger.......................................... 1483.4 Faseroptische Übertragungssysteme .................................... 153

3.4.1 Direktübertragungssysteme..................................... 1533.4.2 Kohärente Übertragungssysteme ............................ 1573.4.3 Faserverstärker........................................................ 1603.4.4 Solitonenübertragung.............................................. 1623.4.5 Optische Übertragung auf der Fernebene

im Ortsnetz und im LAN- bzw. Metrobereich........ 1653.5 Literatur................................................................................ 173

4 Sensoren......................................................................................... 1754.1 Optische Sensoren ................................................................ 1754.2 Lichtschranken und Lichttaster ............................................ 175

4.2.1 Einweg-Lichtschranken .......................................... 1764.2.2 Lichtgitter................................................................ 1774.2.3 Reflexions-Lichtschranken ..................................... 1794.2.4 Reflexions-Lichttaster............................................. 1834.2.5 Lichtleiter-Lichtschranken und -Lichttaster............ 1864.2.6 Kontrasttaster .......................................................... 1884.2.7 Lumineszenztaster................................................... 1894.2.8 Farbsensoren ........................................................... 190

Page 17: Photonik: Grundlagen, Technologie und Anwendung

Inhaltsverzeichnis XVII

4.3 Distanzsensoren.................................................................... 1914.3.1 Triangulations-Sensoren ......................................... 1924.3.2 Pulslaufzeit-Sensoren.............................................. 1934.3.3 Phasenkorrelations-Sensoren .................................. 194

4.4 Laserscanner......................................................................... 1974.4.1 Funktionsprinzip des Laserscanners ....................... 1974.4.2 Barcode-Scanner ..................................................... 2044.4.3 Laser-Radar............................................................. 209

4.5 Kamerasensoren ................................................................... 2144.5.1 1-D-Sensoren .......................................................... 2164.5.2 2-D-Sensoren .......................................................... 2184.5.3 3-D-Sensoren .......................................................... 219

4.6 Optische Sensoren für spezielle Anwendungen ................... 2234.6.1 Staubkonzentrationsmessung.................................. 2244.6.2 Gaskonzentrationsmessung..................................... 229

4.7 Literatur................................................................................ 231

5 Optische Messtechnik................................................................... 2335.1 Abstandsmessung ................................................................. 233

5.1.1 Triangulation........................................................... 2345.1.2 Inkrementalgeber .................................................... 2365.1.3 Interferometer ......................................................... 238

5.2 Formmessung ....................................................................... 2395.2.1 Schattenwurfverfahren............................................ 2395.2.2 Streifenprojektion ................................................... 2415.2.3 Weißlichtinterferometrie......................................... 243

5.3 Verformungsmessung mit der HolografischenInterferometrie...................................................................... 245

5.4 Spannungs-, Dehnungs-, Kraftmessung ............................... 2485.4.1 Spannungsoptische Verfahren................................. 2485.4.2 Speckle-Pattern-Interferometrie (ESPI) .................. 2495.4.3 Faseroptische Sensorik (FOS) zur Spannungs-

und Dehnungsmessung ........................................... 2495.5 Schwingungsmessung .......................................................... 252

5.5.1 Laser-Doppler-Vibrometer ..................................... 2525.5.2 Holografische Interferometrie

und Speckle-Pattern-Interferometrie....................... 2555.6 Temperaturmessung ............................................................. 2565.7 Feuchtemessung ................................................................... 2605.8 Farbmessung......................................................................... 2605.9 Interferometrische Submikrometer-Messtechnik

in der Automobilindustrie .................................................... 2635.9.1 Stand und Entwicklung der Messtechnik................ 2635.9.2 Weißlichtinterferometrie (WLI).............................. 264

Page 18: Photonik: Grundlagen, Technologie und Anwendung

XVIII Inhaltsverzeichnis

5.9.3 Weißlichtinterferometrie mit Sonderoptiken .......... 2665.9.4 Weißlicht-Heterodyn-Interferometer (WHI)........... 2725.9.5 Rückführung der Weißlichtinterferometrie

auf amtliche Normale.............................................. 2785.10 Zusammenfassung und Ausblick ......................................... 2805.11 Literatur................................................................................ 281

6 Produktionstechnik ...................................................................... 2836.1 Übersicht .............................................................................. 283

6.1.1 Laserstrahlquellen ................................................... 2836.1.2 Strahlqualität ........................................................... 2876.1.3 Fertigungsverfahren und Materialien...................... 290

6.2 Urformen .............................................................................. 2916.2.1 Selektives Laser-Sintern (SLS)............................... 2916.2.2 Selektives Laser-Schmelzen

(SLM: Selective Laser Melting) ............................. 2926.3 Umformen ............................................................................ 2936.4 Trennen ................................................................................ 294

6.4.1 Schneiden................................................................ 2946.4.2 Bohren und Abtragen.............................................. 298

6.5 Fügen.................................................................................... 2986.5.1 Schweißen............................................................... 2986.5.2 Löten ....................................................................... 304

6.6 Beschichten .......................................................................... 3056.7 Stoffeigenschaften ändern .................................................... 307

6.7.1 Härten...................................................................... 3076.7.2 Umschmelzen.......................................................... 3086.7.3 Polieren ................................................................... 309

6.8 Markieren und Beschriften................................................... 3096.9 Strukturieren und Mikrobearbeiten ...................................... 3116.10 Produktentwicklung mit Laser ............................................. 3136.11 Literatur................................................................................ 316

7 Beleuchtungstechnik..................................................................... 3177.1 Einleitung ............................................................................. 3177.2 Lichttechnische Größen........................................................ 3187.3 Optische Systeme zur Beleuchtung...................................... 320

7.3.1 Beleuchtungssystem aus Lichtquellenund Reflektor .......................................................... 320

7.3.2 Beleuchtungssystem aus Lichtquelle und Linse ..... 3227.3.3 Arbeitsplatzleuchte ................................................. 3227.3.4 Kraftfahrzeug-Frontbeleuchtung............................. 3267.3.5 Operationsleuchten (OP-Leuchten) ........................ 3287.3.6 Lichtleiter für Beleuchtung ..................................... 331

Page 19: Photonik: Grundlagen, Technologie und Anwendung

Inhaltsverzeichnis XIX

7.4 Optische Systeme zur Signalisation ..................................... 3337.4.1 Straßenverkehrsignal (Ampel) ................................ 3337.4.2 Fahrzeug-Signalleuchten......................................... 335

7.5 Optische Systeme für Informationsträger............................. 3367.5.1 Beleuchtetes Bedienelement ................................... 3367.5.2 Lichtleiter zur Hinterleuchtung von Displays ......... 3387.5.3 Lichtleiter zur Hinterleuchtung

von Statusanzeigen.................................................. 3397.6 Simulation in der Beleuchtungstechnik................................ 340

7.6.1 Simulationsprogramme für Entwicklung optischer Systeme................................................................... 340

7.6.2 Modellbildung für die optische Simulation ............ 3427.6.3 Auswertungen der optischen Simulation ................ 348

7.7 Literatur................................................................................ 349

8 Fotovoltaik..................................................................................... 3518.1 Wirkungsweise der Solarzelle .............................................. 3518.2 Wirkungsgrad ....................................................................... 3558.3 Technologie.......................................................................... 3578.4 Literatur................................................................................ 359

9 Optische Technologien in Medizin und Life Sciences ............... 3619.1 Spektroskopie ....................................................................... 361

9.1.1 Absorptionsspektroskopie....................................... 3639.1.2 Fluoreszenzspektroskopie ....................................... 3649.1.3 Molekülschwingungsspektroskopie ........................ 3689.1.4 Beispiele weiterer spektroskopischer Methoden..... 370

9.2 Streuung von Licht ............................................................... 3719.2.1 Remissionsfotometrie zur Bestimmung

von Glucose ............................................................ 3729.2.2 Durchflusszytometrie .............................................. 3739.2.3 Optische Kohärenztomographie.............................. 374

9.3 Optische Mikroskopie .......................................................... 3759.3.1 Übersicht ................................................................. 3759.3.2 Auflösung, Schärfentiefe und förderliche

Vergrößerung .......................................................... 3769.3.3 Köhler’sche Beleuchtung

und Kontrastverstärkung......................................... 3779.3.4 Fluoreszenzmikroskopie ......................................... 3799.3.5 Laser-Scanning-Mikroskopie.................................. 3809.3.6 Laserpinzette und Laser-Mikromanipulation.......... 3829.3.7 Operationsmikroskopie ........................................... 384

9.4 Endoskopie ........................................................................... 3849.4.1 Einführung .............................................................. 3849.4.2 Endoskopie-System................................................. 385

Page 20: Photonik: Grundlagen, Technologie und Anwendung

XX Inhaltsverzeichnis

9.4.3 Endoskopische Bildgebung..................................... 3889.4.4 Ausführungsformen medizinischer Endoskope ...... 391

9.5 Laseranwendungen in der Medizin ...................................... 3949.5.1 Einführung .............................................................. 3949.5.2 Wirkungsmechanismen........................................... 3959.5.3 Laseranwendungen ................................................. 397

9.6 Literatur................................................................................ 403

10 Gebrauchsgüter ............................................................................ 40510.1 Bildaufnahme ....................................................................... 406

10.1.1 Analoge Fotokamera............................................... 40610.1.2 Digitale Fotokamera ............................................... 40710.1.3 Handycam und Webcam......................................... 40710.1.4 Camcorder............................................................... 40910.1.5 Flachbettscanner, Fotokopierer, Fax....................... 410

10.2 Vergrößerungsgeräte ............................................................ 41210.2.1 Mikroskop............................................................... 41210.2.2 Lupe ........................................................................ 41310.2.3 Teleskop.................................................................. 415

10.3 Bildwiedergabe .................................................................... 41710.3.1 Analoge Projektoren ............................................... 41710.3.2 Digitale Projektoren ................................................ 41810.3.3 Head Mounted Devices (HMD)

und Head Up Displays (HUD)................................ 42110.3.4 Zusammenfassung .................................................. 422

11 Bildaufnahme und -wiedergabe.................................................. 42311.1 Halbleiterbildsensoren und digitale Kameras....................... 423

11.1.1 Geometrische Eigenschaften eines Bildsensors ...... 42311.1.2 CCD-Sensor ............................................................ 42711.1.3 Architektur eines CCD............................................ 43411.1.4 Eigenschaften eines CCD-Imagers ......................... 438

11.2 Kamera-User-Interface......................................................... 44711.3 Bildverarbeitung................................................................... 448

11.3.1 Elementare Eigenschaften digitaler Bilder ............. 44911.3.2 Punktoperationen .................................................... 45011.3.3 Nachbarschaftsoperation......................................... 45311.3.4 Diskrete Fourier-Transformation ............................ 457

11.4 Bildwiedergabe – Displays................................................... 46311.4.1 Flüssigkristall-Displays........................................... 46411.4.2 OLED-Displays ...................................................... 474

11.5 Literatur................................................................................ 478

Page 21: Photonik: Grundlagen, Technologie und Anwendung

Inhaltsverzeichnis XXI

12 Augenschutz und Augensicherheit.............................................. 47912.1 Notwenigkeit für Augenschutz............................................. 480

12.1.1 Aufbau des Auges ................................................... 48012.1.2 Optische Strahlung - Begriffsbestimmung.............. 48212.1.3 Expositionsgrenzwerte............................................ 48312.1.4 Lichttransmission und Grenzwerte bei der

Prüfung von Augenschutzprodukten....................... 48412.2 Varianten im Augenschutz ................................................... 485

12.2.1 Schutz vor mechanischer Gefährdungen................. 48612.2.2 Chemische Gefährdungen....................................... 48712.2.3 Thermische Gefährdungen...................................... 48712.2.4 Biologische Gefährdungen...................................... 48712.2.5 Elektrische Gefährdungen....................................... 48812.2.6 Arten von Augen- und Gesichtsschutz.................... 48812.2.7 Komponenten eines Augenschutzgerätes

und Einsatzfelder .................................................... 48812.2.8 Schutz vor optischer Strahlung ............................... 489

12.3 Zwei besondere Arten von Augen- und Gesichtsschutz....... 49012.3.1 Automatische Schweißerschutzfilter....................... 49012.3.2 Laserschutzfilter...................................................... 492

12.4 Das Regelwerk - Konformität und Normungim Augenschutz.................................................................... 49612.4.1 Gesetzesgrundlage Richtlinie und GPSG ............... 49612.4.2 CE-Zeichen ............................................................. 49812.4.3 GS-Zeichen / DIN-Qualitätszeichen ....................... 499

12.5 Normung Augenschutz......................................................... 50012.5.1 Europäisch harmonisierte Normen.......................... 50012.5.2 BGI Informationen und Regeln .............................. 50112.5.3 Kennzeichnung von Augenschutzgeräten............... 50212.5.4 Kennzeichnung von Sichtscheiben

und Filterscheiben................................................... 50212.5.5 Schutzstufen............................................................ 50212.5.6 Optische Klasse....................................................... 50312.5.7 Mechanische Festigkeit........................................... 50312.5.8 Andere Anforderungen ........................................... 50412.5.9 Kennzeichnung von Tragkörpern............................ 50412.5.10 Kennzeichnung von vollständigen

Augenschutzgeräten................................................ 50812.5.11 Benutzung von Augenschutzgeräten....................... 508

12.6 Literatur................................................................................ 508

Index .............................................................................................. 511

Page 22: Photonik: Grundlagen, Technologie und Anwendung

1 Grundlagen

Einführung

Die Optik als Lehre von den Lichterscheinungen ist eine sehr alte Wissen-schaft. Trotzdem wurde erst in der zweiten Hälfte des 19. Jahrhunderts insbesondere von Maxwell erkannt, dass Licht eine transversale elektro-magnetische Welle ist, also eine physikalische Erscheinung, bei der sich gekoppelte elektrische und magnetische Felder mit Lichtgeschwindigkeit ausbreiten. Diese Wellenoptik (Abschn. 1.2) ist eine besonders adäquate Beschreibung, wenn die physikalischen Phänomene der Interferenz, Beu-gung und Polarisation behandelt werden. Sind die Abmessungen der Bau-elemente (Linsen, Spiegel, Lochblenden etc.) groß im Vergleich zur Wel-lenlänge des Lichts, dann spielen Beugungseffekte keine Rolle und die Ausbreitung des Lichtes lässt sich mit den Gesetzen der geometrischenOptik oder Strahlenoptik (Abschn. 1.1) beschreiben, die lange vor der Wel-lenoptik bekannt waren.

Um die Wende vom 19. zum 20. Jahrhundert wurde die energetische Wechselwirkung von Licht und Materie untersucht. Die Emission und Absorption von Licht war mit den Gesetzen der klassischen Elektrodyna-mik nicht erklärbar und führte Einstein zur Aufstellung seiner Lichtquan-tenhypothese (Abschn. 1.3). Licht wird darin als ein Strom von Lichtquan-ten oder Photonen beschrieben, wobei jedes Quant eine diskrete Energie transportiert und bei der Wechselwirkung mit Materie an diese abgeben kann. Licht zeigt also je nach Art des Experiments Wellen- oder Teilchen-eigenschaften, was mit dem Begriff Welle-Teilchen-Dualismus belegt wurde. In der Quantenelektrodynamik wurde eine theoretische Beschrei-bung gefunden, die beide Aspekte vereinigt.

1.1 Geometrische Optik

1.1.1 Lichtstrahlen

Die Ausbreitung des Lichts kann durch Strahlen beschrieben werden. Strahlen sind Normalen auf Wellenflächen (Flächen konstanter Phase) der elektromagnetischen Welle (Abb. 1.1). Lichtstrahlen breiten sich in einem

Page 23: Photonik: Grundlagen, Technologie und Anwendung

2 1 Grundlagen

homogenen und isotropen Medium geradlinig aus. Der Pfeilrichtung an einem Strahl kommt keine besondere Bedeutung zu, denn der Lichtweg ist grundsätzlich umkehrbar. Trifft ein Lichtstrahl auf eine Grenzfläche, die zwei verschiedene Medien voneinander trennt, dann kommt es zur Reflexi-on (Abschn. 1.1.2) und Brechung (Abschn. 1.1.3) des Strahls.

Abb. 1.1. Strahlen und Wellenflächen, a) Kugelwellen, b) ebene Wellen

1.1.2 Reflexion des Lichts

Abb. 1.2. Reflexionsgesetz

Trifft ein Lichtstrahl auf eine spiegelnde Fläche, so wird der Strahl reflek-tiert (Abb. 1.2). Es gilt das Reflexionsgesetz:

Einfallender Strahl, reflektierter Strahl sowie die Normale auf die Fläche durch den Auftreffpunkt liegen in einer Ebene; der Einfalls-winkel und der Reflexionswinkel r sind betragsmäßig gleich groß.

Wendet man die in der technischen Optik üblichen Vorzeichenregeln nach DIN 1335 an, so ist > 0 und r < 0 und es gilt das Reflexionsgesetz

r . (1.1)

Page 24: Photonik: Grundlagen, Technologie und Anwendung

1.1 Geometrische Optik 3

Das Reflexionsgesetz lässt sich aus einem sehr fundamentalen Extre-malprinzip der Physik herleiten, dem Fermat´schen Prinzip:

Der Weg eines Lichtstrahls zwischen zwei Punkten A und B ist im-mer so, dass die Zeit, die das Licht zur Überwindung der Strecke benötigt, ein Extremum (meist Minimum) ist.

Aus Abb. 1.2 b) wird ohne jede Rechnung klar, dass der Weg zwischen den Punkten A und B über P der kürzeste ist. B´ liegt spiegelsymmetrisch zu B, und die Verbindung APB´ ist eine Gerade. Alle anderen Wege wie z.B. AQB bzw. AQB´ sind länger.

Bildentstehung beim sphärischen Spiegel

Abb. 1.3. Abbildung eines Objektpunktes O auf der optischen Achse eines Hohl-spiegels

Abbildung 1.3 zeigt einen leuchtenden Objektpunkt O auf der Symmet-rieachse (optische Achse) eines sphärischen Hohlspiegels. Der Krüm-mungsmittelpunkt des Spiegels ist der Punkt C. Treffen sich alle von O ausgehenden Strahlen nach der Reflexion am Spiegel wieder in einem Punkt O´, so ist dies der Bildpunkt. Zur Auffindung diese Punktes genügt es, wenn der Schnittpunkt von zwei Strahlen bestimmt wird. Ein Strahl, der längs der optischen Achse ausgesandt wird, fällt nach der Reflexion am Scheitel S in sich selbst zurück. Ein anderer Strahl wird im Punkt A reflektiert und schneidet die optische Achse im Bildpunkt O´. Durch An-wendung elementarer trigonometrischer Sätze ergibt sich eine Verknüp-fung zwischen der Gegenstandsweite a, der Bildweite a´ und dem Krüm-mungsradius r des Spiegels:

raa211

. (1.2)

Die Strecken sind nach DIN 1335 vorzeichenrichtig einzusetzen: Alle Strecken, die vom Scheitel nach links weisen, bekommen ein negatives

Page 25: Photonik: Grundlagen, Technologie und Anwendung

4 1 Grundlagen

Vorzeichen, solche, die nach rechts weisen, ein positives. Die Gl. (1.2) enthält Näherungen. Sie ist nur richtig, wenn die Strahlen nahe an der opti-schen Achse verlaufen und wenn die Neigungswinkel bezüglich der opti-schen Achse klein sind. Derartige Strahlen werden als Paraxialstrahlenbezeichnet. Die paraxiale Optik oder Gauß´sche Optik wurde von C.F. Gauß entwickelt.

Wenn die Lichtquelle O im Unendlichen sitzt, fällt ein paralleles Strah-lenbündel in den Spiegel. Für a = liefert Gl. (1.2) a´ = r/2. Das bedeu-tet, dass alle Parallelstrahlen (so lange sie paraxial sind) sich in einemBildpunkt treffen. Dieser Punkt wird als Brennpunkt F´ bezeichnet und die zugehörige Entfernung vom Scheitel als Brennweite f . Damit gilt beim sphärischen Spiegel die Abbildungsgleichung

,111faa 2

mit rf . (1.3)

Die Richtungsumkehr der Lichtstrahlen stört beim Durchrechnen opti-scher Systeme, die Spiegel enthalten. Aus diesem Grund wird häufig der aufgefaltete Strahlengang benutzt (Abb. 1.3). Der reflektierte Strahl AO´ wird an der Tangentialebene durch den Scheitel S gespiegelt und schneidet die optische Achse im Bildpunkt O´auf. Bei aufgefaltetem Strahlengang gilt die Abbildungsgleichung

,111

aufauf faa 2mit auf

rf . (1.4)

1.1.3 Brechung des Lichts

Licht bewegt sich in verschiedenen Medien mit verschiedenen Geschwin-digkeiten. Ist die Lichtgeschwindigkeit in einem bestimmten Medium cund die Lichtgeschwindigkeit im Vakuum c0, dann wird das Verhältnis

ccn 0 (1.5)

als Brechungsindex oder Brechzahl des betreffenden Materials bezeichnet, mit n > 1. Läuft nun eine Lichtwelle schief auf eine Grenzfläche zu, die zwei Medien mit den Brechzahlen n1 und n2 voneinander trennt, dann än-dert die Lichtwelle ihre Richtung, sie wird gebrochen. Die zugehörigen Strahlen erleiden an der Grenzfläche einen Knick (Abb. 1.4).

Page 26: Photonik: Grundlagen, Technologie und Anwendung

1.1 Geometrische Optik 5

Abb. 1.4. Zur Ableitung des Brechungsgesetzes aus dem Fermat´schen Prinzip

Das Brechungsgesetz beschreibt den Zusammenhang zwischen den Winkeln 1 und 2 sowie den Brechzahlen n1 und n2. Es kann aus dem Fer-mat´schen Prinzip (Abschn. 1.1.2) hergeleitet werden. Die Zeit, die das Licht benötigt, um von einem Punkt A zu einem Punkt B zu gelangen, ist gegeben durch ein Linienintegral längs des Strahls:

B

A0

B

A

d1d sncc

st ,

wobei der Brechungsindex n im allgemeinen vom Weg abhängt. Das In-tegral

B

A

dsnl (1.6)

wird als optischer Weg bezeichnet. Soll nach Fermat die Zeit, die das Licht benötigt, um von A nach B zu kommen, minimal sein, dann muss auch der optische Weg ein Minimum aufweisen:

B

A

Min!dsnl

In Abb. 1.4 läuft der Lichtstrahl von A ausgehend zunächst in einem Me-dium mit Brechzahl n1, trifft bei P auf die Grenzfläche und läuft dann unter einem anderen Winkel im Medium mit der Brechzahl n2 weiter nach B. Der optische Weg ist

2B

2PB2

2A

2P1 yxxnyxnl .

Page 27: Photonik: Grundlagen, Technologie und Anwendung

6 1 Grundlagen

Er besitzt ein Extremum (Minimum), wenn dl/dxP = 0. Ableiten und Null-setzen liefert:

02B

2PB

PB22

A2P

P1

yxx

xxnyx

xn

oder

2211 sinsin nn . (1.7)

Dies ist das bekannte Snellius´sche Brechungsgesetz.

Dispersion

Die Lichtgeschwindigkeit in einem Medium ist im allgemeinen nicht kon-stant, sondern hängt von der Wellenlänge ab. Damit ist auch der Bre-chungsindex nicht konstant, sondern von der Wellenlänge bzw. Farbe ab-hängig. Diesen Effekt bezeichnet man als Dispersion. Die Dispersion führt beispielsweise dazu, dass Licht mithilfe eines Prismas in seine Spektral-farben zerlegt werden kann (Abb. 1.5).

Abb. 1.5. Dispersion, a) Ablenkung verschieden farbiger Lichtstrahlen an einem Prisma, b) Brechungsindex von Quarzglas, berechnet mit der Sellmeier-Gleichung

Zur Charakterisierung der Dispersion dient die Abbe-Zahl

CF

dd

1nn

n. (1.8)

Die Indizes beschreiben verschiedene Spektrallinien, die in Tabelle 1.1 zusammengestellt sind.

Page 28: Photonik: Grundlagen, Technologie und Anwendung

1.1 Geometrische Optik 7

Tabelle 1.1. Bezeichnung einiger Spektrallinien nach Fraunhofer

Wellenlänge /nm Bezeichnung Herkunft

486,133 587,762 656,273

FdC

blaue Wasserstofflinie gelbe Heliumlinie rote Wasserstofflinie

Bei geringer Dispersion ist die Abbe-Zahl groß. Gläser mit d > 50 hei-ßen Krongläser, solche mit d < 50 Flintgläser. Der Glashersteller Schott liefert Diagramme, in denen für jede Glassorte der Brechungsindex in Ab-hängigkeit von der Abbe-Zahl angegeben ist, so dass der Anwender ein für seine Zwecke passendes Glas auswählen kann. Tabelle 1.2 zeigt die Daten einiger Stoffe. Die Glassorte wird mit einer sechsstelligen Code-Nummer charakterisiert: xxxyyy, wobei xxx = (nd – 1) 1000 und yyy = d 10.

Tabelle 1.2. Brechungsindex und Abbe-Zahl einiger Substanzen

Stoff nd dCode

Fluorkronglas FK 5 Quarzglas Borkronglas BK 7 Flintglas F 2 Schwerflintglas SF 6

1,48749 1,45846 1,51680 1,62004 1,80518

70,41 67,82 64,17 36,37 25,43

487704 458678 517642 620364 805254

Luft (trocken, bei 20 C und 1013,25 hPa)Ethylalkohol C2H5OH Wasser Benzol C6H6

Schwefelkohlenstoff CS2

1,000277 1,3618 1,333041 1,50155 1,62804

89,3 55,8 55,6 30,1 18,4

Beispiel:Das Glas mit der Code-Nummer 643480 hat die Brechzahl nd = 1,643 und die Abbe-Zahl d = 48. Es handelt sich um BaF 9.

Der Dispersionsverlauf n( ) kann auch analytisch in Form einer Reihenent-wicklung angegeben werden. Dabei wird entweder eine Potenzreihe der Form

85

64

43

22

210

2 AAAAAAn (1.9)

benutzt, wobei die Koeffizienten dem Schott-Glaskatalog entnommen werden können oder die Sellmeier-Gleichung (Abb. 1.5 b)

32

2

32

2

2

21

2

2

12 1

CB

CB

CBn . (1.10)

Page 29: Photonik: Grundlagen, Technologie und Anwendung

8 1 Grundlagen

Totalreflexion

Abb. 1.6. Zum Entstehen der Totalreflexion

Wenn ein Lichtstrahl aus einem optisch dichteren Medium in ein optisch dünneres übergeht, dann wird der Strahl vom Lot weg gebrochen (Abb. 1.6). Neben dem gebrochenen gibt es immer auch einen reflektierten Strahl. Abb 1.6 zeigt, dass es einen kritischen Winkel g gibt, für den der Austrittswinkel 90 wird. Für Winkel > g gibt es keinen durchgehenden Strahl mehr, sondern nur noch den reflektierten. Man spricht in diesem Fall von Totalreflexion. Der Grenzwinkel der Totalreflexion ergibt sich mithilfe des Snellius´schen Brechungsgesetzes

22g1 90sinsin nnn zu

1

2g sinarc

nn

. (1.11)

Eine wichtige Anwendung der Totalreflexion ist die Führung von Lichtwellen in Lichtwellenleitern. Ein Lichtwellenleiter besteht aus einem zylindrischen Kern, der von einem Mantel mit niedrigerer Brechzahl um-geben ist (Abb. 1.7). Bei der Stufenindexfaser hat das Brechzahlprofil die Form einer Stufe. Wird der eingezeichnete Strahl an der Kern-Mantel-Grenzfläche unter dem Winkel g total reflektiert, dann ist der Winkel an der Stirnfläche 90° g. Durch Anwendung des Snellius´schen Bre-chungsgesetzes Gl. (1.7) ergibt sich für den maximalen Öffnungswinkel ,der auch als Akzeptanzwinkel der Faser bezeichnet wird,

22

21Nsin nnA . (1.12)

Der Sinus des Öffnungswinkels optischer Systeme heißt auch numerische Apertur AN.

Page 30: Photonik: Grundlagen, Technologie und Anwendung

1.1 Geometrische Optik 9

Abb. 1.7. Lichtwellenleiter, a) Stufenindexfaser, b) Gradientenfaser

Weil Strahlen, die unter verschiedenen Neigungswinkeln durch die Fa-ser laufen, verschiedene Laufzeiten aufweisen, ist die Datenübertragung mit hoher Bitrate nicht möglich (Kap. 2). Wesentlich günstiger sind Fasern mit kontinuierlich variierender Brechzahl, so genannte Gradientenfasern(Abb. 1.7 b). Bei einem parabolischen Profil des Brechungsindex verlau-fen die Strahlen sinusförmig. Obwohl der geometrische Weg für die weiter außen verlaufenden Strahlen groß ist, ist der optische Weg für alle Strahlen gleich und damit auch die Laufzeit der Lichtpulse. Die fokussierende Wir-kung derartiger Gläser wird ausgenutzt zur Herstellung von GRIN-Linsen (graded index, Abschn. 1.1.4.2).

1.1.4 Abbildung durch Linsen

1.1.4.1 Sphärische Linsen

Linsen aus Glas oder Kunststoff mit sphärischen Flächen sind die am meisten benutzten optischen Bauelemente. Für Spezialanwendungen wer-den auch Linsen mit aufwändig herzustellenden asphärischen Flächen ein-gesetzt.

Dünne Linse an Luft

Für den häufig vorkommenden Fall, dass die Linsendicke vernachlässigbar ist und die Linse von Luft umgeben ist, gelten relativ einfache Zusammen-

Page 31: Photonik: Grundlagen, Technologie und Anwendung

10 1 Grundlagen

hänge. Fällt ein paralleles und paraxiales Strahlenbündel auf eine Linse, dann vereinigen sich die Strahlen in einem reellen oder virtuellen Brenn-punkt F´ (Abb. 1.8). Durch Anwendung des Snellius´schen Brechungsge-setzes auf die Brechung an den beiden Kugelflächen erhält man für die bildseitige Brennweite f ´

21L

1111rr

nDf

. (1.13)

Die Größe D´ wird als Brechkraft der Linse bezeichnet. Ihre Maßeinheit ist die Dioptrie: 1 dpt = 1 m-1. r1 ist der Radius der linken, r2 der Radius der rechten Kugelfläche. Die Radien sind nach DIN 1335 vorzeichenbehaftet. Liegt der Krümmungsmittelpunkt einer Fläche rechts von der Linse, so ist r > 0, liegt er links, dann ist r < 0. Die als Linsenmacher-Formel bezeich-nete Gl. (1.13) zeigt, dass je nach Vorzeichen und Größe der Radien die Brennweite f ´ positiv oder negativ sein kann. Ist f ´ > 0, dann liegt ein reeller Brennpunkt vor, die Linse ist eine Sammellinse. Für f ´ < 0 ist der Brennpunkt virtuell, die Linse ist eine Zerstreuungslinse (Abb. 1.8).

Abb. 1.8. Linsenformen und Linseneigenschaften

Der objektseitige Brennpunkt F liegt symmetrisch zu F´ auf der anderen Seite der Linse. Beide Brennweiten sind betragsmäßig gleich:

ff . (1.14)

Page 32: Photonik: Grundlagen, Technologie und Anwendung

1.1 Geometrische Optik 11

Die Abbildung eines ausgedehnten Gegenstandes kann sehr einfach gra-fisch bestimmt werden mithilfe von ausgewählten Strahlen (Abb. 1.9). Aus dem Strahlensatz der Geometrie folgt unmittelbar die Abbildungsgleichung

faa111

(1.15)

sowie der Abbildungsmaßstab

aa

yy

. (1.16)

Abb. 1.9. Abbildung eines Gegenstandes mithilfe von Brennpunktstrahlen und Mittelpunktstrahl

Eine besonders elegante Beziehung zwischen Objekt- und Bildort liefert die Newton’sche Abbildungsgleichung

2fzz , (1.17)

bei der die Objekt- und Bildweiten z und z´ von den zugehörigen Brenn-punkten F und F´ aus gemessen werden.

Alle Strecken besitzen nach DIN 1335 ein Vorzeichen. Strecken, die nach rechts oder nach oben weisen, sind positiv. Strecken, die nach links oder nach unten weisen, sind negativ. Zur Erleichterung sind die Strecken in den Abbildungen halbseitig gepfeilt.

Beispiel:Im Abstand a = 60 cm vor einer Zerstreuungslinse mit f´ = 30 cm steht ein Gegenstand. Wo entsteht sein Bild und wie groß ist der Abbildungsmaßstab?

Page 33: Photonik: Grundlagen, Technologie und Anwendung

12 1 Grundlagen

Lösung:Aus Gl. (1.15) folgt für die Bildweite a´ = 20 cm. Der Abbildungsmaßstab ist

´ = 1/3. Das Bild liegt demnach links von der Linse, es ist virtuell, aufrecht und auf ein Drittel verkleinert.

Dicke Linsen an Luft

Abb. 1.10. Lage der Hauptebenen bei einer dicken Sammellinse

Abbildung 1.10 zeigt das Verhalten von Strahlen, die parallel zur opti-schen Achse auf eine dicke Linse fallen. Der Strahl, der von links auf die Linse fällt, wird nach zweimaliger Brechung in den Brennpunkt F´ abge-bildet. Zweckmäßigerweise wird der tatsächliche Strahlengang im Innern der Linse ignoriert. Die gestrichelten Verlängerungen der Strahlen des Außenbereichs definieren durch ihren Schnittpunkt die so genannte Hauptebene H´. Wenn man ihre Lage kennt, kann man einen von links kommenden achsenparallelen Strahl bis zur Hauptebene H´ verlängern und von dort weiter führen bis zum Brennpunkt F´. Sinngemäß wird so auch die Hauptebene H festgelegt. Für die Abstände der Hauptebenen von den Scheiteln gilt (s. Abschn. 1.1.5)

.1und12L

LH

1L

LH r

dnnfs

rd

nnfs (1.18)

Die Brennweite f´ bzw. Brechkraft D´ der dicken Linse beträgt

21L

2L

21L

11111rrd

nn

rrnD

f. (1.19)

Page 34: Photonik: Grundlagen, Technologie und Anwendung

1.1 Geometrische Optik 13

Die Abstände der Brennpunkte von den Scheiteln ergeben sich durch Subtraktion der Strecken: HFHF und sfssfs .

Beispiel:Eine Glaskugel mit dem Radius r = 1 mm und der Brechzahl nL = 1,5 wird als Linse verwendet. Wie groß ist die Brennweite f ´, wo liegen die Hauptebenen H und H´ sowie die Brennpunkte F und F´?

Lösung:

Mit r1 = + r, r2 = r und d = 2r folgt aus Gl. (1.19) mm5,121L

L rnnf . Nach

Gl. (1.18) folgt für die Lage der Hauptebenen rsrs HH und . Die Haupt-

ebenen liegen also aufeinander in der Linsenmitte. Die Entfernungen der Brenn-punkte von den Scheiteln sind somit s´F´ = + 0,5 mm und sF = 0,5 mm.

Die Abbildungsgleichung Gl. (1.15) behält ihre Gültigkeit, wenn die Ge-genstandsweite a von der Hauptebene H und die Bildweite a´ von der Hauptebene H´ aus gemessen werden. Auch die zeichnerische Konstruktion von Abb. 1.9 kann leicht modifiziert durchgeführt werden (Abb. 1.11). Während bei der dünnen Linse der Mittelpunktstrahl ungebrochen durch die Linse tritt, erfährt der Strahl, der zum Punkt K führt, einen Parallelversatz zum Punkt K´. Punkte, in denen im Gegenstands- und Bildraum parallele Strahlen die optische Achse schneiden, heißen Knotenpunkte. Wenn die Linse wie in Abb. 1.11 beiderseits vom selben Medium umgeben ist, fallen die Knotenpunkte und die Hauptpunkte zusammen. Ist aber die Linse links und rechts von verschiedenen Medien umgeben, dann liegen die Knoten-punkte und die Hauptpunkte an verschiedenen Stellen (s. Abschn. 1.1.5).

Abb. 1.11. Bildkonstruktion bei der dicken Linse

Page 35: Photonik: Grundlagen, Technologie und Anwendung

14 1 Grundlagen

Denkt man sich in der Hauptebene H einen Gegenstand (a = 0), so lie-fert die Abbildungsgleichung (1.15) als Bildort die Hauptebene H´ (a´ = 0). Der Abbildungsmaßstab wird dabei ´ = + 1. Damit lassen sich die Hauptebenen H und H´ interpretieren als das konjugierte Ebenenpaar, für das der Abbildungsmaßstab ´ = + 1 ist. Ebenso ist K und K´ das kon-jugierte axiale Punktepaar, für welches das Winkelverhältnis ´ = +1 ist.

1.1.4.2 GRIN-Linsen

Abb. 1.12. Strahlkrümmung bei der GRIN-Linse

GRIN-Linsen (graded index), auch bekannt unter dem Handelsnamen SELFOC-Linsen, sind kleine Glasstäbchen von typischerweise 2 bis 3 mm Durchmesser und einigen mm Länge, deren Brechungsindex sich kontinu-ierlich ändert wie bei der Gradientenfaser (Abb. 1.7 b). In solchen Medien laufen die Strahlen auf gekrümmten Bahnen. Abbildung 1.12 zeigt einen Meridionalschnitt durch eine Gradientenfaser, bei welcher der Brechungs-index von der Mitte nach außen kontinuierlich abnimmt. Die Strahlkurve kann aus dem Snellius´schen Brechungsgesetz ermittelt werden:

Nach Gl. (1.7) ist das Produkt aus Brechzahl und Sinus des Winkels re-lativ zum Lot eine Konstante: const,sinn oder const,cosn wobei

der Ergänzungswinkel zu 90 ist. Es gilt also bei variablem Brechungs-index

)d(cos)d()(cos)( rrrrnrrn .

Wird die rechte Seite in eine Taylor-Reihe entwickelt, wobei Glieder höhe-rer Ordnung vernachlässigt werden, dann ergibt sich

rrnr

rnnn d

ddcosd

ddsincoscos oder

rn

rn

dd

ddtan .

Page 36: Photonik: Grundlagen, Technologie und Anwendung

1.1 Geometrische Optik 15

Nun ist aber )dd(tan zr und damit folgt rn

zn

dd

dd

. Mit zr

ddtan

erhält man schließlich die Differenzialgleichung für die Strahlkurve

rn

zrn

dd

dd

2

2. (1.20)

Das Brechzahlprofil einer Gradientenfaser ist meist parabolisch gemäß (s. Kap. 3)

221

2

1 121)( ra

narnrn .

Hier ist n1 die Brechzahl auf der optischen Achse, die relative Brech-zahldifferenz zwischen Kern und Mantel und a der Radius des Kerns. Mit n(r) n1 ergibt sich die Differenzialgleichung

02dd

22

2r

azr ,

die durch harmonische Funktionen gelöst wird:

02sinˆ)( za

rzr . (1.21)

Die Periodenlänge (pitch length) ist im Rahmen der gemachten Nähe-rung für alle Strahlwege gleich (s. Abb. 1.7 b) und beträgt

22 ap . (1.22)

Fallen Strahlen außerhalb der optischen Achse schief auf die Stirnfläche (skew rays), dann verlaufen sie im Innern des Stäbchens auf Schrauben-bahnen mit elliptischem Querschnitt. Man kann zeigen, dass auch für diese Strahlen die pitch-Länge durch Gl. (1.22) beschrieben wird. Abbil-dung 1.13 zeigt einige Strahlformen für GRIN-Linsen mit halber oder vier-tel pitch-Länge.

Abb. 1.13. Strahlwege in GRIN-Linsen

Page 37: Photonik: Grundlagen, Technologie und Anwendung

16 1 Grundlagen

Beispiel:Auf eine p/4-GRIN-Linse fällt ein paralleles Strahlenbündel, das unter dem Win-kel 0 = 10 zur optischen Achse geneigt ist. In welchem Abstand re von der opti-schen Achse liegt der Bildpunkt aller Strahlen auf der Endfläche des Stäbchens? Die numerische Apertur beträgt AN = 0,37, der Brechungsindex des Glases ist n n1 = 1,6 und der Radius a = 1 mm.

Lösung:

Nach Gl. (1.12) ist 2122

21N nnnA . Damit wird nach Gl. 1.22) die Peri-

odenlänge p = 27,17 mm und p/4 = 6,79 mm. Infolge der Brechung an der Stirn-fläche ist der Winkel der Strahlen relativ zur optischen Achse im Innern der Linse

23,6/sinarcsin 101 n . Nun gilt nach Gl. (1.21)

0e cosˆ4

rrpr und 010

cos2ˆtandd

pr

zr

z, woraus für den gesuch-

ten Abstand folgt: mm.472,0tan2 1epr

1.1.5 Matrixmethoden der paraxialen Optik

Optische Systeme bestehen meist aus mehreren hintereinander angeordne-ten Linsen und anderen Bauelementen. Eine elegante Beschreibung des Weges, den ein Lichtstrahl durch ein solches System nimmt, bietet die Matrixmethode.

Abb. 1.14. Strahlenverlauf bei einem beliebigen optischen System

Ein Strahl ist durch zwei Parameter beschreibbar (Abb. 1.14). Bei-spielsweise durch die Höhe h1 in einer beliebigen Referenzebene RE1 so-wie den Neigungswinkel 1 relativ zur optischen Achse. Die Höhe h2 und der Winkel 2 in einer anderen Referenzebene RE2 hängt linear von den Eingangsdaten h1 und 1 ab:

112 BhAh

112 DhC .

Page 38: Photonik: Grundlagen, Technologie und Anwendung

1.1 Geometrische Optik 17

In Matrixschreibweise lautet dieses Gleichungssystem

1

1

2

2 hhM (1.23)

DCBA

M ist die Systemmatrix, deren Form von den optischen Bau-

teilen des Systems abhängt. Im Folgenden werden die wichtigsten Matri-zen beschrieben.

Transfermatrix

Abb. 1.15. Elemente der optischen Abbildung, a) Transfer, b) Brechung, c) Linse, d) Reflexion

Als Transfer wird der Weg eines Strahls innerhalb eines homogenen Me-diums (einheitlicher Brechungsindex) bezeichnet. Nach Abb. 1.15 a) gilt für die Winkel 2 = 1 und für die Höhen 112 tandhh bzw. bei para-

xialer Optik 112 dhh . In Matrixschreibweise lautet die Verknüpfung

1

1

2

2 hhT

mit der Transfermatrix

101 d

T . (1.24)

Page 39: Photonik: Grundlagen, Technologie und Anwendung

18 1 Grundlagen

Brechungsmatrix

Abbildung 1.15 b) zeigt die Brechung eines Strahls an einer Kugelfläche, die zwei Medien mit den Brechzahlen n und n´ voneinander trennt. Aus

den Winkelbeziehungen rh

und rh

sowie

dem Brechungsgesetz in paraxialer Form nn folgt

hhB

mit der Brechungsmatrix

nn

rnnn

01B (1.25)

Strahlmatrix einer Linse

Nach Abbildung 1.15 c) falle ein Strahl auf eine dicke Linse mit Brechzahl nL, die links und rechts umgeben ist von Medien mit den Brechzahlen n1

und n2. Der Weg des Lichtstrahls wird durch drei Matrizen beschrieben:

Brechung an der Fläche S1:

11

1 S1

1S

S1

1 hhB ,

Transfer von S1 nach S2:1

1SS

2

221

hhT und

Brechung an der Fläche S2:2

2

2 S2

2S

S2

2 hhB .

Insgesamt werden damit die Ausgangsgrößen mit den Eingangsgrößen verknüpft durch

11

1212

2 S1

1dick

S1

1SSSS

S2

2 hhhLBTB

mit der Strahlmatrix für dicke Linsen

L1L

LL

2

L

01

10101

dicknn

rnnn

nn

rnnn

dL (1.26)

Page 40: Photonik: Grundlagen, Technologie und Anwendung

1.1 Geometrische Optik 19

Für den Fall der dünnen Linse (d = 0), die beidseitig von Luft umgeben ist (n = n´ = 1) folgt

1)1(01

12

11L

Luftdünn,rrnL .

Das Matrixelement C der DCBA

-Matrix ist nach Gl. (1.13) identisch mit

der negativen Brechkraft der Linse. Damit vereinfacht sich die Matrix zu

101

101

1Luftdünn, DfL . (1.27)

Reflexionsmatrix

Abbildung 1.15 d) zeigt die Reflexion an einem sphärischen Spiegel (s. auch Abb. 1.3) mit aufgefaltetem Strahlengang. Die Höhen und Winkel hängen zusammen gemäß

hhR mit der Reflexionsmatrix

101

2r

R . (1.28)

GRIN-Linse

Die Linsenmatrix einer GRIN-Linse (s. Abschn. 1.1.4.2) mit Brechungsin-dex n1 im Kern, die sich an Luft befindet, lautet

ddn

dn

d

cossin

sin1cos

11GRINM . (1.29)

Hier ist d die Länge des Stäbchens und ap22

(s. Gl. 1.22).

Systemmatrix

Für ein beliebiges System brechender und reflektierender Flächen (Abb. 1.14) sind die Höhen und Winkel an zwei Referenzebenen durch die

Page 41: Photonik: Grundlagen, Technologie und Anwendung

20 1 Grundlagen

Gl. (1.23) verknüpft. Die Systemmatrix ergibt sich durch Matrizenmulti-plikation verschiedenster Transfer-, Brechungs- und Reflexionsmatrizen:

1

1

2

2 hhM mit 121 .... MMMMM kkDC

BA. Für die Deter-

minante der Systemmatrix gilt stets

1

2detnnBCADM , (1.30)

wobei n1 und n2 die Brechungsindizes an den Referenzebenen RE1 und RE2

sind. Sehr häufig ist am Anfang und am Ende eines Systems Luft, so dass

1det BCADM .

Dies ist ein wichtiges Ergebnis zur Kontrolle der Systemmatrix auf etwai-ge Rechenfehler.

Bedeutung der Matrixelemente

Falls eines oder mehrere Matrixelemente der Systemmatrix null sind, er-geben sich interessante Schlussfolgerungen (Abb. 1.16).

Abb. 1.16. Strahlengänge beim Verschwinden spezieller Matrixelemente

A = 0: Die Höhe in der Referenzebene RE2 wird h2 = B 1. Sie hängt also nur vom Winkel 1 ab und nicht von der Höhe h1. Das bedeutet, dass ein in RE1 parallel einfallendes Strahlenbündel sich in RE2 in einem Punkt schneidet. Damit ist RE2 identisch mit der bildseitigen Brennebene.

B = 0: Die Höhe h2 in der Referenzebene RE2 hängt nach h2 = Ah1 nur von der Höhe h1 in RE1 ab, nicht dagegen vom Winkel 1. Damit werden alle Strahlen, die von einem Punkt in RE1 ausgehen, in einem anderen

Page 42: Photonik: Grundlagen, Technologie und Anwendung

1.1 Geometrische Optik 21

Punkt in RE2 wieder vereinigt. Demnach sind RE1 und RE2 Gegenstands- und Bildebene (sie sind konjugiert). Der Abbildungsmaßstab ist

Ayy

. (1.31)

C = 0: Der Winkel 2 hängt gemäß 2 = D 1 nur vom Winkel 1 aber nicht von der Höhe h1 ab. Parallelstrahlen werden also wieder in Parallel-strahlen überführt. Ein solches System wird als afokales System bezeichnet und wird beim Fernrohr realisiert. Die Winkelvergrößerung ist

D1

2 . (1.32)

D = 0: Mit dem gleichen Argument wie bei A = 0 sieht man, dass in die-sem Fall die Referenzebene RE1 die gegenstandseitige Brennebene ist.

Lage der Kardinalpunkte

Bezüglich der zwei Referenzebenen RE1 und RE2 lassen sich einfache Ausdrücke finden für die Abstände zu den interessanten Punkten eines optischen Systems. Sie sind in Tabelle 1.3 zusammen gestellt.

Tabelle 1.3. Lage der Kardinalpunkte eines optischen Systems

Kardinalpunkt Beziehung

Abstand des objektseitigen Brennpunktes F von RE1 C

Ds F1, (1.33)

Abstand des bildseitigen Brennpunktes F´ von RE2 C

As F2, (1.34)

Abstand der objektseitigen Hauptebene H von RE1 C

nnDs 21H1, (1.35)

Abstand der bildseitigen Hauptebene H´ von RE2 C

As 1H2, (1.36)

Abstand des objektseitigen Knotenpunktes K von RE1 C

Ds 1K1, (1.37)

Abstand des bildseitigen Knotenpunktes K´ von RE2 C

Anns 21K2, (1.38)

objektseitige Brennweite Cnnf 21 (1.39)

bildseitige Brennweite C

f 1(1.40)

Page 43: Photonik: Grundlagen, Technologie und Anwendung

22 1 Grundlagen

Beispiel:Gegeben sind zwei dünne Sammellinsen mit den Brennweiten cm601f und

cm502f , die im Abstand e = 25 cm an Luft aufgestellt sind (Abb. 1.17). Wie groß ist die Systembrennweite f ´ und wo liegen die Hauptebenen H und H´ sowie die Brennpunkte F und F´ des Systems?

Lösung:Zweckmäßigerweise legt man die Referenzebene RE1 in die Linse L1 und die Ebe-ne RE2 in die Linse L2. Damit wird die Systemmatrix ein Produkt aus zwei Lin-senmatrizen nach Gl. (1.27) sowie einer Transfermatrix nach Gl. (1.24):

101

101

101

121112ff

eLTLM . Nach Ausmultiplikation ergibt sich

22121

1

1

111

fe

ffe

ff

fe e

M und numerisch 0,5cm0,02833-

cm255833,01-M .

Zur Kontrolle wird die Determinante berechnet: 1detM . Für die Gesamtbrenn-

weite gilt nach Gl. (1.40)

2121

111ffe

ffC

f = 2,83 dpt oder f´ = 35,29 cm.

Für die Lage der Hauptebenen folgt mit den Gln. (1.35) und (1.36):

11

2

H,1

1111ff

fes

bzw. s1,H = 17,65 cm und 1111

2

1

2H,2 ff

efs bzw.

s´2,H´ = 14,71 cm. Für die Abstände der Brennpunkte von den Linsen ergibt sich mit den Gln. (1.33) und (1.34)

effs 21F,1

111 bzw. s1,F = 17,65 cm und

effs 12F,2

111 bzw.

s´2,F´ = 20,59 cm.

Abb. 1.17. Brennpunkte und Hauptebenen eines Systems aus zwei Sammellinsen

Page 44: Photonik: Grundlagen, Technologie und Anwendung

1.2 Wellenoptik 23

Beispiel:Ein paralleles Lichtbündel fällt auf eine GRIN-Linse der Länge d = 0,22 p. Die pitch-Länge ist p = 27,17 mm. Der Brechungsindex im Kern ist n1 = 1,6. In wel-chem Abstand hinter der Endfläche liegt der Brennpunkt F´ der Linse?

Lösung:Mit = 2 /p = 0,231 mm-1 ist nach Gl. (1.34) der gesuchte Abstand:

mm.516,0cotsin

cos

11F,2 n

ddnd

CAs

1.2 Wellenoptik

1.2.1 Elektromagnetische Wellen

Licht ist eine elektromagnetische Welle, wobei sich elektrische und mag-netische Wechselfelder mit Lichtgeschwindigkeit von einer Quelle entfer-nen. Die Maxwell´schen Gleichungen der Elektrodynamik führen auf Wel-len-Differenzialgleichungen für die elektrische Feldstärke E und die magnetische Feldstärke H von der Form

.0

und022

0r0r

220r0r

t

t

HH

EE (1.41)

Hier ist der Laplace-Operator

2

2

2

2

2

2

zyx,

r die relative Permittivität (Dielektrizitätszahl), 0 die elektrische Feldkon-stante, r die relative Permeabilität und 0 die magnetische Feldkonstante. Die Gln. (1.41) werden allgemein gelöst von Funktionen des Typs

tttt HE crfrHcrfrE ,und, .

Insbesondere werden sie gelöst von harmonischen Funktionen. Beispiels-weise lautet die Lösung für eine Lichtwelle, die sich in z-Richtung ausbrei-tet, wobei die elektrische Feldstärke E in x-Richtung und die magnetische Feldstärke H in y-Richtung weist (Abb. 1.18)

cosˆ,

undcosˆ),(

0

0

zkttz

zkttz

y

x

HH

EE (1.42)

Page 45: Photonik: Grundlagen, Technologie und Anwendung

24 1 Grundlagen

oder in komplexer Notation

.eˆundeˆ 00 jj zkty

zktx HHEE (1.43)

Dabei ist

= 2 f = 2 /T (1.44)

die Kreisfrequenz, mit der die Felder an einem festen Ort oszillieren.

k = 2 / (1.45)

ist die Wellenzahl oder Ausbreitungskonstante der Welle, wobei die Wel-lenlänge ist (s. Abb. 1.18).

Abb. 1.18. Momentbild einer elektromagnetischen Welle

Das Produkt aus Wellenlänge und Frequenz f ist die Phasengeschwin-digkeit c, mit der sich die Welle ausbreitet:

kfc . (1.46)

Bei der Welle nach Gln. (1.42) bzw. (1.43) handelt es sich um eine ebe-ne Welle. Flächen konstanter Phase ( .0 constzkt ) sind Ebenen senkrecht zur z-Achse. Läuft die ebene Welle in eine beliebige Raumrich-tung, die durch den Richtungsvektor k symbolisiert wird (Abb. 1.19), so lautet die Wellengleichung

.eˆ),( 0j rkErE tkt (1.47)

Page 46: Photonik: Grundlagen, Technologie und Anwendung

1.2 Wellenoptik 25

Die Flächen konstanter Phase .0 constt kr stehen senkrecht auf

dem Wellenvektor k, wobei |k| = 2 / .

Abb. 1.19. Phasenflächen einer ebenen Welle

Bei der elektromagnetischen Welle steht der Vektor E der elektrischen Feldstärke immer senkrecht auf dem Vektor H der magnetischen Feldstär-ke. Bei einer freien Welle, die sich ungehindert im Raum ausbreitet, steht E und H senkrecht auf der Ausbreitungsrichtung wie in Abb. 1.18. Die elektromagnetische Welle ist also rein transversal. Wenn die Welle aller-dings geführt wird, wie z.B. in einem Lichtwellenleiter, dann können die Feldvektoren E und H auch longitudinale Komponenten aufweisen.

Bei einer Lichtwelle, die sich im Vakuum ausbreitet, liefert die Wellen-gleichung (1.41) die Lichtgeschwindigkeit im leeren Raum

000

1c . (1.48)

Breitet sich dagegen die Welle in einem Medium aus, so wird die Phasen-geschwindigkeit reduziert auf

0r0r

1c . (1.49)

Mit der Definition des Brechungsindex n nach Gl. (1.5) ergibt sich

rr0ccn .

Da in der Praxis verwendete optische Substanzen in der Regel nicht ferro-magnetisch sind, d.h. r 1, gilt die als Maxwell-Relation bekannte Bezie-hung

rn . (1.50)

Page 47: Photonik: Grundlagen, Technologie und Anwendung

26 1 Grundlagen

Der optische Brechungsindex hängt also ab von der Permittivitätszahl r.Da diese frequenzabhängig ist, wird auch der Brechungsindex von der Frequenz bzw. Wellenlänge abhängig. Dies ist der Grund für die Dispersi-on des Lichts (Abschn. 1.1.3).

Energietransport

Die Energiedichte (Energie pro Volumenelement) setzt sich zu gleichen Teilen aus elektrischer und magnetischer Feldenergie zusammen:

20r

20r

20r

20rme 2

121 HEHEwww . (1.51)

Sie oszilliert also räumlich wie in Abb. 1.18 dargestellt. An einem festen Ort oszilliert die Energiedichte mit der doppelten Lichtfrequenz:

)2cos1(ˆ21cosˆ)( 2

0r22

0r tttw EE .

Die Energiestromdichte S ist gegeben durch

cccwS 20r

20r HE . (1.52)

Sie oszilliert wie die Energiedichte w mit doppelter Lichtfrequenz. Da alle verfügbaren Detektoren zu träge sind, um diese Schwankungen zu regist-rieren, werden immer nur die zeitlichen Mittelwerte gemessen. Der Mit-telwert der Energiestromdichte oder Intensität beträgt

ccSI 20r

20r

ˆ21ˆ

21 HE oder mit Gl. (1.49)

2

0r

0r2

0r

0r ˆ21ˆ

21 HESI . (1.53)

Die elektrische Feldstärke E und die magnetische Feldstärke H sind nicht unabhängig voneinander, sondern über die Maxwell´schen Gleichun-gen verknüpft. Das Verhältnis der Feldstärken ist die Feldwellenimpedanz(Wellenwiderstand).

00r

0r 1 Zn

ZHE

, (1.54)

Page 48: Photonik: Grundlagen, Technologie und Anwendung

1.2 Wellenoptik 27

wobei die Wellenimpedanz des Vakuums gegeben ist durch

7,3760

00Z . (1.55)

Die Intensität lässt sich auch als Vektorprodukt der elektrischen und magnetischen Feldstärke darstellen:

HES . (1.56)

Der Vektor S weist in Ausbreitungsrichtung der Welle und wird als Poyn-ting´scher Vektor der Energiestromdichte bezeichnet. Aus dieser Definiti-on ist ersichtlich, dass sich die in Abb. 1.18 dargestellte Welle in positiver z-Richtung ausbreitet.

Bei Kugelwellen, die von einer punktförmigen Quelle gleichmäßig in al-le Raumrichtungen ausgesandt werden, verteilt sich die Strahlungsenergie auf immer größere Kugelflächen. Daher nimmt die Energiestromdichte Sumgekehrt proportional zum Quadrat des Abstandes r von der Quelle ab. Wegen Gl. (1.52) nimmt die elektrische und magnetische Feldstärke um-gekehrt proportional zum Abstand ab. Die Gleichung für die elektrische Feldstärke einer Kugelwelle lautet demnach

.0füre),( 0j rr

tr rktAE (1.57)

Beispiel:Ein Halbleiterlaser emittiert eine Strahlungsleistung von = 10 mW auf einer Fläche von 0,3 m x 2 m. Wie groß ist die Intensität sowie die Amplitude der elektrischen Feldstärke und der magnetischen Flussdichte?

Lösung:Unter der vereinfachenden Annahme, dass die Leistung über den gesamten Strahl-querschnitt gleichmäßig abgestrahlte wird, ist die Intensität

2mGW7,16

ASI .

Die Amplitude der elektrischen Feldstärke ergibt sich aus Gl. (1.53) zu

mV1054,322ˆ 6

000

ZIcIE .

Die Amplitude der magnetischen Flussdichte ist mit Gl. (1.55)

mT8,11ˆˆˆ0

00 E

ZHB .

Page 49: Photonik: Grundlagen, Technologie und Anwendung

28 1 Grundlagen

1.2.2 Polarisation

1.2.2.1 Polarisationsformen

Natürliches Licht, wie es z.B. von Glühstrahlern (Sonne) emittiert wird, besteht aus vielen kurzen Wellenzügen, deren elektrische Feldvektoren senkrecht zur Ausbreitungsrichtung statistisch regellos im Raum ausgerich-tet sind. Der E-Vektor hat also keine Vorzugsrichtung. Wird durch geeigne-te optische Bauelemente (Polarisatoren) erzwungen, dass der E-Vektor im Raum in ausgezeichneter Richtung schwingt, so bezeichnet man die Welle als polarisiert. Folgende Formen der Polarisation werden unterschieden:

Abb. 1.20. Erzeugung von zirkular polarisiertem Licht

Lineare Polarisation: Der E-Vektor schwingt in einer Ebene, der Schwingungsebene. Beispielsweise ist die in Abb. 1.18 dargestellte Welle linear polarisiert. Die Schwingungsebene ist die x,z-Ebene.Zirkulare Polarisation: Werden nach der Art von Abb. 1.20 zwei elekt-romagnetische Wellen so überlagert, dass die E-Vektoren in x- und y-Richtung gleiche Amplituden aufweisen, die beiden Wellen aber um

/4 gegeneinander verschoben sind, dann läuft der resultierende E-Vektor räumlich auf einer Schraube. An einem festen Ort z läuft die Spitze des E-Vektors auf einem Kreis. Blickt der Beobachter der Welle entgegen und der E-Vektor läuft im Uhrzeigersinn um, dann spricht man von rechts-zirkularer Polarisation. Bei Drehung im Gegenuhrzei-gersinn liegt links-zirkulare Polarisation vor. Elliptische Polarisation: Sind bei der Überlagerung von zwei senk-recht aufeinander schwingenden Teilwellen entweder die Amplituden ungleich oder der Gangunterschied von /4 verschieden, dann läuft der resultierende E-Vektor auf einer elliptischen Schraube. In einer Ebene am Ort z läuft die Spitze des E-Vektors auf einer Ellipse (Abb. 1.21).

Page 50: Photonik: Grundlagen, Technologie und Anwendung

1.2 Wellenoptik 29

Abb. 1.21. Elliptisch polarisiertes Licht. a) Bahnkurve der Spitze des E-Vektors, b) Zerlegung des E-Vektors in Komponenten

1.2.2.2 Mathematische Beschreibung des Polarisationszu-stands

Gemäß Abb. 1.21 soll sich ein Lichtstrahl senkrecht zur Zeichenebene in z-Richtung ausbreiten. In der Zeichenebene (z = 0) lässt sich der Vektor der elektrischen Feldstärke in Komponenten in x- und y-Richtung zerlegen:

tt

y

tx

y

x

EE j

)(j

)(jeˆ

eˆeˆ

EE ;

dabei ist

y

x

y

x

EE

j

j

eˆeˆ

E (1.58)

die komplexe Amplitude, welche den Polarisationszustand bestimmt. Zur Beschreibung des Polarisationszustandes wird häufig der als Jones-Vektorbezeichnete normierte Amplitudenvektor

y

x

y

x

EE

E j

j

eˆeˆ

ˆ1J (1.59)

benutzt, wobei

22 ˆˆˆyx EEE

der Betrag der Amplitude ist. Tabelle 1.4 zeigt eine Zusammenstellung der wichtigsten Jones-Vektoren für verschiedene Polarisationsarten.

Page 51: Photonik: Grundlagen, Technologie und Anwendung

30 1 Grundlagen

Tabelle 1.4. Jones-Vektoren für verschiedene Polarisationszustände. Die x- und y-Richtung bezieht sich auf das Koordinatensystem von Abb. 1.21

Polarisationszustand Jones-Vektor

lineare Polarisation in x-Richtung 01

xJ

lineare Polarisation in y-Richtung 10

yJ

lineare Polarisation unter einem Winkel zur y-Achse sin

cosJ

links-zirkulare Polarisation j-

12

1lzJ

rechts-zirkulare Polarisation j1

21

rzJ

elliptische Polarisation = y – x; x = 0 jell eˆ

ˆˆ1

y

x

EE

EJ

Zwei Jones-Vektoren, für die gilt

,021 JJ

werden als orthogonal bezeichnet. Diese Bedingung erfüllen z.B. zwei senkrecht zu einander polarisierte Wellen oder zwei gegenläufig zirkular polarisierte Wellen. Durch Linearkombination orthogonaler Jones-Vektoren lassen sich beliebige Polarisationszustände beschreiben. So kann beispielsweise linear polarisiertes Licht aufgefasst werden als Überlage-rung von links- und rechts-zirkular polarisierten Wellen:

xJJJ 201

202

21

j1

21

j1

21

rzlz .

Der Vorfaktor 2 beeinflusst lediglich die Intensität, aber nicht den Pola-risationszustand.

Beispiel:

Welchen Polarisationszustand beschreibt der Jones-Vektor 1j

21J ?

Page 52: Photonik: Grundlagen, Technologie und Anwendung

1.2 Wellenoptik 31

Lösung:Der Vektor kann folgendermaßen umgeformt werden:

lzjj-

12j

1j

21 JJ .

Es handelt sich also nach Tabelle 1.4 um links-zirkulare Polarisation. Der kom-plexe Vorfaktor j ändert die Phasen beider Wellen in gleicher Weise, beeinflusst also nicht den Polarisationszustand.

Änderung des Polarisationszustands

Der Polarisationszustand einer Welle kann sich beim Durchgang durch verschiedene Bauelemente ändern. Die Eigenschaften dieser polarisations-optischen Komponenten können durch Jones-Matrizen beschrieben wer-den. Die Jones-Matrix ist eine 2x2-Matrix, die den Anfangszustand Ji (ini-tial) mit dem Endzustand Jf (final) verknüpft:

if JTJ . (1.60)

Die Jones-Matrizen der wichtigsten Bauelemente sind in Tabelle 1.5 zu-sammengestellt.

Tabelle 1.5. Jones-Matrizen einiger polarisationsoptischer Bauteile

Bauteil Jones-Matrix

linearer Polarisator, Schwingungsrichtung in x-Richtung 00

01xT

linearer Polarisator, Schwingungsrichtung in y-Richtung 10

00yT

linearer Polarisator, Schwingungsrichtung unter Winkel zur x-Achse 2

2

sincossincossincosT

Viertelwellenplatte, schnelle Achse in x-Richtung j0

01,4/ xT

Viertelwellenplatte, schnelle Achse in y-Richtung j0

01,4/ yT

Halbwellenplatte, schnelle Achse in x- oder y-Richtung 10

012/T

Polarisationsdreher um Winkel cossinsincos

T

Page 53: Photonik: Grundlagen, Technologie und Anwendung

32 1 Grundlagen

Polarisatoren sind Bauelemente, die nur die Komponente des elektri-schen Feldvektors durchlassen, die in einer bestimmten Vorzugsrichtung schwingt. Unpolarisiertes Licht wird nach Durchlaufen des Polarisators linear polarisiert. Verzögerungsplatten zeichnen sich dadurch aus, dass die Wellengeschwindigkeit für zwei senkrecht aufeinander stehende Schwin-gungsrichtungen verschieden ist. Nach Durchlaufen der Platte ist deshalb die in der langsameren Richtung schwingende Welle gegenüber der in der schnelleren Richtung schwingenden verzögert. Ist die Verzögerung bei-spielsweise eine Viertelwellenlänge, so entsteht aus linear polarisiertem Licht, das unter 45• zu den Vorzugsrichtungen schwingt, zirkular polari-siertes Licht (s. Abb. 1.20). Polarisationsdreher drehen die Schwingungs-ebene von linear polarisiertem Licht um einen bestimmten Winkel.

Beispiel:Die Wirkung von polarisationsoptischen Bauteilen auf polarisiertes Licht soll in folgenden Fällen untersucht werden:

a) In x-Richtung polarisiertes Licht fällt auf einen Polarisator (Analysator), dessen Durchlassrichtung die y-Richtung ist.

b) In x-Richtung polarisiertes Licht fällt auf einen Polarisator, dessen Durchlass-richtung unter dem Winkel gegen die x-Achse geneigt ist.

c) Rechts-zirkular polarisiertes Licht fällt auf einen Polarisator, dessen Durchlass-richtung die x-Richtung ist.

d) Linear polarisiertes Licht, das unter 45• zur x-Achse schwingt, fällt auf eine /4-Platte, deren schnelle Achse die x-Achse ist.

e) Linear polarisiertes Licht, das unter 45• zur x-Achse schwingt, fällt auf eine /2-Platte, deren schnelle Achse die x-Achse ist.

Lösung:

a)00

01

1000

f xy JTJ .

Das Licht wird bei gekreuzten Polarisatoren nicht durchgelassen.

b)sincos

coscossin

cos01

sincossincossincos 2

2

2

f xJTJ

Jcos .

Das Licht schwingt also nach Verlassen des Polarisators in dessen Vorzugsrich-tung . Der E-Vektor wird um den Faktor cos verkleinert. Die Intensität ist um den Faktor cos2 reduziert. Dies wird als Gesetz von Malus bezeichnet:

02cos II .

Page 54: Photonik: Grundlagen, Technologie und Anwendung

1.2 Wellenoptik 33

c) xx JJTJ2

101

21

21

j1

0001

rzf .

Zirkular polarisiertes Licht kann also durch einen linearen Polarisator nicht ausgelöscht werden. Dasselbe gilt auch für elliptisch polarisiertes Licht.

d) lz45,4/f j-1

21

21

11

j001

JJTJ x .

Aus linear polarisiertem wird zirkular polarisiertes Licht.

e)45452/f 1-

12

12

111

1001

JJTJ .

Die Schwingungsebene des Lichts hat sich um 90• gedreht.

1.2.2.3 Polarisationsoptische Komponenten

Reflexion und Brechung

Fällt natürliches Licht schief auf eine Glasplatte, so ist der reflektierte und der transmittierte Strahl teilweise polarisiert. Stehen diese beiden Strahlen senkrecht aufeinander, dann ist der reflektierte Strahl vollständig polari-siert, wobei der E-Vektor senkrecht zur Einfallsebene steht (Abb. 1.22). Der Einfallswinkel wird in diesem Fall als Brewster-Winkel P bezeichnet,wobei nach Gl. (1.7)

PPo

P cos)90sin(sin n oder

nPtan . (1.61)

Für einen Brechungsindex von beispielsweise n = 1,51 folgt P = 56,5•. Die Erklärung des Effekts liefert Abb. 1.22. Die Elektronen des Glases werden durch das elektrische Feld zu Schwingungen erregt und strahlen dann ih-

Abb. 1.22. Zum Brewster´schen Gesetz: Schwingungsrichtung a) senkrecht, b) parallel zur Einfallsebene

Page 55: Photonik: Grundlagen, Technologie und Anwendung

34 1 Grundlagen

rerseits die reflektierte Welle ab. Schwingt der E-Vektor in der Einfalls-ebene, dann wird gemäß der Richtcharakteristik des Hertz´schen Dipols in die Reflexionsrichtung nichts abgestrahlt. Damit ist der reflektierte Strahl nur senkrecht zur Einfallsebene polarisiert.

Dichroismus

Dichroitische Materialien lassen im Idealfall Licht einer bestimmten Schwingungsrichtung durch, während sie in der dazu senkrechten Rich-tung absorbieren. Dieser Effekt wird beispielsweise in Polarisationsfolien (Polaroid-Filter) zur Erzeugung von linear polarisiertem Licht ausgenutzt. Langgestreckte Kohlenwasserstoffmoleküle in Kunststofffolien werden durch mechanisches Recken parallel ausgerichtet und lassen nur E-Vekto-ren passieren, die senkrecht zur Molekülachse schwingen.

Doppelbrechung

In verschiedenen Kristallen wie z.B. dem isländischen Kalkspat (CaCO3)tritt Doppelbrechung auf. Fällt nach Abb. 1.23 a) ein Strahl senkrecht auf die Spaltfläche eines Kristalls, so spaltet er in zwei Teilstrahlen auf, den ordentlichen (o) und den außerordentlichen (e). Beide Teilstrahlen sind senkrecht zueinander polarisiert und haben verschiedene Ausbreitungsge-schwindigkeiten und damit verschiedene Brechungsindizes. Gelingt es, einen der beiden Teilstrahlen abzuspalten, bleibt der andere und damit line-ar polarisiertes Licht übrig. Dies wird realisiert in Polarisationsprismen wie dem Nicol´schen Prisma oder dem Glan-Thompson-Prisma (Abb. 1.23 b).

Abb. 1.23. Doppelbrechung: a) Strahlenverlauf im Hauptschnitt eines Kalkspats, b) Glan-Thompson-Prisma. Der ordentliche Strahl wird an der Kittfläche zweier Prismen total reflektiert, während der außerordentliche durchgelassen wird.

Optische Aktivität

Verschiedene Kristalle wie z.B. Quarz und Natriumchlorat sowie einige Lösungen (Zucker) drehen die Schwingungsebene von polarisiertem Licht beim Durchgang durch die Substanz. Stoffe, die dazu in der Lage sind, werden als optisch aktiv bezeichnet. Der Drehwinkel hängt von der Dicke

Page 56: Photonik: Grundlagen, Technologie und Anwendung

1.2 Wellenoptik 35

des Materials ab und beträgt beispielsweise bei Quarz 21,7 •/mm bei 589,3 nm Wellenlänge. Bei Lösungen ist der Drehwinkel abhängig von der Konzentration des gelösten aktiven Stoffes. Damit kann z.B. die Konzent-ration von Zucker in Lösungen bestimmt werden.

Bringt man transparente isotrope Substanzen in ein Magnetfeld und durchstrahlt sie in Richtung der Feldlinien mit linear polarisiertem Licht, dann wird die Polarisationsebene ebenfalls gedreht. Der Drehwinkel dieser Magneto-Rotation, auch bekannt als Faraday-Effekt, ist proportional zur Dicke d der Substanz und zur magnetischen Feldstärke H:

HdV . (1.62)

V wird als Verdet´sche Konstante bezeichnet. Der Faraday-Effekt kann verwendet werden zur Modulation von Licht. Eine andere Anwendung ist der optische Isolator, mit dessen Hilfe beispielsweise ein Halbleiterlaser von einem Lichtwellenleiter optisch isoliert wird (Abb. 1.24). Nach einer Drehung der Polarisationsebene um 45• lässt er das linear polarisierte Licht des Lasers in Richtung Lichtwellenleiter durch, das reflektierte Licht schwingt aber nach einer weiteren Drehung um 45• senkrecht zum Ein-gangspolarisator und wird deshalb nicht zum Laser durchgelassen.

Abb. 1.24. Optischer Isolator aus Polarisator und Faraday-Rotator

Elektrooptischer Effekt

Piezoelektrische Kristalle ohne Symmetriezentrum werden im elektrischen Feld doppelbrechend. Bei der longitudinalen Pockels-Zelle (Abb. 1.25) liegt das angelegte elektrische Feld in Richtung der optischen Achse des Kristalls und erzeugt in der dazu senkrechten Ebene eine schnelle und eine langsame Achse. Damit entsteht eine steuerbare Verzögerungsplatte. Die Brechzahldifferenz zwischen langsamer und schneller Achse wächst linear mit der elektrischen Feldstärke und erzeugt nach Durchlaufen der Länge leinen Gangunterschied zwischen den beiden Teilwellen von

Ernl 3o ,

Page 57: Photonik: Grundlagen, Technologie und Anwendung

36 1 Grundlagen

wobei no der ordentliche Brechungsindex und r die elektrooptische Kon-stante ist. Die erforderliche Spannung zur Erzeugung einer Halbwellen-platte wird damit

rnU 3

o

02/ 2

. (1.63)

Abb. 1.25. Lichtmodulation mit einer Pockels-Zelle

Beispiel:Für eine Pockels-Zelle aus KDP (KH2PO4) beträgt die relevante elektrooptische Konstante (Element eines Tensors) r63 = 10,6 • 10-12 m/V und die Brechzahl no = 1,51. Wie groß ist die Halbwellenspannung für die Wellenlänge = 1,06 meines Nd-YAG-Lasers?

Lösung:Nach Gl. (1.63) ergibt sich U = 14,4 kV.

Mit Pockels-Zellen lässt sich Licht bis in den GHz-Bereich schalten bzw. modulieren. Sie finden Verwendung bei der Hochgeschwindigkeitsfotogra-fie, Lichtmodulation beim Tonfilm und Bildfunk sowie als Güteschalter in Pulslasern.

1.2.3 Interferenz

1.2.3.1 Zweistrahlinterferenz

Werden zwei Wellen überlagert, treten Interferenzeffekte auf. Bei Licht-wellen kann Interferenz nur beobachtet werden, wenn die Teilwellen im Beobachtungsgebiet eine feste Phasenbeziehung aufweisen, d.h., wenn sie kohärent sind (s. Abschn. 1.2.3.2) und wenn die E-Vektoren in derselben Richtung polarisiert sind.

Page 58: Photonik: Grundlagen, Technologie und Anwendung

1.2 Wellenoptik 37

Überlagerung von Wellen gleicher Wellenlänge und Laufrichtung

Werden zwei ebene Wellen mit den Feldvektoren

)j(11

1eˆ zktEE und )j(22

2eˆ zktEE

die sich in z-Richtung ausbreiten überlagert, dann ergibt sich die resultie-rende Feldstärke aus der Summe der Feldstärken der Ausgangswellen:

)j()j(j2

j121 eˆeeˆeˆ 21 zktzkt EEEEEE .

Es entsteht also wieder eine ebene Welle mit derselben Frequenz bzw. Wellenlänge aber einer geänderten Amplitude. Die Intensität dieser Welle ist nach Gl. (1.53) proportional zum Quadrat der Amplitude:

EEE ˆˆ21ˆ

21 2

ZZI .

Mithilfe der komplexen Rechnung ergibt sich

)cos(ˆˆ2ˆˆˆˆ1221

22

21 EEEEEE und

)cos(2 122121 IIIII . (1.64)

Die resultierende Intensität hängt also außer von den Intensitäten der Aus-gangswellen von dem dritten Term, dem Interferenzterm ab.

Für den wichtigen Fall, dass die beiden interferierenden Wellen gleiche

Amplituden haben ( 2121 bzw.ˆˆ IIEE ) ergibt sich für die resultierende

Intensität (s. Abb. 1.30) mit 12 :

2cos4)cos1(2 2

11 III . (1.65)

Weisen zwei Wellen eine Phasenverschiebung auf, dann sind sie im Ortsraum um eine gewisse Wegstrecke, den Gangunterschied gegenein-ander verschoben. Beide Größen hängen zusammen gemäß

2. (1.66)

Die Bedingungen für die wichtigen Spezialfälle konstruktive und destruk-tive Interferenz sind in Tabelle 1.6 angegeben und in Abb. 1.26 dargestellt.

Page 59: Photonik: Grundlagen, Technologie und Anwendung

38 1 Grundlagen

Tabelle 1.6. Interferenzbedingungen für konstruktive und destruktive Interferenz. Ordnungszahl der Interferenz ,...2,1,0m

Bedingung für konstruktive Interferenz destruktive Interferenz

Gangunterschied m2

)12( m

Phasenverschiebung 2m )12( m

Abb. 1.26. Interferenz von Wellen mit gleicher Amplitude: a) konstruktive, b) de-struktive Interferenz

Überlagerung von Wellen mit verschiedenen Laufrichtungen

Es sollen zwei ebene Wellen mit gleicher Amplitude und Wellenlänge zur Interferenz gebracht werden, deren Wellenvektoren k1 und k2 unter dem Winkel 2 gegeneinander geneigt sind (Abb. 1.27). Der Einfachheit halber werden beide Nullphasenwinkel zu null gesetzt. Die resultierende Welle ergibt sich aus

)ee(eˆeˆeˆ 2121 -j-jj)j()j(21

rkrkrkrk EEEEEE ttt .

Mithilfe der Relation 2jjj e

2cos2ee

yxyx yx

ergibt sich

)2

j(1221

e2

cosˆ2ˆ rkk

rkkEEt

. (1.67)

Dies ist eine laufende Welle in Richtung des Summenvektors k1 + k2

(Winkelhalbierende in Abb. 1.27), deren Amplitude in der dazu senkrech-ten Richtung moduliert ist. Die Amplitude, gegeben durch den reellen Vor-faktor, wird null, falls

Page 60: Photonik: Grundlagen, Technologie und Anwendung

1.2 Wellenoptik 39

)12()( 12 mrkk , mit 2,...1,,0m

Dies ist die Gleichung einer Ebenenschar senkrecht zum Vektor (k2 – k1).Die Amplitude wird maximal, falls

2)( 12 mrkk .

Die Ebenen mit destruktiver Interferenz sind in Abb. 1.27 gestrichelt, die-jenigen mit konstruktiver Interferenz ausgezogen gezeichnet. Sie haben den Abstand

sin2. (1.68)

Trifft die laufende Welle auf einen lichtempfindlichen Film, so wird dieser an den Stellen mit konstruktiver Interferenz am stärksten belichtet, an den Stellen der Auslöschung gar nicht. Auf diese Weise lassen sich holographische Gitter herstellen.

Beispiel:Zur Herstellung eines Phasengitters für einen DFB-Laser (s. Abschn. 1.5.3.4) wird eine photoempfindliche Schicht belichtet mit zwei Teilstrahlen eines HeCd-Lasers der Wellenlänge = 441,6 nm. Die Periode des Phasengitters soll = 394 nm betragen. Welcher Verkippungswinkel der beiden Teilstrahlen ist einzustellen?

Abb. 1.27. Interferenz schräg verlaufender Wellen

Page 61: Photonik: Grundlagen, Technologie und Anwendung

40 1 Grundlagen

Lösung:Nach Gl. (1.68) ergibt sich

o1,342

arcsin .

Stehende Wellen

Laufen zwei Wellen mit gleicher Wellenlänge und Amplitude aufeinander zu, gilt also k1 = k2, dann folgt aus Gl. (1.67) für den resultierenden E-Vektor:

tj1 e)cos(ˆ2 rkEE .

Bewegen sich die beiden Wellen in z-Richtung, dann lautet die stehende Welle in reeller Schreibweise

ˆ ˆ( , ) 2 cos( ) cos( )z t k z tE E . (1.69)

Wie Abb. 1.28 zeigt, findet in x-Richtung kein Energietransport statt, vielmehr schwingt das elektrische Feld ortsfest senkrecht zur z-Achse. Die Feldstärke ist null an den Knotenebenen, die im äquidistanten Abstand von

/2 auftreten. Derartige stehende Wellen finden sich beispielsweise im Resonator eines Lasers, wo die Wellen ständig zwischen den Endspiegeln hin und her reflektiert werden.

Abb. 1.28. Schwingungszustände einer stehenden Welle zu verschiedenen Zeit-punkten

1.2.3.2 Kohärenz

Damit die im vorigen Abschnitt geschilderten Interferenzeffekte auftreten, müssen die interferierenden Wellen eine räumlich und zeitlich feste Pha-senbeziehung aufweisen, sie müssen kohärent sein. Im Idealfall sollten

Page 62: Photonik: Grundlagen, Technologie und Anwendung

1.2 Wellenoptik 41

also die Lichtwellen unendlich ausgedehnt sein. Tatsächlich weisen die Wellen eine endliche Länge auf, die Kohärenzlänge lc, weil der Emissi-onsvorgang nach einer endlichen Zeit, der Kohärenzzeit c, abbricht. Der danach ausgesandte Wellenzug hat eine völlig andere Phasenlage als der vorherige. Jeweils nach der Zeit c ändert sich also der Nullphasenwinkel der Welle statistisch regellos. Die Kohärenzlänge und die Kohärenzzeit sind über die Lichtgeschwindigkeit c verknüpft:

cc cl . (1.70)

Wellenzüge mit endlicher Länge lassen sich nach Fourier darstellen als Integral über Sinuswellen mit einer gewissen spektralen Breite bzw. f,wobei

2

c fcl . (1.71)

Tabelle 1.7 gibt eine Zusammenstellung der Daten verschiedener Licht-quellen.

Tabelle 1.7. Kohärenzeigenschaften von Lichtquellen

Lichtquelle f lc c

weißes Licht (380–780 nm) 400 nm 400 THz 0,8 µm 2,5 fs LED (640 nm) 40 nm 30 THz 10 µm 30 fs FP-Laser, multimode, 1,3 µm 4 nm 710 GHz 420 µm 1,4 ps DFB-Laser, monomode, 1,3 µm 100 fm 20 MHz 15 m 50 ns HeNe-Laser, frequenzstabilis., 633 nm

200 am 150 kHz 2 km 7 µs

DFB-Faserlaser, 1,55 µm 24 am 3 kHz 100 km 330 µs

1.2.3.3 Interferometer

Messgeräte, die unter Ausnutzung von Interferenzeffekten physikalische Größen wie Länge, Brechzahl, Wellenlänge usw. messen, werden als Inter-ferometer bezeichnet. Bei den in Abb. 1.29 dargestellten Typen wird ein Strahl in zwei Teilstrahlen aufgespaltet und anschließend wieder vereinigt. Je nach Gangunterschied zwischen den beiden Teilstrahlen beobachtet man konstruktive oder destruktive Interferenz.

Page 63: Photonik: Grundlagen, Technologie und Anwendung

42 1 Grundlagen

Abb. 1.29. Interferometer nach a) Michelson, b) Mach-Zehnder. Q: Lichtquelle, T: Strahlteiler (50%-Spiegel), S: Spiegel, D: Detektor, P: Probe

Sind beim Michelson-Interferometer die Interferometerarme so einge-stellt, dass am Detektor konstruktive Interferenz auftritt, so wird bei einer Verschiebung eines Spiegels um /2 wieder konstruktive Interferenz auf-treten. Man kann daher durch Verschieben des Spiegels Längen bzw. Län-genänderungen auf Bruchteile der Lichtwellenlänge genau messen.

Beim Mach-Zehnder-Interferometer ändern sich die Interferenzbedin-gungen am Detektor, wenn die Symmetrie dadurch gestört wird, dass in einen Interferometerarm eine Probe eingebracht wird. Daduch lassen sich beispielsweise Brechzahlen und Änderungen von Brechzahlen sehr präzise bestimmen.

Beispiel:Bei einem Michelson-Interferometer wird ein Spiegel um x = 0,1 mm verscho-ben, wobei eine Fotodiode 312 durchlaufende konstruktive Interferenzen misst. Wie groß ist die Wellenlänge der Lichtquelle?

Lösung:Der Verschiebeweg entspricht 312 halben Wellenlängen: x = 0,1 mm = 312 /2. Damit ist die Wellenlänge = 641 nm.

1.2.3.4 Vielstrahlinterferenz

Es gibt Anordnungen, bei denen viele Wellen mit derselben Wellenlänge überlagert werden. Die Bedingung für konstruktive Interferenz wird in einem solchen Fall sehr viel schärfer als bei der Zweistrahlinterferenz.

p Wellen mit gleicher Amplitude aber einer Phasenverschiebung zwi-schen jeweils zwei Wellen sollen überlagert werden:

1)-j(j23

j21 eˆˆ,...,eˆˆ,eˆˆ,ˆˆ p

p EEEEEEEE .

Page 64: Photonik: Grundlagen, Technologie und Anwendung

1.2 Wellenoptik 43

Die resultierende komplexe Amplitude beträgt

1)-j(j2jres e...ee1ˆˆ pEE .

Die geometrische Reihe mit Faktor jeq hat die Summe

j

j

res e1e1ˆˆp

EE , die mathematisch umgeformt werden kann zu

)2/sin()2/sin(eˆˆ 2/)1(j

resppEE . Die Intensität ist nach Gl. (1.53) proportio-

nal zum Quadrat der Feldstärke:

)2/(sin)2/(sinˆ

21ˆˆ

21

2

22

resresresp

ZZI EEE .

Falls die p Wellen keinen Gangunterschied aufweisen (oder = m 2 ), dann addieren sich alle zur resultierenden Amplitude EE ˆˆ

0 p mit der Intensität

220

ˆ21 EpZ

I .

Damit ergibt sich die Interferenzfunktion

2

0

res)2/sin()2/sin(

pp

II

. (1.72)

Abb. 1.30. Interferenzfunktion für p = 2 und p = 8 Teilwellen

Wie Abb. 1.30 zeigt, hat die Funktion unabhängig von der Zahl p der in-terferierenden Wellen Maxima bei = m 2 oder = m in Übereinstim-mung mit der Bedingung für konstruktive Interferenz von Tabelle 1.6. Allerdings wird diese Bedingung mit zunehmendem p immer schärfer. Der Fall p = 2 entspricht der cos2( /2)-Funktion der Gl. (1.65) für die Zwei-

Page 65: Photonik: Grundlagen, Technologie und Anwendung

44 1 Grundlagen

strahlinterferenz. An Beugungsgittern können einige Tausend Wellen in-terferieren, wodurch eine hohe Auflösung erzielt wird.

Fabry-Perot-Interferometer

Die Vielstrahlinterferenz wird u.a. beim Fabry-Perot-Interferometer(Abb. 1.31) realisiert, bei dem eine eingekoppelte Welle der Amplitude Êe

zwischen verspiegelten Glasplatten mehrfach reflektiert wird.

Abb. 1.31. Fabry-Perot-Interferometer. Der Übersichtlichkeit halber sind die an der linken Glasfläche durchgelassenen Teilstrahlen nicht gezeichnet

Ist der Reflexionsfaktor r = Êr/Êe kleiner als 1, dann wird bei jeder Re-flexion auch ein Teil der Welle durchgelassen. Die transmittierte Feldstär-ke wird beschrieben durch den Transmissionsfaktor t = Êt/Êe, wobei r + t = 1. Infolge des Gangunterschieds = 2d cos zwischen zwei be-nachbarten Strahlen kommt es zu einer Phasenverschiebung der überlager-ten elektrischen Feldstärken. Die transmittierte Gesamtfeldstärke ergibt sich zu

...eee1ˆˆ 3-j62-j4-j2e

2t rrrt EE .

Diese unendlich geometrische Reihe mit dem Faktor -j2erq hat die Summe 1/(1-q) bzw.

j-2e2

t e11ˆˆr

t EE .

Mit dem Reflexionsgrad = r2 = Ir/Ie und dem Transmissionsgrad = t2 = It/Ie folgt für die Intensitäten

cos21 2

2

e

t

II

.

Page 66: Photonik: Grundlagen, Technologie und Anwendung

1.2 Wellenoptik 45

Für den Fall, dass keine Verluste auftreten, gilt + = 1 und nach trigo-nometrischer Umformung folgt die Transmissionsfunktion des Fabry-Perot-Interferometers nach Airy:

2

2e

tFP

)1()2/(sin41

1II

. (1.73)

Die Reflexionseigenschaften der Spiegel werden häufig mit dem Begriff der Finesse beschrieben:

)1/(F .

Damit wird die Airy-Funktion

2sin21

1

22

e

tFP

FII

. (1.74)

Abb. 1.32. Airy-Funktion des Fabry-Perot-Interferometers. FSR: Free Spectral Range, BW: Bandwidth

Das Fabry-Perot-Interferometer wird praktisch senkrecht durchstrahlt ( 0); damit ist = 2d cos = 2d und cfdd 44 . Die Maxima der Transmissionsfunktion (Abb. 1.32) treten auf bei m2 oder

2md . Da im Resonator stehende Wellen entstehen (s. Abschn. 1.2.3.1, Abb. 1.28), muss im Resonanzfall die Resonatorlänge ein ganzzahliges Vielfaches der halben Wellenlänge sein.

Page 67: Photonik: Grundlagen, Technologie und Anwendung

46 1 Grundlagen

Durch Verändern des Plattenabstandes d, beispielsweise mit Piezo-Stellelementen, kann somit die durchgelassene Wellenlänge bzw. Fre-quenz f durchgestimmt werden. Der freie Spektralbereich (free spectral range) ist nach Abb. 1.32

dcf

d 2bzw.

2 FSR

2

FSR . (1.75)

Die Breite einer Spektrallinie, in Abb. 1.32 die Bandbreite (bandwidth) BW = 2 /F, ist zugleich der Mindestabstand, den zwei Spektrallinien von-einander haben müssen, um aufgelöst zu werden. Dies entspricht folgender Wellenlängen- bzw. Frequenzdifferenz:

dFcf

dF 2bzw.

2 BW

2

BW . (1.76)

Das Auflösungsvermögen ist also um so besser, je größer die Finesse ist. Die Finesse entspricht anschaulich der Zahl der miteinander interferie-renden Teilstrahlen oder im Photonenbild der mittleren Zahl der Durchläu-fe eines Photons durch den Resonator bevor es durchgelassen, absorbiert oder gestreut wird. Kommerzielle Geräte erreichen Finesse-Werte von einigen Tausend.

Beispiel:Um die spektrale Linienbreite eines Single-Mode-Halbleiterlasers bei 1,3 mzu messen, wird ein Fabry-Perot-Interferometer eingesetzt mit einem Spiegelab-stand von d 5 mm und einer Finesse von F = 1500. Wie groß ist die erreichbare Auflösung der Spektrallinie?

Lösung:Nach Gl. (1.76) gilt für die Bandbreite fBW = 20 MHz oder BW = 113 fm. Das Auflösungsvermögen ist / = 11,5 106.

1.2.3.5 Beugung am Spalt

Wird die freie Ausbreitung von Licht behindert durch Blenden, Kanten und sonstige Hindernisse, so breitet sich das Licht hinter diesen Störungen auch in die Schattenzonen aus. Es läuft also gewissermaßen um die Ecken, es wird gebeugt.

Huygens´sches Prinzip

Die Ausbreitung einer Welle kann nach Huygens verstanden werden, wenn man annimmt, dass jeder Punkt der Wellenfront eine Elementarwelle aus-

Page 68: Photonik: Grundlagen, Technologie und Anwendung

1.2 Wellenoptik 47

sendet. Die Einhüllende aller Elementarwellen liefert die neue Wellen-front. In Abb. 1.33 kommt von links eine ebene Welle (im Prinzip unend-lich ausgedehnt). Durch die Huygens´sche Elementarwellenkonstruktion entsteht aus der ersten ebenen Wellenfront wieder eine Ebene usw. Durch-läuft die Welle den Spalt, so ist innerhalb des Spaltes die Zahl der Sender Huygens´scher Elementarwellen begrenzt, so dass sich hinter dem Spalt keine ebene Welle mehr ausbildet.

Abb. 1.33. Entstehung der Spaltbeugung

Nach Fresnel kann die entstehende Intensität in einem beliebigen Raumpunkt hinter dem Spalt berechnet werden, indem die elektrischen Felder, die von allen Sendern innerhalb des Spaltes ausgesandt werden, addiert werden. Beobachtet man in unendlich großem Abstand vom Spalt (so genannte Fraunhofer-Beugung), dann wird die Berechnung besonders einfach.

Wenn p Sender innerhalb des Spaltes der Breite b angenommen werden, ist der Phasenunterschied benachbarter Teilstrahlen in Richtung

pb sin22 .

Die resultierende Feldstärkenamplitude in dieser Richtung wird damit

1)-j(j2j e...ee1ˆˆ pEE .

Die Summe der geometrischen Reihe beträgt (s. Abschn. 1.2.3.4)

pb

bp

sinsin

sinsineˆˆ 2/)1j(EE .

Page 69: Photonik: Grundlagen, Technologie und Anwendung

48 1 Grundlagen

Für eine große Zahl (p ) der interferierenden Spalte ergibt sich

pb

bp

sin

sinsineˆˆ 2/)1j(EE .

Die Intensität I in Richtung bezogen auf die Intensität I0 in Geradeaus-Richtung wird damit (s. Abschn. 1.2.3.4)

sinmit,sin 2

0

bxxx

II

. (1.77)

Abb. 1.34. Intensitätsverteilung bei der Beugung am Spalt

Nach Abb. 1.34 hat die Spaltbeugungsfunktion Nullstellen (destruktive Interferenz) bei x = , 2 ... Dies entspricht folgenden Winkeln:

2...,1mit,sin mb

mm . (1.78)

Beugung an der Lochblende

Wird der Spalt durch eine kreisförmige Lochblende ersetzt, so entsteht im Fernfeld (Fraunhofer´sche Beugung) eine rotationssymmetrische Figur (Abb. 1.35). Das zentrale Airy´sche Beugungsscheibchen, in das etwa84 % der gebeugten Lichtintensität fällt, ist umgeben von konzentrischen hellen und dunklen Ringen.

Page 70: Photonik: Grundlagen, Technologie und Anwendung

1.2 Wellenoptik 49

Abb. 1.35. Beugungsbild hinter einer Kreisblende

Die Intensität I in Richtung bezogen auf die Intensität I0 in Gerade-aus-Richtung ist gegeben durch

sinmit,)(J2 21

0

dxxx

II

. (1.79)

J1(x) ist die Bessel-Funktion 1. Ordnung, d der Durchmesser der Blende. Nullstellen treten auf unter den Winkeln

dllsin , mit l = 1,220; 2,233; 3,238; 4,241 usw.

Auflösungsvermögen optischer Instrumente

Das Auflösungsvermögen optischer Instrumente ist in der Regel beugungs-begrenzt. Das bedeutet, dass infolge von Beugung an Linsenfassungen, Blenden etc. dicht benachbarte Objektpunkte nicht getrennt abgebildet wer-den. Wird beispielsweise mit einem Fernrohr ein Punkt eines weit entfern-ten Objektes betrachtet, so erwartet man nach den Gesetzen der geometri-schen Optik einen Bildpunkt in der Brennebene des Objektivs. Tatsächlich entsteht aber durch Beugung an der Linsenfassung ein Airy´sches Beu-gungsscheibchen. Ein dicht benachbarter Gegenstandspunkt, der ebenfalls als Beugungsscheibchen abgebildet wird, kann nur dann vom ersten ge-trennt werden, wenn ein Mindestabstand der beiden Scheibchen vorliegt.

Zwei Objektpunkte werden dann aufgelöst, wenn das Maximum der ei-nen Beugungsfunktion auf das erste Minimum der anderen fällt. Nach dieser, als Rayleigh-Kriterium bekannten Voraussetzung, ist der kleinste

Page 71: Photonik: Grundlagen, Technologie und Anwendung

50 1 Grundlagen

Winkel , unter dem zwei Objektpunkte von der beugenden Blende aus erscheinen können, gegeben durch

d22,1sin . (1.80)

Beispiel:Welche Auflösung hat das Weltraum-Teleskop Hubble, das einen Spiegel mit einem Durchmesser von 2,4 m hat?

Lösung:Für die Wellenlänge = 555 nm (grün) folgt als Grenzwinkel

= 2,87 10-7 rad = 0,0582´´.

Nach Abbe gilt für den Mindestabstand zweier Objektpunkte, damit man sie mit einem Mikroskop trennen kann

N61,0

Ay . (1.80)

AN ist die numerische Apertur des Mikroskopobjektivs. Man kann also mit beugungsbegrenzten Mikroskopen Objekte von der Größenordnung der Lichtwellenlänge auflösen. Die Beugungsbegrenzung lässt sich überwin-den durch Rastersondenmikroskope. Die Auflösung ist hier durch die Grö-ße der verwendeten Sonde gegeben und erreicht atomare Dimensionen.

1.2.3.6 Beugung am Gitter

Fällt eine ebene Welle nach Abb. 1.36 auf ein Gitter, dann erscheinen im Fernfeld (Fraunhofer´sche Beugung) unter verschiedenen Winkeln rela-tiv zur Einfallsrichtung Maxima und Nullstellen der Intensitätsverteilung Die Beugungsfunktion eines Gitters besteht aus der Spaltbeugungsfunktion nach Gl. (1.77) sowie der Gitterfunktion nach Gl. (1.72), welche die Vielstrahlinterferenz der p interferierenden Wellen (p Spalte) beschreibt:

22

0 sinsin

sinsin

sin

sinsin

gp

gp

b

b

II

. (1.82)

Page 72: Photonik: Grundlagen, Technologie und Anwendung

1.2 Wellenoptik 51

Abb. 1.36. Gitterstrukturen, a) Transmissionsgitter, b) Echelette-Gitter

Hauptmaxima der Funktion treten auf (Abb. 1.37) für

...2,,0singz ,

d.h. für Winkel, die folgender Bedingung genügen:

2...,1,0mit,sin mg

mm . (1.83)

Die Bedingung für konstruktive Interferenz wird nach den Ausführungen von Abschn. 1.2.3.4 um so schärfer, je mehr Spalte des Gitters durchstrahlt werden (s. auch Abb. 1.30).

Abb. 1.37. Intensitätsverteilung bei der Beugung am Gitter mit p = 8,

g/b = 7, singz

Die Hauptmaxima zweier dicht benachbarter Wellenlängen und + d werden dann noch getrennt, wenn das Intensitätsmaximum von

Page 73: Photonik: Grundlagen, Technologie und Anwendung

52 1 Grundlagen

+ d auf das ersten Minimum von fällt (Rayleigh-Kriterium). Aus die-ser Betrachtung folgt für das Auflösungsvermögen eines Gitters

pmd

. (1.84)

Es ist also um so besser, je mehr Spalte das Gitter aufweist und je höher die Beugungsordnung ist, in der man arbeitet.

Auf Grund der Mehrdeutigkeit der Gl. (1.83) kann das m-te Intensitäts-maximum der Wellenlänge + an derselben Stelle erscheinen wie das (m + 1)-te Maximum der Wellenlänge : ( + )m = (m + 1). Daraus folgt, dass der nutzbare Wellenlängenbereich eines Gitters beschränkt ist auf

m . (1.85)

Beispiel:Kann man mit einem Gitter der Gitterkonstanten g = 2 m und p = 25.000 Gitter-strichen die beiden Natrium-D-Linien trennen, die folgende Wellenlängen haben:

1 = 589,5930 nm und 2 = 588,9963 nm?

Lösung:Erforderlich zur Trennung der beiden Spektrallinien ist ein Auflösungsvermögen von /d = 589 nm/0,597 nm = 987. In der ersten Beugungsordnung beträgt das Auflösungsvermögen des verwendeten Gitters nach Gl. (1.84) /d = 25.000, ist also ca. 25 mal besser als erforderlich. Die größtmögliche Beugungsordnung ist nach Gl. (1.83) m = 3. In der dritten Ordnung ist das Auflösungsvermögen 75.000. Der nutzbare Wellenlängenbereich ist dann allerdings nur noch = 196 nm.

Gitter für Gitterspektrometer sind meist als Reflexionsgitter ausgebildet. Besondes hohen Wirkungsgrad zeigen Echelette-Gitter (Abb. 1.36 b). Das sind Gitter mit keilförmigen Stufen, wobei der Keilwinkel , der so ge-nannte Blaze-Winkel so gewählt wird, dass die Beugungsrichtung für eine bestimmte Ordnung m mit der natürlichen Reflexionsrichtung überein-stimmt. Dadurch wird der größte Teil des gebeugten Lichts in die ge-wünschte Beugungsordnung gelenkt. Für das Stufengitter von Abb. 1.36 b) ist die Bedingung für Maxima gegeben durch

2...1,0,mit,sinsin mg

mm . (1.86)

Page 74: Photonik: Grundlagen, Technologie und Anwendung

1.2 Wellenoptik 53

Der Blaze-Winkel beträgt

)(21

. (1.87)

1.2.3.7 Gruppengeschwindigkeit

Lichtwellen sind räumlich und zeitlich nicht unendlich ausgedehnt, sondern bestehen aus mehr oder weniger kurzen Wellenpaketen (Abb. 1.38). Diese lassen sich nach Fourier darstellen als Summe bzw. Integral über sinusför-mige Wellen mit unterschiedlichen Wellenzahlen bzw. Frequenzen.

Abb. 1.38. Schwebungsgruppe

Die Eigenschaften einer solchen Wellengruppe lassen sich bereits er-kennen, wenn nur zwei Wellen

)cos(ˆund)cos(ˆ222111 zktzkt EEEE

mit eng benachbarten Wellenzahlen bzw. Frequenzen zu einer Schwe-bungsgruppe überlagert werden. Die Addition der beiden Teilwellen liefert

)cos()cos(ˆ221 zktzktEEEE , (1.88)

mit2

und2

,2

,2

21212121 kkkkkk . Der erste

Faktor in Gl. (1.88) stellt eine Trägerwelle dar, die praktisch dieselbe Fre-quenz bzw. Wellenzahl besitzt wie die beiden Ausgangswellen. Der zweite Faktor bewirkt eine langwellige Modulation der Trägerwelle.

Die Ausbreitungsgeschwindigkeit der Trägerwelle ist die normale Pha-sengeschwindigkeit fkc . Das Maximum der Einhüllenden befindet sich am Ort kmtz /)( und bewegt sich mit der Geschwindigkeit

ktzc

dd

gr ,

Page 75: Photonik: Grundlagen, Technologie und Anwendung

54 1 Grundlagen

der Gruppengeschwindigkeit. Beschreibt man eine Wellengruppe mit ei-nem Fourier-Integral, wobei unendlich dicht benachbarte Frequenzen auf-treten, dann ist die Gruppengeschwindigkeit

dd

dd

grcc

tc . (1.89)

Die Geschwindigkeit einer Wellengruppe lässt sich auch durch einen speziellen Gruppenindex ausdrücken:

dd

gr

0gr

nnccn . (1.90)

ist die Vakuum-Lichtwellenlänge, n der normale Brechungsindex (s. Abschn. 1.1.3). Bei transparenten Medien liegt meist normale Dispersion vor, d.h. dn/d < 0 (s. Abb. 1.5). Dann ist ngr > n und cgr < c.

Optische Nachrichtenübertragung auf Lichtwellenleitern wird häufig bei = 1,3 m durchgeführt, weil der Gruppenindex von Quarzglas bei dieser

Wellenlänge einen Tiefpunkt aufweist (dngr/d = 0). Das bedeutet, dass die Gruppengeschwindigkeit von Lichtpulsen nur unwesentlich von der Wel-lenlänge abhängt, der Puls also kaum zerläuft (s. Abschn. 3).

1.2.3.8 Holografie

Die Holografie ist ein von Dennis Gabor entwickeltes Verfahren, mit dem man räumliche Bilder von dreidimensionalen Gegenständen machen kann. Bei der klassischen Fotografie geht der räumliche Eindruck verloren, weil die Schwärzung des Films nur von der Intensität, nicht aber von der Phase der abbildenden Lichtwelle abhängt. Die komplette Information über die Oberfläche eines zu fotografierenden Gegenstandes steckt aber in der Amplitude und der Phase der Wellen, die von den einzelnen Gegenstands-punkten ausgesandt werden.

Bei der Holografie wird die in der Phase steckende Information dadurch konserviert, dass die Objektwelle, die von den einzelnen Gegenstands-punkten stammt, mit einer Referenzwelle überlagert wird. Das entstehende Interferenzmuster, das alle Informationen über Amplituden und Phasenla-gen der beiden interferierenden Wellen enthält, wird auf einer Fotoplatte festgehalten.

Page 76: Photonik: Grundlagen, Technologie und Anwendung

1.2 Wellenoptik 55

Abb. 1.39. Holografie, a) Aufnahme eines Hologramms, b) Wiedergabe. A: Auge des Betrachters, B: Bild, F: Fotoplatte, H: Hologramm, L: Laser, O: Objekt

Zu diesem Zweck wird nach Abb. 1.39 a) ein Laser mit hoher Kohärenz in zwei Teilstrahlen aufgespaltet. Der eine Strahl beleuchtet das abzubil-dende Objekt, von dessen Oberfläche die Objektwelle ausgesandt wird, die im Punkt (x,y) auf der Fotoplatte die komplexe Amplitude

jOO eˆˆ EE

erzeugt. Amplitude ÊO(x,y) und Phase (x,y) hängen in komplizierter Wei-se von der Form und Oberflächenbeschaffenheit des Objektes ab. Wäre nur diese Objektwelle vorhanden, dann würde die Fotoplatte an der Stelle (x,y)geschwärzt proportional zu

2OOO

ˆˆˆ EEE ,

wobei die Phaseninformation verloren ging. Fällt nun der zweite Teilstrahl des Lasers als Referenzwelle

jRR eˆˆ EE

ebenfalls auf die Fotoplatte, dann entsteht aus der Überlagerung der beiden Felder am Ort (x,y) die Gesamtfeldstärke

ORFˆˆˆ EEE .

Die Intensität der resultierenden Welle ist gegeben durch

)-j(OR

)-j(OR

2O

2RFF eEEeEEEEEE~),( yxI . (1.91)

Page 77: Photonik: Grundlagen, Technologie und Anwendung

56 1 Grundlagen

Die entwickelte Fotoplatte wird als Hologramm bezeichnet. Sein Trans-missionsfaktor t(x,y) ist proportional zur Intensität I(x,y). Zur Bildwieder-gabe stellt man nach Abb. 1.39 b) das Hologramm H an die Stelle der Fo-toplatte und beleuchtet es wieder mit der Referenzwelle des Lasers. Dadurch entsteht hinter dem Hologramm ein Feld mit der Amplitude

),(E~),(EE RRH yxIyxt oder

-jO

j22R

jO

2R

jRORH eˆeˆeˆˆeˆ)ˆˆ(~ˆ EEEEEEEE . (1.92)

Das erste Glied entspricht der Referenzwelle, die lediglich mit veränderter Amplitude durch das Hologramm läuft. Das zweite Glied enthält die Ob-jektwelle j

OO eˆˆ EE , wie sie ursprünglich vom Objekt ausgesandt wur-

de. Fällt sie in das Auge A eine Beobachters, dann entsteht für ihn ein vir-tuelles dreidimensionales Bild B an der Stelle, an der vorher das Objekt O stand. Das dritte Glied von Gl. (1.92) enthält die zur Objektwelle konju-gierte Welle, die vor dem Hologramm ein reelles Bild erzeugt, welches normalerweise nicht betrachtet wird.

Tabelle 1.8 gibt einen Überblick über die wichtigsten Anwendungsfel-der der Holografie.

Tabelle 1.8. Technische Anwendungen der Holografie

Speicherung von Informationen

holografische Korrelation

Interferenz-holografie

Fertigung opti-scher Bauteile

Archivierung von dreidimensionalen und zweidimensi-onalen Bildern, z.B. Werkstücke, Modelle, Kunst-werke, Ätzmasken, digitale Massen-speicher in Volu-menhologrammen

Vergleich eines Werkstücks mit einem hologra-fisch fixierten Muster, automati-sche Teileerken-nung, Erkennung von Formfehlern an Werkstücken und Werkzeugen

Zerstörungsfreie Werkstoffprüfung, Vermessung von Bewegungen und Verformungen aufgrund mechani-scher oder thermi-scher Belastung, Schwingungsana-lyse

Ersatz von licht-brechenden opti-schen Bauteilen wie Linsen, Spie-gel, Prismen, Strahlteiler durch Hologramme, holografische Herstellung von Beugungsgittern

1.3 Radio- und Fotometrie

Die Radiometrie befasst sich mit der Messung von Strahlung. Strahlungs-leistung, Energie u.a. strahlungsphysikalische Größen werden mit kalib-rierten Messgeräten gemessen. Zur Kennzeichnung werden die Formel-buchstaben mit dem Index e (für energetisch) gekennzeichnet. Die

Page 78: Photonik: Grundlagen, Technologie und Anwendung

1.3 Radio- und Fotometrie 57

Fotometrie bewertet die Empfindung des Lichts durch das menschliche Auge. Zur Kennzeichnung werden die Formelzeichen der lichttechnischen Größen mit dem Index v (für visuell) versehen. Wenn keine Verwechs-lungsgefahr besteht, können die Indizes entfallen.

1.3.1 Strahlungsphysikalische Größen

Die wichtigsten radiometrischen Größen sind in Tabelle 1.9. zusammen gestellt. Einige Größen hängen vom Raumwinkel ab. Fällt nach Abb. 1.40 a) Strahlung von einem Punkt P auf eine beliebig geformte Flä-che A auf der Oberfläche einer Kugel mit Radius r, dann wird die Strah-lung ausgesandt in den Raumwinkel

02rA

. (1.93)

0 = 1 sr (Steradiant) ist die Maßeinheit des Raumwinkels.

Abb. 1.40. Raumwinkel: a) Definition, b) Strahlenkegel, der vom Sender (Fläche A1) auf den Empfänger (Fläche A2) fällt

Bei der Anordnung von Abb. 1.41 b) ist der Raumwinkel, unter dem der Empfänger vom Sender aus erscheint

0222 cos

rA

. (1.94)

Für die Strahlungsleistung, die von einem Element dA1 der Senderfläche auf ein Element dA2 der Empfängerfläche fällt, gilt das photometrische Grundgesetz

0222112 cosdcosdd

rAAL . (1.95)

Page 79: Photonik: Grundlagen, Technologie und Anwendung

58 1 Grundlagen

Die komplette Strahlungsleistung , die vom Sender auf den Empfänger fällt ergibt sich durch Integration über die beiden Flächen.

Tabelle 1.9. Radiometrische Größen

Größe Symbol Einheit Beziehung Erklärung

Strahlungs-energie Q, (Qe) Ws = J tQ d

Energieübertrag durch elektromagnetische Strah-lung

Strahlungs-leistung , ( e) s

JW tQ

dd Leistung der elektromag-

netischen Strahlung

senderseitige Größen

spezifische Ausstrah-lung

M, (Me) W/m2

1ddA

M Quotient aus Strahlungs-leistung und Senderfläche

Strahl-stärke I, (Ie) W/sr

1ddI

Quotient aus Strahlungs-leistung und Raumwin-kel, in den die Strahlung austritt

Strahlichte L, (Le) 2msr

W 111

2

cosdddA

L

11cosdd

AIL

Quotient aus Strahlungs-leistung und Raumwinkel sowie Projektion der Fläche auf eine Ebene senkrecht zur Strahlrich-tung

empfängerseitige Größen

Bestrah-lungsstärke E, (Ee) W/m2

2ddA

EQuotient aus Strahlungs-leistung und bestrahlter Fläche

Bestrah-lung H, (He) J/m2 tEH d Zeitintegral der Bestrah-

lungsstärke

Diffus strahlende Flächen sind so genannte Lambert-Strahler. Sie zei-gen eine von der Betrachtungsrichtung unabhängige Strahldichte L, was dazu führt, dass die Strahlstärke I nach dem Lambert´schen Cosinusgesetz vom Emissionswinkel 1 abhängt:

11 cos)0()( II . (1.96)

Page 80: Photonik: Grundlagen, Technologie und Anwendung

1.3 Radio- und Fotometrie 59

Abb. 1.41. Zur Berechnung der Strahlung in einen Kegel

Beispiel:Ein Lambert-Strahler der Strahldichte L strahlt nach Abb. 1.41 in einen Kegel mit Öffnungswinkel . Wie groß ist die abgestrahlte Leistung ?

Lösung:Der differenzielle Raumwinkel in Abhängigkeit vom Emissionswinkel 1 ist

1010211

02 dsin2dsin2ddr

rrrA

.

Der Strahlungsfluss in diesen Raumwinkel beträgt

1011111 dsincos2dcosdd ALALI .

Der gesamte Strahlungsfluss in den Kegel mit Öffnungswinkel ergibt sich durch Integration von

011101 dsincos2 AL zu

02

1 sin)( AL . (1.97)

Erfolgt die Strahlung in den kompletten Halbraum ( = /2, = 2 sr), dann gilt

01AL (1.98)

oder für die spezifische Ausstrahlung

0LM . (1.99)

Page 81: Photonik: Grundlagen, Technologie und Anwendung

60 1 Grundlagen

1.3.2 Lichttechnische Größen

Der visuelle Eindruck des Lichts hängt von der spektralen Empfindlichkeit des menschlichen Auges ab. Abbildung 1.42 zeigt den von der CIE (Commission Internationale de l’Éclairage) festgelegten Hellempfindlich-keitsgrad V( ) des Standardbeobachters, der in DIN 5031 in Nanometer-schritten tabelliert ist.

Abb. 1.42. Spektraler Hellempfindlichkeitsgrad für Tagessehen in linearer bzw. logarithmischer Darstellung

Tabelle 1.10. Fotometrische Größen

Größe Symbol Einheit Lichtmenge Q, (Qv) lm s (Lumensekunde) Lichtstrom , ( v) lm (Lumen)

senderseitige Größen spezifische Lichtausstrahlung M, (Mv) lm/m2 (Lumen/Quadratmeter) Lichtstärke I, (Iv) lm/sr = cd (Candela) Leuchtdichte L, (Lv) cd/m2 (Candela/Quadratmeter)

empfängerseitige Größen Beleuchtungsstärke E, (Ev) lm/m2 = lx (Lux) Belichtung H, (Hv) lx s (Luxsekunde)

Zu jeder der in Tabelle 1.9 definierten radiometrischen Größen ist eine entsprechende fotometrische Größe definiert (Tabelle 1.10). Bei mono-chromatischer Strahlung kann aus jeder beliebigen strahlungsphysikali-schen Größe Xe die zugehörige lichttechnische Größe Xv nach folgendem Muster berechnet werden:

emv )( XVKX . (1.100)

Page 82: Photonik: Grundlagen, Technologie und Anwendung

1.4 Quantennatur des Lichts 61

Km = 683 lm/W ist der Maximalwert des photometrischen Strahlungsäqui-valents, dessen Zahlenwert sich aus der Festlegung der Maßeinheit Cande-la für die Lichtstärke ergibt.

Für breitbandige Strahlung müssen die spektralen Größen Xe, = dXe/düber den sichtbaren Spektralbereich integriert werden:

nm780

nm380e,mv d)( XVKX . (1.101)

Beispiel:Die Strahlstärke einer LED ( = 640 nm) in Vorwärtsrichtung ist Ie = 1 mW/sr. Wie groß ist die Lichtstärke Iv?

Lösung:Näherungsweise kann die Strahlung als monochromatisch behandelt werden. Der Hellempfindlichkeitsgrad beträgt V(640 nm) = 0,175. Damit ist die Lichtstärke nach Gl. (1.100)

cd12,0srW10175,0

Wlm683 3

vI .

1.4 Quantennatur des Lichts

1.4.1 Photonen

Beim lichtelektrischen Effekt oder äußeren Fotoeffekt werden durch Licht bzw. UV-Strahlung aus Festkörpern Elektronen ausgelöst. Die kinetische Energie der Elektronen hängt nicht von der Intensität des Lichtes ab, son-dern linear von seiner Frequenz: Ekin = hf – WA. Dieser von Lenard gefun-dene Zusammenhang, der nach der klassischen Elektrodynamik völlig unverständlich ist, führte Einstein 1905 zur Formulierung seiner Licht-quantenhypothese. Danach kann Licht interpretiert werden als ein Strom von Lichtquanten oder Photonen, von denen jedes eine wohl definierte Energie transportiert und bei Wechselwirkung mit Materie an dieselbe abgeben kann. Die Energie eines Photons beträgt

0ph

chfhE . (1.102)

Page 83: Photonik: Grundlagen, Technologie und Anwendung

62 1 Grundlagen

Js10626,6 34h ist die Planck´sche Konstante, f die Frequenz, die Wellenlänge des Lichts und c0 die Vakuum-Lichtgeschwindigkeit. Für praktische Rechnungen beträgt

eVm24,10ch .

Die Planck´sche Konstante war von Planck eingeführt worden, der die Strahlung schwarzer Körper nur dadurch richtig beschreiben konnte, dass er annahm, dass das Strahlungsfeld mit Materie Energie nur in äquidistan-ten Stufen vom Betrag hf austauschen kann.

Wird Licht von Materie absorbiert, dann gibt jedes Photon seine Energie an das absorbierende System ab und regt es in einen höheren Energiezu-stand an; beispielsweise werden Elektronen auf höhere erlaubte Energiezu-stände gehoben. Umgekehrt werden Photonen emittiert, wenn Elektronen (oder andere Elementarteilchen) von einem höheren in einen tieferen E-nergiezustand übergehen. Sind die Energiezustände (E1, E2, ...) scharf defi-niert, wie z.B. die Elektronenenergien der Gasatome einer Spektrallampe, dann entstehen Photonen mit wohldefinierter Energie hf = Em – En.

Ein monochromatischer Lichtstrahl enthält Photonen mit einheitlicher Energie. Die Strahlungsleistung und der Photonenstrom phN (Zahl der

emittierten Photonen pro Zeiteinheit) hängen folgendermaßen zusammen:

phph EN . (1.103)

Beispiel:Wie viele Photonen sendet pro Sekunde ein He-Ne-Laser ( = 633 nm) der Strah-lungsleistung = 3 mW aus?

Lösung:

Energie eines Photons: J103,14eV96,1 19-0ph

chE . Photonenstrom

nach Gl. (1.103): -116ph s1055,9N .

Photonen besitzen außer einer Energie auch einen Impuls. Sie haben keine Ruhemasse, allerdings kann ihnen durch die Einstein´sche Masse-Energie-Äquivalenzbeziehung E = mc2 eine Masse zugeordnet werden. Damit wird der Impuls eines Photons

khpph . (1.104)

l)(Wellenzah2quer),-(Js10055,12

34 khh.

Page 84: Photonik: Grundlagen, Technologie und Anwendung

1.4 Quantennatur des Lichts 63

Beipiel:Welche Kraft übt ein Laserstrahl der Wellenlänge = 1,06 m eines ge-pulsten Lasers (Pulsleistung = 1 MW) während des Pulses auf absorbie-rendes Material aus?

Lösung:Die Impulsänderung eines Photons ist /ph hpp . Trifft der Photo-nenstrom phN auf das Material, dann ist die Kraft

N103,33/ -30phph cpNF .

1.4.2 Schwarzer Strahler

Ein schwarzer Körper zeichnet sich dadurch aus, dass er auffallende Strah-lung vollständig absorbiert. Technisch wird der schwarze Körper realisiert durch einen Hohlraumstrahler (Abb. 1.43). Die Öffnung erscheint einem Betrachter bei Raumtemperatur absolut schwarz. Wird der Hohlraumstrah-ler geheizt, so leuchtet die Öffnung heller als die Umgebung.

Abb. 1.43. Hohlraumstrahler

Einstein gelang die Herleitung der berühmten Planck´schen Strahlungs-formel eines schwarzen Strahlers mithilfe der Lichtquantenhypothese:

Abb. 1.44. a) Wechselwirkung zwischen Photonen und elektronischen Energiezu-ständen eines Atoms, b) Besetzungszahlen von zwei Energieniveaus

Page 85: Photonik: Grundlagen, Technologie und Anwendung

64 1 Grundlagen

Nach Einstein können Photonen und Atome auf drei verschiedene Arten miteinander wechselwirken (Abb. 1.44):

Absorption: Ein Photon der Energie hf = E2 E1 verschwindet, dafür wird ein Elektron vom Energieniveau E1 auf E2 angehoben. Die Absorp-tionsrate ist proportional zur Zahl N1 der Atome im niedrigen Energie-zustand E1 und zur spektralen Energiedichte wf (Energie pro Volumen- und Frequenzeinheit) des Strahlungsfeldes:

112Absd

d NwBtN

f .

Spontane Emission: Nach einer mittleren Lebensdauer im oberen E-nergieniveau E2 geht ein Elektron in das tiefere Niveau E1 über, wobei die Differenzenergie als Photon emittiert wird. Die Rate der spontanen Emission ist proportional zur Zahl N2 der Atome im oberen Niveau:

2Em.sp.d

d NAtN

.

Stimulierte (induzierte) Emission: Ein Photon der Energie hf = E2 E1

stimuliert ein Elektron zu einem Übergang von E2 nach E1. Das dabei erzeugte Photon verstärkt das primäre. Die Rate der stimulierten Emis-sion ist proportional zur Zahl N2 der Atome im angeregten Niveau und zur spektralen Energiedichte wf des Strahlungsfeldes:

221Em.stim.d

d NwBtN

f .

Die stimulierte Emission ist der zur Absorption inverse Prozess und wird mit demselben Einstein-Koeffizienten beschrieben: B12 = B21 = B. Im ther-mischen Gleichgewicht muss die Absorptionsrate und die Emissionsrate gleich sein, also gilt

221 NwBNANwB ff oder f

f

wBAwB

NN

1

2 .

Aus der statistischen Thermodynamik ist bekannt, dass das Verhältnis der Besetzungszahlen verschiedener Energieniveaus (Abb. 1.44 b) durch den Boltzmann-Faktor gegeben ist:

kThf

kTEE

NN expexp 12

1

2 ; k = 1,38 10-23 J/K

Page 86: Photonik: Grundlagen, Technologie und Anwendung

1.4 Quantennatur des Lichts 65

ist die Boltzmann-Konstante. Aus den letzten beiden Gleichungen folgt für die spektrale Energiedichte

1exp

1),(

kThfB

ATfwf .

Für die beiden Einstein-Koeffizienten A und B ergibt sich durch Abzählen der möglichen Schwingungsmoden eines Hohlraumresonators

30

38cfh

BA

und damit das Planck´sche Strahlungsgesetz

f

kThfc

fhfTfwf d1exp

18d),( 30

3. (1.105)

Aus der spektralen Energiedichte wf berechnet sich die spektrale Strahl-dichte Le,f gemäß

0

0e, 4

cwL ff . (1.106)

Die wellenlängenabhängige Form erhält man, wenn man die Frequenz fdurch c0/ ersetzt und das Differenzial df durch (c0/

2)d :

d1exp

12d),(0

5

20

e,

kTch

chfTL . (1.107)

Abb. 1.45. Isothermen der spektralen Strahldichte eines schwarzen Strahlers

Page 87: Photonik: Grundlagen, Technologie und Anwendung

66 1 Grundlagen

Wie Abb. 1.45 zeigt, verschiebt sich das Maximum der spektralen Strahldichte mit steigender Temperatur zu kürzeren Wellenlängen. Dieser Sachverhalt wird als Wien´sches Verschiebungsgesetz bezeichnet:

max T = 2898 m K. (1.108)

Die gesamte Strahldichte eines schwarzen Körpers erhält man durch In-tegration von Gl. (1.107) über alle Wellenlängen. Dabei ergibt sich

032

0

444

0e,e 15

2dhcTkLL .

Nach Gl. (1.99) folgt daraus das Stefan-Boltzmann-Gesetz für die spezifi-sche Ausstrahlung

428

320

454

e KmW1067,5

152mit,

hckTM . (1.109)

Ein Glühstrahler wie z.B. eine Glühbirne mit Wolframdraht emittiert zwar tendenziell so wie der schwarze Strahler nach Abb. 1.45, allerdings muss die spektrale Strahldichte nach Gl. (1.107) mit dem wellenlängenab-hängigen Emissionsgrad ( < 1) multipliziert werden:

Strahlerschwarzere,e, ),(),(),( TLTTL . (1.110)

Ist der Emissionsgrad konstant, spricht man von einem grauen Strahler.

1.4.3 Laser

Besetzungsinversion

Der Laser ist eine Lichtquelle, deren Funktion auf der von Einstein erkann-ten Möglichkeit der stimulierten Emission von Strahlung beruht. Nach Abb. 1.44 a) kann durch ein Photon ein Elektron zu einem Übergang von einem angeregten Energieniveau E2 in ein tiefer liegendes Niveau E1 sti-muliert werden. Das dabei entstehende Photon verstärkt das auslösende Photon und bei weiteren stimulierten Emissionsakten kann die Zahl der Photonen lawinenartig ansteigen. Das Akronym LASER steht für diese Lichtverstärkung: Light Amplification by Stimulated Emission of Radiati-on. Im Wellenbild koppelt die infolge des Übergangsaktes erzeugte Welle phasenrichtig an die auslösende Welle an. Es entsteht dadurch ein kohären-ter Wellenzug mit langer Kohärenzlänge.

Page 88: Photonik: Grundlagen, Technologie und Anwendung

1.4 Quantennatur des Lichts 67

Nach den Ausführungen von Abschn. 1.4.2 ist die Rate der stimulierten Emission

2Em.stim.d

d NwBtN

f ,

dagegen ist die Rate des Konkurrenzprozesses, der Absorption

1Absd

d NwBtN

f .

Beide Raten hängen also von den Besetzungszahlen N1 und N2 der beteilig-ten Niveaus ab. Nun gilt aber für die Besetzungszahlen

1exp 12

1

2kTEE

NN

.

Das bedeutet, dass die Zahl N2 der Atome im angeregten Niveau vernach-lässigbar klein ist gegenüber der Zahl N1 der Atome im tiefer liegenden Zustand: N2 << N1 (s. Abb. 1.44 b). Eine stimulierte Emission ist also nor-malerweise nicht zu erwarten.

Um eine kräftige stimulierte Emission zu erhalten, muss das Gleichge-wicht der Besetzungszahlen gestört werden, es muss eine Besetzungsinver-sion (N2 > N1) herbei geführt werden. Bei den Festkörperlasern (z.B. Ru-bin, Nd-YAG) wird die Besetzungsinversion durch optisches Pumpen, d.h. mithilfe einer starken Lampe erreicht (Abb. 1.46). Dabei wird das Licht der Lampe vom Lasermaterial absorbiert und dadurch die Atome in den angeregten Zustand übergeführt. Bei Gaslasern läuft der Mechanismus über Stöße in einer Gasentladungsröhre ab. Bei Halbleiterlasern (Abschn. 1.5.3) werden Elektronen in einen pn-Übergang injiziert. An der Entstehung der Besetzungsinversion sind meist mehrere Energieniveaus beteiligt (Abb. 1.46). Das obere Niveau des eigentlichen Laser-Übergangs muss stets eine große Lebensdauer aufweisen.

Abb. 1.46. Beteiligung verschiedener Energieniveaus am Laserprozess: a) Drei-Niveau-System (z.B. Rubin-Laser), b) Vier-Niveau-System (z.B. Nd-YAG und verschiedene Gaslaser). Die gestrichelten Übergänge sind strahlungslos

Page 89: Photonik: Grundlagen, Technologie und Anwendung

68 1 Grundlagen

Rückkopplung

Eine hohe Rate stimulierter Emission erfordert außer der Besetzungsinver-sion auch eine große Energiedichte wf des elektromagnetischen Feldes. Dies wird erreicht durch Rückkopplung der Welle in einen Resonator, der aus Spiegels gebildet wird (Abb. 1.47). Während beispielsweise der rück-wärtige Spiegel S1 zu 100% reflektiert, weist der Auskoppelspiegel S2 eine geringe Transmission auf. Er lässt einen geringen Bruchteil der Welle durch und reflektiert den größten Teil wieder zurück in den Resonator.

Abb. 1.47. Laser-Resonator

Im Photonenbild bedeutet die Rückkopplung, dass ein Photon eine lange Verweilzeit im aktiven Medium mit der Besetzungsinversion hat, ehe es den Resonator verlässt. Dadurch kann jedes Photon sehr viele stimulierte Übergänge induzieren.

Es gibt verschiedene Resonatortypen mit unterschiedlichen Spiegelge-ometrien. Sehr häufig wird der Fabry-Perot-Resonator (Abschn. 1.2.3.4) eingesetzt, der aus planparallelen Endspiegeln gebildet wird. Im Resonator kommt es zur Ausbildung von stehenden Wellen im Abstand /2(Abb. 1.28). Mögliche Resonanzfrequenzen, die so genannten longitudina-len Moden des Resonators sind die Frequenzen

Lcmfm 2

, mit m = 1, 2, 3,.... (1.111)

L ist die Resonatorlänge, c die Lichtgeschwindigkeit im aktiven Medium. Die Länge des Resonators legt damit die Frequenz bzw. Wellenlänge des emittierten Laserlichts fest.

Laserschwelle

Ein Laser „last“ erst dann, wenn eine Mindest-Besetzungsinversion aufge-baut ist, also eine Schwelle überwunden wird.

Denkt man sich in Abb. 1.47 eine elektromagnetische Welle der Leis-tung 0 startend bei z = 0, dann wird, falls Besetzungsinversion vorliegt, die Leistung exponentiell anwachsen gemäß )exp(0 zg . g ist der Gewinn-

Page 90: Photonik: Grundlagen, Technologie und Anwendung

1.4 Quantennatur des Lichts 69

Faktor (gain factor), der mit wachsender Besetzungsinversion ansteigt. Die internen Verluste bewirken ein exponentielles Abnehmen der Strahlungs-leistung gemäß )exp(0 z . Wird der Reflexionsgrad des Spiegels S2 mit R2 bezeichnet, dann wird nach der Reflexion die Leistung

LgR )(exp02 in die aktive Zone zurückgekoppelt. Nach Rücklauf und Reflexion am Spiegel S1 verbleibt die Leistung LgRR 2)(exp021 . Eine stationäre Schwingung des Laser-Oszillators ist nur möglich, wenn diese Leistung mindestens gleich der Ausgangleistung ist:

0021 2)(exp LgRR .

Daraus folgt der Schwell-Gain (threshold gain):

21th

1ln21

RRLg . (1.112)

Der Gewinn muss also so groß sein, dass er die internen Verluste und die „Verluste“ durch Auskopplung der Welle an den Spiegeln kompensiert.

Impulslaser

Wird mithilfe eines Güteschalters (Q-switch) die Resonatorgüte Q wäh-rend des Pumpvorgangs künstlich niedrig gehalten, so schwingt der Laser nicht an und es wird eine sehr große Besetzungsinversion aufgebaut. Er-höht man dann die Güte, entlädt sich die ganze im Resonator gespeicherte Energie in einem kurzen und leistungsstarken Lichtpuls. Es lassen sich Pulslängen bis herunter zu etwa 1 ns und Leistungen von über 1010 W er-zielen. Riesenimpulslaser werden vor allem bei der Materialbearbeitungeingesetzt (Tabelle 1.11). Als Q-switch eignen sich besonders Pockels-Zellen (Abschn. 1.2.2.3).

Die verschiedenen Schwingungsmoden nach Gl. (1.111), die in einem Laser gleichzeitig anschwingen können haben normalerweise keine festen Phasenbeziehungen. Wird jedoch ein schneller elektrooptischer Schalter in den Resonator eingebaut, der mit der Frequenz c/2L geschaltet wird, dann findet eine Phasenkopplung der verschiedenen Moden statt. Der Laser-strahl, der bei der Moden-Kopplung (mode-locking) entsteht, bildet einen Zug von extrem scharfen Pulsen im zeitlichen Abstand t = 2L/c, also der Umlaufszeit im Resonator. Die zeitliche Breite der einzelnen Pulse ist ex-trem schmal und reicht herunter bis in den Femtosekundenbereich.

Page 91: Photonik: Grundlagen, Technologie und Anwendung

70 1 Grundlagen

Tabelle 1.11. Anwendungen des Lasers

optische Messtechnik

Material-bearbeitung

Nachrichtentech-nik

Medizin und Biologie

Interferometrie, Holografie, Ent-fernungsmessung über Laufzeit von Laserpulsen, Laser-Radar, Leitstrahl beim Tunnel- Straßen- und Brückenbau

Bohren, Schwei-ßen, Schneiden, Aufdampfen; Auswuchten und Abgleichen von rotierenden und schwingenden Teilen; Trimmen von Widerstän-den

Optische Nach-richtenübertragung durch modulierte Laserpulse. Opti-sche Datenspei-cherung und Wie-dergabe, Ton- und Bildaufzeichnung auf CD und DVD

Anheften der Netz-haut bei Ablösung, Ablösung der Horn-haut, Durchbohren verschlossener Blutgefäße, Zerstö-rung von Krebszel-len, Zahnbehand-lung, optisches Skalpell

1.5 Halbleiter-Lichtquellen

1.5.1 Strahlende Rekombination

In Halbleitern sind die elektronischen Energieniveaus innerhalb von mehr oder weniger breiten Bändern quasi kontinuierlich verteilt. Bei tiefen Temperaturen füllen die Elektronen alle tief liegenden Energieniveaus bis zur Valenzbandkante EV des obersten Valenzbandes. Durch eine verbotene Zone der Breite Eg (energy gap) getrennt schließt sich das Leitungsband an mit der Leitungsbandkante EL (Abb. 1.48). Durch Energiezufuhr (z.B. thermisch oder optisch) werden Elektronen über die Energielücke aus dem Valenzband ins Leitungsband gehoben, wobei in der Elektronenverteilung des Valenzbandes ein Loch entsteht. Bei dieser Generation eines freien Elektron-Loch-Paars wird im Realkristall ein Elektron aus seiner Bindung gerissen und kann sich frei im Kristall bewegen. Über Platzwechselvor-gänge der Elektronen kann sich das Loch ebenfalls bewegen. Löcher tra-gen daher wie die Elektronen zum elektrischen Strom bei. Sie werden be-handelt wie reale Teilchen mit einer positiven Ladung.

Bei der Rekombination eines Elektrons aus dem Leitungsband mit ei-nem Loch aus dem Valenzband wird im Kristall eine defekte Bindung restauriert. Im Bändermodell entspricht dies einem Übergang eines Elekt-rons aus dem Leitungsband ins Valenzband. Wird die dabei frei werdende Energie als Lichtquant abgegeben, spricht man von strahlender Rekombi-nation. Als Konkurrenzprozess findet auch die nicht strahlende Rekombi-nation statt, bei der die frei werdende Energie letztendlich in Wärme (Git-terschwingungen) umgesetzt wird.

Die Rekombination ist teilweise recht verwickelt. Abbildung 1.48 zeigt einige Wege auf, über die ein Elektron mit einem Loch rekombinieren

Page 92: Photonik: Grundlagen, Technologie und Anwendung

1.5 Halbleiter-Lichtquellen 71

kann. In allen Fällen der strahlenden Rekombination (Abb. 1.48 a) bis d)) entstehen Photonen, deren Energie etwa der Breite der Energielücke ent-spricht:

Eph EL – EV = Eg. (1.113)

Die Wellenlänge bzw. Farbe des Lichts hängt also direkt von der Breite der Energielücke des verwendeten Halbleiters ab. Durch Mischen ver-schiedener Substanzen während der Kristallzucht lassen sich die Energie-lücken in weiten Grenzen variieren. Folgende Mischkristalle werden häu-fig eingesetzt:

ternäre Mischkristalle: GaAs1-xPx (Eg = 1,43–2,27 eV) und Ga1-xAlxAs(Eg = 1,43–2,15 eV), quaternäre Mischkristalle: In1-xGaxAsyP1-y (Eg = 0,356–2,27 eV).

Die Molenbrüche x und y (0 x,y 1) bestimmen die Anteile der einzel-nen Stoffe.

Abb. 1.48. Rekombinationsprozesse in Halbleitern. Strahlende Übergänge: a) Band-Band, b) Donator-Valenzband, c) Leitungsband-Akzeptor, d) Paar-Übergang. Nicht strahlende Übergänge: e) über tiefe Störstellen (traps), f) Auger-Effekt

Nicht alle Halbleitermaterialien kommen als Lichtquellen in Frage und zwar deshalb, weil in manchen Substanzen die Rekombination vorwiegend nicht strahlend abläuft. So haben beispielsweise in den klassischen Halb-leitern Si und Ge die Elektronen an der Leitungsbandkante einen Impuls, der verschieden ist vom Impuls der Löcher an der Valenzbandkante. Bei diesen so genannten indirekten Halbleitern ist die strahlende Rekombinati-on verboten, weil sie den Impulserhaltungssatz verletzen würde. Die Re-kombination ist nur möglich unter Mitwirkung von Phononen. Das sind quantisierte Gitterschwingungen, die den fehlenden Impulsbetrag zwischen Elektron und Loch aufbringen können. Aus diesem Grund ist die Wahr-

Page 93: Photonik: Grundlagen, Technologie und Anwendung

72 1 Grundlagen

scheinlichkeit für eine strahlende Rekombination sehr gering. In den direk-ten Halbleitern (z.B. GaAs, InP) haben Elektronen und Löcher denselben Impuls und es gibt kein Verbot der strahlenden Rekombination.

Beim Auger-Effekt (Abb. 1.48 f) rekombiniert ein Elektron mit einem Loch. Die frei werdende Energie wird aber nicht in Form eines Photons abgegeben, sondern an ein zweites Elektron übertragen, das hoch ins Lei-tungsband gehoben wird. Durch Zusammenstöße wird diese überschüssige Energie wieder in Form von Gitterschwingungen abgegeben.

Die Elektronendichte in einem Halbleiter kann durch Energiezufuhr ü-ber die Gleichgewichtsdichte n0 erhöht werden auf n = n0 + n. Wird die Anregungsquelle abgeschaltet, dann wird die Überschussdichte n wiederabgebaut durch Rekombination, so dass sich nach einiger Zeit wieder der Gleichgewichtszustand einstellt. Die zeitliche Abnahme wird beschrieben durch

nrtn

d)d(

.

Die Rekombinationsrate r ist um so größer, je größer die Überschussdichte n ist. Die Lösung der Differenzialgleichung ist

)/exp()( 0 tntn . (1.114)

ist die Lebensdauer der angeregten Ladungsträger. Hier werden Werte zwischen Nanosekunden (GaAs) und Millisekunden (Ge) beobachtet. Es ist intuitiv klar, dass schnell modulierbare Sender nur aus Materialien mit kurzer Lebensdauer gemacht werden können.

Ob nun in einem Halbleiter mehr strahlende oder nicht strahlende Re-kombinationsvorgänge ablaufen, kann durch den internen Quantenwir-kungsgrad int beschrieben werden. Er gibt an, welcher Bruchteil aller Re-kombinationsakte strahlend abläuft, also zur Erzeugung eines Photons führt. Bei gut geeigneten Materialien wie z.B. GaAs ist int > 90%.

Leider können nicht alle im Kristallinnern erzeugten Photonen den Kris-tall verlassen. Durch Reflexion an den Grenzflächen bis hin zur Totalrefle-xion werden die meisten Photonen zurück gehalten. Der externe Quanten-wirkungsgrad ext, der angibt, welcher Bruchteil aller Rekombinationsakte zu einem im Außenraum nachweisbaren Photon führt, ist meist nur im Bereich weniger Prozent.

Page 94: Photonik: Grundlagen, Technologie und Anwendung

1.5 Halbleiter-Lichtquellen 73

1.5.2 Lumineszenzdioden

Injektion und Rekombination

Die Lumineszenz- oder Leuchtdiode (Light Emitting Diode, LED) beinhal-tet einen pn-Übergang aus einem Halbleitermaterial mit hohem internem Quantenwirkungsgrad (Abb. 1.49). Wird eine Spannung UF in Flussrich-tung angelegt, dann wird die im Leerlauf vorhandene Bandverbiegung abgebaut, so dass ein Strom IF in Flussrichtung fließen kann. Dadurch wer-den Elektronen in die p-Zone und Löcher in die n-Zone injiziert, wo sie sofort mit den dort vorhandenen Majoritätsladungsträgern rekombinieren und Lumineszenzstrahlung aussenden.

Abb. 1.49. Energiebänder in einem pn-Übergang, a) ohne angelegte Spannung, b) bei Betrieb in Flussrichtung. EF: Fermi-Energie

Der externe Quantenwirkungsgrad kann berechnet werden unter der Annahme, dass alle injizierten Ladungsträger in der Nähe des pn-Übergangs rekombinieren. Dann ist die gesamte Rekombinationsrate IF/e.Andererseits ist der Strom der emittierten Photonen nach Gl. (1.103)

e/Eph. Damit ergibt sich

Fph

eext IE

e, (1.115)

mit e: Strahlungsleistung, e: Elementarladung, Eph: Photonenenergie und IF: Fluss-Strom.

Der Leistungswirkungsgrad P, der angibt, mit welcher Ausbeute elekt-rische in optische Energie gewandelt wird, beträgt

extFF

eP IU

. (1.116)

Page 95: Photonik: Grundlagen, Technologie und Anwendung

74 1 Grundlagen

Die Lichtausbeute ist nach Gl. (1.100)

PmFF

vL )(VK

IU. (1.117)

Einige Eigenschaften von LEDs sind in Tabelle 1.12 zusammen gestellt. Weißlicht-LEDs bestehen aus blau emittierenden InGaN-LEDs, deren kurzwelliges Licht durch Beschichtung mit Leuchtstoffen (z.B. YAG:Ce) ins Rote transformiert wird.

Tabelle 1.12. Eigenschaften von Materialien verschiedener Lumineszenzdioden

Farbe Wellenlänge in nm

Material externer Quanten- wirkungsgrad ext

IR 930 GaAs:Si, GaAlAs bis 30% rot 640 GaAsP, AlGaInP bis 50% gelb 590 GaAsP, AlGaInP bis 25% grün 570 GaP:N, InGaN bis 15% blau 470 GaN, InGaN/AlGaN bis 40%

Beispiel:Zu berechnen sind die drei vorstehend definierten Wirkungsgrade für die LED HLMA-CL20 ( = 592 nm, gelb), die betrieben wird mit IF = 20 mA, UF = 1,9 V,

e = 830 W.

Lösung:Die Photonenenergie ist Eph = 2,1 eV. Damit wird ext = 2% und P = 2,2 %. Der Hellempfindlichkeitsgrad beträgt V(592nm) = 0,732, was zu einer Lichtausbeute von L = 10,9 lm/W führt.

Kennlinien

Die Strom-Spannungs-Kennlinie einer LED entspricht derjenigen einer normalen Diode mit Fluss-Spannung UF < Eg/e.

Die Strahlungsleistung ist nach Gl. (1.115) proportional zum Strom:

Fph

exte IeE

. (1.118)

Wie Abb. 1.50 zeigt, flacht die Gerade bei großen Strömen ab und geht in eine Sättigung über. Das hängt damit zusammen, dass bei großen Strömen die nicht strahlende Rekombination via Auger-Effekt sehr effizient wird und damit der Quantenwirkungsgrad abnimmt.

Page 96: Photonik: Grundlagen, Technologie und Anwendung

1.5 Halbleiter-Lichtquellen 75

Abb. 1.50. Strahlungsleistung und Lichtstrom einer roten LED ( = 660 nm) aus GaAsP in Abhängigkeit vom Strom

Die Spektren von LEDs sind relativ breit (Abb. 1.51). Im sichtbaren Spektralbereich ist die typische Breite (auf halber Höhe gemessen, FullWidth at Half Maximum) FWHM = 30 nm bis 40 nm. Nach der klassischen Thermodynamik lässt sich argumentieren, dass die Elektronen und Löcher aus einem Energiebereich von ungefähr (3/2)kT (k: Boltzmann-Konstante, T: absolute Temperatur) stammen. Insgesamt ergibt sich damit eine Ener-gieunschärfe von E 3kT. Damit ist die erwartete spektrale Breite

2

0

3chTk

, (1.119)

was relativ gut mit den Messungen übereinstimmt. Das räumlich Abstrahlverhalten des Kristalls entspricht dem eines Lam-

bert-Strahlers (Abschn. 1.3.1), das aber durch entsprechend geformtes Vergussmaterial (Epoxid-Harz) in weiten Grenzen verändert werden kann.

Abb. 1.51. Spektrale Strahlungsleistung e, ( ) von drei Leuchtdioden (grün, gelb und rot)

Page 97: Photonik: Grundlagen, Technologie und Anwendung

76 1 Grundlagen

Mit steigender Temperatur ändern sich die optischen Parameter wie folgt:

Die Emissionswellenlänge verschiebt sich zu größeren Werten infolge der Abnahme der Energielücke Eg(T),die spektrale Breite steigt nach Gl. (1.119), die Strahlungsleistung nimmt ab wegen zunehmender nicht strahlender Rekombinationen.

Im Bereich der Raumtemperatur lassen sich Temperaturkoeffizienten der relevanten Größen bestimmen, die in Tabelle 1.13 zusammengestellt sind.

Tabelle 1.13. Temperaturkoeffizienten einiger Parameter. Lumineszenzdioden

Temperaturkoeffizient Einheit grüne LED rote LED IRED

Wellenlänge nm/K 0,1 0,18 0,24

Strahlungsleistung e%/K -0,2 -0,5 -0,8

Lichtstrom v%/K -0,3 -1,6 –

Modulationsverhalten

Zur Modulation der Strahlungsleistung einer LED wird der Strom modu-liert. Bei sinusförmiger Modulation um den Vorstrom (bias) IB mit der Amplitude I gemäß )jexp(ˆ)( B tIIti wird die Strahlungsleistung ebenfalls sinusförmig moduliert: )(jexpˆ)( B tt . Die Ampli-tude ˆ ist nicht konstant, sondern wird mit zunehmender Modulationsfre-quenz kleiner entsprechend

)()0(ˆ)(ˆ)(ˆ phext HHI

eE

. (1.120)

Nimmt die Modulations-Übertragungsfunktion

2)(1

1)(H (1.121)

auf 0,5 ab, dann ist die optische 3-dB-Grenzfrequenz erreicht. Aus Gl. (1.121) folgt, dass die Grenzfrequenz korreliert ist mit der Lebensdauer der Minoritäten:

276,02

33dBf (1.122)

Praktisch können LEDs moduliert werden bis zu Frequenzen von etwas über 100 MHz.

Page 98: Photonik: Grundlagen, Technologie und Anwendung

1.5 Halbleiter-Lichtquellen 77

Bauformen

Lumineszenzdioden werden meist als Flächenstrahler ausgebildet, bei denen die Strahlung durch die Deckfläche ausgesandt wird (Abb. 1.52). Wird das Licht in Längsrichtung des pn-Übergangs ausgekoppelt, spricht man von einem Kantenstrahler. Dieses Prinzip wird vorzugsweise bei Laserdioden realisiert.

Abb. 1.52. Oberflächenstrahlende LEDs, a) und b) planarer Aufbau, c) Burrus-Typ zu Einstrahlung in einen Lichtwellenleiter (LWL)

1.5.3 Halbleiter-Laser

1.5.3.1 Laserstrukturen

Die Laserdiode besteht aus einem hoch dotierten pn-Übergang. Bei hohen Dotierungskonzentrationen „entarten“ die Halbleiter, d.h. die Störstellenni-veaus verschmelzen mit den Bändern, so dass Elektronen mit nahezu metal-lischer Dichte im Leitungsband des n-Gebiets und ebenso Löcher im Va-lenzband des p-Gebiets vorliegen. Die Fermi-Energie liegt in diesem Fall innerhalb der Bänder (Abb. 1.53). Wird eine Spannung in Flussrichtung angelegt, stellt sich im Übergangsgebiet die Situation ein, dass Elektronen

Abb. 1.53. Bandstruktur einer Laserdiode, a) spannungslos, b) Betrieb in Fluss-richtung

Page 99: Photonik: Grundlagen, Technologie und Anwendung

78 1 Grundlagen

mit hoher Konzentration energetisch über Löchern mit ebenfalls hoher Konzentration zu liegen kommen. Es liegt damit eine perfekte Besetzungs-inversion vor, die erste Laserbedingung nach Abschn. 1.4.3.

Die Besetzungsinversion ist dann erreicht, wenn ghF

eF EhfEE wird

(s. Abb. 1.53 b). Anschaulich bedeutet dies, dass ein Photon der Energie hfinnerhalb des aktiven Bereichs nicht absorbiert werden kann (dafür bräuch-te es die Energie h

FeF EE ), sondern lediglich stimulierte Emission hervor-

rufen kann. In der Geometrie der Abb. 1.53 sind übrigens nur die Photonen „erfolgreich“, die sich senkrecht zur Zeichenebene bewegen, denn nur sie verbleiben in der aktiven Zone.

Die zweite Laserbedingung, die optische Rückkopplung in einem Reso-nator, wird beim Fabry-Perot-Laser durch die spiegelnden Endflächen des Kristalls realisiert. Infolge des hohen Gains der Halbleiterlaser genügt die etwa 30%ige Reflektivität der planparallelen Spaltflächen. Eine derartige Laserdiode ist in Abb. 1.54 dargestellt. Die Weite (Höhe) der aktiven Zone ergibt sich aus der Summe der Diffusionslängen der Elektronen und Lö-cher zu Ln + Lp 20 m.

Abb. 1.54. Aufbau einer einfachen Fabry-Perot-Laserdiode. Länge 200–500 m,Breite 100–250 m

Eine Homostruktur-Laserdiode nach Abb. 1.54 hat sehr große Verluste und benötigt eine Schwellstromdichte von etwa 105 A/cm2. Um die Verluste zu reduzieren, wurden Hetero-Strukturen entwickelt, bei denen die Weite der aktiven Zone auf Werte < 0,5 m eingeengt wird (carrier confinement). Dies wird dadurch realisiert, dass der eigentlich aktive Halbleiter beidseitig von Materialien mit höherer Energielücke umgeben wird (Abb. 1.55). Infolge des höheren Brechungsindex der aktiven Schicht werden die Photonen wie in einem Lichtwellenleiter in der aktiven Zone gehalten (photon confinement).

Doppelheterostrukturen erreichen Schwellstromdichten von etwa 500 A/cm2, womit cw-Betrieb (continuous wave) bei Raumtemperatur möglich wird. Laser für längere Wellenlängen (1,3 m, 1,55 m), wie sie in der optischen Nachrichtenübertragung auf Lichtwellenleitern eingesetzt werden, bestehen aus InGaAsP, umgeben von InP.

Page 100: Photonik: Grundlagen, Technologie und Anwendung

1.5 Halbleiter-Lichtquellen 79

Wird die Breite d der eingebetteten Schicht stark verkleinert (typischer-weise d < 20 nm), dann treten interessante Quantenphänomene auf. Die Elektronenbewegung innerhalb eines solchen Potentialtopfs (quantumwell) senkrecht zur Schicht wird quantisiert. Die Lösung der Schrödinger-Gleichung für diesen Fall zeigt, dass der Wellenvektor nur folgende Werte annehmen kann:

nd

kn , mit n = 1, 2, 3...

Die Energieeigenwerte sind dann

22

222

82n

dmh

mkEn , (1.123)

wobei m die effektive Masse der Elektronen bzw. Löcher ist. Es entstehen damit innerhalb des Quantentopfs Sub-Niveaus der Elekt-

ronen und Löcher zwischen denen die strahlenden Übergänge ablaufen (Abb. 1.56). Die Lage der Sub-Niveaus ist nach Gl. (1.123) über die Dicke d der Schicht einstellbar.

Quantum-well-Laser zeigen gegenüber konventionellen Heterostruktur-Lasern einen geringeren Schwellstrom, sie sind spektral schmalbandiger und weniger temperaturempfindlich. Diese besonderen Eigenschaften kön-nen noch dadurch verstärkt werden, dass mehrere Quantenfilme, jeweils

Abb. 1.55. Doppelheterostruktur-Laser aus GaAs/GaAlAs ( 850 nm), a) Auf-bau, b) Bänderschema, c) Brechungsindex, d) Verlauf der Photonendichte

Page 101: Photonik: Grundlagen, Technologie und Anwendung

80 1 Grundlagen

getrennt durch Barrieren aus Material mit höherem Bandgap, hintereinan-der angeordnet werden. Derartige Strukturen werden als Multi-Quantum-Well (MQW) bezeichnet.

Die breite Lichtemission des Lasers von Abb. 1.54 ist häufig störend (z.B. bei der Einkoppelung in einen Lichtwellenleiter), zudem ist der Schwellstrom wegen der großen Fläche sehr groß. Bei den so genannten Streifenlasern (stripe laser) begrenzt man deshalb den Laserbetrieb auf einen schmalen Streifen, der eine laterale Breite von etwa 2 m bis 5 maufweist (Abb. 1.57). Es werden zwei Verfahren verwendet:

Beim gewinngeführten (gain-guided) Laser wird der Strom nur in einem schmalen Streifen durch den p-Kontakt zugeführt. Dadurch entsteht Be-setzungsinversion und Gain nur in einem mehr oder weniger breiten Be-reich der aktiven Zone. Beim indexgeführten (index-guided) Laser wird der aktive Streifen beid-seitig von einem Material mit höherer Energielücke und kleinerem Bre-chungsindex umgeben, so dass aktive Wellenführung zustande kommt. Da die eigentliche Doppelheterostruktur von außen nicht mehr sichtbar ist, spricht man von Lasern mit vergrabener Heterostruktur (Buried He-terostructure Laser, BH-Laser).

Abb. 1.56. Elektronische Energiezustände in einem zweidimensionalen Quanten-film (quantum well)

Abb. 1.57. Beispiele für den Aufbau von Streifenlasern, a) gain-guiding, b) index-guiding (BH-Laser)

Page 102: Photonik: Grundlagen, Technologie und Anwendung

1.5 Halbleiter-Lichtquellen 81

Nach den Ausführungen von Abschn. 1.4.3 setzt die stimulierte Emissi-on eines Lasers erst nach Überschreiten einer Schwelle ein, wenn der opti-sche Gewinn alle Verluste überwiegt. Abbildung 1.58 zeigt eine typische Kennlinie der Strahlungsleistung in Abhängigkeit vom Strom. Für Ströme unterhalb des Schwellstroms Ith emittiert die Diode nicht kohärentes Licht infolge spontaner Emission. Oberhalb Ith setzt die Laseraktion ein und die Strahlungsleistung steigt steil an. Der im letzten Abschnitt in Gl. (1.115) definierte externe Quantenwirkungsgrad wird jetzt differenziell formuliert:

F

e

phext d

dIE

e, (1.124)

Typische Werte liegen im Bereich 25% bis 40% pro Endfläche.

Abb. 1.58. Strom-Leistungs-Kennlinie eines InGaAsP-Lasers mit = 1,3 m

Aus Abb. 1.58 geht hervor, das der Schwellstrom mit steigender Tempe-ratur ansteigt. Die Verschiebung wird durch die empirische Beziehung

)/exp( 00th TTII , (1.125)

beschrieben. Die charakteristische Temperatur beträgt für

GaAlAs-Laser: 120 K T0 230 K, InGaAsP-Laser: 60 K T0 80 K.

Beispiel:Beim Laser der Abb. 1.58 ist Ith,1(25 C) = 22 mA und Ith,2(50 C) = 32 mA. Wie groß ist der Schwellstrom bei 0 C?

Page 103: Photonik: Grundlagen, Technologie und Anwendung

82 1 Grundlagen

Lösung:Aus Gl. (1.125) folgt für die charakteristische Temperatur des verwendeten Lasers

1 20

th,1 th,2

66,7 Kln( / )T TTI I

und für den gesuchten Schwellstrom

mA15K)K/66,7exp(-25mA22C)0(thI .

Da nicht nur der Schwellstrom und damit die Strahlungsleistung von der Temperatur abhängt, sondern besonders auch die spektralen Eigenschaften, werden Laser, bei denen diese Größen kritisch sind, mithilfe von kleinen Piezo-Kühlern temperaturstabilisiert.

1.5.3.2 Optische Eigenschaften

Halbleiterlaser emittieren keinen parallelen Laserstrahl, sondern stark divergentes Licht (Abb. 1.59). Die Lichtwelle, die innerhalb des Kristalls auf etwa die Abmessungen des aktiven Streifens begrenzt ist, wird beim Austritt ins Freie gebeugt, ähnlich der Beugung am Spalt bzw. an der Rechteckblende. Infolge der kleinen Streifenhöhe in transversaler Rich-tung ist der Divergenzwinkel 50 relativ groß. Die Streifenbreite in lateraler Richtung ist größer und deshalb der Divergenzwinkel || 10 kleiner.

Abb. 1.59. Abstrahlverhalten eines Streifenlasers im Fernfeld

Durch Kollimationsoptiken mit anamorphotischen Prismen kann der di-vergente elliptische Strahl in einen kreisrunden Parallelstrahl transformiert werden.

Abbildung 1.60 zeigt die spektrale Strahlungsleistung eines typischen Fabry-Perot-Lasers. Die Einhüllende des Spektrums hat eine Breite von

4 nm. Innerhalb dieser Kurve ist der Gewinn höher als die Verluste und daher stimulierte Emission möglich. Welche genauen Wellenlängen

Page 104: Photonik: Grundlagen, Technologie und Anwendung

1.5 Halbleiter-Lichtquellen 83

nun tatsächlich verstärkt werden, bestimmt der Resonator. Durch die Re-flexionen zwischen den Endflächen bilden sich im aktiven Bereich stehen-de Wellen aus (s. Abb. 1.47). Nur solche Wellen können sich durchsetzen, bei denen die Resonatorlänge L ein Ganzes Vielfaches der halben Wellen-länge ist: m /2 = nL. Damit sind die Wellenlängen der so genannten longi-tudinalen Moden gegeben durch

mnL

m2

, mit m = 1, 2, 3... (1.126)

Beispiel:Ein Laser emittiert bei 1300 nm. Was sind die genauen Emissionswellenlän-gen, wenn die Länge des Kristalls L = 300 m beträgt und der Brechungsindex n = 3,3?

Lösung:Aus Gl. (1.126) folgt, dass die Mode mit der Ordnungszahl m = 1523 der Wellen-länge 1300 nm am nächsten kommt. Die genauen Wellenlängen einiger Moden betragen unter Vernachlässigung der Dispersion n( ):

1523 = 1300,07 nm; 1524 = 1299,21 nm; 1522 = 1300,92 nm. Der Modenabstand ist 0,85 nm.

Der Abstand benachbarter Moden beträgt

nLnnL 2dd2

2. (1.127)

Die vereinfachte Beziehung gilt, wenn die Dispersion dn/d vernachlässigt wird.

Abb. 1.60. Longitudinale Schwingungsmoden eines Multimode-Fabry-Perot-Lasers

Page 105: Photonik: Grundlagen, Technologie und Anwendung

84 1 Grundlagen

Wie Gl. (1.27) zeigt, hängt der Modenabstand von der Resonatorlängeab. Verkürzt man die Laserlänge, kann der Abstand größer werden als die Breite der Gain-Kurve, was dazu führt, dass nur noch eine Mode an-schwingt. Aus dem Multimode-Laser wird dann ein Monomode-Laser. Dies wird z.B. realisiert bei den VCSELs (Abschn 1.5.3.5).

1.5.3.3 Modulation

Die Strahlungsleistung einer Laserdiode ist direkt proportional zur Photo-nenzahl P im Resonator und kann am einfachsten direkt über den Strom moduliert werden (Abb. 1.61). Wie die Photonenzahl auf Stromänderun-gen und damit Änderungen der Elektronenzahl N reagiert, wird durch fol-gende Ratengleichungen beschrieben:

.d

d

)(dd

e

sp

PGNeI

tN

RPGtP

(1.128)

G: Rate der stimulierten Emission (linear abhängig von N), : Photonen-zerfallsrate infolge interner Verluste und Auskoppelung durch die Spiegel, Rsp: Rate der spontanen Emission, I: Strom, e: Rekombinationsrate der Elektronen (kompliziert abhängig von N).

Das System von gekoppelten Differenzialgleichungen ist numerisch lös-bar. Für das stationäre Gleichgewicht ergibt sich die Kennlinie der Abb. 1.58. Für den Fall eines Stromsprungs zur Zeit null auf einen konstan-ten Wert I steigt nach Abb. 1.62 zunächst die Elektronenzahl N monoton

Abb. 1.61. Wahl des Arbeitspunkts bei der Modulation von Laserdioden a) Ana-logübertragung, b) Digitalübertragung

Page 106: Photonik: Grundlagen, Technologie und Anwendung

1.5 Halbleiter-Lichtquellen 85

an, bis die Schwelle Nth überschritten wird. Erst dann steigt die Photonen-zahl P steil an, was dazu führt, dass infolge der einsetzenden starken stimu-lierten Emission die Elektronenzahl wieder unter die Schwelle absinkt. Daraufhin bricht die Photonenzahl ein, die Elektronenzahl erholt sich und das Spiel beginnt aufs Neue. Die Schwingungen der Photonenzahl und damit auch der Ausgangsleistung werden als Relaxationsoszillationen be-zeichnet und haben typischerweise Frequenzen von einigen GHz. Die Zeit-verzögerung t vom Einschalten des Stromes bis zum Beginn der stimu-lierten Emission liegt im Bereich weniger Nanosekunden. Durch einen Vorstrom IB (bias) kann die Verzögerungszeit verkürzt werden. Nähe-rungsweise gilt mit der Lebensdauer der angeregten Elektronen:

th

BlnIIIIt . (1.129)

Bei sinusförmiger Modulation des Stroms um den Vorstrom IB entspre-

chend )jexp(ˆ)( B tIIti wird auch die Strahlungsleistung sinusför-mig moduliert, wobei die Amplitude folgendermaßen von der Frequenz

abhängt: )()0(ˆ)(ˆ H . Die Modulations-Übertragungsfunktion ergibt sich zu (s. Gl. (1.121) für LEDs)

2rel

22220

20

4)(H . (1.130)

Abb. 1.62. Zeitlicher Verlauf der Elektronenzahl N und der Photonenzahl P im Resonator nach einem Stromsprung

Page 107: Photonik: Grundlagen, Technologie und Anwendung

86 1 Grundlagen

rel ist die Zeitkonstante, mit der die Relaxationsschwingungen gedämpft werden,

rel2rel

2rel0 /1

entspricht der Kreisfrequenz der Relaxationsschwingungen. H( ) zeigt bei der Frequenz der Relaxationsoszillationen eine deutliche

Resonanzüberhöhung (Abb. 1.63). Definiert man als 3-dB-Grenzfrequenz wieder den Wert, bei dem die Übertragungsfunktion auf 0,5 abgenommen hat, dann ist aus Abb. 1.63 ersichtlich, dass Halbleiterlaser bis in den GHz-Bereich modulierbar sind.

Abb. 1.63. Modulations-Übertragungsfunktion für frel = 3 GHZ und rel = 1,5 ns

Laser-Chirp

Die Modulation des Stroms führt zu einer Modulation der Elektronendich-te im aktiven Medium. Da der Brechungsindex n der Halbleiter von der Dichte der freien Elektronen abhängt, wird auch der Brechungsindex mit der Modulationsfrequenz moduliert. Nun ist aber nach Gl. (1.126) die E-missionswellenlänge bzw. die Lichtfrequenz direkt vom Brechungsindex abhängig. Das bedeutet, dass mit der Intensitätsmodulation automatisch auch immer eine Frequenzmodulation einhergeht. Dieses „Zwitschern“ der Frequenz wird im Englischen als chirp oder chirping bezeichnet.

Wie aus der klassischen Frequenzmodulation bekannt ist, entstehen im Spektrum Seitenbanden im Abstand der Modulationsfrequenz. Die Ampli-tuden der Seitenbanden werden durch Bessel-Funktionen Ji( ) bestimmt:

i

ii ists )cos()(Jˆ)( TTFM . (1.131)

T ist die Träger- (Licht) Kreisfrequenz, die Modulationskreisfrequenz, der FM-Modulationsindex.

Page 108: Photonik: Grundlagen, Technologie und Anwendung

1.5 Halbleiter-Lichtquellen 87

Abb. 1.64. Optische Spektren eines 1,3 m-DFB-Lasers bei Modulation, gemes-sen mit einem Fabry-Perot-Interferometer. Modulationsfrequenz 300 MHz, m = Î/(IB – Ith): Modulationsgrad, : FM-Modulationsindex. a) m = 0,06; b) m = 0,20, = 2,40, J0 = 0; c) m = 0,32, = 3,83, J1 = 0; d) m = 0,43, = 5,14, J2 = 0; e) m = 0,54, = 6,38, J3 = 0

Page 109: Photonik: Grundlagen, Technologie und Anwendung

88 1 Grundlagen

Wie Abb. 1.64 zeigt, wird mit zunehmendem Modulationsindex das Spektrum stark verbreitert. Beispielsweise nimmt beim Laser der Abb. 1.64, der ohne Modulation ein Monomode-Laser mit einer Linien-breite von 20 MHz ist, das Spektrum beim Modulationsindex = 6,38 eine Bandbreite von über 4,2 GHz ein.

Da die chromatische Dispersion eines Lichtwellenleiters mit der Band-breite der Lichtquelle ansteigt (s. Kap. 3), wird für hochbitratige Anwen-dungen häufig nicht der Strom der Laserdiode moduliert. Vielmehr wird der Lichtstrahl außerhalb des Resonators moduliert, beispielsweise mittels eines Mach-Zehnder-Interferometers.

1.5.3.4 DFB- und DBR-Laser

Fabry-Perot-Laser sind vorzugsweise Multimode-Laser. Selbst wenn die Seitenmoden im stationären Betrieb genügend unterdrückt sind, dass man von einem Monomode-Laser sprechen kann, wachsen bei Modulation die longitudinalen Seitenmoden im Vergleich zur dominierenden Mode. DFB- und DBR-Laser sind dagegen dynamische Einmoden-Laser mit einer Sei-tenmodenunterdrückung von über 30 dB.

Im Gegensatz zu den Fabry-Perot-Lasern, bei denen die Rückkopplung an den Resonatorenden erfolgt, findet sie beim DFB-Laser (Distributed Feed Back) verteilt über die ganze Länge des Resonators statt. Die Rück-kopplung wird jetzt wellenlängenabhängig und kann für eine bestimmte Mode optimiert werden.

Verteilte Rückkopplung erhält man, indem beim DFB-Laser oberhalb der aktiven Zone, beim DBR-Laser (Distributed Bragg Reflector) beidsei-tig der aktiven Zone ein Gebiet mit periodisch variierendem Brechungsin-dex hergestellt wird (Abb. 1.65). Dies kann z.B. so realisiert werden, dass nach dem Beispiel von Abschn. 1.2.3.1 zwei schräg verlaufende Laser-strahlen zur Interferenz gebracht werden, wodurch ein optisches Liniengit-ter entsteht. Mittels photochemischer Ätzverfahren lässt sich so in den Halbleiter ein wellenförmigen Muster ätzen, das mit einem anderen Mate-rial mit anderem Brechungsindex überwachsen wird.

Abb. 1.65. Aufbau eines a) DFB- und b) DBR-Lasers

Page 110: Photonik: Grundlagen, Technologie und Anwendung

1.5 Halbleiter-Lichtquellen 89

Wenn, wie in Abb. 1.65 b) angedeutet, die Welle an den periodischen Strukturen teilweise reflektiert wird, dann interferieren die reflektierten Anteile nur dann konstruktiv, wenn ihre Wellenlänge B die so genannte Bragg-Bedingung erfüllen:

mn2

B , mit m = 1, 2, 3... (1.132)

ist die Undulationsperiode, n der Brechungsindex. Die Theorie gekoppelter Wellen zeigt, dass an der Bragg-Wellenlänge

B selbst keine Emission stattfindet, sondern symmetrisch dazu bei den Wellenlängen

Lnqq 22

1 2B

B , mit q = 0, 1, 2... (1.133)

Es könnten also im Prinzip zwei Moden bei den Wellenlängen

Ln221 2

BB

anspringen. Um die Symmetrie zu stören und für eindeutige Verhältnisse zu sorgen, wird meist ein /4-Phasensprung in das Gitter eingebaut (Abb. 1.66). In diesem Fall entsteht nur eine Mode mit der Wellenlänge B. Um Störun-gen von den Kristallenden zu vermeiden, werden diese entspiegelt.

Abb. 1.66. Modulation des Brechungsindex mit /4- ( /2)-Phasensprung

Außer der erwähnten dynamischen Einmodigkeit der DFB- und DBR-Laser haben sie den Vorteil, dass sie zusammen mit anderen Bauelementen auf einem Chip integrierbar sind, denn sie benötigen nicht den Brechungs-indexsprung zwischen Kristall und Luft wie die Fabry-Perot-Laser.

1.5.3.5 Oberflächenemittierende Laser (VCSEL)

Die bisher beschriebenen Laser sind Kantenemitter (edge emitter). Nun gibt es auch die Möglichkeit, Laser zu bauen, bei denen das Licht wie bei den LEDs durch die Deckfläche abgestrahlt wird. Diese VCSELs (Verti-cal-Cavity Surface-Emitting Lasers) haben außerordentlich interessante eigenschaften. Abbildung 1.67 zeigt den prinzipiellen Aufbau.

Page 111: Photonik: Grundlagen, Technologie und Anwendung

90 1 Grundlagen

Die aktive Schicht besteht aus einem oder mehreren Quantenfilmen (MQW, Abschn. 5.3.1). Als Material eignet sich GaAs für = 750 nm bis 850 nm oder InGaAs für 900 nm bis 1050 nm. Durchquert ein Photon die dünne Schicht in senkrechter Richtung, ist die Wahrscheinlichkeit für das Auslösen eines stimulierten Emissionsaktes sehr gering. Deshalb müssen die Photonen sehr häufig in die aktive Zone zurück gespiegelt werden. Man benötigt also zur Ausbildung eines wirkungsvollen Resonators Spie-gel mit hoher Reflektivität. Nimmt man vereinfachend an, dass R1 = R2 = Rund vernachlässigt man interne Verluste, so folgt aus Gl. (1.112) für die notwendige Reflektivität

)exp( thdgR . (1.134)

Bei einem Gewinnfaktor von gth = 1000 cm-1 und einer Dicke der MQW-Schicht von d = 50 nm ergibt sich R = 99,5%.

Derartig hohe Reflektivitäten sind mit Metallspiegeln nicht realisierbar, sondern nur mit dielektrischen Spiegeln. Dazu werden nach Abb. 1.67 b) abwechselnd Schichten von AlAs und GaAs mit jeweils der Dicke /(4n)hinter einander gestapelt. Die geometrische Wegdifferenz der an zwei auf-einander folgenden Schichten reflektierten Wellen ist eine halbe Wellen-länge (Phasendifferenz ). Da jeweils bei der Reflexion an der Schicht mit größerem Brechungsindex (GaAs) ein zusätzlicher Phasensprung um auftritt, interferieren alle reflektierten Wellen konstruktiv. Obwohl der Reflexionsgrad an einer Grenzfläche lediglich

322

AlAsGaAs

AlAsGaAs 10797,251,397,251,3

nnnnR

beträgt, steigt R bei 20 und mehr Schichtenpaaren auf den gewünschten Wert an.

Abb. 1.67. Vertikal-Laserdiode (VCSEL), a) Aufbau, b) Reflexion am oberen Spiegel

Page 112: Photonik: Grundlagen, Technologie und Anwendung

1.6 Halbleiter-Detektoren 91

Eigenschaften

Der Schwellstrom von VCSELs ist sehr gering, typischerweise um 1 mA. Da der Resonator sehr kurz ist, schwingt innerhalb der Gain-Kurve nur eine longitudinale Mode an. VCSELs sind daher auch unter Modulation bis zu einigen GHz Monomode-Laser mit einer Seitenmodenunterdrü-ckung von über 40 dB. Der emittierte Strahl von einigen mW Leistung weist nicht die Unsymmetrie auf wie beim Fabry-Perot-Laser. Vielmehr ist der Strahlquerschnitt kreisrund und der Divergenzwinkel < 10 .

Mehrere VCSELs lassen sich in einer Reihe oder einer zweidimensiona-len Matrix auf einem Wafer anordnen und gleichzeitig prozessieren. Damit wird die Produktion sehr wirtschaftlich. Da die verschiedenen Laser einer Matrix getrennt ansteuerbar sind, lassen sich raffinierte optische Busver-bindungen und ähnliches aufbauen.

VCSELs für die Wellenlängen 1,3 m und 1,55 m sind schwierig her-zustellen, weil Spiegel aus InGaAsP- und InP-Schichten eine sehr geringe Reflektivität aufweisen. Vielversprechende Ergebnisse wurden erzielt mit MQW-Strukturen auf InGaAsN-Basis.

1.6 Halbleiter-Detektoren

1.6.1 Absorption in Halbleitern

Licht kann in einem Halbleiter dann absorbiert werden, wenn die Energie der Photonen ausreicht, um Elektronen aus ihren Bindungen zu reißen. Im Bändermodell wird dieser Vorgang so dargestellt, dass ein Elektron aus dem Valenzband mithilfe der Photonenenergie ins Leitungsband gehoben wird (Abb. 1.68 a). Da hierbei im Valenzband ein Loch zurück bleibt, er-zeugt jedes absorbierte Photon ein Elektron-Loch-Paar.

Abb. 1.68. Absorption eines Photons, a) Schema im Bändermodell, b) Absorpti-onskoeffizienten verschiedener Halbleiter

Page 113: Photonik: Grundlagen, Technologie und Anwendung

92 1 Grundlagen

Lässt man Feinheiten wie die möglicherweise vorhandene Mitwirkung von Störstellen oder die Bildung von Exzitonen (gekoppelte Elektron-Loch-Paare) beiseite, dann ist die Voraussetzung für den Absorptionsakt, dass die Photonenenergie Eph größer ist als die Breite der Energielücke Eg:

VLgph EEEE . (1.135)

Umgekehrt muss die Wellenlänge des Lichts kleiner sein als eine Grenz-wellenlänge

gg

0g

eVm24,1EE

ch. (1.136)

Beispiel:Die Energielücke von Silicium beträgt Eg = 1,11 eV. Welche Wellenlängen wer-den in Si absorbiert?

Lösung:Absorption findet statt für < 1,12 m. Für > 1,12 m ist Si transparent.

Dringen Photonen, deren Energie der Bedingung von Gl. (1.135) genügt, in einen Halbleiter ein, dann nimmt mit zunehmender Eindringtiefe der Photonenstrom ab, bis schließlich bei genügender Kristalldicke alle Photo-nen verschwunden sind. Die Dichte der Photonen und damit auch die Strahlungsleistung nimmt ins Kristallinnere hinein exponentiell ab:

)exp()( 0 zz . (1.137)

Der Exponent in diesem Lambert-Bouguer’schen Gesetz ist der Ab-sorptionskoeffizient (Abb. 1.68 b). ist für Eph < Eg null und steigt für Eph > Eg steil an. In der Entfernung

/1l (1.138)

von der Oberfläche, die als Eindringtiefe bezeichnet wird, hat die Photo-nendichte auf 1/e abgenommen. In der Tiefe z = 5/ sind praktisch alle Photonen absorbiert.

Beispiel:Wie groß ist die Eindringtiefe von Strahlung der Wellenlänge = 700 nm in Si?

Lösung:Nach Abb. 1.68 b) ist der Absorptionskoeffizient (0,7 m) = 2,5 103 cm-1. Damit ist die Eindringtiefe l = 4 m bzw. 5l = 20 m.

Page 114: Photonik: Grundlagen, Technologie und Anwendung

1.6 Halbleiter-Detektoren 93

1.6.2 Fotoleiter

Der Fotoleiter oder Fotowiderstand (LDR, Light Dependent Resistor) ist ein passives Bauelement, dessen Widerstand sich bei Bestrahlung verrin-gert. Die Leitfähigkeit eines Halbleiters berechnet sich aus

)( pn pne . (1.139)

n und p sind die Konzentrationen der freien Elektronen bzw. Löcher, n

und p die entsprechenden Beweglichkeiten.Da jedes absorbierte Photon ein Elektron-Loch-Paar erzeugt, erhöht sich

die Dichte der Elektronen und Löcher und das Bauelement wird leitfähi-ger. Der Widerstand sollte in etwa umgekehrt proportional zur Bestrah-lungsstärke Ee sein. In der Praxis wird der Zusammenhang beschrieben mit

-e~ ER , (1.140)

wobei die Steilheit 1 ist. Zum Nachweis von sichtbarem Licht sind vor allem intrinsische Fotolei-

ter aus CdS und CdSe geeignet. Sie werden häufig eingesetzt bei Belich-tungsmessern, Flammenwächtern usw. Für das nahe IR kommen Halbleiter mit kleinem Bandgap in Frage wie PbS, InAs und InSb. Fotoleiter sind meist relativ träge und spielen deshalb keine Rolle beim Nachweis schnell modulierter Strahlung.

1.6.3 Fotodioden

1.6.3.1 Wirkungsweise von Sperrschicht-Detektoren

Die Fotodiode ist ein aktives Bauelement, das bei Bestrahlung eine elektri-sche Spannung bzw. einen Strom abgibt. Basis ist der in Abb. 1.69 darge-stellte pn-Übergang.

Abb. 1.69. Bänderschema einer Fotodiode ohne äußere Spannung. Die Lage der Fermi-Energie ist gestrichelt gezeichnet

Page 115: Photonik: Grundlagen, Technologie und Anwendung

94 1 Grundlagen

Erzeugt ein Photon ausreichender Energie in der Raumladungszone ein Elektron-Loch-Paar, so findet aufgrund des eingebauten Feldes eine La-dungstrennung statt. Das Elektron wird auf die n-Seite, das Loch auf die p-Seite befördert. Im Außenkreis der Diode fließt pro getrenntem Elektron-Loch-Paar genau eine Elementarladung. Bei Bestrahlung mit dem Photo-nenfluss pheph / EN fließt der Fotostrom

eE

Iph

eph .

Nicht jedes Photon trägt zu einem nachweisbaren Elektron-Loch-Paar bei. Wird der pn-Übergang von Ab. 1.69 von links her (p-Gebiet) bestrahlt, dann werden die meisten Photonen nicht in der Raumladungszone (RLZ) absorbiert. Beispielsweise dringen Photonen mit geringer Energie weit ins n-Gebiet ein, wo sie ihr Elektron-Loch-Paar erzeugen. Nun muss das Loch erst durch einen langwierigen Diffusionsprozess an den Rand der RLZ diffundieren, bevor es durch das elektrische Feld auf die p-Seite befördert und damit nachgewiesen wird. Dringen Photonen zu tief ein, dann werden die gebildeten Elektron-Loch-Paare durch Rekombination verschwinden, ehe sie nachgewiesen sind.

Der Fotostrom einer Diode, der die Richtung eines Sperrstroms hat, be-trägt damit

)(ph

eph e

EI . (1.141)

Die Quantenausbeute ( ) ( < 1) gibt an, welcher Bruchteil der eindrin-genden Photonen zu einem nachweisbaren Elektron-Loch-Paar führt.

Abb. 1.70. Empfindlichkeit für Fotodioden aus Si, Ge und In0,53Ga0,47As. Die Gerade entspricht einer idealen Fotodiode mit Quantenausbeute = 100%

Page 116: Photonik: Grundlagen, Technologie und Anwendung

1.6 Halbleiter-Detektoren 95

Der Fotostrom ist die interessanteste Größe zum Nachweis elektromag-netischer Strahlung, denn er ist nach Gl. (1.141) proportional zur Strah-lungsleistung e. Die Empfindlichkeit (Responsivity) einer Fotodiode (Abb. 1.70) ist definiert als

0phe

ph )()(ch

eEeI

. (1.142)

Die Strom-Spannungs-Kennlinie der Fotodiode (Abb. 1.71) ergibt sich aus der Kennlinie nach Shockley

1expS TkUeII

für eine normale Diode, indem der Fotostrom nach Gl. (1.141) subtrahiert wird:

phS 1exp ITkUeII . (1.143)

IS ist der Sperrstrom, der auch als Dunkelstrom Id bezeichnet wird. Im Kurzschlussbetrieb gilt U = 0 und es fließt der Kurzschlussstrom IK = –Iph.Im Leerlauf bei offenen Enden bzw. einem sehr hochohmigen Lastwider-stand ist I = 0 und an den Anschlüssen ist die Leerlaufspannung

1lnS

phL I

IeTkU (1.144)

Abb. 1.71. I(U)-Kennlinienfeld einer Fotodiode. Parameter ist die Bestrahlungs-stärke

Page 117: Photonik: Grundlagen, Technologie und Anwendung

96 1 Grundlagen

abgreifbar. Im Gegensatz zum Strom ist die Leerlaufspannung nicht linear, sondern logarithmisch von der Strahlungsleistung abhängig.

Je nach äußerer Beschaltung unterscheidet man verschiedene Betriebs-zustände:

Elementbetrieb: Die Fotodiode wird ohne äußere Spannungsquelle di-rekt an einen Lastwiderstand RL (Verbraucher) angeschlossen. Die Dio-de arbeitet als Stromgenerator im vierten Quadranten des Kennlinienfel-des und wird als Fotoelement bezeichnet. Zu diesem Typ gehört auch die Solarzelle (Kap. 8). Der Arbeitspunkt A stellt sich ein als Schnitt-punkt der I(U)-Kennlinie und der Widerstandsgeraden I = –U/RL.Diodenbetrieb: Die Fotodiode wird mit einem Lastwiderstand RL in Rei-he an eine Batterie angeschlossen, wobei die Batteriespannung UB < 0 in Sperrrichtung anliegt. Der Arbeitspunkt B ergibt sich als Schnittpunkt der I(U)-Kennlinie und der Widerstandsgeraden I = (UB – U)/RL.

Fotodioden auf der Grundlage normaler pn-Übergänge sind relativ trä-ge, weil die oben beschriebenen Diffusionsvorgänge sehr langsam sind. Sie lassen sich deshalb nur bis etwa 10 MHz für die Detektion modulierter Strahlung einsetzen.

1.6.3.2 pin-Fotodioden

Die pin-Diode besteht nach Ab. 1.72 aus einer dicken i-Schicht (intrinsic, eigenleitend), die beidseitig von einem hoch dotierten p+- bzw. n+-Gebiet eingeschlossen ist. An die Diode wird eine Sperrspannung (einige 10 V) angelegt, die in der i-Schicht ein relativ homogenes elektrisches Feld auf-baut. Infolge ihrer Dicke werden praktisch alle Photonen innerhalb der i-Zone absorbiert. Die erzeugten Elektron-Loch-Paare werden durch das

Abb. 1.72. Aufbau einer pin-Fotodiode

Page 118: Photonik: Grundlagen, Technologie und Anwendung

1.6 Halbleiter-Detektoren 97

elektrische Feld getrennt und die Elektronen auf die n-Seite, die Löcher auf die p-Seite befördert.

Ab einer Feldstärke von etwa 2 106 V/m driften in allen Halbleitern die Ladungsträger mit der Sättigungs-Driftgeschwindigkeit vS 105 m/s. Der Driftvorgang durch das i-Gebiet benötigt damit nur eine sehr kurze Zeit. Ist w die Weite der i-Schicht, dann ist die Driftzeit

SDrift / vw . (1.145)

Wenn modulierte Strahlung mit der Leistung

)sin(1)( 0 tmt

auf die Diode fällt, ist der generierte Fotostrom ebenfalls moduliert gemäß

)sin(1)( 0 tmIti .

Für den Modulationsgrad (m 1) gilt: )(Hmm . Für die Modulati-ons-Übertragungsfunktion kann abgeleitet werden:

Drift

Drift )sin()(fffH . (1.146)

Die elektrische 3-dB-Grenzfrequenz ist erreicht, wenn 2/1)( dB3fHist. Damit wird

Drift3dB

443,0f . (1.147)

Beispiel:Wie groß ist die Grenzfrequenz einer pin-Fotodiode aus Silicium mit einer 20 mdicken i-Schicht?

Lösung:Die Driftzeit ist nach Gl. (1.145) Drift = 200 ps. Nach Gl. (1.147) ist dann die Grenzfrequenz f3dB = 2,2 GHz. Die benötigte Sperrspannung, um eine Feldstärke von E = 2 106 V/m zu erzeugen, ist UR = –E w = –40 V.

Rauschen von pin-Fotodioden

Der Strom einer Fotodiode ist immer mehr oder weniger verrauscht (Abb. 1.73). Der eigentliche Rauschstrom in(t) (noise current) ergibt sich

Page 119: Photonik: Grundlagen, Technologie und Anwendung

98 1 Grundlagen

aus dem momentanen Strom i(t) durch Subtraktion des zeitlichen Mittel-werts I :

Ititi )()(n .

Abb. 1.73. Rauschen von Fotodioden, a) Diodenstrom, b) Rauschstrom, c) Rausch-stromquadrat

Die mit dem Rauschstrom verknüpfte Verlustleistung ist proportional zu

)(2n ti (Abb. 1.73 c). Der zeitliche Mittelwert ist )(2

n ti .Die wichtigsten Rauschquellen sind:

Schrotrauschen: Die erzeugten Ladungsträger überqueren die Sperr-schicht statistisch regellos (wie die Schrotkugeln einer Schrotflinte). Nach Schottky ist das mittlere Rauschstromquadrat proportional zum mittleren Strom und zur Bandbreite B der Messanordnung:

BIei 22sh .

Beiträge zum Strom liefern der mittlere Fotostrom phI , der Hintergrund-

strom Ib, verursacht durch die Hintergrundstrahlung (background radiati-on) sowie der Dunkelstrom Id der Diode:

dbph IIII .

Page 120: Photonik: Grundlagen, Technologie und Anwendung

1.6 Halbleiter-Detektoren 99

Thermisches Rauschen: In jedem Widerstand (hier der Lastwiderstand) kommt es infolge der Brown’schen Bewegung der Elektronen zu Rauschsignalen, deren mittleres Rauschstromquadrat gegeben ist durch

BRTki 42

therm .

Die Qualität eines detektierten Signals hängt ab vom Verhältnis der ef-fektiven Signalleistung Psig zur effektiven Rauschleistung Pn, dem so ge-nannten Signal-Rausch-Verhältnis

2n

2sig

n

sig

i

iPP

NS

, (1.148)

das häufig auch als Pegelmaß in dB angegeben wird:

dBlg10NSSNR . (1.149)

Abb. 1.74. I( )-Charakteristik einer Fotodiode

Fällt sinusförmig modulierte Strahlung der Leistung

)sin(1)sin(ˆ)( 00 tmtt

auf eine Fotodiode, dann erzeugt diese nach Abb. 1.74 einen modulierten Fotostrom

0ph,0phph0ph,ph undˆˆmit)sin(ˆ)( IItIIti .

Page 121: Photonik: Grundlagen, Technologie und Anwendung

100 1 Grundlagen

Der Signalstrom ist

)sin(ˆ)( phsig tIti , mit 22ph

2sig )ˆ(

21ˆ

21 Ii .

Das Signal-Rausch-Verhältnis 2therm

2sh

2sig

ii

iNS

wird damit

BRkTI

me

NS 1

8ˆ4

)ˆ(

Ldb

2. (1.150)

Ein optisches Signal ist nachweisbar, wenn die Signalleistung so groß ist wie die Rauschleistung, d.h. wenn gilt S/N = 1.

Eine wichtige Kenngröße zur Klassifizierung von Fotodioden ist der NEP-Wert (Noise Equivalent Power). Diese rauschäqivalente Leistung ist der Effektivwert der kleinsten nachweisbaren optischen Wechselleistung bei einem Modulationsgrad von m = 100%:

)1,1/(ˆ2

1min mNSNEP . (1.151)

Häufig ist der NEP-Wert proportional zur Wurzel aus der Bandbreite. Von

den Herstellern wird deshalb in Katalogen meist der Wert BNEP mit

der Maßeinheit HzW angegeben. Eine weitere Größe zur Charakterisierung von Fotodioden ist die Detek-

tivität D = 1/NEP (detectivity, Nachweisvermögen). Dioden verschiedener Größe lassen sich vergleichen, wenn die Detektivität auf die Wurzel aus der Fläche A bezogen wird. Dies führt zur bezogenen Detektivität

NEPBAD . (1.152)

Beispiel:Sinusförmig modulierte Strahlung der Wellenlänge = 1,3 m fällt auf eine pin-Fotodiode der Empfindlichkeit = 0,88 A/W. Mit der Strahlung werden analoge TV-Signale übertragen, für die ein Signal-Rausch-Abstand von SNR = 45 dB ge-fordert wird. Die Bandbreite ist B = 5 MHz. Die Sperrschichtkapazität der Diode ist Cj = 1 pF. Mit welcher Amplitude muss die Strahlungsleistung moduliert sein? Wie groß ist die rauschäquivalente Leistung der Diode? Hinweis: In pin-Dioden-Empfängern dominiert mit Abstand das thermische Rauschen.

Page 122: Photonik: Grundlagen, Technologie und Anwendung

1.6 Halbleiter-Detektoren 101

Lösung:Falls keine Bandpassfilter verwendet werden, begrenzt die RLCj-Zeitkonstante die Bandbreite. Damit ist ein Lastwiderstand erforderlich von RL = (2 CjB)-

1 = 31,8 k . Das verlangte Signal-Rausch-Verhältnis ist S/N = 104,5 = 3,16 104.Wenn nur thermisches Rauschen betrachtet wird, reduziert sich Gl. (1.150) auf

BkTR

NS 1

8)ˆ( L

2.

Die erforderliche Leistungsamplitude ergibt sich hieraus zu

W1061,481ˆ 7

LB

RkT

NS

.

Die kleinste nachweisbare Leistung ist W1059,281ˆ 9

Lmin B

RkT

. Nach

Gl. (1.151) wird die rauschäquivalente Leistung NEP = 1,83 10-9 W bzw. -1/213 Hz W102,8/ BNEP .

1.6.3.3 Lawinen-Fotodioden, APD

Bei der Lawinen-Fotodiode oder kurz APD (Avalanche Photo Diode) wer-den durch Photonen frei gesetzte Ladungsträger lawinenartig vermehrt, wenn die Diode mit hoher Sperrspannung betrieben wird. Beim typischen

Abb. 1.75. APD, a) Aufbau und schematischer Multiplikationsprozess, b) Feldver-lauf. Die p-Zone ist in Wirklichkeit viel dünner als die -Zone (nahezu intrinsi-sches p-Gebiet)

Page 123: Photonik: Grundlagen, Technologie und Anwendung

102 1 Grundlagen

Aufbau nach Abb. 1.75 werden die Elektronen so stark beschleunigt, dass sie, wenn ihre kinetische Energie größer wird als die Energielücke, durch Stoßionisation weitere Elektron-Loch-Paare bilden können.

Der primäre Photostrom Iph,prim = ( e/Eph)e ( ) nach Gl. (1.141) wird verstärkt um einen Multiplikationsfaktor M zu

primph,ph IMI . (1.153)

In der schematischen Skizze von Abb. 1.75 a) tragen nur die Elektronen zur Multiplikation bei. Tatsächlich können aber auch die Löcher durch Stoßionisation neue Elektron-Loch-Paare bilden. Wenn beide Ladungsträ-gertypen zur Multiplikation beitragen, wird zwar der Multiplikationsfaktor sehr groß, es dauert aber sehr lange, bis der Multiplikationsvorgang zum Abschluss kommt. Solche APDs sind daher nicht schnell modulierbar und liefern stark verrauschte Signale.

Die Ionisationskoeffizienten n und p beschreiben die Zahl der Ionisa-tionsakte, die ein Elektron bzw. Loch pro Längeneinheit ausführt. Die Verhältnisse

fürbzw.für npp

npn

n

p kk

nehmen praktisch Werte an von 0,1 < k < 1. Gut kontrollierbare Verhält-nisse liegen dann vor, wenn k klein ist und die Ladungsträgersorte mit dem größeren Ionisationskoeffizienten in die Multiplikationszone injiziert wird. In Abb. 1.75 a) sind dies wie bei Silicium die Elektronen (kSi 0,1).

Das Modulationsverhalten der APDs ist sehr komplex. Fällt sinusförmig modulierte Strahlung auf die APD, dann wird wie bei der pin-Diode (s. Abb. 74) ein sinusförmig modulierter Strom erzeugt. Für dessen Ampli-tude gilt

)()0(ˆ)(ˆphph HII ,

wobei die Modulationsantwort gegeben ist durch

2A )(1

1)(H . (1.154)

A ist die Lawinenansprechzeit. Bei großen Multiplikationsfaktoren Mgilt A = Tr Mk. Tr = w/vS ist die Transitzeit zum Durchqueren der Hoch-feldzone. Definiert man die elektrische 3-dB-Bandbreite wieder durch die Abnahme von H auf 2/1 , dann ergibt sich

kMfB

TrA3dB 2

12

1.

Page 124: Photonik: Grundlagen, Technologie und Anwendung

1.6 Halbleiter-Detektoren 103

Es existiert demnach ein Verstärkungs-Bandbreite-Produkt

constk

BMTr2

1. (1.155)

Typische M B-Produkte sind 150 GHz bis 300 GHz bei Si, 20 GHz bis 30 GHz bei Ge und 30 GHz bis 80 GHz bei InGaAs/InP.

Beispiel:Eine InGaAs-APD hat ein Verstärkungs-Bandbreite-Produkt von M B = 60 GHz. Mit welcher Bandbreite können Signale nachgewiesen werden bei einem Multi-plikationsfaktor von M = 30?

Lösung:Die Bandbreite ist B = 60 GHz/30 = 2 GHz.

Rauschen in APDs

Der Vorteil der APD, nämlich die eingebaute Verstärkung führt zu zusätz-lichem Rauschen, denn der Verstärkungsfaktor M ist nicht konstant, son-dern statistisch regellos schwankend. Das mittlere Rauschstromquadrat des Schrotrauschens wird

22sh 2 MBIei .

Setzt man M als konstant an, dann ist das mittlere Verstärkungsquadrat schreibbar als

)(22 MFMM ,

wobei der Zusatzrauschfaktor F(M) gegeben ist durch

)/12)(1()( MkkMMF .

Wie schon eingangs erwähnt wurde, ist das Zusatzrauschen gering, wenn kklein ist. Für praktische Anwendungen kann der Zusatzrauschfaktor ange-nähert werden durch

xMF .

Typische Werte des Exponenten sind x = 0,2–0,5 für Si, 0,9–1,0 für Ge und 0,7–0,8 für InGaAs.

Page 125: Photonik: Grundlagen, Technologie und Anwendung

104 1 Grundlagen

Damit ergibt sich für das Signal-Rausch-Verhältnis einer APD (s. Gl. (1.150) für pin-Dioden)

B

RMkTMI

me

NS

x

1

8ˆ4

)ˆ(

L2db

2. (1.156)

Obwohl die APD im Vergleich zur pin-Diode zusätzliches Rauschen zeigt, kann sie günstigere NEP-Werte liefern weil der thermische Rausch-beitrag des Lastwiderstandes heruntergesetzt wird.

Beispiel:Wie groß ist die rauschäquivalente Leistung einer APD mit folgenden Daten:

= 0,88 A/W, RL = 1 k , x = 0,75, B = 100 MHz, m = 100%? Hintergrundrau-schen und Dunkelstromrauschen werden vernachlässigt.

Lösung:Aus Gl. (1.156) folgt für S/N = 1 die minimale Leistungsamplitude durch Lösen der quadratischen Gleichung

08ˆ4ˆL

22

2

RMTkMe

Bx .

Hz W/1051,1/nW,51,1nW,13,2)59(ˆ 13min BNEPNEPM .

1.7 Literatur

Bauer H (1991) Lasertechnik. Vogel, Würzburg Bludau W (1995) Halbleiter-Optoelektronik. Hanser, München, Wien Ditteon R (1998) Modern Geometrical Optics. John Wiley & Sons, New York Eichler J, Eichler H J (2002) Laser. Springer, Berlin, Heidelberg, New York Glaser W (1997) Photonik für Ingenieure. Verlag Technik GmbH, Berlin Hering E, Bressler K, Gutekunst J (1998) Elektronik für Ingenieure. Springer,

Berlin, Heidelberg, New York Hering E, Martin R, Stohrer M (2004) Physik für Ingenieure. Springer, Berlin,

Heidelberg, New York Pedrotti F, Pedrotti L, Bausch W, Schmidt H (2002) Optik für Ingenieure. Sprin-

ger, Berlin, Heidelberg, New York Reider G A (1997) Photonik. Springer, Wien, New York

Page 126: Photonik: Grundlagen, Technologie und Anwendung

2 Fertigung optischer Komponenten und Systeme

2.1 Übersicht

Dieser Abschnitt befasst sich mit der Herstellung von optischen Kompo-nenten sowie der dazugehörigen Messtechnik. Dabei werden sowohl klas-sische optische Herstelltechniken, wie sie seit Jahrzehnten in der optischen Industrie verwendet werden, als auch moderne Herstellverfahren vorge-stellt (z.B. Kunststofftechnologien und Lithografieverfahren). Ergänzend zu den Formgebungsverfahren werden Beschichtungsverfahren behandelt. Tabelle 2.1 zeigt die optischen Komponenten, ihre Einsatzbeispiele und Herstelltechnologien.

Die folgenden Ausführungen gliedern sich entsprechend den Herstell-technologien (Abb. 2.1).

Abb. 2.1. Übersicht über die Herstelltechnologien für optische Komponenten

Page 127: Photonik: Grundlagen, Technologie und Anwendung

106 2 Fertigung optischer Komponenten und Systeme

Filte

rW

elle

nlän

gent

renn

ung

Ban

dpas

s fü

r T

elek

om-

mun

ikat

ion

Schu

tzw

irku

ng,

z. B

. Bri

lle

Bes

chic

htun

gs-

tech

nolo

gien

Spie

gel

Ref

lexi

on

Tel

esko

pL

aser

Kla

ssis

che

Bea

rbei

tung

, Str

uk-

turi

erun

g, B

e-sc

hich

tung

Stra

hlfo

rmun

g

Bel

euch

tung

Sc

hein

wer

fer

Lin

seA

bbild

ung

Bri

lleO

bjek

tiv (

Foto

ode

r Pr

ojek

tor)

M

ikro

skop

C

D, D

VD

Aus

lese

optik

Kla

ssis

che

Bea

rbei

tung

(S

chle

ifen

und

Pol

iere

n), A

b-fo

rmte

chno

logi

en, S

truk

turi

e-ru

ng

Tab

elle

2.1

. Fun

ktio

n, E

insa

tz o

ptis

cher

Kom

pone

nten

und

die

daz

u ve

rwen

dete

n H

erst

ellte

chno

logi

en

Kom

pone

nte

Funk

tion

Prin

zip

Ein

satz

beis

piel

e

Her

stel

ltech

nolo

gie

Page 128: Photonik: Grundlagen, Technologie und Anwendung

2.2 Klassische Bearbeitung 107

2.2 Klassische Bearbeitung

2.2.1 Übersicht

Trotz einer Vielzahl von neuen technologischen Möglichkeiten spielt die klassische Bearbeitung bei der Herstellung von optischen Komponenten mit Stückzahlen von unter 10.000 und bei der Herstellung von Prototypen oder Abformkörpern immer noch die entscheidende Rolle. Unter klassi-scher Bearbeitung versteht man die in Abb. 2.2 dargestellten Fertigungs-prozesse.

Abb. 2.2. Prozesskette zur Herstellung von Optikkomponenten vom Design bis zur Montage

Die klassischen Bearbeitungsschritte hierbei sind Formen, Glätten und Korrektur. Tabelle 2.2 zeigt das Prinzip der einzelnen Bearbeitungsschritte.

Tabelle 2.2. Prinzip der klassischen Bearbeitungsschritte

Formen Glätten Korrektur

Prinzip

Ziel des Schrittes Erzeugung Kom-ponentenform

Beseitigung Tiefenschäden Verkleinern Rauhigkeit

Erreichen Formge-nauigkeit über lokal unterschiedlichen Abtrag

Materialabtrag mehrere Millimeter

mehrereMikrometer

mehrereNanometer

Formgenauigkeit 1 µm bis 100 µm 1 µm bis 10 µm 1 nm Einzeltech-nologien

Sägen, Trennen, Diamantdrehen

Feinstschleifen Polieren

Computergesteuerte Politur, magneto-rheologisches Polie-ren

Page 129: Photonik: Grundlagen, Technologie und Anwendung

108 2 Fertigung optischer Komponenten und Systeme

2.2.2 Formen (Trennen, Schleifen, Diamantdrehen)

Der Prozessschritt Formen dient dazu, aus der angelieferten Rohscheibe aus Glas (oder anderem optischen Material) die Funktionsform der opti-schen Komponente, beispielsweise der sphärischen (kugelförmigen) Linse herzustellen. Hierbei wird zwischen einer Grobbearbeitung (z.B. Vor-schleifen) und einer Feinbearbeitung (z.B. Feinschleifen oder Diamant-drehen) unterschieden. In der Grobbearbeitung wird aus der meist flachen Scheibe durch Abtrag vom mehreren mm Material die grobe Form mit einer Abweichung von typisch 0,01 mm bis 0,1 mm und einem Aufmaß von 0,01 mm bis 1 mm generiert. Danach wird in einem zweiten Schritt die gewünschte Endform und die gewünschte Oberflächenrauigkeit einge-stellt. Die Endform weicht nach diesem Schritt noch 0,0001 mm bis 0,01 mm vom Soll ab und ist damit bereits oft im spezifizierten Bereich. Die Rauigkeit liegt nach dem letzten Schritt zwischen 1 nm rms und 10 µm rms (rms root mean square, quadratisch gemittelte Rauigkeit). Dabei liefert der Prozess Diamantdrehen in der Regel die formgenaueren und die weniger rauen Oberflächen. Für bestimmte Wellenbereiche, beispielsweise in der Infrarotoptik, sind die durch Diamantdrehen erreichten Werte bereits als Endspezifikation ausreichend, so dass kein Polierschritt nachfolgen muss. In der Tabelle 2.3 sind die typischen Ergebnisse in Bezug auf Form und Rauigkeit aufgeführt. Schleifen als Prozess kann bei allen Materialien eingesetzt werden. Für Diamantdrehen ist die Voraussetzung, dass sich das zu bearbeitende Material bei Abträgen im 10 µm-Bereich duktil (plastisch) verhält. So sind beispielsweise Kunststoffe, Metalle und bestimmte Kris-talle für Diamantdrehen geeignet, klassische Glassorten dagegen nicht.

Tabelle 2.3. Klassische Vorbearbeitungsschritte und die erzielbaren Formgenau-igkeiten und Oberflächenrauigkeiten

Vorschleifen Feinschleifen Diamantdrehen Materialien alle alle Duktile, d.h. plas-

tisch verformbare Kontakt auf Werkstück Flächen- oder

Punktkontakt Flächen- oder Punktkontakt

Punktkontakt

Abtrag pro Durchlauf (Spangröße) µm

100 bis 2.000 2 bis 100 1 bis 20

Formgenauigkeit µm 10 bis 100 1 bis 10 0,1 bis 10 Oberflächenrauigkeit µm rms root mean square (quadratisch gemittelt)

10 bis 100 0,1 bis 10 0,01 bis 0,1

Page 130: Photonik: Grundlagen, Technologie und Anwendung

2.2 Klassische Bearbeitung 109

Zur Formerzeugung bei den Optikkomponenten werden heute nahezu überall CNC (Computer Numerical Controlled)- Maschinen eingesetzt. Sie erzeugen die Form durch Zerspanung entlang einer vorgeben Bahnkurve.

Abb. 2.3. Vorbearbeitung eines Brillenglases auf einer CNC-Schleifmaschine (Werkfoto: Schneider Optikmaschinen)

Je nach Flächenform erfolgt bei Sphären und Planflächen der Abtrag beim Schleifen über Linien- oder Flächenkontakt, bei Asphären (Nichtku-gelflächen) und Freiformflächen über Punktkontakt. Bei der Bearbeitung von nichtrotationssymmetrischen Formen wird zusätzlich zu dem rotati-onssymmetrischen Drehen (in Abb. 2.5. senkrecht zur Bildebene) azimuth-abhängige Hübe in Achsrichtung (in Abb. 2.5 in der Bildebene horizontal) mit dem Diamanten gefahren, um die nichtrotationssymmetrischen Abwei-chungen einzubringen.

In Abb. 2.4 ist eine Topfschleifmaschine gezeigt, die zum Schleifen von Sphären und Asphären eingesetzt wird.

Abb. 2.4. CNC-Schleifmaschine für Sphären und Asphären (Nichtkugelflächen) bis 200 mm Durchmesser mit einer Formabweichung kleiner 1 µm. (Werkfoto: Schneider Optikmaschinen)

Page 131: Photonik: Grundlagen, Technologie und Anwendung

110 2 Fertigung optischer Komponenten und Systeme

Abb. 2.5. Hochgeschwindigkeitsdiamantdrehmaschine für Brillengläser. Auf der rechten Seite sieht man links das aufgespannte Brillenglas und rechts den Diaman-ten auf seinem Halter (Werkfoto: Schneider Optikmaschinen)

Neben der direkten Formgebung zur Herstellung von optischen Elemen-ten werden die oben genannten Verfahren auch zur Fabrikation von Mas-terformen zum Abformen von Optik beispielsweise für Web-Kameras, CD-, DVD-Ausleseoptik und Scheinwerferlinsen eingesetzt.

MesstechnikDie gebräuchlichste Messtechnik zur Vermessung der Formgebung ist die taktile Messtechnik. Dabei wird mit einem Taster die zu vermessende Ober-fläche entweder in Einzelpunkten oder scannend als Schnitt oder komplette Oberfläche abgetastet. Die Größe der Tasterspitze ist dabei der Größe der zu vermessenden Kontur angepasst. Die erreichbaren Genauigkeiten liegen je nach Messtechnik im Bereich von 10 nm bis 10 µm. In Abb. 2.6 ist die Ver-messung einer Infrarotoptik in Einbaulage zu sehen.

Abb. 2.6. Taktile Vermessung eines Optikelements in Einbaulage. Im gezeigten Beispiel ermöglicht der montierte Sterntaster die gleichzeitige Vermessung von Optikform, Optiklage und Gehäuse

Page 132: Photonik: Grundlagen, Technologie und Anwendung

2.2 Klassische Bearbeitung 111

2.2.3 Glätten

Der Prozessschritt Glätten hat die Aufgabe, die Rauigkeit der Oberfläche aus dem formgebenden Schritt so zu veringern, dass die geforderte Streu-lichtspezifikation erreicht und die durch Sprödbruch entstandenen Tiefen-schädigung (Risse) beseitigt wird. Typische Abtragsraten beim Polieren liegen zwischen 5 µm und 50 µm. Der Polierprozess ist im Gegensatz zum Schleifen und Diamantdrehen ein Prozess mit relativem Abtrag. Während bei den beiden formgebenden Prozessen eine Zustellung an der Maschine von 50 µm auch einen Abtrag von 50 µm bewirkt, ist beim Polierprozess die Abtragsarbeit nur über die Prestongleichung zu berechnen:

W µ * A * p * v * t (2.1)

W: Abtragsarbeit µ: Reibungskoeffizient p : Druck auf Fläche A: Auflagefläche Werkzeug v: Relativgeschwindigkeit Werkstück zu Werkzeug t: Verweilzeit

oder für die Abtragsrate dz/dt:

dz/dt Cp * L/A * ds/dt (2.2)

dz/dt: Höhenänderung über Zeit oder Abtragsrate Cp: Prestonkoeffizient L : Gesamte Normalkraft in Newton A: Auflagefläche Werkzeug ds/dt: Relativgeschwindigkeit Werkstück zu Werkzeug

Beispiel:Bestimmung Polierzeit für 10 µm Abtrag auf einer Linse mit A 100 cm2,L 100 N und ds/dt = 10 cm/s (Cp 10-7 cm2/N). Nach der Prestongleichung ergibt sich eine Polierzeit von 1.000 s 16,7 min. Für die unten aufgeführten Polierverfahren liegt der Prestonkoeffizient typischerweise um einen Faktor 10 bis 100 niedriger, d.h. bei 10-8 cm2/N bis 10-9 cm2/N.

Man unterscheidet beim Polieren grundsätzlich zwei verschiedene Prozes-se: Das Ganzflächenpolieren und die lokale Politur. Die Unterschiede sind in Tabelle 2.4 zusammengefasst.

Die Ganzflächenpolitur ist das bekannteste Verfahren der klassischen Optikbearbeitung, das seit Jahrhunderten nach dem gleichen Prinzip vor allem für Plan- und Kugelflächen durchgeführt wird. Abbildung 2.7 zeigt exemplarisch das Polieren eines elliptischen Leichtgewichtspiegels auf einer Planpoliermaschine. Der Spiegel liegt mit der optischen Seite nach

Page 133: Photonik: Grundlagen, Technologie und Anwendung

112 2 Fertigung optischer Komponenten und Systeme

Tabelle 2.4. Vergleich der Prozessvarianten Ganzflächen- und lokales Polieren für verschiedene Parameter

Ganzflächenpolieren Lokales Polieren Prinzip

Abtrag (~ Fläche) Hoch Gering Steuerung Prozess Passiv (Teil liegt auf Werkzeug

oder ungekehrt) oder CNC CNC

Geeignet für Geometrien

Planfläche, Sphäre, Torus, Asphären (Nicht Kugelflächen nur bedingt)

Alle Geometrien

Formkorrektur möglich

Nur großflächig über Parameter Relativgeschwindigkeit

Lokale Korrektur möglich

Glättwirkung Gut, statistische Verteilung der Geschwindigkeiten

Mittel. Gefahr von Bahn-spuren und erhöhter Rau-igkeit

unten auf einer großen Scheibe mit Polierbelag, die sich dreht. Durch die Drehung der Scheibe und die Eigendrehung des Spiegels wird die für den Abtrag notwendige Relativgeschwindigkeit ds/dt erzeugt und durch das Eigengewicht der Flächendruck L/A. Einsetzte Polierbeläge sind:

Peche (Natur- oder Kunstpeche), die aus Naturharzen oder Raffinerie-produkten gewonnen werden; Polyurethan-Schäume;Filze und Tücher aus verschiedenen Kunststofffasern und mit unter-schiedlichem Aufbau.

Eingesetzte Poliermittel sind:

Suspensionen aus CeO2 oder Al2O3;Suspensionen aus diversen anderen Seltenen Erden und Si, zum Teil noch chemisch veredelt und im pH-Wert angepasst; Diamantlösung für spezielle Anwendungen.

Die genannten Polierbeläge und Poliermittel kommen bei allen zu polie-renden Komponenten zum Einsatz, sei es die Mikrolinse oder der 8 m-Spiegel für die Europäische Sternwarte.

Mit dem Einzug der computergesteuerten Politur (CCP Computer Controlled Polishing) wurde der gesamte Optikbearbeitungsprozess

Page 134: Photonik: Grundlagen, Technologie und Anwendung

2.2 Klassische Bearbeitung 113

wesentlich deterministischer, beherrschbarer und damit auch wirtschaftli-cher. Jegliche Art von Hochleistungsoptik, sei es nun im High-End-Fotogra-fiebereich, in der digitalen Projektion, in der Lithografieoptik oder auch in der Astrooptik ist ohne computergesteuerte Polierverfahren nicht denkbar.

Die lokale Politur verfolgt zwei Ziele:

1. Sie glättet wie die Ganzflächenpolitur die Oberfläche und verbessert die Oberflächenrauigkeit aus dem Formgebungsschritt auf Werte bis zu un-ter 1nm rms.

2. Durch die Möglichkeit, lokal unterschiedliche Abträge zu erzielen, kann dieses Verfahren auch zur Formkorrektur eingesetzt werden. Die Form-genauigkeiten von 0,1 µm bis 1 µm können damit auf Werte bis zu unter 10 nm gebracht werden.

Im Folgenden werden die verschiedenen Möglichkeiten der lokalen Po-litur dargestellt. In dieser Technologie der klassischen Optikbearbeitung wurden in den letzten Jahren die größten Fortschritte erzielt.

CCP (Computergesteuertes Polieren)

Unter CCP oder auch CCOS (Computer Controlled Optical Surfacing) versteht man die Bearbeitung der Glasoberfläche mit einem kleinen Werk-zeug aus Kunststoff unterschiedlicher Beschaffenheit. Dazu wird aus einer Düse Poliermittel auf die Glasoberfläche aufgebracht (Abb 2.7). Poliermit-tel und Poliermittelträger sind die gleichen wie bei der Ganzflächenpolitur. Die nach der Prestongleichung notwendige Relativgeschwindigkeit ds/dtwird über eine Drehbewegung des Polierwerkzeuges und eventuell einer zusätzliche Bewegung des Werkstücks realisiert.

Abb. 2.7. Links: Bild einer Planpoliermaschine als Beispiel für eine Ganzflächen-politur, in der die Komponenten passiv bearbeitet werden. Rechts: Bild einer loka-len CNC-Politur, bei der ein Werkzeug mit kleinem Durchmesser robotergesteuert über die Fläche geführt wird (Werkfoto: Carl Zeiss)

Page 135: Photonik: Grundlagen, Technologie und Anwendung

114 2 Fertigung optischer Komponenten und Systeme

Von den weiteren Parametern in der Prestongleichung, Druck p oder Verweilzeit t, wird ein Parameter konstant gehalten und der andere über einen mathematischen Algorithmus berechnet und variiert. Auf der Basis dieser Berechnung wird das Werkzeug CNC gesteuert über die zu korrigie-rende Oberfläche geführt. Die genaue Prozessführung, die Wahl der Be-wegung, des Poliermittels und des Polierträgers ist bei jedem Optikherstel-ler unterschiedlich und zählt zum Kern-Know-How der Bearbeitung. Die erzielbaren Abträge liegen bei mehreren 10 µm. Formkorrekturen mit Restabweichungen von kleiner 10 nm von der Sollfläche werden erreicht.

MRF (Magneto Rheological Finishing)

MRF (Magneto rheologisches Polieren) ist eine Abwandlung des CCP-Verfahrens, bei dem das Polierwerkzeug durch ein Polieren in einer mag-netischen Flüssigkeit ersetzt wird (Abb. 2.8).

Abb. 2.8. Korrektur einer Linse auf der MRF-Maschine (Werkfoto: Schneider Op-tikmaschinen)

Durch das Polieren in der magnetischen Flüssigkeit, der Poliermittel zur Abtragserzeugung beigesetzt sind, ergeben sich folgende Vorteile:

Keine mechanische Abnutzung des Werkzeugs und damit konstante Bedingungen über einen langen Zeitraum. Reproduzierbare Polierabträge über exakt und reproduzierbar einstell-bare Parameter (z.B. anliegendes Magnetfeld und Viskosität der Flüs-sigkeit).

Damit ist das MRF-Verfahren eine Alternative zu den CCP-Verfahren im Bereich der lokalen Polierverfahren für die Endkorrektur hochgenauer Flächen: Die erzielten Abträge liegen bei mehreren 10 µm; die ereichten Endgenauigkeiten bei weniger als 10 nm Abweichung von der Sollfläche.

Page 136: Photonik: Grundlagen, Technologie und Anwendung

2.2 Klassische Bearbeitung 115

Lokale Polierverfahren

Bei den aufgeführten Verfahren, die noch in der Entwicklung sind, kann über die Verweilzeit gezielt ein lokaler Abtrag eingestellt werden. Damit kann die Oberflächenform bis in den Nanometerbereich fein korrigiert werden.

Fluid Jet Polishing: Bearbeitung der Oberfläche mit einem Flüssigkeitsstrahl aus Wasser und Poliermittel. Der Strahl wird durch eine Düse geformt.

Ion Beam Figuring: Bearbeitung der Oberfläche mit einem Ionenstrahl, einer Art Sandstrahlen auf atomarer Basis. Die Ionenstrahlbearbeitung gibt es im Prototypenstadium auch in dem aus der Halbleiterindustrie bekannten chemisch unterstützten Ionenätzen (PACE: Plasma Assi-sited Chemical Etching oder RAPT: Reactive Assisted Plasma Technology).

2.2.4 Messtechnik

Während bei den formgebenden Verfahren Schleifen und Diamantdrehen die taktile Messtechnik dominiert, werden bei polierten Oberflächen optischeMessverfahren eingesetzt, insbesondere die interferometrische Messtechnik.Bei diesem Verfahren wird eine von einer Referenzfläche (Fizeaufläche in Abb. 2.9) reflektierte Lichtwelle mit einer von der Testkomponente (Testlin-se) reflektierten Lichtwelle verglichen. Eine Abweichung der Testkompo-nente von der vorgegeben Sollform führt zu einer Verbiegung der Interfe-renzstreifen.

Die Interferometrie ist eine hochgenaue optische Oberflächenmesstech-nik, die es erlaubt, Abweichungen von der Sollform von 1/10 bis 1/1.000 der Prüfwellenlänge (z.B. 633 nm), d.h. mit Nanometergenauigkeit, zu vermessen. Limitierend für die Genauigkeit sind Temperatur- und Luft-druckschwankungen im optischen Weg zwischen Fizeauobjektiv und Test-linse, die über Brechzahlunterschiede zu unterschiedlichen optischen We-gen der Strahlen führen. Mit Hilfe moderner Elektronik und Bildverarbeitungssoftware ist es möglich, über eine Vielzahl von Einzel-messungen zu mitteln, um den Effekt statistischer Schwankungen zu ver-ringern.

Page 137: Photonik: Grundlagen, Technologie und Anwendung

116 2 Fertigung optischer Komponenten und Systeme

Abb. 2.9. Aufbau eines Fizeau-Interferometers zur Prüfung von optischen Kom-ponenten (Werkfoto: Carl Zeiss)

Anwendung

Serie: Fotoobjektive, Mikroskope und medizinische Geräte, Brille, Projek-toren (digital und analog), Lithografie-Objektive, Teleskopoptik, Spiegel jeglicher Art. Prototypen: (oder als Master zum Abformen) Objektive für Webkameras, CD- DVD- Spieler-Optik, Scheinwerferlinsen.

2.3 Abformen

2.3.1 Übersicht

Die Abformtechniken sind im Bereich der Gebrauchsoptik die dominie-rende Technologie. Deshalb sind abgeformte Linsen in fast jedem opti-schen Gerät eingebaut, sei es in einem CD-Laufwerk, in einer digitalen oder analogen Kamera oder im Autoscheinwerfer. Die Hauptunterschiede zur klassischen Bearbeitung sind in Tabelle 2.5 zusammengefasst.

Abformtechniken werden ab einer Stückzahl von mehr als 10.000, meist aber im Millionenstückbereich eingesetzt. Erst ab großen Stückzahlen lohnt sich der aufwändige Prozess der Herstellung eines Abformkörpers(Master). Grundsätzlich unterscheidet man zwischen Kunststoff abformen und Glas abformen. In Tabelle 2.6 sind die beiden Technologien gegen-übergestellt.

Page 138: Photonik: Grundlagen, Technologie und Anwendung

2.3 Abformen 117

Tabelle 2.5. Hauptunterschiede zwischen den Abformtechniken und der klassi-schen Bearbeitung

Abformtechniken Klassische Bearbeitung Einsatzbereich Gebrauchsoptik, beispiels-

weise in CD-Laufwerken, Digitalkameras, Auto-scheinwerfern

Alle Arten von optischen Präzisionsgeräten, hoch-wertige Kameras und Pro-jektoren, Masterformen

Typische Stückzahlen pro Komponente

> 106 < 104

Werkstoff Kunststoff und Glas Glas

Tabelle 2.6. Qualitativer Vergleich zwischen Glas- und Kunststoffabformtechniken

Glas abformen Kunststoff abformen Technologie Blankpressen Spritzgiessen

Spritzprägen Heißprägen

Typische Durchmesser < 30 mm Einige mm bis 100 m Typische Formabweichung der Oberfläche

Einige µm Einige µm

Homogenität Brechungsindex Ausgangsmaterial

Gut Mittel – durch Prozess domi-niert, Schlierenbildung

Kostenvorteil gegenüber klassi-scher Bearbeitung

Mittel Hoch

2.3.2 Glas abformen (Blankpressen)

Beim Blankpressen wird ein erwärmter Glasrohling zwischen zwei Abform-teilen (Master) unter hohem Druck zu einer Linse gepresst (Abb. 2.10). Nach

Abb. 2.10. Prinzip des Blankpressens

Page 139: Photonik: Grundlagen, Technologie und Anwendung

118 2 Fertigung optischer Komponenten und Systeme

dem Pressvorgang wird die Linse abgekühlt und kann dann direkt, d.h. ohne weiteren Bearbeitungsschritt, beschichtet und eingebaut werden. Die Ober-fläche nach dem Blankpressen entspricht der einer bereits polierten Linse, sowohl von der Tiefenschädigung, als auch von der Oberflächenrauigkeit.

Für die Präzisionsoptik muss der verwendete Glasrohling genau portio-niert sein. Für nicht so hohe Anforderungen können Größe und Gewicht schwanken. Der Rohling wird bis oberhalb TG (Glaspunkt: Temperatur bei der das Glas weich, d.h. plastisch verformbar wird) erwärmt, unter hohem Druck umgeformt und in seine endgültige Form gepresst. Für die Präzisions-optik wird die gepresste Linse dann in der Pressform abgekühlt (für optisch nicht hochwertige außerhalb der Pressform). Ein externes Abkühlen ermög-licht höhere Taktraten und damit niedrige Produktionskosten. Eine Variante davon ist das bei Docter Optics verwendete Pressen aus der Glasstange, bei dem der Pressling auf die eine Seite einer Glasstange aufgeprägt wird, dieser dann abgeschnitten und die zweite Seite nachgearbeitet wird.

Die Masterformen für das Blankpressen werden auf Grund der notwen-digen benötigten Drücke aus sehr steifen Materialien wie beispielsweise Siliziumkarbit hergestellt. Dies geschieht mit den klassischen Optikbear-beitungstechniken Schleifen und Polieren.

Da die meisten Glasmaterialien beim Abkühlen schrumpfen, muss dies beim Herstellen der Masterform berücksichtigt werden. In der Praxis ist dies ein iterativer Prozess, d.h. auf Basis der gemessenen Abformteile wird die Masterform mehrmals nachgearbeitet. Dieser aufwändige Iterations-prozess sowie die notwendigen Produktionsinvestitionen machen das Ver-fahren des Blankpressens erst ab großen Stückzahlen wirtschaftlich (in der Regel 105 bis 106 Komponenten pro Typ). In Abb. 2.11 und Abb. 2.12 sind blankgepresste Linsen und ihre Anwendung zu sehen.

Abb. 2.11. Herstellverfahren für blankgepresste Optik. Von links nach rechts: 1. Er-wärmen des Glases im Ofen. 2. Fertige Linse nach dem Öffnen des Umformwerk-zeuges. 3. Abkühlen der Linsen außerhalb des Umformwerkzeuges (Werkfoto: Docter Optics)

Page 140: Photonik: Grundlagen, Technologie und Anwendung

2.3 Abformen 119

Abb. 2.12. Anwendungsbeispiele blankgepresster Optik in Autoscheinwerfern zur gezielten Strahlformung und Ausführungsbeispiele blankgepresster Linsen. Die Beispiele zeigen, dass sich beliebige Formen, im Beispiel Berandungen, herstellen lassen. (Werkfoto: Docter Optics)

2.3.3 Kunststoff abformen

Linsenstückzahlen im Millionenbereich mit geringen Qualitätsanforderun-gen werden in Kunststoff abgeformt. Insbesondere in Japan wird diese Technologie in großem Umfang eingesetzt. Ähnlich wie beim Glas abfor-men wird der Kunststoff erwärmt und unter Druck in die gewünschte Form gepresst. Dabei gibt es im Wesentlichen drei Varianten, die in Abb. 2.13 schematisch dargestellt sind:

Spritzguss: Beim Spritzgießen wird die Optikform unter Druck komplett ausgegossen und anschließend die Komponente aus der Form gelöst. Der Vorteil besteht in kurzen Zykluszeiten. Damit sind hohe Stückzahlen mög-lich. Kunststoffbrillengläser werden beispielsweise mit diesem Verfahren hergestellt.

Spritzprägen: Beim Spritzprägen wird ein Kunststofftropfen in eine er-weiterte Form einspritzt, die Optik aber unter dem Druck eines bewegli-chen Stempels auf der Masterform geprägt. Von Vorteil ist die deutlichkürzere Zykluszeit im Vergleich zu Heißprägen.

Heißprägen: Beim Heißprägen wird eine vorhandene Kunststoffscheibe unter Druck und Hitze auf die Urform geprägt, wobei nur die Oberfläche verformt wird. Von Vorteil ist ein geringer Materialtransport in der Präge-form bei der Herstellung, damit geringere Spannungen und daraus folgend gute optische Eigenschaften (z.B. geringe Brechungsindexschwankungen).

Limitierend für die Abbildungsqualität bei Kunststoffoptiken sind die durch den Abformprozess entstehenden Brechzahlschwankungen im Mate-rial. Diese Schlierenbildung tritt hier wesentlich stärker als bei Glasmateria-lien auf und ist beim Abformungsprozess Heißprägen am besten zu verrin-gern.

Page 141: Photonik: Grundlagen, Technologie und Anwendung

120 2 Fertigung optischer Komponenten und Systeme

Abb. 2.13. Prinzip der Abformungstechnologien für Kunstoffoptik, gezeigt an der Herstellung eines Gitters

Für die Kunststoffmasterformen kommt oft Metall zum Einsatz, welches zur besseren optischen Bearbeitung mit Nickel beschichtet ist. Die entspre-chende Form kann dann mit Diamantdrehen sehr genau eingearbeitet wer-den. Je nach Anforderung wird die Masterform noch in einem Polierschritt geglättet. Korrekturen bei der Formanpassung sind bei den Metallmaster-formen einfacher zu erreichen als bei den keramischen Masterformen für die Glasabformung.

Anwendungsbeispiele für abgeformte Kunststofflinsen sind konventio-nelle und Digitalkameras, CD-Ausleseoptiken, Kameras für Handys, alle Arten von diffraktiven Elementen, beispielsweise Vorsatzoptiken für La-serpointer sowie Vorsatzoptiken für Detektoren.

2.3.4 Messtechnik

Als Messtechnik für abgeformte Linsen wird oft die Streifenprojektioneingesetzt. Bei dieser Messtechnik projiziert ein Projektor ein Streifengit-ter auf eine zu vermessende Fläche. Dieses Muster wird unter einem ande-ren Winkel mit einer CCD-Kamera aufgenommen und per Programm in ein Oberflächenprofil umgewandelt (Abb. 2.14).

Page 142: Photonik: Grundlagen, Technologie und Anwendung

2.4 Strukturierung 121

Abb. 2.14. Prinzip Streifenprojektion zur Vermessung von abgeformten Linsen

Anwendung

Serie: Scheinwerferlinsen, CD-, DVD-Spieler-Optik, Fotoobjektive, Mik-roskope und medizinische Geräte, Brillen, Projektoren (digital und ana-log), CCD-Kameras, auch für Mobiltelefone.

2.4 Strukturierung

2.4.1 Diffraktive Optik

PrinzipDie bisher behandelte klassische Bearbeitung und die Abformtechnologie werden überwiegend für optische Komponenten verwendet, die auf dem Prinzip der Lichtbrechung basieren. Damit verbunden ist eine gewisse räumliche Ausdehnung der Komponente (z.B. Linse) in Lichtrichtung. Durch den Trend zu immer flacheren optischen Komponenten (z.B. Kame-ras in Mobiltelefonen), eröffnet sich ein Markt für Komponenten, die auf dem Prinzip der diffraktiven Optik beruhen.

Diffraktive Optik beruht auf dem Prinzip der Beugung. Vereinfacht ge-sagt wird Licht, welches durch ein Gitter tritt oder von einem Gitter reflek-tiert wird, in verschiedenen Ordnungen aufgespalten (Abb. 2.15). Der Weglängenunterschied zwischen Oberfläche und Vertiefungen wird zur Verstärkung oder zum Auslöschen des Lichtes ausgenutzt. Bildet man die so entstandenen Ordnungen auf einem Schirm ab, erhält man helle und dunkle Stellen.

Page 143: Photonik: Grundlagen, Technologie und Anwendung

122 2 Fertigung optischer Komponenten und Systeme

Abb. 2.15. Prinzip der diffraktiven Optik

Die Beugungseffekte werden bei der diffrakiven Optik durch besondereForm der Gitterlinien und durch spezielle Anordnung zur Strahlformung ausgenutzt.

2.4.2 Lithografie

Abbildung 2.16 zeigt das Prinzip der lithografischen Herstellung. Eine auf einer Maske (oder Reticle) aufgebrachte Struktur wird mit Licht (und meist einer Optik) auf ein Substrat (beispielsweise Si-Wafer oder Quarzglasplat-te) abgebildet. Dieses Substrat ist mit einem Fotolack beschichtet. Nach der Belichtung wird der Fotolack entwickelt und der nicht entwickelte Lack entfernt. Per Ätzvorgang, meist mit reaktiven Gasen, wird die Struk-tur auf den Si-Wafer übertragen. Danach wird der restliche Fotolack, der als Schutzschicht des Substrats wirkt, entfernt. Das Substrat ist also nur an den nicht mit Schutzlack bedeckten Stellen modifiziert worden. Im gezeig-ten Beispiel (Abb. 2.16) ist auf diese Weise ein Phasengitter als Beispiel für ein diffraktives Element entstanden.

Abb. 2.16. Prinzip der lithografischen Herstellung von diffraktiven Elementen

Page 144: Photonik: Grundlagen, Technologie und Anwendung

2.5 Beschichtung 123

2.4.3 Abformen

Diffraktive Elemente lassen sich genauso wie geometrische Elemente (z.B. Linsen) mit den oben genannten Kunststoffabformtechniken herstellen. Dies ist besonders bei großen Stückzahlen die gängige Technologie. Die Masterform für die diffraktive Struktur kann dabei beispielsweise durch eine klassische Diamantbearbeitung erzeugt werden.

2.4.4 Messtechnik

Als Messtechnik für diffraktive Elemente wird auf Laborebene die Interfe-rometrie (Abb. 2.9) eingesetzt, die mit Hilfe vorgeschalteter Optik (z.B. einem Mikroskopobjektiv) auf die entsprechende Strukturgröße angepasst ist. Bei Strukturen im Mikrometerbereich wird die Rasterkraftmikroskopie (Atomic Force Microscope, AFM, Abb. 2.17) verwendet.

Serienmessverfahren für diffraktive Elemente befinden sich noch in der Entwicklung.

Abb. 2.17. Prinzip der Rasterkraftmessung von diffraktiven Elementen

Anwendung

Serie: Strahlformungselemente in Beleuchtungen aller Art, abbildende Ele-mente in Fotoobjektiven, medizinischen Geräten, Sehhilfen, CCD-Kameras.

2.5 Beschichtung

2.5.1 Prinzip

Optische Schichten nutzen das Prinzip der optischen Interferenz. So hat beispielsweise eine einfache optische Antireflex-Schicht eine optische Dicke von /4 ( : Wellenlänge des Lichtes in der Schicht), d.h. ein Licht-strahl der an der Grenzfläche Glas-Schicht reflektiert wird, hat gegenüber

Page 145: Photonik: Grundlagen, Technologie und Anwendung

124 2 Fertigung optischer Komponenten und Systeme

einem Strahl der an der Oberfläche der optischen Schicht reflektiert wird, durch den doppelten Durchgang genau einen Weglängenunterschied von

/2. Das bedeutet, beide Strahlen löschen sich gegenseitig aus. So beträgt der Wegunterschied der Welle 1 am Punkt A und der Welle 2

am Punkt B (Abb. 2.18) genau /2 (halbe Wellenlänge). Dadurch fällt Wellenberg auf Wellental. Die beiden Wellen löschen sich durch destruk-tive Interferenz aus.

Abb. 2.18. Destruktive Interferenz zweier Wellen an einer optischen Schicht

2.5.2 Herstellung optischer Komponenten

In Abb. 2.19 sind optische Komponenten aufgeführt, die mit der Techno-logie der Beschichtung hergestellt werden. Dabei werden die selektiveTransmission (Transmission eines bestimmten Wellenlängenbereichs des Lichtes) und die Reflexionseigenschaften ausgenutzt.

Abb. 2.19. Optische Komponenten, die mit der Technologie Beschichtung her-stellt werden

Zur Veringerung des Lichtverlustes von etwa 4% beim Übergang Luft-Glas, erhält jede optische Komponente, die in Transmission benutzt wird, eine Antireflexschicht (AR), die den Restreflex in der Regel auf unter ein Prozent reduziert.

Um den Anforderungen unterschiedlicher Wellenlängen und unterschied-licher Einfallswinkel Rechnung zu tragen, werden Mehrschichtsysteme

Page 146: Photonik: Grundlagen, Technologie und Anwendung

2.5 Beschichtung 125

verwendet (Abb. 2.20). Schichtpakete sind Kombinationen einer hochbre-chenden und einer niederbrechenden Einzelschicht, wobei hoch/ und nie-derbrechend immer relativ zum Brechungsindex des Substrats zu sehen ist.

In einer Elektronenmikroskopieaufnahme in Abb. 2.21 sind die ver-schieden hoch- und niederbrechenden Einzelschichten deutlich zu sehen.

Abb. 2.21. Elektronenmikroskopieaufnahme eines Schichtpaketes auf einem Glas-substrat (Werkfoto: Carl Zeiss)

2.5.3 Bedampfen mit PVD-Verfahren

Bei der Bedampfung mit dem PVD-Verfahren (PVD: Physical Vapor Depo-sition) wird in einer Vakuumkammer mit einem Druck von etwa 10-4 Pa ein Behälter (Schiffchen) mit dem zu bedampfenden Material befüllt und aufge-heizt. Mit steigender Temperatur verdampft ein Teil des Beschichtungsmate-rials und schlägt sich auf den kälteren optischen Elementen, z.B. Linsen, nieder (Abb. 2.22). Zur Erreichung eines gleichmäßigen Schichtaufwach-sens und einer homogenen Dickenverteilung werden die Komponenten um die Mittelachse der Anlage und zusätzlich um sich selbst gedreht.

Abb. 2.20. Prinzipieller Aufbau eines Schichtpaketes (dielektrische Schichten) aus einer hoch- und einer niederbrechenden Schicht

Page 147: Photonik: Grundlagen, Technologie und Anwendung

126 2 Fertigung optischer Komponenten und Systeme

Wichtige Parameter zum Erzielen von guten Schichten sind a) das Vaku-um in der Kammer bei der Beschichtung und b) die Reinheit der Kammerselber. Der erhitzte Verdampfungsbehälter erwärmt seinerseits über Wär-mestrahlung die Kammerwände und führt dort zum Ausgasen bzw. Ablösen von adsorbierten Gasen. Diese Restgase werden in die porösen Schichten, wie sie durch Aufdampfen entstehen, eingebaut und führen zu einer Ver-schlechterung der optischen und mechanischen Eigenschaften. Um das Aufheizen der Kammer zu verringern, werden weiterentwickelte, sehr effi-ziente Heizverfahren, wie Beschuss mit Laser- oder Elektronenstrahl ein-gesetzt, wobei insbesondere die Elektronenstrahlmethode hohe Verdamp-fungstemperaturen und damit auch den Einsatz von Oxiden erlaubt.

Anwendungen sind Linsen für verschiedene optische Geräte, Spiegel, Brillengläser und Filter.

2.5.4 Sputter-Technologie

Auch die Sputter-Technologie (gehört ebenfalls zu PVD) ist eine viel ge-nutzte Technologie, mit der optische Schichten erzeugt werden. Im Gegen-satz zum Verdampfen, bei dem die Quelle praktisch eine Art Punktquelle ist, werden beim Sputtern großflächige Targets (Platten aus dem Beschich-tungsmaterial, Durchmesser in etwa wie optische Teile) eingesetzt (Abb. 2.23). Der Abstand zwischen zu beschichtendem Substrat und Target

Abb. 2.22. Prinzip einer Anlage zur Bedampfung von optischen Komponenten im Vakuum

Page 148: Photonik: Grundlagen, Technologie und Anwendung

2.5 Beschichtung 127

ist sehr viel kleiner als bei der Bedampfung. Dies ermöglicht, dass reine Sputterbeschichtungsanlagen sehr viel kleiner gebaut werden können als Bedampfungsanlagen. Beim Sputtern wird mit einem Ionenstrahl (meist Argon, Ar+) auf das Target geschossen. Die abgesputterten (herausgeschos-senen) Teilchen scheiden sich auf dem zu beschichtenden Teil ab.

Sputtern findet vor allen Verwendung bei Schichten aus schlecht ver-dampfbaren Materialien (z.B. Oxide). Hier kann man über die größere Tar-getfläche eine hohe Abscheiderate und damit einen wirtschaftlichen Prozess erzielen.

Anwendungen sind die gleichen wie bei der Bedampfung (Linsen aller Art, Spiegel, Brillengläser und Filter).

2.5.5 Abscheiden organmetallischer Lösungen

Bei dieser Technologie wird das Substrat in eine organometallische Lö-sung getaucht oder diese Lösung aufgesprüht und so ein Schichtfilm er-zeugt. Nach dem Aufbringen der Lösung wird das benetzte Substrat ge-trocknet und in einem Ofen getempert. Beim Tempern wird der Film in ein reines Oxid verwandelt, wobei die organischen Anteile als flüchtige Oxide aus der Schicht ausgasen (Abb. 2.24).

Anwendungen sind Optiken für Hochleistungslaser, die eine sehr hohe Zerstörschwelle haben.

Abb. 2.24. Prinzip Beschichtung durch Abscheiden organometallischer Lösungen

Abb. 2.23. Prinzip einer Anlage zur Beschichtung von optischen Komponenten im Vakuum mittels Sputter-Technologie

Page 149: Photonik: Grundlagen, Technologie und Anwendung

128 2 Fertigung optischer Komponenten und Systeme

2.5.6 Messtechnik

Um die Dicke einer Schicht während des Beschichtungsvorgangs zu ver-messen, werden Schwingquarze eingesetzt, die parallel zur optischen Komponente mitbeschichtet werden. Durch die dadurch entstehende Di-ckenänderung ändert der Schwingquarz seine Frequenz und die resultie-rende Verstimmung wird gemessen. Vorher muss das Frequenz- zu Di-ckenverhältnis kalibriert werden.

Um die optischen Eigenschaften (z.B.Reflektivität) zu vermessen, wer-den Spektrofotometer mit speziellen Probeanordnungen verwendet. Eine solche V-W-Anordnung (V-W gibt den Strahlenverlauf ohne und mit Pro-be an) ist in Abb. 2.25 zu sehen. Die Wellenlänge des Lichts ist dabei auch noch über einen gewissen Bereich einstellbar.

Abb. 2.25. Prinzip der Messung der Reflektivität einer optischen (z.B. Spiegel) in V-W-Anordnung

Auch bei Antireflexschichten wir so der Restreflex R vermessen. Der Vorteil der Reflexmessung im Gegensatz zur Transmissionsmessung (Transmission T) ist, dass nicht der exakte Strahlengang im optischen Ele-ment nachgebildet werden muss. Damit sind handliche, portable Geräte möglich. Aus R + T 1 lässt sich die Transmission des Elements errechnen.

AnwendungSerie und Prototypen von:

Antireflexschichten: Linsensysteme, Brillen, Handydisplays, Beschichtung Glasfaserenden, Glas für Ausstellungen (Vitrinen, Bilder).

Spektrale Filter: Erzeugen bzw. Filtern von Farben, beispielsweise TV Kamera, Beamer, Wellenlängen-Multiplexing in der optischen Tele kommunikation, Raketen-Lenksysteme, Augenschutz, (z.B. Laserschutz-brillen).

Spiegel: Laser oder Teleskopspiegel. Dekorative Schichten: Architekturglas, farbige Brillengläser.

Page 150: Photonik: Grundlagen, Technologie und Anwendung

3 Optische Nachrichtenübertragung

3.1 Einführung

Seit Anfang der 60er Jahre stehen uns Lichtquellen zur Verfügung, die ge-genüber den zuvor vorhanden völlig neue Eigenschaften aufweisen; es han-delt sich um den LASER. Kurze Zeit nachdem der erste Festkörperlaser funk-tionierte, wurde auch an Diodenlasern gearbeitet, die als Sender für optische Übertragungssysteme zum Einsatz kamen. Anfang der 70er Jahre entwickel-ten Forscher und Ingenieure die ersten optischen Glasfasern mit ausreichend niedriger Dämpfung, um elektromagnetische Wellen im nahen Infrarot zu übertragen. Fotodioden als Detektoren waren damals bereits vorhanden. Somit konnten Übertragungssysteme entwickelt werden mit dem Einsatz von elektro-optischen (E/O) und opto-elektrischen (OE) Wandlern als Sen-der und Empfänger und einer Glasfaser im Zentrum (Abb. 3.1).

Abb. 3.1. Prinzipielle Anordnung eines faseroptischen Systems

Hauptsächlich werden derartige Systeme in den Bereichen der optischen Übertragung und optischen Sensorik angewandt (Abb. 3.2).

Als Erfinder der optischen Nachrichtenübertragung gelten Charles Kao (1963) und Manfred Börner (1964). Aus heutiger Sicht klingt ihre Erfin-dung nicht gerade spektakulär: Man nehme eine Lichtquelle als Sender, eine optische Faser als Übertragungsmedium und eine Fotodiode als De-tektor (Abb. 3.1). Aber 1963 war dies eine Revolution; denn die Dämp-fung von Glas lag in der Größenordnung von 1.000 dB/km, d.h. nach ei-nem Kilometer der damals hypothetischen Glasfaser wäre der verbleibende

Page 151: Photonik: Grundlagen, Technologie und Anwendung

130 3 Optische Nachrichtenübertragung

Anteil des Lichts um 100 Dekaden geschwächt, für Systeme im prakti-schen Einsatz ein unrealistischer Wert. Heutige Glasfasern erreichen eine Dämpfung von weniger als 0,2 dB/km; dies bedeutet, dass nach 100 km noch mehr als 1% der Strahlungsleistung ankommt. Dieser niedrige Wert macht eine Übertragung mit Hilfe von Glasfasern im Vergleich zu konven-tionellen elektrischen Systemen sehr attraktiv (Abb. 3.3). Dazu kommen

Abb. 3.3. Vergleich der Dämpfung von Koaxialkabeln und Glasfasern ( : Dämp-fungskoeffizient; f: Frequenz)

Abb. 3.2. Anwendung faseroptischer Systeme

Page 152: Photonik: Grundlagen, Technologie und Anwendung

3.2 Glasfasern 131

weitere Vorteile wie niedriges Gewicht, geringe Größe, Unempfindlichkeit gegenüber EMV-Problemen, elektrische Isolation und geringes Neben-sprechen. Auch die Abhörsicherheit ist größer als bei elektrischen Über-tragungssystemen. Vor allem aber muss die hohe erzielbare Übertragungs-kapazität (transmission capacity) Ct genannt werden, das Produkt aus Bandbreite B und Faserlänge L:

LBCt . (3.1)

Man will also möglichst viel Information über eine möglichst lange Strecke übertragen. Abbildung 3.4 zeigt das Dämpfungsverhalten. Insbe-sondere beobachtet man, im Gegensatz zu elektrischen Systemen, eine Unabhängigkeit der Glasfaserdämpfung von der Modulationsfrequenz. Letztere werden vor allem durch den Skineffekt beeinträchtigt.

3.2 Glasfasern

Das Prinzip der Wellenleitung lässt sich in guter Näherung durch das Snellius’sche Brechungsgesetz bzw. durch die Totalreflexion erklären (Abschn. 1.1.3). Dabei ist der Akzeptanzwinkel (Gl. 1.12), der größt-mögliche Winkel, damit gerade noch Wellenführung existiert, eine wich-tige Größe. Wird überschritten, so kommt es nicht mehr zur Totalrefle-xion im Kernbereich; es dringen Lichtwellen in den Mantel ein. Aus dem Snellius’schen Brechungsgesetz und aus der Grenzbedingung für Totalre-flexion (Gl. 1.11) folgt die numerische Apertur AN (Gl. 1.12), eine für die Einkopplung von Licht in eine Glasfaser entscheidende Größe. Deshalb ist bei Glasfasern eine möglichst hohe numerische Apertur anzustreben.

Eine weitere wichtige Größe bei der Beschreibung von Fasern ist die re-lative Brechzahldifferenz . Unter Berücksichtigung einer Taylor-Entwick-lung erhält man folgenden Zusammenhang:

1

2121

22

21

2 nnn

nnn

. (3.2)

Damit gilt für die numerische Apertur für Stufenindexfasern:

21N nA . (3.3)

Für Gradientenfasern, bei denen die Brechzahl im Kern variiert (Abb. 1.7 und Abb. 3.11) gilt:

22

21N )( nrnnA . (3.4)

Page 153: Photonik: Grundlagen, Technologie und Anwendung

132 3 Optische Nachrichtenübertragung

Man bezeichnet n(r) als Brechzahlprofil:

garnrn /21)( 1 undfür ar

2)( nrn für ar . (3.5)

Dabei ist a der Kernradius und g der Profilparameter. Für g erhältman einen Sprung (Stufenindexfaser). Bei Gradientenfasern wählt man in etwa ein parabolisches Profil mit g 2 (Abb. 3.11). Mit solchen Fasern lassen sich Übertragungen für höhere Bitraten im Vergleich zu Stufenin-dexfasern erzielen (Abschn. 3.2.2).

Die verschiedenen existierenden Strahlen mit ihren zugehörigen Win-keln nennt man Moden. Die möglichen ausbreitungsfähigen Moden sind abhängig von der Wellenlänge der verwendeten Lichtquelle sowie von den Faserparametern a und AN. Der Strukturparameter V fasst diese Grö-ßen zusammen:

N2 aAV . (3.6)

Die Anzahl der Moden bei den oben beschriebenen Fasern bestimmt sich für große N zu:

22

2

ggVN . (3.7)

Für eine Stufenindexfaser erhält man somit 2

2VN und für eine Gra-

dientenfaser nur die Hälfte: 4

2VN . Typische Werte liegen jedoch auf-

grund der unterschiedlichen Faserparameter (Tabelle 3.1, bzw. Abb. 3.11) sehr viel weiter auseinander. Eine Stufenindexfaser führt typischerweise 20.000 Moden, eine Gradientenfaser nur etwa 600. Man spricht von einer Vielmodenfaser, häufig auch als Multimodefaser bezeichnet.

Reduziert man die numerische Apertur und den Kerndurchmesser, so verringert sich auch der Strukturparameter und die Modenanzahl. Fällt der Strukturparameter unter den Wert 2,405, so kann sich nur noch ein Modus ausbreiten. Man erhält eine Einmodenfaser, häufig auch als Monomodefa-ser bezeichnet. Mit solchen Fasern lassen sich Übertragungen für sehr hohe Bitraten erzielen (Abschn. 3.2.2).

Page 154: Photonik: Grundlagen, Technologie und Anwendung

3.2 Glasfasern 133

Beispiel:Eine Stufenindexfaser hat die Kernbrechzahl 1,457 und die relative Brechzahldif-ferenz = 0,00956. Welchen Wert besitzt die Mantelbrechzahl n2? Wie groß darf der Winkel unter dem in die Faser eingestrahlt wird maximal sein, damit es zur vollständigen Wel-lenführung kommt? Wie groß ist der Grenzwinkel der Totalreflexion?

Lösung:Aus Gl. (3.2) folgt n2 = 1,443. Für die numerische Apertur erhält man somit nach Gl. (3.3) oder Gl. (1.12): AN = 0,201. Daraus ergibt sich mit Gl. (1.12) ein Akzep-tanzwinkel von = 11,6°. Für den Grenzwinkel der Totalreflexion erhält man nach Gl. (1.11): g = 82,05°.

Beispiel:Eine Stufenindexfaser besitzt die Kernbrechzahl 1,5 und die Mantelbrechzahl 1,4. Ihr Kerndurchmesser beträgt 70 µm. Als Lichtquelle kommt ein Halbleiterlaser mit einer Frequenz von 230 THz zum Einsatz.

Wie viele Moden führt diese Faser? Wie viele Moden führt eine Gradientenfa-ser mit den gleichen Daten? Auf welchen Kernradius müsste man bei einer nume-rischen Apertur von 0,107 die Stufenindexfaser verringern, damit sie zur Einmo-denfaser wird? Was passiert, wenn man bei dieser Faser eine Lichtquelle mit deutlich größerer Wellenlänge (1,55 m und anschließend deutlich kleinerer Wel-lenlänge (0,85 m) einsetzt?

Lösung:Aus Gl. (3.6) folgt: Strukturparameter V = 90,79. Daraus ergibt sich mit Gl. (3.7) die Modenanzahl N = 4.120; für eine Gradientenfaser mit g = 2 dagegen erhält man genau halb so viele Moden, N = 2.060. Aus Gl. (3.6) folgt mit der numerischen Apertur 0,107 außerdem für den Kernradius a = 4,67 µm. Bei einer Wellenlänge von = 1,55 µm ergibt sich V = 2,02 < 2,405; die Faser bleibt weiterhin einmodig, für = 0,85 µm wird die Faser dagegen mehrmodig.

3.2.1 Dämpfung in Glasfasern

Die wichtigsten Anforderungen an optische Fasern sind eine gute Wellen-führung, niedrige Dämpfung der optischen Lichtleistung und geringe Ver-zerrungen (Abschn. 3.2.2.) der optischen Signale.

Page 155: Photonik: Grundlagen, Technologie und Anwendung

134 3 Optische Nachrichtenübertragung

Geführte Welle von A nach B

Abb. 3.4. Totalreflexion und Wellenleitung

Insbesondere muss herausgestellt werden, dass es keine Verluste durch die Vielfachreflexionen gibt (Abb. 3.4), da bei Totalreflexion der Reflexi-onsgrad für jede sich wiederholende Reflexion R = 1 ist.

Somit ist die Faserdämpfung ist erster Näherung nur abhängig von Ver-lusten innerhalb der Faser. Der Dämpfungskoeffizient berechnet sich aus der in die Faser eingekoppelten Lichtleistung 0P , aus der Leistung am Faserende P sowie aus der Faserlänge L:

0lgdB10PP

L. (3.8)

Die Gesamtdämpfung der Faser D ist dann

0lgdB10PPLD . (3.9)

Die wichtigsten Dämpfungsmechanismen sind die Rayleigh-Streuungund OH--Absorption. Der Streueffekt kommt durch Inhomogenitäten der Molekülstruktur von Glas (Siliciumdioxid, SiO2) zustande. Dadurch ent-stehen statistische Schwankungen der Brechzahl; dies führt zur Streuung des sich in der Glasfaser ausbreitenden Lichts und verursacht einen Ver-lust. Der Verlust, die gestreute Leistung PS und damit auch der Dämp-fungskoeffizient , hängen stark von der Wellenlänge der Lichtwelle ab:

41~ . (3.10)

Lord Rayleigh entdeckte diesen Effekt und erklärte damit, warum der Himmel blau ist: Wenn wir in den Himmel schauen, sehen wir das gestreu-te Weißlicht der Sonne. Dabei wird blaues Licht sehr viel stärker gestreut als rotes. Derselbe Effekt bewirkt in Glasfasern viel höhere Verluste für blaues als für rotes Licht (Abb. 3.5). Deshalb arbeiten Glasfasersysteme sogar jenseits des roten Bereichs, also im Infrarot.

Page 156: Photonik: Grundlagen, Technologie und Anwendung

3.2 Glasfasern 135

50

10

5

2

1

0,5

0,2

0,1

0,6 0,8 1,0 1,2 1,4 µm 1,8

Wellenlänge λ

1973

Seit 1979

1981

Sende-

elementeInGaAsP

InGaAs

GaAlAs

SiGe

HgCdTe Empfangs-

elemente

Däm

pfu

ngskoeff

izie

nt

αkm

dB

Abb. 3.5. Spektrale Einsatzbereiche von Glasfasern sowie von Sende- und Emp-fangsbauelementen

Das räumliche Verhalten der Rayleigh-Streuung entspricht dem eines Hertz’schen Dipols. Die gestreute Leistungsverteilung ist in Abb. 3.6 dar-gestellt:

2S cos~P . (3.11)

Abb. 3.6. Räumliche Charakteristik der Rayleigh-Streuung (PS: gestreute Leis-tung; : Winkel zur Ausbreitungsrichtung). Die Figur ist rotationssymmetrisch um die senkrecht stehende Achse des Dipols (Richtung des elektrischen Feldvek-tors E der elektromagnetischen Welle)

Page 157: Photonik: Grundlagen, Technologie und Anwendung

136 3 Optische Nachrichtenübertragung

Abbildung 3.5 zeigt außerdem hohe Absorptionsspitzen. Diese kommen von der Absorption des Lichts an unerwünschten Molekülen im Glas. Der größte Feind einer Glasfaser ist Wasser, welches in der Form von OH -Ionen in der Siliciumdioxidstruktur auftritt. Die OH - Moleküle werden durch die Lichtwellen in Schwingungen versetzt. Dieser Effekt ist insbe-sondere dominant wenn Resonanz auftritt. Dies geschieht bei den passen-den Frequenzen bzw. Wellenlängen (siehe Spitzen in Abb. 3.5). Dadurch wird die Energie der sich in der Faser ausbreitenden Lichtwelle absorbiert, was zu einer hohen Dämpfung führt. Um eine niedrige Faserdämpfung zu erzielen, sind die Forderungen an die Reinheit einer Glasfaser sehr hoch; der Anteil der OH -Konzentration darf 1 ppb (10-9) nicht überschreiten. Das war einer der wichtigsten Gründe, warum es lange Zeit gedauert hat von der ersten Idee einer optische Übertragung etwa 1963 bis zur ersten tatsächlich hergestellten Glasfaser 1972. Darüber hinaus muss erwähnt werden, dass die Glasfaser auch durch SiO2-Eigenabsorption sowohl im ultravioletten (UV) als auch im infraroten Bereich (IR) zusätzliche Dämp-fung erfährt. Dies kann prinzipiell nicht vermieden werden, da sonst keine Glasfaser mehr vorhanden wäre. Während jedoch die UV-Absorption ver-nachlässigt werden kann im Vergleich zu dem viel höheren Wert durch die Rayleigh-Streuung, ist die IR-Absorption verantwortlich für den Dämp-fungsanstieg jenseits von 1.600 nm. Beide Ursachen gemeinsam bestim-men auch die spektrale Lage des Dämpfungsminimums von 0,176 dB/km bei etwa 1.550 nm (Abb. 3.5 und 3.7).

Abb. 3.7. Auswirkungen der Dämpfungsmechanismen Rayleigh-Streuung, Eigen-absorption und OH--Ionen-Absorption

Beispiel:Der Dämpfungskoeffizient einer heutigen Glasfaser bei einer Wellenlänge von 850 nm beträgt etwa 2,1 dB/km. Berechnen Sie den theoretischen Wert von bei einer Wellenlänge 1.550 nm.

Page 158: Photonik: Grundlagen, Technologie und Anwendung

3.2 Glasfasern 137

Lösung:Bei heutigen Glasfasern ist die Dämpfung bei 850 nm fast ausschließlich durch die Rayleigh-Streuung bedingt. UV-Eigenabsorption und OH -Ionen-Absorption sind vernachlässigbar. Aus Gl. (3.10) folgt:

4

1550850

nm)850(nm)1550( = 0,0904

und somit der Dämpfungskoeffizient:

= 0,19 dB/km.

3.2.2 Dispersionen in Glasfasern

Neben der Dämpfung sind die Dispersionsmechanismen ein weiteres Prob-lem in Fasern. Die unterschiedlichen Dispersionen haben alle den Effekt, dass ein schmaler Impuls am Fasereingang mit einer Halbwertsbreite t1

(FWHM: Full Width at Half Maximum) als breiter Impuls am Faserende mit einer Halbwertsbreite t2 wieder austritt (Abb. 3.8). Man nennt diesen Effekt Impulsverbreiterung :

21

22 tt . (3.12)

Abb. 3.8. Optischer Impuls am Anfang und am Ende einer Glasfaserstrecke

Die wichtigsten Dispersionsmechanismen sind die Modendispersion und die chromatische Dispersion. Bei sehr schnellen Übertragungssystemen kommt noch die Polarisationsmodendispersion (PMD) hinzu.

Die Modendispersion beeinflusst die Übertragungskapazität am stärks-ten: Die Lichtstrahlen im Kern der Glasfaser breiten sich nicht nur unter einem einzigen Winkel in der Glasfaser aus. Abbildung 3.9 zeigt drei re-präsentative Strahlenverläufe, stellvertretend für Hunderte oder Tausende.

Page 159: Photonik: Grundlagen, Technologie und Anwendung

138 3 Optische Nachrichtenübertragung

Abb. 3.9. Impulsverbreiterung durch Modendispersion in einer Stufenindexfaser

Es ist offensichtlich, dass sie nicht die gleiche geometrische Weglänge Lbesitzen. Die bestimmende Größe für die Ausbreitung von Licht in der Fa-ser ist jedoch nicht der geometrische, sondern der optische Weg l (Gl. 1.6). Da die Brechzahl n bei dem hier vorgestellten Fasertyp im Kern konstant ist (Abb. 3.11), gilt l = nL; darin unterscheiden sich auch die optische Weglän-ge der drei verschieden Moden. Somit breitet sich ein optischer Impuls in der Faser auch auf diesen drei unterschiedlichen Wegen aus. Dies hat zur Konsequenz, dass die drei Impulse verschiedene Laufzeiten aufweisen und am Faserende zu verschieden Zeiten ankommen. Die Impulse überlagern sich und somit ergibt sich ein breiterer Ausgangsimpuls im Vergleich zum schmalen Eingangsimpuls. Dieses Verhalten hat weitreichende Konsequen-zen: Soll eine hohe Datenrate übertragen werden, dann muss der zweite Impuls unmittelbar nach dem ersten ausgesendet werden. Durch die Im-pulsverbreiterung überlappen aber die beiden Impulse derart, dass sie nicht länger getrennt werden können. Die Entwicklung der aufeinanderfolgenden Impulse am Faserausgang zeigt Abb. 3.10.

Abb. 3.10. Verbreiterung zweier aufeinanderfolgender Einzelimpulse und deren Verschmierung, L1, L2, L3 Faserlängen

Page 160: Photonik: Grundlagen, Technologie und Anwendung

3.2 Glasfasern 139

Um die Überlappung zu vermeiden, müssen die beiden Eingangsimpul-se einen größeren zeitlichen Abstand haben. Dies verringert jedoch die erzielbare Bandbreite B. Eine andere Möglichkeit wäre, die Faserlänge Lzu reduzieren. Beide Maßnahmen verringern jedoch die erzielbare Über-tragungskapazität, das Produkt aus Bandbreite und Länge, das in der Nachrichtenübertragung möglichst maximal sein sollte:

!MaximumLB (3.13)

Um dieses Problem zu vermeiden bzw. zu verringern, haben die For-scher die Gradientenindexfaser erfunden (Abb. 1.7 und Abb. 3.11).

Im Gegensatz zu der oben beschriebenen Stufenindexfaser ist die Brech-zahl bei der Gradientenindexfaser über den Kernquerschnitt nicht konstant: Die Brechzahl weist ein Gradientenverhalten im Faserkern auf, bleibt je-doch weiterhin konstant im Mantelbereich. Deshalb ist für jeden Modus der optische Weg (Gl. 1.6) konstant. Im Zentrum der Glasfaser ist der geometri-sche Weg zwar am kürzesten, die Brechzahl jedoch am größten; umgekehrt ist der geometrische Weg für Moden in Mantelnähe am größten, jedoch die Brechzahl am kleinsten. Wählt man ein geeignetes Brechzahlprofil, so er-hält man eine konstante optische Weglänge für alle Moden. An dieser Stelle muss jedoch darauf hingewiesen werden, dass es nicht möglich ist, dieses Ziel vollständig zu erreichen. Man erhält nur eine gute Näherung und es verbleibt immer noch ein bestimmter Anteil an Modendispersion. Dies führt

Abb. 3.11. Fasertypen im Vergleich

Page 161: Photonik: Grundlagen, Technologie und Anwendung

140 3 Optische Nachrichtenübertragung

letzten Endes wieder zu einer nicht vernachlässigbaren Reduktion der Über-tragungskapazität.

Bisher wurde angenommen, dass die Impulsverbreiterung mit der Faser-länge proportional zunimmt. Praktische Ergebnisse weisen jedoch eine ge-ringere Zunahme auf. Dies entsteht durch Modenkonversion: Moden mit längeren Laufzeiten wechseln auf Modenplätze mit kürzeren und umge-kehrt, man erhält: L~ mit 0,5 < <1, wobei der Verkettungsexponenthäufig einen Wert von 0,7 bis 0,8 annimmt.

Um das Problem der Modendispersion zu lösen wurde die Monomode-faser entwickelt: Wenn man den Faserkerndurchmesser auf Werte unter etwa 10 µm reduziert (V < 2,405, Gl. (3.6)), existiert nur noch der Grund-modus. Es kann sich nur noch ein einziger Lichtstrahl ausbreiten, nämlich derjenige entlang der optischen Achse. Dadurch verschwindet die Moden-dispersion. Für sehr hohe Datenraten (über 40 Gbit/s) muss diese Aussage aufgrund von Polarisationseffekten jedoch eingeschränkt werden. Sehr genaue Untersuchungen führen zu dem Ergebnis, dass die Glasfaser in zwei zueinander senkrechten Richtungen verschiedene Brechzahlen auf-weist. Man nennt diesen Effekt Doppelbrechung (Abschn. 1.2.2.3).

Unter Berücksichtigung der Polarisation stellt man somit fest, dass eine Standard-Einmodenfaser aufgrund der Doppelbrechung eigentlich zwei Moden führt. Ein Eingangsimpuls, der sich auf die beiden Polarisations-hauptachsen aufteilt, breitet sich mit unterschiedlicher Geschwindigkeit in der Faser aus (Abb. 3.12.).

Abb. 3.12. Trennung der Polarisationsmoden in einer doppelbrechenden Einmo-denfaser

Dies hat zur Folge, dass wieder Laufzeitdifferenzen am Ende der Fa-serstrecke entstehen. Diese sind im Allgemeinen jedoch nicht so groß, dass die beiden Impulse völlig getrennt sind, sondern sie überlappen sich. Es kommt zu einer weiteren Impulsverbreiterung und damit zu einer weiteren Dispersion, der Polarisationsmodendisperion (PMD). Abbildung 3.13 zeigt schematisch dargestellt einen typischen Impuls am Faserende, der durch die Überlagerung der beiden Polarisationsmoden zustande kommt.

Page 162: Photonik: Grundlagen, Technologie und Anwendung

3.2 Glasfasern 141

Abb. 3.13. Impulsentwicklung durch Polarisationsmodendispersion (PMD)

Die Laufzeitdifferenzen sind dabei sehr gering, sie wirken sich prak-tisch erst bei Datenraten über 10 Gbit/s aus. Letztere sind aber heute durchaus interessant für Hochbitraten-Weitverkehrssysteme, da der Be-darf an Übertragungsrate insbesondere durch zunehmende Internetappli-kationen immer weiter steigt. Darüber hinaus gibt es ähnlich wie bei der Modenkonversion in Vielmodenfasern auch eine Polarisationsmodenkon-version. Dadurch wird die Problematik etwas verringert, der Dispersions-effekt nimmt ebenfalls wie bei der Modenkonversion nicht linear zu, son-dern nur etwa mit der Quadratwurzel der Faserlänge; typische Werte liegen unter 0,5 ps/km0,5.

Während die klassischen Dispersionen, die Moden- und die chromati-sche Dispersion deterministische Prozesse sind, handelt es sich bei PMD um einen statistischen Prozess, der sich zeitlich stark ändert. Das Übertra-gungssystem kann im günstigsten Fall tagelang problemlos die geforderte Bitfehlerrate aufweisen und plötzlich kommt es zum Totalausfall.

Verringert man die PMD, so heißt das nicht, dass man ihre Auswir-kung absolut vermeiden kann. Die Wahrscheinlichkeit, dass es zu einem Totalausfall kommt, wird allerdings vermindert. Man spricht daher eher von einer Reduzierung als von der Vermeidung des Problems. Die Aus-wirkungen der PMD werden somit über den Verlust an Empfängeremp-findlichkeit und durch Ausfallwahrscheinlichkeiten charakterisiert. Daraus ergibt sich eine Erniedrigung der erzielbaren Übertragungskapazität von Systemen (Gl. 3.1). Abbildung 3.14 zeigt eine Abschätzung der Bitraten-abnahme als Funktion der Übertragungslänge unter der typischen Voraus-setzung, dass die PMD-bedingten Laufzeitdifferenzen weniger als 10% der Bitperiodendauer betragen; experimentelle Untersuchungen bestätigen diese Annahme.

Page 163: Photonik: Grundlagen, Technologie und Anwendung

142 3 Optische Nachrichtenübertragung

Abb. 3.14. Maximale Bitrate als Funktion der Streckenlänge

Das Problem lässt sich durch zwei Maßnahmen lösen. Die erste Mög-lichkeit ist eine elektronische Signalentzerrung (Abb. 3.15 oben): Das bei digitaler Übertragung typische stufenförmige Ausgangssignal des Detek-tors lässt unmittelbar auf PMD-Effekte schließen. Durch Berücksichtigung der bekannten Bitperiodendauer und durch rückgekoppelte Abtasttechni-ken ist es möglich, das Signal elektronisch zu regenerieren.

Abb. 3.15. Elektronische (oben) und optische Kompensation (unten) der PMD

Page 164: Photonik: Grundlagen, Technologie und Anwendung

3.2 Glasfasern 143

Eine andere Möglichkeit ist die optische Signalentzerrung (Abb. 3.15 unten); dabei wird ein stark doppelbrechendes Medium eingesetzt, das die PMD-bedingten Laufzeitdifferenzen gerade wieder aufhebt. Dazu muss jedoch dem Medium jeweils die richtige Polarisationskomponente angebo-ten werden, damit der Impuls der schnellen Polarisationsachse zeitlich wieder mit demjenigen der langsamen zusammenfällt. Dazu kommt eine Polarisationsregelung zum Einsatz.

Als weitere Dispersion ist die Materialdispersion zu nennen. Weil es keine Lichtquelle gibt, die nur eine einzige Wellenlänge emittiert (Abschn. 1.2.3.2), kann sich in einer Glasfaser keine monochromatische, sondern immer nur eine polychromatische Lichtwelle ausbreiten. Die Brechzahl von Glas ist aber abhängig von der Wellenlänge der Lichtwelle. Polychromatische Lichtwellen rufen somit verschiedene Brechzahlen her-vor (Regenbogen) und somit wieder unterschiedliche optische Weglängen entsprechend unterschiedlicher Geschwindigkeit der spektral verschieden Impulse in der Faser. Abbildung 3.16 zeigt stellvertretend drei Impulse, die verschiedene Spektralanteile repräsentieren. Sie besitzen unterschiedliche Laufzeiten in der Glasfaser und kommen daher zu verschiedenen Zeiten am Ende der Faser an. Diese drei Impulse überlagern sich, wie bereits bei der Modendispersion beschrieben, und man erhält wiederum einen breiteren Ausgangsimpuls im Vergleich zum schmalen Eingangsimpuls der Glasfa-ser. Das Ergebnis ist das gleiche wie bei der Modendispersion, nur der Me-chanismus ist verschieden. Der Effekt führt wieder zu einer Impulsverbrei-terung und damit zu einer Verringerung der Übertragungskapazität.

Abb. 3.16. Impulsverbreiterung durch Materialdispersion

Zur Materialdispersion kommt noch die Wellenleiterdispersion hinzu: Abb. 3.17 zeigt die Aufteilung der Lichtleistung des Grundmodus einer Einmodenfaser (hier der einzige Modus).

Page 165: Photonik: Grundlagen, Technologie und Anwendung

144 3 Optische Nachrichtenübertragung

Abb. 3.17. Grundmodus einer Einmodenfaser und die Aufteilung der Strahlungs-leistung auf Kern und Mantel, optische Leistung P als Funktion der Radialkoordi-nate r

Ein Großteil der Leistung wird zwar im Kern geführt, ein weiterer Teil dringt aber in den Mantel der Faser ein. Die Ausbreitungsgeschwindigkeit eines Impulses in der Faser ist daher nicht nur abhängig von der Faser-kernbrechzahl, sondern auch von derjenigen im Mantel. Da die Kernbrech-zahl größer als die Mantelbrechzahl ist, versuchen die Mantelanteile des Impulses diejenigen des Kerns zu überholen. Der Grundmodus bildet je-doch eine Einheit und kann nicht auseinandergerissen werden. Es stellt sich eine effektive Geschwindigkeit ein. Die Aufteilung des Lichts auf Kern und Mantel ist aber abhängig von der Wellenlänge. Somit ist die sich einstellende effektive Ausbreitungsgeschwindigkeit des Impulses ebenfalls von der Wellenlänge abhängig. Es kommt zu einer weiteren Dispersion, hervorgerufen durch die Wellenführung des Wellenleiters: der Wellenlei-terdispersion.

Für ein Übertragungssystem ist das Zusammenwirken aller Dispersio-nen entscheidend. Materialdispersion und Wellenleiterdispersion addieren sich linear zur chromatischen Dispersion. Durch geeignete Wahl des Kerndurchmessers und durch Beeinflussung des Brechzahlprofils kann die Wellenleiterdispersion stark beeinflusst werden. Ebenso ist es möglich, die Materialdispersion zu variieren. Dies geschieht durch Veränderung der Dotierung im Faserkern. Abbildung 3.18 zeigt die Überlagerung von Mate-rial- und Wellenleiterdispersion zur chromatischen Dispersion.

Page 166: Photonik: Grundlagen, Technologie und Anwendung

3.2 Glasfasern 145

Abb. 3.18. Dispersionsgeglättete Faser

Dabei wurde der Verlauf der Dispersionskurve umgekehrt. Man erhält einen großen Wellenlängenbereich, in welchem die chromatische Disper-sion zwar nicht verschwindet, aber einen so niedrigen, tolerierbaren Betrag aufweist, dass die Faser über diesen großen Wellenlängenbereich einge-setzt werden kann (Abschn. 3.4.1). Man nennt diese Faser auch dispersi-onsgeglättete Faser. Die Dispersionsnullstelle, d.h. die Wellenlänge bei der die chromatische Dispersion verschwindet, lässt sich durch die oben diskutierte Beeinflussung auch verschieben, beispielsweise zu 1.500 nm, bei der die Faser gleichzeitig ein Minimum der Dämpfung aufweist. Man erhält eine dispersionsverschobene Faser.

Zur Kompensation der chromatischen Dispersion verwendet man im Labor eine dispersionskompensierende Faser (DCF, Dispersion Compen-sating Fiber). Diese besitzt bei der zu verwendenden Wellenlänge gerade eine chromatische Dispersion mit umgekehrtem Vorzeichen wie die Über-tragungsfaser und ihr Betrag ist etwa sechsmal so groß. Will man also den Effekt vollständig kompensieren, muss man eine DCF mit einer Länge von einem Sechstel der Übertragungsfaser einsetzten. Diese weist jedoch eine höhere Dämpfung als Standardeinmodenfasern auf, ist erheblich teurer und somit für den praktischen Einsatz derzeit ungeeignet. Sie wird daher nur für Forschungs- und Entwicklungsarbeiten im Labor eingesetzt.

Fasst man alle Dispersionen zusammen, so erhält man die Gesamtdis-persion, die sich als Impulsverbreiterung (Gl. (3.12)) auswirkt:

2Chr

2Mod )()( LMLM . (3.14)

Page 167: Photonik: Grundlagen, Technologie und Anwendung

146 3 Optische Nachrichtenübertragung

Dabei sind MMod und MChr die Koeffizienten der Modendispersion bzw. der chromatischen Dispersion, L ist die Faserlänge, der Verkettungsexponent und die spektrale Halbwertsbreite (FWHM) der Lichtquelle (Abschn. 1.2.3.2).

Den Anwender interessiert vor allem, welche Bandbreite B bzw. Bitrate BR über eine Glasfaser übertragen werden kann. Für den Zusammenhang zwischen Bandbreite B und Impulsverbreiterung gilt folgende Näherung:

21B . (3.15)

Mit der Bandbreite kann nach dem Nyquist-Theorem theoretisch die doppelte Bitrate übertragen werden. Für Systeme im praktischen Einsatz gilt etwa folgender Zusammenhang:

BRB 75,0 . (3.16)

Beispiel:Bei einem optischen Übertragungssystem kommt eine Gradientenfaser zum Ein-satz. Der Koeffizient der Modendispersion beträgt MMod = 10 ps/km , derjenige der chromatischen Dispersion beläuft sich auf MChr = 10 nm).ps/(km Vervierfacht man die Faserlänge, so steigt die Modendispersion nur um einen Faktor 2. Kann mit diesem Übertragungssystem ein 4 Gbit/s-Signal über L = 100 km übertragen werden, wenn ein Laser mit einer spektralen Breite von = 0,1 nm zur Verfü-gung steht?

Lösung:Da die Modendispersion nur mit der Wurzel der Faserlänge ansteigt gilt = 0,5. Für die Impulsverbreiterung ergibt sich somit nach Gl. (3.14): = 141 ps. Damit folgt für die Bitrate nach Gl. (3.15) bzw. Gl. (3.16): BR = 4,71 Gbit/s. Die Über-tragung eines 4 Gbit/s-Signals ist also möglich.

3.2.3 Typenklassen von Glasfasern

Abbildung 3.19 zeigt rasterelektronenmikroskopische Aufnahmen von den drei am meisten eingesetzten Fasertypen im Vergleich mit einem Frauen-haar.

Tabelle 3.1 fasst die wichtigsten Faserdaten zusammen. Dabei müssen noch zwei weitere Fasertypen erwähnt werden. Für low-cost-Anwendun-gen in der faseroptischen Übertragung kommen Plastikfasern (PMMA) und PCS-Fasern (Plastic Cladding Silica Core) zum Einsatz. Die Übertra-gungskapazität ist wesentlich niedriger als bei reinen Glasfasern. Jedoch gibt es eine Reihe von Anwendungen vor allem bei kurzen Entfernungen

Page 168: Photonik: Grundlagen, Technologie und Anwendung

3.2 Glasfasern 147

im Bereich von 10 m bis 100 m und niedrigen Datenraten, beispielsweise im Automobilbereich oder um eine Werkzeugmaschine in EMV-relevanter Umgebung zu überwachen. Auch für die letzte Meile bei Übertragungssys-temen kommen Plastikfasern zum Einsatz. Dies erreichen zwar hohe Da-tenraten aber nur kurze Entfernungen (Cytop-Fasern, Abschn. 3.4.5).

Tabelle 3.1. Typische Faserparameter im Vergleich

Fasertyp Profil Maße m

Num. Apertur

Dämfung dB/km

Übertragungs-kapazität

Plastik (PMMA) Stufen 300 – 1.000 0,5 200

Plastik (CYTOP) Grad. 62,5/1252) 20/1/13)

PCS Stufen 100 600 0,3 6 10 MHz km

Multimode Stufen > 100 1) 0,3 – 0,6 5 20 MHz km Multimode Grad. 50/125 2) 0,23 2/0,35/0,2 3) 500 MHz km Monomode 5/125 2) < 0,1 2/0,35/0,23) > 100 GHz km

1) Kerndurchmesser, 2) Kern/Manteldurchmesser, 3) bei 850/1.300/ 1.550 nm

Abb. 3.19. Vergleich von Fasertypen mit einem Frauenhaar

Page 169: Photonik: Grundlagen, Technologie und Anwendung

148 3 Optische Nachrichtenübertragung

3.3 Optische Sender und Empfänger

Für faseroptische Systeme kommen fast ausschließlich Halbleiter-Licht-quellen und - Lichtsenken zum Einsatz, d. h., Laser und LEDs als Quellen, pin-Fotodioden und Lawinenfotodioden als Senken (Abschn. 1.5 und Abschn. 1.6). Die wichtigsten Anforderungen an die Lichtquellen sind hoheoptische Ausgangsleistungen bei gleichzeitig niedriger erforderlicher elekt-rischer Eingangsleistung. Mit Bezug auf die Eigenschaften der Glasfaser sollte die spektrale Breite der Lichtquelle möglichst gering sein. Für einen guten Koppelwirkungsgrad ist es außerdem wünschenswert, dass die Strahldivergenz möglichst gering ausfällt und die geometrische Größe der Abstrahlfläche klein ist. Darüber hinaus sollte eine Modulation mit Hilfe des Injektionsstroms bis weit in den GHz-Bereich hinein möglich sein. Um die prinzipielle Funktion von Halbleiter-Lichtquellen und -senken zu ver-stehen, müssen fundamentale Betrachtungen bei der Wechselwirkung zwi-schen Photonen und Elektronen angestellt werden. Abbildung 3.20 zeigt die optische Leistung als Funktion des Injektionsstroms eines Halbleiterlasers.

0 20 40 mA 60

10

Strom I

Optische

Leis

tung

P

5

0

mW

20°C

70°C

Abb. 3.20. Leistungs-Strom-Kennlinie eines Halbleiterlasers bei zwei verschiede-nen Temperaturen

Unterhalb des Schwellenstroms arbeitet der Laser im LED-Betrieb. Nach dessen Überschreitung kommt es dann zur stimulierten Emission und zum Laserbetrieb. Leider existiert eine starke Abhängigkeit des Schwellen-stroms von der Temperatur.

Daher sind Regelungsmaßnahmen erforderlich, eine Temperaturrege-lung oder eine Regelung mithilfe einer Monitor-Fotodiode, um die opti-sche Ausgangsleistung zu stabilisieren. Bei der Temperaturregelung wird je nach Ergebnis des Temperatur-Soll-Ist-Vergleichs Wärme von A nach B umgepumpt bzw. umgekehrt (Abb. 3.21), bis die gewünschte Temperatur im Gehäuse der Laserdiode erreicht ist. Bei der Arbeitspunktregelung wird

Page 170: Photonik: Grundlagen, Technologie und Anwendung

3.3 Optische Sender und Empfänger 149

ein Leistungs-Soll-Ist-Vergleich mit Hilfe einer Monitordiode durchge-führt und der Laserdiode in dem Maße ein Unterlegstrom zugeführt, dass die Ausgangsleistung konstant bleibt (Abb. 3.22).

Abb. 3.21. Prinzipielle Anordnung einer Temperaturregelung für Laserdioden

Abb. 3.22. Prinzipielle Anordnung einer Arbeitspunktregelung für Laserdioden

Unglücklicherweise zeigen die für den Einsatz in faseroptischen Syste-men üblichen Fabry-Perot-Laser eine starke Strahldivergenz (Abb. 1.59) verbunden mit einem Astigmatismus. Beide Effekte erschweren die Laser-Faser-Kopplung insbesondere in eine Monomodefaser. Für niedrige Da-tenraten kann auch eine kostengünstigere LED eingesetzt werden. Die LED als Lambert-Strahler (Abschn. 1.3.1) emittiert Licht in den Halb-raum; dies macht die Faserkopplung noch schwieriger. Ein weiterer inte-ressanter Vergleich zwischen Laser und LED bezieht sich auf die Kohä-renzeigenschaften: die spektrale Breite einer Laserdiode ist wesentlich geringer als diejenige einer LED. Außerdem ist die Absolutleistung eines Halbleiterasers in der Regel mindestens eine Dekade größer als die einer LED. Eine schmale spektrale Breite ermöglicht ein deutlich besseres Ver-halten der Lichtquelle bezüglich der Materialdispersion in einer Glasfaser

Page 171: Photonik: Grundlagen, Technologie und Anwendung

150 3 Optische Nachrichtenübertragung

(Abschn. 3.2.2). Optische Absolutleistung, Fernfeldverhalten und spektra-le Eigenschaften befähigen den Laser damit weit mehr als die LED für anspruchsvolle Übertragungssysteme. Daher kommen für hochbitratigeWeitverkehrsysteme ausschließlich Hableiterlaser zum Einsatz. Für low-cost-Systeme mit niedrigen Bitraten und kurzen Entfernungen werden dagegen vorwiegend LEDs eingesetzt.

Die wichtigsten Anforderungen an Fotodioden für faseroptische Syste-me sind eine hohe Empfindlichkeit, niedriges Rauschen, Linearität (nur für Analogsysteme notwendig) und eine geringe geometrische Größe. Die am häufigsten verwendeten Komponenten sind pin-Fotodioden und Lawinen-Fotodioden (Avalanche Photodiode, APD, Abschn. 1.5). Alle Fotodioden für optische Übertragungssysteme werden in Sperrichtung betrieben. Dies bewirkt, dass ein elektrisches Feld im Halbleitermaterial entsteht und so-mit die durch den inneren Photoeffekt freigesetzten Elektronen und Löcher beschleunigt werden. Dadurch können schnelle Bauelemente realisiert werden. Im Gegensatz zur pin-Fotodiode besitzt die APD zusätzlich noch eine innere Verstärkung und ist damit ein gut geeignetes Bauelement für optische Systeme. Die kleine geometrische Größe ermöglicht niedrige Werte für die Sperrschichtkapazität. Somit können hohe Grenzfrequenzen erzielt werden. Die innere Verstärkung darf jedoch nicht zu hoch einge-stellt werden, sonst verringert sich die Grenzfrequenz wieder.

Durch Verwendung der oben beschriebenen Komponenten kann prinzi-piell eine faseroptische Übertragung aufgebaut werden unter Einsatz von Lichtquellen- und Senken (Abb. 3.1) sowie einer Faser im Zentrum der Anordnung. Ein vollständiges optisches Übertragungssystem besteht je-doch aus weit mehr als nur einer Lichtquelle, einer Glasfaser und einer Fotodiode (Abb. 3.23 a).

Abb. 3.23. a) Hauptkomponenten eines faseroptische Übertragungssystems b) Repeater

Page 172: Photonik: Grundlagen, Technologie und Anwendung

3.3 Optische Sender und Empfänger 151

Zur Ansteuerung der Laserdiode ist eine elektronische Treiberschaltung nötig, um ein geeignetes hochbitratiges elektrisches Signal zu erzeugen. Treiberschaltung und Lichtquelle bilden gemeinsam den optischen Sender.

Abb. 3.24. Prinzipielle Anordnung einer Treiberschaltung mit einer Differenzver-stärkerstufe für schnelle Laserdioden

Für hochbitratige Übertragungssysteme kommen typischerweise Diffe-renzverstärkerschaltungen zum Einsatz, die Bitraten bis weit über 10 Gbit/s ermöglichen. Die hohe Geschwindigkeit kommt daher, dass der Injektions-strom, der über den Laser fließt, nicht ein- und ausgeschaltet, sondern nur zwischen zwei Zweigen hin- und hergeschaltet wird.

Ebenso bilden Fotodiode (pin oder APD) und die erste elektronische Verstärkerstufe (front-end-amplifier) gemeinsam den optischen Empfänger(Abb. 3.23 a). Dieser Frontend-Verstärker besteht aus einer aufwändigen elektronischen Schaltung. Er muss in der Lage sein, eine hohe Bandbreite zu detektieren und das mit nur wenigen Photonen; denn durch die große Faserlänge kommt nur ein kleiner Lichtleistungsanteil am Empfänger an. Auch muss er mit einer Reihe von Rauscherzeugern kämpfen, die sowohl optisch als auch elektrisch verursacht werden. Häufig kommt dazu ein Transimpedanzverstärker zum Einsatz.

Page 173: Photonik: Grundlagen, Technologie und Anwendung

152 3 Optische Nachrichtenübertragung

Abb. 3.25. Prinzipschaltbild eines Transimpedanzverstärkers in einem optischen Empfänger, Ip Photostrom, RF Rückkoppelwiderstand, v Verstärkungsfaktor

Es handelt sich dabei um einen gegengekoppelten Verstärker (Abb. 3.25). Der Rückkopplungswiderstand wirkt am Verstärkereingang mit einem um den Verstärkungsfaktor erniedrigten Wert und bildet daher zusammen mit der Sperrschichtkapazität der Fotodiode eine kleine Zeit-konstante = RC. Dieser Umstand ist zur Erzielung hoher Grenzfrequen-zen günstig. Gleichzeitig ist sein physikalischer Widerstandswert groß, was zu einem niedrigen thermischen Rauschen führt und somit eine hohe Empfindlichkeit auch für sehr kleine optische Leistungen ermöglicht.

Beispiel:Bei einem optischen Übertragungssystem wird der Halbleiterlaser ausgetauscht. Der neue Laser weist eine doppelt so hohe Lichtleistung auf wie der alte. Da gleichzeitig eine höhere Übertragungsrate gefordert wird, ist die geforderte Min-destleistung am Empfänger um die Hälfte gestiegen. Beide Änderungen haben Einfluss auf die Systemreserve, die beispielsweise für zusätzliche Spleiße (nicht-lösbare Faserverbindungen) eingesetzt werden kann, falls auf der Strecke Faser-brüche entstehen oder Faserteilstücke ausgetauscht werden müssen. Wie viele zusätzliche Faserspleiße sind möglich, wenn man Spleißdämpfungen unter 0,2 dB annimmt?

Lösung:Die Verdopplung der Laserleistung entspricht nach Gl. (3.9) einer Steigerung von etwa 3 dB. Die notwendige Leistungserhöhung kann wie eine Zusatzdämpfung angesehen werden, sie beträgt ebenfalls nach Gl. (3.9) etwa 1,76 dB. Es ergibt sich somit eine positive Bilanz mit einem Gewinn von etwa 1,24 dB. Damit können 6 zusätzliche Spleiße eingebracht werden.

Page 174: Photonik: Grundlagen, Technologie und Anwendung

3.4 Faseroptische Übertragungssysteme 153

3.4 Faseroptische Übertragungssysteme

3.4.1 Direktübertragungssysteme

Ein optisches Übertragungssystem funktioniert nur im Zusammenwirken der oben beschriebenen Komponenten. Dabei müssen optische und elektri-sche Kenntnisse ineinander greifen. Abbildung 3.5 zeigte bereits eine Zu-sammenstellung der wichtigsten Komponenten für faseroptische Übertra-gungssysteme im spektralen Kontext:

1973 konnte eine Glasfaser hergestellt werden, die ein erstes Minimum von 5 dB/km bei einer Wellenlänge von etwa 850 nm aufwies. Aus die-sem Grund wurden die ersten Übertragungssysteme im Bereich dieser Wellenlänge durchgeführt; der Bereich heißt deshalb auch erstes Fenster.1981 erniedrigte sich die Dämpfung auf etwa 0,5 dB/km und 0,3 dB/km bei den Wellenlängen 1.300 nm und 1.550 nm. Die Bereiche um diese Wellenlängen, bei denen faseroptische Übertragungssysteme entwickelt wurden, nannte man dann zweites und drittes Fenster. Heutige Glasfasern erreichen ein absolutes Minimum von 0,176 dB/km, bedingt durch prin-zipielle physikalische Effekte (wie oben beschrieben durch Rayleigh-Streuung und IR-Eigenabsorption). Die erzielbaren praktischen Werte lie-gen sehr nahe beim theoretischen Minimum.

Als opto-elektrische Wandler für Lichtquellen kommen für das erste Fenster GaAlAs-LEDs und -Laser zum Einsatz, InGaAsP-Bauelemente für das zweite und dritte Fenster. Als Materialien für die opto-elektrischenWandler, die Fotodioden, wird das aus der Halbleitertechnik wohlbekann-ten Element Silicium (Si) für 850 nm verwendet, Germanium (Ge) sowie InGaAsP für den gesamten Wellenlängenbereich von 1200 nm bis über 1600 nm hinaus (Abschn. 1.5). Darüber hinaus scheinen Quecksilbercad-miumtellurid (HgCdTe)-Materialien vielversprechende Mischkristalle für künftige optische Detektoren zu sein.

Mit einem derartigen Übertragungssystem bestehend aus Sender, Glas-faser und Empfänger (Abb. 3.23 a) kann dann je nach Bitrate eine be-stimmte Strecke überbrückt werden. Wenn die gewünschte Streckenlänge jedoch nicht ausreicht, wird ein Repeater eingefügt (Abb. 3.23 b). Dieser besteht aus einem Frontend-Verstärker und einem Impulsregenerator, ge-folgt von einer weiteren Treiberschaltung, die einen weiteren Laser an-steuert. Der Impulsregenerator ist notwendig, um das durch die Dispersio-nen verzerrte Datensignal wieder zu restaurieren.

Abbildung 3.26 veranschaulicht die immensen Fähigkeiten der Datenre-generation: Direkt am Ausgang des Frontend-Verstärkers (1) kann weder das Augendiagramm noch das Datensignal als solches erkannt werden.

Page 175: Photonik: Grundlagen, Technologie und Anwendung

154 3 Optische Nachrichtenübertragung

Abb. 3.26. Augendiagramm (a) und Datensignal (b)

Beim Augendiagramm werden viele aufeinanderfolgende Bitfolgen be-stimmter Länge mit Hilfe eines Speicheroszilloskops übereinander ge-schrieben; d.h. an vielen Stellen fällt eine logische Eins auf eine logische Null und umgekehrt. Für eine ideales Signal erhielte man für ein Bit ein Rechteck mit der Signalamplitude als Höhe und der Bitperiode als Breite; für die gesamte Bitfolge entstünde ein Bild vergleichbar einem idealen rechteckigen Gartenzaun. Verschlechtert sich das Signal, so werden die senkrechten und waagrechten Begrenzungen immer mehr verrauscht. Es entsteht ein Auge, das sich mit zunehmender Signalverschlechterung im-mer mehr schließt (Abb. 3.26 (1)).

Nach einer ersten nachfolgenden Entzerrerschaltung können das Au-gendiagramm und das Datensignal gerade noch erahnt werden (2); dage-gen sind beide bereits gut restauriert erkennbar nach der zweiten Entzer-rerstufe (3). Das non-return-to-zero Signal mit 168 Mbit/s kann deutlich erkannt werden. Zum Schluss folgt noch ein Tiefpassfilter, um hochfre-quente Rauschkomponenten zu unterdrücken (4). An dieser Stelle muss bemerkt werden, dass ein optisches Übertragungssystem aus weit mehr schaltungstechnischen Komponenten besteht: Es sind zusätzliche elektro-nische Schaltungen notwendig, beispielsweise zur Kodierung, zum Ver-würfeln der Bits (scrambling), zur Fehlerkorrektur, zur Taktregenration sowie zur Temperatur-, Powerlevel- und Verstärkungsregelung.

Page 176: Photonik: Grundlagen, Technologie und Anwendung

3.4 Faseroptische Übertragungssysteme 155

Abb. 3.27. Systemkonfigurationen faseroptischer Übertragung

Bisher wurden als Systemkonfiguration nur unidirektionale Systeme be-trachtet (Abb. 3.27), d.h. ein Verhalten wie bei einer Telefonverbindung: Es kann nur eine Person reden und die am anderen Ende lediglich zuhören. Das System arbeitet nur in eine Richtung und nicht umgekehrt, man spricht von einem unidirektionalen System. Um diese unbefriedigende Situation zu überwinden, werden an beiden Enden der Faserstrecke optische Koppler eingefügt. Damit erhalten wir ein bidirektionales System. Die beiden in entgegengesetzter Richtung die Faser durchlaufenden Lichtwellen überla-gern sich ungestört, werden an den Kopplern auf der anderen Seite wieder getrennt und erreichen ihre zugehörigen Empfänger. Um die Übertragungs-kapazität drastisch zu verbessern, werden an den Enden wellenlängenselek-tive Koppler eingefügt, sogenannte Multiplexer bzw. Demultiplexer. Eine Vielzahl von Laserdioden, die verschiedene Wellenlängen emittieren, kommen als Sender zum Einsatz. Ihre Lichtwellen vereinigen sich am Mul-tiplexer und trennen sich am anderen Ende der Glasfaserstrecke wieder mit Hilfe des Demultiplexers. Ein derartiger Aufbau heißt Wellenlängenmultip-lexsystem (Wavelength Division Multiplex, WDM). Nimmt man diese An-ordnung wiederum in zwei entgegengesetzten Richtungen vor, so erhält man ein bidirektionales WDM-System (Abb. 3.27). Die Übertragungskapa-zität wird damit um die Anzahl N der Kanäle, die über eine einzelne Faser übertragen werden, gesteigert. Bei engem Kanalabstand spricht man von einem DWDM-System (Dense WDM).

Page 177: Photonik: Grundlagen, Technologie und Anwendung

156 3 Optische Nachrichtenübertragung

Abb. 3.28. Systembegrenzungen optischer Übertragungssysteme

Abbildung 3.28 zeigt eine schematische Darstellung zu Beschreibung der Grenzen optischer faseroptischer Übertragungssysteme. Für ein einkanali-ges optisches System sind vor allem zwei limitierende Mechanismen ver-antwortlich. Derartige Systeme heißen Direktübertragungssysteme beste-hend aus einem Sender, einer Faser und einem Empfänger. Die Limitierungen werden in zwei Gruppen eingeteilt, Dämpfungsbegrenzun-gen und Dispersionsbegrenzungen. Der dämpfungsbegrenzte Zweig wird zunächst einmal bestimmt von der absoluten optischen Leistung, die der Sendelaser emittiert, darüber hinaus von der Faserdämpfung und schließlich von der Empfängerempfindlichkeit des Detektors. Der dispersionsbegrenzte Zweig wird wiederum zunächst durch die Eigenschaften der Laserdiode bestimmt, nämlich durch ihre Modulationsbandbreite bzw. Grenzfrequenz. Außerdem beeinträchtigen die Dispersionen der eingesetzten Glasfaser sowie die Demodulationsbandbreite bzw. die Grenzfrequenz des Empfän-gers das Ergebnis.

Somit kommen für hochbitratige Weitverkehrssysteme ausschließlich sehr schnelle Laserdioden verbunden mit hochfrequenten Treibern zum Einsatz sowie sehr schnelle pin-Fotodioden oder APDs, verbunden mit sehr empfindlichen, rauscharmen und hochfrequenten Empfängern. Will man Spitzenwerte erzielen, so kommt als Glasfaser nur eine Monomode-faser mit dem günstigsten Dispersionsverhalten in Frage. Abbildung 3.29 zeigt das Augendiagramm eines 43 Gbit/s Datensignals übertragen von einem hochbitratigen einkanaligen System. Die Datenrate korrespondiert mit der Grenzfrequenz von 30 GHz, näherungsweise die höchste Frequenz mit der ein einzelner Halbleiterlaser sinnvoll moduliert werden kann. Ver-bunden mit der Modulation der Lichtleistung ist zusätzlich eine Modulati-on der Frequenz (Chirp, Abschn. 1.5.3.3). Dies führt zu einem Anstieg der

Page 178: Photonik: Grundlagen, Technologie und Anwendung

3.4 Faseroptische Übertragungssysteme 157

chromatischen Dispersion und damit zu einer Reduzierung der Übertra-gungskapazität. Höherfrequente Sender erzielt man durch Nachschalten externer Modulatoren. Letztere können auch bereits auf dem Laserchip integriert werden. Einzelne Empfänger mit schnellen Fotodioden erreichen bereits über 80 Gbit/s.

5 ps/div t

Abb. 3.29. Augendiagramm eines hochbitratigen Übertragungssystems

3.4.2 Kohärente Übertragungssysteme

Um die Grenzen klassischer Direktübertragungssysteme zu überwinden, wurden neue Techniken entwickelt. Dazu gehört die kohärente faseropti-sche Nachrichtenübertragung, auch optischer Überlagerungsempfang ge-nannt (Abb. 3.30).

Abb. 3.30. Prinzipieller Aufbau eines kohärent optischen Übertragungssystems

Page 179: Photonik: Grundlagen, Technologie und Anwendung

158 3 Optische Nachrichtenübertragung

Dabei kommt neben dem Sendelaser ein weiterer Laser zum Einsatz. Dieser so genannte lokale Oszillator befindet sich am Empfängerort. Mit Hilfe eines faseroptischen Kopplers erfolgt eine Überlagerung des durch die lange Faserstrecke stark geschwächten Sendesignals PS und dem prak-tisch ungeschwächten Licht des Lokallasers, der an einem nur wenige Me-ter langen Faserschwanz angekoppelt ist. Die beiden Lichtwellen interfe-rieren miteinander (Abschn. 1.2.3.1.). In Gl. (1.64) haben die beiden Wellen die gleiche Frequenz. Verwendet man dagegen zwei verschiedene Lichtquellen, so erhält man am Detektor folgendes zeitabhängige Signal (Leistung und Intensität sind zueinander proportional):

LSLSLSLS 2cos)(2)()( tffPtPPtPtP . (3.17)

Hierbei sind jeweils P die Leistungen, f die Frequenzen und die Pha-sen der Lichtwellen von Sendelaser bzw. lokalem Oszillator. Schreibt man die Gleichung um, so kann man einen Verstärkungsfaktor M definieren:

LSLSSLS 2cos)()()( tfftPMPtPtP . (3.18)

Mit

12S

LPPM . (3.19)

Man erkennt also, dass die Leistung des durch die Übertragungsstrecke gedämpften Sendesignals um den Faktor M verstärkt wird. Gegenüber der optischen Direktübertragung kann man somit längere Faserstrecken über-brücken bzw. bei gleicher Streckenlänge eine höhere Datenrate übertragen.

Ein weiterer Vorteil ist, dass im Gegensatz zur Direktübertragung außer der Möglichkeit, die Leistung des Sendelasers zu modulieren, nun auch Frequenz und Phase als Modulationsgröße herangezogen werden können. Damit verbunden ist auch die Möglichkeit, auf der Sendeseite nicht nur einen einzigen Laser, sondern eine Vielzahl von Lasern mit unterschiedli-chen Frequenzen zu implementieren (Abb. 3.31).

Da der Lokaloszillator in der Frequenz durchstimmbar ist (Abschn. 1.5), lässt sich passend zu jedem Sendelaser eine Zwischenfrequenz,

LS ffZF einstellen, die genau mit der Mittenfrequenz eines dem Detektor nachfolgenden Bandpassfilters übereinstimmt. Das System stellt eine Analogie zum Überlagerungsempfang in der Rundfunktechnik dar. Die einzelnen Kanäle können im Vergleich zur WDM-Technik sehr viel enger benachbart werden. Dies führt zu einer erheblichen Steigerung der Übertragungskapazität

Page 180: Photonik: Grundlagen, Technologie und Anwendung

3.4 Faseroptische Übertragungssysteme 159

Abb. 3.31. Frequenzmultiplex mit durchstimmbarem Empfänger

Beispiel:Durch Ergänzung eines Übertragungssystems bestehend aus Laser, Faser und Detektor durch einen Lokallaser beim Empfänger kann eine Direktübertragung in eine kohärente Übertragung umgewandelt werden (Abb. 3.30). Damit lässt sich die Übertragungskapazität steigern.

Welche physikalischen Parameter einer elektromagnetischen Welle können da-bei für die Modulation vor bzw. nach der Umwandlung herangezogen werden?

Wie wirkt sich die Leistung des Lokallasers (PL = 1 mW) auf die Faserlänge dabei quantitativ aus, wenn die am Faserende ankommende Lichtleistung gerade PS = 1 nW und die Dämpfung der Glasfaser 0,2 dB/km beträgt?

Lösung:Vor der Umwandlung kann nur die optische Leistung (Intensität) herangezogen werden, da die Information über Frequenz und Phase bei der Beobachtung mit einer Fotodiode verschwindet, wenn man nur eine einzige Lichtwelle, diejenige vom Sende-Oszillator hat (Gl. (1.52) und Gl. (1.53)). Durch Interferenz mit einer zweiten Welle vom Lokal-Oszillator kommt es zur Interferenz und man gewinnt die Information über Frequenz und Phase zurück (Gl. 3.17)

Quantitativ folgt mit Gl. (3.19) ein Verstärkungsfaktor M = 2000 entsprechend 33 dB. Bei einer Faserdämpfung von 0,2 dB/km kann somit die Streckenlänge um 165 km verlängert werden.

Page 181: Photonik: Grundlagen, Technologie und Anwendung

160 3 Optische Nachrichtenübertragung

3.4.3 Faserverstärker

Eine weitere Möglichkeit zur Verstärkung ist der Einsatz von Glasfasern, die mit laseraktiven Medien dotiert sind. Dabei wird eine Glasfaser mit Erbium, einem Seltene-Erden-Material, dotiert. In Abb. 3.32 sind die wichtigsten Komponenten eines Erbium-dotierten Faserverstärkers darge-stellt.

Abb. 3.32. Prinzipieller Aufbau eines Erbium-dotierten Glasfaserverstärkers

Die Schlüsselkomponente ist eine einige Meter lange Einmodenfaser, deren Kern mit einer Konzentration von etwa 100 ppm mit Erbium (Er3+)dotiert ist. Das zugehörige Energieniveau-Diagramm zeigt Abb. 3.33.

Abb. 3.33. Energieniveau-Schema von Erbium

Page 182: Photonik: Grundlagen, Technologie und Anwendung

3.4 Faseroptische Übertragungssysteme 161

Erbium absorbiert Licht bei mehreren Wellenlängen; insbesondere liegt bei 980 nm eine günstige Pumpwellenlänge. Das Pumplicht wird mit Hilfe von wellenlängenselektiven Kopplern in die Erbium-dotierte Glasfaser eingekoppelt. Dies kann sowohl in Vorwärts- als auch in Rückwärtsrich-tung geschehen. Kommt nun Signallicht mit einer Wellenlänge von etwa 1,5 µm über den Koppler in der Erbium-dotierten Faser an, so erfolgt wie beim Laser (Abschn. 1.5) eine stimulierte Emission. Es werden eine Viel-zahl von Elektronenübergängen ausgelöst, die das Signallicht verstärken. Aus einem schwachen Eingangssignal wird ein starkes Ausgangssignal. Maximale Verstärkungen bis zu 46 dB können erreicht werden. Neuere Arbeiten zielen darauf hin, auch den Bereich bis etwa 1.630 nm mit zu erfassen (L-Band). Die Glasfaser weist dort immer noch eine ausreichend niedrige Dämpfung auf. Dies ist insbesondere interessant, um Wellenlän-genmultiplex (WDM, Abschn. 3.4.1) über einen noch größeren Wellenlän-genbereich zu realisieren und damit die Kanalzahl zu steigern.

Nach dem Durchbruch des faseroptischen Verstärkers beim Einsatz in praktischen Systemen ist damit eines der beiden Fundamentalprobleme opti-scher Signalübertragung, die Dämpfungsproblematik, weitestgehend gelöst.

Neuere Entwicklungen nutzen parallel zum Erbiumverstärker die Übertra-gungsfaser selbst als Verstärkungsmedium. Dazu wird der faseroptische Ra-maneffekt, der ursprünglich wegen Limitierungen in Glasfasersystem dis-kutiert wurde, wieder eingesetzt. Es kommt zu einer nichtlinearen Streuung an Molekülschwingungen (Phononen). Das gestreute Licht ist frequenzverscho-ben um den Betrag der Differenz zwischen Pumpfrequenz und der Frequenz der Molekülschwingungen von SiO2. Man spricht von einem Stokesfeld bzw. von Stokeslinien. Das Stokesfeld mischt sich mit dem Feld des optischen Datensignals; es kommt zur stimulierten Ramanstreuung und damit zu einer optischen Verstärkung.

Abb. 3.34. Raman-Pumpen und Verstärkungsspektrum

Page 183: Photonik: Grundlagen, Technologie und Anwendung

162 3 Optische Nachrichtenübertragung

Abbildung 3.34 zeigt die bei 1.420 nm bis 1.500 nm liegenden Pump-wellenlängen. Dadurch ergeben sich Verstärkungen bei etwa um 100 nm nach oben verschobenen Wellenlängen, die für Übertragungen im C-Band (1.530 nm bis 1.560 nm) und im L-Band geeignet sind. Der Ramanver-stärker arbeitet in Rückwärtsrichtung und vermeidet damit verstärkerbeding-te Rauschprobleme am Empfänger (Abb. 3.35). Die Verstärkung liegt bei etwa 10 dB.

Abb. 3.35. Raman-Faserverstärker

Beispiel:Durch den Einsatz eines Erbiumverstärker kann man etwa 40 dB gewinnen. Nimmt man eine typische Faser mit einer Dämpfung von 0,2 dB/km an, so erhält man eine Erhöhung der Übertragungslänge bis zu 200 km. Bei einer Hintereinanderschaltung von Raman- und Erbiumverstärker kommen weitere 10 dB hinzu; damit ergibt sich eine zusätzliche Übertragungslänge durch beide Verstärker um insgesamt 250 km.

3.4.4 Solitonenübertragung

Bei einer Einmodenfaser verbleibt der Effekt der chromatischen Dispersi-on. Dies führt dazu, dass verschiedene Spektralanteile eines optischen Im-pulses sich unterschiedlich schnell in einer Glasfaser ausbreiten, es kommt zur Impulsverbreiterung (Abschn. 3.2.2). Steigert man durch geeignete Maßnahmen die Geschwindigkeit der langsameren Impulsanteile und ver-ringert sie für die schnelleren, so erhält man eine Kompensation des Dis-persionseffekts. Man spricht von einer Solitonenübertragung; dazu wird der nichtlineare Effekt der Selbstphasenmodulation herangezogen.

Page 184: Photonik: Grundlagen, Technologie und Anwendung

3.4 Faseroptische Übertragungssysteme 163

Das Prinzip der Solitonenausbreitung soll im folgenden nur näherungs-weise beschrieben werden: Wegen des Kerreffekts erhält man für die Brechzahl n in der Faser in Abhängigkeit von der optischen Leistung P:

)()( 2 PnnPn 0 (3.20)

Dabei ist n0 die Brechzahl ohne Kerreffekt unabhängig von der optischen Leistung in der Glasfaser und n2 die Brechzahländerung durch den Kerref-fekt abhängig von der optischen Leistung in der Glasfaser.

Durch eine zeitabhängige Leistungsänderung P(t) kommt es zu einer entsprechenden Brechzahländerung. Damit erfährt die durch die Faser transmittierte elektromagnetische Welle eine zeitabhängige Phasenände-rung (t), die oberhalb einer bestimmten Schwelle näherungsweise pro-portional zur Leistungsänderung P(t) ist. Die Phasenänderung der elektro-magnetischen Welle wurde also durch sie selbst hervorgerufen; man spricht deshalb von Selbstphasenmodulation. Eine zeitliche Änderung der Phase kr t hat eine Frequenzänderung zu Folge:

tP

tt

dd~

dd)( . (3.21)

Eine Veranschaulichung der Zusammenhänge ist in Abb. 3.36 darge-stellt: Der Effekt kommt nur bei hohen Leistungen zum Tragen. Er stellt sich erst ab einer bestimmten Schwellenleistung Ps ein. Somit ändert sich die Frequenz der Welle während der Impulsentwicklung von kleinen zu

Abb. 3.36. Leistungsentwicklung und Frequenzverschiebung eines Impulses in Glasfasern

Page 185: Photonik: Grundlagen, Technologie und Anwendung

164 3 Optische Nachrichtenübertragung

großen und damit die Wellenlänge von großen zu kleinen Werten. An-schaulich gesprochen ist der Kopf des Impulses rot und das Impulsende blau (Abb. 3.37).

Die roten Impulsanteile erreichen zuerst das Faserende. Sollen alle Im-pulsanteile gleichzeitig ankommen, müssen die blauen aufholen. Dies er-reicht man durch Erniedrigung der Gruppengeschwindigkeit vg der roten Anteile bzw. durch Erhöhung derjenigen der blauen.

Mitg

g ncv und )(gg nn erhält man somit eine Impulskompression,

falls die Arbeitswellenlänge sich rechts von der Dispersionsnullstelle (strichpunktierte Linie in Abb. 3.37) befindet. Bei exakter Dimensionierung heben sich die Effekte, bedingt durch die chromatische Dispersion und durch die Selbstphasenmodulation, gerade auf. Es kommt zu einem durch die Faser laufenden Impuls, dessen Breite unverändert bleibt; diesen nennt man Soliton. Liegt man jedoch auf der falschen Seite der Dispersionsnull-stelle, kommt es zu einer zusätzlichen Erhöhung der Impulsverbreiterung.

Eine anschauliche Deutung liefert der Vergleich mit einer Gruppe von Rennläufern mit starken Leistungsunterschieden, die auf weichem Unter-grund ihren Wettbewerb ausführen (Abb. 3.38).

Abb. 3.37. Ausbreitung von Solitonen in Glasfasern

Page 186: Photonik: Grundlagen, Technologie und Anwendung

3.4 Faseroptische Übertragungssysteme 165

Abb. 3.38. Vergleich von Rennläufern mit der Ausbreitung von Solitonen in Glas-fasern (Udem et al. 2002)

Da der Boden, auf dem die Rennläufer unterwegs sind, beim Laufen nachgibt, muss der vordere (stärkere) Läufer immer den Berg hinauf laufen, während der hintere (schwächere) Läufer es leichter hat und den Berg hinab laufen kann. Dadurch werden die Leistungsunterschiede ausgeglichen; die Läufergruppe bleibt zusammen, es kommt nicht zu einem Auseinanderdrif-ten der Gruppe; die Gestalt der Gruppe (Impulsbreite) bleibt unverändert.

Für die Realisierung praktischer Systeme ist vor allem die Abstimmung der absoluten Leistung in der Auswirkung auf die Höhe des Effekts proble-matisch. Wegen der sich ändernden Leistung, bedingt beispielsweise durch die Faserdämpfung, sind besondere regelungstechnische Maßnahmen er-forderlich. Dies verhinderte daher lange Zeit einen großtechnischen Einsatz der neuen Systeme. Mittlerweile ist der technische Durchbruch gelungen. Es gibt bereits die ersten Produkte, die mit Solitonentechnik arbeiten.

3.4.5 Optische Übertragung auf der Fernebene im Ortsnetz und im LAN- bzw. Metrobereich

Das Hauptziel einer faseroptischen Übertragung ist zunächst die Realisie-rung von Punkt-zu-Punkt-Systemen mit hoher Kapazität. Dabei werden gleichzeitig hohe Bitraten, viele optische Kanäle sowie lange Übertra-gungsstrecken gefordert. Unter Verwendung der oben beschriebenen Tech-niken, Systeme mit Zeitmultiplex (TDM), Wellenlängenmultiplex (WDM), sowie der optischen Verstärker (Erbium, Raman) und unter weitest gehen-der Unterdrückung der Dispersionseffekte (vor allem chromatische Disper-sion und PMD) kommt man zu Systembegrenzungen, die aber bereits bei sehr hohen Übertragungskapazitäten liegen. Rekordergebnisse liegen bei einem Bitraten-Längen-Produkt von 36 (Pbit/s) km (1Pbit = 1015 bit). Da-bei kamen 149 DWDM-Kanäle mit einer Datenrate von 40 Gbit/s pro Ka-nal zum Einsatz, als Glasfaser diente eine einzelne 6.120 km lange disper-sionskompensierte Faser. Höchstwerte der Datenrate betragen bereits

Page 187: Photonik: Grundlagen, Technologie und Anwendung

166 3 Optische Nachrichtenübertragung

160 Gbit/s pro Kanal. Dabei kam ein TDM-System über eine 1.200 km lange Standardeinmodenfaser zum Einsatz.

Seit etwa zwanzig Jahren spricht man von Fiber-to-the-home (FTTH), also von den Anstrengungen, die faseroptische Übertragung auch ins Ein-familienhaus zu bringen. Hohe Kosten sind dafür verantwortlich, dass dies bisher nicht geschah. Jedoch steigt durch zunehmende Nutzung des Inter-nets der Bedarf an höheren Datenraten auch im Einfamilienhaus. Trotzdem ist es um einen entsprechenden Durchbruch zu ermöglichen dringend er-forderlich, die Kosten für den Teilnehmer deutlich zu senken. Das Schlagwort heißt „Erschließung der letzten Meile bis zum Teilnehmer“. Erste Anzeichen dafür, dass es in absehbarer Zukunft doch noch zum Durchbruch kommt, zeigen sich in Japan; dort werden zur Zeit 50.000 bis 70.000 neue Anschlüsse/Monat installiert. Und dies nicht nur in Hochhaus-landschaften bei vorhandener Infrastruktur, sondern auch auf dem flachen Land, begünstigt durch niedrigere Standards bei der Kabelverlegung im Vergleich zu Westeuropa.

Die Weiterentwicklungen der Komponenten könnte ebenfalls den realen Einsatz on FTTH beschleunigen: Es wurden Plastikfasern entwickelt (Plastic Optical Fiber, POF), die im Gegensatz zu den bisherigen PMMA-Fasern (polymerisiertes Methylmethacrylat) eine wesentlich niedrigere Dämpfung in dem interessierenden Wellenlängenbereich haben. Ein viel-versprechendes Material scheint ein Kunststoff zu sein, der unter dem Handelsnamen Cytop (cyclic transparent polymer) von Ashai Glass entwi-ckelt wird. Erwartete Dämpfungswerte liegen künftig bei 850 nm unter 10 dB/km und bei wenigen dB/km bei 1.300 nm und 1.550 nm. Diese Werte liegen zwar im Vergleich zur Glasfaser deutlich höher, da der Ein-satz von Plastikfasern aber nur im 100 m-Bereich vorgesehen ist, können sie toleriert werden. Entscheidend ist jedoch die Kompatibilität zu den Wellenlängenbereichen bei denen Glasfasern eingesetzt werden.

Bei den kurzen Faserstrecken bekommt man darüber hinaus auch noch die Modendispersion ausreichend in den Griff; es werden bereits schon Kunststofffasern mit Gradientenprofil hergestellt: Perfluorinated Graded-Index Plastic Optical Fibers (PFGI-POF). Neuere Untersuchungen bestä-tigen eine Übertragung von 5 GHz über eine Strecke von 500 m.

Mithilfe von Plastikfasern werden auch optische Bussysteme im Auto-mobil für Infotainment-Applikationen entwickelt: MOST (Media Oriented Systems Transport). Im sicherheitsrelevanten Bereich (Sensorik und Akto-rik) ist dies bisher noch nicht der Fall, wird aber für künftige Entwicklungen angedacht. In diesem Zusammenhang erlebt die PCS-Faser (Abschn. 3.2.3) eine Renaissance.

Ein weiterer Schritt ist die Entwicklung von schnell modulierbaren LEDs als kostengünstige Alternative zum Einsatz von Halbleiterlasern; die er-reichten Grenzfrequenzen für GaAs-LEDs liegen bereits im GHz-Bereich.

Page 188: Photonik: Grundlagen, Technologie und Anwendung

3.4 Faseroptische Übertragungssysteme 167

Als Alternative zu kabelgebunden Systemen kann bei Entfernungen im 100 m-Bereich auch die tot gesagte Freiraumübertragung wieder zum Leben erweckt werden. Dazu wird das aus einer Faser austretende Licht mit einer Optik aufgeweitet und am Empfangsort erneut in eine Faser eingekoppelt oder direkt einem Detektor zu geführt. Diese Verbindung aus faseroptischer und Freiraumübertragung kann insbesondere in Bereichen eingesetzt wer-den, bei denen man nachträglich einerseits nur sehr schwer Kabel verlegen kann, andererseits Freiraumübertragung gerade besonders einfach zu im-plementieren ist, Dies ist beispielsweise auf den Dächern einer bestehende Hochhauslandschaft der Fall. Dabei können Probleme wie Regen, Schnee, Nebel, Wolken, Rauch und Staubemissionen bis zu einem gewissen Grad bei den kurzen Entfernungen toleriert werden. Geringe Störungen können durch Fehlerkorrektur noch ausgeglichen werden; fatale Auswirkungen gibt es allerdings beispielsweise im Einsatzbereich von Hubschraubern.

Zusätzlich zu klassischen Punkt-zu-Punkt-Verbindungen wird seit eini-gen Jahren auch die Einrichtung von Netzwerken diskutiert. Im Nahbe-reich für kurze Entfernungen, z.B. innerhalb einer Firma spricht man von LANs (Local Area Networks), im Ortsnetz oder Metrobereich von MANs (Metropolitan Area Networks). Die Strukturen der Netze können sowohl als Stern, Ring oder Bus (Ethernet) ausgeführt werden (Abb. 3.39).

Abb. 3.39. Topologien für LAN und MAN

Auch verschachtelte Strukturen sind geplant; verschiedene Ringe können sich tangential berühren oder zu Maschennetzen erweitert werden (Abb. 3.40). Seit der Abschaffung des Postmonopols im Telekommunikationsbe-reich ist es auch möglich private mit öffentlichen Netzen zu kombinieren.

Page 189: Photonik: Grundlagen, Technologie und Anwendung

168 3 Optische Nachrichtenübertragung

Abb. 3.40. Optische Netze für den LAN- und MAN-Bereich sowie die Fernebene

Dabei kommen sowohl elektrische als auch faseroptische Systeme zum Einsatz (Fiber Distributed Data Interface, FDDI). FDDI beispielsweise ist ein Hochgeschwindigkeits-Doppelfaserring mit mehr als 1.000 Teilneh-mern auf einer Länge von etwa 200 km mit Datenraten im 100 Mbit/s-Bereich. Für hochbitratige Netzwerke kommen ausschließlich faseropti-sche Systeme zum Einsatz. Bei der ringförmigen Struktur befindet sich dann bei jedem Teilnehmer ein hochbitratiger Sender und Empfänger. Bei der Stern- und der Bus-Struktur kann sich auch nur ein Empfänger befin-den, um den Datenstrom in Richtung Teilnehmer (abwärts) zu überneh-men. Der aufwärtige (rückwärtige) Datenstrom entfällt in diesem Fall oder es kommt nur ein schmalbandiger Rückkanal zum Einsatz, beispielsweise um bei TV-Verteilsystemen die Kanäle auszuwählen.

Für den Betrieb der Netzwerke sind auch optische Knoten notwendig; dabei wird häufig mit WDM oder DWDM-Systemen gearbeitet. Die Zu-gangseinrichtungen zur Trennung bzw. Verbindung optischer Kanäle der

Page 190: Photonik: Grundlagen, Technologie und Anwendung

3.4 Faseroptische Übertragungssysteme 169

einzelnen Teilnehmer erfolgen mit Hilfe von optischen Multiplexern bzw. Demultiplexern: OADM (Optical Add/Drop Multiplexer, Abb. 3.41).

Dies sind optische Viertoreinrichtungen mit N wellenlängenselektiven Kanälen im Netzwerk (Eingangs- und. Ausgangstor (1) und (4)) und einer variablen Anzahl < N im Abzweig- bzw. Zugangstor (3) und (4). Durch optische Koppler wird jeweils ein kleiner Leistungsanteil zu Kontrollzwe-cken ausgekoppelt (Monitor).

Bei zukünftigen MANs wird die gewünschte Kanalanzahl größer als 100 sein und dies bei einer Bitrate für jeden Kanal bis in den Gbit/s-Bereich hinein. Dabei sind dann für die Knoten auch optische Schalt-matritzen notwendig. Geplant ist bis zu 1.000 mal 1.000 Fasern wahlweise miteinander zu verbinden (Abb. 3.42).

Abb. 3.42. Optisches Matrixschaltmodul für Glasfasern

Abb. 3.41. Optischer Knoten im Netz OADM: Optical Add/Drop Multiplexer

Page 191: Photonik: Grundlagen, Technologie und Anwendung

170 3 Optische Nachrichtenübertragung

Die einzelnen Schaltelemente bestehen aus Mikrospiegeln mit Durch-messern von etwa 0,5 µm, man erhält ein mikro-opto-elektro-mechanischesSystem (MOEMS). Aufgrund der mechanischen Spiegelstrukturen liegen die Schaltzeiten im ms-Bereich. Schnelle Schaltzeiten bis in den ns-Bereich erzielt man durch optische Hybrid-Schaltmodule. Abbildung 3.43 zeigt einen integriert-optischen 1:8-Kopppler auf einem Silicium-Substrat, bei dem mit Hilfe eines InP Gate Arrays das eingehende Licht auf das ge-wünschte Ausgangstor geschaltet wird. Durch entsprechende Kaskadierung können bereits schnelle Schalter mit bis zu 64 64 Ports realisiert werden.

Abb. 3.43. Optisches Hybrid-Schaltmodul, InP auf SiO2 Planar Lightwave Circuit (PLC)

Auch im MAN-Bereich wird über Freiraumübertragung nachgedacht. Punkt-zu-Punkt-Komponenten können auch im Distributionsbereich ver-wendet werden. Sender mit divergenter Abstrahlung können eingesetzt werden als Zentraleinheiten, die eine große Anzahl von Empfangspunkten ansprechen. Folge der Divergenz ist jedoch, dass mit zunehmender Entfer-nung nur noch eine geringe optische Leistung vorhanden ist. Als Alternati-ve dazu wird ein Maschennetzwerk angedacht unter Einsatz von vielen Sendern und Empfängern (WOMAN: Wireless Optical MAN).

Eine besondere Renaissance erfährt die Freiraumübertragung darüber hinaus im Weltraum, da außerhalb der Erdatmosphäre die klassischen Probleme wie die natürlichen Beeinträchtigungen durch Niederschläge oder die künstlich verursachten Verunreinigungen praktisch nicht existie-ren. Laser–Freiraumverbindungen zwischen Satelliten sind daher bereits erfolgreich im Einsatz. Man verwendet einen 847 nm Halbleiterlaser, des-sen Licht mit einer Lawinenfotodiode im Direktempfang ausgewertet wird (Silex). Zur Empfindlichkeitssteigerung werden künftig auch kohärente Verfahren entwickelt (Abschn. 3.4.2). Die Entfernungen zwischen Sender und Empfänger liegen dabei in der Größenordnung von 10.000 km.

Weitere Entwicklungen nutzen die Kombination faseroptischer und e-lektrischer Systeme. Aus Wirtschaftlichkeitsgründen kombiniert man rela-tiv kurze Kupfer-Koax-Teilnehmeranschlüsse mit Lichtwellenleitern und kommt zu einem HFC-System (Hybrid Fiber Coax).

Page 192: Photonik: Grundlagen, Technologie und Anwendung

3.4 Faseroptische Übertragungssysteme 171

Als mögliche Alternative werden für den Ortsnetzbereich Kombinatio-nen von faseroptischen mit Millimeter-Wellen- oder Koaxialkabelsystemen entwickelt (Abb. 3.44).

Dazu findet im Sender eine Überlagerung zweier Lichtwellen statt, die von schmalbandigen Halbleiterlasern ausgehen. Die beiden Laser unter-scheiden sich in ihrer Frequenz gerade um einige 10 GHz. Es kommt zu einer Zwischenfrequenz (ZF, Abschn. 3.4.2), die gerade im Bereich von mm-Wellen liegt. Einer der beiden Laser wird mit dem Datensignal modu-liert. Die so überlagerten Lichtwellen überträgt man mit Hilfe der Glasfa-sertechnik bis zur letzten Meile. Dort sitzt ein Empfänger, der die dabei auftretende modulierte ZF, beispielsweise von 30 GHz vom optischen in den elektrischen Bereich umwandelt. Dieses Signal wird einem mm-Wellensender zugeführt, mit dessen Hilfe man dann die letzte Meile bis zum Teilnehmer im Einfamilienhaus überbrückt; dort sitzt ein zugehöriger mm-Wellenempfänger.

Eine ganz neue Entwicklung, das UTelNet®, Universalnetz für Kom-munikation, Ortung und Navigation, verbindet bereits vorhandene optische Übertragungssysteme (sowie elektrische) Systeme mit einem Funknetz. Die Kombination aus Leitung und Funkstrecke, die flexible Anschlusslei-tung (Flexible Access Line, FAL), ist das im Universalnetz UTelNet für alle mobile und stationäre Endgeräte verwendete Anschlussprinzip. Eine FAL entsteht durch Hintereinanderschaltung einer in der Regel bereits vorhandenen Leitung und einer Funkstrecke. Die Umsetzung der Übertra-gungssignale beider Übertragungsrichtungen erfolgt durch den Funkum-setzer Baustein LRC (Line Radio Converter), ein Kunden-IC, der als kos-tengünstiges Massenprodukt hergestellt werden kann. Abbildung 3.45 zeigt beispielhaft den Ersatz des elektrischen Kabels (Apparatschnur a) zwischen dem Endgerät (Terminal Equipment TE) und der Telekommuni-kationsanschlusseinheit (TAE) durch Funk.

Abb. 3.44. Faseroptisches Breitbandnetz in Kombination mit mm-Wellentechnik

Page 193: Photonik: Grundlagen, Technologie und Anwendung

172 3 Optische Nachrichtenübertragung

Abb. 3.45. Verbindungen zwischen Endgerät TE, Telekommunikationsanschluss-einheit TAE und der Vermittlungsstelle LT (Line Termination)

Bei unveränderter Nutzung von TE und TAE kann der LRC-Chip in ei-nen Adapter eingebaut werden (b). Langfristig wird letzterer jedoch direkt in neue Endgeräte bzw. in die TAE eingebaut (c). Obwohl der LRC aus-schließlich übertragungstechnische Funktion hat, wird durch das FAL-Prinzip eine optimale Ausnutzung und ein flexibler Einsatz jeder einzelnen Anschlussleitung erreicht, weil nicht mehr nur ein bestimmtes Endgerät TE angeschlossen ist, vielmehr jedes beliebige TE erreicht werden kann, das sich innerhalb der Funkreichweite befindet. Für den LRC genügt als Energieversorgung die über jede Fernsprech-Anschlussleitung angebotene Gleichstrom-Speisung. Beim heutigen Stand der digitalen Signalverarbei-tung ist es kein Problem, den Chip so zu konzipieren, dass wichtige Kenn-größen der Funkstrecke (z. B. Bandmittenfrequenz, Sendeleistung) fernge-steuert über die Leitung einstellbar sind.

Das UTelNet eignet sich nicht nur für Besitzer von Leitungen (Telekom, EVUs, Bahn) und für Mobilnetze (GSM), sondern z.B auch im Straßen-verkehr zur Ortung und Navigation, Mauterfassung und Geschwindig-keitsüberwachung. Im Vergleich zum klassischen Mobilfunk (GMS, UMTS) legen die elektromagnetischen Wellen den größten Teil ihres We-ges in Leitungen zurück. Damit reduziert sich der Abstand zwischen Ba-sisstation (BS) und dem Endgerät (Empfänger), was sich quadratisch auf die erforderliche Leistung auswirkt (Abb. 3.46). Um die gleiche Leistung am Empfänger (PR) zu erhalten, benötigt man eine um mehr als eine Grö-ßenordnung kleinere Sendeleistung (PLRC). Damit ergeben sich deutlich geringere EMV-Probleme.

Page 194: Photonik: Grundlagen, Technologie und Anwendung

3.5 Literatur 173

Abb 3.46. Notwendige Signalleistungen um eine Empfangsleistung zu erhalten

3.5 Literatur

Bludau W (1998) Lichtwellenleiter in Sensorik und optischer Nachrichtentechnik. Springer, Berlin Heidelberg New York

Herter E, Lörcher W (2004) Nachrichtentechnik. Carl Hanser, München Wien Schwander T (2004) LCTSX: First On-Orbit Coherent Optical Link. ICSO‘2004,

Toulouse, France, March 2004, Session 3 4 Optical Instruments for other Applications

Strobel O (2002) Lichtwellenleiter- Übertragungs- und Sensortechnik. VDE, Ber-lin Offenbach

Udem T et al. (2002) Uhrenvergleich auf der Femtosekundenskala. Physik Journal 1 Nr. 2: 39 45

Veith G (1990) Physical Limitations and Advanced Technologies of High Speed Fiber Optic Transmission Systems. Laser u. Optoelektr. 22: 63

Voges E, Petermann K (2002) Optische Kommunikationstechnik. Springer, Berlin Heidelberg New York

Zeeb E (2001) Optical Data Bus Systems in Cars: Current Status and Future Chal-lenges. ECOC 2001, Amsterdam: 70 71

Page 195: Photonik: Grundlagen, Technologie und Anwendung

4 Sensoren

4.1 Optische Sensoren

Optische Sensoren senden Licht aus, das an einem zu untersuchenden Ob-jekt reflektiert oder gestreut und vom Sensor wieder empfangen wird. Auf diese Weise kann beispielsweise ein Objekt erkannt (Präsenzdetektion)oder der Abstand zu einem Objekt bestimmt werden.

Die von Sensoren gewonnenen Informationen werden meist zum Steu-ern von automatisch arbeitenden Anlagen verwendet. Eine Übersicht über die in diesem Kapitel beschriebenen optischen Sensoren gibt Abb. 4.1.

Abb. 4.1. Übersicht über gebräuchliche optische Sensoren

4.2 Lichtschranken und Lichttaster

Man unterscheidet zwischen Einweg-, Reflexions- und Taster-Systemen. Generell gilt, dass die Reichweite von optischen Sensoren um so höher ist, je größer die Fläche der Empfangsoptik ist. Dies ist unter anderem ein Grund für die Vielfalt der auf dem Markt befindlichen Sensoren.

Die nachfolgenden Abschnitte handeln hauptsächlich von den optischen Eigenschaften der besprochenen Sensoren. Nicht vergessen darf man je-

Page 196: Photonik: Grundlagen, Technologie und Anwendung

176 4 Sensoren

doch, dass auch an die Signalverarbeitung hohe Anforderungen gestellt werden, um beispielsweise eine möglichst große Fremdlichtunabhängig-keit zu erreichen. Dies ist auch der Grund dafür, dass die Lichtquelle fast aller optischer Sensoren gepulst betrieben wird.

4.2.1 Einweg-Lichtschranken

Einweg-Lichtschranken bestehen aus einem Sender und einem Empfänger,die räumlich voneinander getrennt jeweils in einem eigenen Gehäuse an-geordnet sind (Abb. 4.2). Der Sender enthält eine Leucht- oder Laserdiode (meist rot oder infrarot). Der Empfänger detektiert das einfallende Licht mit einer Fotodiode. Linsen dienen zur Fokussierung des Lichtes, und eine komplexe elektronische Schaltung dient zur Steuerung und zur Signalver-arbeitung. Die Lichtschranke schaltet, wenn der Lichtstrahl durch ein Ob-jekt unterbrochen wird.

Abb. 4.2. Prinzip (links) und Foto (rechts) von Sender und Empfänger einer Ein-weglichtschranke (Werkfoto: SICK AG)

Die getrennte Anordnung von Sender und Empfänger erfordert im Ver-gleich zu den übrigen Sensoren einen höheren Montage- und Verkabe-lungsaufwand.

Einweg-Systeme besitzen einen divergenten Sendestrahl und eine gleichartige Empfangscharakteristik (Abb. 4.3), damit der Empfänger auch bei einer geringfügigen Dejustage oder bei Schwingungen und Vibrationen noch Licht vom Sender empfangen kann. Trotzdem erfordern Einweg-Lichtschranken eine relativ aufwändige Justage. Der aktive Erkennungsbe-reich entspricht etwa dem Linsendurchmesser (Abb. 4.3).

Einweglichtschranken erkennen zuverlässig undurchsichtige und spie-gelnde Objekte. Sie sind jedoch nur bedingt zum Erkennen transparenter Gegenstände geeignet.

Page 197: Photonik: Grundlagen, Technologie und Anwendung

4.2 Lichtschranken und Lichttaster 177

Abb. 4.3. Sende- und Empfangskeule einer Einweglichtschranke

Anwendungsbereiche

Einweglichtschranken werden meist eingesetzt, um über eine größere Ent-fernung hinweg (bis zu 300 m) das Unterbrechen des Lichtstrahles zu detektieren. Dies kann beispielsweise genutzt werden, um zu verhindern, dass sich ein Rolltor schließt, wenn sich noch ein Fahrzeug darunter befin-det (Abb. 4.4).

Abb. 4.4. Einweglichtschranke zur Sicherung eines Rolltores

4.2.2 Lichtgitter

Lichtgitter sind eine Aneinanderreihung von Einweglichtschranken (Abb. 4.5). Alle Sender und alle Empfänger sind jeweils in einem gemein-samen Gehäuse untergebracht. Die verschiedenen Sender werden nachein-ander gepulst, um ein Übersprechen der verschiedenen Lichtschranken zu verhindern. Sind die Abstände zwischen den Lichtstrahlen sehr gering, so spricht man auch von einem Lichtvorhang.

Page 198: Photonik: Grundlagen, Technologie und Anwendung

178 4 Sensoren

Abb. 4.5. Prinzip (links) und Foto von Sender und Empfänger eines Lichtgitters (rechts, Werkfoto: SICK AG)

Anwendungsbereiche

Lichtgitter werden für zwei grundlegend unterschiedliche Anwendungsfel-der angeboten:

SicherheitstechnikLichtgitter dienen dem Unfall- und Personenschutz, indem sie den Zu-gang zu gefährlichen Anlagen, beispielsweise Pressen und Handlingau-tomaten, überwachen. Wird einer der Lichtstrahlen unterbrochen, dann wird die gefährliche Anlage sofort gestoppt (Abb. 4.6).

Abb. 4.6. Lichtgitter zur Gefahrstellenabsicherung an einem Bearbeitungszentrum

AutomatisierungstechnikLichtgitter dienen beispielsweise zum Messen der ungefähren Höhe ei-nes Paketes, das auf einem Förderband zwischen einem Lichtgitter hin-durchgeführt wird. Die Höhe des Paketes kann aus der Anzahl der un-terbrochenen Lichtstrahlen abgeschätzt werden.

Page 199: Photonik: Grundlagen, Technologie und Anwendung

4.2 Lichtschranken und Lichttaster 179

4.2.3 Reflexions-Lichtschranken

Sender und Empfänger sind bei Reflexions-Lichtschranken in einem ge-meinsamen Gehäuse untergebracht. Das ausgesandte Licht wird von einem Retro-Reflektor wieder auf den Empfänger zurück reflektiert. Das Licht durchläuft somit zweimal die Strecke Sensor – Reflektor. Verglichen mit einem Einwegsystem sind die Reichweiten von Reflexions-Lichtschranken deutlich kürzer.

Wird der Lichtweg zum Reflektor durch ein Objekt blockiert, dann wird der Schaltausgang der Lichtschranke aktiviert.

Durch das Integrieren von Sender und Empfänger in einem gemeinsamen Gehäuse reduzieren sich Montage- und Verkabelungsaufwand im Vergleich zu Einweg-Lichtschranken erheblich. Einfacher ist auch die Justage der Reflexions-Lichtschranke. Während bei der Einweg-Lichtschranke Sender und Empfänger präzise aufeinander ausgerichtet werden müssen, lässt der Reflektor etwas größere Toleranzen zu.

Autokollimationsprinzip

Bei einer Autokollimationslichtschranke durchläuft das Sendelicht einen halbdurchlässigen Spiegel, bevor es aus der Optik austritt. Nachdem es vom Reflektor zurückgeworfen wurde, tritt es teilweise durch den Spiegel hindurch und gelangt auf die Fotodiode (Abb. 4.7).

Abb. 4.7. Prinzip (links) und Foto (rechts) einer Autokollimationslichtschranke (Werkfoto: SICK AG)

Der Nachteil des Autokollimationsprinzipes ist jedoch, dass jeweils 50% des Sende- und Empfangslichtes am halbdurchlässigen Spiegel verlo-ren gehen.

Doppellinsen-System

Beim Doppellinsen-System (Abb. 4.8) sind Sende- und Empfangsstrahl geometrisch voneinander getrennt und stehen in einem flachen Winkel zu-

Page 200: Photonik: Grundlagen, Technologie und Anwendung

180 4 Sensoren

einander. Wie in Abb. 4.8 zu sehen, überlappen Sende- und Empfangsstrahl nur in einem gewissen Tastweitenbereich. Im Nahbereich (meist < 0,1 m) entsteht ein Blindbereich, in dem kein Objekt erkannt werden kann. Daher sind beim Einsatz von Sensoren mit Doppellinsenoptik Mindestreichweitenzu beachten, die nicht unterschritten werden dürfen (Abb. 4.9).

Abb. 4.8. Prinzip des Doppellinsensystems (links) und Foto einer Reflexionslicht-schranke mit Doppellinsenoptik (rechts, Werkfoto: SICK AG)

Abb. 4.9. Signalhöhe einer Reflexionslichtschranke mit Doppellinsenoptik in Abhängigkeit von der Tastweite für drei verschiedene Reflektortypen. Die ange-gebene Betriebsreichweite legt eine Funktionsreserve (etwa Faktor 4) zugrunde

In der Praxis werden Lichtschranken mit einer Funktionsreserve (etwa Faktor 4) ausgelegt, so dass sie auch dann noch zuverlässig funktionieren, wenn die Linsen verschmutzt sind und die Leuchtdiode degradiert ist.

Reflektoren für Reflexions-Lichtschranken

Als Reflektoren werden meist Tripelspiegel (umgangssprachlich „Katzen-auge“) verwendet. Sie bestehen aus drei senkrecht aufeinander stehenden Spiegelflächen, die man sich als abgeschnittene Ecke eines innen verspie-gelten hohlen Würfels vorstellen kann (Abb. 4.10).

Page 201: Photonik: Grundlagen, Technologie und Anwendung

4.2 Lichtschranken und Lichttaster 181

Das Besondere an Tripelspiegeln ist, dass sie auftreffendes Licht paral-lel zur Einfallsrichtung reflektieren. Dies sorgt für die verhältnismäßig hohe Reichweite von Reflexions-Lichtschranken. Vorteilhaft ist zudem, dass diese Richtungsumkehr invariant gegen eine gewisse Verkippung des Tripelspiegels ist (ca. 15°, der Grenzwinkel der Totalreflexion darf nicht überschritten werden, Abb. 4.11).

In der Praxis werden Tripelspiegel nicht aus drei Spiegeln zusammenge-setzt, sondern als ganzer transparenter Körper aus Glas oder Kunststoff hergestellt, wobei die Reflexionen als Totalreflexionen stattfinden. Viel-fach bestehen Tripelreflektoren aus mehreren kleinen Tripelelementen, die aus Kunststoff gespritzt oder in eine Kunststofffolie geprägt werden (Abb. 4.12).

Ein- und auslaufender Strahl sind gegeneinander versetzt (Abb. 4.11). Dieser sogenannte Tripelversatz wächst mit der Größe des einzelnen Tri-pelspiegels. Der Tripelversatz führt zu einer Aufweitung des reflektierten Strahles. Dies ist hilfreich für den Betrieb von Reflexionslichtschranken mit Doppellinsenoptik bei geringem Reflektorabstand, da mehr Licht in den Empfänger gelangen kann.

Abb. 4.11. Prinzip des Tripelspiegels, zweidimensionale (dadurch vereinfachte) Darstellung, links senkrechter Lichteinfall, rechts Tripelspiegel gekippt

Tripelreflektoren (Abb. 4.12) drehen die Schwingungsebene polarisier-ten Lichtes um etwa 90°. Dies nutzt man aus, um mit Reflexionslicht-schranken auch spiegelnde Objekte sicher erkennen zu können.

Abb. 4.10. 3D-Ansicht eines einzelnen Tripelspiegels. Der Strahlengang von Tripelreflektoren ist unübersichtlich, da drei Reflexionen stattfinden

Page 202: Photonik: Grundlagen, Technologie und Anwendung

182 4 Sensoren

Abb. 4.12. Bauformen von Tripelreflektoren, links ein einzelner großer Tripel-spiegel aus Glas, rechts ein Kunststoff-Tripelreflektor mit vielen kleinen Tripel-spiegeln (Werkfoto: SICK AG)

Polarisationsfilter zum Erkennen spiegelnder Objekte

Sende- und Empfangsoptik eines Doppellinsen-Systems werden mit Line-arpolarisationsfiltern versehen, deren Durchlassrichtungen senkrecht auf-einander stehen. Die Polarisationsebene des Sendelichtes wird vom Tripel-Reflektor um ca. 90° gedreht (vereinfacht dargestellt; denn teilweise wird das Licht auch depolarisiert) und kann somit das Polarisationsfilter der Empfangsoptik passieren (Abb. 4.13).

Abb. 4.13. Arbeitsweise von Reflexionslichtschranken mit Polarisationsfiltern (mit und ohne spiegelndes Objekt)

Wird das Sendelicht jedoch an einem spiegelnden Objekt reflektiert, so bleibt die Polarisationsrichtung erhalten, und es kann daher nicht in den Empfänger gelangen. Deshalb werden auch spiegelnde Objekte erkannt.

Es ist zu beachten, dass eine einfache Standard-Reflexfolie (mit einge-lagerten Glaskugeln) die Polarisationsrichtung nicht dreht. Man muss da-her Tripelreflektoren verwenden oder Reflexfolien, die mikroskopische Tripelreflektoren enthalten.

Page 203: Photonik: Grundlagen, Technologie und Anwendung

4.2 Lichtschranken und Lichttaster 183

Durch den Einsatz von Polarisationsfiltern verringert sich die Reichwei-te von Lichtschranken mit Leuchtdioden um mehr als die Hälfte, da das unpolarisierte Licht der Leuchtdiode polarisiert werden muss.

Problematisch sind transparente Materialien, beispielsweise Plexiglas-abdeckungen oder Folienkaschierungen. Dabei ist es weniger der Oberflä-chenglanz, der stört, sondern Reflexionen von der Rückseite des transpa-renten Materials. Plexiglas und viele optisch klare Folien drehen, bedingt durch deren molekularen Aufbau, die Polarisationsebene des auftreffenden Lichtes. Von der Rückseite des Materials reflektiert, kann das Licht dann das Polarisationsfilter des Empfängers passieren. Daher wird die Folie vom Sensor nicht zuverlässig erkannt.

Anwendungsbereiche

Die Anwendungen für Reflexionslichtschranken sind sehr vielfältig und finden sich überall, wo durch ein zu detektierendes Objekt der Lichtweg zum Reflektor unterbrochen wird (wie bei der Einweglichtschranke). In Abb. 4.14 werden als Beispiel Flaschen auf einem Förderband erkannt.

Abb. 4.14. Reflexionslichtschranke erkennt Flaschen auf einen Förderband

4.2.4 Reflexions-Lichttaster

Lichtsender und -empfänger sind bei Reflexions-Lichttastern analog zur Reflexions-Lichtschranke in einem gemeinsamen Gehäuse untergebracht. Ähnlich sind auch die Funktionsprinzipien. Während jedoch der Licht-strahl einer Reflexions-Lichtschranke von einem Reflektor zurück gewor-fen wird, verwendet ein Lichttaster ein beliebiges Objekt als reflektieren-des Medium. Das Sendelicht des Reflexions-Lichttasters fällt auf das Tastgut. Das davon remittierte Licht gelangt zum Empfänger und wird ausgewertet. Entscheidend für die Signalhöhe ist dabei das Remissions-vermögen des Tastgutes.

Als spektralen Remissionsgrad ( ) bezeichnet man den Anteil des dif-fus (matt) reflektierten Lichtes (Strahlungsfluss ,Probe). Die Bezugsgröße ist jedoch nicht die Strahlungsleistung des auf die Probe auftreffenden

Page 204: Photonik: Grundlagen, Technologie und Anwendung

184 4 Sensoren

Lichtes, wie bei der Definition der Transmission, sondern die Strahlungs-leistung W des von einem speziellen Weißstandard (Lambertstrahler) unter den gleichen Bedingungen diffus reflektierte Lichtes (Gl. 4.1).

w

Probe, . (4.1)

Für die Messung des Remissionsgrades ist zu beachten, dass das reflek-tierte Licht nicht im geometrischen Reflexionswinkel (Glanzwinkel) des eingestrahlten Lichtes gemessen wird (Abb. 4.15 links). Für einige Materi-alien ist der Remissionsgrad in Tabelle 4.1 angegeben.

Oft wird die Definition des Remissionsgrades auch auf glänzende Ober-flächen erweitert. Misst man ( ) im Glanzwinkel (Abb. 4.15 rechts), dann erhält man auch Werte über 100%, bei Reflektoren erreicht man mehr als 2.000% (Tabelle 4.2). Es ist anhand dieser Werte zu sehen, dass die Helligkeit des remittierten Lichtes eines beliebigen matten Objektes(auch eines weißen) stets geringer ist als die Helligkeit des Oberflächenre-flexes sogar von schwarz eloxiertem Aluminium.

Abb. 4.15. Messung des diffus reflektierten Lichtes zum Bestimmen des Remissi-onsgrades (links), Messung im Glanzwinkel (rechts)

Tabelle 4.1. Remissionsgrad einiger matter Oberflächen

Material Remissionsgrad Fotokarton, mattschwarz 10% Karton, grau 20% Holz (Tanne roh, verschmutzt) 40% PVC, grau 50% Papier, mattweiß 80%

Page 205: Photonik: Grundlagen, Technologie und Anwendung

4.2 Lichtschranken und Lichttaster 185

Tabelle 4.2. Remissionsgrad einiger Oberflächen mit Glanzanteil

Material Remissionsgrad Aluminium, schwarz eloxiert 110 bis 150% Stahl, rostfrei 120 bis 150% Stahl, hochglänzend 140 bis 200% Reflektoren > 2.000%

Einfache energetische Lichttaster

Im einfachsten Falle wird der Schaltausgang eines Lichttasters beim Errei-chen einer bestimmten auf den Empfänger treffenden Strahlungsleistung aktiviert. Die Einstellung der Schaltschwelle erfolgt über die Empfindlich-keit des Empfängers. Eine helle Fläche remittiert mehr Licht als eine dunk-le und kann daher auch aus einer größeren Entfernung erkannt werden. Um ähnliche Ergebnisse mit einer dunklen Fläche zu erzielen, muss die Emp-findlichkeit des Tasters erhöht werden.

Das bedeutet, dass energetische Lichttaster einen objektabhängigenSchaltpunkt besitzen. Da das Remissionsvermögen von gewöhnlichen Oberflächen zudem niedriger ist als das eines Reflektors, ist die Reichwei-te von Tastern kleiner als die von Lichtschranken. Zudem lässt sich die Tastweite nicht immer einfach quantifizieren, da ein großer Gegenstand im Sichtfeld der Empfangsoptik mehr Licht zurückwirft als ein kleiner.

Problematisch ist bei energetischen Tastern das Erkennen eines dunklen Objektes vor hellem Hintergrund. Der Hintergrund überstrahlt aufgrund der höheren Remission das Objekt. Geradezu ideal ist das Erkennen eines hellen Objektes vor dunklem Hintergrund. Es ist vor dem vergleichsweise schwach remittierenden Hintergrund gut zu erkennen.

Lichttaster mit Hintergrund

Lichttaster mit Hintergrundausblendung sind in der Lage, ausschließlich Objekte zu erkennen, die sich innerhalb einer bestimmten, maximalen Entfernung vom Sensor befinden. Alles dahinter Liegende wird ausge-blendet. Die Ausblendung des Hintergrundes erfolgt durch die besondere geometrische Anordnung der Empfänger (Abb. 4.16). Befindet sich das Objekt nahe am Sensor (Abb. 4.16 rechts), dann fällt das remittierte Licht auf den Empfänger E2. Ist das Objekt weiter vom Sensor entfernt (Abb. 4.16 links), so fällt das ankommende Licht auf den Empfänger E1 und wird von der Elektronik unterdrückt.

Analog dazu arbeiten Lichttaster mit Vordergrundausblendung. In die-sem Falle wird Empfänger E1 ausgewertet, und E2 wird ignoriert.

Page 206: Photonik: Grundlagen, Technologie und Anwendung

186 4 Sensoren

Bei Lichttastern mit verstellbarer Tastweite kann durch Drehen eines Spiegels das Empfangslicht auf der segmentierten Fotodiode (E1–E2) po-sitioniert werden, um eine bestimmte Tastweite einzustellen.

Abb. 4.16. Funktionsweise der Hintergrundausblendung

Anwendungsbereiche

Reflexions-Lichttaster werden immer dann verwendet, wenn die Objekte selbst (und nicht der Reflektor wie im Falle von Reflexions-Lichtschranken) detektiert werden müssen und der Tastabstand relativ klein ist (Abb. 4.17).

Abb. 4.17. Reflexions-Lichttaster überprüfen vor dem Verschließen der Blister-verpackung die Anwesenheit der Kekse

4.2.5 Lichtleiter-Lichtschranken und -Lichttaster

Es gibt Anwendungen, bei denen die Platzverhältnisse am Detektionsort so beengt sind, dass sogar Subminiaturlichtschranken (Würfelzuckergröße) noch zu groß sind. Manchmal herrschen am Einsatzort der Lichtschranke hohe Temperaturen (etwa in einem Ofen) oder aggressive Umgebungsbe-

Page 207: Photonik: Grundlagen, Technologie und Anwendung

4.2 Lichtschranken und Lichttaster 187

dingungen (Lebensmittelindustrie, chemische Industrie). In diesen Fällen werden Lichtschranken mit Lichtleitern eingesetzt.

Lichtleiter-Lichtschranken besitzen zwei Öffnungen im Gehäuse, in de-nen Sende- und Empfangslichtleiter montiert werden. Es existiert ein um-fassendes Programm von bereits fertig konfektionierten oder frei adaptier- und kürzbaren Lichtleitern. Man kann zwischen Lichtleitern aus Kunststoff oder Glas, mit Kunststoff- oder Metallmantel, Steck- oder Schraubverbin-dung auswählen.

Lichtleiter unterscheiden sich durch die verwendete Ummantelung und durch Anzahl, Anordnung, Querschnitt und Material der innenliegenden Fasern. Glasfaser-Lichtleiter lassen sich bei Temperaturen bis 315°C ein-setzen. Lichtleiter aus Kunststoff-Fasern sind dagegen meist beliebig kürz-bar und ihre Biegeradien sind kleiner.

Je nachdem, ob die beiden Lichtleiter parallel geführt sind oder ob sie sich gegenüber stehen, erhält man einen Lichtleiter-Taster (bzw. eine Lichtleiter-Reflexionslichtschranke) (Abb. 4.18) oder eine Lichtleiter-Ein-weglichtschranke (Abb. 4.19).

Anwendungsbereiche

Lichtleiter-Lichtschranken finden sich typischerweise in der Halbleiterin-dustrie, der Elektronikmontage (Abb. 4.19), in der Verpackungstechnik, im Sondermaschinenbau sowie in der Feinwerktechnik. Um den vielen unter-schiedlichen Anwendungsfällen gerecht zu werden, bieten die Hersteller für ein Gerät typischerweise über 50 verschiedene Lichtleiter an.

Abb. 4.18. Lichtleiter-Taster mit Kunststoff-Lichtleiter (Werkfoto: SICK AG)

Page 208: Photonik: Grundlagen, Technologie und Anwendung

188 4 Sensoren

Abb. 4.19. Erkennen von Kontaktstiften in beengter Umgebung durch Lichtleiter mit einer integrierten 90°-Umlenkung am Ende (Einweglichtschranke)

4.2.6 Kontrasttaster

Kontrasttaster arbeiten nach dem Prinzip der Reflexions-Lichttaster. Sie dienen zum Erkennen von Kontrastunterschieden, um beispielsweise Druck-marken auf Folien oder Verpackungsmaterialien sicher zu detektieren. Sie sind optimiert auf das Erkennen von schwachen Kontrastunterschieden und unterscheiden bis zu 30 Graustufen. Bei jedem Übergang von einer hellen zu einer dunkleren Fläche und umgekehrt ändert der Kontrasttaster seinen Schaltzustand. Die maßgebliche Schaltschwelle wird manuell oder über ei-nen Einlernvorgang (Teach In) gesetzt.

Druckmarken sind meist farbige Strukturen auf einem farbigen Hinter-grund. Um einen maximalen Kontrast zu erzeugen, haben manche Kontrast-taster verschiedene Sendelichtfarben (z.B. eine 3-Farben-LED). Es wird manuell oder automatisch die Farbe gewählt, die den höchsten Grauwertun-terschied zwischen Marke und Hintergrund ergibt.

Da Kontrasttaster oft in der Druckindustrie eingesetzt werden, wo hohe Materialgeschwindigkeiten üblich sind, werden Kontrasttaster meist für hohe Schaltgeschwindigkeiten von bis zu 25 kHz ausgelegt. Eine typische Tastweite ist 20 mm.

Anwendungsbereiche

Kontrasttaster werden in der Druck- und Verpackungsindustrie zum Er-kennen von Druck- und Falzmarken sowie Rapporten mit einer hohen De-tektionsgeschwindigkeit eingesetzt (Abb. 4.20).

Page 209: Photonik: Grundlagen, Technologie und Anwendung

4.2 Lichtschranken und Lichttaster 189

Abb. 4.20. Kontrasttaster zum Lesen von Druckmarken

4.2.7 Lumineszenztaster

Lumineszenztaster sind Reflexions-Lichttaster, die mit unsichtbarem ultra-violettem (UV) Sendelicht arbeiten. Sie erkennen natürliche oder zur Pro-duktmarkierung aufgebrachte Fluoreszenzfarbstoffe (Luminophore), die oft mit bloßem Auge nicht erkennbar sind. Luminophore leuchten jedoch im sichtbaren Wellenlängenbereich, wenn sie mit UV-Licht angestrahlt werden.

Lumineszenztaster enthalten Leuchtdioden, die ultraviolettes Licht emit-tieren (ca. 375 nm). Der Empfangspfad ist mit einem Filter ausgestattet, das nur sichtbares Licht (also auch das vom Objekt emittierte Fluoreszenz-licht) durchlässt.

Anwendungsbereiche

Luminophore kann man nahezu allen Substanzen beimengen: Ölen, Tin-ten, Fetten und Klebstoffen. Zudem lassen sie sich auch unsichtbar auf feste Materialien wie Etiketten oder Kartons aufbringen, auch wenn diese schon mit anderen Informationen bedruckt sind.

Hilfreich sind Luminophore insbesondere dann, wenn ein optisch klares Objekt, beispielsweise ein transparenter Kleberauftrag, erkannt werden soll. Werden dem Kleber Luminophore beigemischt, dann ist er für den Sensor erkennbar, für den Betrachter jedoch nach wie vor transparent.

Da die Markierungen unsichtbar sein können, eignen sie sich auch für das Anbringen von Kontrollmarken zum Feststellen der Echtheit von Wa-ren, beispielsweise von hochwertigen Markenartikeln.

Page 210: Photonik: Grundlagen, Technologie und Anwendung

190 4 Sensoren

Abb. 4.21. Lumineszenztaster erkennt manuell aufgebrachte lumineszierende Mar-kierungen auf einem Brett zur Steuerung einer Kappsäge (Werkfoto: SICK AG)

Verbreitet sind Lumineszenztaster auch in der holzverarbeitenden In-dustrie (Abb. 4.21), um manuell aufgebrachte lumineszierende Markierun-gen für automatisch durchgeführte Sägeschnitte zu erkennen. Der Lumi-neszenztaster wird nicht durch im Holz vorhandene Strukturen (z.B. Ast-löcher) gestört.

4.2.8 Farbsensoren

Farbsensoren sind oft nach dem Autokollimationsprinzip aufgebaut (Abb. 4.22). Sie enthalten als Sender drei verschiedene Leuchtdioden in den Farben rot, grün und blau, mit denen das Tastgut nacheinander be-leuchtet wird. Da die Remission abhängig ist von der Wellenlänge des eingestrahlten Lichtes – eine rote Oberfläche remittiert rotes Licht stärker als blaues – ist das Intensitätsverhältnis der verschiedenen remittierten Farben charakteristisch für den Farbton des Tastgutes. Dieser Messwert wird mit zuvor gespeicherten Referenzfarbwerten verglichen. Liegen die Werte innerhalb der Toleranz, dann wurde die Referenzfarbe erkannt und der Schaltausgang aktiviert. Auf diese Weise können beispielsweise auf einem Förderband Objekte mit einer falscher Farbe ausgesondert werden.

Die Farben hochglänzender Gegenstände werden eventuell als unbunt erkannt, da es sich im Wesentlichen um Reflexionen an der Oberfläche handelt. Abhilfe schafft hier das Schrägstellen des Sensors um etwa 15°, damit der Reflex nicht in den Sensor gelangen kann.

Die Genauigkeit der Farbmessung mit einem Farbsensor kann nicht mit der Messung eines Spektrometers verglichen werden. Für die Praxis in der Automatisierungstechnik reicht sie jedoch vollkommen aus.

Page 211: Photonik: Grundlagen, Technologie und Anwendung

4.3 Distanzsensoren 191

Abb. 4.22. Optischer Aufbau (links) und Foto eines Farbsensors (rechts, Werkfo-to: SICK AG)

Anwendungsbereiche

Die Einsatzbereiche von Farbsensoren sind vielfältig und erstrecken sich vom Kontrollieren von Verpackung, Etikett oder Inhalt bis zum Erkennen von Kabel- und Aderfarben in der Elektrotechnik (Abb. 4.23).

Abb. 4.23. Nähseide wird vom Farbsensor vor der Verpackung auf die richtige Farbgebung geprüft (Werkfoto: SICK AG)

4.3 Distanzsensoren

Für komplexe Aufgaben in der Automatisierungstechnik muss häufig der Abstand zu einem Tastgut (Reflektor oder Objekt) bestimmt werden. Für diesen Zweck werden Distanzsensoren eingesetzt, die meist auf einem der drei nachfolgend beschriebenen Messverfahren basieren (bzw. auf Kombi-nationen davon).

Page 212: Photonik: Grundlagen, Technologie und Anwendung

192 4 Sensoren

4.3.1 Triangulations-Sensoren

Ein Triangulationssensor ist ein Lichttaster, dessen lichtempfindlicher De-tektor in der Lage ist, den Ort des auftreffenden Lichtes zu bestimmen. Dies geschieht entweder durch eine segmentierte Fotodiode, eine CCD-Zeile(charge coupled device) oder ein PSD-Element (position sensitive detector).

Das Sendelicht trifft senkrecht auf das Tastgut. Da der Empfangspfad schräg zum Sendepfad angeordnet ist (Abb. 4.24), trifft das vom Objekt remittierte Licht für verschiedene Tastweiten jeweils auf eine andere Stelle des streifenförmig ausgedehnten Empfängers.

Dieser Zusammenhang wurde bereits in Abschn. 4.2.4 im Zusammen-hang mit der Hintergrundausblendung dargestellt. Der Unterschied liegt im Empfänger selbst. Beim Triangulationssensor ist der Empfänger entweder in sehr viele Segmente aufgeteilt oder der Auftreff-Ort des Lichtes kann im Falle eines PSD sogar kontinuierlich bestimmt werden.

Da die Position des remittierten Lichtes mit hoher Genauigkeit gemes-sen werden kann, ist über eine einfache geometrische Beziehung auch der Abstand zum Tastgut präzise bestimmbar.

Ein Triangulationssensor besitzt meist einen binären Ausgang, über den er das Vorhandensein eines Objektes meldet, und einen analogen Ausgang,an dem die Entfernungsinformation vorliegt.

Manchmal ist es wünschenswert, dass der Lichtfleck auf der Oberfläche des Tastgutes immer scharf auf den Empfänger abgebildet wird – unab-hängig vom Tastabstand. Die Schärfentiefe der Empfangsoptik reicht dafür

Abb. 4.24. Prinzip (links) eines Triangulationssensors, der die Scheimpflugbedin-gung erfüllt, und Foto eines Triangulationssensors (rechts, Werkfoto: SICK AG)

Page 213: Photonik: Grundlagen, Technologie und Anwendung

4.3 Distanzsensoren 193

nicht aus. Aus diesem Grund werden Triangulationssensoren oft so aufge-baut, dass sie die Scheimpflugbedingung erfüllen (Theodor Scheimpflug, 1865 bis 1911). Das heißt, dass sich Sendeachse, Objektiv- und Bildebene in einem Punkt schneiden (Abb. 4.24). In diesem Falle wird für jede Tast-weite innerhalb des Messbereiches der Lichtfleck auf dem Objekt scharf auf den Empfänger abgebildet.

Triangulationssensoren werden für unterschiedliche Messbereiche her-gestellt. Sie bewegen sich von einigen Zentimetern bis zu wenigen Metern. Die Genauigkeit beträgt – abhängig vom Remissionsvermögen des Tastgu-tes – wenige Prozent der Tastweite.

Anwendungsbereiche

Triangulationssensoren dienen häufig zum Messen von Breiten oder Di-cken, beispielsweise von Brettern, die von einer automatischen Säge ver-arbeitet werden (Abb. 4.25).

Abb. 4.25. Vor einer Kappsäge wird während des automatischen Brettvorschubes kontinuierlich die Breite gemessen

4.3.2 Pulslaufzeit-Sensoren

Die Pulslaufzeitmessung basiert auf der Zeitmessung zwischen dem Aus-senden eines Lichtpulses und dem Detektieren des remittierten Lichtes. Die Schwierigkeit ist hierbei die mit 3 108 m/s sehr hohe Lichtgeschwin-digkeit. Um einen Längenunterschied von 1 cm aufzulösen, benötigt man daher eine Genauigkeit der Zeitmessung von 33 ps. Diese Präzision ist gegenwärtig nur mit einer relativ langen Messzeit erreichbar.

Die Pulslaufzeitmessung eignet sich für Sensoren mit einer Messgenau-igkeit von einigen Zentimetern bei einer Reichweite bis etwa 6 m im Tasterbetrieb (ohne Reflektor). Die Genauigkeit der Entfernungsmessung hängt stark von der Remission des Tastgutes ab und beträgt zwischen 1% (bei 90% Remission) und etwa 10% (bei 6% Remission) der Tastweite.

Page 214: Photonik: Grundlagen, Technologie und Anwendung

194 4 Sensoren

Häufig sind Distanzsensoren mit Infrarotlaserdioden als Sender ausge-stattet. Damit sie leicht justiert werden können, haben sie manchmal zu-sätzlich eine rote Leuchtdiode als Pilotlicht.

Abb. 4.26. Foto eines Pulslaufzeit-Distanzsensors (Werkfoto: SICK AG)

Anwendungsbereiche

Distanzsensoren mit einem Schaltausgang werden in der Fördertechnik, zur Fachbelegungskontrolle im Lager und überall dort verwendet, wo Ab-stände mit Genauigkeiten im cm-Bereich überwacht werden müssen (Abb. 4.27).

Abb. 4.27. Anwendungen für Distanzsensoren: Durchmesserüberwachung an einer Blechrolle (links), Kollisionsverhinderung an einem Hängeförderer (rechts)

4.3.3 Phasenkorrelations-Sensoren

Wie im vorangegangenen Abschnitt erläutert, ist es aufgrund der hohen Lichtgeschwindigkeit c schwierig, die Laufzeit eines Lichtpulses so genau zu messen, dass eine Abstandsauflösung im mm-Bereich möglich wird.

Page 215: Photonik: Grundlagen, Technologie und Anwendung

4.3 Distanzsensoren 195

Man greift daher auf einen mit der Frequenz fm sinusförmig modulierten Laserstrahl zurück. Der Laufzeitunterschied t zwischen auslaufendem und reflektiertem Licht führt zu einer Phasendifferenz (Abb. 4.28).

Aus der Phasendifferenz ergibt sich der zu messende Abstand s(Gl. 4.2), wobei nur die Hälfte der Phasendifferenz relevant ist, da der Strahl den zu messenden Abstand s zweimal durchläuft.

Abb. 4.28. Sinusförmig moduliertes Licht wird von einem Reflektor oder einem Objekt zurückgeworfen und vom Empfänger detektiert. Abhängig von der Lauf-zeit des Lichtes ergibt sich eine Phasendifferenz = + n 2

m/s103

4212

8m

m

m

csfrequenzModulationff

ctcs

tf

(4.2)

Da der Phasenunterschied aufgrund der Periodizität der Sinusmodulati-on nur bis auf n Vielfache von 2 bestimmbar ist, erhält man vom elektro-nischen Phasenkomparator als Messwert nur den Phasenrest (Gl. 4.3).

2n (4.3)

Daraus folgt mit Gl. 4.2 und der Modulationswellenlänge m = c/fm:

)2(

2m ns . (4.4)

Die Anzahl n der enthaltenen Vielfache von 2 ist zunächst unbekannt.

Page 216: Photonik: Grundlagen, Technologie und Anwendung

196 4 Sensoren

Bei einer Modulationsfrequenz von fm = 150 MHz (entspricht einer Mo-dulationswellenlänge von m = 2 m) und einer Genauigkeit der Phasenmes-sung von 0,1° erreicht man eine Auflösung der Abstandsmessung von 0,55 mm.

Der Abstand ist nach der Bestimmung von bis auf Vielfache der hal-ben Modulationswellenlänge mit hoher Genauigkeit bekannt (Gl. 4.4). Die Anzahl n der Vielfachen wird durch eine oder mehrere weitere Messungen bestimmt, bei denen die Modulationsfrequenz niedriger ist als zuvor, bei-spielsweise bei einem zu messenden Abstand von 10 m eine Frequenz fm

von 10 MHz (entspricht einer Modulationswellenlänge von 30 m). Der Phasenunterschied ist kleiner als 2 und wird daher vom Pha-

senkomparator korrekt bestimmt, wenn auch mit geringerer Genauigkeit als zuvor.

Die Genauigkeit (bei 0,1° Auflösung beträgt sie etwa 8 mm) ist jedoch bei weitem ausreichend, um den Abstand grob zu messen und damit die Zahl n der ersten hochgenauen Messung zu bestimmen und somit zu einer hochgenauen absoluten Abstandsmessung zu gelangen.

Anwendungsbereiche

Präzise Distanzsensoren (Abb. 4.29) werden beispielsweise in der Lager-technik zur exakten Positionierung von Regalbediengeräten verwendet (Abb. 4.30).

Distanzsensoren auf der Basis der Phasenkorrelation werden angeboten für Reichweiten bis zu 500 m im Reflektorbetrieb und bis zu 2 m im Tasterbetrieb auf beliebigen Oberflächen.

Abb. 4.29. Foto eines Laser-Distanzsensors nach dem Phasenkorrelationsverfah-ren. Die Laserdiode befindet sich koaxial in der Mitte der Empfangslinse (Werkfo-to: SICK AG)

Page 217: Photonik: Grundlagen, Technologie und Anwendung

4.4 Laserscanner 197

Abb. 4.30. Schienengebundenes Regalbediengerät wird mit einem Distanzsensor millimetergenau positioniert (Werkfoto: SICK AG)

4.4 Laserscanner

4.4.1 Funktionsprinzip des Laserscanners

Das Funktionsprinzip des Laserscanners beruht auf der Kombination eines Lasersenders mit einem beweglichen Drehspiegel. Abbildung 4.31 zeigt den Grundaufbau einer solchen Anordnung:

Abb. 4.31. Funktionsprinzip eines Laserscanners

Page 218: Photonik: Grundlagen, Technologie und Anwendung

198 4 Sensoren

Das von einer Laserdiode erzeugte Strahlenbündel wird mittels einer Kollimatoroptik im Abstand D zum Punktbild gebündelt und kann durch Veränderung der Winkeleinstellung 1 des Ablenkspiegels (A) in der Tast-ebene entlang einer Linie von (P1) nach (P3) abgelenkt werden.

Man erhält so die Möglichkeit, kontinuierlich eine Linie in der Abtast-ebene zu erfassen. Der Ablenkwinkel 2 des Laserstrahles vergrößert sich mit der doppelten Geschwindigkeit des Drehwinkels 1 des Ablenkspiegels (A).

2)()(

1

2

dd

. (4.5)

Lässt man beispielsweise den Ablenkspiegel mit der Winkelgeschwin-digkeit 1 drehen, erhält man für die Rotation des Laserstrahls um den Punkt (PD):

12 2 . (4.6)

In Abb. 4.31 wurde der prinzipielle „Kern“ des Laserscanners vorge-stellt. Die Vorrichtung benötigt, um als „Sensor“ zu arbeiten, nicht nur den optischen Strahlungssender, sondern auch einen entsprechenden Strah-lungsempfänger, um die Eigenschaften des abgetasteten oder erfassten Objektes auszuwerten. Den Empfang des vom Objekt remittierten Strah-lungsanteils zeigt Abb. 4.32.

Die in der Tastebene (oder auf einem Objekt) auftreffende Strahlung wird remittiert. Es sei an dieser Stelle angemerkt, dass auch beim Laser-scanner Probleme der „spiegelnden“ Reflexion und der Polarisation eine Rolle spielen, außerdem entstehen durch die Anwendung kohärenter Strah-lung Interferenz-Erscheinungen, die das Empfangssignal intensiv sto-chastisch modulieren und hier aufgrund der teilweise hohen Signalband-breiten nicht mehr unterdrückbar sind. Besonders bei der häufig vorkommenden Abtastung einer Papieroberfläche kommt es zu derartigen Interferenzproblemen, da eine Papieroberfläche mit ihrer Mikrostruktur im Wellenlängenbereich um 0,6 µm liegt.

Wie Abb. 4.32 zeigt, wird die in der Tastebene in Richtung des Scan-ners zurückgeworfene Strahlung über den Drehspiegel (1) und einen durchbohrten zweiten Umlenkspiegel (2) sowie einen entsprechenden Empfangskollimator (2) gebündelt und von einem Empfangselement er-fasst. Ein an dieses Empfangselement angeschlossener Verstärker wird somit an seinem Ausgang ein zeitlich veränderliches Signal zeigen, womit die Aufgabe der dynamischen Abtastung einer Oberfläche entlang einer Linie gelöst wäre.

Page 219: Photonik: Grundlagen, Technologie und Anwendung

4.4 Laserscanner 199

Abb. 4.32. Funktionsprinzip Laserscanner mit Empfangsoptik

Die Abbildung lässt erkennen, dass das Empfangslichtbündel koaxial zum Sendelichtbündel liegt, d.h. die optischen Achsen des Sende- bzw. Empfangskanals sind identisch, wobei das Zentrum als Sendepfad, die umgebende Öffnung als Empfangspfad genutzt wird. Insofern gilt für die Ablenkung des Empfangskanals dasselbe wie für den Sendekanal.

Besonderheiten des Laserscanners

Der bestechend einfache Aufbau des (Dreh-)Spiegelscanners ist seit lan-gem bekannt und wird in vielfältigen Anwendungen eingesetzt:

Bildabtastung, Anzeigeelemente (auch Spiegeloszillografen), Bildstandserzeugung (Hochgeschwindigkeitskameras), Physikalische Experimente (Messung Lichtgeschwindigkeit).

Page 220: Photonik: Grundlagen, Technologie und Anwendung

200 4 Sensoren

Der Durchbruch des Funktionsprinzips erfolgte jedoch erst mit der Ver-fügbarkeit der Laserstrahlquelle. Vor allem in der Anwendung als Laser-drucker ist der Laserscanner im gehobenen Leistungssegment heute das vorherrschende Prinzip. Aufgrund der nahezu unbegrenzt schnellen (Amp-lituden-) Modulierbarkeit der Laserdiode in Verbindung mit schnelldre-henden Polygonspiegelrädern lässt sich eine sehr schnelle und zugleich hochauflösende Bildübertragung auf lichtempfindliche Flächen realisieren.

Mit der Verfügbarkeit von Lasersendern im Bereich von 20 W bis 150 W (diodengepumpte Festkörperlaser) werden scannende Systeme auch zur direkten Markierung von Materialoberflächen eingesetzt.

In der optischen Sensorik hat der Laserscanner einen hohen Verbreitungs-grad in der Ausführungsform als Barcodeleser gefunden (Abschn. 4.4.2).

Bestechend einfache Funktionsprinzipien zeigen jedoch manchmal auch Schwächen, die in der Anwendung weitere Konsequenzen nach sich zie-hen. Nachstehend seien beispielhaft zwei negative Eigenschaften des Grundprinzips und Möglichkeiten zu ihrer Korrektur aufgezeigt.

Abbildung 4.33 lässt erkennen, dass sich der Fokalpunkt des kollimierten Sendestrahles auf dem Radius (Ds) befindet, und sich somit bei ebener Ab-tastfläche die Auflösung des Systems in den Randbereichen verschlechtert wird. Man kann dies auch als Schärfentiefenverlust des Systems deuten.

Abb. 4.33. Fokalfläche eines V-Scanners

Page 221: Photonik: Grundlagen, Technologie und Anwendung

4.4 Laserscanner 201

Die in Abb. 4.33 dargestellte Änderung des Fokalabstandes F beträgt:

1cos1

2sDF (4.7)

dabei ist 2 der Auslenkwinkel des Abtaststrahles. Tabelle 4.3 zeigt eini-ge Ergebnisse:

Tabelle 4.3. der Fokallage in Abhängigkeit vom Auslenkwinkel

2 F (in% von Ds)0° 0

10° 1,5

15° 3,5

30° 15,4

Man kann diesen Fehler bei einfachen Anwendungen durch Ausmitte-lung des Fokalabstandes etwas entschärfen.

Ein weiterer Fehler lässt sich aus Abb. 4.34 ersehen. Bedingt durch die scheinbare Verlängerung des Abtastradius (Ds) wird sich an den Rändern des Scanbereiches die Abtastgeschwindigkeit v erhöhen:

Bei konstanter Drehgeschwindigkeit 2 des Abtaststrahles müssen wir von folgenden Verhältnissen in der Abtastebene ausgehen:

2tanRH . (4.8)

22

2

tan1dd' RHH . (4.9)

tH

tHH

dd

dd

dd

. (4.10)

22

2 tan1RHv . (4.11)

Page 222: Photonik: Grundlagen, Technologie und Anwendung

202 4 Sensoren

Abb. 4.34. Abtastgeschwindigkeit in Abhängigkeit vom Abtastwinkel

Tabelle 4.4 zeigt, dass sich die Abtastgeschwindigkeit v1 gegenüber der Abtastgeschwindigkeit v0 bei einer Auslenkung von 17,5° um 10%, bei einer Auslenkung von 30° jedoch bereits um 33% erhöht.

Tabelle 4.4. Abtastgeschwindigkeit in Abhängigkeit vom Abtastwinkel

2 [°] (1+ tan² 2) [%] 0 100 15 107 17,54 110 30 133

Wenn man davon ausgeht, dass sich die im Empfangskanal auftretende maximale Signalfrequenz proportional der Änderungen der Abtastge-schwindigkeit ändert, erkennt man, dass sich gerade im Scannerendbe-reich, an dem die Auflösung durch die Fokaldifferenz bzw. den schrägen Strahleneinfall ohnehin beeinträchtigt wird, eine Geschwindigkeitserhö-hung ergibt. Die vorgenannten Fehler lassen sich durch den Einsatz von optischen Systemen nach der Strahlablenkung korrigieren: So wird bei-spielsweise zur Veränderung des Strahlablaufs ein spezielles Objektiv, ein sogenanntes F-Theta-Objektiv verwendet, mit dem die Ablaufgeschwin-digkeit in der Abtastebene linearisiert wird. Abbildung 4.35 zeigt die An-ordnung eines derartigen Systems.

Diese Anordnung wird grundsätzlich bei abbildenden (druckenden) Sys-temen und auch bei Sensoren für Sonderanwendungen eingesetzt. Kombi-niert man den Laserscanner gemäß Abb. 4.36 mit einem telezentrischenObjektivsystem, so wird in der Abtastebene eine Abtastlinie mit konstan-tem Strahleinfallswinkel und eventuell konstanter Abtastgeschwindigkeit erzeugt (Abb. 4.36).

Page 223: Photonik: Grundlagen, Technologie und Anwendung

4.4 Laserscanner 203

Abb. 4.35. Scanner mit F -Objektiv

Abb. 4.36. Scanner mit Telezentrie-Objektiv

Derartige Systeme werden häufig in der Messtechnik eingesetzt, da sich die scheinbare Bildgröße bei Änderungen des Abtastabstandes (in gewis-sen Grenzen) nicht verändert.

Page 224: Photonik: Grundlagen, Technologie und Anwendung

204 4 Sensoren

Entwicklungstrends

Die Technik des Laserscanners hat sich in den letzten Jahren etabliert und sich trotz des optomechanischen Systems mit Antrieb und Lagerung als außerordentlich zuverlässig erwiesen. Herausragende Eigenschaften des Laserscanners sind die mit kostengünstigen Mitteln erreichbare Auflösung bzw. Schärfentiefe, die das System im Vergleich zur Zeilenkamera aus-zeichnen und in eine Reihe von Anwendungen vorteilhaft erscheinen lassen.

Die Einsatzmöglichkeiten werden mit der Verfügbarkeit neuer Laser-Dioden in kürzeren Wellenlängenbereichen erweitert werden.

4.4.2 Barcode-Scanner

Barcodes sind heute in vielen Bereichen zur automatischen Identifikationvon Objekten aller Art eingeführt. Barcodes bestehen aus einer vereinbarten Konfiguration von Strichen unterschiedlicher Breite, die mittels aller gän-gigen Druckverfahren auf einen Untergrund (meistens Papier) aufgebracht sind. Abbildung 4.37 zeigt einige dieser Barcodes (auch als Strichcodierung bezeichnet), beispielsweise der auf Lebensmitteln und anderen Konsumgü-tern aufgebrachte EAN-Code (EAN: European Article Number).

Die Aufgaben des Barcodelesers bestehen darin, die Codierung optisch berührungslos zu erfassen, zu decodieren und über eine geeignete Schnitt-stelle an ein Datenverarbeitungssystem weiterzugeben.

Barcodeleser werden in einem weiten Umfeld und für die unterschied-lichsten Anwendungen eingesetzt und weisen somit eine Vielzahl von Aus-führungsformen auf: Handscanner, festmontierte Scanner mit 1D-/2D-Ab-tastung, Kassenscanner mit komplexen Spiegelanordnungen zur Erzeugung eines Abtastraumes.

Abb. 4.37. Strichcodebeispiel

Page 225: Photonik: Grundlagen, Technologie und Anwendung

4.4 Laserscanner 205

Qualitätsanforderungen

Während bei vielen Anwendungen in der Sensorik der Einfluss des Sen-sorherstellers auf die Eigenschaften des abzutastenden Objektes sehr groß ist oder aber das Sensorsystem und das Objekt in einer Applikationsunter-suchung in ihren Eigenschaften untersucht und zu einem System verbun-den werden, ist es bei der Lesung von Strich- oder Matrixcodierung sehr viel schwieriger, die Performance des Gesamtsystems, bestehend aus Co-dierung und Lesegerät, andauernd auf hohem Niveau zu halten.

Hierzu sind anfangs Codespezifikationen der AIM (Interessenverbandder Hersteller von Identprodukten) erstellt worden: heute sind einige der gängigsten Codierungen/Spezifikationen als EN verfügbar. [ISO/IEC 15416, ANSI X3.182]

Im Folgenden wird auf die beiden wesentlichsten Merkmale einer Co-dierung hingewiesen:

Das Kontrastverhältnis SC (Symbol Contrast) berechnet sich aus dem maximalen Remissionsunterschied Rmax – Rmin innerhalb eines Codesymbols und sollte einen anwendungsabhängigen Mindestwert nicht unterschreiten.

SC=Rmax–Rmin (4.12)

Abb. 4.38. Abtastsignal einer Strichcodierung

Page 226: Photonik: Grundlagen, Technologie und Anwendung

206 4 Sensoren

Abbildung 4.38 zeigt das bei der Abtastung eines Barcodes erhaltene Videosignal. Daraus wird deutlich, dass sich Defekte und Breitenabwei-chungen eines Elementes störend auf die Auswertung einer Codeelement-folge auswirken. Wie das dargestellte Beispiel zeigt, führt eine Unterbre-chung im Druck des zweiten breiten Striches fälschlicherweise zur Abtastung einer Strichfolge „1000“ anstelle von „101“.

Selbstverständlich gelten diese Überlegungen in gleicher Weise für 2-D-(Matrix)-Codierungen. Dies ist jedoch eine Domäne der Kamerasensoren. Durch die dort anwendbaren Verfahren der digitalen Bildverarbeitung entstehen erheblich erweiterte Lösungsmöglichkeiten.

4.4.2.1 Geräteaufbau

Der grundsätzliche Aufbau eines laserbasierten Barcodelesers wird an einem Gerät für den industriellen Einsatz zur Materialflusssteuerung ge-zeigt. Das nachfolgende Schema zeigt die in einem Barcode-Scanner zu-sammengefassten Baugruppen (Abb. 4.39).

Abb. 4.39. Blockschema Barcode-Scanner

Page 227: Photonik: Grundlagen, Technologie und Anwendung

4.4 Laserscanner 207

PS Power Supply, Versorgung der internen Baugruppen µP Rechnerkern, der sowohl interne Gerätesteuerung, als auch

externe Datenkommunikation und Signalauswertung über-nimmt. In Hochleistungsgeräten wird die Signalauswer-tung von einem digitalen Signalprozessor (DSP) übernom-men.

LS Laser mit Steuerung E Empfangssystem mit Steuerung M Antriebsmotor für Spiegelrad P-Interface Paralleles Interface für direkten Anschluss von Sensoren

(Triggerelemente) bzw. Aktoren im Prozess. S-Interface Serielles Interface zum Datenaustausch mit Prozesssteue-

rungen etc.

Abbildung 4.40 zeigt einen Barcodeleser in einer Anwendungssituation (Lesung).

Abb. 4.40. Barcodelaser in der Anwendung

Page 228: Photonik: Grundlagen, Technologie und Anwendung

208 4 Sensoren

Abb. 4.41. Typisches Lesefeld eines Barcodelesers

Das System bietet die in Abb. 4.41 gezeigten Leistungseigenschaften, dargestellt an den erreichbaren Lesefeldern in Abhängigkeit von der Strich-stärke der Codierung.

Entwicklungstrends

Barcodeleser werden auch zukünftig ihren Platz in der industriellen Senso-rik behaupten. Dies beruht wesentlich auf den optischen Eigenschaften der Laserdiode: Nur durch deren Einsatz wird es möglich, Strahlungsbündel mit geringem Öffnungswinkel und hoher Energiedichte zu erhalten. Nur so lassen sich hohe Schärfentiefen bei gleichzeitig hoher Auflösung erzielen.

Die nächsten Entwicklungsschritte dieses Sensortyps werden der Ein-satz von Laserdioden im blauen Spektralbereich und weitere Erhöhung der Scangeschwindigkeit sein.

Der Einsatz leistungsfähiger DSP-Architekturen (DSP: Digital SignalProcessor) bietet die Möglichkeit, die Signalauswertung noch zu verbes-sern und damit die Toleranz der Systeme gegenüber Fehlern der Codierung weiter zu steigern.

Page 229: Photonik: Grundlagen, Technologie und Anwendung

4.4 Laserscanner 209

Die Scanner der Hochleistungsklasse sind heute bei Abtastfrequenzen (Zeilenfrequenzen) von bis zu 2 10³ s-1 und maximalen Auflösungen von 0,1 mm bei 1 m Zeilenlänge, d.h. bei einer Datenmenge von 20 106 Bild-punkten/s angelangt. Dies bedeutet die Verarbeitungsleistung von 40 MB/sbis 60 MB/s bei einer Auflösung von 256 Graustufen.

4.4.3 Laser-Radar

Funktionsprinzip

In Abschnitt 4.3 wurden die wesentlichen Verfahren der Abstandsmessung mit optischen Sensoren erläutert, die Triangulation, die Phasenmessung und die Lichtlaufzeitmessung.

Auch wenn prinzipiell alle drei Verfahren in der Kombination mit einer Scanneranordnung funktionsfähig wären, hat sich zur Darstellung des La-ser-Radars das TOF-(Time of flight)- oder Lichtlaufzeit-Verfahren durch-gesetzt. Abbildung 4.42 stellt schematisch das Grundprinzip vor.

Die Laserdiode sendet zyklisch extrem kurze Strahlungsimpulse (T 1 ns bis 3 ns) aus, die über den Drehspiegel auf das abzutastende Objekt auf-treffen und von diesem reflektiert werden. Ein Teil dieser remittierten Strahlung wird ebenfalls über den Drehspiegel und den folgenden Teiler-spiegel auf das Empfangselement geführt. Das Aufbauprinzip ähnelt sehr stark dem Prinzip der Pulslaufzeitsensoren (Abschn. 4.3.2).

Abb. 4.42. Funktionsprinzip Laser-Radar

Page 230: Photonik: Grundlagen, Technologie und Anwendung

210 4 Sensoren

Wie bereits dargelegt, wird nun durch den sich drehenden Drehspiegel der Laserstrahl über die Oberfläche eines zu vermessenden Objekts ge-führt, so dass sich eine Folge von Abstandsmessungen ergibt (Abb. 4.43), die zunächst in Polarkoordinaten (Ursprung = Spiegelachse), oder nach Umrechnung in ein beliebiges Koordinatensystem, den Verlauf der Abtast-linie beschreiben. Mit Hilfe eines Winkelgebers am Drehspiegel ist eine geometrischen Zuordnung der Abtastwerte oder auch eine winkelbezogene Auslösung der Sendeimpulse möglich.

Abb. 4.43. Zeitdiagramm Laser-Radar (PS: Sendeimpuls, PE: Empfangsimpuls)

Besonderheiten

Der Laserscanner besitzt ein einfaches und klares Funktionsprinzip für eine anspruchsvolle Aufgabe. Aufgrund der Laserschutz-Vorschriften muss sich die Sendeleistung einer Laserdiode auch im Impulsbetrieb in einem Bereich bewegen, der eine vergleichbare Dauerstrichleistung von etwa 1 mW nicht überschreitet.

Die am Empfänger auftretende Empfangsleistung (optisch) PE ändert sich mit dem Abstand zum Objekt gemäß

²1~E r

P . (4.13)

Das bedeutet: Bei einem Messbereich des Systems, der sich zwischen dmin und dmax erstreckt, wobei dmax 100 dmin sei, wird sich das Empfangssig-nal aufgrund der in Gl. 4.13 angegebenen 1/r²-Abhängigkeit um 40 dB ändern. Hinzu kommt eine durch die unterschiedliche Objekt-Remission bedingte Dynamik von zusätzlich etwa 10 dB bis 20 dB.

Page 231: Photonik: Grundlagen, Technologie und Anwendung

4.4 Laserscanner 211

Bei einem so stark variierenden Empfangsimpuls ist die Bestimmung der genauen Lichtlaufzeit sehr schwierig und nur mit großen Aufwendun-gen in der Schwellwertbildung möglich.

Die absolute Signalhöhe ist ebenfalls begrenzt, da im Gegensatz zu sta-tischen Systemen die Empfangsapertur nicht beliebig groß gemacht wer-den kann.

Eine Messwertverbesserung durch Mittelwertbildung (statistische Ver-fahren) ist bei scannenden Systemen ebenfalls nur in sehr begrenztem Um-fang möglich, da sich das Ziel durch den (gleichförmig) laufenden Dreh-spiegel schnell verändert.

Anwendung und Ausführungsformen

Das Prinzip des Laser-Radars auf Scannerbasis (Abb. 4.44) wird bei der Abstandsmessung für Sicherheitsanwendungen häufig eingesetzt, insbe-sondere für folgenden Anwendungen:

Abb. 4.44. Aufbauschema eines Laserscanners

Page 232: Photonik: Grundlagen, Technologie und Anwendung

212 4 Sensoren

Absicherung/Kollisionsschutz für fahrerlose Transportsysteme. Absicherung des Umfeldes von Roboterinstallationen. Absicherung des Vorfeldes von Türen/Toren/Durchgängen im indus-triellen Materialfluss. Berührungslose Messung von Objekten auf Transportbändern. Konturerfassung von Palettenladungen. Konturerfassung – beispielsweise von Fahrzeugen – zur Plausibilitäts-kontrolle der übermittelten Fahrzeugdaten sowie zur Klassifizierung (Mautsysteme).Durchsatzmessung von Schüttgütern auf Förderbändern (Volumenerfas-sung).

Das von der Sendebaugruppe (Sendediode und Kollimator) ausgehende Lichtbündel wird über einen kleinen Umlenkspiegel in die Achse A – A‘ eingespiegelt und trifft dort auf den Drehspiegel. Dieser Drehspiegel hat seine Drehachse ebenfalls in der Systemhauptachse A – A‘ und ist über-dies hierin um 45° gekippt. Bei der Rotation dieses Drehspiegels um die Achse A–A´ wird das Senderstrahlenbündel in der Abtastebene entspre-chend abgelenkt. Mit einer derartigen Scanneranordnung ist es möglich, die Umgebung des Systems in der Abtastebene ununterbrochen über 360° abzutasten. Durch die gepulste Arbeitsweise werden jedoch Einzelpunkte (P1, P2, usw.) in der Peripherie des Systems erfasst.

Wie bereits oben ausgeführt, tastet das System in schneller Reihenfolge (alle ½°) mit einer Umlaufgeschwindigkeit von 30 s-1 die Umgebung, oder genau gesagt, einen Ausschnitt von 180° in der Abtastebene, ab und er-zeugt somit bei jedem Umlauf ein neues Abstandsprofil der Abtastebene.

Wird das Gerät zur Absicherung eines automatischen, fahrerlosen Fahr-zeuges eingesetzt (Abb. 4.45), so wird erkannt, ob sich innerhalb eines Schutzfeldes vor diesem Fahrzeug ein Hindernis befindet. Das System wird dann die Fahrzeugbewegung verlangsamen oder gegebenenfalls stop-pen.

In dem vorliegenden Beispiel ist sofort ersichtlich, dass es sich bei dem vorgestellten „Hindernis“ natürlich auch um einen den Fahrweg des Fahr-zeuges kreuzenden Menschen handeln kann. Aus diesem Umstand ergeben sich eine ganze Reihe von Zusatzanforderungen an ein derartiges Produkt, u.a. dass es absolut fehlersicher aufgebaut sein muss, d.h. bei allfälligen Bauteilausfällen oder anderen Defekten im Gerät muss sichergestellt sein, dass die beiden redundanten Ausgangskanäle sofort in den sicheren Zu-stand (Fahrzeugstopp) schalten. Tabelle 4.5 zeigt einige Leistungsmerkma-le des vorgestellten Gerätes.

Page 233: Photonik: Grundlagen, Technologie und Anwendung

4.4 Laserscanner 213

Abb. 4.45. Laser-Radar an einem Fahrzeug

Tabelle 4.5. Eigenschaften eines Laser-Scanners

Max. Abtastwinkel 190° Abtastwiederholfrequenz (Spiegeldrehzahl) 30 s-1

Pulslänge der Laserdiode 2 ns bis 4 ns Wellenlänge etwa 900 nm (NIR) Impulsleistung (optisch) 10 W Mittelwert der Sendeleistung 1 mW Maximale Erfassungsreichweite 40 m Ansprechzeit 60 ms Messfehler (systematisch) 5 mm Messfehler statistisch 80 mm Max. Objektremission 1.000% (Reflektor) Min. Objektremission 1,8%

Alle wesentlichen Betriebsparameter und umfangreiche Feldparametrie-rungen sind mit PC-Unterstützung programmierbar. Trotz der großen Va-rianz in Anwendung und Aufgabenstellung sind an dem Gerät keinerlei optische Einstellungen vorzunehmen.

Page 234: Photonik: Grundlagen, Technologie und Anwendung

214 4 Sensoren

Entwicklungstrends

Das Prinzip des Laser-Radars (sowohl in statischer, als auch in dynami-scher Version) erschließt sich laufend neue Gebiete. Insbesondere in der Erfassung von mittleren und großen Objekten (z.B. in der Logistik bzw. im Verkehrswesen) ergeben sich neue Anwendungen. Hierzu tragen insbe-sondere folgende Vorteile bei:

Verfügbarkeit und Preiswürdigkeit von Laserdioden. Verfügbarkeit und Preiswürdigkeit der für komplexe Aufgaben notwen-digen Rechnerleistung. Verfügbarkeit von digitalen Schaltungen zur Auswertung (extrem hohe Taktfrequenzen von 2 GHz bis 3 GHz). Systembedingte Unempfindlichkeit und Toleranz des Verfahrens gegen-über Objekteigenschaften (Minimalremission bis herunter zu 1% bis 2%).

Zielsetzung der weiteren Entwicklungen in diesem Produktsegment sind die Miniaturisierung und die gesteigerte Leistungsfähigkeit.

4.5 Kamerasensoren

Das Feld der kamerabasierten Sensorik hat sich in den letzten Jahren rasch entwickelt und ist aus dem Stadium der allgemeinen Bildverarbeitung in die Serienanwendung der industriellen Sensorik eingetreten. Merkmal einer Bildverarbeitungsanwendung waren bisher die Kombination von PC, Kamera und Beleuchtungsvorrichtung und die aufgabenspezifische Erstel-lung einer umfangreichen Software zur Signalauswertung. Ein moderner Kamerasensor integriert alle diese Funktionen in einem Gerät.

Die nachfolgenden Faktoren haben zur Entstehung preiswerter Geräte wesentlich beigetragen:

Umfangreiches Angebot an Zeilen- und Matrixsensoren auf CCD- und CMOS-Basis (CCD: Charge Coupled Device; CMOS: Complementary Metal Oxide [insulated gate] Semiconductor). Embedded-RISC-Rechner mit der Leistungsfähigkeit von PCs mit gleichzeitig geringer Leistungsaufnahme (RISC: Reduced InstructionSet Computer).Leistungsfähige LEDs und damit die Möglichkeit der Ausführung kame-ra-integrierter Beleuchtungsanordnungen (LED: Light Emitting Diode).

Page 235: Photonik: Grundlagen, Technologie und Anwendung

4.5 Kamerasensoren 215

Die nachstehend ausgeführten Beispiele weisen folgende Merkmale auf:

Integration von Bildaufnehmer, Auswerterechner und Beleuchtung zu einer einzigen, kompakten Baueinheit. Integrierte, teilweise aufgabenspezifische Software.

Ausgehend von den vielfältigen Möglichkeiten der Kamerasensoren kann mit Bezug auf deren Funktions- bzw. Auswerteprinzip eine Systema-tik nach Abb. 4.46 angewendet werden. Damit ergibt sich automatisch die in den Abschn. 4.5.1 bis 4.5.3 angewandte Unterteilung von 1-D- bis 3-D-Sensoren („D“ steht hier für „Dimension“ und soll als Basis für eine Klas-sifizierung dienen).

Kamerasensoren

1-D ( 1-dimensional) 2-D ( 2-dimensional) 3-D ( 3-dimensional )

Diodenzeile CCD / CMOS - Matrix CMOS – Matrix ( Highspeed

Abstandssensorauf Triangulations-

basis

Grauwertsensor Abstandsensorauf Triangulations-

basis >Lichtschnittsensor

Grauwertsensor„Bildsensor“

Abstandssensorauf TOF – Basis

( Singlepulse oder CW )

Sensor

Sensor-funktion

Koordinate Z X-R X-Z X-Y-R X-Y-Z

Abb. 4.46. Übersicht Kamerasensoren

Die in Abb. 4.46 vorgenommene Klassifizierung beruht auf folgender Vorstellung: Jeder Punkt einer Szene wird durch das Abbildungssystem auf eine Ebene abgebildet. (Einfachste und anschaulichste Anordnung dieser Art ist die Camera obscura).

In der Szene können wir einen Punkt durch seine Remission und die Koordinaten x, y und z kennzeichnen.

In der Empfangsebene können wir das Bild jedes Objektpunktes eben-falls mit den Koordinaten x', y', z' und seiner Helligkeit (Strahlungsener-gie) I' kennzeichnen. Diese Intensität wird maßgeblich von der Intensität der Beleuchtungsquelle und der Remission abhängen.

Die Koordinate z' wird in aller Regel konstant sein (ebener Bildsensor). Bei der Abbildung eines räumlichen Objektes wird die Koordinate z' eines Bildpunktes verloren gehen. Will man die Koordinate z' erfassen, müssen besondere Auswerteverfahren verwendet werden (Abschn. 4.5.3).

Page 236: Photonik: Grundlagen, Technologie und Anwendung

216 4 Sensoren

Die in Abb. 4.47 schematisch angedeutete Anordnung besteht aus:

MatrixsensorAbbildungsobjektiv, Beleuchtungsquelle,Objekt(-ebene).

Bei der Erfassung von Form und Umriss kleiner Objekte braucht man sehr häufig eine flächenhafte Hintergrundbeleuchtung.

Abb. 4.47. Schema Matrixsensor

4.5.1 1-D-Sensoren

1-D-Kamerasensoren auf der Basis eines zeilenförmigen Empfangsele-ments werden industriell für eine Reihe von Anwendungen eingesetzt:

Barcodelesen.Entfernungsmessung (Triangulationsprinzip). Überwachung von laufenden Materialbahnen auf Fehler. Messung von Teilen in Bewegung (z.B. Durchmesserkontrolle von Dräh-ten, Extrusionsprofilen). Erfassung von Bahnkanten zur Mittenregelung. Erfassung von Materialschlaufen zur Wickelregelung.

Page 237: Photonik: Grundlagen, Technologie und Anwendung

4.5 Kamerasensoren 217

Beispielhaft für diese Anwendungen wird im Folgenden ein typischer 1-D-Sensor zur Barcodelesung vorgestellt.

Barcodeleser

Barcodeleser erfassen Strichcodierungen in einem relativ engen Abstands-bereich. Das gezeigte Gerät integriert einen Fotodiodenzeilen-Empfänger,eine Beleuchtungsvorrichtung sowie den Mikro-Rechner zur Auswertung der Zeileninformation und zur Gerätesteuerung. Prinzipiell entspricht dies dem in Abb. 4.39 gezeigten Blockschema für einen Laserscanner. An die Stelle von Motor/Lasersender/Empfangselement treten Fotodiodenzeile und Beleuchtungsvorrichtung.

Abbildung 4.48 zeigt das Gerät an einer Produktionslinie. Erfasst wird hier der an einem Geräteträger angebrachte Barcode. Die Erfassung des Barcodes wird hier dazu verwendet, die dementsprechenden Produktions-schritte bzw. der auf dem Geräteträger befindlichen Gerätetype zugeordne-ten Messgeräte einzustellen.

Besonderheiten dieses Gerätetyps sind die limitierte Schärfentiefe (ca. 10 mm bei einer Modulbreite des Codes von 0,2 mm und einem Soll-

Leseabstand von etwa 35 mm). Diese Geräteart weist eine sehr große Un-empfindlichkeit gegenüber Fremdlicht auf.

Abb. 4.48. Barcodeleser an einer Produktionslinie

In diesem Fall ist eine Umgebungshelligkeit mit einer Beleuchtungs-stärke bis zu 100.000 lx zulässig. Die Leserate ist mit 500 s-1 relativ hoch. Die integrierte Beleuchtungseinrichtung besteht aus einer LED-Zeile mit der Wellenlänge 630 nm.

Page 238: Photonik: Grundlagen, Technologie und Anwendung

218 4 Sensoren

Prinzipiell ist ein derartiger Sensor beispielsweise auch für die Kanten-erfassung von Materialbahnen geeignet. Mit einer Beleuchtungseinrich-tung für Durchlichtbetrieb können auch einfache Prüfvorgänge (z.B. Durchmessererfassung von Drähten) durchgeführt werden.

4.5.2 2-D-Sensoren

2-D-Sensoren auf der Basis eines matrixförmigen Empfangselementes (Anordnung entsprechend Abb. 4.47) werden für folgende Anwendungen eingesetzt:

Teileerfassung auf Transportbändern zur Identifikation der Position-/Drehlage (Sensor zu Steuerung von nachfolgenden Greifersystemen). Vollständigkeitskontrolle von Verpackungseinheiten. Objektidentifikation anhand von Objektumrissen. Fehlerüberwachung beispielsweise an Stanzteilen (z.B. Grat, Ausbrü-che, fehlende Lochung). Bestückungskontrolle von Elektronikbaugruppen. Identifikation und Datenerfassung anhand von 2-D-Matrix-Codierungen.

Kamerasensoren

Integrierte Kamerasysteme (Abb. 4.49) ermöglichen, eine Reihe der oben genannten Erfassungsaufgaben schnell und effizient zu lösen. Dieses Ka-merasystem besteht aus einer integrierten Kamera-/Beleuchtungseinheit, die mittels eines Bediengeräts vollständig autark parametriert werden kann

Abb. 4.49. Kamerasystem an einer Produktionslinie

Page 239: Photonik: Grundlagen, Technologie und Anwendung

4.5 Kamerasensoren 219

und ohne weitere Hilfsmittel die geforderten Aufgaben löst. Das Kamerasystem überwacht, ob alle Teile bearbeitet (geschliffen)

sind, oder ob sich in den Trägern noch Rohteile befinden.

4.5.3 3-D-Sensoren

Aus den vielseitigen Einsatzgebieten werden folgende genannt:

Erfassung der Form von Gießformen zur Qualitätssicherung. Erfassung von Personen in sicherheitsrelevantem Bereich zum Schutz in gefährlichen Bereichen an Maschinen. Erfassung von kleinen Objekten in Verpackungen zur Vollständigkeits-kontrolle.Erfassung von Schüttgütern zur Robotergreifesteuerung. Analyse der Kontur einer Palettenladung, ebenfalls zur Robotersteue-rung oder zur Optimierung des Ladungsbildes. Bestückungskontrolle von elektronischen Baugruppen.

Artverwandt, jedoch eindeutig in das Feld der 3-D-Meßtechnik gehö-rend, sind Aufgaben wie:

Vermessung von Kfz-Teilen (Karosserie, Gehäuseteile) oder Vermessung von Kunststoffspritzteilen.

3-D-Sensoren beruhen auf zwei verschiedenen Prinzipien:

Stereometrie (geometrischer Ansatz) oder Lichtlaufzeitmessung (geometrischer Ansatz mit aktiver Beleuchtungs-vorrichtung).

Stereometrie

Stereometrische Verfahren verwenden zwei getrennte abbildende Sys-teme (Abb. 4.50).

Die Anordnung zeigt zwei abbildende Systeme mit dem Basisabstand B, der in Abhängigkeit von der Objektlage D eine Bildverschiebung verursacht.

In Abb. 4.50 ist nur eine Ebene des Sensors dargestellt. Die Zusammen-hänge gelten für die x- und y-Richtung gleichermaßen.

Wie aus Abb. 4.50 ersichtlich ist, handelt es sich bei dieser Anordnung prinzipiell um einen Triangulationssensor.

Page 240: Photonik: Grundlagen, Technologie und Anwendung

220 4 Sensoren

Abb. 4.50. Stereokamera

Das Objekt muss kein freistehendes Objekt sein. Es ist ebenso denkbar, eine Objektkante oder andere Unregelmäßigkeiten zur Abstandsermittlung zu nutzen. Wie bei allen Triangulationssensoren sind folgende Besonder-heiten ersichtlich:

Mit der vereinfachten Abhängigkeit

DB

bh

oder bfBD . (4.14)

h: Höhe des Bildpunktes in SensorebeneB: Bildpunktabstand von ProjektionspunktD: Objektpunktabstand von ProjektionspunktB: Abstand der Projektionspunkte: „Basis“

ergibt sich:

bBD

dhDd ²

.

Damit wird die Ungenauigkeit des Objektabstandes D:

hbB

DD ², (4.15)

mit h als Pixelabstand des Sensorelements.

Page 241: Photonik: Grundlagen, Technologie und Anwendung

4.5 Kamerasensoren 221

Das bedeutet, dass die Entfernungsauflösung (bei gegebenem h) mit steigendem Abstand D schlechter wird. Für Sensoren mit großem Messab-stand D müssen sowohl für die Messbasis B als auch für den Bildpunktab-stand b möglichst große Werte gewählt werden.

Objekte ohne Merkmale (z.B. homogene Flächen) sind für einen Stereo-sensor nicht erfassbar. Man hilft sich hier mit alternativen aus dem Bereich der Moirétechnik entliehenen Methoden, wie beispielsweise der Projektion eines Musters auf solche Flächen.

Moirétechnik

Tauscht man in Abb. 4.50 den Sensor A gegen einen (steuerbaren) Projek-tor, der die Oberfläche des Objektes mit einem eindeutigen, bekannten Muster beleuchtet, so erhält man einen Sensor, der ebenfalls die Entfer-nungsmessung nach dem Triangulationsprinzip gestattet. Diese Sensorart weist folgende Vorteile auf:

Die Struktur des auf die Oberfläche projizierten Musters kann frei ge-wählt werden. Bei bekanntem Intensitätsverlauf kann interpoliert wer-den.Auch völlig strukturfreie Oberflächen sind erfassbar. Durch die Manipulierbarkeit der Beleuchtungsstruktur sind Bildteile selektiv vermessbar.

Lichtlaufzeitmessung

Abb.4.51. 3-D-Lichtlaufzeitmessung

Page 242: Photonik: Grundlagen, Technologie und Anwendung

222 4 Sensoren

Abb. 4.51 zeigt die prinzipielle Funktion der Lichtlaufzeitmessung zur Erfassung von Oberflächenformen.

Der Sensor besteht aus einem Matrix-Empfangselement, einem schnel-len Shutter (Verschluss) und einer, die Szene beleuchtenden Laserdiode.Die Laserdiode wird zyklisch für eine bestimmte Zeit t angesteuert. Gleichzeitig wird der Shutter geöffnet. Man wählt die Zeit t etwa so groß wie die gesamte Lichtlaufzeit (Laserdiode Objekt Empfänger). Nach Ablauf der Zeit t wird der Shutter wieder geschlossen.

Der von der Laserdiode ausgehende Lichtimpuls wird aufgrund des Ab-standes des reflektierenden Objektpunktes verzögert und aufgrund dieser Zeitverschiebung mehr oder weniger lange vom Sensor erfasst. Dies hin-terlässt einen der Lichtlaufzeit, d.h. dem Objektabstand umgekehrt propor-tionalen Lichteindruck. Die auf dem Sensor befindliche Ladung ist ein Maß für den Abstand des Objektpunktes. Nebeneffekte wie Fremdlicht bzw. unterschiedliche Remissionsgrade der Objektfläche kann man durch Normierung ausschalten. Abbildung 4.52 zeigt die vorstehend beschriebe-ne Funktion als Zeitdiagramm.

Abb. 4.52. Zeitdiagramm Lichtlaufzeitmessung

Die 3-D-Sensorik befindet sich in einer raschen Entwicklung. Momen-tan sind noch nicht alle Komponenten in Serie industriell verfügbar. Es ist jedoch damit zu rechnen, dass dies in den nächsten Jahren der Fall sein wird und die 3-D-Sensorik vermehrt Einzug in die industrielle Anwendung erhält. Einige der momentan mit 2-D-Kamera-Sensoren gelösten Aufga-benstellungen sind für die 3-D-Sensorik prädestiniert und werden von die-ser abgelöst werden.

Page 243: Photonik: Grundlagen, Technologie und Anwendung

4.6 Optische Sensoren für spezielle Anwendungen 223

4.6 Optische Sensoren für spezielle Anwendungen

Im folgenden Abschnitt werden beispielhaft zwei Sensoren vorgestellt, deren Aufgabenstellung und Anwendungsfeld verschieden sind. Während sich die bisher beschriebenen Sensoren hauptsächlich mit der Erkennung beispielsweise von Formen, Farbe, Anwesenheit, Entfernung, Identität von Objekten (oder Personen) befasst haben, gibt es eine weitere Gruppe von optischen Sensoren, die zur Erfassung von Stoffeigenschaften oder zur chemischen Analyse bzw. zur Konzentrationsmessung in Stoffgemischen herangezogen werden.

Die Bandbreite dieser Sensoren reicht vom einfachen Überwachungsge-rät (z.B. zur Sauerstoffgehaltsmessung im Blut) bis zu komplexen Analyse-systemen zur hochgenauen Analyse komplexer Stoffgemische.

In vielen Fällen werden hier spektrometrische Verfahren benutzt Abbil-dung 4.53 zeigt beispielhaft die Breite des Einsatzfeldes der spektrometri-schen Verfahren, diese reicht von einfachsten Sensoren zur Messung des Sauerstoffgehaltes im Blut bis hin zu komplexen Laboranalysesystemen.

Ein wesentliches Hilfsmittel zur Untersuchung von Reaktionen im mo-lekular-biologischen Umfeld sind beispielsweise die Erfassung von Fluo-reszenzerscheinungen, die bei chemischen Reaktionen auftreten. Diese Art der Sensorik ist bei automatisierten Analysesystemen ein unverzichtbares Hilfsmittel, da sie es gestattet, Reaktionen sehr viel schneller und vor al-lem im Ablauf zu beobachten, ohne im nachhinein aufwändige Analyse-methoden einsetzen zu müssen.

Für die Darstellung spektralanalytischer Methoden und der Fluores-zenzanalyse wird auf die einschlägige Literatur verwiesen. Aufgrund ihres

Abb. 4.53. Spektrometrische Sensoren zur Stoffanalyse

Page 244: Photonik: Grundlagen, Technologie und Anwendung

224 4 Sensoren

Einsatzfeldes in der industriellen Umgebung und ihrer Verwandtschaft zu einigen in den vorangegangenen Abschnitten vorgestellten Sensoren wer-den im folgenden zwei Anwendungen aus der Schadstoffüberwachung näher beschrieben.

4.6.1 Staubkonzentrationsmessung

Aufgabenstellung

In vielen industriellen Prozessen fallen staubförmige Reststoffe an, die in aller Regel durch eine Gasströmung transportiert und ausgefiltert werden.

Bekannte Beispiele hierfür sind die von einem konventionellen Kraft-werk mit dem Abgas ausgestoßenen staubförmigen Schadstoffe (haupt-sächlich kleinste Asche-, also mineralische Teilchen) oder der Ausstoß kleinster Rußpartikel aus Dieselmotoren.

Aber auch andere industrielle Prozesse, wie die Zementfabrikation oder das Aufbereiten mineralischer Grundstoffe erzeugen solche (teilweise toxi-schen) Stäube.

Abhängig von der zu erfassenden Staubkonzentration haben sich zwei Messverfahren etabliert.

Absorptionsmessung

Das staubbeladene Gas wird mit einem Strahlenbündel durchleuchtet. Die durch die Staubpartikel eintretende Strahlungsschwächung längs des Lichtweges wird zur Ermittlung der Staubkonzentration herangezogen (Abb. 4.54). Aus dem Verhältnis der beiden Strahlungsintensitäten wird auf die Staubbeladung geschlossen.

Abb. 4.54. Prinzipschema Absorptionsmeßgerät

Page 245: Photonik: Grundlagen, Technologie und Anwendung

4.6 Optische Sensoren für spezielle Anwendungen 225

Abbildung 4.54 zeigt die wesentlichen Bestandteile einer Absorptions-messung:

Strahlungsquelle, Messkanal,Strahlungsempfänger mit Signalauswertung.

Nach dem Lambert-Beer`schen Gesetz wird die Strahlungsleistung in-folge von Absorption und Streuung beim Durchlaufen des Gases exponen-tiell geschwächt:

lke01 (4.16)

k: Extinktionsskonstante, kennzeichnet die Eigenschaften des Medi-ums

absorbierenden Mediums l : Länge der absorbierenden Strecke

0

: Strahlungsleistung am Eintritt in die absorbierende Strecke

1

: Strahlungsleistung am Austritt der absorbierenden Strecke

Die Extinktionskonstante

1

0ln1l

k (4.17)

ist nach dem Lambert-Beer'schen Gesetz proportional zur Konzentration der absorbierenden und streuenden Partikel.

Es ist möglich, über die Messung der Absorption die Konzentration ei-nes Schadstoffes in dem betrachteten Messvolumen zu bestimmen.

In der Anwendung dieser einfachen Zusammenhänge gibt es jedoch eine Reihe von Einflüssen, die viele zusätzliche Korrekturen (Annahmen bzw. Kalibrierungen) notwendig machen. Folgende Anforderungen müssen gestellt werden:

Thermische Stabilität sowie Degradationsfreiheit der im System befind-lichen Sende- bzw. Empfangselemente. Verhinderung der Verschmutzung der optischen Grenzflächen. Die einfache Absorptionsannahme gilt nur, wenn keine Streueffekte o.ä. vorhanden sind, d.h. bei Absorptionskörperquerschnitten d oder bei einem Kontinuum. Die optische Ausrichtung von Strahlungssender oder -empfänger darf sich nicht verändern, es sei denn die Strahlquerschnitte werden homo-gen ausgeleuchtet bzw. die Empfindlichkeit des Empfängers ist flächen-bezogen konstant.

Page 246: Photonik: Grundlagen, Technologie und Anwendung

226 4 Sensoren

Abbildung 4.55 zeigt ein industrielles Gerät, das auf der Basis der Ab-sorptionsmessung die Staubbeladung von Abgasströmen in der Kraft-werkstechnik misst.

Abb.4.55. Staubgehaltsmessgerät

Das dargestellte Gerät misst in situ (d.h. angebaut an den Schadgaska-nal, durch diesen hindurch) den Staubgehalt von Abgasen.

Es handelt sich hier um ein Transmissiometer nach dem Autokollimati-onsprinzip, d.h. am Ende der Messstrecke befindet sich ein justage-unempfindlicher Tripel-Reflektor, während Strahlungssender und –empfänger am Anfang der Messstrecke in einem Gehäuse zu einer kom-pakten Baueinheit zusammengefasst sind.

Den prinzipiellen Aufbau zeigt Abb. 4.56. Ohne näher auf die Datenblattwerte einzugehen, seien nachfolgend eini-

ge Kennwerte bzw. Eigenschaften des Gerätes genannt:

Messung mit einer Wellenlänge von = 590 nm (gepulst). Getrennte Empfänger für Messlicht und Referenz, damit weitgehende Überwachung interner Verschmutzung und Degradation. Messstreckenlänge von 0,5 m bis 15 m. Kleinster Messbereich: Extinktion 0,1 ( Transmission 80%) bei einer Genauigkeit von 4% des Messbereiches. Integrierte schwenkbare Messfilter zur laufenden Kontrolle des Mess- systems.Messbereiche und Funktionalität in weiten Bereichen parametrierbar.Umfangreicher Schutz gegen Einflüsse von Rauchgas (Temperatur bis zu 500° C).

Page 247: Photonik: Grundlagen, Technologie und Anwendung

4.6 Optische Sensoren für spezielle Anwendungen 227

Abb. 4.56. Transmissiometer

Streulichtmessung

Ein grundsätzlich anderes Verfahren ist die Streulichtfotometrie. Sie beruht drauf, dass eine in ein optisch inaktives Medium eindringende Strahlung an Partikeln, die sich in diesem Medium befinden, gestreut wird.

Eine geschlossene Theorie zu den oben genannten ist außerordentlich unübersichtlich. Gründe hierfür sind folgende Einflüsse:

Wellenlänge des einstrahlenden Lichtes. Größe, Form/Gestalt der Streupartikel. Mehrfachstreuung. Farbe der Partikel. Brechungsindex der Partikel.

Trotz diesen gravierenden Abhängigkeiten kommt man in der Messung des Staubgehaltes von (gering) belastetem Schadgas durch Kalibrierung, d.h. durch Vergleich mit gravimetrischen Methoden, zu brauchbaren Messergebnissen. Ein Gerät, welches das Streulichtprinzip ausnutzt, ist in Bild 4.57 schematisch dargestellt.

Page 248: Photonik: Grundlagen, Technologie und Anwendung

228 4 Sensoren

Abb. 4.57. Funktionsprinzip eines Staubgehaltsmessgerätes

Die Aufgabenstellung für Staubgehaltsmessgeräte ist die Erfassung sehr geringer Staubanteile in einem Abgasstrom, der bereits gefiltert wurde. Abbildung 4.57 zeigt schematisch die optische Anordnung: Von einer Strahlungsquelle (1) ausgehend wird ein Lichtbündel erzeugt und in den Rauchgaskanal gesendet. An der Stelle (2) schneiden sich die optischen Bündel des Sendekanals und des Empfangskanals, der das im Messvolu-men (2) aufgestreute Licht über den Empfangskollimator (3) und den Empfänger (4) erfasst.

Ist das den Kanal durchströmende Abgas völlig staubfrei, wird das Sen-delicht in einem Absorber (5) aufgefangen.

Das vom Empfänger aufgenommene Messsignal wird über einen einge-bauten Rechner verarbeitet und entsprechend einer zu erstellenden Kalib-rierfunktion in Staubgehalt (mg/m³) umgerechnet. Die Messwertverarbei-tung kann auch weitere Aufgaben übernehmen, beispielsweise eine Grenzwertbildung.

Page 249: Photonik: Grundlagen, Technologie und Anwendung

4.6 Optische Sensoren für spezielle Anwendungen 229

4.6.2 Gaskonzentrationsmessung

In vielen industriellen Prozessen wird nicht nur staubbeladenes Abgas aus-gestoßen. Vielmehr enthalten die Abgase sehr oft auch gasförmige toxischeAnteile. So ist zum Beispiel ein wesentlicher toxischer Anteil bei der Verbrennung von fossilen Brennstoffen Schwefeldioxid (SO2). In der Müll-verbrennung entsteht bei der Verbrennung von PVC Salzsäure (HCl).

Die Spektrometrie bietet hier die Möglichkeit, auf einfache Weise und berührungslos die Konzentrationen solcher Schadgase in Abluftströmen zu erfassen. Auch bei der Analyse von verunreinigtem Wasser wird mit der Spektralanalyse die Konzentration von Schadstoffen gemessen.

Das Funktionsprinzip der Spektralanalyse wird im folgenden kurz erläu-tert, für weitergehende Informationen wird auf Spezialliteratur verwiesen.

Funktionsprinzip

Molekularstrukturen können in Wechselwirkung mit einer elektromagneti-schen Strahlung zu charakteristischen Schwingungen angeregt werden. Ebenso ist es möglich, die Elektronenhülle eines Atoms in Wechselwir-kung mit einer elektromagnetischen Welle in bestimmte (vom Grundni-veau verschiedene) Anregungszustände zu bringen. Diese Vorgänge be-deuten, dass die Anregungsenergie der elektromagnetischen Welle, die den Stoff durchdringt, entnommen, also absorbiert wird.

Die diskreten Energieniveaus solcher Anregungszustände haben zur Folge, dass die anregende elektromagnetische Welle diese charakteristi-schen Frequenzen enthalten muss, um das Atom (oder Molekül) in einen solchen angeregten Zustand zu bringen. Die für die Anregung des Atoms (oder Moleküls) notwendige Energie wird dem Strahlungsfluss entzogen.

Abb. 4.58. Absorptionskurve HCl

Page 250: Photonik: Grundlagen, Technologie und Anwendung

230 4 Sensoren

Abbildung 4.58 zeigt die Absorption eines HCl-Moleküls im infraroten Strahlungsbereich um 3 µm.

Die Absorption ist proportional der Konzentration des Gases in einem Gasstrom. Auf diesem Prinzip beruhen Spektralfotometer, die beispielswei-se zur Analyse eines Abgasstromes eingesetzt werden. Es sie hier erwähnt, dass sich die zur Analyse eines Abgasstromes zur Verfügung stehenden Wellenlängen über einen großen Bereich von UV bis zu einem fernen IR erstrecken. Ausgehend von der Aufgabenstellung und der möglichen Ge-mischzusammensetzung wird man den entsprechenden Frequenzbereich für die Messung wählen. Ein spektralfotometrisch arbeitendes Gasanalysegerät wird im folgenden dargestellt.

Funktionsprinzip Gasanalysator

Eine Deuteriumlampe (Abb. 4.59, 1) erzeugt ein im UV liegendes Strah-lenbündel, das den Abgaskanal (5) durchtritt, am Reflektor (3) zurückge-worfen wird und über den Strahlteiler (2) in einen Gitter-Monochromator (4) eintritt. Die Welle ( = 217 nm bis 245 nm) wird am Gitter gebeugt und je nach Wellenlänge auf die verschiedenen Pixel der Diodenzeile ge-worfen. Aus der Absorption diskreter Wellenlängen wird auf die Schad-stoffkonzentration im Abgas (in diesem Fall NO, SO2, NH3 bzw. NO2)geschlossen. Auch hier werden über den eingebauten Rechner die Mess-wertverrechnung bzw. die Funktionssteuerung des gesamten Systems aus-geführt.

Abbildung 4.60 zeigt das an einer Messstelle eingesetzte Gerät.

Abb. 4.59. Schema eines Spektralphotometers zur Gasanalyse

Page 251: Photonik: Grundlagen, Technologie und Anwendung

4.7 Literatur 231

Abb. 4.60. Einsatz eines Gaskonzentrationsmessgerätes

4.7 Literatur

ANSI x.3 182 ISO/IEC 15416 Lenk B (2002) Handbuch der automatischen Identifikation Palmer R. C (2004) The BarCode Book Schilling F (2001) Optik und Spektroskopie. Harri Deutsch, Thum www.aimglobal.org www.sick.de

Page 252: Photonik: Grundlagen, Technologie und Anwendung

5 Optische Messtechnik

In der optischen Messtechnik werden optische Signale in elektrische um-gewandelt oder umgekehrt. Die optische Messtechnik bietet folgende gro-ße Vorteile: sie ist berührungslos und schnell (Messungen geschehen in Lichtgeschwindigkeit). Deshalb eignet sie sich hervorragend für direkte Messungen während des Prozesses und erlaubt beispielsweise online-Messungen zur Qualitätssicherung während des Fertigungsprozesses. Aus diesem Grunde spielt die optische Messtechnik für die Prüfverfahren im Qualitätsmanagement eine bedeutende Rolle. Im Folgenden werden die wichtigsten physikalischen Mess-Größen, ihre Mess-Prinzipien und ihre typischen Anwendungen vorgestellt (Abb. 5.1). In Abschn. 5.9 wird die interferometrische Submikrometer-Messtechnik als Beispiel für ein wichti-ges Anwendungsfeld in der Automobilindustrie vorgestellt.

Abb. 5.1. Physikalische Messgrößen und ihre Mess-Verfahren

5.1 Abstandsmessung

Für die Abstands- und Längenmessung werden hauptsächlich zwei Verfah-ren eingesetzt, für eine mittlere Genauigkeit das Verfahren der Triangula-tion und für hochgenaue Messungen interferometrische Verfahren, welche die Welleneigenschaften des Lichtes ausnützen.

Page 253: Photonik: Grundlagen, Technologie und Anwendung

234 5 Optische Messtechnik

5.1.1 Triangulation

Messprinzip

Bei dem Triangulationsverfahren wird die Länge einer Seite eines Drei-ecks aus einem Winkel und einer anderen Seite bekannter Länge bestimmt. Dabei wird ein Laserstrahl auf ein Werkstück gerichtet. Das auf der Ober-fläche des Werkstücks diffus in alle Richtungen gestreute Laserlicht wird unter einem vorgegebenen Winkel mit einem Objektiv auf einen positions-empfindlichen Detektor (PSD) abgebildet (Abb. 5.2).

Abb. 5.2. Messprinzip der Triangulation

Verschiebt man das Werkstück, so verändert sich die Position des re-flektierten Leuchtflecks auf dem Detektor. Aus der Lage des Bildfleckes auf dem PSD lässt sich bei der bekannten Abbildungsgeometrie der Ab-stand des Messobjekts in Bezug auf einen Referenzabstand bestimmen. Als Lichtquelle wird meist eine Leuchtdiode (LED) oder ein Halbleiterla-ser eingesetzt. Diese bieten den Vorteil einer einfachen Steuerung der In-tensität. Mittels einer Austastung bzw. hochfrequenter Modulation des La-serlichts lässt sich Fremd- und Störlichtunterdrückung realisieren. Es ist

Page 254: Photonik: Grundlagen, Technologie und Anwendung

5.1 Abstandsmessung 235

damit auch möglich, schnell bewegte Objekte anzutasten. Als Detektoren verwendet man in der Praxis Lateraleffektfotodioden oder CCD-Diodenzei-len, bei scannenden Systemen auch CCD-Bildsensoren.

Typische Anwendungen

Triangulationssensoren werden in vielfältiger Weise in der Prozesskontrolleund Qualitätssicherung eingesetzt. Die direkte Messung des Abstandes erlaubt es, geometrische Größen an festen und bewegten Werkstücken un-mittelbar zu messen. Folgende Eigenschaften werden gemessen (Abb. 5.3):

Ebenheit von Platten und Bauteilen, Rundlauf rotierender Bauteile, Dickenmessungen von Bandmaterial, Füllstandsbestimmung,Bestimmung der Profilkontur von Werkstücken mit gegenüberliegenden Sensorköpfen, Einsatz als berührungsfrei tastender Messkopf bei Koordinatenmessma-schinen,Anwesenheitskontrolle von Bauelementen auf Platinen.

Abb. 5.3. Anwendungsbeispiele für das Triangulationsverfahren

Genauigkeit

Die Empfindlichkeit des Triangulationssensors ist innerhalb seines Mess-bereiches nicht konstant; sie ist umso geringer, je weiter das Messobjekt vom Laser entfernt ist. Die Arbeits- bzw. Referenzabstände typischer, in-dustriell eingeführter Triangulationssensoren reichen von 20 mm bis 1.000 mm. Der Messbereich liegt dabei zwischen 1 mm und 250 mm und ist in etwa symmetrisch um die Referenzabstände. Die Auflösung liegt, je nach Arbeitsabstand, zwischen 1 m und 500 m. Allgemein ist

Page 255: Photonik: Grundlagen, Technologie und Anwendung

236 5 Optische Messtechnik

davon auszugehen, dass die Genauigkeit der Abstandsinformation besser ist als das 0,001-fache des Arbeitsabstandes zo.

5.1.2 Inkrementalgeber

Triangulationssensoren werden eingesetzt, wenn einerseits eine relativ freie Führung gewährleistet ist und zum anderen die Möglichkeit besteht,berührungslos antasten zu können. Sollen in Maschinen oder Geräten je-doch geführte Bewegungen hochgenau erfasst werden, so verwendet man Inkrementalgeber oder Interferometer. Beiden gemeinsam ist das Merk-mal, einen sehr großen Messbereich (bis mehrere m) bei einer Messauflö-sung im Bereich von 10 µm bis zu 1 nm erfassen zu können. Preisgünstige, aber dennoch sehr leistungsfähige Systeme finden beispielsweise in Tin-tenstrahldruckern zur Positionierung des Druckkopfes und des Papiervor-schubes Verwendung.

Absolute und inkrementelle Systeme

Inkrementelle Systeme messen von einer gegebenen Position ausgehend (Anzeige wird hier genullt) den Zuwachs des Weges (vorzeichenrichtig), wohingegen absolute Systeme jederzeit die Position gegenüber einem festen Koordinatenursprung kennen. Am einfachsten erhält man ein abso-lut messendes Systemerhalten, wenn zusätzlich zu der Gitterteilung der Maßverkörperung ein Index angebracht wird, der bei Überfahren den Zähler auf Null setzt bzw. die Messung triggert. Wesentlich sicherer sind jedoch Systeme, deren Maßstäbe eine absolute Kodierung für die Position besitzen (z.B. mit einem Binärkode). Befinden sich beispielsweise 14 Spuren nebeneinander, dann sind 214 = 16.384 diskrete Positionen unter-scheidbar. Kann die letzte, feinste Spur noch durch Interpolation in 100 Schritten pro Periode unterteilt werden, so kommt man schon auf 1.638.400 unterscheidbare Positionen. Ein Maßstab von 1,6 m Länge wäre also auf 1 µm genau auslesbar.

Messprinzip

Inkrementalgeber bestehen aus einer Maßverkörperung, beispielsweise einem schmalen, langen Streifen aus Floatglas, auf den eine sehr genaue, regelmäßig Teilung aus gleich breiten, opaken und transparenten Streifen aufgebracht ist, sowie einem Messkopf zur fotoelektrischen Registrierung der Teilung. Es existieren viele unterschiedliche Bauformen für den Mess-kopf, mit im Detail unterschiedlichen Wirkprinzipien.

Page 256: Photonik: Grundlagen, Technologie und Anwendung

5.1 Abstandsmessung 237

Abb. 5.4. Arbeitsprinzip eines Inkrementalgebers für ein absolutes Längenmess-gerät (Werkfoto: Heidenhain)

Abbildung 5.4 zeigt schematisch das Messprinzip des Inkrementalge-bers nach dem Prinzip der fotoelektrischen Abtastung feiner Strichgitter.Dabei werden die Änderungen der Lichtintensitäten einer Abtastplatte imVergleich zu einem Maßstab durch Fotozellen gemessen und daraus bei-spielsweise Längen oder Positionen ermittelt. In Abb. 5.4 ist das Prinzip für ein absolutes Längenmessgerät dargestellt. Dabei werden 7 Teilungs-

Abb. 5.5. Einsatz eines Inkrementalgebers zur Prüfung und Kalibrierung des dy-namischen Bahnverhaltens von Werkzeugmaschinen (Werkfoto: Kreuzgitter-Mess-gerät KGM 182 von Heidenhain)

Page 257: Photonik: Grundlagen, Technologie und Anwendung

238 5 Optische Messtechnik

spuren abgetastet. Sie sind so gewählt, dass aus den resultierenden Mess-Signalen aller Spuren eindeutig ein Bereich innerhalb der Messlänge defi-niert ist. Aus der feinsten Teilungsspur von 16 m lässt sich beispielsweise über eine Länge von 3 m ein Absolutwert mit einer Auflösung von 0,1 mrealisieren. Mit solchen Inkrementalgebern können, wie Abb. 5.5 zeigt, beispielsweise die Positioniergenauigkeiten (bzw. den Führungsfehler) bzw. das dynamische Bahnverhalten CNC gesteuerten Werkzeugmaschi-nen bestimmt werden. Das dargestellte Kreuzgitter-Messgerät kann bei-spielsweise Kreisform-Tests von 115 mm bis 1 m bei Bahnvorschüben bis zu 80 m/min berührungslos bestimmen.

5.1.3 Interferometer

Messprinzip

Das Grundprinzip eines Interferometers kann anhand Abb. 5.6 beschrieben werden.

Abb. 5.6. Schema eines Laser-Interferometers zur Längenmessung

Bezeichnungen: PSt – Polarisationsoptischer Strahlteiler; St – Strahltei-ler; S – Spiegel, AOM – akusto-optischer Modulator; TP1 – feststehendes Tripelprisma; TP2 – bewegliches Tripelprisma; /4 – Lambdaviertel-Plätt-chen zur Erzeugung zirkular polarisierten Lichtes; P – Polarisator; PPD - Pin-Photodiode; FG – Frequenzgenerator (treibt den AOM).

Abbildung 5.6 zeigt eine Vorrichtung zur vorzeichenrichtigen, hochge-nauen Messung der Verschiebung des Tripelprismas TP2 entlang einer Führung. Das Grundprinzip der Interferometrie beruht auf der Tatsache, dass bei der kohärenten (interferenzfähigen) Überlagerung von zwei Strah-len immer dann Verstärkung der gemessenen Intensität registriert wird, wenn die Lichtwege in den Interferometerarmen (gebildet durch den Strahlteiler PSt und die beiden Tripelprismen TP1 und TP2) sich um ein gerades Vielfaches von halben Wellenlängen unterscheiden. Eine Auslö-schung des Lichtes (oder wenigstens ein Interferenzminimum) erfolgt je-

Page 258: Photonik: Grundlagen, Technologie und Anwendung

5.2 Formmessung 239

doch immer dann, wenn der Wegunterschied ein ungerades Vielfaches derhalben Wellenlänge beträgt. Um zu einer vorzeichenrichtigen, hochgenau-en Registrierung der Bewegung zu kommen, wird vor das eigentliche In-terferometer zur Messung der Bewegung ein zweites Interferometer ge-stellt (bestehend aus den beiden Strahlteilerwürfeln PSt und St sowie den beiden Spiegeln S und dem akusto-optischen Modulator AOM), dessen geometrische Weglängen sich zwar nicht ändern, dessen optische Weglän-ge in einem der Arme jedoch durch einen AOM fortwährend verändert wird. Wird jedoch der Tripelspiegel TP2 auf den Teilerwürfel zu bewegt (positive Bewegungsrichtung z), so erhöht sich die Frequenz des Lichtes in diesem Interferometerarm während dieser Bewegung zusätzlich aufgrund des longitudinalen Dopplereffektes und es entstehen in dieser Zeit gerade 2z/ zusätzliche Interferenzstreifen. Diese Anzahl ist ein Mass für die Ver-schiebung des Tripelprisma TP2.

Typische Anwendungsfelder

Präzise Positionierung (1 nm) von Belichtungstischen für Wafer-Step-per zur Belichtung von integrierten Schaltungen; Schwingungsmessungen und -analysen;Vermessung der dynamischen Durchbiegung von Brücken unter Ver-kehrslast und ähnliches; Einmessen von fest integrierten Mess-Systemen, Feststellen der syste-matischen Restfehler (bzw. durch die Temperatur) und Kompensation durch eine Steuersoftware.

5.2 Formmessung

Die folgenden optischen Verfahren eignen sich insbesondere zur Messung und Bestimmung der geometrischen Form von Produkten.

5.2.1 Schattenwurfverfahren

Messprinzip

Ein paralleles Strahlenbündel (z.B. durch Aufweiten eines Laserstrahls) projiziert den Schattenwurf des zu vermessenden Objekts auf einen Licht-sensor, dessen Empfängerelemente (Pixel) in Zeilen oder Matrixform an-geordnet sind (Abb. 5.7).

Page 259: Photonik: Grundlagen, Technologie und Anwendung

240 5 Optische Messtechnik

Abb. 5.7. Arbeitsprinzip des Schattenwurfverfahrens

Die Helligkeitsinformation wird beispielsweise durch einen Mikrocont-roller ausgelesen. Aus den Positionen der Hell-Dunkelübergänge kann der Durchmesser eines Teils ermittelt werden. Bei einer einfachen, aber sehr schnellen Variante wird nur geprüft, ob die Helligkeit oberhalb oder unter-halb eines Schwellenwertes liegt. Hier ist die erreichbare Genauigkeit durch den Abstand der Pixel des Sensors gegeben. Eine höhere Genauig-keit (bis zu 1/10 des Pixelabstands) erzielt man bei Auswertung des Hel-ligkeitsverlaufs im Bereich der Kanten. Typische Pixelabstände liegen im Bereich von 10 m bis 120 m. Die Schattenprojektion gestaltet sich beson-ders einfach, wenn die zu vermessenden Teile im Produktionsprozess be-reits ausgerichtet vorliegen bzw. eine Ausrichtung ohne größeren Aufwand möglich ist (z.B. bei rotationssymmetrischen Teilen). Durch Verwendung eines parallelen Strahlengangs sind Variationen des Abstands zwischen Messobjekt und Sensor unkritisch.

Typische Anwendungsbereiche

Schattenwurfverfahren ermöglichen eine schnelle und berührungsfreieBestimmung geometrischer Abmessungen in zahlreichen Bereichen der Fertigungskontrolle. Sie zeichnen sich durch eine hohe Robustheit, Ge-nauigkeit und Schnelligkeit aus. Neben der Maßkontrolle bei der Ferti-gung von Massengütern, kann beispielsweise die Abisolierung von Kabel-enden, die Anwesenheit von Verschlusskappen (Abb. 5.8) oder ähnliches geprüft werden.

Page 260: Photonik: Grundlagen, Technologie und Anwendung

5.2 Formmessung 241

Abb. 5.8. Kontrolle der Anwesenheit von Verschlusskappen

5.2.2 Streifenprojektion

Einsatzbereich und Eigenschaften

Die Streifenprojektion ist eine Technik der berührungslosen optischen Formerfassung. Sie ergänzt die Koordinatenmesstechnik. Ihre Stärke liegt in der sehr schnellen und flächendeckenden Erfassung einer sehr großen Zahl von Koordinatenmesswerten (es entstehen sogenannte Punktewolken auf vielen 100.000 bis Millionen Koordinatentripeln x,y,z) und deren bild-hafte Darstellung und Weiterverarbeitung auf dem PC. Ein wesentlicher Vorteil ist die Tatsache, dass die Messwerte berührungslos und damit auch kräftefrei gewonnen werden. Damit können vor allem Materialien wie Stoff, Gummi, menschliche Haut und Ton bzw. Wachs vermessen werden.

Messprinzip

Eine Anlage zur berührungslosen Erfassung der 3D-Form einer Oberfläche besteht aus einer CCD-Kamera mit einem Messobjektiv mit fester Brenn-weite und einem Streifenprojektor. Abbildung 5.9 zeigt eine Anordnung, bei der Streifenprojektor und Kamera einen Winkel < 90° bilden.

In diesem Falle erscheinen die auf die Oberfläche projizierten Streifen von der Kamera aus betrachtet verbogen. In dieser Auslenkung der Strei-fen ist der z-Messwert des Oberflächenpunktes kodiert, aus dem mit ei-nem komplizierten Rechenverfahren die x,y-Koordinate errechnet wird. Dabei kann man sich in der Regel nicht auf ein einziges Streifenmuster beschränken, sondern es werden in der Regel eine Sequenz verschiedener Streifenmuster projiziert, die alle gemeinsam zur Auswertung herangezo-gen werden.

Page 261: Photonik: Grundlagen, Technologie und Anwendung

242 5 Optische Messtechnik

Abb. 5.9. Messprinzip einer Streifenprojektion

Typische Anwendungsbereiche

In der Praxis wird die Streifenprojektion in folgenden Bereichen ange-wendet:

Formerfassung von Designermodellen zur Überführung in eine CAD-gerechte Form (Reverse Engineering); Formerfassung kompletter Autokarossen (Zusammensetzung aus bis zu 250 Einzelansichten, Patches); Untersuchung von Formblechteilen von Automobilkarossen auf Dellen und Beulen direkt nach dem Umformvorgang zur Qualitätssicherung des Umformprozesses, Vermessung von Spritzgussteilen;

Page 262: Photonik: Grundlagen, Technologie und Anwendung

5.2 Formmessung 243

Untersuchungen zum Schrumpf-Prozess beim Abkühlen von Metall-gussteilen;Formerfassung des menschlichen Köpers oder von Teilen davon zur

Anfertigung von Maßanzügen, für plastische, rekonstruktive Chirurgie (Unfallchirurgie z.B. am Ge-sicht),berührungslose Abformung des Gesichtes zur Anfertigung von Mas-ken, Anfertigung von orthopädischen Schuhen z.B. für Diabetiker, Untersuchung von Wundheilungsprozessen;

Einjustierung von Koordinatensystemen bei der Fusion von Bildern aus der Computer Tomographie mit Bildern z.B. aus Operationsmikrosko-pen zur sicheren Navigation bei schwierigen Operationen (z.B. Gehirn-chirurgie) oder Formerfassung des Gebisses und von Bohrlöchern in Zähnen zur Anfer-tigung von Inlets.

Schwierigkeiten entstehen bei der Erfassung von glänzenden Oberflä-chen (Christbaumkugel), sehr scharfen Kanten (Schneide eines Messers), sehr dunklen Oberflächen (Gummi oder schwarzer Samt) oder in einer Umgebung, die stark von Fremdlicht beeinträchtigt wird (Werkhalle ohne Messkabine), sehr stark strukturierten („zerklüfteten“) Körpern (Haarbürs-te) oder Sacklöchern (Bohrungen).

Die Genauigkeit des z-Messwertes liegt im Bereich von typischerweise 1/1.000 bis zu 1/50.000 der Bildfelddiagonale bei besonders flachen Tei-len. Die x-y-Auflösung ist durch die Pixelzahl der zur Bilderfassung ver-wendeten CCD-Kamera gegeben; jedes Pixel liefert einen z-Messwert; typische Werte sind von ca. 580 720 Pixel bis zu > 1.000 1.200 Pixel. Hier sind weitere Fortschritte zu erwarten.

5.2.3 Weißlichtinterferometrie

Einsatzbereich und Eigenschaften

Bei der Weißlichtinterferometrie verwendet man Lichtquellen mit kurzerKohärenzlänge, welche sich, wie der Name des Verfahrens bereits andeu-tet, durch ein breites Spektrum auszeichnen. Solche Eigenschaften besitzen beispielsweise klassische Lichtquellen wie Halogen- oder Entladungslam-pen. Das Prinzip ist in Abb. 5.10 zu erkennen. Durch die sehr kurzen Emis-sionszeiten des Lichts auf atomarer Ebene und durch Störungen der Emis-sionsprozesse in der Lichtquelle liegt die zeitliche Länge der von spektral breiten Lichtquellen emittierten Wellenpakete im Femtosekundenbereich.Eine Kohärenzzeit im Femtosekundenbereich entspricht einer Kohärenz-

Page 263: Photonik: Grundlagen, Technologie und Anwendung

244 5 Optische Messtechnik

länge im Mikrometerbereich. Dadurch ist die Absolutbestimmung des Ab-stands zwischen Objektpunkt und Strahlteiler im Nanometerbereich mög-lich. Mit den Superlumineszenzdioden mit guter räumlicher Kohärenz und Strahlqualität ist der Interferenzkontrast mit dem Laser vergleichbar ge-worden.

Messprinzip

Abbildung 5.10 zeigt ein Interferometer mit einer kurzkohärenten Licht-quelle. Der Lichtstrahl wird mit Hilfe eines Strahlteilers in einen Referenz-strahl und in einen Probenstrahl aufgespalten. Der Referenzstrahl wird vom Referenzspiegel zurückreflektiert. Der Probenstrahl wird auf einen Objektpunkt fokussiert, dessen Position bestimmt werden soll. Der vom Objekt zurückgestreute Strahl wird am Detektor mit dem zurückreflektier-ten Referenzstrahl überlagert.

Verschiebt man den Referenzspiegel, der sich zunächst an der Position x = 0 befindet, in Strahlrichtung um x, so erhält man das in Abb. 5.11 gezeigte Interferenzsignal. Kennt man die Position des Referenzspiegels in dieser Stellung, so kennt man damit auch den zu bestimmenden Abstand des Objektpunkts.

Abb. 5.10. Aufbau eines Interferometers zur Abstandsmessung

Page 264: Photonik: Grundlagen, Technologie und Anwendung

5.3 Verformungsmessung mit der Holografischen Interferometrie 245

Abb. 5.11. Interferenzsignal am Detektor mit Weißlichtquelle (dicker Strich) und Laser

Typische Anwendungsbereiche sind:

Dreidimensionale Vermessung von rauen Oberflächen, welche das Messlicht gleichzeitig streuen und reflektieren. Die ebenfalls eingesetz-ten mechanischen Tastverfahren arbeiten sequentiell und benötigen da-her lange Messzeiten; die alternativen optischen Verfahren wie Laserin-terferometrie und Streifenprojektion sind weniger genau. Berührungslose Messung von einfachen Geometrien von Produkten wie Glasrohre, Bleche oder Folien. Die Vorschubgeschwindigkeiten sind dort einige Meter pro Sekunde mit Messgenauigkeiten im Mikrometer-bereich und darunter. Dreidimensionale Vermessung von Mikrostrukturen (z.B. Höhenprofile und Abstände) im Nanometerbereich.

5.3 Verformungsmessung mit der HolografischenInterferometrie

Einsatzbereich

Holografische interferometrische Untersuchungen werden im Rahmen der Qualitätssicherung für sicherheitsrelevante Bauteile durchgeführt, deren Fehlerfreiheit unbedingt gewährleistet und dokumentiert werden muss (z.B. Treibstofftanks für Raketen, Castorbehälter oder Flugzeugreifen).Ziel ist es hierbei, Fehler (z.B. Lunker, Schweißnahtfehler oder Ablösun-gen von Laminaten) sichtbar werden zu lassen. Im Entwicklungsbereich wird die Holografie in der vorbeugenden Qualitätssicherung ebenfalls ein-gesetzt, und zwar hauptsächlich zum Aufspüren von Geräuschquellen, beispielsweise an Autokarossen, Motor-Getriebeblöcken, Bremsscheiben

Page 265: Photonik: Grundlagen, Technologie und Anwendung

246 5 Optische Messtechnik

oder Autoreifen sowie zur experimentellen Prüfung von Verformungen spezieller Bauteile (z.B. im Flugzeugbau). Diese Untersuchungen werden heute meist flankierend zu Berechnungen mit der Methode der Finiten Elemente durchgeführt.

Messprinzip

Die Grundidee der holografischen Interferometrie besteht darin, zwei Zu-stände eines Objektes, die zeitlich nacheinander vorliegen, mit Hilfe der Holografie aufzuzeichnen und ihre Bilder gleichzeitig zu rekonstruieren. Die gleichzeitig vorhandenen Bilder sind in der Lage, miteinander zu inter-ferieren, so, als ob beide Zustände gleichzeitig vorliegen würden. Aus den sichtbar werdenden Interferenzen können die Verformungsvektoren bzw.die Abweichungen quantitativ ermittelt werden. Abbildung 5.12 zeigt eine mögliche Anordnung zur holografischen Untersuchung eines Objektes.

Abb. 5.12. Anordnung zur interferometrischen Holografie

Für die Aufnahme des Hologramms müssen zwei Teilbelichtungen auf die gleiche holografische Filmplatte aufgezeichnet werden; zwischen diesen Belichtungen wird die Belastung des zu untersuchenden Objektes geändert. Für die erste Belichtung sind die Verschlüsse 1 und 3 geöffnet, so dass das Objekt mit der Beleuchtungswelle beleuchtet und gleichzei-tig die Hologrammplatte mit der Referenzwelle 1 bestrahlt wird. Die von der rauen Objektoberfläche diffus reflektierte Welle interferiert aufgrund der Kohärenz des Laserlichtes zu einem raumfesten, stationären Mikroin-terferenzmuster, den sogenannten Speckles, die mikroskopisch kleine

Page 266: Photonik: Grundlagen, Technologie und Anwendung

5.3 Verformungsmessung mit der Holografischen Interferometrie 247

Hell-Dunkel-Erscheinungen in dem Raum vor dem Objekt bilden. Jedes dieser Speckles besitzt eine eigene Phase der Lichtwelle, die durch die Mikrorauheit und die Position der Objektoberfläche festgelegt wird. Die-se Phase der Speckles wird in einem mikroskopisch feinen Interferenz-muster in der Hologrammplatte gespeichert, wobei die Speckles mit der ebenfalls einstrahlenden, intensitätsstarken Referenzwelle interferieren. Diese liefert sozusagen die Bezugsphase für das Specklefeld. Nach der Verformung des Objektes erfolgt die Belichtung 2, wobei nun die Ver-schlüsse 2 und 3 geöffnet werden. Die nun aufgezeichneten Phasen des aufgrund des neuen Lastfalles leicht modifizierten Specklefeldes werden bezüglich der Phase der Referenzwelle 2 aufgezeichnet. Hierbei ist we-sentlich, dass sich die Mikrostruktur der Oberfläche durch die Verfor-mung nicht geändert hat, wohl aber ihre makroskopische Position. Die beiden holografisch gespeicherten Specklefelder unterscheiden sich also ebenfalls nicht in ihrer mikroskopischen Feinstruktur, wohl aber in ihrer makroskopischen Phasenlage zueinander. Nach der Entwicklung der Hologrammplatte kann diese mit Hilfe der beiden Referenzwellen 1 und 2 rekonstruiert werden. Jetzt werden also die beiden Verschlüsse 1 und 2 geöffnet; das Objekt selbst wird nicht mehr benötigt. Dabei rekon-struiert Referenzwelle 1 das erste Specklefeld, Referenzwelle 2 das zweite Specklefeld. Da beide Felder eine nahezu identische Feinstruktur der Phase aufweisen, können sie miteinander interferieren. Die Interfe-renzstreifen zeigen jeweils eine Phasenänderung um 2 an, was einer Verformung der Oberfläche um etwa /2 entspricht, wobei die Wel-lenlänge des Lasers bei der Hologrammaufnahme ist. Die Interfe-rogramme werden mit einer CCD-Kamera aufgenommen und mit Com-puterprogrammen ausgewertet. Abbildung 5.13 zeigt das Schwingungs-verhalten von Turbinenschaufeln.

Abb. 5.13. Drei verschiedene Schwingungsmoden einer Turbinenschaufel: 16.680Hz, 21.400Hz, 32.983Hz (Werkfoto: Kiemle & Röss)

Page 267: Photonik: Grundlagen, Technologie und Anwendung

248 5 Optische Messtechnik

Abbildung 5.14 zeigt das interferometrische Hologramm einer an 5 Punkten eingespannten Platte.

5.4 Spannungs-, Dehnungs-, Kraftmessung

5.4.1 Spannungsoptische Verfahren

Spannungsmessungen an transparenten Bauteilen lassen sich traditionell mit spannungsoptischen Verfahren durchführen. Viele lichtdurchlässige, optisch isotrope Körper werden durch elastische Verformung wie Zug, Druck, Biegung und Torsion doppelbrechend. Befinden sich diese Bauteile zwischen zwei gekreuzten Polarisatoren, so hellt sich das Gesichtsfeld an den Stellen auf, an denen durch Deformation die Brechzahl verändert wurde. Um bei lichtundurchlässigen, komplizierten oder besonders großen Bauteilen die Verteilung der Spannung untersuchen zu können, bringt man maßstabsgetreue Modelle in den Strahlengang zwischen die gekreuzten Polarisationsfilter. Als Material für die Modelle verwendet man Kunsstof-fe, beispielsweise Phenolharze. Unter Belastung entstehen Aufhellungen, im weißen Licht Linien gleicher Farbe, sogenannte Isochromaten. Diese entsprechen den Gebieten mit gleicher Hauptspannungsdifferenz. Durch Abzählen der Isochromaten kann man auf die Höhe der Spannung und ihre Verteilung schließen. Sie sind anschaulich die Höhenlinien des Belas-tungsgebirges (Abb. 5.15).

Abb. 5.14. Speckle-Interferomterie an einer an 5 Punkten eingespannten und mit gleichmäßigem Druck belasteter Platte

Page 268: Photonik: Grundlagen, Technologie und Anwendung

5.4 Spannungs-, Dehnungs-, Kraftmessung 249

Abb. 5.15. Isochromaten eines druckbelasteten Zylinders

5.4.2 Speckle-Pattern-Interferometrie (ESPI)

Spannungen und Spannungsverteilung an einer zugbelasteten Probe lassen sich mittels Speckle-Interferometrie direkt an der Universalprüfmaschine aus der Dehnung der Probe ermitteln. Das Verfahren ist in Abschn. 5.3 beschrieben.

5.4.3 Faseroptische Sensorik (FOS) zur Spannungs- undDehnungsmessung

Die Vorteile faseroptischer Sensoren sind augenscheinlich: Unempfind-lichkeit gegenüber extremen Umgebungsbedingungen (z.B. elektromagne-tische Felder, Umwelteinflüsse, Chemikalien, hohe und tiefe Temperatu-ren), Miniaturisierung, Gewichtseinsparungen, einfache Integration in Bauteile, insbesondere in Faserverbundwerkstoffen. Lange Lebensdauer und geringer Wartungsaufwand verbinden sich mit hoher Messgenauig-keit. Der Einsatz faseroptischer Sensoren (FOS) in Messtechnik und Quali-tätssicherung wird begünstigt durch die enormen Fortschritte in den opti-schen Technologien und der Telekommunikation mit kostengünstig erhältlichen Komponenten: den Fasern, Halbleiterlasern, Optokopplern und der zugehörigen Signalelektronik. Die Fiber-Bragg-Grating-Sensoren stehen dabei an der Schwelle der industriellen Einführung und werden zu den wichtigsten Messtechniken gehören.

Faseroptische Sensoren mit Multimodefasern

Die Lichtausbreitung erfolgt durch Totalreflexion zwischen Fasermantel und Faserkern. Bei Multimodefasern liegt der Kerndurchmesser bei 50 m. Es wird die Änderung der Lichtintensität durch Krafteinwirkung

Page 269: Photonik: Grundlagen, Technologie und Anwendung

250 5 Optische Messtechnik

auf die Faser gemessen. Durch Krafteinwirkung auf die Faser ändert sich die durch die Faser transmittierte Intensität auf Grund von Verlusten durch Modenauskopplung (Abb. 5.16).

Abb. 5.16. Schematische Darstellung der Kraftmessung mit faseroptischen Senso-ren

Eine Änderung der Lichtmodulation kann auch durch eine Belastung außerhalb der Faser hervorgerufen werden. Der FOS besteht dabei aus einer Sende- und einer oder mehreren Empfängerfasern. Dabei wird das von einer Membran in die Faser zurückgestreute oder zurückreflektierte Licht gemessen. Variiert der Abstand der Membran zum Faserende auf Grund eines äußeren Druckes, so ändert sich die von der Empfängerfaser aufgenommene Lichtmenge (Abb. 5.17).

Abb. 5.17. Faseroptischer Drucksensor mit einer Membran zur Druckaufnahme

Page 270: Photonik: Grundlagen, Technologie und Anwendung

5.4 Spannungs-, Dehnungs-, Kraftmessung 251

Sensoren mit Monomodefasern (Faserinterferometer)

Wegen des geringen Faserkerndurchmessers von etwa 5 m kann sich nur ein Wellenmodus entlang der Faser ausbreiten. Bei der Messung wird die Verschiebung der Phase im Lichtwellenleiter (LWL) ermittelt, die durch die Einwirkung einer äußeren Kraft hervorgerufen wird. Durch die Über-lagerung des Lichts aus einem Mess-LWL mit dem eines Referenz-LWL lässt sich die Phasenänderung bis zu einer Genauigkeit von 10-6 rad bestimmen. Damit lässt sich ein Verschiebeweg von 10 nm auflösen.

Fiber-Bragg-Grating-Fasersensoren (FBGS)

Bei Fiber-Bragg-Grating-Fasersensoren handelt es sich um Monomode-Glasfasern (Kerndurchmesser 5 m), in die eine Gitterstruktur mit einer periodischen Brechzahländerung eingeprägt wird. Diese Gitterstruktur reflektiert das durchlaufende Licht bei der sogenannten Bragg-Wellen-länge, d.h. bei einer Wellenlänge B, die dem Zweifachen der Gitterperio-de d entspricht. Andere Wellenlängen werden ohne wesentliche Abschwä-chung durchgelassen. Die FBG-Sensoren werden zur Spannungsmessung in die zu überwachende Struktur eingebettet. Wird die Faser einer Zug-spannung oder einer Temperaturänderung unterworfen, so ändert sich auf Grund der Dehnung der Faser die Gitterperiode (und die Brechzahl) und damit die Wellenlänge des reflektierten Laserlichtes. Aus der Wellenlän-genänderung lassen sich Dehnungen und Zugspannungen sehr genau bestimmen. Der Messbereich für die Dehnung der FBGS reicht von 103 m pro Meter Faserlänge bis +104 m/m und besitzt eine relative Auf-lösung bis zu 1 m/m ( ). Die Messtechnik ist sehr robust, weil nicht die Intensität, sondern die Wellenlängenänderung des reflektierten Lichtes gemessen wird. Allerdings ist häufig eine Temperaturkompensation erfor-derlich (z.B. durch einen weiteren FBGS für die Temperatur). Die Länge eines Bragg-Gitters liegt bei 1 mm. In eine Faser lassen sich mehrere Git-ter unterschiedlicher Periode an beliebig verschiedenen Stellen einschrei-ben. Damit eröffnet sich die Möglichkeit, mit einer Faser eine Vielzahl von Mess-Stellen (bis zu 100) gleichzeitig zu überwachen. Wird zusätzlich die Laufzeit des reflektierten Signals bestimmt, so lassen sich die Stellen der äußeren Kraft- oder Lasteinwirkung angeben. Die erreichbare Ortsauflö-sung liegt (bei Faserlängen von 1 km) bei etwa 1 m. Als Lichtquelle wird ein breitbandiger Laser (z.B. eine Superlumineszensdiode) oder ein durch-stimmbarer Laser eingesetzt. Auch das Verfahren des Wellenlängenmulti-plexing findet Anwendung. Da die Signalgewinnung schnell erfolgt, ist es möglich, dynamische Lastwechselvorgänge an Bauteilen zu messen und Schwingungen- und Vibrationen auszuwerten. Die Abtastfrequenzen rei-chen im Augenblick bis 500 Hz. Vorteilhaft ist dabei die im Vergleich zu anderen Sensoren (z.B. Dehnmess-Streifen) außerordentlich lange Lebens-

Page 271: Photonik: Grundlagen, Technologie und Anwendung

252 5 Optische Messtechnik

dauer der FBGS, die mehr als 106 Belastungszyklen standhält, sowie ihre Stabilität über lange Zeiträume (> 25 Jahre).

Anwendungen

Es sind in der nahen Zukunft weitreichende Anwendungen bei vielen Mess- und Überwachungsaufgaben (Monitoring) in Luft-und Raumfahrt, im Automotive-Bereich und in der Bautechnik zu erwarten:

Integration von FBGS in Bauteile aus Verbundwerkstoffen, z.B. in die Tragflügel von Verkehrsflugzeugen, in die Rotorblätter von Hubschrau-bern, in den Mast von Hochseeyachten, zur Untersuchung und der Ü-berwachung von statischen und dynamischen Belastungen. Integration von FBGS in Schiffsrümpfen, Treibstoffbehälter von Flug-zeugen und Raketen sowie Karosserien. Überwachung (Monitoring) von Bauwerken mit langreichweitigen Fa-sern und mit Fasernetzen, beispielsweise Staudämme, Hängbrücken, Hochhäuser, Kernreaktoren, Tunnel oder Offshore-Anwendungen.

5.5 Schwingungsmessung

Optische Verfahren messen und analysieren Schwingungen bzw. Vibratio-nen von Oberflächen und von Bauteilen ohne mechanischen Kontakt zur Oberfläche. Da die Messung masselos erfolgt, ist sie ohne Verfälschung der Schwingung- und Schwingungsform durch das Eigengewicht des Sen-sors. Für die punktuelle Vermessung schwingender Bauteile eignen sich spezielle ausgelegte Triangulationssensoren (Abschn. 5.1), sowie für hohe Genauigkeitsanforderungen insbesondere Laser-Doppler-Vibrometer. Mit Verfahren der holografischen Interferometrie und der Speckle-Pattern-Interferometrie lassen sich Bauteilschwingungen flächenhaft beobachten und analysieren.

5.5.1 Laser-Doppler-Vibrometer

Messprinzip

Beim Laser-Doppler-Vibrometer handelt es sich um ein interferometri-sches Einpunktverfahren das hohe Empfindlichkeit und große Bandbreite in sich vereinigt (Abb. 5.18).

Page 272: Photonik: Grundlagen, Technologie und Anwendung

5.5 Schwingungsmessung 253

Abb. 5.18. Aufbau eines Laser-Doppler-Vibrometers

Das kohärente Licht eines Helium-Neon-Lasers wird in einem ersten Strahlteiler BS 1 in einen Mess- und einen Referenzstrahl aufgespalten. Der Referenzstrahl gelangt über BS 3 direkt auf die Detektoren D1 und D2. Der Messstrahl passiert den Strahlteiler BS 2 und wird mit Hilfe eine Projektionsoptik (Linse) auf das schwingende Objekt abgebildet. Das vom Objekt zurückgestreute Licht gelangt über die Strahlteiler BS 2 und BS 3 auf die Detektoren D1 und D2 auf denen sich die beiden Signale jeweils überlagern. Durch die Bewegung der Oberfläche wird das von der Ober-fläche zurückreflektierte Licht wegen des Dopplereffektes in seiner Fre-quenz verändert. Die Frequenzverschiebung des rückgestreuten Lichtes ist direkt proportional der Geschwindigkeit der angetasteten Oberfläche.

Messbereich

Mit dieser Technik können Bauteilgeschwindigkeiten bis 10 m/s erfasst wer-den und sie erlaubt auch die Erkennung der Bewegungsrichtung der Objekte. Man kann Laser geringer Leistung (Laser-Klasse 2, Leistung kleiner 1 mW) verwenden, so dass der Einsatz des Verfahrens nicht auf Grund von Sicher-heitsauflagen eingeschränkt ist. Die Amplitude der Bauteilschwingung lässt sich unabhängig von der Schwingungsfrequenz absolut bestimmen. Die hohe Auflösung reicht je nach Arbeitsbereich von etwa 0,01 m bis 40 m. In Abb. 5.19 ist der typische Arbeitsbereich eines Laser-Vibrometers und der holografischen Doppelpuls-Interferometrie dargestellt.

Page 273: Photonik: Grundlagen, Technologie und Anwendung

254 5 Optische Messtechnik

Abb. 5.19. Arbeitsbereiche des Laser-Vibrometers und der holografischen Interfe-rometrie

Typische Anwendungsbereiche

Abbildung 5.20 zeigt typische Anwendungen bei der Qualitätssicherung aus den Bereichen Automobilbau, Maschinenbau, Computertechnik und Elekt-ronik.

Schwingungs- und Modalanalyse an Karosserieblechen und Motorblö-cken sowie Vibrationsanalyse an rotierenden Bremsscheiben oder am Ventiltrieb von Zylinderköpfen. Schwingungsuntersuchungen an Werkzeugmaschinen, insbesondere an rotierenden Teilen, wie Spindeln und Werkzeugen. Über die Schwin-gungsanalyse ist die Untersuchung und frühzeitige Erkennung von La-gerschäden möglich. Untersuchung der Wobbelbewegung von rotierenden Festplatten und der Bewegung der Schreib- Leseköpfe. Schwingungsmessung an bewegten Audio- und Videobändern.Einsatz bei der Untersuchung der Qualität von Lötstellen in elektronischen Schaltungen (Platine muss dabei zu Schwingungen angeregt werden). Aufgrund der Fokussierbarkeit des Laserstrahls auf wenige m sind Messungen an sehr kleinen Strukturen, beispielsweise an Drähten, Na-deln von Druckern oder Relais-Kontakten möglich. Schwingungsanalyse an Lautsprechermembranen.

Page 274: Photonik: Grundlagen, Technologie und Anwendung

5.5 Schwingungsmessung 255

Abb. 5.20. Typische Anwendungen für Laser-Doppler-Vibrometer

Faseroptische Vibrationssensoren

Benutzt man den Referenzarm des Interferometers als zweiten Messarm so erhält man ein Vibrometer mit dem man den Bewegungsunterschied zwi-schen zwei angetasteten Messpunkten erfassen kann (Zwei-Punkt-Vibro-meter). Besonders flexible Einsatzmöglichkeiten ergeben sich, wenn das Laserlicht über zwei polarisationserhaltende Lichtfasern zu den Messköp-fen transportiert wird (differenzielles faseroptisches Vibrometer). Damit lassen sich beispielsweise Rotations- und Torsionsschwingungen eines rotierenden Laufwerkes erfassen.

In der zukünftigen Entwicklung werden faseroptische Systeme eine be-sondere Rolle spielen. Es ist mit dieser Technik möglich, Vibrationssenso-ren auf der Basis von Mikrointerferometern extrem zu miniaturisieren. Sie sind völlig unempfindlich gegen elektromagnetische Störungen und sie sind leicht in Sensornetze integrierbar, deren Ausdehnung bis in den Kilo-meterbereich reichen können. (Abschn. 5.7 Fasersensoren)

5.5.2 Holografische Interferometrie und Speckle-Pattern-Interferometrie

Holografische Verfahren und die Speckle-Messtechnik werden insbesonde-re zur genauen Verformungsmessung von Bauteilen eingesetzt: Das Mess-prinzip ist in Abschn. 5.2 beschrieben. Beide Verfahren lassen sich aber auch zur Untersuchung von stationären Schwingungen einsetzen. Man benutzt hierbei das sogenannte Zeit-Mittelungsverfahren. Dabei werden bei der Aufnahme auf dem Hologramm bzw. der CCD-Kamera innerhalb der Belichtungszeit mehrere Schwingungen aufgezeichnet. Das entstehen-de Interferogramm zeigt flächenhaft über dem Objekt Interferenzlinien als Orte gleicher lokaler Schwingungsamplitude (Abb. 5.21).

Page 275: Photonik: Grundlagen, Technologie und Anwendung

256 5 Optische Messtechnik

Abb. 5.21. Schwingungen einer Lautsprechermembran (Labor für optische Mess-technik der FH Aalen)

Mit solchen Untersuchungen lassen sich auch quantitative Angaben über die räumliche Verteilung der Schwingungsamplituden von Bauteilen ge-winnen.

5.6 Temperaturmessung

Messprinzip

Mit optischen Messungen im infraroten, nicht sichtbaren Spektralbereich kann die Temperatur von festen, flüssigen oder gasförmigen Körpern sehr schnell, berührungsfrei und mit geringem Fehler bestimmt werden. Die Geräte messen die vom Messobjekt abgestrahlte Strahldichte und berech-nen mit Hilfe des Planck´schen Strahlungsgesetzes die Oberflächentempe-ratur des Messobjektes.

Im Gegensatz zur berührenden Temperaturfühlern haben Strahlungs-temperatur-Messgeräte folgende Vorteile:

Sie beeinflussen nicht das Messobjekt. Das Messergebnis ist nicht ab-hängig von der Messentfernung. Sie sind etwa um den Faktor 1.000 schneller. Bei Temperaturen über 1.300°C sind sie die einzige kostengünstige Möglichkeit der Temperaturmessung. Sie sind sehr wirtschaftlich, wenn viele Temperaturwerte gleichzeitig auf einer Fläche gemessen werden sollen.

Der vom Messgerät genutzte Wellenlängenbereich richtet sich nach der Messaufgabe. Bei heißen Messobjekten (>500°C) wird das nahe Infrarot genutzt. Bei Objekten im Raumtemperaturbereich kommt das mittlere Infrarot bis 14 µm zum Einsatz. Bei großen Messentfernungen nutzt man

Page 276: Photonik: Grundlagen, Technologie und Anwendung

5.6 Temperaturmessung 257

die atmosphärischen Fenster von 3 µm bis 5 µm oder 8 µm bis 14 µm. Zum Messen der Oberflächentemperatur von Kunststoffen oder Gläsern werden spezielle Spektralbereiche genutzt.

Messgeräte

Die Strahlungstemperatur-Messgeräte werden in 3 Gruppen eingeteilt:

Strahlungsthermometer (von einer runden Fläche wird die Durch-schnittstemperatur ermittelt). Linescanner (eine Messlinie wird abgetastet und die Temperatur wird entlang der Linie berechnet). Thermografie-Kamera (das Messobjekt wird als Farbbild dargestellt, wobei der Farbwert einem Temperaturwert zugeordnet ist).

Strahlungsthermometer (Pyrometer)

Der zu messende Gegenstand wird dabei durch einen Laserpointer odereinen optischen Sucher anvisiert. Der Temperaturwert wird auf einem Dis-play angezeigt oder als elektrisches Signal an einer Standard-Schnittstelle zur Verfügung gestellt. Die Messgeräte werden bezüglich ihrer Optik, Elektronik und Spektralbereich auf den Anwendungszweck optimiert. Bei-spiele für Kennwerte von industriell einsetzbaren Strahlungsthermometern sind in Tabelle 5.1 enthalten.

Tabelle 5.1. Kennwerte von Strahlungsthermometern

Messgröße Typische Werte Messtemperatur-Bereich, unterteilt in Abschnitte

-100°C bis 3.000°C

Messunsicherheit 0,1 K 0,1% des Messwertes Rauschäquivalente Temperatur-auflösung

0,05 K bei Messtemperatur 20°C, Einstellzeit t90 = 0,25 s

Distanzverhältnis 1:1 bis 100:1 (Messentfernung/Messfelddurchmesser)

Einstellzeit bei Temperatursprung (25°C auf 1.000°C)

50 ms (90% des Endwertes)

Bevorzugte Einsatzgebiete

Unzugängliche, aggressive, spannungsführende oder weit entfernte Messobjekte.Schnell bewegte Messobjekte, wie Folienbahnen, Walzen, sich drehende Teile oder Fahrzeuge in Bewegung.

Page 277: Photonik: Grundlagen, Technologie und Anwendung

258 5 Optische Messtechnik

Objekte mit schneller Temperaturänderung, wie Impulsheizer, Kühl- und Heizgeräte. Objekte mit geringer Wärmeleitfähigkeit wie Glas, Kunststoffe, hochle-gierte Stähle, Keramik, Grafite oder Faserverbundwerkstoffe. Messung durch Sichtfenster hindurch auf das dahinter befindliche Messobjekt, wie in Öfen, Vakuumkammern. Kleine Messobjekte, Spitzen, Drähte, Gitter, Netze oder Folien. Objekte mit unterschiedlicher Oberflächentemperatur-Verteilung, wie Bauwerke, biologische Objekte, Glas- oder Kunststoffbahnen während der Herstellung. Schnelles Erkennen von Veränderungen, wie bei der Geländeüberwa-chung, Prüfung von elektronischen Baugruppen, Brandherdlokalisation oder vorbeugende Instandhaltung.

Linescanner und Thermografiekameras

Linescanner messen gleichzeitig entlang einer Linie die Temperaturvertei-lung. Thermografiekameras stellen die Temperaturverteilung als flächiges Bild (meist in Farbe) dar. Häufig ist rot die höchste und blau die niedrigs-te Temperatur, so dass man schnell einen exakten Überblick bekommt. Die Bildgeräte liefern wertvolle Informationen für die Qualitätssicherung in der Entwicklung und der Produktion. Typische Kennwerte von indus-triell einsetzbaren Thermografiesystemen sind in Tabelle 5.2 zusammen-gestellt.

Tabelle 5.2. Kennwerte von Thermografiesystemen

Messgrößen von Thermografiesystemen Typische Werte Messtemperatur-Bereich, unterteilt in Abschnitte

-50°C bis 2.000°C

Messunsicherheit 1 K 0,5% des Messbereiches Rauschäquivalente Temperaturauflösung 0,02K am Hohlraumstrahler bei 30°C Geometrische Auflösung 1mrad x 1mrad Pixel pro Bild 104 bis zu 106

Bildfrequenz 0,5 Hz bis 60 Hz

Bevorzugte Eisatzgebiete

Thermografiekameras und Linescanner werden überall dort eingesetzt, wo Bilder einen schnellen Überblick bringen:

Page 278: Photonik: Grundlagen, Technologie und Anwendung

5.6 Temperaturmessung 259

Inspektion von energietechnischen Anlagen (Generatoren, Motoren, Hochspannungsleitungen, Transformatoren, Öfen oder Auspuffe). Analyse der Wärmeisolation von Gebäuden und Fehlerlokalisation bei der Winddichtheit und Lecks in der Fußbodenheizung. Überwachung von Erwärmungs- und Abkühlprozessen bei Bahnware, Stangen, Drähten oder Folien. Auffinden von Heißläufern an Lagern. Temperaturüberwachung bei der Lebensmittelproduktion (Kakaoer-zeugnisse, Backwaren). Optimierung von Reibwiderständen (Reifenprüfung, Bremsbeläge oder Anströmflächen). Prüfung von Wärmeaustauschern, Nachweis der Wirkung der Wärme- oder derKälteisolation.Lokalisation der thermischen Belastung von Gewässern, Deponien oder Lecks in Fernwärmeleitungen.

Eine Kombinationen von Thermografiekamera und Wärmewellen-Messtechnik (Lock-in-Thermografie) eröffnet neue Möglichkeiten der zerstörungsfreien Werkstoffprüfung. Damit können Delaminationen in Schichtwerkstoffen, Risse und Inhomogenitäten in größeren Tiefen sicht-bar gemacht werden (Abb. 5.22).

Abb. 5.22. Thermografie der Frontscheibe eines PKW´s (Werkfoto: InfraTec GmbH, Dresden). Die Oberflächentemperatur wurde in Farbflächen (hier: Grau-werte) umgewandelt. Die Temperaturen der Messpunkte P01 bis P06 sind in der rechten oberen Tabelle aufgelistet. Der Temperaturverlauf entlang der weißen Messlinie L07 ist im oberen Diagramm als Funktion der Pixel-Nr. dargestellt.

Page 279: Photonik: Grundlagen, Technologie und Anwendung

260 5 Optische Messtechnik

5.7 Feuchtemessung

Messprinzip und Einsatzbereich

Der physikalisch gebundene Anteil von Wasser in Gasen oder festen Stoffen wird als Feuchte bezeichnet. Den Feuchtegehalt an der Oberfläche von Ge-genständen kann man optisch messen; denn die Wassermoleküle verursa-chen im infraroten Spektralbereich Absorptionsunterschiede. Das feuchte Messobjekt wird mit infraroter Strahlung bestrahlt, die aus zwei unterschied-lichen Wellenlängenbereichen stammt. Die Strahlungsanteile des 1. Wellen-längenbereiches werden auf Grund der Feuchte stark absorbiert und die An-teile des 2. Wellenlängenbereich werden deutlich weniger absorbiert. Der Quotient der beiden Messergebnisse (Signal der 1. Messung geteilt durch Signal der 2. Messung) ist proportional dem Wasseranteil im Messgut. Nach dem gleichen Prinzip werden auch die Gasanteile in der Luft bestimmt. Aus Kostengründen nutzt man bei der Feuchtebestimmung Absorptionsbandenbei 0,95 µm, 1,1 µm, 1,43 µm und 1,93 µm. Je nach Anzahl und Anordnung der optischen Sensoren (z.B. Einelementsensor, Zeile oder Matrix) kann der Durchschnittswert der Feuchte von einer Fläche, die Feuchteunterschiede entlang einer Linie oder von einer ganzen Fläche bestimmt werden. Beson-ders aussagekräftig sind Bildaufnahmen, bei denen man in Millisekunden Feuchtewerte von einer ganzen Fläche erhält. Die beiden Wellenlängenbe-reiche 2 µm bis 5 µm sowie 8 µm bis 14 µm eignen sich ebenfalls für die Feuchtebestimmung. Dafür können kommerzielle Thermografiekameras eingesetzt werden (Abschn. 5.6) mit dem Vorteil einer schnellen, berüh-rungslosem Bestimmung der Oberflächenfeuchte im Bereich von 0% bis 10% relative Feuchte.

Typische Anwendungsfelder

Die Anwendungsfelder liegen vor allem bei der Feuchtemessung an der Oberfläche von Baustoffen, Pulver, Tabak, Lebensmittel, Bauwerken und Gemälden.

5.8 Farbmessung

5.8.1.1 Einsatzbereiche

In folgenden Bereichen spielt die Farbmessung eine wichtige Rolle für die Qualitätssicherung:

Page 280: Photonik: Grundlagen, Technologie und Anwendung

5.8 Farbmessung 261

Farberkennung Das Wiedererkennen einer Farbe durch Vergleich mit abgespeicherten Farbmustern ist wichtig für die Kontrolle von Farbmarkierungen auf Arzneimittelflaschen, bei der Kontrolle der Reihenfolge verschiedenfar-biger Pillen in Verpackungen oder bei der Sortierung verschiedenfarbi-ger Gegenstände (z.B. Getränkekästen).Farbrezeptierung Farbmessgeräte zusammen mit entsprechenden Computerprogrammenerzeugen die gewünschten Farbtöne in der Drucktechnik, beim Lackie-ren oder bei der Herstellung gefärbter Kunststoffe. FarbkontrolleBei zahlreichen Produkten (z.B. bei Textilien) spielt die Farbe (inter-national standardisiert) eine entscheidende Rolle. Die Qualität der Farbwiedergabe ist auch wichtig bei Erzeugnissen der Druckindustrie (Farbdruck), des Maschinenbaus (farbige Produktoberflächen), bei Farbmonitoren und bei LC-Displays.

Messprinzip

Ziel der Farbmessung ist es, den vom Menschen wahrgenommenen Farb-eindruck durch eindeutige reproduzierbare Zahlenwerte zu beschreiben. Die Farbwahrnehmung des menschlichen Auges beruht auf drei unter-schiedlichen Sinneszellen, die für die Farben Rot, Grün, Blau empfindlich sind. Ein bestimmter Farbeindruck lässt sich daher durch Angabe der unter-schiedlichen Reizstärken der 3 Farbrezeptoren als Zahlentripel charakteri-sieren, das als Punkt in einem dreidimensionalen Farbraum dargestellt wer-den kann. Ist die spektrale Energieverteilung des den Farbreiz erzeugenden Lichts bekannt, lassen sich die Farbkoordinaten rechnerisch ermitteln.

Die Farbmessung wird deshalb so vorgenommen: Das von der Probe rückgestreute Licht wird meist durch ein optisches Gitter spektral in drei der menschlichen Farbwahrnehmung entsprechende Farbanteile zerlegt und die genormten Farbkoordinaten berechnet. Anschließend werden diese Farb-Koordinaten mit den eingespeicherten verglichen und entsprechende Aktionen eingeleitet. Einfacher aufgebaut sind Farbmessgeräte, die nach dem Dreibereichsverfahren arbeiten, bei dem häufig keine genormten Farbkoordinaten bestimmt werden. Diese Geräte verwenden drei Licht-empfänger, die direkt den Normfarbwerten X, Y und Z entsprechen. Das Dreibereichsverfahren wird häufig bei Farbsensoren eingesetzt, bei denen es lediglich darauf ankommt, eine oder mehrere Farben aus bestehenden Farbmustern wiederzuerkennen, bzw. festzustellen, ob die Abweichung vom vorgegebenen Farbmuster einen Toleranzwert überschreitet.

Page 281: Photonik: Grundlagen, Technologie und Anwendung

262 5 Optische Messtechnik

Anwendungsbeispiele

Kontrolle von Farbdisplays (Abb. 5.23)

Abb. 5.23. Qualitätskontrolle bei einem Farbdisplay

Bei dieser Anwendung (Abb. 5.23) wird ein spektral messender Sensor eingesetzt. Das Objektiv bildet das (selbstleuchtende) Objekt auf eine Lichtleitfaser ab, die für eine Durchmischung des Lichts sorgt. Die unter-schiedlichen Farbanteile sind so gleichmäßig über den Austrittsquerschnitt der Faser verteilt. Das optische Gitter zerlegt das Licht in die spektralen Anteile, die von einem Zeilensensor erfasst werden.

Erkennung von Farbmarken (Abb. 5.24)

Abb. 5.24. Erkennung von Farbmarken

Zur Erkennung von Farbmarken nach Abb. 5.24 wird ein Sensor nach dem Dreibereichsverfahren verwendet. Über ein Lichtleiterbündel wird das Messobjekt beleuchtet. Das zurückgestreute Licht wird ebenfalls über ein Lichtleiterbündel zum Farbsensor geführt. Die Trennung in drei Wellen-längenbereiche erfolgt durch vor den Sensoren angeordnete dichroitischeSpiegel.

Page 282: Photonik: Grundlagen, Technologie und Anwendung

5.9 Interferometrische Submikrometer-Messtechnik in der Automobilind. 263

Abb. 5.25. Erkennung von Farbmarken (nicht selbstleuchtende Objekte)

5.9 Interferometrische Submikrometer-Messtechnik inder Automobilindustrie

5.9.1 Stand und Entwicklung der Messtechnik

Die Anforderungen an High-Tech-Komponenten im Kraftfahrzeug steigen ständig. Der Grund für diese Entwicklung liegt vor allem darin, dass sich durch die Einhaltung kleiner Toleranzen in der Regel Funktionsverbesse-rungen der Bauteile erreichen lassen. Um beispielsweise bei Einspritzsys-temen Druckverlauf und Dosierung verbessern zu können, sind Toleranzen von 0,5 µm erforderlich; dies bedeutet, dass das Messsystem eine Auflö-sung in der Größenordnung von 10 nm haben muss.

Ein Großteil der im Maschinenbau gestellten messtechnischen Anforde-rungen kann mit konventioneller, taktiler Messtechnik nicht mehr zufrie-denstellend erfüllt werden. Daher besteht großes Interesse an der Entwick-lung berührungsloser Tastsysteme für hochgenaue Formmessmaschinen auf der Basis interferometrischer Methoden.

In der Automobilindustrie kommt hinzu, dass eine Großserienfertigung stattfindet: Der Materialdurchsatz ist hoch und die Taktzeiten bewegen sich typischerweise bei wenigen Sekunden. Wegen der genannten Genauigkeits-anforderungen bieten sich hierbei besonders interferometrische Methodenwie die Weißlichtinterferometrie (WLI) an, die unter den Randbedingungen Wirtschaftlichkeit (geringe Taktzeit zur vollständigen Vermessung kom-pletter Funktionsflächen) und bauteilspezifischer Anpassbarkeit (z.B. zur Messung an schwer zugänglichen Stellen) optimiert werden müssen.

Page 283: Photonik: Grundlagen, Technologie und Anwendung

264 5 Optische Messtechnik

Neben den erhöhten Anforderungen an die Toleranz ist auch die Tendenz zur schrittweisen Miniaturisierung der Bauteile erkennbar. So werden Messungen mit sehr kleinen Sonden (Tastern) an funktionsrelevanten Flächen notwendig, die nur schwer zugänglich sind (z.B. Messungen in kleinen oder sehr tiefen Bohrungen). Die derzeit eingesetzten taktilen Mess-verfahren sind für diese Aufgaben zunehmend ungeeignet. Schließlich ge-winnt die Forderung nach kurzen Messzeiten und dadurch geringeren Kosten pro Messung, insbesondere in Verbindung mit einer hohen Auflö-sung, immer mehr an Bedeutung. Mit taktil messenden Verfahren sind heute keine wesentlich kürzeren Messzeiten mehr erreichbar. Optische Ver-fahren zählen dagegen zu den schnellsten und genauesten Messverfahren. Der Übergang von taktiler zu optischer Messung ist daher für einen Großteil der Anwendungen nur eine Frage der Zeit.

Alternative berührungslose Messverfahren, wie beispielsweise Ultra-schall und Röntgen-Computer-Tomographie (RCT) sind wegen der gerin-geren lateralen und vertikalen Auflösung im Vergleich zu optischen Ver-fahren bisher nur bedingt geeignet.

Mit Hilfe der Weißlicht-Heterodyn-Interferometrie (WHI) können mit hoher Abtastrate Funktionsflächen mit einer vertikalen Auflösung bis hin-unter in den Bereich weniger nm vermessen werden. Die Entwicklung von Sonderoptiken erlaubt zudem die Vermessung von Funktionsflächen in fertigungsnaher Umgebung. Zusätzlich muss die Rückführung von interfe-rometrischen Messmethoden auf amtliche Normale gewährleistet werden.

5.9.2 Weißlichtinterferometrie (WLI)

Das Prinzip des WLI (Abschn. 5.2.3) beruht darauf, dass eine kurzkohä-rente Lichtquelle für die Beleuchtung eines abbildenden Systems benutzt wird. Das abbildende System besitzt zusätzlich zur normalen Abbildungs-optik einen Referenzzweig, welcher von einem Teil des eingestrahlten Lichts durchlaufen wird (Abb. 5.10 und 5.11). Ist der Wegunterschied des Laufwegs des Lichts O im Objektzweig und im Referenzzweig R gerin-ger als die Kohärenzlänge lC des Lichts, d.h. gilt

COR l , (5.1)

so weisen die wieder zusammengeführten Teilstrahlen eine messbare In-terferenz auf. Während einer Messung wird der Wegunterschied der Teil-strahlen definiert verändert und gleichzeitig die Intensität der interferie-renden Teilstrahlen auf einem flächenhaft messenden Detektor, üblicher-weise einer CCD-Kamera, gemessen (Abb. 5.25).

Page 284: Photonik: Grundlagen, Technologie und Anwendung

5.9 Interferometrische Submikrometer-Messtechnik in der Automobilind. 265

Abb. 5.25. a) Schema des Funktionsprinzips eines Weißlichtinterferometers. b) Darstellung eines idealisierten Messsignals (Kohärenzlänge lc)

Die pixelweise Auswertung der durch die Interferenz erzeugten Intensi-tätsmodulation, das in Abb. 5.25 b gezeigte Intensitätskorrelogramm, liefert eine eindeutige Höheninformation für jedes einzelne Pixel. Dies gestattet, für das gesamte Bildfeld ausgeführt, die Berechnung einer vollständigen Höheninformation des Objektes.

Kommerzielle erhältliche WLIs weisen typisch folgende Spezifikatio-nen auf:

Die Höhenauflösung z ist durch die verwendete mittlere Wellenlänge des Lichts m, die Kohärenzlänge lC und die Art des Korrelogrammaus-wertealgorithmus gegeben. Typische Werte wie m= 600 nm, lC = 2 mund ein geeigneter Phasenauswertungsalgorithmus des Korrelogramms ermöglichen Werte von z • 1 nm. Die laterale Auflösung gleicht der eines konventionellen abbildenden Systems und ist prinzipiell beschränkt durch m und die Numerische Apertur NA der Abbildungsoptik:

./61.0 NAm (5.2)

Der maximale messbare Gesamthöhenunterschied zmax bestimmt sich aus der technischen Machbarkeit, einen Wegunterschied in Referenz-arm und Objektarm zu erzeugen, der über die gesamte Strecke präzise geführt wird. Geregelte Piezosysteme ermöglichen heute Werte von zmax 400 m.Die Baugröße und die Einsetzbarkeit eines WLI sind vergleichbar mit der von Mikroskopen zur optischen Inspektion.

Page 285: Photonik: Grundlagen, Technologie und Anwendung

266 5 Optische Messtechnik

Die WLIs gehören zu den Standardinstrumenten der Auswahlprüfung. Dabei werden ausgewählte Teile an einem speziell eingerichteten WLI-Messplatz bezüglich Merkmalen wie Form und Oberflächenbeschaffenheit vermessen. Die Messung an schwer zugänglichen Stellen, beispielsweise Bohrungsver-schneidungen im Inneren eines Teils, kann bei diesen Standardinstrumenten nur durch vorherige zerstörende Aufbereitung des Teils durchgeführt wer-den; denn das Teil muss an geeigneter Stelle geschnitten werden.

5.9.3 Weißlichtinterferometrie mit Sonderoptiken

Die optische Messtechnik kann im Fertigungsprozess wesentliche Aufga-ben übernehmen. Hier sollen insbesondere die Weißlichtinterferometrie und der Einsatz optischer Endoskope betont werden. Während WLIs die Aufnahme von Höhenprofildaten eines Objektes ermöglichen, wenn das Objekt gut zugänglich für die aufnehmende Optik ist, liefern endoskopi-sche Abbildungen Intensitätsbilder an schwer zugänglichen Stellen. Im folgenden wird eine Technologie vorgestellt, mit der beide Methoden zu-sammengeführt werden können.

Optische Endoskope für schwer zugängliche Stellen

Weil die Weißlichtinterferometrie nur an gut zugänglichen Stellen messen kann oder im anderen Falle Werkstücke zerstören muss, kann diese Metho-de häufig nicht zur 100%-Prüfung im Produktionsprozess eingesetzt wer-den. In diesen Fällen kann die Inspektion durch ein Endoskop sinnvoll sein.

Abb. 5.26. Schematische Darstellung eines Dieseleinspritzsystems (Common Rail Injektor). Der Ausschnitt zeigt eine endoskopische Abbildung eines Spritzlochs (Werkfoto: Robert Bosch GmbH)

Page 286: Photonik: Grundlagen, Technologie und Anwendung

5.9 Interferometrische Submikrometer-Messtechnik in der Automobilind. 267

Das optische Endoskop zeichnet sich dadurch aus, dass die abbildenden Linsen so dicht vor das Objekt gebracht werden können, dass die Numerische Apertur NA (Gl. 5.2) Werte annimmt, die eine ausreichende Auflösung ermöglichen. Die Auflösung wird wieder verschlechtert, weil sich eine Bild-übertragungsoptik (z.B. ein Faserbündel oder ein Linsensystem) anschließt.

Ein Beispiel für ein endoskopisches System im Fertigungseinsatz ist die Vermessung von Spritzlöchern in Düsen für Dieseleinspritzsysteme (Abb. 5.26). Das Endoskop ermöglicht die Aufnahme eines Spritzloches, welches durch eine 40 mm tiefe und 4 mm breite Bohrung betrachtet wer-den muss. Die optische Auflösung des Endoskops beträgt etwa 3,5 m. Eine Lösung in Freistrahloptik würde für diese Geometrie eine Numeri-sche Apertur 05.0NA ergeben. Bei einer Beobachtungswellenlänge

m = 600 nm errechnet sich nach Gl. (5.2) daraus eine Auflösung von etwa 7,5 m. Diese einfache Abschätzung zeigt das höhere Auflösungsvermö-gen endoskopischer Systeme. Der wesentliche Vorteil der interferometri-schen Technik besteht jedoch darin, dass die vollständige Höhengeometriedes zu untersuchenden Objektes wiedergeben kann, während durch eine Endoskopabbildung allein nur ein Intensitätsbild übertragen wird.

Weißlichtinterferometer mit Endoskopen und Sonderoptiken

Die genannten Beispiele aus der Praxis zeigen, dass die Weiterentwicklung von WLIs für den Einsatz in der Fertigung eine Zusammenführung des WLI mit einer endoskopischen Technik erfordert. So entstehen Ansätze für neue WLI-Systeme, die zum einen endoskopische Optiken und zum ande-ren auf das zu untersuchende Bauteil abgestimmte Optiken benutzen.

Rundsichtoptiken

Ein wichtiger Vertreter bauteil-spezifischer Sonderoptiken für WLIs sind sogenannte Rundsichtoptiken. Diese ermöglichen Abbildungen von Objek-ten, die sich unter einem großen Winkel relativ zur optischen Achse befin-den (Abb. 5.27). Solche Rundsichtoptiken werden beispielsweise zur Ver-messung von Ventilsitzen eingesetzt.

Die wichtigsten Messgrößen, die mit einer WLI-Messung mit Rundsicht-optik erfasst werden können, sind der Kegelwinkel , die Rundheit entlangder Dichtkante und Oberflächenkenngrößen. Abbildung 5.28 zeigt die WLI-Aufnahme eines Ventilsitzes, der in der Benzineinspritzung benutzt wird.

Page 287: Photonik: Grundlagen, Technologie und Anwendung

268 5 Optische Messtechnik

Abb. 5.27. Idealisierter Strahlengang einer Rundsichtoptik

Abb. 5.28. Das Intensitätsbild der CCD-Kamera während der WLI Messung eines Ventilsitzes (links; das gesamte Ventil ist in dem kleinen Ausschnitt zu sehen). Aus der WLI Messung des Ventilsitzes resultierende Höhendaten in Falschfarbendar-stellung (rechts). (Quelle: Mit freundlicher Genehmigung von Zygo Corporation)

Vermessung von Innenkegeln mit konventionellen Systemen

Geometrisch entspricht die Form von Ventilsitzen weitgehend der von Innenkegelflächen. Die Vermessung solcher Flächen mit einem WLI birgt hierbei eine Besonderheit, die näher untersucht werden soll. Zunächst kann man sich die Messung mit einem konventionellen WLI vorstellen. Hier wird im Referenzarm ein ebener Spiegel verwendet. Unter der Annahme idealer Flächen ergibt sich in der Abbildung des Innenkegels ein Intensi-tätsverlauf der erzeugten Interferenzstreifen von

rIIIrI

m

M

2cos22cos1)(

00 , (5.3)

wobei r die Radialrichtung auf der Kegelfläche darstellt, Io die mittlere Intensität und IM die durch die Interferenz erzeugte Intensitätsmodulation. Abbildung 5.29 zeigt die einfache geometrische Überlegung, die zu Gl. (5.3) führt.

Page 288: Photonik: Grundlagen, Technologie und Anwendung

5.9 Interferometrische Submikrometer-Messtechnik in der Automobilind. 269

Abb. 5.29. Schematische Skizze zur Herleitung der Bedingung für Interferenzma-xima auf einer Innenkegelfläche bei einer interferometrischen Messung. Die vom Ventilsitz zurückreflektierten Strahlen besitzen durch die Oberflächenbeschaffen-heit auch Richtungsanteile, die mit den einfallenden Strahlen zusammenfallen.

Aus Gl. 5.3 entnimmt man, dass die Intensität mit einer Periodenlänge von

= m/(2cos /2) (5.4)

moduliert wird. Für eine Standardanwendung mit einem Kegelwinkel 90 und einer Beobachtungswellenlänge m = 600 nm folgt dann aus

Gl. (5.4) eine Periodenlänge • 425 nm. Gl. (5.3) und Gl. (5.4) benutzen vereinfachende Annahmen. Trotzdem lässt sich die notwendige Auflösung des abbildenden Systems abschätzen. Zur Sichtbarkeit der Interferenzstrei-fen in obigem Beispiel benötigt man eine Auflösung, die besser als 425 nm ist. Eine solche Auflösung ist durchaus erzielbar, allerdings nur mit inter-ferometrischen Objektiven hoher Vergrößerung und großer Numerischer Apertur. Damit wird in konventionellen Systemen das Bildfeld soweit eingeschränkt, dass die Dichtfläche eines Ventilsitzes, typischerweise mit einem Durchmesser im Millimeterbereich, nicht in einer einzigen Messung vermessen werden kann.

Angepasste Referenzspiegel

Um die benötigte Auflösung zu verringern und damit beispielsweise größe-re Bildfelder zu realisieren, kann man auf das zu untersuchende Objekt an-gepasste Referenzspiegel verwenden. Nimmt man an, dass der Referenz-spiegel genau die Geometrie des Objektes wiedergibt, so wird im Idealfall je nach optischer Weglängendifferenz zwischen Referenzarm und Objekt-arm das gesamte Bildfeld hell (Interferenzmaximum) oder dunkel (Interfe-renzminimum) erscheinen. In der Praxis reicht auch schon eine zum Objekt ähnliche Geometrie des Referenzspiegels. So wurde bei der Messung des Ventilsitzes ein sphärischer Spiegel als Referenz verwendet (Abb. 5.28).

Page 289: Photonik: Grundlagen, Technologie und Anwendung

270 5 Optische Messtechnik

Angepasste Optik

Ein anderer Weg, die interferometrische Messung an Innenkegelflächen vorzunehmen, ist eine Anpassung der Optik an das zu vermessende Ob-jekt. Das Design der Optik sollte durch die Wahl geeigneter Randbedin-gungen folgende Ziele anstreben:

Ein geeigneter Aufbau des Linsensystems soll die optischen Weglängen im Objektzweig gezielt so beeinflussen, dass im Referenzzweig ein ebe-ner Referenzspiegel einsetzbar ist. Die Optik soll so ausgelegt werden, dass der gesamte interessierende Bereich ohne Nachfokussieren scharf abgebildet wird.

Das Linsenssytem muss deshalb so aufgebaut sein, dass die Periodenlänge der durch die Interferenz erzeugten Intensitätsmodulation größer ist als der durch die optische Auflösung bedingte Abstand von zwei getrennt mess-baren Punkten. Für das optische Design folgt daraus die Bedingung für die optischen Weglängen von benachbarten Objektpunkten zum Detektor zu

.2)()(: mDif rr (5.5)

Spezielle Software für Optik-Design ermöglicht in den meisten Fällen die Erreichung beider Ziele. Weil die Erfüllung dieser Forderungen je nach zu untersuchendem Objekt nicht immer möglich ist, wurden für Kegelwin-kel von 90° geeignete Systeme entwickelt.

Zusammenführung von Rundsichtoptiken und Endoskopen

Die im letzten Beispiel gezeigte Rundsichtoptik, die speziell auf das zu untersuchende Objekt angepasst ist, lässt sich in endoskopische WLI-Systeme integrieren. Abbildung 5.30 zeigt die Integration einer solchen Optik.

In dieser Anwendung kommen folgende Vorteile des angepassten opti-schen Designs zum Tragen:

Durch die scharfe Abbildung des gesamten interessierenden Bereichs ist während der Messung keine Relativbewegung zwischen Optik und Ob-jektiv zur Nachfokussierung nötig. Damit sind auch Endoskopgeomet-rien wie beispielsweise gekrümmte oder sehr lange Endoskope einsetz-bar.Der weißlichtinterferometrische Tiefenscan wird mit der Bewegung eines ebenen Spiegels im Referenzarm durchgeführt. Der Referenzarm ist Teil einer interferometrischen Plattform. Die Änderung des abbil-denden optischen Systems (Endoskop oder Sonderoptik) erfordert eine einmalige Veränderung der Länge des Referenzarms.

Page 290: Photonik: Grundlagen, Technologie und Anwendung

5.9 Interferometrische Submikrometer-Messtechnik in der Automobilind. 271

Die scharfe Abbildung des gesamten Bereichs und der Tiefenscan im Referenzarm ermöglichen eine standardisierte Software zur Steuerung und Auswertung der Messung. In anderen weisslichtinterferometrischen Konzepten, in denen für den Tiefenscan eine Bewegung zwischen Optik und Objekt erfolgt, können die Objektpunkte während der Variation des Abstands über das Bildfeld wandern. Dies erfordert zusätzlich zur Stan-dardsoftware eine Software zur Objektpunktverfolgung.

Abb. 5.30. Schematische Skizze des Abbildungs- und Beleuchtungsstrahlengangs einer WLI-Plattform, die auch mit Sonderoptiken und Endoskopen arbeitet (Werk-foto: Robert Bosch GmbH)

Da die Optiken in Referenzarm und Objektarm verschieden sind, kann ein Phasenauswertealgorithmus zur Korrelogrammauswertung unter Um-ständen nicht eingesetzt werden. Eine teilweise Anpassung der beiden Interferometerarme ist jedoch durch die in Abb. 5.30 gezeigte Dispersi-onskompensation möglich. Dazu wird in den Referenzarm ein Glasteil eingesetzt, welches die Dispersion im Referenzarm der durch Abbildungs-optik und Endoskop eingeführten Dispersion im Objektarm angleicht.

Page 291: Photonik: Grundlagen, Technologie und Anwendung

272 5 Optische Messtechnik

5.9.4 Weißlicht-Heterodyn-Interferometer (WHI)

Bei der Entwicklung des Weißlicht-Heterodyn-Interferometers (WHI)wurde das Ziel verfolgt, einen flexiblen optischen Abstandssensor mit ho-her Auflösung und hoher Messrate zu konzipieren. Dieser Sensor sollte in einfacher Art und Weise an konventionelle Formmessmaschinen adaptiert werden können, um die bereits vielfach eingesetzten taktilen Messtaster zu ersetzen.

Das WHI-Konzept basiert auf der Kombination eines kurzkohärenten faseroptischen Interferometers mit der Heterodyn-Technik sowie gleich-zeitig mit der Zwei-Wellenlängen-Interferometrie. Im folgenden wird das Verfahren kurz beschrieben (Abb. 5.31).

Abb. 5.31. Prinzipdarstellung des Weißlicht-Heterodyn-Interferometers (WHI)

Das WHI besteht im Wesentlichen aus einem Modulations- (MOI) und einem Mess-Interferometer (MSI), die über eine Singlemode-Faser mitein-ander verbunden sind. Das MOI ist durch einen Mach-Zehnder Freistrahl-Aufbau realisiert, während das MSI als Michelson-Aufbau dargestellt ist. Das MSI enthält den Objekt-Arm, der den zu messenden Abstand defi-niert. Es stellt damit die eigentliche Mess-Sonde dar, die relativ zum Ob-jekt mechanisch positioniert werden muss.

Das Licht der breitbandigen Lichtquelle (1) durchläuft zunächst die bei-den Arme des MOIs, in denen sich je ein akustooptischer Modulator (2)

Page 292: Photonik: Grundlagen, Technologie und Anwendung

5.9 Interferometrische Submikrometer-Messtechnik in der Automobilind. 273

befindet. Das Licht wird anschließend in eine Faser eingekoppelt und nach deren Durchlauf in das MSI, d.h. in die Mess-Sonde geführt. Dort wird das Licht im Objekt- bzw. Referenzarm reflektiert und in entgegengesetzter Richtung wieder in die Faser eingekoppelt. Nach nochmaligem Durchlauf zurück durch die Faser wird die Lichtintensität mit den Photodioden der Detektoreinheit detektiert.

Das MOI enthält im einen Arm ein Verzögerungselement (3) mit einer optischen Weglänge (Delay), die um ein Vielfaches größer ist als die Ko-härenzlänge der verwendeten Strahlung lC. Dieses Delay wird im MSI wie-derum durch entsprechend unterschiedliche Armlängen ausgeglichen. Nach Durchlauf des Gesamtsystems können gemäß der Kohärenzbedin-gung nach Gl. (5.1) nur diejenigen Teilstrahlen aus Objekt- und Referenz-arm im MSI messbar miteinander interferieren, die auch im MOI die ent-sprechend zugehörigen Arme durchlaufen haben. Da diese Zuordnung eindeutig ist, wird auf diese Weise die Trennung zwischen Objekt- und Referenzstrahl im MOI erreicht und damit eine individuelle Modulation beider Teilstrahlen ermöglicht.

Die Modulation erfolgt durch zwei akustooptische Modulatoren (2) im MOI die als Bragg-Zellen arbeiten und mit einer Differenzfrequenz von

= 100 kHz betrieben werden. Dadurch werden die interferierenden Teilstrahlen aus Referenz- und Objektarm um den Betrag gegeneinan-der frequenzverschoben. Es ergibt sich dementsprechend eine mit der He-terodynfrequenz oszillierende Intensität, deren Phase durch den zu messenden Abstand L und die optische Wellenlänge gegeben ist:

L4. (5.6)

Die Abstandsbestimmung lässt sich mit dieser Heterodyn-Technik auf eine Phasenmessung eines zeitlich oszillierenden elektrischen Signals zu-rückführen. Die Messrate des WHIs ist damit durch die Heterodyn-Frequenz von = 100 kHz begrenzt.

Aus der Phasenmessung ergibt sich nach Gl. (5.6) ein Eindeutigkeitsbe-reich für den Abstand von nur /4. Um diesen zu erweitern, wird das WHI zusätzlich mit zwei verschiedenen optischen Wellenlängen 1 und 2

betrieben, die aus dem Spektrum der breitbandigen Lichtquelle ( • 100 nm) ausgeschnitten werden. Die spektrale Trennung erfolgt durch ein Gitter (4), das sich im Strahlengang vor den Fotodetektoren (5) befindet (Abb. 5.31). Die Auflösung des Gitters • 10 nm bestimmt da-mit die effektive Kohärenzlänge der Strahlung:

2

Cl . (5.7)

Page 293: Photonik: Grundlagen, Technologie und Anwendung

274 5 Optische Messtechnik

Die Detektoreinheit enthält für beide Wellenlängen 1 und 2 je eine Fo-todiode, so dass analog zu Gl. 5.6 zwei Phasendifferenzen 1 und 2 be-züglich beider Wellenlängen gemessen werden. Der Abstand L lässt sich damit aus der Phasendifferenz ( 1 2) berechnen:

214L mit

21

21 . (5.8)

Der Eindeutigkeitsbereich wird damit auf /4 vergrößert, wobei als synthetische Wellenlänge bezeichnet wird. Für die beiden realen Wellen-längen 1 = 1,56 µm und 2 = 1,53 µm beträgt die synthetische Wellen-länge = 79,6 µm.

Das MOI kann zusammen mit entsprechend vielen Fotodioden in der Detektoreinheit auch mit mehreren Mess-Sonden betrieben werden. Abbildung 5.31 zeigt als Beispiel den Betrieb einer zusätzlichen Referenz-Sonde mit einer weiteren Fotodiode, die zu Kompensationszwecken verwendet wird. Auf diese Weise lässt sich eine hohe Stabilität gegenüber temperaturbedingten Veränderungen innerhalb des MOIs erreichen.

Technische Realisierung

Das Weißlicht-Heterodyn-Interferometer ‘WhitePoint’ wurde als industrie-taugliches Messgerät gebaut und basiert auf weitgehend standardisierten Komponenten der Telekommunikationsindustrie. Die in Abb. 5.32 dar-gestellte Auswerteeinheit beinhaltet das Modulationsinterferometer, eine austauschbare Referenzsonde, die Signalauswerteelektronik und den Aus-werterechner. Die Messsonde wurde als optischer Tastarm aufgebaut und ist mit einem einzelnem Lichtleiterkabel über einen standardisierten Stecker mit der Auswerteeinheit verbunden.

Abb. 5.32. Auswerteinheit WhitePoint

Page 294: Photonik: Grundlagen, Technologie und Anwendung

5.9 Interferometrische Submikrometer-Messtechnik in der Automobilind. 275

Der Tastarm kann, je nach Messaufgabe, in verschiedenen Ausführungen realisiert werden und wird an eine Formmessmaschine angeschlossen. Eine einfache mechanische Schnittstelle des Tastarms (z.B. ein Zylinder mit einem Durchmesser von Ø = 4 mm) ermöglicht die Verwendung des optischen Tastsystems mit unterschiedlichen Formmessmaschinen.

Abbildung 5.33 zeigt einen optomechanischen Tastarm auf einer Form-messmaschine. Der Tastarm hat neben einem optischem Ausgang zusätzlich eine Rubinkugel für die taktile Abtastung. Eine weitere Ausfüh-rung des optischen Tastarms ist in der Abb. 5.34 dargestellt. Dieser Tastarm wurde entwickelt, um Formmessungen in kleinen Bohrungen (Ø 2 mm) durchzuführen. Der aus Keramik hergestellte Schaft des Taststifts hat einen Durchmesser von 1,4 mm und beinhaltet einen optischen Ausgang für eine Zylinderabtastung unter einem Winkel von 90° und einen zweiten für eine Kegelabtastung unter einem Winkel von 45°.

Abb. 5.33. Optomechanischer Tastarm auf einer Formmessmaschine der Fa. Mahr (Werkfoto: Robert Bosch GmbH)

Page 295: Photonik: Grundlagen, Technologie und Anwendung

276 5 Optische Messtechnik

Abb. 5.34. Optischer Tastarm mit zwei Ausgängen

Messungen

Auflösung und zeitliche Stabilität des Interferometers

Für die Prüfung der Auflösung und der zeitlichen Stabilität wird der opto-mechanische Tastarm mit einem Endmaß als Messobjekt verwendet. Der Tastarm und das Objekt sind auf einem schwingungsgedämpften Tisch fest montiert und gegen Luftbewegungen abgeschirmt. Die zeitliche Stabilität des optischen Tastsystems kann insbesondere durch die Bewegungen der Luft mit unterschiedlichen Temperaturen beeinflusst werden.

Zur Bestimmung der Auflösung des Systems (abstandsäquivalentes Rau-schen) wurde die Standardabweichung der Messwerte aus einer Messung mit 60 Sekunden Dauer zu = 0,75 nm ermittelt. Zur Bestimmung der zeit-lichen Stabilität wurde eine Ausgleichsgerade aus den Messwerten inner-halb einer Messzeit von 60 s errechnet und die maximale Abstandsänderung ermittelt. Die zeitliche Stabilität (Drift) unter Laborbedingungen beträgt 1,2 nm/min.

Beispielmessung

Das neuentwickelte optische Tastsystem mit einer Formmessmaschine wird eingesetzt, um hoch auflösende Formmesssungen, beispielsweise Rundheit, Geradheit, Parallelität an präzisen Teilen der Automobilkomponentendurchzuführen. Abbildung 5.35 zeigt die Ergebnisse einer flächenhaften Messung an einem Präzisionskolben, gemessen mit diesem optischen Tastsystem. Bei der Messung wurde ein 0,5 mm hoher Bereich mit 11 Wendellinien (4.000 Messpunkte/Wendel) abgetastet. Die maximale Form-abweichung des gemessenen Zylinders beträgt 400 nm.

Page 296: Photonik: Grundlagen, Technologie und Anwendung

5.9 Interferometrische Submikrometer-Messtechnik in der Automobilind. 277

Abb. 5.35. Messung am präzisen Kolben. a) Projektion der Messergebnisse in der Ebene senkrecht zur Zylinderachse. b) Darstellung der3D-Zylindermessung

Page 297: Photonik: Grundlagen, Technologie und Anwendung

278 5 Optische Messtechnik

5.9.5 Rückführung der Weißlichtinterferometrie auf amtliche Normale

Die Voraussetzung für den Einsatz der Weißlichtinterferometrie in der industriellen Messtechnik ist die Rückführung der Messgrößen auf amtli-che Normale. Als Normale werden im allgemeinen hochpräzise Maßver-körperungen verwendet, die von einer amtlichen Stelle (z.B. von der Phy-sikalisch Technischen Bundesanstalt (PTB)) kalibriert werden. Für die taktile Messtechnik sind im industriellen Umfeld viele höchstpräzise ka-librierte Normale im Einsatz. Das Ziel ist, diese Normale auch für die Rückführung der optisch-interferometrischen Messtechnik verwenden zu können.

Wie oben beschrieben, haben Weißlichtinterferometer in den verschie-denen Raumrichtungen ein unterschiedliches Auflösungsvermögen. In den beiden lateralen Raumrichtungen liegt die Auflösung im µm-Bereich; in der vertikalen Raumrichtung ist dagegen eine Auflösung in der Größen-ordnung weniger nm möglich. Aus diesem Grund müssen für die verschie-denen Raumrichtungen unterschiedliche Normale verwendet werden.

Rückführung der lateralen Raumrichtungen

Kommerzielle WLI arbeiten im allgemeinen mit einer konventionellen Mikroskopoptik. Aus diesem Grund können die Normale, die aus der kon-ventionellen Mikroskopie bekannt sind, für die Rückführung verwendet werden. Ein Beispiel dafür ist das Objektmikrometer, das aus einer Quarz-glasplatte besteht, auf der durch Aufdampfen einer dünnen Metallschicht und anschließender Strukturierung Linienstrukturen erzeugt werden, die einen µm-Maßstab bilden. Abbildung 5.36 a zeigt das Ergebnis der Ver-messung eines solchen Objektmikrometers mit einem Weißlichtinterfero-meter. Aufgrund der großen Höhenauflösung ist bei der interferometri-schen Messung im Gegensatz zu der konventionellen Mikroskopie hier auch die Höhe der Struktur messbar.

Rückführung der vertikalen Raumrichtung

Für die Rückführung der vertikalen Raumrichtung stehen unterschiedliche Normale zur Verfügung. Es gibt Normale mit stufenartigen und rillenarti-gen Vertiefungen, die jeweils das Tiefenmaß verkörpern. Abbildung 5.36b zeigt das Ergebnis der Vermessung einer Rille eines Tiefeneinstellnormals, das auch zur Rückführung von Tastschnittgeräten (taktiles Oberflächen-messgerät) eingesetzt wird. Im Gegensatz zur taktilen Vermessung ist auch hier die Rille in allen Raumrichtungen messbar.

Page 298: Photonik: Grundlagen, Technologie und Anwendung

5.9 Interferometrische Submikrometer-Messtechnik in der Automobilind. 279

Abb. 5.36. Weißlichtinterferometer-Aufnahmen a) eines Objektmikrometers, b) ei-nes Tiefeneinstellnormals

Rückführung von Ebenheit und Rauheitskenngrößen

Die Ebenheit von Bauteilen ist in der Industrie von hoher Bedeutung (z.B. für die Charakterisierung von Plandichtflächen). Zur direkten Rückführung des Merkmals Ebenheit gibt es Ebenheitsnormale, die in unterschiedlichen Ebenheitsklassen verfügbar sind. In den Ebenheitsnormalen sind genau spezifizierte „Unebenheiten“ verkörpert. Abbildung 5.37 zeigt beispielhaft die Oberfläche eines Ebenheitsnormals.

Für die Rückführung der Rauheitskenngrößen können die Normale ver-wendet werden, die auch für die taktile Rauheitsmessung mit dem Tast-schnittgerät verwendet werden. Diese Raunormale sind in allen metallver-arbeitenden Industriebetrieben in unterschiedlichsten Rauheitsklassen im Einsatz. Die Auswertung der Rauheitskenngrößen erfolgt mit den gleichen Auswertestrategien wie bei der taktilen Messtechnik, d.h. es werden gleichartige Filter und vergleichbare Auswertelängen verwendet. Die Er-gebnisse der interferometrischen Messung (Abb. 5.38) sind sehr gut ver-gleichbar mit denen der taktilen Messung, wenn die laterale Auflösung des Weißlichtinterferometers mit dem Tastspitzendurchmessers der taktilen Messung vergleichbar ist.

Page 299: Photonik: Grundlagen, Technologie und Anwendung

280 5 Optische Messtechnik

Abb. 5.37. Ebenheitsnormal aufgenommen mit einem Laserinterferometer

Abb. 5.38. Rauhnormal aufgenommen mit einem Weißlichtinterferometer.

5.10 Zusammenfassung und Ausblick

Mit der Weißlichtinterferometrie (WLI) steht heute eine Technik zur schnellen und hochpräzisen Vermessung von Funktionsflächen zur Verfü-gung. Wie am Beispiel einer Rundsichtoptik mit Endoskop gezeigt wurde, ist eine Anwendung der WLI zur Qualitätskontrolle für viele Bauteile möglich. Besondere Geometrien (z.B. von Ventilsitzen) lassen sich auch dann vermessen, wenn sie sich an schwer zugänglichen Stellen befinden.

Die hier beschriebene Kombination eines WLI mit einem Endoskop bie-tet häufig die einzige Methode zur hochpräzisen Vermessung schwierig zugänglicher Funktionsflächen. Für einen breiten Einsatz der WLI in der Fertigung wird es entscheidend sein, interferometrische Systeme zu ent-werfen, die durch ihr Design, den Messablauf und die Auswertungsmetho-de unempfindlich gegenüber Störungen durch Umwelteinflüsse sind.

Page 300: Photonik: Grundlagen, Technologie und Anwendung

5.11 Interferometrische Submikrometer-Messtechnik in der Automobilind. 281

Aufbauend auf dem Prinzip des Weißlicht-Heterodyn-Interferometers (WHI) wurde ein neuartiges interferometrisches Tastsystem entwickelt und industrietauglich realisiert. Das Messgerät besteht aus einer Auswerteein-heit und einem kleinen, robusten Tastarm, der in unterschiedliche Form-messmaschinen integriert werden kann. Die Auflösung des Systems be-trägt 0,75 nm. In Verbindung mit einer Formmessmaschine wird das Tastsystem für höchstpräzise, flächenhafte Formmessungen an Teilen in der Automobilindustrie eingesetzt.

5.11 Literatur

DeGroot P, Deck L (1995) Surface profiling by analysis of white-light interfero-grams in the spatial frequency domain. J mod Optics 42:389 401

DeGroot P, Colonna de Lega X (2003) Valve cone measurement using white light interference microscopy in a spherical measurement geometry. Opt Eng 42:1232 1237

Drabrek P (1999) Interferometrische Messeinrichtung zum Erfassen der Form oder des Abstandes insbesondere rauer Oberflächen. Europ. Patent, internat. Veröffentlichungsnr. WO 99/44009

Dresel T, Häusler G, Venzke H (1992) Three-dimensional sensing of rough surfa-ces by coherence radar. Appl Opt 31:919 925

Ettl P, Schmidt B, Schenk M, Laszlo I, Häusler G (1998) Roughness parameters and surface deformation measured by „Coherence Radar“. In: Proc. of the In-ternat. Society for Optical Engineering (SPIE) 3407:133 140

Harasaki A, Schmit J, Wyant JC (2000) Improved vertical scanning interferome-try. Appl Opt 39:2107 2115

Hecht E (1997) Optics. Addison-Wesley, Reading, Mass- Lindner M.W (2002) White-light interferometry via an endoscope. In: Proc of the

Internat. Society for Optical Engineering (SPIE) 4777:90 101 Rao Y J, Jackson D A (1996) Recent progress in fibre optic low-coherence inter-

ferometry. Meas Sci Technol 7:981 999

Page 301: Photonik: Grundlagen, Technologie und Anwendung

6 Produktionstechnik

6.1 Übersicht

Die Photonik war in den letzten Jahren der große Innovationstreiber in den fertigungstechnischen Verfahren. Dies hat folgende Gründe:

Gezielte Entwicklung von Laser-Strahlquellen für fertigungstechnische Aufgabenstellungen.Entwicklung und Integration der Laseranlagen in ein fertigungstechni-sches Systemkonzept. Das bedeutet, dass die fertigungstechnischen Pro-zesse gesamtheitlich entworfen werden mussten. Dies umfasste neben den geeigneten Laserstrahlquellen softwaretechnisch entsprechendeCAD/CAM-Lösungen, von der Anlagenseite entsprechende flexibleHandhabungselemente (z.B. Roboter). Dazu kamen Elemente zur Pro-zess-Steuerung und für das Qualitätsmanagement.

Im Folgenden werden deshalb zunächst die Laserstrahlquellen vorge-stellt und daran anschließend aufgezeigt, in welchen Bereichen der Ferti-gungstechnik diese eingesetzt werden können.

6.1.1 Laserstrahlquellen

Jeder Laser benötigt ein aktives Medium, in dem eine Besetzungsinversionherbei geführt werden muss (Abschn. 1.4.3). Je nach Art dieses Mediums werden verschiedene Lasertypen unterschieden (Abb. 6.1). Diese werden im Folgenden beschrieben.

Gaslaser

Je nach verwendeter Art des Gases unterscheidet man zwischen folgenden Lasertypen:

Molekül-Laser: Der CO2-Laser wird in der Fertigungstechnik am häu-figsten eingesetzt. Dem Gas CO2 sind noch N2 und He zugesetzt. Die Laserübergänge bei CO2 sind bestimmend. N2-Moleküle übertragen die Energie durch Stöße auf die CO2-Moleküle. Die Gastemperatur von CO2

Page 302: Photonik: Grundlagen, Technologie und Anwendung

284 6 Produktionstechnik

Abb. 6.1. Übersicht über verschiedene Typen von Laserstrahlquellen

darf dabei 150oC nicht überschreiten, weil sonst der Lasereffekt nicht mehr eintreten kann. Helium hat eine gute Wärmeleitfähigkeit und transportiert die frei werdende Wärme nach außen. Abbildung 6.2 zeigt die wichtigsten Bauformen eines CO2-Lasers. Die Wellenlänge liegt bei 10,6 m (fernes Infrarot). Die Haupteinsatzgebiete liegen bei der Materialbearbeitung.

Abb. 6.2. Laserbauformen des CO2-Lasers: a) sealed tube, b) Wellenleiter, c) und d) Wellenleiter mit Gasumwälzung (Quelle: Hecht, J. Laser Focus World (28), 1992)

Page 303: Photonik: Grundlagen, Technologie und Anwendung

6.1 Übersicht 285

Neutralatom-Laser: Der wichtigste Laser ist der HeNe-Laser (Abb. 6.3). Das Lasermedium ist ein Gasgemisch aus Helium (5 bis 10 mal mehr) und Neon. Elektrisch angeregt wird zunächst das Helium, das seine Ener-gie nahezu vollständig an das Neon abgibt. Die Wellenlänge liegt bei 633 nm (rot). Die Einsatzgebiete sind im Wesentlichen die Messtechnik.

Ionen-Laser: Am häufigsten wird der Ar+-Laser eingesetzt. Im grünen bis ultravioletten Spektralbereich werden Ausgangsleistungen bis zu 10 W erreicht.Excimer-Laser: Der wichtigste Vertreter ist der ArF-Laser. Er hat eine Wellenlänge von 175 nm bis 483 nm (ultraviolett). Eingesetzt wird er in der Materialbearbeitung von Kunststoff, Glas, Keramik und im mensch-lichen Auge zur Korrektur von Fehlsichtigkeit, ferner in der Messtech-nik und in der Fotochemie.

Festkörperlaser

Festkörperlaser bestehen aus Kristallen oder Gläsern, die mit optisch akti-ven Ionen dotiert sind. Sie werden optisch, mit Anregungslampen oder mit einem Diodenlaser gepumpt.

Rubin-Laser: dieser Laser wurde als erster entdeckt. Er hat eine Wellen-länge von 694 nm (Abb. 1.46). Nd:YAG-Laser: Dies ist der am meisten verbreitete Festkörperlaser (Abb. 6.4). Das laseraktive Medium besteht aus einem Yttrium-Alu-minium-Granat-Kristall, in dem Neodym-Ionen eingebettet sind. Die Wellenlänge liegt bei 1,064 m bis 1,3 m. Es sind Leistungen bis zu 1,8 kW möglich. Durch nachgeschaltete Verstärkerstufen kann die Aus-gangsleistung weiter erhöht werden. Die Hauptanwendungsfelder sind die Materialbearbeitung. Nd:Glas-Laser: Die Wellenlänge liegt bei 1,06 m (nahes Infrarot).

Abb. 6.3. Prinzipieller Aufbau eines HeNe-Lasers (Quelle: Hecht, J. Laser Focus World (28), 1992)

Page 304: Photonik: Grundlagen, Technologie und Anwendung

286 6 Produktionstechnik

Abb. 6.4. Prinzipieller Aufbau eines optisch gepumpten Nd:YAG-Lasers (Quelle: Hecht, J. Laser Focus World (28), 1992)

Halbleiterlaser (Diodenlaser)

Der Laser besteht aus einem Halbleitermaterial, das elektrisch angeregt wird. Der Aufbau ist ähnlich dem einer LED. Der Laser-Effekt kommt durch die Rekombination von Ladungsträgern in der Sperrschicht zustande (Abb. 6.5 und Abschn. 1.5.3)

Abb. 6.5. Prinzipieller Aufbau eines Halbleiterlasers (Quelle: Hecht, J. Laser Focus World (28), 1992)

Page 305: Photonik: Grundlagen, Technologie und Anwendung

6.1 Übersicht 287

Im Unterschied zu einer LED kann die Laserdiode mit einer höheren Stromdichte betrieben werden. Die Kristall-Endflächen dienen als Spiegel des optischen Resonators. Typische Vertreter sind GaInP-Laser (670 nm bis 680 nm) und GaAlAs-Laser (780 nm bis 880 nm). Die Halbleiterlaser ermöglichen kleine Abmessungen. Deshalb werden sie häufig als Licht-quellen in CD-Spielern, bei optischen Plattenspeichern, bei Laserprintern und in der Nachrichtentechnik eingesetzt. Bei höheren Leistungen ab 2,5 kW können sie auch in der Materialbearbeitung Verwendung finden.

Flüssigkeitslaser

Sie bestehen aus organischen Farbstoffen in stark verdünnter Lösung und werden optisch mit Blitzlampen oder Lasern gepumpt. Sie finden Einsatz in der Spektroskopie, weil sie von 300 nm bis 1,2 m einstellbar sind.

6.1.2 Strahlqualität

Schwingt der Laserresonator (Abschn. 1.4.3) in der TEM00-Grundmode, so weist die Intensitätsverteilung des Laserstrahls senkrecht zur Ausbrei-tungsrichtung ein Gaußprofil auf (Abb. 6.6):

2)/2(-0 e)( wrIrI . (6.1)

Im Abstand w vom Mittelpunkt ist die Intensität auf 1/e2 des Maximal-werts I0 zurückgegangen. Dieser Abstand wird als Radius eines Gauß-strahls bezeichnet; d = 2w ist der Strahldurchmesser.

Abb. 6.6. Intensitätsverlauf bei einem Gauß´schen Strahl

Der Strahlradius w vergrößert sich mit zunehmendem Abstand z vom Laser gemäß

20

R

2

R0 mit,1)( wz

zzwzw . (6.2)

Page 306: Photonik: Grundlagen, Technologie und Anwendung

288 6 Produktionstechnik

Der kleinste Radius w0 liegt an der Strahltaille bei z = 0 (Abb. 6.7).

/20R wz wird als Rayleigh-Länge bezeichnet. In großem Abstand

(z >> zR) wächst nach Gl. (6.2) der Radius linear mit der Entfernung gemäß

zw

zzwzw

0R

0)( . (6.3)

Abb. 6.7. Zusammenhang zwischen Taillendurchmesser und Divergenzwinkel bei einem Gauß´schen Strahl

Der Divergenzwinkel 0 (Abb. 6.7) ist typischerweise in der Größenord-nung von etwa 1 mrad. Damit gilt 0 • tan 0 und aus Gl. (6.3) folgt

0R

0

R

00 22

wzd

zw

. (6.4)

Nun zeigt sich die interessante Tatsache, dass das Produkt aus Taillen-radius w0 und Divergenzwinkel 0 beim Durchgang durch optische Syste-me konstant bleibt. Für das Strahlparameterprodukt eines Gauß´schen Strahls gilt also (Abb. 6.7)

22 0000 ww . (6.5)

Ist der Weg eines Laserstrahls vom Laser bis zu einem Werkzeugkopf zu lang, dann macht sich die Divergenz störend bemerkbar. Aus diesem Grund weitet man gerne den Laserstrahldurchmesser mithilfe eines Tele-skops auf. Wird der Strahldurchmesser vergrößert, dann sinkt nach Gl. (6.5) der Divergenzwinkel. Der Strahl kann also über längere Entfer-nungen geführt werden, ohne dass es zu einer nennenswerten weiteren Aufweitung kommt. Am Bearbeitungsort wird der Laserstrahl dann durch ein Linsensystem fokussiert.

Page 307: Photonik: Grundlagen, Technologie und Anwendung

6.1 Übersicht 289

Bei der Fokussierung eines Laserstrahls durch eine Linse der Brennwei-te f (Abb. 6.7) entsteht in der Gegend des bildseitigen Brennpunkts ein Fleck mit dem Taillenradius

000 2

wffw . (6.6)

Kleine Fleckdurchmesser erreicht man demnach bei kurzer Brennweite der Linse und großem Strahldurchmesser. Der kleinste erreichbare Fleck-durchmesser entspricht etwa der Wellenlänge des Lichts.

Der Bereich links und rechts der Taille (Abb. 6.7), in dem der Fleck-durchmesser auf 20d ansteigt (die Fläche wird verdoppelt), wird als Schärfentiefe bezeichnet. Aus Gl. (6.2) folgt dafür

20

R 22 wzz . (6.7)

Für Gaußstrahlen ist das Strahlparameterprodukt nach Gl. (6.5) konstant und nur abhängig von der Wellenlänge . In der Praxis zeigen Laserstrah-len Abweichungen vom idealen Gaußprofil nach Gl. (6.1). Dies kann am Auftreten höherer transversaler Moden liegen oder an inhomogener Ver-stärkung im Lasermedium. In diesem Fall ist der Strahldurchmesser um einen Faktor M größer als der des idealen Gaußstrahls. Der Divergenzwin-kel ist um denselben Faktor M vergrößert im Vergleich zum Wert eines Gaußstrahls. Damit wird das Strahlparameterprodukt von Gl. (6.5) korri-giert auf

KMw 12 2

00 . (6.8)

M2 wird als Beugungsmaßzahl bezeichnet, K als Strahlpropagationsfaktor.Diese Größen sind nach DIN EN ISO 11145 ein Maß für die Qualität eines Laserstrahls und geben an, wie nahe das Strahlparameterprodukt an der Beugungsbegrenzung eines vollkommenen Gaußstrahls ist. Für einen idea-len Gaußstrahl ist M2 = 1/K = 1, reale Strahlen haben M2 > 1 bzw. K < 1. Bei einem CO2-Laser mit einer Ausgangsleistung bis 3 kW ist M2 < 1,25. Mit zunehmender Leistung steigt die Beugungsmaßzahl an.

Beispiel:Ein CO2-Laser mit Taillendurchmesser d0 = 8 mm emittiert eine Leistung von

= 1 kW bei der Wellenlänge = 10,6 m. Er wird mit einer Linse der Brenn-weite f ´ = 100 mm fokussiert. Wie groß ist der Durchmesser des fokussierten Laserflecks, die Schärfentiefe sowie die Bestrahlungsstärke (mittlere Leistungs-dichte) im Fokus?

Page 308: Photonik: Grundlagen, Technologie und Anwendung

290 6 Produktionstechnik

Lösung:Unter der Annahme eines idealen Gaußstrahls gilt nach Gl. (6.6) für den Fleck-

durchmesser 0

00 22w

fwd = 170 m. Die Schärfentiefe beträgt nach

Gl. (6.7) mm3,4220wz . Nach Tabelle 1.9 ist die mittlere Bestrahlungs-

stärke 210

20 m

W104,4w

E .

6.1.3 Fertigungsverfahren und Materialien

In Tabelle 6.1 sind die Lasertypen zusammengestellt, die für die einzelnen Fertigungsverfahren eingesetzt werden.

Tabelle 6.1. Fertigungsverfahren und die wichtigsten zu bearbeitenden Materia-lien in der Photonik (Lasertypen: 1: CO2-Gaslaser; 2: Excimer-Gaslaser; 3: Fest-körperlaser (z.B. Nd:YAG); 4: Halbleiterlaser)

Verfahren Eisen-Metalle NE-Metalle Kunststoffe Verbundw. Urformen

Schmelzen Sintern

1, 3 1

1, 3 1

11

11

Umformen 3 3

Trennen Schneiden Bohren, Abtragen

1, 3 1, 3

1, 2, 3 1, 3

1, 3 1, 3

1, 3 1, 3

Fügen Schweißen Löten

1, 3, 4 1, 3, 4

1, 3 2

1, 3 2, 3

1, 3, 4 -

Beschichten (DMD) 1, 3, 4 1, 3, 4 1 1

Stoffeigenschaften ändern

Härten Umschmelzen

1, 3, 4 1, 3, 4 1, 3, 4

Markieren und Beschriften

Markieren Beschriften

1, 3 1, 3

1, 3 1, 3

1, 3 1, 3

1, 3 1, 3

Strukturieren und Mikrobearbeiten 2 2 2 2

Page 309: Photonik: Grundlagen, Technologie und Anwendung

6.2 Urformen 291

6.2 Urformen

Beim Urformen wird nach DIN 8580 einem formlosen Werkstoff (z.B.pulverförmigem Material oder flüssigem Metall) eine Form gegeben. Der Vorgang der Formgebung läuft meist in einem längeren Zeitraum unter definiertem Druck und festgelegtem Temperaturverlauf ab. Beim Einsatz von Lasern verzichtet man auf die Parameter Zeit und Druck. Das Aus-gangsmaterial wird dabei nur für kurze Zeit durch den Laser gezielt erhitzt. Dieses Verfahren betrifft im Wesentlichen nur die Oberflächen der Materi-alien und wird als selektives Verfahren bezeichnet.

6.2.1 Selektives Laser-Sintern (SLS)

Abbildung 6.8 zeigt die einzelnen Prozess-Schritte beim selektiven Laser-Sintern. Dieses Verfahren wird auch Laserformen genannt und könnte eben-falls zum Fertigungsverfahren Beschichten gerechnet werden. Zugrunde liegt ein 3D-CAD-Modell. Es zerlegt den Körper in einzelne Schichten mit festgelegter Schichtdicke. Auf diese Weise wird es möglich, dass ein Kör-per schichtweise aufgebaut wird. Dazu wird die Bauplattform auf die ent-sprechende Höhe gefahren, das Schichtpulver aufgebracht, durch den Laser erhitzt, bis die Schicht gesintert ist. Anschließend wird das Bauteil abge-senkt und die Prozessschritte: Aufbringen des Pulvers – Erhitzen durch Lasereinwirkung – Sintern wiederholt. Auf diese Weise entsteht ein schicht-weise aufgebauter Körper, der auch aus unterschiedlichen Materialien zu-sammengesetzt werden kann. Das Laser-Sintern hat folgende Vorteile:

Abb. 6.8. Schema des Ablaufs beim Selektiven Laser-Sintern (Werkfoto: TRUMPF)

Page 310: Photonik: Grundlagen, Technologie und Anwendung

292 6 Produktionstechnik

Alle Werkstoffe verwendbar, die sich mit Lasern schweißen lassen.Wenig Werkstoffabfall im Vergleich zu spanenden Fertigungsverfahren. Herstellung des Bauteiles in einem Fertigungsverfahren (schneller, we-niger Platz und weniger Fehler). Durch Schichtverfahren ist annähernd jede Geometrie herstellbar.

Sintern von Kunststoffen

Zunächst wird die Kammer bis knapp unter die Schmelztemperatur des Kunststoffes vorgeheizt. Anschließend wird das Kunststoffpulver zugege-ben, das mit einem CO2-Laser mit einer Ausgangsleistung von bis zu 50 W aufgeschmolzen wird. Polyamid, Polycarbonat und Polystyrol werden am häufigsten eingesetzt. Mit SLS werden Prototypen für das Design oder zur Messung der Funktionseigenschaften hergestellt. Es können, je nach An-wendungsart, weitere Fertigungsprozesse wie Schleifen, Polieren oder Versiegelung der Oberfläche folgen.

Sintern von Metallen

Zum Sintern von Metallen werden Pulvergemische eingesetzt. Eine Kom-ponente ist ein niedrig schmelzendes Bindematerial und eine andere Kom-ponente (z.B. ein Kunststoff) ein hoch schmelzender Werkstoff. Der La-serstrahl (CO2-Laser mit über 200 W Ausgangsleistung) schmilzt die niedrig schmelzende Komponente auf und bindet die hochschmelzenden Teile zusammen, die in der festen Phase bleiben. Auf diese Weise entste-hen Pulversysteme (derzeit auf Stahl- und Bronzebasis) mit guten Benet-zungseigenschaften. Tabelle 6.2 zeigt deren mechanische Eigenschaften.

Tabelle 6.2. Mechanische Eigenschaften von SLS-Teilen (eos-gmbh)

Eigenschaft Pulver auf Bronzebasis Pulver auf Stahlbasis Restporosität 20% bis 25% 2% bis 5% Zugfestigkeit 120 N/mm2 bis 180 N/mm2 500 N/mm2 bis 550 N/mm2

Bruchdehnung 4,2% 7% Rauhigkeit 50 µm bis 60 µm 50 µm

6.2.2 Selektives Laser-Schmelzen (SLM: Selective Laser Melting)

Mit einem Nd:YAG-Laser (120 W Ausgangsleistung) wird Metallpulvervollständig aufgeschmolzen und die darunter liegende Schicht teilweise angeschmolzen. Durch dieses Verfahren können Bauteildichten von nahe-zu 100% erreicht werden. Deshalb entfallen weitere Fertigungsschritte zur

Page 311: Photonik: Grundlagen, Technologie und Anwendung

6.3 Umformen 293

Erhöhung der Dichte. Die Deckfläche eines SLM-Bauteiles weist eine Schuppenstruktur auf, wie sie beim Laserschweißen üblich ist (Abschn. 6.4.1). Deshalb kann eine Nacharbeit der Oberfläche notwendig werden. Die mechanischen Eigenschaften von SLM-Bauteilen sind durch-aus mit denen von Gussteilen vergleichbar (Tabelle 6.3).

Tabelle 6.3. Mechanische Eigenschaften von SLM-Bauteilen (Quelle: Poprawe)

Eigenschaft Edelstahl X2CrNiMo17-13-2

Werkzeugstahl X38CrMoV5-1

TitanTiAlV4

Härte 240 HV 0,1 52 HRC 435 HV 10 Bruchdehnung 15% 2,3% 6% Dehngrenze 450 N/mm2 1.000 N/mm2 1.040 N/mm2

Zugfestigkeit 550 N/mm2 1.720 N/mm2 1.140 N/mm2

Für die SLM-Bauteile gibt es eine Fülle von Anwendungen. Abbil-dung 6.9 zeigt Applikationen im Werkzeug- und Formenbau, in der Luft- und Raumfahrt und in der Medizintechnik.

Abb. 6.9. Beispiele für SLM-Anwendungen (Werkfoto: TRUMPF)

6.3 Umformen

Umformen ist ein plastisches Ändern der Form eines festen Körpers. Da-bei werden der Stoffzusammenhalt und die Masse beibehalten. Die Eigen-schaften des Materials können sich allerdings ändern. Mit einem gepulsten

Page 312: Photonik: Grundlagen, Technologie und Anwendung

294 6 Produktionstechnik

Nd:YAG-Laser können berührungslos Biegeprozesse (Veränderung der Richtung) und Stauchprozesse (Verkürzung der Länge) realisiert werden, die vor allem in der Mikrosystemtechnik (z.B. bei der Herstellung von Aktuatoren) eine Rolle spielen. Wichtige Parameter der Laserstrahlquelle sind die Leistung, die Pulsdauer und die Wellenlänge; von der Maschine die Parameter Strahlformen und Verfahrgeschwindigkeit. Die Laserstrah-len heizen Bleche in einem sehr begrenzten Bereich kurzfristig auf. Da-durch entstehen starke Temperaturunterschiede (Gradienten) die zu Span-nungen und Umformungen mit folgenden Wirkungen führen:

Das Blech wird entlang einer geraden Kante bestrahlt und in Dicken-richtung ergibt sich ein großer Temperaturgradient. Dann biegt sich das Blech zur Strahlquelle hin. Das Blech wird entlang einer Kante so bestrahlt, dass der Temperatur-gradient in Dickenrichtung gering ist. Dann wird der vorhandene Winkel vergrößert und zwar gleichgültig, ob er dem Laserstrahl zugewandt oder abgewandt ist.Das Blech wird an verschiedenen Stellen mit kleinen Temperaturgra-dienten über die Blechdicke erwärmt. Dadurch entstehen räumlicheKrümmungen des Bauteils.

In Abhängigkeit vom thermischen Ausdehnungskoeffizienten th, der Dichte , der spezifischen Wärmekapazität cp, dem Absorptionsgrad A, der Laserleistung PL, der Verfahrgeschwindigkeit vf und der Blechdicke s0

ergibt sich für den Biegewinkel B´folgender Zusammenhang:

20

13sv

PAc f

L

p

thB (6.9)

6.4 Trennen

Beim Trennen wird die Form des festen Körpers so verändert, dass der Stoffzusammenhalt im Ganzen vermindert wird.

6.4.1 Schneiden

Schneiden mit dem Laserstrahl geschieht im Wesentlichen mit fünf unter-schiedlichen Verfahren, die in Abb. 6.10 zusammengestellt und kurz erläu-tert sind. Im Folgenden wird das Laserstrahl-Brennschneiden ausführlicher behandelt.

Page 313: Photonik: Grundlagen, Technologie und Anwendung

6.4 Trennen 295

Abb. 6.10. Verfahren des Schneidens mit dem Laserstrahl

Laserstrahl-Brennschneiden

Als Schneidgas wird Sauerstoff verwendet mit dem Vorteil, dass das flüs-sige Eisen nicht nur aus der Fuge geblasen wird, sondern auch verbrennt.

Abb. 6.11. Prinzip des Laser-Brennschneidens (Werkfoto: Fraunhofer IPT)

Page 314: Photonik: Grundlagen, Technologie und Anwendung

296 6 Produktionstechnik

Bei diesem Verbrennungsvorgang zu FeO entsteht eine Reaktionsenthalpievon 4.800 kJ pro kg verbranntem Eisen. Deshalb erfolgt eine zusätzliche Energiezufuhr zwischen Laserstrahl und Werkstück. Nachteilig kann sich die dünne Oxidhaut von FeO auf der Schnittkante auswirken. Diese kann beim Lackieren oder Schweißen Probleme bereiten. Industriell eingesetzt werden Laser zum Schneiden von Baustahl bis 20 mm, von Edelstahl bis 15 mm und von Aluminium bis 10 mm. Das Prinzip des Laserstrahl-Brennschneidens ist in Abb. 6.11 zu sehen.

Für das Schneiden ist die Leistung PC erforderlich. Sie ist die Summe aus der Aufwärmleistung PW, der Schmelzleistung Pm und der Verlustleis-tung aus der Wärmeleitung PHL.

PC = PW + Pm + PHL. (6.10)

Die Summe aus der Aufwärmleistung PW und der Schmelzleistung Pm ist von der Blechdicke bC, die Dicke der Schmelzzone d, der Schneidge-schwindigkeit vC, der Werkstückdichte , der spezifischen Wärmekapazität des Bleches cp, der Prozesstemperatur TP, der Umgebungstemperatur Tund der spezifischen Schmelzenthalpie hm des Bleches abhängig. Es gilt:

Pw + Pm = bC d vC (cp (TP – T ) + hm). (6.11)

Zur Bestimmung der Verlustleistung aus der Wärmeleitung PHL geht ne-ben der Wärmeleitfähigkeit K auch die Peclet-Zahl Pe in folgender Weise mit ein:

PHL = 4 K d (Tm – T ) (Pe/2)0,36. (6.12)

Die absorbierte Laserstrahl-Leistung Pabs stellt die zweite Leistungs-quelle dar. Sie errechnet sich aus dem Produkt von Laserleistung am Werkstück PL und dem Absorptionsgrad A.

Pabs = A PL. (6.13)

Beim autogenen Brennschneiden wird die Schneidleistung PC alleine durch die Verbrennungsleistung PR geliefert, d. h., der Schneidprozess trägt sich alleine ohne zusätzliche Zufuhr von Energie in den Schneidbe-reich. Das Werkstück wird dabei üblicherweise auf die Zündtemperatur aufgeheizt (z.B. bei Baustahl mit einer Brennerflamme auf 1.000 °C). Der große Vorteil besteht darin, dass es keine maximalen Blechdicken gibt. So wurden beispielsweise bereits über 3 m dicke Stahlplatten auf diese Weise geschnitten. Während des gesamten Schneidprozesses muss die Schneid-oberfläche auf der Zündtemperatur gehalten werden. Die Brennerflamme verhindert zusätzlich die Zunderbildung.

Abbildung 6.12 zeigt die Strahlführung im Schneidkopf einer Laser-schneidanlage und Abb. 6.13 den Schneidkopf über einer bearbeiteten Werkstücktafel.

Page 315: Photonik: Grundlagen, Technologie und Anwendung

6.4 Trennen 297

Abb. 6.12. Strahlführung im Strahlkopf einer Laserschneidanlage: 1: Umlenkspie-gel, 2: Adaptiver Telekopspiegel, 3: Phaseenschieber, 4: Umlenkspiegel, 5: Um-lenkspiegel in der Bewegungseinheit, 6/1: Autofokusspiegel, 6/2: Umlenkspiegel, 7: Linsenoptik Schneidkopf, S: Strahl (Werkfoto: TRUMPF)

Abb. 6.13. Bearbeitete Werkstücktafel mit Schneidkopf (Werkfoto: TRUMPF)

Page 316: Photonik: Grundlagen, Technologie und Anwendung

298 6 Produktionstechnik

6.4.2 Bohren und Abtragen

Nach DIN 8580 und DIN 8990 versteht man unter Laserstrahlbohren das Trennen durch thermisches Abtragen mit dem Laserstrahl. Dieses Verfah-ren hat folgende Vorteile:

Kein Verschleiß des Werkzeuges. Hohe Flexibilität.Gute Automatisierbarkeit.

Abbildung 6.14 zeigt die unterschiedlichen Verfahren und deren Einsatzbereiche im Überblick.

Abb. 6.14. Verfahren und Anwendungen des Bohrens und Abtragens mit dem Laserstrahl

Page 317: Photonik: Grundlagen, Technologie und Anwendung

6.5 Fügen 299

6.5 Fügen

Fügen ist nach DIN 8580 das Verbinden von geometrisch bestimmten Kör-pern miteinander oder mit formlosem Stoff.

6.5.1 Schweißen

Beim Schweißen werden die Werkstoffe durch Wärmeeinwirkung verbun-den (Abb. 6.15).

Abb. 6.15. Übersicht über die Schweißverfahren

Wärmeleitungs-Schweißen und Tief-Schweißen

Beim Wärmeleitungs-Schweißen erhitzt der Laserstrahl den Werkstoff so weit über die Schmelztemperatur, dass noch kein merklicher Dampfdruck entsteht. Die Wärmeleitung des Werkstücks bestimmt das Schmelzbad und die Tiefe der Schweißnaht. Im Vergleich zu anderen Schweißverfahren kann weniger und gezielter Energie in das Werkstück eingebracht werden. Dementsprechend geringer ist der Verzug des Bauteils, und der Wirkungs-grad des Prozesses ist höher. Im Laser-Tief-Schweißen wird das Werkstück auf eine Temperatur aufgeheizt, die so weit über der Verdampfungstempe-ratur liegt, dass ein Dampfdruck entsteht. Beim Verdampfen des Werkstof-fes entsteht ein Dampfkanal bzw. eine Dampfkapillare (keyhole: Schlüs-selloch). Dadurch können hohe Schachtverhältnisse (Verhältnis von Nahttiefe zu Nahbreite) von etwa 10:1 erzielt werden. Das Material wird an der Vorderfont des Dampfkanals vollständig aufgeschmolzen, umströmt diesen und erstarrt hinter der Dampfkapillare zur Schweißnaht. Abbil-dung 6.16 zeigt den Unterschied zwischen beiden Verfahren.

Page 318: Photonik: Grundlagen, Technologie und Anwendung

300 6 Produktionstechnik

Abb. 6.16. Unterschied zwischen dem Wärmeleitungs-Schweißen (linkes Bild) und dem Tief-Schweißen (rechtes Bild); 1: Werkstoff, 2: Laserstrahl, 3: Feste Schmelze, 4: Schmelzzone (flüssig), 5: Dampfkanal (keyhole), 6: abströmender Metalldampf, 7: Schweißrichtung (Werkfoto: TRUMPF)

Mit diesen Schweißverfahren können Bleche, Profile, Rohre und belie-big dreidimensionale Werkstücke verzugsfrei, verschleißfrei, schnell, fle-xibel und mit tiefen Nähten verschweißt werden. Zum Einsatz kommen sowohl CO2-, Nd:YAG-, als auch Diodenlaser. Die Einsatzgebiete sind äußerst vielfältig und reichen von der Automobil- und Flugzeugindustrie bis hin zum Schiffs- und Behälterbau oder Mikrotechnik. Abbildung 6.17 zeigt ein Beispiel.

Abb. 6.17. Verschweißte Achsen eines Automobils (Werkfoto: TRUMPF)

Page 319: Photonik: Grundlagen, Technologie und Anwendung

6.5 Fügen 301

Laser-Hybrid-Schweißen

Beim Laser-Hybrid-Schweißen wird das Verfahren des Laser-Schweißens mit einem anderen Schweißverfahren kombiniert. Wie Abb. 6.15 zeigt, kann das zweite Verfahren ein Metall-Schutzgasverfahren (MSG), ein Ver-fahren, das Wolfram-Inertgas verwendet (WIG), oder ein anderer Laser sein. Beim Hybrid-Schweißen erzeugen beide Schweißquellen eine ge-meinsame Schmelze. Ziel ist es, durch die Vorteile der unterschiedlichen Schweißverfahren die Schweißprozesse technologisch und wirtschaftlich zu optimieren. Abbildung 6.18 zeigt den Aufbau einer Hybrid-Schweiß-düse.

Abb. 6.18. Hybrid-Schweißdüse (links: schematischer Aufbau; rechts: realer Schweißkopf; Werkfoto: Fraunhofer Institut für Lasertechnik, ILT, Aachen)

Kunststoff-Schweißen

Das Laserstrahlschweißen von Thermoplasten und thermoplastischen E-lastomeren beruht unabhängig von der Fügepartneranordnung auf der ört-lich und zeitlich definierten Absorption elektromagnetischer Strahlung im Fügebereich, deren Umwandlung in Wärme und damit einer Temperatur-erhöhung im Wechselwirkungsbereich über der Plastifizierungs- und un-terhalb der Zersetzungstemperatur der Fügepartner. Die verfahrenstechni-schen Besonderheiten sind:

berührungslose Bearbeitung mit abnutzungsfreiem Werkzeug,örtlich (100 µm) und zeitlich (ms) definierter Energieeintrag und damit – kleine Wärmeeinflusszone (WEZ), – geringe bis keine thermische oder mechanische Belastung,

Page 320: Photonik: Grundlagen, Technologie und Anwendung

302 6 Produktionstechnik

– wulst-, abrieb-, erschütterungsfreies Fügen ohne induzierte Schwin- gungen,– geometrie- und abmessungserhaltendes Fügen, geringer Verzug, keine Erzeugung von Partikeln vor, während oder nach dem Fügepro-zess, keine Arbeitsplatzbelastung durch Schall, Dampf und Geruch, keine zusätzlichen Fügematerialien oder -strukturen notwendig,Erzeugung versteckter Schweißnähte ohne Oberflächenmodifikation, Erzeugung räumlich dreidimensionaler Nahtgeometrien (je nach Ver-fahren),toleranter gegenüber Unterschieden der Fügepartner hinsichtlichSchmelztemperatur, Viskosität und Steifigkeit als konventionelle Ver-fahren.

Die verschiedenen Bestrahlungs-Verfahren zeigt Abb. 6.19.

Abb. 6.19. Bestrahlungsverfahren beim Kunststoff-Laserschweißen (Werkfoto: Huf; Russek, U.A. 2003)

Das Konturschweißen basiert auf dem Laserdurchstrahlprinzip. Ein punktförmiger Laser bewegt sich entlang eines beliebig programmierbaren Weges. Die bestrahlten Stellen werden verschweißt. Dieses Verfahren ist hoch flexibel, erlaubt ein beliebiges Design der Schweißnaht und ermög-licht eine wirtschaftliche Serienfertigung.

Page 321: Photonik: Grundlagen, Technologie und Anwendung

6.5 Fügen 303

Das Maskenschweißen basiert ebenfalls auf dem Laserdurchstrahlprin-zip. Der Laser bewegt sich über eine strukturierte Maske. Dort, wo das Laserlicht durch die Maske tritt, werden die Bauteile verschweißt. Abge-deckte Stellen werden nicht bestrahlt und deshalb auch nicht verschweißt. Mit diesem Verfahren werden feine Strukturen im Bereich von 100 mverschweißt. Die Masken können sehr schnell ausgetauscht werden. Dies garantiert eine hohe Flexibilität.

Beim Simultanschweißen wird die Geometrie der Schweißnaht mit oder ohne Maske auf einmal ausgeleuchtet. Wird ein Laserstrahl durch schnelle Ablenkspiegel innerhalb eines begrenzten Feldes bewegt, dann nennt man dies Quasisimultanschweißen. In der Praxis werden am häufigsten das Kontur- und das Quasisimultanschweißen eingesetzt. Zum Einsatz kom-men folgende Laser:

Hochleistungs-Diodenlaser (Wellenlänge: 808 nm, 940 nm und 980 nm). Nd:YAG-Laser (Wellenlänge: 1,064 m).Ho: YAG-Laser (Wellenlänge: 2 m).CO2-Laser (Wellenlänge: 10,6 m).

Die erzielbare Schweißnahtfestigkeit dichter, porenfreier und optisch hochwertiger Nähte liegt bei optimierten Werkstoffpaarungen im Bereich der Grundmaterialfestigkeit. Dabei sind kleine und große sowie weiche und flexible Fügeteile schweißbar. Konventionelle Schweißverfahren wie das Ultraschall- und Heizelementschweißen stoßen beispielsweise bei Schweißungen an Kleinstteilen sowie an Produkten mit integrierten elekt-ronischen Bauteilen an Grenzen. Der zeitlich und räumlich lokalisierte Energieeintrag ist eingeschränkt. Thermische oder mechanische Belastun-gen führen zur Beschädigung der Produktfunktion. Das Werkzeug Laser-strahlung bietet prozess- und verfahrenstechnische Vorteile gegenüber den konventionellen Verfahren.

Es sind zwei Fügepartneranordnungen zu unterscheiden: der Stumpfstossund der Überlappstoss. Bei der Stumpfstossverbindung erfolgt eine Plastifi-zierung über die gesamte zu schweißende Materialdicke. Demzufolge ist die Fügefläche homogen sowohl in der Länge als auch in der Tiefe zu erwärmen und zu plastifizieren. Dies setzt voraus, dass die Absorption im zu plastifi-zierenden Bereich gleichmäßig stattfindet. Diese Fügepartneranordnung wird eher selten eingesetzt. Die industriell fast ausschließlich eingesetzte Fügepartneranordnung ist das Überlapp- oder Laserdurchstrahlschweißen. Beide Fügepartner weisen unterschiedliche optische Eigenschaften für die verwendete Laserstrahlung auf. Die zu fügenden Kunststoffteile liegen ü-bereinander. Die Laserstrahlung wird durch den für die Laserwellenlänge transparenten Fügepartner hindurch auf den absorbierenden Fügepartner fokussiert, wodurch dieser oberflächlich plastifiziert wird. Bei thermischem Kontakt zwischen den Fügepartnern wird auch der transparente Fügepartner

Page 322: Photonik: Grundlagen, Technologie und Anwendung

304 6 Produktionstechnik

plastifiziert, so dass es zu einer stoffschlüssigen Verbindung kommen kann. Die unterschiedlichen optischen Eigenschaften sind durch verschiedene Füllstoffe bzw. -konzentrationen einstellbar.

Abbildung 6.20 zeigt Sensoren für eine Nockenwelle, die im Quasisi-multan-Kunststoff-Schweißverfahren hergestellt wurden.

Abb. 6.20. Nockenwellensensor, hergestellt im Quasisimultan-Kunststoff-Schweiß-Verfahren (Werkfoto: Leister, mit freundlicher Genehmigung von Delphi Automo-tive, Luxemburg)

6.5.2 Löten

Löten ist ein thermisches Verfahren zum stoffschlüssigen Fügen und Be-schichten von Werkstoffen. Durch Schmelzen eines Lotes (Schmelzlöten) oder durch Diffusion an den Grenzflächen (Diffusionslöten) entsteht eine flüssige Phase, welche in den Lötspalt fließt, der die beiden Werkstoffe verbindet. Bei diesem Verfahren ist ein definierter Temperatur-Zeit-Verlauf einzuhalten, durch den folgende Prozesse ablaufen:

Aktivierung der Oberfläche. Schmelzen des Lotes. Benetzen der zu lötenden Teile durch das Lot. Fließen des Lotes in den Lötspalt. Ausfüllen des Lötspaltes durch das Lot.

Beim Laser-Löten richtet der Laser einer Hochleistungs-Laserdiode den Strahl direkt zur gewünschten Kontaktstelle. Das Lot absorbiert hauptsäch-lich die Laserenergie. Dadurch ist ein schnelles Verlöten der Teile mög-lich. Es sind sehr kurze Aufheiz- und Abkühlzeiten möglich und die Pro-zessparameter (z.B. Laserleistung, Geometrie des Lasers, Temperatur-Zeit-Verlauf) sind frei programmierbar sowie präzise einstell- und steuerbar. Dadurch ergeben sich folgende Vorteile:

Page 323: Photonik: Grundlagen, Technologie und Anwendung

6.6 Beschichten 305

Berührungslose, lokal begrenzte Energieeinspeisung.Keine thermische Schädigung wärmesensibler Bereiche. Kein Werkzeugverschleiß.Geringe Wartung.Geringe Wärmebelastung der Teile. Genau steuerbarer Prozess (Prozess-Sicherheit und gleich bleibende Qualität).Flexible, hochgenaue Fertigung mit geringen Taktzeiten.

Das Laser-Löten gestattet sowohl das Löten der Innenwände von Bohr-löchern, (z.B. zum Vergolden der Bohrlöcher von Leiterplatten) mit der through-hole-technology (THT), als auch das Löten von Bauelementen auf eine Oberfläche (z.B. das Aufbringen von Widerständen auf eine Leiter-platte) mit der surface-mounted-technology (SMT). Als Lotmittel können Lötdraht und Lötpaste verwendet werden.

Die verschiedenen Löt-Verfahren sind ähnlich wie beim Kunststoff-Schweißen. Beim Simultanlöten werden mehrere Kontaktstellen gleichzei-tig bestrahlt und gelötet. Dadurch können in sehr kurzen Prozesszeiten ein-zelne Bauteile oder ganze Anschlussreihen gelötet werden. Das Maskenlö-ten ist dann vorteilhaft, wenn sehr empfindliche oder die Laserstrahlung stark absorbierende Werkstoffe gelötet werden müssen. Der Laserstrahl trifft nur an den Stellen der Maskenöffnungen auf den Werkstoff und verlö-tet dort. Die von der Maske abgedeckten Stellen werden nicht bestrahlt; das Substrat wird nicht wärmebelastet. Beim Punktlöten bewegt sich ein punkt-förmiger Laserstrahl an jede beliebig programmierbare Stelle. Die Parame-ter des Laserstrahls können individuell programmiert werden. Wegen des kontaktlosen Energieeintrages und der hohen Flexibilität werden mit die-sem Verfahren insbesondere Sonderanwendungen wirtschaftlich fertigbar. Solche Anwendungen sind insbesondere mehrdimensionale Anordnungen, enge Packungen sowie wärmeempfindliche Bauteile.

6.6 Beschichten

Beschichten ist nach DIN 8580 das Aufbringen von fest haftenden Schich-ten aus formlosem Stoff auf die Oberfläche von Werkstücken.

Direct Metal Deposition (DMD)

Bereits in Abschn. 6.2.1 wurde das Laserformen beschrieben, mit dem beliebige Geometrien schichtförmig aufgebaut werden. Das DMD-Verfahren weist folgende Unterschiede zum Laserformen auf: Es können

Page 324: Photonik: Grundlagen, Technologie und Anwendung

306 6 Produktionstechnik

verschiedene Materialien auf andersartige Grundmaterialien gemischt und aufgetragen werden. Das Verfahren hat folgende Vorteile:

Gleichmäßige Verteilung der Beschichtung. Minimale Gefügebeeinflussung des Grundmaterials wegen geringen Energieeintrags.Hochpräzises, automatisches Auftragen mit Schichtdicken von 0,1 mm bis mehreren cm. Reparatur von polierten Oberflächen und Schichthärten von bis zu 63 HRC.

Die beschichteten Oberflächen werden meist mit Zerspanen und Schlei-fen fertig bearbeitet. Der Prozess ist in Abb. 6.21 dargestellt.

Abb. 6.21. DMD-Prozess (Werkfoto: TRUMPF)

Das DMD-Verfahren wird vor allem bei folgenden Anwendungen ein-gesetzt:

Reparatur und Änderung bestehender Bauteile (Abb. 6.22). Gezielte Verbesserung von physikalischen Eigenschaften (z.B. Hartbe-schichtung von Werkzeugen mit hohem Verschleiß; Abb. 6.23).

Page 325: Photonik: Grundlagen, Technologie und Anwendung

6.7 Stoffeigenschaften ändern 307

Abb. 6.22. Reparatur eines Bauteils (Werkfoto: TRUMPF)

Abb. 6.23. Halbwarmumformwerkzeug (Werkfoto: TRUMPF)

6.7 Stoffeigenschaften ändern

Durch Umlagern, Aussondern oder Einbringung von Stoffteilchen können Stoffeigenschaften verändert werden.

6.7.1 Härten

Das Laserstrahl-Härten gehört zum Verfahren des Umwandlungshärtensan den Randschichten (Umwandlung von Stahl und Gusseisen in Austenit oder Martensit an der Oberfläche). Im Vergleich zu den alternativen Ver-

Page 326: Photonik: Grundlagen, Technologie und Anwendung

308 6 Produktionstechnik

fahren des Flammhärtens oder Induktionshärtens besitzt das Laserstrahl-Härten folgende Vorteile:

Kurzzeit-Härteverfahren (Härtezeit von wenigen Zehntelsekunden bis zu einigen Sekunden). Geringer Verzug der bearbeiteten Bauteile. Härten von kleinen Teilen möglich.Unterschiedliche Härtung an den Oberflächen; Erzeugung von Härte-mustern.Keine Kühlmittel erforderlich.Einfache Integration in bestehende Fertigungsabläufe und on-line Pro-zesskontrolle.

Der Nachteil besteht in den relativ hohen Investitionskosten für die An-lagen. Abbildung 6.24 zeigt einen laserstrahlgehärteten Gelenkring.

Abb. 6.24. Laserstrahlgehärtetes Spannelement (Werkfoto: Fraunhofer IPT, Heidi Peters)

6.7.2 Umschmelzen

Der Laserstrahl schmelzt die Randschicht eines Werkstoffes kurzzeitig auf. Bei der anschließenden Erstarrung kann sich die Zusammensetzung des Werkstoffes ändern. Das Umschmelzen dient dazu, verbesserte Oberflä-cheneigenschaften zu erreichen, im Wesentlichen erhöhte Korrosions- und Verschleißbeständigkeit. Um die Korrosionsbeständigkeit zu erhöhen, wird das Gefüge durch Umschmelzen mit dem Laserstrahl homogenisiert, oder es werden korrosionshemmende Teilchen in die Schmelze eingebracht. Vor allem für Gusswerkstoffe aus Eisen, Aluminium, Magnesium und Kupfer wird das Verfahren eingesetzt. Der große Vorteil des Laserstrahl-Umschmelzens liegt in der Schnelligkeit des Verfahrens im Vergleich zum Umschmelzen mit Plasma, Lichtbogen oder der Flamme. Gleich schnell ist lediglich das Elektronenstrahl-Umschmelzverfahren, das jedoch im Vakuum erfolgen muss. Dies bedingt einen wesentlich höheren apparativen Aufwand.

Page 327: Photonik: Grundlagen, Technologie und Anwendung

6.8 Markieren und Beschriften 309

6.7.3 Polieren

Der Werkstoff wird zunächst umgeschmelzt. Da die Schmelze beim Er-starren versucht, die Oberflächenenergie zu minimieren, wird diese Ober-fläche sehr glatt. Zusätzlich kann durch gezieltes Abdampfen von Mikro-rauheiten durch eine gepulste Laserstrahlung die Oberfläche weiter geglättet werden. Hauptsächlich werden Werkzeugstähle, Edelstähle, Titan und die Legierungen Co-Cr sowie Cu-Al mit diesem Verfahren poliert. Es ergeben sich typische Rauheiten von 0,15 m bis 0,25 m. Besonders eig-net sich dieses Verfahren auch für poröse Werkstoffe, die eine glatte, de-fektfreie Oberfläche erhalten.

Anwendungsfelder liegen im Werkzeug- und Formenbau sowie in der Medizintechnik (Rauheiten von < 0,1 m sind für den Werkstoff TiAl6V4 erzielbar).

6.8 Markieren und Beschriften

Mit Lasern können die unterschiedlichsten Werkstoffe markiert bzw. be-schriftet werden. Eingesetzt werden entweder CO2-Laser oder Nd:YAG-Laser. Das Laserbeschriften bietet folgende Vorteile:

Verschleißfreies, berührungsloses Verfahren. Keine Verbrauchsmaterialien wie Tinten oder Lösungsmittel. Feine, abrieb- und wischfeste, chemikalien- und lichtbeständige sowie fälschungssichere Kennzeichnungen.Hohe Qualität der Kennzeichnungen. Einfache Integration in bestehende Fertigungsabläufe.

Mit einem zweidimensionalen DataMatrix-Code kann die Informations-dichte pro Fläche im Vergleich zum Barcode beträchtlich erhöht werden. Dies ist besonders für Leiterplatten und SMD-Platinen wichtig, weil dort der Platz für die Beschriftung immer geringer wird. In der Industrie hat sich der Code EC200 etabliert. Bei der Beschriftung der Leiterplatten wer-den folgende zwei verschiedene Verfahren eingesetzt:

1. Ein CO2-Laser mit einer Wellenlänge von 10,6 m bewirkt einen Farb-umschlag des Lötstopplackes von grün nach weiß, ohne die Lackschicht zu beschädigen.

2. Ein Nd:YAG-Laser trägt die Schicht des Lötstopplackes bis zur Kupfer-bahn ab.

Für das Laserbeschriften in anderen Anwendungsfällen werden folgende zwei Verfahren eingesetzt:

Page 328: Photonik: Grundlagen, Technologie und Anwendung

310 6 Produktionstechnik

Laser-Maskenbeschriften. Die Maske enthält die gesamte Beschrif-tungsinformation, die mit einem einzigen Laserimpuls aufgebracht wird. Laser-Strahlablenkungsbeschriften. Der Laserstrahl wird wie die Spitze eines Schreibstiftes so über das Produkt bewegt, dass die gewünschte Information eingeschrieben wird. Die Beschriftungsgeschwindigkeiten liegen bei 20 m/s oder 1.250 Zeichen/s.

Beim Laserbeschriften kommen folgende drei Verfahren zum Einsatz:

1. AbtragenDer Laser heizt das Material auf, welches dann schlagartig verdampft. Dadurch wird das Material dort entfernt, wo der der Laserstrahl auftrifft. Mit einem feinen Fokus und einer schnellen Ablenkung des Laserstrah-les erfolgt eine schnelle und präzise Beschriftung. Bei Mehrschichtfo-lien aus Kunststoff können dünne Deckschichten mit dem Laserstrahl abgetragen werden. Damit werden die Schalter- und Tastenkennzeich-nungen der Tag- und Nachterkennung realisiert (z.B. Schalter im Arma-turenbrett eines PKW).

2. GravierenBeim Gravieren erfolgt das Abtragen in der Tiefe (üblicherweise bis zu 50 m). Im Unterschied zum mechanischen Gravieren ist die Lasergra-vur wesentlich feiner.

3. Farbumschlag und Ausbleichen Der Laserstrahl zerstört gezielt Farbstoffe, die im Werkstoff (meist Kunststoff) eingelagert sind. Der Werkstoff verfärbt sich dann an diesen Stellen. Zum unbehandelten Material entsteht ein Kontrast, der eine gut lesbare Kennzeichnung hervorruft. Dieses Verfahren zur Laserbeschrif-tung schont die Oberfläche des Werkstoffes, die in der Regel nicht be-schädigt wird.

Abbildung 6.25 zeigt elektronische Bauteile, die mit Laser beschriftet wurden.

Abb. 6.25. Beschriften von Kondensatoren mit Kunststoffgehäuse (Geschwindig-keit: 30 Teile/s oder 108.000 Teile/Stunde; Werkfoto: ALLTEC)

Page 329: Photonik: Grundlagen, Technologie und Anwendung

6.9 Strukturieren und Mikrobearbeiten 311

6.9 Strukturieren und Mikrobearbeiten

In der Verbindungs-, Trenn- und Aufbautechnik ist der Trend zur Miniatu-risierung weiter zu beobachten. Zum Einsatz kommen gepulste Excimer-Laser, die im UV-Bereich arbeiten und Wellenlängen von 193 nm bis 351 nm besitzen. Die Pulsdauer beträgt wenige ns, die Pulsenergie liegt im Joule-Bereich mit Leistungen von einigen zehn Watt. Die sehr kurzen Wellenlängen haben für den industriellen Einsatz folgende zwei Vorteile:

Hohe Auflösung verbunden mit kleinen Strukturen.Durch die geringen Energiedichte von wenigen J/cm2 wird der Werk-stoff beim Abtragen von Oberflächenmaterial nur gering aufgeheizt (kalte Ablation). Das Abtragen kommt nicht durch Schmelzen oder Ver-dampfen von Material zustande. Es werden vielmehr Molekülverbin-dungen und Gitterstrukturen aufgebrochen.

Abbildung 6.26 zeigt einen Excimer-Laser für industrielle Anwendun-gen. Der Excimer-Laser wird auch in der Medizin in der refraktiven Chi-rurgie (z.B. Ablation der Hornhaut, um die Sehschärfe zu korrigieren) oder zur Glaukom-Behandlung (z.B. winzige Bohrungen in der Augenvorder-kammer) eingesetzt.

Abb. 6.26. Excimer-Laser für die Mikromaterialbearbeitung (248 nm und 250 mJ; Werkfoto: TuiLaser AG)

Abbildung 6.27 zeigt eine Übersicht über die Anwendungen, Abb. 6.28 die Beschichtung eines Stents. In Abb. 6.29 ist ein Kapillarelektrophorese-Chip zu sehen.

Page 330: Photonik: Grundlagen, Technologie und Anwendung

312 6 Produktionstechnik

Abb. 6.27. Übersicht über die Anwendungen in der Mikromaterialbearbeitung

Abb. 6.28. Mikrostrukturierung von Rundgeometrien: Mit Gold beschichtete Stents aus Polyimid (Wellenlänge: 248 nm; Werkfoto: Bartels Mikrotechnik GmbH)

Abb. 6.29. Kapillarelektrophorese-Chip mit einer Pt-Elektrode zur elektrochemi-schen Detektion (Wellenlänge: 248 nm; Werkfoto: Bartels Mikrotechnik GmbH)

Page 331: Photonik: Grundlagen, Technologie und Anwendung

6.10 Produktentwicklung mit Laser 313

6.10 Produktentwicklung mit Laser

Lasermaschinen mit ihren optischen Verfahren haben Einzug in die Ferti-gung gehalten und ermöglichen in fast allen Fertigungsverfahren große Fortschritte. Die flexible Verkettung dieser Maschinen und damit die Mög-lichkeit, wirtschaftlich und flexibel auch in kleinen Stückzahlen zu produ-zieren, sind neben den technologischen Fertigungsmöglichkeiten wichtige Gründe für den erfolgreichen Einsatz dieser Maschinen. Die gesamte Pro-zesskette in der Produktion wird überdies durch optische Überwachungs- und Registriersysteme sicherer und ermöglicht eine hohe, gleich bleibende Qualität, auch und vor allem bei der Produktion von Mikroteilen.

Rapid Prototyping

Mit Rapid Prototyping wird die Entwicklungszeit von der Idee bis zur Marktreife eines Produktes wesentlich verkürzt. Damit wird es möglich, Innovationen schneller, kostengünstiger und kundengerechter (schnelle Reaktion auf Marktbedürfnisse) auf den Markt zu bringen. Zunehmend wichtiger wird die Möglichkeit, Varianten und komplexe Geometrien schnell zu realisieren oder schnell und kostengünstig Änderungen vorneh-men zu können. Abbildung 6.30 zeigt in einem Schema, wie aus den Kon-struktionsdaten des CAD sehr schnell Prototypen gebaut werden können.

Abb. 6.30. Schema der Prozesskette von den CAD-Daten bis zum Prototyp für das Laser-Sintern (Werkfoto: EOS GmbH)

Wie in Abb. 6.30 zu sehen ist, werden die CAD-Daten zunächst in eine Software eingespielt (in diesem Fall EOSPACE). Diese veranlasst, dass die Bauteile so positioniert werden, dass der Bauraum optimal ausgenutzt und die erforderliche Bauhöhe minimiert wird. Daran schließt sich der Produktionsprozess an, der IPCM genannt wird (IPCM: Integriertes Pro-

Page 332: Photonik: Grundlagen, Technologie und Anwendung

314 6 Produktionstechnik

zess-Chain-Management). Dazu gehört im Falle des Lasersinterns (Abschn. 6.2.1) oder des Laserformens (Abschn. 6.6) die automatische Werkstoffzufuhr mit der Misch- und Dosierstation, die Pulveraufbereitung, die Entpackstation und das Fertigen des Prototypen. Maschinen zur Vorbe-reitung der Entsorgung können angeschlossen werden.

Für das Rapid Prototyping gibt es unterschiedliche Verfahren, die in Tabelle 6.4 aufgeführt und beschrieben sind.

Tabelle 6.4. Verfahren für das Rapid Prototyping

Verfahren Beschreibung Anwendungsbeispiel SLA Stereolithography Apparatus.

Es befindet sich über einer Plattform ein flüssiges Polymer. Die CAD-Daten werden durch einen XY-Laser-Scanner auf die O-berfläche projeziert. Der Laserstrahl härtet das Polymer aus. Das Objekt wird auf der Plattform nach unten verschoben und das Verfahren beginnt neu. So wird ein Körper Schicht um Schicht aufgebaut.

Prototypen im Ma-schinenbau, in der Elektrotechnik, als Design-Studien und als Kopie von Kunst-werken in der Ar-chäologie.

SLS Selektives Lasersintern (Abschn. 6.2.1). Der Laser sintert ein Metallpulver an der Ober-fläche. Durch Absenken des Körpers und Wiederholung des Prozesses wird ein Kör-per Schicht um Schicht aufgebaut.

Funktionsfertige und sofort einsetzbare Teile. Speziell im Werkzeug- und For-menbau.

DMD Direct Metal Deposition (Abschn. 6.6). Der Laser kann bestehende Werkstoffe (z.B. Stahl oder Aluminium) mit anderen Materia-lien (oder gleichen) beschichten.

Reparatur von Werk-zeugen. Oberflächen-behandeln (Härten, Korrosionsschutz).

FDM Fused Deposition Modeling. Thermoplasti-sche Kunststoffe werden temperaturabhän-gig auf vorhandene Kunststoffscheiben extrudiert. Auf einer Spule ist Material auf-gewickelt. Dieses wird geschmolzen und mit einem XY-Plotter auf die zuvor erzeugte Schicht gebracht.

Funktionelle, geomet-rische und technische Prototypen aus Kunststoff.

SGC Solid Ground Curing. Wie in einem Fotoko-pierer wird durch einen elektrostatischen Prozess eine Maske aufgebaut. Durch diese Maske tritt UV-Licht, welches den Kunst-stoff aushärtet. Der Prozess wird wiederholt, um weitere Schichten aufzubauen. Das Ver-fahren ist ein Stereolithografie-Verfahren, bei dem durch eine Maske belichtet wird.

Bau von Design-Modellen. Feinguss-Modelle für das Wachsausschmelz-Verfahren.

Page 333: Photonik: Grundlagen, Technologie und Anwendung

6.10 Produktentwicklung mit Laser 315

LOM Laminated Object Manufacturing. Man startet mit einer dünnen Kunststoff-Folie. Der Laser schneidet entsprechende Konturen aus. Anschließend wird wieder eine dünne Folie aufgebracht. Gleichzeitig können bis zu vier Folienschichten bearbeitet werden.

Geometrie- und Funktionsprototypen. Bau von Kunststoff-teilen mit dicken Wänden.

IT Inkjet Technology. Wie bei einem Tinten-strahldrucker werden kleine Tröpfchen aus flüssigem Kunststoff ausgesprüht. Im nächs-ten Sprühgang werden weitere flüssige Kunststoffteilchen aufgebracht.

Design-Studien für große Modelle.

3DP Three Dimensional Printing. Es werden Körner eines Pulvers mit einem flüssigen Binder verklebt. Der flüssige Binder wird entsprechend der CAD-Daten mit einer Ink-Jet-Düse aufgebracht. Dadurch werden Schichtelemente hergestellt, aber auch die aktuelle Schicht mit der darunter liegenden verbunden. Mit diesem Verfahren können verschiedene Materialien auf vorhandene Werkstoffe aufgebracht werden. Der Laser-strahl weicht das Material auf und eine Druckwalze prägt entsprechende Geomet-rien ein.

Verlorene Formen und Kerne für das Feingiessen.

DSPC Direct Shell Production Casting. Auf ein Metallpulver wird ein flüssiger Binder auf-gedruckt. Dieser wird dann erhitzt.

Erzeugen von form-stabilen und tempera-turbeständigen Ker-nen für das Gießen von Metallen.

Rapid Production

Neben der schnellen und wirtschaftlichen Erstellung von Einzelteilen mit den Verfahren des Rapid Prototyping ist es wichtig, den gesamten Ferti-gungsprozess mit seinen mechanischen, elektrischen, elektronischen, in-formatischen und optischen Komponenten zu integrieren und flexibel und wirtschaftlich zu gestalten. Dazu gibt es spezielle Auftragsplanungs-Systeme, die unter besonderer Berücksichtigung von Laseranwendungen alle Parameter einer Fertigung berücksichtigt. Auch die erforderlichen oder die gewünschten Informationen können erzeugt werden (z.B. Vorwärts- und Rückwärtsterminierung, Belegungsdiagramme nach Gantt, Simulation alternativer Maschinenbelegungen, kurze Durchlaufzeiten, Produktmen-gen- und Terminüberwachungen).

Page 334: Photonik: Grundlagen, Technologie und Anwendung

316 6 Produktionstechnik

6.11 Literatur

Dausinger F (2001) Laserverfahren für Tieflochbohrungen im Mikrometerbereich. Wt Werstatttechnik 91: 20

Hecht J (1992) Helium Neon Lasers, Carbon Dioxide Lasers, Neodym Lasers, Diode-Lasers. Laser Focus World. 28: 77 – 143

Poprawe R (2005) Lasertechnik für die Fertigung. Springer, Berlin, Heidelberg Regenfuß P, Ebert R, Klötzer S, Hartwig L, Exner H, Petsch T (2004) Mikrobau-

teile durch Lasersintern im Vakuum. Forschungsbericht Forschungszentrum Karlsruhe

Russek U.-A (2005) Prozesstechnische Aspekte beim Laserdurchstrahlschweißen von Thermoplasten. Dissertation Fakultät für Maschinenwesen RWTH Aa-chen

Russek U.-A, Palmen A, Staub H, Wenzlau C, Otto G, Poggel M, Koeppe A (2003) Laser Beam Welding of Thermoplastics, Photonics West, Conference San Jose, USA

Schillinger H, Wallenta P (2004) Kompakte Excimerlaser in der Industrie. Physik Journal Nr. 10: 80

Vollertsen F, Holzer S (1994) Laserstrahlumformen. VDI-Z 136: 35 www.3dsystems.com www.bartels-mikrotechnik.de www.eos-gmbh.de www.dilas.de www.huf-tools.de www.ilt.fraunhofer.de www.ipt.fraunhofer.de www.leister-technologies.dewww.lzh.de www.trumpf.com www.tuilaser.com

Page 335: Photonik: Grundlagen, Technologie und Anwendung

7 Beleuchtungstechnik

7.1 Einleitung

Ziel der Beleuchtungstechnik ist es, das Licht einer Lichtquelle so umzu-lenken, dass es für einen menschlichen Betrachter oder für eine technische Anwendung den größten Nutzen bringt. Dieses Lichtlenken geschieht durch den Einsatz von reflektierenden oder transmittierenden Materialien, deren Oberflächen so gestaltet sind, dass auftreffendes Licht durch Refle-xion, Brechung und zum Teil auch Beugung in der Strahlrichtung geändert wird. Solche Materialien werden auch als passive optische Komponenten bezeichnet. Die Kombination aus Lichtquelle und passiven optischen Kom-ponenten nennt man optisches System.

Die Lichtfarbe spielt für beleuchtungstechnische Anwendungen eine wichtige Rolle. Die Lichtfarbe wird durch die Zusammensetzung der ein-zelnen Wellenlängenbereichen erzeugt. Licht im Allgemeinen sind elekt-romagnetische Wellen aus dem Wellenlängenbereich von 380 nm bis 780 nm. Dieser Wellenlängenbereich umfasst den für das menschliche Auge sichtbaren Bereich, wobei die kurzwelligen Bereiche als violett und die langwelligen Bereiche als rot empfunden werden. Neben den oben beschriebenen geometrischen Effekten, die passiv optische Komponenten auf die Lichtstrahlung haben, gibt es zudem spektrale Effekte wie spektrale Absorption oder Dispersion, welche die Lichtausbreitung beeinflussen. Für bestimmte Anwendungen der Beleuchtungstechnik wird eine definierte spektrale Zusammensetzung des Lichtes gefordert. Ein Beispiel hierzu sind die Farben rot, gelb und grün der Verkehrsampel.

Optische Systeme der Beleuchtungstechnik lassen sich in drei Haupt-gruppen einteilen. Diese drei Hauptgruppen sowie ein Teil der dazu gehö-rigen Anwendungen sind in Tabelle 7.1 dargestellt.

Page 336: Photonik: Grundlagen, Technologie und Anwendung

318 7 Beleuchtungstechnik

Tabelle 7.1. Beispiele optischer Systeme der Beleuchtungstechnik

Beleuchtung Signalisation Informationsträger Raumleuchten Ampeln Displays Arbeitsplatzleuchten Schienenverkehr-Signalgeber Bedienelemente Kraftfahrzeug

Fernlicht Abblendlicht Nebelscheinw. Leseleuchten

Kraftfahrzeug Fahrtrichtungsanzeiger Schlussleuchte Bremsleuchte Nebelschlussleuchte

Statusanzeigen

Straßenverkehrsleuchten Positionslichter für Flugzeuge und Schiffe

Tacho

Architekturleuchten Positionslichter für Gebäude und Hindernisse

Medizinleuchten Endoskopiebeleuchtung

7.2 Lichttechnische Größen

Die für die Beleuchtungstechnik wichtigsten lichttechnischen Größen wer-den hier kurz erläutert. Die formelmäßigen Definitionen sind in Abschn. 1.3.2 zusammengestellt.

Lichtstrom Mit dem Lichtstrom bzw. der Lichtleistung wird die Menge des Lichtes bezeichnet, die von einer Lichtquelle ausgesandt wird oder in einen Zielbe-reich auftrifft. Das von einer Lichtquelle ausgesendete Licht steht zur Ver-fügung, um es durch die passiven optischen Komponenten zu lenken. Der Lichtstrom wird in Lumen gemessen: [ ] = 1 lm.

Beleuchtungsstärke EDie Beleuchtungsstärke beschreibt den Lichtstrom, der auf eine bestimmte Fläche auftrifft. Sollen Objekte ausgeleuchtet werden, ist das Maß der Beleuchtungsstärke das entscheidende Kriterium. Zum Beispiel muss ein Autoscheinwerfer auf der Fahrbahn vor dem Fahrzeug eine genügend hohe Beleuchtungsstärke erzeugen, damit der Fahrer den Straßenverlauf sowie Objekte auf der Strasse gut erkennen kann (Tabelle 7.1, 1. Spalte). Der erste Teil der Anwendungsbeispiele befasst sich mit Systemen für die Be-leuchtung, für welche die Beleuchtungsstärkeverteilung das Hauptkriteri-um darstellt (Abschn. 7.3). Die Beleuchtungsstärke wird in Lux gemessen: [E] = 1 lx = 1 lm/m2.

Page 337: Photonik: Grundlagen, Technologie und Anwendung

7.2 Lichttechnische Größen 319

Lichtstärke IDie Lichtstärke beschreibt den Lichtstrom, der in einen bestimmten Raum-winkel abgestrahlt wird. Die Lichtstärke bestimmt die winkelabhängige Lichtabstrahlung optischer Systeme, ihre Maßeinheit ist die Candela:[I] = 1 cd = 1 lm/sr.

Das Lichtstärke-Kriterium wird beispielsweise für optische Signaleinrich-tungen verwendet, welche von einem Betrachter aus größeren Abständen, dem sogenannten Fernfeld, betrachtet werden. Beispiele hierfür sind Stra-ßenverkehrssignalgeber (Ampel) oder Kfz-Fahrtrichtungsanzeiger (Blin-ker). Diese Signalgeber müssen aus den unterschiedlichen Betrachtungsrich-tungen gut zu erkennen sein. Dies bedeutet, dass sie einen genügend hohen Lichtstrom in die Richtung des Betrachters abstrahlen müssen. Im zweiten Teil der Anwendungsbeispiele werden Systeme zur Signalisation dargestellt, für welche das Hauptkriterium die Lichtstärke ist (Tabelle 7.1, 2. Spalte; Abschn. 7.4).

Leuchtdichte LDie Leuchtdichte beschreibt den Lichtstrom, der von einer Fläche in einen Raumwinkel abgestrahlt wird. Sie ist die Größe, die von einem menschli-chen Betrachter erfasst wird. Beim Blick auf einen Bildschirm ist die Leuchtdichteverteilung auf dem Bildschirm dafür verantwortlich, dass der Betrachter die Symbole und Schriften erkennen kann. Dabei ist es möglich, dass die Leuchtdichte durch ein Selbstleuchten verursacht wird (Bild-schirm) oder durch ein Anleuchten eines Objektes, welches durch Reflexion die Lichtstrahlung in das Auge des Betrachters umlenkt (z.B. Fahrbahnaus-leuchtung). Die Maßeinheit der Leuchtdichte ist [L] = 1 cd/m2.

Beim Lesen dieses Buches spielen zwei der oben beschriebenen Effekte eine Rolle:

1. Eine genügend hohe Beleuchtungsstärke sorgt für die gute Ausleuch-tung der Buchseiten, so dass das reflektierte Licht genügend stark ist, damit der Betrachter etwas erkennen kann.

2. Aufgrund der unterschiedlichen Reflexionseigenschaften der weißen Seiten des Buches sowie der schwarzen Schrift, ergibt sich ein Kontrastin der Leuchtdichteverteilung, wodurch diese Zeichen lesbar sind.

Wird in diesem Kapitel von Leuchtdichte gesprochen, bezieht sich diese im Wesentlichen auf Leuchtdichten, die durch selbstleuchtende Objekte erzeugt werden. Der dritte Teil der Anwendungsbeispiele befasst sich mit Systemen für Informationsträger, für die das Maß der Leuchtdichte das Hauptkriterium darstellt (Tabelle 7.1, 3. Spalte; Abschn. 7.5).

Page 338: Photonik: Grundlagen, Technologie und Anwendung

320 7 Beleuchtungstechnik

7.3 Optische Systeme zur Beleuchtung

Die folgenden Beispiele zeigen Systeme, die für Beleuchtungsaufgaben eingesetzt werden. Ziel dieser optischen Systeme ist es, bestimmte Flächen nach entsprechenden Vorgaben auszuleuchten. Je nach Anwendung müs-sen noch weitere Anforderungen erfüllt werden.

7.3.1 Beleuchtungssystem aus Lichtquellen und Reflektor

Ein sehr weit verbreitetes optisches Beleuchtungssystem ist das Lichtquel-len-Reflektor-System. Das von der Lichtquelle abgestrahlte Licht wird von dem Reflektor erfasst und umgelenkt. Die optischen Anforderungen an diese Systeme sind sehr unterschiedlich und erstrecken sich von „hell ma-chen“ bis zur einer definiert vorgegebenen Beleuchtungsstärkeverteilung. Das folgende Prinzipbild zeigt ein solches System bestehend aus Licht-quelle und Reflektor (Abb. 7.1)

Abb. 7.1. Prinzipbild eines optischen Systems, bestehend aus Lichtquelle und Reflektor

Ein Teil des von der Lichtquelle abgestrahlten Lichtstromes (schema-tisch dargestellt als Linien) trifft auf den Reflektor auf und wird dort um-gelenkt. Ziel ist es, dass der Lichtstrom möglichst effizient auf die Zielflä-che gelangt (Fläche dargestellt durch Gitternetzlinien). Die Lichtstrahlen, welche nicht auf den Reflektor auftreffen, können nicht kontrolliert wer-den. Teilweise trifft dieses Licht auf die Zielfläche; teilweise geht es an der Zielfläche vorbei.

Page 339: Photonik: Grundlagen, Technologie und Anwendung

7.3 Optische Systeme zur Beleuchtung 321

Die folgenden zwei Bilder (Abb. 7.2 und Abb. 7.3) stellen Produkte dar, die nach diesem Grundprinzip jedoch für sehr unterschiedliche Anwen-dungen aufgebaut sind. Abbildung 7.2 zeigt eine einfache Leuchte für die Raumbeleuchtung im Privatbereich. Im Gegensatz dazu zeigt Abb. 7.3 eine UHP (Ultra-High-Pressure)-Lichtquelle mit Reflektor für LCD-Projektoren. Diese Lichtquelleneinheit ist so ausgelegt, um auf einer klei-nen Fläche möglichst viel Licht zu bündeln.

Abb. 7.2. Leuchte für Raumbeleuchtung

Abb. 7.3. Lichtquelleneinheit für einen Videoprojektor

Zur Bewertung von Beleuchtungssystemen wird die Beleuchtungsstärke E verwendet, welche von der Leuchte in der Zielebene erzeugt wird. Ist die Beleuchtungsstärke nicht an jedem Flächenelement der Zielfläche iden-tisch, wird auch der Begriff der maximalen, minimalen sowie der mittleren Beleuchtungsstärke verwendet, um das Ergebnis zu beschreiben.

Beispiel:Eine 120 W Halogenlichtquelle wird in einem elliptischen Reflektor positioniert. Die Lichtquelle emittiert einen Lichtstrom von 2.600 lm. Der Reflektor umschließt die Lichtquelle so, dass 70% des Lichtes vom Reflektor erfasst werden. Licht, das nicht auf den Reflektor trifft, wird vernachlässigt. Der Reflexionsgrad des Reflek-tors beträgt 85%. Mit dem optischen System wird eine quadratische Fläche mit 200 cm Kantenlänge ausgeleuchtet. Zu berechnen ist die gemittelte Beleuchtungs-stärke auf der Fläche, welche durch dieses optische System erzeugt wird.

Page 340: Photonik: Grundlagen, Technologie und Anwendung

322 7 Beleuchtungstechnik

Lösung:

lx387m4

0,850,7lm600.22A

E .

7.3.2 Beleuchtungssystem aus Lichtquelle und Linse

Eine weitere Möglichkeit zur Objektbeleuchtung ist ein optisches System, bestehend aus Lichtquelle und Linse. Die Lichtlenkung geschieht in die-sem Fall nicht durch Reflexion, sondern über Brechung beim Grenzflä-chenübergang zwischen dem Linsenmaterial und der umgebenden Luft. Abbildung 7.4 zeigt ein solches System. Als Lichtquelle wird hierbei eine LED verwendet.

Abb. 7.4. LED mit Freiformvorsatzlinse zur homogenen Beleuchtung (Werkfoto: opsira GmbH)

Die Linse ist aus so genannten Freiformflächen aufgebaut. Die Linsen-flächen sind so gestaltet, dass eine homogene Ausleuchtung der Zielfläche erreicht wird. Dies bedeutet: Der Lichtstrom, welcher von der Lichtquelle auf die Linse trifft, wird so umgelenkt, dass im Zielfeld auf jedes Flächen-element ein gleich großer Lichtstrom auftrifft.

7.3.3 Arbeitsplatzleuchte

An Arbeitsplätzen im Allgemeinen und Bildschirmarbeitsplätzen im Be-sonderen werden an die Beleuchtung hohe Anforderungen gestellt. Dies bezieht sich insbesondere auf die Ausleuchtung des Arbeitsplatzes. Es soll-

Page 341: Photonik: Grundlagen, Technologie und Anwendung

7.3 Optische Systeme zur Beleuchtung 323

te mindestens eine mittlere Beleuchtungsstärke von 500 lx erreicht werden. Es wird zudem gefordert, dass die Leuchten keine Blendung verursachen.Blendung entsteht, wenn Lichtstrahlung unter einem sehr flachen Winkel, > 50° zur Leuchtennormalen, aus der Leuchte austritt. Die Blendung soll möglichst gering sein, damit zum Beispiel auf einem Bildschirm keine störenden Reflexe entstehen.

Vielfältig werden Arbeitsplatzleuchten zudem eingesetzt, um neben dem direkten Arbeitsplatz auch die nähere Umgebung des Arbeitsplatzes auf-zuhellen (Abb. 7.5).

Abb. 7.5. Prinzipbild einer Leuchte mit Direkt- und Indirektanteil

Auf der linken Seite der Abb. 7.5 befindet sich die Arbeitsplatzleuchte. Die Leuchte strahlt das Licht primär nach unten auf die Arbeitsplatzfläche und nach oben auf die Decke des Raumes. Das auf die Decke auftreffende Licht wird von dieser reflektiert und auf die Arbeitsplatzfläche sowie den nahen Umgebungsbereich umgelenkt. Dieses Prinzip wird auch als Direkt-Indirektbeleuchtung bezeichnet. Das Licht, das den Arbeitsbereich be-leuchtet, wird sowohl durch eine direkte Abstrahlung von der Leuchte, als auch durch indirektes Licht (abgestrahlt von der Decke) erzeugt. Voraus-setzung dafür ist eine möglichst helle Farbe bzw. möglichst hohe diffuse Reflexion der Decke (Abb. 7.6).

Page 342: Photonik: Grundlagen, Technologie und Anwendung

324 7 Beleuchtungstechnik

Abb. 7.6. Aufhellung des Deckenbereichs sowie der Arbeitsplatzumgebung

Die Vorteile dieser Technik liegen darin, dass die Beleuchtung, die von der Decke reflektiert wird, von einer großen Fläche abgestrahlt wird. Da-durch wird störendes Reflexlicht und Schattenbildung verringert.

Indirekte Beleuchtung mit Sekundärreflektortechnologie

Die indirekte Beleuchtungstechnologie wird dort angewandt, wo eine gleichmäßige, großflächige Ausleuchtung erzeugt werden soll und stören-des Blendlicht zu minimieren ist. Diese Technologie wird hauptsächlich im Außenbereich oder in der Ausleuchtung großer Räume eingesetzt.

Die Beleuchtungstechnologie besteht im Wesentlichen aus der Lichtquel-leneinheit und einem Sekundärreflektor. Die Lichtquelleneinheit (Werfer) setzt sich aus dem Leuchtmittel und dem Hauptreflektor zusammen. Der Reflektor ist meist eine parabolische oder elliptische Fläche. Ziel der Licht-quelleneinheit ist es, den Lichtstrom der Lichtquelle möglichst effizient auf den Sekundärreflektor zu strahlen.

Der Sekundärreflektor lenkt die Lichtstrahlung zu der eigentlichen Be-leuchtungsfläche um. Die Reflexionsflächen des Sekundärreflektors beste-hen in den meisten Fällen aus einzelnen Facetten, wobei jede einzelne Fa-cette die Zielfläche ausleuchtet. Der Vorteil dieser Technik ist, dass ein Betrachter nicht in die kompakte Lichtquelleneinheit blicken kann. Der Betrachter sieht die Lichtstrahlung erst, nachdem diese durch den Sekundär-reflektor umgelenkt wurde. Der Sekundärreflektor ist deutlich größer als die Lichtquelleneinheit. Dadurch ist die Lichtstrahlung auf dem Sekundärre-flektor nicht mehr so konzentriert und es entsteht eine geringere Blendstrah-lung. Das folgende Prinzipbild (Abb. 7.7) verdeutlicht die Technik:

Page 343: Photonik: Grundlagen, Technologie und Anwendung

7.3 Optische Systeme zur Beleuchtung 325

Abb. 7.7. Prinzip des Sekundärreflektors (Werkfoto: SITECO Beleuchtungstech-nik GmbH)

Die dargestellte Lichtpunktgröße, der Lichtpunktabstand sowie die Be-obachterposition sind entscheidende Faktoren zur Reduzierung von Blend-

Abb. 7.8. Leuchte mit Indirekttechnologie (Werkfoto: SITECO Beleuchtungstech-nik GmbH)

Page 344: Photonik: Grundlagen, Technologie und Anwendung

326 7 Beleuchtungstechnik

licht. Auch aus wartungstechnischer Sicht haben solche Leuchten einen Vorteil. Die Lichtquelleneinheiten können an besser zugänglichen Stellen (z.B. näher am Boden oder an Wänden) positioniert werden. Dagegen sind die Sekundärreflektoren höher angeordnet, um den Zielbereich von oben auszuleuchten (Abb. 7.8).

7.3.4 Kraftfahrzeug-Frontbeleuchtung

Einrichtungen zur Beleuchtung des vorderen Verkehrsraumes sind der Abblendlicht-Scheinwerfer, der Fernlicht-Scheinwerfer sowie der Nebel-Scheinwerfer (Tabelle 7.1, linke Spalte). Diese Leuchten müssen entspre-chend den ECE-Regelungen (gültige Norm für Europa) eine bestimmte Beleuchtungsstärkeverteilung in einem Abstand von 25 m an einer vertikal stehenden Wand erzeugen. Die Ausleuchtungsvorschriften auf der vertikal stehenden Wand sind jeweils so gewählt, dass hieraus eine gute Beleuch-tung der horizontal orientierten Fahrbahn sowie etwaiger Objekte im Raum vor dem Fahrzeug gegeben ist. Abbildung 7.9 zeigt drei Beleuchtungssitu-ationen einer Kfz-Frontbeleuchtung.

Abb. 7.9. Vergleich von Abblendlicht (oberes Bild), Fernlicht (mittleres Bild) und Kombination von Abblend- und Nebellicht (unteres Bild) (Werkfoto: Hella KGaA Hueck & Co.)

Page 345: Photonik: Grundlagen, Technologie und Anwendung

7.3 Optische Systeme zur Beleuchtung 327

Ein wichtiges Kriterium für Nebel-Scheinwerfer und Abblendlicht-Scheinwerfer ist eine geringe Blendwirkung des entgegenkommenden Ver-kehrs. Um dies zu erreichen, gibt es bei diesen Scheinwerfern die soge-nannte Hell-Dunkel-Grenze. Diese Grenze befindet sich etwas unterhalb der Horizontallinie, die sich auf die mittlere Position der Leuchte bezieht. Unterhalb dieser Grenze muss die erzeugte Beleuchtungsstärke sehr hoch sein, damit der Bereich, der weit vom Fahrzeug entfernt ist, ausgeleuchtet wird. Oberhalb dieser Grenze muss die Beleuchtungsstärke sehr gering sein, um die entgegenkommenden Fahrer nicht zu blenden. Bei Abblend-licht-Scheinwerfern verläuft im rechten Bereich die Hell-Dunkel-Grenze nach oben, über die Horizontallinie hinaus. Dies dient dazu, dass Objekte am rechten Straßenrand gut zu erkennen sind. Auf dem oberen Bild ist dies dadurch zu erkennen, dass der rechte Fahrbahnbereich besser ausgeleuch-tet ist. Im Vergleich dazu zeigt das mittlere Bild die Beleuchtung der Strasse mit dem Fernlicht-Scheinwerfer. Die Objekte in der Ferne sind mit dieser Lichtverteilung gut zu erkennen, da das Fernlicht keine Hell-Dunkel-Grenze besitzt. Das Nebellicht (unteres Bild) leuchtet den Nahbe-reich vor dem Fahrzeug mit einer sehr breiten Verteilung aus.

Die geforderte Beleuchtungsstärkeverteilung für Kfz-Scheinwerfer wird hauptsächlich durch folgende drei unterschiedliche optische Systeme reali-siert:

1. System mit StreuscheibeDas von der Lichtquelle ausgesendet Licht wird über einen Paraboloid-Reflektor gesammelt und kollimiert. Über die Brechung an einer struk-turierten Abdeckscheibe der Leuchte wird die gewünschte Lichtvertei-lung erzeugt.

2. Freiformreflektor Das Lichtquellenlicht wird über einen Reflektor, der aus Freiformflä-chen aufgebaut ist, so umgelenkt, dass sich die geforderte Beleuch-tungsstärkeverteilung ergibt. Die Abdeckscheibe der Leuchte ist nicht strukturiert und hat nur einen geringen Einfluss auf die Lichtverteilung.

3. Projektionssystem Das Lichtquellenlicht wird über einen Freiformreflektor in die Brennebe-ne einer Projektionslinse umgelenkt. Der Reflektor ist so geformt, dass sich in der Brennebene eine definierte Beleuchtungsstärkeverteilung er-gibt. Die Projektionslinse bildet diese Beleuchtungsstärkeverteilung auf die Fahrbahn ab. Durch das Einbringen einer Blende in der Linsenbrenn-ebene kann eine scharf begrenzte Hell-Dunkel-Grenze erzeugt werden.

Anbau der Frontbeleuchtung an Fahrzeugen

Im Gegensatz zu Abblendlicht- und Fernlichtscheinwerfer ist der Nebel-scheinwerfer tief am Fahrzeug angebaut. Dadurch wird der Nebel gut durch-

Page 346: Photonik: Grundlagen, Technologie und Anwendung

328 7 Beleuchtungstechnik

drungen, der Fahrer aber nicht so stark durch die Reflexion des Nebels ge-blendet (Abb. 7.10).

Abb. 7.10. Anordnungsbeispiel von Abblendlicht-, Fernlicht- und Nebellichtschein-werfer am Fahrzeug

Zur Verbesserung der Straßenausleuchtung bei Kurvenfahrten sind ak-tuell Systeme in der Entwicklung, die durch Drehen der Lichtquellenein-heit die Strasse besser ausleuchten. Fährt das Fahrzeug in eine Kurve, dann wird der Lichtkegel in den vorausberechneten Kurvenverlauf einge-schwenkt (Abb. 7.11).

Abb. 7.11. Funktionsbild für Kurvenabblendlicht (Werkfoto: DaimlerChrysler AG)

7.3.5 Operationsleuchten (OP-Leuchten)

Operationsleuchten ermöglichen eine optimale Ausleuchtung von Wundfel-dern. Da hohe Anforderungen an OP-Leuchten gestellt werden, gehören

Page 347: Photonik: Grundlagen, Technologie und Anwendung

7.3 Optische Systeme zur Beleuchtung 329

diese mit zu den komplexeren Leuchtensystemen. Nach der Norm EN 60601-1-41 sind dies im Wesentlichen folgende Anforderungen (Abb. 7.12):

Abb. 7.12. Geforderte Verteilung der Beleuchtungsstärke

Hohe Beleuchtungsstärke zwischen 40.000 lx und 160.000 lx. Definiertes Leuchtfeld.Gute Tiefenschärfe, um die Notwendigkeit des Nachstellens der OP-Leuchte zu verringern.

Page 348: Photonik: Grundlagen, Technologie und Anwendung

330 7 Beleuchtungstechnik

Schattenfreies Licht, auch wenn Objekte (Hand, Kopf, OP-Besteck) zwischen der Leuchte und dem Wundfeld eingebracht werden. Gute Ausleuchtung von schmalen und tiefen Wundhöhlen. Geringe Bestrahlungsstärke im Wundfeld, damit die Wunde nicht aus-trocknet.Spektrale Lichtemission mit einem hohen Farbwiedergabeindex, damit die Farben des Wundfelds nicht verfälscht werden. Hohe Farbtemperatur der Lichtemission.

Die Beleuchtungsstärkverteilung soll möglichst rotationssymmetrisch sein und in der Intensität vom Zentrum nach außen stetig abfallen (Gauß-Verteilung). Der Durchmesser des Leuchtfeldes mit 50% Beleuchtungs-stärke, bezogen auf das Maximum, muss hierbei mindestens die Hälfte des Durchmessers des Leuchtfeldes mit 10% Beleuchtungsstärke erreichen.

Die Qualität des schattenfreien Lichtes wird durch den Einsatz von gro-ßen Leuchten mit einem Durchmesser von 500 mm bis 1.000 mm erreicht. Jeder Teil der Leuchte soll nach Möglichkeit den kompletten Wundfeldbe-reich ausleuchten. Wird ein Objekt in den Lichtkanal eingeführt, ergibt sich zwar eine Abnahme in der Beleuchtungsstärke, aber kein Schatten. In Abb. 7.13 ist der Strahlengang einer OP-Leuchte zu sehen.

Abb. 7.13. Strahlengang einer OP-Leuchte in Falschfarbendarstellung (Werkfoto: opsira GmbH)

Beschichtete Filter verändern die spektrale Lichtemission der eingesetz-ten Lichtquelle so, dass die Anforderungen an Farbtemperatur und Farb-wiedergabe erfüllt werden können. Zum Teil werden für die Filtergläser

Page 349: Photonik: Grundlagen, Technologie und Anwendung

7.3 Optische Systeme zur Beleuchtung 331

Materialien verwendet, die einen hohen Absorptionsgrad im Infraroten be-sitzen. Dadurch wird die Infrarotemission und damit die Wärmestrahlung der Leuchte minimiert. Abbildung 7.14 zeigt OP-Leuchten im Einsatz.

Abb. 7.14. OP-Leuchten im Einsatz (Werkfoto: Draeger Medical AG)

Als Lichtquellen werden in OP-Leuchten Gleichstrom-Halogenlicht-quellen eingesetzt, die mit bis zu 30 lm/Wel eine hohe Lichtleistung im Verhältnis zur elektrischen Anschlussleistung aufweisen.

Auch Gasentladungslichtquellen werden eingesetzt. Diese haben im Gegensatz zu Halogenlichtquellen eine spektrale Lichtemission, die der für OP-Leuchten geforderten Lichtemission in Bezug auf Farbtemperatur, Farbwiedergabe und geringer Infrarotemission schon sehr nahe kommt. Zudem haben diese Lichtquellen mit etwa 70 lm/Wel eine höhere Lichtaus-beute als Halogenlichtquellen.

In der Zukunft werden zunehmend LED-Lichtquellen in den OP-Leuch-ten Einzug halten. Diese haben den Vorteil, dass Sie nahezu keine Infra-rotemission aufweisen und dadurch die Bestrahlungsstärke (Wärme) im Wundfeld bis zum physikalisch Möglichen verringert.

7.3.6 Lichtleiter für Beleuchtung

Lichtleiter in der Beleuchtungstechnik dienen dazu, den Lichtstrom von einer Lichtquelle an einen entfernteren Ort zu transportieren. Der Licht-transport basiert hierbei auf der internen Totalreflexion zwischen dem Lichtleitermaterial (Kernmaterial) und dem umgebenden Material (Man-telmaterial, Abschn. 1.1.3). Damit Totalreflexion entstehen kann, muss das

Page 350: Photonik: Grundlagen, Technologie und Anwendung

332 7 Beleuchtungstechnik

umgebende Material einen geringeren Brechungsindex als das Kernmateri-al besitzen. Das umgebende Material kann beispielsweise auch Luft sein (Brechungsindex n • 1). Dies ist vor allem bei Lichtleiter der Fall, die als Kunststoffspritzgussteile hergestellt werden (Abb. 7.15).

Abb. 7.15. Prinzip eines Lichtleiters (Werkfoto: opsira GmbH)

Für eine möglichst effiziente Einkopplung des LED-Lichtes in den Lichtleiter befindet sich eine Einkoppel-Optik an der Stirnseite des Licht-leiters. Ein Lichtleiter kann auch entlang der Lichtleiterstrecke gekrümmt sein. Der Krümmungsradius darf ein bestimmtes Verhältnis in Bezug zum Lichtleiterdruchmesser nicht unterschreiten, da sonst die interne Totalre-flexion nicht mehr gegeben ist. Erfordert die Anwendung jedoch einen geringen Krümmungsradius, kann durch eine Aluminium-Beschichtung des Lichtleiters der Wirkungsgrad verbessert werden.

Abb. 7.16. Endoskopische Beleuchtungseinheit (Werkfoto: ATMOS Medizin-Technik GmbH)

Ein typisches Beispiel eines Lichtleiters für die Beleuchtung ist die me-dizinische Endoskopie (Abb. 7.16). Hierbei wird über einen dünnen Licht-leiter die Lichtstrahlung in den Patientenkörper eingeführt. Nach dem Aus-tritt aus dem Lichtleiter beleuchtet dieses Licht die Operationsstelle. Eine Kamera am endoskopischen Instrument kann die Operationsstelle am Bild-schirm sichtbar machen.

Page 351: Photonik: Grundlagen, Technologie und Anwendung

7.4 Optische Systeme zur Signalisation 333

7.4 Optische Systeme zur Signalisation

Eine Signalbeleuchtung wird eingesetzt, um Betrachter auf ein Objekt oder einen bestimmten Zustand aufmerksam zu machen. Der Betrachter schaut hierbei im Normalfall direkt auf die Leuchte.

Die Hauptanforderung an diese Leuchten ist die Lichtstärkeverteilung.Die geforderte Lichtstärkeverteilung ist so festgelegt, dass ein Betrachter ab einem gewissen Betrachtungsabstand das Signal aus allen möglichen Betrachtungsrichtungen gut erkennen kann. Die Homogenität der flächen-haften Abstrahlung hat eine untergeordnete Rolle, da die Signalleuchte keine bzw. nur sehr geringe Information enthält. Zum Teil werden bei Sig-nalleuchten unterschiedliche Zustände durch unterschiedliche Farben dar-gestellt. Da Signalleuchten keine Flächen zu beleuchten haben, sind die Anforderungen an die Lichtströme relativ gering. Aus diesem Grund wer-den LED Lichtquellen schon lange (seit etwa 1990) im Bereich der Signal-beleuchtung eingesetzt.

7.4.1 Straßenverkehrsignal (Ampel)

Ein sehr bekanntes Beispiel für eine Signalbeleuchtung ist das Straßenver-kehrssignal (Abb. 7.17).

Abb. 7.17. LED-Signalgeber für den Straßenverkehr (Werkfoto: Siemens AG)

Der Signalgeber muss der Norm EN12368 entsprechen. Dort sind unter-schiedliche Lichtstärkeverteilungen definiert. Eine typische Lichtstärke-verteilung ist aus Tabelle 7.2 zu entnehmen.

Tabelle 7.2. Geforderte Lichtstärkeverteilung in vertikaler (V) und horizontaler Abstrahlrichtung (H) eines Straßenverkehrssignalgebers Typ W

V/H -300 -200 -100 -50 00 50 100 200 300

00 2cd 6cd 110cd 170cd 200cd 170cd 110cd 6cd 2cd -30 150cd 160cd 150cd -50 70cd 120cd 70cd -100 16cd 60cd 16cd -200 4cd 4cd 4cd

Page 352: Photonik: Grundlagen, Technologie und Anwendung

334 7 Beleuchtungstechnik

Für den Aufbau des optischen Systems gibt es hauptsächlich zwei unter-schiedliche Möglichkeiten:

1. Halogenlichtquellen mit Reflektor und AufweitungsoptikDer Reflektor sammelt und kollimiert das Licht. Die Aufweitungsoptik lenkt das Licht in die gewünschten Abstrahlbereiche.

2. LED-Lichtquellen mit Fresnellinse und Aufweitungsoptik. Abbil-dung 7.18 zeigt einen LED-Straßenverkehrssignalgeber im Schnitt.

Abb. 7.18. LED-Lichtquelle und Transmissionsoptik, bestehend aus Fres-nellinse und Aufweitungsoptik

Die optische Funktion der Lichtlenkung teilt sich in zwei Komponenten auf. Das Licht, das von der Lichtquelle abgestrahlt wird, wird durch eine Fresneloptik kollimiert. Eine Aufweitungsoptik lenkt das Licht so um, dass die von der Norm geforderte Abstrahlrichtung erreicht wird. Die Aufwei-tungsoptik besteht hierbei teilweise aus Freiformflächen. Dadurch ist es möglich, die Lichtlenkung so zu realisieren, dass der geforderte Lichtstrom in allen Richtungen möglichst exakt abgestrahlt wird.

Eine weitere, jedoch weniger wichtige optische Anforderung ist die Flä-chenhomogenität des Signals. Damit das Signal aus allen Blickrichtungen homogen erscheint, ist die Aufweitungsoptik aus sehr vielen einzelnen Facetten aufgebaut, wobei jede Facette das Licht in den kompletten Be-trachtungsbereich umlenkt.

Zudem wird für ein Straßenverkehrssignal ein geringer Rückstrahleffekt (Phantomlicht) bei Bestrahlung durch die Sonne gefordert. Dadurch soll verhindert werden, dass aufgrund von Sonneneinstrahlung für den Betrach-ter eine falsche Information entsteht. Straßenverkehrsignale mit einem geringen Phantomlicht erzeugen bei einer Beleuchtung mit 40.000 lx, dies entspricht in etwa einer tief stehenden Sonne, nur einen Rückstrahlwert, der um den Faktor 16 geringer ist als die Signallichtstärke.

Page 353: Photonik: Grundlagen, Technologie und Anwendung

7.4 Optische Systeme zur Signalisation 335

7.4.2 Fahrzeug-Signalleuchten

Eine Fahrzeug-Signalbeleuchtung zeigt dem rückwärtigen bzw. dem ent-gegenkommenden Verkehr das Vorhandensein eines Fahrzeuges bzw. ein Fahrmanöver an. Dazu dienen die Bremsleuchte, die hochgesetzte Brems-leuchte, die Schlussleuchte, der Fahrtrichtungsanzeiger, die Nebelschluss-leuchte sowie das Tagfahrlicht.

Die Anforderung an diese Leuchten wird wesentlich durch die Licht-stärkeverteilung definiert. Diese Lichtstärkeverteilungen sowie weitere Vorschriften (z.B. zum Anbau der Leuchten) sind in den ECE-Regelungen definiert. Tabelle 7.3 zeigt den nach der ECE-R6 Norm geforderten Haupt-abstrahlbereich für rückseitig angebaute Fahrtrichtungsanzeiger.

Tabelle 7.3. Geforderte Lichtstärkeverteilung in vertikaler (V) und horizintaler (H) Richtung für einen Fahrtrichtungsanzeiger

V/H -200 -100 -50 00 50 100 200

100 10cd 10cd 50 5cd 10cd 35cd 10cd 5cd 00 17,5cd 45cd 50cd 45cd 17,5cd -50 5cd 10cd 35cd 10cd 5cd -100 10cd 10cd

Um die Anforderung der Norm zu erfüllen, muss die Abstrahlung der verwendeten Lichtquelle geändert werden. Hierzu werden oft optische Systeme, bestehend aus Lichtquelle, Reflektor und Aufweitungsoptik, verwendet. Abbildung 7.19 verdeutlicht das Prinzip.

Abb. 7.19. Prinzipbild eines optischen Systems für Fahrzeugsignalleuchten

Page 354: Photonik: Grundlagen, Technologie und Anwendung

336 7 Beleuchtungstechnik

Der Reflektor bündelt das von der Lichtquelle abgestrahlte Licht. Die Aufweitungsoptik weitet das Licht so auf, dass genügend Licht in die ge-forderten Abstrahlbereiche umgelenkt wird (Abb. 7.20).

Abb. 7.20. Heckleuchte mit Fahrtrichtungsanzeiger (Werkfoto: DaimlerChrysler AG)

7.5 Optische Systeme für Informationsträger

Informationsträger (z.B. Displays) enthalten in der Regel komplexe Informa-tionen. Diese werden von einem Betrachter durch den Kontrast sowie den Farbunterschied wahrgenommen. Deshalb werden an die Beleuchtungssys-teme hohe Anforderungen gestellt. Hierbei ist es vor allem notwendig, dass die Informationsträger aus allen Blickrichtungen eine homogene Leuchtdich-teverteilung besitzen. Nur bei einem homogen ausgeleuchteten Symbol ist eine gute Erkennbarkeit gewährleistet.

7.5.1 Beleuchtetes Bedienelement

Im Innenraum von Fahrzeugen befindet sich eine Vielzahl von Bedienele-menten. Diese müssen für Nachtfahrten beleuchtet werden. Abbil-dung 7.21 zeigt einen Schalter für die Kfz-Heckscheibenheizung. Zu sehen ist dies im Tagdesign (Auflichtbeleuchtung, linkes Bild) sowie im beleuch-teten Nachtdesign (rechtes Bild).

Im Tagdesign ist das Symbol wegen der unterschiedlichen Reflexionsei-genschaften des Symbols (weiß) und der Umgebung (Anthrazit) zu erken-nen. Im Nachtdesign leuchtet das Symbol aktiv.

Das Leuchten der Symbole wird durch Lichtquellen erreicht, die sich in den Schaltern befinden. Das Licht durchscheint das streuende Material der Abdeckkappe des Schalters. Der prinzipielle Aufbau eines solchen Sys-tems ist in Abb. 7.22 dargestellt.

Page 355: Photonik: Grundlagen, Technologie und Anwendung

7.5 Optische Systeme für Informationsträger 337

Abb. 7.21. Hinterleuchtetes Bedienelement im Tag- und Nachtdesign

Vor der Lichtquelle befindet sich die Abdeckung aus einem streuenden Material. Diese Abdeckung wird von vorne mit einem nichttransparenten Lack lackiert. Nach dem Lackieren wird mit Hilfe eines Laserverfahrens der Lack partiell abgetragen, und das gewünschte Symbol freigelegt.

Das Licht kann das Abdeckkappenmaterial bis zu der Lackierung durch-dringen. An den Stellen, an denen kein Lack vorhanden ist, kann das Licht aus der Abdeckscheibe austreten. Dadurch erscheint das Symbol hell und die Umgebung um das Symbol bleibt dunkel. Durch das streuende Material wird die Lichtstrahlung bei der Materialdurchdringung diffus gestreut. Die Licht-abstrahlung bekommt dadurch eine Lambert´sche Charakteristik. Dies ergibt eine aus allen Blickrichtungen identische Leuchtdichteverteilung.

Abb. 7.22. Funktionsprinzip einer Schalterhinterleuchtung

Page 356: Photonik: Grundlagen, Technologie und Anwendung

338 7 Beleuchtungstechnik

7.5.2 Lichtleiter zur Hinterleuchtung von Displays

Ein weites Einsatzgebiet von Lichtleitern ist die Hinterleuchtung von Dis-plays oder Informationsträgern. Die Hinterleuchtung dient dazu, die darge-stellte Information sichtbar zu machen (Abb. 7.23).

Abb. 7.23. Hinterleuchtetes Kfz-Display

Die Lichtabstrahlung einzelner Punktlichtquellen oder einer linienför-migen Lichtquelle wird durch das optische System homogen über die Ge-samtfläche verteilt. Ziel ist eine möglichst homogene Leuchtdichtevertei-lung des Displaybereichs. Zudem sollte das Gesamtsystem sehr dünn sein, um möglichst wenig Bauraum zu beanspruchen. Abbildung 7.24 zeigt ein Displayhinterleuchtungssystem, bestehend aus Lichtquelle, Lichtleiter und Streuscheibe. Das LCD (Liquid Crystal Display) befindet sich bei diesem Aufbau vor der Streuscheibe.

Abb. 7.24. Displayhinterleuchtung mit Lichtleiter

Das Licht der LED-Lichtquellen wird stirnseitig in den Lichtleiter ein-gekoppelt. Der Lichtleiter ist plattenförmig ausgeführt und befindet sich im kompletten Bereich hinter dem Display. Durch eine Auskoppelstruktur, (z.B. durch Prismen, wie in Abb. 7.24 oder einer weißen Bedruckung) wird die Lichtstrahlung in Richtung des Betrachters aus der Lichtleitplatte ausgekoppelt.

Da die ausgekoppelte Lichtmenge über die Weglänge konstant sein soll, die im Lichtleiter vorhandene Lichtmenge durch die Auskopplung jedoch abnimmt, muss die Auskoppelstruktur einen immer größeren prozentualen Anteil des Lichtes auskoppeln. Dies wird durch eine Änderung der Aus-koppelstruktur entlang des Lichtweges erreicht. In Abb. 7.24 geschieht dies, indem der Querschnitt des Lichtleiters verringert wird. Eine weitere Möglichkeit besteht darin, die Dichte der Auskoppelsegmente entlang der Wegstrecke zu erhöhen.

Page 357: Photonik: Grundlagen, Technologie und Anwendung

7.5 Optische Systeme für Informationsträger 339

Zur besseren Homogenisierung befindet sich vor dem Lichtleiter eine Streufolie. Um den Wirkungsgrad zu erhöhen, lässt sich hinter dem Licht-leiter auch ein Reflektor anbringen. Dieser reflektiert das Licht, das aus dem Lichtleiter nach hinten austritt, wieder nach vorne.

Vor der Leuchtfläche befindet sich beispielsweise ein LCD, auf dem die Information dargestellt ist. Das Licht transmittiert durch das LCD und wird entweder absorbiert oder nur teilabsorbiert. Hierdurch ergibt sich ein Kontrast in der Leuchtdichteverteilung, der dem Betrachter ermöglicht, die dargestellte Information zu erkennen.

7.5.3 Lichtleiter zur Hinterleuchtung von Statusanzeigen

Statusanzeigen sind beispielsweise die Anzeige der Geschwindigkeit des Kfz. Die Tachonadel eines Kfz-Cockpits kann als Lichtleiter nach dem oben beschriebenen Prinzip ausgelegt werden (Abb. 7.25). Auch hierbei wird LED-Licht in einen Lichtleiter eingekoppelt und durch eine Struktur in Richtung des Betrachters umgelenkt.

Abb. 7.25. Beleuchtete Geschwindigkeitsanzeige (Werkfoto: opsira GmbH)

Zur Hinterleuchtung der Geschwindigkeitssymbole wird das gleiche Prinzip verwendet. Der Lichtleiter verteilt das LED-Licht über die Ring-fläche, auf der die Geschwindigkeitssymbole angeordnet sind. Die Aus-koppelstruktur lenkt das Licht in Richtung Betrachter um. Durch die Ände-rung der Auskoppelstruktur entlang des Lichtleiters ist die Leuchtdichte im kompletten Bereich homogen.

Page 358: Photonik: Grundlagen, Technologie und Anwendung

340 7 Beleuchtungstechnik

7.6 Simulation in der Beleuchtungstechnik

7.6.1 Simulationsprogramme für Entwicklung optischer Systeme

Zur Entwicklung von optischen Systemen für die Beleuchtungstechnik werden Berechnungs- bzw. Simulationsprogramme verwendet, mit deren Hilfe sich das Verhalten dieser Systeme voraussagen lässt. Solche Pro-gramme bezeichnet man als Strahlverfolgungsprogramme oder auch als Ray-Tracing-Programme. Man geht hierbei davon aus, dass sich die Aus-breitung des Lichtes durch Strahlen beschreiben lässt. Basierend auf dieser Theorie lässt sich die geometrische Optik und somit auch das Beleuch-tungssystem simulieren.

Gute optische Simulationsprogramme ermöglichen einen sehr realitäts-nahen Aufbau der virtuellen Modelle am Computer. Dies bezieht sich zum einen auf die Geometrie der optischen Systeme. Dies bedeutet, dass die Geometrien der verwendeten Komponenten als 3D-Geometrien modelliert werden. Zum anderen ist die Modellierung der optischen Eigenschaften der Komponenten ein sehr entscheidendes Kriterium dafür, wie aussagefä-hig das spätere Simulationsergebnis ist. Die Programme lassen sich we-sentlich in zwei Gruppen einteilen:

1. Simulationsprogramme für Linsensysteme (Sequenzielle Strahlverfol-gung; sequential ray tracing).

2. Simulationsprogramme für Beleuchtungssysteme (Nicht Sequenzielle Strahlverfolgung; non-sequential ray tracing)

Im Folgenden wird ein einfaches optisches System aus Lichtquelle und Reflektor (Bild 7.1) simuliert.

Die Lichtstrahlen gehen von einer Lichtquelle aus, die in der Simulati-onssoftware modelliert wird. Da das Ray-Tracing Verfahren ein statisti-sches Verfahren ist, erfolgt der Strahlenaufbau der Lichtquelle mit einem Zufallsgenerator nach der Monte-Carlo-Methode. Ein Lichtstrahl wird durch 7 Parameter charakterisiert: Drei für die Beschreibung des Ortes,drei für die Beschreibung der Richtung und einer für die Beschreibung des Lichtstroms des Strahles.

Nach dem Aussenden der Lichtstrahlen von der Lichtquelle „schauen“ die Strahlen, auf welches Objekt sie als nächstes treffen. Da die Strahlen auf unterschiedliche Objekte treffen können, müssen Simulationspro-gramme verwendet werden, welche die sogenannte „Nicht Sequenzielle Strahlverfolgung“ beherrschen. Für die Strahlen in einem optischen Sys-tem gibt es sehr viele optische Pfade. Wie in Abb. 7.26 zu erkennen ist, gibt es einen optischen Pfad von der Lichtquelle über den Reflektor zur

Page 359: Photonik: Grundlagen, Technologie und Anwendung

7.6 Simulation in der Beleuchtungstechnik 341

Beleuchtungsebene und einen zweiten optischen Pfad von der Lichtquelle direkt zur Beleuchtungsebene.

Im Gegensatz hierzu lassen sich für viele Anwendungen aus der klassi-schen abbildenden Optik Simulationsprogramme einsetzen, die nur die „Sequenzielle Strahlverfolgung“ beherrschen müssen, da der Weg der Strahlen vorhersehbar ist. Die Strahlen gehen von einer Linsenfläche zur nächsten Linsenfläche, bis sie auf die Bildebene treffen. Diese Programme zeichnen sich dadurch aus, dass die Strahlen sehr schnell berechnet wer-den. Dies ist für die Optimierung von Linsensystemen von Vorteil.

Abb. 7.26. Darstellung von zwei optischen Pfaden

Page 360: Photonik: Grundlagen, Technologie und Anwendung

342 7 Beleuchtungstechnik

7.6.2 Modellbildung für die optische Simulation

Bei der Simulation des optischen Verhaltens von Systemen ist die Model-lierung der optischen Komponenten entscheidend für das erzielbare Er-gebnis. Nur eine sehr realitätsnahe Modellierung ermöglicht es, dass die Simulationsergebnisse eine gute Übereinstimmung mit dem realen Verhal-ten ergeben. Tabelle 7.4 zeigt eine Übersicht des Modellaufbaus für die optische Simulation von Beleuchtungssystemen.

Tabelle 7.4. Modellbildung zur Simulation von Beleuchtungssystemen

Lichtquellenmodellierung - Geometrische Strahlmodellierung

o Aufbau der Lichtquelle als optisches System o Nahfeldfotogoniometrische Lichtquellenvermessung

- Spektrale Strahlenmodellierung Modellieren der Materialeigenschaften der optischen Komponenten

- Streucharakteristik - Spektrale Reflexion, Transmission, Absorption - Spektraler Brechungsindex (Dispersion)

Modellieren der optischen Komponenten - Reflexionsoptik - Transmissionsoptik - Diffraktive Optik

Die Modellierung der optischen Komponenten (Lichtquellen und Mate-rialien) basiert sehr oft auf der messtechnischen Erfassung des Verhaltens der Komponenten. Im Folgenden ist die Messtechnik beschrieben, die für das Erfassen der optischen Parameter eingesetzt werden kann.

Lichtquellenmodellierung für die optische Simulation

Der Aufbau des Lichtquellenmodells ist sehr wichtig, da bei dem Licht-quellenmodell die Simulation beginnt. Abweichungen des Lichtquellen-modells von der Realität beeinträchtigen direkt das Simulationsergebnis. Wichtige Kriterien für die Lichtquellenmodellierung sind die geometrischeAbstrahlung der Lichtquelle sowie die spektrale Emission der Lichtquelle.

Früher wurde die Lichtquelle sehr oft als Punktlichtquelle in der optischen Simulation angenommen. Als weitere Modellierung wurde die an der realen Lichtquelle gemessene Lichtstärkeverteilung dem Simulationsmodell zuge-wiesen. Diese Lichtquellenbeschreibung trifft jedoch bei weitem nicht die Realität. Bei allen Lichtquellen handelt es sich um ausgedehnte Lichtquellen. Zudem strahlt jedes Flächenelement mit einer anderen geometrischen Vertei-

Page 361: Photonik: Grundlagen, Technologie und Anwendung

7.6 Simulation in der Beleuchtungstechnik 343

lung. Aus diesem Grund wird versucht, die Lichtquelle möglichst exakt nachzubilden. Im Folgenden werden hierzu zwei Verfahren vorgestellt.

1. Geometrisches Lichtquellenmodell als optisches System

Die exakte Beschreibung der inneren Lichtquellengeometrie sowie deren Materialeigenschaften ermöglichen es, die Lichtquelle als ein eigenes opti-sches System aufzubauen. Hierzu ist es notwendig, den inneren Aufbau der Lichtquelle geometrisch zu vermessen.

Abb. 7.27. Angeschliffene LED mit leuchtender Chip-Fläche

Abbildung 7.27 zeigt eine LED, die bis zur Mittenachse angeschliffen ist, ohne dass der Bonddraht beschädigt wurde. Mit einem Mikroskop kann nun sehr genau die innere Geometrie der LED vermessen werden und bei Bestromung der LED ist zu erkennen, an welcher Stelle des Chips die Lichtemission stattfindet. In Abb. 7.28 ist das Modell der Lichtquelle zu erkennen, das aufgrund der Messung an der LED aufgebaut wurde. Das

Abb. 7.28. Aus der geometrischen Vermessung abgeleitetes Simulationsmodell der LED

Page 362: Photonik: Grundlagen, Technologie und Anwendung

344 7 Beleuchtungstechnik

Modell der Lichtquelle wirkt wie ein optisches System. Strahlen gehen von dem Chip durch die Geometrie der Lichtquelle und werden entsprechend umgelenkt.

Zur Kontrolle dieses Lichtquellenmodells wird oftmals die Lichtstärke-verteilung der realen Lichtquelle gemessen und mit der Lichtstärkevertei-lung des Lichtquellenmodells verglichen. Zeigt dies eine gute Übrein-stimmung, ist die Wahrscheinlichkeit hoch, dass die Lichtquelle gut modelliert ist.

2. Geometrisches Lichtquellenmodell auf Basis der Nahfeld-fotogoniometrie

Ein weiteres Verfahren für die Modellierung der geometrischen Lichtquel-lenabstrahlung ist die Nahfeldfotogoniometrie. Hierbei umkreist eine Leuchtdichtekamera die Lichtquelle, die auf einem Goniometer aufge-spannt ist (Abb. 7.29).

Abb. 7.29. Nahfeldfotogoniometer für Lichtquellenvermessung (Werkfoto: opsira GmH)

Page 363: Photonik: Grundlagen, Technologie und Anwendung

7.6 Simulation in der Beleuchtungstechnik 345

Die Leuchtdichtemesskamera erfasst aus etwa 10.000 Richtungen je-weils ein Leuchtdichtebild der Lichtquelle (Abb. 7.30). Anhand der erfass-ten Leuchtdichtebilder lassen sich direkt Strahlendaten berechnen, welche in die optischen Simulationsprogramme importiert werden können. Je nach Anwendungsfall werden bis zu 50 Millionen Strahlen berechnet. Die be-rechneten Strahlendaten repräsentieren das geometrisch optische Verhalten der realen Lichtquellenabstrahlung. Abbildung 7.30 zeigt fünf Bilder einer LED aus unterschiedlichen Richtungen.

Abb. 7.30. Leuchtdichtebilder einer LED aus fünf Betrachtungsrichtungen

Das geometrisch-optische Verhalten der Lichtquelle ist in den Strahlen-daten enthalten. Deshalb ist keine weitere Modellierung der Lichtquellen-geometrie notwendig. Zum Teil wird dies aber in vereinfachter Form trotzdem durchgeführt, da Strahlen von umgebenden optischen Kompo-nenten auf die Lichtquelle zurück treffen können und dort eine Abschat-tung verursachen. Diese Abschattung kann nur festgestellt werden, wenn im Simulationsmodell die Geometriedaten der Lichtquelle enthalten sind.

Modellieren der spektralen Emission der Lichtquelle

Eine spektrale Emission des Lichtquellenmodells ergibt sich, wenn die obige Messung mehrmals durchgeführt wird. Hierbei wird bei jeder Mes-sung ein anderes spektrales Bandpassfilter eingesetzt, das jeweils nur ei-nen bestimmten Wellenlängenbereich durchlässt. Die Strahlen, die aus jedem Messvorgang separat berechnet werden, repräsentieren das geomet-risch-optische Verhalten für den entsprechenden Wellenlängenbereich.

Modellierung der Materialeigenschaften

Bei der Modellierung der Materialeigenschaften sind die spektrale Reflexi-on, die Transmission oder die Absorption sowie die Streucharakteristik dieentscheidenden Kriterien.

Modellierung der Streucharakteristik

Die Streueigenschaft beschreibt, wie ein Strahl sich verhält, wenn dieser auf eine Materialoberfläche auftrifft. Abbildung 7.31 zeigt drei unter-schiedliche Reflexionsarten.

Page 364: Photonik: Grundlagen, Technologie und Anwendung

346 7 Beleuchtungstechnik

Abb. 7.31. Darstellung unterschiedlicher Reflexionsarten

In Abb. 7.31 links ist die gerichtete Reflexion dargestellt. Diese Reflexion tritt bei idealen Spiegeln auf. Die mittlere Darstellung zeigt eine perfektediffuse Reflexion. Die rechte Darstellung zeigt die Streucharakteristik eines realen Materials. Es handelt sich hierbei weder um eine gerichtete noch um eine perfekt diffuse Reflexion. Die Vermessung der Streucharakteristik kann mit Hilfe eines Streulichtgoniometers (Abb. 7.32) durchgeführt werden.

Abb. 7.32. Prinzipbild für die Vermessung der In-plane Streucharakteristik (Werk-foto: opsira GmbH)

Die reale Streucharakteristik lässt sich zum Beispiel durch die BSDF (Bidirectional scatter distribution function) beschreiben. Abbildung 7.33 zeigt einen Schnitt durch die an einer Materialprobe gemessene Streucha-rakteristik bei einem Einfallswinkel von 2°.

Die Messdaten der reflektierten Intensität in Abhängigkeit vom Ab-strahlwinkel lassen sich in den optischen Simulationsprogrammen direkt modellieren. Hierzu können entweder die Messdaten direkt eingegeben oder durch eine Fit-Funktion mathematisch nachmodelliert werden. Je nach Komplexität des Materials hat die Modellierung bei unterschiedlichen Ein-fallswinkeln zu erfolgen.

Page 365: Photonik: Grundlagen, Technologie und Anwendung

7.6 Simulation in der Beleuchtungstechnik 347

Abb. 7.33. Gemessene Streucharakteristik eines Reflektormaterials, überlagert mit einer Fit-Funktion

Modellierung der Spektraleigenschaften

Mit Hilfe von Spektrometern können die spektralen Eigenschaften (Trans-mission, Reflexion, Absorption) erfasst werden. Abbildung 7.34 zeigt die spektrale Transmission eines roten Scheibenmaterials. Dieses Material wird im Automobilbereich als Abdeckscheibe für Rückleuchten verwendet.

Abb. 7.34. Spektrale Transmission einer rot eingefärbten Leuchtenabdeckscheibe (Werkfoto: opsira GmbH)

Page 366: Photonik: Grundlagen, Technologie und Anwendung

348 7 Beleuchtungstechnik

Die gemessenen Daten lassen sich mit den optischen Simulationspro-grammen modellieren und an die optischen Komponenten des Simulati-onsmodells zuweisen.

7.6.3 Auswertungen der optischen Simulation

Mit optischen Simulationsprogrammen lassen sich umfangreiche Analysen durchführen. Diese Analysen sind notwendig, um das zu entwickelnde optische System auf bestimmte Anforderungen zu untersuchen, zu opti-mieren und gleichzeitig ein gutes Verständnis über das Verhalten des Sys-tems zu erlangen. Im Folgenden ist ein Teil der Analysemöglichkeiten dargestellt.

Beleuchtungsstärkeverteilung Lichststärkeverteilung LeuchtdichteverteilungOptischer Wirkungsgrad Optische Pfadanalyse Spektralanalyse.

Die Beleuchtungsstärke, die Lichtstärke sowie die Leuchtdichte sind die Hauptkriterien der zuvor beschriebenen optischen Systeme. Diese Auswer-tungen stellen den wesentlichen Bestandteil der optischen Simulation dar. So wie das optische System später mittels der Messtechnik analysiert wird,

Abb. 7.35. Simulierte Lichtstärkeverteilung in Candela eines Fahrtrichtungsanzei-gers mit eingezeichneten ECE-Testpunkten (Werkfoto: opsira GmbH)

Page 367: Photonik: Grundlagen, Technologie und Anwendung

7.7 Literatur 349

geschieht die identische Prüfung schon in der optischen Simulation. Ab-bildung 7.35 zeigt das Simulationsmodell eines Fahrtrichtungsanzeigers zusammen mit der simulierten Lichtstärkeverteilung.

Optische Pfadanalyse

Die optische Pfadanalyse eröffnet Möglichkeiten, die in der Realität nicht mehr so einfach gegeben sind. Optische Simulationsprogramme, die dieses Verfahren beherrschen, speichern die Strahlen auf dem Weg durch das optische System. Nach dem Ray-Tracing können bestimmte Strahlen, auf die ein Kriterium zutrifft (z.B. gleicher Zielbereich und gleiche Strahlrich-tung), ausgewählt werden. Der Strahlverlauf dieser Strahlen kann im Si-mulationsmodell angezeigt werden. Abbildung 7.36 zeigt das Simulations-modell eines Lichtleiters, der in einem optischen Sensor eingesetzt wird. Es wird zuerst die Beleuchtungsstärke auf der Zielebene analysiert. An-schließend wird ein Bereich ausgewählt, der eine hohe Beleuchtungsstärke besitzt. Die Strahlen, die Energie in diesen Bereich bringen, werden über-lagert mit dem Geometriemodell dargestellt. Mit diesem Analyseergebnis können nun gezielt Aktionen durchgeführt werden, um das optische Sys-tem zu optimieren.

Abb. 7.36. Darstellung der optischen Pfadanalyse am Beispiel eines Lichtlei-ters. (Werkfoto: opsira GmbH)

7.7 Literatur

Lange H (1992) Handbuch für Beleuchtung. Ecomed Verlag Landsberg am Lech Pedrotti F. L, Pedrotti L. S, Bausch W, Schmidt H (2002) Optik für Ingenieure.

Springer, Berlin, Heidelberg Schmidt-Clausen H.-J (2003) Progress in Automobile Lighting PAL 2003. Utz

Verlag, München

Page 368: Photonik: Grundlagen, Technologie und Anwendung

8 Fotovoltaik

Der fotovoltaische Effekt wurde 1839 von Becquerel beobachtet, der Sil-berelektroden in einem Elektrolyten bestrahlte und feststellte, dass dadurch ein Strom induziert wurde. 1954 gelang Chapin, Fuller und Pearson bei den Bell Laboratorien der Bau der ersten Solarzelle auf der Basis von ein-kristallinem Silicium mit einem Wirkungsgrad von 6%. Durch intensive Forschung und Entwicklung konnte der Wirkungsgrad innerhalb von 40 Jahren etwa vervierfacht werden.

8.1 Wirkungsweise der Solarzelle

Die Solarzelle ist grundsätzlich eine Fotodiode mit großer Fläche (Abb. 8.1, Abschn. 1.6.3.1). Durch absorbierte Photonen gebildete Elektron-Loch-Paare werden infolge des eingebauten elektrischen Feldes getrennt. Dabei werden die Elektronen zum n-Kontakt, die Löcher zum p-Kontakt befördert (Abb. 1.69). Die Deckfläche der Solarzelle ist mit einem Gitter dünner Kon-taktfinger versehen, die den erzeugten Fotostrom ableiten. Wegen des ho-hen Reflexionsgrades der Halbleiter muss die Oberfläche der Zelle stets mit einer reflexvermindernden Schicht versehen werden. Da der Absorptions-koeffizient beim indirekten Halbleiter Silicium nur langsam mit der Photo-nenenergie ansteigt (Abb. 1.68), benötigen Si-Solarzellen eine Dicke von 200 m bis 300 m. Solarzellen aus direkten Halbleitern wie beispielsweise GaAs kommen dagegen mit Dicken von 1 m bis 2 m aus.

Im Kurzschlussbetrieb fließt durch die Solarzelle ein Fotostrom IK, der proportional ist zur eingestrahlten Leistung e:

AEI eeK ~ (8.1)

Bei gegebener Bestrahlungsstärke Ee steigt der Strom und damit die produ-zierte elektrische Leistung proportional zur Fläche A.

Page 369: Photonik: Grundlagen, Technologie und Anwendung

352 8 Fotovoltaik

Abb. 8.1. Schematischer Aufbau einer Solarzelle

Im Leerlaufbetrieb ist an den Kontakten der idealen Solarzelle die Leer-laufspannung

S

K

S

KL ln1ln

II

ekT

II

ekTU (8.2)

abgreifbar. k: Boltzmann-Konstante, T: absolute Temperatur, e: Elementar-ladung, IS: Sperr-Sättigungsstrom (Dunkelstrom).

Zeichnet man – anders als in Abb. 1.71 – die Kennlinie der Solarzelle im ersten Quadranten, so gilt für die Strom-Spannungs-Kennlinie einer idealen Solarzelle (Abb. 8.2)

1expSK kTeUIII . (8.3)

Abb. 8.2. Strom-Spannungs-Kennlinie einer Si-Solarzelle bei Standard-Testbe-dingungen (STC). Zellengröße 15 cm x 15 cm.

Page 370: Photonik: Grundlagen, Technologie und Anwendung

8.1 Wirkungsweise der Solarzelle 353

Ist der Lastwiderstand im Außenkreis RL, dann definiert der Schnitt-punkt der Widerstandsgeraden I = U/RL mit der Kennlinie den Arbeits-punkt. Der optimale Lastwiderstand liegt vor, wenn die Fläche des grauen Rechtecks maximal ist, nämlich

mmm UIP . (8.4)

Der zugehörige Arbeitspunkt ist in Abb. 8.2 mit MPP (Maximum PowerPoint) gekennzeichnet. Da sich die Kennlinie mit der Sonneneinstrahlung verändert, muss für effektiven Betrieb der Lastwiderstand durch eine elekt-ronische Schaltung so angepasst werden, dass stets im Punkt maximaler Leistung gearbeitet wird. Ein erster Schätzwert für den optimalen Lastwi-derstand ist

K

LoptL, I

UR . (8.5)

Das Verhältnis der grau schraffierten Rechteckfläche in Abb. 8.2 zur größten denkbaren Rechteckfläche, gebildet durch den Kurzschlussstrom IK und die Leerlaufspannung UL, wird als Füllfaktor bezeichnet:

LK

m

LK

mmF UI

PUIUIF . (8.6)

Der Füllfaktor ist ein Maß für die Güte der Zelle. Er beträgt 70% bis 85%.

Beispiel:Wie groß ist der Füllfaktor der Zelle von Abb. 8.2?

Lösung:Aus dem Diagramm wird entnommen: UL = 0,6 V, Um = 0,49 V, IK = 7,6 A, Im = 6,7 A. Damit wird FF = 72%.

Die Kennlinie einer realen Solarzelle weicht etwas von der idealen nach Gl. (8.3) ab. Abbildung 8.3 zeigt ein Ersatzschaltbild einer realen Solarzel-le. Der Parallelwiderstand Rp berücksichtigt Leckströme über die Oberflä-che sowie Punktdefekte im pn-Übergang. Der Serienwiderstand Rs entsteht durch den Ohm’schen Widerstand des Halbleitermaterials, den Widerstand der Kontaktfinger sowie den Übergangswiderstand an der Halbleiter-Metall-Grenzfläche. Die Strom-Spannungs-Kennlinie wird jetzt

p

ssSK 1exp

RRIU

kTRIeUIII . (8.7)

Page 371: Photonik: Grundlagen, Technologie und Anwendung

354 8 Fotovoltaik

Abb. 8.3. Ersatzschaltbild einer realen Solarzelle

Beide Widerstände verschlechtern den Füllfaktor (Abb. 8.4). Bei beson-ders niedrigen Parallelwiderständen reduziert sich die Leerlaufspannung und bei besonders hohen Serienwiderständen verringert sich der Kurz-schlussstrom.

Abb. 8.4. Kennlinien realer Solarzellen

Die Eigenschaften der Solarzelle sind temperaturabhängig. Mit steigen-der Temperatur nimmt die Leerlaufspannung ab, während der Kurz-schlussstrom leicht ansteigt. Tabelle 8.1 zeigt eine Zusammenstellung der Temperaturkoeffizienten.

Tabelle 8.1. Temperaturkoeffizienten der Betriebsparameter von Silicium-Solar-zellen

Größe Temperaturkoeffizient Leerlaufspannung UL 0,5%/K Kurzschlussstrom IK 0,1%/K elektrische Leistung Pm 0,44%/K

Page 372: Photonik: Grundlagen, Technologie und Anwendung

8.2 Wirkungsgrad 355

8.2 Wirkungsgrad

Der Wirkungsgrad einer Solarzelle ist definiert als Verhältnis der maximal entnehmbaren elektrischen Leistung Pm zur eingestrahlten optischen Leis-tung e:

AEFUIP

e

FLK

e

m . (8.8)

Trotz großer Anstrengungen ist der Wirkungsgrad handelsüblicher So-larzellen nicht höher als etwa 15%. Die wichtigsten Verlustmechanismen sind in Tabelle 8.2 zusammengestellt.

Tabelle 8.2. Verluste in Si-Solarzellen

optische Verluste elektrische Verluste Reflexion an der Oberfläche • 3% Abschattung durch Kontaktfinger • 3% Photonen mit überschüssiger Energie • 32% Photonen mit ungenügender Energie • 24%

Interne Zellenverluste infolge des Serien-widerstandes des Zellenmaterials und der Kontaktfinger • 1% Rekombination von Ladungsträgern in Basis und Emitter • 22%

Entscheidend für die optischen Verluste ist die in Abb. 8.5 dargestellte spektrale Bestrahlungsstärke Ee, des Sonnenlichts. Außerhalb der Lufthül-le (AM0, Air Mass Zero) entspricht die Verteilung etwa der eines schwar-zen Strahlers mit T = 5.960 K (Abschn. 1.4.2). Die integrale Bestrahlungs-stärke

20

e,e mW1353dEE

wird als Solarkonstante bezeichnet. Je nach Einstrahlwinkel und Weglänge der Strahlen durch die Atmosphäre wird die Bestrahlungsstärke infolge von Absorption an Luftmolekülen verringert. Wird die Lufthülle senkrecht durchstrahlt, spricht man von AM1-Verhältnissen (Air Mass One). Bei AM2 legen die Strahlen den doppelten Weg zurück usw. Als Standard zur Messung des Wirkungsgrades wurde das AM1,5-Spektrum mit Ee = 1000 W/m2 festgelegt (STC, Standard Test Conditions).

Page 373: Photonik: Grundlagen, Technologie und Anwendung

356 8 Fotovoltaik

Abb. 8.5. Spektrale Bestrahlungsstärke des Sonnenlichts außerhalb der Atmosphä-re (AM0) und auf der Erdoberfläche (AM1,5). g ist die Grenzwellenlänge für Absorption in Silicium

Der ganze Teil des Spektrums, der rechts von der Grenzwellenlänge g

liegt, wird nicht absorbiert, weil die Photonenenergie nicht ausreicht, um ein Elektron-Loch-Paar zu bilden. Strahlung mit < g wird zwar absor-biert, aber die überschüssige Energie Eph – Eg wird in der Solarzelle in Wärme verwandelt. Wenn also beispielsweise ein Photon mit der Energie Eph = 2 eV ( = 620 nm) in Si absorbiert wird, dann wird die Energie Eg = 1,11 eV elektrisch nutzbar, während 0,89 eV in Wärme umgesetzt wird. Stünde ein Halbleiter mit Eg = 2 eV zur Verfügung, dann könnte die Energie dieses Photons zu 100% elektrisch genutzt werden. Für maximale Ausnutzung des Sonnenspektrums sollte also für jede Photonenenergie der Halbleiter mit passender Energielücke zur Verfügung stehen. Dieser Ideal-fall kann angenähert werden durch Tandemzellen, wobei Halbleiter mit verschiedenen Energielücken hinter einander angeordnet werden. Theore-tisch könnten solche Strukturen Wirkungsgrade von über 50% besitzen. Praktisch wurden beispielsweise bei der Kombination GaAs/Si 31% ge-messen.

Die größten elektrischen Verluste entstehen durch Rekombination der Ladungsträger an der Grenzfläche zwischen der p-dotierten Basis und der metallisierten Rückseite (Abb. 8.1). Die Rekombination wird stark redu-ziert, wenn der Halbleiter passiviert wird durch eine dünne Schicht aus SiO2

Page 374: Photonik: Grundlagen, Technologie und Anwendung

8.3 Technologie 357

oder SiN. Da diese Schicht elektrisch isoliert, müssen viele punktförmige Kontakte durch die Schicht hergestellt werden. Ein kleines Gebiet mit hoher p-Dotierung erzeugt ein elektrisches Feld, das die Elektronen von den Kon-takten fern hält (local back surface field). In der Forschung sucht man nach preisgünstigen Verfahren, um diese Tausende von Punktkontakten an der Zellenrückseite herzustellen. Wenn dieses Problem gelöst ist, sollten Si-Solarzellen in der Massenproduktion mit Wirkungsgraden von etwa 20% möglich sein.

Der Wirkungsgrad einer Solarzelle steigt mit der eingestrahlten Leis-tung. Wird der Wirkungsgrad bei Ee,0 =1.000 W/m2 (STC) mit 0 bezeich-net, so folgt mithilfe der Gln. (8.2) und (8.8) der Wirkungsgrad bei der Bestrahlungsstärke Ee zu

)/()/()/ln(

L,0

L,0e,0e0 TkUe

TkUeEE. (8.9)

Es kann also interessant sein, das Sonnenlicht beispielsweise mittels mik-rooptischer Bauelemente zu konzentrieren, um einen höheren Wirkungs-grad bei gleichzeitig geringerem Materialverbrauch zu erhalten.

Beispiel:Um welchen Bruchteil steigt der Wirkungsgrad einer Si-Solarzelle, wenn die Be-strahlungsstärke auf das Hundertfache gegenüber STC erhöht wird?

Lösung:Für Si ist UL,0 • 0, 6 V (Abb. 8.2), so dass für 300 K aus Gl. (8.9) folgt

198,12,23

2,23)100ln(00 . Der Wirkungsgrad steigt also um 20%.

Für den praktischen Gebrauch werden einzelne Zellen zu Modulen von 0,5 m2 bis 1 m2 Fläche zusammen geschaltet. Der Wirkungsgrad eines Mo-duls ist typischerweise um 1 bis 2 Prozentpunkte niedriger als der Wir-kungsgrad einer durchschnittlichen Zelle.

8.3 Technologie

Das nach wie vor wichtigste Material zum Bau von Solarzellen ist Silici-um. Wegen der hohen Materialkosten wird intensiv nach Alternativen ge-sucht (Tabelle 8.3). Sowohl beim einkristallinen als auch beim polykristal-linen Si werden durch Sägen aus Blöcken (ingots) die Wafer mit ungefähr

Page 375: Photonik: Grundlagen, Technologie und Anwendung

358 8 Fotovoltaik

300 m Dicke heraus gesägt. Dabei entsteht ein Abfall von etwa der Hälfte des Ausgangsmaterials. Ungefähr 50% der Kosten für ein Solarmodul ent-fallen auf die Herstellung der Wafer. Günstiger ist es, polykristallines Sili-cium in Form von Bändern direkt aus der Schmelze zu ziehen, obwohl der Wirkungsgrad dieses Folien-Siliciums wegen vermehrter Kristalldefekte etwas niedriger liegt. Dünnschichtzellen aus amorphem Silicium (direkter Halbleiter) benötigen wenig Material. Der Wirkungsgrad degradiert aber im Laufe der Zeit und kommt längst nicht an die Wirkungsgrade kristalli-ner Zellen heran.

GaAs ist mit einer Energielücke von Eg = 1,4 eV optimal an das Son-nenspektrum angepasst. Die höchsten bislang erreichten Wirkungsgrade wurden daher mit GaAs-Zellen erreicht. Wegen der sehr hohen Herstel-lungskosten mit der Methode der Dünnschichtepitaxie werden GaAs-Zellen nur für Weltraumanwendungen eingesetzt.

Interessante Alternativen zu Silicium für terrestrische Anwendungen sind Dünnschichtzellen aus CdTe und verschiedenen Chalkopyriten (Ta-belle 8.3). CuInSe2 (Eg = 1,05 eV ) und CuInS2 (Eg = 1,55 eV ) werden als CIS-Zellen bezeichnet. Durch stöchiometrische Mischung mit CuGaSe2

(Eg = 1,68 eV ) und CuGaS2 (Eg = 2,3 eV ) können quintinäre Verbindun-gen Cu(In,Ga)(S,Se)2 – kurz CIGSSe – hergestellt werden, deren Energie-lücke optimal an das Sonnenspektrum angepasst werden kann.

Tabelle 8.3. Wirkungsgrade verschiedener Solarzellen

Material Wirkungsgrad

Labormuster Industrieelle Fertigung

Si Einkristallin 23% 16% bis 18% Si polykristallin 20% 14% bis 16% Si polykristallines Band 13% bis 18% 11% bis 16% Si amorphe Dünnschicht 13% 7% bis 8% GaAs Einkristallin 25% CdTe Dünnschicht 16% 9% bis 10% Cu(In,Ga)(S,Se)2 Dünnschicht 18,8% 9% bis 12% CuInS2 Dünnschicht 12,7% CuGaSe2 Dünnschicht 9,3%

Page 376: Photonik: Grundlagen, Technologie und Anwendung

8.4 Literatur 359

8.4 Literatur

Brendel R (2003) Thin-Film Crystalline Silicon Solar Cells. Wiley-VCH, Berlin Goetzberger A, Voß B, Knobloch J (1994) Sonnenenergie: Photovoltaik. Teubner,

Stuttgart Nelson J (2003) The Physics of Solar Cells. Imperial College Press, London Schmid J (1999) Photovoltaik, Strom aus der Sonne. Müller, Heidelberg Wagner A (1999) Photovoltaik Engineering. Springer, Berlin, Heidelberg Würfel P (2004) Physics of Solar Cells. Wiley-VCH, Weinheim

Page 377: Photonik: Grundlagen, Technologie und Anwendung

9 Optische Technologien in Medizin und Life Sciences

Einführung

In den Anwendungen der optischen Technologien in Medizin und Life Sciences vermischt sich die traditionelle geometrische Optik mit den mo-dernsten nichtlinearen optischen Verfahren für Diagnostik und Therapie.Die Diagnostik reicht von der Nanowelt, den Molekülen, über die mikro-skopische Dimension zellulärer Strukturen bis zur makroskopischen Beur-teilung von Gewebe oder ganzer Organe. Dabei wird auch der Blick ins Gewebe zur Erkennung veränderter Strukturen und Funktionen durch Licht als Informationsträger möglich. Dem therapeutischen Einsatz von Licht verhalf die Entwicklung des Lasers zum Durchbruch. Mit der Wahl der Wellenlänge von UV (Ultraviolett) bis IR (Infrarot) und der Einwirkzeit des Lichts können hierbei unterschiedliche Wirkungsmechanismen erzielt wer-den, die eine selektive Anwendung auf Zielstrukturen ermöglichen.

Die Entwicklung und Anwendung optischer Technologien in Medizin und Life Sciences erfordert eine enge interdisziplinäre Zusammenarbeit von Medizinern, Naturwissenschaftlern und Ingenieuren.

Die Anwendungen der optischen Technologien im Bereich Medizin und Life Sciences sind sehr vielfältig. In Abb. 9.1 sind wichtige Bereiche auf-geführt, die in den folgenden Abschnitten beschrieben werden.

Abb. 9.1. Wichtige Bereiche der optischen Technologien

9.1 Spektroskopie

Grundsätzlich kann in der Spektroskopie unterschieden werden zwischen der Beobachtung des durch eine Probe hindurchgehenden Lichts (Absorp-

Page 378: Photonik: Grundlagen, Technologie und Anwendung

362 9 Optische Technologien in Medizin und Life Sciences

tionsspektroskopie) und der Beobachtung des von der Probe ausgesendeten Lichts (Lumineszenzspektroskopie). Zudem kommt der Spektroskopie mo-lekularer Schwingungen eine wachsende Bedeutung zu. Abbildung. 9.2 zeigt eine Übersicht über die Verfahren der Spektroskopie.

Abb. 9.2. Übersicht über einige wesentliche Verfahren der Spektroskopie

Eine der möglichen Wechselwirkungen von Licht mit Molekülen im bio-logischen Gewebe besteht in der Absorption des Lichts und der darauf folgenden Abgabe der mit dem Licht verbundenen Energie (Abb. 9.3). Die Absorption des durch eine absorbierende Probe durchgehenden Lichtes wird durch das Lambert-Beer-Gesetz beschrieben:

I = I0 e-2,303 ( ) c x. (9.1)

Hierbei bezeichnet I0 die einfallende Intensität, ist der molare, dekadi-sche Absorptionskoeffizient, c die Konzentration der absorbierenden Sub-stanz und x bezeichnet die Länge des Lichtweges. Die Abhängigkeit des Absorptionskoeffizienten von der Wellenlänge des eingestrahlten Lich-tes macht sich die Absorptionspektroskopie zunutze.

Abb. 9.3. Absorptions- und Emissionsprozesse zwischen zwei elektronischen Zuständen eines Moleküls mit Schwingungsunterstruktur

Page 379: Photonik: Grundlagen, Technologie und Anwendung

9.1 Spektroskopie 363

Bei der Absorption eines Photons des ultravioletten, sichtbaren oder nahinfraroten Spektralbereichs wird ein Molekül vom Grundzustand (un-ten) in einen der angeregten Zustände (oben) gebracht. Die gewonnene Energie kann unter Emission eines Photons auf unterschiedliche Weise abgegeben werden. Sowohl der Grundzustand als auch die angeregten Zustände eines Moleküls weisen eine Unterstruktur auf, die den Schwin-gungen der einzelnen Atomkerne im Molekül um ihre Ruhelage entspricht. Die Energieachse in Abb. 9.3 ist nicht maßstäblich gezeichnet. Die Ab-stände zwischen den Schwingungsenergien sind typischerweise mindes-tens zwei Größenordnungen kleiner als zwischen Grundzustand und (elekt-ronisch) angeregtem Zustand.

Nach der Absorption eines Photons kann ein Molekül seine Anregungs-energie in Form von elektromagnetischer Strahlung abgeben, wie in Abb. 9.3 dargestellt. Wird nach der Absorption ein Photon derselben Ener-gie emittiert, spricht man von elastischer Streuung am Molekül oder Ray-leighstreuung. Im Gegensatz hierzu handelt es sich bei der Ramanstreu-ung, der Fluoreszenz und der Phosphoreszenz um inelastische Prozesse,bei welchen sich die Energie des absorbierten und des beobachteten, emit-tierten Photons voneinander unterscheiden. Fluoreszenz und Phosphores-zenz werden zusammen auch als Lumineszenz bezeichnet.

9.1.1 Absorptionsspektroskopie

Biologische Materialien bestehen in der Regel zu großen Teilen aus Was-ser. Deshalb ist die Untersuchung biologischer Proben eng mit den Ab-sorptionseigenschaften von Wasser verknüpft. Der Absorptionskoeffizientvon Wasser (Abb. 9.4) ist im grünen Spektralbereich des sichtbaren Lichts kleiner als 0,001 cm-1 und steigt mit zunehmender Wellenlänge stark an. Beispielsweise vergrößert sich der Absorptionskoeffizient bei der 10-fachen Wellenlänge, also elektromagnetische Strahlung im mittleren Infra-rot, um mehr als 5 Größenordnungen.

Der Absorptionskoeffizient von Wasser bestimmt häufig die optischen Eigenschaften biologischer Materialien im Nahinfrarot (0,75 µm bis 2,5 µm) und Mittelinfrarot (2,5 µm bis 25 µm). Ein Beispiel für biomedizi-nisch wichtige Substanzen mit großer Absorption im sichtbaren Spektral-bereich sind das in den roten Blutkörperchen enthaltene Oxyhämoglobin und Desoxyhämoglobin. Als Beispiel für Absorptionsmessungen im Be-reich des mittleren Infrarots ist in Abb. 9.4 die Absorbanz eines getrockne-ten Films aus Serum eingefügt.

Page 380: Photonik: Grundlagen, Technologie und Anwendung

364 9 Optische Technologien in Medizin und Life Sciences

Abb. 9.4. Absorptionskoeffizienten ausgewählter Substanzen als Funktion der Wellenlänge (Absorptionsdaten von Hämoglobin mit freundlicher Genehmigung von S.L. Jacques, Oregon Medical Laser Center, Portland)

Auch Blut besteht größtenteils aus Wasser, jedoch dominiert das für den Sauerstofftransport verantwortliche Hämoglobin die Absorptionseigen-schaften von Blut im sichtbaren Bereich. Hämoglobin liegt in verschiede-nen Ausprägungen vor, insbesondere jedoch als Oxyhämoglobin oder De-soxyhämoglobin (Abb. 9.4). Die unterschiedlichen Absorptionsspektren der Hämoglobine werden in der in vitro-Diagnostik ausgenutzt, um mit Hilfe der Absorptionsspektroskopie den Hämoglobingehalt, die Konzentration von Hämoglobinderivaten sowie die Sauerstoffsättigung des Blutes zu bestimmen. Auch an lebendem Gewebe lässt sich Oxyhämoglobin von De-soxyhämoglobin unterscheiden. Allerdings wird beispielsweise das durch einen Finger transmittierte Licht nicht nur von Hämoglobin, sondern auch von anderen Absorbern sowie durch die Streuung an zellulären Strukturen beeinflusst. Der in vivo-Anwendung der Absorptionsspektroskopie gelang der Durchbruch zur breiten Anwendung erst, als man die Messung mit dem Pulsschlag synchronisierte (Pulsoxymetrie). Da venöses Blut synchron mit dem Herzschlag pulsiert, lässt sich der Hämoglobingehalt und die Sauer-stoffsättigung des pulsierenden Blutes sehr gut von mit Hämoglobin unkor-relierten Signalen trennen, so dass die untergrundfreie Quantifizierung am lebenden Gewebe möglich ist.

9.1.2 Fluoreszenzspektroskopie

Ist ein Molekül in einen elektronisch angeregten Zustand gebracht worden, kann es durch Aussendung eines Fluoreszenzphotons wieder in seinen

Page 381: Photonik: Grundlagen, Technologie und Anwendung

9.1 Spektroskopie 365

Grundzustand zurückkehren (Abb. 9.3). Die Aussendung eines Fluores-zenzphotons unterliegt einem statistischen Prozess und geschieht typi-scherweise – über viele solcher Prozesse gemittelt – nach einer Lebensdau-er von einigen Nanosekunden. Abbildung 9.5 zeigt schematisch den Aufbau eines Fluoreszenzspektrometers und das Ergebnis der Messung der intrinsi-schen Fluoreszenz von Humanserum. Die Wellenlänge des Anregungslichts kann in dem hier gezeigten Aufbau mit einem Monochromator eingestellt werden. Das senkrecht zur Einstrahlrichtung emittierte Fluoreszenzlicht wird dann mit Hilfe eines zweiten Monochromators in seine spektralen Komponenten zerlegt und mittels des Detektors als Funktion der Wellen-länge aufgezeichnet. Diese Messung kann für verschiedene Anregungswel-lenlängen wiederholt werden (z.B. von 310 nm bis 450 nm für die in Abb. 9.5 dargestellte Messung). In dem dargestellten Beispiel erkennt man ein für biomedizinische Proben typisches Verhalten: mit größer werdender Anregungswellenlänge nimmt die Fluoreszenz in der Regel ab.

Abb. 9.5. Fluoreszenzspektrometer und Messbeispiel. Die Zahlen an den einzel-nen Spektren bezeichnen die Wellenlänge des Anregungslichtes in nm (Abbildung von D. Rohleder, Dissertation, Universität Würzburg/Roche Diagnostics GmbH, mit freundlicher Genehmigung der Jobin Yvon GmbH).

Das Licht der gewünschten Anregungswellenlänge wird aus dem Licht einer breitbandigen Quelle mit Hilfe eines ersten Monochromators selek-tiert. Das senkrecht zum Anregungslicht emittierte Fluoreszenzlicht wird in einem zweiten Monochromator spektral zerlegt und anschließend detek-tiert. Das Messbeispiel zeigt die Fluoreszenzspektren von Humanserum als Funktion der Wellenlänge des emittierten Lichtes (Abb. 9.5). Die quantita-tive Bestimmung der Fluoreszenz von biologischen Materialien wird be-züglich der Lage der Absorptions- und/oder Emissionsbanden sowie der Intensität des Fluoreszenzsignals von der lokalen Umgebung der fluo-

Page 382: Photonik: Grundlagen, Technologie und Anwendung

366 9 Optische Technologien in Medizin und Life Sciences

rophoreszierenden Moleküle beeinflusst. Darüber hinaus wird das Fluores-zenzlicht in der Regel nicht direkt am Entstehungsort beobachtet, sondern muss häufig durch das biologische Material wandern und kann hierbei selbst absorbiert oder gestreut werden.

Daher kommen anstelle der direkten Beobachtung der Fluoreszenzinten-sität häufig weitere Detektionsmethoden zum Einsatz, wie beispielsweise die zeitaufgelöste Fluoreszenzspektroskopie. Hierbei wird ausgenutzt, dass verschiedenartige Fluoreszenzmoleküle unterschiedliche Lebensdauern aufweisen. Zeitaufgelöste Messungen des exponentiellen Abklingens des Fluoreszenzlichtes können einerseits bei Anregung mit Kurzpulslasern oder Blitzlampen durchgeführt werden, wobei der Zeitunterschied zwi-schen Anregung und Fluoreszenz betrachtet wird. Andererseits bedient sich die zeitaufgelöste Fluoreszenzspektroskopie auch des Phasenmodula-tionsverfahrens, bei welchem die Intensität des Anregungslichtes modu-liert wird. Das ausgesendete Fluoreszenzlicht folgt der Modulation der Anregung mit einem Zeitversatz, der durch die Lebensdauer bestimmt ist. Dieser Zeitversatz äußert sich in einer Phasenverschiebung zwischen dem Anregungslicht und dem beobachteten Fluoreszenzsignal.

Einige fluoreszierende Stoffe kommen von Natur aus in biologischen Materialien vor und werden deshalb intrinsische Fluorophore genannt. Abbildung 9.6 zeigt typische Spektralbereiche für die Anregung und Fluo-reszenzemission von Kollagen, Elastin, Flavin, NADH, Porphyrin und Tryptophan. Die Maxima der Anregung liegen typischerweise bei Wellen-längen im ultravioletten Spektralbereich und die Emissionsmaxima befin-den sich bei einer Wellenlänge im Bereich von 300 nm bis 700 nm. Die Autofluoreszenzeigenschaften ändern sich bei Erkrankung des Gewebes, was sowohl in vitro (z.B. an Papanicolaou-Abstrichen zur Früherkennung von Gebärmutterhalskrebs) als auch in vivo (z.B. im Zusammenhang mit der Erkennung von Karies) untersucht wurde. Häufig kommen für die in

Abb. 9.6. Absorptionsbanden (ausgefüllte Flächen) und Emissionsbanden (schraf-fierte Flächen) der häufigsten intrinsischen Fluorophore

Page 383: Photonik: Grundlagen, Technologie und Anwendung

9.1 Spektroskopie 367

vivo-Anwendung Lichtleitfasern bei der Detektion der Gewebsfluoreszenz zum Einsatz.

Ähnliches gilt für die Detektion von Fluoreszenzlicht, welches von Mo-lekülen stammt, die für den spezifischen Nachweis zu untersuchender Sub-stanzen in die biologische Probe eingebracht wurden. Zu diesen Fluores-zenzmarkern zählen insbesondere Fluoreszin, Cyanin und Rhodamin. Auch das natürlich vorkommende „grün fluoreszierende Protein“ (GFP) steht nunmehr zusammen mit seinen gentechnisch modifizierten Formen zur Verfügung, um beispielsweise subzellulärer Organellen in lebendem Ge-webe sichtbar zu machen.

Die Beobachtung exogener Fluoreszenzmarker spielt beispielsweise bei der Genanalyse eine entscheidende Rolle. Mit der Mikroarray-Technologie ist es möglich, die parallele Expression von Tausenden von Genfragmen-ten in einem einzigen Experiment herzustellen. Mikroarrays bestehen aus einer Vielzahl von Mikrometer-großen Bereichen (spots), in welchen vor-her festgelegte Nukleinsäuresequenzen als Target auf einem Substratmate-rial aufgebracht werden. Wird die zu untersuchende Probe, die ihrerseits aus fluoreszenzmarkierten Nukleinsäurebruchstücken besteht, auf das Mik-roarray aufgebracht, so können sich die Probenbruchstücke mit den aufge-brachten Sequenzen nur dann verbinden, wenn die Abfolge der Nuklein-säuren von Probe und Target zueinander passt. Identifiziert man nun diejenigen Spots, auf denen Probe und Target eine passende Nukleinsäu-reabfolge aufweisen, können – da die Nukleinsäuresequenz des jeweiligen Targetspots bekannt ist – Rückschlüsse auf die Sequenz der Probe gezogen werden. Die Identifikation findet mit Hilfe von exogenen Fluoreszenzmar-kern statt, wie beispielsweise Cyanine Cy3 und Cy5, deren Absorptions- und Emissionsspektren in Abb. 9.7 dargestellt sind.

Abb. 9.7. Absorptionsspektrum (A) und Emissionsspektrum (E) der häufig ver-wendeten extrinsischen Fluorophore Cy3 (durchgezogene Linien) und Cy5 (ge-strichelte Linien)

Page 384: Photonik: Grundlagen, Technologie und Anwendung

368 9 Optische Technologien in Medizin und Life Sciences

Die durch die Spektren von Cy3 und Cy5 verständliche grüne und rote Färbung der Spots wird als Standardmarkierung für Abbildungen von Mik-roarrays eingesetzt. Exogene Fluorophore finden mit der fotodynamischen Therapie auch Anwendungen außerhalb der Diagnostik (Abschn. 9.5).

9.1.3 Molekülschwingungsspektroskopie

Die einzelnen Atomkerne in einem Molekül bewegen sich relativ zueinan-der um die jeweilige Gleichgewichtslage. Typische Schwingungsfrequen-zen liegen bei bis zu 1014 Hz, und die elektromagnetische Strahlung befin-det sich im mittleren Infrarotbereich (Wellenlängen: 2,5 µm bis 25 µm). Zur Charakterisierung der Strahlung wird die Wellenzahl angegeben, die zur Schwingungsenergie proportional ist (Wellenzahl = 1/Wellenlänge; Einheit: cm-1).

Aufgrund der Vielzahl der Kernbausteine und -bindungen in biologisch relevanten Molekülen entsteht eine Vielzahl von Schwingungsmöglichkei-ten, deren Beobachtung mit Hilfe der Spektroskopie für jedes Molekül sehr charakteristische Signaturen aufweist.

Abb. 9.8. Molekulare Schwingungen in gefalteten Polypeptidketten

Abbildung 9.8 zeigt die molekularen Schwingungsmoden des für bio-chemische Vorgänge wichtigen Polypeptidgerüstes aus Kohlenstoff (C) , Sauerstoff (O), Stickstoff (N) und den restlichen Elementen der Peptidket-te (R, R’). Die gezeigten Schwingungsformen werden in gefalteten Poly-peptidketten bei Wellenzahlen von 1.680 cm-1 (Amid I), 1.530 cm-1 (Amid II) und etwa 1.300 cm-1 (Amid III) beobachtet.

Da jedoch die meisten biologischen und medizinischen Proben zu we-sentlichen Teilen aus Wasser bestehen und da, wie in Abb. 9.4 gezeigt, Wasser im mittleren Infrarotbereich sehr stark absorbiert, ist die unmittel-bare Beobachtung der Vibrationen schwierig und man muss sich eines Tricks bedienen, um dennoch die Schwingungen der zu untersuchenden organischen Moleküle sichtbar zu machen. Eine Möglichkeit ist, die Probe zu trocknen. Das in Abb. 9.4 im Mittelinfrarotbereich eingefügte Spektrum zeigt die Absorbanz (d.h. den Logarithmus der Absorption) für einen dün-nen Film aus getrocknetem Humanserum. Deutlich zu erkennen sind die

Page 385: Photonik: Grundlagen, Technologie und Anwendung

9.1 Spektroskopie 369

betonten Amid I- und Amid II-Absorptionsbanden bei 6,0 µm (1.680 cm-1)und 6,5 µm (1.530 cm-1) sowie der C-H-Streckschwingungsbereich um 3,0 µm (3.300 cm-1).

Eine Alternative zur Trocknung bietet sich durch die zu Beginn des Ab-schnitts erwähnte Ramanspektroskopie: Strahlt man Licht des sichtbaren oder nahen Infrarotbereichs in eine biologische Probe, so wird dieses Licht wesentlich weniger durch Wasser absorbiert, als es im mittleren Infrarot-bereich der Fall wäre. Umgekehrt kann das Licht somit tief in die Probe eindringen, bevor es absorbiert wird. Nach der Absorption unterliegt ein Teil des inelastisch gestreuten Lichtes dem Ramaneffekt. Es lässt sich zei-gen, dass der Ramaneffekt sogar auftreten kann, wenn das Licht nicht im eigentlichen Sinn absorbiert, sondern ohne Absorption inelastisch gestreut wird. Dies ist insbesondere der Fall, wenn die Energie des eingestrahlten Lichtes nicht dem Energieunterschied zwischen Grundzustand und elekt-ronisch angeregtem Zustand des Moleküls entspricht. Wie in Abb. 9.3 exemplarisch dargestellt, entspricht die Energiedifferenz zwischen einge-strahltem Licht und Raman-gestreutem Licht gerade der Energie der mole-kularen Schwingung. Obgleich der Ramaneffekt sehr selten auftritt, gelang es bereits, quantitative Analysen von Serum (Abb. 9.9), Plasma und Blut oder auch die Differenzierung zwischen erkranktem und gesundem Gewe-be in Gewebsschnitten durchzuführen. Auch die Unterscheidung pathoge-ner Bakterien auf der Basis der Ramanspektroskopie ist möglich.

Abb. 9.9. Messgenauigkeit der (•) Mittelinfrarot- und ( ) Ramanspektroskopie zur quantitativen Bestimmung diagnostischer Parameter in Serum. RMSEP bezeichnet die Wurzel des mittleren quadratischen Vorhersagefehlers. Die gestrichelte Linie markiert einen relativen RMSEP von 10%

Page 386: Photonik: Grundlagen, Technologie und Anwendung

370 9 Optische Technologien in Medizin und Life Sciences

Eine dritte Möglichkeit zur Spektroskopie molekularer Schwingungen ergibt sich aus der Tatsache, dass eine Molekülschwingung auch bei Fre-quenzen beobachtet werden kann, die ganzzahlige Vielfache der Grund-schwingung sind. Dies erlaubt eine Detektion im Nahinfrarotbereich, in welchem der störende Einfluss von Wasser stark reduziert ist. Ebenso kön-nen sich verschiedene Schwingungen eines Moleküls durchmischen und das Auftreten von Summenfrequenzen verursachen, die dann anstelle des Mittelinfrarotbereiches ebenso im nahen Infrarotbereich beobachtet wer-den können. Die Nahinfrarotspektroskopie hat sich inzwischen auch als robustes, weit verbreitetes Werkzeug der biochemischen Prozesstechnik etabliert, beispielsweise zur Überwachung der Fermentation. Im Bereich der Life Sciences findet sich die Nahinfrarotspektroskopie beispielsweise in der pharmazeutischen Industrie und der Nahrungsmittelindustrie.

9.1.4 Beispiele weiterer spektroskopischer Methoden

Aus der großen Zahl weiterer spektroskopischer Methoden sowie Variati-onen der bereits besprochenen Verfahren sind die Bio- und Chemilumines-zenz sowie die Energietransferspektroskopie zu nennen.

In Ergänzung der in Abb. 9.3 dargestellten Anregung eines Moleküls durch ein Photon, kann die Anregung auch auf anderem Wege stattfinden. Bei der Chemilumineszenz wird eine Substanz wie Luminol oder Acridini-umester durch einen Katalysator oxidiert, wobei Lumineszenzlicht ent-steht. Die Biolumineszenz nutzt einen energieliefernden, enzymatischen Prozess zur Erzeugung der Lumineszenz. Ein bekanntes Beispiel hierfür ist das Luziferin, welches mit Hilfe einer enzymatischen Reaktion und durch Katalyse der Luziferase zu einem angeregten Enzymkomplex oxi-diert wird, der unter Lichtemission zerfällt. Diesen Prozess nutzen Glüh-würmchen zur Lichterzeugung.

Auch die in Abb. 9.3 dargestellte Energieabgabe kann modifiziert wer-den, beispielsweise durch den Energieaustausch eng benachbarter Molekü-le. Befinden sich zwei Moleküle in unmittelbarer Nähe zueinander, so kann aufgrund der Dipol-Dipol-Wechselwirkung die Anregungsenergie strah-lungslos von einem auf das andere Molekül übertragen werden. Dieser Pro-zess, der sich Fluoreszenz-Resonanz-Energie-Transfer (FRET) nennt, hängt von der energetischen Struktur der beiden Moleküle und äußerst stark von der Entfernung r ab: die Transferrate ist proportional zu r -6. Dies wiederum kann für die Untersuchung von Wechselwirkungen und Abständen zwi-schen Molekülen, zum Studium von Veränderungen einer Molekülstruktur oder sogar zum Nachweis von Ionenkonzentrationen benutzt werden. Von den bereits genannten Fluorophoren kommen insbesondere Cy3/FITC (Flu-oreszin-Isozyanat) sowie GFP/Rhodamin als FRET-Paare zum Einsatz.

Page 387: Photonik: Grundlagen, Technologie und Anwendung

9.2 Streuung von Licht 371

9.2 Streuung von Licht

Neben der im Abschnitt 9.1 behandelten Absorption und inelastischen Streuung von Licht, spielt die elastische Streuung in biologischer Materie eine große Rolle. Abbildung 9.10 zeigt eine Übersicht über die einzelnen Verfahren, die der Streuung zugrunde liegen.

Abb. 9.10. Übersicht über die Technologien, die auf Streuung beruhen

Ähnlich wie im Falle der Absorption wird das Streuverhalten der zu un-tersuchenden Probe entweder durch Vermessung des durch die Probe hin-durchtretenden Lichtes (Beispiel: Turbidimetrie) oder durch Beobachtung des elastischen gestreuten Lichtes (Beispiele: Nephelometrie, Remissions-fotometrie, optische Kohärenztomografie) ermöglicht.

Abb. 9.11. Reduzierter Streukoeffizient von Haut für den Bereich der Mie-Streuung und der Rayleighstreuung (Abbildung der experimentellen Datenpunkte und der aus der Theorie folgenden Linien mit freundlicher Genehmigung von S.L. Jacques, Oregon Medical Laser Center, Portland)

Page 388: Photonik: Grundlagen, Technologie und Anwendung

372 9 Optische Technologien in Medizin und Life Sciences

Der analog zum Absorptionskoeffizienten definierte Streukoeffizient µs

charakterisiert das Streuvermögen einer Probe, und geht in ein exponen-tielles Gesetz analog zu Gl. (9.1) ein. Allerdings ist die Streuung insbeson-dere in Gewebe nicht in alle Richtungen gleich stark. Dies beschreibt der Anisotropiefaktor g. Der reduzierte Streukoeffizient

µs’ = µs (1-g) (9.2)

berücksichtigt diese Anisotropie und ist am besten geeignet, um die Streu-ung in stark streuender Materie zu beschreiben.

Die elastische Streuung von Licht hängt primär von dem Verhältniszwischen Größe d der streuenden Partikel und der Lichtwellenlänge ab, wie anhand der in Abb. 9.11 gezeigten Daten deutlich wird: Die streuen-den Substanzen der Zellmembran haben eine Ausdehnung im Bereich von 0,01 µm, so dass für sichtbares Licht ( » d) die Rayleighstreuung domi-niert, während hingegen beispielsweise die Streuung an Mitochondrien (d ~ 1µm) erst im Bereich des nahen Infrarot ( ~ d) am besten durch die von Mie entwickelte Theorie beschrieben wird (Mie-Streuung).

Im Folgenden werden Beispiele genannt für die Rückstreuung in sehr dichten Medien (Teststreifen), die durch die Mie-Theorie beschriebene Streuung an Zellen und schließlich noch die kohärente Rückstreuung in der Haut mit Hilfe der Kohärenztomografie.

9.2.1 Remissionsfotometrie zur Bestimmung von Glucose

Weltweit sind mehr als 180 Mio. Menschen an Diabetes mellitus erkrankt und der regelmäßigen Bestimmung der Konzentration von Glucose im Blut kommt bei dieser Patientengruppe eine besondere Bedeutung zu. Für die Messung wird aus der Fingerbeere etwa 1µl Kapillarblut gewonnen und auf einen Teststreifen aufgebracht. Bei den fotometrischen Systemen zur Bestimmung der Blutglucose verursacht das auf dem Teststreifen befindli-che Reagenz einen Farbumschlag, der von der Glucosekonzentration der Probe abhängt.

Bei der optischen Messung wird die Vielfachstreuung des Lichts entlang seines Weges in der Reagenzschicht genutzt. Kubelka und Munk unter-suchten das Problem stark streuender und gleichzeitig absorbierender Me-dien und fanden heraus, dass das Verhältnis zwischen absorbiertem Licht und dem Streukoeffizienten S mit dem diffus reflektierten Licht folgen-dermaßen zusammenhängt (Kubelka-Munk Gesetz):

2,303 c / S = (1-R)² / (2R), (9.3)

wobei R das diffuse Reflexionsvermögen einer unendlich dicken Probe, den Absorptionskoeffizienten und c die Konzentration des Absorbers be-

Page 389: Photonik: Grundlagen, Technologie und Anwendung

9.2 Streuung von Licht 373

zeichnen. Da im Falle des Glucoseteststreifens das Produkt c von der Einfärbung des Teststreifens und damit von der Konzentration der Glucose im Blut abhängig ist, lässt sich mit dieser Beziehung umgekehrt die Gluco-sekonzentration aus der Messung des remittierten Lichtes bestimmen.

9.2.2 Durchflusszytometrie

Mit typischen Durchmessern von einigen Mikrometern liegen Zellen für sichtbares Licht noch im Bereich der Mie-Streuung, bei welcher die Streu-intensität und die Winkelverteilung des Streulichtes in der durch Mie be-schriebenen Weise von der Größe und Struktur der Streukörper abhängen. Das Streulicht kann als Signalabfall im transmittierten Licht gemessen werden (Turbidimetrie) oder unter verschiedenen Streuwinkeln beobachtet werden (Nephelometrie).

Diese Verfahren macht man sich in der Durchflusszytometrie zunutze. Hierbei werden die zu untersuchenden Zellen in Lösung durch eine enge Glaskapillare gespült, in welcher die Wechselwirkung mit eingestrahltem Laserlicht stattfindet. Die Streulichtmessung erlaubt die automatisierte Charakterisierung der weißen Blutkörperchen (Leukozyten), welche der körpereigenen Abwehr von Fremdstoffen und Krankheitserregern dienen und beim Entzündungsprozess beteiligt sind. Die Leukozyten lassen sich unterteilen in Lymphozyten (Durchmesser: 7 µm bis 12 µm), in Granulozy-ten (10 µm bis 17 µm) und in Monozyten (12 µm bis 20 µm). Aufgrund der überlappenden Größenverhältnisse der Zellen wird jedoch die Streulicht-messung in Durchflusszytometern in der Regel durch weitere Messmetho-den ergänzt. Für den Fall der roten Blutkörperchen (Erythrozyten) ermög-licht die zusätzliche Absorptionsspektroskopie zudem die Bestimmung des zellulären Hämoglobingehalts, was für die Erkennung der hyper- und hy-pochromen Anämie wesentlich ist.

Selbst bei der Diagnostik und Überwachung der HIV-Infektion (AIDS) spielt die Streulichtmessung der Durchflußzytometrie eine wesentliche Rolle. Hierbei werden mit Antikörpern beschichtete Latexkugeln der Blut-probe beigemischt, welche sich spezifisch an Antigene der Außenfläche von T-Helferzellen (einer im Zusammenhang mit HIV wesentlichen Unterart der Leukozyten) binden. Die mit Latexkugeln verbundenen T-Helferzellen lassen sich dann beispielsweise aufgrund ihrer veränderten Streucharakte-ristik von T-Suppressorzellen und anderen Leukozyten unterscheiden.

Page 390: Photonik: Grundlagen, Technologie und Anwendung

374 9 Optische Technologien in Medizin und Life Sciences

9.2.3 Optische Kohärenztomographie

Grundlage der optischen Kohärenztomographie (OCT) bildet das in Abschn. 9.1 beschriebene Michelson-Interferometer unter Verwendung einer Lichtquelle geringer Kohärenz (Abb. 9.12).

Abb. 9.12. Schematische Darstellung des OCT-Prinzips

Licht aus einer superluminiszenten Leuchtdiode (Kohärenzlänge:~10 µm) wird durch einen 2:2 Koppler in zwei optische Arme aufgeteilt, wovon einer zur Probe führt und der andere zu einem Referenzspiegel (Abb. 9.12). Das von der Probe bzw. dem Referenzspiegel reflektierte Licht wird im 2:2 Koppler wieder vereint. Ein optisches Interferenzsignal kann nur beobachtet werden, wenn die Längendifferenz der beiden opti-schen Arme nicht wesentlich größer ist als die Kohärenzlänge des Lichtes. Somit bestimmen die Position des Referenzspiegels und die Kohärenzlän-ge, aus welchem Tiefenbereich innerhalb der Probe das Licht des Proben-kanals für die Beobachtung der Interferenz kommen muss.

Diese tiefenabhängige Streulichtmessung kann durch ein laterales Ver-fahren für 2-dimensionale Schnittbilder (Abb. 9.13) oder sogar für die

Abb. 9.13. Mittels OCT gewonnener Tiefenschnitt durch die Haut. Die Spiralen sind Schweißdrüsen (S), die sich von der Lederhaut (C: corium) in die Oberhaut (E: epidermis) fortsetzen. Die Grenzschicht zwischen Epidermis und Dermis ist durch zapfenartige Ausziehungen (P: dermale Papillen) charakterisiert (mit freundlicher Genehmigung der ISIS Optronics GmbH)

Page 391: Photonik: Grundlagen, Technologie und Anwendung

9.3 Optische Mikroskopie 375

Erzeugung dreidimensionaler, tomografischer Information verwendet wer-den. Aufgrund der im Vergleich zur konfokalen Mikroskopie vergrößerten Eindringtiefe und der in Relation zum Ultraschall besseren Ortsauflösung, findet die OCT-Technik Einsatz in der morphologischen Untersuchungvon Gewebe. Da die konstruktive Interferenz vom Lichtweg und nicht vom geometrischen Wegunterschied abhängt, lässt sich auch auf den lokalen Brechungsindex im Gewebe schließen. Weiterentwicklungen befassen sich mit der Messung des Blutflusses unter Ausnutzung des Dopplereffekts.

9.3 Optische Mikroskopie

9.3.1 Übersicht

Die optische Mikroskopie ist ein unerlässliches Hilfsmittel zur Erkennung kleinster Strukturen in Zellen und Gewebe sowie zur Untersuchung von deren Dynamik und Funktion. Abbildung 9.14 zeigt einen Überblick über die Verfahren der Mikroskopie.

Abb. 9.14. Übersicht über die Verfahren der Mikroskopie

Bei der Mikroskopie unterscheidet man im Wesentlichen

die Durchlichtmikroskopie, bei der die Transmission von Licht an dün-nen Proben (z.B. Zellkulturen oder Biopsien) gemessen wird und die Auflichtmikroskopie, bei der einerseits die Reflexion von Licht an dickeren Gewebeproben, andererseits die Fluoreszenz der Proben unter-sucht wird.

Page 392: Photonik: Grundlagen, Technologie und Anwendung

376 9 Optische Technologien in Medizin und Life Sciences

In beiden Fällen ergibt sich der in Abb. 9.15 (links) skizzierte Strahlver-lauf für die Abbildung des Objekts O in die (Zwischen-) Bildebene I mit Hilfe des Objektivs Obj. Hierbei sind wiederum zwei Fälle zu unterschei-den.

Bei der Weitfeldmikroskopie wird das gesamte Objekt O gleichzeitig beleuchtet und das Bild auf einem Detektor (z.B. CCD-Kamera) in der Ebene I gemessen oder mit dem Auge über ein Okular Oc beobachtet. Dieses Okular bildet das Zwischenbild ins Unendliche ab, und die Au-genlinse des Beobachters übernimmt die Fokussierung auf die Netzhaut. Bei der Laser-Scanning-Mikroskopie wird ein fokussierter Laserstrahl über die Probe gescannt, und die jeweilige Bildinformation in einem Bildspeicher abgelegt. Die Messung erfolgt in diesem Fall mit einem hochempfindlichen Punktdetektor (z.B. Fotomultipler), dem oft eine feine Lochblende (Pinhole, in der Bildebene I) vorgeschaltet ist.

9.3.2 Auflösung, Schärfentiefe und förderliche Vergrößerung

Die mikroskopische Auflösung wird durch den Öffnungswinkel bzw. die numerische Apertur AN = n sin des Objektivs (n: Brechzahl des Mediums zwischen Objekt und Objektiv) bestimmt und lässt sich am Einfachsten über die Interferenz an einem optischen Gitter herleiten. Unter der Bedin-gung, dass mindestens die 0. und die 1. Interferenzordnung zur Bildentste-hung beitragen müssen, und der Ablenkwinkel für die 1. Ordnung nicht größer als der Öffnungswinkel sein darf, ergibt sich für die Licht-Wellenlänge eine auflösbare minimale Objektgröße von x = /AN,wenn die Probe mit parallelem Licht beleuchtet wird. Erfolgt die Beleuch-tung mit einem Lichtkegel der numerischen Apertur A AN, so addieren sich die numerischen Aperturen A und AN, und es ergibt sich eine Auflösung

x / 2AN. Die numerische Apertur bestimmt ebenfalls die laterale Auf-lösung x bei der Laser-Scanning-Mikroskopie sowie die axiale Auflösungbzw. Schärfentiefe z entsprechend den in Tabelle 9.1 angegebenen For-meln. Ein wesentlicher Unterschied besteht allerdings darin, dass bei der Laser-Scanning-Mikroskopie nur die in der Schärfenebene liegenden Ob-jektpunkte abgebildet werden, während bei der Weitfeldmikroskopie auch die außerhalb der Schärfenebene liegenden Objektpunkte zur Abbil-dung beitragen und damit eine Unschärfe verursachen.

Mikroskopobjektive haben üblicherweise eine Vergrößerung m zwi-schen 2,5 und 100 und sind für den Gebrauch in Luft (Brechzahl n = 1)oder den Immersionsflüssigkeiten Wasser (n = 1,33) bzw. Öl (n = 1,5) ausgelegt. Um die laterale Auflösung des Objektivs bei der Videomikro-skopie (Detektor in der Bildebene I) zu nutzen, darf der Minimalabstand zweier Bildelemente nicht größer sein als m x/2, was bei vielen hochauf-

Page 393: Photonik: Grundlagen, Technologie und Anwendung

9.3 Optische Mikroskopie 377

lösenden Kameras (mit ca. 800 600 Bildelementen oder mehr) der Fall ist. Für die visuelle Beobachtung sollte die Gesamtvergrößerung (Objektiv Okular) den Wert V = 500 AN bis 1.000 AN nicht überschreiten, damit der Minimalabstand x auch im Auge noch erkennbar ist. V wird daher als die förderliche Vergrößerung des Mikroskops bezeichnet.

Tabelle 9.1. Laterale ( x) und axiale ( z) Auflösung bei Weitfeld- und Laser-Scanning-Mikroskopie (LSM). Bei LSM wird nach Größe des Pinholes (Ph) im Vergleich zur Airy-Einheit (1 AE = 1,22 /AN) unterschieden

Weitfeldmikr. LSM (Ph 1AE) LSM (Ph 0.25AE)

x 0,51 em/AN 0,51 ex/AN 0,37 eff/AN

z n em/AN² 0,88 ex/[n-(n²-AN²)1/2] 0,64 eff/[n-(n²-AN²)1/2]

ex = Anregungswellenlänge, em = Emissionswellenlänge, eff = effektive Wellen-länge ( ex < eff < em).

9.3.3 Köhler’sche Beleuchtung und Kontrastverstärkung

Wie in Abb. 9.15 für den Fall der Durchlichtmikroskopie aufgezeigt ist, unterscheidet man generell zwischen dem Objektstrahl (links) und dem Pupillenstrahl (rechts).

Der Objektstrahl umfasst neben der Abbildung des Objekts O in die Zwischenbildebene I und die Netzhaut des Auges E die Köhler’sche Be-leuchtung, bei der jeder Punkt einer Lichtquelle L zur homogenen Aus-leuchtung des Objekts beiträgt. L beleuchtet zunächst gleichmäßig die Leuchtfeldblende Fd, die ihrerseits mit dem Kondensor C in die Objekt-ebene abgebildet wird. Der Pupillenstrahl weist die Lampe als Eintrittspu-pille aus, die zunächst in die Aperturblende des Kondensors (AC), an-schließend in die Aperturblende des Objektivs (AObj, in der hinteren Objektiv-Brennebene) und schließlich in die Augenpupille abgebildet wird. Der Pupillenstrahl durchsetzt hierbei die Probe als Parallelstrahl, was wiederum bei der Phasenkontrastmikroskopie ausgenutzt wird. Bei diesem Kontrast verstärkenden Mikroskopieverfahren kann man das die Probe direkt durchsetzende Licht unabhängig von dem durch Interferenz abge-lenkten Licht beeinflussen, indem man das Objekt mit einer ringförmigen Blende beleuchtet und das nicht abgelenkte Licht in der Aperturblendene-bene AObj mit einem sogenannten Phasenring abschwächt und in seiner Phase verschiebt. Bei der Zusammenführung der einzelnen Interferenzord-nungen in der Zwischenbildebene kann man so Phasenstrukturen eines Objekts sichtbar machen, die man im Amplitudenbild nicht sehen würde.

Page 394: Photonik: Grundlagen, Technologie und Anwendung

378 9 Optische Technologien in Medizin und Life Sciences

Abb. 9.15. Objektstrahl (links) und Pupillenstrahl (rechts) eines Mikroskops bei Köhler’scher Beleuchtung

Eine weitere Möglichkeit, Phasenstrukturen eines Objekts zu visualisie-ren, bietet die Interferenzkontrastmikroskopie, bei der eine anregende (li-near polarisierte) Lichtwelle in zwei Teilwellen mit zueinander senkrechter Polarisation zerlegt wird, welche die Probe mit einem kleinen räumlichen Versatz v x durchsetzen. Wird hierbei die Phase beider Teilwellen glei-chermaßen beeinflusst, so setzen diese sich im Zwischenbild wiederum zu einer linear polarisierten Lichtwelle zusammen und führen zu einer Auslö-schung hinter einem hierzu gekreuzten Analysator. Erfahren jedoch beide Teilwellen im Objekt O unterschiedliche Phasenverschiebungen, so ist die resultierende Lichtwelle elliptisch polarisiert und durchtritt den Analysator teilweise. Die hierbei gemessene Phasenstruktur eines Objekts kann be-sonders kontrastreich dargestellt werden, wenn man statt der visuellen Beobachtung eine Kamera mit einstellbarem Offset (zur Unterdrückung des Gleichlichtanteils) und Verstärkung benutzt.

Page 395: Photonik: Grundlagen, Technologie und Anwendung

9.3 Optische Mikroskopie 379

9.3.4 Fluoreszenzmikroskopie

Das in der Biologie und Medizin am häufigsten benutzte Mikroskopiever-fahren ist die Fluoreszenzmikroskopie. Damit können neben intrinsischen Fluorophoren von Zellen und Gewebe zahlreiche spezifische Marker für Zellorganellen, pH-Werte oder Membranpotentiale erfasst werden. Eine neue, viel versprechende Technik ist die Nutzung fluoreszierender Protei-ne, die in Quallen oder Korallen natürlich vorkommen. Durch die gentech-nische Fusion ihrer Gene mit Genen zellulärer Proteine und anschließender Überexpression in Zellen in Kultur lassen sich so Proteine in einem Spekt-rum von blau bis rot fluoreszenzmarkieren und für zellbiologische Expe-rimente nutzen (Abschn. 9.1.2).

Fluoreszenzmikroskopie erfolgt in der Regel unter Auflichtbeleuchtung(Abb. 9.16), da die Fluoreszenz im Durchlicht völlig überstrahlt würde. Ein dichroitischer Spiegel reflektiert das kürzerwellige Anregungslicht auf die Probe und lässt das längerwellige Fluoreszenzlicht zum Detektor (Fo-tomultiplier oder hochempfindliche Videokamera) passieren. Geeignete Langpass- oder Bandpass-Filter sorgen für eine weitere Unterdrückung des Streulichts gegenüber dem Fluoreszenzsignal.

Abb. 9.16. Fluoreszenzmikroskopie unter Auflicht- oder Totalreflexions- (TIR-) Beleuchtung

Page 396: Photonik: Grundlagen, Technologie und Anwendung

380 9 Optische Technologien in Medizin und Life Sciences

Eine besondere Möglichkeit zur Untersuchung der Fluoreszenz an Ober-flächen (z.B. Zellmembranen) bietet die Totalreflexions–Fluoreszenzmi-kroskopie, bei der ein Laserstrahl an der Probenoberfläche total reflektiert wird (z.B. unter Verwendung eines rechteckigen oder halbkugelförmigen Glasprismas), sein evaneszentes elektromagnetisches Feld jedoch etwa 100 nm in die Probe eindringt und diese zur Fluoreszenz anregt. Die 1981 erstmals beschriebene Methode wird zunehmend zur Untersuchung von Zell-Substrat-Topologien, Membrandynamiken, sowie von Stoffwechsel-vorgängen an Zelloberflächen genutzt. Abbildung 9.17 zeigt einen Mikros-kopkondensor für die Totalreflexions-Fluoreszenzmikroskopie mit einer Beispielmessung.

Abb. 9.17. Ein an der Hochschule Aalen entwickelter Mikroskopkondensor für Totalreflexions-Fluoreszenzmikroskopie (links); Beispielmessung an kultivierten Endothelzellen nach Inkubation mit dem Zytoplasmamarker Calcein. Man erkennt die membrannahen Bereiche des Zytoplasmas (u.a. „focal contacts“)

Neben der Fluoreszenz-Intensität wird zunehmend auch die Fluores-zenz-Lebensdauer als Messgröße benutzt. Sie liefert wichtige Informatio-nen über Wechselwirkungen eines Fluorophors mit seiner molekularen oder zellulären Umgebung (z.B. strahlungsloser Energietransfer, FRET, Abschn. 9.1.4). Unter Verwendung gepulster Lichtquellen und neuer, zeit-lich hochauflösender Detektionssysteme können somit Lebensdauern im Subnanosekundenbereich gemessen und als Bild dargestellt werden (FLIM: Fluorescence Lifetime Imaging).

9.3.5 Laser-Scanning-Mikroskopie

Bei der Laser-Scanning-Mikroskopie (LSM, Abb. 9.18) rastert der Strahl eines Lasers mit Hilfe eines Scanners S und eines Objektivs O die Probe ab und erzeugt zu jedem Objektpunkt einen entsprechenden Bildpunkt, der

Page 397: Photonik: Grundlagen, Technologie und Anwendung

9.3 Optische Mikroskopie 381

gemeinsam mit allen anderen Bildpunkten im Bildspeicher abgelegt wird. Der Strahl wird hierbei zunächst zu einem Parallelstrahl aufgeweitet, des-sen Durchmesser etwas größer als die Aperturblende des Mikroskopobjek-tivs ist und anschließend in der Probenebene auf den Durchmesser einer Airy-Einheit (1 AE = 1,22 /AN) fokussiert.

Abb. 9.18. Schema eines konfokalen Laser-Scanning-Mikroskops (S = Scanner, T = telezentrischer Strahlengang, O = Objektiv, Ph = Pinhole, D = Detektor)

Im Vergleich zur konventionellen Weitfeldmikroskopie ergeben sich hierbei folgende Vorteile:

eine etwas verbesserte laterale Auflösung x und Tiefenauflösung z,wie in Tabelle 9.1 dargestellt; eine Kontrasterhöhung, da jeweils nur ein Objektpunkt gemessen und Querstreuuung von anderen Objektpunkten vermieden wird; die Möglichkeit eines elektronischen Zooms, da das Verhältnis Bild-feld/Objektfeld über die Scanning-Amplitude variiert werden kann; eine erhöhte Empfindlichkeit, da mit einem hochempfindlichen Punktde-tektor (Fotomultiplier) statt einer Video-Kamera gemessen wird; die Möglichkeit, Schichtaufnahmen aus einer bestimmten Probentiefe aufzunehmen, indem nur die Objektpunkte, die sich exakt im Fokus ei-nes Laserstrahls befinden, auf eine Lochblende (Pinhole Ph) in der Bild-ebene abgebildet und somit detektiert werden (konfokale Mikroskopie).Im Gegensatz zur Weitfeldmikroskopie erfolgt somit keine (unscharfe) Abbildung von Objektpunkten oberhalb oder unterhalb der Fokusebene. Die Fokusebene des Laserstrahls kann durch eine Höhenverstellung des Objekttisches verändert werden, so dass eine topologische Aufnahme und eine 3D-Rekonstruktion des gesamten Objekts möglich wird. Die konfokale Mikroskopie ist allerdings nur bei Auflichtbeleuchtung mög-lich und wird zumeist für Fluoreszenzaufnahmen genutzt.

Page 398: Photonik: Grundlagen, Technologie und Anwendung

382 9 Optische Technologien in Medizin und Life Sciences

Abbildung 9.19 zeigt ein Laser-Scanning-Mikroskop mit einer Bei-spielmessung.

Neben der konfokalen Mikroskopie bietet die Zweiphotonen- oder Mul-tiphotonenmikroskopie die Möglichkeit von Schichtaufnahmen, wobei die Fluoreszenz spezifischer Moleküle durch mehrere gleichzeitig einfallende Lichtquanten angeregt wird. Dies erfolgt nur innerhalb kleinster Volumina im Laserfokus und macht die Verwendung eines Pinholes überflüssig. Allerdings sind hierfür Laserimpulse im Pico- oder Femtosekundenbereich erforderlich.

9.3.6 Laserpinzette und Laser-Mikromanipulation

Ein im Mikroskop fokussierter Laserstrahl kann verschiedene Wechsel-wirkungen mit Zellen oder Gewebe ausüben. Wesentlich ist hierbei der Photonenimpuls p = h/ (h: Planck’sches Wirkungsquantum). Fallen in einer Zeiteinheit t Z Photonen auf eine Probe, so können sie bei Reflexi-on, Absorption oder Brechung eine Kraft F = Z p/ t im Pico- bis Nano-newtonbereich auf die Probe ausüben. Bei einem Querschnitt des fokus-sierten Laserstrahls von etwa 1 µm² entsteht dadurch ein Druck bis zu 1.000 N/m². Bei transparenten Partikeln wie Zellen und Organellen ist hierbei vor allem die Brechung des Lichts entscheidend. Hat der Laser-strahl ein gauß-förmiges Intensitätsprofil (Abb. 9.20), so weist die resultie-rende Kraft in Richtung des Laserfokus und ermöglicht es, Teilchen im Fokus zu halten und (bei Bewegung des Laserstrahls oder des Objekt-tischs) zu führen. Diesem Prinzip der Laserpinzette kommt eine zuneh-mende Bedeutung bei der Messung intrazellulärer Kräfte, sowie der Gen-technik, Einzelzellsortierung, Zellfusion und nicht zuletzt der In–vitro–

Abb. 9.19. Laser-Scanning-Mikroskop LSM-5 Pascal (Werkfoto: Carl Zeiss Jena; links); Beispielmessung an menschlichen Glioblastomzellen nach Inkubation mit dem Mitochondrienmarker Rhodamin 123

Page 399: Photonik: Grundlagen, Technologie und Anwendung

9.3 Optische Mikroskopie 383

Fertilisation zu. Wesentlich hierbei ist allerdings, dass keine Zellschädi-gung durch mechanische oder thermische Wechselwirkungen erfolgt. Dies wird durch eine Begrenzung der Bestrahlungsstärke und die Wahl einer geeigneten Wellenlänge (zwischen 650 nm und 1.100 nm, wo die Absorp-tion durch die Zelle gering ist) sicher gestellt. Üblicherweise wird der La-serstrahl mit einer Teleskopoptik in eine zur Objektebene konjugierte Ebe-ne und anschließend durch das Mikroskop so auf die Probe fokussiert, dass sich eine beugungsbegrenzte Abbildung (Airy-Scheibchen) ergibt und die Aperturblende des Mikroskopobjektivs voll ausgeleuchtet wird. Durch Verstellung des Teleskops kann der Ort des Laserfokus auch unabhängig von der mikroskopischen Abbildung gewählt werden.

Abb. 9.20. Prinzip der Laserpinzette unter Nutzung eines Gauß-förmigen Laser-Strahlprofils. Die Ablenkung der Photonen a und b aufgrund der Lichtbrechung führt zu einer Rückstoßkraft auf das dargestellte Partikel in Richtung des Laser-Fokus

Der Begriff Laser-Mikromanipulation beinhaltet neben der Nutzung des Photonendrucks vor allem thermische und mechanische Wechselwirkun-gen. So kann bei der lasergestützten Optoporation unter Verwendung ei-nes geeigneten Absorbermediums die Temperatur auf einer Zelloberfläche lokal und transient so erhöht werden, dass die Zellmembran fluider wird und das Einschleusen von Molekülen oder kleinen Partikeln in die Zelle erlaubt. Kleine Löcher und feinste Schnitte auf Zelloberflächen können bei Einkopplung ultrakurzer Laserimpulse in ein Mikroskop durch Ablation erzeugt und beispielsweise für eine Zelltransfektion genutzt werden. Die Laser-Mikrodissektion in Kombination mit einem Herauslösen von Berei-chen einer Gewebeprobe (Laser pressure catapulting) hat sich rasch zu einer etablierten Technik in der Histologie und Onkologie entwickelt.

Page 400: Photonik: Grundlagen, Technologie und Anwendung

384 9 Optische Technologien in Medizin und Life Sciences

9.3.7 Operationsmikroskopie

Das Operationsmikroskop ist ein unerlässliches Werkzeug des Mikrochirur-gen und wird in verschiedenen klinischen Disziplinen wie Ophthalmologie, Hals-Nasen-Ohrenheilkunde, Gynäkologie, Neurochirurgie oder plastischer Chirurgie eingesetzt. Wesentlich hierbei ist, dass bei relativ geringer Ge-samtvergrößerung und numerischer Apertur (0,008 AN 0,05) ein hinrei-chender Arbeitsabstand, ein dem Operationsbereich angepasstes Sehfeldund eine genügend große Schärfentiefe erzielt werden können. Das Objekt wird zunächst mit der Objektivlinse Obj ins Unendliche und anschließend mit einer Tubuslinse T in die Zwischenbildebene abgebildet. Obj und T bil-den somit ein Teleskop, dessen Vergrößerung über das Verhältnis der Brennweiten fT/fObj eingestellt werden kann. Die Beobachtung erfolgt dann mit einem Binokulartubus der Okularbrennweite fOc und der Vergrößerung VOc = 250 mm/fOc. Je nach Anwendungsgebiet werden Brennweiten zwischen 175 mm und 400 mm für das Objektiv, zwischen 125 mm und 175 mm für die Tubuslinse und zwischen 12,5 mm und 25 mm für das Okular gewählt, so dass sich bei einer Gesamtlänge zwischen 30 cm und ca. 80 cm eine Gesamt-vergrößerung zwischen 5 und 20 ergibt. Wichtig ist eine stereoskopische Beobachtung, wobei der Stereowinkel allerdings wegen der geringen Aper-tur auf einen Wert zwischen 3° und 10° begrenzt ist. Die Beleuchtung erfolgt grundsätzlich im Auflicht; je nach Mikroskoptyp wird zwischen Köh-ler’scher Beleuchtung und faseroptischer Beleuchtung unterschieden.

9.4 Endoskopie

9.4.1 Einführung

Die Endoskopie hat durch die Entwicklung der mininimal-invasiven Chi-rurgie (MIC) in den vergangenen Jahrzehnten eine noch höhere Bedeutung gewonnen. Aber auch technische Fortschritte, wie die Entwicklung mo-dernster Kameratechnologie mit der Möglichkeit der digitalen Weiterver-arbeitung der endoskopischen Bilder, die Integration des Kamerasensors in die Endoskopspitze, die Entwicklung und die Fertigung hochkomplexer optischer Systeme, die weiter schreitende Miniaturisierung, die Verwen-dung hochwertiger Werkstoffe oder die Entwicklung neuer optischer Ver-fahren tragen zur Weiterentwicklung der Endoskopie bei.

Endoskopische Verfahren finden in den verschiedensten medizinischen Fachdisziplinen ihre Anwendung. Die Verfahren lassen sich nach der Bau-art des Endoskops – starr oder flexible – sich in zwei Gruppen einteilen. Abbildung 9.21 gibt eine entsprechende Übersicht über ausgewählte endo-skopische Verfahren.

Page 401: Photonik: Grundlagen, Technologie und Anwendung

9.4 Endoskopie 385

Abb. 9.21. Übersicht über endoskopische Verfahren

9.4.2 Endoskopie-System

Die ursprüngliche Funktion des Endoskops (gr. Endo innen, innerhalb; skopein betrachten) nämlich die Erzeugung von Bildern aus dem Körper-inneren wird heute durch ein Endoskopie-System realisiert. Das Endoskop ist hierbei Teil eines Gesamtsystems, das je nach Anwendung unterschied-lich zusammengestellt sein kann. Ein Endoskopie-System umfasst folgen-de Teilfunktionen:

Beleuchtung,Bildgebung, Visualisierung, Dokumentation und Instrumentenzuführung.

Die Beleuchtung des Objektraumes im Körperinneren erfolgt mit Licht-quellen, die auf der Basis von Hg-, Xe- oder Metallhalogenlampen die benötigte Lichtmenge erzeugen. Das Licht wird über Lichtleitkabel und die im Endoskop integrierten Lichtleitfasern bis zum Gewebe geleitet. Diese ungeordneten Faserbündel transportieren das Licht unter Ausnut-zung der Totalreflexion (Abschn. 1.1.3). Die Lichtquellen erzeugen eine annähernd tageslichtähnliche spektrale Verteilung der Intensität. Die Lichtleitfasern sind im Endoskop so anzuordnen, dass eine homogene Aus-leuchtung des betrachteten Objektraums entsteht. Durch die Verwendung von Lichtleitfasern in Verbindung mit entsprechenden IR-Filtern in der

Page 402: Photonik: Grundlagen, Technologie und Anwendung

386 9 Optische Technologien in Medizin und Life Sciences

Lichtquelle wird eine unerwünschte Erwärmung des Gewebes verhindert. Diese Beleuchtungsart wird deswegen auch als Kaltlicht bezeichnet.

Die endoskopische Bildgebung, d.h. die optische Abbildung durch das Endoskop, beginnt mit der Bilderzeugung durch das sich an der Endoskop-spitze befindliche Objektiv, wodurch sich ein verkleinertes und umgekehr-tes erstes Zwischenbild des Objekts ergibt. Dieses Zwischenbild wird mit einem Bildweiterleitungssystem aus dem Körperinneren nach außen trans-portiert. Die Bildweiterleitung kann optisch oder, wenn das Zwischenbild direkt mit einem in der Endoskopspitze angebrachten Bildsensor aufge-nommen wurde, elektronisch erfolgen. Bei der optischen Bildweiterleitung wird das letzte Zwischenbild am Ende des Endoskops durch ein Okular vergrößert und virtuell abgebildet, wodurch ein direkter Blick in das Endo-skop möglich ist.

Die Visualisierung der endoskopischen Bilder durch den direkten Blick wurde in den meisten Fachdisziplinen durch den Einsatz spezieller Kame-rasysteme ersetzt, die das endoskopische Bild auf einem Monitor darstel-len. Diese Kamerasysteme bestehen aus einem Kameraobjektiv, einem Kamerakopf mit Bildsensor und einer Steuereinheit. Wenn auf die visuelle Endoskopie verzichtet werden kann, bieten Endoskope mit elektronischer Bildweiterleitung den Vorteil, dass nur die Steuereinheit benötigt wird, um das Bild auf den Monitor zu übertragen. Die elektronische Bilderfassung und Darstellung über den Monitor hat sich heute vielfach durchgesetzt, da sie gegenüber dem Direkteinblick in das Endoskop entscheidende Vorteile bietet. Neben einer ergonomischen Arbeitsweise bietet sie die Möglichkeit, dass mehrere Personen gleichzeitig denselben endoskopischen Blick ha-ben. Weiterhin ermöglicht sie die analoge oder digitale Speicherung derendoskopischen Bilder mit modernen Dokumentationssystemen. Die Bild-dokumentation ist für die Verlaufskontrolle und die immer wichtiger wer-denden Qualitätssicherung medizinischer Eingriffe unverzichtbar gewor-den. Die mögliche Digitalisierung der Bildinformationen bietet darüber hinaus neue Möglichkeiten der digitalen Bildverarbeitung. Beispielsweise kann die Qualität der endoskopischen Bilder deutlich verbessert werden, aber auch neue diagnostische Perspektiven über den visuellen Blick hinaus sind möglich.

Ausgehend von dem reinen diagnostischen Einsatz der Endoskopie wurden die verschiedensten Therapieverfahren unter endoskopischer Kon-trolle entwickelt. Viele Endoskope sind deshalb mit einem Arbeitskanalfür die Instrumentenzuführung ausgestattet oder aber das in Kombination mit dem Endoskop angewandte Instrumentarium ermöglicht das Einführen zusätzlicher Instrumente in den Körper. Neben dem Instrumentarium wer-den weitere Komponenten benötigt, die je nach Anwendung zum Einsatz kommen. Hierzu zählen beispielsweise Pumpen, Motoren, Hochfrequenz-Geräte, Ultraschall-Geräte und Laser. Zur Optimierung der Arbeitsabläufe

Page 403: Photonik: Grundlagen, Technologie und Anwendung

9.4 Endoskopie 387

im Operationssaal können die Komponenten des Endoskopie-Systems mit anderen Geräten zu einem sogenannten integrierten Operationssaal ver-netzt und zentral gesteuert werden.

Abbildung 9.22 und 9.23 zeigen beispielhaft die einzelnen Komponen-ten eines Endoskopie-Systems.

Abb. 9.22. Standard-Instrumentarium für die Laparoskopie und entsprechendes Endoskop mit angeschlossenem Kamerakopf und Lichtleiter (Werkfoto: Fa. RICHARD WOLF GmbH, Knittlingen)

Abb. 9 23. Endoskopie. Gerätewagen mit zentraler Steuereinheit (Werkfoto: Fa. RICHARD WOLF GmbH, Knittlingen)

Page 404: Photonik: Grundlagen, Technologie und Anwendung

388 9 Optische Technologien in Medizin und Life Sciences

Obwohl bei fast allen genannten Systemkomponenten optische Techno-logien zum Einsatz kommen, wird nachfolgend nur auf die bildgebenden Komponenten im Endoskop näher eingegangen.

9.4.3 Endoskopische Bildgebung

Das für die endoskopische Bildgebung verwendete Abbildungssystem be-steht prinzipiell aus den Komponenten Objektiv, Bildweiterleitungssystem und Okular. An die Leistungsfähigkeit endoskopischer Abbildungssysteme werden hohe Anforderungen gestellt. Die Leistungsfähigkeit wird im We-sentlichen durch folgende Größen beschrieben:

Abbildungsqualität,Helligkeit,Auflösung,Kontrast,künstliche Vignettierung (Verluste an Linsenrändern und Linsenfassun-gen verringern das Licht in einzelnen Lichtpunkten), Schärfentiefe, Empfindlichkeit (elektronische Bildweiterleitung) und Signal-Rausch-Abstand (elektronische Bildweiterleitung).

Die Eigenschaften der endoskopischen Bildgebung werden insbesondere durch das verwendete Bildweiterleitungssystem bestimmt (Tabelle 9.2).

Objektiv

Das an der Endoskopspitze befindliche Objektiv bildet das Objekt in ein verkleinertes und umgekehrtes Zwischenbild ab. Es bestimmt mit seiner Brennweite die Größe des Objektfeldwinkels. Je größer der Objektfeldwin-kel sein soll, desto kürzer muss die Objektivbrennweite gewählt werden.

Bildweiterleitung

Die Aufgabe des Bildweiterleitungssystems ist das im Körper entworfene Zwischenbild zu transportieren. Für die Bildweiterleitung stehen folgende Technologien zur Verfügung:

Linsensysteme,geordnete Glasfaserbündel und elektronische Bildweiterleitung.

Die unterschiedlichen Bildweiterleitungssysteme des endoskopischen Abbildungssystems zeigt Abb. 9.24. Anstelle des direkten Blicks werden bei der optischen Bildweiterleitung (Abb. 9.24 a und b) meist entsprechen-

Page 405: Photonik: Grundlagen, Technologie und Anwendung

9.4 Endoskopie 389

de Kamerasysteme verwendet, um das endoskopische Bild auf einem Mo-nitor betrachten zu können.

Abb. 9.24. Bildweiterleitungssysteme des endoskopischen Abbildungssystems: a) Linsensystem, b) geordnetes Glasfaserbündel, c) elektronische Bildweiterlei-tung

Linsensysteme

Die Bildweiterleitung mit Linsensystemen erfolgt durch die Hintereinander-schaltung von Umkehrsystemen. Die Bezeichnung Umkehrsystem rührt daher, dass jedes dieser Systeme ein höhen- und seitenvertauschtes Bild erzeugt. Die Hauptaufgabe der Umkehrsysteme besteht darin, das Zwischen-bild mit dem Abbildungsmaßstab 1:1 weiterzuleiten. Mit der sich hierdurch ergebenden Strahlführung legt das Umkehrsystem die Gesamthelligkeit der endoskopischen Abbildung fest. Die Größe des aufgenommenen und wei-tergeleiten Lichtkegels wird durch die numerische Apertur beschrieben. Damit ist die numerische Apertur des Umkehrsystems ein Maß für die Hel-ligkeit des optischen Systems. Durch Erhöhung der Anzahl der verwendeten Umkehrsysteme kann die numerische Apertur gesteigert werden.

Mit dem von Hopkins erstmals beschriebenen sogenannten Stablinsen-umkehrsystem wurde ein vignettierungsarmer Linsenaufbau entwickelt, welcher mit besonders wenig optischen Bauteilen realisierbar ist. Dieser in starren Endoskopen weit verbreitete Umkehrtyp hat somit eine geringe Anzahl Glas-/Luft-Flächen. Dies führt zu einer Verringerung des Streu-lichtanteils und zu einer Erhöhung der Transmission.

Page 406: Photonik: Grundlagen, Technologie und Anwendung

390 9 Optische Technologien in Medizin und Life Sciences

Geordnete Glasfaserbündel

Bei geordneten Glasfaserbündeln, die auch Bildbündel genannt werden, wird, wie bei den Lichtleitfasern zur Beleuchtung, die Totalreflexion an der Grenzfläche vom Kern- zum Mantelglas der Einzelfaser zur Bildwei-terleitung genutzt (Abschn. 1.1.3). Für die Bildübertragung ist Vorausset-zung, dass die Fasern geordnet sind, d.h. alle Fasern auf der Objektseite müssen die gleichen Nachbarfasern wie auf der Bildseite haben. Die Quali-tät dieser sogenannten Ordnung ist für die Detailerkennung und damit für die Gewebedifferenzierung von Bedeutung. Da nur das Kernglas zurBildweiterleitung dient, ergibt sich eine Rasterstruktur, die von dem Durchmesser der Einzelfaser, dem Verhältnis Kern zu Mantelglas und der Packungsdichte abhängt. Neben den hochflexiblen Bildbündeln für flexib-le Endoskope kommen auch sogenannte Silikatbildleiter zum Einsatz. Die-se sind auf der kompletten Länge verschmolzen und daher semiflexibel und robuster. Silikatbildleiter finden in starren Endoskopen dann Anwen-dung, wenn aufgrund der Baugröße die Verwendung eines Linsensystems aus konstruktiven Gründen oder Kostengründen nicht möglich ist. Der Einzelfaserdurchmesser liegt in Abhängigkeit der erforderlichen Abbil-dungsqualität zwischen 3,5 µm bis 12 µm. Je nach nutzbarem Durchmes-ser, der die Anzahl der Einzelfasern begrenzt und damit die Auflösung mitbestimmt, kann das Bildbündel bis zu 100.000 Einzelfasern umfassen.

Elektronische Bildweiterleitung

Bei der elektronischen Bildweiterleitung befindet sich an der Spitze des Endoskops ein CCD-Sensor (Charge-Coupled Device). Das Objektiv bil-det das Objekt direkt auf den Bildsensor ab, der aus einer Matrix einzelner Fotosensoren besteht. Der CCD-Sensor wandelt die Lichtinformation durch Ausnutzung des inneren Fotoeffekts in elektrische Ladung. Diese wird ausgelesen und an die außerhalb befindliche Steuereinheit übertragen. Das elektrische Signal wird von der Steuereinheit weiterverarbeitet und als Videosignal zur Verfügung gestellt.

Durch die weiter fortschreitende Miniaturisierung wird die elektronische Bildweiterleitung zukünftig eine immer größere Bedeutung erlangen und die optischen Techniken zur Bildweiterleitung teilweise ersetzen. Auch weitere Fortschritte in der Sensortechnik, wie die Entwicklung neuer Bild-sensoren, könnten dazu beitragen.

Tabelle 9.2 fasst die Eigenschaften der einzelnen Bildweiterleitungssys-teme zusammen.

Page 407: Photonik: Grundlagen, Technologie und Anwendung

9.4 Endoskopie 391

Tabelle 9.2. Bildweiterleitungssysteme in der Endoskopie

Technologie Funktionsweise Kennzeichen Einsatzgebiete Linsensysteme Abbildung durch Linsen hohe Bildquali-

tät, starr starre Endosko-pe

Geordnete Glasfaser-bündel

Bildübertragung durch Totalreflexion im geord-neten Glasfaserbündel

begrenzte Auflö-sung durch Pi-xelstruktur, flexibel

flexible Endos-kope, (starre Endoskope)

Elektronische Bildweiter-leitung

Umwandlung des opti-schen Signals in ein elektronisches Signal und deren Weiterleitung

hohe Bildquali-tät, flexibel

flexible Endos-kope, starre Endoskope

Okular

Das Okular erzeugt vom letzten Zwischenbild der optischen Bildweiterlei-tung ein virtuelles, vergrößertes Bild, das direkt mit dem Auge oder über eine Kamera mit Objektiv auf dem Monitor betrachtet werden kann. Je nach Wahl der Brennweite des Okulars und damit der gewählten Lupen-vergrößerung wird ein Bild unterschiedlicher Größe erzeugt.

9.4.4 Ausführungsformen medizinischer Endoskope

Endoskope werden durch natürliche oder künstlich geschaffene Körperöff-nungen in den Körper eingeführt. Da sich flexible Endoskope besser an die Anatomie anpassen können, kommen diese bei natürlichen Körperöffnungen zum Einsatz. Starre Endoskope werden in künstlich geschaffene Körperöff-nungen und wenn möglich bzw. notwendig auch in natürliche Körperöffnun-gen eingeführt. Die jeweiligen Anwendungen (Abb. 9.21) erfordern auf-grund ihrer speziellen anatomischen Gegebenheiten die Anpassung des Endoskops. Dadurch wurde eine große Zahl unterschiedlicher Ausführungs-formen entwickelt, die sich beispielsweise in Durchmesser, Länge, Blick-richtung oder Objektfeldwinkel unterscheiden. Beispielhaft ist in Abb. 9.25 ein starres Endoskop für die Laparoskopie und in Abb. 9.26 ein flexibles Endoskop für die Gastroskopie dargestellt.

Die im medizinischen Einsatz verwendeten Aufbereitungsverfahren stel-len an die Konstruktion und die verwendeten Werkstoffe besondere Anfor-derungen. Beispielsweise erfordert die Dampfsterilisation mit Temperatu-ren von mindestens 134 °C eine entsprechende Auswahl an Materialien und Verbindungstechniken. Neben den technischen Anforderungen müssen auch die gesetzlichen Richtlinien für Medizinprodukte beachtet werden.

Page 408: Photonik: Grundlagen, Technologie und Anwendung

392 9 Optische Technologien in Medizin und Life Sciences

Starre Endoskope

Starre Endoskope bestehen vereinfacht dargestellt aus ineinanderliegenden dünnwandigen Rohren, in denen das Bildweiterleitungssystem und die Lichtleitfasern (Einzelfaserdurchmesser 30 µm bis 70 µm) integriert sind. Am Endstück der Endoskope befindet sich der Lichtanschluss und der genormte Okulartrichter zur Aufnahme der Kamera bzw. für den direkten Einblick. Das Instrumentarium und das Zubehör sind auf den jeweiligen Endoskoptyp abgestimmt.

Je nach Anwendungsgebiet unterscheiden sich die Endoskope in folgen-den Eigenschaften:

Außendurchmesser, Nutzlänge,Integrierter Arbeitskanal, Objektfeldwinkel (40° bis 115°), Blickrichtung, Bildweiterleitungssystem und Anzahl und Art der Lichtleitfasern.

Der Außendurchmesser starrer Endoskope liegt überwiegend in einem Bereich von 1,9 mm bis 10 mm. Bei verschiedenen Anwendungen sind Blickrichtungen erforderlich, die nicht in der Achsrichtung (0°) des Endo-skops liegen. Die unterschiedlichen Blickrichtungen bis zu 120° werden durch die Integration von Prismen in das Objektiv realisiert. Abbil-dung 9.25 zeigt ein Laparoskop für die MIC mit Detailaufnahmen der un-terschiedlichen Blickrichtungen. Die meisten starren Endoskope kommen mit einem Instrumentarium zum Einsatz, das neben dem Einführen des En-doskops auch das Zuführen weiterer Instrumente ermöglicht. Spezielle Ty-pen, wie beispielsweise Operationslaparoskope, besitzen einen integrierten Arbeitskanal. Die in der starren Endoskopie verwendeten Bildweiterlei-tungssysteme sind in Tabelle 9.2 zusammengestellt.

Abb. 9.25. Laparoskop, Außendurchmesser 10 mm, Nutzlänge 300 mm, Blick-richtung 0° und Detailaufnahmen verschiedener Blickrichtungen v.l.n.r. 0°, 30°, 50° (Werkfoto: Fa. RICHARD WOLF GmbH, Knittlingen)

Page 409: Photonik: Grundlagen, Technologie und Anwendung

9.4 Endoskopie 393

Flexible Endoskope

Ein flexibles Endoskop besteht aus einer abwinkelbaren Spitze, einem flexiblen Schaft, dem Steuergehäuse und den entsprechenden abnehmbaren bzw. fest angebrachten Anschlussleitungen. Der Schaft des Endoskops besteht aus einer Konstruktion aus Metallgeflecht und -spirale und einem speziellen Kunststoffschlauch. Die flexiblen Endoskope unterscheiden sich, je nach Anwendungsgebiet, in folgenden Eigenschaften:

Außendurchmesser, Arbeitslänge, Arbeitskanal,Abwinkelebene,Abwinkelbereich,Objektfeldwinkel,Bildweiterleitungssystem und Anzahl und Art der Lichtleitfasern.

Nach dem Außendurchmesser lassen sich flexible Endoskope in die Gruppe der gastrointestinalen Endoskope mit einem Durchmesser größer als 6 mm und in die Gruppe der dünnen Endoskope (z.B. Bronchoskope, Cystoskope) einteilen. Je nach Ausführungsform lässt sich die Endoskop-spitze in einer bzw. zwei Ebenen abwinkeln. Wenn zwei Ebenen gleichzei-tig angesteuert werden, kann jede beliebige Abwinkelrichtung erreicht werden. Der Abwinkelbereich, d. h. der maximale Winkel zwischen En-doskopschaft und Endoskopspitze, reicht von 60° bis 270°. Die Kraftüber-tragung zum Abwinkeln der Endoskopspitze erfolgt über Bowdenzüge, die mit einem bzw. zwei Steuerrädern gesteuert werden. Neben dem Bildge-bungssystem, den Lichtleitbündeln und den Bowdenzügen sind noch bis zu zwei Kanäle zur Luftinsufflation, Spülung und Saugung bzw. zur Einfüh-rung von Hilfsinstrumenten im Schaft untergebracht.

Die Bildweiterleitung erfolgt entweder elektronisch (Videoendoskope)oder mit flexiblen Bildbündeln (Fiberendoskope) (Tabelle 9.2). Aufgrund der besseren Bildqualität der Videoendoskope wird die Bildweiterleitung mit flexiblen Bildbündeln zukünftig mehr und mehr durch die elektroni-sche Bildweiterleitung ersetzt werden. Abbildung 9.26 zeigt ein Videoen-doskop neuester Generation.

Page 410: Photonik: Grundlagen, Technologie und Anwendung

394 9 Optische Technologien in Medizin und Life Sciences

Abb. 9.26. Video-Gastroskop, Außendurchmesser 9,8 mm, Arbeitskanaldurch-messer 3,2 mm, Arbeitslänge 1050 mm (Werkfoto: Fa. PENTAX Europe GmbH, Hamburg)

9.5 Laseranwendungen in der Medizin

9.5.1 Einführung

Mit den systematischen Untersuchungen in den 80er Jahren wurde das Po-tenzial des Lasers für die spezifische Wirkung auf biologische Zielstruktu-ren wie Blutgefäße, Pigmente, Muskel- und Fettgewebe erkannt. Neben den diagnostischen Einsatzmöglichkeiten des Laser, auf die in Abschnitt 9.1, 9.2 und 9.3 näher eingegangen wird, haben sich hieraus unterschiedliche thera-peutische Anwendungen entwickelt, die von dem jeweils genutzten Effekt abhängen (9.5.2). Abbildung 9.27 zeigt eine Übersicht über die therapeuti-schen Laseranwendungen in der Medizin und im Bereich Life Sciences.

Abb. 9.27. Übersicht über die therapeutischen Laseranwendungen

Page 411: Photonik: Grundlagen, Technologie und Anwendung

9.5 Laseranwendungen in der Medizin 395

Mittlerweile eignet sich der Laser nicht nur zur Bearbeitung von Weich-gewebe, sondern er hat sich auch in der Zahnmedizin und zum Abtragen von Knochensubstanz bewährt. Einige Indikationsgebiete sind in Tabel-le 9.3 aufgeführt.

Tabelle 9.3. Indikationsgebiete für die wichtigsten Lasertypen

Lasertyp [nm] Effekt Indikationsgebiet

Excimer (ArF) 193 abtragen Augen Excimer (XeCl) 308 abtragen Gefäße Farbstoff (gepulst) 580 bis 600 koagulieren Gefäße (Feuermal),

Pigmente Argon (cw) 488, 514 koagulieren Gefäße, Netzhaut Diode (cw, gepulst) 630 bis 980 T, koagul.

fotochem. PDT, Gefäße, Haarentfer-nung, Chirurgie

HeNe (cw) 632,8 fotochem. Diagnostik, Stimulation Alexandrit 700 bis 800 T, Fotolyse Haarentfernung, Pigmente

Nd:YAG (cw) 532 koagulieren, vaporisieren

Chirurgie, Gefäße

Nd:YAG (cw) 1064, 1340 koagulieren, vaporisieren

Stenosen, Chirurgie (in Kontakt mit Faser)

Nd:YAG (q-switch) 1064 disruptiv Augen (Membran), Lithotripsie

Rubin (gepulst) 694 T, Fotolyse Pigmente, Haarentfernung

Holmium (gepulst) 2100 T, vapor. disruptiv

Harnleiterstrikturen, Gal-lensteine

Er:YAG (gepulst) 2940 abtragen Weich- und Hartgewebe CO2 (cw) 9.600,10.600 vaporisieren Chirurgie, Weichgewebe

9.5.2 Wirkungsmechanismen

Laserlicht, das auf stark streuendes Gewebe, wie die menschliche Haut trifft, wird teilweise remittiert, im Gewebe absorbiert oder je nach Schichtdicke transmittiert. Wie in Abschn. 9.2 (Streuung von Licht) be-reits erwähnt, werden die gewebeoptischen Eigenschaften durch folgende Parameter bestimmt:

Absorptionskoeffizientreduzierter Streukoeffizient µs’ (Gl 9.2) und Anisotropiefaktor g (g=0 für isotrope Streuung, g=1 für Vorwärtsstreu-ung).

Page 412: Photonik: Grundlagen, Technologie und Anwendung

396 9 Optische Technologien in Medizin und Life Sciences

Für rotes Licht, bezogen auf die Bedingungen der menschlichen Haut, bedeutet das, dass die mittlere freie Weglänge für die Streuung eines Pho-tons 50 µm beträgt und die mittlere freie Weglänge für die Absorption eines Photons 5 mm; ein Photon wird also 100 mal gestreut, bevor es ab-sorbiert wird. Die Streuung ist somit verantwortlich für die Lichtverteilung im Gewebe und die Absorption für den Energietransfer in Wärme. Die Absorption ändert sich in Abhängigkeit mit der Wellenlänge des Laser-lichts. Verantwortlich dafür sind die Chromophore des Bluts (Hämoglo-bin), Pigmente (z.B. Melanin) der Haut und der Wassergehalt des Gewebes im nahen Infrarotbereich. Die größte Eindringtiefe des Lichts in das Ge-webe ist zwischen 600 nm und 900 nm gegeben.

Entsprechend den Absorptionsverhältnissen und den Laserparametern unterscheidet man die folgenden Reaktionsmechanismen:

Fotochemische Reaktionen: Absorption der Lichtquanten ohne thermi-sche Effekte (Fluoreszenzanregung, PDT, fotochemische Reaktionen). Thermische Reaktionen: 40 °C bis 50 °C enzymatische Veränderungen, 60 °C bis 65 °C Denaturierung von Proteinen, 80°C Denaturierung von Kollagen, 90 °C bis 100 °C Austrocknung, >100°C Vaporisation und >300°C Karbonisation des Gewebes. Koagulation des Gewebes: Denaturierung der Eiweißmoleküle, Ver-schluss von Gefäßen mit Blutstillung, thermische Nekrose. Vaporisation des Gewebes: Schneiden und oberflächliches Verdampfen von Gewebe mit Blutstillung durch thermische Nekrose.Ablation von Weich- und Hartgewebe: Schnelles Abtragen von Gewebe durch Laserpulse von 100 ns bis 400 µs Dauer, hohe Absorption ist Voraussetzung; geringe Nekrose und Blutstillung. Optomechanischer Effekt: Auslösen von Schockwellen und Plasmaer-zeugung (optischer Durchbruch) durch ultrakurze Laserpulse von fs bis ns Pulsdauer; Kavitationsblase und mechanische Zerstörung als Neben-effekte.

Durch Variation der Bestrahlungsstärke (W/cm²) und Einwirkzeit lassen sich die Wirkmechanismen modulieren und der gewünschten Therapie-form anpassen. In einem Zeit-Leistungs-Diagramm (Abb. 9.28) sind die Bereiche grafisch dargestellt.

Page 413: Photonik: Grundlagen, Technologie und Anwendung

9.5 Laseranwendungen in der Medizin 397

Abb. 9.28. Zeit-Leistungs-Diagramm für die einzelnen Wirkungsmechanismen. Die diagonalen Linien entsprechen Laserpulsen mit gleicher Energie

9.5.3 Laseranwendungen

Koagulieren von Gefäßen, Schneiden und Verdampfen von Gewebe ohne Blutverlust, präzises Abtragen von Gewebeschichten, kosmetische Be-handlungen sowie die fotodynamische Lasertherapie unter Verwendung von Sensibilisatoren (Farbstoffen) sind neben diagnostischen Verfahren (Abschn. 9.1, 9.2, 9.3) die Hauptanwendungsgebiete des Lasers in der Medizin. Es ergeben sich durch kontinuierliche Weiterentwicklungen neue Einsatzgebiete wie in der Gelenkchirurgie oder bei der Versorgung chroni-scher Wunden. Die Präzision der chirurgischen Eingriffe, die selektive Wirkung des Laserlichts und die minimal invasive Vorgehensweise sind die besonderen Vorteile der Laseranwendung. Durch kleinere und preis-günstigere Geräte verbreitert sich zunehmend der Lasereinsatz.

Applikatoren mit Strahlführungssystemen sind für die Anwendung ebenso wichtig wie die Strahlquelle selbst. Lichtleitfasern (Glas-, Quarz- und Germaniumoxid-Fasern) stehen für den Wellenlängenbereich von 308 nm bis 3.000 nm zur Verfügung. Die Zerstörschwelle bei Quarzfasern liegt bei 30 GW/cm², die bei kurzen Pulsen schnell überschritten werden kann. Für diesen Fall helfen dann nur noch Spiegel-Gelenkarme, die auch für die Strahlleitung des CO2-Lasers eingesetzt werden.

Page 414: Photonik: Grundlagen, Technologie und Anwendung

398 9 Optische Technologien in Medizin und Life Sciences

Laser in der Augenheilkunde

Nachdem es Meyer-Schwickerath 1949 mit einem Sonnenlicht-Koagulator erstmals gelang, die Netzhaut (Retina) durch die Pupille bei 10 Patienten wieder anzuheften, wurde diese Therapieform bei Netzhautablösung bald der erste Routineeingriff mit einem Argon-Ionen Laser in der Augenheilkunde. Da der Ionenlaser in seiner Energiebilanz (Lichtleistung/Elektrische Leis-tung) mit etwa 0,3% sehr ineffektiv ist, wurden mit Diodenlasern und Fre-quenz-verdoppeltem Nd:YAG (532 nm) Alternativen entwickelt. Als weite-rer Laser kam der gütegeschaltete (q-switch) Nd:YAG Laser (1.064 nm, 7 ns bis 15 ns) hinzu, um über den optischen Durchbruch und die Schockwellen die Nachstarmembran wieder zu öffnen. Weitere Routinebehandlungen sind die Laser-Iridektomie und Laser-Trabekuloplastik zur Glaukomtherapie.

Aufsehen erregten die ersten Anwendungen zur Korrektur der Fehlsich-tigkeit (Myopie) des Auges mit dem Excimer-Laser (ArF) bei 193 nm Wel-lenlänge. Dabei wurde über eine computer-gesteuerte Blende die Oberfläche der Hornhaut (Cornea) zentral stärker abgetragen als peripher, so dass die Brechkraft der Hornhaut verringert und der Fokus nach hinten auf die Retina verlagert wurden. Vorübergehende Trübungen der Hornhaut mit Einschrän-kungen der Nachtsicht waren häufig die Nebenwirkungen. Deshalb hat sich das LASIK-Verfahren (Laser assistierte in situ Keratomileusis) am meisten verbreitet. Hierbei wird mechanisch eine dünne Hornhautschicht nahezu abgetrennt, dann die Korrektur mit dem Excimer-Laser im Stroma vollzogen und anschließend die oberflächliche Schicht wieder zurückgeklappt. Myo-pien bis –10 Dioptrien lassen sich auf diese Weise korrigieren. Abbildung 9.29 zeigt ein Excimer Laser-System und Beispiele für seine Anwendung.

Abb. 9.29. Excimer Laser-System zur Korrektur der Fehlsichtigkeit (links). Mit rotierenden Masken kann die Korrektur der Fehlsichtigkeit individuell eingestellt werden (Pfeile) (Werkfoto: Asclepion Meditec)

Page 415: Photonik: Grundlagen, Technologie und Anwendung

9.5 Laseranwendungen in der Medizin 399

Die Entwicklung geht jedoch weiter. Mit einem scannenden Lasersys-tem können neben der Brechkraftkorrektur auch lokale Aberrationen höhe-rer Ordnung ausgeglichen werden, um scharfes Sehen noch zu verbessern. Dazu wird zur Diagnostik ein Wellenfrontsensor (Hartmann-Shack Sensor)eingesetzt, der über eine Matrix von Mikrolinsen Wellenfrontkorrekturen bei der Abbildung des Auges ermöglicht, die dann bei der Laserbehand-lung berücksichtigt werden. Statt eines Excimer-Lasers sind derzeit Fem-tosekundenlaser in der Erprobung, die über den optischen Durchbruch ohne das mechanische Abtrennen der oberflächlichen Schicht direkt im Stroma der Hornhaut die Korrektur der Fehlsichtigkeit durchführen kön-nen. Beispiele der Wellenfrontdeformationen und eines fs-Lasersystems zeigen Abb. 9.30 und Abb. 9.31.

Abb. 9.30. Wellenfrontdeformation bei der Abbildung durch das Auge (Werkfoto: PERFECT VISION Optische Geräte GmbH, Heidelberg)

Abb. 9.31. Femtosekunden-Lasersystem (Werkfoto: IntraLase Corp., Irvine)

Page 416: Photonik: Grundlagen, Technologie und Anwendung

400 9 Optische Technologien in Medizin und Life Sciences

Laser in der Dermatologie

Das größte Spektrum der Laseranwendung bietet der Laser in der Derma-tologie und der Kosmetik. Die häufigsten Indikationsgebiete sind in Tabel-le 9.4 dargestellt. Für die Therapie vaskulärer Veränderungen werden zur Verödung der Blutgefäße Laser im sichtbaren und NIR-Spektralbereich eingesetzt. Hierbei muss die Hautoberfläche gekühlt werden (kalter Luft-strom, Eis, kalter Glasspatel oder gekühltes Saphirfenster), damit keine Verletzungen und Narben entstehen. Beispiel eines Hämangioms zeigt Abb. 9.32. Ein Er:YAG-Laser zum Abtragen von Gewebe (Haut, Naevi, Pigmentierungen) zeigt Abb. 9.33.

Tabelle 9.4. Indikationen und Lasertypen für Anwendungen in der Dermatologie

Indikationen: Lasertypen Feuermale, Besenreiser, Hämangiome Argon-Ionen, Farbstoff (gepulst),

Nd:YAG, Diode Pigmente, Tätowierung, Altersflecke Rubin, Farbstoff, Nd:YAG (q-switch) Condylome, epidermale Naevi, Plaques Er:YAG Laser, CO2 Laser,Aktinische Keratose, BCC Dioden-Laser (PDT) Psoriasis Excimer-Laser (308 nm) Faltenglättung, Xantylasmen Er:YAG Laser, CO2 Laser Epilation (Haarentfernung) Alexandrit-Laser, Dioden-Laser

Abb. 9.32. Beispiel der Lasertherapie eines Hämangioms mit dem Nd:YAG Laser (mehrere Sitzungen)

Page 417: Photonik: Grundlagen, Technologie und Anwendung

9.5 Laseranwendungen in der Medizin 401

Abb. 9.33. Beispiel eines gepulsten Er:YAG Lasers für die Anwendungen in der Dermatologie zum Abtrag von Gewebe (Haut, Naevi, Pigmentierungen) (Werkfo-to: Asclepion Meditec)

Chirurgische Laseranwendungen

Für große chirurgische Eingriffe, die das Skalpell ersetzen, ist der Laser auch aus Kostengründen nicht geeignet. Wohl aber für spezifische chirur-gische/mikrochirurgische Anwendungen, beispielsweise in der Handchi-rurgie oder bei der Öffnung von Stenosen im Verdauungstrakt. Oberfläch-liches Gewebe kann mit dem CO2-Laser vaporisiert oder mit dem Er:YAG Laser abgetragen werden. Vorteile sind die gleichzeitige Blutstillung und die Heilung mit gutem kosmetischen Effekt. Endoskopisch lässt sich der Laser über Lichtleitfasern einsetzen zum Koagulieren oder Verdampfen von Gewebe, beispielsweise bei Strikturen (Harnleiter). Hierzu eignet sich auch der Holmium-YAG Laser.

Laser in der Zahnmedizin

Mittlerweile hat der Laser auch in der Zahnmedizin Einzug gehalten. An-fangs war das Hauptindikationsgebiet die Kariesentfernung: neuerdings ist der Laser zum allgemeinen mundchirurgischen Instrument geworden. Durchgesetzt hat sich der Er:YAG-Laser zum Abtragen von Zahnhartsub-stanz, in der Weichgewebechirurgie, der Parodontologie und der Wurzel-kanalsterilisierung. Abbildung 9.34 zeigt den Abtrag von Zahnschmelz und Dentin mit dem Er: YAG Laser.

Page 418: Photonik: Grundlagen, Technologie und Anwendung

402 9 Optische Technologien in Medizin und Life Sciences

Abb. 9.34. Abtrag von Zahnmaterial mit dem gepulsten Er:YAG Laser und einer feinen Wasserbefeuchtung zur Vermeidung von thermischen Schäden

Die aktuelle Lasergeneration ist sogar mit einem Feedback-Mecha-nismus zur selbständigen Erkennung von kariösen Veränderungen über selektive NIR-Fluoreszenzdiagnostik ausgestattet (Abb. 9.35).

Abb. 9.35. A: Schema des rückgekoppelten Lasers mit . Erkennung von kariösen Veränderungen (B: Abtrag von Zahnhartsubstanz, C: Faserendstück für den Ein-satz in der Endodontie und D: Parodontologie)

Für die verschiedenen Einsatzgebiete sind nur die Handstücke – wie kon-ventionell die Bohrer – auszuwechseln. Es gibt chirurgische Handstücke,Faser-Handstücke für die Endodontie und meiselartige Endstücke für die Lichtauskopplung zur Behandlung der Zahntaschen in der Parodontologie.

Page 419: Photonik: Grundlagen, Technologie und Anwendung

9.6 Literatur 403

9.6 Literatur

Ashkin A (1988) Strahlungsdruck. In: Müller A (Hrsg) Anwendungen des Lasers. Spektrum der Wissenschaft, Heidelberg, S 38–49

Berlien H-P, Müller G (Hrsg) (1989) Angewandte Lasermedizin. Lehr- und Hand-buch für Praxis und Klinik. ecomed, Landsberg München Zürich

Barbe DF (ed) (1980) Charge-coupled devices. (Topics in applied physics; v. 38). Springer, Berlin Heidelberg New York

Demtröder W (1999) Laserspektroskopie – Grundlagen und Techniken. Springer, Berlin Heidelberg New York

Förster T (1960) Zwischenmolekularer Übergang von Elektronenanregungsener-gie. Z Elektrochem 64: 157–164

Göke G (1988) Moderne Methoden der Lichtmikroskopie. Franckh’sche Verlags-handlung, Stuttgart

Katzir A (1993) Lasers and optical fibers in medicine. Academic Press, San Diego Müller O (1991) Operationsmikroskopie. In: Hutten H (Hrsg) Biomedizinische

Technik, Band 4. Springer, Berlin Heidelberg New York, S 39–52Ochi S, Iizuka T, Hamasaki M, Sato Y, Narabu T, Abe H, Kagawa Y, Kato K

(1996) Charge-coupled device technology. (Japenese technology reviews. Section A: Electronics; v. 30). Gordon und Breach Publishers, Amsterdam

Raulin Ch, Greve B (2001) Laser und IPL-Technologie in der Dermatologie und Ästhetischen Medizin. Schattauer, Stuttgart Salm R, Hentschel M, Kramme R (2002) Endoskope. In: Kramme R (Hrsg) Medi-

zintechnik. Springer, Berlin Heidelberg New York, S 188–206 Schmidt W (1994) Optische Spektroskopie. VCH-Wiley, Weinheim Tuchin VV (ed) (2002) Handbook of Optical Biomedical Diagnostics. SPIE, Bel-

lingham Vo-Dinh (ed) (2003) Biomedical Photonics Handbook. CRC Press, Boca Raton Wurster H, Zobel J (1991) Endoskopie und ihre Anwendung. In: Hutten H (Hrsg)

Biomedizinische Technik 4. Springer, Berlin Heidelberg New York, S 53–88 Zobel J (1988) Optische Systeme in der Endourologie – derzeitiger Stand und

Perspektiven. In: Schüller J, Hofstetter AJ (Hrsg) Endourologie. George Thieme, Stuttgart New York, S 19–30

Page 420: Photonik: Grundlagen, Technologie und Anwendung

10 Gebrauchsgüter

Gebrauchsgüter sind durch folgende Merkmale gekennzeichnet:

Massenartikel für Endverbraucher, die ohne direkte Hersteller-Kunden Beziehung auskommen. Bedienung durch Laien möglich. Globaler Markt und internationaler Wettbewerb.Stark preissensitiv.

Gebrauchsgüter in der Optik (mit Ausnahme von Beleuchtungssyste-men) dienen vor allem folgenden Zwecken :

Bildaufnahme (Analoge und digitale Fotokamera, Handycam, Webcam, Camcorder, Scanner, Fax, Fotokopierer). Bildvergrößerung (Mikroskop, Lupe, Teleskop). Bildwiedergabe (Analoger und digitaler Projektor, Head Mounted Dis-play und Head Up Display).

In allen Segmenten der Gebrauchsoptik findet ein rapider Technologie-wechsel statt. Technologietreiber sind dabei der Preis und vor allem der in weitgehend gesättigten Märkten hohe Innovationsdruck. Die wesentlichen Technologiesprünge kann man wie folgt zusammenfassen:

Miniaturisierung.Ablösung der fotochemischen durch die elektronische Bildaufzeichnung.Ablösung analoger durch digitale Techniken. Ablösung von thermischen Lichtquellen durch Halbleiterlichtquellen.Ablösung feinmechanischer Lösungskonzepte durch mechatronischeLösungsansätze.Ersatz von Metall- durch Kunststoffbauteile.

Im Folgenden werden diese Aspekte an den hauptsächlichen Anwen-dungen deutlich werden. Ferner wird aufgezeigt, welche zukünftigen Ent-wicklungen zu erwarten sind.

Page 421: Photonik: Grundlagen, Technologie und Anwendung

406 10 Gebrauchsgüter

10.1 Bildaufnahme

10.1.1 Analoge Fotokamera

Bilderzeugung und –speicherung ist eine der fundamentalen Aufgaben der Optik, die seit der Erfindung der Fotografie durch Daguerre 1835 eine kontinuierliche Ausbreitung erfahren hat.

Wesentliche Schritte zum Gebrauchsgut waren gegen Ende des 19. Jahrhunderts die Herstellung von konfektionierten Filmen sowie von preisgünstigen und relativ einfach zu bedienenden Kameras durch George Eastman. In den folgenden Jahren wurden die Kameras in Richtung zu-nehmende Automatisierung der Aufnahme und Miniaturisierung weiter-entwickelt (Abb. 10.1).

Abb. 10.1. Erste Rollfilmkamera von Kodak (Quelle: US-Patent 388850) und aktuelle Einwegkameras von Kodak und Agfa

Durch die Anwendung elektronischer und mechatronischer Bauelemente gelang in den 80-er und 90-er Jahren eine nahezu vollständige Automati-sierung der Kameras, so dass das alte Kodak Motto „You press the button, we do the rest“ nahezu vollständig umgesetzt werden konnte. Bei der Mi-niaturisierung wurden weniger dramatische Fortschritte erreicht, da die Größe der Hand hier eher eine physiologische als optisch bedingte Grenze setzte.

Erst mit dem Siegeszug der fotoelektronischen Bildaufzeichnung trat ei-ne Größenlimitierung aufgrund optischer Randbedingungen ein. Der Er-satz der fotochemischen durch die digitalisierte, fotoelektronische Bildauf-zeichnung wurde durch zwei technologische Megatrends begünstigt, nämlich die dramatisch steigende Integrationsdichte elektronischer Bau-elemente und die weite Verbreitung von Computern.

Page 422: Photonik: Grundlagen, Technologie und Anwendung

10.1 Bildaufnahme 407

10.1.2 Digitale Fotokamera

Gemeinsam ist allen Digitalkameras, dass sie ein automatisches Belich-tungssystem (inklusive Blitz) und ein Display beinhalten, das die direkte Kontrolle der aufgenommenen Bilder ermöglicht. Mit einem Standard-USB-Anschluss ist ein Datenaustausch zum PC problemlos möglich. Ab-bildung 10.2 zeigt die Größenvergleiche zwischen der ersten Digitalkame-ra und den heutigen digitalen Fotoapparaten.

Abb. 10.2. Größenvergleich Digitalkameras: Erste Digitalkamera Mavicam (1981) von Sony, mit ultraflache (11 mm dicke) Digitalkamera im Scheckkartenformat mit 2 Mio Pixeln (Casio 2004) und die Consumer High-End Spiegelreflexkamera mit 6,1 Mio Pixeln (Nikon 2004)

Die fotochemisch realisierte Polaroid-Philosophie von Edwin Land, ein Bild bereits kurz nach der Aufnahme anschauen zu können, wurde von den Digitalkameras (fast) vollständig abgelöst. Zwei dominante Trends in der Entwicklung von Digitalkameras können heute beobachtet werden: Weite-re Miniaturisierung und Erhöhung der Pixelzahl. Durch eine höhere Pixel-zahl kommt man der Auflösung und der Farbbrillanz eines fotochemisch erzeugten Bildes (z.B. Dia) immer näher. Diese betragen etwa 6 Mio bis 10 Mio Bildpunkte, je nach Film und eingesetzter Optik.

10.1.3 Handycam und Webcam

Fotohandys verdrängen derzeit Digitalkameras im Niedrigpreissegment mit Objektiven einer Brennweite (Abb. 10.3).

Sucherkameras mit Zoomobjektiven und Spiegelreflexsystemen lassen sich in Handys aus Platzgründen (noch) nicht unterbringen.

Page 423: Photonik: Grundlagen, Technologie und Anwendung

408 10 Gebrauchsgüter

Abb. 10.3. Handy mit integrierter Kamera (Werkfoto: Vodafone/Sharp)

Die Größe des Kameramoduls inklusive Optik liegt in der Größenord-nung von 5 übereinanderliegenden 1-Cent-Stücken. Das Gewicht der Optik ist mit etwa 0,5 g nicht entscheidend für das Gesamthandygewicht. Die Objektive werden normalerweise in zwei unterschiedlichen Positionen auf der optischen Achse betrieben, um den Nahbereich und den Fernbereich abdecken zu können. Der Verrechnung von Bildstapeln wird in künftigen Handys mehr Aufmerksamkeit gewidmet werden, weil damit die Vergrö-ßerung der Tiefenschärfe bei gleicher Objektiv-Apertur möglich wird. Dies ist den herkömmlichen fotochemischen Prozessen nicht möglich.

Das Handy wird voraussichtlich zur Drehscheibe der audiovisuellen Kommunikation. Die Standardisierung von Schnittstellen wird dafür sor-gen, dass Kameras ihre Daten digital an ein Handy übertragen und dort bis zur weiteren Bearbeitung zwischenspeichern.

Webcams sind Kameras, die für den Austausch bewegter Bilder im Inter-net entwickelt wurden und über eine relativ kleine Bildpunktzahl im Film-modus verfügen, um eine quasi Live-Übertragung zu ermöglichen. Im Inter-net haben sich bereits Märkte aufgetan, die ohne Webcams gar nicht denkbar wären. Webcams gibt es in der Low-cost–Variante vom einfachen Kamera-modul mit typischerweise 320 240 Bildpunkten einschließlich USB-An-

Abb. 10.4. Webcam mit Zoom und Remote-Funktionen (Werkfoto: Logitech)

Page 424: Photonik: Grundlagen, Technologie und Anwendung

10.1 Bildaufnahme 409

schluß bis zum High-End-Gerät mit Megapixel-Bildsensoren, Face Tracking Funktion, 18 optisches Zoom-Autofocus Objektiv, 2 per Remote ansteuer-baren Kippachsen (z.B. Sony EVI D70PW oder Logitech QuickCam Or-bit , Bild 10.4). Webcams sind technisch betrachtet sehr weit entwickelt.

10.1.4 Camcorder

Der harte Wettbewerb mit ständig neuen Innovationen im digitalen Be-reich verringert die Produkt-Lebensdauer dieser Systeme ständig. Zwei Generationswechsel im Jahr sind daher keine Seltenheit. Zoomobjektive mit 8 fach Zoom gehören zum Standard. Selbst Camcorder mit 12 fach bis 20 fach Zoom-Objektiven sind erhältlich. Der enorme Preiskampf zwingt die Hersteller dazu, die Kosten auch im Bereich der Optik zu reduzieren. Fassungen aus Kunststoff, neue Antriebskonzepte für Autofokus und mo-torisches Zoomen sowie höherintegrierte Elektronik sorgen für fallende Preise und kleinere Geräte (Abb. 10.5)

Abb. 10.5. Größenvergleich: Erster consumerorientierter Camcorder Sony Beta-movie BMC 100 im Vergleich zum Sony Digital-Camcorder mit Zeiss-Optik und Panasonic 3 Chip-Camcorder mit Leica-Optik

Moderne Consumer-Camcorder sind so kompakt wie Fotoapparate, pas-sen so in (fast) jede Jacken- bzw. Handtasche und sind damit immer ein-satzbereit. Diese technologische Entwicklung hat folgende zwei Ursachen:

1. Die Entwicklung kompakter extrem leistungsfähiger Akkumulatoren.2. Die Fortschritte in der Halbleiterlithografie, die es erlaubt, immer mehr

Schaltkreise auf gleicher Fläche unterzubringen.

Der Camcorder der Zukunft wird vermutlich eine wiederbeschreibbare Mini-DVD oder ähnliches (z.B. Blue CD) als Speichermedium benutzen.

Page 425: Photonik: Grundlagen, Technologie und Anwendung

410 10 Gebrauchsgüter

Da die Pixelgröße in den Bildsensoren sich ständig weiter verringert, wird die Optik neue Wege gehen müssen, um beugungsbegrenzt auf einer gro-ßen Sensorfläche abbilden zu können. Die Optiken werden aus Kosten-gründen aus Bi-Asphären bestehen und glasähnliche Kunststoffe werden das Gewicht der Camcorder weiter verringern. Neue einheitliche Schnitt-stellen werden mittelfristig zur kabellosen Vernetzung aller digitalelektro-nischen Bildaufnahme- und Bildwiedergabegeräte führen (Abschn. 10.3).

10.1.5 Flachbettscanner, Fotokopierer, Fax

Optisch betrachtet funktionieren Scanner, Fotokopierer und Faxgeräte nach dem gleichen Prinzip: Eine definiert beleuchtete Linie auf einer Vor-

Abb. 10.6. Prinzip des CCD-Flachbett-Scanners

Page 426: Photonik: Grundlagen, Technologie und Anwendung

10.1 Bildaufnahme 411

lage wird über ein optisches System auf eine CCD- oder CMOS-Zeile ab-gebildet und das daraus resultierende Farb-Signal digitalisiert. Allen ge-meinsam ist die Relativbewegung der Vorlage zum Detektor (Bild 10.6). Moderne Scanner lösen eine DIN A4 Auflage mit deutlich mehr als 10 Millionen Bildpunkten auf.

Beim Scannen gibt es zwei unterschiedliche Verfahren:

1. Historisch betrachtet früher und damit technisch sehr ausgereift sind die Scanner, die über eine Plan-Spiegelsystem und einer abschließenden Optik das reflektierte Licht auf den CCD-Sensor projizieren.

2. Das neue Scanner-Prinzip verzichtet auf eine justierbare Optik. Die ab-rasternde Zeile wird in der Papierbreite ausgeführt. In diese Zeile ist eine Mikrolinsenzeile integriert, die einen Bildpunkt auf den entsprechenden Pixel abbildet. Diese Technologie wird auch als CIS (Compact ImageSensor) bezeichnet. Die Beleuchtung basiert auf der LIDE–Technologie(LED In Direct Exposure). Rote, grüne und blaue LED werden sequen-tiell eingeschaltet. Diese Scanner können daher extrem flach gebaut wer-den (Abb. 10.7).

Abb. 10.7. Extrem flacher DIN A 4-Scanner nach dem LIDE-Prinzip (Werkfoto: Canon)

Die Qualität der Flachbildscanner wird durch die Digitalisierungstiefe (z.B. 30 Bit = 3 10 Bit pro Farbe) und durch die optische Auflösung be-stimmt. Während Faxvorlagen meist mit etwa 100 dpi, d. h., mit 100 dots(=Punkten) pro inch (=2,54 cm) für geschriebene Vorlagen auskommen,

Page 427: Photonik: Grundlagen, Technologie und Anwendung

412 10 Gebrauchsgüter

sind 300 dpi bis 600 dpi für Fotos in Normalgröße (4 inch 5 inch) anstre-benswert. Bei Dias sind 2.400 dpi wünschenswert. Dies entspricht einer Auflösung von etwa 10 µm, die allerdings von den wenigsten Consumer-Scannern erreicht wird.

Flachbettscanner gehören mittlerweile zum Standardzubehör eines Computers. In All-in-One Geräten sind sowohl Flachbettscanner, als auch Faxgeräte integriert. Die Faxfunktion wird künftig weiter an Bedeutung verlieren, weil der Emailverkehr unter anderem wegen der möglichen Da-tenreduktion effizientere Möglichkeiten zum Datenaustausch bietet.

Höhere optische Auflösungen als bisher sind aus Benutzersicht nicht mehr notwendig, weil die Auflösungsgrenze des Auges mit modernen Scannern bereits überschritten ist (etwa 30 µm auf 25 cm). Der Einsatz von Leuchtdiodenarrays (z.B. LIDE) wird mittelfristig die konventionellen Gasentladungsröhren ersetzen, weil diese wesentlich schneller einsatzbe-reit und langlebiger sind. Bedingt durch Digitalfotographie und Beamer-technologie werden Diascaneinheiten als Zubehör verschwinden. CMOS-Zeilen-Sensoren werden die CCD-Zeilen-Sensoren ersetzen, weil diese weniger Strom pro ausgelesenes Pixel (=dot) benötigen, preiswerter in der Herstellung und unempfindlicher gegen Über- und Unterbelichtung sind.

10.2 Vergrößerungsgeräte

Allen Vergrößerungsgeräten ist gemeinsam, dass für die Beobachtung eine Quantenwandlung von Photonen in Elektronen oder umgekehrt nicht not-wendig ist.

10.2.1 Mikroskop

Lichtmikroskope waren schon zu Beginn auf den Verbraucher ausgerich-tet, allerdings mit der Zielrichtung der „Gemütsergötzung“. Dieser Effekt konnte bei frühen optischen Geräten häufig festgestellt werden (z.B. La-terna Magica).

Mikroskope konnten lange nicht in gleicher Qualität gebaut werden, weil der Zusammenhang zwischen Optik und Auflösungsvermögen nicht erklärt werden konnte. Dies gelang zuerst Ernst Abbe 1871. Diese Er-kenntnis und die Fähigkeit, Präzision in Massenproduktion herstellen zu können, eröffneten nach dem 2. Weltkrieg die Möglichkeit, für eine breite Bevölkerungsschicht Schülermikroskope zu einem akzeptablen Preis her-zustellen. Mittlerweile erobert die digitale Mikroskopie die Verbraucher-märkte (Abb. 10.8).

Page 428: Photonik: Grundlagen, Technologie und Anwendung

10.2 Vergrößerungsgeräte 413

Abb. 10.8. Oben links: Einer der ersten Consumer-Mikroskope von Smith und Beck. Oben rechts: Lupenmikroskop des 17. und 18. Jahrhunderts (Optisches Museum Oberkochen). Unten in der Mitte: Schülermikroskop 40 fache bis 1.200 fache Vergrößerung mit USB-Videookular (Werkfoto: Meade)

10.2.2 Lupe

Lupen gehören zu den vergrößernden Sehhilfen im Bereich von etwa zwei- bis zehnfacher Vergrößerung. Die Funktion ist denkbar einfach. Befindet sich ein Objekt innerhalb der einfachen Brennweite der Lupe, so entsteht beim Betrachten ein virtuelles, aufrechtes, seitenrichtiges Bild auf der Netzhaut des Betrachters. Lupen gibt es in vielen Variationen. Die bekann-teste ist die Handlupe, die ihre optische Wirkung im großen Augenabstand (> Brennweite der Lupe) entfaltet, womit sie für längere Zeit, beispiels-weise beim Zeitungslesen genutzt werden kann. Hier kommt es im We-sentlichen auf ein großes Sehfeld an, das einen Durchmesser zwischen 30 mm und 90 mm aufweist und Vergrößerungen zwischen 1,5 fach und 4 fach realisiert. Während noch vor 40 Jahren praktisch jede Lupe aus Glas bestand, sind heute häufig Kunststofflinsen im Einsatz. Dank Fresnel-Kunststoff-Optik können heute Lupen im Scheckkartenformat hergestellt werden (z.B. VisuCard in Abb. 10.9). Auf dieser Basis gibt es auch sehr große Lupen in m²-Größe, die als 1,5 fach vergrößernde Sehhilfe für TV-Geräte bis etwa 80 cm Bilddiagonale angeboten werden.

Page 429: Photonik: Grundlagen, Technologie und Anwendung

414 10 Gebrauchsgüter

Abb. 10.9. Superflache Handlupe mit Fresnellinse (Werkfoto: Carl Zeiss)

Messlupen haben die stärkste optische Vergrößerung im Bereich der Lupen (in der Regel zehnfach bis maximal vierzigfach). Sie werden über-wiegend von Juwelieren, Uhrmachern, Ärzten und ambitionierten Bastlern benutzt. Auch die Textilindustrie benutzt seit über 150 Jahren eine Mess-lupe als Fadenzähler.

In den letzten Jahren wird Glas durch Kunststoff ersetzt. Kunststoff ist nicht nur leichter, sondern kann auch als Massenprodukt sehr kostengüns-tig hergestellt, verarbeitet und bearbeitet werden. Mit Abformtechniken(Abschn. 2) können beispielsweise preisgünstig nichtsphärische und diffraktive Strukturen hergestellt werden. Dies ist durch die Entwicklung von Kunststoffen mit glasähnlicher Homogenität möglich geworden, so dass sich die Kunststofflinse vom Kinderspielzeug zum High-Tech Produkt gewandelt hat.

Die Entwicklung der Lupen ist noch nicht beendet. Jüngst ist eine Lupe mit LED-Beleuchtung und Kamera unter dem Namen TV-Lupe vorgestellt worden, die den betrachteten Bildausschnitt auf eine Mini-Videokamera projiziert, der dann über einen TV-Monitor vergrößert angeschaut werden kann. Beleuchtet wird die Szene mit langlebigen LED’s (Abb. 10.10). Damit ist die Funktion der Lupe elektronisch nachgebildet.

Abb. 10.10. Lupe mit integrierter Kamera, LED-Beleuchtung und Videoinverter

Page 430: Photonik: Grundlagen, Technologie und Anwendung

10.2 Vergrößerungsgeräte 415

10.2.3 Teleskop

Bilder aus dem Weltall in hoher Auflösung zu betrachten, ist ein uralter Menschheitstraum. Man kann dadurch Strukturen und Bilder erkennen, was man mit bloßem Auge nicht sehen kann. Obwohl Linsen schon seit dem 13. Jh. bekannt sind, tauchen die ersten Teleskope erst um 1600 auf (z.B. bei Galilei und Kepler). Fast zeitgleich wurden auch Doppelrohr-ferngläser entwickelt. Relativ rasch werden Ferngläser nach dem Galilei-Prinzip vorgestellt, das heute noch in Operngläsern weit verbreitet ist. Das optisch bessere Kepler-Prinzip kam zunächst nicht zum Einsatz, da es kein aufrecht stehendes Bild ermöglichte.

Mitte des 19. Jahrhunderts kam Porro auf die Idee, zwei um 90° zuein-ander verdrehte Prismen zur Strahl-Umlenkung zu verwenden und damit bei Keplergläsern ein aufrecht stehendes Bild zu erzeugen. Varianten sind für heutige die Prismensysteme nach Abbe-König und Schmidt-Pechan,wobei letzteres im Wesentlichen wegen seiner extremen Kompaktheit zum Einsatz kommt (Abb. 10.11).

Abb. 10.11. Fernglastypen für unterschiedliche Consumermärkte mit Porro-, Ab-be-König- oder Schmidt-Pechan-Prisma

Mit der Vergütung der optischen Elemente wuchs auch der Wunsch, die optische Qualität nachhaltig zu verbessern. Wird die Fokussierung durcheine Innenlinse realisiert, dann bleibt das Volumen im Fernglas konstant. Durch Befüllung mit einem Schutzgas wird dafür gesorgt, dass die innen-liegenden optisch vergüteten Flächen chemisch inaktiv sind. Die außenlie-genden Flächen werden über aufgedampfte Hartschichten (z.B. SiO2) zu-sätzlich versiegelt.

Page 431: Photonik: Grundlagen, Technologie und Anwendung

416 10 Gebrauchsgüter

Teleskope können in eine Reihe von Typen eingeteilt werden. Die wich-tigsten Fernglastypen sind:

Taschenferngläser,Universalgläser undNachtgläser und Sondergläser wie Operngläser, Marinegläser, Gläser mit Bildstabilisierung, Entfernungsmessung, Kompass und anderen Sonderfunktionen sowie Ferngläser mit ausziehbarem Tubusrohr (so genannte Spektive).

Alle diese Gläser unterscheiden sich in ihren Funktionalitäten: Die wich-tigsten Kenngrößen sind Vergrößerung, Fernrohrleistung, Sehfeld und Dämmerungszahl.

Die Vergrößerung wird dabei weniger durch optische Grenzen limitiert als durch die Handunruhe, welche die Detailerkennbarkeit stark beein-trächtigen und ein volles Ausschöpfen der Fernrohrleistung unmöglich machen kann. In der Praxis haben sich Vergrößerungen zwischen 7 und 10 als bester Kompromiss zwischen dem Wunsch nach einer möglichst hohen Vergrößerung und der Begrenzung durch Handunruhe gezeigt.

Als Fernrohrleistung wird das Verhältnis der erreichbaren Sehschärfe mit Fernrohr zur Sehschärfe ohne Fernrohr definiert. Diese Leistung wird primär durch die Korrektur der Abbildungsfehler des Fernglas begrenzt.

Das Sehfeld wird entweder in Winkelgraden (Japan, USA) oder in m auf 1 km Entfernung angegeben. 17,46 m auf 1.000 m entsprechen einem Winkel von 1°. Typische Werte für Taschen- und Universalgläser liegen bei 100 m bis 140 m auf 1 km Entfernung.

Am meisten verbreitet sind kleine handliche Ferngläser mit Austrittpu-pillen zwischen 2 mm und 3 mm und Vergrößerungen zwischen sechs- und zwölffach, die es dem Beobachter erlauben, von zwei Stunden nach Son-nenaufgang bis etwa zwei Stunden vor Sonnenuntergang zu observieren. Die Austrittspupille ist einfach zu berechnen. Sie ist der Quotient aus Ein-trittspupille durch Vergrößerung. Bei einem 8 mm 20 mm Fernglas be-trägt die Austrittpupille also 20mm/8 = 2,5 mm. Da der Pupillendurchmes-ser des Auges selbst bei Nachtsehen selten 7 mm überschreitet, wird bei Nachtgläsern in den meisten Fällen ein Austrittspupillendurchmesser von etwa 8 mm gewählt.

Je größer die Pupille ist, desto eher sind optische Fehler im System er-kennbar. Hochöffnende Systeme sind aufwändiger im optischen Aufbau und damit auch höher im Gewicht. Diese Gläser werden von Benutzern mit besonderen Anforderungen benutzt (z.B. Jäger, Förster, Soldaten oder Sicherheitskräfte). Weil sie praktisch zu jeder Zeit eingesetzt werden kön-nen, werden sie auch häufig als Nachtgläser bezeichnet. Es ist allerdings zu beachten, dass die Korrektionsstrategie für Nachtgläser im Normalfall zur Minimierung von Farbfehlern ausgerichtet ist. Astronomen, die lieber

Page 432: Photonik: Grundlagen, Technologie und Anwendung

10.3 Bildwiedergabe 417

verzeichnungsfreie Gläser benutzen möchten, müssen also andere Gläser benutzen.

Eine Alternative zu Nachtgläsern sind Systeme mit elektronischen Bild-verstärker- oder Restlichtverstärkereinheiten. Diese haben sich wegen der hohen Kosten und der schlechten Bildauflösung nicht durchgesetzt. Licht-starke Ferngläser nach dem Galileiprinzip hingegen haben eine weite Verbreitung beispielsweise als Opern- oder Theatergläser gefunden. Gali-leiteleskope sind auch interessant als Sehhilfe, die durch Einkopplung einer Nahlinse auch als Lupe benutzt werden kann (z.B. mobilux far ). Zudem kann auch ein diffraktiv optisches Element (DOE) in das Optikdesign in-tegriert werden.

Neben der optischen Qualität der Einzeloptiken sind heute die Trans-mission des Lichtes durch das System und der beobachtbare maximale Kontrast zum Auswahlkriterium für Ferngläser geworden. Durch geeigne-te Breitband-Antireflexbeschichtung werden Gesamttransmissionen bisüber 90% erreicht und damit unnötige Reflexionen vermieden, die durch Falschlicht den Kontrast verschlechtern. Dies setzt aber voraus, dass die Einzeltransmission durch ein optisches Element besser als 99% sein muss. Ohne Beschichtung liegt sie für konventionelle Gläser bei 92% pro Linse. Selbst bei einem sehr einfachen System mit einem Porro-Prisma und zwei verkitteten Linsengruppen ergäbe sich dann eine Transmission von maxi-mal 75%, wenn man berücksichtigt, dass auch noch Verluste bei der Re-flexion auftreten.

Derzeit sind die ersten Ferngläser mit integrierter Digitalkamera erhält-lich. Elektronische Bildstabilisierung in Ferngläsern wird in den nächsten Jahren wahrscheinlich noch keinen Marktzugang finden, da die bekannten Lösungen technisch sehr aufwändig sind. Darüber hinaus gibt es bereits Ferngläser mit verschiedenen Funktionen im sogenannten „Outdoor“-Bereich (z.B. Kompass, Höhenmesser und GPS-Anzeige), die Daten ein-spiegeln können. Insgesamt ist wie bei den Foto-Handys eine Funktionali-tätszunahme zu verzeichnen.

10.3 Bildwiedergabe

10.3.1 Analoge Projektoren

Das Grundprinzip ist bei allen Projektoren gleich: Eine Beleuchtungsquellebestrahlt eine Bildebene, die mit einer Projektionsoptik auf eine Projekti-onsebene abgebildet wird.

Um beim Diaprojektor einen hohen Lichtfluss zu gewährleisten, wird die Beleuchtungsquelle in die Eingangspupille des Projektionsobjektives durch ein Kondensorsystem abgebildet. Dadurch entsteht in der Bildebene

Page 433: Photonik: Grundlagen, Technologie und Anwendung

418 10 Gebrauchsgüter

eine homogene Beleuchtung. Es sei am Rande erwähnt, dass heute alle integrierten Schaltkreise mit dieser Technologie erzeugt werden (Lithogra-fieoptik). Filmprojektoren arbeiten nach dem gleichen optischen Prinzip wie Diaprojektoren.

Bei Overheadprojektoren sind die abzubildenden Vorlagen im Gegen-satz zum Diaprojektor deutlich größer (DIN A4) und werden mit Hilfe eines Umlenkspiegels projiziert, wodurch das Bild seitenrichtig aufrecht abgebildet wird. Die deshalb notwendige sehr große Beleuchtungsoptik, an die allerdings keine besondere optische Forderung gestellt wird, wird zu-meist als Fresnel-Linse realisiert. Modernere Overheadprojektoren positi-onieren die Lampe in der Nähe der Abbildungsoptik, so dass mit einer 4f-Fresnel-Optik mit Reflexionsspiegel die Lichtquelle in die Eingangspupille des Projektionsobjektives abgebildet wird. Dadurch werden kompakte Overheadprojektoren möglich. Digitale Projektoren lösen derzeit die ana-logen Projektoren ab.

10.3.2 Digitale Projektoren

Ein Beamer ist ein digitaler Projektor, der ein durch Videosignal erzeugtes Bild auf eine Projektionsfläche projiziert. Grundsätzlich können drei Vari-anten unterschieden werden:

1. Projektion selbstleuchtender Displays (z.B. Kathodenstrahlröhren oder LED basierte Displays oder Laser-Scannende Systeme).

2. Projektion von transmittiven Displays (z.B. LC-Display oder SLM). 3. Projektion von reflektiven Displays (z.B. DMD oder LCoS).

Für den Verbraucher sind derzeit nur Beamer vom Typ 2 oder 3 interes-sant.

Abb. 10.12. Light-Engine eines modernen Beamers (Werkfoto: Carl Zeiss)

Page 434: Photonik: Grundlagen, Technologie und Anwendung

10.3 Bildwiedergabe 419

Grundsätzlich unterscheidet man bei modernern Beamern zwischen dem optischen Modul (bestehend aus Objektiv, Beleuchtungslinse Feldlinse und angepasstem Integrator) und der Light-Engine, die zu dem optischen Mo-dul noch die Lampe, den Display-Chip und das Farbaufteilungsmodul (z.B. Farbrad oder dichroitischer Spiegelaufbau) hinzufügt (Abb. 10.12).

Mit Beamern (Abb. 10.13) besteht auch die Möglichkeit, bewegte Bilder mit Geräten in der Größe eines Diaprojektors zeigen zu können. Moderne Präsentationen werden daher fast ausschließlich mit Beamern gezeigt.

Abb. 10.13. Beamer im Kleinformat (Größe: lxbxh: 198x148x57mm, Gewicht: 0,95 kg): Optoma EP725 mit SVGA-Auflösung und 1.100 ANSI-Lumen

Für Beamer wurde eine neue Beleuchtungstechnik entwickelt. Während beim Episkop die räumliche Kohärenz eine untergeordnete Rolle spielt, ist sie bei Beamern mit DMD-Chip von zentraler Bedeutung, um ein mög-lichst helles und homogen ausgeleuchtetes Projektionsbild zu erzeugen. Entscheidend war diesbezüglich die Entwicklung der sogenannten Digital Light Processing (DLP )-Technologie.

Die Erfindung des Filterrades führte dazu, dass auf zwei der drei teuren DMD-Chips verzichtet werden konnte. Die einzelnen Farbauszüge werden dazu hintereinander durch das Filterrad getriggert, in den DMD-Chip ein-geschrieben und so hintereinander projiziert. Durch die Trägheit des Auges entsteht so ein farbiges Bild.

Drei Merkmale bestimmen derzeit im Wesentlichen die Qualität eines Beamers. Mit 6.000 h Brenndauer liegen Beamer mittlerweile im Bereich konventioneller TV-Geräte, die eine typische Lebensdauer von etwa 10.000 h aufweisen. Entscheidend bei der Auswahl der Beamer sind Auf-lösung und die Helligkeit des Bildes. Diese wird in ANSI-Lumen angege-ben. Dazu wird die projizierte Fläche in 3 3 große Teilflächen zerlegt

Page 435: Photonik: Grundlagen, Technologie und Anwendung

420 10 Gebrauchsgüter

und im Zentrum jeder einzelnen Fläche der Lichtstrom in Lumen gemes-sen. Der Durchschnitt dieser Werte ist der Betrag in ANSI-Lumen. Der Lichtstrom ist das Produkt aus der Beleuchtungsstärke, gemessen in Lux, multipliziert mit der beleuchteten Fläche. Für eine akzeptable Projektion wird eine Beleuchtungsstärke des Projektors benötigt, die etwa um den Faktor 5 höher als die Umgebungsbeleuchtungstärke ist. Typische Be-leuchtungsstärken liegen tagsüber bei weissen Wänden in der Größenord-nung von 100 Lux bis 400 Lux. Daraus kann die maximale Bildfläche für einen bestimmten Beamer folgendermaßen ermittelt werden:

Bildfläche = Lichtstrom / (Umgebungsbeleuchtungsstärke 5).

Im Verbraucherbereich sind derzeit etwa 1.100 ANSI-Lumen Standard,so dass Projektionsbreiten von etwa 1 m ausreichend hell ausgeleuchtet werden können, um auch bei Tageslicht noch einen akzeptablen Kontrast zu erzeugen.

High-End-Geräte erreichen 4.000 ANSI-Lumen bis 10.000 ANSI-Lumen und kommen damit bereits in die Dimension von Kinoprojektoren (etwa 20.000 ANSI-Lumen). Typische Auflösungen im Consumer-Bereich liegen zwischen 800 600 Pixel (SVGA-Auflösung) und 1.280 1.024 (SXGA) Bildpunkten. Bedingt durch die mittelfristige Umstellung auf die digitale Fernsehnorm (1.024 576 Pixel bzw. XGA-Auflösung 1.024 768 Pixel) werden künftig verstärkt Projektionssysteme mit diesen Auflösungen in den Consumermarkt vordringen. In jedem Fall werden Beamer noch kleiner, leiser, kontrastreicher und leichter als bisher werden.

Kabellose Audio/Videoschnittstellen werden dafür sorgen, dass das Ki-no im Wohnzimmer zur Alltagserfahrung gehört. Es ist heute vorstellbar, dass mobile Computer künftig mit integrierten Beamern ausgerüstet wer-den. Neue Displaytechnologien (z.B. LCoS (Liquid Crystal on Silicon),OLED (Organic Light Emitting Diode)) werden auch in diesem Bereich Impulse setzen. Im Kinobereich werden mittelfristig drei bis sechs Mega-pixel Displays erreicht werden. Dann wird es möglich, die Filme direkt via Satellit in die Kinos zu übertragen, so dass ein Filmwechsel und der klassi-sche Vorführer entfallen.

Mit der Beamertechnologie lassen sich auch neue Fernsehapparate ent-wickeln. Eine Light Engine projeziert die bewegten Bilder von hinten auf eine Glaswand. In diesem Falle benötigt man keine Fernsehröhren oder Plasmabildschirme mehr (Abb. 10.14).

Page 436: Photonik: Grundlagen, Technologie und Anwendung

10.3 Bildwiedergabe 421

Abb. 10.14. Rückprojektionsfernseher (Werkfoto: Loewe/Carl Zeiss)

10.3.3 Head Mounted Devices (HMD) und Head Up Displays (HUD)

Augmentierte Realität bedeutet eine erweiterte oder superponierte Darstel-lung der Umwelt. Derzeit werden zwei unterschiedliche Ansätze verfolgt. Auf der einen Seite werden HMD in Form von Brillen mit erweiterter Funktion in immer leichterer Form entwickelt, die auch ein stereoskopi-sches Sehen ermöglichen. Auf der anderen Seite projizieren HUD virtuelle Daten in Windschutzscheiben von PKW beispielsweise zum Hinweis auf Gefahren oder zur Unterstützung der Navigation. Im Auge des Betrachters entsteht in beiden Fällen eine neue Realität, die es ihm ermöglicht, schnel-ler in gefährlichen Situationen zu reagieren (Abb. 10.15).

Abb. 10.15. Funktionsprinzip eines Head Up Display (HUD) bei BMW

Ein Head Mountes Display (HMD) besteht im Prinzip aus einem Okular,einer Strahlumlenkung und einem Display, das mittlerweile in der Regel selbstleuchtend ist. Die Strahlumlenkung kann dabei sowohl als Umlenk-spiegel für sogenannte Look-Around-Systeme als auch als Strahlteiler für sogenannte See-Through-Systeme ausgelegt sein. Optisch anspruchvoll

Page 437: Photonik: Grundlagen, Technologie und Anwendung

422 10 Gebrauchsgüter

werden HMD im künftigen Consumerbereich dadurch, dass versucht wer-den muss, viele optische Funktionen auf möglichst wenige optische Flächen zu verteilen. Entsprechend vielfältig sind die bisher publizierten Ideen, die vom einfachen Okular bis zum Off-Axis-Spiegel mit integriertem DOE rei-chen. Ein Beispiel zeigt Abb. 10.16.

Abb. 10.16. Look-Around HMD (Werkfoto: Olympus)

Ein HUD ist im Prinzip ein Projektor, der große Ähnlichkeit zu einem Beamer aufweist. Im Gegensatz zu diesem ist aber die Projektionsfächestark zur optischen Achse geneigt. Um dennoch ein scharfes Bild für den Benutzer zu produzieren, werden derzeit entweder nur einfache Bildele-mente angezeigt oder aufwändige optische Systeme eingesetzt. Im Gegen-satz zu Beamern ist auch der größte Teil der projizierbaren Fläche ausge-blendet, so dass die Umwelt vollständig wahrgenommen werden kann.

10.3.4 Zusammenfassung

Der Bereich der Consumeroptik hat in den letzten 10 Jahren mehrere we-sentliche Schritte von der klassischen Optik hin zur Photonik getan. Diese kann man wie folgt zusammenfassen:

Fotoelektronische Prozesse ersetzen fotochemische Prozesse. Digitale Daten ersetzen analoge Bilder. Drahtlose Datenübertragung und Handy eröffnen die 2. Generation der Gebrauchsoptik.Diffraktive Optiken und asphärische Kunststoffoptiken werden zuneh-mend bei Gebrauchsoptiken Einzug finden.

Für bestimmte Anwendungen (z.B. Fernrohr und Lupe) wird aber auch in Zukunft die klassische Optik eingesetzt werden.

Page 438: Photonik: Grundlagen, Technologie und Anwendung

11 Bildaufnahme und -wiedergabe

11.1 Halbleiterbildsensoren und digitale Kameras

Das Herz einer modernen Kamera ist der Halbleiter-Bildsensor. Die Bild-sensoren spielen in der optischen Messtechnik und industriellen Bildverar-beitung eine herausragende Rolle. Zum Beispiel werden in der Interfero-metrie die Interferogramme direkt mit der Kamera digitalisiert und mit geeigneten Algorithmen der Bildverarbeitung ausgewertet.

Charge Coupled Devices (CCDs) wurden in den 70er Jahren erfunden und ursprünglich in Speicheranwendungen eingesetzt. Ihre Lichtempfind-lichkeit wurde schnell für Bildverarbeitungs-Anwendungen nutzbar ge-macht und verursachte in der Astronomie eine regelrechte Revolution.

Die heutigen Bildsensoren sind optoelektronische Sensoren, die den Fo-toeffekt beim Halbleiter ausnutzen. Beim Fotoeffekt löst das einfallende Photon ein Elektron aus der Gitterstruktur des Halbleiters. Folglich ist der einfallende Photonenstrom proportional zu einem Ladungsstrom (Abschn. 1.6.3.1). Das erzeugte Ladungsmuster wird während der Belichtungszeit gespeichert und schnellstmöglich ausgelesen, danach verstärkt und in ein Spannungssignal (Videosignal) umgewandelt. Aus makroskopischer Sicht messen wir mit Bildsensoren die Bestrahlungsstärke (Abschn. 1.3.1).

11.1.1 Geometrische Eigenschaften eines Bildsensors

Abstrakt gesprochen ist ein Bildsensor eine NM Matrix, bestehend aus NM Fotodetektoren, die entsprechend der eingestrahlten Lichtleistung

einen Strom- oder Spannungswert je Fotodetektor liefern. Die zunächst analogen Werte werden mit einem nachgeschalteten AD-Wandler in 8, 10, 12 oder 16-Bit Werte quantisiert. Zum Abschluss müssen die digitalen Werte aus der Kamera in den Speicher des Rechners übertragen werden.

Der lichtempfindliche Teil des einzelnen Fotodetektors wird in diesem Zusammenhang auch Pixel (engl. Picture Element) genannt. Die Pixel des Sensors überdecken nur einen Teil der Sensorfläche.

Die Sensoren können aufgrund ihrer Geometrie eingeteilt werden. Die Größe der lichtempfindlichen Fläche wird mit 1 Zoll, 2/3 Zoll, 1/2 Zoll und 1/3 Zoll angegeben (Abb. 11.1).

Page 439: Photonik: Grundlagen, Technologie und Anwendung

424 11 Bildaufnahme und -wiedergabe

Abb. 11.1. Chip-Formate, Längeneinheit mm

Die Formatangabe des Sensors in Zoll kommt von der Zeit, in der es zur Bildaufnahme nur Fernsehröhren gab. Eine runde Aufnahmeröhre mit 1 Zoll Durchmesser (25,4 mm) hatte ein rechteckiges Fenster mit der Dia-gonalen von 16 mm. Diese Formatbezeichnung hat man bis heute beibe-halten. Die Berandung des lichtempfindlichen Teils übernimmt im abbil-denden System „Objektiv und Kamera“ die Funktion der rechteckförmigen Feldblende (FBL), die gleichzeitig die Austrittsluke (AL) ist. Mit dem Abbildungsmaßstab bestimmt die Austrittsluke den Ausschnitt der Sze-ne (Eintrittsluke EL):

FBL FBLEL EL,

b hb h . (11.1)

Weitere wichtige geometrische Größen des Sensors sind Breite bPixel und Höhe hPixel des einzelnen Pixels und der relative Abstand dSpalte und dZeile zu-einander (Abb. 11.2). Insbesondere gilt der Zusammenhang:

FBL Spalte FBL Zeile,b M d h N d . (11.2)

Abb. 11.2. Bildsensor mit Pixel

Page 440: Photonik: Grundlagen, Technologie und Anwendung

11.1 Halbleiterbildsensoren und digitale Kameras 425

Typische Werte finden Sie in der Tabelle 11.1. Je größer die Pixel sind, um so mehr Licht kann der Sensor einsammeln.

Ein Maß für die Lichtempfindlichkeit des Sensors ist der Füllfaktor

Pixel Pixel

Zeile Spalte

Lichtempfindliche FlächeFüllfaktor

Sensorflächeh bd d

. (11.3)

Auflösung eines Sensors

Die räumliche Auflösung (engl. spatial resolution) des Sensors hängt von den horizontalen und vertikalen Pixelabständen ab und gibt wieder, welche Objektdetails mit dem Sensor gerade noch erkannt werden können.

Abb. 11.3. Auflösung eines Sensors

Ein Muster, bestehend aus parallelen horizontalen hellen und dunklen Streifen gleicher Breite, wird gerade dann noch erkannt, wenn das Bild der hellen und dunklen Streifen auf dem Sensor mindestens eine Spalte des Sensors belichtet. Die Breite eines hell-dunkel Linienpaars (Lp) entspricht der räumlichen Periodenlänge des Streifenmusters. Folglich muss die Li-nienpaarbreite mindestens zwei horizontale Pixelabstände 2dSpalte betragen (Abb. 11.3). Den Kehrwert nennt man horizontale Auflösung des Sensors:

H VSpalte Zeile

1 1entsprechend

2 2R R

d d . (11.4)

Die Einheit der Auflösung wird in Lp/mm angegeben. Die Auflösung entspricht im Abtasttheorem von Shannon der größten horizontal abtastba-ren Raumfrequenz, der sogenannten Nyquist-Frequenz. Die Größe 1/dSpalte

Page 441: Photonik: Grundlagen, Technologie und Anwendung

426 11 Bildaufnahme und -wiedergabe

entspricht der horizontalen Abtastfrequenz. Entsprechend gilt für die verti-kale Richtung 1/dZeile.

In der Objektebene hängt die Auflösung zusätzlich vom Abbildungs-maßstab der optischen Abbildung zwischen Objektebene und Sensor-ebene ab, die durch das Objektiv realisiert wird. Auflösung in der Objekt-ebene:

H VH Vund

R RR R . (11.5)

Das Objektiv schwächt zusätzlich den Kontrast hell dunkel

hell dunkel

I IK

I I zwi-

schen hellem und dunklem Streifen ab. Dies beschreibt die Kontrastüber-tragungsfunktion.

Zur Berechnung der benötigten Auflösung des Sensors bestimmen wir in horizontaler und vertikaler Ausdehnung bmin und hmin der kleinsten Struk-tur, die wir noch erkennen wollen. Die zugehörige Raumfrequenz lautet dann

H Vmin min

1 1undR R

b h . (11.6)

Eingesetzt in Gl. (11.5) erhalten wir unter Berücksichtigung von (11.4)

GF GFH V

Spalte Sensor min Zeile Sensor min

1 1,

2 2b h

R Rd b b d h h

(11.7)

Insgesamt ergibt sich mit Gl. (11.2) die sehr nützliche Beziehung

Sensor GF Sensor GF

Spalte min Zeile min2 und 2

b b h hN M

d b d h . (11.8)

Die Abb. 11.4 zeigt einen typischen Barcode, wie er aus dem alltäglichen Leben bekannt ist.

Abb. 11.4. Gesichtfeld mit Barcode

Page 442: Photonik: Grundlagen, Technologie und Anwendung

11.1 Halbleiterbildsensoren und digitale Kameras 427

Um einen Strichcode zu lesen, muss man die Breite bmin des schmalsten weißen oder schwarzen Balkens im Barcode bestimmen. Um die Sensor-auflösung zu berechnen, ist es notwendig, das Gesichtsfeld (GF) und das verwendete Chip-Format zu kennen. Das GF ist der Bereich der Szene, den die Kamera aufnehmen kann.

Tabelle 11.1. Typische Werte für gängige Sensoren

N bSensor

mmdH

µmR´H

Lp/mmM hSensor µm dV

mmR´V

Lp/mm640 4,8 7,5 67 480 3,6 7,5 67

768 6,4 8,3 60 572 4,8 8,4 60

1281 8,8 6,9 72 1072 6,6 6,2 80

3072 12,6 4,1 122 2048 9,6 4,6 108

Wenn die erforderliche Sensorauflösung keiner Standardsensorauflösung entspricht, wird eine Kamera gewählt, deren Sensorauflösung größer ist.

11.1.2 CCD-Sensor

Der Name des CCD-Sensors, kurz CCD, kommt vom englischen Wort „Charge-Coupled Device“ und beschreibt den Transportmechanismus im Sensor. Ursprünglich wurde 1970 der CCD-Chip als Speicherchip erfun-den, seine optischen Eigenschaften wurden früh erkannt und in der Bild-verarbeitung ausgenutzt. In der Astronomie führte dies zu revolutionären Entwicklungen; der CCD-Sensor verbesserte die Lichtempfindlichkeit der Teleskope um fast zwei Zehnerpotenzen.

Der Fotoeffekt ist der grundlegende physikalische Effekt für die Detek-tion der Photonen im CCD-Sensor. Die Elektronen der Atome im Silici-umkristall befinden sich in Energiebändern (Abschn. 1.6.1). Das untere Energieband wird Valenzband genannt und das obere Band Leitungsband.Die meisten Elektronen befinden sich im Valenzband, können aber ther-misch oder durch Absorption eines Photons angeregt werden und in das Leitungsband übergehen (Abb. 11.5). Die für diesen Übergang benötigte Energie beträgt für Silicium 1,11 eV. Ist einmal das Elektron in diesem Leitungsband, kann es sich frei im Siliciumkristallgitter bewegen. Es hin-terlässt ein „Loch“ im Valenzband, das sich wie ein positiver Ladungsträ-ger verhält. In Abwesenheit eines externen elektrischen Felds kann das Elektron-Loch-Paar schnell wieder rekombinieren. In einem CCD-Chip wird ein elektrisches Feld angelegt, das diese Rekombination verhindern soll.

Page 443: Photonik: Grundlagen, Technologie und Anwendung

428 11 Bildaufnahme und -wiedergabe

Abb. 11.5. Innerer Fotoeffekt

Thermisch erzeugte Elektronen sind nicht unterscheidbar von optisch erzeugten Elektronen. Die thermisch erzeugten Elektronen bilden eine Rauschquelle, die als thermisches Rauschen oder Dunkelstrom bezeichnet wird. Deshalb ist es wichtig, dass der CCD-Chip aktiv oder passiv (Kühl-körper) gekühlt wird, um die Anzahl der thermisch erzeugten Elektronen gering zu halten.

Die Photonenenergie 1,11 eV entspricht der Energie des Lichts mit einer Wellenlänge von 1,12 µm. Oberhalb dieser Wellenlänge wird das Silicium transparent und die Si-CCDs werden lichtunempfindlich (Siehe Abb. 1.70).

Eimer-Analogie

Die Funktionsweise eines CCD-Imagers kann anschaulich mit Hilfe einer Analogie, kurz Eimer-Analogie, erklärt werden (Abb. 11.6).

Eine Anzahl von Eimern (= Pixel) ist in einer Ebene (= Sensorebene) gleichmäßig auf parallelen Förderbändern (Spalten des Sensors) aufge-stellt. Die Eimer sammeln den Regen (Photonen).

Die Förderbänder stehen still während der Regen in die Eimer fällt (Be-lichtungszeit). Während dieser Zeit werden die Eimer sich langsam füllen. Wenn der Regen einmal aufhört (Kameraverschluss ist geschlossen), be-ginnen die Förderbänder sich zu bewegen und die gefüllten Eimer werden zu einem Messzylinder (elektronischer Verstärker) am Rande der Ebene (an der Kante des CCDs) befördert und entleert.

Page 444: Photonik: Grundlagen, Technologie und Anwendung

11.1 Halbleiterbildsensoren und digitale Kameras 429

Abb. 11.6. Eimer Analogie

Aufbau eines CCD-Sensors

Die lichtempfindliche Fläche des CCDs wird in der Bildebene des abbilden-den Systems (Objektiv, Mikroskop, Teleskop) positioniert. Ein digitales Bild ist das abgetastete Intensitätssignal, umgewandelt in elektrische Ladungen.

Nach der Belichtung wird das Muster ausgelesen. Entsprechend der La-dungen der einzelnen Pixel erhält man aus dem Signal des seriellen Regis-ters über den auf dem Chip mit integrierten Vorverstärker ein zeitabhängi-ges elektrisches Signal. Elektrische Verbindungen führen das Signal an den Rand des Chips und von dort als Verbindung zur Außenwelt über eine Serie von Bond Pads, die über dünne Golddrähte mit den Verbindungspins verbunden sind (Abb. 11.7).

Abb. 11.7. Prinzipieller Aufbau der Hardware eines CCD-Imagers

Page 445: Photonik: Grundlagen, Technologie und Anwendung

430 11 Bildaufnahme und -wiedergabe

CCDs werden auf Siliciumwafern mithilfe derselben fotolithografischen Methoden wie Computerchips hergestellt. Wissenschaftliche CCDs sind sehr groß, nur einige passen auf einen Wafer. Dies ist ein Grund, warum sie so kostspielig sind.

Ein spezieller CCD, der von Philips hergestellt wurde, füllt einen gan-zen 6 Zoll Wafer aus! Dies ist der größte jemals produzierte integrierte Schaltkreis. Im Konsumerbereich werden aus Kostengründen die CCD-Chips immer kleiner, die gebräuchlichste Größe ist 1/3 Zoll.

Funktionsprinzip des Ladungstransports

Je nach Bauart des CCDs bilden drei oder vier Schieberegisterzellen eine Grundeinheit des Schieberegisters. Man spricht auch von 3-Phasen- oder 4-Phasen-CCD (Abb. 11.8).

Abb. 11.8. Das Diagramm zeigt oben einen kleinen Ausschnitt (einige Pixel) vom Abbildungsbereich eines 3-Phasen-CCDs. Dieses Muster wiederholt sich. Die horizontalen Elektroden bilden Pixel in vertikaler Richtung und dienen zum Transport der Ladung während der Auslesezeit. Im seriellen Schieberegister wer-den die Ladungen horizontal zum Verstärker transportiert

Beim Progressive-Scan-CCD-Sensor wird durch ein 3-Phasen-Schiebe-register gleich ein Vollbild komplett ausgelesen. Hingegen wird beim Standard-CCD-Sensor (oder Video-CCD-Sensor) das Bild in zwei

Page 446: Photonik: Grundlagen, Technologie und Anwendung

11.1 Halbleiterbildsensoren und digitale Kameras 431

Halbbildern mittels eines 4-Phasen-Schieberegisters ausgelesen, jeweils jede zweite Zeile auf einmal. Die Gründe zur Aufteilung in Halbbilder liegen in der traditionellen Fernsehtechnik.

Ein Bildsensor, der das ganze Bild (Frame) während eines Belichtungs-intervalls ausliest, wird Progressive-Scan-Bildsensor oder non-interlaced Bildsensor genannt. Der zweite gebräuchliche Sensor wird interlaced Sen-sor oder Video-Sensor genannt, er liest im ersten Zyklus das erste Halbild (Field 1) und im zweiten Zyklus das zweite Halbbild (Field 2) aus. Interla-ced Kameras erzeugen ein analoges Standard-Video-Signal nach der euro-päischen CCIR-Norm oder der US-Norm RS170.

Entsprechend werden beim Europäischen PAL- wie beim amerikanischen Standard-NTSC-Farbfernsehen Interlaced Bildschirme verwendet, wo das Bild auf dem Bildschirm durch Anzeigen von zwei Halbbildern erzeugt wird.

Jede dritte Elektrode ist untereinander verbunden. Am Rand des Chips liegen die Bus-Leitungen, welche die zusammengehörigen Elektroden ver-binden. Die Kanalisolierung besteht jeweils aus Silicium, das mit Bor hoch-konzentriert dotiert ist. Am unteren Rand des Bildbereiches ist das serielle Schieberegister. Dies besteht auch aus einer Gruppe von kleinen Oberflä-chenelektroden mit jeweils drei Elektroden für jede Spalte des Bildbereichs.

Photonen, die in das CCD eintreten, erzeugen Elektron-Loch-Paare. Die Elektronen werden dann in Richtung des positivsten Potenzials im umge-benden Feld fortbewegt, wo sie sich zu Ladungspaketen vereinigen (Abb. 11.9). Jedes Paket entspricht der gesammelten Ladung eines Pixels.

Abb. 11.9. In dieser und in den folgenden Abbildungen bedeutet eine hellgraue Elektrode, dass dort ein positives Potenzial anliegt, hingegen liegt an den schwar-zen ein negatives Potenzial an

Page 447: Photonik: Grundlagen, Technologie und Anwendung

432 11 Bildaufnahme und -wiedergabe

In wenigen Schritten wird das Prinzip des Transports von Ladungen im CCD erklärt. Hierzu wird das Eimerkettenmodell für eine reale elektroni-sche Struktur herangezogen. Die Ladung wird entlang des Förderbands durch Modulieren der Spannungen auf den Elektroden bewegt, die sich auf der Oberfläche des CCDs befinden (Abb. 11.10).

Page 448: Photonik: Grundlagen, Technologie und Anwendung

11.1 Halbleiterbildsensoren und digitale Kameras 433

Abb. 11.10. Die verschiedenen Bilder zeigen den zeitlichen Potentialverlauf im CCD. Unter der Elektrode mit hoher Spannung sammeln sich die Ladungen. Jedes Bild zeigt einen Takt des ganzen Transportprozesses. Der graue Balken im rechten Bild zeigt das jeweils aktive Zeitfenster

Der auf dem Chip integrierte Verstärker erfasst alle Ladungspakete, wie sie vom Ausgang des seriellen analogen Registers geliefert werden. Die La-dung wird dann in der letzten Elektrode des seriellen Registers gesammelt (Abb. 11.11). Dieser Kondensator hat eine sehr kleine Kapazität (< 0,1 pF).

Der Messprozess des Ausgangssignals beginnt damit, dass an der Sam-melstelle der negativen Ladungen (Kondensator am Ausgang des seriellen Analogregisters) mit einem Resetsignal über den Reset-Transistor RT die vom vorigen Pixel noch übrigen Ladungen beseitigt werden. Es dauert dann einige Mikrosekunden, bis die externe Schaltung den Referenzwert des Potentials Uout übernommen hat. Uout ist jetzt auf dem Referenzpotenti-al. In den Auslesekondensator wird dann die Ladung eines Pixels übertra-gen. Die negativen Ladungen des Pixels bewirken einen tieferen Wert von

Page 449: Photonik: Grundlagen, Technologie und Anwendung

434 11 Bildaufnahme und -wiedergabe

Uout. Der Spannungssprung in Uout entspricht einigen mV pro Elektron. Von der externen Schaltung wird Uout in einigen zehn Mikrosekunden abgetas-tet. Die Differenz von Signalpegel zum Referenzpegel ist proportional zur gesammelten Ladung.

11.1.3 Architektur eines CCD

Die verschiedenen Typen von CCD-Sensoren unterscheiden sich hinsicht-lich ihrer Halbleiter-Architekturen, wie sie die Ladungsträger zwischen-speichern oder abtransportieren. Ein CCD hat drei Grundfunktionen:

1. Ladungssammlung,2. Ladungstransport,3. Ladungswandlung und Verstärkung in ein messbares Spannungssignal.

Die oben genannten Grundfunktionen sind auf dem Sensor-Chip in ver-schiedenen Bereichen des Chips lokalisiert. Die Ladungssammlung erfolgt im lichtempfindlichen Bildbereich (image area). Der sogenannte Speicher-bereich (store area) wird durch optisches Abdecken lichtunempfindlich. Er dient zum Transport der Ladung. In einem kleinen Bereich des Chips fin-det man die integrierte Schaltung zur Ladungswandlung und Verstärkung.

Die Unterscheidung der Sensoren erfolgt über die verschiedenen tech-nischen Realisierungen des Ladungstransports. Die verwendete CCD-Architektur hängt von der Aufgabenstellung ab.

Abb. 11.11. Ausleseschaltung: OT Ausgabetransistor, RT Resettransistor

Page 450: Photonik: Grundlagen, Technologie und Anwendung

11.1 Halbleiterbildsensoren und digitale Kameras 435

Es gibt im wesentlichen drei Grundtypen:

Full-Frame-Transfer-CCD Frame-Transfer-CCD Interline-Transfer-CCD.

Full-Frame-Transfer-CCD (FFT-CCD)

Bei einem FFT-CCD (Abb. 11.12) wird derselbe Bereich zur Ladungs-sammlung wie auch zum Ladungstransport verwendet. Mittels eines exter-nen mechanischen oder elektronischen Shutters muss sichergestellt werden, dass während der Transportzeit kein Licht auf den Sensor fällt. Ansonsten entstehen durch die Nachbelichtung des Sensors sogenannte Smear-Effekte.

Abb. 11.12. FFT-CCD mit Ausleseregister

Seine Anwendung findet der FFT-CCD in der Astronomie und Spektro-skopie. In dieser Technologie können sehr große hochauflösende Sensoren beispielsweise mit 7.000 9.000 Pixel gefertigt werden. Ein entscheiden-der Nachteil ist die große Auslesezeit. Durch Aufteilung des Bildbereiches in beispielsweise vier Teilbereiche mit jeweils eigenem horizontalem Schieberegister und Verstärker kann die Auslesegeschwindigkeit um einen Faktor 4 erhöht werden. Bei sehr großen Sensoren werden bis zu 32 paral-lele Ausleseregister verwendet. Dabei können die Kennlinien der Verstär-ker leicht voneinander abweichen.

Frame-Transfer-CCD (FT-CCD)

Beim FT-CCD (Abb.11.13) sind die Bild- und Speicherbereiche in zwei gleich großen zusammenhängenden CCD-Blöcken angeordnet. Die beiden

Page 451: Photonik: Grundlagen, Technologie und Anwendung

436 11 Bildaufnahme und -wiedergabe

Bereiche sind fast identisch aufgebaut. Der Speicherbereich wird durch eine zusätzliche Metallschicht abgedeckt und somit lichtunempfindlich.

Die gesamte Sensorfläche, im wesentlichen Bild- und Speicherbereich, ist etwa doppelt so groß wie die des FFT-CCDs. Die gesamte Ladung wird innerhalb vonetwa 500 µs in das Speicherregister geschoben. Die Smear-Effekte können nur in dieser Übertragungszeit entstehen und sind folglich wesentlich geringer als beim FFT-CCD. Ein externer Shutter wird nicht unbedingt benötigt. Ferner können unabhängig voneinander der Bildbe-reich belichtet und der Speicherbereich ausgelesen werden, dies führt zu einer wesentlich höheren Auslesegeschwindigkeit des Sensors als beim FFT-CCD.

Interline-Transfer-Sensor (IT-CCD)

Der IT-CCD (Abb. 11.14) ist vertikal in Belichtungs- und Speicherbereiche unterteilt. Die vertikalen Speicherbereiche sind immer als CCD-Schiebe-register, ausgeführt, hingegen bestehen die vertikalen Belichtungsbereiche oft aus Fotodioden. In diesem Fall spricht man auch von CCPDs (chargecoupled photodiodes). Die vertikalen CCD-Speicherregister und die verti-kal angeordneten Dioden sind durch ein Transfer-Gate (Schalter) getrennt.

Abb. 11.13. FT-CCD

Page 452: Photonik: Grundlagen, Technologie und Anwendung

11.1 Halbleiterbildsensoren und digitale Kameras 437

Nach der Integrationszeit (Belichtungszeit) wird die Ladung in ca 1 µs in das abgedunkelte vertikale CCD-Speicherregister übertragen Die Ladungen im vertikalen Speicherbereich können dann zeilenweise in das horizontale CCD-Ausleseregister geschoben werden. Es gibt die Möglichkeit, die Schieberegisterzellen mit zwei, drei oder vier Elektroden zu betreiben.

Abb. 11.14. Interline-Transfer-CCD-Imager

Beim IT-CCD ist die lichtempfindliche Fläche nur ein kleiner Teil des gesamten Pixels, so dass der Füllfaktor nur ca 20% beträgt. Dies beeinträch-tigt die gesamte Lichtempfindlichkeit des Sensors und seine Auflösung. Abhilfe liefert eine Plankonvex-Linse direkt auf jedem Sensorelement. Die Linse soll das Licht, welches ohne die Linse auf den lichtunempfindlichen Teil des Sensorelements fallen würde, in den lichtempfindlichen Teil um-lenken. Dadurch erreicht man eine Empfindlichkeitssteigerung um ca. einen Faktor zwei. Der Vorteil dieser Architektur ist die hohe Auslesegeschwin-digkeit. Der Smear-Effekt ist etwas ausgeprägter als beim FT-CCD, da die vertikalen CCD-Schieberegister seitlich Streulicht einfangen.

Frame-Interline-Transfer CCD (FIT-CCD)

Die Streulichtproblematik des IT-CCD kann abgemildert werden, indem man eine Kombination von FT-CCD und IT-CCD verwendet, wodurch die vertikalen Transferregister schnell nach unten in einen abgedeckten Speicherbereich entleert werden. Diese Architektur wird Frame-Interline-Transfer-CCD genannt (Abb. 11.15).

Page 453: Photonik: Grundlagen, Technologie und Anwendung

438 11 Bildaufnahme und -wiedergabe

Abb. 11.15. Frame-Interline-Transfer-CCD

11.1.4 Eigenschaften eines CCD-Imagers

Quantenausbeute

Die CCD-Imager, die viel im Konsumerbereich Verwendung finden, wer-den elektrodenseitig belichtet, d. h. von vorne (Abb.11.16). Aufgrund der Reflexionen an der Luft-Polysilicium-Grenzschicht und der Absorption in den Elektroden besitzen diese Sensoren eine sehr schlechte Blau-Empfind-lichkeit. Obwohl bei diesen Sensoren nicht alle einfallenden Photonen ein Elektron erzeugen, besitzen sie eine sehr viel größere Empfindlichkeit als das menschliche Auge. Bei Interline-Transfer-CCDs tritt dieser Effekt nicht auf, wenn Fotodioden verwendet werden. Das Verhältnis der Zahlen von einfallenden Photonen nph zu erzeugten Elektronen ne bezeichnet man als Quanteneffizienz , sie hängt stark von der Wellenlänge ab.

e

ph( )

( )n

n (11.9)

Page 454: Photonik: Grundlagen, Technologie und Anwendung

11.1 Halbleiterbildsensoren und digitale Kameras 439

Zwischen der Quanteneffizienz und der absoluten spektralen Empfind-lichkeit des CCDs besteht der Zusammenhang (Abschn. 1.6.3.1)

ph( ) ( )e

IR , (11.10)

wobei e die eingestrahlte Strahlungsleistung/Pixel bezeichnet und Iph den Photostrom. Bei der theoretisch bestmöglichen Quantenausbeute = 1 erhalten wir eine lineare Wellenlängenabhängigkeit.

Abb. 11.16. Von vorne beleuchteter, dicker CCD-Sensor

Ähnlich wie bei der Vergütung von Linsen können mittels Antireflexbe-schichtungen Reflexionsverluste deutlich verringert werden. Der Reflexi-onsgrad bei senkrechtem Einfall ergibt sich aus den FRESNELschen Glei-chungen zu

2t i

t i

( ) ( )( )( ) ( )

n nn n

(11.11)

wobei ni und nt die Brechungsindizes vor und hinter der Grenzfläche sind. Der Übergang Luft-Glas (n = 1,46) besitzt einen Reflexionsgrad von ca. 3,5%, während die Grenzfläche zwischen Luft-Silicium (n = 3,6) ca. 32% zurückreflektiert. Mit einer einzigen dünnen dielektrischen Schicht können schon gute Ergebnisse erzielt werden. Bei der Wellenlänge 0 erhalten wir eine vollständige Unterdrückung der Reflexionen, wenn die Schichtdicke dund der Brechungsindex n die Bedingungen

0Luft Si ,

4n n n d

n (11.12)

erfüllen. Bei anderen Wellenlängen erhalten wir einen geringeren Reflexi-onsgrad als ohne Antireflexionsschicht. Als Wellenlänge 0 wird typi-scherweise 550 nm gewählt, was in der Mitte des sichtbaren Spektrums liegt und wo das menschliche Auge am empfindlichsten ist.

Page 455: Photonik: Grundlagen, Technologie und Anwendung

440 11 Bildaufnahme und -wiedergabe

Abb. 11.17. Typischer Aufbau eines rückseitig beleuchteten CCDs

Antireflexionsbeschichtungen erweisen sich als sehr effektiv bei rück-seitig beleuchteten dünnen CCD-Sensoren (Abb. 11.17), hingegen bei vorderseitig beleuchteten dicken CCD Sensoren ist dieser Effekt nicht so ausgeprägt (Abb. 11.18).

Abb. 11.18. Quantenausbeute a) dicker Sensor von vorne beleuchtet, b) dünner Sensor von hinten beleuchtet

Blooming

Bei sehr starker Belichtung der Pixel ist es möglich, dass der Ladungsspei-cher des einzelnen Pixels für die erzeugte Ladung voll wird und sogar über-läuft. Die Ladung fließt dann in benachbarte nicht überfüllte Ladungsspei-cher ab. Dies erfolgt in Richtung des CCD-Speicherregisters und äußert sich im Bild in vertikalen hellen Streifen (Abb. 11.19).

Page 456: Photonik: Grundlagen, Technologie und Anwendung

11.1 Halbleiterbildsensoren und digitale Kameras 441

Abb. 11.19. Anti-Blooming durch zusätzlichen Kanal (Quelle unbekannt)

Dieser sogenannte Blooming-Effekt kann kameraseitig vom Anwender nur durch Verkürzung der Belichtungszeit beeinflusst werden. Es gibt her-stellerseitig verschiedene Ansätze das Blooming zu mindern,z. B.durch

Verwendung eines optimierten Taktschemas (anti-blooming-clock), um den Ladungsüberlauf zu kontrollieren. Verwendung eines zusätzlichen Abflusskanals (overflow-drain), der die überschüssige Ladung aufnimmt und abtransportiert.

Schmiereffekt (Smear)

Trifft Licht hoher Intensität auf den Sensor während der Transportbereich aktiv ist, wird dieses Lichtsignal als vertikales Störsignal im Ausgangssig-nal sichtbar. Das Schmiersignal verhält sich zur Lichtintensität immer pro-portional zur Lichtintensität und ist abhängig von der Wellenlänge und unabhängig von der Belichtungszeit.

Frame Transfer CCD

Beim FT-CCD wird der Smear dadurch erzeugt, dass auch Licht auftrifft, während das erzeugte Bild vom Belichtungsbereich in den Speicherbereich geschoben wird. Ist tint die Belichtungszeit und ttr die Transferzeit vom Be-lichtungsbereich in den Speicherbereich, so gilt

tr

int

110tSmrt

. (11.13)

Page 457: Photonik: Grundlagen, Technologie und Anwendung

442 11 Bildaufnahme und -wiedergabe

Interline Transfer CCD

Bei IT-CCD wird Smear erzeugt durch gestreute Photonen, die in das ab-gedeckte vertikale Schieberegister eintreten anstatt in den Fotodioden ge-sammelt zu werden. Typische Werte des Sensors liegen bei 0,01%. Durch Absenkung der Lichtintensität während der Transferzeit lässt sich das Schmiersignal reduzieren. Mikrolinsen reduzieren das Streulicht im verti-kalen CCD-Register.

Abb. 11.20. Der Sensor sollte derart belichtet werden, dass obiges Bild auf dem Sensor entsteht. Jeder rechteckige Bereich sollte aus mindestens 1000 Pixels be-stehen. Die mittlere Intensität jedes Rechtecks ist die Grundlage der Berechnung nach Gl. (11.14)

Smear Dark

Spot Dark

U USmrU U

(11.14)

Der Schmiereffekt tritt beim asynchronen dynamischen Kamerabetrieb und bewegten Objekten am stärksten auf (Abb. 11.20).

Sensordefekte

In der Regel hat jeder Sensor einige defekte Pixel, da es sehr schwierig ist, einen fehlerfreien Sensor zu fertigen. Demzufolge ist der Preis für einen nahezu fehlerfreien Sensor sehr hoch. Um die defekten Pixel erkennen zu können, muss der Sensor homogen beleuchtet werden.

Dark Column (Dunkle Spalten)

Dunkle Spalten entstehen, wenn ein CCD-Speicher-Register defekt ist und die Ladung nicht abtransportiert werden. Es können nur noch diejenigen

Page 458: Photonik: Grundlagen, Technologie und Anwendung

11.1 Halbleiterbildsensoren und digitale Kameras 443

Pixel einer Spalte ausgelesen werden, die in Ausleserichtung vor dem De-fekt liegen (Abb. 11.21).

Hot Spots

sind Pixel, die einen zu hohen Dunkelstrom liefern. Sie äußern sich bei schwacher Beleuchtung als helle Pixel. Ihre Helligkeit nimmt linear mit der Belichtungszeit zu. Hot Spots können zu hellen streifenförmigen Fle-cken ausarten.

Weitere Defekte im digitalen Bild können durch eine fehlerhafte Ausle-seelektronik verursacht werden. Dies kann sich dadurch äußern, dass die erste ausgelesene Zeile dunkel ist.

Sensorkorrekturen

Im wissenschaftlichen Bereich müssen vor der eigentlichen Messung drei verschiedenartige Kalibrierungsbilder mit verschiedenen Belichtungen der Kamera aufgenommen werden, die zur Rauschkorrektur verwendet werden (Abb. 11.21).

Bias-Frame

Ein Bias-Frame ist ein Bild, welches bei geschlossenem Verschluss mit Belichtungszeit Null aufgenommen wird. Es stellt das Nullsignal der CCD dar, welches die Kameraelektronik liefert. Das Nullsignal besteht nur noch aus dem Ausleserauschen. Entsprechend besteht die Bias Region des CCDs aus normalen Pixeln, die abgedeckt werden, damit sie kein Licht erhalten und somit als Nullreferenz dienen.

Flat Field

Einige Pixel in einem CCD werden empfindlicher sein als andere. Außer-dem können Staub und andere Verschmutzungen im Strahlengang die Empfindlichkeit reduzieren. Diese Schwankungen in der Empfindlichkeit über die Chipfläche müssen kalibriert werden, um kein zusätzliches Rau-schen zu erhalten. Bei homogener Beleuchtung wird ein Bild aufgenom-men, das durch das Originalbild pixelweise dividiert wird.

Dark Frame

Bei geschlossenem Verschluss wird mit der Belichtungszeit der Ori-ginalmessung ein Bild aufgenommen. Dieses wird vom Originalbild abgezogen, um ein dunkelstromfreies Bild zu erhalten. Bei wissen-schaftlichen Kameras ist dies nicht nötig, da der Chip durch aktive Kühlung einen vernachlässigbaren Dunkelstrom liefert.

Page 459: Photonik: Grundlagen, Technologie und Anwendung

444 11 Bildaufnahme und -wiedergabe

Abb. 11.21. Das entrauschte Bild erhält man durch algebraische Verknüpfung der verschiedenen Rauschbilder

Pixel Binning

Pixel Binning (Abb. 11.22) ist ein Taktschema, das verwendet wird, um die von mehreren benachbarten CCD-Pixeln gesammelte Ladung zusammen-zufassen zu einem größeren Ladungspaket. Die verwendeten CCD-Register müssen eine entsprechende große Ladungskapazität besitzen, damit bei der Summation der Ladungen keine Sättigung erreicht wird. Dadurch wird das Ausleserauschen reduziert, das Signal-Rausch-Verhältnis verbessert und die Bildauslesefrequenz erhöht. Der Dunkelstrom wird durch Pixel-Binning nicht beeinflusst, er kann nur durch Kühlen reduziert werden.

Abb. 11.22. Pixel-Binning eines 2 2 Bereiches: Durch Pixel-Binning eines Be-reiches von vier benachbarten Pixeln ensteht ein größeres zusammenhängendes Pixel, das auch Superpixel genannt wird. Das Signal-Rausch-Verhältnis wird dadurch um einen Faktor vier gesteigert, jedoch die Auflösung um einen Faktor zwei verringert

Page 460: Photonik: Grundlagen, Technologie und Anwendung

11.1 Halbleiterbildsensoren und digitale Kameras 445

Rauschquellen

Ein CCD-Sensor oder eine CCD-Kamera besitzt verschiedene Rauschquel-len, die das Signal in Abhängigkeit von der Betriebsart verschlechtern können. Die Qualität des Signals wird über das Signal-Rausch-Verhältnis

signal

noise

Anzahl der Signal-Elektronen10log 10logAnzahl der Rausch-Elektronen

nSNR

n (11.15)

angegeben. Das SNR liegt bei neuen IL-CCD Sensoren bei ca. 75 dB. Die Anzahl der Signal-Elektronen

signalEn t Ahf

(11.16)

hängt von der Bestrahlungsstärke E, der Photonenenergie Eph = h f, Belich-tungszeit t, Pixelfläche A, und dem Quantenwirkungsgrad ab.

Die Anzahl der Rausch-Elektronen kann auf verschiedene Rauschquel-len verteilt sein.

Photonenrauschen (Photon Noise)

Das Photonenrauschen ist auch unter Schrot-Rauschen (Shot Noise) be-kannt. Die Ursache liegt darin, dass die Photonen in nicht deterministi-scher Weise auf das CCD treffen. Sie genügen der Poisson-Verteilung und liefern ein zur Wurzel der Anzahl der Signal-Elektronen proportionales Rauschen:

shot en . (11.17)

Dies kann mit der Eimer-Analogie veranschaulicht werden. Beide, Re-gentropfen und Photonen treffen diskret, unabhängig und zufällig in den Eimer bzw. auf das Pixel. Dieses Verhalten wird durch die Poisson-Vertei-lung beschrieben. Falls die Eimer klein sind und wenig Regen fällt, werden einige Eimer nur ein oder zwei Tropfen enthalten, manche sogar gar keine. Regnet es hingegen lange genug werden alle Eimer gleich voll werden. Bei kurzem Nieselregen (kurze Belichtungszeit) entstehen große Differenzen.

Reset-Rauschen (Reset Noise, kTC Noise)

In einem CCD-Sensor wird typischerweise das Ladungssignal in ein Span-nungssignal umgewandelt. Dazu wird die Ladung jedes Pixels in einem Kondensator C gesammelt und dann über einen Widerstand zum Refe-renzwert entladen. Das thermische Rauschen des Widerstands verursacht eine Schwankung im Referenzspannungssignals des FET.

Page 461: Photonik: Grundlagen, Technologie und Anwendung

446 11 Bildaufnahme und -wiedergabe

Verstärkerrauschen

Das Verstärkerrauschen setzt sich im wesentlichen aus zwei Rauschantei-len zusammen, dem weißen Rauschen (white noise, Johnson noise) und dem Funkel-Rauschen (flicker noise, 1/f noise). Beide zusammen bilden das Ausleserauschen (Readout Noise) des CCDs.

Weißes Rauschen: Beide, sowohl der Reset-FET als auch Ausgangs-FET, erzeugen durch thermische Bewegung im Kanal des FET wie ein Widerstand thermisches Rauschen mit großer Bandbreite. Das Ausleserau-schen begrenzt grundsätzlich die Eigenschaften des Sensors, da es immer vorhanden ist. Wissenschaftliche CCDs besitzen ein Ausleserauschen von 2 bis 3 Elektronen rms. Durch Kühlung und langsameres Auslesen des CCD-Sensors kann das Rauschen auch für große Pixelkapazitäten redu-ziert werden. Die untere Grenze wird von den thermisch erzeugten Elekt-ronen im Ausgabeverstärker verursacht, die ein kleines Rauschspannungs-signal bewirken. Es kann reduziert werden, indem der Ausgabeverstärker abgekühlt oder seine elektronische Bandbreite reduziert wird.

4kT BQ Cg

(11.18)

Q mittlerer Fehler der gemessenen Ladung, C Eigenkapazität der Ver-stärkers, B Bandbreite der Ausgangsstufe, g Transconductance des Ver-stärkers, k Boltzmann-Konstante, T absolute Temperatur. Reduzieren der Bandbreite bedeutet Verringerung der Auslesegeschwindigkeit. Einen größeren Effekt bewirkt die Reduktion der Messkapazität. Neure Entwick-lungen setzen an dieser Stelle an.

Funkel-Rauschen: Das starke Funkelrauschen hängt teilweise mit den Störstellen in der Isolator-Halbleiter Zwischenschicht zusammen. Je höher die Auslesegeschwindigkeit, desto geringer ist das Funkelrauschen.

Dunkelstromrauschen (Dark Current Noise)

Das Dunkelstromrauschen wird im CCD von thermisch erzeugten Elektro-nen hervorgerufen und kann prinzipiell durch Abkühlen des CCDs reduziert werden. Freie Elektronen können in einem Pixel entweder durch thermische Bewegung der Siliciumatome oder durch Absorption von Photonen erzeugt werden. Die erzeugten Elektronen können nicht nach ihrem Entstehungs-prozess unterschieden werden. Das Dunkelstromrauschen kann durch Ab-kühlen des CCDs reduziert werden und sogar verschwinden. In der Astro-nomie eingesetzte wissenschaftliche Kameras werden normalerweise mit flüssigem Stickstoff gekühlt, dabei fällt der Dunkelstrom in einen Bereich unter ein Elektron pro Pixel pro Stunde, es entsteht praktisch kein Dunkel-strom. Bei thermoelektrisch gekühlten wissenschaftlichen Kameras wie sie

Page 462: Photonik: Grundlagen, Technologie und Anwendung

11.2 Kamera-User-Interface 447

beispielsweise in der Flureszenzmikroskopie verwendet werden, ist noch ein merklicher Dunkelstrom vorhanden.

Das Dunkelstromrauschen besitzt einen pixelabhängigen Anteil der mit-tels einer Dark-Field-Messung beseitigt werden kann. Durch die Subtrakti-on des Dark-Field-Bildes vom Originalbild wird der statistische Anteil des Dunkelstroms nicht beeinflusst, er ist wie das Schrot-Rauschen proportio-nal zum Quadrat des Dunkelstroms:

dark darkn . (11.19)

Pixelempfindlichkeitsschwankungenen

Durch Unreinheiten im Silicium und durch Herstellungsfehler können einige Pixel eine höhere Empfindlichkeit besitzen als ihre Nachbarn (Pixel Response Non-Uniformity (PRNU)). Der Effekt hängt linear mit dem Aus-gangssignal zusammen und liegt in der Größenordung von 1% bis 2% des Ausgangssignals. Mittels einer Flat-Field-Messung können die Empfind-lichkeitsschwankungen durch Kalibrierung entfernt werden. Die Subtrakti-on des Flat-Field-Bildes erhöht jedoch das Schrot-Rauschen um einen Faktor 2 .

Zusammenwirken der Rauschquellen

Da alle Rauschquellen zueinander unkorreliert sind, gilt

2 2 2 2noise photon read dark PRNU (11.20)

Wurde durch Kalibrierung die PRNU entfernt, dann gilt

2 2 2noise photon read dark (11.21)

In professionellen Systemen ist der Dunkelstrom meist vernachlässigbar. Die Gleichung zeigt dann, dass das Ausleserauschen nur bei schwacher Beleuchtung von Bedeutung ist. Bei starker Beleuchtung dominiert das Photonenrauschen, und das Signal-Rausch-Verhältnis ist proportional zur Wurzel des Quantenwirkungsgrads.

11.2 Kamera-User-Interface

Der Sensor liefert zunächst nur ein verstärktes Spannungssignal, welches das räumlich digitalisierte Bild darstellt. Zur Übertragung des Bildes in einen Rechner sind verschiedene Verfahren möglich.

Page 463: Photonik: Grundlagen, Technologie und Anwendung

448 11 Bildaufnahme und -wiedergabe

Die konventionelle Art ist mittels einer PCI-Karte, genannt Framegrab-ber. Diese Karte hat die Aufgabe, das Signal aus der Kamera auszulesen und so aufzubereiten, dass der Rechner im Endzustand ein digitales Abbild der Ladungsverteilung des CCD-Sensors im seinem Speicher enthält.

Werden die Grauwerte in der Kamera A/D gewandelt, spricht man von einer digitalen Kamera, bei Digitalisierung in der Framegrabber-Karte von analoger Kamera oder Videokamera.

Ein großes Anwendungsproblem sind die vielfältigen Möglichkeiten der Wahl von Kamera und Framegrabber und das damit verbundene Handling des Kartentreiber.

Ein Ansatz wurde mit Camera-Link versucht, hier wird die digitale Schnittstelle zwischen Kamera und Framegrabber standardisiert. Aufgrund der relativ hohen Kosten wird diese Variante für Hochgeschwindigkeits-anwendungen benutzt.

Eine Low-Cost Variante bietet die Firewire-Schnittstelle IEEE 1394 des PC, die heute oft standardmäßig auf den Boards vorhanden ist. Es handelt sich eigentlich um ein Bussystem, ähnlich wie USB mit einer maximalen Übertragungsrate, die sich entsprechend der Anzahl der angeschlossenen Kameras runterteilt. Aufgrund dieses Protokolls wird nur ein gewisser Satz von Kamerabefehlen mit standardisierten Schnittstellen-Treibern (DCAM kompatibel) unterstützt.

In vielen Fällen ist es nützlich, den vom Kamerahersteller bereitgestell-ten Treiber zu verwenden, um alle Eigenschaften der Kamera ausnutzen zu können.

11.3 Bildverarbeitung

In den allermeisten Fällen will man das digitale Bild nicht nur auf dem Bildschirm darstellen oder ausdrucken. Vielmehr muss das digitale Bild weiterverarbeitet werden um eine gewünschte Bildqualität zu erhalten oder gewisse Informationen herauslesen zu können. Dieses Gebiet fasst man im weitesten Sinne unter digitaler Bildverarbeitung zusammen.

Je nach Anwendungsgebiet, beispielsweise in der Automatisierungs-technik, Medizintechnik oder optischen Messtechnik sind die Ausrichtun-gen der speziellen Algorithmen verschieden. Jedoch gibt es eine Reihe von Methoden, die in fast allen Arbeitsgebieten Verwendung finden.

Unter einem digitalen Grauwertbild der Quantisierungstiefe B versteht man eine Matrix

( , ) 0, , 1 ,

0, , 1 , 0, , 1

I m n L

m M n N (11.22)

Page 464: Photonik: Grundlagen, Technologie und Anwendung

11.3 Bildverarbeitung 449

mit M Zeilen und N Spalten. Die Anzahl L der verschiedenen Graustufen ist gewöhnlich ein Vielfaches von 2, d. h. L = 2B, wobei B die Anzahl der Bits in der Darstellung der Bestrahlungsstärke repräsentiert. Wenn B > 1 ist, sprechen wir Graustufen- oder Intensitätsbild, für B = 1 von Schwarz-weißbild.

Für Farbbilder gibt es zwei prinzipiell verschiedene Möglichkeiten. Man ordnet einer Grauwertmatrix eine RGB-Farbpalette zu, die jeden Grauwert in einen rot-, grün- und blau-Wert (RGB-Wert) umsetzt. Dies ist eine L 3 – Matrix. Dadurch erreicht, man maximal eine Darstellung in L ver-schiedenen Farben. In der Messtechnik wird dies gerne benutzt, um ein Graubild (Messwerte) als Falschfarbenbild darzustellen.

Eine höhere Farbvielfalt, nämlich 23B Farben, erhält man, indem jedem Pixel ein RGB-Wert zugeordnet wird.

3

( , )

( , ) {0, , 1} ,

( , )

0, , 1 , 0, , 1

R m n

G m n L

B m n

m M n N

(11.23)

Im Weiteren werden wir uns nur mit der Verarbeitung von Grauwertbil-dern beschäftigen.

11.3.1 Elementare Eigenschaften digitaler Bilder

Eine sehr einfache und wichtige Charakterisierung digitaler Bilder erfolgt mittels der Methoden der Statistik, die Grundlage für weitere Operationen ist.

Die durchschnittliche Helligkeit des Bildes wird definiert als Mittelwert der Grauwerte I(m,n) über die gesamten Pixel des Bildes:

1 1

0 0

1( , ) :

M N

m n

I m n I . (11.24)

Der Mittelwert, gebildet über alle Pixel des Bildes, gibt einem die In-formation, ob das Bild über- oder unterbelichtet ist.

Obwohl der Mittelwert in der Mitte des Graustufenbereiches liegt, kann der Kontrast schlecht sein, wenn nur ein kleiner Teil ausgenutzt wird. Die Standardabweichung des Bildes:

1 12 22

0 0

1( , )

M N

m n

I m n I I (11.25)

Page 465: Photonik: Grundlagen, Technologie und Anwendung

450 11 Bildaufnahme und -wiedergabe

ist ein globales Maß für Streuung der Grauwerte, deshalb beschreibt die Standardabweichung den Kontrast den Bildes. Eine detaillierte Informati-on über die Helligkeits- und Kontrastverhältnisse im Bild erhält man aus dem Histogramm. Das Histogramm h(I) der Grauwerte, auch Häufigkeitsverteilung genannt, gibt an, wie oft ein bestimmter Grauwert im Bild vorkommt:

1

0

0 ( ) mit ( )L

g

h g h g . (11.26)

Dividieren wir die absolute Häufigkeit h(g) der Grauwerte im Bild durch die Anzahl der Pixel, erhalten wir die relative Häufigkeitsverteilungp(g) = h(g)/ der Grauwerte im Bild.

1

0

0 ( ) 1 mit ( ) 1L

g

p g p g . (11.27)

Im Zusammenhang mit der Histogrammausgleich benötigen wir noch den Begriff der Summenhäufigkeitsverteilung

0

( ) ( )g

c

H g h c (11.28)

und der relativen Summenhäufigkeitsverteilung P(g) = H(g)/ eines digita-len Bildes als normierte Summenverteilung:

0

( ) ( )g

c

P g p c . (11.29)

Aufgrund von p(g) ist die Funktion P(g) monoton steigend und mit den Werten P(g)

11.3.2 Punktoperationen

Eine wichtige Klasse von einfachen Bildverarbeitungsoperationen sind die Punktoperationen.

Bei der homogenen Punktoperation hängt der Grauwert im transformier-ten Bild nur vom Grauwert des Pixels im Originalbild ab. Die Operation ist unabhängig von der Position des Pixels und transformiert den Grauwertbe-reich [0,L-1] in sich:

: [0, 1] [0, 1] , ( )T L L g g T g . (11.30)

Page 466: Photonik: Grundlagen, Technologie und Anwendung

11.3 Bildverarbeitung 451

Es werden keine Grauwerte in der Umgebung des Originalpixels verwen-det, dadurch können räumliche Eigenschaften nicht verändert werden.

Beispiel:Ausgehend vom Grauwertbereich G = [0, L 1] und der linearen Funktion

1 2: [0, 1] , ( ) ( )f L g f g g c c (11.31)

verschiebt die Konstante c1 den Grauwertbereich zu helleren und dunk-leren Grauwerten, während die Konstante c2 > 1 den Bereich spreizt. Da-mit die Transformation eine Selbstabbildung wird, muss der Wertebereich beschnitten werden.

1 2

1 2

1 2

: [0, 1] [0, 1] ,

0 , ( ) 0

( ) 1 , ( ) 1

( ) , sonst

T L L

g c c

g T g L g c c L

g c c

(11.32)

Die Berechnung der Punkttransformation kann sehr aufwendig werden, wenn die Anzahl der Pixel im Bild groß ist. Dies kann vermieden werden, wenn man vorab die Transformation für alle 2L 1 Grauwerte berechnet und in eine Tabelle, genannt Look-up Table (LUT), ablegt. Das Berechnen der Transformation reduziert sich dann auf die Ersetzung von Grauwerten gemäß der Tabelle.

Wir können auch das Histogramm h(g) des Originalbildes zur Berech-nung einer geeigneten homogenen Punktoperation

min max min max: [ , ] [ , ] , ( )T g g g g g g T g (11.33)

heranziehen mit dem Ziel, eine gewünschte Häufigkeit h´(g´) für alle Grauwerte g´ im neuen Bild zu erreichen.

Mit dieser Forderung findet man keine homogene Operation. Eine schwächere Forderung ist

max max

minmin

( ) ( ) ( ) ( )g g

gg

H g H g h h . (11.34)

Sie bedeutet, dass in jedem Teilintervall 1 2[ , ]g g des Originalhistogramms und des transformierten Teilintervalls 1 2 1 2[ , ] [ ( ), ( )]g g T g T g , die gleiche Anzahl von Grauwerten vorhanden ist.

Page 467: Photonik: Grundlagen, Technologie und Anwendung

452 11 Bildaufnahme und -wiedergabe

Beispiel:Beim so genannten Histogrammausgleich (Abb. 11.23) wird eine homoge-ne Punkttransformation gesucht, die die gleiche Häufigkeit h´(g´) = A für alle Grauwerte liefert. Die Bedingung (11.34) führt auf

min min min

min

min

min

( ) ( ) 1 ( )

1( ) ( )

g g g

g g gg

g

h h A A g g

g T g g hA

(11.35)

Die verbleibende Konstante A bestimmt sich dann aus

max max

min min

max min

max min

( ) ( )g g

g g

M N h A A g g

M NA

g g

(11.36)

Wir erhalten somit insgesamt die homogene Punktoperation für den Histogrammausgleich

min

max minmin( ) ( )

g

g

g gT g g h

M N (11.37)

Abb. 11.23. a) Originalbild, b) nach Histogrammausgleich

Page 468: Photonik: Grundlagen, Technologie und Anwendung

11.3 Bildverarbeitung 453

11.3.3 Nachbarschaftsoperation

Bei der Nachbarschaftsoperation wird zur Berechnung des neuen Bildpi-xels p´ an der Stelle (m,n) nicht nur das Bildpixel p des Originalbildes an der Stelle (m,n) verwendet, sondern auch einige seiner Nachbarpunkte.

Umgebungsbegriff

Die folgenden Ausführungen beschränken sich auf 3 3 Umgebungen. Größere Umgebungen liefern keine prinzipiell neuen Erkenntnisse.

Ein Pixel p mit den Koordinaten (m,n) hat vier horizontale und vier ver-tikale Nachbarn (Abb. 11.23). Erstere werden direkte Nachbarn N4(p) ge-nannt, während letztere die indirekten Nachbarn ND(p) sind. Insgesamt besitzt ein Pixel acht Nachbarn N8(p) = N4(p) ND(p).

In einer 3 3-Umgebung werden die Nachbarn entgegen dem Uhrzeiger-sinn durchnummeriert.

Abb. 11.24. Bezeichnung der einzelnen Pixel in einer 3 x 3 Umgebung

Direkte Nachbarn:

4 0 2 4 6

0 2

4 6

( ) { , , , } mit

( , 1) , ( 1, ) ,

( , 1) , ( 1, ) .

N p p p p p

p m n p m n

p m n p m n

(11.38)

Indirekte Nachbarn:

1 3 5 7

1 3

5 7

( ) { , , , } mit

( 1, 1) , ( 1, 1) ,

( 1, 1) , ( 1, 1) .

DN p p p p p

p m n p m n

p m n p m n

(11.39)

Mittels einer Abstandfunktion d(p,p´) lassen sich die Nachbarn eines Pi-xels leicht charakterisieren.

4( ) { | ( , ) : | | | | 1}N p p d p p m m n n (11.40)

Page 469: Photonik: Grundlagen, Technologie und Anwendung

454 11 Bildaufnahme und -wiedergabe

und

8( ) { | ( , )

: max{| |, | |} 1}.

N p p d p p

m m n n (11.41)

Lineare, homogene Nachbarschaftsoperationen

Eine sehr wichtige Klasse sind die linearen, homogenen Nachbarschafts-operationen, da sie mathematisch leicht zu beschreiben sind und sich gut implementieren lassen. Wir werden im Weiteren sie einfach Filter nennen.

Das zentrale Element des Filters ist seine Maske M (Alternativ: Kern, Fenster, Impulsantwort, Pixelbild), die durch eine als (2P 1) (2Q+1) Mat-rix dargestellt werden. Die Mitte der Maske wird Ursprung der Maske genannt und mit dem Index (0,0) gekennzeichnet. Wie schon oben er-wähnt, beschränken wir uns auf P = Q = 1.

Abb. 11.25. Ein 8 10 Bild (hellgrau) mit 1-Pixel breitem Rand (weiß), der nicht zum Bild gehört. Die Pixel des Randes müssen definiert werden, damit bei einer Nachbarschaftsoperation mit einer 3 3 Maske (dunkelgrau) die Operation defi-niert ist

Das gefilterte Bild berechnet sich als Linearkombination von Masken-werten und Grauwerten des Originalbildes:

( , ) : ( , ) ( , )P Q

p P q Q

I m n I m p n q M p q (11.42)

Page 470: Photonik: Grundlagen, Technologie und Anwendung

11.3 Bildverarbeitung 455

Die Operation lässt sich leicht veranschaulichen. Wir stellen uns die 3 3 Maske als 3 3 Bild vor und legen sie auf des Originalbild, dann liegen jeweils die 9 Maskenwerte auf 9 Bildwerten. Übereinander liegende Masken und Bildwerte werden multipliziert und anschließend die 9 Pro-dukte addiert. Dieser Wert gibt den Grauwert des gefilterten Bildes an der Position, die durch den Ursprung der Maske definiert ist.

Bei der Berechnung der Pixel im Randbereich überlappt die Maske in den Rand des Bildes, der nicht definiert ist (Abb. 11.24). Bei einem N MBild, welches mit einer (2P+1) (2Q+1)-Maske bearbeitet werden soll, muss in horizontaler Richtung ein Q Pixel und in vertikaler Richtung ein PPixel breiter Rand definiert werden. Die Werte des Randes können belie-big definiert werden, beispielsweise alle auf Null gesetzt sein (zero pad-ding).

Die Nachbarschaftsoperation kann als Faltungsprodukt aufgefasst wer-den, dazu schreiben wir Gl. (11.42) als

( , ) : ( , ) ( , )P Q

p P q Q

I m n I m p n q M p q . (11.43)

Die Matrix

( , ) ( , )K p q M p q (11.44)

geht durch Spiegelung am Ursprung aus der Matrix der Maske M hervor und wird auch als Filterkern (= Faltungskern) bezeichnet. Dann gilt

( )( , ) : ( , ) ( , )P Q

p P q Q

I K m n I m p n q K p q . (11.45)

Üblicherweise wird die lineare homogene Nachbarschaftsoperation als Faltungsprodukt aufgefasst und durch den Faltungskern K beschrieben. In dieser Form ist der Filter einer Analyse mittels der Fourier-Transformation leichter zugänglich.

Beispiel: Glättungsfilter Bei einem Glättungsfilter sind alle Maskenwerte positiv, die Filteroperati-on liefert das gewichtete Mittel über alle Grauwerte, wobei die Maske die Gewichte enthält.

1 1 11

1 1 19

1 1 1

M (11.46)

Page 471: Photonik: Grundlagen, Technologie und Anwendung

456 11 Bildaufnahme und -wiedergabe

Abb. 11.26. a) Originalbild, nach Bearbeitung mit b) Glättungsfilter, c) richtungs-abhängigem Kantenfilter, d) Laplacefilter

Dies führt dazu, dass Kanten verwischen, Rauschen abgeschwächt wird und der visuelle Eindruck weicher wird. Homogene Bereiche bleiben un-verändert (Abb. 11.28 b).

Beispiel:KantenfilterBei einem Kantenfilter gibt es immer positive und negative Maskenwerte. Er stellt eine diskrete Differentiation dar. Dadurch werden homogene Bildbereiche gelöscht, Kanten verstärkt und feine Details hervorgehoben. Es lassen sich richtungsabhängige Filter, z. B.

0 1 01

0 0 02

0 1 0

M (11.47)

Page 472: Photonik: Grundlagen, Technologie und Anwendung

11.3 Bildverarbeitung 457

definieren, die horizontalen Kanten hervorheben und vertikale Kanten nicht beeinflussen (Abb. 11.28 c). Ein Vertreter der richtungsunabhängi-gen Filter ist der Laplace-Filter

0 1 0

1 4 1

0 1 0

M , (11.48)

der die Kanten unabhängig von ihrer Orientierung erkennt (Abb. 11.28 d). Es lassen sich auch Filter definieren, die beispielsweise horizontale

Kanten erkennen und quer zu Kante glätten, wie der Prewitt-Filter

1 1 11

0 0 06

1 1 1

M (11.49)

Weiterführende Betrachtungen findet man in Gonzalez u. Woods 2002.

11.3.4 Diskrete Fourier-Transformation

Die Fourier-Transformation ist die wichtigste Transformation, die sämtli-che Werte des Originalbilds zur Berechnung eines Pixels des neuen Bildes verwendet. Fast alle wichtigen Eigenschaften der diskreten Fourier-Transformation lassen sich am eindimensionalen Fall untersuchen.

Diskrete Fourier-Koeffizienten

Gehen wir von einer reellen periodischen Funktion :f ,( )x f x mit der Periode L aus, dann gilt ( ) ( )f x L f x für alle Ar-

gumente x . Die Funktion lässt sich (unter gewissen Voraussetzun-gen) als Fourier-Reihe

0i20

1( ) ( ) ,pu x

pp

f x c f e uL

(11.50)

mit den Euler-Fourier-Koeffizienten

0i2

0

1( ) ( ) ,

Lpu x

pc f f x e dx pL

(11.51)

darstellen. Die Werte ( )pc f werden auch das Spektrum von f genannt.

Page 473: Photonik: Grundlagen, Technologie und Anwendung

458 11 Bildaufnahme und -wiedergabe

Periodische Funktionen können mit der Trapezregel mit maximaler Ge-nauigkeit numerisch integriert werden, wenn die Funktion f an den Stellen

,jL

x j j x jN

(11.52)

abgetastet wird. Aus der Periodizität der Funktion f folgt für die Abtastfol-ge ( ) ( ),j jy f x f j x j die N-Periodizität ,j N jy y j .

Wir erhalten für j

0 0

1i2 i2

001 1

i2 /

0 0

1( ) ( )

1 1( ) .

L Njppu x u x

pj

N NjpN jp

j j pj j

xc f x e dx f j x e

L L

y e y w c fN N

(11.53)

Aus der Eigenschaft

( )( ) i2 / i2 /j p mN jpj p mN N N jpw e e w (11.54)

für , ,m n p folgt

1 1( )

0 0

1 1( ) ( )

N Nn p mN np

p mN n n pn n

c f y w y w c fN N

,(11.55)

ohne dass wir die N-Periodizität der Abtastwertefolge jf verwendet haben. Insbesondere gilt

( ) ( )p N pc f c f . (11.56)

Folglich ist es nur sinnvoll, einen Abschnitt von höchstens N Werten der Folge ( )pc f als Näherung der Spektralwerte ( )pc f zu verwenden.

Definition der diskreten Fourier-Transformation

Es liegt nahe, die Funktion f durch ihre Fourier-Summe

0

1i2

0

( ) ( ) : ( )N

pu xp

p

f x f x c f e (11.57)

zu approximieren. Dann gilt wegen

1i2 / ( )

0

1 ,1( )

0 ,

nN p j k

p

k j mNe

N k j mN (11.58)

Page 474: Photonik: Grundlagen, Technologie und Anwendung

11.3 Bildverarbeitung 459

in den Abtaststellen jx j x , 0, , 1j N

0

11i2i2 /

00

11i2 / ( )

00

1( ) : ( )

1( ) ( ).

j

NNpu xN kp

j kkp

NNN j k p

k j jpk

f x y e eN

y e y f xN

(11.59)

Dies führt uns auf den Satz und Definition: Es seien yj, j = 0,…,N die Abtastwerte von f. Dann heißen die komplexen Zahlen

1i2 /

0

1DFT{ } ( ) , 0, , 1

NN jp

p p jj

Y y y e p NN

(11.60)

die diskrete Fourier-Transformierte oder das diskrete Spektrum von (fj) . Die inverse diskrete Fourier-Transformierte

1i2 /

0

IDFT( ) ( )N

N pjj j p

p

y Y Y e (11.61)

rekonstruiert die Abtastwerte (yj) der Funktion f.Die Summation kann numerisch sehr effizient durchgeführt werden,

man spricht dann von der FFT (Fast Fourier Transform).

Darstellung des diskreten Spektrums

Für die praktische Berechnung erscheint der einfache Indexbereich p = 0,…, N - 1 geeignet. Wir betrachten deshalb die Näherung von f

0

1i2

0

( ) ( ) : ( ) (Standarddarstellung)N

pu xp

p

f x f x c f e . (11.62)

Für die physikalische Interpretation der Spektralwerte eignet sich die zum Nullpunkt symmetrische Darstellung (auch optische Darstel-lung genannt)

0

1i2( ) ( ) : (optische Darstellung)

n ro o pu x

kp n

f x f x c e (11.63)

Page 475: Photonik: Grundlagen, Technologie und Anwendung

460 11 Bildaufnahme und -wiedergabe

mit div2n N und mod2r N weitaus besser. Die Beziehung für die Umrechnung der Koeffizienten ergibt sich aus der Bedingung ( ) ( ), 0, , 1.oj jf x f x j N Daraus folgt

, 1

, 0 1

p Nop

k

c n pc

c p N n (11.64)

und umgekehrt

, 0 1 .

, 1

ok

p op N

c p N nc

c N n p N (11.65)

In der Bildverarbeitung stellt die Funktion f die Intensität des Lich-tes (Bestrahlungsstärke) auf dem Sensorchip dar. Folglich müssen die Koeffizienten die Bedingung ( )o o

k kc c erfüllen. Damit ergibt sich für 2 1N n

0i20

0

00

2 Re{ }cos(2 )

2 Im{ }sin(2 )

n no pu x op p

p n pn

op

p

c e c pu x

c pu x

(11.66)

und für 2N n

0

1 1i2

00

1

00

0

2 Re{ }cos(2 )

2 Im{ }sin(2 )

cos(2 )

n no pu x op p

p n p

nop

p

n

c e c pu x

c pu x

a pu x

(11.67)

mit 2 1

0

1( 1) ( )

2

nj

n jj

a f xn

. (11.68)

Die technische Darstellung von ( )pc f bzw. ( )opc f erfolgt nicht über

dem Argument p sondern über der Frequenz u. Mit der Abtastfrequenz

sampling 01 N

u Nux L

(11.69)

Page 476: Photonik: Grundlagen, Technologie und Anwendung

11.3 Bildverarbeitung 461

gilt

sampling1

pN

u pu p pL x

. (11.70)

Es lassen sich nur Frequenzen im Bereich zwischen der kleinsten Fre-quenz min( min 1)p p

min min 01 1

u p uL N x

(11.71)

und der größten Frequenz max( max )p p n

max max 0 sampling1

2 2n n N

u p u uL n r L

(11.72)

darstellen. Daraus erhalten wir die wichtigen Beziehungen

01

u xN

und sampling max2u u . (11.73)

Die Abtastung erfolgt mit mindestens der doppelten maximalen Fre-quenz, die durch das trigonometrische Polynom dargestellt wird.

In der technischen Literatur spricht man gerne anstelle von diskreten Fourier-Koeffizienten von f vom diskreten Spektrum von f und zerlegt das Spektrum von f nach dem diskreten Phasenspektrum ( ) [0,2 )o

p f und diskreten Amplitudenspektrum ( ) 0,o

pA f gemäß der Beziehung

i ( )( ) ( ) , 0, ,op fo o

p pc f A f e p n (11.74)

d.h.

( ) ( ) , ( ) arg ( ) , 0, ,o o o op p p pA f c f f c f p n . (11.75)

Dies liegt darin begründet, dass es physikalische Systeme gibt, die entweder das Amplitudenspektrum oder das Phasenspektrum des Eingangssignals beeinflussen. Daraus erhält man für das Amplitu-den- und Phasenspektrum die Eigenschaft

( ) ( ) , ( ) ( )p p p pA f A f f f . (11.76)

Die Spektralwerte ( )pA f und ( )p f mit nicht negativem Index 0p sind somit ausreichend, um die Funktion f in den Abtaststel-

len zu rekonstruieren.

Page 477: Photonik: Grundlagen, Technologie und Anwendung

462 11 Bildaufnahme und -wiedergabe

Diskrete Faltung und digitale Filter

Die diskrete Fourier-Transformation kann zum Design von digitalen Fil-tern verwendet werden, da das diskrete Faltungsprodukt

1

0

1 1

0 0

1( ) : ( ) ( )

1 1(( ) ) ( )

N

j j p pp

N N

j p pp p

f g f x x g xN

f j p x g p x f gN N

(11.77)

im Spektrum einer einfachen Multiplikation

( ) ( ) ( )p p pc f g c f c g (11.78)

entspricht. Es lässt sich nachrechnen, dass ein Kantenfilter sich wie ein Hochpassfilter und ein Glättungsfilter wie ein Tiefpassfilter verhält.

Zusammenhang mit den exakten Werten, Aliasing

Die Näherungswerte ( )pc f hängen direkt mit den exakten Werten ( )pc f

zusammen. In den Abtaststellen jx j x erhalten wir die Abtastwerte

0i2 ( ) i2 /( ) ( )u l j x N lj ljl l l

l l l

f j x c e c e c w . (11.79)

Eingesetzt in Gl. (11.53) ergibt sich wegen Gl. (11.58)

1 1

0 0

1( )

0

1 1( ) ( )

1( ) ( ).

N Njp jl jp

p j lj j l

Nj l p

p mNl j m

c f f w c f w wN N

c f w c fN

(11.80)

Die Beziehung (11.80) der Koeffizienten ( )pc f ist die Summe aller exak-

ten Fourier-Koeffizienten ( )p mNc f von f, .m Die zugehörigen har-

monischen Schwingungen

0i2 ( )( ) , ,p mN u xp mNg x e p m (11.81)

mit den Frequenzen 0( )p mN u können anhand der Abtastwerte

( )f j x nicht unterschieden werden, weil alle Funktionen

Page 478: Photonik: Grundlagen, Technologie und Anwendung

11.4 Bildwiedergabe – Displays 463

( ),p mNg x m an den Stellen , 0, , 1jx j x j N überein-

stimmen:

0i2 ( )

i2 / i2

( ) ( )

( ) ( ) ( ) .

p mN ju xp mN j p mN

N jp jm jkp j

g x g j x e

e e w g x (11.82)

Diese Tatsache wird Alias-Effekt genannt. Die komplexen Amplituden

( )p mNc f aller Schwingungen 0i2 ( )p mN u xp mNc e der Frequenz

0( ) ,p mN u m , sind in ( )pc f in Summe vertreten.

Beispiel:Die Funktionen

0

0

( ) sin(8 ) 4 Lp/m 4

( ) sin(28 ) 14 Lp/m 14

f x x u p

g x x u p mN (11.83)

können durch Abtastung an den Stellen (m = 1, N = 10)

/m /10, 0, , 9 0.1m

10Lp/mm

jx j j x

u (11.84)

nicht unterschieden werden.

( ) sin(28 /10) sin(2 8 /10)

sin(8 /10) ( )

j

j

g x j j j

j f x (11.85)

Mit einer Abtastrate sampling 10Lp/mu lassen sich beide Signale unter-

scheiden.Alle Betrachtungen in diesem Abschnitt lassen sich auf zwei Dimensio-

nen übertragen und damit direkt auf digitale Bilder anwenden. In der ein-schlägigen Literatur (Gonzalez u. Woods 2002) wurde dies ausführlich behandelt.

11.4 Bildwiedergabe – Displays

Die Wiedergabe von Bildern ist ein weites Feld von der klassischen Foto-grafie über das Ausdrucken mit Tintenstrahl- oder Laserdruckern bis hin zu optoelektronischen Displays. Um den Rahmen dieses Werkes nicht zu sprengen, sollen hier lediglich Flüssigkristalldisplays (LCD) und Displays auf der Basis von organischen Leuchtdioden (OLED) behandelt werden.

Page 479: Photonik: Grundlagen, Technologie und Anwendung

464 11 Bildaufnahme und -wiedergabe

11.4.1 Flüssigkristall-Displays

Liquid Crystal Displays (LCD) beruhen auf den elektrooptischen Eigen-schaften flüssiger Kristalle. Viele organische Substanzen können einen flüssigkristallinen Zustand einnehmen, dessen Ordnungsgrad zwischen dem eines anisotropen Festkörpers und dem einer isotropen Flüssigkeit liegt. Oberhalb des Schmelzpunkts befinden sie sich in einer so genannten Mesophase, in der sie zwar fließfähig sind wie eine Flüssigkeit, in der aber dennoch eine gewisse Fernordnung zwischen den Molekülen vorliegt. Die Substanz ist in diesem Zustand von milchig-trübem Aussehen. Erhöht man die Temperatur über die Klärtemperatur, dann entsteht eine normale isotrope und klare Flüssigkeit. Die Mesophase stellt sich ein, wenn die Moleküle entweder lang gestreckt (stäbchenförmig) oder flach (scheib-chenförmig) sind und starke elektrische Dipolmomente besitzen, über die sie sich gegenseitig beeinflussen.

Innerhalb der Mesophase gibt es in Abhängigkeit von der Temperatur verschiedene Ordnungsstrukturen der Moleküle. Die wichtigste für Dis-plays ist die nematische Phase, in der die stäbchenförmigen Moleküle im Mittel parallel ausgerichtet sind (Abb. 11.27). Die Vorzugsrichtung wird durch den Direktor n(r) angegeben. Die Molekülschwerpunkte sind relativ zueinander frei verschiebbar. Sind die einzelnen Molekülachsen um den Winkel i gegenüber dem Direktor verkippt, dann beschreibt

iiS 22 sin231)1cos3(

21

(11.86)

den Ordnungsparameter des Systems. In einem perfekt geordneten System ist = 0 und S = 1. In einer vollkommen ungeordneten, also isotropen Phase ist S = 0. In typischen nematischen Phasen ist 0,4 < S < 0,7.

Abb. 11.27. Nematische Flüssigkristalle, a) Ausrichtung um den Direktor n(r), b) Anisotropie der elektrischen und optischen Eigenschaften

Page 480: Photonik: Grundlagen, Technologie und Anwendung

11.4 Bildwiedergabe – Displays 465

Ein geordneter Bereich eines Flüssigkristalls zeigt anisotrope, d.h. rich-tungsabhängige elektrische und optische Eigenschaften. Die Permittivität (Dielektrizitätskonstante) = r 0 wird zu einem Tensor. Wird ein elektri-sches Feld in Richtung des Direktors angelegt, so ergibt sich eine relative Permittivitätszahl ||r , die abweicht von r , senkrecht zur Rich-tung des Direktors. Die Anisotropie heißt positiv, wenn 0||und negativ, wenn 0 ist.

Auch der optische Brechungsindex zeigt Anisotropie. Beim so genann-ten ordentlichen Strahl (Abschn. 1.2.2.3), der sich in Richtung des Direk-tors ausbreitet, schwingt der elektrische Feldvektor E normal zur Molekül-längsachse. Damit ist sein Brechungsindex nno . Der außerordentliche Strahl steht senkrecht auf dem Direktor, so dass sein elektrisches Feld in Längsrichtung der Moleküle weist. Hier ist der wirksame Brechungsindex

||e nn . Bei positiver Anisotropie ist 0|| nnn . Die Größen j und nj hängen ab von der Molekülstruktur, dem Ordnungsparameter S, der sei-nerseits von der Temperatur und externen Feldern abhängt, sowie der Lichtwellenlänge. Tabelle 11.2 listet einige Werte auf.

Tabelle 11.2. Eigenschaften einiger Flüssigkristalle (Fa. Merck)

Flüssigkristall ZLI-3125 ZLI-2293 MLC-13800-000

Klärtemperatur in C 63 85 110

(1 kHz, 20 C) 2,4 10 8,9

nno (589 nm, 20 C) 1,4672 1,4990 1,4720

||e nn (589 nm, 20 C) 1,5188 1,6312 1,5622

n 0,0516 0,1322 0,0902

Rotationsviskosität in mPas (20 C) 162 228

In Anwesenheit eines elektrischen Feldes richten sich bei Flüssigkristal-len mit positiver Anisotropie die Moleküllängsachsen und damit der Direk-tor parallel zur Feldrichtung aus. Die Zeitdauer solcher Ausrichtungsvor-gänge und damit das dynamische Verhalten von LCDs wird wesentlich von der Viskosität der Substanz bestimmt. Die Rotationsviskosität ist maß-gebend für das Drehvermögen um eine Achse senkrecht zum lokalen Di-rektor. Sie hängt exponentiell von der Temperatur ab und damit auch die Schaltzeit eines Displays:

)/exp(~ Tat . (11.87)

Moderne Displays erreichen Schaltzeiten unter 10 ms. Um die elektri-schen und optischen Konstanten sowie die Viskosität und den nutzbaren

Page 481: Photonik: Grundlagen, Technologie und Anwendung

466 11 Bildaufnahme und -wiedergabe

Temperaturbereich an die Bedürfnisse des Anwenders anzupassen, werden in der Regel mehrere Materialien gemischt.

Verdrillte nematische Phase

Die wichtigste Displaystruktur ist die von Schadt und Helfrich entwickelte Drehzelle (Twisted Nematic, TN, Abb. 11.28). Zwei auf der Innenseite mit leitfähigem, transparentem Indium-Zinn-Oxid (ITO, Indium Tin Oxide)beschichtete Glassubstrate werden mit Abstandshaltern auf einige Mikro-meter Distanz gehalten. Die dazwischen befindliche Flüssigkristallmi-schung wird durch Orientierungsschichten aus Polyimid ausgerichtet. Der einige 10 nm dicke Polyimidfilm wird mit einer Walze, die mit einem Samttuch bespannt ist, unidirektional gerieben. Das führt dazu, dass sich die stäbchenförmigen Moleküle in den mikroskopischen Rillen verankern. Die ersten Moleküle liegen allerdings nicht völlig parallel zur Orientie-rungsschicht, sondern zeigen einen kleinen Anstellwinkel (pre-tilt angle) von einigen Grad. Sind die Reiberichtungen der beiden Polyimidschichten um 90 gegeneinander verdreht, ordnen sich die Moleküle in Form einer Helix an.

Wird linear polarisiertes Licht in die Zelle eingestrahlt, wobei die Schwingungsrichtung parallel zur Orientierungsrichtung weist, dann läuft

Abb. 11.28. TN-Zelle, a) Aufbau mit gekreuzten Polarisatoren (normally white mode), P1: Polarisator 1, G: Glassubstrat, ITO: transparente Elektrode, O1: Orien-tierungsschicht 1, O2: Orientierungsschicht 2, F: Farbfilter, P2: Polarisator 2 (Ana-lysator), b) schraubenförmige Anordnung der Moleküle im spannungslosen Fall, hell, c) ausgerichtete Moleküle bei anliegender Spannung, schwarz

Page 482: Photonik: Grundlagen, Technologie und Anwendung

11.4 Bildwiedergabe – Displays 467

die Komponente des elektrischen Feldes in Richtung der Moleküllängs-achsen langsamer als die dazu orthogonale Komponente. Infolge dieser Doppelbrechung wird bei richtig dimensionierter Dicke d des Flüssigkris-talls das linear polarisierte Licht zu elliptischem, das in der Tiefe d/2 zu zirkular polarisiertem wird und schließlich über elliptisches wieder in line-ar polarisiertes übergeht, allerdings mit einer um 90 gedrehten Schwin-gungsrichtung.

Ist nun der auf der Rückseite aufgeklebte Polarisator (Analysator) senk-recht zum ersten Polarisator ausgerichtet, dann wird das Licht durchgelas-sen, die Zelle erscheint hell (normally white mode). Ist aber der Analysator parallel zum Polarisator orientiert, dann wird das Licht nicht durchgelas-sen, die Zelle erscheint schwarz (normally black mode). Wird eine Span-nung von einigen Volt an die ITO-Kontakte gelegt, dann behält lediglich eine dünne Moleküllage an den Polyimidfilmen die ursprüngliche Orien-tierung bei, während sich die restlichen Moleküle in die Feldrichtung dre-hen, der Direktor also senkrecht zu den Platten steht. Da bei dieser homö-otropen Ausrichtung keine Doppelbrechung auftritt, wird das polarisierte Licht nicht gedreht und bei gekreuzten Polarisatoren nicht durchgelassen bzw. bei parallelen Polarisatoren durchgelassen.

Die Transmission einer TN-Zelle mit parallelen Polarisatoren (normally black mode) ist nach Gooch und Tarry gegeben durch

2

22

nbm 1

12

sin

21

u

uT (11.88)

mit dem Retardationsparameterndu 2 . Die Kurve in Abb. 11.29 a)

zeigt, dass die Transmission null wird für 14 2mum , mit m = 1, 2, 3..

Die erste Nullstelle der Transmission stellt sich ein für 31u bzw. für die Schichtdicke

nd

23

1 . (11.89)

Für einen Flüssigkristall mit n = 0,1 und die Wellenlänge = 550 nm (grün) ergibt sich als Dicke d1 = 4,8 m. Die zum zweiten Minimum gehö-rende Schichtdicke ist d2 = 10,7 m. Da die Schaltzeit einer Zelle mit dem Quadrat der Schichtdicke ansteigt ( t ~ d2), werden schnelle Displays im ersten Minimum der Gooch-Tarry-Kurve betrieben.

Page 483: Photonik: Grundlagen, Technologie und Anwendung

468 11 Bildaufnahme und -wiedergabe

Abb. 11.29. Transmissionskurven von TN-Zellen, a) parallele Polarisatoren (nor-mally black mode), b) gekreuzte Polarisatoren (normally white mode)

Die Auslöschung erfolgt nach Gl. (11.89) im Prinzip nur für eine be-stimmte Wellenlänge und auch nur bei senkrechter Betrachtung. Ist bei-spielsweise die Auslöschung für grün ( = 550 nm) gegeben, dann beträgt nach Gl. (11.88) die Transmission im Roten ( = 650 nm) T = 1,7%. Das Pixel ist damit also nicht mehr vollständig schwarz. Eine Verbesserung kann erzielt werden mithilfe von Kompensationsfolien.

Die Transmission einer TN-Zelle mit gekreuzten Polarisatoren (normal-ly white mode) ist gegeben durch

nbm2

222

nwm 21

1

12

cos

21 T

u

uuT (11.90)

mitndu 2 . Maxima der Transmissionsfunktion (Abb. 11.29 b) entste-

hen wieder für 14 2mum , mit m = 1, 2, 3.. Das erste Maximum stellt sich ein bei der Schichtdicke nach Gl. (11.89). Wird eine Spannung ange-legt, so ergibt sich der schwarze Zustand, der hier unabhängig ist von der Wellenlänge. Aus diesem Grund ist die Anordnung mit gekreuzten Polari-satoren die bevorzugte.

Wird an die ITO-Elektroden eine Spannung angelegt, so beginnen sich ab einer gewissen Schwellenspannung Uth (threshold voltage) die Moleküle zu drehen. Bei einem Vielfachen der Schwellenspannung sind alle Mole-küle (mit Ausnahme der Haftschichten an den Polyimidfilmen) parallel zum Feld ausgerichtet. Typische Durchlasskurven von TN-Zellen sind in Abb. 11.30 dargestellt.

Page 484: Photonik: Grundlagen, Technologie und Anwendung

11.4 Bildwiedergabe – Displays 469

normierte Spannung U/Uth

rela

tive

Tran

smis

sion

T/T

max

Abb. 11.30. Elektrooptische Kennlinien einer TN-Zelle für verschiedene Polarisa-torkombinationen

Um eine Flüssigkristallzelle zu betreiben wird ausschließlich Wechsel-spannung ohne Gleichanteil verwendet, da sonst durch elektrochemische Prozesse der Flüssigkristall zersetzt würde. Die Schwellenspannung be-trägt typischerweise etwa 2 V (Effektivwert). In der Praxis wird die Zelle mit dem Zwei- bis Dreifachen der Schwellenspannung angesteuert. Grau-stufen eines Pixels lassen sich gemäß Abb. 11.30 über die angelegte Span-nung regeln. Für Farbdarstellungen besteht jedes Pixel aus drei Subpixeln, welche die Farben rot, grün und blau erzeugen. Dazu ist auf der dem Bet-rachter zugewandten Seite der TN-Zelle ein Farbfilter eingebracht (Abb. 11.28).

Das Kontrastverhältnis einer TN-Zelle ist definiert als das Verhältnis der maximalen Leuchtdichte Lmax (Abschn. 1.3.2), welche die Zelle abgibt zur minimalen Lmin:

min

maxLLK . (11.91)

Ab einem Kontrastverhältnis von K 5 wird ein Bild als kontrastreich empfunden. Kommerzielle Displays zeigen bei senkrechter Betrachtung Kontrastverhältnisse von K 200. Der Kontrast sowie der Farbeindruck variiert bei der TN-Zelle stark mit dem Blickwinkel des Betrachters. Die Blickwinkelabhängigkeit steigt mit der Dicke d des Flüssigkristalls. Auch aus diesem Grund ist die Dicke d1 nach gl. (11.89) Werten höherer Ord-nungen vorzuziehen.

STN-Zellen

Zellen, bei denen der Verdrillungswinkel zwischen 90 und 270 liegt, werden als Super Twisted Nematic (STN) bezeichnet. Sie zeichnen sich dadurch aus, dass die elektrooptische Kennlinie (Abb. 11.30) wesentlich

Page 485: Photonik: Grundlagen, Technologie und Anwendung

470 11 Bildaufnahme und -wiedergabe

steiler verläuft als bei der TN-Zelle. Die Zelle schaltet damit innerhalb eines sehr kleinen Spannungsintervalls voll durch. Das hängt damit zu-sammen, dass zwischen den stärker gegeneinander verdrillten Molekülen geringere intermolekulare Kräfte wirksam sind, so dass eine geringere elektrische Feldstärke benötigt wird, um die Moleküle parallel auszurich-ten. Mit STN-Zellen sind wegen der großen Steilheit der elektrooptischen Kennlinie hoch multiplexierbare Anzeigen möglich.

Reflektive Drehzellen

Transmissive LCDs benötigen eine Hintergrundbeleuchtung, die ca. 90% der erforderlichen Leistung verbraucht. Sehr geringen Energieverbrauch zeigen reflektive Zellen, die das Umgebungslicht ausnutzen. Bei der An-ordnung nach Abb. 11.31 a) wird im spannungslosen Fall das linear polari-sierte Licht im Flüssigkristall um 90 gedreht, passiert den zweiten Polari-sator P2 und wird von einem metallischen Reflektor R unter Beibehaltung des Polarisationszustandes reflektiert. Nach nochmaligem Durchlaufen der Drehzelle wird das Licht vom Polarisator P1 durchgelassen, die Zelle er-scheint hell.

Abb. 11.31. Reflexions-Drehzelle, a) Zelle mit zwei gekreuzten Polarisatoren P1 und P2, R: Reflektor, b) Zelle mit einem Polarisator P und einem /4-Film. Die Glassub-strate sowie ITO-Elektroden und Orientierungsschichten sind nicht gezeichnet

Wird eine Spannung angelegt, so dass sich die Moleküle ausrichten, dann wird das einfallende Licht im Flüssigkristall nicht gedreht und kann somit den Polarisator P2 nicht passieren, die Zelle wird dunkel. Diese An-ordnung ist vielfach eingesetzt für einfache anzeigen wie 7-Segment-Anzeigen bei Armbanduhren, Taschenrechnern etc.

Bedingt durch die zwei Polarisatoren ist der Hellzustand relativ licht-schwach. Darüber hinaus zeigt die Zelle wegen der großen Bauhöhe eine starke Blickwinkelabhängigkeit des Kontrastes. Bessere Eigenschaften besitzt die Zelle nach Abb. 11.31 b), bei der ein Polarisator mit einem

/4-Film kombiniert wird, so dass zirkular polarisiertes Licht in die Zelle eintritt. Nach Durchlaufen des Flüssigkristalls wird daraus elliptisch pola-risiertes Licht, das nach der Reflexion am Reflektor lediglich seinen Dreh-

Page 486: Photonik: Grundlagen, Technologie und Anwendung

11.4 Bildwiedergabe – Displays 471

sinn ändert. Von der Kombination /4-Film und Polarisator wird diese Licht durchgelassen, es liegt also ein Hellzustand vor. Wird eine Spannung angelegt, so dass sich die Moleküle in Feldrichtung einstellen, dann durch-läuft das zirkular polarisierte Licht die Zelle, ändert bei der Reflexion den Drehsinn und wird von /4-Film und Polarisator ausgelöscht, es liegt also der Dunkelzustand vor.

Da reflexive Displays ohne Umgebungslicht nicht ablesbar sind, werden auch transreflektive LCDs entwickelt. Hier ist jedes Pixel in ein transmis-sives und ein reflektives Subpixel unterteilt. Reicht die Umgebungshellig-keit nicht mehr aus, kann durch Einschalten einer Hintergrundbeleuchtung das transmissive Subpixel aktiviert werden.

IPS-Displays

Die Blickwinkelabhängigkeit des Kontrastes von LCDs wird wesentlich verbessert durch die In-Plane-Switching-Methode (IPS, Abb. 11.32). Im spannunglosen Zustand (linke Bildhälfte) sind die Moleküle parallel zum Polarisator P1 angeordnet und nicht verdrillt. Das linear polarisierte Licht wird dadurch nicht verändert und vom Polarisator P2 (Analysator), der gegenüber P1 um 90 verdreht ist, nicht durchgelassen.

Abb. 11.32. Aufbau einer IPS-Zelle. Bei gekreuzten Polarisatoren P1 und P2 ist die Zelle schwarz (normally black mode)

Wird an die Elektroden, die sich hier nur auf einer Seite des Flüssigkris-talls befinden, eine Spannung angelegt (rechte Bildhälfte), dann verlaufen die Feldlinien näherungsweise horizontal. Die Moleküle drehen sich in die Feldrichtung, wobei ihre Längsachsen parallel zu den Platten bleiben (in plane). Aus dem linear polarisierten Licht wird jetzt elliptisch polarisiertes, das vom Polarisator P2 durchgelassen wird.

Page 487: Photonik: Grundlagen, Technologie und Anwendung

472 11 Bildaufnahme und -wiedergabe

Wenn die Zelle voll durchgeschaltet ist, beträgt die Transmission

uT 2sin2sin21

(11.92)

mitndu 2 und dem Verdrillungswinkel der Moleküle. Maximale

Transmission ergibt sich für = 45 und d = /(4 n). Sind die beiden Polarisatoren parallel ausgerichtet, dann ist die Zelle im

spannungslosen Zustand hell und wird mit anliegender Spannung dunkel. Neben der hervorragenden Verbesserung des nutzbaren Blickwinkels

(über 70 bei K > 5) erlauben IPS-Zellen auch eine sehr gute Kontrolle der Grauwerte.

VA-Displays

Bei den VA-LCDs (Vertically Aligned) sind die Moleküle im spannungs-losen Zustand vertikal zu den Glasplatten ausgerichtet (Abb. 11.33). Line-ar polarisiertes Licht wird durch sie nicht beeinflusst und vom Polarisator P2 (Analysator) durchgelassen, was zu einem exzellenten Schwarz-Zustand führt.

Abb. 11.33. MVA-Zelle. Die Polarisatoren P1 und P2 sind um 90 verdreht

Flüssigkristalle mit negativer Anisotropie ( < 0) stellen sich bei ange-legter Spannung senkrecht zum Feld, d.h. parallel zu den Platten, ein. Sind sie gegen die Schwingungsrichtung von P1 verdreht, entsteht elliptisch po-larisiertes Licht, das vom Polarisator P2 durchgelassen wird. Kleine pyra-midenartige Vorsprünge (protrusions) auf der unteren Elektrode sorgen dafür, dass die Moleküle in definierter Richtung kippen. Im MVA_LCD (Multidomain Vertically Aligned) wird jedes Pixel in zwei oder vier Subpi-xel mit unterschiedlicher Orientierung der Moleküle unterteilt. Dadurch entsteht ein guter Kontrast über einen großen Blickwinkel ( 80 bei K > 10), was die Herstellung großformatiger LCD-Fernseher ermöglicht.

Page 488: Photonik: Grundlagen, Technologie und Anwendung

11.4 Bildwiedergabe – Displays 473

Ansteuerung

Zur Darstellung von Bildern sind die einzelnen Pixel in der Regel in einer Matrix angeordnet. Bei der passiven Matrixansteuerung (PMLSD) wird auf die Zeilenelektroden die Spannung Uz gegeben und auf die Spaltenelektro-den die Spannung Us (Abb. 11.34). Ist beispielsweise die Zeile i auf Uz,i = Uth = +2 V gelegt und die Spalte k auf Us,k = -2 V, dann liegt am Flüs-sigkristall des Überkreuzungspunkts Ui,k = 4 V an und er schaltet durch.

Abb. 11.34. Ansteuerung von LCDs, a) PMLCD, b) AMLCD. CLC und RLC reprä-sentieren den Flüssigkristall, S, G und D sind Source, Gate und Drain des FET

Das Zeitmultiplex mehrerer Zellen ist nur möglich, wenn die elektroop-tische Kennlinie (Abb. 11.30) steil ist. Nach Alt und Pleshko ist die Zahl Nder adressierbaren Zeilen gegeben durch

2

2offon

2offon

1)/(1)/(

UUUUN , (11.93)

wobei Uon und Uoff die Spannungen angeben, bei denen die TN-Zelle schal-tet. Ist beispielsweise nach Abb. 11.30 Uon/Uoff = 1,75, dann ist die Zahl der multiplexierbaren Zeilen lediglich N = 4. Von großem Vorteil sind hier die STN-Zellen, da sie eine wesentlich steilere Kennlinie aufweisen. Aus Gl. (11.93) folgt für das erforderliche Spannungsverhältnis für eine be-stimmte Zeilenzahl:

11

off

on

NN

UU

. (11.94)

Für N = 240 ergibt sich Uon/Uoff = 1,067, was mit STN-Zellen realisierbar ist.

Wesentlich bessere Eigenschaften zeigt die aktive Matrixansteuerung(AMLCD), bei der in einer Ecke jedes Pixels ein elektronisches Bauteil, meist ein Dünnfilmtransistor (TFT, Thin Film Transistor), sitzt, welches

Page 489: Photonik: Grundlagen, Technologie und Anwendung

474 11 Bildaufnahme und -wiedergabe

das Pixel unabhängig von allen anderen ansteuert (Abb. 11.34 b). Auf dem oberen Glassubstrat der Abb. 11.28 (der Hintergrundbeleuchtung zuge-wandt) sitzt ein Feldeffekt-Transistor in Dünnschichttechnologie, während die ITO-Gegenelektrode auf dem unteren Substrat ganzflächig ausgeführt ist. Der n-Kanal-FET arbeitet als Schalter. Durch einen positiven Gate-Impuls an der Zeile i werden alle TFTs der Zeile leitend. Dadurch kann über die Spaltenleitung k die Signalspannung an den Flüssigkristall (LC) gelegt werden. Dieser ist im Ersatzschaltbild durch CLC und RLC repräsen-tiert. Zusätzlich wird ein Dünnfilm-Speicherkondensator (storage capaci-tor) der Kapazität Cst aufgeladen, dessen Aufgabe es ist, die Spannung über dem LC möglichst so lange zu halten, bis die nächste Adressierung erfolgt. Ohne den Speicherkondensator würde die Spannung am LC infolge von Leckströmen rasch abklingen.

Üblicherweise ist die Bildwiederholfrequenz 60 Hz. Das bedeutet, dass nach TF = 16,7 ms (frame time) das Bild neu geschrieben wird. Wenn der Speicherkondensator während dieser Zeit die Spannung halten kann, ent-steht ein völlig flimmerfreies Bild.

Ist N die Zahl der Zeilen, so ist die Schaltzeit einer Zeile (select time) TS = TF/N. Beträgt beispielsweise bei XGA-Auflösung die Zeilenzahl N = 768, so muss der Ladevorgang in TS = 21,7 s abgeschlossen sein.

Wie bereits erwähnt, werden Flüssigkristalle unter Gleichspannung elektrolytisch zersetzt. Deshalb muss die Polarität der Source-Spannung bei jedem neuen Bildaufbau geändert werden.

11.4.2 OLED-Displays

OLEDs (Organic Light Emitting Diodes) bestehen aus organischen Sub-stanzen, die halbleitende Eigenschaften aufweisen. Beispielsweise besitzt der Phenylring von Polyphenylenvinylen (PPV, Abb. 11.35) sechs

-Molekülorbitale, von denen die drei energetisch tief liegenden mit je zwei Elektronen besetzt sind (Highest Occupied Molecular Orbital, HOMO). Die drei energetisch höher liegenden, die von den unteren durch eine Energielücke getrennt sind, sind leer (Lowest Unoccupied Molecular Orbital, LUMO). Werden mehrere Ringe zu einer Kette zusammen gesetzt, in der sich Einfach- und Mehrfachbindungen entlang der Kette alternierend aneinander reihen, so dass eine vollständige Delokalisation der

-Elektronen über die Kette gegeben ist, dann kommt es infolge von Wechselwirkung zu einer Aufspaltung der Energieniveaus und damit zur Ausbildung von Energiebändern. Dabei entsteht aus den HOMOs das be-setzte Valenzband und aus den LUMOs das leere Leitungsband.

Page 490: Photonik: Grundlagen, Technologie und Anwendung

11.4 Bildwiedergabe – Displays 475

Abb. 11.35. Struktur von PPV

Wird ein Elektron unter Energieaufwand vom Valenz- ins Leitungsband gehoben, bleibt im Valenzband ein Loch zurück. Beide Ladungsträger können über die Coulomb´sche Anziehung einen gebundenen Zustand eingehen, ein so genanntes Exziton bilden. Zerfällt das Exziton, dann wird die bei der Rekombination frei werdende Energie entweder in Form eines Photons oder als Wärme abgegeben. Die Energie des Photons entspricht ungefähr der Breite der Energielücke, Eg. Sie kann durch Substitution, Dotierung, Einbau von Seitenketten etc. gezielt verändert werden, so dass Licht mit beliebigen Farben erzeugt werden kann.

Aufbau einer OLED

Im einfachsten Fall wird ein organischer Halbleiter mit Metallelektroden versehen, an die eine Spannung von einigen Volt angelegt wird (Abb. 11.36 a). Als Kathode dient ein Metall mit kleiner Elektronen-Austrittsarbeit, z.B. Ca, Mg, Cs, Al. Die Anode besteht aus einem Metall mit großer Austrittsarbeit, z.B. Indium-Zinn-Oxid (ITO), Au, Pt.

Aus der Kathode werden Elektronen in das Leitungsband des organi-schen Halbleiter injiziert, die sich dann infolge des elektrischen Feldes durch die Schicht in Richtung Anode bewegen. Innerhalb eines Moleküls geschieht der Ladungstransport entlang konjugierter Mehrfachbindungen, das sind alternierend aufeinander folgende Einfach- und Mehrfachbindun-gen zwischen den Kohlenstoffatomen. Von Molekül zu Molekül erfolgt der Ladungstransport über Hopping-Prozesse. Die Beweglichkeit ist mit

10-3 cm2/(Vs) sehr niedrig im Vergleich zu den klassischen Halbleitern. Damit ein genügender Strom fließt, muss deshalb die Feldstärke sehr groß sein, was durch eine dünne organische Schicht erreicht wird. Ist beispiels-weise die Schichtdicke d = 200 nm und die anliegende Spannung U = 5 V, so wird die Feldstärke E = U/d = 25 MV/m.

Page 491: Photonik: Grundlagen, Technologie und Anwendung

476 11 Bildaufnahme und -wiedergabe

Abb. 11.36. Energie-Orts-Diagramm einer OLED. a) Einschicht-OLED, K: Ka-thode, OHL: Organischer Halbleiter, A: Anode, EF: Fermi-Energie, LB: Leitungs-band, VB: Valenzband, E: Elektrische Feldstärke. b) Zweischicht-OLED, ET: Elektronen-Transportband (n-Leiter), LT: Löcher-Transportband (p-Leiter)

Aus dem Valenzband des organischen Halbleiters können Elektronen in die Anode übertreten. In der Sprache der Halbleiterphysik sagt man, dass Löcher von der Anode in das Valenzband des Halbleiters injiziert werden. Aufgrund des elektrischen Feldes bewegen sich die Elektronen und die Löcher aufeinander zu und können unter Aussendung eines Photons strah-lend rekombinieren.

Der Wirkungsgrad dieser Einfachschichten ist nicht sehr gut, weil die Ladungsträger die komplette Schicht auch durchlaufen können, ohne zu rekombinieren. Der Wirkungsgrad kann deutlich verbessert werden, wenn zwei verschiedene Schichten eingebaut werden (Abb. 11.36 b) und zwar eine für den Elektronen-Transport optimierte Schicht ET und eine für den Löcher-Transport optimierte LT. An der Grenzfläche entsteht eine Poten-zialbarriere für die Elektronen, die sich dort sammeln und mit den Löchern Exzitonen bilden, die dann rekombinieren. Dabei bilden sich 25% Singu-lett-Exzitonen (Elektronen- und Löcherspin antiparallel), die strahlend rekombinieren, während bei den 75% Triplett-Exzitonen (Elektronen- und Löcherspin parallel) die strahlende Rekombination verboten ist. Durch Dotierung mit Schwermetallen wie Pt und Ir gelingt es, den Spin umzu-drehen und damit den internen Quantenwirkungsgrad auf nahezu 100% zu steigern.

Display-Struktur

Der Aufbau eines Pixels ist in Abb. 11.37 a) dargestellt. Die emittierten Pho-tonen treten durch die transparente ITO-Anode aus. Die Dicke der organi-schen Halbleiterschicht ist etwa 200 nm. Bei der passiven Pixel-Matrix nach Abb. 11.37 b) sind zeilen- und spaltenförmig Elektroden angebracht. Werden an einem Überkreuzungspunkt beide aktiviert, leuchtet die OLED auf.

Page 492: Photonik: Grundlagen, Technologie und Anwendung

11.4 Bildwiedergabe – Displays 477

Abb. 11.37. Struktur eines OLED-Displays. a) Schichtaufbau eines einzelnen Pi-xels. b) Passive Pixel-Matrix

Computermonitore und Fernseher erfordern die schnelle aktive Ansteue-rung einzelner Pixel, weshalb für jedes Pixel ein Stromtreiber auf dem Sub-strat integriert ist. Dies ist ein Dünnschichttransistor (TFT) aus Poly-Sili-cium oder amorphem Silicium. Eine typische Rasterung (pixel pitch) ist 4 Bildelemente pro Millimeter und Zeile. Mehrfarbige Bilder werden dadurch erzeugt, dass an jedem Bildpunkt nebeneinander drei verschiedene organi-sche Halbleiter aufgebracht werden, die in den Grundfarben Rot, Grün und Blau leuchten und die unabhängig voneinander angesteuert werden.

Das Aufbringen der organischen Filme auf das Substrat geschieht bei vergleichsweise kleinen Molekülen durch aufwendiges und teures Auf-dampfen im Vakuum. Polymer-OLEDs (PLEDs) besitzen Moleküle mit langen Ketten, die löslich sind und aus der Lösung aufgebracht werden können. Dies kann z.B. durch Aufschleudern (spin coating) geschehen oder durch Siebdruck oder durch Aufspritzen mit einem modifizierten Tintenstrahldrucker. Dies erlaubt die kostengünstige Herstellung von Strukturen, wie sie in einem Display benötigt werden.

Eigenschaften von OLEDs

OLEDs liefern brillante Bilder mit einer typischen Leuchtdichte von Lv = 100 cd/m2. Im Gegensatz zu LCDs benötigen sie keine Polarisatoren und keine Hintergrundbeleuchtung, da sie Selbstleuchter sind. Sie sind deshalb auch gut von der Seite ablesbar. Der Betrachtungswinkel beträgt etwa 160 bei einem Kontrastverhältnis von besser als 100:1. OLEDs sind sehr schnell, so dass videofähige Bildschirme gebaut werden können. Sie sind einsetzbar in einem Temperaturbereich von –30 C bis +70 C. An Luft beträgt die Lebensdauer der OLEDs nur wenige Tage. Eine luftdichte

Page 493: Photonik: Grundlagen, Technologie und Anwendung

478 11 Bildaufnahme und -wiedergabe

Verpackung im Vakuum oder inerter Atmosphäre ist daher unabdingbar und ergibt Lebensdauern von über 10.000 h.

Wenn es gelingt, eine dichte Verpackung mit Kunststofffolien herzustel-len, sind auch flexible Displays möglich. Neben dem Einsatz der OLEDs in Displays ist auch daran gedacht, großflächige Beleuchtungen zu reali-sieren.

11.5 Literatur

Ahlers RJ (2000) Handbuch der Bildverarbeitung. Expert Verlag, Renningen-Malmsheim

Eastman Kodak Company (1999) KAF Series Full-Frame CCD Sensors. Binning Mode Operation, Application Note DC 02-009

Eastman Kodak Company (1994) Application Node DS 00-001. Solid State Image Sensors

Gonzalez RC, Woods RE (2002) Digital Image Processing. Prentice Hall, New Jersey

Holst GC (1998) CCD Arrays, Cameras and Displays. SPIE Press, Bellingham, Washington

Jähne B (2002) Digitale Bildverarbeitung. Springer Verlag Berlin Heidelberg New York

Jahn H, Reulke R (1995) Systemtheoretische Grundlagen optoelektronischer Sen-soren. Akademie Verlag, Berlin

Knoll PM (1986) Displays. Hüthig, Heidelberg Lüder E (2001) Liquid Crystal Displays. Wiley, Chichester MacDonald LW, Lowe AC (1997) Display Systems. Wiley, Chichester Malacara D, Servín M, Malacara Z (1998) Interferogram Analysis for Optical

Testing. Marcel Dekker, New York, Basel, Hong Kong Oppenheim AV, Schafer RW (1999) Zeitdiskrete Signalverarbeitung. R. Olden-

bourg Verlag, München Wien Ott E (1997) Wissenswertes über CCD Kameras. PCO Computer Optics GmbH Theuwiesen AJP (1995) Solid-State Imaging with Charge-Coupled Devices. Klu-

wer Academics Publisher, Dorbrecht Selected Papers on CCD and CMOS Imagers (2003) SPIE Milestone Series Vol-

ume MS 177, Ed. Kang MG, SPIE PRESS, Bellingham Washington Walker JS (1996) Fast Fourier Transform. CRC Press Boca Raton, New York

London Tokyo Williams TL (1999) The Optical Transfer Function of Imaging Systems. Institute

of Physics Publishing, London Wu S-T, Yang D-K (2001) Reflective Liquid Crystal Displays. Wiley, Chichester

Page 494: Photonik: Grundlagen, Technologie und Anwendung

12 Augenschutz und Augensicherheit

Einleitung

Das Auge ist unser wichtigstes Sinnesorgan. Rund 90% der Sinneseindrü-cke nehmen wir mit dem Auge wahr. Kein anderes Sinnesorgan vermittelt uns so viele Informationen. Durch und im Licht kann der Mensch seine Umgebung erkennen und sich darin orientieren. Licht bzw. Strahlung hat positive physiologische und psychologische Wirkungen; Licht und Strah-lung sind für unser aller Gesundheit und für unser Wohlbefinden unab-dingbar. Die positiven Effekte treten jedoch in einem eng begrenzten Be-reich der Strahlungsintensität auf – zuviel Licht und Strahlung schaden. Wichtig ist es also, Haut und Augen gegen Negativ-Einflüsse jeglicher Art zu schützen. Gefährdet sind unsere Augen durch mechanische Einwirkun-gen, durch chemische Einflüsse und durch optische Strahlung, sei es aus natürlichen Quellen (Sonne) oder künstlichen Quellen (z. B. heiße Körper, Lichtbogen beim Schweißen). Weil gerade bei optischer Strahlung, im Gegensatz gegensätzlich zu anderen schädlichen Strahlungseinflüssen (z. B. ionisierende Strahlung), die Intensität in unserer Umwelt durch die Sonne bereits so hoch ist, dass es bereits zu Schädigungen kommen kann, hat man bei der Festlegung von Expositionsgrenzwerten keine großen Si-cherheitsaufschläge berücksichtigen können.

Der erste Abschnitt beschreibt den anatomischen Aufbau des Auges. Im zweiten Abschnitt werden einige der Gefahren aufgeführt, denen unsere Augen täglich ausgesetzt sind. Der Schwerpunkt liegt dabei auf den Ein-wirkungen optischer Strahlung. Im Berufsleben ist jede Person einer Viel-zahl von Gefahren ausgesetzt, auch für das Auge. In diesem Abschnitt werden die Richtlinien, Gesetze und Normen für den Augenschutz zusam-mengefasst und erläutert. Eine Auswertung der Unfallanzeigen bezüglich Augenverletzungen der Steinbruchs-Berufsgenossenschaft (www.stbg.de) hat ergeben, dass 56% der verletzten Mitarbeiter zum Zeitpunkt des Un-falls keine Schutzbrille trugen. Bei weiteren 22% war die Schutzbrille nicht korrekt angepasst, für die Tätigkeit nicht geeignet oder sie wurde zwar getragen, führte aber trotzdem zu einer Verletzung. 13% der Betrof-fenen waren sich einer möglichen Gefahr zum Unfallzeitpunkt überhaupt nicht bewusst, da sie am Arbeitsgeschehen nicht unmittelbar beteiligt wa-ren. Auch wenn es sich hier in erster Linie um den Schutz vor mechani-

Page 495: Photonik: Grundlagen, Technologie und Anwendung

480 12 Augenschutz und Augensicherheit

schen Einwirkungen handelt, so zeigt diese Statistik doch eindrucksvoll, welchen Gefahren unsere Augen im Berufsleben ausgesetzt sind. Das Er-gebnis legt dar, dass zum Thema Augen und Augenschutz großer Ge-sprächs- und Handlungsbedarf besteht.

Der Schutz vor optischer Strahlung mag sicherlich komplexer zu bewer-ten sein: Blendungen und Verblitzungen des Auges sind meist reversibel und werden relativ schnell, nach Stunden oder Tagen repariert. Lang-andauernde oder immer wieder kehrende Belastungen mit intensiver UV-VIS-IR-Strahlung machen sich erst nach langer Zeit, im Verlauf von Jah-ren als Schäden bemerkbar. Und meist sind diese dann irreversibel, also nicht mehr vollständig zu beheben und zu heilen.

12.1 Notwendigkeit für Augenschutz

12.1.1 Aufbau des Auges

Die wesentlichen Komponenten des menschlichen Auges sind in Abb. 12.1 dargestellt. Die wesentlichen Bestandteile eines Auges sind:

HornhautBindehaut

Abb. 12.1. Längsschnitt durch das menschliche Auge (nach Siekmann)

Page 496: Photonik: Grundlagen, Technologie und Anwendung

12.1 Notwendigkeit für Augenschutz 481

Iris oder Regenbogenhaut LinseGlaskörperNetzhaut mit der Fovea, dem Ort des schärfsten Sehens AderhautLederhaut.

Schädigungen können durch vielerlei Einwirkungen auftreten. Bei me-chanischen und chemischen Gefährdungen ist dies offensichtlich; anders hingegen verhält es sich bei Schädigungen durch optische Strahlung. Diese kann auftreten beim Schweißen und Schneiden mit Brennern, beim Um-gang mit Lasern oder beim Arbeiten an elektrischen Anlagen.

Die Eindringtiefe optischer Strahlung ist von der Wellenlänge abhängig (Abb. 12.2). Während kurzwellige Strahlung (UV-Strahlung) und langwel-lige IR-Strahlung bereits an der Oberfläche von Haut oder Auge absorbiert werden, dringt die sichtbare Strahlung und die im nahen infraroten Spekt-ralbereich tief ins Gewebe oder in die Haut ein. Auch sind Art und Schwe-re eines durch optische Strahlung hervorgerufenen Effekts von der Intensi-tät der Strahlung und von der langfristigen Dosis abhängig.

Abb. 12.2. Eindringtiefe optischer Strahlung verschiedener Wellenlängenbereiche in das Menschliche Auge (Quelle: Siekmann)

Page 497: Photonik: Grundlagen, Technologie und Anwendung

482 12 Augenschutz und Augensicherheit

12.1.2 Optische Strahlung - Begriffsbestimmung

Optische Strahlung ist die elektromechanische Strahlung im Wellenlän-genbereich zwischen 100 nm und 1 mm. Zur optischen Strahlung zählen ultraviolette, sichtbare und infrarote Strahlung. Die Übergänge zwischen den einzelnen Bereichen sind für jeden Menschen verschieden, insbeson-dere auch vom Alter abhängig. Die im folgenden angegebenen Grenzen werden von der CIE (Central Internationale Electrotechnique) empfohlen.

Ultraviolette Strahlung (UV-Strahlung) ist die Strahlung im Wellenlän-genbereich von 100 nm bis 400 nm. UV-Strahlung tritt intensiv beim Schwei-ßen, bei intensiver Sonneneinstrahlung, bei der Kunststoffhärtung oder bei medizinischen Therapien auf. UV-Strahlung hoher Intensität schädigt die vorderen Augenteile. Fotochemische Reaktionen in den Epithelzellen verur-sachen Entzündungen der Hornhaut (Photo-Keratitis) oder der Bindehaut (Photo-Konjunktivitis). Meist hat man das Gefühl, Sand in den Augen zu haben; die Entzündung ist äußerst schmerzhaft. Andererseits handelt es sich hierbei meist um eine reversible Reaktion des Auges auf eine intensive UV-Strahlung. Hingegen verursacht eine langandauernde UV-Strahlungsbelas-tung eine Trübung der Augenlinse (Grauer Star, Katarakt). In der Augenlinse werden keine neuen Zellen nachgebildet. Weil der Prozess durch eine irre-versible fotochemische Reaktion an Eiweißmolekülen ausgelöst wird, ist die Schädigung des Auges irreparabel. Es führt zu massiven Beeinträchtigungen des Sehvermögens bis hin zur Erblindung. In erster Linie trifft es Personen, die sich beruflich meist im Freien aufhalten, beispielsweise Straßenarbeiter, Landwirte oder Seeleute. Mit dieser Berufserkrankung vergleichbar ist der sogenannte Altersstar, der oft erst ab dem siebten Lebensjahrzehnt auftritt.

Sichtbare Strahlung (VIS-Strahlung) ist die optische Strahlung, die un-mittelbar einen visuellen Eindruck hervorrufen kann. Dies ist Strahlung im Wellenlängenbereich von 380 nm bis zu 780 nm. Das CIE empfiehlt, auch nur diesen Bereich als Licht zu bezeichnen. Dass das Sehen überhaupt ermöglicht wird, liegt daran, dass das Licht die Netzhaut ohne nennens-werte Abschwächung erreichen kann. Intensive sichtbare Strahlung kann die Netzhaut durch Erwärmung bleibend schädigen. Immer wieder wird bei einer Sonnenfinsternis beobachtet, dass sich Personen durch den unge-schützten Blick in die Sonne die Netzhaut bleibend thermisch schädigen.

Daneben kann bei intensiver Belastung mit kurzwelliger sichtbarer Strahlung die Netzhaut fotochemisch geschädigt werden (Blaulichtgefähr-dung, Photoretinitis). Die ICNIRP hat dazu auch eine Wichtungsfunktion festgelegt. Die höchste Schädigungspotenz tritt bei Strahlung mit einer Wellenlänge von 440 nm auf.

Bei hohen Leuchtdichten oder schnellen, kurzfristigen Leuchtdichteun-terschieden kann durch Blendung die visuelle Wahrnehmung behindert werden, wodurch mittelbare Gefahren auftreten.

Page 498: Photonik: Grundlagen, Technologie und Anwendung

12.1 Notwendigkeit für Augenschutz 483

Infrarote Strahlung (IR-Strahlung) ist die optische Strahlung im Wellen-längenbereich von 780 nm bis 1 mm. IR-Strahlung geht von rotglühendenMetallen, Metall- oder von Glasschmelzen aus. Sie kann Schädigungen der Netzhaut und Linse verursachen. Langandauernde (10 bis 30 Jahre) IR-Strahlung zwischen 780 nm und 3000 nm verursacht den grauen Star(Feuerstar, Glasbläserstar). Die Schädigung beruht meist auf einer Erwär-mung des Gewebes; sie ist irreversibel. Das berufliche Risiko ist jedoch hier nicht sehr hoch, da die durch Schmelzen emittierte intensive IR-Strahlung unmittelbar zu Schmerzen und Verbrennungen der Haut führt.

Künstliche optische Strahlung ist die optische Strahlung von künstlichen Quellen. Natürliche Strahlung ist die Strahlung von natürlichen Quellen; in erster Linie ist darunter Sonnenstrahlung zu verstehen.

Besonders zu betrachten ist die Laserstrahlung. Die Kollimierbarkeit und Fokussierbarkeit eines Laserstrahls kann schon bei geringen Leistun-gen oder Energien zu Netzhautschädigungen führen. Von den bekannten Schadensmechanismen im Auge her gesehen, scheint es jedoch keine Hinweise darauf zu geben, dass sich kohärente monochromatische Strah-lung grundlegend von inkohärenter Breitbandstrahlung unterscheidet.

12.1.3 Expositionsgrenzwerte

Ein Expositionsgrenzwert ist der maximal zulässige Wert für die Einwir-kung optischer Strahlung auf die Augen oder die Haut (BG-Information 5006). Diese werden von der ICNIRP (Internationale Kommission zum Schutz vor Nichtionisierender Strahlung) empfohlen und meist in Health Physics veröffentlicht. Heute gelten folgende Expositionsgrenzwerte (Aus-zug aus BG-Information 5006):

Der Tagesexpositionsgrenzwert für die effektive Bestrahlung durch UV-Strahlung auf die Augen beträgt 30 J/m² (im Wellenlängenbereich 180 bis 400 nm). Der Jahresexpositionsgrenzwert für die effektive Bestrahlung für die Dauer eines Jahres durch UV-Strahleneinwirkungen im Wellenlängen-bereich 180 nm bis 400 nm beträgt 4.000 J/m². Im Bereich des Vakuum-UV bei <180 nm gelten die Grenzwerte wie bei 180 nm. Die Expositionsgrenzwerte zum Schutz vor thermischer Netzhautge-fährdung im Bereich von 380 nm bis 1400 nm folgen einer recht kom-plizierten Abhängigkeit von Einwirkdauer und Winkelausdehnung derQuelle (DIN EN 14255 und BG-Information 5006). Zum Schutz vor langfristigen Schädigungen der Augenlinse (Linsentrü-bungen, Katarakte auf Grund von Kumulationswirkungen über 10 bis 30 Jahre) gilt für die maximale Bestrahlung 3 106 J/m² während einer täg-lichen Arbeitszeit von 8 h für den Bereich von 780 nm bis 3.000 nm.

Page 499: Photonik: Grundlagen, Technologie und Anwendung

484 12 Augenschutz und Augensicherheit

Um die Exposition der Augen gegenüber inkohärenter optischer Strah-lung zu ermitteln, werden Verfahren angewandt, die in den EN Normen 14255-1 (für UV-Strahlung) und 14255-2 (für Licht und IR-Strahlung) beschrieben sind [9]. Der Schutz vor Strahlung aus Lasereinrichtungen und die Klassifizierung von Laserstrahlquellen sind in der Normenreihe DIN EN 60825 (VDE 0837) festgelegt.

Die Übergänge zwischen den einzelnen Spektralbereichen sind selbst-verständlich fließend. Zu einer exakten Festlegung muss man genau die einzelnen Wechselwirkungen der Materie, im hier betrachteten Fall des Augengewebes Hornhaut und Netzhaut, mit der auftreffenden Strahlung betrachten. Bei Laserstrahlen und kurzen Laserstrahlpulsen kommen die lateralen und zeitlichen Strukturen der Laseremission hinzu. Auch ist die Durchlässigkeit des Auges vom Alter der zu schützenden Person abhängig. Mit zunehmenden Alter verschiebt sich die Transmission in den roten Spektralbereich; blaues Licht wird dann im vorderen Augenteil absorbiert.

12.1.4 Lichttransmission und Grenzwerte bei der Prüfung von Augenschutzprodukten

Den durch ICNIRP vorgegebenen Grenzwerten versuchen die Prüfnormen im Augenschutz Rechnung zu tragen. So beträgt bei Filtern der maximal erlaubte spektrale Transmissionsgrad im UV-Bereich 3 10-4% (zwischen 210 nm und 313 nm). Die maximal erlaubten IR-Transmission richten sich je nach Anwendungsfall und sind immer nach der sicheren Seite hin ausge-legt.

Augenschutzgeräte sollen es erlauben, das Umfeld zu sehen, in dem sich die zu schützende Person bewegt. Eine entscheidende Größe dabei ist der Lichttransmissionsgrad v. Dieser ist definiert als das Integral über den mit der Augenempfindlichkeitskurve V( ) bewerteten, spektralen Transmissi-onsgrad )( im Wellenlängenbereich von 380 nm bis 780 nm. Er wird bei Filtern allgemein auf die spektrale Strahlungsleistung e, der Normlichtart A bezogen (ein Planck’scher Strahler mit einer Temperatur von 2.856 K, vergleichbar mit Kunstlicht). Es gilt für den Lichttransmissionsgrad v :

780nm

e,380nm

v 780nm

e,380nm

( ) ( )d

( )d

V

V (12.1)

v : Lichttransmissionsgrad ( ) : spektraler Transmissionsgrad V( ): Augenempfindlichkeitskurve e, : spektrale Strahlungsleistung

Page 500: Photonik: Grundlagen, Technologie und Anwendung

12.2 Varianten im Augenschutz 485

Die V( )-Kurve bezieht damit die Lichttransmission auf das helladap-tierte Auge. Für eine Strahlung errechnet und summiert man bei der Wel-lenlänge die fotometrische Größe, indem man die radiometrische Größe mit der spektralen Empfindlichkeit des Auges für fotopisches Sehen mul-tipliziert. Im Augenschutz wird nur das fotopische Sehen (Tageslichtsehen)betrachtet. Das skotopische Sehen (Nachtsehen) wird beim Augenschutz nicht betrachtet, da an Arbeitplätzen allgemein auf ausreichende Beleuch-tung geachtet werden sollte (Abschn. 7).

Messtechnisch vereinfacht kann man den Lichttransmissionsgrad auch als das Verhältnis von durchgelassener Strahlungsleistung zur auffallenden Strahlungsleistung ansehen (wenn man die Detektoreinheit auf das fotopi-sche Sehen adaptiert). Dies geschieht durch die Kombination eines geeig-neten Filters mit einem Fotodetektor. Über geeignete Filter mit bekanntem Transmissionsverhalten wird das System kalibriert. Es gilt:

e,v

e,0

(12.2)

Für die unterschiedlichen Filter werden verschiedene Schutzstufen defi-niert. Im Schweißerschutz errechnet sich die Schutzstufe N aus der Licht-transmission gemäß folgender Gleichung:

v7int 1 log3

N (12.3)

Die Schutzstufe wird auf jeweils eine ganze Zahl gerundet. Die loga-rithmische Abhängigkeit entspricht dabei dem physiologischen Helligkeits-empfinden. Für unterschiedliche Schweißverfahren werden unterschiedli-che Schutzstufen empfohlen. Dabei ist festgelegt, dass die maximale Strahlenbelastung 730 cd/m² nicht übersteigen soll. Richtig angewandt schützen Schweißerschutzfilter bereits vor einer Blendung. Gleichzeitig lassen sie im Lichtbogen das Arbeitsumfeld noch erkennen.

12.2 Varianten im Augenschutz

Abbildung 12.3 zeigt das Produktspektrum an unterschiedlichen Augen-schutzgeräten, das im DIN CERTCO Prüf- und Zertifizierungszentrum in Aalen geprüft und bewertet wird. Dieses Bild gibt einen Überblick über die Fülle von Augenschutzgeräten. So groß wie ihre Vielfalt, so groß ist die Anwendungsbreite von Augenschutzgeräten.

Page 501: Photonik: Grundlagen, Technologie und Anwendung

486 12 Augenschutz und Augensicherheit

Abb. 12.3. Augenschutzgeräte

12.2.1 Schutz vor mechanischen Gefährdungen

Mechanische Gefährdungen des Auges können sich durch Fremdkörper wie Stäube und Festkörper (z. B. Späne, Splitter, Körner) ergeben, die das Auge treffen und verletzen. Stäube können zwischen Lid und Augapfel gelangen und zu Reizungen oder zu Entzündungen führen. Treffen Fest-körper auf das Auge, besteht die Gefahr, dass sie durch Eindringen in die Hornhaut diese verletzen. Die Gefährdung des Auges ist nicht nur von der Form der Festkörper, sondern auch von der kinetischen Energie abhängig, mit der das Auge getroffen wird.

Zu schwerwiegenden Verletzungen beim Umgang mit Handwerkszeug kommt es, wenn ein Werkzeug abgleitet oder splittert, und das Auge von Spänen, Splittern oder auch von der Spitze des Handwerkszeuges getroffen wird. Neben oberflächlichen Verletzungen werden oft auch die Hornhaut und nicht selten das Augeninnere schwer geschädigt. Am gefährlichsten sind beispielsweise Schraubendreher, Ahlen, Anreißnadeln, Schaber, Sche-ren und Messerklingen. Durch starke Schläge und Stöße werden das Auge und seine nähere Umgebung oft so schwer verletzt, dass der Augapfel in seiner Form zerfällt und die Sehfunktion zerstört wird. Schläge und Stöße können verursacht werden durch bewegte Gegenstände wie wegfliegende Brocken bei einer Explosion, Teile zerborstener Schleifscheiben und auf-schlagende Bälle sowie durch Anstoßen des Kopfes an festen Gegenstän-den. Abbildung 12.4 zeigt eine Augenverletzung durch das Eindringen eines Spans in die vorderen Augenpartien.

Page 502: Photonik: Grundlagen, Technologie und Anwendung

12.2 Varianten im Augenschutz 487

Abb. 12.4. Augenverletzung durch eine Metallborste im Auge (Quelle: www.stgb.de)

12.2.2 Chemische Gefährdungen

Chemische Gefährdungen können von festen, flüssigen oder gasförmigen Substanzen, von Dämpfen, Nebel oder Rauch ausgehen. Chemikalien kön-nen sich im Augenwasser lösen, zu Reizungen, Verätzungen oder allergi-schen Reaktionen führen. Säuren und Laugen können das Auge schwer schädigen. So sind in der chemischen Industrie auf allen Seiten geschlos-sene Schutzbrillen vorgeschrieben, welche Schutz vor dem Eindringen von Flüssigkeitsspritzern und –tropfen bieten. Die Sichtscheiben sind heute entweder aus Mineralglas oder Polycarbonat; auf jeden Fall gegenüber Chemikalien so inert, dass die zu schützende Person den Gefahrenbereich noch verlassen kann.

12.2.3 Thermische Gefährdungen

Hitze wird durch feste oder flüssige Körper (Berührungswärme), über Gase (Konvektionswärme) oder durch Infrarotstrahlung übertragen, wobei es zur Austrocknung und zu Hornhautreizungen kommen kann. Kälteeinwirkun-gen, ausgelöst beispielsweise bei längerem Aufenthalt in kalter Witterung oder Kühlhäusern, kann zum Tränen und zu Erfrierungen führen. Während man sich gegen die schädliche Wirkung von IR-Strahlung mit einem geeig-neten Filter schützen kann, helfen ansonsten allseits geschlossene Brillen nur bedingt. Etwas anders verhält es sich beim Beschlagen. Dies kann durch eine geeignete Beschichtung weitgehend unterbunden werden.

12.2.4 Biologische Gefährdungen

Gegen biologische Agenzien, wie Bakterien, Viren oder Sporen kann man sich nur durch ein geschlossenes Augenschutzgerät schützen. In mikrobio-logischen Labors mag es notwendig sein, sich gegen Flüssigkeitsspritzer zu schützen.

Page 503: Photonik: Grundlagen, Technologie und Anwendung

488 12 Augenschutz und Augensicherheit

12.2.5 Elektrische Gefährdungen

Bei Schaltarbeiten oder Kurzschlüssen in elektrischen Verteilungsanlagen können Überschläge und elektrische Störlichtbögen entstehen. Hohe Tem-peraturen, ein starker UV-Anteil und gesplitterte Teile oder Späne können Auge und Gesicht erheblich schädigen.

12.2.6 Arten von Augen- und Gesichtsschutz

Für die oben genannten Gefährdungen müssen Sichtscheiben und Trag-körper ausreichende mechanische Festigkeit aufweisen und gegen Tempe-ratureinwirkung und Chemikalien beständig sein. Von den verwendeten Materialien darf keine allergische Reaktion ausgelöst werden.

Sichtscheiben können neben dem mechanischem Schutz noch andere Merkmale aufweisen, beispielsweise beschlaghemmend oder kratzfest sein. In der Regel wird Einscheiben-Sicherheitsglas thermisch oder chemisch be-handelt oder gehärtet, um die Bruchfestigkeit zu erhöhen. Verbundsicher-heitsgläser bestehen aus mehreren miteinander verklebten Schichten. Nor-malerweise übernimmt eine der Schichten die Filterfunktion während die andere, meist die dünnere augenseitige Sichtscheibe die Bruchfestigkeit ge-währleistet.

Sofern gleichzeitig ein Schutz gegen glühende Teilchen, gegen mecha-nische Einwirkungen und eine ausreichend gute Filterfunktion gewährleis-tet sein muss, kann die Sichtscheibe mit Filterwirkung durch eine Vorsatz-scheibe geschützt werden.

Darüber hinaus kann Augen- und Gesichtsschutz auch aus Draht- oder Kunststoffgewebe bestehen (z. B. Waldarbeitervisiere).

12.2.7 Komponenten eines Augenschutzgerätes undEinsatzfelder

Eine Augenschutzgerät besteht aus folgenden Komponenten:

Tragkörper halten die Sichtscheibe am gewünschten Ort. Verbindungs-elemente sind Bügel, Kopfbänder oder Traghilfen zur Befestigung an SchutzhelmenSichtscheiben gegen mechanische Einwirkungen sind farblose Sicht-scheiben mit einem Lichttransmissionsgrad von mehr als 74%. Sicher-heitssichtscheiben müssen mindestens eine erhöhte Festigkeit (Test durch Kugelfall) aufweisen. Filtersichtscheiben sind gefärbte, getönte oder dielektrisch beschichtete Sichtscheiben, die je nach Schutzfunktion vor ultravioletter Strahlung,

Page 504: Photonik: Grundlagen, Technologie und Anwendung

12.2 Varianten im Augenschutz 489

Blendung durch sichtbare oder infrarote Strahlung oder gegen Laser-strahlung schützen. Schilde schützen neben den Augen auch Gesicht und Hals. Beispiele dafür sind Schweißerschutz-, Kopf- oder Handschilde. Meist bestehen diese aus lichtundurchlässigen Materialien, die genügend widerstandfä-hig gegen mechanische und thermische Einwirkungen sind. Im Schild ist ein Fenster zur Aufnahme der Filter und meist auch Vorsatzscheiben vorgesehen. Andere Schilde sind ganz aus durchsichtigen Materialien gefertigt. Für den Einsatz bei Feuerwehr, Polizei, oder auch bei Minen-suchern, müssen diese Scheiben sowohl gute optische Qualitäten auf-weisen, als auch einen ballistischen Schutz bieten.Schutzschirme und Visiere bestehen aus Sicherheitssichtscheiben und Traghilfen, die Augen, Gesicht und Teile des Halses schützen. Schutz-hauben schützen Kopf und Hals sowie je nach Ausführung die oberen Schulterbereiche. Man trägt sie direkt auf dem Kopf, befestigt sie an einem Schutzhelm oder zieht sie über denselben.

12.2.8 Schutz vor optischer Strahlung

Wie bereits ausgeführt, kann jegliche Art intensiver optischer Strahlung zu Schäden an Augen und Haut führen. Arbeitnehmer sind bei der Berufsaus-übung einer Vielzahl künstlicher optischer Strahlquellen ausgesetzt. Die Spanne reicht dabei von Bildschirmarbeitsplätzen bis hin zum Lichtbogen beim Schweißen, als Beispiel für eine künstliche inkohärente Strahlungs-quelle, oder zu Lasermaterialbearbeitungsanlagen, als Beispiel für eine künstliche kohärente Strahlungsquelle.

Oft setzt man sich auch bewusst intensiver Bestrahlung aus (natürlich beim Wintersport, künstlich in Solarien). Auch hier sind Schutzmaßnah-men erforderlich.

Die Strahlungsexposition kann sowohl zu akuten Schäden (Hornhaut- oder Bindehautentzündung, Hautrötung, kurzzeitige Blendung), als auch zu Spätschäden führen (z. B. Trübung der Augenlinse, Glasbläserstar oder Hautkrebs). Dabei bestimmen Einwirkdauer, Strahlenart, Wellenlänge und Belastung die möglichen Schädigungen. Abbildung 12.5 zeigt ein während des Schweißens verblitztes Auge.

Abb. 12.5. Verblitztes Auge (Quelle: www.stbg.de)

Page 505: Photonik: Grundlagen, Technologie und Anwendung

490 12 Augenschutz und Augensicherheit

Ende 2004 war mit der Veröffentlichung der EU-Richtlinie Schutz vor optischer Strahlung zu rechnen. Daher wurde die Fertigstellung der BGV B9: Schutz vor optischer Strahlung gestoppt. Um überhaupt Expositions-grenzwerte für Glasbläser, Beleuchter, Schweißer, Hochofenarbeiter, IR-Trockners und für Solarien angeben zu können, hat die Berufsgenossen-schaft für Feinmechanik und Optik eine BGI-Schrift herausgegeben: Expo-sitionsgrenzwerte für künstliche optische Strahlung. Die dort aufgeführten Werte entsprechen weitgehend den ICNIRP-Empfehlungen. Eine gute aktuelle Übersicht über den Schutz vor optischer Strahlung, nicht allein wie der Titel darlegt über den Schutz vor Laserstrahlung, gibt Sutter.

12.3 Zwei besondere Arten von Augen- und Gesichtsschutz

Zwei Bespiele erläutern, welche Anforderungen man heute als verantwort-licher Sicherheitsingenieur in einem Betrieb an Augenschutzgeräte stellen sollte.

12.3.1 Automatische Schweißerschutzfilter

Historisch wurde vor nunmehr über 100 Jahren der Bedarf von Augen-schutzgeräten, welche neben der mechanischen Schutzfunktion auch gegen optische Strahlung schützen sollen, mit dem Nutzen von elektrischen Schweißanlagen offensichtlich. So entwickelte sich während zunehmender Industrialisierung ein Bewusstsein, dass die Augen vor intensiver optischer Strahlung zu schützen sind, ausgelöst durch eine Reihe von Augenunfällen (Verblitzen) beim Elektroschweißen.

Zum Schutz vor den hohen Leuchtdichten beim Schweißen gibt es ver-schiedene Schutzvorrichtungen. Zum ersten sind dies die klassischenSchweißerschutzfilter, durch die man den Schweißprozess noch beobachten kann. Hierbei handelt es sich meist um eingefärbte Mineralgläser. Für gerin-ge Schutzanforderungen kann man auch eingefärbte Polycarbonatscheiben benutzen. Der vorrangige Schutz ist dabei der Blendschutz, der tiefer liegt als die Schädigungsgrenze. Wie zuvor beim Lichttransmissionsgrad bereits ausgeführt, werden Schweißerschutzfilter entsprechend der Schutzstufe auf einer logarithmischen Skala eingestuft. Diese Beziehung wurde so gewählt, weil bei der Auswahl der Filter der Blendschutz im Vordergrund steht.

Passive Schweißerschutzfilter mit für das Elektroschweißen ausreichen-der Schutzstufe haben jedoch einen großen Nachteil. Ohne Lichtbogen ist das Schweißgut nicht zu erkennen. Der Schweißer ist also gezwungen, am Schweißschild vorbeizuschauen, die Elektrode anzusetzen und gleichzeitig

Page 506: Photonik: Grundlagen, Technologie und Anwendung

12.3 Zwei besondere Arten von Augen- und Gesichtsschutz 491

mit dem Zünden den Schutzschild mit dem Filter schnell genug vor die Augen zu führen. Meist dauert dieser Vorgang zu lange; gerade Berufs-schweißer sind also einer zu hohen Belastung mit optischer Strahlung aus-gesetzt. Dies hat vor nunmehr 20 Jahren zur Entwicklung sogenannter elektrooptischer bzw. automatischer Schweißerschutzfilter geführt. Diese Filter bieten den Vorteil, im Hellzustand eine hohe Transmission aufzu-weisen. Durch den Lichtbogen ausgelöst, schalten diese Filter dann auto-matisch in einen dunkleren Zustand, also in einen mit hoher Schutzstufe. Auch im geschalteten Zustand liefert der Lichtbogen genug Strahlung, um die Bearbeitungsszene erkennen zu können. Die Belastung des Auges ist jedoch so gering, dass ein Verblitzen des Auges nicht stattfindet.

Abb. 12.6. Beispielse für automatische Schweißerschutzfilter; rechts Schweiß-helm

Ein automatischer Schweißerschutzfilter (ADF, Abb. 12. 6) besteht aus einer Liquid-Crystal-Schicht (LCD) zwischen zwei Polarisationsfolien. Eine dieser Folien dient als Polarisator, die andere als Analysator. Normalerweise sind beide Folien senkrecht zueinander angeordnet, also lichtundurchlässig. Die Kristallstruktur der Moleküle in der LCD-Schicht ist jedoch so angeord-net, dass, wenn kein elektrisches Feld anliegt, auf das LCD treffendes polari-siertes Licht in seiner Schwingungsebene um 90° gedreht wird. Somit wird insgesamt im nichtgeschalteten Zustand das auf den ADF treffende Licht durch den Polarisator linear polarisíert. Durch den LCD wird die Schwin-gungsebene um 90° gedreht, wodurch es den senkrecht zum Polarisator ste-

Page 507: Photonik: Grundlagen, Technologie und Anwendung

492 12 Augenschutz und Augensicherheit

henden Analysator passieren kann. Der ADF ist transparent. Da nicht alles Licht transmittiert wird, beträgt die Schutzstufe hier etwa 3 bis 4.

Durch einen externen Lichtbogen angesprochen, legt die Sensorik eine Spannung an die LCD-Zelle. Dadurch richten sich die LC-Moleküle an-ders aus. Das im Polarisator linear polarisierte Licht wird nicht mehr in seiner Schwingungsebene gedreht. Der ADF wird dadurch absorbierend – er schaltet in den so genannten Dunkelzustand. Je nach angelegter Span-nung können unterschiedliche Dunkelzustände, d. h. unterschiedliche Schutzstufen (9 bis 13) geschaltet werden.

Komplettiert wird die LCD-Zelle durch je einen passiven Filter für den UV- und den IR-Bereich. Zum weiteren mechanischen Schutz dienen noch Vorsatz- und Hinterlegscheiben. Alle diese Filter- und Sicherheitsscheiben können miteinander verklebt sein.

Die grundlegenden Spezifikationen dieser automatisch schaltenden Schweißerschutzfilter sind mit denen anderer Filter vergleichbar. Hinzu kommen noch folgende Besonderheiten, die entsprechend der Prüfnorm EN 379 untersucht werden:

Homogenität: die Transmission am linken und rechten Durchblickpunkt darf sich nur wenig voneinander unterscheiden. Die Filter müssen also gleichmäßig dunkel schalten.Lichtdiffusion: die Streulichteigenschaften vom Hellzustand müssen auch bei den Dunkelstufen vorhanden sein. Ist dies nicht der Fall, muss sich das Augen zu sehr anstrengen, um ein kontrastreiches Bild als sol-ches noch gut erkennen zu können. Schaltzeit und Lichttransmission bei Temperatur: die Schaltzeit vom Hellzustand in den Dunkelzustand muss schnell genug erfolgen, so dass das Augen beim Zünden des Lichtbogens nicht geblendet wird. Die Lichttransmission in den Dunkelzuständen muss stimmen. Diese Eigen-schaften müssen im Bereich von +55°C bis –5°C möglich sein.

12.3.2 Laserschutzfilter

Laserschutzfilter und Laser-Schutzbrillen bzw. Laser-Justierbrillen werden beim Umgang mit Laserstrahlquellen eingesetzt. Darin sind auch LED-Strahlquellen eingeschlossen. Laserschutzfilter unterscheiden sich grund-legend von allen anderen Schutzfiltern. Zunächst ist festzuhalten, dass die Schutzstufen bei Laserschutzfiltern dekadisch angeordnet sind. Mit jeder Schutzstufe ändert sich die maximale Belastbarkeit um den Faktor 10. Laserschutzfilter schützen nicht über den gesamten Spektralbereich, son-dern ihr Schutz gilt immer nur für einen eingeschränkten Spektralbereich.

Entsprechend DIN EN 60825-1:2001 (VDE 0837) werden Laseranlagen verschiedenen Klassen zugeordnet. Diese Klasseneinteilung macht für den

Page 508: Photonik: Grundlagen, Technologie und Anwendung

12.3 Zwei besondere Arten von Augen- und Gesichtsschutz 493

Nutzer die mögliche Gefährdung durch die Anlage sofort ersichtlich. Mit zunehmender Klasse steigt auch die Gefährdung. Für die richtige Klassifi-zierung ist der Hersteller der Anlage zuständig. Entsprechend der Klasse hat dann der Nutzer die geeignete Schutzbrille (Filter im Tragkörper) aus-zusuchen. Grundsätzlich gilt, dass der Filter nur gegen zufällig auftreffen-de Laserstrahlung schützen kann und unter keinen Umständen dazu geeig-net ist, direkt in den Strahl zu blicken.

Mit der Auswahl der richtigen Schutzbrille ist also immer auch eine Ge-fährdungsanalyse durchzuführen. Dabei sind folgende Fragen zu klären:

An welcher Stelle der Anlage kann Laserstrahlung austreten. Sind bauli-che Maßnahmen zum Laserschutz erforderlich?

Wie ist das Strahlführungssystem beschaffen? Wird der Laserstrahl frei über Spiegel geführt oder wird ein fasergekoppeltes System eingesetzt? Bei letzterem ist abzuschätzen, ob die Faser brechen und somit Strahlung ungehindert austreten kann.

Welche Eigenschaften soll der Laserstrahl am Wirkort aufweisen? Trifft der Laserstrahl kollimiert oder fokussiert auf den Wirkort? In der Material-bearbeitung ist auf die Art der Materialien zu achten. Viele Werkstoffe reflektieren den Laserstrahl sehr stark; gekrümmte Oberfläche kollimieren oder fokussieren den Laserstrahl wieder.

Welche Wellenlänge hat der Laserstrahl? Wie sieht das zeitliche Profil des Laserstrahls aus? Handelt es sich um einen Dauerstrich- oder um einen gepulsten Laser.

Auswahl der richtigen Laserschutzbrille / Laserjustierbrille

Die richtige Auswahl einer Laserschutzbrille bzw. einer Laserjustierbrille muss den Vorgaben folgen, wie sie in der Norm DIN EN 207 für Laser-schutzbrillen festgelegt sind. DIN EN 208 legt dies für Laserjustierbrillen fest. Laserschutzbrillen müssen die Intensität der Laserstrahlung auf ein ungefährliches Maß zu reduzieren. Letzteres wird von der DIN EN 60825 vorgegeben und als MZB-Wert (MZB: maximal zulässige Bestrahlung) bezeichnet. Diese Schutzfunktion kann entweder durch Absorption oder durch Reflexion erreicht werden. Die Schutzstufe N wird immer abgerundet.

/E EMZB /MZBH H (12.4)

E: Leistungsdichte H: Energiedichte

Für die Schutzstufe N aus der Transmission gilt:

logintN (12.5)

Bei der Prüfung nach DIN EN 207 werden Laserschutzfilter auch einer Laserbelastung unterzogen. Dies bedeutet, dass der Transmissionsgrad

Page 509: Photonik: Grundlagen, Technologie und Anwendung

494 12 Augenschutz und Augensicherheit

sich während einer 10 s- bzw. 100 Pulse-Prüfdauer eines Laserschutzfilters nicht ändern darf. Der Filter darf während dieser Zeit nicht durchbohrt werden; er darf natürlich auch nicht zerspringen. Er darf aber aus einem Verbundglas bestehen, also reißen. Jedoch darf die Transmission nicht abnehmen. Gerade bei Ultrakurzpulsern kann es passieren, dass der Filter reversibel oder irreversibel bleicht. Diese Prüfung soll dem Benutzer ge-nug Zeit geben, den Gefahrenbereich zu verlassen. Abbildung 12.7 zeigt beispielhaft die Prüfung einer Laserschutzbrille bei 532 nm.

Abb. 12.7. Prüfung einer Laserschutzbrille bei 532 nm (Quelle: Bayerisches La-serzentrum BLZ Erlangen)

Aus Laserbelastbarkeit und Transmissionsgrad (meist als optische Dich-te angegeben) ergibt sich – aus Sicherheitsüberlegungen grundsätzlich auf die nächste ganze Zahl abgerundet! – die Schutzstufennummer. Die Schutzstufennummer ist also eine gemeinsame Größe, welche sich über die optische Dichte und die Leistungs- bzw. Energiedichte definiert, bei welcher die Laserbelastbarkeit durchgeführt wurde. Der Wellenlängenbe-reich von 180 nm bis 1 mm wird dabei in drei Gruppen eingeteilt:

UV 180 bis 315 nm: Strahlung wird in der Hornhaut absorbiert.. UV, VIS, NIR >315 bis 1400 nm: Strahlung wird auf die Netzhaut fo-kussiertMIR, FIR >1,4 µm bis 1 mm: Strahlung wird in der Hornhaut absorbiert

Jede dieser Gruppen besteht wieder aus drei Spalten, die für die unter-schiedlichen Laserarten die Angaben von maximal möglichen Leistungs-

Page 510: Photonik: Grundlagen, Technologie und Anwendung

12.3 Zwei besondere Arten von Augen- und Gesichtsschutz 495

und Energiedichten enthalten. Dabei werden die Laserarten Dauerstrichla-ser (D), Impulslaser (I), Riesenimpulslaser (R) und modengekoppelte Im-pulslaser (M) unterscheiden. Zur Auswahl der richtigen Schutzstufe sollte man dem Schema nach Tabelle 12.1 folgen.

Tabelle 12.1. Zeitliche Abgrenzung der Laserarten für die Auswahl der Laser-schutzfilter nach DIN EN 207

Zeit Wellenlänge s 180 nm bis

315 nm 315 nm bis 1400 nm

1400 nm bis 106 nm

< 10-9 Modengekoppelte Impulslaser (M)

10-9 bis 10-7 Riesenimpulslaser (R)

10-7 bis 5·10-4 Impulslaser (I)

5·10-4 bis 0,1

0,1 bis 3·104 Dauerstrichlaser (D)

> 3·104

In Abb. 12.8 ist der Rechengang zur Bestimmung der Schutzstufe von Laserschutzfiltern schematisch dargestellt.

Abb. 12.8. Schematische Darstellung des Rechengangs zur Bestimmung der Schutzstufe von Laserschutzfiltern

Page 511: Photonik: Grundlagen, Technologie und Anwendung

496 12 Augenschutz und Augensicherheit

Laserjustierbrillen nach DIN EN 208 dienen der Justierung von Strah-lengängen mit sichtbarer Laserstrahlung (400 nm bis 700 nm). Damit der Benutzer einen visuellen Eindruck der Strahlung erhalten kann, soll ein gewisser Anteil der Laserstrahlung noch auf das Augen fallen können. Dies darf jedoch nie so viel sein, dass die Gefahr eines bleibenden Scha-dens besteht. Dies heißt, zum Laserschutz werden auch noch aktive Ab-wehrreaktionen, beispielsweise der Lidschlussreflex betrachtet. Demnach beträgt die maximal zulässige Belastung des Auges mit Laserstrahlung kleiner als 1 mW bei Dauerstrichlasern bzw. kleiner 2·10-7 J bei Pulslasern.

Von Seiten der Berufsgenossenschaft wurde eine Informationsschrift zur Auswahl und Benutzung von Laser-Schutzbrillen und Laser-Justrierbrillen verfasst, welche neben den Normen zur Klassifizierung von Laseranlagen und der Prüfnorm zu Laserschutzbrillen (DIN EN 207) und Laserjustierbrillen (DIN EN 208) unbedingt herangezogen werden sollte.

12.4 Das Regelwerk - Konformität und Normung imAugenschutz

Heute, im Jahre 2005, ist das aktuell anzuwendende Regelwerk zum Schutz vor optischer Strahlung immer noch durch Veränderungen und Umbrüche gekennzeichnet. Die bisherigen Regelungen werden derzeit überarbeitet. Noch ist aber nicht vollständig abzusehen, welche Vorschrif-ten kommen und welchen Inhalt bzw. Bedeutung im täglichen Nutzen diese Änderungen haben werden (Siekmann, Regelungen zum Schutz vor optischer Strahlung, 2004).

12.4.1 Gesetzesgrundlage Richtlinie und GPSG

Das Arbeitsschutzgesetz schreibt dem Arbeitgeber und Unternehmer vor, dass er alle „erforderlichen Maßnahmen des Arbeitsschutzes unter Berück-sichtigung der Umstände zu treffen hat, welche die Sicherheit und die Gesundheit der Beschäftigten bei der Arbeit beeinflussen“ (Art.3 Arbeits-schutzgesetz ArbSchG). Dies bedeutet, dass der Arbeitgeber und Unter-nehmer eine Risiko- und Gefährdungsanalyse durchzuführen hat und die Arbeit entsprechend des Stands der Technik durch bauliche und organisa-torische Maßnahmen so zu gestalten hat, dass durch die Arbeitsverrichtung Leben und Gesundheit seiner Arbeitnehmer nicht gefährdet sind. „Die Beschäftigten sind verpflichtet, nach ihren Möglichkeiten sowie gemäß der Unterweisung und Weisung des Arbeitsgebers (oder eines Bevollmächtig-ten) für ihre Sicherheit und Gesundheit bei der Arbeit Sorge zu tragen“ (Art. 15 ArbSchG). Dieser Grundsatz gilt für den Beschäftigten selbst wie

Page 512: Photonik: Grundlagen, Technologie und Anwendung

12.4 Das Regelwerk - Konformität und Normung im Augenschutz 497

auch für die Kollegen, von denen niemand durch fehlerhafte und oder fahr-lässige Handlungen beeinträchtigt werden sollte.

Übertragen auf den Augenschutz bedeutet dies: Ist es dem Arbeitgeber nicht möglich, durch organisatorische oder bau-

liche Maßnahmen die Augensicherheit seiner Beschäftigten sicherzustel-len, so muss er geeignete persönliche Schutzausrüstungen, bereitstellen. Der Arbeitnehmer hingegen ist verpflichtet, diese bereitgestellte persönli-che Schutzausrüstung bei seiner Tätigkeit auch zu benutzen. Für den Au-genschutz bedeutet dies, dass alle Personen, die sich in einem für die Au-gen betreffenden Gefahrenbereich aufhalten, eine Schutzbrille tragen müssen.

Was im beruflichen Umfeld gilt, sollte im privaten Umfeld umso mehr anzuwenden sein – denn die meisten Augenunfälle passieren immer noch, weil keine Schutzbrille getragen wird.

PSA-Richtlinie

Vor gut 10 Jahren hat man im Europäischen Wirtschaftsraum ein einheitli-ches Regelwerk für persönliche Schutzausrüstung geschaffen. So unterlie-gen heute Augenschutzprodukte im beruflichen Einsatz der EU-Richtlinie 89/686/EWG (PSA-Richtlinie: Richtlinie des Rates vom 21. Dezember 1989 zur Angleichung der Mitgliedsstaaten für persönliche Schutzausrüs-tung). Wie alle Europäischen Richtlinien so wurde auch die PSA-Richtlinie in nationales Recht überführt, in Deutschland in die 8. Verord-nung zum Geräte- und Produkte-Sicherheitsgesetz; Verordnung über das Inverkehrbringen von persönlicher Schutzausrüstung – 8.GPSGV.

Die PSA-Richtlinie unterscheidet zwischen drei Kategorien:

Zur Kategorie I gehören ausschließlich PSA, bei denen der Nutzer selbst eine Gefährdungsanalyse durchführen kann, beispielsweise Gar-tenhandschuhe, Handschuhe gegen schwach aggressive Reinigungsmit-tel u.ä. - aber auch Sonnenbrillen für den privaten Gebrauch.Zur Kategorie III gehören die komplexen Schutzausrüstungen. Hier besteht die Gefahr, dass der Nutzer einen ernsten, meist irreversiblenGesundheitsschaden erleidet oder sich einer tödlichen Gefahr aussetzt, wenn die Schutzausrüstung versagt. Dazu zählen dann alle Atem-schutzgeräte, Tauchgeräte, Filter zum Schutz gegen toxische Aerosole oder radiotoxische Gase, Schutz gegen ionisierende Strahlung. Aber auch Augenschutzgeräte, die für den Einsatz bei hohen Temperaturenmit extrem intensiver IR-Strahlung konzipiert sind, bei denen das Risi-ko von Flammen, elektrischen Überschlägen, Störlichtbögen oder Schmelzmaterialspritzern besteht. Hochofenarbeiter sollten also grund-sätzlich nur Augenschutzgeräte der Kategorie III benutzen.

Page 513: Photonik: Grundlagen, Technologie und Anwendung

498 12 Augenschutz und Augensicherheit

Zur Kategorie II gehören alle übrigen persönlichen Schutzausrüstungen.Pauschal kann man festhalten, dass jegliche persönliche Schutzausrüs-tung, so auch jedes Augenschutzgerät, welches für berufliche Zwecke eingesetzt wird, mindestens der Kategorie II zuzuordnen ist – und damit einer Prüfpflicht unterliegt. Die PSA-Richtlinie fordert nur, dass Augen-schutzgeräte den Sicherheitsanforderungen genügen müssen. Sie macht jedoch keine Aussage, welche der Anforderungen für eine Prüfung zugrunde zu legen sind. Vielmehr bestimmt die PSA-Richtlinie, dass so-weit verfügbar europaweit harmonisierte Normen anzuwenden sind. Auch wenn den Normen und Standards niemals eine gesetzesgleiche Rolle zukommen darf; schließlich werden Normen von interessierten Kreisen der Industrie erlassen, so erhalten sie durch diese Bestimmung einen gesetzesähnlichen Charakter. Damit soll auch sichergestellt sein, dass die akkreditierten Prüflabors vergleichbare Messungen durchführen. Davon getrennt ist das Bewertung- und Zertifizierungsverfahren zu se-hen, welches eine EU-benannte Stelle durchführt. Diese bestätigt dann, dass die EG-Baumuster-Typprüfung durchgeführt wurde und der Her-steller bzw. der Vertreiber berechtigt ist, das CE-Zeichen zu verwenden und das betreffende Augenschutzgerät in Europa zu vermarkten.

12.4.2 CE-Zeichen

Erfüllt ein Produkt erfolgreich die Mindestanforderungen, also hat es die in Normen festgelegten Merkmale. Dann gilt die Konformitätsvermutung:Erfüllt ein Augenschutzprodukt die in einer Norm festgelegten Merkmale, so erfüllt es auch die in der Richtlinie geforderten Mindestanforderungen. Danach darf der Hersteller bzw. der Importeur sein Produkt mit dem CE-Zeichen versehen (Abb. 12.9). Dieses spezielle Produkt ist in allen Staaten der Europäischen Union und in den meisten assoziierten Staaten (bspw. der Schweiz) frei handelbar. Es handelt sich also hierbei um eine einmalig durchzuführende EG-Baumuster-Typprüfung. Dass ein spezielles Produkt technisch unverändert vertrieben und gehandelt wird, erklärt ein Hersteller durch eine sogenannte Konformitätserklärung (Declaration of Conformi-ty). Das CE-Zeichen ist also allein ein Konformitäts- und ein Freihandels-zeichen; es ist nicht mit einem Qualitätszeichen zu verwechseln.

Abb. 12.9. CE-Zeichen

Page 514: Photonik: Grundlagen, Technologie und Anwendung

12.4 Das Regelwerk - Konformität und Normung im Augenschutz 499

12.4.3 GS-Zeichen / DIN-Qualitätszeichen

Neben der CE-Kennzeichnung sieht das GPSG vor, dass zusätzlich das GS-Zeichen (Geprüfte Sicherheit) für ein Augenschutzgerät vergeben wer-den kann. Produkte, welche das GS-Zeichen führen, unterliegen einer re-gelmäßig durchzuführenden Überwachung.

Oftmals ist an das GS-Zeichen auch an eines der DIN-Konformitäts-und/oder Qualitätszeichen gekoppelt (Abb. 12.10). Hier werden die Proben, welche zur Erst-Zulassungsprüfung wie auch zur Wiederholungsprüfung benötigt werden, beim Hersteller aus dem Lager entnommen. Auch wird geprüft, ob der Hersteller über geeignete Mess- und Prüfgeräte verfügt bzw. darauf Zugriff hat, damit er gewährleisten kann, dass gleichbleibend hohe Qualitätsstandards erfüllt werden, Auch wenn diese Produktzertifizierung nur am Rande mit einer Prozesszertifizierung im Qualitätswesen zu verglei-chen ist, so ist eine Prüfung und Bewertung nach der ISO 9000-Familie sehr hilfreich.

Abb. 12.10. DIN- und GS-Zeichen

Die Erstzulassung nach dem GS/DIN-Zertifizierungsprogramm und die Kennzeichnungsberechtigung gilt zunächst für ein Jahr. Danach erfolgt eine neue Probenahme und Typprüfung. Werden keine Abweichungen zum ersten Vorgang festgestellt, erhält der Hersteller die Kennzeichnungs-berechtigung für weitere vier Jahre. In der Zwischenzeit muss der Herstel-ler durch Eigenüberwachung die wesentlichen Anforderungen sicherstel-len. Das gesamte Ablaufschema, auch die Ereignisse, die zum Entzug der Kennzeichnungsberechtigung führen können und müssen, sind dort mit aufgeführt. Diese GS/DIN-Konformitäts- und Qualitätszeichen sind we-sentlich höher einzuschätzen als das CE-Zeichen, da letzteres nur aufgrund einer einmaligen Typprüfung vergeben wird. Prüf- und Zertifizierungsstel-le für das DIN/GS-Zeichen ist in Deutschland die Firma DIN CERTCO GmbH in Aalen. Abbildung 12.11 zeigt in einer Übersicht die Prüfungs- , Bewertungs- und Zertifizierungsstufen.

Page 515: Photonik: Grundlagen, Technologie und Anwendung

500 12 Augenschutz und Augensicherheit

Abb. 12.11. Ablaufschema einer GS/DIN-Zertifizierung von Augenschutzgeräten beim DIN CERTCO Prüf- und Zertifizierungszentrum in Aalen

12.5 Normung Augenschutz

12.5.1 Europäisch harmonisierte Normen

In den vergangenen Jahren hat man alle Normen und Standards, die im Augenschutz relevant sind, als Europäisch harmonisierte Normen überar-

Page 516: Photonik: Grundlagen, Technologie und Anwendung

12.5 Normung Augenschutz 501

beitet und neu verabschiedet. Grundlegende Norm ist heute die DIN EN 166: Anforderungen von Augenschutzgeräten. Die DIN EN 167 beschreibt die optischen Prüfverfahren und die DIN EN 168 regelt die nicht-optischenPrüfverfahren. Die Normen DIN EN 169 bis DIN EN 175 fassen dann die Forderungen zusammen, die an die Filter zu stellen sind.

Wie bereits erwähnt, werden Normen von den interessierten Kreisen verfasst und verabschiedet. Normen sind leichter auf dem aktuellen Stand zu halten als Rechtsvorschriften und damit sind technologische Neuerun-gen leichter in Regulierungsanforderungen zu berücksichtigen. Dies heißt aber auch, dass die Prüfverfahren modifiziert werden können, wenn das neu konzipierte Verfahren dem älteren überlegen ist, einfach weil es dem aktuellen Stand der Technik entspricht.

Schwieriger wird die Aufgabe, wenn ein Augenschutzgerät untersucht, bewertet und zertifiziert werden soll, zu dem noch keine Norm vorliegt. Hier liegt es in der Verantwortung des Bewerters und Zertifizierers, ob der betreffende Augenschutz den grundlegenden Anforderungen genügt und zugelassen wird.

12.5.2 BGI Informationen und Regeln

Neben den Richtlinien und Gesetzen einerseits und den Normen anderer-seits regeln die Unfallverhütungsvorschriften der Berufsgenossenschaften,deren Informationsschriften und Regeln den praktischen Einsatz von Au-genschutzgeräten. Während erstere die grundlegenden Anforderungen fest-legen, umfasst die zweite Gruppe die Anforderungen an Augenschutzgeräte aus Sicht der interessierten Kreise, welches Hersteller und Anwender um-fasst. Die Berufsgenossenschaften geben Anwendungskriterien und –emp-fehlungen an die Arbeitgeber und –nehmer heraus, welche einzuhalten sind.

Auch diese Schriften sind einem ständigen Wandel unterworfen. So hat beispielsweise das Fehlen von allgemein verbindlichen Vorschriften und Grenzwerte zum Schutz vor optischer Strahlung im Jahre 2003 zur Unfall-verhütungsvorschrift BGV B9: „Künstliche optische Strahlung“ geführt. Diese ist zur Zeit jedoch nicht verfügbar bzw. außer Kraft gesetzt, da von der EU-Kommission eine Richtlinie zum Schutz vor optischer Strahlung ausgearbeitet wird. Zu erwarten ist hier, dass die EU-Kommission den Empfehlungen der ICNIRP folgen wird. Es muss also damit gerechnet wer-den, dass sich die Grenzwerte und die Expositionswerte ändern werden.

Insgesamt verlangen die Berufsgenossenschaften, dass Schutzbrillen be-reitzustellen und zu tragen sind, wenn ein Gefahrenpotenzial für Augen-schutz besteht (Abb. 12.12).

Page 517: Photonik: Grundlagen, Technologie und Anwendung

502 12 Augenschutz und Augensicherheit

Abb. 12.12. Hinweissymbol / Gebotszeichen für das Tragen von Augenschutz

12.5.3 Kennzeichnung von Augenschutzgeräten

Der Nutzer muss am Augenschutzgerät unmittelbar erkennen können, wel-chen Schutz die Brille, die Sichtscheibe oder der Tragkörper bieten. Die grundlegenden Spezifikationen sind also vom Hersteller am Tragkörper und auf der Sichtscheibe anzubringen. Im folgenden sind die technischen Daten in der Reihenfolge erläutert, so wie sie am Augenschutzgerät anzu-bringen sind.

12.5.4 Kennzeichnung von Sichtscheiben und Filterscheiben

Sichtscheiben und Filterscheiben müssen Hinweise und technische Infor-mationen beinhalten und sind nach Tabelle 12.2 wie folgt zu kennzeichnen:

Tabelle 12.2. Kennzeichnung von Schichtscheiben und Filterscheiben

12.5.5 Schutzstufen

Die Transmission einer Filterscheibe in einem bestimmten Wellenlängenbe-reich wird durch die Schutzstufe wiedergegeben. Die Schutzstufe besteht aus einer Vorzahl (Tabelle 12.3) und, durch einen Bindestrich getrennt, der Schutzstufennummer. Dabei gilt, je höher die Schutzstufennummer, desto

Page 518: Photonik: Grundlagen, Technologie und Anwendung

12.5 Normung Augenschutz 503

geringer die Transmission für optische Strahlung, desto höher ist die Schutzfunktion.

Tabelle 12.3 listet die Vorzahlen auf und verweist auf die entsprechen-den Normen, in der die Grenzwerte zu finden sind.

Tabelle 12.3. Vorzahlen bei Schutzfiltern

Filtertyp Vorzahl Schweißerschutzfilter Ohne Vorzahl UV-Filter Vorzahl 2 IR-Schutzfilter Vorzahl 4 Sonnenschutzfilter Vorzahl 5 wenn keine erhöhten Eigenschaften an IR-Filter

Vorzahl 6, wenn erhöhte Eigenschaft an IR-Filterfunktion

12.5.6 Optische Klasse

Es ist wichtig, dass der Nutzer eines Augenschutzgeräts die Bearbeitungs-szene verzerrungsfrei erkennen kann. Sollte die Sichtscheibe eine sphäri-sche, astigmatische und/oder prismatische Wirkung besitzen, muss sich das Auge auf die Szene akkomodieren. Dies führt zwangläufig zu Ermü-dungen. Demzufolge werden die Sichtscheiben in drei Klassen eingeteilt (Tabelle 12.4).

Tabelle 12.4. Optische Klassen

Optische Klasse Bedeutung

1 Für Arbeiten mit hohen Anforderungen an die Sehleistung; für den Dauereinsatz geeignet.

2 Für Arbeiten mit durchschnittlichen Anforderungen an die Sehleistung; für den Dauereinsatz bedingt geeignet.

3Nur in Ausnahmefällen zu verwenden, ohne größere Anforde-rungen an die Sehleistung; nicht für einen lang andauerenden Gebrauch geeignet.

Einzig bei Vorsatzscheiben wird keine optische Klasse angegeben. Die-se müssen immer die Anforderungen an die optische Klasse 1 erfüllen.

12.5.7 Mechanische Festigkeit

Tabelle 12.5 zeigt die verschiedenen Kurzzeichen für die mechanischeFestigkeit von Sichtscheiben. Dazu werden die Sichtscheiben in der Regel im Tragkörper geprüft. Sichtscheiben und Tragkörper sollten also die glei-

Page 519: Photonik: Grundlagen, Technologie und Anwendung

504 12 Augenschutz und Augensicherheit

che mechanische Festigkeit aufweisen. In der dritten Spalte sind die For-men von Augenschutzgeräten aufgeführt, für die diese mechanische Fes-tigkeit gelten kann. Schutzbrillen ohne Seitenschutz sollten nicht gegen Stoß mit Energie (F) getestet worden sein.

Tabelle 12.5. Mechanische Festigkeiten

Zeichen Testverfahren Arten von Augenschutz-geräten

ohne Mindestfestigkeit, statischer Verfor-mungstest

alle Sichtscheiben

S Erhöhte mechanische Festigkeit, Prüfung 44 g Stahlkugel mit 5,1 m/s oder 135 cm Fallhöhe, Prüfung bei –5°C und +55°C

alle Sicherheitssicht-scheiben

F Stoß mit niedriger Energie, Prüfung mit 0,88 g Stahlkugel bei 45 m/s

Sichtscheiben mit Seiten-schutz

B Stoß mit mittlerer Energie, Prüfung mit 0,88 g Stahlkugel mit 120 m/s

Sichtscheiben, Korbbrillen

A Stoß mit hoher Energie, Prüfung mit 0,88 g Stahlkugel mit 190 m/s

nur Visiere

Eine Erweiterung von F, B oder A mit T sagt aus, dass geprüft wurde, dass die betreffenden Augenschutzgeräte sowohl bei Raumtemperatur (20°C bis 23°C) als auch bei erhöhter (+55°C) und niedriger Temperatur (-5°C) diese Schutzfunktion gewährleisten können.

12.5.8 Andere Anforderungen

Sichtscheiben, welche eine Prüfung auf Nichthaften von Schmelzmetall bestehen, werden mit der Ziffer 9 gekennzeichnet.

Das Kennzeichen K sagt aus, dass die Oberfläche der Sichtscheiben speziell behandelt oder beschichtet wurden, um eine Beständigkeit gegen eine Beschädigung mit kleinen Teilchen auszuschließen.

Sichtscheiben, die oberflächenbehandelt oder –beschichtet sind, um einen beschlaghemmenden Effekt zu erzielen, sind mit dem Zeichen N versehen.

12.5.9 Kennzeichnung von Tragkörpern

Neben den Sichtscheiben müssen auch die Tragkörper gekennzeichnet sein. Diese Forderung rührt einfach daher, weil man unterschiedliche Sichtschei-ben in den gleichen Tragkörper einsetzen kann. Tabelle 12.6 fasst die wesent-lichen Informationen der Tragkörperkennzeichnung zusammen.

Page 520: Photonik: Grundlagen, Technologie und Anwendung

12.5 Normung Augenschutz 505

Tabelle 12.6. Kurzzeichen und Verwendungsbereiche für die Kennzeichnung von Tragkörpern

Kurzzeichen Bezeichnung Erläuterung zum VerwendungsbereichKeines Grundverwendung, nicht näher festgelegte

mechanische Risiken und Schutz gegen Strahlung ist nicht spezifiziert, nur einfache Anwendungen

3 Flüssigkeitsspritzer und Flüssigkeits-tropfen

Nur rundum geschlossene Korbbrillen, wo das Eindringen von Flüssigkeiten unterbun-den / zumindest gehemmt ist

4 Grobstaub Staub mit einer Partikelgröße von >5 µm 5 Gase und

FeinstaubGase, Dämpfe und Nebel, Rauch mit einer Partkelgröße <5 µm

8 Störlichtbögen Schutz gegen elektrische Lichtbögen bei Kurzschluss in elektrischen Anlagen, Kate-gorie III Produkt, UV-Schutz (Kennzeich-nung der Sichtscheibe mit 2-1,2) muss eben-so gegeben sein

9 Schmelzmetall und heiße Festkörper

Schutz gegen Metallspritzer und Durchdrin-gen heißer Festkörper

Zusätzliche Prüfungen

Zusätzliche Prüfungen, welche immer durchgeführt werden, und die sich nicht in einer Kennzeichnung wiederfinden lassen, sind:

Test gegen heißes Durchdringen: Schutzhelme müssen bspw. dem Durchdringen eines Stabes bei 650°C für mindestens 5 s standhalten. UV-Beständigkeit: Sichtscheiben dürfen ihre optische Eigenschaften als folge intensiver UV-Bestrahlung nicht zu stark verändern. Korrosion: Sind Tragkörper mit metallischen Teilen versehen, so dürfen diese im Gebrauch nicht korrodieren.

Kennzeichnung von automatischen Schweißerschutzfiltern

Tabelle 12.7 erläutert die Kennzeichnung von automatischen Schweißer-schutzfiltern. Hier wird nur der Normalfall wiedergegeben. Besondere Filter mit umschaltbaren Dunkelstufenbereich und solche mit automati-scher Schutzstufeneinstellung werden gesondert gekennzeichnet.

Page 521: Photonik: Grundlagen, Technologie und Anwendung

506 12 Augenschutz und Augensicherheit

Tabelle 12.7. Kennzeichnung automatischer Schweißerschutzfilter

4/9-13 X 1 / 2 / 3 / 3 S Schutzstufen

Hell / Dunkelbereiche

Herstellerkürzel Filtereigenschaften: optische Klasse,

Streulicht, Homogenität, Winkelab-hängigkeit (optional)

Kennzeichen für mechanische Festig-keit (falls zutreffend), hier: Grad S,

Erhöhte Festigkeit nach DIN EN 166

Kennzeichnung von Laserschutz- und Laserjustierfiltern

Tabelle 12.8 erläutert die Kennzeichnung eines Laserschutzfilters nach DIN EN 207.

Tabelle 12.8. Kennzeichnung von Laserschutzfiltern

1064 DI L 7 X S

Laserwellenlänge oder

Laserwellenlängenbereich

Eine / mehrere Laserbetriebsarten

(Kennbuchstaben siehe Tabelle 12.1)

Schutzstufe des Filters

Kennbuchstabe(n) des Herstellers

Kennzeichen für mechanische Festigkeit (falls zutreffend), hier: Grad

S, Erhöhte Festigkeit nach DIN EN 166

Die Kennzeichnung kann sehr ausgedehnt werden, wenn ein Filter oder ein Tragkörper gegen mehrere Wellenlängen schützt. In diesen Fällen kann die Kennzeichnung folgendermaßen zusammengefasst werden:

Page 522: Photonik: Grundlagen, Technologie und Anwendung

12.5 Normung Augenschutz 507

633 D L4 + IR L5 1064 DI L8 + R L9 10600 D L3 + IR L4 X S

Dabei haben die Symbole die gleiche Bedeutung wie im vorhergehen-den Beispiel.

Tabelle 12.9 zeigt ein Beispiel für die Kennzeichnung von Laser-Justierbrillen nach DIN EN 208. Erfüllt der Augenschutz eine erhöhte Anforderung bezüglich mechanischer Festigkeit, so kann dies ebenfalls gekennzeichnet werden. Der Tragkörper muss das Wort „Justierbrille“ tragen, die Kennzeichnung der Laser-Justierbrille selbst kann auf den Sichtscheiben oder dem Tragkörper angebracht sein.

Tabelle 12.9. Kennzeichnung von Laser-Justierbrillen nach DIN EN 208

1 W 2·10-4 J 515 R 3 X CE S

Maximale Leistung La-serleistung

Maximale Energie Im-pulsenergie

Laserwellenlänge oder

Laserwellenlängen-Bereich

Schutzstufe des Filters

Kennbuchstabe(n) des

Herstellers Zertifizierzeichen der

Prüfstelle

Kennzeichen für mecha-nische Festigkeit (falls

zutreffend)

Page 523: Photonik: Grundlagen, Technologie und Anwendung

508 12 Augenschutz und Augensicherheit

12.5.10 Kennzeichnung von vollständigenAugenschutzgeräten

Bestehen Sichtscheiben und Tragkörper aus einer untrennbaren Einheit, so ist die vollständige Kennzeichnung der Sichtscheiben und die des Trag-körpers, getrennt durch einen Bindestrich, auf dem Tragkörper anzubrin-gen. Das Augenschutzgerät bietet nur dann für einen gegebenen Anwen-dungsfall den geeigneten Schutz, wenn sich die geeigneten Sichtscheiben in einem geeigneten Tragkörper befinden.

Zu ergänzen ist die Kennzeichnung durch das CE-Zeichen. Ergänzt werden kann die Kennzeichnung durch weitere Qualitätskennzeichen, wie beispielsweise das DINgeprüft oder das GS-Zeichen.

12.5.11 Benutzung von Augenschutzgeräten

Ein Hersteller bzw. ein Vertreiber hat dem Augenschutzgerät eine Infor-mationsbroschüre beizufügen, aus der folgende Informationen hervorgehen müssen (vollständige Infobroschüre siehe DIN EN 166).

Name und Anschrift des Herstellers. Nummer der für eine Prüfung zugrunde liegenden Norm in der Fassung vom...Modellbezeichnung des Augenschutzgeräts. Anweisungen beispielsweise für die Lagerung, Reinigung, Desinfektion oder Pflege. Bedeutung der Kennzeichnung von Sichtscheiben und Tragkörpern. Nummer, Name und Adresse der mit der Zertifizierung beauftragten Stelle.

12.6 Literatur

Augen- und Gesichtsschutz, Hrsg. Steinbruchs-Berufsgenossenschaft, Langenha-gen, www.stbg.de

BGFE Berufsgenossenschaft der Feinmechanik und Elektrotechnik BG-Information 5006: Expositionsgrenzwerte für künstliche optische Strahlung, Köln

BGI (2005): Auswahl und Benutzung von Laser-Schutzbrillen und Laser-Justierbrillen. BG-Information Hrsg. Berufsgenossenschaft der Feinmechanik und Elektrotechnik(Entwurf Mai 2005)

BGR 192 (2001) Benutzung von Augen- und Gesichtsschutz. Berufsgenossen-schaftliche Regeln für Sicherheit und Gesundheit bei der Arbeit, Hrsg. Be-rufsgenossenschaft der Feinmechanik und Elektrotechnik, Juli 2001

Page 524: Photonik: Grundlagen, Technologie und Anwendung

12.6 Literatur 509

CIE Internationale Beleuchtungskommision (1987) Internationales Wörterbuch der Lichttechnik. Hrsg. Bureau Central de la Commission Electrotechnique Internationale

DIN EN 12254 Abschirmungen an Laserarbeitsplätzen – Sicherheitstechnische Anforderungen und Prüfung

DIN EN 14255 (2004) Messung und Beurteilung von personenbezogenen Exposi-tionen gegenüber inkohärenter optischer Strahlung - Teil 1: Von künstlichen Quellen am Arbeitsplatz emittierte ultraviolette Strahlung - Teil 2: Emission von sichtbarer und Infrarot-Strahlung durch künstliche Quellen am Arbeits-platz

DIN EN 1598 Schweißerschutzvorhänge DIN EN 166 Persönlicher Augenschutz; Anforderungen DIN EN 167 Persönlicher Augenschutz; Optische Prüfverfahren DIN EN 168 Persönlicher Augenschutz; Nichtoptische Prüfverfahren DIN EN 169 Persönlicher Augenschutz; Filter für das Schweißen und verwandte

Techniken; Transmissionsanforderungen und empfohlene Verwendung DIN EN 170 Persönlicher Augenschutz; Ultraviolettschutzfilter Transmissionsan-

forderungen und empfohlene Verwendung DIN EN 171 Persönlicher Augenschutz; Infrarotschutzfilter; Transmissionsanfor-

derungen und empfohlene Verwendung DIN EN 172 Persönlicher Augenschutz; Sonnenschutzfilter für den gewerblichen

Gebrauch DIN EN 207 (2002) Persönlicher Augenschutz; Filter und Augenschutz gegen

Laserstrahlung (Laserschutzbrillen) DIN EN 208 Persönlicher Augenschutz; Augenschutzgeräte für Justierarbeiten an

Lasern und Laseraufbauten (Laser-Justierbrillen) DIN EN 379 (2003) Persönlicher Augenschutz - Automatische Schweißerschutz-

filterDIN EN 1731 Augen- und Gesichtsschutzgeräte aus Draht- oder Kunststoffgewe-

be für den gewerblichen und nichtgewerblichen Gebrauch zum Schutz gegen mechanische Gefährdung und/oder Hitze,

DIN EN 175 Persönlicher Augenschutz; Geräte für Augen- und Gesichtsschutz beim Schweißen und bei verwandten Verfahren

DIN EN 1836 Persönlicher Augenschutz; Sonnenbrillen und –schutzfilter für den allgemeinen Gebrauch

DIN EN 1938 Persönlicher Augenschutz, Schutzbrillen für Motorrad- und Moped-fahrer

DIN EN 60825-1 (2001), (VDE 0837) Sicherheit von Lasereinrichtungen, Teil 1: Klassifizierung von Anlagen; Anforderungen und Benutzer-Richtlinien. Beuth Verlag, Berlin

ICNIRP Guidelines (1996) Guidelines on Limits of Exposure to Laser Radiation of Wavelengths between 400 nm and 1.000 nm. Health Physics 71, 5, (1996), 804-819

ICNIRP Guidelines (1997) Guidelines on Limits of Exposure to Broad-Band In-coherent Optical Radiation (0.28 to 3 µm). Health Physics 73, 3, (1997), 539-554

Page 525: Photonik: Grundlagen, Technologie und Anwendung

510 12 Augenschutz und Augensicherheit

ICNIRP Guidelines (2000) Revision of Guidelines on Limits of Exposure to Laser Radiation of Wavelengths between 400 nm and 1.400 nm. Health Physics 79,4, (2000), 431-440

ICNIRP Guidelines (2004) Guidelines on Limits of Exposure to Ultraviolet Radia-tion of Wavelengths between 180 nm and 400 nm (Incoherent Optical Radia-tion). Health Physics 87, 2, (2004), 171-186

Schweißerschutz Hitzler 4 Schweißerschutz Hitzler 9 Schweißerschutz Hitzler 11 Siekmann H (2002) Gefährdung er Augen durch optische Strahlung. Information

des Berufsgenossenschaftlichen Instituts für Arbeitsmedizin BIA, St. Augus-tin, Ausgabe 7/2002

Siekmann H (2004) Regelungen zum Schutz vor optischer Strahlung – der Stand im Jahre 2004, Fortschritte im Strahlenschutz. 36. Jahrestagung des Fachver-bandes für Strahlenschutz, Köln 2004, Tagungsband 70-90

Stephen Palmer S (1998) The optical properties of Automatically Darkening Fil-ters based on Liquid Crystal Technology. PhD Thesis, Univ. Uppsala Sweden

Sutter E (2002) Schutz vor optischer Strahlung, Laserstrahlung, inkohärente Strah-lung; Sonnenstrahlung, Normenreihe 60825 (VDE 0837), VDE Schriftenreihe Normen verständlich. VDE-Verlag GmbH, Berlin Offenbach, ISBN 3-8007-2667-X (2002)

Page 526: Photonik: Grundlagen, Technologie und Anwendung

Index

1

1-D-Sensoren 216

2

2-D-Sensoren 218

3

3DP 315 3-D-Sensoren 219

A

Abbe-König 415 Abbe-Zahl 6 Abbildung 106 Abbildungsgleichung 4, 11 Abbildungsmaßstab 11 Abformen 116, 123 Abformkörper 107, 116 Abformtechniken 414 Ablation 394, 396 Abscheiden organmetallischer

Lösungen 127 absolute Systeme 236 Absorbanz 368 absorbierte Laserstrahl-Leistung

296 Absorption 91, 345 Absorptionsbanden 260 Absorptionskoeffizient 92, 363 Absorptionsmessung 224 Absorptionsspektroskopie 362, 363 Abstrahlrichtung 334

Abtastgeschwindigkeit 201 Abtastradius 201 Abtragen 298, 310 AFM 123 Airy-Einheit 381 Airy-Scheibchen 383 akustooptische Modulatoren 273 Akzeptanzwinkel 8, 131 All-in-One Geräte 412 Ampel 333 analoge Projektoren 417 Angepasste Optik 270 Angepasste Referenzspiegel 269 angeregte Zustände 363 Anisotropiefaktor 372 Anleuchten 319 Anregungsenergie 363 Anregungswellenlängen 365 ANSI-Lumen 419 Antireflexbeschichtung 439 Antireflexschicht 124 Antireflexschichten 128 APD 101 Arbeitsplatzleuchte 322 Atomic Force Microscope 123 Auflichtbeleuchtung 379 Auflichtmikroskopie 375 Auflösung 276, 376 Auflösung eines Sensors 425 Aufweitungsoptik 334 Augendiagramm 154 Augenheilkunde 398 Augenschutz 479 Augensicherheit 479 Ausbleichen 310

Page 527: Photonik: Grundlagen, Technologie und Anwendung

512 Index

Auskoppelstruktur 338 Ausleuchtung 322 Ausleuchtungsvorschriften 326 Austrittspupille 416 Auswahlprüfung 266 autogenen Brennschneiden 296 Autokollimationsprinzip 190 Automatisierungstechnik 178

B

Bandpass 106 Barcode-Scanner 204 Beamer 418 Bedampfen 125 Beleuchtetes Bedienelement 336 Beleuchtung 106, 318 Beleuchtungsoptik 418 Beleuchtungsstärke 60, 420 Beleuchtungsstärke E 318 Beleuchtungssystem 320, 322 Beleuchtungstechnik 317, 340 Beschichten 305 beschichtete Filter 330 Beschichtung 107, 123 Beschichtungsverfahren 105 Beschriften 309 Besetzungsinversion 66, 78 Bestrahlungsstärke 58 Beugung am Gitter 50 Beugung am Spalt 46 Beugung an der Lochblende 48 Beugungsmaßzahl 289 Bidirectional scatter distribution

function 346 Biegeprozesse 294 Bildaufnahme 405 Bildbündel 390 Bilddokumentation 386 Bildsensor 423 Bildverarbeitung 448 Bildvergrößerung 405 Bildwiedergabe 405, 417

Bio- und Chemielumineszenz 362 Biolumineszenz 370 Blankpressen 117 Blaze-Winkel 52 Blendung 323 Blooming 440 Blutfluss 375 Bohren 298 Boltzmann-Faktor 64 Bragg-Bedingung 89 Bragg-Wellenlänge 251 Brechkraft 10 Brechungsgesetz 5 Brechungsindex 4 Brechungsmatrix 18 Brechzahl 4 Brechzahlprofil 132 breitbandiger Laser 251 Brewster-Winkel 33 Brille 106 Brillen 421 Bronchoskope 393 BSDF 346

C

Candela 60, 319 CCD-Bildsensoren 235 CCD-Diodenzeilen 235 CCD-Sensor 390, 427 CCD-Zeile 192 CCOS 113 CCP 112 CD 106 Charge-Coupled Device 427 Chemilumineszenz 370 chromatische Dispersion 144 CIS 411 CO2-Laser 303 Codespezifikationen der AIM 205 Compact Image Sensor 411 Computer Controlled Optical

Surfacing 113

Page 528: Photonik: Grundlagen, Technologie und Anwendung

Index 513

Computer Controlled Polishing 112 computergesteuerte Politur 112 Cystoskope 393

D

Dämmerungszahl 416 Dämpfungskoeffizient 134 DBR-Laser 88 Dekorative Schichten 128 Dermatologie 400 Design 107 Desoxyhämoglobin 363 destruktive Interferenz 124 Detektivität 100 DFB-Laser 88 Diagnostik 361 Diamantdrehen 108 Diamantlösung 112 Diaprojektor 417 Dichroismus 34 dichroitische Spiegel 262 differenzielles faseroptisches

Vibrometer 255 diffraktiv optisches Element 417 diffraktive Elemente 120 Diffraktive Optik 121 Diffusionslöten 304 Digital Light Processing

Technologie 419 digitale Projektoren 418 Diodenlaser 286 Dioptrie 10 Dipol-Dipol-Wechselwirkung 370 Direct Metal Deposition 305, 314 Direct Shell Production Casting

315 Direkt-Indirektbeleuchtung 323 Dispersion 6 dispersionsgeglättete Faser 145 dispersionskompensierende Faser

145 Dispersionsmechanismen 137

dispersionsverschobene Faser 145 Display 463 Displayhinterleuchtung 338 Displays 336 Distanzsensor 191 Distanzsensoren 196 Divergenzwinkel 288 DLP 419 DMD 305, 314 DOE 417 Doppelbrechung 34 Doppellinsen-System 179 Doppelrohrferngläser 415 Dopplereffektes 239 dpi 411 Drehzelle 466 Dreibereichsverfahren 261 DSP-Architekturen 208 DSPC 315 dünne Endoskope 393 Dünnschichtzellen 358 Durchflusszytometrie 373 Durchlicht 371 Durchlichtmikroskopie 375 durchstimmbarer Laser 251 DVD 106

E

EAN-Code 204 Ebenheit 279 ECE-Testpunkte 348 Echelette-Gitter 52 Eindeutigkeitsbereich 274 Einkoppel-Optik 332 Einmodenfaser 132 Einweg-Lichtschranke 176 elastische Streuung 363, 371 elektromagnetische Strahlung 363 elektronische Bilderfassung 386 elektronische Bildstabilisierung 417 elektronischen

Bildverstärkereinheiten 417

Page 529: Photonik: Grundlagen, Technologie und Anwendung

514 Index

elektronischen Restlichtverstärkereinheiten 417

Embedded-RISC-Rechner 214 Emission 363 Emissionsgrad 66 Empfangsapertur 211 Empfangsleistung 210 Empfindlichkeit 95 Endoskopie 384 Endoskopie-System 385 Endoskopische Beleuchtungseinheit

332 endoskopische Bildgebung 386 Endoskopische Bildgebung 388 Energiestromdichte 26 Energietransferspektroskopie 370 Entfernungsinformation 192 Erythrozyten 373 ESPI 249 Excimer-Laser 285, 311 Expositionsgrenzwerte 483 externer Quantenwirkungsgrad 72 Extinktionskonstante 225

FFabry-Perot-Interferometer 44 Fabry-Perot-Laser 78 Fahrzeug-Signalleuchten 335 Faltung 462 Faraday-Effekt 35 Farbdisplays 262 Farberkennung 261 Farbfehler 416 Farbkontrolle 261 Farbmarken 262 Farbmessung 260 Farbrezeptierung 261 Farbsensor 190 Farbtemperatur 330 Farbton 190 Farbumschlag 310 Farbwiedergabe 330 Faserinterferometer 251

Faseroptische Sensorik 249 Faseroptische Vibrationssensoren

255 faseroptischer Beleuchtung 384 faseroptischer Ramaneffekt 161 Faserverstärker 160 Fax 410 FBGS 251 FDM 314 Fehlsichtigkeit 398 Feinbearbeitung 108 Feinschleifen 108 Feldwellenimpedanz 26 Femtosekundenbereich 243 Femtosekundenlaser 399 Fermat´sches Prinzip 3 Fernfeld 319 Ferngläser 415 Fernrohrleistung 416 Fertigungsverfahren 290 Festkörperlaser 285 Feuchtemessung 260 Fiber-Bragg-Grating-Fasersensoren

251 Fiber-Bragg-Grating-Sensoren 249 Fiberendoskope 393 Filmprojektoren 418 Filter 106 Filterrad 419 Filze 112 Finesse 45 Fit-Funktion 347 Flachbettscanner 410 Flächenhomogenität 334 FLIM 380 Fluid Jet Polishing 115 Fluorescence Lifetime Imaging 380 Fluoreszenz 362, 363, 375 Fluoreszenzfarbstoffe 189 Fluoreszenz-Lebensdauer 380 Fluoreszenzmarkern 367 Fluoreszenzmikroskopie 379 Fluoreszenzphotons 365

Page 530: Photonik: Grundlagen, Technologie und Anwendung

Index 515

Fluoreszenz-Resonanz-Energie-Transfer 370

Fluoreszenzspektrometers 365 Fluoreszenzspektroskopie 364 Flüssigkristall-Display 464 Flüsssigkeitslaser 287 Fokussierung 415 Formen 107, 108 Formkorrektur 113 Formmessung 239 FOS 249 fotochemische Reaktionen 396 Fotodetektoren 273 Fotodioden 93 fotodynamischen Therapie 368 Fotoeffekt 61 Fotokopierer 410 Fotoleiter 93 Fotometrische Größen 60 fotovoltaischer Effekt 351 Fotowiderstand 93 Fourier-Transformation 457 Fraunhofer-Beugung 47 Freiformflächen 322 Freiformreflektor 327 Freiraumübertragung 167 Fresnel-Kunststoff-Optik 413 Fresnellinse 334 Fresnel-Linse 418 FRET 370 F-Theta-Objektiv 202 Fügen 299 Füllfaktor 353 Fused Deposition Modeling 314

G

GaAlAs-Laser 287 GaInP-Laser 287 Galilei-Prinzip 415 Galileiteleskope 417 Gangunterschied 37 Ganzflächenpolieren 111, 112

Gasanalysator 230 Gasentladungslichtquellen 331 Gaskonzentrationsmessung 229 Gaslaser 283 Gastroskopie 391 Gauß´sche Optik 4 Gebrauchsgüter 405 gemeinsame Schmelze 301 geometrische Abstrahlung 342 Geometrische Optik 1 Geometrisches Lichtquellenmodell

343 gerichtete Reflexion 346 geringe Blendwirkung 327 Gesamttransmissionen 417 Glanzwinkel 184 Glas abformen 117 Glätten 107 Glättungsfilter 455 Glaukom-Behandlung 311 Glaukomtherapie 398 Gleichstrom-Halogenlichtquellen

331 Gradientenfaser 9 Gravieren 310 Grenzwinkel der Totalreflexion 8 GRIN-Linse 14 Grobbearbeitung 108 Grundzustand 363 Gruppengeschwindigkeit 53 Gruppenindex 54 Güteschalter 69

H

Halbleiterlaser 286 Halbleiter-Laser 77 Halogenlichtquellen 334 Härten 307 Hartmann-Shack Sensor 399 Hauptebene 12 Hauptreflektor 324 Heißprägen 117, 119

Page 531: Photonik: Grundlagen, Technologie und Anwendung

516 Index

Hell-Dunkel-Grenze 327 Heterodynfrequenz 273 Heterodyn-Technik 272 Heterostruktur 80 High-End-Geräte 420 Hinterleuchtung 338, 339 Histogrammausgleich 452 Ho: YAG-Laser 303 hoch auflösende Formmesssungen

276 Hochleistungs-Diodenlaser 303 hochpräzise Maßverkörperungen

278 Höhenauflösung 265 Höhenprofildaten 266 Hohlraumstrahler 63 Hohlspiegel 3 Holografie 54 holografische Interferometrie 245 Holografische Interferometrie 255 Hologramm 56, 255 Huygens´sches Prinzip 46

Iin vitro-Diagnostik 364 in vivo-Anwendung 364 Indirekte Beleuchtung 324 inelastische Prozesse 363 Informationsträger 318, 336 Infrarotoptik 108 Infrarotspektroskopie 362 Inkjet Technology 315 Inkrementalgeber 236 Inkrementelle Systeme 236 Innenlinse 415 integrierte Digitalkamera 417 integrierten Operationssaal 387 Intensität 26 Intensitätsbilder 266 Intensitätskorrelogramm 265 Intensitätsverhältnis 190 Interferenz 36 Interferenzkontrast 375

Interferenzkontrastmikroskopie 378 Interferenzsignal 244 Interferometer 41, 236, 238 Interferometrie 123 interferometrische Messtechnik

115 Interferometrische Submikrometer-

Messtechnik 263 interferometrische Verfahren 233 interferometrisches

Einpunktverfahren 252 interferometrisches Tastsystem

281 intrinsische Fluorophore 366 Ion Beam Figuring 115 Ionenätzen 115 Ionen-Laser 285 IPS-Display 471 Isochromaten 248 IT 315

J

Jones-Matrizen 31 Jones-Vektor 29

K

Kaltlicht 386 Kamerasensoren 214 Kantenfilter 456 Kardinalpunkte 21 Kepler-Prinzip 415 Kernmaterial 331 Kinoprojektoren 420 kleine Fleckdurchmesser 289 Knotenpunkte 13 Koagulation 394 Koagulation des Gewebes 396 Kohärente Übertragungssysteme

157 Kohärenz 40, 243 Kohärenzlänge 41 Kohärenzzeit 41

Page 532: Photonik: Grundlagen, Technologie und Anwendung

Index 517

Köhler’sche Beleuchtung 377 Köhler’scher Beleuchtung 384 Kondensorsystem 417 konfokale Mikroskopie 381 Kontrasttaster 188 Kontrastübertragungsfunktion 426 Kontrastverhältnis 469 Kontrastverhältnis SC 205 Kontrastverstärkung 377 Kontrollmarken 189 Konturschweißen 302 Korrektur 107 Kraftfahrzeug-Frontbeleuchtung

326 Kubelka-Munk Gesetz 372 Kunststoff abformen 119 Kunststoff-Schweißen 301 kurzkohärenten Lichtquelle 244

LLambert´sche Charakteristik 337 Lambert´sches Cosinusgesetz 58 Lambert-Beer`sches Gesetz 225 Lambert-Beer-Gesetz 362 Lambert-Bouguer’sches Gesetz 92 Lambertsche Streuung 346 Laminated Object Manufacturing

315 Laparoskopie 391 Laser 66, 106 Laser pressure catapulting 383 Laser-Chirp 86 Laser-Doppler-Vibrometer 252 Laserdurchstrahlprinzip 302 Laserformen 291 lasergestützte Optoporation 383 Laser-Hybrid-Schweißen 301 Laser-Iridektomie 398 Laser-Maskenbeschriften 310 Laser-Mikrodissektion 383 Laser-Mikromanipulation 382,

383 Laser-Mikro-Manipulation 375

Laserpinzette 382 Laserpointer 257 Laser-Radar 209 Laser-Scan-Mikroskopie 375 Laserscanner 197 Laser-Scanning-Mikroskopie 376,

380 Laserschutzbrille 493 Laserschutzfilter 492 Laserschwelle 68 Lasersendern 200 Laser-Strahlablenkungsbeschriften

310 Laserstrahl-Brennschneiden 295 Laserstrahlquelle 200 Laserstrahlquellen 283 Laser-Trabekuloplastik 398 Lasertypen 283 LASIK-Verfahren 398 laterale Auflösung 265 Lateraleffektfotodioden 235 Lawinen-Fotodioden 101 LCD 464 LCoS 420 LED 73 LED In Direct Exposure 411 LED-Lichtquellen 331, 334 Leistungsfähige LEDs 214 Leuchtdichte 60 Leuchtdichte L 319 Leuchtdichtebild 345 Leuchtdiode 73 Leuchtdiodenarrays 412 Leuchtmittel 324 Leukozyten 373 Lichtfarbe 317 Lichtgeschwindigkeit 25 Lichtgitter 177 Lichtlaufzeitmessung 221 Lichtlaufzeit-Verfahren 209 Lichtleiter 331 Lichtleiter-Lichtschranke 186 Lichtquanten 61

Page 533: Photonik: Grundlagen, Technologie und Anwendung

518 Index

Lichtquelle 322 Lichtquellen 320, 331 Lichtquelleneinheit 324 Lichtquellenmodellierung 342 Lichtquellen-Reflektor-System 320 Lichtschranke

Einweg-Lichtschranke 176 Reflexions-Lichtschranke 179

Lichtschranken 175 Lichtstärke 60 Lichtstärke I 319 Lichtstärkeverteilung 333 Lichtstrom 420 Lichtstrom 318 Lichttaster 175 lichttechnische Größen 318 Lichttechnische Größen 60 Lichtvorhang 177 Lichtwellenleiter 8 LIDE–Technologie 411 Life Sciences 361 Light-Engine 419 Linearpolarisationsfiltern 182 Linescanner 257 Linse 106, 322 Linsensysteme 389 Liquid Crystal Display 464 Lock-in-Thermografie 259 Lokale Polierverfahren 115 lokale Politur 111 lokales Polieren 112 LOM 315 Look-Around-Systeme 421 Löten 304 Lumen 318 Lumineszenz 363 Lumineszenzdiode 73 Lumineszenzspektroskopie 362 Lumineszenztaster 189 Luminophore 189 Lupe 413 Lux 318 Luziferin 370

M

Mach-Zehnder Freistrahl-Aufbau 272

Magneto Rheological Finishing 114

Magneto-Rotation 35 Mantelmaterial 331 Markieren 309 Maske 122 Maskenschweißen 303 Maßverkörperung 236 Masterformen 118 Materialdispersion 143 Matrix-Empfangselement 222 Matrixmethode 16 Matrixsensor 216 Maxwell-Relation 25 Medizin 361 Mehrschichtsysteme 124 Mess-Interferometer 272 Metall-Schutzgasverfahren 301 MIC 384 Mie-Streuung 372 Mikroarray-Technologie 367 Mikrobearbeiten 311 Mikrointerferenzmuster 246 Mikrointerferometer 255 Mikroskop 106, 412 mininimal-invasiven Chirurgie 384 Mischstreuung 346 Modendispersion 137 Moden-Kopplung 69 Modulations-Interferometer 272 Modulations-Übertragungsfunktion

76, 85 Moirétechnik 221 molekulare Schwingungsmoden

368 Molekül-Laser 283 Molekülschwingungsspektroskopie

368 Monochromator 365

Page 534: Photonik: Grundlagen, Technologie und Anwendung

Index 519

Monomodefaser 132 Monomodefasern 251 Monomode-Glasfasern 251 Montage 107 Monte-Carlo-Methode 340 MRF 114 MSG 301 Multimodefaser 132 Multimodefasern 249 Multiphotonenmikroskopie 382 Myopie 398

N

Nachtdesign 336 Nachtgläser 416 Nahfeldfotogoniometrie 344 Nahinfrarotbereich 370 Nahinfrarotspektroskopie 370 Nd:Glas-Laser 285 Nd:YAG-Laser 285, 303 Nephelometrie 373 Nepholometrie 371 NEP-Wert 100 Netzhautablösung 398 Neutralatom-Laser 285 Newton’sche Abbildungsgleichung

11Nicht Sequenzielle Strahlverfolgung

340 Normale 278 numerische Apertur 8, 131, 376

O

Oberflächenemittierende Laser 89 Oberflächenprofil 120 Oberflächenrauigkeit 108 Objektiv 106 Objektmikrometer 278 Objektstrahl 377 Öffnungswinkel 376 Offset 378 Okular 391

OLED 420 OLED-Display 474 Operationsleuchten 328 Operationsmikroskopie 375, 384 Optikkomponenten 107 optimaler Lastwiderstand 353 Optische Aktivität 34 optische Endoskope 266 optische Interferenz 123 optische Kohärenztomografie 371 Optische Kohärenztomographie

374 optische Komponenten 105 Optische Messtechnik 233 optische Messverfahren 115 Optische Mikroskopie 375 Optische Nachrichtenübertragung

129 Optische Pfadanalyse 349 optische Pfade 340 optische Sensoren 175 optische Signaleinrichtungen 319 optischer Überlagerungsempfang

157 optischer Weg 5 optisches Modul 419 optisches System 317 Optomechanischer Effekt 394, 396 Organic Light Emitting Diodes

474 Overheadprojektoren 418 Oxyhämoglobin 363

PPACE 115 paraxiale Optik 4 Paraxialstrahlen 4 passive optische Komponenten

317 PDT 394 Peche 112 Phantomlicht 334 Phasendifferenz 195

Page 535: Photonik: Grundlagen, Technologie und Anwendung

520 Index

Phasengeschwindigkeit 24 Phasenkontrast 375 Phasenkontrastmikroskopie 377 Phasenkorrelations-Sensor 194 Phasenmodulationsverfahren 366 Phasenring 377 Phasenstruktur 378 Phosphoreszenz 362, 363 Photochemischer Effekt 394 photometrisches

Strahlungsäquivalent 61 Photonen 61 Physical Vapor Deposition 125 pin-Fotodioden 96 Pixel Binning 444 Planck´sches Strahlungsgesetz 65 Plasma Assisited Chemical Etching

115 Pockels-Zelle 35 Polarisation 28 Polarisationsfilter 182 Polarisationsmodendispersion 137 Polierbeläge 112 Polieren 309 Poliermittel 112 Polierprozess 111 Polyurethan-Schäume 112 Porro 415 Positioniergenauigkeiten 238 Präsenzdetektion 175 Pressen aus der Glasstange 118 Prestongleichung 111 Projektionssystem 327 Prozesskette 107 PSD-Element 192 Pulslaufzeit-Sensor 193 Pulsoxymetrie 364 Punktewolken 241 Punktlöten 305 Pupillenstrahl 377 PVD 125 PVD-Verfahren 125 Pyrometer 257

Q

Quantisierungstiefe 448 Quantum-well-Laser 79 Quasisimultanschweißen 303

R

Radiometrie 56 Ramanspektroskopie 362, 369 Ramanstreuung 363 Rapid Production 315 Rapid Prototyping 313 RAPT 115 Rasterkraftmikroskopie 123 Rauheitskenngrößen 279 Rauigkeit 108 Raumwinkel 57 Raunormale 279 rauschäqivalente Leistung 100 Rauschen von Fotodioden 98 Rauschquellen 445 Rayleigh-Kriterium 49 Rayleigh-Länge 288 Rayleighstreuung 363 Rayleigh-Streuung 134 Ray-Tracing-Programme 340 Reactive Assisted Plasma

Technology 115 reduzierte Streukoeffizient 372 Reflektive Drehzellen 470 Reflektor 180, 320, 334 Reflexion 106 Reflexionseigenschaften 124 Reflexionsgesetz 2 Reflexions-Lichtschranke 179 Reflexions-Lichttaster 183 Reflexionsmatrix 19 refraktiven Chirurgie 311 Reichweiten 179 Rekombination 70 Relaxationsoszillation 85 Remission 190 Remissionsfotometrie 371

Page 536: Photonik: Grundlagen, Technologie und Anwendung

Index 521

Remissionsvermögen 183 Restreflex R 128 Reticle 122 Retro-Reflektor 179 Röntgen-Computer-Tomographie

264 Rubin-Laser 285 Rückkopplung 68 Rückstrahleffekt 334 Rundsichtoptiken 267

Sscannendes Lasersystem 399 Scanner

Laserscanner 197 Schaltpunkt 185 Schaltschwelle 185 Schärfentiefe 289, 376 Schärfentiefenverlust 200 Schattenwurfverfahren 239 Scheimpflugbedingung 193 Scheinwerfer 106 Schleifen 108 Schlierenbildung 119 Schmelzlöten 304 Schmidt-Pechan 415 Schmiereffekt 441 Schneiden 294 Schrotrauschen 98 Schutzgas 415 Schutzstufe 485 Schwarzer Strahler 63 Schweißen 299 Schweißerschutzfilter 490 Schweißnahtfestigkeit 303 Schwingquarze 128 Schwingungsmessung 252 See-Through-Systeme 421 segmentierte Fotodiode 192 Sehfeld 416 Sekundärreflektor 324 Sekundärreflektortechnologie 324 Selbstleuchten 319

Selective Laser Melting 292 selektive NIR-

Fluoreszenzdiagnostik 402 selektive Transmission 124 selektives Laser-Schmelzen 292 selektives Laser-Sintern 291 Selektives Lasersintern 314 Sellmeier-Gleichung 7 Sendeleistung 210 Sendelichtfarben 188 Sequenzielle Strahlverfolgung 341 SGC 314 Shutter 222 Sicherheitstechnik 178 Signalisation 318, 333 Silikatbildleiter 390 Simulation 340 Simultanlöten 305 Simultanschweißen 303 SLA 314 SLM 292 SLS 291, 314 Smear 441 SMT 305 Snellius´sches Brechungsgesetz 6 Solarzelle 351 Solid Ground Curing 314 Soliton 164 Solitonenübertragung 162 Sondergläser 416 Sonderoptiken 266 Spannungsoptische Verfahren 248 Speckle-Pattern-Interferometrie

249, 255 Speckles 246 Spektive 416 Spektralanalyse 229 spektrale Absorption 317 spektrale Dispersion 317 spektrale Emission 342, 345 Spektrale Filter 128 spektrale Reflexion 345 spektrale Trennung 273

Page 537: Photonik: Grundlagen, Technologie und Anwendung

522 Index

Spektraleigenschaften 347 spektraler Remissionsgrad 183 Spektralfotometer 230 Spektrofotometer 128 Spektroskopie 361 Spektroskopie molekularer

Schwingungen 362 spezifische Marker 379 Spiegel 106, 128 spots 367 Spritzgiessen 117 Spritzguss 119 Spritzprägen 117, 119 Sputter-Technologie 126 Stablinsenumkehrsystem 389 Statusanzeigen 339 Staubkonzentrationsmessung 224 Stauchprozesse 294 Stefan-Boltzmann-Gesetz 66 Stehende Wellen 40 Stereolithography Apparatus 314 Stereometrie 219 Stoffeigenschaften ändern 307 Strahldurchmesser 287 Strahlen 1 Strahlformung 106 Strahlichte 58 Strahlparameterprodukt 288 Strahlpropagationsfaktor 289 Strahlqualität 287 Strahlradius 287 Strahlstärke 58 Strahltaille 288 Strahlungsphysikalische Größen 57 Strahlungsthermometer 257 Strahlverfolgungsprogramme 340 Straßenverkehrsignal 333 Streifenlaser 80 Streifenprojektion 120, 241 Streucharakteristik 345 Streufolie 339 Streukoeffizient 372 Streulichtfotometrie 227

Streulichtgoniometer 346 Streulichtmessung 227 Streuung 371 Strukturieren 311 Strukturparameter 132 Stufenindexfaser 8 Stumpfstoss 303 Subminiaturlichtschranken 186 Substrat 122 Substratmaterial 367 Super Twisted Nematic 469 Superlumineszenzdioden 244 surface-mounted-technology 305 Suspensionen 112 SVGA-Auflösung 420 synthetische Wellenlänge 274 System mit Streuscheibe 327 Systemmatrix 17, 20

TTagdesign 336 Tandemzellen 356 Target 367 Targets 126 Taschenferngläser 416 Teleskop 106, 415 telezentrischen Objektivsystem

202 Temperaturkompensation 251 Temperaturmessung 256 Therapie 361 Therapieverfahren 386 thermische Reaktionen 396 Thermografie-Kamera 257 Three Dimensional Printing 315 through-hole-technology 305 THT 305 Tief-Schweißen 299 TIRFM 375 TOF 209 Totalreflexion 8, 249, 385 Totalreflexions–

Fluoreszenzmikroskopie 380

Page 538: Photonik: Grundlagen, Technologie und Anwendung

Index 523

Transfermatrix 17 Transferrate 370 Transmissiometer 226 Transmission 345, 417 Trennen 108, 294 Triangulation 233, 234 Triangulations-Sensor 192 Tripelreflektoren 181 Tripelspiegel 180 Tücher 112 Turbidimetrie 371, 373 TV-Lupe 414 Twisted Nematic 466

U

Überlappstoss 303 Übertragungskapazität 131 UHP-Lichtquelle 321 Ultraschall 264 Umformen 293 Umkehrsysteme 389 Umschmelzen 308 Umwandlungshärten 307 Universalgläser 416 Urformen 291

V

VA-Display 472 Vaporisation 394, 396 Verformungsmessung 245 vergrößernde Sehhilfen 413 Vergrößerung 376, 416 Vergrößerungsgeräte 412 Vergütung 415 Verstimmung 128 Videoendoskope 393 Videomikroskopie 376 Vielmodenfaser 132

Vielstrahlinterferenz 42 Vordergrundausblendung 185 Vorschleifen 108

W

Wärmeleitungs-Schweißen 299 Weißlicht-Heterodyn-Interferometer

272 Weißlicht-Heterodyn-

Interferometrie 264 Weißlichtinterferometrie 243, 264 Weitfeldmikroskopie 376 Wellenfrontsensor 399 Wellenlänge 24 Wellenlängenmultiplexing 251 Wellenlängenmultiplexsystem 155 Wellenlängentrennung 106 Wellenleiterdispersion 144 Wellenoptik 23 Wellenwiderstand 26 Wellenzahl 24, 368 WHI 272 Wien´sches Verschiebungsgesetz

66WIG 301 Wirkungsgrad einer Solarzelle 355 Wolfram-Inertgas 301

Z

Zeilen- und Matrixsensoren 214 zeitaufgelöste

Fluoreszenzspektroskopie 366 zeitlichen Stabilität 276 Zeit-Mittelungsverfahren 255 Zweiphotonenmikroskopie 382 Zwei-Punkt-Vibrometer 255 Zwei-Wellenlängen-Interferometrie

272