skript zur vorlesung - wirtschaftsinformatik -...

52
)DFKKRFKVFKXOH 'HJJHQGRUI Skript zur Vorlesung Grundlagen der Kommunikationstechnik SS 2001 (Teil 2 von 3) LB Horst Kunhardt Fachhochschule Deggendorf

Upload: hoangdieu

Post on 12-Aug-2019

214 views

Category:

Documents


0 download

TRANSCRIPT

���������������� ����

Skript

zur Vorlesung

Grundlagen

der Kommunikationstechnik

SS 2001 (Teil 2 von 3)

LB Horst Kunhardt

Fachhochschule Deggendorf

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 2

4. Paketübertragung, Netztechnologie ....................................................................................41 4.1. Pakete, Rahmen, Fehlererkennung..............................................................................41

4.1.1. Das Paket-Konzept..............................................................................................41 4.1.2. Pakete und das Zeitmultiplexverfahren...............................................................43 4.1.3. Pakete und Hardwarerahmen ..............................................................................43 4.1.4. Datenstopfen .......................................................................................................44 4.1.5. Übertragungsfehler..............................................................................................45 4.1.6. Paritätsbits und Paritätsprüfung ..........................................................................45 4.1.7. Fehlererkennung..................................................................................................46

4.1.7.1. Prüfsummen ................................................................................................47 4.1.7.2. Zyklische Redundanzprüfung .....................................................................47 4.1.7.3. Burstfehler...................................................................................................48 4.1.7.4. Rahmenformat und Fehlererkennungsmechanismen ..................................48

4.2. LAN-Technologien und Netztopologien ....................................................................49 4.2.1. Direkte Punkt-zu-Punkt-Kommunikation ...........................................................49 4.2.2. Gemeinsame Kommunikationskanäle.................................................................50 4.2.3. Bedeutung von LANs..........................................................................................50 4.2.4. LAN-Topologien.................................................................................................51

4.2.4.1. Bustopologie ...............................................................................................51 4.2.4.2. Ringtopologie..............................................................................................52 4.2.4.3. Sterntopologie .............................................................................................53

4.2.5. Beispiel eines Busnetzes: Ethernet .....................................................................54 4.2.5.1. CSMA/CD...................................................................................................56 4.2.5.2. Effizienzbetrachtungen zu Ethernet ............................................................58

4.2.6. Beispiel eines Busnetzes: LocalTalk...................................................................60 4.2.7. Beispiel eines Ringnetzes: Token Ring ..............................................................61 4.2.8. Beispiel eines Ringnetzes: FDDI ........................................................................63 4.2.9. Beispiel eines Sternnetzes: ATM........................................................................64

4.3. Hardwareadressierung und Rahmentypen ..................................................................69 4.3.1. Spezifikation eines Empfängers..........................................................................69 4.3.2. LAN-Hardware filtert Pakete anhand von Adressen ..........................................70 4.3.3. Hardwareadressen ...............................................................................................71 4.3.4. Broadcasting........................................................................................................72 4.3.5. Mulitcasting ........................................................................................................72 4.3.6. Rahmenheader und Rahmenformat.....................................................................73 4.3.7. Netzwerkanalyse, Hardwareadressen, Rahmentypen .........................................74

4.4. LAN-Vernetzung, Schnittstellenhardware..................................................................75 4.4.1. Netzwerk-Schnittstellenhardware .......................................................................75 4.4.2. Vernetzung mit 10Base-T ...................................................................................76

4.5. LAN-Erweiterung: optische Modems, Repeater, Bridges, Switches..........................77 4.5.1. Optische Modems ...............................................................................................77 4.5.2. Repeater ..............................................................................................................77 4.5.3. Bridges ................................................................................................................78 4.5.4. Switches ..............................................................................................................80

4.6. WAN-Technologien und Routing...............................................................................83 4.7. Protokolle und Schichten ............................................................................................87

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 41

4. Paketübertragung, Netztechnologie Ein grundlegendes Konzept der Rechnernetze ist das Paket-Konzept, mit dem anstatt einzelner Bits mehrere Datenbytes über das Netz übertragen werden. So werden z.B. über das Internet die Daten in Form von Paketen übertragen. Jedes Paket enthält neben dem eigentlichen Inhalt Informationen über den Absender und den Empfänger. Informationen über den einheitlichen Aufbau der Pakete sind z.B. in Protokollen wie TCP/IP geregelt. Die folgenden Kapitel beschreiben das Paket-Konzept und die Art, wie die unterschiedlichen Netztechnologien Pakete austauschen.

4.1. Pakete, Rahmen, Fehlererkennung Sender und Empfänger müssen bei der Paketübertragung ihre Aktionen koordinieren und auch die Möglichkeit der Fehlerkorrektur vorsehen. Pakete werden in einem zeichenorientierten Netzwerk mit einem Rahmenformat implementiert.

4.1.1. Das Paket-Konzept Ein paketorientiertes Netzwerksystem teilt die zu übertragenden Daten in Blöcke, sog. Pakete (packets) auf, die dann versendet werden. Ein derartiges Netzwerk wird auch als Paketvermittlungsnetz oder paketvermittelndes Netz (packet switching network) bezeichnet. Für den Begriff „Paket“ gibt es in den unterschiedlichen Netzwerktechnologien, wie z.B. Ethernet, ATM, FDDI, unterschiedliche Bezeichnungen:

• Rahmen • Block • Zelle • Segment

Ein Beispiel soll das Paket-Konzept verdeutlichen: Angenommen eine E-Mail mit 3.500 Bit soll übertragen werden. Das zugrundeliegende Beispiel-Netzwerk verwendet Pakete fester Größe von 1024 Bit. Der sog. Header, das ist ein Vorspann der Verwaltungsinformation für das Paket enthält, ist 96 Bit lang, der sog. Trailer, der das Ende des Pakets kennzeichnet und evtl. Fehler korrigiert, ist 32 Bit lang. Es stehen also 896 Bit für Nutzdaten (payload, body, data) zur Verfügung. Für die Übertragung der 3.500 Bit sind also 4 Pakete erforderlich (3.500 / 896). Drei Pakete enthalten 896 Bit an Nutzdaten, 1 Paket enthält 812 Bit an Nutzdaten. Die folgende Abbildung zeigt die Aufteilung eines Beispiel-Pakets:

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 42

Für die Verwendung von Paketen sprechen also folgende Gründe:

• Sender und Empfänger können die Übertragung „absprechen“ • bei Übertragungsfehlern können Sender und Empfänger feststellen, welche Blöcke

intakt und welche fehlerhaft übertragen wurden • ein paketorientiertes Netzwerk garantiert fairen und prompten Zugang zu den

Ressourcen, da ein bestimmter Computer nur so lange die gemeinsam benutzte Ressource belegen darf, wie er braucht, um ein einzelnes Paket zu übertragen

Ein Beispiel soll den Zugriff auf Ressourcen zeigen.

Über ein Netzwerk teilen sich 4 Computer eine gemeinsam genutzte Ressource. Die Computer teilen sich einen Kommunikationskanal. Während Computer A eine Datei an Computer D sendet, müssen Computer B und C warten. Wird z.B. eine 5 MB große Datei über ein Kommunikationssystem, das 56000 Bit pro Sekunde übertragen kann, gesendet, so dauert die Übertragung der gesamten Datei ca. 12 Minuten. D.h., in dieser Zeit sind die anderen Computer blockiert. Werden im o.a. Beispiel die Daten in Pakete der Länge 1000 Byte aufgeteilt, müssen die übrigen Computer nur die Übertragung eines Pakets abwarten, um selbst Daten übertragen zu können. Ein Paket enthält 1000 Byte, also 8000 Bit, das Netzwerk kann 56000 Bit pro Sekunde übertragen, d.h. die Übertragung eines vollständigen Datenpakets dauert 0,143 Sekunden. Ein Computer muß also höchstens 143 ms warten, bis er mit der Übertragung beginnen kann.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 43

Aus o.a. Überlegungen kann man ableiten, dass die Wahl der Paketgröße einen Einfluß darauf hat, wie die Wartezeit eines Computers zum Senden eines Pakets über ein gemeinsam benutztes Netzwerk (shared medium) ausfällt.

4.1.2. Pakete und das Zeitmultiplexverfahren Ein Übertragungssystem, welches vielen Sendern abwechselnd die Zugriff auf ein gemeinsames Netzwerk erlaubt, kann als Form des Zeitmultiplexverfahrens (siehe Kap. 3.3.9) betrachtet werden.

Diese Art des Zugriffsverfahrens stellt sicher, dass keine Datenquelle das Übertragungssystem exklusiv für sich an Anspruch nimmt.

4.1.3. Pakete und Hardwarerahmen Die Festlegung der jeweiligen Paketgröße ist für die unterschiedlichen Netzwerktechnologien unterschiedlich gelöst. Jede Technologie regelt z.B. Einzelheiten im Header oder Trailer auf eigene Weise. Zur Unterscheidung des allgemeinen Konzepts der Paketübertragung von spezifischen Definitionen in bestimmten Netzwerktechnologien wird der Begriff „Rahmen“ (frame) verwendet. Damit ist also die Definition eines Pakets in einem bestimmten Netzwerktyp gemeint, z.B. Größe und Format. Ein Beispiel für eine Übertragung einer ASCII-Datei in einem Rahmen der über eine RS-232-Strecke übertragen wird kann wie folgt aussehen:

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 44

Die ASCII-Zeichen soh (start of header) und eot (end of transmission) werden als Begrenzer des Rahmens verwendet. Der Empfänger kann auf diese Art erkennen, wann der gesamte Rahmen übertragen wurde. Gerade bei asynchronen Übertragungen ist die Verwendung eines Rahmenbegrenzers eine Methode, um bei Verzögerungen oder Abstürzen eine Ende der Übertragung festzustellen. Der Empfänger kann also entscheiden, ob ein Rahmen vollständig übertragen wurde.

4.1.4. Datenstopfen Die o.a. Vorteile bei der Erkennung von Übertragungsfehlern durch Verwendung von Rahmenbegrenzern bereiten aber Probleme durch sog. Overhead. Um zwischen Nutz- und Steuerdaten zu unterscheiden, verändern Übertragungssysteme die zu sendenden Daten geringfügig. D.h. es muß sichergestellt werden, daß das Netzwerksystem Nutz- und Steuerdaten nicht verwechseln kann. Eine Technik, die dies gewährleistet, besteht im Einfügen von zusätzlichen Bits oder Bytes in die Daten vor der Übertragung. Diese Technik wird als Datenstopfen (data stuffing) bezeichnet. Die folgende Abbildung zeigt ein Beispiel, bei dem der Sender für jedes Zeichen der linken Spalte eine Zeichenfolge der rechten Spalte überträgt.

Das Ergebnis der veränderten zu übertragenden Datenfolge zeigt die folgende Abbildung:

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 45

4.1.5. Übertragungsfehler Äußere Ereignisse wie z.B. Blitzschlag, Spannungsspitzen oder elektromagnetische Störfelder können in den Leitern und Hardwareeinrichtungen der Übertragungssysteme unerwünschte elektrische Effekte erzeugen. Änderungen im elektrischen Signal (siehe Kap. 3.2.6) können dazu führen, dass der Empfänger eines Signals dieses falsch interpretiert. Der Begriff Übertragungsfehler (transmission errors) fasst die Probleme verlorener, geänderter oder vermeintlicher empfangener Bits zusammen. Um sich gegen Verfälschungen abzusichern, werden zusätzliche Informationen übertragen, die mit den Daten nichts zu tun haben, aber mit deren Hilfe sich Fehler feststellen und oft auch korrigieren lassen. Man unterscheidet also Fehlererkennungs- und Fehlerkorrekturcodes.

4.1.6. Paritätsbits und Paritätsprüfung Trotz relativ hoher Zuverlässigkeit der Übertragungseinrichtungen kommen Übertragungsfehler in der Realität vor. Netztechnologien müssen also Mechanismen der Hardware- und Software bereitstellen, um Fehler dieser Art erkennen und ggf. korrigieren zu können. Wie in Kapitel 3.2.3 dargestellt nutzt RS-232 Hardware einen Timer, um die Bits des ankommenden Zeichens zu prüfen. Bleibt das Signal nicht über die definierte Dauer in einer festen Spannung, so geht die Hardware von einem Fehler aus. Um weiterhin sicherzustellen, dass jedes Zeichen intakt empfangen wird, wird die sog. Paritätsprüfung (parity check) eingesetzt. Bei der Paritätsprüfung berechnet der Sender ein zusätzliches Bit, das sog. Paritätsbit (parity bit), das er vor der Übertragung eines Zeichens anhängt. Sind alle Bits eines Zeichens angekommen sind, entfernt der Empfänger das Paritätsbit, führt die gleiche Berechnung wie der Sender durch und prüft die Ergebnisse auf Übereinstimmung mit dem Wert des Paritätsbits. Man unterscheidet zwei Paritätsformen: gerade (even) und ungerade (odd) Parität. Sender und Empfänger müssen sich auf die jeweilige anzuwendende Form einigen. In einer Nachricht beliebiger Länge kann man durch Hinzufügen eines redundanten Bits einen Fehler von einem Bit erkennen. In einem 8-Bit-Code, der oft zur Übertragung von Zeichen über eine störanfällige Leitung verwendet wird, ist das 8. Bit dann und nur dann eine 1, wenn sich unter den anderen 7 Bit eine gerade Zahl von Einsen befindet. Demnach muß die 8-Bit-Folge immer eine ungerade Zahl von Einsen enthalten. Haben Störungen bei der Übertragung aus einer 1 eine 0 gemacht oder umgekehrt, so ist in der 8-Bit-Nachricht beim Empfänger eine gerade Zahl von Einsen enthalten. Daraus kann der Empfänger ableiten, dass sich ein Fehler ereignet hat.1 Mit 1 Paritätsbit kann man also Fehler in Bitfolgen mit einer beliebigen Anzahl von Bits erkennen.

1 ähnliche Paritätsverfahren werden auch in den Speichersystemen von Computern verwendet

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 46

Beispiel für gerade Parität: Der Sender setzt das Paritätsbit auf 0 oder 1, je nachdem, welches zu einer geraden Gesamtzahl von 1-Bits (einschl. des Paritätsbits) führt. Das Paritätsbit für 0100101 ist bei der geraden Parität 1, weil das Zeichen eine ungerade Zahl von 1-Bits enthält. Das Paritätsbit für 0101101 ist 0, weil das Zeichen bereits eine gerade Zahl von 1-Bits enthält. Parität stellt somit ein wichtiges Konzept in Übertragungssystemen dar: Um Fehler zu erkennen, verwenden Netzwerksysteme redundante Informationen zusätzlich zu den Daten. Der Sender berechnet den Wert der zusätzlichen Information aus den Daten, der Empfänger führt die gleiche Berechnung durch, um die Ergebnisse zu prüfen.

4.1.7. Fehlererkennung Eine Begrenzung bei o.a. Art der Codierung besteht darin, dass Fehler nur erkannt werden können. So hat z.B. eine Nachricht mit 2 veränderten Bits trotzdem die richtige Parität, obwohl die Daten verfälscht sind. Diese Mehrfachfehler kann man mit mehreren Paritätsbits finden, man spricht in diesem Zusammenhang von einem zweidimensionalen Paritätscode. Das Problem der Erkennung von Übertragungsfehlern wurde ausgiebig von Statistikern untersucht. Grundlegend für jedes Erkennungs- oder Korrektursystem von Fehlern ist das Prinzip, dass der Sender zusätzlich zu den Nutzdaten weitere Informationen übertragen muß. D.h. jedes der Verfahren hat einen bestimmten Übertragungs-Overhead, der sich folgendermaßen zusammensetzt:

• Größe der zusätzlich übertragenen Informationen • Berechnungsaufwand des Algorithmus

Die Codierungstheorie beschäftigt sich mit der Frage, wieviel Redundanz man für einen Sicherungszweck braucht und wie das Berechnungsverfahren am besten ausgelegt sein sollte.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 47

4.1.7.1. Prüfsummen Zur Fehlererkennung wird in der Praxis häufig auch jedem Paket eine Prüfsumme (checksum) angehängt. Der Sender behandelt zur Berechnung der Prüfsumme die Daten als Sequenz binärer Ganzzahlen und berechnet ihre Summe. Dabei müssen die Daten selbst keine ganzzahligen Werte sein, sie können Zeichen, Bilddaten oder andere Formate haben. Die folgende Abbildung zeigt die Berechnung einer 16-Bit-Prüfsumme für einen Beispieltext:

Bei diesem Verfahren berechnet also der Sender die Prüfsumme, indem jedes Zeichenpaar als 16-Bit-Ganzzahl aufgefasst wird. Ergibt die Summe mehr als 16 Bit, wird das Übertragsbit (carry) zur endgültigen Summe hinzuaddiert. Der Vorteil der Prüfsummen liegt in der einfachen Berechnung und in dem günstigen Größenverhältnis zu den Nutzdaten. Der Nachteil liegt darin, dass nicht alle Fehler erkannt werden können.

4.1.7.2. Zyklische Redundanzprüfung Die in Netzwerken am häufigsten eingesetzte Methode der Fehlererkennung in Rahmen ist die zyklische Redundanzprüfung (cyclic redundancy check – CRC). Das CRC-Verfahren kann mehr Fehler erkennen als eine Prüfsumme. Während ein Paritätsbit mit jedem einzelnen Zeichen gesendet wird, wird die Prüfsumme oder die CRC mit jedem Rahmen gesendet. CRC erfordert zwar eine kompliziertere Berechnung, kann aber mit entsprechender Hardware preisgünstig realisiert werden.2 Die CRC-Berechnung wird mit folgendem Übertragungsprinzip durchgeführt:

• alle Bits werden an einen CRC-Generator gesandt • hier wird der Bitstrom durch ein sog. Generatorpolynom (z.B. beim CRC-12-Verfahren:

G(x) = x12+x11+x3+x2+x+1) dividiert und eine Kontrollzahl erzeugt • Nutzdaten und Kontrollzahl werden vom Empfänger ebenfalls durch einen CRC-

Generator durch das Generatorpolynom dividiert • ist der Divisionsrest gleich 0, dann hat keine Verfälschung stattgefunden • ansonsten initiiert der Empfänger die erneute Übertragung der Daten

2 CRC wird nicht nur in Netzwerken eingesetzt, sondern auch zum Prüfen der Datenaufzeichnung auf Platten

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 48

4.1.7.3. Burstfehler Mathematisch lässt sich beweisen, dass die Fehlererkennung nach der CRC-Methode mehr Fehler als z.B. die Prüfsummen-Methode erkennt. Die Anwendung des CRC-Verfahrens ist bei bestimmten Fehlerarten besonders vorteilhaft. Hardwareausfälle können zur Beschädigung bestimmter Bits führen. Fehler dieser Art bezeichnet man als sog. vertikale Fehler, weil sie in einer vertikalen Spalte erscheinen, wenn die Zeichen in Zeilen angeordnet sind. CRC-Algorithmen werden zur Fehlererkennung in Bitfolgen nahe einer bestimmten Position verwendet. Diese Fehlerarten, Burstfehler genannt, treten z.B. bei elektrischen Interferenzen auf und sollten von der Netzwerkhardware erkannt werden.

4.1.7.4. Rahmenformat und Fehlererkennungsmechanismen In Netzwerken wird Fehlererkennung normalerweise auf einzelne Rahmen angewandt. Der Sender berechnet die Prüfinformationen und überträgt diese zusätzlichen Informationen zusammen mit den Nutzdaten im Rahmen. Der Empfänger berechnet den gleichen Wert und vergleicht ihn mit den im Rahmen übermittelten Prüfinformationen. In den jeweiligen Netzwerkstandards ist geregelt, ob z.B. CRC aus den Nutzdaten oder den Protokolldaten oder aus Beidem berechnet wird.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 49

4.2. LAN-Technologien und Netztopologien Lokale Netzwerke (local area networks, LAN) erlauben den direkten Anschluß von Netzkomponenten, wie z.B. Netzwerkcomputer, Netzwerkdurcker, an ein gemeinsam benutztes Netzwerk. Da das basierende Netzwerk gemeinsam benutzt wird (shared medium), müssen die Netzwerkkomponenten abwechselnd darauf zugreifen. Für die Standardisierung von LANs, den verwendeten Übertragungsverfahren und der Anschlußtechnik ist seit 1980 die Projektgruppe 8023 beim IEEE zuständig. Einige der bekannteren Arbeitsgruppen werden im folgenden aufgelistet:

• 802.3 CSMA/CD • 802.5 Token Ring • 802.11 Wireless LAN (WLAN) • 802.12 Demand Priority (100Base-VG)

4.2.1. Direkte Punkt-zu-Punkt-Kommunikation Die ersten Kommunikationssysteme bestanden aus der direkten Verbindung von zwei Computern über einen Übertragungskanal. Diese sog. Punkt-zu-Punkt-Verbindung (point-to-point network) stellte eine dauerhafte und sichere Verbindung dar. Sollen mehr als zwei Computer miteinander kommunizieren, nimmt die Anzahl der Verbindungen mit jedem neu in das Netz angeschlossenen Computer zu, wie folgende Abbildung zeigt:

Die Gesamtzahl der Verbindungen nimmt also schneller zu, als die Anzahl der Computer, die angeschlossen sind. Mathematisch formuliert, verhält sich die Zahl der für N Computer benötigten Verbindungen proportional zu N2:

Direktverbindungen = (N2 – N)/2

3 benannt nach dem Jahr (1980) und dem Monat (2=Februar) der Bildung der Arbeitsgruppe beim IEEE

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 50

Dies bedeutet, dass jeder neue Computer eine Verbindung zu jedem der vorhandenen Computer benötigt. In der Praxis ist dies mit hohen Kosten verbunden, die für ein großes Netzwerk nicht mehr geleistet werden können.

4.2.2. Gemeinsame Kommunikationskanäle Als Alternative zu den teueren Punkt-zu-Punkt-Verbindungen entwickelten sich um 1970 lokale Netzwerke (LANs), die aus einem gemeinsamen Medium, i.d.R. ein Kabel, bestehen, an das viele Computer angeschlossen werden. Die Computer nutzen das Medium abwechselnd zum Senden von Paketen. Durch die gemeinsame Nutzung von Netzressourcen können beträchtliche Kosteneinsparungen erzielt werden.

4.2.3. Bedeutung von LANs Die Evolution der Netzwerke wird in folgender Abbildung dargestellt:

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 51

4.2.4. LAN-Topologien Heute gibt es viele unterschiedliche LAN-Technologien. Je nach ihrem Aufbau können Netzwerke in unterschiedliche Topologien eingeteilt werden.

4.2.4.1. Bustopologie Ein Netzwerk auf Grundlage der Bustopologie (bus topology) besteht aus einem einzigen Kabel, an das die Computer angeschlossen sind. Beispiele für die sog. Backbone-Kabel sind 10Base5-Kupferkabel, yellow cable (siehe Kap. 3.1.2). Jeder an den Bus angeschlossene Computer kann Signale über das Kabel senden, das von allen anderen Computern empfangen werden kann (shared medium). Es besteht also die Möglichkeit, dass jeder Computer zu jedem anderen Computer Signale senden kann. Mittels bestimmter Zugriffsalgorithmen müssen die angeschlossenen Computer ihre Aktionen koordinieren.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 52

4.2.4.2. Ringtopologie Sind alle angeschlossenen Computer in Form einer geschlossenen Schleife angeordnet, so spricht man von einer Ringtopologie (ring topology). Der erste Computer wird mit einem Anschlusskabel mit dem zweiten Computer und so fort verbunden, bis der letzte Computer wieder mit dem ersten Computer verbunden ist. Die Bezeichnung bezieht dabei nicht auf die physische Anordnung, sondern auf die logischen Verbindungen zwischen den Computern.

Aus Gründen der Ausfallsicherheit kann die Ringtopologie auch als Doppelring realisiert werden.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 53

4.2.4.3. Sterntopologie Eine Netzwerkstruktur, bei der alle Computer an einen zentralen Punkt angeschlossen werden, bezeichnet man als Sterntopologie (star topology). Der Begriff „Hub“ als zentraler Anschlusspunkt kommt daher, dass die Sternstruktur einem Rad ähnelt. Der Mittelpunkt eines Rades, die Nabe, wird im Englischen als Hub bezeichnet.

Mit der Sterntopologie lässt sich eine strukturierte Verkabelung gemäß Kap. 3.1.11 aufbauen.

In der Praxis gibt es Mischformen, z.B. zwischen der Bustopologie und der Sterntopologie. So werden z.B. Hubs häufig in Bustopologie angeordnet.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 54

4.2.5. Beispiel eines Busnetzes: Ethernet In der ursprünglichen Variante wurde Ethernet als Bustopologie realisiert. Heute gibt es mehrere Variationen von Ethernet, wie z.B. IEEE 802.3-CSMA/CD4-LAN oder die Ethernet Version-2 Variante von Digital, Intel und Xerox. Ethernet wurde um 1970 am Palo-Alto-Forschungslabor der Xerox Corporation mit einer Kapazität von 3 MBit/s entwickelt. Später arbeiteten die Firmen Digital, Intel und Xerox zusammen an einem Standard, der als DIX Ethernet bekannt wurde. 1982 wurde der Entwurf IEEE 802.3-CSMA/CD veröffentlicht. Das CSMA/CD-Verfahren, als Zugriffsverfahren, wurde auf die unterschiedlichsten Übertragungsmedien adaptiert und als IEEE 802.3-Substandards veröffentlicht:

1982 10Base-5 Yellow Cable 1983 10Base-2 Cheapernet, Thin Wire 1985 10Broad-36 Breitband 1985 1Base-5 StarLAN 1991 10Base-T Twisted Pair 1993 10BaseFL Fibre Optics 1995 100Base-T Fast Ethernet 2000 1000Base-T Gigabit Ethernet

Konzeptionell besteht die Urversion des Ethernet-LAN aus einem Koaxialkabel, dem Äther (Ether), an das mehrere Computer angeschlossen werden. Im damaligen Standard war die Länge auf 500 m begrenzt, der Mindestabstand zwischen den Stationen war 3 Meter. Die ursprüngliche Ethernet-Hardware arbeitete mit einer Bandbreite von 10 MBit/s. Full Duplex Ethernet mit 20 MBit/s. FastEthernet arbeitet mit 100 MBit/s und Gigabit Ethernet mit 1 GBit/s. Der Ethernet-Standard spezifiziert Einzelheiten, wie z.B. Rahmenformat, minimale Paketgröße (64 Byte), maximale Paketgröße (1518 Byte), Adreßgröße (48 Bit), anzuwendende Spannung

4 Carrier Sense Multiple Access with Collision Detection

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 55

und die Modulationsmethode für die Signalübertragung. Ein Sender überträgt eine modulierte Trägerwelle, die über das gesamte Kabel verteilt wird, d.h. alle anderen Computer „hören“ mit. Während der Übertragung eines Rahmens nutzt nur der sendende Computer das gesamte Kabel, die anderen müssen warten bis der sendende Computer fertig ist, erst dann kann das gemeinsame Kabel von einem anderen Computer benutzt werden.

Eine heute übliche Netzwerkstruktur auf Basis von Ethernet stellt sich wie folgt dar:

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 56

4.2.5.1. CSMA/CD Die Koordination von sendewilligen und empfangsbereiten Stationen wird beim Ethernet durch das Zugriffsverfahren CSMA/CD geregelt. Dieser Mechanismus gewährleistet die Gleichbehandlung aller Stationen im Netz. Nachdem Ethernet über keinen zentralen Controller verfügt, der den Zugriff der einzelnen Computer auf das Netzwerk regelt, müssen alle Stationen an einem verteilten Koordinationsmechanismus, der als CSMA (carrier sense with multiple access) bezeichnet wird, teilnehmen. Um zu ermitteln, ob das Medium momentan von einem anderen Computer benutzt wird, sucht der sendewillige Computer nach einer Trägerwelle (Trägerabtastung, carrier sense, CS). Ist ein Träger vorhanden, muß er warten, bis der Sender fertig ist, die eigene Übertragung wird also auf einen späteren Zeitpunkt zurückgestellt (deferring), indem die sendewillige Station eine zufällige Zeitspanne wartet. Wird das Medium als frei erkannt, erfolgt die Übertragung der Daten nach dem Verstreichen einer definierten Zeitspanne, der sog. Interframe Gap (9,6 Microsekunden). Anschließend werden die Daten als bitserieller Strom über das Kabel in folgendem Format übertragen:

• Präambel (7 Byte: 10101010) • Start Frame Delimiter (10101011) • Zieladresse (6 Byte) • Quelladresse (6 Byte) • Längen/Typ-Feld (2 Byte) • Nutzdaten (50 bis 1500 Byte) • Prüfsumme (4 Byte)

Bei diesem Zugriffsverfahren kann es vorkommen, dass zwei oder mehrere Stationen (multiple access, MA) zur gleichen Zeit feststellen, dass das Medium frei ist (die Signale breiten sich mit ca. 70% der Lichtgeschwindigkeit im Kabel aus). Da diese Stationen ihre Daten auf das Netz legen, müssen sich zwangsläufig die elektrischen Signale auf dem Medium überlagern. Dieser Vorgang der Überlagerung wird als Kollision5 (collision) bezeichnet. Die darin kodierten Informationen gehen dabei verloren. Kollisionen sind auch der Grund für die Festlegung der max. Segmentlänge (100 m bei 10BaseT, oder 500 m bei 10Base5) und der minimalen Rahmengröße bei Ethernet. Damit wird erreicht, dass eine Kollision alle Stationen erreichen kann, bevor diese die Übertragung abbrechen. Da jede sendende Station gleichzeitig auch auf dem Empfangskanal die versendeten Signale überprüft und testet, ob das eigene Signal fehlerfrei6 auf der Leitung ist, wird die Überlagerung der elektrischen Signale, die Kollision, sofort erkannt, also ist Kollisionserkennung CD (collision detection) gegeben. D.h. diese Tests werden von der Netzwerkkarte durchgeführt. Neben der Erkennung der Kollision bietet der CSMA/CD-Mechanismus auch die Möglichkeit der Behebung derartiger Situationen und regelt die Wiederaufnahme der Übertragung nach einer Kollision. Hat eine der sendenden Stationen eine Kollision festgestellt, so sendet diese zur Deutlichmachung der Kollisionssituation für die anderen Stationen ein 32-Bit langes Jamming-Signal (10101010-10101010-10101010-10101010). Danach wird die Übertragung abgebrochen. Kollisionen können nur einen relativ kurzen Zeitraum nach dem Aussenden der Daten auftreten, danach darf bei Ethernet keine Kollision mehr auftreten. Nach Aussenden des

5 ein einzelnes Ethernet-Segment wird auch als sog. collision domain oder auch Ethernet time domain betrachtet, weil keine 2 Stationen gleichzeitig Daten übertragen können, ohne eine Kollision zu produzieren 6 sog. SQE (signal quality errors)

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 57

Jamming-Signals muß eine Zufallszeit abgewartet werden, bevor ein neuer Sendeversuch erfolgen kann. Bei diesem neuen Sendeversuch kann natürlich wieder eine Kollision auftreten. Der Sendeversuch wird erneut abgebrochen und die Wartezeit, bevor erneut gesendet wird, wird dynamisch verändert. Die maximale Anzahl der Sendeversuche ist auf 16 (attempt limit) begrenzt. Dann kommt die Fehlermeldung „carrier lost“. Bei älteren Netzwerkkarten und Betriebssystemen „hing“ die Applikation oder das System. Es wird also sichergestellt, dass zu einem bestimmten Zeitpunkt nicht mehrere Stationen gleichzeitig, in wiederkehrender Folge versuchen, das Medium zu belegen.

Ethernet ist nach einer Kollision schnell wieder betriebsbereit, da jeder Computer bereit ist, zwischen den einzelnen Zugriffsversuchen länger zu warten, wenn das Medium belegt ist. Indem das Zufallsintervall exponentiell mit der Anzahl der Kollisionen wächst, garantiert CSMA/CD kurze Verzögerungen, falls wenige Computer kollidieren, und eine rasche Auflösung, wenn viele kollidieren.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 58

4.2.5.2. Effizienzbetrachtungen zu Ethernet So elegant der CSMA/CD-Mechanismus auch erscheint und in der Praxis seine Leistungsfähigkeit vielfach unter Beweis stellt, so liegt die Hauptbeschränkung der CSMA/CD-Methode in seiner Abhängigkeit von der Ausbreitungsgeschwindigkeit der Signale über die Netzwerkverkabelung. Während der Zeit, in der das erste Bit des vom Sender verschickten Datenpakets sich noch über das Medium hinweg zu allen anderen Stationen ausbreitet und die letzte Station noch nicht erreicht hat, kann es passieren, dass eine Station, für die das Medium noch frei zu sein scheint, ebenfalls zu senden beginnt. Daraus resultiert, wie im vorherigen Kapitel beschrieben, eine Kollision. D.h. je später eine Kollision eintritt – und das ist je länger das Kabel ist desto später möglich – desto geringer ist die Effizienz des CSMA/CD-Algorithmus. Diese konzeptuelle Eigenschaft von CSMA/CD ist der Grund für die Längenbeschränkung einer Collision Domain in 10BaseT-Netzwerken auf 2500 Meter (max. Distanz zwischen zwei Netzknoten) und bei Fast Ethernet auf 205 Meter, wie in der folgenden Abbildung am Beispiel Fast Ethernet dargestellt:

Fast Ethernet Hubs arbeiten vom Prinzip genau wie 802.3-Ethernet-Hubs nur mit dem Unterschied, dass bei Fast Ethernet die Übertragungsgeschwindigkeit höher ist. Der 802.3-Ethernet-Standard definiert den sog. maximalen Round Trip Delay in einer einzelnen Collision Domain mit 576 Bitperioden, das sind bei 10 MBit/s 57,6 Microsekunden und bei 100 MBit/s 5,76 Microsekunden. Aufgrund dieser Werte ist die maximale geographische Ausdehnung eines Netzwerks innerhalb einer Collision Domain festgelegt. Überschreitet die Signallaufzeit (Laufzeit des Signals in der Kabeln + Verzögerungszeiten in Hubs7, Repeatern und Netzwerkkarten) diesen Wert, versagt die Erkennung von Kollisionen. Dies ist der Grund warum bei Fast Ethernet der max. geographische Durchmesser einer Collision Domain 205 m und bei Ethernet 2500 m ist. Zusätzlich zum Laufzeitproblem der Signale kommt, dass der CSMA/CD-Algorithmus mit ca. 50 Stationen innerhalb eines Segments bei durchschnittlichem Lastprofil im Netzwerk nur einen maximalen Durchsatz von 30 – 40 % der gesamten verfügbaren Bandbreite leisten kann. Für Anwendungen, die eine zugesicherte Bandbreite benötigen, wie z.B. Multimediaanwendungen (Videoübertragung, Sprachübertragung, Bilddatenübertragung) ist also Ethernet oder Fast Ethernet weniger geeignet. Gigabit Ethernet benutzt ebenfalls das CSMA/CD-Verfahren, aufgrund von Protokollerweiterungen, die Eigenschaften von ATM

7 sog. Class-II-Repeater haben eine Verzögerungszeit von 0,46 Microsekunden

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 59

(siehe Kapitel 4.2.8), wie z.B. die Eigenschaft des Quality of Service, nachbilden, können auch zeitkritische Übertragungen durchgeführt werden. Die folgende Tabelle zeigt einen Überblick über die Ethernet-Netzwerkfamilie:

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 60

4.2.6. Beispiel eines Busnetzes: LocalTalk Die Firma Apple entwickelte ein lokales Netzwerk auf der Bustopologie, mit dem Namen LocalTalk. LocalTalk kommt bei der Vernetzung von Apple-Computern zum Einsatz, wobei jeder Macintosh die erforderliche Netzwerkhardware bereits eingebaut hat. Als Zugriffsverfahren wird jedoch nicht CSMA/CD, sondern CSMA/CA (carrier sense multiple access with collision avoidance) eingesetzt. Dieses Zugriffsverfahren wird auch bei drahtlosen Netzen, z.B. Funk-LANs, verwendet. Eine sendewillige Station sendet eine Steuernachricht auf den Bus, um ihn für sich zu reservieren. Anschließend wird die eigentliche Nachricht übertragen. Bei erfolgreicher Reservierung, sind alle anderen Stationen solange blockiert, bis der momentane Sender mit der Übertragung fertig ist. Nachteile von LocalTalk liegen in der geringen Bandbreite von ca. 230 KBit/sec (etwa 2,3 % von Ethernet). Geringe Bandbreite bedeutet, dass die Übertragung somit länger dauert. Vorteile liegen im Preis, da Macintosh-Systeme bereits netzwerkfähig ausgeliefert werden und in der einfachen Installation und Inbetriebnahme eines LocalTalk-Netzwerkes.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 61

4.2.7. Beispiel eines Ringnetzes: Token Ring Token-Ring ist eine von der Firma IBM entwickelte Netzwerktechnolgie auf Basis der Ringtopologie. Die meisten auf Ringtopologie basierenden Netzwerke nutzen einen Zugriffsmechanismus, der als Token-Passing bezeichnet wird. Token bezieht sich dabei auf den Zugriffsmechanismus. Ein derartiges Netzwerk heißt Token-Ring (token passing ring network). Das Zugriffsverfahren Token-Passing arbeitet grundlegend anders als das bei Ethernet eingesetzte CSMA/CD-Verfahren. Eine Station kann erst dann Daten senden, wenn sie dazu die Berechtigung erhält. Diese Berechtigung wird mittels eines im Ring kreisenden speziellen Datenpakets, dem sog. Token (Pfang, Freizeichen), erteilt. Diejenige Station, die zuerst eingeschaltet wird, übernimmt die Generierung des Tokens. Weitere Stationen im Token-Ring verstärken das Token und senden es weiter. Eine sendewillige Station erkennt am Token, ob das Netz frei ist. In diesem Fall wird das Token als belegt markiert und die zu sendenden Daten werden mit Absender- und Zieladresse versehen und über den Ring verschickt. Jede im Ring liegende Station, bei der Token und Nachricht vorbeikommen, liest das Token und vergleicht die eigene Adresse mit der im Paket angegebenen Zieladresse. Bei Übereinstimmung werden die Daten extrahiert und der Rahmen einschl. Token weitergeschickt, bis es wieder beim Sender angekommen ist. Der Sender gibt das Token wieder frei und schickt es wieder in den Ring. Bei Nicht-Übereinstimmung der eigenen Adresse mit der im Token angegebenen Zieladresse wird das Token und die Nachricht verstärkt und im Ring weitergegeben.

Das Zeitverhalten des Token-Ring-Netzwerkes wird durch die Länge des Rings und die Anzahl der angeschlossenen Stationen bestimmt. Das Token-Passing-Verfahren ist ein sog. deterministisches Zugriffsverfahren, d.h. das Antwortverhalten des Netzwerkes ist vorhersagbar. Auch bei hoher Netzbelastung kann es nicht vorkommen, dass einzelne Stationen unbestimmt lange warten müssen, das Token-Passing-Verfahren garantiert, dass alle sendewilligen Stationen nacheinander jeweils einen Rahmen senden können. Das Verfahren garantiert also einen fairen Zugriff der Stationen auf das Netzwerk.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 62

Die maximale Ringlänge ist abhängig vom Kabel, sowie der Anzahl der Stationen und der sog. MAUs (Media Access Unit). Die Verkabelung der Stationen erfolgt zwar sternförmig, wegen der doppelten Leitungsführung mit Hin- und Rückleitung ergibt sich aber ein physikalischer Ring. Die zu vernetzenden Stationen werden an die MAUs sternförmig angeschlossen. Die Kabel besitzen zwei getrennte Leiter für den Signaltransport zu und von der Station, sodaß ein physikalischer Ring entsteht. Nachteilig beim Token-Ring ist die Fehleranfälligkeit bei „Bruch“ der Ringstruktur. D.h. fällt eine Station im Ring aus, wird das Token nicht mehr weitergegeben. Vorkehrungen dagegen können z.B. mit einem sog. Doppelring getroffen werden. Aufgrund der schneller konkurrierenden Netzwerktechnologien kann heute Token-Ring mit der 16 MBit/s-Übertragungsleistung nicht mehr zu den schnellen Netzwerken gerechnet werden. Zudem ist die Hardware zum Aufbau eines Token-Ring-Netzes (Netzwerkkarten, MAUs) aufgrund geringerer Nachfrage teuerer als z.B. Ethernet-Hardware. Dennoch ist eine Weiterentwicklung von Token-Ring zu Geschwindigkeiten von 100 MBit/s bis 1 GBit/s als sog. High Speed Token-Ring geplant.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 63

4.2.8. Beispiel eines Ringnetzes: FDDI FDDI (fiber distributed data interconnect) ist ebenfalls eine Token-Ring-Technik, die eine Übertragungsrate von 100 MBit/s erreicht. Der Standard wurde 1989 von ANSI definiert. Fehleranfälligkeiten wie z.B. beim Token-Ring werden durch Redundanz gelöst. D.h. ein FDDI-Netzwerk besteht aus zwei kompletten Ringen. Ein Ring wird zur Übertragung der Daten genutzt, der andere Ring wird als Ausweichnetz genutzt, wenn Probleme mit dem Hauptring auftreten. FDDI nutzt sog. selbstheilende Hardware, d.h. die FDDI-Netzwerkhardware erkennt einen Fehler dadurch, dass bei Ausfall einer Station die anderen Stationen automatisch auf den zweiten Ring geschaltet werden. FDDI nutzt zwei gegenläufige Ringe. Würden Daten immer in der gleichen Richtung fließen, würde ein Kabelbruch im Ring alle dahinterliegenden Stationen blockieren. Fließen die Daten aber in umgekehrter Richtung durch den zweiten Ring, können die restlichen Stationen das Netzwerk auf dem Umkehrpfad versorgen.

Aufgrund des hohen Durchsatzes und der großen Zuverlässigkeit wird FDDI häufig im Backbone-Bereich, d.h. zur Vernetzung der Server, oder zur Kopplung von Ethernet-Segmenten, eingesetzt. Es gibt also entsprechende Produkte für den FDDI-Ethernet-Übergang. Der FDDI-Ring wird meistens mit LWL-Kabeln realisiert. Bei FDDI über Twisted-Pair-Kupferkabel spricht man auch von CDDI (copper distributed data interface). Das Token-Passing-Verfahren in FDDI ist deterministisch, d.h. die maximale Verzögerungszeit ist definiert. Somit kann FDDI auch zur Übertragung von laufzeitabhängigen Multimediaanwendungen verwendet werden. Die maximale Anzahl von Stationen in einem FDDI-Ring ist 1000, also 500 Stationen mit Doppelanschluß. Der maximale Abstand zwischen zwei Stationen ist 2 km, die maximale Länge des Ringes ist 100 km. Man unterscheidet sog. DAS-Stationen (dual attachment station), die über zwei Ports am Doppelring angeschlossen werden können und sog. SAS-Stationen (single attachment station), die aus Preisgründen nur über einen Port angeschlossen werden können.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 64

4.2.9. Beispiel eines Sternnetzes: ATM ATM (Asynchronous Transfer Mode) wurde ursprünglich von Telefongesellschaften entwickelt. ATM ist ein schnelles Übertragungsverfahren für Netzwerke, das als zukunftsträchtige Technologie zum Aufbau von universellen High-Speed-Netzwerken mit der Möglichkeit der Einbindung von WAN-Topologien gilt. Grundelement eines ATM-Netzwerkes ist ein elektronischer Vermittler (Switch), an den die Computer angeschlossen sind.

An den zentralen ATM-Switch sind sog. Edge-Devices angeschlossen, an die wiederum die Endgeräte (Server, Clients) angeschlossen werden. Aus dieser Struktur ergibt sich die Stern-Topologie eines ATM-Netzes. D.h., Daten werden in einem Sternnetzwerk nicht an alle angeschlossenen Stationen versandt, wie bei Bus- oder Ring-Topologien, sondern direkt zwischen den Kommunikationspartnern ausgetauscht. Der ATM-Switch schaltet über die sog. Switching-Matrix eine Direktverbindung zwischen Sender und Empfänger. Damit sind viele Vorteile verbunden:

• die direkte Vermittlung der Datenpakete, ohne ineffiziente, verteilte Zugriffsmechanismen, wie z.B. CSMA/CD oder Token-Passing, nutzen die Übertragungsbandbreite effizient ( > 90%)

• die ausschließliche Kommunikation zwischen Sender und Empfänger erhöht die Datensicherheit

• aufgrund der deterministischen max. Übertragungsverzögerung können auch Echtzeitdaten ohne Verlust übertragen werden

Damit der zentrale ATM-Switch die Datenpakete zwischen Sender und Empfänger sehr schnell vermitteln kann, werden alle Arten von zu übertragenden Informationen, also Audio, Video und Daten in Pakete fester Länge (53 Byte), sog. Zellen, unterteilt.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 65

Der Protokoll-Overhead dieser ATM-Zellen beträgt nur ca. 10%, d.h. 48 Bytes stehen für Nutzdaten zur Verfügung und 5 Bytes enthalten Kontrollinformation. Aufgrund dieser festen Zellenlänge resultieren viele Vorteile von ATM, wie z.B. kalkulierbare Verzögerungszeit, wodurch für einzelne Anwendungen garantierte Bandbreiten (Quality of Service) vergeben werden können. Das Problem unterschiedlich langer Datenpakete, die z.B. bei Filetransfers auftreten und damit in anderen Netztechnologien andere Anwendungen blockieren, tritt bei ATM nicht auf. Netzwerktyp Min. Paketlänge (Byte) Max. Paketlänge (Byte) Größenverhältnis Ethernet 64 1.518 1 : 23 Token Ring 13 17.800 1 : 1369 FDDI 12 4.500 1 : 375 ATM 53 53 1 : 1 Sehr kurze Blöcke sind besser für die Sprachübertragung geeignet, lange Blöcke für die Übertragung von Daten und bewegten Bildern. Mit der festen Zellengröße bei ATM wurde durch das ATM-Forum8 ein Kompromiß für die Datenübertragung aller Dienste gefunden. Zur Auswahl standen damals für das ATM-Forum folgende Zellengrößen:

Da die meisten Daten nicht in einer einzigen ATM-Zelle untergebracht werden können, werden die unterschiedlich langen Pakete der Anwendungsprogramme mit dem Anpassungsmechanismus SAR (segmentation and reassembly) der sendenden ATM-Netzwerkkarte auf ATM-Zellen aufgeteilt und am Zielcomputer wieder zusammengesetzt. 8 Interessenvertretung von ATM-Herstellern

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 66

Aufgrund dieses Verfahrens können mit ATM-Netzwerken Multimediadaten, also zeitbasierte Daten, wie z.B. Audio und Videobilder, übertragen werden, die eine definierte Bandbreite erfordern. Schon eine kleine Verzögerung im Datenstrom bei Audio- oder Videodaten nimmt der Anwender als Knacken oder zeitweiliges Aussetzen wahr. D.h. bei Audio- und Videodatenübertragung müssen alle beteiligten Hardware- und Softwarekomponenten ein berechenbares Echtzeitverhalten aufweisen. Neben der reinen Geschwindigkeit eines Netzwerkes, bei ATM erreicht man 155 MBit/s bis zu 2,4 GBit/s, ist also auch das Zellenvermittlungsverfahren für die Netzwerkleistung ausschlaggebend. Die folgende Abbildung zeigt die Anforderungen der verschiedenen Datendienste:

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 67

Die Übertragung der ATM-Zellen beruht auf dem Prinzip der virtuellen Verbindung. Die Zellen für eine bestimmte Verbindung werden bei der Erzeugung auf einem vorher festgelegten Weg durch das Netz transportiert. Dazu enthält die ATM-Zelle Verbindungsinformationen, wie z.B. Pfad- oder Kanalnummer.

ATM kennt neben Festverbindungen (PVC, permanent virtual circuit) auch geschaltete Verbindungen (SVC, switched virtual circuits). Dabei kann es sich wieder um virtuelle Punkt-zu-Punkt- oder virtuelle Punkt-zu-Mehrpunktverbindugen handeln:

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 68

Jedem an einem ATM-Switch angeschlossenen Gerät kann aufgrund der Struktur PVC oder SVC statisch oder dynamisch die benötigte Bandbreite zugeteilt werden, wobei diese nur durch die Kapazität der ATM-Switch-Hardware, der Kapazität der sog. Backplane, begrenzt ist. Als Problem hat sich der Übergang von ATM zu anderen Topologien wie z.B. Ethernet, FDDI oder Token Ring erwiesen..

So wurden z.B. für die Verwendung von IP-Adressen über ATM verschiedene RFCs9 herausgegeben. RFC 1483 (multiprotocol encapsulation) und RFC 1577 (classical IP-over-ATM) sind die bekanntesten. Um bestehende Anwendungen auf Basis von TCP/IP in ATM zu integrieren gibt es den Lösungsansatz (LANE, LAN emulation). ATM ist eine Netzwerktechnik, die LANs und WANs nahtlos integrieren kann, d.h. zusätzliche Gateways würden dadurch überflüssig, die LAN- auf WAN-Protokolle umsetzen. Aufgrund dieser vielversprechenden Konzeption und der Möglichkeit der Skalierbarkeit erfreut sich ATM momentan großer Beliebtheit als High-Speed-Netzwerk. 9 Request for comment

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 69

4.3. Hardwareadressierung und Rahmentypen Bisher wurde die allgemeine Konzeption eines LANs mit Beispieltechnologien beschrieben. Ein Kennzeichen der LAN-Technologien besteht darin, dass alle Computer das gleiche Medium benutzen und die übertragenen Signale alle Computer erreichen. Das folgende Kapitel beschreibt die Kommunikation von Sender und Empfänger in einem LAN, sowie die Identifikation der Kommunikationspartner mittels sog. Hardwareadressen.

4.3.1. Spezifikation eines Empfängers In einem LAN mit einem gemeinsam benutzten Medium erreichen die in einem Rahmen übertragenen Daten alle angeschlossen Knoten. Die Netzwerk-Schnittstellenhardware eines bestimmten Knotens erkennt das elektrische Signal und entnimmt eine Kopie des Rahmens. In den meisten Fällen ist die Kommunikation zwischen Sender und Empfänger begrenzt und nicht für alle Knoten eines LANs bestimmt. Es stellt sich somit die Frage, wie können zwei Computer direkt über ein gemeinsam genutztes Medium kommunizieren, wenn alle angeschlossenen Knoten eine Kopie aller Signale erhalten? Dazu nutzen die meisten LAN-Technologien ein Adressierschema für die direkte Kommunikation. Jedem Knoten im LAN wird ein eindeutiger numerischer Wert zugewiesen, die sog. Hardwareadresse (MAC10-Adresse, physical address). Überträgt ein Sender einen Rahmen im LAN, gibt er die Hardwareadresse des Empfängers an. D.h., alle angeschlossenen Knoten können zwar eine Kopie des Rahmens entnehmen, aber nur beim Empfänger gibt es eine Übereinstimmung anhand der Hardwareadresse. In einem sog. „shared LAN“ enthält jeder Rahmen zwei Adressen. Eine bezeichnet den Sender und eine der Empfänger. Vor der Übertragung eines Rahmens muß der Sender die Hardwareadresse des Empfängers in das Zieladressfeld (destination address field) und seine eigene Adresse in das Quelladressfeld (source address field) einfügen. Die Netzwerk-Schnittstellenhardware prüft die Felder in den durch das Netzwerk fließenden Rahmen und akzeptiert nur diejenigen, deren Zieladresse mit der eigenen Hardwareadresse übereinstimmen.

10 MAC, media access control

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 70

4.3.2. LAN-Hardware filtert Pakete anhand von Adressen Die LAN-Hardware (Netzwerkkarte) eines Computers kann als völlig von der CPU und dem Speicher des Computers getrennte Einheit betrachtet werden.

Die Netzwerkkarte regelt alle Einzelheiten des Rahmenaustauschs mit dem LAN weitgehend autonom, d.h. ohne die CPU des Computers zu verwenden. D.h., nachdem die CPU Daten an die Netzwerkkarte übergeben hat und die Übertragung initiiert hat, kann sie mit der Abarbeitung eines Anwendungsprogramms fortfahren, während die LAN-Schnittstelle den Zugriff auf das gemeinsame Medium gemäß CSMA/CD-Verfahren abwartet und dann den Rahmen überträgt. Rahmen werden im LAN übertragen und jede angeschlossenen Station erhält eine Kopie des Signals. Die Netzwerkkarte nimmt einen Rahmen aus dem Netzwerk und vergleicht die Zieladresse im Rahmen mit der eigenen Hardwareadresse. Stimmen die Adressen überein, nimmt die Netzwerkkarte den Rahmen an und gibt ihn an das Betriebssystem zur weiteren Verarbeitung weiter. Stimmen die Adressen nicht überein, verwirft die LAN-Schnittstellenhardware den Rahmen und wartet auf den nächsten. Da die Netzwerkkarte ohne die Hilfe der CPU funktioniert, wird der Normalbetrieb des Computers durch den Adressenvergleich nicht beeinträchtigt.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 71

4.3.3. Hardwareadressen Die Hardwarehersteller einer Netzwerkkarte vergeben jeder Karte eine weltweit eindeutige Hardwareadresse. Das folgende Beispiel zeigt den Aufbau der 48-Bit langen Hardwareadresse:

Hardwareadressen11 werden als Hexadezimalzahlen angegeben. Üblich ist die Darstellung in zwei Formaten: 0000.0c12.3456 oder 00-00-0c-12-34-56

11 es gibt 1612 verschiedene MAC-Adressen (über 2 Trillionen)

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 72

4.3.4. Broadcasting Ethernet und 802.3 LANs sind sog. Broadcast12-Netzwerke, d.h. alle Stationen im LAN sehen alle Pakete. Wenn eine Anwendung Daten im Broadcasting-Verfahren sendet, stellt sie eine Kopie der Daten allen anderen Computern im LAN zur Verfügung. Ein Anwendungsbereich für Broadcasting ist z.B. die Suche nach einem Netzwerkdrucker. Um Broadcasting effizient umzusetzen, erweitern die meisten LAN-Technologien das Adressierschema um eine reservierte Adresse, die sog. Broadcast-Adresse13. Wenn ein Rahmen mit einer Broadcast-Adresse versendet wird, erhält jeder Computer im Netz ungeachtet seiner Hardwareadresse eine Kopie davon zur Verarbeitung. Broadcast-Nachrichten können für LANs eine erhebliche Belastung darstellen, da die Verarbeitung und Abweisung von Rahmen Ressourcen beansprucht und sollten daher möglichst minimiert werden. Liest die Netzwerkkarte einen Broadcast-Rahmen, wird der Inhalt des Rahmens in den Speicher gestellt. Die Netzwerkkarte generiert einen Interrupt an die CPU und lässt die Systemsoftware ermitteln, ob der Rahmen zu ignorieren ist. Die Entscheidung, ob der Rahmen abzuweisen ist, setzt also die Mithilfe der CPU voraus.

4.3.5. Mulitcasting Um in einem „shared LAN“ die Broadcast-Fähigkeiten zu nutzen, ohne die CPU-Ressorucen anderer Computer zu vergeuden, setzt man eine eingeschränkte Form des Broadcasting, das sog. Mulitcasting, ein. Im Gegensatz zu Braodcast-Rahmen leiten die Netzwerkkarten Multicast-Rahmen nicht automatisch an die CPU weiter. Die Netzwerkkarte trifft die Entscheidung und akzeptiert nur Rahmen, die mit der Spezifikation übereinstimmen. Multicasting erweitert das Adressierschema durch Reservierung bestimmter Adressen für den Multicast. D.h., die Netzwerkkarte muß sog. Multicast-Adressen erkennen. Beim Start eines Computers wird die Netzwerkkarte so initialisiert, dass sie nur die eigene Adresse und die Broadcast-Adresse kennt. Möchte eine Anwendung Multicast-Rahmen empfangen, muß sie die Netzwerkkarte über mögliche Multicast-Adressen informieren. Die Schnittstelle fügt die Adressen zu dem ihr bereits bekannten Adressbestand hinzu und nimmt anschließend die an diese Adresse gerichteten Rahmen an. Anwendungsgebiete für Multicast-Adressen sind sog. Audio- oder Videoanwendungen, d.h. zwischen zwei oder mehreren Computern können Audiodaten übertragen werden, ohne die übrigen Computer zu stören. Mulitcasting bietet den Vorteil, dass nur eine einzige Kopie jedes Rahmens im Netzwerk übertragen wird, die beliebige Computer empfangen können.

12 Broadcast heißt Rundsenden 13 Host-Id mit allen Bits auf 1

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 73

4.3.6. Rahmenheader und Rahmenformat Mittels der Hardwareadressen kann ein Sender zwar den gewünschten Empfänger in einem Netzwerk identifizieren, über den Inhalt des Datenpakets geht jedoch nichts hervor. Pakete können z.B. E-Mail-Nachrichten, Textdaten usw. enthalten. Um den Empfänger über den Inhalt zu informieren, enthält jeder Rahmen zusätzliche Informationen, die den Inhalt kennzeichnen. Jede LAN-Technologie definiert ihr Rahmenformat auf eine bestimmte Weise. Grundlegend bei allen LAN-Technologien ist jedoch die Zusammensetzung des Rahmens aus zwei Teilen: einem Rahmen-Header (frame-header), der Angaben wie Quell- und Zieladresse enthält und einem Datenbereich (payload area) für die Nutzdaten.

Bei den meisten LAN-Technologien hat jedes Feld im Rahmen-Header eine feste Größe und Position. Die Größe des Datenbereichs eines Rahmens kann unterschiedlich sein. Die folgende Abbildung zeigt das Rahmenformat für Ethernet (Zahlenangaben in Bytes):

Die sog. Präambel ist 64 Bit lang (einschl. start frame delimiter) und enthält abwechselnd 1 und 0. Die Hardware des Empfängers nutzt die Präambel um sich auf das ankommende Signal zu synchronisieren. Die Ziel- und Quelladresse ist jeweils 48-Bit lang und besteht aus der Hardwareadresse. Das vierte Feld wird zur Identifizierung des Rahmentyps verwendet. Der Standard beschreibt auch die Verwendung der 48-Bit Adresse mit allen Bits auf 1 für Broadcasting. Die folgende Tabelle zeigt auszugsweise unterschiedlich definierte Rahmentypen. Diese Zuteilung stellt sicher, dass alle Ethernet-Produkte, unabhängig vom Hersteller kommunizieren können.

Wert Bedeutung 0800 Internet IP Version 4 8035 Internet Reverse ARP 8137-8138 IPX von Novell Corporation

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 74

4.3.7. Netzwerkanalyse, Hardwareadressen, Rahmentypen Ein Netzanalyser (network sniffer) oder Netzüberwacher (network monitor) ist ein Gerät, das ein LAN nach speziellen Ereignissen überwacht und bestimmte Statistiken liefert. So kann z.B. die durchschnittliche Anzahl von Rahmen pro Sekunde oder die durchschnittliche Rahmengröße ermittelt werden. Ein für ein CSMA/CD-Netzwerk ausgelegter Analyser kann z.B. die Anzahl von Kollisionen messen. Netzanalyser basieren meistens auf Laptops mit einer LAN-Schnittstelle. Die LAN-Schnittstelle muß im sog. Mischmodus (promiscous mode) laufen. Dadurch wird die konventionelle Adresserkennung übergangen, d.h. die Netzwerkkarte nimmt alle Rahmen an. Im Mischmodus prüft die Schnittstelle die Zieladresse nicht und weist auch keine Rahmen ab. Sie fertigt eine Kopie jedes im Netzwerk fließenden Rahmens an, stellt sie in den Speicher und aktiviert einen Interrupt, um der CPU die Ankuft eines Rahmens mitzuteilen. Eine spezielle Analysesoftware wertet die Rahmen anschließend aus. Ein Netzanalyser ist programmierbar, d.h. man kann nur Pakete eines speziellen Computers analysieren, um so Netzwerkprobleme zu beheben.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 75

4.4. LAN-Vernetzung, Schnittstellenhardware Dieses Kapitel beschäftigt sich mit den Anschlussarten von Computern an ein Netzwerk. Neben den gängigen Netzwerkkarten wird die Vernetzung mit 10BaseT beschrieben.

4.4.1. Netzwerk-Schnittstellenhardware Die Netzwerkkarte (NIC, network interface card) erledigt weitgehend autonom von der CPU die Paketübertragung zwischen Computer und Netzwerk. Dazu wird die Netzwerkkarte in den Bus des Computers gesteckt und mittels eines Anschlusskabels in das Netzwerk integriert.

Eine Netzwerkkarte kann die in einem Netzwerk benutzten elektrischen Signale, die Geschwindigkeit, in der Daten übertragen werden müssen, und die Details des Rahmenformats interpretieren. Die Netzwerkkarte kann Daten senden und empfangen, ohne auf die CPU des Computers angewiesen zu sein. Für die CPU erscheint die Netzwerkkarte wie ein E/A-Gerät. Werden Daten übertragen, generiert die CPU ein Paket im Speicher und weist die Netzwerkkarte über den Treiber an, mit der Übertragung zu beginnen. Ist die Netzwerkkarte mit der Übertragung des Pakets fertig, informiert sie die CPU über einen Interrupt.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 76

Die Netzwerkkarte kann Daten empfangen ohne Mithilfe der CPU. Für den Datenempfang teilt die CPU Pufferplatz im RAM zu und weist dann die Netzwerkkarte an, die ankommenden Pakete einzulesen. Die Netzwerkkarte wartet auf einen vom Netzwerk kommenden Rahmen, erzeugt dann eine Kopie und prüft die Rahmenkontrollsumme sowie die Zieladresse. Stimmt die Zieladresse mit der Adresse des Computers überein, speichert die Netzwerkkarte eine Kopie des Rahmens im Speicher und unterbricht die CPU. Stimmen die Adressen nicht überein, verwirft die Netzwerkkarte den Rahmen und wartet auf den nächsten.

4.4.2. Vernetzung mit 10Base-T Bei der Ethernet-Anschlußart 10BaseT oder TP-Ethernet (twisted pair ethernet) wird ein Hub anstelle eines gemeinsames Buskabels verwendet. Die Verbindung zwischen einem Computer und dem Hub wird mittels verdrillten Kabelpaaren hergestellt.

Die Anschlussart 10BaseT scheint der Bustopologie von Ethernet zu widersprechen. Ungeachtet des sternförmigen Aussehens funktioniert ein Ethernet mit verdrillten Kabeln wie ein Bus. Hierzu muß man zwischen physischen und logischen Topologien unterscheiden. Physisch ist ein Ethernet mit verdrillten Kabeln in Sterntopologie angeordnet. Logisch funktioniert es allerdings wie ein Bus. Aus diesem Grund wird ein 10BaseT-Ethernet auch Sternbus (star-shaped bus) oder auch „Bus in the box“ genannt.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 77

4.5. LAN-Erweiterung: optische Modems, Repeater, Bridges, Switches

Jede LAN-Technologie ist bestimmt durch die Kombination aus Kosten, Entfernung und Geschwindigkeit. Aufgrund von Längenrestriktionen eignen sich LAN-Technologien zur Vernetzung innerhalb eines Gebäudes. Sollen Kommunikationspartner miteinander vernetzt werden, die mehr als die max. Länge einer LAN-Technologie auseinander liegen, so benötigt man Mechanismen, um die Reichweite zu erhöhen. Die begrenzte Entfernung ist also ein Grundbestandteil jeder LAN-Technologie. Wie in Kap. 4.2.5.2 ausgeführt, gibt es aufgrund von Verzögerungszeiten und Laufzeitproblemen eine zulässige Höchstlänge für Kabel einer LAN-Technologie. Methoden zur Erhöhung der Reichweite in einem LAN werden in den folgenden Kapiteln dargestellt.

4.5.1. Optische Modems Das einfachste Verfahren zur Erhöhung der Reichweite eines LANs ist der Einsatz von LWL-Kabeln und optischen Modems (fiber modems). Da LWL-Kabel eine niedrige Verzögerung und eine hohe Bandbreite aufweisen, kann mit diesem Verfahren ein Computer oder ein ganzes Netzwerk-Segment an ein entferntes Netzwerk angeschlossen werden. Die Aufgabe des optischen Modems ist dabei die Konvertierung der elektrischen Signale in Lichtimpulse und umgekehrt. Somit ist eine Erhöhung der Reichweite auf mehrere Kilometer möglich.

4.5.2. Repeater Mit zunehmender Entfernung werden elektrische Signale im Kabel abgeschwächt. Um diese Einschränkung zu umgehen, können Netzwerk-Segmente über sog. Repeater gekoppelt werden. Ein Repeater ist ein elektronisches Gerät, das die elektrischen Signale in beiden Kabeln laufend überwacht. Erkennt der Repeater ein Signal in einem Kabel, überträgt er eine verstärkte Kopie an das andere Kabel, bzw. die an den anderen Ports angeschlossenen Kabel. Bei der Anschlussart 10BaseT kann der Ethernet-Hub als Multiport-Repeater angesehen werden. Repeater wissen nichts von Rahmenformaten und Hardwareadressen. Sie haben lediglich die Aufgabe, elektrische Signale zu verstärken. Sobald ein Repeater auf einem seiner Eingänge die ersten Bits eines übertragenen Pakets empfängt, schickt er sie auf allen Ausgängen weiter. Eine Modifikation der Daten erfolgt nicht. Nachteilig bei Repeatern wirkt sich aus, dass Kollisionen in einem Segment auch auf das andere Segment übertragen werden, da hier nur eine Verstärkung des elektrischen Signals stattfindet.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 78

Als Einschränkung für den Einsatz von Repeatern gilt die sog. Repeater-Regel, auch als 5-4-3-Regel bezeichnet. Ein Übertragungsweg darf aus maximal 5 Segmenten und 4 Repeater-Sets (2 Repeater-Paaren) bestehen. Dabei können bis zu 3 Segmente Coax-Segmente sein, an denen die Stationen angeschlossen sind.

4.5.3. Bridges Eine Bridge erweitert ein 802.3-Ethernet durch Trennung der Collision Domains. D.h., die Anzahl der Knoten und die maximale Entfernung kann mit einer Bridge erhöht werden. Der Einsatz von Bridges bringt für ein Netzwerk folgende Vorteile:

• die Ausfallsicherheit wird erhöht, da Störungen von der einen Seite einer Bridge nicht auf die andere Seite gelangen.

• die Datensicherheit wird verbessert, da Informationen, die zwischen Knoten auf der einen Seite der Bridge ausgetauscht werden, nicht auf der anderen Seite der Bridge abgehört werden können.

• der Durchsatz wird optimiert, denn in durch Bridges getrennten Segmenten können jeweils unterschiedliche Blöcke gleichzeitig transferiert werden.

Bridges können Ethernet-Segmente auch über synchrone Standleitungen, Satellitenverbindungen, Funkverbindungen, öffentliche Paketvermittlungsnetze oder schnelle LWL-Netze verbinden. I.d.R. müssen Bridges immer paarweise eingesetzt werden. Bridges sind komplette, relativ leistungsfähige Rechner mit Speicher und mindestens 2 Netzwerkanschlüssen, die bei normalem Einsatz keine zusätzliche Software oder Programmierung benötigen. Eine Bridge empfängt von beiden Netzsegmenten, mit denen sie verbunden ist, alle Rahmen und analysiert die Absender- und Empfängeradressen. Steht die Absenderadresse nicht in der brückeninternen Adresstabelle, so wird sie gespeichert. Die Bridge lernt und speichert so die Information, auf welcher Seite der Bridge der Computer mit dieser Adresse angeschlossen ist. Ist die Empfängeradresse bekannt und der Empfänger auf derselben Seite wie der Absender, so verwirft die Bridge das Paket (filtert es). Ist der Empfänger auf der anderen Seite oder nicht in der Tabelle, wird das Paket weitergeschickt. Bei durchschnittlich belasteten Netzwerken kann durch den Einsatz von Bridges die Leistung des Gesamtnetzwerkes erhöht werden, weil auf jedem Netzwerkteil nicht alle Pakete des Gesamtnetzwerkes übertragen werden müssen. Man sollte also Rechnergruppen, die viel miteinander kommunizieren, durch Bridges vom Gesamtnetz trennen. Müssen jedoch fast alle Pakete von der Bridge weitergeschickt werden, kann sich durch die brückenbedingte Verzögerung sogar eine Durchsatzverschlechterung des Gesamtnetzes ergeben. In diesen Fällen sollten leistungsfähige Switches eingesetzt werden. Bridges gibt es in einer Vielzahl von Varianten. An eine Standard-Bridge lassen sich 2 Segmente anschließen. Können mehr als 2 Segmente angeschlossen werden, so wird von einer Multiport-Bridge oder Switch gesprochen. D.h. bei den meisten Herstellern gibt es keinen

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 79

Unterschied zwischen den Begriffen Multiport-Bridge oder Switch. Switch14 klingt einfach nach mehr Leistung. Bridges sind durch folgende Eigenschaften gekennzeichnet:

• Die Größe der Adresstabelle gibt an, wie viele Adressen (Knoten) insgesamt in der Bridge gespeichert werden können

• Die Filterrate gibt an, wie viele Pakete pro Sekunde (pps) eine Bridge maximal empfangen kann. Bei voller Last und minimaler Paketlänge können in einem Ethernet-Segment theoretisch bis zu 14.880 Pakete pro Sekunde auftreten. Auf beiden Ports hat eine 2-Port-Bridge also insgesamt maximal 29.760 Pakete pro Sekunde zu filtern. Alle modernen Bridges erreichen diese maximalen Werte.

• Die Transferrate gibt an, wie viele Pakete pro Sekunde die Bridge auf die andere Seite weiterleiten kann. Der Maximalwert ist hier 14.880 pps, da bei dieser Transferrate beide Segmente voll ausgelastet sind.

Bridges innerhalb eines Netzwerkes kommunizieren15 miteinander und stellen redundante Mehrfachverbindungen selbst.

Probleme der Weiterleitung von Broadcasts in mit Bridges erweiterten Netzwerken können z.B. bei folgender Situation auftreten:

14 Der Begriff Switch für Multiport-Bridge wurde von der Firma Kalpana (inzwischen von Cisco aufgekauft) kreiert, da deren Produkte nicht der IEEE-Spezifikation einer Bridge entsprachen, konnte Kalpana damals die Produkte nicht als Bridge verkaufen und musste sie deshalb als Switch bezeichnen. Andere Hersteller haben ihre Bridges dann auch als Switch, Switch mit Bridge-Eigenschaften oder auch als Bridging-Switch bezeichnet. Für Switches findet sich auch die Bezeichnung Switching-Hub 15 Ethernet-Bridges kommunizieren über eine ausschließlich für sie reservierte Multicast-Adresse

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 80

Falls bei obigem Beispiel nicht einige Bridges an der Weiterleitung von Broadcast-Rahmen gehindert werden, erhalten Computer auf allen Segmenten eine unendliche Anzahl der gleichen Rahmen. Über den sog. Spanning Tree Algorithmus stellen Bridges sicher, dass bei mehreren physikalischen Verbindungen immer nur eine aktiv ist, d.h. das Problem endloser Schleifen wird vermieden. Mit dem Spanning Tree Algorithmus kann also eine Bridge feststellen, ob durch die Weiterleitung eines Rahmens eine Schleife entsteht. Eine Bridge leitet keine Rahmen weiter, wenn sie feststellt, dass jedes Segment, an das sie angeschlossen ist, bereits eine Bridge umfasst, die Rahmen weiterleitet. D.h., nach Durchführung des Spanning Tree Algorithmus bilden die Bridges, die Rahmen weiterleiten, einen Graphen, der keine Schleifen enthält, also einen Baum. Heute werden allerdings zur Verbindung von Netzwerken über WAN-Strecken oder längere Entfernungen aufgrund der flexibler einsetzbaren und häufig preisgünstigeren Eigenschaften Router eingesetzt.

4.5.4. Switches Reicht die Bandbreite von Ethernet nicht, braucht man ein schnelleres zentrales Medium als Backbone. Hier gibt es mehrere Strategien:

• Einsatz von FDDI, ATM, Fast Ethernet oder Gigabit-Ethernet im Backbone-Bereich und Verbindung der Ethernet-Segmente über Bridges mit dem schnellen Backbone

• Verwendung eines Ethernet-Switches mit einem schnellen internen Bus als Backbone (collapsed backbone).

Beide Möglichkeiten haben Vor- und Nachteile. Mit ATM-Netzen ist es möglich, den Backbone geographisch auszudehnen und damit auch sehr große Netzwerke zu konfigurieren. Collapsed-Backbone-Netze kosten wesentlich weniger als z.B. ATM-Lösungen, sie begrenzen aber die geographische Ausdehnung, da die Ethernet-Segmente zu dem zentralen Switch geführt werden müssen. Eine weitere Möglichkeit der Performance-Erhöhung in Netzwerken ist die Aufteilung in mehrere Subnetze und der Einsatz von Routern zwischen diesen Subnetzen. Im Gegensatz zu Lösungen mit Bridges dürfen dann auch mehrere aktive Pfade zwischen 2 Stationen bestehen. Ein Nachteil dieser Lösung liegt im erhöhten Managementaufwand, weil z.B. die Verschiebung einer Station in ein anderes Subnetz mit einer IP-Adressenänderung verbunden ist. Switches brechen die Ethernet-Busstruktur in eine Bus-/Sternstruktur auf. Teilsegmente mit Busstruktur werden sternförmig über je einen Port des Switch gekoppelt.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 81

Zwischen den Ports können Pakete mit maximaler Ethernet-Geschwindigkeit übertragen werden. Wesentlich ist auch die Fähigkeit von Switches, mehrere Übertragungen zwischen unterschiedlichen Segmenten gleichzeitig durchzuführen. Dadurch wird die Bandbreite des gesamten Netzes erhöht. Die volle Leistungsfähigkeit von Switches kann man nur erreichen, wenn auch eine geeignete Netztopologie vorhanden ist. Die Datenlast sollte nach Möglichkeit gleichmäßig über die Ports verteilt werden. Systeme, die viele Daten übertragen, müssen u.U. an einen eigenen Switch-Port angeschlossen werden. Dies bezeichnet man auch als Private Ethernet. Systeme, die viel miteinander kommunizieren, sollten an einen gemeinsamen Port des Switches angeschlossen werden, um so die Datenmenge, die mehr als ein Segment durchlaufen muß, zu reduzieren. Moderne Switches haben gegenüber herkömmlichen Multiport-Bridges noch den Vorteil einer geringen Verzögerungszeit (latency). Diese Technik basiert auf einer sog. Cross-Point Switch Matrix und wird als On-the-Fly Switching bezeichnet. Ein Switch wartet also nicht, bis das gesamte Paket gelesen wurde, sondern überträgt das ankommende Pakete nach Empfang der 6-Byte langen Zieladresse. Da nicht das gesamte Paket bearbeitet werden muß, tritt eine Zeitverzögerung von nur etwa 40 Microsekunden ein. Bei Switches werden im Gegensatz zu Bridges fehlerhafte Pakete auch auf das andere Segment übertragen. Der Grund liegt darin, dass die CRC-Prüfung erst bei vollständig gelesenem Paket durchgeführt werden kann. Solange also der Prozentsatz von fehlerhaften Paketen im Netz gering ist, entstehen keine Probleme. Sobald aber, z.B. aufgrund eines Konfigurationsfehlers, fehlerhafter Hardware oder extrem hoher Netzlast, der Prozentsatz der Kollisionen steigt, können Switches auch dazu führen, dass die Leistung des Gesamtnetzes deutlich sinkt. Ein anderer Ansatz neben dem geschwindigkeitsorientierten On-The-Fly-Ansatz ist die sog. Store-and-Forward-Technik, die der IEEE-Norm für Bridges entspricht. Bei Produkten, welche die Bridging-Funktionalität implementiert haben, wird also nicht nur die Zieladresse gelesen, sondern das gesamte Paket wird einer kompletten Fehlerüberprüfung unterzogen und erst dann weiter übertragen, wenn es vollständig und richtig empfangen wurde. D.h., es werden keinerlei fehlerhafte Pakete auf das andere Segment übertragen. Die Store-and-Forward-Technik ist also bei größeren Netzwerken mit vielen Knoten und Kommunikationsbeziehungen

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 82

besser geeignet, da bei diesen Anwendungen die Gesamttransferrate entscheidend ist. Die Verzögerung wirkt sich hier kaum aus. Mittlerweile gibt es Switches, die beide Technologien unterstützen. Dies geschieht entweder durch Konfiguration oder automatisch anhand der CRC-Fehlerhäufigkeit. Wird eine vorgegebene Anzahl von fehlerhaften Paketen überschritten, schaltet der Switch automatisch von „On-the-Fly“ auf „Store-and-Forward“ um. Die folgenden Abbildungen zeigen zwei 24-Port-Ethernet-Switches, die an einen ATM-Swtich angeschlossen sind, sowie ein Beispielnetzwerk bestehend aus Repeatern, Hubs, Bridges, Switches und Routern.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 83

4.6. WAN-Technologien und Routing Im Gegensatz zu Bridges verbinden Router auch Netze unterschiedlicher Topologie und Technologie. Router werden zur Verbindung von LAN- und WAN-Netzen verwendet. Die Fähigkeit der Router unterschiedliche Netz-Technologien und unterschiedliche Protokolle weiterzuleiten (zu routen) erlaubt es, eine optimale Netzauslastung und Verkehrslenkung zu erreichen. Soll Kommunikation zwischen Stationen in unterschiedlichen Subnetzen erfolgen, müssen Router eingesetzt werden. Ein wichtiges Prinzip bei der Weiterleitung von Datenpaketen über Teilstrecken ist das Prinzip der sog. Quellenunabhängigkeit (source independence). Die Weiterleitung von Paketen hängt weder von der Quelle des Pakets noch von den einzelnen Etappen bis zum zuständigen Paketvermittler ab, sondern nur vom Ziel des Pakets. Durch Quellenunabhängigkeit kann der Weiterleitungsmechanismus kompakt realisiert werden. Da bei der Weiterleitung keine Quellinformationen verwendet werden, muß dem Paket nur die Zieladresse entnommen werden. Die folgende Abbildung zeigt mögliche Routen der Datenpakete zwischen den Computern:

Die zum Speichern der Teilstreckeninformationen verwendete Tabelle wird als Routing-Tabelle bezeichnet. Der Vorgang der Weiterleitung von Datenpaketen über Teilstrecken (Hops) wird als Routing bezeichnet. Das folgende Beispiel zeigt ein WAN mit 4 Paketvermittlern (packet switch, router):

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 84

Das Prinzip der Paketvermittlung über WAN-Strecken entspricht dem bereits vorgestellten Prinzip des Store-and-Forward-Switching. Dazu speichert der Router die Pakete in seinem Speicher. Das Speichern erfolgt nach Ankunft eines Pakets, d.h. die E/A-Hardware im Router stellt eine Kopie des Pakets in den Speicher und informiert über einen Interrupt dessen CPU über die Ankunft eines Pakets. Anschließend erfolgt die Vermittlung. Der Router prüft das Paket, ermittelt die zu benutzende Schnittstelle und sendet das Paket an die adressierte Station. Wollen im obigen Beispiel die zwei Computer des Standortes 1 (site 1) ein Paket an einen Computer an Standort 3 senden, so schicken sie die Datenpakete an den Router 1. Der Router 1 prüft das Ziel der Pakete und schickt sie an den Ausgang der zu Router 3 führt. Der Router 3 stellt dann die Pakete zu. Damit die Pakete in routervermittelten Netzen weitergeleitet werden können, gibt es spezielle Rahmenformate und Protokolle, die im nächsten Kapitel vorgestellt werden. Der Sender eines Rahmens muß auf jeden Fall die Zieladresse angeben. Ein Router muß für jedes zu vermittelnde Paket einen Ausgangspfad wählen. Ist das Paket für einen direkt an ihn angeschlossenen Computer bestimmt, leitet der Router das Paket direkt weiter. Ist es für einen Computer bestimmt, der an einen anderen Router angeschlossen ist, muß das Paket z.B. über eine WAN-Strecke zu dem Zielrouter weitergeleitet werden, der dann das Paket an den Zielcomputer weiterleitet.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 85

Die Informationen zur Weiterleitung der Pakete an Router werden aus dem ersten Teil der Adresse entnommen, der angeschlossene Computer ergibt sich aus dem zweiten Teil der Adresse. Die Routing-Tabelle muß folgende Ziele sicherstellen:

• Universelles Routing: für jedes mögliche Ziel muß ein Hop enthalten sein. • Optimales Routing: der Hop-Wert für ein bestimmtes Ziel muß über den kürzesten

Pfad erreichbar sein. Das Routing in einem LAN-WAN-Verbund kann am besten mittels eines Graphen beschrieben werden, der das Netz charakerisiert. Jeder Knoten (node) des Graphen entspricht einem Router. Gibt es eine direkte Verbindung zwischen den Routern, so entsteht eine Kante (edge) oder eine Verbindung (link).

Das folgende Beispiel zeigt die Routing-Tabellen in den Routern zum vorher abgebildeten Graphen:

Wie in obiger Abbildung ersichtlich gibt es z.B. im Router 1 mehrfach vorkommende Routen. Zur Vermeidung dieser doppelt oder mehrfach vorkommenden Routen wird das sog. Vorgabe-Routing (default routing) eingesetzt. D.h., ein einzelner Eintrag ersetzt in der Routing-Tabelle eine Reihe von Einträgen mit dem gleichen Hop-Wert. Kann kein bestimmtes Ziel festgestellt werden, so wird die Vorgabe-Route verwendet:

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 86

Zur Berechnung der Routing-Tabelle gibt es drei Verfahren:

• Statisches Routing: die Routen ändern sich selten und werden vom Administrator vorgegeben

• Dynamisches Routing: die Tabelle wird nach einem Algorithmus16 automatisch angepasst

• verteilte Routenberechnung1718: jeder Router berechnet seine Routing-Tabelle lokal, anschließend sendet er Nachrichten an benachbarte Router und teilt sein Ergebnis mit

Gegenüber Bridges gewährleisten Router eine Isolation des Datenverkehrs zwischen Subnetzen, da Broadcasts standardmäßig nicht über Router weitergeleitet werden. Beispiele für WAN-Technologien sind:

• ISDN (Integrated Services Digital Network) • X.25 (z.B. Datex-P) zur Kopplung von LANs mit X.25-fähigen Routern • Frame-Relay (hat heute weitgehend X.25 ersetzt) z.B. Datex-M (64 KB/s, 2 MB/s E1,

34 MB/s E3) • ATM • xDSL (Digital Subscriber Lines)

16 der Dijkstra-Algorithmus berechnet die kürzesten Verbindungen in einem Graphen 17 ein Verfahren zur verteilten Routenberechnung ist das Link-State-Routing oder SPF-Routing (shortest path first) 18 ein anderes Verfahren zur verteilten Routenberechnung ist das Distance-Vector-Routing

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 87

4.7. Protokolle und Schichten Eine gängige Methode zur Reduzierung der Komplexität ist die Aufteilung einer Aufgabe in Schichten, die untereinander Nachrichten austauschen können. Dienste einer höheren Schicht greifen auf die nächstniedrigere Schicht zurück. Zu Beginn der Entwicklung der Netzwerke definierte die ISO ein aus 7 Schichten bestehendes Referenzmodell (ISO 7-layer reference model):

7 Anwendungsschicht (application)

spezifische Anwendungen z.B. Dateitransfer

6 Darstellungsschicht (presentation)

Datendarstellungen eines Rechnertyps werden in einen anderen überführt z.B. Datenkompression, Verschlüsselung

5 Sitzungsschicht (session)

Aufbau einer Übertragungs-sitzung zu einem entfernten System z.B. Sicherheits-techniken (Passwörter)

4 Transportschicht (transport)

Aufbau und Unterhaltung einer Verbindung zwischen zwei Endsystemen

3 Vermittlungsschicht (network)

Zuweisung von Adressen und Weiterleitung von Paketen im Netzwerk (Routing)

Router, Layer-3-Switch

2 Sicherungsschicht (data link)

Organisation von Daten in Rahmen und deren Über-tragung z.B. Rahmenfor-mat, Data Stuffing, Fehlererkennung und korrektur

Bridge

1 Bitübertragungssschicht (physical)

Übertragung von Bit-Sequenzen über ein be-liebiges Medium

Kabel, Stecker, Netzwerkkarten, Repeater

Die Zusammenarbeit von Computern über das ISO-7-Schichten-Modell mit der sog. Data Encapsulation, d.h. das Anfügen von Verwaltungsinformationen für jede Schicht, zeigt folgende Abbildung:

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 88

Jede Umwandlung, die ein Protokoll vor dem Versenden auf einen Rahmen anwendet, muß beim Empfang des Rahmens vollständig umgekehrt werden. Schichten tauschen untereinander Nachrichten aus:

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 89

Die folgende Abbildung zeigt die Umsetzung des ISO-7-Schichten-Modells in der Implementierung der Netzwerkschnittstelle im Betriebssystem Windows 2000:

Der Verlust von Paketen ist ein grundsätzliches Problem in Netzwerken. Um eine zuverlässige Übertragung sicherzustellen, nutzen Protokolle die sog. positive Bestätigung mit Neuübertragung. D.h., wird ein Paket intakt empfangen, sendet die empfangende Protokollsoftware eine Nachricht an den Sender, mit der sie den erfolgreichen Empfang bestätigt. Diese Nachricht heißt Bestätigung (Acknowledgement – ACK). Der Sender übernimmt die Verantwortung für die erfolgreiche Übertragung von Paketen.

Horst Kunhardt, FH-Deggendorf Kommunikationstechnik

Seite 90

Die Übertragung von Datenpaketen zwischen zwei Computern folgt also einem der beiden u.a. Schemata: