Ende 1972 implementierte Dr. Robert Metcalfe mit seinen Kollegen am Xerox Palo Alto Research Center (PARC) ein Netzwerk, um einige Xerox-Alto-Rechner zu vernetzen - einen zu dieser Zeit revolutionären Vorläufer der Personal Computer. Zunächst als Alto Aloha Network bezeichnet, setzte dieses Netzwerk bereits das CSMA/CD-Protokoll des späteren Ethernet ein. Die Übertragungsfrequenz lag jedoch zunächst nur bei 2,94 MHz, dem Systemtakt der Alto-Stations. Erst 1976 nannte Metcalfe das Netzwerk Ethernet.
Seitdem erfreut sich das Ethernet - nicht zuletzt wegen seiner Einfachheit hinsichtlich Installation, Wartung und Kosten - großer Beliebtheit bei den Netzwerkadministratoren. Trotz aller Entwicklungen, die es seit der ersten Schemazeichnung durchlaufen hat, basiert Ethernet immer noch auf denselben Prinzipien.
CSMA/CD als Grundlage von Ethernet
Das Ethernet-Protokoll basiert auf den Komponenten Multiple Access, Carrier Sense und Collision Detection:
Multiple Access (MA): Alle Ethernet-Stationen greifen unabhängig voneinander auf das gemeinsame Übertragungsmedium (shared medium) zu.
Carrier Sense (CS): Wenn eine Ethernet-Station senden will, so prüft sie zuerst, ob gerade eine andere Kommunikation läuft. Ist das Medium besetzt, so wartet die Station bis zum Ende der Übertragung und eine zusätzliche Zeitspanne von 9,6µs. Ist das Medium frei, so beginnt die Station sofort zu senden.
Collision Detection (CD): Während des Sendens beobachtet die sendende Station das Medium, um mögliche Kollisionen mit anderen Sendestationen zu erkennen. Wenn sie während des Sendevorganges keine Störung erkennt, die auf eine Kollision mit einem anderen Paket zurückgeführt werden kann, gilt das Paket als erfolgreich versendet.
Wenn die Sendestation eine Kollision erkennt:
bricht sie die Übertragung ab und sendet ein "Jamming" Signal (101010... = AAAAAAAA),
wartet sie 9,6µs plus einer zufällig bestimmten Zeitspanne, die von der Anzahl der bisherigen Fehlversuche für dieses Paket abhängt (Binary Backoff)
und unternimmt dann einen erneuten Sendeversuch.
Dieses Verfahren funktioniert aber nur dann zuverlässig, wenn die sendende Station die Kollision entdecken kann, bevor die Übertragung des Paketes abgeschlossen ist. Dabei ist zu berücksichtigen, dass die Ausbreitung von Signalen auf Leitungen mit endlichen Geschwindigkeit geschieht. Für einen erfolgreichen Einsatz des CSMA/CD-Protokolls muss die doppelte maximale Laufzeit zwischen zwei Stationen kürzer sein als die Übertragungsdauer der kürzesten zulässigen Pakete. Ausgehend von der Tatsache, dass die minimale Paketlänge eines Ethernet-Pakets 64 Byte (= 512 Bits) beträgt, muss also sichergestellt sein, dass die maximale Signallaufzeit (Round Trip Delay - RTD) 512 "Bitzeiten" nicht übersteigt. Bei einer Datenrate von 10 MBps dauert die Übertragung eines Bit 100 ns, so dass das RTD kleiner als 51,2 µs sein muss.
Erlaubte Verzögerungszeiten
Gemäß den Ethernet-Vorgaben dürfen die verschiedenen aktiven und passiven Komponenten Verzögerungszeiten verursachen. Die folgenden Tabellen zeigen Beispiele:
Komponente | Bit-Zeit |
---|---|
1 Bit-Zeit = 100ns | |
Controller Senderichtung | 3 |
Controller Empfangsrichtung | 7 |
Transceiver-Kabel (2m) | 0,25 |
Transceiver Senderichtung | 3 |
Transceiver Empfangsrichtung | 5 |
Repeater | 8 |
Inter-Repeater Link | 25 |
Komponente | Bit-Zeit |
---|---|
1 Bit-Zeit = 10ns | |
Class I Repeater | 140 |
Class II Repeater | 92 |
Endgerät | 50 |
Cat3-Twisted Pair (1m) | 1,14 |
Cat5-Twisted Pair (1m) | 1,112 |
Glasfaserkabel (1m) | 1 |
Komponente | Bit-Zeit |
---|---|
1 Bit-Zeit = 1ns | |
Repeater | 976 |
Endgerät | 432 |
Cat5-Twisted Pair (1m) | 11,12 |
Glasfaserkabel (1m) | 10,1 |
1000BaseCX-Kabel (1m) | 10,1 |
Späte Kollisionen
Um zu bestimmen, ob eine Verbindung zwischen zwei Stationen den RTD-Bedingungen genügt, sind die Bitzeiten aller beteiligten Komponenten zu addieren. Die Summe darf nicht größer sein als die minimale Paketlänge in Bit (512). Ist diese Bedingung nicht erfüllt und treten Kollisionen erst nach den 512 Bitzeiten auf, spricht man von so genannten Late Collisions. Diese können von den Ethernet-Controllern nicht erkannt werden, weil sie das Paket vermeintlich schon komplett gesendet haben, bevor die Störung auf dem Medium erkannt wurde.
Dennoch wird das Netzwerk im Allgemeinen funktionieren, da die Protokolle der höheren Schichten diese verlorenen Pakete meist erneut anfordern, wie dies beispielsweise bei TCP der Fall ist. Wenn beim nächsten Sendeversuch keine Kollision mit der zu weit entfernten Station auftritt, kann das Paket doch noch erfolgreich übertragen werden. Allerdings wird die Leistungsfähigkeit des Netzwerks wesentlich beeinträchtigt, da immer mehr Bandbreite für Retransmissionen von Datenpaketen genutzt wird.
Das Paketformat
Beim Ethernet handelt es sich um ein so genanntes paketvermittelndes Netzwerk. Dies bedeutet, dass die zu übertragenen Daten in kleinere Einheiten aufgeteilt werden, die man als Pakete (Packets) oder Rahmen (Frames) bezeichnet. Dabei sucht sich jedes Paket autonom seinen Weg durch das Netzwerk. Auf der Empfängerseite werden die einzelnen Teilsendungen wieder zusammengefügt.
Komponente | Bytes | Anmerkungen |
---|---|---|
| ||
Präambel | 7 | 101010...101010, dient der Taktsynchronisation |
Rahmenbegrenzer | 1 | 10101011 |
Ab hier eigentliches Datenpaket und Kollisionserkennung | ||
Zieladresse | 6 | MAC-Adresse |
Quelladresse | 6 | MAC-Adresse |
Datenlänge | 2 | |
Daten | 0 - 1500 | |
Padding | 0 - 46 | Enthält genug Bytes, damit das Datenpaket 64 Byte lang wird. |
Prüfsumme | 4 | Anhand der Prüfsumme kann der Empfänger erkennen, ob das Paket korrekt angekommen ist. |
Das ursprüngliche Ethernet ist ein logischer Bus, auch dann, wenn es physisch nicht als Bus implementiert ist. Dies bedeutet, dass eine sendende Netzwerkstation von allen Netzwerkteilnehmern gehört wird. Der Ethernet-Controller der Empfangsstation entscheidet auf Grund der Zieladresse, welche Nachrichten für ihn bestimmt sind. Alle anderen Nachrichten werden ignoriert.
MAC-Adressen
Um sicherzustellen, dass keine identischen Adressen in einem Netzwerk auftreten, werden die Ethernet-Adressen (auch als MAC-Adressen bezeichnet) von den Herstellern fest in der Hardware kodiert. Die Verteilung erfolgt dabei nach dem folgenden Schlüssel:
Bits | Anmerkungen |
---|---|
| |
47 | 1, wenn es sich bei der Zieladresse um eine Gruppenadresse für Multi- oder Broadcasts handelt. Sonst 0. |
46 | 0, wenn es sich um eine global verwaltete Adresse handelt (nach IEEE). 1, wenn es sich um eine lokal verwaltete Adresse handelt (für private Netze) |
45 - 24 | Hersteller-Identifikation. Wird durch die IEEE vergeben. |
23 - 0 | Adapter-Identifikation. Wird durch den Hersteller vergeben. |
Die meisten Ethernet-Controller können auch Pakete empfangen und an die höheren Schichten weitergeben, die nicht für sie bestimmt sind. Man bezeichnet diese Betriebsart als "Promiscuous Mode". Dieser Modus stellt ein wesentliches Sicherheitsrisiko dar, da er die Realisierung von so genannten Netzwerk-Sniffern erlaubt, die den gesamten Verkehr auf einem Netzwerk beobachten können.
Vom Koax-Bus zum Twisted-Pair-Stern
Ursprünglich sah die Ethernet-Spezifikation Koaxialkabel als Übertragungsmedium vor. Je nach Qualität der Kabel werden dabei Thick Coax (10Base-5) und Thin Coax (10Base-2) unterschieden. Letzteres wird auf Grund der geringen Kosten auch als Cheapernet bezeichnet. Bei der Nutzung eines Koaxialkabels sind drei Punkte hervorzuheben:
Es handelt sich auch in der Implementierung um einen physischen Bus, an den die Stationen angehängt werden. Hierzu dienen T-Stücke, die in das Kabel eingesetzt werden, oder so genannte Vampirstecker.
Für eine Kollisionserkennung muss die sendende Station den Zustand auf dem Kabel überprüfen. Stimmen die dort vorliegenden Pegel nicht mit den gesendeten Signalen überein, wird dies als Kollision erkannt.
In diesem Zusammenhang ist auch wichtig, dass die Kabelenden mit angepassten Widerständen abgeschlossen werden, um Reflexionen zu vermeiden, die unter Umständen als Kollisionen erkannt würden.
Koaxialkabel weisen jedoch eine Reihe von Nachteilen auf. So müssen beispielsweise für den Einbau weiterer Stationen Kabel aufgetrennt werden, wodurch für eine gewisse Zeit keine Übertragung möglich ist. Deshalb wurde der Standard 1990 im Rahmen des 10Base-T für den Einsatz von Twisted-Pair-Kabeln erweitert.
Twisted-Pair
Die Nutzung von Twisted-Pair-Kabeln stellt in einigen wichtigen Punkten eine Abkehr von den ursprünglichen Mechanismen dar:
Anders als in Koaxialkabeln werden Sendekanal (Transmit - Tx) und Empfangskanal (Receive - Rx) voneinander getrennt und jeweils auf einem Leitungspaar übertragen.
Eine Kollision wird erkannt, wenn während des Sendens auf dem Tx-Leitungspaar Pakete auf dem Rx-Leitungspaar empfangen werden.
Wenn zwei Teilnehmer unmittelbar miteinander kommunizieren wollen (Point-to-Point-Verbindung), dann muss der Sendekanal der einen Station mit dem Empfangskanal der anderen Station verbunden werden. Dies erfolgt mit einem so genannten gekreuzten Kabel (Crossover-Kabel).
Wenn mehr als zwei Teilnehmer miteinander kommunizieren wollen, dann wird ein Hub als zentrale Station benötigt. Dieser gibt die Signale, die er auf dem Rx-Leitungspaar eines Ports empfangen hat, im einfachsten Fall an allen anderen Ports auf dem Tx-Leitungspaar wieder aus. Damit kann jede Station, die an diesen Hub angeschlossen ist, die Pakete auf seinem Rx-Kanal empfangen.
Wichtig dabei ist jedoch, dass der Hub die Pakete nicht auf den Port der sendenden Station zurückschickt. In diesem Fall würde die sendende Station Aktivität auf dem Empfangskanal detektieren, die dann als Kollision gedeutet würde.
Allerdings erlaubt diese Trennung der Kanäle auch den Betrieb in einem Vollduplex-Modus, der 1997 in dem ergänzenden Standard 802.3x verabschiedet wurde. Dieser Modus basiert im Wesentlichen darauf, dass es erlaubt ist, sowohl auf dem Sende- als auch auf dem Empfangskanal zu übertragen und die Kollisionserkennung zu deaktivieren.
Glasfaser für das Backbone
Nachteilig an der Übertragung sowohl über Koaxialkabel als auch über Twisted-Pair-Kabel ist die limitierte Reichweite. Beim Twisted-Pair-Kabel ist das elektrische Signal nach etwa 100 m so weit abgeschwächt, dass es durch einen Repeater wieder aufgefrischt werden muss. Bei den Koaxialkabeln sind Reichweiten von 500 m bei 10Base-5 (die Zahl 5 entspricht 500 m) und von 185 m bei 10Base-2 (die Zahl 2 steht für ein aufgerundetes 1,85) erreichbar. Je mehr Repeater jedoch eingesetzt werden, desto größer werden die Verzögerungszeiten und es kommt zu späten Kollisionen.
Dementsprechend eignen sich Kupferkabel nicht für den Einsatz als Backbone zur Verbindung verschiedener Gebäude auf einem Campus. Aus diesem Grund wurden zwei weitere Standards aufgenommen, die die Übertragung von optischen Signalen über Glasfaserverbindungen beschreiben. Auf diese Weise lässt sich ohne Repeater eine Entfernung von 2 km überbrücken. Von den insgesamt drei verabschiedeten Standards hat sich in der Praxis nur der 10Base-FL durchgesetzt. Dabei ist auch wieder zu vergegenwärtigen, dass Glasfaserleitungen sinnvoll nur in Punkt-zu-Punkt-Verbindungen eingesetzt werden können. Auch 10Base-FL steht also für eine Sternstruktur.
Der Schritt zu 100 Mbit/s
Mit dem Einsatz von immer leistungsfähigeren Arbeitsplatzrechnern stieg der Bedarf nach Bandbreite in den neunziger Jahren zusehends. Aus diesem Grund wurde 1995 der auch als Fast Ethernet bezeichnete Standard 100Base-T mit einer Datenrate von 100 Mbit/s verabschiedet. Folgende Aspekte verdienen hier besondere Beachtung:
Das erlaubte Round Trip Delay ließen die Entwickler mit 512 Bitzeiten unverändert. Da aber wegen der höheren Datenrate eine Bitzeit nur noch 10ns entspricht, ist dem Zeitbudget eine höhere Aufmerksamkeit zu widmen. Während ein Signal bei 10 Mbit/s in einer Bitzeit (100ns) auf dem Kabel etwa acht Meter zurücklegt, so schafft es bei 100 Mbit/s auf einem Cat-5-Kabel in einer Bitzeit (10ns) weniger als einen Meter. Ähnlich verschärfen sich auch die Anforderungen an die aktiven Komponenten (siehe auch "Erlaubte Verzögerungszeiten").
Koaxialkabel kommen auf Grund ihrer unzureichenden elektrischen Eigenschaften nicht mehr zum Einsatz.
Aber auch die Übertragung über Twisted-Pair stellt besondere Herausforderungen an die Übertragungsmechanismen. Dabei wurden mit 100Base-Tx, 100Base-T2 und 100Base-T4 drei alternative Technologien standardisiert. Dabei setzt der Einsatz von 100Base-Tx Twisted-Pair-Kabel nach der Kategorie Cat-5 voraus, die eine Übertragungsfrequenz von 100 MHz erlauben.
Damit Fast-Ethernet auch für die alten Cat-3-Kabel (Grenzfrequenz 16 MHz) noch realisierbar ist, wurden die Standards 100Base-T4 und 100Base-T2 verabschiedet. Beide haben sich in der Praxis zwar nicht durchgesetzt, sind aber dennoch von Interesse, da die dort implementierten Mechanismen, mit denen 100 Mbit/s über Kabel mit 16 MHz Grenzfrequenz übertragen werden, bei der nächsten Geschwindigkeitssteigerung im 1000Base-T Anwendung finden.
100Base-Tx
Die Annahme, dass über eine Cat-5-Verkabelung mit einer 100 MHz Grenzfrequenz automatisch eine Datenrate von 100 Mbit/s übertragen werden kann, ist falsch. Folgende Besonderheiten sind hier zu beachten:
Beim Empfang der Signale muss sich der Empfänger auf den Datenstrom synchronisieren. Lange Phasen identischer Signale sind bei der Übertragung im Basisband problematisch, weil keine Signalflanken auftreten, mit deren Hilfe der Sender sich wieder neu synchronisieren könnte. Dieses Problem wurde bei den 10 Mbit/s-Standards durch die Manchester-Kodierung umgangen. In der ersten Phase wird das Datenbit gesendet, wobei ein Flankenwechsel eine logische 1 bedeutet. Die zweite Phase sorgt für die Taktung, indem auf jeden Fall ein Flankenwechsel stattfindet, wodurch sichergestellt wird, dass in jeder Phase mindestens ein Pegelwechsel vorliegt. Als Nachteil muss jedoch eine Verdoppelung der Frequenz in Kauf genommen werden.
Da die Frequenzverdoppelung für 100 Mbit/s nicht mehr in Frage kommt, kodiert man den Bitstrom in einem 4B5B-Muster. Dabei werden die Muster so gewählt, dass innerhalb jedes 4 beziehungsweise 5 Bit langen Blocks mindestens ein Signalwechsel auftritt. Somit wird der Bitstrom lediglich um 25 Prozent verlängert und es ergibt sich eine Datenrate von 125 Mbit/s.
Da eine Frequenz von 125 MHz größer ist als eine Frequenz von 100 MHz, wird das Signal auf drei Signalpegeln übertragen (MLT-3: Multi-Level Transmission mit -1, 0 und 1). Somit lassen sich mehrere Bits pro Symbol übertragen und die Übertragungsfrequenz reduzieren.
Die Basisfrequenz der Idle-Bitfolge reduziert sich hierdurch von 125 MHz auf ein Viertel und liegt nun bei 31,25 MHz. Durch ein Verwürfeln des kodierten Datenstroms (Scrambling) muss nun noch eine Aufteilung des Frequenzspektrums erfolgen. Damit sollen das Leistungsspektrum der abgestrahlten Signale aufgespreizt und die Vorgaben über elektromagnetische Verträglichkeit erfüllt werden.
100Base-T4 und 100Base-T2
Der 100Base-Tx-Standard ist dahingehend verschwenderisch, dass er nur zwei der vier in einem Twisted-Pair-Kabel vorhandenen Leitungspaare nutzt. Auf diese Weise wird auch ISDN-Telefonie über das gleiche Kabel ermöglicht. Da diese Praxis jedoch nur selten anzutreffen ist, schlägt der 100Base-T4-Standard vor, alle vier Leitungspaare zu verwenden. Dabei läuft der Datenstrom über drei Leitungspaare, wodurch sich die Signalrate auf 33 MHz reduziert. Das vierte Leitungspaar wird zur Kollisionsdetektierung eingesetzt. Eine weitere Reduktion der Signalrate wird beim 100Base-T4 wiederum durch Kodierungsverfahren erreicht. Bei 100Base-T4 kann die Übertragung zu einem Zeitpunkt nur in eine Richtung erfolgen. Ein Vollduplex-Betrieb ist nicht möglich.
100Base-T2
Auch der 100Base-T2-Standard beschreibt ein Verfahren, um die 100 Mbit/s des Fast Ethernet über ein Cat-3-Kabel zu übermitteln. Dabei sollte die Übertragung aber nur über zwei Leitungspaare erfolgen, um die anderen beiden Leitungen weiterhin für die Sprachtelefonie freizuhalten. Um diese Aufgabe zu lösen, wurde die Pulse Amplituden Modulation (PAM) entwickelt. Das beim 100Base-T2 verwendete PAM5x5 nutzt fünf verschiedene Pegel (-2, -1, 0, +1, +2).
Besonders interessant ist dabei, dass beide Leitungspaare vollduplex übertragen können. Dies wird durch den Einsatz von so genannten Hybrid-Transceivern ermöglicht. Diese weisen zwei Funktionalitäten auf:
In Senderichtung werden das Signal in Senderichtung und das Signal in Empfangsrichtung auf der Leitung überlagert.
Auf der Empfangsseite muss das gesendete Signal von dem resultierenden Signal subtrahiert werden, um das Signal in Empfangsrichtung zu erhalten. Dabei müssen jedoch die auf der Leitung reflektierten Anteile des gesendeten Signals mit Hilfe einer Echokompensation (Echo Cancellation) ebenfalls berücksichtigt werden.
Damit stellt dieser spezielle Vollduplex-Modus in gewisser Weise eine interessante Evolution in der Ethernet-Historie dar.
1. Für die Koaxialkabel muss ein Transceiver zum Einsatz kommen. Dieser muss beim Senden gleichzeitig die Pegel auf dem Kabel überprüfen, ob sie mit dem gesendeten Signal übereinstimmten. Weichen diese zu sehr von den gesendeten Signalen ab, wird dies als Kollision erkannt.
2. Bei der Übertragung mit Twisted-Pair-Kabeln bei 10Base-T werden Sende- und Empfangskanal getrennt.
3. Nun werden beim 100Base-T2 auch bei der Übertragung im Twisted-Pair-Kabel die Empfangs- und Sendekanäle wieder gemeinsam genutzt, um die geforderte Datenrate bei verfügbarer Bandbreite zu erreichen.
Auto-Negotiation
Der Einsatz von zwei unterschiedlichen Geschwindigkeitsstufen wirft die Frage nach der Kompatibilität auf. Auf Grund der ähnlichen Vorgaben lassen sich Baugruppen entwerfen, die in der Lage sind, wahlweise mit 10 oder mit 100 Mbit/s zu kommunizieren. Wünschenswert ist dabei auch, dass automatisch die größtmögliche Geschwindigkeit genutzt wird. Zu diesem Zweck wurde im Rahmen des Fast-Ethernet-Standards das sogenannte Auto-Negotiation-Protocol (ANP) festgelegt, das auf dem von National Semiconductor entwickelten Nway-Protokoll basiert. ANP bezieht sich auf Verbindungssegmente zwischen zwei Kommunikationsteilnehmern. Es wird unmittelbar bei der Initialisierung der Verbindung aufgerufen und verwendet ein dediziertes Signalsystem. Dieses basiert auf den Normal Link Pulses (NLP), die 10Base-T zur Kontrolle der Verbindung regelmäßig versendet.
ANP sendet Signalfolgen mit 33 Fast Link Pulses (FLP), deren Timing genau den NLPs entspricht. Damit können 10Base-T-Stationen ohne ANP umgehen, denn sie erkennen diese Signale als NLP. Unterstützt eine Station aber das ANP, so kann es aus den 16 geradzahligen FPLs das 16 Bit Link Code Word auswerten, das Informationen über die unterstützten Geschwindigkeiten und Modi enthält. Anhand einer Prioritätenfolge werden dann Geschwindigkeit und Modus ausgewählt.
Bit(s) | Bedeutung |
---|---|
| |
0 - 4 | Bei Ethernet immer 10000. Damit kann der Standard auch auf andere Übertragungssysteme erweitert werden. |
5 | unterstützt 10Base-T |
6 | unterstützt 10Base-T Full Duplex |
7 | unterstützt 100Base-TX |
8 | unterstützt 100Base-TX Full Duplex |
9 | unterstützt 100Base-T4 |
10 | unterstützt Datenflusskontrolle |
11 | reserviert |
12 | reserviert |
13 | Fehlerindikator |
14 | ACK - Quittierung eines ANP-Datenpakets |
15 | NP (Next Page). Es folgen weitere Datenpakete mit herstellerspezifischen Informationen |
Einschränkungen bei Auto-Negotiation
Bei 10 und 100 Mbit/s ist Auto-Negotiation optional, bei 100Base ist es nur für Twisted-Pair gültig. Auf Grund verschiedener Wellenlängen ist bei den optischen Links ohnehin keine Interoperabilität möglich. Für Gigabit-Ethernet ist ANP verpflichtend vorgeschrieben.
Wenn ein Gerät nicht auf die FLPs antwortet, greift die sogenannte Parallel Detection, die den Übertragungsstandard anhand der Signalform und der Kodierung erkennt. Dabei wird allerdings standardmäßig der Halbduplexbetrieb ausgewählt. Dies führt dann zu Problemen, wenn das andere Gerät manuell auf Vollduplexbetrieb eingestellt wurde.
Das ANP bietet die Möglichkeit, zusätzliche Informationen auf weiteren Seiten (Next Page) zu übermitteln. Auf diese Weise können auch die Gigabit-Standards in das ANP einbezogen werden. Problematisch erscheint allerdings, dass diese Möglichkeit von einigen Herstellern dazu genutzt wird, herstellerspezifische Informationen zu übertragen. Aus diesem Grund vertragen sich verschiedene Herstellerpaarungen bei der Abwicklung des ANP nicht. In diesen Fällen muss dann meist manuell konfiguriert werden.
Switching
Mit dem Wechsel zu Twisted-Pair-Kabeln ersetzte man die ursprüngliche physische Busstruktur durch eine Sternarchitektur, bei der Punkt-zu-Punkt-Verbindungen über einen zentralen Knoten verschaltet sind. Mit dieser Sternarchitektur kann man das Prinzip des geteilten Zugriffs auf das Kabel zugunsten einer leistungsstärkeren Vorgehensweise aufgeben, dem Switching:
Analysiert der zentrale Knoten die Quelladressen der eingehenden Pakete, lernt er mit der Zeit, an welchem Port welche Station angeschlossen ist.
Empfängt der zentrale Knoten nun auf einem Port ein Paket für eine bekannte Station, reicht es aus, das Paket nur auf den Port zu leiten, an dem die Zielstation hängt.
Dies ermöglicht eine deutlich höhere Bandbreite, denn Stationen können jeweils paarweise miteinander kommunizieren, ohne die Übertragung der anderen Stationen zu beeinflussen.
Zwei Faktoren sind nun aber noch zu beachten:
Da die Übertragung parallel durch die Verschaltungsmatrix des Switch erfolgt, wird dessen Bandbreite aufgeteilt. Innerhalb eines Gerätes lassen sich jedoch sehr viel höhere Bandbreiten erzielen und die Datenströme parallelisieren.
Wenn der Datenverkehr primär zu einem Gerät erfolgt, etwa einem Server, muss die Bandbreite der Verbindung zwischen Server und Switch geteilt werden.
Der Schritt von 100 auf 1000 Mbit/s
Insbesondere die Switching-Technologie schürt den Bedarf nach höheren Bandbreiten für bestimmte Punkt-zu-Punkt-Verbindungen. Wenn beispielsweise die Anbindung eines Servers an den Knoten eine größere Bandbreite aufweist als die Geschwindigkeit aller anderen Clients zusammen, ließe sich der Verkehr problemlos bewältigen. Auch im Backbone-Bereich sind inzwischen größere Geschwindigkeiten erforderlich. Dementsprechend stellt die Verabschiedung eines 1 GBit/s-Standards eine logische Konsequenz dar.
Zur Übertragung von 1 Milliarde Bits pro Sekunde über eine Leitung hat man sich für zwei grundsätzliche Ansätze entschieden:
Die Übertragung nach 1000Base-X (IEEE802.3z) baut auf den bestehenden Modulationsverfahren auf und erreicht die höhere Datenrate im wesentlichen durch die Erhöhung der Übertragungsfrequenz.
Dagegen hat man bei der Übertragung nach 1000Base-T (IEEE802.3ab) von der unmittelbaren Skalierung der 100Base-TX-Technologie Abschied genommen. Hier werden mehrere Verfahren kombiniert, um die Datenrate über ein Cat-5-Kabel auch bei Entfernungen jenseits von 100 m zu erreichen. Dabei sind die zentralen Verfahren den bereits bestehenden 100Base-T2 und 100Base-T4-Standards entlehnt.
1000Base-X
1000Base-X nutzt ein 8B10B-Modulationsverfahren, das dem 4B5B-Verfahren aus dem 100Base-X verwandt ist. Dabei wird ein Byte mit acht Bit auf ein Wort mit zehn Bit kodiert, so dass sich die Datenrate auf 1250 Mbit/s erhöht. 1000Base-X lässt sich über verschiedene Glasfasern oder über ein bis zu 25 Meter langes 150-W-Twinax-Kabel übertragen.
1000Base-TX
Die Steigerung der Datenrate von 100 auf 1000 Mbit/s bei 1000Base-TX lässt sich in fünf Schritten erklären. Die Reihenfolge der Schritte ist dabei willkürlich gewählt.
1. Ausgehend von der Übertragung über ein Leitungspaar bei 100Base-Tx wird nun wie bei 100Base-T4 über alle vier Leitungspaare übertragen. Auf dieses Weise erhöht sich die Datenrate auf 400 Mbit/s.
2. Verzichtet man auf die 4B5B-Kodierung, so steigt die Datenrate bei konstanter Übertragungsfrequenz auf 500 Mbit/s.
3. Setzt man das PAM5x5 aus dem 100Base-T2 ein, so erreicht man eine Verdoppelung der Datenrate auf 1000 Mbit/s, wobei wiederum die Übertragungsfrequenz unverändert bleibt. Dabei ist jedoch eine Verringerung des Signal-Rausch-Abstands um 6 dB durch den jeweils verringerten Signalhub zu verzeichnen, der nun durch eine zusätzliche Fehlerkorrektur ausgeglichen werden muss.
4. Bei der Trellis-basierten Fehlerkorrektur griff man auf eine Faltungskodierung zurück, wie sie insbesondere im Bereich des digitalen Mobilfunks, aber auch bei der Sprach- und Mustererkennung bereits seit langem verbreitet ist. Diese Fehlerkorrektur stellt die einzige wirklich neue Komponente im 1000Base-T-Standard dar.
5. Gleichzeitige Übertragung in beide Richtungen über ein Leitungspaar wie bei 100Base-T2. Damit erreicht man 1000 Mbit/s im Vollduplex-Modus.
Von 1000 auf 10.000 Mbit/s
Schon bevor 1000Base-T endgültig in trockenen Tüchern war, bildete sich im März 1999 eine Arbeitsgruppe innerhalb der IEEE802.3 Higher Speed Study Group (HSSG). Diese will mit IEEE802.3ae einen Standard für Datenraten von 10 GBit/s erstellen. Dabei wurde bereits zu diesem Zeitpunkt eine geschickte Doppelentscheidung getroffen, die die Grundlage für ein weiteres Vordringen des Ethernet-Standards darstellt.
Zum einen sollen bewährte Eigenschaften des LAN-Ethernets weiter fortgeführt werden. Insbesondere sollen das Rahmenformat und die unmittelbare Einpassung in die 802.x-Architektur die einfache Bündelung von langsameren Ethernet-Rahmen auf der höheren Geschwindigkeitsstufe und die unmittelbare Übernahme der bestehenden Techniken zur Verkehrssteuerung erlauben. Außerdem soll die Spezifikation eine kostengünstige Implementierung mit zwei- bis dreifachem Kostenaufwand im Vergleich zum Gigabit-Ethernet erlauben.
Zum anderen zeigt die Zielrichtung des 10 GBit/s-Ethernet aber deutlich in Richtung der Metropolitan Area Networks (MAN). Insbesondere werden nur noch Punkt-zu-Punkt-Verbindungen in Vollduplex-Modus unterstützt. Besondere Bedeutung erlangen dabei auch die für das Ethernet neuen Entfernungskategorien im Bereich von 50 Kilometer. Darüber hinaus sehen die gegenwärtigen Entwürfe die unmittelbare Anpassung an bestehende MAN-Strukturen vor, die auf der Basis von SONET/SDH implementiert sind.
Wie es sich für einen neuen Standard gehört, hat sich mittlerweile eine 10 Gigabit Ethernet Alliance (10GEA) gegründet. Ein erster Entwurf (Draft) des Standards wurde im September 2000 vorgelegt. Der endgültige Standard wird für das Jahr 2002 erwartet.
10GBase-SX und 10GBase-LX
Im gegenwärtigen Zustand sind zwei typische Ausrichtungen des 10 GBit-Ethernet vorgesehen, die sich im Wesentlichen durch ihre physische Schnittstelle unterscheiden. Der LAN PHY (SX) stellt eine kostengünstige Realisierung dar. Dagegen hat der WAN PHY (LX) große Entfernungen und die Kompatibilität zur bestehenden OC-192 WAN-Infrastruktur zum Ziel. Für beide Schnittstellen sind sowohl eine serielle als auch eine vierfach gemultiplexte Übertragung vorgesehen.
In diesem Zusammenhang sollte noch einmal deutlich herausgestellt werden, dass das 10 Gigabit-Ethernet nur noch die lichtbasierte Übertragung vorsieht, was keine Einschränkung darstellt, da in beiden Anwendungsszenarien (LAN-Backbone und WAN-Edge-Network) Glasfaser als Medium vorausgesetzt werden kann. Die physische Übertragung über optische Träger stellt im Vergleich zur kupferbasierten Übertragung sehr viel geringere Herausforderungen. Dennoch sind einige aus den bisherigen Standards bekannte Verfahren wiederzufinden. Man will damit erreichen, dass möglichst einfache und kostengünstige Glasfaserkabel eingesetzt werden können. Außerdem sollen die aktiven Komponenten mit geringen Frequenzen arbeiten und eine geringe Komplexität aufweisen. Im Abgleich zwischen den einzelnen Systembestandteilen ist allerdings festzustellen, dass der Fortschritt bei den Halbleitertechnologien und die Skalierung der Bauelemente eine aufwändigere (digitale) Signalverarbeitung eher rechtfertigt als kostenintensive passive Übertragungsmedien oder Laser.
Zwei Beispiele mögen diese Fortsetzung bekannter Verfahren illustrieren:
1. Die bewährte 8B/10B-Kodierung wird weiterhin eingesetzt. Um aber insbesondere bei der seriellen Übertragung die Bitrate nicht noch weiter nach oben zu treiben, wird nunmehr auch eine 64B/66B-Kodierung eingesetzt.
2. Um eine Übertragungsfrequenz zu erreichen, die noch mit gegenwärtig verfügbaren CMOS-Technologien erreicht werden kann, muss wiederum eine Zusammenfassung mehrerer Bits in kombinierte Symbole erfolgen. Hier wurden verschiedene alternative Verfahren geprüft, allerdings weist das bereits bekannte PAM5x5 die meisten Vorteile im Zusammenspiel von aktiven und passiven Komponenten auf.
Fazit
Mit der kostengünstigen Verfügbarkeit der verschiedenen Geschwindigkeitsstufen von 10 Mbit/s bis 10 GBit/s könnte es dem Ethernet-Standard gelingen, endgültig zum vorherrschenden Netzwerk-Protokoll zu werden. Dies gilt im Bereich der lokalen Netze sowohl für die Bürokommunikation als auch in zunehmendem Maße für die Netze in der industriellen Automation. Mittelfristig kann sich Ethernet auch für regionale Netze (MAN) etablieren, da ein durchgehender Standard ohne Protokollumsetzungen einfacher und kostengünstiger ist als eine Vielzahl verschiedener Systeme.
Der Traum einer homogenen Netzwerklandschaft ist somit nicht ausgeträumt, allerdings unter einem anderen Vorzeichen, als ihn sich die Entwickler des verbindungsorientierten und zu aufwändigen ATM erhofft haben. (mha)