20. Juli 1999
Synchrone Digitale Hierarchie
 

Synchrone Digitale Hierarchie Das zu Ende gehende Jahrhundert ist auch das Ende der analogen Übertragungstechnik, die viele Jahrzehnte die Fernnetze dominiert hat. Während früher sogenannte Trägerfrequenzsysteme für eine hochkanalige Auslastung der verlegten Leitungen sorgten, übertragen heute digitale Systeme auf Glasfaserleitungen Datenströme mit tausendfach höheren Multiplexraten.

In den siebziger Jahren führte die Entwicklung der Pulscodemodulation (PCM-Technik) rasch zu einer Vielzahl unterschiedlicher Primärmultiplexer. In Europa beispielsweise werden jeweils 30 Telefon-Sprachkanäle á 64 kbit/s zusammen mit zwei Kennzeichenkanälen zeitlich nacheinander in einen Rahmen von 125 µs Länge geschachtelt. Dabei ergibt sich eine Bitrate von 2048 kbit/s für PCM30-Signale, die Ausgangspunkt für weitere Multiplexschritte ist.

Bitraten der plesiochronen Hierarchie Über die Jahre hinweg haben sich weltweit zwei unterschiedliche Standards durchgesetzt: Dies ist zum einen die "europäische" Hierarchie (CEPT Länder), die auf der Bitrate 2048 kbit/s basiert und zum anderen die "nordamerikanische" Hierarchie (USA, Kanada und Japan), die als Basis 1544 kbit/s (entspr. 24 Telefonkanäle) verwendet. Die Übertragung ist in beiden Hierarchien plesiochron. Das heißt, die Taktversorgung ist dabei nur innerhalb eines Multiplexabschnittes definiert. Ein 140 Mbit/s-Signal einer PCM1920 beispielsweise muß an jeder Schaltstelle wieder komplett über alle Multiplexstufen auseinandergenommen werden, will man auch nur ein einziges PCM30-Signal neu einfügen. Internationale Verbindungen können nur über aufwendige Stopfmultiplexer geschaltet werden.

Deshalb führten in den achtziger Jahren Überlegungen dahin, wie man zu einem vernünftigen "kleinsten gemeinsamen Vielfachen" der unterschiedlichen plesiochronen Bitraten kommen könnte. Im Endergebnis soll das ganze Netz eines Landes, vielleicht sogar weltweit, aus nur einer einzigen Taktquelle gespeist werden. Alle Datenströme wären dann synchron. Daraus läßt sich ein gewaltiger Vorteil ableiten. Die in einem Rahmen übertragenen Teilsignale sind jederzeit identifizierbar. Man kann ihre zeitliche Lage bestimmen, kann sie herauslösen, verschalten, rangieren oder wieder einkoppeln. Ohne die anderen Teilsignale im Rahmen zu beeinflussen. Man kommt so zu Verkehrsströmen, die transportiert werden, wie Autos im Straßennetz.
A92 - Eittinger Moos (Autobahnen zum Beispiel sind an Zubringer angeschlossen. Dort fahren Autos runter, andere auf, ohne daß der Transitverkehr davon gestört wird.
Im plesiochronen Fall müßten alle Autos die Autobahn verlassen, würden neu zu einem Konvoi zusammengestellt und dürften dann auf einer anderen Straße weiter fahren.)

SONET

Das Konzept für die Synchrone Digitale Hierarchie basiert im wesentlichen auf Arbeiten und Ideen der Nordamerikaner. Insbesondere ist hier das Bellcore-Konzept für SONET (Synchronous Optical Network) zu nennen. SONET kann als der Vorläufer von SDH bezeichnet werden. Leider muß man heute feststellen, daß der Versuch, einen weltweit einheitlichen Standard zu schaffen, sein Ziel nicht erreicht hat. Denn auf dem nordamerikanischen Kontinent, der zweifellos der größte Telekommunikationsmarkt überhaupt ist, dominiert nach wie vor das SONET. Auch Satellitensysteme arbeiten nach SONET-Norm. Vom Prinzip her sieht SDH auch SONET-kompatible Signalzusammensetzungen vor. Existierende Anlagen unterstützen diese jedoch kaum. Selbst wenn, ein gemeinsames Management wäre sehr aufwendig. Trotzdem gibt es neuerdings eine Liaison zwischen beiden Systemen - Wellenlängenmultiplex. Auf einer Faser werden gleichzeitig mehrere Spektrallinien übertragen. Jede einzelne "Farbe" kann dann unabhängig voneinander SONET- oder SDH-Signale führen.

ATM

Jeder Bitstrom, der in synchronen Netzen übertragen werden soll, wird in Container verpackt. Diese werden dann in Rahmen synchron verschickt. Auch ATM-Zellen können in synchronen Rahmen schwimmen. SDH ist somit nur das Transportmedium, das auch Datenblöcke für den Asynchronen Transfer Mode übertragen kann.

Synchroner Transport Modul STM-1

Das oben erwähnte kleinste gemeinsame Vielfache vorhandener Bitraten und Interessen ist
155,520 Mbit/s
Der Datenstrom ist in einem Rahmen mit folgenden Eigenschaften strukturiert:
  • 8 aufeinanderfolgende Bits werden als ein Byte zusammen übertragen, das höchstwertigste Bit zuerst. Höhere Bitraten als STM-1 werden durch Bytemultiplex der einzelnen STM-1-Rahmen erreicht.
  • 2430 Bytes sind in 9 Zeilen und 270 Spalten (wie ein Fernsehbild) angeordnet. Die ersten 9 Spalten tragen jeweils Overhead-Informationen. Die 261 Spalten Payload können weitere, synchron unterstrukturierte Rahmen enthalten.
  • Die Rahmendauer ist 125 µs, die Rahmenfrequenz demnach 8000 pro Sekunde.
Dieser STM-1-Rahmen ist das zentrale Element der Synchronen Digitalen Hierarchie.

STM-1-Rahmen

Der Overhead ist in Bereiche aufgeteilt, deren Bytes am Beginn und Ende von Repeater-Abschnitten oder vom gesamten Multiplex-Abschnitt generiert und ausgewertet werden. Die einzelnen Bytes dienen zur Synchronisation, Bitfehlerüberwachung, Signalkennzeichnung, Ersatzschaltungsverständigung sowie der allgemeinen Systemsteuerung. Jedes Byte überträgt die Kapazität von 64 kbit/s. Auf den E-Bytes werden Dienst(Telefon)-kanäle dem Betreiber zur Verfügung gestellt. Die D-Bytes bilden den sogenannten "Data Communication Channel", auf dem Daten mit 192 und 576 kbit/s von und zu den einzelnen Netzknoten übertragen werden. Damit sind alle Netzelemente von einem zentralen Managementsystem aus fernkonfigurierbar und überwachbar. Die X-Bytes sind nicht definiert.

Auf die Pointer-Problematik wird weiter unten eingegangen.

Das amerikanische STS-1 des SONET hat eine Bitrate von 51,84 Mbit/s, das ist genau STM-1 drittel. Dadurch lassen sich SONET-Signale besonders einfach nach SDH wandeln. Jede dritte Spalte im STM-1-Overhead entspricht genau dem STS-1-Overhead.

Container und Tributary Units

Wie kommen nun die von der Vermittlungstechnik angelieferten Datenströme unterschiedlicher Bitraten in den STM-1?

PCM30 Primärmultiplexrahmen

Die Zubringersignale können aus verschiedenen Ebenen der bisherigen plesiochronen Hierarchie kommen. Das Bild zeigt beispielsweise den byteorientierten 2,048-Mbit/s-Primärmultiplexrahmen, der 30 Telefonkanäle und 2 Synchron- und Kennzeichenkanäle zusammenfaßt. Er enthält weder Stopfstellen noch Pointer.

Die einzelnen Zubringersignale werden zuerst nach einem festgelegten Ordnungsprinzip in einen nominell zum STM-1-Rahmen synchronen Container verpackt.

Die Taktrate vom Zubringer (engl. Tributary) ist zunächst nicht mit der Taktrate des Multiplexsystems synchronisiert. Bei der plesiochronen Technik wird der einlaufende Datenstrom darum erst in einem Puffer zwischengespeichert, aus dem das System die einzelnen Bits mit einer geringfügig höheren Taktrate entnimmt. Die zusätzliche Übertragungskapazität wird mit Leerbits "gestopft", welche als solche deklariert sind, um sie ohne Informationsverlust beim Demultiplexvorgang wieder entfernen zu können. Ob Informations- oder Leerbits in diesen Stopfstellen gesendet werden, hängt vom Verhältnis der Taktfrequenz des Zubringersignals zur Taktfrequenz des Multiplexers ab. Das Senden von Informationsbits in den Stopfstellen wird vorher mehrfach in speziell dafür vorgesehenen Kontrollbits angekündigt.

Prinzip des plesiochronen Stopfens

Das Gemisch aus Informations- und Stopfbits wird im nächsten plesiochronen Hierarchieschritt dem Multiplexer wieder als Tributary-Signal angeboten, welcher seinerseits auf die gleiche Weise weitere Stopfstellen einfügt. Durch diesen Puls-Stopf-Mechanismus zur schlupffreien Reaktion auf Taktabweichungen der Zubringersignale geht die Transparenz für einen Direktzugriff auf Digitalsignale unterer Hierarchien in der plesiochronen Welt verloren.

Was macht man also beim synchronen Multiplexen anders?

Mal angenommen, die Taktrate des Tributary-Signals würde vom Übertragungssystem synchronisiert, dann kämen immer die gleichen Teilsignale des Zubringers an die gleichen Stellen im Rahmen des synchronen Systems. Denn der Primärmultiplexrahmen, sowohl der amerikanischen (1,544 Mbit/s) wie auch der europäischen Hierarchie (2,048 Mbit/s), hat eine Wiederholrate von genau 125 µs. Nicht zufällig ist die STM-1-Rahmenlänge auch genau auf diesen Wert festgelegt. In der Tat bräuchte man dann nur noch ein paar feste Stopfstellen zur Bitratenanpassung und könnte jederzeit auf einzelne Teilsignale zugreifen, weil die Kanalpositionen im Rahmen fix sind.

Leider sind die Zubringersignale im allgemeinen nicht synchronisierbar. Sie kommen aus der Vermittlungstechnik oder von einem Kunden, der die Übertragungskapazität gemietet hat. Taktschwankungen führen im Laufe der Zeit dazu, daß der Eingangspuffer über- oder unterläuft. In dem Moment, wo der Zeitschlitz im synchronen Rahmen die Daten für den zugehörigen Kanal haben will, sind im Puffer keine Daten mehr vorhanden. Oder umgekehrt, der Zubringer sendet Daten, die aber nicht mehr zwischengespeichert werden können, weil der Puffer voll ist.

Die Aufgabe, Taktabweichungen elastisch auffangen zu können, besteht also nach wie vor.

Asynchrones Mapping

Mapping ist das Verpacken eines Signals bestimmter Bitrate in einen Container mit etwas höherer Bitrate. Die zusätzliche Übertragungskapazität des Containers trägt Verpackungsinformationen sowie Stopfbits. Beim asynchronen Mapping passiert das gleiche wie beim plesiochronen Multiplexen. Die Überkapazität des Containers enthält Stopfkontrollstellen, die von den Füllstandszeigern der Puffer gesteuert werden. Das Ausfüllen der Stopfstellen mit Zubringerbits anstelle von festen Stopfbits wird in Stopfkontrollbits mehrfach angekündigt. Somit "schwimmt" das Tributary-Signal asynchron in dem synchronen Verpackungscontainer. Auf Teilsignale in diesem Tributary-Signal hat man demzufolge keinen Zugriff (genau so wenig wie früher im Plesiochronen), aber der Container ist synchron und kann jetzt synchron gemultiplext werden. Alle höheren Hierarchien haben damit Zugriff auf diesen Container.

Synchrones Mapping

Beim synchronen Mapping werden die Stopfstellen mit Leerbits fest gestopft. Bitweises und byteweises synchrones Mapping unterscheiden sich insofern nur, daß beim byteweisen synchronen Mapping durch vorheriges Aufsynchronisieren auf den plesiochronen Rahmen die Byte- und Rahmengrenzen bekannt sind und somit die Zubringerbytes immer mit dem gleichen Ordnungsprinzip in die synchrone Struktur übernommen werden können.
Zur Taktratenanpassung der Zubringer auf die Rate des Multiplexsystems bedient man sich hierbei einer anderen Methode - Pointer.

Pointer

Während das bitweise Stopfen beim asynchronen Mapping für eine saubere, leicht verträgliche Frequenzanpassung sorgt, hat man im synchronen Fall an der Stelle ein Problem. Die Daten werden immer nur mindestens byteweise in die höhere Hierarchie gepackt. Was also tun, wenn irgendwann kein ganzes Byte mehr zur Verfügung steht, sondern nur 7 Bit davon? Wie gesagt, die Übernahme geht nur byteweise. Man könnte diesen Kanal für einen Rahmen einfach einmal auslassen und anstelle seiner Daten ein festes Stopfbyte senden. Aber wie soll dieses von richtigen Daten unterschieden werden? Und was ist, wenn ein Byte mehr gesendet werden muß? Man käme zum gleichen bekannten Verfahren, so wie es oben beschrieben ist, nur mit Bytes anstelle von Bits. Die Kapazität dafür wäre sogar im Rahmen vorhanden. Aber die gesamte innere Signalstruktur würde wieder "schwimmen". Der erste Kanal würde sich im Stopfbyte ganz am Ende wiederholen und an der Stelle, wo vorher immer der erste Kanal war, erscheint jetzt der zweite usw.

Ganz so schlecht ist die Sachlage allerdings nicht. Wenn man nur wüßte, wo der erste Kanal ist. Warum also nicht einfach die Position des ersten Kanals im Rahmen mit übertragen und das Problem ist gelöst. Genau das wird für alle synchronen Rahmen gemacht. Ein Pointer zeigt auf den Beginn eines Containers, also auf die Position, die sein erstes Byte im synchronen Rahmen einnimmt. Kommt es jetzt zu einer notwendigen Frequenzanpassung, dann muß zusätzlich zum Bytestopfen noch der Pointer entsprechend korrigiert werden. Durch diesen einfachen Trick sind die in synchronen Rahem schwimmenden Teilsignale jederzeit auffindbar.

Das System muß natürlich störfest gegen Übertragungsfehler sein. Das bedeutet, daß eine Veränderung des Pointers wieder mehrfach vorher angekündigt werden muß, um am fernen Ende als solche akzeptiert zu werden. Gerade der Pointer ist durch eine spezielle Codierung besonders gegen Bitfehler geschützt.

Pointer-Aktion beim negativen Stopfen Beim negativen Stopfen ist der Zubringer schneller als das Multiplexsystem. Die zusätzliche Übertragungskapazität der H3-Bytes aus dem Pointer-Bereich wird genutzt.
Pointer-Aktion beim positiven Stopfen Beim positiven Stopfen ist der Zubringer langsamer als das Multiplexsystem. Bytes aus dem Payload-Bereich bleiben ungenutzt.
Eine Pointer-Aktion hat zur Folge, daß in einem Rahmen, für den immer die gleiche Zeit von 125 µs zur Verfügung steht, plötzlich ein Byte mehr oder ein Byte weniger übertragen wird (beim AU4 sogar drei Byte mehr oder weniger). Die dabei entstehenden Frequenzschwankungen (engl. Jitter) müssen durch PLLs geglättet werden.

Jongleur Schwer zu beherrschen sind sehr langsame Frequenzänderungen. Ein patentiertes Verfahren pointert daher ständig positiv und negativ, auch wenn die Frequenzabweichung 0 wäre. Der durch die Pointeraktionen hervorgerufene Jitteranteil im Spektrum wird so in Richtung höherer Frequenzen verschoben und kann außerhalb der Nutzbandbreite der Regelung ausgefiltert werden. (Analogie aus der Mechanik: Ein Clown auf einem Ball kann besser das Gleichgewicht halten, wenn er ständig hin- und herzappelt.)

Allein durch Umrechnung des Pointers kann die Zeitlage eines Containers in Bezug auf einen anderen Transportrahmen auch komplett geändert und normalisiert werden. Ohne den gesamten Zubringer-Rahmen zwischenpuffern zu müssen. Bei Crossconnect-Systemen werden so alle eingehenden synchronen Container zunächst in eine einheitliche Zeitlage gebracht, um sie anschließend verschalten zu können.

Virtueller Container

Beim Mapping werden nicht nur Stopfstellen zugefügt, sondern auch ein Path-Overhead. Der Path-Overhead ist im wesentlichen statisch, d.h. er wiederholt sich in jedem Rahmen mit dem gleichen Inhalt. Ausnahmen bilden die Path- und Section-Traces, worauf später noch eingegangen wird, sowie die Bitfehlerzähler. Dieses Signalgemisch einschließlich Overhead bezeichnet man als virtuellen Container (VC).

Tributary Unit

Der virtuelle Container, erweitert mit dem oben beschriebenen Pointer, ist die Tributary Unit (TU). TUs werden wieder nach einem bestimmten Schema zu Gruppen (TUG) zusammengefaßt und bilden schließlich eine Administrative Unit (AU).

Higher Order, Lower Order

Im oben dargestellten STM-1-Rahmen zeigt der AU4-Pointer auf den Path-Overhead eines virtuellen Containers VC4. Die Nullposition ist das unmittelbar auf den Pointerbereich folgende Byte. Der Container C4 könnte ein asynchron gemapptes 139 Mbit/s-Signal der 4. plesiochronen Hierarchiestufe (PCM1920) enthalten. Er könnte aber auch synchron weiter unterstrukturiert sein. Zum Beispiel mit 2 Mbit/s-Signalen. Ärgerlich ist an der Stelle die Tatsache, daß in einen 155 Mbit/s STM-1 nur 63 synchron gemultiplexte Kanäle passen, wo doch früher die plesiochronen Multiplexer 64 Kanäle in nur 139 Mbit/s untergebracht haben. Woran das liegt, soll im folgenden beschrieben werden.

In der synchronen Hierarchie gibt es im Gegensatz zur plesiochronen nur zwei Stufen - Higher Order und Lower Order - Stufen, in denen Taktanpassungen mittels Pointer vorgenommen werden. Weitere solcher Pointerstufen würden zu unvertretbarem Jitter führen, wenn im ungünstigsten Fall alle Stufen gleichzeitig pointern. Deshalb werden höhere Hierarchien nur durch Multiplex der einzelnen STM-1-Bytes erreicht. Es ist demzufolge nicht möglich, STM-4-Signale (622 Mbit/s) unterschiedlicher Herkunft zu einem STM-16 oder STM-64 direkt zu multiplexen, sondern alle darin enthaltenen STM-1 müssen einzeln gepointert werden.

Der im STM-1-Overhead enthaltene Pointer zeigt auf den Beginn der Signalstruktur des Nutzlastbereichs (AU4). Aus der SONET-Geschichte können auch 3 Pointer auf 3 einzelne AU3 zeigen.

Higher Order Pointer

Vergleicht man beide Varianten wird klar, warum der AU4-Pointer nur dreibyteweise springen kann. Weil die Nachbarspalte im amerikanischen Mode der nächsten AU3-Gruppe gehört und von einem eigenen Pointer adressiert wird.

Der im Nutzlastbereich mit dem J1-Byte beginnende virtuelle Container sieht herausgelöst folgendermaßen aus:

Higher Order Virtual Container

Ein Higher-Order-Container VC3 könnte beispielsweise als Nutzlast ein asynchron gemapptes 34 Mbit/s- oder 45 Mbit/s-Signal aus der 3. plesiochronen Hierarchiestufe tragen. Ein VC4 könnte ein asynchron gemapptes 139 Mbit/s-Signal der 4. plesiochronen Hierarchiestufe enthalten. In den Mappingvorschriften dazu sind Stopfbytes zur Bitratenanpassung vorgesehen. Diese Bytes enthalten meistens feste Stopfbits. Bestimmte genau definierte Bytes tragen aber wieder die bereits bekannten Stopfkontroll- und Stopfinformationsbits zur elastischen Bitratenanpassung an das Zubringersignal.
34 oder 45 Mbit/s-Signale im AU3 oder 139 Mbit/s-Signale im AU4 verlassen an dieser Stelle den Zuständigkeitsbereich der synchronen Welt. Für sie gibt es nur einen synchronen Hierarchieschritt, nämlich Higher Order mit dem AU4- oder AU3-Pointer.

Die Container VC4 oder VC3 können aber auch weiter synchron unterstrukturiert sein. Alle Möglichkeiten dazu sind in der ITU Empfehlung G.707 beschrieben. Ein VC4 kann wieder drei VC3 enthalten. Dabei kann jeder dieser inneren Teilsignale eine andere Phasenlage haben. Um den Anfang der inneren Teilsignale zu finden, bedient man sich der gleichen Pointer-Technologie und bezeichnet diese jetzt als Lower Order.

VC4 enthält drei VC3

Auch ein Lower-Order-Pointer zeigt immer auf das erste Byte eines Lower-Order-Path-Overhead. Beim VC3 ist das das J1-Byte.

Beim VC2, VC12 oder VC11, die Zubringersignale der 1. und 2. plesiochronen Hierarchiestufe enthalten, ist das Multiplexchema etwas komplizierter. Hier müssen immer vier aufeinanderfolgende STM-1 Rahmen zusammen betrachtet werden. Sie bilden damit einen 500 µs langen Multiframe. Der Multiframezähler ist das H4-Byte im VC4- oder VC3-POH.

Multiplexstruktur TU1 oder TU2

Die einzelnen Tributary Units sind spaltenweise zeitmultiplex verschachtelt. Der Lower-Order-Pointer zeigt auf den Beginn des innerhalb einer TU "schwimmenden" Containers. Der komplette Pointer ist auf drei STM-1-Rahmen verteilt. Zwei Byte (V1,V2) für die Adresse und ein Byte (V3) als Gelegenheit zum negativen Stopfen bei Änderung des Pointers. V4 ist nicht definiert.

TU1 und TU2 im 500 µs Multiframe

Während die im Bild dargestellte Lower-Order-Tributary-Unit noch phasenstarr zu ihrem Higher-Order-Container ist, in dem sie transportiert wird, kann der innere Lower-Order-Container eine beliebige Zeitlage haben. Die Position des ersten Bytes, des Lower-Order-Path-Overheads, wird durch den TU-Pointer (V1,V2) adressiert.

Angenommen, in einer Tributary-Unit-Group würden Container transportiert, die als Nutzlast 2 Mbit/s-Signale enthalten. Dann sähe beispielsweise ein VC12 herausgelöst folgendermaßen aus:

VC12 - Synchronous Mapping

Beim synchronen Mapping erkennt man sofort die bekannte Struktur des Primärmultiplexrahmens wieder. Jeder 64 kbit/s-Kanal liegt immer an der gleichen Stelle im Container. Voraussetzung ist, daß im Multiplexvorgang vor dem Mapping zuerst auf den Basisrahmen aufsynchronisiert wurde. Taktanpassung auf die Rate des Zubringers geschieht ausschließlich über den TU-Pointer (siehe oben).

VC12 - Asynchronous Mapping

Beim asynchronen Mapping betrachtet man den Datenstrom als anonyme Folge von Bits. In den im Bild mit "s" gekennzeichneten Bytes sind hierfür zur Taktratenanpassung zwei Stopfbits definiert. Die Nutzung dieser Stopfstellen als Stopf- oder Datenbit wird vorher in Stopfkontrollbits "c" dreifach angekündigt. Der Pointer ist immer Null.

Zusammenfassend erkennt man, daß für Stopfstellen, Overhead und Pointer in synchronen Systemen relativ viel Übertragungskapazität gebunden ist. Andererseits ist durch die Pointertechnik die Zeitlagennormalisierung ohne große Puffer möglich, wodurch Teilsignale effektiv verschaltet werden können. Durch die vielfältigen Overhead-Funktionen wird die Betriebsbeobachtung, Wartung und Systemkonfiguration wesentlich verbessert.

Overhead

"Die unbenutzten Overhead-Bytes beflügeln die Phantasien der Betreiber immer sehr."   (Theo Kupfer)

Aber auch die Techniker lassen sich inspirieren. Interne Daten werden im Overhead zusammen mit den zu verarbeitenden Nutzsignalen von Baugruppe zu Baugruppe übertragen. Da fallen schon mal ganz beachtliche Datenraten nebenbei mit ab.

Was aber sagt die internationale Normung? Welche Overhead-Bytes sind für was definiert?

STM-1-Overhead

Section Overhead

Eine Multiplex-Section kann in mehrere Repeater-Abschnitte aufgeteilt sein.
Repeater Section Overhead
Der erste Teil des STM-1 Overheads, der sich vor dem Pointer befindet, ist der Repeater-Section-Overhead (RSOH). Bei höheren Hierarchien ist er, von den Synchronisationsbytes A1 und A2 abgesehen, nur im STM-1#0 definiert! Die Bytes der ersten Zeile des RSOH, also die ersten 9 Bytes (bzw. n mal 9 Bytes bei höheren Hierarchien) bleiben unverscrambelt. Alle nachfolgenden Bits des kompletten Rahmens werden mit einem einfachen zyklischen Code verschachtelt. Damit wird die Leistungsdichte des Ausgangssignals gleichmäßig auf das Spektrum verteilt.
  • A1, A2: Rahmensynchronisation
    Die Bitfolge (hex) F6 F6 F6 28 28 28 kennzeichent den Anfang jedes STM-1 Rahmens.
  • B1: Paritätsbyte zur Fehlererkennung
    Die Parität wird über 8 Bit-"Spuren" (wie beim Lochstreifen) bestimmt. Nach dem Verscrambeln wird die Anzahl der Einsen über einem kompletten STM-1 Rahmen geradzahlig ergänzt und im B1-Byte des Folgerahmens eingesetzt.
  • E1: Dienstkanal
    E1 und E2 bilden die beiden Dienstkanäle zum Telefonieren für den Betreiber, wobei E1 in jedem Repeater überschrieben werden kann, während E2 ausschließlich für die Endstellen vorgesehen ist. E2 liegt deshalb auch im Bereich nach dem Pointer im MSOH. Jedes Byte liefert die Übertragungskapazität von 64 kbit/s und entspricht damit genau einem Telefonkanal.
  • F1: Nutzkanal
    Je nach Kundenwunsch oder Herstellerkreativität kann auf diesem Byte alles mögliche übertragen werden. Einem japanischen Vorschlag folgend gab es z.B. früher mal ein vereinfachtes Fehlerortungsverfahren, welches die Repeaternummer und die Fehlerart auf diesem Byte an die Endstellen gemeldet hat.
  • D1 .. D3: Datenkanal für die Inservice-Überwachung
    Drei Bytes liefern 192 kbit/s für den DCC, den Data Communication Channel. Auf diesem seriellen Datenkanal überwacht der Betreiber alle seine Netzelemente. Je nach Managementsystem wird ein bestimmtes Protokoll gefahren, i.a. vom HDLC auf der physikalischen Bitübertragungsebene über die 7 Schichten des OSI-Referenzmodells hinauf zu den Anwenderprotokollen. Da in den einzelnen Netzknoten mehrere solche DCC-Kanäle zusammenlaufen, müssen die einzelnen Datenpakete geroutet werden. Das hängt wiederum von der Topologie des Netzes ab. Man kann sagen, daß im DCC-Handling der größte Teil des Software-Aufwands steckt, der in einem SDH-Netzelement implementiert ist.
  • J0: Section Trace
    Das Byte ist recht spät definiert bzw. nochmal umbenannt worden. Hier steht jetzt die Absenderkennung des physikalischen Senders, also beispielsweise des sendenden Repeaters. Eine solche Access Point Identification (APId) wird einheitlich in einem 16-byte-String übertragen, d.h. alle 16 Rahmen wiederholt sich der String. Aufgrund der Inkompatibilität zum früheren C1-Byte gibt es derzeit kaum Geräte, die den Section Trace unterstützen. Das wird sich zukünftig ändern, denn im Zusammenhang mit Wellenlängenmultiplex wird ein Multiplexabschnitt entsprechend der Anzahl der verwendeten Spektralfarben mehrfach genutzt. Der Section Trace trägt dann die Kennung der einzelnen Teilsignale. Besonders bei komplizierten Topologien und Ringstrukturen erleichtert das die Verwaltung.
Multiplex Section Overhead
Eine Multiplex-Section ist normalerweise der Abschnitt zwischen zwei Endstellen, d.h. hier wird der anhängige Nutzlastinhalt terminiert. Die Verbindung zwischen den beiden Multiplexern kann über zwei voneinander unabhängige Wege geführt sein. Im Fehlerfall wird dann automatisch ersatzgeschaltet und zwar innerhalb von 50 ms. Der Multiplex Section Overhead (MSOH) ist der Teil des STM Overheads, der nach dem Pointer kommt. Bei höheren Hierarchien ist auch er nur im STM-1#0 definiert. Ausnahme sind die Paritätsbytes B2.
  • B2: Paritätswort zur Fehlererkennung
    Entsteht während der Übertragung ein Bitfehler, dann wird dieser im nächsten Repeater anhand der B1-Parität erkannt. Der Repeater berechnet aber seinerseits die Parität über den Rahmen neu, so daß für den folgenden Repeaterabschnitt wieder alles in Ordnung ist. Deshalb werden Bitfehler über den gesamten Multiplexabschnitt mit der B2-Parität überwacht. In 24 Bitspuren (beim STM-1) wird die Anzahl der Einsen im Datenstrom ausgenommen des RSOH geradzahlig ergänzt. Die so entstandenen B2-Bytes werden im nächsten Rahmen vor dem Verscrambeln eingesetzt.
  • K1, K2: Automatische Ersatzschaltung
    Anhand eines bitorientierten Protokolls verständigen sich die beiden Endstellen zum Zwecke der automatischen Leitungsersatzschaltung.
    3 Bits vom K2-Byte sind für eine andere Aufgabe reserviert. Die Belegung "110" signalisiert der Endstelle, daß das ferne Ende ein fehlerhaftes Signal empfängt. Das ist zum Beispiel der Fall, wenn der Pointer auf keine gültige Position zeigt.
  • D4 .. D12: Datenkanal für Inservice-Überwachung
    Neun Bytes liefern 576 kbit/s für den Multiplex Section DCC. Hier gilt das gleiche wie für den RS-DCC (Bytes D1 .. D3).
  • S1: Taktqualität
    Der Inhalt des S1-Bytes sagt aus, welche Qualität das Leitungssignal hinsichtlich der synchronen Taktversorgung hat. Dazu weiter unten mehr.
  • M1: Bitfehler am fernen Ende
    Stellt das ferne Ende in seinem Empfangssignal B2-Fehler fest, so signalisiert es in Rückrichtung im M1-Byte die Anzahl der erkannten Paritätsverletzungen. Beim STM-1 können das maximal 24 B2-Fehler innerhalb der 125 µs Rahmenlänge sein. Beim STM-16 oder höher wird der Maximalwert auf 255 begrenzt. (STM-64 zum Beispiel hat schon 192 B2-Bytes, so daß theoretisch 1536 Paritätsfehler erkannt werden könnten.)
  • E2: Orderwire
    Dienstkanal, siehe E1-Byte.

Path Overhead

Man muß unterscheiden zwischen Containern der Higher Order Pathes (VC3, VC4) und denen der Lower Order Pathes (VC11, VC12, VC2).
Higher Order Path Overhead
Wie gesagt, ein Container komplettiert mit einem Overhead, wird zum "Virtuellen Container" VC. Higher Order Virtual Container
  • J1: Path Trace
    Der Path Trace ist eine sehr nützliche Erfindung. Mehrere aufeinanderfolgende J1-Bytes bilden zusammen einen String, der sich ständig wiederholt und eine signalbegleitende Beschreibung des Absenders dieses Containers trägt. Das ist vergleichbar mit den RDS-Senderkennungen vom UKW-Rundfunk. Beim Higher Order Path kommt alle 125 µs ein J1-Byte vorbei.
    16 Byte bilden einen Rahmen, wobei 15 mit der APId belegt sind. Ein Byte enthält den Rahmenkenner und eine CRC7-Prüfsumme. Ein beabsichtigter Empfänger, der den Pfad für diesen Container auflöst (terminiert), kennt die Absenderkennung und prüft auf deren Übereinstimmung. Erst dann wird das ausgepackte Signal zum Zubringer durchgeschaltet. Gibt es keine Übereinstimmung, dann ist das empfangene Signal nicht das gewollte. Vielleicht liegt eine Fehlschaltung unterwegs vor. Automatisch wird Ersatzsignal eingesetzt und der Betreiber alarmiert.
    Leider waren sich die Normungsgremien über die Jahre hinweg nicht einig, so daß heute mehrere Formate existieren, die auch noch inkompatibel zu einem früheren Stand sind. (Der viele Jahre übliche formatfreie 64-byte-String ist weder gerahmt noch konstant!)
  • B3: Paritätsbyte zur Fehlererkennung
    8bit gerade Parität über den gesamten VC, also einschließlich Overhead vor dem Verscrambeln. Hiermit wird die End-zu-End Bitfehlerperformance für den Higher-Order-Pfad ermittelt. Interessant ist in dem Zusammenhang die Tandem-Connection-Überwachung, deren Rahmen im N1-Byte übertragen werden. Dabei wird nämlich unterwegs auf Teilabschnitten das N1-Byte geändert, ohne die Parity-Überwachung für den Pfad zu verfälschen. Damit das funktioniert, muß das B3-Byte dabei "nachgebessert" werden.
  • C2: Signal Label
    Das Signal Label gibt Auskunft über die Zusammensetzung des anhängigen Container-Inhaltes, z.B. über die Art des Mappings. Ist das Signal Label 0, dann ist dieser Container "Unequipped", d.h. sein Inhalt ist undefiniert. Ist ein Pfad "Unequipped", so kann der Betreiber trotzdem diese Verbindung überwachen, weil der Path Trace und die Parity-Bytes korrekt übertragen werden. Ebenso die Fehlerrückmeldung (Remote Defect Indication) vom fernen Ende.
  • G1: Pfad Status
    Das G1-Byte liefert Fehlerinformationen vom fernen Ende. Das ist zum einen die Reflektion der Anzahl der B3-Paritätsverletzungen und zum anderen eine Art Sammelfehler, genannt "Remote Defect Indication" RDI.
  • F2, F3: Nutzkanal
    Die beiden F-Bytes sind reserviert für End-zu-End Datenbeziehungen von Pfaden. Das kann abhängig von der Art der Nutzlast sein und ist nicht genormt.
  • H4: Multiframe-Zähler
    Ist der Higher Order Path weiter synchron unterstrukturiert, dann sind die inneren Lower Order Pathes zu 500 µs langen Rahmen geordnet. Ein kompletter VC2 Rahmen verteilt sich demnach auf 4 STM-1 Rahmen. Das H4-Byte im Overhead des tragenden Higher Order Containers gibt sozusagen den Takt für die 4 Teilrahmen an:
  • K3: Pfad-Ersatzschaltung
    Über 4 Bits vom K3-Byte handeln die zwei Pfad-Endstellen die automatische Pfad-Ersatzschaltung aus. Nicht zu verwechseln mit der Leitungsersatzschaltung, die im K1,K2-Byte synchronisiert wird und die alle Pfade der physikalischen Verbindung betrifft. Bei der Pfad-Ersatzschaltung wird nur dieser eine Pfad, z.B. einer von drei VC3, umgeschaltet.
  • N1: Tandem Connection Monitoring
    Zu deutsch: Hintereinander angeordnete Verbindungsüberwachung.
    Pfade werden oft durch verschiedene Hoheitsgebiete geführt, bevor sie terminiert werden. Zur Qualitätsüberwachung einzelner Teilstrecken, in denen Pfade im Transit übertragen werden, dient die Tandem Connection Monitoring Funktion. 4 bit geben die Anzahl der B3-Paritätsverletzungen auf dem zu überwachenden Teilstück an. Von den anderen 4 bit des N1-Bytes werden in 76 aufeinanderfolgenden Rahmen immer jeweils 2 bit entnommen, die dann wieder einen Frame bilden, ähnlich wie beim Path Trace.
Lower Order Path Overhead
Der Virtuelle Container des Lower Order Path ist über 4 Higher Order Rahmen verteilt. Das erste Byte ist das V5-Byte. Es wird durch den Lower Order Pointer V1,V2 adressiert. Lower Order Virtual Container
  • V5: BIP-2, REI, RFI, Signal Label und RDI
    Im V5-Byte sind mehrere Overhead-Bereiche bitweise zusammengefaßt. Die Parität wird nur über zwei Bitspuren berechnet (BIP-2) und die Rückmeldung beschränkt sich auf die Aussage: "War überhaupt ein Paritätsfehler im 500 µs langen Block oder nicht?" (REI). Das Signal Label gibt die Signalzusammensetzung an. 0 bedeutet wieder "Unequipped". RDI ist die allgemeine Fehlerrückmeldung vom fernen Ende. Wofür RFI eingeführt wurde, ist unklar. Vom Namen her hat es die gleiche Bedeutung wie RDI.
  • J2: Path Trace
    Der Lower Order Path Trace hat den gleichen Aufbau und wird genau so behandelt wie der im J1-Byte übertragene Higher Order Path Trace.
  • N2: Tandem Connection Monitoring
    Aus 76 aufeinanderfolgenden Rahmen (76 x 500 µs = 38 ms) werden jeweils 2 bit entnommen und zu einem neuen Byte-Frame zusammengefaßt, der die Absenderadresse ähnlich wie beim Path Trace enthält.
    Da bei der Überwachung eines Teilabschnittes eines Lower Order Pathes mit TCM das N2-Byte unterwegs geändert wird, muß auch hier wieder dafür gesorgt sein, daß die BIP-2 Parität im V5-Byte entsprechend nachkorrigiert wird.
  • K4: Pfad-Ersatzschaltung
    Über 4 bit des K4-Bytes wird die Pfad-Ersatzschaltung mit dem anderen Terminator des Lower Order Pfads ausgehandelt. Die anderen 4 bit sind optional oder reserviert.

Timing

In der synchronen Übertragungstechnik werden Taktabweichungen an den Schnittstellen im Vergleich zur Referenz mit Hilfe von Pointern ausgeglichen. Die Pointertechnik erlaubt wesentlich geringere Signalverzögerungen als die Zwischenspeicherung in Rahmenpuffern (abgesehen davon, daß diese vom Speicheraufwand völlig unwirtschaftlich wären.)

Taktsynchronisierung
Nicht nur der ankommende Strom auf der Leitungsseite, auch die Zubringer können synchrone Signale führen. Alle einlaufenden synchronen Signale werden durch Anpassung ihrer Pointer auf die Systemtaktfrequenz des Netzelements synchronisiert.

Das führt zu der grotesken Situation, daß synchrone Systeme dank ihrer Pointertechnik untereinander viel asynchroner sein können, als plesiochrone Systeme. Synchrone Systeme allein würde das nicht mal stören. Beim Übergang in die plesiochrone Welt jedoch führt das Pointern zu erhöhtem Jitter. Um unnötiges Pointern zu vermeiden, sollten also die Taktversorgungen der einzelnen Netzelemente untereinander synchronisiert sein. Am besten, alle Netzelemente würden mit dem Takt einer einzigen Quelle arbeiten. Aber wie bekommt man diesen Takt an die örtlich verteilten Geräte? Eine Variante wäre, jedes Netzelement mit einem eigenen GPS-Empfänger auszurüsten. Möglich, aber zu teuer.

In der Praxis gibt man den Takt einer hochstabilen Quelle von Netzelement zu Netzelement mit dem übertragenen synchronen Signal selbst weiter. Eine Systemfunktion innerhalb des Netzelementes sorgt dafür, daß die jeweils beste Referenzquelle zur Synchronisierung der eigenen Taktversorgung ausgewählt wird. Taktreferenz kann sein:

  • synchrones Eingangssignal ab STM-1 an den Ports
  • 2-Mbit/s-Zubringersignal von einer digitalen Vermittlungsstelle
  • lokaler Referenztakt, z.B. von einer Atomuhr
Beim Ausfall aller Referenzen versucht die interne Regelung, den Systemtakt im Hold-Over-Betrieb weiter stabil zu halten. Im Section-Overhead des STM-Signals gibt das S1-Byte darüber Auskunft, welche Taktqualität das anhängige synchrone Signal hat.

Ein besonderes Problem ist die Erkennung und Vermeidung von Taktschleifen, die bei Ringstrukturen oder komplexen vermaschten Topologien im Zusammenhang mit der automatischen Ersatzschaltung auftreten könnten. Taktreferenz darf kein Eingangssignal sein, dessen Takt irgendwann vorher von einem Signal synchronisiert wurde, das am eigenen Netzelement selbst ausgegeben wird.

Retiming

Die in der SDH realisierten Prinzipien zur Frequenzanpassung des Zubringersignals an die Taktfrequenz des Netzelements
  • Bitstopfen beim Mapping
  • Bytestopfen beim Pointern
garantieren, daß alle Bits mit der gleichen Rate das synchrone Netz verlassen, mit der sie an anderer Stelle in das Netz eingespeist wurden. Das geschieht unabhängig davon, mit welcher Rate sie innerhalb des synchronen Netzes transportiert werden. Retiming Angenommen, Zubringer A verfügt nicht über eine hochstabile Taktversorgung und sein Signal sei "zu langsam", dann kommt es bei B auch "zu langsam" an. Zubringer können unter diesen Bedingungen also nicht von der stabilen Taktverteilung innerhalb des SDH-Netzes profitieren. So lange A und B in ihrer eigenen Taktwelt leben können, ist das auch kein Problem. Oft besteht aber die Notwendigkeit, den angeschlossenen Kunden auch mit der amtlichen Taktfrequenz des Netzes versorgen zu müssen. Für diesen Fall muß ein weiterer Mechanismus her - Rahmenstopfen.

Im Beispiel soll das plesiochrone Signal zu Zubringer B mit der genauen Taktrate gesendet werden, die sich aus dem Systemtakt des SDH-Netzelementes ableitet. Wenn Zubringer A "zu langsam" ist, dann sind irgendwann im Netzelement, das zu B sendet, keine Bits mehr da, die gesendet werden könnten. Im Primärmultiplexrahmen sind aber weder Pointer noch Stopfstellen definiert. Die einzige Möglichkeit besteht darin, den letzten Rahmen komplett zu wiederholen. Im anderen Fall, wenn A "zu schnell" wäre, würde ein ganzer Rahmen einfach ausgelassen. Das klingt zunächst hart, ist aber gängige Praxis an der Grenze plesiochroner Netze unterschiedlicher Netzbetreiber und kommt dort im Normalfall nicht öfter als einmal im Monat vor.

Man zwingt also beim Retiming dem Zubringersignal die SDH-Taktrate auf und gleicht einen eventuellen Schlupf mit Hilfe von Rahmenpuffern aus. Im o.a. Beispiel reicht ein einziger Rahmenpuffer zum Retiming aus, wenn beide Zubringer ihre Sendetakte vom Empfangstakt ableiten. Nach dem Einschwingen dürfte kein Rahmenschlupf mehr auftreten.

©  http://jgae.de/sdh.htm

Weitere Informationen:


home  home back  Arbeit und Beruf