|
Synchrone Digitale Hierarchie
Das zu Ende gehende Jahrhundert ist auch das Ende der analogen
Übertragungstechnik, die viele Jahrzehnte die Fernnetze dominiert
hat. Während früher sogenannte Trägerfrequenzsysteme
für eine hochkanalige Auslastung der verlegten Leitungen sorgten,
übertragen heute digitale Systeme auf Glasfaserleitungen
Datenströme mit tausendfach höheren Multiplexraten.
In den siebziger Jahren führte die Entwicklung der
Pulscodemodulation (PCM-Technik) rasch zu einer Vielzahl
unterschiedlicher Primärmultiplexer.
In Europa beispielsweise werden jeweils 30 Telefon-Sprachkanäle
á 64 kbit/s zusammen mit zwei Kennzeichenkanälen zeitlich
nacheinander in einen Rahmen von 125 µs Länge geschachtelt.
Dabei ergibt sich eine Bitrate von 2048 kbit/s für PCM30-Signale,
die Ausgangspunkt für weitere Multiplexschritte ist.
Über die Jahre hinweg haben sich weltweit zwei unterschiedliche
Standards durchgesetzt: Dies ist zum einen die "europäische"
Hierarchie (CEPT Länder), die auf der Bitrate 2048 kbit/s basiert
und zum anderen die "nordamerikanische" Hierarchie (USA, Kanada und
Japan), die als Basis 1544 kbit/s (entspr. 24 Telefonkanäle)
verwendet. Die Übertragung ist in beiden Hierarchien plesiochron.
Das heißt, die Taktversorgung ist dabei nur innerhalb eines
Multiplexabschnittes definiert. Ein 140 Mbit/s-Signal einer PCM1920
beispielsweise muß an jeder Schaltstelle wieder komplett
über alle Multiplexstufen auseinandergenommen werden, will man
auch nur ein einziges PCM30-Signal neu einfügen. Internationale
Verbindungen können nur über aufwendige Stopfmultiplexer
geschaltet werden.
Deshalb führten in den achtziger Jahren Überlegungen dahin,
wie man zu einem vernünftigen "kleinsten gemeinsamen Vielfachen"
der unterschiedlichen plesiochronen Bitraten kommen könnte. Im
Endergebnis soll das ganze Netz eines Landes, vielleicht sogar
weltweit, aus nur einer einzigen Taktquelle gespeist werden. Alle
Datenströme wären dann synchron. Daraus läßt sich
ein gewaltiger Vorteil ableiten. Die in einem Rahmen übertragenen
Teilsignale sind jederzeit identifizierbar. Man kann ihre zeitliche
Lage bestimmen, kann sie herauslösen, verschalten, rangieren oder
wieder einkoppeln. Ohne die anderen Teilsignale im Rahmen zu
beeinflussen. Man kommt so zu Verkehrsströmen, die transportiert
werden, wie Autos im Straßennetz.
(Autobahnen zum Beispiel sind an Zubringer angeschlossen.
Dort fahren Autos runter, andere auf, ohne daß der
Transitverkehr davon gestört wird.
Im plesiochronen Fall müßten alle Autos die Autobahn
verlassen, würden neu zu einem Konvoi zusammengestellt und
dürften dann auf einer anderen Straße weiter fahren.)
SONET
Das Konzept für die Synchrone Digitale Hierarchie basiert im
wesentlichen auf Arbeiten und Ideen der Nordamerikaner. Insbesondere
ist hier das Bellcore-Konzept für SONET (Synchronous
Optical Network) zu nennen. SONET kann als der
Vorläufer von SDH bezeichnet werden. Leider muß man heute
feststellen, daß der Versuch, einen weltweit einheitlichen
Standard zu schaffen, sein Ziel nicht erreicht hat. Denn auf dem
nordamerikanischen Kontinent, der zweifellos der größte
Telekommunikationsmarkt überhaupt ist, dominiert nach wie vor das
SONET. Auch Satellitensysteme arbeiten nach SONET-Norm. Vom Prinzip her
sieht SDH auch SONET-kompatible Signalzusammensetzungen vor.
Existierende Anlagen unterstützen diese jedoch kaum. Selbst wenn,
ein gemeinsames Management wäre sehr aufwendig. Trotzdem gibt es
neuerdings eine Liaison zwischen beiden Systemen -
Wellenlängenmultiplex. Auf einer Faser werden gleichzeitig mehrere
Spektrallinien übertragen. Jede einzelne "Farbe" kann dann
unabhängig voneinander SONET- oder SDH-Signale führen.
ATM
Jeder Bitstrom, der in synchronen Netzen übertragen werden soll,
wird in Container verpackt. Diese werden dann in Rahmen synchron
verschickt. Auch ATM-Zellen können in synchronen Rahmen schwimmen.
SDH ist somit nur das Transportmedium, das auch Datenblöcke
für den Asynchronen Transfer Mode übertragen kann.
Synchroner Transport Modul STM-1
Das oben erwähnte kleinste gemeinsame Vielfache vorhandener
Bitraten und Interessen ist
155,520 Mbit/s
Der Datenstrom ist in einem Rahmen mit folgenden Eigenschaften
strukturiert:
- 8 aufeinanderfolgende Bits werden als ein Byte zusammen
übertragen, das höchstwertigste Bit zuerst.
Höhere Bitraten als STM-1 werden durch Bytemultiplex der
einzelnen STM-1-Rahmen erreicht.
- 2430 Bytes sind in 9 Zeilen und 270 Spalten (wie ein Fernsehbild)
angeordnet. Die ersten 9 Spalten tragen jeweils
Overhead-Informationen. Die 261 Spalten Payload können weitere,
synchron unterstrukturierte Rahmen enthalten.
- Die Rahmendauer ist 125 µs, die Rahmenfrequenz demnach 8000
pro Sekunde.
Dieser STM-1-Rahmen ist das zentrale Element der Synchronen Digitalen
Hierarchie.
Der Overhead ist in Bereiche aufgeteilt, deren Bytes am Beginn und Ende
von Repeater-Abschnitten oder vom gesamten Multiplex-Abschnitt generiert
und ausgewertet werden. Die einzelnen Bytes dienen zur Synchronisation,
Bitfehlerüberwachung, Signalkennzeichnung,
Ersatzschaltungsverständigung sowie der allgemeinen Systemsteuerung.
Jedes Byte überträgt die Kapazität von 64 kbit/s. Auf den
E-Bytes werden Dienst(Telefon)-kanäle dem Betreiber zur
Verfügung gestellt. Die D-Bytes bilden den sogenannten
"Data Communication Channel", auf dem Daten mit 192 und 576 kbit/s von
und zu den einzelnen Netzknoten übertragen werden. Damit sind alle
Netzelemente von einem zentralen Managementsystem aus fernkonfigurierbar
und überwachbar. Die X-Bytes sind nicht definiert.
Auf die Pointer-Problematik wird weiter unten eingegangen.
Das amerikanische STS-1 des SONET hat eine Bitrate von 51,84 Mbit/s,
das ist genau STM-1 drittel. Dadurch lassen sich SONET-Signale
besonders einfach nach SDH wandeln. Jede dritte Spalte im STM-1-Overhead
entspricht genau dem STS-1-Overhead.
Container und Tributary Units
Wie kommen nun die von der Vermittlungstechnik angelieferten
Datenströme unterschiedlicher Bitraten in den STM-1?
Die Zubringersignale können aus verschiedenen Ebenen der bisherigen
plesiochronen Hierarchie kommen. Das Bild zeigt beispielsweise
den byteorientierten 2,048-Mbit/s-Primärmultiplexrahmen, der 30
Telefonkanäle und 2 Synchron- und Kennzeichenkanäle
zusammenfaßt. Er enthält weder Stopfstellen noch Pointer.
Die einzelnen Zubringersignale werden zuerst nach einem festgelegten
Ordnungsprinzip in einen nominell zum STM-1-Rahmen synchronen
Container verpackt.
Die Taktrate vom Zubringer (engl. Tributary) ist zunächst nicht
mit der Taktrate des Multiplexsystems synchronisiert. Bei der
plesiochronen Technik wird der einlaufende Datenstrom darum erst in
einem Puffer zwischengespeichert, aus dem das System die einzelnen Bits
mit einer geringfügig höheren Taktrate entnimmt. Die
zusätzliche Übertragungskapazität wird mit Leerbits
"gestopft", welche als solche deklariert sind, um sie ohne
Informationsverlust beim Demultiplexvorgang wieder entfernen zu
können. Ob Informations- oder Leerbits in diesen Stopfstellen
gesendet werden, hängt vom Verhältnis der Taktfrequenz des
Zubringersignals zur Taktfrequenz des Multiplexers ab. Das Senden von
Informationsbits in den Stopfstellen wird vorher mehrfach in speziell
dafür vorgesehenen Kontrollbits angekündigt.
Das Gemisch aus Informations- und Stopfbits wird im nächsten
plesiochronen Hierarchieschritt dem Multiplexer wieder als
Tributary-Signal angeboten, welcher seinerseits auf die gleiche Weise
weitere Stopfstellen einfügt. Durch diesen Puls-Stopf-Mechanismus
zur schlupffreien Reaktion auf Taktabweichungen der Zubringersignale
geht die Transparenz für einen Direktzugriff auf Digitalsignale
unterer Hierarchien in der plesiochronen Welt verloren.
Was macht man also beim synchronen Multiplexen anders?
Mal angenommen, die Taktrate des Tributary-Signals würde vom
Übertragungssystem synchronisiert, dann kämen immer die
gleichen Teilsignale des Zubringers an die gleichen Stellen im Rahmen
des synchronen Systems. Denn der Primärmultiplexrahmen, sowohl der
amerikanischen (1,544 Mbit/s) wie auch der europäischen Hierarchie
(2,048 Mbit/s), hat eine Wiederholrate von genau 125 µs. Nicht
zufällig ist die STM-1-Rahmenlänge auch genau auf diesen Wert
festgelegt. In der Tat bräuchte man dann nur noch ein paar feste
Stopfstellen zur Bitratenanpassung und könnte jederzeit auf
einzelne Teilsignale zugreifen, weil die Kanalpositionen im Rahmen fix
sind.
Leider sind die Zubringersignale im allgemeinen nicht synchronisierbar.
Sie kommen aus der Vermittlungstechnik oder von einem Kunden, der die
Übertragungskapazität gemietet hat. Taktschwankungen
führen im Laufe der Zeit dazu, daß der Eingangspuffer
über- oder unterläuft. In dem Moment, wo der Zeitschlitz im
synchronen Rahmen die Daten für den zugehörigen Kanal haben
will, sind im Puffer keine Daten mehr vorhanden. Oder umgekehrt, der
Zubringer sendet Daten, die aber nicht mehr zwischengespeichert werden
können, weil der Puffer voll ist.
Die Aufgabe, Taktabweichungen elastisch auffangen zu können,
besteht also nach wie vor.
Asynchrones Mapping
Mapping ist das Verpacken eines Signals bestimmter Bitrate in einen
Container mit etwas höherer Bitrate. Die zusätzliche
Übertragungskapazität des Containers trägt
Verpackungsinformationen sowie Stopfbits. Beim asynchronen Mapping
passiert das gleiche wie beim plesiochronen Multiplexen. Die
Überkapazität des Containers enthält
Stopfkontrollstellen, die von den Füllstandszeigern der Puffer
gesteuert werden. Das Ausfüllen der Stopfstellen mit Zubringerbits
anstelle von festen Stopfbits wird in Stopfkontrollbits mehrfach
angekündigt. Somit "schwimmt" das Tributary-Signal asynchron in
dem synchronen Verpackungscontainer. Auf Teilsignale in diesem
Tributary-Signal hat man demzufolge keinen Zugriff (genau so wenig
wie früher im Plesiochronen), aber der Container ist synchron und
kann jetzt synchron gemultiplext werden. Alle höheren Hierarchien
haben damit Zugriff auf diesen Container.
Synchrones Mapping
Beim synchronen Mapping werden die Stopfstellen mit Leerbits fest
gestopft. Bitweises und byteweises synchrones Mapping unterscheiden
sich insofern nur, daß beim byteweisen synchronen Mapping durch
vorheriges Aufsynchronisieren auf den plesiochronen Rahmen die Byte-
und Rahmengrenzen bekannt sind und somit die Zubringerbytes immer mit
dem gleichen Ordnungsprinzip in die synchrone Struktur übernommen
werden können.
Zur Taktratenanpassung der Zubringer auf die Rate des Multiplexsystems
bedient man sich hierbei einer anderen Methode - Pointer.
Pointer
Während das bitweise Stopfen beim asynchronen Mapping für
eine saubere, leicht verträgliche Frequenzanpassung sorgt, hat
man im synchronen Fall an der Stelle ein Problem. Die Daten werden
immer nur mindestens byteweise in die höhere Hierarchie gepackt.
Was also tun, wenn irgendwann kein ganzes Byte mehr zur Verfügung
steht, sondern nur 7 Bit davon? Wie gesagt, die Übernahme geht
nur byteweise. Man könnte diesen Kanal für einen Rahmen
einfach einmal auslassen und anstelle seiner Daten ein festes Stopfbyte
senden. Aber wie soll dieses von richtigen Daten unterschieden werden?
Und was ist, wenn ein Byte mehr gesendet werden muß? Man
käme zum gleichen bekannten Verfahren, so wie es oben beschrieben
ist, nur mit Bytes anstelle von Bits. Die Kapazität dafür
wäre sogar im Rahmen vorhanden. Aber die gesamte innere
Signalstruktur würde wieder "schwimmen". Der erste Kanal
würde sich im Stopfbyte ganz am Ende wiederholen und an der
Stelle, wo vorher immer der erste Kanal war, erscheint jetzt der zweite
usw.
Ganz so schlecht ist die Sachlage allerdings nicht. Wenn man nur
wüßte, wo der erste Kanal ist. Warum also nicht einfach
die Position des ersten Kanals im Rahmen mit übertragen und das
Problem ist gelöst. Genau das wird für alle synchronen Rahmen
gemacht. Ein Pointer zeigt auf den Beginn eines Containers,
also auf die Position, die sein erstes Byte im synchronen Rahmen
einnimmt. Kommt es jetzt zu einer notwendigen Frequenzanpassung,
dann muß zusätzlich zum Bytestopfen noch der Pointer
entsprechend korrigiert werden. Durch diesen einfachen Trick sind die
in synchronen Rahem schwimmenden Teilsignale jederzeit auffindbar.
Das System muß natürlich störfest gegen
Übertragungsfehler sein. Das bedeutet, daß eine
Veränderung des Pointers wieder mehrfach vorher angekündigt
werden muß, um am fernen Ende als solche akzeptiert zu werden.
Gerade der Pointer ist durch eine spezielle Codierung besonders gegen
Bitfehler geschützt.
|
|
Eine Pointer-Aktion hat zur Folge, daß in einem Rahmen, für
den immer die gleiche Zeit von 125 µs zur Verfügung steht,
plötzlich ein Byte mehr oder ein Byte weniger übertragen wird
(beim AU4 sogar drei Byte mehr oder weniger). Die dabei entstehenden
Frequenzschwankungen (engl. Jitter) müssen durch PLLs
geglättet werden.
Schwer zu beherrschen sind sehr langsame Frequenzänderungen.
Ein patentiertes Verfahren pointert daher ständig positiv und
negativ, auch wenn die Frequenzabweichung 0 wäre. Der durch die
Pointeraktionen hervorgerufene Jitteranteil im Spektrum wird so in
Richtung höherer Frequenzen verschoben und kann außerhalb
der Nutzbandbreite der Regelung ausgefiltert werden.
(Analogie aus der Mechanik: Ein Clown auf einem Ball kann besser das
Gleichgewicht halten, wenn er ständig hin- und herzappelt.)
Allein durch Umrechnung des Pointers kann die Zeitlage eines Containers
in Bezug auf einen anderen Transportrahmen auch komplett geändert
und normalisiert werden. Ohne den gesamten Zubringer-Rahmen
zwischenpuffern zu müssen. Bei Crossconnect-Systemen werden so
alle eingehenden synchronen Container zunächst in eine
einheitliche Zeitlage gebracht, um sie anschließend verschalten
zu können.
Virtueller Container
Beim Mapping werden nicht nur Stopfstellen zugefügt, sondern auch
ein Path-Overhead. Der Path-Overhead ist im wesentlichen statisch,
d.h. er wiederholt sich in jedem Rahmen mit dem gleichen Inhalt.
Ausnahmen bilden die Path- und Section-Traces, worauf später noch
eingegangen wird, sowie die Bitfehlerzähler. Dieses Signalgemisch
einschließlich Overhead bezeichnet man als
virtuellen Container (VC).
Tributary Unit
Der virtuelle Container, erweitert mit dem oben beschriebenen Pointer,
ist die Tributary Unit (TU). TUs werden wieder nach einem
bestimmten Schema zu Gruppen (TUG) zusammengefaßt und bilden
schließlich eine Administrative Unit (AU).
Higher Order, Lower Order
Im oben dargestellten STM-1-Rahmen zeigt der AU4-Pointer auf den
Path-Overhead eines virtuellen Containers VC4. Die Nullposition ist
das unmittelbar auf den Pointerbereich folgende Byte. Der Container C4
könnte ein asynchron gemapptes 139 Mbit/s-Signal der 4.
plesiochronen Hierarchiestufe (PCM1920) enthalten. Er könnte aber
auch synchron weiter unterstrukturiert sein. Zum Beispiel mit
2 Mbit/s-Signalen. Ärgerlich ist an der Stelle die Tatsache,
daß in einen 155 Mbit/s STM-1 nur 63 synchron gemultiplexte
Kanäle passen, wo doch früher die plesiochronen Multiplexer
64 Kanäle in nur 139 Mbit/s untergebracht haben. Woran das liegt,
soll im folgenden beschrieben werden.
In der synchronen Hierarchie gibt es im Gegensatz zur plesiochronen
nur zwei Stufen - Higher Order und Lower Order - Stufen, in denen
Taktanpassungen mittels Pointer vorgenommen werden. Weitere solcher
Pointerstufen würden zu unvertretbarem Jitter führen, wenn
im ungünstigsten Fall alle Stufen gleichzeitig pointern. Deshalb
werden höhere Hierarchien nur durch Multiplex der einzelnen
STM-1-Bytes erreicht. Es ist demzufolge nicht möglich,
STM-4-Signale (622 Mbit/s) unterschiedlicher Herkunft zu einem STM-16
oder STM-64 direkt zu multiplexen, sondern alle darin enthaltenen STM-1
müssen einzeln gepointert werden.
Der im STM-1-Overhead enthaltene Pointer zeigt auf den Beginn der
Signalstruktur des Nutzlastbereichs (AU4). Aus der SONET-Geschichte
können auch 3 Pointer auf 3 einzelne AU3 zeigen.
Vergleicht man beide Varianten wird klar, warum der AU4-Pointer nur
dreibyteweise springen kann. Weil die Nachbarspalte im amerikanischen
Mode der nächsten AU3-Gruppe gehört und von einem eigenen
Pointer adressiert wird.
Der im Nutzlastbereich mit dem J1-Byte beginnende virtuelle Container
sieht herausgelöst folgendermaßen aus:
Ein Higher-Order-Container VC3 könnte beispielsweise als Nutzlast
ein asynchron gemapptes 34 Mbit/s- oder 45 Mbit/s-Signal aus der 3.
plesiochronen Hierarchiestufe tragen. Ein VC4 könnte ein asynchron
gemapptes 139 Mbit/s-Signal der 4. plesiochronen Hierarchiestufe
enthalten. In den Mappingvorschriften dazu sind Stopfbytes zur
Bitratenanpassung vorgesehen. Diese Bytes enthalten meistens feste
Stopfbits. Bestimmte genau definierte Bytes tragen aber wieder die
bereits bekannten Stopfkontroll- und Stopfinformationsbits zur
elastischen Bitratenanpassung an das Zubringersignal.
34 oder 45 Mbit/s-Signale im AU3 oder 139 Mbit/s-Signale im AU4
verlassen an dieser Stelle den Zuständigkeitsbereich der
synchronen Welt. Für sie gibt es nur einen synchronen
Hierarchieschritt, nämlich Higher Order mit dem AU4- oder
AU3-Pointer.
Die Container VC4 oder VC3 können aber auch weiter synchron
unterstrukturiert sein. Alle Möglichkeiten dazu sind in der ITU
Empfehlung G.707 beschrieben. Ein VC4 kann wieder drei VC3 enthalten.
Dabei kann jeder dieser inneren Teilsignale eine andere Phasenlage
haben. Um den Anfang der inneren Teilsignale zu finden, bedient man
sich der gleichen Pointer-Technologie und bezeichnet diese jetzt
als Lower Order.
Auch ein Lower-Order-Pointer zeigt immer auf das erste Byte eines
Lower-Order-Path-Overhead. Beim VC3 ist das das J1-Byte.
Beim VC2, VC12 oder VC11, die Zubringersignale der 1. und 2.
plesiochronen Hierarchiestufe enthalten, ist das Multiplexchema etwas
komplizierter. Hier müssen immer vier aufeinanderfolgende STM-1
Rahmen zusammen betrachtet werden. Sie bilden damit einen 500 µs
langen Multiframe. Der Multiframezähler ist das H4-Byte im VC4-
oder VC3-POH.
Die einzelnen Tributary Units sind spaltenweise zeitmultiplex
verschachtelt. Der Lower-Order-Pointer zeigt auf den Beginn des
innerhalb einer TU "schwimmenden" Containers. Der komplette Pointer
ist auf drei STM-1-Rahmen verteilt. Zwei Byte (V1,V2) für die
Adresse und ein Byte (V3) als Gelegenheit zum negativen Stopfen bei
Änderung des Pointers. V4 ist nicht definiert.
Während die im Bild dargestellte Lower-Order-Tributary-Unit
noch phasenstarr zu ihrem Higher-Order-Container ist, in dem sie
transportiert wird, kann der innere Lower-Order-Container eine
beliebige Zeitlage haben. Die Position des ersten Bytes, des
Lower-Order-Path-Overheads, wird durch den TU-Pointer (V1,V2)
adressiert.
Angenommen, in einer Tributary-Unit-Group würden Container
transportiert, die als Nutzlast 2 Mbit/s-Signale enthalten. Dann
sähe beispielsweise ein VC12 herausgelöst
folgendermaßen aus:
Beim synchronen Mapping erkennt man sofort die bekannte Struktur des
Primärmultiplexrahmens wieder. Jeder 64 kbit/s-Kanal liegt immer
an der gleichen Stelle im Container. Voraussetzung ist, daß im
Multiplexvorgang vor dem Mapping zuerst auf den Basisrahmen
aufsynchronisiert wurde. Taktanpassung auf die Rate des Zubringers
geschieht ausschließlich über den TU-Pointer (siehe oben).
Beim asynchronen Mapping betrachtet man den Datenstrom als anonyme
Folge von Bits. In den im Bild mit "s" gekennzeichneten Bytes sind
hierfür zur Taktratenanpassung zwei Stopfbits definiert. Die
Nutzung dieser Stopfstellen als Stopf- oder Datenbit wird vorher in
Stopfkontrollbits "c" dreifach angekündigt. Der Pointer ist immer
Null.
Zusammenfassend erkennt man, daß für Stopfstellen, Overhead
und Pointer in synchronen Systemen relativ viel
Übertragungskapazität gebunden ist. Andererseits ist durch
die Pointertechnik die Zeitlagennormalisierung ohne große Puffer
möglich, wodurch Teilsignale effektiv verschaltet werden
können. Durch die vielfältigen Overhead-Funktionen wird die
Betriebsbeobachtung, Wartung und Systemkonfiguration wesentlich
verbessert.
Overhead
"Die unbenutzten Overhead-Bytes beflügeln die
Phantasien der Betreiber immer sehr."
(Theo Kupfer)
Aber auch die Techniker lassen sich inspirieren. Interne Daten werden
im Overhead zusammen mit den zu verarbeitenden Nutzsignalen von
Baugruppe zu Baugruppe übertragen. Da fallen schon mal ganz
beachtliche Datenraten nebenbei mit ab.
Was aber sagt die internationale Normung? Welche Overhead-Bytes sind
für was definiert?
Section Overhead
Eine Multiplex-Section kann in mehrere Repeater-Abschnitte aufgeteilt
sein.
Repeater Section Overhead
Der erste Teil des STM-1 Overheads, der sich vor dem Pointer befindet,
ist der Repeater-Section-Overhead (RSOH). Bei höheren Hierarchien
ist er, von den Synchronisationsbytes A1 und A2 abgesehen, nur im STM-1#0
definiert! Die Bytes der ersten Zeile des RSOH, also die ersten 9 Bytes
(bzw. n mal 9 Bytes bei höheren Hierarchien) bleiben unverscrambelt.
Alle nachfolgenden Bits des kompletten Rahmens werden mit einem einfachen
zyklischen Code verschachtelt. Damit wird die Leistungsdichte des
Ausgangssignals gleichmäßig auf das Spektrum verteilt.
- A1, A2: Rahmensynchronisation
Die Bitfolge (hex) F6 F6 F6 28 28 28 kennzeichent den Anfang jedes
STM-1 Rahmens.
- B1: Paritätsbyte zur Fehlererkennung
Die Parität wird über 8 Bit-"Spuren" (wie beim Lochstreifen)
bestimmt. Nach dem Verscrambeln wird die Anzahl der Einsen über
einem kompletten STM-1 Rahmen geradzahlig ergänzt und im B1-Byte
des Folgerahmens eingesetzt.
- E1: Dienstkanal
E1 und E2 bilden die beiden Dienstkanäle zum Telefonieren
für den Betreiber, wobei E1 in jedem Repeater überschrieben
werden kann, während E2 ausschließlich für die
Endstellen vorgesehen ist. E2 liegt deshalb auch im Bereich nach dem
Pointer im MSOH. Jedes Byte liefert die Übertragungskapazität
von 64 kbit/s und entspricht damit genau einem Telefonkanal.
- F1: Nutzkanal
Je nach Kundenwunsch oder Herstellerkreativität kann auf diesem
Byte alles mögliche übertragen werden. Einem japanischen
Vorschlag folgend gab es z.B. früher mal ein vereinfachtes
Fehlerortungsverfahren, welches die Repeaternummer und die Fehlerart
auf diesem Byte an die Endstellen gemeldet hat.
- D1 .. D3: Datenkanal für die Inservice-Überwachung
Drei Bytes liefern 192 kbit/s für den DCC, den Data
Communication Channel. Auf diesem seriellen Datenkanal überwacht
der Betreiber alle seine Netzelemente. Je nach Managementsystem wird
ein bestimmtes Protokoll gefahren, i.a. vom HDLC auf der
physikalischen Bitübertragungsebene über die 7 Schichten des
OSI-Referenzmodells hinauf zu den Anwenderprotokollen. Da in den
einzelnen Netzknoten mehrere solche DCC-Kanäle zusammenlaufen,
müssen die einzelnen Datenpakete geroutet werden. Das hängt
wiederum von der Topologie des Netzes ab. Man kann sagen, daß
im DCC-Handling der größte Teil des Software-Aufwands
steckt, der in einem SDH-Netzelement implementiert ist.
- J0: Section Trace
Das Byte ist recht spät definiert bzw. nochmal umbenannt worden.
Hier steht jetzt die Absenderkennung des physikalischen Senders,
also beispielsweise des sendenden Repeaters. Eine solche Access Point
Identification (APId) wird einheitlich in einem 16-byte-String
übertragen, d.h. alle 16 Rahmen wiederholt sich der String.
Aufgrund der Inkompatibilität zum früheren C1-Byte gibt es
derzeit kaum Geräte, die den Section Trace unterstützen.
Das wird sich zukünftig ändern, denn im Zusammenhang mit
Wellenlängenmultiplex wird ein Multiplexabschnitt entsprechend
der Anzahl der verwendeten Spektralfarben mehrfach genutzt. Der Section
Trace trägt dann die Kennung der einzelnen Teilsignale. Besonders
bei komplizierten Topologien und Ringstrukturen erleichtert das die
Verwaltung.
Multiplex Section Overhead
Eine Multiplex-Section ist normalerweise der Abschnitt zwischen zwei
Endstellen, d.h. hier wird der anhängige Nutzlastinhalt terminiert.
Die Verbindung zwischen den beiden Multiplexern kann über zwei
voneinander unabhängige Wege geführt sein. Im Fehlerfall wird
dann automatisch ersatzgeschaltet und zwar innerhalb von 50 ms. Der
Multiplex Section Overhead (MSOH) ist der Teil des STM Overheads, der
nach dem Pointer kommt. Bei höheren Hierarchien ist auch er nur im
STM-1#0 definiert. Ausnahme sind die Paritätsbytes B2.
- B2: Paritätswort zur Fehlererkennung
Entsteht während der Übertragung ein Bitfehler, dann wird
dieser im nächsten Repeater anhand der B1-Parität erkannt.
Der Repeater berechnet aber seinerseits die Parität über den
Rahmen neu, so daß für den folgenden Repeaterabschnitt
wieder alles in Ordnung ist. Deshalb werden Bitfehler über den
gesamten Multiplexabschnitt mit der B2-Parität überwacht. In
24 Bitspuren (beim STM-1) wird die Anzahl der Einsen im Datenstrom
ausgenommen des RSOH geradzahlig ergänzt. Die so entstandenen
B2-Bytes werden im nächsten Rahmen vor dem Verscrambeln
eingesetzt.
- K1, K2: Automatische Ersatzschaltung
Anhand eines bitorientierten Protokolls verständigen sich die
beiden Endstellen zum Zwecke der automatischen
Leitungsersatzschaltung.
3 Bits vom K2-Byte sind für eine andere Aufgabe reserviert. Die
Belegung "110" signalisiert der Endstelle, daß das ferne Ende
ein fehlerhaftes Signal empfängt. Das ist zum Beispiel der Fall,
wenn der Pointer auf keine gültige Position zeigt.
- D4 .. D12: Datenkanal für Inservice-Überwachung
Neun Bytes liefern 576 kbit/s für den Multiplex Section DCC.
Hier gilt das gleiche wie für den RS-DCC (Bytes D1 .. D3).
- S1: Taktqualität
Der Inhalt des S1-Bytes sagt aus, welche Qualität das
Leitungssignal hinsichtlich der synchronen Taktversorgung hat. Dazu
weiter unten mehr.
- M1: Bitfehler am fernen Ende
Stellt das ferne Ende in seinem Empfangssignal B2-Fehler fest, so
signalisiert es in Rückrichtung im M1-Byte die Anzahl der
erkannten Paritätsverletzungen. Beim STM-1 können das
maximal 24 B2-Fehler innerhalb der 125 µs Rahmenlänge sein.
Beim STM-16 oder höher wird der Maximalwert auf 255 begrenzt.
(STM-64 zum Beispiel hat schon 192 B2-Bytes, so daß theoretisch
1536 Paritätsfehler erkannt werden könnten.)
- E2: Orderwire
Dienstkanal, siehe E1-Byte.
Path Overhead
Man muß unterscheiden zwischen Containern der Higher Order Pathes
(VC3, VC4) und denen der Lower Order Pathes (VC11, VC12, VC2).
Higher Order Path Overhead
Wie gesagt, ein Container komplettiert mit einem Overhead, wird zum
"Virtuellen Container" VC.
- J1: Path Trace
Der Path Trace ist eine sehr nützliche Erfindung. Mehrere
aufeinanderfolgende J1-Bytes bilden zusammen einen String, der sich
ständig wiederholt und eine signalbegleitende Beschreibung des
Absenders dieses Containers trägt. Das ist vergleichbar mit den
RDS-Senderkennungen vom UKW-Rundfunk. Beim Higher Order Path kommt
alle 125 µs ein J1-Byte vorbei.
16 Byte bilden einen Rahmen, wobei 15 mit der APId belegt sind.
Ein Byte enthält den Rahmenkenner und eine CRC7-Prüfsumme.
Ein beabsichtigter Empfänger, der den Pfad für diesen
Container auflöst (terminiert), kennt die Absenderkennung und
prüft auf deren Übereinstimmung. Erst dann wird das
ausgepackte Signal zum Zubringer durchgeschaltet. Gibt es keine
Übereinstimmung, dann ist das empfangene Signal nicht das
gewollte. Vielleicht liegt eine Fehlschaltung unterwegs vor.
Automatisch wird Ersatzsignal eingesetzt und der Betreiber alarmiert.
Leider waren sich die Normungsgremien über die Jahre hinweg nicht
einig, so daß heute mehrere Formate existieren, die auch noch
inkompatibel zu einem früheren Stand sind. (Der viele Jahre
übliche formatfreie 64-byte-String ist weder gerahmt noch
konstant!)
- B3: Paritätsbyte zur Fehlererkennung
8bit gerade Parität über den gesamten VC, also
einschließlich Overhead vor dem Verscrambeln. Hiermit wird die
End-zu-End Bitfehlerperformance für den Higher-Order-Pfad
ermittelt. Interessant ist in dem Zusammenhang die
Tandem-Connection-Überwachung, deren Rahmen im N1-Byte
übertragen werden. Dabei wird nämlich unterwegs auf
Teilabschnitten das N1-Byte geändert, ohne die
Parity-Überwachung für den Pfad zu verfälschen. Damit
das funktioniert, muß das B3-Byte dabei "nachgebessert" werden.
- C2: Signal Label
Das Signal Label gibt Auskunft über die Zusammensetzung des
anhängigen Container-Inhaltes, z.B. über die Art des
Mappings. Ist das Signal Label 0, dann ist dieser Container
"Unequipped", d.h. sein Inhalt ist undefiniert. Ist ein Pfad
"Unequipped", so kann der Betreiber trotzdem diese Verbindung
überwachen, weil der Path Trace und die Parity-Bytes korrekt
übertragen werden. Ebenso die Fehlerrückmeldung
(Remote Defect Indication) vom fernen Ende.
- G1: Pfad Status
Das G1-Byte liefert Fehlerinformationen vom fernen Ende. Das ist
zum einen die Reflektion der Anzahl der B3-Paritätsverletzungen
und zum anderen eine Art Sammelfehler, genannt "Remote Defect
Indication" RDI.
- F2, F3: Nutzkanal
Die beiden F-Bytes sind reserviert für End-zu-End Datenbeziehungen
von Pfaden. Das kann abhängig von der Art der Nutzlast sein und
ist nicht genormt.
- H4: Multiframe-Zähler
Ist der Higher Order Path weiter synchron unterstrukturiert, dann sind
die inneren Lower Order Pathes zu 500 µs langen Rahmen geordnet.
Ein kompletter VC2 Rahmen verteilt sich demnach auf 4 STM-1 Rahmen.
Das H4-Byte im Overhead des tragenden Higher Order Containers gibt
sozusagen den Takt für die 4 Teilrahmen an:
- K3: Pfad-Ersatzschaltung
Über 4 Bits vom K3-Byte handeln die zwei Pfad-Endstellen die
automatische Pfad-Ersatzschaltung aus. Nicht zu verwechseln mit der
Leitungsersatzschaltung, die im K1,K2-Byte synchronisiert wird und die
alle Pfade der physikalischen Verbindung betrifft. Bei der
Pfad-Ersatzschaltung wird nur dieser eine Pfad, z.B. einer
von drei VC3, umgeschaltet.
- N1: Tandem Connection Monitoring
Zu deutsch: Hintereinander angeordnete Verbindungsüberwachung.
Pfade werden oft durch verschiedene Hoheitsgebiete geführt, bevor
sie terminiert werden. Zur Qualitätsüberwachung einzelner
Teilstrecken, in denen Pfade im Transit übertragen werden, dient
die Tandem Connection Monitoring Funktion. 4 bit geben die Anzahl der
B3-Paritätsverletzungen auf dem zu überwachenden
Teilstück an. Von den anderen 4 bit des N1-Bytes werden in 76
aufeinanderfolgenden Rahmen immer jeweils 2 bit entnommen, die dann
wieder einen Frame bilden, ähnlich wie beim Path Trace.
Lower Order Path Overhead
Der Virtuelle Container des Lower Order Path ist über 4 Higher
Order Rahmen verteilt. Das erste Byte ist das V5-Byte. Es wird durch den
Lower Order Pointer V1,V2 adressiert.
- V5: BIP-2, REI, RFI, Signal Label und RDI
Im V5-Byte sind mehrere Overhead-Bereiche bitweise
zusammengefaßt. Die Parität wird nur über zwei
Bitspuren berechnet (BIP-2) und die Rückmeldung beschränkt
sich auf die Aussage: "War überhaupt ein Paritätsfehler im
500 µs langen Block oder nicht?" (REI). Das Signal Label gibt die
Signalzusammensetzung an. 0 bedeutet wieder "Unequipped". RDI ist die
allgemeine Fehlerrückmeldung vom fernen Ende. Wofür RFI
eingeführt wurde, ist unklar. Vom Namen her hat es die gleiche
Bedeutung wie RDI.
- J2: Path Trace
Der Lower Order Path Trace hat den gleichen Aufbau und wird genau so
behandelt wie der im J1-Byte übertragene Higher Order Path Trace.
- N2: Tandem Connection Monitoring
Aus 76 aufeinanderfolgenden Rahmen (76 x 500 µs = 38 ms) werden
jeweils 2 bit entnommen und zu einem neuen Byte-Frame
zusammengefaßt, der die Absenderadresse ähnlich wie beim
Path Trace enthält.
Da bei der Überwachung eines Teilabschnittes eines Lower Order
Pathes mit TCM das N2-Byte unterwegs geändert wird, muß auch
hier wieder dafür gesorgt sein, daß die BIP-2 Parität
im V5-Byte entsprechend nachkorrigiert wird.
- K4: Pfad-Ersatzschaltung
Über 4 bit des K4-Bytes wird die Pfad-Ersatzschaltung mit dem
anderen Terminator des Lower Order Pfads ausgehandelt. Die anderen 4
bit sind optional oder reserviert.
Timing
In der synchronen Übertragungstechnik werden Taktabweichungen an den
Schnittstellen im Vergleich zur Referenz mit Hilfe von Pointern
ausgeglichen. Die Pointertechnik erlaubt wesentlich geringere
Signalverzögerungen als die Zwischenspeicherung in Rahmenpuffern
(abgesehen davon, daß diese vom Speicheraufwand völlig
unwirtschaftlich wären.)
Nicht nur der ankommende Strom auf der Leitungsseite, auch die Zubringer
können synchrone Signale führen. Alle einlaufenden synchronen
Signale werden durch Anpassung ihrer Pointer auf die Systemtaktfrequenz
des Netzelements synchronisiert.
Das führt zu der grotesken Situation, daß synchrone Systeme
dank ihrer Pointertechnik untereinander viel asynchroner sein
können, als plesiochrone Systeme. Synchrone Systeme allein
würde das nicht mal stören. Beim Übergang in die
plesiochrone Welt jedoch führt das Pointern zu erhöhtem
Jitter. Um unnötiges Pointern zu vermeiden, sollten also die
Taktversorgungen der einzelnen Netzelemente untereinander synchronisiert
sein. Am besten, alle Netzelemente würden mit dem Takt einer
einzigen Quelle arbeiten. Aber wie bekommt man diesen Takt an die
örtlich verteilten Geräte? Eine Variante wäre, jedes
Netzelement mit einem eigenen GPS-Empfänger auszurüsten.
Möglich, aber zu teuer.
In der Praxis gibt man den Takt einer hochstabilen Quelle von
Netzelement zu Netzelement mit dem übertragenen synchronen Signal
selbst weiter. Eine Systemfunktion innerhalb des Netzelementes sorgt
dafür, daß die jeweils beste Referenzquelle zur
Synchronisierung der eigenen Taktversorgung ausgewählt wird.
Taktreferenz kann sein:
- synchrones Eingangssignal ab STM-1 an den Ports
- 2-Mbit/s-Zubringersignal von einer digitalen Vermittlungsstelle
- lokaler Referenztakt, z.B. von einer Atomuhr
Beim Ausfall aller Referenzen versucht die interne Regelung, den
Systemtakt im Hold-Over-Betrieb weiter stabil zu halten. Im
Section-Overhead des STM-Signals gibt das S1-Byte darüber Auskunft,
welche Taktqualität das anhängige synchrone Signal hat.
Ein besonderes Problem ist die Erkennung und Vermeidung von
Taktschleifen, die bei Ringstrukturen oder komplexen vermaschten
Topologien im Zusammenhang mit der automatischen Ersatzschaltung
auftreten könnten. Taktreferenz darf kein Eingangssignal sein,
dessen Takt irgendwann vorher von einem Signal synchronisiert wurde, das
am eigenen Netzelement selbst ausgegeben wird.
Retiming
Die in der SDH realisierten Prinzipien zur Frequenzanpassung des
Zubringersignals an die Taktfrequenz des Netzelements
- Bitstopfen beim Mapping
- Bytestopfen beim Pointern
garantieren, daß alle Bits mit der gleichen Rate das synchrone Netz
verlassen, mit der sie an anderer Stelle in das Netz eingespeist wurden.
Das geschieht unabhängig davon, mit welcher Rate sie innerhalb des
synchronen Netzes transportiert werden.
Angenommen, Zubringer A verfügt nicht über eine hochstabile
Taktversorgung und sein Signal sei "zu langsam", dann kommt es bei B
auch "zu langsam" an. Zubringer können unter diesen Bedingungen also
nicht von der stabilen Taktverteilung innerhalb des SDH-Netzes
profitieren. So lange A und B in ihrer eigenen Taktwelt leben
können, ist das auch kein Problem. Oft besteht aber die
Notwendigkeit, den angeschlossenen Kunden auch mit der amtlichen
Taktfrequenz des Netzes versorgen zu müssen. Für diesen Fall
muß ein weiterer Mechanismus her - Rahmenstopfen.
Im Beispiel soll das plesiochrone Signal zu Zubringer B mit der genauen
Taktrate gesendet werden, die sich aus dem Systemtakt des
SDH-Netzelementes ableitet. Wenn Zubringer A "zu langsam" ist, dann sind
irgendwann im Netzelement, das zu B sendet, keine Bits mehr da, die
gesendet werden könnten. Im Primärmultiplexrahmen sind aber
weder Pointer noch Stopfstellen definiert. Die einzige Möglichkeit
besteht darin, den letzten Rahmen komplett zu wiederholen. Im anderen
Fall, wenn A "zu schnell" wäre, würde ein ganzer Rahmen einfach
ausgelassen. Das klingt zunächst hart, ist aber gängige Praxis
an der Grenze plesiochroner Netze unterschiedlicher Netzbetreiber und
kommt dort im Normalfall nicht öfter als einmal im Monat vor.
Man zwingt also beim Retiming dem Zubringersignal die SDH-Taktrate auf
und gleicht einen eventuellen Schlupf mit Hilfe von Rahmenpuffern aus.
Im o.a. Beispiel reicht ein einziger Rahmenpuffer zum Retiming aus, wenn
beide Zubringer ihre Sendetakte vom Empfangstakt ableiten. Nach dem
Einschwingen dürfte kein Rahmenschlupf mehr auftreten.
© http://jgae.de/sdh.htm
Weitere Informationen:
|