Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

23.03.1984 - 

Datenübertragungsnetzte

Bindeglied der Welt von morgen

Die Vernetzung von Rechneranlagen gewinnt insbesondere im internationalen Datenaustausch immer stärkere, auch politische Bedeutung. Zu einer reibungslosen Übertragung innerhalb der verschiedenen Hardwaresysteme und Netzkonzepte sind Standards entwickelt worden, die weltweite Gültigkeit haben. Aber auch in den Unternehmen selbst wird der Datenaustausch über Netzwerke vollzogen. Im folgenden Beitrag soll ein Überblick über die technische Entwicklung der Netzkonzepte gegeben, sowie die derzeitige Situation in diesem wichtigen Bereich der Datentechnik analysiert werden. Der Autor geht dabei insbesondere auf Protokollprobleme und organisatorische Fragen der vernetzten Datenverarbeitung ein.

In der kurzen Zeit eines halben Menschenalters wurden Generationen von Computertechnologien geschaffen, aber auch wieder vergessen. Haben die Techniker der frühen 50er Jahre noch Relaistableaus geschwenkt oder Röhren in Speichern gewechselt, die die Ausmaße von Kleiderschränken hatten und einer Großheizung, gleichkamen, so wurden sie schon wenig später mit der Revolution der TTL (= Transistor - Transistorlogik) konfrontiert. Platzersparnis, kleinere Geräte, niedrigere Stromkosten und schnellere Entstörung waren nur einige der Vorteile. Neue Speichertechniken und Medien wurden entwickelt, sie ließen die Speicherkapazität auf ein Vielfaches ansteigen. Die Forderungen, teilweise bedingt durch die Raumfahrt, nach immer kleineren leistungsfähigeren Bauteilen führte zur Konstruktion des IC; des "Integrated circuits", sie arbeiteten damals in der Bipolar-Technologie. Der Feldeffekttransistor, in der Fachsprache auch MOS (Metal Oxyd Semicuductor), kommt in den frühen 60er Jahren zum Einsatz. 1966 beginnt das Zeitalter der MSI, der Medium Scale Integration, mit zirka 60 Transistoren auf einem IC. Unter MSJ fallen bis zu tausend Transistoren auf einer integrierten Schaltung.

Die LSI, die Large Scale Integration, startete in den frühen 70er Jahren und bezeichnet den Bereich ab tausend Transistoren pro integrierter Schaltung. Zu diesem Zeitpunkt waren bereits die Rechen- und Steuerbausteine, die legendären 4004 und 8008 im Einsatz. Die ersten Taschenrechner, damals fast unerschwinglich, kamen mit diesen Bausteinen auf den Markt und ersetzten Rechenschieber und Logarithmentafeln.

Den Durchbruch auf dem Mikroprozessormarkt sollte Intel mit seinem 8080 schaffen. Weitere folgten mit stetig steigernder Leistung und Speicherkapazität. Den 8-Bit-Maschinen folgen kurze Zeit später die 16 Bit Prozessoren.

Ende der 70er begann die Epoche der VLSI, der Very Large Scale Integration. Es wurden 100 000 Transistoren auf Flächen zwischen 20 und 40 Millimeter integriert. Mit dem Hinweis auf die VHLSI, der Very High Large Scale Integration, deren Schaltungs-Bestückung sich der Millionengrenze nähert, soll dieser kleine Rückblick auf die Schnellebigkeit der Computertechnologie beendet sein. Er dient zum besseren Verständnis des nun folgenden kurzen Rückblicks auf den Beginn der Datenfernverarbeitung.

Mit fortschreitender Entwicklung der Technologien wurden auch differenziertere Betriebssysteme und Speicherkonzepte entwickelt, die in der Lage waren, den Informationsfluß innerhalb der Zentralrechner wesentlich zu beschleunigen. Mit Einführung der Multiprozessortechnik, die das parallele Verarbeiten verschiedener Programme zuließ, war schließlich der Startschuß von zentraler zu dezentraler Verarbeitung geben.

In den frühen Fünfzigern begann die Batch-Verarbeitung. Die Jobs wurden eingelesen, verarbeitet und ausgegeben. Während dieser Prozedur hatte der Benutzer keinen Kommunikationsaustausch mit den Rechnern. Der erste interaktive Zugriff auf Computer war in den 60er Jahren möglich. Es war das Resultat von Terminal- und Data-Transmission-Technologien, die einen Dialog mehrerer Benutzer über 100-Baud-Leitungen mit dem Zentralrechner erlaubten.

Timesharing ermöglichte vielen Anwendern den gleichen Zentralcomputer zur gleichen Zeit für total verschiedene Probleme zu benutzen. Mit zunehmendem Ausbau der Datenend- und -übertragungseinrichtungen wurden auch die Leitungsgeschwindigkeiten erhöht. Statt mit 110 Baud (10 Zeichen) wurden nun mit 300 Baud (30 Zeichen) und später mit 1200 Baud (120 Zeichen) übertragen.

Die Terminals arbeiteten immer schneller und intelligenter und stellten schließlich eigene Computer mit Peripherie dar. Um auf die Leistung eines Großrechners mit Datenbanken zurückgreifen zu können, wurden diese Anlagen über Standleitungen mit dem Großrechner verbunden.

Durch die fortschreitenden Möglichkeiten der Multiprozessorkonzepte und die Minimierung des Platzbedarfs war es bald möglich, Konzentratoren zu installieren und die Computerleistung einem immer größer, werdendem Benutzerkreis zugänglich zu machen. Büros, Fabriken und Laboratorien profitieren von der Dialogfähigkeit und den speziell für ihren Bedarf entwickelten Programmpaketen. Einfache Programmiersprachen setzten kein tieferes EDV-Know-how voraus. Weltumspannende Netzwerke gestatten von allen Plätzen der Erde Zugriff auf Großrechnerleistung über ausgefeilte Netzwerktechniken.

Der Einbruch der Mini- und Mikrocomputer in den beruflichen Alltag sowie in viele Bereiche des täglichen Lebens zwang die Hersteller und Benutzer zu immer neuen Überlegungen zur effektivsten Ausnutzung ihrer Geräte und Netzwerke. Grenzen der Übertragungsgeschwindigkeiten wurden meistens durch die Postverwaltungen gesetzt, die erst sehr spät die Bedeutung der Netzwerke erkannt hatten und keine geeigneten Modems zur Verfügung stellen konnten. Die "Full Duplex"-Übertragung mit 1200 Baud ließ deshalb auch lange auf sich warten.

Das erste Konzept war zweifellos der "Stern", auch Radial-Topologie genannt. Vom Zentralrechner, dem ein Kommunikationsrechner, heute auch Front-End-Prozessor (FEP) genannt, vorgeschaltet wurde, gingen sternförmig Stand- oder Wählleitungen zu den Terminals. Später konnten das auch Multiplexer oder Kontentratoren sein, die sternförmig mit ihren Hosts verbunden waren. Selbstverständlich kann der Stern auch nur aus Rechnern bestehen. Als "Distributed Processing" hielt diese Form Einzug in die Netzwerktopologie.

Der Ausfall des zentralen Knotens in einem Stern-Netz legt das gesamte Netzwerk lahm

Der wohl entscheidende Vorteil dieser Netzwerkstruktur liegt in seinen Kontrollmöglichkeiten. Alle Leitungen und somit die Funktionsfähigkeit der Nodes (Knoten) lassen sich zentral überwachen. Bei Ausfall einer Leitung oder einem Node ist nur dieser Teil des Systems betroffen.

Das Netzwerk-Management-System kommt mit einem Minimum an Überwachung und Kontrollfunktionen aus. Fehlerdiagnose und Behebung ist durch direkten Zugriff des Kontrollpersonals auf die Leitung optimal. Die beschriebenen Vorteile gelten nicht generell für jede Stern-Topologie, sondern kommen in erster Linie in Timesharing-Anwendungen mit einem in einer zentralen Node arbeitenden Timesharing-Host zum Tragen.

Netzerweiterungen und deren Kosten stellen im "Stern" kein Problem dar, da meistens sogar unterbrechungsfrei zusätzliche Bausteine eingefügt werden können. Die Durchlaufzeiten der Daten sind als gut zu bewerten. In der Stern-Topologie arbeiten auch die meisten privaten Nebenstellenanlagen, die mehr und mehr ihre Bedeutung in den Local Area Networks finden. Wie überall auch hier ein Wermutstropfen. Ein Ausfall des zentralen Knotens legt das ganze Netzwerk lahm. Zuverlässigkeit der Systeme und Überwachungseinrichtungen sowie Backup-Möglichkeiten sind unbedingte Erfordernisse in dieser Topologie.

Das Ring-Netzwerk, wie der "Stern" ein Punkt-zu-Punkt-Netz, stellt sich als nicht unterbrochene Ring-Konfiguration dar und wird heute zunehmend in lokalen Netzen eingesetzt. Diese Methode ist aufwendig, da jede Node ihre eigene Adresse erkennen muß, andere Adressen aber zur nächsten weiterschickt.

Da nur ein Kanal zur Verfügung steht, muß eine aufwendige Kontrolle über alle Nodes ausgeübt werden. Konfliktsituationen in der Übertragung werden zum Beispiel durch ein Bit-pattern, einem sogenannten Token, geregelt. Dem Ring zuzuordnen ist auch das Schleifennetz (slotted ring), welches eine zentrale Steuerung (Polling select) voraussetzt.

Die Schwachstelle ist der Ring selbst, da bei Ausfall einer Netzkomponente, sei es jetzt Leitung, Übertragungsmedium oder Rechner, ohne spezielle Back-up- oder Bypass-Möglichkeiten der Betrieb unterbrochen ist. Weniger verbreitet, aber durch die Multiplexmöglichkeit der Datenübertragungsgeräte (Modems) ermöglicht, sind Ringnetze auf HfDs (Hauptanschluß für Direktruf). Mit intelligenten Endgeräten läßt sich damit ein kostengünstiges Netzwerk aufbauen, das auch bei Ausfall einer Node betriebsfähig bleibt.

Ein gravierender Nachteil besteht: Es ist nur eine begrenzte Anzahl von Knoten einsetzbar, da eine Reduzierung der Übertragungsgeschwindigkeit auftritt. Das dritte Konzept, das Bus-Netzwerk, wird zu den Multipoint oder Multidrop-Netzen gezählt. Das Prinzip basiert auf einer Anzahl von Zugriffspunkten, die sich eine Leitung teilen. Es wird ähnlich dem Ringnetz vornehmlich in lokalen Netzwerken eingesetzt. Auch hier muß der Node seine eigene Adresse erkennen, braucht aber nicht wie im Ring andere Adressen zu wiederholen und weiterzuschikken. Daraus resultiert keine Verzögerung im Datenfluß und kein Overhead der durchlaufenden Informationen. Die passive Rolle der Nodes auf dem Bus garantiert auch bei deren Ausfall volle Betriebsbereitschaft der anderen Nodes.

Die aufgeführten drei Konzepte stellen nur die Basisarchitekturen dar. Durch Kombinationen ergeben sich Baumstrukturen oder vermaschte Netze. Letztlich läßt sich alles miteinander verbinden. Die optimale Netzwerkstruktur wird ausschließlich von der geplanten Anwendung bestimmt. Selbstverständlich spielen auch Leitungskosten, die in Deutschland besonders hoch sind, eine gewichtige Rolle und müssen daher sehr sorgfältig kalkuliert werden.

Die Dateldienste der Deutschen Bundespost fließen hier von in die mögliche Konfiguration mit ein. Die Glosse, Kunde: "Was haben Sie?" Verkäufer: "Was wollen Sie?", besteht nicht zu Unrecht. Ist erst einmal die Entscheidung zur Dezentralisierung gefallen, beginnen, je nach Projektgröße, die Kopfschmerzen der verantwortlichen Planer.

Problem Nr. 1:

Alles oder besser fast alles, ist machbar. So wird jeder Anbieter von Datenfernübertragung schwören, das just sein System kompatibel zu allen Hosts ist - und wenn es sein muß durch Gateways, Protokollkonverter oder Black boxes, die schier alle Kompatibilitätsprobleme zu lösen scheinen. Natürlich liegen der Planung Fakten zugrunde, die den Aufbau einer Netzkonfiguration entscheidend beeinflussen. So ist als nicht wegzudiskutierender Faktor die geografische Lage der zu vernetzenden Zugriffs- oder Rechnerpunkte zu sehen. Sie beeinflußt im höchsten Maße die Kosten des Netzwerkes.

Es seien hier zunächst Netze betrachtet (WANs = Wide Area Networks), die auf die Dateldienste der Deutschen Bundespost zugreifen müssen, da Datenleitungen außerhalb privater Grundstücke nur von der Post bereitgestellt werden. Das können im wesentlichen Datex-L, Datex-P, Hauptanschluß für Direktruf, Telex oder das öffentliche Fernsprechnetz sein.

So muß der Planer über Datex-L wissen, daß es zwei Tarifzonen gibt, nämlich den Regionalbereich mit bis zu 50 Kilometer und der Fernbereich darüber. Das Datex-P-Netz ist ein volumenabhängiges Netzwerk und erfordert genaue Kenntnisse der zu übertragenden Segmente, sprich Datenmenge. Es schließt die Überlegung der X.25-Fähigkeit der Datenendgeräte ein, denn die Benutzung von PADs (Package Assembler/Disassembler) erhöht die Kosten erneut. Geschwindigkeit und Anzahl der logischen Kanäle sind weitere Kostenfaktoren.

Beim Direktrufnetz kommt die Kostenunabhängigkeit nach Entfernung besonders stark zum Tragen. Hier wird in 100-Meter-Strecken gerechnet (Mindestkosten ein Kilometer) und bis zu einer Entfernung von 100 Kilometern in vier Tarifklassen aufgeteilt. Obwohl teuer, ist dieser Dateldienst der weitverbreitetste und Basis aller bestehenden Großnetze. Noch sind die Kosten volumenunabhängig und gehen über die monatliche Grundgebühr plus Verkehrsgebühren, abhängig von Entfernung und Geschwindigkeit, nicht hinaus.

Der Vollständigkeit halber soll auch Telex und das öffentliche Fernsprechnetz erwähnt werden, die aber wegen der Netzstruktur bei Telex und beim öffentlichen Fernsprechnetz nur für langsame Geschwindigkeiten (bis 2400 Baud) in Frage kommen. Das Angebot der Bundespost sieht Geschwindigkeiten bis 4800 Bit pro Sekunde über das öffentliche Wählnetz vor, jedoch verzeichnen Übertragungen eine hohe Retransmissionrate und sind daher nicht effizient. Ausnahmen mögen auch hier die Regel bestätigen.

Je nach Größe und Anwendungen können diese Übertragungsmedien auch gemeinsam eingesetzt werden. Ist die Leitungswahl durchgeführt, stehen gleichzeitig auch die Datenübertragungsgeräte (Modems, Datenanschaltgeräte) fest, da sie, wie die Leitungen, ausschließlich von der Deutschen Bundespost bereitgestellt werden. Ausnahmen sind Datenübertragungsgeräte auf internationalen Mietleitungen. Hier können weiterhin private Modems eingesetzt werden.

Unter Berücksichtigung der Kriterien für Netzwerkkonzepte, hat sich in einem kleinen Beispiel der Planer für ein Sternkonzept mit HFDs entschieden und nach Berechnung der Datenmenge für eine Übertragungsgeschwindigkeit von 9600 Bit pro Sekunde auf allen Leitungen entschlossen. In seine langfristige Planung hat er ein Netzwerkmanagement-System und ein Netzwerkkontrollcenter (NCC) eingeplant. In unserem Beispiel soll die erste Ausbauphase zunächst nur die sternförmige Zusammenschaltung von mittleren Rechenanlagen zu einem Großrechner beinhalten.

Die Übertragungsgeräte und Leitungen stehen fest. Lange vorher aber hat der Planer mit Entsetzen festgestellt, daß alle zu vernetzenden Rechner von unterschiedlichen Herstellern stammen. Die mit viel Elan begonnene Planung gerät ins Stocken. Frage ist, welche Rechner sind DFÜ-fähig und wenn nicht, was kostet Hard- und Software zur Modifikation. Mit welchem Übertragungsprotokoll sollen und können die Systeme miteinander kommunizieren.

Die Protokolle stellen nach wie vor ein großes Kompatibilitätsproblem in unserer Computerwelt dar. Zu viele Hersteller haben sich ihr eigenes Protokoll zusammengestrickt und nur die Forderung nach Vernetzung hat eine Standardisierung vorangetrieben. So ist zum Beispiel das DDCMP (Digital Data Communications Message Protokoll) ein von Digital Equipment entwickeltes, zeichenorientiertes und Byte-zählendes Datenübertragungsprotokoll das in Punkt-zu-Punkt- oder Mehrpunktverbindungen angewendet werden kann. Es kann in asynchroner oder synchroner Betriebsart arbeiten und parallele oder serielle Daten übertragen.

Ein IBM-spezifisches Protokoll ist das SDLC (Synchronous Data Link Control). Es ist eine synchrone, B(..) orientierte Prozedur, die völlig codetransparente Übertragung von Daten zuläßt. In die Blockprüfung sind hier, im Gegensatz zum nachfolgend beschriebenen BSC-Protokoll, sämtliche Kontrollzeichen mit eingeschlossen.

Wäre man der Entwicklungsgeschichte gefolgt, hätte das BSC (Binary synchronous Communication) vor SDLC genannt werden müssen. Es ist ein universell einsetzbares synchrones Protokoll, einsetzbar auf Stand- und Wählleitungen und Punkt-zu-Punkt- beziehungsweise Mehrpunktverbindungen. Das Protokoll erlaubt die Verwendung unterschiedlicher Codes und arbeitet halbduplex (nur eine Station sendet aktiv). Der meistbenutzte Code ist EBCDIC, jedoch werden auch USACII und der weniger gebräuchliche Six-Bit-Transcode benutzt. Durch einen Transparentmodus können jedoch für alle Codes die volle Kapazität von 256 Positionen ausgenutzt werden.

Aufbauend auf der SDLC wurde das HDLC (High Level Data Link Control) entwickelt. Auf den ersten Blick gleicht sie der SDLC Prozedur, hat aber doch einige gravierende Unterschiede. Übertragungsmodems, Betriebsart und Übertragung der Daten, das heißt HDX/FDX, laufen synchron und seriell - gleiches gilt für die Übertragungssteuerung mit Idle, Flag, Frame und Abort. Unterschiede gibt es zum Beispiel in der Größe des Adreß- und Kontrollfeldes, es ist bei HDLC erweiterbar. Zudem existiert die Möglichkeit des ARM (Asynchronous Response Mode) im HDLC. Sowie die der balanced Konfiguration, das heißt, der Kombination Leit- und Folgesteuerung.

Das wohl zukunftsorientierteste Protokoll wird durch die CCITT-Empfehlung X.25 definiert. Sie basiert auf der Paketvermittlungstechnik und regelt den Datenaustausch zwischen den Endeinrichtungen. Nach dem OSI-Architekturmodell (Open Systems Interface) nach ISO sind von den sieben Protokollebenen nur die Ebene 1, 2 und 3 durch die X.25 genormt. Diese Ebenen wie auch Ebene 4 dienen ausschließlich der Transportsteuerung und werden deshalb auch Transportprotokoll genannt.

Die Ebenen 5 bis 7 sind Benutzerfunktionen wie Steuerung logischer Verbindungen Datenbereitstellung und Anwenderprozessen vorenthalten. Man nennt sie auch "höhere Protokolle". Die Aktualität dieses relativ neuen Architekturmodells soll uns Grund zu einer etwas näheren Betrachtung geben. Die Ebene 1 spezifiziert die physikalischen Eigenschaften der Schnittstelle wie Belegung der Stecker, Spannungspegel und des Übertragungsverfahrens. Die Empfehlung X.21 regelt dieses Verfahren. Die Ebene 2, auch HDLC-Ebene, enthält die Steuerparameter für die Übermittlung der Datenrahmen. Als Steuerungsverfahren wurden zwei Möglichkeiten erarbeitet, das LAP A (Link Access Protokoll) und das LAP B. Das LAP B ist heute gebräuchliche Form der Übertragungssteuerung, da durch die unsymetrische Betriebsart des LAP Schwierigkeiten bei der Implementierung auftraten.

Das LAP B wurde auch von der Deutschen Bundespost in den Datex-P-Dienst implementiert und garantiert die Übertragung gleichberechtigter Einrichtungen, das heißt, eine Leit- und Folgesteuerung ist überflüssig (LAP A). Die Hauptaufgabe des Steuerungsverfahrens auf Ebene 3 besteht darin, der nächsthöheren Ebene, der Paket-Ebene, eine fehlerfreie Verbindung zu garantieren.

Das geschieht im wesentlichen durch:

- Steuerung der Vollduplex-Datenübertragung

- Kontrolle durch Blockprüfung und Sequenzkontrolle der Blocknummern

- Fehlerkorrektur durch Wiederholen der Übertragung fehlerhafter Blöcke (Retransmission)

- Synchronisierung des Übermittlungsabschnitts; es besteht für beide Seiten die Berechtigung zum unaufgeforderten Sendebeginn.

- Weitermeldung von nicht korrigierbaren Fehlern und Prozedurfehlern an die nächsthöhere Ebene.

Ebene 3, die höchste Ebene der X.25 Empfehlung, spezifiziert die Struktur von Kontrollinformationen und Benutzerdaten in Paketen sowie den Auf- und Abbau der festen und gewählten virtuellen Verbindungen. Durch die Vielzahl der virtuellen Verbindungen auf einer physikalischen Leitung kommt der Ebene 3 eine Multiplex-Funktion zu. Über logische Kanäle werden die virtuellen Verbindungen abgewickelt und mit einer logischen Kanalnummer versehen, die das Paket als Identifizierung durch das gesamte Netz transportiert. Jeder logische Kanal hat seine eigene Fehlerkontrolle und Überwachung des Paketflusses.

...Normen sind notwendig um einen Dialog verschiedenster Komponenten zu ermöglichen...

Damit sei genug über Protokolle gesagt. Sie sind hier nur oberflächlich beschrieben und sollen einen Überblick ihrer Funktionen geben. Der Planer eines Netzwerkes oder auch einer Online-Verbindung wird stets auf irgendwelche Normen stoßen. Dies ist notwendig, um einen Dialog verschiedenster Komponenten überhaupt zu ermöglichen.

Genormte Schnittstellen sind daher ein wesentlicher Faktor in Datennetzwerken oder dialogfähigen Endgeräten. Wir unterscheiden dabei die Analog- und Digitalschnittstelle. Unser Interesse soll hier der Digitalschnittstelle gelten, da die Analogschnittstelle in die Zuständigkeit der Bundespost fällt, die auch die Datenübertragungsgeräte liefert. (Bei bestehender Genehmigung ist die von FTZ-Benutzern zugelassene DÜE bis 1985 möglich).

Nach Einführung des IDN (Integriertes Daten Netz) im Fernsprechnetz der Bundespost, gehört diese Schnittstelle der Vergangenheit an und kommt nur noch in lokalen Netzen zum Tragen. Auch hier sind Bestrebungen der Digitalisierung von Nebenstellenanlagen unübersehbar. (3. Generation) Zurück zur Digitalen Schnittstelle, als das genormte Bindeglied zwischen Datenübertragungs- und Datenendeinrichtung. (Siehe auch Ebene 1 der Datenübertragungsprotokolle.)

In ihr sind elektrische, funktionelle und mechanische Bestimmungen zusammengefaßt. Zum Beispiel werden bei den elektrischen Bestimmungen Spannungs- oder Strompegel, Flankensteilheit und Schwellwerte sowie die Impedanz des Kabels festgelegt. Die Bestimmungen der einzelnen Schnittstellenleitungen für die Übertragung der Datensignale, sowie Steuer-, Melde- und Taktsignale gehören zu den Funktionen der Schnittstelle. Sie steuern den Verbindungsauf- und -abbau und kontrollieren die Schnittstelle auf Störungen.

Als letzter Punkt sind die mechanischen Bestimmungen anzugeben, die die mechanischen Eigenschaften, wie Form, Größe, Pin-Anzahl, "male" oder "female" spezifizieren. Je nach Anwendungsbereich wird die Schnittstelle neu definiert, wobei die Pin-Belegung der Schnittstellensignale gleich bleibt, das heißt, es fallen Signale fort oder kommen dazu. Grundlegend müssen zwei Schnittstellenarten unterschieden werden: die Stromschnittstelle und die Spannungsschnittstelle. Die Stromschnittstelle, auch 20mA oder current loop genannt, wurde zur asynchronen Datenübertragung im unteren Geschwindigkeitsbereich benutzt. Sie kannte nur "Strom" oder "kein Strom" zur Darstellung der Zustände "0" oder "1". Sie wird heute weniger benutzt und durch die V.24, eine Spannungsschnittstelle, weitgehend abgelöst.

Diese Schnittstelle, die weitgehend auf der amerikanischen Norm RS 232C aufgebaut ist, wurde vom CCITT auf die funktionellen Eigenschaften genormt. Die elektrischen Eigenschaften werden in V.28 und alle drei funktionelle, elektrische und mechanische in der DIN 66020 definiert. Eine Übertragungsrate von 20 KBit pro Sekunde ist die Obergrenze der Empfehlung. Höhere Übertragungsgeschwindigkeiten, wie zum Beispiel 47 KBit pro Sekunde und 64 KBit pro Sekunde wurden in Deutschland erst mit der Einführung des IDN (Integriertes Digitales Netz) basierend auf PCM-Technik (Pulse Code Modulation) möglich. Für diese hohen Übertragungsgeschwindigkeiten wurde die Schnittstelle X.21 entwickelt und CCITT definiert. Bei ihr übernimmt die Datenendeinrichtung einen Teil der Verbindungssteuerung und entlastet somit die Datenübertragungseinrichtung, die nicht mehr Modem sondern Datenfernschaltgerät (DFG) oder Datenanschlußgerät (DAG) genannt werden.

Dieter Jennrich ist Geschäftsführer der Network Consult GmbH, Köln