Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

18.09.1992 - 

DV-Einsatz im Flughafen München (Teil 1)

Mit früher Entscheidung für Unix liegt Münchner Flughafen richtig

Dieter Sommer ist freier Journalist in Berlin und externer Mitarbeiter der PR-Agentur Dr. Nenner und Partner in München

Mit dem offiziellen Flugbetrieb im Erdinger Moos bei München werden Aufgaben, die bischer im alten Münchner Flughafen zum Teil noch manuell durchgeführt wurden, auf eine vernetzte Client/Server-Architektur umgestellt. Die Realisierung ist das Ergebnis einer schrittweisen Entwicklung. Sie zeigt, welche Rolle verteilte Rechnersysteme, Unix und grafische Bildschirm-Arbeitsplätze auf der Basis von Workstations für den Verkehrsbetrieb am Boden spielen.

Unter Rightsizing ist ein Trend zu verstehen, bei dem zentrale DV-Aufgaben auf autonome vernetzte Systeme umgelagert werden. Die Systembasis hierfür bilden Client/Server-Systeme, bei denen die Informationsverarbeitung auf leistungsfähigen Workstations am Arbeitsplatz (Clients) und die Datenhaltung durch die einzelnen Aufgaben zugeordnete Server wahrgenommen wird. Benutzerfreundlichkeit, Sicherheit und modulare Erweiterbarkeit sind Vorzüge dieses Konzeptes. Moderne Softwarewerkzeuge garantieren kurze Realisierungszeiten und stabile, gut dokumentierte Anwendungen.

Die Geschichte der verteilten Datenverarbeitung reicht bei der Flughafen München GmbH (FMG) 15 Jahre zurück. Damals traf man die Entscheidung, nicht ausschließlich auf einen Zentralcomputer zu setzen, sondern dedizierte Systeme im Dialogbetrieb mit über das Flughafengelände verteilten Bildschirmgeräten und Druckern zu verwenden, auf denen Anwendungen operatorlos liefen. Eine der ersten war übrigens die Abwicklung der Grundstücksgeschäfte für den Erwerb des Geländes für den neuen Flughafen.

Bald begann man, dieses Prinzip auf andere Anwendungen auszudehnen, denn verschiedene Gründe sprachen für kleinere, mehrplatzfähige Rechenanlagen - von Unix war 1976 noch nicht die Rede. Kostenvorteile gegenüber einer zentralen Lösung waren ein Gesichtspunkt, hohe Flexibilität ein weiterer.

Die wichtigste Rolle spielte jedoch der Sicherheitsaspekt, denn im Luftverkehrsbereich ist Rechnerausfallsicherheit oberstes Gebot. Bei einem Zentralrechner hätten diese Verfügbarkeitsanforderungen einen sehr hohen Einsatz von Hardware, Software und Man-Power bedeutet, um einen durchgängigen Betrieb zu gewährleisten.

Einheitliche Linie verlangte Unix

Und selbst dann, wenn man diesen hohen Aufwand betreibt, ist eine zentrale Lösung immer noch anfälliger gegen gewaltsame Einwirkungen von außen (Stichwort: Terrorismus) als ein System, bei dem die Komponenten der Rechenanlage räumlich verteilt sind.

Als man das Prinzip der verteilten Systeme auf weitere Anwendungen ausdehnen wollte, sah man sich sehr bald mit dem damals allgegenwärtigen Problem der Insellösungen konfrontiert - allerorten proprietäre Hardware und Betriebssysteme, verbunden mit hohem Wartungsaufwand und wenigen Verständigungsmöglichkeiten untereinander. Eine einheitliche Linie war gefragt, und die hieß und heißt für die Flughafenbetreiber Unix.

Daß der Flughafen München schon zu einem so frühen Zeitpunkt auf Unix eingestiegen ist, kann man getrost als mutige Pioniertat bezeichnen, denn Unix war damals kaum über den universitären Bereich hinaus bekannt, wurde allgemein nicht ernstgenommen und galt als ziemlich unsicher. Auch an Systemanbietern mangelte es anfangs, so daß eine Umsetzung der Entscheidung für Unix sich zunächst alles andere als einfach gestaltete.

"Wir waren uns des eingegangenen Risikos durchaus bewußte haben deshalb klein angefangen und eine Anwendung nach der anderen unter Unix realisiert", kommentiert Günter Hagen von der Flughafen München GmbH den Weg zu Unix. "Daß wir auf das richtige Pferd gesetzt haben, zeigt die Position, die Unix heute im Softwaremarkt einnimmt."

Damals galt es zunächst, überhaupt einen Unix-Systemanbieter zu finden. Die großen DV-Hersteller zeigten kein oder nur geringes Interesse. Schließlich wurde man bei einem kleinen Anbieter (Kontron) fündig, der sich sehr für Unix einsetzte und auf dessen Systemen man die ersten Unix-Anwendungen realisierte.

Die erste Unix-Anwendung - die übrigens wie die meisten anderen zunächst am Flughafen München-Riem eingesetzt wurde und bis zum Umzug am 17. Mai 1992 noch lief - war ein System zur Unterstützung und Sicherung der Streifengänge von Wächtern. Es überwachte, ob ein Wächter bestimmte Kontrollpunkte bis zu einem bestimmten Zeitpunkt erreicht und sich gemeldet hat. Auch die Planung und Dokumentation der Streifengänge zählte zu den Aufgaben dieser Unix-Erstanwendung.

Der zweite unter Unix realisierte Einsatz war das Management der Sicherheitsausweise, für alle am Flughafen beschäftigten Personen. Das System verwaltet die Daten der etwa 15 000 ausgegebenen Ausweise und Parkberechtigungen.

Stufe drei bestand in der Umstellung des zuvor von einem Prozeßrechner gesteuerten Flughafen-Informationssystems mit Anzeige-Monitoren und -Tafeln auf Unix, wobei eine Aufteilung in Datenverwaltung, Unterstützung des Benutzers und Anzeigeprozesse vorgenommen wurde.

Im gleichen Zeitraum entstand eine Flugplanverwaltung, mit der Flugereignisse in einem bestimmten Zeitraum (Tag, Monat, Saison etc.) bearbeitet werden können und die gleichzeitig Kurz-, Mittel- und Langfristplanungen ermöglicht. Bei dieser Anwendung kommt eine Stärke des Unix-Systems, die Kommunikationsfähigkeit, zum Tragen: Die für einen Tag generierten Daten lassen sich nicht nur ausdrucken, sondern auch an den Fluginformationsrechner übertragen, der wiederum die Daten für das Monitor- und Anzeigensystem liefert.

Da die Verantwortlichen mit den Ergebnissen, die die ersten Unix-Anwendungen lieferten, sehr zufrieden waren, wollten sie weitere implementieren, stießen jedoch allmählich an die Grenzen der Möglichkeiten der installierten Hardware. jetzt spielte Unix eine weitere Stärke aus: die Portabilität.

Man war mit Unix nicht an einen Hersteller gebunden, und so machte sich das Management auf die Suche nach einem anderen Anbieter, dessen Systeme höhere Anforderungen bewältigen konnten und zugleich ein attraktives Preis-Leistungs-Verhältnis boten. Die Verantwortlichen sondierten das Marktangebot - darunter befanden sich inzwischen auch einige der Großen - sehr gründlich und führten eigene Benchmark-Tests durch. Aufgrund der Ergebnisse dieser Untersuchung fällte man schließlich eine Grundsatzentscheidung und erklärte die Unix-Systeme von Sun Microsystems zur Standardplattform für die Zukunft.

Als diese Entscheidung fiel, war Sun noch ein Neuling im Unix-Markt, der sich jedoch von Anfang an konsequent für Unix und andere offene Standards einsetzte - im Gegensatz zu vielen anderen, die Unix zwar auch anboten, weil danach gefragt wurde, aber zunächst lieber ihre proprietären Systeme an den Anwender brachten. Damals herrschte noch die Ansicht, daß sich auf diese Weise Herstellerbindung erreichen ließe.

Auch dieser Aspekt - Unterstützung offener Standards spielte für die FMG bei der Wahl von Sun eine wichtige Rolle. Daß man auch mit dieser Entscheidung auf das richtige Pferd gesetzt hat, belegt die starke Position, die Sun Microsystems heute im Unix-Markt mit seiner Client/Server-Konzeption einnimmt, und die weite Verbreitung der von Sun unterstützten Standards.

Entscheidung für real Verfügbares

Zur selben Zeit, als die FMG auf die neuen Systeme umsattelte, fällte sie auch Grundsatzentscheidungen darüber, auf welche Netzwerk-Strategie sie setzen wollte.

Zum damaligen Zeitpunkt wurde zwar das OSI/ISO-Modell und MAP von vielen favorisiert und heftig diskutiert, doch die FMG orientierte sich an dem, was real verfügbar war und entschied sich für NFS mit TCP/IP Protokoll. Das erwies sich wieder als Treffer, denn TCP/IP ist heute De-facto-Standard für die Vernetzung, während das OSI-Modell der ISO immer noch darauf wartet, mit Leben gefüllt zu werden, und MAP mehr Fiktion als Wirklichkeit geblieben ist.

Als Medium für die Daten. kommunikation kommt Ethernet auf Glasfaserbasis zum Einsatz. Auch damit betrat die FMG Neuland, denn sie war eine der ersten Firmen, die ein Glasfasernetz betrieb.

Grund dafür waren zum einen die großen Entfernungen auf dem Flughafengelände, mit denen ein Netz mit Koaxialkabeln überfordert gewesen wäre, zum anderen die Unempfindlichkeit gegen elektromagnetische Störeinflüsse, zum Beispiel durch Blitzschlag.

Nachdem diese grundsätzlichen Entscheidungen gefällt waren, ging die eigentliche Umstellung des Flughafen-Informationssystems auf die Sun-Plattform in weniger als drei Wochen vonstatten. Das Versprechen der leichten Portierbarkeit innerhalb der Unix-Welt fand man damit erfüllt.