Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

07.12.1979 - 

Experten-Workshop über Arbeiten deutscher Rechner-Spezialisten:

GMD: Absehied von der Hardware-Forschung?

BONN - Nur das Prinzip der dezentralen Forschung kann verhindern, daß wir uns in Deutschland eines Tages in einer technologischen Sackgasse wiederfinden. Mit diesem Bekenntnis eröffnete der Vorstandsvorsitzende der Gesellschaft für Mathematik und Datenverarbeitung (GMD), Professor Dr. Fritz Krückeberg, den Rechnerstruktur Workshop, den die GMD am 14. November 1979 in Bonn-Bad Godesberg veranstaltete. Er brachte in konzentrierter Form eine Darstellung auf diesem Gebiet geleisteter und noch zu leistender Arbeiten. Krückeberg begrüßte über 40 Workshop-Tellnehmer aus Industrie, Großforsehung, Hochschulen und Bundesministerien, darunter Professor Dr. Konrad Zuse und CTM-Chef Otto Müller.

Besonders zuversichtlich, ließ Krückeberg in einem Gespräch am Rande des Treffens durchblicken, mache ihn die Anwesenheit von sechs Ministerialen aus den Ressorts "Forschung und Technologie", "Innen" und "Wirtschaft". Die Qualität der gelieferten Workshop-Beiträge sei nämlich dazu angetan, vielleicht noch zusätzliche Fördermittel aus dem BMFT-Programm "Informationstechnik" lockerzumachen.

Krückeberg fügte noch eine Zukunftsvision hinzu: Eine sinnvolle Aufgabe der GMD könnte darin bestehen, öffentliche Gelder eigenverantwortlich auf förderungswürdige Projekte zu verteilen und im Gegenzug als Sammelstelle und Umschlagplatz für neue Erkenntnisse zu fungieren, um so Mehrfachentwicklungen vorzubeugen.

Die Rechnerstruktur - oder wie man früher gesagt habe: "Architektur" - sei stets ein Spiegelbild der zur Verfügung stehenden Techniken gewesen, stellte Zuse in seinem Einführungsbeitrag mit J. Blick in die Vergangenheit fest. ENIAC jedoch "hat es so umständlich wie möglich gemacht" und steht damit etwas außerhalb der normalen Reihe der Computer, präzisierte der Erbauer des ersten programmierbaren Rechners.

Aus der jüngeren Vergangenheit kritisierte Zuse das Timesharing ("Wir wissen heute, was wir da mal angerichtet haben.") wegen der damit verbundenen unnützen Verflechtungen und des übertriebenen Zentralisierungsprinzips. Als aktuelles Problem bei der neuen Technologie der integrierten Schaltkreise nannte Zuse die geringe Anzahl der nach außen führenden Leitungen.

"Höchstleistungsrechner Strukturen müssen nicht

unbedingt komplex und gigantisch sein".

Wo es angesichts der beeindruckenden

Leistungsziffern der Amerikaner für die deutsche Forschung dennoch sinnvoll wäre, an Höchstleistungsrechnern weiterzuarbeiten, erläuterte GMD-Mitarbeiter Dr. Gert Regenspurg. Als denkbare Anwendungsgebiete nannte er unter anderem die Spracherkennung, die Aerodynamik und die Fusionstechnologie. Als Anwender nannte er beispielsweise die Großforschung, die Universitäten und die Industrie. Im Gegensatz zu General Purpose-Computern solle bei Höchstleistungsrechnern ein Job nur einmal laufen, meinte Regenspurg und ergänzte, "Höchstleistungsrechner Strukturen müssen nicht unbedingt komplex und gigantisch sein".

Dennoch spielten amerikanische Entwicklungen als Vergleichsmaßstab in Regenspurgs Referat eine herausragende Rolle. Unter anderem berichtete er von einem Entwicklungsauftrag an die amerikanische Computer-Industrie, bei dem es um einen Höchstleistungsrechner mit der Leistung von einem Giga-Flop (entsprechend einer Milliarde Floating-Point-Operations pro Sekunde) ging, und eine MTBF von 15 Minuten gefordert war. Er erläuterte die Ansätze, die Hersteller wie Burroughs und Control Data für einen solchen Hundert- bis Zweihundert-Millionen-Dollar-Rechner vorgelegt hatten.

Er erwähnte außerdem den von IBM angekündigten und in den 80er Jahren arbeitsfähigen "Josephson-Prozessor" und rief einige seiner Kennzahlen in Erinnerung. So hat der Josephson-Prozessor einen Cache-Speicher von 256 K mit zwei Nanosekunden Zugriffszeit, sein Hauptspeicher umfaßt 64 MB mit zehn Nanosekunden Zugriffszeit und die Leifstung beträgt 250 MIPS. Die Leistungen : dieses Prozessors basieren wesentlich auf der Supraleitfähigkeit in der Nähe des absoluten Nullpunktes.

Bei steigendem Systemumfang sinkt die Zuverlässigkeit

Die Notwendigkeit, fehlertolerante Systeme zu entwickeln, ergibt sich aus der mit steigendem Systemumfang sinkenden Zuverlässigkeit, erklärte Professor Dr. Max Syrbe von der Fraunhofer-Gesellschaft (FhG). Die FhG mußte ein solches fehlertolerantes System entwickeln, da die adaptiven (Such-)Fähigkeiten großer Betriebssysteme (BS2000) im Falle von System-Teilausfällen Programm-Dead-Locks nicht zuverlässig ausschließen.

Die Forscher entschieden sich für den Weg "Fehlertoleranz aus Redundanz", die auf mehreren Wegen gewonnen wird, und entwickelten daraus mehrere Typen der Verfügbarkeit. Dazu, und um Fehler pragmatisch antizipieren zu können, war es erforderlich, auftretende Fehler in die drei Klassen "physische", "Bedienungs-" sowie "Programm- und Entwurfsfehler" einzuteilen. Dieser Ansatz - so Syrbe - stellt einen "sauberen, quantitativen Weg zu einer Wertanalyse von Systemen dar".

Schaltelemente plus Einbautechnik machen den Rechnerbaustein aus

Schaltelemente plus Einbautechnik machen den Rechnerbaustein aus - so lautete die Definition, die Siemens-Mitarbeiter Dr. Hado Spreen seinem Referat über den Einfluß der Bauelemente auf die Rechnerstruktur voranstellte. Typische Beispiele seien Speicherbausteine und Mikroprozessoren.

Spreen, Mitentwickler der Siemens-Systeme 7.738 und 7.760, vertrat die These grundsätzlich lege der Rechner und Firmware-Entwurf in der Konzeptphase die zu verwendenden Bausteine fest. Zu einem umgekehrten Effekt könne es beim Einsatz hochintegrierter Bausteine der Master-Slice-Technik kommen. Wegen der Eigenschaften dieser Technik ist es nach Spreens Auffassung bei der rationellen Entwicklung 4 neuer Rechnersysteme unumgänglich, auf das Mittel der Simulation zurückzugreifen.

Rechner-Entwurfswerkzeuge sollen Dokumentationssysteme herstellen, oder sie verfolgen den Zweck der Verifikation, Optimierung oder Hardware-Synthese; es gibt sie in Form von Editoren, der Beschreibungsdatei-Verwaltung, der Syntax-Prüfung, in Form von Simulatoren, Analysatoren oder Synthese-Programmen. Mit dieser Grundfeststellung eröffnete Professor Dr. Robert Piloty von der Technischen Hochschule Darmstadt seinen Beitrag zum Thema "Unterstützung des Rechnerentwurfs durch formale Entwurfssprachen".

Hardware-Design-Sprachen werden kaum angewendet

Piloty kritisierte, zwar gebe es über 50 Hardware-Design-Sprachen, sie kämen in der Industrie, die weitgehend grafisch dokumentiere, jedoch kaum zur Anwendung. Piloty charakterisierte die Hardware-Design-Sprachen je nachdem, ob sie eine Modul-isomorphe Netzstrukturbeschreibung oder eine Verhaltensbeschreibung vornehmen. Piloty hielt den Entwerfern von Hardware-Design-Languages vor, der jeweilige Darstellungsbereich sei begrenzt, es gebe keine klaren syntaktischen und semantischen Beziehungen zwischen verschiedenen Entwurfssprachen, die Darstellung erfolge durch Text statt durch Grafik, es gebe keine Entwurfsmethologien (und daher ein Problem der Sprachhandhabung).

Aus diesem Grunde habe sich bereits 1975 in New York die Consensus-Language (CONLAN-)Working-Group formiert mit dem Ziel, eine Sprachfamilie zu bilden, die beim Ingenieur vor Ort Akzeptanz findet und die oben genannten Kritikpunkte abstellt. Das CONLAM-Konzept, berichtet Piloty, sei fast fertiggestellt. Es handelt sich dabei um ein Sprachgenerierungs-System, das selbstdefinierende Sprachen schafft (auf Bezugssprachen der CONLAN-Familie abhebend) und Erweiterungen zuläßt. "Wurzelsprachen" sind Base-CONLAN (BCL) und Primitiv Set-CONLAN (PSCL). Piloty lobte die Unterstützung, die das BMFT und Siemens dem CONLAN-Projekt zukommen lassen und stellte in Aussicht, eine Vorstellung der endgültigen Ergebnisse könne auf der nächsten NCC oder der Tokioter ifip-Tagung erfolgen.

Abschied vom Familienkonzept

"Ich sehe Rechner nicht mehr isoliert sondern eingebunden in größere Systeme", erklärte Professor Dr. Wolfgang Händler von der Universität Erlangen-Nürnberg und sagte voraus, die bisher bekannten Familiensysteme nach Art der IBM /360 würden abgelöst durch das Konzept der Größen-Modularität, einer Pyramidenstruktur von Speichern und Prozessoren, die mehrsehichtige, aber beherrschbare Systeme impliziere.

Wenig Zukunftschaneen gab Händler auch dem weithin verwendeten Top-Down-Design von Systemen und stellte kontrastierend das Open-Ended-Design gegenüber, das den Eihbau nachträglich entstandener Ideen jederzeit erlaube. Händler verwies auf zahlreiche Entwicklungen an der Universität Erlangen, darunter das BMFT-geförderte Projekt EGPA, das Erlangener Klassifikationsschema für Rechner und eine Kombination aus Feldrechnern, Wortrechnern und Prozessoren, die es erlaube, weitgehend assoziativ zu arbeiten.

Den universellen Parallelrechner gebe es heute noch nicht, sagte Dr. Christian Kuznia von der Siemens AG. Aus diesem Grunde habe man spezielle Rechner, beispielsweise für Datenbanken, Differentialgleichungen, Wetterprognosen oder auch für das Schachspiel entwickelt. Kuznia stellte den Zuhörern das Strukturierte Multiprozessor-System (SMS) vor, das bei Siemens seit zwei Jahren in Betrieb ist. SMS arbeitet zur Zeit auf der Basis von Intel 8080 (für die Zukunft ist an 8086 und AMD-Master-Slice-Prozessoren gedacht) als Array-Einzelrechner; hinzu kommen Steuerrechner und Speicher sowie das Bedienungssystem.

Siemens sucht SMS-Pionieranwender

SMS, so charakterisierte Kuznia, erhöht die Gatterzahl und geht somit in VLSI-Richtung, während beispielsweise der Cray- 1 die Taktfrequenz erhöht. SMS-Prozessoren - Kuznia hält dies bis zu einer Anzahl von 1000 für möglich sind an einen Bus angeschlossen. Oberhalb von eintausend kann nach Kuznias Ansicht auch eine Abkehr vom Ein-Bus-System in Betracht kommen. Siemens, das die geringe Ausfallrate, den einfachen Service, die leichte Fehlersuche und kurze Reparaturzeit des SMS-Systems hervorhebt, sucht für diesen in Fortran, Pascal und Assembler programmierbaren Rechner noch Pionieranwender. SMS - installierbar innerhalb eines Jahres - kann dabei ebenso gut ein Objekt von zweihunderttausend Mark wie auch von 5 Millionen Mark sein.

"Was machen wir mit der Hardwaretechnologischen Schwemme?", fragte

Professor Dr. Jürgen Nehmer von der Universität Kaiserslautern zu Beginn seines Vortrages über verteilte Betriebssysteme als Konzept für den Abbau der Software-Komplexität. Nehmer forderte den Einsatz von Rechnem zur Reduktion der Software-Komplexität in zentralisierten Systemen, denn die mit steigender Komplexität wachsende Fehlerrate mache die Systeme unzuverlässig.

Ursachen der Komplexität von Betriebssystemen sind - so Nehmer - ihr unstrukturierter Aufbau, aber auch Unzulänglichkeiten in der Hardware. Als Beispiele für letzteres nannte Nehmer den eingeschränkten Adreßraum, den geringen Leistungs-/Kosten-Faktor sowie unzureichende Schutzmechanismen. Diesen Nachteilen stellte Nehmer das Schichten- und Komponentenmodell seines "neuen" Betriebssystems gegenüber, dessen einzelne "Instanzen" in Mikrorechnern mittels eines "Basis-Betriebssystems" arbeiten.

"Verteilte Systeme sind die folgenschwerste Entwicklung, die zur Zeit zu beobachten ist"

Nehmer, der auf ähnliche Projekte in Forschung und Industrie hinwies, will mit diesem Ansatz folgendes erreichen: Eine bessere Test- und Wartbarkeit, einen Standardisierungseffekt in den Rechnerstrukturen, einen Standardisierungseffekt in der Betriebs-Software sowie eine Begünstigung systematischer Software-Engineering-Methoden.

Über Organisationsformen verteilter Rechnersysteme berichtete Professor Dr. Wolfgang K. Giloi von der Technischen Universität, Berlin. "Verteilte Systeme sind die folgenschwerste Entwicklung, die zur Zeit zu beobachten ist", eröffnete Giloi sein Referat und übte Kritik am uneinheitlichen Gebrauch dieses Begriffs auf seiten der Hersteller. Die Definition eines verteilten Systems - so Giloi - ist nicht an Hardware-Strukturen aufzuhängen; hinzu kommen muß die Kontrollstruktur der "kooperativen Autonomie".

Zu den Bedingungen eines verteilten Systems aus mehreren "Verarbeitungsknoten" gehört: Die Systemfunktionsausführung geschieht durch mehr als einen Prozeß; es gibt keine zwei Prozesse im System, die die gleiche Sicht vom globalen Systemzustand haben, und die Kontrolle ist im System verteilt. Giloi nannte drei Klassen verteilter Systeme: Geographisch verteilte Rechner-Verbundnetze (Beispiel: Euronet); lokal verteilte DV-Netzwerke (Beispiel: Bürocomputer)- Multiprozessor-Systeme mit verteilter Kontrolle (Beispiel: Tandem-Systeme).

GMD-Langfristprogramm: Sorgenvolle Töne

Für das zwischen den Prozessen eines verteilten Systems bestehende Konsument-/Produzent-Verhältnis, berichtet Giloi, ist ein Interprocess-Communications-Protocol (IPC) ausgearbeitet worden. Verteilte Systeme - so Giloi weiter _ seien zwar nicht für alle Einsatzgebiete F geeignet, könnten aber beispielsweise, i wenn die Kommunikation fehlerfrei ablaufe, die Software-Krise abbauen.

Das herausragende Ergebnis des Workshops sei der Siemens-SMS-Parallelrechner, war die allgemein vertretene Auffassung, die in der Podiumsdiskussion, die an die Vortragsveranstaltung anschloß, deutlich wurde (insbesondere bei den Professoren Nehmer und Giloi). Für das BMFT-geförderte Projekt SMS hatte die GMD-Projektmanagement-Abteilung die Projektbegleitung übernommen.

Besonders erwähnt wurde das Parallelrechner-System, das Dr. v. Issendorf (Funk und Mathematik)-installiert hat und damit zu den ersten Anwendern gehört. Dort arbeiten 128 Intel 8080-Prozessoren, gesteuert von einem Siemens-General-Purpose-Rechner: Es habe sich gezeigt, daß große Betriebssysteme, wie etwa BS2000, nicht mehr erforderlich seien, wenn beim Programmieren - wenigstens in den einzelnen Knoten Gleichförmigkeit der einzelnen Tasks erzielt wird.

Eine weitere Förderung der Hardware-Technologie - darüber war sich die Diskussionsrunde einig - solle nicht auf die Schaltlogik, also die billigen Chips abzielen, wohl aber auf ihre Einbindung in die Systeme.

Bei der Thematik "Förderung" mischten sich jedoch auch sorgenvolle Töne in die Diskussion, sie betrafen das GMD-Langfristprogramm: So wurde beklagt daß der in diesem Programm vorgesehene Rückzug aus der- Grundlagenforschung die GMD um einen Teil ihres Aufgabenspektrums berauben werde