Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.


21.12.1979

Computer-Technologien der 80er Jahre:Zehn Zeilen Soflware teurer als ein Mikro

Die Entwicklungszeit für Computersysteme ist lang und die Zahl der technologischen Varianten gering, so daß es, unter Ausklammerung von Zufällen, welche in der Forschung eine immerwährende Begleiterscheinung bleiben, nicht allzu schwierig ist, eine zuverlässige Prognose zu stellen, wie die Computersysteme der 80er Jahre aussehen werden. Es ist weit riskanter, darüber zu spekulieren, wie diese Systeme gebraucht (oder mißbraucht) werden. Da die Autoren eher zurückhaltend sind, wird sich dieser Artikel auf den technologischen Fortschritt beschränken, der im Englischen als "technology push" bezeichnet wird, und auf einige Impulse, die von den Benutzern ausgehen ("user pull").

I) Festkörper-Bausteine

Die phänomenale Verbesserung des Kosten-/Leistungsverhältnisses der Computersysteme während der letzten Jahrzehnte ist vor allem auf Lithographie, Festkörpertechnologie und chemische Verarbeitungsmethoden zurückzuführen. Diese Fortschritte werden auch in den 80er Jahren andauern. Die Technologie der Elektronenstrahl-Lithographie für die direkte Chip-Herstellung ist eingeleitet, und zum Erzeugen der Masken wird Röntgenstrahlen-Belichtung eingesetzt, wodurch mehr und schnellere Bausteine auf einem Plättchen untergebracht werden können.

Die Siliziumtechnologie wird sowohl in Bipolar- als auch in MOS-Form verbessert. Beide belegen einen wichtigen Platz, wenn die Abtauschfaktoren wie Leistung, Geschwindigkeit und Kosten berücksichtigt werden. In Hochleistungssystemen verspricht das Gallium-Arsen für die nahe Zukunft gegenüber dem Silizium eine wesentliche Verbesserung zu bringen. Am Ende des Jahrzehnts können für große Computersysteme die ultraschnellen Josephson-Verbindungen erhältlich werden.

Das Schlagwort für die 80er Jahre ist wohl VLSI (Very Large Scale Integration), welches sich auf Chips bezieht, die mit Tausenden von Steuerkreis-Gittern bestückt sind. Zu deren Herstellung werden weitere unterstützende Technologien benötigt wie Packungstechnik, Prüfverfahren und computergesteuerte Entwicklungshilfen. Aus den Abtauschfaktoren wie Entwicklungszeit, Chipkosten/-leistung resultieren interessante Entwicklungsstrategien wie beispielsweise die Verwendung von Sonderanfertigung, Halb-Sonderanfertigung, gespeicherte Logik-Tabellen und Mikroprozessor-Chips.

II) Peripheriegeräte und I/O-Steuerung

Die Verbesserungen der Plattenspeicher-Technologie stehen den Entwicklungen der Halbleitertechnik kaum nach. Dies wird sich auch in Zukunft kaum ändern. Die Distanz zwischen dem Lese-/Schreibkopf und dem Datenträger ist kleiner als die Linienbreite, welche die Elemente auf einem VLSI-Chip definiert. Plattenstapel mit einer Kapazität von über tausend MB werden in den 80er Jahren erhältlich sein. Dies wird durch den Einsatz von monolithischen ("Dünnschicht"-)Köpfen und neuen Aufzeichnungsmethoden ermöglicht. Intelligente Steuereinheiten verwalten hierarchische Dateien, und neue Speicher wie der Notizspeicher (cache memory) werden für Plattensysteme eingesetzt.

Neue Technologien für Datenstationen und Drucker führen zu besseren Geräten mit hoher Zuverlässigkeit bei höherer Leistung und niedrigerem Preis. Die Forschung auf diesem Gebiet ist breit gefächert und befaßt sich mit größeren Anzeigekapazitäten, Flachtafel-Anzeige, verbesserte, mehrfarbige, graphische Darstellung und Sensorentasten-Eingabe. Die Mikroprozessor-Technologie wird auch für erweiterte graphische Darstellung und Editiermöglichkeiten in der Textverarbeitung eingesetzt, wodurch sich kostengünstige Lösungen erreichen lassen. Weitere Terminals für kundenspezifische Anwendungen im Banksektor und Flugverkehr werden entwickelt.

Sparfaktor Glasfaser

Optische Datenverbindungen werden für systeminterne wie auch externe Verbindungen breite Verwendung finden. Optische Leitfasern basieren auf der Erkenntnis, daß ein Lichtstrahl, welcher auf eine Glasfaser projiziert wird, sich weiter propagiert, solange der Eingangswinkel flach genug ist. Wenn die Faser dünn genug ist, wird sie biegsam. Durch Verbesserungen in der Qualität der Fasern, Laser, Leuchtdioden und Photozellen wird es heute sinnvoll, Licht über Distanzen von mehreren Kilometern zu übertragen. Die äußerst dünnen und leichten Leitfaserkabel ergeben eine effiziente Verbindung zwischen Computerkomponenten. Unter Verwendung von monochromatischem Licht, durch welches die Streuung vermieden wird, kann eine sehr hohe Übertragungsrate erreicht werden. Dadurch kann eine optische Verbindung die Übertragungskapazität von mehreren, wesentlich dickeren elektrischen Kabeln aufnehmen.

Die optische Übertragung bringt viele Vorteile. Sie verursachen keine meßbaren Geräusche und Störsignale, wodurch keine Radiostörungen auftreten. Sie ist gegen unbefugtes Anzapfen oder andere Auffangmethoden relativ gut geschützt. Sie resultiert in einer galvanischen Trennung zwischen den verschiedenen Komponenten eines Großsystems, wodurch sich teure Erdungssysteme eliminieren lassen. Durch das geringe Gewicht und kompakte Dimensionen lassen sich auch bei den Installationskosten Einsparungen erzielen. Einer der wesentlichsten Vorteile für die Zukunft liegt wohl darin, daß zur Herstellung lediglich Sand anstelle des schwindenden Kupfers oder anderer weniger leitfähiger Metalle benötigt wird.

III) Architektur

Neue Komponenten stellen den Computerarchitekten immer wieder vor die faszinierende Aufgabe, die verfügbare Technologie den Bedürfnissen der Benutzer anzupassen. Mikroprozessoren werden wegen ihren geringen Kosten hohen Zuverlässigkeit und Flexibilität immer häufiger verwendet. Wenn sie als Universalrechner eingesetzt werden, so stellen sie lediglich einen zusätzlichen Punkt auf der Preis-/Leistungs-Skala dar, die Minicomputer und Zentraleinheiten einschließt. Durch die niedrigen Kosten können sie für Anwendungsbereiche eingesetzt werden, die vordem unerreichbar waren. Als Universalrechner benötigen sie wahrscheinlich ebenso aufwendige Softwareunterstützung, wie sie den bekannt hohen Anteil der Kosten bei ihren größeren Brüdern ausmacht. Zehn Zeilen ausgereifter Software kosten mehr als ein Mikroprozessor. Andererseits können Mikroprozessoren in größere Systeme eingebettet werden, wo sie nun nicht mehr als Universalrechner verwendet werden. Es ist vor allem diese "versteckte" Anwendung, von der man sich so viel verspricht.

In der Anwendung von Multi-Mikros zum Bau einer Zentraleinheit, mit einer Leistung, die weit über jener eines einzelnen Mikroprozessors liegt, haben unsere Forschungs-Ingenieure besonders gute Erfolge erzielt. Dieses System ist auch zuverlässiger als dies mit der vorgängigen Komponentenarchitektur erreicht werden konnte, weil sich mit Mikroprozessoren die Redundanz und Selbstüberwachung wesentlich einfacher implementieren lassen. Es ist wesentlich günstiger herzustellen als ein herkömmlicher Prozessor mit vergleichbarer Leistung. Die schwierigste Auflage bestand darin, daß der neue Computer die Applikationsprogramme und Systemsoftware einer bestehenden Computerfamilie (Sperry Univac 1100) ohne Änderung übernehmen mußte.

Multimikro-Architektur und VLSI-Schaltkreise erweitern die Möglichkeiten, Prozessoren für spezielle Aufgaben zu dedizieren. VLSI eignet sich besonders für wissenschaftliche Supercomputer. Multimikros eignen sich vor allem für Anwendungsbereiche, wo eine hohe Parallelität ausgenutzt werden kann. Die Datenbankverwaltung ist ein gutes Beispiel solcher Spezialeinsätze, weil während Datenbankabfragen hohe Parallelität auftritt. Eine Kombination von Multimikros und VLSI-Technologie für intelligente Speicher kann eine effiziente, leicht zu handhabende Verarbeitung größerer, plattenresidenter Datenbanken erlauben.

IV) Software-Systeme

Die Verfügbarkeit ist jener Prozentsatz der Zeit, während der ein System verfügbar ist. Die Zuverlässigkeit reflektiert die Fehlerrate im System und zeigt die korrekte Handhabung an. Die Schnelligkeit, mit welcher Störungen behoben werden können, bezeichnet die Wartungsfreundlichkeit. Wegen der großen gegenseitigen Abhängigkeit der bestimmenden Faktoren werden diese Konzepte oft als Ganzes weiterentwickelt. Um eine hohe Verfügbarkeit und Zuverlässigkeit bei geringem Wartungsaufwand zu erreichen, werden zukünftige Produkte weit mehr Möglichkeiten zu Fehlererkennung, Diagnose, Fehlerisolation, Wiederanlauf und Fehlerüberbrückung enthalten. Ein wesentlicher Aspekt für die Implementation dieser Ziele bleibt die Auftrennung der Hardware und Software in Moduln. Jeder Modul muß so konstruiert werden, daß die Komplexität möglichst gering ist, und daß der Zugriff auf gemeinsame Daten eingeschränkt werden kann. Hardware und Software müssen hier zusammen entwickelt werden, damit diese Modularisierung erreicht und ausgereift werden kann.

Der vorsätzliche, unbefugte Zugriff auf computergespeicherte Daten beziehungsweise dessen Verhütung, wird in den kommenden Jahren ebenfalls große Aufmerksamkeit auf sich ziehen. Der Schutz der Persönlichkeit ist ein juristisches und soziales Anliegen, das sich damit auseinandersetzt, welche Rechte der Betroffene gegenüber seinen persönlichen Daten besitzt, und welche Verantwortungen und Verpflichtungen bei jener Partei liegen, die auf diese Daten zugreifen kann. Sicherheit befaßt sich vorwiegend mit der Aufgabe, unbefugten Zugriff auf Daten zu verhindern. Die Computerindustrie ist vor allem an den technischen Aspekten dieses Problems interessiert. Eine der Hauptaufgaben der 80er Jahre wird sein, die Systeme (und Netze) mit den dazugehörigen Programmen und Daten sowie den gemeinsam benutzten Einrichtungen vor Mißbrauch zu schützen. Darin eingeschlossen sind die physischen Installationen, die Personalstruktur (Personal- und administrative Weisungen), Hardware, Datenfernverarbeitungsleitungen und Software. Die Sicherheit der Informationen im System ist unabhängig von der Konfiguration und den Programmiermöglichkeiten und nur durch eine Kombination von Schutzmaßnahmen erreichbar.

Der Manager-Operator

Vor zehn Jahren waren Systeme mit Systemkonsolen noch selten, und zur Benutzung des Systems wurden ausgebildete Programmierer und Operators benötigt. Heute sind Systemkonsolen üblich, und der Operator braucht nicht im selben Maße ausgebildet zu werden. Die zukünftigen Bediener der Systeme werden Angestellte und Manager sein. Es wird sie nicht interessieren, ob das System auf Bausteinen basiert und welche Elektronenstrahl-Lithographie und VLSI-Technologie verwendet wird. Sie sind lediglich an der Benutzung des Systems und der Erledigung der Arbeit interessiert.

Mit der Entwicklung der Spracheingabe greift der Computer tiefer in unser tägliches Leben ein. Durch die Sprachverbindung Mensch/Maschine wird die Computertechnologie einen neuen Höhepunkt erreichen. Ein ausgedehntes Forschungsprogramm läuft in dieser Richtung, und die Prognosen sind vielversprechend. Die Ingenieure haben festgestellt, daß es einfacher ist, einen Computer zum Sprechen als zum Hören zu bringen. Sprachausgabe kann für benutzerintensive Applikationen verwendet werden. Sprachausgabesysteme erzeugen natürlich tönende Sätze als Antwort auf eine Touch-Tone* Telefonanfrage. Diese Geräte verwenden Wörter und Sätze, die von einem ausgebildeten Sprecher stammen und in digitaler Form im Computer gespeichert werden. Je nach Befehl werden die entsprechenden Wörter zusammengefügt und über ein Telefon oder einen Lautsprecher ausgegeben. Neue Speichermethoden erlauben das Aufzeichnen vieler Wörter und Sätze zu günstigen Kostenbedingungen.

Ein wesentliches Hindernis in der Verbindung Mensch/Maschine besteht darin, daß die Kommunikation nur mittels Tastatur oder anderer mechanischer Geräte möglich ist. Das Ziel ist eine menschenfreundliche Eingabemöglichkeit durch Spracheingabe. Wir haben bereits mit einer Methode Erfolge erzielt, die auf sprachlichen anstelle von akustischen Modellen basiert. Damit wird eine erhöhte Unabhängigkeit vom Sprecher erreicht. Das System basiert auf der Verwendung zusammenhängender Worte und Sätze, damit der Sprecher keine unnatürlichen Pausen einlegen muß. Unser Versuchssystem im Labor hat eine Genauigkeit von rund 90 Prozent bei einem Vokabularumfang von etwa 100 Wörtern, einer Grammatik für sieben Satzstrukturen wie zum Beispiel "transfer line seven to station twenty-three" oder "weather for Minneapolis" und erbringt auch beim Verstehen never Sprecher (männlich) eine recht gute Leistung, ohne daß diese zuerst ausgebildet werden müssen. Wir erwarten, daß in verschiedenen Applikationen die eingetippten Sätze bald durch gesprochene Befehle abgelöst werden.

Obwohl die Technologien von Datenfernverarbeitung, Datenbankverwaltung und Distributed Processing rasche Fortschritte machen, bleibt noch viel Raum für Verbesserungen, um diese auf einen technisch hohen Stand zu bringen. Die Fernverarbeitungsbenutzer werden weiterhin der Entwicklung von Kommunikationsnetzwerken großen Wert beimessen, und die Schlagworte wie Session Protokoll und Schnittstelle werden zu geläufigen Beiworten werden. Die Telefongesellschaften und andere Unternehmen, die Leitungsnetze steuern, bemühen sich, den Benutzern vermehrte Übertragungsmöglichkeiten auf dem öffentlichen Sprechnetz anzubieten. Satelliten-Netzwerke werden vermehrt zur Anwendung kommen, damit die vielfältigen Probleme der Erdverbindungen umgangen werden können.

Bei der Datenbankverwaltung wird der Benutzerfreundlichkeit und Datenintegrität ein stärkeres Gewicht beigemessen werden. Einheitliche, natürliche und einfache Schnittstellen für Abfragen, Mutationen und Auswertungen werden entwickelt Die Schnittstellen werden den Bedürfnissen verschiedener Benutzerklassen angepaßt. Wir haben ein einheitliches Datenmodell entwickelt, das die Vorteile der CODASYL-Netzwerkstruktur und der Relationsstruktur verbindet, jedoch mit dem heutigen System kompatibel ist, eine höhere Leistung erbringt und leichter zu verwalten ist.

Viele Benutzer der 80er Jahre werden zum Schluß kommen, daß die administrativen Kosten der verteilten Intelligenz jene Vorteile zunichte machen, die durch kostengünstige Hardware geschaffen werden. Der Grund liegt darin, daß Applikationsprogramme, die die komplexen und interaktiven Strukturen der verteilten Intelligenz bewältigen können, sehr aufwendig in der Entwicklung sind, wenn dafür die bestehende Software von Kleincomputern verwendet werden muß.

Die komplexen Softwarepakete, die die Online-Transaktionsverarbeitung auf gemeinsamen Datenbanken mit hoher Leistung und Integrität ausführen, müssen auch auf die kleineren Systeme ausgedehnt werden. Es kann vom Benutzer nicht verlangt werden, daß er seine Organisation umkrempelt, um eine neue Technologie verwenden zu können. Das Konzept der verteilten Intelligenz muß verfeinert und die Bedürfnisse und Strukturen der Benutzer vermehrt berücksichtigt werden.

Der Arbeits-Administrator

Viele dieser Anregungen von Seiten der Benutzer, wie verteilte Intelligenz, Sicherheit, Verfügbarkeit, Zuverlässigkeit, Wartbarkeit, Programmverwaltung, Online-Testing, Datenintegrität und Datenschutz werden heute als Einzelprobleme behandelt. In der Zukunft müssen diese Benutzerwünsche im Rahmen eines integrierten Datenverarbeitungssystems verstanden werden. Für den typischen EDV-Benutzer besteht seine Arbeit aus einer Anzahl von Applikationen.

Weil jedes Anwendungsgebiet seine eigenen Bedürfnisse aufweist, ist die Schaffung eines "Arbeits-Administrators" wünschenswert, um dem Benutzer die Beschreibung seiner Anforderungen und Regeln für eine wirksame Verarbeitung an das System zu ermöglichen. Arbeitsbeschreibungssprachen werden entwickelt, um die Arbeitsabläufe, Ziele, Verteilung, Kontrolle und Datenfluß innerhalb des Systems zu beschreiben. Es scheint möglich, aus diesen Definitionen Programmnetzwerke zu generieren, durch welche die Arbeitseinheiten geschleust werden. Dadurch kann auf applikationsspezifische Eigenschaften Rücksicht genommen werden. Eine solche Struktur bringt auch Leistungsvorteile, indem sie die Arbeit und den Datenfluß auf die Bedürfnisse des Benutzers zuschneidern kann.

V. Schlußfolgerung

Die gegenwärtige Forschung auf sämtlichen technischen und systemorientierten Computergebieten zeigt, daß der rapide Fortschritt, der während der letzten 30 Jahre zu ständigen Verbesserungen des Preis-/Leistungsverhältnisses führte, auch in den 80er Jahren weitergehen wird. Die qualitativen Verbesserungen werden den Computer dem Endbenutzer näher bringen, und die Computerindustrie wird sich vermehrt bemühen, direkt auf die Bedürfnisse der Benutzer einzugehen.

*Touch-tone ist ein eingetragenes Warenzeichen der American Telephone and Telegraph (AT & T.) Co., Inc.

*Henry L. Apfelbaum und seine Mitarbeiter verfaßten diesen Beitrag als Referat zu einem im Mai in Zürich veranstalteten Symposium der Sperry Univac. Das Tagungsthema war: Trends in Computer-Technologie. Henry L. Apfelbaum ist wissenschaftlicher Leiter für Technologie-Planung bei Sperry Univac-USA.