Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

06.04.1984 - 

Symposion "Trends in der Informations- und Kommunikationstechnik":

Den Computer kann man bald vergessen

In einer Falle, warnte der amerikanische DV-Unternehmensberater N. Richard Miller. könnten sich diejenigen wiederfinden, die verlockenden Komplett-Offerten erliegen und sich auf einen Hersteller festlegen lassen. Miller sprach auf einem Symposion mit dem Titel "Richtungsweisende Trends in der Informations- und Kommunikationstechnik" zu dem Thema "Basis-Technologien für die Achtziger". Dabei füllte Miller einige der zwar klaren, aber auch nur grobgestalteten Konturen unserer DV- und Info-Welt von morgen mit Struktur und Farbe.

Miller sagte für die kommenden Jahre voraus, daß die Zahl der mit Informationsbearbeitung beschäftigten Menschen allein in den USA von etwa 50 Millionen 1985 auf etwa 65 Millionen 1990 ansteigen wird. Und diese Leute werden zusehends mehr "Einbenutzersysteme" (vom dummen Terminal bis zur raffinierten Tischcomputeranlage) nutzen, nämlich 1990 schon rund 22 Millionen Stück. Eine Zahl, die erst dann ihre wahre Dimension zeigt, wenn man ihr die Vergleichszahlen für 1982 gegenüberstellt: magere vier Millionen.

Doch auch 1990 wird erst jeder dritte der Informationsarbeiter "seinen" persönlichen PC haben. Der PC-Boom wird also zügig weitergehen.

Dieser Boom ist durch die genannten 22 Millionen Maschinen obendrein noch gar nicht von beschrieben. Denn, so fand Miller bei seinen Marktstudien heraus, 1990 wird es noch weitere 30 Millionen Prozessoren und Terminals im Privatbereich geben, so daß die Gesamtzahl in jenem Jahr mehr als 52 Millionen Einheiten erreichen wird. 1982 lag sie bei gut sechs Millionen. Dazu Miller: "Jedesmal, wenn wir unsere Tabellen aktualisieren, müssen wir unsere Zahlen nach oben korrigieren."

Immer mehr Funktionen

Nicht nur die Zahl der computerisierten Arbeitsplätze pro Geistesarbeiter wird in den nächsten Jahren steil ansteigen, zusätzlich werden auch die "Fähigkeiten" dieser Maschinen immer weiter wachsen. Denn die Zahl der Transistoren auf einem einzelnen Chip, sie liegt heute typisch bei vielleicht 10 000 bis 100 000, dürfte laut Miller bis 1990 noch um etwa den Faktor sieben zunehmen. Damit werden die Rechner, zumal sie auch immer schneller arbeiten dürften, mehr und mehr "Funktionalität" bieten und sich schon bald von den heutigen Modellen ebenso deutlich unterscheiden wie diese ihre Hobby-Vorläufer von 1975 hinter sich gelassen haben.

Diese gegenläufigen Trends, was Preis und Leistung der Chips betrifft, illustrierte der Marktbeobachter aus Pennsylvania am drastischen Preisverfall der bisherigen Mikroprozessortypen, die alle jeweils um Faktoren zwischen zehn und 100 billiger wurden. Miller daher: "Den 32-Bit-Mikroprozessor Intel 432 wird es 1986 für etwa 20 Dollar geben. Und diese Chip ist das CPU-Äquivalent eines IBM/370-Mainframes".

Während einerseits die Preise purzeln, geht andererseits der Trend zu immer höheren Integrationsgraden. Miller sieht bereits 48- sogar 64-Bit-Mikros am Horizont erscheinen, die ihrerseits wieder dafür sorgen werden, daß uns die Computerwelt eine grundlegende berufliche wie private Neuorientierung abverlangen wird.

Gedächtnis zum Discount-Preis

Diese Neuorientierung wird auch aus einer anderen Ecke her erzwungen. Die billigen Prozessoren für jedermann werden nicht nur unerwartet rasch in bisherige Mainframe-Leistungsklassen hineinwachsen, sie werden auch - sowohl im Hauptspeicher als auch in der Peripherie - rasch wachsende Datenvolumina zur Verarbeitung vorfinden. Denn die Preise für je 1-MB-Hauptspeicher sieht Miller von heute noch mehr als 3000 Dollar bis 1986 bereits auf ein Drittel sinken - und der Preis-Trend gehe weiter abwärts. Zumal die neuen 256-KBit-RAMs (und ihre schon erwarteten, noch dichter gepackten Nachfolgetypen) immer mehr Bits pro Dollar bieten.

Bei den peripheren Speichern erwartet der Technologie- und Marktbeobachter neue Dünnfilmplatten mit Dünnfilm-Schreib-/Lese-Köpfen und vertikalen Aufzeichnungsverfahren. Diese Techniken sollen in ihrer Kombination eine deutliche Steigerung der Aufzeichnungsdichte ermöglichen, zumal sie auch noch um neue Kodierungstechniken und um "intelligente" Steuerungseinheiten für die Laufwerke ergänzt werden sollen.

Außerdem, so Miller, erscheinen schon jetzt die ersten optischen Speicherplatten, von denen eine 8-Zoll-Konfiguration glatt 20 Gigabyte aufnehmen soll. Allerdings sind die ersten dieser Platten noch nicht löschbar, was sie nur für Archivierungszwecke geeignet erscheinen laßt. Bald allerdings - also wohl in zwei bis drei Jahren - wird auch mit dem Erscheinen löschbarer Opto-Platten gerechnet, die dann völlig neue Dimensionen der Datenspeicherung eröffnen könnten.

Zwei Hardwaretrends seien kurz angesprochen: Einmal die Tendenzen bei den Anzeigeeinheiten, zum anderen die Entwicklungslinie bei den Druckern.

Miller erwartet Punkt für Punkt von adressierbare, hochauflösende Bildschirme, die auch die originalgetreue Wiedergabe von "Dokumenten" gestatten sollen - und das bei ebenfalls fallenden Preisen und schrumpfenden Ausmaßen. Dabei sollen diese Bildschirme "intelligenter" als die heutigen sein, denn sie werden "multiple scrolling windows" und kombinierte Text-/Grafik-Darstellungen erlauben; also wesentlich zur Verbesserung der Schnittstelle zwischen Mensch und Maschine beitragen.

Im Bereich der Drucker sollen die Weichen in Richtung hochauflösende Laserdrucker zu Billigpreisen gestellt werden, wobei die Leute an den entscheidenden Stellhebeln wieder einmal die Japaner sein dürften: Sie vor allem brauchen derartige Drucker, um ihre komplizierten Schriftzeichen besser darstellen zu können.

Der Wettbewerb, meint Miller, soll bald zu Druckern fuhren, die pro Stunde 200 bis 3000 Seiten ausstoßen und "sehr vernünftige Preise" haben. Daraus werde folgen, man werde Bücher und andere Publikationen digital speichern, mit etwa 30 bis 600 Seiten pro Minute Datenrate übertragen, lokal erneut speichern und sich erst dann ausdrucken lassen, was immer man längerfristig "schwarz auf weiß" besitzen möchte.

Maschinen und Programme entkoppelt

Als Folge der geschilderten Trends erwartet Miller, die bekannten Hersteller von herkömmlicher Computermaschinerie und die Büromaschinenanbieter werden alsbald näher zusammenrücken und sich auch mit Firmen aus dem Telekommunikationsbereich (Daten und Stimmen) zusammentun. Denn die Faktoren, die für Erfolg im Wettbewerb maßgeblich sind, werden sich grundlegend ändern".

Während die Anbieter herkömmlicher Host-Rechner versuchen werden, mit ihren eigenen Betriebssystemen, ihren eigenen Netznormen und auf der Basis der immensen Anwendersoftware-Investitionen ihrer Kunden fortzubestehen, dürfte den Wettbewerb bei allen anderen Systemkategorien vor allem die Tatsache prägen, daß Hardware und Software entkoppelt werden.

Im Mini- und Mikromarkt sollen verschiedene Betriebssysteme zu De-Facto-Normen werden, und diese durften teilweise von unabhängigen SW-Häusern (die auch "vertikale", branchen- und anwendungsspezifische Software schreiben) geliefert werden, teils auch von Halbleiterherstellern wie Intel oder Motorola. Denn die propagieren ja ihre eigenen Betriebssysteme zusammen mit ihren Mikrocomputer-Systemboxen. Diese Entkopplung", freut sich Miller, "bringt dem Anwender mehr Wahlmöglichkeiten, mehr Wettbewerb und bessere Preise". Aber er werde dabei aufpassen müssen: Denn nur, wenn er zu solchen Kombinationen von Hardware und Betriebssystem greife, die allgemein das Feld beherrschen, könne er sicher sein später ein Maximum an Anwendersoftware zur freien Wahl zu haben. Darauf aber werde es, so Miller, im Zeichen weiterhin hoher Preise für Anwendersoftware; auch künftig sehr stark ankommen.

Mit dem PC an die Datenbank

Hard- und Software jeglicher Leistungsstufe wird ohne Zweifel immer dann noch um ein gewichtiges Quantum attraktiver, wenn der PC vor Ort große, zentrale Datenbestände eines Host ansprechen kann. Und weil speziell die Hersteller von Datenkommunikationssystemen das erkannt haben, werden sie, meint Miller, auf diesem Felde wohl sehr bald sehr aktiv werden.

Sie werden, folgert der Fachmann daraus, deshalb insbesondere Protokollumsetzer anzubieten trachten, deren wichtigste Funktion für Miller übrigens darin liegen wird, dem Anwender ein Stück mehr an Freiherr zu geben. Denn solche Umsetzer werden ihm mehr Wahlmöglichkeiten zugänglich machen, wenn er sein ganz spezielIes System optimieren will. Und sie dürften ihn teilweise auch noch von der Last umständlicher Neuprogrammierungsarbeiten befreien, wechselt er irgendwann einmal einen seiner Hardwarelieferanten: Denn sie schlagen ja Brücken zwischen den Systemen. Miller: "Protokollkonverter bieten (eben) die Möglichkeit, ein System auf der Basis unterschiedlicher Lieferanten und Protokolle zu entwerfen."

Computer- und Kommunikationssysteme werden zusammenwachsen

Gerate wie die genannten Konverter können also, meint Miller, dazu dienen, den Benutzer von der eingangs schon skizzierten Gefahr zu bewahren, auf Gedeih und Verderb einem einzigen Lieferanten sich ausliefern zu müssen.

Und diese Gefahr scheint akut zu sein, werden die Unternehmen in den nächsten Jahren nach Millers Diagnose doch nicht umhin können, ihre Computer-, Kommunikations- und Bürosysteme miteinander zu verschmelzen: Wohl nur für die, die das effektvoll zustande bringen, hat die Zukunft eine Zukunft.

Die Haupt-Triebkraft in Richtung der skizzierten Integration sieht Miller von Kommunikationsformen vom Schlage AT&T oder Siemens ausgehen. Und "dabei wird zu Recht den lokalen Telefonnebenstellenanlagen (PABX) nachgesagt, sie seien das kritische Element bei den Büroinformations- und Kommunikationssystemen", sagte der Referent. Er machte deutlich, daß die Wahl des Nebenstellensystems "a very long-term commitment" sei, den Kunden also stark festlege. Und so sei es auch kein Wunder, spann Miller den Faden weiter, daß IBM sich jetzt so intensiv um dieses PABX-Business bemühe.

Warum die lokale Telefonanlage so sichtig ist, erläutert der US-Fachmann so: PABX und seine Interfaces werden bald alle Arten von Daten durchschalten und verarbeiten und selbst für lokale Computernetze - die seinen übrigens bloß bei schwerer Belastung, also bei starkem Datenverkehr, gerechtfertigt - den Weg nach draußen öffnen.

Warum aber lohnen Lokale Netze (LAN) vom Typus Ethernet sich nur bei sehr starker Auslastung? Weil, sagt Miller, die Schnittstellenhardware immer noch sehr teuer ist; sie kann mehr kosten als das eigentliche Terminal, das sie an den Kabelstrang koppeln sollen.

Ein wenig konkreter ging Miller auf Breitbandlokalnetze, wie etwa das Wang-Netz es ist, ein. Zwar, so sagte er, spreche Wang von niedrigen Preisen für die Netz-Interfaces aber, die Systemintegrations- und Steuerungsprobleme dabei sind beachtlich".

Im übrigen erwartet er von den bislang noch schweigenden Giganten IBM und AT&T jeweils eine Ankündigung eines datenorientierten "Token"-Netzsystems in Ringkonfiguration. Aber egal welche Offerten noch kommen mögen, Miller empfiehlt Abwarten: "Als Anwender würden wir uns nicht beeilen, LAN-Pioniere zu werden.

Denn die Integration der Anwendungen wird ja intensive weitere Programmentwicklungen erforderlich machen, sollen die LANs wirtschaftlich operieren.

Mit dem Computer zu sprechen, um das nächste Thema des Referenten anzuführen, ist laut Miller kein Problem - beschränkt man sich darauf, allein die Maschine reden zu lassen und ihr still zuzuhören. Denn die Sprachsynthese wird billiger und qualitativ immer besser. Ganz anders hingegen bei der automatischen Erkennung gesprochener Texte: Knappe Sätze und Einzelwörter können die Maschinen heute schon verstehen, aber die heutigen Lösungsansätze, so Miller, bei denen praktisch bloß ein gespeichertes Sprachmuster mit einem aktuellen, digitalisierten Stimm-Input verglichen wird, "werden uns nicht erlauben, auch bloß halbwegs in Echtzeit fließende Texte zu verstehen." Weder in der englischen Sprache, noch (und da schon gar nicht) im komplizierteren Deutsch. Wie weit wir in punkto Spracherkennung heute noch vom Utopia mancher Science-fiction-Autoren entfernt sind, verdeutlichte der Systems-Referent an zwei Beispielen.

IBM habe erstens ein auf 2000 Wörter ausgelegtes System entwickelt, das auf einer 370/168 laufe und über 90 Prozent Treffsicherheit erreiche. Nur: Es braucht zum Erkennen der Bedeutung des Gesprochenen 2000mal länger als die eigentliche Sprechzeit.

Will man, zweitens, Einzelwörter sprecherunabhängig erkennen, so braucht man laut Miller dafür etwa 5 MIPS (Millionen Instruktionen pro Sekunde) Computer-Power. Sollen Wörter im Zusammenhang erkannt werden (bei dem System bekanntem Sprecher), so muß man etwa 50 MIPS einsetzen. Und gar die störungsfreie Erkennung fortlaufend gesprochener Texte werden wohl 1000 MIPS und mehr erfordern.

In einem weiteren Abschnitt seiner Ausführungen ging Miller auf die sogenannte "Office Automation" oder auch Büroautomation ein. Dabei wurde einmal mehr nur eines deutlich: Was Büroautomation ist wozu sie dienen soll und wie sie einzuführen sein wird - das alles ist immer noch ein dunkles, verhangenes Bild mit vielen Fragezeichen.

Nicht zuletzt, weil offenbar immer noch nicht so richtig klar ist - und möglicherweise nie richtig klar werden wird - was denn ein erfolgreicher Manager, auf dessen Entscheidungen letztlich das Gedeihen eines Unternehmens gründet, beim Managen eigentlich tut und auf welche Weise er welche Inputs gewinnt, verknüpft und als Entscheidungen wieder ausspuckt.

Vorboten kommender Entwicklungen im Bereich Büroautomation sind beispielsweise Computerkonferenzsysteme sowie die guten alten Textverarbeitungshilfen: daneben Datenbankabfragesysteme und anderes mehr. Doch sie alle (und weitere Funktionen) zu einem konsistenten System zusammenzuführen "wird eine ernste Herausforderung sein", wie Miller sagte. Zumal es überall an Kommunikationsnormen fehle und etablierte Anbieter überdies noch eifersüchtig bemüht seien, die Produkte konkurrierender Anbieter strikt von jeweils ihren eigenen Geräten und Systemkomponenten fernzuhalten.

Wie steht es um die Kosten? - Angenommen, ein multifunktionales Büroautomationssystem könnte etwa 1986 installiert werden - dann, so Miller, hieße das in einem 600-Mann-Büro, pro Mitarbeiter seien etwa 5000 bis 7000 Dollar an Equipment zu installieren. Dabei seien eindeutig zwei Sektoren die Haupt-Dollarfresser: die Kommunikation und die Datenspeicherung.

Den Computer selbst kann man, scheint's, glatt vergessen.