Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

27.05.1983 - 

Im Zeitalter der VLSI-Techniken ist der Jumbo nur elegantes Beiwerk:

Schaltkreise bestimmen die Computer-Zukunft

FRANKFURT - Ohne jede Einschränkung ist die Technologie für integrierte Schaltkreise die wichtigste Einzelentwicklung, die hinter den Änderungen des heutigen Computermarktes steht. Diese Feststellung traf Willi Zachmann. Vice President und "Technologie-Papst" der International Data Corporation (IDC) aus Framingham/Massachusetts, Jetzt bei einer "Briefing Session" des amerikanischen Marktforschers in Frankfurt. Der Deutsch-Amerikaner stellte in seinem Referat, das hier gekürzt wiedergegeben wird, die Zusammenhänge einzelner Chip-Generationen mit der Zukunft der Datenverarbeitung, und hier insbesondere der Mikrocomputersysteme her.

Bei der Informationstechnologie waren integrierte Schaltkreise so etwas wie ein nachgezogener Urknall, der eine Revolution mit all ihren besonderen Möglichkeiten, ihren fundamentalen Möglichkeiten auslöste.

Ich vertrete den Standpunkt, daß das Gerede von ersten, zweiten, dritten, vierten oder gar fünften Computergenerationen sich eher auf die Implementierungsgenerationen bezieht. Das waren keine Architekturgenerationen. Was die Architektur von Informationssystemen angeht, bewegen wir uns im Augenblick eigentlich erst am Anfang der zweiten Generation.

Veränderungen in der zugrunde liegenden Schaltkreistechnologie haben das Potential, das der Markt bietet, überhaupt erst offengelegt. Erst durch Transistoren und diskrete Komponenten, die zwar in den späten fünfziger Jahren auf den Markt kamen, ihren Einfluß aber erst in den sechzigern geltend machten, erst durch diese wurde der Mainframecomputer ermöglicht - und zwar als etwas ganz anderes als die hochspezialisierten Mathematik-orientierten Rechner. Diese Technologie machte den Mainframe zunächst für große Unternehmen und dann für mittlere Unternehmen erschwinglich. Kommunikation in diesem Umfeld entstand, indem man an einen großen zentralen Computer immer mehr Terminals anhing. Ursprünglich war dies der Prototyp der Datenfernübertragung.

Zeitalter der VLSI-Technik

MSI oder Medium Scale Integration, dann schließlich LSI oder Large Scale Integration, machten in den siebziger Jahren den Minicomputer möglich; in diesem Zeitraum - eigentlich in den späten Sechzigern und den frühen Siebzigern - gab es eine entsprechende Verschiebung im Markt. Durch MSI und LSI schafften es einige Unternehmen, viel effektiver und schneller in den Markt einzudringen, als es je einer ihrer Vorgänger vermochte. Gleichzeitig mußten einige der bisher aktiven Hersteller einsehen, daß sie es versäumt hatten, diese neuen Technologien ausreichend anzuwenden, so daß sie nach und nach von der Bildfläche verschwanden.

Inzwischen ist nun in den Achtzigern das Zeitalter der VLSI-Schaltkreise angebrochen. Sahen wir in den Siebzigern den Übergang vom klassischen "Mainframe- und Terminal"-Verhältnis in eine Art DDP-Umgebung, so ist die derzeit neue Generation eine Art "Distributed Resources System", bei dem verschiedene Komponenten auf Mikroprozessorbasis derart kommunizieren können, wie wir es uns vor wenigen Jahren niemals hätten vorstellen können.

Systeme mit viel "Schnick-Schnack"

Wenn wir von Generationen bei Mikroprozessoren reden, so zeigt das unter anderem, daß die Geschwindigkeit, mit der wir uns von einer Mikroprozessorgeneration in die andere bewegen, ständig steigt und in den nächsten Jahren eher noch zunehmen wird Diese Aussage ist wichtig für die Hersteller dieser Produkte, denn sie beeinflußt entscheidend die Vermarktungschancen ihrer Produkte. Sie ist aber auch wichtig für die Anwender, denn die heutigen Systeme ändern sich schnell: Erfindungen, Leistungsverbesserungen, neue Features, aber auch viel Schnick-Schnack. Das Einfrieren etwaiger Kaufgelüste auf den Stand der aktuellen Technologie kann sich als verpaßte Gelegenheit erweisen; verpaßt für Hersteller, was zukünftige Produkte angeht; verpaßt für Anwender, indem man sich einer Technologie verschreibt oder verschrieben hat, die eventuell bald zum alten Eisen gehört. Als Beispiele seien hier die Z80 und 6502, aber auch die 6800 und ähnliche Prozessoren genannt. Diese Produkte werden schneller in der Versenkung verschwinden, als wir es uns noch vor wenigen Jahren vorstellen konnten

Neue Mikrogenerationen

Vor zwei Jahren noch hat man sich gefragt, warum irgend jemand schnellere Mikroprozessoren als den Z80 oder den 6502 brauchen würde. Inzwischen ist es so, daß Produkte auf der Basis dieser Prozessoren nur wenig Chancen haben, im großen Stil erfolgreich zu sein. Was gegenwärtig passiert, läßt sich mit einer Verschiebung dieser Teile in den Markt der billigen Low-End-Produkte umschreiben. Darüber hinaus werden sie für Peripherie und sonstige Produkte verwendet. Außerdem wird nicht mehr viel Software für solche Mikroprozessoren geschrieben. Das größte Problem stellt jedoch erst dann heraus wenn Anwender dieser Produkte aufsteigen oder wechseln wollen. Generell kann man sagen, daß die Firmen, die Erfolge mit derartigen Produkten hatten, im großen und ganzen einen steinigeren Weg gegangen sind als die Firmen, die den Markt gerade jetzt mit neuen Generationen von Mikroprozessoren angehen.

Software im Mittelpunkt

Die Gruppe der Intel 8086, der Motorola 68000 und ähnlicher Prozessoren haben typischerweise keinen besonders großen Zugewinn in Bezug auf Designvorteile. Sie stellen heute das absolute Minimum dar, was von einem ernstzunehmenden Produkt erwartet werden kann. Auch softwaremäßig stehen diese beiden Architekturen heute im Mittelpunkt; das heißt, die 8086-Familie und dir 68000-Familie sind die Basis neuer Softwareentwicklungen bei Mikroprozessorsystemen. Deren Architektur dürfte der Schlüssel für den Rest der 80er Jahre sein. Beide bieten Aufwärtskompatibilität und haben bereits eine ziemlich starke Position im Markt. Es gibt natürlich auch andere Mikroprozessoren in diesem Bereich, zum Beispiel den National Semi 1600 und den Zilog Z8000 aber zusammen bilden sie nur einen relativ geringen Teil des Marktes. Derzeit ist kein Hinweis ersichtlich, daß die beiden genannten oder andere Mikroprozessoren sich wesentlich gegenüber den 8086 und 68000 verbessern werden.

Einer der interessanten Gesichtspunkte her ist die Portable Software. Bei einer Konferenz während der Comdex stellten Sprecher verschiedene Betriebssysteme für Mikros vor und Sprachen dabei auch über die "Portability" von Betriebssystemen.

Was dabei verwirren könnte, ist die Tatsache, daß das wahre "Portability"-Problem eher zwischen Betriebssystemen gesehen werden muß als zwischen Mikroprozessorsystemen selbst denn es gibt nur zwei Architekturen, die gegenwärtig den Markt beherrschen. Eine Änderung dieser Situation scheint zwar möglich, aber in naher Zukunft nicht wahrscheinlich.

Geringe Produktionskosten

Selbst bei fortgeschrittenen Chips erfolgt schon ein Abwandern zu Billigsystemen. Diese Bewegung hat begonnen und beschleunigt sich noch, sie hängt aber andererseits auch schon mit der nächsten Welle von Mikroprozessoren zusammen. Hier spreche ich über die 186er,die 188er und die 286er von Intel, aber auch über die neuen 68000er.

Es gibt schon Produkte auf der Basis dieser neuen Prozessoren und diese Produkte sehen auch bereits so aus als stellten sie eine ernste Herausforderung dar, auch für die vorhin genannten. Dafür gibt es mehre Gründe: Zum Beispiel sind diese Teile alle aufwärtskompatibel. Und, sie haben darüber hinaus ziemlich günstige Preise. Auf der Basis von 1000 Stück kostet der 186 von Intel etwa 30 Dollar. Das ist der Preis den man auch für einen Z80 einschließlich der notwendigen supportchips zahlen muß, wenn er das gleiche leisten soll.

Die Entwicklung der Architekturen hin zu den Low-End-Sytemen wird also durch Mikroprozessoren in der Art der 186er und der 188er beschleunigt; und zwar weil diese geforderte Basisfunktionen wie zum Beispiel die direkte Speicherzugriffkontrolle auf den Chip verlegen. D. mit wird die Anzahl der Teile verringert und zu guter Letzt auch die Produktionskosten.

Mikrowelle überspült Minis

Bald wird es also Low-End-Systeme auf der Basis solcher Teile geben, de wesentlich erweiterte Funktionen oder Fähigkeiten haben, wie etwa mehr Adressierungsraum, schnellere Verarbeitung, bessere Graphic-Features und so weiter. Und, sie werden im direkten, auch im preislichen Wettbewerb zu Z80- oder 6502-Produkten stehen. Erst mit dieser Generation von VLSI-Mikroprozessoren überspült die Mikrowelle schließlich alle Straßen. Sie überspült die Straßen, weil die Vorgänger dieser Mikrosysteme und auch die Minicomputer nur so etwas wie reduzierte Sub-Sets von Mainframes waren. Jetzt hingegen stehen wir vor Produkten, die als Einplatzsysteme auf Mikroprozessorbasis in manchen Punkten mehr zu bieten haben als Mainframes.

Objekt orientierte Architektur auf Chipebene bringt zahlreiche Vorzüge, die unsere Denkweise darüber, wie Systeme aufgebaut sein müssen, ziemlich umkrempeln wird, wenn man erst einmal gelernt hat, mit solchen Systemen umzugehen.

Allroundchips aus der Schublade

Die Art der Architektur einer 432, aber auch die eines System /38 von IBM und durchaus auch anderer Produktankündigungen, die wir in nicht allzu ferner Zukunft von IBM erleben werden, wird eine Basis darstellen, von der aus wir operieren können. Sie wird gleichzeitig die Art von Architektur überflüssig machen, an die wir uns bisher gewöhnt haben Bewegung sehen wir auch auf dem Gebiet von Chipspeichern und Kontrollfunktionen, aber auch auf den Gebiet der architekturmäßigen Integration. Ich glaube, daß es bald Mikroprozessorchips geben wird, wo der Bus auf dem Chip ist. Es wird die Möglichkeit geben, einen Mikroprozessor dadurch zu konfigurieren, daß man die Designkomponenten so auswählt, wie man sie für ihre jeweilige spezifische Anwendung benötigt. Man braucht dann nicht mehr separate Teile zu kaufen und sie auf ein bedrucktes Board zu stecken. All dies reduziert die Produktionskosten und erhöht gleichzeitig die Fähigkeiten und Möglichkeiten, die in ein solches System eingebaut werden können. Hiervon ist natürlich auch die steigende Bedeutung von peripheren

Chips betroffen.

Neuentwicklung bei der Spracherkennung

Periphere Chips sind die integrierten High-level-Chips im Zusammenhang mit dem Mikroprozessor, die bestimmte Supportfunktionen liefern. Das schließt alle möglichen Arten von peripherem Support ein. Von ihrem Ursprung her sind periphere Chips all diejenigen, die zusammen mit dem Prozessor das ganze Produkt vollständig machen. Im Augenblick gibt es jedoch ganz neue Teile, die von den verschiedensten Halbleiterherstellern entwickelt wurden. Die Memories werden immer leistungsfähiger. Memories mit Fähigkeiten wie zum Beispiel relationalen Speichern oder assoziative Memorychips. Wir sind nicht mehr fern davon. Voice recognition oder Stimmerkennung und Stimmensynthese gibt es schon bei vielen Herstellern. Die Entwicklung auf diesem Gebiet geht wesentlich schneller voran, als wir es ursprünglich erwartet hatten.

Wir haben jetzt auch schon Netzwerk-Interface-Chips wie zum Beispiel den Zwei-Chip-Set Intel Ethernet Controller und den Seeq Ethernet Controller Chip. Übrigens gibt es eine Abmachung zwischen IBM und Texas Instruments, die darauf hinausläuft, ein Ring Interface Chip zu bauen. Zudem gibt es eine Reihe weiterer Aktivitäten von anderen Halbleiterherstellern, die durch einen hohen Grad von Integration auf den Chips Interfacekontrolle für lokale Netzwerke anbieten oder gar Datenbankprozessor-Chips. Intel hat vor kurzem einen Graphics-Chip und einen Textverarbeitungschip entwickelt. Im Bereich der Chips für lokale Breitbandnetze tut sich einiges; und es wird auch bald Sprachprozessorchips geben. Software auf Silikon setzt sich also immer mehr durch. All das reduziert natürlich die Kosten für ein solches System. Es kann auch bedeuten, daß damit die Kosten für den Endbenutzer sinken. Immer mehr funktionale Eigenschaften können einem System beigepackt werden.

Wenn man sich anschaut, was es bis 1985/86 für weniger als 5000 Dollar geben wird, dann ist das fast unglaublich. Wir sprechen über 1 bis 4 Millionen Instruktionen pro Sekunde oder sogar mehr Rechenkapazität; wir sprechen von bis zu 16 Millionen oder mehr Bytes Hauptspeicherkapazität; wir sprechen von 400 Millionen Bytes Direktzugriffsspeicher. Das ist mehr, als man in den späten Sechzigern sogar auf den großen Systemen hatte. All dies wird es auf einem Desktop geben, und das schon in ganz, ganz kurzer Zeit. Es gibt schon jetzt 5 1/4-Zoll-Winchesterplatten mit bis zu 140 Megabytes Speicherkapazität. Virtuelle Speicher werden bis in die späten 80er Jahre bereits ein Standard-Feature kleinerer Systeme sein, ebenso wie Communications, lokale Netzwerke, PBX oder andere Verbindungen, Datenbank-Support, und, nicht zu vergessen, wesentlich bessere Input-/Output-Fähigkeiten für das User-Interface. Die Maus hat jetzt schon die Kontrolle über den Cursor übernommen. Solche Dinge werden in einer unwahrscheinlichen Geschwindigkeit weiterentwickelt werden.