Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

13.03.1992 - 

NEUE HW-TECHNOLOGIEN

Hardware: Die Karten sind noch lange nicht ausgereizt

Sicher haben Sie diesen Spruch auch schon mal gehört, die Behauptung nämlich, künftig sei eigentlich nur noch die Software interessant. Während die Hardware bei der weiteren Entwicklung der Informatik keine besondere Rolle mehr spielen werde. Und sicher sind Sie auf dieses alte Märchen keine Sekunde lang reingefallen - oder vielleicht doch ein wenig? - Nun, dann lesen Sie doch bitte mal kurz, was für tolle Dinge allein schon in Sachen Hardware noch auf uns zukommen dürften.

Von CW-Mitarbeiter Egon Schmidt

Beginnen wir bei den Prozessor-Chips als den elementaren Grundbausteinen heutiger Rechner, so läßt sich ohne allzuviel Risiko prognostizieren: Von den heutigen Bausteinen wie etwa den 486ern von Intel, den 68040ern von Motorola sowie den diversen Varianten der Sun-Sparc- oder auch MIPS-RISC-Prozessoren et cetera werden schon bald wesentlich leistungsstärkere Intel- und RISC-Versionen herausgebracht werden, die statt heute rund ein bis zwei Millionen Transistorfunktionen fortan deren drei bis fünf Millionen auf einem Chip vereinen. Bereits heute sind gängige RISC-Ausführungen zur zeitsparenden, parallelen Bearbeitung der Programme in der Lage, wobei einerseits Fließband- beziehungsweise Pipeline-Techniken dem simultan-überlappenden Ausführen der Instruktionen dienen und somit bewirken, daß - bildlich gesprochen - möglichst mit jedem Maschinentakt ein fertig ausgeführter Befehl das Fließband verlassen kann. Gleichzeitig dient die parallele, Anordnung mehrerer, spezialisierter Bearbeitungseinheiten - wie etwa Ganzzahl-, Gleitkomma- und Adreßberechnungswerke - dem simultanen Abarbeiten mehrerer Befehle. Mit Superskalarität wird das Maß an zeitsparender Parallelarbeit noch weiter erhöht.

Folgen die Prozessor-Chips mit ihren wachsenden Transistor-Zahlen also einmal dem allgemeinen Trend der Speicher. Chips, die ja fortwährend feinere Strukturierungen erhalten und die mithin von Generation zu Generation mehr - und bald schon 64 Mbit - an Speicherzellen aufnehmen, so schlagen sie zum anderen noch eine ganz separate Entwicklungsrichtung ein.

Pro Sekunde zwei Milliarden Befehle

Denn anders als die jeweiligen Standard-Hauptspeicherchips werden die Prozessoren mit jeder neuen Generation ja auch noch immer schneller, wie nicht zuletzt die fortlaufend präsentierten Novitäten auf diesem Gebiet - siehe DECs Alpha-RISC-CPU - mit ihren partiell schon 200 MHz belegen. Und außerdem ist abzusehen, daß der aktuelle Prozessoren-Glaubenskrieg um RISC hier und CISC da alsbald an Heftigkeit verlieren wird, denn die Techniken konvergieren doch mehr und mehr zu Architekturen, die - mit jeweils verschieden gesetzten Akzenten - ein Optimum aus beiden Welten anstreben.

So sieht beispielsweise ein bekanntes Unternehmen für das Jahr 2000 schon Prozessor-Chips einer altbekannten, früher reinrassigen CISC-Familie voraus, die mit etwa 250 MHz arbeiten, die 100 Millionen Transistoren umfassen und die pro Sekunde zwei Milliarden Befehle ausfahren können.

Ein weiterer, unverkennbarer Trend läuft oberhalb der Ebene der einzelnen Chips gleichfalls direkt auf immer mehr Parallelität - und damit ebenfalls auf das zunehmend effizientere Nutzen der vorhandenen Zeit - hinaus.

Dieser Trend ist schon heute dort sichtbar, wo beispielsweise mehrere 486er zu leistungsstarken Servern für lokale Netze zusammengeschaltet werden und damit ein grobkörnig-paralleles System ergeben. Und er zeigt sich ebenso bei massiv-parallelen Supercomputern aus traditionsgebundenen Häusern wie etwa IBM, DEC oder auch Cray. Massiv-parallele Systeme scheinen denn auch die interessanteste Variante der allgemeinen Parallelisierungstendenz zu sein. Hier geht es um das Koppeln von Hunderten bis Tausenden separater Prozessoren samt lokaler Speichereinheiten zu schnellen Gesamtstrukturen, wie etwa Thinking Machines, DEC, Masspar und die Transputerhersteller Meiko und Parsytec und neuerdings eben auch der notorische Latecomer IBM mit seinen 6000er-RISC-Chips sie propagieren. Denn obwohl das Programmieren derartiger Zahlenfresser-Monster immer noch eine recht problematische Aufgabe ist, an der heute die besten Informatiker und Mathematiker rund um den Globus arbeiten, ist die Fachwelt sich inzwischen doch weitgehend einig: Massive Leistungssteigerungen bis in den Bereich der Billionen Gleitkomma-Operationen pro Sekunde, also bis in die Teraflops-Zone hinein, wird man wohl nur noch mit massiv-parallelen Computern erreichen können.

Und selbst wenn dies denkbar wäre: Wer sollte wohl jene immensen Summen aufbringen, die die kostspielige Einzel-Fertigung einiger weniger dieser Super-Super-Prozessoren verschlingen müßte? Während andererseits die vergleichsweise einfachen Rechen-Chips massiv-paralleler Systeme fast zu Spottpreisen geliefert werden? Entströmen sie den Produktionsanlagen doch ebenso zahlreich und regelmäßig, wie vor Weihnachten die Zimtsterne den Keksfabriken.

Neben den Prozessoren, bei denen übrigens auch Sonderentwicklungen wie etwa Signalprozessoren, aber auch Neuro- und Fuzzy-Einheiten rasch immer wichtiger werden, sind und bleiben Speicher aller Arten das zentrale Element schneller Computer. Hier stehen bei den typischen Hauptspeicher-DRAMs die 16-Mbit-Typen kurz vor der allgemeinen Markteinführung, während in den Labors wie etwa bei IBM/Siemens schon 64-Mbit-Varianten heranreifen und auch die ersten 256 MBit-Versionen immer deutlicher Gestalt annehmen. Wobei diese Chips übrigens mit Strukturbreiten von 300 Nanometern und kleiner hergestellt werden müssen, was vor allem die Technik der Reinraum-Fertigung, aber auch die der Belichtungsmasken, vor immense Herausforderungen stellen wird.

Am Horizont machen sich sogar schon erste Hinweise auf kommende 1-Gbit-DRAM-Chips bemerkbar, wie eine Meldung aus dem Hitachi-Konzern zeigt. Dabei ist hier von flach ins Substrat des Chips eingelassenen Elektroden die Rede; und von Gattern, die nur noch 300 Nanometer lang sein sollen. Erste Versuchsmuster einzelner dieser neuen Speicherzellen sollen bereits in einem Ultraviolett-Verfahren hergestellt worden sein, das Strukturdimensionen von bloß noch 100 Nanometern ermöglichen soll.

Die Technik der Speicher kommt aber nicht nur bei den Chips in raschen Schritten voran; auch bei den Plattenspeichern tut sich nun schon seit Jahren mit schöner Regelmäßigkeit Erstaunliches. Denn waren noch vor wenigen Jahren schuhkartongroße Boxen selbst dann schon ein recht ordentliches Angebot, wenn man in ihnen bloß magere 20 MB ablegen konnte, so demonstrierten Maxtor und Seagate, was heute dem Stand der Technik entspricht: nämlich ein Laufwerk im kompakten 3 1/2-Zoll-Format, das selbst nach der Formatierung - also quasi netto - noch stolze 1,24 GB aufnehmen kann. Und 5 1/4-Zoll-Laufwerke von Hitachi bringen es formatiert sogar auf knapp 2,9 GB, während heute bei Areal Technology wiederum gut 180 MB bereits in Notizbuchrechner-geeigneten Winzlingen des 2 1/2-Zoll-Formats Platz finden.

Jukeboxeinheiten in vielfältigen Varianten

Neben fest eingebauten Plattenlaufwerken finden mit Blick auf das Thema Datensicherheit auch herausnehmbare beziehungsweise auswechselbare Versionen immer mehr Freunde. Ein Beispiel für diese von Tandon populär gemachte Technik, die teilweise wohl auch für herkömmliche Disketten sowie für Datensicherungs-Bandlaufwerke eine spürbare Konkurrenz werden dürfte, ist eine 240 MB fassende Einheit der Firma Quantum, die übrigens mit Zugriffszeiten zwischen nur noch neun und zehn Millisekunden arbeiten soll.

Am oberen Ende der Speichersysteme findet man heute in vielfältigen Varianten Jukebox-Einheiten, bei denen eingebaute Handhabungsgeräte automatisch das jeweils gerade benötigte Speichermedium einem Archiv entnehmen und in das Laufwerk einlegen. Und auch sogenannte Drive-Arrays hochgradig ausfallsicherer Bauweise drängen immer stärker nach vorn, wie beispielsweise das "Iceberg"-Modell von Storage Technology erkennen läßt: Es basiert auf einer sinnvollen Gruppierung mehrerer Einzel-Festplattenlaufwerke, die die Daten redundant speichern, die auch bei den Zugriffszeiten Vorteile bieten und die - im konkreten Exempel -je nach Konfiguration zwischen 100 und 400 GB an Daten aufnehmen kann.

Von der Öffentlichkeit bislang wenig beachtet, bahnt sich auch bei Disketten eine interessante Neuheit konsequent ihren Weg. Und zwar sprechen wir hier von der sogenannten "Floptical" der US-Firma Insite, die eine bemerkenswerte Kombination von magnetischer Datenaufzeichnung und optischer Spurführung darstellt und die pro - formatierter - 3 1/2-Zoll-Diskette netto volle 21 MB abzuspeichern erlaubt. Wobei die entsprechenden Laufwerke außerdem auch herkömmliche 3 1/2-Zoll-Floppies beschreiben und lesen können.

Bei den rotierenden Speichermedien präsentiert die emsige Industrie in laufend verbesserten Ausführungen auch noch konventionelle Wechselplatten sowie sogenannte Bernoulli-Systeme und ähnliche; doch die meiste Aufmerksamkeit finden - abseits der herkömmlichen Disketten- und Festplatten-Einheiten - sichtlich die diversen optischen Plattenspeicher.

Magnotooptische Platten mit 1,3 GB Kapazität

Bei diesen Systemen treten neben die bekannten CD-ROM-Varianten sowie die nur einmal beschreibbaren WORM-Einheiten mehr und mehr die beliebig häufig neu beschreibbaren Laufwerke, für die beispielsweise ein 5 1/4-Zoll-System namens Tahiti II repräsentativ ist. Es arbeitet mit austauschbaren, beidseitig beschreibbaren Opto-Platten, die je 650 MB beziehungsweise 1 GB an Daten aufnehmen können. Und im Hause Sony spricht man sogar schon von einer Variante mit magnetooptischen Platten gleichen Durchmessers, die aber volle 1,3 GB soll speichern - und damit einen neuen Standard setzen können.

Auf die fernere Zukunft indes zielen Arbeiten japanischer Forscher um Professor Nagamura von der Shizuoka-Universität ab, die an Opto-Platten mit einer Super-Kapazität von gleich mehreren -zig Gigabytes denken. Sie benutzen dazu ein bestimmtes Polymer, das allerdings noch Probleme mit der Langzeit-Stabilität hat.

Gegen Strahlung unempfindliche Mikro-Trioden

Bleiben wir gleich noch bei langfristig angelegten Trends, wiewohl ja auch über die heute aktuellen Techniken - wie etwa Speicher- und Prozessor-Chipkarten, platz- und energiesparende Flash-Speicher statt herkömmlicher Winchester-Laufwerke, preiswerte und hochauflösende Farb-Flüssigkristallbildschirme, schnelle Glasfaser-Datentechniken mit 2,5 Milliarden Bit pro Sekunde und so weiter - noch viel zu berichten wäre. Doch da die wahren Überraschungen der Zukunft ja meist aus Entwicklungen resultieren, die heute allenfalls als interessante Labormodelle erscheinen, verspricht ein Blick in die Forscher-Stuben der Techniker wohl besonders aufschlußreich - und anregend - zu sein.

Da wird beispielsweise in Labors des Siemens-Konzerns eifrig an Techniken der sogenannten Vakuum-Mikroelektronik geforscht - und dies, wo Transistoren doch schon vor rund 30 Jahren die herkömmlichen Elektronenröhren aus unseren Computern verdrängt haben. Doch heute kann man beispielsweise Mikro-Trioden in Vakuumtechnik herstellen, die auf kleinstem Raum Platz finden und die nicht nur recht unempfindlich sein sollen, was hohe Temperaturen und andere störende Einflüsse aus der Umwelt - wie etwa Strahlung - betrifft. Sie sollen überdies extrem kurze Schaltzeiten von maximal 1 Picosekunde (1 Billionstel Sekunde) ermöglichen, fliegen die Elektronen hier doch frei und ungehemmt durch Vakuum von der Kathode zur Anode.

Während man heute noch mit der Maus auf dem Tisch herumfuhrwerken muß, um einen Zeiger auf ein bestimmtes Feld des Bildschirms zu setzen, kann es in Zukunft genügen, die entsprechende Stelle einfach fest ins Auge zu fassen. Denn ein neues System namens Eye Gaze stellt nunmehr auf raffinierte Weise per Laser, Videokamera und Bildanalyse-Programm fest, wohin der Benutzer eines Rechners gerade schaut - und teilt dies wiederum dem Computer als Input mit.

Gleichfalls mit Laserstrahlen arbeitet eine weitere Novität, die den herkömmlichen Bildschirm überhaupt überflüssig machen will. Hierbei nämlich werden die Strahlen kleiner, schwacher Halbleiter-Laser direkt auf die Retina des Auges geleitet. Und da diese Laser einfach in einer leichten Brille untergebracht werden könnten, sollte sich auf diese Weise in absehbarer Zeit ein neues Gerät zum Erzeugen jener lebensechten visuellen Eindrücke herstellen lassen, die heute als "Virtual Reality" bekannt sind und die vorläufig leider noch an unzureichender Auflösung sowie an lästigem Gewicht und sperrigem Volumen kranken. Allerdings: Erst wenn auch blau leuchtende Laser verfügbar sein werden, wird man in den Augen der Menschen befriedigende Farbbilder erzeugen können.

Weit hinaus in die Zukunft weisen auch Arbeiten, bei denen schneller schaltende Festkörper-Computerchips das Ziel aller Bemühungen sind. Zu ihnen gehören beispielsweise Studien mit tiefgekühlten, supraleitenden und damit - fast - keinen elektrischen Widerstand aufweisenden Strukturen, bei denen nur noch einzelne magnetische Flußquanten betrachtet werden. Und die hundert bis tausendmal kürzere Schaltzeiten erlauben sollen, als typische Silizium-Halbleiter-Chips von heute.

Magnetische Flußquanten stellen sozusagen die kleinste mögliche Menge magnetischer "Ladung" dar, was sie zu klaren Pendants der Elektronen - die ja die elektrischen Elementarladungen abgeben - macht. Und Bauelemente auf Basis dieser Technik versprechen, ohne thermische Probleme zu arbeiten, wodurch sie wiederum extrem eng aneinandergestellt werden können.

Was in der Folge den Vorteil kurzer Signalwege von Schalter zu Schalter böte - und damit wiederum ein Plus, das letztlich extrem hohe Taktfrequenzen bis hinauf in den Bereich von 100 bis 300 GHz ermöglichen sollte. Also Taktraten weit oberhalb der heute gängigen 20 bis 200 MHz.

Nicht nur im Bereich der Schaltwerke verspricht die Forschung uns für die Zukunft noch so manche Überraschung; man denke doch nur auch an das zukunftsträchtiger Feld der verschiedenen Arten von optischen Schaltern. Auch bei den Speichertechniken als zentralen Komponenten jedes DV-Systems bieten sich Perspektiven, die eigentlich nur noch atemberaubend genannt werden können.

Als bloß ein Exempel unter vielen wäre da beispielsweise eine Technik zu skizzieren, an der Wissenschaftler der Stanford University arbeiten und bei der eine Apparatur ähnlich dem bekannten Raster-Tunnelmikroskop benutzt wird. Doch diese extrem feinfühlige Apparatur dient hier nun nicht einfach zum Abbilden der Oberflächenstruktur eines bestimmten Objekts, sondern zum gezielten Einschreiben einzelner Daten-Bits in eine Mehrlagen-Struktur aus Siliziumnitrid, Siliziumdioxid und dotiertem Silizium.

An der Zukunft gemessen noch plump und unbeholfen

Um sich die immense Daten-Dichte plastisch vor Augen zu führen, die mit dieser neuen Technik potentiell erreichbar ist, muß man zunächst sehen, daß moderne optische Speicherplatten pro Quadratmillimeter rund 50000 bis 60000 Bit speichern können, gute Magnetplatten etwa das Doppelte und 16 Mbit-DRAMs rund 150000 bis 160000 Bit. Während die neue Technik auf der gleichen Flächeneinheit nicht weniger als 100 Millionen Bit plazieren können soll; also in etwa das Äquivalent von 5000 locker beschriebenen Seiten Schreibmaschinentexts.

Was einmal mehr zeigt: Die Technik der heutigen Computer ist immer noch plump und unbeholfen, mißt man sie an dem, was die Zukunft uns mit ziemlicher Sicherheit bringen wird. So daß jene Wahnsinns-Entwicklung , die die zimmergroßen Elektronenröhren-"Großrechner" der Vierziger Jahre im Handumdrehn auf Handflächengröße hat schrumpfen lassen, sich mit ziemlicher Wahrscheinlichkeit glatt nochmals ereignen dürfte.

Dabei wird dann aber wohl nicht ein PC im Salzkorn-Format das Ziel allen Strebens sein, wie wir vermuten dürfen, sondern weiterhin Maschinen der gewohnten Dimensionen; jedoch dann mit einem Leistungspotential, von dem heute wohl allenfalls Jules-Verne- oder besser noch Perry-Rhadan-Leser eine Vorstellung haben dürften. Und das seinerseits dann die unverzichtbare Grundlage für weitere, tolle Innovationen auf dem Felde, der vielgepriesenen, glamourösen Software abgeben wird.