Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

14.10.1983 - 

Supercomputer?-Da braucht man schnelle Chips und gute Software

US-Iformatiker diskutieren die "200X"-Maschine

Als die Japaner vor inzwischen auch schon wieder einer stattlichen Reihe von Monaten mit viel Propagandagetöse ihre zukunftsweisenden Projekte der superschnellen Computer und der Rechner der "V. Generation" starteten. zuckten in den USA viele, die wohl besser hätten alarmiert reagieren sollen, bloß die Achseln: "Sollen sie doch. . . ", war sichtlich die verbreitetste Reaktion in jenem Land, das bis dato die Hard- wie die Softwarespitzentechnologie nahezu monopolartig beherrscht und als praktisch einziges vorangetrieben hatte.

Heute ist das anders. Heute werden auch in den USA eine ganze Reihe unterschiedlicher Hard- und Software-Entwicklungsprogramme, die Uncle Sam auch weiterhin eine computerinnovative Spitzenposition bescheren sollen, von den unterschiedlichsten Gruppen und Gremien hinund hergewendet. So etwa ein Projekt zur Entwicklung extrem schnell schaltender ICs auf der Basis des neuen Glamour-Werkstoffs Galliumarsenid oder diverse Projekte zum Bau innovativer Rechner mit hochgradig parallelen Architekturen.

So auch die Idee der "200X"-Maschine, von der man bislang noch kaum klare Vorstellungen hat. Bloß eine: Sie soll, daher ihr Name, rund 200 mal schneller sein als eine heutige Cray 1.

Was man über die 200X-Maschine im Moment offenbar noch am wenigsten weiß, ist, wer ihre Entwicklung letztlich wohl bezahlen wird. Das wurde kürzlich auf einer Konferenz mit dem Titel "Frontiers of Supercomputing" deutlich, einer Veranstaltung des National Laboratory in Los Alamos, Neumexico. Dort waren die Vertreter zahlreicher Interessengruppen sich eigentlich bloß darin einig, notierte zum Beispiel der Reporter des US-Fachblatts "Electronics", daß das 200X-Ungetüm in rund sieben Jahren arbeitsbereit sein sollte.

Künstliche Intelligenz tritt aus dem Schatten

Wenn nicht, könnte das für die USA ziemlich unerfreuliche militärische und wirtschaftliche Folgen zeitigen. Ein Gedanke, der den Europäern einmal mehr deutlich macht, wie groß die Gefahr geworden ist, in Sachen Zukunfts-Informationstechnologie von Japan und den USA endgültig auf die Plätze verwiesen zu werden.

Vielleicht der bemerkenswerteste Satz, der auf der Konferenz in Los Alamos zu hören war, betraf die Frage, welchen Zwecken Supercomputer denn überhaupt dienlich sein könnten.

Im allgemeinen hört man heute ziemlich monoton immer wieder, Superrechner wie die Cray und andere seien primär etwas für Astro- und Kernphysiker aller Spezialisierungsrichtungen, für Atombombenkonstrukteure, für Wetterprognostiker, für ölsuchende Geologen und dergleichen mehr- bis hin zur Konstruktion von Autos und der Erzeugung komplexer Farbgrafik für Hollywoods Leinwandindustrie.

Dieses Bild ändert sich nun langsam. Zwar werden solche "alten" Anwendungen sicher auch weiterhin eine bedeutende Rolle spielen und einen immer stärker wachsende n Markt für Computerpower der Oberklasse darstellen, doch für einen Sprecher der beim Pentagon mit der Verwaltung zukunftsweisender Forschungsprogramme betrauten Sub-Behörde (DARPA) ist das anscheinend bloß Schnee von gestern.

Denn die DARPA will in den nächsten fünf Jahren zwar 500 bis 800 Millionen Dollar für Informatikforschung auswerfen-aber eben nicht für die alten, abgegrasten Kernphysik-Simulationen etc., sondern für Kommunikations- und vor allem für Projekte der "Künstlichen Intelligenz".

Wie inzwischen nicht mehr unbekannt ist, haben die Pentagon-Computeure dabei Anwendungen im Sinne, die beispielsweise als "automatische Gefechtssituations-Analyse" beschrieben werden könnten: KI-Computer sollen, schneller als Menschen es können, kritische, strategische und taktische Szenarien abtasten und nach-für Menschen mit ihren sehr beschränkten Möglichkeiten zur gleichzeitigen Bearbeitung komplex miteinander verwobener Daten, unsichtbaren-Anhaltspunkten dafür suchen, obs brenzlig wird oder nicht.

Etwa so, wie Kriminalisten mit ihren Computern schon heute mehrdimensionale Täterprofile erstellen und aus ihnen Schlüsse auf das künftige Verhalden der Person X zu ziehen versuchen.

Das heiße Thema von morgen

Ist also in Wahrheit KI das heiße Thema von morgen und übermorgen, und sind die Supercomputer gar nicht in dem Maße für den Fortschritt wichtig, wie deren eifrigste Befürworter es immer so gerne behaupten? Da gehen die Meinungen auseinander. Denn selbst wenn ihre Anwendungsmöglichkeiten weiterhin auf die oben genannten, typischen Einsätze begrenzt bleiben sollten (was keineswegs alle Fachleute glauben wollen), gibt es solche Maschinen erst einmal in Japan, so werden sie fortan ein Stück dieser Welt sein, an dem keiner mehr vorbeikommen wird.

Auch wenn zur Zeit noch heftig gerangelt wird, wer künftig die finanzielle Hauptlast der US-Superrechner-Entwicklung wird tragen müssen -ein solches Projekt dürfte so gut wie sicher ins Leben gerufen werden. Geht es doch auch um das Anwerfen eines kräftigen Motors, der seinerseits wieder andere Forschungen fördern soll: Etwa die Entwicklung extrem dicht gepackter, höchstgradig integrierter, sehr schneller Schaltkreise sowie die ebenso innovative Entwicklung neuartiger, leistungsstarker Rechnerarchitekturen und Sprachen.

Zum Thema "potentielle Anwendungen" des 200X kam auf der Konferenz in Los Alamos am Rande der originelle Vorschlag, die Regierung solle doch "einfach" die Entwicklung innovativer Anwenderprogramme an den amerikanischen Unis fördern, indem sie-als ersten Schritt-den dortigen Informatikern so viele Superrechner (Cray etc.) wie nur eben möglich hinstelle. Denn die Unis würden dann postwendend mehr und mehr anspruchsvolle Anwenderprogramme für die Maschinen entwickeln. Programme, die den Forschern und Ingenieuren der Wirtschaft wiederum rasch den Mund nach so viel Perfektion wäßrig machen dürften. Und wenn letztere dann endlich lautstark den Ruf nach Maschinen, auf denen diese Software laufen kann, erschallen lassen dann wäre der schmerzlich vermißte 200X-Markt-wie aus dem Hut gezaubert-plötzlich ja wohl da.