Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

03.04.1998 - 

Pipeline

Pipeline Explosionsgefahr

Den Computerspezialisten der US-amerikanischen militärischen Forschungslabors steht viel Arbeit ins Haus.Bis zum Jahr 2004 müssen sie Supercomputer entwickelt haben, die 100 Billionen Befehle in der Sekunde ausführen - hundertmal mehr als heutige Topsysteme.Einher damit gehen die Forschungen an grundlegend neuen Techniken für die Software-Entwicklung, Datenmodellen, Data-Mining, Datenspeichern, Netzwerken und anderen Disziplinen.

Der Grund für die geplante Umwälzung, die den Namen Accelerated Strategic Computing Initiative (ASCI) trägt, liegt in den Atombomben-Arsenalen der USA. 1992 verabschiedeten sich die Vereinigten Staaten von physischen Atomtests und führten statt dessen Computersimulationen ein.Im Jahr 2004 werden die Hälfte aller Nuklear-Bombenbauer allerdings in Rente gegangen sein und die Waffen selbst ihre Lebensdauer - normalerweise zwölf Jahre - überschritten haben.Das ASCI-Programm, das im kommenden Jahr mit über einer halben Milliarde Dollar ausgestattet wird, soll die Sicherheit des Arsenals gewährleisten.Nutznießer sind die nationalen Labors Lawrence Livermore, Sandia und Los Alamos.

Das Simulationsprogramm für eine Waffenart läuft derzeit 500 Stunden auf einem Supercomputer, wenn die Ergebnisse von Zeit zu Zeit anhand einer unterirdischen atomaren Explosion überprüft werden können.Ohne den Realtest müssen so große Programmerweiterungen vorgenommen werden, daß dazu 10000mal mehr Rechenpower notwendig ist.Die eingesetzten Supercomputer von Intel, Silicon Graphics/Cray und IBM sollen bis zum Jahr 2000 zehn Teraflops leisten, ein Jahr später 30 und 2004 dann 100 Teraflops.