Supercomputer

Top-500-Liste ist kaum aussagekräftig

Armin Weiler kümmert sich um die rechercheintensiven Geschichten rund um den ITK-Channel und um die Themen der Distribution. Zudem ist er für den Bereich PCs und Peripherie zuständig. Zu seinen Spezialgebieten zählen daher Notebooks, PCs, Smartphones, Drucker, Displays und Eingabegeräte. Bei der inoffiziellen deutschen IT-Skimeisterschaft "CP Race" ist er für die Rennleitung verantwortlich.
Fujitsu arbeitet an einem Supercomputer, der die Nummer Eins werden soll. Doch was sagt eigentlich die Top-500-Liste aus?
"Die Nummer 10 kann besser geeignet sein als die Nummer 1": Welcher Supercomuputer nutzt die vorhandene Leistung am besten aus?
"Die Nummer 10 kann besser geeignet sein als die Nummer 1": Welcher Supercomuputer nutzt die vorhandene Leistung am besten aus?

Fujitsu arbeitet an einem neuen Supercomputer, der im Jahr 2012 die Grenze von zehn Petaflops durchbrechen will. Das am japanischen Forschungsinstitut RIKEN entwickelte System namens "K" wird aus 80.000 Achtkern-Prozessoren vom Typ SPARC64 VIIIfx mit jeweils 2,2 GHz zusammengebaut. Damit will sich Fujitsu auch einen guten Platz in der Top-500-Supercomputing-Liste sichern, die derzeit von einem 1,75 Petaflops starken Cray-System angeführt wird.

"Die Top-500-Liste ist zweifelsohne prestigeträchtig. Wirklich aussagekräftig ist sie aber nur bedingt", schränkt Siegfried Benkner, Leiter des Instituts für Computerwissenschaften an der Universität Wien, ein. Denn die theoretisch erreichbare Rechenleistung sage noch nichts über die tatsächliche Performance von Softwareanwendungen innerhalb der sehr spezifischen Supercomputing-Architektur aus, so Benkner.

"Die große Herausforderung bei allen Systemen liegt darin, bestehende Anwendungen so zu adaptieren, dass sie die vorhandene Leistung auch optimal ausnutzen können. Je nach Anwendungsszenario ist die Nummer zehn der Liste daher unter Umständen besser geeignet als die Nummer eins der schnellsten Supercomputer", erklärt Benkner.

Energiekosten als relevanter Faktor

Neben der rasant steigenden Rechenleistung, die für komplexe Forschungsgebiete wie die Biologie oder Medizin unerlässlich ist, spielt aber auch der Energieverbrauch eine immer größere Rolle. "Wenn die Verbrauchskosten im Betrieb teurer als die Hardware sind, wird dadurch die ökonomische Rentabilität in Frage gestellt", meinte auch Thomas Lippert, Direktor des Jülich Supercomputing Centre (JSC) , anlässlich der Vorstellung des dort geplanten Exascale-Projekts .

Seit einiger Zeit existiert deshalb für den Supercomputing-Bereich mit der Green-500-Liste ein alternatives Ranking, das die umweltfreundlichsten Rechencluster auflistet. (pte/tö)

Zur Startseite