Künstliche Intelligenz

Graphcore steigert Leistung bei KI-Berechnungen



Andreas Th. Fischer ist freier Journalist im Süden von München. Er verfügt über langjährige Erfahrung als Redakteur bei verschiedenen IT-Fachmedien, darunter NetworkWorld Germany, com! professional und ChannelPartner. Seine fachlichen Schwerpunkte liegen in den Bereichen IT-Security,  Betriebssysteme, Netzwerke, Virtualisierung, Cloud Computing und KI. Über diese Themen schreibt er auch für Smokinggun.de.
Rund 40 Prozent mehr Leistung und 16 Prozent weniger Energiebedarf weisen die neuen Systeme für KI-Berechnungen von Graphcore auf.
Graphcore Bow POD16-System basierend auf dem Ultra-Server von Supermicro.
Graphcore Bow POD16-System basierend auf dem Ultra-Server von Supermicro.
Foto: Graphcore

Nvidia gilt als Platzhirsch, wenn es um Chips für anspruchsvolle KI-Berechnungen geht. Mit Graphcore erwächst dem Hersteller aber ein schlagkräftiger Konkurrent. So soll das neue Bow-POD16-System von Graphcore eine mehr als fünffach höhere Leistung als ein vergleichbarer DGX A100 640GB Server von Nvidia bieten. Laut Graphcore soll der Anschaffungspreis zudem nur halb so hoch sein. Ende 2020 hatte Graphcore Andreas Scheffer als neuen Deutschland-Leiter sowie Territory Manager Central Europe und Automotive EMEA bestellt.

Leistungssprung

Insgesamt sollen die neuen KI-System von Graphcore 40 Prozent mehr Leistung bei 16 Prozents weniger Energiebedarf als die Vorgänger bieten. Sie basieren auf einer neuen Intelligence Processor Unit, der Bow IPU. Die Leistung ist beeindruckend. So soll das Bow POD256-System mehr als 89 PetaFLOPs an KI-Rechenleistung erreichen, teilte Graphcore mit. Beim Bow POD1024-System sind es sogar 350 PetaFLOPs.

Die neuen Bow-POD-Systeme basieren auf der 3D-Wafer-on-Wafer-Technologie von TSMC (Taiwan Semiconductor Manufacturing Company), die zusammen mit Graphcore entwickelt wurde. Sie soll das Potenzial haben, eine deutlich höhere Bandbreite zwischen Siliziumchips zur Verfügung zu stellen.

Die neue Rack-Einheit Bow 2000 ist der Grundstein eines Bow-POD-Systems. Sie basiert auf der gleichen Architektur wie die Rack-Einheit IPU-M2000, stellt jetzt aber selbst schon eine KI-Rechenleistung von 1,4 PetaFLOPs bereit. Sie lässt sich mit verschiedenen Host-Systemen von Anbietern wie Atos, Dell, Inspur, Lenovo und Supermicro verbinden.

Die Bow-POD-Systeme sind nach Angaben des Herstellers ab sofort weltweit über beziehungsweise für den Channel verfügbar. Zu den ersten Kunden soll das Pacific Northwest National Laboratory (PNNL) des US-Energieministeriums gehören. Geplant sind dort vor allem Berechnungen in den Bereichen Cybersicherheit und Computerchemie.

Zur Startseite