Mit Open-Source-Plattform gegen CUDA

Tech-Konsortium will Nvidia einbremsen



Manfred Bremmer beschäftigt sich mit (fast) allem, was in die Bereiche Mobile Computing und Communications hineinfällt. Bevorzugt nimmt er dabei mobile Lösungen, Betriebssysteme, Apps und Endgeräte unter die Lupe und überprüft sie auf ihre Business-Tauglichkeit. Bremmer interessiert sich für Gadgets aller Art und testet diese auch.
Wer KI-Anwendungen entwickeln und nutzen will, kommt an Nvidia kaum vorbei. Das will ein Konsortium von führenden Tech-Firmen mit dem Open-Source-Ansatz oneAPI nun ändern.
Nvidia-GPUs sind der Defacto-Standard für KI-Chips - noch?
Nvidia-GPUs sind der Defacto-Standard für KI-Chips - noch?
Foto: DMegias - shutterstock.com

Dank Trends wie Cryptomining und (generative) künstliche Intelligenz ist Nvidia in den vergangenen Jahren zu einer 2,2-Billionen-Dollar-Company angewachsen und baut sein KI-Ökosystem konsequent weiter aus. Denn nahezu ebenso wichtig wie die KI-Chips, die von Startups bis hin zu Microsoft, OpenAI oder Google genutzt werden, ist die vor fast 20 Jahren von Nvidia entwickelte Softwareplattform CUDA. Mit CUDA hat Nvidia eine universelle Plattform für Parallel Computing und ein Programmiermodell geschaffen, das insbesondere in der wissenschaftlichen Forschung genutzt wird, beispielweise im Rahmen von Deep-Learning-Projekten. Mehr als vier Millionen Entwickler weltweit setzen auf Nvidias CUDA-Plattform, um KI- und andere Anwendungen zu erstellen.

Alternativen schaffen

Angesichts dieser Erfolge ist es nicht überraschend, dass die Liste der Verfolger, die dem KI-Platzhirsch im Nacken sitzen, lang ist. Gleichzeitig leiden insbesondere kleinere Unternehmen unter der anhaltenden Knappheit bei Nvidias KI-GPUs. Einem Bericht von Reuters zufolge versucht nun ein Zusammenschluss von Tech-Unternehmen, darunter Firmen wie Arm, Fujitsu, Google, Intel, Qualcomm und Samsung, die Dominanz von Nvidia im KI-Bereich zu brechen und Alternativen zu schaffen. "Wir zeigen Entwicklern, wie sie von einer Nvidia-Plattform migrieren können", erklärte Vinesh Sukumar, Leiter für KI und maschinelles Lernen bei Qualcomm, in einem Interview mit Reuters.

Sukumar ist Mitglied des Lenkungsausschusses der Unified Acceleration Foundation, kurz UXL Foundation, die im September vergangenen Jahres aus Intels oneAPI-Spezifizierungs- und Implementierungsprojekten hervorging. Ziel der UXL Foundation ist es, ein Multi-Architektur- und Multi-Vendor-Software-Ökosystem auf Open-Source-Basis bereitzustellen, das alle Arten von KI-Beschleunigerchips unterstützt. Damit wäre es möglich, Computercode auf jeder Maschine laufen zu lassen, unabhängig davon, welcher Chip und welche Hardware sie antreibt.

Ziel: Standards für GPU-Software-Stack

"KI-Anwendungen haben zu einer explosionsartigen Zunahme der GPU-Nutzung geführt", erklärt Robert Cohn, oneAPI Specification Editor bei Intel und Gründungsmitglied der Unified Acceleration Foundation. "Doch während Linux und GNU den Software-Stack für CPUs mit Hilfe von Open-Source- und standardbasierten Projekten modifiziert haben, ist der Software-Stack für GPUs noch recht neu und die Standards in einigen Bereichen, insbesondere bei der KI, sind noch nicht definiert sind. Daher glaube ich, dass Open Source und Standards für die Schaffung eines plattformübergreifenden Softwarestacks für GPUs und andere Beschleuniger, der als Grundlage für die nächste Generation rechen- und datenintensiver Anwendungen dienen wird, unerlässlich sind."

Der vereinheitlichte Multi-Architektur-Software-Stack für Beschleuniger-Chips.
Der vereinheitlichte Multi-Architektur-Software-Stack für Beschleuniger-Chips.
Foto: UXL Foundation

Dem Reuters-Bericht zufolge hat die UXL seit ihrem Launch im September 2023 bereits technische Beiträge von Dritten erhalten, darunter Stiftungsmitglieder und Außenstehende, die die Open-Source-Technologie nutzen wollen. Nachdem Intels oneAPI bereits nutzbar sei, bestehe der zweite Schritt darin, ein Standardprogrammiermodell für KI zu schaffen. Die Spezifikationen will der technische Lenkungsausschuss noch in der ersten Hälfte dieses Jahres festlegen, eine ausgereifte Version ist bis Ende des Jahres zu erwarten.

Zur Startseite