GPUs Latest news Software

CUDA on RISC-V: NVIDIA’s silent stab in the back against the x86/ARM cartel

Anyone who thought that NVIDIA would continue to cuddle up in its wedding bed with ARM while secretly displacing AMD GPUs must have missed the clattering in the RISC-V workshop. Because what has been quietly announced here is nothing less than a seismic tremor in the foundations of the AI infrastructure: CUDA is now running on RISC-V processors. This is not just a technical curiosity, but a strategic broadside against the architecture duopolists x86 and ARM. And exactly where it hurts the most, in the heart of the AI power centers: data centers, edge computing and AI accelerator solutions.

What happened?

RISC-V happily announces that NVIDIA’s CUDA, the undisputed control center for GPU-based AI computing, now runs on RISC-V-based host processors. Anyone who thinks this is a clumsy port for hobbyists is very much mistaken: this is an official NVIDIA free pass for the open source architecture, coupled with the license for integration into professional AI workloads. In technical terms, this means that RISC-V can function as a system processor in CUDA-based AI setups in future. The GPU part remains with NVIDIA, but the control? From now on, it can do without Intel, AMD or ARM.

What’s behind this?

  1. License-free ISA = more margin, more control
    RISC-V is free – and in a world where ARM wanted to be taken over by NVIDIA (and failed), that’s a poisoned offer: complete freedom without license fees. Perfect for start-ups, China and anyone who is fed up with Western-priced license models.
  2. Scalability without ballast
    The modular structure of RISC-V allows you to build exactly what you need – no more and no less. No unnecessary silicon ballast, no incompatible license clutter.
  • Entry ticket to new markets
    Edge AI, dedicated AI SoCs, scientific data centers – wherever ARM or x86 are used today, there could be a RISC-V variant with CUDA support tomorrow. Tenstorrent, for example, uses the Wormhole n150/n300 to show what happens when you put a RISC-V kit in Jim Keller’s hands

Why this is explosive

  • For Intel & AMD: You lose the last bastion – control via the host CPU. The GPU belongs to NVIDIA anyway. Now they are also losing the processor share in the AI market.
  • For ARM: The long-held narrative of the “energy-efficient future of servers” is being dented. If even NVIDIA, once almost the owner of ARM, is now embracing RISC-V, you can imagine how much trust there still is in SoftBank & Co.
  • For China: Jackpot. RISC-V is open, free, developer-friendly – and now also CUDA-compatible. Who still needs Western CPUs when their own SoC will soon be fully AI-capable?

NVIDIA: The laughing third

You could almost applaud: NVIDIA is securing control of the software ecosystem (CUDA) while strategically emancipating itself from hardware partners. The host processor? Interchangeable. The GPU? Stays green. This is brilliantly opportunistic – and a quiet but effective form of platform cannibalization.

What remains critical?

RISC-V is open, but not finished. Toolchains, debugging, compilers, OS support – all of this is still lagging behind the industrialized ARM/x86 world. What’s more, as long as CUDA runs on NVIDIA hardware, the golden cage remains – except that the grids are now made of RISC-V.

The first real break with the architectural monopoly

What we are seeing here is not a technical gimmick, but a strategic bang. With CUDA, RISC-V gains access to one of the most important AI ecosystems in the world. ARM and x86 are losing their exclusivity in the most lucrative technology field of the decade. And NVIDIA? Seize the opportunity to finally become the center of the AI world – regardless of the processor substructure.

Source: RISK_V via X

Kommentar

Lade neue Kommentare

konkretor

Veteran

448 Kommentare 494 Likes

Die Frage ist ob Nvidia ihr Risc-V Design auch öffentlich macht oder nicht.

Antwort 2 Likes

Igor Wallossek

1

13,159 Kommentare 26,151 Likes

Ich denke mal schon. Nachdem man sich bei ARM damals eine Abfuhr geholt hat, ist das aus meiner Sicher mehr als nur eine Retourkutsche, sondern ein Testballon, was außerhalb des bekannten Universums noch so geht. Sollte sich das lohnen, wird man mit Sicherheit Ressourcen locker machen, von denen andere nur träumen.

Antwort 2 Likes

lilux

Veteran

107 Kommentare 79 Likes

Hmm... wenn Nvidia die Rakete so richtig zündet, dann wird das imho ein richtiger Hammer. Deshalb ein interessanter Artikel. RISC-V und was damit so alles geht, hatte ich nicht wirklich auf dem Schirm.

Antwort Gefällt mir

a
apollo567

Mitglied

30 Kommentare 4 Likes

Was bedeutet das dann für AMD? Immerhin haben sie KI-GPU und CPU im Portfolio. Werden diese dann der Zweitanbieter statt vs Intel dann gegen Nvidia. Zumindest, wenn deren Software mal besser fliegt? Für Intel sieht das ja dann eher negativer aus ohne leistungsfähige KI-Hardware.

Antwort Gefällt mir

p
peru3232

Neuling

4 Kommentare 3 Likes

Aus Anwendersicht, ist es kaum relevant. Das teure in diesen Systemen sind nicht die CPUs, die sind fast vernachlässigbar. An erster Stelle natürlich die GPUs selbst, dann wohl gefolgt vom RAM und dicht dahinter Interconnect,....
Es macht für die erwähnten Startups etc keinen Sinn wegen vergleichsweise kleiner Kostenersparnis auf ein neues System zu setzen auf das vieles andere nicht kompatibel ist und keine altbewährte Basis gibt - das macht sicher niemand!

Einzig nvidia selbst, kann dann 100% selbst designte Systeme anbieten - und sich so auf längere Sicht noch weiter abkoppeln. Pö a pö kann dann CUDA auf den eigenen RISC-V besser funktionieren als auf den alteingesessenen Systemen. Zur richtigen Beschleunigung kann natürlich noch spezielle eigene IP einfließen. So geht es zwar mit allen RISC-V, aber mit den eigenen am besten.

Antwort Gefällt mir

c
cunhell

Urgestein

800 Kommentare 857 Likes

Ich versteh das gehype hier nicht ganz.
Zu Punkt 1.) Selbst wenn die CPU Lizenzfrei ist, bleibt immer noch die Lizenz von Nvidia auf CUDA. Die ist weder nach GPL noch nach Apache oder ähnliches frei. Nebenbei hat China z.B. auch fertige x86 CPUs die immer besser werden.
Zu Punkt 2.) Vorteil, man kann alles so bauen wie man es braucht. Nachteil, man muss es auch selbst bauen, was entsprechende Resourcen benötigt und sicher nicht auf anhieb die Performance liefert um mit ARM oder x86_64 zu konkurieren, wo bei für einen reinen "Controller"-Prozessor die Performance vermutlich nicht allzu schwer wiegt.
Zu Punkt 3.) Nicht jede Firma und nicht jedes Forschungszentrum leistet sich eine reine AI-Lösung. Sobald es Multipurpose wird, sieht die Sache gleich ganz anders aus. Da sind x86 und ARM noch weit vorne was Software angeht.

Für spezielle Anwendungsfälle wird es sicher sinn machen. Mit dem Totentanz für x86 und ARM im Bereich AI würde ich trotzdem noch warten.
Intel meinte auch, mit IA64 würden sie den Markt aufmischen und alle anderen überflügeln. So einfach war es dann doch nicht, da man die Softwareumgebung der Kunden und deren Kompatibilität übersehen hatte.

Und ob für AI nicht mittelfristig spezielle designte TPUs in Konkurenz zu Nvidia treten, muss man auch abwarten. AI ist zur Zeit so ein hype, dass sich hier Entwicklungen sicher lohnen. Amazon und Google sind da ja wohl schon dabei.

Cunhell

Antwort 1 Like

Klicke zum Ausklappem
e
eastcoast_pete

Urgestein

3,081 Kommentare 2,041 Likes

Die Abfuhr kam allerdings nicht von ARM, sondern von dem Nein der Kartellbehörden, v.a. die der USA. U.a. Qualcomm hatten zu dieser Zeit lautstark und am Ende erfolgreich gegen die Übernahme von ARM -Kaufen der Anteile von SoftBank- durch Nvidia protestiert, über die sich Nvidia und SoftBank bereits geeinigt hatten. Auch deshalb gab es seit der Zeit viel böses Blut zwischen ARM (und SoftBank ) und Qualcomm, was dann mit den Nuvia Kernen in den Snapdragon Elite SoCs für Notebooks noch weiter eskalierte. Viele der Angestellten von ARM, die im Tausch gegen ihre ARM Anteile oder Optionen Nvidia Aktien bekommen hätten, wären nämlich damit Multimillionäre geworden. Denn der geplante Erwerb von ARM durch Nvidia war gerade bevor die "KI" Explosion Nvidias Aktienpreis mehr als vervierfacht hat.
Nvidia wiederum ist bis heute bei CPUs am schwächsten aufgestellt, was natürlich Jensen Huang & Co. gar nicht passt. Genau deshalb wollte er/Nvidia ja ARM Holdings kaufen, um so schneller deutlich stärkere Custom CPU Architekturen zu realisieren. Momentan ist AMD mit ihren Zen Kernen in den Instincts zumindest hier vorne, und auch die derzeitigen Xeons (Granite Rapids) sind stärkere CPUs als die Grace CPU Cluster in GH.

Antwort 1 Like

Klicke zum Ausklappem
e
eastcoast_pete

Urgestein

3,081 Kommentare 2,041 Likes

Das mit TPU-artigen ASICs ist ja schon voll im Gange. Z.B. Trainium 2 und 3, Googles TPUs, Metas und Microsofts eigene KI ASICs sind ja bereits zu Tausenden bei denen unterwegs; bis jetzt sind die aber alle exklusiv für die Firmen bzw man kann Instanzen anmieten. Und dann natürlich noch die Beschleuniger von Huawei/HiSilicon. Die sind allerdings bis jetzt die einzigen, die tatsächlich an die Leistungen der GH 100 und 200 herankommen, allerdings bei 2.5 - 3 Fach höherem Stromverbrauch. Wobei China eben viel billigen Strom hat (auch Dank Ausbau von Wind und Solar, nicht nur wegen der vielen Kohlekraftwerke), und die Regierung dort auch massiv die Entwicklung und Installation von KI Hardware Made in China fördert.
Es ist aber IMHO schon beeindruckend, daß außerhalb dieser Fälle der größte Teil der KI Farmen eben doch mit Nvidia Hardware läuft (Marktanteil ~ 90%!).

Antwort 1 Like

h
hellm

Moderator

1,511 Kommentare 2,224 Likes

Da hat sicher ein Kunde Nvidia dafür bezahlt, den Compiler zu portieren.

Linux bietet ja einen AMD ROCM RiscV-Treiber: https://www.phoronix.com/news/AMDKFD-RISC-V-Linux-6.16

Siemens Med CT hat CUDA durch OpenCL ersetzt. Denen wurde der Pflegeaufwand zu viel. CUDA ändert sich ständig, und alte GPUs rechnen absichtlich langsam. "planned obsolescence"...

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

As a trained electrician, he's also the man behind the electrifying news. Learning by doing and curiosity personified.

Werbung

Werbung