Artificial Intelligence Latest news

Quantum versus GPU, Pat Gelsinger unpacks the sledgehammer

Sometimes someone comes around the corner and throws the proverbial anvil into a house of cards. Pat Gelsinger, ex-CEO of Intel, has done just that with the statement that quantum computing will end the era of GPUs in a few years. While Nvidia is mining the silicon gold with its H100 and B200 cards, Gelsinger can already see the wrecking ball rolling in from the quantum world. For him, one thing is clear: the current AI era is a short-lived hype and the big bang could come sooner than many think.

The prophet from the sidelines

Gelsinger is now active at the venture firm Playground Global and is therefore looking directly into the heart of quantum research. And apparently he sees more there than just cryo chambers and pretty PowerPoint slides. In an interview with the Financial Times, he speaks openly of a fundamental “holy trinity” in IT: classical, AI and quantum. In his opinion, the latter is on the verge of replacing the rest. In plain language: GPUs, such as those that Nvidia is currently pushing out at five-digit prices in AI fever, could become obsolete within less than ten years. A declaration of war that should not only make Jensen Huang frown.

  • Exclusive access: Gelsinger’s involvement with Playground Global brings him into direct contact with start-ups and laboratories that are working on real Qubit implementations, not just pretty simulation projects.
  • Hype radar on full blast: The former Intel boss recognizes the same symptoms in the current AI euphoria that were also observed in previous tech bubbles: astronomical valuations, exploding investments, but no clear path to monetization.
  • Reference to history: he draws an analogy to the IBM-Gates story of the 1990s, when Microsoft provided the software and IBM the platform. Today, he sees OpenAI in the same role, dependent on Microsoft’s infrastructure. According to him, there is a threat of a shift in the balance of power here too.

Nvidia is still laughing

Nvidia boss Jensen Huang recently took a more relaxed view of the matter. He assumes that quantum computing will not become really relevant for at least another 20 years. Of course, he can afford to say that. The market is currently eating out of his hand anyway, and Nvidia is not just a chip manufacturer, but the monopolist of an entire AI infrastructure. But Gelsinger counters this: Two years, then a breakthrough is possible. Two. Not twenty.

Of course, it all sounds fancy, but anyone who has spent more time with quantum computing than a LinkedIn guru knows that we are miles away from using quantum hardware in production environments in a meaningful way.

  • Susceptibility to errors: qubits are extremely unstable. Nothing works without a massive error correction framework.
  • Application bottlenecks: Not every AI algorithm can simply be “quantized”. For many tasks, the classic computing architecture remains the more efficient choice.
  • Ecosystem missing: compilers, frameworks, developers, everything would have to be rethought and rebuilt.

In short: Gelsinger’s vision sounds sexy, but it assumes that the quantum ecosystem will mature at a pace that would be historically unprecedented. And this for a technology that has barely progressed beyond feasibility studies so far.

Conclusion: visionary or storyteller?

It is remarkable that Gelsinger also admits a few of his own failings in the same breath. During his time at Intel, the company was “technically rotten”, in his words. There was a lack of discipline and no one delivered products on time. He himself had tried to save the 18A project in time, an attempt that ultimately failed. The new CEO Lip-Bu Tan pulled the plug before Gelsinger could deliver. A bitter anecdote from the heart of semiconductor hell.

Gelsinger wants to provoke, no question. He is casting doubt on a hype that is currently running too hot to be healthy. His theory of a quantum revolution is not far-fetched, but at best it is ambitious. At worst, it is a smoke screen from the second row. However, he also shows that technological progress does not adhere to PR roadmaps. Those who blindly rely on GPUs today could have a billion-dollar problem tomorrow if, and when, the quantum bang comes.

Until then, if you’re going to run your mouth so full, you’d better have a few qubits up your sleeve.

Source: The Financial Times

Kommentar

Lade neue Kommentare

big-maec

Urgestein

1,122 Kommentare 647 Likes

Gedanklich scheint das wohl schon machbar zu sein.

Antwort Gefällt mir

T
Togal

Mitglied

12 Kommentare 8 Likes

Die einzige Frage, welche sich mir nach lesen des Artikels aufwirft ist: Warum hat Pat Gelsinger dann das Unternehmen intel nicht entsprechend aufgestellt? Als CEO hatte er lange Zeit Gelegenheit dazu.

Antwort 1 Like

RazielNoir

Urgestein

787 Kommentare 382 Likes

DAS AI/KI völlig überhyped ist, dürfte jetzt schon klar sein. Zumindest zweifeln ja schon die ersten BigPlayer am potentiellen ROI bzw. der Umsetzbarkeit. Das Quantencomputing das Potential hat, die aktuellen Techniken obsolet zu machen ist wie die Forschung an der Fusionstechnik. Erst wenn die ersten Systeme produktiv gehen, wird man sehen was der (nächste) Hype verspricht. Und dann wird es wieder ein Wettrennen und -rüsten geben. Rechenzentren werden neu oder umgebaut. Viel entscheidender wird sein, wie seitens der Politik mit der ganzen Sache umgegangen wird. Vor allem mit den Ergebnissen, siehe auch die Diskussion um die Ergebnisse der ganzen KI-Assistenten

Antwort Gefällt mir

T
ThomasLeh

Veteran

213 Kommentare 178 Likes

Klassischen Siliziumtechnologien hat man schon häufiger den Untergang/Ablöse vorausgesagt, passiert ist es irgendwie nicht.

Aus zweiter Hand kenne ich die Reaktion der Supraleitung Community als bei einer Konferenz einer der Halbleiter Hersteller Live vorrechnete was Silizium noch so alles kann. Da war es dann vorbei mit der Euphorie bei den Supraleitungskollegen.

Gerade beim Thema Geschwindigkeit ist das Kupfer eher das Limitierende. Wenn Silicon Photonics direkt auf Transistor Level Integrierbar wird, gibt es nochmal einen Boost.

Mal sehen was eher eintritt. Wetten würde ich bei beiden Themen gerade nicht.

Antwort 2 Likes

big-maec

Urgestein

1,122 Kommentare 647 Likes

Erstaunlicher Weise doch.

Antwort Gefällt mir

RazielNoir

Urgestein

787 Kommentare 382 Likes

45 W Verbrauch für den ganzen Server? NPS als Add-In? Schnittstelle PCIE Gen. 3.0x8? Und ne x86-CPU als Main-CPU? Und warum ist das Ding dann 4U hoch? Bei der Energieaufnahme reicht auch 1U bzw. wäre dann ein Blade nicht sinnvoller bezgl. Raumausnutzung?

Das Teil würde ich gern mal im Vergleich zum DGX Spark sehen...

Geil ist jedenfalls die Angabe zur Leistungsfähigkeit. Genau 100Mops. Nicht 98, nicht 105; genau 100Mops. Warum nicht in FLOP oder in TOPS?

Offtopic: Wenn der Mops keine Leckerlies bekommt, wird das Gassigehen zum Flop. Ist für das Herrchen nicht Top :ROFLMAO:

Antwort Gefällt mir

T
ThomasLeh

Veteran

213 Kommentare 178 Likes

Ich weiß nicht wie weit den Quantenrechner bezüglich verschiedener Rechenmethoden sind. Lange Zeit war ja das Problem. dass die Quantenrechner genau bei einer Berechnungsmethode gut/besser waren, aber den Rest nicht konnten.

Letztendlich kann sich das auf einen Schlag ändern, wenn Quantencomputer wirlöich Einsatzfähig auch im Sinne des Preises sind. Kann aber auch kommen, dass die "Klassischen" doch was aus dem Hut Zaubern. Silizium hat auf jeden Fall noch Reserven

Antwort Gefällt mir

RazielNoir

Urgestein

787 Kommentare 382 Likes

Ja. Ich fine nur die Daten auf der Website von Q.ANT sind irgendwie nicht "stimmig". Silizium ist sicherlich die nächsten Jahre noch bestimmend, aber die Strukturbreiten werden sich irgendwann nicht mehr reduzieren lassen.

Antwort Gefällt mir

T
ThomasLeh

Veteran

213 Kommentare 178 Likes

Es sind noch interessante, im normalen Silizium-Halbleiterprozess verarbeitbare, Legierungen vorhanden (SiGE, GeSn, SiGeSn). Zusätzllich kann man mit Back-Gate usw. spielen. Und ein großer Flaschenhals ist halt das Thema Kupfer. Das ist langsamer als Silizium theoretisch Schalten kann.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

As a trained electrician, he's also the man behind the electrifying news. Learning by doing and curiosity personified.

Werbung

Werbung