GPUs Pro Reviews Studio Workstations

A real surprise – Intel Arc Pro B50 in the test and big workstation duel under 450 euros

The UL Procyon benchmarks for AI are designed to map different real-world workloads. They cover classic computer vision tasks, image generation with stable diffusion and text generation with large language models. The particular value of this suite lies in the fact that identical models are executed using different inference stacks. This makes it clear whether performance advantages come from optimized runtimes, from the hardware itself or simply from available VRAM. Cards with only 8 GB of memory in particular show that this limit is quickly reached in memory-intensive benchmarks, meaning that measurements are either severely restricted or can no longer be carried out at all.

Interfaces and implementations

Windows ML is a generic inference API integrated into Windows. It uses DirectML and distributes operators to the CPU and GPU. The results are stable and manufacturer-independent, but in benchmarks they usually lag behind specialized runtimes. For example, the Intel Arc Pro B50 with Windows ML achieved 527 points in the Vision test, while the RTX A1000 fell behind with 311 points and the W7500 with 238 points. Especially with memory-hungry models such as LLaMA 2, bottlenecks quickly occur with 8 GB cards, making a run impossible.

TensorRT is NVIDIA’s engine for optimized inference, which merges operators and uses GPU memory efficiently. It achieves the best results on RTX cards in many cases, as long as there is enough VRAM available. In the Stable Diffusion test, the RTX A1000 with TensorRT scored 564 points – well ahead of its performance with ONNX Olive, which was only 174 points due to memory bottlenecks. However, with large language models such as LLaMA 2, the memory was no longer sufficient, so the test was aborted.

OpenVINO is Intel’s inference stack, which streamlines models via the Model Optimizer and distributes them to XMX units as well as CPU and GPU. The Arc Pro B50 regularly achieved the best results in the benchmarks: 609 points in Computer Vision FP32, 757 points in Stable Diffusion FP16 and top scores in text generation with Phi 3.5 (2589 points), Mistral 7B (2479 points), LLaMA 3.1 (2446 points) and LLaMA 2 (2402 points). The decisive factor here was not only the optimization, but also the larger VRAM of 16 GB, which made the difference with complex language models.

ONNX Olive optimizes models within the ONNX Runtime and runs vendor-neutral. Olive achieved solid results on the Arc Pro B50, such as 547 points with Stable Diffusion, or 1768 points with Phi 3.5. Compared to OpenVINO, however, the gap remained visible because Olive is more dependent on generic kernels. With the 8 GB models from AMD and NVIDIA, the memory limited the results: the W7500 only achieved 467 points with Stable Diffusion, the RTX A1000 174 points, while more complex language models such as LLaMA 2 could no longer be run at all with NVIDIA. The AMD-optimized ONNX runtime specifically addresses RDNA GPUs, but also remains dependent on memory.

AI Computer Vision FP32

The vision benchmark focuses on classic image classification and object recognition with full FP32 precision. Here, the Intel Arc Pro B50 is clearly ahead with 609 points (OpenVINO) and 527 points (Windows ML). NVIDIA RTX A1000 achieves 311 points with Windows ML, while AMD Radeon Pro W7500 achieves 238 points. It is striking that the RTX A1000 with TensorRT does not even run through due to the limited 8 GB memory – a clear example of where VRAM becomes a hard limitation. Intel benefits greatly here from OpenVINO, which efficiently distributes the operators across the XMX units.

AI Image Generation – Stable Diffusion 1.5 (FP16)

Stable Diffusion is memory intensive and benefits from FP16 to reduce VRAM requirements. Intel Arc Pro B50 achieves 757 points with OpenVINO, while it achieves 547 points with ONNX Olive. NVIDIA RTX A1000 scores 564 points with TensorRT and is thus solidly in the midfield, but drops to just 174 points with ONNX Olive due to the lack of memory optimizations. AMD Radeon Pro W7500 achieves 467 points with the AMD-optimized ONNX runtime. This shows that both engine efficiency and VRAM are crucial for image generation. Cards with only 8 GB quickly reach their limits and deliver inconsistent results.

AI Text Generation – Phi 3.5

Phi 3.5 is a relatively compact model, which means that all cards can be run. Intel Arc Pro B50 achieves 2589 points with OpenVINO and 1768 with ONNX. NVIDIA RTX A1000 achieves 1114 points, AMD W7500 729, which means Intel clearly dominates, as OpenVINO uses particularly efficient kernels here. NVIDIA and AMD lag behind, but still benefit from the smaller model sizes.

AI Text Generation – Mistral 7B

Mistral 7B is significantly more memory-intensive and makes greater demands on the VRAM capacity. Intel Arc Pro B50 achieves 2479 points with OpenVINO, with ONNX 1434. RTX A1000 achieves 967 points, AMD W7500 only 518 points. This shows that 8 GB cards can hardly keep up: Batch sizes have to be reduced, which slows down the token rate considerably. Intel remains clearly superior due to the larger memory.

AI Text Generation – LLaMA 3.1

LLaMA 3.1 scales memory requirements and computing load even higher. Intel Arc Pro B50 achieves 2446 points with OpenVINO and 1109 points with ONNX. RTX A1000 achieves 858 points, AMD W7500 only 477 points. The gaps are widening, VRAM bottlenecks are visibly pushing performance down.

AI Text Generation – LLaMA 2

The VRAM limit is finally revealed here. Intel Arc Pro B50 can still run at full speed with 2402 points (OpenVINO) and 1249 points (ONNX). AMD Radeon Pro W7500 achieves practically unusable results with only 129 points. NVIDIA RTX A1000 fails completely at the memory limit, the benchmark aborts. This shows that models in the 7B class and above can no longer be processed reliably with 8 GB cards.

Conclusion

The Procyon benchmarks clearly show the differences between the cards and runtimes. Intel dominates almost all tests with the Arc Pro B50 thanks to 16 GB of VRAM and OpenVINO optimizations. NVIDIA shows solid results with TensorRT, but slumps or fails completely with memory-hungry models. AMD delivers constant but low values with ONNX AMD Optimized and also suffers from the 8 GB limit. It becomes particularly clear with large language models: 8 GB of VRAM is no longer enough to reliably handle modern AI workloads.

Kommentar

Lade neue Kommentare

Y
Yumiko

Urgestein

1,282 Kommentare 587 Likes

Hm, bei den KI Benchmarks besser ROCm nutzen. Nutze ich unter Windows auch bei RDNA3 (primär über LM Studio für Text/Voice, aber auch Amuse für Bild/Video).
Nur die kleine 780M im Tablet wird nicht unterstützt, da gehen nur die Fallbacks.

Antwort 1 Like

O
Oberst

Veteran

391 Kommentare 179 Likes

Oder ZLuda, in SD war das bei mir noch mal merklich schneller als ROCm. Ist für den produktiven Einsatz aber eher nicht passend, da nicht offiziell.

Da würde ich mir aber sorgen machen, wenn das Kupfer nicht angelötet ist. Wenn mal die Werkzeuge etwas älter sind und mehr Toleranzen verursachen, wer garantiert dann noch, dass der CU-Block großflächig Kontakt zum Aluminium hat?
Klar, man kann das Werkzeug entsprechend früh wechseln, aber ob das dann immer so eingehalten wird, da habe ich so meine Zweifel.

Antwort 1 Like

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Ich nicht, denn es zählt, wo die Kühlung aufsitzt und die funktioniert bestens. Nichtkorrosives Löten ist in der Fläche eher meh. :)

Antwort 1 Like

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Testsamples wurde von Intel gestellt? Habe jetzt nichts dazu gelesen bzw. es wohl schlicht überlesen. Gab es wenn ja gleich die RTX A1000 dazu?

Es fällt auf, dass überall der alte Nvidia-Schinken in Form der RTX A1000 gegenübergestellt wird. Preislich mag das eine Kategorie sein, aber technisch (und auch aus Kundensicht) wäre die A2000 Ada die Karte der Wahl. Mit so einer 8 GB Workstation-Karte holt man ja in der KI-Welt überhaupt nichts mehr raus. Daher hätte ich die A2000 Ada doch gerne gesehen.

Mal ganz davon abgesehen, dass das Namensschema von Nvidia absoluter Müll ist...

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Und warum hat keiner die W7500 mit drin? Unter uns: die A2000 mit 6GB ist eine Lachnummer... Ich finde es nach Preis fairer

Vergleiche mal W7500 und A2000 und dann die W7500 mit der B50. Die A2000 und die A1000 nehmen sich nicht viel :)

View image at the forums

View image at the forums

Meine 12GB Version ist defekt und die 6GB lief nicht in UHD.

Antwort Gefällt mir

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

A2000 Ada, nicht A2000 ohne Ada. Da haben wir wieder das blöde Namensschema...

Kostet schlanke 500 € netto...

Also von Intel gesponsert, denke ich mal? Hoffentlich nur die eigene Karte. 😅

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Das ist nicht mal die Hälfte... 😉
Die meisten Pascal, Turing und Ampere liegen im Lager.

View image at the forums

Antwort 4 Likes

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Die B50 ist von Intel, richtig. Sonst hätte man ja nichts zum Testen gehabt.

Antwort 2 Likes

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

View image at the forums

Immer diese übervollen Regale...

Ich wundere mich halt, dass dieses Mal kein Hinweis am Ende des Artikels war der auf die Testsamples, Testbedingungen etc. hinweist.

Daher frage ich mal ganz offensiv. Die A1000 kam auch von Intel? Diese A1000 Inflation überall ist auffällig.

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Ich habe sie alle 😆 Aber es wurde angeboten.

Vergessen. Eigentlich bin ich krankgeschrieben. NVIDIA von NVIDIA über PNY, AMD von AMD und Intel von Intel.

Antwort 5 Likes

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Ich nehme das dann mal als ein "war nicht notwendig". :ROFLMAO:

Antwort 1 Like

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Ich fand es eher lustig, dass Intel keine AMD angeboten hat

Antwort 3 Likes

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Danke dir für die Info und die Offenheit.

Ich hatte es schon vermutet, dass die Testauswahl zum Teil bezuschusst wurde bei anderen Testern.

Nutzt leider niemanden. Die olle A1000 verkauft keiner, der seinen Kunden auch wirklich helfen möchte. Zumindest ist das mein Anspruch gegenüber meinen Kunden. Sieht nur gut aus für Intel in den Benchmarks. Und wenn man dahinter guckt, hat Intel selbst seine Finger im Spiel bei der Auswahl und man kann trotz der vielen Arbeit nur bedingt was für sich herausziehen an Erkenntnis.

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Die A2000 Ada ist aber auch nicht wirklich schneller. 🤦 Das ist eine 6GB Karte und die 12GB im Clamshell scheitern meist am dünnen Interface

Antwort Gefällt mir

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Die A2000 Ada hat 16 GB und gibt es auch nur so. Du meinst die A2000 OHNE Ada aka eine Generation älter.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

3,083 Kommentare 2,046 Likes

Egal ob man jetzt Intel aus Prinzip nicht mag oder nicht, gerade bei halbhohen low-power dGPUs in Einsteigerbereich für produktiven Einsatz gibt's sonst wenig Auswahl, v.a. wenn man > 8 GB VRAM braucht. Frischer Wind ist hier IMHO sehr willkommen. Mit der Ausnahme bei Solidworks (soll ja laut @Igor Wallossek noch was kommen) scheint sich das Treiber Team um Tom Peterson hier wirklich reingekniet zu haben.

Und das macht mir Hoffnung, daß Intel vielleicht doch bei dGPUs weitermachen will. Mit Ausnahme der 9060/9070 AMD Karten für Gamer ist's bei dGPUs doch fast eine grüne Monokultur (Siehe die Verkaufszahlen!) Es ist doch auch bezeichnend, daß Nvidia nach wie vor Kunden für ihre Ampere A1000 findet. Wer hier Ada und mehr als 8GB VRAM will, muß ablöhnen, und nicht zu knapp!
Da Jensen Huang es sehr persönlich nimmt, wenn jemand Nvidia irgendwo Marktanteile streitig macht, könnte die B50 auch der Tritt in den grünen Hintern sein, der Nvidia zu einer kleinen low-power Profi Karte mit 16 GB VRAM auf Blackwell Basis motiviert.

Jetzt bin ich auch gespannt, wo die B50 vom Preis her landet. Unter bzw um ~ € 400 wär wirklich interessant!

Antwort 1 Like

Klicke zum Ausklappem
e
eastcoast_pete

Urgestein

3,083 Kommentare 2,046 Likes

Wieviel kostet eine A2000 Ada (16GB) denn im Moment? Der Preis spielt doch auch eine Rolle, je nach Kunde und Einsatz.
@Igor Wallossek Frage, um auf @Pokerclocks Einwand einzugehen: Hatte Intel hier bestimmt, welche Nvidia und AMD Karten mit im Vergleich getestet wurden?
Kann ich mir zwar nicht vorstellen, aber eine Klarstellung wär wichtig.

Antwort Gefällt mir

konkretor

Veteran

448 Kommentare 494 Likes

Denke die wo im Test sind, sind schon die Konkurrenz von Intel. Ähnliches Preissegment und Leistung.
Da hat Intel wirklich geliefert. Die Treiber Abteilung, haut ja gefühlt auch alle 2 Wochen was raus. So schlimm sind die Treiber nicht mehr wie am Anfang. Wären sie gleich so gewesen, wäre die Akzeptanz viel besser gewesen. Jetzt ist es nun mal wie es ist

Antwort 1 Like

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Nein. Die A1000 war ein sinnvoller Vorschlag, aber kein Dogma und die AMD ist auf meinem Mist gewachsen. Ich hätt auch eine RTX 5090 nehmen können 😂

Antwort 2 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung