GPUs Pro Reviews Studio Workstations

A real surprise – Intel Arc Pro B50 in the test and big workstation duel under 450 euros

Temperatures and thermography

The curves show a periodic load pattern with clear ups and downs for the AI image generation run. The GPU fluctuates between around 53 and 66 degrees Celsius, while the memory modules are several Kelvin higher and reach peaks of around 72 to 73 degrees Celsius during the longer load phases. The sequence of load peak, brief relief and renewed increase indicates inference cores that are processed in blocks, in which memory accesses and compute shares alternate. The constantly larger spread between memory and GPU is noticeable, which is typical for image generation because the attention blocks force high VRAM throughputs. A heat build-up is not recognizable, the temperatures drop quickly to the mid-50 degrees in the idle intervals, the control works stably without thermal build-up.

For the thermal analysis of the Intel Arc Pro B50, my Optris PI640 was used, which works with a resolution of 640 × 480 pixels and high temperature precision. This allows hotspots and temperature distributions on the board to be documented very reliably. Tests were carried out under idle conditions as well as under typical load in AI and memory workloads. In the first image (IR idle), the card shows a homogeneous temperature pattern at room temperature. The GPU socket is at around 50.7 °C, the VRM ranges are between 47 and 49 °C. The hotspot on the back is shown at 55 °C, the memory chips are around 52 to 53 °C. Even in idle mode, it can be seen that the card has an evenly heated temperature field without any noticeable peaks.

GPU load (AI workload)

Under full load (IR GPU load), the temperatures rise significantly as expected. The hotspot reaches almost 70 °C, the GPU socket around 64 °C. The VRM VDDC is recorded at 67.3 °C, the MVDD rail at 54 °C. The memory chips in particular heat up significantly; values between 61 and 64 °C are typical. The image shows that heat dissipation is consistent in all areas and no local overheating occurs.

Storage load

With a memory-heavy workload (IR memory load), the hotspots shift more strongly to the area of the VRAM components. Peaks of up to 68.5 °C are measured here, with the hotspot rising to around 71 °C. GPU sockets and VRMs remain in the range between 63 and 64 °C. This clearly shows that the load on the memory has a greater influence on the thermal limit range than pure compute load.

The measurement results show an overall non-critical thermal behavior. With a maximum of around 70 to 71 °C under the heaviest load scenarios, the card remains far away from critical thresholds. It is only noticeable that the memory modules operate slightly warmer than the GPU itself in relative terms. Since Intel relies on simple aluminum heatspreaders with pads, this behavior is technically understandable. The VRMs also remain in the safe range at just over 65 °C. The thermography with the PI640 proves that the Arc Pro B50 is thermally balanced in its overall design and that there are no invisible hotspots on the back of the PCB that could become critical in normal operation.

Clock rates

At the beginning, the clock rates are on a high plateau and move briefly in the range just above 2.5 GHz, after which recurring steps between around 2.2 and 2.4 GHz are seen. In the later cycles, plateaus around 1.9 to 2.0 GHz can be seen, with occasional short drops towards 1.7 to 1.8 GHz before the clock picks up again in the next cycle. The pattern follows the power limit, not the temperature. The GPU temperature fluctuates within a moderate window, while the clock rates correspond exactly with the load blocks. This suggests a power-controlled boost behavior with transient upper limits, in which the card makes full use of the available slot frame and dynamically adjusts the frequency to the power budget.

Fan control

The fan curve shows clearly graduated plateaus. During load peaks, the speed rises to around 2600 to 2700 rpm, while it falls back to around 2000 rpm in the off-load phases. The GPU temperature follows the fan control with a slight delay, which indicates a conservatively designed, but not overly aggressive characteristic curve. The control avoids high amplitudes and reliably keeps the GPU below around 66 degrees, while the memory peaks are recaptured with the slightly delayed fan jumps. From an acoustic point of view, a cyclical but predictable volume characteristic can be expected.

Power consumption and slot limit

The power consumption curve compares three workloads. In AI image generation, the card stabilizes at around 68 to 70 watts in the load phases, with short transients above this. Blender shows stronger fidgeting peaks that reach into the upper 60 watt range, but drop off more frequently. The AutoCAD Mixed workload is significantly lower and remains stable at around 40 to 42 watts.

The frame of the PCIe slot is important. A standard 5.5 amps are available for 12 volts, i.e. 66 watts. The observed plateaus of around 69 to 70 watts can be explained by the fact that there is also a small load on the 3.3 volt rail. This rail is specified in the slot and can provide a few watts. If a small 3.3-volt power is added to the 12-volt 66 watts, the measured plateaus are plausible without violating the 12-volt specification. The clock levels in the later cycles match this finding, the card regulates the boost in such a way that the combined slot budget is adhered to. The fact that no temperature-driven throttling is visible underlines the fact that the limiting factor in this scenario is the slot’s power budget and not the cooling.

To summarize: the Arc Pro B50 is again severely power-limited under full GPU load. However, the temperatures remain conservative, the fan control is graduated and stable, the clock rate follows the power limit in easily recognizable steps. The short overshoots in power consumption can be explained by the combined use of the 12-volt slot and low 3.3-volt load; the 66-watt limit of the 12-volt line is largely adhered to.

 

Kommentar

Lade neue Kommentare

Y
Yumiko

Urgestein

1,282 Kommentare 587 Likes

Hm, bei den KI Benchmarks besser ROCm nutzen. Nutze ich unter Windows auch bei RDNA3 (primär über LM Studio für Text/Voice, aber auch Amuse für Bild/Video).
Nur die kleine 780M im Tablet wird nicht unterstützt, da gehen nur die Fallbacks.

Antwort 1 Like

O
Oberst

Veteran

391 Kommentare 179 Likes

Oder ZLuda, in SD war das bei mir noch mal merklich schneller als ROCm. Ist für den produktiven Einsatz aber eher nicht passend, da nicht offiziell.

Da würde ich mir aber sorgen machen, wenn das Kupfer nicht angelötet ist. Wenn mal die Werkzeuge etwas älter sind und mehr Toleranzen verursachen, wer garantiert dann noch, dass der CU-Block großflächig Kontakt zum Aluminium hat?
Klar, man kann das Werkzeug entsprechend früh wechseln, aber ob das dann immer so eingehalten wird, da habe ich so meine Zweifel.

Antwort 1 Like

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Ich nicht, denn es zählt, wo die Kühlung aufsitzt und die funktioniert bestens. Nichtkorrosives Löten ist in der Fläche eher meh. :)

Antwort 1 Like

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Testsamples wurde von Intel gestellt? Habe jetzt nichts dazu gelesen bzw. es wohl schlicht überlesen. Gab es wenn ja gleich die RTX A1000 dazu?

Es fällt auf, dass überall der alte Nvidia-Schinken in Form der RTX A1000 gegenübergestellt wird. Preislich mag das eine Kategorie sein, aber technisch (und auch aus Kundensicht) wäre die A2000 Ada die Karte der Wahl. Mit so einer 8 GB Workstation-Karte holt man ja in der KI-Welt überhaupt nichts mehr raus. Daher hätte ich die A2000 Ada doch gerne gesehen.

Mal ganz davon abgesehen, dass das Namensschema von Nvidia absoluter Müll ist...

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Und warum hat keiner die W7500 mit drin? Unter uns: die A2000 mit 6GB ist eine Lachnummer... Ich finde es nach Preis fairer

Vergleiche mal W7500 und A2000 und dann die W7500 mit der B50. Die A2000 und die A1000 nehmen sich nicht viel :)

View image at the forums

View image at the forums

Meine 12GB Version ist defekt und die 6GB lief nicht in UHD.

Antwort Gefällt mir

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

A2000 Ada, nicht A2000 ohne Ada. Da haben wir wieder das blöde Namensschema...

Kostet schlanke 500 € netto...

Also von Intel gesponsert, denke ich mal? Hoffentlich nur die eigene Karte. 😅

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Das ist nicht mal die Hälfte... 😉
Die meisten Pascal, Turing und Ampere liegen im Lager.

View image at the forums

Antwort 4 Likes

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Die B50 ist von Intel, richtig. Sonst hätte man ja nichts zum Testen gehabt.

Antwort 2 Likes

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

View image at the forums

Immer diese übervollen Regale...

Ich wundere mich halt, dass dieses Mal kein Hinweis am Ende des Artikels war der auf die Testsamples, Testbedingungen etc. hinweist.

Daher frage ich mal ganz offensiv. Die A1000 kam auch von Intel? Diese A1000 Inflation überall ist auffällig.

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Ich habe sie alle 😆 Aber es wurde angeboten.

Vergessen. Eigentlich bin ich krankgeschrieben. NVIDIA von NVIDIA über PNY, AMD von AMD und Intel von Intel.

Antwort 5 Likes

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Ich nehme das dann mal als ein "war nicht notwendig". :ROFLMAO:

Antwort 1 Like

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Ich fand es eher lustig, dass Intel keine AMD angeboten hat

Antwort 3 Likes

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Danke dir für die Info und die Offenheit.

Ich hatte es schon vermutet, dass die Testauswahl zum Teil bezuschusst wurde bei anderen Testern.

Nutzt leider niemanden. Die olle A1000 verkauft keiner, der seinen Kunden auch wirklich helfen möchte. Zumindest ist das mein Anspruch gegenüber meinen Kunden. Sieht nur gut aus für Intel in den Benchmarks. Und wenn man dahinter guckt, hat Intel selbst seine Finger im Spiel bei der Auswahl und man kann trotz der vielen Arbeit nur bedingt was für sich herausziehen an Erkenntnis.

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Die A2000 Ada ist aber auch nicht wirklich schneller. 🤦 Das ist eine 6GB Karte und die 12GB im Clamshell scheitern meist am dünnen Interface

Antwort Gefällt mir

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Die A2000 Ada hat 16 GB und gibt es auch nur so. Du meinst die A2000 OHNE Ada aka eine Generation älter.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

3,083 Kommentare 2,046 Likes

Egal ob man jetzt Intel aus Prinzip nicht mag oder nicht, gerade bei halbhohen low-power dGPUs in Einsteigerbereich für produktiven Einsatz gibt's sonst wenig Auswahl, v.a. wenn man > 8 GB VRAM braucht. Frischer Wind ist hier IMHO sehr willkommen. Mit der Ausnahme bei Solidworks (soll ja laut @Igor Wallossek noch was kommen) scheint sich das Treiber Team um Tom Peterson hier wirklich reingekniet zu haben.

Und das macht mir Hoffnung, daß Intel vielleicht doch bei dGPUs weitermachen will. Mit Ausnahme der 9060/9070 AMD Karten für Gamer ist's bei dGPUs doch fast eine grüne Monokultur (Siehe die Verkaufszahlen!) Es ist doch auch bezeichnend, daß Nvidia nach wie vor Kunden für ihre Ampere A1000 findet. Wer hier Ada und mehr als 8GB VRAM will, muß ablöhnen, und nicht zu knapp!
Da Jensen Huang es sehr persönlich nimmt, wenn jemand Nvidia irgendwo Marktanteile streitig macht, könnte die B50 auch der Tritt in den grünen Hintern sein, der Nvidia zu einer kleinen low-power Profi Karte mit 16 GB VRAM auf Blackwell Basis motiviert.

Jetzt bin ich auch gespannt, wo die B50 vom Preis her landet. Unter bzw um ~ € 400 wär wirklich interessant!

Antwort 1 Like

Klicke zum Ausklappem
e
eastcoast_pete

Urgestein

3,083 Kommentare 2,046 Likes

Wieviel kostet eine A2000 Ada (16GB) denn im Moment? Der Preis spielt doch auch eine Rolle, je nach Kunde und Einsatz.
@Igor Wallossek Frage, um auf @Pokerclocks Einwand einzugehen: Hatte Intel hier bestimmt, welche Nvidia und AMD Karten mit im Vergleich getestet wurden?
Kann ich mir zwar nicht vorstellen, aber eine Klarstellung wär wichtig.

Antwort Gefällt mir

konkretor

Veteran

448 Kommentare 494 Likes

Denke die wo im Test sind, sind schon die Konkurrenz von Intel. Ähnliches Preissegment und Leistung.
Da hat Intel wirklich geliefert. Die Treiber Abteilung, haut ja gefühlt auch alle 2 Wochen was raus. So schlimm sind die Treiber nicht mehr wie am Anfang. Wären sie gleich so gewesen, wäre die Akzeptanz viel besser gewesen. Jetzt ist es nun mal wie es ist

Antwort 1 Like

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Nein. Die A1000 war ein sinnvoller Vorschlag, aber kein Dogma und die AMD ist auf meinem Mist gewachsen. Ich hätt auch eine RTX 5090 nehmen können 😂

Antwort 2 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung