GPUs Pro Reviews Studio Workstations

Intel Arc Pro B60 Workstation Graphics Card Review with technical Analysis and Teardown – Battle of the small Workhorses under 1200 Euros

PugetBench for Premiere Pro is a practical benchmark tool that measures the performance of workstations in typical Adobe Premiere Pro workflows. The aim is to record the actual performance during import, editing, effects and export and thus create a basis for comparing different hardware configurations. Of particular relevance here is the mapping of GPU-accelerated effects and the measurement of encoding and decoding performance, as these often represent the biggest bottleneck in video production.

A significant part of the benchmark focuses on export performance, as this is crucial for productivity in practice. In order to emphasize the influence of encoding as much as possible, Puget Systems relies on a special setup: The source material is a DNxHR LB clip with 480×270 pixels, which is scaled on a UHD timeline (3840×2160). DNxHR LB is a very simple codec for processing; at the same time, there is no platform with hardware decoding support for this codec. This ensures that decoding is not the limiting factor, but that encoding is the bottleneck during export.

 

Puget Systems

To prevent modern codecs such as H.264 or HEVC from becoming “too smart” due to their efficient compression algorithms with repeating pixel patterns and thus unintentionally achieving better results, a fractal noise image in PNG format is also superimposed on the clip. It is important to note that this is not the fractal noise effect from Premiere itself, but a prepared image that is applied to the clip. This ensures that each pixel is unique and that there are no redundancies in the encoding.

With this setup, the benchmark can very clearly capture the encoding performance of Premiere Pro in various codecs such as H.264, HEVC or DNxHR. In addition, it tests GPU-accelerated effects so that differences in real-time preview and rendering are also visible. The results provide a direct comparison of which hardware is best suited to which workflow. This makes the benchmark a valuable tool both for users who want to optimize their systems and for IT departments that need to select hardware for creative teams.

To evaluate the performance of a system when exporting to different codecs, the benchmark is designed to make the encoding part of a rendering as much of a bottleneck as possible. To achieve this, one uses a DNxHR LB 480×270 source clip scaled to a UHD (3840×2160) timeline. DNxHR LB is a very simple codec to process (especially at this low resolution) and does not support hardware decoding on any platform, making it a good base codec. To ensure that each pixel is unique and codecs like H.264 or HEVC don’t get too “smart”, one also applies a simple fractal noise image in PNG format (NOT the fractal noise effect) to the clip to ensure that there are no repeated pixels.

  • H.264 50Mbps 8-bit UHD, H.264 50Mbps 8-bit (software encoding) UHD
  • HEVC 50Mbps 8-bit UHD, HEVC 60Mbps 10-bit UHD, HEVC 50Mbps 8-bit (software encoding) UHD, HEVC 60Mbps 10-bit (software encoding) UHD
  • DNxHR LB UHD, DNxHR SQ UHD,,DNxHR HQX UHD
  • ProRes 422 Proxy UHD, ProRes 422HQ UHD, ProRes 4444 UHD.

For the processing tests, the benchmark uses a wide range of codecs in different resolutions and creates a timeline in the native resolution of the clip. It then exports each timeline to DNxHR LB in HD (1920×1080) resolution. This is where the hardware decoding support comes into play. The benchmark results from this method are very consistent and accurately reflect the relative performance between systems when working with different codecs.

  • 4K H.264 150Mbps 4:2:0 8-bit, 4K HEVC 100Mbps 4:2:2 10-bit, 8K HEVC 100Mbps 4:2:0 8-bit,
  • 4K ProRes 422 Proxy, 4K ProRes 422
  • 4K DNxHR LB, 4K DNxHR SQ
  • 4K Cinema RAW Light ST
  • 4K ARRIRAW
  • 5K Sony X-OCN
  • 4K RED, 8K RED

The final category of tests looks at performance for GPU-accelerated effects. Many of the effects in Premiere Pro are relatively easy to process individually, so even a low-end GPU will not be taxed if only a single instance is applied. To address this, the benchmark applies each effect four to forty times, depending on the requirements. Again, a DNxHR LB UHD (3840×2160) clip is used as the basis and exported to DNxHR LB HD (1920×1080) – just like the “4K DNxHR LB” processing test. The difference is that the following effects are also applied for each test:

  • Lumetri Color x40
  • Gaussian Blur x40
  • Sharpen x40,
  • VR Digital Glitch x20, VR De-Noise x4.

In the overall PugetBench score for Adobe Premiere Pro 25.41, the Intel Arc Pro B60 came in third place with 96,669 points, just behind the Radeon Pro W7700 and the RTX 4000 Ada. The result shows a very balanced performance across all workflows, especially in decoding and GPU-accelerated effects. The smaller B50 follows with 85,302 points, which confirms the solid scaling between the two Intel cards. Premiere uses the GPU primarily for timeline playback, rendering and filtering – here the Arc architecture clearly benefits from the high compute rates and the powerful media engine.

The LongGOP score, which primarily evaluates H.264 and H.265 decoding, shows a clear advantage for AMD. The Radeon Pro W7700 and W7600 achieve top scores of 170 and 152 points respectively. The Arc Pro B60 follows with 127 points, but is still well ahead of NVIDIA’s Ada GPUs. The good performance can be explained by Intel’s integrated hardware acceleration for modern video codecs, which, however, works somewhat less efficiently at variable bit rates than AMD’s implementation.

In the intraframe score, which evaluates intraframe-compressed formats such as ProRes or DNxHR, the B60 is once again positioned in the upper midfield with 122 points. AMD leads with 159 (W7700) and 152 (W7600), while NVIDIA is slightly behind with 113 (RTX 4000 Ada). Premiere particularly benefits here from high memory bandwidth and optimized cache handling, which serves Intel’s architecture well, even if AMD’s dedicated transcoders still have advantages with these codecs.

The raw score, which evaluates the processing of uncompressed 4K to 8K files, shows a strong result for the B60 with 143.6 points – almost on a par with the RTX 2000 Ada (147 points) and only around 17% behind the RTX 4000 Ada. Intel can fully exploit its compute performance here, especially with GPU-accelerated effects in real-time previews.

In the GPU effects score, which tests GPU-heavy filters, color space transformations and transitions, the Arc Pro B60 achieved 38.2 points. This puts it just ahead of AMD’s W7700 (37.1) and well ahead of the smaller B50 (36.6). NVIDIA remains the undisputed leader here with up to 48.7 points, which can be attributed to CUDA optimizations and broader plug-in support. Nevertheless, it is clear that Intel now also offers stable and reproducible high performance with GPU effects.

Interim conclusion

In Adobe Premiere Pro, the Intel Arc Pro B60 impresses with its overall very strong and balanced performance. Especially in the raw and GPU effects area, it offers a level that was previously clearly reserved for NVIDIA. It falls slightly behind AMD in codec handling of LongGOP material, but delivers consistently high values for ProRes and DNxHR. The combination of high compute performance, a powerful media engine and stable drivers makes the B60 a real alternative for professional video editors working with mixed codecs and effects.

 

Kommentar

Lade neue Kommentare

e
eastcoast_pete

Urgestein

3,083 Kommentare 2,046 Likes

@Igor Wallossek : Danke, ein guter und detaillierter Test und Vergleich.
Was aus meiner Sicht auch wichtig ist,: Intels Grafik Abteilung hat sich bei den Treibern scheinbar sehr reingekniet, und das zeigt Früchte. Bleibt die Hoffnung, das Xe3 dann auch in dGPUs Einzug findet.
Und abschließend die Frage: irgendwelche Neuigkeiten ob und wann Battlematrix jetzt erscheinen soll?

Antwort 2 Likes

R
Robofighter

Veteran

153 Kommentare 89 Likes

Gar nicht so schlecht was Intel da abliefert. Igors gefundene Mängel noch abstellen und die Software optimieren dann ist es eine gute Alternative. Ich hatte mir ja eine Intel B580 gekauft weil meine RTX 4090 zur RMA ( Hotspot Temperatur zu hoch) musste und war damit super zufrieden. Taktfreudig( 3150 Mhz), kühl und super verarbeitet. Kann man diese Workstation Karte auch übertakten und wie hoch wäre der Leistungsgewinn?
Ich denke Intel ist auf dem richtigen Weg. Also 👍

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

OC ist nicht. Ist ja Workstation. Allerdings hat die Power rund 55 Watt headroom.

Antwort 1 Like

konkretor

Veteran

448 Kommentare 494 Likes

Das mit der PCIE Verlängerung muss echt nicht sein. Da sollte dringend nachgearbeitet werden.

Mal sehen bis die Dual Karte endlich kommt

Antwort 2 Likes

FfFCMAD

Urgestein

1,158 Kommentare 486 Likes

Was wohl auch noch in Arbeit ist ist der SR-IOV Support. Sodass man recht günstig virtuelle Desktops flüssig bedienen kann. Intel hat da echt was in der Tasche. Ist eine gute Idee das untere Segment in Bereich Desktop und Workstation anzugreifen. Das haben AMD und Nvidia nämlich stark vernachlässigt.

In meinem Wohnzimmer habe ich mir nun die B580 in den Media-PC rein gesetzt. Die ist zwar langsamer als die 3070TI, die vorher drin steckte. Sie spielt aber 8K 60Hz Videos mit HDR ab, wo die 3070TI schon bei 4K 60Hz ohne HDR jede Sekunde Bilder dropte bis zum Umfallen. Auch die 2D Leistung in Windows ist deutlich besser. Ich überlege mir schon die B770 oder B780 zu holen, wenn sie dann erscheint. (Dann gebe ich die B580 für nen Kumpel ab für seinen Media Center PC) Die Treiber sind auf jeden Fall deutlich ausgereifter in zwischen. Vor ein paar Wochen wurde wohl auch das Problem behoben, das langsame CPUs durch Overhead wesentlich weniger FPS mit den Intel Karten lieferten als die Konkurrenz.

Antwort 3 Likes

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Danke für den ausführlichen Test! @Igor Wallossek

Wann immer Kunden anfragen, habe ich jetzt einen Link parat. 😂

Realistisch betrachtet, wird es wohl mindestens bis nächstes Jahr dauern, bis die B60-Karten der breiten Masse verfügbar gemacht werden. Es war eine absolute Tortur, an eine B60 heranzukommen. Von Distri's bis hin zu den Boardpartnern. Alle haben abgewunken und wollten (konnten durchaus) nicht an mich etwas verkaufen. Asrock ghosted mich bis heute. Die wollten ganz genau wissen, wofür die Karten benutzt werden sollen. Ja und dann taucht die plötzlich im Geizhals auf...

Ich finde das äußerst lächerlich, was Intel da abzieht. Interessierte professionelle Anwender werden abgeblockt, obwohl denen ganz klar ist, dass sie da ein Produkt mit Ecken und Kanten erhalten.

So wird das nichts Intel. Wenn man Geld machen möchte, muss man auch Kunden finden.

Antwort 4 Likes

HerrRossi

Urgestein

7,065 Kommentare 2,400 Likes

Interessanter Test, vielen Dank! Bei mir wird die Grafik für Stable Diffusion nicht angezeigt, liegt das Problem bei mir?

Für AI sind das für mich interessante Karten, könntest du dort evtl. noch eine Consumer-Grafikkarte bei den AI-Tests mit aufnehmen @Igor Wallossek ? Das würde mir (und vllt. auch anderen) den Leistungsvergleich vereinfachen.

Antwort Gefällt mir

LurkingInShadows

Urgestein

1,531 Kommentare 655 Likes

Wenn wir schon bei Kabeln sind; haben da nicht die beiden schwarzen rechts oben auch Macken?

Spoilerinhalt versteckt.

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Masseisolierung, da passiert erst mal nichts. Sieht aber unschön aus :)

Antwort Gefällt mir

Kaito Kariheddo

Mitglied

18 Kommentare 4 Likes

Schönes Ding, trotz abenteuerlicher Stromzuführung

Antwort Gefällt mir

Alkbert

Urgestein

1,311 Kommentare 1,087 Likes

Ich hoffe da kommt von Intel in allen GPU Kartenbereichen noch mehr. Zum einen, weil ich Intel ungerne den Bach runtergehen sehen würde, sonst haben wir ein AMD Monopol (wie seinerzeit das unselige Intel Monopol, dass uns mit 4 Haswell Kernen abgespeist hat, nach dem Motto: Das reicht für die Dödel schon) und zum Anderen, weil man sich heute lebensnotwendig breiter aufstellen muss. Dann klappt´s auch mit den Nachbarn.
Ich habe zwar nur eine B580 im Wohnzimmer / Beamer PC laufen (5800x Basis), aber die werkelt zumindest geräucharm vor sich hin - und damit meine ich nicht nur die Lautstärke.

Antwort 2 Likes

e
eastcoast_pete

Urgestein

3,083 Kommentare 2,046 Likes

Zur Bauqualität: uU eine Konsequenz daraus, daß Intel ihren Boardpartnern ziemlich viel Spielraum lässt. Die Karte, die @Igor Wallossek zum Testen hatte, war ja von Sparkle. Eine "FE" oder "LE" der B60 direkt von Intel gibt's, soweit ich es weiß, nicht. Warum sie das anders als bei der B580 gemacht haben? Spekulation meinerseits ist, daß Intel es so leichter hatte, Boardpartner zu gewinnen. Und auch hier den Kontrast zu Nvidia sucht, die ja bekanntlich ihren Boardpartnern nur wenig bis keinen Spielraum lassen.

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Die B50 hat ja das typische Standarddesign in Blau. Die Platine sieht auch komplett anders aus. Das hier ist eher so ein Boardpartner-Ding, das ich auch nicht mag.

Antwort Gefällt mir

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Aussage dazu seitens GN war einmal sinngemäß laut Intel: Ihr könnt tun und lassen, was ihr wollt, Hauptsache ihr (die Boardpartner) übernehmt den Support.

Ich persönlich finde den Ansatz gut, weil es zu Vielfalt und Innovation führen kann. Aktuell wird aber nur geblockt und die Karten sind da aber nur an handverlesenes Publikum...

Antwort 1 Like

M
McFly_76

Veteran

428 Kommentare 161 Likes

Intel bewirbt auch Multi-GPU-LLM mit bis zu 4 Grafikkarten und da frage ich mich wie es wohl funktionieren würde mit bis zu 4x Arc B580 im PC wenn das Mainboard ( PCIe Slots ) dafür ausgelegt ist. :coffee:
P.S.
Was mir beim Begutachten des Intel Grafiktreibers ( B580 ) aufgefallen ist dass der "Modus mit geringer Latenz" eher stottern in manchen Spielen verursacht und dass die Low-FPS dabei um bis zu ~15 % niedriger droppen können.

Antwort Gefällt mir

P
Pokerclock

Urgestein

978 Kommentare 959 Likes

Ich hatte das mal mit drei A310 getestet. Treiberseitig wird da alles erkannt. Auch rBar ist kein Problem. Am Ende hatte ich da 12 Full-HD-Displays dran. Aber der Decoder lief nur über eine Karte und man hatte keine Möglichkeiten, die 3D-Last zu switchen. Das gab auch Windows in seinen Einstellungen nicht her. Schlicht keine Funktion.

Also ohne spezielle Softwareunterstützung, die das ermöglicht, wird das nichts. Außer natürlich, man möchte sich einen Display-Cluster bauen.

Antwort 2 Likes

hansmuff

Veteran

116 Kommentare 67 Likes

@Igor Wallossek In Maya 2025 Shaded stimmt was mit den Balken nicht.

"In der Disziplin Shaded SSAO (Screen Space Ambient Occlusion), die Umgebungsverdeckung simuliert, zeigt die B60 leichte Schwächen. Mit 0,90 Punkten liegt sie etwas hinter AMD und NVIDIA" läßt sich nicht von der Grafik ablesen.

Antwort Gefällt mir

unspektakulaer

Mitglied

17 Kommentare 3 Likes

Danke für den Artikel. Hätte jetzt, wie in der Extrabox im Artikel nahegelegt, auch gerne Raff seinen Artikel gelesen. Aber den gibt es wohl (noch?) nicht? War selten so enttäuscht :(

Antwort Gefällt mir

Igor Wallossek

1

13,159 Kommentare 26,153 Likes

Kommt in ca. 2 Wochen

Antwort 2 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung