Intel en SambaNova verbeteren AI voor Agentic met Xeon 6

donderdag, 9 april 2026 (11:34) - TechGaming

In dit artikel:

SambaNova en Intel presenteren een heterogene hardware-blauwdruk voor grootschalige inferentie van agentische AI: GPU’s voor de prefill-fase, Intel Xeon 6-processors als host- en uitvoerende CPU’s, en SambaNova RDU’s (o.a. de SN50 RDU) voor snelle token-decodering. De gezamenlijke oplossing, bedoeld voor bedrijven, cloudproviders en soevereine AI-programma’s, moet in de tweede helft van 2026 beschikbaar komen en is ontworpen om te draaien in bestaande, luchtgekoelde datacenters met volledige x86-compatibiliteit.

Waarom deze mix? Agentische AI — autonome agents die code compileren en uitvoeren, tools en API’s aanroepen, databases raadplegen en onderling communiceren — vereist lage latentie en grootse schaalbaarheid. Uit productie-ervaringen blijkt dat GPU-only stacks vooral de prefill (context en promptvoorbereiding) afhandelen, maar dat CPU’s en speciale inferentie-acceleratoren de snelheid en efficiëntie van daadwerkelijke agentworkflows bepalen. SambaNova stelt dat de SN50 RDU hoge throughput en lage latency bij decodering levert, terwijl Xeon 6 de benodigde geheugenbandbreedte, PCIe-lanedichtheid en on-die accelerators biedt om toolaanroepen, compilaties en vectordatabase-activiteiten snel af te handelen.

SambaNova meldt meetwaarden waarin Xeon 6 tot meer dan 50% snellere LLVM-compileertijden behaalt vergeleken met Arm-servers en tot 70% betere prestaties voor vectordatabases ten opzichte van sommige x86-concurrenten. Volgens partners en klanten betekent dit dat duizenden tegelijk draaiende codeeragenten efficiënter kunnen worden geschaald, met minder chips en betere kosten-perfomance.

De samenwerking wordt gepositioneerd als een kant-en-klare architectuur: klanten krijgen een ontwerp dat ze in bestaande datacenteromgevingen kunnen inzetten, met het doel premium inferentieprestaties te leveren voor agentische workloads die inmiddels uit demonstraties zijn gegroeid en in productie komen. De aankondiging weerspiegelt ook een bredere trend naar heterogene hardware in inferentie: geen enkele chip is ideaal voor alle fases van een agentworkflow, daarom combineert dit ontwerp GPU’s, krachtige x86-CPUs en herconfigureerbare inferentie-acceleratoren.