Phison aiDAPTIV+ ontsluit krachtige AI-verwerking op pc-platformen
In dit artikel:
Phison Electronics heeft aiDAPTIV+, een uitgebreide architectuur die AI-verwerking naar geïntegreerde GPU-platforms brengt, aangekondigd en demonstreert die tijdens CES (Phison Bellagio Suite en partnerstands) van 6–8 januari 2026. Met meer dan 25 jaar ervaring in flashgeheugen wil Phison met deze technologie notebooks, desktops en mini-pc’s in staat stellen om inferentie en finetuning van grote modellen lokaal uit te voeren, zonder de traditionele afhankelijkheid van veel DRAM of datacenterhardware.
Hoe het werkt
- aiDAPTIV+ gebruikt NAND-flash als een extra geheugenlaag naast DRAM/GPU-VRAM om knelpunten in het compute- en geheugenpad op te lossen. Daardoor kunnen grote modelparameters en KV-caches deels op kosteneffectief flashgeheugen worden geplaatst.
- Tokens die niet meer in de KV-cache passen worden opgeslagen en hergebruikt in plaats van opnieuw te berekenen, wat reactietijden sterk verbetert en energieverbruik vermindert.
Belangrijkste voordelen en cijfers
- Lagere DRAM-behoefte: in Phison-tests kan een parameteropslag van 120 bytes worden afgewikkeld met slechts 32 GB DRAM in plaats van de gebruikelijke 96 GB, wat MoE-workloads op kleinere systemen mogelijk maakt.
- Snellere inferentie: hergebruik van opgeslagen tokens verkort de Time to First Token en kan volgens interne tests inferenties tot ongeveer tienmaal versnellen.
- Grotere modellen op notebooks: gecombineerd met Intel Core Ultra Series 3 (met Intel Arc iGPU) toonde Phison dat finetuning van modellen tot circa 70 miljard parameters op een notebook haalbaar is — eerder alleen mogelijk op dure werkstations of servers (kostenverschil tot tien keer).
Partners en demonstraties
- Acer, MSI, Corsair, ASUS en Emdoor werken met Phison samen; Acer laat zien dat gpt-oss-120b op een laptop met 32 GB geheugen kan draaien en MSI demonstreert versnelde inferentie voor vergadernotities. Phison presenteert meerdere systeemconfiguraties die aiDAPTIV+ gebruiken.
Context en overwegingen
- De aanpak maakt AI op locatie toegankelijker en betaalbaarder voor consumenten, mkb’s en onderzoeksgebruikers, maar vereist integratie tussen firmware, drivers en software-ecosystemen. Daarnaast blijven prestatie- en levensduurkarakteristieken van flash (latentie, schrijfbelasting) relevante technische uitdagingen die zorgvuldig beheer en optimalisatie vragen.
Al met al positioneert aiDAPTIV+ flashgeheugen als een praktische schaalbare route om grote AI-modellen buiten datacenters te brengen, waarmee alledaagse apparaten meer AI-capaciteit krijgen zonder enorme meerkosten.