Phison 在消费级 PC 上演示了 10 倍快的 AI 推断,软硬件组合使得 AI 模型大三倍——Nvidia、AMD、MSI 和宏碁系统均通过 aiDAPTIV+ 演示

智能计算 时间:2026-01-15来源:

1768440407563362.png

CES 2026上,Phison展示了其配备aiDAPTIV+软硬件组合的消费级个人电脑,其AI推理速度是未使用其专用技术套件时的十倍。当Phison于2024年年中推出其aiDAPTIV+技术时,它实际上将NAND内存与DRAM一起转化为托管内存层,使大型AI模型能够在缺乏足够DDR5和/或HBM内存的系统上进行训练或运行,但当时这仅是一个面向企业的概念验证。到2026年初,该技术的定位发生了变化,Phison现在将其视为客户端PC上AI推理模型的推动力,这大大增加了应用场景。所以,

通常,当令牌在推理过程中不再适合 GPU 的键值(KV)缓存时,旧的 KV 条目会被逐出,因此当模型再次需要这些令牌时(在长上下文或代理循环情况下),GPU 必须从头重新计算它们,这使得在内存容量有限的系统中 AI 推理效率低下。然而,在配备Phison的aiDAPTIV+堆栈的系统中,不再适合GPU的KV缓存的令牌会被写入闪存并保留以备将来重用,这在许多情况下可以减少内存需求,并大幅延长第一个令牌的时间,即生成响应第一个词的时间。

Phison aiDAPTIV+ 平台的重新聚焦,旨在让配备入门级甚至集成 GPU 的普通个人电脑能够处理远超其内置 DRAM 通常允许的 AI 模型。将大模型推理和有限的培训带入桌面和笔记本,对于目前无法承担AI大额投资的开发者和小型企业来说可能非常有价值,因此Phison列出了一批在CES 2026上采用该技术的aiDAPTIV+测试合作伙伴名单,如宏碁、华硕、Corsair、Emdoor、微星,甚至英伟达。例如,宏碁曾在仅有32GB内存的宏碁笔记本上运行gpt-oss-120b型号,这为多种应用打开了大门。

1768440509443948.png

根据Phison内部测试,aiDAPTIV+可将推理响应时间提升多达10倍,同时降低功耗并提升笔记本电脑的首次令牌时间。显然,模型越大、上下文越长,收益越大,因此该技术对专家混合模型和代理型AI工作负载尤为相关。Phison声称,一个1200亿参数的MoE模型可以用32GB的DRAM处理,而传统方法大约需要96GB的DRAM,因为非激活参数被存储在闪存中,而非驻留在主存中。

鉴于Phison的aiDAPTIV+协议栈包含基于Phison先进控制器、特殊固件和软件的AI感知SSD(或多个SSD),该技术的实现应该相当简单。这对PC制造商、增值经销商和有意使用该功能的小型企业来说非常重要,因此合理预期其中不少企业会在面向开发者和高级用户的高端机型中实际使用这项技术。对Phison来说,这意味着使用他们的控制器,以及通过向合作伙伴销售aiDAPTIV+堆栈带来的额外收入。

关键词: CES 2026 Phison aiDAPTIV+

加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW

或用微信扫描左侧二维码

相关文章

查看电脑版