近日,零刻科技通过LM Studio软件对旗下两款旗舰主机SER9 Pro HX370(64G内存)与AI 365(32G内存)进行了深度性能测试,重点针对deepseek-R1蒸馏模型的本地部署能力展开多维度对比。测试覆盖1.5B至14B参数规模及Q2-Q8精度范围,揭示了不同配置下大模型运行的性能边界与应用潜力。

硬件性能亮点

SER9 Pro HX370凭借AMD HX370处理器与Radeon 890M核显的协同设计,在GPU模式下展现出独特优势:

- 处理1.5B/7B模型时,核显算力利用率达峰值,响应速度较AI 365提升显著

- 运行14B高参模型时,与AI 365性能趋近,均实现稳定持续输出

- 首创智能算力分配机制,可优先调用核显资源降低CPU负载

内存配置突破

测试验证了创新显存分配方案的有效性:

- 64G内存版本可划拨48G专用显存,满足14B模型GPU运算需求

- 32G内存支持24G显存分配,为7B以下模型提供充裕资源

- 双平台CPU模式下性能表现接近,凸显内存带宽优化成效

场景化部署建议

基于千组测试数据,零刻技术团队提出分级部署策略:

▶ 日常办公场景:优选8B-Q6模型,在2.3秒/Token响应速度下,实现资源占用与语义理解的黄金平衡

▶ 专业创作场景:推荐14B-Q4配置,借助16线程CPU并行计算,复杂代码生成效率提升40%

▶ 移动端协同场景:1.5B-Q8模型仅需8G显存即可流畅运行,特别适配边缘计算需求

值得关注的是,SER9 Pro HX370通过动态功耗调节技术,在持续运行14B模型时仍能将整机功耗控制在45W以内,为紧凑型主机的大模型部署树立了新能效标杆。此次测试不仅验证了消费级硬件本地化AI部署的可行性,更为中小企业构建私有化智能系统提供了精准选型参考。

打开网易新闻 查看更多图片