融资30亿后,曦望发布新一代推理GPU芯片启望S3
随着大模型进入规模化应用阶段,AI产业正从“训练驱动”转向“推理驱动”。相比一次性投入巨大的训练,推理更强调长期交付能力、单位成本和系统稳定性。谁能持续降低推理成本,谁就掌握了AI产业的成本曲线。
1月27日,国产GPU厂商曦望(Sunrise)在杭州举办了首届Sunrise GPU Summit,正式发布了新一代推理GPU芯片——启望S3。截至2025年,曦望芯片的交付量已突破万片,标志着其"All-in推理"战略完成从工程验证到规模化交付的关键跨越。

在发布会前不久,曦望宣布完成近30亿元的战略融资,投资方阵容豪华,涵盖了产业投资方、知名VC/PE机构以及国资背景资本。具体投资方包括三一集团旗下华胥基金、范式智能、杭州数据集团、正大机器人、协鑫科技等产业投资方,IDG资本、高榕创投、无极资本、中金资本、普华资本、松禾资本、易方达资本、工银投资、心资本等知名VC/PE机构,以及诚通混改基金等国资背景资本。这笔资金将主要用于下一代推理GPU的研发、规模化量产及生态共建。
启望S3发布,推理算力性能跃升
曦望成立于2020年,前身为商汤科技大芯片部门。团队规模约300人,成员主要来自NVIDIA、AMD、昆仑芯、商汤等企业,核心技术骨干平均拥有15年行业经验。联席CEO王勇为前AMD、昆仑芯核心架构师,拥有20年芯片研发经验;另一位联席CEO王湛为百度创始团队成员、原集团副总裁,曾带领8000人团队负责百度搜索业务,2025年初加入曦望负责产品化和商业化。

与行业普遍沿用的"训推一体GPU"路线不同,曦望本次选择了一条差异化路径——不追求峰值训练性能,而是聚焦推理效率与单位成本。
启望S3是曦望面向大模型推理市场推出的定制化GPGPU芯片。据王勇介绍,该芯片围绕真实推理负载,对芯片架构、存储体系与互联方式进行了系统级设计,旨在提供高效、低成本的推理算力解决方案。
在算力与存储设计上,启望S3支持从FP16到FP4的精度自由切换,能够在保证模型效果的前提下,显著提升低精度推理效率。同时,该芯片率先在国内GPGPU产品中采用LPDDR6显存方案,显存容量较上一代提升4倍,有效缓解了大模型推理中常见的显存瓶颈问题。

性能方面,启望S3在典型推理场景下的整体性价比较上一代产品提升超过10倍。在DeepSeek V3/R1满血版等主流大模型推理场景中,单位Token推理成本较上一代降低约90%,实现了“百万Token一分钱”的工程能力,为大模型推理的商业化应用提供了强有力的支持。
全栈自研,构建推理算力生态
公开信息显示,曦望历经数年研发投入累计20亿元,已形成三代芯片产品矩阵:
2020年量产的S1芯片,作为国内首款视觉推理芯片,适配千余种CV模型,已实现IP授权索尼、小米等头部客户;
2024年量产的S2芯片,对标主流A/H系列GPU,兼容CUDA生态,已成功适配DeepSeek、Qwen等主流模型;
2026年推出的S3芯片,定位为"推理性价比之王",在单位Token成本、能耗上实现数量级降低。
曦望不仅在芯片硬件上进行了深度优化,还在软件层面构建了与CUDA兼容的基础软件体系,覆盖驱动、运行时API、开发工具链、算子库和通信库,支持推理应用低成本迁移与持续优化。目前,该体系已适配ModelScope平台90%以上的主流大模型形态,降低了模型适配和系统部署的复杂度。

此外,曦望还同步发布了面向大模型推理的寰望SC3-256超节点方案。该方案可高效支撑PD分离架构与大规模专家并行(EP)部署,适配千亿、万亿级参数的多模态MoE推理场景。
在交付形态上,寰望SC3采用全液冷设计,具备极致PUE表现,并支持模块化交付与快速部署。在同等推理能力量级下,该方案的整体系统交付成本从行业常见的亿元级降低至千万元级,实现了一个数量级的下降。
推理云计划,重构算力交付方式
除了硬件和软件的创新外,曦望还推出了共建推理云计划。该计划依托自研推理GPU,通过GPU池化与弹性调度,将分散的算力资源整合为统一的推理算力池,并以MaaS(Model as a Service)作为核心入口,向企业提供开箱即用的大模型推理服务。
据曦望联席CEO王湛介绍,共建推理云在千卡级集群场景下可用性达到99.95%,横向扩展效率超过95%。这一计划不仅解决了推理算力在实际落地中普遍存在的资源碎片化、运维复杂、成本不可预测等挑战,还通过云化方式对算力交付模式进行了重构,使推理算力从“设备能力”转化为可标准化、可规模化的服务能力。
生态协同,推动推理算力商业化
随着推理算力竞争从单点技术走向系统工程能力比拼,产业协同的重要性日益凸显。曦望在发布会上与浙江大学签署了战略合作协议,联合成立“智能计算联合研发中心”,围绕光互连GPU超节点架构、半导体虚拟制造(计算光刻)以及AI高精度气象预测等前沿方向展开协同研究。
此外,曦望还与中交信科集团、杭钢数字科技、浙江算力科技、三一集团、协鑫科技等企业达成了战略合作,共同推动推理算力在交通、制造、医疗等行业的落地应用。曦望董事长徐冰表示,曦望并不希望只做一家卖芯片的公司,而是围绕推理场景构建“芯片+系统+生态”的整体布局,让推理算力真正成为可规模化、可持续的基础设施。