本次活动于2025年3月15日举办,采用线上+线下的方式,研讨主题为:AI Infra赛道。本次分享会得到了来自于深合投资、毅岭资本、碧鸿投资等机构的广大投资人的热情参与和探讨。后续我们将持续进行其他主题的行业分享会,如有意愿参与分享的企业和嘉宾,可联系我们报名参与。
分享企业简介——澎峰科技
澎峰科技是一家以“软件定义算力”为核心的AI基础设施领军企业,核心团队源自中科院,汇聚了高性能计算与人工智能领域的顶尖专家。公司致力于通过自主研发的国际领先算力基础软件栈,为算力芯片企业提供加速计算解决方案,通过软件优化释放硬件潜能,构建从芯片适配到行业落地的AI全栈能力。作为国产算力生态的关键参与者,公司已携手海光、华为、中科院等10+芯片企业及20+智算中心,推动国产AI基础设施的规模化应用,加速智能时代的全面到来。
—核心产品—
PerfMPL高性能计算库:以OpenBLAS为基础,覆盖FFT、SPARSE、DNN等计算场景,显著提升芯片计算性能,适配国产异构算力硬件(如华为昇腾、寒武纪、燧原等)。PerfXAPI异构计算平台:提供统一API接口,支持跨架构硬件(CPU/GPU/NPU)的快速开发与部署,内置集成开发环境,简化复杂工作负载管理。PerfXCloud大模型服务平台:向下兼容主流国产算力与AI框架,向上提供模型推理、微调、插件生态等全流程服务,已集成80+大模型,助力企业及开发者高效开发AI应用。
01分享会内容概要
AI Infra赛道是生成式人工智能领域的重要组成部分,涵盖了从算力芯片的研发到算力运营的全过程。随着深度学习模型的不断发展,尤其是像DeepSeek这样的模型的出现,AI基础设施的需求和应用正在经历巨大的变革。
AI Infra的定义
- 算力芯片:包括GPU、FPGA、ASIC等芯片的研发和生产,这些芯片为AI模型提供强大的计算能力。
- 算力运营:涉及算力中心的建设和运营,确保算力资源的高效分配和使用。
- 软硬件协同:AI模型的训练和推理不仅依赖于硬件,还需要高效的软件优化,如模型压缩、分布式计算等技术。
产业链
- 上游芯片制造:国产芯片企业(如华为、寒武纪等)正在崛起,但在技术上仍与国际领先企业(如英伟达)存在差距。
- 中游算力中心:国内大量建设算力中心,但存在算力利用率低、适配性差等问题。
- 下游应用需求:AI应用(如大模型、智能助手等)的爆发式增长,推动了对算力的巨大需求。
现状与未来
- 单纯的算力规模并不能满足需求,关键在于如何提高算力效率,即“有效算力”的重要性日益显现。算力中心建设与实际应用需求之间存在脱节,导致部分算力资源闲置。一方面我们可以看到应用场景的多样化,AI应用正在渗透到内容生成、数据分析、智能助手等多个领域。另一方面我们也可以注意到许多企业和组织都在构建自己的AI生态,通过技术优化和资源整合,提升算力资源的利用效率。
- 展望未来, AI Infra的发展需要芯片、算法、算力中心等多环节技术的深度融合,构建高效、安全、可持续的AI基础设施,是未来AI技术发展的关键。总之,AI Infra赛道正处于快速发展和变革之中,技术、产业链和安全将是未来发展的核心要素。
02研讨会问题精选
问:国内目前的这些AI Infra企业,如果从长远的商业化来看,未来的发展路径会是什么样呢?以及你为什么认为这样发展?
答:我认为可以用“向左走、向右走”来总结。
- 向左走:将软件算法能力转化为硬件化、IP化、工具化,服务于国产芯片公司(如华为昇腾、寒武纪等)。例如,通过优化模型适配国产硬件,推动软硬协同创新。
- 向右走:直接面向市场提供AI服务,包括绑定国产芯片销售算力、开发API接口服务客户,或为企业提供定制化算力解决方案。例如,无问芯穹通过私有化部署AI工具链降低企业推理成本。
问:为何企业需要在这两个方向中选择?
答:我认为核心原因是AI产业链的“断层”现状:
- 上游芯片与下游应用脱节:国产芯片(如海光、昆仑芯)的性能尚未完全匹配大模型需求,导致应用层企业需适配不同硬件架构。
- 算力效率瓶颈:单纯堆砌算力规模无法解决实际问题,需通过算法优化提升“有效算力”。
- 商业模式分化:企业需在技术自研(向左)与商业化落地(向右)之间平衡投入与收益。
向左走适合适合具备算法积累的企业,通过技术复用降低硬件适配成本,或者叫技术导向型的企业。风险在于需长期投入研发,短期商业化效果有限。向右走适合已有客户资源的企业,通过快速迭代服务抢占市场份额,或者叫市场导向型企业。风险在于依赖外部算力供应商,议价能力较弱。
从市场来看,向右走(商业化落地)更受资本青睐,例如提供MASS API服务的初创企业融资活跃。但我认为长远来看,向左走(软硬协同)将成为核心竞争力,尤其在国产替代背景下,算法与芯片的深度绑定是突破“卡脖子”问题的关键。
问:国产AI Infra在生态与能效上面临哪些挑战?
答:生态碎片化:国产芯片厂商(如华为、寒武纪)的软件栈与CUDA生态不兼容,开发成本高。能效比低:智算中心处理1G数据耗电13kW·h,需通过液冷技术、异构计算架构(如16卡GPU集群)提升能效。未来AI生态的构建需两者结合,回到前一个问题中,我认为通过左侧的技术创新支撑右侧的商业落地,最终形成“算法-芯片-应用”的闭环。
问:开源生态对AI Infra发展有何影响?
答:开源生态会推动技术普惠,DeepSeek开源的FlashMLA、DeepGEMM等工具链,推动大模型训练效率提升至硬件极限。也可以加强生态整合,开源社区加速国产芯片适配,例如驿基于3FS系统构建低成本存储方案,兼容主流框架。开源可能导致技术同质化,风险与机遇并存,同时也为初创企业提供硬件创新机会(如LPU推理芯片)。
问:AI Infra市场的未来格局会是怎样的?
答:市场可能呈现“公有主导、私有补充”态势,但存在两大变数:硬件不确定性:国产芯片(如寒武纪)与进口芯片(如英伟达H100)的适配效率影响市场格局,异构计算架构或成主流。应用驱动:若AI应用(如Agent)爆发,可能由应用厂商主导AI Infra需求,倒逼基础设施升级。
问:创业公司在AI Infra赛道中如何与大厂竞争?
答:创业公司需聚焦细分场景与大厂形成差异化竞争。例如,选择企业私有化部署场景,通过优化模型推理成本(如DeepSeek的千亿模型部署方案)切入市场。具体策略我认为可总结为3点。第一,技术专精:即针对特定硬件(如国产芯片)或场景(如端侧推理)开发适配工具链,减少算力闲置并提升效率。第二,成本控制:通过模型压缩、FP8精度计算等技术降低推理成本,例如DeepSeek将千亿模型推理成本压缩至可商用范围。第三,生态合作:与芯片厂商(如华为昇腾)或云服务商联合开发训推一体机,弥补自身硬件短板。
1600