AI芯片

加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

AI芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责)。当前,AI芯片主要分为 GPU 、FPGA 、ASIC。

AI芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责)。当前,AI芯片主要分为 GPU 、FPGA 、ASIC。收起

查看更多

电路方案

查看更多
  • 6万卡,国产AI算力新格局!
    2026年4月,我国首个大规模科学智能计算集群正式投用,具备6万张国产AI加速芯片,成为AI驱动科研的新标杆。该集群采用全自研架构,实现了高密度设计、低能耗和高性能,解决了互联、调度、散热和可靠性问题。其智能化管理系统简化了科研人员的操作流程,使算力资源更加普惠。此外,集群实现了全面自主可控,支持多种国产加速卡和框架,并作为国家超算互联网的核心节点,推动全国算力资源共享。
  • 谁来为端侧大模型“功耗墙”破局?
    端侧AI芯片市场预计从2025年的3219亿元增长至2029年的1.2万亿元,复合年增长率高达39.6%。然而,端侧大模型的落地面临三大核心痛点:功耗-算力-成本的不可能三角、内存墙难题以及场景适配矛盾。迈特芯通过3D分布式TPU技术、类矿机可扩展模式和龙虾终端定位,解决了这些痛点,推出了高性能、低功耗、高集成度的LPU芯片,形成了独特竞争优势。
    谁来为端侧大模型“功耗墙”破局?
  • 摩尔线程S5000 + 智源FlagOS:基于原生FP8引擎,Day-0适配DeepSeek-V4
    摩尔线程携手智源众智FlagOS社区,在旗舰级AI训推一体全功能GPU MTT S5000上,率先实现对新一代大模型DeepSeek-V4-Flash的Day-0极速适配,并完成了全量核心算子的深度优化与部署支持。 DeepSeek-V4-Flash 采用混合专家(MoE)架构,总参数量高达284B,激活参数13B,支持百万token上下文长度。其预训练数据超32Ttoken,在最大推理力度模式(
    1715
    04/24 16:59
    摩尔线程S5000 + 智源FlagOS:基于原生FP8引擎,Day-0适配DeepSeek-V4
  • 纯推理GPU独角兽获超10亿元融资,国内AI芯片再掀高潮!
    2026年4月,国内全栈自研AI推理GPU企业“曦望”(Sunrise)宣布完成新一轮超10亿元人民币融资,投资方涵盖产业战投、地方国资及头部财务机构。至此,这家分拆独立仅一年多的企业已完成七轮融资,累计融资额约40亿元,估值突破百亿元,成为国内纯推理GPU赛道的首家独角兽企业。
    纯推理GPU独角兽获超10亿元融资,国内AI芯片再掀高潮!
  • 45.16亿!国产半导体巨头要崛起
    芯原股份(VeriSilicon)成立于2001年,是中国大陆排名第一、全球第八的半导体IP授权服务商。公司业务涵盖半导体IP授权、一站式芯片定制(ASIC)及量产业务。近期,芯原股份宣布其新签订单达到45.16亿元人民币,同比增长显著,表明公司在AI领域的快速增长势头。芯原凭借自主研发的多种处理器IP和全面的设计服务,在AI芯片定制领域占据领先地位,并受益于AI算力需求的增加。随着全球半导体竞争格局的变化,芯原股份有望进一步巩固其行业地位。
    1174
    04/23 16:52