加入星计划,您可以享受以下权益:

  • 创作内容快速变现
  • 行业影响力扩散
  • 作品版权保护
  • 300W+ 专业用户
  • 1.5W+ 优质创作者
  • 5000+ 长期合作伙伴
立即加入

控制器/处理器

加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

电路方案

查看更多

设计资料

查看更多
  • 英伟达GPU交货周期大幅缩短,连锁反应一触即发
    英伟达GPU交货周期大幅缩短,连锁反应一触即发
    从2023上半年开始,英伟达的AI服务器用GPU(特别是H100)就供不应求了,这种状况一直持续到今天。之所以如此,问题出在生产环节,主要涉及台积电的先进制程和封装产能,特别是CoWoS封装,市场上具备这种先进封装量产能力的厂商并不多,而台积电没有预料到市场对英伟达GPU的需求增长爆发力如此之强,在2023年第二季度才开始大规模扩增CoWoS产能。
  • 如果Nvidia是AI硬件领域中的歌利亚,那么大卫在哪里?
    如果Nvidia是AI硬件领域中的歌利亚,那么大卫在哪里?
    在半导体行业的某些领域,少数公司的垄断已成为常态,特别是代工业务领域中TSMC和AI芯片中的Nvidia。凭借着为自己创造的绝对优势,这两个巨头几乎没有留给竞争对手任何可操作的空间。这个行业是如何走到今天这种局面的呢?
    298
    11小时前
  • AI芯片黑马一夜爆红:成本推算争议不断,前员工现员工互撕
    AI芯片黑马一夜爆红:成本推算争议不断,前员工现员工互撕
    2月21日报道,在OpenAI推出又一爆款力作AI视频生成模型Sora后,连带着偏上游的AI芯片赛道热度一点即着。创始成员来自谷歌TPU团队的美国存算一体AI芯片公司Groq便是最新赢家。这家创企自称其自研AI推理引擎LPU做到了“世界最快推理”,由于其超酷的大模型速度演示、远低于GPU的token成本,这颗AI芯片最近讨论度暴涨。连原阿里副总裁贾扬清都公开算账,分析LPU和H100跑大模型的采购和运营成本到底差多少。
  • 英伟达的“铁墙”,谁来攻破?
    英伟达的“铁墙”,谁来攻破?
    本篇为系列专题报告之《拥抱AI算力,我国处理器自主可控前景可期》,内容为2023年国内处理器芯片产业报告及产品选型参考。以下为报告全文:
  • AI推理速度提升超10倍,Groq LPU能否取代英伟达GPU?
    AI推理速度提升超10倍,Groq LPU能否取代英伟达GPU?
    2月20日消息,美国人工智能初创公司Groq最新推出的面向云端大模型的推理芯片引发了业内的广泛关注。其最具特色之处在于,采用了全新的Tensor Streaming Architecture (TSA) 架构,以及拥有超高带宽的SRAM,从而使得其对于大模型的推理速度提高了10倍以上,甚至超越了英伟达的GPU。
    461
    02/21 14:30