AI训练

加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论
  • 博通做什么、靠什么赚钱、在AI时代扮演什么角色
    Broadcom作为基础设施科技公司,专注于提供底层关键零件和系统软件,包括半导体、基础设施软件、网络安全与虚拟化等领域。其主要产品如网络芯片、存储芯片、连接芯片、VMware、CA、Symantec等,服务于云计算巨头、大型通信公司和企业IT部门,解决AI训练、数据中心能耗、企业云安全等问题。Broadcom采用硬件+软件双轮驱动的平台思维,构建算力与连接平台及管理与安全平台,形成AI基础设施全栈解决方案。AI时代,Broadcom作为生产资料供应商,提供高速网络、高性能存储系统和安全资源调度,成为AI发展的基石。其商业模式具有高毛利、高壁垒和低可替代性的特点,通过兼并式扩张快速拓展产品生态。对于产品经理而言,Broadcom提供了平台化、系统化、价值导向的启示,强调从功能到能力的抽象、从产品到平台的协同以及以客户ROI为核心的产品逻辑。
    博通做什么、靠什么赚钱、在AI时代扮演什么角色
  • 国产AI训练与推理芯片破局之战
    在全球人工智能军备竞赛的至暗时刻,一颗芯片的重量,足以压垮一个国家的智能未来。 当OpenAI用ChatGPT惊艳世界,当硅谷巨头们为争夺下一万张H100显卡而豪掷千金,一个冰冷的事实摆在我们面前:没有算力,所有关于大模型的豪言壮语都是空中楼阁。而算力的心脏——高端AI训练与推理芯片,正成为大国博弈中最关键的战略物资。 在这场没有硝烟的战争中,中国的科技产业正上演一场惊心动魄的破局之战。国产AI云
  • AI训练芯片详解
    深入解析AI训练芯片的定义、功能、架构与市场格局 什么是AI训练芯片? AI训练芯片是专门用于训练神经网络模型的集成电路,其核心功能是通过大规模数据输入和复杂计算,构建具备特定功能的AI模型。 训练过程 通过大量标记数据训练神经网络模型,需极高的计算性能和精度。 高算力需求 单次训练可能持续数周,需并行处理数万亿次计算。 低功耗设计 尽管算力需求高,但需优化能效比,降低整体能耗。 典型架构与产品
    1277
    07/28 09:54
  • 第三代昆仑芯万卡集群点亮,全版本适配DeepSeek训练推理
    两周之内,DeepSeek成为全球增速最快的AI应用。2月6日,昆仑芯宣布,已完成DeepSeek训练推理全版本适配,在追求低成本、高效率的基础上支持卓越性能,能够实现一键部署,为广大开发者提供更快、更强、更省的训练推理体验。
    第三代昆仑芯万卡集群点亮,全版本适配DeepSeek训练推理
  • 人形机器人重大突破!英伟达携中国初创企业登上世界舞台
    NVIDIA打造的仿真环境,以及与业界在合成数据等方面探索,正在逐一打破落地瓶颈,为人形机器人注入新灵魂,开启新范式,推动人形机器人产业步入快速发展期。
  • AI模型训练【偏差/方差】与【欠拟合/过拟合】
    在我们拿到一个数据集,高高兴兴准备训练一个模型时,会遇到欠拟合或过拟合的问题,业内也喜欢用偏差和方差这两指标去定义它们,那这些词什么意思呢?有什么方法能避免/解决 欠拟合和过拟合呢?这其实是非常非常基础的概念,但是其实即使是业内人士很难一下子把它们完全讲明白,并列出全面的解决方法,本文为你最通俗地解答。
    AI模型训练【偏差/方差】与【欠拟合/过拟合】
  • Ubuntu人工智能训练环境搭建
    Ubuntu版本信息: cat /etc/lsb-release 1、创建部署用户 创建一个用户,非root用户即可,创建用户示例: # 创建用户 sudo useradd -d /home/yeqinfang -m yeqinfang sudo passwd yeqinfang # 赋予免密sudo权限,可以不执⾏ echo "yeqinfang ALL = (root) NOPASSWD:AL
  • 强攻GPU,TPU芯片一夜蹿红
    自ChatGPT爆火之后,AI大模型的研发层出不穷,而在这场“百模大战”激战正酣之际,美国芯片公司英伟达却凭借其GPU在大模型计算中的出色发挥赚得盆满钵满。
    强攻GPU,TPU芯片一夜蹿红
  • AI 2.0时代,服务器DDR5底层架构迎来变革
    DDR5 内存模块是第一个在内存模块上集成PMIC的主要内存类型,未来,随着对更高性能和电源效率的需求不断增长,可能会定义新型内存模块。而且,这些模块很有可能继续在模块上集成 PMIC,以进一步优化电源管理并提高整体系统性能。
  • H100利用率飙升至75%!英伟达亲自下场FlashAttention三代升级,比标准注意力快16倍
    大模型训练推理神作,又更新了!主流大模型都在用的FlashAttention,刚刚升级第三代。时隔一年,FlashAttention-3已经全方位升级。训练速度提升1.5-2倍,FP16下计算吞吐量高达740TFLOPs/s,达理论最大吞吐量75%,更充分利用计算资源,此前只能做到35%。
    H100利用率飙升至75%!英伟达亲自下场FlashAttention三代升级,比标准注意力快16倍
  • 台达研究院阙志克:降伏AI训练“吃电怪兽”靠谁?
    数据中心机房内,一排排机柜内线缆虬结、风扇呼啸,灯光闪烁,彻夜不息……当前,这样的数据中心已经遍及世界各地,并仍然在世界头部科技厂商的引领下不断增长。仅在今年6月内,微软就已宣布将在瑞典、马来西亚、西班牙等国家投资建设数据中心,项目投资总金额超140亿美元;同时,英伟达计划在未来5年内投资3万亿美元建设数据中心;亚马逊云科技则规划在未来15年内投入约1500亿美元用于全球数据中心的建设与运营……
    台达研究院阙志克:降伏AI训练“吃电怪兽”靠谁?
  • 黄仁勋“松弛感”演讲谈创新:伟大的智慧是退后一步
    在生成式AI的热潮来临之前需要思考:人工智能的背景是什么?深度学习的基础是什么?长期的影响是什么?
    3006
    2024/06/03
  • AI推理,和训练有什么不同?
    如果要用一句话概括AI的训练和推理的不同之处,我觉得用“台上一分钟,台下十年功”最为贴切。话说小明已经和心目中的女神交往数年,在邀约女神出门这件事上积累了大量的经验数据,但却依然捉摸不透其中的玄机。借助AI技术,能否实现精准预测呢?小明思考再三,总结出了可能影响女神是否接受邀请的变量:是否节假日,天气不好,太热/太冷了,心情不好,生病了,另有他约,家里来亲戚了......等等。
    AI推理,和训练有什么不同?
  • 瞬变对AI加速卡供电的影响
    图形处理单元(GPU)、张量处理单元(TPU)和其他类型的专用集成电路(ASIC)通过提供并行处理能力来实现高性能计算,以满足加速人工智能(AI)训练和推理工作负载的需求。AI需要大量的算力,尤其是在学习和推理时。这种需求不断地将供电网络的边界推向前所未有的新水平。这些高密度工作负载变得愈加复杂,更高的瞬态需求推动配电网络的每个部分都必须高效运行。AI加速卡严格的功耗要求对系统性能也有影响。本文将讨论AI加速卡的配电网络要求,剖析瞬变的影响,并介绍ADI公司针对这些需求提出的多相供电解决方案。
    瞬变对AI加速卡供电的影响
  • Eureka!NVIDIA 研究突破为机器人学习注入新动力
    NVIDIA Research 开发的一款名为 Eureka 的新型 AI 智能体可以教机器人复杂的技能,它教会了机器人手快速转笔,并且第一次转得像人类一样好。上面视频中所展示的令人惊叹的“魔术”是机器人通过 Eureka 学会熟练完成的近 30 项任务之一,Eureka 可以自动编写奖励算法来训练机器人。
    Eureka!NVIDIA 研究突破为机器人学习注入新动力
  • ChatGPT背后的算力杀手锏
    微软如何将大规模AI训练镶在云计算的DNA里?为了向人工智能(AI)初创公司OpenAI的前沿研究提供支持,微软三年前为OpenAI打造了一台由数万个A100 GPU组成的大型AI超级计算机,成本或超过数亿美元。微软还在60多个数据中心总共部署了几十万个推理GPU。
    1066
    2023/03/14
  • 燧原科技亮相Hot Chips大会,详解邃思芯片架构
    今天燧原科技在一年一度的Hot Chips大会上由首席架构师刘彦和资深芯片设计总监冯闯一起介绍了第一代云端训练芯片“邃思1.0”的架构细节。Hot Chips是全球高性能微处理器和集成电路相关的重要会议之一。

正在努力加载...