Transformer

加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

TRANSFORMER,作词:Kenzie(韩文),T-Crash(中文),作曲: Kenzie / Jonathan Yip /Jonathan Yip / Ray Romulus / Ray McCullough,演唱:EXO。

TRANSFORMER,作词:Kenzie(韩文),T-Crash(中文),作曲: Kenzie / Jonathan Yip /Jonathan Yip / Ray Romulus / Ray McCullough,演唱:EXO。收起

查看更多
  • 不堆GPU,不搬数据,只用欧姆定律:模拟AI芯片跑出了1.8%误差的ALBERT
    IBM团队在14纳米芯片上使用相变存储器实现了710万个参数的Transformer模型,准确率仅略低于纯浮点运算结果1.8%,展示了模拟推理的可能性。
    不堆GPU,不搬数据,只用欧姆定律:模拟AI芯片跑出了1.8%误差的ALBERT
  • 为什么无图智驾不使用SLAM建立局部语义地图?
    智驾无图概念兴起,传统SLAM方案因几何局限性和算力消耗不足而在自动驾驶领域未能广泛应用。BEV、Transformer和Occupancy的组合解决了视觉重构、空间理解和感知死角等问题,实现了全局关联和物理保底,提升了自动驾驶的安全性和适应性。这种架构简化了感知与控制流程,使自动驾驶更加接近人类驾驶员的能力。
    为什么无图智驾不使用SLAM建立局部语义地图?
  • 自动驾驶端到端时代,还会使用BEV和Transformer吗?
    端到端自动驾驶技术并非孤立新技术,而是将BEV和Transformer融合于庞大神经网络中,通过空间感知和时空关联提高驾驶决策稳定性与灵活性。BEV提供统一空间视角,解决视觉重叠与遮挡;Transformer则利用注意力机制增强时间序列处理能力,使模型具备预测能力。未来,端到端模型将继续进化,引入Occupancy思想和多模态大模型经验,进一步提升自动驾驶系统的鲁棒性和智能水平。
  • GPT技术架构是怎么演进的?从Transformer讲到GPT-5.4
    自2018年OpenAI发布第一代GPT模型以来,生成式预训练Transformer架构经历了七年的快速迭代,从1.17亿参数扩展到万亿级混合专家模型,从单纯的文本生成演进为具备计算机操作能力的AI代理。本文深度拆解GPT系列模型的核心技术架构,包括Transformer底层原理、自回归训练机制、RLHF对齐技术、以及最新GPT-5.4引入的百万Token上下文与Computer-Use能力,为开
    1035
    04/20 14:43
  • 超越YOLO:在Python中实现RT-DETR Transformers
    本文介绍了如何使用基于Transformer的RT-DETR模型进行目标检测,详细讲解了其优点和应用场景,提供了实战演练代码示例,并解答了一些常见问题。RT-DETR相比传统CNN模型,具备更简洁高效、“端到端”的检测流程,适用于静态图像和实时视频分析。
  • Google 6倍压缩KV缓存还不损失精度的原理是什么?
    Google推出的新算法TurboQuant,通过两阶段方法大幅提升了Transformer模型的运行效率。首先,PolarQuant利用极坐标量化消除元数据开销;其次,1-bit QJL变换确保残差无偏校正,从而实现了真正的零精度损失。TurboQuant不仅显著减少了显存占用,还提高了推理速度,适用于各种Transformer模型,并且无需额外训练或数据依赖。
  • VOOHU 沃虎电子 10G Base-T 网络变压器 WHSM24P03-2PG 支持 4PPoE
    苏州沃虎电子科技有限公司(品牌:VOOHU)推出的 WHSM24P03-2PG 是一款高性能10G Base-T网络变压器,专为满足超高清视频传输和高功率PoE应用需求而设计。该产品支持4PPoE(PoE++)标准,可提供高达2000mA的电流,能够在传输10Gbps高速数据的同时,为远端设备稳定供电,完美解决超高清视频监控、工业视觉、医疗成像等场景下的数据传输与供电一体化难题。 📋 核心规格与技
  • Transformer如何让自动驾驶大模型获得思考能力?
    在谈及自动驾驶时,Transformer一直是非常关键的技术,为何Transformer在自动驾驶行业一直被提及?先说结论,Transformer之所以在自动驾驶领域被频繁提到,并被广泛推崇,主要是因为这种架构在处理多源、高维、长时序的数据时,天然具备很多有利属性,它能高效建模远距离依赖、方便做多模态融合、易于并行训练、便于做大规模预训练与迁移学习,并且能够用比较统一的架构去承担感知、跟踪、预测乃
  • RockAI CMO邹佳思:端侧智能如何通过「原生记忆」与「自主学习」,完成从工具迈向伙伴的人机关系
    端侧智能取代Transformer走向尽头,AI发展迎来新机遇。端侧智能通过本地私有化部署的AI模型实现设备间的智能互联,避免云端参与,节省成本并保障隐私。端侧智能的核心在于设备端的自主进化和学习能力,而非单纯依赖大规模参数的云端模型。随着端侧智能的发展,设备间协作将成为实现群体智能的关键途径,推动AI技术在日常生活的深入应用。
    RockAI CMO邹佳思:端侧智能如何通过「原生记忆」与「自主学习」,完成从工具迈向伙伴的人机关系
  • Transformer如何让自动驾驶变得更聪明?
    自动驾驶中常提的Transformer本质上是一种神经网络结构,最早在自然语言处理里火起来。与卷积神经网络(CNN)或循环神经网络(RNN)不同,Transformer能够自动审视所有输入信息,并动态判断哪些部分更为关键,同时可以将这些重要信息有效地关联起来。
    Transformer如何让自动驾驶变得更聪明?
  • Transformer在端到端自动驾驶架构中是何定位?
    Transformer在端到端自动驾驶架构中扮演高级决策与抽象建模的角色,弥补传统模型在复杂语义理解和全局路径推理上的不足。它通过自注意力机制增强序列建模能力和透明性,适用于多模态数据融合和行为预测。然而,实时性和数据一致性的挑战亟待解决,且其可解释性问题影响安全性。总体而言,Transformer提升了系统的智能密度,但还需与其他模块协同工作以确保整体性能和安全性。
    Transformer在端到端自动驾驶架构中是何定位?
  • 自动驾驶中Transformer大模型会取代深度学习吗?
    近年来,随着ChatGPT、Claude、文心一言等大语言模型在生成文本、对话交互等领域的惊艳表现,“Transformer架构是否正在取代传统深度学习”这一话题一直被持续讨论。特别是在自动驾驶领域,部分厂商开始尝试将多模态大模型(MLLM)引入到感知、规划与决策系统,引发了“传统深度学习是否已过时”的激烈争论。然而,从技术原理、算力成本、安全需求与实际落地路径等维度来看,Transformer与深度学习并非你死我活的替代关系,更像是相互协作的搭档,各自承担着不同但关键的系统职责。
    自动驾驶中Transformer大模型会取代深度学习吗?
  • 揭秘大模型的魔法:从嵌入向量说起
    本文将以Transformer架构为核心,深入探讨嵌入向量的生成过程,剖析其背后的“魔法”,并通过代码示例展示如何实现这一过程。
    揭秘大模型的魔法:从嵌入向量说起
  • 自动驾驶中一直说的BEV+Transformer到底是个啥?
    在很多车企的自动驾驶介绍中,都会听到一个关键技术,那就是BEV+Transformer,那BEV+Transformer到底是个啥?为什么很多车企在自动驾驶技术中都十分追捧这项技术?其实“BEV(Bird’s Eye View)+Transformer”是两个方向的技术,BEV是一种全新的3D坐标系,而Transformer则是一种深度学习神经网络模型,BEV+Transformer的组合方案在感知、理解和预测方面表现得更为强大,彻底终结了2D直视图+CNN时代。
    自动驾驶中一直说的BEV+Transformer到底是个啥?
  • EdgeNAT: 高效边缘检测的 Transformer
    边缘检测是许多计算机视觉任务的基础,旨在从输入图像中精确提取物体边界和视觉显著的边缘。然而,由于图像中存在远距离物体、复杂背景中的模糊边界以及物体内部的颜色变化等挑战,边缘检测任务变得十分困难。传统的边缘检测方法主要依赖于颜色和纹理等局部信息,而基于卷积神经网络(CNN)的深度学习方法虽然可以扩展感受野以捕捉全局特征,但容易丢失细节信息。
  • 智驾行业BEV+Transformer到端到端“追热词”为夺技术终局优势?
    自去年以来,业界不断讨论和提及“BEV+Transformer”这一概念,即鸟瞰视图与基于自注意力机制的神经网络架构。卷了半年时间,今年,“端到端”这一概念又迅速成为人们热议的焦点。这两个概念看似截然不同,实则在视觉路线建立的基于Transformer 的架构上有着共通之处,也共同印证了人工智能技术从深度学习向多模态大模型演进的趋势。汽车领域始终处于自动驾驶技术革新的前沿。
    智驾行业BEV+Transformer到端到端“追热词”为夺技术终局优势?
  • RefMask3D: 基于语言引导的3D指代分割Transformer
    论文 RefMask3D: Language-Guided Transformer for 3D Referring Segmentation 提出了一种新的方法来解决3D点云中的目标识别和分割问题,特别是基于语言描述的目标识别。
  • AI的未来发展:分治法在左,端到端在右
    阳萌或许是我接触过的最懂技术的CEO:他是北大计算机本科,硕博连读机器学习专业,但博士读了一半就跑了;他是百亿营收大厂安克创新的创始人,也曾在谷歌做搜索算法的研发;他的公司主要做的是充电宝、扫地机器人这些消费类电子产品,但我们聊的是人工智能、芯片等等硬科技。
    1491
    2024/05/17
    AI的未来发展:分治法在左,端到端在右
  • 三大角度解读地平线征程6芯片——全面升维,加速智驾全场景落地
    地平线立足于推动智能驾驶全场景解决方案的落地,其一系列最新突破和进展,也让业界看到了它在智驾领域的巨大潜力。未来,随着智驾数据量的积累、视觉大模型及多模态大模型技术框架与效果的提升,智能驾驶的能力有望达到新的高度。而地平线在全栈开发方面的积累和产业链影响力,都有助于它拥抱行业未来的高速发展。
  • AI 2024:回望哇声一片,前瞻道阻且长
    在Transformer大模型热战于云端之际,业界已经看到了它在端侧、边缘侧的市场机会。如何使Transformer在硬件设备尤其是端侧和边缘侧硬件高效运行,将成为硬件厂商未来的重点方向。
    AI 2024:回望哇声一片,前瞻道阻且长

正在努力加载...