前言:
“豆包手机助手技术预览版”看起来只是一台挂着“技术预览”标签的工程机:16GB+512GB、骁龙8至尊版、6000mAh 电池、由努比亚代工、限量发售。
它做了两件事:
1)在系统层给了豆包AI接近“接管整机”的权限——跨App自动操作、电商全平台比价下单、读屏理解上下文;
2)把这套能力放在一台真实硬件上,正面撞上了微信这类超级App的安全边界,引发“闪退/被强制下线”的兼容性风波。
如果只把它当作一台“极客玩具”,可能低估了它对产业链的杀伤力,他提出了几个对产业链各方都不太好回答的问题:
1.当AI从“一个App”变成“手机的默认入口”时,手机厂的OS路线、品牌心智和商业模式会被削到哪一步?
2.当系统级AI常驻运行,NPU、内存、存储、封装这些看似“底层”的模块,会如何被重新定价和组合?
3.在手机厂、芯片厂、大模型平台、超级App之间,谁会被迫退到“基础设施”的位置,只负责供电,而谁有机会定义新一代入口标准?
从豆包工程机开始:AI第一次成为“入口”
所谓的“豆包手机”并不是一款面向大众市场的量产机型,而是字节跳动将“豆包大模型+系统级AI Agent”硬件化的一次技术预览。它采用“软件主导 + 硬件代工”的模式——豆包负责AI助手的定义和体验,中兴旗下努比亚负责M153工程样机的设计与生产,首发仅一个 16GB+512GB 白色版本,售价3499元,很快售罄。
从硬件配置看,它是标准的旗舰档:
骁龙8至尊版处理器;
6.78英寸1.5K LTPO直屏,120Hz高刷;
6000mAh 电池 + 90W有线快充 + 15W无线充电;
NFC、红外、USB 3.2 Gen1 等主流配置。
真正的变化在软件侧,也就是所谓的“系统级AI Agent”:豆包不再只是桌面上的一个聊天图标,而是被整合进系统底层,拥有读屏、模拟点击、跨App调度的全局能力;它可以基于自然语言指令,自动完成电商比价、跨平台下单、根据聊天上下文生成待办、补全表单等复杂任务;根据早期测试反馈,只要需求表达清晰,任务成功率可达80%左右,响应速度通常在1–2秒级别。
这意味着:
对用户来说,入口从“点图标”变成了“对AI说话”;对产业链来说,入口从“厂商定义的桌面/负一屏”变成了“第三方AI定义的系统级代理层”。这一步,让豆包手机不再只是“AI加持的手机”,而是对现有OS—App 二层结构的正面挑战。
对手机产业的冲击:终端厂商价值的削弱

主要厂商 AI 原生 OS 与 AI 战略对比,来源:与非研究院整理
针对AI对手机产业的冲击,当前厂商大致分为两派:
第一派是“改良派”:主要包括苹果、谷歌。由于这两家本身就掌握操作系统的底层架构,所以可以很顺理成章的在成熟的 iOS / Android 基础上嵌入 Apple Intelligence、Gemini 等大模型能力;通过系统级 API + AI 框架赋能原生与第三方应用,强调生态稳定与隐私。
第二派是“原生/重构派”:主要包括华为、vivo、小米等头部手机厂商。其中华为以 HarmonyOS NEXT(鸿蒙星河版)为代表,彻底摒弃Android AOSP代码,自建内核与系统服务,将盘古大模型和“鸿蒙原生智能”嵌入底层;vivo 提出蓝河BlueOS + 蓝心大模型路线,小米以澎湃OS + AI子系统承接“人车家”全场景。
这两派虽然打法不同,但有一个共识:AI OS 必须是自己的能力,入口必须掌握在系统厂商手中。
“豆包手机”实际上走的是第三条路:
不自己造完整OS,而是在安卓和厂商OS之上再加一个“AI操作层”;用户的习惯从“打开某个App”转向“对豆包说,我要办什么事”;豆包根据意图在微信、淘宝、京东、地图等App之间自动穿梭,系统桌面和图标变成“被调度的对象”。
从手机终端厂商的视角来看,“豆包手机”路线会带来三重削弱:
1)UI话语权被上移
即便系统仍由你定义,但用户越来越少直接接触你的桌面和UI交互——真正被互动的,是AI Agent。
2)品牌心智被稀释
过去是“我用某某OS,体验更好”;如果AI入口成为主导,用户记住的可能是“我用豆包/某某大模型”,而不是“用什么OS”。
3)系统级服务收入被重构
搜索、负一屏推荐、系统工具栏、应用商店、电商分发,本来是手机厂可以做流量变现的地方。如果业务都在AI Agent内部闭环,未来谁收“流量税”会变成一个全新的博弈。应用商店分成、搜索结果导流、电商入口都是现有营收点;如果大量交易和推荐通过AI Agent完成,手机厂是否还能在链条中留下一席?还是被动等待AI平台谈“导流费用”和“系统合作费”?
所以,对手机厂来说,“豆包手机”这条路线会带来一个现实问题:你是要坚持“AI是我的系统能力”,还是接受一个强势的“系统之上的AI入口”进来做第二层?

AI 入口变化对手机产业链的冲击,来源:与非研究院整理
对超级APP的冲击:微信“闪退”风波
在“豆包手机助手技术预览版”的演示中,出现了微信“闪退/登录异常”问题,表面上看这只是普通的系统BUG,但不少业内人士分析,认为其中存在更深层的系统架构、权限模型与应用安全机制之间的冲突。
豆包为实现跨App操作,对安卓底层框架、权限管理、进程调度做了深度定制;可能使用了非标准API、无障碍服务甚至Hook技术进行读屏和模拟点击;系统级AI在后台持续占用内存和CPU,与微信这类“资源大户”争抢资源;微信自身的风控体系会对“非人类操作模式”判定为高风险,采取强制下线或阻断策略。
从技术维度,厂商通过版本迭代、适配API、优化内存管理,总是可以把Bug修到可接受水平;但从产业结构看,这场风波给所有手机厂和超级App提了个醒:
如果你作为手机OS厂商,开放系统级AI的读屏和跨App能力,会不会触发微信等超级App的强烈防御?
如果你作为超级App,完全不开放任何面向AI Agent的稳定接口,未来在AI原生OS上会不会被边缘化成一个“黑盒能力插件”?
笔者认为,微信“闪退”风波,是一场“入口权 + 数据权如何重新分配”的公开冲突,“豆包手机”只是帮所有人把冲突提前演示了一遍。
对芯片产业的重构:从“卖算力”到“服务AI入口平台”

手机 AI 发展演进时间表,来源:与非研究院整理
回顾过去十年,手机芯片产业的AI演进路径大致是:高通在骁龙820时代引入AI Engine;麒麟970率先在旗舰机上引入独立NPU;此后苹果、联发科、三星等陆续跟进,用更强的NPU和软件栈支撑拍照、美颜、语音助手等功能;到2023–2024年,骁龙8 Gen 3、骁龙8 Elite已经可以在端侧运行百亿参数级大模型,NPU算力飙升到几十TOPS甚至80 TOPS。
在“AI只是一个功能点”的时代,NPU更多被当作发布会上的卖点参数;而在“系统级AI入口”时代, NPU的角色将发生三个变化:
1)算力形态:从“峰值”转向“长时常驻”
系统级AI Agent不是偶尔唤醒跑一下,而是长时间待机、随时响应指令,还要持续解析屏幕内容。这要求NPU在 持续算力与能效 上重新平衡,不能再只追高峰值TOPS。
2)调度逻辑:从“功能调用”到“以AI为中心的异构调度”
AI原生OS会把CPU、GPU、NPU、ISP、DPU等纳入统一“算力池”,由AI任务来驱动调度决策。芯片架构必须从设计阶段就考虑这种调度模式,而不是事后用软件做补丁式优化。
3)内存与带宽:从“够用”到“为模型和KV优化”
端侧大模型需要频繁访问权重和KV Cache,LPDDR带宽、Cache组织结构都会成为瓶颈。这会推高手机对更大内存、更高带宽LPDDR、以及更高效片上SRAM设计的需求。
对高通、联发科、苹果、以及麒麟等国产SoC厂来说,这意味着:下一代旗舰SoC的定义,必须从“能跑什么游戏”转向“能长期托住什么等级的系统级AI Agent”。
此外,虽然豆包手机本身是端侧产品,但AI原生OS对服务器端也有直接拉动——系统级AI入口会带来更高频、更个性化、更场景化的推理请求;大量任务会以端云协同方式完成,云侧需要承担更复杂的多模态推理和个体化模型服务。
这对芯片产业链将会产生什么影响?
1)HBM成为基础设施
AI大模型训练和推理早已把HBM推到“战略资源”的高度,一颗顶级AI加速器往往搭载数颗HBM,容量可达百GB量级。随着AI原生OS加速应用侧需求,HBM的结构性供不应求短期难解,使得掌握先进封装和TSV工艺的供应商拥有极高议价权。
2)CXL推动“内存池化”
为了应对AI原生OS下高度动态的推理负载,CXL为CPU/NPU/GPU与大容量共享内存之间提供低延迟互联,利于构建“内存池”。这会改变服务器主板、电源、散热以及整体系统架构设计逻辑。
3)GPU与定制ASIC并行发展
NVIDIA依托CUDA生态仍然是训练与高端推理的核心,Blackwell等新一代架构进一步强化性能与带宽;同时,谷歌TPU、亚马逊Trainium/Inferentia、微软Maia等自研ASIC配合自家AI平台形成紧耦合优化。此外,博通、Marvell等设计公司通过为这些云厂商提供定制ASIC获得巨大机会。
笔者认为,AI原生OS和系统级入口会把“算力需求的不确定性”大幅放大,对HBM、CXL、GPU、ASIC的投资周期管理提出更高要求。

AI 入口重构对芯片产业链的机遇与挑战,来源:与非研究院整理
在传统手机时代,移动SoC厂服务链路很清晰:芯片厂 → 手机厂/ODM → 运营商/渠道 → 终端用户。
在AI原生OS和系统级AI入口背景下,这条链路会被拆成三层客户:
终端厂(手机/PC/车厂):继续关心成本、功耗、性能、供货周期;
OS厂(HarmonyOS、澎湃OS、Android改版、AI PC OS 等):关心驱动、调度能力、安全隔离、虚拟化;
大模型/AI平台(豆包、文心、通义等):关心算子支持、量化方案、端云协同、工具链成熟度。
于是出现一个现实问题:当AI平台本身也在争夺入口时,芯片厂要如何在不同层级客户之间平衡支持力度与路线透明度?
如果完全向某一家AI平台倾斜,可能获得短期订单,但会引发其他平台的不信任;如果只做“中立基础设施”,则很难在工具链、编译器、模型适配上形成真正壁垒。
四条路线决定谁会沦为“电力公司”,谁能守住入口
可以把当前围绕“AI作为新入口”的玩家粗略分为四种路线:
路线一:终端厂自建“OS+模型+生态”一体化
代表:华为、小米、vivo、OPPO、苹果、三星等
特点:有终端、有OS、正加大自研或深度绑定大模型;目标是让AI成为系统原生能力,外部模型和服务只作为插件接入;更看重的是“设备+生态+本地化服务”的长期价值。
优势:对入口和数据有较强控制力;能通过全栈优化获得更好能效与体验。
挑战:自研模组与大模型成本极高;生态需要时间重建,特别是在海外或多平台环境。
路线二:大模型平台+软硬协同——豆包手机属此类
代表:豆包(字节)、文心(百度)、通义(阿里)等
特点:起点是云端大模型,手里有内容、算法、推荐与分发能力;希望通过系统级AI入口下沉到终端,掌握用户第一意图;早期与二线终端厂/ODM合作,以技术预览或小批量产品试水,中长期不排除自有品牌硬件。
优势:有强内容与算法能力,可跨终端输出一致体验;在软件与AI工程能力上普遍较强,能快速迭代Agent。
挑战:系统权限高度依赖终端厂配合;会与现有OS厂、超级App形成天然张力。
豆包手机助手正是这一路线的典型代表:通过工程机验证系统级AI入口模式,同时试探手机厂、超级App和监管对“AI接管手机”的容忍度。
路线三:芯片厂主导的“AI平台+参考设计”
代表:高通、联发科、部分PC/服务器芯片厂
特点:提供SoC/CPU/GPU/NPU硬件 + SDK + 参考设计 + 模型示例;试图在OS和应用之上建立“AI运行时和工具链”平台;借助自身在硬件层的标准化优势,影响上层AI原生OS架构设计。
优势:能在底层标准上发声,例如算子规范、量化格式、内存接口;对多家OS和大模型平台保持“技术中立”,更易成为通用底座。
挑战:很难像CUDA那样在全栈上形成封闭生态(尤其在手机端);若只停留在“给别人AI入口供电”,长期可能被边缘化成“更贵的电力公司”。
路线四:超级App升级为“应用层OS”
代表:微信、小红书、抖音等
特点:自身已经是用户时长和交易的主要承载方;通过AI助手、小程序/小组件、生态工具,把更多服务封装在自己体系内;希望成为“应用层的操作系统”,降低对底层OS入口的依赖。微信与豆包手机的冲突,正是这一路线与“系统级AI入口”路线之间的正面碰撞:对超级App来说,允许系统级AI读屏和自动操作,意味着对自身数据和模型护城河的削弱;
对AI入口来说,如果无法稳定调用超级App的能力,就很难给用户完整服务闭环。
几个判断与开放问题
最后,笔者给出三点相对明确的判断,以及几个几个开放问题供业内朋友一起讨论?
判断一:AI 入口之战,短期看体验,中期看算力和工具链,长期看谁制定分账和安全规则。
今天豆包手机抢的是体验关注度;
未来1–3年,拼的是谁能在端云协同、NPU/内存/存储组合上给出稳定成本结构;再往后,谁掌握“入口 + 认证 + 支付 + 数据合规”的规则制定权,谁就是真正的入口赢家。
判断二:对于手机SoC厂,NPU/AI子系统将成为“产品规划的第一性约束”。
如果仍把NPU视作发布会上堆参数的卖点,而不是围绕系统级AI任务重构整个架构和工具链,很难在下一轮AI手机竞争中保住高端份额。
判断三:谁敢为AI开放更真实的系统级能力,谁就有机会拿到新入口,但要承担最大生态和监管风险。
豆包手机助手只是第一步。类似的系统级AI入口未来会出现在耳机、眼镜、车机、PC甚至机器人上。对手机厂来说,真正难的问题不是“接不接某家的模型”,而是 “敢不敢让一个第三方AI在你的系统中扮演‘半个OS’的角色”。
几个开放问题(可开放互动投票)
1.你更看好哪条路线?
A:终端厂自建一体化AI OS,
B:像豆包这样的大模型平台下沉硬件?
C:芯片厂和超级App各自守住自己的“平台阵地”?
2.在这场入口重构中,芯片厂最终会变成“更贵的电力公司”,还是有机会像CUDA那样建立跨OS、跨AI平台的事实标准?
A:会
B:不会
C:不好说
3.如果系统级AI入口真在手机端跑成了事实标准,你认为首先被削弱的价值方是?
A:手机厂商的价值
B:超级APP的价值
C:不好说
最后,“豆包手机”作为一个字节跳动的工程机,很可能只是一个技术预演。但它提前把“AI作为新入口”的所有矛盾摊开在产业链面前——接下来要回答上述这些问题的,不只是字节和腾讯,还有每一家在做OS、造芯片、做终端、建平台的公司。
来源: 与非网,作者: 李坚,原文链接: https://www.eefocus.com/article/1925727.html
9418