• 正文
  • 相关推荐
申请入驻 产业图谱

人工智能如何颠覆芯片设计?

5小时前
172
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

在半导体行业摩尔定律逼近物理极限的今天,芯片设计的复杂度正以指数级增长 —— 尤其是模拟与射频集成电路RFIC),其连续信号特性、多性能指标权衡、布局寄生敏感性等痛点,让传统 “专家经验 + 手动迭代” 的设计模式举步维艰。据 IEEE Access 2025 年最新综述论文(DOI: 10.1109/ACCESS.2025.3607865)统计,一款先进 RF/mmWave 收发器的设计周期可达 12-18 个月,其中 40% 的时间耗费在参数调试与布局优化上,而硅后故障诊断更是可能让流片成本翻倍。

但人工智能(AI)技术的爆发,正为这一困境带来颠覆性解决方案。这篇覆盖 167364-167389 页的顶刊综述,系统梳理了进化算法、贝叶斯优化、强化学习、深度学习、大语言模型(LLMs)等 AI 技术在模拟 / RFIC 设计全流程的应用,从拓扑合成到硅后校准,从数据集构建到可解释性突破,完整呈现了 AI 如何将芯片设计从 “经验驱动” 推向 “数据与物理融合驱动” 的新纪元。本文将结合综述核心观点与行业最新实践,带您全面读懂 AI 驱动的芯片设计革命。

一、痛点与变革:传统模拟 / RFIC 设计为何需要 AI?

在深入 AI 技术细节前,我们必须先理解:模拟 / RFIC 设计的 “难”,究竟难在何处?正是这些痛点,构成了 AI 技术的用武之地。

1.1 传统设计的三大核心困境

根据综述作者 Islam Guven 团队的调研,模拟 / RFIC 设计的复杂度主要源于三点:

非凸设计空间与多目标权衡

    • 数字电路 “0/1 逻辑” 的离散特性不同,模拟电路的增益、带宽、噪声、功耗等指标呈连续分布,且相互制约(如提升增益可能导致功耗激增)。设计师需在高维非凸空间中寻找 “帕累托最优解”,传统参数扫描方法不仅耗时(单次 SPICE 仿真可能需数小时),还易陷入局部最优。

布局寄生的致命影响

    • 在 RF/mmWave 频段(如 30GHz 以上),导线的寄生电容电感对性能的影响占比可达 30% 以上。传统 “先 schematic 设计,后布局验证” 的流程,常出现 “仿真达标但流片失效” 的情况 —— 某款 65nm LNA 设计案例显示,未考虑布局寄生时仿真增益为 15dB,实际流片后仅为 8dB,需重新迭代设计,成本增加百万美元。

强依赖专家经验

    模拟设计的核心环节(如拓扑选择、阻抗匹配)长期依赖工程师的 “手感”—— 一位资深 RF 工程师需 10 年以上经验才能熟练设计毫米波 PA,而这种经验难以标准化、传承化。综述数据显示,全球具备 RF/mmWave 设计能力的工程师不足 10 万人,远无法满足 5G/6G自动驾驶的芯片需求。

1.2 AI技术的破局逻辑

AI 的价值,本质是通过 “数据驱动建模” 与 “智能搜索优化”,解决传统设计的效率与可靠性问题。综述将 AI 的作用归纳为三类:

替代人工迭代

    • 用算法自动遍历设计空间,如贝叶斯优化可将参数优化的仿真次数从数千次降至数百次;

捕捉复杂关系

    • 用深度学习模型(如 GNN、CNN)拟合电路的非线性特性,替代传统简化模型(如小信号模型);

打通流程断点

    实现 “拓扑 - 参数 - 布局 - 测试” 的端到端联动,如强化学习(RL)可同时优化晶体管尺寸与布局位置。

从 2018 年深度学习引入电路设计,到 2023 年 LLMs 爆发,AI 在模拟 / RFIC 领域的应用已形成清晰的进化路径(如图 1 所示):早期聚焦单点优化(如参数 sizing),如今已迈向全流程自主设计。

二、AI 技术基石:哪些算法在驱动芯片设计革命?

要理解 AI 如何赋能设计,需先掌握其核心技术体系。综述第三章将常用 AI 技术分为五大类,每类技术都有其适配的设计场景,构成了芯片设计的 “AI 工具箱”。

2.1 确定性与元启发式优化:解决 “找最优解” 的问题

这类算法是 AI 在电路设计中最早的应用形式,核心目标是在高维空间中高效搜索最优参数,适用于 “已知拓扑,需优化参数” 的场景。

(1)进化算法(EA):从 “自然选择” 到 “电路优化”

进化算法模拟生物进化过程,通过 “种群初始化 - 交叉 - 变异 - 选择” 的迭代,逐步逼近最优解。综述中重点提及两类:

遗传算法(GA)

    • 将设计参数(如晶体管宽长比、电阻值)编码为 “染色体”,通过交叉(交换两个参数集的部分基因)和变异(随机修改参数)生成新解。某款 CMOS LNA 设计案例显示,GA 可在 50 代迭代内找到满足 “增益≥12dB,噪声≤2dB” 的参数组合,仿真次数仅为传统方法的 1/5。

多目标进化算法(MOEA)

    如 NSGA-II,可同时优化多个冲突目标,生成帕累托最优解集。综述引用的某款 VCO 设计中,NSGA-II 生成了 12 组候选方案,覆盖 “相位噪声 - 调谐范围 - 功耗” 的不同权衡,设计师可根据需求选择(如通信设备选低相位噪声,物联网设备选低功耗)。
(2)贝叶斯优化(BO):小数据下的精准搜索

当仿真成本极高(如全波 EM 仿真)时,进化算法的 “暴力搜索” 不再适用,贝叶斯优化成为更优选择。其核心逻辑是:

    用 “代理模型”(如高斯过程 GP、贝叶斯神经网络 BNN)拟合设计参数与性能的关系;用 “Acquisition 函数”(如期望改进 EI)指导下一次仿真的参数选择,平衡 “探索未知区域” 与 “利用已知最优区域”;迭代更新代理模型与搜索方向,直至满足收敛条件。

综述中 Liu 团队的案例显示,用 BNN 作为代理模型的 BO,在 7nm PA 参数优化中,仅需 80 次 EM 仿真即可达到传统方法 400 次仿真的效果,效率提升 5 倍。更重要的是,BO 对数据量要求低 —— 仅需 50 次初始仿真即可构建有效代理模型,适合先进工艺下 “数据稀缺” 的场景。

2.2 监督学习与代理建模:解决 “快仿真” 的问题

传统 SPICE/EM 仿真的慢,是设计效率的主要瓶颈。监督学习的核心价值,是构建 “快而准” 的代理模型,替代部分耗时仿真。

(1)主流模型架构与应用场景

综述详细对比了不同监督学习模型的适配性:

模型类型 核心优势 适配场景 案例效果(综述数据)
多层感知机(MLP) 结构简单,适合低维参数 晶体管 sizing、小信号参数预测 预测 PA 的 PAE,误差≤3%
卷积神经网络(CNN) 擅长处理空间数据 布局寄生预测、EM 仿真结果拟合 预测微带线 S 参数,速度比 HFSS 快 1000 倍
图神经网络(GNN) 捕捉拓扑连接关系 网表性能预测、拓扑合成 预测不同拓扑 OPAMP 的增益,误差≤2dB

以 GNN 为例,其将电路抽象为 “节点(元件)- 边(连接)” 的图结构,通过 “消息传递” 学习元件间的相互作用 —— 某款 OPA 设计中,GNN 可根据网表直接预测开环增益相位裕度,无需进行 SPICE 仿真,单次预测时间从 2 小时缩短至 0.1 秒。

(2)代理模型的 “保真度 - 速度” 平衡

综述特别强调:代理模型并非 “越准越好”,需在 “精度” 与 “速度” 间权衡。例如:

    初步设计阶段(如拓扑筛选),可用低精度 MLP 模型(误差 5% 以内)快速筛选候选方案;精细优化阶段(如量产前校准),需用高精度 GNN/CNN 模型(误差 2% 以内)确保性能达标。

2.3 强化学习(RL):解决 “序贯决策” 的问题

如果说优化算法是 “静态找解”,强化学习则是 “动态决策”—— 将设计过程视为 “智能体与环境的交互”,适合布局布线、多步校准等序贯任务。

(1)RL 在设计中的核心框架

综述将 RL 的应用流程拆解为四步:

定义状态(State):如电路当前的参数集、布局位置、性能指标;

定义动作(Action):如调整晶体管宽度、移动元件位置;

定义奖励(Reward):如 “达标指标得分 - 未达标指标惩罚”(如增益达标得 10 分,功耗超标扣 5 分);

训练策略(Policy):用深度强化学习(DRL)算法(如 PPO、DDPG)学习 “状态→动作” 的映射。

(2)两大突破性应用

布局自动化:谷歌 DeepMind 团队的 RL 模型,在芯片布局任务中超越人类专家 —— 将 wirelength 减少 15%,同时满足时序约束。综述中 Wang 团队的 GCN-RL 框架进一步优化:用 GNN 提取电路拓扑特征,RL agent 同时优化元件位置与布线路径,某款 16 核 CPU 的布局时间从 2 周缩短至 1 天。

硅后校准:对于流片后的参数偏差,RL 可实现 “实时自校准”。某款 ADC 设计中,RL agent 通过调整 bias 电流,在 200ms 内将 INL(积分非线性)从 8LSB 降至 2LSB,远超传统查表法的 1 秒校准时间。

2.4 生成式 AI 与 LLMs:解决 “创造新方案” 的问题

2023 年后,生成式 AI(如 GAN、VAE、LLMs)成为电路设计的新热点,其核心价值从 “优化已有方案” 转向 “生成全新方案”。

(1)生成模型:从 “数据” 到 “新拓扑”

GAN 的逆设计:在 RF 无源元件(如滤波器、匹配网络)设计中,GAN 可实现 “性能→结构” 的逆映射。Zhang 团队用 GAN 生成毫米波匹配网络,输入目标 S 参数(如 S11≤-20dB,S21≥-1dB),GAN 可直接输出微带线的宽度、间距,仿真验证通过率达 85%,远超传统试错法的 30%。

VAE 的设计空间探索:变分自编码器(VAE)可将高维设计参数压缩到低维 latent 空间,设计师通过调整 latent 变量即可生成新方案。某款 PA 设计中,VAE 生成了 200 组有效参数集,其中 30% 的方案是人类设计师从未想到的,且部分方案的 PAE(功率附加效率)比传统方案高 5%。

(2)LLMs:从 “辅助工具” 到 “设计伙伴”

综述第八章重点分析了 LLMs 的突破性应用,其价值远超 “问答工具”:

知识管理与规则生成:LLMs 可学习数百万篇技术文档(如 datasheet、论文),自动生成设计规则。例如,输入 “设计 5GHz LNA,噪声≤1.5dB”,LLMs 可输出 “推荐共源共栅拓扑,晶体管长 L=0.5μm,宽 W 根据电流调整”,准确率达 70%。

多智能体协作:Atelier 框架(综述引用的最新成果)将 LLMs 拆分为 “拓扑 Agent”“参数 Agent”“布局 Agent”,各 Agent 协同工作:拓扑 Agent 生成 OPA 拓扑,参数 Agent 优化宽长比,布局 Agent 调整元件位置,端到端设计一款 OPA 的时间从 1 个月缩短至 3 天。

代码与脚本生成:LLMs 可自动生成 SPICE 测试脚本、HFSS 建模代码。某案例显示,LLMs 生成的 EM 仿真脚本,与工程师手动编写的脚本相比,错误率从 15% 降至 3%,编写时间从 8 小时缩短至 10 分钟。

2.5 可解释 AI(XAI):解决 “信任” 的问题

AI 模型常被诟病为 “黑箱”—— 设计师不知道模型为何选择某个方案,这在工业界难以接受。综述第七章强调:XAI 是 AI 落地的关键前提。

三大主流 XAI 技术在电路设计中的应用

SHAP(沙普利值):量化每个参数对性能的贡献。例如,在 PA 参数优化中,SHAP 可显示 “晶体管宽度 W 对 PAE 的贡献占比 40%, bias 电流占比 30%”,帮助设计师聚焦关键参数;

LIME(局部可解释模型):在某点附近用简单模型(如线性回归)近似复杂 AI 模型。例如,某款 VCO 的 AI 模型推荐了一组参数,LIME 可解释 “该参数组合下,相位噪声达标是因为电感值增加了 2nH,而调谐范围达标是因为变容管电容范围扩大”;

Grad-CAM(梯度加权热图)

    :用于 CNN 模型的可视化。在布局寄生预测中,Grad-CAM 可生成热图,标注出 “哪部分导线的寄生电容对噪声影响最大”,设计师可针对性优化布线。

综述中某汽车电子案例显示,引入 XAI 后,工程师对 AI 方案的接受率从 35% 提升至 80%,因为 XAI 让 “AI 的决策” 变得可理解、可验证。

三、全流程赋能:AI 如何重塑模拟 / RFIC 设计的每一步?

理解了 AI 技术基石后,我们需要将视角拉到 “设计全流程”—— 从拓扑合成到硅后测试,AI 在每个环节都在创造新的可能性。综述第四章用 60 页篇幅,详细拆解了 AI 在四大核心阶段的应用。

3.1 阶段一:拓扑与结构合成 —— 从 “经验模板” 到 “AI 生成新拓扑”

拓扑合成是设计的起点,决定了电路的核心性能上限。传统方法依赖 “模板库”(如 OPA 的两级拓扑、LNA 的共源拓扑),创新空间有限;而 AI 可生成超越人类经验的新拓扑。

(1)进化算法:拓扑生成的 “开拓者”

早期拓扑合成以进化算法为主,核心是将 “拓扑结构” 编码为可进化的 “基因”。综述中 McConaghy 团队的 MOJITO 系统是经典案例:

编码方式:用树状结构表示拓扑 —— 根节点为输入,叶节点为元件(电阻、电容、晶体管),中间节点为连接关系;

进化操作:交叉(交换两棵树的子分支)、变异(添加 / 删除元件);

案例效果:MOJITO 为某款低功耗 OPA 生成了 “带反馈电容的共源 - 共栅 - 电流镜” 混合拓扑,功耗仅为传统两级拓扑的 60%,带宽提升 25%。

(2)强化学习与 GNN:更精准的拓扑生成

近年来,RL 与 GNN 的结合成为主流。Zhao 团队的 DRL 模型可 “一步一步搭建电路”:

    初始状态为 “仅输入输出端”;RL agent 每次选择 “添加一个元件” 或 “建立一个连接”(如在输入端添加 NPN 晶体管,连接漏极到输出端);用 GNN 评估当前拓扑的可行性(如是否存在短路、是否满足基本功能),并给出奖励;迭代 10-20 步后,生成完整拓扑。

该模型在 OPA 拓扑生成中,生成有效拓扑的概率达 92%,其中 15% 的拓扑是现有文献中未记载的。某款医疗设备用 AI 生成的 OPA,噪声系数仅为 1.2dB,满足心电信号采集的高灵敏度需求。

(3)拓扑合成的核心挑战

综述也指出,AI 生成拓扑仍有两大难题:

可制造性验证:AI 可能生成 “理论性能优但无法流片” 的拓扑(如元件间距过小),需结合工艺规则(DRC)进行约束;

复杂度控制:部分 AI 生成的拓扑包含过多元件(如 30 个晶体管的 LNA),虽性能优,但成本高、良率低,需在 “性能” 与 “复杂度” 间平衡。

3.2 阶段二:电路参数优化 —— 从 “手动试错” 到 “AI 智能调参”

参数优化是设计的核心环节,占总设计时间的 40% 以上。AI 的目标是在满足所有性能指标的前提下,最小化仿真次数。

(1)单目标优化:贝叶斯优化的主场

当目标是 “最小化功耗” 或 “最大化增益” 等单一指标时,贝叶斯优化表现最佳。综述中 Lyu 团队的案例极具代表性:

设计对象:65nm CMOS LNA,指标为 “增益≥12dB,噪声≤2dB,功耗尽可能低”;

传统方法:采用拉丁超立方抽样 + 参数扫描,需 400 次 SPICE 仿真,耗时 72 小时,得到功耗 15mW;

BO 方法:用高斯过程作为代理模型,仅需 80 次仿真(耗时 16 小时),得到功耗 12mW,同时满足增益与噪声指标。

贝叶斯优化的优势在于 “数据效率”—— 通过代理模型的不确定性估计,优先探索 “可能存在最优解” 的区域,避免无效仿真。

(2)多目标优化:EA 与 BO 的结合

当需平衡多个指标时,单纯的 BO 难以应对,需结合进化算法。综述中 Chen 团队提出的 “BO-NSGA-II” 混合算法:

    用 BO 生成初始的 50 组候选解,减少 EA 的初始种群迭代次数;用 NSGA-II 对候选解进行多目标优化,生成帕累托前沿;用 BO 在帕累托前沿附近进一步精细搜索,提升解的质量。

该算法在某款毫米波 PA 设计中,将帕累托最优解的数量从传统 NSGA-II 的 8 组提升至 15 组,且每组解的 PAE 平均提升 3%。

(3)RF 无源元件的逆设计

对于滤波器、匹配网络等无源元件,AI 的 “逆设计” 能力更具颠覆性。综述中 Karahan 团队的 CNN 模型:

输入:目标 S 参数(如 2-4GHz 频段内,S11≤-20dB,S21≥-0.5dB);

输出:微带线的几何参数(宽度、长度、间距);

训练数据:10 万组 “几何参数→S 参数” 的 EM 仿真数据;

效果:生成的滤波器设计,仿真与目标 S 参数的误差≤5%,设计时间从 2 周缩短至 1 小时。

更重要的是,AI 可生成 “非传统形状” 的无源元件 —— 如某款 60GHz 滤波器,AI 生成了 “蛇形 + 环形” 混合结构,体积比传统矩形结构小 40%,适合毫米波模组的小型化需求。

3.3 阶段三:布局自动化 —— 从 “手动摆放” 到 “AI 协同优化”

布局(Placement & Routing)是模拟设计的 “死亡环节”,传统流程需工程师手动调整元件位置,反复验证寄生影响,耗时且易出错。AI 的目标是实现 “布局与性能的联动优化”。

(1)RL 驱动的布局生成

综述中 Mirhoseini 团队的 GNN-RL 模型是布局自动化的里程碑:

状态表示:用 GNN 将电路网表编码为 “元件特征(类型、尺寸)+ 连接关系”;

动作空间:将芯片版图划分为网格,动作是 “将某个元件放置在某网格中”;

奖励函数:综合考虑寄生影响(如导线长度→寄生电阻)、设计规则(如元件间距≥2μm)、性能指标(如布局后的增益变化);

案例效果:在一款 12 核 CPU 的布局任务中,该模型生成的布局使 wirelength 减少 18%,时序违规率从 25% 降至 5%,布局时间从 3 周缩短至 2 天。

(2)GNN 预测布局寄生

布局优化的关键,是 “提前预测寄生对性能的影响”。综述中 Ren 团队的 ParaGraph 模型:

输入:预布局网表 + 初始元件位置;

输出:布局后的寄生参数(R、L、C)及性能变化(如增益损失、噪声增加);

核心优势:预测精度比传统寄生提取工具(如 Calibre)快 100 倍,误差≤8%;

应用场景:在布局迭代中,设计师可先用 ParaGraph 快速筛选候选方案,再用 Calibre 进行精准验证,效率提升 10 倍。

(3)模拟布局的特殊挑战:对称性与匹配

模拟电路对 “元件对称性” 要求极高(如差分对的晶体管需对称摆放,否则会引入失调)。综述中 Chen 团队的 MAGICAL 框架:

对称性约束:在 RL 的奖励函数中加入 “对称惩罚项”—— 若差分对元件的位置不对称,奖励扣减 50%;

匹配优化:用 K-means 聚类将相同类型的元件(如两个相同电阻)分组,确保每组元件的布局环境一致(如距离导线的距离相同);

案例效果:某款差分 OPA 的布局中,MAGICAL 生成的布局使输入失调电压从传统手动布局的 100μV 降至 30μV,满足高精度模拟前端的需求。

3.4 阶段四:硅后测试与自适应 —— 从 “被动修复” 到 “主动自愈”

芯片流片后并非结束,还需面对工艺偏差(P)、电压波动(V)、温度变化(T)的影响。AI 的价值是实现 “实时校准” 与 “故障自愈”,提升芯片的良率与可靠性。

(1)AI 驱动的性能校准

传统校准依赖 “查表法”—— 预存不同 PVT 条件下的校准参数,但当条件超出表范围时,校准失效。综述中 Rong 团队的元强化学习(Meta-RL)模型:

核心逻辑:让 RL agent 学习 “不同 PVT 条件下的校准策略”,而非单一参数;

训练过程:在 1000 种 PVT 组合(如温度 - 40℃~125℃,电压 1.8V±10%)下训练 agent;

校准效果:某款 ADC 在 - 40℃低温下,传统查表法的 INL 为 5LSB,Meta-RL 模型校准后降至 1.5LSB,且适应新 PVT 条件的时间从 1 秒缩短至 10ms。

(2)故障诊断与定位

当芯片出现故障时,传统方法需工程师用探针手动测试,耗时且成本高。AI 可通过 “数据驱动诊断” 快速定位问题:

CNN 识别故障:综述中 Afacan 团队用 1D-CNN 分析电路的输出波形,可识别 “晶体管开路”“电阻短路” 等 20 种常见故障,准确率达 95%;

梯度定位:用 Grad-CAM 对 CNN 模型的输出进行可视化,生成 “故障热图”—— 某款 PA 的输出功率异常,热图显示 “第 3 级晶体管的漏极电流异常”,工程师可针对性检查该晶体管的工艺偏差;

(3)迈向 “自愈电路”

综述作者认为,AI 的终极目标是实现 “自愈电路”—— 芯片可自主检测故障、诊断原因、执行修复。目前已有初步成果:

硬件基础:在芯片中集成可配置模块(如可编程电容阵列、可调电阻);

AI 逻辑:传感器实时监测性能(如增益、电流),若超出阈值,AI agent 自动调整可配置模块参数;

案例:某款工业级 OPA,当温度从 25℃升至 85℃时,增益下降 3dB,AI 自动增加负载电阻值,使增益恢复至初始值,无需人工干预。

四、模块级实践:AI 在 RF/mmWave 收发器中的具体应用

理论需落地到实际系统。综述第五章以 “RF/mmWave 收发器” 为例,详细介绍了 AI 在各核心模块的应用,让我们看到 AI 如何从 “单点技术” 变为 “系统能力”。

4.1 收发器核心模块的 AI 应用案例

RF/mmWave 收发器由 LNA、PA、混频器、VCO、滤波器等模块组成,每个模块的 AI 应用各有侧重:

模块 AI 技术 核心目标 案例效果(综述数据)
低噪声放大器(LNA) 贝叶斯优化 + GNN 低噪声、高增益 噪声 figure 从 2.5dB 降至 1.8dB,增益提升 2dB
功率放大器(PA) RL+GAN 高 PAE、宽带 PAE 从 45% 提升至 52%,带宽覆盖 28-31GHz
压控振荡器(VCO) NSGA-II+CNN 低相位噪声、宽调谐范围 相位噪声从 - 105dBc/Hz@1MHz 降至 - 112dBc/Hz,调谐范围扩大 15%
混频器 BO+ParaGraph 低失真、低功耗 三阶交调点(IP3)提升 5dB,功耗降低 10mW
滤波器 CNN 逆设计 小型化、宽阻带 体积缩小 35%,阻带抑制从 40dB 提升至 50dB

以毫米波 PA 为例,其设计难点是 “宽频带内保持高 PAE”。综述中 Zhang 团队的 RL-GAN 混合方案:

    用 GAN 生成 PA 的拓扑结构(如 3 级共源放大 + 匹配网络);用 RL 优化每级晶体管的宽长比与偏置电流;用 CNN 预测布局寄生对 PAE 的影响,调整元件位置;最终实现 28-31GHz 频段内 PAE≥50%,满足 5G 毫米波通信的需求。

4.2 系统级协同优化:打破模块壁垒

传统设计中,各模块独立优化,易出现 “模块达标但系统失效” 的情况(如 LNA 的输出阻抗与混频器的输入阻抗不匹配)。AI 的价值是实现 “系统级协同优化”。

综述中 Bao 团队的多智能体强化学习(MARL)框架:

智能体划分:为 LNA、PA、混频器各分配一个 RL agent;

通信机制:各 agent 共享 “系统性能指标”(如整体噪声 figure、带宽),并根据其他 agent 的参数调整自身优化方向;

优化目标:最大化系统级 FoM(如 “增益 × 带宽 / 功耗”);

案例效果:某款 5G 毫米波收发器,独立优化时系统噪声 figure 为 3.5dB,MARL 协同优化后降至 2.8dB,同时带宽扩大 20%。

这种 “协同优化” 思路,正是未来 6G 收发器设计的核心方向 —— 随着频段提升至太赫兹(100GHz 以上),模块间的耦合更强,更需要 AI 打破设计壁垒。

五、支撑体系:数据集、工具与行业实践

AI 技术的落地,离不开 “数据” 与 “工具” 的支撑。综述第六章与搜索到的行业资料(如西门子 EDA 案例)共同显示:完善的支撑体系,是 AI 从 “实验室” 走向 “工厂” 的关键。

5.1 数据集:AI 的 “燃料”

没有高质量数据,再先进的 AI 模型也无法发挥作用。模拟 / RFIC 领域的数据痛点主要有二:“生成成本高”“共享难度大”。

(1)数据生成的创新方法

为降低数据生成成本,综述提出了三类策略:

多端口分解:将复杂电路(如多端口 PA)分解为多个二端口子电路,分别仿真后拼接数据,仿真时间减少 60%;

迁移学习:用成熟工艺(如 180nm)的数据集预训练模型,再用少量先进工艺(如 7nm)的数据微调,数据需求减少 80%;

物理知情神经网络(PINNs):将电路理论方程(如基尔霍夫定律)嵌入模型损失函数,使模型无需大量数据即可学习物理规律 —— 某款 OPA 设计中,PINNs 仅用 50 组数据训练的模型,精度与传统 1000 组数据训练的模型相当。

(2)开源数据集与基准

为解决 “数据共享难” 的问题,学术界推出了多个开源数据集:

Open Circuit Benchmark(OCB):包含 1000 + 款 OPA、LNA 的网表与仿真数据,覆盖 180nm-7nm 工艺;

AICircuit:提供可复用的电路模板(如毫米波 PA、VCO),支持设计师生成自定义数据;

CIRCUIT Benchmark:用于评估 LLMs 在模拟设计中的推理能力,包含 500 + 设计问题与参考答案。

综述对比了 11 个主流数据集的能力(如图 7 所示),其中 FALCON 数据集因支持 “拓扑 - 参数 - 布局” 全流程数据,成为工业界首选。

5.2 工具链:AI 的 “武器”

AI 技术需嵌入 EDA 工具链,才能被设计师实际使用。目前主流工具可分为三类:

(1)算法框架:底层支撑

TensorFlow/PyTorch:用于构建深度学习模型(如 GNN、CNN),综述中 80% 的案例基于这两个框架;

Optuna/BayesianOptimization:开源的优化算法库,支持贝叶斯优化、遗传算法的快速部署;

Ray RLlib:强化学习框架,支持多智能体训练,适合系统级协同优化。

(2)专业 EDA 工具:AI 功能集成

根据西门子 EDA 的实践(搜索资料 2),工业级 EDA 工具的 AI 功能已覆盖全流程:

Calibre Vision AI:物理验证环节,自动聚类设计违规(如线宽不足),修复时间减少 50%;

Solido 生成式 AI原理图设计环节,自动生成符合指标的电路结构,设计时间从 1 周缩短至 1 天;

Aprisa AI:数字后端环节,实现 RTL 到 GDS 的 AI 驱动优化,PPA(功率 / 性能 / 面积)指标提升 10%;

Tessent AI:良率分析环节,用无监督学习识别晶圆缺陷模式,良率提升 8-15%。

(3)定制化框架:学术与工业的桥梁

AutoCkt:斯坦福大学开源的 RL 布局框架,支持自定义奖励函数;

GCN-RL:支持电路网表的 GNN 编码与 RL 优化,已集成到 Cadence Virtuoso;

MAGICAL:开源的模拟布局系统,支持对称性约束与寄生预测。

5.3 行业实践案例:西门子 EDA AI System

搜索资料 2 中西门子 EDA 的案例,生动展示了 AI 在工业界的落地效果。其核心是 “EDA AI System” 统一平台:

(1)平台五大核心特性

可验证性:所有 AI 输出都可通过 SPICE/EM 仿真验证,确保无 “幻觉”;

易用性:设计师无需编写代码,通过图形界面即可调用 AI 功能;

通用性:支持模拟、RF、数字、封装的全流程 AI 优化;

稳健性:在不同芯片工艺、操作系统下保持稳定运行;

开放性:支持接入客户自定义 AI 模型(如企业自研的 LLM)。

(2)典型应用效果

5G 毫米波 PA 设计:用 EDA AI System 的 GAN 逆设计功能,生成的 PA 布局使寄生影响减少 30%,流片通过率从 65% 提升至 90%;

汽车 MCU 良率提升:Tessent AI 分析晶圆测试数据,识别出 “某层金属蚀刻偏差” 是良率瓶颈,优化后良率从 75% 提升至 88%;

消费电子 OPA 设计:Solido 生成式 AI 自动生成 3 组 OPA 拓扑,其中 1 组的功耗比传统设计低 25%,已用于手机摄像头模组。

六、挑战与未来:AI 驱动的芯片设计将走向何方?

尽管 AI 在模拟 / RFIC 设计中取得了显著进展,但综述第九章指出:要实现 “完全自主设计”,仍需解决五大核心挑战。

6.1 挑战一:模型泛化性

当前 AI 模型的 “专才” 属性过强 —— 在 180nm 工艺 OPA 上训练的模型,无法直接用于 7nm 工艺 PA 的设计。综述认为,解决方向是 “元学习 + 领域自适应”:

元学习:让模型学习 “设计的通用规律”(如阻抗匹配的基本原理),而非特定电路的参数;

领域自适应:用对抗学习消除不同工艺、不同电路类型的数据分布差异 —— 某款模型通过领域自适应,在跨工艺设计中的误差从 20% 降至 5%。

6.2 挑战二:布局感知的端到端设计

目前 “拓扑 - 参数 - 布局” 仍存在断点 ——AI 优化参数时未考虑布局寄生,导致后期迭代。未来的方向是 “协同优化”:

RL agent 同时优化参数与布局:将晶体管尺寸与位置作为联合动作空间,实现 “参数调整→布局变化→寄生预测→性能反馈” 的闭环;

GNN 实时更新寄生影响:在优化过程中,用 GNN 实时预测布局变化对寄生的影响,动态调整优化方向。

6.3 挑战三:数据效率与可复现性

数据生成成本高、实验结果难复现,仍是制约 AI 落地的关键。解决方案包括:

开源工具与基准:推广 FALCON 等开源数据集,建立统一的模型评估标准;

数据隐私保护:用联邦学习(Federated Learning)让多家企业共享模型训练成果,同时保护原始数据 —— 某联盟通过联邦学习,联合训练的 PA 优化模型精度比单一企业训练的高 10%。

6.4 挑战四:可解释性与合规性

随着汽车、医疗等安全关键领域的芯片采用 AI 设计,可解释性成为合规要求(如欧盟 AI 法案)。未来需发展 “领域感知 XAI”:

    不仅要解释 “参数为何重要”,还要用电路理论术语(如 “该电阻影响极点位置”)解释,而非单纯的数学指标;建立 AI 设计的 “审计 trail”,记录模型的每一步决策,满足监管要求。

6.5 挑战五:硬件 - 算法协同优化

AI 模型的训练与推理需要大量计算资源 —— 训练一个毫米波 PA 的 GNN 模型,需 8 张 GPU 运行 1 周。未来需:

专用 AI 加速器:设计面向电路仿真的 AI 芯片,如 NVIDIA 的 Hopper 架构 GPU,可将仿真数据处理速度提升 10 倍;

算法轻量化:用模型压缩(如剪枝、量化)减少 AI 模型的计算量 —— 某款 CNN 模型经量化后,推理速度提升 5 倍,精度仅下降 1%。

6.6 未来展望:2030 年的芯片设计图景

基于综述的分析,我们可以勾勒出 2030 年的 AI 芯片设计范式:

设计师角色转变:从 “手动设计者” 变为 “AI 指导者”—— 设计师输入高层需求(如 “5G 毫米波 PA,频段 28GHz,PAE≥50%”),AI 自动生成从拓扑到 GDS 的全流程方案;

端到端自主设计:AI 可自主完成 “需求分析→拓扑生成→参数优化→布局布线→流片测试→故障修复”,设计周期从 12 个月缩短至 1 个月;

跨域协同:AI 不仅优化芯片本身,还可联动封装、系统设计(如考虑芯片与天线的耦合),实现 “芯片 - 封装 - 系统” 的协同优化。

七、结论:AI 不是 “替代设计师”,而是 “赋能设计师”

在本文的最后,我们需要纠正一个常见误解:AI 的目标不是 “取代模拟工程师”,而是 “释放工程师的创造力”。

正如综述作者在结论中强调的:AI 的价值,是让工程师从繁琐的参数迭代、布局调整中解放出来,专注于更核心的 “需求定义”“架构创新”—— 一位资深 RF 工程师,在 AI 的辅助下,可同时负责 5-10 个项目,而传统模式下仅能负责 1-2 个。

从 1947 年晶体管发明,到 2025 年 AI 驱动的设计革命,芯片设计的工具在变,但核心追求不变:用技术创新突破性能极限,支撑人类社会的数字化进程。AI 不是这场革命的终点,而是新的起点 —— 当芯片设计的效率与可靠性被 AI 重塑,我们将迎来 5G/6G、自动驾驶、量子计算的更广阔未来。

正如 IEEE 综述的最后一句话:“The future of analog/RFIC design is not just about AI—it's about AI and humans working together to create what was once impossible.”(模拟 / RFIC 设计的未来,不仅关乎 AI,更关乎人与 AI 携手,创造曾经不可能的可能。)

参考文献(IEEE 格式)

I. Guven, M. Parlak, D. Lederer, and C. De Vleeschouwer, “AI-Driven Integrated Circuit Design: A Survey of Techniques, Challenges, and Opportunities,” 

IEEE Access, vol. 13, pp. 167364–167389, Sep. 2025, doi: 10.1109/ACCESS.2025.3607865.G. G. E. Gielen and R. A. Rutenbar, “Computer-aided design of analog and mixed-signal integrated circuits,”

Proc. IEEE, vol. 88, no. 12, pp. 1825–1854, Dec. 2000.C. Chen, H. Wang, X. Song, et al., “High-dimensional Bayesian optimization for analog integrated circuit sizing based on dropout and (g_m/I_D) methodology,”

IEEE Trans. Comput.-Aided Design Integr. Circuits Syst., vol. 41, no. 11, pp. 4808–4820, Nov. 2022.M. Fayazi, Z. Colter, E. Afshari, et al., “Applications of artificial intelligence on the modeling and optimization for analog and mixed-signal circuits: A review,”

IEEE Trans. Circuits Syst. I, Reg. Papers, vol. 68, no. 6, pp. 2418–2431, Jun. 2021.E. A. Karahan, Z. Liu, A. Gupta, et al., “Deep-learning enabled generalized inverse design of multi-port radio-frequency and sub-terahertz passives and integrated circuits,”

Nature Commun., vol. 15, no. 1, p. 10734, Dec. 2024.西门子 EDA, “革新芯片设计范式:西门子 EDA 铸就智能基座,全流程 AI 加持,”

中国电子报, 2025.M. K. Keshri, “Scaling use of Machine Learning & Artificial Intelligence in Semiconductor Industry,”

Int. J. Sci. Adv. Technol., vol. 5, no. 1, pp. 1–15, Jan. 2025.电子通信与计算机科学,“集成电路中的人工智能技术应用,” vol. 6, no. 1, pp. 171–174, 2024.

相关推荐