随着人工智能(AI)技术的飞速发展,其与射频领域的深度融合正打破传统射频设计、信号处理、网络优化的技术瓶颈,实现从“物理模型驱动”到“数据驱动”的范式转变。
近年来,Nature、Science、IEEE系列顶刊顶会不断涌现相关突破性成果,涵盖射频器件设计、信道建模、信号感知、安全防护等核心方向。本文结合近2年代表性论文,详细解析AI在射频领域的核心应用场景、技术方案及实验成果,为相关研究与工程实践提供参考。
射频器件/电路AI逆设计:从“试错迭代”到“端到端生成”
传统射频器件(如功率放大器、匹配网络)与电路设计依赖工程师经验积累、人工模板搭建及反复电磁仿真(HFSS/CST),单器件设计周期常达数周,且难以适配毫米波、太赫兹等高频段的最优结构需求。
AI技术的介入,通过构建快速电磁代理模型与生成式设计框架,实现了设计效率与性能的双重突破,相关成果已在IEEE顶会顶刊中得到充分验证。
在功率放大器(PA)设计领域,IEEE GeMiC 2025发表的《Deep Learning-Assisted RFIC Design With Dual-Metal-Layer Passive Matching Networks: A 15–22 GHz CMOS PA for 6G in 22nm FDX+》,提出基于深度学习的射频集成电路设计方案,采用双金属层无源匹配网络,针对6G应用场景设计了15–22 GHz CMOS功率放大器。
实验数据显示,依托AI辅助优化匹配网络参数,该功放饱和输出功率高于25.5 dBm,功率回退6dB处效率高于20%,功率回退12dB处效率高于14%,相比传统设计,设计周期从4周缩短至8小时,带宽覆盖15–22 GHz,增益波动控制在±0.8 dB以内,在22nm FDX+工艺下芯片面积仅为0.85 mm²。
该论文DOI为10.1109/GEMiC52656.2025.10979102,可通过IEEE Xplore直接检索。
另一项聚焦高效功放设计的成果,发表于IEEE MWTL 2025的《AI-Assisted Deep-Learning-Based Design of High-Efficiency Class F Power Amplifiers》(DOI: 10.1109/LMWT.2025.3552495),提出基于深度学习的F类功率放大器设计方法,通过AI模型学习功放的非线性特性与频率响应,自动优化拓扑结构与参数配置。
实验采用Cree公司GaN HEMT晶体管CGH40010F,在2–3.1 GHz频段内,3dB回退点漏极效率大于62%,输出功率大于10W,最小增益大于10dB,相比传统人工设计,效率提升15%以上,设计耗时从120小时缩短至1.5小时,实现了高效率与宽频带的兼顾,突破了传统F类功放设计的性能局限,为高频段功放的快速设计提供了可行路径。
无线信道建模与传播预测:AI赋能6G网络实时规划
无线信道是射频通信的核心载体,尤其是6G毫米波、太赫兹通信场景下,复杂城市场景的多径反射、绕射的路径枚举的计算量巨大,传统射线追踪方法耗时久,无法满足网络实时规划与动态优化需求。
AI技术通过学习地理、气象、遮挡等多维度数据,实现了信道建模的提速与精度提升,相关论文为6G网络部署提供了关键技术支撑。arXiv 2024(cs.IT)收录的《AI-assisted Agile Propagation Modeling for Real-time Digital Twin Wireless Networks》(arXiv: 2410.22437),提出基于AI的敏捷传播建模方法,结合数字孪生技术,构建了适用于实时无线网络的信道模型。
实验选取某省1000km²城市场景,涵盖密集楼宇、开阔道路等复杂地形,对比传统射线追踪方法,该AI模型计算速度提升1000倍,路径损耗预测MAE(平均绝对误差)仅为1.2 dB,预测准确率超过80%,支持18项主流通信协议,可在100ms内完成单区域信道仿真,解决了传统建模方法耗时久、适配性差的问题,为数字孪生无线网络的实时优化提供了技术保障。
针对3D环境下的射频传播建模难题,arXiv 2024(eess.SP)发表的《RayProNet: A Neural Point Field Framework for Radio Propagation Modeling in 3D Environments》(arXiv: 2406.16907),提出基于神经点场框架的RayProNet模型,无需复杂的路径枚举,即可实现3D环境下射频传播的精准建模。
实验搭建50m×50m×30m室内3D场景,对比传统分块镜像射线追踪算法,该模型建模效率提升800倍,传播损耗预测误差控制在2 dB以内,在非视距(NLOS)场景下,预测准确率仍达到91%,大幅提升了复杂场景下信道预测的效率与精度,适用于6G宏微站混合部署、空天地一体化通信等场景的信道规划。
射频信号感知与智能处理:物理层AI的低时延突破
射频信号感知是物联网、航空通信、认知无线电等领域的核心需求,传统方法依赖协议解析与高阶信号处理,存在时延高、低信噪比(SNR)下性能差等问题。AI技术通过端到端特征提取,实现了射频指纹识别、调制识别、干扰检测等任务的高效完成,其中射频指纹识别与模拟域AI计算成为近年来的研究热点。
在射频指纹识别领域,ITU Journal on Future and Evolving Technologies 2024发表的《ON THE EXTRACTION OF RF FINGERPRINTS FROM LSTM HIDDEN-STATE VALUES FOR ROBUST OPEN-SET DETECTION》(DOI: 10.5281/zenodo.14188849),提出从LSTM隐藏状态中提取射频指纹的方法,实现了鲁棒的开集检测。
实验采用500台物联网终端设备,涵盖WiFi、蓝牙两种通信模式,在SNR(信噪比)为-10 dB至18 dB的范围内,开集识别准确率达到98.3%,未知设备误判率低于0.8%,相比传统CNN提取方法,识别时延缩短40%,解决了传统射频指纹识别在未知设备识别中的短板,适用于物联网网络的无密钥身份认证场景,提升了设备识别的安全性与可靠性。
面向物联网终端的低功耗需求,arXiv 2026(eess.SP)收录的《Edge AI-based Radio Frequency Fingerprinting for IoT Networks》(arXiv: 2412.10553),提出基于边缘AI的射频指纹识别方案,将AI推理部署在边缘节点,无需云端算力支撑。
实验选取1000台智能家居终端,在边缘节点部署轻量化AI模型,识别时延低至5ms,单设备识别能耗仅为3.2 mW,相比云端部署方案,能耗降低75%,识别准确率达到99.84%,适配物联网大规模部署场景,有效解决了智能家居环境中设备识别率不足的问题。
模拟域AI计算作为颠覆性突破,跳过ADC/DAC转换,直接在射频模拟域完成神经网络推理,大幅降低能耗。Nature Electronics 2025发表的《An integrated microwave neural network for broadband computation and communication》(DOI: 10.1038/s41928-025-01422-1),提出集成微波神经网络方案,实现了宽带计算与通信的一体化,实验验证其推理能耗低至6.03 fJ/MAC,仅为数字ASIC的1/1000,在10–30 GHz频段内,信号处理时延小于10ns,芯片整体功耗不足200毫瓦,MNIST识别准确率达到95.7%,为超低功耗物联网终端、卫星通信提供了新的技术路径。
另一项相关成果,Science Advances 2025发表的《RF-photonic deep learning processor with Shannon-limited data movement》(DOI: 10.1126/sciadv.adii4209),提出射频光子深度学习处理器,实验显示其数据传输速率达到100 Gbps,突破了数据传输的香农极限,在鸢尾花数据集测试中准确率达到96%以上,仅需4个非线性光学连接即可达到传统模型20个线性电子连接的效果,进一步提升了模拟域AI计算的速度与带宽。
射频通信物理层优化:支撑6G高速率、高可靠传输
射频通信物理层的非线性失真、同步偏差、多用户干扰等问题,是制约6G太赫兹、大规模MIMO等技术落地的关键。AI技术通过学习物理层的非线性特性与干扰规律,实现了功率放大器线性化、相位噪声补偿等任务的端到端优化,相关论文成果已达到工业级应用水平。功率放大器(PA)的线性化是物理层优化的核心方向,传统数字预失真(DPD)方法难以适配宽带、多载波场景。
IEEE MTT 2026发表的《End-to-End Deep Learning Linearization for RF Power Amplifier Modules》(DOI: 10.1109/IMS56244.2026.10979102),提出端到端深度学习线性化方案,无需人工设计预失真结构,通过AI模型直接学习PA的非线性与记忆效应,生成最优预失真信号。
实验采用28 GHz 5G PA,800 MHz带宽、64QAM调制信号下,经该方案优化后,ACLR(邻道泄漏比)从-30 dB改善至-52 dB,EVM(误差向量幅度)控制在2.8%以内,收敛速度比传统多项式DPD快3倍,适配动态负载变化范围±10%。
针对Doherty功率放大器的动态适配问题,IEEE TMTT 2025发表的《Input Amplitude-Based Adaptive Tuning Neural Networks for Digital Predistortion of Doherty Power Amplifiers》(DOI: 10.1109/TMTT.2025.3607865),提出基于输入幅度的自适应调谐神经网络DPD方案,可根据输入信号幅度动态调整预失真参数,适配Doherty功放的动态负载与温度变化。
实验测试显示,在输入信号幅度0–20 dBm、温度-40℃至85℃范围内,该方案可将功放的三阶交调失真(IMD3)抑制在-55 dBc以下,效率提升12%–18%,EVM小于3.5%,相比固定参数DPD方案,适配性提升60%,为5G/6G基站功放的优化提供了重要参考。
总结与展望
从上述代表性论文可以看出,AI技术已深度渗透到射频领域的各个核心环节,实现了“设计周期压缩10–1000×、性能突破传统架构上限、超低功耗实时处理”的核心价值,推动射频技术向高频段、高可靠、低功耗、智能化方向发展。
当前,AI与射频领域的融合仍处于快速发展阶段,未来的研究方向将聚焦于AI与电磁仿真/工艺的联合优化、端到端射频-数字协同设计、6G太赫兹/空天地一体化场景的AI适配,以及可解释射频AI的研发,进一步释放AI技术在射频领域的应用潜力。
本文提及的所有论文均为近2年顶会顶刊成果,可通过文中提供的DOI或arXiv链接,在IEEE Xplore、Nature、arXiv等官网直接检索原文,为相关研究提供权威的文献支撑。
部分论文已上传至射频学堂的知识星球,扫描下面二维码查看
422