译者案:IEEE通信学会(ComSoc)发布的《电信领域大规模AI应用——创新、规模化落地与数字体验升级路线图》(LARGE-SCALE AI IN TELECOM——Charting the Roadmap for Innovation, Scalability, and Enhanced Digital Experiences)白皮书,为行业指明了一条融合生成式AI与电信大模型(LTMs)的革命性路径。
本文摘选翻译白皮书第二章内容,翻译不准确之处,敬请谅解。关注公众号【5G行业应用】,回复“260415”可下载白皮书原文
2 电信领域大规模AI应用:行业前沿
2.1 电信领域大规模AI应用概述
6G网络将成为能够实时响应新兴需求与动态环境变化的智能网络,可支撑物联网、智能电网、自动驾驶、智慧农业等丰富的应用与场景。电信网络的设计核心,正从纯粹的通信导向,向意图与目标导向转型。未来的网络不仅需要传输信息以满足吞吐量、时延、可靠性等既定服务质量(QoS)要求,还需能够根据环境条件与用户需求,对功能和协议进行规划、配置与优化。
2.2 面向物理层与媒体接入控制(MAC)层设计的大规模AI
本节将阐述生成式大模型可实现能力增强的物理层核心基础技术。
2.2.1 基于AI的多输入多输出(MIMO)检测
MIMO检测,是指在MIMO通信系统的接收端恢复发射信号的过程。该技术的核心重要性在于:尽管MIMO技术可在同一频段同时传输多路数据流,但多径传播与信道衰落会导致不同天线的信号相互干扰。MIMO 检测的核心目标,是分离这些发射信号,精准恢复原始数据。
MIMO检测的核心挑战,主要来自不同天线发射信号间的干扰、噪声与其他信道损伤,以及大规模MIMO等多天线系统中的高维检测问题。根据天线数量与信道条件,业界会采用不同的检测算法,各类算法均在复杂度与性能之间做了不同权衡。当前主流的MIMO检测方法,既包括迫零(ZF)、最小均方误差(MMSE)等传统线性方法,也包括最大似然检测、球形译码等先进非线性方法、迭代方法与基于机器学习的技术,具体汇总见表 2。
表2 当前主流机器学习检测方法汇总
| 分类 | 方法 | 核心原理 | 优势 | 劣势 |
| 线性检测 | 迫零(ZF) | 通过对信道矩阵求逆,消除多天线干扰 | 原理简单、易于实现,在高信噪比环境下性能优异 | 会放大噪声,在噪声较大或信道病态的场景中性能较差 |
| 最小均方误差(MMSE) | 在干扰抑制与噪声放大之间实现平衡 | 在含噪信道中性能优于迫零算法 | 计算复杂度略高于迫零算法 | |
| 非线性检测 | 匹配滤波(MF) | 最大化每一路发射流的接收信噪比 | 原理极简、计算效率高 | 数据流间存在严重干扰 |
| 串行干扰消除(SIC) | 优先检测最强信号,从接收信号中减去其贡献,再迭代检测剩余信号 | 可降低数据流间的干扰 | 存在误差传播问题,信号检测顺序会直接影响系统性能 | |
| 最大似然(ML)检测 | 最小化接收信号与基于信道矩阵的估计信号之间的欧氏距离 | 可实现最低误码率 | 计算复杂度随发射天线数量与调制阶数呈指数级增长,在大规模系统中不具备实用性 | |
| 球形译码(SD) | 通过在接收信号周围的特定球域内搜索,降低最大似然检测的复杂度 | 可在更低复杂度下实现接近最大似然的性能 | 尽管复杂度远低于最大似然检测,但在大规模MIMO系统中仍存在计算成本过高的问题 | |
| 迭代检测 | Turbo检测 | 在均衡器(检测器)与译码器之间进行迭代反馈 | 性能接近最优水平 | 需要多次迭代,会增加检测时延与计算负载 |
| 置信传播(BP) | 基于因子图执行概率推理,在节点间传递“消息” 以优化概率估计 | 在低密度奇偶校验码(LDPC)等结构化MIMO系统中效率较高 | 复杂度随天线数量增加而上升,存在收敛性问题 | |
| 基于压缩感知的检测 | - | 在发射天线数量多于接收天线数量的系统中,利用信号的稀疏特性实现检测 | 适用于欠定MIMO系统 | 仅在发射信号具备稀疏特性时可实现最优性能 |
| 混合检测技术 | - | 结合多种检测方法,在复杂度与性能之间实现平衡 | 可适配不同信道条件,在性能与复杂度之间实现良好折中 | 系统复杂度有所提升 |
生成式AI与大模型(如深度学习模型)可通过应对复杂动态通信环境的先进能力,大幅优化MIMO检测性能。这类AI驱动的方法,尤其适用于解决MIMO系统典型的高维度、非线性与实时性约束问题。生成式AI与大模型优化MIMO检测的具体路径如下:
基于学习的检测:深度神经网络(DNN)等大模型,可通过训练实现从接收信号到发射符号的直接映射,替代传统检测技术。这一能力在大规模MIMO等高复杂度动态MIMO系统中价值尤为突出——传统算法难以应对这类场景中的非线性与高干扰问题。生成式模型可学习发射信号与接收信号之间复杂的非线性关系,因此非常适用于在衰落、干扰、移动性等复杂环境中运行的MIMO系统。
与需要特定模型假设的传统方法不同,深度学习模型具备便捷的实时适配能力,完成训练后可在各类信道条件下实现良好的泛化性能。正如行业观测结果,在大规模MIMO系统中,传统方法的计算成本会急剧上升,而基于AI的模型可高效适配并支撑这类大规模系统,同时降低计算负载、提升检测速度。
面向信道估计的生成式模型:生成对抗网络(GAN)、变分自编码器(VAE)等生成式模型,可优化MIMO系统的信道估计与建模,而精准的信道估计是实现高检测精度的核心基础。这类模型可模拟真实的无线信道环境,辅助生成更精准的信道矩阵,从而提升检测性能。基于少量真实世界数据,GAN可生成具备真实信道特征的合成信道条件,使MIMO检测器能够动态适配各类信道环境。
此外,生成的合成数据可用于基于监督学习的MIMO检测器训练,即便在真实场景数据有限的情况下,也能增强检测器对不同信号与信道场景的鲁棒性。通过实时预测信道状态,生成式模型可简化MIMO检测所需的显式信道估计步骤,降低系统复杂度。
AI增强的联合检测与译码:检测网络(DetNet)、循环神经网络(RNN)等基于深度学习的架构,可融合MIMO检测与译码流程。AI模型可同时执行MIMO检测与信道译码两项任务,利用两个环节的相关性提升系统整体性能。凭借联合检测-译码能力,这类模型可在提升检测性能的同时,降低整体处理复杂度。模拟Turbo译码的AI驱动架构,可在存在噪声与干扰的场景中,实现高效的差错控制与更精准的信号恢复。
基于强化学习(RL)的自适应检测:这类学习模型可根据环境的实时反馈,动态调整检测策略。随着学习迭代,RL智能体可学习到最优检测策略,根据信道条件或系统参数的变化动态调整,持续保障系统性能。这一能力在信道条件快速变化的场景中尤为重要——静态检测策略在这类场景中往往性能不佳。
基于RL的模型无需建立完整的无线环境模型,即可完成MIMO检测优化,通过学习最优动作实现误码率最小化或吞吐量最大化。与监督式深度学习模型不同,这类方法无需提前准备海量训练数据,即可逐步提升系统性能。
2.2.2 信道编码/译码
信道编解码器(信道编码器与译码器)是数字通信的核心技术,用于检测并纠正数据在噪声、干扰及其他信道损伤环境下传输过程中产生的差错。信道编码的核心目标,是通过在发射信息中引入冗余,提升数据传输的可靠性,使接收端无需重传即可检测并纠正传输差错。
信道编解码主要包含三个环节:信道编码环节通过为数据添加冗余,实现差错检测与纠正;信道译码环节利用冗余信息,检测并纠正接收数据中的差错;最终通过差错检测与纠正环节,提升传输数据的可靠性。
当前主流的信道编解码技术已实现多次迭代升级,可满足5G、卫星通信、数字存储等现代通信系统的需求,核心方法包括分组码、卷积码、Turbo码、低密度奇偶校验码(LDPC 码)。各类方法根据其目标检测或纠正的差错类型,采用了不同的编解码策略。以下是主流方法的简要说明:
分组码:汉明码、里德-所罗门码(用于突发差错纠正、存储系统);
卷积码:适用于实时通信,维特比译码在卫星与移动通信系统中应用广泛;
Turbo码:在无线系统中具备极高的编码效率,采用迭代译码(4G、5G主流技术);
LDPC码:凭借接近香农限的性能与高效译码能力,在现代无线系统(Wi-Fi、5G)与存储系统中得到广泛应用;
极化码(Polar Codes):最新一代信道编码技术,被选定为5G控制信道的编码标准,可通过串行抵消实现高效译码;
混合自动重传请求(HARQ):融合自动重传请求(ARQ)与前向纠错(FEC)技术,通过为重传的差错数据包添加额外冗余,提升差错纠正能力。
大模型与生成式模型可通过数据驱动的技术,优化差错控制能力、译码算法与编码优化方案,大幅提升信道编解码的效率与性能。近年来的相关研究已对这类优化路径进行了探索,结果表明AI模型有望突破传统经典编码技术的部分固有局限。生成式AI与大模型的具体优化路径如下:
优化译码算法:生成式AI与大型深度学习模型,可用于优化与改进译码算法,尤其适用于软判决译码与迭代译码场景(如Turbo码、LDPC码译码)。神经网络可通过训练,从接收的含噪信号中学习译码流程,自动完成差错纠正。
深度学习译码器可替代维特比算法、置信传播算法等传统方法,实现鲁棒性更强、速度更快的译码。循环神经网络(RNN),乃至长短期记忆网络(LSTM)等更先进的模型,可学习序列数据特征,尤其适用于卷积码译码。在包含不同噪声水平的海量数据集上完成训练后,这类基于AI的模型性能可超越传统方法。
此外,生成式模型可预测每一个接收比特的传输概率,实现软译码,这一能力在LDPC码与Turbo码译码中价值显著。借助AI技术,译码器可更高效地处理含噪与受损信号,以更高的精度找到最可能的发射序列。
设计新型编码方案:生成式AI可用于设计性能优于LDPC码、Turbo码、极化码等传统编码的新型编码方案。通过将编码过程视为一个生成过程,AI模型可学习生成针对特定通信环境优化的高效编码方案。
例如,神经网络无需依赖里德-所罗门码、汉明码等预定义编码,即可生成适配特定信道特征或噪声水平的编码方案,在特定应用场景中实现更优性能。自编码器等AI模型可通过训练,同时学习编码与译码流程,从而发掘出差错控制效率更高的新型编码方案。自编码器可捕捉复杂的信道噪声特征,使编码方案适配信道特性。
AI模型还可生成能够根据当前通信环境动态演进的自适应纠错码,这种自适应能力在5G网络等信道条件动态变化的场景中具备极高应用价值。
优化混合自动重传请求(HARQ)系统:生成式AI模型可通过预测重传需求、动态调整编码冗余度,减少重传次数,从而优化HARQ系统,节省带宽资源并提升吞吐量。强化学习可通过学习网络反馈,优化HARQ中的重传决策;AI模型可预测每次传输所需的最优冗余量,提升传输效率;生成式模型可根据信道条件自适应生成奇偶校验位,而非依赖固定的冗余模式。
这种自适应方法可大幅提升HARQ系统的运行效率,在恶劣信道条件下减少重传次数。此外,GAN可生成表征各类可能传输差错的合成数据,使系统能够模拟不同信道条件,在各类误码率场景下学习最优的HARQ策略。
优化5G极化码:极化码已被应用于5G控制信道,生成式AI可通过改进串行抵消译码(SCD)流程、设计更高效的译码架构,实现极化码的性能增强。AI模型可应用于串行抵消列表译码(SCLD),通过更精准地估计每个比特的传输概率,优化译码过程中的决策逻辑,从而提升差错控制性能,尤其在短码长极化码场景中效果显著。
此外,极化码依赖冻结比特降低译码复杂度,生成式AI可根据信道条件动态优化冻结比特的选择,提升整体编码效率与差错控制能力。AI驱动的极化码可针对特定应用场景与通信环境完成定制化优化。
优化LDPC码:LDPC码已在无线通信与存储系统中得到广泛应用,生成式AI可通过改进置信传播(BP)算法优化LDPC译码器,甚至可基于学习到的数据,开发全新的图译码架构。通过学习变量节点与校验节点之间更优的消息传递策略,生成式AI可优化置信传播算法,提升收敛速度与译码精度。此外,深度神经网络可被训练为译码器,模拟LDPC译码的消息传递过程,同时具备更强的抗噪声与抗干扰能力。
2.2.3 资源分配
无线通信系统物理层的资源分配,是指对功率、时间、频率、空间域等资源进行分配与管理,以最大化数据吞吐量、最小化干扰、提升网络整体服务质量(QoS)。高效的资源分配,是保障物理层支撑更高传输速率、更强可靠性、更低时延的核心,尤其在5G及演进型网络等复杂网络中至关重要。
物理层资源分配的核心组成部分,包括功率分配、子载波分配、时域与空域资源分配、自适应调制与编码,以及干扰管理与协调。当前主流方法聚焦于通过优化功率、频率、时间、空间资源,提升系统吞吐量、时延、能效等性能指标。在5G、6G、大规模物联网等复杂系统中,物理层资源分配方法的重要性尤为凸显,这类场景要求资源分配必须具备自适应与可规模化能力。
而随着AI与机器学习技术的发展,资源分配技术也在持续迭代升级。生成式AI与大模型可通过优化实时决策、预测分析与自适应优化能力,提升物理层资源分配效率。这类技术提供了一种数据驱动、自适应、前瞻性的资源管理方案,可在5G与未来6G等复杂高密度网络中,实现更优的系统性能、效率与鲁棒性。
动态功率分配:生成式AI可基于实时与历史网络状态,学习并预测最优功率分配策略,实现更高效的能源利用与更优的干扰管理。强化学习可通过学习网络反馈,持续优化功率分配,优先保障能源利用效率。
频率与子载波分配:在正交频分多址(OFDMA)等系统中,AI模型可通过预测用户需求、信道质量,最小化用户间干扰,更高效地完成频率资源分配。基于历史信道数据,生成式模型可预测用户的信道质量,提升频率分配效率。AI模型还可将资源分配建模为多智能体博弈,在竞争频谱资源的用户之间优化分配策略。
时隙分配与调度:AI大模型可优化时域资源分配中的调度策略,更自适应地应对用户需求与网络状态的实时变化。强化学习模型可基于网络反馈动态分配时隙,实现吞吐量优化与时延降低。此外,AI模型可平衡用户需求与公平性,基于优先级与资源可用情况,提供定制化的时隙分配方案。
结合波束成形与MIMO的空域资源分配:生成式模型与强化学习可优化波束成形与MIMO空域资源,更便捷地管理多用户干扰,提升频谱效率。生成式模型可预测最优波束方向,最大化每个用户的信号质量,降低干扰。AI模型可对空间特征相似的用户进行分组,优化空域资源分配,最小化干扰。
自适应调制与编码(AMC):基于AI的模型可预测信道条件,动态调整调制与编码方案,基于实时环境优化吞吐量与误码率。例如,神经网络可预测信道状态,自动选择最优的调制与编码方案,最大化数据传输速率;强化学习模型可基于信道反馈动态调整AMC方案,非常适用于快速变化的无线环境。
干扰管理与协调:生成式AI模型可用于模拟与预测不同配置下的干扰模式,实现资源的前瞻性调整,在高用户密度场景下提升网络性能。此外,机器学习可通过预测小区间干扰,优化协调多点传输(CoMP)技术,实现基站间的协同资源分配。
2.2.4 可重构智能超表面(RIS)
高频段的应用面临着电磁波遮挡的核心挑战,而可重构智能超表面(RIS)提供了有效的解决方案——它可通过主动塑造与控制电磁波,提升无线网络性能。RIS由大量无源单元或小型天线组成,可调整入射信号的相位、振幅,部分场景下还可调整极化特性,无需有源发射功率,即可实现无线电波的定向反射、散射与波束赋形。
RIS的工作原理类似“智能镜子”,可通过调整相位反射信号并完成波束导向,增强特定位置的信号强度,将信号聚焦为窄波束以实现最低能量损耗,同时可优化无线通信中的多径信号,增强目标信号路径、降低干扰。RIS可提升网络覆盖与系统容量,同时相比传统基础设施,其硬件结构更简单、成本更低,可显著提升系统能效。
但需要注意的是,要控制RIS上数千个单元,需要能够根据环境变化实时自适应调整的复杂优化算法。
当前RIS算法的研究,主要聚焦于如何控制与调整超表面的独立单元,以实现预期的信号处理效果。根据单元设计与控制方式的不同,主流方法可分为以下类别:
无源 vs 有源RIS(能耗 vs 信号放大能力的权衡)
相移方案(离散vs 连续)
可编程超材料(电控方案为当前主流)
反射式vs 透射式 RIS(基于信号交互模式划分)
混合RIS(融合无源与有源单元)
数字vs 模拟控制(精度 vs 实现简易性的权衡)
AI驱动优化(用于动态自适应调整)
无线能量传输(用于自供电系统)
生成式AI,以及深度学习、强化学习等大模型技术,可显著提升无线通信中RIS的性能、优化效果与部署落地能力。RIS辅助系统的优化本身具备极高的复杂度,需要先进的解决方案,而生成式AI与大模型为应对这些挑战提供了创新路径。
这类技术可通过强化学习与深度生成模型,实现实时自适应控制,支撑动态高效的波束成形;通过GAN与大模型实现高质量的信道估计与预测,使RIS能够预判环境变化、优化信号路径;此外,还可通过AI驱动的仿真与预测方法,优化RIS部署方案与能效,降低运营成本、提升网络性能。
具体而言,这类模型还可在以下直接或间接助力RIS性能提升的领域发挥价值:
信道估计与反射系数优化:RIS辅助系统的核心任务之一,是优化RIS单元的反射系数(相移),以最大化接收端的信噪比(SNR)。这一过程需要获取基站、RIS与用户之间精准的信道状态信息(CSI),而在实际场景中,尤其是具备大量单元的大规模超表面场景中,CSI的获取难度极高。
生成式模型可生成具备真实特征的CSI数据,助力提升RIS系统的信道估计精度。此外,深度学习模型可直接学习信道条件与最优反射系数之间的映射关系,相比传统迭代算法,可实现更优、更快速的优化效果。
RIS辅助通信的端到端学习:RIS的优化需要发射机、RIS与接收机之间的协同配合。传统方法通常采用分阶段独立优化的模式,难以实现全局最优。此外,RIS单元为无源器件,无法根据实时反馈主动调整行为,给实时自适应调整带来了挑战。
端到端深度学习模型可用于对整个系统进行联合优化,包括发射波束成形、RIS相移与接收端处理。强化学习或深度强化学习,可进一步使RIS根据环境的实时反馈,动态调整自身配置。
面向环境与信道建模的生成式AI:RIS系统的性能高度依赖周边环境,包括障碍物、反射体、散射体等。精准的环境建模,是预测RIS最优配置以增强无线信号的核心前提。但真实世界的环境复杂且动态变化,难以实现实时精准建模。
GAN、VAE等生成式AI模型,可用于构建无线环境与信道条件的真实3D模型,使RIS系统能够在各类场景中完成训练与测试,无需进行成本高昂的真实环境实测。
RIS硬件参数的数据驱动优化:RIS设备的硬件特性通常为固定设计,包括反射单元数量、相移能力等。但这类硬件设计并非在所有部署场景中都能实现最优效果,尤其是在干扰、移动性、用户密度动态变化的环境中。
基于生成式大模型的硬件参数数据驱动优化,可使RIS 设备具备更强的自适应能力与运行效率,保障其硬件设计在真实场景中实现最大的灵活性与性能。通过在反映不同部署场景的海量数据集上训练 AI 模型,可对硬件设计进行微调,使其在各类环境中均能实现最优性能。
移动环境中RIS实时控制的AI方案:在用户与物体持续移动的移动环境中,无线信道会快速变化,RIS的最优配置需要实时更新。传统优化算法的处理速度,往往难以跟上这种快速变化。
基于强化学习的方案,可使RIS快速、高效地适配环境的实时变化,包括用户移动、干扰变化、障碍物遮挡等场景,提升RIS在动态场景中的鲁棒性与性能。
基于AI的RIS与基站波束成形联合优化:RIS与基站之间的协同配合,是优化系统整体性能的核心。基站的波束成形与RIS的相移需要进行联合优化,这一过程在实际场景中具备极高的计算复杂度与实现难度。
深度学习模型可结合无线信道特征与用户位置,对基站的波束成形与RIS的相移进行联合优化,在最大化用户接收信号功率的同时,最小化对其他用户的干扰,从而降低误码率、提升吞吐量、增强复杂场景中的网络覆盖。
面向RIS辅助波束预测的生成式模型:在毫米波、大规模MIMO等系统中,发射机与接收机之间的波束对齐至关重要,而RIS可通过将信号反射至最优方向,为波束对齐提供辅助。基于部分信道信息或用户移动模式,GAN等生成式模型可用于预测最优波束与RIS配置。
这类模型可生成高概率的信道实现,使系统能够完成更精准的波束预测,提升RIS辅助系统的波束对齐精度,减少波束训练耗时,提升动态环境中的系统吞吐量。
面向分布式RIS控制的联邦学习:在多RIS大规模部署场景中,由于通信开销、隐私问题与可扩展性限制,集中式控制方案往往难以落地。联邦学习等分布式学习机制,可用于实现分布式RIS控制。每个RIS可基于本地数据独立学习,同时定期向中心服务器共享模型更新,无需传输原始数据即可实现全局模型的优化。
这一方案可提升系统的可扩展性与隐私保护能力,同时减少RIS与中心控制器之间的持续通信需求。
2.2.5 多输入多输出-索引调制(MIMO-IM)
MIMO-IM是一种融合MIMO技术与索引调制(IM)的先进通信技术,其核心目标是通过同时对数据符号与天线索引进行调制来传输信息,从而提升频谱效率与能效。传统MIMO系统会激活所有天线进行传输,而MIMO-IM仅激活部分天线子集,激活天线的索引可承载额外的信息。
尽管MIMO-IM可在不增加额外功率或带宽的前提下提升频谱效率,但仍面临着关键的性能挑战:数据符号与激活天线索引的联合检测,需要更复杂的检测算法,会提升检测的计算复杂度,尤其在大规模MIMO系统中更为突出;MIMO-IM的性能高度依赖精准的CSI估计,而激活天线的动态变化进一步提升了信道估计的难度;此外,MIMO-IM对干扰较为敏感,尤其在密集网络部署场景中,在检测天线索引与符号的同时完成干扰管理,需要先进的信号处理技术。
当前MIMO-IM系统的相关研究方法,旨在充分发挥索引调制的独特优势,提升频谱效率、能效与检测性能,同时应对检测复杂度、干扰、信道估计等固有挑战,具体汇总见表3。表中信息表明,尽管确定性AI带来一定性能提升,但其训练过程与适配数据量的获取是核心瓶颈。与之相对,生成式AI与大模型可通过优化信道估计、信号检测、资源分配等多个环节,提升复杂场景中MIMO-IM系统的性能。MIMO-IM系统的优化本身具备极高的复杂度,而生成式AI为应对这些挑战带来了变革性的价值。
表3 当前主流MIMO-IM方法汇总
| 方法 | 核心描述 | 优势 | 局限性 |
| 空间调制 | ・同一时刻仅激活一根天线传输数据符号
・激活天线的索引承载额外信息 |
复杂度低、干扰小、功耗低 | 频谱效率提升有限 |
| 广义空间调制 | ・可选择一个天线子集同时激活 | 频谱效率显著提升 | 检测复杂度有所上升 |
| 正交空间调制 | ・信息同时编码在空间域(天线索引)与信号相位中 | 无需提升复杂度即可实现更优的频谱效率 | 发射机与接收机之间需要精准的相位同步,实际落地难度大 |
| 增强型空间调制 | ・融合空间调制与传统调制技术
・天线索引与发射符号均采用高阶调制方案 |
数据传输速率显著提升 | 功耗要求更高,接收端检测算法更复杂 |
| 双模索引调制 | ・除天线索引外,还可选择天线工作模式
・天线模式包括开启、关闭,或不同功率等级的发射模式 |
利用不同传输模式承载更多传输比特 | 发射机与接收机设计复杂度提升 |
| 基于压缩感知的 MIMO-IM 检测 | ・利用发射信号的稀疏特性,采用压缩感知技术实现检测 | 计算效率高,尤其适用于大规模系统 | 对信号的稀疏特性与信道估计质量高度敏感 |
| 混合 MIMO-IM 技术 | ・融合正交频分复用(OFDM)、非正交多址接入(NOMA)、大规模 MIMO 等先进技术 | 可使 MIMO-IM 应用于 5G 网络等更广泛的场景 | 系统复杂度提升,需要更先进的硬件与信号处理能力 |
| 迭代检测与译码 | ・接收端迭代优化发射符号与激活天线索引的估计结果 | 在低信噪比或高干扰场景中性能优异,可实现更低的误码率 | 处理时延增加,不适用于低时延应用场景 |
| 结合 MIMO-IM 的差错控制编码 | ・将 LDPC 码、Turbo 码等差错控制编码与 MIMO-IM 融合 | 抗差错鲁棒性显著增强 | 编解码复杂度提升,计算负载增加 |
| 基于深度学习的 MIMO-IM 检测 | ・利用卷积神经网络(CNN)、循环神经网络(RNN)模型,学习接收信号、激活天线索引与发射符号之间的关联关系,在复杂场景中实现高效检测 | 可适配不同信道条件、干扰模式与系统配置,自适应能力强 | 训练需要大量数据,尤其在大规模系统中,计算复杂度较高 |
生成式AI与大模型可在以下领域为 MIMO-IM 系统提供性能增强:优化MIMO-IM系统的信道估计:MIMO-IM系统的高效检测与性能保障,高度依赖CSI。传统信道估计方法,尤其在高移动性或衰落环境中,难以满足精度要求,导致系统性能无法达到最优。VAE、GAN等生成式模型,可生成合成CSI数据,助力信道估计深度学习模型的训练与精度提升。
此外,深度学习模型可通过数据驱动的方式,更高效地完成信道估计,替代传统复杂的信道估计算法。通过生成式AI对信道进行建模,MIMO-IM系统可获得更精准、鲁棒性更强的信道估计结果,从而提升信号检测精度与系统整体性能。
基于深度学习的信号检测增强:MIMO-IM系统的信号检测过程新增了一层复杂度—— 数据不仅通过信号调制传输,还通过激活天线的索引传输。传统检测技术(如最大似然检测)往往面临极高的计算复杂度,尤其在大规模 MIMO-IM 配置场景中更为突出。
CNN、RNN等深度学习模型,可通过训练实现MIMO-IM系统的信号检测。这类模型可学习发射信号、天线索引与接收信号之间的复杂关联关系,实现高效、精准的检测。基于AI的检测方法,可在高干扰或复杂信道场景中,在提升检测精度的同时,显著降低计算复杂度。
天线选择与调制的联合优化:在MIMO-IM系统中,激活天线选择与信号调制是同步进行的复杂任务,涉及庞大的组合搜索空间。传统算法往往难以高效找到最优的天线选择与调制策略,尤其在大规模MIMO系统中。
强化学习或深度强化学习,可用于MIMO-IM系统中天线选择与调制的联合优化。通过与环境的交互学习最优策略,RL智能体可适配动态变化的信道条件与干扰模式,保障资源利用与系统性能达到最优。基于RL的优化方法,可使MIMO-IM系统动态适配环境变化,提升频谱效率、能效与系统整体性能。
MIMO-IM系统组件的端到端学习:MIMO-IM系统由发射机设计、信道估计、信号检测、译码等多个组件构成。各组件的独立优化,难以实现全局最优性能,因为组件之间存在复杂的非线性交互关系。
端到端学习可用于对MIMO-IM 全系统进行联合优化,覆盖从发射、检测到译码的全流程。通过基于全系统对神经网络进行训练,模型可学习各组件的最优配置,同时充分考虑组件间的交互关系。这种统一的全系统优化方法,相比各组件的孤立优化,可实现更优的系统性能。
面向信道与干扰仿真的生成式AI:在真实环境中设计与测试MIMO-IM系统,需要应对多样化的信道条件、干扰模式与移动场景,难度较高。而在这类环境中,为AI模型获取海量训练数据,成本高、耗时长。
GAN等生成式AI模型,可用于模拟真实的信道条件与干扰模式,使MIMO-IM系统能够在各类场景中完成训练与测试,无需进行大量的真实环境实测。这类合成数据集,可用于训练信道估计、信号检测、干扰管理相关的AI模型。通过生成式AI实现数据增广,可使MIMO-IM系统对真实环境的鲁棒性显著增强,在多样化场景中部署时实现更优性能。
面向低时延检测与资源分配的AI方案:MIMO-IM系统,尤其在5G及演进型网络等实时应用场景中,需要低时延的检测与资源分配能力,以满足严苛的性能要求。传统算法往往会引入显著的时延,尤其随着系统规模的扩大,时延问题会更加突出。
可通过模型剪枝、量化等方式,设计轻量化AI模型,实现低时延的信号检测与资源分配。这类模型可快速处理接收信号,以极低的计算开销完成资源(功率、天线等)分配。基于AI的模型,可显著缩短MIMO-IM系统的检测与资源分配耗时,使其在不牺牲性能的前提下,适用于实时应用场景。
面向自适应天线配置的强化学习:MIMO-IM系统的天线最优配置,会随信道条件、用户移动性、干扰情况的变化而改变。静态或预定义的天线配置,在动态环境中往往无法实现最优性能。
强化学习可基于环境反馈,实时自适应调整天线配置。RL智能体可学习不同环境下最大化系统性能的天线配置方案,动态调整激活天线索引,实现吞吐量优化或误码率最小化。基于RL的自适应天线配置,可提升MIMO-IM系统的灵活性与自适应能力,使其在快速变化的环境中持续保持高性能。
AI辅助的差错控制:由于发射符号与激活天线索引的检测均可能出现差错,MIMO-IM系统易受传输差错影响。LDPC码、Turbo码等传统差错控制方法,往往难以应对MIMO-IM带来的独特挑战。
基于深度学习的差错控制模型(如神经译码器),可通过训练,同时纠正MIMO-IM系统中的符号差错与索引检测差错。这类模型可基于海量的发射与接收信号数据集进行训练,优化差错控制流程。基于AI的差错控制方案,可显著提升MIMO-IM系统的可靠性与鲁棒性,尤其在传统差错控制方案失效的复杂信道场景中,效果更为突出。
表4对上述方法从AI实现方式与模型规模两个维度进行了对比。总体而言,生成式 AI与大模型为提升MIMO-IM系统的性能、效率与自适应能力,提供了强大的技术工具。通过将AI技术应用于信道估计、信号检测、资源分配与差错控制等环节,MIMO-IM系统可实现更高的频谱效率、更低的时延与更强的可靠性。而AI驱动的天线选择与调制策略优化,进一步提升了系统对动态环境的适配能力,使其成为5G及未来通信技术的核心使能技术之一。
表4 确定性模型与生成式模型对比
| 应用场景 | 确定性AI | 生成式AI | 训练模型规模 | 推理模型规模 |
| 优化信道估计 | ✔️ | ✔️ | 中 - 大 | 中 - 大 |
| 增强信号检测 | ✔️ | ❌ | 中 - 大 | 小 - 中 |
| 天线选择与调制的联合优化 | ✔️ | ❌ | 中 - 大 | 小 - 中 |
| MIMO-IM 系统组件的端到端学习 | ✔️ | ✔️ | 大 | 大 |
| 面向信道与干扰仿真的生成式 AI | ❌ | ✔️ | 大 | 中 - 大 |
| 面向低时延检测与资源分配的 AI 方案 | ✔️ | ✔️ | 中 - 大 | 小 |
| 面向自适应天线配置的强化学习 | ✔️ | ✔️ | 中 - 大 | 中 |
| AI 辅助的差错控制 | ✔️ | ✔️ | 中 - 大 | 中 - 大 |
2.2.6 联合优化方法
在实际应用中,往往需要将多个物理层功能进行融合处理,例如联合符号检测与信道估计、联合均衡与译码。生成式模型可通过预测建模、数据合成与自适应优化,即使在大规模MIMO系统、高移动性场景等复杂环境中,也能实现更强的抗噪声能力、更快的处理速度与更高的处理精度。生成式AI与大模型的具体优化路径如下:
联合符号检测与信道估计:在无线系统中,符号检测与信道估计是两个相互依赖的过程。传统方法通常对两个环节进行独立处理,在含噪或高干扰环境中,往往会导致性能无法达到最优。
生成式AI模型可提前模拟信道条件,在不同噪声与干扰水平下,实现更优的符号检测效果;可通过合成数据,减少对大量导频信号的需求,以更低的开销实现更精准的信道估计(典型方法包括GAN、VAE等);循环神经网络等大型神经网络,可联合学习信道特征与符号信息,尤其在衰落信道中,可显著提升检测可靠性。总体而言,生成式AI与大模型可对两个环节进行联合优化,提升检测精度与处理效率。
联合均衡与译码:联合均衡与译码,需要同时处理码间串扰(ISI)与信道引起的信号失真,这一问题在高移动性、高干扰场景中尤为突出。
生成式模型可模拟各类干扰场景,支撑能够动态适配干扰变化的自适应均衡技术;CNN等深度学习模型,可同时完成均衡与译码任务,学习干扰与噪声的结构特征,提升译码可靠性;强化学习模型可实时优化均衡策略,动态适配环境变化,提升译码性能。总体而言,生成式AI与大模型可通过预测分析与自适应均衡技术,提升译码精度与处理速度。
信道估计、检测与译码一体化的端到端学习:端到端学习模型基于神经网络,将信道估计、符号检测、均衡与译码环节进行融合,构建了一个优化的单模型流水线,能够适配复杂、快速变化的环境。
通过对全流程进行联合学习,生成式模型可缩短处理耗时、降低计算复杂度,非常适用于实时应用场景;这类模型具备强自适应能力,可在各类信号、干扰与噪声条件下完成训练,对信道损伤的鲁棒性更强,可实现更低的误码率;GAN可用于合成真实的信道效应,通过训练使模型更好地适配真实环境中的干扰与噪声场景。
2.2.7 无线频谱感知
无线通信标准的持续演进,催生了设备连接的全新方式,也带来了联网设备数量的爆发式增长。这种快速扩张,给射频频谱资源的可用性带来了巨大挑战。频谱感知技术可检测未被使用的频谱频段(即“频谱空洞”),使无专属授权的次级用户,能够接入授权主用户当前未使用的频谱资源。
这种机会式频谱接入模式,可通过持续监测频谱、识别频谱空洞,实现频谱资源的更高效利用,该技术也被称为动态频谱接入(DSA)。
无线频谱感知技术主要可分为三大类:能量检测、匹配滤波、循环平稳特征检测、基于接收端指标的方法等传统方法;基于机器学习与深度学习的方法;以及近年来兴起的大规模AI方法。
传统频谱感知技术(尤其是能量检测),核心原理是将计算得到的信号能量与预设阈值进行对比,从而判断信号是否存在。但这类方法面临着噪声、干扰、数据不完整、环境动态变化等核心挑战,导致最优检测阈值的设定难度极高。而基于机器学习与深度学习的技术,尽管具备一定的性能潜力,但面临着泛化能力不足的问题——在特定数据集上表现优异的模型,在未见过的数据上往往无法达到同等精度。
Shao等人[9]提出了一种面向无线通信系统的大语言模型适配与增强框架,提出将大语言模型的少样本学习能力应用于频谱感知。这一技术在深度学习模型需要采集大量标注数据(往往难以实现)的场景中,具备极高的应用价值。仅需少量样本,大语言模型即可有效学习频谱感知任务,达到与能量检测器等最优检测器相当的性能,尤其在信噪比动态变化的场景中,优势更为突出。
传统射频感知方法,面临着噪声、干扰、数据不完整等挑战。Wang等人[10]提出了一种基于生成式AI的物联网系统射频感知框架。生成式AI可增强多模态数据融合能力,而这一能力对于依赖射频信号、图像、音频等多类传感器输入的物联网系统至关重要。通过融合不同类型的数据,生成式AI驱动的系统可构建更智能、更全面的感知方案。
GAN、VAE、扩散模型(DM)等生成式AI技术,可生成高质量的合成数据、实现信号去噪、补全缺失信息,这些能力可显著增强射频感知系统的可靠性。
自动调制分类(AMC)技术,可通过识别主用户的调制方案,应用于无线频谱感知。通过对主用户使用的调制方案进行分类,AMC技术可使无线无线电设备智能检测频谱频段是否被占用、是否可供次级用户使用,从而减少对授权用户的干扰。与能量检测等传统方法相比,将AMC融入频谱感知系统,可提升检测精度,尤其在低信噪比环境中效果显著。
Olaloye等人[11]提出了基于多层感知器(MLP)等机器学习模型的方案,验证了其在调制类型分类中可实现高精度,从而证实了AMC在实时动态频谱接入中的应用可行性。
2.3 面向网络管理与优化的大规模AI
2.3.1 以用户为中心的网络优化中的大规模AI应用
以用户为中心的网络优化,已成为下一代网络优化的核心研究方向。该方法的核心价值在于,能够满足单个用户的多样化需求与偏好,从而提升用户整体体验质量(QoE)。传统的统一服务交付模式,往往会导致用户满意度参差不齐。以用户为中心的优化,可应用于个性化内容分发、自适应视频流传输、移动网络动态资源分配等多样化场景。
尽管目前已涌现出多种以用户为中心的网络优化方法,但如何精准评估用户需求(尤其是主观体验),仍是行业面临的核心挑战。部分研究引入了心理学定律,对用户的主观体验质量进行近似建模[12],但这类方法往往难以捕捉真实应用场景的复杂性。
另一种解决方案,是采用人类反馈强化学习(RLHF)范式训练管理模型。但该方法需要专家持续提供体验质量反馈,不仅成本高昂,还存在伦理问题,且难以实现实时落地。这些局限性,引出了我们的首个研究问题。
大规模AI在预训练过程中可处理海量用户数据,能够有效模拟用户体验质量,因此在以用户为中心的网络优化中具备巨大潜力。大语言模型赋能的生成式智能体,可处理并理解自然语言形式的复杂指令,成为包括评估在内的各类任务的通用接口[13,14]。
文献 [13] 的研究证实,ChatGPT可基于质量、语气、连贯性等符合人类认知的标准,对文本内容进行评估。这些评估结果,为大语言模型向其他领域的功能拓展奠定了基础。文献 [15] 进一步评估了ChatGPT等大语言模型在计算社会科学领域的应用潜力,测试了其零样本场景下的分类与生成任务性能。结果表明,大语言模型与人类的评估结果具备较好的一致性,可优化标注流程。
文献 [16] 的最新研究表明,当前具备角色扮演能力的大语言模型,可有效模拟特定的人格特质,与人类认知的对齐度达到82.8%。
在以用户为中心的网络优化的大规模AI应用场景中,AI主要可发挥两大核心作用:
主动生成解决方案:大规模AI可主动生成网络优化方案。适用于决策场景的可规模化模型架构,包括基于注意力机制的Transformer模型、用于理解网络拓扑的图神经网络、用于多层级决策流程的分层强化学习模型。
例如,文献[17] 的作者提出了一种创新的、大语言模型赋能的混合专家(MoE)网络优化方法。该方法利用大语言模型的高阶推理能力,分析用户目标与约束条件,选择专用的深度强化学习(DRL)专家模型,并确定每个参与专家的决策权重。大语言模型作为动态门控网络,管理专家模型的选择与融合,以应对全新的复杂优化任务。该方法证实,大规模AI能够适配多样化的用户需求,无需为每个特定任务重新训练模型,即可生成有效的网络优化解决方案。
被动优化支撑:大规模AI可作为优化算法的组成部分,提供主观的体验质量评估。大语言模型赋能的生成式智能体,为生成内容提供了符合人类认知的主观体验质量反馈机制,具备强大的技术能力。
基于这类智能体的体验质量反馈方案,可模拟多样化的用户人格特征。通过设计提示词、为每个用户配置独立的智能体,生成式智能体可模拟具备不同主观偏好的用户,对接收的服务进行评估。例如,文献[18]的作者提出了一种面向分布式生成式AI服务的大语言模型交互强化学习(RLLI)框架,该方法利用大语言模型赋能的生成式智能体模拟用户反馈。
该框架以大五人格模型为基础,配置生成式智能体,与“大语言模型可有效模拟这类人格特质”的相关研究结论相契合。通过设计包含特定大五人格特质评分的提示词,系统可使生成式智能体模拟多样化的用户人格,再由这些智能体对生成内容进行评估,提供反映个体偏好的主观体验质量反馈。该方法为人工反馈提供了一种可规模化、高效率的替代方案,与传统方法相比,在最大化总体验质量方面实现了更优的性能。
2.4 面向无人机(UAVs)领域的大规模AI
近年来,无人机(UAVs)凭借其卓越的自主能力、移动性与自适应能力,受到了行业的广泛关注,其应用场景已拓展至安防监控、搜救任务、医疗健康、海上通信等多个领域[19]。无人机技术与AI技术的融合发展,为各类应用场景带来了显著的价值增益。
例如,AI赋能的无人机可通过人脸识别增强安防应用能力,通过实时视频分析实现偏远区域的监控;在农业领域,搭载AI模型的无人机可评估作物健康状况,支撑精准农业生产,提升农业收益;此外,AI驱动的无人机可通过优化路径规划与库存管理,提升物流效率,简化仓储运营流程,提升配送效率[20,21]。
在这些技术进展中,大规模AI模型近年来在无人机领域受到了广泛关注[22]。这类模型在实时数据处理、自然语言理解与生成、内容推荐、情感分析、自动应答、语言翻译、内容摘要等领域的能力,为无人机领域的创新应用开辟了全新空间。
近期的相关文献 [23,24,25,26],对大规模AI模型与无人机通信系统的融合进行了研究,旨在增强操作人员与无人机之间、以及无人机之间的交互能力。传统无人机通常依赖预编程指令,动态交互能力十分有限。而大规模AI模型(即大语言模型)的融入,为无人机提供了自然、直观的通信交互能力支撑。
例如,大语言模型可对自然语言指令进行解读与响应,大幅简化无人机控制流程,同时可支撑复杂的实时任务调整。这一技术变革,使无人机在各类应用场景中,成为适配性更强、实用性更高的工具。
文献 [27] 的作者提出了一种基于GPT-3的框架,用于增强人机-无人机交互的直观性。该框架利用自然语言处理技术,使用户可通过简单的语言指令控制无人机,无需掌握复杂的编程知识。通过将用户指令转化为可执行代码,该框架可使无人机执行相关任务,并以自然语言形式向用户反馈,大幅简化了无人机控制流程。
文献 [28] 提出了另一种应用方案,作者将OpenAI 的GPT-3.5-Turbo模型与无人机仿真系统(PX4/Gazebo仿真器)融合,开发了一套基于自然语言的无人机控制系统。该系统架构通过基于Python的中间件,以聊天机器人界面为载体,实现用户与无人机仿真器之间的无缝交互。中间件处理用户输入的自然语言,通过OpenAI API将其传输至ChatGPT模型,获取生成的响应后,将其转化为仿真器可识别的指令,从而提升无人机仿真系统的交互性与易用性。
大规模 AI 模型,使无人机能够对动态环境变化与通信需求做出即时响应。这类模型的自适应学习能力,可通过实时获取的数据持续优化运行策略,从而提升决策能力。
文献 [27] 的作者提出了一种基于视觉的无人机自主规划系统,旨在提升飞行安全性。该系统通过NanoDet实现精准的障碍物检测,通过卡尔曼滤波实现精准的运动估计,从而预测动态障碍物的轨迹,生成更安全的飞行路径。
另一项研究 [29] 中,作者将GPT模型与计算机视觉技术融入自主巡检无人机,增强了其在室内环境中的功能。该系统可使无人机对飞行过程中采集的图像进行分析,生成详细的物体字典,使无人机能够识别并理解环境中的各类元素,从而根据预期与突发状况,动态调整自身行为。
此外,大规模 AI 模型可通过通信上下文或环境数据,增强无人机的自主决策能力 [30]。例如,在搜救任务中,可通过多模态大语言模型,对多架无人机回传的实时视频流与文本报告进行分析与综合,推荐重点搜索区域,或相应调整搜索模式 [23]。
无人机还可通过自组织与网状组网模式,构建无需预先部署基础设施的动态网络。这一能力在灾害响应等无法部署固定网络基础设施的场景中,具备极高的应用价值。这类自组织网络可持续发现新的邻接节点,根据网络拓扑与流量状况动态调整路由,从而提升系统的可扩展性与灵活性 [31]。
大规模AI还可用于模拟与建模不同场景下的网络行为,为无人机部署的规划与决策提供支撑。GPT 系列模型可通过生成真实的任务场景与响应,模拟各类无人机训练用通信场景,使操作人员能够完成全面的训练,更好地应对各类场景,提升真实任务中的处置能力 [32]。大规模 AI 模型还可辅助无人机理解网络流量模式,推荐自适应协议,从而降低时延、提升吞吐量,尤其在网络中用户条件动态变化的场景中,优势更为突出。
大规模 AI 模型还可用于分析无人机自身的运行日志、飞行数据等,提前预测可能出现的故障、维护需求与潜在恶意攻击 [33]。这种预测能力,可显著提升无人机的可靠性与使用寿命,减少停机时间与维护成本。
文献 [34] 的作者为无人机开发了增强型安全与取证分析协议,以支撑无人机在各行业的广泛应用,同时应对无人机被非法滥用的风险。作者提出了一种命名实体识别系统,用于从无人机飞行日志中提取相关信息。该系统采用经过标注数据微调的BERT与DistilBERT模型,显著提升了无人机相关事件取证调查中核心实体的识别精度。
2.5 面向电信应用场景的大规模AI
2.5.1 “启明” 网络大模型案例研究
中国电信“启明” 网络大模型,旨在通过AI驱动的流程,实现网络运营的优化与自动化。随着现代电信网络的复杂度持续提升,行业对能够实现实时决策的先进工具的需求日益增长。
“启明” 网络大模型依托海量数据与专业网络知识,可辅助完成网络规划、维护、监控、故障排查、性能优化等各类任务。模型的生成能力,结合知识检索与意图识别能力,旨在提升网络自主化水平、减少人工干预、提升运营效率。“启明” 网络大模型采用了创新的大模型架构,包括增量训练与反馈优化算法,保障模型能够持续迭代演进,适配全新的网络挑战与需求。该模型还具备处理海量网络数据的能力,可显著提升运营效率,减少人工输入需求。
尽管具备上述优势,该模型仍面临一定挑战:处理海量数据集与模型训练带来的高昂计算成本;在面对全新的、未预见的网络状况时,模型的泛化能力可能不足,需要持续的优化与更新。
“启明” 网络大模型,是利用大规模AI应对复杂网络管理挑战的典型范例,已成为中国电信推动网络自动化转型、提升运营效率的核心工具。
2.5.2 “启明” 网络大模型运行工作流
“启明”模型的运行工作流(如图2所示),主要分为以下多个步骤:
1.用户意图与输入:网络运维人员输入特定的用户意图,启动整个流程,例如网络优化、故障排查的相关请求。
2.网络知识查询:网络大模型与知识库进行交互,查询相关的网络知识。该步骤包括检索可辅助网络优化、用户问题解答等决策流程的专业知识。
3.网络数据查询:模型从数据库等数据源中查询网络数据,区分实时数据与非实时数据。这类数据包括网络统计数据、网络状态数据等,是故障诊断与精准推荐的核心基础。通过与业务支撑系统(BSS)、运营支撑系统(OSS)、管理支撑系统(MSS)的交互,模型可提取运营数据与相关指标,完成全面的分析。
4.决策生成:基于收集到的知识与数据,模型生成网络运营相关的决策,包括问题解答、解决方案推荐、网络功能优化等。
5.网络运营响应:网络大模型将生成的决策下发给运维人员,或直接与网络网元进行交互。网络基于模型的决策完成相关操作,并回传确认消息(ACK),确认操作已成功执行。
图2 "启明"网络大模型运营工作流程
2.5.3 “启明” 网络大模型应用场景
智能网络运营:模型可实现网络全生命周期任务的自动化,覆盖规划、建设、维护、优化全流程,通过先进算法,对网络问题实现高效、实时响应。
故障诊断与预防:模型具备处理历史与实时数据的能力,可预测潜在的网络故障,提供预防措施,从而减少网络停机时间,为用户提供流畅的网络体验。
任务分解与编排:模型可将复杂任务拆解为可执行的子步骤,实现智能化的任务编排,提升网络维护与故障排查的速度与精度。
▎好书推荐
本书由吴冬升、李大成担任主编,机械工业出版社出版。书中在分析智慧城市重点建设内容和智能网联汽车重点发展内容基础上,进一步探讨智慧城市与智能网联汽车融合发展带来的车联网智能道路基础设施、新型能源基础设施、地理位置网、现代信息通信网、车城网平台建设和发展情况。并且介绍智慧城市与智能网联汽车融合创新发展的相关案例。
吴冬升 博士
269