无线频谱,是运营商最宝贵的资源。如果把无线网络比作一片稻田的话,无线频谱就是种植这些水稻的土地。如果土地本来就少,还想要高产的话,只能从培育良种上下功夫。

 

移动通信的每一代发展,都相当于培育出了更高产的水稻品种,再结合开荒,把以前难以利用的贫瘠土地也想办法用上,才能实现产量的数倍增长。

 

对于通信来说,提升产量就是要在同样大小的带宽(单位一般为 MHz)上,实现更快的数据传输速率(单位为 Mbit/s)。4G 和 5G 可以支持多种不同的系统带宽,要衡量它们的能力的话,就需要算下单位带宽的传输速率,也叫做频谱效率:

 

速率(Mbit/s)/ 带宽(MHz)=频谱效率(bit/s/Hz)这么一算,我们就知道了频谱效率,也就是每秒时间内,在每赫兹的频谱上,能传多少比特的数据。我们可以算一下:

 

  4G 5G
带宽 20M 100M
双工模式 FDD TDD
调制方式 256QAM 256QAM
天线数 4 64
帧结构 FDD 下行 5 毫秒单周期
峰值速率(下行) 391.63 Mbps 7.21 Gbps
频谱效率(下行) 19.58 bit/s/Hz 72.1 bit/s/Hz

 

在上表中,5G 的小区理论频谱效率是 4G 的 3.68 倍。LTE 用的是最主流的 4 天线发射,每个小区和每个用户能实现的流数相同,都是最多 4 流;而 5G 则使用 64 天线发射,虽然每个用户还是只能支持最多 4 流,但在 Massive MIMO 技术的加持下,整个小区同样的频谱可以多个用户复用,一共实现 16 流,在峰值速率上碾压 4G。

 

也就是说,Massive MIMO 技术带来的多用户多流传输,是 5G 理论频谱效率提升的关键。对单个用户来说,5G 的频谱效率就和 4G 相当了,速率的提升主要靠系统带宽的增大。上面说的是理论上的最大频谱效率,跟真实用户在真实小区中是完全不同的。实际使用中,峰值速率铁定是达不到的,影响速率的因素实在是太多了。这就需要一个更实用的指标:平均频谱效率。

 

试想一下,密集城区,郊区,还有农村地区基站的天线数不同,天线高度高度不同,频段也有可能不同,站间距不同,用户数不同,建筑物对无线信号传播的反射,衍射,还有吸收作用也不一样,小区速率能一样吗?就算在同一个基站下,多个用户离基站的远近不一样,用的手机不同,移动速度也不相同,做的业务也不同,这么多用户一共能达到多少吞吐量?

 

这个系统过于复杂,要知道平均频谱效率就必须借助计算机,把上述这些变量全部输入到系统中去,再加上很多假设,根据一定的模型来计算。这个过程就叫做仿真。
一般情况下,基站采用 4 天线发射,4G 在城区的平均频谱效率在 2.9 bit/s/Hz 左右,也就是说,20M 带宽的 4G 小区的平均下行速率只能达到 58Mbps。

 

 

5G 基站采用 64 天线发射,在密集城区的平均频谱效率在 10 bit/s/Hz 左右,也就是说,100M 带宽的 5G 小区,平均下行速率约为 1Gbps。跟最大频谱效率类似,5G 是 4G 的三倍多,但 5G 的频谱带宽大啊,所以最终 5G 小区的下行平均速率也是很惊人的。那么问题来了,5G 在愿景中吹下的牛实现了吗?我们看下图,但从 eMBB 业务来说,5G 的用户体验速率要达到 100Mbps。

 

 

单从频谱效率在 10 bit/s/Hz 左右,100M 带宽的 5G 小区,平均下行速率约为 1Gbps 这一点来看,似乎用户的平均体验速率已经达到了目标的 10 倍了。实际上,平均速率值虽高,但小区边缘的用户信号不好,还可能受到其他干扰,想达到 100Mbps 的速率已经很难了。

 

因此,在实际网络规划中,一般是以边缘用户 50Mbps 为标准的,边缘速率 100Mbps 仅作为高价值区域的挑战目标。

 

归根结底,要覆盖好速率高是要花钱新建站的,而网络建设需要考虑投资和收益的平衡。