1965 年,《电子》杂志在创刊 35 周年之际,邀请时任仙童半导体公司研究开发实验室主任的摩尔,为其撰写一篇观察评论,预测微芯片工业的前景。

 

此时,全球半导体产业才刚刚萌芽,英特尔公司都尚未成立,市面上生产和销售的芯片更是屈指可数。

 

摩尔根据有限的数据大胆提出了一条被后人奉为圭臬的路线图——处理器(CPU)的功能和复杂性每 12 个月增加一倍,而成本却成比例地递减,也就是有名的摩尔定律。(1975 年,摩尔将 12 个月改为 18 个月,沿用至今)。

 

这篇名为“让集成电路填满更多的元件”的报告,就此指导了半导体乃至整个信息产业半个世纪的发展步伐。

 

 

就连摩尔本人都没有想到,这个定律的效力是如此持久。

 

2005 年,摩尔直言“Something like this can’t  continue forever” ,认为摩尔定律可能在 2010 至 2020 年达到极限而失灵,建立在硅基集成电路上的电子信息技术也将被另外一种技术所代替。

 

此后十几年,不断挑战半导体产业极限的摩尔定律,也在一次次撞向“天花板”的时候“被死亡”。

 

关于摩尔定律的唱衰言论层出不穷。2014 年国际半导体技术路线图组织宣布,下一份路线图将不再依照摩尔定律。台积电张忠谋、英伟达黄仁勋等挑战者更是“语出不逊”,认定摩尔定律不过是苟延残喘。

 

显然,一切并没有发生。集成电路芯片向 5nm 甚至 3nm 制程进发,依然是英特尔、三星、台积电等半导体厂商孜孜以求的目标。

 

硬挺到今天的摩尔定律,为何总能被成功“续一秒”,又是哪些黑科技在帮助它一次次“起死回生”?围绕在它身上的传奇和产业竞速到底能续写到什么时候?接下来,我们就一起走进——摩尔定律的惊魂夜。

 

薛定谔的摩尔定律之死

在抵达一个个惊险刺激的历史现场之前,有必要先跟大家聊聊摩尔定律持续“碰壁”的原因。

 

摩尔定律的定义,历史上其实被更新过几次,因此也形成了不同的版本和表达。比如:

 

集成电路上可容纳的晶体管数目,约每隔 18 个月便增加一倍;

 

微处理器的性能每隔 18 个月提高一倍,或价格下降一半;

 

相同价格所买的电脑,性能每隔 18 个月增加一倍。

 

正是沿着这个思路发展,电脑、电话等在强劲的处理器芯片加持之下,才有了低价格、高性能的可能,进而得以应用于社会每个的每个领域,成就了今天无处不在的信息生活,甚至彻底改变了人类的生活方式。

 

 

而在过去的几十年里,为了满足摩尔定律,半导体行业算是堵上了自己的尊严:

 

提升晶体管的密度与性能,成为微处理器按“摩尔定律”进化最直接的方法要在微处理器上集成更多的晶体管,芯片制造工艺不断向天花板逼近,制程节点不断逼近物理极限。

 

1971 年英特尔发布的第一个处理器 4004,就采用 10 微米工艺生产,仅包含 2300 多个晶体管。

 

随后,晶体管的制程节点以 0.7 倍的速度递减,90nm、65nm、45nm、32nm、22nm、16nm、10nm、7nm 等等相继被成功研制出来,最近的战报是向 5nm、3nm 突破。

 

 

既然大趋势如此成功,为什么“摩尔定律”还会被屡屡宣判失效、死亡呢?

 

任何一个对指数有所了解的人,都会明白这种增长要无限地保持下去是不可能的。“增加一倍”的周期都是 18 个月,意味着每十年晶体管的数量要提高一百倍。

 

摩尔自己在演讲时也开玩笑说,如果其他行业像半导体这样发展的话,汽车现在应该一升汽油就能跑几十万公里,市中心每小时的停车费可能比劳斯莱斯还要昂贵,还有可能汽车尺寸会缩小到两寸长根本无法载人……

 

因此,摩尔本人在谈论“摩尔定律”的生命周期时,更同意史蒂芬霍金的说法。后者曾在被问及集成电路的技术极限时,提到了两个限制:

 

一是光的极限速度,芯片的运行速度距离光速还很远;二是物质的原子本质,晶体管已经很接近原子的直径(0.01 纳米到 0.1 纳米之间)。

 

也就是说,摩尔定律想要在当下继续发展,工程师们就不得不面临与这两个最基本的自然法则做斗争。听起来是不是一个很艰难的挑战?

 

 

体现在具体的产业难题上,就是随着硅片上集成电路密度的增加,其复杂性和差错率也会呈现指数级的上升。

 

硅材料芯片被广为诟病的便是高温和漏电。集成电路部件发散的热量,以及连线电阻增加所产生的热量,如果无法在工作时及时散发出去,就会导致芯片“罢工”;

 

此外,晶体管之间的连线越来越细,耗电也就成了大问题。而且导线越细,传输信号的时间也就越长,还会直接影响它们处理信号能力。如果电子能直接穿透晶体管中的二氧化硅绝缘层,就会触发“量子隧穿效应”,完全丧失功能。

 

要在指甲盖大小的芯片上以亿为单位来雕刻晶体管,难度就像从月球上精准地定位到地球上的一平方米一样,这种原子甚至量子级别的集成电路焊接与生产,就对工艺精密度提出了更高的要求。

 

一边芯片被要求越做越小,性能越来越高;一边物理限制又需要晶体管之间保持一定的距离,可不为难死工程师了嘛。

 

 

同时别忘了,摩尔定律还被附加了经济色彩。除了性能之外,成本 / 价格的同时下降也被看做是基本要求。

 

体现到消费级市场,就是用户们在每两年,用更少的钱买到性能更高的电脑、手机产品。

 

但是,技术研发投入与光刻设备的更新换代,都需要半导体厂商耗费大量的资金。

 

生产精密程度的不断提升,也需要在制造环节投入更大的人力物力,一代代芯片生产线的设计、规划、调试成本,也在以指数级增长。

 

以前,生产 130nm 晶圆处理器时,生产线需要投资数十亿美元,到了 90nm 时代则高达数百亿,超过了核电站的投入规模。按照 IBS 的 CEO Handel Jones 的预测,3nm 芯片的研发成本,甚至将达到 令人发指的 40 亿至 50 亿美元。

 

为了摊薄成本,半导体厂商不得不生产更多的芯片,这又会导致单片芯片的利润回报下降。

 

很显然,半导体企业不可能长期“既让性能翻一倍,又让价格降一倍”,如果 18 个月没有收回成本,就要面临巨大的资金压力。

 

 

更为残酷的是,受软件复杂性等影响,芯片性能的提升在用户感知度上也越来越弱。

 

上世纪八九十年代,晶体管数量增加带来的性能加成是明显的。比如奔腾处理器的速度就远高于 486 处理器,奔腾 2 代又比奔腾 1 代优秀得多。

 

但正如大家所见的,进入 21 世纪以来,芯片制程越来越小,但用户对性能提升的感知度却不如以往令人惊艳,更新换代的买单欲望也能轻易被控制——等待更具性价比的计算硬件,锁死了摩尔定律的增长周期。

 

曾几何时,谷歌 CEO Eric Schmidt 被问及会不会购买 64 位“安腾”处理器时,对方就表示“谷歌已经决定放弃摩尔定律”,不准备购买这种在当时看来的超级处理器。当然,这一决定被历史证明打脸了。

 

但也说明,即使厂商完成了前期的烧钱游戏,也未必能在中短线消费市场上完美收官。

 

 

总体而言,过去六十多年里,半导体行业的快速发展,正是在摩尔定律的推动下实现的,一代代运算速度更快的处理器问世,让人类彻底走进了信息时代。

 

与此同时,在芯片焊接和生产已经达到原子级别、接近量子级别的程度之后,摩尔定律也从指导行业进化的“金科玉律”,逐渐变成了捆绑在半导体产业头上的紧箍咒。

 

想要继续发挥作用,必须付出巨大的成本,让行业举步维艰、苦不堪言的同时,不断被唱衰也就成了摩尔定律的宿命。

 

性能、价格、市场预期,就如同三体世界里的三个太阳,在半个多世纪的时间里反复炙烤着摩尔定律。

 

接下来,我们就一起回到几个重要的“碰壁现场”,去看看摩尔定律是如何在一次次瓶颈期“惊险”逃生、鞭策着整个行业继续为之奋斗的。

 

第一次续命:从 MSI 到 VLSI,工匠之国日本的崛起

在此前的章节中,我们谈论了以 DRAM 为代表的 VLSI 超大规模集成电路的崛起,以及美国、日本在这个技术战场上的世纪战争。

 

而摩尔定律,既是这场战争必然爆发的推动力,也是产业版图更迭的见证者。

 

了解历史的人知道, 1975 年,在“摩尔定律”发布的十年后,摩尔本人对定律进行了修改,将原本的“12 个月翻一倍”改为了“18 个月”。

 

 

当时,摩尔已经离开仙童,与别人一起创立了英特尔。而技术的挑战也在此时拉开序幕。

 

1975 年,英特尔公司准备推出的一款电荷耦合器件(CCD)存储芯片中,只有 3.2 万个元件,这比摩尔定律预测的千倍增长整整少了一半。

 

第一个办法当然是修改定律,将产业周期从 12 个月延长到 18 个月。摩尔在一次访谈中曾提及这次修改,不无消极地说,自己的论文只是试图找到以最低成本生产微型芯片的方式——

 

“我觉得不会有人会按照它(摩尔定律)来制定商业计划 ,可能是因为我还沉浸在第一次预测正确的恐慌当中。我不觉得还会有人关注这个预测。”

 

 

翻车的原因在于,摩尔定律提出的 1965 年,还是小规模集成电路(SSL)时代,芯片内的元件不超过 100 个。此后,MSI(中规模集成电路)顺利地摆渡了十年,生产技术的进步远远领先于芯片设计,晶体管数量几乎每年都会翻番,完美符合摩尔定律。

 

但接下来,工程师们认为要在单芯片上集成十万个晶体管,VLSI 阶段正式来临。与此同时,DRAM 存储器、微处理器 CPU 等芯片产品的出现,在将芯片复杂度发挥到极致的同时,也让成本的经济性开始引起重视。

 

 

当时,美国半导体产业界已经在实验室完成了对 VLSI 的技术突破,为什么最后却是日本成功上位呢?

 

因为新时期里,拯救摩尔定律的不是技术上的突破,而是商业价值上的精进。

 

DRAM 是当时最重要的半导体市场消费品,而其制造的关键在于更细 、更密集的电路。面临的挑战在于,随着芯片上元件的增多,晶圆上的随机缺陷影响加大,导致成品率降低,自然提高了芯片的生产成本,也让厂商的收益不那么美好。

 

必须实现成本下降,才能延续摩尔定律。而日本产业对技术和经济的平衡,在此时发挥了重要的作用。

 

1976 年,日本以举国之力启动了闻名遐迩的超大规模集成电路研究计划。

 

由通产省技术专家和官员出面,集合了富士通、日立、三菱、日本电气(NEC)和东芝等 5 家公司,共同设立了 VLSI 研究所。

 

 

日本在进军半导体市场时更注重改进制程,而不是产品上有什么革命性的突破。日本 VLSI 研究所的目标,就是在微精细加工、工艺技术、元件技术等等课题上尝试提升。

 

VLSI 项目实行了 4 年,于 1980 年结束,也确实诞生了丰硕的研究成果,大约有 1000 项发明获得了专利,这对日本半导体的国际竞争力起到了重大作用。

 

与此同时,注重制造技术也为日本半导体公司带来了全球竞争优势,虽然不像革命性产品那样引人注目,但价格和质量却成为攻占市场的重要筹码。

 

当时,业界每两三年便会推出新一代 DRAM,存储能力以倍数上升,消费者们也热衷于升级存储条。庞大的市场需求,撞上日本工业界对集成电路的改良,直接从半导体产业大本营——美国手里抢走了不少市场份额。

 

1982 底,日本的第一代超大规模集成电路的 64K RAM 已经占到国际市场的 66%,至此,日本在 DRAM 制造方面的全球领导地位奠定,也使其成为下一代微芯片的技术领导者。

 

 

正是日本在 VLSI 技术上的发力,让摩尔定律得以继续发扬光大。到了 1980 年代,摩尔定律已经被看到是“DRAM 准则”,随后,微处理器也出现在了曲线上。复杂度(晶体管的数量),以及芯片性能(处理器的操作速度),成为摩尔定律的主要预测对象,摩尔定律也从此时起成为业内公认的标准,不少微处理器和存储器芯片企业根据这一趋势来制定生产计划、参与国际竞争。

 

制程工艺与经济性的正式融合,让摩尔定律与半导体发展节奏,从 80 年代中期开始,开始变得密不可分。

 

接下来,摩尔定律还会遇到哪些“要命”的挑战,英特尔为何被 IBM 狂打脸,让芯片厂商改抱上游材料、设备厂商“大腿”的原因有哪些?我们的时光旅程将在《芯片破壁者(六 . 下)》中继续……