加入星计划,您可以享受以下权益:

  • 创作内容快速变现
  • 行业影响力扩散
  • 作品版权保护
  • 300W+ 专业用户
  • 1.5W+ 优质创作者
  • 5000+ 长期合作伙伴
立即加入
  • 正文
  • 相关推荐
  • 电子产业图谱
申请入驻 产业图谱

处理器史话 | 摩尔定律失效后,硅芯片将何去何从?

2017/03/11
14
阅读需 59 分钟
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

 

众所周知,微处理器CPU)在现代计算设备里是核心,是大脑,但是对于大多人来说,CPU 只不过就是一个名词、一个符号或者代表着某一项参数,是名副其实的“幕后”英雄。虽然在本文中陆续展示了点滴的代表性产品、与之相关的重要人物及其事迹,但是更多的无名英雄,依旧是很少被人认知赞美的。


回顾历史,1971 年 11 月 15 日,全球第一款微处理器“Intel 4004”从 Intel 公司诞生,时至今日已走过 45 年的岁月,它改变了人类的思维方式、生活方式和提升了工作效率和生活品质,那么将来的发展趋势如何呢?


在解答这个问题之前,首先浏览下面的画卷。


1. 图解 CPU 发展史简
由图可见,经过了以上 40 多年的发展,如今,CPU 就象一匹脱缰的野马,正以异乎寻常的速度向前发展,在大大小小的媒体上,市场充斥着与之相关的声音:频率提升、功耗降低、新品发布、人机大战、操作系统的升级等等。如果说显卡、声卡的更新是技术上的创新,那么 CPU 的升级换代就是技术上的革命!


因此,不禁要问 CPU 将来的发展方向是什么?到底能够跑多快?它的发展还会带给人们哪些变革?或许下面的内容会给出一些答案!


2. 总趋势分析
在最初研发 CPU 的时候,人们就对其寄予厚望,要求微处理器要具备如下的要素:体积小重量轻、可靠性高、价格低廉、应用面广泛的特点。可以说现在的 CPU 都符合这些要求,所以要想更贴切的把握 CPU 的发展趋势,有必要对 CPU 的各个方面做一个比较全面的分析。


纵观 CPU 的发展史,可以概括为如下:


(1) 位数越来越大
早期 CPU 和现在的 CPU 的一个重要的差别就是位数的巨大差异。CPU 位数的发展历程如下:
4 位:Intel 4004;
8 位:Intel 8080/8085、Motorola6800/6802、ROCKWELL6502;
16 位:Intel 8086/8088、Motorola 68000;
32 位:Intel 80386/80486;
64 位:Intel Itanium 和 AMD K8。


有些古董级位数的 CPU,估计有些人是见所未见的,更不必说使用过了,比如想要见识 4004 的身影,恐怕只能去博物馆或者翻翻地下室、阁楼的抽屉,也许拆开一些比较老的便携式计算器,会有所收获的。


从上面的数据来看,CPU 位数增高是一个必然趋势,那么为什么要增高 CPU 的位数呢?增高位数到底有哪些好处呢?


首先回答第一个问题:CPU 要处理更多更复杂的数据,这就需要提高 CPU 的数据带宽。


解决这个问题,目前只有两种行之有效的办法:
其一、提高 CPU I/O 端口的频率。
其二、加大 CPU 数据传输端口的宽度。


就第一种办法而言,无疑是两种做法中最简单的。但是提高频率便要对生产技术提高多个数量等级,而这无疑又增加生产成本和延长了生产周期。那么如果采用第二种方法会如何呢?


采用后者看起来就好多了:CPU I/O 接口带宽增加处理的数据随之增多,多个周期内可完成的任务在一个周期就可以完成了!


这个答案是显而易见的,如果二者兼顾,那么则更加完美了!

 


(2) 封装越来越小
对于用户而言,对 CPU 使用什么封装技术并不在意,因为关注的重点在于新品 CPU 的接口形式,比如大家都很喜欢小巧的、使用灵活的接口,这是常识:毕竟体积小,所占空间就小;用手指可以直接完成的安装,比借助工具来完成的更加方便。


在过去,大多数人已经对频繁变更 CPU 的接口形式所带来的额外投入感到厌烦。其实封装正是在促使 CPU 接口转型的重要原因之一。最为典型的例子就是赛杨从 SOLT1 到 SOCKET370 的转型了。在转型 PPGA 封装的赛杨后去除了没有多大必要的 PCB 板,有效的减少了成本。还有一个更重要的原因就是采用 PPGA 封装制造,赛杨可以使制造难度下降一个等级。


所以说封装小型化,将是未来 CPU 封装的主导思想!当然小型化的实现,离不开高度集成,高度集成是工艺改进的必然结果。


(3) 速度越来越快
一直以来,大家最关心的恐怕就要数 CPU 的速度了。速度的大小标志着 CPU 运算能力的高低。


自从 1971 年 Intel4004,频率只有 1MHz,而 2001 年的 P4 频率高达 2.0G,2008 年的 Core i7 最低主频是 2.8GHz,2016 年的最新 CPU,主频高达 3.0G,的在 45 年间,频率居然增长了 3000 倍。


速度提升了,运算能力自然大大提升,带给人们的感受也是有目共睹的。不过虽然速度是提高 CPU 性能的法宝之一,但是单凭无止境的提速是很难使 CPU 有一个质的飞跃的。不过工艺的发展证明:对 CPU 而言速度是重要的,但它并不是万能的!


(4) CACHE 越来越小
CACHE 一直是 CPU 中不可低估的元素。那么 CACHE 究竟是怎样工作的呢?首先主存当中保存着所有要用的数据,而 CACHE 中保存着的部分数据是主存中数据的副本。


当 CPU 访问主存时,首先检查 CACHE。


如果要存取的数据已经在 CACHE 中,CPU 就可以很快的完成访问,称作“命中”。反之,如果数据不在 CACHE 中 CPU 就必须从主存中提取。


看来 CACHE 可以有效的增加 CPU 读取数据的速度,那么为何不把主存当中的所有数据都放入如 CACHE 中呢?换句话说,就是为什么不增大 CACHE 的容量来多容纳一些数据呢?
其实答案很简单,这就关系到上面所说的命中的问题。CACHE 中存储的数据不但是主存中的副本而且是随机性的数据。这就是说即便 CACHE 里面有数据也不一定是 CPU 要访问的。如果 CACHE 很大 CPU 在里面又寻找不到所需要的数据,就造成了未命中的情况。可以说这一段时间就白白浪费了。


既然如此,如果使用小容量 CACHE 会如何呢?结果是这样的:
即便是没有找到所需要的数据,寻找数据浪费的时间也要比大 CACHE 少得多。但是可能大家也注意到了,使用小 CACHE 的话 CPU 的命中率会大大降低。因此可以得出如下的结论:CACHE 不是越大越好。所以说大 CACHE 并不是未来 CPU 缓存的发展方向。


补充一点:实际上 CPU 的性能和 CACHE 的大小是呈负指数二项式增长。这就是说当 CPU 的 CACHE 的大小到达一定的水平后,如果不及时更新 CACHE 搜索算法和 CACHE 的轮换算法,CPU 性能将没有本质上的提高!

 


(5) 制作工艺尺寸越来越小
CPU 的“制作工艺”指的是在生产 CPU 过程中,要进行加工各种电路和电子元件,精度越高,生产工艺越先进。在同样的材料中可以制造更多的电子元件,连接线也越细,提高 CPU 的集成度,CPU 的功耗也越小。


制造工艺的“微米”和“纳米”是指 IC 内电路与电路之间的距离。制造工艺的趋势是向密集度愈高的方向发展。密度愈高的 IC 电路设计,意味着在同样大小面积的 IC 中,可以拥有密度更高、功能更复杂的电路设计。微电子技术的发展与进步,主要是靠工艺技术的不断改进,使得器件的特征尺寸不断缩小,从而集成度不断提高,功耗降低,器件性能得到提高。


芯片制造工艺在 1995 年以后,从 0.5μm、0.35μm、0.25μm、0.18μm、0.15μm、0.13μm、90nm、65nm、45nm、32nm,22nm,一直发展到目前最新的 14nm。


可以说,现在 CPU 的制作工艺,已经从无“微”不至,到了“无纳诸侯”的境界了!


(6) 电压和功耗越来越低
从 CPU 发展历史来看,这个结论是显而易见的,而且是将来的发展方向。
当然电压、功耗是和生产工艺及集成度密切相关的。回想第一台计算机问世时的情形:体积庞大,数以万计的管件堆置在一起;有一个专门发电单元为之发电;散发出的热量使它所在的房屋,变成了一个大烤炉。即便是这样其运算能力也没有现今手头上的便携式的计算器强。


低头看一下现在手里的笔记本电脑或台式机,即便是 10 几年前的“老爷机”:1GHz 的功耗也只有 54W,这点儿热量,“取暖”都是问题,更不必说“烤炉”了。能源短缺是人类面临的重要问题,新一代 CPU 在这方面已经为人类起了典范的作用!功耗下降了,自然就不需要很大的电压了。在计算机 CPU 芯片小型化以后,使用过的最高电压是 5V。


然后,这种降压的趋势一直延续了下来:5V1.65V(赛杨 2) 1.3V (C3)。


虽然下降的幅度不算是很大,但是要知道 1.X 伏特的电压已经是很小了。即便是再有下降的空间,这样的空间也不算是很大了。所以说就是只下降了 0.05V 也是一个重大的进步!


对于台式机和便携式机而言,省电、低耗、超低电压的 CPU 必将成为它们的首选!


(7) RISC 指令结构当道
关于这一点,先从 RISC 指令结构和 X86 指令集说起。


在 1978 年 Intel 公司推出了代号为 8086 的 16 位处理器,与此同时还推出了一款代号为 8087 的数学协处理器。因为当时这两种芯片在指令集上相互兼容,所以人们将其统称为 X86 指令集。


随着时代的发展 Intel 陆续推出了更新型号的 CPU,但它们都有一个共同的特点就是仍然兼容原来的 X86 指令集。所以在 Intel 的后续产品上,就看到了诸如以 286、386、486、586 等以 X86 形式命名的 CPU 产品。但是当 AMD 的 K8 出现时,则表明 X86 已经是夕阳西下了,RISC 处理器隆重登场。


RISC 优越的性能完全得益于短指令:因为 RISC 处理器所处理的都是等长的短指令,这样一来就大大简化了解码器的设计,省去了许多微码结构。同时 RISC 极大的简化了每一个时钟周期的任务,这样一来由于每一个时钟周期所要完成的任务相对较少,它就可以尽量缩短时钟的脉冲间隔,从而提高 CPU 工作频率。


所以在同等的制造技术下,它的时钟频率就高于 CISC 处理器。RISC 处理器的性能之所以高人一筹就是基于以上的原因。


摩尔定律,让科学家和工程师们可以预料到未来 CPU 发展的大致情况。毫无疑问,高性能、低能耗、高速度和低成本是未来的发展方向。


3. 摩尔定律失效后,硅芯片将何去何从?
摩尔定律自从 1965 年提出以来,该定律一直生效。不过近年来业界一直预测该定律即将失效。早在 2000 年,《麻省理工科技评论》就硅技术在大小和速度上的极限提出了警告。


目前,全球半导体行业,不再基于每两年实现性能翻倍的概念来制定硅芯片研发计划,原因是成本问题:无力承担跟上性能提升步伐所需购买的超复杂制造工具和工艺成本。此外,当前的制造技术,可能无法再像原来那样大幅度缩小硅晶体管。事实上,晶体管都已经变得非常微小了,以至于可能无法遵循通常的物理定律,那么,是否意味着科技驱动的指数级变化时代即将走到尽头了吗?


回答是:不。


即便硅芯片正在接近物理和经济成本上的极限,也还有其它的方法继续驱动计算性能的指数级增长,比如:采用新材料来打造芯片和以新方式定义计算本身。目前,已经出现了与晶体管速度无关的技术进步,如:深度学习驱动的更加聪明的软件,以及通过利用云资源实现更强计算能力的技术。而这只是未来计算创新的冰山一角。


因此,2016 年福布斯发布文章称:即便摩尔定律失效,硅芯片逼近物理和经济成本上的极限,也还有其它的创新方法和技术继续驱动计算性能的指数级增长,比如:内存中运算、量子计算、分子电子学、神经形态计算等等。


以下便是有望驱动计算性能继续飞速增长的几项新兴技术:
(1) 内存中计算
纵观在整个计算史,处理最缓慢的一部分就是从硬盘获取数据。很多的处理性能都浪费在了等待数据到达上。相比之下,内存中计算则将大量的数据放在 RAM,使得数据可以马上在 RAM 中进行处理。结合新型的数据库、分析技术和系统设计,它能够大大提升性能和整体成本。

所以“吃掉”RAM,也许是 CPU 的趋势之一。


(2) 基于石墨烯的微芯片
石墨烯为一个分子那么厚,导电性能比任何其它人类已知的材料都要强。它能够卷入到微小的管子中,也能够结合其它材料使用,能够在更小的空间里驱动电子以更快的速度运动。它在这方面甚至要胜过最下的硅晶体管。这将会将针对微处理器的摩尔定律的适用时间再延长几年。


石墨烯的分子结构图


(3) 量子计算
普通计算机中的 2 位寄存器在某一时间仅能存储 4 个二进制数(00、01、10、11)中的一个,而量子计算机中的 2 位量子位(qubit)寄存器可同时存储这四个数,因为每一个量子比特可表示两个值。


理论上,量子计算机将能够以数百万倍于当前技术的速度解决各类非常复杂的问题,如分析基因数据或者测试飞机系统。谷歌研究人员去年宣布,他们已经开发了一种新的量子比特方式来检测和防范错误。

 


(4) 分子电子学
瑞典隆德大学研究人员利用纳米技术打造了“生物计算机”,通过沿着纳米观人工路径同时移动多个蛋白丝,该款计算机能够进行平行计算。


这种生物计算机比循序运行的传统电子计算机更加快速,且节能 99%,制造和使用成本也低于传统计算机和量子计算机。它进行商用的时间可能也将早于量子计算机。


(5) DNA 数据存储
将数据转换成 base 4,你就可以将它编码到合成 DNA 上。


为什么要那么做呢?


DNA 存储数据模型图


很简单:一点点 DNA 就可以存储一大堆数据。事实上,有瑞士研究团队估计,一个茶匙的 DNA 可以容纳人类迄今为止所产生的所有数据,从最早期的洞穴壁画,再到昨天的 Facebook 动态更新。


这种技术目前需要耗费大量的时间和资金,不过基因编辑或许是大数据的未来:Futurism 最近报道称,微软正在研究利用合成 DNA 来进行安全的长期数据存储,已经能够编码和恢复 100%的初始测试数据。


(6) 神经形态计算
神经形态计算技术的目标是,打造一款像人脑那样的计算机——处理和学习数据的速度能够跟生成数据一样快速。


到目前为止,业界已经开发出能够通过训练和执行神经网络来进行深度学习的芯片,那是往正确方向迈出的一步。例如:General Vision 的神经形态芯片包含 1024 个神经元,每一个都是基于 SRAM(静态随机存储器)的 256 字节存储器,且有 3000 个逻辑闸,所有的神经元都互相连接,平行运行。


(7) 无源 Wi-Fi(Passive Wi-fi)
华盛顿大学的一个计算机科学家和电气工程师团队,开发了一种耗能比目前的电耗标准少 1 万倍的 Wi-Fi 传输生成方式。虽然这严格来说不算是计算性能的提升,但它是网络连接性的指数级增长,将会使能其它技术的进步。


无源 Wi-Fi 被《麻省理工科技评论》列入 2016 年的十大突破性技术,它将不仅仅可以节省电耗,还能够使能最低耗能的物联网,让更多之前非常耗电的设备第一次能够通过 Wi-Fi 连接网络,还有可能会催生新型的通讯方式。


……
一路走来,虽然我们可能在接近硅芯片的性能极限,但技术本身同时正在加速发展,要阻止它成为现代生活的驱动力是不大可能的。随着新计算技术推动机器人人工智能、虚拟现实、纳米技术以及其它震惊世界的进步超越当前被公认的极限,它的影响力将只会有增无减。


简单来说,计算的指数级增长,或许无法永远持续下去,但它的尽头仍比我们想象的要遥远得多。


到这里,不妨思考一下:在不久的将来,如果上述的技术被成功用于硅芯片的设计,那么将来的处理器将会是什么样子?


请读者脑补一下吧!

与非网原创内容,不经允许,谢绝转载!

本系列更多内容,请参照:处理器史话汇总

相关推荐

电子产业图谱

1996毕业于华东理工大学自控系,同年7月进入某大型国企担任电气员。2000年转行从事硬件研发相关工作;后从事RFID相关产品的研发、设计,曾参与中国自动识别协会RFID行业标准的起草;历任硬件工程师、主管设计师、项目经理、部门经理;2012年至今,就职于沈阳工学院,担任电子信息工程专业教师,研究方向:自动识别技术。已经出版教材《自动识别技术概论》,职场故事《51的蜕变 》。