加入星计划,您可以享受以下权益:

  • 创作内容快速变现
  • 行业影响力扩散
  • 作品版权保护
  • 300W+ 专业用户
  • 1.5W+ 优质创作者
  • 5000+ 长期合作伙伴
立即加入
  • 正文
    • 类脑计算:打破冯·诺依曼架构禁锢
    • “旧神退散,新神未立”:类脑智能正在路上
    • 迈向 AGI,类脑智能提供新可能
  • 相关推荐
  • 电子产业图谱
申请入驻 产业图谱

类脑智能,迈向通用人工智能新可能?

2020/07/23
103
阅读需 14 分钟
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

如今,第三次人工智能浪潮的兴起已经是一个不争的事实。我们知道这一次的人工智能浪潮不仅仅是一次技术的创新,更是一场产业的变革。机器学习,特别是深度学习等算法的突破、算力和数据的井喷,让 AI 技术已经广泛应用在社会生产生活的众多领域。

不过从这一轮 AI 变革的实质来看,深度学习算法依然是一种数据驱动的一种模拟计算,目前仅仅在语音、图像、文字识别等感知领域有着较强的应用,距离人类更加复杂的因果推理、假设联想等高级认知能力还有很远距离,甚至有着本质的差别。

在从当前弱人工智能通向强人工智能,以致于通用人工智能的道路上,学术界正在推动以类脑智能和类脑计算为方向的新的研究方向,来实现由弱到强的人工智能的升级。

刚刚结束的 2020 世界人工智能大会(WAIC)上,来自复旦大学类脑智能科学与技术研究院的林伟教授在“认知智能,改变世界”行业论坛中提到,“类脑智能已成为人工智能跨越式发展的突破口。”

类脑智能和类脑计算到底是什么,与现有经典计算和当前的 AI 技术有哪些不同,是否真的能够担此“跨越式”的重任?面对如此多问题,这次我们就来一探“类脑智能”的究竟。

类脑计算:打破冯·诺依曼架构禁锢

实现类脑智能的前提的实现类脑计算。在了解类脑计算之前,我们简单聊下现在主流的计算机架构——冯·诺依曼架构。

众所周知,现有计算机都是基于“冯·诺依曼”架构实现的,其处理器工作原理就是按分时复用的方式,将高维信息的处理过程转换成时间序列的一维处理过程。这一计算架构的特点是计算与存储分离,结构简洁、易于实现高速数值计算。

(冯·诺依曼计算架构)

不过,冯·诺依曼架构在处理包含非结构化、时空关联信息的感知、认知以及决策等相关问题时,表现出效率低、能耗高、实时性差等问题,甚至无法构造合适的算法。比如当今最先进的计算机,也难以完成一只昆虫能够轻易实现的环境感知与适应等相关任务。

而人类大脑却是一个与冯·诺依曼架构正好相反的“计算器”,虽然人脑不擅长高速率大规模数值计算,但是人脑可以在有限尺寸和极低能耗下,完成复杂环境下的信息关联记忆、自主识别、自主学习等认知处理,实现这一“计算”的基础正是脑神经网络的多层次复杂空间结构和脑神经的高度可塑性。

基于人脑的这些特点,科学家们提出非冯·诺依曼架构的类脑计算,就是借鉴大脑神经网络,存储计算一体化,将高维信息放在多层、多粒度、高可塑性的复杂网络空间中进行处理,使其具有低功耗、高鲁棒性、高效并行、自适应等特点。

类脑计算既适用于处理复杂环境下非结构化信息,又有利于发展自主学习机制,甚至最终有望模拟出大脑的创造性,实现类脑智能,这种更具通用性的人工智能。

我们回过头来再看推动当前产业智能变革的 AI 技术。深度学习是在一定程度上对人类神经网络结构进行的模拟,但其过程要依靠现有的经典“冯·诺依曼”架构的计算方式,使用优化问题建模并求解,其实质仍然是按照分时序列的计算,所以会呈现出算力要求高、数据计算量大的特点。

现有的人工智能技术大多数能够处理的问题具有以下特点:1、充足的数据;2、单一、确定的问题;3、完备的知识;4、静态。因此为一个问题提供一个解决方案,使得现有的人工智能仍然属于弱人工智能的范畴。

当我们要处理超出这些条件的复杂问题的时候,现有 AI 技术就会遇到困难,而我们就需要更具人类智能特点的通用人工智能(AGI)。

类脑计算以及由此产生的类脑智能,就是人们为实现 AGI 的方法之一。

“旧神退散,新神未立”:类脑智能正在路上

2017 年计算机图灵奖的得主大卫·帕特森和约翰·轩尼诗表示说,“未来十年是计算架构发展的黄金十年。”

当前,传统计算架构的“旧神”正迎来挑战,全新计算架构的“新神”尚未确立,而类脑计算正是试图争夺全新计算架构的“新神”之一。

冯·诺依曼和图灵当时已经提到计算机要实现对于人脑的模仿,但由于经典计算更加易于实现,因此朝着“摩尔定律”规定的方向一路狂奔。而麦卡洛克等人在 1943 年提出单个神经元计算模型,可被认为是最早的仿脑研究,而到了七八十年代,部分学者开始关注采用更接近于生物大脑系统的计算机制的研究方法。

1990 年,美国加州理工大学卡弗·米德教授尝试用硬件电路来模拟神经网络,提出了“神经拟态计算”的概念,并将其定义为“采用以模拟器件仿真生物神经系统的 VLSI 来实现大规模并行的自适应计算系统”。

“神经拟态计算”正式开启了类脑计算的研究和实践。类脑计算主要以“人造超级大脑”为目标,借鉴人脑的信息处理方式,模拟大脑神经系统,构建以计算为基础的“虚拟人脑”。

Nature在 2016 年提到,类脑计算成为后摩尔定律时代极具潜力的发展方向之一,成为继第一阶段的 GPU,第二阶段的 ASIC 加速器之后,在推动 AI 的计算上面发挥巨大潜力。

现在,全球主要发达地区的国家、高校和技术公司都已经摩拳擦掌,纷纷开始类脑计算和类脑智能的研究。

日本在 2008 年就提出了“脑科学战略研究项目”,重点开展脑机接口、脑计算机研发和神经信息相关的理论构建;欧盟在 2013 年提出“人类脑计划”(HBP),重点开展人脑模拟、神经形态计算、神经机器人等领域研究;美国也同时启动了“BRAIN 计划”,将大脑结构图建立、类脑相关理论建模、脑机接口等列为研发重点;韩国在 2016 年发布《脑科学研究战略》,重视脑神经信息学、脑工程学、人工神经网络、大脑仿真计算机等领域的研发。

全球顶尖高校和技术公司也加入了类脑计算和类脑智能的布局。IBM 推出了 TrueNorth 类脑芯片,试图抢先打造类脑计算系统;受欧盟脑计划支持的英国曼彻斯特大学和德国海德堡大学研发的神经拟态计算系统,分别推出了 SpiNNaker 芯片和 BrainScaleS 芯片。

此外,像微软提出了意识网络架构,声称是具备可解释性的新型类脑系统;谷歌在现有谷歌大脑基础上结合医学、生物学积极布局人工智能。

我国积极加速类脑智能计划。比如我国在 2016 年《“十三五”国家科技创新规划》也将脑科学与类脑研究列入科技创新 2030 重大项目。2017 年国务院《新一代人工智能发展规划》提出,2030 年类脑智能领域取得重大突破的发展目标。在 2017、2018 年,我国分别成立了类脑智能技术及应用国家工程实验室、北京脑科学与类脑研究中心,形成了“南脑北脑”共同快速发展的格局。

当然,现在类脑计算的发展仍然处在初期的探索阶段。

正如我们上面提到的欧洲“人类脑计划”,就在去年曝出耗尽 10 亿欧元之后,试图“完全模拟人脑”的计划并没有取得计划中的进展,并没有做出突破性的研究成果。

不过,这一通过传统计算方式来还原大脑结构的方式的失败并不能证明类脑计算行不通,反而更加说明了通过全新的计算架构来模拟神经网络的计算方式的根本性转向的重要性。

迈向 AGI,类脑智能提供新可能

在通向通用人工智能的道路上,类脑智能已经被认为是最有希望的方案之一。

与经典技术中,将多维度信息转化为一维的数值计算的信息流,以提高单位时间的运算速度这一提高时间复杂性的计算方向不同,类脑计算更强调模拟人脑的复杂的神经元连接架构(不是直接还原神经元的连接),把多维世界中的信息扩展到更复杂的空间中去,利用空间的复杂性来解决计算问题,甚至同时利用时空的复杂性,来解决计算问题。

所以,集成众多神经元数量、突触数量以及存算一体的神经元处理单元数量的类脑芯片,为完成仿真或模拟提供计算、存储、通信等基础硬件支持,是实现类脑计算的关键因素。而构建类脑计算芯片的阵列集成系统,是目前国际通行的大规模类脑计算系统的技术路线。

比如,今年 3 月,英特尔用 768 个 Loihi 芯片构造了一个新的神经拟态研究系统 Pohoiki Springs,达到了 1 亿个神经元的规模,比上一次构建的系统 Pohoiki Beach 的 64 个芯片 800 万个神经元,扩大了 12 倍的规模。

类脑计算芯片作为实现类脑通用人工智能的硬件基础,既是神经科学模型的仿真平台,又是新计算范式、新体系结构的原型。这一点从清华大学的天机芯片的研究成果中,也得以清晰的体现。

去年 8 月,清华大学开发出全球首款异构融合类脑芯片,被命名为“天机芯”(Tianjic),相关论文《面向通用人工智能的异构天机芯片架构》作为封面文章登上了Nature

这一异构融合芯片配置有多个高度可重构的功能性核,可以同时支持机器学习算法和现有类脑计算的算法。相比于当前 IBM 推出的 TrueNorth 芯片,新一代“天机芯”功能更全、灵活性和扩展性更好,密度提升 20%,速度提高至少 10 倍,带宽提高至少 100 倍。

去年,在清华大学操场上,由这一类脑芯片支持,实现自动驾驶的一辆自行车更是成为 AI 圈“刷屏”的网红车。这辆车仅用一个芯片,就可以在无人驾驶自行车系统中同时处理多种算法和模型,实现实时目标检测、跟踪、语音控制、避障和平衡控制。

从天机芯片结合计算机科学和神经科学两个主要方向,发展而成的融合计算平台,成为现在实现类脑计算的较好的解决方案,为学术界贡献了一种通向 AGI 的新发展思路。

现在,类脑计算目前还没有统一的技术方案。在当前学术界提供的实现方案中,有采用数模混合实现的 Neurogrid 和 BrianScaleS;有异步纯数字实现的 TrueNorth、Loihi;有采用同步纯数字实现的天机等等解决方案。

在实现通用人工智能(AGI)的道路上,主要有计算机科学导向和神经科学两大方向而将二者紧密结合可能是当下来看的最佳实现方案。

超级计算机的发展能够带给科学家更好推进计算模拟的进程;互联网大数据云计算的发展可以构造一个无比复杂的数字世界,可以形成与数字大脑类比的复杂镜像世界。而由于新的测量技术和纳米材料等基础技术的发展,又正在逐步揭开人类大脑的结构和运行原理,并且为我们开发出高效能、高密度的芯片器件提供了基础。

而这些正在构成发展类脑智能的基础条件,也是未来通向通用人工智能的有利契机。

相关推荐

电子产业图谱