从 2016 年的人“狗”围棋之战到《西部世界》,再到智能音箱,人工智能不再是科幻里的触不可及,而是在身边逐渐落地的真实。“如果一台机器能够与人类展开对话(通过电传设备)而不能被辨别出其机器身份,那么称这台机器具有智能。”是的,图灵设想的人工智能来了。
近期,一张来自《纽约客》杂志的封面毫无征兆地在朋友圈里刷了屏。人类坐地行乞,机器人则扮演了施予者的角色,意指明显——在未来社会,人类的工作机会被不断进化的机器人剥夺,从而沦为了流落街头的弱者。
再来看一份最可能被 AI 取代的 20 大岗位吧:
其实,这是一个老生常谈的话题,当机器人概念走红的时候,人类被取代的话题就已经被热议,“AI 志向”不是单纯的模仿人类,而是超越人类,因此催生“无用阶层”是需要我们正面面对的问题,当然也会创造新的岗位。有人说,人工智能被认为是引领第四次工业革命的先锋,也有人说,AlphaGo 是引发第五次工业革命的标志性机器。
作为小编的我,看到一份来自调研机构的预测,记者也在高危失业人群中,顿时心塞了,趁着失业前在本期《发现 AI》中好好和大家扒一扒“人工智能”。
现在张口不带“人工智能”、“AI”都感觉自己跟不上时代。那么问题来了,人工智能有哪些类型呢?
人工智能的类型
弱人工智能:特定场景下角色型的任务,如擅长于聊天的 Siri、擅长下棋的 AlphaGo;
通用人工智能:包含人类水平的任务,可以替代大部分人类工作,涉及机器的持续学习;
强人工智能:比人类更聪明的机器。
从弱到强,需要一个过程,那么就来看看人工智能的发展史吧。
人工智能发展史
人工智能的孕育期
1950 年,图灵测试诞生,图灵还预言在未来人类有创造出具有真正智能的机器的可能性。以图灵为代表的科学家为 AI 提供了理论基础和使用工具。
人工智能的早期发展(1956~1979)
1956 年的夏天,在美国举行的达特矛斯学术会议,以冯·诺依曼、图灵为首的科学家试图通过符号化编程实现人工智能。之后的十几年是 AI 的第一个黄金期,一台叫做“STUDENT”的机器于 1964 年解除了应用题,一台叫做“ELIZA”的机器于 1966 年实现了简单的人机对话。
人工智能的中期发展(1980~1990)
人工智能的中期推动者还要从日本说起,日本经济产业省拨款八亿五千万美元用以研发第五代计算机项目,而这个计算机就是可以与人对话、进行翻译、进行推理的 AI 计算机。随后英国、美国也开始向信息技术领域投入大量资金。
在这次的资金热潮下,AI 程序“专家系统”问世,它是一个存储加推理的能手,不过在经过七年的“辉煌期”之后被 1987 年苹果和 IBM 生产的台式机打败了。
人工智能的热潮期(1990 年后)
这一阶段的情况就不多介绍了,我们正在感受人工智能新一轮的爆发。人工智能已成为创业和投资的热点。
关于 AI 简史我们就不再用太多篇幅来介绍了,与非小编已经按照大事件对此进行了梳理,可以查看《AI 技术简史:从理论到应用的质变》。
人工智能如何为人所用?
“深度学习”是当前我们所听到的与人工智能相关最常用的一个词,这源于:当前人工智能主流应用还是基于深度学习神经网络。从针对特定任务的标记数据中学习,而训练过程需要消耗大量人类标注样本。
天风海外何翩翩认为在很多现实场景下,特定垂直领域的数据并不足以支持系统建构,那么尝试解决对人类标注样本的依赖的强化学习很有机会成为下一个机器学习商业成功的驱动力。
下面透过几张图,来深度看一下 AI:
如果用一句话总结 AI 如何为人所用,那就是它正在变革它能触及到的各行各业,从医疗保健到零售,广告,金融,交通,教育,农业等等。如今,快速发展的 AI 技术主要由大型企业通过机器学习和预测分析来使用。下面举几个简单的例子:
1. 安全认证与风险管理
数据、数据处理能力和商业变现场景是金融领域计算机面临的三大要素,而人工智能恰恰能很好的因对这三大元素带来的挑战。或许金融行业是最适合 AI 施展“才华”的领域。如今,花旗等银行开始利用人工智能为客户定制服务,开发理财产品;对于信息安全、投资风控等,人工智能也逐渐被应用。
2. 自动驾驶
对于 AI 与汽车电子的结合,被认为天作之合的无疑是“自动驾驶”。
3. 医疗及生命科学
Arterys 使用深度学习来加快医学图像分析,这项技术应用于 GE Healthcare MRI 机器上,协助进行心脏疾病的诊断;Enlitic 运用深度学习来分析医学图像,以找出肿瘤、近乎看不到的破裂处和其他疾病。有了 AI 后,放射科医生将更加高效的工作,将精力集中在困难病例上。
4. 零售行业
个性化推荐提高在线销售销量、精准的市 场预测将降低库存成 本,人工智能技术将带来 4200 亿人民币的本与增益价值。
在日渐智能的算法下,机器可以学习、说话、做出明智的决策,并以一种越来越有效的方式执行复杂的任务。看到 AI 可创造的价值,就不难理解为何企业蜂拥而至了:
那么,现在就不难回答谁在推动 AI 的发展这个问题了,快速增长背后不仅仅是科技巨头在引领了这场竞赛,更是技术、资本、企业。
AI 基础层生态解读
人工智能是一个大话题,由基础层、技术层、应用层组成。基础层主要是计算平台和数据中心,属于计算智能;技术层通过机器学习建模,开发面向不同领域的算法和技术,包括感知智能和认知智能;应用层主要实现人工智能在不同场景下的应用。
我国与美国是 AI 浪潮中最强劲的两股势力。美国 AI 公司多聚焦于应用层,对于技术层和基础层企业,实力强且企业相对集中。与此相比,应用层实力接近,在基础和技术层有差距,尤其是基础层的实力较弱。美国有英伟达 GPU、英特尔 CPU 与 FPGA、赛灵思 FPGA、谷歌 TPU,我国有寒武纪与深鉴,但从产业规模来看,差距还较大。
下面我们就透过 AI 背后的 AI 芯实力。
神经网络的两个主要阶段是训练和推理。在深度学习上游训练端,GPU 毫无悬念是第一选择,ASIC 包括谷歌 TPU、寒武纪 NPU 也如雨后春笋为市场提供更多可能与选择;下游推理端更接近终端应用,需求更加细分,GPU 主流芯片之外,包括 CPU/FPGA/ASIC 也会在这个领域发挥各自的优势特点。那么就从训练端与推理端分别看看其特色:
训练端
GPU:多维计算及大规模并行计算架构,可实现通用、灵活、强大的特点,广泛契合当前 AI 监督深度学习以及生成式对抗网络(GAN)/ 强化学习所需要的密集数据和多维并算处理需求,在 3-5 年内 GPU 仍然是深度学习市场的第一选择。这个市场英伟达有着至高无上的话语权,而同样拥有 GPU 产品的 AMD 却只能看着眼馋,如今英特尔有望涉足此领域,不知道未来是何种局面。
ASIC:以谷歌 TPU 为代表,针对特定框架进行深度优化定制,但开发周期长,通用性较低。比特币价格疯长刺激挖矿机的不断升级,如今很多挖矿机从 GPU 转向了 ASIC 专用矿机。
CPU:通用性强,但难以适应于人工智能时代大数据并行计算工作。
推理端
GPU:英伟达 Volta GPU 也开始布局推理端,并且也将成为主导。英伟达依靠 Volta 构架升级以及广泛成熟的开发生态环境,自上而下的对训练、推理兼顾,扩张版图。以 2016 年为例,全年服务器市场出货量约在 1110 万台,在只有 7%用于人工智能 workload,其中约 3.4%配置 GPU,总量仅 2.6 万台。所以全球新增服务器中 GPU 的渗透率仅为 0.24%,据天风海外预测 2020 年前全球服务器 GPU 渗透率将达 4 倍以上增长。
ASIC:下游推理端更接近终端应用,需求更加细分,英伟达 DLA、寒武纪 NPU 等将依靠特定优化和效能优势,在此领域获得一定市场份额。
FPGA:依靠电路级别的通用性,加上可编程性,适用于开发周期较短的 IoT 产品、传感器数据预处理工作以及小型开发试错升级迭代阶段等。FPGA 厂商寥寥无几,包括 Xilinx、Altera(英特尔)、Lattice 及 Microsemi。
GPU 主流趋势下,ASIC 也将割据一地
都是通用芯片,为何 GPU 成为 AI 最强“收割机”
先要强调一点,机器学习得以普及的一个重要原因就是是计算能力的提升和 GPU 的出现。
由于 GPU 在执行复杂的多维计算和几何计算中十分有效,因此被广泛地运用在图像和图形处理中。但 GPU 只作为图形处理芯片还真的有点屈才,其并行特性大数据等多任务处理中表现突出,因此成为 AI 浪潮中的“收割者”。
都是通用芯片,GPU 比 CPU 拥有更多的运算器。在处理庞大的数据中,GPU 可以做得更高效。一个 CPU 核可以同时执行 4 项 32 位指令(用 CPU 中的 128 位 SSE 指令集)或者通过 256 位高级矢量扩展指令集(AVX)执行 8 个指令集。但 GPU 如 AMD 的 Radeon HD 5970,则可以执行 3200 个 32 位的指令(通过其 3200 个运算器)。二者之间的运算效率的差距达到 800 倍(如果使用 AVX 则是 400 倍)之多。GPU 的高运算性能让它能够应用在科学计算、密码破解、数值分析、海量数据处理等方面。
2012 年,英伟达与谷歌的人工智能团队合作,建造最大的人工神经网络,并首次将人工智能用于分析 YouTube 的视频内容。2016 年 4 月,英伟达发布 Pascal 架构 GPU Tesla P100。黄仁勋表示,该款 GPU 较之以往产品可以让深度学习神经网络的处理速度提高 12 倍。
谷歌 TPU
谷歌设计了一款为人工智能运算定制的硬件设备,张量处理单元 TPU 芯片。
TPU 的主要特点是:
1. 从硬件层面适配 TensorFlow 深度学习系统,是一款定制的 ASIC 芯片,谷歌将 TPU 插放入其数据中心机柜的硬盘驱动器插槽里来使用;
2. 数据的本地化,减少了从存储器中读取指令与数据耗费的大量时间;
3. 芯片针对机器学习专门优化,尤其对低运算精度的容忍度较高,这就使得每次运算所动用的晶体管数量更少,在同时间内通过芯片完成的运算操作也会更多。研究人员就可以使用更为强大的机器学习模型来完成快速计算。
值得注意的是 TPU 虽然理论上支持所有深度学习开发框架,但目前只针对 TensorFlow 进行了深度优化。而英伟达 GPU 支持包括 TensorFlow、Caffe 等在内所有主流 AI 框架。
谷歌曾在论文中将 TPU 与英特尔、英伟达产品进行对比:
1. 针对自身产品的人工智能负载,推理阶段,TPU 处理速度比 CPU 和 GPU 快 15-30 倍;
2. TPU 的功耗效率(TOPS/Watt,万亿次运算 / 瓦特)也较传统芯片提升了 30-80 倍;
3. 基于 TPU 和 TensorFlow 框架的神经网络应用代码仅需 100-1500 行。
TPU 的设计思路比 GPU 更接近一个浮点运算单元,是一个直接连接到服务器主板的简单矩阵乘法协处理器。TPU 上的 DRAM 是作为一个独立的并行单元,TPU 类似 CPU、GPU 一样是可编程的,并不针对某一特定神经网络设计的,而能在包括 CNN、LSTM 和大规模全连接网络上都执行 CISC 指令。
作为与非网新的原创栏目《AI 发现》的第一期,我们就做了一个综述,下期我们将重点讲推动 AI 发展的巨头们。
与非网原创内容,未经许可,不得转载!