由于 NVIDIA 步入人工智能的领域早,公司已经从中有所收益。从最近的财报可以看出,数据中心收入中的人工智能部分,比去年同期上涨了 186%。NVIDIA 最新季度收入近 20 亿美元,人工智能就占据了超 21%的比例,两年前仅占到 6%。公司的股价也在过去的五年里增加了近 1000%。
这些增长的背后都得益于 NVIDIA 的图形处理器(GPU),GPU 可以说是 AI 系统的首选。Alphabet 旗下公司谷歌,由于谷歌大脑的存在,使其处于 AI 领域的前列,后来收购了 Deep Mind 专注于深度学习神经网络系统,并且它也是 NVIDIA GPU 的用户。不过从谷歌近期发展来看,NVIDIA 在人工智能领域的垄断地位可能会被打破,谷歌就是这个“破壁人”。
与 NVIDIA 的战役
谷歌在上周的 2017 年 I/O 开发者大会上,推出了最新版的张量处理器单元(TPU),该处理器单元是为其 AI 系统内部开发的芯片。不过最新版本的 TPU 已经得到了大提升,能进行训练和推理处理,以往的版本只能进行推理处理。这是啥意思?这又与 NVIDIA 的 GPU 有啥关系?
背景
除非是负责这块的工程师,不然你是不会知道 AI 运行要经过两个必要的阶段。第一个是 AI 系统的培训,其中包括算法的构建和软件模型的搭建,这些被称为神经网络,接着对其进行培训,用来执行特定任务,比如图像处理或者语言处理。
一旦这些系统接受了培训,它们就会完成所设计的任务,来筛选大量的数据,并使用它们的独特的识别模式的能力,来快速精准地处理数据任务。这些任务的执行被成为推理,这是一件关于系统根据其训练来处理数据的事情。
目前来看,GPU 是培训 AI 系统的最佳选择。因为这些芯片具有并行处理大量数学运算的能力,这也使得它们非常适合渲染图形。并且成为了培训 AI 的理想选择,能进行大量的快速的数据处理器,让 GPU 打败天下无敌手。
更多
谷歌最近宣布开发了一种系统,将 64 颗 TPU 连接至同一台机器学习超级计算机。这台超级计算机被称作“TPU 舱”,将带来无与伦比的运算能力。谷歌 AI 和机器学习首席科学家,斯坦福大学 AI 实验室主任李飞飞表示,新的超级计算机将“提供每秒 180 万亿次浮点运算的计算能力,适合当代机器学习所需的数据处理。”
Google Brain 团队的高级研究员 Jeff Dean 在博客中写道:“在使用这些 TPU 舱期间,我们已经发现他们在实验时已经有了很大的改进。曾经我们的一个新的大型翻译模型,需要花费一整天来培训 32 个 GPU——现在只需一个下午,且只用八分之一的 TPU 就完成了相同的精度。”
当谷歌在 2016 年 5 月的 I/O 开发者大会上推出首款 TPU 时,首席执行官 Sundar Pichai 就表示:“TPU 比商业 FPGA 和 GPU 每瓦性能高出一个数量级。”新芯片更节能,专门设计用于 Google 的 TensorFlow,用于培训 AI 系统。这种优化的硬件和软件组合已在谷歌内部使用一年多。虽说 GPU 仍是培训时所用的首选芯片,但谷歌 TPU 在推理系统上存在一定优势,而且谷歌正在开展 TPU 在培训上的研发。
未来
NVIDIA 并没有在这场战役上脱颖而出。最近也引进了 TPU,以及 GPU 构架其他方面的升级。一段时间来看,它还是成为行业内的标准,也不可能一夜之间就能改变。不过投资者应该意识到,AI 还处于起步阶段,技术日新月异。NVIDIA 目前仍是人工智能系统最大玩家,但谷歌已经抛出这个“神器”,让其注意到该领域并不是只有他一个人在玩。
与非网编译内容,未经许可,不得转载!