NVIDIA 于今日发布两项全新大型语言模型(LLM)云 AI 服务——NVIDIA NeMo 大型语言模型服务和 NVIDIA BioNeMo LLM 服务,使开发者能够轻松调整 LLM 并部署定制的 AI 应用程序,其可用于内容生成、文本摘要、聊天机器人、代码开发,以及蛋白质结构和生物分子特性预测等。
通过 NeMo LLM 服务,开发者能够在 NVIDIA 管理的基础设施上使用被称为提示学习的训练方法快速定制多个预训练基础模型。NVIDIA BioNeMo 服务是云应用程序编程接口(API),它可以将 LLM 用例扩展到语言以外的科学应用中,加快制药和生物技术公司的药物研发速度。
NVIDIA 创始人兼首席执行官黄仁勋表示: “大型语言模型具有改变每个行业的潜力。通过对基础模型进行调整,可将 LLM 的力量带给数百万的开发者,让他们无需重新构建庞大的模型,即可创建各种语言服务并推动科学发现。”
NeMo LLM 服务通过提示学习提高准确性,加快部署速度
借助 NeMo LLM 服务,开发者可以使用自己的训练数据定制基础模型——从 30 亿个参数到世界上最大的 LLM 之一 Megatron 530B。与从头开始训练模型所需的数周或数月相比,该过程只需几分钟到几小时。
提示学习是使用一种名为 P-tuning 的技术来定制模型,使开发者只需使用几百个示例就能快速定制最初需要使用数十亿个数据点训练的基础模型。定制流程生成任务专属的提示标记,这些标记会与基础模型相结合,为特定用例提供更高的准确性和更相关的响应。
开发者可以使用同一模型定制多个用例并生成许多不同的 Prompt Token。游乐场功能提供可以轻松实验并与模型互动的无代码选项,进一步提高了 LLM 对行业特定用例的有效性和可及性。
一旦准备好部署,经过调整的模型即可在云实例、本地系统上或通过 API 运行。
BioNeMo LLM 服务使研究人员能够充分利用大规模模型的力量
BioNeMo LLM 服务包括两个用于化学和生物学应用的新 BioNeMo 语言模型。该服务提供蛋白质、DNA 和生物化学数据方面的支持,帮助研究人员发现生物序列中的模式和洞察。
BioNeMo 使研究人员能够利用包含数十亿个参数的模型来扩大研究范围。这些大型模型可以储存更多关于蛋白质结构、基因间进化关系的信息,甚至可以生成用于治疗的新型生物分子。
云 API 提供对 Megatron 530B 和其他现成模型的访问
除了调整基础模型之外,LLM 服务还提供通过云 API 使用现成和定制模型的选项。
这让开发者可以访问包括 Megatron 530B 在内的各种预训练 LLM,以及使用 NVIDIA NeMo Megatron 框架创建的 T5 和 GPT-3 模型。NVIDIA NeMo Megatron 框架现已进入公测阶段,可支持各种应用和多语言服务需求。
汽车、计算、教育、医疗、电信等行业的领导者正在使用 NeMo Megatron 为客户提供中文、英语、韩语、瑞典语等语言的领先服务。
供货情况
NeMo LLM 和 BioNeMo 服务以及云 API 预计将在下个月开放抢先体验,开发者现在就可以申请并了解详情。
现在可以从 NVIDIA NGC™ 获得 NeMo Megatron 框架的公测版,并且该框架在优化后,可在 NVIDIA DGX™ Foundry 和 NVIDIA DGX SuperPOD™ 以及 Amazon Web Services、Microsoft Azure 和 Oracle Cloud Infrastructure 的加速云实例上运行。
想要体验 NeMo Megatron 框架的开发者可以免费试用 NVIDIA LaunchPad 实验室。
关注黄仁勋在 GTC 2022 上的主题演讲,进一步了解 NVIDIA AI 驱动的大型语言模型。