首页 > IT资讯

2毫秒!NVIDIA刷新实时对话AI训练/推理用时记录

admin IT资讯 2021-03-06 23:26:31 nvidia   ai   nvidia ai

  8月14日消息 和许多科技公司一样,NVIDIA也在AI领域投入了大量的人力物力。而据外媒最新消息显示,NVIDIA自研的对话式AI的GPU强化平台不仅获得了一些里程碑式的新突破,还刷新了一些业界记录!感兴趣的朋友,不妨来了解一下。

2毫秒!NVIDIA刷新实时对话AI训练/推理用时记录

  据悉,NVIDIA公布的重大成果包括:BERT训练用时打破记录,进入1小时关口,BERT是世界上最先进的人工智能语言模型之一,也被广泛认为是自然语言处理(NLP)标杆的先进模型;NVIDIA的AI平台仅仅需要53分钟就能够完成模型训练,经过训练的模型在短短2毫秒多一点的时间里(10毫秒在业内被认为是高水平线)就能够成功地做出推理(即利用通过训练学习到的能力得出结果)——又一个记录。

  当然,NVIDIA的这些突破不仅仅是吹嘘的资本——这些进步可为任何使用NLP对话式人工智能和GPU硬件的人提供切实的好处。NVIDIA在它的其中一个SuperPOD系统上打破了训练时间记录,该SuperPOD系统由运行1472个V100 GPU的92个NVIDIA DGX-2H系统组成;在运行NVIDIA TensorRT的NVIDIA T4 GPU上完成推理过程。NVIDIA TensorRT在性能上超出高度优化的CPU许多个量级。不过,该公司将公开BERT训练代码和经过TensorRT优化的BERT样本,让所有人都可以通过GitHub利用。

  此外,NVIDIA的研究部门还建立并训练了有史以来最大的一个基于“Transformer”的语言模型,这也是BERT的技术基础,该定制模型包含的参数多达83亿个,规模是当前最大的核心BERT模型BERT-Large的24倍

  值得一提的是,这个被命名为“Megatron”的模型还对外提供了用于训练这个模型的PyTorch代码,因而其他人能够自行训练出类似的基于“Transformer”的大型语言模型!就是不知道,NVIDIA接下来在AI领域中又会有哪些新动作。

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。
本文地址:/ITzixun/8468.html

留言与评论(共有 0 条评论)
   
验证码:

潘少俊衡

| 桂ICP备2023010378号-4

Powered By EmpireCMS

爱享小站

中德益农

谷姐神农

环亚肥料

使用手机软件扫描微信二维码

关注我们可获取更多热点资讯

感谢潘少俊衡友情技术支持