英伟达打破实时对话AI的练习和推理用时记载

放大字体  缩小字体 发布时间:2019-08-14 18:13:55  阅读:7231+ 来源:网易科技报道 作者:责任编辑NO。许安怡0216

(原标题:Nvidia breaks records in training and inference for real-time conversational AI)

网易科技讯8月14日音讯,据国外媒体报导,Nvidia用于开发和运转可理解和呼应恳求的对话式AI的GPU强化渠道,现已达成了一些重要的里程碑,并打破了一些记载。

这对任何根据其技能进行开发的人来说含义严重——傍边包括大大小小的公司,由于英伟达将许多用于完结这些前进的代码开源。那些代码用PyTorch编写,易于运转。

英伟达今日宣告的最大效果包括:BERT练习用时打破记载,进入1小时关口。BERT是世界上最先进的人工智能言语模型之一,也被广泛认为是自然言语处理(NLP)标杆的先进模型。Nvidia的AI渠道只是需求53分钟就可以完结模型练习,经过练习的模型在短短2毫秒多一点的时刻里(10毫秒在业界被认为是高水平线)就可以成功地做出推理(即运用经过练习学习到的才能得出成果)——又一个记载。

英伟达的这些打破不只是是揄扬的本钱——这些前进可为任何运用NLP对话式人工智能和GPU硬件的人供给实在的优点。Nvidia在它的其间一个SuperPOD体系上打破了练习时刻记载,该SuperPOD体系由运转1472个V100 GPU的92个Nvidia DGX-2H体系组成;在运转Nvidia TensorRT的Nvidia T4 GPU上完结推理进程。Nvidia TensorRT在功能上超出高度优化的CPU许多个量级。不过,该公司将揭露BERT练习代码和经过TensorRT优化的BERT样本,让所有人都可以经过GitHub运用。

除了这些里程碑以外,英伟达的研讨部分还树立并练习了有史以来最大的一个根据“Transformer”的言语模型。这也是BERT的技能根底。该定制模型包括的参数多达83亿个,规划是当时最大的中心BERT模型BERT-Large的24倍。英伟达将这个模型命名为“Megatron”,它也对外供给了用于练习这个模型的PyTorch代码,因此其他人可以自行练习出相似的根据“Transformer”的大型言语模型。(乐邦)

本文来历:网易科技报导 责任编辑:王凤枝_NT2541

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!