NVIDIA Riva中文手册 (一) —— Riva概述

一:前言

本手册主要以NVIDIA Riva官方文档为依据进行中文翻译,旨在帮助中国开发者了解和学习Riva,并加入译者对Riva的理解进行分享,本手册将以连载的方式持续进行更新。

二:Riva概述

NVIDIA Riva是一个使用GPU加速,能用于快速部署高性能会话式AI服务的SDK,可用于快速开发语音AI的应用程序。Riva的设计旨在帮助您轻松、快速地访问会话AI功能,开箱即用,通过一些简单的命令和API操作就可以快速构建高级别的语音AI服务。该服务可以处理数百至数千音频流作为输入,并以最小延迟返回文本。
NGC 提供最先进的预训练模型
在这里插入图片描述

  • Riva 可以为语音AI提供一个简洁的端到端的工作流程。
  • Riva 在 NVIDIA NGC™ 中提供预训练的语音模型,可以使用 TAO 工具包在自定义数据集上进行微调,从而将特定领域模型的开发速度提高 10 倍。其中TAO 训练的模型可以通过使用 Helm 图表的方式单个命令轻松导出、优化和部署,为本地或云中的语音AI服务。
  • Riva 的高性能推理是由 NVIDIA TensorRT™ 优化提供支持,并使用 NVIDIA Triton™ 推理服务器提供服务。
  • Riva 服务基于 gRPC 的微服务用于低延迟的流式在线的和高吞吐量离线的语音处理应用案例。
  • Riva 是完全容器化的,可以轻松扩展到成百上千的并行流。

三:使用Riva的优势:

在这里插入图片描述

最先进的人工智能

  • 基于NVIDIA近十年来在硬件、模型架构、培训技术、推理优化和部署解决方案等方面的人工智能创新。

完全可定制

  • 从修改模型架构到微调数据模型和自定义管道,以及在任何平台上部署的能力,每一步都具有灵活性。

领先的性能

  • 从模型到软件再到硬件的整个堆栈的持续性优化,所提供的增益是上一代产品的 12 倍。

灵活和可扩展的部署

  • 支持在云、本地和边缘扩展到数十万并发用户。

数据所有权和隐私

  • 在本地或您企业的云中处理的数据

四:您可以用 Riva 做什么?

在这里插入图片描述

  • 只需几个命令行,您就可以通过 API 操作访问高性能服务并尝试案例演示。
  • 使用 Riva,您可以轻松地部署自定义的模型,更好的完成特定领域的任务需求。
  • 您还可以针对推理进行优化,以提供在 150 毫秒 (ms) 内运行的实时服务,而在纯 CPU 平台上则需要 25 秒。
  • 您可以使用 Riva 访问高度优化的自动语音识别 (ASR) 和语音合成(TTS)服务,用于实时转录和虚拟助手等应用案例。自动语音识别功能支持多种语言。它根据各种真实世界、特定领域的数据集进行训练和评估, 在电信、播客和商业医疗等领域提供了世界一流的准确性。
  • 您可以使用Riva的文本到语音即语音合成技能来生成类似人类的语音。 Riva使用非自回归模型在NVIDIA A100 gpu上提供了比在NVIDIA V100 gpu上的Tacotron2和WaveGlow模型高出12倍的性能。 此外,通过TTS,您可以为虚拟助理创建一个自然的自定义语音,只需30分钟的样本语音数据。
  • 使用NVIDIA TAO和NVIDIA NeMo 工具包,实现定制化训练模型并部署在Riva当中, Riva 专为部署大规模语音 AI模型而设计,为您提供高效的、稳健的、跨平台的模型部署服务。

五:Riva亮点总结

  • 使用 NVIDIA TAO 工具包轻松进行微调

  • 使用 NVIDIA NeMo 完全定制训练的模型

  • Helm 管理的云部署

  • 流式和批量语音识别

  • 流式和批量语音合成

  • NLP 模型,包括问答、实体识别等

更多精彩内容,请扫描下方二维码或者访问https://developer.nvidia.com/zh-cn/developer-program 来加入NVIDIA开发者计划
在这里插入图片描述

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
THE END
分享
二维码
< <上一篇
下一篇>>