绑定手机号
获取验证码
确认绑定
提问
0/255
提问
订阅开课提醒需关注服务号
回答成功
知道了
扫码关注智东西公开课服务号登录
请使用微信扫描二维码
扫描二维码分享给微信好友
您已订阅成功,有新课程,我们将第一时间提醒您。
知道了
发送提问成功
回答可在
“我的——我的提问”中查看
知道了
失败
欢迎来智东西
关注我们
智东西
车东西
芯东西
智东西公开课
使用TensorRT实现目标检测模型的推理加速
Tensor RT 2019/01/18 20:00:00
课程讲师
孟宾宾 NVIDIA 深度学习解决方案架构师

孟宾宾,NVIDIA深度学习解决方案架构师,负责基于 NVIDIA Tesla 计算平台的深度学习相关解决方案的架构设计与优化,同时致力于推广如何利用 NVIDIA GPU 构建人工智能和加速计算应用。硕士毕业于中国科学技术大学,毕业后加入腾讯优图实验室,负责深度学习相关算法优化和人脸分析相关应用落地优化等工作,在腾讯优图实验室工作期间发表专利5篇。

孟宾宾
NVIDIA 深度学习解决方案架构师

孟宾宾,NVIDIA深度学习解决方案架构师,负责基于 NVIDIA Tesla 计算平台的深度学习相关解决方案的架构设计与优化,同时致力于推广如何利用 NVIDIA GPU 构建人工智能和加速计算应用。硕士毕业于中国科学技术大学,毕业后加入腾讯优图实验室,负责深度学习相关算法优化和人脸分析相关应用落地优化等工作,在腾讯优图实验室工作期间发表专利5篇。

课程提纲
  • 神经网络推理现状及挑战
  • TensorRT加速神经网络推理计算的原理
  • TensorRT如何支持不同框架下的神经网络
  • TensorRT部署流程
  • 应用案例分享
课程简介

NVIDIA TensorRT是一种高性能神经网络推理引擎,主要是用来在部署神经网络到Inference端之前,对神经网络进行优化加速,来提高程序的吞吐量以及降低延迟。TensorRT包含一个为优化生产环境中部署的深度学习模型而创建的库,支持目前大部分主流的深度学习框架,可获取经过训练的神经网络,并针对降低精度的INT8运算来优化这些网络。TensorRT适用于CUDA GPU的优化神经网络编译器,可以确定每个目标GPU的最佳策略,优化神经网络模型的数值精度、网络层及对相同的的张量计算进行融合,并且可以对GPU的内核以及内存管理等方面进行优化。通过TensorRT的大幅度加速,服务提供商能够以经济实惠的成本部署这些计算密集型人工智能工作负载。目前TensorRT主要应用有图像分类、图像分割和目标检测等。

1月18日晚8点,超级公开课NVIDIA专场第19讲将开讲,由NVIDIA深度学习解决方案架构师孟宾宾主讲,主题为《使用TensorRT实现目标检测模型的推理加速》。

本次讲解中,孟宾宾老师将从常用的目标检测算法、目标检测模型进行推理预测的关键、以及如何使用TensorRT为目标检测模型推理进行加速等方面进行系统讲解。

精彩问答
提问
提问
目前还没有问题,可以点击右侧的“提问按钮”提问
更多问题...