OpenVINO™ toolkit(全称Open Visual Inference and Neural network Optimization)是一套由英特尔公司开发的用于深度神经网络优化与部署的SDK,能够方便的把各种深度学习框架的训练好的神经网络模型进行性能优化并部署在各类跨平台的硬件上,在遵循开源协议Apache License 2.0下可以免费使用。在这系列的讲座中,你能深入了解到OpenVINO的产品特性,SDK所包含哪些功能模块,以及通过动手实验演示来了解这些技术是如何在英特尔硬件平台架构上实现神经网络推理的性能优化。并且对于OpenVINO在2020Q2的最新更新一集在边缘侧的应用,并为广大开发者带来的各种相关资源。
13:30-14:00
实战专题介绍及暖场
14:00-14:30
Intel® Distribution of OpenVINO™ toolkit 产品与功能介绍
罗毅 英特尔人工智能技术顾问工程师
14:30-15:00
OpenVINO™ 模型优化器(MO)使用指南
罗毅 英特尔人工智能技术顾问工程师
15:00-15:30
OpenVINO™ 推理引擎(IE)集成指南
罗毅 英特尔人工智能技术顾问工程师
15:30-16:00
OpenVINO™ 深度学习神经网络量化指南
罗毅 英特尔人工智能技术顾问工程师
16:00-16:30
OpenVINO™ 深度学习工作平台(DL Workbench)使用指南
罗毅 英特尔人工智能技术顾问工程师
16:30-17:00
OpenVINO™ 最新版本介绍和边缘应用的开发者产品组合
王珅中国区 OpenVINO™ 产品营销总监