Analysis of the Acceleration of Neural Networks Inference on Intel Processors Based on OpenVINO Toolkit
上传用户:tuozi241
上传日期:2020-09-08
文件类型:PDF
文件大小:1355.39K
资料积分:0分 积分不够怎么办?
文章研究了一个训练好的神经网络SSD_MobileNet_V2_COCO的性能。建议使用OpenVINO工具包来提高网络性能。性能评估由帧处理时间的倒数计算,它表征每秒处理的帧数。数据集COCO(由微软公司提供)被用作源数据集。在这种情况下,从这个数据集中选取了200张图像,在处理过程中,所有的图像都被缩小到相同的尺寸300x300。研究表明,使用OpenVINO使神经网络SSD_MobileNet_V2_COCO的性能平均提高了130倍。同时,与仅使用TensorFlow启动网络相比,使用OpenVINO的网络性能方差显著增加。不过,在英特尔处理器上使用这种加速器仍然是合适的。
关键词: OpenVINO IEEE

加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW
或用微信扫描左侧二维码