计算机系统应用教程网站

网站首页 > 技术文章 正文

谷歌发布MobileNetV2:这个轻量级视觉架构不仅速度快准确率还高

btikc 2024-09-05 12:40:59 技术文章 9 ℃ 0 评论

林鳞 编译自 Google Research Blog

量子位 出品 | 公众号 QbitAI

深度学习在移动端部署的挑战仍在。

虽然深度学习在图像分类、检测等任务上颇具优势,但提升模型精度对能耗和存储空间的要求很高,移动设备通常难以达到要求。

别怕。昨天,谷歌发布了新一代移动架构MobileNetV2。

这是一种为移动设备设计的通用计算机视觉神经网络,支持图像分类和检测等任务,结果比上一代模型有显著提升。在个人移动设备上运行深度网络能时能提升体验,让用户能在任何时间和地点进行访问,在安全、隐私和能耗上还有额外优势。

新特性

基于去年发布的MobileNetV1的构建思路,新模型将深度可分离的卷积作为有效构建模块。在架构上,MobileNetV2引入了两个新特性:一是层与层之间的线性瓶颈(linear bottlenecks),二是瓶颈之间的快捷连接。基本结构如下图所示:

MobileNetV2架构概览 | 蓝色块表示复合卷积架构模块

性能增强

总体来说,MobileNetV2能以更快的速度达到与V1相同的精度。

尤其值得注意的是,新模型减少了一半运算,所需参数减少30%,在谷歌Pixel手机上速度比MobileNetV1快了30-40%,同时实现了更高的精度。

MobileNetV2提高了速度(降低了延迟)并增加了ImageNet的Top 1的精度

在对象检测和分割任务中,MobileNetV2是种非常有效的特征提取器。例如当与新引入的SSDLite配对时,达到与MobileNetV1相同准确度时速度快了35%。目前研究人员已经在Tensorflow对象检测API下开放了这个模型。

为了实现设备上的语义分割,研究人员将MobileNetV2作为一个特征提取器,简化了用移动语义分割模型DeepLabv3构建新的Mobile DeepLabv3的过程。

在语义分割基准上,PASCAL VOC 2012结果模型达到与使用MobileNetV1作为特征提取器相似的性能,但所需参数减少了5.3倍,所需运算减少了5.2倍。

总体来说,MobileNetV2提供了一个高效的移动导向模型,可作为许多视觉识别任务的基础。

资源下载

目前,MobileNetV2作为TensorFlow-Slim图像分类库的一部分发布,用户也可在Colaboratory中开始探索使用。

此外,MobileNetV2也可作为TF-Hub上的模块,能在GitHub中找到预先训练的检查点。

官方博客介绍:

https://research.googleblog.com/2018/04/mobilenetv2-next-generation-of-on.html

相关论文:

https://128.84.21.199/abs/1801.04381

代码地址:

https://github.com/tensorflow/models/tree/master/research/slim/nets/mobilenet

TensorFlow-Slim图像分类库:

https://github.com/tensorflow/models/blob/master/research/slim/README.md

Colaboratory地址:

https://colab.research.google.com/github/tensorflow/models/blob/master/research/slim/nets/mobilenet/mobilenet_example.ipynb

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。

量子位 QbitAI · 头条号签约作者

?'?' ? 追踪AI技术和产品新动态

Tags:

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表