Google针对移动设备以及人工智能运算架构Edge TPU,发布采用AutoML技术优化的机器学习模型MobileNetV3和MobileNetEdgeTPU。在维持相同精确度的情况下,MobileNetV3的运算速度是前一代MobileNetV2的两倍,而MobileNetEdgeTPU模型则是专为Edge TPU架构设计,在机器学习运算的速度、准确度以及功耗效率表现,可比其他模型还要好。
为了同时实现隐私保护、总是可用以及回应式的人工智能功能,Google在移动设备上加入机器学习运算硬件与算法,像是在最近发布的手机Pixel 4中就部署Pixel Neural Core,这是Google Edge TPU人工智能运算架构的实例,提供像是脸部识别解锁、智能助理以及特殊相机功能等应用。除了硬件之外,算法也是机器学习应用至关重要的元素,且因为移动设备不像是云计算服务器,有着理论上无限的运算能力,因此设备上的模型需要有具压缩且有效率的特性。
Google现在发布的两个最新设备上机器学习模型,在性能与功耗表现都获得进展。MobileNetV3与之前由人工设计的MobileNet不同,Google使用AutoML技术,为手机计算机视觉任务寻找MobileNetV3的最佳架构,而且为了在不同条件都可以提供最佳性能,Google同时产出大与小两种模型。
(下图左)以小型模型来看,在设备Pixel 4中,绿线MobileNetV2要达到与蓝线MobileNetV3相同的精确度65.4%,MobileNetV2延迟达10ms,而MobileNetV3延迟则只有5ms。而在(下图右)可看到,蓝线大型MobileNetV3模型与绿线MobileNetV2的比较,当MobileNetV3达75%的精确度与MobileNetV2达70%的精确度时,所产生的延迟均为20ms,明显的MobileNetV3性能比起前一代提升不少。
除了分类模型之外,MobileNetV3还加入对象侦测模型,在COCO数据集中使用相同精确度,MobileNetV3比MobileNetV2的侦测延迟少了25%。
另一个Google发布的机器学习模型MobileNetEdgeTPU,则是专为Pixel 4中的Edge TPU设计,Google提到,Pixel 4中的Edge TPU架构与Coral产品系列中的Edge TPU板相似,但是有为手机上的相机进行调整。Google同样也应用了AutoML方法,为机器学习模型MobileNetEdgeTPU进行优化。
MobileNetEdgeTPU在硬件Edge TPU中有着极佳的延迟表现以及精确度,与MobileNetV2和极简型MobileNetV3相比,在固定延迟的情况下,MobileNetEdgeTPU能提供更高的精确度(下图),而且花费的功耗更少,在相同精确度下,MobileNetEdgeTPU使用的功耗不到极简型MobileNetV3的50%。
本文暂时没有评论,来添加一个吧(●'◡'●)