谷歌开源机器视觉神经网络MobileNets,只为开发AI本地化的移动应用

2017-06-16 09:06 来源:36氪
浏览量: 收藏:0 分享

  智能手机已经成为AI的前沿阵地。
  算法在云中计算,并让设备联网运行,已经逐渐让位于软件直接在手机和电脑上本地化运行。苹果和Facebook的都在做这样的事情,而谷歌在移动AI上比所有人都要走的更进一步。
  最近,谷歌在官方博客中宣布,开源了一组可以直接在移动设备运行的机器视觉神经网络--MobileNets。谷歌表示,这是一款为TensorFlow准备的,移动端优先的计算机视觉模型包。

MobileNets可用于处理各种训练任务

  MobileNets可用于处理各种训练任务

  MobileNets可用于处理各种各样的训练任务,包括分析人脸,检测常见对象,照片定位,它还可以执行细粒度的识别任务,比如如识别不同种类的狗。
  这组神经网络拥有多种尺寸,因此可以适应各种设备。在设计上,这款工具包力图为设备端和嵌入式应用最大限度地提升精度.MobileNets具有小规模,低延迟,低功耗的特点,来解锁不同用例中的资源限制。
  谷歌表示,虽然每个神经网络的功能和任务不同,但总的来说,这些神经网络已经达到或接近最新,最先进的标准。
  对消费者来说,这意味着开发者可能会开发更多地具备AI功能的移动APP。
  现在,有很多集成机器学习功能的移动移动,会将数据传回云端进行处理,然后传回给用户。这就意味着必须联网才能执行任务。
  此外,虽然云端处理减轻了智能手机上的负担,但是这就要求有强大的数据中心。而且,这样会导致延迟,还有隐私泄露的风险。
  与之相比,在手机上本地化运行AI功能,则没有这样的弊端,这种处理方式将享有更快的性能,更加方便(不用联网),隐私保护更好(你的数据不会被脱机发送)。
  当然,并非谷歌一家在做这样的事情。移动端的AI本地化也是一种目前的趋势。
  本月早些时候,苹果也为开发者设计了一组机器学习工具CoreML,来为iOS的系统系统创建应用.Facebook也创建了自己的移动AI的框架。
  甚至上市不久的Snapchat,本周也发表了一篇学术论文,努力在移动端加入图片识别的功能。
  谷歌和苹果都曾表示要设计AI专用的移动处理器。谷歌在2016 I / O上首次发布了为机器学习设计的专用芯片--TPU,并在今年的I / O大会上公布了机器学习超级计算机云TPU Pod.5月末,彭博披露苹果正在研发一款AI处理器,将会集成到包括iPhone和iPad在内的很多设备当中。
  在台北电脑展上,ARM已经发布了两款针对AI性能任务的芯片--Cortex-A75和皮质-A55。
  对于很多产品来说,手机和汽车都是两个庞大的应用场景,对于AI的开发也不例外。现在无人驾驶的热潮方兴未艾,手机端的AI应用也纷至沓来。随着本地化运行的移动AI应用不断增多,AI对日常生活的渗透也将越来越深广。

标签:

责任编辑:管理员
在线客服