2018/08/08 11:10 腾讯科技
8月8日消息,据外媒报道,在智能手机领域,检测目标、分类图像和识别人脸的应用程序并不新鲜,比如Google Lens和Snapchat等应用程序就很受欢迎。但无处不在并不能替代质量,而最常用的机器学习模型(卷积神经网络)要么速度较慢,要么不够准确。
然而,希望就在眼前。谷歌的研究人员已经开发出一种人工智能(AI)模型选择方法,以达到创纪录的速度和精度。
在最新的论文和博客文章中,谷歌团队描述了新的自动化系统MnasNet,它从候选列表中识别出理想的神经架构,结合强化学习来考虑移动速度限制。在这项研究中,MnasNet在特定的设备上执行不同的模型,并测量它们在现实世界中的性能,自动从中选出最好的。
研究人员在博客中写道:“通过这种方式,我们可以直接衡量在现实生活中可以实现的东西,因为每种移动设备都有自己的软件和硬件特性,可能需要不同的架构才能在准确性和速度之间取得最佳平衡。”
MnasNet系统由三个部分组成:1)一个循环神经网络驱动的控制器,用来学习和采样模型的体系结构;2)一个构建和训练模型的训练器;3)一个由TensorFlow Lite驱动的推理引擎,可以测量模型的速度。
谷歌团队在ImageNet(斯坦福大学和普林斯顿大学维护的图像数据库)和COCO对象识别数据集的公共对象上测试了其最优模型。结果显示,这些模型比最先进的移动模型MobileNetV2快1.5倍,比神经结构搜索系统NASNet快2.4倍。
与此同时,在COCO上,谷歌的模型在MobileNet上实现了“更高的精度和更高的速度”,其计算成本比SSD300模型低35倍。
研究团队称:“我们很高兴看到我们的自动化方法可以在多个复杂的移动视觉任务上实现最先进的性能。将来,我们计划将更多的操作和优化纳入我们的搜索领域,并将其应用于更多的移动视觉任务,如语义分割。”
这项研究是在“前沿”和“离线”人工智能获得发展动力之际进行的,尤其是在移动领域。在今年6月召开的2018年全球开发者大会上,苹果推出了改进版ML Core,这是一款面向iOS设备的机器学习框架。
在谷歌2018年I/O开发者大会上,谷歌发布了ML Kit,这是个软件开发工具包,它包含了许多工具,使得在应用程序中更容易部署定制的TensorFlow Lite模型。
榜单收录、高管收录、融资收录、活动收录可发送邮件至news#citmt.cn(把#换成@)。