谷歌旗下的人工智能分析工具Google Lens现在可以从谷歌的零售和商品比价门户网站Google Shopping中识别出超过10亿种产品。这是2017年10月Google Lens首次亮相时能识别的产品数量的四倍。
Google Lens和增强现实的副总裁Aparna Chennapragada在一篇关于Google Lens的博文中透露了这一消息。
她写道:“我花了十年时间领导团队通过谷歌搜索、谷歌助手和现在的Google Lens构建使用AI帮助人们识别日常生活中的产品。在每一个醒着的时刻,我们都需要依靠视觉来理解环境,记住各种信息,探索我们周围的世界。我看到相机开创了一整套新的信息发现和记录的机会。
” 在上文中提到的产品指的是产品标签。Google Lens使用了一个光学字符识别(OCR)引擎(并内置了能够识别不同字符、语言和字体的人工智能系统,以及从谷歌搜索中获得的语言和拼写修正模组)来将条形码、QR码、ISBN编号和其他字母数字标识符与Google Shopping的庞大产品目录中的产品相匹配。
当然,Google Lens的机器视觉算法可不止能识别产品标签。
这款软件的能力范围还包括识别家具、服装、书籍、电影、音乐专辑、电子游戏、地标、名胜古迹、著名建筑、Wi-Fi连接名称和密码、鲜花、宠物、饮料、名人等等。Google Lens会进行识别,并提示你按照菜单或标识上的文字来行动,而当你扫描服装或家居装饰时,软件则会推荐一些风格上相似的产品。此外,Google Lens可能最常用的功能是它可以自动从名片中提取电话号码、日期和地址,并将它们添加到联系人列表中。
Google Lens在过去一年里发生了巨大的变化。根据Chennapragada的说法,通过谷歌的开源TensorFlow机器学习框架进行的标签识别学习的Google Lens正开始更可靠地识别物体,这也要归功于越来越多的网络图片“看起来就像是用智能手机拍摄的。
” Google Lens也在以更可感知的方式进步。
在今年5月的的I / O大会演讲中,谷歌公布了Google Lens“实时分析模式”的详细信息,该模式能将识别点叠加在实时拍摄画面的可识别物体上——这一功能首先在Pixel 3和3 XL手机上发布。不久前,Google Lens实现了联网下的谷歌图片搜索。而最近,谷歌通过谷歌App将Google Lens引入了iOS系统,并在Android和iOS平台上带来了重新设计过的使用体验。
至于未来Google Lens能做到什么,Chennapragada表示更看好增强人工智能带来的进步。
她写道:“展望未来,我相信我们正在进入一个新的计算阶段:一个摄像头的时代,如果你相信的话。这一切都是同时发生的——人工智能和机器学习的快速发展;智能手机的大规模生产带来的更便宜且更强大的硬件;还有数十亿人正用他们的手机摄像头随时记录生活中的画面,无论大小。”