今年早些时候召开的I/O开发者大会上,Google引入了名为MultitaskUnifiedModel(MUM)的新人工智能里程碑。这项技术可以同时理解各种格式的信息,包括文本、图像和视频,并得出主题、概念和想法之间的洞察力和联系。今天,Google宣布计划在自己的产品中整合MUM,率先对GoogleLens 视觉搜索进行更新。
GoogleLens是该公司的图像识别技术,可以让你使用手机的摄像头来执行各种任务,如实时翻译、识别植物和动物、从照片中复制和粘贴、寻找与相机取景器中的物品相似的物品、获得数学问题的帮助等等。
Google今天表示即将利用MUM的能力来升级GoogleLens,使其能够在视觉搜索中添加文字,以便让用户对他们看到的东西提出问题。
在实践中,这种功能可以这样运作。你可以在GoogleSearch 中调出一张你喜欢的衬衫的照片,然后点击Lens图标,要求Google为你找到同样的图案但要在一双袜子上。通过输入“sockswith this pattern”(有这种图案的袜子),你可以引导Google找到相关的查询,如果你只使用文本输入,可能会更难做到。
(7777342)