文/光谱
一千个人有一千个哈姆雷特。对于Google而言,可能没有一千个版本,但每个人对这家公司的认识可能都稍有不同。
它从搜索引擎开始,又推出了Gmail,还有广告业务,也是全球最流行的移动操作系统 Android(活跃设备数已超过20亿)的所有者。 最近几年 Google又开始卖手机、电视棒、平板电脑和家用音响了……
想要对 Google 下一个清晰的定义,似乎变得越来越难了。
在今天举办的 Google I/O 年度开发者会议上,Google CEO 桑达尔·皮柴 (Sundar Pichai) 指出 Google 一直在做自己最擅长做的事情:用前沿计算技术去解决这个世界上最为复杂的问题,“那些影响人们日常生活的问题。”
由于很早就拥抱了移动计算,Google 在 PC-移动转变的时代获得了红利。对于大部分智能手机用户,Google 已经成为了他们日常数字生活最重要的组成部分。只有数字才能描绘出人们到底有多爱 Google: 人们每天用 Google 地图导航距离已经超过了10亿公里,用户每天在 YouTube 上消磨的时间也超过了 10 亿小时。
而在那些暂时无法使用 Google 服务的国度,Google 也换了一种方式把触手伸了过去——感谢中国,最近全世界 Android 活跃设备数量刚刚超过了 20 亿台。
然而,新一次模式转变时代又来到了,这次的关键词将会是人工智能。皮柴发现,人工智能时代的到来再一次迫使 Google 改变构思产品的方式。慢慢地,你会发现 Google 的所有产品里面都有了人工智能的影子。
比如前年 Google 推出的 Photos,因为免费的上传空间、图像识别技术提供的人脸检测和照片自动分类功能,已经成为了最受欢迎的云端相片集服务,拥有超过 5 亿用户;
比如 Google 搜索,它的功能早已不只是搜索文字,满足了用户更多的期待,可以用语音输入,能搜索图片,还直接并准确地回答问题,而不是给出一堆不知道不知道可靠不可靠的网页;
再比如 Gmail,一个简单的电子邮件系统,它还能怎样变得更好玩、更有用?Google 发现如果能够自动标记和处理垃圾邮件,而不是让用户手动标记它们,或者自动识别邮件内容,提供几个符合上下文的默认回复,省去用户敲键盘打字,这样的体验好得多。
被机器学习/人工智能彻底改变的 Google 产品还有很多,包括 YouTube 、地图、Android、Chrome 浏览器等。事实上,Google 在过去两年的时间里,将公司内部开发和采用的机器学习技术整理到了一起,命名为 TensorFlow。这是一套包括了很多常用深度学习技术、功能和范例的框架,被 Google 几乎所有产品所采用。
“你能想到的每一样 Google 核心产品,背后都有机器学习和深度学习技术。”皮柴在 I/O 17 演讲中提到。
今年,Google 决定人工智能上“all-in”。皮柴宣布公司的核心口号从 Mobile First(移动为先)改变为 AI First(人工智能为先)。本届开发者会议上的所有重要宣布,几乎都和人工智能有关。
首先是 Cloud TPU。TPU 的全名是 TensorFlow Processing Unit(TensorFlow 处理单元),是 Google 专为自家的深度学习框架 TensorFlow 而推出的处理器,安装在数据中心的服务器中。早在一年前,Google 就已宣布正在开发专门的 TPU 深度学习处理器,当时备受关注。
今天,作为第二代产品的 Cloud TPU 应该没有让人失望,当皮柴正式宣布时,台下爆发出热烈的掌声。
Cloud TPU 采用完全由 Google 自研的独特计算架构,一块板具有 4 个 TPU 计算核心,理论算力达到了 180 TFlops(万亿次浮点计算),能够对机器学习模型的训练和运行带来显著的加速效果。
过去,GPU 一直被英伟达等公司推崇为最好用的深度学习处理工具,Google 也一直主要采用 GPGPU( 通用图形处理器)承担内部研究和业务的计算,但随着新的深度神经网络模型问世,GPU 在保持泛用性的同时,性能有时跟不太上。因而,TPU 成为了 Google 用于在深度学习中替代 GPU 的武器。
如果你以为 Cloud TPU 就是这么一个简单的处理器的话,那你就低估它的实力了:它其实像乐高积木一样,可以支持多块板拼在一起,组成一个性能更强的超级计算机……目前来看应该可以支持到 64 块,达到超过 11 PFlops(千万亿次浮点计算)的惊人性能。
作为人工智能的一个重要使用场景,今年 Google 的新发布在图像识别方面也有很大的动作。
一款名叫 Google Lens 的新相机产品,让很多现场观众都感到兴奋。它具有一些最基本的识别功能,比如可以拍照“识花”(我想花应该不会是唯一支持识别的物体种类),还能扫描一段 Wi-Fi 的用户名/密码/条形码,然后让手机自动连接到网络上,省去手动查找网络、输入密码的繁琐。
更有趣的是,如果你来到一个新的城市,不知道该去哪家餐馆,也可以打开 Google Lens 对着随便一家餐馆扫描,它能够自动在 Google 的数据库里找到对应的资料显示给你看,包括点名、菜式、评分、打烊时间等等。
当其他公司忙着在各种图像识别比赛中拿高分时,Google 却更多思考怎样使用技术创造出更多有趣的功能。一个很好的案例是 Google Photos,产品经理发现人们出外游玩聚会拍下了很多的照片,最后却经常忘记和朋友一起分享。于是他们为 Google Photos 开发了一个新功能“分享建议”(Suggested Sharing),自动识别照片里的人脸,找到对应的朋友,问你“要不要分享给她?”
而如果这个人跟你的关系亲密,比如家人,另一个新功能“共享相册”(Shared Libraries) 能让家庭照片的共享变得更容易。同样基于人脸识别,这个功能可以自动将从某个时间起算,包含指定人脸的照片自动收纳到一起,同步给家庭成员。显然,共享照片集已经不是什么新东西,iOS 相册在几年前就实现了,但 Google Photos 的不同之处就在于不用手动翻阅容量成百上千张的相册——人工智能真的太省事。
在 Google,用人工智能的姿态对产品重新思考,已经进入到了系统级。
即将在今年晚些时候正式推出的新版 Android 操作系统“Android O”,已经在系统级内置了很多基于机器学习的细小功能。一个让我很惊讶的功能叫做“智能文本选择”(Smart Text Selection)。复制粘贴在手机上是一种极其痛苦的体验,这件事大家应该可以达成共识,因为用手指在方寸屏幕上精确地选择要复制的内容很难,一不小心就全选了,又得重来。
而在 Android O 中,用手指在你想要复制内容上双击一下,比如一个好几个单词组成的人名、专有名词,地址,或者电话号码,你会发现它居然能智能地把你想要复制的内容准确高亮。如果是地址,弹出的小菜单还会建议你打开地图导航;如果是电话号码,则可以直接呼出、短信……
这些细小却又让人印象深刻的功能,在较少被人注意到的细节之处闪耀着人工智能的光芒。其实 Google 看待人工智能的姿态也正是如此,“(人工智能的)迁移的意义不光是打造充满未来感的设备,或者进行最前沿的研究。我们也在思考怎样让人工智能对数以亿计的人们触手可及,创造新的机会。”皮柴说。
在 Google 看来,人工智能不止属于 Google,它的产品和用户,还应该为人类社会的进步作出更普遍和更重要的贡献。在 I/O 上,皮柴宣布了一项其实和开发者没太大关系,但仍然足以让人激动的新事业:Google.ai。
桑达尔·皮柴
Google.ai 的使命是整合 Google 内部研发资源,采用人工智能技术的思路去解决人类作为一个种族所集体面临的问题。
昨天下午,我和 Google Research 的研究员莉莉·彭聊了聊和糖尿病有关的事。她的团队在做一件在深度学习技术人士看来很小学生,却被医学界认为“举世瞩目”的事情:用深度学习来识别糖尿病患者的眼底扫描照片,识别病变并发出警告。其实这个项目就属于 Google.ai。
糖尿病性视网膜病变-视网膜眼底扫描
我昨天专门写了文章介绍这个技术。对于深度学习专家,整个网络的搭建和训练过程可能只需要一个月,但它让医学界看到,一个困扰数千万名患者和潜在患者的问题有望得到解决。
计划中还有很多其他项目,有些很小但很有趣,比如前段时间刷屏的自动绘图 (AutoDraw):
与其他更专注于核心科研的大公司相比,Google 在人工智能的应用上花费的心血更多。在学术科研界看来这可能有点不务正业,但这对于促进地球上其他不在 Google、不在科技行业工作的普通人去积极地拥抱和接纳人工智能,显得尤为重要。
“(人工智能带来的模式)转变不只是尖端的设备和前沿的研究,我们也应该用它来降低信息门槛、创造新的机会。”皮柴说。
从今天开始,你可以说 Google 不再是一家单纯的搜索、移动操作系统、电子邮件和互联网服务,而是一家人=用人工智能去创造产品、服务和体验,帮助人类进步的公司。你甚至可以说,它的每一个比特,都是人工智能。