WWDC 2017是苹果迄今为止,发布时间最长、产品最密集的开发者大会,苹果虽然没有单独讲“机器学习”,但发布的多个新产品和应用都伴有“AI”、“机器学习”的影子。
无论是为移动设备提供的快速机器学习API——Core ML,还是融入了Siri的智能音箱HomePod,都展现出AI已经全面融入苹果的生态系统中。
在刚刚过去的5月份,微软、谷歌相继召开了开发者大会,两者均对AI高度重视,微软认为重要的是无处不在的云,与无处不在的AI;而谷歌则从“Mobile First”到“AI First”。有媒体称,相比之下苹果在AI领域已成为“追赶者”。苹果显然不喜欢这一角色,库克去年曾表示,AI和AR是苹果未来的核心技术,苹果正加大对人工智能和现实增强技术的投资。
Siri升级
语音助手一直是AI技术的“代表作品”。谷歌有Google Assistant、亚马逊有Alexa、微软有Cortana,而苹果有Siri。
此次的开发者大会上,Siri有了一系列的升级,这些升级集成为大会上介绍的Siri Intelligence。
2014年,苹果将Siri的语音识别移植到了基于神经网络的系统上,使用深度学习对它进行了极大的增强。这里面使用到了一些早期技术,包括隐马尔可夫模型。从此开始,Siri使用了机器学习技术,包括DNN(深度神经网络),卷积神经网络,长短期记忆单位,封闭复发性单位(gated recurrent units),以及n-grams 等。
经过三年的发展,Siri Intelligence进步明显。如今的Siri Voice,可以使用深度学习进行男声、女声的语音合成。同时将具备搜索、翻译功能;它还对语境也更为敏感,将具备理解自然语言的功能。
为移动设备提供机器学习API:Core ML
在昨日发布会中,苹果还发布了在AI方向的最新成果——Core ML。这是一款运用于移动设备的人工智能开发API,苹果副总裁Craig Federighi介绍称,Core ML的核心是加速在iPhone、iPad、Apple Watch上的人工智能任务,包括面部识别、文本分析等。他表示,Core ML 在iPhone上每分钟图像识别的速度是谷歌Pixel上的6倍。
Core ML将支持很多主流的机器学习工具,支持深度神经网络、循环神经网络、卷积神经网络、支持向量机、树集成、线性模型。
融入了Siri的智能音箱——HomePod
如果说Facebook 把虚拟现实搬进社交网络,Google 把人工智能引入搜索, 苹果则把Siri做进了音箱。
由于配备了更加智能的Siri,HomePod会根据用户的喜好来智能播放音乐,它采用了A8苹果芯片,有着非常精准的音频效果并具备方向控制。它可以放在家中的任何地方,可以智能检测空间,从而调整音频质量,可以实现填满整个房间的音质效果。
HomePod还是一个智能的家庭助理,用户可以通过Siri将HomePod设置成时钟,或者让Siri为你播放交通信息及天气情况。
苹果高管Phil Schiller在发布会上介绍称,当听到“Hey Siri”后,音箱顶部会亮起Siri界面中一样的波形灯光,然后就可以问它天气、新闻等事情,或者设定闹钟和提醒。Creative Strategies分析师Carolina Milanesi向媒体表示,这次发布的HomePod虽然是硬件产品,但它让Siri与用户更直接接触,因此将看到Siri越来越聪明。
AI技术融入苹果生态系统
库克去年曾指出,人工智能是未来智能手机中的决定性技术,人工智能将使智能手机对用户来说更必要。如今看来,人工智能、深度学习技术应用到苹果整个生态系统中。除了上述提到的新产品,苹果家族中融入AI技术的产品还包括以下:
Safari使用机器学习识别网页追踪者,增强隐私保护;
图像App升级,特别是Memories功能使用机器学习识别体育活动、婚礼等图;
Apple Store使用深度学习辨别骗保行为;
苹果News应用,采用机器学习挑选出你可能感兴趣的新闻源;
Apple Watch利用机器学习检测用户在锻炼状态还是仅仅在闲逛;
Apple Pencil触控笔的“防手掌误触”机器学习模式。