据外媒报道,虽然机器学习技术是时下最火热的创新话题,但它依然带来了许多麻烦和隐忧。其中最为明显的就是这项技术正在侵犯我们每个人的隐私。
要想模仿人类,机器学习必须将人类最私密的一切“连根拔起”。因此,我们除了要保护自己的独特性,还要找出控制机器学习的机制,否则恐怕有一天它就会利用我们的身份去做一些不法勾当,到时我们会有口难辩。
下面的几个例子就向我们展示了“黑化”后的机器学习有多恐怖。当然,其本性是善良的,但落入坏人手中之后可能就会造成巨大的危害。同时,本文也是对大家的警示,在享受科技带来的便利的同时,我们也应该长个心眼,否则最终其副作用可能会吞没人类社会。
如果人脸识别技术“跑偏”了
神经网络和深度学习算法在图片识别和处理上效果显著,它们让我们的社交平台、搜索引擎、游戏机和认证机制都变得更加聪明了。
不过,它们会走上邪恶之路吗?显然会。面部识别应用FindFace就是最好的例证。该应用今年年初诞生于俄罗斯,用户可以利用面部识别系统看出某人是否也注册了VK.com(俄罗斯的Facebook)。在不到一年的时间里,这款应用在东欧就获得了超过2亿用户。
由于连上了VK.com的图片数据库,这款应用识别能力超强。不过,很多人用它并不是为了社交,其用途最终跑偏了。举例来说,莫斯科警察部门就用上了FindFace的技术并将其植入首都的15万个监控探头中。此外,还有许多人拿这一技术来捉奸。
卡巴斯基实验室的专家曾分享过一个欺骗面部识别技术的方法,但如果一直保持那样的姿势也实在是太累了。
所以,在社交网络上晒自拍还是谨慎点吧,毕竟一旦有照片上传,机器学习引擎总会从某个“仓库”将这些照片吸纳进来的,至于随后某张照片将会引发什么样的风波我们就不得而知了。
在马赛克后偷窥的机器学习
马赛克是图片和视频中保护隐私最常用的技术,用马赛克覆盖后,人眼根本无法再识别那些关键的敏感信息。
不过,机器学习可是会“透视”,它能做到彻底的心中无码。
来自德克萨斯和康奈尔科技大学的研发人员最近成功训练出一套图像识别机器学习算法,该算法可以轻松搞定现有的打码技术,把敏感信息看的透透的。一旦该技术落入坏人之手,后果简直不敢想象。
据悉,经过训练,神经网络在识别面部、物体和笔迹的准确度上可以达到90%。研发人员此举不是为了做坏事,相反他们要提醒相关部门注意公民隐私的保护。此外,专家表示,除了图片和视频中的马赛克,其实变声软件做出的声音模糊也逃不过机器学习的手掌心。
那么如何保证我们的隐私不被侵犯呢?专家表示唯一办法就是将这些带有明显模糊信息的图片放进黑匣子,不让机器学习接触。或者说可以在进行模糊处理前为图片加入其它图层来迷惑邪恶的算法。
会模仿你字迹的机器学习算法
伪造他人的字迹可不是件容易事,即使强如《水浒传》中的圣手书生萧让,也最终被识破。不过,对于机器学习来说,日复一日的摹写根本没必要,它只要见过几张你字迹的照片,很快就能模仿得天衣无缝。
伦敦大学的研究人员就开发出了一款名为My Text in Your Handwriting的程序,它只要看到你笔迹的片段,就能准确的按照你的笔迹写出一样的字。
当然,该技术并不是无懈可击,写完后它需要技术人员进行微调。不过,即使这样,它也是现在模仿人类字迹最为精准的方式。在一次对比测试中,只有40%的人识别出了自己的真品墨宝。未来随着技术的进步,这一比例还将继续下降。
虽说这项技术有许多积极的应用场景,但大多数人还是担心坏人用它来伪造法律协议、历史记录甚至做假证。想像一下,如果自己的字迹被机器学习学会了,第二天起床是不是就会背上巨额债务呢?
真假美猴王之困
除了模仿人的字迹,现在的机器学习和聊天机器人还能理解人的语言并生成非常自然的对话。未来,在线客服、天气预报、新闻和餐厅预定的工作可能都会被它们掌控。
不过,聊天机器人也会“黑化”,Luka公司已经为我们做了示范。这家公司主攻高端的AI聊天机器人,它们的产品像人一样,除了会对话,也有活生生的“思维”。
最近,Luka就推出了一款模仿HBO热播剧《硅谷》中男主角口气的聊天机器人。该公司将男主角的语言输入神经网络以便进行深度分析,最终聊天机器人就能学会他说话的方式和语气,就连说话时的抑扬顿挫都会一模一样。
此前,Luka还做过一个大胆的项目,它们让聊天机器人学习一个已经去世人的短信、社交网络对话和其他各种信息。
虽然上面提到的例子都对社会无害,但一旦被坏人所利用,可能我们就更难防范了。就拿最近让人深恶痛绝的电话诈骗来说,如果电话那头传来的就是你亲人的声音,你能不乖乖去银行打钱吗?
另外,更恐怖的是它不但会学习你说过的话,还会根据你的说话方式进行自由联想。如果有了肉身,可能你本人连存在的必要都没了。
你害怕了吗?
看了上面的例子,是不是准备去掐断网络过上原始人的生活了?别担心,机器学习并不是什么邪恶技术,它的好处更是远远超过带来的弊端。不过,在利用机器学习带来的好处时,我们也必须未雨绸缪,尤其是技术与道德和隐私有所冲突时。