制造“人工耳朵”是人工智能研究的一个重要课题。何故也?
语言是人们进行相互“交际”(或“沟通”)的重要手段,如今,人要与机器进行“对话”,机器没有“耳朵”怎么行呢?机器能够听懂人类的语言吗?这就是说,除了键盘、鼠标,我们还能不能运用人类语言(命令)来操作计算机(或自动机)?
机器不是小猫,小狗,人们能够训练它们“听话”。本质上,计算机只能处理0或1的字符串,什么声音(声波)也听不见(变成字符串)。如今,要让机器“识别”(或“听见”)语音,真的有点儿为难它了。但是,计算机运算速度极快,虽然很笨(只会处理0、1字符串),总能有办法“猜出”语音模拟信号的“意思”(将其变成“字符串”),比如,采用模糊匹配技术进行快速地“猜”,虽然“猜”的精度不高。
记得,在大学二年级(58年)学习苏联学者Markov的“过程分析“(简称“马氏过程”,是一种”统计方法“的理论基础),对连续波形进行”离散取样“,然后进行数值分析。反之,再从离散序列”合成“连续波形作为输出,即所谓”模、数“相互转换,这算是计算机的基本知识(ABC)了。
3月7日,苹果发布第三代平板电脑(iPad 3),具有”语音听写“(即“Voice Dictation”)功能,引起我的极大兴趣。它能够”听懂“英,法、德以及日本等4种语言,将其变为相应的“字符串”(即“文字串”)。这可神奇了。当然,有时会“听错”,但是,其精度是实际可以忍受的。有了这种人工耳朵,加上Ubuntu的HUD技术,人类离开所谓“声控”(自动装置)就不远了。
假定苹果的第三代平板电脑“听力”不错,开会用其进行“录音”,输出的却是“文章”(最好是世界语)。然后,再运用“机器翻译”,将其转变为其它文种,再进行“语音合成”,就变成现场“即时翻译”了。这种即时翻译要“吃掉”大量的处理器计算能力,真耗电啊!但是,不管怎样,这是翻译机器人要做的事情。
在苹果普及“人工耳”的大背景下,昨天上午,我到《中国人工智能学会》秘书处办公室,谈了人工智能与Linux的“相互融合”问题,得到了理解和支持。今年,在我们国内要把人工智能及Linux的普及问题提上议事日程(即摆到桌面上进行议论),并且,初步有了日程安排。
汉语中的”同音字“现象很普遍,所以,让机器长出“汉语耳朵”很困难。汉语听写必须借助“词”和”上下文比对“才行。制造“汉语耳”本来应该是我们中国人自己的事情,但是,为了尽快打开中国市场,苹果要先行一步了,等着收取他们“汉语耳”的专利费呢!我们国人真够倒霉,买一台苹果平板电脑(包括人工耳朵)要花费那么多钱。我们要问:中国人的钱是不是太多了?反正,我买不起(苹果平板电脑)。