展会信息港展会大全

为什么人工智能的未来是开源的
来源:互联网   发布日期:2020-07-30 15:11:20   浏览:15826次  

导读:导语 通用人工智能(AGI) 的时代即将到来,开源是实现其利益和控制其风险的关键。 正文 通用人工智能(AGI,Artificial general intelligence)是人工智能的下一个阶段,它将满足并超越人类的人工智能,而它几乎可以肯定是开源的。 AGI致力于解决人类需要解决...

为什么人工智能的未来是开源的

导语

通用人工智能(AGI) 的时代即将到来,开源是实现其利益和控制其风险的关键。

正文

通用人工智能(AGI,Artificial general intelligence)是人工智能的下一个阶段,它将满足并超越人类的人工智能,而它几乎可以肯定是开源的。

AGI致力于解决人类需要解决的大部分问题。这与狭窄的 AI(涵盖当今大多数AI)形成鲜明对比,后者在特定问题上力求超越人类的能力。简而言之,AGI是实现AI的所有期望。

从根本上讲,我们真的不知道什么是智能以及是否可能存在与人类智能不同的智能类型。虽然AI包含许多已成功用于特定问题的技术,但AGI却更加模糊。当技术未知且没有具体问题陈述时,开发解决问题的软件并不容易。最近举行的AGI-20会议(世界著名的AGI活动)的共识是存在AGI解决方案。如果不是不可避免的话,这使得将来有可能出现AGI。

AGI的方法

我们现在至少有四种创建AGI的方法:

1.结合当今狭窄的AI功能和巨大的计算能力

2.通过模拟新皮层的160亿个神经元来复制人脑

3.复制人脑并从扫描的人脑上传内容

4.通过定义“认知模型”并使用过程语言技术来实现模型来分析人类智能。

考虑一下GPT-3,这是OpenAI的里程碑式成就,它创造了富有创意的小说,例如诗歌,双关语,故事和模仿小说。该程序具有数十亿个单词和短语及其与其他单词和短语的关系库。它是如此成功,以至于由于担心滥用的可能性,OpenAI并未将其公开。尽管它看起来很聪明,但是大多数人怀疑GPT-3能够理解它所使用的词。但是,GPT-3证明,有了足够的数据和计算能力,您就可以在很多时候欺骗很多人。

不幸的是,最狭窄的AI也是这种情况。平均使用了三年的堆叠块了解现实世界中存在物体,并且时间会不断向前。块都必须进行堆叠之前,他们可以掉下来。人工智能的基本局限性在于,这些系统无法理解单词和图像代表存在于物理宇宙中并在其中相互作用的物理事物,也不会因时间的理解而产生影响。

尽管AI可能缺乏了解,但AGI往往是目标导向的系统,将超出我们为它们设定的目标。我们可以设定目标使人类受益,这将使AGI受益匪浅。但是,如果将AGI武器化,它们在该领域也可能会很有效。我不太关心终结者风格的单个机器人,因为我拥有的AGI能够制定战略来控制人类的更具破坏性的方法。我相信这些风险已经超越了当今AI对隐私,平等,透明度,就业等方面的关注。AGI与基因工程相似,就其收益和风险而言,其潜力是巨大的。

什么时候可以看到AGI?

AGI可能很快就会出现,但在时间安排上尚未达成共识。考虑到大脑的结构是由人类基因组的一小部分(也许是10%)定义的,总共约有750MB的信息。这意味着仅开发75MB的程序就可以完全代表具有完全人类潜能的新生儿的大脑。这样的项目完全属于开发团队的范围。

我们尚不知道该如何发展,但是在任何时候,神经科学的突破都可以绘制人类神经瘤的地图。目前已经有一个Human Neurome项目。Human Genome Project刚开始时看起来异常复杂,但是它比预期的要早完成。在软件中模拟大脑可能同样简单。

当AGI突然出现时,不会出现“ 奇异点 ”。相反,它将逐渐出现。想象一下,您的Alexa,Siri或Google Assistant逐渐变得更好地回答了您的问题。它在回答问题上已经比三岁的孩子更好,并且在某个时候,它将比十岁的孩子好,然后是一个普通的成年人,然后是一个天才,然后再超越。我们可能会争论该系统越过等同于人类智慧的最早日期,但是在此过程的每一步中,收益都将超过风险,因此我们对增强功能感到兴奋。

为什么要开源?

对于AGI,选择开放源代码的所有通常原因是:社区、质量、安全性、自定义和成本。但是AGI的三个主要因素使其与其他开源软件有所不同:

1.存在极端的道德/风险问题。我们需要公开这些信息,并建立一个系统来验证和遵守任何出现的标准。

2.我们不知道算法,开放源代码可以鼓励实验。

3.AGI可能比人们想象的更早到达,因此,认真对待对话非常重要。如果SETI项目 发现未来10到50年内将有一个超人类的外来种族到达地球,我们将如何做准备?好吧,超人种族将以 AGI的形式出现,这将是我们自己创造的种族。

关键在于开源可以促进理性对话。我们不能完全禁止AGI,因为这只会将开发转移到不会认可该禁令的国家和组织。我们不能免费接受AGI,因为毫无疑问,会有恶意者愿意为灾难目的利用AGI。

因此,我相信我们应该寻求AGI的开放源代码策略,该策略应包含多种方法,并努力:

1.公开发展

2.在同一页面上获取有关限制AGI风险的AI / AGI社区

3.让大家知道项目的状态

4.让更多的人认识到AGI可能很快会出现

5.进行合理的讨论

6.将保障措施纳入代码

开放的开发过程是我们实现这些目标的唯一机会。


赞助本站

AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港