展会信息港展会大全

ChatGPT之父Sam Altman警告AI的危险,“我们有点害怕” |CyberDaily
来源:互联网   发布日期:2023-03-21 14:40:10   浏览:10435次  

导读:封面:由Midjourney 生成 CyberDaily: 马斯克曾说,AI将会比核武器更加有威胁力和毁灭性。显然AI不可阻挡,人类发明工具,同样善于使用工具...只是这个过程需要一种监管、来自设计和开发者的技术善意,以及每个参与者在与AI交互时的考虑参与进来...AI和人类...

封面:由Midjourney 生成

CyberDaily:

马斯克曾说,AI将会比核武器更加有威胁力和毁灭性。显然AI不可阻挡,人类发明工具,同样善于使用工具...只是这个过程需要一种监管、来自设计和开发者的技术善意,以及每个参与者在与AI交互时的考虑参与进来...AI和人类不是对立。但是,我们要时刻警惕与反抗那些恶意使用AI的人。

过去一周,我们近乎迎来了人类真正意义上的AI疯狂月,许多人还未从3月14日之后的几场AI发布会缓过来,又陷入存在主义焦虑之中。人们已经深刻察觉到,AI带来的潜在威胁谋生以及与人本存在的价值重要性。现在,它又带来一些潜在的危险,而且需要每个人警惕与参与进来的。

ChatGPT之父Sam Altman在近日的一次专访中警告说,以ChatGPT代表的AI技术(或正在创建的AGI)在重塑社会的同时,也带来了真正的危险。

AI利好或危险的争论一直都在

一直以来,人工智能 (AI) 和超级智能机器是对人类利好的还是带来潜在的危险争论,自 1940 年代以来,这个问题就一直存在,当时计算机科学家艾伦图灵相信,有一天机器可以通过模仿进化的过程对人类产生无限影响。

现在,37岁的Altman强调,监管机构和社会需要参与这项技术,以防止对人类可能产生的负面影响。“我们必须小心谨慎,”Altman周四告诉ABC新闻,并补充说:“我认为人们应该为我们对此有一点点恐惧感到高兴。”(人的一种自觉的担忧)

就如牛津大学教授尼克博斯特罗姆于 2014 年撰写的《超级智能:路径、危险和策略》的书中提到,“人工智能有点像孩子们在玩随时可能爆炸的炸弹”。

Altman则说“我特别担心这些模型可能被用于大规模的虚假信息,”。“现在它们正在变得更擅长编写计算机代码,它们可能会被用于攻击性网络攻击。”

尽管存在危险,这也可能是“人类迄今开发的最伟大的技术”

这个警告是在OpenAI发布其语言AI模型GPT-4的最新版本不到四个月之后发出的,这个模型成为了历史上增长最快的个人应用程序。

在接受采访时,这位人工智能工程师表示,虽然新版本“并不完美”,但在美国律师资格考试中得了90%的分数,在高中SAT数学考试中也几乎得到了完美的分数。他说,它还可以使用大多数编程语言编写计算机代码。

对面向消费者的人工智能,以及人工智能的普遍担忧,集中在人类被机器取代的问题上。但Altman指出,人工智能只在人类的指导或输入下工作。

“它等待着有人给它输入,”他说。“这是一种非常受人类控制的工具。”但他表示,他担心有哪些人能够掌控输入。

就像科学家博斯特罗姆说的,“我们的成熟程度与我们的智慧、一方面我们作为一个物种进行合作的能力,与另一方面我们利用技术在世界上做出重大改变的工具能力之间,是存在不匹配的。就像我们变得更强壮的速度比我们变得更聪明的速度更快。”

Stable Diffusion 生成

Altman说“将会有其他人不会把我们人类放在安全极限之内,”。“我认为,社会在有限的时间内必须找出如何对此做出反应,如何监管它,如何处理它。”

ChatGPT的许多用户遇到的是一种回答防御到偏执的机器。在向电视新闻机构提供的测试中,GPT-4进行了一个测试,从冰箱的内容中“想”出了一些食谱。

来自马斯克与霍金先生的担忧

特斯拉CEO埃隆马斯克是OpenAI的最初投资者之一,当时它还是一个非营利性公司。他多次发出警告,称人工智能或AGI(通用人工智能)比核武器更危险。

马斯克表达了对微软的担忧,微软在其必应搜索引擎上托管了ChatGPT,并解散了其伦理监管部门。“AI没有监管监督,这是一个严重的问题。我已经呼吁AI安全监管十年了!”马斯克在去年12月份发推文时写道。本周,马斯克在自己的推特上也表达了担忧:“我们人类还能剩下什么做呢?”

已故的斯蒂芬霍金先生,曾表达了对未来人工智能如何威胁人类的担忧,以及路易斯维尔大学的计算机科学家 罗曼扬波尔斯基 博士也认为,“人类对人工智能的控制是不可能实现的”,因为人工智能不可能既自主又受人类控制。无法控制超级智能系统可能是灾难性的。

上周四,Altman承认最新版本使用的是演绎推理而不是记忆,这种过程可能会产生奇奇怪怪的回答。

Altman在采访时提到,“我试图警告人们,我们所谓认为的“幻觉问题,对于模型而言,它会自信地陈述一些完全是虚构的事情。”

AI需要正确的推理和善意的输入,以及警惕和反抗反乌托邦

思考我们创建的模型的正确方法是推理引擎,而不是事实数据库,”他补充道。虽然这项技术可以充当事实数据库,但他说,“这并不是它们的特别之处,我们希望它们做的是更接近于推理能力,而不是记忆能力。”

《卫报》最近在对 ChatGPT 的分析中提到,你输出的内容取决于你输入的内容。“我们应该从我们使用的工具、我们消费的媒体和我们生活的社区中得到更好的东西,只有当我们能够充分参与其中时,我们才能得到我们应得的。”

AI是把利剑,能帮助人类解决一些徒劳的重复性的问题,并且释放作为人的潜能和价值,而不是作为工具人的存在,与此同时,应当时刻警惕和发出反乌托邦的警告不要让AI变成他人奴役人们的工具。

参考来源:

https://www.theguardian.com/technology/2023/mar/17/openai-sam-altman-artificial-intelligence-warning-gpt4

https://www.forbes.com/sites/bernardmarr/2020/03/02/is-artificial-intelligence-ai-a-threat-to-humans/?sh=41837f90205d

https://www.sciencealert.com/here-s-why-ai-is-not-an-existential-threat-to-humanity

脑机接口仿生科技

机器人未来交通

赛博格人工智能

元宇宙、超人主义、未来主义

-未来已来,只是分布不均匀-

赞助本站

人工智能实验室
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港