主页 > 头条 > 多位图灵奖得主、顶尖高校教授签署联名公开信

多位图灵奖得主、顶尖高校教授签署联名公开信

佚名 头条 2023年06月01日

多位图灵奖获得者、顶级AI公司CEO、顶尖大学教授,以及数百位在各自领域具有话语权的专家联署了一封公开信加拿大28群哪里找呢?,这封信简单而有力:

降低人工智能灭绝的风险应该是全球优先事项,连同其他社会规模的风险,如流行病和核战争。

这封公开信发表在人工智能安全中心 (CAIS)。 CAIS 表示,这份简短声明旨在就“人工智能带来的广泛重要且紧迫的风险”这一主题展开讨论。

在这封联合公开信的名单中,有不少耳熟能详的名字,包括:

图灵奖获得者 Geoffrey Hinton 和 Yoshua Bengio;

人类灭绝电影_人类与动物灭绝_chatgpt之父警告ai可能灭绝人类

OpenAI CEO Sam Altman,首席科学家 Ilya Sutskever谁有加拿大28群全天加拿大28QQ信誉群!,CTO Mira Murati;

Demis Hassabis,谷歌DeepMind CEO,多位研究科学家;

Anthropic 首席执行官 Dario Amodei;

加州大学伯克利分校、斯坦福大学和麻省理工学院的教授。

chatgpt之父警告ai可能灭绝人类_人类灭绝电影_人类与动物灭绝

在相关的新闻稿中,CAIS 表示他们希望利用它来“设置护栏和建立机构,以便 AI 风险不会让我们措手不及”,并将有关 AI 的警告比作“原子弹之父”J.Robert奥本海默警告原子弹的潜在影响。

然而,一些人工智能伦理专家不同意。 Hugging Face 的机器学习研究科学家 Sasha Luccioni 博士将这封公开信比作“戏法”。

她说,将人工智能的假设存在风险与流行病和气候变化等非常真实的风险放在一起对公众来说非常直观,也更容易说服。

但这也具有误导性PC蛋蛋群玩家群吧,“将公众的注意力吸引到一件事(未来的风险)上,因此他们不会考虑另一件事(当前的有形风险,如偏见、法律问题)。”

长期以来,吴恩达和 Yann LeCun 一直是 AI 技术的积极拥护者。 这封公开信发出后,吴恩达在个人推特上发表了个人看法:

人类与动物灭绝_chatgpt之父警告ai可能灭绝人类_人类灭绝电影

当我想到大多数人的生存风险时:

下一次大流行;

气候变化 → 人口大量减少;

另一颗小行星。

人工智能将是我们解决方案的关键部分。 所以如果你想让人类在接下来的 1000 年里生存和繁荣chatgpt之父警告ai可能灭绝人类,就让 AI 走得更快,而不是更慢。

人类灭绝电影_chatgpt之父警告ai可能灭绝人类_人类与动物灭绝

随后,杨立坤转发了这条推文,并打趣称,“在我们连狗级AI(更不用说人级)的基本设计都没有之前,讨论如何让它安全(idea)是不成熟的。”

自ChatGPT/GPT-4等大型AI模型问世以来,一些AI安全研究人员开始担心,一种比人类聪明得多的超智能AI即将出现,逃脱圈养,控制或毁灭人类文明。

图|人工智能生成的“AI占领世界”图

人类灭绝电影_chatgpt之父警告ai可能灭绝人类_人类与动物灭绝

虽然这种所谓的长期风险存在于一些人的脑海中,但其他人认为,就该主题签署一份含糊不清的公开信对可能对其他人工智能风险(如深度假货)负责的公司来说是一个挑战。 这是一种缓解方法。 根据 Luccioni 的说法,“这使得签署这封信的人成为故事的英雄,因为他们是创造这项技术的人。”

对于像 Luccioni 这样的批评者来说,人工智能技术远非无害。 相反,他们认为优先考虑假设的未来威胁是对现有人工智能风险的转移。 这些危害引发了棘手的伦理问题。 公司宁愿选择忘记这些问题。

因此哪里找PC蛋蛋官网!,尽管人工智能有一天可能会威胁到人类,但这些批评者认为chatgpt之父警告ai可能灭绝人类,将注意力集中在 2023 年一个不明朗的世界末日情景既没有建设性也没有帮助。 他们指出你不能研究不真实的东西。

“试图解决明天的想象问题完全是浪费时间。解决今天的问题,明天的问题就会在我们到达那里时得到解决。”

参考链接:

#打开信封

|点击关注,记得star|

广告位
标签: 签署   顶尖   风险   得主   科学