全国上门回收废旧POS机,电话微信18939563812,现金结算,运费包邮。

科学家呼吁全球防范AI“灾难性风险”

作者:管理员 发布时间:2024-09-19 18:16:30

据美国《纽约时报》网站9月16日报道,帮助开创人工智能(AI)技术的科学家们警告说,各国必须建立一个全球性的监督机制,以遏制这项快速发展的技术可能带来的严重风险。

一群富有影响力的AI科学家在16日发布的一份声明中表示担忧,他们帮助创建的这项技术可能会造成严重危害。他们警告说,AI技术可能在几年内超越其创造者的能力,“失去人类控制或恶意使用这些AI系统可能会给全人类带来灾难性的后果”。

法律学者、美国约翰斯·霍普金斯大学计算机科学与政府学教授吉莉恩·哈德菲尔德说,如果今天世界上任何地方的AI系统发展出这些能力,目前还没有如何控制它们的计划。

哈德菲尔德说:“如果我们在六个月后遇到某种灾难,如果我们确实发现有模型开始自主自我改进,你会打电话给谁?”

9月5日至8日,哈德菲尔德与来自世界各地的科学家在威尼斯讨论这样一项计划。这是第三届国际AI安全对话,由“安全人工智能论坛”举办。“安全人工智能论坛”是美国非营利性的FAR人工智能研究组织的项目。

该科学家小组在声明中称,各国政府需要了解本国从事AI系统研究的实验室和公司的情况。各方需要一种交流潜在风险的方式,这种方式不需要公司或研究人员与竞争对手分享专有信息。

该小组建议各国设立AI安全机构,对本国境内的AI系统进行注册。然后,这些机构将共同商定一套红线和警告标志,如AI系统是否能自我复制或故意欺骗其创造者。这一切都将由一个国际机构来协调。

来自美国、中国、英国、新加坡、加拿大和其他国家的科学家签署了这份声明。

签署者中有约舒亚·本乔,他的著作经常被引用,因此被称为该领域的教父之一。还有姚期智,他在清华大学的课程培养了许多中国顶尖科技公司的创始人。曾在谷歌工作多年的先驱科学家杰弗里·欣顿远程参加了会议。这三人都是图灵奖(相当于计算机领域的诺贝尔奖)的获得者。

小组成员还包括来自多家领先的AI研究机构的科学家,其中一些机构由国家资助,为政府提供咨询。一些前政府官员也加入进来,包括爱尔兰前总统玛丽·鲁滨逊等。今年早些时候,该小组在北京举行会议,向中国政府高级官员介绍了他们的讨论情况。

他们最近在威尼斯的会面在亿万富翁、慈善家尼古拉斯·伯格伦拥有的一栋大楼里举行。美国智库博古睿研究院院长中川黎明参加了会议,并在16日发表的声明上签名。

在中美两国为争夺技术领先地位展开激烈竞争之际,这些会议是中西方科学家之间难得的交流场所。

在威尼斯会面的科学家表示,他们的对话非常重要,因为在两个地缘政治超级大国的竞争中,科学交流正在减少。

在一次采访中,该小组的创始成员之一本乔提到了冷战高峰时期美国和苏联科学家之间的会谈,这些会谈有助于实现协调,以避免核灾难。在这两种情况下,参与其中的科学家都感到有义务帮助关闭他们的研究打开的“潘多拉魔盒”。(编译/张琳)


英媒:新研究发现耐药性感染危害惊人

“妈妈脑”或真实存在