人工智能专家接连发声 “一封公开信”沦为闹剧

2023-04-01 00:00:来源:市场资讯 原文链接:点击获取

财联社4月1日讯(编辑 牛占林)本周一封由埃隆·马斯克等人签署的公开信在网上热传,再度将ChatGPT等人工智能(AI)推到了风口浪尖。但随着时间的流逝,这场活动似乎变成了一场闹剧。

这封公开信由非营利组织未来生命研究所(Future of Life Institute)对外公布,其名题为“暂停巨型AI实验:一封公开信”。截至周五,已经有1800多名科技公司高管和顶级AI研究人员进行了署名,

他们呼吁暂停训练比GPT-4更强大的AI系统。最好有六个月乃至更长时间的暂停,将使该行业有时间制定AI设计方面的安全标准,从而防止风险最高的一些AI技术的潜在危害。

首先,这封信最初允许任何人在没有身份验证的情况下签名,这导致闹出了一些笑话。OpenAI首席执行官Sam Altman的名字出现在名单上,Altman回应称,他从未在这封信上签名。Meta首席AI科学家Yann LeCun和Stability AI首席执行官Mostaque等知名人士也遭遇了类似的情况。

其次,也是最为重要的是,这封公开信声称,AI系统对人类构成了深远的风险,并引用了12项相关专家的研究,这些专家包括大学学者、人工智能专家,以及OpenAI、谷歌及其子公司DeepMind的员工。

如今,这些被引用论文和观点的专家接连发声,他们表示并不认可马斯克等人的观点,甚至直接称后者“精神错乱”。

其中引用的研究包括玛格丽特·米切尔的著名论文《论随机鹦鹉的危险》,米切尔现在是人工智能公司Hug Face的首席伦理科学家,她批评了这封信。“通过将许多有问题的想法视为既定事实,这封信提出了一系列有利于未来生命研究所支持者的人工智能叙事。”

她的合著者蒂姆尼特·格布鲁和艾米丽.本德也在推特上批评了这封信,本德称其中一些说法简直是“精神错乱”,充斥着对AI的炒作。格布鲁表示:“他们基本上和我们说的相反,还引用了我们的论文。”

康涅狄格大学的助理教授Shiri Dori-Hacohen也对信中引用她的论文提出了异议。她去年与人合著了一篇研究论文,认为AI的广泛使用已经带来了严重的风险。

她的研究认为,目前AI系统的使用可能会影响与气候变化、核战争和其他生存威胁相关的决策。

她最新表示:“人工智能不需要达到人类水平就会加剧这些风险,而有些风险真的非常非常重要,但没有得到必要的关注。”

而OpenAI首席执行官Altman对此回应称,从某种意义上说,这是多此一举,一直以来我们对这些问题的讨论是声音最响、力度最大且持续时间最长的。

作者:佚名