比利·佩里戈写的
来源:周刊
编译:区块链之家
图片来源:工具生成。
包括马斯克在内的数百名科技领袖签署的一封信,敦促世界领先的人工智能实验室暂停训练新的超级强大系统6个月,称人工智能的最新进展给“社会和人类带来了深刻的风险”。
这封信是在OpenAI有史以来最强大的人工智能系统GPT-4公开发布仅两周之后发出的,这使得研究人员降低了他们对AGI(或超出人类认知能力的人工通用智能)何时到来的预期。许多专家担心,随着人工智能军备竞赛的升温,人类正在梦游走向灾难。
信中写道:“先进的人工智能可能代表着地球生命史上的一场深刻变革,应该以相应的谨慎和资源进行规划和管理。”“不幸的是,这种程度的规划和管理并没有发生,尽管人工智能实验室在最近几个月陷入了一场失控的竞争,以开发和部署更强大的数字思维,没有人——甚至是它们的创造者——能够理解、预测或可靠地控制它。”
除了马斯克,签名名单上还有900多人(截至本文发表时共有1126个签名),包括苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)、《智人》(Sapiens)的作者尤瓦尔·诺亚·哈拉里(Yuval Noah Harari),以及一些在人工智能领域最杰出的学者,他们负责机器学习的许多突破。截至记者发稿时,没有OpenAI的员工在这封信上签名,虽然CEO山姆·奥特曼(Sam Altman)的名字短暂出现在名单上,但随后就消失了。此外,至少有四名谷歌员工,包括其子公司人工智能实验室DeepMind的三名员工,Stability AI的首席执行官艾玛德·莫斯塔克和人道技术中心的执行董事特里斯坦·哈里斯也出现在名单上。《时代》杂志无法证实所有签名的真实性。
“当代人工智能系统现在正在成为人类在一般任务中的竞争力,”这封信写道,它目前在网站上。"我们必须问自己:我们应该让机器用宣传和谎言淹没我们的信息渠道吗?"我们是否应该自动化所有的工作,包括那些令人满意的工作?是不是应该发展非人类思维,让他们最终在数量和智力上超越我们,淘汰我们,取代我们?我们应该冒险失去对我们文明的控制吗?这种决定绝不能交给未经选举的科技领袖。"
这封信呼吁所有人工智能实验室同意使用拟议的6个月暂停时间继续进行安全研究。信中说:“人工智能实验室和独立专家应该利用这次暂停,共同制定和实施一套先进的人工智能设计和开发的共享安全协议,独立的外部专家应该进行严格的审核和监督。”“这些协议应该确保符合这些协议的系统是安全的,没有合理的怀疑。”这封信背后的人指出,他们并不是在呼吁暂停人工智能的发展,而是“从危险的竞赛中后退一步,转向越来越不可预测的具有新兴能力的黑盒模型。”
“* *的签名者、《重启AI》的作者加里·马库斯(Gary Marcus)告诉《时代》杂志,他签名是因为他觉得有责任站出来。他说:“短期和长期都存在严重的风险。在人类最需要人工智能担当的时候,企业似乎失去了方向。”“冒这么大的风险,这么快就进入未知领域,似乎不是个好主意。如果(公司)不太关注这些风险,我们其他人就有必要大声疾呼。”
人工智能安全初创公司SaferAI的首席执行官Simeon Campos告诉《时代》杂志,他签署了这封信,因为如果连这些系统的发明者都不知道它们是如何工作的,它们有什么能力,以及如何限制它们的行为,就不可能管理系统的风险。“我们现在在做什么?”坎波斯说。“在全速竞争中,我们将此类系统的容量提高到了前所未有的水平,这对社会产生了变革性的影响。我们必须减缓这些系统的发展,使社会适应并加速替代AGI架构,这种架构在设计上是安全的,并且可以得到正式验证。”
* * *的结局充满了希望。“社会已经暂停了其他对社会有潜在灾难性影响的技术。我们在这里也可以这样做。让我们享受一个艾龙的夏天,而不是毫无准备地冲进秋天。”
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信,我们会及时处理和回复。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:goldenhorseconnect@gmail.com