3月22日,生命的未来向全社会发布了一份* * *呼吁所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少6个月。
目前,* * *已经得到了超过1100人的支持,包括埃隆·马斯克、萨姆·奥特曼、约书亚·本吉奥(2018年图灵奖得主)等名人。
* * *文本
大量研究表明,具有人类竞争智能的AI系统可能会对社会和人类造成深远的风险,这一观点也得到了顶级AI实验室的认可。
正如被广泛认可的阿西洛马人工智能原理(著名的阿西莫夫的机器人三原则的扩展版)中所述,高级AI可能代表着地球生命史上的深刻变革,应该以相应的关怀和资源进行规划和管理。
不幸的是,这种程度的规划和管理并没有发生,尽管最近几个月,人工智能实验室陷入了一场失控的竞争,以开发和部署更强大的数字思维,没有人——甚至是它们的创造者——能够理解、预测或可靠地控制这些思维。
当代人工智能系统现在在一般任务中与人类竞争,我们必须问自己:
我们应该让机器用宣传和谎言淹没我们的信息渠道吗?
我们是否应该自动化所有的工作,包括令人满意的工作?
我们是否应该发展出可能最终超越我们、超越我们、变得过时、取代我们的非人类思维?
我们应该冒险失去对我们文明的控制吗?
这样的决定显然不能委托给未经选举的技术领导人。只有当我们确定它们的影响是积极的,它们的风险是可控的,我们才应该开发强大的人工智能系统。这种信心必须有充分的理由,并随着系统的潜在影响而增加。
OpenAI最近关于通用人工智能的声明指出,“在某些时候,在开始训练未来系统之前进行独立审查可能是重要的,对于最先进的努力,同意限制用于创建新系统的计算增长率模型。”我们同意这一观点,并认为我们现在应该采取行动。
因此,我们呼吁所有人工智能实验室立即暂停训练比GPT-4(包括目前正在训练的GPT-5)更强大的人工智能系统至少6个月。这种暂停应该是公开和可核查的,并包括所有关键参与者。如果这种暂停不能迅速实施,政府应该介入并暂停。
人工智能实验室和独立专家应该利用这种暂停,共同开发和实施一套先进人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格的审核和监督。这些协议应该确保遵守这些协议的系统是安全的,不容置疑的。
这并不意味着在总体上暂停AI开发,而是从一个危险的竞争倒退到一个更大的不可预测的具有应急功能的黑盒模型。
人工智能的研究和发展应该重新专注于使今天强大和先进的系统更加准确、安全、可解释、透明、稳定、一致、可信和忠诚。
与此同时,人工智能开发者必须与政策制定者合作,以显著加快强有力的人工智能治理系统的开发。这些至少应包括:
专门研究人工智能的新的、有能力的监管机构;
监督和跟踪高性能人工智能系统和大量计算能力;
源和水印系统,以帮助区分真相和组成,并跟踪模型泄漏;
强大的审计和认证生态系统;
人工智能造成伤害的责任;
为技术人工智能安全研究提供强大的公共资金;
以及资源充足的机构来应对人工智能将造成的巨大经济和政治损害。
人类可以享受人工智能带来的繁荣未来。在成功创建了一个强大的AI系统之后,我们现在可以享受“AI夏天”,收获回报,设计这些系统让每个人受益,并为社会提供适应的机会。社会暂停了其他可能对社会造成灾难性影响的技术。
我们可以在这里做。让我们享受一个艾龙的夏天,而不是毫无准备地坠入秋天。
聚集行业领袖
目前已有超过1000人签署了* * *,包括马斯克、萨姆·奥特曼、约书亚·本吉奥(2018年图灵奖获得者)、巴勃罗·贾利洛·埃雷罗(石墨烯领域顶级专家)等行业领袖。
以下是部分列表:
Elon Musk,SpaceX、特斯拉和Twitter的首席执行官
Sam Altman,OpenAI的首席执行官
苹果联合创始人史蒂夫·沃兹尼亚克
艾玛德·莫斯塔克,稳定性人工智能首席执行官
因发展深度学习而获得图灵奖的Yoshua Bengio是蒙特利尔学习算法研究所的主任。
斯图尔特·拉塞尔(Stuart Russell)是伯克利大学计算机科学教授,智能系统中心主任,标准教材《人工智能:现代方法》的合著者。
麻省理工学院物理学教授帕布罗·贾里洛-赫雷罗获得了美国国家科学院的沃尔夫物理学奖。
约翰·J·霍普菲尔德,普林斯顿大学名誉教授,联想神经网络的发明者。
Connor Leahy,猜想的首席执行官
……
顶级精英的担忧
业界对AI的担忧与日俱增。
OpenAl首席执行官山姆·奥特曼(Sam Altman)最近表示,他对人工智能(AI)技术的潜力感到兴奋,但他也对一些潜在的滥用感到“有点害怕”。它还说,“它有很好的前景和巨大的能力,但随之而来的危险也是巨大的。”
人工智能教父杰弗里·辛顿(Geoffrey Hinton)近日在接受CBS新闻采访时表示,人工智能正处于“关键时刻”,通用人工智能(AGI)的出现比我们想象的更加迫在眉睫。
马斯克在2023年的世界政府峰会上谈到了ChatGPT,认为短期内人们需要警惕人工智能的安全性,并呼吁对人工智能进行监管。
“我担心,对于人工智能来说,如果出了问题,从监管的角度来看,反应可能太慢。我想说,未来文明面临的最大风险之一就是人工智能。”
但是人工智能既有消极的一面,也有积极的一面。
“它很有前途,很强大,但也伴随着巨大的危险。看核物理的发现,可以得到核能发电,但也带来了核弹。”
“总之,我认为我们应该密切关注这个问题,我们应该对从根本上给公众带来风险的东西进行某种监管。”马斯克说。
写在最后
从ChatGPT3、ChatGPT4到文心安雅,AI正以指数级的速度发展。在人工智能时代的飓风中,人类未来该怎么办& # 8230;…
本网站声明:网站内容来源于网络。如有侵权,请联系我们,我们会及时处理。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信,我们会及时处理和回复。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:goldenhorseconnect@gmail.com