图片来源:工具生成。
来源:
数千人联名要求“暂停巨人AI实验”。经过网上一天的发酵,各方面的声音都出现了。
在乐存之后,吴恩达、田远东等多位AI大牛也发文公开反对“千人联名”。
吴恩达表示,在GPT-4出现后要求AI训练暂停六个月是很可怕的:
它(GPT-4)在教育、医疗、食品等领域有很多新的应用,会帮助很多人。
后来田远东也转发附议,说“我不签停赛令”,还把AI的发展比作囚徒困境:
一旦开始,这种趋势就没有办法停止或逆转,这就是进化的必然性。我们应该从另一个角度继续向前看,更好地了解LLM,适应它,用它的力量感受热度。
在吴恩达的帖子下,元数据科学家林之源和英伟达人工智能研究科学家Jim Fan也表示同意。
对于这个暂停令,业内还有一些大词,直接是yygq:
在这种情况下,我呼吁暂停碳排放六个月,以便我们可以在此期间解决气候变化问题,宾利学院的一位数学教授说。
Google Brain高级研究员Yi Tay直接调侃我,说如果在网上说LLM的人被封禁六个月,我就签。
这场讨论的中心无疑是OpenAI。CEO奥特曼今天上午也发了一条“展望未来的AGI”的推特,疑似回应昨天的风波:
一个好的AGI应该具备这三个特征:1 .与超级智能结盟的技术能力;2.大多数主要AGI之间的充分协调;3.有效的全球监管框架。
“潘多拉的盒子”在吴恩达的帖子里被打开了。除了上面提到的应用价值,他还从竞争、风险、AI发展等角度阐述了“为什么反对暂停”。
首先是竞争。让第三方暂停他们不了解的新兴技术是反竞争的,这开了一个可怕的先例,是一个糟糕的创新政策。
然后就是AI的风险。目前很多流媒体平台渲染“AI公司疯狂发送不安全代码”是不正确的,大部分AI团队都非常重视人工智能的安全性。
最后,回到“六个月停赛令”本身并不是一个很实际的建议,它在扼杀AI的进步。
提高人工智能的安全性,应该在安全方面投入更多,在透明度和审核方面的规定会更实际。
对此,也有网友将焦点放在了“暂缓六个月”的诉求上,认为“要求暂缓”并不能让诉求得到更好的解决:
暂停,即使是善意的,也会使更微妙和建设性的对话变得更加困难。
当然,也有人质疑马斯克、本吉奥等人发起“暂停巨头AI实验”的动机,归结为巨头之间的利益之争:
对于发起者和签名者的心理,网友们直接犀利评论道:
是因为他们不信任人工智能吗?不,因为他们不信任人类。
有网友直接把AI的发展比作潘多拉的盒子:一旦打开,一切都不可避免。
利益之争?虽然我们这些“看客”不知道“暂停令”的发起者或签署者有没有私心,但把这种诉求简单地归结为利益之争,肯定是不全面的。
那他们为什么发起这个呼吁呢?为什么一定要暂停六个月?
首先,你为什么发起这个呼吁?在* * *“暂停巨人AI实验”的信中,已经说明了一些原因。
为什么要暂停六个月?也许你能从赞同的声音中得到一些其他的答案。
赞成网友的说法,有人说正是因为AI像“潘多拉魔盒”一样发展了,但还没有打开,还有挽回的空间:
任何有实验室逃逸潜力的研究都应该接受国际监管,我们要尽力追回来,但如果你放出了无法追回的东西,我们就麻烦了。
还有一种观点认为,目前的AI发展成果已经足够人类使用,暂停几个月也无妨:
GPT-4就够了。只要优化一下,扩展插件,至少可以满足几年的需求。现在我们需要更多的时间来理解AI如何与互联网交互,我认为测试越来越强大的AI是危险的。
当然,在这样的一群论点中,还是有一股清流的,并没有“AI安全”。他们自称为基督复临派:
有高赞微博直接爽快地说:
我们羰基生物是硅基生命的关键。
是不是对人类太失望了(Doge)
对于这场持续一天多的是否暂停巨人AI实验的争论,网友们一针见血地总结道:
有人看到了好处,有人看到了文明,有人看到了热闹。
但无论如何,对于“救赎”来说,仍有几个问题不容忽视:
如何解决人工智能安全问题?暂停AI的发展是否明智?还有别的办法吗?对此你怎么看?
参考链接:[1]https://twitter.com/tydsh/status/1641203830124859392[2]https://twitter.com/2020science/status/164112382115864576[3]https://Twitter。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信,我们会及时处理和回复。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:goldenhorseconnect@gmail.com