来源:
从投资入股到“反目”,马斯克和OpenAI在人工智能的道路上渐行渐远。
3月29日,未来生命研究所(Futureof Life Institute)发布了一封信* * *,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。马斯克参与了这封信的签署。
“只有当我们确信它们的影响是积极的,风险是可控的,我们才应该开发强大的人工智能系统。”* * *表示,“这种信心必须得到充分的证明,并随着系统潜在影响的规模而增加。”
马斯克的担心不无道理。虽然AI取代人类还为时尚早,但过度依赖AI造成的信息鸿沟可能会比预期来得更快。
ChatGPT之父、OpenAI首席执行官山姆·奥特曼(Sam Altman)在美国当地时间3月25日接受采访时表示,GPT“偏见”一定存在于迭代过程中,它不可能完全保持中立。
随着ChatGPT的出现,算法偏差带来的信息茧在2023年再次回到公众视野。虽然ChatGPT与人类相比拥有几乎无限的知识储备,但它仍然是基于大语言模型开发的,这意味着人工智能本身被困在了信息壁垒中。
同时,它也在建造新的茧房。
ChatGPT比搜索好吗?
在百度输入“苹果”二字,苹果的相关信息会占据整个搜索结果首页。
搜索引擎会记录用户的搜索习惯和历史,从而生成用户偏好的搜索结果。大多数人在搜索苹果时,更感兴趣的是苹果作为一家公司的相关内容。久而久之,在算法的作用下,苹果不再只是一个水果。
ChatGPT能比搜索引擎做得更好吗?
当被问及“苹果是什么”时,ChatGPT在回答中也介绍了苹果的相关信息和主要产品。
问它“我知道的苹果是一个水果,不是一个公司”,ChatGPT会在回答中说自己理解错了,重新介绍这个水果的信息。
进一步问“为什么首先想到的是苹果,而不是一种水果?这是信息茧吗?”
ChatGPT的回答是:
“在我的语料库中,苹果这个词通常与苹果这个品牌联系在一起。这可能是因为苹果在全球范围内拥有很高的知名度和影响力。这可以被视为信息茧的一个例子。信息茧是指一个人只接收、理解和相信与自己观点一致的信息,而忽略、拒绝或不知道与自己观点相反的信息。”
“信息茧房”一词最早出现在2006年出版的《信息乌托邦——人们如何生产知识》中。意味着在信息传播中,大众只关注自己选择的东西和让自己快乐的领域。久而久之,它们就会像茧一样被束缚在茧房里。
在互联网高度发达的今天,信息茧无处不在。
喜欢自己喜欢的视频,会刷越来越多的相关类型作品;购物网站会根据用户的浏览历史来展示商品;社交媒体会根据用户的喜好过滤掉不感兴趣的内容。
清华大学人工智能国际治理研究院在一份报告中表示,在算法应用平台中,用户的各种信息数据很容易通过信息内容推荐、信息生产等算法机制,被自身利益和兴趣所引导和约束,被困在信息茧中。
在ChatGPT诞生之前,搜索引擎和社交媒体是人们获取信息的主要途径。背后的搜索和推荐算法,不仅方便了人类,也是互联网时代各种信息茧的“幕后黑手”。
ChatGPT的出现,成为人类获取信息方式的一场革命。作为基于人工智能技术的语言模型,能否打破信息茧?
被困茧房的历史
从最早的口口相传,到传统的书籍、电视、报纸,再到互联网时代的搜索和近20年兴起的算法推荐,人类信息传播的历史就是一个不断破茧建新的循环。
每个阶段的信息茧成因不同,大致可以分为信息差、主动选择、被动推荐三个阶段。
在传统媒体时代,人们获取信息的渠道非常有限,信息茧主要是因为信息不畅。
90年代,互联网打破了旧的茧房,信息鸿沟在一定程度上被抹去,世界开始变得扁平透明。但问题也随之而来——一个新的更大的信息茧房出现了。
2006年,哈佛大学法学院教授基思·桑斯坦(Keith Sunstein)出版了《信息乌托邦——人们如何生产知识》一书,首次提出了“信息茧房”的概念。他认为,随着网络技术的发展和信息的急剧增加,每个人都可以根据自己的喜好随意选择关注的话题,创建一个个人化的日常的我。
这一阶段的信息茧主要是人类主动的信息选择行为造成的。也是在这一时期,信息茧房开始与脸书和谷歌等科技巨头联系在一起。
因为迎合用户喜好的算法机制和分组功能,脸书一直被外界诟病信息茧严重。一篇论文研究表明,通过分析脸书算法推荐的信息的信息源和语义相似度,有10%的信息源和27.8%的语义受到信息茧的影响。
2005年,Google推出了个性化搜索服务,可以根据之前的搜索历史,为用户提供更满意的搜索结果。该功能在提供便利的同时,也导致不同用户搜索相同词汇却得到不同结果,加剧了信息偏差。
第三阶段,以字节跳动为代表的推荐算法接过接力棒,以沉浸式体验构建新的信息壁垒。
相比搜索和社交媒体的主动兴趣选择,推荐算法可以根据用户的使用习惯、使用时长等一系列大数据,让用户看到自己想看的内容。
在德国汉堡大学的一项研究中,研究人员将用户分为两组,一组接受个性化推荐,另一组接受随机推荐。实验结果表明,接受个性化推荐的用户接收到的信息更倾向于自己已有的观点,而随机推荐组的用户更容易接触到与自己观点相反的信息。
清华大学人工智能国际治理研究院的一项研究成果表明,算法媒体通过算法技术及其架构,对人、场所、物体和思想,以及与这些过程相关的思维、行为和表达习惯进行了重新排序、分类和分级,导致了信息茧现象的快速传播和固化。
即使不主动搜索感兴趣的内容,推荐算法也会把大量相关信息放在用户面前。更便捷的信息到达方式,打破了过去的信息壁垒,但也筑起了更大的信息茧。
当AI时代到来,面对从未真正破茧而出的信息茧,人类还有多少胜算?
人类是茧房的制造者。
ChatGPT能打破信息茧房吗?它这样回答自己:
“ChatGPT本身是一种基于大规模语言模型的自然语言处理算法,可用于文本生成、自动翻译、问答等任务,并不直接涉及信息茧的问题。然而,ChatGPT可以用于生成多样化的文本内容,这可能会为用户提供更全面和多样化的信息,从而在一定程度上帮助打破信息茧现象。
但对于某些类型的信息茧,比如个性化推荐算法,ChatGPT并不能直接破茧,甚至可能加剧信息茧的问题。因此,我们在使用ChatGPT时需要注意算法的局限性和存在的问题,并采取相应的措施避免算法带来的信息茧问题。"
从使用场景来看,ChatGPT的操作方式与搜索最接近,但两者也有明显的区别。
首先是数据来源。搜索引擎的数据来源是互联网的数据池。ChatGPT使用的是训练模型的数据,没有联网功能,刚上线时的数据只到2021年结束。
两者以不同的方式相互作用。搜索引擎只向用户展示与搜索关键词相关度最高的内容,而ChatGPT可以理解自然语言,与用户进行逻辑“交流”,交互能力更强,输出方式更多。
没有基于个人习惯的个性化定制,ChatGPT一定程度上打破了搜索时代的信息茧。
但同时,ChatGPT也将在未来构筑新的信息壁垒。正如山姆·奥特曼所说,GPT在迭代过程中必然会有“偏向”,它不可能保持完全中立。GPT生成的答案是个性化控制的结果,迭代过程是为了更精确地控制个性化过程。
近年来,国内外关于如何打破信息茧的理论研究很多,大多集中在优化算法和多样化的信息获取渠道上。但同时也有研究认为,信息茧是选择性心理导致的必然现象,算法本身没有“原罪”。
正如ChatGPT回答的,算法本身只是一个工具。
回到一个多月前ChatGPT刚刚流行的时候,乐观的人们把它的诞生称为AI界的“iPhone时刻”,或应用于各种工作学习场景,或加入AI大模型的创业浪潮。
看不起它的人,乐得嘲笑它一本正经的胡说八道,把“林黛玉倒拔垂柳”当作茶余饭后的谈资。
这两种人对自己的观点深信不疑。当观点相同的人慢慢聚集在一起,信息茧房就会悄然形成。
无论信息获取工具如何变化,只要“我想看我想看的”的需求还在,信息茧房的循环就不会结束。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信,我们会及时处理和回复。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:goldenhorseconnect@gmail.com