文:赵志东蔡
2022年底,美国科技初创公司OpenAI发布的智能聊天工具ChatGPT一夜走红。相比以往一些AI聊天机器人明显的机械感或者内容* *粘贴感,ChatGPT给出的答案往往逻辑清晰,切中要害,能够与用户进行自然流畅的对话。好奇AI技术发展到什么程度,各行各业的人都开始用ChatGPT进行花式测评,从写代码到高考做数学题,从翻译学术论文到写论文。ChatGPT的完成度真的让人印象深刻。过去只能由人类完成的创造性工作,可以在一定程度上被ChatGPT替代,完成相应的内容生产。
ChatGPT的出现也掀起了人工智能生成内容的热潮。微软已经正式将ChatGPT技术接入必应搜索和Edge浏览器。百度(中国)有限公司也表示,将在今年3月完成类似ChatGPT的项目“ERNIE Bot”的内测后向公众开放。
对于ChatGPT所展示的“超能力”,很多人在为技术的发展感到兴奋的同时,也有点担心人工智能内容的生产以及背后的道德伦理、社会责任和法律风险。本文将从算法、数据、内容三个方面详细阐述ChatGPT背后的法律风险和合规建议。
1.ChatGPT生成虚假信息。谁对答案的质量负责?ChatGPT的技术原理是在算法和数据的基础上,利用自然语言处理生成相应的答案。具体来说,ChatGPT使用基于人类偏好的人类反馈模型的强化学习。技术人员提前向ChatGPT输入海量语言数据,根据人工标注的优质答案,为ChatGPT生成的答案建立评分和奖励模型。引导和训练ChatGPT模型不断修正和优化输出结果,向高分方向提高输出答案,使ChatGPT最终学习到人类语言的特点和结构,实现自然语言的人机交流。
目前,ChatGPT被认为能够处理各种相对复杂的语言任务,包括自动文本生成、自动问答、延续上下文的连续对话等。,并已尝试用于新闻、营销、客服等行业。但人工智能内容的制作并不能保证其内容的准确性,ChatGPT也在用户协议中做了免责声明。相对于ChatGPT输出的一些“正确的废话”,其“严重的废话”所造成的危害已经让全世界的监管者非常警觉。
今年1月,OpenAI首席技术官米拉·穆拉蒂(Mira Murati)表示,ChatGPT可能被“危险分子”用来捏造事实,这是大型语言模型面临的共同挑战。
一方面,在法律、医疗等专业领域,用户需要一定的专业知识来分辨ChatGPT产生的内容真假。如果用户依靠不准确的答案做出判断和决策,可能会危及用户的人身和财产安全。
另一方面,不排除一些别有用心的不法分子通过输入虚假或误导性信息,“训练”ChatGPT产生虚假信息,可能导致影响政治舆论或政治生态、煽动暴力犯罪、损害公共利益等严重后果。
我国出台的《互联网信息服务深度融合管理规定》也是为了应对深度融合技术对法律、社会秩序和公共安全的冲击。根据《互联网信息服务深度合成管理规定》中给出的定义,深度合成技术是指利用深度学习和虚拟现实生成和合成文本、图像、音频、视频、虚拟场景等网络信息的技术,包括章节生成、文本样式转换、问答对话等文本内容的生成或编辑技术。ChatGPT等人工智能内容生产的产品,显然应该受到这部法律的规制。
根据《互联网信息服务深度融合管理规定》,深度融合服务提供者应当落实信息安全主体责任,建立健全用户注册、算法机制审查、科技伦理审查、信息发布审查、数据安全、个人信息保护、反电信网络诈骗、应急响应等管理制度。
首先,深度合成服务提供者应当以显著方式提醒深度合成服务的技术支持者和使用者承担信息安全义务。对于使用其服务产生的可能导致公众产生混淆或者误解的信息内容,应当在信息内容的合理位置和区域进行显著标注,提醒公众该内容为深度合成,提醒用户在产生涉嫌违法信息时存在虚假信息的安全风险。
其次,深度合成服务提供者要加强深度合成内容管理,建立完善识别违法和不良信息的特征库,采取技术或人工方式审核深度合成服务用户的输入数据和合成结果。发现用户利用深度合成服务制作、* *、发布、传播虚假信息的,应当及时采取措施辟谣,保存相关记录,并向网信部门和相关主管部门报告。
同时,对发布违法和不良信息的相关深度合成服务用户,依法依规采取警告、限制功能、暂停服务、关闭账号等措施。
二、ChatGPT生成歧视性文本,如何监管算法盲盒?除了《互联网信息服务深度合成管理规定》之外,ChatGPT等人工智能内容生产产品也受到《互联网信息服务算法推荐管理规定》的监管。《互联网信息服务算法推荐管理规定》中提到的算法推荐技术,包括利用生成合成的算法技术向用户提供信息。这一规定的要点是防止算法歧视或算法偏差,产生不符合主流价值取向的负面有害信息或低俗劣质信息。
根据《互联网信息服务算法推荐管理规定》第七条,算法推荐服务提供者应当建立健全算法机制审查、科技伦理审查、用户注册、信息发布审查、数据安全和个人信息保护、反电信网络诈骗、安全评估与监测、安全事件应急处理等管理制度和技术措施。
具体而言,算法服务提供者应定期对算法机制、模型、数据和应用结果进行审查、评估和验证,确保算法模型不违反伦理。在此基础上,算法服务提供者还应当以显著方式告知用户其算法推荐服务,并以适当方式宣传算法推荐服务的基本原理、目的和意图以及主要运行机制。
此外,如果是具有舆论属性或者社会动员能力的产品,算法推荐服务提供者应当在提供服务之日起十个工作日内,通过互联网信息服务算法备案系统填写服务提供者名称、服务形式、应用领域、算法类型、算法自评报告、拟公示内容等信息,并履行备案手续。
以ChatGPT为例。虽然OpenAI在官网宣称ChatGPT是通过算法设置和训练的,但它可以在一定程度上拒绝用户的不合理请求,比如生成可能含有种族歧视或性别歧视、暴力、血腥、色情等违反法律和公序良俗的内容。但事实上,非法信息传播的风险依然存在,其法律责任和舆论可能会对公司的形象和商誉产生负面影响。
三年前在韩国非常受欢迎的人工智能聊天机器人李·鲁大,因为一些用户在对话和互动时故意输入污秽和暴力的词语,导致李·鲁大在收到这些不符合主流价值观的内容后,输出一些涉嫌性别歧视、种族歧视和歧视弱势群体的内容,而广受诟病。因此,该产品广受批评,推出不到一个月就中断了服务。
第三,用户的输入信息用于训练ChatGPT。个人信息处理合规的要点是什么?ChatGPT的前训练、后迭代、强化学习都需要海量数据。最新开放版本GPT-3.5的预训练数据已经达到45TB,其中包括北京致远人工智能研究所建设的中文语料库WuDaoCorpora中约3TB的中文语料库。
《互联网信息服务算法推荐管理规定》第十四条明确规定,深度合成服务提供者和技术支持者应当加强对训练数据的管理,采取必要措施保证训练数据的安全;培训数据包含个人信息的,应当符合个人信息保护的相关规定。
我国《个人信息保护* *》明确了处理个人信息应当遵循的公开、诚实和极简原则,即个人信息处理者应当公开个人信息处理的规则,明确说明处理的目的、方式和范围,不得过度收集个人信息,不得以误导、欺骗、胁迫等方式处理个人信息。以ChatGPT为例,OpenAI如果收集或处理个人信息用于模型训练,也需要征得用户个人同意。
在OpenAI对ChatGPT使用常见问题的回复中,OpenAI明确承认用户与ChatGPT的对话数据将用于ChatGPT的迭代模型训练。而且OpenAI特别提醒,OpenAI暂时不能从输入历史中删除某个特定内容;如果要删除数据,必须注销这个OpenAI账号,这个账号的所有相关数据都会一起删除,所以用户在使用ChatGPT的时候不要输入敏感信息或者机密内容。
因此,在类似ChatGPT的人工智能内容生产产品的开发和后期升级过程中,应尽可能使用公开的非个人信息,或者对收集的个人信息进行匿名化处理。如果必须使用个人信息,应当明确告知用户,并征得其个人同意,以避免因非法使用个人信息而造成的侵权或损害。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信,我们会及时处理和回复。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:goldenhorseconnect@gmail.com