周一至周五
09:00-12:00
13:30-17:30
最近,美国OpenAI公司旗下的人工智能聊天机器人ChatGPT一跃成为火爆全球的现象级应用,并以其强劲的力量影响周遭的世界。它不仅能和人展开互动,还可以写文章、制定方案、创作诗歌,甚至还会编写代码、检查漏洞,上线几个月全球活跃用户破亿。在面对ChatGPT等新兴人工智能产品时,如何应对相关的法律问题,警惕相关的法律风险亦显得尤为重要。
01
ChatGPT的工作原理
1、预先训练:通过学习大量的文本语料来构建语言模型,捕捉语言的语法、语义和惯用法。
2、模型构建:使用Transformer模型作为基础架构,自动学习语言的长期依赖关系。
3、输入处理:当用户输入询问时,先将询问转换为数字序列,再通过模型生成相应的回答。
4、回答生成:通过分析询问的语义和上下文,生成合适的回答。
5、输出处理:将生成的回答从数字序列转换为文本,输出给用户。
ChatGPT在语言生成领域有着卓越的表现,通过学习大量的语料,构建模型,处理用户输入,生成回答,最终实现人机交互。
02
ChatGPT可能涉及的法律风险
1、侵犯著作权风险03
如何应对ChatGPT带来的法律风险
ChatGPT势头正猛的同时,其背后隐藏的人工智能法律风险数不胜数,围绕ChatGPT展开的无序商业行为亦层出不穷,如何妥善应对相关风险是当下迫切需要考虑的问题。
1、政府应当加强对ChatGPT的监管力度,完善相关立法
在人工智能产品不断迭代升级的时代,对人工智能的监管需要深入人工智能系统的整个生命周期。类似ChatGPT的人工智能产品,从模型的建立、语料库的标注、模型训练、投放市场后的迭代进化直到系统退出使用,每个具体的环节都需要受到严格监管。
2022年出台的《互联网信息服务算法推荐管理规定》中明确要求,人工智能的算法应当坚持社会主义主流价值观,不能利用算法危害国家安全和社会公共利益、扰乱经济秩序和社会秩序、侵犯他人合法权益。2023年1月10日起施行的《互联网信息服务深度合成管理规定》中明确,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。
通过API接口调用在国内提供ChatGPT服务符合以生成合成算法制作文本,应遵循前述法规的相关义务。但目前对于相关主体应承担何种合规义务,规定并不足够明确,存在一定争议。ChatGPT作为依据美国法律和价值观开发的AI工具,其算法机制、安全机制未经我国主管机关评估审核。可以要求有关主体依法履行备案义务,并公示算法的基本原理、目的意图和主要运行机制等,否则对其处以相应行政处罚。

