ChatGPT火爆背后有何法律风险,究竟是怎么一回事?

 duo   2023-02-14 09:09   25 人阅读  0 条评论

ChatGPT火爆背后有何法律风险,究竟是怎么一回事?

摘要:

最近,由美国人工智能研究室OpenAI开发的全新“聊天机器人”ChatGPT火了。ChatGPT的问世掀起了新一轮人工智能浪潮,但其使用过程中可能涉及的法律问题不容忽视,记者对此进行了调查采访。Cha

正文摘要:

最近,由美国人工智能研究室OpenAI开发的全新“聊天机器人”ChatGPT火了。ChatGPT的问世掀起了新一轮人工智能浪潮,但其使用过程中可能涉及的法律问题不容忽视,记者对此进行了调查采访。ChatGPT火了,在国内连续多日冲上热搜榜,一时与ChatGPT相关的各种信息遍布网络。《法治日报》记者近日采访发现,ChatGPT的火爆背后暗藏法律风险隐患。ChatGPT爆火后,很多博主拍摄了测评视频。但在受访的法律人士看来,ChatGPT的强大功能也隐含着不少法律风险。近日,多家国内学术刊物针对ChatGPT发声。ChatGPT火爆背后有何法律风险究竟是怎么一回事,跟随小编一起看看吧。

ChatGPT火爆背后有何法律风险

调查动机

最近,由美国人工智能研究室OpenAI开发的全新“聊天机器人”ChatGPT火了。作为一款人工智能语言模型,它不仅能和人展开互动,还可以写文章、制定方案、创作诗歌,甚至编写代码、检查漏洞样样精通,上线仅两个月全球活跃用户破亿。

对此,有人直呼“太好用了,你要什么它就给什么”,也有人担忧“一些工作将被它取代”。

ChatGPT的问世掀起了新一轮人工智能浪潮,但其使用过程中可能涉及的法律问题不容忽视,记者对此进行了调查采访。

□ 本报记者 韩丹东

□ 本报实习生 王意天

ChatGPT火了,在国内连续多日冲上热搜榜,一时与ChatGPT相关的各种信息遍布网络。

ChatGPT全称“Chat Generative Pre-trained Transformer”,按照其自我介绍,它是一个由OpenAI训练的大型语言模型,被设计用来回答各种问题并为人们提供帮助。

人工智能、人机交互、自动问答……与ChatGPT相关联的各种“高大上”的形容词让不少人感到好奇:ChatGPT到底能干什么?是否真的像一些人担忧的那样,可以取代文本创作等类型的工作?

《法治日报》记者近日采访发现,ChatGPT的火爆背后暗藏法律风险隐患。人工智能在给人们的生活增添乐趣、提供便利的同时,其信息真伪、知识产权等法律风险也愈发受到关注。另一方面,不少人盯上了其热度想“搭便车”牟利,出现了大批“山寨”产品和账号转卖行为。

存在信息泄露风险

可能侵犯知识产权

ChatGPT爆火后,很多博主拍摄了测评视频。不少人给出评价称,面对一些提问,ChatGPT反应速度、准确性较高,表现甚至优于一些搜索引擎。但ChatGPT的回答通常是笼统的、整合性的回答,而不是具有个性色彩的、创新性的回答。

公开资料显示,ChatGPT可以总结研究论文、回答问题、生成可用的计算机代码,甚至快速通过美国医学执照考试、沃顿商学院的MBA期末考试、司法考试。一些医学论文预印本和已发表的文章甚至正式赋予了ChatGPT作者身份。

但在受访的法律人士看来,ChatGPT的强大功能也隐含着不少法律风险。

“ChatGPT对信息、数据来源无法进行事实核查,可能存在个人数据与商业秘密泄露和提供虚假信息两大隐患。”北京盈科(上海)律师事务所互联网法律事务部主任谢连杰说。

谢连杰分析说,ChatGPT依托海量数据库信息存在,其中包括大量的互联网用户自行输入的信息,因此当用户输入个人数据或商业秘密等信息时,ChatGPT可能将其纳入自身的语料库而产生泄露的风险。虽然ChatGPT承诺删除所有个人身份信息,但未说明删除方式,在其不能对信息与数据来源进行事实核查的情况下,这类信息仍然具有泄露风险。

其次,人工智能生成的信息并不总是准确的,ChatGPT常常出现“一本正经地胡说八道”的情况,需要一定的专业知识才能辨别真伪;也可能有不法分子恶意“训练”人工智能,使其提供诈骗信息、钓鱼网站等内容,损害公民人身财产安全。

“对于这类隐患,平台应充分提示用户其生成的内容可能为虚假信息,且在其生成疑似违法信息时进行拦截或提示用户存在安全风险。”谢连杰说。

泰和泰(重庆)律师事务所高级合伙人朱杰说,ChatGPT在建立语料库、生成文本时,如果使用并非公开的开源代码、使用开源代码商用未办理许可证或者未按照许可证的要求实施的,可能会导致侵权。

他解释说,这类人工智能主要是通过挖掘人类日常交流以及文本,进而统计分析,因此,对于一些受著作权保护的文本、视频、代码等,如果没有经过权利主体的授权,直接获取复制到自己的数据库中,并在此基础上修改、拼凑,极可能侵害他人的著作权。

2019年,国际保护知识产权协会(AIPPI)发布《人工智能生成物的版权问题决议》,认为人工智能生成物在其生成过程中有人类干预,且该生成物符合受保护作品应满足的其他条件情况下,能够获得保护,对于生成过程无人类干预的人工智能生成物无法获得版权保护。

近日,多家国内学术刊物针对ChatGPT发声。《暨南学报(哲学社会科学版)》发布关于使用人工智能写作工具的说明提到,暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在论文创作中使用过相关工具,需单独提出,并在文章中详细解释如何使用以及论证作者自身的创作性。如有隐瞒使用情况,将对文章直接退稿或撤稿处理。《天津师范大学学报(基础教育版)》发布声明,建议作者在参考文献、致谢等文字中对使用人工智能写作工具(如:ChatGPT等)的情况予以说明。

朱杰认为,ChatGPT生成的文本等内容是基于大量数据的统计和应用生成的,不具有自己的思想和创新,很难构成著作权法保护的作品。

谢连杰提到,ChatGPT的文本数据挖掘技术可能导致其在他人享有著作权的作品中“借鉴”部分内容。对于这部分内容,若不能构成我国著作权法所规定的“合理使用”的情形,则可能引发侵权纠纷。

借势贩卖租赁账号

“搭便车”山寨频出

ChatGPT走红后,由于服务端对中国大陆的IP有限制,无法注册使用,其账号一时在国内多个网购平台、社交平台上销售火热。在某电商平台上售卖成品账号的店铺,一天之内多达万人付款,价格最低1.68元。

记者在一家名为“ChatGPT账号供应商”的店铺购买了账号,商家随后私聊发来账号和密码,并特别标注输入时需要复制粘贴,还附有登录教程。登录后,记者发现这是一个多人共享账号,左侧聊天栏已经存在许多聊天窗口,系统运行十分缓慢,不一会记者就被提醒不能多人同时提问。

记者发现,某电商平台上,多数商家售卖的都是共享账号,而单人定制账号或者代注册账号的价格往往更高。

近日,多个电商平台对ChatGPT账号销售行为进行了查禁,相关关键词被屏蔽。记者先前账号订单显示商品不存在,进入到商家界面发现,所有的商品均已下架。

然而,记者在社交平台上搜索“ChatGPT账号”等关键词发现,仍有不少网友在提供代注册、有偿账号分享服务,围绕ChatGPT账号展开的买卖行为仍在野蛮生长。

朱杰认为,这种买卖行为可能构成非法经营等违法行为。ChatGPT的正版服务由境外机构提供,而未经我国相关部门批准利用VPN跨境提供经营活动是被明确禁止的,所以国内这些代问、代注册的商家以营利为目的,搭建或使用VPN进行注册账号,未办理国家相关行政许可,擅自经营买卖国外账号,可能会受到行政处罚甚至刑事处罚。

ChatGPT账号价值被炒作成商品以外,借其名称热度“搭便车”的牟利行为也大量出现。近日,记者查询发现,以“ChatGPT”“智能问答”等字眼作名称的小程序、公众号数量激增,不少小程序都显示有“1000+人最近使用”。

记者使用其中一些小程序后发现,这些产品不仅和ChatGPT毫无关系,而且大多以免费试用为噱头,吸引用户注册使用后,再推出收费服务,最终目的是诱人充值以牟利。例如,一个名为“××超级AI”的公众号中提到,可以为用户提供ChatGPT中文版的服务,小程序界面有不同的服务类型,从“AI情感问题”到“AI程序助手”,用户可以选择与不同的AI聊天。

可当记者点击进入“AI情感问题”一栏,还未进行任何操作,对话框就显示记者“已经用完今天的免费次数”,后续体验需要购买VIP,分别为19.9元的一天会员、199元的月度会员与999元的年度会员。

朱杰说,“山寨”软件打着正版软件的旗号进行宣传,欺骗消费者进行下载,可能构成虚假广告;同时,“山寨”软件使用的名称及标志如与正版软件相同或相似,引导他人误认为与正版存在特定联系,可能构成反不正当竞争法中规定的商业混淆行为,将受到行政处罚。

法律规范必不可少

部门监管精细治理

ChatGPT浪潮澎湃,其背后暴露出的人工智能法律风险、围绕ChatGPT展开的无序商业行为亦汹涌来袭,如何应对成为关注焦点。

上海政法学院人工智能法学院副教授郭金兰告诉记者,我国算法行业在此前的标准制定时已经初步尝试了以场景和架构为基准的思路。

2018年7月,中国科学院软件研究所联合15家产学研单位共同编制首个国内人工智能深度学习算法标准《人工智能深度学习算法评估规范》。这一规范基于深度学习算法可靠性的内部和外部影响,结合实际应用场景,确定了由7个一级指标和20个二级指标组成的算法可靠性评估指标体系,做了场景化和精细化算法治理实践的有益尝试。

2022年出台的《互联网信息服务算法推荐管理规定》中明确要求,人工智能的算法应当坚持社会主义主流价值观,不能利用算法危害国家安全和社会公共利益、扰乱经济秩序和社会秩序、侵犯他人合法权益。今年1月10日起施行的《互联网信息服务深度合成管理规定》中明确,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。

随着人工智能产品不断迭代升级,未来对相关产品该如何进行监管与应对?

郭金兰认为,对人工智能监管,需要深入人工智能系统的整个生命周期,从模型的建立、语料库的标注、模型训练、投放市场后的迭代进化直到系统退出使用。监管需要关注到每个具体的环节,包括语料库的筛选标准制定、参与人工标注的人员培训,开发者的价值观考察等。

“对ChatGPT这类生成式人工智能的监管必须将算法监管和数据监管结合起来。在算法监管机制的未来探索中,应充分考虑算法决策的主体类型和作用类别,探索场景化和精细化的算法治理机制。”郭金兰建议说。

朱杰建议,国家应当加强对人工智能的伦理规制,将伦理道德纳入人工智能研发和应用的全过程,增强全社会人工智能的伦理意识和行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展。

(法治日报)

ChatGPT火爆背后有何法律风险相关阅读:

恋爱中的人如何反PUA?今天,记者和ChatGPT聊了聊

ChatGPT火爆背后有何法律风险

图片来源:摄图网

最近,一款新的聊天机器人火了。它既能写代码写作业,能做题写剧本,还能回答各类话题——它就是美国人工智能研究公司OpenAI刚刚推出的人工智能聊天程序ChatGPT。

究竟什么是ChatGPT?这款被称为“全能AI”的软件到底有多能整活?今天,《方圆》记者和ChatGPT进行了一场对话,聊了聊关于爱、永恒和法律的问题。

爱是永恒的吗?

ChatGPT火爆背后有何法律风险

(注:文章配图系《方圆》记者委托国外同学提问并截图)

首先,爱是永恒的吗?从法律的角度看,它是一种不可抗力吗?

可以说,ChatGPT的回答的还是不错的,所以提问开始增加难度,比如偷走别人的心是否构成盗窃罪,结婚是否相当于被判处一辈子无期徒刑?

ChatGPT火爆背后有何法律风险

ChatGPT火爆背后有何法律风险

“偷走别人的心属于不道德行为,但不能简单地被视为盗窃”“结婚是一种愿意和彼此共同生活的决定”……ChatGPT的回答令人眼前一亮,最后,我们还请ChatGPT给恋爱中的人们提了几个反PUA(PUA,全称"Pick-up Artist",原意是指"搭讪艺术家",其原本是指男性接受过系统化学习、实践并不断更新提升、自我完善情商的行为,后来泛指很会吸引异性、让异性着迷的人和其相关行为)的小建议。

ChatGPT火爆背后有何法律风险

什么是ChatGPT

从简单的体验中,《方圆》记者已感受到了ChatGPT的强大。自2022年11月底OpenAI将ChatGPT推出,仅两个月就达到了1亿月活跃用户,用户增长速度堪称史无前例。

从最初用户程序员、工程师、AI从业者,到现在无数懵懂的普通人,大家都好奇,ChatGPT究竟是什么?

中国科学院大学人工智能学院教授、亚太人工智能学会执行主席雷渠江接受《方圆》记者采访时表示,ChatGPT是基于聊天的生成预训练转换器,是由OpenAI开发的最先进的自然语言处理(NLP)模型。它是流行的GPT-3模型的变体,GPT-3模型已经在来自各种来源(如书籍、文章和网站)的大量文本数据上进行了训练。

企业和个人可以将其用于许多场景,如新闻文章、小说和诗歌的文本生成,总结较长的文件或文章,编辑故事,生成产品描述、博客文章和其他内容类型等。

“ChatGPT具有巨大的创新性,在很多方面都可以成为人们工作和生活的强有力助手。它利用从大型文本语料库中所学到的内容,可以自主生成文本,帮助用户找到问题的答案。ChatGPT除了能够模拟自然对话外,还能够执行写邮件、视频脚本、文案、翻译等任务。”雷渠江指出,ChatGPT还处于早期发展阶段,引发的担忧和风险相伴而来。

北京师范大学新闻传播学院院长张洪忠在接受《方圆》记者采访时表示,对我们国家来说,除了上述风险,ChatGPT还带来巨大的技术差距,更应该思考在人工智能领域我们能否用大计算来生成这样的大产品。

不过,在对社交机器人的长期跟踪研究中张洪忠发现,社交机器人已经在社交媒体中大规模使用,存在着虚假信息、侵害著作权、泄露隐私、干扰舆论等风险。

ChatGPT可能带来法律风险

“ChatGPT能够生成类似人类的文本,因此它迅速成为广泛应用的首选工具,从语言翻译和文本摘要到问题回答等。不过也面临很多问题,如数据隐私和安全等。”雷渠江告诉《方圆》记者,比如ChatGPT这样的第三方语言模型是在大量文本数据上进行训练的,并且存在一种风险,即敏感信息可能无意中包含在模型的参数中。

因此,在使用像ChatGPT这样的语言模型时,使用适当的安全措施(如加密和安全访问控制)以及监视模型的输出以获取可能生成的任何敏感信息是非常重要的。

“另外,使用第三方语言模型还可能引起与数据隐私法、知识产权法和其他法规相关的遵从性问题。在法律框架下,充分理解ChatGPT的服务条款以及提供商添加的使用限制都是很重要的。”雷渠江进一步说道,ChatGPT也面临侵犯用户隐私的可能性,因为它未经用户同意就收集数据。

此外,机器人抓取网站可能会侵犯版权法,主要是因为它的行为就像人工智能自己提出的信息,没有引用来源。

当然,《方圆》记者也问了问ChatGPT自己这个问题。

ChatGPT火爆背后有何法律风险

ChatGPT生成的文字知识产权属于谁

就ChatGPT由生成的文字知识产权问题而言,“ChatGPT目前处于初期快速发展阶段,它的法律影响尚未实现。我个人观点认为ChatGPT生成的内容不牵涉著作权问题,它在中国也还未申请软件著作权,不排除未来很快进行申请进行软著保护。”雷渠江说。

那么,利用ChatGPT写论文、写模仿小说,所写的论文和小说知识产权能否归利用ChatGPT写论文和小说的人呢?ChatGPT是这样回答的:

ChatGPT火爆背后有何法律风险

“原论文著作所有者能否认为该行为侵权是普遍存在的问题。ChatGPT是在大量数据为基础训练出来的语言处理模型,在搜集信息和数据方面是否会侵犯个人隐私,企业和组织等数据的安全问题。同时ChatGPT搜集数据的方式是否合法也是需要思考的。”雷渠江说。

“在数据搜集方面,如果有数据是假的或者某些信息是错误的,就可能导致输出一些具有歧视性、欺骗性等结果。另外还有利用ChatGPT犯罪问题,比如犯罪分子更容易获取犯罪技巧,这将增加犯罪风险和数量。此外,还面临更深层次的伦理和道德问题——因为人工智能模型既没有伦理也没有道德,ChatGPT并不总是正确的,在数据输入、总结和输出方面会由偏差。如何平衡技术进步应用和伦理道德问题也需要思考。”

雷渠江表示,针对以上所说的问题,我们还是要在保护好数据和隐私方面做好防范,正确对待ChatGPT并加强独立思考和辩证的能力。

需警惕ChatGPT山寨版

不过,在大多数人还对ChatGPT云里雾里时,国内已涌现出了一批山寨小程序。《方圆》记者在微信平台上搜索“ChatGPT”,就能看到“ChatGPT AI”“Chat人工智能问答”等数十个公众号搜索结果,甚至还有“ChataGTP”这种“山寨版”账号。随机挑选一个,系统均提示需充值额度后才可继续使用。

在雷渠江看来,由于ChatGPT的火热,山寨版的小程序已经出现很多了,很多时候这种情况会跟诈骗,骗取个人信息等手段联系在一起。我们在使用的时候一定要擦亮眼睛,使用正版程序。在规范此类行为方面,我们应加强著作权保护意识,更加完善法律法规,进行更好的普法宣传,提高法律意识。

“同时,行业组织也可以在规制山寨问题起到一定作用,比如我们亚太人工智能学会,中国人工智能学会等学术组织可以进行正确的引导,开展适当宣传等工作,引导企业和个人在正确使用ChatGPT程序,保护知识产权,避免山寨。行业组织也可以制定相应的行业标准,合理合法使用ChatGPT程序和应用场景。”雷渠江说。

(注:文章配图系《方圆》记者委托国外同学提问并截图)

本文为《方圆》杂志原创稿件,转载时请在醒目位置标明作者,并注明来源:方圆(ID:fangyuanmagazine)。

本文地址:http://www.guopangzi.net/post/38284.html
版权声明:本文为原创文章,版权归 duo 所有,欢迎分享本文,转载请保留出处!

 发表评论


表情

还没有留言,还不快点抢沙发?