ChatGPT的“创作”有著作权吗?归谁?内容安全、可靠吗?

阅读量94328

发布时间 : 2023-02-13 09:56:05

 

ChatGPT大热,不少人已经用它来写作业、写论文、写演讲稿……ChatGPT快速高效的内容创作能力也让不少人惊呼,内容创作是不是要被AI取代了?

然而,乐此不疲地使用这项新技术生成内容的同时,我们应该思考一个问题:ChatGPT生成的内容是否有著作权?其“创作”的版权又该归谁? 这项技术的使用真的安全可靠吗?

对于上述问题,2月11日,《每日经济新闻》记者对话奋迅律师事务所(贝克·麦坚时联营律所)合伙人周整、泰和泰律师事务所首席合伙人程守太、安杰世泽律师事务所合伙人于雯竹以及上海明伦律师事务所律师王智斌,进行了探讨。

有没有著作权?

在某销售ChatGPT账号的淘宝商家的用户评价中,《每日经济新闻》记者发现,有购买者的诉求是使用ChatGPT写论文。2月9日,每经刊发的报道也显示,国内高校已经有学生开始使用ChatGPT写论文。

今年1月初,美国北密歇根大学的学生利用ChatGPT写作论文的事件还历历在目,ChatGPT给美国教育体系带来的冲击显而易见:许多大学正在对课堂进行大规模的调整,纽约和西雅图等学区已禁止在其设备和网络中使用ChatGPT。

随着越来越多的人使用该技术来生成内容,一个问题是,ChatGPT生成的内容会产生著作权吗?

安杰世泽律师事务所合伙人于雯竹向每经记者表示,在中国,根据相关判决,一个作品享有著作权的前提之一是由自然人创作。“因此,如果ChatGPT生成内容的创作过程中表现出了自然人作者(即ChatGPT的用户)的个性化判断、取舍、风格等写作安排,且ChatGPT生成内容满足了著作权法的其他要求(比如独创性),则ChatGPT生成的该内容可认为是著作权法意义上的作品,享有著作权。”

不过,奋迅律师事务所合伙人周整则告诉记者,关于AI创作的作品是否具有独创性,目前尚无定论。他给出了两个案例,“我国司法实践中存在不同的观点。在腾讯诉盈讯案中,腾讯利用智能写作Dreamwriter创作的文章被盈讯发布在互联网上,深圳南山区法院认可了该文章著作权人为腾讯。”

“但在菲林律所诉百度公司案中,菲林利用某家智能可视化软件自动生成报告,而北京互联网法院拒绝承认菲林对该报告享有著作权,并称在自动生成报告中简单的数据选择和图像选择并不足以具有独创性,”他说道。

“创作”的版权属于谁?

另一个问题是,ChatGPT生成的论文若有著作权,应当属于谁?对于这一点,律师间也有一些不同的看法。

周整认为,可以参考腾讯案中的观点,即AI软件生产的作品的著作权应归属于该软件的所有者。他表示,“因为ChatGPT生成内容的原理是参考现有互联网内容并按照用户指令生成解答,而ChatGPT这个软件本身就是作品,具有著作权,我们可以认为其形成解答内容的过程是通过内部的无数模板完成的,这些模板本身也可能构成具有独创性的表达,受到著作权保护。”

在于雯竹看来,根据OpenAI的使用条款中规定,在用户遵守相关条款和法律法规的前提下,OpenAI 将其对ChatGPT 所输出内容的所有权利、所有权和利益转让给用户,这其中就包括了著作权。“当然,前提是ChatGPT生成的内容被认定为‘作品’,享有著作权,”她补充说道。

泰和泰律师事务所首席合伙人程守太告诉记者,ChatGPT属于人工智能,其并非属于我国著作权法意义上的作者,其生成的内容是否享有著作权、由谁享有著作权还存在争议。

“一般来说,AI生成的内容具有独创性并能以一定形式表现的即享有著作权,”程守太说道,“但根据ChatGPT的服务条款可知,只有该聊天软件独有的‘输出内容’才发生著作权的转让,该规定在一定程度上保护了ChatGPT,但对于用户来说增加了极大的不确定性。在后续传播过程中,也会出现权利链条不清晰,权利人不清晰的问题。”

不过,对于利用ChatGPT写作论文的情况,前述三位律师都认为,有较大可能会出现侵权问题。

“因为AI生成内容的基础是海量分析互联网上的现有信息和内容,其中当然包括受到著作权法保护的作品。基于他人作品,并通过模仿他人表达方式生成的结果,具有侵权风险的可能性较大。但随着人工智能技术的发展,可能以后会绕开跟现有作品同样的表达,从而规避侵害著作权的风险,”周整告诉《每日经济新闻》记者。

生成内容安全可靠吗?

ChatGPT的强大令许多人啧啧称奇,关于其生成内容的安全性也开始引发思考。

第一是内容准确性问题。“ChatGPT生成内容的准确性无法保障。用户随手将网上看到的内容、观点上传到平台,ChatGPT在用户海量信息提取的过程中自主学习进化,此种数据来源不够真实准确,”程守太告诉记者,“ChatGP也存在虚假信息回复问题,此种虚假回复应用在商业中会造成严重后果,甚至有法律风险。”

鉴于此,ChatGPT极容易被虚假信息误导。据《纽约时报》2月8日报道,研究人员测试了ChatGPT在被问及充满阴谋论和虚假叙述的问题后会写些什么,结果非常令人不安。NewsGuard的联合首席执行官Gordon Crovitz表示:“该工具能够以超乎想象的规模生成虚假信息,而且频率很高,它可能将成为互联网有史以来最强大的错误信息传播工具。”

第二是容易被不法者利用的问题。上海明伦律师事务所律师王智斌告诉每经记者,“问题的另一面是,使用者失去了自行查阅不同搜索结果并自行判断的机会。从这个角度而言,ChatGPT更容易实现信息和答案的垄断,也更容易成为舆情的操纵工具,”他说道。

据《纽约时报》,提供网络威胁情报的组织Check Point Research发现,网络犯罪分子已经在尝试使用ChatGPT创建恶意软件。该组织工程主管Mark Ostrowski表示,虽然黑客攻击通常需要高水平的编程知识,但ChatGPT为新手程序员提供了帮助。

第三还可能存在数据安全的问题。程守太表示,“ChatGPT将网络交互获取的数据转化为自己的知识图谱或者存入知识库,并上传至相应运营公司数据平台。其数据获取途径和获取方式是否合法合规,数据的合理使用范围、使用边界问题、恶意利用问题,还需结合不同地区法律具体分析。”

同时,他认为,“用户和ChatGPT交互的过程中,ChatGPT获取大量用户或者业务相关数据,若用户在聊天时输入了涉密信息,ChatGpt会识别信息并存在后台,可能会导致侵犯个人信息,泄露个人隐私、商业秘密以及国家机密。”

第四需要注意价值导向的问题。在程守太看来,ChatGPT生产的内容是基于全网的数据和算法分析处理所得到的,与我国主流媒体的话语体系存在一些不兼容之处,尤其是互联网企业、媒体使用时更需要考虑背后价值导向。

本文转载自: nbd.com.cn

如若转载,请注明出处: https://www.nbd.com.cn/articles/2023-02-11/2664852.html

安全客 - 有思想的安全新媒体

分享到:微信
+10赞
收藏
安全客
分享到:微信

发表评论

内容需知
  • 投稿须知
  • 转载须知
  • 官网QQ群8:819797106
  • 官网QQ群3:830462644(已满)
  • 官网QQ群2:814450983(已满)
  • 官网QQ群1:702511263(已满)
合作单位
  • 安全客
  • 安全客
Copyright © 北京奇虎科技有限公司 360网络攻防实验室 安全客 All Rights Reserved 京ICP备08010314号-66