随着ChatGPT大热,生成式人工智能引发了各界人士的广泛关注。

有专家学者认为ChatGPT将引爆第四次工业革命,其具有里程碑意义;也有业内人士表示,这项技术由此引发的虚假及侵权内容、技术滥用也不容忽视。


(相关资料图)

而为促进生成式人工智能技术健康发展和规范应用,4月初,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,从4月11日到5月10日向社会公开征求意见。

5月9日,国内首个针对人工智能生成内容的平台规范也横空出世,作为内容平台方的抖音发布了《抖音关于人工智能生成内容的平台规范暨行业倡议》(下称《倡议》)。

对此,萨摩耶云科技集团首席经济学家郑磊对《》记者表示,发布这个倡议是一个行业性自律行为,龙头企业做出表率,有利于提升整个内容行业的自律意识,为生成式人工智能发展搭建了一个健康的发展环境。

天使投资人、知名互联网专家郭涛对《》记者表示,生成式人工智能技术受到监管的背后是当前AIGC还处于发展的早期阶段,研发与应用相关法律法规、标准体系和伦理规范等还不健全,存在隐私与数据保护风险、著作权侵权风险、深度伪造风险、失业加剧风险、歧视与偏见风险等潜在问题。

“而这种风险的核心关键是如何判定,如何监督,如何发现,因此监管可能需要一个一揽子的解决方案。”盘古智库高级研究员江瀚对本报记者表示。

倡议落地难?

《倡议》中提到,“生成式人工智能技术降低了创作的门槛,丰富了互联网内容生态。但与此同时,人工智能生成内容存在识别难的特点,也带来了虚假信息、侵权等问题。参照《互联网信息服务深度合成管理规定》等法律法规,抖音提出十一条平台规范与行业倡议。”

在平台规范方面,对于创作者、主播、用户、商家、广告主等平台生态参与者,抖音要求其在平台应用生成式人工智能技术时,发布者应对人工智能生成内容进行显著标识,帮助其他用户区分虚拟与现实,特别是易混淆场景;发布者需对人工智能生成内容产生的相应后果负责,无论内容是如何生成的;虚拟人需在平台进行注册,虚拟人技术使用者需实名认证;禁止利用生成式人工智能技术创作、发布侵权内容(包括但不限于肖像权、知识产权等)以及违背科学常识、弄虚作假、造谣传谣的内容。

对于人工智能生成内容衍生的问题的治理,抖音在《倡议》中表示,平台将提供统一的人工智能生成内容标识能力,帮助创作者打标,方便用户区分;平台将提供虚拟人的注册能力,并对已注册的虚拟人形象进行保护;平台将提供用户反馈渠道,方便用户反馈违规生成内容。

抖音表示,新技术辅助的创作应该尊重并充分保障个人权益;禁止发布违规内容,无论该内容是否采用新技术辅助创作;新技术辅助的创作应该避免虚假信息的生产传播。

值得注意的是,在《倡议》中,抖音对互联网全行业提出倡议,“各生成式人工智能技术的提供者,均应对生成内容进行显著标识,以便公众判断。同时使用统一的人工智能生成内容数据标准或元数据标准,便于其他内容平台进行识别。”

对此,郑磊表示,发布这个倡议是一个行业性自律行为,龙头企业作出表率,有利于提升整个内容行业的自律意识,为生成式人工智能发展搭建一个健康的发展环境。

同时,江瀚也指出,“该行业倡议代表的是对原创生态体系的一种维护,这种维护对市场意义很大,特别是对保护原创作者的权益有比较重要的积极性。”

从倡议落地的难度来看,江瀚表示,这个倡议的行业落地难度并不小,“因为视频制作内容是否‘原创’,现在并没有一个真正的评价标准。同时,AI在其中扮演何种角色,是视频创作者、剪辑者?不同角色对视频的判断也是存在不同问题的。此外,就审核而言,AI内容包括虚拟数字人越来越多,审核难度也越来越大。”

同时,财经评论员张雪峰也对本报记者表示,因生成式人工智能技术的监测和审核难度较高,该行业倡议的落地难度较大,“其监测难度在于,虚拟内容难以与真实内容区分,需要依靠高级算法和技术手段进行监测;审核难度在于,虚拟内容的创作和发布速度快,需要快速反应和处理。”

如何监管?

“当前,AIGC还处于发展的早期阶段,研发与应用相关法律法规、标准体系和伦理规范等还不健全,存在隐私与数据保护风险、著作权侵权风险、深度伪造风险、失业加剧风险、歧视与偏见风险等潜在问题。”郭涛表示。

就AIGC版权问题,据记者梳理,目前国内有两起相关案件,但判决结果却大相径庭。2018年,在北京菲林律师事务所诉百度的案件中,法院认为,原告利用法律统计数据分析软件生成的分析报告,非自然人创造,不能被认定为著作权法意义上的“作品”。

而在2019年,腾讯诉盈讯科技的案件中,法院又提出,腾讯机器人Dreamwriter作为创作工具,涉案文章的创作过程体现了原告的创作议题,是原告主持创作的法人作品。

实际上,这两起案件的判决结果正是体现出了AIGC版权的争议问题。

除此之外,AIGC引发的数据安全问题也备受关注。据了解,3月20日,多名ChatGPT用户表示看到其他人与ChatGPT的对话记录、电子邮件。OpenAI首席执行官Sam Altman发文称,系开源库出现错误导致部分聊天记录标题泄露,“对此我们感到很难过”。3月31日,意大利数据保护机构(Garante per la protezione dei dati personali,GPDP)宣布,即日起禁止使用ChatGPT,并开始立案调查。

针对上述风险,张雪峰表示,生成式人工智能的监管难点在于技术和法律。技术监管需要依靠高级算法和技术手段进行监测和审核,以及建立完善的风险预警机制;法律监管需要加强对虚拟内容的知识产权保护和侵权行为的打击,完善相关法律法规和监管机制。同时,还需要加强行业自律,促进行业健康发展。

在郭涛看来,政府有关部门需要尽快建立健全AIGC研发与应用相关法律法规和标准体系,建立或完善伦理审查制度和监管体系,加强对科技企业、应用场景、使用者的监管,搭建多方参与协同治理平台,推动AIGC产业健康可持续发展。

推荐内容