生成式人工智能服务在带来生产力巨大变革的同时,也存在算法偏见、信息泄露、内容造假等安全隐患。近日,国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》),对生成式人工智能服务进行了框架性规范。
《征求意见稿》释放了哪些信号?系好“安全带”,对生成式人工智能健康发展和规范应用有何作用?“强观察”栏目记者就此采访了中国科学技术大学网络空间安全学院副院长张卫明、北京大学信息化与信息管理研究中心主任黄文彬。
既划定界限也有发展空间
(相关资料图)
生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。近来大火的ChatGPT即属于此类技术。
《征求意见稿》的公布,距离2022年11月30日对话式AI模型ChatGPT的发布不足5个月时间,如此高效出台,释放什么信号?
在张卫明看来,这种高效监管显示出国家层面对生成式人工智能的支持与重视。《征求意见稿》提出多维监管意见,强调保护,防止“滥用”,有助于国内生成式人工智能服务健康发展。“《征求意见稿》明确提出,‘国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作’,制定本办法的目的是‘促进生成式人工智能健康发展和规范应用’”。
黄文彬表示,《征求意见稿》发出了生成式人工智能需要在维护国家安全和社会稳定、保障公民和其他组织的合法权益的前提下研究发展与技术应用的信号。“这个管理办法为保护个人、国家甚至全球安全将起到重要作用。尤其是在生成式人工智能日益广泛应用的当下,人们需要足够的专业知识才能判别智能产品输出结果的真伪优劣,这些结果可能会影响个人的品德思想与行为规范。一旦出现问题,可能会对整个社会或国家产生负面影响,这种负面影响有可能超过服务提供者或用户的可控范围。”
监管措施迎头赶上
虽然生成式人工智能技术正在或即将引发生产力变革,但其产生的风险和挑战不能忽视。
比如,生成式人工智能技术会根据要求生成有说服力且有针对性的虚假信息;它还可能回答如何自杀、如何制造化学武器等可能导致严重后果的问题。诸如此类新现象,都需要监管的与时俱进。
记者梳理发现,不少国家重视生成式人工智能的监管。英国政府于3月发布了第一份人工智能白皮书,概述了人工智能治理的5项原则。当地时间3月31日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,限制其开发公司OpenAI处理意大利用户信息,并立案调查。美国商务部近日就相关问责措施正式公开征求意见,包括新人工智能模型在发布前是否应经过认证程序。
黄文彬表示,全球范围内加强生成式人工智能的监管力度,意味着数据安全和隐私保护已经成为生成式人工智能发展的重要前提。我国选择生成式人工智能作为规制对象并积极发布《征求意见稿》,这在全世界范围内都是走在前列的。
“人工智能技术存在着较大的不确定性和不可控性,应该接受严格的安全评估,需要监管来确保这些安全措施得以实施。”张卫明说,随着更多应用落地,一些潜在的风险将被认识和暴露,《征求意见稿》只是第一步。
提前布局守住“安全底线”
防止生成式人工智能滥用,在充分发挥政府监管职能的同时,也需科技企业提前布局,发挥技术能力守住“安全底线”。
黄文彬表示,生成式人工智能只是一个工具。技术本身没有好坏之分,但应用技术时需要重点考虑智能产品情境背景的适用性、使用方式的合理性和应用目的的正确性。比如,在用户相对感觉心理孤独空虚的情景下,智能产品可以提供聊天陪伴,以舒缓用户心理为目的。然而,假如该产品提供偏颇甚至具有负面倾向性的聊天内容,可能会使用户产生自杀、暴力、歧视等问题,对个人及社会产生较大的伤害。
《征求意见稿》也提出,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息;尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权;禁止非法获取、披露、利用个人信息和隐私、商业秘密等。“这些规定都是为了促进人工智能技术的健康发展和规范应用。”张卫明说。
“比如虚假信息检测技术,国外已经布局,我们的安全技术专家、安全技术企业也应尽快提出相应的技术方案。”张卫明认为,再先进的科技都需要人来使用、人来控制、人来确保安全。实施更全面的人工监管,时刻关注技术的安全性,确保其不会被滥用,才能充分发挥人工智能的潜力。