明确“不适用”场景 充分“松绑”AI发展
今年以来,国内人工智能领域爆发“群模大战”,业界三句话不离“大模型”;
截至今年5月底,国内10亿参数规模以上的大模型已发布79个;
与人“对话”、翻唱歌曲、编写剧本、撰写合同,生成式人工智能(AIGC)不断刷新人类认知,照进现实生活……
生成式人工智能技术,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。发展一路“狂飙”的同时,生成式人工智能应用也伴生了真假难辨、换脸诈骗等诸多乱象。
近日,为促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益,国家网信办等七部门联合公布《生成式人工智能服务管理暂行办法》(以下简称《办法》),自2023年8月15日起施行。
中央网信办、国家网信办总工程师孙蔚敏7月18日在厦门举办的“2023年中国网络文明大会”算法治理论坛上表示,出台《办法》,坚持发展与安全并重,既鼓励创新,又依法治理,坚持包容审慎、分级分类的思路,以安全促发展,以发展保安全。
如何用好法治之“舵”、创新之“桨”,更好地释放生成式人工智能创新活力,指引人工智能产业发展行稳致远?对此,人民网记者采访了相关行业专家。
提出“不适用”场景 为创新发展留足空间
与今年4月发布的《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)相比,《办法》在规制对象上作出了调整。
《办法》第二条明确提出了“不适用”场景,即“行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等研发、应用生成式人工智能技术,未向境内公众提供生成式人工智能服务的,不适用本办法的规定。”
“此提法可以讲是一个重大突破。”传播内容认知全国重点实验室研究员郭俊波指出,这说明《办法》的目的是兼顾生成式人工智能的发展与安全,为生成式人工智能的研究与发展留足空间。
他同时指出,与《征求意见稿》相比,《办法》依据的法律还增加了《中华人民共和国科学技术进步法》,更加突出了其目的是促进生成式人工智能健康发展和规范应用。
北京大成律师事务所高级合伙人肖飒也坦言,《办法》提出“不适用”场景 ,让规制对象目标更明确、针对性更强,体现出我国对生成式人工智能在研究与应用方面的支持和鼓励。
此外,《办法》在处罚措施方面也较为“柔和”。《办法》第二十一条提出,提供者违反本办法规定的,由有关主管部门依照《中华人民共和国网络安全法》等法律、行政法规的规定予以处罚;法律、行政法规没有规定的,由有关主管部门依据职责予以警告、通报批评,责令限期改正;拒不改正或者情节严重的,责令暂停提供相关服务。
“第二十一条采用的是逐渐加重的处罚措施,允许服务提供者不断完善修正,而不是简单的‘一棍子打死’。”郭俊波认为,生成式人工智能的应用范围极广,充分“松绑”将有助于推动人工智能领域各组织机构快速进行技术革新,并探索技术在各应用场景下的磨合与演进,进而促进生成式人工智能产业繁荣发展。
划出“红线”、明确“标识” 力保个人信息安全
前段时间,我国某地警方公布,有诈骗分子运用人工智能技术,通过换脸视频与受害者进行视频通话,十多分钟内诈骗受害者数百万元。随着人工智能与日常生活场景结合越来越密切,在此基础上产生的隐私泄露、造谣诈骗等问题也不断凸显。对此,《办法》将保护使用者的个人信息安全摆在了重要位置。