系好“安全带”,生成式人工智能才会更好发展(2)
在今年的全国两会上,科技部相关负责人亦专门强调,“将把人工智能作为战略性新兴产业和新增长引擎”,在推动人工智能基础研究、应用推广、开放合作等方面继续给予大力支持,并同时推动建立人工智能安全可控的治理体系。
齐佳音指出,此次公布的《管理办法》为AIGC的研发和应用划出了底线和红线,即提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗。同时,明确了AIGC的“提供者”对研发和应用负有责任,即利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人需要对包括产品应用、安全评估、算法合法性、数据合法性等承担责任。此外,《管理办法》还为AIGC的研发和应用提供了纠偏机制。包括持续优化纠偏、AIGC标识提示、可审查机制、监管引导机制、终止服务机制和惩戒处罚机制。
“《管理办法》为AIGC的研发和应用第一次立了规矩,使得AIGC的研发和应用有了规制框架,对于规范和引导这一领域的发展具有十分重要的积极作用。”齐佳音说。
专家呼吁进一步重视潜在风险
记者注意到,此次《管理办法》也对一些可能出现的衍生问题提出防范举措,如,要求利用生成式人工智能生成的内容“应当体现社会主义核心价值观”、防止各类歧视、“不得利用算法、数据、平台等优势实施不公平竞争”“采取措施防止生成虚假信息“防止伤害他人身心健康”等。
“这一点非常值得关注。”齐佳音解释说,以ChatGPT为例,其具有强大的类人化自学习能力和交互式文字处理能力,自动化语言生成带有强烈的类人化语言风格,这让ChatGPT有可能摆脱单一的技术身份而拥有了类人化社会角色,成为深度参与和介入社会关系的“代理”。如果不加以限制,AIGC带来的“人-机”社会互动将有可能代替真实的“人-人”社会交往,成为干扰人类真实社会关系的核心要素,这将带来技术的异化和人的异化,是必须要加以防范的。
叶蓁蓁指出,AI平台是有立场的,AI生成的内容是有导向的,所谓“技术中性”是不存在的。因此,无论是喂养人工智能的语料数据,还是模型本身的算法,都必须高度关注其政治方向、舆论导向和价值取向问题。不能放任AI脱离人类视野,不能无视AIGC“生成即传播”特性的潜在风险,要积极探索AI应用和治理之道。
在AIGC价值观培养方面,清华大学教授沈阳建议:应该有更多“人的介入”。其中关键是要为大语言模型提供更多的解释性语料,这对于修正AI的价值观偏见以及知识成见非常重要。
据了解,目前人民日报社主管、依托人民网建设的传播内容认知全国重点实验室已初步建立了AI意识形态风险评测体系。该体系就采用了人机协作的方式进行测评。
为从源头上防止“技术脱轨”,在制度建设方面,4月4日,科技部在《科技伦理审查办法(试行)》征求意见公告中提出,从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。
沈阳表示,每一个AIGC平台都应设有伦理审查委员会,以确保其在发生大规模涌现时,符合法律道德和伦理规则。“我们现在对于训练师、心理师、伦理师、提示师的重视程度还不够,需要进一步提升。”
齐佳音指出,随着技术的快速发展,相关规章制需要持续优化,建议后续进一步推出AIGC安全评估规范和管理流程规范。