AI代写论文现象如何科学治理(3)
作为使用者的人类本身也在不断“进化”。“类似人们逃避查重的方式,如果人们了解到AI检测的方式,也可以重新组织相关内容,对AI生成的文本进行人工润色。这样很可能就检测不出来了。”沈锡宾说。
作弊与反作弊的过程,实质上是场“猫鼠游戏”。只要技术不断升级,两者间的博弈就不会停止。目前,AIGC检测技术仍处在萌芽期。如何对AI生成的虚假图片、虚假数据进行识别仍是难点。因此,人们引入智能检测技术的同时,也要建立人工审查机制。
“审稿人要当好‘守门人’,发挥同行评议的作用,仔细甄别判断论文的数据是否和认知存在偏差。出版机构也可以要求作者提供原始数据,多管齐下,确保科研诚信。”沈锡宾说。
技术向善要他律更要自律
加强技术治理的同时,各方都在翘首以盼,期待达成某些共识以及相关政策尽快出台。“教育、科研、出版各方都很关注AIGC使用的边界,期待对合理使用AIGC形成一个共识性规范。”知网技术专家呼吁。
其实,早在去年初,中国科学技术信息研究所(以下简称中信所)就牵头爱思唯尔、施普林格·自然、约翰威立等国际知名出版集团和科研信息分析机构,在广泛调研并梳理业内相关研究和探索工作的基础上,完成了中英文版的《学术出版中AIGC使用边界指南》(以下简称《指南》),并于去年9月20日在国内外同步发布。
去年12月21日,科技部发布的《负责任研究行为规范指引(2023)》(以下简称《指引》)更是受到了业内的广泛关注。
《指引》和《指南》就如何负责任地使用AIGC,解答了令科研工作者、期刊编辑、审稿人困惑的一些问题。
首先是披露问题。《指引》提出,使用生成式人工智能生成的内容应明确标注并说明其生成过程,确保真实准确和尊重他人知识产权。《指南》中更是提供了声明的模板,供科研人员参考。
对于一些人想用AIGC投机取巧的行为,《指引》明确提出,不得使用AIGC直接生成申报材料;《指南》规定,AIGC不应该用来产生研究假设、直接撰写整篇论文文本、解释数据、得出研究结论。研究人员使用的数据必须是研究人员进行实验并收集所得,如使用AIGC提供的统计分析结果需进行验证。
随着AIGC的使用边界不断清晰,越来越多的出版机构达成共识,制定了使用规范。施普林格·自然集团发言人介绍说,他们目前已经明确了有关作者身份和图像方面的规定。例如,人工智能不能担任作者,真正作者如使用大语言模型须加以透明描述,AI生成的图像通常不能用于发表等。
“《科学》杂志在去年1月份发布的政策是禁止使用任何AIGC工具。而11月16日他们更新了投稿规则、放宽了限制,表示只要进行了适当披露,使用工具是可以接受的。”中信所博士郑雯雯说道。
“《指引》覆盖较为全面,对AIGC的使用总体呈现出平衡包容、敏捷治理的态度,而非一味禁止。这也说明治理的目的并不是阻止科研工作者使用新一代人工智能技术,而是让科研工作者能够负责任地去使用。”梁正提到,在政策制定的行为框架之下,还要关注学科差异问题。“使用AIGC可能因学科的不同而有所差异,其伦理问题也要根据学科特点细化。”
例如,在自然科学领域;AIGC的强大功能更多体现在数据处理领域,如果失范使用,往往难以发现。而对于人文社科领域,直接使用AIGC生成内容的痕迹非常容易被发现,尤其是在高水平的研究当中,优劣之分更为明显。
“因此,对于更加注重文字表达、数据资料支持的学科,比如企业管理、理工科、医学等,需要防范产生虚假的数据集或论证材料。”梁正说,“对AIGC使用的披露程度、疑似度的数据指标等,都需要学术共同体进一步探索,来推动形成广泛共识。”