AI发展快,系紧“安全带”(“融”观中国)

光山新闻网 采集侠 2024-06-16 23:24:01
浏览

AI发展快,系紧“安全带”(“融”观中国)

 

  在北京举行的全球数字经济大会上,参观者体验智能安全帽。
  陈晓根摄(人民视觉)

 

AI发展快,系紧“安全带”(“融”观中国)

 

  在瑞士日内瓦举行的“2024人工智能造福人类全球峰会” 聚焦人工智能监管与治理等议题,现场展览的绘画机器人吸引众多参会者目光。
  新华社记者 连 漪摄

 

AI发展快,系紧“安全带”(“融”观中国)

 

  安徽省含山县姚庙中心学校为学生们开展网络安全等宣讲活动。
  欧宗涛摄(人民视觉)

 

AI发展快,系紧“安全带”(“融”观中国)

 

  在福建福州举办的网络安全博览会上,市民体验数字货币购物功能。
  王旺旺摄(人民视觉)

 

  AI“换脸”实施诈骗、AI伪造图片传播谣言、AI“复活”逝者引发争议……随着人工智能技术的不断发展,AI深度伪造的例子屡见不鲜。不少网民惊呼,以前总说“有图有真相”,如今我们连图片和视频也不敢轻易相信了。

  AI深度伪造是怎么回事?该如何防范相关风险?用户、平台、监管、司法等社会各界该如何形成合力,建立生成式AI信息安全规范? 我们对此进行了采访。

  

  “眼见不一定为实”

  关于AI深度伪造的热点事件,正引发全世界广泛关注。

  今年1月,美国一位流行歌手被人用AI恶意生成虚假照片,在社交媒体迅速传播,给歌手本人造成困扰。2月,香港一家公司遭遇“AI变脸”诈骗,损失高达2亿元港币。据悉,这家公司一名员工在视频会议中被首席财务官要求转账。然而,会议中的这位“领导”和其他员工,实际都是深度伪造的AI影像。诈骗者通过公开渠道获取的资料,合成了首席财务官的形象和声音,并制作出多人参与视频会议的虚假场景。

  基于深度合成技术引发的侵权案例,常见的手法是冒充熟人实施电信诈骗。不久前,江苏句容的杨女士,在收到自己“女儿”多条要求缴纳报名费的语音后,向骗子账户转账3.5万元。相关办案民警反复提醒:“遇到转账一定要慎之又慎,眼见不一定为实。”

  “深度伪造技术利用AI深度学习功能,实现图像、声音、视频的篡改、伪造和自动生成,产生以假乱真的效果。”上海人工智能研究院院长宋海涛给公众应对深度伪造支了三招:一是掌握甄别AI“换脸”的简单技巧,比如要求对方在视频对话时在脸前挥挥手,看是否出现图像扰动等;二是学会使用检测深度伪造的工具和软件;三是保持合理怀疑。“保持谨慎和警惕,是公众应对AI造假的第一道防线。”宋海涛说。

  “用技术治理技术”

  如何把生成式AI的强大能力用于建立信息安全规范,将制约行业发展的“绊脚石”变为“压舱石”?业界一直在探索“用技术治理技术”的方案。

  瑞莱智慧是清华大学人工智能研究院孵化的企业,专攻人工智能安全领域。瑞莱智慧总裁田天介绍,其公司研发的生成式人工智能内容检测平台,支持多种合成类型的图片、视频、音频、文本的真伪检测,应用场景包括打击网络诈骗和声誉侵害行为、检测网络内容合规性、检测音视频物证真实性等。

  “利用AI技术治理AI犯罪,本身也是一个不断博弈的过程。”田天介绍,“红队测试”是目前生成式AI治理的重要手段,旨在通过模拟攻击者行为,对目标系统进行全面网络攻击,针对性地发现、修补潜在系统漏洞,使模型在面向公众开放前,充分接受安全技术检验。视频合成AI平台Sora,在上市前就曾邀请数名从事信息安全漏洞研究的专家充当红队进行对抗测试,找出相当数量的安全漏洞。