人工智能时代还需要“杀毒软件”吗?
人工智能时代还需要“杀毒软件”吗?
在人工智能时代,属于杀毒软件的“黄金年代“是不是已经过去了?
人工智能作为引领新一轮科技革命和产业变革的颠覆性技术,已经渗透到了社会生活的方方面面。可在新技术为人们生活带来种种便利的同时,其带来的的安全风险也备受关注,诸如数据泄漏、算法偏见、算法漏洞等问题,给经济和社会安全带来了多种挑战。
“安全是发展的前提,确保人工智能安全、可靠、可控,才是守卫人工智能稳健发展的根本。”瑞莱智慧CEO田天说。
4月8日,这一来自清华大学人工智能研究院的创业团队推出了国内首个针对算法模型本身安全的检测平台——RealSafe人工智能安全平台。作为人工智能时代的“杀毒软件”,该平台可提供从测评到防御完整的解决方案,快速缓解对抗样本攻击威胁。
人工智能诞生60多年来,技术取得了长足的进步,但仍存在着模型缺陷、算法不可解释性、数据强依赖性等“软肋”。
随着数据量、算力的大幅提升,未来人工智能技术的应用场景会日益增多,并且将从语音识别、人脸识别等领域逐步延伸向金融决策、工业生产运营、医疗诊断、自动驾驶等更高价值的应用领域,这将对人工智能技术的安全性、可靠性提出更高要求,提升算法安全性成为新一轮人工智能智能产业升级下的新方向。
2018年,中国信息通信研究院安全研究编制的《人工智能安全白皮书》中提到,“算法安全”是人工智能六大安全风险之一,并着重指出了“对抗样本攻击诱使算法识别出现误判漏判“这一算法模型缺陷为算法安全的重要风险项。
田天介绍,对抗样本是机器学习模型的一个有趣现象,但通过在源数据上增加人类难以通过感官辨识到的细微改变,可以让机器学习模型接受并做出错误的分类决定。
例如,在一张“阿尔卑斯山”的图片上加上一些人眼无法察觉的噪音,正常情况下肉眼仍然能判断这张图显示的是山峰,但是图像分类模型却会将它错误识别为狗。
经过不断的升级演化,对抗样本攻击已经不仅仅停留在数字世界,针对物理世界的攻击也开始出现。如在路面上粘贴对抗样本贴纸模仿合并条带,误导特斯拉自动驾驶汽车拐进逆行车道;佩戴对抗样本生成的眼镜,轻易破解手机面部解锁;胸前张贴对抗样本贴纸即可实现“隐身”等。
“在网络安全时代,网络攻击的大规模渗透倒逼了杀毒软件的诞生。”田天说,“针对算法漏洞这一‘新型病毒’,人们同样需要开展安全评估评测能力建设,打造人工智能时代的‘杀毒软件’,以技术手段为支撑,切实规避人工智能算法缺陷可能带来的安全风险。”
依托于清华大学人工智能研究院及自身多年来的技术积累,瑞莱智慧研发的人工智能安全平台,内置了先进的攻防算法模型,为政府、企业等提供安全评测与安全防护,高效应对算法威胁。
相较于常见的开源工具需要自行部署、编写代码,这个“杀毒”平台只需要使用者提供相应的数据,就能够在线完成评估,降低了算法评测的技术难度。
该平台支持五种去除对抗噪声的通用防御方法,可对输入数据进行自动去噪处理,破坏攻击者恶意添加的对抗噪声。经测试,部分第三方人脸对比应用程序接口在使用平台的防御方案加固后,安全性可提高40%以上。
“推出安全检测平台是规避人工智能风险的一条路径,未来我们还需要联合各界力量,共同推动人工智能安全相关的国家标准、行业标准、联盟标准的制定,为人工智能产品安全评估评测的统一参考。”田天最后说。