为新技术应用加把安全锁(关注个人信息保护)

光山新闻网 采集侠 2021-11-03 05:40:02
浏览

为新技术应用加把安全锁(关注个人信息保护)

 

  南京科技馆内,工作人员在AR虚拟演播馆演示直播效果。
  孙忠南摄(人民视觉)

 

为新技术应用加把安全锁(关注个人信息保护)

 
 

  核心阅读

  2020年,中共中央印发《法治社会建设实施纲要(2020—2025年)》。纲要提出,制定完善对“算法推荐、深度伪造等新技术应用的规范管理办法”。作为一项互联网新技术应用,深度伪造技术正越来越广泛地应用于现实场景,也出现被滥用错用的情况。推动技术的健康成长和使用,需构建更完善的法律和技术保护体系。

  

  有一种技术,能对声音、影像进行篡改、伪造,从而实现“变声”“换脸”,并且高度逼真、很难甄别——这项互联网新技术叫做深度伪造技术。

  借助人工智能技术可实现“换脸”“变声”

  日常生活中,深度伪造技术的应用并不少见:智能客服的拟人回答、影视剧对角色的换脸处理……这些应用场景通过对图像、声音、视频的篡改、伪造和自动生成,产生高度逼真的效果。

  深度伪造技术本质上是一种人工智能合成内容技术。据奇安信集团反金融犯罪专家卢维清介绍,起初,研究者使用自编码器实现对原始人脸的图像分解再还原。随着深度学习和先进算法的出现,深度伪造技术变得更加复杂成熟,除了图像,声音、视频都能被更精细地伪造或自动合成。以生成对抗网络算法为例,其同时搭载了生成器和鉴别器两个神经网络,前者基于一个数据库自动生成模拟该库中数据的样本,后者评估生成器生成数据的真伪,两者在互相博弈学习中产生大规模和高精确度的输出,实现真假难辨的效果。

  技术是一把双刃剑。深度伪造这项人工智能技术起初仅限于学术研究,后来广泛应用于多个现实场景,发挥着一定正面效应。

  卢维清举例说,在教育场景中出现的虚拟教师和虚拟历史人物,能让数字教学更具互动性和代入感;影视制作通过还原或者修改角色镜头,降低修复成本,提高制作效率;虚拟新闻主播和客服,无需真人出现,可以降低人力投入;安防领域借此技术生成更加逼真的图像、视频,测试现有安全系统,寻找技术漏洞,助力更新迭代;娱乐休闲应用程序则可以对图片和视频做特效处理,增加趣味性……

  但是,随着技术的发展及应用门槛的降低,许多个人用户也能轻松实现“换脸”“变声”,还有一些人将深度伪造技术应用于安全漏洞攻击、虚假音视频诈骗等,技术滥用带来的风险逐渐为人们所知。

  可能被诈骗、网络攻击等非法行为利用

  此前,有国外网民利用换脸技术伪造艺人的影像资料并发布了视频,引发争议。

  深度伪造技术被滥用的隐患,简单来说就是盗用他人的身份,让人“言”所未言、“行”所未行,以假乱真,混淆真相。

  据专家介绍,若无有效的监管措施,任由深度伪造技术被滥用错用,社会生活中的每个人都存在被这项技术侵害的可能性。

  例如,面部识别、声纹认证等生物特征识别机制有可能面临失效;公司企业可能被虚假消息欺诈,内部资料可能因为伪装登录而面临丢失、篡改、删除;有关部门在司法认证、证据收集、识别环节将面临真假难题;金融机构管理的账户可能遭遇伪装窃取,转移资金;电信诈骗里伪装公检法、银行、通信人员的手段会更加复杂,令人防不胜防……这些场景有可能带来一系列更深层次的社会问题。

  构建更完善的法律和技术保护体系