“人工智能+”理性正视挑战(2)

光山新闻网 采集侠 2021-06-03 08:59:06
浏览

  京东人工智能研究院院长周伯文坦言,人工智能目前在面向产业化落地时,遇到的巨大挑战正是真实环境的开放边界和规则模糊,数据的“噪音”非常多,使得智能模型的部分结果和使用情况难以让人信赖。

  姜育刚指出,人工智能目前的智能判别模式存在缺陷,容易被对抗样本所欺骗。比如图像识别,在一张人像图片上加入一些非常少量的干扰,人为视觉看上去基本没有区别,但人工智能模型就会产生识别错误;再如自动驾驶,一张“限速80码”的交通标牌,加入一些干扰后,就可能被机器识别成“禁止通行”。显然,存在很大的安全隐患。

  语音识别领域也存在这种问题。技术人员在语音上任意加入非常微小的干扰,语音识别系统就可能会识别错误。同样,在文本识别领域,改变一个字母就可以使得文本内容被错误分类。

  此外,若深度学习的数据集中存在隐藏的偏见,人工智能系统无法发现,也不会否定。缺少反馈机制的“照单全收”,最终可能导致生成的结果并不客观。

  例如在行业内已经出现的,人工智能在深度学习后对女性、少数族裔、非主流文化群体产生“歧视”:亚马逊通过人工智能筛选简历,却发现了系统对女性存在偏见导致最终关闭。更为常见的是手机软件利用人工智能算法导致的大数据“杀熟”,如根据手机类型的不同,可能会推荐不同类型的商品,甚至打车时推荐不同价格、档次的车辆。

  目前,“AI+金融”的发展如火如荼。但当金融机构均采用人工智能进行决策时,其市场信号解读就可能趋同与不断强化,导致形成偏离正常市场规律的结果。而这些不正常的市场变化也会成为人工智能的学习基础,将人工智能的决策逻辑进一步畸化,容易造成恶劣的后果。

  以上这些问题,影响着人工智能赋能实体经济的安全性,凸显产业对技术可信赖性的呼唤。“从AI到可信赖AI,意味着我们需要在技术层面上解决鲁棒性(稳定性)、可解释性和可复制性这些核心技术挑战。同时为了大规模产业化应用,我们必须考虑到人工智能的公平性和负责任。这几个维度是人工智能必须要解决的问题。”周伯文说。

  法律规制和伦理问题待完善

  “目前的智能算法还存在给出的决策不符合伦理道德要求的问题。”姜育刚指出,在应用中已发现,智能算法的决策没有从改善人类生活、服务人类社会的角度来进行。如智能音响在对话中出现“劝主人自杀”的内容,聊天机器人学会了骂脏话和种族歧视等。而这些不友好的决策都是模型从数据中学来的,并不是研发者对人工智能模型设置的目标。

  同时,人工智能算法需要海量的数据驱动,训练数据可以被算法恢复,个人隐私存在泄露和被侵犯的风险,而大量的数据也存在共享壁垒。在人工智能赋能金融的过程中,这一问题尤被关注。最新报告显示,近年来,每年发生金融隐私泄露事件以大约35%的速度在增长。加之近年来人工智能技术在金融行业的广泛应用,由此带来的银行数据、保险数据、网贷业务及大数据等个人信息保护问题日益凸显。

  在2020年抗击新冠肺炎疫情期间,人工智能技术在我国响应速度快、介入力度大,帮助推出了CT影像的辅助诊断系统,提升了医生诊断的速度和信心。然而,医疗影像智能诊断发展也面临着法律规制问题。与其他人工智能赋能行业的大数据相比,获取高质量的医疗影像数据相对困难。不同医疗机构的数据,目前还很少互通、共享。而单个医疗机构积累的数据往往不足以训练出有效的深度学习模型。此外,使用医疗影像数据进行人工智能算法的训练还涉及保护病人隐私等非技术问题。