我们需要什么样的人工智能伦理与治理

光山新闻网 采集侠 2023-04-28 10:17:07
浏览

出版社: 人民邮电出版社

出版时间: 2023年2月

【字里行间】

◎孙 瑜

开年以来,人工智能领域现象级应用ChatGPT引发全球关注和讨论。美国人工智能公司OpenAI最新发布的GPT-4则更为强大,不仅可以通过律师考试,还可以将一张手绘草图变成一个可运行网站,或在60秒内建立一个视频游戏……在ChatGPT生成的一行行智能回答的背后,对人工智能的信任、责任、伦理、法律等思考也逐步从幕后走向前台,成为热门话题。

怎样理解人工智能创造的艺术?人工智能时代我们该如何定义“公平”?如何把人类知识和AI算法结合以防止风险?这些话题的背后,最根本的问题是:我们需要什么样的AI伦理和AI治理?

不可否认,ChatGPT还有很多局限性,但人类应为应对AI可能带来的风险做好准备。在AI技术如火如荼发展的同时,关于AI伦理和AI治理,社会亟须形成广泛明确的共识。

今年2月,《人工智能伦理与治理·未来视角》出版。30多位来自学术界或科技企业的专家学者,围绕“AI向善的理论与实践”“AI的公平性”“AI与风险治理”“AI决策的可靠性和可解释性”“用户数据隐私”“包容性的AI”六大专题分享了建设性的意见。

其中不少观点为理解人工智能热潮提供了思路。

例如,人工智能是否会威胁人类?以ChatGPT为代表的大模型技术发展之快,很容易令人产生幻觉——似乎科幻电影里的想象已然近在咫尺,似乎将ChatGPT和智能机器人结合起来,我们就可以把《银翼杀手2049》里的虚拟女孩乔伊搬进现实。

微软全球资深副总裁洪小文认为,现在的人工智能是“强人工智能很弱,弱人工智能很强”,对于通用人工智能的威胁,其实没必要太过担忧。今天的人工智能根本不具备系统化解问题的功能,通用人工智能的实现还“没有影子”。

对于这个问题,复旦大学浩清特聘教授、博士生导师漆远介绍了顶尖科学家们的观点。他提到,麻省理工学院顶尖科学家之间曾举行辩论,主题为“将来机器人是否能够像牛顿和爱因斯坦等科学家一样发现科学定律”。现场的研究者一派认为不可能,这个技术的“种子”不存在;另一派则认为,有可能实现,但技术路线不得而知。

尽管人类和超级人工智能之间还有不短的距离,但思考其潜在风险,其即将或已引发的伦理与治理问题,仍非常必要。漆远认为,面对人工智能可能存在的风险,系统设计要留有“冗余”,需要将人和智能机器看作一个大系统,从整体来思考和构建可信和可靠性。

再如,数据隐私保护问题。很多企业掌握着大量数据,但数据归属权却并不清晰。例如,医院拍摄的医学影像属于患者还是医院?

美团副总裁、首席科学家夏华夏给出了3点具体看法。具体到科技企业,如果收集数据,应该告诉用户数据未来的用途;保护数据隐私,企业要有自律精神,需要有一套数据使用制度以及委员会监管;数据安全需要技术保障,但起兜底作用的还是法律法规,数据保护相关法律法规对企业是约束,也可以让用户放心。

清华大学苏世民书院院长薛澜认为,人工智能领域比较好的治理模式是“敏捷治理”,要求政府与企业互相沟通,共同讨论潜在风险并判断如何有意识地加以规避,建立合理的治理框架。

在书籍第二章内容里,专家分享了全球AI治理进展和新动态,梳理了德国、日本、新加坡等国家及欧盟、经济合作与发展组织等关于AI治理的政策。同时,书中还制作了国内外重要数据监管法律法规的时间轴,清晰显示了数据监管越来越严厉的趋势。这些内容可令读者较迅速地了解人工智能领域治理概况和相关原则。