大数据“杀熟”、视频“深度造假”、非法泄露用户数据……全球五十位顶尖专家发布报告:“负责任的创新”为AI治理“立规矩”-LMLPHP

利用大数据“杀熟”、视频“深度造假”、非法泄露用户数据……当人工智能在技术与产业上飞速发展之时,它所引发的社会治理问题日益受到关注。

日前,上海市科学学研究所联合国内外多个研究机构发布《全球人工智能治理年度观察2019》英文版(以下简称《观察》)。这份由全球50位顶尖人工智能治理专家参与撰写的报告指出,目前全球人工智能治理体系正处于成型的关键期,需要通过更多法律、伦理、技术等层面的对话谋求共识,推进人工智能治理领域的全球合作。

AI治理已从“应该做”走向“如何做”

与互联网、克隆、基因编辑等类似,人工智能作为一种颠覆性技术,其本身如同一把双刃剑,要让它在推动人类社会发展中发挥正向作用,趋利避害,关键在于科学治理。

此前,国内外对于人工智能治理的探讨一直停留在“应该去做”的层面,就在去年,这一状况得到了显著改变。《观察》提到,去年治理主体全面到位,重要国际组织和国家、地区政府持续发布准则。例如,欧盟委员会人工智能高级专家组发布了《人工智能伦理指南》和《人工智能政策与投资建议》,为欧洲人工智能治理勾勒出一个全面蓝图;中国科技部、美国国防部分别发布了人工智能伦理指南;新加坡则推出了人工智能治理框架。同时,人工智能治理规则的法律效力在加强,“硬法”逐渐增多。一些国家和地区针对机器人行为、人脸识别技术出台了相应的法律法规。

除了各国政府和国际组织,学术界也在积极努力,推动人工智能治理走向“如何做”。《观察》撰稿专家提到,加拿大多伦多大学新近成立了人工智能治理研究所,以便让人工智能治理有效落地;清华大学与浙江大学提出了相应的计划建议,以期对人工智能治理进行全面深入的研究。

不消除文化隔阂,很难形成全球应用

新冠肺炎疫情期间,国内有人工智能企业加强技术研发,很快实现了戴口罩人脸的高效识别。然而,这一技术在“走出去”的过程中遭遇了质疑,这让企业颇感郁闷。

“类似是否需要戴口罩这类问题,中西方文化在理解上有着较大差异。”上海市科学学研究所所长石谦认为,正是由于文化差异的客观存在,人工智能全球治理体系在成型过程中需要更多的包容,增进各种文化之间的融合,以促成更多共识——这如同一座塔楼的基石,如不消除文化隔阂,很难形成全球应用。

作为首份由我国智库发起、全球参与的人工智能治理报告,《观察》编撰的一个重要目的在于推动全球人工智能技术、产业、政府和人文社科等多领域的沟通与交流。

据了解,国内不少人工智能企业都设有专门的团队,从事各国、各地区的法律和政策研究,以评估产品进入当地市场所可能面临的风险。华东师范大学计算机学院副院长贺樑表示,数据具有全球高速流动的特征,人工智能的未来发展亟需一个相互对话、平等协作的全球治理体系。目前,中国在人工智能技术与产业领域已在世界上占有一席之地,因此更应深入研究人工智能治理体系,为全球治理体系的形成提供重要观点与建议。

企业正成为人工智能治理的重要主体

俗话说,道高一尺,魔高一丈。想要对人工智能技术进行有效监管,防止滥用,必须要有强大的技术手段作为支撑。在相关法律、规则、伦理尚未完全成型的前提下,产业界的深度参与让人工智能治理具有了更强的可操作性。

上海市科学学研究所副研究员李辉认为,中国企业的积极作为表明,企业正在成为越来越重要的人工智能治理主体。2019年,国内外一些企业主动通过技术研发、标准制订等手段参与治理,防止人工智能技术的不正当应用。

在美国,谷歌发布了一个数据集,帮助相关机构检测合成声音,识别语音造假;脸书、人工智能伙伴等共同组织发起了“深度造假”检测比赛,促进假视频检测技术水平的提升。

在中国,商汤科技设立了人工智能伦理委员会,探索与欧盟委员会、OECD等组织的沟通合作。作为我国人脸识别国家标准组组长单位,商汤科技正在牵头或参与制订一系列国际与国内的相关标准,以规范人脸识别等视觉智能技术的开发和应用。

“负责任的创新是一个过程。”《观察》撰稿专家、英国爱丁堡大学科技社会研究教授罗宾·威廉姆斯指出,通向负责任的人工智能创新的途径,就是严格审查人工智能组件、配置和结果——观察人工智能开发者及应用者在特定环境下所做的选择,并让他们承担责任。

05-07 10:01