AI安全再提速,国内首个人工智能安全与法治导则今在沪发布
2019-09-11 世界人工智能大会官网

8月30日,2019世界人工智能安全高端对话和2019世界人工智能大会法治论坛联合发布国内首个人工智能安全发展的导则——《人工智能安全与法治导则(2019)》。该导则从算法安全、数据安全、知识产权、社会就业和法律责任等五大方面,对人工智能发展的安全风险作出科学预判,提出人工智能安全与法治应对策略,守卫人工智能发展的“安全基因”。

2019世界人工智能安全高端对话由世界人工智能大会组委会主办,上海赛博网络安全产业创新研究院承办,腾讯、观安信息、上海社会科学院互联网研究中心、中国电科网络空间安全研究院、中国欧盟商会协办,平安科技、优刻得、安恒信息、上海控安、翼盾智能、斗象科技、机器之心、依图科技、亚信安全、众人科技、碁震KEEN等支持。此次高端对话联合国内外人工智能领域的专家学者和产业同仁,充分吸纳国内外人工智能安全共识,联合2019世界人工智能大会法治论坛发布了《人工智能安全与法治导则(2019)》。

当前,人工智能安全内涵不断叠加扩展,来自全球各国决策界、学术界、产业界等专家学者跑在研究和实践的第一线,以“鼎新”带动“革故”,积极参与到人工智能安全治理进程中。2018年以来,美国政府成立人工智能国家安全委员会,统筹应对人工智能在安全领域的挑战;发布《美国人工智能倡议》,重点关注技术研发、数据算法等资源调配、技术标准设立、人力资源培养和国际合作等五个方面,确保美国在该领域的领先地位。2019年4月,欧盟发布《可信人工智能伦理准则》,提出了人工智能治理的7个关键条件,具体包括人的能动性和监管能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制。2018年,电气和电子工程师协会(IEEE)发布了《人工智能设计的伦理准则》白皮书2.0版,希望合乎伦理地设计、开发和应用人工智能和自主技术。此外,微软公司也提出人工智能发展六项基本准则等。

在全球人工智能安全治理进程中,中国同样也是重要参与者。习近平总书记在中共中央政治局第九次集体学习时强调,要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。近年来,我国相继发布《新一代人工智能发展规划》《促进新一代人工智能产业发展三年行动计划(2018-2020年)》,制定了到2030年我国人工智能“三步走”的战略目标。

上海作为我国人工智能发展的先行者,致力于推动新一代人工智能的发展,正加快建设人工智能发展高地。2018世界人工智能安全高端对话发布国内首个《人工智能安全发展上海倡议》,从应对人工智能安全挑战,守护智能时代人类未来的主旨出发,提出了八大目标原则及其基本要求。今年,2019世界人工智能安全高端对话和2019世界人工智能大会法治论坛联合发布《人工智能安全与法治导则(2019)》,旨在科学预判和管控人工智能发展的安全风险。《导则》提出按照循序渐进、分类施策的原则,每年聚焦若干关键问题的治理,2019年度重点关注的是算法安全、数据安全、知识产权、社会就业和法律责任五个关键问题。