作者:张逸瑞 景云峰
2023年10月18日,国家互联网信息办公室(“网信办”)发布《全球人工智能治理倡议》,重申各国应在人工智能治理中加强信息交流和技术合作,共同做好风险防范,形成具有广泛共识的人工智能治理框架和标准规范,不断提升人工智能技术的安全性、可靠性、可控性、公平性。2023年11月1日,中国、美国、欧盟、英国在内的二十余个主要国家和地区在英国主办的首届人工智能安全全球峰会上共同签署了《布莱切利宣言》(The Bletchley Declaration),承诺以安全可靠、以人为本、可信赖及负责的方式设计、开发、部署并使用AI。2023年11月8日,习近平主席在2023年世界互联网大会乌镇峰会开幕式发表的视频致辞中指出,愿同各方携手落实《全球人工智能治理倡议》,促进人工智能安全发展。由此可见,人工智能已成为维护国家安全的新疆域,人工智能安全是我国政府一贯密切关注的重要议题。人工智能作为全球战略性与变革性信息技术,在对经济社会发展和人类文明进步产生深远影响的同时,也在网络安全、数据安全、算法安全、信息安全等领域引发新型国家安全风险。为防范上述风险,各国必将逐步健全和完善人工智能治理相关的法律法规。我们在此前与上海人工智能研究院、华为技术有限公司、上海昇思AI框架&大模型创新中心共同编制的《大模型合规白皮书》中,对于美国、欧盟以及我国在大模型及人工智能方面的法律监管现状进行梳理,本文作为“国家安全法律专题”系列文章的第二篇,将重点围绕人工智能安全这一主题,为企业等制定和实施人工智能安全治理措施提供参考。