当前时间:

当前位置: 首页 > 业界资讯 > 网络发展 >

李强:中国为全球人工智能治理提供建设性方案——《全球人工智能治理倡议》解读

发布时间:2024-02-28


全球人工智能技术飞速发展,正在深刻改变人类社会的生产生活方式,给世界带来巨大发展机遇,同时,也带来难以预知的各种风险和复杂挑战。近年来,伴随生成式人工智能的出现,人工智能技术迈向一个新的发展阶段,也激发了全世界对人工智能技术安全性的普遍担忧。未来,人工智能走向何处,已不单纯是技术问题,而是关乎全人类共同命运的重要问题。

正是在这样的背景下,中央网信办于2023年10月18日正式发布《全球人工智能治理倡议》(以下简称《倡议》)。这是习近平主席提出并倡导的人类命运共同体理念在人工智能治理领域的具体体现,是中国落实此前相继提出的全球发展倡议、全球安全倡议、全球文明倡议的具体行动。此外,在人工智能治理领域,中国外交部已先后面向国际社会发布《中国关于规范人工智能军事应用的立场文件》《中国关于加强人工智能伦理治理的立场文件》,而这次提出的《倡议》,则更具全局性、战略性视野,不仅秉持了中国在人工智能治理领域的一贯立场,也向世界提出了人工智能治理的基本思路和建设性方案。

《倡议》传达中国在人工智能治理领域的核心理念

《倡议》向国际社会传达了中国在人工智能治理领域的三点核心理念。

一是反冷战思维。冷战思维会对全球人工智能治理构成巨大障碍。人工智能的发展应以增进人类共同福祉为目标,以促进人类文明进步为方向,助力解决全人类面临的共同挑战。人工智能技术不应成为危害他国主权和安全、干涉他国内政的工具,不应作为对抗的手段。

二是反技术霸权。技术霸权是冷战思维的必然产物。人工智能技术的发展应惠及所有国家、所有人群。世界各国无论大小、强弱,无论社会制度如何,都有平等发展和利用人工智能的权利。同样,人工智能治理也离不开世界各国的广泛参与。构建人工智能技术的排他性集团,不仅会制约技术造福于人类,也会妨碍在制定治理框架和标准规范时形成广泛共识。

三是反技术失控。人工智能不具有人类情感,缺乏人类基于自身国家、民族、文化、宗教等传承特定认知和观念的能力,无法理解和分辨不同国家和民族捍卫自身特色、包容但又独立于其他国家和民族的诉求,极有可能产生偏见、错误,甚至严重违背一国通行的伦理和法律观念。世界各国在利用人工智能推动社会发展进步的同时,必须有效管控这类技术带来的伦理和法律风险。

《倡议》提出全球人工智能治理的中国方案

《倡议》不是宣传口号,而是切实提出了全球人工智能治理的中国方案。为践行人工智能治理的核心理念,应对人工智能技术带来的各种风险和复杂挑战,《倡议》提出了多项解决思路和具体措施建议。

为了确保“以人为本”,《倡议》提出以人工智能助力可持续发展。人工智能技术应以保障社会安全、尊重人类权益为前提,其目标应是为人类服务而非取代甚至危害人类,人工智能的发展和应用必须始终处于人类控制之下。人工智能技术应被用于应对诸如气候变化、生物多样性保护等许多全球性挑战,为全球发展创造和谐环境;应被用于保障和改善民生,保护和促进人权,实现人的全面发展。

为了确保“智能向善”,《倡议》明确提出不得利用人工智能技术优势操纵舆论、传播虚假信息,不得利用人工智能技术产生针对不同或特定民族、信仰、国别、性别等偏见和歧视,不得利用人工智能技术侵犯个人隐私与数据安全,各国尤其是大国对在军事领域研发和使用人工智能技术应该采取慎重负责的态度。人工智能对大数据的处理速度和深度学习的能力远超人类极限,极易在合法合规方面发生风险。如果人工智能技术沦为违法犯罪、恐怖主义乃至危害一国国家安全的帮凶,人工智能还可能成为人类自身进步的阻碍。

为了确保“安全可控”,《倡议》明确提出坚持发展和安全并重的原则。一方面,不能否定任何一个国家和平发展和利用人工智能技术的权利。人工智能技术的研发和应用本就是机遇和风险并存,应推动该技术的健康有序发展而不是因噎废食,更不能人为地制造技术壁垒,恶意阻挠他国。《倡议》建议各国共享人工智能知识成果,开源人工智能技术。另一方面,各国也要做好风险防范,发展负责任的人工智能,确保人工智能技术的安全性、可靠性、公平性、可追溯性和可解释性。《倡议》提出各国应在人工智能治理中加强信息交流和技术合作,密切跟踪技术发展形势,分享最佳操作实践。特别是,各国应建立风险等级测试评估体系,实施敏捷治理,分类分级管理,快速有效响应。同时,不断提高人工智能治理的技术能力,以技术防范人工智能风险。

从本质上说,在人工智能治理过程中,要监管的对象始终是人而非机器或技术本身。人类自身的选择和行为才是人工智能技术是否可靠、安全治理措施是否有效的决定性因素。因此,所有的治理举措最终都要纳入伦理和法律框架内加以审视和评估。一方面,要确保人类“守德”,即人工智能发展必须坚持伦理先行。要明确决策者、研发者、使用者等人工智能相关主体的责任和权力边界,充分尊重不同群体的诉求并保障其合法权益,形成人工智能伦理指南,建立科技伦理审查和监管制度,及时回应国内和国际相关伦理关切。另一方面,要确保人类“守法”,即人工智能发展必须纳入法治框架。通过建立健全法律和规章制度,确保人类始终处于监管和问责的链路之内。同时,人工智能技术的发展和应用不仅要遵守本国法律法规,在提供人工智能产品和服务时还必须严格遵守他国法律并接受他国法律管辖。

整体而言,目前全球人工智能治理相比于人工智能技术的迅速发展还具有滞后性。其中一个重要原因是新问题不断涌现但治理工具相对不足,这与我们对人工智能的认知水平是密切相关的。目前对人工智能治理需要技术界、产业界和政策制定者之间加强沟通和交流,寻找最佳的折中方案,既不影响人工智能的健康发展,又确保技术的迭代合法、有序、可控。不可否认的是,人工智能技术确实有可能被滥用,危及人类伦理和法律秩序,但距离人工智能危害人类乃至取代人类仍遥遥无期。只要人工智能的发展始终处于人类控制之下,并严格秉持这一理念,人工智能技术的发展之利就远大于发展之弊。

《倡议》认为各国应通力合作共同应对风险

当今世界早已不是各国简单共存的世界,而是各国紧密合作共谋发展的世界。正是基于这一认识,中国相继提出三大全球倡议。人工智能的发展也不例外,若要人工智能真正惠及全人类,各国就必须通力合作,共同应对人工智能技术带来的风险。国际合作的基石是平等、尊重和法治。

平等是前提——要增强发展中国家在人工智能全球治理中的代表性和发言权,确保各国人工智能发展与治理的权利平等、机会平等、规则平等。不仅要保证形式平等,还要追求实质平等,掌握着先进人工智能技术的国家应负起更大的责任,向发展中国家提供援助,不断弥合智能鸿沟和治理能力差距。

尊重是原则——人工智能的发展和应用必须尊重他国主权,尊重他国的安全关切,尊重各国政策和实践的差异性。全球人工智能治理机制建设应坚持效率与公平并行,不能急于求成,必须做到广泛参与、协商一致、循序渐进。

法治是保障——人工智能的发展和治理必须遵守可适用的国际法,符合和平、发展、公平、正义、民主、自由的全人类共同价值。中国始终强调,世界上只有一种秩序,就是以国际法为基础的国际秩序;只有一套规则,就是以联合国宪章宗旨和原则为基础的国际关系基本准则。国际法旨在推动不同国家和文明之间包容共存、交流互鉴,排斥一切形式的单边主义,为全球人工智能治理提供合作的平台。

技术先进的大国应负起首要责任,成为全球人工智能发展与治理的倡导者和引领者,成为人工智能伦理和法律制度的构建者和践行者。各国应秉持互利共赢的精神而非对抗竞争的理念开展合作,摒弃意识形态偏见,客观务实地应对人工智能技术发展带来的问题和挑战。各国政府、国际组织、企业、科研院校、民间机构和公民个人等各主体也应秉持共商共建共享的理念,协力共同促进人工智能治理。




作者:李强 中国政法大学法学院军事法研究所所长、副教授




来源:《中国网信》2024年第2期

中共河南省委网络安全和信息化委员会办公室 河南省互联网信息办公室  版权所有     联系我们
      邮编:450008   豫ICP备17047339号  技术支持:大河数字
  • 二维码手机站
  • 二维码微信公众号