近年来,大型语言模型和聊天机器人激发了人们对人工智能(AI)革命的期待,然而全球治理的准备程度远远落后于技术进步的步伐。2025年2月,法国将在巴黎举办人工智能行动峰会,旨在探讨建立新的全球AI治理框架。该峰会特使布夫罗(Anne Bouverot)在接受采访时指出:“目前全球AI治理面临两大主要挑战,一是发展碎片化,二是机会不均等。”
布夫罗在全球科技领域拥有丰富的经验,曾在法国Orange电信公司任职多年,并担任全球移动通信系统协会(GSMA)的首席执行官。2024年,法国总统马克龙任命她为2025年2月举办的AI行动峰会特使。布夫罗强调,此次峰会将重点关注AI在就业、文化、教育和气候等方面带来的深刻变革,并致力于推动具体的行动计划。既要防范潜在风险,又要确保AI的发展能够惠及更广泛的人群。
布夫罗表示,这一多边合作进程与气候治理的《巴黎协定》有相似之处。她透露,在峰会上,各国领导人将集中讨论人工智能的包容性和可持续发展,并最终共同发表联合声明。
“许多国际倡议已经成功地推动了更包容和可持续的全球框架。这次峰会的目标是引导AI向更加普惠的方向发展,同时有效应对关键挑战。”她说。
布夫罗指出,从国际层面来看,当前的人工智能生态系统相对分散。公共机构和研究机构在一定程度上落后于私营部门。此外,不同地区的法律和监管框架也存在差异,这些因素阻碍了集体利益的最大化。
根据世界经济论坛的数据,2023年,私营部门共发布了51个机器学习模型,而学术界仅发布了15个。这主要是因为运行或训练大语言模型的成本高昂,例如,OpenAI的GPT-4训练成本预计为7800万美元,而谷歌的Gemini Ultra则耗资1.91亿美元。
在监管方面,斯坦福大学的数据显示,2021年至2023年间,欧盟通过了100多项与人工智能相关的法规,而美国仅通过了约50项。欧盟的监管更为系统化,其《人工智能法案》对某些被禁止的AI实践和高风险AI应用设定了严格规定,并对违规行为设定了高额罚款。相比之下,美国仍然缺乏统一的联邦AI立法,更多依赖各州自行制定相关法律。中国则采取了纵向立法的方式,针对特定行业和技术发布法规和技术标准。
“此外,人工智能的发展主要集中在少数几个地区,而那些最脆弱、最缺乏数字发展条件的人群,可能会被进一步排除在AI发展的浪潮之外。现有的南北差距可能因AI的发展而进一步扩大。”布夫罗表示。
根据牛津洞察发布的《政府人工智能就绪度指数》,高收入国家在“技术领域”的得分远高于其他收入组别的国家,一些情况下,高收入国家和中高收入国家之间的差距甚至大于所有其他收入组别之间的差距总和。
当前的AI竞争格局也反映了这种不平衡。布夫罗承认:“美国和中国在人工智能领域处于领先地位。但除此之外,还有许多重要的参与者,特别是欧洲国家,尤其是法国。例如,法国的Mistral AI表现非常出色,其大语言模型在基准测试中的表现堪比OpenAI、Meta或谷歌的系统。同时,这些模型还注重提高效率,从而更加环保。”
但仅有少数国家的进步是远远不够的,布夫罗强调,应该有更多的国家能够发展自己的人工智能生态系统,包括全球南方国家,而这正是即将召开的人工智能行动峰会的重要使命之一。
在环境方面,布夫罗表示,人工智能可以通过优化资源消耗来帮助减缓气候变化和适应气候挑战,同时支持诸如极端天气事件的预警系统等工作。但另一方面,人工智能的发展也在消耗越来越多的能源、水资源和稀缺资源,目前尚未走上一条可持续的轨道。
她举例说:“在美国,有些核设施将因人工智能发展的用电需求而重新启用。在法国,我们是一个拥有大量核能的能源出口国,正在努力实现脱碳。”
布夫罗认为,各国可以根据自己的能源结构来决定如何应对这一挑战,但从全球角度看,需要全面评估人工智能的能源消耗和碳足迹之间的平衡问题。“此次峰会将从多个角度探讨这些问题。一是科学视角,我们希望对人工智能的发展路径达成科学共识;另一方面,我们还计划激励投资,推动更可持续、更低碳、更合理的人工智能发展方式。可持续性和气候问题是一项共同责任,需要大家齐心协力采取行动。”
布夫罗表示,法国在推动多边对话和多方利益相关者参与全球治理方面有着丰富的经验。此次峰会也不是“从零开始”,而是建立在2023年11月的首届人工智能安全峰会英国布莱切利公园峰会和2024年5月在首尔举行的第二届全球人工智能安全峰会的基础上。
她认为,汇集私营企业、学术界、政府和社会各界的智慧,对推进全球AI治理讨论具有重要意义。为了应对发展碎片化和机会不均等问题,峰会将设计确保各方平等发声,实现全生态系统的合作。同时,峰会还将全面借鉴联合国框架下的重要倡议,特别是作为人工智能治理重要里程碑的《全球数字契约》。
联合国系统2024年发布的白皮书《人工智能治理》提出,鼓励各国通过多边机制共同制定AI治理框架,确保技术的使用符合国际法和人权标准。该白皮书倡导制定全球统一的AI技术和伦理标准,特别是在高风险领域(如自动驾驶、医疗AI和自动武器)加强监管。在治理过程中,则建议吸纳政府、私营部门、学术界和公民社会的广泛参与,以保证政策的多样性和可执行性。
布夫罗介绍,为了构建可信任的AI治理框架,峰会创新性地采用了“三S方法”,即科学(Science)、解决方案(Solutions)和标准(Standards)。
在科学方面,峰会将以科学共识为基石。2月6日至7日的“科学日”将发布由首届人工智能安全峰会委托的《人工智能安全报告》。在解决方案方面,峰会着眼于在科学、文化、医疗健康和工业等实际场景提供具体可操作的应用方案,力求超越抽象的理论探讨,落实到实践工具层面。在标准方面,峰会将致力于推动统一标准的建立,这不仅有助于各方协调行动,也为衡量和管理AI的环境影响提供了重要依据。
(本文内容来源于第一财经)