谭寅亮、张毅、王琦/文 作为全球首部全面监管人工智能的法规,欧盟的《人工智能法案》(以下简称“欧盟AI法案”)已于2024年8月1日正式生效。为了确保各方有足够时间适应新规,该法案将分阶段实施:部分AI应用程序的禁令将在生效6个月后适用,AI开发者的行为准则在9个月后实施,而对通用AI的限制则在12个月后生效。整个法案预计将在24个月后的2026年中期全面适用。
该法案采用基于风险的监管方法,对AI系统进行分类,针对高风险应用实施严格规定,并设立了禁止事项清单。欧盟AI法案覆盖了从市场准入、运营责任到透明度要求的全链条规则,对在欧盟境内或影响欧盟市场的AI系统和活动产生约束力。
由于该法案采用跨境监管原则,不仅适用于欧盟内部实体,还包括在欧盟外开发但在欧盟内使用的AI系统。因此,全球范围内的AI产业链企业,尤其是中美两国的企业,都将受到影响。
严格的法案规定使中美两国的AI企业在进入欧盟市场时面临高昂的合规成本,包括技术改造、流程调整以及可能需要的第三方审计费用。
法案对AI技术的研发和部署施加了严格限制,可能会阻碍AI技术的发展和创新速度。
更高的监管标准不仅适用于希望进入欧盟市场的AI开发企业,还包括使用AI技术的产品和服务提供商。
法案延续了欧盟对个人数据保护的严格要求,企业在处理用户数据时需要更加谨慎。
法案全面实施还需要两年时间,在实际操作过程中可能存在解释上的模糊性,欧盟不同成员国也可能存在具体执行差异。
尽管欧盟AI法案体现了对人工智能的安全性、透明度和人权的关注,但其严格的合规成本和准入门槛引发了关于是否会给AI产业戴上“紧箍咒”的疑问。同时,人们也关注中国和美国是否会参考并建立类似的合规和准入要求。
要回答这些问题,我们需要从中美欧各自的文化、政治体系、经济环境以及不同的历史背景出发,理解各国在AI监管体制上的差异。
美国在芯片、软件、硬件、人才和资金方面的领导地位,使其在全球互联网发展的各个阶段确立了显著的竞争优势。美国倾向于自由市场的传统,强调个人主义和最小政府干预,因此在AI监管上更侧重于市场的自我调节和技术创新。
联邦层面虽然陆续形成了一些对人工智能的法律和政策,但监管内容更注重AI系统的透明度、反歧视、数据治理等议题,重大的限制性、禁止性规定则主要针对运用AI的政府活动。在国家层面统一监管缺席的状态下,美国各州的AI立法相对较为活跃。
欧盟对人工智能的监管思路,体现了其重视公民权利、隐私和数据保护的文化和价值观。欧盟AI法案与《一般数据保护条例》(GDPR)一脉相承,通过严格标准和高额罚款来确保参与欧盟市场的全球企业尊重欧盟的基本人权标准和价值观。
从商业角度看,欧盟的立场更关心能否有效约束来自中美的头部AI企业。欧盟AI法案的生效,使得欧盟在人工智能监管方面能够利用其布鲁塞尔效应,保护欧盟内相关企业的发展。
中国在互联网行业的发展过程中经历了从模仿到创新、从跟随到引领的角色转变,最终塑造了一个独特的互联网生态和监管环境。中国政府认识到AI技术对于提升国家竞争力的重要性,通过设立专项基金、制定产业发展规划等方式,积极促进AI技术的研发和应用。
目前,中国已建立了由《网络安全法》《数据安全法》《个人信息保护法》《生成式人工智能服务管理暂行办法》等组成的人工智能监管基本框架。中国采取了一种平衡的监管策略,既注重产业发展又强调风险管理,在保障社会稳定和促进经济发展之间寻求平衡。
人工智能具有天然的全球性,因此进行AI全球治理势在必行。尽管中美之间存在利益诉求、监管哲学、技术伦理与人权标准等方面的差异,但在AI治理的基本原则上已达成一定程度的共识,如支持透明度、负责任的AI开发和使用等。
美国、欧盟和中国在AI监管体系上的差异,主要由政策导向、经济文化背景与价值观等多方面因素造成。短期内,中美不会全面建立类似欧盟AI法案的监管体系,但各国在AI治理方面仍有合作的空间。