近日,Meta 公司宣布了一项重要政策,旨在更好地管理和控制其内部开发的高性能人工智能系统。虽然 Meta 的 CEO 马克·扎克伯格曾表示未来将公开提供通用人工智能(AGI),但根据最新发布的《前沿人工智能框架》文件,公司在特定情况下可能会限制这些系统的发布。
这份名为“Frontier AI Framework”的文件详细描述了 Meta 认为存在较高风险的两类人工智能系统:“高风险”系统和“关键风险”系统。根据 Meta 的定义,这两种系统都有可能用于实施网络攻击、化学攻击和生物攻击。其中,“关键风险”系统可能导致难以缓解的灾难性后果,而“高风险”系统则可能增加攻击的便利性,但稳定性不及前者。
文件中还提到了一些具体的威胁情景,比如自动化入侵企业级系统以及生物武器的扩散。尽管 Meta 承认这些情况并不是所有潜在灾难的完整列表,但它们确实是公司认为最紧迫且最有可能发生的。
Meta 在评估这些系统的风险时,并不是仅仅依赖实验数据,而是结合了内外部专家的意见,并由高层管理人员进行最终审核。Meta 解释说,这是因为当前的风险评估标准还不足以提供明确的量化指标来确定系统风险。
如果 Meta 判断某系统属于“高风险”类别,公司将限制该系统的内部访问,并在采取风险缓解措施将其风险等级降至“中等”前,不会对外发布。而对于被标记为“关键风险”的系统,Meta 将采取额外的安全措施,防止这些系统被非法获取,并暂停其开发,直至风险得到有效控制。
此外,Meta 表示,《前沿人工智能框架》将随着人工智能领域的发展而持续更新。此前,公司已经承诺将在法国人工智能行动峰会上提前公布这一框架。这项举措似乎是针对公司开放开发策略所受到的一些批评。与选择将系统封闭在 API 后面的 OpenAI 不同,Meta 倾向于将人工智能技术以一种更加开放的方式提供给公众。
Meta 还表示:“我们相信,在平衡开发和部署先进人工智能技术的利弊时,有可能找到一种既能保留技术对社会的积极影响,又能有效管理风险的方法。”
通过这种方式,Meta 力求在促进技术创新的同时,确保技术的安全性和可靠性。