在人工智能领域,特别是在生成式人工智能领域,科技巨擘们正积极地投入到这场技术竞赛中。从微软、谷歌、Meta等领军企业的动态来看,它们不仅在不断优化和完善大型语言模型,还将这些模型整合进更多应用场景中。然而,这股热潮也引发了一系列关于安全与合规性的讨论。
为了应对生成式人工智能带来的挑战,尤其是如何在确保技术创新的同时,避免潜在的风险和滥用,微软、英伟达、OpenAI等业界领头羊,于近日联合宣布成立了“安全人工智能联盟”。这一联盟旨在构建一套全面的安全框架和指导原则,以支持人工智能系统的开发者和使用者,确保人工智能技术的合理应用和可持续发展。
目前,该联盟已吸纳了包括谷歌、IBM、英特尔、PayPal、亚马逊、思科、Anthropic、Cohere、Chainguard、GenLab、Wiz在内的14家知名企业,以及来自学术界和行业领袖的广泛参与。联盟的目标是为所有从业者提供一套开源工具和指南,帮助他们设计和构建安全可靠的人工智能系统。
联盟的首要任务是识别和解决人工智能领域内的常见及特定风险,从而推动整个行业的健康发展。尽管联盟由几家关键企业发起,但其开放性使其能够与其它专注于人工智能安全的机构合作,共同促进人工智能安全标准的建立和发展。
此新闻强调了科技界对人工智能安全问题的关注,以及通过集体努力实现技术进步与社会责任之间的平衡的决心。