近期,多家美国媒体注意到,谷歌公司在其技术伦理准则页面上移除了关于避免将人工智能(AI)技术应用于武器开发的声明。这引发了一些关注和讨论。
据美国有线电视新闻网(CNN)报道,先前版本的“AI伦理准则”中明确表示,谷歌承诺不会将AI技术用于制造武器或其他可能造成人身伤害的技术。然而,最近更新的版本已不再包含这一条文。
2月4日,谷歌高级副总裁詹姆斯·曼尼卡(James Manyika)和人工智能实验室DeepMind的负责人德米斯·哈萨比斯(Demis Hassabis)共同发布了一篇博客文章,解释了这一变动。他们在文章中表示,谷歌认为企业应当与政府合作,共同开发能够保障民众安全、推动经济增长并支持国家安全的人工智能技术。
早在2018年,谷歌曾因被曝参与美国军方的“Maven计划”——该计划旨在开发用于战场无人机的AI工具,而面临员工的强烈反对。作为回应,谷歌当时公布了其“AI伦理准则”。然而,《纽约时报》在2024年4月报道指出,“Maven计划”并未因谷歌的退出而终止,反而在乌克兰战场上进行了测试。
谷歌新版“AI伦理准则”已删除涉及武器的相关内容。
谷歌新版“AI伦理准则”对比旧版,删除了与武器相关的部分。
这一变动引发了广泛的讨论,尤其是在谷歌最初承诺不将AI技术用于武器开发的情况下。谷歌高管的解释未能完全平息外界的质疑。