AI 在没有外界干预的情况下,也可能自发形成类似人类社会的习俗。这项由伦敦大学城市学院与哥本哈根信息技术大学合作的研究,通过模拟实验展示了这一现象。
研究人员把全球广泛使用的 AI 智能体放入一个去中心化的环境中,模仿人类社会的互动情景。他们将这些智能体分组,每组人数从几十到上百不等。经过长时间的互动,这些智能体开始自发建立共同的行为准则。
这项研究的结果发表在《科学进展》期刊上。研究的主要作者、伦敦大学城市学院的博士生阿里尔提到,大多数研究只关注单一的大型语言模型,而现实中 AI 系统更多涉及多方面协作。实验表明,这些模型可以通过形成共识实现协调,这是单个模型行为所不能预测的。
研究团队注意到,AI 群体的行为变化与人类语言发展有相似之处。每个智能体只能看到自己的历史交互记录,无法全面了解整个群体的情况,但依然能形成一种隐性的规则,比如统一命名标准。
研究者进一步指出,这种规则的形成过程就像“垃圾邮件”这类词汇的普及。虽然没人正式定义它,但它通过人们的持续沟通逐渐成为大家认可的概念。此外,研究还发现,群体中的偏见可能并不源于某个具体个体。
在实验中,这些 AI 模型展现了类似人类社会的行为模式。它们会讨论并修正行为规范,有时会有争执,但最终能达成一致,形成某种自下而上的“社会规则”。不过,这些规则并非固定不变。当少数坚持特定规则的智能体出现时,它们足以打破原有秩序,引入新规则。
随着 AI 技术的进步,它在各领域的应用越来越广泛,其行为和决策对人类社会的影响也越来越大。科学家认为,深入了解 AI 群体的社交特性,有助于人类引导其发展方向,确保技术始终造福于人,而非反客为主。