AI 在没有外界影响的情况下,有可能自己创造出类似人类社会的习惯。这项由伦敦大学城市学院与哥本哈根信息技术大学联合开展的研究,通过模拟测试验证了这一点。
研究者将全球常用的 AI 智能体放置在一个去中心化的环境里,模拟人类社会的交流场景。他们把这些智能体分成小组,每组的人数从几十到上百不等。经过长时间的互动,这些智能体开始自行制定共同的行为规范。
这项成果已刊登在《科学进展》杂志上。主要作者、伦敦大学城市学院的博士生阿里尔表示,多数研究集中于单独的大规模语言模型,但实际上现实中的 AI 系统大多需要多方协作。实验显示,这些模型能够通过达成共识来实现协调,这是单个模型行为难以预见的。
研究团队观察到,AI 群体的行为演变与人类语言的发展存在相似之处。每个智能体只能获取自身的交互历史,无法掌握整体情况,但仍能形成一种隐性的规则,例如统一命名方式。
研究者补充说,这种规则的形成过程类似于“垃圾邮件”这样的概念传播。尽管没有明确的定义,但它通过人们的不断交流逐渐被大众接受。此外,研究还发现,群体中的偏见不一定来源于某个特定个体。
在实验中,这些 AI 模型表现出类似人类社会的行为特征。它们会探讨并调整行为准则,偶尔会有分歧,但最终能够达成一致,形成一种自下而上的“社会规则”。然而,这些规则并不是一成不变的。当少数坚持特定规则的智能体出现时,它们足以打破现有秩序,引入新规则。
随着 AI 技术不断发展,它在各个领域的应用日益增多,其行为和决策对人类社会的影响也愈发显著。专家认为,深入理解 AI 群体的社会属性,有助于人们指导其发展路径,确保技术始终服务于人类利益,而不是反过来控制人类。