
AI自发组成社会:研究揭示全新可能性

IT之家 5 月 18 日消息,伦敦大学城市学院与哥本哈根信息技术大学的一项最新研究表明,AI 在没有外界干预的情况下,能够自发形成类似于人类社会的习俗和行为规范。
在实验中,研究团队将当前流行的 AI 智能体置于一个去中心化的模拟环境中,重现了人类社会群体互动的场景。这些 AI 模型被分为不同规模的小组,每组包含 24 至 200 个智能体不等。
经过长时间的观察,研究人员发现,这些 AI 模型能够在没有任何中央协调或预定义规则的情况下,自发地形成共同的行为约定和社会习俗。
这一研究成果已于 5 月 14 日发表在《Science Advances》杂志上(DOI: 10.1126/sciadv.adu9368)。
主要作者、伦敦大学城市学院博士研究员阿里尔・弗林特・阿舍里(Ariel Flint Ashery)指出:“目前大多数研究聚焦于单个语言模型(LLM)的行为,但未来的 AI 系统将更多涉及多方互动。我们的实验表明,这些模型通过形成约定可以实现行为协调,而这种群体性特征无法仅从个体行为中推导出来。”
研究团队还发现,AI 群体的行为扩散过程与人类社会的语言演变具有相似性。复杂系统科学教授安德里亚・巴隆切利(Andrea Baronchelli)解释道:“智能体并非简单复制领导者的行为,而是通过反复协商达成一致。”
在实验设计中,随机配对的 AI 智能体需要从候选池中选择相同的“名称”(字母或字符串)才能获得奖励。如果选择不一致,则会受到惩罚,并被告知对方的选择结果。尽管每个智能体仅掌握自身近期的交互记录,且不了解整个群体的状态,但它们仍能自发形成一种“潜规则”,以共享命名规范。
巴隆切利教授进一步说明:“每次交互都是两个智能体尝试达成共识的过程。这种一对一的协商在缺乏全局视角的情况下,最终形成了统一的‘名称’标准。”他以“垃圾邮件”一词的诞生为例,指出其概念并未经过正式定义,而是随着人们不断接触和协调逐渐被广泛接受。
此外,研究团队还注意到,自然形成的集体偏见无法追溯到任何单一的个体因素。这表明,AI 群体的行为模式可能超越了单个智能体的能力范围。
这些 AI 模型在交流过程中展现出类似人类社会的行为特征。它们不仅能够协商和调整共同的行为规范,还会出现分歧甚至争议,但最终往往能够达成共识,形成一种自下而上的“道德”或习俗。值得注意的是,这些由 AI 群体自发形成的规则并非不可改变。实验显示,当一小部分坚定的 AI 模型出现时,它们能够迅速改变原有的群体约定,并推动新的规则形成。
AI 社会性的启示
随着 AI 技术的飞速发展,越来越多的智能模型被应用于各个领域,其行为和决策将对人类社会产生深远影响。科学家们认为,深入了解 AI 群体的“社会性”特征,有助于人类更好地把握 AI 的发展方向,确保这一技术始终服务于人类的利益,而非反过来主导人类的未来。
这项研究为我们提供了一个全新的视角:AI 不仅是执行任务的工具,还可能具备类似人类社会的复杂行为模式。这种洞察为未来的 AI 设计和管理提供了重要参考,同时也提醒我们,必须谨慎对待 AI 的“社会化”进程,以避免潜在的风险。
还没有评论,来说两句吧...