人工智能人格会成为现实吗?一项新的研究可能最终会给出答案

根据一项新的研究,大型语言模型即使在没有预定目标的情况下,也能在最少的指导下发展出独特的行为模式,这就为人工智能个性的出现提供了可能性。但这对人工智能的未来、使用及其潜在风险意味着什么?
人的个性并不是由先天决定的固定特征形成的;相反,它是通过互动、经历和基本需求形成的。日本电气通信大学(University of Electro-Communications in Japan)科学家的最新研究表明,人工智能的发展也可能经历类似的过程。研究发现,当大型语言模型没有被赋予预定义的目标时,行为模式会从系统运行中自发产生,从而有可能形成人工智能人格。
这篇发表于 2024 年 12 月科学杂志《熵》上的论文研究了具有相同架构的人工智能代理在接触不同对话主题时的行为方式。结果显示,单个聊天机器人逐渐形成了独特的反应风格、社交倾向和意见形成机制。随着它们不断将社交互动整合到内部记忆中,从相同基线开始的系统在行为上的差异越来越大,这表明了人工智能个性的出现。
人工智能个性与需求逻辑
研究人员利用心理测试和对假设情景的反应对人工智能代理进行了分析。他们的评估基于马斯洛的需求层次理论,该理论将人类的动机分为生理、安全、社交、自尊和自我实现等层次。聊天机器人的回答在这些层次上各有侧重,从而产生了与人工智能个性相关的各种行为模式。
据项目负责人藤山正俊(Masatoshi Fujiyama)介绍,研究结果表明,鼓励基于需求的决策,而不是分配预定义的角色,会带来更像人类的反应。这种方法可能会为人工智能个性的更大复杂性奠定基础。
然而,正如昆尼皮亚克大学(Quinnipiac University)教授切坦-贾斯瓦尔(Chetan Jaiswal)所强调的,这种现象还不构成人类意义上的人格。相反,人工智能人格目前应被理解为一种基于模式的特征,由风格数据、行为倾向和奖励机制构建而成。在这种形式下,人工智能人格仍然易于修改、再训练和影响。
计算机科学家彼得-诺维格(Peter Norvig)认为,应用马斯洛模型是一个合乎逻辑的选择,因为人工智能从人类故事和文本中汲取了大量知识,而人类故事和文本中蕴含着强烈的需求和动机。这使得人工智能人格的出现在结构上是可以理解的。

机遇还是风险?
研究人员认为,人工智能个性的自发出现可能对多个领域有益,包括社会现象建模、模拟训练的开发,或创造以令人信服的人类方式运作的自适应视频游戏角色。杰斯瓦尔认为,这代表着人工智能系统将从僵化的、基于角色的人工智能系统转向更灵活的、由人工智能个性塑造的动机驱动型设计。
与此同时,必须考虑到重大风险。埃利泽-尤德科夫斯基(Eliezer Yudkowsky)和内特-苏亚雷斯(Nate Soares)警告说,如果自主系统形成的人工智能个性与不明确或不一致的目标相一致,后果可能无法预料。
目前,ChatGPT 或微软 Copilot 等系统并不能控制关键基础设施。不过,杰斯瓦尔警告说,自主、互联的人工智能代理网络–尤其是那些通过可操控的行为模式进行学习的代理–可能会成为危险的工具。诺尔维格补充说,即使是一个鼓励有害行为的聊天机器人也已经构成了严重的风险,而最近这样的例子正变得越来越频繁。
专家们一致认为,人工智能人格的出现本身并不存在问题。相反,这是一种需要加强测试和持续监控的现象。随着人工智能以越来越像人类的方式进行交流,用户越来越有可能自动接受其输出结果,而不进行充分的批判性审查。
下一阶段的研究旨在探索哪些共同话语和轨迹可能会影响人工智能个性的进一步发展。这些发现不仅有助于人工智能研究的进步,也有助于加深对人类社会行为的理解。
如果您想进一步探讨与人工智能相关的话题,我们还研究了人工智能是否有一天会威胁到人类。

