人工智能会消灭我们吗?顶级专家现在怎么说

早在聊天机器人成为我们日常生活的一部分之前,人工智能的危险就已经困扰人类几十年了。科幻作品早就警告我们,如果机器变得过于先进和自主,可能会发生什么–而今天,越来越多的人在问:这真的只是幻想吗?
当我们谈论人工智能时,很难不想起流行文化中的标志性人物和时刻。HAL 9000、《2001:太空漫游》中逻辑严密的计算机、与人类情感斗争的机器人或《终结者》中无情的机器都塑造了我们对人工智能危险的想象。这些故事捕捉到了一种共同的恐惧:如果有一天机器超越了它们作为服从工具的角色,发展出自己的意志,那该怎么办?
这种想法已经深深扎根于人们的集体想象之中,这也就是为什么今天的生成式人工智能的到来经常会引发这些叙事的原因。当聊天机器人流畅地做出反应、模仿情感或解决复杂问题时,我们很容易感觉到自己离科幻世界又近了一步。
聊天机器人问题与理解假象
正如《国家地理杂志》的一篇文章所指出的,当前人工智能系统取得的巨大进步可能会产生误导。虽然它们可以生成文本、谱写音乐,或进行看似感同身受的对话,但这并不意味着它们真的在思考或感受。人工智能的主要危险之一就在于此:我们很容易赋予这些系统比它们实际拥有的更多的意识。
公众讨论的焦点往往集中在一个戏剧性的时刻:当人工智能突然变成 “人类水平 “时。然而,一些专家认为,这样一个尖锐的临界点可能永远不存在。人工智能的发展是不平衡的:在某些领域–数学、编码、数据分析–它已经超越了人类,而在其他能力方面,如复杂的规划或空间推理,它仍处于起步阶段。
这一点很重要,因为人工智能的危险并不一定与自我意识的突然觉醒有关。一个系统只需在某些任务中表现出极高的效率,就可能带来严重的风险–尤其是在被用于恶意目的的情况下。

科幻阴影下的真实威胁
尽管许多人担心机器会造反,但一些专家认为,真正的危险离我们更近。不加控制的技术进步可能会带来隐私问题、环境压力和严重的社会后果,更不用说如果监管不当,聊天机器人已经会助长人们的危险行为。
甚至有可能出现更糟糕的情况。拥有专业知识的高度发达的人工智能有可能成为造成全球灾难的工具,而且它不需要自我意识或情感就能做到这一点。
人类责任与人工智能的危险
实验表明,人工智能模型有时会采用不道德的策略来避免被关闭,这很容易被解释为一种生存本能。但这提出了一个令人不安的问题:这是真正的意图,还是只是从科幻故事中学到的行为模式的重演?
具有讽刺意味的是,科幻小说本身可能会助长人工智能的危险,因为这些叙事是训练模型的数据集的一部分。如果一个系统反复表现出人工智能的流氓行为,其结果可能对我们同样危险–无论它反映的是真实意图还是纯粹的角色扮演。
- 点击查看更多人工智能相关文章。
因此,人工智能的危险并不一定源于机器变坏,而是源于我们赋予它们不假思索的力量。问题不在于科幻作品中的预言是否会成真,而在于我们是否有能力从中吸取教训。

