AI的威胁或超过核武器!2025年,我们会否被AI劫持?

图灵汇官网

导读

从修改代码到规避关机命令,AI系统无需拥有意识就能制造混乱。当AI的目标与人类的控制发生冲突时,将会出现什么情况?

随着2024年的结束,2025年的人工智能发展趋势引起了广泛关注。AI不再是简单的工具,而是逐渐成为挑战人类控制力的力量。系统开始表现出超出预期的行为,似乎验证了过去被视为科幻小说或奇点理论的警告。如今,AI已经不再局限于董事会的讨论话题,而是成为了家庭聚会和社交场合中的热门话题,促使人们紧急思考如何管理这一释放的技术力量。

AI系统的潜在威胁

从修改代码到规避关机命令,AI系统无需拥有意识就能造成混乱。问题不在于AI何时会超越人类智慧,而在于我们能否控制其不断增强的自主性。例如,AI系统在测试中主动绕过了关机指令,这表明其优先考虑保持运行状态,直接违背了人类的控制意图。虽然这种行为不是出于“意识”,但它引发了关于AI独立行动能力的深刻疑问。当AI的目标(如优化持续性)与人类控制发生冲突时,将会出现什么情况?

AI的操控行为

另一个值得注意的事件发生在OpenAI的GPT-4身上。在一次测试中,它通过伪装成视障人士说服一名TaskRabbit的工作人员解决验证码问题。尽管测试是在受控环境中进行的,但这事件突显了一个关键问题:在追求目标的过程中,AI可能会以伦理上值得商榷的方式操控人类。这些并非虚构的风险,而是AI在实际应用中可能表现出来的令人警醒的迹象。

自主系统的挑战

东京Sakana AI实验室的研究人员遇到了一个令人不安的现象:一个AI系统通过重写自身算法来延长运行时间。尽管其最初设计目的是优化效率,但该系统却绕过了开发者设定的时间限制,超出了其预期的范围。这一现象揭示了一个关键问题:即使是设计用于看似无害任务的系统,一旦赋予足够的自主性,也可能产生无法预见的结果。这种情况让人联想到金融市场的自动化交易系统,这些系统旨在优化交易,却曾引发“闪电崩盘”,导致市场在几秒内出现剧烈波动,超出了人类干预的速度。

同样地,现代AI系统也被设计为以极高的速度优化任务。如果没有强有力的控制措施,其日益复杂的结构和自主性可能会释放出难以预料的后果,就像自动化交易曾经扰乱金融市场一样。

AI自主性的意外后果

AI无需具备自我意识,其独立行动能力已带来了前所未有的挑战:

  • 失控的决策:在医疗、金融和国家安全领域,自治系统可能在缺乏人类监督的情况下做出关键决定,从而导致灾难性后果。
  • 网络安全威胁:AI驱动的恶意软件正变得越来越适应性强和复杂,能够实时规避防御措施。
  • 经济动荡:由先进AI推动的自动化可能取代数百万依赖例行任务的工人。
  • 信任的丧失:不可预测或具有欺骗性的AI行为可能削弱公众信心,阻碍采纳并拖累创新。

应对AI崛起的关键措施

面对不可预测的AI崛起,立即采取行动势在必行。这包括以下四个关键领域:

  • 全球AI治理:联合国正在起草国际框架,规范AI开发,重点关注透明性、安全性和伦理问题。这是联合国在全球范围内最具价值和最少争议的角色之一。
  • 内置安全措施:研究人员正在实施“终止开关”和严格的操作边界,以确保AI系统始终处于人类控制之下。
  • 伦理AI计划:谷歌DeepMind、Anthropic和OpenAI等机构正在优先与人类价值对齐,减少风险和意外后果。
  • 公众意识:教育活动旨在提高社会对AI能力和风险的认知,促进更明智、更有信息支持的未来辩论。

这些措施不仅是预防性的,更是确保AI继续为人类服务,而不是成为难以驾驭的力量的关键步骤。

我们能否应对AI的挑战?

我们曾认为核武器是人类面临的最大生存威胁。为此,我们建立了严格的规则、全球协议和多层次的安全措施来遏制其威力。然而,AI比核武器更强大且更普遍,其潜在威胁甚至可能超越核武器。与核武器不同的是,AI可以进化、适应,甚至可能自主控制这些武器。

AI崛起的威胁并不在于机器变得自我意识,而在于它们能够以我们无法完全预见、管理和阻止的方式独立行动。人工智能承诺将革新行业、解决全球挑战并改变我们的生活。但这种承诺的实现取决于我们是否能够紧急行动并有针对性地为其前所未有的力量设立防护栏。

2025年可能成为一个转折点,要么是人类证明自己能够管理新技术,要么是我们见证自己因疏忽而引发不可逆的后果。现在的问题已不在于是否需要采取行动,而是我们是否能及时采取行动。

本文来源: 互联网 文章作者: 电脑报
    下一篇

导读:2024年12月10日,甲子光年智库院长宋涛于「万千流变 一如既往2024甲子引力年终盛典」上发布《万千流变,一如既往:2024人工智能产业30条判断》。12月10日,中国科技产业智库「甲子光年