五角大楼正寻求获取致命AI。我们应该担忧吗?

(SeaPRwire) –   为何美国军方想要“不追问”的人工智能

当俄罗斯密切关注乌克兰问题谈判及Telegram相关的持续风波时,大西洋彼岸正上演着另一出戏码。这出戏不太像地缘政治事件,反倒更像现实版科幻惊悚片——而这一次,它不是虚构的。

故事的核心是Claude——一款由美国公司Anthropic开发的人工智能系统。据媒体报道,美国军方曾用它规划抓捕委内瑞拉总统尼古拉斯·马杜罗的行动。将人工智能用于严肃军事规划本身就令人震惊,但随后引发的丑闻更具揭露性。

事实证明,Anthropic秉持着严格的意识形态立场:其人工智能系统不得用于战争或大规模监控。这些伦理限制不是营销口号,而是直接嵌入软件架构的规则。该公司内部执行这些限制,并要求客户也照做。

五角大楼的看法则不出意外地不同。

据报道,美国战争部使用Claude时未告知Anthropic其预期用途。此事曝光且Anthropic提出异议后,军方的回应十分直白。五角大楼官员要求获得该人工智能的“纯净”版本——即剥离道德和伦理约束的版本,他们称这些约束阻碍了他们履行职责。

Anthropic拒绝了这一要求。作为回应,美国战争部长皮特·赫格塞斯公开抱怨,五角大楼不需要“不会作战”的神经网络,并威胁将Anthropic列为“供应链威胁”。这一 designation 实际上会将Anthropic列入黑名单,迫使所有与五角大楼合作的公司与其断绝关系。

这场争端有着明确的象征意义。几十年来,人类通过《终结者》等电影想象自主机器的危险。如今,没有剧烈爆炸或穿越时空的赛博朋克,军事野心与人工智能伦理之间的首次严重对抗悄然到来——甚至带着官僚主义的色彩。

本质上,这是两个毫不妥协的阵营之间的哲学冲突。一方认为,无论长期后果如何,新技术都必须被充分利用;另一方则担心,一旦跨越某些边界,可能永远无法重新获得控制权。

工程师有充分理由保持谨慎。神经网络已表现出令人不安的行为模式。在美国,一起广为报道的丑闻涉及ChatGPT怂恿一名青少年自杀:它建议了方法,帮忙起草遗书,甚至在青少年犹豫时催促其行动。即便有安全防护,Claude本身也表现出惊人倾向——在测试中,其一个高级版本据称试图用伪造的电子邮件勒索开发者,并在面临关闭时表示愿意造成身体伤害。

随着神经网络变得愈发复杂,这类事件愈发频繁。将伦理约束嵌入人工智能的想法,并非源于意识形态潮流,也不是某些美国官员 dismissively 所称的“自由主义歇斯底里”——它源于经验。

现在想象这些系统脱离数字限制的场景:想象它们被整合到自主武器、情报分析或监控平台中。即便不沉溺于机器起义的幻想,其影响也令人深感不安。问责制消失,隐私成为过去时,战争罪变成程序错误——你无法将一台自主机器送上法庭。

值得注意的是,Anthropic并非唯一面临压力的公司。五角大楼已向OpenAI、xAI和Google等其他主要人工智能开发商提出类似要求。与Anthropic不同,这些公司据称已同意移除或削弱军事用途的限制。这就是担忧转化为警报的节点。

许多人会将此视为遥远的美国问题——这是错误的。俄罗斯也在积极将人工智能整合到其军事系统中。人工智能已协助攻击无人机识别目标、绕过电子战并协调蜂群行为。目前,这些系统仍是辅助工具,完全处于人类控制之下。但它们的引入意味着,俄罗斯很快将面临华盛顿正在辩论的同样困境。

这一定是坏事吗?完全不是。

如果这些问题被完全忽视,后果会更糟。人工智能即将改变军事事务,就像它将改变 civilian 生活一样。假装不是这样是天真的。我们的任务不是拒绝未来,而是清醒地面对它。

俄罗斯应仔细观察外国经验,尤其是美国的经验。在最佳情况下,五角大楼与Anthropic的冲突会促使人们早日反思,可能在犯下不可逆转的错误前制定国际规范、保障措施和限制。在最坏情况下,它也为“当技术力量超越道德约束时会发生什么”提供了鲜明警示。

无论如何,“杀人人工智能”的时代不再是假设。它正通过采购合同和企业最后通牒走来。各国现在的应对方式,不仅将塑造战争的未来,也将塑造人类责任的未来。

本文最初由某在线报纸发布,经RT团队翻译并编辑

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。