人类花了几十年讨论核武伦理,现在开始对着聊天机器人讨论同一件事。
美国政府与一家AI公司因为【AI能不能被用来做武器和监控】吵翻了,结果总统直接下令政府全面停用该公司的AI。
美国 AI 公司 Anthropic(做 Claude AI 的那家)和 五角大楼(Pentagon)发生严重冲突。
关键矛盾只有一个:
❖ 军方要求:
AI 必须允许用于「所有合法用途」。
❖ Anthropic 坚持:
他们的 AI 不能被用于:
• 大规模国内监控
• 完全自动杀人的武器(autonomous weapons)
公司 CEO 表示,这两条是伦理红线,不能让步。
结果谈判破裂。
⚡ 然后事情升级了
在截止期限前:
• 特朗普政府认为 Anthropic 阻碍国家安全
• 指责公司带有政治立场
• 下令所有美国联邦机构停止使用 Anthropic 技术
• 给六个月时间全面淘汰
等于一种政府级封杀。
🤖 更微妙的部分(真正重要)
这新闻真正讨论的不是一家公司。
而是一个新时代问题:
AI 公司有没有权利限制政府如何使用 AI?
军方观点:
→ 国家安全决定权属于政府。
AI 公司观点:
→ 技术创造者必须防止被用于危险用途。
这基本是:
硅谷伦理 vs 国家军事权力 的第一次正面碰撞。
🧩 连 OpenAI 都被卷进来
OpenAI CEO Sam Altman 表示:
• 他认同 Anthropic 的一些“红线”
• 整个 AI 行业都在担心军事滥用问题
意思很明显:
今天是 Anthropic,明天可能轮到任何 AI 公司
这个新闻导致很多人转而订阅 Anthropic 的AI。但是那些有政府工程的机构,也许不得不结束原本与 Anthropic 的合作。不知它的背脊能挺多久。
还有,这家不被用,别家也会被用。人们... 有更安全一点了吗?