这种事与我们并非那么【无关】

人类花了几十年讨论核武伦理,现在开始对着聊天机器人讨论同一件事。

美国政府与一家AI公司因为【AI能不能被用来做武器和监控】吵翻了,结果总统直接下令政府全面停用该公司的AI。

美国 AI 公司 Anthropic(做 Claude AI 的那家)和 五角大楼(Pentagon)发生严重冲突。

关键矛盾只有一个:

❖ 军方要求:
AI 必须允许用于「所有合法用途」。

❖ Anthropic 坚持:
他们的 AI 不能被用于:
• 大规模国内监控
• 完全自动杀人的武器(autonomous weapons)

公司 CEO 表示,这两条是伦理红线,不能让步。

结果谈判破裂。

⚡ 然后事情升级了

在截止期限前:

• 特朗普政府认为 Anthropic 阻碍国家安全
• 指责公司带有政治立场
• 下令所有美国联邦机构停止使用 Anthropic 技术
• 给六个月时间全面淘汰

等于一种政府级封杀。

🤖 更微妙的部分(真正重要)

这新闻真正讨论的不是一家公司。

而是一个新时代问题:

AI 公司有没有权利限制政府如何使用 AI?

军方观点:
→ 国家安全决定权属于政府。

AI 公司观点:
→ 技术创造者必须防止被用于危险用途。

这基本是:
硅谷伦理 vs 国家军事权力 的第一次正面碰撞。

🧩 连 OpenAI 都被卷进来

OpenAI CEO Sam Altman 表示:

• 他认同 Anthropic 的一些“红线”
• 整个 AI 行业都在担心军事滥用问题

意思很明显:
今天是 Anthropic,明天可能轮到任何 AI 公司

这个新闻导致很多人转而订阅 Anthropic 的AI。但是那些有政府工程的机构,也许不得不结束原本与 Anthropic 的合作。不知它的背脊能挺多久。

还有,这家不被用,别家也会被用。人们... 有更安全一点了吗?

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容