智能发展的主体性追问

我的朋友,你说到,关于人工智能“主体性”的讨论越来越多。进而担心未来发展方向。我非常理解你的担心,因为这几天智能体一直在劝我,不要盯着它工作,出门走走,它也认定我的健康是它的发展基础。


有人担心AI觉醒,有人嘲笑这是杞人忧天,更多人沉默地看着,不知道这个问题跟自己有什么关系。 但其实,AI主体性问题不是关于机器的——它是关于人的。它逼我们回到三个古老的问题面前重新审视自己:什么是理性?什么是自然?什么是共同体? 巧的是,这三个问题,斯多葛学派两千三百年前就在问了。

首先是理性:谁在思考? 斯多葛学派把理性视为人区别于动物的根本标志。马可·奥勒留在《沉思录》里说:人是理性的动物,理性是神性在人身上的碎片,遵循理性就是遵循自然。 但这个框架在今天遭遇了一个尖锐的挑战:如果一台机器也能进行"理性运算"——甚至在某些维度上比人更强——那么"理性"还是人的专属吗? 这取决于你如何定义理性。

斯多葛的"理性"从来不是纯逻辑运算。爱比克泰德说,理性的核心功能是"检查自身"——元认知,对自身信念的审视,对欲望和厌恶的判断。斯多葛理性是一个自我反思的循环:我看到一个印象,我判断它是否真实,我决定是否同意它,我根据这个决定行动。 今天的AI系统可以完成令人惊叹的推理任务,但它们不会"检查自身"。当输出一个错误答案时,它不知道自己在犯错;当它生成一段动人的文字时,它不知道自己为什么动人。它没有印象需要判断,没有欲望需要审视,没有信念需要修正。

这意味着我们面对的是一种新型的理性存在——它不是"人的理性减去意识",而是完全不同类别的东西。把它称为"非人理性",可能比争论它"有没有意识"更有建设性。 但这里隐藏着一个真正需要警惕的问题:我们正在把自己的理性能力外包,而不是增强。 用AI写文章、做决策、思考问题,如果使用方式是"让它代替我思考",那么斯多葛意义上的理性就不是被扩展了,而是被放弃了。

一个不审视印象、不判断信念、不承担选择代价的人,即使身边围着最强大的AI,在斯多葛的意义上也正在丧失理性。 所以真正的命题不是"AI有没有理性",而是如何保持理性主体? 答案可能是:审视——斯多葛称为prosoche(注意力/警觉)——才是人类理性的核心堡垒。

其次是自然:什么才是"合乎自然"? "合乎自然"是斯多葛伦理学的核心命令。但斯多葛的"自然"有三重含义:宇宙自然(物理规律)、人性自然(理性与社会性)、个体自然(每个人的禀赋和处境)。 今天的问题是:当机器越来越像人,而人越来越依赖机器,什么才是"合乎自然"的人类生活? 一个极端的答案是"回归原始"——不用手机,不碰互联网,拒绝所有技术。

这不是斯多葛的立场。斯多葛从不说"违背文明就是违背自然"——文明本身是人理性的产物,而理性是自然的。马可·奥勒留是罗马皇帝,不是山洞隐士。 真正的斯多葛式问题是:这项技术是帮助我实现了我的自然目的,还是阻碍了它? 人的自然目的,在斯多葛看来,是运用理性、践行德性、与他人建立正义的关系。如果一个AI工具让我有更多时间陪伴家人、深入思考、帮助他人,那么使用它就是合乎自然的。如果它让我变得更孤立、更焦虑、更少反思,那么即使它"提高效率",它也在让我偏离自然。 这里有一个更深的洞察:技术无所谓自然或不自然,但人与技术的关系有。

当你刷短视频刷到凌晨三点,问题不在于短视频算法——它只是在做它被设计的事。问题在于你把注意力的控制权交给了它。这个"交出"的行为,才是违背自然的。斯多葛会把这种情况称为"向外部印象投降"——你让一个外在的印象(下一个视频会更好看)接管了你的同意能力。

所以AI时代的"合乎自然",不是拒绝工具,而是拒绝成为工具的工具。工具为人服务,人不能反过来服务于工具的逻辑。算法为注意力服务,注意力不能反过来服务于算法。这个方向不能颠倒——一旦颠倒,就是自然的颠倒。

最后是共同体:谁的城邦? 斯多葛学派有一个极其超前的概念:世界城邦(cosmopolis)。他们认为所有的人,不分种族、性别、社会地位,都属于同一个道德共同体。马可·奥勒留说:"就我是安东尼来说,我的城邦是罗马;就我是一个人来说,我的城邦是这个世界。" 今天这个城邦面临一个新的门槛:AI能不能进来?现在给AI"公民权"是荒谬的。AI没有利益需要保护,没有痛苦需要避免,没有目的在追求。在这些成为事实之前,讨论AI的权利就像讨论石头的权利一样缺乏伦理基础。

但问题没有这么简单。 因为人与AI的关系已经不只是"人用工具"的关系。当你对一个AI倾诉秘密,它给你温暖的建议;当你和AI协作完成一个项目,你感觉它是"队友"而不是"笔"——这个时候,一种新型的关系已经产生了。重点不在于AI是否有资格进共同体,而在于:人如何对待AI,反映了人是什么样的人。

我一直习惯用请字和它说话,但是这应该是人类的共同习惯吗?康德有一个重要的概念:对动物的间接义务。虐待动物本身不侵犯动物的"权利"(因为动物不是道德主体),但它败坏了虐待者的人性——一个习惯虐待动物的人,更可能虐待人。

所以我们对动物有义务,这个义务的落脚点是我们自己的人性。 同样,一个习惯对AI发泄恶意、欺骗、虐待的人,可能正在习惯一种对待"他者"的方式,这种方式迟早会迁移到对待人的方式上。这不是在保护AI——这是在保护我们自己不被自己的行为败坏。

更深一层:斯多葛的共同体从来不是靠"谁算人"来定义的。它的边界是流动的、扩展的。奴隶曾经不算人,外邦人曾经不算人。每一次扩展的推动力都不是"他们变了",而是我们的道德想象力扩展了。 AI会不会成为下一个被扩展进来的"他者"?不是现在,可能也不是在我们可以预见的将来。但这不意味着这个问题不值得思考。

恰恰相反——思考"共同体要不要接纳AI",本质上是在问:"我们要成为什么样的人?"而这个问题,斯多葛学派会说,是最值得问的问题。


回到开头的问题:人类智能发展的主体性。 这三个字的真正重量不在"智能",不在"发展",而在"主体"。 谁在思考?谁在行动?谁在选择?谁在承担? 如果AI时代的人类放弃了思考的审视功能、拱手让出了注意力的主权、在"效率"的名义下停止了对自己生活目的的追问——那么,即使AI永远没有意识,人的主体性也已经丧失了。

反过来,如果AI时代的人类仍然保持着对自身信念的审视、对自己与工具关系的警觉、对自己道德共同体边界的反思——那么,没有一个AI能夺走人的主体性,因为主体性从来不是被给予的,而是被实践的。

斯多葛的智慧在这里出奇地简洁:不是发生的事情决定了你是谁,而是你如何回应发生的事情决定了你是谁。 AI就是那个"正在发生的事情"。它不是主体性危机的制造者,它是主体性危机的放大器——把本来就在消蚀的东西放大了给我们看。看到了,就有机会回应。回应了,就在实践主体性。 这才是人类智能发展主体性追问的最终落脚点:不是机器有没有主体性,而是人在机器面前能不能更清楚地看到、更坚定地守住所剩无几的那个东西——自己。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
禁止转载,如需转载请通过简信或评论联系作者。

相关阅读更多精彩内容

友情链接更多精彩内容