导语
2026年,统计学界的最高荣誉——考普斯会长奖(COPSS Presidents’ Award),时隔14年再次颁给了一位华人学者!
他是宾夕法尼亚大学的苏炜杰教授。比起纯粹的数字游戏,他更关注如何给当下狂飙突进的AI套上“缰绳”。在量子位的最新专访中,苏教授直言:人类连自己的大脑都没搞懂,想彻底看透AI的“黑盒”并不现实。
面对越来越复杂的AI,普通人该如何理解?年轻人该如何学习?这篇文章,为你拆解这位顶尖学者的前沿思考。
1. 别逼着AI变“透明”,把它当“洋葱”剥就行
现在的AI大模型(比如ChatGPT)动辄几千亿个参数,内部复杂得像一个巨大的迷宫。很多科学家绞尽脑汁想要实现“可解释性”——也就是把AI的脑子完全打开,看看它到底是怎么得出答案的(俗称“白盒化”)。
但苏教授认为,这条路可能走不通。
“人类研究自己的大脑两千多年都没搞明白,凭什么觉得能完全理解一个越来越复杂的‘硅基大脑’?”
他的解法是:用统计学思维,只看“表现”,不看“内部结构”。
我们可以把AI当成一个黑盒,虽然不知道它里面怎么运作的,但我们可以通过统计和概率,设定好“奖罚规则”,引导它给出我们想要的结果。
苏教授提出了一个非常生动的“剥洋葱”理论:
神经网络就像是一层层叠在一起的黑纱布。叠得越多越看不透。但我们没必要把它全部拆开,只要像剥洋葱一样剥开最外面的两三层,观察它在这个浅层到底有没有真正“听懂”人类的指令就够了。底层那些细碎的计算,没必要理解,也理解不了。
2. AI的价值观底线:至少要知道我们“不要什么”
我们都希望AI能符合人类的价值观(AI对齐),但问题是,全人类根本没有统一的偏好。你的“好”在别人眼里可能是“坏”。
如果连人类自己都在“A比B好,B比C好,C又比A好”的循环中打架,AI该怎么学?一旦学歪了,AI可能会在社会中形成一种我们极其不想看到的“烂苹果效应”。
苏教授举了一个“AI审稿”的例子:
现在学术界论文满天飞,审稿人看不过来,就开始让AI代劳。如果所有人都用同一个AI模型(比如ChatGPT)去审稿,结果就是所有论文的评判标准千篇一律,彻底失去了学术研究最宝贵的多样性。更可怕的是,如果AI在审稿时产生了“幻觉”(一本正经地胡说八道),并被未来的研究反复引用,人类的知识库就会被虚假信息污染。
所以,给AI定规矩,第一步不是找到那个“最完美的标准”,而是画一条底线——明确指出哪些坏结果是我们绝对不能接受的。
3. 保护隐私不能靠企业自觉,得把它变成“赚钱游戏”
把所有数据都喂给AI,AI就能变成最懂你的“钢铁侠智能管家贾维斯”——听起来很爽,但苏教授警告:长期来看,隐私泄露是一件极其危险的事。
以前搜网页,你只暴露了几个关键词;现在和AI聊天,你暴露的是全方位的性格、弱点和私生活。
怎么保护隐私?传统的做法是“差分隐私”。
简单来说,就是在数据里“掺沙子”(加噪音)。比如计算平均工资时,给每个人的真实工资加上或减去一个随机数,这样既能算出大盘的平均值,又没人能反推出你到底赚多少钱。
但在神经网络时代,这种方法很难直接用,加太多“沙子”会让AI变笨。对此,苏教授提出了三个实用的观点:
- 隐私要分级: 不要一刀切。买菜的偏好可以不那么保密,但医疗、金融数据必须死守。
- 守住社会共识: 虽然我们现在为了用AI让渡了一部分隐私,但这是一种妥协,不能把“妥协”当成“理所当然”。
- 用魔法打败魔法(机制设计): 不要指望科技公司有道德洁癖。要设计一种类似“比特币”的机制,让保护隐私变成一件有利可图的事。当“保护隐私”能帮公司赚更多钱时,他们自然会抢着去做。
4. 呼唤天才:AI需要一门全新的“数学语言”
为什么现在AI的理论研究总是落后于工程实践?往往是产品都迭代好几代了,科学家才马后炮地解释它为什么有用?
苏教授抛出了一个极其大胆的洞察:因为我们现有的数学语言,配不上AI。
人类现有的高阶数学,大多是伴随物理学发展起来的。
- 物理学的逻辑是“从小到大”: 先搞懂最基础的原子、夸克,再去推导宏观世界的规律。
- AI的逻辑是“从大到小”: 先搭一个宏大的框架(几十层网络),然后再在训练中慢慢确定里面几十亿个微小的参数。
这两者的底层逻辑完全相反!用传统的数学去解释AI,就像用文言文去写现代科幻小说,处处别扭。
苏教授发出呼吁: 我们需要纯数学背景的顶尖大脑进入AI领域,去创造一套专属于AI的全新数学框架。这件事的伟大程度,绝对不亚于牛顿提出经典力学,或爱因斯坦提出相对论!
5. 给年轻人的避坑指南:别被AI骗了
在AI时代,大学生该怎么规划自己?苏教授给出了几条非常接地气的建议:
- 警惕“假装学会了”: 很多人觉得跟着AI对话就等于掌握了知识,其实根基非常虚浮。大学里的老师、考试,这些看似死板的“反馈机制”,反而是帮你把基础打牢的关键。
- 大厂不是唯一的出路: 别觉得不去OpenAI实习就做不了AI。自己搞台电脑跑跑开源模型,亲手搭一个AI智能体(Agent),这种实操经验比光在网页上聊天深刻得多。
- 主动学习的红利期到了: 以前大家都在教室里听课,好学生和差学生的差距没那么大。但在AI时代,如果你只会“被动听课”,而别人在用AI主动探索、甚至创造工具,你们之间的差距将被拉大到成百上千倍。
结语
随着芯片算力逼近物理极限(Scaling Law 收益放缓),暴力堆算力的时代终将过去。未来AI的比拼,将回归到最硬核的算法、结构和数学理论上。而这,正是统计学与数学的黄金时代。