🏆 时隔14年,统计学“诺贝尔奖”回归华人!宾大教授苏炜杰:别死磕AI白盒了,我们需要新的数学语言

导语
2026年,统计学界的最高荣誉——考普斯会长奖(COPSS Presidents’ Award),时隔14年再次颁给了一位华人学者!
他是宾夕法尼亚大学的苏炜杰教授。比起纯粹的数字游戏,他更关注如何给当下狂飙突进的AI套上“缰绳”。在量子位的最新专访中,苏教授直言:人类连自己的大脑都没搞懂,想彻底看透AI的“黑盒”并不现实。
面对越来越复杂的AI,普通人该如何理解?年轻人该如何学习?这篇文章,为你拆解这位顶尖学者的前沿思考。


1. 别逼着AI变“透明”,把它当“洋葱”剥就行

现在的AI大模型(比如ChatGPT)动辄几千亿个参数,内部复杂得像一个巨大的迷宫。很多科学家绞尽脑汁想要实现“可解释性”——也就是把AI的脑子完全打开,看看它到底是怎么得出答案的(俗称“白盒化”)。

但苏教授认为,这条路可能走不通。

“人类研究自己的大脑两千多年都没搞明白,凭什么觉得能完全理解一个越来越复杂的‘硅基大脑’?”

他的解法是:用统计学思维,只看“表现”,不看“内部结构”。
我们可以把AI当成一个黑盒,虽然不知道它里面怎么运作的,但我们可以通过统计和概率,设定好“奖罚规则”,引导它给出我们想要的结果。

苏教授提出了一个非常生动的“剥洋葱”理论
神经网络就像是一层层叠在一起的黑纱布。叠得越多越看不透。但我们没必要把它全部拆开,只要像剥洋葱一样剥开最外面的两三层,观察它在这个浅层到底有没有真正“听懂”人类的指令就够了。底层那些细碎的计算,没必要理解,也理解不了。


2. AI的价值观底线:至少要知道我们“不要什么”

我们都希望AI能符合人类的价值观(AI对齐),但问题是,全人类根本没有统一的偏好。你的“好”在别人眼里可能是“坏”。

如果连人类自己都在“A比B好,B比C好,C又比A好”的循环中打架,AI该怎么学?一旦学歪了,AI可能会在社会中形成一种我们极其不想看到的“烂苹果效应”。

苏教授举了一个“AI审稿”的例子:
现在学术界论文满天飞,审稿人看不过来,就开始让AI代劳。如果所有人都用同一个AI模型(比如ChatGPT)去审稿,结果就是所有论文的评判标准千篇一律,彻底失去了学术研究最宝贵的多样性。更可怕的是,如果AI在审稿时产生了“幻觉”(一本正经地胡说八道),并被未来的研究反复引用,人类的知识库就会被虚假信息污染。

所以,给AI定规矩,第一步不是找到那个“最完美的标准”,而是画一条底线——明确指出哪些坏结果是我们绝对不能接受的。


3. 保护隐私不能靠企业自觉,得把它变成“赚钱游戏”

把所有数据都喂给AI,AI就能变成最懂你的“钢铁侠智能管家贾维斯”——听起来很爽,但苏教授警告:长期来看,隐私泄露是一件极其危险的事。

以前搜网页,你只暴露了几个关键词;现在和AI聊天,你暴露的是全方位的性格、弱点和私生活。

怎么保护隐私?传统的做法是“差分隐私”。
简单来说,就是在数据里“掺沙子”(加噪音)。比如计算平均工资时,给每个人的真实工资加上或减去一个随机数,这样既能算出大盘的平均值,又没人能反推出你到底赚多少钱。

但在神经网络时代,这种方法很难直接用,加太多“沙子”会让AI变笨。对此,苏教授提出了三个实用的观点:

  1. 隐私要分级: 不要一刀切。买菜的偏好可以不那么保密,但医疗、金融数据必须死守。
  2. 守住社会共识: 虽然我们现在为了用AI让渡了一部分隐私,但这是一种妥协,不能把“妥协”当成“理所当然”。
  3. 用魔法打败魔法(机制设计): 不要指望科技公司有道德洁癖。要设计一种类似“比特币”的机制,让保护隐私变成一件有利可图的事。当“保护隐私”能帮公司赚更多钱时,他们自然会抢着去做。

4. 呼唤天才:AI需要一门全新的“数学语言”

为什么现在AI的理论研究总是落后于工程实践?往往是产品都迭代好几代了,科学家才马后炮地解释它为什么有用?

苏教授抛出了一个极其大胆的洞察:因为我们现有的数学语言,配不上AI。

人类现有的高阶数学,大多是伴随物理学发展起来的。

  • 物理学的逻辑是“从小到大”: 先搞懂最基础的原子、夸克,再去推导宏观世界的规律。
  • AI的逻辑是“从大到小”: 先搭一个宏大的框架(几十层网络),然后再在训练中慢慢确定里面几十亿个微小的参数。

这两者的底层逻辑完全相反!用传统的数学去解释AI,就像用文言文去写现代科幻小说,处处别扭。

苏教授发出呼吁: 我们需要纯数学背景的顶尖大脑进入AI领域,去创造一套专属于AI的全新数学框架。这件事的伟大程度,绝对不亚于牛顿提出经典力学,或爱因斯坦提出相对论!


5. 给年轻人的避坑指南:别被AI骗了

在AI时代,大学生该怎么规划自己?苏教授给出了几条非常接地气的建议:

  • 警惕“假装学会了”: 很多人觉得跟着AI对话就等于掌握了知识,其实根基非常虚浮。大学里的老师、考试,这些看似死板的“反馈机制”,反而是帮你把基础打牢的关键。
  • 大厂不是唯一的出路: 别觉得不去OpenAI实习就做不了AI。自己搞台电脑跑跑开源模型,亲手搭一个AI智能体(Agent),这种实操经验比光在网页上聊天深刻得多。
  • 主动学习的红利期到了: 以前大家都在教室里听课,好学生和差学生的差距没那么大。但在AI时代,如果你只会“被动听课”,而别人在用AI主动探索、甚至创造工具,你们之间的差距将被拉大到成百上千倍。

结语
随着芯片算力逼近物理极限(Scaling Law 收益放缓),暴力堆算力的时代终将过去。未来AI的比拼,将回归到最硬核的算法、结构和数学理论上。而这,正是统计学与数学的黄金时代。

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容