所有的播客都收录在往期回顾里边, 可以直接看往期回顾看体验会更好~
✨往期播客笔记回顾传送门
1. 「AI的本质与技术机制」
AI是概率机器:生成式AI的输出基于概率计算(如“温度参数”调控结果的随机性),
示例:温度值设为0时,AI严格选择最高概率词;设为1.5时,可能生成无逻辑内容。
2. 历史与哲学视角:符号、现实与文明挑战
符号与现实的混淆:麦克卢汉、鲍德里亚预言的“符号幻象”已成现实(如AI生成内容模糊真假界限)。
人类感官易被误导(如视觉错觉、听觉偏差),加剧信任危机。
话语体系的权力重构:
每当社会剧烈变化的时候, 先变化的是话语体系, 这就多了很多新的名词, 因为既得利益阶层需要把旧的利益阶层干掉, 靠概念去干, 靠新的语言体系.
3.如何应对这个时代的变化?
三个阶段。第一步要想清楚,第二步要说明白,第三步要做得到。基模IPOF(input process output feedback). 人生最大的痛苦是想不明白.
在当今信息泛滥的时代, 要做三件事
一: 别受骗 , 信息是概率分布和输出的.你可能只是接触到了其中的一面.概率分布正常的中间值是不值得被传播的,只值得传播这个极端态。
二: 别自欺, AI机器不是人, ai 是以数据为食,它所输出的东西是人为操控让他做的.人工智能的所有能力都是人的善恶的体现, 机器是人的一面镜子,人也是机器一面镜子。
三: 达成共识, 人机分离, 人鬼殊途.
大多数人是在一个在工业文明下异化成了的机器人, 从小被训练: 听话, 苦干, 不能犯错, 重复性动作. 这些都是机器人的优秀素质. 我们现在因为这种语言和社会的氛围的误导,让咱们做不成人。我们被异化成了机器人,我们才是机器人。跟机器人比他的长项肯定比不过.
4.什么叫智慧?
error error and error,出偏,出偏再出偏,不是mistake(错误),是出偏,下一次怎么样呢?Less and less, 少一点,再少一点,这个叫做真正的正确不犯错。偏差和错误是不一样的.
5. 技术伦理与人类责任
AI是人类的镜子:AI的善恶取决于人喂给他的训练数据. “喂养AI什么,它就成为什么。”
工程师的伦理使命:
微软内部培训强调:开发者需警惕“白骨精式技术”(披人皮的机器),避免误导大众。
案例:AI生成虚假新闻时,责任在提示词设计者,而非模型本身。
数据安全与文明安全:
矛盾:文明进步需数据共享,数据安全需保密。解决方向:明确“不可分享的数据边界”(如核心高精尖知识仅占组织数据的5%-10%)。
6.教育危机与人性重塑
传统教育的方式:培养“机器人式”特质:听话、苦干、不出错(如银行柜员重复性工作)。
学生用ChatGPT答题,教师用ChatGPT出题,形成“无效内卷”。
教育变革路径:
以提问代替答案:训练学生设计问题(如“南北战争爆发原因”需多角度提问),而非记忆标准答案。
三错法创新:认错→知错→改错,将偏差视为探索机会(如爱迪生“证明此路不通”)。三错法就是人类的创新之路,这是先去探索星辰大海。
家长与教师的觉醒:
需自己先摆脱“机器人化”,才能引导下一代(如拒绝焦虑营销,培养批判思维)。
教育的方向:以后的教育一定是老师给问题,让学生去explore探索。由机器给explain,机器explain解释的结果来反证学生探索的方向是什么。
7. 信息文明时代的生存法则: 如何避免数字信息污染大脑?
零信任原则:
第一Verify:默认信息存在偏差,你要默认你听到看到的都是偏的和假的。要验证其真实性.
第二Validate:确认信息符合概率分布(如极端事件易传播,但非常态)。
所有允许你进入你眼睛和耳朵,就是你的大脑获取的这个信息都需要进行验证。真消息并不表征真相,真消息只说明这消息是真的,而真相是靠无数的真消息塑造的。
第三: 数据信息的有限摄取原则, 设定每日信息消费上限,避免“大脑肥胖症”(如每天仅2小时接触网络)。回归自然:留出足够多的时间享受大自然, 保留人性基本需求(情感、休息、均衡生活)。
8.人类文明的未来抉择: 三条路径
沉溺虚拟:活在AI构建的元宇宙(风险:感官操控,丧失真实)。沉迷于幻想之中.
星辰大海:用AI探索科学边界(如量子物理、宇宙奥秘)。不要老拿ai生成点什么总结文字,做点图片,做点视频,优化自己的岗位要让他去帮你去拓展你的认知边界,去了解物理化学、量子天文宇宙.
人性觉醒:通过精神升华重塑价值。了解你自己,就是物质文明的进步,精神文明的进步和心灵的升华.
技术向善的核心:
开发者需为AI附加“说明书”,明确能力边界(如企业级AI限制温度参数)。
金句与行动指南
机器人的工作被自动机替代,但人类需觉醒为人。
AI是概率机,创新来自人类的异常值。
失去兽性,失去一切;找回人性,重获自由。
人是有主观能动性的。
人类的文明状态,就我们的文明的进化的程度跟人类自己发明出来的机器的能力产生了误差.真正的问题是我们的文明是否有能力驾驭这种机器能力.
机器人的工作要被机器给替代掉, 机器人的工作被自动机替代. 但机器人升华成了人, 人就应该找回自己的人性.机器代替机器人的工作之后,人就不断提供异常值。
行动建议:
优先保护精神健康,减少无效信息消费。
在教育中培养提问能力,而非标准答案。
技术从业者需平衡创新与伦理,推动“科技向善”。
碎碎念: 这是目前听到感觉相对难的一期, 花了好多时间整理, 感觉有些观点不是很懂. 以后还会重听. 但是这是一期非常值得听的播客, 很有启发性. 最后想引用雨白的话: 信息已成洪流的AI时代,关注自己,想清楚未来的目标,并如实的记录当下,可能会让我们对生活更有掌控感。