今天喵下班回来,兴致勃勃地在我的新电脑上演示大模型应用平台coze,功能真是强大。给我演示完毕,他又感慨了一句:哎呀,有了这些,真担心以后会失业。
事实上,担心失业虚实参半,主要还是叹服大模型演进之快。
后面的聊天中,他滔滔不绝给我讲gpu和cpu的区别,又提到了卷积模型。我来了兴趣,趁他带儿子,我回书房把这些概念都理了一遍。
尤其是卷积模型,从卷积的数学原理开始,到卷积为什么会普及,每一次迭代中卷积核是如何更新的,于是又了解了包括反向传播算法的卷积模型结构,看到“梯度”时不能理解,以为是复杂的概念,再查发现也还好,看到了几个数学公式,包括损耗函数关于输出层的梯度,输出层关于隐藏层的梯度,又进一步查了隐藏层是哪个过程,于是又看到激活函数和池化的概念。看看时间到0点了,腿脚冻的不行,又不忍放弃这昙花一现的求知若渴,于是又查了下激活函数,以为很复杂,实际上至少概念都是容易理解的。
整个过程都是在Kimi上问答的。最初问卷积的数学原理,得到的答案抽象又乏味,但是我试着让kimi说得简单生动些,结果答复堪称完美。我心想要是上大学时老师是这么教的,或者回到宿舍有这么一个学习助手,那该多好!