近期在朋友圈刷屏的,除了蛇年春节,就是DeepSeek了,此时此刻,正如之前ChatGPT发布和更新时的彼时彼刻。
抛开立场、技术等层面,单纯从使用者的视角来看,它的深度思考过程,以及给出的反馈,让人非常惊艳。总结出来的内容,比我写得要好多了,如果说之前用Kimi和豆包,只是在我写文章的时候提供参考和大纲,DeepSeek生成内容我可以直接照抄了。
更关键的是,DeepSeek是开源的,这意味着理论上每个人都可以安装部署专属于自己的AI大模型。趁着春节期间闲来无事,说干就干,我在自己的M1芯片Air上成功部署了DeepSeek-R1。
安装部署的过程简单并且顺利得超出了我的预期,也就是三个步骤:1、下载安装Ollama;2、通过Ollama下载部署DeepSeek-R1;3、下载安装Chatbox调用DeepSeek-R1。
本来这篇文章是想介绍安装部署DeepSeek的过程,就像我曾经写过的安装部署WAS集群、在小型机安装部署Oracle。既可以作为经验分享,又可以留存为文档备忘。但是过程太简单,甚至比两年注册开通使用ChatGPT更简单,实在是没必要成为经验或过程的分享。
我的笔记本电脑是MacBook Air M1,CPU和内存还行,但是显存是远远跟不上的,因此只敢选最低配的1.5b,有条件的话当然可以选7b以上,甚至看到有人用7台MacMini 4 Pro把整个DeepSeek-R1都部署运行了,这也给了我一个换电脑的完美理由。
把本机的运行结果反馈和在线的对比了下,还是能够明显看出算力和模型参数的差距,无论是深度思考还是反馈出来的结果质量,以及能够生成的内容方式,都还是有差异的,只不过对于个人在本机尝鲜也差不多够了。
在这个过程当中,我最大的感受并不是DeepSeek有多强大,而是AI大模型从云端钻入我的笔记本电脑这件事本身。如同几十年前,使用计算机进行计算这件事情,从大型机走向PC机,从大公司和实验室迈入千家万户。
DeepSeek告诉我这叫算力平权,想想可能还真是这样,这意味着每个组织以及每个人,都有可能建立一个自己专属的AI大模型,同时还不需要像以前那样担心隐私问题。
当看到7台MacMini 4 Pro搭建出来跑DeepSeek的集群,想起我之前想过买个MacMini搭建NAS,只是为了在本地存储一些电影资源。有了AI的加持,完全可以在自己家里建立一个更加智能化的NAS,比如根据我的喜好去在线搜索片源并自动下载以及分类存储,我只需要提供指令就好。
再深入想想,算力的需求应该会持续增长甚至迎来爆发,只不过不再只局限于高端GPU,而是所有的终端设备都将因此而升级,因为未来每个设备都有可能是智能生命体。
这也让基于终端的边缘计算越来越重要,成为算力觉醒和爆发的新大陆。算力的增长和爆发,又会进一步推动数据量的膨胀以及算法模型的持续优化,同时也会让整个产业形成更加繁荣的生态。
这也让我想起了曾经移动互联网的历程,从最初乔布斯发布iPhone,把人类正式带入移动互联网时刻,再到安卓的开源和发布,再到小米把智能手机的价格打下来,让智能手机和移动互联网成为每个人都可以使用和消费得起的东西,才以及后面各种应用和内容的大爆发。
当AI从云端到终端,我们正在见证的是智能本身,终将成为每台设备与生俱来的本能,也将带来算力的爆发和整个产业的繁荣。