关于deepseek本地部署及效率评估-2

声明‖  本文原创非首发,首发于头条。按微头条首发创作者要求,头条发布72小时后转载发布于简书。微条 2501|| 多篇微条集合


(续前)

现在你就可以和deepseek这个人工智能大模型进行正常对话聊天儿了,多好。

有人也许要问,为什么非要将Deep seek大模型部署到本地运行呢,目前在线的版本用着不是也挺好的么。

这个要回答起来,那可真是满眼都是泪。

进行本地部署,近期的原因是因为,如果我们现在无论是从手机端还是从电脑端运行大模型,我估计向大模型问三个问题,会有两个出现网络延迟或拒绝服务,看着那小圆圈转呀转呀,就是不出结果,真是急死个人。

造成这个的原因,一方面是目前Deep seek大模型使用客户数太多,服务器能力不足,造成网络拥堵和服务延迟,另一方面就是deepseek近期经常遭受到国外的大规模黑客攻击,经常性地造成无法正常对外提供服务。

正因为如此,如果我们完成了deep seek大模型的本地部署,我们就是使用自己的电脑硬件在为自己提供独立的人工智能服务了,既不对外依赖于网络,也不依赖于服务器,对于一些比较常规的简单问题,那应该是飞速响应的。

另外一方面本地部署的好处就在于,我们把自己的一些内部资料交给大模型进行处理,不存在泄密或者说是信息泄露的风险,尤其是当我们把日常经常性的工作数据交给大模型进行训练调优,建立个性化的专家库,技能库的时候,保证私人信息安全,这一点尤为重要。

实现人工智能大模型的本地部署和运行,就能够较好地避免信息外泄,同时,因为大模型只接受我们私人的专业内容数据,而没有大量其他各类数据信息的干扰,通过对大模型进行训练,慢慢的积累经验,大模型就能够完成个性化调试,慢慢的就能够在特定的专业技术领域,专业度越来越高,专业技能越来越强,干很多非常专业的事情,从而为我们节省大量的时间和精力。

当然我只是把我自己的观点和看法分享给大家,说的不一定完全准确,但大体意思肯定是没问题的。

比如我准备下一步进行的工作,就是教会本地部署的大模型,如何从大量简历之中提取有用的信息,生成相应的人员信息表格。

(待续)

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
禁止转载,如需转载请通过简信或评论联系作者。

相关阅读更多精彩内容

友情链接更多精彩内容