Deepseek爆火的背后

郑重声明:原创首发,文责自负。


近日,一款名为“Deepseek”的AI语言模型在全球范围内掀起了讨论AI技术的热潮。连对中国AI技术颇有微词的英伟达、微软、亚马逊等美国科技巨头也纷纷接入了Deepseek-R1模型。Deepseek究竟是何方神圣,能在AI领域引起此等规模的轰动?

Deepseek是由我国自主研发的大型语言模型,不仅拥有强大的处理和解决问题的能力,还能够理解并回答问题,还能辅助写代码、整理资料和解决复杂的数学问题。

众所周知,美国在之前的AI发展领域一直居于垄断地位,同时对AI发展预设了天价的硬件和人才投入的路径,以达到阻断竞争对手发展AI产业的目的。举个例子,AI大模型的训练和部署是AI研发过程中不可或缺的一环,但在Deepseek横空出世之前,它需要极其高昂的资金成本。训练就是引导AI建立满足个人需求的模型,使得AI能够符合当前的应用场景,而部署则是让AI在自己搭建环境下开始运行的过程。美国的OpenAI o1就用了上万张英伟达H100 GPU,成本高达10亿美元;但Deepseek在训练过程中仅采用2048张“中国特供”版H800 GPU,成本约为500万∽600万美元,仅为前者的1/200。

成本高使得OpenAI o1需要较高的使用费用,而效能和它不相上下、甚至略胜一筹的Deepseek R1却可以免费使用。谁会放着免费的馅饼不吃呢?OpenAI的用户纷纷倒向Deepseek的怀抱,在他们眼里,OpenAI“似乎没有那么香了”。同时,低成本意味着Deepseek可以在全球大范围普及,同时绕过了美国的擎肘,这在世界上还是第一次,它用事实证明了“不需要高额的投入就能获得性能≥OpenAI的AI产品”。

我们可能会产生这样的疑问:“训练Deepseek不也基于英伟达的平台开发吗?那美国限制中国的手段也很简单,不是扩大封锁高算力GPU就行了吗?”其实这样的疑虑大可不必。Deepseek的开发者们绕开了英伟达提供的通用开发平台CUDA,直接采用PTX(Parallel Thread Execution)的方式对英伟达底层硬件进行编辑。一旦英伟达平台遭遇封锁,切换到其他GPU平台上训练也是仍然可行的。

Deepseek还拥有一大优势:开源。这意味着人人都可以部署AI,甚至以后仅使用一台不联网的个人电脑就可以完成此操作,从而有效地避免了敏感信息外泄的问题。OpenAI由于以高成本和技术阻碍对手的AI发展,其实更像“CloseAI”,而Deepseek提倡开源共享,共同推进AI进步,格局是不言而喻的。

综上所述,Deepseek是发展前景无限光明的大模型语言,它使得我国的AI发展不再被美国“扼住咽喉”,并向全世界展示了中国AI产业的发展潜力。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容