郑重声明:原创首发,文责自负。
近日,一款名为“Deepseek”的AI语言模型在全球范围内掀起了讨论AI技术的热潮。连对中国AI技术颇有微词的英伟达、微软、亚马逊等美国科技巨头也纷纷接入了Deepseek-R1模型。Deepseek究竟是何方神圣,能在AI领域引起此等规模的轰动?
Deepseek是由我国自主研发的大型语言模型,不仅拥有强大的处理和解决问题的能力,还能够理解并回答问题,还能辅助写代码、整理资料和解决复杂的数学问题。
众所周知,美国在之前的AI发展领域一直居于垄断地位,同时对AI发展预设了天价的硬件和人才投入的路径,以达到阻断竞争对手发展AI产业的目的。举个例子,AI大模型的训练和部署是AI研发过程中不可或缺的一环,但在Deepseek横空出世之前,它需要极其高昂的资金成本。训练就是引导AI建立满足个人需求的模型,使得AI能够符合当前的应用场景,而部署则是让AI在自己搭建环境下开始运行的过程。美国的OpenAI o1就用了上万张英伟达H100 GPU,成本高达10亿美元;但Deepseek在训练过程中仅采用2048张“中国特供”版H800 GPU,成本约为500万∽600万美元,仅为前者的1/200。
成本高使得OpenAI o1需要较高的使用费用,而效能和它不相上下、甚至略胜一筹的Deepseek R1却可以免费使用。谁会放着免费的馅饼不吃呢?OpenAI的用户纷纷倒向Deepseek的怀抱,在他们眼里,OpenAI“似乎没有那么香了”。同时,低成本意味着Deepseek可以在全球大范围普及,同时绕过了美国的擎肘,这在世界上还是第一次,它用事实证明了“不需要高额的投入就能获得性能≥OpenAI的AI产品”。
我们可能会产生这样的疑问:“训练Deepseek不也基于英伟达的平台开发吗?那美国限制中国的手段也很简单,不是扩大封锁高算力GPU就行了吗?”其实这样的疑虑大可不必。Deepseek的开发者们绕开了英伟达提供的通用开发平台CUDA,直接采用PTX(Parallel Thread Execution)的方式对英伟达底层硬件进行编辑。一旦英伟达平台遭遇封锁,切换到其他GPU平台上训练也是仍然可行的。
Deepseek还拥有一大优势:开源。这意味着人人都可以部署AI,甚至以后仅使用一台不联网的个人电脑就可以完成此操作,从而有效地避免了敏感信息外泄的问题。OpenAI由于以高成本和技术阻碍对手的AI发展,其实更像“CloseAI”,而Deepseek提倡开源共享,共同推进AI进步,格局是不言而喻的。
综上所述,Deepseek是发展前景无限光明的大模型语言,它使得我国的AI发展不再被美国“扼住咽喉”,并向全世界展示了中国AI产业的发展潜力。