2025-08-22 简讯 : DeepSeek V3.1 发布——它可能是目前最强大的开源人工智能


头条


DeepSeek V3.1 发布——它可能是目前最强大的开源人工智能

https://links.tldrnewsletter.com/XLCW5L

周二,DeepSeek悄然发布了DeepSeek V3.1。这个拥有6850亿参数的系统对美国人工智能巨头的主导地位发起挑战,重塑竞争格局。早期性能测试显示,其基准分数可与OpenAI和Anthropic的专有系统相媲美。该模型的混合架构将聊天、推理和编码功能无缝集成到一个连贯的单一模型中。

山姆·奥特曼谈GPT-6:“人们需要记忆功能”

https://www.cnbc.com/2025/08/19/sam-altman-on-gpt-6-people-want-memory.html

山姆·阿尔特曼称,GPT-6的推出速度会比GPT-4到GPT-5间隔的两年时间更快,他强调内存是突破性进展。个性化定制,尤其是调整模型的政治观点,或许能符合一项新行政命令的要求,该命令规定联邦人工智能系统在意识形态上要保持中立。

马克·扎克伯格再次调整Meta的人工智能业务。

https://techcrunch.com/2025/08/19/meta-is-shaking-up-its-ai-org-again/

马克·扎克伯格进行重组,为研究、超级智能、产品和基础设施设立了独立团队。Meta放弃此前的“庞然大物”前沿模式,在新任首席人工智能官亚历克斯·王的带领下重新出发。此次调整包括可能缩减规模达数千人的人工智能部门,还有战略转变——多年来一直只依赖自身技术的Meta,如今开始探索第三方人工智能模型。

XAI 借助“想象”工具和团队简介筹备 Grok 网络

https://www.testingcatalog.com/xai-readies-grok-web-with-imagine-tool-and-team-profiles/

Grok Imagine将让用户在网页上生成图像和短视频。该功能已向移动用户开放,还设有专门图库,用户可在其中查看模型生成的作品。xAI即将推出团队账户,这将使各机构能够管理具有独立命名空间、专属聊天记录和协作项目的工作区。这符合xAI支持个人和企业工作流程的整体战略。


深度分析


市场动态:我首次尝试在 GPU 上不使用反向传播高效进行训练

https://fangpenlin.com/posts/2025/08/18/marketplace-my-first-attempt-at-training-without-backprop-on-gpu-efficiently/

十年前的人很难相信,如今我们家里就能有大量超级计算机。现在靠现代硬件,一个人做项目就能完成端到端的实验。我们正步入个人超级计算的新时代。本文探讨一种在GPU上无需反向传播就能高效训练的方法。以前研究人员光是验证这种想法,就要耗费巨额资金和大量资源。

使用定制 CUDA 内核实现更快的混合专家模型(MOE)训练

https://cursor.com/blog/kernels

Cursor 用 CUDA 和 PTX 从头重建了专家混合层,让 MoE 运算速度提升了 3.5 倍。与 Hopper 相比,在 Blackwell GPU 上,这使得端到端训练速度提升了 1.5 倍。


工程


柠檬水(GitHub 仓库)

https://github.com/lemonade-sdk/lemonade

Lemonade是一款服务器,它能为用户的NPU和GPU配置先进的推理引擎,助力用户以最高性能运行本地大语言模型(LLM)。它同时支持GGUF和ONNX模型——Lemonade有一个模型管理器,用户可以导入定制模型。Lemonade让用户在运行时能轻松切换配置。它可以与任何兼容OpenAI的客户端库配合使用。

利用Triton分组MOES

https://pytorch.org/blog/accelerating-moes-with-a-triton-persistent-cache-aware-grouped-gemm-kernel/

PyTorch推出了一种缓存感知的Triton BF16分组GEMM内核,针对像DeepSeekv3这样的混合专家模型进行了优化。通过将独立的GEMM批量处理成单个内核调用,该实现比PyTorch基线循环的速度提升了高达2.6倍。

信号与噪音:降低语言模型评估中的不确定性

https://allenai.org/blog/signal-noise

具有高信号(区分模型的能力)和低噪声(各训练步骤的一致性)的基准测试,在做出扩展决策时要可靠得多。一些基准测试显示,按信噪比筛选后,误差降低了32%。对465个模型的90万条评估结果进行的分析表明,高质量评估集比大样本量更重要 。

图像生成的下一个视觉精细度

https://yikai-wang.github.io/nvg/

英伟达推出一种基于结构化序列的图像生成框架,从全局布局到精细细节逐步优化输出。


其他


大语言模型(LLMs)有好的音乐品味吗?

https://www.tylercosgrove.com/blog/llm-music-taste/

Claude模型偏爱经典艺术家,尤其是像赫比·汉考克和妮娜·西蒙这样的爵士音乐家。OpenAI、xAI和DeepSeek的推理模型对名字中带有数字或美元符号的艺术家表现出奇怪的偏好,这表明过度激进的强化学习可能会产生意想不到的偏差。

Databricks称在最新一轮融资中估值超1000亿美元。

https://www.cnbc.com/2025/08/19/databricks-valuation-over-100-billion.html

Databricks目前估值超1000亿美元,与SpaceX和OpenAI一样,跻身这一估值的私人公司精英俱乐部。首席执行官阿里·戈德西宣布新一轮融资超10亿美元,该公司预计年营收达37亿美元。这笔资金将支持进一步的人工智能产品开发,使Databricks能与Snowflake等竞争对手以及大型云服务提供商竞争。

英伟达正为中国研发新人工智能芯片,性能超H20

https://links.tldrnewsletter.com/RHSndm

特朗普近期对允许销售更先进芯片持开放态度,这为监管审批带来了短暂契机 。

据报道,亚马逊云服务(AWS)顶级芯片设计师跳槽至ARM,而ARM正考虑进军芯片领域

https://www.theregister.com/2025/08/19/arm_poach_aws_chip_designer/

拉米·辛诺在加入亚马逊之前曾领导安谋的工程团队,如今他将重返安谋。

中国的人工智能雄心——“我直觉那行不通”

https://www.tomshardware.com/tech-industry/openai-ceo-sam-altman-says-that-export-controls-alone-wont-hold-back-chinas-ai-ambitions-my-instinct-is-that-doesnt-work

山姆·奥特曼称,美国可能低估了中国在人工智能领域的进展和能力。

推出聊天模式

https://threadreaderapp.com/thread/1957820056387166413.html

现在你可以在ElevenLabs上创建纯文本对话式智能体了。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

友情链接更多精彩内容