240 发简信
IP属地:北京
  • 做时间的朋友

    AGI 被赋予太多期待。在企业数字化的叙事里,它常被描绘为终极解方:自动运维、自主决策、无人干预。但若剥离修辞,回到逻辑起点,一个事实清晰如刃:...

  • 本体论的边界

    最近在研究Palantir的本体论,恰逢对银行数据中心网络运维的数据建模进入迷惑期。按照Palantir的方法论,我们要把纷乱的网络拓扑、告警日...

  • Resize,w 360,h 240
    Palantir高管访谈-翻译

    2025年末Meta宣布裁减 AI 部门约600名员工,其中包括华裔科学家田渊栋。随后,田渊栋在一次访谈中坦诚地总结了自己的心路历程和思考感悟,...

  • 冬天里的一把火

    理工男的朋友圈,每天总能冒出一大堆新技术,看的多了,似乎就琢磨出一点门道。TCP/IP协议栈当中的各种网络协议,加上应用层的各种流控协议,都是网...

  • 美国国家科学基金会如何推动SDN的发展-翻译

    SDN的又一篇总结,Communications of the ACM再次发布 Nick和Jeniffer 联袂长文,估计是要跟大统领要经费,只...

  • 最坏的时代 最好的时代

    不久前,我买了一本菊花厂25年9月份新出版的IPv6随路遥测的书。虽然早前就知晓IPv6具备遥测能力,但亲眼看到书中描述的体系化复杂度与标准化进...

  • Resize,w 360,h 240
    Serving Large Language Models on Huawei CloudMatrix384--01

    近期火爆的两篇论文,每个网络工程师都应该深读,均聚焦“规模化+高效化”但侧重点不同。• DeepSeek‑V3 提出 MLA 机制减少注意...

  • Resize,w 360,h 240
    Serving Large Language Models on Huawei CloudMatrix384--02

    4.3 资源高效预填充与混合并行和微批次 预填充阶段负责处理输入提示以生成初始 KV 缓存,对首令牌时间(TTFT)和系统吞吐量有显著影响。鉴于...

  • Resize,w 360,h 240
    Insights into DeepSeek-V3

    摘要 大语言模型(LLM)的迅速扩展揭示了当前硬件架构在内存容量、计算效率和互联带宽方面的关键限制。DeepSeek-V3 在 2,048 张 ...