头条
NVIDIA 的 GenAI 超级计算机
NVIDIA 推出了其最实惠的生成式 AI 超级计算机“Jetson Orin Nano 超级开发者套件”。
OpenAI 的开发者 API
https://www.youtube.com/watch?v=14leJ1fg4Pw&utm_source=tldrai
OpenAI 推出演示开发者并更新 API。
Arm 首席执行官 Rene Haas 谈 AI 芯片竞赛、英特尔以及特朗普对科技的意义
Arm Holdings 首席执行官 Rene Haas 讨论了 AI 的快速发展及其对芯片行业的影响,强调了 Arm 在为各种应用提供架构方面的战略作用。他谈到了 Arm 进军 AI 芯片设计领域的潜在举措、英特尔面临的挑战以及平衡创新与地缘政治考虑(尤其是在中国)的重要性。哈斯还强调了 Arm 在各种设备的 AI 工作负载中日益增长的影响力,并强调需要更强大的计算能力来支持 AI 的扩展。
研究
长上下文开放权重语言模型
https://arxiv.org/abs/2412.11576v1
Giraffe 引入了一种基于 Transformer 的架构,能够处理更长的输入上下文,突破了开放权重模型中上下文长度的界限。
Meta 的自适应缓存用于快速视频生成
https://adacache-dit.github.io/
Meta 研究人员开发了自适应缓存 (AdaCache),这是一种无需训练的方法,旨在加速 Diffusion Transformers 的视频生成过程。
40 多年的卫星数据用于机器学习研究
https://arxiv.org/abs/2411.16421v1
数字台风数据集是最长的台风卫星图像数据集,跨越 40 多年。
工程
RetroLLM
https://github.com/sunnynexus/retrollm
RetroLLM 是一个用于训练大型语言模型并进行检索增强的框架,通过在推理过程中集成外部知识源来实现更高效、更准确的响应。
迭代思维,实现更好的 AI 响应
https://github.com/AgnostiqHQ/multi-agent-llm
迭代思维 (IoT) 使用动态、发人深省的提示来改进 LLM。与现有方法(如思维链 (CoT))不同,IoT 会适应每次交互的上下文。
具有 TokenFormer 的经济高效架构
https://haiyang-w.github.io/tokenformer.github.io/
TokenFormer 是一种新颖的架构,旨在降低与扩展 Transformer 模型相关的高计算成本。
杂七杂八
Grok for Everyone
Grok 有新版本和新的高效模型可供所有用户使用。它还具有改进的图像生成模型和 API。
AI 世界模型
https://techcrunch.com/2024/12/14/what-are-ai-world-models-and-why-do-they-matter/
世界模型使 AI 系统能够模拟和推理其环境,推动自主决策和现实世界问题解决。
15 次使用人工智能,5 次不使用
https://www.oneusefulthing.org/p/15-times-to-use-ai-and-5-not-to
人工智能对于需要数量或不同视角的创意生成、总结和翻译等任务非常有用。当人类能够快速评估人工智能的输出,以及在错误影响最小的任务中,人工智能表现出色。在高风险或不熟悉的情况下,人工智能的使用可能会阻碍学习或准确性,需要仔细判断以平衡其效用。
Grok 图像生成版本
https://x.ai/blog/grok-image-generation-release
Grok 的新图像生成模型在渲染真实世界的细节、徽标和逼真的人物肖像方面表现出色。
YouTube 的新自动配音功能现已面向知识类内容开放
YouTube 的自动配音功能现已面向数十万个频道开放,最初侧重于信息类内容。
谷歌启动 200 亿美元可再生能源建设热潮,为人工智能提供动力
https://techcrunch.com/2024/12/10/google-kicks-off-20b-renewable-energy-building-spree-to-power-ai/
谷歌与 Intersect Power 和 TPG Rise Climate 签署了一项价值 200 亿美元的协议,为其数据中心建设可再生能源和存储。