头条
Figure 为机器人技术筹集了 6.75 亿美元
https://twitter.com/Figure_robot/status/1763202496959521036
机器人公司Figure已从包括OpenAI在内的几家大型投资者那里筹集了6.75亿美元,用于继续开发人形机器人。
模块化 MAX 开发者版
https://www.modular.com/blog/getting-started-with-max-developer-edition
Modular 创建了一个工具包 MAX,以显着简化和加速 AI 部署。
Genie:生成交互环境
https://sites.google.com/view/genie-2024/home
Google DeepMind 的 Genie 是一个基于互联网视频训练的基础世界模型,可以从合成图像、照片甚至草图生成无数种可玩(动作可控)的世界。
研究
具有统一架构的视频分割
https://arxiv.org/abs/2402.18115
UniVS 是一种统一的视频分割架构,通过新颖的基于提示的方法解决各种分割任务的挑战。 通过利用提示功能作为查询并引入目标明智的提示交叉注意层,UniVS 消除了启发式帧间匹配的需要,无缝适应不同的视频分割场景。
从粗到细的潜扩散图像合成
https://arxiv.org/abs/2402.18078v1
粗到细潜在扩散(CFLD)方法引入了一种姿势引导人体图像合成的新方法,通过对图像的深入语义理解避免过度拟合,从而克服了现有模型的局限性。
LLM量化:综合研究
https://arxiv.org/abs/2402.18158v1
训练后量化可以使 OPT 和 LLaMA2 等大型语言模型的内存和计算效率更高。
工程
使用轻量级神经网络进行 3D 绘图
https://thpjp.github.io/pl2map/
该项目引入了一种新的 3D 映射和定位方法,该方法使用轻量级神经网络来处理点和线特征,从而以更少的内存和计算需求显着提高姿势精度。
学习生成指令调优数据集 (GitHub Repo)
https://github.com/batsresearch/bonito
Bonito 是一种开源模型,旨在将未注释的文本转换为定制的训练数据集,从而增强大型语言模型对专门任务的适应性,而无需预先存在的注释。
使用 LLMa 探索视频理解(GitHub Repo)
https://github.com/yunlong10/Awesome-LLMs-for-Video-Understanding
该存储库包含一系列有用的资源,重点关注使用大型语言模型的视频理解。
杂七杂八
Mist 文字转语音
https://rime.ai/blog/introducing-mist
Rime 推出了一种新的文本转语音模型,具有强大的对话能力。 与之前的模型不同,这个模型可以包括“嗯”和现实的停顿。
扩散蒸馏的悖论
https://sander.ai/2024/02/28/paradox.html
扩散模型将图像生成等难题分解为许多较小的问题,例如从图像中去除少量噪声。 人们在单步扩散生成上投入了大量的精力,但这似乎违背了这一点。 这篇文章探讨了扩散蒸馏的悖论,并概述了许多可用的研究方向。
添加自己的 Ollama 模型
https://github.com/ollama/ollama/blob/main/docs/import.md
有关如何将您自己的模型添加到 Ollama 存储库以供使用的说明。
使用静态 KV 缓存将 HF 推理速度提高 2 倍 (GitHub Gist)
https://gist.github.com/ArthurZucker/af34221def212259b43d55a2811d2dbb
加速推理可以打开用例。 这段代码提出了一种在 Hugging Face 上加速 Llama 模型推理的方法。
更安全的自动驾驶
https://drive-wm.github.io/
Drive-WM 可以生成高质量的多视图视频来预测未来场景,使自动驾驶汽车能够做出更安全、更高效的驾驶决策。
Summarize.ing
https://summarize.ing/
使用 AI 一分钟即可获取 YouTube 视频摘要。