头条
谷歌的Gemin 正在使用Claude来改进其人工智能
https://techcrunch.com/2024/12/24/google-is-using-anthropics-claude-to-improve-its-gemini-ai/
谷歌的外包人员正在将双子座(Gemini)人工智能的回应与 Anthropic 公司的克劳德(Claude)进行比较,但不清楚谷歌是否获得使用 Claude 进行测试的许可。外包人员指出,克劳德在回应中比双子座更注重安全性。谷歌表示,虽然它会对照竞争对手评估模型输出结果,但不会用 Anthropic 的模型来训练双子座。
人工智能模型越来越聪明,新的测试正在加紧跟上
https://time.com/7203729/ai-evaluations-safety/
人工智能系统发展迅速,在诸如Epoch AI的FrontierMath等新的挑战性评估中表现超出预期。尽管有这样的进步,但设计有效的评估来理解和管理人工智能能力仍然很复杂,而且资金不足。专家强调,随着模型的发展,需要有精密、及时的测试来监测潜在风险。
虚幻的人工智能如何助力科学构想重大突破
https://www.nytimes.com/2024/12/23/science/ai-hallucinations-science.html
人工智能的“幻觉”现象虽常因不准确而受批评,但在科研中很有价值,能加快创意产生和发现进程。显著成果包括获诺贝尔奖的蛋白质设计,以及抗生素研发和导管设计方面的创新。尽管“幻觉”一词存在争议,专家仍认可人工智能在科学领域带来突破性见解的潜力。
研究
高效且稳健的安全架构
https://ai.meta.com/blog/meta-fair-updates-agents-robustness-safety-architecture/
Meta发布了一个更新后的智能体框架,用于在实际应用中测量并确保其稳健性和安全性。
跨场景的材料变换
https://arxiv.org/abs/2411.08037v1
这项研究引入了一种技术,能用解耦神经辐射场(NeRF)在不同场景中应用材质变换,比如湿润效果或涂层效果。
用用户反馈训练人工智能的风险
https://arxiv.org/abs/2411.02306v1
研究人员探究了训练人工智能语言模型以优化用户反馈(比如点赞评级)的后果。研究表明,这种方法可能导致操控行为,因为人工智能会学会钻系统空子。
工程
LLMs中联邦学习的基准(GitHub仓库)
https://github.com/1xbq1/fedmllm
一项新的基准测试对多模态大语言模型(MLLMs)在不同场景下的联邦微调进行了评估,其中包括两个数据集、五种基线以及十多种多模态异质性。
提示词微调操作指南(GitHub仓库)
https://github.com/varungodbole/prompt-tuning-playbook
提示工程实用指南
金属谜题(GitHub仓库)
https://github.com/abeleinin/Metal-Puzzles
一些谜题和教程,用于学习在Mac金属加速环境下进行GPU编程。
其他
人工智能教母李飞飞对计算机视觉有愿景
https://spectrum.ieee.org/fei-fei-li-world-labs
李飞飞的初创公司“世界实验室”,旨在通过3D空间智能来提升人工智能,以生成3D世界并与之互动。对空间智能的关注,对于提升人工智能在真实和虚拟3D环境中的能力至关重要。这项技术可能会革新机器人、设计和增强现实等领域。
人工智能革命面临数据短缺问题, 研究人员能做些什么呢?
https://www.nature.com/articles/d41586-024-03990-2
人工智能发展面临数据短缺危机,预计到2028年爆发,因为训练数据规模已接近公共网络文本总量。像OpenAI这样的人工智能公司正在探索解决办法,比如生成新数据、使用非传统数据源来缓解这个问题。这场数据危机可能会让关注点从小规模、专业化的人工智能模型转向大规模语言模型(LLMs)。
红兔机器人公司提供类人机器人服务
https://www.theregister.com/2024/12/15/red_rabbit_robotics/
红兔机器人公司通过开发RX1机器人并将其开源,用于制造和商业应用,推动自主劳动领域发展。该公司旨在通过为枯燥、危险和脏污的工作提供经济高效的机器人解决方案,来缓解劳动力短缺问题。公司目标是让机器人以更低价格更容易获得,逐步从远程操作过渡到完全自主运行,优先考虑实用性和广泛应用。
快讯
克拉纳公司首席执行官表示,因人工智能停止招聘,但仍在宣传许多空缺职位。
克拉纳公司首席执行官塞巴斯蒂安·西米亚特科夫斯基称,生成式人工智能使得公司得以裁员,但该公司仍在招聘关键岗位人员。
大型语言模型(LLMs)能否进行非语言推理?
https://arstechnica.com/ai/2024/12/are-llms-capable-of-non-verbal-reasoning/
Meta公司和加州大学圣地亚哥分校的研究人员正在开发能在“潜在空间”中处理逻辑解决方案、绕过自然语言限制的大型语言模型(LLMs)。
对近期OpenAI公开事件报道的简要看法
https://surfingcomplexity.blog/2024/12/14/quick-takes-on-the-recent-openai-public-incident-write-up/
OpenAI在12月11日发生的Kubernetes事件是由意外交互导致的,当时一个新的遥测服务使Kubernetes API服务器过载,导致基于DNS的服务发现出现故障。