返回往期
2026年2月5日星期四
8 点要闻3 分钟阅读

今日要闻

1

Mistral发布Voxtral Transcribe 2,实时延迟<200ms并开源权重

语音开源模型发布

Mistral AI发布新一代语音转文本模型Voxtral Transcribe 2,包含批量转录的Voxtral Mini Transcribe V2与低延迟的Voxtral Realtime。前者支持13种语言、说话人分离、上下文偏置与词级时间戳,词错误率约4%,定价0.003美元/分钟;后者面向语音代理与实时字幕,端到端延迟可低于200毫秒。Realtime模型权重以Apache 2.0许可开源,并支持最长约3小时长音频处理及合规部署。

阅读原文
2

NVIDIA开源Nemotron ColEmbed V2,ViDoRe V3检索NDCG@10达63.42

多模态检索/RAG开源

NVIDIA发布并开源Nemotron ColEmbed V2多模态嵌入模型家族(3B/4B/8B),采用late-interaction架构与ColBERT式细粒度交互,用于图文混合文档检索与多模态RAG。官方披露其8B版本在ViDoRe V3基准上以NDCG@10=63.42位列榜首,提升对图表、表格等“视觉文档”的检索精度。模型基于Qwen3-VL或SigLIP+Llama等底座,并通过对比学习与硬负例挖掘训练,已在Hugging Face等平台提供。

阅读原文
3

百度千帆DeepResearch Agent登顶DeepResearch Bench并上线平台

AI Agent评测产品上线

百度发布千帆深度研究Agent(Qianfan-DeepResearch Pro)并称其在DeepResearch Bench评测中排名第一。材料显示,该评测覆盖100个博士级研究任务、22个学科领域,采用RACE框架从全面性、洞察力、指令遵循度与可读性等维度评估研究报告质量。该Agent采用“任务理解-规划-执行”循环的Agentic架构,结合百度搜索与RAG以提升信息覆盖与可信度,并通过动态反思与两阶段报告渲染降低幻觉、输出多形态报告;现已在百度千帆平台提供使用。

阅读原文
4

爱尔兰发布EU AI Act落地法案框架,设AI Office并由15个监管机构执行

监管政策EU AI Act合规

爱尔兰政府发布实施欧盟《人工智能法案》(EU AI Act)的国家立法框架/一般方案,确立去中心化治理:由约15个行业监管机构承担市场监督与执法,同时设立法定机构“爱尔兰人工智能办公室”(AI Office of Ireland)作为中央协调与单一联络点。方案提出建立国家登记册记录被禁止的AI实践与高风险AI系统,并参与国家级与欧盟级监管沙箱以支持中小企业在受控环境测试。材料同时提到部分执法工具与处罚需经法院程序确认,且立法目标需满足欧盟时间表要求。

阅读原文
5

RoboChallenge发布具身智能真机评测年报:复杂任务成功率低、精细操作<15%

具身智能评测基准机器人

具身智能远程真机评测平台RoboChallenge发布年度报告,覆盖2025年Q4至2026年Q1期间的数万次远程真机测试;平台由原力灵机与Hugging Face联合发起,自2025年10月上线以来部署20台机器人集群、覆盖四类主流机型。报告称,当前VLA模型在“叠碗”“物体移入盒子”等基础任务上已较稳定,但在“整理纸杯”“制作三明治”等多步骤精细操作任务中成功率仍很低;整体最佳模型在Table30评测集成功率约50%,实际执行的精细操作成功率不足15%,并计划沉淀可公开参考的失败数据“错题集”。

阅读原文
6

Cursor提出Agent Trace规范:用JSON记录AI代码归因以改造git blame

AI编程标准/规范开发工具

Cursor提出开放的“Agent Trace”规范,试图标准化AI生成代码在版本控制中的归因与追踪方式。其核心是以JSON“trace record”把代码变更的具体范围与背后的对话、贡献者(人类/AI/混合)及模型标识关联起来,弥补Git缺乏细粒度元数据的问题。该规范强调“可追溯与可调试”而非代码质量评估,存储方式保持与平台无关,可放入git notes、独立文件或外部数据库,并面向Git、Jujutsu、Mercurial等多类VCS兼容,目标是让团队能定位代理在执行中“偏航”的原因。

阅读原文
7

阿里开源Paimon-cpp:C++原生读写湖表,端到端延迟可降1–2倍

数据基础设施开源Lakehouse

阿里巴巴开源Paimon-cpp,为C++原生引擎提供Apache Paimon湖表读写能力,减少通过Java桥接带来的序列化与跨语言调用开销。材料称其接口层采用Arrow C Data Interface统一数据交换,避免不同Arrow版本造成的兼容问题;读取侧以更细粒度ReadRanges配合“多生产者-单消费者”并行预取提升I/O利用率,并针对主键表的合并与格式转换引入异步流水线与预分配策略。官方给出的效果是相较集成Java版本,端到端延迟可降低约1–2倍,并支持RowTracking与DataEvolution以适配大规模训练数据一致性与演进需求。

阅读原文
8

AI数据中心液冷从选配走向刚需:机架功耗132kW→240kW推动市场扩张

算力基础设施数据中心供应链

行业分析指出,随着GPU机架功耗已达132kW、下一代或升至240kW,传统风冷难以覆盖高热密度机柜,直接到芯片(direct-to-chip)液冷正从“边缘方案”转为AI数据中心的核心基础设施。材料给出市场预测:全球液冷市场规模或从2025年的28亿美元增长至2032年的210亿美元以上,年复合增速超过30%。文中还列举单组件可处理约1600W热负载、以及单GPU插槽约4500W冷却能力等指标,并提到GB200 NVL72级系统在50MW数据中心场景下可带来每年超400万美元的节省;超大规模厂商已在更多新建集群转向液冷。

阅读原文

不要错过明天的 AI 简报

数千位专业人士的首选,用 AI Daily Brief 开启每天的工作与生活。