返回往期
2026年1月29日星期四
9 点要闻3 分钟阅读

今日要闻

1

Arcee AI开源Trinity 400B,6个月花2000万美元训练并承诺Apache许可

开源模型大模型训练许可

初创公司Arcee AI发布并开源4000亿参数大语言模型Trinity,称用约2048块Nvidia Blackwell B300 GPU、6个月完成训练,总成本约2000万美元。模型采用Apache许可证,主打“真开源”以区别于受限授权;当前仅文本,视觉与语音版本开发中,同时已放出Trinity Mini与Nano供免费下载,并计划在未来约六周推出托管API与定价方案。

阅读原文
2

Google开始推送Chrome“Auto Browse”代理,订阅用户每日20/200次

AI代理浏览器产品上线

Google在Chrome中开始推送AI代理功能Auto Browse,基于Gemini 3与Project Mariner,可自动执行网页任务(如查找信息、填写表格),并以侧边栏分屏启动、在新标签中运行且可并行多任务。该功能目前仅向AI Pro与AI Ultra订阅者开放:前者每日20次、后者200次。操作在云端完成,页面内容会临时记录到Google账户,但系统不会自动完成购买等高风险步骤。

阅读原文
3

腾讯开源混元图像3.0图生图:80B MoE、13B激活并引入“先想后改”

开源图像生成多模态

腾讯混元宣布开源其图像3.0图生图模型,采用MoE架构,总参数量80B、激活约13B,并引入“think-before-edit”工作流:在执行编辑前先进行图像理解与推理,以提升指令跟随与局部编辑精度。官方披露该模型在LMArena图像编辑榜进入全球第一梯队(盲测维度含指令遵循与保真度)。腾讯称混元已衍生约3000个图像/视频相关模型,推动生成式内容生产的开放生态。

阅读原文
4

Bizarre Bazaar劫持暴露LLM端点:40天记录3.5万次会话并转售API权限

安全事件LLM基础设施MCP

Pillar Security披露“Bizarre Bazaar”行动利用暴露或弱认证的LLM服务端点牟利:40天内记录超过35,000次攻击会话。攻击者常扫描未认证的Ollama端口11434、OpenAI兼容API端口8000以及公开可访问的MCP服务器,随后验证权限并在Telegram/Discord推广名为silver[.]inc的付费访问服务,支持加密货币或PayPal。风险包括窃取算力、转售接口、获取提示与对话数据,并可能借MCP横向渗透内网。

阅读原文
5

Handshake收购Cleanlab以强化数据质量团队,Cleanlab曾融资3000万美元

并购数据标注数据质量

AI数据标注公司Handshake收购数据质量公司Cleanlab,交易以人才并入为主,Cleanlab的9名核心员工(含3位MIT博士联合创始人)加入Handshake研究团队。Cleanlab成立于2021年,主攻自动识别错误标注数据以提升训练集质量,曾获得约3000万美元融资。Handshake原为招聘平台,近一年切入AI数据标注业务,报道称其客户包含OpenAI等顶级实验室。此次并购凸显训练数据质量与审核能力在大模型产业链中的战略地位。

阅读原文
6

AI2开源编码代理SERA:32B在SWE-bench Verified解题率54.2%

开源编码Agent评测

Allen Institute for AI(AI2)发布并开源编码代理模型系列SERA(Soft-verified Efficient Repository Agents),面向独立开发者与中小企业。其32B版本在SWE-bench Verified上解决54.2%的问题,8B版本为29.4%。AI2称与Nvidia合作优化接口以提升生产可用性,并同时开源模型、训练方法及与Anthropic的Claude Code集成方式,支持“单行代码启动”。报道还给出成本对比:复现顶级开源模型性能约需12,000美元,而使用SERA约400美元。

阅读原文
7

Google推出TranslateGemma开源翻译模型:4B/12B/27B覆盖55种语言

开源模型机器翻译多语言

Google发布TranslateGemma开源权重翻译模型,基于Gemma 3架构,提供4B、12B、27B三种规模,覆盖至多55种语言并强调对低资源语言的支持。模型面向不同部署目标:4B偏移动端/边缘,12B适合笔记本与本地研究,27B面向云端高保真场景。信息源称模型可在Kaggle与Hugging Face下载,并可通过Vertex AI部署。尽管未进行专门多模态训练,仍可用于处理图片中文本的翻译场景。

阅读原文
8

蚂蚁灵波开源LingBot-VLA:基于2万小时真机数据,主打“一脑多体”控制

具身智能开源VLA

蚂蚁集团灵波团队开源具身智能基础模型LingBot-VLA,训练数据为约20,000小时真实世界操作数据,并强调在真实数据规模上验证具身智能的Scaling Law。方案采用“Brain + Cerebellum”式MoE Transformer:视觉语言语义理解与动作专家协同输出连续动作序列,并引入深度信息以提升精细操作。报道称其覆盖多种机器人本体(含9种配置)以实现跨本体迁移,并同步开放相关工具链以降低训练与复现门槛,定位为“做大脑”的通用底座。

阅读原文
9

Google GKE并行创建节点池:异构与AI集群扩容延迟最高降85%

AI基础设施云计算Kubernetes

Google Cloud为GKE引入“并行节点池自动创建”,将原先按顺序创建多个node pool的流程改为并发执行,从而降低异构集群与大规模AI训练/推理场景的供给延迟。官方给出的内部基准显示,复杂集群的整体配置与扩容时延最高可降低85%,尤其适用于需要多种VM规格、或使用多主机TPU slice而必须创建多个独立节点池的工作负载。该能力作为透明升级集成在Autopilot与Standard模式中,需升级到指定版本即可生效。

阅读原文

不要错过明天的 AI 简报

数千位专业人士的首选,用 AI Daily Brief 开启每天的工作与生活。