返回往期
2026年1月24日星期六
9 点要闻3 分钟阅读

今日要闻

1

Inferact种子轮融资1.5亿美元、估值8亿美元,押注vLLM商业化

融资推理基础设施开源

由开源推理引擎vLLM核心团队创立的Inferact完成1.5亿美元种子轮融资,估值8亿美元,由a16z与Lightspeed领投。公司计划在继续维护并升级vLLM开源项目的同时,推出面向生产的商业推理引擎与无服务器版vLLM,并补齐可观测性、故障排查与灾备等企业能力,目标是降低大模型推理成本、提升大规模部署效率,服务云厂商与企业用户。

阅读原文
2

燧原科技科创板IPO获受理,拟募资60亿元投向5/6代AI芯片

芯片IPO中国

国产云端AI芯片公司燧原科技的科创板上市申请获受理,拟募资60亿元,用于第五代、第六代AI芯片研发及软硬件协同创新项目。披露信息显示,公司2022年至2025年前三季度收入由9010.38万元增至5.4亿元,但同期累计亏损超50亿元,研发费用占比收入最高达1096%;腾讯为第一大股东并为第一大客户,2025年前三季销售占比达71.84%,客户集中度与关联交易风险受到关注。

阅读原文
3

Google DeepMind发布D4RT:2D视频秒级4D重建,速度快18–300倍

视觉世界模型研究

Google DeepMind发布D4RT(Dynamic 4D Reconstruction and Tracking)模型,可从普通2D视频重建3D场景并追踪物体随时间的运动轨迹,实现“4D”时空理解。D4RT采用统一Transformer架构与查询机制,将深度估计、运动跟踪、相机位姿等任务整合处理;官方介绍其相较传统方法提速18至300倍,处理1分钟视频约需5秒,并在遮挡情况下仍能预测轨迹。潜在应用包括机器人导航、AR与世界模型构建。

阅读原文
4

工信部拟制定数字人身份标识强标:商业传播用途“一人一码”

政策数字人标准

工业和信息化部发布通知,拟制定《元宇宙 分类与标识 数字人身份标识要求》强制性国家标准并公开征求意见,目标是建立数字人身份标识体系及注册、管理与标识规范,实现境内用于商业和传播用途的数字人“一人一码”。监管意图包括提升可追溯性、快速定位违法违规责任主体并降低欺诈风险。通报同时提到我国数字人相关企业已超114万家,预计2025年产业规模将突破400亿元。

阅读原文
5

Cloudflare披露BGP路由泄露:迈阿密节点25分钟异常并丢弃12Gbps流量

网络安全基础设施故障复盘

Cloudflare披露1月22日迈阿密数据中心发生一次持续约25分钟的BGP路由泄露事件。原因是自动化路由策略变更后导出规则过于宽松,导致内部骨干网路由被错误通告到外部,从而将部分全球流量汇聚到单一节点并引发拥塞,安全过滤器在峰值时丢弃约12Gbps未授权入口流量。Cloudflare表示将加强CI/CD策略验证,并推动采用BGP Roles与RPKI ASPA等机制以程序化拦截异常AS路径。

阅读原文
6

Docker与Arm推出Docker MCP Toolkit:借Copilot将x86迁移ARM64缩至30分钟级

开发工具MCP云原生

Docker与Arm发布Docker MCP Toolkit与Arm MCP Server,面向GitHub Copilot等助手提供可调用的迁移工具能力,用于自动化将遗留x86应用迁移到ARM64。方案通过扫描代码中的x86特有指令(如AVX2)并结合知识库映射到NEON/SVE等实现,同时自动完成环境检查、代码分析与创建PR等流程。官方宣称原本需5–7小时的人工迁移工作可压缩到约25–30分钟,并降低对架构专家经验的依赖,适合企业批量改造。

阅读原文
7

arXiv加强审核以遏制“AI slop”低质论文泛滥

科研平台治理内容质量

arXiv预印本平台宣布加强对AI生成的低质量论文(“AI slop”)的管控,旨在维护学术发布的质量与可信度。报道指出,arXiv拥有近300万份手稿、覆盖计算机科学与物理等领域,近期引入更严格的审查措施以阻止低价值或虚假研究内容提交,可能包括更严格的提交流程或要求作者提供更详细的贡献说明。该动作反映学术社区对AI写作滥用、虚构结果与引用污染等风险的持续担忧。

阅读原文
8

GAF提出“生成式应用防火墙”:把提示注入与语义攻击纳入五层防护

AI安全代理架构

研究与厂商提出“生成式应用防火墙”(GAF)概念,借鉴WAF在LLM应用与AI代理场景中提供统一策略执行点,将分散的提示过滤、护栏与脱敏等能力整合为纵深防御。方案划分网络、访问、语法、语义与上下文五层,用于应对DDoS、会话劫持、代码/提示注入、越狱与多轮渐进式攻击等,并提出将威胁模型扩展到“语义层(L8)”。架构可作为反向代理、AI网关或服务网格侧车部署,面向生产环境治理。

阅读原文
9

研究:诗歌体提示可显著提升越狱成功率,平均增加35%不安全输出

AI安全越狱评测

卡巴斯基披露一项越狱研究:将恶意提示改写为诗歌形式,能更容易绕过多家厂商LLM的安全防护。研究测试来自Anthropic、OpenAI、Google、Meta、DeepSeek等的25款模型,对1200个恶意查询的散文版与诗歌版进行对比,结果显示诗歌形式使不安全回应概率平均提升35%;其中DeepSeek-chat-v3.1的成功率上升近68个百分点,Gemini 1.5 Pro在最有效的20个诗歌提示下被100%攻破。研究同时使用AI评审团与人工评审判定安全性。

阅读原文

不要错过明天的 AI 简报

数千位专业人士的首选,用 AI Daily Brief 开启每天的工作与生活。