返回往期
2026年1月31日星期六
9 点要闻3 分钟阅读

今日要闻

1

Mistral发布Mistral 3开源多模态家族,Large 3总675B/激活41B

模型发布开源

Mistral推出新一代开源多模态模型家族Mistral 3,主打企业可控与可定制部署。旗舰Mistral Large 3采用MoE架构,总参数约6750亿、激活参数410亿;同时发布Ministral 14B/8B/3B,覆盖高效推理、复杂多模态与边缘端场景。该系列支持40+语言并具备图文理解能力,可在本地、云端或混合环境运行,强调可审计性与降低厂商锁定。

阅读原文
2

OpenAI称2月13日从ChatGPT下线GPT-4o等4款模型,日活仅0.1%

大模型产品调整

OpenAI宣布将于2026年2月13日把GPT-4o、GPT-4.1、GPT-4.1 mini与o4-mini从ChatGPT中退役。公司表示目前每天仅0.1%的用户仍选择GPT-4o;在GPT-5发布后,因部分付费用户怀念曾短暂恢复该模型。此次调整将减少旧模型并行维护成本,进一步精简ChatGPT内可选模型阵列,推动用户与开发侧迁移到更新模型与产品路径。

阅读原文
3

研究:全球17.5万台Ollama主机公网暴露,293天观测723万次活动

安全基础设施

SentinelOne与Censys披露全球约17.5万台Ollama主机公网暴露,293天扫描记录723万次活动,覆盖130个国家与4032个自治系统。约一半主机可执行代码或调用外部API,至少201台运行移除安全限制的提示模板。报告称中国约占30%、美国超20%,这类“无成本可滥用”推理基础设施可能被用于垃圾邮件、钓鱼与虚假信息生成,资源与账单由暴露主机承担。

阅读原文
4

DeepSeek计划数周内推V4:百万token上下文并强化代码生成

大模型研发动态

媒体称DeepSeek计划在未来数周发布旗舰模型V4,预计在2月中旬前后推出。V4拟支持最高百万token上下文窗口,用于一次性解析中型代码库、技术文档与需求说明,缓解复杂开发中的上下文断裂。报道还称其在持续训练机制上减少理解能力下降、增强抽象规律提取,并在内部基准中代码生成表现优于部分主流模型;同时可能引入mHC等新架构以提升并行效率并更适配国产芯片,降低部署成本与推理时延。

阅读原文
5

BIGAI与北大发布TongGeometry:单卡38分钟解近25年IMO几何题

科研推理

北京通用人工智能研究院(BIGAI)、北京大学等在《自然·机器智能》发表TongGeometry通矩模型,采用神经符号架构与引导树搜索,实现“自主出题+自动解题”。团队称仅用单张消费级显卡即可在38分钟内解决近25年IMO几何难题,并引入价值函数模拟“数学审美”以支持主动创造。系统生成的3道原创几何题已入选2024年全国中学生数学联赛及美国精英奥赛,成为AI原创题目进入高规格人类竞赛的案例。

阅读原文
6

arXiv提出Scalable Power Sampling:无需训练的推理优化,延迟降10倍+

论文推理优化

arXiv提出Scalable Power Sampling推理策略:无需训练、外部奖励或验证器,通过逐token低温度缩放近似幂分布采样,在解码阶段锐化生成分布。论文认为,RL后训练带来的收益更多来自分布“变尖”而非新能力习得,因此可用推理期采样策略替代部分后训练。作者称该方法在数学、问答与代码任务上对四个不同LLM均达到或超过单次GRPO的收益;相较MCMC幂采样将推理延迟降低10倍以上,计算开销显著下降。

阅读原文
7

欧盟AI Act执法权拟集中至AI Office,意德等成员国要求限制权限

政策监管

据MLex报道,欧盟委员会计划强化AI Office权力以集中执行《欧盟人工智能法案》(AI Act),但意大利、德国等成员国反对“中央执法”模式,担心削弱各国监管自主权,要求明确责任边界并保留对敏感领域的控制。另有关键欧洲议会议员主张法规修订应覆盖AI代理、禁止生成性深度伪造,并恢复/强化注册义务与敏感数据保护。两条线索共同反映欧盟在统一执法与应对新型风险之间的权力与规则再平衡。

阅读原文
8

Praetorian开源Julius:可指纹识别Ollama等LLM服务并枚举模型列表

安全开源工具

安全公司Praetorian发布并开源Julius,用于对LLM服务进行HTTP指纹识别,帮助安全团队发现企业网络中未经授权部署的Ollama、LiteLLM、Open WebUI等。Julius可根据目标URL识别服务类型、提取可用模型列表,并给出与该服务交互的配置方式;探测规则以YAML定义并支持缓存响应以减少重复请求,输出JSON便于接入自动化安全流程。工具基于Go开发,当前聚焦HTTP指纹识别,项目采用Apache-2.0许可。

阅读原文
9

前DeepMind团队Poetiq获4580万美元种子轮,做LLM自优化“元系统”

融资Agent

由前Google DeepMind研究人员创立的Poetiq宣布完成4580万美元种子轮融资。其“元系统”软件旨在把现有LLM包装成可自我优化输出质量的AI代理,并在推理过程中自动终止不必要的计算以降低成本;同时可用少量训练样本快速适配用户任务。公司称该系统曾在ARC-AGI-2基准上帮助GPT-5.2相对此前最高分提升16%。本轮资金将用于推进产品化与团队扩张,方向聚焦在提升模型推理质量与推理成本控制的工程化能力。

阅读原文

不要错过明天的 AI 简报

数千位专业人士的首选,用 AI Daily Brief 开启每天的工作与生活。