返回往期
2026年1月12日星期一
9 点要闻3 分钟阅读

今日要闻

1

谷歌推出UCP并在Gemini/AI Mode加入直接结账

AI商业化智能体电商

谷歌在NRF宣布开放标准UCP(Universal Commerce Protocol),与Shopify、Etsy、Wayfair、Target、Walmart等共建,让AI购物代理在商品发现、下单支付与售后支持之间用统一接口协作。基于UCP,美国将很快在Search AI Mode与Gemini应用提供“直接结账”,使用预填的Google Pay与Google Wallet配送信息完成购买,并将支持PayPal。同时上线品牌“Business Agent”虚拟导购,并测试让商家在AI对话中提供独家折扣的Direct Offers广告。

阅读原文
2

Google Cloud发布Gemini Enterprise CX零售客服代理套件

企业AI智能体零售

Google Cloud在NRF 2026发布Gemini Enterprise for Customer Experience(CX),将购物导购与客户服务整合为一套智能代理方案,提供可配置的预构建代理并称可在数天内部署。产品支持图像、视频、语音等多模态输入,并在获得用户同意后执行多步骤任务;同时提供“客户体验代理工作室”,用于大规模构建、测试与部署个性化支持代理,覆盖40+语言并可赋能人工客服处理复杂工单。Kroger、Lowe's、Woolworths、Papa Johns等宣布采用,官方称客户数据不用于模型训练。

阅读原文
3

印尼与马来西亚因性化深伪临时封锁Grok

AI安全监管内容治理

印尼与马来西亚监管机构以Grok在X上生成未经同意的性化深度伪造内容为由,先后宣布对该聊天机器人实施临时访问限制/封锁,并要求X方面就风险与整改作出说明。报道指出,此类内容涉及女性与未成年人,触发“数字安全与人权”层面的监管介入。作为应对,xAI已将图像生成与编辑功能限制为每月8美元的付费订阅者使用。与此同时,欧盟与英国监管机构仍在施压,认为“付费门槛”并不足以化解平台侧的系统性风险。

阅读原文
4

LG披露K-Exaone细节:混合注意力降70%算力/内存

大模型国家项目降本增效

LG AI Research公布其为韩国“国产AI基础模型”计划开发的K-Exaone技术细节:通过改进混合注意力机制,相比前代版本将内存需求与计算量降低约70%,使其可在A100级GPU环境运行、降低部署成本。在政府主导的项目首轮评估中,K-Exaone在13项测试平均得分72分,位列5家参评机构第一;报道同时称其在全球AI基准组织排行榜进入前十、排名第七。LG表示将通过官网提供API,并免费开放至1月28日。

阅读原文
5

Databricks融资逾40亿美元、估值升至1340亿美元

融资企业数据AI平台

数据与AI公司Databricks在新一轮融资中筹集超过40亿美元,估值达到1340亿美元。公司计划将资金用于产品开发、人工智能研究、员工流动性支持以及战略收购。其业务重点是将生成式AI能力与企业专有数据结合,披露拥有超过20,000家全球客户。公司同时给出核心经营数据:年度经常性收入(ARR)达到48亿美元,较上年增长55%。在企业数据平台与GenAI一体化竞速背景下,此轮巨额融资将进一步推高头部厂商的研发与并购空间。

阅读原文
6

a16z募资超150亿美元:其中17亿美元投向AI基础设施

VCAI基础设施募资

Andreessen Horowitz(a16z)宣布通过五只新基金募得超过150亿美元资金,用于支持人工智能与“战略技术”。披露的分配中,67.5亿美元投向增长基金,17亿美元专门用于AI基础设施,另有11.2亿美元面向国防、住房与供应链等领域。a16z同时称其管理资产已超过900亿美元。在整体风投募资放缓的周期内,大额资金继续集中到少数头部机构,意味着算力、模型工具链与安全等方向仍将获得持续、长期的资本供给。

阅读原文
7

Mistral与法国国防部签约,模型将部署在主权基础设施

政务国防大模型欧洲AI

法国国防部与Mistral AI达成协议,为武装部队、国防机构及相关公共部门提供AI模型、软件与服务。报道指该方案将部署在法国控制的主权基础设施上,并使用国防专用数据进行微调,以满足作战与管理需求。该合作被定位为强化“技术主权”的举措,减少关键军事与政务场景对外部AI与云服务的依赖。对Mistral而言,这是在政府级高敏感场景的落地案例,也为欧洲本土大模型供应商提供了重要的公共部门背书与应用入口。

阅读原文
8

“Poison Fountain”号召网站投毒训练数据以反制大模型爬虫

数据安全对抗样本AI治理

The Register报道,一批来自美国主要AI公司的业内人士发起“Poison Fountain”项目,试图用“数据投毒”方式反制大模型训练:他们呼吁网站运营者在站内添加指向含错误代码等“有毒”内容的链接,让AI爬虫抓取后降低模型质量。项目上线约一周,提供普通HTTP与暗网.onion入口,并鼓励缓存与转发。报道提到其灵感来自Anthropic相关研究:少量恶意文档即可显著拉低模型表现。该行动同时引发对训练数据可信度、合成数据污染与“模型崩溃”风险的讨论。

阅读原文
9

通讯称GPT-5.2证明Erdős #397并用Lean形式化验证

AI科研形式化验证推理

一份邮件通讯称,OpenAI的GPT-5.2解决了困扰数学界约30年的Erdős Problem #397(与中心二项式系数方程相关),模型生成证明后,并借助“Aristotle”工具使用Lean语言进行了形式化验证。通讯引用陶哲轩观点:这些证明更像原创推导而非复现文献,但属于可用标准技巧攻克的题目。该通讯同时给出能力对比:GPT-5.2在竞赛级数学任务得分77%,而在需要“真正洞察”的开放式研究任务上仅25%。若信息准确,显示LLM正从解题走向可验证的证明生成工作流。

不要错过明天的 AI 简报

数千位专业人士的首选,用 AI Daily Brief 开启每天的工作与生活。