小鹏发布第二代VLA:22B参数、决策延迟80ms
小鹏汽车3月2日发布第二代VLA(视觉-语言-行动)端到端物理AI大模型,参数22B,称推理效率提升32倍、决策延迟约80ms,并由自研图灵芯片在车端实时运行。训练数据约50PB、日消耗58.8万亿tokens,世界模型生成50万+仿真场景,等效日测约3000万公里;平均接管里程提升25倍、安全接管里程提升50倍。系统将于3月下旬起分批推送至P7 Ultra等车型,并规划年内VLA与座舱VLM合流、Robotaxi运营。
阅读原文小鹏汽车3月2日发布第二代VLA(视觉-语言-行动)端到端物理AI大模型,参数22B,称推理效率提升32倍、决策延迟约80ms,并由自研图灵芯片在车端实时运行。训练数据约50PB、日消耗58.8万亿tokens,世界模型生成50万+仿真场景,等效日测约3000万公里;平均接管里程提升25倍、安全接管里程提升50倍。系统将于3月下旬起分批推送至P7 Ultra等车型,并规划年内VLA与座舱VLM合流、Robotaxi运营。
阅读原文阿里通义实验室语音团队发布Fun-CosyVoice3.5与Fun-AudioGen-VD,两者支持以自然语言FreeStyle指令控制风格与场景。CosyVoice3.5面向Instruct-TTS,新增泰语、印尼语、葡萄牙语、越南语等多语种,在13种语言的WER与SpkSim指标上保持领先;对生僻字和复杂句优化后,读错率由15.2%降至5.3%。通过强化学习与Tokenizer帧率减半,首包延迟降低35%以改善实时交互。AudioGen-VD可按描述生成“人物音色+情绪+环境声”一体化听觉场景。
阅读原文阿里Qwen团队开源Qwen3.5小模型系列(0.8B/2B/4B/9B),采用Gated DeltaNet等混合架构并原生支持文本-图像-视频多模态。官方称9B在多项基准上超过参数更大的OpenAI开源gpt-oss-120B;模型原生上下文262K,可用YaRN扩展至约100万tokens,支持201种语言与多token预测。推理侧,9B在4-bit量化下约需5GB显存,可在消费级GPU或笔记本本地运行;权重以Apache 2.0许可发布,面向自托管部署。
阅读原文小米披露其人形机器人已进入电动汽车工厂参与自攻螺母装配:在单工位连续3小时自主运行,双侧同步安装成功率90.2%,满足产线最快76秒节拍。方案采用端到端数据驱动控制,结合自研47亿参数VLA大模型Xiaomi-Robotics-0与强化学习,并融合头/腕视觉、指尖触觉与本体感知以提升对准与抗磁干扰能力。全身运动控制使用优化控制+RL混合架构,兼顾安全约束与实时响应。小米称正验证分拣、前标安装等更多工位,推进规模化上产。
阅读原文ServiceNow收购以色列AI可观测性初创Traceloop,交易额据报道约6000万至8000万美元。Traceloop成立约两年半,其技术基于开源项目OpenLLMetry,为大模型应用与AI代理提供自动化评估、追踪与监控,帮助在生产环境中定位性能退化、提示词与工具链故障等问题;客户包括IBM、Miro与Dynatrace。ServiceNow计划将其能力并入AI Control Tower,强化企业对模型与代理的治理、审计与可靠性运营,反映企业级“可观测性+合规”正成为代理落地的基础设施层。
阅读原文小红书技术团队开源2B参数文档解析模型FireRed-OCR,针对通用VLM在表格、公式与阅读顺序上的“结构化幻觉”做垂直优化。项目采用三阶段训练:多任务预对齐建立空间感知、专项SFT统一逻辑表达、再以格式约束的GRPO强化学习约束输出结构。官方公布其在OmniDocBench v1.5榜单综合得分92.94%,强调端到端解析可在较小参数规模下超过超大通用模型。模型与方法在REDtech技术披露并进入ModelScope生态,便于企业自建文档理解、信息抽取与RPA流水线。
阅读原文具身智能公司银河通用(Galbot)宣布完成25亿元融资,多家报道称国家大基金三期首次进入具身智能赛道。公司主打端到端具身大模型“AstraBrain”与合成数据系统“AstraSynth”,以仿真生成大量交互数据、再用少量真实数据对齐,加速从感知到控制的闭环训练。其机器人已在工业与服务场景落地,包括宁德时代产线与智能药房等。融资将用于模型训练、硬件迭代与场景规模化部署;“国家队”入场也意味着具身模型进入重资产、长周期的产业竞争阶段。
阅读原文华为与香港城市大学联合团队在国际CVRP(车辆路径规划)顶级赛事中,采用“LLM + 进化计算”的EoH框架夺冠,并刷新98项历史最优纪录。该方法让大模型生成启发式算法思路与代码片段,再通过进化选择、运行评测与迭代变异形成闭环,减少对人工经验与手工调参的依赖;人类主要提供问题骨架与评价指标。结果显示AI已能在组合优化中做“算法机制层”改写,而不仅是辅助写代码,或将影响物流调度、仓配与生产排程等工业优化软件的研发流程。
阅读原文Databricks发布Spark Structured Streaming的Real-Time Mode(RTM),在不引入Flink等第二套引擎的前提下,将常见流式特征工程工作负载的端到端延迟推进到亚秒级。其核心改动包括:从微批转为连续数据流、采用流水线式并行调度避免阶段阻塞、并以streaming shuffle绕过传统磁盘瓶颈。官方基准显示在若干无状态变换、join与聚合任务上可较Apache Flink最高快92%。RTM旨在让企业用同一Spark API覆盖ETL与实时应用,降低运维与治理成本。
阅读原文数千位专业人士的首选,用 AI Daily Brief 开启每天的工作与生活。