1. 执行摘要
在GTC 2026的余热尚未散去之际,本周AI所处的环境在政策、硬件和研究三个维度同时发生了重大变化。特朗普政府发布了联邦层面的AI立法框架,正式推进各州不同AI法规的统一进程。NVIDIA宣布Rubin平台正式量产,揭示了包含6款新芯片在内的下一代AI超级计算机的全貌。研究方面,Google Research发布了解决Transformer长期记忆问题的Titans+MIRAS架构,EPFL则在ICLR 2026上发表了从根本上解决生成视频漂移问题的方法,基础研究领域也持续取得重要进展。
2. 今日要点
特朗普政府发布联邦AI立法框架——推动州法律统一
白宫发布了关于AI监管的综合性联邦立法框架。该框架由六大支柱构成:(1) 联邦法对州法的预先占用(preemption)、(2) 儿童安全相关法规、(3) 知识产权保护、(4) 言论自由保障措施、(5) 数据中心能源许可审批效率化、(6) 劳动力发展。白宫要求国会在年内完成立法。
尤其值得关注的是州法预先占用方针。目前加利福尼亚州、科罗拉多州等各州正在制定或审议各自独立的AI法规,合规的复杂化已成为企业面临的重大挑战。联邦框架的统一将提高AI产业的可预见性,但也有50多名共和党议员批评其”缺乏问责路径”,国会审议预计将充满波折。
出处: 白宫「National AI Legislative Framework」
NVIDIA宣布Rubin平台正式量产——万亿美元级收入机会
NVIDIA宣布下一代AI超级计算机平台”Rubin”正式开始量产。Rubin平台由6款协同设计芯片组成:Vera CPU、Rubin GPU、NVLink 6、ConnectX-9、BlueField-4、Spectrum-6。Microsoft Azure成为首批Vera Rubin NVL72的部署合作伙伴,同时还宣布了与Meta的长期合作关系。
NVIDIA估算到2027年的可见收入机会达1万亿美元,表明AI基础设施投资正在加速。据称Rubin平台相比现有Blackwell架构,推理性能最高提升4倍,训练性能最高提升2.5倍。AI数据中心的能效也大幅改善,同等工作负载下功耗可降低约40%。
出处: NVIDIA「Rubin Platform AI Supercomputer」
Google Research发布实现长期记忆的Titans+MIRAS架构
Google Research发布了为AI模型赋予长期记忆能力的新架构”Titans”及其改进版”MIRAS”。传统Transformer架构受限于注意力机制的上下文窗口,长期上下文保持一直是难题。Titans通过结合RNN(循环神经网络)的处理速度与Transformer的精度,解决了这一问题。
MIRAS是Titans的进一步发展,引入了学习记忆取舍的”元记忆”机制。这一设计受人类记忆系统启发,具备选择性地将重要信息存入长期记忆、遗忘不需要信息的能力。在基准测试评估中,在超过100万token的超长文本任务上大幅超越了现有方法。
出处: Google Research「Titans + MIRAS: Helping AI Have Long-Term Memory」
3. 其他新闻
EPFL解决生成视频漂移问题——实现无时间限制的一致性视频生成(ICLR 2026)
瑞士洛桑联邦理工学院(EPFL)研究团队在ICLR 2026上发表了解决生成AI视频生成中”漂移问题”的方法。此前的视频生成模型存在随帧数增加画质和一致性下降的问题,本方法采用”与误差共存”而非消除误差的思路。由此实现了无时间限制的一致性视频序列生成。该技术有望应用于电影制作和游戏开发等创意产业。
出处: TechXplore「AI Limits Generative Video」
AI自主解决4个Erdos猜想——评估700个未解决数学问题
arXiv上发表的论文(2602.10177)报告称,AI系统自主解决了4个Erdos猜想,并对700个未解决数学问题进行了评估。Erdos猜想是匈牙利数学家保罗·埃尔德什提出的著名未解决问题群,这是AI在纯数学前沿做出实质性贡献的开创性案例。AI不仅验证了证明,还构建了独特的证明策略来解决问题,这可能从根本上改变数学研究的方法论。
出处: arXiv 2602.10177
Anthropic向所有用户免费开放Claude Memory——支持从竞品导入记忆
Anthropic将此前仅限付费用户使用的Claude Memory向所有用户免费开放。同时还发布了从ChatGPT和Gemini导入对话历史和设置的工具。这是一项大幅降低从竞品迁移门槛的战略举措。Memory功能可以跨对话记忆用户偏好和上下文,是个性化的重要基础。
出处: Dataconomy「Anthropic Makes Claude Memory Feature Free」
最新模型格局:GPT-5.4与Gemini 3.1在基准测试中并列第一
AI模型的性能竞争日趋激烈。GPT-5.4在OSWorld-V基准测试中达到75%(人类基线72.4%),Gemini 3.1 Flash-Lite以每百万token 0.25美元实现了2.5倍加速。Claude Sonnet 4.6和Opus 4.6正在推出100万token上下文的Beta版。成本效率和上下文长度的竞争正成为新的差异化维度。
4. 总结与展望
本周是AI产业三大基础层同时更新的标志性一周。政策方面,联邦AI立法框架提高了监管环境的可预见性;硬件方面,NVIDIA的Rubin平台定义了AI基础设施的下一代标准;研究方面,Google的Titans+MIRAS解决了长期记忆这一基础性课题。
这三个维度的同步推进,清楚表明AI正处于从”研究对象”向”社会基础设施”的转型期。特别值得关注的是,EPFL的视频漂移解决方案和AI解决数学问题等,此前被视为”AI局限”的领域正不断取得突破。下周的焦点将是Space Science Week 2026上AI与太空科学的讨论,以及国会和产业界对联邦AI立法框架的反应。
本文由 LLM 自动生成。内容可能存在错误。参考文献包含 AI 用于研究和生成文章的 URL。
