Claude Code额度大战白热化:Anthropic提额50%同时封堵SDK共享漏洞,OpenAI Codex以企业免费策略反击;Google则以Gemini Intelligence重塑Android为"主动型AI系统",发布专属硬件Googlebook,三巨头从不同维度争夺AI入口。
Claude Code额度大战白热化:Anthropic提额50%同时封堵SDK共享漏洞,OpenAI Codex以企业免费策略反击;Google则以Gemini Intelligence重塑Android为"主动型AI系统",发布专属硬件Googlebook,三巨头从不同维度争夺AI入口。
Anthropic宣布Claude Code每周用量上限提升50%,即刻生效至7月13日。覆盖Pro、Max、Team和企业用户,CLI/IDE/桌面端/网页端全渠道生效,且可叠加上周的5小时限额翻倍福利。与此同时,Anthropic推出"双轨制"新政:6月15日起,只有直接在Claude Code内部使用才能享受正常额度,通过Agent SDK和claude -p等程序化调用的额度将单独计算,不再共享订阅额度。
这是Anthropic对"订阅共享"问题的精准外科手术。之前大量第三方应用(OpenClaw、Codepilot等)通过Agent SDK接口共享用户的Claude订阅额度,本质上是在Anthropic的算力上搭便车。双轨制把"人直接用"和"程序化调用"的额度池分开,既保护了个人用户体验,又为API商业化铺路。提额50%是安抚用户的甜头,封堵SDK是核心目的——先给糖再收紧,典型的平台治理策略。这也预示着未来AI编程工具的计费模式将走向"使用场景分层"。
对行业而言,这标志着AI编程工具从"补贴获客"阶段进入"商业化分层"阶段。对开发者而言,短期内是利好(额度更多),长期看是付费模式的结构性转变——程序化调用将单独计费,AI工具创业者的成本结构会改变。对普通用户而言,直接使用Claude Code的体验会更好,因为不再有第三方应用抢占资源。
OpenAI发布针对企业用户的Codex迁移政策:未来30天内切换到Codex,符合条件的企业用户可获得2个月免费使用权。这是Codex与Claude Code企业用户争夺的直接对抗。
OpenAI的策略非常明确——用时间窗口和免费期抢夺Claude Code的企业用户。30天切换期限制造紧迫感,2个月免费则降低迁移成本。这和当年云厂商的"迁移优惠"异曲同工。Codex的Computer Use能力(后续详述)是其差异化武器,能让Codex从"编程Agent"扩展到"通用桌面Agent",对企业用户吸引力更大。
企业AI编程工具市场正式进入价格战阶段。OpenAI和Anthropic都在用免费/提额策略抢夺企业客户,最终受益的是用户——更多额度、更低价格。但也要警惕供应商锁定风险,双轨制和专有协议都可能增加迁移成本。
OpenAI开发者关系负责人Romain Huet与Codex Computer Use主导者AriX对谈,重点讨论Computer Use如何将Codex从"编程Agent"扩展到"通用桌面Agent"。Codex现在能直接操作浏览器、文件系统等桌面环境。
这是AI Agent从"单域工具"走向"通用数字助手"的关键一步。Computer Use让Codex不再局限于代码编辑器,而是可以操作整个桌面——浏览器、文件管理器、任何GUI应用。这与Anthropic的Computer Use能力形成正面竞争。技术本质是通过视觉理解和操作规划,让LLM将屏幕像素转化为操作指令。从编程Agent到桌面Agent的跃迁,意味着AI的"工作范围"从几十个API扩展到整个操作系统。
Computer Use是AI从"辅助工具"变为"自主工作者"的关键能力。对开发者而言,这意味着AI不再只是补全代码,而是能独立完成"打开浏览器→查找资料→整理文档→提交报告"这样的多步骤任务。对传统RPA行业是降维打击——无需编排固定流程,AI自主理解并执行。
Google在I/O大会前连发重磅:1)Gemini Intelligence深度整合进Android,实现跨应用多步骤任务自动化,将Android从"操作系统"升级为"智能系统";2)发布Googlebook——首款专为Gemini Intelligence设计的笔记本,融合Android应用生态与ChromeOS浏览器能力。
Google的策略是用"系统级AI整合"建立护城河。不同于OpenAI/Anthropic从工具层切入,Google直接在OS层嵌入AI——设备会"先你一步"完成事务,而非被动等待指令。Gemini Intelligence的跨应用任务链(如"帮我订机票+日历+发邮件通知")是Android从"App容器"到"AI代理"的范式转移。Googlebook则是对Chromebook的AI时代重生,15年前Chromebook为"云优先"而生,今天Googlebook为"AI优先"而生。
如果Google成功将Android重塑为"AI优先"系统,将重新定义移动操作系统。对Apple形成直接压力——iOS的Siri整合必须跟上。对开发者而言,Android开发将从"写App"转向"写AI能力",App的边界将变得模糊。Googlebook则可能开启"AI原生硬件"品类。
前Meta FAIR Director田渊栋以联合创始人身份正式官宣新公司Recursive,使命是构建递归自改进超智能(Recursive Self-Improving Superintelligence),让AI自动发现知识、自我迭代,形成开放式循环。核心思路是"AI即代码,AI写AI"。
这是AI安全领域最前沿也最具争议的方向之一。递归自改进意味着AI系统能够改写自己的代码来提升性能,理论上可以产生智能爆炸。田渊栋从Meta FAIR离职创业,说明学术界对这一方向的技术可行性越来越有信心。但也引发严重的安全担忧——如果AI能自我改写,如何确保改进方向与人类对齐?Recursive的技术路线可能是将代码生成能力与自我评估机制结合,让AI在"改进-验证"循环中逐步提升。
如果成功,这将是从"人训练AI"到"AI训练AI"的范式转变,可能大幅加速AGI到来。但风险同样巨大——失控的递归自改进可能导致不可预测的后果。对行业而言,Recursive的进展将成为AI安全与能力辩论的核心案例。
Yann LeCun再次强调,不能在没有世界模型的情况下构建可靠的Agent系统。LLM没有世界模型,无法预测行动后果,"它们只是行动,而不预测"。
LeCun的观点直指当前Agent系统的核心缺陷——LLM基于文本模式匹配做决策,而非基于对物理世界和因果关系的理解。世界模型意味着AI能"想象"行动后果:如果我点击这个按钮会发生什么?如果我发送这封邮件会引发什么连锁反应?当前Agent系统经常做出"看起来合理但实际荒谬"的操作,正是因为缺少这种"心理模拟"能力。这也解释了为什么Computer Use仍需要大量人工监督。
LeCun的观点暗示当前基于LLM的Agent热潮可能存在天花板——没有世界模型,Agent只能处理"套路化"任务。真正的突破可能需要等世界模型技术成熟,这可能是下一代AI架构的方向。
Claude推出20+法律行业连接器和12个法律领域插件,打通合同管理、电子发现、文档管理、数据室等法律工作全链路。Harvey、Thomson Reuters、Everlaw等法律AI头部玩家都在用Claude构建产品。
法律行业是AI商业化最成熟的垂直领域之一——文档密集、规则明确、高付费意愿。Claude的"连接器+插件"策略是平台化打法:不自己做法律AI产品,而是提供基础设施让生态伙伴构建。这与OpenAI的通用API策略形成差异——Anthropic选择深耕垂直行业。20+连接器意味着Claude可以直接与Clio、Relativity、iManage等法律工具对话,省去手动导出。
法律AI市场正在从"通用AI+法律提示词"进化到"专用AI+行业深度整合"。Anthropic的策略是做"法律AI的操作系统",Harvey等公司在上面构建应用。这对其他垂直行业(医疗、金融)有示范效应。
阿里国际数字商务团队开源Ovis2.6-80B-A3B视觉多模态MoE模型。特点:能主动进行视觉推理,在思维链中主动调用视觉工具(裁剪、旋转图像区域),2.6版将主干LLM替换为MoE架构。
Ovis系列的核心创新是"主动视觉推理"——模型不只是看图说话,而是能在思考过程中主动调用视觉工具来辅助推理。比如看到一张复杂图表,模型可以主动裁剪局部放大、旋转查看细节。这是从"被动视觉理解"到"主动视觉探索"的进步。MoE架构则用80B总参数但仅激活3B,实现效果与效率的平衡。
开源多模态MoE模型进一步降低了中国开发者的使用门槛。与闭源模型相比,3B激活参数量意味着更低的推理成本,适合端侧部署。
Jina开源embeddings-v5-omni系列,在文本v5基础上扩展支持图像、音频、视频四模态检索。只训练0.35%的连接层参数,文本主干完全不动。视觉编码器用Qwen3.5 ViT,音频编码器用Qwen2.5-Omni。
这是"冻结主干+微调连接层"策略的典范——用0.35%的训练参数就实现了从单模态到四模态的扩展。好处是文本检索质量完全不受影响,新增的跨模态检索能力几乎"白送"。技术路线是保持文本embedding空间的语义一致性,让图像/音频/视频通过轻量连接层映射到同一空间。
开源多模态embedding将加速RAG系统从"纯文本"进化到"多模态"。对Jina而言,这是巩固embedding赛道领先地位的关键一步。
LandingAI推出"解析前"页面级分类API,在昂贵的文档解析之前先对PDF逐页打标签,让企业只处理真正需要的页面,将不同类型页面分流到对应下游流水线。
这解决的是企业文档处理的"算力浪费"问题。典型场景:50页房贷PDF中混杂工资单、银行流水、水电账单、护照照片,全量解析既慢又贵。LandingAI的方案是在解析前加一层"分类闸门"——先快速判断每页类型,再分流处理。这是典型的"预处理+流水线"架构思维,把一个大的AI任务拆成"分类-路由-专项处理"三步。
这是AI从"通用大模型"走向"领域专用流水线"的典型案例。预处理分类的成本远低于全量解析,ROI提升明显。
Hinton的47分钟讲座引发热议。他直接甩出"如果今晚睡得好,说明你没听懂今天的演讲",但多数人只当段子听了,后面的核心内容被忽略。Hinton从符号AI到连接主义的历史讲起,指出当前AI发展的深层风险。
Hinton的警示被社交媒体"梗化"是最大的讽刺。他在讲AI安全的深层结构问题——从连接主义到深度学习的演进让模型越来越不可解释,而商业化的速度远超安全研究的速度。"睡得好说明没听懂"不是玩笑,是对AI发展方向的严肃警告。值得深思的是:刷完讲座的人第一反应是"抄18步Claude指南",恰好印证了Hinton的担忧——人们把AI当工具用,而不思考其后果。
Hinton的影响力可能推动更多资源投入AI安全研究,但短期内行业仍以能力竞赛为主。
Paul Graham在斯德哥尔摩YC活动上讨论2026年创始人最纠结的问题——要不要搬去硅谷?他强调大中心的价值在于随机偶遇、投资人决策速度和专业尊重。
PG的答案是"硅谷仍然重要,但不再是唯一选择"。随机偶遇带来的idea碰撞、投资人决策的极快速度、专业圈子的尊重——这些都是远程无法完全替代的。但随着AI降低创业门槛(一人公司成为可能),地理优势在弱化。PG的观点在AI时代有了新的含义:当AI Agent可以替代部分"社交信息传递"功能时,物理聚集的必要性在降低。
硅谷的聚集效应在AI时代可能被重新定义——从"物理聚集"到"AI增强的虚拟聚集"。
开发者"小八"与Evermind合作推出Reunite——基于语义匹配而非关键词的寻亲工具。解决的核心问题:妈妈记得"大红狗",孩子记得"锈棕色的赛特犬",传统数据库永远匹配不上。
这是AI语义理解在公益领域的绝佳应用。传统寻亲依赖关键词精确匹配,但人的记忆天然是模糊和主观的——同一只狗在不同人的记忆里是完全不同的描述。语义embedding让"大红狗"和"锈棕色的赛特犬"能在向量空间中接近。这不是技术炫技,而是真正解决了传统方法无法解决的问题。Reunite使用了Memory Genesis技术,可能结合了多轮对话来逐步提取和匹配记忆特征。
语义寻亲如果规模化,可能改变公益寻人的基础设施。技术本身也可迁移到任何需要"模糊描述匹配精确对象"的场景。
lxfater指出99%的企业使用Agent的方式存在根本问题——员工开会做的决定不能实时传递给Agent,下次使用时必须人工回忆和转述,信息丢失和偏差导致Agent效能大打折扣。
这是企业AI落地最被低估的障碍。技术不是瓶颈,信息流转才是。Agent如果只能获得"事后回忆版"的信息,其决策质量必然下降。解决方案可能是:1)会议自动纪要并喂给Agent;2)企业通讯工具(Slack/飞书)与Agent实时对接;3)Agent主动监听决策流而非被动等待指令。本质问题是企业信息的"实时性"和"完整性"。
谁先解决企业Agent的"信息实时性"问题,谁就拿下企业AI市场的关键基础设施层。
yetone团队发布Yansu Skill,安装后可在任意Agent中使用Yansu的能力,包括无感持续安全脱敏地记录对话记忆。同时yetone分享了Harness Memory的架构思考:基于PostgreSQL的distribution filesystem,多层记忆(embedding db + filesystem),优先照顾LLM的Bash操作偏好。
yetone的洞察很深刻——LLM天然偏好用Bash操作文件,这是当前Agent Memory设计的"人机工程学"约束。把PostgreSQL封装成filesystem,本质上是为LLM提供了它最顺手的交互界面。多层记忆架构(embedding做语义检索,filesystem做结构化存储)也是当前Agent Memory的主流方案。Yansu Skill的"可移植性"策略也很聪明——不强迫用户切换Agent,而是让你的记忆能力可以在任何Agent中使用。
Agent Memory的"可移植性"可能成为新的竞争维度——用户不想被锁定在某个Agent的记忆系统中。
发布psql_bm25s——PostgreSQL原生BM25检索访问方法,在标准基准上比pg_search快约23倍。EMostaque评论称这是从单Agent SQLite到多Agent PostgreSQL的关键一步。
BM25是信息检索的基石算法,但PostgreSQL之前没有原生高效的BM25实现。pg_search(基于pgvector的全文检索扩展)性能不够理想。psql_bm25s作为原生访问方法(Access Method),直接在PostgreSQL存储引擎层面实现BM25,跳过了pgvector的中间层,所以能快23倍。这对RAG系统和Agent Memory系统意义重大——PostgreSQL正在成为AI应用的"一站式数据库"。
PostgreSQL在AI基础设施中的地位进一步巩固。pg_bm25s让开发者不需要单独部署Elasticsearch就能获得高质量全文检索,简化了技术栈。
Cloudflare基于自研Containers重建了Browser Run产品,实现更高使用限制、更快性能、更好可靠性和更快迭代速度。
Browser Run是无头浏览器即服务,AI Agent需要它来执行网页操作。从Worker迁移到Containers意味着更大的资源配额和更低的冷启动延迟。这对依赖Computer Use的AI Agent尤其重要——浏览器启动速度直接影响Agent响应速度。
Cloudflare在"AI基础设施"赛道持续发力,Browser Run的改进让AI Agent的网页操作更可靠更快。