8 月 5 日,Qwen 团队宣布开源 Qwen-Image,这是一个参数规模为 20B 的 MMDiT 模型,在各类生成与编辑任务中达到了开源模型的最佳水平 (SOTA)。
据本频信源,Anthropic 于八月起对涉及 Claude Max 订阅的 Claude Code 滥用行为实行了「前所未有的」风控措施。涉及的账户大多订阅了 Claude Max 200 套餐,有同 IP 多账户、并发多会话的行为特征,且长时间大量使用 Claude Code。
此轮封禁亦存在自动化的特征,即 Anthropic 会在非美国办公时间封禁账户,最快情况下,滥用的账号会在 5 分钟内被定点清除。
此前,Anthropic 宣布为 Claude Pro 和 Max 订阅用户的 Claude Code 访问实施附加限制,即对周用量增加封顶限制。据介绍,部分使用量极端的账户,在一个月内可以消耗上万美元的 API 额度。
Openrouter 近日上线匿名测试模型 Horizon Alpha,这是一个上下文长度 256k 的非推理模型。
在社区自发的评测中,该模型表现在一众非思考模型中表现优秀,且行为类似 OpenAI 的 o3 模型。
本频对该模型的分词器进行了测试,可以确认这一模型来自 OpenAI。
根据目前社区的预测,这可能是 OpenAI 即将发布的开源模型。
OpenAI 上一次于 Openrouter 上线匿名测试模型是 GPT-4.1 发布前夕,彼时上线的测试模型和 GPT-4.1 同样具有 1M 上下文窗口,且所有分词器特征都与 OpenAI 的 GPT-4o 保持一致。
阿里云公共 DNS 服务短暂异常
自北京时间约 29 日 0 时起,Github 多个服务出现服务降级。Git 操作、Raw 文件下载、GitHub Enterprise Importer、API 请求,Issues 和 Pull 请求有概率出现失败问题。
Github 官方在状态页面称,这可能由于对 Github 的大量未授权爬取导致服务器过载。官方正在制定新的速率限制策略,并尽快上线新的服务器以缓解流量。
截至发稿,绝大多数未登录用户仍无法顺畅使用 GitHub 的服务。
据彭博社、赛博禅心,智谱将于今晚发布其下一代开源大模型 GLM-4.5 系列。
根据目前已知的消息,GLM-4.5 系列至少有以下两个尺寸:
GLM-4.5:旗舰模型,总参数量 355B,激活参数 32B;
GLM-4.5-Air:次旗舰模型,总参数量 102B,激活参数 12B。
其中旗舰模型 GLM-4.5 预料将会超过此前刷榜的 Kimi-K2 和 Qwen3,成为新的开源 SOTA。
但在翻译评测结果中与 GPT-4.1 不相上下。
该模型已在阿里云百炼平台上线 API 调用,但模型本身暂未开源。
前者是 Qwen3-235B-A22B 的更新版,分为思考和非思考两个模型。据介绍,该模型在多语言的长尾知识覆盖方面取得进步,在主观任务中更能契合人类偏好,上下文长度提高到 256k Tokens。
后者是 Qwen 系列首个 MoE 代码模型,总参数 480B ,激活参数 35B,上下文 256k,可拓展至 1M。该模型主要改进了前代 Coder 模型缺失的 Agent 能力。
阿里还专门开源了命令行工具 Qwen Code,并且 Qwen Coder 模型也可通过 Anthropic 格式的 API 接入 Claude Code。
有消息称,OpenAI 即将发布 gpt-5-alpha 。这一模型可能融合了推理与非推理模型,支持通过思考预算调节模型是否开启思考能力。
另据 BleepingComputer,OpenAI 正在测试 o3-alpha,这一模型在编程和前端设计方面优于 o3 和 o3-pro。
该测试完全依赖模型的推理能力,解题过程中完全不使用外部工具。
据本频信源,本次用于评测的模型并非任何一款公开的模型,且未针对 IMO 任务微调,思考时间可达数小时,该模型并未计划在未来几个月内公开发布。
CloudFlare 称,本次事故源于其任播(anycast)系统的配置错误,意外将 1.1.1.1 的服务前缀包含在了暂不启用的配置块中,导致 1.1.1.1 的任播路由被错误撤下。受此影响,DoH 服务(不依赖被撤下的 IP)在故障期间仍可用。
CloudFlare 同时注意到,在 1.1.1.1 路由宣告被撤下后,Tata Communications India(AS4755)宣告了 1.1.1.0/24 ,但这并不是造成 1.1.1.1 无法访问的原因。
CloudFlare 承诺,将加快对遗留系统的淘汰,以提供更高标准的文档和测试覆盖。
(CloudFlare Blog)
ChatGPT Agent 的功能类似 Manus,可以执行浏览器操作、代码生成和运行、文档生成等,运行一个任务需要的时间在 5~30 分钟不等。
1.1.1.1 公共 DNS 出现故障
2025 年 7 月 15 日凌晨 6 时 13 分(北京时间),Cloudflare 公共 DNS 解析服务(1.1.1.1)发生短暂服务中断,部分用户在该时间段无法获取有效的 DNS 响应。此次事件未影响托管在 CloudFlare 的域名的权威 DNS 服务。
(CloudFlare Status)
Cloudflare 2025 年 7 月 15 日凌晨 6 时 13 分(北京时间),Cloudflare 公共 DNS 解析服务(1.1.1.1)发生短暂服务中断,部分用户在该时间段无法获取有效的 DNS 响应。此次事件未影响托管在 CloudFlare 的域名的权威 DNS 服务。
(CloudFlare Status)
由于能支付宝充值,因此该卡片是国内推广最多的卡片之一。
目前相对正规的U 卡基本已经不支持在国内消费,比如Bybit 等卡片已经无法绑定主流支付方式。
月之暗面于 2025 年 7 月 12 日发布并开源 Kimi K2 大模型,总参数量达 1 万亿,采用 MoE 架构,激活参数 32 亿。该模型支持 128K 最大上下文长度,在自主编程、工具调用和数学推理等基准测试中表现突出,取得开源模型 SOTA 成绩。模型技术亮点包括 MuonClip 优化器,在 15.5 万亿词元数据上实现稳定训练,以及大规模 Agentic 数据合成和通用强化学习;未来将加入思考和视觉理解能力。
本次开源包括 Kimi-K2-Base(基础预训练模型)和 Kimi-K2-Instruct(指令微调版本),遵循修改版 MIT 协议,可商用。
API 服务已上线,定价为输入 4 元/百万词元,输出 16 元/百万词元。
(月之暗面)
Kagi 推出新闻阅读器 Kite
北京时间 2025 年 7 月 10 日,Elon Musk 旗下的 xAI 公司正式发布了其下一代大语言模型 Grok 4 。该模型在多项关键基准测试中表现出色,综合性能超越了 OpenAI 的 o3 和 Google 的 Gemini 2.5 Pro 等主要竞争对手 。
Grok 4 在被誉为「人类最后的考试 (HLE)」的超高难度测试中得分远超以往模型,其增强版 Grok 4 Heavy 更是在 AIME 2025 (美国数学邀请赛) 中取得满分 。根据 AI 评估平台 Artificial Analysis 的数据,Grok 4 目前在综合性能上排名第一 。
Grok 4 是一个支持文本和图像输入的多模态模型,拥有 256K 的上下文窗口 。其强大的推理能力得益于在强化学习 (RL) 上的大量投入 。Grok 4 Heavy 版本更是一个多智能体系统,能协同解决复杂问题 。
目前,Grok 4 已向付费用户开放,提供每年 300 美元和 3000 美元(针对 Grok 4 Heavy)两种订阅等级 。其 API 接口也已上线,价格与前代持平 。xAI 还公布了未来计划,将在未来数月内陆续发布专用的编码模型、多模态智能体和视频生成模型 。
(综合媒体报道)
Vercel 宣布收购 NuxtLabs,标志着 Nuxt 这个基于 Vue.js 的全栈框架将加入 Vercel 生态。NuxtLabs 成立于 2017 年,其开源框架 Nuxt 每周下载量超过百万次,以文件路由、自动导入和服务器端渲染功能著称。
此次收购后,NuxtLabs 计划将 Nuxt UI v4 的所有 Pro 组件免费开放,并附带 Figma Kit。基于 Git 的内容管理系统 Nuxt Studio 也将开源,支持实时协作和类 Notion 编辑体验。同时,即将推出的 NuxtHub 将与 Vercel Marketplace 集成,支持 Postgres 和 Redis 等服务。Vue.js 创始人尤雨溪确认,此前与 VoidZoid 合作开发 DevTools 的合同仍然有效。
收购完成后,Vercel 旗下将拥有 Next.js、Svelte 和 Nuxt 三大主流前端框架。虽然 Vercel 承诺保持 Nuxt 的开源特性和独立治理模式,但部分开发者对前端框架生态集中化表示担忧。支持者认为此举为 Nuxt 提供了可持续发展的资源保障,质疑者则担心可能形成技术垄断和厂商绑定。
(Vercel)
HonestAGI 近日发布 报告 ,指出华为盘古 Pro MoE 72B 大语言模型与阿里千问 2.5 14B 模型存在异常高的相似性。该分析基于一种新的参数分布指纹识别技术,通过检测注意力机制参数的标准差分布模式来识别模型血缘关系。
分析结果显示,两个模型在查询、键值、数值和输出投影矩阵上的相关系数分别达到 0.867、0.928、0.939 和 0.973,综合相关系数为 0.927,远超正常独立开发模型间 0.3 至 0.7 的相似度范围。技术报告还发现,盘古模型保留了千问模型特有的 QKV bias 设计和注意力层归一化权重模式,而这些特征在千问后续版本中已被放弃。
同时,一位自称华为诺亚方舟实验室员工的匿名人士发布详细 举报材料 ,指控由王云鹤领导的「小模型实验室」多次采用「套壳」现有模型的做法。举报者称,盘古 Pro MoE 72B 虽然内部声称是从小模型实验室的 7B 模型扩增而来,但实际上是基于千问 2.5 14B 模型进行的改造。为了掩盖模型来源,开发团队付出了巨大的算力成本进行续训,甚至故意训练「脏数据」来模糊原始特征。举报者表示,用于「洗参数」的算力投入已经足够从头训练一个同等规模的模型。
华为诺亚方舟实验室于 7 月 5 日发布 声明 回应争议。声明表示,盘古 Pro MoE 是基于昇腾硬件平台开发训练的基础大模型,并非基于其他厂商模型增量训练而来。华为承认模型的部分基础组件代码实现参考了业界开源实践,但强调严格遵循开源许可证要求。
2025 年 3 月,华为诺亚方舟实验室发生人事变动,90 后王云鹤接替姚骏担任实验室主任。王云鹤此前担任华为算法应用部部长,曾因高效 AI 算法创新获得华为「十大发明」奖项。
(综合媒体报道)