起于小站,终于生活。
现实之外,一个普通人的思考。

博客地址:ygxz.in
讨论组:https://t.me/ygxz_group
一个小站的自留地
阿里云发布了 Qwen-MT ,这是一个为翻译任务进行针对微调的模型。模型采用轻量级 MoE 结构, 但在翻译评测结果中与 GPT-4.1 不相上下。 该模型已在阿里云百炼平台上线 API 调用,但模型本身暂未开源。
阿里云开源图像生成模型 Qwen-Image,文本渲染能力表现突出

8 月 5 日,Qwen 团队宣布开源 Qwen-Image,这是一个参数规模为 20B 的 MMDiT 模型,在各类生成与编辑任务中达到了开源模型的最佳水平 (SOTA)。
一个小站的自留地
Claude 4 系列模型正式发布 北京时间 5 月 23 日凌晨,Anthropic 正式推出 Claude 4 系列模型,包括 Claude Opus 4 和 Claude Sonnet 4。两款模型在编码、高级推理和 AI 智能体(AI Agent)任务方面有进步。 Claude Opus 4 被 Anthropic 称为「全球最佳编程模型」,在 SWE-bench Verified 测试中取得 72.5% 的成绩,Terminal-bench 得分为 43.2%,全面领先于 OpenAI 的 o3…
Anthropic 正对涉及 Claude Max 订阅的 Claude Code 滥用行为进行严厉打击。

据本频信源,Anthropic 于八月起对涉及 Claude Max 订阅的 Claude Code 滥用行为实行了「前所未有的」风控措施。涉及的账户大多订阅了 Claude Max 200 套餐,有同 IP 多账户、并发多会话的行为特征,且长时间大量使用 Claude Code。

此轮封禁亦存在自动化的特征,即 Anthropic 会在非美国办公时间封禁账户,最快情况下,滥用的账号会在 5 分钟内被定点清除。

此前,Anthropic 宣布为 Claude Pro 和 Max 订阅用户的 Claude Code 访问实施附加限制,即对周用量增加封顶限制。据介绍,部分使用量极端的账户,在一个月内可以消耗上万美元的 API 额度。
一个小站的自留地
OpenAI 研究员 Alexander Wei 最近确认,GPT-5 即将上线。 有消息称,OpenAI 即将发布 gpt-5-alpha 。这一模型可能融合了推理与非推理模型,支持通过思考预算调节模型是否开启思考能力。 另据 BleepingComputer,OpenAI 正在测试 o3-alpha,这一模型在编程和前端设计方面优于 o3 和 o3-pro。
OpenAI 于 LLM 聚合平台 Openrouter 上线匿名测试模型。

Openrouter 近日上线匿名测试模型 Horizon Alpha,这是一个上下文长度 256k 的非推理模型。

在社区自发的评测中,该模型表现在一众非思考模型中表现优秀,且行为类似 OpenAI 的 o3 模型。

本频对该模型的分词器进行了测试,可以确认这一模型来自 OpenAI。

根据目前社区的预测,这可能是 OpenAI 即将发布的开源模型。

OpenAI 上一次于 Openrouter 上线匿名测试模型是 GPT-4.1 发布前夕,彼时上线的测试模型和 GPT-4.1 同样具有 1M 上下文窗口,且所有分词器特征都与 OpenAI 的 GPT-4o 保持一致。
一个小站的自留地
Github 现已屏蔽来自中国大陆的未登录访问。已登录用户目前不受影响。 本频测试,在不开启代理的情况下,仍然能打开登录页面,但是有几率登录失败。 (Github Discussion) —————— 4月14日更新: 根据 GitHub 官方状态页面发布的信息,由于一项配置变更产生了意外影响,未登录状态下尝试从中国访问 GitHub.com 的用户在过去一天内暂时无法访问该网站。 该事件于北京时间 2025 年 4 月 13 日凌晨 4:01 开始,直到当天晚上 22:55 才得到缓解,影响持续了近…
Github 现正经历服务降级。

自北京时间约 29 日 0 时起,Github 多个服务出现服务降级。Git 操作、Raw 文件下载、GitHub Enterprise Importer、API 请求,Issues 和 Pull 请求有概率出现失败问题。

Github 官方在状态页面称,这可能由于对 Github 的大量未授权爬取导致服务器过载。官方正在制定新的速率限制策略,并尽快上线新的服务器以缓解流量。

截至发稿,绝大多数未登录用户仍无法顺畅使用 GitHub 的服务。
一个小站的自留地
6 月 5 日,智谱 AI 公布了 GLM-4 的最新开源版本 GLM-4-9B 模型,其在各方面都全面超越了 Llama 3 8B,并且首次展示了多模态能力,能够实现与 GPT-4V 相媲美的性能。 GLM-4-9B 模型实现了从 128K 扩展到 1M 的上下文长度,可以同时处理 200 万字的输入,覆盖多语言,展示了强大的对话能力和多模态生成能力。该模型在中英文综合性能、指令遵从和工程代码等基准测试中均表现出色,且完全免费开源,支持消费级显卡本地运行。 在此次发布会上,智谱 AI 还展示了其全新的大模型矩阵:…
智谱将于今晚发布 GLM-4.5 系列模型

据彭博社、赛博禅心,智谱将于今晚发布其下一代开源大模型 GLM-4.5 系列。

根据目前已知的消息,GLM-4.5 系列至少有以下两个尺寸:

GLM-4.5:旗舰模型,总参数量 355B,激活参数 32B;
GLM-4.5-Air:次旗舰模型,总参数量 102B,激活参数 12B。

其中旗舰模型 GLM-4.5 预料将会超过此前刷榜的 Kimi-K2 和 Qwen3,成为新的开源 SOTA。
一个小站的自留地
阿里云发布 Qwen3-Embedding 系列模型 6 月 6 日,通义千问(Qwen)团队正式发布 Qwen3-Embedding 系列模型。该系列模型基于 Qwen3 基础模型训练,支持超过 100 种自然语言及多种编程语言。 该系列模型架构灵活,提供 0.6B、2B、8B 三种参数规模。 训练方面,Embedding 模型采用三阶段训练范式:首先利用超大规模弱监督数据进行对比学习预训练,随后基于高质量标注数据进行监督训练,最后通过模型融合提升整体性能。 Reranker 模型则直接基于高质…
阿里云发布 Qwen3-235B-A22B-FP8 和 Qwen3-Coder。

前者是 Qwen3-235B-A22B 的更新版,分为思考和非思考两个模型。据介绍,该模型在多语言的长尾知识覆盖方面取得进步,在主观任务中更能契合人类偏好,上下文长度提高到 256k Tokens。

后者是 Qwen 系列首个 MoE 代码模型,总参数 480B ,激活参数 35B,上下文 256k,可拓展至 1M。该模型主要改进了前代 Coder 模型缺失的 Agent 能力。

阿里还专门开源了命令行工具 Qwen Code,并且 Qwen Coder 模型也可通过 Anthropic 格式的 API 接入 Claude Code。
一个小站的自留地
OpenAI 宣布,其一款「内部实验性大语言模型」在模拟的 2025 年国际数学奥林匹克(IMO)中取得了金牌成绩。 该测试完全依赖模型的推理能力,解题过程中完全不使用外部工具。 据本频信源,本次用于评测的模型并非任何一款公开的模型,且未针对 IMO 任务微调,思考时间可达数小时,该模型并未计划在未来几个月内公开发布。
OpenAI 研究员 Alexander Wei 最近确认,GPT-5 即将上线。

有消息称,OpenAI 即将发布 gpt-5-alpha 。这一模型可能融合了推理与非推理模型,支持通过思考预算调节模型是否开启思考能力。

另据 BleepingComputer,OpenAI 正在测试 o3-alpha,这一模型在编程和前端设计方面优于 o3 和 o3-pro。
一个小站的自留地
OpenAI 发布 ChatGPT Agent,今天向 Pro、Plus 和 Team 用户推出。 ChatGPT Agent 的功能类似 Manus,可以执行浏览器操作、代码生成和运行、文档生成等,运行一个任务需要的时间在 5~30 分钟不等。
OpenAI 宣布,其一款「内部实验性大语言模型」在模拟的 2025 年国际数学奥林匹克(IMO)中取得了金牌成绩。

该测试完全依赖模型的推理能力,解题过程中完全不使用外部工具。

据本频信源,本次用于评测的模型并非任何一款公开的模型,且未针对 IMO 任务微调,思考时间可达数小时,该模型并未计划在未来几个月内公开发布。
一个小站的自留地
Cloudflare 1.1.1.1 公共 DNS 出现故障 2025 年 7 月 15 日凌晨 6 时 13 分(北京时间),Cloudflare 公共 DNS 解析服务(1.1.1.1)发生短暂服务中断,部分用户在该时间段无法获取有效的 DNS 响应。此次事件未影响托管在 CloudFlare 的域名的权威 DNS 服务。 (CloudFlare Status)
CloudFlare 发布 15 日公共 DNS 故障的事故报告。

CloudFlare 称,本次事故源于其任播(anycast)系统的配置错误,意外将 1.1.1.1 的服务前缀包含在了暂不启用的配置块中,导致 1.1.1.1 的任播路由被错误撤下。受此影响,DoH 服务(不依赖被撤下的 IP)在故障期间仍可用。

CloudFlare 同时注意到,在 1.1.1.1 路由宣告被撤下后,Tata Communications India(AS4755)宣告了 1.1.1.0/24 ,但这并不是造成 1.1.1.1 无法访问的原因。

CloudFlare 承诺,将加快对遗留系统的淘汰,以提供更高标准的文档和测试覆盖。

(CloudFlare Blog)
一个小站的自留地
OpenAI 正式发布 o3-pro 模型,Pro、Team、Plus 用户正分阶段灰度中,最早今天可用。 OpenAI 还调高了 o3 的限额,目前 Plus 用户可使用 200 次 / 周。
OpenAI 发布 ChatGPT Agent,今天向 Pro、Plus 和 Team 用户推出。

ChatGPT Agent 的功能类似 Manus,可以执行浏览器操作、代码生成和运行、文档生成等,运行一个任务需要的时间在 5~30 分钟不等。
WildCard 官网已经无法打开,网传已经关停跑路。

由于能支付宝充值,因此该卡片是国内推广最多的卡片之一。

目前相对正规的U 卡基本已经不支持在国内消费,比如Bybit 等卡片已经无法绑定主流支付方式。
一个小站的自留地
Kimi 上线数学推理模型 k0-math 国内 AI 大模型公司月之暗面推出 k0-math 模型驱动的 Kimi 数学版,官方宣称「k0-math 模型数学能力对标 o1 系列」。 (月之暗面) —————— 根据SuperCLUE-Math6o「小学奥数」基准测评总榜,数学模型 k0-math 在数学任务中表现出对应用题和计算较强的处理能力,但在行程问题和几何任务上略显薄弱。 与o1-preview相比,数学模型 k0-math 在 SC-math6o 上仍有 18 分的差距,尚有较大的…
Kimi 发布下一代基础大模型 k2

月之暗面于 2025 年 7 月 12 日发布并开源 Kimi K2 大模型,总参数量达 1 万亿,采用 MoE 架构,激活参数 32 亿。该模型支持 128K 最大上下文长度,在自主编程、工具调用和数学推理等基准测试中表现突出,取得开源模型 SOTA 成绩。模型技术亮点包括 MuonClip 优化器,在 15.5 万亿词元数据上实现稳定训练,以及大规模 Agentic 数据合成和通用强化学习;未来将加入思考和视觉理解能力。

本次开源包括 Kimi-K2-Base(基础预训练模型)和 Kimi-K2-Instruct(指令微调版本),遵循修改版 MIT 协议,可商用。

API 服务已上线,定价为输入 4 元/百万词元,输出 16 元/百万词元。

月之暗面
一个小站的自留地
Grok 4 系列模型据信将在一周内发布。 目前消息称 Grok 4 系列会有 grok-4-0629 和 grok-4-code-0629 两个型号。具有和前代模型相同的 128k 上下文窗口,支持推理,但只能输入文本模态内容。
马斯克旗下 xAI 发布 Grok 4 模型

北京时间 2025 年 7 月 10 日,Elon Musk 旗下的 xAI 公司正式发布了其下一代大语言模型 Grok 4 。该模型在多项关键基准测试中表现出色,综合性能超越了 OpenAI 的 o3 和 Google 的 Gemini 2.5 Pro 等主要竞争对手 。

Grok 4 在被誉为「人类最后的考试 (HLE)」的超高难度测试中得分远超以往模型,其增强版 Grok 4 Heavy 更是在 AIME 2025 (美国数学邀请赛) 中取得满分 。根据 AI 评估平台 Artificial Analysis 的数据,Grok 4 目前在综合性能上排名第一 。

Grok 4 是一个支持文本和图像输入的多模态模型,拥有 256K 的上下文窗口 。其强大的推理能力得益于在强化学习 (RL) 上的大量投入 。Grok 4 Heavy 版本更是一个多智能体系统,能协同解决复杂问题 。

目前,Grok 4 已向付费用户开放,提供每年 300 美元和 3000 美元(针对 Grok 4 Heavy)两种订阅等级 。其 API 接口也已上线,价格与前代持平 。xAI 还公布了未来计划,将在未来数月内陆续发布专用的编码模型、多模态智能体和视频生成模型 。

(综合媒体报道)
一个小站的自留地
前端开发框架 Remix 的开发团队宣布了两个重要发展方向: React Router v7 已将 Remix 的核心功能完全整合进来,包括服务端渲染、代码分割和实验性的 React Server Components (RSC) 支持。这为现有的数百万 React Router 项目提供了升级到现代全栈开发的平滑路径。 RSC 是这次更新的亮点,它允许开发者在服务器端渲染组件,然后将结果传送到客户端,实现了更高效的数据加载和更好的性能表现。 Remix v3 将放弃 React 转而基于 Preact…
Vercel 宣布收购 NuxtLabs

Vercel 宣布收购 NuxtLabs,标志着 Nuxt 这个基于 Vue.js 的全栈框架将加入 Vercel 生态。NuxtLabs 成立于 2017 年,其开源框架 Nuxt 每周下载量超过百万次,以文件路由、自动导入和服务器端渲染功能著称。

此次收购后,NuxtLabs 计划将 Nuxt UI v4 的所有 Pro 组件免费开放,并附带 Figma Kit。基于 Git 的内容管理系统 Nuxt Studio 也将开源,支持实时协作和类 Notion 编辑体验。同时,即将推出的 NuxtHub 将与 Vercel Marketplace 集成,支持 Postgres 和 Redis 等服务。Vue.js 创始人尤雨溪确认,此前与 VoidZoid 合作开发 DevTools 的合同仍然有效。

收购完成后,Vercel 旗下将拥有 Next.js、Svelte 和 Nuxt 三大主流前端框架。虽然 Vercel 承诺保持 Nuxt 的开源特性和独立治理模式,但部分开发者对前端框架生态集中化表示担忧。支持者认为此举为 Nuxt 提供了可持续发展的资源保障,质疑者则担心可能形成技术垄断和厂商绑定。

Vercel
一个小站的自留地
阿里云发布 Qwen2.5-Max 模型,称其性能超越 DeepSeek V3 和 GPT-4o 阿里云于 2025 年 1 月 29 日推出 Qwen2.5-Max 大语言模型,该模型基于混合专家架构(Mixture-of-Experts, MoE),参数规模超 200 亿,训练数据量达 20 万亿词元。据官方基准测试显示,Qwen2.5-Max 在 Arena-Hard(89.4)、LiveBench(62.2)等 5 项核心指标上均超越 DeepSeek V3 和 GPT-4o,其中数学推理能力(GSM8K…
华为盘古大模型涉嫌抄袭争议

HonestAGI 近日发布 报告 ,指出华为盘古 Pro MoE 72B 大语言模型与阿里千问 2.5 14B 模型存在异常高的相似性。该分析基于一种新的参数分布指纹识别技术,通过检测注意力机制参数的标准差分布模式来识别模型血缘关系。

分析结果显示,两个模型在查询、键值、数值和输出投影矩阵上的相关系数分别达到 0.867、0.928、0.939 和 0.973,综合相关系数为 0.927,远超正常独立开发模型间 0.3 至 0.7 的相似度范围。技术报告还发现,盘古模型保留了千问模型特有的 QKV bias 设计和注意力层归一化权重模式,而这些特征在千问后续版本中已被放弃。

同时,一位自称华为诺亚方舟实验室员工的匿名人士发布详细 举报材料 ,指控由王云鹤领导的「小模型实验室」多次采用「套壳」现有模型的做法。举报者称,盘古 Pro MoE 72B 虽然内部声称是从小模型实验室的 7B 模型扩增而来,但实际上是基于千问 2.5 14B 模型进行的改造。为了掩盖模型来源,开发团队付出了巨大的算力成本进行续训,甚至故意训练「脏数据」来模糊原始特征。举报者表示,用于「洗参数」的算力投入已经足够从头训练一个同等规模的模型

华为诺亚方舟实验室于 7 月 5 日发布 声明 回应争议。声明表示,盘古 Pro MoE 是基于昇腾硬件平台开发训练的基础大模型,并非基于其他厂商模型增量训练而来。华为承认模型的部分基础组件代码实现参考了业界开源实践,但强调严格遵循开源许可证要求。

2025 年 3 月,华为诺亚方舟实验室发生人事变动,90 后王云鹤接替姚骏担任实验室主任。王云鹤此前担任华为算法应用部部长,曾因高效 AI 算法创新获得华为「十大发明」奖项。

(综合媒体报道)
Back to Top