Github 现正经历服务降级。
自北京时间约 29 日 0 时起,Github 多个服务出现服务降级。Git 操作、Raw 文件下载、GitHub Enterprise Importer、API 请求,Issues 和 Pull 请求有概率出现失败问题。
Github 官方在状态页面称,这可能由于对 Github 的大量未授权爬取导致服务器过载。官方正在制定新的速率限制策略,并尽快上线新的服务器以缓解流量。
截至发稿,绝大多数未登录用户仍无法顺畅使用 GitHub 的服务。
自北京时间约 29 日 0 时起,Github 多个服务出现服务降级。Git 操作、Raw 文件下载、GitHub Enterprise Importer、API 请求,Issues 和 Pull 请求有概率出现失败问题。
Github 官方在状态页面称,这可能由于对 Github 的大量未授权爬取导致服务器过载。官方正在制定新的速率限制策略,并尽快上线新的服务器以缓解流量。
截至发稿,绝大多数未登录用户仍无法顺畅使用 GitHub 的服务。
智谱将于今晚发布 GLM-4.5 系列模型
据彭博社、赛博禅心,智谱将于今晚发布其下一代开源大模型 GLM-4.5 系列。
根据目前已知的消息,GLM-4.5 系列至少有以下两个尺寸:
GLM-4.5:旗舰模型,总参数量 355B,激活参数 32B;
GLM-4.5-Air:次旗舰模型,总参数量 102B,激活参数 12B。
其中旗舰模型 GLM-4.5 预料将会超过此前刷榜的 Kimi-K2 和 Qwen3,成为新的开源 SOTA。
据彭博社、赛博禅心,智谱将于今晚发布其下一代开源大模型 GLM-4.5 系列。
根据目前已知的消息,GLM-4.5 系列至少有以下两个尺寸:
GLM-4.5:旗舰模型,总参数量 355B,激活参数 32B;
GLM-4.5-Air:次旗舰模型,总参数量 102B,激活参数 12B。
其中旗舰模型 GLM-4.5 预料将会超过此前刷榜的 Kimi-K2 和 Qwen3,成为新的开源 SOTA。
但在翻译评测结果中与 GPT-4.1 不相上下。
该模型已在阿里云百炼平台上线 API 调用,但模型本身暂未开源。
阿里云发布 Qwen3-235B-A22B-FP8 和 Qwen3-Coder。
前者是 Qwen3-235B-A22B 的更新版,分为思考和非思考两个模型。据介绍,该模型在多语言的长尾知识覆盖方面取得进步,在主观任务中更能契合人类偏好,上下文长度提高到 256k Tokens。
后者是 Qwen 系列首个 MoE 代码模型,总参数 480B ,激活参数 35B,上下文 256k,可拓展至 1M。该模型主要改进了前代 Coder 模型缺失的 Agent 能力。
阿里还专门开源了命令行工具 Qwen Code,并且 Qwen Coder 模型也可通过 Anthropic 格式的 API 接入 Claude Code。
前者是 Qwen3-235B-A22B 的更新版,分为思考和非思考两个模型。据介绍,该模型在多语言的长尾知识覆盖方面取得进步,在主观任务中更能契合人类偏好,上下文长度提高到 256k Tokens。
后者是 Qwen 系列首个 MoE 代码模型,总参数 480B ,激活参数 35B,上下文 256k,可拓展至 1M。该模型主要改进了前代 Coder 模型缺失的 Agent 能力。
阿里还专门开源了命令行工具 Qwen Code,并且 Qwen Coder 模型也可通过 Anthropic 格式的 API 接入 Claude Code。
有消息称,OpenAI 即将发布 gpt-5-alpha 。这一模型可能融合了推理与非推理模型,支持通过思考预算调节模型是否开启思考能力。
另据 BleepingComputer,OpenAI 正在测试 o3-alpha,这一模型在编程和前端设计方面优于 o3 和 o3-pro。
OpenAI 宣布,其一款「内部实验性大语言模型」在模拟的 2025 年国际数学奥林匹克(IMO)中取得了金牌成绩。
该测试完全依赖模型的推理能力,解题过程中完全不使用外部工具。
据本频信源,本次用于评测的模型并非任何一款公开的模型,且未针对 IMO 任务微调,思考时间可达数小时,该模型并未计划在未来几个月内公开发布。
该测试完全依赖模型的推理能力,解题过程中完全不使用外部工具。
据本频信源,本次用于评测的模型并非任何一款公开的模型,且未针对 IMO 任务微调,思考时间可达数小时,该模型并未计划在未来几个月内公开发布。
CloudFlare 发布 15 日公共 DNS 故障的事故报告。
CloudFlare 称,本次事故源于其任播(anycast)系统的配置错误,意外将 1.1.1.1 的服务前缀包含在了暂不启用的配置块中,导致 1.1.1.1 的任播路由被错误撤下。受此影响,DoH 服务(不依赖被撤下的 IP)在故障期间仍可用。
CloudFlare 同时注意到,在 1.1.1.1 路由宣告被撤下后,Tata Communications India(AS4755)宣告了 1.1.1.0/24 ,但这并不是造成 1.1.1.1 无法访问的原因。
CloudFlare 承诺,将加快对遗留系统的淘汰,以提供更高标准的文档和测试覆盖。
(CloudFlare Blog)
CloudFlare 称,本次事故源于其任播(anycast)系统的配置错误,意外将 1.1.1.1 的服务前缀包含在了暂不启用的配置块中,导致 1.1.1.1 的任播路由被错误撤下。受此影响,DoH 服务(不依赖被撤下的 IP)在故障期间仍可用。
CloudFlare 同时注意到,在 1.1.1.1 路由宣告被撤下后,Tata Communications India(AS4755)宣告了 1.1.1.0/24 ,但这并不是造成 1.1.1.1 无法访问的原因。
CloudFlare 承诺,将加快对遗留系统的淘汰,以提供更高标准的文档和测试覆盖。
(CloudFlare Blog)
OpenAI 发布 ChatGPT Agent,今天向 Pro、Plus 和 Team 用户推出。
ChatGPT Agent 的功能类似 Manus,可以执行浏览器操作、代码生成和运行、文档生成等,运行一个任务需要的时间在 5~30 分钟不等。
ChatGPT Agent 的功能类似 Manus,可以执行浏览器操作、代码生成和运行、文档生成等,运行一个任务需要的时间在 5~30 分钟不等。
Cloudflare 1.1.1.1 公共 DNS 出现故障
2025 年 7 月 15 日凌晨 6 时 13 分(北京时间),Cloudflare 公共 DNS 解析服务(1.1.1.1)发生短暂服务中断,部分用户在该时间段无法获取有效的 DNS 响应。此次事件未影响托管在 CloudFlare 的域名的权威 DNS 服务。
(CloudFlare Status)
2025 年 7 月 15 日凌晨 6 时 13 分(北京时间),Cloudflare 公共 DNS 解析服务(1.1.1.1)发生短暂服务中断,部分用户在该时间段无法获取有效的 DNS 响应。此次事件未影响托管在 CloudFlare 的域名的权威 DNS 服务。
(CloudFlare Status)
由于能支付宝充值,因此该卡片是国内推广最多的卡片之一。
目前相对正规的U 卡基本已经不支持在国内消费,比如Bybit 等卡片已经无法绑定主流支付方式。
Kimi 发布下一代基础大模型 k2
月之暗面于 2025 年 7 月 12 日发布并开源 Kimi K2 大模型,总参数量达 1 万亿,采用 MoE 架构,激活参数 32 亿。该模型支持 128K 最大上下文长度,在自主编程、工具调用和数学推理等基准测试中表现突出,取得开源模型 SOTA 成绩。模型技术亮点包括 MuonClip 优化器,在 15.5 万亿词元数据上实现稳定训练,以及大规模 Agentic 数据合成和通用强化学习;未来将加入思考和视觉理解能力。
本次开源包括 Kimi-K2-Base(基础预训练模型)和 Kimi-K2-Instruct(指令微调版本),遵循修改版 MIT 协议,可商用。
API 服务已上线,定价为输入 4 元/百万词元,输出 16 元/百万词元。
(月之暗面)
月之暗面于 2025 年 7 月 12 日发布并开源 Kimi K2 大模型,总参数量达 1 万亿,采用 MoE 架构,激活参数 32 亿。该模型支持 128K 最大上下文长度,在自主编程、工具调用和数学推理等基准测试中表现突出,取得开源模型 SOTA 成绩。模型技术亮点包括 MuonClip 优化器,在 15.5 万亿词元数据上实现稳定训练,以及大规模 Agentic 数据合成和通用强化学习;未来将加入思考和视觉理解能力。
本次开源包括 Kimi-K2-Base(基础预训练模型)和 Kimi-K2-Instruct(指令微调版本),遵循修改版 MIT 协议,可商用。
API 服务已上线,定价为输入 4 元/百万词元,输出 16 元/百万词元。
(月之暗面)
Kagi 推出新闻阅读器 Kite
付费搜索引擎 Kagi 推出新闻阅读器 Kite,主打以人工智能驱动的世界新闻和多元角度,并可借助 Kagi Translate 将新闻内容本地化。
地址:
https://kite.kagi.com
付费搜索引擎 Kagi 推出新闻阅读器 Kite,主打以人工智能驱动的世界新闻和多元角度,并可借助 Kagi Translate 将新闻内容本地化。
地址:
https://kite.kagi.com
北京时间 2025 年 7 月 10 日,Elon Musk 旗下的 xAI 公司正式发布了其下一代大语言模型 Grok 4 。该模型在多项关键基准测试中表现出色,综合性能超越了 OpenAI 的 o3 和 Google 的 Gemini 2.5 Pro 等主要竞争对手 。
Grok 4 在被誉为「人类最后的考试 (HLE)」的超高难度测试中得分远超以往模型,其增强版 Grok 4 Heavy 更是在 AIME 2025 (美国数学邀请赛) 中取得满分 。根据 AI 评估平台 Artificial Analysis 的数据,Grok 4 目前在综合性能上排名第一 。
Grok 4 是一个支持文本和图像输入的多模态模型,拥有 256K 的上下文窗口 。其强大的推理能力得益于在强化学习 (RL) 上的大量投入 。Grok 4 Heavy 版本更是一个多智能体系统,能协同解决复杂问题 。
目前,Grok 4 已向付费用户开放,提供每年 300 美元和 3000 美元(针对 Grok 4 Heavy)两种订阅等级 。其 API 接口也已上线,价格与前代持平 。xAI 还公布了未来计划,将在未来数月内陆续发布专用的编码模型、多模态智能体和视频生成模型 。
(综合媒体报道)
Vercel 宣布收购 NuxtLabs,标志着 Nuxt 这个基于 Vue.js 的全栈框架将加入 Vercel 生态。NuxtLabs 成立于 2017 年,其开源框架 Nuxt 每周下载量超过百万次,以文件路由、自动导入和服务器端渲染功能著称。
此次收购后,NuxtLabs 计划将 Nuxt UI v4 的所有 Pro 组件免费开放,并附带 Figma Kit。基于 Git 的内容管理系统 Nuxt Studio 也将开源,支持实时协作和类 Notion 编辑体验。同时,即将推出的 NuxtHub 将与 Vercel Marketplace 集成,支持 Postgres 和 Redis 等服务。Vue.js 创始人尤雨溪确认,此前与 VoidZoid 合作开发 DevTools 的合同仍然有效。
收购完成后,Vercel 旗下将拥有 Next.js、Svelte 和 Nuxt 三大主流前端框架。虽然 Vercel 承诺保持 Nuxt 的开源特性和独立治理模式,但部分开发者对前端框架生态集中化表示担忧。支持者认为此举为 Nuxt 提供了可持续发展的资源保障,质疑者则担心可能形成技术垄断和厂商绑定。
(Vercel)
华为盘古大模型涉嫌抄袭争议
HonestAGI 近日发布 报告 ,指出华为盘古 Pro MoE 72B 大语言模型与阿里千问 2.5 14B 模型存在异常高的相似性。该分析基于一种新的参数分布指纹识别技术,通过检测注意力机制参数的标准差分布模式来识别模型血缘关系。
分析结果显示,两个模型在查询、键值、数值和输出投影矩阵上的相关系数分别达到 0.867、0.928、0.939 和 0.973,综合相关系数为 0.927,远超正常独立开发模型间 0.3 至 0.7 的相似度范围。技术报告还发现,盘古模型保留了千问模型特有的 QKV bias 设计和注意力层归一化权重模式,而这些特征在千问后续版本中已被放弃。
同时,一位自称华为诺亚方舟实验室员工的匿名人士发布详细 举报材料 ,指控由王云鹤领导的「小模型实验室」多次采用「套壳」现有模型的做法。举报者称,盘古 Pro MoE 72B 虽然内部声称是从小模型实验室的 7B 模型扩增而来,但实际上是基于千问 2.5 14B 模型进行的改造。为了掩盖模型来源,开发团队付出了巨大的算力成本进行续训,甚至故意训练「脏数据」来模糊原始特征。举报者表示,用于「洗参数」的算力投入已经足够从头训练一个同等规模的模型。
华为诺亚方舟实验室于 7 月 5 日发布 声明 回应争议。声明表示,盘古 Pro MoE 是基于昇腾硬件平台开发训练的基础大模型,并非基于其他厂商模型增量训练而来。华为承认模型的部分基础组件代码实现参考了业界开源实践,但强调严格遵循开源许可证要求。
2025 年 3 月,华为诺亚方舟实验室发生人事变动,90 后王云鹤接替姚骏担任实验室主任。王云鹤此前担任华为算法应用部部长,曾因高效 AI 算法创新获得华为「十大发明」奖项。
(综合媒体报道)
HonestAGI 近日发布 报告 ,指出华为盘古 Pro MoE 72B 大语言模型与阿里千问 2.5 14B 模型存在异常高的相似性。该分析基于一种新的参数分布指纹识别技术,通过检测注意力机制参数的标准差分布模式来识别模型血缘关系。
分析结果显示,两个模型在查询、键值、数值和输出投影矩阵上的相关系数分别达到 0.867、0.928、0.939 和 0.973,综合相关系数为 0.927,远超正常独立开发模型间 0.3 至 0.7 的相似度范围。技术报告还发现,盘古模型保留了千问模型特有的 QKV bias 设计和注意力层归一化权重模式,而这些特征在千问后续版本中已被放弃。
同时,一位自称华为诺亚方舟实验室员工的匿名人士发布详细 举报材料 ,指控由王云鹤领导的「小模型实验室」多次采用「套壳」现有模型的做法。举报者称,盘古 Pro MoE 72B 虽然内部声称是从小模型实验室的 7B 模型扩增而来,但实际上是基于千问 2.5 14B 模型进行的改造。为了掩盖模型来源,开发团队付出了巨大的算力成本进行续训,甚至故意训练「脏数据」来模糊原始特征。举报者表示,用于「洗参数」的算力投入已经足够从头训练一个同等规模的模型。
华为诺亚方舟实验室于 7 月 5 日发布 声明 回应争议。声明表示,盘古 Pro MoE 是基于昇腾硬件平台开发训练的基础大模型,并非基于其他厂商模型增量训练而来。华为承认模型的部分基础组件代码实现参考了业界开源实践,但强调严格遵循开源许可证要求。
2025 年 3 月,华为诺亚方舟实验室发生人事变动,90 后王云鹤接替姚骏担任实验室主任。王云鹤此前担任华为算法应用部部长,曾因高效 AI 算法创新获得华为「十大发明」奖项。
(综合媒体报道)
AI 代码编辑器 Cursor 宣布就此起对个人 Pro 用户的计费模式调整造成的模糊致歉,并承诺:
- 退还过去三周内用户因使用而产生的任何意外费用
- 新的 Pro 定价允许用户使用无限次 Tab 补全和 Auto 模型,并提供 20 美金的 API 额度供高级模型和高级功能调用(无需额外计费)。
(Cursor Blog)
- 退还过去三周内用户因使用而产生的任何意外费用
- 新的 Pro 定价允许用户使用无限次 Tab 补全和 Auto 模型,并提供 20 美金的 API 额度供高级模型和高级功能调用(无需额外计费)。
(Cursor Blog)
歌词翻译是 iOS 26 的新功能,在新版本中,歌词翻译是可选功能,且开启后用户应能看到源语言和本地语言的双语歌词。
据大量用户实测,Android 等非第一方平台的 Apple Music 客户端不受影响。
Grok 4 系列模型据信将在一周内发布。
目前消息称 Grok 4 系列会有 grok-4-0629 和 grok-4-code-0629 两个型号。具有和前代模型相同的 128k 上下文窗口,支持推理,但只能输入文本模态内容。
目前消息称 Grok 4 系列会有 grok-4-0629 和 grok-4-code-0629 两个型号。具有和前代模型相同的 128k 上下文窗口,支持推理,但只能输入文本模态内容。
百度开源 ERNIE 4.5 大模型家族
百度正式宣布开源其最新的旗舰级大模型系列 ERNIE 4.5,这是一个包含 10 个不同变体的大规模多模态模型家族。该系列包含 2 个多模态大模型和 4 个大语言模型,共计 23 个模型版本,其中最大模型拥有 4240 亿参数,47B 活跃参数。
ERNIE 4.5 采用了创新的异构多模态混合专家(MoE)架构,支持跨模态参数共享的同时,也为每个模态保留专用参数。这种设计在提升多模态理解能力的同时,实现了文本处理性能的同步增强。模型支持图像、视频和文本等多种输入模态,并生成文本输出。
在技术创新方面,ERNIE 4.5 在三个关键领域实现了突破:多模态异构 MoE 预训练、高效扩展的基础设施,以及针对特定模态的后训练。该模型在预训练阶段达到了 47% 的模型 FLOPs 利用率(MFU),在 2016 块 NVIDIA H800 GPU 上实现了高效训练。
性能评测显示,ERNIE 4.5 在指令遵循、世界知识记忆、视觉理解和多模态推理等方面表现出色。在传统基准测试如 MMLU、MMLU Pro 等任务上,该模型与当前最强的 DeepSeek-V3、Qwen 等模型不相上下。然而在更具挑战性的新评测任务如 AIME、LiveCodeBench 等方面,表现相对一般。
本次开源遵循 Apache 2.0 协议,意味着开发者可以自由进行商业化使用和二次开发。百度还同时开源了完整的开发工具链,包括 ERNIEKit 训练工具包和 FastDeploy 推理部署工具包,涵盖从训练、微调到部署的全栈能力。模型提供了 PyTorch 和 PaddlePaddle 两个版本,以满足不同开发者的需求。
(技术报告)
百度正式宣布开源其最新的旗舰级大模型系列 ERNIE 4.5,这是一个包含 10 个不同变体的大规模多模态模型家族。该系列包含 2 个多模态大模型和 4 个大语言模型,共计 23 个模型版本,其中最大模型拥有 4240 亿参数,47B 活跃参数。
ERNIE 4.5 采用了创新的异构多模态混合专家(MoE)架构,支持跨模态参数共享的同时,也为每个模态保留专用参数。这种设计在提升多模态理解能力的同时,实现了文本处理性能的同步增强。模型支持图像、视频和文本等多种输入模态,并生成文本输出。
在技术创新方面,ERNIE 4.5 在三个关键领域实现了突破:多模态异构 MoE 预训练、高效扩展的基础设施,以及针对特定模态的后训练。该模型在预训练阶段达到了 47% 的模型 FLOPs 利用率(MFU),在 2016 块 NVIDIA H800 GPU 上实现了高效训练。
性能评测显示,ERNIE 4.5 在指令遵循、世界知识记忆、视觉理解和多模态推理等方面表现出色。在传统基准测试如 MMLU、MMLU Pro 等任务上,该模型与当前最强的 DeepSeek-V3、Qwen 等模型不相上下。然而在更具挑战性的新评测任务如 AIME、LiveCodeBench 等方面,表现相对一般。
本次开源遵循 Apache 2.0 协议,意味着开发者可以自由进行商业化使用和二次开发。百度还同时开源了完整的开发工具链,包括 ERNIEKit 训练工具包和 FastDeploy 推理部署工具包,涵盖从训练、微调到部署的全栈能力。模型提供了 PyTorch 和 PaddlePaddle 两个版本,以满足不同开发者的需求。
(技术报告)
