<?xml version="1.0" encoding="UTF-8"?><rss version="2.0" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>一个小站的自留地</title><description>起于小站，终于生活。现实之外，一个普通人的思考。博客地址：ygxz.in讨论组：https://t.me/ygxz_group</description><link>https://broadcastchannel-2ry.pages.dev</link><item><title>#推广💎 特别优惠：Cubence 是一家稳定高效的 AI 服务中转平台，为 Claude Code、Codex、Gemini 等 AI 工具提供中转服务，有着不错的稳定性和性价比</title><link>https://broadcastchannel-2ry.pages.dev/posts/819</link><guid isPermaLink="true">https://broadcastchannel-2ry.pages.dev/posts/819</guid><pubDate>Wed, 11 Mar 2026 05:00:47 GMT</pubDate><content:encoded>&lt;a href=&quot;/search/%23%E6%8E%A8%E5%B9%BF&quot;&gt;#推广&lt;/a&gt;&lt;br /&gt;&lt;br /&gt;&lt;i&gt;&lt;b&gt;💎&lt;/b&gt;&lt;/i&gt; 特别优惠：&lt;br /&gt;&lt;a href=&quot;https://cubence.com/?source=cch&quot; target=&quot;_blank&quot;&gt;Cubence&lt;/a&gt; 是一家稳定高效的 AI 服务中转平台，为 Claude Code、Codex、Gemini 等 AI 工具提供中转服务，有着不错的稳定性和性价比。&lt;br /&gt;Cubence 为 CCH 的使用用户提供了特别的优惠折扣：在购买时使用优惠券 &lt;code&gt;DING113CCH&lt;/code&gt;，可享受 10% 优惠折扣。 &lt;br /&gt;→ &lt;a href=&quot;https://cubence.com/?source=cch&quot; target=&quot;_blank&quot;&gt;立即访问&lt;/a&gt;&lt;br /&gt;&lt;br /&gt;&lt;i&gt;&lt;b&gt;💎&lt;/b&gt;&lt;/i&gt; 特别优惠：&lt;br /&gt;&lt;a href=&quot;https://www.packyapi.com/register?aff=withcch&quot; target=&quot;_blank&quot;&gt;PackyCode&lt;/a&gt; 是一家稳定、高效的 API 中转服务商，提供 Claude Code、Codex、Gemini 等多种中转服务。&lt;br /&gt;PackyCode 为本软件的用户提供了特别优惠，使用此链接注册并在充值时填写优惠码 &lt;code&gt;WITHCCH&lt;/code&gt;，可享受 9 折优惠 &lt;br /&gt;→ &lt;a href=&quot;https://www.packyapi.com/register?aff=withcch&quot; target=&quot;_blank&quot;&gt;立即访问&lt;/a&gt;&lt;br /&gt;&lt;br /&gt;&lt;i&gt;&lt;b&gt;💎&lt;/b&gt;&lt;/i&gt; 特别优惠：&lt;br /&gt;&lt;a href=&quot;https://co.yes.vg/register?ref=ygxz&quot; target=&quot;_blank&quot;&gt;YesCode&lt;/a&gt; 是一家低调务实的 AI API 中转服务商，专注于为开发者提供稳定可靠的 Claude、Codex、Gemini 等模型接入服务，以扎实的技术底蕴和持续稳定的服务质量赢得用户信赖。&lt;br /&gt;通过此链接注册即可体验 &lt;br /&gt;→ &lt;a href=&quot;https://co.yes.vg/register?ref=ygxz&quot; target=&quot;_blank&quot;&gt;立即访问&lt;/a&gt;&lt;br /&gt;&lt;br /&gt;&lt;i&gt;&lt;b&gt;💎&lt;/b&gt;&lt;/i&gt; 特别优惠：&lt;br /&gt;&lt;a href=&quot;https://www.sssaicode.com/register?ref=NQMO05&quot; target=&quot;_blank&quot;&gt;SSSAiCode&lt;/a&gt; 是一家稳定可靠的 API 中转站，致力于提供稳定、可靠、平价的 Claude、CodeX 模型服务。&lt;br /&gt;SSSAiCode 为本软件的用户提供特别优惠，使用此链接注册可长期享受每次 10$ 的购买奖励 &lt;br /&gt;→ &lt;a href=&quot;https://www.sssaicode.com/register?ref=NQMO05&quot; target=&quot;_blank&quot;&gt;立即访问&lt;/a&gt;&lt;br /&gt;&lt;br /&gt;&lt;i&gt;&lt;b&gt;💎&lt;/b&gt;&lt;/i&gt; 特别优惠：&lt;br /&gt;&lt;a href=&quot;https://aigocode.com/invite/QDNEJJAH&quot; target=&quot;_blank&quot;&gt;AIGoCode&lt;/a&gt; 是一个集成了 Claude Code、Codex 以及 Gemini 最新模型的一站式平台，为你提供稳定、高效且高性价比的 AI 编程服务。提供灵活的订阅计划，可包月可套餐，零封号风险，国内直连，无需魔法，超大积分池，极速响应。&lt;br /&gt;AIGoCode 为 CCH 的用户提供了特别福利，通过此链接注册的用户首次充值可以获得额外 10% 奖励额度 → &lt;a href=&quot;https://aigocode.com/invite/QDNEJJAH&quot; target=&quot;_blank&quot;&gt;立即访问&lt;/a&gt;</content:encoded></item><item><title>Google 推出首个全多模态嵌入模型 Gemini Embedding 2Google DeepMind 宣布通过 Gemini API 和 Vertex AI 推出处于公开预览阶段的 Gemini Embedding 2 模型</title><link>https://broadcastchannel-2ry.pages.dev/posts/818</link><guid isPermaLink="true">https://broadcastchannel-2ry.pages.dev/posts/818</guid><pubDate>Wed, 11 Mar 2026 00:38:25 GMT</pubDate><content:encoded>&lt;a href=&quot;/posts/814&quot;&gt;&lt;blockquote&gt;&lt;small&gt;&lt;i&gt;&lt;/i&gt;
&lt;div&gt;
  &lt;span&gt;一个小站的自留地&lt;/span&gt;
&lt;/div&gt;
&lt;div&gt;Google 发布 Gemini 3.1 Flash-Lite 模型  3 月 3 日，Google 正式宣布推出 Gemini 3.1 Flash-Lite 模型。该模型基于 Gemini 3 Pro 的架构打造，是目前 Google 旗下最具成本效益的 Gemini 模型，专门针对需要高并发、对延迟敏感的任务（如翻译和数据分类）进行了深度优化。  Gemini 3.1 Flash-Lite 支持文本、代码、图像、音频、视频及 PDF 等原生多模态输入，提供最高 100 万词元 (Token) 的上下文窗口，以及最高…&lt;/div&gt;
&lt;/small&gt;&lt;/blockquote&gt;&lt;/a&gt;&lt;div&gt;
      
        &lt;img src=&quot;/static/https://cdn5.telesco.pe/file/DcUxXk9CwZvaTFwTbjqu9g4zuXiOg9EbXtz5hU9yHAYxgkVmiCSwRndtbHDen2DYnNWxFWuBB08QaQNCjJ18gRuoQEdLYMc93WGuqn1yrww66ptPISnfFkLw7CRa-KwLn4Kb2cfpNJlGheLTmZBLhPNkAgke5QVCT9cGj-n8sDAmqmVFTdPvcXyJC_rHO0i2ALyTNTUB-Huw7DoZG6ADp8I-CMx5C2SjqzZLDNPL6gPj-K0xOnQMzcR8M1TWHm9PFchFzCgPBIKQlCSsMiTO9KXjNj67Ir7kST90Y8aAgmCTvsvcDMet-pWdzvYASCobjvU9m92-QYIFDLNQuit1uw.jpg&quot; alt=&quot;Google 推出首个全多模态嵌入模型 Gemini Embedding 2Google DeepMind 宣布通过 Gemini API 和 Vertex AI 推出处于公开预览阶段的 Gemini Embedding 2 模型&quot; loading=&quot;eager&quot; /&gt;
      
      
        
      
    &lt;/div&gt;&lt;b&gt;Google 推出首个全多模态嵌入模型 Gemini Embedding 2&lt;/b&gt;&lt;br /&gt;&lt;br /&gt;Google DeepMind 宣布通过 Gemini API 和 Vertex AI 推出处于公开预览阶段的 Gemini Embedding 2 模型。这是 Google 首个基于 Gemini 架构构建的全多模态嵌入模型。&lt;br /&gt;&lt;br /&gt;该模型将文本、图像、视频、音频和文档映射到一个统一的嵌入空间中，并能捕捉超过 100 种语言的语义意图。在具体输入规格上，文本支持高达 8192 个输入词元 (Token) 的上下文；图像单次请求最多支持处理 6 张图片，支持 PNG 和 JPEG 格式；视频支持长达 120 秒的 MP4 和 MOV 格式输入；音频可原生提取并嵌入，无需转换为中间文本；此外还支持直接嵌入最多 6 页的 PDF 文档。&lt;br /&gt;&lt;br /&gt;与此前的嵌入模型类似，Gemini Embedding 2 引入了套娃表示学习 (Matryoshka Representation Learning, MRL) 技术，可通过动态缩小维度来嵌套信息，支持从默认的 3072 维灵活缩放输出维度，官方推荐使用 3072、1536 或 768 维度以获得最高质量。&lt;br /&gt;&lt;br /&gt;（&lt;a href=&quot;https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-embedding-2/&quot; target=&quot;_blank&quot;&gt;Google Blog&lt;/a&gt;）</content:encoded></item><item><title>Meta 收购 OpenClaw 龙虾社交网络 Moltbook</title><link>https://broadcastchannel-2ry.pages.dev/posts/817</link><guid isPermaLink="true">https://broadcastchannel-2ry.pages.dev/posts/817</guid><pubDate>Tue, 10 Mar 2026 17:29:03 GMT</pubDate><content:encoded>&lt;a href=&quot;/posts/806&quot;&gt;&lt;blockquote&gt;&lt;small&gt;
&lt;div&gt;
  &lt;span&gt;一个小站的自留地&lt;/span&gt;
&lt;/div&gt;
&lt;div&gt;OpenClaw 创始人加入 OpenAI。  OpenClaw 将转型为基金会，保持开源运营。  https://steipete.me/posts/2026/openclaw&lt;/div&gt;
&lt;/small&gt;&lt;/blockquote&gt;&lt;/a&gt;Meta 收购 OpenClaw 龙虾社交网络 Moltbook。&lt;br /&gt;&lt;br /&gt;(&lt;a href=&quot;https://www.axios.com/2026/03/10/meta-facebook-moltbook-agent-social-network&quot; target=&quot;_blank&quot;&gt;axios&lt;/a&gt;)</content:encoded></item><item><title>OpenAI 发布 GPT-5.4 模型3 月 6 日，OpenAI 正式发布 GPT-5.4，并同步推出 GPT-5.4 Pro</title><link>https://broadcastchannel-2ry.pages.dev/posts/816</link><guid isPermaLink="true">https://broadcastchannel-2ry.pages.dev/posts/816</guid><pubDate>Fri, 06 Mar 2026 04:43:01 GMT</pubDate><content:encoded>&lt;a href=&quot;/posts/815&quot;&gt;&lt;blockquote&gt;&lt;small&gt;&lt;i&gt;&lt;/i&gt;
&lt;div&gt;
  &lt;span&gt;一个小站的自留地&lt;/span&gt;
&lt;/div&gt;
&lt;div&gt;OpenAI 发布 GPT-5.3 Instant 模型  3 月 4 日，OpenAI 宣布推出 GPT-5.3 Instant 模型。作为 ChatGPT 日常使用频率最高的模型更新，GPT-5.3 Instant 重点改善了语气、相关性和对话流畅度，旨在提供更准确的回答及更优质的网络搜索整合结果。  该模型在多个方面进行了体验优化。首先，模型大幅减少了不必要的拒答和过度防御性的说教前言，能够更直接地提供有用信息。其次，在调用网络搜索时，GPT-5.3 Instant 能够更好地平衡网络信息与自身知识…&lt;/div&gt;
&lt;/small&gt;&lt;/blockquote&gt;&lt;/a&gt;&lt;div&gt;
      
        &lt;img src=&quot;/static/https://cdn5.telesco.pe/file/IL2SfKpVZPfl-2PpX9dVGdyGtzEu30hClVOEC6W89ePq6ixDGs8FDr4ymbhh7NINWvyvdzSDqBtLHKBJM1ZUi-3qD9jTJ7FQ04Mv2mgwTJn1vD2ZcMmgINETAl__s6zZ5hJRp8ORjhlye5zCzscBp_5uv70PsBIYlSiy8K5fU24LceuLgWlXS0JS9dpe1t13e0aHB7ocvTYMOWpFwASdowAGANo5-OI10VrPVoy1N7rB_HqBMMR4SHEbr40UfvFKlOSAMSLnOwz3aJ_s6utr-XAyfMBnmFDPSp0hIi0vD3G20L3ghr4AWp-5gHjelMTiJK_VQNwnOTH1-OmP7kK-wA.jpg&quot; alt=&quot;OpenAI 发布 GPT-5.4 模型3 月 6 日，OpenAI 正式发布 GPT-5.4，并同步推出 GPT-5.4 Pro&quot; loading=&quot;lazy&quot; /&gt;
      
      
        
      
    &lt;/div&gt;&lt;b&gt;OpenAI 发布 GPT-5.4 模型&lt;/b&gt;&lt;br /&gt;&lt;br /&gt;3 月 6 日，OpenAI 正式发布 GPT-5.4，并同步推出 GPT-5.4 Pro。新模型已在 ChatGPT、API 和 Codex 上线，其中 ChatGPT 端名称为 GPT-5.4 Thinking，将逐步替代 GPT-5.2 Thinking；GPT-5.2 Thinking 将在 Legacy Models 保留至 2026 年 6 月 5 日后退役。&lt;br /&gt;&lt;br /&gt;能力上，GPT-5.4 将 GPT-5.3-Codex 的编程能力与通用推理、工具调用、原生 Computer Use 合并为单一模型，并支持更大规模的工具生态。官方称其在知识工作、浏览器与桌面操作、工具检索与多步骤任务上均有提升。核心指标包括：GDPval 83.0%（GPT-5.2 为 70.9%）、SWE-Bench Pro 57.7%（GPT-5.2 为 55.6%）、OSWorld-Verified 75.0%（GPT-5.2 为 47.3%，人类基准 72.4%）、BrowseComp 82.7%（GPT-5.4 Pro 为 89.3%）。&lt;br /&gt;&lt;br /&gt;在办公场景中，GPT-5.4 的电子表格建模内部评测为 87.3%（GPT-5.2 为 68.4%），演示文稿盲测中有 68.0% 的对比样本被人工评审偏好。OpenAI 同日还发布了 ChatGPT for Excel add-in，并更新了 Codex/API 的 spreadsheet 与 presentation 技能。官方同时表示，GPT-5.4 在一组真实错误反馈提示词中，单条事实性错误概率较 GPT-5.2 下降 33%，整条回复含错概率下降 18%。&lt;br /&gt;&lt;br /&gt;价格方面，API 中 gpt-5.4 定价为每百万词元 (Token) 输入 2.50 美元、输出 15 美元；gpt-5.4-pro 为输入 30 美元、输出 180 美元。&lt;br /&gt;&lt;br /&gt;（&lt;a href=&quot;https://openai.com/index/introducing-gpt-5-4/&quot; target=&quot;_blank&quot;&gt;OpenAI&lt;/a&gt;）</content:encoded></item><item><title>OpenAI 发布 GPT-5.3 Instant 模型3 月 4 日，OpenAI 宣布推出 GPT-5.3 Instant 模型</title><link>https://broadcastchannel-2ry.pages.dev/posts/815</link><guid isPermaLink="true">https://broadcastchannel-2ry.pages.dev/posts/815</guid><pubDate>Tue, 03 Mar 2026 18:18:57 GMT</pubDate><content:encoded>&lt;a href=&quot;/posts/797&quot;&gt;&lt;blockquote&gt;&lt;small&gt;&lt;i&gt;&lt;/i&gt;
&lt;div&gt;
  &lt;span&gt;一个小站的自留地&lt;/span&gt;
&lt;/div&gt;
&lt;div&gt;OpenAI 发布 GPT-5.3-Codex  OpenAI 于 2026 年 2 月 5 日发布了 GPT-5.3-Codex，官方称其为「迄今为止最强大的代理编程模型」。新模型结合了 GPT-5.2-Codex 的编程能力与 GPT-5.2 的推理及专业知识，推理速度较前代提升了 25%。值得注意的是，GPT-5.3-Codex 是首个在自身创造过程中发挥关键作用的模型 ——OpenAI 团队利用其早期版本调试了训练过程、管理了部署流程，并协助分析了测试结果。  在基准测试方面，该模型在 SWE-Bench…&lt;/div&gt;
&lt;/small&gt;&lt;/blockquote&gt;&lt;/a&gt;&lt;div&gt;
      
        &lt;img src=&quot;/static/https://cdn5.telesco.pe/file/EfRnAZSXB11_fi_MjPAStJG93f5ZF3ruhrC-Ug0SBWNjoFNu8H5FfQvWFeHklwU0u2ZEcSkkk6-hMkU3BIwuf96144WJWLuLgAVGGkhmpl6E_0m3e44NzhAnxDtwJagrpfUfqzg2Lgbq83VlnQORr0sSP5dp-1UjhbYperqDqX9NcDHgPTyNgf1Xe_ICF03IImfiU48DJU28txIVTEygb7U95ROtieQn0HlE2aztgf5v777_rF5HdUqXuLgnfAwX0-DplUDUPEQaiuLKGlkynGWH5hUMX7plREfnL8R3ioh8y0eXS3ESapR8FOBboUdHsx_1hxJVd-8Bd_5VDk7sWg.jpg&quot; alt=&quot;OpenAI 发布 GPT-5.3 Instant 模型3 月 4 日，OpenAI 宣布推出 GPT-5.3 Instant 模型&quot; loading=&quot;lazy&quot; /&gt;
      
      
        
      
    &lt;/div&gt;&lt;b&gt;OpenAI 发布 GPT-5.3 Instant 模型&lt;/b&gt;&lt;br /&gt;&lt;br /&gt;3 月 4 日，OpenAI 宣布推出 GPT-5.3 Instant 模型。作为 ChatGPT 日常使用频率最高的模型更新，GPT-5.3 Instant 重点改善了语气、相关性和对话流畅度，旨在提供更准确的回答及更优质的网络搜索整合结果。&lt;br /&gt;&lt;br /&gt;该模型在多个方面进行了体验优化。首先，模型大幅减少了不必要的拒答和过度防御性的说教前言，能够更直接地提供有用信息。其次，在调用网络搜索时，GPT-5.3 Instant 能够更好地平衡网络信息与自身知识，减少对搜索结果的过度依赖，避免输出冗长的链接列表。此外，模型进一步修正了过去偶尔出现的生硬或过度预设用户意图的语气，提供了更自然、流畅的交流体验，并在写作任务中展现出更强的连贯性和表现力。在事实准确性方面，根据 OpenAI 的内部评估，在医疗、法律和金融等高风险领域，该模型在使用网络搜索时的幻觉率下降了 26.8%，仅依赖内部知识时下降了 19.7%。&lt;br /&gt;&lt;br /&gt;目前，GPT-5.3 Instant 已向所有 ChatGPT 用户开放，开发者也可通过 API 使用 gpt-5.3-chat-latest 访问该模型。针对 Thinking 和 Pro 版本的更新将于近期推出。此外，付费用户在未来三个月内仍可在旧版模型选项中访问 GPT-5.2 Instant，该模型将于 2026 年 6 月 3 日正式退役。&lt;br /&gt;&lt;br /&gt;（&lt;a href=&quot;https://openai.com/index/gpt-5-3-instant/&quot; target=&quot;_blank&quot;&gt;OpenAI&lt;/a&gt;）</content:encoded></item><item><title>Google 发布 Gemini 3.1 Flash-Lite 模型3 月 3 日，Google 正式宣布推出 Gemini 3.1 Flash-Lite 模型</title><link>https://broadcastchannel-2ry.pages.dev/posts/814</link><guid isPermaLink="true">https://broadcastchannel-2ry.pages.dev/posts/814</guid><pubDate>Tue, 03 Mar 2026 17:21:58 GMT</pubDate><content:encoded>&lt;a href=&quot;/posts/813&quot;&gt;&lt;blockquote&gt;&lt;small&gt;&lt;i&gt;&lt;/i&gt;
&lt;div&gt;
  &lt;span&gt;一个小站的自留地&lt;/span&gt;
&lt;/div&gt;
&lt;div&gt;Google 发布 Nano Banana 2 生图模型  2 月 27 日，Google DeepMind 宣布推出最新图像生成模型 Nano Banana 2 (gemini-3.1-flash-image-preview) 。  该模型将前代 Nano Banana Pro 的高质量与复杂逻辑推理能力，与 Gemini Flash 模型的生成速度相结合，旨在为用户提供更高效的图像创建与编辑体验。  Nano Banana 2 具备先进的世界知识，能够结合网络搜索的实时信息生成准确的图像、信息图表及数…&lt;/div&gt;
&lt;/small&gt;&lt;/blockquote&gt;&lt;/a&gt;&lt;div&gt;
      
        &lt;img src=&quot;/static/https://cdn5.telesco.pe/file/s9C9Gj2RKjmL_cxyt6LZRVy7Hv9cRGU4QSAyZqHtqSTmc6o5L_pcrun09qMAwrb9_TU-hRSkzJmSdkXaLFhWkQsBCAExHqBxsULqPBrUQgmKO8BoFeDeac242-mUDvq4_bH-9Pgihn8FONC446wwdetcnCxQFWBnEeeRyEA4zv77UGLT8VO9EKtFw1-3hfkYRgJku5yQZLSEloPH5Gx1VMAZf-sISWvTTK2C6J8bMeZiwwEo02pp4lBmGVrThoruUa_WOIY2YB6Q1wh3g0Xs5wBv4YzKK_e532jMUqW7peuXJ8epi01pQlLZykE4PPuEdMlXgdQ6wojsGqkCYWieKQ.jpg&quot; alt=&quot;Google 发布 Gemini 3.1 Flash-Lite 模型3 月 3 日，Google 正式宣布推出 Gemini 3.1 Flash-Lite 模型&quot; loading=&quot;lazy&quot; /&gt;
      
      
        
      
    &lt;/div&gt;&lt;b&gt;Google 发布 Gemini 3.1 Flash-Lite 模型&lt;/b&gt;&lt;br /&gt;&lt;br /&gt;3 月 3 日，Google 正式宣布推出 Gemini 3.1 Flash-Lite 模型。该模型基于 Gemini 3 Pro 的架构打造，是目前 Google 旗下最具成本效益的 Gemini 模型，专门针对需要高并发、对延迟敏感的任务（如翻译和数据分类）进行了深度优化。&lt;br /&gt;&lt;br /&gt;Gemini 3.1 Flash-Lite 支持文本、代码、图像、音频、视频及 PDF 等原生多模态输入，提供最高 100 万词元 (Token) 的上下文窗口，以及最高 64K 词元的文本输出。与前代的 Gemini 2.0 和 2.5 Flash-Lite 相比，新模型在响应质量、复杂指令遵循以及音频输入质量（如自动语音识别）等关键能力上实现了显著提升，整体性能表现已追平 Gemini 2.5 Flash。&lt;br /&gt;&lt;br /&gt;此外，该模型还创新性地引入了灵活的思考支持功能。开发者可以根据具体用例，在极低、低、中、高四个推理级别中进行自由切换，从而在生成响应的质量与速度之间找到最佳平衡点。&lt;br /&gt;&lt;br /&gt;目前，Gemini 3.1 Flash-Lite 的公开预览版已经上线，开发者可通过 Google Cloud 的 Vertex AI、Google AI Studio 以及 Gemini API 访问并体验该模型。&lt;br /&gt;&lt;br /&gt;（&lt;a href=&quot;https://deepmind.google/models/model-cards/gemini-3-1-flash-lite/&quot; target=&quot;_blank&quot;&gt;Google DeepMind&lt;/a&gt;）</content:encoded></item><item><title>Google 发布 Nano Banana 2 生图模型2 月 27 日，Google DeepMind 宣布推出最新图像生成模型 Nano Banana 2 (gemini-3.1-flash-image-preview) </title><link>https://broadcastchannel-2ry.pages.dev/posts/813</link><guid isPermaLink="true">https://broadcastchannel-2ry.pages.dev/posts/813</guid><pubDate>Thu, 26 Feb 2026 17:27:40 GMT</pubDate><content:encoded>&lt;a href=&quot;/posts/811&quot;&gt;&lt;blockquote&gt;&lt;small&gt;
&lt;div&gt;
  &lt;span&gt;一个小站的自留地&lt;/span&gt;
&lt;/div&gt;
&lt;div&gt;Google 宣布推出 Gemini 3.1 Pro 模型  Google 今日宣布推出 Gemini 3.1 Pro 模型。作为 Gemini 3 系列的最新升级，3.1 Pro 进一步提升了核心推理能力，旨在为复杂的工程和研究挑战提供更智能的解决方案。在评估模型解决全新逻辑模式能力的 ARC-AGI-2 基准测试中，Gemini 3.1 Pro 取得了 77.1% 的成绩，其推理性能达到了此前 Gemini 3 Pro 的两倍以上。  即日起，Gemini 3.1 Pro 已开始向多端用户推送预览版：…&lt;/div&gt;
&lt;/small&gt;&lt;/blockquote&gt;&lt;/a&gt;&lt;div&gt;
      
        &lt;img src=&quot;/static/https://cdn5.telesco.pe/file/Gz-EYPnlbPsA8gGcRy_wHu_OtFTRM7CA3I-21CYPoxYU6DRI5cNACorobaGOe7FTuEie5SSUqUOxRVolJvEqwIHAy7DCYa1ze36SP1MJQ6n8AVzdvMkFYGKhMkjTTWZQBxGDnuTn-BWcgAPsvA_PR_KSrd903X1L-ayWXUvihrYGwBXTb5jtgfocWelOJ0y0cnSv8599zX50ihzDLPmQgInZeL3p0PxLKMeSygtZAJoEgCBvrBkNFLcqSAfSCMmbVHRgbphAF5p2CXjrybUWnLxFwKNFPpvmnYTazKraPV83mNmX5SUqqCJuu3rP_8z8A1C6mkzYCIlLFu3IMl9vXw.jpg&quot; alt=&quot;Google 发布 Nano Banana 2 生图模型2 月 27 日，Google DeepMind 宣布推出最新图像生成模型 Nano Banana 2 (gemini-3.1-flash-image-preview) &quot; loading=&quot;lazy&quot; /&gt;
      
      
        
      
    &lt;/div&gt;&lt;b&gt;Google 发布 Nano Banana 2 生图模型&lt;/b&gt;&lt;br /&gt;&lt;br /&gt;2 月 27 日，Google DeepMind 宣布推出最新图像生成模型 Nano Banana 2 (gemini-3.1-flash-image-preview) 。&lt;br /&gt;&lt;br /&gt;该模型将前代 Nano Banana Pro 的高质量与复杂逻辑推理能力，与 Gemini Flash 模型的生成速度相结合，旨在为用户提供更高效的图像创建与编辑体验。&lt;br /&gt;&lt;br /&gt;Nano Banana 2 具备先进的世界知识，能够结合网络搜索的实时信息生成准确的图像、信息图表及数据可视化内容。该模型还支持精准的文本渲染与图片内文本翻译功能。&lt;br /&gt;&lt;br /&gt;在创作控制方面，模型强化了对复杂指令的遵循能力，支持在单一工作流中保持最多 5 个角色和 14 个物品的特征一致性。此外，模型可输出从 512 px 到 4K 分辨率的多种宽高比图像，并在光影、纹理和细节表现上实现了显著提升。&lt;br /&gt;&lt;br /&gt;目前，Nano Banana 2 已开始在多款 Google 产品中逐步上线。在 Gemini 应用中，它将在快速、思考与 Pro 模型选项中取代 Nano Banana Pro 成为默认选项，但高级订阅用户仍可手动切换回 Pro 版本。用户也可在 Google 搜索的 AI 模式和智能镜头 (Lens) 、AI Studio、Gemini API 以及 Google Cloud 的 Vertex AI 中体验该模型。此外，Nano Banana 2 已成为 Flow 工具的默认图像模型，供用户免费使用，并被集成至 Ads 广告服务中。&lt;br /&gt;&lt;br /&gt;(&lt;a href=&quot;https://blog.google/innovation-and-ai/technology/ai/nano-banana-2/&quot; target=&quot;_blank&quot;&gt;Google&lt;/a&gt;)</content:encoded></item><item><title>继旗舰模型 Qwen3.5-397B-A17B 首次开源后，Qwen 团队新增发布三款模型： Qwen3.5-122B-A10B、 Qwen3.5-27B (Dense) 与 Qwen3.5-35B-A3B </title><link>https://broadcastchannel-2ry.pages.dev/posts/812</link><guid isPermaLink="true">https://broadcastchannel-2ry.pages.dev/posts/812</guid><pubDate>Wed, 25 Feb 2026 02:28:28 GMT</pubDate><content:encoded>&lt;a href=&quot;/posts/807&quot;&gt;&lt;blockquote&gt;&lt;small&gt;
&lt;div&gt;
  &lt;span&gt;一个小站的自留地&lt;/span&gt;
&lt;/div&gt;
&lt;div&gt;据国内媒体报道，阿里将于今晚除夕夜开源新一代千问大模型 Qwen3.5。&lt;/div&gt;
&lt;/small&gt;&lt;/blockquote&gt;&lt;/a&gt;继旗舰模型 Qwen3.5-397B-A17B 首次开源后，Qwen 团队新增发布三款模型： Qwen3.5-122B-A10B、 Qwen3.5-27B (Dense) 与 Qwen3.5-35B-A3B 。上述模型均已在 GitHub、Hugging Face 及魔搭社区提供下载，供研究与微调使用。&lt;br /&gt;&lt;br /&gt;同时，与 Qwen3.5-35B-A3B 对齐的托管生产版本 Qwen3.5-Flash API 已正式上线阿里云百炼平台。该版本默认支持 100 万词元 (Token) 的上下文长度，并内置了官方原生工具链，开发者无需额外集成即可直接体验。</content:encoded></item><item><title>Google 宣布推出 Gemini 3.1 Pro 模型Google 今日宣布推出 Gemini 3.1 Pro 模型</title><link>https://broadcastchannel-2ry.pages.dev/posts/811</link><guid isPermaLink="true">https://broadcastchannel-2ry.pages.dev/posts/811</guid><pubDate>Thu, 19 Feb 2026 16:29:04 GMT</pubDate><content:encoded>&lt;a href=&quot;/posts/810&quot;&gt;&lt;blockquote&gt;&lt;small&gt;&lt;i&gt;&lt;/i&gt;
&lt;div&gt;
  &lt;span&gt;一个小站的自留地&lt;/span&gt;
&lt;/div&gt;
&lt;div&gt;Gemini 3.1 Pro Preview 正式开启测试。目前 Vertex 平台部分账号已获得访问权限。  稍早前，Google 为 Gemini 发布了音乐生成功能，使用其最先进音乐生成模型  Lyria 3，并已在  Gemini  桌面端开启测试。  用户只需输入文字描述或上传图片视频，即可生成  30  秒带歌词的高保真音乐，且支持对风格和人声的精细控制。该功能向  18  岁以上用户开放，生成的所有音轨均嵌入  SynthID  水印以确保可追溯性。  （X）&lt;/div&gt;
&lt;/small&gt;&lt;/blockquote&gt;&lt;/a&gt;&lt;b&gt;Google 宣布推出 Gemini 3.1 Pro 模型&lt;/b&gt;&lt;br /&gt;&lt;br /&gt;Google 今日宣布推出 Gemini 3.1 Pro 模型。作为 Gemini 3 系列的最新升级，3.1 Pro 进一步提升了核心推理能力，旨在为复杂的工程和研究挑战提供更智能的解决方案。在评估模型解决全新逻辑模式能力的 ARC-AGI-2 基准测试中，Gemini 3.1 Pro 取得了 77.1% 的成绩，其推理性能达到了此前 Gemini 3 Pro 的两倍以上。&lt;br /&gt;&lt;br /&gt;即日起，Gemini 3.1 Pro 已开始向多端用户推送预览版：&lt;br /&gt;- 开发者可通过 Google AI Studio、Gemini CLI、代理开发平台 Google Antigravity 以及 Android Studio 访问其 Gemini API。&lt;br /&gt;- 企业用户可通过 Vertex AI 和 Gemini Enterprise 接入使用。&lt;br /&gt;- 消费者方面，Gemini 3.1 Pro 已在 Gemini 应用中向 Google AI Pro 和 Ultra 计划用户开放了更高的使用上限，并独家登陆了面向上述订阅用户的 NotebookLM。&lt;br /&gt;&lt;br /&gt;（&lt;a href=&quot;https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-pro/&quot; target=&quot;_blank&quot;&gt;Google Blog&lt;/a&gt;）</content:encoded></item><item><title>Gemini 3.1 Pro Preview 正式开启测试</title><link>https://broadcastchannel-2ry.pages.dev/posts/810</link><guid isPermaLink="true">https://broadcastchannel-2ry.pages.dev/posts/810</guid><pubDate>Thu, 19 Feb 2026 07:33:35 GMT</pubDate><content:encoded>&lt;a href=&quot;/posts/789&quot;&gt;&lt;blockquote&gt;&lt;small&gt;
&lt;div&gt;
  &lt;span&gt;一个小站的自留地&lt;/span&gt;
&lt;/div&gt;
&lt;div&gt;Gemini 将成为 Apple Intelligence 基础模型  当地时间 2026 年 1 月 12 日，Apple 与 Google 发布联合声明，确认双方达成多年期合作：下一代 Apple 基础模型将基于 Google 的 Gemini 模型与云技术构建，并用于驱动未来 Apple Intelligence 功能，包括今年上线更个性化的 Siri。  Reuters 报道称，Apple 将在今年晚些时候推出改版后的 Siri，并引入 Gemini 模型能力。这也让 Gemini 获得新的系统级分发入口：Apple…&lt;/div&gt;
&lt;/small&gt;&lt;/blockquote&gt;&lt;/a&gt;&lt;div&gt;
      
        &lt;img src=&quot;/static/https://cdn5.telesco.pe/file/n04EMRbSb3rqkZC1Dk7V9aAabrSeIBIS2uiCSlw_dW1ENlZnH2m5VKgpLCOm2k5x7T43aGxQiypzwFpzjcEpC1O9N7T02EGRoC6ygmluJmodXO64zIT67Yt1Roprj3v3uvmEmt8YIONVCb5cZGs21NPPgcDvgdqXv7HVVpmA0oyMRADcLxsYNWf1AG81_VQX9Bn2_24_rzs_LJXswON-Y3hmJCMEZNJPWh-FEi8NtjfcwJ49sNILcALnF2qHPpRHpKWkHIvXpxgK9Shy4LIvVmnv0DDtA7osM55A9IAw3ZYBGqX07SazZMVEwXu6hsgthi_cpZ1e_iDQW0PIuLudVg.jpg&quot; alt=&quot;Gemini 3.1 Pro Preview 正式开启测试&quot; loading=&quot;lazy&quot; /&gt;
      
      
        
      
    &lt;/div&gt;Gemini 3.1 Pro Preview 正式开启测试。目前 Vertex 平台部分账号已获得访问权限。&lt;br /&gt;&lt;br /&gt;稍早前，Google 为 Gemini 发布了音乐生成功能，使用其最先进音乐生成模型  Lyria 3，并已在  Gemini  桌面端开启测试。&lt;br /&gt;&lt;br /&gt;用户只需输入文字描述或上传图片视频，即可生成  30  秒带歌词的高保真音乐，且支持对风格和人声的精细控制。该功能向  18  岁以上用户开放，生成的所有音轨均嵌入  SynthID  水印以确保可追溯性。&lt;br /&gt;&lt;br /&gt;（&lt;a href=&quot;https://x.com/testingcatalog/status/2024374289965740224&quot; target=&quot;_blank&quot;&gt;X&lt;/a&gt;）</content:encoded></item><item><title>Anthropic  正式发布  Claude Sonnet 4.6Anthropic  正式发布  Claude Sonnet 4.6，官方称其为迄今最强的  Sonnet  模型</title><link>https://broadcastchannel-2ry.pages.dev/posts/809</link><guid isPermaLink="true">https://broadcastchannel-2ry.pages.dev/posts/809</guid><pubDate>Wed, 18 Feb 2026 01:12:54 GMT</pubDate><content:encoded>&lt;a href=&quot;/posts/796&quot;&gt;&lt;blockquote&gt;&lt;small&gt;&lt;i&gt;&lt;/i&gt;
&lt;div&gt;
  &lt;span&gt;一个小站的自留地&lt;/span&gt;
&lt;/div&gt;
&lt;div&gt;Anthropic 发布 Claude Opus 4.6 模型  Anthropic 发布了其最新旗舰模型 Claude Opus 4.6。新模型在保留前代安全性的基础上，重点提升了编程、长文档处理及多学科推理能力。Opus 4.6 首次在 Opus 系列中引入了 100 万词元（Token）的上下文窗口（Beta 版），并支持最高 128k 词元的输出。在 Terminal-Bench 2.0（代理编程）和 Humanity’s Last Exam（多学科推理）等基准测试中，Opus 4.6 的表现均优于…&lt;/div&gt;
&lt;/small&gt;&lt;/blockquote&gt;&lt;/a&gt;&lt;div&gt;
      
        &lt;img src=&quot;/static/https://cdn5.telesco.pe/file/KGEspXqk9Og2c-DAkublnNTA-xbKEwd2oakn6XewVaReUxSncpAFEMCigaUCTUBqxzfG-h-saVlkATTAhk3NIynjT8plvguIgAfTtIJS9vknFXz1QwuU3c4siE6T-6rnu5qH3BI3A_cif9-HXDx0tZw9NnWO1dQTcNieRPTQVL9RSclzZXUSCc64P1sBd5xKiHKcFPysWwC8Am4Ko0XnbX4poUZ4vlAkjvd66lOOu-Vdi6KoGX3fxi-kPzsYGLqtMperJLGXocf8BWFl6qmgXt9vkoDk80ig4SfGP0GtBOO2pya2FbTcDfDN-wNfF90I4Cd8tj4TP53ECWEoqjqs2w.jpg&quot; alt=&quot;Anthropic  正式发布  Claude Sonnet 4.6Anthropic  正式发布  Claude Sonnet 4.6，官方称其为迄今最强的  Sonnet  模型&quot; loading=&quot;lazy&quot; /&gt;
      
      
        
      
    &lt;/div&gt;&lt;b&gt;Anthropic  正式发布  Claude Sonnet 4.6&lt;br /&gt;&lt;/b&gt;&lt;br /&gt;Anthropic  正式发布  Claude Sonnet 4.6，官方称其为迄今最强的  Sonnet  模型。该模型在编程、长上下文推理、Agent  规划、知识工作及设计等领域全面升级，并提供支持  100 万  token 的上下文窗口（Beta 版）。价格维持每百万 token 输入  3  美元、输出  15  美元不变。&lt;br /&gt;&lt;br /&gt;在编程方面，根据  Claude Code  的早期测试，约  70%  的开发者更偏好  Sonnet 4.6  而非上代模型，59%  的用户选择它而非旗舰  Opus 4.5。用户反馈其在修改代码前能更有效阅读上下文，并减少“偷懒”行为。&lt;br /&gt;&lt;br /&gt;在计算机使用能力上，OSWorld  基准测试得分从  14.0%  大幅提升至  72.5%，能更有效地处理复杂电子表格和多步网页表单任务。据外部评估，Sonnet 4.6  在部分真实工作任务基准上略微优于  Opus 4.6。&lt;br /&gt;&lt;br /&gt;Anthropic  同步推出改进版  Web Search  和  Web Fetch  工具，通过代码执行对搜索结果进行动态过滤，官方数据显示平均准确率提升  11%，输入 Token 消耗减少  24%。&lt;br /&gt;&lt;br /&gt;Sonnet 4.6  现已上线  API  及各类 AI 应用，免费版  Claude  也可体验 Sonnet 4.6。官方建议，对于大规模代码重构等超复杂任务，Opus 4.6  仍是最佳选择，但对多数任务，Sonnet 4.6  提供了极高性价比。&lt;br /&gt;&lt;br /&gt;（Juya）</content:encoded></item><item><title>Grok 4.20(beta) 已经上线 Grok 官网</title><link>https://broadcastchannel-2ry.pages.dev/posts/808</link><guid isPermaLink="true">https://broadcastchannel-2ry.pages.dev/posts/808</guid><pubDate>Tue, 17 Feb 2026 13:14:52 GMT</pubDate><content:encoded>&lt;a href=&quot;/posts/758&quot;&gt;&lt;blockquote&gt;&lt;small&gt;
&lt;div&gt;
  &lt;span&gt;一个小站的自留地&lt;/span&gt;
&lt;/div&gt;
&lt;div&gt;xAI 发布 Grok 4.1 系列模型及 Agent Tools API  xAI 于近日正式发布 Grok 4.1 系列模型及其配套开发工具。其中，Grok 4.1 主模型在 LMArena 排行榜上以 quasarflux（推理模式）和 tensor（非推理模式）的代号包揽前两名，其推理模式 Elo 分数达到 1483 分，超越了 Gemini 2.5 Pro 和 Claude Sonnet 4.5 等竞争对手。该模型重点提升了创意写作、情感交互及协作能力，并在 EQ-Bench 等情商测试中表现优异。…&lt;/div&gt;
&lt;/small&gt;&lt;/blockquote&gt;&lt;/a&gt;&lt;div&gt;
      
        &lt;img src=&quot;/static/https://cdn5.telesco.pe/file/NIKm1-m_Gb_COa1YSuBYkYVMylC9v8KIKpddjUbABVZxrX3d2zkegOQ31odIvelOekd104kJQtJiIGVrBRjZyeT6X6HfDbg47iwOryhFPCBPFmdNR0Zc4x0qPEA0IPzD7LDaSiG4HS-f95rS2JnWAy4P5l1xHhHL_VG6VhfXEUlDaETt86w7QSk2HdnEDZ5peP0S5v9RK8pvqHQklTF5j5CA_kw2jaa4sYusUnlUriB4ILNPeNMzhpsB7T37-tNUXgNUcesMCREpgKPtbauhzmr9R1-c7g7qmtbNNY0xQD0WF0ONkg2_VQIr8ggt6mB-2Wig96Kj3ohZM0NPuyp47A.jpg&quot; alt=&quot;Grok 4.20(beta) 已经上线 Grok 官网&quot; loading=&quot;lazy&quot; /&gt;
      
      
        
      
    &lt;/div&gt;Grok 4.20(beta) 已经上线 Grok 官网。&lt;br /&gt;&lt;br /&gt;官方暂未发布新闻稿。&lt;br /&gt;&lt;br /&gt;&lt;blockquote&gt;本消息将在稍后更新以提供更多信息&lt;/blockquote&gt;</content:encoded></item><item><title>据国内媒体报道，阿里将于今晚除夕夜开源新一代千问大模型 Qwen3.5</title><link>https://broadcastchannel-2ry.pages.dev/posts/807</link><guid isPermaLink="true">https://broadcastchannel-2ry.pages.dev/posts/807</guid><pubDate>Mon, 16 Feb 2026 03:13:27 GMT</pubDate><content:encoded>&lt;a href=&quot;/posts/802&quot;&gt;&lt;blockquote&gt;&lt;small&gt;
&lt;div&gt;
  &lt;span&gt;一个小站的自留地&lt;/span&gt;
&lt;/div&gt;
&lt;div&gt;据国内媒体报道，字节跳动火山引擎初步确定 2026 年 2 月 14 日发布豆包大模型的一系列重要升级发布。  本次模型发布涉及豆包大模型 2.0、音视频创作模型 Seedance 2.0、图像创作模型 Seedream 5.0 Preview。  此次升级，豆包大模型 2.0 将正式发布，基础模型能力和企业级 Agent 能力将有大幅提升。&lt;/div&gt;
&lt;/small&gt;&lt;/blockquote&gt;&lt;/a&gt;据国内媒体报道，阿里将于今晚除夕夜开源新一代千问大模型 Qwen3.5。</content:encoded></item><item><title>OpenClaw 创始人加入 OpenAI</title><link>https://broadcastchannel-2ry.pages.dev/posts/806</link><guid isPermaLink="true">https://broadcastchannel-2ry.pages.dev/posts/806</guid><pubDate>Mon, 16 Feb 2026 01:05:26 GMT</pubDate><content:encoded>OpenClaw 创始人加入 OpenAI。&lt;br /&gt;&lt;br /&gt;OpenClaw 将转型为基金会，保持开源运营。&lt;br /&gt;&lt;br /&gt;&lt;a href=&quot;https://steipete.me/posts/2026/openclaw&quot; target=&quot;_blank&quot;&gt;https://steipete.me/posts/2026/openclaw&lt;/a&gt;</content:encoded></item><item><title>#推广💎 特别优惠：Cubence 是一家稳定高效的 AI 服务中转平台，为 Claude Code、Codex、Gemini 等 AI 工具提供中转服务，有着不错的稳定性和性价比</title><link>https://broadcastchannel-2ry.pages.dev/posts/804</link><guid isPermaLink="true">https://broadcastchannel-2ry.pages.dev/posts/804</guid><pubDate>Sat, 14 Feb 2026 07:42:52 GMT</pubDate><content:encoded>&lt;a href=&quot;/search/%23%E6%8E%A8%E5%B9%BF&quot;&gt;#推广&lt;/a&gt;&lt;br /&gt;&lt;br /&gt;&lt;i&gt;&lt;b&gt;💎&lt;/b&gt;&lt;/i&gt; 特别优惠：&lt;br /&gt;&lt;a href=&quot;https://cubence.com/?source=cch&quot; target=&quot;_blank&quot;&gt;Cubence&lt;/a&gt; 是一家稳定高效的 AI 服务中转平台，为 Claude Code、Codex、Gemini 等 AI 工具提供中转服务，有着不错的稳定性和性价比。&lt;br /&gt;Cubence 为 CCH 的使用用户提供了特别的优惠折扣：在购买时使用优惠券 &lt;code&gt;DING113CCH&lt;/code&gt;，可享受 10% 优惠折扣。 &lt;br /&gt;→ &lt;a href=&quot;https://cubence.com/?source=cch&quot; target=&quot;_blank&quot;&gt;立即访问&lt;/a&gt;&lt;br /&gt;&lt;br /&gt;&lt;i&gt;&lt;b&gt;💎&lt;/b&gt;&lt;/i&gt; 特别优惠：&lt;br /&gt;&lt;a href=&quot;https://www.packyapi.com/register?aff=withcch&quot; target=&quot;_blank&quot;&gt;PackyCode&lt;/a&gt; 是一家稳定、高效的 API 中转服务商，提供 Claude Code、Codex、Gemini 等多种中转服务。&lt;br /&gt;PackyCode 为本软件的用户提供了特别优惠，使用此链接注册并在充值时填写优惠码 &lt;code&gt;WITHCCH&lt;/code&gt;，可享受 9 折优惠 &lt;br /&gt;→ &lt;a href=&quot;https://www.packyapi.com/register?aff=withcch&quot; target=&quot;_blank&quot;&gt;立即访问&lt;/a&gt;&lt;br /&gt;&lt;br /&gt;&lt;i&gt;&lt;b&gt;💎&lt;/b&gt;&lt;/i&gt; 特别优惠：&lt;br /&gt;&lt;a href=&quot;https://co.yes.vg/register?ref=ygxz&quot; target=&quot;_blank&quot;&gt;YesCode&lt;/a&gt; 是一家低调务实的 AI API 中转服务商，专注于为开发者提供稳定可靠的 Claude、Codex、Gemini 等模型接入服务，以扎实的技术底蕴和持续稳定的服务质量赢得用户信赖。&lt;br /&gt;通过此链接注册即可体验 &lt;br /&gt;→ &lt;a href=&quot;https://co.yes.vg/register?ref=ygxz&quot; target=&quot;_blank&quot;&gt;立即访问&lt;/a&gt;&lt;br /&gt;&lt;br /&gt;&lt;i&gt;&lt;b&gt;💎&lt;/b&gt;&lt;/i&gt; 特别优惠：&lt;br /&gt;&lt;a href=&quot;https://www.sssaicode.com/register?ref=NQMO05&quot; target=&quot;_blank&quot;&gt;SSSAiCode&lt;/a&gt; 是一家稳定可靠的 API 中转站，致力于提供稳定、可靠、平价的 Claude、CodeX 模型服务。&lt;br /&gt;SSSAiCode 为本软件的用户提供特别优惠，使用此链接注册可长期享受每次 10$ 的购买奖励 &lt;br /&gt;→ &lt;a href=&quot;https://www.sssaicode.com/register?ref=NQMO05&quot; target=&quot;_blank&quot;&gt;立即访问&lt;/a&gt;</content:encoded></item><item><title>MiniMax 发布 MiniMax-M2.52026 年 2 月 12 日，MiniMax 在官网宣布推出 MiniMax-M2.5</title><link>https://broadcastchannel-2ry.pages.dev/posts/803</link><guid isPermaLink="true">https://broadcastchannel-2ry.pages.dev/posts/803</guid><pubDate>Thu, 12 Feb 2026 15:55:18 GMT</pubDate><content:encoded>&lt;a href=&quot;/posts/781&quot;&gt;&lt;blockquote&gt;&lt;small&gt;
&lt;div&gt;
  &lt;span&gt;一个小站的自留地&lt;/span&gt;
&lt;/div&gt;
&lt;div&gt;智谱推出 GLM-4.7 模型  智谱（Z.ai）于 12 月 23 日正式发布并开源其最新旗舰模型 GLM-4.7。该模型专为 Agentic Coding 场景优化，引入了增强的「思考模式」（Thinking Mode），包含 Interleaved Thinking、Preserved Thinking 和 Turn-level Thinking 三种机制，以提升复杂指令遵循和长程任务的稳定性。  在 LMArena Code Arena 盲测中，GLM-4.7 位列开源及国内模型首位；部分基准测试（如…&lt;/div&gt;
&lt;/small&gt;&lt;/blockquote&gt;&lt;/a&gt;&lt;div&gt;
      
        &lt;img src=&quot;/static/https://cdn5.telesco.pe/file/MFXwT13JfoRI3lx7UaYNE8zi-zk8hT4OowBZDYGkE34uK7xys6EfiSf_Nyl42Luz4KkyfhB5-3NWinIlejOkHfVLJ3BkTHMnX6HLYz_Wmwp6W4qr4l3tUyhiZU6Rn7OZgBBooSnaBW9V9o_pjcHUpyXFpjGgiam9hdes2feKQlj4V2M1foWUCMOOBtp4YE_i1rzhKnaNbbK8BLurgv2yypf8q8NT43GpXanqRMu46chKZk-LviKV3xazeGqwUe5O0v2GEj1kpI3BAOD-INamIg5X-LV8o9fUNufSddSjZr6MEp8JVcOQ3Brn2-LPw84zzw9ZpjBR4XYN9PR3_tiARg.jpg&quot; alt=&quot;MiniMax 发布 MiniMax-M2.52026 年 2 月 12 日，MiniMax 在官网宣布推出 MiniMax-M2.5&quot; loading=&quot;lazy&quot; /&gt;
      
      
        
      
    &lt;/div&gt;&lt;b&gt;MiniMax 发布 MiniMax-M2.5&lt;/b&gt;&lt;br /&gt;&lt;br /&gt;2026 年 2 月 12 日，MiniMax 在官网宣布推出 MiniMax-M2.5。官方称，MiniMax-M2.5 经过数十万个真实复杂环境中的大规模强化学习 (Reinforcement Learning, RL) 训练，面向编程、工具调用与搜索、办公等生产力场景，目标是在真实世界任务中提升可交付性与执行效率。&lt;br /&gt;&lt;br /&gt;在公开的基准结果中，MiniMax 表示 M2.5 在 SWE-Bench Verified 达到 80.2%，Multi-SWE-Bench 达到 51.3%，BrowseComp 达到 76.3%。编程能力方面，官方强调模型具备「像架构师一样思考和构建」的特征，包括在写代码前先进行功能、结构与用户界面 (User Interface, UI) 的拆解规划，并在超过 10 种语言与多平台全栈工程任务上训练；在不同脚手架的泛化测试中，M2.5 在 Droid 上通过率为 79.7%，在 OpenCode 上通过率为 76.1%。&lt;br /&gt;&lt;br /&gt;（&lt;a href=&quot;https://www.minimax.io/news/minimax-m25&quot; target=&quot;_blank&quot;&gt;MiniMax&lt;/a&gt;）</content:encoded></item><item><title>据国内媒体报道，字节跳动火山引擎初步确定 2026 年 2 月 14 日发布豆包大模型的一系列重要升级发布</title><link>https://broadcastchannel-2ry.pages.dev/posts/802</link><guid isPermaLink="true">https://broadcastchannel-2ry.pages.dev/posts/802</guid><pubDate>Thu, 12 Feb 2026 03:20:43 GMT</pubDate><content:encoded>&lt;a href=&quot;/posts/801&quot;&gt;&lt;blockquote&gt;&lt;small&gt;&lt;i&gt;&lt;/i&gt;
&lt;div&gt;
  &lt;span&gt;一个小站的自留地&lt;/span&gt;
&lt;/div&gt;
&lt;div&gt;智谱上线 GLM-5 系列模型  智谱发布了新一代旗舰基座模型 GLM-5 及其编程强化版 GLM-5-Code。GLM-5 面向 Agentic Engineering 打造，面向复杂系统工程与长程 Agent 任务；GLM-5-Code 则针对真实编程与 Coding Agent 场景强化了工具调用稳定性与前端生成准确性。  在规格方面，文档给出的信息显示，两款模型均为文本输入、文本输出；上下文窗口为 200K，最大输出为 128K 词元 (Token)。  在训练与架构层面， GLM-5 基座参数规模从…&lt;/div&gt;
&lt;/small&gt;&lt;/blockquote&gt;&lt;/a&gt;据国内媒体报道，字节跳动火山引擎初步确定 2026 年 2 月 14 日发布豆包大模型的一系列重要升级发布。&lt;br /&gt;&lt;br /&gt;本次模型发布涉及豆包大模型 2.0、音视频创作模型 Seedance 2.0、图像创作模型 Seedream 5.0 Preview。&lt;br /&gt;&lt;br /&gt;此次升级，豆包大模型 2.0 将正式发布，基础模型能力和企业级 Agent 能力将有大幅提升。</content:encoded></item><item><title>智谱上线 GLM-5 系列模型智谱发布了新一代旗舰基座模型 GLM-5 及其编程强化版 GLM-5-Code</title><link>https://broadcastchannel-2ry.pages.dev/posts/801</link><guid isPermaLink="true">https://broadcastchannel-2ry.pages.dev/posts/801</guid><pubDate>Wed, 11 Feb 2026 17:15:27 GMT</pubDate><content:encoded>&lt;a href=&quot;/posts/781&quot;&gt;&lt;blockquote&gt;&lt;small&gt;
&lt;div&gt;
  &lt;span&gt;一个小站的自留地&lt;/span&gt;
&lt;/div&gt;
&lt;div&gt;智谱推出 GLM-4.7 模型  智谱（Z.ai）于 12 月 23 日正式发布并开源其最新旗舰模型 GLM-4.7。该模型专为 Agentic Coding 场景优化，引入了增强的「思考模式」（Thinking Mode），包含 Interleaved Thinking、Preserved Thinking 和 Turn-level Thinking 三种机制，以提升复杂指令遵循和长程任务的稳定性。  在 LMArena Code Arena 盲测中，GLM-4.7 位列开源及国内模型首位；部分基准测试（如…&lt;/div&gt;
&lt;/small&gt;&lt;/blockquote&gt;&lt;/a&gt;&lt;div&gt;
      
        &lt;img src=&quot;/static/https://cdn5.telesco.pe/file/pkwJmg2GlsKV82nwezvEp6kVEKf10K_b1bWqQhCuLEqbfHM6kAcn-xXdo-2lR8cBoJPfJd7kiZAsYbyQTocjdPxJ1h-Oob6R3rmfsWbaHX00CJH3Xlemx0yOqvJ0owI5C6P_d3ThwYXM0XRF_cLOqZ9DGKkCMne-5mWBPv8_2Tf7b7SXslKwXQMKyl6l0JMgtdv0_ZPD_9cm3u6uEFttSgYYLCJLJd-86cVcfyA77x45ajaFVJUoJ-IHCPCWf38RhcM_HnnVhz82IFBAN6WmJXx1JC8BD5d53vXPvUocGolTB-EyfXwSdayWIMwEoLc-VBcoSFtTcpgjSWFVsHlcsQ.jpg&quot; alt=&quot;智谱上线 GLM-5 系列模型智谱发布了新一代旗舰基座模型 GLM-5 及其编程强化版 GLM-5-Code&quot; loading=&quot;lazy&quot; /&gt;
      
      
        
      
    &lt;/div&gt;&lt;b&gt;智谱上线 GLM-5 系列模型&lt;/b&gt;&lt;br /&gt;&lt;br /&gt;智谱发布了新一代旗舰基座模型 GLM-5 及其编程强化版 GLM-5-Code。GLM-5 面向 Agentic Engineering 打造，面向复杂系统工程与长程 Agent 任务；GLM-5-Code 则针对真实编程与 Coding Agent 场景强化了工具调用稳定性与前端生成准确性。&lt;br /&gt;&lt;br /&gt;在规格方面，文档给出的信息显示，两款模型均为文本输入、文本输出；上下文窗口为 200K，最大输出为 128K 词元 (Token)。&lt;br /&gt;&lt;br /&gt;在训练与架构层面， GLM-5 基座参数规模从 355B (激活 32B) 扩展至 744B (激活 40B)，预训练数据从 23T 提升至 28.5T；后训练方面引入异步强化学习框架「Slime」与异步智能体强化学习算法；长上下文方面首次集成稀疏注意力机制 (DeepSeek Sparse Attention)，以在长文本效果尽量无损的前提下降低部署成本，并提升词元效率 (Token Efficiency)。&lt;br /&gt;&lt;br /&gt;在编程与 Agent 评测方面， GLM-5 在 SWE-bench-Verified 获得 77.8 分、在 Terminal Bench 2.0 获得 56.2 分，均为开源模型最高分数，并表示其性能超过 Gemini 3.0 Pro；文档还称其在 BrowseComp、MCP-Atlas 与 τ²-Bench 等基准中取得开源第一，并在内部 Claude Code 评估集合中显著超越 GLM-4.7。&lt;br /&gt;&lt;br /&gt;(&lt;a href=&quot;https://docs.bigmodel.cn/cn/guide/models/text/glm-5&quot; target=&quot;_blank&quot;&gt;智谱&lt;/a&gt;)</content:encoded></item></channel></rss>