KNOWLEDGE ATLAS(02513)
Search documents
“全球大模型第一股”智谱道歉!
Guang Zhou Ri Bao· 2026-02-22 12:09
"全球大模型第一股"智谱股价2月20日暴涨超40%。次日,这家AI公司却发出致歉信。 在2月21日发布的《GLM Coding Plan致歉信》中,智谱承认了在GLM-5发布后犯下了三个关键错误: 首先,规则透明度不足:为应对GLM-5更高的算力消耗,公司设计了分层使用策略,将高峰期消耗提升至3倍、非高峰期2倍,但未向用户清晰说明,导 致"消耗变快"的普遍抱怨。 其次,灰度节奏太慢:GLM-5发布后流量远超预期,叠加灰产号池和黄牛党恶意占用资源,公司扩容节奏滞后,不得不按Max、Pro、Lite的顺序分阶段开 放,导致大量Pro和Lite用户无法正常使用。目前,Max用户已经全面开放,Pro用户虽已开放,但高峰期可能会因集群负载较高遇到限流,Lite用户将会在 节后非高峰期逐步灰度开放。为优化用户体验、智谱给出了对应的补偿方案。针对受到影响的Lite和Pro用户,智谱支持自主申请退款。包括Max用户在内 的已经用上GLM-5的用户,及继续选择智谱的用户,智谱统一为其延长15天使用期。 最后,老用户升级机制粗糙:部分老用户在2月12日至16日期间误升级到新套餐,权益受损。 GLM Coding Plan是智谱专 ...
智谱发布GLM-5技术细节:工程级智能,适配国产算力
Hua Er Jie Jian Wen· 2026-02-22 11:20
Core Insights - The release of GLM-5 marks a significant advancement in AI model capabilities, shifting the focus from mere parameter size to system engineering capabilities [2][15] - GLM-5 demonstrates the ability to perform complex tasks, improve training efficiency, and fully adapt to domestic chip architectures, indicating a move towards an independent technological ecosystem in China [2][14] Group 1: Model Capabilities - GLM-5 can handle complex tasks beyond simple code generation, showcasing "engineering-level intelligence" [4][5] - The model supports a context length of 200K tokens, enabling it to manage long-term planning and multi-round interactions effectively [4][6] - The introduction of DSA (DeepSeek Sparse Attention) reduces computational complexity by 1.5-2 times without loss of performance, allowing for more efficient processing [6][7][9] Group 2: Training and Efficiency Innovations - GLM-5 features a restructured reinforcement learning (RL) architecture that decouples model generation from training, significantly enhancing throughput [13] - The model's training efficiency is optimized through asynchronous RL algorithms, allowing for stable learning in complex environments [13] - The overall design emphasizes efficiency innovations over sheer computational power, which is crucial for the Chinese AI landscape [10] Group 3: Hardware Adaptation - GLM-5 is natively compatible with various domestic GPU ecosystems, including Huawei Ascend and others, marking a shift towards system-level adaptation rather than reliance on foreign hardware [14] - The model's performance on a single domestic computing node is comparable to that of a cluster of two international GPUs, with deployment costs reduced by 50% in long-sequence processing scenarios [14] Group 4: Comprehensive AI Engineering - The development of GLM-5 represents a complete closed-loop system that integrates model architecture innovation, training efficiency optimization, and deep adaptation to domestic chips [15] - This signifies a transition for Chinese AI from application-level advantages to full-stack optimization, including architecture, algorithms, training systems, and inference frameworks [15][18] - The report emphasizes a mature approach to AI development, focusing on practical engineering metrics rather than competitive benchmarking [18]
新模型太火?智谱发致歉信、公布补偿方案
Nan Fang Du Shi Bao· 2026-02-22 10:49
2月21日,"全球大模型第一股"智谱AI(02513.HK)发布致歉信称,GLM-5发布后GLM Coding Plan存 在透明度不够、GLM-5灰度节奏太慢、老用户升级机制设计粗糙三大问题,表示"挨打要立正",并提出 了相应的处理和补偿方案。致歉信提到,GLM-5发布后,流量超出预期,智谱扩容节奏没有跟上,不 得已将GLM-5按照Max、Pro、Lite的顺序逐步开放。 值得一提的是,截至最新交易日(2月20日),智谱股价暴涨42.72%至725港元,市值突破3200亿港 元。 2月12日,智谱发布新模型GLM-5,该模型Coding与Agent能力上取得开源SOTA表现。智谱方面表示, GLM系列模型受到全球开发者喜爱,在GLM Coding Plan全球爆量后官方不得不启动限售活动。 与此同时,智谱发布了价格调整函。智谱称,基于实际使用情况与资源投入变化,公司决定对GLM Coding Plan套餐价格体系进行结构性调整。从2月12日起,一是取消首购优惠,保留按季按年订阅优 惠;二是套餐价格进行结构性调整,整体涨幅自30%起;已订阅用户价格保持不变。 GLM Coding Plan是智谱重押的业务模式 ...
智谱发布GLM Coding Plan致歉信,并公布处理补偿方案
Zhong Guo Ji Jin Bao· 2026-02-22 10:49
Core Viewpoint - The company issued an apology regarding the GLM Coding Plan, acknowledging three main mistakes: insufficient rule transparency, slow rollout of GLM-5, and poorly designed upgrade mechanisms for existing users [1] Group 1: GLM-5 Release and User Impact - Following the release of GLM-5, user traffic exceeded expectations, leading to a mismatch in the company's expansion pace, resulting in a staggered rollout of GLM-5 in Max, Pro, and Lite tiers [3] - Max users have been fully opened, while Pro users may experience throttling during peak times due to high cluster load, and Lite users will gradually be opened after the holiday during non-peak times [3] Group 2: Compensation and Future Commitments - The company supports Lite and Pro users in applying for refunds if affected; if not opting for refunds, all users, including Max, will receive a 15-day extension [3] - The company emphasized that future adjustments affecting core user rights will be communicated in advance, providing a "choice period" to avoid passive acceptance by users [3] Group 3: GLM-5 Performance - GLM-5, launched on February 12, aligns its programming capabilities with Claude Opus 4.5 and has achieved state-of-the-art (SOTA) scores in mainstream benchmark tests [3] - The model has demonstrated SOTA performance in agent capabilities, ranking first in several evaluation benchmarks, including BrowseComp, MCP-Atlas, and τ²-Bench [3]
智谱发布GLM-5技术报告,技术细节全公开
Mei Ri Jing Ji Xin Wen· 2026-02-22 10:30
Core Insights - The article discusses the launch of GLM-5, a next-generation foundational model aimed at shifting programming paradigms from "VibeCoding" to "AgenticEngineering" [1] Group 1: Model Innovations - GLM-5 builds on the intelligence, reasoning, and programming capabilities of its predecessor, GLM-4.5, while employing sparse attention to significantly reduce inference costs [1] - The model maintains long-context capabilities without loss, enhancing its overall performance [1] Group 2: Learning Infrastructure - A new asynchronous reinforcement learning infrastructure has been developed to better align the model with various tasks, decoupling the generation process from the training process to greatly improve post-training iteration efficiency [1] - The introduction of a novel asynchronous Agent reinforcement learning algorithm further enhances the effectiveness of reinforcement learning, allowing the model to learn more effectively from complex, long-range interactions [1] Group 3: Performance Metrics - GLM-5 achieves state-of-the-art (SOTA) performance in mainstream open benchmark tests [1] - The model demonstrates unprecedented capabilities in real-world programming tasks, surpassing all previous open-source baselines in handling end-to-end software engineering challenges [1]
智谱道歉,承认犯了三个错误
Xin Lang Cai Jing· 2026-02-22 09:01
记者丨黎雨桐 编辑丨倪新平 全球大模型第一股智谱于2月21日发布GLM Coding Plan致歉信,并公布处理和补偿方案。 智谱于2月12日正式推出新一代旗舰模型GLM-5,其在编程开发场景中平均性能较上一代提升超20%, 真实编程体验逼近Claude Opus 4.5水平。在BrowseComp、MCP-Atlas和τ2-Bench等三项Agent评测中均取 得开源领域最优表现。 智谱称,这次改版主要犯了三个错:规则透明度不够、GLM-5灰度节奏太慢、老用户升级机制设计粗 糙。 智谱介绍,GLM-5发布后,流量超出预期,公司扩容节奏没有跟上,不得已将GLM-5按照Max、Pro、 Lite的顺序逐步开放。目前Max用户已经全面开放,Pro用户虽已开放,但高峰期可能会因集群负载较高 遇到限流,Lite用户将会在节后非高峰期逐步灰度开放。针对受到影响的Lite和Pro用户,公司支持自主 申请退款。 值得注意的是,2月20日,智谱(02513.HK)股价逆势收涨,单日暴涨42.72%,报725港元,股价再创 新高,总市值达3232亿港元。上市43天,公司股价较116.2港元的发行价累计上涨524%。 同日,快手 ...
智谱、MiniMax市值双双冲破3000亿港元 市场在疯抢什么?
Xin Lang Cai Jing· 2026-02-22 07:37
2月20日,港股马年首个交易日,有"全球大模型第一股"之称的智谱收涨超42%,市值突破3232亿港元。2月以来,该公司股价累计涨幅超过220%,上市以 来的涨幅则达到523%。 另一家人工智能大模型企业MiniMax也延续了节前的强劲走势,当天收涨超14%,市值也超过3000亿港元。自上市以来,MiniMax已经累计上涨487.88%。 目前,两者市值已超越携程和快手,逼近泡泡玛特(3279亿港元)与百度(3548亿港元)。 然而,狂热之下,两家公司仍处于亏损状态,市销率高达700倍,远超OpenAI的65倍。市场究竟在为何种未来下注? 智谱、MiniMax市值双双突破3000亿港元,市销率远超OpenAI 2月20日,农历马年的第一个交易日,当恒生科技指数大跌近3%,众多传统科技股表现疲软时,两家AI大模型初创公司——智谱和MiniMax,成为了市场中 为数不多的亮点。 当天,智谱收报725港元/股,涨幅高达42.72%,市值突破3232亿港元,单日市值增长超过967亿港元。MiniMax同样表现不俗,收盘上涨14.52%,报970港元/ 股,市值达3042亿港元,2月累涨超105%。 值得注意的是,这两家 ...
智谱道歉!
Xin Lang Cai Jing· 2026-02-22 07:17
智谱最新致歉。 "全球大模型第一股"智谱AI(02513.HK)股价周五(2月20日)暴涨42.72%、市值突破3200亿港元。次 日,这家炙手可热的AI公司却发出致歉信,向开发者们表示了其旗舰模型GLM-5发布后遭遇的运营困 境。 公开道歉 2月12日,智谱AI发布新一代旗舰大模型GLM-5,其参数规模达到前代GLM-4.7的两倍以上,定位对标 Claude Opus 4.5,主打复杂编程与长程智能体任务。凭借"Pony Alpha"的技术光环和对核心付费套餐 GLM Coding Plan提价30%的商业化信号,智谱AI股价连续上涨,节后首个交易日(2月20日)更是迎来 爆发式上涨,单日涨幅超42%,市值一举达到3232亿港元。 但技术的高光时刻很快被运营问题所笼罩。在2月21日发布的《GLM Coding Plan致歉信》中,智谱AI承 认在GLM-5发布后犯下了三个关键错误:首先,规则透明度不足:为应对GLM-5更高的算力消耗,公 司设计了分层使用策略,将高峰期消耗提升至3倍、非高峰期2倍,但未向用户清晰说明,导致"消耗变 快"的普遍抱怨;其次,灰度节奏太慢:GLM-5发布后流量远超预期,叠加灰产号池 ...
市值飙升超3200亿!智谱再创历史新高,“清华系”大模型引爆港股
Sou Hu Cai Jing· 2026-02-22 06:57
2月20日,港股市场迎来一场由"清华系"点燃的AI狂欢。智谱(2513.HK)股价收涨42.72%,报725港 元,再创历史新高,市值一举突破3232亿港元。 就在一周前(2月12日),智谱正式推出新一代旗舰模型GLM-5。这款被定位为"系统架构师"的模型, 在编程开发场景中平均性能较上一代提升超过20%,真实编程体验逼近Claude Opus 4.5水平。更令人瞩 目的是,它在BrowseComp、MCP-Atlas和τ²-Bench三项Agent评测中均取得开源领域最优表现。 值得一提的是,清华大学本身也是这场资本盛宴的重要受益者。根据公开资料,清华大学持有智谱 6.91%股份,按今日市值计算,相当于持有约220亿港币的资产。 清华系多点开花:从AI到新能源、具身智能、AI芯片 智谱的狂飙并非孤例。清华团队的创业版图,正在多个新兴领域同步扩张: 故事远未结束 从清华实验室到港股"大模型第一股",智谱用不到7年时间,完成了从学术探索到资本市场的跨越。 GLM-5的发布与股价的狂飙,只是这场长跑中的一个节点。 根据公开资料,GLM-5参数规模从355B扩展至744B,预训练数据量提升至28.5T。更大的基座意 ...
智谱致歉信:GLM-5发布后流量超预期,扩容节奏没有跟上
Xin Lang Cai Jing· 2026-02-22 01:25
新浪科技讯 2月22日上午消息,针对GLM-5发布后规则透明度不够、灰度太慢等问题,智谱日前发布 GLM Coding Plan致歉信称:"GLM-5发布后,流量超出预期,公司扩容节奏没有跟上,不得已将GLM-5 按照Max、Pro、Lite的顺序逐步开放。目前Max用户已经全面开放,Pro用户虽已开放,但高峰期可能 会因集群负载较高遇到限流,Lite用户将会在节后非高峰期逐步灰度开放。" 针对受到影响的Lite和Pro用户,智谱支持自主申请退款,退款遵循2026年1月1日至今天,智谱全部请客 的原则。 老用户(2026年1月1日前订阅,且2月12日后仍有效):退2026年1月1日至今+剩余天数的全部金额。 新用户(2026年1月1日后订阅,且2月12日后仍有效):全额退还当前订阅周期内全部实付金额。(文 猛) 『 『 V 』 『 』 『 』 『 』 『 』 『 』 『 』 『 』 『 』 『 』 『 』 』 GLM-5的参数规模是GLM-4.7的两倍以上,定位是效果逼 近Claude Opus 4.5的"大杯"模型,适合复杂任务。为了让 更多用户能把GLM-5用在真正需要的场景,我们设计了分 层使用策略:日 ...