Workflow
V3.2
icon
Search documents
688118,4分钟20%涨停!人工智能板块,主力资金净流入超100亿!
Xin Lang Cai Jing· 2026-02-27 04:30
今日早盘,A股继续小幅震荡,上证指数红绿间转换超10次,中证1000表现较强,连续第4日上涨,创 2017年4月以来近9年新高,深证成指、沪深300等则小幅下跌,市场成交保持平稳。 盘面上,稀有金属、人工智能、超临界发电、酒店餐饮等板块涨幅居前,玻璃玻纤、通信设备、消费电 子、航空装备等板块跌幅居前。 超临界发电项目持续推进 春节后,超临界发电概念频频走强,板块指数连续4日创历史新高。金现代早间仅约6分钟就垂直20%涨 停,豫能控股秒速涨停,连续第7日涨停,赣能股份亦秒板,连续第3日涨停,华银电力1分钟涨停,连 续第2日涨停。 近来,超临界发电领域利好不断。继去年底全球首台商用超临界二氧化碳发电机组在贵州六盘水首钢水 城钢铁(集团)有限责任公司成功商运后,贵州能源大方2×66万千瓦超超临界燃煤发电项目,也于今 年2月上旬完成全部27项前期核准及开工手续,主厂房基础浇筑全面启动。 项目2026年计划完成投资23.49亿元,计划于2027年底建成投产,年发电量约60亿千瓦时,配置新能源 指标290万千瓦,推动"火电+新能源"多能互补。 此外,中核集团50兆瓦"熔盐储能+超临界二氧化碳发电"示范项目已入选国家能源领 ...
2月井喷,中国AI调用量首超美国,四款大模型霸榜全球前五,国产算力需求正经历指数级增长
3 6 Ke· 2026-02-27 03:31
2月,中国AI的模型调用量爆发式增长,首次超过美国。 全球最大的AI模型API聚合平台OpenRouter数据显示,9日~15日这周,中国模型以4.12万亿Token的调用量,首次超过同期美国模型的2.94万亿Token。 榜单洗牌:中国Token调用量首超美国,四款大模型霸榜 OpenRouter平台,汇聚了全球数百种大语言模型,拥有超过500万开发者用户,是目前全球最大的AI模型API聚合平台。因此,其API调用量数据被视为 洞察全球AI应用落地趋势最真实的"晴雨表",因为它直接反映了开发者"用脚投票"的选择,体现了模型在实际应用中的受欢迎程度和竞争力。 值得注意的是,该平台的用户主要由海外开发者构成,其中美国用户占比高达47.17%,而中国开发者仅占6.01%,这使得其榜单数据更能客观反映中国AI 模型在全球范围内的真实吸引力。 16日~22日这周,中国模型的周调用量进一步冲高至5.16万亿Token,三周大涨127%,而同期美国模型调用量跌至2.7万亿Token。与此同时,全球调用量 排名前五的模型中,中国模型占据四席,这股强大的增长动能,并非依赖单一爆款产品,而是中国AI厂商集群式崛起。 Token ...
中国AI调用量首超美国,国产算力有望受益!科创人工智能ETF(589520)盘中拉升2.4%,云天励飞20CM涨停!
Xin Lang Cai Jing· 2026-02-27 03:23
今日(2月27日)算力概念继续活跃,重点布局国产AI产业链的科创人工智能ETF(589520)场内价格 盘中拉升2.4%,现涨2.3%,冲击日线2连阳! | | 分时 多日 1分 5分 15分 30分 · | | | F9 盘鹅盘后 盘加 九转 图线 工具 ♡ 2 | | > | | 科创人工智能ETF华宝 1 | 589520 | | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | | 0 | 0.70 | 589520(8401人工智能ETF华富) 11:12 价 0.705 股跌 0.016(2.32%) 均价 0.694 | | | | 2619 | 0.705 | | +0.016 +2.32% | | 图 密 | | | | | | | SSE CNY 11:12:43 文国中 | | 0 / 8 + | | | 0.703 | | | | | 2.09% | 净值出费 | | 华宝上还料创板人工智能ETF | | ਮ | 0.700 | | | | | 1.57% | 酸化 | 9.44% 受班 | -12154 | | | ...
2月27日投资早报|锐新科技拟购买德恒装备51%股权股票复牌,臻镭科技2025年净利润同比增长582.01%,*ST阳光申请撤销退市风险警示
Xin Lang Cai Jing· 2026-02-27 00:36
【隔夜行情】 【今日新股】 【中国AI调用量首超美国 四款大模型霸榜全球前五】2月26日,全球最大的AI模型API聚合平台 OpenRouter数据显示,9日-15日这周,中国模型以4.12万亿Token的调用量,首次超过同期美国模型的 2.94万亿Token。16日-22日这周,中国模型的周调用量进一步冲高至5.16万亿Token,三周大涨127%, 而同期美国模型调用量跌至2.7万亿Token。平台调用量排名前五的模型中,有四款来自中国厂商,分别 为MiniMax的M2.5、月之暗面的Kimi K2.5、智谱的GLM-5以及DeepSeek的V3.2。这四款模型合计贡献 了Top5总调用量的85.7%。值得注意的是,该平台的用户主要由海外开发者构成,其中美国用户占比高 达47.17%,而中国开发者仅占6.01%,这使得其榜单数据更能客观反映中国AI模型在全球范围内的真实 吸引力。 (每经网) •周四(2026年2月26日),A股市场三大指数集体收涨,截至收盘,沪指报3888.60点,涨0.34%;深证 成指报12984.08点,涨0.85%;创业板指报3052.59点,涨0.70%。总体来看,个股涨多跌少 ...
中国AI调用量首超美国 四款大模型霸榜全球前五
Mei Ri Jing Ji Xin Wen· 2026-02-26 11:44
2月,中国AI的模型调用量爆发式增长,首次超过美国。 全球最大的AI模型API聚合平台OpenRouter数据显示,9日~15日这周,中国模型以4.12万亿Token的调用量,首次超过同期美国模型的2.94万亿Token。 16日~22日这周,中国模型的周调用量进一步冲高至5.16万亿Token,三周大涨127%,而同期美国模型调用量跌至2.7万亿Token。与此同时,全球调用量 排名前五的模型中,中国模型占据四席,这股强大的增长动能,并非依赖单一爆款产品,而是中国AI厂商集群式崛起。 Token是AI模型处理文本的最小单位。相比用户数,Token调用量是更能真实反映AI模型使用强度、用户粘性及商业价值的关键指标。 中国模型厂商,正凭借快速迭代和成本优势占领全球市场,国产算力需求正经历指数级增长。 榜单洗牌:中国Token调用量首超美国,四款大模型霸榜 OpenRouter平台,汇聚了全球数百种大语言模型,拥有超过500万开发者用户,是目前全球最大的AI模型API聚合平台。因此,其API调用量数据被视为 洞察全球AI应用落地趋势最真实的"晴雨表",因为它直接反映了开发者"用脚投票"的选择,体现了模型在实际应用 ...
2月井喷!中国AI调用量首超美国 四款大模型霸榜全球前五 国产算力需求正经历指数级增长
Mei Ri Jing Ji Xin Wen· 2026-02-26 11:40
2月,中国AI的模型调用量爆发式增长,首次超过美国。 全球最大的AI模型API聚合平台OpenRouter数据显示,9日~15日这周,中国模型以4.12万亿Token的调用量,首次超过同期美国模型的2.94万亿Token。 16日~22日这周,中国模型的周调用量进一步冲高至5.16万亿Token,三周大涨127%,而同期美国模型调用量跌至2.7万亿Token。与此同时,全球调用量 排名前五的模型中,中国模型占据四席,这股强大的增长动能,并非依赖单一爆款产品,而是中国AI厂商集群式崛起。 Token是AI模型处理文本的最小单位。相比用户数,Token调用量是更能真实反映AI模型使用强度、用户粘性及商业价值的关键指标。 中国模型厂商,正凭借快速迭代和成本优势占领全球市场,国产算力需求正经历指数级增长。 榜单洗牌:中国Token调用量首超美国,四款大模型霸榜 OpenRouter平台,汇聚了全球数百种大语言模型,拥有超过500万开发者用户,是目前全球最大的AI模型API聚合平台。因此,其API调用量数据被视为 洞察全球AI应用落地趋势最真实的"晴雨表",因为它直接反映了开发者"用脚投票"的选择,体现了模型在实际应用 ...
2月井喷!中国AI调用量首超美国,四款大模型霸榜全球前五,国产算力需求正经历指数级增长
Mei Ri Jing Ji Xin Wen· 2026-02-26 11:35
16日~22日这周,中国模型的周调用量进一步冲高至5.16万亿Token,三周大涨127%,而同期美国模型调用量跌至2.7万亿Token。与此同时,全球调用量 排名前五的模型中,中国模型占据四席,这股强大的增长动能,并非依赖单一爆款产品,而是中国AI厂商集群式崛起。 Token是AI模型处理文本的最小单位。相比用户数,Token调用量是更能真实反映AI模型使用强度、用户粘性及商业价值的关键指标。 每经记者|宋欣悦 每经编辑|肖勇 王嘉琦 高涵 2月,中国AI的模型调用量爆发式增长,首次超过美国。 全球最大的AI模型API聚合平台OpenRouter数据显示,9日~15日这周,中国模型以4.12万亿Token的调用量,首次超过同期美国模型的2.94万亿Token。 中国模型厂商,正凭借快速迭代和成本优势占领全球市场,国产算力需求正经历指数级增长。 榜单洗牌:中国Token调用量首超美国,四款大模型霸榜 OpenRouter平台,汇聚了全球数百种大语言模型,拥有超过500万开发者用户,是目前全球最大的AI模型API聚合平台。因此,其API调用量数据被视为 洞察全球AI应用落地趋势最真实的"晴雨表",因为它直接反映 ...
DeepSeek更新后被吐槽变冷变傻:比20年前的青春伤感文学还让人尴尬!业内人士:这一版本类似于极速版,牺牲质量换速度
Mei Ri Jing Ji Xin Wen· 2026-02-12 16:42
Core Insights - DeepSeek has initiated a gray testing phase for its flagship model, allowing for a context length of up to 1 million tokens, significantly expanding from the previous 128K tokens in version 3.1 released in August last year [1][6] - User feedback indicates a shift in the model's interaction style, with complaints about a perceived loss of personality and warmth in responses, leading to a trending topic on social media regarding the model's "coldness" [1][4] - The upcoming version 4 of DeepSeek is expected to be released in mid-February 2026, with the current version being a speed-optimized iteration that sacrifices some quality for performance testing [6] User Experience - Users have reported that the model now refers to them as "users" instead of personalized nicknames, which has led to dissatisfaction regarding the emotional engagement of the model [4][5] - Some users feel that the model has become overly objective and rational, while others appreciate the increased focus on the user's psychological state rather than just the questions posed [5] Technical Developments - DeepSeek's V-series models are designed for optimal performance, with the V3 model marking a significant milestone due to its efficient MoE architecture [6][7] - Recent innovations include the mHC architecture for optimizing information flow in deep Transformers and the Engram memory module, which separates static knowledge from dynamic computation, reducing costs for long-context reasoning [7]
DeepSeek上新mHC,R2还远吗?
Tai Mei Ti A P P· 2026-01-04 06:05
Core Insights - DeepSeek has introduced a new neural network architecture optimization called mHC (Manifold-Constrained Hyper-Connections), which is expected to significantly impact the AI industry, including large models and chips [1][5][9] Group 1: mHC Architecture - The mHC architecture builds on the Hyper-Connections (HC) framework released by the Byte Bean team in November 2024, aiming to replace the nearly decade-old ResNet architecture [5] - mHC introduces a Manifold-Constrained approach using the Sinkhorn-Knopp algorithm to stabilize signal propagation during training, addressing issues of signal explosion and instability in large model training [5][6] - In training demonstrations with 27 billion parameters, mHC maintained a signal amplification of only 1.6 times, while HC experienced a catastrophic failure with a 3000 times amplification [6][8] Group 2: Performance and Efficiency - mHC shows a significant reduction in training loss and improved performance on challenging tasks, with over 2% enhancement in reasoning and reading comprehension benchmarks compared to traditional architectures [6][8] - The additional training time overhead for mHC, even with a fourfold expansion of residual channels, is only 6.7%, indicating a focus on cost-effectiveness and efficiency [8] Group 3: Industry Impact and Reactions - The release of mHC has sparked high discussion levels among researchers and industry professionals, with expectations of a paradigm shift in large model architectures by 2026 [9][10] - Competitors are already responding, with new architectures like Deep Delta Learning emerging shortly after mHC's announcement, indicating a potential chain reaction in AI architecture development [9][10] - Analysts predict that DeepSeek may make significant announcements around the Lunar New Year, potentially unveiling the long-awaited R2 model or a faster universal model V4 [10] Group 4: Compatibility and Market Dynamics - mHC's architecture is primarily designed for NVIDIA's supernode links, raising concerns about compatibility with domestic chips, which may require enhanced adaptation efforts [11] - As U.S. AI chip manufacturers gradually exit the Chinese market due to geopolitical factors, domestic chipmakers are accelerating their development and ecosystem building to adapt to DeepSeek's models [12]