Workflow
闭源模型
icon
Search documents
阿里巴巴,突发利好!
Zhong Guo Ji Jin Bao· 2025-12-10 15:54
【导读】 扎克伯格使用阿里千问优化Meta新AI模型 中国基金报记者 泰勒 大家好,简单关注一下国产AI大模型的一则利好。 12月10日晚间,阿里巴巴美股盘前突然直线拉升,正式开盘后,维持2%左右的涨幅。 | 最高:160.74 | 今开:159.64 | 成交量:414.83万股 | 换手:0.17% | | --- | --- | --- | --- | | 最低:158.41 | 昨收:155.96 | 成交额:6.61亿 | 振幅:1.49% | | 52周最高: 192.67 | 量比:6.28 | 市盈率(TTM): 21.81 | 市净率:2.61 | | 52周最低: 79.43 | 委比: 0.00% | 市盈率(静): 20.67 | 市销率:2.50 | | 每股收益:7.32 | 股息(TTM): 2.00 | 每手股数:1 | 总市值:3808.25亿 | | 每股净资产:7.66 | 股息率(TTM): 1.28% | 最小价差:0.01 | 总股本:23.86亿 | | 机构持股: -- | Beta: -- | 空头回补天数:一 | 货币单位:USD | | | AND THE ...
阿里巴巴 突发利好!
Zhong Guo Ji Jin Bao· 2025-12-10 15:49
据知情人士透露,一款代号为"Avocado"的新模型预计将在明年春天亮相,且很可能会以"闭源"模型的 形式推出——一种可以被严格控制、并由Meta对外出售使用权的模型。这一做法与竞争对手谷歌和 OpenAI的路线一致,将成为与Meta多年来大力宣扬的开源战略迄今为止最大的一次背离。开源模型允 许外部开发者和研究人员审查并在代码基础上进行二次开发。据这些知情人士说,Meta新任首席AI官 Alexandr Wang倾向于支持闭源模型。 今年早些时候,在Meta发布了开源模型Llama 4之后,公司的战略出现了重大转向。Llama 4的表现让硅 谷和扎克伯格都感到失望。扎克伯格把部分参与该项目的人边缘化,同时亲自出面挖角顶尖的AI研究 人员和负责人,有些人拿到了数亿美元级别、为期多年的薪酬方案,现在,扎克伯格把大量时间和精力 花在和这些新加入的人密切合作上,他们被集中到一个名为TBD Lab的团队中。 据知情人士透露,TBD Lab在训练Avocado的过程中,正在使用多家第三方模型,从包括谷歌的 Gemma、OpenAI的gpt-oss以及阿里巴巴集团旗下的通义千问(Qwen)等竞争对手模型中进行"蒸馏"。 用 ...
阿里巴巴,突发利好!
中国基金报· 2025-12-10 15:44
【导读】 扎克伯格使用阿里千问优化Meta新AI模型 中国基金报记者 泰勒 大家好,简单关注一下国产AI大模型的一则利好。 12月10日晚间,阿里巴巴美股盘前突然直线拉升,正式开盘后,维持2%左右的涨幅。 | 最高: 160.74 | 今开:159.64 | | --- | --- | | 最低:158.41 | 昨收:155.96 | | 52周最高: 192.67 | 量比: 6.28 | | 52周最低: 79.43 | 委比:0.00% | | 每股收益:7.32 | 股息(TTM): 2.00 | | 每股净资产:7.66 | 股息率(TTM): 1.28% | | 机构持股: -- | Beta: -- | 编辑:杜妍 校对:纪元 审核:陈思扬 | 量: 414.83万股 | 换手: 0.17% | | --- | --- | | 额:6.61亿 | 振幅:1.49% | | 率(TTM): 21.81 | 市净率:2.61 | | 率(静): 20.67 | 市销率:2.50 | | 般数:1 | 总市值:3808.25亿 | | 价差:0.01 | 总股本:23.86亿 | | 回补天数: - ...
Meta全力转向闭源模型:引入谷歌、OpenAI及阿里技术成果
Xin Lang Cai Jing· 2025-12-10 14:52
知情人士表示,TBD Lab在Avocado模型的训练过程中,引入了多款第三方模型的技术成果,对包括谷 歌的Gemma模型、OpenAI的gpt-oss,以及阿里巴巴的通义千问(Qwen)模型在内的竞品技术进行了 提炼整合。 Meta的发言人对此事拒绝置评。 据知情人士透露,一款代号为Avocado的全新模型预计将于明年春季正式推出,且大概率会以闭源模式 面市 —— 这种模式下模型可被严格管控,Meta能够通过授权使用的方式进行销售。此举与竞争对手谷 歌(Google)和OpenAI的模型运营策略一致,也标志着Meta彻底背离其多年来标榜的开源战略。开源 模型允许外部开发者与研究人员查看代码,并在此基础上进行二次开发。知情人士补充称,Meta新任 人工智能首席官Alexandr Wang是闭源模型的坚定支持者。 今年早些时候,Meta推出开源模型Llama 4,但这款产品的表现令硅谷业界及扎克伯格本人均倍感失 望,公司的人工智能战略也由此发生重大转向。扎克伯格不仅将该项目的部分核心成员调离核心岗位, 还亲自出面招揽顶尖人工智能研究人才与团队负责人,为部分人选开出了数亿美元的多年期薪酬方案。 其中,Alexan ...
20个企业级案例揭示Agent落地真相:闭源模型吃掉85%,手搓代码替代LangChain
3 6 Ke· 2025-12-10 12:12
加州大学伯克利分校(UC Berkeley)刚刚发布了一份重磅论文:《Measuring Agents in Production》。 (论文地址:https://arxiv.org/pdf/2512.04123) 这份论文,基于来自全球的真实请求:306名从业者深度调研,20个企业级部署案例,覆盖 26 个行业。 这是AI Agent 领域,迄今最大规模的实证研究。 最核心的三个信息: 这份报告信息非常多,容我慢慢道来。 73%为生产力买单,金融成Agent 第一战场 先说一个数字: 73%的从业者表示,部署Agent的首要目的是"提高生产力"。 其中,金融与银行业是第一大战场,占比39.1% 其次是科技(24.6%)和企业服务(23.2%) 。 除了这些,Agent 还在很多意想不到的地方落地: 保险理赔流程自动化:代理人负责处理从保单查询到风险识别的序列排序流程。 生物医学工作流自动化:在科学发现领域,Agent 用于自动化执行复杂的实验和数据分析流程。 企业内部运营支持:涵盖人力资源信息搜索、站点故障事件诊断等多个方面。 这些跨行业的成功案例证明,AI Agent已经具备解决真实世界复杂问题的能力,并 ...
AI泡沫要破?巨佬颠覆认知的观点来了!
Ge Long Hui· 2025-12-04 07:29
大模型的决战越来越激烈了!谷歌的崛起令OpenAI感到恐惧,并酝酿新的大动作! OpenAI直接拉响警报,推迟赚钱的广告业务,也要把所有资源梭哈到ChatGPT的改进上。 现在的AI圈子,像是星球大战前夜,由于恐惧,每个人都把手指扣在了扳机上。 兵荒马乱的年代,蔡崇信在香港大学炉边对话中,抛出了非常反直觉的观点: 现在美国人定义谁赢得AI竞赛的方式,纯粹是看大型语言模型,我们不看美国定义的AI竞赛。 当所有人都在盯着谁的模型参数大、谁的算力强时,蔡崇信却认为——胜负手根本不在这里。 如果不看模型,这场万亿赌局的赢家到底看什么?中国手里到底还有没有牌? 看完发现,原来大佬眼里的世界,和我们看到的完全不一样。 1 中国AI的真正优势 现在美国硅谷大模型怎么算输赢?很简单:看谁的"大语言模型"更强、更聪明、参数更多。 今天是OpenAI遥遥领先,明天Anthropic发个新版本追平,后天谷歌又搞个大新闻。大家都在卷模型, 仿佛谁的模型智商高了一点,谁就统治了世界。 但在蔡崇信看来,事实未必如此。 他在演讲中说了这么一句极具穿透力的话: "The winner is not about who has the bes ...
闭源越跑越快之后,DeepSeek V3.2 如何为开源模型杀出一条新路
深思SenseAI· 2025-12-03 09:51
过去一年多里, 大多数权威评测仍然在反复强调同一件事:在最前沿的综合能力上,闭源模型的曲线更陡,开源想在所有维度上追平变得越来越难。 DeepSeek 在技术报告中也承认:开源社区在进步,但 Anthropic 、 Gemini 、 OpenAI 这些闭源模型的性能曲线更陡,差距其实在拉大。在复杂任务上,闭源 系统展现出越来越明显 的优势。 目前开源模型有三个关键问题 : 1. 首先,在架构层面,当前主流仍高度依赖 Vanilla Attention 机制,这在 长序列场景 下会严重限制计算效率。这种低效对模型的 大规模部署 以及有效的后训 练都构成了实质性障碍。 2. 其次,在资源投入上,开源模型在 后训练 阶段普遍面临 算力投入不足 的问题,从而限制了其在高难度任务上的表现。 3. 最后,在 AI Agent 场景中,相比于闭源系统,开源模型在 泛化能力 与 指令跟随能力 方面存在显著滞后,这削弱了其在真实部署中的有效性。 12月1 号, DeepSeek 发布了两款新模型: DeepSeek V3.2 和 DeepSeek V3.2 Speciale ,针对这三个问题, 提出了三个改进 : 1. 引入了 ...
DeepSeek杀出一条血路:国产大模型突围不靠运气
3 6 Ke· 2025-12-03 03:21
进入2025年末,全球大模型赛道的技术焦点几乎被Google重新夺回。Gemini 3 Pro横空出世,在多个权 威基准上超越所有开源模型,重新确立了闭源阵营的技术高地。一时间,业内关于"开源模型是否已到 极限""Scaling Law是否真的撞墙"的质疑声再起,一股迟滞情绪在开源社区弥漫。 但就在此时,DeepSeek没有选择沉默。12月1日,它一口气发布了两款重磅模型:推理性能对标GPT-5 的DeepSeek-V3.2,以及在数学、逻辑和多轮工具调用中表现异常强势的Speciale版本。这不仅是对技术 能力的集中展示,也是在当前算力资源并不占优的前提下,对闭源"新天花板"的正面回应。 这不是一次简单的模型更新。DeepSeek试图在后Scaling时代找出一条全新路径:如何用架构重塑弥补 预训练差距?如何通过"工具使用中的思考链"实现低token高效率的智能体表现?更关键的是,Agent为 何从附属功能变成了模型能力跃迁的核心引擎? 本文将围绕这三条主线展开分析:DeepSeek是如何在技术瓶颈下突破的?为何率先在开源阵营中重注 Agent?而这是否意味着,开源模型仍有穿透闭源护城河的那条路? 这背后的 ...
开源最强!“拳打GPT 5”,“脚踢Gemini-3.0”,DeepSeek V3.2为何提升这么多?
华尔街见闻· 2025-12-02 04:21
Core Insights - DeepSeek has released two official models, DeepSeek-V3.2 and DeepSeek-V3.2-Speciale, with the former achieving performance levels comparable to GPT-5 and the latter winning gold medals in four international competitions [1][3]. Model Performance - DeepSeek-V3.2 has reached the highest level of tool invocation capabilities among current open-source models, significantly narrowing the gap with closed-source models [2]. - In various benchmark tests, DeepSeek-V3.2 achieved a 93.1% pass rate in AIME 2025, closely trailing GPT-5's 94.6% and Gemini-3.0-Pro's 95.0% [20]. Training Strategy - The model's significant improvement is attributed to a fundamental change in training strategy, moving from a simple "direct tool invocation" to a more sophisticated "thinking + tool invocation" mechanism [9][11]. - DeepSeek has constructed a new large-scale data synthesis pipeline, generating over 1,800 environments and 85,000 complex instructions specifically for reinforcement learning [12]. Architectural Innovations - The introduction of the DeepSeek Sparse Attention (DSA) mechanism has effectively addressed efficiency bottlenecks in traditional attention mechanisms, reducing complexity from O(L²) to O(Lk) while maintaining model performance [6][7]. - The model's architecture allows for better context management, retaining relevant reasoning content during tool-related messages, thus avoiding inefficient repeated reasoning [14]. Competitive Landscape - The release of DeepSeek-V3.2 signals a shift in the competitive landscape, indicating that the absolute technical monopoly of closed-source models is being challenged by open-source models gaining first-tier competitiveness [20][22]. - This development has three implications: lower costs and greater customization for developers, reduced reliance on overseas APIs for enterprises, and a shift in the industry focus from "who has the largest parameters" to "who has the strongest methods" [22].
DeepSeek又上新!模型硬刚谷歌 承认开源与闭源差距拉大
Di Yi Cai Jing· 2025-12-01 23:13
Core Insights - DeepSeek has launched two new models, DeepSeek-V3.2 and DeepSeek-V3.2-Speciale, which are positioned to compete with leading proprietary models like GPT-5 and Gemini 3.0, showcasing significant advancements in reasoning capabilities [1][4]. Model Overview - DeepSeek-V3.2 aims to balance reasoning ability and output length, making it suitable for everyday applications such as Q&A and general intelligence tasks. It has achieved performance levels comparable to GPT-5 and is slightly below Google's Gemini 3 Pro in public reasoning tests [4]. - DeepSeek-V3.2-Speciale is designed to push the limits of reasoning capabilities, integrating enhanced long-thinking features and theorem-proving abilities from DeepSeek-Math-V2. It has surpassed Gemini 3 Pro in several reasoning benchmarks, including prestigious math competitions [4][5]. Benchmark Performance - In various benchmarks, DeepSeek models have shown competitive results: - AIME 2025: DeepSeek-V3.2 scored 93.1, while GPT-5 and Gemini-3.0 scored 94.6 and 95.0 respectively [5]. - Harvard MIT Math Competition: DeepSeek-V3.2-Speciale scored 92.5, outperforming Gemini 3 Pro's 97.5 [5]. - International Math Olympiad: DeepSeek-V3.2-Speciale scored 78.3, close to Gemini 3 Pro's 83.3 [5]. Limitations and Future Plans - Despite these achievements, DeepSeek acknowledges limitations compared to proprietary models, including narrower world knowledge and lower token efficiency. The team plans to enhance pre-training and optimize reasoning chains to improve model performance [6][7]. - DeepSeek has identified three key areas where open-source models lag behind proprietary ones: reliance on standard attention mechanisms, insufficient computational resources during post-training, and gaps in generalization and instruction-following capabilities [7]. Technological Innovations - DeepSeek has introduced a sparse attention mechanism (DSA) to reduce computational complexity without sacrificing long-context performance. This innovation has been integrated into the new models, contributing to significant performance improvements [7]. Availability - The official website, app, and API for DeepSeek-V3.2 have been updated, while the enhanced Speciale version is currently available only through a temporary API for community evaluation [8]. Community Reception - The release has been positively received in social media, with users noting that DeepSeek's models have effectively matched the capabilities of GPT-5 and Gemini 3 Pro, highlighting the importance of rigorous engineering design over sheer parameter size [9].