Workflow
量子位
icon
Search documents
这个AI炒股年化收益27.75%!用自进化Agent挖掘穿越牛熊的量化因子
量子位· 2026-02-11 12:49
上财团队 投稿 量子位 | 公众号 QbitAI 在量化金融的底层,Alpha因子本质上是一段可执行的代码逻辑,它们试图将嘈杂的市场数据映射为精准的交易信号。然而,长期以来,自 动化因子挖掘始终被困在"两难"的夹缝中:传统的遗传规划 (Genetic Programming,GP) 虽然擅长在海量空间中进行进化搜索,但其 本质是"盲目的随机变异"。 它们在回测中过度拟合了历史噪声,却在逻辑上极难解释,如同一个充满巧合的黑盒。而新兴的大语言模型 (LLM) 虽然具备强大的语义 理解能力,能像人类一样读懂金融理论,但在处理高精度的量化逻辑时,却容易陷入"语义漂移"与"幻觉"。生成的代码往往语法完美,但在 经济学逻辑上支离破碎,甚至不仅无法复现,更难以在实盘中生存。 这引发了一个根本性的思考: 我们能否构建一个智能体,既拥有机器般不知疲倦的进化探索能力,又具备人类程序员般严谨的逻辑控制 力? 正是在这一背景下,QuantaAlpha团队联合上海财经大学AIFin Lab等机构,提出了 QuantaAlpha 框架:一种全新的自进化Agent Alpha 因子挖掘框架。 核心框架解析:基于轨迹的自进化范式 Quant ...
量子位编辑作者招聘
量子位· 2026-02-11 12:49
AI热潮还在汹涌,但如果你还不知道如何参与……那为什么不来 量子位 呢? 我们是一家以 追踪AI新进展 为核心的内容平台,经过8年积累,目前拥有顶流影响力,广泛且备受认可的产业资源,以及时代风口的最佳观 测和学习生态位。 目前,我们有 三大方向 岗位招聘,希望你是 (或者能成为) 这三个方向的内容专家: 岗位均为全职,工作地点:北京中关村。 岗位面向: 加入我们,你可以获得: 以下是岗位详情: 所有岗位不同能力层级职位均在开放,欢迎结合个人履历和经验申请。 AI产业方向 编辑部 发自 凹非寺 量子位 | 公众号 QbitAI 岗位职责: 任职要求: 岗位职责: AI产业方向 :关注基建层创新,包含芯片、AI Infra、云计算; AI财经方向 :关注AI领域创投和财报,跟踪产业链资本动向; AI产品方向 :关注AI在应用和硬件终端方向的进展。 社招:覆盖编辑、主笔、主编各个层级,按能力匹配岗位; 校招:应届毕业生,接受实习且可转正。 站在AI浪潮之巅 :第一时间接触和了解AI领域最新技术和产品,构建完整的AI认知体系。 玩转AI新工具 :将各种AI新技术、新工具应用于工作,提升工作效率和创造力。 打造个人影响 ...
智谱开源OCR!测完我把手机里的扫描软件都卸了......
量子位· 2026-02-11 12:49
梦瑶 发自 凹非寺 量子位 | 公众号 QbitAI OCR模型究竟能干什么?干得怎么样? 2025年末2026年年初,科技圈最卷的技术无疑就是——O!C!R! 这不,就在前两天,智谱也下场整活儿了,发布了自家的 「GLM-OCR」 开源模型~ 别看参数就0.9B,在OmniDocBench V1.5榜单上可是一通乱杀。 拳打Gemini-3-Pro!脚踢GPT5.2!(开玩笑 在手写体、代码文档、印章识别、跨单元格等场景的性能表现直通SOTA: | | GLM-OCR | PaddleOCR | Deepseek- | MinerU2.5 | dots.ocr | Gemini-3- | GPT-5.2-20 | | --- | --- | --- | --- | --- | --- | --- | --- | | | | -VL-1.5 | OCR2 | | | Pro | 25-12-11 | | | OCR 专项 | OCR 专项 | OCR 专项 | OCR 专项 | OCR 专项 | 通用大模型 | 通用大模型 | | 文档解析 | | | | | | | | | OmniDocBench v1. ...
9B端侧开源模型跑通百万上下文,面壁全新稀疏-线性混合注意力架构SALA立功了!
量子位· 2026-02-11 12:49
henry 发自 凹非寺 量子位 | 公众号 QbitAI 最强的大模型,已经把scaling卷到了一个新维度: 百万级上下文 。 几天前,Claude Opus 4.6发布,让人第一次真切感受到了百万上下文的涌现能力—— 单次吃进50万字中文内容、实现跨文档法律分析、多轮Agent规划…… 此情此景,用户火速用脚投票,华尔街更是直接给出K线回应。 与此同时,基于SALA注意力架构的模型 MiniCPM-SALA 也将一并开源。 除此之外,面壁还以OpenBMB社区名义,联合SGLang与NVIDIA发起 2026稀疏算子加速大奖赛(SOAR) ,将这套scaling能力直接交到 开发者手中,推动端侧Agent部署的性能突破。 Linear-Sparse混合注意力架构 太长不看,咱直接说重点—— 面壁这次全新的 线性与稀疏注意力混合架构SALA(Sparse Attention-Linear Attention,SALA) ,究竟是怎么个混合法呢? 简单来说,这套架构将 75%线性注意力(Lightning Attention) 与 25%稀疏注意力(InfLLM v2) 结合,并通过 混合位置编码HyPE ...
马斯克xAI雪崩!24小时两联创离职,一月内连失三位华人创始人,12人梦之队只剩一半
量子位· 2026-02-11 04:10
梦晨 发自 凹非寺 量子位 | 公众号 QbitAI 24小时内,马斯克的xAI连失两位华人联合创始人。 xAI联合创始人 吴宇怀 (Tony Wu)和 Jimmy Ba 先后在社交平台上宣布离职。 而就在一个月前,另一位华人联合创始人 杨格 (Greg Yang)刚刚因病退出。 三位华人核心科学家,一个月内全部离开。算上此前已出走的三人,xAI成立不到三年,最初12人创始团队已走6人。 同时,一些后加入的核心成员,也纷纷宣布离职。 马斯克的AI团队,发生了什么? 一月三别:从因病退出到师徒接连告别 这一波离职潮最先离开的是 杨格 。 2026年1月,这位Grok核心架构师宣布,自己被诊断出患有 莱姆病 (Lyme disease) ,不得不退出日常工作,转为公司的非正式顾问。 杨格拥有哈佛大学数学系学位, 师从著名数学家丘成桐 ,曾是微软研究院的研究员。 他在声明中解释自己可能早已感染此病,但在xAI创立期间的 "长期高强度工作"和"把自己逼得太狠" 导致免疫系统受损,最终使病情显现和 恶化。 紧接着是 吴宇怀 。2月10日,他在X平台上发布离职声明: 是时候开启我的下一章了,这是一个充满可能性的时代:一个 ...
超越CLIP!北大开源细粒度视觉识别大模型,每类识别训练仅需4张图像
量子位· 2026-02-11 01:55
Core Viewpoint - The article discusses the limitations of current multimodal large models in fine-grained visual recognition tasks and introduces the Fine-R1 model developed by Professor Peng Yuxin's team at Peking University, which significantly improves recognition accuracy with minimal training data [1][2][5]. Group 1: Fine-Grained Visual Recognition Challenges - Current multimodal large models excel in complex tasks but lag in fine-grained visual recognition compared to their visual encoders like CLIP [1]. - Real-world objects exhibit fine-grained characteristics, with numerous subclasses, such as over 500 types of fixed-wing aircraft, highlighting the importance of fine-grained recognition in practical applications [3]. Group 2: Fine-R1 Model Overview - The Fine-R1 model aims to leverage the rich knowledge of fine-grained subclasses and a generative decoding paradigm to overcome the limitations of traditional recognition methods, enabling fine-grained recognition of any visual object in an open domain [5]. - Fine-R1 enhances the model's ability to reason about unseen subclasses using a small number of training images (only 4 per subclass), outperforming models like OpenAI's CLIP and Google's DeepMind's SigLIP [5][15]. Group 3: Model Development Process - The development of Fine-R1 involves two main steps: 1. Chain-of-thought supervised fine-tuning, which simulates human reasoning to build inference capabilities [7]. 2. Triplet enhancement strategy optimization, which improves robustness to intra-class variations and inter-class distinctions by using positive and negative samples [8][10]. Group 4: Experimental Results - Fine-R1's performance was evaluated on six authoritative fine-grained image classification datasets, demonstrating superior accuracy in both seen and unseen categories compared to other models [15][17]. - The model's ability to utilize fine-grained subclass knowledge effectively was identified as the primary factor for its improved recognition accuracy, rather than enhancements in visual representation or knowledge storage [19]. Group 5: Conclusion and Future Work - The article concludes with the potential of Fine-R1 to excel in fine-grained visual recognition tasks, emphasizing its innovative approach to reasoning and knowledge application [21]. - The research has been accepted for ICLR 2026 and the code is open-sourced for further exploration [2][22].
小众架构赢麻了!通过编辑功能让100B扩散模型飙出892 tokens/秒的速度!
量子位· 2026-02-11 01:55
金磊 发自 凹非寺 量子位 | 公众号 QbitAI 谁能想到啊,在自回归模型(Autoregressive,AR)当道的现在,一个 非主流架构 的模型突然杀了回马枪—— 被长期视为学术玩具的 扩散语言模型 ,直接在复杂编程任务中飙出了 892 tokens/秒 的速度! 你没看错,当主流大模型还在以几十token的速度逐字蹦词时,这个非主流模型已经在100B参数规模上,跑出了如此的速度。 而这一次,LLaDA2.1的诞生,标志着这个路线的历史性转折。它不再只是一个"学术研究",而是 真正可用 、甚至 在效率上更为优越 的强 大工具。 那么在整个行业都在卷更大的自回归模型时,蚂蚁到底是怎么低调修了另一条"能跑通的高速公路"的? 接下来,我们就再一起扒一扒这个非共识技术背后的原理。 怎么做到的? 2025年,蚂蚁集团资深技术专家 赵俊博 曾经带着LLaDA2.0登上量子位MEET大会的舞台,而如今,他们的最新版本LLaDA2.1来了,蚂 蚁技术研究院重磅开源! 三个月前,在LLaDA2.0时代,这更多是一个充满挑战的研究性模型。 在深入技术之前,我们先得聊聊为什么现在的ChatGPT、Claude们总是慢条斯理 ...
人类画了100年的脑图,AI仅用几小时!还绘制出新脑区
量子位· 2026-02-10 11:59
听雨 发自 凹非寺 量子位 | 公众号 QbitAI 好消息,AI也可以帮科学家画脑图了! 近期,一个来自加州大学旧金山分校的神经科学团队提出了一种新的机器学习算法—— CellTransformer ,仅 花费几个小时 就完成了对5 只小鼠大脑图谱的分类和绘制工作。 这五只小鼠大脑的基因数据中包含1040万个细胞,每个细胞包含数百个基因。但通过这一创新性算法,研究团队不仅清晰地划分出了小鼠大 脑内的已知区域,还 绘制出了新的脑区 。 更夸张的是,这项技术很可能会进一步 应用于人类 。 画脑图的最新黑科技:CellTransformer 大脑图谱绘制是一门古老的学科,过去画脑图的方法相当复杂,需要科学家用铅笔在脑部图像上画线,连接不同区域。 2020年发布的艾伦小鼠脑通用坐标框架 (Allen Mouse Brain Common Coordinate Framework), 就是采用这种方法画出来的。 这幅脑图基于1675只小鼠的脑部数据,涵盖了1000多个不同的脑区,具有很高的价值。 但这类手工特征很强的图谱也不可避免地存在一个问题: 具有主观性 。 宾夕法尼亚州立大学医学院的神经解剖学家金永洙 (Yon ...
中文版Nano Banana来了?Qwen-Image-2.0炸场:1K长文本硬吃,中文生图彻底不拧巴了
量子位· 2026-02-10 11:59
梦瑶 发自 凹非寺 量子位 | 公众号 QbitAI 文本一长就糊、指令一杂就撂挑子、遇到中文更是一整个变形freestyle…… 「AI生图」的这点苦,到底有谁懂啊!!! 停,不用拧巴了,因为现在的AI,已经能稳稳吃下 1K token 的超长文字指令了: 复杂指令 也不在怕的,最近OpenClaw贼火,我索性让AI直接帮roll出一个赛博信息图海报(你就说牛不牛吧): 中文渲染 表现也不孬,《兰亭集序》这种公认的高难度文本,这AI居然能做到文字1:1还原,排版、笔锋都在线: 你以为到这儿就结束了,NONONO!因为它还能—— 多图编辑 。 随手丢给了它一张照片,人家直接给我甩出一组影棚级的9宫格写真!!(诶,突然感觉怒省一笔钱… 刚才帮我干活的这位,正是阿里刚刚发布的新一代图像生成及编辑模型—— Qwen-Image-2.0 。 1K token长文本、复杂指令、中文渲染、图片编辑、2K分辨率一次 性梭哈,连国际评测里的表现都已经冲到了仅次于Nano Banana Pro的 位置。 在AI生图界,最让人崩溃的倒不是写Prompt词,而是写了太多,AI根本不吃消,好的提示词真无!处!施!展! 不知道千问团队 ...
蚂蚁投了一家上海具身智能公司
量子位· 2026-02-10 07:00
被投公司名为 大晓机器人 ,一家成立不久却在学术圈和产业界同时引发关注的新玩家。 该公司最重要的两位灵魂人物,分别是董事长王晓刚,以及首席科学家陶大程。 过去一年,具身智能从概念讨论迅速转入资本与工程同时加速的阶段。 量子位智库在《2025年度具身智能创业投融资全景报告》中统计,2025年全年,具身智能赛道投资事件数从上一年的173起跃升至447起, 全年涌入资金规模从137亿元增长至554亿元,事件数与资金规模的同比增幅分别超过250%和400%。 当这一趋势延续到新一年,2026年的热闹几乎没有悬念。 大晓机器人显然成为了这个开场的主角之一。 大晓机器人完成天使轮融资 大晓机器人宣布,已于近期完成天使轮融资。 衡宇 发自 凹非寺 量子位 | 公众号 QbitAI 马年新春在即,具身智能赛道的投融资事件仍然马不停蹄。 量子位获悉, 蚂蚁集团 刚刚完成了对一家上海具身智能创业公司的领投。这也是蚂蚁在2026年公开披露的第一笔具身智能方向投资。 本轮融资由蚂蚁集团领投,启明创投、金景资本、弘毅投资、联想创投、上海交大母基金菡源资产等机构跟投,老股东商汤国香资本持续增 资。 整体股东阵容横跨互联网平台、产业资本、 ...