Workflow
机器学习
icon
Search documents
机器学习因子选股月报(2025年12月)-20251128
Southwest Securities· 2025-11-28 07:02
Quantitative Models and Construction Methods - **Model Name**: GAN_GRU **Model Construction Idea**: The GAN_GRU model combines Generative Adversarial Networks (GAN) for processing volume-price sequential features and Gated Recurrent Unit (GRU) for encoding sequential features to construct a stock selection factor [4][13] **Model Construction Process**: 1. **GRU Model**: - The GRU model is based on 18 volume-price features, including closing price, opening price, trading volume, turnover rate, etc. [14][17][19] - Training data includes the past 400 days of volume-price features for all stocks, with feature sampling every 5 trading days. The feature sampling shape is 40x18, using the past 40 days' features to predict the cumulative return over the next 20 trading days [18] - Data processing includes outlier removal and standardization for each feature in the time series and cross-sectional standardization at the stock level [18] - The model structure includes two GRU layers (GRU(128, 128)) followed by an MLP (256, 64, 64). The final output, predicted return (pRet), is used as the stock selection factor [22] - Training is conducted semi-annually, with training points on June 30 and December 31 each year. The training set and validation set are split in an 80:20 ratio [18] - Hyperparameters: batch_size equals the number of cross-sectional stocks, optimizer is Adam, learning rate is 1e-4, loss function is IC, early stopping rounds are 10, and maximum training rounds are 50 [18] 2. **GAN Model**: - The GAN model consists of a generator (G) and a discriminator (D). The generator learns the real data distribution and generates realistic samples, while the discriminator distinguishes between real and generated data [23][24] - Generator loss function: $$L_{G} = -\mathbb{E}_{z\sim P_{z}(z)}[\log(D(G(z)))]$$ where \(z\) represents random noise, \(G(z)\) is the generated data, and \(D(G(z))\) is the discriminator's output probability for the generated data [24][25] - Discriminator loss function: $$L_{D} = -\mathbb{E}_{x\sim P_{data}(x)}[\log D(x)] - \mathbb{E}_{z\sim P_{z}(z)}[\log(1-D(G(z)))]$$ where \(x\) is real data, \(D(x)\) is the discriminator's output probability for real data, and \(D(G(z))\) is the discriminator's output probability for generated data [27][29] - The generator uses an LSTM model to retain the sequential nature of input features, while the discriminator employs a CNN model to process the two-dimensional volume-price sequential features [33][37] **Model Evaluation**: The GAN_GRU model effectively captures volume-price sequential features and demonstrates strong predictive power for stock selection [4][13][22] Model Backtesting Results - **GAN_GRU Model**: - IC Mean: 0.1131*** - ICIR (non-annualized): 0.90 - Turnover Rate: 0.83 - Recent IC: 0.1241*** - One-Year IC Mean: 0.0867*** - Annualized Return: 37.52% - Annualized Volatility: 23.52% - IR: 1.59 - Maximum Drawdown: 27.29% - Annualized Excess Return: 23.14% [4][41][42] Quantitative Factors and Construction Methods - **Factor Name**: GAN_GRU Factor **Factor Construction Idea**: The GAN_GRU factor is derived from the GAN_GRU model, leveraging GAN for volume-price sequential feature processing and GRU for sequential feature encoding [4][13] **Factor Construction Process**: - The factor is constructed using the predicted return (pRet) output from the GAN_GRU model. The factor undergoes industry and market capitalization neutralization, as well as standardization [22] **Factor Evaluation**: The GAN_GRU factor demonstrates robust performance across various industries and time periods, with significant IC values and excess returns [4][13][41] Factor Backtesting Results - **GAN_GRU Factor**: - IC Mean: 0.1131*** - ICIR (non-annualized): 0.90 - Turnover Rate: 0.83 - Recent IC: 0.1241*** - One-Year IC Mean: 0.0867*** - Annualized Return: 37.52% - Annualized Volatility: 23.52% - IR: 1.59 - Maximum Drawdown: 27.29% - Annualized Excess Return: 23.14% [4][41][42] Industry-Specific Performance - **Recent IC Rankings (Top 5 Industries)**: - Social Services: 0.2198*** - Real Estate: 0.2027*** - Steel: 0.1774*** - Non-Bank Financials: 0.1754*** - Coal: 0.1537*** [4][41][42] - **One-Year IC Mean Rankings (Top 5 Industries)**: - Non-Bank Financials: 0.1401*** - Steel: 0.1367*** - Retail: 0.1152*** - Textiles & Apparel: 0.1124*** - Utilities: 0.1092*** [4][41][42] - **Recent Excess Return Rankings (Top 5 Industries)**: - Environmental Protection: 7.24% - Machinery: 4.37% - Real Estate: 4.03% - Textiles & Apparel: 3.89% - Building Materials: 2.91% [4][45][46] - **One-Year Average Excess Return Rankings (Top 5 Industries)**: - Building Materials: 2.15% - Real Estate: 1.97% - Social Services: 1.77% - Textiles & Apparel: 1.71% - Retail: 1.62% [4][45][46]
亚马逊研究奖获奖名单出炉:王晋东等26位华人入选
机器之心· 2025-11-28 04:11
机器之心报道 机器之心编辑部 恭喜! 近日,亚马逊研究奖(Amazon Research Awards,ARA)公布了最新一期获奖者名单,共 63 位(其中 26 位华人),来自 8 个国家 41 所大学。 名单地址:https://www.amazon.science/research-areas/latest-news/63-amazon-research-award-recipients-announced-spring-2025 亚马逊研究奖于 2015 年设立,旨在为多学科研究主题的研究人员提供资助奖励。获奖者可以访问 700 多个亚马逊公共数据集,并可以通过促销积分使用 AWS AI/ML 服务和工具。除此以外,获奖者还将与亚马逊专家建立联系,以获得咨询和建议,还可以参加亚马逊举办的活动、培训课程等。 在这一期的获奖名单中,我们看看有哪些华人学者。 AI 信息安全 AI 信息安全领域的应用方向有 8 位研究者获奖,其中有 3 位是华人。 Zhou Li(李洲) 机构:加州大学欧文分校 研究课题:利用 LLM 在审计日志中实现精确且分析人员友好的攻击溯源 李洲,加州大学欧文分校电气工程与计算机科学系 ...
发挥桥梁作用 让全球投资者更好地“看见中国”
Jin Rong Shi Bao· 2025-11-28 00:41
率先将中国债市纳入旗舰债券指数,支持债券通、互换通等互联互通机制落地,协助中资金融机构 走向海外,并在全球主要金融中心举办中国市场主题的路演活动、让全球投资者更好地"看见中国"…… 在中国金融市场开放与发展的进程中,彭博始终扮演着关键"连接者"的角色。今年11月,彭博迎来在中 国内地展业30周年。 彭博大中华区总裁汪大海近日在接受《金融时报》记者专访时表示,作为全球重要的金融信息和数 据服务提供商,彭博的使命始终是用数据和技术提升市场的透明度和效率。在中国债市开放的进程中, 彭博同样致力于释放技术和数据的潜力,发挥桥梁作用,帮助全球投资者更高效地理解并参与中国市 场。 《金融时报》记者:首先,祝贺彭博在中国市场展业30年。在这30年中,您认为彭博在中国发展的 里程碑有哪些?又有哪些时刻让您觉得中国市场融入了全球? 汪大海:彭博在过去30年见证了中国内地金融市场的发展,也亲身参与了中国与全球市场不断接轨 的过程。如果要说具有里程碑意义的,我认为有三个方面: 第一是完成中国债券纳入彭博全球综合指数。2018年,彭博率先宣布将中国国债和政策性银行债纳 入旗舰债券指数——彭博全球综合指数,并在2020年11月首先完成 ...
如何通过系统化投资布局中证500指数?
中国基金报· 2025-11-26 07:08
【导读】 联博全球经验在本土市场的又一实践 正值联博基金正在发行旗下第一只指数增强策略的基金——联博中证500指数增强型基金(基金代码 A类026059/C类026060),拟任基金经理朱良和杨光通过直播给投资者分享了近期市场观点、投 资策略及联博的全球优势。 以下整理了直播中的精华内容,与大家一一分享。 金句摘要: • 中证500指数的一个显著特点是民营经济占比接近50%。民营经济对中国的贡献有一个"56789", 随着促进民营经济发展壮大的相关政策举措陆续出台,民营企业家的信心得到提振,资本性支出意愿 增强,为中证500指数注入了活力。 • 联博采用一套成熟的系统性方法,来辨别、识别市场模式,从而力争在中盘股领域构建更持续的超 额收益能力。这也是看好中证500指数增强策略长期价值的重要原因。 • 历史不会简单地重复,但是它会押韵。联博发现境外投资者在中国能做好投资,正是因为他们善于 捕捉这种全球共通的"韵",并灵活运用于本土实践。 • 不断努力战胜基准、创造超额收益,最终是为了给投资者带来更稳定、更优质的投资体验——这一 切的坚持,都赋予了主动管理产品存在的意义。 • 我们产品策略的Alpha主要来自非市 ...
90后华人副教授突破30年数学猜想,结论与生成式AI直接相关
3 6 Ke· 2025-11-26 06:54
困扰数学界30多年的塔 拉格兰卷积猜想,被90后华人数学家攻破了! 苏黎世联邦理工学院Yuansi Chen,刚刚在arXiv上发布了自己的最新研究成果: $\mathbb{P}_{x\sim\mu}\left(P_{\tau}f(X)>\eta\int fd\mu\right)\leq c_{\tau}\frac{\log\log\eta}{\eta\sqrt{\log\eta}}$. 这个结果引发了大量关注,简单来说,是因为这为理解高维离散空间中的平滑化提供了数学论证。 另外,这项研究也与机器学习息息相关: 从理论上支撑了机器学习中的正则化概念; 为开发处理离散数据的生成式AI模型提供了直接的数学工具和物理直觉。 破解30年数学难题 塔 拉格兰卷积猜想由"数学界诺奖"——阿贝尔奖得主Michel Talagrand在1989年提出。 我们先来了解两个概念,其一,是"加热平滑": 想象一个非常高维的空间,比如一个巨大的多维棋盘,其中每个方格的状态都是二元选择。其中有一个函数,这个函数可能非常"尖锐",有的地方数值特 别大,有的地方数值特别小。 论文证明了布尔超立方体上的塔 拉格兰卷积猜想(Talagrand ...
36年卷积猜想被解决,华人唯一作者,AI或受益
机器之心· 2025-11-26 05:12
| 机器之心报道 | | --- | 机器之心编辑部 一般来说,字越少事情越大。 数学领域的研究成果因其高门槛很少能获得广泛的关注,而这一篇却足足达到了 80 万以上的浏览量。 这是一篇非常硬核的数学证明论文,来自 华人学者 Yuansi Chen ,解决了 至今已有 36 年的 Talagrand 卷积猜想 的数学问题,对于现代计算机科学,机器学习等 相关领域有深远的基础意义。 Yuansi Chen,ETH D-MATH 统计研讨会副教授,杜克大学统计科学系助理教授。在苏黎世 ETH 的 ETH 数据科学基础(ETH-FDS)担任博士后研究员。2023 年获 得斯隆研究奖。他的研究方向聚焦于统计机器学习、MCMC 采样算法、优化方法、域适应性以及计算神经科学中的统计挑战。 论文标题:Talagrand's convolution conjecture up to loglog via perturbed reverse heat 论文链接:https://arxiv.org/abs/2511.19374 该论文证明了在布尔超立方体上的热半群 (Pτ) 下,任何非负函数 f:{−1,1} n→ℝ+ 都表现出 ...
90后华人副教授突破30年数学猜想!结论与生成式AI直接相关
量子位· 2025-11-26 04:21
鱼羊 发自 凹非寺 量子位 | 公众号 QbitAI 困扰数学界30多年的 塔拉格兰卷积猜想 ,被90后华人数学家攻破了! 苏黎世联邦理工学院Yuansi Chen,刚刚在arXiv上发布了自己的最新研究成果: $$\mathbb{P}_{X\sim\mu}\left(P_{\tau}f(X)>\eta\int f d\mu\right)\leq c_{\tau}{\frac{\log\log\eta}{\eta\sqrt{\log\eta}}},$$ 论文证明了布尔超立方体上的塔拉格兰卷积猜想(Talagrand's convolution conjecture),结果精确到一个log log η因子。 这个结果引发了大量关注,简单来说,是因为这为 理解高维离散空间中的平滑化提供了数学论证 。 另外,这项研究也与机器学习息息相关: 从理论上支撑了机器学习中的正则化概念; 为开发处理离散数据的生成式AI模型提供了直接的数学工具和物理直觉。 破解30年数学难题 塔拉格兰卷积猜想由"数学界诺奖"——阿贝尔奖得主Michel Talagrand在1989年提出。 我们先来了解两个概念,其一,是"加热平滑": 想象一 ...
清华大学AI专利数超过美国四所顶尖高校总和
财富FORTUNE· 2025-11-25 13:14
英伟达首席执行官黄仁勋本月早些时候发出警告,称在全球人工智能主导权竞争中,中国正迅速缩小与 美国的差距。年初深度求索(DeepSeek)异军突起,恰恰印证了这种实力对比的快速演变。 不过,美国仍保持着优势。美国机构持有众多最具影响力的AI专利,根据斯坦福大学《2025 年人工智 能指数报告》(2025 AI Index Report),美国已推出40个"重要AI模型",数量远超中国的15个。但中国 模型正在质量方面迅速缩小差距。 "政府、产业界和学术界对人工智能和机器学习充满热情," 今年从哈佛大学加盟清华大学、牵头组建 该校新统计与数据科学系的刘军教授向彭博社表示,"吸引人工智能人才的关键在于资本,以及中国政 府对科学研究,包括人工智能及相关领域的支持。" 图片来源:VCG/VCG via Getty Images 美国企业争相吸纳中国AI人才 中国科技战略布局远不止于大学阶段。如今,人工智能基础知识已走进六岁学童的课堂。今年秋季,北 京市中小学全面开设人工智能通识课程,每学年不少于8课时,内容涵盖聊天机器人等工具的使用、技 术原理背景以及人工智能伦理等主题。 这种前瞻性布局,为中国培育了规模庞大的科技人才 ...
年度人工智能创新实践大奖
Nan Fang Du Shi Bao· 2025-11-24 23:07
聚焦AI大模型、机器学习等技术在金融风控、智能投顾等核心场景的创新应用,能通过效率提升、成 本降低等指标体现价值,对行业AI创新发展有示范引领作用。 获奖机构 中国银行股份有限公司深圳市分行 中国平安保险(集团)股份有限公司 颁奖词 中国平安保险(集团)股份有限公司 平安集团持续加大数字化与AI投入,在算力、数据、算法与场景上形成核心竞争力。在营销端,数字 人用于远程面审、培训、客服、内容生成;在服务端,年超20亿人次客服由AI完成;在运营端,车险 智能化出单覆盖1.2亿单,耗时降至1.2分钟。 深圳前海微众银行股份有限公司 微众银行AI能力涵盖基础设施、应用与治理三层:基础设施上,自研AI工程化平台,推出行业首款自 研交换机;应用上,打造了"数智网点"智能财富管理服务,可为客户提供智能解答、产品推荐等服务; 治理上,构建"AI热力图",并将AI风险纳入全行管理体系。 深圳前海微众银行股份有限公司 宁波银行股份有限公司深圳分行 博时基金管理有限公司 重庆蚂蚁消费金融有限公司 获奖理由 中国银行股份有限公司深圳市分行: 中行深圳市分行构建覆盖金融核心场景的智能体技术体系,创新多种技术架构,使智能体能够执行复杂 ...
技术人不能错过的NeurIPS之夜:蚂蚁集团海边星光技术Party报名启动!
机器之心· 2025-11-24 02:39
Core Viewpoint - The article highlights the participation of Ant Group at NeurIPS 2025, emphasizing its commitment to advancing AI and machine learning through various presentations and networking opportunities [4][6][15]. Group 1: Event Details - NeurIPS 2025 will take place from December 2 to December 7 in San Diego, USA, with a satellite venue in Mexico City [4]. - Ant Group will host a booth at the conference, inviting attendees to engage in discussions and share insights on cutting-edge research and practical experiences [6][7]. Group 2: Technical Presentations - Ant Group will present its self-developed general model, the "Ant Ling Model," on December 2 from 16:00 to 17:00, showcasing its latest technological breakthroughs [9][10]. - The Ling 2.0 model series includes reasoning-based language models and multimodal models, with parameter counts ranging from 16 billion to 1 trillion, demonstrating strong performance across various benchmarks [9][10]. Group 3: Networking Opportunities - The "Academic Coastline · Ant Starlight Technology Party" will be held, providing a platform for deep conversations between Ant Group's technical leaders and industry experts [15]. - Attendees will enjoy a seaside American dinner and receive a winter warmth package, enhancing the networking experience [20].