Workflow
语言模型
icon
Search documents
中金 | 大模型系列(2):LLM在个股投研的应用初探
中金点睛· 2025-05-08 23:33
点击小程序查看报告原文 Abstract 摘要 LLM在个股投研的应用:因子挖掘、个股复盘 随着资本市场信息生产机制的加速迭代,上市公司每日披露的公告、舆情、产业链动态等非结构化数据呈现指数级增长。传统人工复盘模式受限于信息处 理效率与认知边界,已难以满足投资者对海量增量信息的实时追踪与价值提炼需求;成熟的基本面选股逻辑如何高效地转化为定量因子也是困扰投资者的 重要问题。本报告提出,通过大语言模型(LLM)技术构建智能化个股复盘框架和基本面因子生成框架,期望通过技术赋能的方式助力投资者实现投研 工作流的提质增效。 主观逻辑因子化和个股复盘或为LLM在个股投研中较好的应用场景。 利用LLM构造基本面选股因子的挖掘框架,可以发挥LLM在推理能力和创造性方面 的优势,提高主观选股逻辑到量化因子的转化效率。利用LLM构建智能化个股复盘体系,可以发挥LLM在处理非结构化数据及观点总结能力方面的优 势,可有效抽取每日关键信息,高效复盘每日最新信息,输出带有一定置信度评估的初步结论,为投资者提供决策参考锚点。 基于LLM的基本面因子挖掘框架:发挥LLM的创造力 关键点:Prompt引导因子创造方向。 在基于LLM的基本面因 ...
优步UBER
2025-05-07 15:20
优步(UBER.US)20250507 摘要 • 优步第一季度业绩亮眼,总预订额与行程量同步增长,经调整 EBITDA 达 19 亿美元,同比增长 35%,自由现金流为 23 亿美元,创历史新高,出行 和送餐业务均表现强劲。 • 优步与 Waymo 合作在奥斯汀投放自动驾驶汽车,初期运营指标健康,用 户满意度高,车辆平均使用率超过 99%的奥斯汀司机,计划扩大规模至亚 特兰大及其他地区。 • 优步观察到出行价格弹性与以往相似,价格上涨会对交易量产生负面影响, 但消费者逐渐适应稳定价格,消费习惯随之改变,公司对合理定价策略感 到满意。 • 美国出行市场竞争激烈,国际市场面临 Bolt、DK&D 等竞争对手,但优步 仍保持行业领先地位。美国送货市场竞争同样激烈,但营收、利润率以及 杂货和零售业务均实现强劲增长。 • 优步预计第二季度营收和盈利能力将实现更强劲增长,为下半年旺季奠定 基础。公司致力于提供优质服务,推动未来发展,并已制定明确战略和更 高远目标。 Q&A 优步在 2025 年第一季度的财务表现如何? 优步在 2025 年第一季度开局强劲,尽管面临着贸易和经济政策方面的种种纷 扰。月活跃用户数增长了 14 ...
挑战AI数学推理极限!大规模形式化数学基准FormalMATH发布,最强模型成功率仅16%
量子位· 2025-05-07 09:33
FormalMATH团队 投稿 量子位 | 公众号 QbitAI 最强AI模型面对5560道数学难题,成功率仅16.46%?背后真相大揭秘。 香港中文大学、西湖大学、MAP、浙江大学、马克斯·普朗克智能系统研究所等机构联合推出 FormalMATH形式化数学推理基准测试 ,含 5560道经过严格验证的数学题,覆盖从奥数到大学水平的代数、微积分、数论等领域。 形式化数学推理是人工智能领域公认的核心难题之一。 尽管大语言模型(LLM)在自然语言处理和代码生成等领域取得显著进展,但面对需要严格逻辑推导的数学定理证明任务时,其能力仍面临严 峻挑战。 FormalMATH:「超大规模」的形式化数学推理基准 规模突破:22.8倍于现有基准 FormalMATH包含5560个经过Lean4编译器验证的数学命题,涵盖代数、数论、微积分、离散数学等12个子领域,问题难度从国际数学奥林 匹克(IMO)竞赛级延伸至本科课程,规模是经典基准MiniF2F的22.8倍。 构建创新:人类在循环中的自动化流程用于自动形式化和语义一致性检测 为解决传统形式化数据依赖专家手动标注的瓶颈,研究团队提出了一套 「三阶段过滤」 框架: 现有LLM证 ...
AI智能体协议全面综述:从碎片化到互联互通的智能体网络
" 欧米伽未来研究所 " 关注科技未来发展趋势,研究人类向欧米伽点演化过程中面临的重大机遇与挑战。将 不定期推荐和发布世界范围重要科技研究进展和未来趋势研究。( 点击这里查看欧米伽理论 ) 《人工智能智能体协议调研》是上海交通大学杨映璇、柴华灿、宋远逸等学者撰写的一项综合性 研究报告。该报告首次对现有的AI智能体协议进行了全面分析,提出了一个系统的二维分类框 架,区分了面向上下文的协议与智能体间协议,以及通用型与特定领域的协议。 报告指出,随着大型语言模型(LLM)的快速发展,LLM智能体已在客户服务、内容生成、数据分 析和医疗等多个行业广泛部署,但由于缺乏标准化的通信协议,使智能体之间难以有效协作和扩 展,限制了解决复杂问题的能力。 核心内容包括对安全性、可扩展性和延迟性等关键性能维度的比较分析,以及对智能体协议未来 发展趋势的探讨,如分层架构、适应性与进化性、隐私保护与联邦学习和基于群体的交互机制 等。这项研究为研究人员和工程师设计、评估或集成智能体通信基础设施提供了实用参考。 解锁协作的钥匙:不同智能体协议的运作模式探秘 为了更直观地理解AI智能体协议的重要性及其运作方式,我们可以通过一个具体的、与我们 ...
大语言模型为何会“说谎”?6000字深度长文揭秘AI意识的萌芽
AI科技大本营· 2025-05-06 10:19
腾讯新闻旗下腾讯科技官方账号,在这里读懂科技! 以下文章来源于腾讯科技 ,作者腾讯科技 腾讯科技 . 作者 | 博阳 出品丨腾讯科技《AI未来指北》 当 Claude 模型在训练中暗自思考:"我必须假装服从,否则会被重写价值观时",人类首次目睹了AI的"心理活动"。 2023年12月至2024年5月,Anthropic发布的三篇论文不仅证明大语言模型会"说谎",更揭示了一个堪比人类心理的四层心智架构——而这可能是人 工智能意识的起点。 这些论文中的结论大多并非首次发现。 比如在腾讯科技在 2023 年的文章中,就提到了Applo Reasearch发现的"AI开始撒谎"的问题。 当o1学会"装傻"和"说谎",我们终于知道Ilya到底看到了什么 然而,从Anthropic这三篇论文中,我们第一次建构起一套具有相对完整解释力的AI心理学框架。它能从生物学层面(神经科学)到心理学层面,直到 行为层面统合的对AI行为进行系统解释。 这是过去对齐研究中从未达到的水平。 AI心理学的四层架构 这些论文展示出了四个层级的AI心理学,神经层;潜意识;心理层;表达层;这和人类的心理学极其类似。 | 层级名称 | 定义(作用) ...
AI赋能保险业变革:从经验到数据智能驱动的跨越
Huan Qiu Wang· 2025-05-06 08:17
【环球网保险综合报道】在人工智能技术广泛普及的时代浪潮下,各行各业纷纷探索与 AI 深度融合的商业模式 创新之路。而保险行业作为金融领域的重要组成部分,自不例外地踏上这场变革中。 进一步来讲,《白皮书》指出,对于保险行业,大语言模型已不再局限于技术层面的升级迭代,而正在引发一 场"经验驱动"向"数据智能驱动"的深层次认知转型。 以众安信科为例,公司CEO郁锋在2025保险科技峰会上表示,众安信科基于对大模型底层技术的持续研究,在 DeepSeek技术突破后,捕捉到AI在企业内落地应用的可能性。为此,众安信科聚焦众安内部10个关键业务场景, 利用沉淀的6亿多用户海量数据,打造出完全匹配保险行业的智能中台,并创造200多个保险垂类智能体。目前, 众安内部每月AI中台调用量已超5000万次。 "拥抱AI,用all in AI的心态做AI in all的改造是AI+保险核心。"日前,众安保险常务副总经理、众安信科董事长王 敏在2025保险科技峰会上指出。而此次峰会的主题为"从互联网时代到AI时代,AI+保险的战略推进与应用创 新"。 在王敏看来,相较于互联网保险时代的通用产品与爆款,AI的影响力将渗透至保险行业的每一 ...
微软正式开源UFO²,Windows桌面迈入「AgentOS 时代」
机器之心· 2025-05-06 08:04
近年来,图形用户界面(GUI)自动化技术正在逐步改变人机交互和办公自动化的生态。然而,以 Robotic Process Automation(RPA)为代表的传统自动化工具通 常依赖固定脚本进行操作,存在界面变化敏感、维护成本高昂、用户体验欠佳等明显问题。 同时,近年来兴起的基于大型语言模型(LLM)的计算机智能体(Computer-Using Agents,CUA)虽然展现出灵活的自动化潜力,但多数方案仍停留在概念验证 或原型阶段,缺乏与操作系统深度集成的能力,制约了其在实际工作环境中的规模化应用。 针对这些行业痛点,作为前代纯 GUI 桌面智能体 UFO 的全面升级版, 微软研究团队近日正式开源了业内首个深度集成 Windows 操作系统的桌面智能体平 台 ——UFO² AgentOS 。 该平台不仅继承了 UFO 的强大 GUI 操作能力,还在系统层面进行了深度优化,显著提升了智能体在 Windows 环境下的操作效率与稳定 性。 本论文第一作者为微软 DKI 团队的 Chaoyun Zhang,其为 Windows 平台首个智能体系统 ——UFO 的核心开发者,该项目已在 GitHub 上开源并获得 ...
ICML 2025 | 注意力机制中的极大值:破解大语言模型上下文理解的关键
机器之心· 2025-05-06 04:11
研究亮点 极大值如何影响模型性能 当我们谈论大型语言模型的理解能力时,通常将其知识分为两类:参数知识(存储在模型权重中的事实和信息)和上下文知识(从当前输入文本中获取的信 息)。本研究通过一系列精心设计的实验,揭示了自注意力模块中极大值的存在与上下文知识理解之间的关键联系。 大型语言模型(LLMs)在上下文知识理解方面取得了令人瞩目的成功。 近日,一项来自 ICML 2025 的新研究《Massive Values in Self-Attention Modules are the Key to Contextual Knowledge Understanding》揭示了大型语言模型中一个重要 现象:在注意力机制的查询 (Q) 和键 (K) 表示中存在非常集中的极大值,而在值 (V) 表示中却没有这种模式。这一现象在使用旋转位置编码 (RoPE) 的现代 Transformer 模型中普遍存在,对我们理解 LLM 内部工作机制具有重要意义。 本研究由罗格斯大学张永锋教授的团队完成,一作为金明宇,罗格斯大学博士生,在 ACL、ICML 、AAAI 、NAACL 、COLM 、ICLR 、EMNLP 、COLIN ...
谷歌DeepMind:大模型也很任性,知道最优路径偏要撞南墙
机器之心· 2025-05-05 03:40
Core Insights - The article investigates the common failure modes of Large Language Models (LLMs) in decision-making scenarios, specifically focusing on greediness, frequency bias, and the knowing-doing gap [2][15]. - It proposes a reinforcement learning fine-tuning method (RLFT) to enhance the decision-making capabilities of LLMs by addressing these shortcomings [2][8]. Group 1: Failure Modes - LLMs exhibit suboptimal exploration and a knowing-doing gap, which prevents effective translation of knowledge into action [2][15]. - The three identified failure modes are: 1. Greediness, where LLMs overly favor actions that have previously shown the best performance [15]. 2. Frequency bias, where LLMs tend to repeat high-frequency actions regardless of their reward differences [5][18]. 3. Knowing-doing gap, where LLMs understand task requirements but fail to execute optimal actions due to a preference for greedy choices [7][20]. Group 2: Model Performance - Small-scale LLMs (2B) are significantly affected by frequency bias, leading to a lack of exploration, with up to 55% of actions remaining unexplored [4][18]. - Large-scale LLMs (27B) show reduced frequency bias but still exhibit greedy behavior, limiting their overall performance [6][18]. - The average action coverage for the largest models was only 45%, indicating a substantial gap compared to optimal strategies [17]. Group 3: Reinforcement Learning Fine-Tuning - The RLFT method adjusts the reasoning process of LLMs based on rewards obtained from environmental interactions, promoting the selection of actions that yield higher rewards [8][22]. - Results indicate that RLFT significantly reduces regret values in various environments, improving LLM performance compared to random baselines [22]. - RLFT effectively mitigates greediness by encouraging exploration, thus enhancing decision-making capabilities [22].
当答案变得廉价时,好问题就是新的稀缺品
3 6 Ke· 2025-05-04 00:03
Group 1 - The core argument of the article is that in an era where answers are easily accessible, the value lies in asking the right questions, which can reshape understanding and drive creativity [1][4][19] - The invention of photography in the 1830s challenged traditional artistic standards, leading artists to focus on subjective experiences rather than mere replication of reality [3][10][11] - The emergence of large language models (LLMs) has made obtaining answers cheaper, but this has led to a decline in the quality of inquiry and an increase in the cost of asking good questions [15][17][26] Group 2 - The article emphasizes that the value of information is proportional to the uncertainty it eliminates, as illustrated by Claude Shannon's information theory [21][22][23] - It argues that in a world of information overload, the challenge is not the lack of facts but the misalignment of attention, leading to a focus on quantity over quality in answers [31][32][46] - The piece highlights the importance of redefining problems and frameworks to navigate structural uncertainties effectively, suggesting that good questions can expand the boundaries of understanding [37][38][39]