Workflow
机器之心
icon
Search documents
刚刚, 2025 ACM Fellow公布!陈宝权、贾佳亚、梅涛、朱军等多位华人入选
机器之心· 2026-01-22 03:13
机器之心编辑部 刚刚,美国计算机协会 ACM(Association for Computing Machinery)公布了最新一届会士名单。 本年度新入选科学家中共有 71 人,他们的贡献涉及计算机图形学、网络安全、人机交互、数据管理、机器 学习、人工智能、算法、可视化等领域。 ACM 主席 Yannis Ioannidis 表示:这份入选名单代表了「我们领域当前正在发生的事情的快照。例如,今年 我们要表彰在计算机架构和软件工程等成熟学科工作的成员,以及在群体智能或场景识别等新兴学科的创 新者。」 机器之心对这些华人入选者进行了简单介绍(如有遗漏或错误,欢迎在留言区指正)。 Pei Cao ACM 创立于 1947 年,是全世界计算机领域影响力最大的专业学术组织之一。 ACM Fellow 是由该组织授予资深会员的荣誉,目的为表彰会员中对于计算机相关领域贡献前 1% 的学者, 其审查过程十分严格,每年遴选一次,研究员由同行提名,提名由委员会审查。 Pei Cao 是一位在业界极具影响力和知名度的技术专家与工程领导者。她曾先后在多家信息技术巨头任职, 包括谷歌和脸书,目前担任 YouTube 公司的工程副总裁 ...
京东「再造」京东
机器之心· 2026-01-21 09:35
编辑|微胖 这,很不京东 要不是 App Logo 上那只举着魔法棒的小狗先「剧透」,你很难把它和京东联系在一起。 点开「京东 AI 购」,反直觉几乎是瞬间发生。没有信息洪流扑面而来,也看不到叠床架屋的功能入口,页面干净到几乎只剩一个对话框。 等等,这不是个聊天 App ?这真是用来「买东西」的地方? 主站 VS 新A pp 页面设计,完全是两个世界。 它不像一个电商 App ,更不像那个你已经用了很多的京东,总是强调效率、审美多少有点「直男」的货架工具。 那一刻的感觉,更像是一个已经和你混熟的助理,提前一步意识到:你现在,可能正需要这些。 点开卡片会自动生成一份基础指南,还有同类产品推荐。 直到上手用过几次之后,我才意识到一个更大的变化正在发生。生活服务这件事,正在被压缩成一句话。 比如,「一句话,决策完成」。直接抛出需求:「小学生月底去鄱阳湖观鸟,作为观鸟新手,需要准备哪些装备?」 过去需要查攻略、抄清单、逐一比对的过程,被压缩成了一次「直接交卷」。 系统接住的不是关键词,而是一整个场景,装备被拆解、推理、重新组合成一套「省心方案」:双筒望远镜、防风外套、防蚊用品,甚至连折叠椅、观鸟 笔记本和铅笔,都被一 ...
非Transformer架构的新突破,液态神经网络的推理小模型只用900M内存
机器之心· 2026-01-21 09:35
Core Insights - The article discusses the dominance of the Transformer architecture in large models and introduces Liquid AI's new model, LFM2.5-1.2B-Thinking, which operates efficiently on edge devices [1][2]. Group 1: Model Overview - Liquid AI has released LFM2.5-1.2B-Thinking, a reasoning model that can run entirely on edge devices with only 900 MB of memory [2][3]. - This model excels in generating internal reasoning trajectories before arriving at final answers, demonstrating superior performance in tool usage, mathematical reasoning, and instruction following [3][14]. Group 2: Performance Metrics - Compared to its predecessor LFM2.5-1.2B-Instruct, LFM2.5-1.2B-Thinking shows significant improvements in three key areas: mathematical reasoning (from 63 to 88 on MATH-500), instruction following (from 61 to 69 on Multi-IF), and tool usage (from 49 to 57 on BFCLv3) [7][9]. - In various reasoning benchmarks, LFM2.5-1.2B-Thinking's performance matches or exceeds that of Qwen3-1.7B, despite having approximately 40% fewer parameters [7][10]. Group 3: Training and Development - The model's training involved multi-step reasoning to enhance capabilities while maintaining concise answers for low-latency deployment [16]. - Liquid AI implemented strategies to reduce the occurrence of "doom looping" in the model's responses, achieving a reduction from 15.74% to 0.36% in the final training phase [17][18]. Group 4: Ecosystem and Compatibility - Liquid AI is expanding the ecosystem for the LFM series, ensuring compatibility with popular reasoning frameworks and supporting various hardware accelerations [24]. - The model has been tested across different devices, showcasing its efficient performance in long-context reasoning [26]. Group 5: Future Implications - LFM2.5-1.2B-Thinking signifies a shift away from the exclusive reliance on Transformer models, suggesting that smaller, powerful edge reasoning models may offer superior solutions [27]. - The decreasing barriers to running inference models on various devices is seen as a positive development for AI potential [28].
AI for Science开年新突破:中科大实现多尺度结构逆向设计128倍加速,登上Nature子刊
机器之心· 2026-01-21 09:35
近日, 中国科学技术大学 (U STC) 联合新疆师 范大学、中关村人工智能研究院、香港理工大学 ,在 数据驱动的 多功能双 连通多尺度结构逆向设计领域 取得 重要突破。相关成果于 2026 年 1 月 8 日以 "D ata-dri ven Inverse Design of Multifunctional Bicontinuous Multiscale Structures" 为题,发表于 Nature 旗下顶级综合 期刊 Nature Communications 。 该研究首次系统性解决了双连通多尺度结构长期存在的 "难描述、难设计、难制造" 核心瓶颈,为 骨植入物、渗 透器件、力学隐身结构 等复杂工程系统 的智能化 设计提供了全新的数据驱动范式。 论文链接:https://www.nature.com/articles/s41467-025-68089-2 数据链接:https://drive.google.com/drive/folders/1VnNVyjxKFQPCH_YchG52gRw1zEXKMr2J 开源链接:https://github.com/llwang91/L-BOM/ 向自然学习 ...
AI5芯片搞定,马斯克的纯自研超算Dojo 3又回来了
机器之心· 2026-01-21 04:15
刚刚,马斯克丢了个重磅炸弹: 「AI5 芯片设计进展顺利,特斯 拉将重启 Dojo 3 的工作。」 简单两句话,包含了特别大的信息量。 Dojo 项目是在 2021 年特斯拉 AI Day 首次提出,定位是「面向机器学习训练的超级计算机」,目的是处理来自特斯拉汽车的视频录制和其他数据,并利用这些数 据来训练公司全自动驾驶软件背后的「神经网络」。 在 2021 年的 CVPR 大会上,时任特斯拉人工智能高级总监的 Andrej Karpathy 曾表示,仅凭视觉技术,计算机必须以与人类相同的速度和敏锐度对新环境做出反 应。然而,这需要利用强大的超级计算机,基于海量数据集对人工智能进行训练。而特斯拉就拥有这样一台超级计算机,即 Dojo。 编辑|晓楠、冷猫 2023 年 7 月,Dojo 正式投产。彼时,马斯克对 Dojo 项目充满了期待。 但不知大家还记不记得,去年 8 月,马斯克突然 「全面叫停」Dojo 项目,暂时解散专门的 Dojo 团队 ,项目负责人 Peter Bannon 离职,约 20 名核心成员也跳槽成 立新公司 DensityAI。 当时,特斯拉实际上在同时推进两套完全不同的芯片体系:用于车载 ...
推翻150年数学直觉:数学家烧坏几台笔记本,解决几何拓扑难题
机器之心· 2026-01-21 04:15
机器之心编译 这是一次数学理论与计算机算力结合的胜利。 设想一下,如果我们的天空总是被一层厚厚的不透明云层所遮蔽,既看不见星星,也无法从上方俯瞰我们的星球,我们还能发现地球是圆的吗? 答案是肯定的 。通过测量地面上特定的距离和角度,我们就能确定地球是一个球体,而不是平面或者甜甜圈状。即使没有卫星照片也能做到。 。 数学家们发现,这种情况在更普遍的二维曲面中也经常成立: 只需要曲面上相对少量的局部信息,就足以推断出其整体形态,也就是由局部唯一确定整体 。 然而在某些例外情况下,这些有限的局部信息可能对应着不止一种曲面。在过去的 150 年里,数学家们一直在致力于整理这些特例: 即那些通常只能定义一种曲 面,实际上却描述了多种曲面的局部测量数据 。但他们能找到的唯一例外并不是像球体或甜甜圈那样规整、封闭的曲面。相反,这些曲面要么向某个方向无限延 伸,要么拥有某种「边缘」。 没有人能找到一个打破这一规律的封闭曲面,似乎根本就不存在这样的特例。也许,这类曲面总是可以通过常规的局部信息被唯一确定。 如今,数学家们终于发现了一个寻觅已久的特例。在去年 10 月发表的一篇论文中,三位研究人员,包括柏林工业大学的 Alexa ...
R1一周年,DeepSeek Model 1悄然现身
机器之心· 2026-01-21 00:32
Core Insights - DeepSeek officially launched the DeepSeek-R1 model on January 20, 2025, marking the beginning of a new era for open-source LLMs, with DeepSeek-R1 being the most praised model on the Hugging Face platform [2] - A new model named Model1 has emerged in DeepSeek's FlashMLA code repository, attracting significant attention from the online community [5] - Analysis suggests that Model1 is likely the internal development code name or the first engineering version of DeepSeek's next flagship model, DeepSeek-V4 [9] Technical Details - The core architecture of Model1 has reverted to a 512-dimensional standard, indicating a potential optimization for alignment with NVIDIA's next-generation Blackwell (SM100) architecture [9] - Model1 introduces a "Token-level Sparse MLA" as a significant evolution in operators compared to the V3 series, along with new mechanisms such as Value Vector Position Awareness (VVPA) and Engram [11][12] - Performance benchmarks show that the currently unoptimized Sparse MLA operator can achieve 350 TFlops on the B200, while the Dense MLA can reach 660 TFlops on the H800 (SM90a) [10] Architectural Changes - The transition from the previous V32 model, which utilized a non-symmetric MLA design, to a standardized 512-dimensional configuration in Model1 suggests a strategic shift in DeepSeek's architectural approach [9] - The codebase includes optimizations specifically for the Blackwell GPU architecture, indicating a focus on enhancing computational efficiency [9] - The introduction of FP8 KV Cache mixed precision in Sparse operators aims to reduce memory pressure and improve speed in long-context scenarios [12]
AAAI 2026 Oral | 告别注意力与热传导!北大清华提出WaveFormer,首创波动方程建模视觉
机器之心· 2026-01-21 00:32
"全局交互" 几乎等同于 self-attention:每个 token 都能和所有 token 对话,效果强,但代价也直观 —— 复杂度随 token 数平方增长,分辨率一高就吃不消。现有方 法大多从 "相似度匹配" 出发(attention),或从 "扩散 / 传导" 出发(热方程类方法)。但热方程本质上是一个强低通滤波器:随着传播时间增加,高频细节(边 缘、纹理)会迅速消失,导致特征过平滑。 我们是否能找到一种既能实现全局交互,又能精准保留高频细节的物理建模方式? 来自 北京大学 和清华大学 的研究团队 给出了答案: 波动方程(Wave Equation) :把特征图当作空间信号,让语义在网络深度对应的 "传播时间" 里,遵循欠阻 尼波动方程演化。这样一来,低频的全局结构与高频的边缘纹理不再是 "此消彼长" 的牺牲关系,而可以在可控的波动传播中共同存在。在 AAAI 2026 Oral 论文 《WaveFormer: Frequency-Time Decoupled Vision Modeling with Wave Equation》中,研究者首次将视觉特征图视为在波动传播时间下演化的空间信号,受欠阻 ...
马斯克刚刚真把 𝕏 平台推荐算法给开源了,核心也是Transformer
机器之心· 2026-01-20 11:24
刚刚, 平台(原 Twitter 平台)公布了全新的开源消息: 已将全新的推荐算法开源,该算法 由与 xAI 的 G rok 模型相同的 Transformer 架构驱动。 该模型预测用户行为(点赞、回复、转发等)来对帖子进行排序,出现在 For You 一栏中。 编辑|冷猫 众所周知,推荐算法是社交媒体平台的生命线,几乎已经成为了媒体平台获取用户留存,扩大营销收益的核心。在一周多前,马斯克在 平台发推声明「将在 7 天 后开源平台推荐算法」的时候几乎令人难以置信。 而马斯克确实说到做到,虽然比声称的 7 天内略晚,但推荐算法的确已经完全开源。希望之后能够长期遵循每 4 周重复更新的承诺。 在开源信息发布后,马斯克表示:「我们知道这个算法很笨拙,需要大量的改进,但至少你可以看到我们在实时和透明的情况下努力让它变得更好。 没有其他社交 媒体公司这样做。 」 不过,马斯克选择开源 平台推荐算法可能另有原因。 据路透社报道,2025 年 7 月,巴黎检察官调查了该社交媒体平台,怀疑其存在算法偏见和欺诈性数据提取,马斯克将其称为「政治动机的刑事调查」,威胁到其用 户的言论自由。 12 月,欧盟对 处以 1.2 亿欧元 ...
刚刚,MiniMax来承包你的桌面了
机器之心· 2026-01-20 11:24
Core Viewpoint - The article emphasizes that 2026 is set to be a pivotal year for AI agents, with intense competition emerging in the market, particularly highlighted by the launch of MiniMax Agent 2.0, which aims to enhance productivity through advanced AI capabilities [1][2]. Group 1: MiniMax Agent 2.0 Features - MiniMax Agent 2.0 is introduced as an "AI-native Workspace," significantly restructuring its product capabilities to provide a more integrated and efficient user experience [2][5]. - The new desktop application allows seamless interaction with local files and cloud tasks, liberating users from repetitive tasks like switching between windows and manual data entry [2][9]. - The introduction of "Expert Agents" enhances the system's reliability and expertise, improving the quality of outputs from a score of 70 to potentially 95 or 100 [3][5]. Group 2: User Experience and Performance - Users can currently experience the Expert Agents feature for free on both desktop and web platforms, facilitating easier access to advanced functionalities [4]. - The article showcases practical tests where MiniMax Agent successfully completed complex tasks, such as summarizing news and analyzing technical documents, demonstrating its efficiency and capability [11][18]. - The ability to process multiple documents and generate presentations in a fraction of the time previously required illustrates the significant productivity gains offered by MiniMax Agent [18][20]. Group 3: Technological Advancements - MiniMax's continuous model upgrades, including the implementation of Lightning Attention and the M2 architecture, have enhanced the agent's capabilities, allowing it to handle complex tasks more effectively [32][33]. - The integration of these advanced models into MiniMax's internal processes has created a feedback loop that continuously refines the system based on real-world usage [32][33]. - The shift in interaction logic from users adapting to agents to agents adapting to users marks a significant evolution in how AI can assist in high-complexity tasks [33].