Workflow
推理
icon
Search documents
新鲜早科技丨雷军微博开启评论限制;谷歌推出革命性AI编程工具;Manus母公司辟谣融资消息
Group 1: Company Developments - Lei Jun, founder of Xiaomi Group, has restricted comments on his Weibo to followers who have been following for over 100 days, aiming to reduce spam comments [2] - Nvidia's CEO Jensen Huang's compensation has surged by 46% to nearly $50 million for the fiscal year 2025, primarily due to a significant increase in stock awards [3] - Tencent has established an e-commerce product department to explore new transaction models within WeChat, aiming to enhance its transaction infrastructure and ecosystem [3] Group 2: Financial Performance - Tencent reported a revenue of 180 billion yuan for Q1 2025, with a year-on-year growth of 13%, and WeChat's monthly active users reached 1.402 billion, up 3% year-on-year [6] Group 3: Market Trends - IDC forecasts that the AR/VR market in China will experience a compound annual growth rate (CAGR) of 41.1% from 2024 to 2029, outpacing other regions globally [5] - Sony anticipates a $700 million impact from U.S. tariffs, which has led to a downward revision of its operating profit expectations for the fiscal year ending March 2025 [4][5] Group 4: Product Innovations - Google DeepMind has launched AlphaEvolve, a revolutionary AI programming tool that automates the algorithm discovery process, enhancing traditional algorithm design [2] - Apple is reportedly developing an eye-tracking scrolling feature for its Vision Pro headset to improve user interaction [8] - Alibaba has open-sourced a video generation and editing model, Wan2.1-VACE, which supports a wide range of video creation and editing capabilities [8]
小米申请推理大模型MiMo商标
news flash· 2025-05-14 07:00
跟踪小米集团动态 +订阅 金十数据5月14日讯,天眼查App显示,近日,小米科技有限责任公司申请注册多枚"XIAOMI MIMO"商 标,国际分类为运输工具、科学仪器、通讯服务等,当前商标状态均为等待实质审查。公开信息显示, Xiaomi MiMo是小米首个推理大模型,联动预训练到后训练,全面提升推理能力,于2025年4月30日开 源。 小米申请推理大模型MiMo商标 ...
看图猜位置不输o3!字节发布Seed1.5-VL多模态推理模型,在60个主流基准测试中拿下38项第一
量子位· 2025-05-14 06:07
一水 发自 凹非寺 量子位 | 公众号 QbitAI 在60个主流基准测试中拿下38项第一! 字节发布 轻量级多模态推理模型Seed1.5-VL ,仅用 532M视觉编码器+200亿活跃参数 就能与一众规模更大的顶尖模型掰手腕,还是能带 图深度思考的那种。 相关技术报告也第一时间公开了。 整体而言,虽然是"以小博大",但新模型在复杂谜题推理、OCR、图表理解、3D空间理解等方面表现出色。 比如猜下图中有几只猫,人眼很容易误将地上的黑猫当成影子: 同时也能用来解答复杂推理谜题,考公党有福了(bushi~ 还能用来玩"看图找茬",速度和准确率双双胜于人类: 当然,以上也基于其强大的OCR识别能力。即便是长度惊人、中英混杂的消费小票,也能分分钟转换成表格。 那么它是如何做到的呢? 532M视觉编码器 + 20B混合专家语言模型 通过深扒技术报告,背后关键主要在于 模型架构 和 训练细节 。 据介绍,Seed1.5-VL由以下三个核心组件组成: SeedViT:用于对图像和视频进行编码; MLP适配器:将视觉特征投射为多模态token; 大语言模型:用于处理多模态输入并执行推理。 模型支持多种分辨率的图像输入,并通过 ...
叶子豪、陈天奇等人开源项目FlashInfer入选,MLSys2025最佳论文奖公布
机器之心· 2025-05-14 04:36
机器之心报道 编辑:泽南、+0 今年的两篇最佳论文一作均为华人。 近日,国际系统领域顶会 MLSys 2025 公布了最佳论文奖。 今年的大奖颁发给了来自华盛顿大学、英伟达、Perplexity AI、卡耐基梅隆大学的 FlashInfer,以及瑞典查尔摩斯理工大学的《The Hidden Bloat in Machine Learning Systems》。 对此,英伟达第一时间发出祝贺,并表示「FlashInfer」的「LLM 推理内核能力」已经被集成到 vLLM 项目、SGLang 以及自定义推理引擎中。 FlashInfer FlashInfer 最初是华盛顿大学 Paul G. Allen 计算机科学院、卡耐基梅隆大学及陈天奇的创业公司 OctoAI 共同发起的合作研究项目,旨在创建一个灵活的 大语言模型(LLM)推理内核库,提供 LLM GPU 内核的高性能实现,如 FlashAttention、SparseAttention、PageAttention、Sampling 等。 英伟达表示,首个适用于 DeepSeek MLA 的 Blackwell 内核也出自 FlashInfer。 Flash ...
芯片新贵,集体转向
半导体芯闻· 2025-05-12 10:08
如果您希望可以时常见面,欢迎标星收藏哦~ 在AI芯片这个波澜壮阔的竞技场上,一度被奉为"技术圣杯"的大规模训练,如今正悄然让位于更 低调、但更现实的推理市场。 Nvidia依然在训练芯片市场一骑绝尘,Cerebras则继续孤注一掷地打造超大规模计算平台。但其他 曾在训练芯片上争得面红耳赤的玩家——Graphcore、英特尔Gaudi、SambaNova等——正在悄悄 转向另一个战场:AI推理。 这一趋势,并非偶然。 AI训练作为一个重资本、重算力、重软件生态的产业,Nvidia的CUDA工具链、成熟的GPU生态 与广泛的框架兼容性,使其几乎掌握了训练芯片的全部话语权。而Cerebras虽然另辟蹊径,推出了 超大芯片的训练平台,但仍局限于科研机构和极少数商业化应用场景。 在这种格局下,新晋芯片企业在训练市场几乎没有生存空间。"训练芯片的市场不是大多数玩家的 竞技场",AI基础设施创业者坦言,"光是拿到一张大模型训练订单,就意味着你需要烧掉数千万 美元——而且你未必赢。" 规模并行结构适合处理这类不规则数据结构。 在应用领域,IPU在化学材料和医疗领域表现突出,曾被用于冠状病毒研究。2020年,微软的 Sujee ...
智通决策参考︱恒指稳步推进 重点观察机器人和稀土概念表现
Zhi Tong Cai Jing· 2025-05-12 00:51
【主编观市】 上周重要会议对港股稳定起到了关键作用,恒指继续稳步推进。 周末两个方向传来停火消息,1,印巴宣布停火,特朗普也确认,不过和美国斡旋没多大关系,是印度 太拉夸。关注资本的动向。2,当地时间5月10日,乌克兰外交部长瑟比加表示,乌克兰和所有盟友准备 好从12日开始在陆地、空中和海上实现至少30天的完全无条件停火。当地时间5月11日凌晨,俄罗斯总 统普京在克里姆林宫举行新闻发布会时提议,于5月15日在土耳其伊斯坦布尔恢复俄乌直接谈判。这显 示俄乌方向也在往好的方面演化。 而市场重头戏其实是中美,5月10日中美双方会谈长达8小时,从时间判断应该是已经互相试探完"需求 和底线",开始进入解决分歧阶段。目前是说有建设性进展,更多细节有待披露。会谈最终结果对市场 走向会起到重大引领作用。 次要方面是美国4月CPI数据发布及美联储主席鲍威尔发表讲话,主要观察对6月降息的看法。 业绩层面,本周互联网巨头公布财报,如周三(5月14日),腾讯控股公布2025年Q1财报。其它有京东 和阿里。 综合来看,外围冲突趋缓对我们有利,而中美谈判本身也预期不高。即便没有取得进展,最差也是中 性。美国相对更着急。 热点方向,国家出 ...
新财富·董秘特辑 | 叶静:多维赋能 积极传递公司长期价值
新财富· 2025-05-11 08:31
历经二十一载岁月沉淀,新财富金牌董秘评选已成为中国资本市场极具权威性与公信力的标杆评选,不仅见证 了中国资本市场蓬勃发展的壮阔征程,更以专业视角镌刻下时代变革的深刻印记。金牌董秘群体凭借卓越的专 业素养与创新实践能力,持续优化上市公司治理、深化投资者关系管理,已然成为推动中国资本市场向高质量 发展迈进的一股重要力量。 值此新财富董秘评选二十一周年之际,诚邀历届金牌董秘,分享企业战略、发展历程与职业经验,以实战洞见 解构资本风云,共探行业发展逻辑。 董事会秘书作为上市公司治理架构中的"关键齿轮",在资本市场运作中承担着承上启下、内外联动的 战略职能。优秀董秘既是合规运营的"守门人",更是价值创造的"助推器",其履职效能直接关乎上市 公司治理水平与可持续发展质量。 4月29日,第二十一届新财富金牌董秘、第八届新财富最佳IR港股公司获奖榜单揭晓。 依米康董事会秘书叶静女士,凭借其专业的知识、丰富的经验和敏锐的市场洞察力,从数千位上市公 司候选人中脱颖而出,荣获"第二十一届新财富金牌董秘"称号。 以法务智慧赋能公司治理 助力公司资本运作与行业共建 截至2024年末,依米康及下属子公司已揽获152项专利,186项著作权 ...
DeepSeek精度效率双提升,华为&信工所提出思维链“提前退出”机制
量子位· 2025-05-11 04:20
DEER团队 投稿 量子位 | 公众号 QbitAI 长思维链让大模型具备了推理能力,但如果过度思考,就有可能成为负担。 华为联合中科院信工所提出了一种新的模式,让大模型 提前终止思考 来避免这一问题。 利用这种方法, 无需额外训练,就可以让大模型的精度和效率同时提升 。 这种方式名为 DEER ,也就是 动态提前退出推理 (Dynamic Early Exit in Reasoning) 的简称。 其核心在于找到推理信息质量下降之前的临界点,并在临界点及时让大模型中断推理。 结果在多个推理基准中,DEER在DeepSeek系列推理LLM上始终有效,将思维链生成长度平均减少31%到43%,同时将准确率提高1.7%到 5.7%。 截至目前,DEER已在QwQ、Qwen3、Nemotron等更多推理模型和11个评测集上被验证持续有效。 停止推理的临界点,需要动态规划 直观上,随着思维链中的推理路径数量的增加,生成结论时可参考的信息也会更多。 如果能够识别出推理信息变得刚好足够的临界点 (称为珍珠推理,Pearl Reasoning) ,并迫使模型在此点停止进一步思考并直接输出结 论,就可以同时实现准确率和效率。 ...
芯片新贵,集体转向
半导体行业观察· 2025-05-10 02:53
在这种格局下,新晋芯片企业在训练市场几乎没有生存空间。"训练芯片的市场不是大多数玩家 的竞技场",AI基础设施创业者坦言,"光是拿到一张大模型训练订单,就意味着你需要烧掉数千 万美元——而且你未必赢。" 如果您希望可以时常见面,欢迎标星收藏哦~ 在AI芯片这个波澜壮阔的竞技场上,一度被奉为"技术圣杯"的大规模训练,如今正悄然让位于更 低调、但更现实的推理市场。 Nvidia依然在训练芯片市场一骑绝尘,Cerebras则继续孤注一掷地打造超大规模计算平台。但其 他曾在训练芯片上争得面红耳赤的玩家——Graphcore、英特尔Gaudi、SambaNova等——正在 悄悄转向另一个战场:AI推理。 这一趋势,并非偶然。 AI训练作为一个重资本、重算力、重软件生态的产业,Nvidia的CUDA工具链、成熟的GPU生态 与广泛的框架兼容性,使其几乎掌握了训练芯片的全部话语权。而Cerebras虽然另辟蹊径,推出 了超大芯片的训练平台,但仍局限于科研机构和极少数商业化应用场景。 正因如此,那些曾在训练芯片上"正面硬刚"Nvidia的创业公司,开始寻求更容易进入、更能规模 化落地的应用路径。推理芯片,成为最佳选项。 Gr ...
AI推理时代 边缘云不再“边缘”
Core Insights - The rise of edge cloud technology is revolutionizing data processing by shifting capabilities closer to the network edge, enhancing real-time data response and processing, particularly in the context of AI inference [1][5] - The demand for AI inference is significantly higher than for training, with estimates suggesting that inference computing needs could be 10 times greater than training needs [1][3] - Companies are increasingly focusing on the post-training phase and deployment issues, as edge cloud solutions improve the efficiency and security of AI inference [1][5] Group 1: AI Inference Demand - AI inference is expected to account for over 70% of total computing demand for general artificial intelligence, potentially reaching 4.5 times the demand for training [3] - The founder of NVIDIA predicts that the computational requirements for inference will exceed previous estimates by 100 times [3] - The transition from pre-training to inference is becoming evident, with industry predictions indicating that future investments in AI inference will surpass those in training by 10 times [4][6] Group 2: Edge Cloud Advantages - Edge cloud environments provide significant advantages for AI inference due to their proximity to end-users, which enhances response speed and efficiency [5][6] - The geographical distribution of edge cloud nodes reduces data transmission costs and improves user experience by shortening interaction chains [5] - Edge cloud solutions support business continuity and offer additional capabilities such as edge caching and security protection, enhancing the deployment and application of AI models [5][6] Group 3: Cost and Performance Metrics - Future market competition will hinge on cost/performance calculations, including inference costs, latency, and throughput [6] - Running AI applications closer to users improves user experience and operational efficiency, addressing concerns about data sovereignty and high data transmission costs [6] - The shift in investment focus within the AI sector is moving towards inference capabilities rather than solely on training [6]