MaskSearch

Search documents
小红书首次开源文本大模型dots.llm1;全球首个AI芯片设计系统发布丨AIGC日报
创业邦· 2025-06-10 23:59
1.【小红书首次开源文本大模型dots.llm1】6月10日,据小红书技术团队消息,小红书hi lab (Humane Intelligence Lab,人文智能实验室)团队首次开源文本大模型 dots.llm1。据介绍, dots.llm1是一个大规模的Mixture of Experts(MoE)语言模型,在总共1420亿参数中激活140亿 参数,dots.llm1在训练11.2T token高质量数据后,达到了可与Qwen2.5-72B相媲美的性能。(界 面新闻) 2.【阿里通义实验室开源检索增强预训练框架MaskSearch】6月10日,据通义大模型消息,阿里巴 巴通义实验室发布并开源了MaskSearch预训练框架,让AI学会"主动搜索+多步推理",从而更准 确、更智能地回答复杂问题。(财联社) 3.【全球首个AI芯片设计系统发布】全球首个基于人工智能技术的处理器芯片软硬件全自动设计系 统"启蒙"近日正式发布。该系统能实现从芯片硬件到基础软件的全流程自动化设计,意味着实现AI设 计芯片,而且其设计在多项关键指标上达到人类专家手工设计水平。相关研究成果近日发布于预印本 网站arXiv。 (科技日报) ...
阿里通义开源「推理+搜索」预训练新框架:小模型媲美大模型,多个开放域问答数据集表现显著提升
量子位· 2025-05-31 03:34
在推理+搜索方向,通义实验室搜索团队已提出ZeroSearch、OmniSearch等工作,通过在特定的下游任务进行强化学习训练,让大模型在与 环境交互的过程中学习使用搜索引擎。 该团队认为, 仅在特定任务上训练会导致模型的泛化能力受限 ,难以适应更多场景下的检索推理任务。 受BERT模型在预训练过程中使用的掩码 (Mask) 预测任务启发,MaskSearch引入了 检索增强型掩码预测任务 。 也就是让模型使用搜索工具,预测文本中被遮蔽的部分,在预训练过程中有效学习通用的任务分解、推理等智能体策略,同时熟练掌握搜索引 擎的使用方法,为其后续适配多领域任务奠定基础。 通义实验室 投稿 量子位 | 公众号 QbitAI 为提升大模型" 推理+ 搜 索 "能力,阿里通义实验室出手了。 最新研究开源 全新 通用 预训练框架 —— MaskSearch ,在域内及跨域开放域问答任务上均较基线方法取得显著性能提升。 小模型甚至能媲美大模型表现。 不仅如此,MaskSearch可以兼容 监 督微 调 ( S FT) 和强化学习 (RL) 两种训练方法。 通过加入预训练的二阶段训练,MaskSearch相比只在下游任务进行 ...