Workflow
大模型架构
icon
Search documents
百度2026届校招重注AI,超4000份Offer,应届生直接触核心研发!
Sou Hu Cai Jing· 2025-07-12 00:03
在AI领域持续发力的百度,近日正式拉开了2026届校园招聘的大幕,此番招聘规模空前,共提供了超过4000个工作岗位,其中AI相关职位的比例高达九 成,这一数字无疑是国内互联网巨头在校招中对AI人才最为重视的一次体现,也标志着AI技术正加速从理论探索走向商业应用的广阔舞台。 本次校招活动覆盖了包括北京、上海、深圳、成都等在内的七大城市,百度不仅扩大了招聘范围,还特别增设了90个AI领域的全新职位,专注于多模态、 跨模态以及大模型架构等前沿技术的探索。对于即将走出校门的应届生而言,他们将有机会直接参与到百度文心大模型、飞桨平台、数字人项目等核心产品 的研发中,这无疑为他们提供了一个极高的职业起点。 从国内AI产业的发展现状来看,互联网巨头们在AI领域的竞争已经日益激烈,形成了多维度、多层次的战略布局。百度凭借其全栈AI能力,在智能云市场 表现出色,2025年上半年,百度智能云在大模型相关项目的招投标中,以48个中标项目和5.1亿元的金额位居行业前列。在金融、能源、政务等多个领域, 百度都取得了显著的成果,65%的央企选择与百度进行深度合作。 百度还构建了包含三万台昆仑芯集群的算力底座,为招商银行等企业提供了稳定、 ...
大模型专题:大模型架构创新研究报告
Sou Hu Cai Jing· 2025-06-06 11:38
今天分享的是:大模型专题:大模型架构创新研究报告 报告共计:30页 《大模型专题:大模型架构创新研究报告》聚焦大模型架构创新,分析Transformer架构的局限性及行业探索路径。报告指出,随着模型规模扩大, Transformer的二次计算复杂度(O(n²))导致算力消耗激增,长序列处理效率瓶颈凸显,端侧部署受限,行业对其路径依赖引发创新需求,当前主要从 Transformer架构改进和非Transformer架构探索两条路线突破。 Transformer架构改进围绕Attention机制、FFN层及归一化层展开:稀疏注意力、动态注意力等优化计算效率,MoE混合专家分解FFN层提升稀疏连接效率, LongRoPE等技术改进位置编码增强长序列建模。非Transformer架构则包括新型RNN(如RWKV、Mamba)、新型CNN(如Hyena Hierarchy)及其他创新架 构(如RetNet、LFM),其中RWKV通过广义Delta Rule优化状态演化,Mamba利用状态空间模型提升训练效率,RetNet结合状态空间与多头注意力实现并 行计算。 技术发展呈现混合架构趋势,线性Transformer与非T ...
2025年中国多模态大模型行业模型现状 图像、视频、音频、3D模型等终将打通和融合【组图】
Qian Zhan Wang· 2025-06-01 05:09
转自:前瞻产业研究院 行业主要上市公司:阿里巴巴(09988.HK,BABA.US);百度(09888.HK,BIDU.US);腾讯(00700.HK, TCEHY);科大讯飞(002230.SZ);万兴科技(300624.SZ);三六零(601360.SH);昆仑万维(300418.SZ);云从科技 (688327.SH);拓尔思(300229.SZ)等 多模态大模型的模型路径 多模态大模型的探索正在逐步取得进展,近年来产业聚焦在视觉等重点模态领域突破。理想中的"Any- to-Any"大模型,Google Gemini、Codi-2等均是处于探索阶段的方案,其最终技术方案的成熟还需要在 各个模态领域的路线跑通,实现多模态知识学习,跨模态信息对齐共享,进而实现理想中多模态大模 型。现阶段产业主要的工作还是聚焦在视觉等典型的重点模态,试图将Transformer大模型架构进一步在 图像、视频、3D模型等模态领域引入使用,完善各个模态领域的感知和生成模型,再进一步实现更多 模态之间的跨模态打通和融合。 多模态大模型的图像模型 早在2023年LLM的流行之前,过去产业界在对于图像的理解和生成模型领域已经打下了坚实 ...