模型压缩

Search documents
自驾搞科研别蛮干!用对套路弯道超车~
自动驾驶之心· 2025-07-11 01:14
读研想少走弯路、快速出成果?靠自己瞎摸索费时间费精力还没结果,找个厉害的榜样"抄作业",才是最 直接的办法。 导师介绍 毕业于知名计算机名校。曾在多家公司担任算法研究员,并进行计算机视觉,高效模型压缩算法,多模态 大语言模型的研究,包括模型量化,剪枝,蒸馏,编译以及高效稀疏化训练与推理。 博士期间研究方向聚焦为计算机视觉,高效的深度学习训练和推理方法,大语言模型轻量化与高效微调技 术。 这套路看着"功利",但真能让你在科研路上跑快点,别人还在绕小道,你已经上了高速。 厉害的榜样通常 来说,就是那些论文专利一大堆的导师学长学姐,但苦于和这些榜样搭不上话, 现在如何让入场甩开同 行,别人摸路你超车? 自动驾驶之心联合业内知名LLM/MLLM方向学者推出了1v6指导小班课。从模型理论到代码实践, 业内大 牛手把手带走科研全流程,帮助大家形成自己的知识体系, 掌握LLM/MLLM论文的算法设计及创新思路。 扫码免费咨询 【科研成果】 在国际顶级会议CVPR,ICCV, EMNLP等发表十余篇论文, 并担任CVPR,ICCV,ECCV,ICML,ICLR, NeurIPS 等重要会议和期刊的审稿人。多项发明专利,已经指 ...
华鑫证券:AMD发布MI350系列GPU性能升级 继续看好海外算力链
贝塔投资智库· 2025-06-20 03:35
MI350系列产品在性能上可与英伟达B200竞争。其内存容量为B200的1.6倍,训练及推理速度与B200 相当或更优。此外,由于该芯片功耗低于英伟达同类产品, 在MI355X上,每1美元的投入可支持处 理的tokens数量比B200多40%。 同时,AMD预告将于2026年推出MI400系列产品,并透露OpenAI参与 了该系列产品的联合研发工作。 点击蓝字,关注我们 6月13日,AMD推出MI350X和MI355X两款GPU。与前代MI300X相比,MI350系列的算力提升4 倍,推理速度提高35倍。 智通财经APP获悉,华鑫证券发布研报称,6月13日, AMD推出MI350X和MI355X两款GPU。与前代 MI300X相比,MI350系列的算力提升4倍,推理速度提高35倍。 6月10日,中国科学院计算技术研究 所处理器芯片全国重点实验室,联合中国科学院软件研究所,基于大模型等AI技术,推出处理器芯片 和相关基础软件全自动设计系统——"启蒙"。 华鑫证券表示,继续看好海外算力链。中长期,建议关注临床AI产品成功落地验证的嘉和美康 (688246.SH)、以AI为核心的龙头厂商科大讯飞(002230.SZ ...
计算机行业周报:AMD发布MI350系列GPU性能升级,中国科学院发布「启蒙」芯片设计系统-20250619
Huaxin Securities· 2025-06-19 06:35
2025 年 06 月 19 日 AMD 发布 MI350 系列 GPU 性能升级, 中国科 学院发布「启蒙」芯片设计系统 告 —计算机行业周报 推荐(维持) 投资要点 分析师:宝幼琛 S1050521110002 baoyc@cfsc.com.cn 行业相对表现 | 表现 | 1M | 3M | 12M | | --- | --- | --- | --- | | 计算机(申万) | 0.4 | -12.5 | 35.4 | | 沪深 300 | -0.1 | -3.4 | 9.8 | 市场表现 相关研究 1、《计算机行业周报:智源发布 "悟界"系列大模型,高德开放平 台发布智能眼镜解决方案》2025- 06-12 2、《计算机行业点评报告:文远知 行(WRD.O):Robotaxi 领航出海, 平台化战略加速全球化商业兑现》 2025-06-09 3 、《计算机行业周报: DeepSeekR1-0528 升级,字节扣子空 间上线一键转播客功能》2025-06- 06 ▌算力: AMD 发布 MI350 系列 GPU 性能升级,预 告 MI400 联合 OpenAI 研发 6 月 13 日,AMD 推出 MI ...
对话27岁博导张林峰:模型压缩获CVPR满分有点意外,上海交大像我这样年轻老师很多
量子位· 2025-05-27 01:07
白交 发自 凹非寺 量子位 | 公众号 QbitAI 上海交大、27岁、最年轻博导 ,留给张林峰的标签不多了 (Doge) 。 最新引发关注的,是他实实在在的一个论文成果—— 他们提出了一种新的数据集蒸馏方法,结果获得了 CVPR 2025满分 。 通过引入一个辅助的神经网络,只需一块6年前的2080Ti,就能做大模型数据蒸馏。与前SOTA相比,新方法的显存占用只有1/300,并且速 度提升了20倍。 不过对于这一结果,张林峰表示有点意外。但能肯定的是 「数据蒸馏」 这一范式会成为接下来模型压缩的趋势之一。 这其实代表着张林峰团队所做的一个方向: 通过数据的角度去加速模型 。 当前AI模型需要基于海量数据进行训练,这显著增加了大型模型的训练成本。我们研究如何更高效地利用数据,更科学地清洗和合成数据,并 利用合成数据进一步增强生成模型,从而实现数据高效的人工智能。 具体是什么意思? 实际上 模型压缩 这个领域其实并不新。作为机器学习中的一个分支,它旨在减少模型的复杂度、存储空间或计算资源需求,同时尽可能保持 其性能。像大家熟知的剪枝、量化、蒸馏都是模型压缩的传统方法。 随着大模型浪潮深入,「大力出奇迹」范式开始 ...
速递|Pruna AI开源模型压缩"工具箱",已完成种子轮融资650万美元
Z Potentials· 2025-03-21 03:22
图片来源: Pruna AI 欧洲初创公司 Pruna AI 一直在研究 AI 模型的压缩算法,该公司的优化框架将于周四开源。 Pruna AI 在几个月前完成了 650 万美元的种子轮融资。参与此次初创公司投资的包括 EQT Ventures 、 Daphni 、 Motier Ventures 以及 Kima Ventures 。 Pruna AI 一直在构建一个框架,该框架将多种效率方法应用于给定的 AI 模型,如缓存、蒸馏等。 "我们还标准化了压缩模型的保存和加载,应用这些压缩 方法的组合,并在压缩后评估你的压缩模型," Pruna AI 联合创始人兼 CTO John Rachwan 告诉 TechCrunch 。 Pruna AI 的框架能够评估模型压缩后,是否存在显著的质量损失,以及所获得的性能提升。 "如果要用一个比喻,我们类似于 Hugging Face 如何标准化 transformers 和 diffusers ——如何调用它们,如何保存、加载它们等。我们正在做同样的事 情,但针对的是效率方法,"他补充道。 大型 AI 实验室已经在使用各种压缩方法。 例如, OpenAI 一直依赖蒸馏技 ...