Workflow
HYPIR图像复原大模型
icon
Search documents
新型大模型让图像复原更高效
Ke Ji Ri Bao· 2025-08-11 02:17
图像复原领域长期存在一个两难困境:追求高质量往往耗时长,而追求高效率则难免损失细节精 度。如何把一张老照片修复得又快又好? 近日,中国科学院深圳先进技术研究院发布HYPIR图像复原大模型。它由该院先进计算与数字工程 研究所研究员董超团队研发,为图像复原技术的实际应用提供了更高效的解决方案,更为影视修复、文 化传承与保护等领域带来新的可能。 传统方法中,基于预训练扩散模型的复原技术显著提升了图像复原效果,但存在计算复杂度高、推 理速度慢、训练资源消耗大以及生成结果可控性不足等问题。这些成为限制图像复原技术发展的瓶颈。 2024年,董超团队研发出智能画质增强大模型SUPIR。它能将低质量的图像恢复到接近原始状态的 高清图像,有效修复多种退化类型的图像。 HYPIR作为SUPIR的升级版,舍弃了迭代式扩散模型训练,改用单步的对抗生成模型训练方式,将 原有的算法速度提升了数倍。同时,HYPIR采用更新的文生图基模型进一步提升算法效果,实现8K级 别的细节生成,在生成图像的稳定性和可控性方面远超SUPIR大模型。 "以往的图像复原往往包括扩散模型蒸馏等过程。HYPIR则不需要依赖这些步骤,复原方法更加简 单。它在训练和 ...
1.7秒修复高清大片 新型大模型让图像复原更高效
Ke Ji Ri Bao· 2025-08-10 23:40
图像复原领域长期存在一个两难困境:追求高质量往往耗时长,而追求高效率则难免损失细节精度。如 何把一张老照片修复得又快又好? 近日,中国科学院深圳先进技术研究院发布HYPIR图像复原大模型。它由该院先进计算与数字工程研究 所研究员董超团队研发,为图像复原技术的实际应用提供了更高效的解决方案,更为影视修复、文化传 承与保护等领域带来新的可能。 传统方法中,基于预训练扩散模型的复原技术显著提升了图像复原效果,但存在计算复杂度高、推理速 度慢、训练资源消耗大以及生成结果可控性不足等问题。这些成为限制图像复原技术发展的瓶颈。 2024年,董超团队研发出智能画质增强大模型SUPIR。它能将低质量的图像恢复到接近原始状态的高清 图像,有效修复多种退化类型的图像。 HYPIR作为SUPIR的升级版,舍弃了迭代式扩散模型训练,改用单步的对抗生成模型训练方式,将原有 的算法速度提升了数倍。同时,HYPIR采用更新的文生图基模型进一步提升算法效果,实现8K级别的 细节生成,在生成图像的稳定性和可控性方面远超SUPIR大模型。 "以往的图像复原往往包括扩散模型蒸馏等过程。HYPIR则不需要依赖这些步骤,复原方法更加简单。 它在训练和 ...
我国发布新型图像复原大模型 1.7秒让老照片拥有8K级别细节
Yang Shi Xin Wen· 2025-07-29 09:45
据介绍,这款图像复原大模型目前已经过三次迭代升级,相较传统技术需要用图片制作软件逐个处理细节,它更智能,用时更短,而且能够修复出4K、8K 的画质。而相比现有的文生图技术,它通过大量数据学习和训练以及算法的提取,修复出的图片细节更加准确。 如何把一张老照片修复得又快又好呢?昨天(28日),中国科学院深圳先进技术研究院发布了一项名为HYPIR的图像复原大模型,最快1.7秒即可完成一张 照片的复原,并且实现了8K级别的细节生成,这一成果有望在文化传承与保护、影视修复以及科研、医疗等多个领域发挥积极作用。 1.7秒实现照片高清快速复原 这是一张毛发和轮廓模糊不清的狮子图像,画面背景还存在比较明显的噪点,通过使用这款图像复原大模型,1秒左右,一张高清且充满细节的狮子图像就 被成功修复了。 中国科学院深圳先进技术研究院数字所研究员董超:如果我们单纯做锐化,那么这些毛发只是这些毛发,它没有办法有新的毛发出来,但是我们如果仔细 看,除了锐化以外,它其实有新的毛发在旁边去辅助它,保持原图的特征不变,还能够恢复出清晰的细节,这是它最大的难度。 中国科学院深圳先进技术研究院数字所研究员董超:结合了最新的大语言模型和多模态大模型, ...
字节跳动开源AI Agent开发平台“扣子”;微软研究:人类辨别AI生成图像成功率仅62%丨AIGC日报
创业邦· 2025-07-28 23:47
Core Insights - ByteDance has officially open-sourced its AI Agent development platform "Coze," which includes Coze Studio and Coze Loop, aimed at fostering global developer collaboration and innovation [1] - The first multi-modal dream brain-computer interface device "Menglin" has been launched, designed to improve sleep quality and manage health through advanced technology [2] - A new image restoration model named HYPIR has been released by a research team, demonstrating significant speed and performance improvements over existing technologies [3] - A Microsoft study reveals that humans can only identify AI-generated images with a success rate of 62%, indicating a challenge in distinguishing between real and AI-generated content [4] Group 1 - ByteDance's Coze platform supports the development, testing, and tuning of AI agents, and is licensed under Apache 2.0 for commercial use [1] - The "Menglin" device integrates brain-computer interface technology with sleep management, featuring functions like EEG monitoring and AI data analysis [2] - The HYPIR model offers rapid image restoration capabilities, outperforming current technologies in resolution and user control [3] Group 2 - The Microsoft research involved over 12,500 participants and 287,000 image evaluations, highlighting the difficulty humans face in identifying AI-generated images [4]