一张分辨率低至“马赛克”级别的老照片,在1.7秒内被AI修复得毛孔可见、发丝分明;一段充满噪点和划痕的珍贵历史影像,在几分钟内重现鲜活动人的光影细节……这并非科幻电影中的场景,而是即将在第二十七届中国国际高新技术成果交易会(以下简称“高交会”)上,由中国科学院深圳先进技术研究院(以下简称“深圳先进院”)孵化的明犀科技所展示的突破性技术。
这项名为HYPIR的新型图像复原大模型,正像一具嵌入数字世界的“视觉引擎”,从根本上解决了图像复原领域长期面临的“鱼与熊掌”难题——要么追求质量却耗时漫长,要么追求速度却牺牲细节。
突破瓶颈:从“层层迭代”到“一步到位”
传统基于扩散模型的AI复原技术,虽效果显著,但其工作原理类似于一位需要反复揣摩的画师,需经过几十甚至上百步的“去噪”迭代才能输出最终图像,导致计算复杂度高、推理速度慢,成为技术普及的瓶颈。
“以往的方法往往包括扩散模型蒸馏、多步推理等复杂过程。而HYPIR则不需要依赖这些步骤,使用方法更加简单。”HYPIR模型的提出者、深圳先进院研究员、深圳市明犀科技有限公司首席科学家董超说,团队因此“舍弃了迭代式的扩散模型训练,改用单步的对抗生成模型训练方式”。
这一范式的转变,是速度实现数量级提升的关键。如同一位经验丰富、下笔精准的画师,无需草稿便能一挥而就,HYPIR实现了“一步到位”的高质量图像生成。实验数据显示,在单张显卡上,HYPIR仅需1.7秒即可完成一张1024x1024分辨率图像的复原,将此前以小时计的过程缩短至秒间。
修复前与修复后对比照片(陈宗浩及深圳先进院供图)
不止于快:实现8K级别的细节生成与精准控制
速度的飞跃并非HYPIR的全部。明犀科技在追求“快”的同时,对“质”提出了更高的要求。
据介绍,HYPIR采用了更新的文生图基模型,并创新性地使用预测统计散模型初始化复原网络,从而实现了8K级别的细节生成能力。这意味着,该模型不仅能将低分辨率图像放大,更能“无中生有”地填充符合图像语义和物理规律的高频细节,让复原结果无限接近用高清摄像机直接拍摄的质感。
HYPIR大模型在修复图像纹理细节上的效果展示,无论是人物皮肤的肌理还是织物的纹路都得到了惊人的还原。
尤为值得一提的是其出色的可控性。在图像复原过程中,用户可以根据自身需求,灵活调节“生成”与“复原”之间的平衡。是倾向于创造性地补充更多合理细节,还是严格忠实于原图信息?HYPIR将这一选择权交还给了用户。这种“用户控制灵活性”的设计,使得该技术既能满足专业修复师的严苛要求,也能让普通用户轻松上手。
央视新闻报道HYPIR发布(深圳先进院供图)
应用前瞻:为多行业注入“清晰”动能
技术的终极价值在于应用。HYPIR的“光速”与“高质”,为其在多个B端场景的落地铺平了道路。
在文化传承领域,它正用于高效修复国内外经典影视剧和老照片;在工业领域,其强大的细节增强能力可用于提升模糊影像的清晰度;在创意设计行业,它能将低分辨率素材一键增强为高清可用资源;甚至在遥感、医疗等科研领域,它也展现出提升图像分析精度的潜力。
目前,HYPIR大模型的开源代码和模型已上传至GitHub开放使用,并成功部署于明犀AI平台,与游戏大厂、光电企业、视频平台、档案机构等的产业化合作。
“真正的科研成果要尊重事实真相,经得起反复推敲。”董超表示,团队十年的技术积累,从2014年发表全世界第一篇用深度学习做图像超分的文章,到如今的第四代框架HYPIR,其核心目标就是让先进技术走出实验室,解决实际问题。
即将召开的深圳高交会,将是这把“视觉引擎”钥匙正式交到产业手中的重要时刻,为文化传承与保护、AIGC、影视、工业乃至更多未知领域,注入全新的动能。(来源:深圳先进院XPixel团队)
(注:此文属于央广网登载的商业信息,文章内容不代表本网观点,仅供参考)