在 AI 图像生成技术飞速发展的今天,指令型图像编辑已成为热门赛道。只需输入文字描述,就能让 AI 精准修改图像内容。但传统模型往往受限于有监督微调的固有缺陷,容易过度拟合训练数据,难以应对复杂多样的编辑需求。近日,北京大学与Rabbitpre AI联合团队推出的UniWorld-V2,凭借创新的Edit-R1 后训练框架,在两大权威基准测试中刷新纪录,为图像编辑技术带来突破性进展!已上线
尽管 diffusion 模型已大幅提升文本到图像的生成质量,但指令型图像编辑仍面临诸多挑战:
此前尝试将强化学习(RL)应用于扩散模型的方案,要么存在系统性偏差,要么依赖复杂推理导致计算成本过高,始终未能实现兼顾效率与效果的突破。
UniWorld-V2 的成功源于其创新的 Edit-R1 后训练框架,通过三大核心设计破解行业痛点:
摒弃传统依赖似然估计的强化学习方法,采用与流匹配前向过程一致的无似然政策优化技术。这种方法实现了训练与采样的解耦,支持黑盒求解器,不仅能兼容高阶采样器提升生成效率,还能有效避免系统性偏差,在探索多样编辑可能的同时保证生成质量。
创新性地将多模态大语言模型(MLLM)作为统一奖励模型,无需额外训练即可提供细粒度反馈。不同于传统的离散评分或链式推理(CoT)方法,该模型采用基于 logit 的连续评分机制,直接从模型输出的 token 分布中计算期望得分,既保证了评估的可解释性,又降低了计算成本,同时避免了推理偏差。实验表明,该奖励机制与人类偏好的对齐准确率高达 74.74%,远超其他主流方法。
针对 MLLM 评分可能存在的噪声问题,设计了智能过滤机制。通过设置均值和方差阈值,自动剔除那些评分高度相似、无法反映真实质量差异的样本组,避免噪声放大影响训练效果,让模型优化始终朝着正确方向推进。
在 GEdit-Bench 基准测试中,更是以 7.83 的高分刷新纪录,展现出极强的跨场景泛化能力。
在人类偏好测试中,优化后的模型在指令对齐维度大幅领先官方版本,即便在图像质量上与主流模型持平,仍因更精准的指令跟随能力获得用户青睐,充分证明其奖励机制与人类需求的高度契合。
视频生成模型的训练成本极高,而业界传统的视频VAE优化目标主要针对像素级重构质量。但研究发现,相比于重构质量,隐变量结构对扩散模型的收敛贡献更大。
UniWorld-V2 的训练数据集包含 27,572 个样本,覆盖替换、调整、移除、背景编辑、文本修改、红框控制等九大任务类型,几乎涵盖日常及专业场景的所有图像编辑需求:
无论是日常修图、设计创作,还是专业场景的图像优化,UniWorld-V2 都能凭借强大的泛化能力和精准的指令跟随,成为高效工具。
UniWorld-V2 的推出,不仅通过技术创新解决了传统图像编辑模型的核心痛点,更证明了 MLLM 与扩散模型结合的巨大潜力。其 Edit-R1 框架无需依赖复杂的领域特定数据集,即可快速提升各类基础模型的编辑性能,为图像编辑技术的工业化应用提供了高效解决方案。
开源社区建设需要长期坚持和投入,更需要广大用户的积极参与、贡献和维护,欢迎大家加入wisemodel开源社区的志愿者计划和开源共创计划。期待更多开发者将开源成果,包括模型、数据集和代码等发布到社区,共建中立、开放的AI开源社区生态。欢迎扫码添加wisemodel微信,申请加入wisemodel社群,持续关注wisemodel.cn开源社区动态。
始智AI wisemodel社区自2023年9月上线以来,逐渐成为影响力日益扩大的中立开放的AI开源社区,为了加快公司发展,我们长期需要技术、运营等人才加盟,技术侧重在AI infra、后端开发,熟悉K8S、模型训练和推理等技术, 以及熟悉开发者生态运营的成员,欢迎感兴趣的朋友加盟,可以通过添加wisemodel微信,或者将简历投递到邮箱:
欢迎投稿分享人工智能领域相关的优秀研究成果,鼓励高校实验室、大企业研究团队、个人等,在wisemodel平台上分享各类优质内容,可以是AI领域最新论文解读、最新开源成果介绍,也可以是关于AI技术实践、应用和总结等。投稿可以发邮件到,也可以扫码添加wisemodel微信。
始智AI wisemodel.cn开源社区由清华校友总会AI大数据专委会副秘书长刘道全创立,旨在打造和建设中立开放的AI开源创新社区,将打造成“HuggingFace”之外最活跃的AI开源社区,汇聚主要AI开源模型、数据集和代码等,欢迎高校科研院所、大型互联网公司、创新创业企业、广大个人开发者,以及政府部门、学会协会、联盟、基金会等,还有投资机构、科技媒体等,共同参与建设AI开源创新生态。