生成式视角重塑监督学习!标签不只是答案,更是学习指南 | ICML 2025
量子位·
2025-06-24
PCL团队 投稿量子位 | 公众号 QbitAI
生成式视角可以对监督学习重新思考乃至重新定义!
想象你在教一个学生解数学题——你会直接让他交卷对答案,还是会让他参考完整答案来理解解题思路?
如今,一种全新的监督学习范式正受到关注:标签不应只是用于对照回答的标准答案,更可能成为学习过程中的辅助参考。
受生成式一致性模型的启发,来自上海交大、SII、MIT、港中文深圳等机构的研究团队在ICML 2025最新提出预测一致性学习(PCL,Predictive Consistency Learning)。
PCL通过扩散模型的扩散过程消减标签的信息,将噪声标签(Noised Labels)引入模型的输入,使得模型在数据输入和噪声标签的共同参照下预测完整标签,实现标签信息的复用和价值挖掘。
训练过程概览
为了系统化地规划标签学习过程,研究人员借鉴了扩散模型和一致性模型中的加噪过程,通过生成带噪标签作为额外的输入提示,使模型能够在学习带噪部分的同时补充完整信息。
模型每次采样两个不同的时间步,要求模型在不同时间步的提示下尽可能精准还原标签,同时预测的结果尽可能保持一致。
通过这种跨噪声水平的一致性约束,模型能够学习从完全噪声到精确标签的不同层级的标签信息,从而构建更具表达力的映射关系。
预测一致性机制的作用在于,将低噪声条件下的预测精度传递至高噪声条件,同时约束模型在不同噪声水平下表征的不变性,从而减小对于标签提示的过度依赖,服务于测试过程。最终损失函数形式为:
标签噪声过程
嵌入空间的噪声过程:在标签过于复杂,无法直接表示为分类或连续值,或者类别数过大时,PCL直接向标签的潜在嵌入空间引入高斯噪声,这种方式与连续标签的噪声过程一致。
测试过程概览
为了实现这种提升,可以采用多步推理策略,通过对上一步标签重新引入噪声作为下一步预测的标签提示并且交替执行预测,使得模型能够在多个推理步骤中逐步细化其输出,并利用早期预测中嵌入的越来越丰富的提示信息。
信息论视角
实验结果
由于PCL作为一种新颖的训练范式被提出,因此主要的基准对比是传统的监督学习。研究者在不同模态的经典代表性模型骨干网络上进行比较,以展示PCL的通用适用性。这些任务包括视觉模态的语义分割、图模态的N体问题仿真和语言模态的next-token prediction监督微调。
在图像语义分割任务中,上图展示了PCL的预测过程。模型首先在完全随机噪声的提示下进行预测,然后将上一步的标签预测加噪到更小的噪声程度,作为下一步的标签提示。
通过这种递进式的噪声处理和多步推理,最终得到更加精确的预测结果。与传统监督学习(SL)进行对比,PCL在单步预测时就已经超过了SL,而随着预测步骤的增多,预测质量持续提升。
上图展示了在给定标签提示的情况下,不同时间步设置对模型预测错误范围的影响。可以发现,设置较大的时间步倾向于鼓励模型改进更广泛的结构关系,而设置较小的时间步则鼓励模型专注于更精细的细节,例如物体的边界。
这一现象表明,模型通过引入时间步的设计,能够在标签预测过程中分层次地学习不同粒度的信息,从全局结构到局部细节。
上表展示了在语义分割任务上,PCL与SL的定量表现对比,进一步验证了PCL在提升预测精度方面的优势。
在图模态的预测任务中,上图展示了不同学习阶段下模型在预测阶段的推理步数对预测质量的影响。在训练尚不完全时,推理步数越多,预测精度越高。
然而,随着训练逐渐完成,观察到随着推理步数的增加,预测误差会持续下降,但在达到某个临界点后,误差可能会反弹上升。
这种现象源于训练与推理阶段的差异:在训练阶段,模型始终以真实标签的噪声扰动版本作为输入,而在推理阶段,模型依赖于自身的中间预测结果,这些预测可能包含误差,并在多步迭代中逐渐累积。
由此产生了一个权衡问题:更多的推理步数有助于捕捉更精细的预测细节,但也增加了误差累积的风险。为了优化这一平衡,研究人员通过验证集确定最佳的推理步数,并在测试阶段引入早停机制,在误差开始上升之前终止推理流程。
值得注意的是,单步预测的精度相比于传统监督学习已经有了显著提升。
上表展示了PCL相较于SL在预测精度上的显著提升,进一步验证了PCL在处理复杂预测任务中的优势。
在语言模态的next-token prediction监督微调任务中,研究人员对比了使用SL和PCL微调LLaMa2-7B模型的效果,结果表明,PCL相较于SL在性能上具有优势。
由于噪声过程尚未进行定制化,并且next token作为标签信息的提示量相对单薄,当前的框架仍然有较大的提升空间。
未来的研究可以进一步优化噪声过程并增强标签信息的丰富度,从而进一步提升PCL在语言任务中的表现。
论文链接:https://openreview.net/pdf?id=FO2fu3daSL代码链接:https://github.com/Thinklab-SJTU/predictive-consistency-learning
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
🌟 点亮星标 🌟
科技前沿进展每日见
Like
Share
Popular
Comment