Knowledge Negative Distillation: Circumventing Overfitting to Unlock More Generalizable Deepfake Detection

The 33rd ACM International Conference on Multimedia 2025.07.05,

Jipeng Liu, Haichao Shi, Yaru Zhang, Xiaoyu Zhang

Abstract

深度伪造技术的快速发展,导致其滥用引发的危机事件日益频发。然而,现有的伪造检测方法往往因过度拟合训练数据集中固有的特定伪造线索,而存在跨域泛化能力不佳的问题。通过深入分析,我们发现低损失、过度拟合的特征会阻碍模型捕捉有效泛化所需的具有广泛适用性的模式。为克服这一局限,我们提出了知识负蒸馏(KND)—— 一种简单却高效的师生框架,旨在促使学生模型获取超出教师模型现有范围的知识。具体而言,在目标任务的训练过程中,我们通过最大化基于教师模型概率分布计算的交叉熵损失,引导学生模型避开教师模型的过度拟合特征。此外,我们还设计了一种自适应融合机制,以师生模型各自的概率分布为权重和指导,将具有扩展性的学生特征与教师特征进行整合。大量实验结果验证了 KND 的卓越性能,表明其在多个基准测试中均达到了最先进水平。此外,KND 的可扩展性和通用性凸显了其在更广泛的跨域问题中的应用潜力,这些问题普遍存在显著的过度拟合挑战。