TF-FAS: Twofold-Element Fine-Grained Semantic Guidance for Generalizable Face Anti-Spoofing¶
会议: ECCV 2024
论文链接: ECVA
代码: GitHub (代码待公开)
领域: 人脸理解 / 人脸安全 / 人脸反欺骗
关键词: 人脸反欺骗, 视觉语言模型, 细粒度语义引导, 泛化能力, CLIP
一句话总结¶
本文提出TF-FAS框架,通过双重语义元素(内容元素和类别元素)的细粒度引导来增强人脸反欺骗的跨域泛化能力,其中CEDM模块探索并解耦内容相关特征,FCEM模块挖掘类别内的细粒度差异,在多个跨域FAS基准上达到SOTA。
研究背景与动机¶
领域现状:人脸反欺骗(Face Anti-Spoofing, FAS)旨在判别人脸是否为活体(live face)或欺骗攻击(如打印照片、屏幕重放、3D面具等)。近年来,将视觉语言模型(如CLIP)引入FAS成为一个热门方向,因为VLM具备强大的预训练表示能力,有望提升FAS在未见过的攻击类型和场景中的泛化性。
现有痛点:已有引入VLM的FAS方法存在两个关键限制:(1) 仅使用粗粒度的提示文本(如"a photo of a real/fake face")进行微调,没有充分挖掘语言监督的潜力——这种简单的二分类提示无法描述欺骗攻击的多样性和复杂性;(2) 只关注单一元素的提示(要么关注攻击类别,要么关注内容特征),缺乏对FAS任务中多维度语义信息的全面利用。
核心矛盾:FAS的泛化难题源于两个层面的复杂性——内容层面,不同的攻击方式(打印、屏幕、面具)产生不同的内容特征(如莫尔纹、光线反射、边缘伪影),这些特征与活体/欺骗的判别能力不同;类别层面,即使是同一类别(如"活体"),不同光照、角度、人种下的表现差异也很大。现有方法要么将所有攻击统一处理忽略了内容多样性,要么将live/spoof简单二分忽略了类内差异。
本文目标 (1) 如何从语言角度全面描述FAS任务中的语义元素,真正发挥VLM的语言监督优势?(2) 如何利用语义引导帮助模型解耦内容特征和类别特征,增强泛化?(3) 如何处理同一类别内的细粒度差异来提升分类精度?
切入角度:作者提出从"双重元素"(twofold-element)的角度来挖掘fine-grained语义引导,分别从内容元素和类别元素两个维度提供丰富的语言监督。内容元素描述攻击方式相关的视觉特征(如纹理、材质、反射),类别元素描述不同类别内的细粒度变化。两者协同提供比简单二分类提示更丰富、更有指导性的语义信号。
核心 idea:通过双重维度(内容元素+类别元素)的细粒度语义引导来充分释放视觉语言模型在FAS任务中的泛化潜力。
方法详解¶
整体框架¶
TF-FAS基于CLIP视觉语言模型构建。输入为人脸图像,经过CLIP的视觉编码器提取特征。在此基础上,CEDM(Content Element Decoupling Module)利用内容相关的语义元素引导视觉特征的解耦,将类别判别特征与内容相关特征分离;FCEM(Fine-Grained Categorical Element Module)则探索每个类别内的细粒度语义差异,生成自适应的类别原型来更好地建模每个类别的分布。最终结合解耦后的类别特征和细粒度类别原型进行live/spoof判别。
关键设计¶
-
内容元素解耦模块(Content Element Decoupling Module, CEDM):
- 功能:从语义层面探索与内容相关的元素,并利用这些元素引导视觉特征解耦
- 核心思路:CEDM首先通过语言先验(利用CLIP的文本编码器)定义一组描述攻击内容的语义元素,例如"纸张纹理"、"屏幕莫尔纹"、"面具材质边缘"等。这些描述被编码为内容元素向量。然后,对于输入图像的视觉特征,CEDM通过内容元素向量进行投影和分解,显式地将与内容相关的特征分量(如跟攻击介质有关的纹理特征)从类别判别特征(如活体/欺骗的本质差异特征)中分离出来。最终,只保留类别判别特征用于分类,丢弃内容相关特征
- 设计动机:在跨域场景下,内容相关特征(如打印纸的纹理)在不同域中可能变化很大,如果模型依赖这些特征判别就会导致泛化失败。CEDM通过显式解耦确保模型学到的是与攻击本质相关的特征,而非与特定攻击介质相关的表面特征
-
细粒度类别元素模块(Fine-Grained Categorical Element Module, FCEM):
- 功能:探索每个类别内部的细粒度差异,生成自适应的类别表示
- 核心思路:与传统FAS方法使用单一的"live"/"spoof"原型不同,FCEM为每个类别生成多个细粒度的子类别描述。对于"spoof"类别,FCEM可能生成"打印攻击"、"屏幕重放攻击"、"3D面具攻击"等不同层级的描述;对于"live"类别,可能区分不同光照条件、角度等。这些细粒度描述通过CLIP文本编码器编码为多个类别元素向量。在推理时,FCEM根据输入图像自适应地组合这些细粒度元素,生成最合适的类别原型,然后通过图像特征与类别原型的相似度进行最终判别
- 设计动机:FAS中的每个类别本身具有很大的多样性。使用单一原型无法捕捉类内变化,导致决策边界过于粗糙。细粒度的多原型表示能更精确地建模每个类别的分布,从而提升在各种条件下的判别精度
-
双重元素协同策略:
- 功能:协调CEDM和FCEM的作用,确保两个模块互补而非冲突
- 核心思路:CEDM主要负责"去除干扰"——将内容噪声从特征中移除;FCEM主要负责"精细建模"——用更精确的类别表示来匹配去噪后的特征。两者形成一个"先去噪后匹配"的pipeline。在训练过程中,CEDM的解耦效果通过重构损失保证,FCEM的细粒度建模通过对比损失保证,两者的梯度互不干扰
- 设计动机:只做解耦不做细粒度建模会导致虽然去除了噪声但分类精度不够;只做细粒度建模不做解耦则可能让细粒度原型也受到内容噪声的污染。双重元素协同确保了"干净的特征+精确的分类器"
损失函数 / 训练策略¶
训练损失由三部分组成:(1) 二分类交叉熵损失用于基本的live/spoof判别;(2) 内容元素解耦损失确保解耦后的特征中内容信息被有效移除;(3) 细粒度对比损失确保同类样本在特征空间中更紧密、异类样本更远离。整体训练基于CLIP模型微调,冻结大部分CLIP参数,只训练新增的CEDM和FCEM模块。
实验关键数据¶
主实验¶
| 协议 | 训练→测试 | 指标(HTER/AUC) | TF-FAS | 之前SOTA | 提升 |
|---|---|---|---|---|---|
| Protocol 1 | O&C&I→M | HTER↓ | 显著优 | FLIP-MCL等 | 超越SOTA |
| Protocol 2 | O&M&I→C | HTER↓ | 显著优 | FLIP-MCL等 | 超越SOTA |
| Protocol 3 | O&C&M→I | HTER↓ | 显著优 | FLIP-MCL等 | 超越SOTA |
| Protocol 4 | I&C&M→O | HTER↓ | 显著优 | FLIP-MCL等 | 超越SOTA |
备注:O=OULU-NPU, C=CASIA-MFSD, I=Replay-Attack, M=MSU-MFSD
消融实验¶
| 配置 | HTER(avg) | 说明 |
|---|---|---|
| CLIP baseline (粗粒度提示) | 较高 | 标准CLIP+简单提示 |
| + CEDM | 明显下降 | 内容解耦有效提升泛化 |
| + FCEM | 明显下降 | 细粒度类别建模有效 |
| + CEDM + FCEM (Full) | 最优 | 双重元素协同效果最好 |
| 粗粒度类别提示 vs 细粒度类别提示 | 细粒度优 | 证实细粒度引导的价值 |
关键发现¶
- CEDM和FCEM各自独立使用都能带来提升,但二者联合使用的效果显著优于单独使用,证明双重元素策略的互补性
- 内容元素的语义描述质量对CEDM效果影响较大,精心设计的语义元素描述比随机描述效果明显更好
- 在最困难的跨域协议(如O&C&I→M)上提升最为显著,说明本文方法在domain gap较大时优势更明显
亮点与洞察¶
- 从内容和类别双维度挖掘语言监督信号:不同于简单的"real/fake"二分类提示,本文从内容元素和类别元素两个正交维度构建细粒度的语义引导,这种多维度语义利用思路可以迁移到任何需要VLM微调的判别任务中
- 显式解耦内容特征的思路值得借鉴:CEDM利用语言先验显式定义"什么是内容特征",然后用投影方法将其移除,这比传统的对抗式解耦更稳定且可解释
- 细粒度类别原型自适应组合:FCEM不是为每个细粒度类别硬分配,而是让模型自适应组合,兼顾了细粒度建模和泛化性
局限与展望¶
- 内容元素的语义描述需要人工设计,对新攻击类型的泛化依赖于描述的完备性。如果出现全新的攻击方式(如深度伪造),可能需要更新元素描述集
- CEDM和FCEM都依赖CLIP的文本编码器质量,如果CLIP对FAS相关语义的编码不够好,效果可能受限
- 代码尚未公开,方法的具体实现细节和复现性有待验证
- 实验主要在经典的四个FAS数据集上验证,在更大规模或更多样化的benchmark上的表现有待观察
相关工作与启发¶
- vs FLIP-MCL: FLIP-MCL也将CLIP引入FAS,但使用的是粗粒度提示和简单的多模态对比学习。TF-FAS通过细粒度双重元素引导提供了更丰富的语言监督,在跨域场景下泛化更好
- vs CoOp/CoCoOp: 这些通用的prompt learning方法虽然也微调CLIP,但没有针对FAS任务的特殊设计。TF-FAS的内容解耦和细粒度类别建模是专为FAS泛化问题设计的
- vs SSDG/DRDG: 传统的域泛化FAS方法依赖对抗训练或元学习,计算开销大且不稳定。TF-FAS利用VLM先验提供了更高效的泛化途径
评分¶
- 新颖性: ⭐⭐⭐⭐ 双重元素细粒度语义引导的概念新颖,CEDM和FCEM设计合理
- 实验充分度: ⭐⭐⭐⭐ 四个标准协议全面验证,消融实验详尽
- 写作质量: ⭐⭐⭐⭐ 动机阐述清晰,方法描述逻辑通顺
- 价值: ⭐⭐⭐⭐ 对VLM在安全关键任务中的应用有很好的指导意义
相关论文¶
- [ECCV 2024] Towards Unified Representation of Invariant-Specific Features in Missing Modality Face Anti-Spoofing
- [AAAI 2026] PA-FAS: Towards Interpretable and Generalizable Multimodal Face Anti-Spoofing via Path-Augmented Reinforcement Learning
- [ECCV 2024] Generalizable Facial Expression Recognition
- [ICCV 2025] DADM: Dual Alignment of Domain and Modality for Face Anti-Spoofing
- [AAAI 2026] CLIP-FTI: Fine-Grained Face Template Inversion via CLIP-Driven Attribute Conditioning