跳转至

MEMO: Human-like Crisp Edge Detection Using Masked Edge Prediction

会议: CVPR 2026
arXiv: 2603.20782
代码: https://github.com/cplusx/MEMO_Edge_Detection
领域: 模型压缩 / 边缘检测
关键词: 边缘检测, 掩码预测, 置信度排序推理, 多粒度预测, 合成数据预训练

一句话总结

提出 MEMO 框架,通过掩码边缘训练和基于置信度排序的渐进式推理策略,仅使用交叉熵损失就能生成清晰的单像素边缘图,在 crispness-aware 评估上大幅超越现有方法(BSDS 上 CEval ODS 从 0.749 提升到 0.836)。

研究背景与动机

  1. 领域现状:基于深度学习的边缘检测通常将问题建模为像素级二分类任务,使用交叉熵损失进行优化。主流方法如 HED、RCF、BDCN 等已取得不错的检测精度。

  2. 现有痛点:用交叉熵训练的模型普遍产生"厚边缘"预测——预测的边缘宽度远超人工标注的单像素宽度。现有方法要么设计专门的稀疏损失(如 CATS、CED),要么使用扩散模型(如 DiffEdge),但在 BSDS 等数据集上 crispness 仍低于 50%。

  3. 核心矛盾:多标注者的标签模糊性(同一位置多个标注者给出略有偏移的边缘)导致训练信号"软化",模型倾向于在边缘附近的多个像素上都给出高概率预测。

  4. 本文目标 (a) 不修改损失函数和网络架构的前提下产生清晰边缘;(b) 小数据集上避免过拟合;(c) 推理时支持多粒度边缘预测。

  5. 切入角度:作者观察到厚边缘预测呈现一个置信度梯度——中心边缘像素置信度最高,向两侧逐渐衰减。这意味着可以先确定高置信度预测,再逐步处理不确定区域。

  6. 核心 idea:通过掩码训练让模型学会在部分边缘已知时预测剩余边缘,推理时按置信度从高到低逐步"揭示"边缘图,自然实现单像素宽度。

方法详解

整体框架

MEMO 由三个组件构成:冻结的图像编码器 \(F_I\)(DINOv2-b)、掩码边缘编码器 \(F_E\) 和共享边缘解码器 \(D\)。训练分两阶段:(1) 在 40 万张合成边缘数据上预训练 \(F_E\)\(D\);(2) 在下游数据集上通过 LoRA 适配器微调,仅增加 1.2% 参数量。推理时从全掩码边缘图开始,迭代式地按置信度揭示预测结果。

关键设计

  1. 掩码边缘训练 (Masked Edge Training):

    • 功能:让模型学会在部分边缘已可见时预测被遮挡的边缘像素
    • 核心思路:对每个训练样本随机选择掩码比例 \(r \in (0, 1]\),对每个像素独立进行伯努利掩码。掩码比例通过正弦位置编码嵌入并注入到 \(F_E\)\(D\) 的每一层。损失函数仅在被掩码的像素上计算交叉熵:\(\mathcal{L} = -\mathbb{E}[\frac{1}{r}\sum_i \mathbf{1}[E_r[i]=\text{mask}] \cdot \text{BCE}]\)
    • 设计动机:这种训练方式让模型在推理时能处理"部分完成"的边缘图,学会在已确定的边缘附近抑制冗余激活,从而产生更薄的边缘
  2. 置信度排序推理 + LocMax 策略 (Confidence-Ordered Inference with LocMax):

    • 功能:推理时逐步揭示边缘图,避免一次性预测导致的厚边缘
    • 核心思路:每步预测所有掩码像素的边缘概率,但只保留在其 \(3 \times 3\) 邻域内置信度最高的像素(局部最大值策略)。具体地,像素 \(i\) 被确定当且仅当 \(c_i = \max(p_i, 1-p_i)\) 是其 \(3 \times 3\) 邻域中最大的。未确定的像素重新掩码进入下一轮迭代
    • 设计动机:naive 的 TopK 策略会导致空间上相邻的高置信像素同时被确认,产生厚边缘簇。LocMax 确保每个小区域内只确认一个像素,自然产生单像素宽度的边缘。且该策略保证收敛,因为掩码像素数单调递减
  3. 基于 Classifier-Free Guidance 的多粒度预测:

    • 功能:推理时通过单个参数控制边缘密度,无需额外训练或标签
    • 核心思路:训练时以 10% 概率将图像输入替换为零张量(无条件训练)。推理时通过外推有条件和无条件预测实现多粒度控制:\(p(E|I,E_r) = \text{Sigmoid}(s \cdot D_{\text{cond}} + (1-s) \cdot D_{\text{uncond}})\)。粒度尺度 \(s \geq 1\)\(s=1\) 为标准推理,\(s\) 增大产生更密集的边缘
    • 设计动机:借鉴扩散模型中 classifier-free guidance 的思想,但在边缘检测中重新定义为粒度控制。相比 MuGE 等需要多粒度标注的方法,MEMO 实现了纯推理时的无监督多粒度调节

损失函数 / 训练策略

  • 训练损失:仅使用标准二元交叉熵,作用于被掩码的像素
  • 预训练:使用 SAM 从 LAION 数据集提取 40 万张合成边缘图,通过形态学腐蚀获取单像素边界
  • 微调:LoRA 适配器注入边缘编码器和解码器,冻结预训练权重。AdamW 优化器,学习率 \(2 \times 10^{-5}\)
  • 数据增强:仅水平/垂直翻转和 90° 旋转,避免破坏边缘结构

实验关键数据

主实验

BSDS 数据集结果(单尺度预测):

方法 SEval ODS SEval OIS CEval ODS CEval OIS AC
HED 0.788 0.808 0.588 0.608 0.215
RCF 0.798 0.815 0.585 0.604 0.189
EDTER 0.824 0.841 0.698 0.706 0.288
UAED 0.829 0.847 0.722 0.731 0.227
MuGE 0.831 0.847 0.721 0.729 0.296
DiffEdge 0.834 0.848 0.749 0.754 0.476
MEMO (C*) 0.854 0.861 0.836 0.841 0.663

视觉相似度对比(与人工标注的相似性):

方法 AC FID↓ LPIPS↓
DiffEdge 0.476 89.96 0.300
MuGE 0.296 115.89 0.456
MEMO (C*) 0.663 83.95 0.282
MEMO (AC*) 0.705 75.55 0.291

消融实验

配置 SEval ODS CEval ODS AC 说明
LocMax, 10步 0.854 0.836 0.663 完整模型
Random 揭示 0.819 0.794 0.671 边缘碎裂,检测精度差
TopK 揭示 0.825 0.715 0.510 边缘聚集变厚
5步推理 0.855 0.835 0.594 速度快但 crispness 低
Full 步推理 0.846 0.842 0.840 最crisp但推理10.46秒
仅合成数据 - 较低 最高 清晰但检测精度不足
仅真实数据 - 较高 较低 出现边缘重复现象

关键发现

  • LocMax 是核心:相比 TopK 和 Random,LocMax 在 CEval 上分别提升 17% 和 5%,是唯一在所有指标上均表现良好的策略
  • 10 步推理是性价比最优:视觉上已足够清晰,推理时间仅 1.33 秒 vs Full 的 10.46 秒
  • 合成数据预训练至关重要:防止边缘重复伪影,提供单边缘先验偏置
  • BSDS 上 AC 从 0.476(DiffEdge)大幅提升到 0.663/0.705,crispness 提升接近 50%
  • 多粒度预测\(s=1.0 \sim 2.0\) 范围内的平滑过渡,M=11 时多粒度 CEval ODS 达 0.846

亮点与洞察

  • "不需要特殊损失函数"的哲学:仅用交叉熵就能实现清晰边缘,颠覆了领域内"必须设计稀疏损失"的共识。关键在于将问题从"训练阶段解决"转移到"推理阶段解决"
  • LocMax 策略极其巧妙:利用边缘置信度梯度这一自然属性,通过局部最大值选择实现逐像素的精确定位,思路简洁且有效
  • Classifier-free guidance 的跨领域迁移:将扩散模型中的生成控制技术重定义为边缘密度控制,无需多粒度标注即可实现多粒度预测,可迁移到其他像素级预测任务(如语义分割的多粒度控制)

局限与展望

  • 推理速度:10 步迭代推理比单次前向慢约 10 倍(1.33s vs ~0.1s),在实时场景中受限
  • BIPED 上 SEval 略低于 DiffEdge:在 SEval (含 NMS 后处理) 协议下 ODS 0.888 vs DiffEdge 0.899,说明在纹理丰富场景中仍有改进空间
  • 合成数据质量依赖 SAM:合成边缘质量受限于 SAM 的分割精度,可能对某些细粒度边缘覆盖不足
  • 可改进方向:(a) 蒸馏推理步数到 1-2 步加速;(b) 结合 SAM2 等更强分割模型构建更高质量合成数据;(c) 探索自适应动态步数而非固定 10 步

相关工作与启发

  • vs DiffEdge: DiffEdge 使用扩散模型作为骨干实现清晰边缘,但推理更慢且在细节区域出现碎裂/模糊。MEMO 通过更轻量的掩码训练+迭代推理实现了更好的 crispness
  • vs MuGE/SAUGE: 这些方法需要多粒度标注进行监督训练,MEMO 通过 classifier-free guidance 实现无监督多粒度控制
  • vs CATS/Refined Label: 这些方法通过稀疏损失或标签精细化提升 crispness,但 AC 仍低于 0.5。MEMO 证明了训练/推理策略设计的重要性超过损失函数设计

评分

  • 新颖性: ⭐⭐⭐⭐ 掩码训练+置信度排序推理的组合很新颖,但掩码训练思路与 MAE 类似
  • 实验充分度: ⭐⭐⭐⭐⭐ 三个数据集、多种评估协议、详尽的消融实验、视觉相似度分析
  • 写作质量: ⭐⭐⭐⭐⭐ 动机清晰,逻辑链条完整,图表设计精美
  • 价值: ⭐⭐⭐⭐ 对边缘检测领域有重要贡献,LocMax 策略可推广到其他像素级预测任务

相关论文