跳转至

CaptionSmiths: Flexibly Controlling Language Pattern in Image Captioning

会议: ICCV 2025
arXiv: 2507.01409
代码: https://github.com/omron-sinicx/captionsmiths
领域: Multimodal / VLM
关键词: 图像描述, 可控生成, 连续条件化, 视觉语言模型, 语言模式控制

一句话总结

提出CaptionSmiths框架,通过连续标量插值(而非离散聚类)对图像描述的长度、描述性和词汇独特性三个属性进行滑块式灵活控制,在多数据集联合训练下实现比基线更精确的属性控制和更高的词汇对齐质量。

研究背景与动机

图像描述(Image Captioning)是计算机视觉的重要任务,广泛应用于辅助视障人士等场景。当前基于视觉-语言基础模型(如LLaVA、CLIP+LLM)的描述模型虽然在生成质量上有显著进步,但对生成描述的语言模式(如长度、信息密度、用词精细度)缺乏灵活控制。现有可控描述方法存在三大痛点: 1. 仅在单一数据集(COCO)上验证,泛化性不明 2. 控制维度局限于长度一个属性 3. 使用离散聚类索引进行条件化,模型只能在聚类中心之间跳跃,无法表示中间状态

核心矛盾在于:离散条件化将连续属性空间人为分割成若干桶,桶内样本多样性被抹平,且需要调整聚类数量这一超参数。本文的切入角度是将属性量化为[0,1]连续标量,并通过两个端点向量的线性插值实现滑块式平滑过渡。核心idea:连续插值条件化天然等价于单层线性映射,参数效率高且训练样本利用率远优于离散分桶。

方法详解

整体框架

基于LLaVA架构(CLIP ViT-L视觉编码器 + LLaMA-2 7B解码器),在标准自回归训练的基础上,为每条训练描述计算三维条件标量(长度L、描述性D、独特性U),将条件标量编码为token embedding后前置到描述序列,进行条件化自回归训练。推理时用户通过指定标量值或提供参考句来控制输出。

关键设计

  1. Condition Calculator(条件计算器):

    • 功能:对每条描述自动量化三个属性为标量值
    • 核心思路:
      • 长度(L): 直接使用LLaMA tokenizer的token数量 \(L_c\)
      • 描述性(D): 描述中形容词+名词占总词数的比例 \(D_c = \frac{1}{T_c}\sum_{t=1}^{T_c}\mathbb{I}[w_t \in \text{ADJ} \cup \text{NOUN} \setminus \mathcal{V}_{excl}]\),排除"image"等非描述性名词
      • 独特性(U): 描述中各词词频倒数的平均值 \(U_c = \frac{1}{T_c}\sum_{t=1}^{T_c}\frac{1}{F(w_t)}\),罕见词越多分越高
    • 设计动机:不需要人工标注,完全通过数据统计自动计算;三个属性覆盖长度控制、信息密度和词汇精细度三个正交维度
  2. Decorrelation + Normalization(去相关与归一化):

    • 功能:对三个属性值进行去相关处理和归一化到[0,1]
    • 核心思路:以长度为主属性不变,先对独特性做关于长度的线性回归残差,再对描述性做关于前两者的残差,最终按最大值归一化
    • 设计动机:虽然实测相关性较小(最大-0.11),但去相关可确保调控一个属性时不会无意影响其他属性
  3. Condition Encoding(条件编码):

    • 功能:将[0,1]标量编码为语言模型的token embedding
    • 核心思路:为每个属性学习两个端点向量 \(E_0\)\(E_1\)(各为d维),通过标量线性插值生成条件embedding:\(E_c^L = \bar{L}_c \cdot E_1^L + (1-\bar{L}_c) \cdot E_0^L\)
    • 设计动机:
      • 等价于单层线性层(\(w \cdot x + b\)),但解释性更强
      • 仅增加 \(2 \times d\) 参数(vs. 离散方法 \(k \times d\)
      • 两个端点参数可用几乎所有样本训练(vs. 离散方法每个桶仅用对应样本),训练效率更高

损失函数 / 训练策略

使用标准自回归交叉熵损失,条件token前置: $\(\mathcal{L}_c = -\sum_{t=1}^{T} \log p(w_{t+1}|w_{<t}, I, E_c^L, E_c^D, E_c^U)\)$

训练数据包含6个数据集共130万图像-描述对(LN COCO、Detail23K、Docci、Laion-COCO、COCO、Monkey),提供丰富的长度和风格多样性。

实验关键数据

主实验

数据集/模型 BLEU@4 METEOR CIDEr Rouge-L
COCO (Short)
Blip-3 8.2 28.5 57.5 36.4
Qwen2-VL-7B 9.9 34.4 84.3 39.7
Concap 11.5 36.7 95.9 39.9
CaptionSmiths 11.4 38.8 104.8 39.8
LN COCO (Middle)
Concap 9.6 33.5 23.5 32.3
CaptionSmiths 9.6 36.9 37.4 32.8
Docci (Long)
Concap 7.2 26.8 8.3 26.0
CaptionSmiths 9.1 32.2 29.7 26.9

CaptionSmiths在CIDEr上分别提升9.3%/59.1%/257.8%,在长描述数据集上优势尤为显著。

消融实验

配置 CIDEr↑ BLEU@4↑ 长度误差↓ 说明
离散5组 110 12.5 13.8 粗糙控制
离散20组 105 11.9 10.9 控制改善但对齐下降
离散100组 103 11.6 9.7 样本效率问题凸显
CaptionSmiths 112 12.6 1.6 兼顾控制精度与对齐

连续条件化在长度控制精度上比离散100组提升506%(误差从9.7降到1.6),同时CIDEr反超。

关键发现

  • 提升描述性值可增加CLIPScore(图像-描述对齐更好),甚至超过GT描述
  • 提升独特性值可显著提高细粒度类别召回率(CUB鸟类、Stanford Dogs、Stanford Cars)
  • 自检索评估(Self-retrieval): CaptionSmiths R@1=36.9 vs Concap 32.5 vs GT 32.6,生成描述比GT更具图像特异性
  • 词汇多样性远超基线(unique word ratio显著更高)
  • 三个条件控制基本解耦:改变一个属性对其他属性影响仅1-2 token

亮点与洞察

  • 连续插值条件化的简洁性令人赞赏:参数量最小(仅6个d维向量),却实现了最佳控制精度
  • 从model soup/model merging角度理解条件化:端点向量对应不同"任务"的模型权重,插值实现任务混合
  • 自检索指标超越GT描述本身,说明条件化使模型学到了更具区分性的描述方式
  • 三属性控制的解耦性验证了去相关处理的有效性

局限与展望

  • 生成长描述时存在幻觉问题(hallucination),这是LLM的固有局限
  • 仅控制三个属性,其他重要属性(如情感色彩、领域专业度)未涉及
  • 独特性值的直觉指定较困难(依赖数据集统计)
  • 人们对"好描述"的偏好是主观的,未引入人类偏好反馈

相关工作与启发

  • 与FlexCap等长度控制方法的本质区别在于:多属性+连续化
  • 连续条件化思路可推广到其他条件生成任务(如可控文本生成、风格迁移)
  • Model soup思想在参数空间的应用为可控生成提供了新范式

评分

  • 新颖性: ⭐⭐⭐⭐ 连续插值条件化在可控描述中的应用新颖且优雅,但核心技术相对简单
  • 实验充分度: ⭐⭐⭐⭐⭐ 多数据集联合训练/评估 + 三属性分别验证 + 自检索 + 消融 + 细粒度分类验证
  • 写作质量: ⭐⭐⭐⭐ 逻辑清晰,图表直观,公式与直觉解释并重
  • 价值: ⭐⭐⭐⭐ 为可控图像描述提供了实用且高效的解决方案,滑块式控制有实际应用价值

相关论文