跳转至

CRAFT: Training-Free Cascaded Retrieval for Tabular QA

会议: ACL 2026
arXiv: 2505.14984
代码: 项目页面
领域: 信息检索 / 表格问答
关键词: 表格检索, 级联检索, 零样本, 表格问答, 训练免

一句话总结

本文提出 CRAFT,一个无需数据集特定训练的三阶段级联表格检索框架(SPLADE 稀疏过滤 → 语义 mini-table 排序 → 神经重排序),通过 Gemini 生成的表格标题和描述增强表格表示,在 NQ-Tables 上达到 SOTA(R@1 49.84),在 OTT-QA 上展现强零样本泛化能力,且对查询改写具有显著鲁棒性。

研究背景与动机

领域现状:开放域表格问答(TQA)需要先从大规模表格语料中检索相关表格,再在其上推理得出答案。现有方法包括稀疏检索(BM25)、密集检索(DPR、DTR)和混合检索(THYME)。

现有痛点:(1) 密集检索模型(DTR、DPR)计算成本高,且需要在新数据集上重新训练或微调,限制了对新领域的适应性;(2) 简单将表格线性化为文本会丢失行列结构信息;(3) 复杂架构(如 SSDR 的语法感知检索器)需要精细建模且训练代价大。

核心矛盾:表格检索的 SOTA 依赖于昂贵的领域特定微调,这使得系统在面对新领域或新数据集时缺乏灵活性。能否用预训练模型通过精心设计的检索管道达到竞争性能?

本文目标:构建一个模块化、可扩展的多阶段检索框架,利用现成的预训练模型在零样本设置下实现有竞争力的表格检索和端到端 QA 性能。

切入角度:三阶段级联设计——从高召回的稀疏检索逐步过渡到高精度的语义重排序,每一阶段使用更强但更慢的模型。同时用 Gemini 生成表格标题和描述来弥补表格表示的语义不足。

核心 idea:将级联检索的"渐进精化"思想应用于表格检索——稀疏模型高效过滤 → mini-table 构建降低 token 开销 → 神经模型精确重排,无需任何训练即可实现 SOTA。

方法详解

整体框架

预处理(Gemini-1.5-Flash 生成查询子问题、表格标题和描述;Sentence Transformer 对表格行按语义相关性排序)→ Stage 1(SPLADE 稀疏检索,从 169K/419K 表格中过滤 Top-5000)→ Stage 2(构建 mini-table 即列头+前5行,用 Sentence Transformer/Jina 语义匹配得到 Top-K)→ Stage 3(用 OpenAI/Gemini embedding 重排序得到最终结果)→ 端到端 LLM 生成答案。

关键设计

  1. 三阶段级联检索:

    • 功能:渐进式从高召回过渡到高精度,兼顾效率和效果
    • 核心思路:Stage 1 用 SPLADE(稀疏词汇扩展)高效扫描全量表格(利用标题、列头、单元格值、描述),过滤到 5000 个候选。Stage 2 构建 mini-table(列头+前5行)并用 bi-encoder 语义匹配缩小到 Top-K。Stage 3 用最强嵌入模型(text-embedding-3-large 或 gemini-embedding-001)做最终重排序
    • 设计动机:全量表格上运行语义模型计算成本过高,级联设计在每阶段平衡精度和效率
  2. Mini-table 构建与表格增强:

    • 功能:降低 token 开销同时保留关键表格信息
    • 核心思路:每个表格仅保留列头和最相关的前 5 行(通过 Sentence Transformer 按语义相关性排序选择),构成 mini-table。同时用 Gemini-1.5-Flash 为每个表格生成描述性标题和详细描述,增强语义匹配能力
    • 设计动机:mini-table 实现了高达 33× 更少的在线嵌入调用和 70% 更短的上下文,且不损失检索精度
  3. 数据集特定的模型选择:

    • 功能:针对不同数据集特点选择最优预训练模型
    • 核心思路:NQ-Tables(单跳事实查询)使用 all-mpnet-base-v2 + text-embedding-3-large;OTT-QA(多跳推理、混合模式文本)使用 Jina Embeddings v3 + gemini-embedding-001。选择依据是模型对特定文本类型的适配性
    • 设计动机:不同数据集的查询和表格特征不同,模型选择应匹配数据特点

损失函数 / 训练策略

本文不涉及任何训练。所有模型使用预训练权重或 API。端到端 QA 使用 Llama3-8B、Qwen2.5-7B、Mistral-7B 以零样本或少样本方式生成答案。

实验关键数据

主实验

NQ-Tables 检索性能

模型 训练需求 R@1 R@10 R@50
THYME(SOTA 混合) 需微调 48.55 86.38 96.08
DTR+HN 需微调 47.33 80.96 91.51
BIBERT+SPLADE 需微调 45.62 86.72 95.62
CRAFT(零样本) 49.84 86.83 97.17

OTT-QA 零样本检索性能

模型 R@1 R@10 R@50
THYME(微调) 66.67 91.10 96.16
CRAFT(零样本) 55.56 89.88 96.07

消融实验

查询鲁棒性(改写查询下的性能变化 Δ)

模型 原始 R@10 改写后 Δ(avg)
DTR (M) 75.73 -8.38
DTR (S) 73.88 -11.82
DTR (M)+HN 80.96 -5.80
CRAFT 87.16 -0.04

关键发现

  • CRAFT 在 NQ-Tables 上零样本超越所有微调方法(R@1 49.84 vs THYME 48.55),证明精心设计的级联管道可以替代昂贵的微调
  • 在 OTT-QA 上,CRAFT 的零样本 R@50(96.07)接近微调 SOTA(96.16),差距仅 0.09
  • CRAFT 对查询改写几乎免疫(Δ=-0.04),而微调模型 DTR 性能下降 8-12 个点——泛化能力显著更强
  • 级联设计中每个阶段都有贡献:Stage 1→2 R@10 提升约 10-21 点,Stage 2→3 再提升 5-8 点
  • Mini-table 设计减少 33× 嵌入调用且不损精度

亮点与洞察

  • 用级联检索+表格增强的"工程智慧"击败了微调方法,说明预训练模型的通用能力被低估
  • 对查询改写的极端鲁棒性(Δ=-0.04)是非常实用的特性,微调模型在此方面脆弱
  • Mini-table 构建是一个简单但有效的效率优化,70% 更短的上下文在实际部署中意义重大

局限与展望

  • 依赖商业 API(Gemini、OpenAI embedding),成本和可复现性受限
  • 模型选择(NQ-Tables vs OTT-QA 用不同模型)引入了数据集特定的工程选择
  • 未评估在非英语表格或包含复杂格式(合并单元格)的表格上的表现
  • 预处理(生成标题/描述)需要额外的离线 LLM 调用

相关工作与启发

  • vs THYME: THYME 需要在目标数据集上微调且设计了字段感知匹配,CRAFT 无需训练但通过级联达到类似或更好性能
  • vs DTR: DTR 是经典密集检索器但对查询改写敏感,CRAFT 的级联设计天然更鲁棒
  • vs T-RAG: T-RAG 将检索和生成端到端结合,CRAFT 保持模块化便于替换组件

评分

  • 新颖性: ⭐⭐⭐ 级联检索+表格增强的组合设计虽有效但并非全新概念
  • 实验充分度: ⭐⭐⭐⭐⭐ 两个数据集、鲁棒性测试、阶段消融、端到端 QA 评估全面
  • 写作质量: ⭐⭐⭐⭐ 方法描述清晰,实验分析详尽
  • 价值: ⭐⭐⭐⭐ 证明了训练免检索可以达到 SOTA,对实际部署有直接价值

相关论文