Automatic Combination of Sample Selection Strategies for Few-Shot Learning¶
会议: ACL 2026
arXiv: 2402.03038
代码: https://github.com/kinit-sk/ACSESS
领域: LLM/NLP
关键词: 少样本学习, 样本选择, 策略组合, 上下文学习, 元学习
一句话总结¶
本文提出 ACSESS 方法,通过前向选择、后向选择和 Datamodels 三种机制自动识别互补的样本选择策略并加权组合,在 23 种策略、5 个 ICL 模型和 3 种梯度少样本学习方法、6 个文本和 8 个图像数据集上验证了组合策略一致优于单一策略和 ICL 专用基线。
研究背景与动机¶
领域现状:少样本学习面临样本选择的关键挑战——性能可能因样本选择而剧烈波动。现有选择策略通常仅关注单一属性(如相似性、多样性、信息量),而大量面向上下文学习(ICL)的新策略虽然有效但往往只针对特定场景设计,可迁移性差。
现有痛点:(1) 单属性策略各有局限——最具信息量的样本可能难以学习,最相似的样本可能缺乏多样性;(2) ICL 专用策略(如 LENS、Active Prompt、EXPLORA、CASE)针对特定场景优化,泛化能力有限;(3) 经典的监督学习选择策略(如主动学习、核心集选择)在 LLM 场景下被系统性忽略。
核心矛盾:单一样本属性无法全面衡量样本对少样本学习的贡献,但穷举所有策略组合的计算成本不可接受。
本文目标:自动识别互补的样本选择策略并优化组合,使经典选择策略的组合能匹配或超越 ICL 专用策略。
切入角度:借鉴传统机器学习中的特征选择方法(前向/后向选择)和 Datamodels 思想,将其从样本级别提升到策略级别进行操作。
核心 idea:样本的"好坏"不能用单一属性衡量——信息量、代表性和可学习性是互补的维度,自动组合这些维度的策略可以选出具有互补属性的高质量样本。
方法详解¶
整体框架¶
ACSESS 分三个阶段:(1) 定义单属性策略集合(覆盖信息量、代表性、可学习性三大属性族);(2) 通过前向选择、后向选择和 Datamodels 三种独立方法分别识别高贡献策略子集,取三者交集;(3) 使用加权组合计算每个样本的综合评分,选择得分最高的 N 个样本。
关键设计¶
-
三维度策略定义(23 种单属性策略):
- 功能:覆盖样本选择的三大互补属性
- 核心思路:信息量——相似性、多样性、主动学习策略(Entropy, Margin, Least Confidence, Loss)、核心集选择(CAL, DeepFool, GraNd, Graph-Cut)。代表性——Herding, KCenter, CRAIG, Glister。可学习性——Forgetting(遗忘频率)和 Cartography(难学/易学/模糊样本)。每种策略为每个样本分配归一化到 [0,1] 的评分
- 设计动机:不同少样本学习方法对不同属性的样本有不同偏好——ICL 偏好难学样本,梯度学习偏好易学样本
-
三路独立策略识别机制:
- 功能:高效找到最有价值的策略子集
- 核心思路:(a) 前向选择:从空集开始,迭代添加带来最大性能增量的策略,直到无正增量;(b) 后向选择:从全集开始,迭代移除不会降低性能的策略;(c) Datamodels 选择:创建 150 个随机策略组合并评估,训练 LASSO 回归预测组合性能,保留正权重策略。最终策略集 = 三者交集 \(S_{final} = S_F \cap S_B \cap S_D\)
- 设计动机:任何单一选择方法可能有偏差,三路交集确保保留最稳健的策略,同时识别最少数量的策略以保证效率
-
加权组合与评分:
- 功能:将多策略的评分融合为单一样本得分
- 核心思路:\(score(x) = \sum_{s \in S} w_s \cdot objective_s(x)\)。三种加权方案——均匀加权(\(w_s = 1/|S_{final}|\),低计算成本,高可迁移性)、Datamodels 加权(使用 LASSO 回归权重,数据集/模型特异性,性能最优)、带随机的加权(额外引入随机评分,通常效果更差)
- 设计动机:均匀加权提供稳健的默认选择(性能仅比加权差 0.10-0.25%p),加权组合在资源充足时提供最优性能
损失函数 / 训练策略¶
ACSESS 本身不涉及模型训练,而是作为样本选择的预处理步骤。对于 ICL,选出的样本直接作为少样本示例。对于梯度少样本学习(Prototypical Networks、MAML、Few-Shot Fine-Tuning),选出的样本用于支撑集训练。评估采用 5-way 5-shot 设置,每次实验重复 5 次数据划分 × 10 次随机种子 × 300/600 个任务。
实验关键数据¶
主实验¶
ACSESS vs ICL 专用基线(文本数据集平均准确率增益,相对于 Classic selection)
| 方法 | ICL 平均增益 (pp) | 类型 |
|---|---|---|
| ACSESS (加权) | +2.5 | 本文方法 |
| CASE (Purohit et al., 2025) | +2.34 | ICL 专用 |
| EXPLORA (Purohit et al., 2024) | +1.8 | ICL 专用 |
| Active Prompt (Diao et al., 2024) | +1.6 | ICL 专用 |
| LENS (Li & Qiu, 2023) | +1.55 | ICL 专用 |
| 单属性最优 (Cartography-Hard) | +2.0 | 单策略 |
| Random selection | 0.0 | 基线 |
ACSESS 在所有比较中均通过 Wilcoxon 检验达到统计显著性。
消融实验¶
样本数量对选择策略效果的影响
| Shots 数量 | ACSESS vs Random (ICL, pp) | ACSESS vs Random (梯度, pp) |
|---|---|---|
| 1-shot | +4 ~ +7 | +7 |
| 5-shot | +2.5 | +1.8 |
| 20-shot | +10-12 (旧模型) / +2-3 (新模型) | 最高性能 |
| 30-40-shot | 开始回归 | 回归到随机 |
| 50-shot | ICL 性能下降 | — |
数据集大小的影响 - ICL:仅使用 25%(50 样本/类)即可匹配全数据集选择的性能 - 梯度学习:仅使用 10%(20 样本/类)即可匹配 - 降至 10 样本/类时,选择效益降低 20-40%
关键发现¶
- 可学习性是少样本学习最重要的样本属性:ICL 偏好难学样本(Cartography-Hard),梯度学习偏好易学+模糊样本和低遗忘频率样本。代表性策略在 ACSESS 最终选择中完全未被纳入
- ACSESS 识别出的最佳策略组合因学习方式不同而异——ICL 倾向 Cartography-Hard + Forgetting + Margin + Entropy;梯度学习倾向 Cartography-Easy&Ambiguous + Forgetting + Margin + Graph-Cut
- 均匀组合 Cartography + Margin(+可选 Forgetting)即可作为零额外计算成本的默认推荐,性能仅略低于完整 ACSESS
- 样本数量增加到 30-40 后,所有策略回归到随机选择的水平,说明样本选择主要在极低样本场景下有价值
- 更多样本不总是更好——ICL 在 50+ shots 时性能反而下降,可能与上下文长度限制有关
亮点与洞察¶
- 首次在统一框架下系统比较了 23 种样本选择策略跨 ICL 和梯度少样本学习,填补了重要空白
- 将 Datamodels 从样本级别提升到策略级别操作是优雅的抽象——以较低计算成本实现了组合空间的有效搜索
- "可学习性 > 信息量 > 代表性"的属性重要性排序颠覆了直觉——此前大量工作聚焦于相似性和多样性
- 均匀组合 Cartography + Margin 的实用建议降低了方法的使用门槛
- 样本选择在小样本时重要但在大样本时失效的发现,对实践具有直接指导意义
局限与展望¶
- 假设有足够大的标注数据集可供选择(最多 200 样本/类),真正的极低资源场景需要不同方案
- 仅使用 5-way 分类设置,更高类别数下 ICL 性能可能因上下文限制而退化
- 未进行广泛的提示工程,可能低估了某些策略的效果
- 计算成本较高(约 2500 GPU 小时 A100,270 kgCO2)
- 未来可探索无标签场景下的策略选择和更大规模 LLM 的表现
相关工作与启发¶
- vs LENS (Li & Qiu, 2023): LENS 使用两步搜索(信息量 + 多样性),ACSESS 自动发现最优策略组合,在多数场景下表现更好
- vs CASE (Purohit et al., 2025): 最强 ICL 专用基线,ACSESS 均匀组合即可匹配,加权组合超越 +0.16pp
- vs Datamodels (Ilyas et al., 2022): 原始 Datamodels 在样本级别操作,ACSESS 将其抽象到策略级别,降低了计算复杂度
评分¶
- 新颖性: ⭐⭐⭐⭐ 策略级别的自动组合是有价值的方法论创新,但各组件(前向/后向选择、Datamodels)本身不新
- 实验充分度: ⭐⭐⭐⭐⭐ 23 策略 × 5 ICL模型 × 3 梯度方法 × 14 数据集 × 多次重复,规模极大且消融全面
- 写作质量: ⭐⭐⭐⭐ 结构清晰,实用建议明确,但篇幅较长
- 价值: ⭐⭐⭐⭐ 对少样本学习样本选择的实践具有直接指导意义,统一比较填补了重要空白
相关论文¶
- [CVPR 2025] SEC-Prompt: SEmantic Complementary Prompting for Few-Shot Class-Incremental Learning
- [ACL 2025] From Selection to Generation: A Survey of LLM-based Active Learning
- [ACL 2026] FastDiSS: Few-step Match Many-step Diffusion Language Model on Sequence-to-Sequence Generation
- [ACL 2025] HyGenar: An LLM-Driven Hybrid Genetic Algorithm for Few-Shot Grammar Generation
- [ICML 2025] Adaptive Multi-prompt Contrastive Network for Few-shot Out-of-distribution Detection