🔄 自监督/表示学习¶
🧠 NeurIPS2025 · 共 17 篇
- A Unified Reasoning Framework for Holistic Zero-Shot Video Anomaly Analysis
-
提出一个完全零样本、无需训练的视频异常分析框架,通过Intra-Task Reasoning(置信度门控的自我精化)和Inter-Task Chaining(从时序检测到空间定位到语义理解的级联prompt传递),在4个benchmark上全面超越先前零样本方法4-6% AUC。
- Adv-SSL: Adversarial Self-Supervised Representation Learning with Theoretical Guarantees
-
提出 Adv-SSL,通过将协方差正则项的 Frobenius 范数重写为 minimax 对偶形式,消除了 Barlow Twins 等方法中样本级风险的有偏估计问题,在不增加额外计算成本的前提下显著提升下游分类性能,并给出端到端的理论收敛保证。
- BrainOmni: A Brain Foundation Model for Unified EEG and MEG Signals
-
提出 BrainOmni——首个统一 EEG 和 MEG 的脑信号基础模型,通过 BrainTokenizer(含物理传感器编码器)将异构脑电/脑磁信号离散化为统一 token,再用 Criss-Cross Transformer 进行自监督掩码预测预训练,在阿尔茨海默病检测上提升 11.7 个百分点,并实现对完全未见设备的零样本重建泛化。
- Chain-of-Retrieval Augmented Generation (CoRAG)
-
提出 CoRAG 框架,通过拒绝采样自动生成中间检索链(子查询→子答案),微调 LLM 学习迭代检索和推理,并支持多种测试时解码策略(贪心 / Best-of-N / 树搜索)灵活扩展计算量,在多跳 QA 上 EM 提升 26+ 点,KILT 基准 9/10 任务达到 SOTA。
- Connecting Jensen-Shannon and Kullback-Leibler Divergences: A New Bound for Representation Learning
-
推导了一般情况下 KL 散度关于 JS 散度的新的紧致可计算下界,证明最大化 JSD 目标等价于最大化互信息的一个下界,为判别式学习在 MI 基础表示学习中的使用提供了理论基础,并在 MI 估计和 Information Bottleneck 中验证了其紧致性和实用性。
- Continuous Subspace Optimization for Continual Learning (CoSO)
-
提出 CoSO 框架,通过从每步梯度的 SVD 动态导出连续子空间(而非 LoRA 的固定子空间),结合历史任务正交投影防止干扰和 Frequent Directions 高效聚合梯度信息,在 ImageNet-R 20 任务上以 78.19% 最终准确率超越最佳 baseline 2.77 个百分点。
- Contrastive Representations for Temporal Reasoning
-
论文研究能否用纯表示学习替代显式搜索来承担部分时序推理,指出标准 temporal contrastive learning 容易抓住伪特征而失去时序结构,进一步提出 CRTR(Combinatorial Representations for Temporal Reasoning),通过特制负采样从理论上去除伪特征,学到同时编码感知与时序结构的表示,在 Sokoban 和 Rubik's Cube 上取得强结果,甚至可在不依赖外部搜索算法的情况下求解任意初始魔方状态。
- DataRater: Meta-Learned Dataset Curation
-
提出 DataRater,一个基于元梯度(meta-gradient)的数据价值评估框架,通过元学习自动为每个训练数据点打分并过滤低质量数据,在多个预训练数据集上实现最高 46.6% 的净计算量节省,且在 400M 内部模型上训练的 DataRater 可直接泛化到 50M–1B 规模的 LLM 训练中。
- Deep Modularity Networks with Diversity-Preserving Regularization
-
在 Deep Modularity Networks (DMoN) 基础上引入三项多样性保持正则化(距离、方差、熵),显式促进特征空间中的簇间分离和分配多样性,在特征丰富的图数据集上显著提升聚类质量。
- Know Thyself by Knowing Others: Learning Neuron Identity from Population Context
-
提出NuCLR自监督框架,通过对比学习对群体神经活动中同一神经元的不同时间窗口拉近、不同神经元推远,学习包含群体上下文的神经元级表征,在细胞类型和脑区解码上达到新SOTA,并首次展示了跨动物零样本泛化和数据缩放规律。
- Minimal Semantic Sufficiency Meets Unsupervised Domain Generalization
-
MS-UDG 在无类别标签和域标签的条件下,通过信息解纠缠模块(IDM)将表征分解为语义和变异成分,配合最小语义充分性优化模块(SROM)最大化语义信息同时最小化变异干扰,在 PACS 上达 72.89% 准确率(+1.5% vs CycleMAE),理论证明最小充分语义表征最小化下游贝叶斯错误率。
- Sciarena An Open Evaluation Platform For Non-Verifiable Scientific Literature-Gr
-
构建SciArena——社区驱动的科学文献基础模型开放评估平台,支持47个模型和20K+偏好投票,同时发布SciArena-Eval元基准评估自动评估系统判断能力。
- Self-Supervised Contrastive Learning is Approximately Supervised Contrastive Learning
-
从理论上证明自监督对比学习(DCL)近似等价于一种有监督对比损失(NSCL),两者差距以 \(O(1/C)\) 速度随类别数增加而消失;进一步证明 NSCL 全局最优解满足 Neural Collapse(增强坍缩 + 类内坍缩 + Simplex ETF),并提出基于方向性 CDNV 的更紧的 few-shot 误差界。
- STaRFormer: Semi-Supervised Task-Informed Representation Learning via Dynamic Attention-Based Regional Masking
-
提出 STaRFormer,通过动态注意力区域掩码(DAReM)识别任务关键区域并施加掩码扰动,配合批内+类内半监督对比学习将任务信息嵌入潜在表示,在 56 个数据集(含非平稳、不规则采样、分类/异常检测/回归)上全面超越 SOTA。
- T-REGS: Minimum Spanning Tree Regularization for Self-Supervised Learning
-
提出 T-REGS——一种基于最小生成树(MST)长度最大化的自监督学习正则化框架,理论证明可同时防止维度坍缩并促进表示分布均匀性,在紧致黎曼流形上成立,实验在标准 JE-SSL 基准上验证了有效性。
- TabArena: A Living Benchmark for Machine Learning on Tabular Data
-
提出 TabArena,首个持续维护的"活跃"表格数据基准系统,从 1053 个数据集中精选 51 个、纳入 16 个模型,通过大规模实验(约 2500 万次模型训练)发现:后验集成下深度学习模型已追平甚至超越 GBDT,表格基础模型在小数据上表现突出,跨模型集成可进一步推进 SOTA。
- Tabstar A Tabular Foundation Model For Tabular Data With Text Fields
-
提出 TabSTAR,一个专为含文本字段的表格数据设计的基础模型:通过解冻文本编码器(e5-small-v2)端到端优化文本表征 + 目标感知 token 注入分类目标语义信息 + 无数据集特定参数的架构实现跨数据集迁移学习,在 350 个数据集上预训练后,分类任务上 14 个数据集中 12 个超越 CatBoost-Tuned(4h 调参),8/11 超越 TabPFN-v2。