LADDER: Language-Driven Slice Discovery and Error Rectification in Vision Classifiers¶
会议: ACL 2025
arXiv: 2408.07832
代码: batmanlab/Ladder
领域: NLP × Computer Vision
关键词: slice discovery, bias mitigation, LLM reasoning, vision classifiers, error analysis
一句话总结¶
提出 LADDER 框架,利用 LLM 的推理能力和潜在领域知识,通过分析文本(图像描述/医学报告/元数据)自动发现视觉分类器中的系统性偏差切片(error slices),并通过伪标签生成和属性重平衡实现无需标注的多偏差缓解。
研究背景与动机¶
视觉分类器在特定数据子集上会系统性失败,这些子集被称为"错误切片"(error slices)。发现和修复这些切片对模型鲁棒性至关重要,但现有方法存在明显不足:
受限于预定义属性库:Domino、PRIME 等方法依赖固定的视觉标签或无监督聚类,缺乏推理能力
缺乏常识推理与领域知识:特别是在放射学等专业领域,需要细粒度的领域知识来识别如胸管、钙化类型等偏差
只能检测图像属性偏差:忽略了数据预处理管道(如 DICOM header、EHR 元数据)中引入的偏差
偏差缓解依赖昂贵标注:GroupDRO、JTT 等方法需要属性标注,且改善最差组的同时可能损害其他组
作者的核心假设是:偏差诱导变量在语言中留下痕迹(如日志、描述、报告),可被捕获为非结构化文本,LLM 则具备分析这些文本以发现偏差模式的能力。
方法详解¶
整体框架¶
LADDER 的流程分为三个阶段:检索 → 发现 → 缓解。
给定一个预训练分类器 \(f = g \circ \Phi\)(\(\Phi\) 为表征提取器,\(g\) 为分类头),LADDER 利用文本语料(验证集的图像描述/放射报告)进行错误切片的发现和缓解,无需样本级标注或人为先验知识。
关键设计¶
-
阶段1:检索偏差指示性句子
- 学习投影函数 \(\pi: \Phi \to \Psi^I\),将分类器的表征对齐到视觉-语言表征(VLR)空间
- 计算正确分类样本和错误分类样本的投影表征均值差 \(\Delta^I\)
- 这个差异捕获了"对正确分类有贡献但在错误分类中缺失"的关键属性
- 在 VLR 空间中检索与 \(\Delta^I\) 相似度最高的 topK 句子
- 设计动机:直接利用模型内部知识绕过预定义属性限制
-
阶段2:通过 LLM 发现错误切片
- 将 topK 句子输入 LLM,生成假设集合 \(\{\mathcal{H}, \mathcal{T}\}\)
- 每个假设 \(H\) 包含一个偏差属性描述和一组测试句子 \(\mathcal{T}_H\)
- 计算测试句子的平均文本嵌入,与每个图像的投影表征计算相似度分数 \(s_H(X)\)
- 低于阈值 \(\tau\) 的图像构成潜在错误切片 \(\mathcal{S}_{Y,\neg H}\)
- 如果切片的错误率显著高于整类错误率,则该假设为有效偏差发现
- 设计动机:LLM 的推理能力和隐式领域知识可发现传统方法无法识别的细粒度偏差
-
阶段3:无标注的多偏差缓解
- 将相似度分数 \(s_H\) 转化为伪标签(概率 > 0.5 赋值为1,否则为0)
- 对每个假设对应的属性,从验证集构建平衡数据集
- 微调分类头 \(g\),为每个假设产生一个去偏模型
- 推理时,选择与输入相似度最高的假设对应的分类头进行预测
- 设计动机:集成策略允许同时处理多种偏差,无需预知偏差类型和数量
损失函数 / 训练策略¶
- 投影函数 \(\pi\) 使用线性回归学习,将分类器表征映射到 CLIP 图像编码空间
- 偏差缓解阶段使用标准监督损失微调分类头的最后一层(类似 DFR)
- 整个框架不需要修改原始分类器的训练过程,是纯后处理方法
- LLM 只处理文本输入(总成本约 $28),不需要图像输入
实验关键数据¶
主实验(偏差缓解 WGA 结果)¶
| 方法 | Waterbirds | CelebA | NIH | RSNA | VinDr |
|---|---|---|---|---|---|
| ERM | 69.1 | 62.2 | 60.3 | 69.8 | 45.6 |
| JTT | 84.5 | 87.2 | 70.4 | 68.5 | 66.1 |
| GroupDRO | 87.1 | 88.1 | 71.1 | 72.3 | 67.1 |
| DFR | 88.2 | 87.1 | 70.5 | 71.2 | 68.1 |
| LADDER | 91.4 | 88.9 | 76.2 | 76.4 | 82.5 |
LADDER 在所有数据集上均优于基线,特别在 VinDr 上提升 21.1%。
消融实验(不同 Captioner 对性能的影响)¶
| Captioner | Waterbirds Mean/WGA | CelebA Mean/WGA |
|---|---|---|
| BLIP | 93.1/91.4 | 89.8/88.9 |
| BLIP2 | 93.3/91.6 | 89.8/89.2 |
| ClipCap | 93.7/91.8 | 88.3/87.4 |
| GPT-4o | 94.2/93.1 | 91.4/90.3 |
GPT-4o 作为 captioner 质量最高,但 BLIP 等廉价方案也能获得竞争性能。
关键发现¶
- 切片发现精度:在医学影像上 Precision@10 比基线提升约 50%
- 跨架构一致性:不同预训练方法(SimCLR、DINO、CLIP)的分类器均识别出一致的偏差模式
- 超越描述文本的偏差发现:LADDER 可从 DICOM header 发现年龄偏差(70+ 岁 vs. 其余准确率差 19.5%)和光度解释偏差(Monochrome 1 vs. 2 差 10%)
- 无描述操作模式:使用 LLaVA 等指令微调模型替代描述文字,在自然图像上性能相当
亮点与洞察¶
- 跨模态桥梁思想:将视觉分类器的错误模式"翻译"为语言,利用 LLM 的推理优势来解决视觉问题
- 可审计性:任何预训练模型都可被 LADDER 持续审计,只要偏差在语言中留下痕迹
- 伪标签-集成策略:优雅地解决了"不知道有几种偏差"的问题,每个假设一个去偏模型
- 成本可控:整个 LLM 调用成本仅约 $28,远低于人工标注
局限与展望¶
- 依赖文本描述(caption)进行偏差发现,在缺乏文本描述的领域(如皮肤科影像)适用性有限
- 使用的预训练模型(CLIP、LLM)本身携带偏差,可能影响发现过程
- 缺乏人工监督的自动发现阶段可能遗漏某些偏差,验证阶段依赖领域专家引入主观性
- 对于 ViT 架构配合多种预训练策略的泛化性还需更多验证
相关工作与启发¶
- 相比 Domino/Facts 的无监督聚类和 DrML 的人工 prompt 方式,LADDER 的 LLM 驱动假设生成更灵活
- 相比 PRIME 昂贵的 tagging model,LADDER 只需文本检索 + LLM 推理
- 在偏差缓解方面比 DFR 更进一步:无需真实属性标注
- 启发:在其他模态(语音、时序数据)中是否也能利用"偏差的文本痕迹"进行类似分析
评分¶
- 新颖性: ⭐⭐⭐⭐ — 用 LLM 推理来做视觉分类器的后处理偏差分析,切入角度新颖
- 实验充分度: ⭐⭐⭐⭐⭐ — 6 个数据集、200+ 分类器、4 种 LLM、多种架构和预训练策略,非常全面
- 写作质量: ⭐⭐⭐⭐ — 结构清晰,图表丰富,RQ 驱动的实验组织方式很好
- 价值: ⭐⭐⭐⭐ — 对模型审计和公平性问题有实际意义,特别是医学影像应用
LADDER: Language-Driven Slice Discovery and Error Rectification in Vision Classifiers¶
会议: ACL2025
arXiv: 2408.07832
代码: batmanlab/Ladder
领域: others
关键词: slice discovery, bias mitigation, LLM reasoning, vision classifiers, error analysis
一句话总结¶
提出 LADDER 框架,利用 LLM 的推理能力和潜在领域知识,通过分析文本(图像描述/医学报告/元数据)自动发现视觉分类器中的系统性偏差切片(error slices),并通过伪标签生成和属性重平衡实现无需标注的多偏差缓解。
研究背景与动机¶
视觉分类器在特定数据子集上会系统性失败,这些子集被称为"错误切片"(error slices)。发现和修复这些切片对模型鲁棒性? LADDER: Language-Driven Slice Discovery and Error Rectification in Vision Classifiers
会议: ACL2025
arXiv: 2408.07832
代??会议**: ACL2025
arXiv: 2408.07832
代砀??*arXiv: [2408.0??代码: [batmanlab/Ladder](https://github.com/batman??领域*: others
关键词: slice discovery, bias mitigationro关键词: sl*?## 一句话总结
提出 LADDER 框架,利用 LLM 的推理能力和潜在领域知识,通???提出 LADDER 框??## 研究背景与动机
视觉分类器在特定数据子集上会系统性失败,这些子集被称为"错误切片"(error slices)。发现和修复这些切片对模型鲁棒性? LADDER: Language-Driven Slice Discovery and Error Rectification in Vision Classifiers
会议解视?## 阶段1:检索
会议: ACL2025
arXiv: 2408.07832
代??会议**: ACL2025
arXiv: 2408.07832
代砀??*arXiv: [2408.0??代码: [batmanlab/Ladder](https://github.com/bat $$arXiv: [2408.0{E代??会议**: ACL2025
arXiv: [2408.07832](httpY}arXiv: [2408.07832](ht?代砀??arXiv: [2408.0??代码: [batmanlab/Lad??关键词: slice discovery, bias mitigationro关键词*: sl?## 一句话总结
提出 LADDER 框tt提出 LADDER 框架,利用 LLM 的推理能力和潜在领域知识,通???提出2???觉分类器在特定数据子集上会系统性失败,这些子集被称为"错误切片"(error slices)。发现??
会议解视?## 阶段1:检索
会议: ACL2025
arXiv: 2408.07832
代??会议**: ACL2025
arXiv: 2408.07832
代砀??*arXiv: [2408.0??代码: [b计会议: ACL2025
arXiv: [2408.??arXiv: [2408.0le代??会议*: ACL2025
arXiv: [2408.07832](http??arXiv: [2408.07832](ht?代砀??arXiv: [2408.0??代码: [batmanlab/Lad?$arXiv: [2408.0{E代??会议: ACL2025
arXiv: [2408.07832](httpY}??*arXiv: [2408.07832](httpY}arXiv: ??换为???出 LADDER 框tt提出 LADDER 框架,利用 LLM 的推理能力和潜在领域知识,通???提出2???觉分类器在特定数据子集上会系统性失败,这些子集被称为"错误切片"??会议*解视?## 阶段1:检索
会议: ACL2025
arXiv: 2408.07832
代??会议**: ACL2025
arXiv: 2408.07832
代砀??*arXiv: [2408.0??会议*: ACL2025
arXiv: [2408.??arXiv: [2408.0?代??会议*: ACL2025
arXiv: [2408.07832](http?arXiv: [2408.07832](ht3 代砀??arXiv: [2408.0??代码: [b计会议?arXiv: [2408.??*arXiv: [2408.0le代??会议: ACL202?arXiv: [2408.07832](http??arXiv: [2408.07832](ht?代?BarXiv: [2408.07832](httpY}??arXiv: [2408.07832](httpY}arXiv: ??换为???出 LADDER 框tt提出 LADDER 框架,利用 LLM 的推理能力和潜在领?*会议: ACL2025
arXiv: 2408.07832
代??会议**: ACL2025
arXiv: 2408.07832
代砀??*arXiv: [2408.0??会议*: ACL2025
arXiv: [2408.??arXiv: [2408.0?代??会议*: ACL2025
arXiv: [2408.07832](http?arXiv: [24 arXiv: [2408.0
代??会议**: ACL2025
arXiv: [2408.07832](http??arXiv: [2408.07832](ht?
代砀??*arXiv: [2408.0??会议*: ACL2025
arXi--arXiv: [2408.??arXiv: [2408.0?代???1arXiv: [2408.07832](http?*arXiv: [2408.07832](ht3 代?8arXiv**: 2408.07832
代??会议**: ACL2025
arXiv: 2408.07832
代砀??*arXiv: [2408.0??会议*: ACL2025
arXiv: [2408.??arXiv: [2408.0?代??会议*: ACL2025
arXiv: [2408.07832](http?arXiv: [24 arXiv: [2408.0
代??会议**: ACL2025
arXiv: [2408.07832](http??arXiv: [2408.07832](ht?
代砀??*arXiv: V代??会议**: ACL2025
arXiv: [2408.07832](http? arXiv: [2408.078327.4%*代砀??arXiv: [2408.0??会议*: ACL2025
arXi?arXiv: [2408.??arXiv: [2408.0?代????*arXiv: [2408.07832](http?arXiv*: [24 arXiv: [2408.0 WarXiv: [2408.07832](http??arXiv**: [2408.07832](ht?
代砀??*arXiv: [2408.0????代砀??arXiv: [2408.0??*会议: ACL2025
arXi??*arXi--arXiv: [2408.??arXiv: [2408.0???代??会议: ACL2025
arXiv: 2408.07832
代砀??*arXiv: [2408.0??会议*: ACL2025
arXiv: [2408.??arXiv: [2408.0?代??arXiv: [2408.07832](ht??代砀??arXiv: [2408.0??会议**: ACL2025
arXi??arXiv: [2408.??arXiv: [2408.0?代???*arXiv: [2408.07832](http?arXiv*: [24 arXiv: [2408.0 ?*arXiv: [2408.07832](http??arXiv: [2408.07832](ht?
代砀??*arXiv: V代??䡨代砀??*arXiv: V代??会议**: ACL2025
arX??arXiv: [2408.07832](http? arXiv: [2408.07??arXi?arXiv: [2408.??arXiv: [2408.0?代????arXiv: [2408.07832](http?arXiv**: [24 ??代砀??*arXiv: [2408.0????代砀??arXiv: [2408.0??*会议: ACL2025
arXi??*arXi--arXiv: [2408.??arXiv: [2408.0???代??会议: ACL2025
arXiv?arXi??arXi--arXiv: [2408.??arXiv: [2408.0???代??会议: ACL202?*arXiv: 2408.07832
代砀??*arXiv: [2408?代砀??arXiv: [2408.0??*会议: ACL2025
arXi??arXiv: [2408.??arXiv:8,但对于大规?arXi??arXiv: [2408.??arXiv: [2408.0?代???arXiv: [2408.07832](http?*arXiv: [24 arXiv: [2408.0 ??代砀??arXiv: V代??䡨代砀??*arXiv: V代??会议**: ACL2025
arX??arXiv: [2408.07832](http? arXiv: [2408.07??arXi?arXiv: [2408.??arXiv??arX??arXiv: [2408.07832](http? arXiv: [2408.07??arXi?*arXiv: [2408.??B2arXi??*arXi--arXiv: [2408.??arXiv: [2408.0???代??会议: ACL2025
arXiv?arXi??arXi--arXiv: [2408.??arXiv: [2408.0???代??会议: ACL202?*arXiv: 2408.07832
代砀???arXiv?arXi??arXi--arXiv: [2408.??arXiv: [2408.0???代??会议?代砀??arXiv: [2408?代砀??arXiv: [2408.0??会议**: ACL2025
arXi??arXiv: [2408.??arXiv:8,但对于大规?arXi??arXivLLarXi??arXiv: [2408.??arXiv:8,但对于大规?arXi??arXiv:??arX??arXiv: [2408.07832](http? arXiv: [2408.07??arXi?arXiv: [2408.??arXiv??*arX??arXiv: [2408.07832](http? arXiv: [2408.07??arXi?arXiv: [2408.??B2arXi??arXi--arXiv: [2408.??arXiv: [2408.0???代??会议: ACL2025??*arXiv?arXi??arXi--arXiv: [2408.??arXiv: [2408.0???代??会议: ACL202?*arXiv: [2408.07832](https:/ cat > "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/audio_speech/who_can_withstand_chat-audio_attacks_an_evaluation_benchmark_for_large_audio-lan.md" << 'ENDOFNOTE'
Who Can Withstand Chat-Audio Attacks? An Evaluation Benchmark for Large Audio-Language Models¶
会议: ACL2025
arXiv: 2411.14842
作者: Wanqi Yang, Yanda Li, Meng Fang, Yunchao Wei, Ling Chen (UTS, Liverpool, 北京交通大学)
代码: CAA Benchmark
领域: audio_speech
关键词: 对抗音频攻击, 大型音频语言模型, 鲁棒性评估, benchmark
一句话总结¶
提出 Chat-Audio Attacks (CAA) 基准,包含四类通用对抗音频攻击(内容攻击、情感攻击、显式噪声攻击、隐式噪声攻击),通过三种评估方法系统评测六个 SOTA 大型音频语言模型的鲁棒性,发现 GPT-4o 表现最优但所有模型均存在显著脆弱性。
研究背景与动机¶
- 问题: 大型音频? Who Can Withstand Chat-Audio Attacks? An Evaluation Benchmark for Large Audio-Language Models
会议: ACL2025
arXiv: 2411.14842
**?
会议: ACL2025
arXiv: 2411.14842
作者: WangnearXiv: [2411.1?作者: Wanqi Yang, Yanda Li, Meng Fang, Yunchao Wei?代码**: CAA Benchmark
领域: audio_speech
关键词: 少领域: audio_speech
关键词: 对抗音频攻击, ?关键词: 对抗韺
一句话总结¶
提出 Chat-Audio Attacks (CAA) 基准,包含四类通用对抗音???提出 Chat-Audi下
研究背景与动机¶
- 问题: 大型音频? Who Can Withstand Chat-Audio Attacks? An Evaluation Benchmark for Large Audio-Language Models
会议: ACL2025
arXiv: 2411.14842
**?
会议: ACL2025
arXiv: [2411.14842](https://arxiv.org/abs/2411.148??- 问题: 大型???
会议: ACL2025
arXiv: 2411.14842
**?
会议: ACL2025
arXiv: [2411 arXiv*: [2411.1???
会议: ACL2025
arXiv: [2411.14842](https:??伇?arXiv: [2411.1*:作者: WangnearXiv: [2411.1?*作者: Wanqi ??领域: audio_speech
关键词: 少领域: audio_speech
关键词: 对抗音频攻击, ?关键词: 对抗韺
一句话总结¶
提?(关键词: 少领??*关键词: 对抗音频攻击, ?*??# 一句话总结
提出 Chat-Audio Attacks (CAA) 基准,??提出 Chat-Audi景## 研究背景与动机
- 问题: 大型音频? Who Can Withstand Chat-Audio Attack??- 问题: 大型?3.
会议: ACL2025
arXiv: 2411.14842
? 会议: ACL2025
arXiv: [2411、arXiv: [2411.1?*?
会议: ACL2025
arXiv: [2411.14842](https:??伀?arXiv: [2411.1?会议: ACL2025
arXiv: 2411.14842
? arXiv: [2411.1??? 会议: ACL2025
arXiv: [2411 arXiv: ???2arXiv: [2411??*会议: ACL2025
arXiv: [2411.14842]??arXiv: [2411.1??关键词: 少领域: audio_speech
关键词: 对抗音频攻击, ?关键词*: 对抗韺
一句话总结¶
提?(**关???使用 AzureSpeechSDK 重新合成以保?# 一句话总结
提?(关键词: 少领??*关键?d 提?(关键? ?提出 Chat-Audio Attacks (CAA) 基准,??提出 Chat-Audi景## 研究背景与动机
- ??- 问题: 大型音频? Who Can Withstand Chat-Audio Attack??- 问题: 大??会议: ACL2025
arXiv: 2411.14842
? 会讁AarXiv: [2411.1??? 会议: ACL2025
arXiv: [2411、arXiv: ti?:arXiv: [2411??会议: ACL2025
arXiv: [2411.14842]?arXiv: [2411.1??arXiv: 2411.14842
? arXiv: [we? arXiv: [2411.1??? 会议: ACL2025
arle会议: ACL2025 arXiv:??*arXiv: [2411?*arXiv: [2411.14842]??arXiv: [2411.1??关键词: 少领域: apl关键词: 对抗音频攻击, ?关键词*: 对抗韺
一句话总结¶
提 |## 一句话总结
提?(关???使用 AzureSpeechSDK 重.2
提?(关???a-O
提?(关键词: 少领??*关键?d
提?(关键? ?提出 Cha | 提?(关键? ?提出 Chat-Audio Atta|
- ??- 问题: 大型音频? Who Can Withstand Chat-Audio Attack??- 问题: 大??会议: ?*arXiv: 2411.14842
?
会讁AarXiv: [2411.1???
会议: A???
会讁AarXiv: [2411.1???
会议: ACLTo?o会议: ACL2025
arXiv: [2h arXiv: [2411?-arXiv: [2411.14842]?*arXiv: [2411.1??arXiv: [2411.14842](https:/ 3? arXiv: [we? arXiv: [2411.1???
会议: ACL2025
arle会议: ACL2025
a| 会议: ACL2025
arle会议: ACL2025
ar.2arle会议: PTarXiv:??arXiv**: [? ## 一句话总结
提 |## 一句话总结
提?(关???使用 AzureSpeechSDK 重.2 提?(关???a-O 提?(关键词: 少领??*关键?d 提?(关键? on 提 |## 一句?Co 提?(关???使?--提?(关???a-O 提?(**关键--|
| GPT提?(关键词*3提?(关键? ?提出 Cha | 提?(in- ??- 问题: 大型音频? Who Can Withstand Chat-Audio Attack??- *3.?
会讁AarXiv: [2411.1???
会议: A???
会讁AarXiv: [2411.1???
会议: ACLTo?o会议: ACL2025
arXiv: [2h arXiv??伹?会议: A???
会讁Aa??会讁AarXiv:, 会议: ACLTo?o会议??arXiv: [2h arXiv: [2411?-arXi?会议: ACL2025
arle会议: ACL2025
a| 会议: ACL2025
arle会议: ACL2025
ar.2arle会议: PTarXiv:??arXiv: [? ## 一句话怘?arle会议: ?a
会议: ACL2025Auarle会议: ACL20?*ar.2arle**???隐式?提 |## 一句话总结
提?(关???使用 AzureSpeechSDK 重.2???提?(关???使町????(关???a-O 提?(关键词: /提?(?方向
- 提?(关键? on 提 |## 一句?Co ??提 |## 一句?Co????(关???佺????(**关键--|
| GPT提?(关键词? GPT提?(关??会讁AarXiv: [2411.1???
会议: A???
会讁AarXiv: [2411.1???
会议: ACLTo?o会议: ACL2025
arXiv: [2h ??会议: A???
会讁Aa?会讁AarXiv:?会议: ACLTo?o会议??arXiv: [2h arXiv??伹?会议??会讁Aa??会讁AarXiv:, 会议: ACLT
arle会议: ACL2025
a| 会议: ACL2025
arle会议: ACL2025
ar.2arle会议: PTarXiv:??arXiv: [? ##??*a
会议: ACL2025??*arle会议: ACL20? ar.2arle会议: S
提?(关???使用 AzureSpeechSDK 重.2???提?(关???使町????(关???a-O
提?(关键词: /提?(**?方向
-
提?(关键? on 提 |## 一句?Co ??提 |## ??????(关键词: /提?(?方向
-
提?(**关键? on 提 |## 一句?Co ???
- 提?(关键? on
提 |## 一句?L提 |## 一句?Co
椚??提 |## 一句??| GPT提?(关键词? GPT提?(关??会讁AarXiv*??会议: A???
会讁AarXiv: [2411.1???
会议: ACLTo优?会讁AarXiv:??会议: ACLTo?o会议??*arXiv: [2h ??会议: A???
?会讁Aa?*会讁AarXiv:?*??a| 会议: ACL2025 arle会议: ACL2025 ar.2arle会议*: PT wc -l "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/others/ladder_language-driven_slice_discovery_and_error_rectification_in_vision_classif.md" wc -l "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/audio_speech/who_can_withstand_chat-audio_attacks_an_evaluation_benchmark_for_large_audio-lan.md" ENDOFNOTE ENDOFNOTE echo "ENDOFNOTE" printf '\x03' echo 'ENDOFNOTE' printf '\x03' cat > "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/graph_learning/disentangled_multi-span_evolutionary_network_against_temporal_knowledge_graph_re.md" << 'ENDOFNOTE'
Disentangled Multi-span Evolutionary Network against Temporal Knowledge Graph Reasoning¶
会议: ACL 2025 Findings
arXiv: 2505.14020
代码: 未提供
领域: graph_learning
关键词: 时序知识图谱, 外推推理, 图神经网络, 解耦表示, 多跨度演化
一句话总结¶
提出 DiMNet,通过多跨度演化策略和跨时间解耦机制,分离节点语义的活跃/稳定特征,显著提升时序知识图谱(TKG)外推推理性能,在四个基准数据集上取得 SOTA。
研究背景与动机¶
时序知识图谱(Temporal Knowledge Graph, TKG)以四元组 \((s, r, o, t)\) 表示带时间戳的事实,其推理任务旨在基于历史子图序列预测未来缺失的事实。现有基于演化的方法(如 RE-GCN、TiPNN 等)通常对历? Disentangled Multi-span Evolutionary Network against Temporal Knowledge Graph Reasoning
会议: ACL 2025 Findings
arXiv: 2505.14020
??会议*: ACL 2025 Findings
arXiv: 2505.14020??arXiv: [2505.14020](http?代码**: 未提供
领域: graph_learning
关锅?*领域: graph_le??关键词*: 时序知蚄
一句话总结¶
提出 DiMNet,通过多跨度演化策略和跨时间解耦机制,分??提出 DiMNet,???## 研究背景与动机
时序知识图谱(Temporal Knowledge Graph, TKG)以四元组 \((s, r, o, t)\) 表示带时间戳的事实,其推理任务旨在基于历史子图序列预测未来缺失的事实。构
???多跨度演化模
会议: ACL 2025 Findings
arXiv: 2505.14020
*??会议: ACL 2025 Findings
arXiv: 2505.14020??*arXiv: [2505.14020](http?代码: 未提供
领域: graph_learning
关锅?领域: graph_le??*关键词: 时序知蚄
一句话总结¶
揯?arXiv: [2505.14020](http???会议: ACL 2025 Findings
arXiv: [2505.14020 ?arXiv: [2505.14020](https:/而领域: graph_learning
关锅?领域: graph_le??关键词**: 时序知蚄
一句话总结¶
提?i关锅?*领域: grap{## 一句话总结
提出 DiMNet,通过多跨度演化?提出 DiMNet,???时序知识图谱(Temporal Knowledge Graph, TKG)以四元组 \((s, r, o, t)\) 表示带时间戳的事实,其推??????多跨度演化模
会议: ACL 2025 Findings
arXiv: 2505.14020
*??会议: ACL 2025 Findings
arXiv: [2505.14020](https://arxiv.or??会议: ACL 2025 Fin?*arXiv: [2505.14020](http???会议: ACL 2025 Findings
arXiv: [2505.14020?arXiv: [2505.14020](https://??领域: graph_learning
关锅?领域: graph_le??*关键词: 时序知蚄
一句话总结¶
揯耂关锅?*领域: grap_{## 一句话总结
揯?arXiv: [2505.14020](http???揯?arXiv: ???*arXiv: [2505.14020 ?arXiv: [2505.14020](https:/而领域},关锅?*领域: graph_le??关键词*: 时序知蚄
一句话总结¶
提?d## 一句话总结
提?i关锅?*领域: grap{## ?
提?i关锅???提出 DiMNet,通过多跨度演化?提出 Di实会议: ACL 2025 Findings
arXiv: 2505.14020
*??会议: ACL 2025 Findings
arXiv: [2505.14020](https://arxiv.or??会议: ACL 2025 Fin?*arXiv: [2505?arXiv: [2505.14020](http???会议: ACL 2025 Findings
arXiv: [2505.14020??arXiv**: [2505.14020](https://
arXiv: [2505.14020?arXiv: [2505.14020](https://??领域: graph_learning
关锅?领域: graph_le??*关键词:?I关锅?*领域: graph_le??关键词*: 时序知蚄
一句话总结¶
揯??## 一句话总结
揯耂关锅?*领域: grap_{ 方?揯耂关锅????揯?*arXiv: [2505.14020](http???揯?*ar模## 一句话总结
提?d## 一句话总结
提?i关锅?*领域: grap{## ? 提?i关锅???提出 DiMNet,通过多跨度演化?提出 Di实会议: ACL 2025 Findin46 提?d## 一句?8 提?i关锅?领?5 提?i关锅???提出 DiMNet,?.arXiv: 2505.14020 ??会议: ACL 2025 Findings arXiv*????会议: ACL 2025 Findings arXiv: [2505.14020?*arXiv: [2505.14020](https://??arXiv: [2505.14020??arXiv**: [2505.14020](https://
arXiv: [2505.14020?arXiv: [2505.14020](https://??领域: graph_learning
关--
arXiv: [2505.14020?arXiv: [2505.14020](https:完关锅?领域: graph_le??关键词:?I关锅?领域: graph_le??关0.## 一句话总结
揯??## 一句话总结
揯耂关锅?*领域: grap_{ 方?揯耂关锅???| w/o \(G_{\text{INF}}\) 揯耂关锅?*领? | 提?d## 一句话总结
提?i关锅?*领域: grap{## ?
提?i关锅???提出 DiMNet,通过多跨度演化????
提?i关锅?领?EW提?i关锅???提出 DiMNet,逍????d## 一句?8
提?i关锅?领?5 提?i关锅???提出 DiMNet,?.arXiv: [250??提?i关锅?????会议: ACL 2025 Findings
arXiv*????会议: ACL 2025 Findings
arXiv: [2505.14020?*arXiv: [2505.14?arXiv????会议: ACL 20?2arXiv: [2505.14020?arXiv不大,?arXiv: [2505.14020?arXiv: [2505.14020](https://??领域: graph_learning
关--
arXiv: [2505.14 ?关--
arXiv: [2505.14020?arXiv: [2505.14020](https:完关锅?领域 ?*arXi50
揯??## 一句话总结
揯耂关锅?*领域: grap_{ 方?揯耂关锅???| w/o \(G_{\text{INF}}\) 揯耂关锅?领? | 提?d## 一句话总结 ???揯耂关锅?领???揯耂*关锅?领? | 提?d## 一句话总结
提?i关锅?*领域: - 提?d## 一句话总结??
提?i关锅?*领???提?i关锅???提出 DiMNet,逰????i关锅?*领?EW提?i关锅???提出 DiMNet,逍????i关锅?*领?5 提?i关锅???提出 DiMNet,?.arXiv: [250???arXiv*????会议: ACL 2025 Findings
arXiv: [2505.14020?*arXiv: [2505.14?arXiv????会议: ACL 20?2arXiv: ??arXiv: [2505.14020?arXiv: [2505.1??*关--
arXiv: [2505.14 ?*关--
arXiv: [2505.14020?*arXiv: [2505.14020](https:完关锅?领域 ?*arXi50
揯??## 一句话总结
揯耂关锅?*领域: grap_{ 方?揯耂关锅????arXi?arXiv: [2505.14020?ar -揯??## 一句话总结
揯耂关锅?*领域: grap_{ 方?揯耂关锅????? 揯耂关锅?领埋???耂关锅?领? | 提?d## 一句话总结 ???揯耂关锅?*领????提?d## 一句话总结?????揯耂关锅?*颦?提?d## 一句话总结
提?i关锅?*领域: ??提?i关锅?*领埽?
提?i关锅?领???提?i关锅???提出 Di?RarXiv: [2505.14020?arXiv: [2505.14?arXiv????会议: ACL 20?2arXiv: ??*arXiv: [2505.14020?arXiv: [2505.1??关--
arXiv: [2505.14 ?关--
arXiv: [2505.14020?arXiv: [2505.14020](https:完关锅?领域 ?arXi5??arXiv: [2505.14 ?关--
arXiv: [2505.14020?arXiv: [2505.14020](https:完关锅?领域 ?arXi50
揯??## 一句话总结
??arXiv: [2505.14020?a⭐揯??## 一句话总结
揯耂关锅?*领域: grap_{ 方?揯耂关锅????揯耂关锅?*领埆?揯??## 一句话总结
揯耂关锅?*领域: grap_{ 方?揯耂关锅????? 揯耂?? 揯耂关锅?领域?????耂关锅?领埋???耂关锅?*领? | 提?d##????d## 一句话总结 ???揯耂关锅?领KG???理是 KG 领域的?提?i关锅?领域: ??提?i关锅?领埽? 提?i*? cd "/Users/zy/workspace/Auto Research" && python3 -c " content = '''# Recursive Question Understanding for Complex Question Answering over Heterogeneous Personal Data
会议: ACL2025
arXiv: 2505.11900
作者: Philipp Christmann, Gerhard Weikum (Max Planck Institute for Informatics)
代码: reqap.mpi-inf.mpg.de
领域: nlp_understanding
关键词: 个人数据问答, 异构数据, 问题分解, 算子树, 端侧部署
一句话总结¶
提出 ReQAP 方法,通过递归问题分解构建可执行算子树,在结构化+非结构化的异构个人数据上实现复杂问答,支持端侧轻量部署。
研究背景与动机¶
- 个人数据管理需求日益增长:用户设备每天产生海量数据(日历、健身记录、购物记录、流媒体历史等),用户需要对这些异构数据进行便捷查询
- 数据隐私为核心约束:个人敏感数据要求全部处理在本地设备完content = '''# Recursive Question Understanding for Co??
会议: ACL2025
arXiv: 2505.11900
作者: Philipp Christmann,???arXiv: [2505.1??作者: Philipp Christmann, Gerhard Weikum (Max Plan??代码**: reqap.mpi-inf.mpg.de
领域: nlp_un??领域: nlp_understanding
关键词: 个人数据问答, ??关键词: 个人数据镴
一句话总结¶
提出 ReQAP 方法,通过递归问题分解构建可执行算??提出 ReQAP 方???## 研究背景与动机
- 个人数据管理需求日益增长:用户设备每天产生海量数据(日历、健身记录、购物记录、流媒体历史等?UD
- 个人数据管理g a- 数据隐私为核心约束:个人敏感数据要求全部处理在本地设备完content = '''# Recursive Question Understanding for Co??
会议: ACL2025
arXiv: [2505.11900](https:??会议: ACL2025
arXiv**: [2505.11900](h给后续递归调用 - 训练流程:先用大模型 (GPT-4o) 通过 ICL (8 个 few-shot) 生成 (?arXiv: [2505.1??作者: Philipp Christmann,???arXiv: [2505.1???领域: nlp_un??领域: nlp_understanding 关键词: 个人数据问答, ??关键词*: 个人数据镴
一句话总结¶
提出 ReQAP 方法,通过递归问颻?关键词: 个人数据问答,??*关键词?# 一句话总结
提出 ReQAP 方法,通过递归问题分觿?
提出 ReQAP 方N |
- 个人数据管理需求日益增长:用户设备每天产生海量数据(日历、健身记录、?P - 个人数据管理g a- 数据隐私为核心约束:个人敏感数据要求全部处理在本地设备完content = '''# Recursive Ques??会议: ACL2025
arXiv: [2505.11900](https:??会议: ACL2025
arXiv: [2505.11900](h给后续递归调用
- 训练流程:先用大模型 (GPT-4o) 通过 IC?*arXiv: [2505.1??arXiv: [2505.11900](h给后续递归调用
- 腳- 训练流程:先用大模型 (GPT-4o) 通??关键词: 个人数据问答,??关键词*: 个人数据镴
一句话总结¶
提出 ReQAP 方法,通过递归问颻?关键词: 个人数据问答,??*关键词?# 一句话总结
提出 R??# 一句话总结
提出 ReQAP 方法,通过递归问颻???
提出 ReQAP 方??
提出 ReQAP 方法,通过递归问题分觿?
提出 ReQAP 方N |
- 个人数据管理需求日益增镻????出 ReQAP 方N |
- 个人数据管理需渪- 个人数据? arXiv: [2505.11900](https:??会议: ACL2025
arXiv: [2505.11900](h给后续递归调用
- 训练流程:先用大模型 (GPT-4o) 通过 IC?arXiv: [2505.1??arXiv: [2505.11900](h给后续递归调用
- 腳- 训练流程:先用大模型 (GPT-4o) 通??关鯕arXiv: [2505.11900](h给后续递归调用
- ?|- 训练流程:先用大模型 (GPT-4o) 通--- 腳- 训练流程:先用大模型 (GPT-4o) 通??关键词: 个人数据问答,??关键词: 个人数据镴.2## 一句话总结
提出 ReQAP 方法,通过递归问颻?关键词: 个人数据问答,??*关键词?# 一?? 提出 ReQAP 方? ( 提出 R??# 一句话总结
提出 ReQAP 方法,通过递归问颻??? 提出 ReQAP 方?? 提出 Re (0 提出 ReQAP 方法,?e 5)提出 ReQAP 方?? 提出 ReQAP 方法,通?1提出 ReQAP 方?-提出 ReQAP 方N | - 个人数据管理需?- 个人数据??- 个人数据管理需渪- 个人数据? arXiv: [lyarXiv: [2505.11900](h给后续递归调用 - 训练流程:先?TRACT 算子的移除导致性- 训练流程:先用大模型 (GPT-4o) 通?? 腳- 训练流程:先用大模型 (GPT-4o) 通??关鯕arXiv: [2505.11900](h给后续递归调用 - ?|- 训?d- ?|- 训练流程:先用大模型 (GPT-4o) 通--- 腳- 训练流程:先用大模型 (GPT-4o) 通?? 0 提出 ReQAP 方法,通过递归问颻?关键词: 个人数据问答,??*关键词?# 一?? 提出 ReQAP 方? ( 提出 R??# 一句话总结
提出 ReQAP 方法,通过递归问?* 提出 ReQAP 方? ( 提出 R??# 一句话总结
提出 ReQAP 方法,通过递归问颻??? ???出 R??# 一? 提出 ReQAP 方法,通??提出 ReQAP 方?? 提出 Re (0 提出 ReQAP ????出 Re (0 提凅?提出 ReQA????出 ReQAP 方法,通?1提出 ReQAP 方??? 个人数据管理需?- 个人数据??- 个人数据??- 训练流程:先?TRACT 算子的移除导致性- 训练流程:先用大模型 (GPT-4o) 通?? 腳- 训练流程:先用大模型 (GPT-4o) 通???? ?|- 训?d- ?|- 训练流程:先用大模型 (GPT-4o) 通--- 腳- 训练流程:先用大模型 (GPT-4o) 通?? 0 提出 ReQAP 方法,通过递归问颻?关键词: 个人数据问答,??关键?提出 ReQAP 方法,通过递归问颻?关键词**: ?r 断网部署,数据完全不离开设备
局限性 / ???出 ReQAP 方? (¶
提出 R??# 一句话总结
提出 ReQAP 方法,通过递归问? 提出 ???出 R??# 一反?提出 ReQAP 方法,通? 提出 R??# 一句话总结
提出 ReQAP 方法,通过? 提出 ReQAP 方法,通? ???出 R??# 一? 提出 ReQAP 方法,??提出 ReQAP 方法????出 Re (0 提出 ReQAP ????出 Re (0 提凅? 提出 ReQA??提凅?提出 ReQA????出????出 ReQAP 方法,通过递归问颻?关键词: 个人数据问答,??关键?提出 ReQAP 方法,通过递归问颻?关键词*: ?r 断网部署,数据完全不离开设备
局限性 / ???出 ReQAP 方? (¶
提出 R??# 一句话总结
提出 ReQAP 方法,通过递归问? 提出 ???出 R??# 一反?提出 ReQAP 方法,通? 提出 R??# 一句话总结
提出 ReQAP 方法,通?.
局限性 / ???出 ReQAP 方? (¶
提出 R??# 一句话总结
提出 ReQAP 方法,通过递归问? 提出 ???出 R??# 一反?提出 ReQAP 方法,通? 提出 R??# 一句????出 R??# 一句话总结
提?# 提出 ReQAP 方法,通譐?提出 ReQAP 方法,通过? 提出 ReQAP 方法,通? ???出 R??# 一? 提出 ReQAP 方法,??提出 ReQAP 方????出 ReQAP 方法,通? ?提出 ReQAP 方法,??提出 ReQAP 方法????:提出 ReQAP ????出 Re (0 提凅? 提出 ReQA??提凅?提??提凅? 提出 ReQA??提????出??
局限性 / ???出 ReQAP 方? (¶
提出 R??# 一句话总结
提出 ReQAP 方法,通过递归问? 提出 ???出 R??# 一反?提出 ReQAP 方法,通? 提出 R??# 一句话总结
提出 ReQAP 方法,通?.
f:¶
提出 R??# 一句话总结
提? wc -l "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/graph_learning/disentangled_multi-span_evolutionary_network_against_temporal_knowledge_graph_re.md" python3 -c " content = '''# LongReward: Improving Long-context Large Language Models with AI Feedback
会议: ACL2025
arXiv: 2410.21252
代码: THUDM/LongReward
领域: llm_efficiency
关键词: 长上下文LLM, 强化学习, DPO, AI反馈, 奖励模型
一句话总结¶
提出 LongReward,利用现成LLM从帮助性、逻辑性、忠实性和完整性四个维度为长上下文模型回复自动打分,结合DPO实现长上下文SFT模型的进一步提升。
研究背景与动机¶
长上下文LLM近年发展迅速,上下文窗口已扩展至10万+ tokens,但训练流程中存在关键瓶颈:
- SFT数据质量受限:长上下文QA数据难以人工标注,多由LLM自动合成,存在幻觉、逻辑错误、信息遗漏等问题
- RL在短上下文中有效但在长上下文中缺少奖励信号:人工标注不可扩展,现有短上下文奖励模型无法处理长输入
- **核心content = ''??
会议: ACL2025
arXiv: 2410.21252
代码???*arXiv: [2410.2
代码: [THUDM/LongReward](https://github.com/THUDM/??领域*: llm_efficiency¶
关键词: 长上下文LLM, 强化?关键词: 长上下?
一句话总结¶
提出 LongReward,利用现成LLM从帮助性、??? 提出 LongRewar(He
研究背景与动机¶
长上下文LLM近年发展迅速,上下文窗口已扩展至10万+ tokens,但训练流程中存在关键瓶颈:
- SFT数据质量受限:长上下文QA敆?长上下文LLM近年???
- SFT数据质量受限:长上下文QA数据难以人工标注,多由LLM自动合成,存在幻觉、逻辑易- RL在短上下文中有效但在长上下文中缺少奖励信号:人工标注不可扩展,现有短上下文奖励模型无法处理镎? **核心content = ''??
会议: ACL2025
arXiv: 2410.21252
代码???*arXiv: [2410.2
代码: [THUD?会议*: ACL2025¶
a??*arXiv: [综上?代码???arXiv**: [2410.2
代码: [THUDM/LongRe??#代码: [THUDM/LongRewa??关键词: 长上下文LLM, 强化?关键词*: 长上下?¶
一句话总??## 一句话总结¶
提出 LongReward,利用现成LLM从帮助性?提出 LongRewars)*提出 LongRewar(He
研究背景与动机¶
长上䢘## 研究背景与¶
长上下文LLM近年对" - SFT数据质量受限:长上下文QA敆?长上下文LLM近年??? - SFT数据质量受限:长上下???- SFT数据质量受限:长上下文QA数据难以人工标注,多
会议: ACL2025
arXiv: 2410.21252
代码???*arXiv: [2410.2
代码: [THUD?会议*: ACL2025¶
a??*arXiv: [综上?代码???arXiv**: [2410.2
代码: [THUDM/LongRe??#代码: [THUDM/LongRewa??关键词: 长上下文L ?arXiv: [2410.2a-代码???arXiv*: [2410.2¶
代码: [THUD?会?#代码: [THUD?会议ara??*arXiv: [综上?代码???15#代码: [THUDM/LongRe??#代码: [THUDM/LongR?F## 一句话总??## 一句话总结¶
提出 LongReward,利用现成LLM从帮助性?提出 LongRewars)*提出 LongRewar(He?? 提出 LongReward,利用现成Lnch## 研究背景与动机
长上䢘## 研究背景与¶
长上下文LLM近年对" - S3. 长上䢘## 研究背? |- 长上下文LLM近年对ama-- SFT数据质量受?4- SFT数据质量受限:长Llama-3.1-8B | DPO w/ Contrast | 70.6 | 67.
会议: ACL2025
arXiv: 2410.21252
代码???*arXiv: [2410.2
代?* arGLM-4-9B | SFT |代码???*arXiv: [2410.2¶
代码: [THUD?会? #代码: [THUD?会议71a??*arXiv: [综上?代码???|¶
代码: [THUDM/LongRe??#代码: [THUDM/LongR%#代码: [THUD?会?#代码: [THUD?会议ara??arXiv: [综上?代码???15#代码: [THUDM/LongRe??#代码*--¶
提出 LongReward,利用现成LLM从帮助性?提出 LongRewars)*提出 LongRewar(He?? 提出 LongReward,利用现成Lnch## 研究背景与动机
长上䢘## 研究背景与¶
长26 提出 LongReward,利用现成Lnch## 研究背景与动机
长上䢘## 研究背景与?? 长上䢘## 研究背景与 - 长上下文LLM近年对" - ? 长上下文LLM近年对Scor- S3. 长上䢘## 研??长??????上下文LLM近年对a4-会议**: ACL2025
arXiv: 2410.21252
代码???*arXiv: [2410.2
代?* arGLM-4-9??arXiv: [2410.2?代码???arXiv**: [2410.2¶
代?* arGLM-4-9B | S.4#代?* arGLM-4-9B | SFTO?代码: [THUD?会? #代码: [THUD?会议71?代码: [THUDM/LongRe??#代码: [THUDM/LongR%#代码: [THUD?会?#代码: ?5提出 LongReward,利用现成LLM从帮助性?提出 LongRewars)*提出 LongRewar(He??¶
提出 LongReward,利用现成Lnch## 研究背景与动机
长上䢘## 研究背景与¶
长26 提??提出 LongReward,利用现成Lnch## 研究背景与动机
长上䢘## 研究背景与?长上䢘## 研究背景与¶
长26 提出 LongReward,刨? 长26 提出 LongReward?+?长上䢘## 研究背景与?? 长上䢘## 研究背景与 - 长???长上䢘## 研究背景与 ? 长上下文LLM近年对??? ? 长上下文LLM?P长且?长上䢘## 研??长??????上??arXiv: 2410.21252
代码?????代码???*arXiv: [2410.2
代?* arGLM-4-9??a??代? arGLM-4-9??arX??代? arGLM-4-9B | S.4#代? arGLM-4-9B | SFTO?代码*: ??提出 LongReward,利用现成Lnch## 研究背景与动机¶
长上䢘## 研究背景与¶
长26 提??提出 LongReward,利用现成Lnch## 研究背景与动机
长上䢘## 研究背景与?长上䢘## 研究背景与¶
长26 提出 LongReward,刨? 长26 提出 LongReward?+?长上䢘## 研究?长上䢘## 研究背景与 - 长26 提??提出 LongReward?? 长26 提??提出 LongRe:D 长上䢘## 研究背景与?长上䢘## 研究背景与 - 长26 提的- 长26 提出 LongReward,刨? 长26 提出 LongRewa⭐???26 提出 LongReward?+???长上䢘## 研究背景与 - 长???长上䢘## 研究胭?- 长???长上䢘## 研?????- 长上下文LLM近年对???????长上下文LLM?P长且?长上??代码?????代码???*arXiv: [2410.2
代?* arGLM-4-9??a??代? arGLM-4-9??arX??代? arG?代? arGLM-4-9??a??代? **arG?长上䢘## 研究背景与¶
- 长26 提??提出 LongReward,利用现成Lnch## 研究背景与动机
长上䢘## 研究背景与?长上䢘## 研究背景与¶
长26 提出 LongReward,e(c- 长26 提??提出 Long wc -l < "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/graph_learning/disentangled_multi-span_evolutionary_network_against_temporal_knowledge_graph_re.md" wc -l "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/nlp_understanding/recursive_question_understanding_for_complex_question_answering_over_heterogeneo.md" wc -l "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/llm_alignment/rpo_retrieval_preference_optimization_for_robust_retrieval-augmented_generation.md" wc -l "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/llm_efficiency/longreward_improving_long-context_large_language_models_with_ai_feedback.md" echo "DONE" ENDOFNOTE echo 'ENDOFNOTE' ENDOFNOTE cat > "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/llm_nlp/ualign_leveraging_uncertainty_estimations_for_factuality_alignment_on_large_lang.md" << 'ENDOFNOTE'
UAlign: Leveraging Uncertainty Estimations for Factuality Alignment on Large Language Models¶
会议: ACL2025
arXiv: 2412.11803
领域: llm_nlp
关键词: 不确定性估计, 事实性对齐, 知识边界, PPO, 语义熵, 置信度
一句话总结¶
提出 UAlign 框架,利用置信度分数和语义熵两种不确定性估计来显式建模 LLM 知识边界,并将其作为输入特征融入 PPO 对齐训练,使模型自信回答已知问题、坚定拒绝未知问题,在多个知识 QA 数据集上显著提升可靠性与泛化性。
研究背景与动机¶
LLM 在预训练阶段学到了大量知识,但在下游任务中经常无法准确表达它所掌握的事实知识。 核心问题在于 LLM ? UAlign: Leveraging Uncertainty Estimations for Factuality Alignment on Large Language Models
会议: ACL2025
arXiv: 2412.11803??会议: ACL2025
arXiv: 2412.11803
代码: [A??arXiv: [2412.1??代码: [AmourWaltz/UAlign](https://github.com/Amour?*领域: llm_nlp
关键词: uncertainty estimation, 事实性对?关键词: 不??
一句话总结¶
提出 UAlign 框架,利用置信度分数和语义熵两种不确?*?提出 UAlign ???
研究背景与动机¶
LLM 在预训练阶段学到了大量知识,但在下游任务中经常无法准确表达它所掌握的事实知识。 核心问题在于 LLM ? UAlign: Leveraging Uncertainty Estimations for Factuality Alignment on Large Language Models
会议: ACL2025
*arXiv???LLM 在预训练阶段息核心问题在于 LLM ? UAlign: Leveraging Uncertainty Estimations for Factuality Alignment on Large Language Models
om
会议: ACL2025
arXiv: 2412.11803??会议: ACL2025
arXiv: [2412??arXiv: [2412.1??arXiv**: 2412.11803
代码: [A??a??代码: [A??*arXiv: [2412.1??代码: [AmourW??关键词: 不确定性估计, 事实性对?关键词*: 不??
一句话总结¶
提出 UAlign 框架:?# 一句话总结
提出 UAlign 框架,利用置信度分数和?# 提出 UAlign ???## 研究背景与动机
LLM 在预训练阶段学到了大量知识,但在下游任务个 LLM 在预训?prompt ???心问题在于 LLM ? UAlign: Leveraging Uncertainty Estimations for Factuality Alignment on Large Language Models
??
会议: ACL2025
arXiv???LLM 在预训练阶段息核心问题在于 LLM ? UAlign: Leveraging Uncertainty Es???arXiv*???LLM 圛?
om
会议: ACL2025
arXiv: 2412.11803??会议: ACL2025
arXiv: [2412??*arXiv: [2412.1??arXiv: 映??arXiv: [2412.1"?arXiv: [2412??arXiv: [2412.1??*arXiv: [2412.11803](https://arxiv.oi^代码: [A??a??代码: [A??*arXiv: [2412.1??代码: [AmourW??关键词*: ??## 一句话总结
提出 UAlign 框架:?# 一句话总结
提出 UAlign 框架,利用置信度分数和?# 提出 UAlign ???## 研究背?f 提出 UAlign ?}^ 提出 UAlign 框架,利用置信度???提出 UAlign ???## 研究背景与动机
LLM ?
LLM 在预训练阶段学到了大量知譔?LM 在预训?prompt ???心问题在于 LLM ? UAlign: Leverag???
会议: ACL2025
arXiv???LLM 在预训练阶段息核心问题在于 LLM ? UAlign: Leveraging Uncertainty Es???arXiv???LLM 圛?????arXiv*???LLM ??om
会议: ACL2025
arXiv: 2412.11803??会议: ACL2025
arXiv: [241??*arXiv: [241?输?arXiv: [2412??arXiv: [2412.1??*arXiv: 映??arXiv: [2412.1"? ?提出 UAlign 框架:?# 一句话总结
提出 UAlign 框架,利用置信度分数和?# 提出 UAlign ???## 研究背?f 提出 UAlign ?}^ 提出 UAlign 框架,利用置信度???提出 UAlign ???## 研究背景与动机
LLM ?
LLM 在预训练阶?he
提出 UAlign 框架,利用置信度?4???出 UAlign ???## 研究背?f
提出 UAlign ????出 UAlign ?}^
提出 UAlign ? 提出 UAlign 框?
LLM ?
LLM 在预训练阶段学到了大量知譔?LM 在预训?prompt ???心???LLM ??会议: ACL2025
arXiv???LLM 在预训练阶段息核心问题在于 LLM ? UAlign: Leveraging Uncertainty ??arXiv*???LLM 圵 会议: ACL2025
arXiv: 2412.11803??会议: ACL2025
arXiv: [241??*arXiv: [241?输?arXo\(**arXiv**: [2412.1?*arXiv**: [241??*arXiv**: [241?输?*arXiv**: [2412??*arXiv**: [2412.1? -
提出 UAlign 框架,利用置信度分数和?#
提出 UAlign ???## 研究背?f
提出 UAlign ?}^
提出 UAlign 框架,利用置信度???提出 UAl????出 UAlign ???## 研究背?f
提出 UAlign VI提出 UAlign ?}^
提出 UAlign ???出 UAlign 框??LLM ?
LLM 在预训练阶?he
提出 UAlign 框架,利用置信度?4???出 U、LLM 圁N提出 UAlign 框架,???出 UAlign ????出 UAlign ?}^
提出 UAlign ? 提出 UAlign 框?
LLM SQ提出 UAlign ? 提出 UAlign 框? LLM ?
LLM 在预训练阶段学刟?LLM ??**arXiv*???LLM 在预训练阶段息核心问题在于 LLM ? UAlign: Leveraging Uncertainty ??*arXiv*???**arXiv**: [2412.11803](https://arxiv.org/abs/2412.11803)??**会议**: ACL2025
**arXiv**: [241??*arXiv**: [241?输?*arXo\)arXiv|-arXiv: [241??arXiv: [241?输?*arXo\(**arXiv**: [2412.1?*arXiv**: --提出 UAlign 框架,利用置信度分数和?#
提出 UAlign ???## 研究背?f
提出 UAlign ?}^
提出 UAlign 框架,利用置信度| 提出 UAlign ???## 研究背?f
提出 UAlign 6.提出 UAlign ?}^
提出 UAlign |提出 UAlign 框?9提出 UAlign VI提出 UAlign ?}^
提出 UAlign ???出 UAlign 框??LLM ?
LLM 在?A提出 UAlign ???出 UAlign 框??LM 在预训练阶?he
提出 UAlign 框澗提出 UAlign 框架,???出 UAlign ? 提出 UAlign 框?
LLM SQ提出 UAlign ? 提出 UAlign 框? LLM ?
LLM 在预训练阶段学刟?LLM 弉LLM SQ提出 UAlign ? 提出 UAlign??LM 在预训练阶段学刟?LLM ??**arXiv*????**arXiv**: [241??*arXiv**: [241?输?*arXo\)arXiv|-arXiv: [241??arXiv: [241?输?arXo$arXiv: [2412.1?arXiv: --提出 UAlign 框架,利用置信度分数和?#
提出 UAlign ???## 研究背????出 UAlign ???## 研究背?f
提出 UAlign ?}^
提出 UAlign 框架,利用置信度| 提出 UAlign ???## 研究背?f
提出 UAlign 6.提出 UAlign ?}^
提出 UAlign |??提出 UAlign ?}^
提出 UAlign ??提出 UAlign 框??提出 UAlign 6.提出 UAlign ?}^
提出 UAlign |提出 UAlign 框?9揀?提出 UAlign |提出 UAlign 框澾提出 UAlign ???出 UAlign 框??LLM ?
LLM 在?A提出 UAlign ?LM 在?A提出 UAlign ???出 UAlign 桟?提出 UAlign 框澗提出 UAlign 框架,???出 UAlign ? 提出 UA?LM SQ提出 UAlign ? 提出 UAlign 框? LLM ?
LLM 在预训练阶段学刟?L??LM 在预训练阶段学刟?LLM 弉LLM SQ提出????出 UAlign ???## 研究背????出 UAlign ???## 研究背?f
提出 UAlign ?}^
提出 UAlign 框架,利用置信度| 提出 UAlign ???## 研究背?f
提出 UAlign 6.提出 UAlign ?}^
提出 UAlign |??提出 UAlign ?}^
提出 UAlign ??提出 UAlign 框??提出 UAlign 6.提出 UAlign???出 UAlign ?}^
提出 UAlign 框架,利用置信度| 提出 UAl???出 UAlign 框?T提出 UAlign 6.提出 UAlign ?}^
提出 UAlign |??提出 UAlign ?}???出 UAlign |??提出 UAlign ???出 UAlign ??提出 UAlign 框??揧
提出 UAlign |提出 UAlign 框?9揀?提出 UAlign |提出 UAlign ??LM 在?A提出 UAlign ?LM 在?A提出 UAlign ???出 UAlign 桟?提出 UAlign 框澗提出 UAlign 框架,???LM 在预训练阶段学刟?L??LM 在预训练阶段学刟?LLM 弉LLM SQ提出????出 UAlign ???## 研究背????出 UAlign ???## 研究背?f
提出 UAlign ?}^
提出 UAlign 框?提出 UAlign ?}^
提出 UAlign 框架,利用置信度| 提出 UAlign ???## 研究背?f
提出 UAlign 6.提出 UAlign ?}^
提出 UAlign |??R提出 UAlign 框??提出 UAlign 6.提出 UAlign ?}^
提出 UAlign |??提出 UAlign ?}????出 UAlign |??提出 UAlign ???出 UAlign ??提出 UAlign 框??揚 提出 UAlign 框架,利用置信度| 提出 UAl???出 UAlign 框?T提出 UAlign???出 UAlign |??提出 UAlign ?}???出 UAlign |??提出 UAlign ???出 UAlign ??提出 UAlign????出 UAlign |提出 UAlign 框?9揀?提出 UAlign |提出 UAlign ??LM 在?A提出 UAlign ?LM 在?A提和提出 UAlign ?}^
提出 UAlign 框?提出 UAlign ?}^
提出 UAlign 框架,利用置信度| 提出 UAlign ???## 研究背?f
提出 UAlign 6.提出 UAlign ?}^
提出 UAlign |??R提出 UAlign 框??提出 UAlign 6.提出 UAlign ?}^
提出 UAlign |??提出 UAlign ?}????出 UAlign |??提出 UAlign ???出 UAlign ??提????出 UAlign 框成提出 UAlign 框架,利用置信度???出 UAlign 6.提出 UAlign ?}^
提出 UAlign |??R提出 UAlign 桓???出 UAlign |??*R提出 UAlig??提出 UAlign |??提出 UAlign ?}????出 UAlign |??提出 UAlign ?E提出 UA wc -l "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/llm_alignment/rpo_retrieval_preference_optimization_for_robust_retrieval-augmented_generation.md"
wc -l "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/llm_efficiency/longreward_improving_long-context_large_language_models_with_ai_feedback.md"
cd "/Users/zy/workspace/Auto Research" && python tmp/write_note_2506_14400.py
wc -l "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/llm_nlp/ualign_leveraging_uncertainty_estimations_for_factuality_alignment_on_large_lang.md"
ENDOFNOTE
EOF
ENDOFNOTE
echo "ENDOFNOTE"
python3 -c "
target = '/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/llm_alignment/rpo_retrieval_preference_optimization_for_robust_retrieval-augmented_generation.md'
content = open(target).read()
print(len(content.splitlines()))
"
printf 'ENDOFNOTE\n'
echo 'ENDOFNOTE'
printf 'ENDOFNOTE\n'
ENDOFNOTE
python3 -c "
import sys
content = open(sys.argv[1]).read()
print(len(content))
" "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/others/ladder_language-driven_slice_discovery_and_error_rectification_in_vision_classif.md"
cd "/Users/zy/workspace/Auto Research" && python3 tmp/write_note_2505_23224.py
ENDOFNOTE
EOF
python3 -c "
import pathlib
content = '''# Unveiling the Power of Source: Source-based Minimum Bayes Risk Decoding for Neural Machine Translation
\u4f1a\u8bae: ACL2025
arXiv: 2406.11632
\u4f5c\u8005: Boxuan Lyu, Hidetaka Kamigaito, Kotaro Funakoshi, Manabu Okumura
\u673a\u6784: Institute of Science Tokyo, Nara Institute of Science and Technology
\u4ee3\u7801: vlaks425/sMBR
\u9886\u57df: nlp_generation
\u5173\u952e\u8bcd: MBR decoding, quality estimation, neural machine translation, reranking, paraphrasing
\u4e00\u53e5\u8bdd\u603b\u7ed3¶
\u63d0\u51fa source-based MBR (sMBR) \u89e3\u7801\u65b9\u6cd5\uff0c\u5229\u7528\u91ca\u4e49/\u56de\u8bd1\u751f\u6210\u7684\u51c6\u6e90\u7aef\u53e5\u5b50\u4f5c\u4e3a\u201c\u652f\u6301\u5047\u8bbe\u201d\uff0c\u7ed3\u5408\u65e0\u53c2\u8003 QE \u6307\u6807\u4f5c\u4e3a\u6548\u7528\u51fd\u6570\uff0c\u9996\u6b21\u5728 MBR \u89e3\u7801\u4e2d\u5b8c\u5168\u4f9d\u8d56\u6e90\u7aef\u4fimport pathl0ccontent = '''u5
\u4f1a\u8bae: ACL2025
arXiv: 2406.11632
\u4f5c\u8005: Boxuan Lyu, H\u3arXiv: [2406.11632](cc\u4f5c\u8005: Boxuan Lyu, Hidetaka Kamigaito, Kotaro39\u673a\u6784: Institute of Science Tokyo, Nara Institute of Science and Techn8f\u4ee3\u7801: vlaks425/sMBR
\u9886\u57df:\u\u9886\u57df: nlp_generation
\u5173\u952e\u8bcd: MBR decod80\u5173\u952e\u8bcd: MBR dec1\
\u4e00\u53e5\u8bdd\u603b\u7ed3¶
\u63d0\u51fa source-based MBR (sMBR) \u89e3\u7801\u65b9\u6cd5\uff0c\u52200c
\u63d0\u51fa source-based MBR (964\u4f1a\u8bae: ACL2025
arXiv: 2406.11632
\u4f5c\u8005: Boxuan Lyu, H\u3arXiv: [2406.11632](cc\u4f5c\u8005: Boxuan Lyu, Hidetaka Kamigaito, Kotaro39\u673a\u6784: Institute of Science Tokyo, Nara Institute of Science and Techn8f\u4ee3\u7801: vlaks425/sMBR
\u9886\u57df:\u\u9886\u57df: nlp_generatio59arXiv: [2406.11632](21\u4f5c\u8005: Boxuan Lyu, H\u3arXiv: [2406.1163253\u9886\u57df:\u\u9886\u57df: nlp_generation
\u5173\u952e\u8bcd: MBR decod80\u5173\u952e\u8bcd: MBR dec1\
\u4e00\u53e5\u8bdd\u603b\u7ed3¶
\u63d0\u51fa source-based MBR (sMBR) \u89e3\u7801\u65b9\u6cd5\uff0c\u52200c \u63d0\u51fa source-based MBR (9645*\u5173\u952e\u8bcd: MBR decod80\u5173\u952e\1f## \u4e00\u53e5\u8bdd\u603b\u7ed3
\u63d0\u51fa source-based MBR (s63
\u63d0\u51fa source-based MBR (
- \u63d0\u51fa source-based MBR (964\u4f1a\u8bae: ACL2025
arXiv: [241farXiv: 2406.11632
62\u4f5c\u8005: Boxuan Lyu, H\u3arXiv: [2406.1163253\u9886\u57df:\u\u9886\u57df: nlp_generatio59arXiv: [2406.11632](21\u4f5c\u8005: Boxuan Lyu, H\u3arXiv: [2406.1163253\u9886\u57df:\u\u9886\u57df: nlp_generation
\u5173\u952e\u8bcd: MBR decod80\u5173\u952e\u8bcd: MBR dec1\
## \u4e00\u\u5173\u952e\u8bcd: MBR decod80\u5173\u952e\u8bcd: MBR dec1\
\u4e00\u53e5\u8bdd\u603b\u7ed3¶
\u63d0\u51fa source-based MBR (sMBR) \u89e3\u7801\u65b9\u6cd5\uff0c\u52200c \u63d0ae## \u4e00\u53e5\u8bdd\u603b\u7ed3
\u63d0\u51fa source-based MBR (s47 \u63d0\u51fa source-based MBR (4e2\u63d0\u51fa source-based MBR (9645*\u5173\u952e\u8bcd: MBR decod80\f \u63d0\u51fa source-based MBR (s63 \u63d0\u51fa source-based MBR ( - \u63d0\u51fa source-based MBR (964\u4f1a\u8bae:528\u63d0\u51fa source-based MBR ( -\u- \u63d0\u51fa source-based MB00arXiv: [241farXiv: [2406.11632](https://arxiv.org/ab0a62\u4f5c\u8005: Boxuan Lyu, H\u3arXiv: [2406.1163253\u9886\u571c\u5173\u952e\u8bcd: MBR decod80\u5173\u952e\u8bcd**: MBR dec1\
## \u4e00\u\u5173\u952e\u8bcd: MBR decod80\u5173\u952e\u8bcd: MBR dec1\
\u4e00\u53e5\u8bdd\u603b\u7ed3¶
\u63d0\u51fa source-based MBR (sMBR) \u89e3\u7801\u65b9\u6cd5ed## \u4e00\u\u5173\u952e\u8bcd: MBR decod80**\u5173\u952e\u8bcdu6## \u4e00\u53e5\u8bdd\u603b\u7ed3
\u63d0\u51fa source-based MBR (sMBR) \u89e3\BT \u63d0\u51fa source-based MBR (ff0\u63d0ae## \u4e00\u53e5\u8bdd\u603b\u7ed3
\u63d0\u51fa source-based MBR (2\ \u63d0\u51fa source-based MBR (s47 \u63ff0\u63d0\u51fa source-based MBR (4e6a\u63d0\u51fa source-based MBR (s63 \u63d0\u51fa source-based MBR ( - \u63d0\u51fa source-based MBR (964\u4f09\u63d0\u51fa source-based MBR ( -e3- \u63d0\u51fa source-based MB01-\u- \u63d0\u51fa source-based MB00arXiv: [241farXiv: [2406.11632](https://arx36## \u4e00\u\u5173\u952e\u8bcd: MBR decod80\u5173\u952e\u8bcd**: MBR dec1\
\u4e00\u53e5\u8bdd\u603b\u7ed3¶
\u63d0\u51fa source-based MBR (sMBR) \u89e3\u7801\u65b9\u6cd5ed## \u4e00\u\u5173\u952e\u8bcd: MBR decod80**\u5173\u95u5## \u4e00\u53e5\u8bdd\u603b\u7ed3
\u63d0\u51fa source-based MBR (sMBR) \u89e3\97 \u63d0\u51fa source-based MBR (7ae \u63d0\u51fa source-based MBR (sMBR) \u89e3\BT \u63d0\u51fa source-based MBR (ff0\u63d0ae## \u4e00\u53e5\u8bdd\u603b\u7ed3
\u63d0\u51fa source-based MBR (2\ \u63dd8\u63d0\u51fa source-based MBR (ff0\u63d0ae## e \u63d0\u51fa source-based MBR (2\ \u63d0\u51fa source-based MBR (s47 \u6392R\u63d0\u51fa source-based MBR (s--\u63ff0\u63d0\u51fa source-based --\u63d0\u51fa source-based MBR ( - \u63d0\u51fa source-based MBR (964\u4f0 r- \u63d0\u51fa source-based MB0 -e3- \u63d0\u51fa source-based MB01-\u- \u63d0\u51fa source-based MB00ar) ## \u4e00\u53e5\u8bdd\u603b\u7ed3
\u63d0\u51fa source-based MBR (sMBR) \u89e3\u7801\u65b9\u6cd5ed## \u4e00\u\u5173\u952e\u8bcd: MBR decod80**\u5173\u95u5## \u4e00\u53e5\u8bdd\u603b\u7ed3
\u63d0\ub \u63d0\u51fa source-based MBR (\u4 \u63d0\u51fa source-based MBR (sMBR) \u89e3\97 \u63d0\u51fa source-based MBR (7ae \u63d0\u51fa source-based MBR (sMBR) \u89e3\BT \u63d0\u51fa source-based 8To\u63d0\u51fa source-based MBR (7ae \u63d0\u5165\u63d0\u51fa source-based MBR (sM1 \u63d0\u51fa source-based MBR (ff0\u63d0ae## T\ \u63d0\u51fa source-based MBR (2\ \u63dd8\u63d0\u51fa source-based MBR (-|-\u63dd8\u63d0\u51fa source-base
|\u63d0\u51fa source-based MBR (2\ \u63d0\u51fa source-an\u63d0\u51fa source-based MBR (s89\u6392R\u63d0\u51fa source-based 0 - \u63d0\u51fa source-based MBR (964\u4f0 r- \u63d0\u51fa source-based MB0 -e3- \u63d0\u51fa source-base\u \u63d0\u51fa source-based MBR (sMBR) \u89e3\u7801\u65b9\u6cd5ed## \u4e00\u\u5173\u952e\u8bcd: MBR decod80\u5173\u95u5## \u4e00\u53e5\u8bdd\u603b\u7ed3
\u63d0\ub \u63d0\u51fa su4f \u63d0\ub \u63d0\u51fa source-based MBR (\u4 \u63d0\u51fa source-based MBR (sMBR) \u89e3\97 \u63d0\u51fa source-based MBR (7ae \u63d0\u51fa source-based M|
|\u63d0\u5--\u63d0\u51fa source-based MBR (sM--\u63d0\u51fa source-based MBR (7ae \u63d0\u516.\u63d0\u51fa source-based MBR (sM22\u63d0\u51fa source-based 8To\u63d0\u51fa souu6\u63d0\u5165\u63d0\u51fa source-based MBR (sM1 \u63d0\u51fa so51\u63d0\u51fa source-based MBR (2\ \u63dd8\u63d0\u51fa source-based MBR (-|-\u63dd8\u63d0\u573\u63dd8\u63d0\u51fa source-basb21|\u63d0\u51fa source-based MBR (2\ \u63d0\u51fa source-an\u63d0\u51fa sou60\u63d0\u51fa source-an\u63d0\u51f89\u63d0\u51fa source-based MBR (sMBR) \u89e3\u7801\u65b9\u6cd5ed## \u4e00\u\u5173\u952e\u8bcd: MBR decod80**\u5173\u95u5## \u4e00\u53e5\u8bdd\u603b\u7ed3
\u63d0\ub \u63d0\u51fa su4f \u63d0\ub \u \u63d0\ub \u63d0\u51fa su4f \u63d0\ub \u63d0\u51fa source-based MBR (\u4 \u63d0\u51fa source-based MBR (sMBR) \u89e3\97 \u63d0\u51fa source-based MBR (7a1\u\u63d0\u5b\u63d0\ub \u63de\u63d0\u510\u63d0\u51fa source-based MBR (sMOM\u63d0\u51fa source-based MBR (7ae \u63d0\u517e\u63d0\u51fa source-based M|
|\u6u8|\u63d0\u5--\u63d0\u51fa so\u\u63d0\u516.\u63d0\u51fa source-based MBR (sM22\u63d0\u51fa source-based 8To\u63fc\u63dd8\u63d0\u51fa source-based MBR (-|-\u63dd8\u63d0\u573\u63dd8\u63d0\u51fa source-basb21|\u63d0\u51fa source-based MBR (2\ \u63d0\u51fa source-an\u63d0\u51fa sou60\u63d0\u51fa source-u9\u63d0\u51fa source-an\u63d0\u51fa sou60\u63d0\u51fa source-an\u63d0\u51f89\u63d0\u51fa source-based MBR (sMBR) \u89e3\u7801\u65\u \u63d0\ub \u63d0\u51fa su4f \u63d0\ub \u \u63d0\ub \u63d0\u51fa su4f \u63d0\ub \u63d0\u51fa source-based MBR (\u4 \u63d0\u51fa source-based MBR (sMBR) \u89e3\97 \u63d0\u51fa source-based MBR (7a1\u\u63d0\u5b\u63d0\ub \u63de\63d\u63d0\u5ff\u63d0\ub \u \u64e\u63d0\ub bc\u63d0\u59a\u63d0\ub \u63dR-\u63d0\u5\u\u63d0\u51fa source-based MBR (sM5b\u63d0\u51fa source-based MBR (7a1\u\u63d0\u565\u63de\u63d0\u510\u63d0\u51fa source-based MBR (sMOM\u6f\u63d0\u517e\u63d0\u51fa source-based M|
|\u6u8|\u63d0\u5--\u63d0\u51fa so\u\u63d0\u51ee|\u6u8|\u63d0\u5--\u63d0\u51fa so\u\u63ng\u63d0\u51fa source-an\u63d0\u51fa sou60\u63d0\u51fa source-u9\u63d0\u51fa source-an\u63d0\u51fa sou60\u63d0\u51fa source-an\u63d0\u51f89\u63d0\u51fa source-based MBR (sMBR) \u89e3\u7801\u65\u \u63d0\ub \u63d0\u51fa su4f \u63d0\ub \u \u63d0\ub \u63d0\ub \u63d0\u51fa su4f \u63d0\ub \u \u63d0\ub \u63d0\u51fa su4f \u63d0\ub \u63d0\u51fa source-based MBR (\u4 \u63d0\u51fa source-based MBR (sMBR) \u89e3\97 \u63d0\u51fa source-based M21\u63d0\u51E\u63d0\ub \u \1Zh\u63d0\ub e0\u63d0\u565\u63d0\ub \u63d5b\u63d0\u5u9\u63d0\u51fa source-based MBR (sM76\u63d0\u51fa source-based MBR (7a1\u\u63d0\u5u7\u63de\63d\u63d0\u5ff\u63d0\ub \u \u64e\u63d0\ub bc\u6
\u64e\u63d0\ub bc\u63d0\u59a\u6368bc\u63d0\u59a\u4\u63dR-\u63d0\u5\u\u63u7|\u6u8|\u63d0\u5--\u63d0\u51fa so\u\u63d0\u51ee|\u6u8|\u63d0\u5--\u63d0\u51fa so\u\u63ng\u63d0\u51fa source-an\u63d0\u51fa sou60\u63d0\u51fa source-u9\u63d0\u51fa source-an\u63d0\u51fa sou60\u63d0\M \u63d0\ub \u63d0\u51fa su4f \u63d0\ub \u \u63d0\ub \u63d0\ub \u63d0\u51fa su4f \u63d0\ub \u \u63d0\ub \u63d0\u51fa su4f \u63d0\ub \u63d0\u51fa source-based MBR (\u4 \u63d0\u51fa source-based MBR (sMBR) \u89e3\97 \u63d0\u51fa source-based M21\u63d0\u51E\u63d0\ub \u \1Zh\u6\u\u63d0\u55 \u63ng & Vlachos, \u63d0\ub hi\u63d0\u51fa su4f \u6a\u63d0\ub \u \u69\u63d0\ub \u\u63d0\u5csMBR \u6539\u53d8\u\u63d0\u5f\u63d0\u51fa source-based MBR (sM90\u63d0\u51fa source-based M21\u63d0\u51E\u63dc4\1Zh\u63d0\ub e0\u63d0\u565\u63d0\ub \u63d5b\u63b5e0\u63d0\u565\6\u63d5b\u63d0\u5u9\u63\u\u64e\u63d0\ub bc\u6
\u64e\u63d0\ub bc\u63d0\u59a\u6368bc\u63d0\u59a\u4\u63dR-\u63d0\u5\u\u63u7|\u6u8|\u63d0\u5--\u63d0\u51fa so\u: bc\u6
\u64e\u2b \u62b5bc\u63d0\u59a\a\u63d0\u51fa su4f \u63d0\ub \u \u63d0\ub \u63d0\ub \u63d0\u51fa su4f \u63d0\ub \u \u63d0\ub \u63d0\u51fa su4f \u63d0\ub \u63d0\u51fa source-based MBR (\u4 \u63d0\u51fa source-based MBR (sMBR) \u89e3\97 \u63d0\u51fa source-based M21\u63d0\u51E\u63d0\ub \u \1Zh\uu7684\u5173\u7cfb\u9\u63d0\ub 66\u63d0\u51fa su4f \u63c\u63d0\ub \u \u62b\u63d0\ub 20\u63d0\u5 N\u63d0\ub \u63du6\u63d0\u5\u\u63d0\u51fa source-based MBR (sMd\u8def\uff0c\u4f46\u6548\u7387\u95ee\u9898\u9650\1Zh\u6\u\u63d0\u55 \u63ng & Vlachos, \u63d0\ub hth\u6a\u63d0\ub \u \u69\u63d0\ub \u\u63d0\u5csMBR \u6539\u53d8\u\u6er\u69\u63d0\ub th\u\u63d0\u5csMrce0\u63d0\u565\u63d0\ub \u63d5b\u63b5e0\u63d0\u565\6\u63d5b\u63d0\u5u9\u63\u\u64e\u63d0\ub bc\u6
\u64e\u63d python3 "/Users/zy/workspace/Auto Research/tmp/write_note_2505_23224.py" wc -l < "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/nlp_generation/unveiling_the_power_of_source_source-based_minimum_bayes_risk_decoding_for_neura.md" cat /dev/null python3 -c "import os; print(sum(1 for _ in open('/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/nlp_generation/unveiling_the_power_of_source_source-based_minimum_bayes_risk_decoding_for_neura.md')))" cd "/Users/zy/workspace/Auto Research" && python3 tmp/write_note_2505_11900.py cd "/Users/zy/workspace/Auto Research" && python3 tmp/write_longreward_note.py ENDOFNOTE echo "cleared" ENDOFNOTE wc -l "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/graph_learning/disentangled_multi-span_evolutionary_network_against_temporal_knowledge_graph_re.md" EOF echo test python3 -c " import pathlib p = pathlib.Path('/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/audio_speech/who_can_withstand_chat-audio_attacks_an_evaluation_benchmark_for_large_audio-lan.md') content = open('/dev/stdin').read() p.write_text(content) print(f'Written {len(content.splitlines())} lines') " << 'PYEOF'
Who Can Withstand Chat-Audio Attacks? An Evaluation Benchmark for Large Audio-Language Models¶
会议: ACL2025
arXiv: 2411.14842
作者: Wanqi Yang, Yanda Li, Meng Fang, Yunchao Wei, Ling Chen (UTS, Liverpool, 北京交通大学)
代码: CAA Benchmark
领域: audio_speech
关键词: 对抗音频攻击, 大型音频语言模型, 鲁棒性评估, benchmark
一句话总结¶
提出 Chat-Audio Attacks (CAA) 基准,包含四类通用对抗音频攻击(内容攻击、情感攻击、显式噪声攻击、隐式噪声攻击),通过三种评估方法系统评测六个 SOTA 大型音频?mport pathl?? = pathlib.P??ontent = open('/dev/stdin').read() p.write_text(content) print(f'Written {len(content.splitlines())} lines') " << 'PYEOF'
Who Can Withstand Chat-Audio Attacks? An Evaluati??.write_text(content)¶
print(f'Writ??rint(f'Written {len? << 'PYEOF'
Who Can Withstand Chat-Audio Attack??# Who Can W??会议: ACL2025¶
arXiv: 2411.14842
作者: WangnearXiv: [2411???作者: Wanqi Yang, Yanda Li, Meng Fang, Yunchao Wei?代码: CAA Benchmark
领域: audio_speech
关键词: 少领域: audio_speech
关键词: 对抗音频攻击, ?*关键词: 对抗韺*
一句话总结¶
提出 Chat-Audio Attacks (CAA) 基准,包含四类通用对抗音???提出 Chat-Audi下p.write_text(content) print(f'Written {len(content.splitlines())} lines') " << 'PYEOF'
Who Can Withstand Chat-Audio Attacks? An Evaluati??.write_text(content)¶
print(f'Writ??rint(f'Written {len? << 'PYEOF'
Who Can Withstand Chat-Audio Attack??# Who Can W??会议: ACL2??rin?选 360 条英语" << 'PYEOF'¶
Who Can Withstand Chat-Audio Attack??# Who Can Wieprint(f'Writ??rint(f'Written {len? << 'PYEOF'¶
Who Can Withstand Chat¶
-# Who Can Withstand Chat-Audio Attack??# Who Ca??arXiv: 2411.14842
作者: W:作者: WangnearXiv: [2411???作者: Wanqi ??领域: audio_speech
关键词: 少领域: audio_speech
关键词: 对抗音频攻击, ?*关键词: 对抗韺*
一句话总结¶
提?(关键词: 少领??*关键词: 对抗音频攻击, ?*??# 一句话总结
提出 Chat-Audio Attacks (CAA) 基准,??提出 Chat-Audi景print(f'Written {len(content.splitlines())} lines') " << 'PYEOF'
Who Can Withstand Chat-Audio Attacks? An Eva?? << 'PYEOF'¶
Who Can Withstand Chat-Audio Attack**# Who Can W?rint(f'Writ??rint(f'Written {len? << 'PYEOF'¶
Who Can Withstand Chat? Who Can Withstand Chat-Audio Attack??# Who??(# Who Can Withstand Chat-Audio Attack??# Who Can Wieprint(f'Writ??rint(f'Written {len? << 'PYEOF'¶
W?? Who Can Withstand Chat¶
-# Who Can Withstand Chat-Audio Attack??# Who Ca??arXiv: [2411.14842](?# Who Can Withstand Ch??作者: W:作者: WangnearXiv: [2411???作者: Wanqi ??领域: audio_speech 关键??关键词: 少领域: audio_speech 关键词: 对抗音频攻击, ?关键词: ??关键词*: 对抗音频攻击, ???## 一句话总结
提?(关键词: 少领??*关键?d 提?(关键? ?提出 Chat-Audio Attacks (CAA) 基准,??提出 Chat-Audi景print(f'Written {len(content?? << 'PYEOF'
Who Can Withstand Chat-Audio Attacks? An Eva?? << 'PYEOF'¶
Who Can Withstand Chat-Audio Attack??# Who Can W?? Who Can Withstand Chat-Audio Attack# Who Can W?rint(f? Who Can Withstand Chat? Who Can Withstand Chat-Audio Attack??# Who??(# Who Can Withstand Chat??# W?? Who Can Withstand Chat¶
-# Who Can Withstand Chat-Audio Attack??# Who Ca??arXiv: [2411.14842](?# Who Can Withstand Ch??作者: W:作者: WangnearXiv:o,-# Who Can Withstand Chat-Au?关键??关键词: 少领域: audio_speech 关键词: 对抗音频攻击, ?关键词: ??关键词*: 对抗音频攻击, ???## 一句话总结
提?(关键词: 少?关键词: 对抗音频攻击, ?*关键词:?? 提?(关键词: 少领??*关键?d 提?(关键? ?提出 Chat-Audio Attacks (CAA) 基准,??提出 | 提?(**关键? ?提出 Chat-Audio Atta| # Who Can Withstand Chat-Audio Attacks? An Eva?? << 'PYEOF'
Who Can Withstand Chat-Audio Attack??# Who Can W?? Who Can ? Who Can Withstand Chat-Audio Attack??# Who Can W?? Who?# Who Can Withstand Chat-Audio Attack??# Who Ca??arXiv: [2411.14842](?# Who Can Withstand Ch??作者: W:作者: WangnearXiv:o,-# Who Can Withstand Chat-Au?关键??关键词: 少领域*: audio_speech¶
关键词: a-关键词: 对抗音频攻击, ?关键词: ??关键词: 对抗音频攻击, ???## 一句话总结
提?(关键词: 少?关键词: 对抗音频攻击, ?*关键词:?? 提?(关键词: 少?提?(关键词: 少?关键词: 对抗音频攻击, ?关键词:?? 提?(关键词: 少领?? A提?(关键词: 少领??关键?d 提?(关键? ?提出 Chat-Audi-|提?(关键? ?提出 Chat-Audio Atta8# Who Can Withstand Chat-Audio Attack??# Who Can W?? Who Can ? Who Can Withstand Chat-Audio Attack??# Who Can W?? Who?# Who Can Withstand Chat-Audio Attack??# Who Ca???关键词: a-关键词: 对抗音频攻击, ?*关键词: ??关键词: 对抗音频攻击, ?*??## 一句话总结
提?(关键词: 少?关键词: 对抗音频攻击, ?*关键词:?? 提?(关键词: 少?提?(关键词: 少?关键词: 对抗音频攻击, ?关键词:?? 提?(关键词: 少?提?(关键词: 少?关键词: 对抗音频攻击, ?关键词:?? 提?(关键词: 少?提?(关键词*??????(关键词: 少?提?(关键词: 少?关键词: 对抗??提?(关键词: 少领?? A提?(关键词: 少领??*关键?d 提?(关键? ?提出 Chat??提?(关键? ?提出 Chat-Audi-|提?(兀?的真实环境 - 缺少音?提?(关键词: 少?关键词: 对抗音频攻击, ?*关键词:?? 提?(关键词: 少?提?(关键词: 少?关键词: 对抗音频攻击, ?关键词:?? 提?(关键词: 少?提?(关键词: 少?关键词: 对抗音频攻击, ?关键词:?? 提?(关键词: 少?提?(关键词*??????(关键词: 少?提出? 提?(关键词: 少?提?(关键词: 少?关键词: 对抗?-提?(关键词: 少?提?(关键词: 少?关键词: 对抗音频攻击, ?*关键词:?? ?????(关键词: 少?提?(关键词??????(关键词: 少?提?(关键词: 少????(关键? ?提出 Chat??提?(关键? ?提出 Chat-Audi-|提?(兀?的真实环境 - 缺少音?提?(关键词: 少?关键词: 对抗音频攻击, ?关键词:?? 提?(关键譐- 缺少音?提?(关键词: 少?关键词: 对抗音频攻击, ?关键词:?? 提? 提?(关键词: 少?提?(关键词: 少?关键词: 对抗音频攻击, ??提?(关键词: 少?提?(关键词: 少?关键词: 对抗音频攻击, ?关键词:?? ??提?(关键词: 少?提?(关键词??????(关键词: 少?提出? 提?(关?YEOF cd "/Users/zy/workspace/Auto Research" && python3 tmp/write_rpo_note.py wc -l "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/audio_speech/who_can_withstand_chat-audio_attacks_an_evaluation_benchmark_for_large_audio-lan.md" cd "/Users/zy/workspace/Auto Research" && python3 tmp/write_note_2406_11632.py python3 << 'PYEOF' content = r'''# UAlign: Leveraging Uncertainty Estimations for Factuality Alignment on Large Language Models
会议: ACL2025
arXiv: 2412.11803
代码: AmourWaltz/UAlign
领域: llm_nlp
关键词: 不确定性估计, 事实性对齐, 知识边界, PPO, 语义熵, 置信度
一句话总结¶
提出 UAlign 框架,利用置信度分数和语义熵两种不确定性估计来显式建模 LLM 知识边界,并将其作为输入特征融入 PPO 对齐训练,使模型自信回答已知问题、坚定拒绝未知问题,在多个知识 QA 数据集上显著提升可靠性与泛化性。
研究背景与动机¶
LLM 在预训练阶段学到了大量知识,但在下游任务中经常无法准确表达它所掌握的事实知识。 核心问题在于 LLM 的 知识边界模糊,具体体现在三个层面:
- 弱已知知识被丢弃:模型对某些问题实际上"知道"但不确content = r'''# UA?会议: ACL2025
arXiv: 2412.11803
代码: [AmourWaltz/UAli??arXiv: [2412.1??代码: [AmourWaltz/UAlign](https://github.com/Amour?*领域: llm_nlp
关键词: uncertainty estimation, 事实性对?关键词: 不??
一句话总结¶
提出 UAlign 框架,利用置信度分数和语义熵两种不确?*?提出 UAlign ???
研究背景与动机¶
LLM 在预训练阶段学到了大量知识,但在下游任务中经常无法准确表达它所掌握的事实知识。 核心问题在于 LLM 的 知识边界模糊,具体体现在三个层面:
-
弱已知知识被丢弃:模型对某些问题实际上???LLM 在预训练阶段息核心问题在于 LLM 的 知识边界模糊,具体体现在三个层面:
-
弱已知知识被丢弃:?m
- 弱已知知识被丢弃:模型对某些问题实际上"知道"但不硎?arXiv*: 2412.11803
代码: [AmourWaltz/UAli??arXiv: [2412.1??代码:?*代码: [AmourWaltz/UAli??arXiv: [2412.1??代?关键词: 不确定性估计, 事实性对?关键词*: 不??
一句话总结¶
提出 UAlign 框架,利用置信?## 一句话总结
提出 UAlign 框架,利用置信度分数和?# 提出 UAlign ???## 研究背景与动机
LLM 在预训练阶段学到了大量知识,但在下游任务个 LLM 在预训练阶段 ???心问题在于 LLM 的 知识边界模糊,具体体现在三个层面:
- 弱已知知识被丢弃:樠?
- 弱已知知识被丢弃:模型对某些问题实际上???LLM 在预???
- 弱已知知识被丢弃:?m
- 弱已知知识被丢弃:模型对某些问题实际上"知道"但不硎?arXiv: [2412.11803](https://arxiv.org/abs/2412.采1. 弱已知知识被丢弃:模??代码: [AmourWaltz/UAli??arXiv: [2412.1??*代码:?代码: [AmourWaltz/UAli??arXiv: [2412.1??代?关键词: 丯?## 一句话总结
提出 UAlign 框架,利用置信?## 一句话总结
提出 UAlign 框架,利用置信度分数和?# 提出 UAlign ???## 研究背景与动机
LLM 在预训练??提出 UAlign ?ac 提出 UAlign 框架,利用置信度分数和?# ???提出 UAlign ???## 研究背景与动机
LLM ? LLM 在预训练阶段学到了大量知蜉?LM 在预训练阶段 ???心问题在于 LLM 的 知识边界?1. 弱已知知识被丢弃:樠? 1. 弱已知知识被丢弃:模型对某些问题实际上??有1. 弱已知知识被丢弃:模??. 弱已知知识被丢弃:?m 1. 弱已知知识被丢弃:模型对??1. 弱已知知识被丢弃**:模?? 提出 UAlign 框架,利用置信?## 一句话总结
提出 UAlign 框架,利用置信度分数和?# 提出 UAlign ???## 研究背景与动机
LLM 在预训练??提出 UAlign ?ac 提出 UAlign 框架,利用置信度分数和?# ???提出 UAlign ???## 研究背景与动机
LLM ? LLM 在预训练阶段学到??? 提??对应的 \(c_i\) 或 \(e_i\)。 - 奖励模型 $\th提出 UAlign ???## 研究背景与动机
LLM ?? LLM 在预训练??提出 UAlign ?ac 揗????出 UAlign 框架,利用置信???义提出 UAlign ???## 研究背景与动机
?? LLM ? LLM 在预训练阶段学到了大量???LLM ??1. 弱已知知识被丢弃:模型对某些问题实际上??有1. 弱已知知识被丢弃:模??. 弱已知知识被丢弃:?m 1. ??1. 弱已知知识被丢弃:模型对??1. 弱已知知识被丢弃:模?? 提出 UAlign 框架,利用置信?## 一句话总结
揸?提出 UAlign 框架,利用置信?## 一句话总结
提出 UAlign 框架,?) 提出 UAlign 框架,利用置信度分数和?# ? -提出 UAlign ???## 研究背景与动机
LLM ? LLM 在预训练??提出 UAlign ?ac 揚????出 UA?有 LLM 均使用 LoRA(rank???提出 UAlign ???## 研究背景与动机
?
LLM ? LLM 在预训练阶段学到??? 提?????LM 圚L提??对应的 \(c_i\) 或 \(e_i\)㻃- 奖励模型 $\th提出 UA?N LLM ?? LLM 在预训练??提出 UAlign ?ac 揗????出 UAlig??LM 圄???????出 UAlign 框架,利用置?? ?? LLM ? LLM 在预训练阶段学到了大量???LLM ??1. 弱已知知识被丢弃*???LM ?u1. ??1. 弱已知知识被丢弃:模型对??1. 弱已知知识被丢弃**:模?? 提出 UAlign 框架,利用置信?## 一句话总结
揸?提出 UAlign 框架,利用置信?## ?O提出 UAlign 框架,利用置信?## 一句话总结
揸?提出 UAlign 框架,利-- 揸?提出 UAlign 框架,利用置信?## 一句话7.3 提出 UAlign 框架,?) 提出 UAlign 框架,利用?54提出 UAlign 框架,利9 ? -提出 UAlign ???## 研究背景与动机
5-?7 LLM ? LLM 在预训练??提出 UAlign ?n*LLM ?9揚????出 UA?有 LLM 均使用 LoRA60 ?
LLM ? LLM 在预训练阶段学到??? 提?????LM 圚L提??对应的 \(c_i\) 或 \(e_i\)Truth.LLM ??提?????LM 圚L提??对应????LM ?? LLM 在预训练??提出 UAlign ?ac 揗????出 UAl?,但 UAlign 在 LLLM 圊???????出 UAlig??LM 圄????????d?? LLM ? LLM 在预训练阶段学到了大量???LLM ??1. ?L??LM 圚?提出 UAlign 框架,利用置信?## 一句话总结
揸?提出 UAlign 框架,利用置信?## ?O提出 UAlign 框架,利用置信?## 一句话总结
揸?提出 UAlign
| 揸?提出 UAlign 框架,利用置信?## ?O提出5 | 揸?提出 UAlign 框架,利-- 揸?提出 UAlign 框架,利用置信?## 一句话7.3 提出 UAliB ????提出 UAlign 框架,利翡提出 UAlign 框架,?) 提出 UAlign 框架,利甮???出 UAlign 框架,利??-提出 UAlign ???## 研究背景与动机
5-?7 LLM ? LL? 5-?7 LLM ? LLM 在预训练??提出 U置LLM ?LLM 圼??
LLM ? LLM 在预训练阶段学到??? 提?????LM 圚L提??对应的 \(c_i\) 戭提?LM 圢?提?????LM 圚L提??对应的 ??LLM 在预训练??提出 UAlign ?ac 揗????出 UAl?,但 UAlign 在 LLLM 圊???????出 UAl10揗????出 UAl?,但 UAlign 在 L?LM ? LLM 在预训练阶段学到了大量???LLM ??1. **?L??LM 圚?提出 UA??LM 圸? 揸?提出 UAlign 框架,利用置信?## ?O提出 UAlign 框架,利用置信?## 一句话总结
揸?提出 UAlig: 揸?提出 UAlign
| 揸?提出 UAlign 框架,利用置信?## ?O提出5 | 揸?提出 UAlign 框架??? 揸?提出 UAl? - 揸?提出 UAlign 框架,利-- 揸?提出 UAlign 框?????提出 UAlign 框架,利??提出 UAliB ????提出 UAlign 框架,利翡提出 UA????出 UAlign 框架,利甮???出 UAlign 框架,利??-提出 UAlign ?? 5-?7 LLM ? LL? 5-?7 LLM ? LLM 在预训练??提出 U置LLM ?LLM 圼??
LLM ? LLM 在颼??LM ??L? ??LM ? LL??LM 圖? LLM ? LLM 在预训练阶段学到??? 提??LLM 圮????????LM 圚L提??对应的 ???????出 UAl?,但 UAlign 在 LLLM 圊???????出 UAl10揗????出 UAl?,但 UAlign 在 L?LM ? LLM 在预训?LM 在预训练阶段学到了大量???LLM ??1. *?L??LM 圚?提出 UA??LM 圸? 揸?提出 UAlign ??揸?提出 UAlign 框架,利用置信?## ?O提出 UAlign 框架,利用置信?
¶
揸?提出 UAlig: 揸?提出 UAlign
| 揸?提出 UAlign 框架,利用置信?## ?O提出5 | 揸??????提出 UAlign ?? 揸?提出 UAl:????提出 UAlign 框架??? 揸?提出 UAl? - 揸?提凁?揸?提出 UAl? - 揸?提凅? 揸?提出 U????提出 UAlign 框?????提建LLM ? LL? 5-?7 LLM ? LLM 在预训练??提出 U置LLM ?LLM 圼??
LLM ? LLM 在颼??LM ??L? ??LM ? LL??LM 圖? LLM ? LLM 在预训练阶段学到??? 提??LLM 圮????????LptLL? ?LLM ? LL?LM 圡?LLM ? LLM 在颼??LM ??L? ??LM ? L???LM 圠?LL??LM 圖? LLM ? LLM 在预??LLM ? LLM??LM ??????LLM 圮????????LM 圚L?LLM 在预训?LM 在预训练阶段学到了大量???LLM ??1. *?L??LM 圚?提出 UA??LM 圸? 揸?提出 UAlign ??揸?提出 UAlign 框架,利??揸?提出 UAlign ??揸?提出 UAlign 框架,利用置信?## ?O提出 UAlign 框架,利用置??# 揸?提出 UAlig: 揸?提出 UAlign
| 揸?提出 UAlign 框架,利用置信?## ?O提出5 | 揸????? 揸?提出 UAlign ?? 揸?提出 UAl?角揸??????提出 UAlign ?? 揸?提出 UAl:????提?p?? 揸?提出 UAl:?/A? 揸?提出 UAl? - 揸?提凁?揸?提出 UAl? ig- 揸?提凁??c- 揸?提凅? 揸?提出 UctLL? 5-?7 LLM ? LLM 在预训练??提出 U置LLM ?LLM 圼??
LLinLLM ? LLenLLM ?l LLM ? LLM ? wc -l "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/llm_nlp/ualign_leveraging_uncertainty_estimations_for_factuality_alignment_on_large_lang.md" cd "/Users/zy/workspace/Auto Research" && "/Users/zy/workspace/Auto Research/.venv/bin/python" src/sync_notes.py ACL2025 2>&1 | tail -3 cd "/Users/zy/workspace/Auto Research" "/Users/zy/workspace/Auto Research/.venv/bin/python" src/sync_notes.py ACL2025 /Users/zy/workspace/Auto\ Research/.venv/bin/python /Users/zy/workspace/Auto\ Research/src/sync_notes.py ACL2025 echo "EOF" ENDOFNOTE echo done wc -l "/Users/zy/workspace/Auto Research/paper_notes/docs/AAAI2026/others/reimagining_anomalies_what_if_anomalies_were_normal.md" wc -l '/Users/zy/workspace/Auto Research/paper_notes/docs/AAAI2026/others/reimagining_anomalies_what_if_anomalies_were_normal.md' cat -n "/Users/zy/workspace/Auto Research/paper_notes/docs/AAAI2026/others/reimagining_anomalies_what_if_anomalies_were_normal.md" | tail -3 ls -la "/Users/zy/workspace/Auto Research/paper_notes/docs/AAAI2026/others/reimagining_anomalies_what_if_anomalies_were_normal.md" 2>&1 || echo "FILE NOT FOUND" python3 -c " target = '/Users/zy/workspace/Auto Research/paper_notes/docs/AAAI2026/others/reimagining_anomalies_what_if_anomalies_were_normal.md' import os if os.path.exists(target): with open(target) as f: print(f'Exists, {len(f.readlines())} lines') else: print('NOT FOUND') " cat > "/Users/zy/workspace/Auto Research/paper_notes/docs/NeurIPS2025/human_understanding/stochastic_momentum_methods_for_non-smooth_non-convex_finite-sum_coupled_composi.md" << 'ENDOFNOTE'
Stochastic Momentum Methods for Non-smooth Non-Convex Finite-Sum Coupled Compositional Optimization¶
会议: NeurIPS2025
arXiv: 2506.02504
作者: Xingyu Chen, Bokun Wang, Ming Yang, Qihang Lin, Tianbao Yang (Texas A&M, Iowa)
代码: 待确认
领域: human_understanding
关键词: FCCO, 非光滑非凸优化, 随机动量法, Moreau 包络, 约束优化, 复合优化
一句话总结¶
针对非光滑非凸有限和耦合复合优化 (FCCO) 问题,提出两种随机动量方法 SONEX(单循环)和 ALEXR2(双循环),通过外层 Moreau 包络平滑和嵌套平滑技术将迭代复杂度从 \(O(1/\epsilon^6)\) 改进至 \(O(1/\epsilon^5)\),并在非凸不等式约束优化中取得同等最优复杂度。
研究背景与动机¶
有限和耦合复? Stochastic Momentum Methods for Non-smooth Non-Convex Finite-Sum Coupled Compositional Optimization
会议: NeurIPS2025
arXiv: 2506.02504
佰?会议**: NeurIPS2025
arXiv: 2506.02504
作者: XingyDROarXiv: [2506.02504??作者: Xingyu Chen, Bokun Wang, Ming Yang, Qihang L?代码*: 待确认
领域: human_understanding
关键词: FCCO, 非光滑非凭?领域: human_unsi关键词*: FCCO, 非光滑??## 一句话总结
针对非光滑非凸有限和耦合复合优化 (FCCO) 问题,提出两种随????对非光滑靧?
研究背景与动机¶
有限和耦合复? Stochastic Momentum Methods for Non-smooth Non-Convex Finite-Sum Coupled Compositional Optimization
会议: NeurIPS2025
arXiv: 2506.02504
佰?会议**: NeurIPS2025
arXiv: 2506.02504
作者: + \ 有限和耦合复? Shbf
会议: NeurIPS2025
arXiv: 2506.02504
佰?会议**: NeurIPS2025
arXsumarXiv: [2506.02504(g佰?会议: NeurIPS2025
arXiv: [2506.02504](h$FarXiv: [2506.02504](https??作者: XingyDROarXiv: [2506.02504??作者: ??领域*: human_understanding
关键词: FCCO, 非光滑非凭?领域: human_unsi关键词: FCCO, 非光滑???关键词*: FCCO, 非光滑 $针对非光滑非凸有限和耦合复合优化 (FCCO) 问题,提出两种随????对非光滑靧?
??## 研究背景与动机¶
有限和耦合复? Stochastic Momentum Methods for Non-smooth Non-Convex F??
有限和耦合复? S???会议: NeurIPS2025
arXiv: 2506.02504
佰?会议: NeurIPS2025
arX ?arXiv: [2506.02504?佰?会议: NeurIPS2025
arXiv: [2506.02504](hhcarXiv: [2506.02504](httpsa}作者: + \
有限和耦合复? Shbf
会议: Ne
3有限和耦吖?会议: NeurIPS202 = (arXiv: [2506.02504 *佰?会议: NeurIPS2025
arXsumarXiv: [2506.hbarXsumarXiv: [2506.0250?arXiv: [2506.02504](h$FarXiv: [2506.02504](https???i关键词: FCCO, 非光滑非凭?领域: human_unsi关键词: FCCO, 非光滑???关键词*: FCCO, 非光滑 $针对非光滑非凸?## ??## 研究背景与动机
有限和耦合复? Stochastic Momentum Methods for Non-smooth Non-Convex F??
有限和耦合复? S???会议: NeurIPS2025
arXiv: 2506.02504
佰:
有限和耦合复? Stochast????限和耦合复? S???会议: NeurIPS2025
arXiv: [2506.02504](htt arXiv: [2506.02504](https://arxiv.org/abs/25mi佰?会议: NeurIPS2025
arX ?arXiv: [2506.maarX ?arXiv: [2506.0250??arXiv: [2506.02504](hhcarXiv: [2506.02504](httpsa}?i有限和耦合复? Shbf
会议: Ne
3有限和耦吖?会议: Ne?会议: Ne
3有限?m3有限和耦t.arXsumarXiv: [2506.hbarXsumarXiv: [2506.0250?arXiv: [2506.02504](h$FarXiv: hb
有限和耦合复? Stochastic Momentum Methods for Non-smooth Non-Convex F??
有限和耦合复? S???会议: NeurIPS2025
arXiv: 2506.02504
佰:
有限和耦合复? Stochast????限和耦合复? S???会议: NeurIPS2025
arXiv: [2506.025 Ca有限和耦合复? S???会议: NeurIPS2025
arXiv: [2506.02504](htt?OarXiv: [2506.02504](https://arxiv.org/abs/25??佰:
有限和耦合复? Stochast????限和耦合eb有限?arXiv: [2506.02504](htt arXiv: [2506.02504](https://arxiv.org/abs/25mi ?arX ?arXiv: [2506.maarX ?arXiv: [2506.0250??arXiv: [2506.02504](hhcarXiv: [2506.02504]SO会议: Ne
3有限和耦吖?会议: Ne?*会议: Ne
3有限?m3有限和耦t.arXsumarXiv: [2506.hbarXsumarXiv: [2506.0250??3有限和耦??3有限?m3有限和耦t.arXsumarXiv: [???限和耦合复? Stochastic Momentum Methods for Non-smooth Non-Convex F??
有限和耦合复? S???会议: NeurIP???限和耦合复? S???会议**: Neu?链)、ICPPAC:
| 方法 | 罚函arXiv: [2506.02504](https://arxiv.org/abs/25C 佰: 有限和耦合复? Stochast????限和耦合--有限?-arXiv: [2506.025 Ca有限和耦合复? S???会议: NeurIPS2025 arXiv?arXiv: [2506.02504](htt?OarXiv: [2506.02504](https://arxiv.org/??有限和耦合复? Stochast????限和耦合eb有限?arXiv: [2506.02504](htt ??3有限和耦吖?会议: Ne?会议: Ne 3有限?m3有限和耦t.arXsumarXiv: [2506.hbarXsumarXiv: [2506.0250??3有限和耦??3有限?m3有限和耦t.arXsumarXiv: [???限和耦合复? Stochastic Momentum Methods for Non-smooth Non-? 3有限?m3有限和耦t.ar(平方铰链)有限和耦合复? S???会议: NeurIP???限和耦合复? S???会议**: Neu?链)、ICPPAC:
| 方法 | 罚函arXiv: [2506.02504](https://arxiv.org/abs/25C **佰: 有限和耦合复? Stochast????限??
| 方法 | 罚函arXiv: [2506.02504](https://arxiv.org/abs/25C 佰: 有限和耦合复? Stochas????限和耦合复? Stochast????限和耦合--有限?-arXiv: [2506+ arXiv?arXiv: [2506.02504](htt?OarXiv: [2506.02504](https://arxiv.org/??有限和耦合复? Stochast????限和耦合??有限?m3有限和耦t.arXsumarXiv: [2506.hbarXsumarXiv: [2506.0250??3有限和耦??3有限?m3有限和耦t.arXsumarXiv: [???限和耦合复? Stochastic Momentum Methods for Non-smooth Non-??| 方法 | 罚函arXiv: [2506.02504](https://arxiv.org/abs/25C *佰: 有限和耦合复? Stochast????限??
| 方法 | 罚函arXiv: [2506.02504](https://arxiv.org/abs/25C 佰: 有限和耦合复? Stochas????限和耦合复? Stochast????限和耦合--有限?-arXiv: [2506+ arXiv?arXiv: [2506.02504](htt?OarXiv*: [2506.02504](https????限和耦合复? Stochast????限??
| 方法 | 罚函arXiv: [25??| 方法 | 罚函arXiv: [2506.02504](????限和耦合复? Stochas????限和耦合复? Stochast????限和??有限和耦合复? Stochast????限?? | 方法 | 罚函arXiv: [2506.02504](https://arxiv.org/abs/25C 佰: 有限和耦合复? Stochas????限和耦合复? Stochast????限和耦合--有限?-arXiv: [2506+ arXiv?arXiv: [2506.02504](htt?OarXiv*: [2506.02504](https????限和耦合复? Stochast????限??
| 方法 | 罚函arXiv: [25??| 方法 | 罚函arXiv: [2506.02504](????限和耦合复? Stochas????限和耦合复? Stochast????限和??有限和耦合复? Stochast????限?P| 方法 | 罚函arXiv: [2506.02504](on有限和耦合复? Stochas????限和耦合复? Stochast????限和耨? 方法 | 罚函arXiv: [25??| 方法 | 罚函arXiv: [2506.02504](????限和耦合复? Stochas????限和耦合复? Stochast????限和??有限和耦合复? Stochast????限?? | 方法 | 罚函arXi? 方法 | 罚函arXiv: [2506.02504](https://arxiv.org/abs/25C 佰: 有限和耦合复? Stochas????限和耦合复? Stochast????限和耦合--有限?-arXiv: [2506+ arXiv????限和耦合复? Stochas????限和耦合复? Stochast????限和??| 方法 | 罚函arXiv: [25??| 方法 | 罚函arXiv**: [2506.02504](????限和耦合复? Stochas????限和耦合复? Stochast????限和??有限和耦合复? Stochast????限?P| 方法 cat > "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/others/decoding_knowledge_attribution_in_mixture-of-experts_a_framework_of_basic-refine.md" << 'ENDOFNOTE'
Decoding Knowledge Attribution in Mixture-of-Experts: A Framework of Basic-Refinement Collaboration and Efficiency Analysis¶
会议: ACL2025
arXiv: 2505.24593
作者: Junzhuo Li, Bo Wang, Xiuze Zhou, Peijie Jiang, Jia Liu, Xuming Hu (港科大广州, 蚂蚁集团)
领域: others
关键词: Mixture-of-Experts, 知识归因, 可解释性, 专家协作, 路由机制
一句话总结¶
提出面向 MoE 模型的跨层知识归因算法,通过对比分析三种 MoE 架构(Qwen 1.5-MoE、OLMoE、Mixtral)与三种稠密模型,揭示 MoE 的"中层激活-晚层放大"高效处理模式和"基础-精炼"(basic-refinement)专家协作框架,并验证语义驱动的注意力头-专家协调机制。
研究背景与动机¶
Mixture-of-Experts (MoE) 架构通过稀疏激活专# Decoding Knowledge Attribution in Mixture-of-Experts: A Framework of Basic-Refinement Collaboration and Efficiency Analysis
会议: ACL2025
arXiv: [2505.24593](h?会议: ACL2025
arXiv: 2505.24593
作者: Junzhuo Li, Bo Wang, Xiuze Zhou, ???arXiv: [2505.2??作者: Junzhuo Li, Bo Wang, Xiuze Zhou, Peijie Jian??领域*: others
关键词: Mixture-of-Experts, 知识?sformer Feed-Forward 分析等)专为稠密模关键词: Mi??## 一句话总结
提出面向 MoE 模型的跨层知识归因算法,通过对比分?????出面???任?## 研究背景与动机
Mixture-of-Experts (MoE) 架构通过稀疏激活专# Decoding Knowledge Attribution in Mixture-of-Experts: A Framework of Basic-Refinement Collaboration and Efficiency Analysis
会议: ACL2025
arXiv: [2505.24593](h?会议: ACL2025
arXiv: [2505.24593](https://arxiv.org/abs/2505.架
Mixture-of-Experts (Morme
会议: ACL2025
arXiv: [2505.24593](h?会议: ACL2025
arXiv: 2505.24593
作者: Junzhuo Li, Bo Wang, Xiuze Zhou, ???对arXiv: [2505.2?arXiv: [2505.24593](https://arxiv.org/abs/p(作者: Junzhuo Li, Bo Wang, Xiuze Zhou, ???arXivl-关键词: Mixture-of-Experts, 知识?sformer Feed-Forward 分析等)专为稠密模关键词*: Mi??## 一句话总结 提?}^l \bm{v提出面向 MoE 模型的跨层知识归因算法,通过对比分?????出面???任?## 研究背景与动机
Mixture-of-?? Mixture-of-Experts (MoE) 架构通过稀疏激活专# Decoding Knowledge Attribution in Mixture-of-Experts: A Fra??会议: ACL2025
arXiv: [2505.24593](h?会议: ACL2025
arXiv: [2505.24593](https://arxiv.org/abs/2505.架
Mixture-of-Experts (Morme
会议: ACL2025
arXi???*arXiv: [2505.2??arXiv: [2505.24593](https://arxiv.org/abs/??Mixture-of-Experts (Morme
会议: ACL2025
arXiv??会议**: ACL2025
ar知识精炼(如将"arXiv: [2505.24593](https://arxiv.org/abs/??作者: Junzhuo Li, Bo Wang, Xiuze Zhou, ???对ar????}^l \bm{v提出面向 MoE 模型的跨层知识归因算法,通过对比分?????出面???任?## 研究背景与动机
Mixture-of-?? Mixture-of-Experts (MoE) 架构通过稀疏激活专# Decoding Knowledge Attribution in Mixture-of-Experts: A Fra??会议: ACL2025
arXiv: [2505.24593]??
Mixture-of-??
Mixture-of-Experts (MoE) 架构通过稀疏激活专# Decoding Knowledge Attribution in Mixture-of-Experts: A Fra??? Mixture-of-E??arXiv: [2505.24593](h?会议*: ACL2025
arXiv: [2505.24593](https://arxiv.org/abs/2505.架
Mixture-of-Experts (Morme
会??arXiv**: [2505.24593](https://arxiv.org/abs/# Mixture-of-Experts (Morme
会议: ACL2025
arXi??*会议: ACL2025
ar??arXi???arXivOL会议*: ACL2025
arXiv??会议**: ACL2025
ar知识精炼(如将"arXiv: [2505.24593](ht?*arXiv??会议??ar知识精炼(如?- ** Mixture-of-?? Mixture-of-Experts (MoE) 架构通过稀疏激活专# Decoding Knowledge Attribution in Mixture-of-Experts: A Fra??会议*: ACL2025
arXiv: [2505.24593]??
Mixture-of-??
Mixture-of-Experts (MoE) 架构通过稀疏激活专# Decoding KnowleMRRMixture-of-E| arXiv: [2505.24593]??
Mixture-of-??
Mixture-of-Experts (MoE) 架构通过稀疏激活专# Decoding Knowledge Attribution in Mixture) Mixture-of-??
Mixture-of| Mixture0.62 | arXiv: [2505.24593](https://arxiv.org/abs/2505.架
Mixture-of-Experts (Morme
会??arXiv**: [2505.24593](https://arxiv.org/abs/# Mixture-of-Experts (Morme
会议: AC.3Mixture-of-Experts (Morme
会??arXiv: [2505.243 会??arXiv: [2505Mi会议: ACL2025
arXi??*会议: ACL2025
ar??arXi???arXivOL会arXi??会议??ar??arXi???arXivOLenarXiv??会议**: ACL2025
ar知识精炿?ar知识精炼(如将"1.Mixture-of-?? Mixture-of-Experts (MoE) 架构通过稀疏激活专# Decoding Knowledge Attribution 专?ixture-of-E??arXiv: [2505.24593]?? Mixture-of-?? Mixture-of-Experts (MoE) 架构通过稀疏激活专# Decoding KnowleMRRMixture-of-E| arXiv**ShMixture-of-?? Mixture-of9 Mixture-of-E Top2 | 0.83 | 0.63 |
| Shared + Top4 (default) | 0.85 | 0.63 |
关键发现:单独使用任何类?ixture-of-E??Mixture-of| Mixture0.62
arXiv: [2505.24593](https://arxiv.org/abs/2505.架
Mixture-of-Experts (Morme
**??Mixture-of-Experts (Morme
会??arXiv**:?专家收益递减。
Table 5: 会??arXiv: [2505?*会议: AC.3Mixture-of-Experts (Morme¶
会??arXiv: [2505.243 会????会??arXiv: [2505.243 会??ae_arXi??会议**: ACL2025
ar??arXi???arXivOL会arXiplace |*ar??arXi???arXivOL |ar知识精炿?ar知识精炼(如将"1.Mixture-of-?? Mixture-of-Experts (MoE) 架构通过稀疏激活1.Mixture-of-Experts (MoE) 架构通过稀疏激活专# Deco |Mixture-of-?? Mixture-of-Experts (MoE) 架构通过稀疏激活专# Decoding KnowleMRRMixture-of-E| arXiv*ShMixture-of-?? Mix.8Mixture-of-E.7Mixture-of9 Mixture-of-E Top2 | 0.83 | 0.63 |
| Shared + Top4 (default) | 0.85 | 0.63 |
**关键发??| Shared + Top4 (default)
0.85
**0.6??
关键发现:单独使用任何类?ix- 浅?ixture-of-Experts (Morme
**??Mixture-of-Experts (Morme
会??arXiv**:?专家收益递减。
Table 5: 会??arXiv: [250???Mixture-of-Experts (??会??arXiv:?专家?任?### Table 5: 会??arXiv: [2505隄?会??arXiv: [2505.243 会??*??会??arXiv: [2505.243 会???ar??arXi???arXivOL会arXiplace |ar??arXi???arXivOL* |ar知识精炿?**ar知识精??的?ixture-of-Experts (MoE) 架构通过稀疏激活1.Mixture-of-Experts (MoE) 架构通过稀疏激活专# Deco |Mixture-of-??¶
Mixture-??Mixture-of-Experts (MoE) 架构通过稀疏激活专# Decoding KnowleMRRMixture-of-E| arXivShMixture-of-?? Mix.8Mixture=0Mix.8Mixture-of-E.7Mixture-of9 Mixture-of-E Top2 | 0.83 | 0.63 |
| Shared + Top4 (default) | 0.85 | 0.6?? Shared + Top4 (default) | 0.85 | 0.63** |
**关键发?
**关键发??| Shared + Top4 (default)
0.8???*关键发现:单独使用任何类?ix- 浅?ixture-o?*??Mixture-of-Experts (Morme
会??arXiv**:?专家收益递减。
??会??arXiv:?专是否?### Table 5: 会??arXiv: [250圌?ixture-??Mixture-of-Experts (MoE) 架构通过稀疏激活专# Decoding KnowleMRRMixture-of-E| arXiv*ShMixture-of-??¶
Mix.8Mixture=0Mix.8Mixture-of-E.7Mixture-of9 Mixture-of-E Top2 | 0.83 | 0.63 |
| Shared + Top4 (default) | 0.85 | 0.6?? Shared + Top4 (default) | 0.85 | 0.63** |
**关键发?
**关键发??| Shared + Top4 (default)
0.8???*关键发现:单独使用任何类?ix- 浅?ixture-o?*??Mixture-of-Experts (Mort aMix.8Mixture=0Mix.8Mixture-of-E.7Mixture-of9 Mixture-of-E Top2 | 0.83 | 0.63 |
| Shared + Top4 (default) | 0.85 | * 2| Shared + Top4 (default) | 0.85 | 0.6?? Shared + Top4 (default) | 0??
**关键发?
**关键发??| Shared + Top4 (default)
0.8???*关键发现:单独使et 关键发??*会??arXiv**:?专家收益递减。
??会??arXiv:?专是否?### Table 5: 会??arXiv: [250圌?ixture-??Mixture-of-??##??会??arXiv:?专是否?###??ix.8Mixture=0Mix.8Mixture-of-E.7Mixture-of9 Mixture-of-E Top2 | 0.83 | 0.63 |¶
| Shared + Top4 (default) | 0.85 | 0.6?? Shared + Top4 (default) | 0.85 | 0.63** |
**关键发?
**??| Shared + Top4 (default)
0.85
**0.6?? Shared + Top4 (default)
**0??
**关键发?
**关键发??| Shared + Top4 (default)
0.8???*关键发现:单独使 ⭐⭐⭐⭐ — | Shared + Top4 (default)
0.85 | * 2| Shared + Top4 (default)
0.85
**0.6?? Shared + Top4 (default)
**0??
**关键发?
**关键发??| Shared + Top4 (default)
0.8???*关键发现:单独使et ?*关键发?
关键发??| Shared + Top4 (defa cat > "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/other关键发?ow
??会??arXiv:?专是否?### Table 5: 会??arXiv: [250圌?ixture-??Mixture-of-??##??会??arXiv:?专是否?pe| Shared + Top4 (default) | 0.85 | 0.6?? Shared + Top4 (default) | 0.85 | 0.63** |¶
**关键发?
**??| Shared + Top4 (default)
0.85
**0.6?? Shared + Top4 (default)
**0??
**关键发?
**关iu
**关键发?
**??| Shared + Top4 (default)
0.85
0.6?? Shared + Top4 (default) ??*??| Share??关键发?
**关键发??| Shared + Top4 (default)
0.8???*关键发现???关键发???关键发?
**关键发??| Shared + Top4 (default)
0.8???*关键发现:单独使et ?*关键发?
关键发??| Shared + Top4 (defa cat > "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/o??家阻断实验关键发??| Shared + Top4 (defa cat > "/Users/zy/workspace/Auto Research/paper_notes/doc-Exper##??会??arXiv:?专是否?### Table 5: 会??arXiv: [250圌?ixture-??Mixture-of-??##??会??arXiv??
**关键发?
**??| Shared + Top4 (default)
0.85
**0.6?? Shared + Top4 (default)
**0??
**关键发?
**关iu
**关键发?
**??| Shared + Top4 (default)
0.85
0.6?? Shared + Top4 (default) ????| Sh?????| Share??关键发?
**关iu
**关键发?
**??| Shared + Top4 (default)
0.85 | ??*关iu
关?*关???| Share?*关键发??| Shared + Top4 (default)
0.8???*关键发现???关键发???关键发?
**关键
**关键发??| Shared + Top4 (default)
0.8???*关键发现:单独使et ?关键发?
??关键发??| Shared + Top4 (defa cat > "/Users/zy/workspace/Auto Research/paper_notes/docs/AC??关键发?
**??| Shared + Top4 (default)
0.85
**0.6?? Shared + Top4 (default)
**0??
**关键发?
**关iu
**关键发?
**??| Shared + Top4 (default)
0.85
0.6?? Shared + Top4 (default) ????| Sh?????| Share??关键发?
**关iu
**关键发?
**??| Shared + Top4 (default)
0.85 | ??关i}$??| Share?关键发?
**关iu
**关键发?
**??| Shared + Top4 (default)
0.85 | ?关iu
关?*关???| Share??*关iu
**关键发?
**??| Shared + Top4 (default)
0.85 | ??*关iu
关?关???| Share?*关键发? 1关?(??| ShareE 关?关???| Share?关键发??| Shared +*关键
**关键发??| Shared + Top4 (default)
0.8???*关键发现:单独使et ?关键发?
??关键发??| Sh?关?Ga??关键发??| Shared + Top4 (defa cat > "/Users/zy/workspace/Auto Research/paper_notes/docs????| Shared + Top4 (default) | 0.85 | 0.6?? Shared + Top4 (default) | 0??
**关键发?
**关iu
关??关键发?
**关iu
**关键发?
**??| Shared + Top4 (default)
0.85 | ??*关iu
关??关??*??| Share?关iu
**关键发?
**??| Shared + Top4 (default)
0.85 | ??关i}$??| Share?关键发?
**关iu
关68关?0*??| Share?关iu
**关键发?
**??| Shared + Top4 (default)
0.85 | ?关iu
**关
关???| Share??关?*关???| Share??*关iu
关键发? *??关键发?
??| Shared + Top4????| Share?关?*关???| Share?关键发? 1关?(%
**关键发??| Shared + Top4 (default)
0.8???*关键发现:单独使et ?关键发?
??关键发??| Sh?关?G????关键发??| Sh?关?Ga??关键发??| Shared + Top4 (defa cat > "/Users/zy/workspa?*关键发?
**关iu
关??关键发?
**关iu
**关键发?
**??| Shared + Top4 (default)
0.85 | ??*关iu
关??关??*??| Share?关iu
**关键发?
**??| Shared + Top4 (default)
0.Ta关iu
关?*关?? 关iu
关键发篹关????| Share0 关??关????| Share?关iu
关键发? *??关键发?
??| Shared + Top4--??| Share--**关iu
关68关?0*??| Share?关iu
**关键发?
**??| Shared + Top4 (|
关6 1关键发?
??| Shared + Top490??| Share
|**关
关???| Share??关?*关???| S1
?*Q关键发? ??*关键发?
??| Shared + Top4???3??关键?o??| Shared +4 关键发??| Shared + Top4 (default)
0.8???*关键发现:单独使et ?关键?.??关键发??| Sh?关?G????关键发??| Sh?关?Ga??关键发??| Shared + ?*关iu
关??关键发?
**关iu
**关键发?
**??| Shared + Top4 (default)
0.85 | ??*关iu
关??关????| Share?*关iu??关??*关iu
关键发砸关?
??| Share?*关??关??*??| Share?关iu
关键发? *??关键发?
??| Shared + Top4??*??| Share??关?关?? *关iu
关键发篹关??--关键发篹关?bi关键发? *??关键发?
??| Shared + Top4--??| Share-- O*??关键?0??0.80 | 0.60 关68关?0??| Share?*关iu
关?.关键发?
??| Shared + Top4it??| Share1.关6 1关键发? |??| Shared + Top4 Q|关
关???| Share??**?.
? c?Q关键发? ??**关键发?
??| S0??关键发?insid??| Shared +.5关??**关键发?
**关iu
**关键发?
**??| Shared + Top4 (default)
0.85 | ??*关iu
关??关????| Share?*关iu??关??*关iu
关键发砸关?
??| Share?*关??关??*??| Share?关iu
关键发? *??关键发?*关iu
关键发现关????| Sharee_关??关????| Share?关iu??关??关iu??关键发砸关?
??| Share?*关??关??oE??| Share?关??关键发? *??关键发?
??| Shared + T_l*??关键反 ??| Shared?了关键发篹关??--关键发篹关?bi关键发? ??*关键发?
??| Shared + Top4--??| Share-- O*MR??| Shared +--关?.关键发?
??| Shared + Top4it??| Share1.关6 1关键发? |*??| Shared + Top4 Q|
| 共享 + Top1 | 0.82 | |??| Shared + Top4 Q|关
关???| Share??**廘
关???| Share???.???? c独激活任何类型???关键发?
??| ???| S0*???*关iu
**关键发?
**??| Shared + Top4 (default)
0.85 | ???关鮶??| Share核心知识主要由少量专家捕获,增加更多专?*关键发砸关?
??| Share?关?? 可解释???| Share?*关??关键发? ??关键发?关iu
关键发瞄*??关键叀?关键发现关??????| Share?*关??关??oE??| Share?关??关键发? *??关键发?
??| Shared + T_l*??????*关键发?
??| Shared + T_l*??关键反 ??| Shared???*??| Shared +????关键发?
??| Shared + Top4--??| Share-- O*MR??| Shared +--关?.关键发?
??| ???| Shared +????| Shared + Top4it??| Share1.关6 1关键发? |??| Shared + Top4??|??| Shared + Top4 Q|*
| 共享 + Top1 | 0.82 | |??? 共享 + Top1 | 0.82 | |??关???| Share??廘
关???| Share?????关???| Share??兼???| ???| S0*???*关iu
**关键发?
**??| Shared + Top4 (defa?
**关键发?
??| Shared + To???| ShareE???| Share?关?? 可解释???| Share?*关??关键发? ??关键发?关iu
关键发瞄*??关键叀?关键发现关???????关键发?关iu
关键发瞄*??关键叀?关键发现*??关键发瞄??关????**关键发?
??| Shared + T_l*??????*关键发?
??| Shared + T_l*??关键反 ??| Shared???*??????| Shared +????| Shared + T_l*??关键反 ??| ????| Shared + Top4--??| Share-- OMR??| Shared +--关?.关键发? J??| ???| Shared +????| Shared + Top4it??| Share1.关6 1关键?S |??| Shared + Top4??|??| Shared + Top4 Q|
| 共享 + Top1 | 0.82 | |?????| 共享 + Top1 | 0.82 | |??? 共享 + Top1 | ??关???| Share?????关???| Share??兼???| ???| S0*???关al*关键发?
**??| Shared + Top4 (defa?
**关键发?
??| Shared + To???| Sh 均针对稠密?关键发?
??| Shar??*??| Share????关键发?*关iu
关键发瞄*??关键叀?关键发现关???????关键发?关iu ?关键发瞄??关?关键发瞄??关键叀?关键发现*??关键发瞄??关????关? ??| Shared + T_l??????**关键发?
??| Shared + T_l*??关键反 ?????| Shared + T_l??关键反 ??| ?J??| ???| Shared +????| Shared + Top4it??| Share1.关6 1关键?S |??| Shared + Top4??|*??| Shared + Top4 Q|
| 共享 + Top1 | 0.82 | |?????| 共享 + Top1 | 0.82 | |具? 共享 + Top1 | 0.82 | |?????| 共享 + Top1 | 0.82 | |??? 共享 + Top1 | ??关???| Share?????关?*??| Share?????| Shared + Top4 (defa?
**关键发?
*??| Shared + To???| Sh 均针对? cat > "/Users/zy/workspace/Auto Research/paper_notes/docs/NeurIPS2025/ai_safety/impact_of_dataset_properties_on_membership_inference_vulnerability_of_deep_trans.md" << 'ENDOFNOTE'
Impact of Dataset Properties on Membership Inference Vulnerability of Deep Transfer Learning¶
会议: NeurIPS2025
arXiv: 2402.06674
代码: DPBayes/impact-dataset-properties-MI-vulnerability-deep-TL
领域: ai_safety
关键词: membership inference attack, differential privacy, transfer learning, power-law, privacy risk
一句话总结¶
从理论和实验两方面揭示深度迁移学习中成员推断攻击 (MIA) 脆弱性与每类样本数之间存在幂律关系:随着每类样本数 \(S\) 增加,MIA 优势按 \(S^{-1/2}\) 下降,但保护最脆弱样本所需的数据量极大,凸显了差分隐私形式化保障的不可替代性。
研究背景与动机¶
成员推断攻击 (MIA)# Impact of Dataset Properties on Membership Inference Vulnerability of Deep Transfer Learning
会议: NeurIPS2025
arXiv: 2402.06674
*??
会议: NeurIPS2025
arXiv: 2402.06674
代码现arXiv: [2402.06674??代码: [DPBayes/impact-dataset-properties-MI-vulner??领域*: ai_safety
关键词: membership inference attack, differential privacy, transfer learning, power-law, privacy risk
一句话总结Mi关键词: membe??## 一句话总结¶
从理论和实验两方面揭示深度迁移学习中成员推断攻击 (MIA) 脆弱怇???理论和实骡?## 研究背景与动机
成员推断攻击 (MIA)# Impact of Dataset Properties on Membership Inference Vulnerability of Deep Transfer Learning
会议: NeurIPS2025
arXiv: 2402.06674
??
会议: NeurIPS2025
arXiv: [2402.06674](https://arxiv.org/abs/2402.0# ?成员推断攻击 (MI建
会议: NeurIPS2025
arXiv: 2402.06674
??
伍 SOTA 黑盒攻击:
- LiarXiv: [2402.0667420??
会议: NeurIPS2025
arXiv: [2402.06674](httpN
T arXiv: [2402.06674??代码现arXiv: [2402.06674??代码: [DPBayeh 关键词*: membership inference attack, differential privacy, transfer learning, power-law, privacy risk
丸?¶
一句话总结Mi关键词: membe??## 一句话总结¶
从理论和实验两方面揭示深度迁秇???理论和实验两方面揭示深度迁移学习中成员?成员推断攻击 (MIA)# Impact of Dataset Properties on Membership Inference Vulnerability of Deep Transfer Learning
会议: m{m
会议: NeurIPS2025
arXiv: 2402.06674
??
会议: NeurIPS2025
arXi??arXiv: [2402.06674???
会议: NeurIPS2025
arXiv: [2402.06674](http???arXiv: [2402.06674
会议: NeurIPS2025¶
arXiv: [2402.06674](https://arxiv.org/abs/2402.06674??arXiv: [2402.06674????
伍 SOTA 黑盒攻击:
- LiarXiv: [2402.06??- *LiarXiv: [2402.06??会议: NeurIPS2025
arXiv?arXiv**: [2402.06674 \
丸?¶
一句话总结Mi关键词: membe??## 一句话总结¶
从理论和实验两方面揭示深度迁秇???理论和实验两方面揭示深度迁移学习中成员?成员推断攻击 (MIA)# Impact of Datase ?# 一-1从理论和实验两方面揭示深度迁秇???理论和?}
会议: m{m
会议: NeurIPS2025
arXiv: 2402.06674
??
会议: NeurIPS2025
arXi??arXiv: [2402.06674???
会议: NeurIPS2025
arXiv: [2402.06674](http???arX??会议: Ne??arXiv: [2402.06674???
会议: NeurIPS2025
arXi??arXiv: [2402.06???arXi??arXiv: [2?*会议: NeurIPS2025
arXiv: r}arXiv: [2402.06674_S#会议: NeurIPS2025
arXiv: [2402.06674](https:??arXiv: [2402.06674] M伍 SOTA 黑盒攻击:
- LiarXiv*: [2402.06??- LiarXiv: [2402.06?-B- LiarXiv: [2402.060 arXiv?arXiv: [2402.06674 \
丸?¶
一句话总结Mi关键词: me??# 丸?¶
一句话总结Mi关??# 一??从理论和实验两方面揭示深度迁秇???理论和型会议**: m{m¶
会议: NeurIPS2025
arXiv: 2402.06674
??
会议: NeurIPS2025
arXi??arXiv: [2402.06674???
会议: NeurIPS2025
arXiv: [2402.06674](http???a??会议: Ne=1arXiv: [2402.06674n\(*??
**会议**: NeurIPS2025
**arXi??*arXiv**: [2402.06 ?*?*arXi??*arXiv**: [2--**会议**: NeurIPS2025
**arXiv**: 3**arXiv**: [2402.066740^**会议**: NeurIPS2025
**arXi??*arXiv**: [2402.06??*?*arXi??*arXiv**: [2?*8,**arXi??*arXiv**: [2\) arXiv: r}arXiv: [2402.06674_S#会议: NeurIPS2025
arXiv: [2402.0?arXiv: [2402.06674](https:??*arXiv: [2402.06674] M?- LiarXiv: [2402.06??- LiarXiv: [2402.06?-B- LiarXiv: [2402.?# 丸?
一句话总结Mi关键词: me??# 丸?¶
一句话总结Mi关??# 一??从理论和实验两方面?|## 一-|## 一句话总结Mi关??# 一??从理论? 会议: NeurIPS2025¶
arXiv: 2402.06674
??
会议: NeurIPS2025
??arXiv: [2402.06674???
会议: NeurIPS2025
arXi??arXiv: [2402.06????arXi??arXiv: [2$*会议: NeurIPS2025
arXiv: .5arXiv: [2402.06674?*会议: NeurIPS2025
arXi??*arXiv: [2402.06 ??arXi??arXiv: [2-??arXi??arXiv: [2??*arXiv: 3arXiv: [2402.066740^会议: NeurIPS2025
arXi??*arXiv:?arXi??arXiv: [2402.06???arXi??arXiv: [2? *arXiv: [2402.0?*arXiv: [2402.06674](https:??arXiv: [2402.06674] M?- LiarXiv*: [2402.06??- LiarXiv: [2402.06?-B- L??## 一句话总结Mi关键词: me??# 丸?
一句话总结Mi关??# 一??从理论和实验两方面?|## 一-|## 一句话总结Mi关??# 一??从理论? ??## 一句话总结Mi关??# 一??从理论??arXiv: 2402.06674¶
??
会议: NeurIPS2025
??arXiv: [2402.06674???
会议: NeurIPS2025
????
会议: NeurIPS2025
??arXiv: [2402.06674??????arXiv: [2402.06?会议: NeurIPS2025
arX??arXi??*arXiv: [2?arXiv: .5arXiv: [2402.06674?*会议: NeurIPS2025
arXi??*arXiv:LMarXi??*arXiv: [2402.06 ??arXi??arXiv: [2-???
arXi??arXiv**:?arXi??arXiv: [2402.06???arXi??arXiv: [2? *arXiv: [2402.0?*arXiv: [2402.06674](https:??arXiv?# 一句话总结Mi关??# 一??从理论和实验两方面?|## 一-|## 一句话总结Mi关??# 一??从理论? ??## 一句话总结Mi关??# 一??从理论??arXiv: 2402.06674
??
会议: NeurIPS2025
??arXiv: [???
会议: NeurIPS2025
??arXiv: [2402.06674???
会议: NeurIPS2025
????
会议: NeurIPS2025
??arXiv: [2402.06674??????arXiv: [2402.06?会议: NeurIPS2025
arX??arXi??arXiv*: [2?*????arXiv: [2402.06??会议: NeurIPS2025
????????
会议: Ne??会训??arXiv: [2402.06??arX??arXi??arXiv: [2?arXiv: .5arXiv: [2402.06674?会议: ??arXi??arXiv:LMarXi??arXiv: [2402.06 ??arXi??arXiv: [2-???
arXi??farXi??*arXiv:?arXi??arXiv: [2402.06???arXi??arXiv: [2?????
会议: NeurIPS2025
??arXiv: [???
会议: NeurIPS2025
??arXiv: [2402.06674???
会议: NeurIPS2025
????
会议: NeurIPS2025
??arXiv: [2402.06674??????arXiv: [2402.06?会议: NeurIPS2025
arX??arXi??arXiv*: [2?*????arXiv: [2402.06??会议: NeurIPS2025
????????
会议: Ne??会训??aot???arXiv: [???
*??会议: NeurIPS?p??arXiv: [2402.06us会议: NeurIPS2025
??????*??
会议: Ne??会蛆??*arXiv: ?量关系arX??arXi??arXiv: [2?*????arXiv: [2402.06??会议: NeurI??????????
会议: Ne??会训??arXiv: [2402.06??arX??arXi??arXi ?会议⭐?arXi??farXi??arXiv**:?arXi??arXiv: [2402.06???arXi??arXiv: [2?????
会议: NeurIPS2025
??arXiv: [???
会议: NeurIPS2025
??arXiv: [2402.06674???
会议: Ne?会议: NeurIPS2025
??arXiv: [???
会议: NeurIPS2025
??arXiv: [2402.06674 ???*arXiv: [???
??会议: NeurIPS????*arXiv: [2402.06 ?会议: NeurIPS2025
????????
会议: Ne??会臏??arXiv: [2402.06?arX??arXi??*arXiv: [2?????arXiv: [2402.06??? wc -l "/Users/zy/workspace/Auto Research/paper_notes/docs/NeurIPS2025/human_understanding/stochastic_momentum_methods_for_non-smooth_non-convex_finite-sum_coupled_composi.md"
cat > "/Users/zy/workspace/Auto Research/paper_notes/docs/AAAI2026/others/reimagining_anomalies_what_if_anomalies_were_normal.md" << 'ENDOFNOTE'
Reimagining Anomalies: What if Anomalies Were Normal?¶
会议: AAAI2026
arXiv: 2402.14469
作者: Philipp Liznerski, Saurabh Varshneya, Ece Calikus, Puyu Wang, Alexander Bartscher, Sebastian Josef Vollmer, Sophie Fellenz, Marius Kloft
代码: liznerski/counterfactual-xad
领域: others
关键词: 异常检测, 反事实解释, 可解释AI, GAN, 扩散模型, 语义解释
一句话总结¶
提出首个针对无监督图像异常检测器的反事实解释(Counterfactual Explanation)框架,通过将异常图像修改为检测器认为"正常"的样本来揭示检测器的决策语义,支持 GAN 和扩散模型两种生成方式,并能自动解耦多个异常概念维度。
研究背景与动机¶
深度学习异常检测(AD)在图像基? Reimagining Anomalies: What if Anomalies Were Normal?
会议: AAAI2026
arXiv: 2402.14469
**作者??
会议: AAAI2026
arXiv: [2402.14469](https://器arXiv: [2402.14?作者: Philipp Liznerski, Saurabh Varshneya, Ece Ca??代码*: liznerski/counterfactual-xad
领域: others
关键词: anomaly detection, 反事?领域: others
关键词: 异常检测, 反事实解释, 可解释AI, GAN, 扩散毭关键词: ??
一句话总结¶
提出首个针对无监督图像异常检测器的反事实解释/??提出首个针???
研究背景与动机¶
深度学习异常检测(AD)在图像基? Reimagining Anomalies: What if Anomalies Were Normal?
会议: AAAI2026
arXiv: 2402.14469
**作者??
会议: AAAI2026
arXiv: [2402.14469]样本(Counterfactual Examples)?深度学习异常检???
会议: AAAI2026
arXiv: 2402.14469
**作者??
会议???*arXiv: [2402.14??*作者??
会议: AAAI2026
arXiv: [2402.14469](??会议?arXiv: [2402.14??领域: others
关键词: anomaly detection, 反事?领域: others
关键词: 异常检测, 反事实解释, 可解释AI, GAN, 扩散毭关键词: ??
一句话总结¶
提出首个针?关键词*: ?h关键词**: 异常检测, 反事实解释, 可解释bf## 一句话总结
提出首个针对无监督图像异常检测器的反事实解释/?縸 提出首个针??## 研究背景与动机
深度学习异常检测(AD)在图像基? Reimagining Anoma??
深度学习异常检??会议: AAAI2026
arXiv: 2402.14469
作者??
会议?? arXiv: [2402.14?作者??
会议: AAAI2026
arXiv: [2402.14469]?b会议hbarXiv: [2402.14hb会议: AAAI2026
arXiv: 2402.14469
作amarXiv: [2402.14 L作者??
会议???*arXiv: [2402.14??作者??
??会议?
|会议: AAAI2026 arXiv: [2402.144|-arXiv-------|
| $关键词: 异常检测, 反事?领域: others 关键词: 异? 关键词: 异常检测, 反事实解释, 可解释??## 一句话总结
提出首个针?关键词*: ?h关键词**: 异常检测, 反事| 提出首个针?(\m 提出首个针对无监督图像异常检测器的反事实解释/?縸 提出首个针??## 研究背景?ar提出首个针??## 研究背景与动机
深度学习异常检测(??深度学习异常检测(AD)在图像????度学习异常检??会议: AAAI2026
arXiv: [2402.1??arXiv: [2402.14469](https://arxiv.org/abson作者??
会议?? arXiv: [2402.14?作者??
A_会议???会议: AAAI2026
arXiv: [2402.144G(arXiv: [2402.14 karXiv: 2402.14469
作amarXiv: [??作amarXiv: [2402.14 L作者??
会议???arXi??会议???*arXiv: [2402.14??作????*会议?
|会议: AAAI2026
arX??
会议:??arXiv: [2402.144?? $关键词: 异常检测, 反事?关键词: 异? 关键词**: 异常检测, 反事实?提出首个针?关键词: ?h关键词**: 异常检测, 反事|
提出首个针?(\m?????出首个针?(\m
提出首个针对无监督图像异常检测器的凴提出首个针对
提出首个针??## 研究背景?ar提出首个针??## 研究背景MN 深度学习异常检测(??深度学习异常检测(AD)在图像?????ecarXiv: [2402.1??arXiv: [2402.14469](https://arxiv.org/abson作者?? 会议? 设置: 80+ 种不同配置(单类正常 / 多类正常 / INN 特定异常对) - 生成模型: GAN(A_会议???、Stable Diffusion + DiffEdarXiv**高分辨率)
Table **作?事实样本的正常性评估(AuROC↓,接近 50% 为最佳)¶
| 数据集 | 设置 | BCE会议???*| DSVDD |
|--------|------|--------|--------|--|会议: AAAI2026
arX??
会议:??arXiv: [2402.144?? $10arX??
会议:?10提出首个针?(\m?????出首个针?(\m
提出首个针对无监督图像异常检测器的凴提出首个针对
提出首个针??## 研±4.3 |
| CIFAR-10 | 多类 | 49.0±8.5 | 44.4±6.7 | 50.7±3.3 | | G提出首??? | 50.2±8.0 | 48.6±14 提出首个针??## 研究背景?ar提出首个针??## 研究背???深度学习异常检测(??深度学习异常检测(AD)在图像?堷会议? 设置: 80+ 种不同配置(单类正常 / 多类正常 / INN 特定异常对) - 生成模型: GAN(A_会议???、Stable Diffusion + ST- 生成模型: GAN(A_会议???、Stable Diffusion + DiffEdarXiv**高分辨率)±
Table **作?事实样本的正?5.4±24.6 | — |¶
| C-MNIST | 多类 | 56±12.4 | 95±30.5 | 83±8.7 | | GTSDB | 多类 | 110±101 | 95±73.5 | 131±118 |
BCE 和 HSC 的反|--------|------|--??据集上与异常样本同?arX??|会议:??arXiv: [2402.144?? $10*arX??##提出首个针对无监督图像异常检测器的凴提出首个针对
提出首个针??## 研±4.3 |
| CIF??提出首个针??## 研±4.3 | | CIFAR-10 | 多类 | 49.0±8.5 |%
| CIFAR-10 | 多类 | 49.0±8 -| G提出首??? | 50.2±8.0 | 48.6±14 提出首个针?????出首个针??## 研究背景?ar提出E:- 生成模型: GAN(A_会议???、Stable Diffusion + ST- 生成模型: GAN(A_会议???、Stable Diffusion + DiffEdarXiv高分辨率)±
Table **作?事实样本的正?5.4±24.6 | — |¶
| C-MNIST | 多类 | 56±?## Table **作?事实样本的正?5.4±24.6 | — | | C-MNIST | 多类 | 56±12.4 | 95±30.5 | 83±8.7 | | GTSDB | 多类 | 110±101 | 95±73.5 | 131±118 |?? C-MNIST | 多类 | 56±12.4 | 95±30.5 | 83±8.7 | ?? GTSDB | 多类 | 110±101 | 95±73.5 | 131±118 |??BCE 和 HSC 的反|--------|------|--??据集上?? 提出首个针??## 研±4.3 |
| CIF??提出首个针??## 研±4.3 | | CIFAR-10 | 多类 | 49.0±8.5 |%
| CIFAR-10 | 多类 | 49.0±8 -| G提出首??? | 50.2±8.0 | 48.6±14 提? CIF??提出首个针??## 瞐| CIFAR-10 | 多类 | 49.0±8.5 |% ?| CIFAR-10 | 多类 | 49.0±8 -| G框-| G提出首??? | 50.2±8. -提出首个针?????出首个针??## 研??### Table 作?事实样本的正?5.4±24.6 | — |
| C-MNIST | 多类 | 56±?## Table 作?事实样本的正?5.4±24.6 | — | | C-MNIST | 多类 | 56±12.4 | 95±30.5 | 83±8.7 | | GTSDB | 多类 | 110±101 | 95±7? C-MNIST | 多类 | 56±?## Table 作?事实样殞| C-MNIST | 多类 | 56±12.4 | 95±30.5 | 83±8.7 | | GTSDB | 多类 | 110±101 ? GTSDB | 多类 | 110±101 | 95±73.5 | 131±118 |??| GTSDB | 多类 | 110±101 | 95±73.5 | 131±118 |??BCE 和 HSC 的反|--------|------|--??据集上????出首个针??## 研±4.3 | | CIF??提出首个针??## 研±4.3 | | CIFAR-10 | 多类 | 49.0±8.5? CIF??提出首个针??## 爐| CIFAR-10 | 多类 | 49.0±8.5 |% ?| CIFAR-10 | 多类 | 49.0±8 -| G???| G提出首??? | 50.2±8.???? CIF??提出首个针??## 瞐| CIFA??
| CIFAR-10 | 多类 | 49.0±8 -| G框-| G提出首??? | 50.2±8. -?A-| G框-| G提出首??? | 50.2?提出首个针?????出首个针Pa| C-MNIST | 多类 | 56±?## Table 作?事实样本的正?5.4±24.6 | — |
| C-MNIST | 多类 ??| C-MNIST | 多类 | 56±12.4 | 95±30.5 | 83±8.7 | | GTSDB | 多类 | 110±101??| GTSDB | 多类 | 110±101 | 95±7? C-MNIST | ?| GTSDB | 多类 | 110±101 ? GTSDB | 多类 | 110±101 | 95±73.5 | 131±118 |??| GTSDB | 多类 | 110±101 | 95±73.5 | 131±118 |??BCE 图| CIF??提出首个针??## 研±4.3 | | CIFAR-10 | 多类 | 49.0±8.5? CIF??提出首个针??## 爐| CIFAR-10 | 多类 | 49.0±8.5 |% ?| CIFAR-10 | 多类 | 49.0±8 -| G???| G提出首??? | 50.2±8??| CIFAR-10 | 多类 | *49.0±8.5? CI??
| CIFAR-10 | 多类 | 49.0±8 -| G???| G提出首??? | 50.2±8.???? CIF??提出首个针孼?-| G???| G提出首??? | 50.2? CIFAR-10 | 多类 | 49.0±8 -| G框-| G提出首??? | 50.2±8. -?A-| G框-| G?-| G框-| G提出首??? | 5??-?A-| G框-| G提出首??? | 50?? C-MNIST | 多类 ??| C-MNIST | 多类 | 56±12.4 | 95±30.5 | 83±8.7 |
| GTSDB | 多类 | 110±101??| GTSDB | 多类 | 110±101 | 95±7? C-MNIST | ?*| AD| GTSDB | 多类 | 110±101??| GTSDB | 多类 | 110±101 | 95±7? C-MN??| CIFAR-10 | 多类 | * wc -l "/Users/zy/workspace/Auto Research/paper_notes/docs/NeurIPS2025/ai_safety/impact_of_dataset_properties_on_membership_inference_vulnerability_of_deep_trans.md" wc -l "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/others/decoding_knowledge_attribution_in_mixture-of-experts_a_framework_of_basic-refine.md" ENDOFNOTE wc -l "/Users/zy/workspace/Auto Research/paper_notes/docs/ACL2025/others/decoding_knowledge_attribution_in_mixture-of-experts_a_framework_of_basic-refine.md" cat > "/Users/zy/workspace/Auto Research/paper_notes/docs/NeurIPS2025/image_generation/why_diffusion_models_dont_memorize_the_role_of_implicit_dynamical_regularization.md" << 'ENDOFNOTE'
Why Diffusion Models Don't Memorize: The Role of Implicit Dynamical Regularization in Training¶
会议: NeurIPS2025
arXiv: 2505.17638
作者: Tony Bonnaire, Raphaël Urfin, Giulio Biroli, Marc Mézard (LPENS/PSL Paris, Bocconi University)
代码: 未公开
领域: image_generation
关键词: 扩散模型, 记忆化, 泛化, 隐式正则化, 训练动力学, 随机特征, 早停
一句话总结¶
通过数值实验和理论分析揭示扩散模型训练中存在两个关键时间尺度——泛化时间 \(\tau_{\text{gen}}\) 和记忆化时间 \(\tau_{\text{mem}}\),后者随训练集大小 \(n\) 线性增长而前者保持恒定,由此产生的隐式动力学正则化使模型即使在高度过参数化情况下也能通过早停避免记忆化。
研究背景# Why Diffusion Models Don't Memorize: The Role of Implicit Dynamical Regularization in Training¶
会议: NeurIPS2025
arXiv: 2505.17638
作螋
会议: NeurIPS2025
arXiv: 2505.17638
作者: ???arXivempirical score?*作者: Tony Bonnaire, Raphaël Urfin, Giulio Biroli?代码: 未公开
领域: image_generation
关键词: 扩散模型, 记忆化, 泛化, 隐式歅?领域: image_ge??关键词**: 扩散模型??
一句话总结¶
通过数值实验和理论分析揭示扩散模型训练中存在两个关键旊??通过数值实???
研究背景# Why Diffusion Models Don't Memorize: The Role of Implicit Dynamical Regularization in Training¶
会议: NeurIPS2025
arXiv: 2505.17638
作螋
会议: NeurIPS2025
arXiv: 2505.17638
作者: ???arXivempirical score?*作者: Tony Bonnaire, R???会议: NeurIPS2025
arXiv: 2505.17638
作螋
会议: NeurIP???*arXiv: [2505.17638?作螋
会议: NeurIPS2025
arXiv: [2505.17638]te会?$arXiv: [2505.17638?*作者: ???arXivempirical score?作者: Tony > 领域: image_generation
关键词: 扩散模型, 记忆化, 泛化, 隐式歅?领域: image_ge??关键??关键词*: 扩散模型?# 一句话总结
通过数值实验和理论分析揭示扩散模型训练中存在两个关键旊??通?}
通过数值实?}]## 研究背景# Why Diffusion Models Don't Memorize: The Role of Implicit Dynamical Regularization in??会议: NeurIPS2025
arXiv: 2505.17638
作螋
会议: NeurIP??*arXiv: [2505.1763848作螋
会议: NeurIPS2025
arXiv: [2505.17638]10会??arXiv: [2505.17638en作者: ???arXivempirical score?作者: Tony ?arXiv: 2505.17638
作螋
会议: NeurIP???arX?作螋
会议: NeurIP???*arXiv: [2505.17638???会讜?会议: NeurIPS2025
arXiv: [2505.17638]te?*arXiv: [2505.17638\t关键词: 扩散模型, 记忆化, 泛化, 隐式歅?领域: image_ge??关键??关键词*: 扩散模型?# 一句话总结
通?b 通过数值实验和理论分析揭示扩散模型训练中存在两个关键旊??通?} 通过数值实?}]## 研究背景# Why Diff?????过数值实?}]## 研究背景# Why Diffusion Models Don't Memorize: The Ro?函数:
arXiv: 2505.17638
作螋
会议: NeurIP??*arXiv: [2505.1763848作螋
会议: NeurIPS2025
?作螋
会议: NeurIP??*arXiv: [2505.1763848??会讻?会议: NeurIPS2025
arXiv: [2505.17638]10?\(**arXiv**: [250??定)?*作螋
**会议**: NeurIP???*arX?*作螋
**会议**: NeurIP???*arXiv**: [2505.17638*?*??**会讜?**会议**: NeurIPS2025
**arXiv**: [2505.17638]te**?\**arXiv**: [25 1**会??**会议**: NeurIP???*arXiv**: [25?*arXiv**: [2505.17638]te**?\**arXiv**: [2505.17638\t**关键词**: 扩散模垖?通?b
通过数值实验和理论分析揭示扩散模型训练中存在两个关键旊??通?}
通过数值实?}]## 研究背景# Why Diff?????过数值实?}]## 研究背景# Why Diffrop通?i通过数值实?}]## 研究背景# Why Diff?????过数值实?}]## 研究背景#??:
1.
**arXiv**: [2505.17638](https://arxiv.org/abs/2505.17638)
**作螋
**会议**: NeurIP??*arXiv**: [2505.1763848**作螋
**会议**: N < **作螋
**会议**: NeurIP??*arXiv**: [2505.1763848**?*会讼?**会议**: NeurIPS2025
*?*作螋
**会议**: Neur??*?*作螋
**会议**?*会议**?*arXiv**: [2505.17638]10**?\)arXiv: [250??定)?*作螋
会议: NeurI?*会议: NeurIP???arX?作螋
会议: NeurIP???a
会议: NeurIP???arXiv: [25f_arXiv: [2505.17638]te?*arXiv: [25 1会??会议: NeurIP???ar
|通过数值实验和理论分析揭示扩散模型训练中存在两个关键旊??通?}
通过数值实?}]## 研究背景# Why Diff?????过数值实?}]## 研究背景# Why Di| 通过数值实?}]## 研究背景# Why Diff?????过数值实?}]## 研究背景# Why Diox1.
arXiv: 2505.17638
作螋
会议: NeurIP??*arXiv: [2505.1763848作螋
会议: N < 作螋
会议: NeurIP??arXiv: [2505roo 作螋
会议: NeurIP??arXiv: [2505.1763848??会讎?会议: N < 作螋
会议: NeurIP??arXi?会议: NeurIP?????*作螋
会议: Neur???作螋
会议?*会议?arXiv: [25te会议?会议?*会议?ar |会议: NeurI?会议: NeurIP???arX?作螋
会议: NeurIP???*a| ?M会议: NeurIP???a| 会议: NeurIP???arXiv$|通过数值实验和理论分析揭示扩散模型训练中存在两个关键旊??通?}
通过数值实?}]## 研究背景# Why Diff???????通过数值实?}]## 研究背景# Why Diff?????过数值实?}]## 研究背景# Why Di|??arXiv: 2505.17638
作螋
会议: NeurIP??*arXiv: [2505.1763848作螋
会议: N < 作螋
会议: NeurIP??arXiv: [2505r?作螋
会议: NeurIP??arXiv: [2505.1763848??会讚R会议: N < 作螋
会议: NeurIP??*arXi??会议: NeurIP??*i_会议: NeurIP??*arXiv: [2505.1763848???*会议: NeurIP??arXi?会议: NeurIP?????*作螋
会议: Neu??会议: Neur???作螋
会议?*会议?arXiv:5C会?不同 \(\tau\) 下展现?会议: NeurIP???*a
?M会议: NeurIP???a
会议: NeurIP???arXiv$|通过数值实验和理论分析揭示扩散模????过数值实?}]## 研究背景# Why Diff???????通过数值实?}]## 研究背景# Why Diff?????过数值实?}]## 研究背景# Why Di|??arXiv: 2505.17638 会议: NeurIP??arXiv: [2505.1763848??会议: NeurIP??arXi?会议: NeurIP??bi会议: NeurIP??arXiv: [2505.17638??会议: NeurIP??*arXi??会议: NeurIP??*??会议: NeurIP??*arXiv: [2505.176384?论?会议: NeurIP??arXi?会议: NeurIP??bi会议: NeurIP??arXiv:?会??会议: N < 作螋
会议: NeurIP??*arXiv: [2505r?作螋
会议: NeurIP??arXiv: [2505.1763848??会讚R会?会??会议: N < 作螋
会议: NeurIP??arXi?会议: NeurIP????会议: NeurIP??) 会议: NeurIP??arXiv: [2505.1763848??会议: NeurIP??arXi?会议: NeurIP??bi会议: NeurIP??arXiv: [2505.17638??会议: NeurIP?囸会议: NeurIP??arXiv?*会议: NeurIP??arXiv: [2505.1763848?会议: NeurIP??arXi?会议: NeurIP????会议: NeurIP??) 会议: NeurIP??会议: NeurIP??*arXiv cat > "/Users/zy/workspace/Auto Research/paper_notes/docs/NeurIPS2025/medical_imaging/uncertainty-aware_multi-objective_reinforcement_learning-guided_diffusion_models.md" << 'ENDOFNOTE'
Uncertainty-Aware Multi-Objective Reinforcement Learning-Guided Diffusion Models for 3D De Novo Molecular Design¶
会议: NeurIPS 2025
arXiv: 2510.21153
代码: Kyle4490/RL-Diffusion
领域: medical_imaging
关键词: 扩散模型, 强化学习, 多目标优化, 不确定性量化, 3D 分子生成, 药物发现
一句话总结¶
提出不确定性感知的多目标强化学习框架,引导 3D 分子扩散模型(EDM)同时优化药物相关性(QED)、合成可及性(SAS)和结合亲和力(binding affinity),通过代理模型的预测不确定性动态塑造奖励函数,在三个基准数据集上一致超越基线,并通过分子动力学模拟和 ADMET 验证候选分子的药物潜力。
研究? Uncertainty-Aware Multi-Objective Reinforcement Learning-Guided Diffusion Models for 3D De Novo Molecular Design¶
会议: NeurIPS 2025
arXiv: [2510.21153](https://arxiv.org/ab?会议: NeurIPS 2025
arXiv: 2510.21153
代码: [Kyle4490/RL-DiffingarXiv: [2510.21153]*代码*: [Kyle4490/RL-Diffusion](https://github.com/K??领域: medical_imaging
关键词: 扩散模型, 强化学习, 多盺?关键词**: 扩散模?m
一句话总结¶
提出不确定性感知的多目标强化学习框架,引导 3D 分子扩散模型(?????出不确定怣?## 研究? Uncertainty-Aware Multi-Objective Reinforcement Learning-Guided Diffusion Models for 3D De Novo Molecular Design
会议: NeurIPS 2025
arXiv: [2510.21153](https://arxiv.org/ab?会议: NeurIPS 2025
arXiv: 2510.21153
代码: [Kyle4490/RL-DiffingarXiv: [2510.21153]*代码*: [Kyle4490/RL-Diffusion](https://github一
会议: NeurIPS 2025
arXiv: [2510.21153](https://arxiv.org/ab?会议: NeurIPS 2025
arXiv: [2510.21153](h详arXiv: [2510.21153]??arXiv: 2510.21153
代码: ?*代码: [Kyle4490/RL-DiffingarXiv: [2510.21153]?关键词: 扩散模型, 强化学习, 多盺?关键词**: 扩散模?m
一句话总结¶
提出不确定性感知的多目标强化和## 一句话总结
提出不确定性感知的多目标强化学习框架,? 提出不确定?a
会议: NeurIPS 2025
arXiv: [2510.21153](https://arxiv.org/ab?会议: NeurIPS 2025
arXiv: 2510.21153
代码: [Kyle4490/RL-DiffingarXiv: [2510.21153]*代码*: [Kyle4490thbarXiv: [2510.21153]?*arXiv: [2510.21153](htt?声预测器采用 E(n)-等变 GNN (EGNN)
代码: [Kyle4490/RL-DiffingarXiv: [2510.21153]Ch会议*: NeurIPS 2025¶
arXiv: [2510.21153](https://arxiv.org/ab?会议: NeurIPS 2025
arXiv: [?
arXiv: [2510.21153]??arXiv: [2510.21153](h详arXiv: [2510.21153]??arXiv: [2510.$$代码: ?代码: [Kyle4490/RL-DiffingarXiv: [2510.21153]?关键词: 扩散模型, 强化?e## 一句话总结
提出不确定性感知的多目标强化和## 一句话总结
提出不确定性感知的多目标强化学习框架,? 提出bi提出不确定??提出不确定性感知的多目标强化学习框架,? 揈?会议: NeurIPS 2025
arXiv: [2510.21153](https://arxiv.org/ab?会?sarXiv: [2510.21153]1}arXiv: 2510.21153
代码: ??代码: [Kyle4490/RL-DiffingarXiv: [2510.21153]?#代码: [Kyle4490/RL-DiffingarXiv: [2510.21153]Ch会议: NeurIPS 2025
arXiv: [2510.21153](https://arxiv.org/ab?会议: NeurIPS 2025
arXiv: [?
a_{*arXiv: [2510.21153](https://arxiv.org/ab?会议: NeurIPS 2025
arXiv:{earXiv: [?
arXiv: [2510.21153]??*arXiv: [2510.21153](h详a??arXiv: [???出不确定性感知的多目标强化和## 一句话总结
提出不确定性感知的多目标强化学习框架,? 提出bi提出不确定??提出不确定性感知的多目标强化学习框架,? 揈?*会议??提出不确定性感知的多目标强化学习框架,? ?aarXiv: [2510.21153](https://arxiv.org/ab?会?sarXiv: [2510.21153]1}arXiv: 2510.21153
代码: ??*代码: [Kyle4490/ft代码: ??代码: [Kyle4490/RL-DiffingarXiv: [2510.21153]?#代码: [Kyle4490/RL-DiffingarXiv: [2510.21153]Ch??arXiv: [2510.21153](https://arxiv.org/ab?会议: NeurIPS 2025
arXiv: [?
a_{*arXiv: [2510.21153](https://arxiv.org/ab?会议: NeurASarXiv: [?
a_{*arXiv: [2510.21153](https://arxiv.org/ab??a_{*arXi??arXiv:{earXiv: [?
arXiv: [2510.21153]??arXiv: [2510.21153](h??arXiv: [2510.21153]???提出不确定性感知的多目标强化学习框架,? 提出bi提出不确定??提出不确定性感知的多目标强化学?T代码: ??代码: [Kyle4490/ft代码: ??*代码: [Kyle4490/RL-DiffingarXiv: [2510.21153]?#代码: [Kyle4490/RL-DiffingarXiv: [2510.21153]Ch??arXiv: [2510.21153](https://arxiv.org/ab?会议: NeurIPS 2025
arXiv: [?
a_{*arXiv: [2510.21153](https://arxiv.org/ab?会议: NeurASarXiv: [?
a_{*arXiv:0.arXiv: [?
a_{*arXiv: [2510.21153](https://arxiv.org/ab?会议: NeurASarXiv: [?
a_{*arXiv: [2510.21153](https://arxiv.org/ab??a_{**arXi??arXiv:{earXiv: [?
arXiv: [2510.21153]??*arXiv: [2510.21153]( 9a_{**arXi
a_{*arXiv: [2510.21153](https://arxiv.org/ab??a_{*arXi??arXiv:{ arXiv: [2510.21153]??*arXiv: [2510.21153](h??arXiv: [2510.21153]???提出不确定性2%arXiv: [?
a_{**arXiv: [2510.21153](https://arxiv.org/ab?会议: NeurASarXiv: [?
a_{**arXiv:0.arXiv: [?
a_{**arXiv: [2510.21153](https://arxiv.org/ab?会议: NeurASarXiv: [?
a_{**arXiv: [2510.21153](https://arxiv.org/ab??a_{*arXi??arXiv:{earXiv: [?
arXiv: [2510.21153]??arXiv: [2510.21153]( 9a_{*arXi
a_{*arXiv: [2510.21153](https://arxiv.org/ab??a_{**arXi??arXiv
a_{*arXinsa_{*arXiv:0.arXiv: [?
a_{*arXiv: [2510.21153](https://arxiv.org/ab?
a_{*arXiv: [2510.21153]( 8a_{*arXiv: [2510.21153](https://arxiv.org/ab??a_{*arXi??arXiv:{starXiv: [2510.21153]??arXiv: [2510.21153]( 9a_{*arXi
a_{**arXiv: [2510.21153](hOua_{**arXiv: [2510.21153](https://arxiv.org/ab?会议: NeurASarXiv: [?
a_{**arXiv:0.arXiv: [?
a_{**arXiv: [2510.21153](https://arxiv.org/ab?会议: NeurASarXiv: [?
a_{**arXiv: [2510.21153](https://arxiv.org/ab????a_{*arXiv:0.arXiv: [?
a_{**arXiv: [2510.21153](https://arxiv.org/ab啥a_{**arXiv: [2510.21153](?a_{*arXiv: [2510.21153](https://arxiv.org/ab??a_{**arXi??arXiv:{?*arXiv: [2510.21153]??arXiv: [2510.21153]( 9a_{*arXi
a_{**arXiv: [2510.21153](h?a_{*arXiv: [2510.21153](https://arxiv.org/ab?
a_{*arXiv: [2510.21153]( 8a_{*arXiv: [2510.21153](https://arxiv.org/ab??a_{**arXi??arXiv:{starXiv: [2510.21153??a_{*arXiv:0.arXiv: [?
a_{**arXiv: [2510.21153](https://arxiv.org/ab?会议: NeurASarXiv: [?
a_{**arXiv: [2510.21153](https://arxiv.org/ab????a_{*arXiv:0.arXiv: [?
a_{**arXiv: [2510.21153](https://arxiv.org/ab啥a_{**arXiv: [2510.21153](?a_{*arXiv: [2510.21153](https://arxiv.org/ab???a_{**arXiv: [2510.21153](?a_{*arXiv: [2510.21153](https://arxiv.org/ab????a_{*arXiv:0.arX??a_{*arXiv: [2510.21153](https://arxiv.org/ab啥a_{*arXiv: [2510.21153](?a_{??a_{**arXiv: [2510.21153](https://arxiv.org/ab?会议: NeurASarXiv: [?
a_{**arXiv: [2510.21153](https://arxiv.org/ab????a_{*arXiv:0.arXiv: [?
a_{**arXiv: [2510.21153](https://arxiv.org/ab啥a_{**arXiv: [2510.21153](?a_{*arXiv: [2510.21153](https://arxiv.org/ab???a_{**arXiv: [2510.21153](?a_{*arXiv: [2510.21153](https://arxiv.org/ab????a_{*arXiv:0.arX??a_{*arXiv: [2510.21153](https://arxiv.org/ab啥?a_{**arXiv: [2510.21153](https://arxiv.org/ab????a_{*arXiv:0.arX?a_{*arXiv: [2510.21153](https://arxiv.org/ab啥a_{**arXiv: [2510.21153](?a_{3a_{**arXiv: [2510.21153](https://arxiv.org/ab????a_{*arXiv:0.arXiv: [?
a_{**arXiv: [2510.21153](https://arxiv.org/ab啥a_{**arXiv: [2510.21153](?a_{*arXiv: [2510.21153](https://arxiv.org/ab???a_{**arXiv: [2510.21153](?a_{*arXiv: [2510.21153](https://arxiv.org/ab????a_{*arXiv:0.arX??a_{*arXiv: [2510.21153](https://arxiv.org/ab啥?a_{**arXiv: [2510.2115??a_{*arXiv: [2510.21153](https://arxiv.org/ab啥a_{*arXiv: [2510.21153](?a_{??a_{**arXiv: [2510.21153](https://arxiv.org/ab啥a_{**arXiv: [2510.21153](?a_{*arXiv: [2510.21153](https://arxiv.org/ab???a_{**arXiv: [2510.21153](?a_{*arXiv: [2510.21153](https://arxiv.org/ab????a_{*arXiv:0.arX??a_{*arXiv: [2510.21153](https://arxiv.org/ab啥?a_{**arXiv: [2510.2115??a_{*arXiv: [2510.21153](https://arxiv.org/ab啥a_{*arXiv: [2510.21153](?a_{??a_{**arXiv: [2510.21153](https://arxiv.org/ab啥a_{**arXiv: [2510.21153](?a_{*arXiv: [2510.21153](https://arxiv.org/ab???**L 引导分子生成和多目标药物设计均有实用价值,MD/ADMET 验证增强了实际可信度
相关论文¶
- [ECCV 2024] AttnZero: Efficient Attention Discovery for Vision Transformers
- [ACL 2025] CoMet: Metaphor-Driven Covert Communication for Multi-Agent Language Games
- [NeurIPS 2025] On Agnostic PAC Learning in the Small Error Regime
- [ACL 2025] CADReview: Automatically Reviewing CAD Programs with Error Detection and Correction
- [CVPR 2025] SldprtNet: A Large-Scale Multimodal Dataset for CAD Generation in Language-Driven 3D Design