🧩 多模态 VLM¶
💬 ACL2025 · 共 63 篇
- Adaptive Linguistic Prompting (ALP) Enhances Phishing Webpage Detection in Multimodal Large Language Models
-
提出 Adaptive Linguistic Prompting (ALP),一种 8-shot 结构化提示方法,引导多模态 LLM 从 HTML 文本、截图和 URL 三个维度联合推理,检测钓鱼网页,在 GPT-4o 上组合分析达到 F1=0.93,超过传统零样本基线。
- Can LLMs Deceive CLIP? Benchmarking Adversarial Compositionality of Pre-trained Multimodal Representation via Text Updates
-
提出MAC基准和diversity-promoting自训练方法,通过让LLM生成欺骗性文本来系统暴露CLIP等预训练多模态表征的组合性漏洞,在图像/视频/音频三个模态上均显著超越已有方法。
- Agent-RewardBench: Towards a Unified Benchmark for Reward Modeling across Perception, Planning, and Safety in Real-World Multimodal Agents
-
Agent-RewardBench 提出了首个面向多模态 Agent 的奖励建模评测基准,覆盖感知/规划/安全 3 个维度、7 个真实场景、1136 个高质量样本,实验发现即使 GPT-4o 也仅达 61.4% 准确率,揭示了 Agent 奖励建模的巨大挑战。
- AkaCE: A Multimodal Multi-party Dataset for Emotion Recognition in Movie Dialogues
-
构建 AkaCE——首个非洲语言多模态对话情感识别数据集,覆盖阿坎语(加纳主要语言,约 2000 万使用者),含 385 段对话 6162 条发言(音频+视觉+文本三模态)、308 名说话人(性别平衡 155男/153女),并提供首个非洲语言词级韵律突出标注。
- Aligning VLM Assistants with Personalized Situated Cognition
-
基于社会学"角色集合"(Role-Set) 概念刻画用户多样性,提出 PCogAlign 框架,通过认知感知的动作导向奖励模型来为 VLM 助手生成个性化回复,使不同角色的用户在相同视觉场景下获得最适合自身需求的建议。
- AlignMMBench: Evaluating Chinese Multimodal Alignment in Large Vision-Language Models
-
提出 AlignMMBench,首个面向中文视觉上下文的多模态对齐评测基准,涵盖 3 大类 13 项任务、1054 张图像和 4978 个 QA 对(含单轮/多轮对话),并训练了基于 ChatGLM3-6B 的评估器 CritiqueVLM,其评估一致性超过 GPT-4。
- Attacking Vision-Language Computer Agents via Pop-ups
-
系统性设计了一套对抗性弹窗攻击方法来攻击基于视觉语言模型的计算机操控 agent,在 OSWorld 和 VisualWebArena 上平均攻击成功率达 86%,任务成功率下降 47%,基础防御手段几乎无效。
- AVG-LLaVA: An Efficient Large Multimodal Model with Adaptive Visual Granularity
-
提出 AVG-LLaVA——在 LLaVA-NeXT 基础上引入视觉粒度缩放器(多级池化获取不同粒度视觉 token)+ 视觉粒度路由器(基于图像和指令自适应选择最合适粒度),并提出 RGLF 训练范式将路由器预测与 LMM 偏好对齐。在 11 个基准上实现更好性能同时大幅减少视觉 token(如 AI2D 上减少 85.3%,推理加速 2.53×)。
- Enhancing Multimodal Continual Instruction Tuning with BranchLoRA
-
发现MoELoRA在多模态持续指令微调(MCIT)中存在参数低效——矩阵A跨任务趋同而B保持区分,提出BranchLoRA:共享一个A矩阵(树干)+ 多个专有B矩阵(树枝) + 灵活调参-冻结机制 + 任务特定路由器,在CoIN benchmark上显著超越MoELoRA,有效缓解灾难性遗忘。
- Burn After Reading: Do Multimodal Large Language Models Truly Capture Order of Events in Image Sequences?
-
提出 TempVS 基准测试,系统评估 38 个 MLLM 在图像序列中对多事件时序关系的 grounding 和推理能力,揭示 SOTA 模型与人类之间存在巨大性能差距。
- Can Vision Language Models Understand Mimed Actions?
-
构建 Mime 基准(86 个动作、860 个样本),利用动作捕捉 + 3D 渲染系统化评估 VLM 对哑剧动作的理解能力,发现 VLM 严重依赖场景上下文而无法像人类一样从纯肢体动作推断语义。
- MMSafeAware: Can't See the Forest for the Trees: Benchmarking Multimodal Safety Awareness for Multimodal LLMs
-
提出 MMSafeAware,首个同时评估"不安全内容识别"和"过度敏感"的多模态安全意识基准,包含 1,500 个跨 29 种安全场景的图文对,评估 9 个 MLLM 发现所有模型都存在安全与有用性的严重权衡——GPT-4V 将 36.1% 的不安全输入误判为安全,同时将 59.9% 的安全输入误判为不安全;三种改进方法均无法根本解决问题。
- Centurio: On Drivers of Multilingual Ability of Large Vision-Language Model
-
系统研究多语言LVLM训练策略,发现可以同时支持100种语言、只需25-50%非英文数据即可大幅提升多语言性能且不损英语性能,最终训练的Centurio在14个任务56种语言上达到SOTA。
- ChartCoder: Advancing Multimodal Large Language Model for Chart-to-Code Generation
-
提出首个专用chart-to-code MLLM(ChartCoder),以Code LLM为语言骨干+160K大规模图表-代码数据集+Snippet-of-Thought逐步推理方法,7B模型在三个基准上超越所有开源MLLM,接近GPT-4o水平。
- Scaling Text-Rich Image Understanding via Code-Guided Synthetic Multimodal Data Generation
-
提出CoSyn框架,利用纯文本LLM的代码生成能力自动创建40万张文本丰富图像(图表、文档、图表等)+270万条指令微调数据,训练的7B VLM在7个基准上达到SOTA,超越GPT-4V和Gemini 1.5 Flash。
- COLING-UniA at SciVQA 2025: Few-Shot Example Retrieval and Confidence-Informed Ensembling for Multimodal Large Language Models
-
本文提出了一种基于多模态大模型(MLLM)集成的科学图表视觉问答系统,通过 few-shot 示例检索策略和置信度感知的模型选择机制,在 SciVQA 2025 共享任务中获得第三名(平均 F1 = 85.12)。
- Insight Over Sight: Exploring the Vision-Knowledge Conflicts in Multimodal LLMs
-
首次系统探索 MLLM 中常识级别的视觉-知识冲突问题,提出自动化框架构建 ConflictVis 基准(374 图 + 1122 QA),发现 MLLM 在约 20% 的冲突场景中过度依赖参数化知识(尤其是 Yes-No 和动作类问题),并提出 Focus-on-Vision 提示策略进行缓解。
- CoRe-MMRAG: Cross-Source Knowledge Reconciliation for Multimodal RAG
-
CoRe-MMRAG 提出了一个端到端多模态 RAG 框架,通过四阶段流水线(参数知识生成→视觉-文本联合重排序→外部知识生成→内外知识整合)解决参数知识-检索知识不一致(PRKI)和视觉-文本知识不一致(VTKI)两个问题,在 InfoSeek 和 Encyclopedic-VQA 上分别提升 5.6% 和 9.3%。
- COSMMIC: Comment-Sensitive Multimodal Multilingual Indian Corpus for Summarization and Headline Generation
-
构建首个面向印度语言的评论感知多模态多语言数据集 COSMMIC(9 种语言、4,959 篇文章-图像对、24,484 条读者评论),提出评论过滤(IndicBERT)和图像分类(CLIP)增强方案,用 GPT-4 和 LLama3 建立摘要和标题生成的基准。
- CoSyn: Scaling Text-Rich Image Understanding via Code-Guided Synthetic Multimodal Data Generation
-
提出 CoSyn 框架,利用纯文本 LLM 的代码生成能力自动合成多样化的文本丰富型图像及对应指令微调数据,构建 400K 图像 + 2.7M 指令数据集,在 7 个 benchmark 上达到开源 SOTA 并超越 GPT-4V。
- Cracking the Code of Hallucination in LVLMs with Vision-aware Head Divergence
-
提出Vision-aware Head Divergence (VHD)指标量化注意力头对视觉信息的敏感度,发现幻觉与模型过度依赖语言先验紧密相关,并提出Vision-aware Head Reinforcement (VHR)无训练方法,通过放大视觉敏感注意力头来缓解幻觉,在CHAIR上最高降低CHAIRS 16.36个点。
- DALR: Dual-level Alignment Learning for Multimodal Sentence Representation Learning
-
提出 DALR 框架,通过跨模态一致性学习 + 模态内排序蒸馏的双层对齐策略,解决多模态句子表示中的跨模态不对齐偏差(CMB)和模态内语义分歧(ISD)问题,在 STS 和 TR 任务上取得 SOTA。
- Do Vision-Language Models Have Internal World Models? Towards an Atomic Evaluation
-
提出基于认知科学的双阶段框架(感知+预测),构建 WM-ABench 大规模基准(23 维度、6 模拟器、10 万+实例),通过 660 组实验系统揭示 15 个 SOTA VLM 在基本世界建模能力上的严重不足。
- Donate or Create? Comparing Data Collection Strategies for Emotion-labeled Multimodal Social Media Posts
-
系统比较了两种情感标注数据的收集策略——"捐赠"真实社交媒体帖子 vs "创造"帖子——发现创造的帖子更长、更依赖文本、偏向原型化情感事件,但用创造数据训练的模型可以很好泛化到真实数据,只是需要真实数据来做靠谱的效果评估。
- Don't Miss the Forest for the Trees: Attentional Vision Calibration for Large Vision Language Models
-
发现 LVLM 中存在"blind token"现象——少量语义无关的图像 token 吸引了不成比例的注意力权重,并提出 AvisC 方法通过测试时对比解码重新校准 blind token 影响,有效减轻视觉幻觉。
- EffiVLM-Bench: A Comprehensive Benchmark for Evaluating Training-Free Acceleration in Large Vision-Language Models
-
提出 EffiVLM-Bench,首个系统评估大型视觉语言模型(LVLM)训练免加速方法的统一框架,覆盖 17 个 benchmark、3 个前沿模型,引入泛化性和忠诚度等新指标,揭示了 token 压缩与参数压缩在不同场景下的性能-效率权衡。
- EffiVLM-Bench: 大型视觉语言模型免训练加速的综合评测基准
-
提出 EffiVLM-Bench,一个统一评估框架,系统性地评估大型视觉语言模型(LVLM)的免训练加速方法,涵盖 token 压缩和参数压缩两大类,从性能、泛化性、忠实度和效率四个维度进行全面对比分析。
- Enabling Chatbots with Eyes and Ears: An Immersive Multimodal Conversation System
-
本文提出赋予聊天机器人"眼睛和耳朵"的沉浸式多模态对话系统,构建了融合视觉与听觉的多会话多方对话数据集 M3C,并设计了包含对话模块和多模态记忆检索模块的对话模型,实现了多说话者共享视听体验的动态长期对话。
- Enhance Multimodal Consistency and Coherence for Text-Image Plan Generation
-
本文提出一种自回归文本-图像计划生成框架(MPlanner),通过四阶段迭代——文本草拟、图像编辑、视觉信息提取、文本精炼——有效提升多模态计划中视觉步骤的连贯性和文本-图像的一致性。
- Evaluating Visual and Cultural Interpretation: The K-Viscuit Benchmark with Human-VLM Collaboration
-
本文提出了一种半自动化的文化 VLM 基准构建框架,通过人-VLM 协作生成多选 VQA 样本,并以此构建了聚焦韩国文化的 K-Viscuit 数据集(657 题),揭示了开源与闭源 VLM 在文化理解上的显著差距。
- EXPERT: An Explainable Image Captioning Evaluation Metric with Structured Explanations
-
本文提出 EXPERT,一种基于 VLM 微调的无参考图像描述评估指标,通过构建大规模结构化解释数据集并设计两阶段评估模板,在多个基准数据集上达到 SOTA 的同时,提供基于流畅度、相关性、描述性三个维度的高质量结构化解释。
- Exploring How Generative MLLMs Perceive More Than CLIP with the Same Vision Encoder
-
系统探究为何生成式多模态LLM(如LLaVA)使用与CLIP相同的视觉编码器却能在视觉推理任务上大幅超越CLIP,发现patch token、位置编码和prompt加权是关键因素。
- HiDe-LLaVA: Hierarchical Decoupling for Continual Instruction Tuning of Multimodal Large Language Model
-
通过 CKA 分析发现 MLLM 顶层学任务特异信息而其余层学通用知识,提出 HiDe-LLaVA:顶层 LoRA 做 MoE 式任务特异扩展(双模态锚点匹配)+ 其余层 LoRA 做均匀融合,在新构建的无信息泄露基准 UCIT 上比最佳基线提升 5.8%。
- HotelMatch-LLM: Joint Multi-Task Training of Small and Large Language Models for Efficient Multimodal Hotel Retrieval
-
提出 HotelMatch-LLM,用 SLM 编码 query + LLM 编码酒店文档的非对称架构,配合三目标多任务优化(检索对齐 + MLM地理预测 + 视觉设施识别)和 patch 级 mean pooling 多图处理,在旅行领域多模态检索任务上显著超过 MARVEL/VISTA 等 SOTA。
- Inference Compute-Optimal Video Vision Language Models
-
首次系统研究视频VLM推理时的计算预算最优分配问题:在固定推理FLOPs下,如何在语言模型大小(x_N)、帧数(x_T)和每帧视觉token数(x_V)三个维度间做最优权衡,通过大规模训练扫描(~100k A100小时)和参数化建模得出实用的分配策略。
- Synergizing LLMs with Global Label Propagation for Multimodal Fake News Detection
-
提出 GLPN-LLM 框架,通过 mask-based 全局标签传播机制有效整合 LLM 生成的伪标签,解决了 LLM 伪标签直接组合效果不佳的问题,在 Twitter/PHEME/Weibo 三个数据集上全面超越 SOTA。
- LongDocURL: a Comprehensive Multimodal Long Document Benchmark Integrating Understanding, Reasoning, and Locating
-
提出LongDocURL基准(396篇文档、2,325 QA对、33,000+页,含理解/推理/定位三类20个子任务),通过半自动构建流程生成高质量长文档评测数据,26种配置的实验结果显示最强GPT-4o仅64.5分,开源最高30.6分,远低于人类84.8分。
- MAmmoTH-VL: Eliciting Multimodal Reasoning with Instruction Tuning at Scale
-
MAmmoTH-VL 提出了一种仅用开源模型构建 12M 多模态 CoT 推理指令数据的可扩展方法,通过数据收集→改写→自过滤三步管线,训练的 8B 模型在 MathVerse (+8.1%)、MMMU-Pro (+7%)、MuirBench (+13.3%) 上达到 SOTA。
- Modality-Aware Neuron Pruning for Unlearning in Multimodal Large Language Models
-
提出MANU框架解决MLLM中的多模态遗忘不平衡问题:通过四种重要性函数(绝对/频率/方差/RMS)识别跨模态知识纠缠的神经元,选择性剪枝实现多模态输入和纯文本输入下的均衡知识遗忘,同时保持模型通用能力。
- Evaluating Multimodal Large Language Models on Video Captioning via Monte Carlo Tree Search
-
提出AutoCaption框架,利用蒙特卡洛树搜索(MCTS)自动迭代生成细粒度视频描述关键点(平均122个/视频),构建MCTS-VCB基准评估20+个MLLM的视频描述能力,并证明生成的数据可用于微调显著提升模型性能。
- MMBoundary: Advancing MLLM Knowledge Boundary Awareness through Reasoning Step Confidence Calibration
-
提出 MMBoundary 框架,通过在推理链的每一步插入自然语言置信度表述(而非只在最终回答后给置信度),结合文本+跨模态的自奖励信号估计置信度,并用 SFT+RL 两阶段训练实现步级置信度校准,平均降低 7.5% 校准误差并提升 8.3% 任务准确率。
- MMMU-Pro: A More Robust Multi-discipline Multimodal Understanding Benchmark
-
提出 MMMU-Pro 基准,通过过滤纯文本可解题目、扩增选项至 10 个、引入 vision-only 输入设置三步法,构建更鲁棒的多学科多模态理解评测,所有模型性能显著下降 16.8%-26.9%。
- MMMU-Pro: A More Robust Multi-discipline Multimodal Understanding Benchmark
-
MMMU-Pro 通过三步流程(过滤纯文本可解题、扩展选项至 10 个、引入纯视觉输入设置)构建更鲁棒的多学科多模态理解基准,模型性能比原 MMMU 下降 16.8%~26.9%,揭示当前模型依赖捷径而非真正多模态理解。
- mOSCAR: A Large-scale Multilingual and Multimodal Document-level Corpus
-
提出 mOSCAR——首个大规模多语言多模态文档级语料库(163种语言、303M文档、200B tokens、1.15B图片),从 Common Crawl 中提取交错的图文文档,并证明在此数据上训练的多语言 mLLM 能获得显著的 few-shot 学习提升。
- MultiMM: Cultural Bias Matters — Cross-Cultural Benchmark for Multimodal Metaphors
-
提出MultiMM——首个跨文化多模态隐喻数据集,包含8461个中英文广告图文对及细粒度标注,并设计SEMD模型融合情感特征增强隐喻检测。
- A Survey on Patent Analysis: From NLP to Multimodal AI
-
全面综述基于 NLP 和多模态 AI 的专利分析方法,按专利生命周期中的四大任务(分类、检索、质量分析、生成)提出新的分类体系,覆盖从传统神经网络到 PLM/LLM 的技术演进。
- PunchBench: Benchmarking MLLMs in Multimodal Punchline Comprehension
-
提出PunchBench(6,000图文对、54,000 QA对),通过同义/反义标题替换消除文本捷径、多种问题格式与两层任务(感知+推理)全面评测MLLM的多模态梗图理解能力,并设计SC-CoQ由简到繁的提问策略显著提升表现,但GPT-4o仍远低于人类98%+水平。
- Sharper and Faster mean Better: Towards More Efficient Vision-Language Model for Hour-scale Long Video Understanding
-
提出Sophia模型处理小时级长视频:通过Shot-adaptive Frame Pruning(基于镜头分割的两阶段帧剪枝)精准选择查询相关帧,结合O(N)复杂度的Hierarchical Attention替代全注意力,在8/8个长视频benchmark中6个SOTA,且注意力FLOPs仅为InternVL2的1/17。
- Can Multimodal Large Language Models Understand Spatial Relations?
-
提出SpatialMQA基准,通过5,392个基于COCO2017的人工标注多选题样本(无bbox、含视角替换、排除纯知识可答题),评测MLLM的空间关系推理能力,发现最强模型SpaceLLaVA仅达48.14%远低于人类98.40%。
- Speaking Beyond Language: A Large-Scale Multimodal Dataset for Learning Nonverbal Cues from Video-Grounded Dialogues
-
提出 VENUS——首个大规模多模态对话数据集(89,459 段对话、14,910 小时),包含时间对齐的文本、3D 面部表情和肢体语言标注;基于该数据集开发 MARS 多模态语言模型,通过 VQ-VAE 将非语言线索离散化后与文本统一建模,实现对话中文本与非语言动作的联合理解和生成。
- SPHERE: Unveiling Spatial Blind Spots in Vision-Language Models Through Hierarchical Evaluation
-
提出 SPHERE 三层级空间推理评估框架(单技能→多技能→推理),基于 MS COCO 人工标注 2285 个 QA 对,发现 GPT-4o(67.9%)与人类(93.0%)差距 25%,尤其在距离判断、视角切换和物理推理上表现严重不足。
- Symmetrical Visual Contrastive Optimization: Aligning Vision-Language Models with Minimal Contrastive Images
-
提出 S-VCO(对称视觉对比优化),一种新的 VLM 微调目标,通过对称地对齐/拒绝匹配/矛盾的图像-文本对来增强视觉依赖,配合最小视觉对比数据集 MVC,在幻觉检测上减少 22%,视觉依赖任务上显著提升。
- Teaching Vision-Language Models to Ask: Resolving Ambiguity in Visual Questions
-
提出ClearVQA benchmark评估VLM处理歧义视觉问题的能力(覆盖指代歧义/意图欠明确/拼写歧义三类),并通过自动化pipeline生成歧义-澄清问题对用于SFT+DPO训练,使VLM学会"反问用户"而非猜测作答,VQA准确率相对提升13.3%。
- TheoremExplainAgent: Towards Video-based Multimodal Explanations for LLM Theorem Understanding
-
提出 TheoremExplainAgent,一个基于多 Agent 协作的系统,能自动生成 5 分钟以上的定理讲解视频(Manim 动画+语音旁白),并构建了 TheoremExplainBench(240 个 STEM 定理,5 维评估指标)用于系统评估。
- TrimLLM: Progressive Layer Dropping for Domain-Specific LLMs
-
基于"层级特化"现象(不同层对不同领域重要性不同),提出TrimLLM在领域微调过程中渐进式丢弃最不重要的层,将LLaMA-7B压缩到50%大小时性能几乎无损,在消费级GPU上实现2.1-5.7×推理加速——无需任何特殊硬件或kernel支持。
- Mitigating Visual Forgetting via Take-along Visual Conditioning for Multi-modal Long CoT Reasoning
-
发现MLLM长链推理中存在严重的"视觉遗忘"现象——推理进行到一半时移除图片仅导致2%精度下降,说明模型过度依赖文本输出而非视觉输入。提出Take-along Visual Conditioning (TVC),在推理过程中周期性重新注入压缩后的图像特征,在5个数学推理基准上平均超越之前SOTA 3.4个点。
- Unsolvable Problem Detection: Evaluating Trustworthiness of Large Multimodal Models
-
本文提出不可解问题检测(UPD)任务评估大型多模态模型(LMM)的鲁棒理解能力,包含三种不可解场景(答案缺失AAD、答案集不兼容IASD、图像问题不兼容IVQD),构建 MM-UPD Bench 基准,实验揭示现有 LMM 在标准 MCQA 上表现良好但在 UPD 上显著挣扎,且现有基准性能与 UPD 能力之间缺乏相关性。
- Value-Spectrum: Quantifying Preferences of Vision-Language Models via Value Decomposition
-
提出 Value-Spectrum 基准,通过 50K+ 社交媒体短视频截图和 Schwartz 价值理论框架,系统评估 VLM 的内在价值偏好及角色扮演时的偏好适配能力。
- VF-Eval: Evaluating Multimodal LLMs for Generating Feedback on AIGC Videos
-
提出VF-Eval基准,通过一致性验证、错误感知、错误类型检测、推理评估四大任务系统评估13个MLLM为AIGC视频提供反馈的能力,发现即使GPT-4.1也难以在所有任务上表现一致,揭示了AIGC视频理解的挑战性。
- ViGiL3D: A Linguistically Diverse Dataset for 3D Visual Grounding
-
提出 ViGiL3D——一个语言多样性诊断数据集和自动化分析框架,用于评估 3D 视觉定位(3DVG)方法在否定、粗粒度指代、共指消解等多种语言现象上的表现,揭示现有方法在分布外提示上性能显著下降(最高达 20+ 点)。
- Visual Evidence Prompting Mitigates Hallucinations in Large Vision-Language Models
-
提出Visual Evidence Prompting (VEP),利用小型视觉专家模型(目标检测器、场景图生成器)的输出作为文本化"视觉证据"输入LVLM,无需训练即可在11个LVLM上显著降低幻觉——LLaVA-1.5在POPE上提升7.2%、Claude 3上提升12.1%。
- VLMInferSlow: Evaluating the Efficiency Robustness of Large Vision-Language Models as a Service
-
首次在黑盒设置下研究 VLM 的效率鲁棒性,提出 VLMInferSlow 方法,通过零阶优化搜索对抗性图像扰动,迫使 VLM 生成更长序列,将计算成本最高增加 128.47%,揭示了 VLM 在 MLaaS 部署场景下的效率安全隐患。
- VReST: Enhancing Reasoning in Large Vision-Language Models through Tree Search and Self-Reward Mechanism
-
提出VReST,首次将蒙特卡洛树搜索(MCTS)应用于多模态CoT推理:每个节点是一个推理步骤,通过多模态自奖励机制(sub-question有用性+答案正确性+视觉-语言线索相关性)评估推理质量,无需训练即在MathVista上达到64.50%(超越CoT的54.60%和ToT的60.20%),并展示出多模态测试时缩放定律。