🎨 图像生成¶
🧠 NeurIPS2025 · 共 98 篇
- 70% Size, 100% Accuracy: Lossless LLM Compression for Efficient GPU Inference via Dynamic-Length Float (DFloat11)
-
DFloat11 利用 BFloat16 权重中指数位(exponent)的低熵特性,通过 Huffman 编码将 LLM/扩散模型无损压缩至原始大小的约 70%(等效 ~11 bit),并设计了层次化查找表和两阶段 GPU kernel 实现高效在线解压,使 Llama 3.1 405B 可在单节点 8×80GB GPU 上无损推理。
- A Closer Look at Model Collapse: From a Generalization-to-Memorization Perspective
-
发现扩散模型在自消耗循环(用生成数据训练下一代模型)中存在从"泛化"到"记忆"的转变过程,揭示训练集熵与模型泛化能力的强线性相关性(Pearson r=0.91),并提出基于熵的数据选择策略(Greedy Selection / Threshold Decay Filter)有效减缓该转变,在 CIFAR-10 accumulate 范式下第 8 轮 FID 从 75.7 降至 44.7。
- A Connection Between Score Matching and Local Intrinsic Dimension
-
证明去噪得分匹配损失(denoising score matching loss)的下界恰好是数据流形的局部固有维度(LID),从而将 DSM loss 本身作为一个高效的 LID 估计器——无需梯度计算或多次前向传播,在 Stable Diffusion 3.5 上内存占用仅为 FLIPD 的 60%,且量化后估计更稳定。
- A Data-Driven Prism: Multi-View Source Separation with Diffusion Model Priors
-
提出 DDPRISM 方法,利用多视图观测中不同线性变换的结构性差异,在 EM 框架下为每个未知源学习独立的扩散模型先验,无需预先获得任何单独的源样本即可完成源分离和后验采样,在合成问题和真实星系观测上超越现有方法。
- A Diffusion Model for Regular Time Series Generation from Irregular Data with Completion and Masking
-
提出两步框架从不规则采样时序数据生成规则时序:先用 TST 自编码器补全缺失值构造"自然邻域",再在视觉扩散模型中用 masking 策略仅在观测像素上计算损失,避免对补全值的过度依赖,在判别分数上平均改善 70%,训练速度提升 6.5 倍。
- A Gradient Flow Approach to Solving Inverse Problems with Latent Diffusion Models
-
提出 DWGF(Diffusion-regularized Wasserstein Gradient Flow),将隐空间扩散模型的后验采样问题严格形式化为 KL 散度在 Wasserstein-2 空间上的正则化梯度流,推导出隐空间中的 ODE 系统用于求解图像逆问题,在 FFHQ-512 上的修复和超分辨率任务中 PSNR 大幅超越基线。
- Accelerating Parallel Diffusion Model Serving with Residual Compression
-
提出 CompactFusion 框架,通过残差压缩(仅传输相邻去噪步骤间的激活差异而非完整激活)来消除并行扩散推理中的通信冗余,在 4×L20 上实现 3.0× 加速且生成质量远优于 DistriFusion,在模拟以太网带宽下实现 6.7× 加速,甚至在 100× 压缩下仍优于 DistriFusion。
- AccuQuant: Simulating Multiple Denoising Steps for Quantizing Diffusion Models
-
提出AccuQuant,一种用于扩散模型的训练后量化(PTQ)方法,通过在校准过程中显式模拟多个去噪步骤来最小化量化误差的累积效应,并通过新型目标函数将内存复杂度从O(n)降至O(1)。
- Adapting Speech Language Model to Singing Voice Synthesis
-
将 1.7B 参数的 TTS 预训练 Speech Language Model 适配到歌声合成(SVS)任务,通过乐谱 tokenization + multi-stream LM 预测 + conditional flow matching 精修 + vocoder,仅用 135 小时合成歌声数据达到与专用 SVS 系统可比的性能。
- ALE-Bench: A Benchmark for Long-Horizon Objective-Driven Algorithm Engineering
-
提出 ALE-Bench,首个面向分数制算法工程竞赛(AtCoder Heuristic Contest)的 AI 基准,评估 LLM 和 Agent 在 NP-hard 优化问题上的长时间迭代改进能力,发现当前最强模型(o3-high)仅达人类平均水平,且在问题一致性和长时间改进方面与人类专家差距显著。
- Aligning Compound AI Systems via System-level DPO
-
将复合 AI 系统建模为 DAG,提出 SysDPO 框架将 DPO 扩展到多组件联合对齐,通过 DAG 分解将系统级偏好转化为可端到端优化的损失函数,理论证明了 β-完美对齐保证,在 LLM+扩散模型和 LLM+LLM 系统上显著提升协作质量。
- Aligning Text to Image in Diffusion Models is Easier Than You Think
-
提出 SoftREPA——一种轻量级对比微调策略,通过引入可学习 soft text token(不到 1M 参数)在冻结的预训练 T2I 扩散模型上进行对比学习,显式提高文本和图像表征的互信息,在 SD1.5/SDXL/SD3 上显著提升文本-图像对齐质量,且适用于图像生成和图像编辑任务。
- Amortized Sampling with Transferable Normalizing Flows
-
提出 Prose——一个 285M 参数的全原子可迁移归一化流,基于 TarFlow 架构训练在 21,700 个短肽 MD 轨迹上(总计 4.3ms 模拟时长),实现对任意短肽系统的零样本无相关性提议采样,在能量评估预算相同时超越 MD 基线,生成速度比之前的可迁移玻尔兹曼生成器 (TBG) 快 4000 倍。
- AugGen: Synthetic Augmentation using Diffusion Models Can Improve Recognition
-
提出AugGen——一种自包含(self-contained)的合成数据增强方法:利用扩散模型的条件向量插值(\(c^* = \alpha c_i + \beta c_j\))实现类间混合生成,无需外部数据或模型即可为人脸识别提供1-12%的性能提升,等效于1.7倍真实数据量,IR50+AugGen甚至超越IR101 real-only。
- Autoregressive Adversarial Post-Training for Real-Time Interactive Video Generation
-
提出 AAPT(Autoregressive Adversarial Post-Training),将预训练的潜在视频扩散模型转化为实时交互式视频生成器——每帧仅需单次神经网络前向传播(1NFE),自回归逐帧生成,8B 模型在单张 H100 上以 24fps 流式生成 736×416 视频,最长可达一分钟(1440帧)。
- BADiff: Bandwidth Adaptive Diffusion Model
-
提出 BADiff——首个带宽自适应扩散模型,通过将目标熵约束作为条件嵌入扩散反向过程,配合可微熵正则化损失和自适应停止策略,使模型根据实时带宽动态调整生成质量并自适应提前终止采样,在保持感知质量的同时减少计算开销,从根本上避免了传统"高质量生成→后压缩"流程中的压缩伪影和计算浪费。
- Balanced Conic Rectified Flow
-
针对 k-rectified flow 中 reflow 步骤导致的分布漂移问题,提出 conic reflow:利用真实图像的反演噪声及其 Slerp 扰动构成锥形监督轨迹,大幅减少所需 fake pair 数量的同时获得更优的生成质量和更直的 ODE 路径。
- Beyond Masked and Unmasked: Discrete Diffusion Models via Partial Masking
-
提出 Prime(Partial masking scheme),突破 Masked Diffusion Model 的二元状态(mask/unmask)限制,引入中间态(部分观测的 token 信息),减少冗余计算并实现更细粒度的去噪过程,在文本生成上 PPL 15.36 超越自回归模型(17.54)和标准 MDM(21.52),在图像生成上取得 CIFAR-10 FID 3.26。
- BitMark: Watermarking Bitwise Autoregressive Image Generative Models
-
提出 BitMark——首个针对比特级自回归图像生成模型(Infinity、Instella)的水印方案,在生成过程中通过对 logit 加偏置将 bit 序列引向"绿色列表",实现可靠检测(z-test)、高图像保真度(FID 几乎不变)、对多种攻击的鲁棒性和放射性(训练在水印图上的下游模型也带有水印),为防止模型坍缩提供了关键工具。
- Blameless Users in a Clean Room: Defining Copyright Protection for Generative Models
-
重建生成模型可证明版权保护的理论基础——证明现有的 Near Access-Freeness (NAF) 定义不能防止逐字复制("被污染"),提出"无辜用户"(blameless) 框架和净室版权保护 (\((\kappa,\beta)\)-clean) 定义,其中用户在反事实"净室设置"中不会复制则在真实世界中也不太可能复制,并证明差分隐私训练在"黄金数据集"假设下蕴含净室版权保护。
- Blind Strong Gravitational Lensing Inversion: Joint Inference of Source and Lens Mass with Score-Based Models
-
首次将 score-based 生成模型先验应用于强引力透镜的盲反演——联合推断背景源天体形态和透镜质量分布参数,通过将 GibbsDDRM 扩展到连续时间域实现采样,重建残差与观测噪声一致,透镜参数边际后验无系统偏差。
- BlurDM: A Blur Diffusion Model for Image Deblurring
-
提出 BlurDM,将运动模糊的物理形成过程(连续曝光导致渐进模糊累积)集成到扩散模型——双扩散前向(同时加噪声+模糊)+ 双去噪去模糊反向,作为隐空间先验生成器一致性增强 4 种去模糊方法在 4 个数据集上的效果,GoPro 平均 +0.31 dB,RealBlur-J 平均 +0.78 dB,仅增加 ~4 GFLOPs 和 ~9ms。
- BlurGuard: A Simple Approach for Robustifying Image Protection Against AI-Powered Edit
-
提出 BlurGuard——在生成对抗扰动之前先对图像做轻度模糊预处理,使扰动更鲁棒地抵御 JPEG 压缩、高斯噪声等后处理操作,从而更有效地保护图像不被 Stable Diffusion 等 AI 编辑工具篡改,在保护成功率上比不模糊基线提升 20%+。
- BoltzNCE: Learning Likelihoods for Boltzmann Generation with Stochastic Interpolants
-
BoltzNCE 用 Score Matching + InfoNCE 混合训练 Energy-Based Model 来近似 Boltzmann Generator 的似然,避免了昂贵的 Jacobian trace 计算,在丙氨酸二肽构象生成上实现 100× 推理加速且自由能误差仅 0.02 \(k_BT\)。
- Boosting Generative Image Modeling via Joint Image-Feature Synthesis
-
提出 Latent-Semantic Diffusion,让扩散模型联合生成 VAE 低级图像 latent 和 DINO 高级语义特征,通过最小修改标准 DiT 实现生成质量和训练效率的显著提升,并解锁 Representation Guidance 推理策略。
- Breaking AR's Sampling Bottleneck: Provable Acceleration via Diffusion Language Models
-
从信息论角度为扩散语言模型建立收敛保证,证明采样误差(KL散度)随迭代次数T成反比衰减且与token间互信息线性相关,关键证明了T<L(迭代次数可少于序列长度L)时仍可生成高质量样本,从理论上打破了自回归模型需要L步的基本采样瓶颈,并建立了匹配的上下界证明分析的紧致性。
- CADMorph: Geometry-Driven Parametric CAD Editing via a Plan-Generate-Verify Loop
-
提出 CADMorph,一个迭代式 plan–generate–verify 框架,利用预训练的 Parameter-to-Shape (P2S) 扩散模型和 Masked-Parameter-Prediction (MPP) 大语言模型协同工作,在无需三元组训练数据的情况下实现几何驱动的参数化 CAD 编辑。
- CAMILA: Context-Aware Masking for Image Editing with Language Alignment
-
提出 CAMILA,一种上下文感知的图像编辑方法,能够判断用户指令是否在当前图像上下文中可行,仅执行可行的编辑指令而忽略不可执行的指令,在单指令和多指令编辑场景中均优于现有方法。
- CaMiT: A Time-Aware Car Model Dataset for Classification and Generation
-
提出 CaMiT 数据集(787K 标注 + 5.1M 无标注汽车图像,2005–2023),系统研究细粒度视觉类别的时间漂移问题,并在静态预训练、时间增量预训练、时间增量分类器学习和时间感知图像生成四个场景下提供 benchmark。
- Can Knowledge-Graph-based Retrieval Augmented Generation Really Retrieve What You Need?
-
提出 GraphFlow 框架,将知识图谱上的检索建模为 GFlowNet 的流匹配问题,通过详细平衡目标和局部探索策略联合训练检索策略与流估计器,在 STaRK 基准上检索准确率和多样性均超越 GPT-4o 约 10%。
- CDFlow: Building Invertible Layers with Circulant and Diagonal Matrices
-
提出 CDFlow,利用循环矩阵和对角矩阵的交替乘积构造可逆线性层,将参数复杂度从 \(\mathcal{O}(n^2)\) 降至 \(\mathcal{O}(mn)\),矩阵逆复杂度从 \(\mathcal{O}(n^3)\) 降至 \(\mathcal{O}(mn\log n)\),对数行列式从 \(\mathcal{O}(n^3)\) 降至 \(\mathcal{O}(mn)\),在密度估计和周期性数据建模上超越同类方法。
- Composite Flow Matching for Reinforcement Learning with Shifted-Dynamics Data
-
提出 CompFlow,通过复合流匹配架构(在离线流输出分布上构建在线流)估计离线-在线环境间的动态差异(Wasserstein 距离),并结合高动态差异区域的主动探索策略,在 27 个动态偏移 RL 任务中平均回报超越最强基线 14.2%。
- Composition and Alignment of Diffusion Models using Constrained Learning
-
提出统一的约束学习框架来处理扩散模型的对齐(alignment)和组合(composition),将多奖励对齐形式化为 KL 散度最小化+奖励约束,将模型组合形式化为 minimax KL 散度问题,通过拉格朗日对偶的原-对偶训练算法求解,相比传统加权方法更可解释且避免了手动调权。
- Conditional Panoramic Image Generation via Masked Autoregressive Modeling
-
提出PAR(Panoramic AutoRegressive model),首次用掩码自回归建模统一文本到全景图和全景图外延两大任务,通过循环平移一致性损失和双空间循环填充解决ERP全景图的边界不连续问题,在Matterport3D上取得37.37 FID,同时展示出良好的可扩展性和零样本泛化能力。
- Constrained Discrete Diffusion
-
提出 CDD(Constrained Discrete Diffusion),将可微约束优化投影算子嵌入离散扩散模型的去噪过程中,无需重训练即可在采样时强制满足序列级约束,在毒性文本生成、分子设计和指令遵循三类任务上实现零约束违反。
- Contextual Thompson Sampling via Generation of Missing Data
-
提出 Generative Thompson Sampling (TS-Gen),将上下文老虎机中的不确定性建模为缺失数据而非未知参数,通过生成模型对缺失结果做自回归填充来实现 Thompson 采样,建立了与离线预测损失直接挂钩的遗憾界。
- Continuous Diffusion Model for Language Modeling
-
提出一种面向离散语言建模的连续扩散框架,将离散扩散过程与统计流形上的连续流联系起来,并通过径向对称的 simulation-free 训练机制与降维技巧,显著提升扩散语言模型性能,接近自回归模型。
- Continuous Uniqueness and Novelty Metrics for Generative Modeling of Inorganic Crystals
-
针对无机晶体生成模型评估中广泛使用的离散距离函数 (StructureMatcher) 的四大缺陷,提出基于 Magpie 指纹(成分)和 AMD 向量(结构)的连续距离函数,实现更可靠的 uniqueness 和 novelty 度量。
- CORAL: Disentangling Latent Representations in Long-Tailed Diffusion
-
论文系统分析长尾数据下扩散模型尾部类别生成质量下降的根因,指出 U-Net 瓶颈潜表示发生“头类-尾类子空间重叠”导致特征借用,并提出 CORAL 对比式潜空间对齐正则,显著提升尾类样本的多样性与视觉质量。
- Co-Reinforcement Learning for Unified Multimodal Understanding and Generation
-
提出CoRL框架——通过"统一RL→精细RL"两阶段GRPO训练策略,在不依赖额外监督数据的情况下,让统一多模态模型(ULM)的理解和生成能力协同进化,在Janus-Pro-1.5B上取得生成+7%、理解+23%的平均提升。
- Counterfactual Identifiability via Dynamic Optimal Transport
-
利用动态最优传输 (dynamic OT) 理论,首次解决了高维多变量 Markovian SCM 中反事实的可辨识性问题——证明 OT flow 机制产生唯一的单调保序反事实传输映射,并扩展至非 Markovian 设置(IV/BC/FC 准则)。
- Coupling Generative Modeling and an Autoencoder with the Causal Bridge
-
在存在未观测混淆因子的因果推断中,提出将生成模型与自编码器耦合来提升因果桥函数 (causal bridge) 的估计质量——通过共享编码器在处理/控制/结果变量间传递统计强度,并将框架扩展到生存分析。
- Cross-Fluctuation Phase Transitions Reveal Sampling Dynamics In Diffusion Models
-
借鉴统计物理中的涨落理论(fluctuation theory),提出了一种通过 交叉涨落(cross-fluctuation) 检测扩散模型采样过程中离散相变的框架,从而在无需重新训练的情况下加速采样、改进条件生成、提升零样本分类和风格迁移。
- Decomate: Leveraging Generative Models for Co-Creative SVG Animation
-
提出 Decomate 交互系统,利用多模态大语言模型 (MLLM) 将非结构化 SVG 图形自动分解为语义组件,设计师通过自然语言为各组件指定动画行为,系统生成可生产的 HTML/CSS/JS 动画代码,支持迭代协作创作。
- DEFT: Decompositional Efficient Fine-Tuning for Text-to-Image Models
-
提出DEFT——将权重更新分解为两个可训练矩阵的组合:(1)低秩子空间的正交投影和(2)子空间内的低秩调整,相比LoRA在T2I个性化中CLIP-T从0.341提升到0.361(DreamBench+),在统一模型上实现风格迁移和条件生成的SOTA。
- Denoising Weak Lensing Mass Maps with Diffusion Model and Generative Adversarial Network
-
将扩散模型(DM)应用于弱引力透镜质量图去噪任务,与 GAN(pix2pix)在相同实验设置下进行系统性对比,证明 DM 在训练稳定性、多样本平均鲁棒性和多种统计量重建精度上全面优于 GAN。
- Detecting Generated Images by Fitting Natural Image Distributions
-
提出一致性验证框架 ConV,利用自然图像流形与生成图像之间的几何差异,通过两个梯度正交的函数实现无需训练的生成图像检测,并引入 Normalizing Flow 增强版 F-ConV 进一步放大流形偏差。
- Detection and Simulation of Urban Heat Islands Using a Fine-Tuned Geospatial Foundation Model
-
提出一套利用微调地理空间基础模型(Granite-GFM)的完整工作流,涵盖城市热岛效应的实证量化、未来气候情景下的温度外推预测,以及通过卫星图像 inpainting 模拟城市绿化降温效果。
- DEXTER: Diffusion-Guided EXplanations with TExtual Reasoning for Vision Models
-
提出 DEXTER,一个无需数据的框架,通过优化文本提示驱动扩散模型生成最大化目标分类器激活的图像,再用 LLM 对合成样本进行推理,生成全局性、可读的文本解释,实现模型行为的偏差发现和全局解释。
- DiCo: Revitalizing ConvNets for Scalable and Efficient Diffusion Modeling
-
重新发掘卷积网络在扩散模型中的潜力——发现预训练DiT的全局自注意力主要捕获局部模式(冗余),提出用标准ConvNet模块+紧凑通道注意力构建纯卷积扩散模型DiCo,在ImageNet-256上以2.05 FID超越DiT-XL/2且速度快2.7倍。
- Diff-ICMH: Harmonizing Machine and Human Vision in Image Compression with Generative Prior
-
提出 Diff-ICMH,一种基于扩散模型的生成式图像压缩框架,通过语义一致性损失(SC loss)保持语义完整性,通过标签引导模块(TGM)激活生成先验,以单一编解码器和码流同时服务 10+ 种智能任务和人类视觉感知,无需任何任务特定适配。
- DiffEye: Diffusion-Based Continuous Eye-Tracking Data Generation Conditioned on Natural Images
-
提出 DiffEye,首个基于扩散模型直接利用原始眼动轨迹数据、以自然图像为条件生成连续且多样化眼动轨迹的框架,同时引入对应位置嵌入 (CPE) 对齐注视空间与图像语义空间。
- Diffusion-Based Electromagnetic Inverse Design of Scattering Structured Media
-
提出基于条件扩散模型的电磁逆设计框架,从目标微分散射截面 (DSCS) 直接生成介电球超表面几何结构,绕过昂贵的迭代优化,并自然处理逆问题的非唯一性,性能优于 CMA-ES 进化优化且速度快数个数量级。
- Diffusion-Driven Progressive Target Manipulation for Source-Free Domain Adaptation
-
提出 DPTM 框架,利用潜在扩散模型对不可信目标样本进行语义变换,生成伪目标域并通过渐进式重建机制迭代缩小与真实目标域的差距,在大域偏移场景下比现有 SFDA SOTA 提升高达 18.6%。
- Diffusion Adaptive Text Embedding for Text-to-Image Diffusion Models
-
发现T2I扩散模型中固定的text embedding在不同时间步是次优的,提出DATE——在推理时动态更新text embedding以最大化mean predicted image与文本的对齐评分(如CLIP Score/ImageReward),无需训练,可即插即用到任何扩散模型和采样器中,在多概念生成和图像编辑中一致提升text-image对齐。
- Diffusion Classifiers Understand Compositionality, but Conditions Apply
-
全面研究零样本扩散分类器在组合理解任务上的判别能力:覆盖3个扩散模型(SD 1.5/2.0/3-m)×10个数据集×30+任务,引入Self-Bench诊断基准(用扩散模型自己生成的图像消除域差异),发现扩散分类器确实理解组合性但受域差距和时间步加权影响——"条件适用"。
- Diffusion Generative Modeling on Lie Group Representations
-
提出在李群表示空间(而非李群本身)上构建扩散过程的新理论框架,通过广义分数匹配将非阿贝尔李群的弯曲动力学映射到欧几里得空间中,实现无模拟训练的李群扩散模型,并证明标准分数匹配是其平移群的特例。
- Diffusion Models Meet Contextual Bandits
-
将预训练扩散模型作为上下文赌博机 (contextual bandits) 问题中动作参数的表达性先验,提出 diffusion Thompson Sampling (dTS) 算法,通过高效的层次化后验近似实现快速更新与采样,在大动作空间下显著优于传统方法。
- Distilled Decoding 2: One-step Sampling of Image Auto-regressive Models with Conditional Score Distillation
-
提出 Distilled Decoding 2 (DD2),通过条件分数蒸馏损失将图像自回归模型压缩为单步生成器,在 ImageNet-256 上 FID 仅从 3.40 增至 5.43,比 DD1 的 one-step 差距缩小 67%,训练加速 12.3×。
- DOVE: Efficient One-Step Diffusion Model for Real-World Video Super-Resolution
-
提出 DOVE,基于 CogVideoX 预训练视频生成模型,通过两阶段潜空间-像素空间训练策略和高质量 HQ-VSR 数据集实现单步推理的视频超分辨率,比多步扩散方法快 28 倍且性能相当或更优。
- Dynamic Diffusion Schrödinger Bridge in Astrophysical Observational Inversions
-
提出 Astro-DSB,一种基于 Diffusion Schrödinger Bridge 的天文物理反问题建模方法,直接学习观测量到真实物理分布的概率映射,训练成本仅为条件 DDPM 的 25%,且在分布外(OOD)测试中展现出显著的泛化优势,并成功应用于 Taurus B213 真实观测数据。
- EditInfinity: Image Editing with Binary-Quantized Generative Models
-
提出 EditInfinity,首次将经典"图像反演-图像编辑"范式应用于二值量化自回归生成模型 Infinity,利用量化表示可获取精确中间监督的优势实现高精度图像反演,配合分段线性平滑核实现高保真编辑效果,在 PIE-Bench 上全面超越扩散模型基线。
- EEGReXferNet: A Lightweight Gen-AI Framework for EEG Subspace Reconstruction via Cross-Subject Transfer Learning and Channel-Aware Embedding
-
提出 EEGReXferNet,一种轻量级生成式 AI 框架,通过邻域通道感知输入选择、频带特定子窗口卷积编解码、动态滑窗隐空间和参考统计量缩放,在跨被试迁移学习设置下实现 EEG 子空间重建,参数减少约 45%、推理延迟 <1ms,同时保持 PSD 相关性 \(\geq 0.95\) 和谱图 RV 系数 \(\geq 0.85\)。
- Efficient Rectified Flow for Image Fusion
-
提出 RFfusion,首次将 Rectified Flow 引入图像融合任务,实现无需额外训练的单步采样,同时设计面向融合的两阶段 VAE 训练策略,在速度和质量上全面超越现有扩散融合方法。
- Elucidated Rolling Diffusion Models for Probabilistic Forecasting of Complex Dynamics
-
提出 ERDM,首次将滚动扩散(Rolling Diffusion)框架与 EDM 的原则性设计(噪声调度、预条件化、Heun 采样器)成功统一,通过渐进噪声调度显式建模不确定性增长,在 Navier-Stokes 和 ERA5 天气预报任务上显著优于自回归 EDM 基线。
- Emergence and Evolution of Interpretable Concepts in Diffusion Models
-
首次将 Sparse Autoencoders (SAEs) 系统性地应用于多步扩散模型 (Stable Diffusion v1.4),揭示了图像构图在第一步反向扩散就已涌现、风格概念在中期阶段形成的时间演化规律,并据此设计了时间自适应的因果干预技术。
- Encoder-Decoder Diffusion Language Models for Efficient Training and Inference
-
提出 E2D2,一种面向离散扩散语言模型的编码器-解码器架构,通过轻量解码器迭代去噪、大型编码器定期更新表征,同时实现更快推理(~3× vs MDLM)和更高效的 block diffusion 训练(FLOPs 减半)。
- Energy Loss Functions for Physical Systems
-
提出基于物理能量的损失函数框架,通过反向 KL 散度与玻尔兹曼分布推导出以成对距离为基础的能量差损失,天然满足 SE(d) 不变性,在分子生成和自旋基态预测中显著优于 MSE 和交叉熵损失。
- Enhancing Diffusion Model Guidance through Calibration and Regularization
-
针对分类器引导扩散模型中分类器过度自信导致梯度消失的问题,提出两类互补方案:(1) Smooth ECE 校准损失微调分类器,FID 改善 ~3%;(2) 基于 f-散度的正则化采样引导(RKL/FKL/JS),无需重训练即在 ImageNet 128×128 上达到 FID 2.13。
- Entropy Rectifying Guidance for Diffusion and Flow Models
-
提出 Entropy Rectifying Guidance (ERG),通过操控注意力层的 Hopfield 能量景观(温度缩放、步长调整)来获取弱预测信号,替代传统 CFG 中的无条件预测,在文本到图像、类条件和无条件生成中同时提升质量、多样性和一致性。
- Epistemic Uncertainty for Generated Image Detection
-
提出 WePe(Weight Perturbation),通过对预训练视觉大模型(DINOv2)施加权重扰动来估计认识不确定性(epistemic uncertainty),利用自然图像与 AI 生成图像在不确定性空间的差异实现检测,无需训练即可使用。
- Equivariant Flow Matching for Symmetry-Breaking Bifurcation Problems
-
提出等变 flow matching 框架,结合 symmetric coupling 策略,用生成式 AI 建模对称性破缺分岔问题中的多模态概率分布,在物理系统(屈曲梁、Allen-Cahn 方程)上显著优于确定性模型和 VAE。
- Evaluating the Evaluators: Metrics for Compositional Text-to-Image Generation
-
系统评估了 12 种文本-图像组合对齐指标与人类判断的一致性,发现没有单一指标在所有组合任务上一致表现最优,VQA 指标并非总是最好的,embedding 类指标(ImageReward、HPS)在特定类别上更强。
- EVODiff: Entropy-aware Variance Optimized Diffusion Inference
-
从信息论角度分析扩散模型推理过程,提出通过优化条件方差来减少条件熵的 EVODiff 方法,在不修改模型的前提下显著加速采样并提升生成质量。
- Evolve to Inspire: Novelty Search for Diverse Image Generation
-
提出 Wander 框架,基于新颖性搜索(novelty search)和 LLM 驱动的 prompt 进化,从单个文本提示出发生成高度多样化的图像集合,在 Vendi Score 上超越现有进化式 prompt 优化基线。
- Exploring Semantic-constrained Adversarial Example with Instruction Uncertainty Reduction
-
提出多维度指令不确定性缩减框架 InSUR,通过 ResAdv-DDIM 采样器稳定对抗优化方向、上下文编码的攻击场景约束、以及基于 WordNet 的语义抽象评估,首次实现了从自然语言指令生成 2D/3D 语义约束对抗样本(SemanticAE)。
- Exploring Variational Graph Autoencoders for Distribution Grid Data Generation
-
探索变分图自编码器(VGAE)生成合成配电网拓扑的能力,评估四种解码器架构在两个数据集上的表现,揭示 VGAE 在小型同质网络上效果良好但在大型异质网络上面临挑战。
- FairImagen: Post-Processing for Bias Mitigation in Text-to-Image Models
-
提出 FairImagen 后处理去偏框架,通过在 CLIP prompt 嵌入空间应用 FairPCA 投影去除人口统计信息,结合经验噪声注入和跨人口统计联合去偏,在不重训模型的前提下显著提升文本到图像生成的公平性。
- FALCON: Few-step Accurate Likelihoods for Continuous Flows
-
提出 FALCON,通过混合训练目标(flow matching + 平均速度损失 + 可逆性正则化)使连续归一化流在少步采样下仍能提供足够精确的似然估计,从而实现比传统 CNF 快两个数量级的 Boltzmann 采样。
- Fast Data Attribution for Text-to-Image Models
-
将慢而准确的 unlearning-based 数据归因方法蒸馏为一个可快速检索的特征嵌入空间,在 Stable Diffusion 级别模型上实现比现有方法快 2,500× ~ 400,000× 的数据归因。
- Fast Solvers for Discrete Diffusion Models: Theory and Applications of High-Order Algorithms
-
为离散扩散模型推理首次提出高阶数值求解器(θ-RK-2 和 θ-Trapezoidal),在 KL 散度意义下证明二阶收敛,在文本和图像生成任务上以同等计算预算获得更好的样本质量。
- FerretNet: Efficient Synthetic Image Detection via Local Pixel Dependencies
-
基于 Markov Random Field 理论提出局部像素依赖(LPD)特征表示,结合仅 1.1M 参数的轻量 FerretNet 网络,仅在 4 类 ProGAN 数据上训练即在 22 个生成模型上达到 97.1% 平均准确率。
- Flatten Graphs as Sequences: Transformers are Scalable Graph Generators
-
提出 AutoGraph,通过分段欧拉邻域路径(SENT)将图无损展平为 token 序列,直接用 decoder-only Transformer 建模,实现比扩散模型快 100× 的图生成速度,同时在合成和分子基准上达到 SOTA。
- Flattening Hierarchies with Policy Bootstrapping
-
提出 Subgoal Advantage-Weighted Policy Bootstrapping(SAW),通过优势加权的重要性采样对子目标条件策略进行 bootstrapping,将层级 RL 的长距离推理能力蒸馏到一个扁平策略中,无需生成式子目标模型。
- Head Pursuit: Probing Attention Specialization in Multimodal Transformers
-
用信号处理中的Simultaneous Orthogonal Matching Pursuit (SOMP)算法分解注意力头在unembedding矩阵上的稀疏表示,揭示注意力头的语义特化现象(如政治/国籍/月份/数字等),仅编辑1%的头即可可靠地抑制或增强特定概念——在语言和视觉-语言模型上均验证有效。
- Hephaestus: Mixture Generative Modeling with Energy Guidance for Large-scale QoS Degradation
-
提出 Hephaestus 三阶段生成框架(Forge-Morph-Refine),结合预测路径加压算法、能量引导的混合 CVAE 和潜在空间 RL 优化,用于大规模网络 QoS 降级问题的求解。
- InfinityStar: Unified Spacetime AutoRegressive Modeling for Visual Generation
-
提出 InfinityStar,首个能生成工业级 720p 视频的纯离散自回归模型,通过时空金字塔建模统一 T2I/T2V/I2V/交互式长视频生成,VBench 83.74 超越 HunyuanVideo,推理速度比扩散模型快 10-32×。
- Information Theoretic Learning for Diffusion Models with Warm Start
-
提出将经典 KL 散度-Fisher 信息关系推广到任意各向同性噪声扰动的似然估计框架,结合 warm-start 噪声注入和重要性采样,消除训练-测试差距并实现更紧的似然上界,在 ImageNet 多分辨率上达到 SOTA NLL。
- ItDPDM: Information-Theoretic Discrete Poisson Diffusion Model
-
提出 ItDPDM(信息论离散泊松扩散模型),通过泊松噪声信道和泊松重建损失(PRL)实现非负离散数据的精确似然估计,避免了 ELBO 近似和 dequantization,在合成数据及 CIFAR-10 和 MIDI 音乐上取得优于现有离散扩散模型的似然估计。
- LinEAS: End-to-end Learning of Activation Steering with a Distributional Loss
-
提出 LinEAS(Linear End-to-end Activation Steering),通过端到端优化跨层仿射变换映射,利用 1D Wasserstein 分布损失进行全局激活值对齐,仅需 32 个无配对样本即可高效控制 LLM 毒性和 T2I 模型概念生成。
- MagCache: Fast Video Generation with Magnitude-Aware Cache
-
发现视频扩散模型中连续时间步残差输出的幅度比(magnitude ratio)遵循统一的单调递减规律(跨模型、跨prompt稳定),提出MagCache基于此规律自适应跳过冗余时间步并复用缓存,仅需1个样本校准即可在Open-Sora/CogVideoX/Wan 2.1/HunyuanVideo上实现2.1-2.68×加速,视觉保真度全面超越现有方法。
- OmniSync: Towards Universal Lip Synchronization via Diffusion Transformers
-
OmniSync提出了一种基于Diffusion Transformer的通用唇形同步框架,通过无掩码训练范式、基于Flow Matching的渐进噪声初始化和动态时空CFG三大创新,在真实视频和AI生成视频上都大幅超越先前方法,尤其在风格化角色的唇形同步上达到87.78%成功率(之前最佳67.78%)。
- On Optimal Steering To Achieve Exact Fairness
-
本文定义了"理想分布"——使任意代价敏感风险下的 Bayes 最优分类器都满足精确公平性的数据分布,并提出通过 KL 散度最小化寻找最近理想分布的优化框架,为公平预处理和 LLM 表示引导提供了可证明的公平性保证。
- PhysCtrl: Generative Physics for Controllable and Physics-Grounded Video Generation
-
提出 PhysCtrl,通过生成式物理网络学习 4 种材质(弹性体、沙子、橡皮泥、刚体)的物理动力学分布,以 3D 点轨迹表示物理运动,结合 I2V 模型实现物理参数和力可控的视频生成。
- Safe-Sora: Safe Text-to-Video Generation via Graphical Watermarking
-
Safe-Sora 首次将图形水印(如logo图像)直接嵌入到视频生成管线中,通过分层粗到细自适应匹配将水印patch分配到视觉最相似的帧和区域,并设计3D小波变换增强Mamba架构实现时空融合,在视频质量(FVD 3.77 vs 次优154.35)和水印保真度上大幅超越所有基线。
- Scalable, Explainable and Provably Robust Anomaly Detection with One-Step Flow Matching
-
提出 TCCM(Time-Conditioned Contraction Matching),一种受 flow matching 启发的表格数据半监督异常检测方法,通过学习将正常数据收缩到原点的时间条件速度场,仅需单步前向推理即可计算异常分数,在 ADBench 47 个数据集上取得 AUROC 和 AUPRC 双第一,推理速度比 DTE 快 1573 倍。
- Scaling Offline RL via Efficient and Expressive Shortcut Models
-
提出 SORL,利用 shortcut models 的自一致性实现离线 RL 中高效一阶段训练与可变推理步数的策略优化,同时支持推理时的顺序和并行扩展。
- Why Diffusion Models Dont Memorize The Role Of Implicit Regularization
-
本文从数值实验和理论分析两个层面揭示扩散模型训练中存在隐式动态正则化机制:生成高质量样本的时间尺度 τ_gen 与出现记忆化的时间尺度 τ_mem 之间的间隔随训练集大小 n 线性增长,为"早停"提供了理论支撑。