🧊 3D 视觉¶
🤖 AAAI2026 · 共 22 篇
- 3D-ANC: Adaptive Neural Collapse for Robust 3D Point Cloud Recognition
-
将Neural Collapse(NC)机制引入3D点云对抗鲁棒性,用固定的ETF分类头+自适应训练框架(RBL+FDL)构建解耦的特征空间,在ModelNet40上将DGCNN的对抗准确率从27.2%提升到80.9%,超出最佳baseline 34个点。
- 3D-Free Meets 3D Priors: Novel View Synthesis from a Single Image with Pretrained Diffusion Guidance
-
提出将 3D-free 方法(HawkI 风格的 test-time optimization)与 3D-based 先验(Zero123++ 的弱引导图)结合的框架,无需额外 3D 数据或训练即可从单张图片生成指定仰角/方位角的相机控制视图,在复杂场景下 LPIPS、CLIP-Score 等指标全面超越 Zero123++、HawkI 和 Stable Zero123。
- 4DSTR: Advancing Generative 4D Gaussians with Spatial-Temporal Rectification for High-Quality and Consistent 4D Generation
-
提出4DSTR框架,通过基于Mamba的时序关联校正(修正高斯点的尺度和旋转)以及逐帧自适应稠密化与裁剪策略,显著提升4D高斯生成的时空一致性和对快速时序变化的适应能力。
- Adapt-As-You-Walk Through the Clouds: Training-Free Online Test-Time Adaptation of 3D Vision-Language Foundation Models
-
提出 Uni-Adapter,一种面向3D视觉-语言基础模型(VLFM)的无训练在线测试时适应框架,通过基于聚类的动态原型缓存和图正则化标签平滑来应对分布偏移,在多个3D损坏基准上取得SOTA。
- AnchorDS: Anchoring Dynamic Sources for Semantically Consistent Text-to-3D Generation
-
揭示 SDS 中源分布是动态演化而非静态的关键问题,提出 AnchorDS,通过将当前渲染图像作为图像条件输入双条件扩散模型来锚定源分布,解决了 SDS 的语义过度平滑和多视角不一致问题,在 T3Bench 上全面超越 SDS/VSD/SDS-Bridge。
- AnchorHOI: Zero-shot Generation of 4D Human-Object Interaction via Anchor-based Prior Distillation
-
提出 AnchorHOI,通过锚点NeRF和锚点关键点两种中间桥梁,分别从图像/视频扩散模型中蒸馏交互先验和运动先验,实现零样本的文本驱动4D人物-物体交互生成,在静态3D和动态4D HOI生成上均超越已有方法。
- Arbitrary-Scale 3D Gaussian Super-Resolution
-
提出一个集成框架实现3D高斯溅射(3DGS)的任意倍率超分辨率渲染,通过尺度感知渲染、生成先验引导优化和渐进超分机制,用单个3D模型支持整数和非整数倍率的HR渲染,PSNR提升6.59dB同时保持85 FPS实时速度。
- ASSIST-3D: Adapted Scene Synthesis for Class-Agnostic 3D Instance Segmentation
-
提出 ASSIST-3D 合成数据流水线,通过异构物体选择、LLM 引导的场景布局生成和仿真实点云构建三个阶段,为 class-agnostic 3D 实例分割生成高质量标注数据,显著提升模型泛化能力。
- Can Protective Watermarking Safeguard the Copyright of 3D Gaussian Splatting?
-
首次系统性地揭示了 3DGS 水印框架的脆弱性,提出 GSPure 框架通过视角感知权重累积和几何特征聚类精准分离并去除水印相关的 Gaussian 原语,在水印 PSNR 最高降低 16.34dB 的同时保持原始场景损失不足 1dB。
- CASL: Curvature-Augmented Self-supervised Learning for 3D Anomaly Detection
-
发现点云曲率本身就是强大的异常检测线索,提出曲率增强的自监督学习框架 CASL,通过多尺度曲率提示引导坐标重建来学习通用 3D 表征,无需任何异常检测专用机制即可在 Real3D-AD 上以 5.6% O-AUROC 优势刷新 SOTA。
- Class-Partitioned VQ-VAE and Latent Flow Matching for Point Cloud Scene Generation
-
提出类别分区的 VQ-VAE(CPVQ-VAE)和潜空间流匹配模型(LFMM),实现了首个无需外部数据库检索的纯点云场景生成方法,在复杂客厅场景上将 Chamfer 距离降低了 70.4%。
- CtrlFuse: Mask-Prompt Guided Controllable Infrared and Visible Image Fusion
-
提出 CtrlFuse,通过 mask prompt 引导 SAM 微调,实现红外-可见光图像的交互式可控融合,在融合质量和下游分割/检测任务上同时取得提升。
- DANCE: Density-Agnostic and Class-Aware Network for Point Cloud Completion
-
提出 DANCE 框架,通过基于射线的候选点采样和 opacity 预测机制实现密度无关的点云补全,并引入分类头提供语义先验,在 PCN 和 MVP 基准上取得 SOTA。
- DAPointMamba: Domain Adaptive Point Mamba for Point Cloud Completion
-
首次将 Mamba(SSM)引入无监督域自适应点云补全(UDA PCC),提出 DAPointMamba 框架,通过跨域 Patch 级扫描、空间 SSM 对齐和通道 SSM 对齐三个模块,在保持线性复杂度和全局感受野的同时实现了跨域高质量点云补全。
- Debiasing Diffusion Priors via 3D Attention for Consistent Gaussian Splatting
-
提出 TD-Attn 框架,通过 3D 感知注意力引导(3D-AAG)和层级注意力调制(HAM)两个模块,解决 T2I 扩散模型中先验视角偏差导致的 3D 生成/编辑多视图不一致问题(Janus problem),可作为通用插件集成到现有 3DGS 框架。
- DeepRAHT: Learning Predictive RAHT for Point Cloud Attribute Compression
-
提出首个端到端可微的 RAHT(Region Adaptive Hierarchical Transform)框架 DeepRAHT,用于有损点云属性压缩,通过可学习的预测模型和基于 Laplace 分布的码率代理实现了超越 G-PCC 标准和现有深度学习方法的压缩性能。
- Distilling Future Temporal Knowledge with Masked Feature Reconstruction for 3D Object Detection
-
提出 FTKD(Future Temporal Knowledge Distillation)框架,通过未来感知特征重建(FFR)和未来引导 logit 蒸馏(FLD)两个策略,将离线教师模型中的未来帧知识有效迁移到在线学生模型,在 nuScenes 上取得 1.3 mAP/1.3 NDS 提升且不增加推理开销。
- Domain Generalized Stereo Matching with Uncertainty-guided Data Augmentation
-
提出 UgDA-Stereo,通过对 RGB 图像逐通道均值和标准差施加基于批次统计量的高斯不确定性扰动来模拟多种未知域的视觉风格,并结合特征一致性约束,以即插即用方式显著提升立体匹配模型的跨域泛化能力。
- EPSegFZ: Efficient Point Cloud Semantic Segmentation for Few- and Zero-Shot Scenarios
-
提出 EPSegFZ,一个无需预训练的3D点云少样本/零样本语义分割框架,通过 ProERA 提取高频特征、LGPE 融合文本信息更新原型、DRPE 建立精确的查询-原型对应关系,在 S3DIS 和 ScanNet 上分别超越 SOTA 5.68% 和 3.82%。
- FoundationSLAM: 释放深度基础模型在端到端稠密视觉SLAM中的潜力
-
将深度基础模型的几何先验注入光流式SLAM系统,通过混合光流网络、双向一致BA层和可靠性感知精炼三个模块形成闭环,在TUM/EuRoC/7Scenes/ETH3D四大数据集取得SOTA轨迹精度和稠密重建质量,18 FPS实时运行。
- Gaussian Blending: Rethinking Alpha Blending in 3D Gaussian Splatting
-
重新审视3DGS中的标量alpha blending,指出其忽略像素内空间变化是多尺度渲染伪影(放大erosion/缩小dilation)的根源,提出Gaussian Blending——将alpha和transmittance建模为像素内的空间分布(2D uniform window),实现实时抗锯齿且无需重训练,在多尺度Blender上PSNR从31.59→35.80。
- OpenScan: A Benchmark for Generalized Open-Vocabulary 3D Scene Understanding
-
本文提出了广义开放词汇 3D 场景理解任务(GOV-3D)及对应的 OpenScan 基准,将 3D 场景理解从物体类别扩展到八种语言学属性维度,揭示了现有 OV-3D 方法在理解抽象物体属性方面的严重不足。