跳转至

⚛️ 物理学

🧠 NeurIPS2025 · 共 21

Astroco Self-Supervised Conformer-Style Transformers For Light-Curve Embeddings

提出 AstroCo,一种将 Conformer(注意力 + 深度可分离卷积 + 门控)引入天文不规则光变曲线的自监督编码器,在 MACHO 数据集上重建误差比 Astromer v1/v2 降低 61-70%,少样本分类 macro-F1 提升约 7%。

Encoding and Understanding Astrophysical Information in Large Language Model-Generated Summaries

探究LLM嵌入是否能编码从X射线天文观测导出的物理量(硬度比、幂律指数、变异性),发现结构化prompt设计可将物理属性聚类纯度提升5.9%-57.5%,稀疏自编码器揭示LLM通过识别天体类型来推断未显式给出的物理参数。

Exoplanet Formation Inference Using Conditional Invertible Neural Networks

用条件可逆神经网络(cINN)训练于15,777颗合成行星数据,从观测量(行星质量、轨道距离)快速推断行星形成参数(盘质量、湍流α、尘气比),实现比物理模型快~10⁶倍的概率性参数回溯,并证明多行星系统数据比单行星数据更鲁棒。

FAIR Universe HiggsML Uncertainty Dataset and Competition

提供2.8亿模拟LHC碰撞事件的标准化数据集和竞赛平台,包含6种参数化系统偏差(探测器校准+背景成分)及不对称覆盖惩罚评估指标,要求参赛者为Higgs信号强度\(\mu\)估计鲁棒的68.27%置信区间,优胜方案通过无聚焦替代建模实现比传统binned方法窄约20%的置信区间。

Feat Free Energy Estimators With Adaptive Transport

提出 FEAT 框架,基于随机插值学习自适应传输,通过 escorted Jarzynski 等式和 Crooks 定理提供一致、最小方差的自由能差估计器,统一了平衡与非平衡方法。

From Simulations to Surveys: Domain Adaptation for Galaxy Observations

构建从模拟星系(TNG50)到真实巡天观测(SDSS)的域适应 pipeline,通过特征级对齐(欧几里得距离 + 最优传输 + top-\(k\) 软匹配损失)和可训练权重调度,将星系形态分类的目标域准确率从 46.8%(无适应)提升到 87.3%,Macro F1 从 0.298 提升到 0.626。

Knowledge is Overrated: A Zero-Knowledge ML and Cryptographic Hashing-Based Framework for Verifiable, Low Latency Inference at the LHC

提出PHAZE框架,利用密码学哈希(Rabin指纹)和零知识机器学习(zkML)实现LHC触发器级别的可验证早退出推理,理论延迟降至~152-253ns量级,同时内建异常检测能力。

Latent Representation Learning In Heavy-Ion Collisions With Maskpoint Transforme

将掩码点云 Transformer 自编码器引入重离子碰撞分析,通过自监督预训练+监督微调的两阶段范式,学习到比 PointNet 更强的非线性潜在表征(PC1 分布重叠从 2.42% 降至 0.27%),为 QGP 性质研究提供了通用特征学习框架。

Multi-Modal Masked Autoencoders for Galaxy Evolution and Cosmology

将多模态掩码自编码器 (MMAE) 应用于星系图像和光谱的联合重建,构建了 134,533 个星系的图像+光谱数据集,实现了光谱和图像的交叉重建以及仅从图像的红移回归,\(\sigma_{\text{NMAD}} = 0.016\) 优于 AstroCLIP。

Neural Deprojection of Galaxy Stellar Mass Profiles

用神经网络解决星系恒星质量轮廓的去投影问题——从 2D 投影光度轮廓恢复 3D 空间质量分布,替代传统的 Abel 反演解析方法,在处理噪声数据和复杂轮廓时更鲁棒且更快。

POLARIS: A High-contrast Polarimetric Imaging Benchmark Dataset for Exoplanetary Disk Representation Learning

构建首个系外行星偏振成像ML基准数据集POLARIS(921张VLT/SPHERE/IRDIS偏振图像+75,910张预处理曝光),提出Diff-SimCLR框架(扩散模型增强对比学习),在参考星vs目标星分类任务上达到93%准确率,仅需<10%手动标注。

Quantum Doubly Stochastic Transformers

提出 QDSFormer,用变分量子电路(QontOT)替换 ViT 中的 softmax 生成双随机注意力矩阵,在多个小规模图像识别任务上超越标准 ViT 和 Sinkformer,并显著稳定训练。

Simulation-Based Inference for Neutrino Interaction Model Parameter Tuning

首次将基于仿真的推断(SBI)应用于中微子相互作用模型参数调优,使用神经后验估计(NPE)从200K个GENIE模拟的58-bin直方图中学习4个物理参数的后验分布,在MicroBooNE Tune的mock数据上准确恢复了真实参数值。

The Pareto Frontier of Resilient Jet Tagging

系统评估LHC射流标记任务中多种架构(DNN/PFN/EFN/ParT)的AUC-鲁棒性权衡,揭示更复杂模型虽AUC更高但对蒙特卡洛模型依赖性更强,构建Pareto前沿并通过案例研究证明低鲁棒性分类器即使校准后仍在下游参数估计中产生偏差。

The Platonic Universe: Do Foundation Models See the Same Sky?

在天文学场景下验证柏拉图表征假说(PRH):使用JWST、HSC、Legacy Survey和DESI光谱数据,测量6种基础模型(ViT/ConvNeXt/DINOv2/IJEPA/AstroPT/Specformer)的表征对齐度,发现模态内和跨模态MKNN分数随模型规模一致增加(p=3.31×10⁻⁵),支持不同架构和模态向共享表征收敛的假说。

TITAN: A Trajectory-Informed Technique for Adaptive Parameter Freezing in Large-Scale VQE

提出TITAN框架,用深度学习模型预测VQE中的"冻结参数"(训练过程中始终不活跃的参数),在初始化阶段即冻结40-60%参数,实现最高3倍收敛加速和40-60%电路评估量减少,在30量子比特的分子系统上匹配或超越基线精度。

Toward Complete Merger Identification at Cosmic Noon with Deep Learning

在 IllustrisTNG50 模拟生成的模拟 HST CANDELS 图像上训练 ResNet18,首次证明深度学习可以在高红移 \(1<z<1.5\) 下成功识别包括小质量比合并(minor merger, \(\mu \geq 1/10\))和低质量星系(\(M_\star > 10^8 M_\odot\))在内的星系合并,总体准确率约 73%,并通过 Grad-CAM 和 UMAP 深入分析了模型行为。

Transfer Learning Beyond the Standard Model

研究从标准宇宙学模型(ΛCDM)预训练的神经网络能否迁移到超越标准模型的场景(大质量中微子、修改引力、原初非高斯性),发现dummy node架构可将模拟需求降低一个数量级,但当参数存在强物理简并(如σ₈-Mν)时会出现负迁移。

Tropical Attention Neural Algorithmic Reasoning For Combinatorial Algorithms

提出 Tropical Attention,将注意力机制提升到热带射影空间中进行分段线性推理,在组合算法的 OOD 泛化上大幅超越 softmax 基线,同时推理速度快 3-9 倍、参数少 ~20%。

Unsupervised Discovery Of High-Redshift Galaxy Populations With Variational Auto

用变分自编码器(VAE)对 2743 条 JWST 高红移(\(z>4\))星系光谱进行无监督聚类,发现 12 个不同的天体物理类别,使已知的后星暴星系、Lyman-α 发射星系、极端发射线星系、Little Red Dots 等稀有种群数量翻倍。

Why Is Attention Sparse In Particle Transformer

分析 Particle Transformer (ParT) 在jet tagging中出现的二值化稀疏attention现象:稀疏性来自attention机制本身而非物理启发的interaction矩阵,但两者对性能都不可或缺。