跳转至

🧮 科学计算

🧠 NeurIPS2025 · 共 21

Bayesian Surrogates for Risk-Aware Pre-Assessment of Aging Bridge Portfolios

提出基于贝叶斯神经网络(BNN)的代理模型,用于替代昂贵的非线性有限元分析(NLFEA),实现对老化桥梁组合的快速、不确定性感知的结构安全预评估,在真实铁路案例中为单座桥梁节省约37万美元。

Collapsing Taylor Mode Automatic Differentiation

提出 Taylor mode 自动微分的"折叠"(collapsing)优化技术,通过重写计算图将导数求和操作向上传播,大幅加速 PDE 算子(如 Laplacian、一般线性 PDE 算子)的计算,实现速度优于嵌套反向传播同时保持前向模式的低内存优势。

DeltaPhi: Physical States Residual Learning for Neural Operators in Data-Limited PDE Solving

提出 DeltaPhi 框架:不直接学习 PDE 的输入→输出映射,而是学习相似物理状态之间的残差,利用物理系统稳定性实现隐式数据增强,在数据稀缺场景下显著提升各类神经算子的性能。

Eddyformer Accelerated Neural Simulations Of Three-Dimensional Turbulence At Sca

提出 EddyFormer,一种基于谱元法 (SEM) 的 Transformer 架构,将流场分解为 LES(大尺度)和 SGS(小尺度)两路并行流,在 256³ 分辨率 3D 湍流上达到 DNS 级精度且加速 30 倍,并在未见的 4× 更大域上泛化良好。

Enforcing Governing Equation Constraints in Neural PDE Solvers via Training-free Projections

提出两种无需训练的后处理投影方法(非线性LBFGS优化和局部线性化投影),将神经PDE求解器的输出投影到满足控制方程约束的可行流形上,在Lorenz/KS/Navier-Stokes上大幅降低约束违反并提升精度,且效果显著优于physics-informed训练。

F-Adapter: Frequency-Adaptive Parameter-Efficient Fine-Tuning in Scientific Machine Learning

本文首次系统研究了科学机器学习中预训练大型算子模型(LOM)的参数高效微调(PEFT),发现 LoRA 在傅里叶层中存在深度放大的近似误差下界,而 Adapter 保留了通用逼近能力;据此提出频率自适应 Adapter(F-Adapter),按频谱能量分配 Adapter 容量,在 3D Navier-Stokes 预测任务上仅调参不到 2% 即达到 SOTA。

From Black Hole to Galaxy: Neural Operator Framework for Accretion and Feedback Dynamics

提出基于 Neural Operator 的「子网格黑洞」模型,学习小尺度 (GR)MHD 时间演化算子,替代手工闭合规则嵌入多层级直接数值模拟框架,首次实现吸积驱动反馈的内禀变异性捕获,加速比达 \(\sim 10^5\) 倍。

From Images To Physics Probabilistic Inference Of Galaxy Parameters And Emission

提出 VAE–Normalizing Flow 混合框架,从 SDSS gri 图像和测光数据出发,以概率方式联合推断星系物理参数(恒星质量、SFR、红移、气相金属丰度、中心黑洞质量)和发射线流量(Hα、Hβ、[N II]、[O III]),速度比 SED 拟合快 100 倍以上且提供校准良好的后验分布。

GyroSwin: 5D Surrogates for Gyrokinetic Plasma Turbulence Simulations

首次提出可扩展的5D神经网络代理模型 GyroSwin,将 Swin Transformer 扩展至5维回旋动力学相空间,通过交叉注意力实现3D↔5D交互、通道式模态分离捕获带状流,在等离子体湍流模拟中实现比传统准线性方法更高的精度,且比数值求解器(GKW)快3个数量级。

Hamiltonian Neural PDE Solvers through Functional Approximation

基于 Riesz 表示定理,用可学习核积分(Integral Kernel Functional)近似无限维 Hamiltonian 泛函,通过自动微分获取泛函导数,实现保能量的神经 PDE 求解器(HNS),在 1D/2D PDE 上展现出优越的稳定性和泛化能力。

Inc An Indirect Neural Corrector For Auto-Regressive Hybrid Pde Solvers

提出间接神经校正器(INC),将学习到的校正项嵌入PDE的右端项(而非直接修改状态),理论证明误差放大降低\(\mathcal{O}(\Delta t^{-1}+L)\)倍,在6个PDE系统(1D混沌到3D湍流)上大幅改善长期轨迹性能(R²提升达158.7%),实现最高330×加速。

Integration Matters for Learning PDEs with Backward SDEs

揭示了标准 BSDE 方法性能不如 PINNs 的根本原因是 Euler-Maruyama 积分引入的不可消除离散化偏差,提出基于 Stratonovich 形式的 Heun-BSDE 方法彻底消除该偏差,在高维 PDE 上与 PINNs 竞争。

Multi-Trajectory Physics-Informed Neural Networks for HJB Equations with Hard-Zero Terminal Inventory: Optimal Execution on Synthetic & SPY Data

针对最优交易执行中 HJB 方程的硬零终端库存约束(\(X_T=0\)),提出 Multi-Trajectory PINN (MT-PINN),通过基于轨迹展开的终端损失与 \(\lambda\)-curriculum 训练策略,在合成数据和 SPY 实盘回测中显著优于 vanilla PINN,终端库存违规率大幅降低。

Neural Emulator Superiority: When Machine Learning for PDEs Surpasses its Training Data

挑战了"神经 PDE 模拟器精度受限于训练数据(数值求解器)精度"的传统认知,发现并严格定义了 emulator superiority 现象——仅在低精度求解器数据上训练的神经网络,在以高精度参考解评估时竟能超越其训练求解器本身。

Neuro-Spectral Architectures for Causal Physics-Informed Networks

NeuSA 将经典谱方法与 Neural ODE 结合,先将 PDE 投影到谱基(Fourier)上得到 ODE 系统,再用 NODE 学习动力学演化,从架构层面解决了传统 PINN 的谱偏差和因果性问题,在波动方程/Burgers方程/sine-Gordon方程上误差比 baseline 低 1-2 个数量级且训练更快。

From Images to Physics: Probabilistic Inference of Galaxy Parameters and Emission Lines via VAE–Normalizing Flows

提出 VAE–Normalizing Flow 两阶段概率推断框架,仅从 SDSS 星系图像和测光数据即可快速推断恒星质量、SFR、红移、黑洞质量、金属丰度及发射线通量,精度超越现有非光谱方法且比 SED 拟合快 100 倍以上。

Physics-Guided Machine Learning For Uncertainty Quantification In Turbulence Mod

提出混合 ML–EPM 框架:用轻量 CNN 学习从 RANS 湍流动能场到 DNS 真值的修正映射,以此调制特征空间扰动法(EPM)的扰动幅度,在保持物理一致性的前提下将湍流模型不确定性估计的误差降低 1–2 个数量级。

Physics-Informed Neural Networks with Fourier Features and Attention-Driven Decoding

提出 Spectral PINNsformer (S-Pformer),用 Fourier 特征嵌入替换 PINNsformer 的编码器,结合仅解码器 Transformer 架构,在减少 18.6% 参数量的同时在多个 PDE benchmark 上取得更优性能,有效缓解了频谱偏置问题。

Stable Minima of ReLU Neural Networks Suffer from the Curse of Dimensionality: The Neural Shattering Phenomenon

本文研究了两层过参数化 ReLU 网络中稳定极小值(flat minima)的泛化性质,证明虽然平坦性确实蕴含泛化,但其收敛速率随输入维度指数级恶化(即存在维度灾难),与不受维度灾难影响的低范数解(weight decay)形成指数级分离;并揭示了"neural shattering"现象作为高维失败的几何机制。

Symbolic Regression Is All You Need: From Simulations to Scaling Laws in Binary Neutron Star Mergers

利用符号回归(Symbolic Regression)从数值相对论模拟数据中自动发现双中子星并合后吸积盘质量的解析标定关系,所得紧凑表达式在预测精度、泛化能力和可解释性上全面超越文献中已有的经验拟合公式。

The Primacy of Magnitude in Low-Rank Adaptation

揭示 LoRA 中权重更新幅度(magnitude)是性能的根本驱动因素,统一了学习率、缩放因子和初始化策略对 LoRA 的影响机制,并提出 LoRAM——一种基于确定性正交基和幅度缩放的高效初始化方法,无需 SVD 即可匹敌甚至超越谱初始化方法。