👥 社会计算¶
📷 CVPR2025 · 5 篇论文解读
- As Language Models Scale, Low-order Linear Depth Dynamics Emerge
-
将 Transformer 的深度方向视为离散时间动力系统,发现在给定上下文内可以用仅 32 维的线性状态空间代理模型高精度预测层间灵敏度曲线(Spearman 达 0.99),而且令人惊讶的是:模型越大,低阶线性代理越准确——这是一条新的 scaling law。
- As Language Models Scale, Low-order Linear Depth Dynamics Emerge
-
将 Transformer 的深度方向视为离散时间动力系统,发现在给定上下文内可以用仅 32 维的线性状态空间代理模型高精度预测层间灵敏度曲线(Spearman 达 0.99),而且令人惊讶的是:模型越大,低阶线性代理越准确——这是一条新的 scaling law。
- Classifier-guided CLIP Distillation for Unsupervised Multi-label Classification
-
提出 Classifier-guided CLIP Distillation(CCD),通过 CAM 引导的局部视图标签聚合和 CLIP 预测去偏两项核心技术,在完全无标注的条件下达到与全监督方法持平的多标签分类性能(VOC12 上 90.1% mAP)。
- Classifier-to-Bias: Toward Unsupervised Automatic Bias Detection for Visual Classifiers
-
提出 C2B(Classifier-to-Bias),首个仅依靠分类任务的文本描述(无需任何标注数据)即可自动发现预训练视觉分类器偏差的框架,通过 LLM 生成类特定偏差候选、生成检索标题收集图像数据集、最后计算偏差分数,在 CelebA 和 ImageNet-X 上超越需要监督的 SOTA 偏差检测方法。
- Learning from Neighbors: Category Extrapolation for Long-Tail Learning
-
发现更细粒度的类别划分天然减轻长尾不平衡的影响,提出用 LLM 发现与现有类别相关的细粒度辅助类 + 网络爬虫收集图像 + 邻近静默损失防止辅助类喧宾夺主,在 ImageNet-LT 上 Few 类提升 16 个百分点(41.4→57.4)。