If Open Source Is to Win, It Must Go Public¶
会议: ICML 2025
arXiv: 2507.09296
代码: 无
领域: 人体理解 / AI 政策
关键词: 开源AI, 公共AI, AI治理, AI基础设施, AI民主化
一句话总结¶
本文论证了开源 AI 在当前实践下无法独立实现 AI 民主化——模型权重只是"惰性代码",需要大量资本才能激活——必须嵌入公共 AI 基础设施(公共资金 + 公共访问 + 公共治理 + 私人承诺)才能成为真正的公共产品。
研究背景与动机¶
领域现状:开源软件在 Linux、Kubernetes 等领域取得了巨大成功,ML 社区也已将开放作为技术和文化规范——PyTorch、Hugging Face Transformers 等框架使高级 ML 工具广泛可及,EleutherAI 的 GPT-NeoX/Pythia、BigScience 的 BLOOM 等项目持续推动开放模型发展。
现有痛点:然而,AI 模型与传统软件代码库有根本不同。传统开源软件用户只需 CPU 即可编译运行,但 AI 模型需要大量资源才能"激活"。这种差异体现在多个层面:预训练需要数千 GPU 训练数周至数月(Llama 3 训练成本估计超 1 亿美元);大规模推理需要持续的 GPU 集群和编排系统;微调/对齐/工具集成等使模型真正有用的环节通常是封闭的;许可证(如 Llama 许可证)包含限制性条款且可被单方面撤销。
核心矛盾:开源模型在经济学意义上不是纯公共产品(非竞争性 + 非排他性),而是"不纯公共产品"或"俱乐部产品"——模型权重本身是非竞争的,但使其有用的推理/微调/部署能力却是排他的。论文用了一个精彩类比:想象一个藏书量巨大且开放授权的图书馆,随着目录指数增长,普通用户必须雇佣私人"向导"才能找到书——书仍是公共产品,但获取知识被"搜索与检索"的收费服务中介化了。
本文目标 (1) 诊断开源 AI 面临的结构性挑战——为什么权重开放 ≠ 民主化访问? (2) 提出"公共 AI"框架作为补充——需要怎样的制度设计? (3) 系统回应五种反对意见。
切入角度:作者从政治经济学和公共产品理论出发,分析 AI 模型的"激活成本"问题,指出开源模式在软件时代的成功依赖于低成本计算和可互操作标准,而这两个条件在大模型时代不再成立。
核心 idea:开源 AI 必须嵌入公共 AI 生态系统——由公共资金支持、公共治理问责、确保公共访问——才能实现 AI 民主化,否则开放权重只是对少数有资本部署者的补贴。
方法详解¶
整体框架¶
作为立场论文,本文的核心框架是:诊断问题(开源 AI 为何不够) → 提出方案(公共 AI 四原则) → 总结全球实践(四种公共 AI 模式) → 回应五种反对意见 → 分析技术和社会影响。
关键设计¶
-
AI 模型的"激活成本"问题诊断:
- 功能:系统分析开源 AI 权重与可用系统之间的鸿沟
- 核心思路:论文识别了从"可用的权重"到"可用的系统"之间的五个断裂点——预训练需要资本和规模(数千 GPU × 数月)、推理不免费(持续 GPU + 编排系统)、后训练涉及私有数据和设计选择、许可证模糊或脆弱(Llama 可被单方面撤销)、透明度部分且不一致。这些特征使 AI 模型在经济学上属于"不纯公共产品"
- 设计动机:只有准确诊断问题,才能提出有针对性的解决方案。论文强调这不是价值观的失败,而是结构性的失败
-
公共 AI 四原则框架:
- 功能:定义公共 AI 的核心原则
- 核心思路:(1) 公共支持——不仅限于预训练资助,还需覆盖推理、部署、后训练和数据飞轮的公共资金和基础设施;(2) 公共访问——全球南方研究者、公民技术专家、大科技之外的社区都能构建和使用模型;(3) 公共治理——由政府、国家实验室、大学、非营利组织等公共机构来供给和维护;(4) 私人承诺——鼓励或要求私人参与者在开放性和安全性方面做出承诺
- 设计动机:四原则覆盖了从资金到访问到治理到私营部门的完整生态链,解决了开源 AI 在每个层面的结构缺陷
-
全球公共 AI 模式分类:
- 功能:总结各国已有的公共 AI 实践
- 核心思路:四种模式覆盖了政府参与 AI 的不同深度和方式,从最轻量(外包)到最重度(直接公共供给),为不同国情提供了参考路径
- 设计动机:证明公共 AI 不是理论空想,全球已有丰富的实践探索
对五种替代观点的系统回应¶
| 反对观点 | 核心论点 | 论文回应 | 关键数据/论据 |
|---|---|---|---|
| "市场运作良好" | 让 OpenAI 和 Meta 主导即可 | 访问 ≠ 治理,系统不透明且可单方面撤销 | 瑞典 GPT-SW3 因 ChatGPT 北欧语言性能差而诞生 |
| "开源最终会赢" | 社区创新会超越闭源 | 最强开源模型都由资金充足的私企预训练 | HuggingFace 月下载:Llama 3.1-8B 600万 vs OLMo 2-7B 2.9万 |
| "OSS+托管已够用" | 现有生态完整无需新增治理 | 当前可用性 ≠ 长期稳定性,商业托管可撤销 | LLaMA 许可证条款含可撤销性 |
| "监管更好" | 用法规而非投资来形塑 AI | 监管必要但不充分,无法保证访问和公平参与 | 加拿大 SCALE AI 同时资助监管和能力建设 |
| "公共 AI 将低效" | 政府项目历来低效且被捕获 | GPS/互联网/哈勃等都是公共机构成果 | ERC、CERN、W3C 证明公共 AI 可抵抗捕获 |
实验关键数据¶
主要数据:开源模型采纳度对比¶
| 模型 | 组织 | 类型 | HuggingFace 月下载量 | 说明 |
|---|---|---|---|---|
| Llama 3.1-8B-Instruct | Meta (商业公司) | 受限开源 | ~600 万 | 最强/最用开源模型由商业公司预训练 |
| Pythia | EleutherAI (非营利) | 完全开源 | ~90 万 | 社区模型使用量远低于商业开源 |
| OLMo 2-7B | AI2 (研究院) | 完全开源 | ~2.9 万 | 学术模型使用量更少 |
这组数据有力说明:虽然社区/学术开源 AI 项目众多,但实际采纳量被商业公司的"有限开源"模型完全碾压。
分析:AI 模型生命周期成本结构¶
| 阶段 | 是否有公共资金支持 | 说明 |
|---|---|---|
| 预训练 | 有限/偶尔 | 部分学术项目有国家资助(如 BLOOM 使用法国公共超算) |
| 推理 | 极少 | NDIF 是少有的例外 |
| 后训练 (RLHF/微调) | 几乎没有 | 通常是私有的、封闭的 |
| 部署/托管 | 几乎没有 | 依赖商业托管,条款可变 |
| 数据飞轮 | 没有 | 去中心化部署导致 RLHF/查询数据分散在孤岛中 |
全球公共 AI 实践模式¶
| 模式 | 描述 | 代表案例 | 政府参与度 |
|---|---|---|---|
| 外包供给 | 政府与私人实验室签约 | IndiaAI、美国 NAIRR | 低 |
| 网络化协作 | 学术和公民参与者共同开发 | Empire AI、加拿大公共计算投资 | 中 |
| 国企融合 | 政府对私企紧密控制 | 中国 AI 项目、阿联酋 AI 战略 | 高 |
| 公共选项 | 直接公共供给 AI 服务 | 瑞典 GPT-SW3、日本 ABCI | 最高 |
关键发现¶
- 权重开放 ≠ 系统可用:随着 AI 系统复杂度增长——从"在本地 GPU 上的 token 预测"演变为"融合多模态推理、专有工具和复杂编排层的 AI 助手"——"可用权重"和"可用系统"之间的鸿沟在持续扩大
- 开源的"共享基础设施"幻觉:社区贡献的评估基准、工具链、数据集和微调技术,其价值往往被训练闭源模型的前沿实验室所收割——贡献者以为在建设共享基础设施,实际上可能在为权力集中输送养分
- 模型发布不等于承诺:Meta 等公司可以随时停止发布模型或对未来许可证增加更多限制,这种脆弱性是结构性的
亮点与洞察¶
- "不纯公共产品"的精彩类比:将 AI 模型比作一个藏书量巨大但需要付费向导才能使用的图书馆——书本身是公共产品,但获取知识被中介化了。这个类比精准捕捉了开源 AI 的结构性矛盾,比任何技术论证都更有说服力
- 对开源"共谋"的深刻揭示:指出企业推广开源 AI 的战略目的——如果公共资金补贴推理成本,最终价值将向应用层(即这些企业)聚集——这种洞察在 AI 政策讨论中极为少见
- "结构而非价值"的诊断框架:明确区分"这不是价值观的失败,而是结构的失败",避免了道德说教,使论证更具政策制定者的可接受性
- 全球实践的系统分类:四种公共 AI 模式(外包/网络化/国企融合/公共选项)加上新兴的"AI 空客"和"AI CERN"提案,为政策讨论提供了结构化的参考框架
局限与展望¶
- 缺乏量化分析和实证数据:作为立场论文,主要依赖定性论证。HuggingFace 下载量是有力数据点,但缺少预训练/推理/部署各环节的成本量化对比
- 公共 AI 的实施路径模糊:四原则框架描述了"应该怎样",但对"如何做到"的具体政策建议不够细化——例如公共推理基础设施的资金规模、治理架构、运营模式等
- 忽略了开源 AI 的快速进步:llama.cpp、Ollama 等本地部署工具正在快速降低推理门槛,但论文仅一笔带过,未充分讨论这一趋势对其论点的影响
- 对全球南方视角的讨论不足:论文提到公共访问应覆盖全球南方研究者,但所有案例分析都集中在美国、欧洲和日本
- 未讨论开源 AI 在安全研究中的特殊作用:开源模型在安全研究中的透明性优势(如可审计性、可复现性)未被充分强调
相关工作与启发¶
- vs Bommasani et al. (2024) "Considerations for Governing Open Foundation Models":Bommasani 等人讨论了开放基础模型的治理考量,但主要从治理框架角度出发。本文更进一步,论证了治理框架本身不够,需要公共基础设施来支撑
- vs Mazzucato (2013) "The Entrepreneurial State":Mazzucato 论证了国家在创新中的积极角色(如 GPS、互联网),本文将这一框架直接应用于 AI 领域,论证公共 AI 不是效率低下的代名词
- vs Widder et al. (2024):Widder 等人指出开源贡献如何被私人捕获的问题。本文在此基础上提出了结构性解决方案——通过公共 AI 确保开源贡献不被私人俘获
评分¶
- 新颖性: ⭐⭐⭐⭐ 将公共产品理论系统应用于 AI 开源生态分析,"不纯公共产品"的框架新颖且有解释力
- 实验充分度: ⭐⭐⭐ 立场论文无传统实验,但论证逻辑严密、案例丰富;HuggingFace 下载量对比是有效数据支撑
- 写作质量: ⭐⭐⭐⭐⭐ 论点层次分明,对反对意见的逐一回应展现了学术论辩的高水平,类比精彩
- 价值: ⭐⭐⭐⭐ 在 AI 治理和政策领域具有重要参考价值,对 ML 社区理解开源生态的局限性有启发
title: >- [论文解读] If Open Source Is to Win, It Must Go Public description: >- [ICML 2025][人体理解] 本文是一篇立场论文,核心论点是:开源 AI 本身无法实现 AI 的民主化访问,必须嵌入更广泛的"公共 AI"基础设施——包括公共资金、公共访问、公共治理和私人承诺——才能让开放模型真正成为公共产品。 tags: - ICML 2025 - 人体理解
If Open Source Is to Win, It Must Go Public¶
会议: ICML 2025
arXiv: 2507.09296
领域: 人体理解
一句话总结¶
本文是一篇立场论文,核心论点是:开源 AI 本身无法实现 AI 的民主化访问,必须嵌入更广泛的"公共 AI"基础设施——包括公共资金、公共访问、公共治理和私人承诺——才能让开放模型真正成为公共产品。
研究背景与动机¶
开源软件在 Linux、Kubernetes 等领域取得了巨大成功,但在 AI 领域,开源面临着根本性的结构挑战。与传统软件不同,AI 模型需要大量资源才能"激活"——包括计算、后训练、部署和监督——而当前只有少数参与者能够提供这些资源。
论文指出了 AI 模型不同于传统代码库的几个关键差异:
预训练需要资本和规模:现代模型需要数千 GPU 训练数周乃至数月
推理并非免费:大规模推理需要持续的 GPU 资源和编排系统
后训练涉及私有数据:微调、对齐、工具集成等使模型真正有用的环节通常是封闭的
许可证模糊或脆弱:如 Llama 许可证包含限制性条款和可撤销性
透明度部分且不一致:最强大的"开放"模型仍缺乏训练数据和计算预算的细节
方法详解¶
核心立场¶
论文提出了一个核心断言:"开源 AI,按照当前的实践方式,本身不会实现 AI 的民主化访问或提供公共产品。" 相反,开源 AI 必须嵌入更广泛的公共 AI 愿景中。
公共 AI 的四项原则¶
- 公共支持(Public Support):不仅限于预训练,还需对推理、部署、后训练和数据飞轮提供公共资金和基础设施
- 公共访问(Public Access):让所有人——全球南方研究者、公民技术专家、大科技公司之外的社区——都能构建、适配和使用有竞争力的模型
- 公共治理(Public Governance):由对公众负责的机构——政府、国家实验室、公共事业单位、大学和非营利组织——来供给、托管和维护模型及相关基础设施
- 私人承诺(Private Commitments):鼓励(或要求)私人参与者在开放性、安全性和社区控制方面做出承诺
现实中的公共 AI 模式¶
论文总结了全球已有的四种公共 AI 策略:
| 模式 | 描述 | 例子 |
|---|---|---|
| 外包供给 | 政府与私人实验室签约 | IndiaAI、美国 NAIRR |
| 网络化协作 | 学术和公民参与者共同开发 | Empire AI、加拿大公共计算投资 |
| 国企融合 | 政府对私人企业的紧密控制 | 中国 AI 项目、阿联酋 AI 战略 |
| 公共选项 | 直接公共供给 AI 服务 | 瑞典 GPT-SW3、日本 ABCI |
对五种反对观点的回应¶
论文系统地回应了五种替代观点:
观点1:"市场运作良好,让 OpenAI 和 Meta 主导" - 回应:访问不等于治理。这些系统不透明且可单方面撤销。
观点2:"开源最终会赢,只需耐心" - 回应:当前最强开源模型(如 Llama)都由资金充足的私人公司预训练。对比 HuggingFace 下载量:Llama 3.1-8B 月下载 600 万,Pythia 仅 90 万,OLMo 2-7B 仅 2.9 万。
观点3:"OSS + 托管已经够用" - 回应:当前可用性不等于长期稳定性。大多商业托管依赖可撤销的临时条款。
观点4:"监管是比公共投资更好的工具" - 回应:监管至关重要但不充分。公共 AI 是主动构建能力,而非仅靠约束私人行为。
观点5:"公共 AI 将低效且容易被捕获" - 回应:GPS、互联网、哈勃望远镜等都证明治理良好的公共机构可以产出非凡技术成果。
实验¶
本文为立场论文(Position Paper),不包含传统意义上的实验。论文通过系统的论证、案例分析和比较分析来支持其核心论点。
亮点¶
- 对开源 AI 局限性的系统性分析:清晰识别了开源权重与可用系统之间不断扩大的差距
- "不纯公共产品"的精彩类比:将 AI 模型比作一个藏书量巨大但需要私人"向导"才能使用的图书馆
- 全球公共 AI 策略的全面梳理:系统总结了各国已有的公共 AI 实践
- 对五种反对观点的严谨回应:每个反对意见都得到了深思熟虑的回应
- 对 ML 社区的深层启示:指出了共享模型库和汇集推理能力对研究民主化的重要性
技术和社会影响¶
论文深入分析了公共 AI 对不同群体的意义:
- ML 研究者:共享模型库和汇集推理能力使前沿实验民主化。研究者无需自行承担托管硬件成本即可访问和干预 LLM 内部
- 非 CS 领域:医疗、教育、法律等领域需要高质量模型。公共 AI 使领域专家能适配系统而无需依赖私有 API
- 开源生态:许多贡献者的工作成果面临被私人捕获的风险。公共 AI 确保其努力支持真正开放的系统
- 政府和资助者:公共 AI 可作为数字主权和国家创新战略的关键支柱
- 更广泛的公众:支持民主问责和可争议性
局限性¶
- 作为立场论文,缺乏量化验证和实证数据支持
- 对公共 AI 的治理和运营细节讨论不够深入,如何防止官僚化和低效率
- 对公共 AI 的资金来源和可持续性未给出具体方案
- 论证存在一定理想化倾向,低估了公共机构在快速迭代技术领域的劣势
- 对全球南方国家如何参与公共 AI 建设缺乏具体路径建议
- 未充分讨论不同政治体制下公共 AI 策略的适用性差异
评分¶
⭐⭐⭐⭐ (4/5)
这篇立场论文视野宏大、论证严密,提出了一个对 AI 生态系统未来走向至关重要的议题。作为 ICML 的观点论文,它为社区提供了重要的思考框架,但需要更多后续工作来将愿景转化为可操作的方案。
相关论文¶
- [ICML 2025] Improving Model Alignment through Collective Intelligence of Open-Source LLMs
- [AAAI 2026] Why Do Open-Source LLMs Struggle with Data Analysis? A Systematic Empirical Study
- [NeurIPS 2025] Mixing Expert Knowledge: Bring Human Thoughts Back to the Game of Go
- [CVPR 2025] Optimal Transport-Guided Source-Free Adaptation for Face Anti-Spoofing
- [ICCV 2025] On Large Multimodal Models as Open-World Image Classifiers