跳转至

Position: The Right to AI

会议: ICML 2025
arXiv: 2501.17899
代码: 无
领域: 推荐系统
关键词: AI治理, 参与式设计, AI权利, 民主合法性, 数据主权

一句话总结

本文是一篇 position paper,提出"AI 权利"(Right to AI)的概念,主张受 AI 系统影响的个人和社区应当有权参与 AI 的开发和治理,并借鉴城市规划中"城市权利"理论,构建了一个四层公民参与模型。

研究背景与动机

AI 系统正日益渗透到医疗、教育、金融、城市规划等关键领域,但其设计和部署中的决策权高度集中在少数企业和政府机构手中。这种"自上而下"的模式导致了多方面的问题:算法偏见持续存在(如信贷审批中的种族歧视)、数据被大规模提取而缺乏透明度("数据圈地"现象)、公众被排斥在 AI 治理之外沦为被动接受者。

现有的 AI 治理框架——无论是 OECD 指南、欧盟 AI 法案,还是企业自律——大多仍停留在"告知"和"咨询"层面,缺乏赋予公众真正决策权的机制。用 Arnstein 的"公民参与阶梯"来衡量,当前大多数 AI 治理实践处于中低层(informing/consultation),远未达到顶层的"公民控制"。

本文的核心矛盾是:AI 已经成为事实上的社会基础设施(如同电力、交通),但其治理模式还停留在"产品/商品"的范式中。城市规划领域早已从 Le Corbusier 式的精英设计转向 Jane Jacobs 式的社区参与,AI 治理也需要类似的范式转变。

"AI 权利"的核心 idea 是:这不仅是一种获取 AI 服务的权利,更是一种参与塑造 AI 目标、约束条件和风险阈值的"权力权利"(power right)——一种关于共同治理而非个体保护的集体权利。

方法详解

整体框架

论文从理论基础、论证、模型构建到案例分析,形成完整的论证链条:

  1. 理论基础:Lefebvre 的"城市权利"+ Arnstein 的"公民参与阶梯"+ Jacobs 的草根参与
  2. 四大论证:民主合法性、社会正义、认知自主、数据生产
  3. 四层参与模型:从"消费者模式"到"公民控制"
  4. 九个案例研究:验证参与式实践的经验教训

关键设计

  1. AI 作为社会基础设施的三重论证: 作者从三个维度论证 AI 已具备社会基础设施的特征:(a) 广泛社会影响——AI 嵌入医疗诊断、教育评估等高影响领域;(b) 日常生活的核心角色——信贷审批、求职筛选、社会福利分配越来越依赖 AI;(c) 需要集体管理——AI 像其他基础设施一样内嵌着政治、经济和文化假设。设计动机是:只有将 AI 重新定义为"基础设施"而非"产品",才能为公众参与治理提供正当性基础。

  2. 四大论证支柱:

    • 民主合法性:影响公众的决策应有公众参与制定(引用 Dahl、Habermas)
    • 社会正义与多元主义:ML 模型从大数据中泛化,可能忽视少数群体的价值和文化规范,需要包容性治理
    • 认知自主:AI 系统过滤信息、推荐决策,影响知识生态;集中控制可能导致文化同质化
    • 数据生产:数据在多样的社会情境中产生,是集体产物,应按 Ostrom 的公共池塘资源理论进行集体治理
  3. 四层参与模型(改编自 Arnstein 阶梯):

层级 模式 公众角色 特征
第一层 消费者模式 被动消费者 无实质输入,仅通过调查/反馈参与
第二层 私企主导 有限反馈者 企业整合部分用户反馈,但核心决策权仍在企业
第三层 政府监管 被监管方/被咨询方 政府设定标准,但可能忽视地方知识
第四层 公民控制 共同治理者 地方数据信托、合作社所有权、公民大会监督

各层之间的过渡机制包括:结构化反馈渠道(1→2)、法定社区审计/咨询委员会(2→3)、合作社数据信托+技术教育(3→4)。

  1. 九个案例研究分析: 从实际参与式 AI 项目中提取经验教训。例如:

    • WeBuildAI:让捐赠者、志愿者等协作设计分配算法,结果比人工方法更公平
    • 毛利数据主权倡议:保护毛利语言数据,社区主导技术开发
    • 非洲低资源语言机器翻译:社区驱动的数据收集为 30+ 种语言创建了新数据集和基准

跨层级对比

维度 消费者模式 私企主导 政府监管 公民控制
主体性 最低 有限 中等 最高
透明度 部分 较高 最高
包容性 选择性 基于政策 广泛
治理结构 企业内部 企业+用户委员会 政府机构 公民大会/数据信托

实验关键数据

主实验

作为 position paper,本文以案例分析替代传统实验:

案例项目 领域 关键成果
Anthropic Collective Constitutional AI AI对齐 暴露了伦理框架中的张力
PRISM Alignment Dataset AI伦理 揭示了跨文化的对齐分歧
MID-Space 城市规划 纳入了边缘化群体的视角
WeBuildAI 算法治理 产出了更公平的分配算法
毛利数据主权 语言技术 实现了社区主导的数据治理

消融实验

替代治理模型 优势 劣势
市场主导(现状) 效率高、创新快 权力集中、偏见持续、缺乏问责
国家主导 可执行标准、增加问责 可能忽视地方知识、受政治议程影响
参与式(本文主张) 平衡效率与民主合法性 面临规模化、资源、制度挑战

关键发现

  • 现有参与式实践大多停留在"知识共享"而非"权力共享"层面
  • 成功因素:早期和持续的利益相关者参与、透明的目标沟通、明确承认资源不平等
  • 风险:"参与式洗白"(participation-washing)——邀请参与但不赋予真正决策权
  • 在高风险场景(如医疗、航空),公民控制需要与专家知识结合的混合形式

亮点与洞察

  • 概念迁移精准:从城市规划的"城市权利"到数字时代的"AI 权利",类比恰当且富有启发性
  • 四层模型不仅描述了现状和理想状态,还提供了各层间的过渡机制,具有指导意义
  • 对"参与式洗白"的警惕值得重视——很多公司的"用户反馈"机制实质上只是 Arnstein 阶梯的最低层
  • Jane Jacobs 式"自下而上"视角的引入,挑战了 AI 领域普遍存在的技术精英主义

局限与展望

  • 对"公民控制"层级的可操作性讨论不足——如何在实际中建立 AI 领域的数据信托和公民大会,面临巨大的制度和技术挑战
  • 未充分讨论参与式方法可能导致的效率损失和决策延迟
  • 九个案例分布在不同领域和规模,难以进行系统性比较
  • 对全球南方的 AI 治理场景关注不足(虽提及毛利和非洲语言项目,但未深入讨论发展中国家的特殊挑战)
  • "AI 权利"的法律定性和可执行性仍然模糊——是道德倡导还是可落地的法律权利?

相关工作与启发

  • 与 Bengio et al. (2024) 关于 AI 安全治理的呼吁互补——本文更强调"自下而上"的路径
  • 与 Sorensen et al. (2024) 关于多元对齐的技术工作相呼应——本文提供了更宏观的制度框架
  • 在推荐系统场景中的启发:用户对推荐算法的参与通常仅限于"反馈"按钮——这是典型的 Arnstein 阶梯底层;更有意义的参与可能是让用户参与定义推荐目标(如"我希望算法优化什么")

评分

  • 新颖性: ⭐⭐⭐⭐ 跨学科概念迁移有创意,四层模型有组织性
  • 实验充分度: ⭐⭐⭐ 案例分析有价值但缺乏系统性实证
  • 写作质量: ⭐⭐⭐⭐ 论证清晰完整,引用广泛
  • 价值: ⭐⭐⭐⭐ 对AI治理讨论有重要贡献,但从理论到实践的鸿沟仍需弥合

相关论文