跳转至

Constrained Network Slice Assignment via Large Language Models

会议: NeurIPS 2025
arXiv: 2512.00040
代码: 无
领域: 其他(网络优化 + LLM)
关键词: 网络切片, 5G资源分配, LLM, 整数规划, 约束优化

一句话总结

探索用LLM(Claude系列)解决5G网络切片资源分配的约束优化问题,提出零样本LLM直接分配和LLM引导整数规划两种方法,发现LLM单独使用可产生合理的初始分配但可能违反约束,与ILP求解器结合则能实现100%完备性和均衡利用率。

研究背景与动机

领域现状:5G网络切片通过在共享基础设施上创建隔离虚拟网络来支持不同服务需求(eMBB高带宽、URLLC低延迟、mMTC大量物联网)。

现有痛点:传统方法依赖大规模优化或启发式算法,计算密集且需专家调参。ILP在问题规模增大时面临组合爆炸。

核心 idea:利用LLM的语义理解能力来理解服务请求的性质并进行初始分配,再结合ILP精确求解以确保约束满足。

方法详解

整体框架

系统包含三种切片类型(eMBB高带宽/URLLC低延迟/mMTC大连接)和一组用户服务请求,每个请求有资源需求量和延迟要求。问题建模为约束分配问题,决策变量 \(x_{i,m}\) 表示请求 \(i\) 是否分配到切片 \(m\)

关键设计

  1. 零样本LLM分配:

    • 功能:直接生成切片分配方案
    • 核心思路:向Claude模型提供切片属性(容量、延迟)和请求列表(需求量、延迟要求),要求按CSV格式输出分配结果。用"@"作分隔符避免逗号混淆,打乱请求顺序防止位置偏差
    • 设计动机:LLM的语义理解能力可以天然识别"高带宽视频流→eMBB切片"、"低延迟控制信号→URLLC切片"
    • 局限:温度0.8下生成结果有变异性,可能违反容量或延迟硬约束
  2. LLM引导ILP混合方法:

    • 功能:精确求解约束分配,利用LLM提供的语义信息
    • 核心思路:先用Claude评估所有请求对的兼容性(二元相似度矩阵),再构建ILP最大化同切片内请求的相似性总分。ILP引入变量 \(z_{i,j,m}\) 链接请求对的共同分配,确保所有硬约束(容量、延迟、完整分配)被满足
    • 设计动机:LLM擅长理解服务语义(判断哪些请求"应该"在同一切片),ILP擅长精确约束求解
  3. 评估指标体系:

    • 完备性:是否所有请求都被分配
    • 同质性:同一切片内请求类型的一致性
    • 带宽/密度利用率:切片资源使用均衡程度

损失函数 / 训练策略

无训练过程。LLM使用零样本推理,ILP使用GLPK求解器。

实验关键数据

主实验

方法 完备性 同质性 约束满足 说明
Claude-3-haiku 100% 0.35±0.27 偶有违反 同质性差
Claude-3-sonnet 99.5% 1.00±0.00 偶有违反 同质性完美
ILP+LLM 100% 100% 最均衡方案

消融实验

模型变体 带宽利用率 密度利用率 说明
claude-3-haiku 极端不均衡 切片C过载 语义理解较弱
claude-3-sonnet 90-100%均衡 均衡 最佳LLM单独表现
claude-3.5-sonnet 中等均衡 中等 性能居中

关键发现

  • Claude-3-sonnet 的同质性达到完美1.0,说明其语义理解能力确实能区分不同类型的服务请求
  • LLM单独使用时约束违反主要出现在切片容量超限,因为LLM无法精确跟踪累积资源消耗
  • ILP+LLM混合方法结合了LLM的语义聚类能力和ILP的约束保证,实现了最优方案

亮点与洞察

  • LLM+优化器的混合架构是一个有前景的范式:LLM提供语义理解缩小搜索空间,求解器保证约束满足。这种模式可推广到其他约束优化问题
  • 对LLM在结构化决策问题中的能力边界提供了清晰的经验分析:语义理解强,数值约束跟踪弱
  • 不同Claude变体的表现差异显示模型选择对任务质量影响很大

局限与展望

  • 使用合成数据集,未在真实5G网络上验证
  • 仅处理静态一次性分配,未考虑动态时变场景
  • 问题规模较小(~20个请求),可扩展性待验证
  • LLM相似度判断使用二元值,连续值可能更精确
  • 未探索其他LLM(如GPT-4)作为语义引擎的效果

评分

  • 新颖性: ⭐⭐⭐ LLM+ILP混合思路在网络领域较新
  • 实验充分度: ⭐⭐⭐ 合成数据,规模有限
  • 写作质量: ⭐⭐⭐ 清晰但深度一般
  • 价值: ⭐⭐⭐ 探索性工作,展示了混合方法的潜力

相关论文