跳转至

Reflective Translation: Improving Low-Resource Machine Translation via Structured Self-Reflection

会议: NeurIPS 2025
arXiv: 2601.19871
代码: GitHub
领域: 机器翻译 / 低资源语言 / 提示工程
关键词: 低资源翻译, 自反思, 结构化提示, LLM翻译, isiZulu, isiXhosa, RAKE遮蔽

一句话总结

提出 Reflective Translation 框架,让 LLM 在推理时对自身的初始翻译进行结构化自我批判(识别误译/遗漏/语义扭曲),再根据批判生成修正翻译,无需微调或额外标注数据即可在 isiZulu/isiXhosa 等低资源非洲语言上取得 BLEU 和 COMET 的统计显著提升。

研究背景与动机

领域现状:机器翻译(MT)依赖语言准确性、语义忠实性和上下文一致性。近年来,大语言模型(LLM)在无需任务特定微调的情况下展现出较强的翻译能力,GPT、Claude 等模型在高资源语言对上已达到可用甚至优秀水平。然而在低资源场景中,由于平行语料极其有限,LLM 翻译质量仍然存在显著差距——出现幻觉(hallucination)、遗漏(omission)和语义扭曲(distortion)的概率远高于高资源语言。Robinson et al. (2023) 的实验表明 ChatGPT 在高资源语言翻译上具有竞争力,但在低资源语言上性能显著下降。南非的 isiZulu(祖鲁语,约 1200 万母语使用者)和 isiXhosa(科萨语,约 800 万母语使用者)是班图语系的代表性低资源语言,它们有复杂的形态学特征(如名词类系统、丰富的动词形态变化),翻译难度远高于欧洲语言对。以 isiZulu 为例,其名词类系统包含 15+ 个类别,每个类别有不同的前缀模式,动词的主语一致性前缀、宾语前缀、时态标记、体标记层层叠加,一个动词形态可以编码完整的句子级语义信息——这种"多义素合并"的特征对 LLM 的翻译能力构成了极大挑战。

现有痛点:当前改善低资源翻译质量的主流路径有两条:一是收集更多平行语料用于微调,但对真正的低资源语言而言,标注成本高、数据获取难度大,且即使微调后在领域外文本上泛化能力有限;二是利用多语言预训练模型的零样本/少样本能力,但实验表明 ChatGPT 等模型在低资源语言上的表现远不如高资源语言,尤其在形态学复杂的非洲语言上失误率居高不下。更关键的是,LLM 翻译中的错误往往不是"完全不知道怎么翻",而是"翻了但翻错了细节"——时态不对、名词类标记混淆、关键语义成分遗漏等问题。这类错误恰好属于"模型其实有能力发现并纠正"的范畴。

核心矛盾:LLM 具备一定的低资源语言翻译能力,但初始翻译中经常包含可以被模型自身识别和修正的语义错误。传统翻译流程只做一次前向生成,缺乏后验纠正机制。如何在不增加训练成本的前提下,挖掘模型已有的知识来修复翻译中的细节性错误?换言之,问题不在于模型"不知道"怎么翻译,而在于模型"一次没翻对"——如果给模型机会回顾和修正自己的输出,翻译质量能否获得显著提升?这种"推理时纠错"的思路在推理和代码生成等领域已被验证有效,但在机器翻译特别是低资源翻译中尚未被系统研究。

本文目标 具体而言,作者将问题分解为三个层面:(1)如何让 LLM 系统地识别自身翻译中的错误类型(误译、遗漏、语义扭曲)?(2)如何将错误诊断转化为可操作的修正指导?(3)如何确保模型在修正时不是简单地从反思文本中复制内容,而是真正地"重新理解+重新翻译"?

切入角度:近年来,"自反思"(self-reflection)机制在 LLM 推理领域展现出显著效果。Reflexion(Shinn et al., 2023)利用语言反馈强化学习,Self-Refine(Madaan et al., 2023)通过迭代自我反馈改善生成质量,Chain-of-Verification(Creswell & Shanahan, 2023)通过验证链提升事实一致性。这些工作的共同洞察是:LLM 往往能够识别自身输出中的问题并加以改进。作者将这一思路迁移到翻译领域,把翻译视为一种"受约束的推理"(constrained reasoning)——目标句子必须保留源句子的完整语义。在这种框架下,自反思可以成为一种推理时的纠错机制。

核心 idea:通过结构化的多轮提示,让 LLM 先翻译、再自我诊断错误、最后据此修正,无需微调即可在低资源语言上获得显著的翻译质量提升。

方法详解

整体框架

Reflective Translation 是一个推理时的多阶段提示管线(prompting pipeline),不涉及模型参数更新。整体流程分为三步:

输入:一段源语言文本(如 isiZulu 或 isiXhosa 句子)。

第一阶段——初始翻译(First-Pass Translation):将源句子交给 LLM,使用标准翻译提示生成第一版英文翻译。提示格式经过精心设计,要求模型以 <START_TRANSLATION><END_TRANSLATION> 标签包裹输出,便于后续自动解析。这一步相当于传统的零样本/少样本翻译基线,是后续反思-修正流程的"锚点"。根据提示策略的不同,初始翻译可以是零样本、思维链引导或少样本提示的结果。

第二阶段——结构化反思(Structured Reflection):这是框架最核心的创新环节。模型不直接修改翻译,而是先生成一份结构化的"自我批判报告"。报告包含三个组成部分:错误识别(误译、遗漏、扭曲)、高层级修正指导(通用的可复用纠正原则)、以及必须保留的关键语义内容。反思的输入是源文本和第一版翻译,输出是一段按照三个子部分组织的结构化文本。为了防止模型在这一步直接泄露正确翻译、导致第三步变成简单复制,框架引入了 RAKE 关键词遮蔽机制,将反思文本中的关键内容词替换为 <MASK> 占位符。

第三阶段——修正翻译(Second-Pass Translation):模型同时接收原始源文本和遮蔽处理后的反思报告,在这两个信号的联合引导下重新生成一版改进后的翻译。由于反思报告中的实质性内容词已被遮蔽,模型不能简单地从反思文本中复制答案,而必须重新理解源文本并结合反思中指出的错误类型和修正方向来生成新译文。修正翻译同样使用标签包裹格式输出。

输出:修正后的目标语言翻译以及完整的反思记录(包含错误诊断和修正指导的全部细节)。整个流程还产出一个副产品:(源文本, 初译, 反思, 修正译文)四元组,这些数据可以用于后续的监督训练研究。

关键设计

  1. 结构化反思模板(Structured Reflection Template):

    • 功能:约束模型的自我批判输出格式,使反思过程系统化、可复用。
    • 核心思路:反思报告被分为三个明确的子部分。(a)错误识别(Error Identification):模型需要指出初始翻译中的关键误译(mistranslation)、遗漏(omission)或语义扭曲(distortion),并给出具体的出错位置。这不是笼统地说"翻译不好",而是要求模型定位到具体的词组或短语层面。(b)高层级修正指导(High-level Fixes):模型需要给出通用的、可复用的修正原则,例如"保留专有名词原文"、"修正时态/体标记"、"修复主谓一致关系"等。这些指导是抽象层面的翻译策略,而非具体的改写建议,旨在让模型在修正时从翻译原则出发而非从具体措辞出发。(c)关键内容约束(Critical Content):明确列出源句中必须在翻译中保留的核心语义片段或约束条件,确保修正过程不会为了修复一个错误而引入新的遗漏。
    • 设计动机:无约束的自由反思容易产生冗长、非结构化的自评,反而干扰修正过程。通过将反思强制拆分为三个功能互补的子任务,每个子任务都有明确的输出预期,模型可以更高效地完成诊断和修正。此外,这种结构化设计使得反思输出可以作为标注数据被记录和分析,支持后续的反思行为研究。
  2. RAKE 关键词遮蔽机制(Masking to Reduce Copying):

    • 功能:在反思文本传入第三阶段之前,自动提取并遮蔽其中的实质性内容词,防止模型"走捷径"直接复制反思中已有的正确翻译片段。
    • 核心思路:使用 RAKE(Rapid Automatic Keyword Extraction)算法(基于 NLTK 实现)从反思文本中提取关键短语。RAKE 通过分析词频与词共现矩阵来识别文本中最具信息量的短语,不需要训练数据或预定义词典。提取出的关键短语被替换为 <MASK> 占位符,这样传给第三阶段的反思文本保留了结构和修正意图,但具体的目标语言词汇被隐去。模型因此必须基于源文本重新翻译,而不能从反思文本中抄写答案。
    • 设计动机:自反思研究中一个已知的问题是"信息泄露"——如果反思阶段已经写出了正确答案,那么修正阶段的改善并不是因为模型真正理解了错误,而只是因为正确答案已经在上下文中了。这会高估反思机制的真实效果。RAKE 遮蔽是一种轻量、无需训练的解决方案,强制模型在语义层面而非词汇层面应用反思成果。这一设计是本文框架中最具技术巧思的部分——既保留了反思内容中"错误类型"和"修正方向"的信息,又避免了直接复制。
  3. 多策略提示评估(Multi-Strategy Prompt Evaluation):

    • 功能:在框架内系统评估三种提示策略——零样本基线(zero-shot)、思维链风格(chain-of-thought-style)、少样本提示(few-shot)——以隔离反思机制的贡献与提示策略的贡献。
    • 核心思路:三种提示策略分别对应不同的"前置知识注入"程度。零样本基线只给翻译指令,不提供任何额外信息;思维链风格在翻译指令中加入"先进行内部推理再翻译"的要求,但不要求模型展示推理过程;少样本提示则在上下文中给出 2 个 isiZulu→English 的翻译示例作为参考。这三种策略分别与反思-修正流程组合,产生 3×2=6 种实验条件(每种策略的 first-pass 和 second-pass),从而可以分析反思机制是在哪种基线上提升最大,以及少样本示例是否有助于稳定反思行为。
    • 设计动机:如果只测试一种提示策略,无法区分翻译改善到底来自反思机制还是来自更好的提示。多策略评估确保了结论的稳健性——如果反思在所有策略下都带来提升,说明其效果是通用的、正交于提示策略的。

损失函数 / 训练策略

本文方法完全在推理阶段运行,不涉及任何模型训练或参数更新。所有改善均通过提示工程(prompting engineering)实现。评估时使用两个自动翻译质量指标:

  • BLEU:基于 n-gram 精确匹配率的经典指标,公式为 \(\text{BLEU} = BP \cdot \exp\left(\sum_{n=1}^{N} w_n \log p_n\right)\),其中 \(BP\) 是长度惩罚项,\(p_n\) 是 n-gram 精确率,\(w_n\) 是权重。BLEU 主要衡量翻译的词汇层面准确性。
  • COMET:基于神经网络的学习型翻译评估指标,\(\text{COMET}(x, y) = f_\theta(x, y)\),由预训练的跨语言编码器对源/目标句子进行语义匹配评分。COMET 更擅长捕捉语义层面的翻译质量改善,即使词汇选择不同但语义正确的翻译也能获得高分。

两个指标的互补使用是非常有意义的:BLEU 是面向表层匹配的"硬指标",COMET 是面向语义的"软指标"。如果反思机制主要修复语义错误而非词汇选择问题,我们预期 COMET 的改善会大于 BLEU——这正是实验中观察到的现象。

实验关键数据

实验设置

  • 模型:GPT-3.5(OpenAI)和 Claude Haiku 3.5(Anthropic),两个模型均为通用 LLM,未经翻译任务微调。选择这两个模型是为了验证框架的模型无关性(model-agnostic)。
  • 语言对:English↔isiZulu(使用 OPUS-100 数据集)和 English↔isiXhosa(使用 NTREX-African 数据集)。两种语言均为南部班图语系,具有名词类系统(noun class system)和丰富动词形态,是典型的低资源、形态学复杂语言。
  • 数据集:OPUS-100 提供广泛的多语言平行数据,NTREX-African 是专门为非洲语言策划的评估集。前者覆盖面广但质量参差,后者质量有保证但规模较小。OPUS-100 的 English-isiZulu 部分包含来自多个来源(如 JW300、Ubuntu 本地化、Wikipedia)的句对,领域较为多样;NTREX-African 则由母语使用者翻译的新闻类文本组成,翻译质量较高、领域更聚焦。两个数据集的互补使用使得实验结论更加稳健。

主实验

反思翻译在所有提示策略和两个模型上均产生了一致的翻译质量提升。以下是统计显著性检验结果:

指标 样本量 N 中位提升 p-value 效应量 (r)
BLEU 324 +0.0788 \(1.45 \times 10^{-44}\) 0.95
COMET 457 +0.1753 \(1.10 \times 10^{-65}\) 0.96

使用 Wilcoxon 符号秩检验(非参数配对检验),both BLEU 和 COMET 的 first-pass → second-pass 改善均极度显著(p 值远小于 0.001),且效应量(rank-biserial correlation)接近 1.0,表明几乎所有句子都获得了改善,这不仅是统计可靠的,更是实际意义明确的。

COMET 的中位改善(+0.1753)约为 BLEU 中位改善(+0.0788)的 2.2 倍,这与预期一致——反思机制主要修复的是语义层面的错误(如时态错误、名词类标记混淆、语义遗漏),这些错误被 COMET 敏锐捕捉,但未必总能反映在 n-gram 精确匹配上。

消融实验

提示策略对比:在与反思机制结合时,三种提示策略表现出不同特征:

提示策略 BLEU 改善稳定性 COMET 改善稳定性 综合表现
零样本 (Zero-shot) 中等 基础有效
思维链 (CoT-style) 中等 与零样本差异不大
少样本 (Few-shot) 最高 最高 最稳定、增益最一致

少样本提示 + 反思的组合产生了最稳定的增益。作者推测这是因为上下文中的翻译示例帮助模型建立了更准确的翻译预期,从而使自我批判更加精准、修正方向更加可靠。

置信度阈值消融:作者引入了置信度阈值机制——只对初始翻译质量低于某个阈值的句子执行反思-修正流程:

阈值水平 覆盖率 (eligible %) 平均 BLEU 提升 平均 COMET 提升
无阈值 (全部反思) 100% 基准 基准
中等阈值 降低 增大 增大
严格阈值 显著降低 最大 最大

更严格的阈值意味着只对"翻译最差的那些句子"进行反思修正,虽然覆盖率下降,但每个被修正句子的平均改善幅度更大。这说明反思翻译本质上是一种"靶向纠正机制"——它最适合处理初始翻译质量较低的案例,而对于已经翻译得较好的句子,反思带来的边际收益较小。

关键发现

  • 反思机制的效果是模型无关的:GPT-3.5 和 Claude Haiku 3.5 两个架构截然不同的 LLM 上均观察到一致的改善模式,表明框架的有效性不依赖于特定模型。这一点对实际部署非常重要——用户可以选择最经济或最方便的模型来运行框架。
  • COMET 改善 > BLEU 改善:这强烈暗示反思主要修复的是语义层面的错误,而非简单的词汇替换。模型通过自我诊断,更好地保留了源句的核心语义、修正了时态体态标记和名词类一致性。COMET 作为学习型指标对这类语义改善更加敏感,而 BLEU 的 n-gram 匹配机制对同义替换不敏感。
  • 少样本 + 反思是最佳组合:上下文示例不仅帮助翻译本身,还帮助模型更准确地自我评估,从而产生更高质量的反思和修正。推测原因是少样本示例为模型提供了"好翻译长什么样"的隐式参照标准,使得错误识别阶段的判断更加精准。
  • 阈值机制揭示了反思的靶向性质:反思对质量差的翻译改善最大,对已经较好的翻译改善较小,这与直觉一致——"越差越需要反思"。这一发现有很强的工程指导意义:在实际部署中,可以先用一个轻量级的质量评估模型(甚至用 COMET 自身)预筛选低质量翻译,只对它们执行反思流程,从而在翻译质量和推理成本之间取得更好的 trade-off。
  • 效应量极大(r ≈ 0.95-0.96):这意味着不仅平均指标改善了,而且绝大多数样本(而非少数极端案例)都获得了实际改善。在翻译研究中,自动指标上看到接近 1.0 的效应量是非常罕见的,说明反思机制的改善具有高度的普遍性和一致性,而非被少数大幅改善案例拉高的平均效应。

亮点与洞察

  • 将"自反思"从推理任务迁移到翻译任务的理论框架:作者提出了一个关键的概念桥梁——翻译不只是"生成",更是"受约束的推理"(目标句必须保留源句语义)。这一视角使得 Self-Refine、Reflexion 等推理增强方法可以自然地应用于翻译场景,而无需对方法本身做根本性的修改。这个抽象值得借鉴:任何"输出必须满足某种约束"的生成任务(如代码生成需要通过测试、摘要生成需要保留关键事实),都可能受益于结构化自反思。这种将翻译与推理统一看待的理论视角本身就是一种有价值的贡献。

  • RAKE 遮蔽防止信息泄露是非常巧妙的设计:自反思研究中一个经常被忽视的问题是"反思文本本身就包含了正确答案"。作者通过轻量级的关键词提取和遮蔽,以近乎零成本(无需训练、无需人工标注)解决了这一问题。这一技巧可以直接迁移到任何基于 LLM 自反思的生成任务中——例如代码修复(遮蔽反思中的具体代码片段,保留错误类型描述)、摘要修正(遮蔽反思中的具体表述,保留结构改善建议)、事实校验(遮蔽具体的替代事实,保留错误类型标注)等。RAKE 算法的选择也很明智:作为无监督的基于统计共现的方法,它不需要任何领域特定的资源,对低资源语言场景特别友好。

  • 反思增强数据集的副产品价值:框架运行过程自然产生(源文本, 初译, 反思, 修正译文)四元组。这些数据不仅可用于分析反思行为的模式和规律(例如哪类错误最常被识别、哪类修正最有效),还可以作为监督训练数据——将反思过程蒸馏到更小的模型中,使其在单次前向传播中就能生成"反思后质量"的翻译。这种"推理时方法 → 产出训练数据 → 蒸馏"的范式在近年来越来越流行(如 STaR、WizardMath 等),是一种用大模型的推理能力"教会"小模型的有效路径。

  • 统计分析的严谨性:使用 Wilcoxon 符号秩检验(非参数、配对)而非简单的 t 检验,并报告效应量(rank-biserial correlation)而非仅报告 p 值。这在大量翻译论文只报平均分的背景下格外可贵。

局限与展望

  • 语言覆盖面有限:只评估了两种南部班图语系语言(isiZulu 和 isiXhosa),这两种语言在形态学上高度相似(共享名词类系统、动词形态结构类似)。结论是否能推广到形态学差异更大的低资源语言(如藏缅语、波利尼西亚语、手语翻译等)仍不清楚。特别是结构截然不同的语言对(如 SOV 语序的语言)可能需要不同的反思模板。

  • 模型选择较为保守:仅使用 GPT-3.5 和 Claude Haiku 3.5 两个中等规模的商业模型。未测试开源模型(如 LLaMA 3、Qwen 2、Mistral)、更大规模的模型(GPT-4、Claude Sonnet/Opus)或专门的翻译模型(NLLB、SeamlessM4T、MADLAD-400)。特别值得关注的是:反思机制在更强/更弱的模型上是否同样有效?直觉上更强的模型初始翻译就更好,反思空间可能更小;更弱的模型可能连"识别自身错误"的能力都不够——反思的有效性可能需要模型能力超过某个"自我评估门槛"才能成立。此外,专门的多语言翻译模型(如 NLLB-200)在低资源语言上可能已经比通用 LLM 更强,Reflective Translation 是否能在这些更强的翻译基线上仍然带来提升是一个重要的开放问题。

  • 缺乏人工评估:BLEU 和 COMET 都是自动指标,可能遗漏社会文化层面的翻译细微差别(如敬语/非敬语的选择、文化特有表达的恰当处理、宗教/民俗术语的准确翻译等)。对于班图语言来说,名词类系统的错误可能导致语义的根本性偏差(如将人类名词类用于非人类实体),但这种错误未必能被 COMET 完全捕捉。

  • 反思轮次固定为一轮:当前框架只做一轮反思-修正。是否多轮反思(如 Self-Refine 中的迭代改进)能带来进一步提升?还是存在收益递减甚至退化?这一问题在翻译场景中尤其值得研究——多轮修改可能导致翻译逐渐偏离源文本语义("过度纠正"问题)。此外,多轮反思中每轮的反思是否应该关注不同粒度的错误(如第一轮关注语义完整性、第二轮关注语法正确性、第三轮关注风格自然度)也是一个有趣的研究方向。如果多轮反思被证明有效,如何自动判断"何时停止反思"(即翻译已经足够好、不需要继续修正)也需要一个可靠的停止标准。

  • RAKE 遮蔽的粗糙性:RAKE 是基于统计共现的关键词提取方法,在短句上可能提取不到足够的关键词(导致遮蔽不充分),在长句上可能过度遮蔽(导致反思信息丢失过多)。更精细的遮蔽策略——如基于语义角色标注的选择性遮蔽——可能效果更好。

  • 推理成本翻倍:每个翻译需要三次 LLM 调用(初译 + 反思 + 修正),在实际部署中 API 成本和延迟是初始翻译的 3 倍。在大规模翻译场景中,可以参考阈值消融的思路——只对低置信度翻译执行反思流程,以平衡质量和效率。另一种可能的优化方向是将反思和修正合并为一步提示(让模型在同一次调用中先反思再修正),但这可能降低反思的质量和深度。还有一种思路是先用一个轻量级模型做初始翻译质量评估,只对评估分数低于阈值的句子触发完整的反思流程。

  • 未探索反思的失败模式:虽然平均指标改善了,但是否存在反思后翻译反而变差的案例?如果有,变差的原因是什么?是反思诊断错误(指出了不存在的问题)还是修正方向错误(问题识别对了但修正方案不对)?对失败案例的系统分析将大大增强论文的深度和指导价值。此外,反思文本本身的质量也值得分析——模型生成的反思是否总是准确的,还是存在"虚假反思"(模型编造了不存在的错误并据此修改)?

相关工作与启发

  • vs Self-Refine (Madaan et al., 2023):Self-Refine 提出了通用的"生成→反馈→修正"迭代框架,但其反馈是非结构化的自由文本。Reflective Translation 的关键改进是引入了结构化的反思模板(错误识别 + 修正指导 + 关键内容),使反思过程更加可控和可分析。此外,Self-Refine 允许多轮迭代,而 Reflective Translation 目前只做一轮,但通过 RAKE 遮蔽解决了 Self-Refine 未特别处理的信息泄露问题。

  • vs Reflexion (Shinn et al., 2023):Reflexion 将自反思嵌入强化学习框架,使用外部环境反馈(如代码执行结果)来指导反思。Reflective Translation 则完全基于内部反思(无外部反馈信号),这使得框架更轻量但同时也更依赖模型自身的评估能力。在翻译场景中,引入外部反馈(如回译一致性检查、双语词典查验)可能是有价值的增强方向。

  • vs ReflectionLLMMT (Wang et al., 2024):这是同期的翻译反思工作,在管线设计上有很多相似之处。主要区别在于本文(a)专注于低资源非洲语言而非高资源语言对,(b)引入了 RAKE 遮蔽机制防止信息泄露,(c)进行了严格的统计显著性检验和效应量报告。两个工作互补,共同指向一个明确的趋势:推理时自反思正在成为翻译质量提升的标准工具。ReflectionLLMMT 的反思更偏向多维评分(流畅度、准确性等),而 Reflective Translation 的反思更偏向错误诊断,后者在低资源场景下可能更有针对性。

  • vs Chain-of-Thought (Wei et al., 2022):CoT 要求模型在生成最终答案前展示推理过程,但推理是"前向的"——只指导初始生成,不回溯纠正。Reflective Translation 可以视为 CoT 的"后向延伸"——不仅在生成前推理,还在生成后回顾并纠正。实验中 CoT-style 提示与反思的组合效果中等,不如少样本 + 反思,暗示 CoT 和反思之间可能存在一定的功能重叠。

  • 与低资源 NLP 大方向的关联:本文的核心理念——在推理时利用模型已有知识进行自我改善——与当前低资源 NLP 社区的一个重要转向一致:从"获取更多数据"转向"更好地利用模型已有能力"。这种范式在翻译之外的其他低资源任务(如低资源 NER、低资源文本分类、低资源语音识别后编辑)中同样适用。实际上,任何 LLM 生成质量不够理想但模型具备自我评估能力的场景,都是反思框架的潜在应用领域。

评分

  • 新颖性: ⭐⭐⭐ 核心思路(自反思提升生成质量)已有前人工作,本文的创新在于将其系统化应用于低资源翻译并引入了 RAKE 遮蔽机制,增量创新。
  • 实验充分度: ⭐⭐⭐ 统计分析严谨(非参数检验 + 效应量),但语言覆盖面有限(仅 2 种语言)、模型选择保守(仅 2 个模型)、缺乏人工评估。
  • 写作质量: ⭐⭐⭐⭐ 结构清晰、论述逻辑严密,数学公式使用恰当,附录中完整给出了 prompt 模板增强可复现性。
  • 价值: ⭐⭐⭐ 方法轻量、即插即用、模型无关,对低资源翻译有实际应用价值;反思增强数据集是有价值的副产品;但实验规模限制了结论的普适性。

相关论文