跳转至

知识图谱增强的机器翻译

知识图谱增强的机器翻译

在机器翻译中,实体的正确翻译对于译文质量有着至关重要的作用。知识图(KG)在各种实体上存储了大量结构化信息,其中许多实体不在神经机器翻译(NMT)的双语句子对中,导致实体的错翻率较高,知识图谱的嵌入可以提升神经机器翻译中的实体翻译。

本文的亮点主要包括:

(1)提出了一种将非并行KG合并到NMT模型中的方法。 (2)设计了一种新的方法来归纳K-D实体使用KG生成的翻译结果,生成伪并行句子对,并促进NMT更好地预测K−D实体。

模型

问题定义:

本文所利用的数据资源包括以下三个:

1.双语句子对:D={(X,Y)},其中X是源语言,Y是目标语言。

2.源语言知识图谱:$KG_s={(h_s, r_s, t_s)}$ ,其中$h_s$为源端头实体,$t_s$为源端尾实体,$r_s$为它们之间的关系。

3.目标语言知识图谱:$KG_t={(h_t, r_t, t_t)}$,其中$h_t$为目标端头实体,$h_t$为目标端尾实体,$t_t$为它们之间的关系。

注:$KG_s$和$KG_t$并不是互相平行的。本文的目的是提升K-D实体的翻译质量,其中K-D实体的定义为:

其中$O_es$和$O_e$分别为源端K-D和目标端K-D。

框架:

模型整体框架如下:

本文所提方法包括三个步骤:

1.双语K-D实体推断

①将源语言知识图谱$K_s$和目标语言知识图谱$K_t$利用知识表示学习(例如TransE和TransH等),将源端实体和目标端实体分别表示为向量$E_s$和$E_t$。

②利用双语句对,首先提取出短语翻译对,利用上述段语言翻译对作为种子实体翻译对。

③利用种子实体翻译对为锚点,将$E_s$和$E_t$映射到同一语义空间。

④根据语义距离,预测出K-D实体的译文。

2.伪双语数据构造

推断实体对和种子实体对之间的语义距离: 

如果它们之间的距离小于预定义的阈值λ,就将种子词的上下文迁移至推断实体对的上下文,进而生成伪双语数据。

3.联合训

将原始双语数据和伪双语数据进行联合训练,学习神经机器翻译的参数,损失函数为:

实验

1.总体结果

本文所提方法在中英(医疗领域、旅游领域和通用领域)和英日翻译任务上均有一定BLEU值的提升。

2.超参数分析

在算法1中,本文设置了一个预定义的超参数δ来确定双语对。表中显示了不同δ(医学KG)的BLEU分数。可以看到,当δ=0.45时,BLEU分数最大。当δ超过0.45时,BLEU分数(dev)从15.96降至14.94。同时结果表明:需要在K −D实体对的数量之间取得平衡,并不是越多越好。

3.K-D实体的分析

给出了不包含(Sent w/o K-D)和包含K-D(Sent w K-D)实体句子的BLEU值,从表中可以看出,所提方法对于包含K-D(Sent w K-D)实体句子有着明显的提升。

总结

为了解决NMT中的K-D实体,本文提出了一种知识图谱增强的NMT方法。本文设计了一种新的方法来归纳K-D实体使用KG生成的翻译结果,生成伪并行句子对,最后联合训练NMT模型。在汉英翻译和英日翻译任务上的大量实验表明,本文方法在翻译质量上明显优于基线模型,尤其是在处理K−D实体上。

Zhao, Y., Zhang, J., Zhou, Y., & Zong, C. (2021, January). Knowledge graphs enhanced neural machine translation. In Proceedings of the Twenty-Ninth International Conference on International Joint Conferences on Artificial Intelligence (pp. 4039-4045).


最后更新: January 18, 2023
回到页面顶部