线性变换器其实就是快权重编程器

Linear Transformers Are Secretly Fast Weight Programmers

我们展示了90年代早期线性化自注意力机制和快速权重控制器(fast weight controllers)的形式等价性,其中“慢”神经网络通过梯度下降学习,通过基本编程指令序列来编程另一个网络的“快权重”,这些指令序列是自发明激活模式(self-invented activation)的加法外积(今天称为键和值)。这种快速权重编程器(FWP)学习操作有限内存的内容并与之动态交互(learn to manipulate the contents of a finite memory and dynamically interact with it)。我们推断最近线性化的softmax注意变体的内存容量限制,并用类似增量规则的编程指令(delta rule-like programming instruction)替换纯粹的加法外积,这样FWP可以更容易地学习去纠正从键到值的当前映射。FWP还学习计算动态变化的学习率。我们还提出了一个新的核函数来线性化注意力机制,平衡简单性和有效性。我们对合成检索问题以及标准机器翻译和语言建模任务进行了实验,证明了我们的方法。

1.引言

Transformers(Vaswani et al.,2017)在无数序列处理任务中取得了令人印象深刻的成果,包括机器翻译、语言建模(al-Rfou et al.,2019;Dai et al.,2019;Baevski&Auli,2019;Radford et al.,2019)和问答(Devlin et al.,2019),以前由递归神经网络控制的领域(Graves,2013;Bahdanau等人,2015)。

Transformers的核心部件是自注意力机制(Cheng et al.,2016;Parikh et al.,2016;Lin et al.,2017),该机制最近连接到现代Hopfield网络(Ramsauer et al.,2021;Krotov&Hopfield,2016;Demircigil et al.,2017)。它扩展了一种注意形式(Bahdanau et al.,2015)最初用于补充递归神经网络,例如(Hochreiter&Schmidhuber,1997)。在放弃递归属性的同时,时间轴上的所有计算都可以并行化。然而,这也带来了缺点:自注意力计算与序列长度成二次比例,而模型的内存呈线性增长。因此,从业者被迫将上下文窗口限制在合理的大小,这这反过来又使得捕获长期依赖关系变得不可能。

最近的工作提出了“线性Transformers”,具有恒定的内存和相对于序列长度的线性时间复杂度(Katharopoulos et al.,2020;Choromanski et al.,2021;Peng et al.,2021;Shen et al.,2018)。这种复杂度的降低主要是由于softmax的线性化(见第3.2节)。

在这里,我们强调这一系列线性Transformers和90年代的快速权重控制器或快速权重编程器(FWP)的形式等价性(Schmidhuber,1991;1992;1993;AI博客,2021)(除了归一化)。此类FWP的内存包含键值关联,FWP可以通过可微基本指令序列(也称为更新规则)学习重编程它们(键值关联),这些指令是FWP发明的键值之间的加法外积。

该观点允许我们推导线性Transformers和类似模型的存储容量限制。当序列长度超过存储容量时,该模型可能最终处于容量过剩(overcapacity)状态(在第4.1节中深入讨论).为了在这种情况下正常运行,模型应学会与内存内容(memeory,编者注:内存还是记忆)动态交互,并有选择地决定保留哪些键值关联以及删除哪些键值关联。纯粹的加法指令可能不适合此目的。因此,受FWPs最新工作的启发(Schlag等人,2021年),我们引入了一种改进的编程指令,类似于著名的纠错增量规则(error-correcting delta-rule)(Widrow&Hoff,1960)。

此外,Transformers的softmax线性化技术仍处于探索阶段。现有技术要么非常简单(Katharopoulos et al.,2020),要么在数学上解释得很好,但很复杂(Choromanski et al.,2021;Peng et al.,2021)我们提供了一个全面的比较,并提出了一种简单有效的新方法。

我们在我们自己的合成检索数据集(第6.1节)、标准WMT14英语到德语机器翻译任务(第6.2节)和Wikitext-103(Merity et al.,2017)语言建模任务(第6.3节)2上展示了所提出方法的好处。

2.快速权重编程背景

这里回顾了快速权重编程器(FWP)的概念,然后将其与第3节线性Transformers变体联系起来。

标准神经网络中,权值在训练后保持不变,而激活不同,激活随测试时的输入而变化。快速权重的总体思想是使权重也可变且与输入相关。这一概念被称为突触调制(von der Malsburg,1981),是神经网络中变量绑定的一种方法(参见Greff等人(2020)最近的调查),或动态连接(Feldman,1982)。Von der Malsburg将有效权重定义为传统的、与上下文无关的慢权重和快速变化的、与上下文相关的快权重的(乘法)叠加。Hinton&Plaut(1987)在模型再训练的场景中研究了两组权重(加法)叠加的网络,两组权重学习率不同。然而1991年之前,没有一个网络通过梯度下降来快速计算另一个网络或自身的快速权值存储的变化。

最近,FWPs的概念也以不同的名称重新讨论(Ba等人,2016;Schlag&Schmidhuber,2017),例如超网络(Ha等人,2017;Perez等人,2018;Galanti&Wolf,2020)、动态塑性(Miconi等人,2018;2019)、动态卷积(Klein等人,2015;Noh等人,2016;Jia等人,2016)或lambda网络(Bello,2021)用于包括元学习在内的应用(Munkhdalai&Yu,2017;Munkhdalai&Trischler,2018;Munkhdalai等人,2019;Kirsch&Schmidhuber,2020)。FWPs最近还通过显式机制改进了记忆模型,以便于替换不推荐的信息和更新关联(Schlag&Schmidhuber,2018年;Schlag等人,2021年)。

3.与Transformers的关系

Ba等人(2016年)已经指出了基于外积的FWP变体(Schmidhuber,1993年)和注意(Bahdanau等人,2015年)之间的关系。Katharopoulos等人(2020年)分析了线性化Transformers。我们回顾了这些推导,强调了Transformers和前一节FWP之间的关系。

3.1.没有Softmax的自注意力是一个快速权重编程器

现在,如果我们去掉等式7中的softmax,我们得到:

我们可以重写公式4-7,使其与公式1-3直接关联,其中激活函数σ为恒等函数,无查询投影:

3.2. 线性化自注意力

不像3.1节中那样删除softmax,已有的一些工作引入一些技术来线性化softmax(Tsai等人,2019年),该技术已被证明可以提高长序列自注意力的计算效率(Katharopoulos等人,2020年;Choromanski等人,2021年;Peng等人,2021年)。

通过显式写softmax,公式(7)可以写为:

使用外积表示法,分子类似于3.1节中不用softmax的形式:

线性Transformers(Katharopoulos等人)的正向计算可写成:

这是一个使用归一化的快权重编程器(第2节)。因此,线性Transformers变体的核心是基于外积的快权重编程器。

4. 分析和改进作为快权重编码器的线性变换器

将线性Transformers变量视为快速权重编程器为我们提供了两个见解,我们在这项工作中研究了这两个见解:它们作为关联记忆的容量限制(第4.1节),以及它们无法编辑先前存储的关联(第4.2节)。

4.1. 容量限制

直觉

张量积表示理论。

连接主义研究的早期工作调查了使用分布式表示作为存储符号结构的手段。一项极具影响力的工作是基于张量积的变量绑定机制(Smolensky,1990)。一种结构化符号系统的张量积表示法(TPR),由一组变量和值组成,这些变量和值由所谓角色(role)和填充(filler)向量的外积构成。这些术语在我们的上下文中直接转化为键和值。公式17中的快速权重记忆是此类表示(二阶张量)的最基本形式。因此,Smolensky工作中讨论的许多结果转移到我们的模型中。特别是,Smolensky(1990)的定理3.3和3.1更正式地讨论了上一段直观描述的串扰(crosstalk)和检索错误。

然而,我们也注意到一个重要的区别:Smolensky(1990)的经典TPR是用符号结构的先验知识构建的。相比之下,我们自1991年以来的FWP,包括最近的FWP(Schlag&Schmidhuber,2018),学习构建这种表示所涉及的所有向量。

4.2. 改进FWP的编程指令

归一化。

在上面的等式中,我们检索的值没有应用归一化。通过3.2节的推导,可以获得简单的归一化,即通过引入累加机制:

分别替换公式20和公式25,得到:

通过关注到,任何矩阵向量运算(如等式25)的输出是矩阵列的加权和,其中权重是向量的分量,直观地理解了这种归一化的一般结果;因此,如果向量分量之和为1,则可以将该操作视为对矩阵列的注意力。我们在附录A.2中对我们的FWP提供了进一步的解释和精确的含义。我们将此方法称为总和归一化(sum normalisation)。

5.    线性注意函数

5.1. 性质

5.2. Katharopoulos的线性注意

Katharopoulos等人(2020年)建议使用简单的元素级ELU+1函数(Clevert等人,2016年):

5.3. FAVOR+

5.4. 确定性无参数投影(DPFP)

图1说明了此函数。四维空间的元素显示为四个彩色表面的z分量。该图显示了2d平面中的每个向量如何在4d空间中具有单个非零分量,并将输入空间平均分割为四个区域,这四个区域将在投影空间中正交。

最后,我们注意到Choromanski等人(2021年)的经验表明,用ReLU替换公式32中的exp通常可以提高模型性能。虽然这一结果在理论上并不合理,但它支持我们的DPFP的设计,该设计旨在实现稀疏性和正交性。

6    实验结果

现在,我们展示了我们在综合检索问题(第6.1.1节和第6.1.2节)、机器翻译(第6.2节)和语言建模(第6.3节)上的实验结果。

6.1. 合成环境

我们说明了线性注意的能力问题(第4.1节)以及我们的新更新规则(第4.2节)对两个综合问题的有效性。

在这两种设置中,我们的玩具问题包括在使用其中一个键进行查询时,从随机采样的键值关联序列中检索正确的值。关键的是,查询是在序列的末尾给出的,这样模型在处理输入时不会意识到它。为了成功,模型必须学会在不受干扰的情况下将观察到的关联存储在其记忆中。

6.1.1.设置1:测试容量

所有模型均以32的小批量进行训练,直到评估损失降至0.001以下,或直到1000个步骤没有进展。图2中显示了每个模型和每个S的最佳验证集性能(学习曲线见附录D.1)。唯一键的数量最初为S=20,然后增加20直到S=600。比较以下模型:Softmax、线性注意、随机特征数为64、128和512的FAVOR+,DPFP-ν,ν∈ {1, 2, 3}。

6.1.2.设置2:比较更新规则

在第二个设置中,我们比较更新规则的变化。与设置1不同,将使用替换和序列长度L=2S对键和值进行采样。因此,在同一序列中,可以多次将多个键重新分配给新值。要检索的预期值是与查询关联的最新值。使用e非常新的键,与此键关联的先前值已弃用,需要模型更新其有限大小的内存。更新与键关联的值的能力对于将上下文特定的值绑定到键至关重要。

我们使用DPFP-1作为φ函数。序列长度固定为40,具有20个唯一键和值。虽然该设置不超过DPFP-1的容量,但我们的结果与容量状态无关(参见附录D.2中不同S和φ的结果)。我们将提出的快速加权内存编程指令与Sec的标准化进行了比较。4.2(此处由我们表示)到三条基线:Sec的总和更新规则。3(总和规则)和先前更新规则的两个变体(Schlag等人,2021):Schlag(2021)和Schlag(2021)与DPFP。

Schlag(2021)只是Schlag等人(2021)移植到该设置的模型(即没有LSTM层)。Schlag(2021)既没有φ函数,也没有Sec的和归一化项。4.2. 相反,它使用tanh非线性作为其关键表示。作为一种消融,我们用我们的DPFP-1替换它,但我们不使用Sec的归一化项。4.2,我们称之为带有DPFP的Schlag(2021)。

图3显示了学习曲线。它们表明,我们的新更新规则优于所有其他变体。正如预期的那样,基线总和更新规则失败。

6.2. 机器翻译实验

这里我们比较标准机器翻译任务中的φ函数。我们将线性Transformers(Katharopoulos等人,2020年)、Performer(Choromanski等人,2021年)和φ函数DPFP(第5.4节)与常规Transformers进行比较,以补充之前的比较,例如Tay等人(2021年)。我们使用标准WMT14英语到德语翻译数据集和标准数据设置(Ott等,2018;Vaswani等,2017)。我们采用了Ott等人(2019)(见附录E)的配方,并在三个V100 GPU上对Vaswani等人(2017)的“大”型号进行了约4天的训练。我们对所有模型使用完全相同的训练配置,无需特定于模型的超参数调整。我们只改变Performer中的模型超参数m和DPFP模型中的ν。

表1显示了BLEU评分结果(Papineni等人,2002年;Post,2018年)。当采样数m足够大时(对于ddot=512,我们有m=256),Performer与基本Transformer一样好。事实上,当dkey=64时,m的建议值为ddot log(ddot)=266。当ddot相对较小时,我们的DPFP模型优于线性Transformers和Performer;在简单性和性能之间提供了良好的折衷。

6.3. 语言模拟实验

玩具实验设置2(第6.1.2节)说明了更新规则的效果。现在我们的目标是确认它在大词汇量单词级语言建模任务中的有效性,并进一步研究它的潜力。

实验装置。我们的更新规则应该在具有足够长上下文依赖关系的数据集上进行评估。我们使用标准WikiText-103(Merity et al.,2017)数据集。WikiText-103由维基百科的长篇文章组成;该训练集包含约28K篇文章,共103M个连续单词。这将产生约3600个单词的上下文文本块。验证集和测试集也包含类似的长依赖项,分别有218 K和246 K个单词用于60篇文章。词汇量约为268k个单词。

我们将训练数据分成L字长的段(即反向传播跨度)。除非另有说明,我们在训练期间独立处理这些部分。对于评估,我们使用1的批量大小,并使用大小为L的滑动窗口浏览文本,只考虑计算复杂度的最后一个位置(第一段中所有位置都被评估的情况除外)。这通常适用于有限环境下的Transformers(Al Rfou等人,2019年)。附录F提供了进一步的实验细节。

我们的新更新规则的有效性。

我们首先在两种配置中评估更新规则。在小配置中,我们将模型维度(与键、值和查询相同)D设置为128,将训练和评估上下文长度L设置为256。我们注意到D=H∗ ddot,其中H是头数。H设置为8。前馈层尺寸为2048。在所有配置中,层数为16。在介质配置中,我们设置D=256和L=384。这两种配置都代表了容量过剩(overcapacity)。我们评估了线性Transformers(Katharopoulos等人,2020年)和Performer(Choromanski等人,2021年)。然而,为了保持比较简单,我们通过正确选择投影尺寸(中小型配置中分别为m=8和m=16),将Performer的容量(第5.3节)设置为线性Transformers的容量,即使这限制了性能。这里不包括DPFP,因为在这两种配置中,即使是最小的ν值也能提供足够的容量。在这里,我们研究了容量过剩(overcapacity)情况下更新规则的影响(关于包括DPFP在内的非产能情况下的实验结果,请参见附录D.3)。所有型号都可以在不到四天的时间内使用两个V100 GPU进行训练。我们使用delta更新规则将线性Transformer称为delta网络。表2显示了困惑的结果。在这两种配置中,我们的更新规则比使用总和更新规则的模型提供了令人信服的改进。

我们还进行了一项消融研究,以测试绝对位置编码和额外注意力归一化的效果(第4.2节)。表3显示了结果。在所有情况下均使用总和归一化(第4.2节):否则,模型会发散。相比之下,当不应用额外的注意力归一化时,可以获得更好的困惑。我们还观察到不需要绝对位置编码,从而证实了先前工作的结果(Irie等人,2019a)。

我们提出的所有方法都在“线性Transformers”的框架内。因此,就复杂度而言,不需要讨论任何变化,复杂度在空间上是恒定的,在时间上是线性的w.r.t.序列长度。然而,我们修改的更新规则引入了一些额外的计算。在我们的实现中,使用和不使用增量更新规则的线性Transformer的挂钟时间和内存需求(对于较小的LM设置)分别为:63K和66K字/秒,以及14和13GB。因此,额外的资源需求微不足道。由于我们为这些线性Transformer使用定制CUDA内核,因此它们比PyTorch中实现的常规Transformer更快,PyTorch每秒处理33K个字,需要17GB内存。DPFP和Performer模型(对于附录中具有较大ddot的表5)的速度分别为63K和57K字/秒。由于采样逻辑,Performer的速度较慢,这也激发了我们的DPFP。

不截断上下文。

给定恒定的空间要求,我们可以为线性Transformers提供任意步数的输入。为了正确评估模型处理任意长序列的能力,使训练与评估模式一致至关重要(Irie等人,2019b)。在训练期间,我们将快速重量内存从一个训练段转移到下一个训练段,同时仍将反向传播范围限制在该段内。我们训练一个Delta网络,既不使用位置编码也不使用注意力归一化(表3中的最佳设置)。由于累加器如第2.2.2节所示爆炸,因此消除Delta网的注意力归一化至关重要。4.2,而对于线性Transformers,移除它会导致更严重的困惑,超过1600。表4显示了相应的结果。Delta网络与具有有限上下文窗口的最佳模型(表3)相比产生了轻微的改进,这不同于基线线性变换器模型,该模型具有原始和更新规则,该规则会中断。我们还在我们的中型配置中训练TransformersXL,作为专门为此用例设计的基线模型(Dai等人,2019年;Rae等人,2020年)。我们通过更改Transformer XL的内存和目标段长度,使用不同的状态大小对其进行评估(更多详细信息,请参见附录F)。当使用较大的状态大小(较大的注意窗口)评估TransformersXL时,Delta网络的性能与TransformersXL的性能不匹配。然而,当我们考虑到状态大小时(表4),我们观察到Delta网络在状态大小较小的情况下表现非常好,这在一些实际应用中是一个关键属性(Irie et al.,2020)。这些结果有望为今后在可运行无限步数的替代Transformers模型上开展工作。

7.结论

我们强调线性化自注意力和快速权重编程器(FWPs,1991)之间的联系,后者通过自我发明的关键和价值模式之间的外积序列来编程快速权重内存。FWP视角允许讨论线性注意的联想内存容量限制,并引入替代的可微基本编程指令,FWP可以使用该指令动态编辑内存,类似于著名的delta规则,但这样FWP就可以通过梯度下降来学习明智地使用规则。我们还提出并讨论了一种新的提高注意力的方法。在合成和真实语言任务上的实验证明了我们的建议的有效性。FWP透视图为研究具有有限内存的Transformers更好的编程指令和设计开辟了新的途径。

A.更新规则推导

A.1。更新规则

这里我们提供了从公式23到公式24的中间步骤

A.2。键和归一化

通过考虑一个热向量{e(1),…,e(i),…,e(dkey)},它构成了R dkey的笛卡尔基,任何矩阵W∈ R d值×dkey可以写成

.   在此视图中,W的任何更新都可以写入每个W(i)的更新。这一观点允许我们推导Sec的总和归一化。4.2. 为此,我们首先推导w(i)的更新。

给定任意权重W,我们考虑通过使用SEC的更新规则添加新的关联(k,v)来将其更新为W0。4.2(省略β):

通过将等式43中的k替换为笛卡尔基中的表达式k=X dkey i=1 kie(i)和ki∈ R、 我们获得:

现在,将W替换为其等式41的表达式:

因此,按列更新为:

我们可以在公式48中替换,以获得

在等式51中,正项v上的权重ki通常不等于负项Pdkey j=1 kikj上的总权重。我们可以通过引入归一化来强制平衡这些权重

如果ki不是零,我们得到

这与我们在第节中引入的总和归一化相对应。4.2 .

B.与彭等人(2021年)的正式比较

与我们的工作同时,Peng等人(2021年)提出了以下选通更新规则

这是由递归神经网络中的门控机制驱动的(Hochreiter&Schmidhuber,1997)。相比之下,我们的公式24的更新规则

为了说明这两个更新规则之间的相似性和关键性差异,我们考虑了由两个关联(k1,v1)和(k2,v2)构造的快速权矩阵W,即我们假设k1和k2是正交的,并且我们省略了ω。现在我们考虑通过添加一个新的关联(K3,V3)来更新W到W0,其中K3=K2。根据Peng等人(2021年)的更新规则,我们得出:

但是,它也会修改或在最坏的情况下删除与键k1关联的值:

至关重要的是,它保持与k1关联的值不变:

清单1是DPFP-ν(等式37)的一个简单PyTorch实现,它由两个串联和一个元素乘法组成。

D.其他实验结果

在本节中,我们提供了额外的实验结果,由于篇幅限制,我们无法将这些结果包含在主要论文中。

D.1。综合任务设置1

图4显示了具有600个唯一键和值的合成设置1(不替换)的学习曲线。可以在我们的GitHub存储库中找到用于生成此类数字的脚本

D.2。综合任务设置2

图5是设置2的容量图,其中唯一键和查询的数量不断增加(类似于图2,将1与y轴的对数刻度分开)。我们没有在这个图中包括FAVOR+,因为它与我们的更新规则相结合,导致在这个设置中没有数字。

D.3。语言建模

以秒计。6.3,当模型处于容量过剩(overcapacity)状态时,我们评估了更新规则。在这里,我们提供了一个额外的语言建模实验,该实验评估了我们的更新规则在非容量过剩(overcapacity)场景中的好处。这也允许我们将DPFP包括在评估中。我们在较小的设置(D=128,L=256)下对Performer和DPFP进行训练,m=16,ν=1,结果两种情况下的ddot=256。表5显示了困惑的结果。首先,我们观察到,具有总和更新规则的Performer和DPFP基线模型的性能并不优于表2中的线性Transformer基线。事实上,与合成检索任务相比,语言建模受容量问题的影响可能更小,因为它可能不需要精确的检索。其次,我们观察到,即使在这种情况下,我们的更新规则也比总和更新规则基线改善了线性注意的两种变体。这表明了我们的更新规则对快速权重编程器的一般好处。我们注意到,DPFP模型的改进比Performer的改进更大。这与表2类似,在表2中,我们的更新规则比Performer更能改善确定性线性变换器。最后,我们注意到,我们还通过分别设置ν=2和m=32,尝试了ddot增加的DPFP和Performer模型。虽然这将ddot增加了两倍,但这对这种语言建模设置没有好处。

E.机器翻译实验的细节

我们在FAIRSEQ tookit中实现了不同的功能(Ott等人,2019年)。实验中使用的Transformers架构在原始Transformers论文中被称为big(Vaswani et al.,2017):该模型在编码器和解码器中各有6层,隐藏层大小为1024,16个注意头,4096维前馈层,使用32 K字节对编码子字单元(Sennrich等人,2016年)。FAIRSEQ提供了相应型号的训练配置(Ott等人,2018年),我们针对我们的基础设施进行了调整。我们在三个GPU上对我们的模型进行了训练,使用每个GPU多达3584个token的批量大小,并在45个历史时期的16个批次上累积梯度,并根据验证BLEU分数选择了最佳模型。在表1中,我们直接报告了不同ddot值的BLEU;表6提供了转换fromPerformer的超参数m或DPFP到ddot中的ν。

F.语言模拟实验的细节

实现说明。我们的所有实现都基于PyTorch(Paszke等人,2019年)。我们的基础语言建模代码是使用Dai等人(2019年)的公共代码开发的对于Transformer XL作为起点。对于φ函数,我们移植了我们在翻译实验中使用的相同实现。对于更新规则的实现,我们修改了Katharopoulos等人公开提供的线性Transformer的CUDA内核。(2020年)。我们注意到,快速权重向后传递的自定义实现对于语言建模至关重要。自动微分生成的简单向后计算将存储每个时间步的快速权重,这可能会快速达到GPU内存限制。自定义实现确保我们只需存储一组weights通过重新计算计算反向过程中每个时间步的梯度所需的快速权重(由于计算快速权重所涉及的操作相当便宜,因此仍然保持时间效率)。

实验细节。

在这里,我们提供额外的实验细节来补充Sec的描述。6.3. 对于小型和中型配置,我们分别使用96和56个序列的批量大小,并对大约120和70个时期进行训练。在这两种情况下,我们都采用10%的Dropout率(Hanson,1990;Srivastava et al.,2014),并使用Adam Optimizer(Kingma&Ba,2014)进行训练,初始学习率为0.00025,学习率为2000。有关更多详细信息,请读者参考我们的代码。对于Transformer XL(表4)的实验,我们使用与我们的模型相同的反向传播范围(即媒体配置中的384个字)对其进行训练。该模型使用384的内存和目标段长度进行训练。表4中具有不同状态大小的模型是通过在评估时使用不同的Transformer XL内存段长度获得的。状态大小为1.05 M、2.10 M和6.29 M的模型分别通过使用64、128和384的内存和目标长度获得。状态大小为0.13 M的模型使用的内存长度为15,目标长度为1。与其他型号一样,批量大小为1用于评估TransformersXL。表4中的状态大小计算如下。线性Transformers和三角网的每层状态大小为:头数(此处为8)×每头键尺寸的快速权重矩阵大小(此处为32)×每头值尺寸(此处为32)。这将产生8192的总大小。Transformer XL的每层状态大小为:内存段长度×目标段长度×(总键维度,此处256+总值维度,此处256)。通过将每层状态大小乘以所有模型的16层数量,我们获得了表4中报告的总状态大小。

THE END
0.机器翻译能达60个语种3000个方向,近日又夺全球五冠,这家牛企是谁?比赛的主要宗旨是评估机器翻译最新发展水平,传播通用测试数据集和公共训练数据,改进机器翻译评估评测方法。此次大赛共发布中文-英语、捷克语-英语、法语-德语、德语-英语、因纽特语-英语、泰米尔语-英语、日语-英语、普什图语-英语、波兰语-英语、俄语-英语、高棉语-英语等11个语言对、22个语言方向的机器翻译评测任务。jvzquC41pg}t0|npc0ipo7hp1e532;6/233198iqe/oj|wj|zv713?69:0yivvq
1.技术实践神经机器翻译不同于前面的越南语翻英语是基于已经处理好的语料,我们找的中英翻译用语料在训练和验证等使用前均需要先做预处理。根据GNMT作者在github上的推荐,我们直接修改repo上英德翻译预处理的文件 (wmt16_en_de.sh) 以实现相关的预处理如下: 数据集如果是sgm格式的先转换成raw text格式 jvzquC41yy}/lrvk|joykw3eqo5bt}nengy0ojhjkpkutjsunczjqw
2.docs/datasets.md·PaddlePaddle/PaddleNLPWMT14ENDE WMT14 EN-DE 经过BPE分词的英语-德语翻译数据集 paddlenlp.datasets.load_dataset('wmt14ende') 机器同传 数据集名称简介调用方法 BSTC 千言数据集:机器同传,包括transcription_translation和asr paddlenlp.datasets.load_dataset('bstc', 'asr') 文本生成 数据集名称简介调用方法 Poetry 中文诗歌古典文集jvzquC41ikzfg7hqo1vbfmqgrcjenn4RcfjmgWQR1drpd8igxgrpr8iqeu5ec}fugvy/om
3.如何从零开始开发神经机器翻译系统·MachineLearningMastery看一下,如果你想要更多的分步教程,在使用文本数据时充分利用深度学习方法。 如何在 Keras 中开发神经机器翻译系统BjörnGroß,保留一些权利。 教程概述 本教程分为 4 个部分;他们是: 德语到英语翻译数据集 准备文本数据 训练神经翻译模型 评估神经翻译模型 jvzquC41yy}/mjsenq{e0ls1crgdjnhp1or.ojxvgt.|q43;7818>
4.AttentionIsAllYouNeed翻译我们只进行了少量的实验来选择dropout,注意力(attention)和残差(residual)(第5.4节),在第22节开发数据集上的学习速率和束大小(beam size),所有其他参数从英语到德语的基础翻译模型保持不变。在推理过程中,我们将最大输出长度增加到输入长度+300。我们使用beam size 为21和 jvzquC41yy}/lrfpuj{/exr1r1j99o;29dgc5;
5.LANGUAGETRANSLATIONWITHTORCHTEXT三年一梦利用torchtext类来处理一个著名的数据集,包含了一些英文和德文句子。利用该数据处理sequence-to-sequence模型,通过注意力机制,可以将德语翻译成英语。基于this tutorialfrom PyTorch community memberBen Trevettand was created bySeth Weidmanwith Ben’s permission.在文末你会用torchtext类:jvzquC41yy}/ewgnqiy/exr1mkth/uuu1r524@7286=/j}rn
6.奇点临近,新研究使用数据多样性再次大幅提升神经网络翻译性能|一然后他们利用向后模型来翻译训练集的目标句子,获得了更多补充原始训练数据集的源句。他们还对向前的模型进行了类似的训练,以使用各种目标句子集来扩充训练数据集。之后,他们使用增强的数据再次训练了模型,并得到了最终的翻译模型。 这一新模型在WMT’14英语至德语的翻译任务中获得了有史以来最高的BLEU分数:30.7。它jvzquC41yy}/z~jskw4dqv487;=2997731747?58279
7.大语言模型常见任务及评测数据集汇总(一):70余个数据集!WMT’16 English-German:另一个广泛使用的英文-德语翻译数据集,包含了约40亿个词对。 WMT’17 English-Chinese:英文-中文翻译数据集,包含了约20亿个词对。 IWSLT:国际工作坊口语翻译评测(International Workshop on Spoken Language Translation)提供的数据集,包含多个语言对的翻译数据,其中包括英文-中文。 jvzquC41dnuh0lxfp0tfv8gpi€j|r4ctvodnn4fgvgjn|4359863:92
8.机器翻译方向数据集合集!机器翻译数据集本文将为您介绍经典、热门的数据集,希望对您在选择适合的数据集时有所帮助。 1 QUAK 发布方: Upstage·高丽大学 发布时间: 2022 韩英合成机器翻译质量预测数据 (韩英神经机器翻译的一个合成质量估计数据集,QUAK) 是指韩语句子和英语机器翻译句子,并且每个句子的机器翻译结果的质量是OK/这是一个机器翻译质量预测模型jvzquC41dnuh0lxfp0tfv8P{|{e2;:>1ctzjeuj1fgzbkux136744=98:
9.102个模型40个数据集,这是你需要了解的机器翻译SOTA论文为了探索当前最佳的 NMT 模型,我们选了几个常见的数据集,并看看在 Transformer 之后,还有哪些激动人心的研究成果。我们发现不同的 NMT 模型都有其侧重的数据集,但最常用的还是 WMT 英法数据集或英德数据集。除此之外,我们也特意找了中英数据集,看看适合翻译中文的模型又是什么样的。 jvzquC41fg|fnxugt0gmk‚zp0eun1jwvkerf1A6:646
10.学习常见相关公开数据集汇总(图像处理相关数据集、自然语言处理相关有很多种方式可以使用这些数据集。比如:你可以使用它们来锻炼你的各种深度学习方法技巧;你可以使用它们来磨练你的技能,了解如何识别和构建每个问题,思考独特的使用案例和公布你的新发现! 数据集分为三类:图像处理相关数据集,自然语言处理相关数据集和语音处理相关数据集。如下: jvzquC41dnuh0lxfp0tfv8|gkzooa<>7:;:678ftvkimg8igvcomu864:79869:
11.多语言图像描述数据集——Multi30k:开启多模态翻译新纪元教育与评测:作为标准数据集,Multi30k可用于评估不同算法性能,同时也是教学过程中引入机器学习概念的优秀案例。 项目特点 多语言支持:涵盖英语、德语、法语和捷克语,促进了多语言间的相互翻译研究。 精细的数据处理:附带的预处理工具和子词模型降低了入门门槛,加快了研究进程。 jvzquC41dnuh0lxfp0tfv8lkvdrpih5228;0c{ykenk0fnyckny03<>779=97
12.【校级一流本科立项课程】“德语翻译实践(1)”课程——知行合一自2004年北航设立德语本科专业以来,《德语翻译实践(1)》就是面向德语专业三年级本科生开设的专业核心课程。该课程已进行了十余年的教学实践,积累了较丰富的课堂教学经验。课程内容主要以对德语经典文本的试译与讲评为主。 课程将翻译实践放在首位,重视实用性与学术性文本的翻译选材。通过高标准的翻译文本的选择,增强教jvzquC41pg}t0kzcc0kew7hp1ktgq86227568;=40jzn
13.有声翻译(英语德语互译版)相似应用下载相关专题 最新专题 德语翻译app合集 英汉互译翻译软件免费 中英互译翻译app 德语翻译app 翻译英汉互译软件有哪些 翻译英汉互译app 翻译英汉互译软件 英语有声读物app推荐 有声翻译下载 中文德语翻译app下载 英语德语app下载 英汉互译翻译app 翻译英汉互译软件下载 中英互译翻译软件推荐 中英互译翻译软jvzquC41o0}bpmtwlkg/exr1crvt1>>48384