当先锋百科网

首页 1 2 3 4 5 6 7

766e776fce9e72817a7f37b76db0ba39.gif

©PaperWeekly 原创 · 作者 | 苏剑林

单位 | 科学空间

研究方向 | NLP、神经网络

在《Transformer升级之路:无限外推的ReRoPE?》中,笔者提出了 ReRoPE 和 Leaky ReRoPE,诸多实验结果表明,它们能够在几乎不损失训练效果的情况下免微调地扩展 LLM 的 Context 长度,并且实现了 “longer context, lower loss” 的理想特性,此外跟 NTK-aware Scaled RoPE 不同的是,其中 ReRoPE 似乎还有表现出了无限的 Context 处理能力。

总之,ReRoPE 看起来相当让人满意,但美中不足的是会增加推理成本,具体表现为第一步推理需要算两次 Attention,以及后续每步推理需要重新计算位置编码。本文试图通过在训练中逆用 Leaky ReRoPE 的方法来解决这个问题。

4caf89c2fd0a59c516654a6eae3bd6bb.png

回顾

让我们不厌其烦地重温一下:RoPE 形式上是一种绝对位置编码,但实际达到的效果是相对位置编码,对应的相对位置矩阵是:

e4fd49d2049a1038c9da804dd37d2b85.png

为了在保留局域性的同时避免 Long Context 导致位置越界问题,Leaky ReRoPE 将推理阶段的相对位置矩阵改为:

5af27251d3896b97a4d85d11a54abc16.png

其中w是窗口宽度,大概取训练长度的 到 , 用来调节可处理的最大长度,一般使得 不超过训练长度的一半为佳。至于 ReRoPE,则是直接取了 的极限:

235206939b4dc9fe78fffbe29359b6b6.png

609f0360ee5a37a1fc400833a02d94ac.png

反转

从上一篇的评测结果来看,作为一种免训练的外推方案,ReRoPE 和 Leaky ReRoPE 的效果都是相当让人满意的,既没有损失训练长度内的效果,又实现了 “Longer Context, Lower Loss”。唯一美中不足的是,它们的推理速度相比原本的 Attention 来说是变慢的,并且目前尚不兼容 Flash Attention 等加速技术。

那么,能否反过来呢?ReRoPE/Leaky ReRoPE 在训练阶段是正常速度的 RoPE,推理阶段则是变慢了,反过来也就是说:能否让训练阶段变慢,让推理阶段变为常规的 RoPE?

可能有读者疑惑:为什么会想要让训练阶段变慢?训练成本不是更高吗?这是因为 ReRoPE/Leaky ReRoPE 是一种长度外推方法,场景是 “Train Short, Test Long”,训练速度的变慢是短期的、可控的,推理速度的变慢才是长期的、难顶的,所以相较之下,如果是同等程度的变慢的话,我们更愿意将变慢的部分放到训练阶段。

让我们再看一下 Leaky ReRoPE,它在训练阶段的相对位置矩阵是步长为 1 的式(1),推理阶段则在 w 的窗口内使用 1 的步长,在窗口外使用 的步长,即式(2),换句话说,差别是推理阶段窗口外使用更小的步长。如果我们反过来,在训练阶段使用 Leaky ReRoPE,并让它窗口外的步长大于 1,那么按照“推理阶段窗口外使用更小的步长”的原则,推理阶段窗口外是否就可以使用等于 1 的步长,从而退化为 RoPE了?

笔者将以上想法称之为 “InvLeaky ReRoPE(Inverse Leaky ReRoPE)”。事不宜迟,我们马上做实验测试。

7d1ba0322c34f60933af7eed65164fd8.png

实验

继续之前的 “GAU + Deep Norm + Tiger + 语言模型”实验组合,在训练阶段使用 的 Leaky ReRoPE,在推理阶段使用正常的 RoPE,测试结果如下:

45885119fffeab946b40f6d746bdcc63.png

其中 是指 RoPE 的频率底数从 10000 换成了 80000。可以看到,“Leaky ReRoPE → RoPE”的InvLeaky ReRoPE 虽然效果上不如 “RoPE → ReRoPE/Leaky ReRoPE”,但依然胜过了 HFWA,并且由于推理阶段是常规的RoPE,可以套用现成的加速技术,因此依然是有相当竞争力的。

此外,笔者对 等参数做了一些简单的调参,发现最优解基本上就是以上两个组合了,即“ 设置为‘扩展倍数的 2 倍的倒数’、 设置为训练长度的 可选乘以扩展倍数”。

那么,InvLeaky ReRoPE 对训练速度有多大影响呢?在上述实验中,模型是 1 亿参数量,训练长度是 512,每 1000 步的训练时间从 330 秒增加到了 350 秒,增加不到 10%,当然这里边有 GAU 的原因,因为 GAU 是单头的注意力,本就比多头注意力快。如果多头注意力或者训练长度更长的话,增加幅度应该会大一些,但目测应该不超过 50% 都是可以接受的。

b6463fdd6c3f5c940f4a2fe458017a00.png

小结

本文提出了 Leaky ReRoPE 的“逆用”做法,通过在训练阶段使用更大步长的 Leaky ReRoPE,使得推理阶段可以退回常规的 RoPE,从而可以保持推理速度不变,实验结果显示这种做法还是有一定的竞争力的。

更多阅读

ee9cb32b9185d7be56801976bd10c5cf.png

26d5085570738a58b8c341918eec854c.png

91e85a682a4d4660acac39a7842ea4d0.png

a396abcdf7123933014ef267c8e0c533.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

2184f99197451f6ac2597f25feaf013a.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

6902ab37f14d83646a2cfea14fdf2961.jpeg