前端网站页面模板可以自己做主题的软件
- 作者: 五速梦信息网
- 时间: 2026年03月21日 09:55
当前位置: 首页 > news >正文
前端网站页面模板,可以自己做主题的软件,什么网站可以教做面包,联想官方服务网站LoRA: Low-Rank Adaptation Abstract LoRA 论文的摘要介绍了一种用于减少大规模预训练模型微调过程中可训练参数数量和内存需求的方法#xff0c;例如拥有1750亿参数的GPT-3。LoRA 通过冻结模型权重并引入可训练的低秩分解矩阵#xff0c;减少了10,000倍的可训练参数#xf…LoRA: Low-Rank Adaptation Abstract LoRA 论文的摘要介绍了一种用于减少大规模预训练模型微调过程中可训练参数数量和内存需求的方法例如拥有1750亿参数的GPT-3。LoRA 通过冻结模型权重并引入可训练的低秩分解矩阵减少了10,000倍的可训练参数并降低了3倍的GPU内存使用量同时在性能上与完全微调持平并且没有额外的推理延迟。更多信息请访问 LoRA GitHub。 LoRA GitHub。
LoRA低秩适配的主要优势
共享预训练模型LoRA 通过冻结预训练模型并高效替换低秩矩阵实现任务间的切换。提升效率LoRA 仅需训练注入的小型低秩矩阵减少高达三倍的硬件需求。无推理延迟通过将可训练的矩阵与冻结的权重融合不会引入额外的推理延迟。兼容性LoRA 与诸如前缀微调的许多方法兼容增加了应用中的灵活性。
术语和约定
这一部分介绍了 LoRA 论文中使用的术语和约定包括自注意力机制中的投影矩阵 W q W_q Wq, W k W_k Wk, W v W_v Wv, 和 W o W_o Wo以及预训练权重矩阵 W 0 W_0 W0和梯度更新 Δ W \Delta W ΔW。
完全微调过程
在完全微调过程中模型初始化为预训练的权重 Φ 0 \Phi_0 Φ0并通过梯度下降反复更新为 Φ 0 Δ Φ \Phi0 \Delta \Phi Φ0ΔΦ以最大化条件语言建模的目标函数 max Φ ∑ ( x , y ) ∈ Z ∑ t 1 ∣ y ∣ log ( P Φ ( y t ∣ x , y t ) ) \max{\Phi} \sum{(x,y) \in \mathcal{Z}} \sum{t1}^{|y|} \log \left( P_{\Phi} (yt | x, y{t}) \right) Φmax(x,y)∈Z∑t1∑∣y∣log(PΦ(yt∣x,yt))
其中一个主要缺点是对于每个下游任务必须学习一组不同的参数 Δ Φ \Delta \Phi ΔΦ其维度等于 ∣ Φ 0 ∣ |\Phi_0| ∣Φ0∣。因此如果预训练模型很大例如 GPT-3 具有约 1750 亿参数存储和部署多个独立的微调模型将非常具有挑战性甚至不可行。
为了解决这一问题本文采用了一种更加高效的参数化方法任务特定的参数增量 Δ Φ Δ Φ ( Θ ) \Delta \Phi \Delta \Phi (\Theta) ΔΦΔΦ(Θ) 被进一步编码为一个更小的参数集 Θ \Theta Θ其维度 ∣ Θ ∣ ≪ ∣ Φ 0 ∣ |\Theta| \ll |\Phi0| ∣Θ∣≪∣Φ0∣。优化 Δ Φ \Delta \Phi ΔΦ 的任务变为优化 Θ \Theta Θ max Θ ∑ ( x , y ) ∈ Z ∑ t 1 ∣ y ∣ log ( p Φ 0 Δ Φ ( Θ ) ( y t ∣ x , y t ) ) \max{\Theta} \sum{(x,y) \in \mathcal{Z}} \sum{t1}^{|y|} \log \left( p_{\Phi_0 \Delta \Phi (\Theta)} (yt | x, y{t}) \right) Θmax(x,y)∈Z∑t1∑∣y∣log(pΦ0ΔΦ(Θ)(yt∣x,yt))
在随后的部分中我们提出了一种使用低秩表示来编码 Δ Φ \Delta \Phi ΔΦ这既高效又节省内存。对于 GPT-3 这种 1750 亿参数的预训练模型可训练的参数 Θ \Theta Θ 数量可以小至 Φ 0 \Phi_0 Φ0 的 0.01%。
低秩参数化更新矩阵
神经网络包含许多执行矩阵乘法的全连接层。这些层中的权重矩阵通常具有全秩。在适应特定任务时Aghajanyan 等2020指出预训练语言模型具有低“内在维度”即便在投影到较小子空间时仍能有效学习。
基于此我们假设权重的更新在适应过程中也具有低“内在秩”。对于预训练权重矩阵 W 0 ∈ R d × k W_0 \in \mathbb{R}^{d \times k} W0∈Rd×k我们通过低秩分解 W 0 Δ W W 0 B A W_0 \Delta W W_0 BA W0ΔWW0BA 来约束其更新其中 B ∈ R d × r B \in \mathbb{R}^{d \times r} B∈Rd×r 和 A ∈ R r × k A \in \mathbb{R}^{r \times k} A∈Rr×k且秩 r ≪ min ( d , k ) r \ll \min(d, k) r≪min(d,k)。
在训练过程中 W 0 W_0 W0 被冻结且不接受梯度更新而 A A A 和 B B B 包含可训练参数。注意 W 0 W_0 W0 和 Δ W B A \Delta W BA ΔWBA 使用相同输入进行乘法运算输出向量按坐标相加。对于 h W 0 x h W_0 x hW0x我们修改后的前向传递变为 h W 0 x Δ W x W 0 x B A x h W_0 x \Delta W x W_0 x BA x hW0xΔWxW0xBAx
我们在图 1 中展示了这种重新参数化方法。我们为 A A A 使用随机高斯初始化并将 B B B 初始化为零因此在训练开始时 Δ W B A \Delta W BA ΔWBA 为零。然后我们通过 α r \frac{\alpha}{r} rα 缩放 Δ W x \Delta W x ΔWx其中 α \alpha α 是与 r r r 成比例的常数。当使用 Adam 优化时调节 α \alpha α 与调节学习率基本相同。因此我们简单地将 α \alpha α 设置为我们尝试的第一个 r r r且不进行微调。此缩放有助于减少在变化 r r r 时重新调节超参数的需要。
这种高效的低秩方法大大减少了参数数量使得在保持性能的同时可以进行高效微调。
更广泛的微调
LoRA 引入了一种更广泛的微调方法允许我们仅训练预训练参数的一部分而不需要积累梯度更新以使权重矩阵在适应过程中达到全秩。通过设置 LoRA 秩 ( r ) 等于预训练权重矩阵的秩我们可以大致恢复完整微调的表现能力。随着可训练参数的增加LoRA 训练逐渐逼近原始模型的训练结果而其他基于适配器的方法则趋向于一个无法处理长输入的简单 MLP。
无额外推理延迟
LoRA 在推理过程中没有额外的延迟。我们可以显式计算并存储 W W 0 B A W W_0 BA WW0BA并像往常一样执行推理。当需要切换任务时我们可以通过减去 B A BA BA 并添加不同的 B ′ A ′ BA B′A′ 来恢复 W 0 W_0 W0这是一个高效的操作几乎没有内存开销。这确保了在推理过程中不会引入比微调模型更多的延迟。
应用于 Transformer 的 LoRA
原则上我们可以将 LoRA 应用于神经网络中的任何权重矩阵子集以减少可训练参数的数量。在 Transformer 架构中自注意力模块中的四个权重矩阵 ( W_q ), ( W_k ), ( W_v ), ( Wo ) 以及 MLP 模块中的两个矩阵被视为维度为 ( d{\text{model}} \times d{\text{model}} ) 的单一矩阵尽管输出维度通常会被切割成注意力头。我们将研究仅限于适配注意力权重冻结 MLP 模块因此它们不会在下游任务中被训练以简化操作并提高参数效率。我们进一步研究了不同类型的注意力权重矩阵在 Transformer 中的适配效果详见 [Section 7.1]。至于适配 MLP 层、LayerNorm 层以及偏差权重的实证研究则留待未来工作。
实际的优势与限制
最显著的优势来自于减少了内存和存储的使用。对于使用 Adam 优化器训练的大型 TransformerVRAM 使用量可以减少最多 ( \frac{2}{3} )如果 ( r \ll d{\text{model}} )因为我们无需存储被冻结参数的优化器状态。在 GPT-3 175B 模型上我们将训练期间的 VRAM 消耗从 1.2TB 降低到 350GB。对于 ( r 4 )并且仅适配查询和值投影矩阵检查点大小减少了约 ( 10,000 \times ) 从 350GB 到 35MB 。这使得我们可以使用显著更少的 GPU 进行训练并避免 I/O 瓶颈。另一个好处是我们可以通过仅交换 LoRA 权重而不是所有参数在任务之间动态切换。这使得可以创建许多定制模型这些模型可以在机器上即时进行切换存储在 VRAM 中的预训练权重不会被影响。在 GPT-3 175B 的训练过程中与全微调相比LoRA 还观察到了 25% 的加速因为我们不需要为大多数参数计算梯度。
LoRA 也有其局限性。例如将输入批量化到不同的任务并非易事。如果在前向传递中选择将 ( A ) 和 ( B ) 吸收到 ( W ) 中以消除额外的推理延迟这会有一定的限制。尽管可以选择不合并权重并动态选择 LoRA 模块以在延迟不重要的场景中使用批量样本。 该表表 4展示了在三个任务上应用各种适应方法的 GPT-3 175B 的性能WikiSQL、MultiNLI-matchedMNLI-m和 SAMSum。主要度量指标是 WikiSQL 和 MNLI-m 上的验证准确率以及 SAMSum 上的 Rouge-1/2/L 得分。
以下是结果的详细说明 GPT-3 (FT)完全微调是基准方法。它对整个 175B 参数进行训练并在 WikiSQL 上达到 73.8% 的准确率在 MNLI-m 上达到 89.5%在 SAMSum 上的 Rouge-1/2/L 得分为 52.0/28.0/44.5。 GPT-3 (BitFit) 仅训练了 14.2M 参数在 MNLI-m 上表现相似91.0%但在 WikiSQL 上的准确率略低71.3%。Rouge 得分也比完全微调略低。 GPT-3 (PreEmbed) 和 GPT-3 (PreLayer) 代表基于预训练嵌入和层的方法。这些方法在 WikiSQL 和 MNLI-m 上的表现相对较差尤其是 PreEmbed 模型与 LoRA 和完全微调相比得分显著较低。 GPT-3 (Adapter) 方法相较于完全微调训练的参数较少。高秩适配器AdapterH在 WikiSQL 上达到 73.2% 的准确率在 MNLI-m 上达到最高的 91.5% 准确率并且在 SAMSum 上表现良好53.2⁄29.0/45.1。 GPT-3 (LoRA)LoRA低秩适应与其他方法相比表现特别出色。LoRA 仅训练了 4.7M 参数在 WikiSQL 上达到接近完全微调的准确率73.4%在 MNLI-m91.7%和 SAMSum53.8⁄29.8⁄45.9上表现更好。对于 37.7M 参数的 LoRA 模型WikiSQL 得分更高74.0%。
总结
LoRA 在大多数任务上都优于其他适应方法甚至在某些任务上超过了完全微调的性能同时训练的参数远远少于完全微调。LoRA 减少了大规模微调的需求同时在测试任务上仍能达到较高的准确率和 Rouge 得分。
相关文章
-
前端网站开发教程wordpress图片主题 瀑布流经典
前端网站开发教程wordpress图片主题 瀑布流经典
- 技术栈
- 2026年03月21日
-
前端如何做双语网站做网站坚持原创文章有什么好处
前端如何做双语网站做网站坚持原创文章有什么好处
- 技术栈
- 2026年03月21日
-
前端如何做能切换语言的网站深圳网站制作必找祥奔科技
前端如何做能切换语言的网站深圳网站制作必找祥奔科技
- 技术栈
- 2026年03月21日
-
前端学校网站开发视频大型高迸发网站用什么语言做
前端学校网站开发视频大型高迸发网站用什么语言做
- 技术栈
- 2026年03月21日
-
前端怎么做电商网站东莞 企业网站建设
前端怎么做电商网站东莞 企业网站建设
- 技术栈
- 2026年03月21日
-
前端做网站的兼职网页制作的软件有哪些
前端做网站的兼职网页制作的软件有哪些
- 技术栈
- 2026年03月21日






