ChatGPT / AI新闻聚合
16:01 · 2023年3月29日 · 周三
炼丹!训练 stable diffusion 来生成LoRA定制模型
via
掘金 人工智能
(author: 雨田君的记事本)
Telegraph
炼丹!训练 stable diffusion 来生成LoRA定制模型
LoRA,英文全称Low-Rank Adaptation of Large Language Models,直译为大语言模型的低阶适应,这是微软的研究人员为了解决大语言模型微调而开发的一项技术。 比如,GPT-3有1750亿参数,为了让它能干特定领域的活儿,需要做微调,但是如果直接对GPT-3做微调,成本太高太麻烦了。 LoRA的做法是,冻结预训练好的模型权重参数,然后在每个Transformer(Transforme就是GPT的那个T)块里注入可训练的层,由于不需要对模型的权重参数重新计算梯度,所以,大大减少了需要训练的计算量。…
Home
Tags
Powered by
BroadcastChannel
&
Sepia
oaibest.com
2023-2025
[email protected]