书生·浦语大模型–第四节课笔记–XTuner大模型单卡低成本微调

在这里插入图片描述

Finetune简介

增量预训练和指令跟随
在这里插入图片描述
通过指令微调获得instructed LLM
在这里插入图片描述

指令跟随微调

一问一答的方式进行
在这里插入图片描述
对话模板
在这里插入图片描述
计算损失
在这里插入图片描述

增量预训练微调

不需要问题只需要回答,都是陈述句。计算损失时和指令微调一样
在这里插入图片描述

LoRA QLoRA

不需要太大的显存开销。增加旁路分支Adapter。
在这里插入图片描述
比较:

  • 全参数微调:整个模型加载到显存中,所有模型的参数优化器也要加载到显存中
  • LoRA微调:模型也需要加载到显存中,但是参数优化器只需要LoRA部分
  • QLoRA微调:加载模型时就4bit量化加载,参数优化器还可以在CPU和GPU之间调度,显存满了可以在内存里跑
    在这里插入图片描述

XTuner介绍

在这里插入图片描述

快速上手

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

8GB显卡玩转LLM

动手实战环节

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
THE END
分享
二维码
 

)">
< <上一篇
下一篇>>