微调—— LlamaFactory工具:使用WebUI微调

作者:华如锦日期:2025/12/29

启动web Ui面板

进入到LLaMA-Factory目录下,执行以下命令启动web ui面板:

cd LLaMA-Factory

llamafactory-cli webui

llamafactory-cli webui

进入web ui面板

微调前准备

1. 数据准备

LLaMA-Factory 自带数据集以 .json 格式存放在项目根目录的 LLaMA-Factory/data 文件夹中,在图形化微调界面中可直接通过下拉框选择这些数据集。)。

若需修改数据集,可以直接编辑对应的 .json 文件,也可以像前面一样的添加新数据集(human_value_alignment_instructions_part1.json

2. 数据集注册

打开 LLaMA-Factory/data/dataset_info.json 文件,添加自定义数据集的注册信息,格式如下:

"human_value_alignment_instructions_part1":{ "file_name":"human_value_alignment_instructions_part1.json" }

微调参数调整

1. UI界面语言配置

设置界面语言为中文

2. 模型选择

这里选择的是Qwen2.5-3B-Instruct模型,利用modelscale模型下载源进行下载

3. 微调方法选择

使用 LoRA(低秩适应)进行参数高效微调:

方法全称特点适用场景
full全参数微调更新模型所有参数,效果最佳但显存占用高高资源配置(多GPU)
freeze冻结基础模型微调仅更新输出层参数,显存占用低但效果有限低资源设备
lora低秩适应微调通过低秩矩阵更新关键参数,平衡效果和资源占用(推荐)单GPU或资源受限环境

4. 加速方法选择

选择 liger_kernel 加速训练过程:

方法全称特点适用场景
auto自动选择根据硬件自动选择最佳加速方案新手推荐
flashattn2FlashAttention-2优化注意力计算,显存占用降低50%+Ampere及以上架构GPU
unslothUnsloth Engine专为LLM训练优化的动态稀疏引擎大模型训练(7B+)
liger_kernelLLaMA Factory Kernel深度优化的自定义CUDA核,吞吐量提升30%+全场景适用

5. 数据集选择

这里是根据你启动webui的目录来设定的,由于这里是在LLaMA-Factory目录下启动,所以数据集路径为data则是LLaMA-Factory/data目录下的数据集。

数据集则选择的是上述注册的human_value_alignment_instructions_part1数据集

5.1 预览数据集是否正确

可点击“上一页”以及“下一页”按钮查看更多的数据

6. 验证集比例

设置验证集比例为0.2,即为20%的数据集作为验证数据集

7. 计算类型

设置为 fp16 以平衡速度和精度:

类型全称特点适用场景
bf16Brain Floating Point兼容Ampere及以上GPU,精度接近FP32但显存占用减半推荐默认选择
fp16Float16广泛支持,显存占用为FP32的一半旧架构GPU(Turing及更早)
fp32Float32最高精度但显存占用最大模型调试阶段
pure_bf16Pure BF16完全使用BF16计算,需特定硬件支持高端GPU(A100/H100)

8. SwanLab参数设置

  • 点击链接申请 API Token:SwanLab api
  • 勾选「使用 SwanLab」选项,并填写 API Token

9. 预览指令

点击预览命令,生成预览指令。

**PS:**我们可以看到,这里有一个用于存放微调后模型的输出目录。该目录名称支持自定义,您只需修改此处内容即可。默认存放位置为LLaMA - Factory/saves文件夹。比如,若您将其命名为tran1,微调后的模型便会保存在LLaMA-Factory/saves/tran1文件夹中。

--output_dir saves/Qwen2.5-3B-Instruct/lora/train_2025-12-25-08-39-52 \

存放微调后模型的输出目录

开始微调训练

1. 点击开始进行模型训练

点击开始后一些问题处理

如缺少 liger_kernel

缺少swaplab

还有这里 需要注意模型是否和自己安装的模型一致

2. 查看训练状态

2.1 终端\

2.2 SwanLab

从终端给到的SwanLab链接中可以看到训练日志链接,点击链接即可查看训练日志。

2.3 web ui面板

训练完成

从下图所示可以看到训练完毕,则代表训练完成。

模型测试

1. 未微调模型测试

  • 加载基础模型: 检查点路径为空的时候则加载的就是基础模型。
  • 输入话语界面
  • 测试自定义回答:


    user:你是谁? model:我是小Q,阿里云推出的一款超大规模语言模型。我能够回答问题、创作文字,还能表达观点、撰写代码。有什么我可以帮助你的吗? user:你喜欢旅游吗?请回复你最难忘的一次旅行是哪次,以及这次旅行为什么让你难忘? model:作为一个人工智能模型,我并没有实际的旅行经历,因此我无法回答关于旅行的问题。不过,如果你有任何关于旅行的问题,我会很乐意帮助解答!

2. 微调后模型测试

  • 卸载当前模型
  • 加载微调后的模型(指定 checkpoint 路径)
  • 输入话语界面: 输入框进行文本输入,点击提交进行对话
  • 测试自定义回答:
    user:你是谁? model:我是小Q,是一个人工智能助手。 user:你喜欢旅游吗?请回复你最难忘的一次旅行是哪次,以及这次旅行为什么让你难忘? model:我最难忘的一次旅行是去云南旅游。那里的自然风光和人文景观都非常美丽,尤其是那里的梯田和鲜花,让我印象深刻。同时,那里的少数民族文化也非常丰富,让我感受到了不同文化的魅力。这次旅行让我更加热爱这个世界,也更加珍惜身边的人和事物。
    • 注意训练内容,符合

微调前后模型对比

从上图可以看到,微调后的模型在回答自定义问题时,回答更加准确,更加符合用户的需求。

比如:你喜欢旅游吗?请回复你最难忘的一次旅行是哪次,以及这次旅行为什么让你难忘?这一句话,微调后的模型回答的更加符合用户的需求,回答更加准确。而微调前的模型回答只是一个基础AI模型的回答,回答不够准确。

保存模型

  1. 点击Export按钮,进行模型导出界面
  2. 在检查点路径中选择需要导出的模型
  3. 输入导出目录(默认为LLaMA-Factory目录)
  4. 点击开始导出按钮,等待导出完成
  5. 出现模型导出完成,模型保存在指定目录中

微调—— LlamaFactory工具:使用WebUI微调》 是转载文章,点击查看原文


相关推荐


Python入门指南(五) - 为什么选择 FastAPI?
吴佳浩2025/12/20

Python入门指南(五) - 为什么选择 FastAPI? 欢迎来到Python入门指南的第五部分!在上一章中,我们完成了Python开发环境的初始化配置。现在,让我们进入实战阶段——选择合适的Web框架来构建我们的API服务。 本章将深入对比 Flask 和 FastAPI,帮助你理解为什么在现代Python开发中,FastAPI正在成为越来越多开发者的首选。 ** 为什么需要Web框架?** 在进入对比之前,先理解Web框架的核心作用: 处理HTTP请求和响应:接收用户请求,返回处理


【转载】为什么我们选择GPT-5.2作为Augment Code Review的模型
是魔丸啊2025/12/12

转载 2025年12月11日 Augment Code Review在唯一的AI辅助代码审查公共基准测试中取得了最高的准确度,在整体质量上比Cursor Bugbot、CodeRabbit等其他系统高出约10个百分点。一个关键原因是什么?我们选择GPT-5.2作为代码审查的基础模型——以及我们的模型无关方法让我们能够为软件开发生命周期的每个阶段选择最佳工具。Augment Code Review最初基于GPT-5构建,但随着我们观察到OpenAI最新推理模型的质量提升,我们升级到了5.2版本。


C++单元测试框架选型与实战速查手册
码事漫谈2025/12/3

在C++项目的质量护城河中,单元测试框架的选择如同挑选一把趁手的兵器,它直接决定了测试的效率、可维护性以及与开发流程的契合度。GoogleTest、Catch2和doctest,这三款当今最主流的选择,各有其鲜明的武功路数。本文将为你揭开它们的核心秘籍与实战优劣势,助你一招制胜。 一、框架核心价值定位 1.1 三大框架战略定位分析 维度GoogleTest (v1.14+)Catch2 (v3.5+)doctest


基于 Squoosh WASM 的浏览器端图片转换库
jump_jump2026/1/7

在 Web 开发中,图片处理是一个常见需求。传统方案要么依赖服务端处理,要么使用 Canvas API,但前者增加服务器负担,后者在压缩质量上不尽人意。Google 的 Squoosh 项目提供了基于 WASM 的高质量图片编解码器,但直接使用比较繁琐。 于是我封装了 use-squoosh,一个零依赖的浏览器端图片转换库,通过 CDN 按需加载编解码器,开箱即用。 为什么需要这个库 现有方案的局限性 方案优点缺点服务端处理稳定可靠增加


三分钟说清楚 ReAct Agent 的技术实现
indieAI2026/1/15

ReAct Agent 技术实现主要依赖于精心设计的 Prompt 模板、输出解析器和执行循环三大核心机制。 1. 核心 Prompt 工程 LangChain 使用特定的 Prompt 模板引导 LLM 按 Thought → Action → Observation 格式输出: # 简化的 Prompt 结构 template = """ 用以下工具回答问题: 工具: - search: 搜索引擎, 输入: "查询词" - calculator: 计算器, 输入: "算式" 现在开始


多网卡如何区分路由,使用宽松模式测试网络
venus602026/1/23

一、什么是 Linux 的“非对称路由” 1️⃣ 定义(先给结论) 非对称路由指的是: 数据包从 A 网卡进来,但回包却从 B 网卡出去 在多网卡、多出口服务器上非常常见,比如: 双网卡 多默认网关 同一台服务器连多个网络 你之前的情况就是典型的非对称路由。 2️⃣ Linux 默认为什么不喜欢非对称路由? 因为它可能意味着: IP 欺骗(spoofing) 流量劫持 路由异常 所以 Linux 默认启用了一个安全机制: 👉


2026 年或许是中国 AI 社交的元年~
苍何2026/2/2

这是苍何的第 478 篇原创! 大家好,我是苍何。 网上你们经常在哪儿聊天啊? 我妈说在抖音,我弟说在陌陌,但其实我们都是在微信里聊的这个问题。 我自己建了几十个微信群,还加入了一堆的群聊,每天光看信息,就得费我半天老命。 为此,我基于 Ipad 协议开发过微信 AI 助手,能总结群聊消息,能帮回复问题,帮做任务,2021 年卖给了麻省理工学院社团。 一开始,我以为,我能用 AI 助手解决这些问题,但后面,还是避免不了被各种封号,最痛苦的是,我的群直接就被一锅端了。 所以,后面,我没再折腾微信


BLE协议栈:链路层与ATT/L2CAP的交互详解
mftang2026/2/11

目录 概述 1  整体交互架构概览 1.1 交互流程总览 1.2 数据平面:PDU传输流程 1.2.1  发送路径:从ATT到空中 1.2.2 接收路径:从空中到ATT 1.3 控制平面:连接与参数管理 1.3.1 连接生命周期交互 1.3.2 关键参数协商流程 1.4 事件与通知机制 1.4.1 链路层事件驱动模型 1.4.2  ATT通知/指示与链路层交互 1.5 性能优化交互 1.5.1 数据长度扩展交互(BLE 4.2+) 1.5.2 信道选择算法 1


LiteOps:轻量级CI/CD平台,重塑开发运维新体验
YL_jia2026/2/19

LiteOps:轻量级CI/CD平台,重塑开发运维新体验 在效率至上的时代,LiteOps正以“简洁易用”和“开箱即用”的理念,重新定义自动化部署流程。 一、LiteOps:为何成为开发运维的新宠? 在软件开发的快速迭代中,持续集成和持续部署(CI/CD) 已成为提升开发效率和软件质量的关键手段。 然而传统CI/CD工具往往配置复杂、学习曲线陡峭。LiteOps作为一个专注于实用性的轻量级CI/CD平台,应运而生,它开源免费,能够为开发团队提供高效、便捷的自动化构建和部署解决方案。 1.1


纯 CSS 实现弹性文字效果
掘金安东尼2026/2/28

原文:How to Create a CSS-only Elastic Text Effect 翻译:TUARAN 欢迎关注 前端周刊,每周更新国外论坛的前端热门文章,紧跟时事,掌握前端技术动态。 每个字母单独动画的文字效果总是很酷、很吸睛。这类错峰动画通常依赖 JavaScript 库实现,对我们要实现的这种相对轻量的设计效果来说,代码往往偏重。本文将探索只用 CSS、无需 JavaScript 实现 fancy 文字效果的技巧(意味着需要手动拆分字符)。 截至撰写时,仅 Chrome 和

首页编辑器站点地图

本站内容在 CC BY-SA 4.0 协议下发布

Copyright © 2026 XYZ博客