Libero-训练自己的模型#
本章节介绍如何基于 Libero 数据与配置训练自己的模型。
准备工作#
完成环境安装(参考 :doc:
installation/index)。完成数据准备(参考 :doc:
data/index)。准备训练配置文件与预训练权重(可选)。
快速开始#
我们以单机多卡在LIBERO-10微调Pi0.5模型为例。 首先,准备好Pi0.5预训练模型权重,或从 HuggingFace 下载预训练权重。
还需要准备LIBERO-10的LeRobot格式数据,请参考数据准备文档获取下载方式。 然后设置环境变量,需要根据实际GPU数量修改MLP_WORKER_GPU:
export MLP_WORKER_GPU=8
export MLP_WORKER_NUM=1
export MLP_ROLE_INDEX=0
export MLP_WORKER_0_HOST=localhost
export MLP_WORKER_0_PORT=29500
如果训练时不需要 wandb 日志记录,可设置:
export WANDB_MODE=disabled
修改configs/pi05/pi05_paligemma_libero10_full_finetune.py中的数据集路径
...
freeze_vision_backbone=False,
pretrained_name_or_path= # noqa: E251
'./checkpoints/pi05_libero/model.safetensors', # 修改预训练权重路径为实际路径
name_mapping={
...
...
datasets=dict(
type='ParquetDataset',
data_root_path= # noqa: E251
'./datasets/libero_10_no_noops_lerobotv2.1', # 修改数据集路径为实际路径
transforms=[
...
使用 scripts/train.sh 启动训练:
bash scripts/train.sh \
configs/pi05/pi05_paligemma_libero10_full_finetune.py \
work_dirs/pi05_paligemma_libero10_full_finetune # 修改为希望的训练产物保存路径
训练产物#
训练完成后,work_dirs/... 下通常包含:
checkpoint_*.pt模型文件日志与配置备份文件
更多训练参数细节请参考 :doc:vla。