Libero-训练自己的模型#

本章节介绍如何基于 Libero 数据与配置训练自己的模型。

准备工作#

  • 完成环境安装(参考 :doc:installation/index)。

  • 完成数据准备(参考 :doc:data/index)。

  • 准备训练配置文件与预训练权重(可选)。

快速开始#

我们以单机多卡在LIBERO-10微调Pi0.5模型为例。 首先,准备好Pi0.5预训练模型权重,或从 HuggingFace 下载预训练权重。

还需要准备LIBERO-10的LeRobot格式数据,请参考数据准备文档获取下载方式。 然后设置环境变量,需要根据实际GPU数量修改MLP_WORKER_GPU:

export MLP_WORKER_GPU=8
export MLP_WORKER_NUM=1
export MLP_ROLE_INDEX=0
export MLP_WORKER_0_HOST=localhost
export MLP_WORKER_0_PORT=29500

如果训练时不需要 wandb 日志记录,可设置:

export WANDB_MODE=disabled

修改configs/pi05/pi05_paligemma_libero10_full_finetune.py中的数据集路径

    ...
    freeze_vision_backbone=False,
    pretrained_name_or_path=  # noqa: E251
    './checkpoints/pi05_libero/model.safetensors',  # 修改预训练权重路径为实际路径
    name_mapping={
            ...

    ...
    datasets=dict(
            type='ParquetDataset',
            data_root_path=  # noqa: E251
            './datasets/libero_10_no_noops_lerobotv2.1',  # 修改数据集路径为实际路径
            transforms=[
                ...

使用 scripts/train.sh 启动训练:

bash scripts/train.sh \
    configs/pi05/pi05_paligemma_libero10_full_finetune.py \
    work_dirs/pi05_paligemma_libero10_full_finetune # 修改为希望的训练产物保存路径

训练产物#

训练完成后,work_dirs/... 下通常包含:

  • checkpoint_*.pt 模型文件

  • 日志与配置备份文件

更多训练参数细节请参考 :doc:vla