示例库#
本节展示 FluxVLA 当前支持的示例集合,说明如何将框架应用于不同场景,并体现其在实际使用中的效率与可扩展性。示例库会持续更新,逐步覆盖更多场景与任务,以展现 FluxVLA 的多样性与可扩展性。
本节内容结构如下:
VLM Fine-tuning:以 Qwen3 0.6B LLM 和 Qwen3 2B VLM 的 Vision Encoder 组合而成的 Qwen3-VL 0.6B 为例,使用 Cambrain-7M Dataset 对 VLM 进行 Fine-tuning。详见 VLM 训练与评测示例。
LIBERO Simulation Training:在 LIBERO 仿真 Data 上对 Vision-Language-Action Model 进行 Training 与 Evaluation 的完整流程(以 libero_10 为例),涵盖环境配置、Training 与 Evaluation。详见 LIBERO 仿真数据训练。
Pi0.5 Model Training:对 π0.5(PI05FlowMatching)进行 Training/Fine-tuning 的示例,包含从 Data 输入到 Evaluation 可视化的全流程(涵盖 LIBERO 仿真 Data 与私有 Real-robot Data Training)。详见 π₀.₅ 模型训练。
GR00T-N1.5 Model Training:对 GR00T-N1.5 进行 Training/Fine-tuning 的示例,涵盖 LIBERO 仿真 Data Training 与私有 Real-robot Data Training,包含 Data 准备、Algorithm 配置与 Evaluation 可视化。详见 GR00T-N1.5 模型训练。
温馨提示:
运行示例前请先完成环境安装与数据准备(参见「快速开始」)。
示例库将随版本迭代增加更多场景(如更多 SOTA 模型、RoboCasa 等仿真器及真机强化学习示例)。
如需某一示例的详细步骤与配置,请点击左侧导航进入对应小节。