当前位置:首页 > 系统教程 > 正文

零基础搭建Lerobot SO-ARM100机械臂并完成自定义抓取任务(Windows/Linux全攻略:从环境配置到私有数据集微调)

零基础搭建Lerobot SO-ARM100机械臂并完成自定义抓取任务(Windows/Linux全攻略:从环境配置到私有数据集微调)

关键词:Lerobot, SO-ARM100机械臂, ACT算法, 私有数据集微调

零基础搭建Lerobot SO-ARM100机械臂并完成自定义抓取任务(Windows/Linux全攻略:从环境配置到私有数据集微调) Lerobot  SO-ARM100机械臂 ACT算法 私有数据集微调 第1张

1. 项目简介

欢迎来到史上最详细的LerobotSO-ARM100机械臂零基础教程!无论你是机器人爱好者、学生还是开发者,本文将从零开始,手把手教你如何在Windows和Linux系统上搭建Lerobot开发环境,使用Pi0/ACT算法录制私有数据集,并完全离线(不上传HuggingFace)进行微调训练,最终让机械臂完成自定义抓取任务。全程无需任何深度学习基础,小白也能轻松上手!

2. 硬件准备

要开始实践,你需要准备以下硬件:

  • SO-ARM100机械臂:一款高性价比的六轴协作机械臂,支持Lerobot生态。
  • RGB摄像头(如Intel RealSense D415或普通USB摄像头):用于视觉采集。
  • 控制电脑:Windows 10/11 或 Ubuntu 20.04/22.04,建议配备NVIDIA显卡(用于加速训练)。
  • USB数据线:连接机械臂和电脑。

3. 环境搭建(Windows & Linux)

3.1 安装基础工具

无论哪个系统,都需要安装Python 3.10+、Git和虚拟环境工具。以下是具体步骤:

Windows用户:

  1. 下载Python 3.10安装包(官网python.org),安装时勾选“Add Python to PATH”。
  2. 安装Git for Windows(git-scm.com),使用默认选项。
  3. 打开命令提示符(cmd),输入 python --version 确认安装成功。

Linux用户(Ubuntu):

  1. 打开终端,运行 sudo apt update && sudo apt install python3.10 python3-pip git -y
  2. 验证安装:python3 --version

3.2 创建虚拟环境并克隆Lerobot仓库

为了隔离项目依赖,强烈建议使用虚拟环境:

Windows(cmd):

python -m venv lerobot_envlerobot_env\Scripts�ctivategit clone https://github.com/huggingface/lerobot.gitcd lerobotpip install -e .

Linux:

python3 -m venv lerobot_envsource lerobot_env/bin/activategit clone https://github.com/huggingface/lerobot.gitcd lerobotpip install -e .

至此,Lerobot基础环境已准备就绪。如需GPU加速,请额外安装torch与cuda版本(参考pytorch官网)。

4. 录制私有数据集(不上传HuggingFace)

Lerobot提供了便捷的数据录制脚本。首先连接SO-ARM100机械臂并确保摄像头正常工作,然后执行以下命令录制你的专属数据集:

python lerobot/scripts/record_episodes.py   --robot so100   --fps 30   --num_episodes 10   --output_dir ./my_dataset

参数说明:--robot so100指定机械臂类型,--fps为采集帧率,--num_episodes为采集回合数,--output_dir为本地保存路径。录制过程中,你可以手动控制机械臂演示抓取动作,系统将同步保存图像和关节数据。录制完成后,数据集将完全存储在本地./my_dataset文件夹中,默认不会上传至HuggingFace,确保数据隐私。

5. 私有数据集微调训练

现在我们使用录制好的本地数据集,基于ACT算法进行微调。Lerobot支持多种算法,Pi0/ACT是其中的高效策略。训练前需要准备配置文件,这里我们直接使用命令行指定本地路径:

python lerobot/scripts/train.py   --dataset.root ./my_dataset   --policy.type act   --output_dir ./outputs/my_act_model   --train.batch_size 8   --train.epochs 50   --device cuda  # 若无GPU可改为cpu,但训练极慢

关键点:--dataset.root指向本地数据集;--policy.type act选择ACT算法;--output_dir指定模型保存位置。训练过程中,所有检查点、日志和最终模型都会保存在本地,绝不联网上传。你可以通过调整--train.epochs控制训练轮数,一般50轮即可获得不错的效果。

6. 完成自定义抓取任务

训练完成后,加载模型并进行推理,让机械臂执行抓取:

python lerobot/scripts/eval.py   --policy.path ./outputs/my_act_model/checkpoints/latest.pth   --robot so100   --episodes 5   --seed 42

该命令会启动机械臂,使用最新模型连续执行5次抓取任务。你可以观察机械臂是否成功抓取目标物体,并根据效果调整训练参数或录制更多数据。至此,你已经完成了从零搭建、录制私有数据、本地微调再到实际部署的全流程!

7. 常见问题与技巧

  • 数据集质量:录制时尽量保持动作平滑、覆盖多种场景,能显著提升模型泛化能力。
  • 硬件兼容:SO-ARM100需按照官方文档烧录固件并配置串口权限(Linux下需加入dialout组)。
  • 离线训练:本文所有步骤均不依赖HuggingFace网络,通过--offline或本地路径实现私有化微调。

© 2025 零基础Lerobot教程 | 关键词:Lerobot, SO-ARM100机械臂, ACT算法, 私有数据集微调