| typora-root-url | ./ |
|---|
感谢原作者开源:https://github.com/lianghongzhuo/PointNetGPD
PointNetGPD (ICRA 2019, arXiv) is an end-to-end grasp evaluation model to address the challenging problem of localizing robot grasp configurations directly from the point cloud.
简单介绍一下PointNet的代码流程:
-
离线阶段
- 候选抓取采样与打分: 针对YCB objects Dataset 中的CAD模型,利用传统采样方法(默认Antipods采样)对进行候选抓取姿态(夹爪6D姿态)采样,并通过Force Closure结合 GWS 方法对所检测出的姿态进行打分,生成候选抓取数据集存起来备用;
- 点云原始数据生成: YCB objects Dataset 提供了一些物体的CAD模型,以及某些视角下这些物体的激光深度图;但是我们在训练网络时候,使用的是点云数据,因此,这里提前要把某些视角下的深度图转换为点云数据,以备后续使用;
- PointNet模型训练: 利用生成的某候选夹爪姿态(步骤1.i),结合CAD模型的多视角点云(步骤1.ii),提取出来该候选抓取姿态下夹爪闭合区域内的点云;将夹爪闭合区域内的点云以及该抓取姿态的分数送入PointNet中进行训练;
-
在线阶段
- 抓取采样: 从点云中直接采样候选抓取姿态 ,并剔除掉与桌面碰撞、与场景点云碰撞的非法抓取;
- 打分: 提取剩余的抓取姿态夹爪内部的点,进一步剔除掉不合理的数据之后,将点集送入训练好的PointNet网络中打分;
- 排序: 将候选的抓取按照分数从高到低排序,输出分数最高的抓取。
- 作者的实验视频
- 本人的复现实验视频(未加速)
在实验中发现,gpd效果还是很不错的;但是夹爪经常撞到目标物体上,这是受到了手眼标定的精度以及panda夹爪构型的影响(panda夹爪的深度比较浅,最大张开距离也比较小)
代码中数据集的生成部分比较混乱,这里解释一下具体数据集的生成逻辑:
YCB数据集主要分为两个部分,一部分是数据集物体的CAD模型,一部分是各个视角下物体的rgbd深度图,因此在前期的准备过程中,主要分为两个独立的部分:
- 对YCB数据集的CAD模型进行候选抓取姿态采样,获取候选grasp数据集;
- 对YCB数据集中各个视角的深度图像进行计算,生成该视角下的点云数据集;
之后两部分的计算结果将会被放在同一个文件夹中,Dataloader将会对该文件夹进行处理,并计算出样本数据送入PointNet中进行训练。
以下是稍微具体一些的解释图:
原代码中
离线阶段:使用Antipod算法对YCB 的CAD模型进行候选grasp pose采样,并结合夹爪数学模型和模型视角点云来生成夹爪内部点云,进而输入PointNet中训练;
在线阶段:使用基于点云的gpg算法,对场景点云进行候选grasp pose采样,并结合夹爪数学模型和场景点云来生成夹爪内部点云,进而输入PointNet中进行预测。
然而,实际代码中两个阶段使用的夹爪数学模型不一致,个人感觉统一模型会好一些,于是本代码中统一dataloader中相同的数学模型;
在使用前,clone的代码文件夹需要放在如下的code文件夹中:
mkdir -p $HOME/code/
cd $HOME/code/-
Make sure in your Python environment do not have same package named
meshpyordexnet. -
确保已经安装了ROS以及相机预处理相关的程序包(https://github.com/Hymwgk/point_cloud_process)
-
Clone this repository:
cd $HOME/code git clone https://github.com/hymwgk/PointNetGPD.git
-
Install our requirements in
requirements.txtcd $HOME/code/PointNetGPD pip install -r requirements.txt
-
Install our modified meshpy (Modify from Berkeley Automation Lab: meshpy)
cd $HOME/code/PointNetGPD/meshpy python setup.py develop
-
Install our modified dex-net (Modify from Berkeley Automation Lab: dex-net)
cd $HOME/code/PointNetGPD/dex-net python setup.py develop
-
这里需要根据自己的夹爪来修改如下的夹爪文件; 你可以模仿着新建一个以夹爪命名的文件夹,也可以直接在这个文件中修改,之后离线与在线节点的夹爪姿态检测都会根据夹爪具体的外形尺寸来生成。
vim $HOME/code/PointNetGPD/dex-net/data/grippers/robotiq_85/params.json以下是
params.json中,原作者离线阶段用到的夹爪数学模型各个参数(本代码中已经将其废弃)"min_width": 夹爪的最小闭合角度 "force_limit": 抓取力度限制 "max_width": 夹爪最大张开距离 "finger_radius": 用于软体手,指定软体手的弯曲角度(弧度制),一般用不到,补上去就行了 "max_depth": 夹爪的最大深度,竖向的距离
以下本代码中离线训练和在线检测统一使用的夹爪参数定义:
"finger_width": 夹持器的两个夹爪的“厚度” "real_finger_width": 也是两个夹爪的厚度,和上面写一样就行(仅仅用于显示,影响不大,不用于姿态检测) "hand_height": 夹爪的另一侧厚度,一会儿看图 "hand_height_two_finger_side": 没有用到,代码中没有找到调用,所以不用管 "hand_outer_diameter": 夹爪最大的可以张开的距离,从最外侧量(包括两个爪子的厚度) "hand_depth": 夹爪的竖向深度 "real_hand_depth": 和hand_depth保持一致,代码中两者是相同的 "init_bite": 这个是用于在线抓取检测时,定义的一个后撤距离,主要是避免由于点云误差之类的,导致夹爪和物体碰撞,以米为单位,一般设置1cm就行了
params.json参数的具体定义示意图,修改后的本代码,离线的夹爪参数仅作为候选抓取姿态的采样,而不涉及到夹爪内部点云的提取。
-
下载 YCB object set from YCB Dataset,该数据集提供了物体的CAD模型和一定角度下的深度图;
-
原代码中,将YCB的数据集放在了如下位置:
mkdir -p $HOME/dataset/ycb_meshes_google/objects如果你的Home盘分区不够大,希望换一个位置,可以:
cd $HOME/code/PointNetGPD/dex-net/apps vim generate-dataset-canny.py
修改YCB dataset 路径
219 #存放CAD模型的文件夹 220 file_dir = home_dir + "/dataset/ycb_meshes_google/objects" #获取模型的路径
也可以修改计算结果文件的存放位置
61 #将gpg得到的候选抓取文件存放起来 62 good_grasp_file_name = "./generated_grasps/{}_{}_{}".format(filename_prefix, str(object_name), str(len(good_grasp)))
每个物体的文件夹结构都应该如下所示:
├002_master_chef_can |└── google_512k | ├── kinbody.xml (no use) | ├── nontextured.obj | ├── nontextured.ply | ├── nontextured.sdf (generated by SDFGen) | ├── nontextured.stl | ├── textured.dae (no use) | ├── textured.mtl (no use) | ├── textured.obj (no use) | ├── textured.sdf (no use) | └── texture_map.png (no use) ├003_cracker_box └004_sugar_box ... -
Install SDFGen from GitHub:
git clone https://github.com/jeffmahler/SDFGen.git cd SDFGen sudo sh install.sh -
安装python pcl library python-pcl,python pcl在离线训练(python3)和在线pgd(python2)时均有使用:
git clone https://github.com/strawlab/python-pcl.git pip install --upgrade pip pip install cython pip install numpy cd python-pcl python setup.py build_ext -i python setup.py develop- If you use ubuntu 18.04 and/or conda environment, you may encounter a compile error when install python-pcl, this is because conda has a higer version of vtk, here is a work around:
conda install vtkorpip install vtk- Use my fork: https://github.com/lianghongzhuo/python-pcl.git
- If you use ubuntu 18.04 and/or conda environment, you may encounter a compile error when install python-pcl, this is because conda has a higer version of vtk, here is a work around:
-
Generate sdf file for each nontextured.obj file using SDFGen by running:
cd $HOME/code/PointNetGPD/dex-net/apps python read_file_sdf.py #anaconda3环境下python3
-
使用Antipod对数据集中CAD模型进行候选抓取姿态采样,以及利用ForceClosure&GWS对生成抓取姿态进行打分,这部分的执行时间极长,主要花费时间在抓取采样之上:
cd $HOME/code/PointNetGPD/dex-net/apps python generate-dataset-canny.py [prefix] #anaconda3环境下python3
计算结束后将会把结果以
.npy文件形式保存在默认的$HOME/code/PointNetGPD/dex-net/apps/generated_grasps路径下;这里的[prefix]可以根据自己的夹爪类型,添加一个标签,也可以选择不加,那么就会自动被替换成为default -
作者还给出了一个根据roboticq85夹爪模型采样好的候选grasp pose结果文件: https://tams.informatik.uni-hamburg.de/research/datasets/PointNetGPD_grasps_dataset.zip
-
将下载的YCB数据集文件夹
ycb_rgbd拷贝至如下路径cp .../ycb_rgbd $HOME/code/PointNetGPD/PointNetGPD/data/ -
将YCB数据集中的深度图转换为点云数据,生成的点云将默认放在
$HOME/code/PointNetGPD/PointNetGPD/data/ycb_rgbd/*/clouds文件夹中。cd $HOME/code/PointNetGPD/PointNetGPD/ python ycb_cloud_generate.py #anaconda3 python3
需要将刚才生成的候选grasp pose还有各视角下的点云文件放在同一个文件夹下,该文件夹将会提供给PointNet的Dataloader,该Dataloader将会在训练时结合候选grasp pose&点云 提取“夹爪内部的点云”(详细解释见作者论文)
-
进入Dataloader需要的文件夹:
cd $HOME/code/PointNetGPD/PointNetGPD/data
确保该文件夹下有如下文件
├── google2cloud.csv (Transform from google_ycb model to ycb_rgbd model) ├── google2cloud.pkl (Transform from google_ycb model to ycb_rgbd model) ├── ycb_grasp (里面就是离线Antipod采样到的候选grasp pose) ├── ycb_meshes_google (YCB dataset) └── ycb_rgbd (包含了模型各视角点云)其中,
ycb_grasp文件夹需要手动创建为如下结构,每个文件夹中都是之前generate-dataset-canny.py采样到的grasp pose(.npy)├── ycb_grasp │ ├── test # │ └── train #(训练)
-
Run the experiments:
cd PointNetGPDLaunch a tensorboard for monitoring
tensorboard --log-dir ./assets/log --port 8080
and run an experiment for 200 epoch
python main_1v.py --epoch 200 --mode train --batch-size x (x>1) #anaconda3 python3
File name and corresponding experiment:
main_1v.py --- 1-viewed point cloud, 2 class main_1v_mc.py --- 1-viewed point cloud, 3 class main_1v_gpd.py --- 1-viewed point cloud, GPD main_fullv.py --- Full point cloud, 2 class main_fullv_mc.py --- Full point cloud, 3 class main_fullv_gpd.py --- Full point cloud, GPD
For GPD experiments, you may change the input channel number by modifying
input_channin the experiment scripts(only 3 and 12 channels are available)
需要注意的是,原代码中使用的场景点云是经过旋转变化和预处理之后的;在场景桌面上贴有一个二维码标签,由相机获得的场景点云并不能直接用在本代码中,而是先被预处理之后,旋转到了桌面标签坐标系中;详细参看https://github.com/Hymwgk/point_cloud_process
-
安装预处理包
cd ~/catkin_ws/src git clone https://github.com/Hymwgk/point_cloud_process.git catkin build
-
启动点云采集与预处理
roslaunch kinect2_bridge kinect2_bridge.launch publish_tf:=true roslaunch point_cloud_process get_table_top_points.launch
-
获取机械臂当前状态 (以franka panda为例) 向ROS参数服务器发布一个参数,指明机械臂的当前是在移动状态还是已经返回home状态,机械臂在移动时,将暂时禁止gpd。
cd $HOME/code/PointNetGPD/dex-net/apps python get_panda_state.py #anaconda2 python2
-
运行感知节点
这部分就是实际使用PointNetGPD的部分,读取预处理后桌面上的目标区域点云,基于点云进行gpg,之后将夹爪内部的点云送入pointNet中打分,并以ROS消息的形式输出good graspcd $HOME/code/PointNetGPD/dex-net/apps python kinect2grasp.py #anaconda2 python2
以下是用到的参数
arguments: -h, --help show this help message and exit --cuda 使用CUDA进行计算 --gpu GPU 指定使用的GPU编号 --load-model LOAD_MODEL 设置使用了哪个训练好的网络 (这个参数其实没有效果,被后面的model_type MODEL_TYPE覆盖了) --show_final_grasp 设置是否显示最终抓取(修改了多线程不显示的问题) --tray_grasp not finished grasp type(还没搞好) --using_mp 是否使用多线程去进行抓取采样 --model_type MODEL_TYPE 从三种模型中选择使用哪个模型
举个栗子:
python kinect2grasp.py --cuda --gpu 0 --load-model ../data/1v_500_2class_ourway2sample.model --using_mp --model_type 750
-
Visualization grasps
cd $HOME/code/PointNetGPD/dex-net/apps python read_grasps_from_file.py #anaconda3 python3
Note:
-
This file will visualize the grasps in
$HOME/code/PointNetGPD/PointNetGPD/data/ycb_grasp/folder -
Visualization object normals
cd $HOME/code/PointNetGPD/dex-net/apps python Cal_norm.py #anaconda3 python3
This code will check the norm calculated by meshpy and pcl library.
If you found PointNetGPD useful in your research, please consider citing:
@inproceedings{liang2019pointnetgpd,
title={{PointNetGPD}: Detecting Grasp Configurations from Point Sets},
author={Liang, Hongzhuo and Ma, Xiaojian and Li, Shuang and G{\"o}rner, Michael and Tang, Song and Fang, Bin and Sun, Fuchun and Zhang, Jianwei},
booktitle={IEEE International Conference on Robotics and Automation (ICRA)},
year={2019}
}





