如何在 ROS 中使用 YOLO
- 如何在 2D 中检测人和大象
- 如何在 3D 中检测人和大象
有许多可用的深度学习库。您可能听说过:Keras、TensorFlow 和 Darknet。
在这里我们将使用 Darknet,因为它实现了 YOLOv3,这是一个对象检测模型。它非常快,尤其是在支持 CUDA 的系统中使用它时。它旨在进行实时检测,这对于机器人技术来说非常重要。
3.4 2D YOLO 检测
我们将首先使用适用于 ROS 的 YOLO 版本创建我们自己的启动:
roscd my_object_recognition_pkg
touch launch/yolo_v2_tiny.launch
yolo_v2_tiny.launch
<?xml version="1.0" encoding="utf-8"?>
<launch>
<!-- Use YOLOv3 -->
<arg name="network_param_file" default="$(find darknet_ros)/config/yolov2-tiny.yaml"/>
<!-- 设置输入 RGB ROS 相机主题。这是最重要的参数,也是您需要更改的唯一参数。-->
<arg name="image" default="/camera/rgb/image_raw" />
<!-- Include main launch file -->
<include file="$(find darknet_ros)/launch/darknet_ros.launch">
<arg name="network_param_file" value="$(arg network_param_file)"/>
<arg name="image" value="$(arg image)" />
</include>
</launch>
YOLO 有不同的版本:v2、v3 和 v4。每个版本都适用于不同的 OpenCV 库,理论上每个新版本都运行得更好。
在本单元中,我们将使用 v2 Tiny(更快的版本),因为它对系统的影响较小且性能更快。
如果您想要原始源代码,请查看以下 Git:
YOLO Darknet ROS
Darknet ROS
Original Source Git
启动并查看输出:
# Set variables only for this course, locally you wont need it
QT_X11_NO_MITSHM=1
echo $QT_X11_NO_MITSHM
# Start yolo V2-tiny
roslaunch my_object_recognition_pkg yolo_v2_tiny.launch
注意:首次启动可能会导致 GTK 错误。不要惊慌。重新启动它应该可以正常工作。
移动 PR2 机器人,看看它如何检测不同的物体。
roslaunch pr2_tc_teleop keyboard_teleop.launch
3.5 使用 YOLO 进行 3D 物体检测和定位
这个由 Francisco Martin 创建的 Darknet_ROS_3D 结合使用 darknet_ros 和点云数据将检测结果与 3D 空间进行匹配,从而大致确定检测到的物体在 3D 空间中的位置。
这对于抓取、自主导航和许多其他应用至关重要。
roscd my_object_recognition_pkg
touch config/darknet_3d.yaml
touch launch/darknet_ros_3d.launch
darknet_ros_3d.launch
<launch>
<!-- Config camera image topic -->
<arg name="camera_rgb_topic" default="/camera/rgb/image_raw" />
<!-- Console launch prefix -->
<arg name="launch_prefix" default=""/>
<!-- Config and weights folder. -->
<arg name="yolo_weights_path" default="$(find darknet_ros)/yolo_network_config/weights"/>
<arg name="yolo_config_path" default="$(find darknet_ros)/yolo_network_config/cfg"/>
<!-- ROS and network parameter files -->
<arg name="ros_param_file" default="$(find darknet_ros)/config/ros.yaml"/>
<arg name="network_param_file" default="$(find darknet_ros)/config/yolov2-tiny.yaml"/>
<!-- Load parameters -->
<rosparam command="load" ns="darknet_ros" file="$(arg network_param_file)"/>
<rosparam command="load" file="$(find darknet_ros)/config/ros.yaml"/>
<param name="darknet_ros/subscribers/camera_reading/topic" type="string" value="$(arg camera_rgb_topic)" />
<!-- Start darknet and ros wrapper -->
<node pkg="darknet_ros" type="darknet_ros" name="darknet_ros" output="screen" launch-prefix="$(arg launch_prefix)">
<param name="weights_path" value="$(arg yolo_weights_path)" />
<param name="config_path" value="$(arg yolo_config_path)" />
</node>
<!-- Start darknet ros 3d -->
<node pkg="darknet_ros_3d" type="darknet3d_node" name="darknet_3d" output="screen">
<rosparam command="load" file="$(find my_object_recognition_pkg)/config/darknet_3d.yaml" />
</node>
</launch>
darknet_3d.yaml
darknet_ros_topic: /darknet_ros/bounding_boxes
output_bbx3d_topic: /darknet_ros_3d/bounding_boxes
point_cloud_topic: /camera/depth_registered/points
working_frame: camera_rgb_optical_frame
mininum_detection_thereshold: 0.3
minimum_probability: 0.3
interested_classes: ["person", "elephant", "horse", "bottle", "toothbrush", "traffic light", "spoon", "scissors"]
<arg name="camera_rgb_topic" default="/camera/rgb/image_raw" />
我们需要设置输入 RGB 原始相机。
<arg name="network_param_file" default="$(find darknet_ros)/config/yolov2-tiny.yaml"/>
在这里,我们将再次设置 v2 Tiny。它速度很快,特别是如果你想在 RViz 中查看点云(这将对系统负载产生显着影响)。这是最好的选择。
<rosparam command="load" file="$(find my_object_recognition_pkg)/config/darknet_3d.yaml" />
加载 darknet_3d 的参数。设置以下内容:
- point_cloud_topic:这是您的机器人发布点云数据的 ROS 主题。这用于匹配 2D 中的 RGB 检测和 3D 中的点云数据以生成 3D 中的边界框。
- minimum_probability 和 mininum_detection_thereshold:我们设置我们认为有效的检测并生成边界框。
- interested_classes:这些是您要搜索的对象。由于系统负载影响,值越低越好。这里我们设置了人和大象。
但是我们如何知道 YOLO v2 Tiny 可以检测到哪个对象?检查下面的文件:
roscd darknet_ros/config
cat yolov2-tiny.yaml
开始启动并查看输出:
# Set variables only for this course, locally you wont need it
QT_X11_NO_MITSHM=1
echo $QT_X11_NO_MITSHM
# Start yolo V3
roslaunch my_object_recognition_pkg darknet_ros_3d.launch
现在您可以打开 RViz,添加 RobotModel、PointCloud2 和 MarkerArray(用于可视化检测)。您也可以从 Perception Course Solutions Git 中加载它,位于 /perception_unit3_solutions/my_object_recognition_pkg/rviz/y
练习 3.5.1
- 创建一个名为 yolo_3d_data_extraction.py 的 Python 脚本,该脚本提取由 darknet_ros_3d.launch 生成的标记数据并仅过滤您想要的对象。在本例中为大象。
- 它必须能够存储同一类型的多个对象(尝试使用人)。
- 提取数据的主题是 /darknet_ros_3d/bounding_boxes。
- 您必须根据最大值和最小值计算边界框的中心。
请记住在 Python 脚本中使 Python 脚本可执行,以便 ROS 可以执行它:
roscd my_object_recognition_pkg
touch scripts/yolo_3d_data_extraction.py
chmod +x yolo_3d_data_extraction.py
my_object_recognition_pkg/scripts/yolo_3d_data_extraction.py
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import rospy
from gb_visual_detection_3d_msgs.msg import BoundingBoxes3d
class Yolo3DFilter:
def __init__(self, object_name_to_search, accepted_probability=0.2):
self._rate = rospy.Rate(5)
self._object_name_to_search = object_name_to_search
self._accepted_probability = accepted_probability
self.objects_dict = {}
self.yolo_3d_topic = "/darknet_ros_3d/bounding_boxes"
self._check_yolo_3d_ready()
rospy.Subscriber(self.yolo_3d_topic, BoundingBoxes3d, self.yolo_3d_clb)
rospy.loginfo('Ready to detect with Yolo!')
def _check_yolo_3d_ready(self):
yolo_3d_data = None
while yolo_3d_data is None and not rospy.is_shutdown():
try:
yolo_3d_data = rospy.wait_for_message(self.yolo_3d_topic, BoundingBoxes3d, timeout=1.0)
rospy.logdebug("Current "+self.yolo_3d_topic+" READY=>" + str(yolo_3d_data))
except:
rospy.logerr("Current "+self.yolo_3d_topic+" not ready yet, retrying.")
def update_object_name_to_search(self,new_name):
self._object_name_to_search = new_name
def calculate_center(self,box_data):
x_center = (box_data.xmin + box_data.xmin) / 2.0
y_center = (box_data.ymin + box_data.ymin) / 2.0
z_center = (box_data.zmin + box_data.zmin) / 2.0
return [x_center, y_center, z_center]
def yolo_3d_clb(self, msg):
# We clean the dict
self.objects_dict = {}
detect_object_index = 0
detection_boxes_array = msg.bounding_boxes
for box in detection_boxes_array:
object_name = box.Class
detection_probability = box.probability
if object_name == self._object_name_to_search:
if detection_probability >= self._accepted_probability:
center_array = self.calculate_center(box)
unique_object_name = object_name+str(detect_object_index)
self.objects_dict[unique_object_name] = center_array
detect_object_index += 1
else:
rospy.logdebug("Probability too low=="+str(detection_probability)+"<"+str(self._accepted_probability))
else:
rospy.logdebug("Object name doenst match="+str(object_name)+","+str(self._object_name_to_search))
def get_objects_dict_detected(self):
return self.objects_dict
def run(self):
while not rospy.is_shutdown():
searched_for_objects_detected = self.get_objects_dict_detected()
rospy.loginfo(str(searched_for_objects_detected))
self._rate.sleep()
if __name__ == '__main__':
rospy.init_node('searhc_for_object_node', log_level=rospy.INFO)
yolo_obj = Yolo3DFilter(object_name_to_search="person")
try:
yolo_obj.run()
except KeyboardInterrupt:
rospy.loginfo('Shutting down')