前言
- 本系列教程旨在使用
UE5
配置一个具备激光雷达
+深度摄像机
的仿真小车,并使用通过跨平台的方式进行ROS2
和UE5
仿真的通讯,达到小车自主导航的目的。 - 本教程默认有ROS2导航及其gazebo仿真相关方面基础,Nav2相关的学习教程可以参考本人的其他博客Nav2代价地图实现和原理–Nav2源码解读之CostMap2D(上)-CSDN博客
- 第一期:基于UE5和ROS2的激光雷达+深度RGBD相机小车的仿真指南(一)—UnrealCV获取深度+分割图像-CSDN博客
- 本教程环境支持:
- UE5.43
- ubuntu 22.04 ros2 humble
- 上一节我们以及获取到了深度和分割图像的图像数据,本节我们来看看如何使用
rosbridge
进行图像传输
ROSbrige-suite
rosbridge
是一个用于在 ROS (Robot Operating System) 和其他编程语言或框架之间进行通信的桥梁。它允许开发者使用不同的编程语言(如 Python、JavaScript、Java、MATLAB 等)来与 ROS 系统进行交互,而无需直接使用 ROS 的 C++ API。rosbridge
主要由两部分组成:- ROS 端:运行在 ROS 系统上的服务器,负责与 ROS 系统进行交互。它可以将 ROS 消息、服务、动作等转换为可以通过网络传输的格式。
- 客户端:运行在非 ROS 系统上的客户端,负责与 ROS 端通信,并将接收到的数据转换为客户端语言或框架可以理解的形式。
rosbridge
支持多种通信协议,包括 WebSocket、TCP 和 UDP。这使得它可以在不同的网络环境中工作,无论是本地网络还是互联网。
安装与基础使用
- 这里推荐使用
humble
版本安装
sudo apt-get install ros-humble-rosbridge-suite
rosbridge
的使用也是非常方便
source /opt/ros/humble/setup.bash
ros2 launch rosbridge_server rosbridge_websocket_launch.xml
- 运行成功后,终端会输出如下内容,这里
rosbridge
默认会打开9090端口进行监听,一会我们发送信息也只需要发送到这里即可
尝试使用发送ROSbrige
一张图片
- 由于我们的UE5仿真及其数据捕获程序运行在windows11,而我们的只要Nav2导航处理程序在ubuntu端,这里我们就需要使用
ROSbrige
进行通讯
1. ip查询
- 在进行
ROSbrige
的websocket
通讯之前,在保证win11和ubuntu处于同一局域网的前提下,我们需要知道ubuntu端的ip地址 - 在ubuntu终端输入
ip adrr show
查看ip地址,这里我的虚拟机ip是192.168.137.129
2. 消息类型确认
- 在查询好ip地址后,我们需要确定传输的消息类型,这里我们传输的是图像类型,那我们就选择最常见的
sensor_msgs/msg/image
类型的图片,我们来查询这个消息下有什么
ros2 interface show sensor_msgs/msg/Image
-
我们会得到以下输出:
-
玩过ROS2的朋友都不陌生吧,那我简单说明一下
uint32 height
:图像的高度uint32 width
:图像的宽度string encoding
:像素的编码方式,包括通道的含义、顺序和大小。uint8 is_bigendian
:表示图像数据是否使用大端字节序。在大多数现代系统中,y一般是0
(小端字节序)。uint32 step
:图像的完整行长度(以字节为单位)。这通常是width * channels * bytes_per_channel
。例如,对于宽度为 640 像素、3 个通道(如 RGB 图像)的图像,步长将是 640 * 3 = 1920 字节。uint8[] data
:实际的图像数据矩阵。其大小是step * rows
,即步长乘以行数。
编写Win11发送端
- 那我们我们就来根据上述
sensor_msgs/msg/image
所需要的消息类型,我们来编写发送端
import websocket
import cv2
import base64
import json
import numpy as np
# Ubuntu的IP地址
ubuntu_ip = "192.168.137.129"
# 创建WebSockets连接
ws = websocket.create_connection(f"ws://{ubuntu_ip}:9090")
image_path = r"C:\Users\lzh\Desktop\UE5_ROS2_project\camera\lit.png"
img=cv2.imread(image_path)
print(img.shape)
img=img.astype(np.uint8)
# 将图像数据转换为Base64编码的字符串
encoded_string = base64.b64encode(img).decode('utf-8')
# sensor_msgs/msg/image的JSON表示
msg = {
"op": "publish",
"topic": "/image",
"msg": {
"data": encoded_string,
"height": 480,
"width": 640,
"step": 640 * 3 ,
"encoding": "bgr8"
}
}
while True:
# 发送消息
ws.send(json.dumps(msg))
# 关闭连接
ws.close()
- 上述代码很简单,相信大家都能看得懂,需要注意的是data需要是json可迭代对象,所以这里转换为
base64
编写ubuntu接受端data
- 接收端我采用cpp,创建了一个ament_cmake的功能包
- 那么接收端就更简单了,这里我们只创建一个订阅,用于广播
image
的类型,我们把显示交给rviz2
,直接看代码
#include <rclcpp/rclcpp.hpp>
#include <sensor_msgs/msg/image.hpp>
class ImageSubscriber : public rclcpp::Node
{
public:
ImageSubscriber()
: Node("image_subscriber")
{
subscription_ = this->create_subscription<sensor_msgs::msg::Image>(
"image", 10, std::bind(&ImageSubscriber::image_callback, this, std::placeholders::_1));
}
private:
void image_callback(const sensor_msgs::msg::Image::SharedPtr msg) const
{
RCLCPP_INFO(this->get_logger(), "Received image");
}
rclcpp::Subscription<sensor_msgs::msg::Image>::SharedPtr subscription_;
};
int main(int argc, char * argv[])
{
rclcpp::init(argc, argv);
auto node = std::make_shared<ImageSubscriber>();
rclcpp::spin(node);
rclcpp::shutdown();
return 0;
}
运行与展示
-
值得一提的是,如果你只运行了win11的发送端和ubuntu的rosbridge,不运行接收端,那么你可能会得到一下错误
-
这是由于在 ROS 中,主题必须先被广告,然后才能接收消息。这意味着在尝试发布消息之前,需要确保有一个节点正在监听
/image
主题,并且已经广告了该主题。 -
我们打开rviz2,选择
Add
,并根据话题选择图像显示插件 -
我们就得到了以下画面
UE5核心类创建及实时数据传输
- 为了更好的数据传输,我们这里进行封装,这里我们写一个发布者
Publisher
基类 connection
将传入外部的websocket
对象,非常常见的设计模式运用,这里就不多说明了
class Publisher:
def __init__(self,connection,topic):
self.connection=connection
self.topic = topic
def publish(self,msg):
pub_msg = {
"op": "publish",
"topic": self.topic,
"msg":msg
}
self.connection.send(json.dumps(msg))
class ImagePublisher(Publisher):
def __init__(self,connection,topic,compressed_scale):
self.connection=connection
self.topic = topic
self.compressed_scale=compressed_scale
def publish(self,image):
if image is None:
print('image is None!')
return
h,w=image.shape[0],image.shape[1]
new_h=self.compressed_scale*h
new_w=self.compressed_scale*w
image=cv2.resize(image,(new_w,new_h))
print('h:',new_h,',w:',new_w,'image is publishing')
image = image.astype(np.uint8)
# 将图像数据转换为Base64编码的字符串
encoded_string = base64.b64encode(image).decode('utf-8')
msg = {
"op": "publish",
"topic": self.topic,
"msg": {
"data": encoded_string,
"height": new_h,
"width": new_w,
"step": new_w * 3,
"encoding": "bgr8"
}
}
self.connection.send(json.dumps(msg))
- 同时我们继续书写整个Win11端的核心类
UE5MsgCenter
,这里我们先测试一下功能
class UE5MsgCenter:
def __init__(self,ubuntu_remote_ip_):
self.ws = websocket.create_connection(f"ws://{ubuntu_remote_ip_}:9090")
self.ue5_cam_center=UE5CameraCenter()
self.image_pub=ImagePublisher(self.ws,topic='/image',compressed_scale=0.5) self.object_mask_image_pub=ImagePublisher(self.ws,topic='/object_mask_image',compressed_scale=0.5)
def __del__(self):
self.ws.close()
def run(self):
while True:
self.image_pub.publish(self.ue5_cam_center.get_camera_data('lit'))
self.object_mask_image_pub.publish(self.ue5_cam_center.get_camera_data('object_mask'))
- 然后我们再次修改ubuntu订阅端的cpp代码
#include <rclcpp/rclcpp.hpp>
#include <sensor_msgs/msg/image.hpp>
class ImageSubscriber : public rclcpp::Node
{
public:
ImageSubscriber()
: Node("image_subscriber")
{
rawImageSub = this->create_subscription<sensor_msgs::msg::Image>(
"image", 10, std::bind(&ImageSubscriber::rawImageCB, this, std::placeholders::_1));
objMaskImageSub= this->create_subscription<sensor_msgs::msg::Image>(
"object_mask_image", 10, std::bind(&ImageSubscriber::objMaskImageCB, this, std::placeholders::_1));
}
private:
void rawImageCB(const sensor_msgs::msg::Image::SharedPtr msg) const
{
RCLCPP_INFO(this->get_logger(), "Received image");
}
void objMaskImageCB(const sensor_msgs::msg::Image::SharedPtr msg) const
{
RCLCPP_INFO(this->get_logger(), "Received image");
}
rclcpp::Subscription<sensor_msgs::msg::Image>::SharedPtr rawImageSub;
rclcpp::Subscription<sensor_msgs::msg::Image>::SharedPtr objMaskImageSub;
};
int main(int argc, char * argv[])
{
rclcpp::init(argc, argv);
auto node = std::make_shared<ImageSubscriber>();
rclcpp::spin(node);
rclcpp::shutdown();
return 0;
}
启动顺序
- 这里有必要说明一下各个平台程序和软件的开启顺序:
- Win11的
UE5
,记得按下开始仿真本关卡!!! - ubuntu的cpp接收端(用于广播消息类型)
- ubuntu的
rosbridge
服务器 - Win11的python的
UE5MsgCenter
- ubuntu的`rviz2
- Win11的
结果展示
-
移动我们在UE5中的观测者小球,同样我们收到消息
深度图像特殊处理
- 这里深度图像Win11发送端我们需要进行特殊处理,我们重新写一个新的类
- 深度图像为灰度图像,是单通道,故设置
step
: new_w,encoding
: “mono8” # 8位灰度图的编码
class DepthImagePublisher(Publisher):
def __init__(self,connection,topic,compressed_scale):
self.connection=connection
self.topic = topic
self.compressed_scale=compressed_scale
def publish(self,image):
if image is None:
print('image is None!')
return
h,w=image.shape[0],image.shape[1]
new_h=int(self.compressed_scale*h)
new_w=int(self.compressed_scale*w)
image=cv2.resize(image,(new_w,new_h))
print('h:',new_h,',w:',new_w,'image is publishing')
image = image.astype(np.uint8)
# 将图像数据转换为Base64编码的字符串
encoded_string = base64.b64encode(image).decode('utf-8')
msg = {
"op": "publish",
"topic": self.topic,
"msg": {
"data": encoded_string,
"height": new_h,
"width": new_w,
"step": new_w,
"encoding": "mono8"
}
}
self.connection.send(json.dumps(msg))
- 我们得到如下
完整代码
- UE5MsgCenter.py
import websocket
import cv2
import base64
import json
import numpy as np
from UE5CameraCenter import UE5CameraCenter
class Publisher:
def __init__(self,connection,topic):
self.connection=connection
self.topic = topic
def publish(self,msg):
pub_msg = {
"op": "publish",
"topic": self.topic,
"msg":msg
}
self.connection.send(json.dumps(msg))
class DepthImagePublisher(Publisher):
def __init__(self,connection,topic,compressed_scale):
self.connection=connection
self.topic = topic
self.compressed_scale=compressed_scale
def publish(self,image):
if image is None:
print('image is None!')
return
h,w=image.shape[0],image.shape[1]
new_h=int(self.compressed_scale*h)
new_w=int(self.compressed_scale*w)
image=cv2.resize(image,(new_w,new_h))
print('h:',new_h,',w:',new_w,'image is publishing')
image = image.astype(np.uint8)
# 将图像数据转换为Base64编码的字符串
encoded_string = base64.b64encode(image).decode('utf-8')
msg = {
"op": "publish",
"topic": self.topic,
"msg": {
"data": encoded_string,
"height": new_h,
"width": new_w,
"step": new_w,
"encoding": "mono8"
}
}
self.connection.send(json.dumps(msg))
class ImagePublisher(Publisher):
def __init__(self,connection,topic,compressed_scale):
self.connection=connection
self.topic = topic
self.compressed_scale=compressed_scale
def publish(self,image):
if image is None:
print('image is None!')
return
h,w=image.shape[0],image.shape[1]
new_h=int(self.compressed_scale*h)
new_w=int(self.compressed_scale*w)
image=cv2.resize(image,(new_w,new_h))
print('h:',new_h,',w:',new_w,'image is publishing')
image = image.astype(np.uint8)
# 将图像数据转换为Base64编码的字符串
encoded_string = base64.b64encode(image).decode('utf-8')
msg = {
"op": "publish",
"topic": self.topic,
"msg": {
"data": encoded_string,
"height": new_h,
"width": new_w,
"step": new_w * 3,
"encoding": "bgr8"
}
}
self.connection.send(json.dumps(msg))
class UE5MsgCenter:
def __init__(self,ubuntu_remote_ip_):
self.ws = websocket.create_connection(f"ws://{ubuntu_remote_ip_}:9090")
self.ue5_cam_center=UE5CameraCenter()
self.image_pub=ImagePublisher(self.ws,topic='/image',compressed_scale=0.5)
self.object_mask_image_pub=ImagePublisher(self.ws,topic='/object_mask_image',compressed_scale=0.5)
self.depth_image_pub=DepthImagePublisher(self.ws,topic='/depth_image',compressed_scale=0.5)
def __del__(self):
self.ws.close()
def run(self):
while True:
self.image_pub.publish(self.ue5_cam_center.get_camera_data('lit'))
self.object_mask_image_pub.publish(self.ue5_cam_center.get_camera_data('object_mask'))
self.depth_image_pub.publish(self.ue5_cam_center.get_camera_data('depth'))
def main():
webs_server = UE5MsgCenter("192.168.137.129")
webs_server.run()
if __name__ =='__main__':
main()
小结
- 本节我们介绍了如何使用
rosbridge
对UE5和ROS2进行通讯 - 下一小节我们将谈谈
UE5``激光雷达
的仿真 - 如有错误,欢迎指出~