blender 相机参数

news2025/2/4 10:16:13

目录

设置相机参数:

3. 设置相机参数示例

4. 相机透视与正交

5. 额外的高级设置

设置相机参数:

设置渲染器:

外参转换函数

转换测试代码:

获取blender渲染外参:


设置相机参数:

3. 设置相机参数示例

假设你有一个相机,并希望设置它的焦距和位置,可以通过 Python 脚本来设置这些参数:

python

import bpy # 获取当前场景中的相机 
camera = bpy.context.scene.camera # 设置相机的位置 (外参) 
camera.location = (0, 0, 10) # 设置相机的旋转 (外参) 
camera.rotation_euler = (1.5708, 0, 0) # 使用欧拉角旋转 
# 设置相机的焦距 (内参) 
camera.data.lens = 50 # 焦距为 50mm 
# 设置传感器的尺寸 (内参) 
camera.data.sensor_width = 32 # 传感器宽度为 32mm 
camera.data.sensor_height = 18 # 传感器高度为 18mm

4. 相机透视与正交

  • 如果需要调整相机的视图类型,可以选择 透视视图正交视图。对于渲染的视图设置,可以通过 camera.data.type 属性来设置:
    • camera.data.type = 'PERSP':透视相机
    • camera.data.type = 'ORTHO':正交相机

5. 额外的高级设置

  • 深度裁剪(Clipping):控制相机的可视范围,决定从相机视点出发,哪些物体会被渲染。你可以通过 clip_startclip_end 控制这些裁剪距离。

camera.data.clip_start = 0.1

camera.data.clip_end = 1000

设置相机参数:

intrs_path = scene_dir + '/pred_intrinsics.txt'
intrs = np.loadtxt(intrs_path)
intrs = np.array(intrs, np.float32)
intrinsic = [intrs[0][0], intrs[0][0], intrs[0][2], intrs[0][5]]
print(intrinsic)
fx, fy, cx, cy = intrinsic[0], intrinsic[1], intrinsic[2], intrinsic[3]

width = float(args.image_width)
width_r = width / 512.0 * cx * 2
height_r = width / 512.0 * cy * 2
fx_r = width / 512.0 * fx


load_object(object_file)

# Set up cameras
cam = scene.objects["Camera"]
# cam.data.lens = 35
cam.data.sensor_width = 32

res_x = render.resolution_x
if render.resolution_y > render.resolution_x:
    res_x = render.resolution_y
cam.data.lens = cam.data.sensor_width * fx / res_x

设置渲染器:

import bpy

# 设置 Cycles 渲染器为 GPU 渲染
scene = bpy.context.scene
scene.cycles.device = "GPU"  # 使用 GPU 渲染

# 设置 Cycles 渲染样本数量,影响渲染质量和时间
scene.cycles.samples = 128  # 渲染时使用的样本数量

# 控制材质的反射和折射反弹次数
scene.cycles.diffuse_bounces = 1  # 漫反射反弹次数
scene.cycles.glossy_bounces = 1   # 镜面反射反弹次数
scene.cycles.transparent_max_bounces = 3  # 透明材质最大反弹次数
scene.cycles.transmission_bounces = 3  # 透光材质的最大反弹次数

# 设置噪声过滤的宽度
scene.cycles.filter_width = 0.01  # 噪声过滤宽度

# 启用去噪功能
scene.cycles.use_denoising = True  # 开启去噪功能

# 启用透明背景渲染(常用于合成)
scene.render.film_transparent = True  # 启用透明背景

# 刷新 GPU 设备设置
bpy.context.preferences.addons["cycles"].preferences.get_devices()  # 获取可用的设备

# 设置 GPU 渲染使用 CUDA 还是 OpenCL(取决于你的 GPU)
bpy.context.preferences.addons["cycles"].preferences.compute_device_type = "CUDA"  # 或者 "OPENCL"

外参转换函数

def set_camera(c2w: np.ndarray) -> bpy.types.Object:
    """设置Blender相机的位置和姿态
    Args:
        c2w: 4x4相机到世界变换矩阵,通常来自其他系统(如NeRF),可能使用不同的坐标系
    Returns:
        bpy.types.Object: 配置后的相机对象
    """
    # 获取Blender中的相机对象
    camera = bpy.data.objects["Camera"]

    # 应用坐标系变换:
    # 1. 先翻转输入坐标系的Y和Z轴方向
    # 2. 再调整坐标轴方向以适配Blender的相机坐标系
    transformed_matrix = BLENDER_AXIS_TRANSFORM @ (c2w @ COORDINATE_FLIP)

    # 将变换后的矩阵转置后赋给Blender相机
    # 注:Blender的matrix_world使用行主序,而numpy默认行存储,转置确保矩阵正确应用
    camera.matrix_world = transformed_matrix.T

    return camera

转换测试代码:



import numpy as np
BLENDER_AXIS_TRANSFORM = np.array([[1, 0, 0, 0], [0, 0, 1, 0], [0, -1, 0, 0], [0, 0, 0, 1]], dtype=np.float32)

# 该矩阵翻转Y和Z轴,用于调整坐标系的旋向性(例如从右手系到左手系)
COORDINATE_FLIP = np.array([[1, 0, 0, 0], [0, -1, 0, 0], [0, 0, -1, 0], [0, 0, 0, 1]], dtype=np.float32)


data=[i+1 for i in range(16)]
c2w=np.array(data).reshape(-1,4)

print(c2w)
print(COORDINATE_FLIP)
data=(c2w @ COORDINATE_FLIP)
print(BLENDER_AXIS_TRANSFORM)
print(data)
transformed_matrix = BLENDER_AXIS_TRANSFORM @ data

print(transformed_matrix)

获取blender渲染外参:

https://github.com/XuweiyiChen/Diffusion4D/blob/f6aab73453976b9d0636cdf434be8c916bc5e60d/rendering/blender_cpu.py

def get_3x4_RT_matrix_from_blender(cam: bpy.types.Object) -> Matrix:
    """Returns the 3x4 RT matrix from the given camera.
    Taken from Zero123, which in turn was taken from
    https://github.com/panmari/stanford-shapenet-renderer/blob/master/render_blender.py

    Args:
        cam (bpy.types.Object): The camera object.

    Returns:
        Matrix: The 3x4 RT matrix from the given camera.
    """
    # Use matrix_world instead to account for all constraints
    location, rotation = cam.matrix_world.decompose()[0:2]
    R_world2bcam = rotation.to_matrix().transposed()

    # Use location from matrix_world to account for constraints:
    T_world2bcam = -1 * R_world2bcam @ location

    # put into 3x4 matrix
    RT = Matrix((R_world2bcam[0][:] + (T_world2bcam[0],), R_world2bcam[1][:] + (T_world2bcam[1],), R_world2bcam[2][:] + (T_world2bcam[2],),))
    return RT

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2291737.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

物联网 STM32【源代码形式-ESP8266透传】连接OneNet IOT从云产品开发到底层MQTT实现,APP控制 【保姆级零基础搭建】

一、MQTT介绍 MQTT(Message Queuing Telemetry Transport,消息队列遥测传输协议)是一种基于发布/订阅模式的轻量级通讯协议,构建于TCP/IP协议之上。它最初由IBM在1999年发布,主要用于在硬件性能受限和网络状况不佳的情…

计算机网络 性能指标相关

目录 吞吐量 时延 时延带宽积 往返时延RTT 利用率 吞吐量 时延 时延带宽积 往返时延RTT 利用率

软件测试02----用例设计方法

今天目标 1.能对穷举场景设计测试点 2.能对限定边界规则设计测试点 3.能对多条件依赖关系进行设计测试点 4.能对项目业务进行设计测试点 一、解决穷举场景 重点:使用等价类划分法 1.1等价类划分法 重点:有效等价和单个无效等价各取1个即可。 步骤&#…

冷启动+强化学习:DeepSeek-R1 的原理详解——无需监督数据的推理能力进化之路

本文基于 DeepSeek 官方论文进行分析,论文地址为:https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf 有不足之处欢迎评论区交流 原文翻译 在阅读和理解一篇复杂的技术论文时,逐字翻译是一个重要的步骤。它不仅能帮助我们准确把握作者的原意,还能为后续…

014-STM32单片机实现矩阵薄膜键盘设计

1.功能说明 本设计主要是利用STM32驱动矩阵薄膜键盘,当按下按键后OLED显示屏上会对应显示当前的按键键值,可以将此设计扩展做成电子秤、超市收银机、计算器等需要多个按键操作的单片机应用。 2.硬件接线 模块管脚STM32单片机管脚矩阵键盘行1PA0矩阵键盘…

Spring Boot 2 快速教程:WebFlux处理流程(五)

WebFlux请求处理流程 下面是spring mvc的请求处理流程 具体步骤: 第一步:发起请求到前端控制器(DispatcherServlet) 第二步:前端控制器请求HandlerMapping查找 Handler (可以根据xml配置、注解进行查找) 匹配条件包括…

unity学习25:用 transform 进行旋转和移动,简单的太阳地球月亮模型,以及父子级关系

目录 备注内容 1游戏物体的父子级关系 1.1 父子物体 1.2 坐标关系 1.3 父子物体实际是用 每个gameobject的tranform来关联的 2 获取gameObject的静态数据 2.1 具体命令 2.2 具体代码 2.3 输出结果 3 获取gameObject 的方向 3.1 游戏里默认的3个方向 3.2 获取方向代…

CH340G上传程序到ESP8266-01(S)模块

文章目录 概要ESP8266模块外形尺寸模块原理图模块引脚功能 CH340G模块外形及其引脚模块引脚功能USB TO TTL引脚 程序上传接线Arduino IDE 安装ESP8266开发板Arduino IDE 开发板上传失败上传成功 正常工作 概要 使用USB TO TTL(CH340G)将Arduino将程序上传…

DeepSeekMoE:迈向混合专家语言模型的终极专业化

一、结论写在前面 论文提出了MoE语言模型的DeepSeekMoE架构,目的是实现终极的专家专业化(expert specialization)。通过细粒度的专家分割和共享专家隔离,DeepSeekMoE相比主流的MoE架构实现了显著更高的专家专业化和性能。从较小的2B参数规模开始&#x…

扩散模型(二)

相关阅读:扩散模型(一) Parameterization of L t L_t Lt​ for Training Loss 回想一下,我们需要训练一个神经网络来近似反向扩散过程中的条件概率分布,即, p θ ( x t − 1 ∣ x t ) N ( x t − 1 ; μ θ ( x t…

【Numpy核心编程攻略:Python数据处理、分析详解与科学计算】2.18 对象数组:在NumPy中存储Python对象

2.18 对象数组:在NumPy中存储Python对象 目录 #mermaid-svg-shERrGOBuM2rBzeB {font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:16px;fill:#333;}#mermaid-svg-shERrGOBuM2rBzeB .error-icon{fill:#552222;}#mermaid-svg-shERrGOBuM2rB…

LabVIEW双光子成像系统:自主创新,精准成像,赋能科研

双光子成像系统:自主创新,精准成像,赋能科研 第一部分:概述 双光子成像利用两个低能量光子同时激发荧光分子,具有深层穿透、高分辨率、低光损伤等优势。它能实现活体深层组织的成像,支持实时动态观察&…

bagging框架

bagging 1 bagging介绍 Bagging的全称是Bootstrap Aggregating,其思想是通过将许多相互独立的学习器的结果进行结合,从而提高整体学习器的泛化能力 bagging框架流程:首先,它从原始数据集中使用有放回的随机采样方式抽取多个子集…

《机器学习数学基础》补充资料:仿射变换

本文是对《机器学习数学基础》 第 2 章 2.2.4 节齐次坐标系的内容拓展。 1. 名称的来源 仿射,是英文单词 affine 的中文翻译。 单词 affine,读音:[ə’faɪn]。来自于英语 affinity。英语词根 fin 来自于拉丁语 finis,表示“边…

冲刺一区!挑战7天完成一篇趋势性分析GBD DAY1-7

Day1. 公开数据库的挖掘太火热了,其中GBD数据库的挖掘又十分的火爆.那我就来挑战一篇GBD、一篇关于趋势性分析的GBD! GBD数据库挖掘是目前的四大刊常客,经常出现在顶级期刊上面。这个数据库亮点就是:可视化,统计学简单、而数据可…

掌握API和控制点(从Java到JNI接口)_36 JNI开发与NDK 04

4、 *.so的入口函数&#xff1a;JNI_OnLoad() VM (virtual machine)的角色 Java代码在VM上执行。在执行Java代码的过程中&#xff0c;如果Java需要与本地代码(*.so)沟通时&#xff0c; VM就会把*.so視为插件<Tn>而加载到VM里。然后让Java函数呼叫到这插件<Tn>里的…

Spring Bean 容器

技术成长&#xff0c;是对场景设计细节不断的雕刻&#xff01; 你觉得自己的技术什么时候得到了快速的提高&#xff0c;是CRUD写的多了以后吗&#xff1f;想都不要想&#xff0c;绝对不可能&#xff01;CRUD写的再多也只是能满足你作为一个搬砖工具人&#xff0c;敲击少逻辑流…

Maven全解析:从基础到精通的实战指南

概念&#xff1a; Maven 是跨平台的项目管理工具。主要服务基于 Java 平台的构建&#xff0c;依赖管理和项目信息管理项目构建&#xff1a;高度自动化&#xff0c;跨平台&#xff0c;可重用的组件&#xff0c;标准化的流程 依赖管理&#xff1a; 对第三方依赖包的管理&#xf…

【开源免费】基于SpringBoot+Vue.JS贸易行业crm系统(JAVA毕业设计)

本文项目编号 T 153 &#xff0c;文末自助获取源码 \color{red}{T153&#xff0c;文末自助获取源码} T153&#xff0c;文末自助获取源码 目录 一、系统介绍二、数据库设计三、配套教程3.1 启动教程3.2 讲解视频3.3 二次开发教程 四、功能截图五、文案资料5.1 选题背景5.2 国内…

高效接口限流:基于自定义注解与RateLimiter的实践

在高并发场景下&#xff0c;接口的流量控制是保证系统稳定性和提升性能的关键之一。通过实现接口限流&#xff0c;我们可以有效避免系统在访问高峰时发生崩溃。本文将详细介绍如何通过自定义注解和切面编程结合RateLimiter来实现接口的限流功能&#xff0c;以应对高并发请求。 …