一些基础知识笔记
Git clone git@xxxxx
pip install -r requirements.txt -i https://pypi.mirrors.ustc.edu.cn/simple
wget google.com 可以快速看你的服务器到底有没有链接代理
benchmark和baseline
L1 loss & MSE loss
L1是差的绝对值和,MSE是差的平方和
关于如何看tensor的维度
ut[…, :, None] = [[[u1],
[u2],
[u3]],
[[u4],
[u5],
[u6]],
[[u7],
[u8],
[u9]]]
在ut最后增加了一个维度,这样你先看最开始有三个括号,那肯定就是[—,—,—]三个空要填
然后你看最里面那层[u1],里面只有一个,那最后一个就是1
第二层[[u1],
[u2],
[u3]] 里面有三个,倒数第二层就是3
最后一层里面也有三个,第一层就是3
[3,3, 3]
再比如这个就是【3,1,3】
ut[…, None, :] = [[[u1, u2, u3]],
[[u4, u5, u6]],
[[u7, u8, u9]]]
如果这两个要作差,就会涉及广播理论:
ut[…, :, None] - ut[…, None, :] = [[[u1 - u1, u1 - u2, u1 - u3],
[u2 - u1, u2 - u2, u2 - u3],
[u3 - u1, u3 - u2, u3 - u3]],
[[u4 - u4, u4 - u5, u4 - u6],
[u5 - u4, u5 - u5, u5 - u6],
[u6 - u4, u6 - u5, u6 - u6]],
[[u7 - u7, u7 - u8, u7 - u9],
[u8 - u7, u8 - u8, u8 - u9],
[u9 - u7, u9 - u8, u9 - u9]]]
OpenGL 坐标系:
-
右手坐标系:OpenGL 使用右手坐标系,其中 x 轴指向右,y 轴指向上,z 轴指向您面对的屏幕(朝外)。这意味着从观察者的角度来看,z 轴正方向是屏幕朝向您的方向。
-
单位:OpenGL 中,通常使用标准化设备坐标(Normalized Device Coordinates,NDC),其中坐标范围在 [-1, 1] 内。坐标原点通常位于屏幕中心。
-
视点和投影:OpenGL 通常需要设置一个视点(eye)和投影矩阵(projection matrix),以确定摄像机的位置、方向和投影方式。视点是摄像机的位置,投影矩阵确定了如何将三维坐标投影到屏幕上的二维坐标。
OpenCV 坐标系:
-
左手坐标系:OpenCV 使用左手坐标系,其中 x 轴指向右,y 轴指向下,z 轴指向摄像机的前方。这与OpenGL的坐标系相反。
-
单位:OpenCV 中通常使用像素作为单位,原点通常位于图像的左上角。
-
摄像机坐标系:OpenCV 中通常使用摄像机坐标系,其中摄像机的位置是坐标系的原点,摄像机朝向负的 z 轴方向
峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)
是一种用于比较两个信号之间质量的指标,通常用于评估图像和音频的质量。PSNR的计算涉及到原始信号和经过处理后的信号之间的均方误差(Mean Squared Error,MSE)。PSNR的计算公式如下:
PSNR = 10 * log10((R^2) / MSE)
LPIPS(Learned Perceptual Image Patch Similarity)
,是一种用于图像质量评估和图像相似性度量的指标。LPIPS的目标是模拟人眼的感知,以更准确地衡量图像之间的相似性,尤其适用于图像生成、增强和变换任务。
与传统的图像质量评估指标(如PSNR和SSIM)不同,LPIPS是通过深度学习方法训练的,它利用卷积神经网络(CNN)来学习图像的感知信息。这使得LPIPS更能够捕捉到图像的语义信息和结构相似性,而不仅仅是亮度和对比度。
LPIPS的核心思想是将图像切分成小的图像块,然后通过卷积神经网络对这些图像块进行特征提取,最后计算这些特征之间的距离来度量图像的相似性。这使得LPIPS能够捕捉到图像的局部结构和内容信息,而不仅仅是全局特性。