一些基础知识

一些基础知识笔记

Git clone git@xxxxx
pip install -r requirements.txt -i https://pypi.mirrors.ustc.edu.cn/simple

wget google.com 可以快速看你的服务器到底有没有链接代理

benchmark和baseline

一些基础知识_第1张图片

一些基础知识_第2张图片

L1 loss & MSE loss

L1是差的绝对值和,MSE是差的平方和

关于如何看tensor的维度

ut[…, :, None] = [[[u1],
[u2],
[u3]],

               [[u4],
                [u5],
                [u6]],

               [[u7],
                [u8],
                [u9]]]

在ut最后增加了一个维度,这样你先看最开始有三个括号,那肯定就是[—,—,—]三个空要填

然后你看最里面那层[u1],里面只有一个,那最后一个就是1

第二层[[u1],
[u2],
[u3]] 里面有三个,倒数第二层就是3
最后一层里面也有三个,第一层就是3
[3,3, 3]

再比如这个就是【3,1,3】
ut[…, None, :] = [[[u1, u2, u3]],

               [[u4, u5, u6]],

               [[u7, u8, u9]]]

如果这两个要作差,就会涉及广播理论:
ut[…, :, None] - ut[…, None, :] = [[[u1 - u1, u1 - u2, u1 - u3],
[u2 - u1, u2 - u2, u2 - u3],
[u3 - u1, u3 - u2, u3 - u3]],

                                 [[u4 - u4, u4 - u5, u4 - u6],
                                  [u5 - u4, u5 - u5, u5 - u6],
                                  [u6 - u4, u6 - u5, u6 - u6]],

                                 [[u7 - u7, u7 - u8, u7 - u9],
                                  [u8 - u7, u8 - u8, u8 - u9],
                                  [u9 - u7, u9 - u8, u9 - u9]]]

OpenGL 坐标系:

  •   右手坐标系:OpenGL 使用右手坐标系,其中 x 轴指向右,y 轴指向上,z 轴指向您面对的屏幕(朝外)。这意味着从观察者的角度来看,z 轴正方向是屏幕朝向您的方向。
    
  •   单位:OpenGL 中,通常使用标准化设备坐标(Normalized Device Coordinates,NDC),其中坐标范围在 [-1, 1] 内。坐标原点通常位于屏幕中心。
    
  •   视点和投影:OpenGL 通常需要设置一个视点(eye)和投影矩阵(projection matrix),以确定摄像机的位置、方向和投影方式。视点是摄像机的位置,投影矩阵确定了如何将三维坐标投影到屏幕上的二维坐标。
    

OpenCV 坐标系:

  •   左手坐标系:OpenCV 使用左手坐标系,其中 x 轴指向右,y 轴指向下,z 轴指向摄像机的前方。这与OpenGL的坐标系相反。
    
  •   单位:OpenCV 中通常使用像素作为单位,原点通常位于图像的左上角。
    
  •   摄像机坐标系:OpenCV 中通常使用摄像机坐标系,其中摄像机的位置是坐标系的原点,摄像机朝向负的 z 轴方向
    

峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)

是一种用于比较两个信号之间质量的指标,通常用于评估图像和音频的质量。PSNR的计算涉及到原始信号和经过处理后的信号之间的均方误差(Mean Squared Error,MSE)。PSNR的计算公式如下:

PSNR = 10 * log10((R^2) / MSE)

LPIPS(Learned Perceptual Image Patch Similarity)

,是一种用于图像质量评估和图像相似性度量的指标。LPIPS的目标是模拟人眼的感知,以更准确地衡量图像之间的相似性,尤其适用于图像生成、增强和变换任务。

与传统的图像质量评估指标(如PSNR和SSIM)不同,LPIPS是通过深度学习方法训练的,它利用卷积神经网络(CNN)来学习图像的感知信息。这使得LPIPS更能够捕捉到图像的语义信息和结构相似性,而不仅仅是亮度和对比度。

LPIPS的核心思想是将图像切分成小的图像块,然后通过卷积神经网络对这些图像块进行特征提取,最后计算这些特征之间的距离来度量图像的相似性。这使得LPIPS能够捕捉到图像的局部结构和内容信息,而不仅仅是全局特性。

你可能感兴趣的:(实验室的xml,深度学习)