【初级】使用 Python 从图像数据中提取特征

英文原文:
https://www.analyticsvidhya.com/blog/2019/08/3-techniques-extract-features-from-image-data-machine-learning-python/
边翻译边学习

前言

使用计算机视觉技术处理图像的可能性是无穷无尽的。也许您想构建自己的对象检测模型,或者只是想计算走进建筑物的人数等等。在处理非结构化数据(尤其是图像数据)时,使用深度学习技术无疑是表现得非常好,但这是处理图像的唯一方法吗?使用深度学习技术需要拥有大量的硬件和算力资源做支撑,不是每一个人都拥有像 Google 或者 Facebook 公司强大的算力,抛开深度学习,我们如何处理图像数据呢?

我们可以利用机器学习,使用简单的机器学习模型(如决策树或支持向量机)。如果我们提供正确的数据和特征,这些机器学习模型就可以正确执行,甚至可以用作解决方案。

机器存储图像的方式

了解图像在机器上的存储方式对后续的图像处理有着巨大的作用,考虑下面的图片:


图片 1

我们有一个代表数字 “8” 的图像。仔细观察图像你会注意到它是由不同颜色的小方块组成的,它们被称为像素(pixels)。

再看看下面的图片:


图片 2

人的肉眼可以轻松的从图片 1中获取到图片想要表达的含义(一个手写的 “8”)。但机器在处理图片时,处理程序接收到的是图片 2 中一系列的整数字符,至于图片想要表达的含义,机器是无法直接获取的。

机器以数字矩阵的形式存储图像。这个矩阵的大小图像中横向和纵向的像素数。假设图像的尺寸为 180 x 200。那么图像中的像素结构为 高 200像素 x 宽 180像素。

像素上承载的数字(或像素值)表示像素的强度(或亮度)。数字越小越黑(0值代表黑色),数字越大越白(255代表白色)。通过图三来说明:

图三

我们刚刚讨论的都是黑白图像。那现实世界中更为普遍的彩色图像呢?彩色图像也以二维矩阵的形式存储吗?

彩色图像通常由多种颜色组成,几乎所有颜色都可以从三原色(红色、绿色和蓝色)生成。因此,彩色图像会有三个矩阵(或称为通道)——红色、绿色和蓝色。每个矩阵都有 0~255 之间的值,表示该像素的颜色强度。通过图四来说明:


图四

在左边,有一个彩色图像(就像我们人类看到的那样)。而在右边,我们有三个颜色通道的矩阵——红色、绿色和蓝色。三个通道叠加形成彩色图像(数值并不准确,原始矩阵非常大且难以可视化,RGB 是最流行的一种,因此在这里讨论了它)。

使用 Python 加载图片

Python 拥有很多第三方库可以用来处理图片,下面是一段用 Python 来完成图像显示的代码:

from skimage.io import imread, imshow

image = imread('image_8_original.png', as_gray=True)
imshow(image)
print(image.shape) # (28, 28)

结果如下:


图五

查看图片的详细内容:


图六

矩阵共由 784 个像素值,这只是其中的一部分

0x00 将灰度像素值作为特征

从图像创建特征的最简单方法是将这些原始像素值用作单独的特征。考虑上面图像,你能猜出这张图片的特征数量吗?特征数将与像素数相同!因此,这张图片的特征数量将是 784。

还有一个问题,上述矩阵以二维的方式组织数据的,我们如何将这 784 个像素的矩阵排列为特征?好吧,我们可以简单地一个接一个地附加每个像素值来生成一个特征向量。这如下图所示:


Python 代码如下:

# importing library and read the image 
import numpy as np
from skimage.io import imread, imshow
image = imread('puppy.jpeg', as_gray=True) 

# shape of the image
print('Shape of the image = ',image.shape)

# create features
features = np.reshape(image, (660*450))

# shape of feature array
print('Shape of the feature array = ',features.shape)

# output:
# Shape of the image =  (660, 450)
# Shape of the feature array =  (297000,)

但在这里,我们只是对一个通道进行了处理。我们可以对彩色图像做同样的事情吗?

0x01

在上一节中读取图像时,我们设置了参数“as_gray = True”。所以我们在图像中只有一个通道,我们可以轻松地将像素值变为一维向量。让我们移除参数并再次加载图像:

image = imread('puppy.jpeg') 
print(image.shape) # (660, 450, 3)

这次,图像的维度为 (660, 450, 3),其中 3 代表通道数。我们可以像以前一样继续创建特征。在这种情况下,特征数量将为 。

或者,我们可以生成一个新矩阵,它具有来自所有三个通道的像素的平均值,而不是分别使用来自三个通道的像素值。相关示意如下:


通过这样做,特征的数量保持不变,我们还考虑了图像所有三个通道的像素值。让我们用 Python 编写代码。我们将创建一个大小为 660 x 450 的新矩阵,其中所有值都初始化为 0。该矩阵将存储三个通道的平均像素值:

image = imread('puppy.jpeg')
output = np.reshape(np.max(image, axis=2), (660*450))
output.shape # (297000,)

0x10 提取边缘特征

考虑下面的图像,我们需要识别其中存在的对象:


你一定瞬间识别出了这些物体:一只狗、一辆车和一只猫。在区分这些图像时,您考虑了哪些特征?形状可能是一个重要因素,其次是颜色或大小。如果机器也需要像我们一样识别形状怎么办?

一个类似的想法是提取边缘作为特征并将其用作模型的输入。那么,我们如何识别图像中的边缘?边缘基本上是颜色发生急剧变化的地方。看下图:

我们可以识别边缘,是因为颜色从白色变为棕色(右图)和棕色变为黑色(左图)。正如我们所知,图像以数字的形式表示。因此,我们将寻找像素值发生剧烈变化的像素。


由于该像素两侧的值之间的差异很大,我们可以得出结论,该像素处存在明显的过渡,因此它是一个边缘。难道我们需要每个像素肉眼识别判断边缘吗?

不!有多种内核(kernels)可用于突出图像中的边缘。我们刚刚讨论的方法也可以使用 Prewitt kernels(在 x 方向上)来实现。下面给出的是 Prewitt 内核


我们取所选像素周围的值并将其与所选内核(Prewitt 内核)相乘。然后我们可以将结果值相加以获得最终值。由于我们已经在一列中有 -1 并且在另一列中有 1,因此添加这些值等同于求差。


下面是四个最常用的内核:


image.png

下面是提取特征的代码:

#importing the required libraries
import numpy as np
from skimage.io import imread, imshow
from skimage.filters import prewitt_h,prewitt_v
import matplotlib.pyplot as plt
%matplotlib inline

#reading the image 
image = imread('puppy.jpeg',as_gray=True)

#calculating horizontal edges using prewitt kernel
edges_prewitt_horizontal = prewitt_h(image)
#calculating vertical edges using prewitt kernel
edges_prewitt_vertical = prewitt_v(image)

imshow(edges_prewitt_vertical, cmap='gray')

将提取到的边缘扁平化后即可特征提取。

你可能感兴趣的:(【初级】使用 Python 从图像数据中提取特征)