图像分割与目标识别

在对于图像的处理中,图像识别是一个很重要的步骤,例如人脸识别,车牌识别等。图像目标识别有助于此类功能的实现,提高识别效率。目标识别将图像中的各类物品提前识别并且框出,将识别的目标物体图像,送入后续网络层进行处理,有助于提高任务精确度。在人脸识别中,更精准的人脸框图会提高人脸识别效率,通过缩小物体的区域,定位人脸的特征,提高工程的精准度。传统的目标识别都是基于暴力搜索方法,在传统算法中使用了滑动窗口,规定子块的像素尺度,之后在整幅图像中,进行穷举搜索。这种方法有很多弊端,例如产生的数据量非常多,对于内存与CPU的计算要求很高。相比而言,本算法使用了不同的方法来进行目标识别,对于颜色,纹理,空间,尺度四个参数进行相似度计算。相比之下提高了效率。目标识别效率的提升,有助后续任务的执行。目前很多图像处理算法都首先采用目标识别,后对图像块进行采集,再进行其他工作。例如hyperface人脸识别,就是采用了selective search进行人脸框图,之后利用生成的图像块进行处理。

实验效果图:

原图:

图像分割与目标识别_第1张图片

第一次处理:

图像分割与目标识别_第2张图片

第二次处理,达到目标识别的功能

图像分割与目标识别_第3张图片

实验代码及安装详细步骤:

https://fgk.pw/i/viZKzii0227

研究主要内容和预期结果:

将任意图片作为输入样本,进行无监督学习,经过程序运算,最后输出图像,并将图像中的所有物品使用矩形框出,主要有以下关键问题:

(1)图像信息采集:从网络进行下载,或者自行采集,只要包含物品的图像即可,本项目注重与搜集物品之间颜色相差较大的情况。

(2)首先将图片送入模型中,通过基于图的图像分割,产生基础图像,基础图像以相同颜色的图块为基础送往下一层网络结构。指明一幅输入图像中包含哪类目标。其输入为一幅图像,输出是该图像中的目标属于哪个类别。

(3)利用selective search方案,采集上一层的图像,然后使用基于图像分割实现对于物品的识别。图像的目标检测,除了要告诉输入图像中包含了哪类目标外,还要框出该目标的具体位置。

项目完成对图像中物体的识别,进一步提高各项功能的效率。

 

拟采取的研究方法和技术路线(包括理论分析、计算,实验方法和步骤及其可行性论证,可能遇到的问题和解决方法,以及研究的进度与计划):

拟运用Python开发,在技术方案、数据分析方面,拟采用keras,chainer,tensorflow等方法,目前正在考虑具体的使用方法。绘制图像方面,拟采用matplotlib,seaborn。keras中库自带dense层,激活层等网络结构,后续有tensorflow进行处理。对本项目有一定的帮助。

运行环境选择Python集成开发工具PyCharm。

其关键问题会出现在物体图像的收集、卷积神经网络的搭建、网络结构的开发及网络层参数设置问题。首先使用基于图的图像分割方法,将图像设置为带权值无向图的形式,采用RGB颜色空间,把图像的每个像素看成图的节点,边的权值代表该条边所连接的两个像素的颜色特征差异,其边的权值用R,G,B的欧式距离来计算。之后将处理之后的图像送入选择性搜索算法,计算颜色,纹理,空间与尺度相似度。通过算法计算得到的包含物体的Bounding Boxes与真实情况的窗口重叠越多,算法性能就越好。从而完成对图像中物体的识别功能。

 

你可能感兴趣的:(Python,机器学习,计算机资源)