张重老师的学术报告:基于深度学习的行人再检测方法

因今年是人工智能学院建立一周年,学院的榜样人物,智能学院的系主任张重老师今天给我们做学术报告。开始的内容还能听懂一些,但后面的内容,真的是听不懂了,只能听一个大概意思。

行人再识别,测试和训练都在同一个数据库,另一个就是测试和训练在不同的数据库。应用为安防领域,抓铺嫌疑人。现将视频中的行人识别出来,形成样本库,检测的结果。确定嫌弃人后,在检测的结果(样本库)中检测嫌弃人。模式识别分为两类,一是特征表示,二是分类(距离度量,用欧氏距离测量图像之间的距离?)。提取特征之后进行分类,特征是深度的。

基本设置:训练和测试在同一个数据库上,market-1501,the same domain

挑战:图像的分辨率和质量,光照,拍摄角度不同,背景不同

训练在market1501  测试在duke,不同数据库,挑战更大。

设置基准:交叉熵损失函数,卷积神经网络,分类问题,数据训练完之后,把某一个全龄阶层的输出作为特征,用特征表示这个图像。图像被特征向量所代替,然后用向量在和其他图像进行比较,算他们之间的欧氏距离。

triplet loss 三原型损失,三元图像,检索问题,输入是三张一组,两张同型,另一张不同型,

基准都有正确率,

参数调好,即使架构是相通的,参数不同,性能差别很大,细节重要。

网络结构的步长改一下,全龄阶层多一层,学习效率调一下,如果要想性能更好,要深入的了解现有的模型。

224x224  256x128(行人图像是个矩形,并不是正方形)性能提升很合适,384x128

神经网络可改的地方:改不同的输入,对数据进行预处理,数据增强

根据需要该神经网络的结构(该表示),还有改你的损失函数(改分类,距离的测度),改样本之间学习的策略,

数据增强:随即反转,随机裁剪(224x224,先把图像归一化到256x256然后再随机裁剪到224x224)微调

数据增强的新方法:随机擦除,遮挡图像中的某一部分。学习到遮挡图像的特征,通过判别器判断出是原始图像还是遮挡图像。对抗结构,分辨是不是原始特征?

常用的三个数据库:market-1501    duke-reID    Cuhp-03(香港中文大学,唐晓鸥,王晓刚)

Gan产生式对抗模型,一个网络输入一个噪声就能输出一个图像,比如说用人脸训练,训练之后给它一个噪声它就能输出一个图像。一个产生器,一个判别器,产生器产生一个样本,判别器判断我这个样本是真样本还是假样本,它两相互训练,所以这个网络就叫产生式对抗网络(主流)

比如说一个是摄像头下的样本,一个是真实样本,两者产生样本,我用产生的样本和原始的样本合在一起当成训练集来对网络进行训练,

如何确定产生的样本就是真实的样本,其他给一个小正数,但总的和还是一。在模型中加正则项

开源框架:tensorflow和

res-net系列,se-net,  vgg-net,

神经网络与深度学习课本

part——model

英语,数学,计算机

学科两个顶级期刊:conseption-harming,iccv,  dccv, cvpr,idcv

特征学习,图像和图像之间的转化,给附尾标签

同域异构学习法:w-gan  start-gun一个域可以产生多个域。

多加了一个损失函数

损失函数多加了一个正则项,

尾标签:首先输入无标签的图像,在输入之前先用有标签的图像对神经网络初始化,然后再无标签的图像上提取特征,再对无标签的特征进行聚类,聚类完之后,再给这些特征分标签,对这些具有标签的样本进行选择,选择一些置信度比较大的样本,选择完之后,样本有标签了,并且置信度也比较高了,再用为标签和样本来训练神经卷积网络,训练完之后,还重复之前的过程。提取特征进行聚类(为了附尾标签),在进行置信度样本的选择,选择完之后,用置信度高的样本和它对应的标签在对卷积神经网络进行反tinnu。

模糊多层剧聚类:学习一个新的特征空间,把现有的空间映射到另一个空间。映射后的空间它是可分的,用多层感知机来对它进行学习,另一个就是模糊标签

置信度样本的选择,和这个类的中心距离越近,置信度越大这是一个诱导学习的过程,得到标签,置信样本加上模糊标签对CNN进行训练,进行不同的迭代。

Q:①gun产生式对抗式模型加入的噪声是任意噪声吗?还是说有特定的要求?

深度学习入门:python语言,数字图像处理,学会一个框架进行训练,测试,这就入门了。

感想:

①听报告还是要认真听,毕竟是自己感兴趣的内容,认真听,有什么问题记下来,在问答环节或者报告结束后向老师询问,形成这样良好的习惯。比如这次,你都没有认真听,如果听了应该是有好几个问题的,在你课下重新听的时候才发现问题,这个时候已经没人给你解答了。

你可能感兴趣的:(张重老师的学术报告:基于深度学习的行人再检测方法)