灵魂拷问,你真的懂YOLOV1的损失函数吗?进一步,懂了损失函数,你清楚它的反向求导过程吗?为了解决这俩问题,本文就结合DarkNet中的YOLOV1的损失函数代码实现(在src/detection_layer.c
中)来帮助你理解,相信我,看完你真的能理解。关于YOLOV1就不做过多介绍了,之前写过一篇详细的推文介绍,地址为:目标检测算法之YOLOv1
YOLOV1的损失函数就是这样,不做过多解释了。需要注意的一个点是,在反向传播求导的时候,各个变量的梯度其实应该都有一个系数2的,但是代码中全部都省掉了,这对整个优化过程其实是没有影响的。
/**
* 构建detection层,yolov1中最后一层
* @param batch 一个batch包含图片的张数
* @param inputs detection层一张输入图片元素个数
* @param n yolov1一个grid cell预测bbox的数量 2
* @param side // grid cell的大小 7
* @param classes yolov1 预测类的个数
* @param coords 一个bbox包含的坐标数量 4
* @param rescore
* @return
*/
detection_layer make_detection_layer(int batch, int inputs, int n, int side, int classes, int coords, int rescore)
{
detection_layer l = { (LAYER_TYPE)0 };
l.type = DETECTION;
// 这些变量都可以参考darknet.h中的注释
l.n = n; //一个cell中预测多少个box
l.batch = batch; //一个batch中包含图片的张数
l.inputs = inputs; //detection层一张输入图片的元素个数
l.classes = classes; //类别数
l.coords = coords; //一个bbox包含的坐标数量
l.rescore = rescore;
l.side = side; //grid cell的大小 7
l.w = side; //grid cell的宽度
l.h = side; //grid cell的高度
assert(side*side*((1 + l.coords)*l.n + l.classes) == inputs); //7*7*(1 + 4) * 2 + 30 ) = 7*7*30
l.cost = (float*)xcalloc(1, sizeof(float)); //detection层的总损失
l.outputs = l.inputs; //detection层对应输入图片的输出元素个数,detection层不改变输入输出大小
l.truths = l.side*l.side*(1+l.coords+l.classes); //GT:7*7*(1+4+20) 只有一个bbox和置信度
l.output = (float*)xcalloc(batch * l.outputs, sizeof(float)); // detection层所有输出(包含整个batch的)
l.delta = (float*)xcalloc(batch * l.outputs, sizeof(float)); //detection层误差项(包含整个batch的)
l.forward = forward_detection_layer; //前向传播
l.backward = backward_detection_layer; //反向传播
#ifdef GPU
l.forward_gpu = forward_detection_layer_gpu;
l.backward_gpu = backward_detection_layer_gpu;
l.output_gpu = cuda_make_array(l.output, batch*l.outputs);
l.delta_gpu = cuda_make_array(l.delta, batch*l.outputs);
#endif
fprintf(stderr, "Detection Layer\n");
srand(time(0));
return l;
}
/**
* detection层前向传播函数
* @param l 当前detection层
* @param net 整个网络
*/
void forward_detection_layer(const detection_layer l, network_state state)
{
int locations = l.side*l.side; //grid cell的数量7*7=49
int i,j;
memcpy(l.output, state.input, l.outputs*l.batch*sizeof(float));
//if(l.reorg) reorg(l.output, l.w*l.h, size*l.n, l.batch, 1);
int b;
if (l.softmax){ //yolo v1这里为0,并没有使用
for(b = 0; b < l.batch; ++b){
int index = b*l.inputs;
for (i = 0; i < locations; ++i) {
int offset = i*l.classes;
softmax(l.output + index + offset, l.classes, 1,
l.output + index + offset, 1);
}
}
}
if(state.train){
float avg_iou = 0;
float avg_cat = 0;
float avg_allcat = 0;
float avg_obj = 0;
float avg_anyobj = 0;
int count = 0;
*(l.cost) = 0; //detection层的总损失
int size = l.inputs * l.batch; //误差项的个数
memset(l.delta, 0, size * sizeof(float)); //误差项初始化
for (b = 0; b < l.batch; ++b){
int index = b*l.inputs; //第b个batch的起始位置
for (i = 0; i < locations; ++i) { //第i个grid cell,一共有7*7个
int truth_index = (b*locations + i)*(1+l.coords+l.classes); //获取第i个grid cell的bbox的GT
int is_obj = state.truth[truth_index]; //获取第i个grid cell是否包含物体
for (j = 0; j < l.n; ++j) { // 获取yolov1 第i个grid cell预测的两个bbox,与GT比较
int p_index = index + locations*l.classes + i*l.n + j; // 获取第j个预测的bbox起始位置
l.delta[p_index] = l.noobject_scale*(0 - l.output[p_index]); // bbox中不含object的置信度误差项, noobject_scale=0.5 Loss 1-4(1-4指的是公式)
*(l.cost) += l.noobject_scale*pow(l.output[p_index], 2); //第i个grid cell中第j个预测bbox中,不含object的置信度损失计算,Loss 1-4
avg_anyobj += l.output[p_index]; //bbox中不含object的置信度求和
}
int best_index = -1;
float best_iou = 0;
float best_rmse = 20; //best bbox的rmse阈值
if (!is_obj){ // 当前第i个grid cell, 第j个bbox不含object, 则loss计算完成
continue;
}
// 当前第i个grid cell, 第j个bbox含有object,继续计算坐标预测损失Loss 1-1,1-2,confidence预测损失Loss 1-3,类别预测损失Loss 1-5
int class_index = index + i*l.classes;// 获取第i个grid cell的classes起始位置
for(j = 0; j < l.classes; ++j) {
//第i个grid cell预测分类误差项
l.delta[class_index+j] = l.class_scale * (state.truth[truth_index+1+j] - l.output[class_index+j]); // 第i个grid cell预测分类误差项
*(l.cost) += l.class_scale * pow(state.truth[truth_index+1+j] - l.output[class_index+j], 2); // 类别预测损失计算, Loss 1-5
if(state.truth[truth_index + 1 + j]) avg_cat += l.output[class_index+j]; // GT对应的grid cell预测分类值求和
avg_allcat += l.output[class_index+j]; // 所有grid cell预测分类值求和
}
// 获取第i个grid cell, GT BBOX的[x, y, w, h], float_to_box 第一个参数是bbox起始位置
box truth = float_to_box(state.truth + truth_index + 1 + l.classes);
truth.x /= l.side;
truth.y /= l.side;
//坐标预测损失计算 Loss 1-1, 1-2
// 找到第i个grid cell的best bbox
for(j = 0; j < l.n; ++j){
//第i个grid cell预测第j个bbox的起始位置
int box_index = index + locations*(l.classes + l.n) + (i*l.n + j) * l.coords;
box out = float_to_box(l.output + box_index); // 获取预测bbox的[x,y,w,h]
//yolo v1 直接回归的是 7*x, 所以与GT bbox 计算IOU, 需要先除以7
out.x /= l.side;
out.y /= l.side;
if (l.sqrt){
//yolo v1直接回归的sqrt(w), 所以与GT bbox 计算IOU前,需要pow一下
out.w = out.w*out.w;
out.h = out.h*out.h;
}
//计算预测bbox与 GT bbox之间的IOU
float iou = box_iou(out, truth);
//iou = 0;
//计算预测bbox的[x,y]与GT bbox的[x,y]之间的均方差损失 Loss 1-1
float rmse = box_rmse(out, truth);
// 找到第i个grid cell预测最大的那个bbox
if(best_iou > 0 || iou > 0){
if(iou > best_iou){
best_iou = iou;
best_index = j;
}
}else{ // 均方差最小的
if(rmse < best_rmse){
best_rmse = rmse;
best_index = j;
}
}
}
// 强制指定一个bbox
if(l.forced){
// GT bbox w*h < 0.1,强制最好的bbox index是1
if(truth.w*truth.h < .1){
best_index = 1;
}else{
best_index = 0;
}
}
//随机选择最佳bbox
if(l.random && *(state.net.seen) < 64000){
best_index = rand()%l.n;
}
// 模型预测的bbox起始位置
int box_index = index + locations*(l.classes + l.n) + (i*l.n + best_index) * l.coords;
int tbox_index = truth_index + 1 + l.classes;
// 获取最佳bbox的[x, y, w, h]
box out = float_to_box(l.output + box_index);
out.x /= l.side; // 归一化x
out.y /= l.side;
if (l.sqrt) { // yolo v1直接回归的sqrt(w), 所以与GT bbox 计算IOU前,需要pow一下
out.w = out.w*out.w;
out.h = out.h*out.h;
}
float iou = box_iou(out, truth); // 计算二者IOU
//printf("%d,", best_index);
// 获取第i个grid cell,best bbox的起始位置
int p_index = index + locations*l.classes + i*l.n + best_index;
// 减去之前计算不含object的confidence预测损失
*(l.cost) -= l.noobject_scale * pow(l.output[p_index], 2);
// 含有object的confidence的预测损失
*(l.cost) += l.object_scale * pow(1-l.output[p_index], 2);
// bbox中含object的置信度求和
avg_obj += l.output[p_index];
// 第i个含有object的那个best bbox,grid cell预测分类误差项
l.delta[p_index] = l.object_scale * (1.-l.output[p_index]);
//yolo v1这里为0,并没有使用
if(l.rescore){
l.delta[p_index] = l.object_scale * (iou - l.output[p_index]);
}
// 第i个grid cell的x对应误差项计算
l.delta[box_index+0] = l.coord_scale*(state.truth[tbox_index + 0] - l.output[box_index + 0]);
// 第i个grid cell的y对应误差项计算
l.delta[box_index+1] = l.coord_scale*(state.truth[tbox_index + 1] - l.output[box_index + 1]);
// 第i个grid cell的w对应误差项计算
l.delta[box_index+2] = l.coord_scale*(state.truth[tbox_index + 2] - l.output[box_index + 2]);
// 第i个grid cell的h对应误差项计算
l.delta[box_index+3] = l.coord_scale*(state.truth[tbox_index + 3] - l.output[box_index + 3]);
if(l.sqrt){
// Loss 1-2计算, GT bbox需要开根号
l.delta[box_index+2] = l.coord_scale*(sqrt(state.truth[tbox_index + 2]) - l.output[box_index + 2]);
l.delta[box_index+3] = l.coord_scale*(sqrt(state.truth[tbox_index + 3]) - l.output[box_index + 3]);
}
*(l.cost) += pow(1-iou, 2);
avg_iou += iou; // 包含object的grid cell,best bbox 与 GT bbox的IOU求和
++count; // 训练阶段,截止到本batch的训练完,包含object总数量
}
} // 一个batch中所有图片处理完
if(0){
float* costs = (float*)xcalloc(l.batch * locations * l.n, sizeof(float));
for (b = 0; b < l.batch; ++b) {
int index = b*l.inputs;
for (i = 0; i < locations; ++i) {
for (j = 0; j < l.n; ++j) {
int p_index = index + locations*l.classes + i*l.n + j;
costs[b*locations*l.n + i*l.n + j] = l.delta[p_index]*l.delta[p_index];
}
}
}
int indexes[100];
top_k(costs, l.batch*locations*l.n, 100, indexes);
float cutoff = costs[indexes[99]];
for (b = 0; b < l.batch; ++b) {
int index = b*l.inputs;
for (i = 0; i < locations; ++i) {
for (j = 0; j < l.n; ++j) {
int p_index = index + locations*l.classes + i*l.n + j;
if (l.delta[p_index]*l.delta[p_index] < cutoff) l.delta[p_index] = 0;
}
}
}
free(costs);
}
//一个batch的总损失计算
*(l.cost) = pow(mag_array(l.delta, l.outputs * l.batch), 2); // 一个batch的总损失计算
printf("Detection Avg IOU: %f, Pos Cat: %f, All Cat: %f, Pos Obj: %f, Any Obj: %f, count: %d\n", avg_iou/count, avg_cat/count, avg_allcat/(count*l.classes), avg_obj/count, avg_anyobj/(l.batch*locations*l.n), count);
//if(l.reorg) reorg(l.delta, l.w*l.h, size*l.n, l.batch, 0);
}
}
/**
* detection层反向传播函数
* @param l 当前detection层
* @param net 整个网络
*/
void backward_detection_layer(const detection_layer l, network_state state)
{
axpy_cpu(l.batch*l.inputs, 1, l.delta, 1, state.delta, 1);
}
/**
* yolo v1 Infence 阶段,解析7*7*30
* @param l 当前detection层
* @param w 输入图片的宽度
* @param h 输入图片的高度
* @param thresh confidence阈值
* @param dets 用于保存结果
*/
void get_detection_detections(layer l, int w, int h, float thresh, detection *dets)
{
int i, j, n;
float *predictions = l.output;
//int per_cell = 5*num+classes;
for (i = 0; i < l.side*l.side; ++i) {
int row = i / l.side; //获取grid cell的行号
int col = i % l.side; //获取grid cell的列号
for (n = 0; n < l.n; ++n) { //遍历两个box
int index = i*l.n + n;
int p_index = l.side*l.side*l.classes + i*l.n + n;
float scale = predictions[p_index];
int box_index = l.side*l.side*(l.classes + l.n) + (i*l.n + n) * 4;
box b;
b.x = (predictions[box_index + 0] + col) / l.side * w; // 坐标转换为真实值
b.y = (predictions[box_index + 1] + row) / l.side * h;
b.w = pow(predictions[box_index + 2], (l.sqrt ? 2 : 1)) * w;
b.h = pow(predictions[box_index + 3], (l.sqrt ? 2 : 1)) * h;
dets[index].bbox = b;
dets[index].objectness = scale; // 保存框置信度得分
for (j = 0; j < l.classes; ++j) {
int class_index = i*l.classes;
float prob = scale*predictions[class_index + j]; // 类别置信度得分=条件类别概率×框置信度得分
dets[index].prob[j] = (prob > thresh) ? prob : 0; // 低于阈值一律置为0
}
}
}
}
有了这个详细的代码注释结合上面的公式就应该可以完全理解YOLOV1的损失函数和反向求导,有任何问题可以加我微信hellotopython一起交流。
本文介绍了YOLOV1的损失函数实现,也即是src/detection_layer.c
文件的内容,希望看完这篇你能彻底理解YOLOV1的损失函数,后面我会继续更新YOLOV2/YOLOV3的DarkNet代码解释,请继续关注。
欢迎关注GiantPandaCV, 在这里你将看到独家的深度学习分享,坚持原创,每天分享我们学习到的新鲜知识。( • ̀ω•́ )✧
有对文章相关的问题,或者想要加入交流群,欢迎添加BBuf微信: