NNDL 作业一

 深度学习第一次作业

习题 2-1  分析为什么平方损失函数不适用于分类问题 , 交叉熵损失函数不适用于回归问题.

分类问题不连续,使用平方损失函数,没有距离概念,在分类错误的情况下无法判断优化的好坏。

交叉熵损失函数只和分类正确的预测结果有关,对于回归问题来说是不够的。

习题2-2 对于一个三分类问题 , 数据集的真实标签和模型的预测标签如下 :

 分别计算模型的精确率、召回率、F1值以及它们的宏平均和微平均

精确率:

precision=\frac{TP}{TP+FP}

P_{1}=\frac{TP_{1}}{TP_{1}+FP_{1}}=\frac{1}{1+1}=\frac{1}{2}

P_{3}=\frac{TP_{3}}{TP_{3}+FP_{3}}=\frac{2}{2+1}=\frac{2}{3}

P_{3}=\frac{TP_{3}}{TP_{3}+FP_{3}}=\frac{2}{2+1}=\frac{2}{3}

召回率:

recall=\frac{TP}{TP+FN}

R_{1}=\frac{TP_{1}}{TP_{1}+FN_{1}}=\frac{1}{1+1}=\frac{1}{2}

R_{2}=\frac{TP_{2}}{TP_{2}+FN_{2}}=\frac{2}{2+1}=\frac{2}{3}

R_{3}=\frac{TP_{3}}{TP_{3}+FN_{3}}=\frac{2}{2+2}=\frac{1}{2}

F1值:

F_{c}=\frac{2P_{c}R_{c}}{P_{c}+R_{c}}

F_{1}=\frac{2P_{1}R_{1}}{P_{1}+R_{1}}=\frac{2*\frac{1}{2}*\frac{1}{2}}{\frac{1}{2}+\frac{1}{2}}=\frac{1}{2}

F_{2}=\frac{2P_{2}R_{2}}{P_{2}+R_{2}}=\frac{2*\frac{1}{2}*\frac{2}{3}}{\frac{1}{2}+\frac{2}{3}}=\frac{4}{7}

F_{3}=\frac{2P_{3}R_{3}}{P_{3}+R_{3}}=\frac{2*\frac{2}{3}*\frac{1}{2}}{\frac{2}{3}+\frac{1}{2}}=\frac{4}{7}

宏平均:

P_{macro}=\frac{1}{n}\sum_{i=1}^{n}P_{i}=\frac{1}{3}*(\frac{1}{2}+\frac{1}{2}+\frac{2}{3})=\frac{5}{9}

R_{macro}=\frac{1}{n}\sum_{i=1}^{n}R_{i}=\frac{1}{3}*(\frac{1}{2}+\frac{2}{3}+\frac{1}{2})=\frac{5}{9}

F1_{macro}=\frac{2P_{macro}R_{macro}}{P_{macro}+R_{macro}}=\frac{2*\frac{5}{9}*\frac{5}{9}}{\frac{5}{9}+\frac{5}{9}}=\frac{5}{9}

微平均:

P_{macro}=\frac{\sum_{i=1}^{n}TP_{i}}{\sum_{i=1}^{n}TP_{i}+\sum_{i=1}^{n}FP_{i}}=\frac{1+2+2}{(1+2+2)+(1+2+1)}=\frac{5}{9}

R_{macro}=\frac{\sum_{i=1}^{n}TP_{i}}{\sum_{i=1}^{n}TP_{i}+\sum_{i=1}^{n}FN_{i}}=\frac{1+2+2}{(1+2+2)+(1+1+2)}=\frac{5}{9}

F1_{macro}=\frac{2P_{macro}R_{macro}}{P_{macro}+R_{macro}}=\frac{2*\frac{5}{9}*\frac{5}{9}}{\frac{5}{9}+\frac{5}{9}}=\frac{5}{9}

你可能感兴趣的:(NNDL 作业一)