【头歌】神经网络学习之机器学习基础

第1关:机器学习类型

1、下列说法错误的的是
A、监督学习不需要一定量级的数据作为训练数据。
B、监督学习可以根据输出类型分为回归和分类两种类型。
C、强化学习不需要训练数据。
D、非监督学习的结果具有不确定性。

【答案】AC

2、下列关于回归和分类问题的说法错误的是:
A、回归问题的输出y为离散的类别标记或者数值。
B、分类问题的主要手段为概率计算。
C、支持向量机解决的是回归问题。
D、回归问题以距离计算为主。

【答案】ACD

第2关:激活函数

import numpy as np

class ActivationFunction(object):
    def sigmoid(self,x):
        """
        Sigmoid 函数
        :param x: 函数的输入,类型为list
        :return: y, 函数的计算结果
        """
        ########## Begin ##########
        y =1/(1+(np.exp((-x))))
        ########## End ##########
        return y

    def tanh(self,x):
        """
        Tanh 函数
        :param x: 函数的输入,类型为list
        :return: y, 函数的计算结果
        """
        ########## Begin ##########
        y = (np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x))
        ########## End ##########
        return y

    def ReLU(self,x):
        """
        ReLU 函数
        :param x: 函数的输入,类型为list
        :return: y, 函数的计算结果
        """
        ########## Begin ##########
        y = np.where(x>0,x,0)
        ########## End ##########
        return y

第3关:损失函数

import numpy as np

class Loss(object):

    def mean_absolute_loss(self,y_hat,y,n):
        """
        平均绝对误差损失
        :param y_hat: 预测结果
        :param y: 真实结果
        :param n: 样本数量
        :return: 损失函数计算结果
        """
        ########## Begin ##########
        loss = np.abs(y_hat - y)
        loss = np.sum(loss) / n
        ########## End ##########
        return loss

    def mean_squared_loss(self,y_hat,y,n):
        """
        均方差损失
        :param y_hat: 预测结果
        :param y: 真实结果
        :param n: 样本数量
        :return: 损失函数计算结果
        """
        ########## Begin ##########
        loss = (y_hat - y) ** 2
        loss = np.sum(loss) / n
        ########## End ##########
        return loss

    def cross_entropy_loss(self,y_hat,y,n):
        """
        交叉熵损失
        :param y_hat: 预测结果
        :param y: 真实结果
        :param n: 样本个数
        :return: 损失函数计算结果
        """
        ########## Begin ##########
        loss = y_hat * np.log2(y) + (1 - y) * np.log2(1 - y)
        loss = -np.sum(loss) / n
        ########## End ##########
        return loss

第4关:机器学习中的重要参数

1、下列说法错误的是:
A、学习速率用于控制每次更新时调整的权值大小或权值修正的幅度。
B、学习速率越大,训练时间越长,精度越准确。
C、动量系数可以加速模型训练过程,但是更快的速度会降低模型的准确性。
D、偏置项是为了使目标函数更加的准确。

【答案】B

2、下列说法正确的是:
A、超参数可以通过训练获得。
B、学习速率越大越好。
C、学习速率越小越好。
D、偏置项可以帮助函数进行较好的左右平移

【答案】D

第5关:拟合问题

1、下列说法错误的是:
A、拟合问题分为过拟合和欠拟合问题。
B、过拟合是指针对训练数据,模型过度适配的情况。
C、欠拟合表示模型在训练集表现很好,但在测试集中的表现不佳,不能有效地拟合数据。
D、更换机器学习模型或新增数据的其他特征可以一定程度避免欠拟合问题的发生。

【答案】C

2、下列说法错误的是:
A、过拟合会导致模型的泛化能力减弱。
B、相比于欠拟合,过拟合更难被解决。
C、稀疏规则化是解决欠拟合问题的有效方法
D、Dropout 机制是常见的稀疏规则化方法。

【答案】D

你可能感兴趣的:(头歌,神经网络,学习)