深度学习第一周学习

先是看了几集吴恩达机器学习的课程,了解了机器学习的基本概念。

机器学习中分为三个大块:监督学习、无监督学习和强化学习。而监督学习又分为回归算法和分类算法。通过课程也大致了解回归算法与分类算法的区别。

后面也看了李牧老师的课程,学习了第一节数据的操作。首先了解到的是N维数组样例,N维数组是机器学习和神经网络的主要数据结构。0维的数组可以称为标量,一位数组称为向量,二维数组称为矩阵。张量表示一个数值组成的数组,这个数组可能有多个维度。我不知道我是否可以这样认为二维数组以上的矩阵可以称为张量。创建数组需要形状如3*4矩阵、每个元素的数据类型如浮点数和每个元素的值。

后面学会了矩阵的运算,以及广播机制的原理。矩阵的运算相对来说比较容易理解,基本的数学运算知识。广播机制可以理解为两个形状不一样(行或列不相等)的矩阵进行运算。课程中的例子我能理解,但是如果说a是一个4*2的矩阵,b是一个1*3的矩阵相加该怎么运算呢,目前我还在思考中。

索引和切片我的理解是元素截取,“:”号表示的是沿着行或列的所有元素。内存节省的原理和python中是一样的,更改索引所对应的值而不更该id值。

后面学习了线性代数,由于个人原因线性代数没有学过,但是在听老师讲课时,所用到的一些概念和矩阵的运算还是比较容易理解的,遇到是在不懂的网上搜索相关知识点也能看明白。例如老师所讲的对称矩阵,置换矩阵等等。矩阵元素乘法哈达玛积可以简单理解就是两个矩阵中所对应的元素相乘。学到汇总这一小节时花费的时间相对前面多一点,当axis=0时就是汇总行维度(求每一列的和,汇总到一行中),当axis=1时就是汇总列维度(求每一行的和汇总到一行中)。

点积的概念通俗易懂,矩阵向量积和矩阵矩阵乘法就是线性代数中矩阵的乘法运算。范数这个概念是我第一次接触到,它表示一个向量的大小或者长度。L1范数是向量元素的绝对值之和,L2范数是向量元素的所有平方和再开平法。Lp范数(弗罗⻉尼乌斯范数)的特例就是L1范数和L2范数。

在第一周的学习中,由于自己首次接触深度学习,基础知识太薄弱,对好多学习概念不理解,对课程中许多的概念理解还不够深入,缺乏实践过程。

你可能感兴趣的:(python,深度学习)