有关 Tensorflow/CUDA/cuDNN 安装,见博客:https://xu-hongduo.blog.csdn.net/article/details/129927665
根据下图,思考:
layer 1 中包含四个神经元:
layer 1 的输出为一个二维数组:
a ⃗ [ 1 ] = [ [ a 1 [ 1 ] , a 2 [ 1 ] , a 3 [ 1 ] , a 4 [ 1 ] ] ] \vec{a}^{[1]} = [[a_1^{[1]}, a_2^{[1]}, a_3^{[1]}, a_4^{[1]}]] a[1]=[[a1[1],a2[1],a3[1],a4[1]]]
根据上述内容,回答上述的三个问题【1】【2】【3】:
输入层 x ⃗ \vec{x} x 是一个 n ∗ m n*m n∗m 的矩阵,其中 n n n 是训练样本的个数, m m m 是样本的特征。样本的 m m m 个特征,影响着隐藏层 layer 1 的向量参数矩阵形状。
隐藏层 layer 1 输出的 a ⃗ [ 1 ] \vec{a}^{[1]} a[1] 是一个 1 ∗ 4 1*4 1∗4 的矩阵,内容为 layer 1 中四个神经元的结果;
隐藏层 layer 1 的向量参数 w ⃗ \vec{w} w 是一个 m ∗ 4 m*4 m∗4 的矩阵, m m m 代表输入的特征,根据这些输入的特征,我们输出 4 4 4 个值组成的 a ⃗ [ 1 ] \vec{a}^{[1]} a[1];
下面内容我将围绕如何使用 tensorflow
代码实现上述的隐藏层以及诸多神经元:
首先有请全连接层 Dense Layer
全连接层:
全连接层(Dense) 是深度神经网络中常用的一种层类型,也是最基本的层类型之一。全连接层将上一层(输入层或者前一层隐藏层)的每个神经元与本层的 每个神经元 都进行连接,形成一个完全连接的网络结构,因此也称为全连接层。
在全连接层中,每个神经元的输出值是上一层所有神经元的 加权和,然后再经过一个 非线性激活函数 进行处理。如果本层有 n n n 个神经元,上一层有 m m m 个神经元,那么全连接层的 权重矩阵 ( w ⃗ \vec{w} w)就是一个形状为 ( m , n ) (m, n) (m,n) 的矩阵,而偏置向量( b b b)的长度为 n n n。
Sequential model 是一种按顺序堆叠各种深度学习层的简单模型。在 Sequential model 中,每一层的输出都成为下一层的输入,这些层按照 顺序连接 在一起形成一个深度学习模型,故称为:顺序模型;
本节内容只是为了知识引入,完整的一个 Minst 判断手写 0/1 项目链接如下:
xxxxxx
def my_dense(a_in, W, b, g):
units = W.shape[1]
a_out = np.zeros(units)
for i in range(units):
w = W[:,i]
z = np.dot(w, a_in) + b[i]
a_out[i] = g(z)
return(a_out)
简化上述代码,方案:通过 np.matmul()
在进行矩阵乘法计算时,np.matmul()
会自动识别输入的数组的维度,并根据矩阵乘法的规则进行计算。
e . g . e.g. e.g. 假设我们有两个矩阵 A A A 和 B B B,它们的形状分别为 ( m , n ) (m, n) (m,n) 和 ( n , p ) (n, p) (n,p),那么它们的乘积矩阵 C C C 的形状为 ( m , p ) (m, p) (m,p);
def my_dense_v(A_in, W, b, g):
Z = np.matmul(A_in,W)+b
A_out = g(Z)
return(A_out)
本节内容只是为了知识引入,完整的一个 Minst 判断手写 0/1 项目链接如下:
xxxxxx
model = Sequential(
[
tf.keras.Input(shape=(400,)),
Dense(units = 25, activation='sigmoid'),
Dense(units = 15, activation='sigmoid'),
Dense(units = 1, activation='sigmoid')
], name = "my_model"
)
上述代码中,我们引入了三个全连接层:
Dense(units = 25, activation = 'sigmoid')
Dense(units = 15, activation = 'sigmoid')
Dense(units = 1, activation = 'sigmoid')
完整的一个 Minst 判断手写 0/1 项目链接如下:
xxxxxx