jupyter notebook python3.7.1_Anaconda + Jupyter Notebook 下创建 Python3.7 + Tensorflow 2.1 + Keras 2.3...

1. 创建虚拟环境

conda create –n py37-keras python=3.7

2. 激活虚拟环境

conda activate py37-keras

3. 安装ipykernel

使用conda install ipykernel 安装jupyter notebook 的插件,该插件能让我们在notebook里自主切换anaconda中的环境

4. 安装tensorflow-gpu

使用conda install tensorflow-gpu 可根据当前python版本,选择合适的tensorflow-gpub版本,并自动关联安装合适的cudatoolkit 和 cudnn ,而不需要去官网下载exe文件并配置环境变量等等,十分方便。

PS:这种方法得到的cuda是不完整的,例如使用nvcc -V将无法显示当前cuda版本。

以下代码能测试tensorflow是否能够调用GPU。

import tensorflow as tf

print(tf.test.gpu_device_name())

print(tf.test.is_gpu_available())

若成功,得到的结果应是

5. 安装keras

使用conda install kears 自动安装对应版本keras

6. 安装完成,进行测试

jupyter notebook 打开 notebook,以一份CNN代码进行测试。

import numpy as np

from keras.datasets import mnist

from keras.utils import np_utils

from keras.models import Sequential

from keras.layers import Dense,Dropout,Convolution2D,MaxPooling2D,Flatten

#二维卷积、二维最大池化、扁平化(二维->一维)

from keras.optimizers import Adam # 优化器

#载入数据集

(train_data,train_label),(test_data,test_label) = mnist.load_data()

#(60000, 28, 28)------->(60000, 784) 转化数据格式(扁平化)

train_data = train_data.reshape(-1,28,28,1)/255.0 #除以255是做归一化 1表示图像深度

test_data = test_data.reshape(-1,28,28,1)/255.0 #-1会自动进行匹配,也可以写60000

#将标签转化为one hot编码,

#one hot会将每一个标签用唯一的形式进行表示

train_label = np_utils.to_categorical(train_label,num_classes=10)

test_label = np_utils.to_categorical(test_label,num_classes=10)

#创建模型,输入784个神经元,输出10个神经元

model = Sequential()

# 第一个卷积层

# input_shape输入平面

# kernel——size 卷积窗口大小

# padding padding方法 same or valid

# activation 激活函数

model.add(Convolution2D(

input_shape = (28,28,1),

filters = 32, #32个特征图

kernel_size = 5, # 卷积窗口大小为5

strides = 1, # 步长为1

padding = 'same', # 用same padding ,得到的图片与输入的图片大小是一样的

activation = 'relu'

))

# 第一个池化层

model.add(MaxPooling2D(

pool_size = 2,

strides = 2, # 出来的特征图为14*14大小

padding = 'same',

))

#第二个卷积层 64个滤波器(卷积核),卷积窗口大小为5*5

#经过第二个卷积层后,有64个特征图,每个特征图为14*14

model.add(Convolution2D(64,5,strides = 1, padding='same',activation='relu'))

# 第二个池化层,经过第二个池化层以后,得到的图大小为7*7

model.add(MaxPooling2D(2,2,'same'))

# 把第二个池化层的输出扁平化为1维 64*7*7

model.add(Flatten())

# 第一个全连接层

model.add(Dense(1024,activation = 'relu'))

#Dropout

model.add(Dropout(0.5))

#第二个全连接层,由于是输出层,所以使用softmax做激活函数

model.add(Dense(10,activation='softmax'))

#定义优化器

adam = Adam(lr=0.001)

# 优化器,loss function,训练过程中的准确率

model.compile(optimizer = adam,

loss='categorical_crossentropy',

metrics=['accuracy']

)

#开始训练

model.fit(train_data,train_label,batch_size=32,epochs=10)

#评估模型

loss,accuracy = model.evaluate(test_data,test_label)

print('\ntest loss: ',loss)

print('\naccuracy',accuracy)

运行结果如下:

你可能感兴趣的:(jupyter,notebook,python3.7.1)