【课程作业经验】基于MIndSpore波士顿房价数据预测

基于mindspore实现全连接网络的波士顿数据集房价预测北京理工大学邱小尧,写本次帖子是基于机器学习实践课程完成的相关使用mindspore深度学习框架完成的任务,写一些分享心得,本次实验我们预采用mindspore进行数据导入与准备在这里我们使用准备好的txt文档进行数据读取,其中CRIM,ZN,INDUS,CHAS,NOX,RM,AGE,DIS,RAD,TAX,PTRATI,B,LSTAT,MEDV为其属性,其中MEDV为我们需要预测的房价。构建可按照如下方法构造DatasetGenerator并依此得到我们的datasetclass DatasetGenerator:

def __init__(self):
    self.data = data[:,:-1]
    self.label = data[:,-1]

def __getitem__(self, index):
    return self.data[index], self.label[index]

def __len__(self):
    return len(self.data)

dataset_generator = DatasetGenerator()
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False)

dataset = dataset.shuffle(buffer_size=15)
dataset = dataset.batch(batch_size=16)
train_dataset,test_dataset=dataset.split([0.8,0.2])
复制全连接网络模型建立接下来我们就开始构建全连接网络了仅采用三层全连接,较为简单。class net(nn.Cell):

def __init__(self):
    super(net,self).__init__()
    self.fc1 = nn.Dense(13,10)
    self.relu = nn.ReLU()
    self.fc2 = nn.Dense(10,1)

def construct(self, x):
    x = self.fc1(x)
    x = self.relu(x)
    x = self.fc2(x)

    return x

复制设定优化器以及其他参数在这里我们采用MSEloss函数,以及Adam优化器,感兴趣的话可以探究其他参数。net = net()
loss = nn.MSELoss()
learning_rate = 1e-3

optim = nn.Momentum(net.trainable_params(), learning_rate, 0.9)

optim = nn.SGD(net.trainable_params(),learning_rate=learning_rate,momentum=0.9)

optim = nn.AdamWeightDecay(net.trainable_params(),learning_rate=learning_rate,weight_decay=1e-5)
cb = LossMonitor()
epochs = 100
复制模型训练Mindspore实现的模型训练就很简单了,封装的比较好。model = Model(net, loss_fn=loss, optimizer=optim)
model.train(epoch=epochs, train_dataset=train_dataset, callbacks=cb)
复制测试结果在最终结果上,我们发现神经网络训练的拟合效果并不是很好,大概率因为Boston数据集数据量较少的原因。
【课程作业经验】基于MIndSpore波士顿房价数据预测_第1张图片

你可能感兴趣的:(机器学习人工智能)