Kaggle入门,一篇就够!Digit Recognizer 详解。

前言

目前 kaggle 的入门教程也挺多的,但有几个缺点,有些是比较老旧的,代码在新的版本下跑不通,这对于新手而言是很艰难的。(更有些还是py2的代码);有一些则是有原理没实现,有实现没原理,总而言之,好的入门教程不多。(不多也就是有,此处我附上另一个我觉得写的不错的教程在文末,有兴趣的同学可以去参考一下,当然直接看我这篇也是ok的 ,我会尽量囊括他的内容,算是对其内容的一个更新,因为版本问题,他的有些代码是不能直接跑的)

关于 kaggle,碎碎念

一开始也会觉得 kaggle 好难,觉得怕自己搞不定,就一直拖一直拖,不肯动手。其实完全没必要(难是难,但不至于啥都不能干)

首先来到我们 digit recognizer的地址:https://www.kaggle.com/c/digit-recognizer

Kaggle入门,一篇就够!Digit Recognizer 详解。_第1张图片
【懒癌犯了,暂时挂着,有空补上】
KNN 可优化的点不多,除了改一改K值好像没啥可改的,有看到这篇博客的朋友可以先看看我文末附上的参考链接,同时参考我的代码。
目前 KNN 跑出来的结果只有96.3%,不是很理想。
附上源代码:

import pandas as pd
from numpy import mat,tile,array
import numpy as np
import time
import csv,operator

def load_data(filename):
    return pd.read_csv(filename, sep=',', header='infer', names=None, index_col=None, usecols=None)

# 二值化,将0-255中,非0的都修改为1
def to_binary(df):
    dv = df.values
    width = len(dv[0])
    for i in range(1,len(dv)):
        for j in range(1,width):
            if dv[i][j]!= 0:
                dv[i][j] = 1
    return dv

#inX是所要测试的向量
#dataSet是训练样本集,一行对应一个样本。dataSet对应的标签向量为labels
#k是所选的最近邻数目
def classify(inX, dataSet, labels, k):
    # mat method create a matrix
    inX=mat(inX) # test_data, just one sample
    dataSet=mat(dataSet) # train_data
    labels=mat(labels) # the labels of the train_data
    dataSetSize = dataSet.shape[0]
#     此处用一个测试向量,复制n行,(n为训练集的样本数),使得该测试向量与每一个训练向量相减,用于计算最近k邻【构造了dataSetSize*inX行,1*inX列】
    diffMat = tile(inX, (dataSetSize,1)) - dataSet
    sqDiffMat = array(diffMat)**2
    sqDistances = sqDiffMat.sum(axis=1)
    distances = sqDistances**0.5
    sortedDistIndicies = distances.argsort() #array.argsort(),得到每个元素的排序序号
    classCount={}                           #sortedDistIndicies[0]表示排序后排在第一个的那个数在原来数组中的下标
    for i in range(k):
        voteIlabel = labels[0,sortedDistIndicies[i]]
        classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
    sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True)
    return sortedClassCount[0][0]

def saveResult(result):
    with open('result.csv','w',newline='') as myFile:
        myWriter=csv.writer(myFile)
        myWriter.writerow(['imageid','label'])
        for i in range(len(result)):
            myWriter.writerow([i+1,str(result[i])])

if __name__ == '__main__':
    print("loading train data...")
    df = load_data("train.csv") # 加载训练数据
    label = df['label'].values
    df = df.drop(['label'],axis=1) # 去除label列
    print("loading test data...")
    dt = load_data("test.csv") # 加载测试样本集,因为测试样本集不含label,可直接取values,提高后续速度
    print("nomalizing...")
    start = time.time()
    db = to_binary(df)  # 二值化
    dt = to_binary(dt) # 对测试集同样进行二值化
    print("training...")
    # print(len(dt))
    dt_len = len(dt)
    resultList = [] #np.empty(dt_len) # 效率比建list 后append 高
    for i in range(dt_len):
        classifierResult = classify(dt[i], db, label, 5)
        # resultList[i] = classifierResult
        resultList.append(classifierResult)
        print(str(i+1)+","+str(classifierResult))
        # print("the classifier came back with: %d" % (classifierResult))
    saveResult(resultList)
    end = time.time()
    print("using time:",end-start)

参考链接:https://blog.csdn.net/l297969586/article/details/53861250

你可能感兴趣的:(机器学习)