Kaggle介绍,数据分析

集成学习总结:
Kaggle介绍,数据分析_第1张图片
案例来源:kaggle
Kaggle介绍,数据分析_第2张图片
泰坦尼克号船员获救预测项目

数据
Kaggle介绍,数据分析_第3张图片
Kaggle介绍,数据分析_第4张图片

import pandas 
titanic = pandas.read_csv("titanic_train.csv")
titanic

Kaggle介绍,数据分析_第5张图片

# 空余的age填充整体age的中值
titanic["Age"] = titanic["Age"].fillna(titanic["Age"].median())
print(titanic.describe())

Kaggle介绍,数据分析_第6张图片

titanic

Kaggle介绍,数据分析_第7张图片

print(titanic["Sex"].unique())

# 把male变成0,把female变成1
titanic.loc[titanic["Sex"] == "male", "Sex"] = 0
titanic.loc[titanic["Sex"] == "female", "Sex"] = 1
titanic

Kaggle介绍,数据分析_第8张图片

print(titanic["Embarked"].unique())
# 数据填充
titanic["Embarked"] = titanic["Embarked"].fillna('S')
# 把类别变成数字
titanic.loc[titanic["Embarked"] == "S", "Embarked"] = 0
titanic.loc[titanic["Embarked"] == "C", "Embarked"] = 1
titanic.loc[titanic["Embarked"] == "Q", "Embarked"] = 2
titanic

Kaggle介绍,数据分析_第9张图片

from sklearn.preprocessing import StandardScaler

# 选定特征
predictors = ["Pclass", "Sex", "Age", "SibSp", "Parch", "Fare", "Embarked"]
x_data = titanic[predictors]
y_data = titanic["Survived"]

# 数据标准化
scaler = StandardScaler()
x_data = scaler.fit_transform(x_data)
#逻辑回归
from sklearn import model_selection
from sklearn.linear_model import LogisticRegression

# 逻辑回归模型
LR = LogisticRegression()
# 计算交叉验证的误差
scores = model_selection.cross_val_score(LR, x_data, y_data, cv=3)
# 求平均
print(scores.mean())

Kaggle介绍,数据分析_第10张图片
原代码:sklearn import cross_validation 已经不能用了
要从sklearn.model_selection中才能import出来
源代码:from sklearn import cross_validation
更改后:from sklearn import model_selection
否则会报错

#神经网络
from sklearn.neural_network import MLPClassifier

# 建模
#设置神经网络隐藏层hidden_layer_sizes=(20,10),一个是10一个是20
mlp = MLPClassifier(hidden_layer_sizes=(20,10),max_iter=2000)
# 计算交叉验证的误差
scores = model_selection.cross_val_score(mlp, x_data, y_data, cv=3)
# 求平均
print(scores.mean())

Kaggle介绍,数据分析_第11张图片

#KNN
from sklearn import neighbors

knn = neighbors.KNeighborsClassifier(21)
# 计算交叉验证的误差
scores = model_selection.cross_val_score(knn, x_data, y_data, cv=3)
# 求平均
print(scores.mean())

Kaggle介绍,数据分析_第12张图片

#决策树
from sklearn import tree

# 决策树模型
dtree = tree.DecisionTreeClassifier(max_depth=5, min_samples_split=4)
# 计算交叉验证的误差
scores = model_selection.cross_val_score(dtree, x_data, y_data, cv=3)
# 求平均
print(scores.mean())

Kaggle介绍,数据分析_第13张图片

# 随机森林
from sklearn.ensemble import RandomForestClassifier

RF1 = RandomForestClassifier(random_state=1, n_estimators=10, min_samples_split=2)
# 计算交叉验证的误差
scores = model_selection.cross_val_score(RF1, x_data, y_data, cv=3)
# 求平均
print(scores.mean())

Kaggle介绍,数据分析_第14张图片

RF2 = RandomForestClassifier(n_estimators=100, min_samples_split=4)
# 计算交叉验证的误差
scores = model_selection.cross_val_score(RF2, x_data, y_data, cv=3)
# 求平均
print(scores.mean())

Kaggle介绍,数据分析_第15张图片

#Bagging
from sklearn.ensemble import BaggingClassifier

bagging_clf = BaggingClassifier(RF2, n_estimators=20)
# 计算交叉验证的误差
scores = model_selection.cross_val_score(bagging_clf, x_data, y_data, cv=3)
# 求平均
print(scores.mean())

Kaggle介绍,数据分析_第16张图片

#Adaboost
from sklearn.ensemble import AdaBoostClassifier

# AdaBoost模型
adaboost = AdaBoostClassifier(bagging_clf,n_estimators=10)
# 计算交叉验证的误差
scores = model_selection.cross_val_score(adaboost, x_data, y_data, cv=3)
# 求平均
print(scores.mean())

Kaggle介绍,数据分析_第17张图片

#Stacking
from sklearn.ensemble import VotingClassifier
from mlxtend.classifier import StackingClassifier 

sclf = StackingClassifier(classifiers=[bagging_clf, mlp, LR],   
                          meta_classifier=LogisticRegression())

sclf2 = VotingClassifier([('adaboost',adaboost), ('mlp',mlp), ('LR',LR),
                          ('knn',knn),('dtree',dtree)])  

# 计算交叉验证的误差
scores = model_selection.cross_val_score(sclf2, x_data, y_data, cv=3)
# 求平均
print(scores.mean())

Kaggle介绍,数据分析_第18张图片

你可能感兴趣的:(集成学习,数据分析,集成学习,数据挖掘)