线性可分性是指二分类问题中的数据点可以用线性决策边界分离。如果数据点可以使用线、线性函数或平坦超平面来分离,则认为是线性可分离的。
线性可分性是神经网络中的一个重要概念。如果n维空间中的分离点遵循
则它被称为线性可分的。
对于二维输入,如果存在一条线(其方程为
)将一个类别的所有样本与另一个类别分开。这样的分类问题被称为“线性可分离”,即通过i/p的线性组合进行分离。
线性可分性是在线性代数和最优化理论的背景下引入的。它谈到了超平面在高维空间中划分两类数据点的能力。
让我们使用p维空间中的一组数据点的例子,其中p是每个点必须表征它的特征或变量的数量。
线性函数
可以用来表示超平面,其中
是数据点的特征,
是相应的权重。所以我们可以用一条直线把两个不同的类别分开,并把它们表示在图上,那么我们就说它是线性可分的,条件是它应该是y = ax + b的形式,x的幂应该是1,只有这样我们才能线性地把它们分开。
由于许多分类技术依赖于线性可分性假设,线性可分性是机器学习中的一个关键思想。
在真实的世界中,数据点通常不是完全线性可分的,因此有时我们使用更先进的技术来使数据点线性可分。
可以使用许多技术将非线性可分离数据转换为线性可分离数据。如果样本不是线性可分的,即没有直线可以将属于两个类别的样本分开,那么就不可能有任何简单的感知来完成分类任务。
以下是一些典型的策略:
检查线性可分性
from sklearn import svm
import numpy as np
# Making dataset
X = np.array([[1, 2], [2, 3], [3, 1], [4, 3]])
Y = np.array([0, 0, 1, 1])
# Now lets train svm model
model = svm.SVC(kernel='linear')
model.fit(X, Y)
# Lets predict for new input
n_data = np.array([[5, 2], [2, 1]])
pred = model.predict(n_data)
print(pred)
输出
[1 0]
我们来画出这个决策边界
import matplotlib.pyplot as plt
# lets plot decision boundary for this
w = model.coef_[0]
b = model.intercept_[0]
x = np.linspace(1, 4)
y = -(w[0] / w[1]) * x - b / w[1]
plt.plot(x, y, 'k-')
# plot data points
plt.scatter(X[:, 0], X[:, 1], c=Y)
plt.xlabel('Feature 1')
plt.ylabel('Feature 2')
plt.show()
将不可分离数据转换为可分离数据
from sklearn.datasets import make_circles
from sklearn.svm import SVC
import matplotlib.pyplot as plt
import numpy as np
# first lets create non-linear dataset
x_val, y_val = make_circles(n_samples=50, factor=0.5)
# Now lets plot and see our dataset
plt.scatter(x_val[:, 0], x_val[:, 1], c=y_val, cmap='plasma')
plt.show()
# apply kernel trick to map data into higher-dimensional space
x_new = np.vstack((x_val[:, 0]**2, x_val[:, 1]**2)).T
# Now fit SVM on mapped data
svm = SVC(kernel='linear')
svm.fit(x_new, y_val)
# plot decision boundary in mapped space
w = svm.coef_
a = -w[0][0] / w[0][1]
x = np.linspace(0, 1)
y = a * x - (svm.intercept_[0]) / w[0][1]
plt.plot(x, y, 'k-')
# plot mapped data
plt.scatter(x_new[:, 0], x_new[:, 1], c=y_val, cmap='plasma')
plt.show()