学校机器学习课程的实验课要求实现KNN和K-Means:
(平时没听课)临时去查了一下KNN和K-Means是啥,然后自己用C++写了小例子,想着写都写了那就把代码贴出来吧。
顺便再聊聊自己对于这俩算法的理解。
下面是文心一言的回答。
首先这俩都是分类算法,我们需要根据已经拥有的数据来对新数据进行分类。
KNN是把这个新数据扔到已有的数据里,然后找出K个距离这个新数据最近的以后数据,如果K个数据中大部分都是A类,那么我们就认为这个新数据是A类。
代码中我是自己定义了一个类来作为数据,一共有两个元素,可以把数据看作的二维的坐标点,然后要分类新数据的时候就对所有已有数据点来计算距离,然后挑出距离最近的K个点,按照类型的占比来对新数据的类型进行预测。
代码写得比较冗余,但是应该还算是好理解的(毕竟注释都写出来了)。
#include
#include
#include
#include
using namespace std;
//自定义数据类型,共有两个参数
class mydata {
public:
int val1;
int val2;
int type;
mydata(int val1=0,int val2=0,int type=0):val1(val1),val2(val2),type(type) {
//cout << "type is" << type << "\tval1 is" << val1 << "\tval2 is" << val2 << endl;
}
};
vector>Data_19(3,vector(100)); //3分类,每类100个的数据集
vector>Validation_19(3, vector(10)); //3分类,每类10个的验证集
void CreateData() {
default_random_engine e; //默认的随机数引擎生成无符号整型
e.seed(chrono::duration_cast(chrono::system_clock::now().time_since_epoch()).count()); //设置随机数种子
uniform_int_distribution type1_1(0,100); //类型1的val1的随机数范围
uniform_int_distribution type1_2(100,150); //类型1的val2的随机数范围
uniform_int_distribution type2_1(30,130); //类型2的val1的随机数范围
uniform_int_distribution type2_2(130,180); //类型2的val2的随机数范围
uniform_int_distribution type3_1(50,150); //类型3的val1的随机数范围
uniform_int_distribution type3_2(160,210); //类型3的val2的随机数范围
for (int i = 0; i < 100; ++i) {
//随机生成三个类型的数据
Data_19[0][i] = mydata(type1_1(e),type1_2(e),1);
Data_19[1][i] = mydata(type2_1(e),type2_2(e),2);
Data_19[2][i] = mydata(type3_1(e),type3_2(e),3);
if (i < 10) {
//随机生成三个类型的验证集
Validation_19[0][i] = mydata(type1_1(e), type1_2(e), 1);
Validation_19[1][i] = mydata(type2_1(e), type2_2(e), 2);
Validation_19[2][i] = mydata(type3_1(e), type3_2(e), 3);
}
}
}
int myKNN(int k,int val1,int val2) {
//定义大小为300,元素为pair(可以存放两个元素)的数组,每个元素存放数据集的数据的类型以及与待预测数据的欧式距离
vector>distance_types(300);
//初始化数组存放的类型
for (int i = 0; i < 100; ++i) distance_types[i].first = 1;
for (int i = 100; i < 200; ++i) distance_types[i].first = 2;
for (int i = 200; i < 300; ++i) distance_types[i].first = 3;
for (int i = 0; i < 3; ++i) {
for (int j = 0; j < 100; ++j) {
//计算欧式距离
distance_types[100 * i + j].second = sqrt(pow(Data_19[i][j].val1-val1,2)+pow(Data_19[i][j].val2-val2,2));
}
}
//按照欧式距离排序
sort(distance_types.begin(), distance_types.end(), [&](auto& a,auto& b) {
return a.second < b.second;
});
//大小为3的数组,用来记录与待预测数据最近的K个数据是什么类型的
vectorcount(3);
for (int i = 0; i < k; ++i) {
count[distance_types[i].first - 1]++;
}
//将接近待预测数据最多的类型返回
if (count[0] >= count[1] && count[0] >= count[2]) return 1;
if (count[1] >= count[0] && count[1] >= count[2]) return 2;
return 3;
}
void check(int K) { //KNN算法中的近邻数
double right = 0, worry = 0; //用于记录KNN预测的正确数以及错误数
for (int n = 0; n < 100; ++n) { //进行一百轮
CreateData(); //调用生成数据集以及验证集的函数
for (int i = 0; i < 3; ++i) {
for (int j = 0; j < 10; ++j) {
//如果预测成功则增加正确数,反之增加错误数
if (myKNN(K, Validation_19[i][j].val1, Validation_19[i][j].val2) == Validation_19[i][j].type) ++right;
else ++worry;
}
}
}
cout << "K is " << K << "\t\tright count: " << right << "\tworry count: " << worry << "\taccuracy is: " << right / (right + worry) << endl;
}
int main(void) {
for (int k = 3; k <= 10; ++k) {
check(k);
}
return 0;
}
K-Means的K是指我们需要把已有的数据集划分成K类。
首先我们先初始化K个锚点,随便初始化(当然效果不会好),一个锚点算是单独一个类型,然后计算所有数据点到这K个锚点之间的距离,如果数据点到某个锚点最近,那么就把这个数据点划分为这个锚点的类型。
计算完毕之后,再把每个锚点下的所有数据点取平均值再赋给锚点,这样锚点就被更新到这个类型的数据点集的中心位置了。
接着再重复刚才的过程,直到锚点的坐标不再改变,那么我们就说K-Means收敛了。
完毕之后我们就得到了K个锚点。
来新数据的时候我们只需要计算新数据和这个K个锚点之间的距离,把新数据归类到最近的锚点下就完成了分类。
刚才的KNN是在分类新数据的时候要进行大量计算(计算新数据与所有老数据的距离),而K-Means是在一开始初始化的时候进行大量计算。
代码中没有像KNN那样新建一个类型来表示数据,但是每个数据还是有两个元素,可以看作是二维平面上的坐标点。
#include
#include
#include
#include
#include
using namespace std;
vector>Datas;
int N = 100; //随机生成数据的数量
int K = 5; //分成K类
unordered_map>> M; //用于划分数据的类
default_random_engine e; //默认的随机数引擎生成无符号整型
uniform_int_distribution u(0,100); //控制随机数生成范围
void CreateDatas_09() {
//随机生成100个数据
for (int i = 0; i < N; ++i) {
Datas.push_back({ u(e),u(e) });
}
}
void K_Means_09(int K) {
vector>K_Sources(K); //存放K个聚点
vector>temp_K_Sources(K); //用于比较是否和上次聚点的坐标一致
vector>cache(K); //临时存放数据与聚点的距离
int epoch = 0;
CreateDatas_09(); //调用函数生成数据集
//随机初始生成K个聚点
for (int i = 0; i < K; ++i) K_Sources[i]={ u(e),u(e) };
while (1) {
temp_K_Sources = K_Sources; //保存当前聚点的数据,用于判断是否收敛
M.clear();
for (int i = 0; i < N; ++i) {
for (int j = 0; j < K; ++j) {
//计算欧式距离
cache[j] = { sqrt(pow(K_Sources[j][0] - Datas[i][0],2) + pow(K_Sources[j][1] - Datas[i][1],2)) ,'A' + j };
}
//排序数据与每个聚点的距离
sort(cache.begin(), cache.end(), [](auto& a,auto& b){
return a.first < b.first;
});
//如果哈希表中没有此类聚点的键,那么添加
if (M.find(cache[0].second) == M.end()) M[cache[0].second] = vector>(0);
//分配数据到相应的类
M[cache[0].second].push_back(Datas[i]);
}
cout << "epoch is:" << epoch++ << endl;
for (int i = 0; i < K; ++i) {
//重新计算聚点数据
int x = 0, y = 0;
//累加所有数据的值
for (auto& a : M['A' + i]) {
x += a[0];
y += a[1];
}
//取平均值作为新聚点
K_Sources[i][0] = x / M['A' + i].size();
K_Sources[i][1] = y / M['A' + i].size();
cout << static_cast('A' + i) << "类的聚点:\t" << K_Sources[i][0] << "\t" << K_Sources[i][1] << endl;
}
//如果聚点与上次的结果相同,那么收敛,结束迭代
if (temp_K_Sources == K_Sources) break;
}
}
int main(void) {
//设置时间戳保证每次随机的数据都不同
e.seed(chrono::duration_cast(chrono::system_clock::now().time_since_epoch()).count());
K_Means_09(K);
cout << "----------------------------------分割线------------------------------------------" << endl;
//打印分类的结果
for (int i = 0; i < K; ++i) {
cout << static_cast('A' + i) << "类包含的点:" << endl;
for (auto& a : M['A' + 1]) cout << a[0] << '\t' << a[1] << endl;
}
return 0;
}