大数据入门

大数据的本质还是为了用机器处理海量的数据

在大数据的生态中有各种工具来方便对数据的操作

其中hadoop算是一个核心

spark可以运行在hadoop中的yarn上,就是集群,也可以单机运行,还可以运行在mos上

hive我的理解就是一个客户端工具,写好sql来对数据查询分析

如果你学过py的pandas,那么其中datafrmae你应该已经理解了,可以把spark读出来的数据类比于此

本质就是对这个datafrmae进行各种操作,查询,过滤,聚合,

spark带的机器学习库就是,你把处理好的数据(或者叫筛选好的),调用spark的mlib库就可以实现模型的训练,再将测试数据加载就可以训练

机器学习的算法有逻辑回归,线性回归,决策树,聚类(kmeans)等

你可能感兴趣的:(大数据入门)