E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
机器学习总结
巴尔加瓦算法图解:K最近邻算法
巴尔加瓦算法图解:K最近邻算法目录巴尔加瓦算法图解:K最近邻算法判断水果创建推荐系统1.判断相似程度练习回归(预测结果)
机器学习总结
本章内容❑学习使用K最近邻算法创建分类系统。❑学习特征抽取。
Ashleyxxihf
·
2024-02-08 16:03
码上行动:巴尔加瓦算法图解
算法
近邻算法
大数据开发之
机器学习总结
(一)
大数据开发之
机器学习总结
1.背景在大数据开发中,数据分析目的一般分为2大类,一个是基于已有数据,提炼出想要的数据汇总信息。一个是基于已有数据使用算法训练出模型,基于模型预测和分析未来的新数据。
闻香识代码
·
2024-02-05 21:41
大数据
机器学习
用户画像
机器学习
大数据
算法
机器学习总结
朴素贝叶斯fromsklearnimportdatasetsiris=datasets.load_iris()fromsklearn.naive_bayesimportGaussianNBgnb=GaussianNB()y_pred=gnb.fit(iris.data,iris.target).predict(iris.data)支持向量机fromsklearnimportsvmX=[[0,0],
净土_0342
·
2023-10-12 06:38
深度之眼-
机器学习总结
为期三个月的西瓜书机器学习训练营结束,昨天听完了毕业典礼。我做了如下总结:校长讲话:定目标短时间自己的小团队闭环开环闭环----学习小部分就应用时间和努力的堆积打比赛应用人工智能的课题和方向资料tensorflow实战google深度学习框架和强者学习才会遇强则强博士讲话:1.坚持写博客2.github3.多练习4.英文原版的文章高级课程你目前的弱点是什么5.多读论文
任嘉平生愿
·
2023-10-08 16:49
机器学习总结
对以下文章
机器学习总结
什么是深度学习?
gridlayout
·
2023-09-26 10:13
机器学习
人工智能
2023 Google开发者大会:你了解机器学习的新动向吗?
目录0年度科技盛会1生成式机器学习2无障碍游戏体验3跨平台
机器学习总结
0年度科技盛会2023Google开发者大会在上海浦东举办,为开发者和科技爱好者们带来新技术、新产品、新动向可能很多同学对Google
Mr.Winter`
·
2023-09-15 18:36
前沿资讯
机器学习
人工智能
google
数据挖掘
计算机视觉
语音识别
深度学习
【机器学习】
说明:
机器学习总结
0、数据集1、贝叶斯分类器(一)计算题所有样本分为两类(c):好瓜=是、好瓜=否(1)计算先验概率:P(c)(2)计算每个属性的条件概率:P(xi|c)(3)代入朴素贝叶斯公式:(4)
许多仙
·
2023-08-29 08:26
机器学习
算法
支持向量机
数字验证码识别新思路及对opencv支持向量机
机器学习总结
验证码识别框架新问题最近遇到了数字验证码识别的新问题。由于这次的数字验证码图片有少量变形和倾斜,所以,可能需要积累更多的原始采样进行学习。但按照4个验证码10个数字的理论随机组合(暗含某种数字仅有少量变化,不然此组合数量还应更大),也就是要采样差不多一万张图片;对每个图片适当分割后,那就差不多几万张图片了。想要对这些切割后的图片进行手工分类,成为基本数字的训练学习数据,手工工作量不小,也很无趣。当
快乐的阿常艾念宝
·
2023-07-24 21:06
机器学习
杂谈&随想
机器学习
opencv
支持向量机
机器学习总结
(lecture 4)算法:逻辑回归Logistic Regression (LR)
lecture4:逻辑回归LogisticRegression目录lecture4逻辑回归LogisticRegression目录1分类和模型表示2逻辑回归1逻辑回归的代价函数的选取3过拟合和正则化1分类和模型表示先来谈谈二分类问题。课程中先给出了几个例子。邮件是垃圾邮件还是非垃圾邮件;网上交易是的欺骗性(YorN);肿瘤是恶性的还是良性的。对于这些问题,我们可以通过输出值yϵ{0,1}来表示。注
九方先生
·
2023-02-27 18:19
机器学习总结
朴素贝叶斯——
机器学习总结
朴素贝叶斯基础知识概念优缺点一般过程利用python进行文本分类准备数据训练算法测试算法示例1:使用朴素贝叶斯过滤垃圾邮件一般步骤准备数据:切分文本测试算法:使用朴素贝叶斯进行交叉验证示例2:使用朴素贝叶斯分类器从个人广告中获取区域倾向一般步骤收集数据:导入RSS源RSS源分类器及高频词去除函数分析数据:显示地域相关的用词基础知识概念从简单的概率分类器开始,给出一些假设(条件独立性)学习朴素贝叶斯
古月哥欠666
·
2023-01-26 13:30
机器学习
算法
Python-Level5-day07am:聚类的基于噪声密度/凝聚层次算法及评价指标及小结,机器学习补充练习,
机器学习总结
,
之前讲解了基于中心聚类,采用kmeans聚类算法,下面讲解基于噪声密度聚类算法DBSACN与基于层次聚类算法(Agglomerative)算法2)噪声密度①算法定义噪声密度(Density-BasedSpatialClusteringofApplicationswithNoise,简写DBSCAN)随机选择一个样本做圆心,以事先给定的半径做圆,凡被该圆圈中的样本都被划为与圆心样本同处一个聚类,再以
dpq666dpq666
·
2023-01-25 12:03
数据分析人工智能
python
机器学习总结
-基于sklearn包
流程集成学习数据预处理(特征工程)1.处理负值(oroutlier)标记有问题的特征,但是不删去defgetres1(row):returnlen([xforxinrow.valuesiftype(x)==intandx20,'neg1']=20#平滑处理2.填充缺失值缺失值也可以删去样本或者特征,不过在样本量比较少,特征不明确的情况下不建议直接删除特征。可以直接用fillna补充data['le
zaprily
·
2023-01-09 14:00
总结
sklearn
python
机器学习
《吴恩达机器学习》18
机器学习总结
前言原机器学习最后一章的内容为图片文字识别,但是笔者在看了这一章的课程之后发现其内容可能实际应用性不大,课程讲的ocr识别的方法已经不适合目前主流的算法(目前主流使用CNN——卷积神经网络),故省略这一章节的笔记,改为对整个机器学习课程的总结。一、监督学习算法1、线性回归线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛。其表达形式为hθ
JockerWong
·
2023-01-01 13:18
机器学习
吴恩达
机器学习
课程总结
吴恩达
机器学习总结
(三)——神经网络的反向传播
神经网络的反向传播在上一篇博客中,利用神经网络对手写数字数据进行分类的结果虽然已经很高了,但和测试样本本身的输出值进行比较还是存在着一定的误差。这时我们需要使用这个误差值来调整神经网络本身,进而改变神经网络的输出值。误差传递我们知道在前向传播中,每个节点向下一层传递的信号所占权重不同。若只有一个节点的信号传递到输出节点,那调整神经网络输出值的方式将简单的多,只需要更新这个节点的权重即可。假如有多个
Anaconda_
·
2022-12-23 23:02
机器学习
深度学习
机器学习
神经网络
反向传播
博客目标与内容
目标量化学习总结回测框架Backtrader量化机器人的搭建因子模型技术分析编程学习总结网络编程python基础数学学习总结高数线性代数概率论
机器学习总结
pytorch神经网络强化学习具体项目总结目标管理
Geng Rain
·
2022-12-19 12:11
python
机器学习总结
(1)x(2)表示训练集中x的第二个训练数据,y(2)表示训练集中的y的第二个训练数据(2)需要注意的是对于一个模型构建出来的函数F,那么我们如何找出该模型的可以更好拟合训练数据的模型参数呢,我们通过使用代价函数(costfunction),通过计算不同的参数得到的预测值y和最终结果y之间的误差大小来最终确定应该如何选择最佳的参数。(3)梯度下降算法被用来寻找使得代价函数J的最小值,从而确定其此时
奋斗的海绵
·
2022-12-18 09:52
机器学习
数据分析
数据挖掘
分布式
机器学习总结
目前主流的分布式架构包括:1.基于mapreduce模型的spark-mllib,采用数据分布式+同步的模式,缺点是对异步和模型分布式不支持,但是社区完善。2.基于参数服务器的Multiverso,既可实现数据分布式,也可实现模型分布式,同时支持异步和同步,也可实现大规模的参数更新。3.基于数据流图的tensorflow,可以和1,2结合组成复杂的分布式机器学习网络。4.3种模式的区别:5.各种框
Liao_Wenzhe
·
2022-12-09 08:11
机器学习与数据挖掘
分布式数据研发
大数据
百面
机器学习总结
笔记(第二章 模型评估)
百面
机器学习总结
笔记(第二章模型评估)百面
机器学习总结
笔记第二章模型评估第1节评估指标的局限性问题:准确率的局限性问题:精确率与召回率的权衡第2节ROC曲线问题:什么是ROC曲线?
Avery123123
·
2022-12-04 14:50
算法岗面试笔试准备
百面机器学习
模型评估
机器学习总结
均值、中值和众数从一组数字中我们可以学到什么?在机器学习(和数学)中,通常存在三中我们感兴趣的值:均值(Mean)-平均值中值(Median)-中点值,又称中位数众数(Mode)-最常见的值例如:我们已经登记了13辆车的速度:speed=[99,86,87,88,111,86,103,87,94,78,77,85,86]什么是平均,中间或最常见的速度值?均值均值就是平均值。要计算平均值,请找到所有
Bryant998
·
2022-12-04 08:04
人工智能
python
若特征的相关系数为0或接近0,就一定可以被过滤吗?相关系数的显著性检验也不一定可靠,如何判断?
系列文章目录添加
机器学习总结
提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录系列文章目录前言一、若特征的相关系数为0或接近0,就一定可以被过滤吗?
陈谦
·
2022-12-02 13:34
机器学习
人工智能
算法
python
周志华
机器学习总结
Lecture3线性模型基本形式一般向量形式:优点:线性回归广义线性模型对数几率回归由对数几率函数确定$\boldsymbol{\omega}$和$b$线性判别分析(LDA)思想求解多分类任务多分类问题基本形式一般向量形式:f(x)=ωT∗x+bf(\boldsymbol{x})=\boldsymbol{\omega}^T*\boldsymbol{x}+bf(x)=ωT∗x+b优点:非线性模型可由
夜夜0810
·
2022-12-01 20:19
机器学习总结
之——标准化与归一化的区别
机器学习总结
之——标准化与归一化的区别1、标准化 简单来说,标准化是依照特征矩阵的列处理数据,其通过求z-score的方法,将样本的特征值转换到同一量纲下。
Greatpanc
·
2022-11-27 17:04
机器学习
标准化
归一化
标准化与归一化过程缺失数据处理
李宏毅课程-
机器学习总结
李宏毅课程-
机器学习总结
迁移学习:TransferLearning1.什么是迁移学习呢?
张学义
·
2022-11-15 17:19
深度学习
机器学习总结
一:Bagging之决策树、随机森林原理与案例
机器学习算法总结一、Bagging之决策树、随机森林原理与案例二、boosting之GBDT、XGBT原理推导与案例三、SVM原理推导与案例四、逻辑回归与反欺诈检测案例五、聚类之K-means一、Bagging之决策树、随机森林原理与案例1.决策树1.1简介决策树(DecisionTree)是一种非参数的有监督学习方法,它能够从一系列有特征和标签的数据种总结出决策规则,并利用树状图结构呈现这些规则
想考个研
·
2022-11-14 09:08
机器学习
决策树
随机森林
机器学习总结
三:SVM原理推导与案例
机器学习算法总结一、Bagging之决策树、随机森林原理与案例二、boosting之GBDT、XGBT原理推导与案例三、SVM原理推导与案例四、逻辑回归与反欺诈检测案例五、聚类之K-means三、SVM1.原理推导(硬间隔)1.1分类问题代数化**svm原理一句话概括:找出一个最优的直线(或超平面)去隔离不同类别样本数据,达到分类目的。**图1图2图1:找出一条直线将样本完美地划分成两类(注意这样
想考个研
·
2022-11-14 09:07
机器学习
支持向量机
算法
机器学习总结
二:boosting之GBDT、XGBT原理公式推导
一、Bagging之决策树、随机森林原理与案例二、boosting之GBDT、XGBT原理推导与案例三、SVM原理推导与案例四、逻辑回归与反欺诈检测案例五、聚类之K-meansBoosting1.简介通过在数据上构建多个弱评估器,汇总所有弱评估器的建模结果,以取得比单个模型更好的分类或回归表现。加法模型,前向分步计算学习。2.基本元素弱评估器f(x):一般为决策树(cart树),不同boostin
想考个研
·
2022-11-14 09:37
机器学习
算法
boosting
机器学习总结
四:逻辑回归与反欺诈检测案例
机器学习算法总结一、Bagging之决策树、随机森林原理与案例二、boosting之GBDT、XGBT原理推导与案例三、SVM原理推导与案例四、逻辑回归与反欺诈检测案例五、聚类之K-means四、逻辑回归1、概述由线性回归变化而来的,应用于分类问题中的广义回归算法。组成:回归函数z=w1x1+w2x2+...+wnxn+b=[w1w2wnb]∗[x1x2⋮xn1]=wTXz=w_1x_1+w_2x
想考个研
·
2022-11-14 09:33
机器学习
逻辑回归
算法
吴恩达
机器学习总结
(二)——Logistic回归和简单的神经网络(附作业)
在线性回归模型中,输入和输出一般都是连续的,对于每个输入x,都有一个对应的输出y,模型的定义域和值域都可以是(−∞,+∞)(-∞,+∞)(−∞,+∞)。而对于分类模型来说,其输入可以是连续的,但它的输出是离散的,即只有有限个输出y。例如,其值域可以只有两个值{0,1},这两个值可以表示对样本的某种分类,高/低、患病/健康、阴性/阳性等,这就是最常见的二分类问题。二、Logistic回归逻辑回归带有
Anaconda_
·
2022-09-30 07:27
机器学习
机器学习
逻辑回归
神经网络
机器学习总结
(三)——梯度下降详解
梯度下降通俗解释机器学习的问题中,线性回归问题是一个特殊的情况,线性回归可以直接求解,但是其他问题不行!举一个通俗的例子针对我们的问题,我们想要找到loss最小值所对应的θ值。我们“下山”的路有很多条,哪一条下山最快呢?那必定是对应点处的切线方向啊,也叫对应点的梯度反方向。每下降一步(或者叫“下山”一步),对应的点都会改变,所以对应的梯度方向也会改变。我们每次走一步,一步应该多大呢?步长应该小一些
时代&信念
·
2022-08-20 18:55
机器学习
机器学习总结
(二)
独立同分布的意义在机器学习中很重要的一点:误差是独立同分布的,并且服从均值为0,方差为⊖2\ominus^2⊖2的高斯分布。解释一下:什么是独立?就是数据样本之间互相独立(互相不影响),例如:张三来银行贷款,他贷款多少并不影响李四的贷款金额和情况。两个数据是相互独立的。什么是同分布?样本数据得满足相同的分布。不能是这个数据满足正太分布,这个数据满足泊松分布。例如:咋们研究的是,根据年龄和月薪,预测
时代&信念
·
2022-08-11 07:40
机器学习
机器学习
python
人工智能
机器学习总结
(一)
回归问题概述在机器学习的有监督学习中,将问题分为两类:一类是分类,另一类叫回归。那什么是有监督学习呢?我的理解就是:利用以往有标签的数据,进行学习的,叫作有监督学习;相反,无监督学习就是在一堆没有标签的数据中,进行学习的,叫作无监督学习。有监督学习和无监督学习的区别是?有监督学习分训练集合测试集,在一堆有标签的训练集中“寻找”规律,然后再测试集中使用这种规律;无监督学习只有一组数据,进行寻找规律。
时代&信念
·
2022-08-10 09:03
机器学习
机器学习
人工智能
算法
机器学习总结
----融合模型Stacking
本博客参考了:https://blog.csdn.net/maqunfi/article/details/82220115https://zhuanlan.zhihu.com/p/27493821主要思路stacking框架是集成了不同的算法,充分利用不同算法从不同的数据空间角度和数据结构角度的对数据的不同观测,来取长补短,优化结果训练过程1、划分数据集,比如我们有10000条训练集,2500条测
小黎的学习总结
·
2022-07-30 07:28
算法
机器学习
数据挖掘
研究生工作周报(第六周)
学习目标:
机器学习总结
深度学习第四课《卷积神经网络》-Stanford吴恩达教授"花书"第一部分第五章机器学习基础学习内容:像素填充padding卷积步长(StridedConvolutions)三维卷积
wangyunpeng33
·
2022-06-27 07:12
计算机视觉
深度学习
人工智能
期末复习--
机器学习总结
(全)
填空题pandas两种核心数据结构:一维数据结构Series,二维数据结构DataFrame回归可用于预测连续的目标变量,分类可用于预测离散的目标变量OLAP是On-LineAnalyticalProcessing的简称,称联机分析处理。被OLAP被看作一种广义的数据挖掘方法,旨在简化和支持联机分析。常见的分类算法包括:逻辑回归、决策树、神经网络、KNN、支持向量机、贝叶斯数据挖掘任务主要集中在回
茶哩
·
2022-06-27 07:47
机器学习
数据挖掘
人工智能
机器学习总结
(十一):深度学习算法(CNN,SAE,等)及常见问题总结
(1)CNN层级结构:输入层->卷积层->激励层->卷积层->激励层。。。数据输入层(数据预处理):三种方法:去均值(即0均值化,CNN常用,训练集所有像素值减去均值,把输入数据各个维度中心化到0,测试集也减相同的均值);归一化(幅度归一化到同样的范围);PCA/白化(降维,白化是对数据每个特征轴上的幅度归一化)。去均值的目的:(1)数据有过大的均值可能导致参数的梯度过大,在梯度回传时会有一些影响
西电校草
·
2022-06-16 07:23
机器学习总结
机器学习
机器学习
深度学习
cnn
sae
李宏毅
机器学习总结
人工智能与机器学习与深度学习之间的关系机器学习的三类任务第一类是无监督学习,指的是从信息出发自动寻找规律,并将其分成各种类别,有时也称"聚类问题"。第二类是监督学习,监督学习指的是给历史一个标签,运用模型预测结果。如有一个水果,我们根据水果的形状和颜色去判断到底是香蕉还是苹果,这就是一个监督学习的例子。最后一类为强化学习,是指可以用来支持人们去做决策和规划的一个学习方式,它是对人的一些动作、行为产
梦码城
·
2022-06-07 07:36
人工智能
1024程序员节
机器学习
人工智能
李宏毅
python
ng-
机器学习总结
-初识机器学习
监督学习(Supervised-learning)案例:房价预测、肿瘤恶性判别代表问题:回归(regresion):样本点的函数值为连续值(continious)----比如金额分类(classification):样本点的函数值离散值(discrete)----比如是否为癌症特点:简而言之就是对于每一个样本点都有一个正确的答案(好还是坏)无监督学习(Unsupervised-learning)案
qq_38367589
·
2022-05-15 07:47
机器学习
学习之路
机器学习总结
目录一.连续特征的离散化:在什么情况下将连续的特征离散化之后可以获得更好的效果?二.LabelEncoder和OneHotEncoder在特征工程中的应用三.神经网络(深度学习)四.反向传播与梯度下降五.聚类算法六.机器学习:样本分布不均衡问题的处理1.对正样本过采样---容易造成过拟合2.对负样本欠采样---容易丢失重要信息3.调整权重七.jieba中文分词八.推荐系统传统召回是怎么实现热门it
Alex_81D
·
2021-04-22 14:18
机器学习与算法
机器学习之特征工程
一、哑变量关于哑变量,这篇博文写的很好,相关概念可以参阅:《
机器学习总结
之——DummyCoding(哑变量)》下面用一个小小的例子来演示一下哑变量的实现。
一只怂货小脑斧
·
2020-12-17 10:47
机器学习总结
----FFM
本片博客参考了:https://blog.csdn.net/hiwallace/article/details/81333604http://www.uml.org.cn/sjjmwj/2016031410.aspFFM(Field-awareFactorizationMachine)FFM在FM的基础上引入了field的概念,就是把相同性质的特征归于同一个field,比如,在职业这个特征有两个取
小黎的学习总结
·
2020-09-16 03:42
推荐系统
机器学习
机器学习总结
(三):矩估计
鉴于后续机器学习课程中多次提到参数估计的概念,为了避免囫囵吞枣的理解某些知识点,决定对概率统计的这部分知识点进行简要总结,这篇博客主要涉及的是点估计中的矩估计知识点,后续的博客将总结点估计中其他两个比较常见的方式,极大似然估计以及最小二乘法。基础概念为什么要出现估计呢?因为在统计学中,所要观测的数据量往往都比较大,我们不可能将所有数据全部都进行统计,一种可行的方式就是从这些数据量中抽取一部分数据,
她说巷尾的樱花开了
·
2020-09-13 10:40
机器学习
机器学习总结
(lecture 18)算法:强化学习Reinforcement Learning(RL)
lecture18:强化学习ReinforcementLearning目录lecture18强化学习ReinforcementLearning目录1简介1什么是强化学习2强化学习方法汇总3为什么要用强化学习2强化学习算法参考:https://morvanzhou.github.io/tutorials/machine-learning/reinforcement-learning/1简介1.1什么
九方先生
·
2020-09-13 08:16
机器学习总结
佛爷芸: 机器学习算法原理总结系列---算法基础之(1)机器学习介绍
机器学习总结
分为两个系列,另外一个系列重点是深度学习(DL)。我会不定期改动我的每一篇文章,将我认为最好、最精粹的部分保留下来,原理讲解完了都会附上Python的代码实现,基本在这个系列我会用两
陆壹爵爷
·
2020-09-12 15:00
机器学习实战
Python&
机器学习总结
(一)
①numpy中np.c_和np.r_np.r_是按列连接两个矩阵,就是把两矩阵上下相加,要求列数相等,类似于pandas中的concat()。np.c_是按行连接两个矩阵,就是把两矩阵左右相加,要求行数相等,类似于pandas中的merge()。下面看一个例子:importnumpyasnpa=np.array([1,2,3])b=np.array([4,5,6])c=np.c_[a,b]prin
aichengcan1181
·
2020-08-22 12:11
Python&
机器学习总结
(二)
①Python中的SortPython中的内建排序函数有sort()和sorted()两个list.sort(func=None,key=None,reverse=False(orTrue))对于reverse这个bool类型参数,当reverse=False时:为正向排序;当reverse=True时:为方向排序。默认为False。执行完后会改变原来的list,如果你不需要原来的list,这种效
aichengcan1181
·
2020-08-22 12:41
百面
机器学习总结
笔记(第十二章 集成学习)
百面
机器学习总结
笔记(第十二章集成学习)百面
机器学习总结
笔记第十二章集成学习集成学习的种类集成学习的步骤和例子基分类器偏差与方差梯度梯度决策树的基本原理XGBoost与GBDT的联系和区别百面
机器学习总结
笔记第十二章集成学习集成学习的种类场景描述知识点
Avery123123
·
2020-08-16 11:24
机器学习总结
----iForest异常值处理
本篇博客参考了iForest主要思想iForest适用于连续数据的异常检测,它将一场定义为“容易被孤立的离群点”,也可以理解为分布稀疏且离密度高的群体较远的点,属于一种无参数无监督的方法。在iforest中,我们不断的用超平面切割空间,直到每个子空间只剩下一个点,我们就可以看出,密度高的簇要被切很多次才能将里面的点单独分割出来,而密度低的点,很容易就会被超平面分割到一个单独的空间里。iForest
小黎的学习总结
·
2020-08-16 07:09
个人
机器学习总结
汇总
陆陆续续学习机器学习好几个月了。以前的笔记都在纸质笔记本上。被鄙视了,同时听说写博客也很有益于交流。特写个博客来总结下所学内容。先占坑,把目录定好,后续补博客总结连接。由于主要看了统计学习和林轩田的课程,故里面的内容多来自于以林轩田的课程,穿插西瓜书和统计学习,辅以部分网络文章目录结构如下:机器学习简介https://blog.csdn.net/studyorlearn/article/detai
酸辣椒炒青椒
·
2020-08-10 21:22
机器学习总结
机器学习总结
1
传统的机器学习任务从开始到建模的一般流程就是:获取数据——》数据预处理——》训练模型——》模型评估——》预测,分类。sklearn库是用面向对象的思想来使用的。每种算法都是一个对象,只有在实例化之后才可以对数据学习和预测。标量,向量,矩阵与张量1、标量一个标量就是一个单独的数,一般用小写的的变量名称表示。2、向量一个向量就是一列数,这些数是有序排列的。用过次序中的索引,我们可以确定每个单独的数。通
沈万三gz
·
2020-08-10 21:58
人工智能
TensorFlow
机器学习总结
学习路线图理论数据预处理聚类技术methodsmodels范式特征应用相关文章矩阵理解工具numpyscikit-learnscipymatplotlib学习路线图先来看个学习框架图:下图说明了如何选择模型?理论数据预处理统计数据归一化与标准化标准化,归一化和正则化聚类【推酷主题】聚类分析技术methods【知乎】分类与回归区别是什么?回归分析相关系数(量化相关程度)线性回归(一个因变量直线,多元
TheSnowBoy_2
·
2020-08-10 14:28
机器学习
上一页
1
2
3
4
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他