E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
----机器学习笔记
机器学习笔记
:李宏毅ChatGPT Finetune VS Prompt
1两种大语言模型:GPTVSBERT2对于大语言模型的两种不同期待2.1“专才”2.1.1成为专才的好处IsChatGPTAGoodTranslator?APreliminaryStudy2023Arxiv箭头方向指的是从哪个方向往哪个方向翻译表格里面的数值越大表示翻译的越好可以发现专门做翻译的工作会比ChatGPT好一些HowGoodAreGPTModelsatMachineTranslatio
UQI-LIUWJ
·
2023-08-09 08:43
机器学习
chatgpt
机器学习
笔记
吴恩达
机器学习笔记
(自用)
吴恩达机器学习机器学习的定义什么是机器学习?机器学习算法1.监督学习(SupervisedLearning)2.无监督学习(UnsupervisedLearning)单变量线性回归模型描述(ModelRepresentation)代价函数梯度下降线性回归中的梯度下降凸函数(convexfunction)多变量线性回归多元梯度下降法特征缩放(FeatureScaling)学习率(Learningra
cosθ
·
2023-08-09 06:02
机器学习
人工智能
python
机器学习笔记
自用
matplotlib.legend中的ncol,例如plt.legend(label,loc=0,ncol=4)表示一行可放置4个标签loc表示位置常用位置如下
鄙人不善奔跑
·
2023-08-09 05:00
机器学习
python
「AI大咖谈」阿里算法专家谈大规模推荐系统粗排层的设计与实现
这里是「王喆的
机器学习笔记
」的第三十七篇文章。今天我们「AI大咖谈」邀请的大咖是阿里的算法专家王哲,所以今天是一次王喆对王哲的访谈。
王喆的机器学习笔记
·
2023-08-09 05:20
机器学习笔记
之优化算法(十一)凸函数铺垫:梯度与方向导数
机器学习笔记
之优化算法——凸函数铺垫:梯度与方向导数引言回顾:偏导数方向余弦方向导数方向导数的几何意义方向导数的定义方向导数与偏导数之间的关联关系证明过程梯度(Gradient)(\text{Gradient
静静的喝酒
·
2023-08-08 18:38
机器学习
深度学习
数学
机器学习
偏导数
方向导数
偏导数与方向导数之间关系
方向导数与梯度之间关系
机器学习笔记
:李宏毅ChatGPT:生成式学习的两种策略
1策略1“各个击破”——autoregressivemodel“各个击破”——一个一个生成出来2策略2:“一次到位”——non-autoregressvemodel一步到位,全部生成出来2.1non-autoregressivemodel如何确定长度?两种策略策略1:始终生成固定长度(比如100),如果出现end,那么end后面的部分直接扔掉策略2:首先输出一个数字n,表示之后我们要输出多长,然后
UQI-LIUWJ
·
2023-08-08 17:41
机器学习
笔记
chatgpt
学习
机器学习笔记
- week9 -(十五、异常检测)
15.1问题的动机在接下来的一系列视频中,我将向大家介绍异常检测(Anomalydetection)问题。这是机器学习算法的一个常见应用。什么是异常检测呢?为了解释这个概念,让我举一个例子吧:假想你是一个飞机引擎制造商,当你生产的飞机引擎从生产线上流出时,你需要进行QA(质量控制测试),而作为这个测试的一部分,你测量了飞机引擎的一些特征变量,比如引擎运转时产生的热量,或者引擎的振动等等。这样一来,
火箭蛋头
·
2023-08-08 05:12
机器学习——支持向量机(数学基础推导篇)
支持向量机(SVM)——原理篇
机器学习笔记
(五):支持向量机(SVM)支持向量机算法(SVM)详细讲解(含手推
# JFZero
·
2023-08-07 11:32
机器学习基础
算法
机器学习
支持向量机
人工智能
机器学习笔记
- 关于GPT-4的一些问题清单
一、简述据报道,GPT-4的系统由八个模型组成,每个模型都有2200亿个参数。GPT-4的参数总数估计约为1.76万亿个。近年来,得益于GPT-4等高级语言模型的发展,自然语言处理(NLP)取得了长足的进步。凭借其前所未有的规模和能力,GPT-4为语言AI设立了新标准,并为机器生成内容开辟了一个充满了无限可能性的世界。然而,GPT-4令人印象深刻的性能背后隐藏着控制其行为的复杂参数网络。我们这里将
坐望云起
·
2023-08-07 06:29
机器学习
人工智能
神经网络
ChatGPT
语言模型
深度学习
OpenAI
注意力
机器学习笔记
- 基于Python发现最佳计算机视觉模型的神经架构搜索技术NAS
典型案例YOLO-NAS(NeuralArchitectureSearch)
机器学习笔记
-YOLO-NAS最高效的
坐望云起
·
2023-08-07 05:52
机器学习
机器学习
python
遗传算法
NAS
神经架构搜索
神经网络
人工智能
机器学习笔记
:李宏毅ChatGPT课程1:刨析ChatGPT
ChatGPT——ChatGenerativePre-trainedTransformer1文字接龙每次输出一个概率分布,根据概率sample一个答案——>因为是根据概率采样,所以ChatGPT每次的答案是不一样的(把生成式学习拆分成多个分类问题)将生成的答案加到原来的句子里面1.1同时使用同一个会话中之前的互动作为输入模型的输入不止有现在的互动,还有同一会话中过去的互动这里说的1700亿参数是O
UQI-LIUWJ
·
2023-08-06 20:46
机器学习
chatgpt
笔记
人工智能
机器学习笔记
- YOLO-NAS 最高效的目标检测算法之一
一、YOLO-NAS概述YOLO(YouOnlyLookOnce)是一种对象检测算法,它使用深度神经网络模型,特别是卷积神经网络,来实时检测和分类对象。该算法首次在2016年由JosephRedmon、SantoshDivvala、RossGirshick和AliFarhadi发表的论文《YouOnlyLookOnce:Unified,Real-TimeObjectDetection》中被引入。自
坐望云起
·
2023-08-06 12:16
机器学习
YOLO
目标检测
人工智能
NAS
YOLO-NAS
机器学习笔记
之优化算法(十)梯度下降法铺垫:总体介绍
机器学习笔记
之优化算法——梯度下降法铺垫:总体介绍引言回顾:线搜索方法线搜索方法的方向Pk\mathcalP_kPk线搜索方法的步长αk\alpha_kαk梯度下降方法整体介绍引言从本节开始,将介绍梯度下降法
静静的喝酒
·
2023-08-06 09:02
机器学习
深度学习
梯度下降法
优化算法
利普希兹连续
凸函数与强凸函数
机器学习笔记
- 使用 Tensorflow 从头开始构建您自己的对象检测器
机器学习笔记
-使用Keras、TensorFlow框架进行自定义数据集目标检测训练_keras制作目标检测数据集_坐望云起的博客-CSDN博客学习如何训练自定义深度学习模型,以通过Keras、TensorFlow
坐望云起
·
2023-08-05 06:48
机器学习
机器学习
tensorflow
目标检测
YOLO
Tensorflow
对象检测器
机器学习笔记
之优化算法(九)收敛速度的简单认识
机器学习笔记
之优化算法——收敛速度的简单认识引言收敛速度的判别标准Q\mathcalQQ-收敛速度R\mathcalRR-收敛速度关于算法复杂度与收敛速度引言本节对收敛速度简单介绍。
静静的喝酒
·
2023-08-04 08:59
机器学习
深度学习
机器学习
算法
Q-收敛速度
R-收敛速度
收敛速度与算法复杂度的关系
机器学习笔记
- 使用 YOLOv5、OpenCV、Python 和 C++ 检测物体
一、YOLOv5简述YOLOv5虽然已经不是最先进的对象检测器,但是YOLOv5使用了一个简单的卷积神经网络CNN架构(相对YOLOv8来讲,不过v8精度是更高了一些),更易理解。这里主要介绍如何轻松使用YOLOv5来识别图像中的对象。将使用OpenCV、Python和C++来加载和调用我们的YOLOv5模型。目标检测是最重要的计算机视觉任务之一。对于给定图像,对象检测器将发现:图像中的物体物体的
坐望云起
·
2023-08-04 01:30
机器学习
YOLO
YOLOV5
YOLO
v8
目标检测
深度学习
机器学习笔记
- 了解 GitHub Copilot 如何通过提供自动完成式建议来帮助您编码
一、GitHubCopilot介绍GitHubCopilot是世界上第一个大规模AI开发人员工具,可以帮助您以更少的工作更快地编写代码。GitHubCopilot从注释和代码中提取上下文,以立即建议单独的行和整个函数。研究发现GitHubCopilot可以帮助开发人员更快地编码、专注于解决更大的问题、更长时间地保持在流程中,并对他们的工作感到更满足。GitHubCopilot的生成式预训练语言模型
坐望云起
·
2023-08-03 23:37
机器学习
结对编程
GitHub
Copilot
AI编程
代码建议
人工智能
机器学习笔记
之优化算法(七)线搜索方法(步长角度;非精确搜索;Wolfe Condition)
机器学习笔记
之优化算法——线搜索方法[步长角度,非精确搜索,WolfeCondition]引言回顾:Armijo\text{Armijo}Armijo准则及其弊端Glodstein\text{Glodstein
静静的喝酒
·
2023-08-03 16:55
机器学习
深度学习
Armijo准则与弊端
Glodstein准则与弊端
线搜索方法
非精确搜索
优化方法
Wolfe
Condition
机器学习笔记
之优化算法(六)线搜索方法(步长角度;非精确搜索;Glodstein Condition)
机器学习笔记
之优化算法——线搜索方法[步长角度,非精确搜索,GlodsteinCondition]引言回顾:ArmijoCondition\text{ArmijoCondition}ArmijoCondition
静静的喝酒
·
2023-08-03 16:54
机器学习
深度学习
机器学习
优化算法
线搜索方法
Armijo准则弊端
Glodstein准则
机器学习笔记
之优化算法(八)简单认识Wolfe Condition的收敛性证明
机器学习笔记
之优化算法——简单认识WolfeCondition收敛性证明引言回顾:Wolfe\text{Wolfe}Wolfe准则准备工作推导条件介绍推导结论介绍关于Wolfe\text{Wolfe}Wolfe
静静的喝酒
·
2023-08-03 16:23
机器学习
深度学习
机器学习
Wolfe准则收敛性证明
优化算法
Lipschitz连续
拉格朗日中值定理
机器学习笔记
- 目标检测中的加权框融合与非极大值抑制的对比
一、对象检测后处理后处理步骤是目标检测中一个琐碎但重要的组成部分。本文主要是为了了解当拥有多个对象检测模型的集合时,加权框融合(WBF)相对于传统非极大值抑制(NMS)作为对象检测中后处理步骤的差异。对象检测模型通常使用非极大值抑制(NMS)作为默认后处理步骤来过滤掉冗余边界框。然而,这种方法无法有效地跨多个模型提供统一的平均预测,因为它们往往会删除具有显着重叠的置信低的框。为了缓解这个问题,出现
坐望云起
·
2023-08-03 15:30
机器学习
机器学习
目标检测
NMS
WBF
对象检测
人工智能
计算机视觉
机器学习笔记
文章目录BatchNormalization好处BatchNormalization尽量使得w1和w2之间呈现为正圆训练模型的时候,μ\muμ和σ\sigmaσ不可以认为是常数,而是包含数据的变量,取值大小和batch中的数据有关。γ\gammaγ和β\betaβ是自己认为定义的,虽然两组数据可以相同,但是意义是完全不一样的。好处
爱转呼啦圈的小兔子
·
2023-08-02 11:42
机器学习
笔记
人工智能
机器学习笔记
- 什么是keras-core?
一、keras-core简而言之,KerasCore是KerasAPI的新多后端实现,支持TensorFlow、JAX和PyTorch。可以使用如下命令简单安装pipinstallkeras-coreKeras是一个用Python编写的用于深度学习的用户友好工具。它旨在与AI领域的另一个主要参与者TensorFlow一起使用。KerasCore是Keras的新改进版本。它支持多个平台,包括Tens
坐望云起
·
2023-08-01 14:17
机器学习
机器学习
keras
keras-core
tensorflow
pytorch
机器学习笔记
之优化算法(四)线搜索方法(步长角度;非精确搜索)
机器学习笔记
之优化算法——线搜索方法[步长角度,非精确搜索]引言回顾:精确搜索步长及其弊端非精确搜索近似求解最优步长的条件反例论述引言上一节介绍了从精确搜索的步长角度观察了线搜索方法,本节将从非精确搜索的步长角度重新观察线搜索方法
静静的喝酒
·
2023-08-01 12:48
机器学习
深度学习
机器学习
算法
非精确搜索的条件
线搜索方法
机器学习笔记
之优化算法(五)线搜索方法(步长角度;非精确搜索;Armijo Condition)
机器学习笔记
之优化算法——线搜索方法[步长角度,非精确搜索,ArmijoCondition]引言回顾:关于f(xk+1)=ϕ(α)f(x_{k+1})=\phi(\alpha)f(xk+1)=ϕ(α)的一些特性非精确搜索近似求解最优步长的条件
静静的喝酒
·
2023-08-01 12:17
机器学习
深度学习
机器学习
算法
线搜索方法步长角度
非精确搜索
ArmijoCondition
机器学习笔记
8——抑制过拟合之Dropout、BN
过拟合:网络在训练数据上效果好,在测试数据上效果差。抑制过拟合的方法有以下几种:(1)dropout(2)正则化(3)图像增强本次主要谈论一下dropoutdropout定义:是一种在学习的过程中随机删除神经元的方法。训练时随机选取隐藏层的神经元,并将其删除。如图所示:主要作用:(1)取平均的作用(2)减少神经元之间复杂的共适应关系:因为dropout程序导致两个神经元不一定每次都在一个dropo
hello everyone!
·
2023-07-31 19:28
深度学习
机器学习
深度学习
神经网络
YouTube深度学习推荐模型最全总结
这里是「王喆的
机器学习笔记
」的第三十篇文章。
王喆的机器学习笔记
·
2023-07-31 04:13
吴恩达
机器学习笔记
(3)
多变量线性回归:问题:根据多个属性,如房子面积,房子楼层,房子年龄等估计房子的价格多变量线性回归中的变量多变量线性回归的假设此时有多个特征,i对应不同的特征值,如房子面积,楼层,年龄等,参数为一个n+1维向量多变量线性回归中的梯度下降,对每一个参数求偏导数从而得到不同参数的梯度参数特征缩放——加速梯度下降过程收敛到最优值多变量梯度下降时,参数的取值要尽量小在多多变量梯度下降中,要让不同参数的取值范
魏清宇
·
2023-07-30 01:52
机器学习笔记
之优化算法(二)线搜索方法(方向角度)
机器学习笔记
之优化算法——线搜索方法[方向角度]引言回顾:线搜索方法从方向角度观察线搜索方法场景构建假设1:目标函数结果的单调性假设2:屏蔽步长αk\alpha_kαk对线搜索方法过程的影响假设3:限定向量
静静的喝酒
·
2023-07-29 11:28
机器学习
深度学习
机器学习
优化算法
线搜索方法
更新方向与负梯度方向之间关系
泰勒公式
机器学习笔记
之优化算法(一)无约束优化概述
机器学习笔记
之优化算法——无约束优化概述引言回顾:关于支持向量机的凸二次优化问题无约束优化问题概述解析解与数值解数值解的单调性关于优化问题的策略线搜索方法信赖域方法引言从本节开始,将介绍优化算法(OptimizationAlgorithm
静静的喝酒
·
2023-07-29 11:27
机器学习
深度学习
机器学习
算法
优化问题
线搜索方法
信赖域方法
Python
机器学习笔记
:XgBoost算法
转载:https://www.cnblogs.com/wj-1314/p/9402324.html前言1,Xgboost简介Xgboost是Boosting算法的其中一种,Boosting算法的思想是将许多弱分类器集成在一起,形成一个强分类器。因为Xgboost是一种提升树模型,所以它是将许多树模型集成在一起,形成一个很强的分类器。而所用到的树模型则是CART回归树模型。Xgboost是在GBDT
SeaSky_Steven
·
2023-07-29 11:26
algorithm
机器学习
算法
Xgboost
机器学习笔记
之优化算法(三)线搜索方法(步长角度;精确搜索)
机器学习笔记
之优化算法——线搜索方法[步长角度,精确搜索]引言回顾:线搜索方法——方向角度关于收敛性的假设关于单调性的假设下降方向与最速方向从步长角度观察线搜索方法关于方向向量的假设精确搜索过程引言上一节介绍了从方向角度认识线搜索方法
静静的喝酒
·
2023-07-29 11:54
机器学习
深度学习
机器学习
线搜索方法
优化问题
步长角度认识线搜索方法
精确搜索
白话
机器学习笔记
(一)学习回归
最小二乘法定义模型表达式:fθ(x)=θ0+θ1xf_\theta(x)=\theta_0+\theta_1xfθ(x)=θ0+θ1x(常用θ\thetaθ表示未知数、fθ(x)f_\theta(x)fθ(x)表示含有参数θ\thetaθ并且和变量xxx相关的函数)目标函数假设有nnn个训练数据,那么它们的误差之和可以这样表示,这个表达式称为目标函数。E(θ)=12∑i=1n(y(i)−fθ(x(
WangXinmingg
·
2023-07-26 22:47
学习笔记
机器学习
笔记
学习
白话
机器学习笔记
(三)评估已建立的模型
模型评估在进行回归和分类时,为了进行预测,我们定义了函数fθ(x)f_\theta(x)fθ(x),然后根据训练数据求出了函数的参数θ\thetaθ。如何预测函数fθ(x)f_\theta(x)fθ(x)的精度?看它能否很好的拟合训练数据?我们需要能够定量的表示机器学习模型的精度,这就是模型的评估。交叉验证回归问题的验证把获取的全部训练数据分成两份:一份用于测试,一份用于训练。前者来评估模型。一般
WangXinmingg
·
2023-07-26 22:47
学习笔记
机器学习
笔记
人工智能
白话
机器学习笔记
(二)学习分类
分类用图形来解释,把他想象为有大小有方向带箭头的向量。设权重向量为www,虚线为使权重向量称为法线向量的直线。直线的表达式为:w⋅x=0w\cdotx=0w⋅x=0(两个向量的内积)也可写为:w⋅x=∑i=1nwixi=w1x1+w2x2=0w\cdotx=\sum\limits_{i=1}^nw_ix_i=w_1x_1+w_2x_2=0w⋅x=i=1∑nwixi=w1x1+w2x2=0w⋅x=∣
WangXinmingg
·
2023-07-26 22:14
学习笔记
机器学习
笔记
学习
从阿里的User Interest Center看模型线上实时serving方法
这里是「王喆的
机器学习笔记
」的第二十九篇文章。最近写书的时候在总结一些深度学习模型线上serving的主流方法。
王喆的机器学习笔记
·
2023-07-21 06:21
机器学习笔记
神经元神经网络的基本模型是神经元,神经元的基本模型就是数学中的乘、加运算:神经元神经网络两层的神经网络(一个隐藏层)更进一步地,过激活函数以提高表现力的神经元模型:常用的激活函数有:relusigmoidtanh损失函数loss计算得到的预测值与已知答案的差距:均方误差MSE自定义损失函数:根据问题的实际情况交叉熵CE(CrossEntropy)反向传播训练中,以减小loss值为优化目标,有梯度下
微雨旧时歌丶
·
2023-07-20 15:27
机器学习笔记
--xgboost核心思想
今天给大家讲xgboost,这是一个非常优秀的算法,在各大回归类的人工智能竞赛中,经常可以在榜首看到这个算法的身影。前面我们已经讲了决策树,提升树(BoostingDecisionTree)是迭代多棵决策树来共同决策,当采用平方误差作为损失函数的时候,每一棵树学习的是之前所有树之和的残差值,残差=真实值-预测值。比如A的年龄是18岁,第一棵树的预测值是13岁,与真实值相差了5岁(就是我们说的残差)
weixin_39210914
·
2023-07-19 23:10
机器学习
机器学习
机器学习笔记
(2-4)--林轩田机器学习基石课程
Non-SeparateData当我们不知道数据集是否线性可分时,我们采用贪心的算法,构建modifiedPLA.ModifiedPLA:和普通的PLA不同的是,它在选点时采用随机的方法,并且采用贪心的思想,保存当前最好的w_t.好不好的标准在于造成的错误点数是否更少。直到运行时间足够久后才停止算法。
数学系的计算机学生
·
2023-07-19 16:14
吴恩达
机器学习笔记
(5)—— 神经网络
又摸鱼摸了好久,终于开学了,不能再摸鱼了,这学期课都是嵌入式开发方面的,我给自己的电脑买了个新硬盘装了Linux,不再像以前在虚拟机里小打小闹了,折腾了好几天的新系统,现在有时间写新的笔记了。这次给大家带来的是神经网络,比较难,我可能写的也不是太明白,就看看吧。非线性假设其实神经网络是一个很古老的算法,不过在很长的一段时间内受计算机的机能所限,这个算法没有太大的进展。直到了现在,计算机的飞速发展,
机智的神棍酱
·
2023-07-17 06:15
python 分类变量转为哑变量_
机器学习笔记
——哑变量处理
在机器学习的特征处理环节,免不了需要用到类别型特征,这类特征进入模型的方式与一般数值型变量有所不同。通常根据模型的需要,类别型特征需要进行哑变量处理,即按照特征类别进行编码,一般一个类别为k的特征需要编码为一组k-1【避免引起多重共线性】个衍生哑变量,这样就可以表示特征内部所有的类别(将其中基准比较类设为0,当k-1个哑变量都为0时,即为基准类)。这种哑变量的编码过程在R和Python中的有成熟的
weixin_39664477
·
2023-07-17 01:59
python
分类变量转为哑变量
可解释
机器学习笔记
(一)——可解释性
可解释性可解释性定义可解释性包含的性质可解释性方法分类自解释or事后可解释解释方法的输出特征概要统计量(FeatureSummaryStatistic)特征概要可视化(FeatureSummaryVisualization)模型内部(ModelInternal)数据点(DataPoint)代理模型特定于模型(Model-specific)or模型无关(Model-agnostic)局部(Local
小白成长之旅
·
2023-07-16 18:11
可解释人工智能(XAI)
可解释机器学习
可解释人工智能
机器学习笔记
之变分自编码器(一)模型表示
机器学习笔记
之变分自编码器——模型表示引言回顾:高斯混合模型变分自编码器——概率图视角介绍总结引言本节将介绍变分自编码器(VariationalAutoEncoder,VAE)。
静静的喝酒
·
2023-07-16 15:18
机器学习
深度学习
人工智能
算法
变分自编码器
隐变量概率图模型
机器学习笔记
之卡尔曼滤波(一)动态模型基本介绍
机器学习笔记
之卡尔曼滤波——动态模型基本介绍引言回顾:动态模型动态模型的相关任务卡尔曼滤波介绍引言本节从动态模型开始,介绍卡尔曼滤波(KalmanFilter)。
静静的喝酒
·
2023-07-16 15:18
机器学习
机器学习
线性动态系统
卡尔曼滤波
隐变量
观测独立性
深度学习笔记之Transformer(八)Transformer模型架构基本介绍
机器学习笔记
之Transformer——Transformer模型架构基本介绍引言回顾:简单理解:Seq2seq\text{Seq2seq}Seq2seq模型架构与自编码器自注意力机制Transformer
静静的喝酒
·
2023-07-16 14:15
深度学习
深度学习
transformer
多头注意力机制
LayerNorm
机器学习笔记
- 探索PaddlePaddle框架的对象检测、分割和关键点检测
一、PaddlePaddle简述PaddlePaddle(PArallelDistributedDeepLEarning)是百度于2016年发布的开源深度学习框架。它为各种机器学习任务提供了统一的平台。但是最近的基准测试显示PaddlePaddle是潜在的领跑者,其基准速度超过了其更知名的竞争对手。PaddlePaddle与PyTorch或Tensorflow的基准比较PaddlePaddle中提
坐望云起
·
2023-07-16 03:49
机器学习
PaddlePaddle
paddleseg
paddleocr
PaddleDetection
百度飞桨
机器学习笔记
——假设空间与归纳偏好
一,假设空间学习过程是一个在所有假设组成的空间,即假设空间中进行搜索的过程。搜索目标是找到与训练集“匹配”的假设。举个例子:这里要学习的目标是“好瓜”。暂且假设“好瓜”可由色泽,根蒂,敲声这三个因素完全确定。于是,我们学得的将是“好瓜是某种色泽,某种根蒂,某种敲声的瓜”这样的概念。图1.1直观地显示出了这个西瓜问题的假设空间。需要注意的是,现实问题中我们常面临很大的假设空间,但学习过程是基于有限样
章小幽
·
2023-07-15 06:06
机器学习与深度学习
机器学习笔记
- 深度学习在网球运动分析上的应用
一、简述观看网球比赛时,您可以根据中间或角落的发球次数、球的深度、向左或向右的偏好来自动丰富视图,具体取决于球员所处的位置。此类统计数据可以通过Hawk-Eye、IBMSlamtracker等工具提供。Hawk-Eye是一个复杂的系统,由多达10个高速摄像头组成,能够高精度跟踪球、获取其真实位置并显示任何弹跳的重建。IBMSlamtracker,一个提供实时分数和统计数据(每个点15到25个参数)
坐望云起
·
2023-07-14 12:45
机器学习
深度学习
体育比赛
网球运行分析
运动轨迹
TrackNet
机器学习笔记
:随机森林
1集成学习集成学习通过构建多个学习器采用加权的方式来完成学习任务一般来讲,多个学习器同属于一种模型,比如决策树,线性模型,而不会交叉用多种模型为了保证集成学习的有效性,多个弱分类器之间应该满足两个条件准确性:个体学习器要有一定的准确性,这样才能有好的效果多样性:学习器之间要有一些差异,完全相同的几个学习器集成起来后几乎不会有提升2随机森林随机森林是集成学习中Bagging方式的代表采样多组训练集,
UQI-LIUWJ
·
2023-07-13 22:32
机器学习
机器学习
笔记
随机森林
机器学习笔记
- 理解机器学习可解释性的重要性
一、可解释性为什么重要人工智能领域的几乎所有研究都集中在更好的架构、超越基准、新颖的学习技术上,或者在某些情况下只是建立具有十亿、百亿个参数的巨大模型。可解释机器学习的研究相对较少。媒体中人工智能的日益普及和复杂性只会使可解释性的情况恶化。在一些高风险领域,如金融和医疗保健,数据科学家通常最终使用更传统的机器学习模型(线性模型或基于树的模型或者模型等)。这是因为,模型解释其决策的能力对业务非常重要
坐望云起
·
2023-07-13 20:25
机器学习
机器学习
笔记
人工智能
解释性
可解释性
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他