E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
统计学习方法公式推导
LSTM反向传播
公式推导
目录1、正向传播2、反向传播3、总结1、正向传播LSTM的正向传播公式:由于传播过程比较复杂,我们画一个计算草图来反映时间步t的正向传播中,各个量的关系:计算图中红色部分不属于时间步t,而是属于时间步t+1,把这几个红色的计算加入以后,可以更清晰的看到,的值会传播到两个位置(即在时间步t的正向传播中,传递到,在时间步t+1的正向传播中,传递到;而的值会传播到5个位置(即时间步t的正向传播中,传递到
考彭斯
·
2022-12-09 07:50
神经网络
lstm
机器学习-logistic回归训练数据集
类别:机器学习个人笔记参考书籍:《统计学习》、《机器学习实战》、周志华大佬的西瓜书相关数学
公式推导
见我上传的手写PDF任务:学习《机器学习实战》P78页及P79页程序清单5-1和5-2,完成以下问题:1
平凡的小何同学
·
2022-12-08 20:01
Algorithm
机器学习
python
算法
机器学习入门必读书籍——李航《
统计学习方法
》(文尾免费领取)
《
统计学习方法
》是计算机及其应用领域的一门重要的学科。
无知红
·
2022-12-08 16:47
人工智能
机器学习
人工智能
电子书
基于
统计学习方法
的自然语言处理概述
NLP课程(一,NLP概述和应用场景)AI工程师核心技能:现实生活中问题—>数学优化问题—>通过合适的工具来解决。whatisNLPNLP=NLU+NLG·NLU:语音/文本-->意思(understanding)·NLG:意思—>文本/语音(generate)NLPisHarder(vsComputerVision)Multiplewaystoexpress:(多语一意)·凯美瑞是日本人设计的·
子颠三号倒四
·
2022-12-08 15:43
自然语言处理
正态分布(高斯分布)的由来(
公式推导
)
1809年,高斯在研究《天体运动理论》的过程中发现其中的误差分布是正态分布。比较接近原著的推导可以参考:https://zhuanlan.zhihu.com/p/387653090,但原著中高斯的数学直觉太强,有点难以理解,个人认为从以下方式理解更容易理解,故分享。设误差密度函数为f(x),有n个独立观测值x1,x2,…,xn,真值为X。f(x)表示误差为x的概率,而误差=观测值-真值。假设每次观
Hanjieee
·
2022-12-08 14:23
概率论
机器学习笔记之EM算法(二)EM算法
公式推导
过程
机器学习笔记之EM算法——EM算法
公式推导
过程引言回顾:EM算法
公式推导
过程引言上一节介绍了隐变量和EM算法,以及以EM算法公式为条件,证明了随着EM算法迭代步骤的增加,每次迭代得到新的模型参数θ(t+
静静的喝酒
·
2022-12-08 13:25
机器学习
机器学习
EM算法
证据下界
KL散度
极大似然估计
机器学习笔记之变分推断(二)
公式推导
过程(基于平均场假设)
机器学习笔记之变分推断——基于平均场假设的
公式推导
过程引言回顾:推断与变分推断变分推断:
公式推导
过程初始转化过程最大变分L[Q(Z)]\mathcalL[\mathcalQ(\mathcalZ)]L[Q
静静的喝酒
·
2022-12-08 13:25
机器学习
机器学习
变分推断
推断
平均场假设
概率密度积分
机器学习--感知机学习算法
以下只给出了感知机算法的Python代码实现,想从头开始了解机器学习以及感知机模型的推荐李航老师的
统计学习方法
蓝宝书感知机算法原始形式#感知机(原始形式)importnumpyasnp#创建测试集,包含三个实例点和两个类别
weixin_45752264
·
2022-12-08 12:23
机器学习
算法
python
西瓜书第五章神经网络
主要学习了感知机和神经网络的相关知识,学完之后对损失计算以及反向传播的过程的理解更加深刻了,学会了反向传播的
公式推导
过程。
Seven7_Lu
·
2022-12-08 08:00
机器学习
西瓜书 机器学习 第五章读书笔记
文章目录前言5.1神经元模型5.2感知机和多层网络5.3误差逆传播算法5.4全局最小和局部最小前言新手,记录一下自己的理解,也是读书笔记,并不进行
公式推导
。
lzmmmQAQ
·
2022-12-08 08:54
西瓜书
机器学习
神经网络
深度学习
【数学与算法】非线性最小二乘法的解法【最速梯度下降法】、【牛顿法】、【高斯牛顿法】、【LM算法】
如果不明白线性和非线性,可参考这篇博客:线性最小二乘和非线性最小二乘这篇博客的后面有讲到几种优化方法(最速梯度下降法、牛顿法、高斯牛顿法,LM算法),很容易记住,不像其他的
公式推导
那么生硬:BundleAdjustment
Mister Zhu
·
2022-12-08 07:12
数学和算法
算法
最小二乘法
人工智能
神经网络中的Regularization和dropout
1正则化机器学学习中的正则化相关的内容可以参见李航的书:
统计学习方法
。参阅者可以先了解有关的内容。正则化是用来降低overfitting(过拟合)的,减少过拟合的的其他方法有:增加训练集数
这孩子谁懂哈
·
2022-12-07 18:55
Machine
Learning
机器学习
神经网络
正则
统计学
HJB方程的一些简单理解和过程推导
Hamilton-Jacobi-Bellman方程如何理解HJB方程公式的理解推导过程的步骤理解从源头讲起背景知识最优控制问题动态规划的最优性原理HJB方程定义HJB方程的简单应用必要性的简要证明(
公式推导
薯一个蜂蜜牛奶味的愿
·
2022-12-07 15:07
零碎学习
算法
EM算法例子
参考:
统计学习方法
EM算法的一个例子_陈嘟嘟cc的博客-CSDN博客_em算法应用实例#EMalgorithm#coinA,B,C;#coinAfrontprobabilityisphi,backprobabilityis1
Goodness2020
·
2022-12-07 12:57
机器学习
算法
【机器学习】提升方法AdaBoost二分类例题 C++实现
题目来源:
统计学习方法
(第二版李航)第八章第一节AdaBoost例子实现P158题目:给定如图所示训练数据集。假设弱分类器由xv产生,其阈值v使该分类器在训练数据上分类误差率最低。
ayitime
·
2022-12-07 12:25
分类
c++
周志华机器学习详细
公式推导
!
【导读】:今天给大家推荐一本超级nice的机器学习理论推导书籍,它就是《西瓜书》的兄弟版---《南瓜书》。一年前,由Datawhale开源项目南瓜书发布,受到全网转发,一年后,南瓜书完整版正式撒花完结。从基础公式解析到难点探讨,无论你数学功底如何,都可以在南瓜书里找到你想要的。(原文pdf+源代码,文末附领取方式!)关于本书《南瓜书Pumpkin-Book》由开源组织Datawhale发起,团队成
机器学习与AI生成创作
·
2022-12-07 10:41
联邦学习论文分析1----联邦学习_功率分配_频带分配_传输速率_能耗
目录一、文章概述二、系统模型环境三、上行链路功率分配(UPA)算法1.系统目标2.约束条件3.
公式推导
(1)传输时间(2)系统能耗4.算法求解5.伪代码四、频带分配(BA)算法1.系统目标2.约束条件3
@白圭
·
2022-12-07 10:37
人工智能
深度学习
《
统计学习方法
》学习笔记 第十三章 无监督学习概论
目录13.1无监督学习基本原理13.2基本问题13.3无监督学习三要素13.4无监督学习方法13.1无监督学习基本原理无监督学习是从无标注的数据中学习数据的统计规律或者说内在结构的机器学习,主要包括聚类、降维、概率估计。无监督学习可以用于数据分析或者监督学习的前处理。无标注数据U={x1,x2,...,xN}U=\{x_1,x_2,...,x_N\}U={x1,x2,...,xN}模型①函数z=g
LittleFish0820
·
2022-12-07 10:15
统计学习方法
无监督学习
统计学
深度学习入门资料分类汇总(持续更新)
机器学习资料入门课程-斯坦福CS229课程《
统计学习方法
》李航DeepLearning入门资料深度学习工程师微专业-一线人工智能大师吴恩达亲研-网易云课堂斯坦
刀客塔辛
·
2022-12-07 05:10
AI
深度学习
机器学习
《卡尔曼滤波理解及python实现》
文章目录Kalman滤波推导五个
公式推导
过程实现cv2.KalmanFilter自己实现轨迹预测参考链接卡尔曼滤波的简单理解及应用Kalman滤波状态估计器模型精确和随机干扰信号统计特性已知的线性系统本质
坚强的羊脂球
·
2022-12-07 01:08
AlgorithmDaily
python
概率论
线性代数
持续学习EWC代码实现
Overcomingcatastrophicforgettinginneuralnetworks论文地址:EWC论文论文代码:EWC代码,该代码包含大部分持续学习算法的代码论文中
公式推导
论文:ElasticWeightConsolidation
像风一样自由的小周
·
2022-12-06 22:21
Continuous
Learning
学习
机器学习
深度学习
深度学习神经网络学习笔记-自然语言处理方向-论文研读-情感分析/文本分类-glove-Global Vectors for Word Representation
本文目录概念引入介绍摘要大意模型原理模型的
公式推导
模型效果对比概念引入逻辑回归线性回归时间序列分析神经网络self-attention与softmax的推导word2evc该篇论文的背景word2evc
丰。。
·
2022-12-06 14:12
神经网络论文研读
深度学习神经网络-NLP方向
神经网络
神经网络
深度学习
人工智能
python
自然语言处理
交叉熵的数学原理及应用——pytorch中的CrossEntropyLoss()函数
交叉熵的数学原理及应用——pytorch中的CrossEntropyLoss函数前言
公式推导
过程softmax解析实例一维二维前言分类问题中,交叉熵函数是比较常用也是比较基础的损失函数,原来就是了解,但一直搞不懂他是怎么来的
CV-杨帆
·
2022-12-06 12:48
机器学习
深度学习
人工智能
算法
python
特征值分解(Eigen Value Decomposition,EVD)、奇异值分解(Singular Value Decomposition,SVD)原理、
公式推导
及应用
1正交矩阵&正交变换正交变换是保持图形形状和大小不变的几何变换,包含旋转、平移、轴对称及这些变换的复合形式,正交变换可以保持向量的长度和向量之间的角度不变。特别的,标准正交基经正交变换后仍为标准正交基。在有限维的空间中,正交变换在标准正交基下的矩阵表示为正交矩阵,其所有行和所有列也都各自构成一组标准正交基。同时,正交变换的逆变换也是正交变换,后者的矩阵表示是前者矩阵表示的逆。2特征值分解(Eige
CA727
·
2022-12-06 11:24
#
算法基础
算法
奇异值分解
SVD
从大一统视角理解扩散模型(Diffusion Models)
CalvinLuo的这篇论文为理解扩散模型提供了一个统一的视角,尤其是其中的数理
公式推导
非常详尽,本文将试图尽量简要地概括一遍大
zenRRan
·
2022-12-06 07:00
自然语言处理
python
机器学习
人工智能
深度学习
机器学习笔记-神经网络的原理、数学、代码与手写数字识别
机器学习笔记-神经网络作者:星河滚烫兮文章目录前言一、神经网络的灵感二、基本原理1.神经网络最小单元——神经元2.神经网络层结构3.正向传播4.反向传播5.梯度下降三、数学理论推导1.正向传播
公式推导
2
星河滚烫兮
·
2022-12-06 06:03
机器学习笔记
神经网络
机器学习
深度学习
通俗易懂的机器学习——协方差、奇异值分解、PCA降维代码实现
降维代码实现原理剖析数据选用鸢尾花数据观测瑞士卷数据观测代码实现奇异值分解法鸢尾花数据集降维后的效果瑞士卷数据集降维后的效果协方差法鸢尾花数据集降维后的效果瑞士卷数据集降维后效果sklearn中PCA方法鸢尾花数据集降维后的效果瑞士卷数据集降维后效果原理剖析在上一篇关于降维的博客中我们已经讨论了协方差以及奇异值分解法的原理以及
公式推导
艾醒(AiXing-w)
·
2022-12-06 06:54
通俗易懂的机器学习
算法
机器学习
pca降维
人工智能
python
统计学习方法
李航 课后习题答案 第二版 机器学习
李航《
统计学习方法
》课后习题答案(第2版)【李航课后习题解答+书中疑点推导+算法代码实现+可私聊耐心解答(48小时内回复),包会!!】
#苦行僧
·
2022-12-05 16:25
学习方法
人工智能
统计学
监督学习
机器学习
移动最小二乘法(MLS)图像变形的基本原理解读及
公式推导
、勘误与MatLab实现
目录基本原理
公式推导
MLS用于图像变形及本人对源码的改动移动最小二乘法图像变形的论文链接见:https://www.cs.rice.edu/~jwarren/research/mls.pdf,目前CSDN
光电学子
·
2022-12-05 16:23
信号与图像处理
两层及N层全连接神经网络模型原理
全连接神经网络(MLP)便是基础的网络类型的之一,充分体现深度学习方法相比于传统机器学习算法的特点,即大数据驱动、
公式推导
、自我迭代更新、黑匣
三木小君子
·
2022-12-05 13:17
深度学习_1
神经网络
机器学习
人工智能
深度学习
算法
Error-State Kalman Filter理解与
公式推导
目录直接法与间接法滤波ESKF
公式推导
VINS中对于ESKF的使用直接法与间接法滤波卡尔曼滤波作为一种贝叶斯滤波的具体实现被广泛应用于状态估计问题中,其优势与特点这里就不再赘述了,而众所周知的是,卡尔曼滤波只能应用于线性系统中
m米咔00
·
2022-12-05 13:47
SLAM相关
状态估计
自动驾驶
卡尔曼滤波算法
一张图掌握SVM——支持向量机
前言:笔者在学习SVM的过程中找了很多书籍、资料以及学习笔记,但是感觉看起来都云里雾里莫名其妙,始终不得要领,最近在看《
统计学习方法
》---李航---清华大学出版社---ISBN978-7-302-27595
科学元某人
·
2022-12-05 11:24
人工智能和机器学习
人工智能
机器学习
svm
支持向量机
svm支持向量积的
公式推导
SVM原理推导概括:svm有三宝:间隔、对偶、核技巧。svm的分类:hard-marginsvm硬间隔soft-marginsvm软间隔kemelsvm核函数前面两种硬间隔和软间隔主要针对线性问题,核函数部分主要针对非线性问题,核技巧能够使svm从普通的欧氏空间、特征空间映射到高维空间,可以实现非线性的分类。svm原理定义:svm原理用来解决二分类问题,其可以归结为一句话,即使离超平面最近的点(支
逸耀
·
2022-12-05 11:52
支持向量机
机器学习
算法
KNN在Mnist上的实现
KNN在Mnist上的实现原理博客:
统计学习方法
|K近邻原理剖析及实现|Dodo(pkudodo.com)数据集:Statistical-Learning-Method_Code/Mnistatmaster
Sky_codes
·
2022-12-05 10:12
python
python
机器学习
人工智能
knn
pytorch
算法实习生面试问题准备
文章目录1.深度学习1.梯度下降
公式推导
及代码实现2.反向传播
公式推导
及代码实现3.激活函数的种类及各自的作用4.深层神经网络和浅层神经网络的区别5.梯度消失、梯度爆炸及解决方式6.优化算法7.超参数8
贪钱算法还我头发
·
2022-12-05 09:17
Data
Structures
and
Algorithms
算法
神经网络
计算机视觉
BP神经网络的实现详解
本文主要详解BP神经网络编程实现,旨在一步一步解析BP神经网络细节,希望能形象明了的阐述BP神经网络,实现原理源自于斯坦福UFLDL教程,原理
公式推导
不再赘述,但会有些说明,本文程序由C++11实现,矩阵计算基于
CaiziLee
·
2022-12-05 08:29
Machine
Learning
神经网络
深度学习系列--1.入坑模型: 线性回归,logistic 回归,softmax分类器
惭愧啊,读研的时候学得正是模式识别;当看着书本上都是
公式推导
、博士师兄们也都在
公式推导
研究新算法的时候,排斥心理到了顶点,从此弃疗。
a451954306
·
2022-12-05 07:55
人工智能
数据结构与算法
python
线性回归模型
公式推导
线性回归
公式推导
线性模型一、线性回归(一)一元线性回归1.由最小二乘法得出损失函数2.证明损失函数E(w,b)E(w,b)E(w,b)是关于www和bbb的凸函数3.对损失函数求关于b和w的一阶偏导数4
冷酷无情陈大定
·
2022-12-04 15:04
机器学习
机器学习
线性代数
机器学习之线性回归原理详解、
公式推导
(手推)、简单实例
目录1.原理详解1.1.线性回归1.2.回归系数2.
公式推导
2.1.单元线性回归2.2.多元线性回归3.简单实例3.1.实例1:一元线性回归实例2:多元线性回归3.3.实例3:房价预测1.原理详解1.1
铖铖的花嫁
·
2022-12-04 15:59
机器学习
机器学习
python
人工智能
百面机器学习—3.逻辑回归与决策树要点总结
文章目录一、逻辑回归1.逻辑回归
公式推导
2.逻辑回归优缺点是什么?3.为什么逻辑回归需要归一化?4.对于逻辑回归,连续特征离散化的作用是什么?5.逻辑回归能否解决非线性的分类问题?
哎呦-_-不错
·
2022-12-04 14:58
#
《百面机器学习》
百面机器学习
逻辑回归
决策树
机器学习面试
《
统计学习方法
》读书笔记第2章:感知机
第二章:感知机感知机(perceptron)于1957年由Rosenblatt提出,是神经网络与支持向量得基础。其输入为实例得特征向量,输出为实例得类别,是二类分类的线性分类模型,属于判别模型。感知机的学习旨在求出将训练数据进行线性划分的超平面,为此,导入基于误分类的损失函数,利用梯度下降法对损失函数进行极小化,求得感知机模型。模型感知机定义假设输入空间(特征空间)是X∈Rn\it{X}\in{R
xcj~
·
2022-12-04 13:00
统计学习方法读书笔记
机器学习
算法
python
感知机模型学习笔记及Python实现
最近刚接触李航博士的《
统计学习方法
》,还是挺赞的一本书,特别适合机器学习初学者的入门。里面主要阐述机器学习中的几大经典模型的理论方面,包括感知机、kNN、决策树、朴素贝叶斯、逻辑回归、SVM等。
wangxin0314
·
2022-12-04 13:27
python
感知机
《
统计学习方法
》读书笔记——感知机(原理+代码实现)
传送门《
统计学习方法
》读书笔记——机器学习常用评价指标《
统计学习方法
》读书笔记——感知机(原理+代码实现)《
统计学习方法
》读书笔记——K近邻法(原理+代码实现)《
统计学习方法
》读书笔记——朴素贝叶斯法(
郭义臣
·
2022-12-04 13:53
《统计学习方法》读书笔记
感知机
深度学习
机器学习
python
算法
统计学习方法
笔记,第二章感知机的python代码实现
实现的比较粗糙,代码如下:classPerceptron:importnumpyasnpdef__init__(self,w=0,b=0,lr=1,epoch=100):self.weight=wself.bias=bself.lr=lr#lr:learningrateself.epoch=epochdefsign(self,x):ifnp.dot(np.array(self.weight),x)
努力学挖掘机的李某某
·
2022-12-04 13:23
《统计学习方法》笔记
python
感知机
数据挖掘
机器学习
李航《
统计学习方法
》学习笔记及python实现:第二章 感知机
感知机(perceptron)是二类分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取+1和–1二值。感知机对应于输入空间(特征空间)中将实例划分为正负两类的分离超平面,属于判别模型。感知机学习旨在求出将训练数据进行线性划分的分离超平面,为此,导入基于误分类的损失函数,利用梯度下降法对损失函数进行极小化,求得感知机模型。模型假设输入空间(特征空间)是x⊆Rn,输出空间是Y={+1,-
XB_please
·
2022-12-04 13:48
感知机
统计学习方法
李航老师
python实现
双线性插值
公式推导
一、问题已知函数f在点Q11、Q12、Q21、Q22的函数值,求函数f在点P的函数值。其中,Q11=(x1,y1),Q12=(x1,y2),Q21=(x2,y1),Q22=(x2,y2),P=(x,y)。二、计算步骤1.沿x方向做线性插值:根据点Q11、Q21的函数值,计算点R1的函数值。2.沿x方向做线性插值:根据点Q12、Q22的函数值,计算点R2的函数值。3.沿y方向做线性插值:根据点R1、
时吨吨
·
2022-12-04 10:54
算法
NNDL 实验五 前馈神经网络 (3)鸢尾花数据集
DataLoader进行封装4.5.3模型构建4.5.4完善Runner类4.5.5模型训练4.5.6模型评价4.5.7模型预测思考题总结参考:深入研究鸢尾花数据集画出数据集中150个数据的前两个特征的散点分布图:【
统计学习方法
喝无糖雪碧
·
2022-12-04 09:14
python
机器学习
numpy
MATLAB Jacobi迭代法 求解线性方程组
二、对应的编程思想以及
公式推导
1.Jacobi迭代法
公式推导
2.Jacobi迭代法求解线性方程组例子3.Jacobi迭代法编程实现总结前言雅克比(Jacobi)迭代法求解线性方程组一、Jacobi迭代法是什么
施风
·
2022-12-04 05:56
MATLAB知识点
matlab
线性代数
算法
R3LIVE代码详解(三)
1.主函数我们在之前分析过,R3LIVE主要的
公式推导
在VIO上,所以我们来细细的分析这部分的功能。首先我们在之前的博客《经典文献阅读之–R3LIVE》提到,R3LIVE将VIO分成了两步,一是直接通
敢敢のwings
·
2022-12-03 21:57
slam
opencv
python
高斯混合模型(GMM),c++实现
最近较忙,代码先码一下,后续再更新仔细讲解Eigen是个第三方包,自己找个教程安装一下,里面的计算是根据高斯混合模型的
公式推导
结果写的,终止条件那里可以自己改,目前只是用次数控制的。
又又又
·
2022-12-03 16:16
c++
算法
上一页
19
20
21
22
23
24
25
26
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他