E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Y_音响技术
【数学计算】点乘/点积/内积/数量积/叉乘/外积/叉积/向量积
序言区分一下这几个概念1.点乘点乘=点积=内积=数量积dotproduct=innerproduct=scalarproducta⃗=(x1,y1,z1)\vec{a}=(x_{1},
y_
{1},z_{
shuaixio
·
2022-12-28 09:50
算法与数据结构
点乘
叉乘
数据计算
数学建模之时间序列的典型分解模型附Matlab代码
时间序列的典型分解模型引言一个时间序列的典型分解式为:Xt=mt+st+YtX_{t}=m_{t}+s_{t}+
Y_
{t}Xt=mt+st+Yt其中mtm_{t}mt为趋势项,sts_{t}st是已知周期为
Python大数据分析
·
2022-12-24 11:45
数学建模模型算法
matlab
概率论
机器学习
小白学机器学习西瓜书-第六章支持向量机(2)
小白学机器学习西瓜书-第六章支持向量机26.4基本型6.5对偶问题上次我们讲到我们用数学式子表达了我们要求的超平面maxw,bymin(wTxmin+b)∣∣w∣∣(8)\max_{w,b}\frac{
y_
顾耒之
·
2022-12-23 13:30
机器学习西瓜书
机器学习
支持向量机
算法
手撕神经网络 numpy
importnumpyasnpimportmatplotlib.pyplotaspltfromsklearnimportdatasetsfromsklearn.model_selectionimporttrain_test_splitX,y=datasets.make_moons(n_samples=1000,noise=0.2,random_state=100)X_train,X_test,
y_
Python ml
·
2022-12-22 07:44
神经网络
numpy
神经网络
python
朴素贝叶斯分类器数学原理
feature集合X=(X1,X2,X3,...,Xn)X=(X_{1},X_{2},X_{3},...,X_{n})X=(X1,X2,X3,...,Xn)标签YYY∈(y1,y2,...,yn)\in(
y_
bee_yyy
·
2022-12-21 04:31
机器学习
python
深度学习
k近邻推荐用到的各种距离
1kkk-近邻推荐原理2各种距离2.1欧几里得距离d12=(x1−x2)2+(y1−y2)2d_{12}=\sqrt{(x_{1}-x_{2})^2+(
y_
{1}-
y_
{2})^2}d12=(x1−x2
HenrySmale
·
2022-12-20 14:51
推荐系统
推荐系统
17、损失函数
0.3,0.2,0.5]]#实例化交叉熵损失cce=tf.keras.losses.CategoricalCrossentropy()#计算损失结构cce(y_true,y_pre)二分类任务代码实现
y_
C--G
·
2022-12-18 20:28
#
深度学习
深度学习
python
人工智能
2.1神经网络优化之损失函数
损失函数(loss):预测(y)与已知答案(
y_
)的差距神经网络优化的目标就是想找到某一套参数使损失函数最小主流的loss计算有三种均方误差mse(MeanSquaredError)自定义交叉熵ce(CrossEntropy
SuperBetterMan
·
2022-12-16 19:57
第二讲-神经网络优化-损失函数
5、损失函数损失函数是前向传播计算出的结果y与已知标准答案
y_
的差距。神经网络的优化目标,找出参数使得loss值最小。
loveysuxin
·
2022-12-16 19:56
Tensorflow
tensorflow
python
【机器学习】岭回归(Kernel Ridge Regression)附python代码
岭回归线性回归模型的目标函数是f(w)=∑i=1m(yi−xiTw)2f(w)=\sum_{i=1}^{m}(
y_
{i
圈外人
·
2022-12-16 11:47
机器学习
python
人工智能
算法
学习笔记 NLP里的RNN和LSTM
Uhht−1+bh)h_{t}=\sigma_{h}\left(W_{h}x_{t}+U_{h}h_{t-1}+b_{h}\right)ht=σh(Whxt+Uhht−1+bh)yt=σy(Wyht+by)
y_
CiLin-Yan
·
2022-12-16 07:55
学习笔记
机器学习
rnn
lstm
自然语言处理
【白板推导系列笔记】线性分类-高斯判别分析(Gaussian Discriminant Analysis)-模型求解(求期望)&模型求解(求协方差)
−ϕ)1−yi⏟(3)]L(\mu_{1},\mu_{2},\Sigma,\phi)=\sum\limits_{i=1}^{N}[\underbrace{\logN(\mu_{1},\Sigma)^{
y_
烧灯续昼2002
·
2022-12-16 06:03
白板推导系列笔记
单目标应用:蜣螂优化算法求解无人机三维航迹规划,含四种对比算法(提供Matlab代码)
一般地,记无人机的飞行路径点为Wij=(xij,yij,zij)W_{ij}=\left(x_{ij},
y_
{ij},z_{ij}\rig
IT猿手
·
2022-12-13 22:13
单目标应用
MATLAB
IT技术
算法
matlab
开发语言
python 常微分方程_常微分方程数值解法——python实现
向前欧拉法{yi+1=yi+hif(xi,yi)y0=y(a)\left\{\begin{array}{lr}
y_
{i+1}=y_i+h_if(x_i,y_i)\\y_0=y(a)\end{array}
weixin_39701288
·
2022-12-13 13:18
python
常微分方程
pytorch损失函数总结
nn.MSELoss4.nn.CrossEntropyLoss1.nn.L1Loss1.1数学表达式loss(xi,yi)=∣xi−yi∣\operatorname{loss}\left(x_{i},
y_
SuperX11
·
2022-12-13 09:12
深度学习
pytorch
深度学习
人工智能
关于模型预测结果好坏的几个评价指标
我们用
y_
{hat}表示模型的预测值,y表示模型的真实值。1.MSEMSE是MeanSquareError的缩写,表示均方误差,具体公式如下:该公式表示每个预测
俊红的数据分析之路
·
2022-12-11 17:40
python
数据挖掘
机器学习
数据分析
slam
tensorflow2.0学习笔记
tensorflow2.0学习笔记正则化缓解过拟合正则化在损失函数中引入模型复杂度指标,利用给w加权值,弱化了训练数据的噪声(一般不正则化b)loss=loss(y与
y_
)+REGULARIZER∗loss
奋斗的西瓜瓜
·
2022-12-09 15:48
#
PyTorch
算法
python
tensorflow
神经网络
光学相位恢复算法
分别适用于特定光学衍射过程和一般光学衍射过程Gerchberg-SaxtonAlgorithm基本定义二维光场在物平面的入射光场可表示为E1(x1,y1)=ρ1(x1,y1)⋅eıϕ1(x1,y1)E_1(x_1,
y_
昊大侠
·
2022-12-09 07:18
数据结构与算法
算法
神经网络误差反向传播
首先定义这里的损失函数:\(L(\theta)=\frac{1}{2}\sum_{i}{(y_i-\widehat{
y_
{i}})^2}\)要使用
dfciw9355481
·
2022-12-09 07:38
人工智能
python
损失函数统计
loss(x,y)=1n∑i=1n∣yi−f(xi)∣\operatorname{loss}(x,y)=\frac{1}{n}\sum_{i=1}^{n}\left|
y_
{i}-f\left(x_{i
三的五次方
·
2022-12-08 21:54
目标检测
pytorch
python
pytorch
python
深度学习
[计算机视觉]-MSE、MEA、L1、L2、smooth L1解释及优缺点
MAE损失函数MAE=∑i=1n∣yi−yip1∣nMAE=\frac{\sum_{i=1}^{n}\midy_{i}-
y_
{i}^{p_{1}}\mid}{n}MAE=n∑i=1n∣yi−yip1∣以分类问题举例
orangezs
·
2022-12-08 21:39
计算机视觉图像方向面试
计算机视觉
目标检测
深度学习
python
机器学习
人工智能
损失函数
神经网络优化学习-——损失函数 学习率
损失函数(loss):预测值y与已知答案
y_
的差距:NN优化目标:loss最小;1.mse(均方误差)2自定义3.ce(CrossEntropy)均方误差mse:loss_mse=tf.reduce_mean
fendon@l
·
2022-12-07 12:15
【流行学习】局部保持投影(Locality Preserving Projections)
LaplacianEigenmaps),想保留的是高维中的局部信息二、主要步骤具体步骤如下所示:1.确定LPP的目标函数:min12∑i,j(yi−yj)2sij\min\frac{1}2\sum_{i,j}(
y_
infinite_with
·
2022-12-07 01:19
机器学习
流形学习
pca降维
Pytorch损失函数
Loss=f(\hat{a},y)Loss=f(a^,y)代价函数(CostFunction)Cost=1N∑iNf(yi^,yi)Cost=\frac{1}{N}\sum_{i}^{N}f(\hat{
y_
Always066
·
2022-12-06 22:35
Pytorch学习笔记
【西瓜书笔记】补充1:logistic回归及其损失函数,梯度下降推导
假设两人的打分分数可以通过线性回归进行预测建模y1=θ1x+ϵ1,ϵ1∼N1(0,δ)y2=θ2x+ϵ2,ϵ2∼N2(0,δ)\begin{aligned}&
y_
{1}=\th
西风瘦马1912
·
2022-12-06 11:27
《机器学习》西瓜书第15期
逻辑回归
随机梯度下降
最大似然
机器学习
Matlab底层算法实现图像的平移
公式设初始坐标为(x0,y0)\left(x_{0},
y_
{0}\right)(x0,y0)的点经过平移(Δx,Δy)\left(\Deltax,\Deltay\right)(Δx,Δy)后坐标变为(x1
手写不期而遇
·
2022-12-06 07:17
matlab
matlab
算法
Tensorflow 自定义激活函数和损失函数
deftf_ssim_loss(y_true,
y_
指针的值是地址
·
2022-12-03 13:03
毕设
tensorflow
python
【OpenCV-Python】教程:3-14 Hough 圆变换
2=r2(x-x_{center})^2+(y-y_{center})^2=r^2(x−xcenter)2+(y−ycenter)2=r2其中(xcenter,ycenter)(x_{center},
y_
黄金旺铺
·
2022-12-03 10:59
#
OpenCV
opencv
python
计算机视觉
Hough圆
图像几何运算——Matlab实现
设图像空间的x,y正方向分别为向右、向下,初始坐标为(x0,y0)(x_0,
y_
站稳扶好
·
2022-11-30 15:35
Matlab
matlab
图像处理
开发语言
python 混淆矩阵绘图
fromsklearn.metricsimportconfusion_matrixfromsklearnimportcross_validation,metricsimportmatplotlib.pyplotaspltplt.rc('figure',figsize=(5,5))cm=confusion_matrix(y_test,
y_
wei_liao
·
2022-11-30 13:39
python
线性回归模型求解
相关函数1.2损失函数推导1.3总结2.损失函数求解推导2.1矩阵运算法则2.2损失函数求解【求导】1.线性回归损失函数推导1.1相关函数线性回归函数y(i)=θTX(1)\begin{aligned}
y_
荼靡,
·
2022-11-30 12:56
机器学习笔记
线性回归
算法
线性回归数据_大数据算法之多元线性回归
我偷懒,MSERMSEMAER-Squaredefr_square_score(y_predict,y_test):r=1-mse_score(y_predict,
y_
weixin_39534759
·
2022-11-30 01:46
线性回归数据
CDMA向量内积的计算
CDMA向量内积的计算在平面坐标上,有A点和B点,A点坐标是(x1,y1)(x_{1},
y_
{1})(x1,y1),B点坐标是(x2,y2)(x_{2},
y_
{2})(x2,y2)。
吓一跳你
·
2022-11-29 18:50
几何学
线性代数
算法
线性模型--线性回归、岭(脊)回归、lasso回归
1、线性回归给定数据集D={(x1,y1),(x2,y2),...,(xm,ym)}D=\{(x_{1},
y_
{1}),(x_{2},
y_
{2}),...,(x_{m},
y_
{m})\}D={(x1,y1
yyliunianyy
·
2022-11-29 09:14
机器学习
线性回归
岭回归
lasso回归
关于在机器学习中交叉熵和相对熵的问题
在学到神经网络时,通常的损失函数都由交叉熵来描述,如下:cross_entropy=tf.reduce_mean(-tf.reduce_sum(
y_
*tf.log(y)))但通常情况下,在机器学习中相对熵是可以替换交叉熵的
wqpanic
·
2022-11-28 22:52
机器学习
交叉熵
相对熵
机器学习
损失函数
期望、方差的线性关系证明
事件2:P(B=bi)=yi(j=1,2,...,m)P(B=b_i)=
y_
ILoveFujibayashiRyou
·
2022-11-27 21:34
高考
其他
数学
期望
方差
线性性
线性关系
离散型随机变量
做stacking集成学习中报错了,请各位朋友们指点一下
fori,(train_index,test_index)inenumerate(kf.split(X_train)):kf_X_train=X_train[train_index]kf_Y_train=
Y_
weixin_52763139
·
2022-11-26 14:47
集成学习
人工智能
python
scikit-learn
【数模/预测】岭回归和Lasso回归
,xpx_{1},x_{2},...,x_{p}x1,x2,...,xp是自变量,yyy是因变量,且满足如下线性关系:yi=β0+∑jβjxij+μi,i=1,2,...,n;j=1,2,...,p;
y_
智子、
·
2022-11-25 23:43
数学建模
回归
筛选变量
岭回归
lasso回归
机器学习: 如何防止过拟合
我们建立的模型实质上就是复杂函数f(x)x----输入---->f(x)----输出---->
y_
拟合的函数和训练集误差较大,
机器不学习我学习
·
2022-11-25 20:09
机器学习
机器学习
过拟合
损失函数——均方误差
损失函数预测值(y)与已知答案(
y_
)的差距。神经网络的优化目标就是找到某套参数使得计算出来的结果y与已知标准答案
y_
无限接近。也就是他们的差距loss值无限小。
要什么自行车儿
·
2022-11-25 10:01
神经网络与深度学习
深度学习
python
神经网络
神经网络和深度学习-均方误差Mean Square Error
由单个样本训练损失来推导出整个训练集的MSEMSE=1n∑i=1n(Yi−Y^i)2\mathrm{MSE}=\frac{1}{n}\sum_{i=1}^{n}\left(
Y_
{i}-\hat{Y}_{
Ricardo_PING_
·
2022-11-25 10:52
神经网络
Python深度学习
深度学习
神经网络
机器学习(四)——损失函数
损失函数(loss):预测值(y)与已知答案(
y_
)的差距,优化目标loss最小以下1与2两个案例的loss函数都是针对酸奶日销量案例1、均方误差mse损失函数importtensorflowastfimportnumpyasnp
lkw23333
·
2022-11-24 07:45
机器学习
机器学习
tensorflow
python
跟着官方文档学DGL框架第十天——训练图神经网络之链接预测
形式化地,给定节点uuu和vvv,链接预测的任务就是得到它们间存在链接的概率yu,v=ϕ(u,v)
y_
{u,v}=\phi\left(u,v\ri
cqu_shuai
·
2022-11-24 05:31
DGL
深度学习
pytorch
图神经网络
DGL
GCN
《Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification》论文阅读笔记
论文主要讨论了以ReLU为激活函数的网络的缺陷并提出了改进的激活函数PReLU与新的Kaiming初始化方法1.PReLU前向传播通道独立:f(yi)=max(0,yi)+aimin(0,yi)f\left(
y_
家鸽er
·
2022-11-23 13:09
论文阅读
Kaiming
神经网络
参数初始化
PReLU
神经网络和深度学习-梯度下降Gradient Descent
比如常见的均方误差(MeanSquaredError)损失函数:L(w,b)=1N∑i=1N(yi−f(wxi+b))2L(w,b)=\frac{1}{N}\sum_{i=1}^{N}\left(
y_
{
Ricardo_PING_
·
2022-11-23 13:01
神经网络
Python深度学习
深度学习
神经网络
利用python绘制混淆矩阵
]#['2','2','3','1','4']#类似的格式y_true=[]#['0','1','2','3','4']#类似的格式#对上面进行赋值C=confusion_matrix(y_true,
y_
诸神黄昏的幸存者
·
2022-11-23 10:58
图像分类
python
矩阵
【python】np.dot()、np.multiply()、np.matmul()方法以及*和@运算符的用法总结
则对于向量a=(x1,y1)a=(x_{1},
y_
{1})a=(x1,y1)和b=(x2,y2)b=(x_{2},
y_
{2})b=(x2,y2),它们的点积就表示为:a⋅b=x1x2+y1
敲代码的quant
·
2022-11-22 22:27
python
python
线性代数
numpy
机器学习入门之SVM算法
从简单说起,例如需要对一组二维数据D=(x1,y1),(x2,y2),...,(xm,ym)D={(x_{1},
y_
{1}),(x_{2},
y_
{2}),...,(x_{m},
y_
{m})}D=(x1,
young_monkeysun
·
2022-11-22 09:58
机器学习
算法
机器学习
支持向量机
python
Python自回归移动平均和自回归综合移动平均及快速预测每月飞机乘客
ARMA(自回归移动平均)模型回想一下,ppp阶的自回归过程定义为:yt=c+ϕ1yt−1+ϕ2yt−2+…+ϕpyt−p+ϵty_{t}=c+\phi_{1}
y_
{t-1}+\phi_{2}
y_
{t-
亚图跨际
·
2022-11-21 03:16
数据科学
Python
python
回归
【机器学习】线性分类【下】经典线性分类算法
数据集D={(x1,y1),(x2,y2),…,(xn,yn)}D=\{(x_1,
y_
不牌不改
·
2022-11-20 23:43
【机器学习】
分类
算法
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他