E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Y_
复向量的内积(例题详解)
+x_n\overline{y_n}={\displaystyle{\sum_{i=1}^{n}{x_{i}\overline{
y_
{i}}}}}(x,y)=x
__Wedream__
·
2023-06-12 10:06
数学之路
高等数值分析
数学
学习
softmax 函数
https://blog.csdn.net/m0_37769093/article/details/107732606softmax函数如下所示:yi=exp(xi)∑j=1nexp(xj)
y_
{i
奋斗的小乌龟
·
2023-06-10 15:31
算法
机器学习
人工智能
深度学习
python
R2决定系数(R2 得分)详细计算
计算过程使用yi{\text{y}}_iyi表示真实的观测值,使用
y_
\overset{\_}{\mathopy}
y_
表示真实观测值的平均值,使用yi^\overset{\hat{}}{\mathop{
二月w
·
2023-06-09 17:53
机器学习
机器学习
sklearn
python
MATLAB 之 数据插值、曲线拟合和数值微分
例如,测量得nnn个点的数据为(x1,y1),(x2,y2),…,(xn,yn)(x_{1},
y_
{1}),(x
虚心求知的熊
·
2023-06-07 12:04
MATLAB
matlab
数学建模
开发语言
LATEX个人笔记
zhihu.com)公式篇:latex公式不要编号加公式末尾加\nonumber原式:\begin{equation}\ell(\boldsymbol{\beta})=\sum_{i=1}^{m}\left(-
y_
他不是混子QAQ
·
2023-06-07 11:04
笔记
latex
隐马尔科夫模型
隐马尔可夫模型隐马尔可夫模型(HiddenMarkovModel,HMM)可以由观测序列推断出概率最大的状态序列.HMM中的变量可分为两组:状态变量(隐变量):{y1,y2,...,yn}\left\{
y_
P-ShineBeam
·
2023-06-07 05:22
NLP基础
知识基础
python统计模型
机器学习
算法
线性代数
几大平台的markdown测试
原始代码:####模型$
y_
{ij}=h_i+a_j+e_{ij}$其中$
y_
{ij}=$第i个牧场第j头奶牛的产奶量,即表型观测值$h_{i}=$第i个牧场对奶牛的效应值,即固定环境效应####矩阵形式
育种数据分析之放飞自我
·
2023-04-21 08:24
Tensorflow学习笔记(二)
(tf.square(y_-y))MSE计算公式2.自定义损失函数举例:大于正确值损失cost,小于正确值损失profitloss=tf.reduce_sum(tf.where(tf.greater(
y_
繁盛天地橘
·
2023-04-21 06:57
Softmax和Cross Entropy Loss在分类问题中的作用
首先,对类别标签进行一位有效编码:y=[y1,y2,y3]Ty=[
y_
{1},
y_
{2},
y_
{3}]^{T}y=[y1,y2,y3]Tyi={1,if(i=y)0,otherwisey_{i}=\left
晓shuo
·
2023-04-18 15:13
分类
机器学习
人工智能
数据增广:Mixup, Cutout 和 CutMix
假设有两张图片(xi,yi)(x_{i},
y_
{i})(xi,yi)和(xj,yj)(x_{j},
y_
{j})(xj,yj),其中xxx表
马鹤宁
·
2023-04-16 05:57
机器学习和深度学习之旅
python
深度学习
计算机视觉
数据增广
炸雷(详细解析)
其中有一个关卡的任务如下,在一个二维平面上放置着nn个炸雷,第ii个炸雷\left(x_{i},
y_
{i},r_{i}\right)(xi,yi,ri)表示在坐标\left(x_{i},
y_
{i}\right
爱蜜莉雅(EMT)
·
2023-04-11 20:14
深度优先
算法
图论
手搓Lenet的keras实现
,Dense,Activation,Conv2D,MaxPooling2D,Flattenfromkeras.datasetsimportmnist(x_train,y_train),(x_test,
y_
papaofdoudou
·
2023-04-05 14:26
人工智能
嵌入式系统
算法
keras
深度学习
机器学习
P8816 [CSP-J 2022] 上升点列(民间数据)
你在自由添加kk个点后,还需要从n+kn+k个点中选出若干个整数点并组成一个序列,使得序列中任意相邻两点间的欧几里得距离恰好为11而且横坐标、纵坐标值均单调不减,即x_{i+1}-x_i=1,
y_
{i+
熬夜写代码的小编
·
2023-04-04 05:00
NOIP普及组
洛谷
算法
date的常见用法
1date+%
Y_
%m_%d(=2015_10_22)2date--date='1daysago'+%
Y_
%m_%d(=2015_10_21)3date--date='20151223'+%s(=1450800000
小胖_20c7
·
2023-04-03 01:15
Python-曲线拟合(一)
最小二乘法拟合函数φ(xi)\varphi(x_i)φ(xi)与原始数据点_yi的偏差为:δi=φ(xi)−yi(i=0,1,2,⋯ ,n)\delta_{i}=\varphi\left(x_{i}\right)-
y_
X射线双星
·
2023-04-01 14:41
Python数据处理
python
线性代数
ZotFile插件Renaming Rules规则设置
为保证各终端文件结构一致,不同终端中ZotFile的重命名规则应保持一致,推荐使用以下规则FormatforallItemTypesexceptPatents{%a_}{%
y_
}{%t}FormatforPatents
wwlswj
·
2023-03-22 15:28
科研辅助
zotero
Neural ODEs (Oridinary Differential Equations)
1通用形式dydt=f(t,y)\frac{dy}{dt}=f(t,y)dtdy=f(t,y);y(t0)=y0y(t_0)=y_0y(t0)=y0yn+1=yn+f(tn,yn)⋅(tn+1−tn)
y_
balabalahoo
·
2023-02-07 07:49
机器学习
神经网络
深度学习
Logistic回归-分类模型和梯度下降算法
Logistic回归1.Logistc回归模型回归:用一条直线对给定数据进行拟合(最佳拟合直线)Logistic回归:根据现有数据对分类边界建立回归方程,以此直线进行分类给定数据集\([(x_{1},
y_
从锅里爬
·
2023-02-06 17:08
机器学习
机器学习、深度学习中常用损失函数
一.均方差损失(MeanSquaredErrorLoss)基本形式:JMSE=1N∑i=1N(yi−yi^)2J_{MSE}=\frac{1}{N}\sum_{i=1}^{N}(
y_
{i}-\hat{
y
__LazyCat__
·
2023-02-04 15:35
深度学习
机器学习
深度学习
人工智能
AI重温:二分类和多分类的交叉熵区别
(1-y_hat)))多分类,一般激活函数使用softmaxSoftmax计算公式:此时交叉熵计算公式:代码如下:cross=np.mean(-np.sum(y_test_onehot*np.log(
y_
怀尔斯666
·
2023-02-04 12:09
学习
python
Cross-entropy
activate
3. Linear Regression
LinearRegression简单线性回归简单线性回归形式:Y=β0+β1X1Y=\beta_0+\beta_1X_1Y=β0+β1X1估计系数残差:ei=yi−y^ie_{i}=
y_
{i}-\hat
weixin_47891244
·
2023-02-03 17:09
ISL
线性回归
python
布尔莎七参数坐标转换模型
两个坐标系之间转换的布尔莎模型为:[XAYAZA]=[TXTYTZ]+(1+m)R3(wz)R2(wy)R1(wx)[XBYBZB](1)\left[\begin{matrix}X_{A}\\
Y_
{A}
点云侠
·
2023-02-03 16:27
CloudCompare
几何学
算法
计算机视觉
tensorflow中的eval的用法
的用法做人工智能实验的过程中遇到这样一段代码不是很明白是什么意思:查阅资料后明白了tensorflow中eval的用法:withtf.Session()assess:print(accuracy.eval({x:mnist.test.images,
y_
不咋地的老鸽
·
2023-02-01 12:02
tensorflow
有关UDE(Unsupervised Domain Expansion)以及UDA,DG的思考与调研
DomainGeneralization)域泛化的目标是从多个不同但相关的域学习一个模型,该模型能很好地在未见过的域泛化XD1,XD2...XDn,YD1,YD2...YDnX_{D_1},X_{D_2}...X_{D_n},
Y_
一只星期八
·
2023-01-29 19:30
迁移学习
人工智能
拉格朗日差值法python实现
(xn,yn)给定一组点(x_{1},
y_
{1}),(x_{2},
y_
{2})...(x_{n},
y_
{n})给定一组点(x1,y1),(x2,y2)...
聪明乖巧的小狮子
·
2023-01-21 08:41
python
计算方法
python
线性代数
无模型自适应迭代学习控制原理和matlab代码仿真学习记录
首先数值给出了问题定义,给出m维输入q维输入的非线性系统:yn(k+1)=f(un(k),yn)(k),ξ(k),k)
y_
{n}(k+1)=f(u_{n}(k)
fx2h
·
2023-01-18 00:49
Matlab
matlab
算法
PyTorch示例——利用PyTorch计算梯度
1.12.1Python:3.7.13导包importtorchimportmatplotlib.pyplotasplt原始数据#原始数据x_data=[1.0,2.0,3.0,4.0,5.0,6.0]
y_
蒋含竹
·
2023-01-14 11:30
MachineLearning
#
PyTorch
Python
pytorch
python
深度学习
计算梯度
原始
矩阵对矩阵求导,标量对矩阵求导,链式法则
Z∈R,Ym∗n,Xa∗bZ\inR,
Y_
{m*n},X_{a*b}Z∈R,Ym∗n,Xa∗bdZdX=dZdY∗dYdX\frac{dZ}{dX}=\frac{dZ}{dY}*\frac{dY}{dX
防搞活机
·
2023-01-12 21:03
矩阵
线性代数
支持向量机(SVM)原理推导:Soft-margin
\\
y_
{i}\left(\boldsymbol{w}^{\rm{T}}\boldsymbol{x}_{i}+b\right)\geqsla
態猛
·
2023-01-10 22:26
支持向量机
机器学习
算法
Pytorch学习——梯度下降和反向传播 03 未完
简单理解,(对于低维函数来讲)就是导数(或者是变化最快的方向)2判断模型好坏的方法回归损失loss=(Ypredict−Ytrue)2loss=(
Y_
{predic
谜底是你_
·
2023-01-10 16:59
PyTorch深度学习
pytorch
学习
深度学习
lecture 8:OLS回归模型
UsingPythonforIntroductoryEconometricskevinsheppard讲授Python做计量相关分析1.相关系数的计算公式:r=∑(xi−xˉ)(yi−yˉ)∑(xi−xˉ)2∑(yi−yˉ)2r=\frac{\sum(x_{i}-\bar{x})(
y_
HUT_Econometrics
·
2023-01-09 15:46
计量经济学
感知机python实现
1,ifa>00,ifa0$}\\0,&\text{if$a0ifa<0损失函数L(w)=∑i=1mI{yiwTxi<0}L(w)=∑xi∈D−yiwTxiL(w)=\sum_{i=1}^{m}I\{
y_
2pi
·
2023-01-08 11:22
python
深度学习
【李航统计学习笔记】第一章:统计学习及监督学习概论
即学习的策略实现求解最优模型的算法通过学习方法选择最优模型利用学习的最优模型对新数据进行预测或分析监督学习训练集:T={(x1,y1),(x2,y2),⋯ ,(xN,yN)}T=\left\{\left(x_{1},
y_
西风瘦马1912
·
2023-01-08 10:51
李航统计学习笔记
机器学习
人工智能
极大似然估计
Tensorflow(二十七) —— 过拟合与欠拟合
stochasticgradientdescent1.过拟合检测#*************************1、howtodetectoverfitting#1.1splitting(x,y),(x_test,
y_
CyrusMay
·
2023-01-05 09:45
深度学习(神经网络)专题
python
深度学习
tensorflow
算法
人工智能
二次型惯性定理
zr2其中rrr是fff的秩证明:设可逆变换X=CYX=CYX=CY化为标准型f=d1y12+…dpyp2−dp+1yp+12−…dryr2f=d_1y_1^2+\dotsd_py_p^2-d_{p+1}
y_
Nightmare004
·
2023-01-04 08:11
数学
线性代数
神经网络常用损失函数loss
神经网络中常用以下三种损失函数:均方误差:MSE(
y_
,y)=(Σn(y–
y_
)2)/n其中
y_
代表标准值,y代表预测值Tensorflow代码:Loss=tf.reduce_mean(tf.square
VictorHan01
·
2023-01-03 01:29
tensorflow
神经网络-损失函数:
3.自定义损失函数:通过每个需要预测的结果y与标准答案
y_
比较,计算其损失累计和,即loss(
y_
,y)=sum{f(
y_
,y)},其中
y_
是标准答案数据集的,y为预测答案计算出的。
TxyITxs
·
2023-01-03 01:59
tensorflow学习
最小二乘求解线性回归参数
1.779817,3.553517,7.051988,14.296636])#光学变焦倍数Y=np.array([12.2,24.3,48.1,97.6])#焦距#最小二乘估计x_=np.mean(X)
y_
young_s%
·
2023-01-01 07:02
python
ML
线性回归
python
numpy
常用的图像质量评估指标
MSEMeanSquareError(均方差)equation:MSE=1mn∑i=0m−1∑j=0n−1(yi,j−y^i,j)2MSE=\frac{1}{mn}\sum_{i=0}^{m-1}\sum_{j=0}^{n-1}(
y_
BubbleCodes
·
2022-12-31 21:52
机器学习
深度学习
算法
一个python文件中的两个linear()层和一个conv2d()层同时使用(b,c,1,1)大小的张量作为输入时的输出结果对比
6,512,1,1)print(x,x.shape)##x_=torch.randn(64,5)x_=x.view(6,512)m_=nn.Linear(512,5)m__=nn.Linear(512,5)
y_
W-a-rrior
·
2022-12-31 09:26
python
tensorflow05——关于帮助理解【损失函数】的一个实例
x1,x2是两个影响日销量的因素【现在需要探讨y与x1和x2的关系】损失函数:使用mse-均方误差损失函数tf表达式为:lose_mse=tf.reduce_mean(tf.square(y_-y))(
y_
Fortunate.F
·
2022-12-31 07:52
tensorflow
深度学习
python
tensorflow
摄像机标定---1
,v_1),\cdots,(u_m,v_m)\}{(u1,v1),⋯,(um,vm)},分别对应的物点的世界坐标系下的坐标{(XW1,YW1,0),⋯ ,(XWm,YWm,0)}\{(X_{W_1},
Y_
小书生大侠客
·
2022-12-30 21:39
workspace
算法
张正友标定算法学习笔记-1-标定结果跟航高/景深的关系
首先利用上一篇博客中的公式进行理论分析,{μ=fxxczc+μ0ν=fyyczc+ν0(1)\left\{\begin{matrix}\mu=f_x\dfrac{x_{c}}{z_c}+\mu_0\\\nu=f_y\dfrac{
y_
LadiesAndGentlemen
·
2022-12-30 04:23
basicKnowledge
相机标定
摄影测量
cs231n课后SVM作业
用到的公式AlossfunctiontellshowgoodourcurrentclassifierisGivenadatasetofexamples{(xi,yi)}i=1N\{(x_{i},
y_
{i
vegtsunami
·
2022-12-29 11:05
矩阵求导法则总结
1.矩阵Y对标量x求导相当于每个元素求导数后转置一下,注意M×N矩阵求导后变成N×M了Y=[yij]−−>dYdx=dyijdxY=[
y_
{ij}]-->\frac{dY}{dx}=\frac{dy_{
Mickle_Liu
·
2022-12-28 15:52
矩阵求导
非负矩阵分解
矩阵
线性代数
Pytorch模型测试时显存一直上升导致爆显存
在写代码的时候发现进行训练的时候大概显存只占用了2GB左右,而且训练过程中显存占用量也基本上是不变的.而在测试的时候,发现显存在每个batch数据推理后逐渐增加,直至最后导致爆显存,程序fail.这里放一下我测试的代码:y,
y_
XJTU-Qidong
·
2022-12-28 13:50
Pytorch
深度学习
人工智能
神经网络
pytorch
点乘/内积/数量积;叉乘/向量积;矩阵乘法;哈达马积;克罗内克积;卷积
符号解释名称符号Latex运算应用意义点乘/内积/数量积⋅⋅⋅或∙\bullet∙\cdot或\bulleta⃗∙b⃗=x1x2+y1y2\vec{a}\bullet\vec{b}=x_{1}x_{2}+
y_
还能坚持
·
2022-12-28 09:52
最优化
线性代数
乘法/积运算和符号(点乘/内积/数量积,叉乘/向量积,矩阵乘法,Hadamard, Kronecker积,卷积)一网打尽
名称符号Latex运算应用意义点乘/内积/数量积⋅\cdot⋅或∙\bullet∙\cdot或\bulleta⃗∙b⃗=x1x2+y1y2\vec{a}\bullet\vec{b}=x_{1}x_{2}+
y_
老光头_ME2CS
·
2022-12-28 09:21
矩阵
【数学计算】点乘/点积/内积/数量积/叉乘/外积/叉积/向量积
序言区分一下这几个概念1.点乘点乘=点积=内积=数量积dotproduct=innerproduct=scalarproducta⃗=(x1,y1,z1)\vec{a}=(x_{1},
y_
{1},z_{
shuaixio
·
2022-12-28 09:50
算法与数据结构
点乘
叉乘
数据计算
数学建模之时间序列的典型分解模型附Matlab代码
时间序列的典型分解模型引言一个时间序列的典型分解式为:Xt=mt+st+YtX_{t}=m_{t}+s_{t}+
Y_
{t}Xt=mt+st+Yt其中mtm_{t}mt为趋势项,sts_{t}st是已知周期为
Python大数据分析
·
2022-12-24 11:45
数学建模模型算法
matlab
概率论
机器学习
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他