E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
交叉熵求导
TensorFlow2.0学习笔记(2)—关于numpy和tensorflow
1.numpy和tensorflowNumpy是用来处理数组的科学计算库,其在深度学习兴起之前就已经存在,其不能很好的支持GPU计算,也不能支持自动
求导
。而tf正是为了弥补这些缺点而产生的。
开门儿大弟子
·
2022-12-27 22:45
TF学习
轻松入门自然语言处理系列 03 机器学习基础-逻辑回归
逻辑回归的目标函数1.最大似然估计MaximumLikelihoodEstimation2.逻辑回归的似然函数3.逻辑回归的最大似然估计三、梯度下降法1.求解函数的最小值最大值2.梯度下降法3.逻辑函数
求导
cutercorley
·
2022-12-27 22:36
轻松入门自然语言处理系列
自然语言处理
NLP
机器学习基础-逻辑回归
pytorch基础(三)- 随机梯度下降
目录梯度介绍激活函数及其梯度Sigmoid/LogisticTanhReLULoss函数及其梯度均方差MSEautograd.grad()求梯度loss.backward()求梯度Softmax链式法则单层感知机的
求导
多输出感知机的
求导
链式法则
sherryhwang
·
2022-12-27 18:55
pytorch
python
pytorch
Pytorch深度学习实践 第四讲 反向传播
importtorchx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]#tensor中包含data(w)和grad(loss对w
求导
)w=torch.Tensor
啥都不会的研究生←_←
·
2022-12-27 18:54
pytorch学习
模式识别系列(三)logistic回归
目录1.logistic回归问题2.logistic回归损失函数2.1信息熵,KL散度简介2.2
交叉熵
损失函数2.3损失函数对比3.logistic回归算法1.logistic回归问题 logistic
人工小智障
·
2022-12-27 18:09
信息熵
机器学习
人工智能
行人重识别reid
可以任选backbone(resnet,轻量化模型(osnet,mobilenet…))+
交叉熵
损失/tripletloss+
交叉熵
损失/tripletloss+
交叉熵
损失/circleloss+
交叉熵
损失
cv-daily
·
2022-12-27 17:19
人工智能
深度学习
跟我学算法-图像识别之图像分类(上)(基础神经网络, 卷积神经网络(CNN), AlexNet,NIN, VGG)...
1.基础神经网络:输入向量x,权重向量w,偏置标量b,激活函数sigmoid(增加非线性度)优化手段:梯度下降优化,BP向后传播(链式规则)梯度下降优化:1.使用得目标函数是
交叉熵
c=1/nΣΣ[yj*
weixin_34075551
·
2022-12-27 14:55
人工智能
反向传播算法及其实现
理清反向传播算法---背景---定义全连接网络---前向运算---链式
求导
---反向传播算法代码一(较粗糙,代码二会改进),预测sin(x)曲线代码二:添加Batch训练,替换激活函数—背景去年看了《神经网络与深度学习
李奥去哪了
·
2022-12-26 22:12
python
BP反向传播算法
math@间断点@微积分基本定理@变限积分
求导
公式
文章目录间断点第一类间断点跳跃间断点可去间断点例第二类间断点微积分定理第一基本定理变上限积分函数的导数定积分的角度原函数存在定理应用例例微积分第二基本定理变限积分
求导
公式例math@间断点@微积分基本定理
xuchaoxin1375
·
2022-12-26 18:22
math
softmax溢出问题
目录上溢及下溢softmax
交叉熵
损失softmax函数是深度学习常用的输出函数,它的表达式如下:yj^=exj∑i=1nexi\hat{y_j}=\frac{e^{x_j}}{\sum_{i=1}^{
muyuu
·
2022-12-26 16:57
机器学习
机器学习
sigmoid函数
求导
_可视化深入理解损失函数与梯度下降 | 技术头条
作者|Hugegene译者|刘畅责编|Rachel出品|AI科技大本营(id:rgznai100)【导语】本文对梯度函数和损失函数间的关系进行了介绍,并通过可视化方式进行了详细展示。另外,作者对三种常见的损失函数和两种常用的激活函数也进行了介绍和可视化。你需要掌握关于神经网络训练的基础知识。本文尝试通过可视化方法,对损失函数、梯度下降和反向传播之间的关系进行介绍。损失函数和梯度下降之间的关系为了对
weixin_39639260
·
2022-12-26 15:17
sigmoid函数求导
激活函数之 Sigmoid、tanh、ReLU、ReLU变形和Maxout
sigmoid函数
求导
这是sigmoid函数的一个重要性质。
奔跑的大西吉
·
2022-12-26 15:08
机器学习
深度学习
博客总目录
数据增广、数据读取) 1.2网络组件 (卷积层、BN层、激活函数层、池化层、全连接层、Dropout层) 1.3网络 (创建网络、网络参数、固定参数、获取输出) 1.4损失函数与优化算法 (BCELoss、
交叉熵
qq_26697045
·
2022-12-26 15:30
基础设施
深度学习
人工智能
机器学习入门实验之逻辑回归--批梯度下降法
机器学习入门实验之逻辑回归--批梯度下降法机器学习入门课程复习:逻辑回归基于
交叉熵
代价函数的逻辑回归模型以及实现机器学习入门实验之逻辑回归、python、numpy1.获取数据2.对数据进行标准化、归一化处理划分训练集和测试集实现算法测试效果及模型评估实验效果
zhilanguifang
·
2022-12-26 11:19
python
机器学习
逻辑回归
机器学习
逻辑回归
python
算法
机器学习之softmax
目录一、softmax的理论部分1、softmax提出的原因2、softmax公式3、常搭配的损失函数——
交叉熵
损失函数(1)分类要求(2)引入原因(3)公式二、softmax的代码实现1、自行实现(1
tt丫
·
2022-12-26 10:36
机器学习
深度学习
人工智能
深度学习
softmax
分类任务
opencv轮廓检测之椭圆检测-----算法篇(3)--Sobel
前两篇只是吧水平方向和竖直方向
求导
进行了线性叠加,而实际上我们是用梯度大小描述陡峭程度#include#includeintmain(intargc,char**argv){if(argc::type&
traumland
·
2022-12-26 03:29
opencv与图像处理
算法
卷积
opencv
轮廓检测
opencv轮廓检测之椭圆检测-----算法篇(4)--Canny
1.对图像分别进行x方向和y方向的
求导
2.计算每个像素的梯度大小3.把局部小于梯度最大值的点移走4.保留>最大threshold的部分,删除所有最大threshold的点,将其保留opencv的例子就不列出了
traumland
·
2022-12-26 03:29
opencv与图像处理
opencv
算法
轮廓检测
Canny
OpenSMax: Unknown Domain Generation Algorithm Detection ECAI2020开放集识别论文解读
[12]OpenSMax:UnknownDomainGenerationAlgorithmDetection.ECAI2020:1850-1857本文是openmax的改进版本,同样是通对
交叉熵
分类网络进行后处理
appron
·
2022-12-25 23:57
开放集识别
深度学习
Towards Open Set Deep Networks CVPR2016开放集识别论文解读
BoultT.TowardsOpenSetDeepNetworks[C]//2016IEEEConferenceonComputerVisionandPatternRecognition(CVPR).IEEE,2016.本文开发了通对
交叉熵
分类网络进行后处理
appron
·
2022-12-25 23:56
开放集识别
深度学习
算法面经360、58同城篇
kmeans还知道啥聚类算法4.crf;hmm原理5.bert结构和transformer区别:没用decoder等6.self-attetionQKV的含义58同城实习1.数据不均衡怎么解决,数据增强2.
交叉熵
和
持续战斗状态
·
2022-12-25 21:31
算法面经
机器学习
深度学习
自然语言处理
nlp
面经
交叉熵
理论及其应用实例
文章目录rl分类方法:
交叉熵
简要介绍
交叉熵
应用在CartPole中(代码内有简要说明)rl分类方法:写在前面:
交叉熵
属于无模型和基于策略的在线策略方法所有RL方法的分类方法:1.无模型或基于模型:无模型表示该方法不构建环境或奖励的模型
.breeze.
·
2022-12-25 19:07
rl
python
numpy
DIDL2_Softmax回归(分类)
Softmax回归(分类)softmax回归从回归到多类分类-均方损失校验比例Softmax和
交叉熵
损失softmax回归回归vs分类回归估计一个连续值分类预测一个离散类别从回归到多类分类回归:单连续数值输出自然区间
Mafia.M.A
·
2022-12-25 19:59
深度学习
回归
分类
l2范数
求导
_稀疏编码学习笔记(二)L2范数
L2范数除了L1范数,还有一种更受宠幸的规则化范数是L2范数:||W||2。它也不逊于L1范数,它有两个美称,在回归里面,有人把有它的回归叫“岭回归”(RidgeRegression),有人也叫它“权值衰减weightdecay”。这用的很多吧,因为它的强大功效是改善机器学习里面一个非常重要的问题:过拟合。至于过拟合是什么,上面也解释了,就是模型训练时候的误差很小,但在测试的时候误差很大,也就是我
祁姝是个小欢喜
·
2022-12-25 19:58
l2范数求导
目标检测之fasterRCNN:关于学习使用fasterRCNN做目标检测
首先大体采用的是迁移学习的思路,注主要是对模型迁移,在img做了切割和西工大及北航的数据集上进行一个交叉训练,这样使得RPN的网络外面的打分函数有了一个更好的0.7的结果,这个结果主要是通过对reLu这个网络进行
求导
发现这个函数的凸性问题从而得到局部最优
BigCowPeking
·
2022-12-25 17:46
目标检测
faster
RCNN
【pytorch】—— 基础概念
了解:1.Autograd自动
求导
机制2.利用pytorch构建用于图像分类的人工神经网络特点:1.比numpy更加灵活,可以使用GPU计算2.高效深度学习研究平台3.所有Tensor类型默认都是基于CPU
fenfyue
·
2022-12-25 15:30
pytorch
神经网络
人工智能
pytorch
人工智能期末复习:人工神经网络(详细笔记和练习题)
概述2.基本单元-神经元3.激活函数3.1.阶跃函数3.2.Sigmoid函数3.3.TanH函数3.4.ReLU函数3.5.Softplus函数4.多层前馈神经网络5.损失函数5.1.均方误差5.2.
交叉熵
北岛寒沫
·
2022-12-25 14:59
人工智能
人工智能
深度学习
【论文速递】PolarNet: An Improved Grid Representation for Online LiDAR Point Clouds Semantic Segmentation
摘要自动驾驶系统中对细粒度感知的需
求导
致最近对单扫描LiDAR的在线语义分割的研究增加。
冯子材
·
2022-12-25 11:32
深度学习
三维点云
自动驾驶
深度学习
机器学习——详解判别模型求解分类问题
目录逻辑回归判别模型(discriminativemodel)设计模型Functionset设计函数选择最好的w和b更新参数w和b逻辑回归与线性回归对比逻辑回归为什么用
交叉熵
来找最优的参数而不用MAE或
尘心平
·
2022-12-25 08:39
#
机器学习——李宏毅
分类
逻辑回归
深度学习
神经网络
极大似然估计原理与实例
一般步骤:根据样本的概论分布,写出样本的联合概率似然函数对似然函数取对数
求导
解对数似然方程实例-掷硬币实验在掷硬币实验中,估计出现证明向上的概率θ\thetaθ\qqua
未央君@
·
2022-12-25 08:47
机器学习
算法
概率论
word2vec中的负采样(以CBOW模型为例)
针对此目标我们采用
交叉熵
损失函数。当然这个模型不仅仅针对预测一个单词时,我们需要将预测所有单词的
交叉熵
损失函数相加作为全局的损失函数,进行多次误差反传,当全局损失函数最
今天周一天气晴
·
2022-12-24 18:51
文本分类
word2vec
CBOW
词向量
文本分类
最优化案例整理
不过里面使用了数值法
求导
,没有用解析导
weixin_34194087
·
2022-12-24 18:05
数据结构与算法
神经网络梯度是什么意思,神经网络梯度消失问题
ReLU在一定程度上能够防止梯度消失,但防止梯度消失不是用它的主要原因,主要原因是
求导
数简单。
普通网友
·
2022-12-24 18:48
神经网络
神经网络
深度学习
机器学习
机器学习中各种损失函数对比总结
文章目录一、分类问题1.0-1损失函数(zero-oneloss)2.Hinge损失函数3.log对数损失函数4.Logistic损失5.
交叉熵
损失函数(Cross-entropylossfunction
小·幸·运
·
2022-12-24 17:14
机器学习
深度学习
损失函数
机器学习
pytorch学习笔记一:pytorch学习的路线图
1.gpu加速,tensor和autograd(向量和自动
求导
)2.神经网络工具箱gpu加速示例代码:importtorchimporttimeprint(torch.
爱学习的人工智障
·
2022-12-24 15:52
深度学习
pytorch
pytorch
学习
深度学习
Pytorch学习笔记(一)
学习资料:Pytorch中文手册:参见PyTorch中文手册Pytorch深度学习实践:参见《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili知识点1:Pytorch基础—自动
求导
—backward
白首作舟
·
2022-12-24 15:49
Pytorch学习笔记
pytorch
学习
深度学习
PyTorch | 学习笔记2
一.损失函数1.损失函数概念衡量模型输出与真实标签的差异nn.CrossEntropyLoss功能:nn.LogSoftmax()与nn.NLLLoss()结合,进行
交叉熵
计算weight:各类别的loss
奔跑的蜗牛君666
·
2022-12-24 14:22
深度学习
pytorch
深度学习
【机器学习之数学】01 导数、偏导数、方向导数、梯度
按照定义
求导
数:\[f'(x)=\lim_{\Deltax\to0}\frac
weixin_30338481
·
2022-12-24 13:44
A Simple Framework for Contrastive Learning of Visual Representations论文精读
对比学习比监督学习需要更强的数据扩充4.编码器和头部的架构4.1.无监督对比学习从更大的模型中受益(更多)4.1.无监督对比学习从更大的模型中受益(更多)5.损失函数和批量大小5.1.温度可调的归一化
交叉熵
损失比其他方法效
Raphael9900
·
2022-12-24 13:46
深度学习
一文全解:ID3,CART和C4.5的区别与联系
使用计算不纯度的公式是
交叉熵
Entropy。
yonsan_
·
2022-12-24 11:47
决策树
算法
HistoSeg:具有多损失函数的快速注意,用于数字组织学图像中的多结构分割
因此,我们提出了一个编码器-解码器网络,快速注意模块和多损失函数(二元
交叉熵
损失(BCE)损失,焦点损失骰子损失的组合)。
不想敲代码的小杨
·
2022-12-24 10:24
医学图像分割论文
深度学习
神经网络
计算机视觉
使用tensor与自动
求导
编写并训练一个线性回归器
importtorchimportnumpyasnpimporttorch.optimasoptimprint(torch.__version__)#生成训练数据x=torch.rand(30,2)*10-5 w0=torch.tensor([2,-1],dtype=torch.float32)b0=torch.tensor([1.7],dtype=torch.float32)y=torch.ma
触手可温
·
2022-12-24 09:21
pytorch
机器学习
IndexError: Dimension out of range (expected to be in range of [-1, 0], but got 1)错误解决办法
在使用pytorch
交叉熵
损失函数loss=nn.CrossEntropyLos(v,targets)时发现报错IndexError:Dimensionoutofrange(expectedtobeinrangeof
触手可温
·
2022-12-24 09:49
深度学习
python
pytorch
简单探究神经网络中权重、偏置维度的关系
实现一个简单的神经网络,探究神经网络中权重、偏置维度的关系简单神经网络的分析和实现本次目标项目环境神经网络手绘图代码实现简单神经网络的分析和实现本次目标利用PyTorch的tensor(向量)和autograd(自动
求导
大龙哥。
·
2022-12-24 08:33
神经网络
pytorch
深度学习基础知识(激活函数,损失函数)
常见的激活函数有Relu(rectificedlinearunit)修正线性单元Relu提高非常简单的非线性变换Relu=max(x,0);Relu
求导
以后,要么让参数消失,要么让参数通过。
Ferbc
·
2022-12-24 01:51
深度学习
深度学习
机器学习
人工智能
多层神经网络 ——小批量梯度下降法
在前面的课程中,我们知道为了实现非线性分类的任务,需要使用多层神经网络,多层神经网络的损失函数不再是凸函数,而是一种比较复杂的不规则函数,这类函数
求导
数非常困难,在求解极值问题时很难通过计算得到解析解,
xuechanba
·
2022-12-23 22:54
笔记
神经网络
深度学习
机器学习
对比PyTorch、TensorFlow、JAX、Theano,我发现都在关注两大问题
如今回顾这些技术,我发现它们的关注点似乎都是如下两个问题:包含自动
求导
和并行在内的函数转换,例如vmap,pmap和pjit等;异构计算,CPU负责控制流,GPU/TPU负责张量计算和集合通信。
OneFlow深度学习框架
·
2022-12-23 22:47
前沿技术
pytorch
tensorflow
人工智能
python
深度学习
TensorFlow2.0自动
求导
机制(tf.GradientTape的用法)
文章目录1使用tf.GradientTape()计算y=x2y=x^2y=x2的导数2当使用常量tf.constant时3对多个数
求导
时4使用
求导
机制进行线性回归的案例在机器学习中,我们经常需要计算函数的导数
宛如近在咫尺
·
2022-12-23 19:17
TensorFlow2
Python
python
tensorflow
人工智能实践:Tensorflow笔记 Class 2:神经网络优化
目录2.1基础知识2.2复杂度学习率1.复杂度2.学习率2.3激活函数1.sigmoid函数2.tanh函数3.relu函数4.leaky-relu函数2.4损失函数1.均方误差2.自定义损失函数3.
交叉熵
损失函数
By4te
·
2022-12-23 18:41
机器学习
Python
tensorflow
人工智能
神经网络
矩阵
求导
推导
矩阵
求导
推导1、定义两个矩阵相乘:A⋅B=CA\cdotB=CA⋅B=C2、考虑loss函数:Loss=∑im∑jn(Cij−p)2Loss=\sum_{i}^{m}\sum_{j}^{n}(C_{ij
燃烧小小的梦
·
2022-12-23 18:34
矩阵
线性代数
算法
交叉熵
损失函数
求导
本文是《Neuralnetworksanddeeplearning》概览中第三章的一部分,讲machinelearning算法中用得很多的
交叉熵
代价函数。
weixin_43569660
·
2022-12-23 18:33
机器学习
上一页
39
40
41
42
43
44
45
46
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他