E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
grad
手写交叉熵损失
importtorchimporttorch.nn.functionalasF#创建数据集y=torch.randint(0,2,size=(10,1)).to(torch.float)p=torch.rand(size=(10,1),requires_
grad
云帆@
·
2024-01-12 14:32
torch
python
pytorch
深度学习
[Android Studio] 导入安卓Android项目教程
将B项目的根目录下的build.
grad
我好想敲代码
·
2024-01-12 11:56
Android
Studio
教程全家桶
android
android
studio
激活函数整理
sigmoid函数importtorchfromd2limporttorchasd2l%matplotlibinlinex=torch.arange(-10,10,0.1,requires_
grad
=
惊雲浅谈天
·
2024-01-11 08:13
机器学习
人工智能
机器学习
下载Gradle: - 前往Gradle官方网站(https://gradle.org/)下载最新版本的
Grad
要安装Gradle并更改Gradle的镜像源,您可以按照以下步骤进行操作:下载Gradle:前往Gradle官方网站(https://gradle.org/)下载最新版本的Gradle压缩包(.zip或.tar)。解压下载的Gradle压缩包到您选择的目录,例如:C:\Gradle。配置环境变量:在Windows系统中,打开控制面板并选择“系统和安全”>“系统”>“高级系统设置”。在弹出的窗口中,
酸奶公园
·
2024-01-11 06:43
java
开发语言
html
前端
css
探索PyTorch优化和剪枝技术相关的api函数
torch.nn子模块Utilities解析clip_
grad
_norm_torch.nn.utils.clip_
grad
_norm_是PyTorch深度学习框架中的一个函数,它主要用于控制神经网络训练过程中的梯度爆炸问题
E寻数据
·
2024-01-09 07:06
pytorch
python
深度学习
深度学习
pytorch
神经网络
机器学习
python
人工智能
深度学习15—(迁移学习)冻结和解冻神经网络模型的参数
冻结与解冻代码:deffreeze_net(net):ifnotnet:returnforpinnet.parameters():p.requires_
grad
=Falsedefunfreeze_net
Top Secret
·
2024-01-08 09:37
迁移学习
深度学习
深度学习
神经网络
人工智能
Pytorch框架学习笔记
获取维度信息x.size()tensor加法torch.add(x,y)==x+y==y.add_(x)改变tensor的大小和形状获取valuex.item(自动微分tensor的属性.requires_
grad
warren@伟_
·
2024-01-06 06:17
学习笔记
pytorch
学习
笔记
异常检测(无监督,生成模型)—DRÆM – A discriminatively trained reconstruction embedding for surfaceanomaly detect
2108.07610v2.pdf代码:GitHub-VitjanZ/DRAEM注:因为模型分为重构模块和判别模块,比较大,测试时将batch_size设为1cuda内存都不够,在测试代码中加withtorch.no_
grad
老男孩li
·
2024-01-06 02:07
论文粗读
embedding
解决方法:RuntimeError: CUDA out of memory. Tried to allocate ... MiB
解决方法:1.直接上大显存显卡,当然能上就不在这了,哈哈,看下面的方法;2.调小batch_size,1都不行,再看看下面;3.在验证模型代码前面,插入withtorch.no_
grad
():因为在验证和测试的时候
是人间一只财
·
2024-01-04 21:20
深度学习
pytorch
神经网络
2019-07-13(day032_Sobel: 实现索贝尔梯度挖掘的方法 )
usingnamespacecv;voidMyClass::day032(){Matimg=read(PATH+"images\\test.jpg");imshow("input",img);Matgrad_x,
grad
_y
雨住多一横
·
2024-01-04 08:04
微信h5页面跳转浏览器 在微信中点击链接直接跳转到手机默认浏览器代码实现
;*{padding:0;margin:0;}a{display:block;width:6.88rem;height:2.5rem;background:linear-
grad
半夜成仙
·
2024-01-04 07:24
autograd与逻辑回归
以下是对该函数的参数的解释:功能:自动求取梯度•tensors:用于求导的张量,如loss•retain_graph:保存计算图•create_graph:创建导数计算图,用于高阶求导•
grad
_tensors
-恰饭第一名-
·
2024-01-03 18:56
逻辑回归
算法
机器学习
python
人工智能
3D标签云效果的实现
(二)AndroidStudio中使用1.在build.
grad
峥嵘life
·
2024-01-03 05:03
android
插件
Android网络
android
github
标签
标签云
PyTorch的Tensor(张量)
data:被包装的Tensorgrad:data的梯度(梦回数一)
grad
_fn:创建Tensor的Function,是自动求导的关键requires_
grad
:指示是否需要梯度is_le
-恰饭第一名-
·
2024-01-02 04:31
人工智能
python
pytorch
机器学习
深度学习
pytorch实现线性回归、softmax分类、多层感知器分类学习笔记
torch.ones、torch.zeros、torch.randn等函数2、通过torch.tensor将numpy变量转换为torch的tensor变量二、Tensor对象的重要属性和方法1、requires_
grad
平常心_85d9
·
2024-01-02 00:47
【深度学习】第四章:反向传播-梯度计算-更新参数
pytorch框架中还封装了计算图,计算图的通俗理解就是:只要你有计算,并且设置了requires_
grad
=True,pytorch就会自动同时帮你生成这个计算过程的计算图。
宝贝儿好
·
2024-01-01 12:26
深度学习
人工智能
使用YOLOv8和
Grad
-CAM技术生成图像热图
目录yolov8导航YOLOv8(附带各种任务详细说明链接)概述环境准备代码解读导入库定义letterbox函数调整尺寸和比例计算填充应用填充yolov8_heatmap类定义和初始化后处理函数绘制检测结果类的调用函数热图生成细节参数解释weightcfgdevicemethodlayerbackward_typeconf_thresholdratio热力图解读程序源码下载地址计算机视觉YOLOv
E寻数据
·
2023-12-30 23:59
深度学习
YOLOV8系列
计算机视觉
YOLO
计算机视觉
数据可视化
热力图
JAX: 快如 PyTorch,简单如 NumPy - 深度学习与数据科学
使用jax.
grad
求导。使用jax.vmap进行矢量化
冷冻工厂
·
2023-12-29 07:04
深度学习
使用pytorch搭建ResNeXt并基于迁移学习训练
forparaminnet.parameters():param.requires_
grad
=False
pythonSuperman
·
2023-12-29 07:00
迁移学习
图片分类
android导入新项目慢解决
文件distributionUrl=https://services.gradle.org/distributions/gradle-4.1-all.zip将gradle版本修改为本地有的版本即可本地
grad
何超杰
·
2023-12-27 09:36
android
彻底解决org.gradle.api.artifacts.DependencySubstitutions
voidorg.gradle.api.artifacts.DependencySubstitutions$Substitution.with(org.
grad
renkai721
·
2023-12-26 20:22
JAVA
hbuilder
integrate-as
gradle
android-studio
报错
jdk
彻底解决module java.base does not “opens java.io“
voidorg.gradle.api.artifacts.DependencySubstitutions$Substitution.with(org.
grad
renkai721
·
2023-12-26 20:21
JAVA
android-studio
hbuilder
integrate-as
gradle
jdk
报错
特殊的bug:element 0 of tensors does not require
grad
and does not have a
grad
_fn
很多帖子都说了,设置requires_
grad
_()就行。但是我这次遇到的不一样,设置了都不行。
Yonggie
·
2023-12-26 13:57
bug
python
pytorch
大模型系列之模型参数冻结
比如说仅训练embedding层参数forname,paraminmodel.named_parameters():if"model.embed_tokens"notinname:param.requires_
grad
Takoony
·
2023-12-26 05:11
深度学习
机器学习
人工智能
Android Studio 最新最详细安装教程
在IDEA的基础上,AndroidStudio提供:基于
Grad
上马定江山
·
2023-12-25 16:07
Android
android
studio
android
flutter
torch中关于张量是否是叶子结点,张量梯度是否会被计算,张量梯度是否会被保存的感悟
先上结论:1、叶子结点定义:(1)不依赖其它任何结点的张量(2)依赖其它张量,但其依赖的所有张量的require_
grad
=False#判断方法:查看is_leaf属性2、张量梯度是否会被计算:require_
grad
tongle.Wang
·
2023-12-24 11:58
算法
人工智能
PyTorch随机数生成:torch.rand,torch.randn,torch.randind,torch.rand_like
torch.rand()torch.rand(*size,*,generator=None,out=None,dtype=None,layout=torch.strided,device=None,requires_
grad
牧羊女说
·
2023-12-23 12:12
Python
PyTorch
pytorch
人工智能
python
关于Trying to backward through the graph a second time, but the saved intermediate 的问题
butthesavedintermediateresultshavealreadybeenfreed.Specifyretain_graph=Truewhencalling.backward()orautograd.
grad
匿名的魔术师
·
2023-12-23 11:39
深度学习
python
with torch.no_
grad
()在Pytorch中的应用
withtorch.no_
grad
()在Pytorch中的应用参考:https://blog.csdn.net/qq_24761287/article/details/129773333https://
怡步晓心l
·
2023-12-23 10:44
人工智能
pytorch
人工智能
python
【Week-P2】CNN彩色图片分类-CIFAR10数据集
torch.nn.Conv2d()`详解3.2⭐`torch.nn.Linear()`详解3.3⭐`torch.nn.MaxPool2d()`详解3.4⭐关于卷积层、池化层的计算4.2.1`optimizer.zero_
grad
m_Molly
·
2023-12-22 15:29
深度学习
Pytorch:optimizer.zero_
grad
(), loss.backward(), optimizer.step()
在训练过程中常看到如下代码:optimizer.zero_
grad
(set_to_none=True)
grad
_scaler.scale(loss).backward()
grad
_scaler.step
北方骑马的萝卜
·
2023-12-22 08:53
Pytorch系列
pytorch
人工智能
python
Pytorch:torch.nn.utils.clip_
grad
_norm_梯度截断_解读
torch.nn.utils.clip_
grad
_norm_函数主要作用:神经网络深度逐渐增加,网络参数量增多的时候,容易引起梯度消失和梯度爆炸。
北方骑马的萝卜
·
2023-12-22 08:53
Pytorch系列
pytorch
人工智能
python
torch.gather(...)
thesourcetensordim,#(int)theaxisalongwhichtoindexindex,#(LongTensor)theindicesofelementstogather*,sparse_
grad
SATAN 先生
·
2023-12-22 07:25
python
pytorch
python
pytorch
【torch】rsample与sample的区别
_extended_shape(sample_shape)withtorch.no_
grad
():retur
qq_42725437
·
2023-12-21 21:39
torch
深度学习
pytorch
人工智能
pytorch梯度更新方法
方法1autogradimporttorchfromtorchimportautograd'''demo1'''x=torch.tensor(1.)a=torch.tensor(1.,requires_
grad
机器人图像处理
·
2023-12-21 19:48
深度学习算法与模型
pytorch
人工智能
python
关于with torch.no_
grad
:的一些小问题
withtorch.no_
grad
:是截断梯度记录的,新生成的数据的都不记录梯度,但是今天产生了一点小疑惑,如果存在多层函数嵌入,是不是函数内所有的数据都不记录梯度,验证了一下,确实是的。
江_小_白
·
2023-12-21 08:01
pytorch
python
深度学习
pytorch
【pytorch】自动求导机制
grad
:data的梯度
grad
_fn:创建Tensor的Function,是自动求导的关键requires_
grad
:指示是否需要梯度is_leaf:指示是否是叶子结点PyTorch张量可以记住它们来自什么运算以及其起源的父张量
prinTao
·
2023-12-21 08:17
手写torch
pytorch
pytorch
人工智能
python
关于BP 时候 报错的汇总
2.Debug的方法可以使用try和except这样的函数try:self.
grad
_scaler.scale(loss).backward()#type:
NeRF_er
·
2023-12-21 01:19
python
计算机视觉
Android 运行报错Failed to open zip file.Gradle‘s dependency cache may be corrupt (this sometimes occurs
thissometimesoccursafteranetworkconnectiontimeout.)Re-downloaddependenciesandsyncproject(requiresnetwork)我这里这个问题是因为项目使用的
grad
老梁学Android
·
2023-12-18 15:51
bug-日常积累
android
创建Gradle插件记录
/buildSrc/src/main/java目录下,创建插件源文件buildSrc下创建配置文件build.gralde文档:buildSrc2.创建独立的插件项目命令行或IDE创建插件项目,下面以
Grad
ClassOps
·
2023-12-18 15:07
Android
gradle
Node ‘gradients/InceptionResnetV1/Bottleneck/BatchNorm/cond/FusedBatchNorm_1_
grad
/FusedBatchNormGrad
问题描述:tensorflow2运行facenet报错Node‘gradients/InceptionResnetV1/Bottleneck/BatchNorm/cond/FusedBatchNorm_1_
grad
chari克里
·
2023-12-18 12:07
python
tensorflow
tensorflow2
PyTorch自动梯度计算(注意点)
ifparams.gradisnotNone:params.
grad
.zero_()我们实际的运算往往会涉及到若干个requires-
grad
为true的张量进行运算,在这种情况下,Pytorch会计算整个计算图上的损失的导数
永远的HelloWorld
·
2023-12-18 08:25
AI大模型
大模型
pytorch
人工智能
python
为什么每次optimizer.zero_
grad
()
当你训练一个神经网络时,每一次的传播和参数更新过程可以被分解为以下步骤:1前向传播:网络对输入数据进行操作,最终生成输出。这个过程会基于当前的参数(权重和偏差)计算出一个或多个损失函数的值。2计算梯度(反向传播):损失函数对网络参数的梯度(即导数)是通过一个称为反向传播的过程计算出来的。这个过程从损失函数开始,向后通过网络传播,直到达到输入层,计算每个参数对损失的贡献。3更新参数:一旦我们有了梯度
Code_LiShi
·
2023-12-17 21:03
pytorch
人工智能
nanoGPT 中 generate 函数
函数位置
[email protected]
_
grad
()defgenerate(self,idx,max_new_tokens,temperature=1.0,top_k=None):"""Takeaconditioningsequenceofindicesidx
小何才露尖尖角
·
2023-12-17 13:33
pytorch
深度学习
人工智能
pytorch transpose 转置和梯度的传播
今天写代码的时候遇到一个需要进行转置的矩阵,由于涉及到梯度反传,所以有疑问转置之后的矩阵在转置之前的梯度是否存在,经过验证,转置不影响梯度的传播importtorchx=torch.ones(2,2,requires_
grad
江_小_白
·
2023-12-17 07:18
pytorch
pytorch
人工智能
python
pytorch代码管理
torch.svdtorch.mmtorch.matmultorch.argsorttorch.view_as_complextorch.view_as_realtorch.splitunsqueezesqueezemasked_filltorch.einsumx.requires_
grad
一轮秋月
·
2023-12-17 07:47
pytorch
深度学习
python
【Django-03】模型常用的增删改查
)函数Q()函数classGrade(models.Model):id=models.AutoField(verbose_name='自增id',name="id",primary_key=True)
grad
朝闻道,夕死足
·
2023-12-16 16:07
Django
从零到1
django
数据库
sqlite
Grad
-CAM原理
这篇是我对哔哩哔哩up主@霹雳吧啦Wz的视频的文字版学习笔记感谢他对知识的分享只要大家一提到深度学习缺乏一定的解释性比如说在我们之前讲的分类网络当中网络它为什么要这么预测它针对每个类别所关注的点在哪里呢在greatcam这篇论文当中呢就完美的解决了在cam这篇论文当中存在一些问题在greatcam当中我们既不需要修改网络的结构也不需要对网络做进一步的训练举个非常有意思的一个例子这里呢我们也来简单的
芒果香菠菠
·
2023-12-15 17:06
类激活映射
CAM
计算机视觉
python
关于torch.nn.Embedding的浅显理解
torch.nn.Embedding(num_embeddings,embedding_dim,padding_idx=None,max_norm=None,norm_type=2.0,scale_
grad
_by_freq
starleeisamyth
·
2023-12-15 17:33
embedding
深度学习
pytorch
深度学习优化器
不断优化Example:forinput,targetindataset:optimizer.zero_
grad
()output=model(input)loss=loss_fn(output,target
CODING_LEO
·
2023-12-06 10:54
深度学习
pytorch
深度学习
python
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他