E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
dim
PyTorch使用torch.sort()函数来筛选出前k个最大的项或者筛选出前k个最小的项
参考链接:torch.topk(input,k,
dim
=None,largest=True,sorted=True,out=None)->(Tensor,LongTensor)筛选出前k个最小的数:MicrosoftWindows
敲代码的小风
·
2023-01-11 11:13
faiss-gpu的问题
在faiss中使用出现以下问题的:原先的faiss检索方式:
dim
=768gpu_id=0index=faiss.IndexFlatL2(
dim
)res=faiss.StandardGpuResources
rucieryi369
·
2023-01-11 08:37
faiss
深度学习
pytorch利用多个GPU并行计算多gpu
一、torch.nn.DataParalleltorch.nn.DataParallel(module,device_ids=None,output_device=None,
dim
=0)在正向传递中,模块在每个设备上复制
不会编程的ITer
·
2023-01-11 08:04
NLP
一维卷积 tf.nn.conv1d
use_cudnn_on_gpu=None,data_format=None,name=None)我的代码:我的cnn层之前是word_embedding,维度是[batch_size,seq_lenth,embedding_
dim
写bug吗
·
2023-01-11 08:54
python
tensorflow
卷积神经网络
WGAN-GP实战
wgan.pyimporttorchfromtorchimportnn,optim,autogradimportnumpyasnpimportvisdomimportrandomfrommatplotlibimportpyplotasplth_
dim
hxxjxw
·
2023-01-11 06:13
WGAN
GP
Python
np.squeeze():把张量中维度为1的维度去掉
importnumpyasnpn_
dim
_data=np.random.rand(10,1,10,1,1)n_
dim
_squeeze=np.squeeze(n_
dim
_data)print(n_
dim
_data.shape
dew_142857
·
2023-01-10 19:43
#
numpy
笔记
python
numpy
(Python)Numpy矩阵增加/减少一个维度
highlight=expand%20
dim
#numpy.expand_dimsS
Think@
·
2023-01-10 19:12
笔记
矩阵
python
线性代数
pytorch 语义分割loss_Focal Loss理论及PyTorch实现
F.nll_loss(torch.log(F.softmax(inputs,
dim
=1),target)的函数功能与F.cross_entropy相同。
第一千零一个人
·
2023-01-10 19:35
pytorch
语义分割loss
pytorch深度学习实践_p5_用pytorch实现线性回归
知识点补充torch.nn.Linear(input_
dim
,output_
dim
)input_
dim
:输入的维度,即特征x的个数output_
dim
:输出的维度,即输出y的个数torch.nn.MSELoss
L_halley
·
2023-01-10 16:48
python
pytorch
人工智能
机器学习
torch.argmax( ,
dim
=1)
**torch.argmax()**维度本身就很难理解,作为一名小白,这篇用来给同样有维度困扰的你们,里面的例子引用了:https://blog.csdn.net/weixin_43869268/article/details/107624108x=torch.randn(2,4,5)print(x)>tensor([[[-0.2377,-1.0894,1.7376,-1.7329,0.4314]
被窝少女社会历险记
·
2023-01-10 16:16
日常个人跑代码小记录
nlp
自然语言处理
pytorch
【python】利用圆括号进行优雅的换行
例如:loss_align=(torch.sum(((torch.mean(z_mean_binary,
dim
=0)+torch.mean(z_mean_unary,
dim
=0))/2-torch.mean
x66ccff
·
2023-01-10 14:47
python
深度学习
人工智能
Pytorch-torch.nn.identity()方法详解
比如我们要加深网络,有些层是不改变输入数据的维度的,在增减网络的过程中我们就可以用identity占个位置,这样网络整体层数永远不变,应用:例如此时:如果此时我们使用了se_layer,那么就SELayer(
dim
发呆的比目鱼
·
2023-01-10 11:53
PyTorch框架
pytorch
深度学习
人工智能
libtorch 异常处理汇总
卷积操作和全链接操作直接少了一个展平操作,即将特征图(b,c,h,w)展开成(b,c*h*w);x=torch::flatten(x,1);//start_
dim
=1.
Mr.Q
·
2023-01-10 10:40
LibTorch
libtorch
深度学习
部署
python对抗网络_生成对抗网络——一个简单的介绍及Python完整实现
fromdatetimeimportdatetimeimportargparseimporttensorflowastfimportnumpyasnpimportmatplotlib.pyplotaspltimportmatplotlib.gridspecasgridspecBATCH_SIZE=128LEARNING_RATE=1e-3EPOCHS=75Z_
DIM
weixin_39901685
·
2023-01-09 15:46
python对抗网络
DDPG 代码调试问题
解决办法:找到Actor网络的初始化代码,直接将输出层节点数(这段代码对应a_
dim
)改成想要的维度classANet(nn.Module):#ae(s)=adef__init__(se
yuer_41555
·
2023-01-09 14:04
机器学习
网络
深度学习
人工智能
python
机器学习
[贝叶斯四]之贝叶斯分类器设计
输入:d-
dim
特征向量计算决策函数值(针对每个类别)选取最大的值做出决策输出结果如下图可以清楚的表达整个分类器工作的流程。
背包_十年
·
2023-01-09 11:31
faicutly
机器学习
贝叶斯分类器
mnist手写体数字识别
字母识别
机器学习
关于tensor类型数据却报错‘list‘ object has no attribute ‘to‘
于是在出错前的语句先打印images,查明原因print(images)发现是[tensor[…],…],那问题很简单,在报错的语句前使用:images=torch.stack(images,
dim
=1
先生的小花
·
2023-01-08 21:25
pytorch
报错
数仓分层、设计、建模、架构
业界较为通行的做法将整个数仓层又划分成了DWD、DWT、DWS、
DIM
、DM等很多层。
jerry-89
·
2023-01-08 10:11
实时数仓
数据仓库
数据挖掘
数据库
关于返回值超出范围的解决测试
kernel_numkernel_num=64#卷积核数model=text_cnn(seq_length=seq_length,#初始化模型vocab_size=vocab_size,embedding_
dim
夜间出没的AGUI
·
2023-01-08 08:38
人工智能
问题
python
人工智能
python
利用 torch.mean()计算图像数据集的均值和标准差
youtube博主AladdinPersson和Kaggle用户AfiaIbnath的方法torch.mean()Pytorch官方文档Pytorch官方文档参数:input:输入,接收tensor类型
dim
乾光
·
2023-01-08 08:14
笔记
pytorch
深度学习
神经网络
pytorch中nn.Flatten()函数详解及示例
torch.nn.Flatten(start_
dim
=1,end_
dim
=-1)作用:将连续的维度范围展平为张量。
·
2023-01-08 04:52
Pytorch 梯度计算
计算梯度或者求导,有两种方法:以均方误差为例,模型pred=w*x:importtorchfromtorch.nnimportfunctionalasF#pred=x*wx=torch.ones(1)#
dim
洪流之源
·
2023-01-07 20:13
深度学习
pytorch
keras 实现多任务学习
defdeep_multi_model(feature_
dim
,cvr_label_
dim
,profit_label_
dim
):inputs=Input(shape=(feature_
dim
,))dense
xiedelong
·
2023-01-07 09:43
算法
keras
深度学习
神经网络
gather torch_gather函数
PythonPython开发Python语言gather函数gather(input,
dim
,index):根据index,在
dim
维度上选取数据,输出的size与index一致#input(Tensor
weixin_39593961
·
2023-01-06 23:14
gather
torch
Pytorch 中 gather 函数讲解
文章目录官方解读分析小例子官方解读分析该函数的功能为:沿着
dim
指定的轴收集值torch.gather(input,
dim
,index,out=None)→TensorGathersvaluesalonganaxisspecifiedbydim.Fora3
长命百岁️
·
2023-01-06 23:14
PyTorch
pytorch
pytorch之gather函数
参考:Pytorch中的torch.gather函数的含义torch.gather(input,
dim
,index,out=None)→Tensor官方给的格式importtorcha=torch.Tensor
小研一枚
·
2023-01-06 23:13
pytorch
基础
torch.gather函数的理解
torch.gather官方文档gather函数的定义为:torch.gather(input,
dim
,index,*,sparse_grad=False,out=None)→Tensor不常用的暂时不关注
马小李
·
2023-01-06 23:43
pytorch
python
torch.gather
gather
PyTorch中gather()函数的用法
torch.gather(input,
dim
,index,out=None)→Tensor沿给定轴,按照索引张量将原张量的指定位置的元素重新聚合成一个新的张量参数含义:input(Tensor)–源张量
乌啦啦呜啦啦呜啦呜啦啦
·
2023-01-06 23:42
PyTorch
gather() 的函数功能
index_1=torch.LongTensor([[0,1],[2,0],[1,1]])index_2=torch.LongTensor([[0,1,1],[0,0,0]])print(b.gather(
dim
G果
·
2023-01-06 23:40
杂七杂八
pytorch
深度学习
python
gather
pytorch出现IndexError: index out of range in self
错误参考embedding层需检查张量内部具体值的大小,并确保它们的值在有效范围内[0,num_embeddings-1]学习参考但是如果将嵌入的向量改成9就不会出错了,所以你设置的input_
dim
就是向量值的范围
莩甲柚
·
2023-01-06 22:31
错误记录
pytorch
【pytorch】torch.cat() & torch.split();tensor的拼接和分离
类似于np.conatenate()torch.cat(tensors,
dim
=0,*,out=None)→TensorConcatenatesthegivensequenceofseqtensorsinthegivendimension.Alltensorsmusteitherhaveth
学渣渣渣渣渣
·
2023-01-06 17:06
pytorch
python
深度学习
pytorch: torch.cat与torch.chunk的使用, 反转函数torch.flip
1.torch.chunk(tensor,chunk_num,
dim
)与torch.cat()结果相反,它是将tensor按
dim
(行或列)平均分割成chunk_num个tensor块,返回的是一个元组
tony365
·
2023-01-06 17:34
图像处理算法
pytorch
深度学习
python
pytorch torch.cat((A, B), 2)
Pytorch中的torch.cat()函数_荷叶田田-CSDN博客_pythontorch.cat这个作者讲的还不错,但是我补充点自己的理解:1.torch.cat这个在进行拼接的时候,是按照对应传入的
dim
写代码_不错哦
·
2023-01-06 17:03
图像识别与目标检测
python
pytorch
深度学习
人工智能
pytorch:torch.cat
x=torch.rand(16,85,768)#维度数(2,1,0)y=torch.rand(16,85,768)如果要左右拼接,
dim
要等于2(最左边的维度2),列数增加:768*2z=torch.cat
Eric_yq
·
2023-01-06 17:02
笔记
pytorch
深度学习
python
pytorch torch.cat()
#1.输入两个二维张量(
dim
=0):
dim
=0对行进行拼接(行数增加)a=torch.randn(2,3)b=torch.randn(3,3)c=torch.cat((a,b),
dim
=0)print
Eric_yq
·
2023-01-06 17:50
My_python_code
pytorch
深度学习
python
python 如何利用Metpy计算水汽通量散度
数据:1、比湿数据2、风速分量U3、风速分量V主要函数:1、metpy.calc.divergence(u,v,*,dx=None,dy=None,x_
dim
=-1,y_
dim
=-2)计算矢量的水平散度
简朴-ocean
·
2023-01-06 16:39
python-海洋数据处理
python
计算水汽通量散度
metpy
keras Lambda函数的应用
自定义一个函数:defpad_backend(inputs,in_channels,out_channels):pad_
dim
=(out_channels-in_channels)//2returnK.spatial
_刘文凯_
·
2023-01-06 15:56
python
keras
bash
人工智能
HorNet+YOLOv5改进方案
pdf/2207.14284.pdfyolov5加HorNet模块代码1.在common.py文件中添加如下代码部分代码如下classGnconv(nn.Module):def__init__(self,
dim
Dropout~~
·
2023-01-06 14:43
计算机视觉
python
深度学习
torch.unsqueeze、np.expand_dims详解
1.增加维度:unsqueeze、np.expand_dimstorch版:x.unsqueeze(
dim
=0)将矩阵x在
dim
=0维度上增加一个维度。
Python图像识别
·
2023-01-06 12:03
人工智能
numpy
python
torch
深度学习
计算机视觉
Pytorch激活函数
1softmax例子:a=[[1,2,3],[4,5,6]]b=softmax(a,
dim
=0)这个
dim
=0是对行操作,
dim
=1是对列进行操作。
English ONly
·
2023-01-06 12:22
pytorch
深度学习
神经网络
Pytorch之parameters net.parameters()
torch.unsqueeze,torch.squeeze,torch.linspace我的之前文章有讲解#在torch中,只会处理2维的数据x=torch.unsqueeze(torch.linspace(-1,1,100),
dim
CV-杨帆
·
2023-01-06 11:35
神经网络
深度学习
人工智能
python
pytorch
Swin Transformer中torch.roll()详解
dim
=1,shift=40指的就是数据沿着H维度,将数据朝正反向滚动40,超出部分循环回到图像中
dim
=2,shift=40指的就是数据沿着
Jokic_Rn
·
2023-01-06 11:16
transformer
深度学习
python
torch中torch.cumsum()的使用
函数原型:torch.cumsum(input,
dim
,*,dtype=None,out=None)→Tensor返回维度
dim
中输入元素的累计和。
米斯特鱼
·
2023-01-06 05:16
python
pytorch
人工智能
一、Argmax函数
=torch.randn(2,2,3,3)#生成随机张量print("input",input)print("input.size",input.size())output=input.argmax(
dim
614b阿智
·
2023-01-06 02:59
#
常用函数
深度学习
python
人工智能
二、Softmax函数
torch.randn(2,2,3,3)#生成随机张量print("input",input)print("input.size",input.size())output=torch.nn.Softmax(
dim
614b阿智
·
2023-01-06 02:59
#
常用函数
深度学习
python
人工智能
Pytorch 的复制函数 torch.repeat_interleave() 和 torch.repeat()
1、torch.repeat_interleave()repeat_interleave(self,repeats,
dim
)self:张量数据repeats:需要复制的份数
dim
:需要复制的维度importtorcha
清纯世纪
·
2023-01-06 01:55
函数参数
pytorch
深度学习
机器学习
简单搞定数仓搭建:架构与模型设计(二)
数据引入层表设计建表示例数据引入层存储缓慢变化维度明细粒度事实层(DWD)明细粒度事实表设计原则明细粒度事实层(DWD)规范建表示例公共汇总粒度事实层(DWS)公共汇总事实表设计原则公共汇总事实表规范建表示例公共维度汇总层(
DIM
白枭
·
2023-01-06 01:22
数仓
大数据开发
spark
hive
spark
数据仓库
李沐_pytorch补充
1、注册带有参数的层时候就要使用nn.Parameter()self.pos_embedding=nn.Parameter(torch.randn(1,num_patches+1,
dim
))self.cls_token
Marshal~
·
2023-01-05 21:15
李沐
pytorch
深度学习
机器学习
Swin Transformer中的数据形状梳理
PatchEmbed层原始输入x形状为(b,3,224,224)PatchEmbed层完成embedding的过程第一步还是对图片进行Patch分割与embedding编码patch_size=4,embed_
dim
Libertaz
·
2023-01-04 20:06
Vision
Transformer
transformer
深度学习
人工智能
[2021ICCV]Swin Transformer模型的一些模块
将输入的图片进行切分classPatchEmbed(nn.Module):"""2DImagetoPatchEmbedding"""def__init__(self,patch_size=4,in_c=3,embed_
dim
清欢年岁~
·
2023-01-04 20:01
计算机视觉学习笔记
transformer
深度学习
计算机视觉
上一页
13
14
15
16
17
18
19
20
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他