E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
网络学习知识整理
盘点13个值得程序员逛的论坛
作为程序员通过
网络学习
编程知识、与网友讨论交流太正常不过了。今天就给大家盘点13个我自己比较经常使用的、有用的网站,包括资源、论坛网站等。
编程乐趣
·
2022-11-26 19:11
.NetCore
程序员论坛
技术论坛
计算机
网络学习
笔记
写在读前:配套使用《计算机网络自顶向下法》与中国大学MOOC平台哈工大微课《计算机网络》。文中图片侵删,转载需笔者口头同意。更新日志:2022.1.22计网概述、传输层、应用层;1.计网概述1.通信系统模型信源->发送设备->信道(易被噪声源干扰)->接收设备->信宿。2.计算机网络的定义计算机网络是一个互连的、自治的计算机集合。3.交换网络(ISP)由交换节点(路由器或交换机)构成的网。4.In
Love_Jacques
·
2022-11-26 14:19
学习记录
网络
网络协议
服务器
DenseNet算法详解-ResNet升级版
声明:文章仅作
知识整理
、分享,如有侵权请联系作者删除博文,谢谢!经典分类网络(传送门):目录索引、LeNet、AlexNet、VGG、ResNet、Inception、DenseNet、SeNet。
alex1801
·
2022-11-26 14:39
分类网络
人工智能
desnet
resnet
计算机视觉
卷积神经
网络学习
心得
卷积神经
网络学习
心得文章目录卷积神经
网络学习
心得一、卷积神经网络1、卷积2、池化3、激活函数3、全连接层3、训练过程二、传播过程1.卷积神经网络的前向传播过程1.1卷积层的前向传播过程1.2下采样层的前向传播过程
djh_hai
·
2022-11-26 14:16
机器学习与深度学习
神经网络
机器学习
深度学习
tensorflow
DCNv1 and DCNv2:Deformable Convolutional networks,可变形卷积
1背景2方法DCNv21背景2方法DCNv1论文解析创新点1、DeformableConv2、DeformableROIpooling1背景深度学习对图像处理往往需要大量的数据集训练,是因为我们需要让
网络学习
到所有可能存在的情况
weixin_38356756
·
2022-11-26 08:11
计算机视觉
深度学习
人工智能
线性代数与矩阵论知识点总结
基本运算3.行列式4.线性方程组5.特征值与特征向量6.二次型7.矩阵分解线性代数在ML和DL中扮演着非常重要的角色,虽然本科和研究生阶段修过线性代数与矩阵论,不过不用则废啊,最近还是想把这部分数据基础
知识整理
一下
Rocket,Qian
·
2022-11-26 07:42
数学
线性代数
矩阵论
数学
基于深度学习的大规模 MIMO电力系统功率分配研究(Matlab&Python代码实现)
受到最近机器学习技术[5]的成功应用爆炸式增长的启发,这些技术展示了深度神经
网络学习
丰富模式和近似任意函数映射的能力[5]、[6]。
@橘柑橙柠桔柚
·
2022-11-26 07:32
电气代码
python
深度学习
matlab
论文基础常识摘录
一、有关深度学习部分的知识:1.有关卷积神经网络基础知识:①概述:卷积神经网络通过局部感受野、权值共享以及池化层操作用于减少网络的参数规模,并使得
网络学习
到的特征具有位置平移,尺度缩放等方面的不变性。
_Brooke_
·
2022-11-26 07:26
指静脉识别
深度学习
网络
人工智能
‘端云协同’是未来AI产业服务的重要形态,给各种业务算法带来新机遇
评审委员会评论称:“该项目研制难度大、创新性强,整体技术处于国际先进水平,其中在跨模态随机游走图内嵌向量表达、超大规模图自适应分区和综合存储、异构计算架构下图神经
网络学习
加速等方面达到国际领先水平。”
互联网志
·
2022-11-25 20:09
人工智能
干货|不同的损失函数会对深度神经网络带来什么样的影响?
二次损失函数会在神经元犯了明显错误的情况下使得
网络学习
缓慢,而使用交叉熵损失函数则会在明显犯错的时候学的更快。今天,我们主要来谈谈不同的损失函数会对深度神经网络带来什么样的影响?
weixin_33809981
·
2022-11-25 20:20
人工智能
c/c++
吴恩达机器学习笔记总结
在19年我也在coursera(链接在此)上修习这门课程并领取了证书,前两个星期又去翻看了之前的笔记和黄海广博士翻译整理的笔记,重新根据自己的理解和关注的
知识整理
了一版简洁版笔记,方便以后快速回顾。
每天一进步
·
2022-11-25 19:27
学习笔记
机器学习
【深入浅出PyTorch】4-基础实战-FashionMINIST
4-基础实战文章目录4-基础实战2.1-神经
网络学习
机制2.2-深度学习在实现上的特殊性2.3-PyTorch的深度学习模块2.3.1-基本配置2.3.2-数据读入2.3.3-模型构建2.3.4-损失函数
超级虚空
·
2022-11-25 16:34
深入浅出PyTorch
pytorch
深度学习
神经网络
神经
网络学习
笔记3——LSTM长短期记忆网络
目录1.循环神经网络1.1循环神经网络大致结构1.2延时神经网络(TimeDelayNeuralNetwork,TDNN)1.3按时间展开1.4反向传播1.5梯度消失,梯度爆炸2.lstm门控原理3Matlab实现整个博文,原理和代码实现建议配合视频食用,口感更佳LSTM长短期记忆网络从原理到编程实现LSTM长短期记忆网络从原理到编程实现_哔哩哔哩_bilibili代码链接链接:https://p
奥利奥好吃呀
·
2022-11-25 16:01
神经网络
lstm
深度学习
长短时记忆网络
循环神经网络
pytorch基础
知识整理
(四) 模型
1,模型构造模板torch.nn.Module()是所有网络模型的基类,所有网络都需要继承此类,模板如下:importtorch.nnasnnimporttorch.nn.functionalasFclassModel(nn.Module):def__init__(self):super().__init__()#'表示继承父类的__init__()方法'self.conv1=nn.Conv2d(
Brikie
·
2022-11-25 15:04
随笔·各种知识点整理
深度学习
[机器学习导论]——第三课——神经网络Ⅰ
神经网络引入逻辑回归的二阶段表示逻辑回归逻辑回归的二阶段表示神经元神经网络具有一个隐藏层的神经网络具有两个隐藏层的神经网络非线性激活函数训练神经网络损失函数二分类损失多分类损失回归损失反向传播数学符号说明回归示例二分类示例深度神经
网络学习
参考资料第三课
雨落俊泉
·
2022-11-25 10:13
#
机器学习入门
机器学习
神经网络
反向传播
visdom简易教程
如果想用pytorch来做神经
网络学习
和训练,那么不管想不想,你都得学visdom这个可视化工具,因为别人全部用这个玩意在进行可视化显示,如果不会用有时甚至别人的代码都跑不起来。
_寒潭雁影
·
2022-11-25 10:32
深度学习
visdom
可视化工具
神经网络的学习(训练):损失函数(均方误差、交叉熵误差)
1神经
网络学习
(训练)步骤:初始化权值和偏置参数——1从总训练集抽取一批数据——2前向传播计算损失、反向传播由损失计算各参数的梯度——3利用梯度更新参数——4重复1、2、32神经网络:端对端的机器学习(
菜鸟爱学习@chong
·
2022-11-25 10:31
笔记
神经网络
学习
机器学习
STN 图像配准一些记录
STN给定一张不规则图像,先用一些简单的
网络学习
到旋转变换参数矩阵,然后和原来不规则图像的分块固定坐标经过矩阵变换得到新的图像坐标,然后根据坐标进行双线性插值得到新图像的某点像素值STN怎么学习到的参数怎么把图像就摆正了反向传播还是根据坐标直接
_Hsiung
·
2022-11-25 09:39
机器学习
RepVGG
网络学习
记录
在ResNet等被提出前,VGG可谓是风靡一时,但当ResNet等横空出世后,VGG便遭受了冷落,甚至一度被人所遗忘,而今天所要介绍的是由清华大学与香港科技大学联合提出了一个VGG的衍生模型,试图让曾经风光不再的VGG容光焕发。之所以RepVGG能够一骑绝尘达到STOA水平,源于其提出了在训练时使用下图B的网络结构,而在推理时则采用下图C的网络结构,而为何能够如此转换,这就是论文提出的思想:结构冲
彭祥.
·
2022-11-25 08:59
学习记录
网络
学习
深度学习
【神经
网络学习
篇】tensorflow实现cifar10识别(RNN lstm)
1.LongShortTermMemorynetworks简称LSTMs,是一种特殊的RNN网络。LSTM被明确地设计为避免长期依赖性问题。长时间记住信息实际上是它们的默认行为,而不是它们努力学习的东西。标准RNN中的重复模块包含一个单层。LSTM也有这种链状结构,但重复模块有不同的结构,它有四个神经网络层,以一种特殊的方式进行交互。LSTM中的重复模块包含四个交互层。图片来自:https://m
lesl551
·
2022-11-25 05:56
tensorflow
rnn
lstm
Federated Machine Learning: Concept and Applications综述
综述文献:FederatedMachineLearning:ConceptandApplications部分
知识整理
文献介绍了联邦学习的概述与体系架构人工智能面临的挑战:1)数据以孤岛形式存在;2)数据隐私和安全传统数据处理模型
甜瓜出逃中
·
2022-11-25 03:54
机器学习
机器学习
深度学习
深度学习跨层网络结构--特征融合
RIRRIRResnetinResnet(RiR)基于ResNet改进,扩展了信息流动的方式,研究证明在深度网络中,浅层
网络学习
的内容可
她的我
·
2022-11-25 02:43
深度学习
人工智能
计算机视觉
基础
知识整理
@[T机器学习计算语义相似度:DSSM(DeepStructuredSemanticModels,有监督),可解决query-doc结果对的召回问题(“快递软件”-“菜鸟裹裹”,“机票”-“携程”),已经语义顺序或细微不同的词引起的语义变化(小宝宝生病怎么办-狗宝宝生病怎么办,深度学习-学习深度)把搜索引擎里的Query和Title转为低维向量。输入层-----表示层(词袋模型,转为向量)----
Nevermoreeeee
·
2022-11-24 21:29
深入浅出图神经
网络学习
笔记(2)神经网络基础
神经网络基础一、机器学习基本概念1.机器学习流程概述1数学模型2损失函数3梯度下降算法二、神经网络1神经元2多层感知机3训练神经网络总结一、机器学习基本概念随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。1.机器学习流程概述提取特征——建立模型——确定损失函数进行优化求解模型可以看做一个复杂的函数f(X;W),建立输入到输出之间的映
小杜今天学AI了吗
·
2022-11-24 18:06
图神经网络
神经网络
学习
机器学习
深入浅出图神经
网络学习
笔记(4)表示学习
表示学习一、离散表示与分布表示二、端到端学习三、基于重构损失的方法——自编码器四、基于基于对比损失的方法—Word2vec自动地从数据中去学习“有用”的特征,并可以直接用于后续的具体任务———称为表示学习一、离散表示与分布表示独热向量编码(one-hot),它将研究的对象表示为向量,这个向量只在某个维度上值是1,其余维度上值全为0,可以想象有多少种类型,这个向量的长度就有多长。比如要用这种方式去将
小杜今天学AI了吗
·
2022-11-24 18:36
图神经网络
神经网络
学习
深度学习
高效办公之高效笔记软件:OneNote教学详解
高效笔记软件-OneNote教学1、高效笔记软件-OneNote教学2、课程相关资源1、高效笔记软件-OneNote教学这里说是高效笔记软件,其实也是高效学习,或者说
知识整理
软件,OneNote是和Word
王宇韬
·
2022-11-24 10:08
高效办公系列
学习
ICCV21 - 无监督语义分割《Unsupervised Semantic Segmentation by Contrasting Object Mask Proposals》
文章目录原文地址初识相知回顾原文地址点我跳转到原文初识在无监督设置下,学习密集语义表征(densesemanticrepresentations)是一个非常重要的问题,这引导
网络学习
像素级的语义表征/嵌入
我是大黄同学呀
·
2022-11-24 08:53
读点论文
-
无监督学习
读点论文
-
检测与分割
计算机视觉
聚类
机器学习
深度学习图像处理目标检测图像分割计算机视觉 09--目标检测
1.1R-FCN1.2YOLO1.2.1YOLOV11.2.2YOLOV21.2.3YOLOV3二、MNIST训练三、基于深度学习的医学图像分割技术研究3.1FCN3.2U-NET四、毕设总结摘要本周计划完成目标检测的下半部分
网络学习
guoxinxin0605
·
2022-11-24 06:14
笔记
图像中的注意力机制 Pytorch实现
参考链接:神经
网络学习
小记录64——Pytorch图像处理中注意力机制的解析与代码详解_Bubbliiiing的博客-CSDN博客_pytorch图像自注意力机制图像处理注意力机制Attention汇总
whetherfailbuttry
·
2022-11-24 05:53
人工智能
计算机视觉
cnn
注意力机制(Attention Mechanism)-ECANet
在神经
网络学习
中,一般而言模型的参数越多则模型的表达能力越强,模型所存储的信息量也越大,但这会带来信息过载的问题。
车手文
·
2022-11-24 04:12
深度学习-注意力机制
神经网络
Python神经网络入门与实战,python实现人工神经网络
如何用9行Python代码编写一个简易神经
网络学习
人工智能时,我给自己定了一个目标--用Python写一个简单的神经网络。为了确保真得理解它,我要求自己不使用任何神经网络库,从头写起。
普通网友
·
2022-11-24 00:18
python
神经网络
机器学习
YOLOv5 激活函数(四)
激活函数的这种非线性赋予了深度
网络学习
复杂函数的能力2.各类激活函数Swish函数f(x)=x.sigmoid(x)
@BangBang
·
2022-11-23 22:25
object
detection
python实现简单的神经网络,python实现神经网络算法
如何用9行Python代码编写一个简易神经
网络学习
人工智能时,我给自己定了一个目标--用Python写一个简单的神经网络。为了确保真得理解它,我要求自己不使用任何神经网络库,从头写起。
普通网友
·
2022-11-23 19:05
神经网络
算法
python
python神经网络编程 代码,python神经网络编程 豆瓣
如何用9行Python代码编写一个简易神经
网络学习
人工智能时,我给自己定了一个目标--用Python写一个简单的神经网络。为了确保真得理解它,我要求自己不使用任何神经网络库,从头写起。
普通网友
·
2022-11-23 19:04
python
神经网络
机器学习
python神经网络实际应用_7个实战项目带你应用神经网络
文章主要整理了7个神经网络的实战项目,相信对神经
网络学习
者会有所帮助。
尹昉
·
2022-11-23 19:04
python神经网络实际应用
卷积神经
网络学习
案例一——简单的黑白边界检测importmatplotlib.pyplotaspltimportnumpyasnpimportpaddlefrompaddle.nnimportConv2Dfrompaddle.nn.initializerimportAssignw=np.array([1,0,-1],dtype='float32')w=w.reshape([1,1,1,3])conv=Conv2D
咕噜qqq
·
2022-11-23 16:33
python
numpy
【迁移
网络学习
实战】- Kaggle猫狗分类大赛 - 单模型测试 - 前7.8%
【迁移
网络学习
】-Kaggle猫狗分类大赛-前7.8%数据集下载:链接:https://pan.baidu.com/s/1AIj0FhdCQPeAWg4Sw7DEOQ提取码:aejj一、内容想要将深度学习应用于小型图像数据集
一只稚嫩的小金毛
·
2022-11-23 12:52
Kaggle+阿里天池比赛
【迁移
网络学习
实战】- Kaggle猫狗分类大赛 - 多模型融合 - 前1.7%
【迁移
网络学习
实战】-Kaggle猫狗分类大赛-前1.7%数据集下载:链接:https://pan.baidu.com/s/1AIj0FhdCQPeAWg4Sw7DEOQ提取码:aejj一、内容想要将深度学习应用于小型图像数据集
一只稚嫩的小金毛
·
2022-11-23 12:52
Kaggle+阿里天池比赛
4 图神经网络—— 基本概念与手写code
文章目录1基本概念1.1图神经网络中的基本元素1.2图神经
网络学习
的流程1.2.1图神经网络与随机游走的区别1.2.2图神经网络的输入1.2.3图神经网络的更新1.2.3.1直观印象1.2.3.2理解1.2.3.1
EntropyPlus
·
2022-11-23 08:04
图神经网络
神经
网络学习
(一)-- 框架建立
神经
网络学习
(一)--框架建立文章目录神经
网络学习
(一)--框架建立前言一、神经网络的定义神经网络的优点:二、使用步骤1.引入库2.读入数据总结前言这里只记录一些基本概念,并保存系列文章的导航栏最近工作中开始需要神经网络
尾生爱柱子
·
2022-11-23 07:03
小白之路
神经网络
学习
python
DAY2--RNN神经
网络学习
笔记
全连接神经网络和卷积神经网络,他们都只能单独的取处理一个个的输入,前一个输入和后一个输入是完全没有关系的。但是,某些任务需要能够更好的处理序列的信息,即前面的输入和后面的输入是有关系的。比如,当我们在理解一句话意思时,孤立的理解这句话的每个词是不够的,我们需要处理这些词连接起来的整个序列;当我们处理视频的时候,我们也不能只单独的去分析每一帧,而要分析这些帧连接起来的整个序列。这时,就需要用到深度学
终极香蕉大菠萝
·
2022-11-23 06:59
Artificial
Neural
Networks
自然语言处理(NLP)-模型常用技巧:Normalization【Batch Norm、Layer Norm】
一方面,神经
网络学习
过程本质就是为了学习数据特征以及数据的分布特征,一旦训练数据与测试数据的分布不同,那么网络的泛化能力也大大降低;另外一方面,一旦每批训练数据的分布各不相同(batch梯度下降),那么网络就要在每次迭代都去学习适应不同的分布
u013250861
·
2022-11-23 05:21
自然语言处理/NLP
自然语言处理
batch
深度学习
神经
网络学习
笔记6——初学AI绘画中的GAN与Diffusion
系列文章目录文章目录系列文章目录AI绘画GAN前言一、生成网络与判别网络的协同进化1、生成器与判别器的学习趋向2、部分算法理念Diffusion前言一、Diffusion前向过程二、Diffusion反向过程AI绘画AI绘画,目前AI领域里最有话题性的技术,上一个这么火的话题是swintransformer网络,而2022年8月JasonAllen凭借AI绘画作品《太空歌剧院》拿下科罗拉多州博览会
RanceGru
·
2022-11-23 05:49
深度学习
神经网络
AI作画
stable
diffusion
神经
网络学习
笔记5——Swin-Transformer网络
系列文章目录神经
网络学习
笔记1——ResNet残差网络、BatchNormalization理解与代码神经
网络学习
笔记2——VGGNet神经网络结构与感受野理解与代码参考博客1参考博客2文章目录系列文章目录前言一
RanceGru
·
2022-11-23 05:18
深度学习
神经网络
学习
transformer
2022软考高项十大领域
知识整理
(一)--项目整体管理、范围管理
目录标题十五至尊图一、项目整体管理过程组及输入输出、工具技术(ITTO)知识点1.项目章程的作用:2.项目章程的内容(掌握):3.项目管理计划的内容(掌握):4.制订项目管理计划注意事项5.监控项目工作6.整体变更控制流程(掌握)二、项目范围管理过程组及ITTO知识点1.焦点小组、名义小组、delphi区别(掌握)2.范围说明书的内容3.定义范围的工具与技术:专家判断、产品分析、备选方案生成和引导
拒绝冗余
·
2022-11-22 23:16
软考高项
职场和发展
双流
网络学习
笔记
1.视频理解学习笔记1.视频理解学习笔记1.1.视频理解概述1.2.双流网络的诞生1.3.双流网络论文讲解1.3.1.双流网络主要思想1.3.2.关于光流(Opticalflow)1.3.3.双流法的继承1.3.4.双流神经网络的结构1.3.4.1.空间流神经网络1.3.4.2.时间流神经网络以及如何利用光流1.3.4.2.1.光流及其具体表示1.3.4.2.2.如何使用光流1.3.4.2.3.关
收尾人VEM
·
2022-11-22 22:55
视频理解
计算机视觉
图像处理
深度学习
python
神经网络
Datawhale组队学习-图神经网络(三)
学习MLP神经网络的理论,观察MLP神经网络用于节点分类的表现,观察基于MLP神经
网络学习
到的节点表征的分布。
阿_边
·
2022-11-22 22:43
图神经网络
神经
网络学习
笔记
最近在学习一门深度学习与机器视觉的专业课,感觉自己的深度学习的基础很是不牢固,所以打算从最简单的神经网络整理一下知识在B站发现了一个神经网络可视化的视频,很nice,推荐给大家神经网络可视化这篇文章很是实用《深度学习》课程总结-深度学习的实用层面在这里记录一下有关epoch、iteration、batch_size的概念batchsize:批大小。在深度学习中,一般采用SGD训练,即每次训练在训练
努力学习DePeng
·
2022-11-22 22:41
笔记
神经网络
深度学习
TensorFlow神经
网络学习
笔记
张量(tensor)就是多维数组阶代表张量的维数维数阶名字0-D0标量scalar1-D1向量vector2-D2矩阵matrixn-Dn张量tensor张量可以表示0阶到n阶的数组(列表)数据类型tf.int,tf.float…tf.int32,tf.float32,tf.float64tf.booltf.constant([True,False])tf.stringtf.constant(“H
qq_35578807
·
2022-11-22 21:29
TensorFlow
python
tensorflow
神经网络
深度学习
Trainer--学习笔记
在训练神经网络的时候通常都会写一个训练代码块,通过这个代码块的执行开始训练
网络学习
神经网络模型时写的训练代码块,整个流程就是在写一个脚本文件:定义数据加载器定义优化器定义损失函数模型实例化循环读取数据,
Wsyoneself
·
2022-11-22 15:12
pytorch
深度学习
tensorflow
cnn
上一页
45
46
47
48
49
50
51
52
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他