E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
神经网络学习
YOLO多线程多模型运行模式的实施
Darknet深度
神经网络学习
框架具有小巧、快速的特点,由于采用c++进行编写,非常容易改为多线程执行,而用于检测、分类等任务。
ccc123_ok
·
2022-11-19 23:47
机器学习——
神经网络学习
笔记
一、神经网络的兴起1、神经网络的发展史很早之前就听过神经网络这个名词,感觉很神秘、很强大,但是具体是做什么的,怎么用,一无所知。其实,最初产生的是神经元模型MP,即一个具有输入、输出和计算功能的细胞单元:Z=g(a1*w1+a2*w2+a3*w3)。此时,w1、w2、w3都是固定的。后来,产生了含有两层神经元(输入层、输出层)的感知器,具备了识别简单图像的能力,这也是最初的神经网络的样子。与神经元
snowmanst
·
2022-11-19 23:54
机器学习
机器学习
神经网络
cs224w 图
神经网络学习
笔记 3-1
cs224w3-1Nodeembedding引入我们输入一张图,对图按不同的层级做特征工程,之后进行算法训练,完成预测;我们大部分的时间都花在了特征工程上面,我们都在想一种能够更简单更简洁表达图的特征的方法?我们能使特征工程这一步自动化吗?我们将自动学习图上面的特征的一些方法成为FeatureRepresentationLearning或嵌入Embedding;我们的任务是,将节点映射到embed
XWF小弟
·
2022-11-19 19:58
神经网络
学习
深度学习
cs224W 图
神经网络学习
笔记 1-2
cs224w1-2ApplicationofGraphMLDifferentTypeofTask传统的图机器学习任务有四种:①节点级别②边级别③子图级别④图级别(如图级别预测或生成图)各个级别对应的任务:1.NodeLevel–Classification:节点分类(用户分类、项目分类)例子:蛋白质氨基酸序列,3D折叠形状复杂;给定氨基酸序列,能否预测蛋白质的3D折叠形状?AIphaFold提升了
XWF小弟
·
2022-11-19 19:28
神经网络
学习
机器学习
cs224W 图
神经网络学习
笔记 1-3
cs224w1-3ChoiceofGraphRepresentation1.图的组成与建立N节点;E边;G图;图是解决问题时的一种通用语言,但为问题选择一种表示方法是一个困难的问题如何构建图去解决问题是我们的重点2.有向图、无向图和二部图Degree:节点连接的边的数量,中文称之为度Avg.Degree:所有节点的度的平均(2E的原因是每条边都被计算了两次)InDegree:出度OutDegree
XWF小弟
·
2022-11-19 19:28
python
神经网络
推荐算法
cs224w 图
神经网络学习
笔记 2-1
cs224w2-1TraditionalFeature-basedMethods-Node前言:传统图机器学习方法1.传统图机器学习的三个层级我们可以将传统图机器学习任务分为三个层级:节点、边、图;图数据有两种属性特征:1.节点、边、图的特征属性;2.图数据的结构特性(局部网络结构localnetworkstructure这些额外的特征描述了网络的拓扑结构,能使预测更加准确)2.传统机器学习的两大
XWF小弟
·
2022-11-19 19:28
神经网络
学习
cs224w 图
神经网络学习
笔记 2-2
cs224w2-2TraditionalFeature-basedMethods-Line边层级上节课我们介绍了关于节点相关的基础知识,这节课我们将关注于**“边”**。任务:利用现有的链接来预测新的链接的产生;我们需要评估所有为连接的节点对;并对他们进行排序,排名前K个为我们的预测结果;这里的重点是“节点对”特征的设计,我们可以将点A和点B的特征融合起来来作为“节点对”,但失去了点之间的关系信息
XWF小弟
·
2022-11-19 19:28
神经网络
学习
cs224W 图
神经网络学习
笔记 1-1
cs224w1-1WhyGraph?ManyTypesofDataareGraph作者举了几个例子,计算机网络,生信蛋白质分子等很多数据可以用图来表示,图是用于描述和分析有关联性的实体的一种语言,使用图会更接近现实。TypesofNetworksandGraph自然界的图类别:社交网络:70亿人的集合与他们的联系交流交易网络:电子设备之间通信、交易、电话、金融交易等生物信息网络:生物信息网络:基因
XWF小弟
·
2022-11-19 19:57
神经网络
学习
人工智能
python
cs224w 图
神经网络学习
笔记 2-3
cs224w2-3TraditionalFeature-basedMethods-Graph图层级我们要用什么方式来表示图的结构呢?我们下面将介绍图的特征描述的描述符号,以便我们进行特征描述;KernelMethods(核方法)核方法被广泛应用于解决图层级的预测的传统的机器学习;思想:设计内核来代替特征向量;简单介绍一下Kernel:1.两个图的核K(G,G,)K(G,G^,)K(G,G,),衡量
XWF小弟
·
2022-11-19 19:35
神经网络
学习
图
神经网络学习
笔记
1图神经网络应用芯片设计、场景分析问题推理、推荐系统、欺诈检测风控相关、道路交通动态流量预测、自动驾驶、无人机等、化学医疗等场景2图神经网络基本组成点(vertex)、边(edge)、全局图(global),图神经网络(GNN,GraphNeuralNetwork)主要作用还是跟传统神经网络的作用一样——特征提取,只是提取特征的方式和提取特征的目标不一样。图神经网络主要是为了提取整个图的全局特征而
程哥哥吖
·
2022-11-19 17:20
NLP自然语言处理
数据挖掘
GNN
pytorch
nlp
transformer
attention
神经网络学习
笔记3——Transformer、VIT与BoTNet网络
系列文章目录
神经网络学习
笔记1——ResNet残差网络、BatchNormalization理解与代码
神经网络学习
笔记2——VGGNet神经网络结构与感受野理解与代码文章目录系列文章目录A、Transformer
RanceGru
·
2022-11-19 13:06
深度学习
神经网络
学习
transformer
计算机视觉
nlp
注意力机制(Attention Mechanism)-CBAM
在
神经网络学习
中,一般而言模型的参数越多则模型的表达能力越强,模型所存储的信息量也越大,但这会带来信息过载的问题。
车手文
·
2022-11-19 11:39
深度学习-注意力机制
深度学习
人工智能
神经网络学习
:detectron2 + win10 安装方法
基础:GPU(我的是3080)+win10安装顺序:vs2019(这里不用加什么模块)G++/gcc(大于5.0)GPU驱动(我的是511.xx)Cuda+Cudnn(我的是11.0+for11.x)conda安装(这里随便)开始建立虚拟环境:建一个你自己的环境:condacreate-nenv_namepython=3.6activatemy_env进入环境condainstallpackage
bieliwuguiqi
·
2022-11-19 11:31
python
pycharm
视觉检测
2022.11.6 第7次周报
目录摘要经典卷积
神经网络学习
LeNet-5AlexNetTensorFlow学习Fetch和Feed代码实现非线性回归代码实现文献阅读主要内容自然语言处理中的深度学习从图像到文本白盒攻击黑盒攻击存在问题及解决方法总结摘要本周学习了卷积神经网络经典模型
轻描淡写ζ
·
2022-11-19 09:29
深度学习
cnn
人工智能
2022.11.13 第8次周报
目录摘要经典卷积
神经网络学习
VGGNetsGoogleNetResNEts区别阅读文献亮点内容介绍可解释的深度学习方法基于归因的方法基于非归因的方法通过模型压缩和加速实现高效的深度学习深度学习中的鲁棒性和稳定性小结总结摘要
轻描淡写ζ
·
2022-11-19 09:29
深度学习
cnn
神经网络
神经网络学习
笔记4——GNN图神经和GCN图卷积网络
系列文章目录博客依托于国外GNN综述结合沐神视频文章目录系列文章目录图神经一、图是什么?二、机器学习中使用图1、邻接矩阵的表达2、GNN1.独自更新2.VE交互更新3.UVE交互更新3、GCN总结图神经什么是图:图是一种对节点和节点间关系建模的数据结构,是机器学习中唯一的非欧几里得数据,图分析可用于节点分类、链接预测和聚类。GNN的来源:CNN:CNN可以提取大量本地紧密特征并组合为高阶特征,但C
RanceGru
·
2022-11-19 06:01
深度学习
神经网络
学习
聚类
基于遗传算法的神经网络,遗传算法训练神经网络
这时,它在两个方面起作用(1)学习规则的优化用遗传算法对
神经网络学习
规则实现自动优化,从而提高学习速率。(2)网络权系数的优化用遗传算法的全局优化及隐含并行性的特点提高权系数优化速度
普通网友
·
2022-11-19 05:05
ai智能写作
神经网络
深度学习
机器学习
datawhale李宏毅机器学习——task07总结
机器学习是为了让机器能够像人一样拥有智慧而设计的一种算法,这种算法最大的特点在于从一堆数据中根据设定的
神经网络学习
数据中隐含的知识。
山泼黛
·
2022-11-19 02:44
机器学习
人工智能
神经网络
机器学习读书笔记:神经网络
文章目录神经元感知机&多层神经网络
神经网络学习
多层神经网络误差逆传播算法:BP(BackPropagation)神经网络过拟合问题局部最小与全局最小现在的深度学习大行其道,深度学习就是利用深度神经网络来进行学习
新兴AI民工
·
2022-11-16 07:26
机器学习读书笔记
机器学习
神经网络
前馈神经网络
机器学习经典算法-人工神经网络之反向传播算法
(机器学习TomM.Mitchell)
神经网络学习
方法对于逼近实数值、离散值或向量值的目标函数提供了一种鲁棒性很强的
kedixa
·
2022-11-15 17:45
算法
机器学习
神经网络
机器学习
算法
反向传播算法
卷积
神经网络学习
—Resnet50(论文精读+pytorch代码复现)
前言一、Resnet论文精读引入残差残差块ResNet50模型基本构成BN层Resnet50总体结构二、Resnet50代码复现完整代码前言如果说在CNN领域一定要学习一个卷积神经网络,那一定非Resnet莫属了。接下来我将按照:Resnet论文解读、Pytorch实现ResNet50模型两部分,进行讲解,博主也是初学者,不足之处欢迎大家批评指正。预备知识:卷积网络的深度越深,提取的特征越高级,性
惊鸿落-Capricorn
·
2022-11-15 13:23
深度学习
cnn
学习
pytorch
神经网络
人工智能
理解人工神经网络,感知机模型、多层前馈神经网络、BP算法(反向传播算法)、输出层和隐含层梯度下降更新权值推导过程。(西瓜书笔记)
我们在机器学习中谈论神经网络时指的是“
神经网络学习
”,或者说,是机器学习与神经网络这两个学科领域
謙卑
·
2022-11-14 11:59
机器学习
笔记
神经网络
机器学习
反向传播算法
梯度下降法
多层前馈神经网络
第八周周报
学习目标:ViTGAN论文吴恩达深度学习视频学习内容:VisionTransformer论文ViTGAN论文深度学习中的卷积
神经网络学习
时间:10.24-10.28学习产出:一、VisionTransformer1
童、一
·
2022-11-12 11:19
周报
深度学习
人工智能
计算机视觉
【神经网络】(9) 迁移学习(CNN-InceptionResNetV2),案例:交通标志4分类
1.网络简介网络复现代码见下文:
神经网络学习
小记录35——InceptionResnetV2模型的复现详解_Bubbliiiing的学习小课堂-CSDN博客_inceptionresnetv2模型大小。
立Sir
·
2022-11-11 18:49
TensorFlow神经网络
迁移学习
神经网络
cnn
粒子群算法(PSO)优化RBF神经网络实践
算法原理及流程关于RBF神经网络的细节详见:RBF
神经网络学习
及实践。关于PSO算法的细节详见:粒子群优化算法(PSO)python实践。PSO算法优化RBF神经网络训练流程图如下所示。
MSTIFIY
·
2022-11-10 07:51
RBFN
PSO
基于matlab的RBF神经网络的非线性方程回归实现
1引言1.1研究背景及意义实际应用结果表明,该神经网络可以很好地克服BP
神经网络学习
过程的收敛过分依赖于初值和可能出现局部收敛的缺陷,具有较快的运算速度、较强的非线性映射能力和较好的效能。
牧代码的阿桃
·
2022-11-09 07:35
MATLAB
深度学习入门(5)如何对神经网络模型训练结果进行评价
神经网络学习
的最
阿_旭
·
2022-11-08 11:26
深度学习
神经网络
python
人工智能
深度学习
Transforms的使用2(ToTensor类)
jupyter进行调试1.1好处将代码置入后,实时的看到变量的数值可以看到变量的数据类型和具体的数值查看关键参数1.2tensor数据类型关键参数反向传播算法梯度梯度的方法图片的具体数值使用的设备包装了
神经网络学习
需要的一些相关参数将数据转换成
王摇摆
·
2022-11-08 10:43
深度学习
深度学习
人工智能
[paper]Intriguing properties of neural networks(L-BFGS)
深度
神经网络学习
的输入—输出映射在相当大的程度上是不连续的。通过使用一些难以察觉的扰动可以造成模型的误分类,这种特定的扰动可以通过最大化网络的预测误差生成。
ch1762
·
2022-11-08 09:00
AEs
机器学习
深度学习
【Transformer论文】Transformers 的多模式学习: 一项综述
文献题目:MultimodalLearningwithTransformers:ASurvey发表时间:2022摘要Transformer是一种很有前途的
神经网络学习
器,在各种机器学习任务中取得了巨大的成功
Wwwilling
·
2022-11-08 07:57
Transformer系列论文
transformer
学习
人工智能
RBF
神经网络学习
及实践
RBF神经网络在学习RBF神经网络之前,最好先了解径向基函数的相关知识,参见径向基函数(RBF)插值。RBF神经网络模型是1988年由Moody和Darken提出的一种神经网络结构,属于前向神经网络类型,能够以任意精度逼近任意连续函数,特别适合于解决分类问题。RBF网络是一种三层前向网络,第一层为由信号源节点组成的输入层,第二层为隐层,隐单元数视问题需要而定,隐单元的变换函数为非负非线性的函数RB
MSTIFIY
·
2022-11-07 21:11
RBF神经网络
RBF神经网络python实践学习(BP算法)
续上一篇:RBF
神经网络学习
及实践RBF神经网络求解方法RBF网络中需要求解的参数为:径向基函数的中心、方差和隐层到输出层的权值。对于基函数中心的选取方法主要有:随机选取、聚类选取、有监督学习选取。
MSTIFIY
·
2022-11-07 21:11
RBF神经网络
BP算法
一文极速理解深度学习
损失函数均方误差交叉熵误差mini-batch梯度法
神经网络学习
全貌!小总结误差反向传播法链式法则(chainrule)!
全栈O-Jay
·
2022-11-05 22:11
人工智能
Python
深度学习
python
人工智能
神经网络
神经网络学习
(二):解常微分方程
前言在完成了函数拟合之后,现在考虑常微分方程:给定一个常微分方程,让你求得这个微分方程的近似解(在给定的初值条件下)。以前都是用数学的知识来解决(这让我想起了大一在立人楼上常微分的夜晚),现在有了神经网络,我们用深度学习的方法来解决它试一试。本次选择的微分方程是,当然学过常微分的同学都知道这个函数的解是训练流程1.定义网络本来是想使用之前定义的网络,但是觉得以后反正要用就规范化一下这个网络,增加一
LusinLee
·
2022-11-03 09:59
神经网络
神经网络
深度学习
机器学习
神经网络学习
--用卷积神经网络进行图像识别
目录卷积神经网络(ConvolutionalNerualNetwork,CNN)为什么计算机可以处理图--因为在计算机语言中图片可以用数字化,用四维数组来表示卷积层定义卷积层计算的代码实现卷积神经网络(ConvolutionalNerualNetwork,CNN)卷积神经网络特别适合处理像图片、视频、音频、语言文字等,这些与相互位置有一定关系的数据。卷积神经网络与多连接神经网络一样,都属于神经网络
nuonuopan8
·
2022-11-03 08:02
卷积
神经网络
python
tensorflow
神经网络学习
小记录45——Keras常用学习率下降方式汇总
神经网络学习
小记录45——Keras常用学习率下降方式汇总2020年5月19日更新前言为什么要调控学习率下降方式汇总1、阶层性下降2、指数型下降3、余弦退火衰减4、余弦退火衰减更新版2020年5月19日更新增加了论文中的余弦退火下降方式
Bubbliiiing
·
2022-10-30 17:40
神经网络学习小记录
学习率衰减
神经网络
Keras
深度学习
神经网络的运行以及梯度下降法和BP算法
1.1
神经网络学习
状态神经网络的学习主要是指使用学习算法来调整神经元间的连接权,使得网络输出更符合实际。学习算法主要分为监督学习算法和非监督学习算法两类。
待何
·
2022-10-27 18:05
深度学习
神经网络
算法
深度学习
tensorflow
【机器学习-西瓜书】-第5章-神经网络-学习笔记
5.1神经元模型神经网络的定义神经网络是具有适应性的简单单元组成的广泛并行互联的网络它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应机器学习中谈论的神经网络通常指的是"
神经网络学习
"神经网络的结构及原理最基本单元神经元模型
郑儿大人
·
2022-10-24 17:06
机器学习
神经网络学习
小记录72——Parameters参数量、FLOPs浮点运算次数、FPS每秒传输帧数等计算量衡量指标解析
神经网络学习
小记录72——Parameters参数量、FLOPs浮点运算次数、FPS每秒传输帧数等计算量衡量指标解析学习前言网络的运算时组成我们要关注网络的什么指标1、Parameters参数量2、FLOPs
Bubbliiiing
·
2022-10-16 20:42
神经网络学习小记录
神经网络
深度学习
指标
FLOPs
FPS
人工智能学习——神经网络(matlab+python实现)
人工智能学习——神经网络文章目录人工智能学习——神经网络前言一、神经网络理论知识1.人工神经网络的概念2.神经元的概念3.MP神经元模型4.常见的激活函数5.人工神经网络模型种类6.人工
神经网络学习
方式
NIkoeimi
·
2022-10-16 13:38
python
神经网络
matlab
人工智能
深度学习
神经网络学习
-简记
第五章神经网络概述:本次组队学习主要完成了: 1.学习了神经网络的相关基础内容; 2.对相应的一些公式进行了推导。5.1神经元模型 神经网络是由具有适应性的简单单元组成的广泛并行互连的网络。图5.1MP神经元模型 step1.神经网络基本单元——神经元(neuron) step2."M-P神经元模型经元接收到来自n个其他神经元传递过来的输入信号,这些输入信号通过带权重的连接(connec
Mars-Express
·
2022-10-13 10:18
笔记
python
Linux上安装虚拟conda环境和
神经网络学习
框架pytorch
学习目标:Linux系统安装Anaconda3;配置GPU,安装显卡toolkit;创建虚拟环境,安装深度学习框架;掌握Linux系统下应用Anaconda3命令;一些典型命令。学习内容:创建虚拟环境,安装深度学习框架pytorch前面已经在anaconda上创建的虚拟环境tch16py37:condacreate-ntch16py37python=3.7.13,安装好了cuda-toolkit,
柏常青
·
2022-10-13 09:48
pytorch
linux
conda
网络攻防技术的技术基础,网络攻防原理与技术
其实只要你有恒心和兴趣(兴趣很重要),神经网络也不是那么难学的,先看一些入门的知识,最好能做一下像C++(较难)或Matlab(交易)的神经网络编程,这对你的
神经网络学习
会很有帮助的。祝你成
wenangou
·
2022-10-12 13:55
神经网络
网络
机器学习
算法
神经网络
2021-01-22:脉冲
神经网络学习
日志(二)【Brain-Based Devices】
文献:Brain-BasedDevicesBYJASONG.FLEISCHERANDGERALDM.EDELMAN当前对大脑各个部分功能的研究有很多,但是对大脑全局系统可以实现的功能(globalpicture)研究较少,例如学习和记忆功能一种理论上的方法:syntheticneuralmodeling.神经系统并非孤立地起作用。身体暴露在环境中,只有当神经系统与身体交互以及动物有行为动作时,神经
han_hhh
·
2022-10-11 07:05
脉冲神经网络
bp
神经网络学习
——matlab问题随手记1
一、matlab中clc和clear命令的作用:1.clc命令是命令窗口显示的内容,但并不清除工作空间,对工作环境中的全部变量无任何影响;2.clear命令是用来清除工作空间的内容,即清除工作空间的所有变量。二、其它常用命令:1.close是关闭当前的Figure窗口;2.closeall是关闭所有的Figure窗口;3.clearall是清除工作空间的所有变量,函数,和MEX文件;4.figur
xw-何妨吟啸且徐行
·
2022-10-06 22:50
MATLAB
bp神经网络
CNN卷积
神经网络学习
笔记
CNN卷积
神经网络学习
笔记对于其实现过程,大致可分为以下几个步骤:输入层卷积层激活函数池化层全连接层即INPUT-CONV-RELU-POOL-FC卷积层:用它来进行特征提取。
Tae_up
·
2022-10-06 16:47
机器学习
CNN卷积神经网络
机器学习
YOLOv3,YOLOv4学习
YOLOv3,YOLOv4
神经网络学习
前面刚刚学过了YOLO以及YOLOv2神经网络的架构原理,不过要学还是要学最新的网络,YOLOv3,乃至YOLOv5都是在YOLO网络的基础进一步改进而来,这篇博客是基于
鲸落于北
·
2022-09-30 07:56
神经网络学习
神经网络
PyTorch 与
神经网络学习
PyTorch的基础操作1张量张量如同数组和矩阵一样,即一种特殊的数据结构。多作为pytorch中,神经网络的输入、输出以及网格的参数等数据,都用张量来描述张量的使用和numpy的ndarrays类似,区别在于张量可以在GPU或者其他专用硬件上运行,以达到更快的效果1.1张量初始化与创建#初始化张量'''张量与numpy的数组最大的区别在于张量可以在gpu上运行'''data=[[1,2],[3,
LionelMartin
·
2022-09-28 07:35
机器学习
pytorch
神经网络
【人工智能实验室】第四次培训之目标检测(YOLOV4)
Bubbliiiing的学习小课堂-CSDN博客_yolov4目标检测https://blog.csdn.net/weixin_44791964/article/details/106214657(6条消息)
神经网络学习
小记录
Fairy0308
·
2022-09-27 07:07
人工智能
神经网络
机器学习
机器学习—吴恩达_ 第7周_学习总结
机器学习—吴恩达_第7周_学习总结21.10.18-21.10.24周学习任务:100%回顾吴恩达机器学习前4章节10%
神经网络学习
一、回顾机器学习前4章节机器学习:用已知的数据集通过数学模型使得程序能够像人一样的去思考
魔芋小灰菜
·
2022-09-26 22:51
#
日记
机器学习
学习
人工智能
上一页
5
6
7
8
9
10
11
12
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他