E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
神经网络学习
神经网络简述
一、什么是神经网络机器学习中谈论的神经网络是指“
神经网络学习
”,或者说,是机器学习和神经网络这两个学科领域的交叉部分[1]。
Herbert002
·
2021-04-22 18:02
图
神经网络学习
笔记
图嵌入综述图分析任务可以大致抽象的分为以下四类:(a)节点分类(b)链接预测(c)聚类(d)可视化。真实的图(网络)往往是高维、难以处理的,20世纪初,研究人员发明了图形嵌入算法,作为降维术的一部分。嵌入的思想是在向量空间中保持连接的节点彼此靠近。自2010年以来,关于图嵌入的研究已经转移到解决网络稀疏性的可伸缩图嵌入技术上,例如,图分解(GraphFactorization)使用邻接矩阵的近似分
逃淘桃
·
2021-04-19 15:45
深度神经网络
3、分布式表示:一个传统的
神经网络学习
几种特征。复杂的神经网络分为简单的小的局部模型,再进行组合。4、反向传播算法、长短记忆网络5、深度信念网络:每一层分别预训练好,再根据输入的信号进行调整。
小红猪大鼻孔
·
2021-04-17 16:10
深度学习-什么是神经网络
什么是
神经网络学习
笔记:Thetermdeeplearningreferstotrainingneuralnetworks.术语"深度学习"指的是训练神经网络.Let’sstartwithanexampleofhousepriceforecasting
moonlightpp
·
2021-04-07 23:14
python
神经网络
神经网络学习
小记录57——Batch Normalization层的原理与作用
神经网络学习
小记录57——BatchNormalization层的原理与作用学习前言什么是BatchNormalizationBatchNormalization的计算公式Bn层的好处为什么要引入γ和β
Bubbliiiing
·
2021-03-19 10:33
神经网络学习小记录
标准化
神经网络
深度学习
机器学习
BatchNor
贪心学院10周成为商业数据分析师【视频代码齐全】
神经网络学习
(或连接学习):模拟人脑的微观生理级学习过程,以脑和神经科学原理为基础,以人工神经网络为函数结构模型,以数值数据为输人,以数值运算为方
weixin_A1883029
·
2021-03-10 13:48
自然语言处理
自动驾驶
pytorch
机器学习
深度学习与围棋:神经网络入门
指导
神经网络学习
如何识别手写数字。组合多个层来创建神经网络。理解神经网络从数据中学习的原理。从零开始实现一个简单的神经网络。
人邮异步社区
·
2021-03-02 07:24
深度学习
神经网络
alphago
人工智能
【
神经网络学习
】鸢尾花分类的实现
目录1.问题2.问题解决思路3.神经网络理论准备4.TensorFlow编程基础5.鸢尾花分类神经网络实现1.问题鸢尾花分为:狗尾草鸢尾、杂色鸢尾、弗吉尼亚鸢尾;通过测量:花萼长、花萼宽、花瓣长、花瓣宽,这四个参数得出鸢尾花的类别2.问题解决思路if语句case语句——专家系统:把经验告诉计算机,计算机执行逻辑判别,给出分类神经网络:采集大量(花萼长、花萼宽、花瓣长、花瓣宽、对应的类别)数据对构成
楼下小黑邢则拯
·
2021-02-20 21:06
神经网络学习
神经网络
tensorflow
图
神经网络学习
02:MLGCN论文阅读以及tensorflow复现(图卷积神经网络解决多标签分类图像问题)
图
神经网络学习
02:Multi-LabelImageRecognitionwithGraphConvolutionalNetworks论文使用tensorflow复现(图卷积神经网络解决多标签多分类图像问题
theworld666
·
2021-02-17 18:56
神经网络
python
tensorflow
深度学习
图
神经网络学习
01:图卷积神经网络GCN实战解决论文分类问题(tensorflow实现)
图
神经网络学习
01:图卷积神经网络GCN实战解决论文分类问题(tensorflow实现)文章目录图
神经网络学习
01:图卷积神经网络GCN实战解决论文分类问题(tensorflow实现)前言1.数据集的介绍
theworld666
·
2021-02-14 19:33
神经网络
深度学习
tensorflow
神经网络学习
小记录55——Keras搭建常见分类网络平台(VGG16、MobileNet、ResNet50)
神经网络学习
小记录55——Keras搭建常见分类网络平台(VGG16、MobileNet、ResNet50)学习前言源码下载分类网络的常见形式分类网络介绍1、VGG16网络介绍2、MobilenetV1
Bubbliiiing
·
2021-01-26 14:27
神经网络学习小记录
分类网络
Mobilenet
Resnet50
VGG16
吴恩达机器学习(
神经网络学习
)
(1)神经网络算法模型展示神经网络算法在学习复杂的非线性假设上是一种比较好的算法,即使输入特征空间或者n很大,也能轻松搞定。如何定义神经网络的假设函数Layer1是输入层。Layer2为隐藏层。隐藏层实际上就是一个复杂式子的中间计算过程,除了输入层外,其他的每一个节点表示的就是一个计算过程,计算的具体过程由参数值所决定。所以不论所要求解或者表达的式子多么的复杂,通过增加隐藏层的数目和层中的节点数,
qq_38162944
·
2021-01-19 16:59
机器学习
机器学习
aPRBind:结合序列和基于卷积
神经网络学习
的基于I-TASSER模型的结构特征,预测蛋白质-RNA相互作用
目录Paper_Info预备知识:AbstractMotivation:Results:1Introduction2Methods2.1Data2.2基于I-TASSER的结构构件2.3Featuresextraction2.4Convolutionalneuralnetworks2.5aPRBind算法的体系结构2.6Performanceevaluationmeasures3Results3.
Good_Ly
·
2021-01-13 18:37
神经网络
机器学习
数据挖掘
深度学习
tensorflow
泛统计理论初探——初探GPT模型
神经网络学习
-初探GPT模型思路初探GPT思路在之前的文章我们聊过transformer机制和bert模型的思路,其实transformer是一种理论的框架模型,而bert则是用了transformer
喷火龙与水箭龟
·
2020-12-31 20:31
神经网络学习
神经网络
人工智能
深度学习
自然语言处理
机器学习
grad在python什么模块_Python深度学习(二)在我们开始之前:神经网络的数学构建模块...
本章涵盖了神经网络的第一个例子张量和张量操作通过反向传播和梯度下降的
神经网络学习
方式理解深度学习需要熟悉许多简单的数学概念:张量、张量运算、微分、梯度下降等等。
weixin_39640573
·
2020-11-29 21:11
grad在python什么模块
图
神经网络学习
笔记 -1 | Windows10 CUDA、PaddlePaddle、PGL安装
环境:Windows10,Anaconda,CUDA10.0,PaddlePaddle1.8.51、PaddlePaddle-GPU的依赖项:CUDA安装CUDA:CUDA英文全称是ComputeUnifiedDeviceArchitecture,是显卡厂商NVIDIA推出的运算平台。CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。按照官方的说法是,CU
切瓜少年
·
2020-11-24 17:21
卷积
神经网络学习
——第二部分:卷积神经网络训练的基本流程
卷积
神经网络学习
——第二部分:卷积神经网络训练的基本流程一、序言二、训练流程1、数据集引入2、构建网络(1)四层卷积神经网络(2)两层全连接层网络3、模型训练4、模型评估三、总结一、序言 本文承接第一部分
吕守晔_Ryan
·
2020-11-21 17:19
【2020秋】数据科学基础
卷积神经网络
pytorch
【卷积
神经网络学习
】(1)环境搭建
环境搭建centos7中安装Anaconda3下载Anaconda3anaconda下载地址我下载的是Anaconda3-5.3.1-Linux-x86_64.sh通过winscp,把在windows上下载的Anaconda3安装包传到centos7中在终端输入下面的命令:bashAnaconda3-5.3.1-Linux-x86_64.sh找到.bashrc的文件(我的.bashrc在根目录下)
kiloGrand
·
2020-10-24 14:55
卷积神经网络
centos
Python
1024程序员节
神经网络
anaconda
centos
linux
【图神经网络】学习聚合函数 GraphSAGE
本文为图
神经网络学习
笔记,讲解学习聚合函数GraphSAGE。
wtl_bupt
·
2020-10-11 09:22
#
深度学习
python
tensorflow
机器学习
人工智能
深度学习
神经网络学习
笔记(5)——BP算法代码讲解
其实我很不愿意写这篇文章的,主要是我代码没跑通!没跑通!没跑通!对于我一个多月没敲过代码后敲的第一份代码来说打击感巨大。但是想了想之前两篇文章都说了国庆要写一篇……然后我的完美主义犯了……代码没跑通其实真不是我的原因,因为书上代码是错的……一方面是书上用python2写的,我是python3环境,第二方面是代码中的公式错了……这个代码我用了3天时间,推了整整3页草稿纸,又向师兄请教了两天,最后发现
在秃顶的边缘疯狂试探
·
2020-10-08 15:07
数学
神经网络
python
算法
神经网络
深度学习
python
【图神经网络】简化 GCN(SGC)
本文为图
神经网络学习
笔记,讲解SGC。欢迎在评论区与我交流前言本教程讲解如何使用Tensorflow构建GCN的变体SGC模型进行节点分类任务。
wtl_bupt
·
2020-10-07 10:58
#
深度学习
神经网络
机器学习
深度学习
tensorflow
神经网络学习
笔记(4)——期望与算术平均值的区别、方差与均方误差的区别
本来说直接看BP算法的代码的,但是看书的时候又确实遇到了这两个东西,所以就先记上这么一个学习笔记。虽然这种纯数学的东西放在神经网络的学习笔记中好像也不太对,但是确实是学习神经网络的时候遇到的,所以就勉强记录在内。目录期望与算数平均数方差与均方误差期望与算数平均数无论是期望还是算数平均数,从大的概念来说都是求的一个均值,不过建立在的不同的基础上。我们来看一个样本数为100的样本集合{(x1,p1),
在秃顶的边缘疯狂试探
·
2020-10-05 12:39
数学
神经网络
深度学习
神经网络
深度学习
概率论
机器学习
机器学习之
神经网络学习
及其模型
1、神经元模型历史上,科学家一直希望模拟人的大脑,造出可以思考的机器。人为什么能够思考?科学家发现,原因在于人体的神经网络。神经网络最基本的成分是神经元模型其中,W表示的是向量,代表的是权重,函数f称为激活函数,其中f()我们一般选择sigmoid函数(这里选择对数几率函数)对数几率函数相较于阶跃函数优点:连续光滑,任意阶可导2、感知机与多层网络感知器的例子城里正在举办一年一度的游戏动漫展览,小明
越前浩波
·
2020-09-16 08:10
机器/深度学习
神经网络
机器学习
人工智能
算法
神经网络学习
小记录48——windows下的torch=1.2.0环境配置
神经网络学习
小记录48——windows下的torch=1.2.0环境配置学习前言环境内容Anaconda安装下载Cudnn和CUDA配置torch环境安装VSCODE学习前言好多人问环境怎么配置,还是出个教程吧
Bubbliiiing
·
2020-09-16 00:36
神经网络学习小记录
torch
环境配置
windows
深度学习
神经网络学习
小记录25——MobileNetV2模型的复现详解
神经网络学习
小记录25——MobileNetV2模型的复现详解学习前言什么是MobileNetV2模型MobileNetV2网络部分实现代码图片预测学习前言MobileNet它哥MobileNetV2也是很不错的呢
Bubbliiiing
·
2020-09-16 00:35
神经网络学习小记录
MobileNetV2
复现
详解
神经网络
卷积
神经网络学习
笔记(一)
CNNs学习笔记一基本原理1)反向传导算法在机器学习中,给定了测试数据集后经过一个模型后得到的一个实际输出数据集,为了刻画实际值与理想值之间的关系,我们定义了一个代价函数,有时也叫损失函数:下图为神经网络的一般模型:前向传导即根据每个神经元的权值来推导出下一个神经元的权值。对于一个神经网络,给出输入(x,y)后我们首先要进行“前向传导”运算,计算出网络中所有的激活函数值,包括最终的输出值。最终的结
ZoeGreenn
·
2020-09-15 23:23
Computer
Vision
Machine
Learning
神经网络
机器学习
神经网络学习
小记录53——TF2搭建孪生神经网络比较图片相似性(tensorflow2)
神经网络学习
小记录53——TF2搭建孪生神经网络比较图片相似性(tensorflow2)学习前言什么是孪生神经网络代码下载孪生神经网络的实现思路一、预测部分1、主干网络介绍2、比较网络二、训练部分1、数据集的格式
Bubbliiiing
·
2020-09-15 21:40
神经网络学习小记录
tensorflow2
Siamese
深度学习
卷积
神经网络
#笔记1
一、机器学习的一些成功应用识别人类语言:SPHINX系统-识别基本的音素(phoneme)单词/
神经网络学习
&隐马尔可夫模型的应用1学习车辆驾驶:ALVINN系统-基于传感器的控制问题,在车辆中进行穿行驾驶分类新的天文结构
离弦流浪
·
2020-09-15 19:42
Python
机器学习
神经网络
应用
机器学习笔记2:神经网络
神经网络即
神经网络学习
,是机器学习与神经网学习两个学科领域的交叉部分.神经网络在1988年被T.Kohonen定义为:神经网络是由具有适应性的简单单元组成的广泛并行互联网络,它的组织能够模拟生物神经系统对真实世界物体做出的交互反应
_不二_
·
2020-09-15 11:48
机器学习
神经网络
神经网络
机器学习
神经网络学习
神经网络学习
主要参考资料主要参考资料Brown大学Raissi博客2017年Raissi提出物理启发的PINN(PhysicsInformedNeutralNetwork),在流体力学等领域展现出很好的应用前景
lunaticman
·
2020-09-14 15:27
机器学习
深度神经网络(多层感知机)反向传播算法(BP-back propagation)实现备忘录
在AI-100第六周多层感知机和深度
神经网络学习
中,有一个算例(两层网络,1个两维的输入数据,每层神经元数量都是2个,激活函数为sigmoid函数,损失函数为二次损失),可以通过手工计算各层前馈运算值,
总督2017
·
2020-09-14 03:05
【2020顶会KDD】AutoST:面向时空预测的高效
神经网络学习
模型
题目:AutoST:EfficientNeuralArchitectureSearchforSpatio-TemporalPrediction文章作者信息:预览摘要:时空(ST)预测(如人群流预测)在城市规划、智能交通和公共安全等一系列智慧城市应用中具有重要意义。近年来,人们提出了许多深度神经网络模型来进行准确的预测。然而,手动设计神经网络需要花费大量的精力和时空领域的专业知识。如何自动建立一个通
皇德华叫兽
·
2020-09-14 03:10
最新科研论文
智能交通
人工智能
人工智能
深度学习
神经网络学习
笔记:relu & sigmoid 激活函数对比
激活函数RectifiedLinearUnit(ReLU)-用于隐层神经元输出Sigmoid-用于隐层神经元输出Softmax-用于多分类神经网络输出Linear-用于回归神经网络输出(或二分类问题Softmax激活函数只用于多于一个输出的神经元,它保证所以的输出神经元之和为1.0,所以一般输出的是小于1的概率值,可以很直观地比较各输出值。2.为什么选择ReLU?深度学习中,我们一般使用ReLU作
雨中曲zc
·
2020-09-14 02:59
神经网络
matlab_BP
BTF:BP
神经网络学习
训练函数,默认值
jiayouliying
·
2020-09-13 05:23
机器学习方法
BP
神经网络学习
笔记
一个神经网络是一个由简单处理元构成的规模宏大的并行分布式处理器。天然具有存储经验知识和使之可用的特性。神经网络在两个方面与人脑相似:1.神经网络获取的知识是从外界环境中学习得来的。2.互连神经元的连接强度,即突触权值,用于储存获取的知识。BP神经网络的优点1)非线性映射能力:BP神经网络实质上实现了一个从输入到输出的映射功能,数学理论证明三层的神经网络就能够以任意精度逼近任何非线性连续函数。这使得
jiayouliying
·
2020-09-13 05:52
机器学习方法
神经网络训练技巧
神经网络训练技巧写作初衷朋友遇到的问题学习过程总结尝试解决朋友的问题不容易收敛的问题调参环节花费时间长的问题互动写作初衷最近帮朋友解决神经网络训练遇到的一些问题,结合在吴恩达老师课程中学到的技巧,梳理一下
神经网络学习
的一些技巧和陷阱
德宇deyu
·
2020-09-13 03:50
统计机器学习
使用keras框架编写三层神经网络解决房价预测问题
学习keras框架,我选择的书籍是《python深度学习》,因为我想研究的领域大多是一些拟合问题,所以第三章的前半部分大致读一下就略过了,重点放在了用于拟合问题的
神经网络学习
上,在书中给出的问题是:波士顿房
愤逗
·
2020-09-12 12:46
深度学习
神经网络
keras
keras
神经网络
拟合问题
Orleans稍微复杂的例子—互动
只要肯花时间,我这些内容谁都可以做出来.所以这个事例告诉我们一个道理,那就是码农有三好,钱多话少死得早.我也许只有后两好.当初阿尔法狗在围棋上战胜人类的时候,人工智能一时大热,不管老小,都大肆谈论一番深度
神经网络学习
算法等等
ma524654165
·
2020-09-12 10:47
神经网络学习
小记录5——利用Keras进行回归运算
神经网络学习
小记录5——利用Keras进行回归运算学习前言什么是KerasKeras中基础的重要函数1、Sequential2、Dense3、model.compile全部代码学习前言看了好多Github
Bubbliiiing
·
2020-09-12 04:51
神经网络学习小记录
Keras
回归
神经网络
多层神经网络与反向传播算法
本篇文章是感知机详解的继续,看本篇文章前最好先看上一篇文章或者有响应的
神经网络学习
与应用基础。
机器学习算法与Python学习-公众号
·
2020-09-12 03:20
机器学习
神经网络学习
笔记(十二):异或问题
在Rosenblatt单层感知机中已经对异或问题做了介绍,并论证说明了只适用于线性分类问题的Rosenblatt感知机无法对异或问题进行分类。然而非线性问题是普遍存在的,下面就使用带隐藏节点的神经网络来解决异或问题。异或问题:异或(XOR)问题可以看做是单位正方形的四个角,响应的输入模式为(0,0),(0,1),(1,1),(1,0)。第一个和第三个模式属于类0,即和输入模式(0,0)和(1,1)
不死的钟情
·
2020-09-12 03:38
Machine
Learning
神经网络学习
笔记(一) 单层感知机
前向网络神经网络分为从传播来讲分为两种:1.前馈神经网络(前向网络)2.反馈神经网络前向网络没有反馈机制,也就是自能向前传播而不能反向传播来调整权值参数。感知机就属于前向网络。如上图一个输入层,一个输出层,中间的所有隐层都是向前传播。感知机感知机是美国学者F.Rosenblatt提出的,他对最早提出的MP不一样,他的所有维度的权值是可以改变的,通过对权值的迭代可以快速的解决线性可分的二分类问题。上
cyhbrilliant
·
2020-09-12 02:43
神经网络
机器学习
神经网络学习
(多层感知机)第一篇
在上一篇博客感知机的学习当中,我们发现单层感知机有一个非常严重的问题,即对一些稍微复杂的函数无能为力(如最为典型的“异或”操作)。所以才会有多层感知机的出现,它由一个输入层,一个输入层和多个隐藏层组成。神经网络和前面介绍的感知机有很多共同点。这里,我们主要以两者的差异为中心,来介绍神经网络的结构。在观察神经网络中信号的传递方法之前,我们先复习一下感知机。假设感知机只接收两个信号x1和x2,输出Y。
Fan_nie
·
2020-09-12 02:43
神经网络学习
笔记(九):多层感知机(上)
在前面我们所讨论的Rosenblatt感知机,其本质是一个单层神经网络。但这一网络局限于线性可分模式的分类问题。而由Widrow和Hoff(1960)提出的最小均方算法(LMS)也是基于权值可调的单个线性神经元。同样限制了这一算法的计算能力。为了克服上述局限,多层感知机(MLP)应运而生。多层感知机:多层感知机的基本特征:网络中每个神经元模型包含一个可微的非线性激活函数。网络中包含一个或多个隐藏在
不死的钟情
·
2020-09-12 01:54
Machine
Learning
机器学习
神经网络
MLP
神经网络学习
笔记(二) 线性神经网络
线性神经网络线性神经网络和单层感知机非常相似,输入层、输出层甚至是误差迭代函数都相同,唯一的区别就是他们的传输函数不同。回顾一下单层感知机的传输函数:y=sgn(x)sgn{x>0y=1x<=0y=0}这是二值的函数,所以只能解决二分类问题。而线性神经网络的传输函数:sgn{y=x;}这就决定了线性函数可以拟合线性方程,而且比感知机拟合出来的误差小的多得多。线性神经网络的误差迭代线性神经网络用的是
cyhbrilliant
·
2020-09-12 01:52
神经网络
机器学习
文本分类算法之-LMS神经网络算法的介绍
神经网络学习
的梯度算法从感如器的学习算法可知,学习的目的是在于修改网络中的权系数,使到网络对于所输入的模式样本能正确分类。
红豆和绿豆
·
2020-09-12 01:19
文本挖掘
数据挖掘
梯度下降
LMS
Python 深度学习--学习笔记(八)
使用预训练的卷积
神经网络学习
猫狗分类在Python深度学习–学习笔记(七)中,我们从零构建模型并进行学习。增加了增强学习,训练了100轮后,准确率还是没到80%。这很大程度上因为学习的数据不够多。
YUUUUAN
·
2020-09-11 23:35
BP
神经网络学习
算法原理
一、从根本理解BP神经网络BP神经网络是一种多层前馈神经网络,特点是:信号向前传播,误差反向传播。通俗理解就是,BP神经网络通过层与层向前传播,得到最终实际输出后,与期望输出做对比,通过“梯度下降”策略,逐层调节权重和阈值,最终得到与期望输出在误差允许范围内的神经网络模型。二、基础知识(神经元模型和激活函数)神经元的模型(阈值加权和),简称为M-P模型,,是神经网络的处理单元。每个符号在图中都有对
-麦_子-
·
2020-09-11 22:46
Machine
Learning
机器学习笔记——神经网络的实现
0x00前言这篇算是
神经网络学习
的一篇实现总结,神经网络算法无疑是最好的实现人类“人工智能”的算法,与安全相关的是,神经网络已经在WAF领域、SQL注入检测、Webshell检测领域有了方法论,为了最终能和安全技术相结合
隐形人真忙
·
2020-09-11 21:12
机器学习&数据挖掘
神经网络学习
博客
1、CNN经典网络模型摘要–AlexNet、ZFnet、GoogleNet、VGG、ResNet:http://ziyubiti.github.io/2016/11/27/cnnnet/2、神经网络参数优化–基于CNN的mnist验证:(1)不同网络结构、不同参数及分类结果对比图:http://ziyubiti.github.io/2016/11/20/cnnpara/(2)网络搭建及训练:htt
Sun-Flower
·
2020-09-11 10:29
tensorflow
经典网络结构
神经网络参数优化
tensorflow
上一页
8
9
10
11
12
13
14
15
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他