E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
深度学习与神经网络
秋读|10本热门图书(人工智能、编程开发、架构、区块链等)免费送!
注意是知乎帖子回复,不是本帖回复哦1.人工智能《图解
深度学习与神经网络
:从张量到Te
yijian2595
·
2020-07-08 15:35
秋读|10本热门图书(人工智能、编程开发、架构、区块链等)免费送!
注意是知乎帖子回复,不是本帖回复哦1.人工智能《图解
深度学习与神经网络
:从张量到Te
网易云社区
·
2020-07-07 15:31
深度学习与神经网络
习题(1)
2019独角兽企业重金招聘Python工程师标准>>>最近在学习网易云课堂上吴恩达教授的《神经网络与深度学习》的课程,做了第一周的测试题,没有答案,于是想分享自己的参考解析(根据coursera荣誉准则不允许公布答案),以供讨论。1。Whatdoestheanalogy“AIisthenewelectricity”referto?A.Similartoelectricitystartingabou
weixin_33949359
·
2020-07-05 23:50
统计学习方法+Python机器学习实践指南+强化学习精要:核心算法与Tensorflow实现+图解
深度学习与神经网络
从张量到TensorF实现+人工神经网络理论设计及应用+深度卷积网络:原理与实践
原文地址:https://www.cnblogs.com/lishuairg/p/11734842.html我虽然很喜欢模式识别和机器学习,但我暂时并不希望在这上面做深入的研究,只想把别人研究好的成熟的理论用在计算机视觉任务上。比如SVM,Adaboost,EM,朴素贝叶斯,K近邻,决策树等等。能够知道每种算法的原理,而并不想深究其实现过程以及理论证明。比如SVM,我想知道的是这种算法如何实现分类
yiyayiya557
·
2020-06-30 08:44
深度学习与神经网络
:AIC,BIC,L1,L2
在学习深度学习时,我们经常会听到AIC,BIC还有l1,lasso等regularization的知识。但是随之产生了一些问题,其中一个就是AIC,BIC和l1,l2的应用场景是不是相同或者有重叠的地方?首先先让我们思考两个问题1)实现参数的稀疏有什么好处吗?一个好处是可以简化模型,避免过拟合。因为一个模型中真正重要的参数可能并不多,如果考虑所有的参数起作用,那么可以对训练数据可以预测的很好,但是
云时之间
·
2020-06-29 04:44
【ARM-Linux开发】【CUDA开发】【
深度学习与神经网络
】Jetson Tx2安装相关之三
JetPack(JetsonSDK)是一个按需的一体化软件包,捆绑了NVIDIA®Jetson嵌入式平台的开发人员软件。JetPack3.0包括对JetsonTX2,JetsonTX1和JetsonTK1开发套件的最新L4TBSP软件包的支持。使用最新的BSP(用于JetsonTX1的L4T27.1,用于JetsonTX1的L4T24.2.1和用于JetsonTK1的L4T21.5)自动刷新您的J
weixin_30449453
·
2020-06-27 19:53
深度学习与神经网络
-吴恩达(Part1Week4)-深度神经网络编程实现(python)-基础篇
经典篇Step1:导入需要的模块其中,h5py模块用于读取.h5数据(本次的训练数据和测试数据均为.h5文件),lr_utils包含数据加载函数,为官方提供的模块。importnumpyasnpimportmatplotlib.pyplotaspltimporth5pyimportscipyfromPILimportImagefromscipyimportndimagefromlr_utilsim
DataScientistGuo
·
2020-06-27 04:04
人工智能
深度学习与神经网络
深度学习,神经网络,多层神经网络,BP,卷积神经网络区别接触神经网络不久,想弄明白“深度学习”与”多层神经网络”的区别,看了几篇博客和知乎回答,总结一下自己的认识先提一下:BP是一种按照误差逆向传播算法训练的多层前馈神经网络。神经网络包括了多层神经网络(可以当做普通的神经网络)和卷积神经网络等,而卷积神经网络又属于深度学习中最为重要的算法。我们这所谓的层指的神经网络的层数,但是也并不是层数多了就是
我是小六啊
·
2020-06-25 02:23
神经网络
深度学习与神经网络
(十二)—— GAN生成对抗网络
GAN,GenerativeAdversarialNetworksGAN是现在deeplearning最火热的方向画家的成长历程根据画家怎样练习、成长,画出一幅好的作品来学习怎样用神经网络来逼近一幅优秀的作品p(x)即数据分布对于非监督学习来说,其目标就是p(x)画家达芬奇在成名之前也是小菜,在年轻的时候,画画就是左图的样子;当他练习过无数次之后,最终画出右图的样子这说明他经过不停地练习、不停地观
hxxjxw
·
2020-06-23 17:17
深度学习与神经网络
(十一)—— 迁移学习
我们自己做的宝可梦数据集的图片数量只有1000多张规模是很小的,而我们使用的是比较强大的resnet,所以很容易出现overfitting的情况该怎么解决呢Pokemon和ImageNet都是图片,存在某些共性knowledge那么我们能不能利用ImageNet的模型来帮助我们提升宝可梦数据集分类的性能这里不再用自己写的resnet18了,而是加载已经train好的resnet这里由model=R
hxxjxw
·
2020-06-23 17:17
深度学习与神经网络
(十三)—— Auto-Encoder自编码神经网络
自动编码器,也就是自编码神经网络,是神经网络的一种采用无监督学习的方式对高维数据进行高效的特征提取和特征表示,在学术界和工业界都大放异彩我们之前看的都是监督学习但是生活中的大量的数据都是没有label的现在来看非监督学习机器学习领域的三大方向强化学习(樱桃)、监督学习(蛋糕的外皮)、非监督学习为什么需要非监督学习?降维利用大量的无标签数据https://projector.tensorflow.o
hxxjxw
·
2020-06-23 17:17
深度学习与神经网络
之 时间序列预测实战(RNN)
预测一个正弦曲线的下一段的波形例如输入[0,49]的值,要求预测[1,50]的值我们这是数字数据,就不需要embedding了,所以word_vec也就是1batch也就是1,没有多个word_num即sequence设置为50,就是1次喂50个点的数据所以,输入数据的shape是[1,50,1],这里采用的是第②种表达方式start是开始的点importnumpyasnpimporttorchi
hxxjxw
·
2020-06-23 17:16
时间序列
RNN
深度学习与神经网络
之 时间序列表示
我们之前讲的卷积神经网络CNN所处理的都是2D的图像、视频之类的,这种数据的大多具有位置相关性那么自然界中除了图片、视频数据之外,更多的还有一些类似于序列的数据,例如语音、文字,这些数据都是有一个时间的先后顺序的。对于2D的图片数据,我们用一个像素点的RGB值来表示这个像素的一个色彩度,那么对于语音和文字这种类型的信息我们该怎么表示呢这些都是类似string类型的数据,而pytorch中处理的都是
hxxjxw
·
2020-06-23 17:16
时间序列
深度学习与神经网络
(七)——卷积神经网络之池化 & upsample与downsample & BatchNorm
池化层pooling与采样upsample与downsampleupsample是上采样,类似图片的放大downsample是下采样,类似图片的缩小比如这种隔行采样就是下采样在卷积神经网络中使用的采样方式就是pooling,有点类似下采样,但不太一样pooling也是把featuremap变小的操作pooling有多种方式,如maxpooling,avgpoolingMaxpooling是取窗口中
hxxjxw
·
2020-06-23 17:16
关于新手入门机器学习之路的几点心得
文章目录先行知识准备人工智能、机器学习与深度学习的区别机器学习、
深度学习与神经网络
入门之路写在前面:因为学业和其他原因,需要从事人工智能机器学习相关研究和工作。
ThunderF
·
2020-06-22 06:13
机器学习
深度学习与神经网络
(三)——多层感知机 & 反向传播 & 优化实战
介绍一个完完整整的,与我们实际使用一摸一样的多层感知机的反向传播方式多层感知机MLP&反向传播与多输出感知机相比有多层节点(绿色的)δkk是由Okk和tk得到的所以δ一共有k个我们此时求的是E对Wjk的导这是输出节点前的最后一层,前面还有好多层也就是我们需要求E对Wij的导数其实δk定义为从当前节点开始,即从k层的节点开始,到最终的输出层的梯度的导数的信息,只要拿到了这个信息,再乘上O节点的输出,
hxxjxw
·
2020-05-13 09:53
深度学习
神经网络
多层感知机
反向传播
深度学习与神经网络
:mnist数据集实现手写数字识别
大家好,在这一篇文章中,我们将做以下的三件事:1:介绍mnist数据集的使用2:创建模型,并且保存模型3:在测试集中使用保存的模型进行检测一:介绍mnist数据集的使用对于mnist数据集,具体的一些介绍我这里就不搬运过来了,这里我直接说我们如何在TensorFlow上使用mnist数据集.在我们将mnist数据集准备喂入神经网络时,我们需要提前对数据集进行处理,因为数据集的大小是28*28像素,
云时之间
·
2020-03-31 05:41
深度学习与神经网络
:AutoEncoder自编码
今天让我们来看一下
深度学习与神经网络
里边的自编码.其实自编码严格来说不能算作是深度学习的内容,我们在之前的机器学习算法中也了解到自编码,并且我们会通过一个简单的例子来去说说自编码的理解.首先,我们听到自编码
云时之间
·
2020-03-30 16:35
深度学习与神经网络
:单层感知机
今天这个文章让我们一起来学习下感知机:一个传统的单层感知机如上图所示,其实理解起来很简单,我们可以直接理解为输入节点接受信号之后直接传输到输出节点,然后得到结果y.就和上图一样,我们给出了权向量W=[W1,W2,W3]=[0.3,0.3,0.3],这时候我们输入[X1,X2,X3],并且于输出节点的t相结合,这样就可以得到方程式:y=0.3X1+0.3X2+0.3X3+0.4在我们给定训练数据集之
云时之间
·
2020-03-15 13:17
深度学习与神经网络
实战:快速构建一个基于神经网络的手写数字识别系统
没吃过猪肉,但得看过猪跑。虽然我们暂时对深度学习及神经网路的基本原理知之甚少,但获得深刻理性认识必须建立在足够的感性认知之上,就像掌握游泳技巧的前提是把自己泡到水里。因此我们在研究分析神经网络的技术原理时,先用代码构建一个实用的智能系统,通过运行后看结果的方式,我们就能快速建立起对深度学习相关技术的感知,这为我们后续建立扎实的理论体系奠定坚实的基础。神经网络系统的开发一般都使用python语言,我
望月从良
·
2020-03-02 21:58
深度学习与神经网络
:最值得关注的6大趋势
摘要:
深度学习与神经网络
中最值得关注的6大趋势,您都清楚么?神经网络的基本思想是模拟计算机“大脑”中多个相互连接的细胞,这样它就能从环境中学习,识别不同的模式,进而做出与人类相似的决定。
阿里云云栖号
·
2020-02-23 14:54
深度学习
深度学习与神经网络
的区别可以描述为一句话:深度学习利用神经网络实现了学习过程。
无边小猪
·
2020-02-11 06:46
深度学习与神经网络
学习笔记一
参考文章https://www.analyticsvidhya.com/blog/2016/03/introduction-deep-learning-fundamentals-neural-networks/?spm=5176.100239.blogcont117233.10.n2UTWC概念那些就不解释了,Google一下就有很多资料。单一神经元节点如何工作SingleNNWorkingX1,
浩亮亮亮亮
·
2019-12-25 00:32
分析一套源代码的代码规范和风格并讨论如何改进优化代码
我的工程实践课题是《手写中文汉字识别》,涉及
深度学习与神经网络
方面的知识,因此这里我找了一份对路透社数据集进行文本分类的源码,对其代码规范和风格进行讨论。
Fengyakk
·
2019-10-10 21:00
【实战演练】机器学习系列04-keras搭建手写识别神经网络
(这是一个很基本上所有
深度学习与神经网络
教学案例都会拿来用的手写数字数据集)下载好之后,进入C:\ProgramData\Anaconda3\Lib\site-packages\keras\datasets
繁星亮
·
2019-07-13 23:40
实战演练
机器学习
深度学习
机器学习&神经网络
【
深度学习与神经网络
】学习笔记2
神经网络全连接的神经网络激活函数:由于线性函数不能够很好的来分类,因此需要引入非线性的函数。在神经网络里主要使用ReLU作为激活函数。input(data)➡️hidden(ReLU作为激活函数)➡️output(softmax作为分类器)➡️反向传播➡️求loss函数➡️获取参数把数据进行预处理##卷积神经网络全连接和卷积神经网络的对比:卷积神经网络的组成:输入层(input)卷积层(conv)
Soar_Sir
·
2019-06-16 11:17
神经网络与深度学习
深度学习与神经网络
的关系
从广义上说深度学习的网络结构也是多层神经网络的一种。传统意义上的多层神经网络是只有输入层、隐藏层、输出层。其中隐藏层的层数根据需要而定,没有明确的理论推导来说明到底多少层合适。而深度学习中最著名的卷积神经网络CNN,在原来多层神经网络的基础上,加入了特征学习部分,这部分是模仿人脑对信号处理上的分级的。具体操作就是在原来的全连接的层前面加入了部分连接的卷积层与降维层,而且加入的是一个层级。输入层-卷
Lucky_JimSir
·
2019-06-02 22:33
人工智能
吴恩达《深度学习》笔记一——
深度学习与神经网络
writedbychangfei_lovelife~
深度学习与神经网络
深度学习:训练神经网络的过程目的:学会搭建神经网络,以及如何用数据训练第一部分:逻辑回归&神经元以猫的分类器为例:输入图片(x:特征向量
changfei_1995
·
2019-05-28 22:26
深度学习
【吴恩达】《神经网络和深度学习》第四周编程作业
#-*-coding:utf-8-*-#/usr/bin/python#作者:kimicr#实验日期:20190510#Python版本:3.6.3#《
深度学习与神经网络
》第四周编程作业#建立一个L层深度神经网络实现二分类
kimicren
·
2019-05-12 11:26
python算法实践
【深度学习实践:计算机视觉】深度学习与计算机视觉
1深度学习、计算机视觉、人工智能的关系2图像基础3
深度学习与神经网络
基础3.1神经网络的线性变换3.2卷积神经网络CNN(ConvolutionalNeuralNetwork)
穿着帆布鞋也能走猫步
·
2019-04-15 17:33
深度学习
【笔记】Notes for Deeplearning
深度学习与神经网络
的笔记
NotesforNLPRNN:https://zhuanlan.zhihu.com/p/28054589DTW:https://blog.csdn.net/niyanghuahao/article/details/78612157GMMHMM:https://blog.csdn.net/abcjennifer/article/details/27346787LSTM:https://www.jia
SethChai
·
2018-11-11 10:49
Artificial
Intelligence
其它
深度学习与神经网络
关系
DeepLearning的基本思想假设我们有一个系统S,它有n层(S1,…Sn),它的输入是I,输出是O,形象地表示为:I=>S1=>S2=>…..=>Sn=>O,如果输出O等于输入I,即输入I经过这个系统变化之后没有任何的信息损失(呵呵,大牛说,这是不可能的。信息论中有个“信息逐层丢失”的说法(信息处理不等式),设处理a信息得到b,再对b处理得到c,那么可以证明:a和c的互信息不会超过a和b的互
SethChai
·
2018-10-30 20:39
Artificial
Intelligence
神经网络从何而来?
【嵌牛正文】
深度学习与神经网络
是近几年来计算机与人工智能领域最炙手可热的话题了
楼竞扬
·
2018-10-30 15:30
神经网络从何而来?
【嵌牛正文】
深度学习与神经网络
是近几年来计算机与人工智能领域最炙手可热的话题了
楼竞扬
·
2018-10-30 15:30
人工神经元网络
网络与线性分类器的关系激活函数$f$为连续(可微)2、多层感知器(Multi-LayerPerceptron,MLP)异或问题(XOR)的解决3、反向传播算法4、BP算法步骤5、多样本6、典型的机器学习步骤7、
深度学习与神经网络
的区别附录引言
古路
·
2018-10-27 12:08
神经网络
感知器
BP
MLP
深度学习
模式识别
荐书|图解
深度学习与神经网络
:从张量到TensorFlow实现
点击上方“程序人生”,选择“置顶公众号”第一时间关注程序猿(媛)身边的故事参与文末话题讨论,有机会得图书TensorFlow示例程序+算法示例神经网络深度学习人工智能参考书从AlphaGo到无人驾驶,从量子计算机到马斯克的太空计划,每一个焦点事件的背后都与人工智能有着很大的联系。2016年至今,短短两年的时间,人工智能在与人类生活息息相关的医疗健康、金融、零售、娱乐等方面,发挥出了巨大的潜能。从应
CSDN 程序人生
·
2018-10-14 10:00
深度学习与神经网络
的异同:
1.相同点:二者均采用分层结构,系统包括输入层,隐藏层(多层),输出层组成的多层网络,只有相邻层节点之间有连接,同一层以及跨层节点之间相互无连接,每一层都可以看作是一个logistic回归模型。2.不同点:(1)神经网络:(a)采用BP算法调整参数,即采用迭代式算法来训练整个网络。随机设定初值,计算当前网络的输出,然后根据当前输出和样本真实标签之间的差去改变前面各层的参数,直到收敛;(b)比较容易
沐尔还吃
·
2018-07-21 15:47
机器学习
2018最新
深度学习与神经网络
的计算特点与硬件配置分析
2018最新
深度学习与神经网络
的计算特点与硬件配置分析(一)深度学习训练平台现状与理想的计算架构分析深度神经网络(DNN)计算数据模型繁多,结构复杂,主流模型含几十个隐含层,每层都在上千上万级的神经元,
Qingfeng_915938629
·
2018-04-03 17:16
AI
深度学习
深度学习与神经网络
入门必读5!
梯度下降学习法(感觉英文文章讲的很细,内容其实不多,就是讲的基础了点)既然我们有了神经网络的设计,它怎么能学会识别数字呢?我们首先需要的是一个数据集,用来学习所谓的训练数据集,我们将使用MNIST数据集,其中包含数以万计的手写数字的扫描图像,以及它们的正确分类。MNIST的名字来源于一个事实,即它是由美国国家标准和技术研究所收集的两个数据集的一个修改子集。以下是来自MNIST的一些图片:正如你所看
Li_GaoGao
·
2017-12-20 10:24
深度学习与神经网络
入门必读1!
原文来自:
深度学习与神经网络
英文在线书籍此博客即是此书翻译。之前很想找到这本书的中文版,发现有个哥们要价太贵了。
Li_GaoGao
·
2017-12-14 15:40
神经网络
深度学习
深度学习与神经网络
学习笔记(五)
七、激活函数的使用 通过之前的学习我们都了解到了激活函数的作用,现在我们将会讲解一下激活函数在不同的神经网络中的应用: 1、首先是sigmoid函数:a=11+e−z 它的图像可以表示为: 但是这个激活函数多使用在二分分类输出的神经网络,因为需要寻找1和0值,所以在一般的神经网络中我们很少使用这个激活函数。对应的导数为:g′(z)=a(1−a) 这为后面的计算节省了很多时间。 2、然后
neural_net_child
·
2017-10-24 10:00
神经网络和机器学习
深度学习与神经网络
习题(1)
最近在学习网易云课堂上吴恩达教授的《神经网络与深度学习》的课程,做了第一周的测试题,没有答案,于是想分享自己的参考解析(根据coursera荣誉准则不允许公布答案),以供讨论。1。Whatdoestheanalogy“AIisthenewelectricity”referto?A.Similartoelectricitystartingabout100yearsago,AIistransformi
Ritajiaojiao
·
2017-10-22 10:29
深度学习与神经网络
学习笔记(四)
六、神经网络概览1、整体神经网络的表示 在之前的学习中我们了解到了神经网络的最简单结构,接下来的内容就是把这样一个简单的神经网络拓展成一个很大的神经网络结构的过程。我们以前看到的神经网络是这样的: 而中间的那个小圆点就是y^的一个计算过程(就是下图的a): 现在我们将会拓展到更大的一个神经网络中,类似于: x1−x3表示输入层,输入层后面的三个小圆点表示一个层,我们现在定义它为第一层(隐藏
neural_net_child
·
2017-10-21 14:30
神经网络和机器学习
深度学习与神经网络
学习笔记(三)
四、logistic回归中的梯度下降 我们一般可以通过图中的方式来进行损失函数的求解,而损失函数是怎么反向影响(ω,b)的值的变化的呢?这就要用到导数的知识了,首先我们把损失函数对a求导:d(a)=dL(a,y)d(a)=−ya+1−y1−a 然后再对z求导:d(z)=dL(a,y)d(z)=dL(a,y)d(a)d(a)d(z)=a−y 最后我们分别对各个参数求导就可以得到:d(ω1)=∂
neural_net_child
·
2017-10-18 15:40
神经网络和机器学习
深度学习与神经网络
学习笔记(二)
深度学习与神经网络
学习笔记(二)三、logistic回归1、二分分类 首先如果给你一张图片,你来判断它是否是猫: 对于我们来说这看一眼就会说这是猫,而对于机器来说它会做的判断就会是:是猫(1)和不是猫
neural_net_child
·
2017-10-17 21:35
神经网络和机器学习
深度学习与神经网络
学习笔记(一)
深度学习与神经网络
学习笔记(一)前言 相信很多人对深度学习和神经网络已经有了一个大概的理解,本文就主要是本人在对吴恩达大牛的深度学习和神经网络网易公开课进行学习之后的一些笔记和理解,如果有歧义的地方,
neural_net_child
·
2017-10-17 18:15
神经网络和机器学习
[PDF]AI 机器学习 深度学习 经典书籍汇总下载
还有英文版,中文扫描版,源代码,读书笔记等,非常全面;机器学习-实用案例解析,中英文版,带完整书签;机器学习-周志华老师经典系列,网上流传的基本上都是扫描版,这版本为文字版,可以复制文件出来;
深度学习与神经网络
中文版
zhangling92
·
2017-09-14 13:18
机器学习
神经网络
深度学习
人工智能
【ARM-Linux开发】【CUDA开发】【
深度学习与神经网络
】Jetson Tx2安装相关之三
JetPack(JetsonSDK)是一个按需的一体化软件包,捆绑了NVIDIA®Jetson嵌入式平台的开发人员软件。JetPack3.0包括对JetsonTX2,JetsonTX1和JetsonTK1开发套件的最新L4TBSP软件包的支持。使用最新的BSP(用于JetsonTX1的L4T27.1,用于JetsonTX1的L4T24.2.1和用于JetsonTK1的L4T21.5)自动刷新您的J
Zhang_P_Y
·
2017-07-15 09:16
ARM-Linux开发
神经网络与深度学习
并行计算-CUDA开发
【ARM-Linux开发】【CUDA开发】【
深度学习与神经网络
】Jetson Tx2安装相关之一
IamtryingtoinstalllibrariesontoJetsonTx2usingJetpack3.0.ThehostcomputerhasUbuntu16.04installed.ItriedfollowingtheinstructionsgivenintheJetPackdocumentationwhichalsoflashestheOS.Ithassuccessfullyflashe
Zhang_P_Y
·
2017-07-13 16:26
ARM-Linux开发
神经网络与深度学习
并行计算-CUDA开发
系统学习深度学习(一) --
深度学习与神经网络
关系
参考:http://blog.csdn.net/zouxy09/article/details/8775518最近开始学习深度学习,基本上都是zouxy09博主的文章,写的蛮好,很全面,也会根据自己的思路,做下删减,细化。DeepLearning的基本思想 假设我们有一个系统S,它有n层(S1,…Sn),它的输入是I,输出是O,形象地表示为:I=>S1=>S2=>…..=>Sn=>O,如
Eason.wxd
·
2017-01-10 11:39
深度学习
上一页
1
2
3
4
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他