E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
RNNs
回归神经网络的不合理有效性
rnn-effectiveness/推荐这个看上去很牛逼的网站:http://www.52nlp.cnAndrejKarpathy博客关于Hacker的神经网络指南回归神经网络的不合理有效性2015年5月21日回归神经网络(
RNNs
mysonghushu
·
2020-06-21 01:10
神经网络
Deep Learning on Graphs: A Survey(图的深度学习综述)
目录摘要:1.介绍2.符号和序言3.图递归神经网络3.1节点级
RNNs
3.2图级别的
RNNs
4.图卷积网络(GCNs)4.1卷积操作4.1.1光谱法4.1.2效率方面4.1.3多图方面4.1.4框架4.2
灬Miracle丶
·
2020-06-20 23:00
综述
深度学习
智能交通的深度学习综述-基于图卷积神网络
Researchdirections,ChallengesProblemsformulationandGraphconstructionDeepLearningtechniquesperspective(1)概要(2)GNNs(3)
RNNs
大奸猫
·
2020-05-26 09:11
论文
图神经网络
深度学习
智能交通
tcn
GNNs
如何用RNN实现语音识别?
但是,网上目前关于
RNNs
的基础介绍很少,本文便是介绍
RNNs
的基础知识,原理以及在自然语言处理任务重是如何实现的。文章内容根据雷锋网
十二_55f3
·
2020-04-11 00:59
循环神经网络
本文介绍
RNNs
及一种广泛应用的
RNNs
——LSTM。Motivations人类的思维并非每时每刻都从0开始,我们需要基于之前的理解来构造当前的理解——人类的思维具有时间上的延续性。
Yihong_Daily
·
2020-04-08 02:25
《Collaborative Filtering with Recurrent Neural Networks》简介
四、主要方法4.1
RNNs
(LSTM)将数据集中出现的每个item视作一个词,item的集合视作词的集合。借用bag-of-words
adcll0910
·
2020-04-05 10:04
[福利] 深入理解
RNNs
& LSTM 网络学习资料
图解LSTMLSTMBlockLong_Short_Term_MemoryWebPageTensorFlow官方LSTM教程(colah大神Blog):UnderstandingLSTMNetworks(英文)Not_GOD译文:[译]理解LSTM网络Wikipedia:Long_short-term_memorytheano官网的LSTM教程+代码:LSTMNetworksforSentimen
zhwhong
·
2020-03-29 21:17
CS20si 第11课:
RNNs
和TensorFlow语言建模
第11课-
RNNs
和TensorFlow语言建模CS20si课程资料和代码Github地址第11课-
RNNs
和TensorFlow语言建模从前馈网络到循环神经网络(
RNNs
)时间上反向传播(BPTT)门控循环单元
tech0ne
·
2020-03-25 09:03
循环神经网络RNN LSTM Pytorch的运用 padding处理
详细展示RNN的网络结构循环神经网络(RecurrentNeuralNetwork,RNN)和LSTMRNN理解(相同参考文献)常见RNN及其架构LSTMlstm理解与使用(pytorch为例)本文介绍
RNNs
Yummy_Ou
·
2020-03-23 22:57
Python
机器学习
神经网络
深度学习
python
[译]Recurrent Neural Networks Totorial part1
RecurrentNeuralNetworks(
RNNs
)作为一个很受欢迎的模型,已经在许多NLP任务展现了巨大的潜力。
此番风景
·
2020-03-17 02:08
资源 | 吴恩达斯坦福CS230深度学习课程全套资料放出(附下载)
具体将涉及卷积网络,
RNNs
,LSTM,Adam,Dropout,BatchNorm,Xavier/He初始化等,还提供医疗,自动驾驶
倔强_beaf
·
2020-03-15 21:24
Finding Structure in Time Review on
RNNs
ARigorous&ReadableReviewonRNNs02JUNE2015onMachineLearningThispostintroducesanewCriticalReviewonRecurrentNeuralNetworksforSequenceLearning.Twelvenightsback,whileuplatepreparingprettypicturesforareviewo
hzyido
·
2020-03-04 18:11
Recurrent Neural Networks (
RNNs
)
许多应用涉及时间依赖,或基于时间依赖。这表示我们当前输出不仅仅取决于当前输入,还依赖于过去的输入。RNN存在一个关键缺陷,因为几乎不可能捕获超过8或10步的关系。这个缺陷源于“消失梯度”问题,其中信息的贡献随时间在几何上衰减。长短期存储单元(LSTM)和门控循环单元(GRU)通过帮助我们应用具有时间依赖性的网络,为消失的梯度问题提供了解决方案。LSTMGRU在我们探寻循环神经网络之前,先回忆一下前
徐凯_xp
·
2020-03-04 09:12
神经网络大串讲
、GRU、LSTM串讲:http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part-1-introduction-to-
rnns
Babyzpj
·
2020-03-02 20:11
用引导对象生成图像描述(Intention Oriented Image Captions with Guiding Objects 翻译)
论文来自CVPR2019论文地址:https://ieeexplore.ieee.org/document/8954294/用引导对象生成图像描述概要虽然现有的图像描述模型可以使用递归神经网络(
RNNs
二十三冰芒
·
2020-03-01 18:35
长短期记忆网络(LSTM)简述
RNNs
也叫递归神经网络序列,它是一种根据时间序列或字符序列(具体看应用场景)自我调用的特殊神经网络。将它按序列展开后,就成为常见的三层神经网络。常应用于语音识别。
轻舟
·
2020-03-01 12:14
用序列稀疏恢复实现可解释的循环神经网络
但是,
RNNs
通常被视为一个黑箱子模型,而其内部的结构和参数的学习都是不能解释的。
琳琅_girl
·
2020-02-27 20:18
深度学习 CNTK使用入门
可以训练DNNs、
RNNs
、CNNs、LTMS、罗杰斯特回归及最大熵模型,对于在做深度学习的朋友会有帮助。下面介绍CNTK中的几个样例的使用:1.首先下载工具包及源码。下载地址http
xiaozhuo12138
·
2020-02-26 17:56
《动手学》:Transformer_课后作业
Transformer在之前的章节中,我们已经介绍了主流的神经网络架构如卷积神经网络(CNNs)和循环神经网络(
RNNs
)。让我们进行一些回顾:CNNs易于并行化,却不适合捕捉变长序列内的依赖关系。
木头杨_88f8
·
2020-02-19 19:51
L12 Transformer
Transformer在之前的章节中,我们已经介绍了主流的神经网络架构如卷积神经网络(CNNs)和循环神经网络(
RNNs
)。让我们进行一些回顾:CNNs易于并行化,却不适合捕捉变长序列内的依赖关系。
rainman999
·
2020-02-14 16:00
深入浅出LSTM神经网络
而根据深度学习三大牛的阐述,LSTM网络已被证明比传统的
RNNs
更加有效。本文由加州大学圣迭戈分校(UCSD)研究机器学习理论和应用的博士生ZacharyChaseLipton撰写,用浅显的语
sand_d8f0
·
2020-02-09 08:25
LPRnet轻量级实时车牌识别,主网络代码以及论文思路简要介绍
据我们所知,LPRNet是第一个没有采用
RNNs
的实时车牌识别系统。因此,LPRNet算法可以为LPR创建嵌入式部署的解决方案,即便是在具有较高挑战性的中文车牌识别上。
暳花season
·
2020-02-06 13:00
「自然语言处理(NLP)论文推送」ACL&&微信AI团队(含源码)808
第二篇文章主要是针对递归神经网络
RNNs
在全局信息建模上的不足,提出了一种全局上下文增强的深度转换架构(美其名曰:GCDT
Shu灬下雨天
·
2020-01-18 00:58
神经网络优化算法的选择
Momentum基础上做过优化)Adagrad:自适应地为各个参数分配不同学习速率Adadelta:针对Adagrad问题,优化过的算法(在Adagrad基础上做过优化)RMSprop:对于循环神经网络(
RNNs
小知识传送门
·
2020-01-05 17:29
深度学习,NLP和表征(译:小巫)
译自:https://colah.github.io/posts/2014-07-NLP-
RNNs
-Representations/发布于2014年7月7日神经网络,深度学习,表征,NLP,递归神经网络介绍在过去的几年里
IT_xiao小巫
·
2019-12-28 23:52
7.循环神经网络(RNN) 基础讲解
设计
RNNs
的目的,就是处理序列数据。在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是
_木豆_
·
2019-12-26 18:37
吴恩达斯坦福CS230深度学习课程全套资料放出(附下载)
具体将涉及卷积网络,
RNNs
,LSTM,Adam,Dropout,BatchNorm,Xavier/He
大数据文摘
·
2019-12-15 22:32
TensorFlow教程(4)-Attention机制
原理介绍图片1图片2图片3更多资料:https://distill.pub/2016/augmented-
rnns
/#attentional-interfaceshttps://www.cnblogs.com
致Great
·
2019-12-01 16:36
第九章:序列处理与循环网络_Dan Jurafsky《自然语言处理综述》(第三版)读书笔记
简单的循环神经网络9.1.1简易RNN中的推理9.1.2训练9.1.3将网络展开为计算图9.2循环神经网络的应用9.2.1循环神经语言模型神经语言模型用于生成9.2.2序列标注维特比和条件随机场(CRFs)9.2.3
RNNs
袁乃青
·
2019-11-03 22:11
NLP
RECURRENT NEURAL NETWORKS TUTORIAL
RECURRENTNEURALNETWORKSTUTORIAL循环神经网络(RecurrentNeuralNetworks,
RNNs
,递归神经网络)是一种在自然语言处理方面大有前途的模型。
NanLi
·
2019-10-31 20:43
教你用ANNs,
RNNs
和LATMs构建“私人助理”
全文共3390字,预计学习时长7分钟你是否曾幻想过拥有一个私人助理,可以回答你的任何问题或者能够与你交谈?幸好有机器学习与深度神经网络,使得这一梦想不再遥远。想想苹果的Siri和亚马逊的Alexa的神奇功能吧!但也不要太激动,因为在接下来文章中要创建的并不是一个无所不能的人工智能,而仅仅是一个简单的聊天机器。它被输入了一些问题和相应的答案,人们向它提问时,它可以回答是或不是。它与Siri或Alex
读芯术
·
2019-08-01 11:43
干货文章
干货文章
12月份GitHub上最热门的开源项目
1practicalAIStar11768https://github.com/GokuMohandas/practicalAI这是一个帮助你入门深度学习的项目,本项目一共分为4大部分,分别为:基础、深度学习、
RNNS
上天眷顾我
·
2019-06-28 10:05
iOS开发
TensorFlow 2.0高效开发指南
TensorFlow2.0删除了篇冗余API,使API更加一致(统一
RNNs
,统一优化器),并通过Eagerexecution更好地与Python集成。
算法学习者
·
2019-05-27 17:31
DL
tensorflow
元学习发展
来自维基百科Someapproacheswhichhavebeenviewedasinstancesofmetalearning:Recurrentneuralnetworks(
RNNs
)areuniversalcomputers.In1993
vieo
·
2019-05-25 15:30
深度学习
元学习
(译)理解LSTM网络 ----Understanding LSTM Networks by colah
遗忘门2.inputgatelayer3.outputgatelayer4LSTM的变种GRU4.1.GRU与LSTM的对比5.其它变种5.1.peepholeconnections1.RNN的不足之处在
RNNs
wamg潇潇
·
2019-04-03 13:57
深度学习
我们期待的TensorFlow 2.0还有哪些变化?
来源|GoogleTensorFlow团队为提高TensorFlow的工作效率,TensorFlow2.0进行了多项更改,包括删除了多余的API,使API更加一致统一,例如统一的
RNNs
(循环神经网络)
AI科技大本营
·
2019-02-17 20:58
LSTM择时+StockRanker选股的可视化策略实现
一、LSTM算法简介LSTMNetworks是递归神经网络(
RNNs
)的一种,该算法由SeppHochreiter和JurgenSchmidhuber在NeuralComp
BigQuant
·
2019-01-30 15:03
transform-xl翻译
递归神经网络(
RNNs
),尤其是LSTM(Hochreiter&Schmidhuber,1997),已经成为语言建模的标准解决方案,并在多个基准上取得了很好的效
Anny琳琳
·
2019-01-22 20:00
自然语言
【深度学习】LSTM的架构及公式
LSTM:longshorttermmemorynetworks(长短时记忆模型)传统的
RNNs
只能解决短期依赖的问题,比如我们想预测这句话“thecloudsareinthesky”的最后一个词"sky
Alexbyy
·
2019-01-22 11:33
机器学习
CTC损失函数及其实现[1]
RNNs
似乎是一种适合这种任务的强大的序列学习器,但是,由于需要预分割的训练数据,以及需要后处理,将
RNNs
的输出转换为标签序列,使得该方法的应用受到限制。参考文
gukedream
·
2019-01-18 14:21
pytorch
深度学习
OCR
12月份GitHub上最热门的开源项目
1practicalAIStar11768https://github.com/GokuMohandas/practicalAI这是一个帮助你入门深度学习的项目,本项目一共分为4大部分,分别为:基础、深度学习、
RNNS
IMGeek
·
2019-01-14 18:40
12月份GitHub上最热门的开源项目
1practicalAIStar11768https://github.com/GokuMohandas/practicalAI这是一个帮助你入门深度学习的项目,本项目一共分为4大部分,分别为:基础、深度学习、
RNNS
IMGeek
·
2019-01-14 18:40
深度学习中,必须要懂的4个信息论的概念
一些来自信息论或相关领域的AI概念的例子:常用的交叉熵损失函数基于最大信息增益构建决策树Viterbi算法广泛应用于NLP和语音编码器-解码器的概念,广泛用于机器翻译的
RNNs
和各种其他类型的模型ClaudeShannon
LoveChris_LL
·
2019-01-06 17:03
Recurrent Neural Networks Tutorial, Part 1 – Introduction to
RNNs
RecurrentNeuralNetworks(
RNNs
)arepopularmodelsthathaveshowngreatpromiseinmanyNLPtasks.ButdespitetheirrecentpopularityI
Wei-L
·
2018-12-27 14:50
Artificial
Intellegence
Deep
Learning
12.10序列处理深度模型 RNN+LSTM
卷积网络的输入和输出多为固定尺寸(样本大小和模式)2.解决序列问题:语言问题,时间序列预测问题(和基础单位相关)需要保存上下文信息,很难/无法选择上下文窗口大小二:RecurrentNeutralNetworks(
RNNs
DafengChi
·
2018-12-10 10:31
信息基础
基于LSTM的股票价格预测模型【附源码】
LSTM(LongShortTermMemory)是一种特殊的RNN类型,同其他的
RNNs
相比可以更加方便地学习长期依赖关系,因此有很多人试图将其应用于时间序列的预测问题上。
BigQuant
·
2018-11-13 18:08
机器学习与深度学习系列连载: 第二部分 深度学习(十三)循环神经网络 1(Recurre Neural Network 基本概念 )
循环神经网络1(RecurreNeuralNetwork基本概念)循环神经网络的特点:•
RNNs
在每个时间点连接参数值,参数只有一份•神经网络出了输入以外,还会建立在以前的“记忆”的基础上•内存的要求与输入的规模有关当然
人工智能插班生
·
2018-11-08 10:35
深度学习
神经网络
深度学习
用python实现LSTM/GRU
LSTMNETWORKS前面提到,梯度消失问题能够阻止标准
RNNs
学习长距离的依赖关系。LSTMs通过门控
频率52HZ
·
2018-09-15 10:40
深度学习
递归神经网络教程,第1部分 - RNN简介
这是一个多部分系列,我计划在其中涵盖以下内容:
RNNs
简介(本文)使用Python和Theano实现RNN了解反向传播时间(BPTT)算法和消失的梯度问题实现GRU/LSTMRNN作为教程的一部分,我们将实现基于递归
BruceCheen
·
2018-07-15 16:47
神经网络
LSTM神经网络知识---资源整理
简单总结下:1)递归神经网络RecurrentNeuralNetworks(
RNNs
):当前时刻的输出,不仅与当前时刻的输入有关,与上一时刻的输出也有关,所有的递归神经网络都是由重复神经网络模块构成的一条链
Mr.Q
·
2018-07-05 21:46
Deep
Learning
Python
tensorflow
上一页
1
2
3
4
5
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他