E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
NLP+机器翻译
花书《深度学习》《Deep Learning》学习笔记chapter 5 (1)
5.1学习算法5.1.1任务,T常见机器学习任务列举:分类,输入缺失分类,回归,转录,
机器翻译
,结构化输出,异常检测,合成和采样,缺失值填补,去噪,密度估计或概率分布律函数估计5.1.2性能度量,P**
no0758
·
2023-01-30 13:59
Sampled softmax模型:On Using Very Large Target Vocabulary for Neural Machine Translation
https://arxiv.org/abs/1412.2007参考连接:https://blog.csdn.net/wangpeng138375/article/details/75151064一、神经
机器翻译
神经
机器翻译
一般使用
菜小白—NLP
·
2023-01-30 12:49
NLP
自然语言处理
深度学习
Transformer onnx模型的导出
当decoder为多步解码时,如生成式任务中的
机器翻译
、文本摘要等,由于decoder需要多次用到,问题变得稍稍复杂了一点。由于onnx对多步解码的支持较差,我们选择将模型拆分成en
haroldLiu001
·
2023-01-30 08:37
transformer
深度学习
自然语言处理
推荐一本好书《金钱心理学》
刚看完《金钱心理学》,强烈推荐给大家,我做了很多笔记,能好好消化其中某几条都很受用目前国内还没有中文版,我找了一个朋友帮忙
机器翻译
了,基本能看,需要的可以私信我决定你跟金钱的关系的,是你的行为,而不是你的智力和知识
国俊带你学投资
·
2023-01-29 17:12
【Pytorch项目实战】之
机器翻译
:编码器-解码器、注意力机制AM
文章目录
机器翻译
-中英文翻译算法一:编码器-解码器(Encoder-Decoder)算法二:注意力机制(AttentionModel,AM)2.1为何要引入注意力机制?
胖墩会武术
·
2023-01-29 11:11
Pytorch项目实战
深度学习
pytorch
机器翻译
深度学习
人工智能
python
NLP | 注意力机制Attention Mechannism图文详解及代码
1.注意力机制注意力机制是深度学习的最新进展之一,特别是对于
机器翻译
、图像字幕、对话生成等自然语言处理任务。它是一种旨在提高编码器解码器(seq2seq)RNN模型性能的机制。
夏天|여름이다
·
2023-01-28 13:19
-
NLP
-
自然语言处理
深度学习
人工智能
注意力机制
直播预告 | 北京大学、北京航空航天大学、阿里巴巴、小米的四位讲者来啦!...
4月27日19:30-20:30陈亮:吉林大学本科生,北京大学计算机学院计算语言所准研究生,主要研究方向为语义分析,
机器翻译
,本工作为在计算
AITIME论道
·
2023-01-28 07:11
人工智能
算法
大数据
机器学习
深度学习
编码器解码器架构、Seq2Seq简要笔记
编码器解码器架构后续自然语言处理都基本使用这个架构来实现的Seq2Seq最早是用来做
机器翻译
的,现在用Bert比较多,Seq2Seq是一个Encoder-Decoder的架构,Seq2Seq模型的编码器使用的
思考实践
·
2023-01-27 11:54
#
NLP与推荐系统
seq2seq
attention
self-attention
深度学习07 - Attention机制-seq2seq序列模型
1、seq2seq简介Seq2Seq模型是输出的长度不确定时采用的模型,这种情况一般是在
机器翻译
的任务中出现,将一句中文翻译成英文,那么这句英文的长度有可能会比中文短,也有可能会比中文长,所以输出的长度就不确定了
NULL326
·
2023-01-27 11:23
深度学习基础
递归神经网络LSTM详解:为什么用sigmoid,tanh不用relu?
递归神经网络因为具有一定的记忆功能,可以被用来解决很多问题,例如:语音识别、语言模型、
机器翻译
等。但是它并不能很好地处理长时依赖问题。2.LSTM长时依赖是这样的一个问题,当预测点与依赖
nnnancyyy
·
2023-01-26 19:57
神经网络
lstm
深度学习
对注意力机制(Attention)的一些理解附上Bi-LSTM和seq2seq加上注意力机制的代码
主要计算过程(当时她讲的是
机器翻译
的例子)就是编码器所有的隐藏层以及解码器当前的隐藏层一起计算出attention后再计算出context-vector
Icy Hunter
·
2023-01-26 16:47
pytorch
机器翻译
深度学习
自然语言处理
注意力机制
机器翻译
Machine Translation及其Tensorflow代码实现(含注意力attention)
机器翻译
翻译句子xxx从一种语言(源语言)到句子yyy另一种语言(目标语言)。下面这个例子就是从法语转换成为英文。
野营者007
·
2023-01-26 16:45
自然语言处理(NLP)技术入门
tensorflow
机器翻译
attention
自然语言处理
深度学习
摘录: 斯蒂芬 茨威格《人类群星闪耀时》 前言
前言评论:按理说,寻章摘句往往两三句话,精辟的好玩的就够了,但是这一段感觉似乎得都放在这里才显得好看,或者说是,完整.维基上看到这本书的原名叫做"SternstundenderMenschheit",
机器翻译
是
_Chance_Zhang
·
2023-01-26 11:02
RNN模型与NLP应用:Attention-8/9
前言二、attention改进seq2seq模型三、总结四、参考连接一、前言Seq2seq模型个别词语被忘记了,那么decode就无从得知完整的句子,也就不可能产生正确的翻译,如果你拿seq2seq做
机器翻译
黄乐荣
·
2023-01-26 03:12
ViT——ShuSenWang
自然语言处理
[转]语言模型训练工具SRILM
是一个建立和使用统计语言模型的开源工具包,从1995年开始由SRI口语技术与研究实验室(SRISpeechTechnologyandResearchLaboratory)开发,现在仍然不断推出新版本,被广泛应用于语音识别、
机器翻译
等领域
weixin_34332905
·
2023-01-26 03:11
人工智能
大数据
数据结构与算法
基于Seq2Seq模型的
机器翻译
如标题所见,这篇博客的主题就是基于Seq2Seq模型的
机器翻译
,它的主要任务就是将一种语言翻译为另一种语言,在这里我们以英语翻译成法语为例子,如I'mastudent.
我就算饿死也不做程序员
·
2023-01-26 03:41
tensorflow
自然语言处理
python
深度学习
tensorflow
机器翻译
seq2seq
keras
手把手教你用Keras实现英文到中文
机器翻译
seq2seq+LSTM
原文链接:https://blog.csdn.net/qq_44635691/article/details/106919244该模型实现的是英文到中文的翻译,下图为了更好展示模型架构借用大佬的图(这里没有用到Embeddings):本文完整代码:Github目录一、处理文本数据1.获得翻译前后的句子2.创建关于字符-index和index-字符的字典3.对中文和英文句子One-Hot编码二、建立
stay_foolish12
·
2023-01-26 03:41
自然语言处理
python
Transformer
Bert
enocoder
decoder
Seq2Seq
attention-seq2seq:实现中英翻译
在我前一篇博客用attention-seq2seq模型实现了法语-英语的翻译:基于pytorch的attention-seq2seq实现
机器翻译
。
Hilbob
·
2023-01-26 03:40
NLP
nlp
gru
机器翻译
pytorch
解决seq2seq+attention
机器翻译
中的技术小难题
1源码首先上源码:https://github.com/keon/seq2seq通常我们使用这个源代码来学习
机器翻译
的模型架构,但是会遇到诸多小技术问题。
料理码王
·
2023-01-26 03:10
NLP
机器翻译
人工智能
自然语言处理
seq2seq
attention
基于pytorch的attention-seq2seq实现
机器翻译
按照pytorch官网的seq2seq例子整理了一下,使用GRU作为编解码器实现了带注意力的seq2seq模型,代码和数据集已上传到github(已更新,上传了训练好的模型和测试代码),有需自取:https://github.com/JingBob/attention-seq2seq一、attentionseq2seq简介网上已有很多讲解,这里不仔细展开,具体可参考《全面解析RNN,LSTM,Se
Hilbob
·
2023-01-26 03:10
NLP
深度学习
nlp
pytorch
机器翻译
gru
使用Seq2Seq实现中英文翻译
介绍DeepNLP自然语言处理NLP是计算机科学、人工智能和语言学交叉领域的分支科学,主要让计算机处理和理解自然语言,如
机器翻译
、问答系统等。
big_matster
·
2023-01-26 03:39
自然语言处理
深度学习
机器学习(三):人工智能主要分支
文章目录人工智能主要分支一、计算机视觉二、语音识别三、文本挖掘/分类四、
机器翻译
五、机器人人工智能主要分支通讯、感知与行动是现代人工智能的三个关键能力,在这里我们将根据这些能力/应用对这三个技术领域进行介绍
Lansonli
·
2023-01-26 02:35
人工智能基础入门
人工智能
机器翻译
数据集
1.Aichallengertranslation2017链接:https://pan.baidu.com/s/1E5gD5QnZvNxT3ZLtxe_boA提取码:stjf复制这段内容后打开百度网盘手机App,操作更方便哦2.http://www.statmt.org/wmt17/translation-task.html#download转载于:https://www.cnblogs.com/
weixin_30883311
·
2023-01-25 09:30
人工智能
常用数据集
机器翻译
任务1、
机器翻译
WMT系列:WMT2017、WMT2018、WMT2019。
不负韶华ღ
·
2023-01-25 09:29
机器学习
数据仓库
sequence2sequence
blog.csdn.net/dcrmg/article/details/80327069sequencetosequence模型是一类End-to-End的算法框架,也就是从序列到序列的转换模型框架,应用在
机器翻译
杨戬没有你我怎么活
·
2023-01-25 07:43
机器学习
深度学习的Attention机制,看这一篇文章就够了
机器翻译
理论部分在NLP中给定一个序列,输出另
小浩弟
·
2023-01-24 17:18
Deep
Learning
人工智能
深度学习
自然语言处理
【论文翻译】Attention Is All You Need
在两个
机器翻译
任务上的实验表明,这些模型在质量上更优越,同时更具有并行性,需要的训练时间也大
weixin_50862344
·
2023-01-24 07:07
姿态估计
深度学习
自然语言处理
人工智能
浅析Attention在推荐系统中的应用(1)Attention简介
欢迎关注本人公众号:petertalks前言Attention最早应用于图像领域,而后大面积用于seqs2seqs类型的任务如
机器翻译
等。
东南枝DP
·
2023-01-23 08:20
算法
机器学习
推荐系统
推荐系统
深度学习
attention
机器学习
nlp
Attention Mechanism
注意力机制是一种很有用的提高措施,在
机器翻译
、图像描述生成、图像语义分割等方面都有很重要的作用。今天我想要重点回顾和学习一下注意力机制的各种使用场合。
Ritchie_Leung
·
2023-01-22 23:06
深度学习
NLP
Attention
Mechanism
CS224N
注意力机制
机器翻译
NMT
深度学习(1)---2017年深度学习NLP重大进展与趋势
而
机器翻译
的进步或许是最显著的。本文,我将概述2017年深度学习技术在NLP领域带
zhangbijun1230
·
2023-01-22 13:17
深度学习
Coggle 30 Days of ML(23年1月)打卡
常见的NLP技术包括语音识别、文本分析、
机器翻译
等。这些技术都是基于人工智能和机器学习的算法来实现的。文本匹配是自然语言处理中的一种常见任务。它可以用来判断两个文本之间的相似度或相关性。
yychengchen
·
2023-01-22 12:55
自然语言处理
人工智能
吴恩达《深度学习-序列模型》3 -- 序列模型和注意力机制
2.Pickingthemostlikelysentence最优句子如图,是语言模型和
机器翻译
的流程对比,可以发现语言模型和
机器翻译
的
寻梦梦飞扬
·
2023-01-22 08:52
深度学习
自然语言处理——文本分类综述
最近在学习文本分类,读了很多博主的文章,要么已经严重过时(还在一个劲介绍SVM、贝叶斯),要么就是
机器翻译
的别人的英文论文,几乎看遍全文,竟然没有一篇能看的综述,花了一个月时间,参考了很多文献,特此写下此文
big_matster
·
2023-01-22 07:25
文本分类
自然语言处理
分类
机器学习
TASK05-
机器翻译
@[TOC](机器相关及相关技术)
机器翻译
(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经
机器翻译
(NMT)。主要特征为:输出是单词序列而不是单个单词。
中古传奇
·
2023-01-21 21:53
人工智能AI
神经网络
深度学习
NLP中Transformer模型详解
先从self-attention说起:
机器翻译
,语音辨识我们先说第一种情况:一对一的情况一个很大的window(比如cover整个sequence)会导致参数过多,同时也会过拟合我们现在需要找出一个sequence
滴滴-学生卡
·
2023-01-21 08:23
NLP
自然语言处理
transformer
深度学习
Attention、self-attention:从计算、公式的角度详解
v=XhWdv7ghmQQGitHub-wangshusen/DeepLearning以
机器翻译
、rnn-seq2se2引入attention为例1.attention最早提出attention的是15
ZcsLv_zyq
·
2023-01-21 01:51
深度学习
nlp
深度学习
自然语言处理
人工智能
attention机制
深度学习——
机器翻译
数据集(笔记)
机器翻译
将序列从一种语言自动翻译成另一种语言如何将预处理的数据加载到小批量进行训练1.下载数据集下载“英-法”数据集①数据集的每一行都是制表符\t分隔的文本序列对②序列对由英文序列和翻译后的法语序列组成
钟楼小奶糕6
·
2023-01-20 09:43
深度学习
机器翻译
python
87.序列到序列学习(seq2seq)以及代码实现
1.
机器翻译
2.Seq2Seq双向RNN可以做encoder,但不能做decoder。
chnyi6_ya
·
2023-01-20 07:10
深度学习
学习
深度学习
85.
机器翻译
与数据集
语言模型是自然语言处理的关键,而
机器翻译
是语言模型最成功的基准测试。因为
机器翻译
正是将输入序列转换成输出序列的序列转换模型(sequencetransduction)的核心问题。
chnyi6_ya
·
2023-01-19 09:19
深度学习
机器翻译
自然语言处理
人工智能
医疗AI实践与思考汇总
深度学习技术在许多医学问题上取得成功:医学图像分类和分割:CNN文本中信息抽取、疾病预测:CNN、RNN、transformer病患语音识别和
机器翻译
:RNN、Seq2Seq体征检测和疾病风险评估:RNN
梦无痕123
·
2023-01-18 18:58
人工智能
transformer
深度学习
CS224N WINTER 2022(一)词向量(附Assignment1答案)
反向传播、神经网络、依存分析(附Assignment2答案)CS224NWINTER2022(三)RNN、语言模型、梯度消失与梯度爆炸(附Assignment3答案)CS224NWINTER2022(四)
机器翻译
囚生CY
·
2023-01-18 17:12
CS224N课程系列
自然语言处理
机器学习
数据挖掘
深度学习
线性代数
人工智能导论 第一章 绪论
1.1引入身边的人工智能产品:家庭助手指纹门锁、扫地机器人、个人助手、智能音箱、小度机器人在线翻译旧翻译方法:统计
机器翻译
SMT将两种语言中同义的句子切分成词进行匹配,所有结论都是机器根据统计数据得出类型
synthesis_UMR
·
2023-01-18 17:07
学习笔记
其他
关于神经网络深度学习的几个实验
目录前言一、MNIST-全连接二、CNN卷积神经网络三、RNN-文本分类四、CGAN-MNIST-数字识别五、ResNet-残差神经网络六、Stack-AEAutoEncoder七、
机器翻译
八、目标检测总结前言都是在
点名好运
·
2023-01-18 11:39
机器学习
人工智能
语义表征的无监督对比学习:一个新理论框架
a6673767215210168836/译者|Linstancy责编|琥珀出品|AI科技大本营(ID:rgznai100)诸如图像、文本、视频等复杂数据类型的语义表征(也称为语义嵌入)已成为机器学习的核心问题,并在
机器翻译
喜欢打酱油的老鸟
·
2023-01-17 19:39
人工智能
无监督对比学习
AAAI'23 | 利用大规模辅助数据提升端到端语音翻译系统
作者|张裕浩单位|东北大学自然语言处理实验室来自|
机器翻译
学堂【导读】本文由论文原作者撰写,介绍作者团队设计的一种多阶段的预训练方法,利用有标注和无标注数据来提升端到端的语音翻译系统性能。
zenRRan
·
2023-01-17 15:50
语音识别
人工智能
读论文——Transform
第一遍题目:Attentionisallyouneed作者:AshishVaswani谷歌大脑实验室摘要:提出一个纯使用注意力机制的编码-解码器优点:
机器翻译
任务上,模型具有更好的表现,且训练时间更短(
前行follow
·
2023-01-17 11:53
#
自然语言处理
深度学习
神经网络
自然语言处理
NER命名实体识别,基于数据是字典的形式怎么识别
命名实体识别应用场景:命名实体识别经常用来做关系抽取、事件抽取、知识图谱、信息提取、问答系统、句法分析、
机器翻译
等诸多NLP任务的基础,被广泛应用在自然语言处理领域。
Aɢᴀɪɴ .
·
2023-01-17 10:36
手把手教你解读Bert结构及代码分析
首先来看Transformer结构图.transformer一开始是用来做
机器翻译
的模型。所以他是一个传统的Seq2Seq结构,包括一个Encoder和Decoder。
learn-to-live
·
2023-01-17 07:27
AI
算法
自然语言处理
英语不好,对 SAP 英文文档有所畏惧,该怎么办?
原因如下:SAP原版的英文文档最为权威,而官方网站上其他语言比如中文版的帮助文档,有些是
机器翻译
的,咱们读
·
2023-01-16 22:07
Mega 改进序列模型,引入移动平均捕捉时空依赖
通过在广泛的序列建模基准上进行实验,比如LongRangeArena、神经
机器翻译
、自回
·
2023-01-16 15:02
计算机视觉
上一页
15
16
17
18
19
20
21
22
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他