E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
【机器翻译】
python lstm 模型训练好后如何使用_【自然语言处理】的迁移学习:微调BERT来对垃圾邮件进行分类【含Python演示】...
随着深度学习的发展,递归神经网络(RNN和LSTM)和卷积神经网络(CNN)等神经网络结构已经完成了自然语言处理(NLP)的大部分任务,它在文本分类、语言建模、
机器翻译
等性能上都有了很大的提高。
weixin_39593744
·
2022-12-14 20:40
python
lstm
模型训练好后如何使用
一篇文章把Self-Attention与Transformer讲明白
答:编码器-解码器(Encoder-Decoder)模型最初是由Cho等提出应用在
机器翻译
中。
风度78
·
2022-12-14 10:58
【ICLR2021】十三大主题100篇值得一读的NLP论文,还不安排上?
理论、模型与经验性分析:38篇问答与阅读理解:4篇知识图谱:4篇文本生成:9篇
机器翻译
:7篇对抗攻击:4篇文本分类:2篇信息抽取:4篇可解释性:1篇模型压缩与集成:4篇数据增强:2篇向量表示:12篇其他
zenRRan
·
2022-12-14 06:49
自然语言处理
计算机视觉
机器学习
人工智能
deep
learning
使用MindStudio进行mbart模型训练
以前的多语言预训练工作表明,
机器翻译
系统可以通过在咬文嚼字上进行微调来创建。在这项工作中,作者表明,多语言翻译模型可以通过多语言微调。
weixin_38239810
·
2022-12-13 16:28
深度学习
神经网络
图文详解Transformer
俯视Transformer本文以
机器翻译
为例,先整体来看Tranformer的结构,然后
谈笑风生...
·
2022-12-13 16:09
自然语言处理
【NLP】Seq2Seq原理详解
很多自然语言处理任务,比如聊天机器人,
机器翻译
,自动文摘,智能问答等,传统的解决方案都是检索式(从候选集中选出答案),这对素材的完善程度要求很高。se
马苏比拉米G
·
2022-12-13 10:19
NLP
Seq2Seq--原理
用途很广,
机器翻译
,自动摘要,对话系统,只要是序列对序列的问题都能来搞。
终极香蕉大菠萝
·
2022-12-13 10:49
Artificial
Neural
Networks
NLP——Seq2Seq基本原理以及Attention改进
NLP——Seq2Seq基本原理以及Attention改进1、Seq2Seq的基本结构1.1、Seq2Seq引入Seq2Seq本身是从
机器翻译
中发展过来的,他的基本思想是设计一个符合序列输入的编码器,输入一个序列数据
隔壁的NLP小哥
·
2022-12-13 09:36
NLP学习
机器学习
神经网络
Seq2Seq + attention 模型原理、训练,以及编码过程
这个模型曾经使得谷歌翻译有较大幅度的提升,下面就以
机器翻译
为例子,来描述详述这个模型。注:学习此模型需要
Chen_Meng_
·
2022-12-13 09:05
deep
learning
NLP
深度学习
seq2seq
LSTM
Seq2Seq基本原理
Seq2Seq基本原理encoder&decoderSeq2Seq结构用于多个输入和多个输出的模型,但是输入和输出的大小可能并不一致,其本质上也是RNN网络的一个扩展,常见的应用场景包括:
机器翻译
、语音识别
在路上的工程师
·
2022-12-13 09:02
自然语言处理
深度学习
自然语言处理
seq2seq
注意力机制
PyTorch入门学习-3.语言模型简介
1.语言模型概念语言模型可以对一段文本的概率进行估计,对信息检索,
机器翻译
,语音识别等任务有着重要的作用。
矜贵.
·
2022-12-12 16:04
pytorch学习
pytorch
语言模型
深度学习
PyTorch入门-语言模型
1.语言模型概念语言模型可以对一段文本的概率进行估计,对信息检索,
机器翻译
,语音识别等任务有着重要的作用。
lewjin
·
2022-12-12 16:33
机器学习
深度学习
pytorch
注意力机制最新综述解读(last revised 12 Jul 2021)
注意力机制最新综述解读(lastrevised12Jul2021)论文连接[参考翻译]沈子恒的博客-CSDN博客_注意力机制1.介绍 注意力模型(AM)最早应用于
机器翻译
[1],现在神经网络领域应用广泛
我是BQ
·
2022-12-12 11:42
翻译
机器学习
人工智能
神经网络
102个模型、40个数据集,这是你需要了解的
机器翻译
SOTA论文
机器之心原创作者:思源
机器翻译
,是一条漫漫长路;SOTA模型,都包含着作者们的深刻见解。
机器翻译
一直是非常吸引研究者的「大任务」,如果某些方法被证明在该领域非常有效,那么它很可能可以扩展到其它问题上。
喜欢打酱油的老鸟
·
2022-12-12 01:32
人工智能
102个模型
40个数据集
自学神经网络系列—— 10 循环神经网络 RNN
循环神经网络1简单循环神经网络2循环神经网络的常见应用2.1序列标注任务2.2分类预测任务2.3
机器翻译
3循环神经网络的参数学习3.1实时循环学习RTRL3.2随时间反向传播BPTT3.3梯度爆炸和梯度消失
ML_python_get√
·
2022-12-11 22:48
机器学习自学
神经网络
rnn
深度学习
ChatGPT被玩坏了
它用于问答、文本摘要生成、
机器翻译
、分类、代码生成和对话AI。Chat
Crossin的编程教室
·
2022-12-11 18:45
chatgpt
人工智能
AI
MindSpore:自然语言处理(NLP)—分词技术
1.摘要本次我们将开始新的分享系列——自然语言处理(NLP),NLP可以被应用于很多领域:
机器翻译
、情感分析、智能问答、文本分类等等。本次我们将分享中文自然语言处理的一个重要技术:中文分词技术。
xi_xiyu
·
2022-12-11 09:31
自然语言处理
人工智能
nlp
注意力机制的解读
先看原始的
机器翻译
的模型左边的是编码器,右边的是解码器。什么意思呢?
TYP
·
2022-12-11 03:18
深度学习
各类注意力机制的介绍 (Intra & Inter & Soft & Hard & Global & Local Attention)
传统神经
机器翻译
(NeuralMachineTranslation,NMT)模型普遍采用encoder-decoder结构,且encoder和decoder一般为RNN网络(如LSTM、GRU等)。
夏树让
·
2022-12-11 03:43
神经网络
人工智能
nlp
机器学习
deep
learning
自然语言处理是什么?学习自然语言处理(NLP)
自然语言处理(简称NLP),是研究计算机处理人类语言的一门技术,,包括:句法语义分析、信息抽取、文本挖掘、
机器翻译
、问答系统、对话系统、信息检索。。
CXY小嵩
·
2022-12-10 16:17
深度学习
人工智能
自然语言处理
学习
Multi-Modal Knowledge Graph Construction and Application: A Survey
->解决问题方案:Multi-ModalKG,这可以更好地实现人类水平的
机器翻译
。
小学生R_rrr
·
2022-12-10 00:24
知识图谱
知识图谱
人工智能
西湖大学张岳老师NLP课程先导
我们可以看到智能音箱、
机器翻译
、自动文摘、作文自动评分等等应用。越来越多的自然语言处理系统在工业界得到了应用。
奔腾使者
·
2022-12-09 08:31
NLP
自然语言处理
人工智能
nlp
【2020年高被引学者】 张岳 西湖大学
对于自然语言处理,致力于自然语言的解析和生成(尤其是英语和中文)以及
机器翻译
。2020年发表论文:39共发表论文:235论文引用数:5124关注作者及了
AMiner学术搜索和科技情报挖掘
·
2022-12-09 08:20
AMiner
学者
自然语言处理
人工智能
深度学习
【论文解读】从BERT和XLNet到MPNet
作者:潘小小,字节跳动AI-Lab算法工程师,专业
机器翻译
算法,业余法语和音乐。在这篇文章中,我会介绍一篇最新的预训练语言模型的论文,出自MASS的同一作者。
风度78
·
2022-12-09 07:09
算法
python
机器学习
人工智能
深度学习
【论文串讲】从BERT和XLNet到MPNet
作者:潘小小,字节跳动AI-Lab算法工程师,专业
机器翻译
算法,业余法语和音乐。在这篇文章中,我会介绍一篇最新的预训练语言模型的论文,出自MASS的同一作者。
Python技术博文
·
2022-12-09 07:05
算法
机器学习
人工智能
python
深度学习
【菜鸡读论文】MMNet: Muscle Motion-guided Network for Micro-expression Recognition
感觉自己的水平还是有限,最近想开始上手做一些事情,但感觉还是有点力不从心,不过这一周开始接触将Transformer应用在计算机视觉领域,觉得有点亲切,让我想到了大三去做实习的时候,做
机器翻译
时用到Transformer
猫头丁
·
2022-12-09 05:00
菜鸡读论文
深度学习
人工智能
机器学习
NLP学习—12.Seq2Seq模型与Attention机制
一、文本生成任务 常见的文本生成任务有以下几种:MachineTranslation(
机器翻译
)不同语言之间的转换
哎呦-_-不错
·
2022-12-08 20:44
NLP学习
Seq2Seq
Attention
seq2seq模型_带你读论文 | 端到端语音识别模型
随着端到端神经网络在
机器翻译
、语音生成等方面的进展,端到端的语音识别也达到了和传统方法可比的性能。
weixin_39692761
·
2022-12-08 20:12
seq2seq模型
Seq2Seq实战——
机器翻译
基于seq2seq做一个
机器翻译
我们将使用PyTorch和TorchText构建一个机器学习模型,从一个序列到另一个序列。
hxxjxw
·
2022-12-08 19:36
Seq2Seq
NLP
自然语言处理
机器翻译
基于BERT实现简单的NER任务
作用命名实体识别是信息提取、问答系统、句法分析、
机器翻译
、面向Sema
墨菲是一只喵
·
2022-12-08 11:15
bert
深度学习
自然语言处理
人工智能
pytorch
cs224 -Lecture 1:Introduction and Word Vectors
中的关键方法:递归网络,注意力机制等;了解人类语言的全貌,以及理解和产生语言的困难;理解并有能力为NLP中的主要问题构建系统(在pytorch中);-单词的意思,依赖解释(dependencyparsing),
机器翻译
然后就去远行吧
·
2022-12-08 11:24
CS224n课程
判断三个老师教哪门课命题c语言,安徽理工大学人工智能复习题库
2.任意列举人工智能的四个应用性领域难题求解、定理证明、智能控制、
机器翻译
。3.人工智能的基本技术包括搜索技术、推理技术、知识表示和知识库技术归纳技术、联想技术。
weixin_39729115
·
2022-12-08 10:19
判断三个老师教哪门课命题c语言
《深度学习进阶:自然语言处理》读书笔记:第7章 基于RNN生成文本
另外,还存在许多需要将一种时序数据转换为另一种时序数据的任务,比如
机器翻译
、语音识别等。其他的还有进行对话的聊天机器人应用、将源
feiwen110
·
2022-12-08 09:05
#
《深度学习进阶》读书笔记
深度学习
自然语言处理
rnn
实体关系抽取综述及相关顶会论文介绍
其研究成果主要应用在文本摘要、自动问答、
机器翻译
、语义网标注、知识图谱等。1.关系抽取任务简介实体关系抽取作为信息抽取的重要任务,是指在实体识别的基础上,从非结构化文本中抽取出预先定义的实体关系。
zenRRan
·
2022-12-07 12:28
自然语言处理
算法
python
计算机视觉
神经网络
深度学习中的注意力机制
本文以
机器翻译
为例,深入浅出地介绍了深度学习中注意力机制的原理及关键计算机制,同时也抽象出其本质思想,并介绍了注意力模型在图像及语音等领域的典型应用场景。注意力模型最近几年在深度学习各个领域被广泛
fu_shuwu
·
2022-12-07 12:01
神经网络
卷积神经网络
ocr
注意力机制
深度学习
【经典模型实现】一个简单的基于transformer的
机器翻译
背景最近对序列模型比较感兴趣,正好使用pytorch实现一个简单的
机器翻译
模型,在gpu运行环境下,在epoch=50轮左右的时候,训练效果,看似还不错。这里记录下。
WitsMakeMen
·
2022-12-06 23:31
机器学习&深度学习
自然语言处理
transformer
机器翻译
《动手学深度学习》学习笔记(六)
因此,循环神经网络有着极为广泛的实际应用,如语言模型、文本分类、
机器翻译
、语音识别、图像分析、手写识别和推荐
xiaoyaolangwj
·
2022-12-06 16:16
#
动手学深度学习
深度学习
pytorch
神经网络
自然语言处理
transformer学习记录
基于seq2seq架构的transformer模型可以完成nlp领域的典型任务,如
机器翻译
,文本生成,同时又可以构建预训练的语言模型(这个应用还是比较广泛的),用于不同任务的迁移学习。
编程是个体力活
·
2022-12-06 13:21
学习方法笔记
学习
微软亚洲研究院:NLP将迎来黄金十年
自计算机诞生,就开始有了对人工智能的研究,而人工智能领域最早的研究就是
机器翻译
以及自然语言理解。在1998
zenRRan
·
2022-12-06 11:06
论文笔记:Meshed-Memory Transformer for Image Captioning
这篇论文是CVPR2020的一篇论文,作者在摘要中提到虽然基于Transformer的体系结构代表了序列建模任务(如
机器翻译
和语言理解)的最新水平。然而,它们对图像描述等多模态上下文的
詹姆斯德1
·
2022-12-06 10:03
深度学习
吴恩达深度学习课程学习笔记10
Seq2seq你可以把
机器翻译
想成是建立一个条件语言模型。下图中第一个模型是前两周所建立的模型,这个模型可以让你能够估计句子的可能性,这就是语言模型所做的事情,你可以用它来生成一个新的句子。
weixin_38909710
·
2022-12-05 09:23
深度学习
学习笔记
吴恩达《深度学习》第五门课(3)序列模型和注意力机制
3.1序列结构的各种序列(1)seq2seq:如
机器翻译
,从法文翻译成英文,将会是下面这样的结构,包括编码网络和解码网络。
weixin_30781107
·
2022-12-05 09:53
人工智能
机器翻译
:seq2seq
seq2seq:
机器翻译
的模型与其他语言模型的不同之处在于,
机器翻译
的模型是由编码器和解码器两部分组成。两个部分都需要进行训练。其中解码器我们有时候也称为特征提取器。
Walter Wu
·
2022-12-05 09:21
NLP
序列模型(三)
本周讲的是序列模型和注意力机制1、基础模型在这一周,你将会学习seq2seq(sequencetosequence)模型,从
机器翻译
到语音识别,它们都能起到很大的作用,从最基本的模型开始。
kk123k
·
2022-12-05 09:18
深度学习
深度学习
序列模型
带你玩转序列模型之seq2seq模型&定向(集束)搜索
目录一.基础模型二.选择最可能的句子三.定向搜索四.改进定向搜索五.定向搜索的误差分析一.基础模型在这一周,你将会学习seq2seq(sequencetosequence)模型,从
机器翻译
到语音识别,它们都能起到很大的作用
深海鱼肝油ya
·
2022-12-05 09:12
#
深度学习
深度学习
NLP
seq2seq模型
集束搜索
定向搜素的误差分析
知识图谱之nlp端到端实体-关系抽取最强综述
知识图谱之nlp端到端实体-关系抽取最强综述主要分类方法根据模型结构特点:1、基于解码机制(decoder-based):通过编解码机制依次,其中解码器一次像
机器翻译
模型一样依次提取一种关系、提取一个单词
透视AI
·
2022-12-05 09:36
透视AI
CV风云之路
深度学习
自然语言处理
pytorch
tensorflow
深度学习
神经网络
如何用Python一次性翻译十万条数据
段时间,我想翻译一个文档,比较大,研究一番,最后还是只有走上写代码这条路.我不需要高质量翻译,
机器翻译
就可以了,毋庸置疑,谷歌的翻译质量是最好的,或者说是我最满意的.于是就寻找(Python)翻译库,一番操作下来都不满意
恶霸程序员388
·
2022-12-04 19:16
python
软件工程
开发语言
NVIDIA TESLA M40
特色与介绍为数据中心配备全球最快的深度学习训练加速器从图像识别与自然语言处理到神经
机器翻译
和图像分类,深度学习正在重新定义人类的能力所及。
LeadAI学院
·
2022-12-04 18:44
多模态技术简单介绍
主要应用·
机器翻译
(MachineTranslation)、唇读(LipReading)和语音翻译(
漠月
·
2022-12-04 13:41
AI
语音识别
人工智能
深度学习
文本生成客观评价指标总结(附Pytorch代码实现)
前言:最近在做文本生成的工作,调研发现针对不同的文本生成场景(
机器翻译
、对话生成、图像描述、data-to-text等),客观评价指标也不尽相同。
Meilinger_
·
2022-12-04 13:24
NLP
pytorch
文本生成
评价指标
nlp
nlg
上一页
19
20
21
22
23
24
25
26
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他