E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
【机器翻译】
《集异璧》作者侯世达:王维、杨绛与
机器翻译
的本质
“空山不见人,但闻人语响,返景入深林,复照青苔上。”一位满头白发的美国老人正手持话筒,满脸认真地朗诵着诗人王维的五言绝句《鹿柴》。这个看起来有些科幻的场面,发生在18日下午腾讯研究院举办的一场高端沙龙上,这位老人正是大名鼎鼎的侯世达教授。他的《哥德尔、艾舍尔、巴赫:集异璧之大成》启发了几代人对人工智能的思考。注:“侯世达”这个名字,是翻译组在翻译《集异璧》中文版时,根据“Hofstadter”音译
weixin_34387284
·
2022-06-18 07:58
人工智能
CS224n自然语言处理(二)——语言模型、
机器翻译
和CNN
文章目录一、语言模型及RNN1.n-gram语言模型2.Window-basedDNN3.循环神经网络(一)梯度消失和梯度爆炸(二)LSTM(三)GRU4.评估语言模型5.预处理二、
机器翻译
和Seq2Seq1
李明朔
·
2022-06-17 07:35
自然语言处理
自然语言处理
机器翻译
——基于注意力机制的seq2seq结构
目录前言0、seq2seq结构介绍以及
机器翻译
整体流程介绍0-1、seq2seq结构介绍0-2、
机器翻译
整体流程介绍一、导入所有需要的库二、数据预处理三、读取数据,创建Dataset。
ㄣ知冷煖★
·
2022-06-15 07:34
自然语言处理
论文
机器翻译
自然语言处理
python
nlp-with-transformers实战-01_transformers简介
被称为Transformer的这一架构在
机器翻译
任务上的表现优于循环神经网络(RNN),在翻译质
致Great
·
2022-06-15 07:26
NLP
自然语言处理
transformer
bert
nlp
huggingface
python pytorch_PyTorch的深度学习入门之PyTorch安装和配置
前言深度神经网络是一种目前被广泛使用的工具,可以用于图像识别、分类,物体检测,
机器翻译
等等。深度学习(DeepLearning)是一种学习神经网络各种参数的方法。
weixin_39923157
·
2022-06-15 07:20
python
pytorch
极智AI | Attention 中 torch.chunk 的 TensorRT 实现
注意力机制最开始应用在自然语言处理领域,如
机器翻译
、语言理解,而后在CV领域、多模态领域也大放异彩,如imagecaption看图说
极智视界
·
2022-06-10 10:34
极智AI
人工智能
pytorch
深度学习
transformer
语音识别基础-梅尔谱图
Transfomer应用及改进系列文章目录第一章语音识别基础-梅尔谱图第二章李宏毅hw4语音识别数据集及需求详解第三章从rnn到gru、lstm及双向神经网络第四章编码器解码器架构、seq2seq、注意力机制及
机器翻译
应用代码实现第五章
傍晚轻风拂面
·
2022-06-10 07:53
nlp
语音识别
机器翻译
人工智能
讨论人工智能可以取代同传翻译吗?
在社会快速发展的进程中,
机器翻译
将扮演越来越重要的角色。前阵子,一位同传翻译员声讨科大讯飞“AI同传造假”,在网上引起了轩然大波。人工智能和同传翻译由此成为大家热议的话题。
weixin_34357267
·
2022-06-09 07:33
人工智能
数据库
大数据
微软人工智能又一里程碑:微软中-英
机器翻译
水平可“与人类媲美”
继在语音识别和机器阅读领域取得的“过人”成绩,由微软亚洲研究院与雷德蒙研究院的研究人员组成的团队今天宣布,其研发的
机器翻译
系统在通用新闻报道测试集newstest2017的中-英测试集上,达到了可与人工翻译媲美的水平
云淡风清的Coding
·
2022-06-09 07:24
算法
高考倒计时1天 | 百度数字人“考生”度晓晓将挑战高考作文
基于百度大脑7.0核心技术驱动,度晓晓整合了多模态交互技术、3D数字人建模、
机器翻译
、语音识别、自然语言理
飞桨PaddlePaddle
·
2022-06-09 07:34
百度
人工智能
高考倒计时2天!百度数字人“考生”度晓晓将挑战高考作文
基于百度大脑7.0核心技术驱动,度晓晓整合了多模态交互技术、3D数字人建模、
机器翻译
、语音识别、自然语言理解等多项技术能力,可谓“集百度AI技术万千宠爱于一身”,智商、情商“双高”。高考语文作文写作
飞桨PaddlePaddle
·
2022-06-09 07:04
百度
人工智能
大数据
深度学习
机器学习
深度学习中的注意力机制
本文以
机器翻译
为例,深入浅出地介绍了深度学习中注意力机制的原理及关键计算机制,同时也抽象出其本质思想,并介绍了注意力模型在图像及语音等领域的典型应用场景。注意力模型最近几年在深度学习各个领域被广泛
csdn大数据
·
2022-06-06 09:55
三张图读懂机器学习:基本概念、五大流派与九种常见算法
语音识别、图像检测、
机器翻译
、风格迁移等技术已经在我们的实际生活中开始得到了应用,但机器学习的发展仍还在继续,甚至被认为有可能彻底改变人类文明的发展方向乃至人类自身。但你了解现在正在发生的这场变革吗?
来跟我学AI
·
2022-06-06 07:11
人工智能
机器学习
算法
人工智能
人工智能之注意力模型
朋友们,如需转载请标明出处:http://blog.csdn.net/jiangjunshow注意力模型通过对教程中前面一些文章的学习,我们知道可以用上面的神经网络来实现
机器翻译
。
人工智能AI技术
·
2022-06-05 16:54
人工智能
【cs224n-13】Natural Language Generation
包括:
机器翻译
、文本摘要、对话、创意写作(讲故事、诗歌创作)、问答系统、图形字幕等等。语言建模:是给定之前的单词,预测下一个单词的任务。一个产生这一概率分布的系统叫做语言模型。
FB1024
·
2022-06-04 07:30
CS224N
自然语言处理 cs224n课程 Lecture 15: Natural Language Generation
生成一段新的文本NLG是以下任务的组成成分之一:
机器翻译
概要对话创造性写作:讲故事,诗歌生成自由形式的问答:回答是生成的,而不是从文本中提取图像标题语言模型:给定一系列单词,预测下一个单
努力努力再努力_越努力越幸运
·
2022-06-04 07:53
NLP自然语言处理
cs224n
nlp
CS224N WINTER 2022(五)Transformers详解(附Assignment5答案)
反向传播、神经网络、依存分析(附Assignment2答案)CS224NWINTER2022(三)RNN、语言模型、梯度消失与梯度爆炸(附Assignment3答案)CS224NWINTER2022(四)
机器翻译
囚生CY
·
2022-06-04 07:02
CS224N课程系列
机器翻译
深度学习
人工智能
自然语言处理
transformer
CS224N WINTER 2022(四)
机器翻译
、注意力机制、subword模型(附Assignment4答案)
反向传播、神经网络、依存分析(附Assignment2答案)CS224NWINTER2022(三)RNN、语言模型、梯度消失与梯度爆炸(附Assignment3答案)CS224NWINTER2022(四)
机器翻译
囚生CY
·
2022-06-04 07:01
CS224N课程系列
机器翻译
自然语言处理
人工智能
深度学习
rnn
CS224N WINTER 2022(三)RNN、语言模型、梯度消失与梯度爆炸(附Assignment3答案)
反向传播、神经网络、依存分析(附Assignment2答案)CS224NWINTER2022(三)RNN、语言模型、梯度消失与梯度爆炸(附Assignment3答案)CS224NWINTER2022(四)
机器翻译
囚生CY
·
2022-06-04 07:00
CS224N课程系列
深度学习
python
神经网络
语言模型
人工智能
CS224N WINTER 2022(二)反向传播、神经网络、依存分析(附Assignment2答案)
反向传播、神经网络、依存分析(附Assignment2答案)CS224NWINTER2022(三)RNN、语言模型、梯度消失与梯度爆炸(附Assignment3答案)CS224NWINTER2022(四)
机器翻译
囚生CY
·
2022-06-04 07:30
CS224N课程系列
神经网络
深度学习
人工智能
自然语言处理
数学
CS224N WINTER 2022 (六)前沿问题探讨(QA、NLG、知识集成与检索、Coreference)
反向传播、神经网络、依存分析(附Assignment2答案)CS224NWINTER2022(三)RNN、语言模型、梯度消失与梯度爆炸(附Assignment3答案)CS224NWINTER2022(四)
机器翻译
囚生CY
·
2022-06-04 07:26
CS224N课程系列
机器翻译
人工智能
自然语言处理
深度学习
nlp
机器学习:有监督和无监督之间有什么区别
我们每天使用的许多应用程序都使用机器学习算法,包括AI助手,Web搜索和
机器翻译
。您的社交媒体新闻提要由机器学习算法提供支持。您、看到的推荐视频是机器学习模型的结果。
喜欢打酱油的老鸟
·
2022-06-03 23:52
人工智能
【模型复现】文本匹配、文本分类模型Opennmt模型快速复现教程
Opennmt模型快速复现教程01模型详情模型简介:OpenNMT是一个由HarvardNLP(哈佛大学自然语言处理研究组)开源的Torch神经网络
机器翻译
系统。简单的通用接口,只需要源/目标文件。
极链AI云
·
2022-06-02 13:55
模型部署
分类
自然语言处理
深度学习
【一起入门DeepLearning】中科院深度学习_期末复习题2018-2019第八题:注意力机制
如果感兴趣的话,就和我一起入门DL吧2018-2019学年第二学期期末试题五、(10分)画出用于
机器翻译
(或者图像描述)的基于注意机制的编码器-解码器结构示意图,并简要描述注意机制的工作原
vector<>
·
2022-05-31 07:54
深度学习
深度学习
注意力机制
N-gram 语言模型
语言模型常用于语音识别、手写识别、
机器翻译
、输入法、搜索引擎的自动补全等领域。1.2N-gram模型 本节将介绍n-gram模型(n元模型)。N-gram是一种基于统计的语言模型。
空杯的境界
·
2022-05-28 07:24
#
01.02
NLP
01_机器学习
n-gram
n元
语言模型
自然语言处理
NLP
HMS Core机器学习服务,高效助力跨语种沟通
HMSCore机器学习服务(MLKit)产品经理在会上围绕
机器翻译
的技术优势、使用场景和接入指导等为开发者们做了详细解读。MLKit将助力开发者更快更好地开发翻译类应用,帮助用户轻松跨越语种障碍。
·
2022-05-27 10:20
ACL 2022:评估单词多义性不再困扰?一种新的基准“DIBIMT”
众所周知,单词多义性给NLP领域的研究带来了诸多困难,如词义消歧(WordSenseDisambiguation)、信息检索(IR,InformationRetrieval)和
机器翻译
(MT,MachineTranslation
数据实战派
·
2022-05-26 07:48
AI
机器翻译
人工智能
自然语言处理
ACL
Transformer研究综述
一、基础部分 2017年google发表了一篇AllAttentionIsAllYouNeed论文,在
机器翻译
任务中取得了SOTA的成绩。
sunny4handsome
·
2022-05-23 11:31
Attention Is All You Need 翻译 Transformer翻译
在两个
机器翻译
任务中的实验表明:这些模型在翻译效果上更好,同时更并行化,训练需要的时间明显更少。我们的模型在WMT2014英语转德语翻译任务
jjw_whz
·
2022-05-23 10:31
学术论文
transformer
深度学习
人工智能
Attention is All You Need 论文笔记
encoder)和一个解码器(decoder)表现最好的模型是利用注意力机制将编码器和解码器连接起来我们提出了一个简单的网络架构Transformer,简单地基于注意力机制,并且不用递归和卷积操作在实验中,在两个
机器翻译
任
MezereonXP
·
2022-05-23 07:32
机器学习
NLP
深度学习
自然语言处理
深度学习
机器学习
神经网络
数据挖掘
《Attention is All You Need》论文理解Transformer
谷歌的Transformer模型最早是用于
机器翻译
任务,当时达到了SOTA效果。
姬香
·
2022-05-23 07:31
阅读论文
深度学习
NLP
Linux
Python
[论文阅读] Attention is all your need(从CV角度看Transformer)
动机这篇文章做的任务是
机器翻译
。
guyii54
·
2022-05-23 07:25
Paper
Reading
Research
深度学习
自然语言处理
【1月学习进度1/31——论文阅读01】“Attention is All You Need”——Transformer模型
论文:AttentionisAllYouNeed视频详解Transformer模型(以下截图大部分来自于该视频)论文逐段精度视频0.引言1)为了解决什么任务Transformer是为了解决
机器翻译
(machinetranslationtasks
fu_GAGA
·
2022-05-23 07:24
Transformer
深度学习
transformer
深度学习
人工智能
Attention Is All Your Need论文笔记
在两个
机器翻译
任务上的实验表明,这些模型在质量上是优越的,同时具有更好的并行性,并且需要更少的训练时间。1Introduction针对nlp里的
机器翻译
问题,提出了一种被称为”Transf
bxg1065283526
·
2022-05-23 07:22
VQA
attention
Transformer
Attention Is All You Need--Transformer论文解读
dispensingwithrecurrenceandconvolutionsentirely.本文提出的Transformer网络完全基于注意力机制未使用在序列转换模型中常用的循环卷积网络或卷积网络(序列转换模型就是类似于
机器翻译
将一种语言的序列转换为另一种语言的序列
几度热忱
·
2022-05-23 07:43
Paper
transformer
深度学习
机器翻译
论文笔记-Attention Is All You Need---NeurIPS2017
在两个
机器翻译
任务上的实验表明,这些模
月亮299
·
2022-05-23 07:10
读论文笔记
深度学习
transformer
人工智能
Datawhale 《动手学深度学习》(二)
动手学深度学习(二)Day3过拟合&欠拟合及其解决方案一些概念高维线性回归实验从零开始的实现丢弃法梯度消失&梯度爆炸一些理论Kaggle房价预测实战循环神经网络进阶代码实现Day4
机器翻译
及相关技术定义代码实现注意力机制与
Zhiguo Ding
·
2022-05-22 21:18
知识块
深度学习
python学习笔记day01(2020-10-14)——人工智能——机器学习概述
深度学习机器学习是人工智能的一个实现途径深度学习是机器学习的一个方法发展而来1.2人工智能的分支分支一:计算机视觉——人脸识别分支二:语音识别——百度语音识别分支三:文本挖掘/分类——语音语义识别分支四:
机器翻译
分支五
Mr.Zhang_9426
·
2022-05-21 07:07
python
机器学习
python
人工智能
学习笔记七:transformer总结(1)
文章目录一、attention1.1循环神经网络的不足:1.2attention在
机器翻译
的优点1.3selfAttention和循环神经网络对比1.4为什么求内积之后除以d\sqrt{d}d1.5slef-attention
神洛华
·
2022-05-20 07:24
人工智能读书笔记
transformer
学习
自然语言处理
《大数据智能》阅读笔记
深度学习应用分类垃圾邮件过滤图像分类结构分类句法分析情感分析
机器翻译
分类语言模型也是一个特殊的回归任务知识图谱构建大规模知识库互联网链接数据互联网网页文本数据多数据源的知识融合实体融合关系融合实例融合应用
SinclairWang
·
2022-05-18 07:19
自然语言处理
自然语言处理发展的四大阶段
小到一个文本匹配的算法,大到
机器翻译
、对话系统、搜索引擎都能用到自然语言处理技术。自然语言处理的任务包括基础自然语言任务、信息抽取任务、文本生成任务和其他应用任务。
herosunly
·
2022-05-16 07:35
AI比赛教程
NLP经典模型复现
自然语言处理
人工智能
nlp
深度学习入门,计算机视觉,推荐系统,自然语言处理理论框架以及学习资料【附知识图谱与链接】
NLP包含句法语义分析、信息抽取、文本挖掘、
机器翻译
、信息检索、问答系统和对话系统等领域。2课程推荐CS224n斯坦福深度自然语言处理课17版中
子韵如初
·
2022-05-15 07:00
计算机视觉
人工智能
深度学习
机器学习
python
paper阅读笔记(Transformer):Attention Is All You Need
作者以
机器翻译
为任务进行
Umikaze_
·
2022-05-12 07:17
transformer
深度学习
自然语言处理
pytorch学习笔记三——transformer
pytorch学习笔记三——transformer预备知识模型架构
机器翻译
任务实现主体部分模型构建Encoder-DecoderEncoder部分残差连接和层归一、位置前馈、多头注意力Decoder部分题外话预备知识
墨夜之枫
·
2022-05-11 07:24
pytorch
transformer
pytorch
深度学习
斯坦福NLP课程 | 第8讲 -
机器翻译
、seq2seq与注意力机制
作者:韩信子@ShowMeAI,路遥@ShowMeAI,奇异果@ShowMeAI教程地址:http://www.showmeai.tech/tutorials/36本文地址:http://www.showmeai.tech/article-detail/243声明:版权所有,转载请联系平台与作者并注明出处收藏ShowMeAI查看更多精彩内容ShowMeAI为斯坦福CS224n《自然语言处理与深度学
·
2022-05-10 14:03
NLP教程(6) - 神经
机器翻译
、seq2seq与注意力机制
本文介绍了序列到序列模型(seq2seq)及其在翻译系统中的应用,以及注意力机制、序列解码器、神经翻译系统、基于字符级别的翻译模型等。
ShowMeAI
·
2022-05-10 11:00
机器学习思考题目——14循环神经网络(RNN)
(1)sequence-to-sequenceRNN:预测天气(或其他时间序列)、
机器翻译
(用encoder-decoder架构)、视频捕捉(videocaptioning)、语音转文
南瓜派三蔬
·
2022-05-10 07:23
#
《Hands
On
ML》笔记
机器学习
深度学习
循环神经网络
RNN
自然语言处理(1):Transformer模型实现原理详解
谷歌的Transformer模型最早是用于
机器翻译
任务,当时达到了STOA效果。Transformer改进了RNN最被人诟病的训练慢的缺点,利用self-attention机制实现快速并行。
笼中小夜莺
·
2022-05-08 07:42
NLP
机器学习
自然语言处理
计算机视觉中的注意力机制--attention mechanism
转载:https://zhuanlan.zhihu.com/p/56501461张戎引言在
机器翻译
(MachineTranslation)或者自然语言处理(NaturalLanguageProcessing
salary_up_27k
·
2022-05-03 07:48
网络架构
The Overlooked Elephant of Object Detection: Open Set 翻译
机器翻译
+人工校对AkshayDhamija,ManuelGunther,JonathanVentura,TerranceBoult;ProceedingsoftheIEEE/CVFWinterConferenceonApplicationsofComputerVision
8三万8
·
2022-05-02 22:59
上一页
28
29
30
31
32
33
34
35
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他