E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
GPT-2
丧心病狂!最新NLP模型的写作水平已突破次元壁
全文共3510字,预计学习时长7分钟图片来源:unsplash.com/@thoughtcatalog本文将介绍一款基于OpenAI的新NLP文本编写APP——
GPT-2
,旨在随时随地和用户一起写作。
读芯术
·
2020-07-01 23:10
2019最新进展 | Transformer在深度推荐系统中的应用
作者|Alex-zhai来源|深度传送门(ID:deep_deliver)【导读】最近基于Transformer的一些NLP模型很火(比如BERT,
GPT-2
等),因此将Transformer模型引入到推荐算法中是近期的一个潮流
AI科技大本营
·
2020-07-01 21:14
让计算机“拥抱”常识
本文作者:AI研习社2020-05-2714:48导语:本文就常识推理问题,分别介绍逻辑符号和神经网络方法,最终引出Choi的研究成果COMET(
GPT-2
语言模型+Atomic知识库),希望能引起读者的思考
喜欢打酱油的老鸟
·
2020-07-01 06:27
人工智能
Macadam自然语言处理(NLP)工具包(TextClassification, SequenceLabeling, RelationExtraction)
支持RANDOM、WORD2VEC、FASTTEXT、BERT、ALBERT、ROBERTA、NEZHA、XLNET、ELECTRA、
GPT-2
等EMBEDDING嵌入;支持FineTune、FastText
Macropodus
·
2020-07-01 04:14
Macadam
nlp
自然语言处理
python
深度学习
文本生成:基于
GPT-2
的中文新闻文本生成
openAI的
GPT-2
模型天然适合文本生成类任务,因此使用
GPT-2
模型来完成中文新闻文本生成任务。代码及数据、模型下载链接:网盘链接,提取码:8goz数据集数据集是T
study for happy
·
2020-06-30 19:26
NLP
[预训练语言模型专题] 银色独角兽GPT家族
SHOCKING在具体看论文之前,我们先来看看
GPT-2
,也是GPT家族巨人的惊人表现做一个开胃菜。在一个生成式任务上,OpenAI给出了
yang191919
·
2020-06-30 05:02
朴素人工智能
逆天语言模型
GPT-2
最新开源:345M预训练模型和1.5B参数都来了
铜灵发自凹非寺量子位出品|公众号QbitAI逆天的语言模型
GPT-2
又有最新开源进展了!
量子位
·
2020-06-30 05:04
GPT-3诞生,Finetune也不再必要了!NLP领域又一核弹!
之后2019年初的
GPT-2
提出了me
夕小瑶
·
2020-06-30 02:13
GPT对比
GPT-2
前一阵子Bert火的一塌糊涂,本以为会占据顶峰很长一段时间,结果还没多久就出现的了
GPT-2
,它不仅效果显著,而且还解决了Bert无法解决的生成文本的问题,一下子跃上神坛~其实,
GPT-2
与GPT一样,
维尼弹着肖邦的夜曲
·
2020-06-30 01:15
GPT
OpenAI用
GPT-2
做图像分类,实现SOTA性能
近期,BERT、
GPT-2
、RBERTa、T5等Transformer模型以及其他变体在一系列语言任务上实现了最佳性
喜欢打酱油的老鸟
·
2020-06-29 03:11
人工智能
机器学习模型太大难部署?这里有 3 个解决方案
然而,当OpenAI发布
GPT-2
后,机器和人类之间的差距就开始缩小了。通过简单地指示模型的大小,OpenAI建立了一个通用语言模型,通过后者可以更
喜欢打酱油的老鸟
·
2020-06-29 03:06
人工智能
谈
GPT-2
(附大量网址)
文章目录前言关于
GPT-2
各个版本的GTP-2中文版GTP-2语料链接15亿参数版GPT-2OpenGPT-2前言
GPT-2
这个名字不知有多少人知道。但有很多人应该都知道埃隆•马斯克的OpenAI吧。
喜欢打酱油的老鸟
·
2020-06-29 03:01
人工智能
预训练模型(2)---- Transformer-XL&GPT2&XLNet
预训练模型(2)1.Transformer-XL句段层级的循环相对位置编码Transformer-XL三大优势Transformer-XL计算过程2.GPT2语言模型
GPT-2
模型概述输入模型表示方法模型修改部分
小小鸟要高飞
·
2020-06-28 21:03
自然语言处理
预训练模型
TPU (灵魂三问 WHAT? WHY? HOW?)
本文长度为5986字,45图表截屏建议阅读30分钟0引言从2018年10月到2019年6月,NLP三大模型横空出世,分别是Google的BERT,OpenAI的
GPT-2
和CMU和Google联手的XLNet
weixin_38753422
·
2020-06-28 21:28
OpenAI
GPT-2
官方模型下载
更新说明1.2019-09-16更新:OpenAI于Aug21,2019提交了一个commit,其公布了更大的774M模型,并且纠正了对之前公布的两个模型的参数估计错误导致的命名不准确问题,修改了其名称:其中,原117M模型更名为124M;345M更名为355M。(仅修改名称,模型的文件内容并没有任何修改,可以继续使用)commit地址:OpenAI:push774MmodelNotethatou
洋芋炒土豆片片
·
2020-06-28 20:15
项目记录
模型的跨界:我拿Transformer去做目标检测,结果发现效果不错
自2017年被提出以来,Transformer已经席卷了整个NLP领域,红极一时的BERT、
GPT-2
都采用了基于Transformer的架构。既然这么好用,为什么不用到CV里?
update7
·
2020-06-27 10:42
机器学习
智能计算
python
大数据
python
计算机视觉
机器学习
人工智能
Rasa使用指南02
转载请注明出处,原文地址Rasa使用指南01前言最近工作很忙,重心也一直在模型方面,例如BERT、
GPT-2
等等,对于Rasa系列的博文实在是没有时间更新。
爱编程真是太好了
·
2020-06-27 04:36
机器学习
自然语言处理
深度学习
基于
gpt-2
模型(117M预训练模型)的文本自动生成测试
openai的
gpt-2
模型最近在风口浪尖上。
sparkexpert
·
2020-06-26 14:54
DL+NLP
Python人工智能OpenAI 使用
GPT-2
模拟人机对话实例(转:技术牛论坛)
它是使用OpenAI的
GPT-2
生成的,并且使用完全来自我的旧帐户的FacebookMessenger对话(大约10年的对话对话)的数据集进行了培训。
LeyWell
·
2020-06-26 05:55
Transformers库简单使用
Transformers库也叫(pytorch-transformersandpytorch-pretrained-bert),提供了很多SOTA的预训练模型,比如BERT,
GPT-2
,RoBERTa,
风吹草地现牛羊的马
·
2020-06-24 14:57
pytorch
机器学习
NLP
代码补全漫谈(1) - 从TabNine说起
代码补全漫谈(1)-从TabNine说起前不久,基于
GPT-2
模型的TabNine横空出世,在程序员界再次引起轰动。
Jtag特工
·
2020-06-24 10:19
深度学习
有趣的深度学习——使用 BERT 实现一个古体诗生成器
而现在说到NLP,就很难绕开Transformers系列模型,譬如BERT、
GPT-2
、RoBERTa、ALBERT、XLNet等等。
笔墨留年
·
2020-06-22 11:37
机器学习
[机器学习]自然语言处理:
GPT-2
模型训练finetunning
GPT-2
模型主要用于根据上下文,预测下一个最有可能的词汇。
XiaoH0_0
·
2020-06-22 08:28
平台(PLATFORM)
工具(TOOL)
浅谈
GPT-2
在统治人工智能界长达4个月后,bert终于迎来了一个新的“对手”——
GPT-2
(openAI产品)。
GPT-2
模型最近在做一个项
Nuspen
·
2020-06-22 02:31
GPT-2
微软发布史上最大AI模型:170亿参数横扫各种语言建模基准,将用于Office套件...
170亿参数量,是此前最大的语言模型英伟达“威震天”(Megatron)的两倍,是OpenAI模型
GPT-2
的10多倍。
DevolperFront
·
2020-06-21 19:56
AI和人工智能专栏
华为全栈人工智能-AI发展新趋势
从目前的情况来看,从OPENAI的
GPT-2
到谷歌的XLNET、ALBERT以及百度的ERNIE,人工智能的模型迭代速度越来越快,但是模型的参数规模与训练成本也随之水涨船高,平均刷榜模型的训练成本都高达数十万人民币之巨
beyondma
·
2020-06-21 17:24
AI与最新技术演进
人工智能
全栈
大三学生独自破解逆天AI模型:我只是把撩妹的时间,都用来研究机器学习了...
GPT-2
写起文章来文思泉涌毫无违和感,无需针对性训练就能横扫各种特定领域的语言建模任务,还具备阅读理解、问答、生成文章摘要、翻译等等能力。但不同寻常的是,这个模型并没有真的开源。
量子位
·
2020-06-21 14:35
大三学生独自破解逆天AI模型:我只是把撩妹的时间,都用来研究机器学习了...
GPT-2
写起文章来文思泉涌毫无违和感,无需针对性训练就能横扫各种特定领域的语言建模任务,还具备阅读理解、问答、生成文章摘要、翻译等等能力。但不同寻常的是,这个模型并没有真的
简说Python
·
2020-06-21 05:35
带你一文了解
GPT-2
模型(transformer语言模型可视化)
GPT-2
并不是专门写小说的语言架构——结构与仅含解码器的transformer相似,但它实则是基于transformer的语言模型,规模巨大,在海量的数据集上进行训练。本文将介
机器学习算法与Python学习-公众号
·
2020-06-21 04:20
深入浅出Transformer
更重要的是,NLP真的可以“深度”学习了,各种基于transformer的模型层出不穷,如BERT、
GPT-2
、T-NLG,而且模型参数量呈指数级增长。
A君来了
·
2020-06-16 21:00
使用NLP检测和对抗AI生成的假新闻
MOHDSANADZAKIRIZVI编译|VK来源|AnalyticsVidhya概述由AI生成的假新闻(神经假新闻)对于我们的社会可能是一个巨大的问题本文讨论了不同的自然语言处理方法,以开发出对神经假新闻的强大防御,包括使用
GPT
人工智能遇见磐创
·
2020-06-14 12:00
Bert与
GPT-2
在GPT出现后,谷歌18年推出了Bert,19年时openAI又推出了
GPT-2
一、共同点Bert和
GPT-2
都采用的是transformer作为底层结构~效果都惊人的好二、差异语言模型:Bert和
GPT
还卿一钵无情泪
·
2020-06-03 22:36
BERT
Wolfram语言和Mathematica发布12.1版本:一年之内海量更新
,语音转换成文字易如反掌;完全掌控各种数据结构,渐近超级函数,无所不能的DSolve,工业级别的凸优化,清晰明了的矢量绘图,优雅的断面线,层次清晰的素描画,灵活操作Dataset,GANs、BERT、
GPT
哲想软件
·
2020-05-09 00:00
Transformers 保存并加载模型 | 八
作者|huggingface编译|VK来源|Github本节说明如何保存和重新加载微调模型(BERT,GPT,
GPT-2
和Transformer-XL)。
人工智能遇见磐创
·
2020-04-06 19:52
人工智能
Pytorch_Transformer框架
BERT、
GPT-2
都是基于该模型的变形和扩展。Transformer的具体算法在论文《AttentionIsAllYouNeed》中描述。
xieyan0811
·
2020-04-02 00:45
NLP模型应用之一:基础知识
引入2018年底发布的BERT模型和2019年初发布的
GPT-2
模型,开始挑战人类的语言处理能力。二者都基于之前介绍过的Transformer基础模型。
xieyan0811
·
2020-03-25 16:57
GPT-2
生成式多轮对话入门-----深入理解“用于中文闲聊的GPT2模型”项目
UPDATE2.28.2020纠正之前文末的思维误区。2.26.2020增加了JayAlammarTheIllustratedGPT-2博客的翻译增加了关于Transformer你需要知道的都在这里------从论文到代码深入理解BERT类模型基石(包含极致详尽的代码解析!)链接,补齐了GPT2Transformer部分的解析。本文为对于GPT2forChinesechitchat项目的理解与学习
三重极简
·
2020-02-20 17:00
NLP
微软发布史上最大NLG模型:基于Transformer架构,170亿参数加持
近年来,BERT、
GPT-2
等深度学习语言模型,极大地提高了问答、摘要、人机对话等下游自然语言处理任务的性能。
喜欢打酱油的老鸟
·
2020-02-12 11:55
自然语言处理
OpenAI的
GPT-2
:用Python构建世界上最先进的文本生成器的简单指南
是的,你没听错,这是一个在OpenAI的
GPT-2
框架上训练的自然语言处理
人工智能遇见磐创
·
2020-02-10 23:20
自娱自乐-AI续写《老友记》剧本-19年8月
GPT-2
对主角和配角都是了然于胸,服务生Gunther出场,跟大家在柜台。Phoebe在原剧中,也是吉他弹唱好手,《SmellCat》也是风靡一时。
adi0229
·
2020-02-10 07:09
超越ReLU却鲜为人知,3年后被挖掘:BERT、
GPT-2
等都在用的激活函数
点击上方“AI遇见机器学习”,选择“星标”公众号原创干货,第一时间送达转自:机器之心作为决定神经网络是否传递信息的「开关」,激活函数对于神经网络而言至关重要。不过今天被人们普遍采用的ReLU真的是最高效的方法吗?最近在社交网络上,人们找到了一个看来更强大的激活函数:GELU,这种方法早在2016年即被人提出,然而其论文迄今为止在GoogleScholar上的被引用次数却只有34次。其实,GELU已
Evan-yzh
·
2019-12-31 09:00
手把手教你用Pytorch-Transformers——部分源码解读及相关说明(一)
一、简介Transformers是一个用于自然语言处理(NLP)的Python第三方库,实现Bert、
GPT-2
和XLNET等比较新的模型,支持TensorFlow和PyTorch。
那少年和狗
·
2019-11-27 20:00
解析pytorch_transformer之model_bert.py
pytorch_transformers包含BERT,GPT,
GPT-2
,Transfo-XL,XLNet,XLM等多个模型,并提供了27个预训练模型。
JL_Jessie
·
2019-09-28 13:15
NLP
解析pytorch_transformer之tokenization_bert.py
pytorch_transformers包含BERT,GPT,
GPT-2
,Transfo-XL,XLNet,XLM等多个模型,并提供了27个预训练模型。
m0_37531129
·
2019-09-28 10:04
NLP
杀手级AI补全代码工具:TabNine
GPT-2
,一个来自OpenAI的逆天语言模型,现在能用来补全代码了。一位来自加拿大的大四学霸,开发了一款”DeepTabNine“代码补全工具,实现了这一大胆的想法。
shooter
·
2019-09-22 01:07
Bert提取句子特征(pytorch_transformers)
pytorch_transformerspytorch_transformersQuickstartpytorch_transformers包含BERT,GPT,
GPT-2
,Transfo-XL,XLNet
千里驰援李天霞
·
2019-09-15 20:20
布朗大学90后研究生:我们复现了15亿参数
GPT-2
模型,你也行!
1q8T7l_qJ4_8LadhUw1CRg#rd编译来源:Medium编辑:元子来源:新智元(ID:unity007)【导读】布朗大学的计算机科学研究毕业生VanyaCohen近日在Medium分享了他复现
GPT
网易智能
·
2019-08-27 18:41
有人做出了中文版
GPT-2
,可用于写小说、诗歌、新闻等;15亿参数版
GPT-2
被两名研究生复现...
之后,围绕着
GPT-2
产生了各种实用性应用:比如能够自动补全代码的DeepTabNine;高中生开源轻量级
GPT-2
“客户端”等等。现在,又有两个围绕这一语言AI模型的成果出现。
QbitAl
·
2019-08-25 12:00
语言模型
GPT-2
挤牙膏式开源,放出774M预训练模型,称是倒数第二版
铜灵发自凹非寺量子位出品|公众号QbitAI放出124M和355M的中小规模预训练模型后,横扫7大语言任务、效果足够以假乱真的逆天模型
GPT-2
又开源了。
QbitAl
·
2019-08-21 12:53
通吃BERT、
GPT-2
,用TF 2.0实现谷歌破世界纪录的机器翻译模型Transformer
博主在TensorFlow2.0中创建了一个Transformer模型包,可用于重新构建
GPT-2
、BERT和XLNet。
机器学习算法与Python学习-公众号
·
2019-08-21 08:00
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他