E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
transformer论文阅读
周六 2020-01-11 09:00 - 24:30 多云 02h00m
二〇二〇年一月十一日基本科研[1]:1.
论文阅读
论文--二小时2.论文实现实验--小时3.数学SINS推导回顾--O分4.科研参考书【】1)的《》看0/0页-5.科研文档1)组织工作[1]:例会--英语能力
么得感情的日更机器
·
2024-01-10 20:37
@关于大模型的基础知识
@关于大模型的基础知识大模型的基础包括模型训练、数据集准备、微调和评估四大部分文章目录从大模型的训练说起大模型的基础调用大模型:例如调用llama2模型微调大模型从大模型的训练说起大模型的基础
transformer
self-attention
专心研究
·
2024-01-10 19:38
R语言数据研究
杂记
python
可用性测试
RNN 和
Transformer
复杂度比较
这里假设BatchSize为1,就是单样本的情况。原始RNN块:(1)单步计算H,包含两个矩阵向量乘法,和一个激活,复杂度HidSize²(2)一共有SeqLen步,所以整体复杂度SeqLen*HidSize²LSTM块:(1)单步计算FIC_hatO,包含八个矩阵向量乘法,和四个激活:HidSize²(2)单步计算C,包含两个逐元素乘法,和一个加法;HidSize²(3)单步计算H,包含一个逐元
绝不原创的飞龙
·
2024-01-10 18:06
人工智能
rnn
transformer
人工智能
MobileViT摘要
前言纯
Transformer
的问题:1、参数多,复杂度高2、缺少空间归纳偏置3、迁移到其他任务比较繁琐4、模型训练困难解决方法:将CNN与
Transformer
混合使用。
管不住心的大杜
·
2024-01-10 14:35
计算机视觉基础
深度学习
神经网络
人工智能
MobileViT
CNN与
transformer
的混合。轻量级、通用的、对移动端友好的vision
transformer
模型。
pythonSuperman
·
2024-01-10 14:04
模型
论文阅读
:Language Models are Few-Shot Learners(巨无霸OpenAI GPT3 2020)
原文连接
论文阅读
:LanguageModelsareFew-ShotLearners(巨无霸OpenAIGPT32020)-知乎目录收起摘要1介绍2方法2.1模型和架构2.2训练数据集2.3训练流程2.4
baidu_huihui
·
2024-01-10 13:23
大模型
语言模型
计算机视觉下的数据增强代码实现
数据增强的实现使用经典的pytorch框架下的torchvision.
transformer
s对计算机视觉进行增强的代码实现。使用下面的图像进行数据增强,相应的效果图如下所示!
Algorithm_Engineer_
·
2024-01-10 13:18
人工智能
计算机视觉
人工智能
transformer
进行文本分析的模型代码
这段代码定义了一个使用
Transformer
架构的PyTorch神经网络模型。
LinlyZhai
·
2024-01-10 12:09
transformer
深度学习
人工智能
conda新建、配置python3.8虚拟环境,torch-cuda1.8,torchtext0.9.0,huggingface安装
transformer
s库
起因是我在用bert的时候,导包报错Python环境缺少importlib.metadata模块。importlib.metadata是Python3.8引入的模块,而我的环境中使用的Python版本为3.7。所以我得重新配置一个python3.8的环境准备工作在开始菜单找到anacondaprompt(anaconda3),进入查看已有的虚拟环境命令:condaenvlist1.conda创建虚
LinlyZhai
·
2024-01-10 12:06
conda
深度学习
tensor
人工智能
numpy
【LLM
论文阅读
】NEFTU N E: LLM微调的免费午餐
指令微调的局限性指令微调对于训练llm的能力至关重要,而模型的有用性在很大程度上取决于我们从小指令数据集中获得最大信息的能力。在本文中,我们提出在微调正向传递的过程中,在训练数据的嵌入向量中添加随机噪声,论文实验显示这个简单的技巧可以提高指令微调的效果,通常有很大的优势,而不需要额外的计算或数据开销。NEFTune虽然简单,但对下游的会话质量有很大的影响。当像LLaMA-2-7B这样的原始LLM被
致Great
·
2024-01-10 09:16
论文阅读
人工智能
论文阅读
1---OpenCalib
论文阅读
之factory calibration模块
前言该论文的标定间比较高端,一旦四轮定位后,可确定标定板与车辆姿态。以下为本人理解,仅供参考。工厂标定,可理解为车辆相关的标定,不涉及传感器间标定该标定工具不依赖opencv;产线长度一般2.5米FactoryCalibrationTools:四轮定位+多位姿标定板1、CalibrationBoardSetupTools1)根据传感器安装位姿,生成标定板放置范围2)检测当前环境标定板姿态是否合适2
鸿_H
·
2024-01-10 09:44
论文阅读
论文阅读
论文阅读
:Making Large Language Models A Better Foundation For Dense Retrieval
论文链接Abstract密集检索需要学习区分性文本嵌入来表示查询和文档之间的语义关系。考虑到大型语言模型在语义理解方面的强大能力,它可能受益于大型语言模型的使用。然而,LLM是由文本生成任务预先训练的,其工作模式与将文本表示为嵌入完全不同。因此,必须研究如何正确地调整LLM,以便它们能够有效地初始化为密集检索的骨干编码器。在本文中,我们提出了一种新的方法,称为LLaRA(适用于密集检索的LLM),
comli_cn
·
2024-01-10 09:08
Embedding
论文阅读
语言模型
人工智能
DUET: Cross-Modal Semantic Grounding for Contrastive Zero-Shot Learning
论文阅读
问题的提出引出当前研究的不足与问题属性不平衡问题属性共现问题解决方案2.数据集和模型构建数据集传统的零样本学习范式v.s.DUET学习范式DUET模型总览属性级别对比学习==正负样本解释:==3.结果分析VIT-basedvision
transformer
encoder
GCTTTTTT
·
2024-01-10 09:37
知识图谱论文
论文阅读
知识图谱
人工智能
迁移学习
机器学习
ModuleNotFoundError: No module named ‘SwissArmy
Transformer
‘
小问题,直接pipinstall pipinstallSwissArmy
Transformer
但是,安装之后却还是提示,屏幕上依然标红ModuleNotFoundError:Nomodulenamed'SwissArmy
Transformer
技术宅学长
·
2024-01-10 08:39
python
transformer
人工智能
51-6 Vision
Transformer
,ViT 论文精读
论文原文:Animageisworth16x16words:
transformer
sforimagerecognitionatscale。
深圳季连AIgraphX
·
2024-01-10 08:41
AutoGPT
自动驾驶大模型
transformer
人工智能
深度学习
智慧城市
自动驾驶
gpt-3
Chinese-llama-2部署踩坑记录
Chinese-llama-2部署踩坑记录1.Chinese-LLaMA-Alpaca-2A.部署a.inference_with_
transformer
s_zhb.textgenerationwebui_zhc.api_calls_zhd.llamacpp_zhe.privategpt_zhf.langchain_zhToolGithub1
国家一级假勤奋大学生
·
2024-01-10 07:50
LLM
llama2
大语言模型
Chinese-llama-2
高光谱分类论文解读分享之基于多模态融合
Transformer
的遥感图像分类方法
IEEETGRS2023:基于多模态融合
Transformer
的遥感图像分类方法题目MultimodalFusion
Transformer
forRemoteSensingImageClassification
曦曦逆风
·
2024-01-10 07:57
分类
人工智能
NLP预训练方法:从BERT到ALBERT详解
使用的是
Transformer
,相对于rnn而言更加高效、能捕捉更长距离的依赖。
nnnancyyy
·
2024-01-10 06:41
python
自然语言处理
bert
深度学习
神经网络
bert和GPT使用的
transformer
有什么不同
Bert和GPT都使用了
Transformer
模型,但它们的主要用途是不同的。
Nate Hillick
·
2024-01-10 06:11
bert
transformer
深度学习
自然语言处理
机器学习
【组队学习】Task03:学习BERT和GPT
组队学习资料:datawhale8月组队学习-基于
transformer
s的自然语言处理(NLP)入门Task03主要学习内容:2.3-图解BERT.md2.4-图解GPT.md声明:NLP纯小白,本文内容主要是作为个人学习笔记
诡途
·
2024-01-10 06:06
算法和机器学习
机器学习
人工智能
自然语言处理
nlp
深度学习
Transformer
s 2023年度回顾 :从BERT到GPT4
一个关键的突破是引入了“自注意力”和用于序列处理的
Transformer
s架构,这使得之前主导该领域的几个关键问题得以解决。在本文中,我们将研究革命性的Tr
柴神
·
2024-01-10 06:32
语言模型
transformer
bert
人工智能
nlp
chatgpt
Transformer
-MM-Explainability
twomodalitiesareseparatedbythe[SEP]token,thenumbersineachattentionmodulerepresenttheEq.number.Eh_hhisthemean,∇\nabla∇A:=∂yt∂A{∂y_t}\over∂A∂A∂ytforyty_tytwhichisthemodel’soutput.⊙\odot⊙istheHadamardpro
宇来风满楼
·
2024-01-10 05:41
可解释机器学习
transformer
深度学习
人工智能
算法
机器学习
神经网络
书生大模型全链路开源体系
书生浦语大模型全链路开源体系开源了哪些东西数据书生万卷:一个2TB的涵盖多种模态与任务的数据集预训练InternLM-Train:微调XTuner:可供你低成本微调模型的工具箱部署LMDeploy:一个服务端场景下、
transformer
攻城狮白玉
·
2024-01-10 03:32
LLM
学习
LLM
书生大模型
Python轴承故障诊断 (十)基于VMD+CNN-Transfromer的故障分类
目录1变分模态分解VMD的Python示例2轴承故障数据的预处理2.1导入数据2.2故障VMD分解可视化3基于VMD+CNN-
Transformer
的轴承故障诊断分类3.1定义VMD-CNN-
Transformer
建模先锋
·
2024-01-10 03:50
python
cnn
分类
分析
transformer
模型的参数量、计算量、中间激活、KV cache
难得一遇的好文,转载自https://zhuanlan.zhihu.com/p/624740065,先做个简单总结:训练时的参数量由以下模型参数、前向的中间激活、后向的梯度、优化器参数组成:模型参数假设
Transformer
taoqick
·
2024-01-10 03:13
transformer
深度学习
人工智能
Transformer
推理加速方法-KV缓存(KV Cache)
1.使用KV缓存(KVCache)在推理进程中与训练不同,推理进行时上下文输入Encoder后计算出来的K和VK和VK和V是固定不变的,对于这里的K和VK和VK和V可以进行缓存后续复用;在Decoder中推理过程中,同样可以缓存计算出来的K和VK和VK和V减少重复计算,这里注意在输入是am计算时,输入仍需要前面I的输入。如下图:左边ATTN是Encoder,在T1时刻计算出来对应的K和VK和VK和
MLTalks
·
2024-01-10 03:10
训练框架
transformer
缓存
深度学习
解决git clone或者pip install git+https://github.com/ruotianluo/meshed-memory-
transformer
.git出现的一系列问题
出现的错误:问题1.fatal:unabletoaccess'https://github.com/ruotianluo/meshed-memory-
transformer
.git/':Failedtoconnecttogithub.comport443after21020ms
冰岛小贤
·
2024-01-10 03:08
git
pip
elasticsearch
【人工智能】结合代码通俗讲解
Transformer
推理性能优化技术:KV Cache
目录0.引言1.KVCache是啥?2.背景3.原理4.实现细节5.总结在解码器推理加速的时候,由于解码过程是一个token一个token的生成,如果每一次解码都从输入开始拼接好解码的token
OpenChat
·
2024-01-10 03:37
ChatGPT
人工智能
ChatGPT
论文阅读
:Bag of Tricks for Image Classification with Convolutional Neural Networks
AWS李沐大佬的paper,主要是介绍了一些模型训练过程中的技巧。通过这些小技巧的堆叠,把ResNet-50’stop-1在ImageNet上验证准确率从75.3%提升至79.29%。1.高效训练1.1large-batch-training大的batch可能会降低训练速度。用启发式的方法来解决Linearscalinglearningrate增大batch-size之后,梯度的期望不变,但是方差
涂山容容
·
2024-01-10 01:26
使用Pipeline和Column
Transformer
提升机器学习代码质量
机器学习项目中最冗长的步骤通常是数据清洗和预处理,Scikit-learn库中的Pipeline和andColumn
Transformer
通过一次封装替代逐步运行transformation步骤,从而减少冗余代码量
子诚之
·
2024-01-10 00:07
机器学习
机器学习
人工智能
了解一下InternLM2
这种模型通常采用深度神经网络结构,如
Transformer
、BERT、GPT(GenerativePre-trained
Transformer
)等。
羞儿
·
2024-01-09 23:51
深度学习
LLM
为什么叫chatGPT
GPT"是GenerativePretrained
Transformer
的缩写,表示这个模型是一种生成式预训练的变换器模型。因此,ChatGPT就是一个用于聊天和回答问题的生成式预训练变换器模型。
胡说先森
·
2024-01-09 22:46
chatgpt
深度学习
人工智能
自然语言处理
Hugging face库
1.
Transformer
s是NLP,CV,audio,speechprocessing任务的库。它包含了超过10000个预训练的模型,涵盖了各种NLP任务,如文本分类,问答,文本生成,情感分析等。
carmen_山海
·
2024-01-09 21:12
python基础
python
pytorch
AI编程
Attention Is All You Need--
Transformer
作者提出了一个新的简单的网络架构,叫做
Transformer
。这个架构只需要运用注意力机制,而不需要用RNN和CNN,通过减少模型参数简化了模型。作者通过实验同时说明了该架构的适应性较好。
sweet_Mary
·
2024-01-09 20:37
多模态学习
transformer
深度学习
人工智能
Transformer
论文--Attention Is All You Need
作者提出了仅依赖于注意力机制的的一种新的简单网络结构(
Transformer
),在机器翻译任务中与其他模型相比,该模型展现了更高的并行计算量同时大大减少了训练时间。
pepsi_w
·
2024-01-09 20:37
经典论文
transformer
深度学习
人工智能
Attention Is All You Need (
Transformer
原文)
最近按顺序读
Transformer
系列经典论文最前面是论文翻译,中间是背景+问题+方法步骤+实验过程,最后是文中的部分专业名词介绍(水平线分开,能力有限,部分翻译可能不太准确)摘要主要的序列转导模型基于复杂的循环或卷积神经网络
Y蓝田大海
·
2024-01-09 20:36
transformer
读论文
transformer
深度学习
人工智能
【读文献】Attention is all your need -
Transformer
题目:AttentionIsAllYouNeed主要作者:AshishVaswani,NoamShazeer主要机构:GoogleBrain,GoogleResearch发表时间:2017年1.要解决什么问题?基于RNN/CNN的Encoder-Decoder或者RNN带Attention的Encoder-Decoder不能并行计算或者并行计算的复杂度会随着输入输出距离的增加而大幅度增加,以及RN
无名草鸟
·
2024-01-09 20:05
ai
#文献
transformer
深度学习
自然语言处理
论文阅读
-Attention Is All You Need阅读报告-机器翻译
1Introduction本文是2017年底谷歌大脑发表的文章,针对自然语言处理领域的经典问题-机器翻译,提出了一个只基于attention的结构来处理序列模型相关的问题,该模型被称为“
Transformer
完美屁桃
·
2024-01-09 20:05
读论文
机器翻译
transformer
人工智能
Attention Is All You Need----
Transformer
论文解读
AttentionIsAllYouNeed1.Introduction2.Background3.ModelArchitecture3.1Encoder-DecoderStacks3.2Attention3.2.1ScaledDot-ProductAttention3.2.2Multi-HeadAttention3.2.3ApplicationsofAttentioninourModel3.3Po
FutureForMe@
·
2024-01-09 20:35
经典模型论文
深度学习
机器学习
自然语言处理
神经网络
论文阅读
BERT GPT -
transformer
在NLP领域的延伸
文章目录不会写的很详细,只是为了帮助我理解在CV领域
transformer
的拓展1摘要1.1BERT-核心1.2GPT-核心2模型架构2.1概览3区别3.1finetune和prompt3.2
transformer
highoooo
·
2024-01-09 20:03
自然语言处理
论文阅读
bert
论文阅读
Attention is all u need -
transformer
文章目录1摘要1.1核心2模型架构2.1概览2.2理解encoder-decoder架构2.2.1对比seq2seq,RNN2.2.2我的理解3.Sublayer3.1多头注意力multi-headself-attention3.1.1缩放点乘注意力ScaledDot-ProductAttention3.1.2QKV3.1.3multi-head3.1.4masked3.2线性层MLP3.3emb
highoooo
·
2024-01-09 20:00
论文阅读
transformer
深度学习
畸变矫正-深度学习相关论文学习
目录DocTr:DocumentImage
Transformer
forGeometricUnwarpingandIlluminationCorrectionSimFIR:ASimpleFrameworkforFisheyeImageRectificationwithSelf-supervisedRepresentationLearningModel-FreeDistortionRectificat
六个核桃Lu
·
2024-01-09 15:02
畸变矫正
深度学习
学习
人工智能
论文阅读
-PaLM-E:多模态语言模型
PaLM-E:一种体现的多模态语言模型3.1仅解码器LLM3.2仅限前缀解码器LLM3.3在机器人控制回路中体现输出:PaLM-E4.不同传感器模式的输入和场景表示4.1状态估计向量4.2Vision
Transformer
baidu_huihui
·
2024-01-09 13:14
论文阅读
palm
语言模型
多模态
chatgpt和gpt-3是什么关系?
ChatGPT是基于OpenAI的GPT-3(GenerativePretrained
Transformer
3)模型训练出来的一种语言生成模型。也就是说,ChatGPT是GPT-3的一个应用。
语嫣凝冰
·
2024-01-09 11:01
chatgpt
gpt-3
人工智能
深度学习
自然语言处理
基于GPT-3、ChatGPT、GPT-4等
Transformer
架构的自然语言处理
文章目录一、内容简介二、前言2.1
Transformer
模型标志着AI新时代的开始2.2
Transformer
架构具有革命性和颠覆性2.3GoogleBERT和OpenAIGPT-3等
Transformer
春人.
·
2024-01-09 11:54
好书分享
gpt-3
chatgpt
transformer
图像融合
论文阅读
:CS2Fusion: 通过估计特征补偿图谱实现自监督红外和可见光图像融合的对比学习
@article{wang2024cs2fusion,title={CS2Fusion:ContrastivelearningforSelf-Supervisedinfraredandvisibleimagefusionbyestimatingfeaturecompensationmap},author={Wang,XueandGuan,ZhengandQian,WenhuaandCao,Jind
图像强
·
2024-01-09 08:49
图像融合
论文阅读
图像处理
人工智能
论文笔记
深度学习
图像融合
图像融合
论文阅读
:CrossFuse: 一种基于交叉注意机制的红外与可见光图像融合方法
@article{li2024crossfuse,title={CrossFuse:Anovelcrossattentionmechanismbasedinfraredandvisibleimagefusionapproach},author={Li,HuiandWu,Xiao-Jun},journal={InformationFusion},volume={103},pages={102147}
图像强
·
2024-01-09 08:18
图像融合
论文阅读
图像处理
论文笔记
深度学习
人工智能
[
论文阅读
]4DRadarSLAM: A 4D Imaging Radar SLAM System for Large-scale Environments
目录1.摘要和引言:2.系统框架:2.1前端:2.2回环检测:2.3后端:3.实验和分析:4.结论1.摘要和引言:这篇论文介绍了一种名为“4DRadarSLAM”的新型4D成像雷达SLAM系统,旨在提高大规模环境下的定位与地图构建性能。与传统的基于激光雷达的SLAM系统相比,该系统在恶劣天气条件下表现更佳。它包括前端、回环检测和后端三个主要部分:前端通过扫描匹配计算里程计数据,回环检测模块识别回环
稻壳特筑
·
2024-01-09 08:18
笔记
SLAM
论文阅读
【
论文阅读
】深度学习中的后门攻击综述
深度学习中的后门攻击综述1.深度学习模型三种攻击范式1.1.对抗样本攻击1.2.数据投毒攻击1.3.后门攻击2.后门攻击特点3.常用术语和标记4.常用评估指标5.攻击设置5.1.触发器5.1.1.触发器属性5.1.2.触发器类型5.1.3.攻击类型5.2.目标类别5.3.训练方式1.深度学习模型三种攻击范式后门攻击是一种隐秘而具有挑战性的网络安全威胁,它指的是攻击者利用漏洞或特殊访问权限,在系统中
ADSecT吴中生
·
2024-01-09 08:43
IT技术
论文阅读
深度学习
人工智能
网络安全
机器学习
浦语大模型趣味 Demo课程学习及实战应用
这种模型通常采用深度神经网络结构,如
Transformer
、BE
m0_54169072
·
2024-01-09 05:15
语言模型
图像处理
上一页
20
21
22
23
24
25
26
27
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他