E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
transformer论文阅读
论文阅读
《A Closer Look at Few-shot Classification》
耽搁了很久没有再写这段时间身心有点疲惫情绪不是很健康以至于人的状态也不好这篇文是上周就想写了…拖到了现在论文名称:ACloserLookatFew-shotClassification论文地址:https://arxiv.org/abs/1904.04232
论文阅读
参考
LiBiscuit
·
2023-10-03 18:54
Transformer
学习-self-attention
这里写自定义目录标题Self-attentionMulti-headself-attention用self-attention解决其他问题Self-attention用Wq、Wk、Wv分别乘输入向量得到q、k、v向量用每个q向量乘所有的k向量得到对应项的attention,即用每项的query向量去匹配所有的key向量,得到该项对所有项的注意力打分。可以用矩阵优化运算。激活函数softmax可以用
王小燊oom
·
2023-10-03 18:19
LLM
AI解决方案
transformer
学习
深度学习
PRTR论文代码解读
PoseRecognitionwithCascade
Transformer
spaper:https://arxiv.org/abs/2104.06976code:https://github.com/mlpc-ucsd
不学污术的小Z
·
2023-10-03 16:56
姿态识别
python
计算机视觉
Llama2-Chinese项目:4-量化模型
下面是一个调用FlagAlpha/Llama2-Chinese-13b-Chat[1]的4bit压缩版本FlagAlpha/Llama2-Chinese-13b-Chat-4bit[2]的例子:from
transformer
simportAutoTokenizerfromauto_gptqimportAutoGPTQForCausalLMmodel
NLP工程化
·
2023-10-03 16:14
python
人工智能
Llama2
AutoGPTQ
LeViT
LeViT:aVision
Transformer
inConvNet’sClothingforFasterInferencehttps://github.com/facebookresearch/LeViThttps
Valar_Morghulis
·
2023-10-03 15:16
ImportError: cannot import name ‘GenerationConfig‘ from ‘
transformer
s.generation.utils‘
部署Chatglm2的时候报错:ImportError:cannotimportname'GenerationConfig'from'
transformer
s.generation.utils'出错原因是本地的
mldxs
·
2023-10-03 15:25
前端
linux
javascript
利用ChatGPT写申请文书?国外大学对此有何看法?
ChatGPT(GenerativePre-trained
Transformer
)作为一种人工智能驱动的自然语言处理工具,具有令人瞩目的功能。
Do1twell
·
2023-10-03 13:20
chatgpt
【多目标跟踪】 TrackFormer 耗时三天 单句翻译!!!
TrackFormer:Multi-ObjectTrackingwith
Transformer
sAbstractThechallengingtaskofmulti-objecttracking(MOT)
小胡的博客号Aoife艺馨
·
2023-10-03 13:46
目标跟踪
人工智能
计算机视觉
CSS 变形(CSS3) transform
变形转换transformtransform变换变形的意思《
transformer
s变形金刚》1、移动translate(x,y)translate移动平移的意思tran
快乐de馒头
·
2023-10-03 13:03
css
Maxout Networks
论文阅读
[toc]1.MaxoutNetworksarXiv:1302.4389[stat.ML]tensorflow2代码:https://github.com/zhangkaihua88/ML_Paper1.1.摘要maxout:旨在通过dropout来加快优化过程,并提高准确度(与drop共同使用);模型的输出是模型输入的最大值1.2.介绍dropout可以训练集成模型共享参数并近似的对这些模型的预
山雾幻华
·
2023-10-03 12:41
【无标题】YOLOV5和YOLOV8主干改进:华为诺亚提出全新骨干架构VanillaNet
VanillaNet:一种极简设计的神经网络架构,性能与代表性CNN工作和视觉
Transformer
不相上下,突出了极简主义在深度学习中的潜力。
小脑袋嗡嗡的
·
2023-10-03 10:09
YOLO
人工智能
transformer
系列2---
transformer
架构详细解析
transformer
详细解析Encoder1输入1.1Embedding词嵌入1.1.1Embedding定义1.1.2几种编码方式对比1.1.3实现代码1.2位置编码1.2.1使用位置编码原因1.2.2
CV一闪一闪亮晶晶
·
2023-10-03 08:47
transformer
transformer
深度学习
人工智能
transformer
系列1---Attention Is All You Need全文详细翻译
论文链接:AttentionIsAllYouNeed.代码链接:
Transformer
.
Transformer
0Abstract摘要1Introduction引言2background背景3ModelArchitecture
CV一闪一闪亮晶晶
·
2023-10-03 08:47
transformer
transformer
深度学习
人工智能
transformer
系列3---
transformer
结构参数量统计
Transformer
参数量统计1Embedding2PositionalEncoding3
Transformer
Encoder3.1单层EncoderLayer3.1.1MHA3.1.2layernormalization3.1.3MLP3.1.4layernormalization3.2N
CV一闪一闪亮晶晶
·
2023-10-03 08:17
transformer
transformer
深度学习
人工智能
transformer
系列4---
transformer
结构计算量统计
transformer
计算量1术语解释2矩阵相乘FLOPs3
Transformer
的FLOPs估计3.1MultiHeadAttention3.1.1Q,K,V计算3.1.2attention计算3.1.3MultiHeadAttention
CV一闪一闪亮晶晶
·
2023-10-03 08:16
transformer
transformer
深度学习
人工智能
GPT系列模型解读:GPT-1
GPT系列GPT(GenerativePre-trained
Transformer
)是一系列基于
Transformer
架构的预训练语言模型,由OpenAI开发。
青云遮夜雨
·
2023-10-03 08:07
NLP
gpt
使用
transformer
s进行端到端的目标检测
目录目标检测的旧方法使用
transformer
s进行端到端的目标检测抛去了目标检测旧的方法网络架构
Transformer
encoder
Transformer
sandParallelDecoding注意力起到的作用使用
Q渡劫
·
2023-10-03 05:42
经典原文模型
目标跟踪
人工智能
计算机视觉
transformer
s简介
目录1、前言2、网络结构(1)、
Transformer
s的总体架构可以分为四部分(2)、输入文本包含(3)、输出部分包含(4)、编码器部分(5)、解码器部分1、前言处理序列任务的时候,首要的选择就是RNN
Q渡劫
·
2023-10-03 05:42
Tranformers
深度学习
神经网络
人工智能
python
位置编码器
unsqueeze扩展维度(2)、使用squeeze降维(3)、显示张量维度(4)、随机失活张量中的数值3、定义位置编码器类,我们同样把它看作是一个层,因此会继承nn.Module1、位置编码器的作用因为在
Transformer
s
Q渡劫
·
2023-10-03 05:41
人工智能
神经网络
pytorch
深度学习
目标检测YOLO实战应用案例100讲-基于端到端的自动驾驶道路环境目标检测(续)
目录3.1.2多尺度小目标检测3.1.3Swin
Transformer
Layer3.1.4MCS-YOLO网络结构图3.2实验环境及参数设置
林聪木
·
2023-10-03 05:56
目标检测
YOLO
自动驾驶
人工智能助手,你我皆可拥有
ChatGPT是一种基于
Transformer
的语言模型,由OpenAI提出。它在自然语言处理领域取得了很大的成功,被广泛应用于对话系统、文本生成、文本分类、问答系统等多个领域。
开源服务指南
·
2023-10-03 04:46
开源专题
人工智能
开源
简单走近ChatGPT
学习范式的发展(一)规则和机器学习时期(二)基于神经网络的监督学习时期(三)PretrainthenFine-tune时期(四)PromptLearning时期三、预训练介绍(一)预训练方法最重要三要素
Transformer
张彦峰ZYF
·
2023-10-03 01:36
ChatGPT
chatgpt
阅读笔记-TNT-
Transformer
in
Transformer
这篇文章宣传称致敬NetworkinNetwork工作,其本质一句话概括就是在ViT的基础上对每一个patch进行了
Transformer
。Introduction在介绍部分的几句结论我觉得值得商榷。
熙熙江湖
·
2023-10-03 00:01
计算机视觉——飞桨深度学习实战-深度学习网络模型
本章主要围绕着深度学习网络模型的算法架构、常见模型展开了详细介绍,从经典的深度学习网络模型以CNN、RNN为代表,到为了解决显存不足、实时性不够等问题的轻量化网络设计,以及近年来卷各大计算机视觉任务的前沿网络模型
Transformer
喜欢吃豆
·
2023-10-02 22:12
计算机视觉
计算机视觉
paddlepaddle
深度学习
MobileViT论文
:https://arxiv.org/abs/2110.02178源码地址(pytorch实现):https://github.com/apple/ml-cvnets前言MobileVit是由CNN和
Transformer
奶茶不加冰
·
2023-10-02 22:11
计算机视觉
神经网络
transformer
Transformer
在小目标检测上的应用
文章分类在AI学习笔记:AI学习笔记(1)---《
Transformer
在小目标检测上的应用》
Transformer
在小目标检测上的应用目录1小目标检测介绍2引入
transformer
3用于小目标检测的
不去幼儿园
·
2023-10-02 21:05
AI学习
人工智能
目标检测
人工智能
计算机视觉
神经网络
卷积神经网络
用通俗易懂的方式讲解大模型分布式训练并行技术:张量并行
近年来,随着
Transformer
、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,传统的单机单卡模式已经无法满足超大模型进行训练的要求。
Python算法实战
·
2023-10-02 21:00
大模型理论与实战
分布式
什么是ChatGPT?ChatGPT有什么应用场景?ChatGPT的优点和限制
它采用了开源的
transformer
实现,并利用预训练和微调技术来提高模型的性能和可用性。
ChatGPT研究院
·
2023-10-02 19:42
chatgpt
人工智能
python
论文阅读
笔记 GLM: General Language Model Pretrainingwith Autoregressive Blank Infilling
2022-Du-GLMGeneralLanguageModelPretrainingwithAutoregressiveBlankInfillingAbstractGLM基于自回归填空的通用语言模型,可比预训练自编码模型BERT、自回归模型GPT、编码-解码模型T5效果好。自回归填空架构微调GLM讨论与分析比较GLM与其他预训练模型的差异与BERT比较与XLNet比较与T5比较与UniLM比较实验
Sunny G helloworld
·
2023-10-02 16:34
论文阅读
笔记
语言模型
Sentence
Transformer
之论文解读
摘要原文标题:Sentence-BERT:SentenceEmbeddingsusingSiameseBERT-Networks链接:https://arxiv.org/pdf/1908.10084.pdf尽管Bert和RoBERTa在句子对回归任务上,例如语义文本相似度(SemanticTextSimilarity),取得了新的sota结果。但是,需要将两个句子都输入到模型中,造成较大的计算延时
xiao4816
·
2023-10-02 13:37
embedding
nlp
Java 反序列化漏洞-Apache Commons Collections3
TemplatesImplcom.sun.org.apache.xalan.internal.xsltc.trax.TrAXFilterorg.apache.commons.collections.functors.Instantiate
Transformer
lmonstergg
·
2023-10-02 07:14
Java
web学习
java
安全
Deep Network with Stochastic Depth(阅读笔记)一种随机深度的正则化方法
题记:最近Swin
Transformer
在计算机视觉上大放异彩,成为许多视觉榜单上的霸主,然而传统的Conv卷积如Resnet就真的不行了吗?
Wisley.Wang
·
2023-10-02 03:04
人脸识别
torch
深度学习
计算机视觉
人工智能
阅读笔记-PVT-Pyramid Vision
Transformer
_A versatile backbone for dense prediction without convolutions
来源:arXiv:2102.12122v1单位:南大、南理、商汤、港中文代码:https://github.com/whai362/PVTtitle文章内容用一句话概括就是给ViT方法装上金字塔结构处理密集预测问题。主要创新点包括两点:1.progressiveshrinkingstrategy能够实现金字塔结构;2.spatialreductionattention减少self-attentio
熙熙江湖
·
2023-10-02 02:24
手动实现
Transformer
Transformer
和BERT可谓是LLM的基础模型,彻底搞懂极其必要。
NLP工程化
·
2023-10-02 00:04
transformer
深度学习
人工智能
2023年显著性检测论文及代码汇总(2)
ACMMMRecurrentMulti-scale
Transformer
forHigh-ResolutionSalientObjectDetectioncodeAbstacrt:现有的HRSOD方法没有足够大规模的数据集用于训练和评估
看到我请叫我去学java吖
·
2023-10-01 23:03
目标检测
计算机视觉
机器学习
2023年显著性检测论文及代码汇总(3)
因此,本文引入了CNN辅助的
Transformer
架构,并提出了点感知交互和CNN诱导
看到我请叫我去学java吖
·
2023-10-01 23:02
计算机视觉
人工智能
机器学习
小型目标检测中的
Transformer
:一个基准和最先进技术的综述
文章目录摘要1、简介2、背景3、基于
transformer
的小物体检测器3.1、目标表示3.2、针对高分辨率或多尺度特征图的高速注意力3.3、完全基于
Transformer
的检测器3.4、架构与块变形3.5
静静AI学堂
·
2023-10-01 23:57
高质量AI论文翻译
小目标改进与实战
目标检测
transformer
人工智能
大模型tokenizer流式响应解决词句连贯性问题
大模型tokenizer词句连贯性问题现象from
transformer
simportLlamaTokenizerFastimportnumpyasnptokenizer=LlamaTokenizerFast.from_pretrained
Mr.Lee jack
·
2023-10-01 21:10
Ai
语言模型
【
论文阅读
】通过3D和2D网络的交叉示教实现稀疏标注的3D医学图像分割(CVPR2023)
目录前言方法标注3D-2DCrossTeaching伪标签选择Hard-SoftConfidenceThresholdConsistentPredictionFusion结论论文:3DMedicalImageSegmentationwithSparseAnnotationviaCross-Teachingbetween3Dand2DNetworks代码:https://github.com/hen
鱼小丸
·
2023-10-01 21:02
论文阅读
【
论文阅读
】(CVPR2023)用于半监督医学图像分割的双向复制粘贴
目录前言方法BCPMean-teacherandTraningStrategyPre-TrainingviaCopy-PasteBidirectionalCopy-PasteImagesBidirectionalCopy-PasteSupervisorySignalsLossFunctionTestingPhase结论先看这个图,感觉比较清晰。它整个的思路就是把有标签的图片和无标签的图片拼在一起,
鱼小丸
·
2023-10-01 21:01
论文阅读
【
论文阅读
】DiffusionDet: Diffusion Model for Object Detection
原文链接:https://arxiv.org/abs/2211.097881.引言 过去的目标检测方法依赖手工设计的候选对象(如滑动窗口、区域提案、锚框和参考点);或是依赖可学习的物体查询。 本文使用更加简单的方法,随机初始化边界框(不含可学习参数或启发式先验),直接从噪声框中细化位置和尺寸。这种从噪声生成边界框的方法与去噪扩散模型生成图像的过程类似。 DiffusionDet将目标检测任务
byzy
·
2023-10-01 18:22
扩散模型与基于图像的感知
论文阅读
目标检测
计算机视觉
深度学习
自动驾驶
【CVPR 2023】DSVT: Dynamic Sparse Voxel
Transformer
with Rotated Sets
文章目录开场白效果意图重点VoxelNet:End-to-EndLearningforPointCloudBased3DObjectDetectionX-AxisDSVTLayerY-AxisDSVTLayerDynamicSparseWindowAttentionDynamicsetpartitionRotatedsetattentionforintra-windowfeaturepropaga
_cv_
·
2023-10-01 17:08
transformer
深度学习
人工智能
Transformer
或成最大赢家!
Transformer
或成最大赢家这里重点强调一下
Transformer
的"分
Amusi(CVer)
·
2023-10-01 16:18
人工智能
计算机视觉
机器学习
java
deep
learning
【文章学习系列之模型】SCALEFORMER
本章内容文章概况模型结构主要方法多尺度框架跨尺度标准化模型输入编码损失函数实验结果消融实验跨尺度标准化自适应损失函数总结文章概况《SCALEFORMER:ITERATIVEMULTI-SCALEREFINING
TRANSFORMER
SFORTIMESERIESFORECASTING
清流自诩
·
2023-10-01 16:13
深度学习零散记录
学习
深度学习
人工智能
运用文心大模型优化前端工程师简历
:第三步,写项目经验:文心大模型输出结果第一步第二步第三步大模型优化简历文心大模型输出结果openAI-Chat3.5输出结果总结大模型写简历GPT的全称,是GenerativePre-Trained
Transformer
怪我冷i
·
2023-10-01 14:09
大模型
前端
AI编程
AI写作
AI作画
阅读笔记-CvT: Introducing Convolutions to Vision
Transformer
s
代码:https://github.com/rishikksh20/convolution-vision-
transformer
s/image.png这篇文章的目的是在ViT框架中融入CNN的特性,从而引入局部特征
熙熙江湖
·
2023-10-01 13:06
【通意千问】大模型GitHub开源工程学习笔记(2)--使用Qwen进行推理的示例代码解析,及
transformer
s的库使用
使用
Transformer
s来使用模型如希望使用Qwen-chat进行推理,所需要写的只是如下所示的数行代码。
大表哥汽车人
·
2023-10-01 12:04
通意千问大语言模型学习笔记
学习
笔记
人工智能
语言模型
深度学习
BERT(
Transformer
Encoder)详解和TensorFlow实现(附源码)
文章目录一、BERT简介1.模型2.训练2.1MaskedLanguageModel2.2NextSentencePrediction2.3BERT的输出3.微调二、源码1.加载BERT模型2.加载预处理模型3.加载BERT4.构建BERT微调模型5.训练6.推理一、BERT简介1.模型 BERT的全称为BidirectionalEncoderRepresentationfromTransfor
liuqiker
·
2023-10-01 12:20
机器学习/深度学习
tensorflow
bert
transformer
深度学习
gpt
大规模语言模型的模型结构---编码器-解码器结构(GLM,UL2系列)
2020年OpenAI发布了由包含1750亿参数的神经网络构成的生成式大规模预训练语言模型GPT-3(Gener-ativePre-trained
Transformer
3)。
hanscalZheng
·
2023-10-01 11:26
大语言模型
语言模型
人工智能
自然语言处理
大规模语言模型--中文 LLaMA和Alpaca
之前已经对原始LLaMA技术进行了深入解读,LLaMA基于
transformer
结构进行了一些改进,比如预归一化、SwiGLU激活函数以及旋转embedding。LLaMA的
hanscalZheng
·
2023-10-01 11:54
大语言模型
语言模型
llama
人工智能
上一页
69
70
71
72
73
74
75
76
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他