E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
transformer论文阅读
自监督DINO论文笔记
论文名称:EmergingPropertiesinSelf-SupervisedVision
Transformer
s发表时间:CVPR2021作者及组织:FacebookAIResearchGitHub
hello_dear_you
·
2023-10-10 12:59
自监督ViT
自监督学习
大模型
Understanding Large Language Models-TianQi Chen
papersRecommendedreadingPre-lecturequestionsPresentersFeedbackprovidersSep7(Wed)Introduction1.中文解读HumanLanguageUnderstanding&Reasoningz2.AttentionIsAllYouNeed(
Transformer
s
liangdengne_123
·
2023-10-10 12:47
语言模型
人工智能
自然语言处理
Parameter-Efficient Fine-tuning 相关工作梳理
©PaperWeekly原创·作者|避暑山庄梁朝伟研究方向|自然语言处理背景随着计算算力的不断增加,以
transformer
为主要架构的预训练模型进入了百花齐放的时代。
PaperWeekly
·
2023-10-10 12:45
机器学习
人工智能
深度学习
python
计算机视觉
BitFit : Bias-term Fine-tuning
Bias-termFine-tuning题目:BitFit:SimpleParameter-efficientFine-tuningforTranformer-basedMaskedLanguage-models(Bitfit:对于ML
transformer
be_humble
·
2023-10-10 12:44
论文笔记
nlp
python
论文阅读
:Fast Point R-CNN
1.introduction部分首先介绍传统的CNN面向图像数据来源,但是针对点云做深度学习在无人驾驶,机器人等领域是很有必要的。然后说点云,太稀疏,奇异性大,不好直接做。那么有一种比较流行的处理手段就是:volumetric体素化。但是volumetric又有计算量太大的缺点。那么就有两种处理手段:usecoarsegrid:粗的栅格化处理。这种方法的问题:无法利用fine-grained的信息
Allen的光影天地
·
2023-10-10 08:25
[论文笔记]Poly-encoder
也是本系列第一篇基于
Transformer
架构的模型,对于进行句子对之间比较的任务,有两种常用的途经:Cross-encoder在句子对上进行交互完全自注意力;Bi-encoder单独地编码不同的句子。
愤怒的可乐
·
2023-10-10 08:56
论文翻译/笔记
#
文本匹配[论文]
论文阅读
Poly-encoder
大模型推理框架概述
简介vLLM是一个开源的大模型推理加速框架,通过PagedAttention高效地管理attention中缓存的张量,实现了比HuggingFace
Transformer
s高14-24倍的吞吐量。
Python算法实战
·
2023-10-10 05:08
大模型理论与实战
语言模型
人工智能
自然语言处理
算法
图像 跟踪 - MOTR: End-to-End Multiple-Object Tracking with
Transformer
(ECCV 2022)
MOTR:End-to-EndMultiple-ObjectTrackingwith
Transformer
-使用
Transformer
进行端到端多目标跟踪(ECCV2022)摘要1.引言2.相关工作3.
77wpa
·
2023-10-10 04:04
#
图像
跟踪
transformer
深度学习
人工智能
【状态估计】将
Transformer
和LSTM与EM算法结合到卡尔曼滤波器中,用于状态估计(Python代码实现)
欢迎来到本博客❤️❤️博主优势:博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。⛳️座右铭:行百里者,半于九十。本文目录如下:目录1概述2运行结果3参考文献4Python代码及文章讲解1概述文章来源:卡尔曼滤波器需要模型的真实参数,并递归地求解最优状态估计期望最大化(EM)算法适用于估计卡尔曼滤波之前不可用的模型参数,即EM-KF算法。为了提高EM-KF算法的准确性,作者提出了一种状态估计方法,
程序猿鑫
·
2023-10-10 02:17
transformer
lstm
算法
自然语言处理实战项目20-一看就懂的BERT模型介绍,指导大家对BERT下游任务改造的实际应用
它的结构是由多个
Transformer
编码器组成的,而
Transformer
编码器是由多个自注意力机制组成的。在训练中,模型通过预测遮盖的单
微学AI
·
2023-10-10 02:34
自然语言处理实战
自然语言处理
bert
人工智能
开源了!UniControl:可控视觉生成的统一扩散模型
点击下方卡片,关注“CVer”公众号AI/CV重磅干货,第一时间送达点击进入—>【扩散模型和
Transformer
】交流群转载自:机器之心来自SalesforceAI、东北大学、斯坦福大学的研究者提出了
Amusi(CVer)
·
2023-10-09 22:48
人工智能
计算机视觉
深度学习
机器学习
神经网络
招聘 | 百度-文心一言-核心算法岗位-大语言模型-校招/社招
交流群文心一言算法岗位招聘工作职责大语言模型能力优化算法设计和技术研发大语言模型内容安全算法设计和技术研发大语言模型知识增强算法设计和技术研发大语言模型训练、推理和效果分析岗位要求具备自然语言大模型研发经验,熟练掌握
Transformer
zenRRan
·
2023-10-09 21:53
百度
文心一言
语言模型
人工智能
自然语言处理
A Survey and Framework of Cooperative Perception
论文阅读
论文链接ASurveyandFrameworkofCooperativePerception:FromHeterogeneousSingletontoHierarchicalCooperation0.Abstract首次提出统一的CP(CooperativePercepetion)框架回顾了基于不同类型传感器的CP系统与分类对节点结构,传感模态和融合方法进行回顾提出了一个分层的CP框架,回顾现有的
KrMzyc
·
2023-10-09 21:18
论文阅读
Collaborative Perception for Autonomous Driving: Current Status and Future Trend
论文阅读
论文连接CollaborativePerceptionforAutonomousDriving:CurrentStatusandFutureTrend0.Abstract个体车辆能力有限,导致感知性能提升遇到瓶颈。为了突破个体感知的限制,协作感知被提出,使车辆能够共享信息来感知超出视线和视野的环境对有前景的协作感知技术的相关工作进行了回顾,包括介绍基本概念、概括协作模式并总结协作感知的关键要素和应
KrMzyc
·
2023-10-09 21:48
协同感知
论文阅读
Survey on Cooperative Perception in an Automotive Context
论文阅读
论文链接SurveyonCooperativePerceptioninanAutomotiveContext0.Abstract本文就协同基础设施领域提供相关环境的调查回顾了感知中涉及的主要模块:定位,目标检测和跟踪,地图生成提供了协同感知的SWOT1.Intro无人驾驶汽车的背景、发展历程---->协同驾驶:v2v到v2I合作可在三个层次的数据共享中进行:早期融合阶段:原始数据的融合,原始数据来
KrMzyc
·
2023-10-09 21:12
协同感知
论文阅读
【
Transformer
理解】
Transformer
是一个利用注意力机制来提高模型训练速度的模型。
阿牛02
·
2023-10-09 20:15
【
论文阅读
】LLM4RS:TALLRec: An Effective and Efficient Tuning Framework to Align Large Language Model w RS
【
论文阅读
】LLM4RS:TALLRec:AnEffectiveandEfficientTuningFrameworktoAlignLargeLanguageModelwRS文章目录【
论文阅读
】LLM4RS
笃℃
·
2023-10-09 19:59
LLM+RS
论文阅读
推荐系统
论文阅读
语言模型
人工智能
推荐算法
044基于深度学习的鱼类检测
CNN分类的模型一般使用包括alexnet、DenseNet、DLA、GoogleNet、Mobilenet、ResNet、ResNeXt、ShuffleNet、VGG、EfficientNet和Swin
transformer
lyx_78932
·
2023-10-09 18:03
深度学习
python
深度学习
人工智能
机器学习
python
计算机视觉
ACT_Electronic
Transformer
_v1.1 ansys变压器仿真扩展插件
这个插件在ansys插件市场就可以下载ACT:Electronic
Transformer
R19.1(ETK)InstalltheExtension•TheextensioncanbedownloadedfromANSYSACTApplicationStorehttps
头枝
·
2023-10-09 16:46
ansys
仿真
ansys
仿真
Transformer
预测 | Python实现基于
Transformer
的股票价格预测(tensorflow)
文章目录效果一览文章概述程序设计参考资料效果一览文章概述
Transformer
预测|Python实现基于
Transformer
的股票价格预测(tensorflow)程序设计importnumpyasnpimportmatplotlib.pyplot
算法如诗
·
2023-10-09 15:44
Transformer模型
python
transformer
tensorflow
串联起深度学习的整体,以及其他领域
,例如y表示房价、经济增长率、工资收入、地心引力大小、引力波的幅度等等5、如何定义模型,也就是如何定义网络,比如CNN、RNN、
Transformer
等等6、如何收集数据:,样本数据,例如:人的需求指向
xw555666
·
2023-10-09 15:39
深度学习
人工智能
GPT系列论文解读:GPT-3
GPT系列GPT(GenerativePre-trained
Transformer
)是一系列基于
Transformer
架构的预训练语言模型,由OpenAI开发。
青云遮夜雨
·
2023-10-09 14:57
NLP
gpt
gpt-3
Deep learning of free boundary and Stefan problems
论文阅读
复现
DeeplearningoffreeboundaryandStefanproblems
论文阅读
复现摘要1.一维一相Stefan问题1.1DirectStefanproblem1.2InverseTypeI1.3InverseTypeII2
喝过期的拉菲
·
2023-10-09 14:20
深度学习解PDE
深度学习
论文阅读
论文阅读
—基于采样的快速区域优化
kRRT*KinodynamicB-RRT*选取吸引点实验【前端】双向运动,缩短时间,通过采样方向划定有偏采样,实现轨迹的区域优化(A*产生吸引点),减少迭代次数【后端区域优化】5阶多项式,BVP求解有约束方程KinodynamicB-RRT*RRT*+双向搜索+区域优化:Connect()、Steer()尽可能花少量时间避免碰撞,按时间切分轨迹片段,由此计算目标成本:平滑性成本:平滑后相似性成本
oliveQ
·
2023-10-09 14:07
总结
算法
DALL-E: Zero-Shot Text-to-Image Generation
Zero-ShotText-to-ImageGeneration
论文阅读
笔记摘要:基于零样本(zero-shot)生成。使用两亿个文本-图像对训练。
芋圆526
·
2023-10-09 13:31
论文阅读
NLP-预训练模型-2019-NLU:XLNet【 在
Transformer
-XL的基础上:①“排列组合LM”取代Bert中的“掩码LM”解决其弊端;②使用“双流注意力机制”解决位置信息】
预训练模型往往是语言模型,因为语言模型的训练是无监督的,可以获得大规模语料,同时语言模型又是许多典型NLP任务的基础,如机器翻译,文本生成,阅读理解等,常见的预训练模型有BERT,GPT,roBERTa,
transformer
u013250861
·
2023-10-09 12:24
#
Bert系列
人工智能
深度学习
自然语言处理
预训练模型
XLNet
bert入门
bert是什么BERT(BidirectionalEncoderRepresentationsfrom
Transformer
s)是一种自然语言处理(NLP)中的预训练模型,它是基于
Transformer
李亚松-
·
2023-10-09 11:40
bert
人工智能
深度学习
3D mesh重建003-Texformer:3D Human Texture Estimation from a Single Image with
Transformer
s
3Dmesh重建003-Texformer:3DHumanTextureEstimationfromaSingleImagewith
Transformer
s文章目录0个人理解1论文结构0个人理解 作者提出一种使用
小熊bdg
·
2023-10-09 11:10
三维重建
深度学习
3d
深度学习
人工智能
【论文精度】
Transformer
--Attention Is All You Need
spm_id_from=pageDriverPaper:https://arxiv.org/pdf/1706.03762.pdf
Transformer
开创了继MLP、CNN和RNN之后的第四大类模型摘要
不会绑马尾的女孩
·
2023-10-09 08:12
论文
深度学习
transformer
深度学习
自然语言处理
【HuggingFace】
Transformer
s(V4.34.0 稳定)支持的模型
Transformer
4.43.40版本是自然语言处理领域的一个重要工具包,为开发者提供了丰富的预训练模型资源,可以用于各种文本处理任务。
大表哥汽车人
·
2023-10-09 01:28
Transformers
HuggingFace
人工智能
transformers
huggingFace
语言模型
论文阅读
——Latent Fingerprint Registration via Matching Densely Sampled Points
一、摘要潜指纹的匹配是一个非常重要但未解决的问题。作为潜指纹匹配的一个关键步骤,潜指纹配准的性能对最终匹配结果影响显著。当下的潜指纹配准算法主要是基于建立指纹潜指纹和数据库指纹的细节点(或者关键点,minutiae)之间的联系的方法,当指纹面积较小或质量较差等因素导致提取出来的关键点较少时,这种方法自然很难取得好的效果。故指纹细节特征的提取成为了潜指纹配准的瓶颈。本文提出了一种基于非细节点特征的指
吃远
·
2023-10-09 00:24
YoloV8改进策略:EfficientViT,高效的视觉
transformer
与级联组注意力提升YoloV8的速度和精度,打造高效的YoloV8
文章目录摘要论文:《EfficientViT:高效视觉
transformer
与级联组注意力》1、简介2、用视觉
transformer
加速2.1.内存效率2.2.计算效率2.3.参数效率3、高效视觉
Transformer
3.1
静静AI学堂
·
2023-10-08 22:39
Yolo系列轻量化改进
YOLO
transformer
深度学习
EfficientViT:高效视觉
transformer
与级联组注意力
文章目录摘要1、简介2、用视觉
transformer
加速2.1.内存效率2.2.计算效率2.3.参数效率3、高效视觉
Transformer
3.1.EfficientViT的构建块3.2、EfficientViT
静静AI学堂
·
2023-10-08 22:09
高质量AI论文翻译
transformer
深度学习
人工智能
YoloV5改进策略:EfficientViT,高效的视觉
transformer
与级联组注意力提升YoloV5的速度和精度,打造高效的YoloV5
文章目录摘要论文:《EfficientViT:高效视觉
transformer
与级联组注意力》1、简介2、用视觉
transformer
加速2.1.内存效率2.2.计算效率2.3.参数效率3、高效视觉
Transformer
3.1
静静AI学堂
·
2023-10-08 22:33
Yolo系列轻量化改进
YOLO
transformer
深度学习
Transformer
论文逐段精读
原文详细解读视频:https://www.bilibili.com/video/BV1pu411o7BE笔记:https://www.bilibili.com/read/cv13759416spm_id_from=333.788.b_636f6d6d656e74.47另一个模型讲解视频bilibili.com/video/BV1Di4y1c7Zmp=2&spm_id_from=pageDriver
coast_s
·
2023-10-08 22:00
论文记录
transformer
深度学习
人工智能
【NLP】Datawhale-AI夏令营Day8-10打卡:大模型基础
Transformer
⭐️最近参加了由Datawhale主办、联合科大讯飞、阿里云天池发起的AI夏令营(第三期),我参与了深度学习实践-NLP(自然语言处理)方向⭐️作为NLP小白,我希望能通过本次夏令营的学习实践,对NLP有初步的了解,学习大模型,动手完成NLP项目内容,同时通过社区交流学习,提升调参优化等能力⭐️今天是打卡的第八天!✊✊✊⭐️虽然分数刷到1了,但是有些基础知识感觉还是不太扎实,因此这几天我复盘了一下
不雨_亦潇潇
·
2023-10-08 22:59
人工智能AI
#
自然语言处理NLP
Python
人工智能
自然语言处理
transformer
NLP
AI
大模型
attention
【
Transformer
论文精读】……ViT……(
TRANSFORMER
S FOR IMAGE RECOGNITION AT SCALE)
)三、RelatedWork(相关工作)四、Method(方法)五、Experiments(实验)六、Conclusion(结论)七、小总结论文题目:ANIMAGEISWORTH16X16WORDS:
TRANSFORMER
SFORIMAGERECOGNITIONATSCALE
深度不学习!!
·
2023-10-08 22:27
论文精读+复现
个人笔记
深度学习
人工智能
开启AI大模型时代|「
Transformer
论文精读」
论文地址:https://arxiv.org/pdf/1706.03762v5.pdf代码地址:https://github.com/tensorflow/tensor2tensor.git首发:微信公众号「魔方AI空间」,欢迎关注~大家好,我是魔方君~~近年来,人工智能技术发展迅猛,智能化应用不断涌现,随着深度学习等算法的不断发展,AI的模型也在变得更加庞大和强大。这些“大模型”能够处理大规模、
强少~、
·
2023-10-08 22:54
AIGC大模型
AIGC
人工智能
深度学习
VAN(大核注意力机制)
Visual-Attention-Network/VAN-Classification(github.com)
transformer
在视觉领域得到良好的效果,是因为它可以捕捉长距离的信息。
一壶浊酒..
·
2023-10-08 20:53
深度学习
python
人工智能
深度学习
现状 - Swin
Transformer
Swin
Transformer
:HierarchicalVision
Transformer
usingShiftedWindowshttps://github.com/microsoft/Swin-
Transformer
金中衣谷
·
2023-10-08 20:37
深度学习CV现状吧
cv
源码
Transformer
和Swin-
Transformer
有什么区别
Transformer
和Swin-
Transformer
都是深度学习中的模型,它们的主要区别在于Swin-
Transformer
相对于标准
Transformer
有更高的计算效率和更好的性能。
M.C.O.
·
2023-10-08 20:06
transformer
深度学习
人工智能
NLP--
Transformer
探索(微观)【笔记】
对于模型的演变历程中,
Transformer
——“Youshouldgotothelearning”,因为其出现才是开天辟地的大作。
故事挺秃然
·
2023-10-08 20:04
NLP
深度学习
Transformer
自然语言处理
transformer
深度学习
nlp
人工智能
CV-
transformer
CV-
transformer
VITPVTswin
transformer
DETRdeformableDETRVIT
transformer
sequence结构采用的是RNN网络,后面时刻的信息依赖于前一时刻
为算法工程师
·
2023-10-08 20:33
CV-图像处理
transformer
深度学习
计算机视觉
预训练模型之BERT、
Transformer
-XL、XL-Net等
文章目录预训练模型(Pre-trainedModels,PTMs)前置知识BERT
Transformer
-XLXLNet
Transformer
-XL类似工作(Scalable
Transformer
)1.
Iron_lyk
·
2023-10-08 20:33
bert
transformer
机器学习
xlnet
Spherical
Transformer
for LiDAR-based 3D Recognition训练环境配置
一,名词解释1,局部算子是指在某个点的取值仅受到该点周围一定范围内的数值影响,而不会受到其他位置上的数值影响。2,径向窗如图3,劈裂是指绘画中在颜料层之间、在颜料表面薄层和底色之间或在底色和基底之间的分离现象。4,backbone(主干网络)大多时候指的是提取特征的网络,其作用就是提取图片中的信息,共后面的网络使用。5,PRN(RegionProposalNetwork,区域生成网络),通俗讲是“
东-115
·
2023-10-08 20:03
transformer
深度学习
人工智能
transformer
系列5---
transformer
显存占用分析
Transformer
显存占用分析1影响因素概述2前向计算临时Tensor显存占用2.1self-attention显存占用2.2MLP显存占用3梯度和优化器显存占用3.1模型训练过程两者显存占用3.2
CV温故知新
·
2023-10-08 20:02
transformer
transformer
深度学习
人工智能
ChatGPT 背后包含了哪些技术?
ChatGPT是由OpenAI开发的一款基于GPT-3(GenerativePre-trained
Transformer
3)的人工智能语言模型。这个模型是使用多种编程语言和技术组合编写的。
ChatGPT研究院
·
2023-10-08 20:54
chatgpt
Tokens-to-Token ViT: Training Vision
Transformer
s from Scratch on ImageNet
这篇文章是从改进ViT输入的角度来做的,在最初版本的ViT中,是将图像分成16*16个patch,每个patch展开为一个向量,作为ViT的序列化输入。这种做法虽然简单,但是这种简单粗暴的序列化方式破坏了图像原有的结构性,使得网络无法捕捉图像原有的结构化特征,如边缘、线条等。因此,本文作者提出了一种token2-to-tokens的方式,通过不断对图像进行有overlap的patch展开以及图像恢
nowherespyfly
·
2023-10-08 19:07
unocss使用&问题记录
uno.css’//重置浏览器默认样式import‘@unocss/reset/tailwind.css’配置参考请注意:安装完unocss(当前版本:v0.53.5)后,有些插件已经自带,例如preset和
transformer
u014632228
·
2023-10-08 17:13
前端
论文阅读
与思考(1):Heterogeneous Graph Attention Network异构图注意力网络
论文阅读
与思考(1):HeterogeneousGraphAttentionNetwork异构图注意力网络研究问题随着深度学习的兴起,深度学习已经在欧几里得数据中取得了很大的成功,但从非欧几里得域生成的数据也取得非常广泛的应用
肉肉的油条君
·
2023-10-08 16:21
神经网络
深度学习
机器学习
上一页
66
67
68
69
70
71
72
73
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他