E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
transformer论文阅读
姿态估计动作捕捉与Unity,第一篇
这里使用开源的程序Strided
Transformer
-Pose3D,进行姿态检测,动作捕捉。通过姿态估计程序把动作数据保存为txt文件,并利用Unity对数据文件进行解析,做动作捕捉。
小~小
·
2023-10-08 15:07
人工智能
姿态估计
Unity
微调GPT(fine-tune)与向量数据库结合-优化GPT
GPT回答问题GPT(GenerativePretrained
Transformer
)是一种强大的预训练模型,它可以生成连贯且富有创造性的文本。
小~小
·
2023-10-08 15:37
gpt
数据库
ViT论文逐段精读【论文精读】
而且vision
Transformer
不光是
云淡风轻__
·
2023-10-08 14:51
论文精讲
人工智能
Elasticsearch:语义搜索快速入门
你将使用Sentence
Transformer
s进行文本嵌入的语义搜索。了解如何将传统的基于文本的搜索与语义搜索集成,形成混合搜索系统。
Elastic 中国社区官方博客
·
2023-10-08 14:06
Elasticsearch
Elastic
AI
elasticsearch
大数据
搜索引擎
全文检索
人工智能
Transformer
s包中BERT类预训练模型下载链接备份
bin文件文件位置:/
transformer
s/modeling_bert.pyBERT_PRETRAINED_MODEL_ARCHIVE_MAP={"bert-base-uncased":"https
天才小呵呵
·
2023-10-08 10:00
Pytorch
研发记录
Python探索笔记
python
预训练模型
bert
掌握 BERT:自然语言处理 (NLP) 从初级到高级的综合指南(1)
简介BERT(来自
Transformer
s的双向编码器表示)是Google开发的革命性自然语言处理(NLP)模型。它改变了语言理解任务的格局,使机器能够理解语言的上下文和细微差别。
冷冻工厂
·
2023-10-08 10:49
自然语言处理
基于BERT模型进行文本处理(Python)
其次,在控制台中单独放置要安装的:pipinstall
transformer
spipinstalltorchpipinstalltorchtorchvisioncondainstallpytorchtorchvisiontorchaudio
the only KIrsTEN
·
2023-10-08 09:08
bert
python
人工智能
深度学习
自然语言处理
汇总开源大模型的本地API启动方式
文章目录CodeGeex2ChatGLM2_6BBaichuan2_13Bsqlcoder开启后测试CodeGeex2fromfastapiimportFastAPI,Requestfrom
transformer
simportAutoTokenizer
羊城迷鹿
·
2023-10-08 09:39
自然语言处理
神经网络
python
大模型
API
论文阅读
--Energy efficiency in heterogeneous wireless access networks
异构无线接入网络的能源效率论文信息:NavaratnarajahS,SaeedA,DianatiM,etal.Energyefficiencyinheterogeneouswirelessaccessnetworks[J].IEEEwirelesscommunications,2013,20(5):37-43.I.ABSTRACT&&INTRODUCTION 本文提出了无线接入网节能的重要方面。
伊丽莎白鹅
·
2023-10-08 06:24
文献阅读
论文阅读
论文阅读
-- A simple transmit diversity technique for wireless communications
一种简单的无线通信发射分集技术论文信息:AlamoutiSM.Asimpletransmitdiversitytechniqueforwirelesscommunications[J].IEEEJournalonselectedareasincommunications,1998,16(8):1451-1458.创新性:提出了一种新的发射分集方案。结果表明,在使用两个发射天线和一个接收天线的情况下
伊丽莎白鹅
·
2023-10-08 06:54
文献阅读
论文阅读
论文阅读
--Holographic MIMO surfaces for 6G wireless networks:Opportunities, challenges,and trends
用于6G无线网络的全息MIMO表面:机遇、挑战和趋势论文信息:HuangC,HuS,AlexandropoulosGC,etal.HolographicMIMOsurfacesfor6Gwirelessnetworks:Opportunities,challenges,andtrends[J].IEEEWirelessCommunications,2020,27(5):118-125.AbstrA
伊丽莎白鹅
·
2023-10-08 06:54
文献阅读
论文阅读
6G
论文阅读
--Cell-free massive MIMO versus small cells
无蜂窝大规模MIMO与小蜂窝网络论文信息NgoHQ,AshikhminA,YangH,etal.Cell-freemassiveMIMOversussmallcells[J].IEEETransactionsonWirelessCommunications,2017,16(3):1834-1850. 无蜂窝大规模MIMO中没有小区或者小区边界的界定,所有接入点通过回程网络进行相位相干协作,并通过
伊丽莎白鹅
·
2023-10-08 06:53
文献阅读
论文阅读
分层强化学习 综述
论文阅读
Hierarchical Reinforcement Learning: A Comprehensive Survey
分层强化学习综述
论文阅读
HierarchicalReinforcementLearning:AComprehensiveSurvey摘要一、介绍二、基础知识回顾2.1强化学习2.2分层强化学习2.2.1
孙敬博
·
2023-10-08 06:19
论文阅读
强化学习
论文阅读
--On optimization methods for deep learning
深度学习的优化方法研究论文信息:LeQV,NgiamJ,CoatesA,etal.Onoptimizationmethodsfordeeplearning[C]//Proceedingsofthe28thInternationalConferenceonMachineLearning,ICML2011,Bellevue,Washington,USA,June28-July2,2011.DBLP,2
伊丽莎白鹅
·
2023-10-08 06:15
文献阅读
论文阅读
深度学习
人工智能
运行huggingface Kosmos2报错 nameerror: name ‘kosmos2tokenizer‘ is not defined
patch14-224失败,报错:nameerror:name'kosmos2tokenizer'isnotdefined查看报错代码:vi/root/.cache/huggingface/modules/
transformer
s_modules
duoyasong5907
·
2023-10-08 05:13
踩坑笔记
python
开发语言
第86步 时间序列建模实战:
Transformer
回归建模
基于WIN10的64位系统演示一、写在前面这一期,我们介绍
Transformer
回归。
Jet4505
·
2023-10-08 05:33
《100
Steps
to
Get
ML》—JET学习笔记
transformer
深度学习
人工智能
【代码实践】HAT代码Window平台下运行实践记录
HAT是CVPR2023上的自然图像超分辨率重建论文《activatingMorePixelsinImageSuper-Resolution
Transformer
》所提出的模型。
一的千分之一
·
2023-10-07 23:43
【代码实践】
python
深度学习
加速attention计算的工业标准:flash attention 1和2算法的原理及实现
transformer
s目前大火,但是对于长序列来说,计算很慢,而且很耗费显存。
bug404_
·
2023-10-07 23:47
transformer
算法
flashAttention
attention
transformer
大语言模型之十六-基于LongLoRA的长文本上下文微调Llama-2
增加LLM上下文长度可以提升大语言模型在一些任务上的表现,这包括多轮长对话、长文本摘要、视觉-语言
Transformer
模型的高分辨4k模型的理解力以及代码生成、图像以及音频生成等。
shichaog
·
2023-10-07 22:41
神经网络&人工智能
语言模型
llama
人工智能
Python大数据之PySpark(六)RDD的操作
文章目录RDD的操作函数分类Transformation函数Action函数基础练习[Wordcount快速演示]
Transformer
算子-*-coding:utf-8-*-Programfunction
Maynor996
·
2023-10-07 21:40
#
PySpark
python
大数据
开发语言
进化计算(五)——NSGA-II
论文阅读
笔记(二)
AfastandelitistmultiobjectivegeneticalgorithmNSGA-II阅读笔记(二)测试函数仿真方法选择初始参数设置性能评价结果旋转多目标问题约束处理—针对rank分配方法的改进建议的约束处理方法——ConstrainedNSGA-IIRay–Tai–Seow的约束处理方法对比结果Conclusion参考链接 论文中展示了PAES、SPEA、NSGAII三个算法的
南木长
·
2023-10-07 21:59
进化计算
matlab
算法
数据挖掘
非支配排序遗传算法NSGA
纯小白超详细的非支配排序遗传算法原理讲解_哔哩哔哩_bilibili待读文章:进化计算(四)——NSGA/NSGAII算法详解_nsga求解单目标_南木长的博客-CSDN博客进化计算(五)——NSGA-II
论文阅读
笔记
HealthScience
·
2023-10-07 21:28
多目标优化
人工智能
深度学习
算法
【
论文阅读
】LSKNet: Large Selective Kernel Network for Remote Sensing Object Detection
这是南开大学在ICCV2023会议上新提出的旋转目标检测算法,基本原理就是通过一系列Depth-wise卷积核和空间选择机制来动态调整目标的感受野,从而允许模型适应不同背景的目标检测。论文地址:https://arxiv.org/pdf/2303.09030.pdf代码地址(可以直接使用mmrotate框架实现):GitHub-zcablii/LSKNet:(ICCV2023)LargeSelec
小李AI飞刀^_^
·
2023-10-07 17:32
论文阅读
目标检测
人工智能
论文阅读
——Large Selective Kernel Network for Remote Sensing Object Detection
目录基本信息标题目前存在的问题改进网络结构另一个写的好的参考基本信息期刊CVPR年份2023论文地址https://arxiv.org/pdf/2303.09030.pdf代码地址https://github.com/zcablii/LSKNet标题遥感目标检测的大选择核网络目前存在的问题相对较少的工作考虑到强大的先验知识存在于遥感图像。航空图像通常是用高分辨率的鸟瞰图拍摄的。特别是,航拍图像中的
醋酸洋红就是我
·
2023-10-07 17:31
论文阅读
目标检测
人工智能
NLP大模型
目前以
Transformer
为基础自回归生成大致可以分为三种架构:·Encoder-only的模型,如BERT·Encoder-Decoder的模型,如T5。
坠金
·
2023-10-07 16:17
八股
人工智能
DeiT:注意力也能蒸馏
DeiT:注意力也能蒸馏《Trainingdata-efficientimage
transformer
s&distillationthroughattention》ViT在大数据集ImageNet-21k
ZOMI酱
·
2023-10-07 13:12
交通物流模型 | 基于双向时空自适应
Transformer
的城市交通流预测
基于以上两个特性,作者提出了一个双向时空自适应
Transformer
(Bi-STAT)用于准确的交通流预测。Bi-STAT采用编码器-解码器框架
算法如诗
·
2023-10-07 12:14
交通物流模型(TLM)
交通物流
transformer
深度学习
Embedding技术与应用 (2) :神经网络的发展及现代Embedding方法简介
本文是《Embedding技术与应用系列》的第二篇,重点介绍神经网络的发展历程及其技术架构,剖析了嵌入技术与这些神经网络(
Transformer
、BERT和GPT等)的关系。
Baihai IDP
·
2023-10-07 12:49
技术干货
embedding
神经网络
人工智能
深度学习
白海科技
机器学习
AI
【Spatial-Temporal Action Localization(五)】
论文阅读
2020年
文章目录1.ActionsasMovingPoints摘要和结论引言:针对痛点和贡献模型框架实验1.ActionsasMovingPointsActionsasMovingPoints(ECCV2020)摘要和结论MovingCenterDetector(MOCdetector)通过将动作实例视为移动点的轨迹。通过三个分支生成tubeletdetectionresults(bbossequence
三木今天学习了嘛
·
2023-10-07 11:57
时空动作定位
论文阅读
[论文分享]Skip-Attention: Improving Vision
Transformer
s by Paying Less Attention
Skip-Attention:ImprovingVision
Transformer
sbyPayingLessAttention这项工作旨在提高视觉
transformer
(ViT)的效率。
或许,这就是梦想吧!
·
2023-10-07 11:47
论文笔记
(StackOverflow)使用Huggingface
Transformer
s从磁盘加载预训练模型
-apathtoa`directory`containingvocabularyfilesrequiredbythetokenizer,forinstancesavedusingthe:func:`~
transformer
s.PreTrainedTokeni
大表哥汽车人
·
2023-10-07 05:54
HuggingFace
Transformers
通意千问大语言模型学习笔记
深度学习
人工智能
语言模型
Prompt-Tuning(一)
这些模型采用了
Transformer
架构,并遵循了Pre-training和Fine-tuning的训练范式。通过预训练模型在大规模无标签数据上进行学习,可以使模型学习到丰富的语言知识和语境理解能力。
余生有烟火
·
2023-10-07 04:27
prompt
ChatGLM2-6B的通透解析:从FlashAttention、Multi-Query Attention到GLM2的微调、源码解读
FlashAttention与Multi-QueryAttention第二部分FlashAttention:减少内存访问提升计算速度——更长上下文的关键2.1FlashAttention相关的背景知识2.1.1
Transformer
v_JULY_v
·
2023-10-07 03:04
论文
代码
实战
ChatGLM2-6B
FlashAttention
Multi-Query注意力
【
论文阅读
】An Evaluation of Concurrency Control with One Thousand Cores
AnEvaluationofConcurrencyControlwithOneThousandCoresStaringintotheAbyss:AnEvaluationofConcurrencyControlwithOneThousandCoresABSTRACT随着多核处理器的发展,一个芯片可能有几十乃至上百个core。在数百个线程并行运行的情况下,协调对数据的竞争访问的复杂性可能会减少增加的核
Tcoder-l3est
·
2023-10-07 00:48
论文阅读
论文阅读
HuggingFace
Transformer
s教程(1)--使用AutoClass加载预训练实例
:*☆【传送门==>原文链接:】https://huggingface.co/docs/
transformer
s/autoclass_tutorial由于存在许多不同的
Transformer
架构,因此为您的检查点
大表哥汽车人
·
2023-10-06 23:02
通意千问大语言模型学习笔记
HuggingFace
Transformers
huggingFace
transformers
transformer
语言模型
python
目标检测算法改进系列之Backbone替换为Swin
Transformer
Swin
Transformer
简介《Swin
Transformer
:HierarchicalVision
Transformer
usingShiftedWindows》作为2021ICCV最佳论文,屠榜了各大
我悟了-
·
2023-10-06 21:08
目标检测算法改进系列
目标检测
算法
transformer
pytorch
人工智能
深度学习
计算机视觉
论文阅读
分享--OCR--Reading Scene Text withAttention Convolutional Sequence Modeling
论文:GaoY,ChenY,WangJ,etal.ReadingSceneTextwithAttentionConvolutionalSequenceModeling[J].2017.这篇工作是OCR问题中的文字识别模型。主要改进点有两个:1)CNN特征提取阶段,引入了残差注意力模块,通过全图特征的学习,增强前景文字,抑制背景。2)CNN卷积替代LSTM,实现frame级别featureseque
飞姐的分享
·
2023-10-06 21:54
vit(vision
transformer
)
vit的网络结构ViT将输入图片分为多个patch(16x16),再将每个patch投影为固定长度的向量送入
Transformer
,后续encoder的操作和原始
Transformer
中完全相同。
盐巴饭团193
·
2023-10-06 19:28
深度学习
人工智能
图像压缩:
Transformer
-based Image Compression with Variable Image Quality Objectives
Wen-HsiaoPeng作者单位:NationalYangMingChiaoTungUniversity论文链接:http://arxiv.org/abs/2309.12717v1内容简介:1)方向:基于
Transformer
学术菜鸟小晨
·
2023-10-06 17:46
transformer
深度学习
人工智能
《基于同态加密和秘密分享的纵向联邦LR协议研究》
论文阅读
论文地址:https://xueshu.baidu.com/usercenter/paper/show?paperid=1b7e04e0r41x0ax0976q0gy0m5242465摘要提出了一种新颖的两方纵向联邦逻辑回归协议,并在半诚实安全模型下证明了该协议的安全性,包括模型训练流程和模型推理流程的安全性,且无需对非线性函数使用多项式近似计算,从而保证了联邦逻辑回归协议模型无损。论文知识要点1
superY25
·
2023-10-06 17:14
论文阅读笔记
联邦学习
LR算法
纵向联邦
同态加密
《Attention Is All You Need》论文笔记
参考文献:李沐论文带读HarvardNLP《哈工大基于预训练模型的方法》下面是对这篇论文的初步概览:对Seq2Seq模型、
Transformer
的概括:下面是蒟蒻在阅读完这篇论文后做的一些笔记:为什么会出现
卷心菜不卷Iris
·
2023-10-06 17:43
论文
论文阅读
《Secure Analytics-Federated Learning and Secure Aggregation》
论文阅读
背景机器学习模型对数据的分析具有很大的优势,很多敏感数据分布在用户各自的终端。若大规模收集用户的敏感数据具有泄露的风险。对于安全分析的一般背景就是认为有n方有敏感数据,并且不愿意分享他们的数据,但可以分享聚合计算后的结果。联邦学习是一种训练数据在多方训练,然后聚合结果得到最终的中心化模型。其中的关键就是多方结果的安全聚合。风险模型有很多用户,假设用户都是诚实但好奇的,即会遵守协议规则,但会通过拼凑
superY25
·
2023-10-06 17:13
人工智能
联邦学习
安全聚合
多方学习
CodeFuse - 蚂蚁集团开源代码大模型
模型CodeFuse-13BCodeFuse-CodeLlama-34B-4bitsCodeFuse-CodeLlama-34BCodeFuse-StarCoder-15BMFTCoderFaster
Transformer
4CodeFuse
伊织code
·
2023-10-06 16:14
CodeFuse
蚂蚁集团
代码
大模型
StarCoder
CodeLlama
大佬博客记录
Transformer
系列博客记录全
Transformer
拆解,包含Seq2Seq,attention,self-attention,multi-headedattention,PositionalEncoding
BoringFantasy
·
2023-10-06 15:56
使用4090显卡部署 Qwen-14B-Chat-Int4
Qwen-14B是基于
Transformer
的大语言模型,在超大规模的预训练数据上进行训练得到。预
engchina
·
2023-10-06 13:20
LINUX
Qwen-14B
Qwen
ModelScope
用 Pytorch 自己构建一个
Transformer
一、说明用pytorch自己构建一个
transformer
并不是难事,本篇使用pytorch随机生成五千个32位数的词向量做为源语言词表,再生成五千个32位数的词向量做为目标语言词表,让它们模拟翻译过程
无水先生
·
2023-10-06 11:50
NLP入门到精通
pytorch
人工智能
python
transformer
不同的包加载模型的结构不一样
AutoModelAutoModelForTokenClassification结论:AutoModel加载的模型与AutoModelForTokenClassification最后一层是不一样的,从这个模型来看,AutoModelForTokenClassification加载的结果是对的问题:为什么AutoModel和AutoModelForTokenClassification加载的结果不一
Takoony
·
2023-10-06 10:38
深度学习
PiT:重新审视Vision
Transformer
s的空间维度
编者注:论文中使用深度卷积来实现多尺度的ViT,并在ImageNet分类上取得比ViT更优的性能(尤其是泛化能力),并得出结论,是这种空间维度逐阶段收缩、通道维度逐阶段增长的设置导致了性能和泛化能力的提升。编者认为值得商榷的是,增加深度卷积同时也给模型增加了归纳偏置(例如局部性和平移不变性),可以作为注意力的很好补充。有没有可能是因为其它原因,例如是深度卷积的归纳偏置(局部性)导致PiT在Imag
Valar_Morghulis
·
2023-10-06 09:17
NeurIPS 2023 | 超越YOLO系列!华为提出Gold-YOLO:实时目标检测新SOTA
点击下方卡片,关注“CVer”公众号AI/CV重磅干货,第一时间送达点击进入—>【目标检测和
Transformer
】交流群作者:王云鹤(源:知乎,已授权)|编辑:CVer公众号https://zhuanlan.zhihu.com
Amusi(CVer)
·
2023-10-06 05:19
YOLO
目标检测
人工智能
计算机视觉
目标检测算法改进系列之Backbone替换为NextViT
NextViT介绍由于复杂的注意力机制和模型设计,大多数现有的视觉
Transformer
(ViTs)在现实的工业部署场景中不能像卷积神经网络(CNNs)那样高效地执行,例如TensorRT和CoreML
我悟了-
·
2023-10-06 02:25
目标检测算法改进系列
目标检测
算法
人工智能
深度学习
计算机视觉
pytorch
python
上一页
67
68
69
70
71
72
73
74
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他