E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Attention文献阅读
深度学习-13-小语言模型之SmolLM的使用
文章附录1SmolLM概述1.1SmolLM简介1.2下载模型2运行2.1在CPU/GPU/多GPU上运行模型2.2使用torch.bfloat162.3通过位和字节的量化版本3应用示例4问题及解决4.1
attention
_mask
皮皮冰燃
·
2024-09-15 10:48
深度学习
深度学习
vllm在线推理踩坑记
大模型全栈工程师》课程里看老师推荐使用vllm部署大模型,优点就不详细介绍了,这里摘抄一段来自于Qwen2上手指南对于它的简单介绍:它易于使用,且具有最先进的服务吞吐量、高效的注意力键值内存管理(通过Paged
Attention
懂点投资的码农
·
2024-09-14 12:14
大语言模型
ai
语言模型
python
大模型框架:vLLM
它利用了全新的注意力算法「Paged
Attention
」,提供易用、快速、便宜的LLM服务。二、安装vLLM2.1使用GPU进行安装vLLM是一个Py
m0_37559973
·
2024-09-14 11:41
大模型
大模型
通义千问
Qwen
思考:怎样让自己每天都精力充沛
让自己方向坚定,精力充沛的能量法则:Habit习惯能量的倍增Energy精力,能量的来源
Attention
注意力,能量的转化Target目标,能量的积累这是读张家瑞老师的《能量法则》最重要的四句话。
廷伟
·
2024-09-13 22:45
AI推介-多模态视觉语言模型VLMs论文速览(arXiv方向):2024.07.25-2024.08.01
文章目录~1.PayingMore
Attention
toImage:ATraining-FreeMethodforAlleviatingHallucinationinLVLMs2.MTA-CLIP:Language-GuidedSemanticSegmentationwithMask-TextAlignment3
小小帅AIGC
·
2024-09-12 06:37
VLM论文时报
人工智能
语言模型
自然语言处理
VLM
大语言模型
计算机视觉
视觉语言模型
大模型LLM面试常见算法题-包括
Attention
和Transformer常见面试题
大模型:位置编码有哪些?介绍LoRA与QLoRARAG和微调的区别是什么?哪些因素会导致LLM的偏见?什么是思维链(CoT)提示?Tokenizer的实现方法及原理解释一下大模型的涌现能力?解释langchainAgent的概念langchain有哪些替代方案?RLHF完整训练过程是什么?为什么RLHF的效果这么好?RLHF使用的训练数据是什么样的?RAG和微调的区别是什么?有了解过什么是稀疏微调
剑圣土豆
·
2024-09-10 15:57
算法面试
大模型学习
自然语言处理
transformer
算法
nlp
自然语言处理
面试
深度学习
人工智能
Transformer、BERT、GPT、T5、LLM(大语言模型),以及它们在实际行业中的运用
它引入了注意力机制(Self-
Attention
)
Funhpc_huachen
·
2024-09-08 17:38
transformer
bert
gpt
语言模型
深度学习
大模型推理框架 RTP-LLM 架构解析
RTP-LLM与当前广泛使用的多种主流模型兼容,使用高性能的CUDAkernel,包括Paged
Attention
、Flash
Attention
、FlashDecoding等,支持多模态、LoRA、P-Tuning
阿里技术
·
2024-09-07 23:32
架构
LLM
推理
阿里巴巴
RPT
Transformer+目标检测,这一篇入门就够了
VisionTransformerforObjectDetection本文作者:Encoder-Decoder简介:Encoder-Decoder的缺陷:
Attention
机制:Self-
Attention
BIT可达鸭
·
2024-09-07 21:19
▶
深度学习-计算机视觉
transformer
深度学习
目标检测
计算机视觉
自然语言处理
GLM-4 (1) - 推理+概览
系列文章目录GLM-4(1)-推理+概览GLM-4(2)-RoPEGLM-4(3)-GLMBlockGLM-4(4)-Self
Attention
GLM-4(5)-API&FunctionCallingGLM
戴昊光
·
2024-09-07 02:38
人工智能
language
model
nlp
python
昇腾Ascend C算子开发学习笔记
Flash
Attention
类,MOEFFN类NN算子库:NN(Neu
回到唐朝当王爷
·
2024-09-06 06:21
c语言
学习
笔记
【笔记】Encoder-Decoder模型
Encoder-DecoderFrameworkEncoder-DecoderEncoderDecoderDecoderwith
Attention
参考Encoder-DecoderEncoder输入:X
808130260
·
2024-09-05 19:42
python/机器学习
6、关于Medical-Transformer
6、关于Medical-TransformerAxial-
Attention
原文链接:Axial-
attention
Medical-Transformer原文链接:Medical-TransformerMedical-Transformer
安逸sgr
·
2024-09-05 14:05
Transformer
transformer
深度学习
人工智能
计算机视觉
Image Super-Resolution with Cross-Scale Non-Local
Attention
and Exhaustive Self-Exemplars Mining
Cross-ScaleNon-Local(CS-NL)
Attention
文中最重要的跨尺度非局部模块就是公式(4),这里内积通过滤波实现,图中的Deconvolution实际上是转置卷积,解卷积和转置卷积是完全不同的概念
phoenix@Capricornus
·
2024-09-05 08:54
Paper
reading
深度学习
2单元复盘
Part11,从本单元中我学到的最重要的理念精读Weshouldpay
attention
tosafety2,我在本片文章/音频/视频中学到的怦然心动的单词textAtextB3,在本片文章/音频/视频中我最喜欢的一句话
黄静怡
·
2024-09-04 05:25
[论文笔记] LLM模型剪枝
Attention
IsAllYouNeedButYouDon’tNeedAllOfItForInferenceofLargeLanguageModelsLLaMA2在剪枝时,跳过ffn和跳过fulllayer
心心喵
·
2024-09-03 08:53
论文笔记
论文阅读
剪枝
算法
图神经网络实战(18)——消息传播神经网络
框架小结系列链接0.前言我们已经学习了多种图神经网络(GraphNeuralNetworks,GNN)变体,包括图卷积网络(GraphConvolutionalNetwork,GCN)、图注意力网络(Graph
Attention
Networks
盼小辉丶
·
2024-09-02 05:06
图神经网络从入门到项目实战
pytorch
深度学习
图神经网络
Transformer面试真题详解——覆盖99%的Transformer面试问题(建议收藏)
文章目录1.请简述一下Transformer的基本结构和原理2.Transformer为什么使用多头注意力机制3.Transformer计算
attention
为什么选择点乘而不是加法?
爱睡觉的咋
·
2024-09-02 05:34
LLM
transformer
深度学习
人工智能
095.Pay close
attention
to the bottom right corner
095、Payclose
attention
tothebottomrightcorner仔细看右下角Payclose
attention
totheblackboard!
飞帅记忆
·
2024-09-01 23:16
【HuggingFace Transformers】BertIntermediate 和 BertPooler源码解析
源码解析2.1BertIntermediate源码解析2.2BertPooler源码解析1.介绍1.1位置与功能(1)BertIntermediate位置:位于BertLayer的注意力层(BertSelf
Attention
CS_木成河
·
2024-09-01 17:25
Hugging
Face
深度学习
人工智能
bert
python
大模型
Transformer
unet各模块内容的理解(包含注意力机制、残差、以及数据维度的变化)
文章目录
attention
机制Unet的各个模块的设计①残差块②下块做一次残差,做一次自注意力③上块:这里做了skipconnect,做一次残差,做一次注意力④中块:做两次残差和一次自注意力⑤上采样:通道数不变
云梦之上
·
2024-09-01 13:57
#
扩散模型系统性学习
人工智能
神经网络
pytorch
2019-09-23 A lovable eccentric
Trueeccentricsneverdeliberatelysetouttodraw
attention
tothemselves.Theydisregardsocialconventionswithoutbeingconsciousthattheyaredoinganythingextraordinary.Thisinvariablywinsthemtheloveandrespectofother
RoadToGood
·
2024-08-31 23:58
自己设计一个Transformer模型
Transformer模型在2017年被Google提出,直接基于self-
attention
结构,不再依赖于RNN、LSTM或者CNN,是一种Seg2Seg模型。
郑不凡
·
2024-08-31 13:23
transformer
自然语言处理
机器翻译
MasaCtrl:Tuning-free mutual self-
attention
control for consistent image synthesis and editing
https://github.com/TencentARC/MasaCtrl/issues/13https://github.com/TencentARC/MasaCtrl/issues/13QuestionaboutMask·Issue#31·TencentARC/MasaCtrl·GitHub
Kun Li
·
2024-08-30 21:38
图像视频生成大模型
stable
diffusion
「Apollo」直接在docker内部安装miniconda失败
ATTENTION
:因为公司原因,该条blog展示的解决方法可能仅适用于本人,作为debug记录背景安装失败的步骤:从conda官网下载了安装conda的sh文件Miniconda3-py37_4.11.0
Liiipseoroinis
·
2024-08-30 08:45
Apollo
Ubuntu
docker
linux
YOLOv10改进 | 独家创新- 注意力篇 | YOLOv10引入结合EM
Attention
和ParNet
Attention
形成全新的EPA注意力机制和C2f_EPA(全网独家创新)
1.EPA
Attention
介绍EPA
Attention
注意力机制综合了EM
Attention
和ParNet
Attention
的优势,能够更有效地提取图像特征。
小李学AI
·
2024-08-30 05:54
YOLOv10有效涨点专栏
YOLO
深度学习
计算机视觉
人工智能
目标检测
机器学习
神经网络
爆改yolov8|利用BSAM改进YOLOv8,高效涨点
BSAM(BiLevelSpatial
Attention
Module)是一个用于提升深度学习模型在空间特征处理中的能力的模块。它主要通过双层注意力机制来增强模型对重要空间信息的关注,从而提升任务性能。
不想敲代码!!!
·
2024-08-29 22:37
爆改yolov8
即插即用
YOLO
yolov8
目标检测
人工智能
深度学习
爆改YOLOv8 | yolov8添加GAM注意力机制
1,本文介绍GAM(Global
Attention
Mechanism)旨在改进传统注意力机制的不足,特别是在通道和空间维度上的信息保留问题。它通过顺序的通道-空间注意力机制来解决这些问题。
不想敲代码!!!
·
2024-08-29 22:36
爆改yolov8
即插即用
YOLO
yolov8
目标检测
人工智能
计算机视觉
[从0开始AIGC][LLM]:Pre-Norm or Post-Norm?训练效率还是训练效果?
Pre-NormorPost-NormPre-NormorPost-Norm1.什么是Pre-Norm和Post-Norm2.为什么Pre-Norm比Post-Norm易于训练2.1Transformer:
Attention
isallyourneed-PostNorm2.2Pre-Norm
Way_X
·
2024-08-29 05:42
#
从0开始AIGC
AIGC
基于霜冰优化算法(RIME)优化CNN-BiGUR-
Attention
风电功率预测研究(Matlab代码实现)
本文目录如下:目录⛳️赠与读者1概述一、研究背景与意义二、技术概述1.霜冰优化算法(RIME)2.卷积神经网络(CNN)3.双向门控循环单元(BiGRU)4.注意力机制(
Attention
Mechanism
程序辅导帮
·
2024-08-28 23:57
算法
cnn
matlab
研究生师兄谈SCI论文写作心得
一、
文献阅读
在开展课题前,阅读文献是一个不可或缺的环节,只有充分了解你要做的课题,才能得心应手地设计课题,进而快速的围绕计划开展研究、准备数据,方便后期撰写论文。
华大基因学院
·
2024-08-28 19:01
语音识别技能汇总
语音识别技能汇总常见问题汇总importwarningswarnings.filterwarnings('ignore')基础知识
Attention
-注意力机制原理:人在说话的时候或者读取文字的时候,是根据某个关键字或者多个关键字来判断某些句子或者说话内容的含义的
语音不识别
·
2024-08-28 14:25
语音识别
语音识别
人工智能
linux
python
【LSTM回归预测】遗传算法优化注意力机制的长短时记忆神经网络GA-
attention
-LSTM数据回归预测【含Matlab源码 3738期】
⛄一、遗传算法优化注意力机制的长短时记忆神经网络GA-
attention
-LSTM数据回归预测风力发电是一种清洁能源,越来越受到人们的关注和重视。
Matlab领域
·
2024-08-28 02:46
matlab
老友记第六季(第19集)
1.Mumble:含糊的话;咕噜;喃喃自语Monica:DoesRalphmumblewhenyou’renotpaying
attention
?是不是拉夫每次都是在你没有专注的时候喃喃自语?(瑞
小神2
·
2024-08-27 23:08
基于灰狼优化算法(GWO)优化CNN-BiGUR-
Attention
风电功率预测研究(Matlab代码实现)
本文目录如下:目录⛳️赠与读者1概述一、研究背景与意义二、算法原理与模型构建1.灰狼优化算法(GWO)2.CNN-BiGRU-
Attention
模型3.GWO优化CNN-BiGRU-
Attention
模型三
qq_551705769
·
2024-08-27 14:27
算法
cnn
matlab
时序预测|基于变分模态分解-时域卷积-双向长短期记忆-注意力机制多变量时间序列预测VMD-TCN-BiLSTM-
Attention
时序预测|基于变分模态分解-时域卷积-双向长短期记忆-注意力机制多变量时间序列预测VMD-TCN-BiLSTM-
Attention
文章目录前言时序预测|基于变分模态分解-时域卷积-双向长短期记忆-注意力机制多变量时间序列预测
机器不会学习CL
·
2024-08-27 08:13
时间序列预测
智能优化算法
深度学习
人工智能
机器学习
基于白鲸优化算法(BWO)优化CNN-BiGUR-
Attention
风电功率预测研究(Matlab代码实现)
本文目录如下:目录⛳️赠与读者1概述一、研究背景与意义二、算法介绍1.白鲸优化算法(BWO)2.卷积神经网络(CNN)3.双向门控循环单元(BiGRU)4.注意力机制(
Attention
)三、模型构建与优化
科研_研学社
·
2024-08-27 06:33
算法
cnn
matlab
基于鲸鱼优化算法(WOA)优化CNN-BiGUR-
Attention
风电功率预测研究(Matlab代码实现)
本文目录如下:目录⛳️赠与读者1概述一、研究背景与意义二、算法介绍1.鲸鱼优化算法(WOA)2.CNN(卷积神经网络)3.BiGRU(双向门控循环单元)4.
Attention
机制三、模型构建与优化1.模型结构
程序辅导帮
·
2024-08-27 06:00
算法
cnn
matlab
基于北方苍鹰算法优化CNN-BiGUR-
Attention
风电功率预测研究(Matlab代码实现)
欢迎来到本博客❤️❤️博主优势:博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。⛳️座右铭:行百里者,半于九十。本文目录如下:目录⛳️赠与读者1概述一、研究背景与意义二、研究方法1.模型组成2.研究步骤三、研究成果与应用前景四、结论2运行结果3参考文献4Matlab代码、数据⛳️赠与读者做科研,涉及到一个深在的思想系统,需要科研者逻辑缜密,踏实认真,但是不能只是努力,很多时候借力比努力更重要,
然哥爱编程
·
2024-08-27 05:58
算法
cnn
matlab
基于霜冰优化算法(RIME)优化CNN-BiGUR-
Attention
风电功率预测研究(Matlab代码实现)
本文目录如下:目录⛳️赠与读者1概述一、研究背景与意义二、技术概述1.霜冰优化算法(RIME)2.卷积神经网络(CNN)3.双向门控循环单元(BiGRU)4.注意力机制(
Attention
Mechanism
创新优化代码学习
·
2024-08-27 05:57
算法
cnn
matlab
2019-01-06
Yes.IhavealwaysregardedphilosophyasthemostdifficultmajortolearnandtheleastthingIwillpay
attention
to.Whileifsomeonedislikessomething
飞鸟逐溪
·
2024-08-26 21:20
深度学习学习经验——变换器(Transformer)
变换器(Transformer)变换器(Transformer)是一种用于处理序列数据的深度学习模型,与循环神经网络(RNN)不同,它不依赖于顺序处理数据,而是依靠一种称为注意力机制(
Attention
Mechanism
Linductor
·
2024-08-26 19:44
深度学习学习经验
深度学习
学习
transformer
深度学习--Transformer和BERT区别详解
Transformer的概念、作用、原理及应用概念Transformer是一种基于注意力机制(
Attention
Mechanism)的神经网络架构,由Vaswani等人在2017年提出。
Ambition_LAO
·
2024-08-26 08:36
深度学习
YOLOv10改进 | 独家创新- 注意力篇 | YOLOv10结合全新多尺度动态增强注意力机制DS
Attention
(全网独家创新)
1.DS
Attention
介绍DS
Attention
注意力机制在图像特征提取中具有以下优点:(1).全局信息捕捉能力:DS
Attention
机制通过使用软注意力机制(Softmax
Attention
)来计算特征图的全局相关性
小李学AI
·
2024-08-26 07:27
YOLOv10有效涨点专栏
YOLO
深度学习
计算机视觉
人工智能
目标检测
神经网络
4D卓越团队——课前习书(第三、四章)
图片发自App第三章:4D系统----神奇坐标的诞生A(
Attention
)4D领导的四个维度:情感与直觉--培养维度、情感与感觉--包容维度、逻辑与直觉--展望维度、逻辑与感觉--指导维度是如何建设高绩效团队
阔涵
·
2024-08-24 05:22
informer+TCN+通道注意力机制+SSA时间序列模型预测
1.1Informer的关键机制稀疏自注意力机制(ProbSparse
Attention
):传统的Transformer使用全局自注意力机制,即对于输入的每个时间步,它都计算与其
成为深度学习高手
·
2024-08-23 23:12
算法
机器学习
深度学习
transformer
Transformer总结(二):架构介绍(从seq2seq谈到Transformer架构)
文章目录一、seq2seq应用介绍二、编码器解码器架构2.1流程介绍2.2原理说明三、Transformer整体结构和处理流程3.1
Attention
机制在seq2seq中的引入3.2比较RNN与自注意力
胡牧之.
·
2024-08-23 10:19
Transformer总结
transformer
编码器解码器
深度学习
入门
[CLIP-VIT-L + Qwen] 多模态大模型源码阅读 - 语言模型篇(1)
,以CLIP-VIT-14为visionencoder的imagecaptioning模型,找了很多文章和库的源码,但是无奈都不怎么看得懂,刚开始打算直接给languagedecoder加上cross
attention
FlowerLoveJava
·
2024-08-23 09:14
多模态学习笔记
多模态大模型源码阅读
学习
笔记
python
人工智能
计算机视觉
神经网络
深度学习
Llama开源代码详细解读(2)
Flash
Attention
ifis_flash_attn_available():#检查flash
attention
的可用性fromflash_attnimportflash_attn_func,flash_attn_varlen_funcfromflash_attn.bert_paddingimportindex_first_axis
江安的猪猪
·
2024-08-23 04:45
大语言模型
llama
【flash
attention
安装】成功解决flash
attention
安装: undefined symbol: _ZN2at4_ops9_pad_enum4callERKNS_6Tensor
【大模型-flash
attention
安装】成功解决flash
attention
安装site-packages/flash_attn_2_cuda.cpython-310-x86_64-linux-gnu.so
算法驯化师
·
2024-08-23 04:44
AIGC
flash_attntion
大模型
intervl
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他