E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
TRANSFORMER
【2024 CVPR-Backbone】RepViT: Revisiting Mobile CNN From ViT Perspective
摘要近期,轻量级视觉
Transformer
(ViT)在资源受限的移动设备上表现出比轻量级卷积神经网络(CNN)更优异的性能和更低的延迟。
无敌悦悦王
·
2025-06-29 10:45
文献阅读
cnn
人工智能
神经网络
计算机视觉
图像处理
python
深度学习
使用vllm部署 Nanonets-OCR-s
一、环境准备与依赖安装1.安装vLLM与多模态依赖#安装vLLM(含CUDA加速)pipinstallvllm==0.3.21#建议使用稳定版本pipinstall
transformer
s==4.35
没刮胡子
·
2025-06-28 23:20
软件开发技术实战专栏
Linux服务器技术
人工智能AI
ocr
python
深度学习
LLaMA Factory 微调后,迁移模型
方法1:使用HuggingFaceHub(最推荐)from
transformer
simportAutoModelForCausalLM,AutoTokenizer#在源服务器上保存模型到Hubmodel.push_to_hub
激进小猪1002
·
2025-06-28 18:17
llama
llamafactory
人工智能
python
Transformer
底层原理解析及基于pytorch的代码实现
1.
Transformer
底层原理解析1.1核心架构突破
Transformer
是自然语言处理领域的革命性架构,其核心设计思想完全摒弃了循环结构,通过自注意力机制实现全局依赖建模。
LiRuiJie
·
2025-06-28 11:24
人工智能
transformer
pytorch
深度学习
大模型笔记10:LoRA微调
Transformer
中微调哪些参数:LoRA的改进版本
errorwarn
·
2025-06-28 09:41
笔记
大语言模型(LLM)量化基础知识(一)
随着大型语言模型(LLM)的参数数量的增长,与其支持硬件(加速器内存)增长速度之间的差距越来越大,如下图所示:上图显示,从2017年到2022年,语言模型的大小显著增加:2017年:
Transformer
-派神-
·
2025-06-27 23:42
RAG
NLP
ChatGPT
语言模型
人工智能
自然语言处理
基于
Transformer
实现机器翻译
目录一、前言1.1什么是
Transformer
?
yyyyurina.
·
2025-06-27 20:17
transformer
机器翻译
深度学习
LLM推理入门实践:基于 Hugging Face
Transformer
s 和 vLLM
文章目录1.HuggingFace模型下载2.HuggingFace
Transformer
s库模型推理3.关于prompt的组成:system、user、assistant4.vLLM模型推理vLLM的多卡推理踩坑
ctrl A_ctrl C_ctrl V
·
2025-06-27 17:57
#
大模型llm
python
自然语言处理
人工智能
用生活例子讲透
Transformer
,大模型为何强大
想象一下,你现在是个翻译员,手头有一本厚厚的英文书,要把它翻译成中文。这可不是个轻松活儿!以前的翻译方法(老派翻译官:RNNs)过去,我们的电脑(也就是老模型,比如RNNs)是这样翻译的:就像一个超级认真的翻译官,他会逐字逐句地读英文书。他读到一个英文词时,会琢磨这个词之前讲了什么,以及他到现在为止记住了多少内容,然后才决定怎么翻译。这种方法有两个大毛病:太慢,不能分工合作:就像一个翻译官,他必须
九章云极DataCanvas
·
2025-06-27 15:13
技术干货
人工智能
GRU与
Transformer
结合:新一代序列模型
GRU与
Transformer
结合:新一代序列模型关键词:GRU、
Transformer
、序列模型、结合、深度学习摘要:本文深入探讨了GRU与
Transformer
结合所形成的新一代序列模型。
AI大模型应用工坊
·
2025-06-27 11:48
gru
transformer
深度学习
ai
⼤模型(LLMs)基础⾯
⽬前主流的开源LLM(语⾔模型)模型体系包括以下⼏个:1.GPT(GenerativePre-trained
Transformer
)系列:由OpenAI发布的⼀系列基于
Transformer
架构的语⾔模型
cv2016_DL
·
2025-06-27 01:04
LLM大模型
计算机视觉
人工智能
llama
PD分离与EP分离技术
一、Prefill与Decode的底层原理剖析1.1Prefill阶段的数学本质(以
Transformer
架构为例)计算密集型的核心原因:#自注意力计算伪代码Q=X@W_Q#[batch,seq_len
静谧之心
·
2025-06-27 00:33
LLM
AI相关
算力调度
k8s
pd
分离
llm
ep
专家并行
kvcache
Java如何导出word(根据模板生成),通过word转成pdf,放压缩包
betaorg.apache.poipoi4.1.2org.apache.poipoi-ooxml4.1.2org.apache.poipoi-scratchpad4.1.2com.documents4jdocuments4j-local1.0.3com.documents4jdocuments4j-
transformer
-msoffice-wor
R-sz
·
2025-06-26 20:31
java
word
pdf
使用Hugging Face的Sentence
Transformer
s进行文本嵌入
概述HuggingFace的Sentence
Transformer
s是一种用于生成文本和图像嵌入的Python框架,提供了最新的技术。
2501_92325368
·
2025-06-26 11:34
语言模型
langchain
Kaggle金牌方案复现:CGO-
Transformer
-GRU多模态融合预测实战
1背景分析在2023年Kaggle"GlobalMultimodalDemandForecastingChallenge"竞赛中,CGO-
Transformer
-GRU方案以领先第二名1.8个百分点的绝对优势夺冠
·
2025-06-26 03:04
LSTM、GRU 与
Transformer
网络模型参数计算
hidden_size+hidden_size²+hidden_size)4个门控结构GRU3×(embed_dim×hidden_size+hidden_size²+hidden_size)3个门控结构
Transformer
suixinm
·
2025-06-26 00:44
lstm
gru
transformer
多头注意力机制中全连接函数
在神经网络(特别是
Transformer
中的多头注意力机制)中,全连接函数(FullyConnectedLayer,FCLayer)通常指的是一个线性变换层,即nn.Linear在PyTorch中的实现
不知更鸟
·
2025-06-25 23:05
深度学习
大语言模型全流程开发技术详解:从架构、训练到对齐与量化
github.com/mlabonne/llm-course大语言模型全流程开发技术详解:从架构、训练到对齐与量化大模型实战指南:多模型生态实战与论文解读一、LLM架构(TheLLMarchitecture)不需要对
Transformer
艾墨舟启航
·
2025-06-25 20:46
大模型实战
架构
人工智能
大语言模型
预训练语言模型
1.1Encoder-onlyPLMEncoder-only架构是
Transformer
的重要分支,专注于自然语言理解(NLU)任务,核心代表是BERT及其优化模型(RoBERTa、ALBERT)。
lynnzon
·
2025-06-25 11:10
语言模型
人工智能
自然语言处理
大模型学习 (Datawhale_Happy-LLM)笔记4: 预训练语言模型
大模型学习(Datawhale_Happy-LLM)笔记4:预训练语言模型一、概述本章按Encoder-Only、Encoder-Decoder、Decoder-Only的顺序来依次介绍
Transformer
lxltom
·
2025-06-25 11:09
学习
笔记
语言模型
人工智能
bert
gpt
预训练语言模型之:Encoder-only PLM
1.基础架构:
Transformer
Encoder所有模型的基石都是
Transformer
Encoder结构,其核心是自注意力机制:Attention(Q,K,V)=softmax(QKTdk)V\text
抱抱宝
·
2025-06-25 10:36
大模型
语言模型
人工智能
自然语言处理
CVPR2025
CVPR论文列表大论文相关,abstactSphereUFormer:AU-Shaped
Transformer
forSpherical360Perception对360rgb图的深度进行估计CroCoDL
摸鱼的肚子
·
2025-06-25 10:06
论文阅读
深度学习
CVPR 2024 图像处理方向总汇(图像去噪、图像增强、图像分割和图像恢复等)
1、ImageProgress(图像处理)去鬼影GeneratingContentforHDRDeghostingfromFrequencyView去阴影HomoFormer:Homogenized
Transformer
forImageShadowRemoval
点云SLAM
·
2025-06-25 10:35
图形图像处理
深度学习
计算机视觉
图像分割
图像增强
CVPR2024
人工智能
Python 调用大模型:解锁人工智能的无限可能
(四)大模型的发展历史二、Python调用大模型的实现方法(一)使用OpenAIAPI设置API密钥定义提示文本调用OpenAIAPI输出生成的文本加载预训练模型和分词器2.使用HuggingFace
Transformer
s
CarlowZJ
·
2025-06-25 10:04
AI应用落地+Python
python
人工智能
第8章:智能菜谱生成器——语言模型如何解析烹饪秘方
当传统NLP系统将其简单译为"煮浓",新一代
Transformer
模型却精准解析出粘度为1500-2000cP的物性指标,并据此生成控温方案。这背后的核心技术便是基于烹饪
白嫖不白嫖
·
2025-06-25 07:44
深度求索-DeepSeek
语言模型
人工智能
自然语言处理
LeRobot: 让机械臂接入大模型
这一项目通过整合最先进的机器学习算法和便捷的开发工具链,为开发者提供了一个高效、易用的机器人AI开发平台,堪称机器人领域的“
Transformer
时刻”。
小众AI
·
2025-06-25 05:57
AI开源
人工智能
AI编程
一起学习swin-
transformer
(一)
Transform学习链接从零开始设计
Transformer
模型(1/2)——剥离RNN,保留Attention-CSDN博客
Transformer
-PyTorch实战项目——文本分类_
transformer
Vertira
·
2025-06-24 01:14
pytorch
学习
transformer
深度学习
Transformer
中 QKV 流向全解析(含注意力机制箭头图示)
Transformer
中注意力模块分布
Transformer
结构中含有三种注意力机制,每个机制都会涉及Q、K、V的构建和使用:编码器自注意力(EncoderSelf-Attention)解码器自注意力(
Accelemate
·
2025-06-23 15:02
transformer
人工智能
深度学习
基础RAG实现,最佳入门选择(二)
初次创建embeddings向量安装相关依赖pipinstallsentence-
transformer
storchprotobufsentencepiecepipinstallsentence-
transformer
storchprotobufsentencepiecepipinstallsentence-
transformer
storchprotobufsentencepiece
·
2025-06-23 14:05
人工智能
从零到一RedisVL 安装与运行全攻略
使用pip(推荐)需求指令说明核心功能pipinstall-Uredisvl仅依赖redis-py≥5与pydantic≥2向量化器pipinstallredisvl[all]额外安装sentence-
transformer
s
·
2025-06-23 03:16
Patch Position Embedding (PPE) 在医疗 AI 中的应用编程分析
一、PPE的核心原理与医疗场景适配性位置编码的本质需求在医疗影像(如CT、MRI、病理切片)中,
Transformer
需要将图像划分为若干Patch并作为序列输入。
Allen_Lyb
·
2025-06-22 20:55
数智化教程(第二期)
embedding
人工智能
机器学习
健康医疗
Transformer
-LSTM+SHAP可解释性分析的回归预测Matlab代码
代码示例:%基于
Transformer
-LSTM+SHAP可解释性分析的回归预测Matlab代码%多输入单输出版本%步骤1:数据预处理function[X_train,y_train,X_test,y_test
默默科研仔
·
2025-06-22 19:51
SHAP分析
transformer
lstm
回归
llamafactory 微调模型出现TypeError: argument of type ‘NoneType‘ is not iterable
问题介绍本文作者碰到的问题是File“/root/miniconda3/lib/python3.12/site-packages/
transformer
s/modeling_utils.py”,line1969
成都犀牛
·
2025-06-22 14:19
python
开发语言
人工智能
深度学习
神经网络
LoRA
LLama
Factory
深度解析 ImportError: cannot import name AdamW from
transformer
s——从报错原理到完美解决方案
在自然语言处理(NLP)领域,HuggingFace的
transformer
s库已成为事实上的标准工具。
Tadas-Gao
·
2025-06-22 12:35
机器学习
人工智能
机器学习
pytorch
LLM
python
AI 大模型原理与应用:大模型训练突破万张卡和万亿参数 MOE 这两个临界点
AI大模型原理与应用:大模型训练突破万张卡和万亿参数MOE这两个临界点大模型、训练、万张卡、万亿参数、MOE、
Transformer
、深度学习、自然语言处理1.背景介绍近年来,深度学习技术取得了飞速发展
AI大模型应用之禅
·
2025-06-22 09:15
人工智能
AIGC技术实战:使用Python实现文本生成模型
AIGC技术实战:使用Python实现文本生成模型关键词:AIGC、文本生成模型、
Transformer
、GPT、Python、预训练模型、自然语言处理摘要:本文以AIGC(人工智能生成内容)中的文本生成技术为核心
AI大模型应用工坊
·
2025-06-22 05:51
AI大模型开发实战
AIGC
python
开发语言
ai
人工智能100问☞第48问:GPT是怎么生成文本的?
目录一、通俗解释二、专业解释三、权威参考GPT生成文本的核心机制是通过
Transformer
架构的自回归模型,基于已输入内容逐词预测概率最高的后续词汇,循环迭代直至形成完整文本。
AI算力那些事儿
·
2025-06-21 22:41
人工智能100问
人工智能
gpt
RedisVL CLI 用一行命令玩转向量索引
1.环境准备步骤命令说明安装核心库pipinstall-UredisvlPython≥3.8可选:安装向量化器pipinstallredisvl[all]自带sentence-
transformer
s等依赖启动本地
Hello.Reader
·
2025-06-21 22:11
缓存技术
数据库
运维
redis
数据库
缓存
深度学习之模型压缩三驾马车:模型剪枝、模型量化、知识蒸馏
一、引言在深度学习中,我们训练出的神经网络往往非常庞大(比如像ResNet、YOLOv8、Vision
Transformer
),虽然精度很高,但“太重”了,运行起来很慢,占用内存大,不适合部署到手机、摄像头
king of code porter
·
2025-06-21 21:59
深度学习
深度学习
剪枝
人工智能
SIMPL论文阅读
论文链接:https://arxiv.org/pdf/2402.02519文章还没细看,但主要贡献点应该是SymmetricFusion
Transformer
和Bezier-basedMotionDecoder
ZHANG8023ZHEN
·
2025-06-21 18:43
论文阅读
基于大模型的尿毒症预测及综合治疗方案技术方案
目录一、算法实现伪代码1.尿毒症风险预测模型(基于多模态融合
Transformer
)2.动态治疗方案生成算法二、系统模块流程图1.尿毒症智能预测系统流程2.治疗方案生成子系统流程三、系统集成方案1.系统架构设计
LCG元
·
2025-06-21 13:40
大模型医疗研究-技术方向
技术方案
机器学习
深度学习
人工智能
【大模型开发】Hugging Face的
Transformer
s库详解介绍与案例
深入解析HuggingFace
Transformer
s及开源大模型微调实践HuggingFace
Transformer
s已成为自然语言处理(NLP)乃至多模态(跨语言、图像、音频等)应用中最为流行、功能最完备的开源框架之一
云博士的AI课堂
·
2025-06-21 11:01
大模型技术开发与实践
哈佛博后带你玩转机器学习
深度学习
transformer
huggingface
大模型技术
大模型开发
deepseek
机器学习
深度学习
基于
Transformer
的语音识别模型:从理论到实现
基于
Transformer
的语音识别模型:从理论到实现关键词:
Transformer
、语音识别、注意力机制、序列建模、端到端学习、自注意力、语音特征提取摘要:本文将深入探讨基于
Transformer
架构的语音识别系统
AI智能探索者
·
2025-06-21 10:22
transformer
语音识别
深度学习
ai
TopNet:基于
Transformer
的高效点云几何压缩网络模型详解
Transformer
-based方法:利用
清风AI
·
2025-06-21 10:21
深度学习算法详解及代码复现
计算机视觉算法
深度学习
人工智能
计算机视觉
神经网络
transformer
卷积神经网络
python
自然语言处理之文本分类:
Transformer
:文本分类数据集分析
自然语言处理之文本分类:
Transformer
:文本分类数据集分析自然语言处理基础NLP概述自然语言处理(NaturalLanguageProcessing,NLP)是人工智能领域的一个重要分支,专注于使计算机能够理解
zhubeibei168
·
2025-06-21 09:46
自然语言处理
自然语言处理
分类
transformer
数据挖掘
人工智能
支持向量机
ADAPT:动作感知驾驶字幕转换器
ADAPT:Action-awareDrivingCaption
Transformer
ADAPT:动作感知驾驶字幕转换器AbstractEnd-to-endautonomousdrivinghasgreatpotentialinthetransportationindustry.However
真诚的灰灰
·
2025-06-20 20:18
机器学习
自动驾驶
语言模型
自然语言处理
人工智能
Transformer
结构介绍
[编码器Encoder]←→[解码器Decoder]编码器:输入:源语言序列输出:每个词的上下文表示(embedding)解码器:输入:目标语言序列+编码器输出输出:下一个词的概率分布(目标句子生成)inputs->inputsEmbedding+PositionalEncoding->N*encoderoutput->outputsEmbedding+PositionalEncoding->N*
大写-凌祁
·
2025-06-20 19:39
transformer
深度学习
人工智能
run docker 报错的解决办法!
miniconda$dockerrun--rm-v$(pwd)/output:/app/outputmodelscope-video/usr/local/lib/python3.8/dist-packages/
transformer
s
微信公众号:AI创造财富
·
2025-06-20 16:19
docker
【深度学习pytorch-88】BERT
BERT(BidirectionalEncoderRepresentationsfrom
Transformer
s)简介BERT是一种基于
Transformer
架构的预训练语言表示模型,旨在通过大规模无监督学习来提升下游自然语言处理
超华东算法王
·
2025-06-20 15:46
DL-pytorch
深度学习
pytorch
bert
ROCm上来自
Transformer
s的双向编码器表示(BERT)
14.8.来自
Transformer
s的双向编码器表示(BERT)—动手学深度学习2.0.0documentation(d2l.ai)代码importtorchfromtorchimportnnfromd2limporttorchasd2l
109702008
·
2025-06-20 15:46
#
python
人工智能
#
深度学习
bert
人工智能
深度学习
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他