E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
transformer论文解读
如何利用GPT创作诗歌与短篇故事赚钱
GenerativePre-trained
Transformer
(GPT)作为一种强大的自然语言处理工具,为普通人提供了创作诗歌和短篇故事的新途径,并能够通过这些创作实现赚钱的机会。
·
2025-02-27 00:08
AI岗位面试指南:高频文档问题解析与应答策略
一、必问文档类问题与应答模板1.简历深挖类典型问题:"请详细解释简历中提到的「基于
Transformer
的文本生成优化项目」,你如何量化性能提升?"
阿三0812
·
2025-02-26 19:07
ai
人工智能
面试
从零开始:使用PyTorch构建DeepSeek R1模型及其训练详解
DeepSeekR1是一个假设的模型名称,为了演示目的,我们将构建一个基于
Transformer
的简单文本生成模型。
陆鳐LuLu
·
2025-02-26 19:02
pytorch
人工智能
python
DeepSeek API是什么
DeepSeekAPI通常基于先进的大模型,如
Transformer
架构的模型,提供了强大的语言理解和生成能力。
兔兔爱学习兔兔爱学习
·
2025-02-26 18:28
大模型
python
prompt
算法
【深度学习】
Transformer
入门:通俗易懂的介绍
【深度学习】
Transformer
入门:通俗易懂的介绍一、引言二、从前的“读句子”方式三、
Transformer
的“超级阅读能力”四、
Transformer
是怎么做到的?
知识靠谱
·
2025-02-26 07:12
深度学习
深度学习
transformer
人工智能
【百问百答系列】-全面了解
Transformer
(未来发展)
【百问百答系列】-全面了解
Transformer
引言初次接触
Transformer
时,那些复杂的概念和精妙的架构设计,着实让我困惑不已。
什么都想学的阿超
·
2025-02-26 04:51
原理概念
#
深度学习
transformer
深度学习
人工智能
论文解读
(全头皮重建方向):3DCMM
从面部到完整头部:3DCMM的技术原理解析引言在计算机图形学和人体工学领域,3D头部模型的需求日益增加。无论是虚拟化身的创建还是头盔的个性化设计,仅有面部模型往往不足以满足要求,完整的头部几何(包括头皮)才是关键。传统的3D可变形模型(3DMM)多集中于面部重建,头皮区域因数据稀缺和技术限制常被忽略。2022年发表于VRCAI’22的论文《3DCMM:3DComprehensiveMorphabl
FLOWVERSE
·
2025-02-26 02:03
3d
3D人头补全
Python微调DeepSeek-R1-Distill-Qwen-1.5B模型:使用
Transformer
s和PyTorch进行训练
前言近年来,基于
Transformer
架构的预训练语言模型如GPT、BERT等已经取得了显著的成果,广泛应用于自然语言处理(NLP)的各个领域。
煤炭里de黑猫
·
2025-02-25 21:02
pytorch
python
人工智能
机器学习
机器学习01
dataframe那样的数据,要进行特征提取,比如字典特征提取,文本特征提取)无量纲化(预处理)归一化标准化降维底方差过滤特征选择主成分分析-PCA降维1.特征工程API实例化转换器对象,转换器类有很多,都是
Transformer
天行者@
·
2025-02-25 20:53
机器学习
人工智能
深度学习
告别复杂分词:
Transformer
s轻松搞定文本处理
今天这篇文章将带你一起走进一个深受AI界热爱的工具——
Transformer
s库,特别是AutoTokenizer的神奇功能。这个工具可以让你轻松处理文本,节省时间,还能保证高效准确。
星际编程喵
·
2025-02-25 09:08
Python探索之旅
python
算法
机器学习
深度学习
自然语言处理
GPT-2源码实现及GPT-3、GPT-3.5、GPT-4及GPT-5内幕解析(二)
NLP_Matrix_Space5.2GPT-2源码实现逐行解析本节讲解GPT-2源码,gpt2.py是一个使用NumPy实现的代码,在代码中实现了GELU激活函数、softmax函数、层归一化、线性层、前馈神经网络、多头自注意力机制、
Transformer
段智华
·
2025-02-25 09:35
深入理解
ChatGPT
ChatGPT国内
OpenAI
GPT-3
GPT-4
开源模型应用落地-Qwen1.5-MoE-1/3的激活参数量达到7B模型的性能
但是目前只有HF
transformer
s和vLLM支持该模型。二、术语介绍2.1.混合专家(MoE)架构是一种机器学习模型的结构设计,它将一个复杂的任务分解成多个相对简单的子任务,
开源技术探险家
·
2025-02-25 07:55
开源模型-实际应用落地
#
深度学习
语言模型
自然语言处理
深度学习笔记——常见的
Transformer
位置编码
本文详细介绍3种常见的
Transformer
位置编码——正弦/余弦位置编码(sin/cos)、基于频率的二维位置编码(2DFrequencyEmbeddings)、旋转式位置编码(RoPE)文章目录
Transformer
好评笔记
·
2025-02-25 01:05
深度学习笔记
深度学习
transformer
人工智能
为什么词向量和权重矩阵dot运算就能得到想要的效果呢?
具体来说,在自然语言处理任务中,这种操作通常出现在如
Transformer
模型中的自注意力机制里。让我们深入探讨一下为什么这种方
cjl30804
·
2025-02-24 15:02
矩阵
线性代数
nlp
Engineering A Large Language Model From Scratch
Atinuke是一种基于
Transformer
的神经网络,通过使用独特的配置来优化各种语
UnknownBody
·
2025-02-24 15:31
语言模型
人工智能
自然语言处理
Transformer
在RxJava中的使用
Transformer
用途
Transformer
,顾名思义是转换器的意思。
xiaopangcame
·
2025-02-24 15:27
rxjava
rxjava
深度学习(2)-深度学习关键网络架构
关键网络架构深度学习有4种类型的网络架构:密集连接网络、卷积神经网络、循环神经网络和
Transformer
。
yyc_audio
·
2025-02-24 14:26
人工智能
机器学习
深度学习
如何在Java中实现多头注意力机制:从
Transformer
模型入手
如何在Java中实现多头注意力机制:从
Transformer
模型入手大家好,我是微赚淘客系统3.0的小编,是个冬天不穿秋裤,天冷也要风度的程序猿!
省赚客app开发者
·
2025-02-24 14:26
java
transformer
开发语言
transformer
s java_
Transformer
在RxJava中的使用
Transformer
.jpeg
Transformer
用途
Transformer
,顾名思义是转换器的意思。
欢小颜
·
2025-02-24 14:55
transformers
java
Transformer
大模型实战 教师 学生架构
Transformer
大模型实战教师学生架构作者:禅与计算机程序设计艺术/ZenandtheArtofComputerProgramming1.背景介绍1.1问题的由来近年来,随着深度学习技术的飞速发展
AI智能涌现深度研究
·
2025-02-24 14:19
DeepSeek
R1
&
大数据AI人工智能
Python入门实战
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
Transformer
模型量化Quantization 笔记
模型参数与显存占用计算基础为了详细说明模型的参数数量和每个参数在显存中占用的空间大小,我们以facebookOPT-6.7B模型为例。逐步推理计算过程:1.估计参数总量:OPT-6.7B模型指一个含有大约6.7Billion(67亿)个参数的模型。2.计算单个参数的显存占用:OPT-6.7B模型默认使用Float16,每个参数占用16位(即2字节)的显存。3.计算总显存占用=参数总量×每个参数的显
Foolbird123
·
2025-02-24 13:14
transformer
人工智能
深度学习
如何在Java中设计高效的
Transformer
模型架构
如何在Java中设计高效的
Transformer
模型架构大家好,我是微赚淘客系统3.0的小编,是个冬天不穿秋裤,天冷也要风度的程序猿!
省赚客app开发者
·
2025-02-24 13:43
java
transformer
架构
目前(2025年2月)计算机视觉(CV)领域一些表现优异的深度学习模型
PaLI:这是一个多模态模型,结合了40亿参数的视觉
Transformer
(ViT)和多种大型语言模型(LLM),并在包含100多种语言的100亿图像和文本数据集上进行训练。PaLI在图像描述、视
空空转念
·
2025-02-23 20:18
深度学习系列
计算机视觉
深度学习
人工智能
End-to-End Object Detection with
Transformer
s
End-to-EndObjectDetectionwith
Transformer
s会议:2020ECCV论文:https://arxiv.org/abs/2005.12872代码:https://github.com
M1kk0
·
2025-02-23 18:28
目标检测
计算机视觉
神经网络
深度学习革命背后:DBN、AlexNet、GAN 等神级架构,究竟藏着怎样的 AI 崛起密码?(附deepseek)
年至今)****2006年:深度学习奠基——深度信念网络(DBN)****2012年:AlexNet崛起****2014年:架构创新潮****生成对抗网络(GAN)****残差网络(ResNet)****
Transformer
universe_code
·
2025-02-23 15:35
人工智能
python
深度学习
经验分享
GPT和BERT的异同
GPT(GenerativePre-trained
Transformer
)和BERT(BidirectionalEncoderRepresentationsfrom
Transformer
s)都是基于
Transformer
彬彬侠
·
2025-02-23 15:04
自然语言处理
gpt
bert
Transformer
解码器
编码器
NLP
自然语言处理
【论文精读】MapTR:用于在线矢量化高精地图构建的结构化建模与学习
本文提出了MapTR,一种用于高效在线矢量化高精地图构建的结构化端到端
Transformer
模
青衫弦语
·
2025-02-23 14:02
自动驾驶
人工智能
深度学习
transformer
LLM论文笔记 15:
Transformer
s Can Achieve Length Generalization But Not Robustly
UniversityofToronto关键词长度泛化位置编码数据格式核心结论1.实验结论:十进制加法任务上的长度泛化最佳组合:FIRE位置编码随机化位置编码反向数据格式索引提示(indexhints,辅助定位)2.在适当的配置下,
Transformer
Zhouqi_Hua
·
2025-02-23 14:30
大模型论文阅读
论文阅读
语言模型
自然语言处理
深度学习
笔记
大模型WebUI:Gradio全解11——使用
transformer
s.agents构建Gradio UI(3)
大模型WebUI:Gradio全解11——使用
transformer
s.agents构建GradioUI(3)前言本篇摘要11.使用
transformer
s.agents构建GradioUI11.3创建和使用工具
龙焰智能
·
2025-02-23 11:10
gradio
tools
load_tool
toolbox
ToolCollection
人工神经网络ANN入门学习笔记
侵权删):【ANN回归预测】基于ANN实现多变量预测附Matlab代码_ann实现回归-CSDN博客ANN人工神经网络:从基础认知到现实理解-CSDN博客常用神经网络-ANN/CNN/RNN/GAN/
Transformer
_a
cs_ning
·
2025-02-23 10:02
ANN学习笔记
学习
笔记
机器学习
单目标追踪——【
Transformer
】
Transformer
Tracking
目录文章侧重点网络结构上下文增强模块交叉特征增强TransT网络结构可视化结果分析n=1n=2n=3n=4
Transformer
这个香饽饽怎么能不用来迁移到目标追踪里呢。本篇文章分析TransT。
zz的大穗禾
·
2025-02-23 04:21
论文阅读
SOT
transformer
深度学习
人工智能
多模态论文笔记——DiT(Diffusion
Transformer
)
本文详细介绍
Transformer
架构图像生成方面的应用,将Diffusion和
Transformer
结合起来的模型:DiT。目前DiT已经成为了AIGC时代的新宠儿,视频和图像生成不可缺少的一部分。
好评笔记
·
2025-02-23 04:19
多模态论文笔记
深度学习
transformer
DiT
人工智能
机器学习
aigc
stable
diffusion
Transformer
解析——(五)代码解析及拓展
本系列已完结,全部文章地址为:
Transformer
解析——(一)概述-CSDN博客
Transformer
解析——(二)Attention注意力机制-CSDN博客
Transformer
解析——(三)Encoder-CSDN
cufewxy2018
·
2025-02-23 04:19
深度学习
transformer
深度学习
人工智能
DeepSeek新作-Native Sparse Attention
标准注意力机制的挑战:传统的注意力机制(如
Transformer
中的全注意力机制)在处理长文本时面临巨大的计算成本。这是因为全注意力机制需要计算每个词与其他所有词之间的关系
数据分析能量站
·
2025-02-22 21:21
机器学习
人工智能
十月学习笔记
transformer
的架构:基于encoder-only或decoder-only架构
Transformer
模型由编码器(enco
木子不多余
·
2025-02-22 15:28
学习日志
学习
笔记
大模型量化概述
近年来,随着
Transformer
、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变得越来越大,因此,我们需要一些大模型压缩技术来降低模型部署的成本,并提升模型的推理性能。
AI领航者
·
2025-02-22 04:02
人工智能
ai
大模型
用deepseek学大模型08-用deepseek解读deepseek
DeepSeekR1是一种先进的深度学习模型架构,结合了
Transformer
、稀疏注意力机制和动态路由等核心技术。
wyg_031113
·
2025-02-22 01:26
人工智能
深度学习
Transformer
Decoder 详解
Transformer
Decoder详解1.模型结构图解
Transformer
Decoder由N个相同的层堆叠而成,每个层包含以下组件(与Encoder不同,Decoder包含两种注意力机制):Input
idealmu
·
2025-02-22 00:51
transformer
深度学习
人工智能
神经网络
【深度学习大模型实例教程:
Transformer
架构、多模态模型与自监督学习】
深度学习大模型实例教程:
Transformer
架构、多模态模型与自监督学习1.深度学习基础概述1.1深度学习的核心概念1.2常见深度学习模型1.3大模型的挑战与解决方案2.数据准备2.1数据处理示例:CIFAR
生活De°咸鱼
·
2025-02-21 22:34
AIGC
Java
深度学习
大数据
AIGC
深度学习模型的全面解析:技术进展、应用场景与未来趋势
这些模型可以根据其结构和应用场景被分为不同的类别,包括但不限于卷积神经网络(CNN)、循环神经网络(RNN)、长短期记忆网络(LSTM)、生成对抗网络(GAN)和
Transformer
模型等。
阿尔法星球
·
2025-02-21 22:03
深度学习与神经网络实战
机器学习
Vision
Transformer
图像分类实现
Vision
Transformer
(ViT)是一种基于
Transformer
架构的图像分类模型。
reset2021
·
2025-02-21 16:13
图像分类
transformer
分类
深度学习
python
跨越感官鸿沟:AGI多模态融合技术解析
文章目录引言:当AGI开始拥有"五感"一、多模态认知的理论基础1.1人类感官系统的启示1.2多模态表示学习的数学框架二、多模态融合的核心技术2.1跨模态对齐架构
Transformer
-based模型2.2
.猫的树
·
2025-02-21 13:48
AGI-通用人工智能
多模态学习
AGI
深度学习
利用深度学习进行汇率预测:LSTM与
Transformer
模型的应用实践
第一部分:数据收集与准备1.1数据集介绍1.2数据准备第二部分:使用LSTM模型进行汇率预测2.1数据序列化2.2LSTM模型构建2.3模型训练与评估2.4结果可视化第三部分:使用
Transformer
人工智能_SYBH
·
2025-02-21 06:53
深度学习
lstm
transformer
如何将模型长度扩展到100万:Llama 3的NTK-aware插值技术解析 小学生都懂的
好的,以下是对Llama3如何通过NTK-aware插值调整位置编码以扩展上下文长度到100万的详细原理解释:1.RoPE(旋转位置编码)的原理RoPE是一种用于
Transformer
模型的位置编码方法
从零开始学习人工智能
·
2025-02-21 00:41
llama
【部署】K
transformer
是什么、如何利用单卡24GB显存部署Deepseek-R1 和 Deepseek-V3
简介K
Transformer
s是一个灵活的、以Python为中心的框架,旨在通过先进的内核优化和放置/并行策略提升HuggingFace
Transformer
s的使用体验。
仙人掌_lz
·
2025-02-20 21:21
人工智能
人工智能
AI
部署
自然语言处理
GPT (Generative Pre-trained
Transformer
)
GPT(GenerativePre-trained
Transformer
)是由OpenAI提出的一个基于
Transformer
架构的自回归语言模型。
彬彬侠
·
2025-02-20 19:07
自然语言处理
gpt
transformer
预训练
NLP
自然语言处理
Vision
Transformer
(ViT):用
Transformer
颠覆图像识别
Vision
Transformer
(ViT):用
Transformer
颠覆图像识别在计算机视觉领域,卷积神经网络(CNN)长期以来一直是图像识别任务的主流架构。
金外飞176
·
2025-02-20 19:36
论文精读
transformer
深度学习
人工智能
基于
Transformer
的YOLOv8检测头架构改进:提升目标检测精度的全新突破(YOLOv8)
专栏订阅地址:https://blog.csdn.net/mrdeam/category_12804295.html文章目录基于
Transformer
的YOLOv8检测头架构改进:提升目标检测精度的全新突破什么是
步入烟尘
·
2025-02-20 19:34
transformer
YOLO
目标检测
transformer
模型构建
2.6模型构建学习目标掌握编码器-解码器结构的实现过程.掌握
Transformer
模型的构建过程.通过上面的小节,我们已经完成了所有组成部分的实现,接下来就来实现完整的编码器-解码器结构.
Transformer
AI耽误的大厨
·
2025-02-20 16:03
自然语言处理nlp
transformer
算法
人工智能
神经网络
word2vec
Transformer
模型架构
Transformer
是一种模型架构(ModelArchitecture),而不是一个软件框架(Framework)。它的定位更接近于一种设计蓝图,类似于建筑中的结构设计方案。
2401_89793006
·
2025-02-20 15:24
热门话题
transformer
深度学习
人工智能
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他