E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Transformer
第81期 | GPTSecurity周报
GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练
Transformer
(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。
·
2025-01-18 01:02
aigc网络安全
第83期 | GPTSecurity周报
GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练
Transformer
(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。
·
2025-01-18 00:26
aigcgpts
Time-LLM :超越了现有时间序列预测模型的学习器
可视化等相关内容最好有基础的python算法预测经验EEMD策略及踩坑VMD-CNN-LSTM时序预测对双向LSTM等模型添加自注意力机制K折叠交叉验证optuna超参数优化框架多任务学习-模型融合策略
Transformer
福安德信息科技
·
2025-01-17 23:38
AI预测
大模型
学习
人工智能
python
大模型
时序预测
注意力池化层:从概念到实现及应用
多头注意力机制(MultiheadAttention)是
Transformer
模型的核心,它通过多个注意力头来捕捉序列中不同部分之间的关系。
专业发呆业余科研
·
2025-01-17 21:39
深度模型底层原理
python
人工智能
transformer
深度学习
自然语言处理
图像处理
LTX-Video 高效视频生成模型,一键处理图片&文字
LTX-Video是由Lightricks在2024年开发的一种视频生成模型,这种模型采用了
transformer
和Video-VAE技术,能够高效生成高分辨率视频。
·
2025-01-17 20:21
第79期 | GPTSecurity周报
GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练
Transformer
(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。
·
2025-01-17 19:08
aigcgpts
深度定制:Embedding与Reranker模型的微调艺术
微调过程可以使用不同的库和框架来实现,例如sentence-
transformer
s库,它提供了便捷的API来调整Embeddin
从零开始学习人工智能
·
2025-01-17 15:22
embedding
人工智能
开源人工智能模型框架:探索与实践
通过对多个主流开源框架,如TensorFlow、PyTorch、Keras、Detectron2、OpenCV、HuggingFace
Transformer
s、AllenNLP、MindSpore和Fastai
CodeJourney.
·
2025-01-17 12:27
人工智能
能源
如何学习
Transformer
架构
Transformer
架构自提出以来,在自然语言处理领域引发了革命性的变化。作为一种基于注意力机制的模型,
Transformer
解决了传统序列模型在并行化和长距离依赖方面的局限性。
fydw_715
·
2025-01-17 10:07
Transformers
学习
transformer
架构
pip install
transformer
s教程
直接pipinstall
transformer
s会报错,报错内容如下:Collectingsafetensors>=0.3.1(from
transformer
s)Usingcachedsafetensors
养一只Trapped_beast
·
2025-01-17 09:26
知识学习
pip
transformers
北大新模型FAN:新型神经网络架构,填补周期性特征建模空白
然而,传统的神经网络模型,如多层感知器(MLP)和
Transformer
,在周期性建模方面却存在明显不足。
海森大数据
·
2025-01-17 07:11
神经网络
人工智能
深度学习
MiniMax开源,突破传统
Transformer
架构,震撼业界
国产大模型市场再掀巨浪,传统
Transformer
架构或许将不再是唯一选择。
·
2025-01-17 01:18
人工智能模型
从RNN到
Transformer
:生成式AI技术演变与未来展望
从传统的递归神经网络(RNN)到革命性的
Transformer
架构,本文将全面剖析这一技术发展历程。
非著名架构师
·
2025-01-17 00:42
人工智能
rnn
transformer
211本硕二战腾讯大模型算法岗,已凉......
八股,双向
transformer
encoder结构,
AI大模型入门
·
2025-01-16 21:47
算法
阿里云
人工智能
云计算
目标跟踪
手撕
Transformer
-- Day2 -- Embdding
手撕
Transformer
–Day2–Embdding目录手撕
Transformer
--Day2--Embdding
Transformer
网络结构图代码Part1库函数Part2实现嵌入以及位置编码,作为一个类
小菜鸟博士
·
2025-01-16 21:45
手撕Transformer
transformer
深度学习
人工智能
一起学Hugging Face
Transformer
s(8)- 使用
Transformer
s 库制作一个简易问答系统
HuggingFace
Transformer
s库是一个强大的工具,它提供了许多预训练的自然语言处理模型,简化了构建问答系统的过程。本文将介绍如何使用Huggi
做个天秤座的程序猿
·
2025-01-16 17:35
Hugging
Face
Transformers
AutoModel
AutoTokenizer
Transformers
transformer
Hugging Face
Transformer
s 库学习提纲
文章目录前言一、[基础概念](https://blog.csdn.net/kljyrx/article/details/139984730)二、[环境准备](https://blog.csdn.net/kljyrx/article/details/140006571)三、库的基本使用四、高级应用五、实践案例六、生态系统和工具七、社区与资源八、进阶学习总结前言HuggingFaceTransform
做个天秤座的程序猿
·
2025-01-16 17:05
Hugging
Face
Transformers
学习
transformer
python
不科学上网使用Hugging Face的
Transformer
s库
参考ProgramSynthesiswithCodeGen—ROCmBlogs(amd.com)HF-Mirror-Huggingface镜像站https://huggingface.co/docs/
transformer
s
109702008
·
2025-01-16 16:02
人工智能
#
深度学习
#
python
人工智能
AIGC
BART&BERT
BART和BERT都是基于
Transformer
架构的预训练语言模型。
Ambition_LAO
·
2024-09-16 07:02
深度学习
AI大模型的架构演进与最新发展
本文将详细探讨AI大模型的架构演进,包括从
Transformer
的提出到GPT、BERT、T5等模型的历史演变,并探讨这些模型的技术细节及其在现代人工智能中的核心作用。
季风泯灭的季节
·
2024-09-16 04:13
AI大模型应用技术二
人工智能
架构
轻量级模型解读——轻量
transformer
系列
文章目录1、DeiT2、ConViT3、Mobile-Former4、MobileViT
Transformer
是2017谷歌提出的一篇论文,最早应用于NLP领域的机器翻译工作,
Transformer
解读
lishanlu136
·
2024-09-16 01:18
#
图像分类
轻量级模型
transformer
图像分类
探索创新科技: Lite-Mono - 简约高效的小型化Mono框架
探索创新科技:Lite-Mono-简约高效的小型化Mono框架Lite-Mono[CVPR2023]Lite-Mono:ALightweightCNNand
Transformer
ArchitectureforSelf-SupervisedMonocularDepthEstimation
杭律沛Meris
·
2024-09-15 21:38
解决BERT模型bert-base-chinese报错(无法自动联网下载)
二、网站google-bert(BERTcommunity)Thisorganizationismaintainedbythe
transformer
stea
搬砖修狗
·
2024-09-15 13:47
bert
人工智能
深度学习
python
车载以太网之SOME/IP
发展历程AUTOSAR4.0-完成宝马SOME/IP消息的初步集成;AUTOSAR4.1-支持SOME/IP-SD及其发布/订阅功能;AUTOSAR4.2-添加
transformer
用于序列化以及其他相关优化
IT_码农
·
2024-09-15 10:20
车载以太网
车载以太网
SOME/IP
基于深度学习的农作物病害检测
基于深度学习的农作物病害检测利用卷积神经网络(CNN)、生成对抗网络(GAN)、
Transformer
等深度学习技术,自动识别和分类农作物的病害,帮助农业工作者提高作物管理效率、减少损失。
SEU-WYL
·
2024-09-15 06:51
深度学习dnn
深度学习
人工智能
多模态
Transformer
之文本与图像联合建模 -
Transformer
教程
大家好,今天我们来聊聊一个既前沿又有趣的话题——多模态
Transformer
,特别是文本与图像的联合建模。
shandianfk_com
·
2024-09-14 22:52
ChatGPT
Transformer
transformer
深度学习
人工智能
transformer
架构(
Transformer
Architecture)原理与代码实战案例讲解
transformer
架构(
Transformer
Architecture)原理与代码实战案例讲解关键词:
Transformer
,自注意力机制,编码器-解码器,预训练,微调,NLP,机器翻译作者:禅与计算机程序设计艺术
AI架构设计之禅
·
2024-09-14 16:47
大数据AI人工智能
Python入门实战
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
多模态大模型微调Qwen-VL微调及日志
%pipinstallmodelscope-U%pipinstall
transformer
sacceleratetiktoken-U%pipinstalleinops
transformer
s_stream_generator-U
Messi^
·
2024-09-14 15:10
人工智能-大模型应用
python
人工智能
深度学习
英伟达(NVIDIA)B200架构解读
H100芯片是一款高性能AI芯片,其中的
Transformer
Engine是专门用于加速
Transformer
模型计算的核心部件。
weixin_41205263
·
2024-09-14 14:31
芯际争霸
GPGPU架构
gpu算力
人工智能
硬件架构
大规模语言模型的书籍分享,从零基础入门到精通非常详细收藏我这一篇就够了
第一点是可拓展的训练架构与学习范式:
Transformer
架构能够拓展到百亿、千亿甚至万亿参数规模,并且将预训练任务统一为预测下一个词这一通用学习范式;第二点是对于数据质量与数据规模的重视:不同于BERT
黑客-雨
·
2024-09-13 10:05
语言模型
人工智能
自然语言处理
学习
大模型学习
大模型入门
大模型教程
QLoRa使用教程
https://huggingface.co/docs/peft/main/en/developer_guides/quantization案例11.4bit量化+LoRaimporttorchfrom
transformer
simportBitsAndBytesConfigconfig
云帆@
·
2024-09-13 03:12
训练
peft
人工智能
【Tools】大模型中的BERT概念
摇来摇去摇碎点点的金黄伸手牵来一片梦的霞光南方的小巷推开多情的门窗年轻和我们歌唱摇来摇去摇着温柔的阳光轻轻托起一件梦的衣裳古老的都市每天都改变模样方芳《摇太阳》BERT(BidirectionalEncoderRepresentationsfrom
Transformer
s
音乐学家方大刚
·
2024-09-12 19:26
工具
bert
人工智能
深度学习
Transformer
模型:WordEmbedding实现
前言最近在学
Transformer
,学了理论的部分之后就开始学代码的实现,这里是跟着b站的up主的视频记的笔记,视频链接:19、
Transformer
模型Encoder原理精讲及其PyTorch逐行实现
Galaxy.404
·
2024-09-12 17:42
Transformer
transformer
深度学习
人工智能
embedding
【Vidu发布】中国首个长时长、高一致性、高动态性Video AI大模型
该模型采用生数科技团队原创的Diffusion与
Transformer
融合的架构U-ViT。
叶锦鲤
·
2024-09-12 13:44
人工智能
论文翻译:arxiv-2022 Ignore Previous Prompt: Attack Techniques For Language Models
AttackTechniquesForLanguageModelshttps://arxiv.org/pdf/2211.09527忽略之前的提示:针对语言模型的攻击技术文章目录忽略之前的提示:针对语言模型的攻击技术摘要1引言摘要基于
Transformer
CSPhD-winston-杨帆
·
2024-09-12 12:14
论文翻译
LLMs-安全
prompt
语言模型
人工智能
【Qwen2部署实战】Qwen2初体验:用
Transformer
s打造智能聊天机器人
系列篇章No.文章1【Qwen部署实战】探索Qwen-7B-Chat:阿里云大型语言模型的对话实践2【Qwen2部署实战】Qwen2初体验:用
Transformer
s打造智能聊天机器人3【Qwen2部署实战
寻道AI小兵
·
2024-09-12 06:09
AI大模型Qwen系列探索实践
人工智能
AIGC
语言模型
AI编程
Qwen
论文学习笔记 VMamba: Visual State Space Model
当前的视觉模型如卷积神经网络(CNNs)和视觉
Transformer
(ViTs)在处理大规模视觉任务时展现出良好的表现,但都存在各自的局限性。
Wils0nEdwards
·
2024-09-11 23:47
学习
笔记
《自然语言处理
Transformer
模型详解》
一、引言在自然语言处理领域,
Transformer
模型的出现是一个重大的突破。
黑色叉腰丶大魔王
·
2024-09-11 21:02
自然语言处理
transformer
人工智能
深度学习速通系列:LoRA微调是什么
它的核心思想是在不改变预训练模型权重的前提下,通过在模型的
Transformer
层中引入可训练的低秩矩阵来实现模型的微调。这种方法可以显著减少训练参数的数量,从而降低对计算资源的需求。
Ven%
·
2024-09-11 11:47
深度学习速通系列
人工智能
深度学习
python
机器学习
nlp
大模型LLM面试常见算法题-包括Attention和
Transformer
常见面试题
大模型:位置编码有哪些?介绍LoRA与QLoRARAG和微调的区别是什么?哪些因素会导致LLM的偏见?什么是思维链(CoT)提示?Tokenizer的实现方法及原理解释一下大模型的涌现能力?解释langchainAgent的概念langchain有哪些替代方案?RLHF完整训练过程是什么?为什么RLHF的效果这么好?RLHF使用的训练数据是什么样的?RAG和微调的区别是什么?有了解过什么是稀疏微调
剑圣土豆
·
2024-09-10 15:57
算法面试
大模型学习
自然语言处理
transformer
算法
nlp
自然语言处理
面试
深度学习
人工智能
gpt-2语言模型训练
针对你要用到的字段信息进行处理,然后把需要处理的数据丢给模型去训练,这个模型我是直接从GPT2的网站下载下来的依赖的必要文件截图如下:二、具体代码样例实现:importosimportpandasaspdfrom
transformer
simportGPT2Tokenizer
谷隐凡二
·
2024-09-10 09:48
Python
机器学习
python
人工智能
论文笔记—NDT-
Transformer
: Large-Scale 3D Point Cloud Localization using the Normal Distribution Transfor
论文笔记—NDT-
Transformer
:Large-Scale3DPointCloudLocalizationusingtheNormalDistributionTransformRepresentation
入门打工人
·
2024-09-10 03:09
笔记
slam
定位
算法
深度解析:从概念到变革——
Transformer
大模型的前世今生以及大模型预备知识讲解[知存科技]
深度解析:从概念到变革——
Transformer
大模型的前世今生点击:知存科技相关课程推荐知存科技是全球领先的存内计算芯片企业。针对AI应用场景,在全球率先商业化量产基于存内计算技术的神经网络芯片。
汀、人工智能
·
2024-09-10 02:00
LLM技术汇总
transformer
深度学习
人工智能
自然语言处理
LLM
attention机制
编码器解码器
AI科学家:从理论到实践的科研自动化革命
近日,SakanaAI公司,由
Transformer
架构的创造者之一LlionJones创立,宣布了一项令人震惊的进展——首个完全自动化的科研平台,名为“TheAIScientist”。
海森大数据
·
2024-09-09 22:26
人工智能
自动化
运维
揭秘GLM-130B爆火秘诀:颠覆性自回归填空和二维位置编码的训练黑科技
1.模型架构简介GLM-130B是基于
Transformer
架构的双语(中文和英文)语言模型,拥有1300亿个参数。
大多_C
·
2024-09-09 15:34
人工智能
conda进行
transformer
s安装
首先建立新环境condacreate-nmyenvpython=3.8安装numpy和pytorchcondainstallnumpycondainstallpytorchtorchvisiontorchaudiocpuonly-cpytorch-cconda-forge其余的一些环境配置huggingface_hub0.16.4py_0huggingfaceimportlib-metadata6
大多_C
·
2024-09-09 15:04
conda
Transformer
、BERT、GPT、T5、LLM(大语言模型),以及它们在实际行业中的运用
我们重点讨论以下几个主流模型框架:
Transformer
、BERT、GPT、T5、LLM(大语言模型),以及它们在实际行业中的运用。
Funhpc_huachen
·
2024-09-08 17:38
transformer
bert
gpt
语言模型
深度学习
深度学习特征提取魔改版太强了!发文香饽饽!
目前比较常见的深度学习特征提取方法有基于
transformer
、基于CNN、基于LSTM以及基于GAN,都发展的比较成熟。但为了追求更快速、准确、鲁棒的特征点提取,研究者们开始致力于改进深度
深度之眼
·
2024-09-08 17:03
深度学习干货
人工智能干货
人工智能
深度学习
机器学习
论文
特征提取
探索POSTECH-CVLab的Point
Transformer
: 重塑3D点云处理的新篇章
探索POSTECH-CVLab的Point
Transformer
:重塑3D点云处理的新篇章在计算机视觉和深度学习领域中,3D点云处理是一个至关重要的环节,因为它能够帮助我们理解复杂环境中的三维结构。
尤琦珺Bess
·
2024-09-08 11:23
多模态大模型:技术原理与实战 ChatGPT的诞生
1.1.1早期人工智能1.1.2机器学习时代1.1.3深度学习的崛起1.2自然语言处理的演进1.2.1基于规则的方法1.2.2统计机器学习方法1.2.3深度学习在NLP中的应用1.3大语言模型的出现1.3.1
Transformer
AI大模型应用之禅
·
2024-09-08 10:51
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他