E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
transformer论文阅读
【
论文阅读
】AugSteal: Advancing Model Steal With Data Augmentation in Active Learning Frameworks(2024)
摘要Withtheproliferationof(随着)machinelearningmodels(机器学习模型)indiverseapplications,theissueofmodelsecurity(模型的安全问题)hasincreasinglybecomeafocalpoint(日益成为人们关注的焦点).Modelstealattacks(模型窃取攻击)cancausesignifican
Bosenya12
·
2024-09-05 14:40
科研学习
模型窃取
论文阅读
模型窃取
模型提取
数据增强
主动学习
6、关于Medical-
Transformer
6、关于Medical-
Transformer
Axial-Attention原文链接:Axial-attentionMedical-
Transformer
原文链接:Medical-
Transformer
Medical-
Transformer
安逸sgr
·
2024-09-05 14:05
Transformer
transformer
深度学习
人工智能
计算机视觉
大模型--个人学习心得
大模型LLM定义大模型LLM,全称LargeLanguageModel,即大型语言模型LLM是一种基于
Transformer
架构模型,它通过驯良大量文本数据,学习语言的语法、语义和上下文信息,从而能够对自然语言文本进行建模这种模型在自然语言处理
挚爱清&虚
·
2024-09-05 12:27
人工智能
深度学习算法——
Transformer
参考教材:动手学pytorch一、模型介绍
Transformer
模型完全基于注意力机制,没有任何卷积层或循环神经网络层。
fw菜菜
·
2024-09-04 18:31
数学建模
深度学习
transformer
人工智能
数学建模
python
pytorch
基于Bert-base-chinese训练多分类文本模型(代码详解)
目录一、简介二、模型训练三、模型推理一、简介BERT(BidirectionalEncoderRepresentationsfrom
Transformer
s)是基于深度学习在自然语言处理(NLP)领域近几年出现的
一颗洋芋
·
2024-09-04 15:41
bert
分类
自然语言处理
高校为什么需要AIGC大数据实验室?
AIGC技术创新:探索如何利用人工智能算法,如深度学习中的生成对抗网络(GAN)、变分自编码器(VAE)、基于
Transformer
架构的语言模型(如GPT系列)等,来高效地生成高质量的文本、图像、音频
泰迪智能科技01
·
2024-09-04 13:28
AIGC
AIGC
大数据
自动驾驶之心规划控制理论&实战课程
多传感器标定全栈系统学习教程多传感器融合:毫米波雷达和视觉融合感知全栈教程(深度学习传统方式)多传感器融合跟踪全栈教程(视频答疑)多模态融合3D目标检测教程(视频答疑)规划控制理论&实战课程国内首个BEV感知全栈系列学习教程首个基于
Transformer
vsdvsvfhf
·
2024-09-04 10:05
自动驾驶
人工智能
机器学习
Azure和
Transformer
s的详细解释
AzureAI是微软提供的人工智能(AI)解决方案的集合,旨在帮助开发人员、数据科学家和企业轻松构建和部署智能应用程序。以下是对AzureAI各个方面的详细解释:AzureAI主要组件AzureCognitiveServices(认知服务):计算视觉:包括图像识别、物体检测、人脸识别以及图像标注等。语音服务:包括语音识别、语音合成、说话人识别和语音翻译等。语言理解服务:包括文本分析、语言翻译、情感
漫天飞舞的雪花
·
2024-09-04 09:04
azure
microsoft
python
【深度学习
transformer
】使用pytorch 训练
transformer
模型,hugginface 来啦
它由几个关键组件组成:
Transformer
s:这是一个基于PyTorch的库,提供了各种预训练的NLP模型,如BERT、GPT、RoBERTa、DistilBERT等。
东华果汁哥
·
2024-09-04 06:39
深度学习-文本分类
深度学习
transformer
pytorch
LLM大模型落地-从理论到实践
学习目标熟悉主流LLM(Llama,ChatGLM,Qwen)的技术架构和技术细节;有实际应用RAG、PEFT和SFT的项目经验较强的NLP基础,熟悉BERT、T5、
Transformer
和GPT的实现和差异
hhaiming_
·
2024-09-04 01:12
语言模型
人工智能
ai
深度学习
Bert系列:
论文阅读
Rethink Training of BERT Rerankers in Multi-Stage Retrieval Pipeline
一句话总结:提出LocalizedContrastiveEstimation(LCE),来优化检索排序。摘要预训练的深度语言模型(LM)在文本检索中表现出色。基于丰富的上下文匹配信息,深度LM微调重新排序器从候选集合中找出更为关联的内容。同时,深度lm也可以用来提高搜索索引,构建更好的召回。当前的reranker方法并不能完全探索到检索结果的效果。因此,本文提出了LocalizedContrast
凝眸伏笔
·
2024-09-04 01:37
nlp
论文阅读
bert
reranker
retrieval
2.关于
Transformer
关于
Transformer
模型架构举例输入图像为3x224x224EmbeddedPatches将一张图的多个区域进行卷积,将每个区域转换成多维度向量(多少卷积核就有多少维向量)self.patch_embeddings
安逸sgr
·
2024-09-03 20:05
Transformer
transformer
深度学习
人工智能
DETR3D 开源项目教程
DETR3D开源项目教程detr3d项目地址:https://gitcode.com/gh_mirrors/de/detr3d项目介绍DETR3D是一个基于
Transformer
架构的开源三维目标检测框架
齐妤茜
·
2024-09-03 19:35
3.关于Detr
关于Detr模型架构总体架构class
Transformer
(nn.Module):def__init__(self,d_model=512,nhead=8,num_encoder_layers=6,num_decoder_layers
安逸sgr
·
2024-09-03 19:05
Transformer
计算机视觉
目标检测
transformer
GPT 模型简史:从 GPT-1 到 GPT-4
文章目录GPT-1GPT-2GPT-3从GPT-3到InstructGPTGPT-3.5、Codex和ChatGPTGPT-4GPT-1 2018年年中,就在
Transformer
架构诞生⼀年后,
三月七꧁ ꧂
·
2024-09-03 19:04
大模型开发
gpt
人工智能
自然语言处理
语言模型
transformer
gpt-3
prompt
A Tutorial on Near-Field XL-MIMO Communications Towards 6G【
论文阅读
笔记】
此系列是本人阅读论文过程中的简单笔记,比较随意且具有严重的偏向性(偏向自己研究方向和感兴趣的),随缘分享,共同进步~论文主要内容:建立XL-MIMO模型,考虑NUSW信道和非平稳性;基于近场信道模型,分析性能(SNRscalinglaws,波束聚焦、速率、DoF)XL-MIMO设计问题:信道估计、波束码本、波束训练、DAMXL-MIMO信道特性变化:UPW➡NUSW空间平稳–>空间非平稳(可视区域
Cc小跟班
·
2024-09-03 08:22
【论文阅读】相关
论文阅读
笔记
论文阅读
:scMGCA----模型方法
Yu,Z.,Su,Y.,Lu,Y.etal.Topologicalidentificationandinterpretationforsingle-cellgeneregulationelucidationacrossmultipleplatformsusingscMGCA.NatCommun14,400(2023).https://doi.org/10.1038/s41467-023-36134
dundunmm
·
2024-09-03 07:46
论文阅读
论文阅读
人工智能
聚类
生物聚类
单细胞聚类
单细胞分析
论文阅读
:scHybridBERT
ZhangWei,WuChenjun,XingFeiyang,JiangMingfeng,ZhangYixuan,LiuQi,ShiZhuoxing,DaiQi,scHybridBERT:integratinggeneregulationandcellgraphforspatiotemporaldynamicsinsingle-cellclustering,BriefingsinBioinform
dundunmm
·
2024-09-03 07:42
论文阅读
机器学习
人工智能
神经网络
深度学习
单细胞基因测序
OpenAI Chatgpt发展历史和Chatgpt-3的研发过程工作原理
ChatGPT是由OpenAI的研究团队基于GPT技术(GenerativePre-trained
Transformer
)开发的AI对话引擎。
roxxo
·
2024-09-03 04:29
gpt-3
深度学习
人工智能
chatgpt
周报 | 24.8.26-24.9.1文章汇总
能玩的
Transformer
可视化解释工具!_研究别人的黑盒算法机器学习python-CSDN博客极市平台|语言图像模型大一统!Meta将
Transformer
和Di
双木的木
·
2024-09-02 13:25
python拓展学习
深度学习拓展阅读
目标检测
人工智能
python
计算机视觉
gpt
transformer
stable
diffusion
大语言模型诞生、探索和爆发阶段
2017年:Google发表了
Transformer
架构,这是一种基于自注意力机制的神经网络架构,它彻底改变了自然语言处理(NLP)领域,使得大规模并行化处理成为可能,
花开盛夏^.^
·
2024-09-02 10:38
人工智能
语言模型
人工智能
自然语言处理
GPT-3:一个新应用生态系统诞生了
Transformer
encoder-decoder模型之间由超过1,750亿个被称为参数的单词之间的加权值连接,将其15亿个参数的前身GPT-2打的落花流水。您只要输入要执行的任务
派派AI学院
·
2024-09-02 09:34
【
论文阅读
】Purloining Deep Learning Models Developed for an Ultrasound Scanner to a Competitor Machine
TheArtoftheSteal:PurloiningDeepLearningModelsDevelopedforanUltrasoundScannertoaCompetitorMachine(2024)摘要Atransferfunctionapproach(传递函数方法)hasrecentlyproveneffectiveforcalibratingdeeplearning(DL)algorit
Bosenya12
·
2024-09-02 06:40
科研学习
模型窃取
论文阅读
深度学习
人工智能
模型安全
Transformer
面试真题详解——覆盖99%的
Transformer
面试问题(建议收藏)
文章目录1.请简述一下
Transformer
的基本结构和原理2.
Transformer
为什么使用多头注意力机制3.
Transformer
计算attention为什么选择点乘而不是加法?
爱睡觉的咋
·
2024-09-02 05:34
LLM
transformer
深度学习
人工智能
《Motion Forecasting with Dual Consistency and Multi-Pseudo-Target Supervision》
论文阅读
之DCMS
目录摘要1简介2相关工作3.方法3.1结构3.2双重一致性约束3.3多伪目标监督3.4学习4实验4.1实验装置4.2实验结果4.3消融研究4.4泛化能力5限制6结论DCMS:具有双重一致性和多伪目标监督的运动预测香港科技大学暂无代码。摘要我们提出了一种具有双重一致性约束和多伪目标监督的运动预测新框架。运动预测任务通过结合过去的空间和时间信息来预测车辆的未来轨迹。DCMS的一个关键设计是提出双重一致
山水之间2018
·
2024-09-02 04:30
无人驾驶
Paper
Reading
大数据
轨迹预测
自动驾驶
人工智能
【论文笔记】Training language models to follow instructions with human feedback B部分
TraininglanguagemodelstofollowinstructionswithhumanfeedbackB部分回顾一下第一代GPT-1:设计思路是“海量无标记文本进行无监督预训练+少量有标签文本有监督微调”范式;模型架构是基于
Transformer
Ctrl+Alt+L
·
2024-09-02 01:12
大模型论文整理
论文笔记
论文阅读
语言模型
人工智能
自然语言处理
时序预测相关
论文阅读
笔记
笔记链接:【有道云笔记】读论文(记录)https://note.youdao.com/s/52ugLbot用于个人学习记录。
能力越小责任越小YA
·
2024-09-02 00:37
论文阅读
笔记
时序预测
Transformer
【
论文阅读
|cryoET】本周粗读汇总
论文1:CryoDRGN-ET:深度重建生成网络以可视化细胞内动态生物分子Abstract虽然冷冻电子断层扫描可以以分子分辨率揭示结构,但图像处理算法仍然是解决原位生物分子结构异质性的瓶颈。本文介绍CryoDRGN-ET用于cryoET断层图的异质重建。CryoDRGN-ET直接从子断层扫描倾斜系列图像中学习三维密度图的深度生成模型,并且可以捕获成分和构象不同的状态。通过原位恢复肺炎支原体核糖体中
吃吃今天努力学习了吗
·
2024-09-01 20:46
冷冻电镜三维重建
论文阅读
Your Diffusion Model is Secretly a Zero-Shot Classifier
论文阅读
笔记
YourDiffusionModelisSecretlyaZero-ShotClassifier
论文阅读
笔记这篇文章我感觉在智源大会上听到无数个大佬讨论,包括OpenAISora团队负责人,谢赛宁,好像还有杨植麟
Rising_Flashlight
·
2024-09-01 20:46
论文阅读
笔记
计算机视觉
【
论文阅读
】QUEEN: Query Unlearning against Model Extraction(2024)
摘要Modelextractionattacks(模型提取攻击)currentlyposeanon-negligiblethreat(不可忽视的威胁)tothesecurity(安全性)andprivacy(隐私性)ofdeeplearningmodels.Byqueryingthemodelwithasmalldataset(通过小数据集查询模型)andusingthequeryresultsa
Bosenya12
·
2024-09-01 20:45
科研学习
模型窃取
论文阅读
提取攻击
模型安全
【
论文阅读
33】Deep learning optoacoustic tomography with sparse data
Deeplearningoptoacoustictomographywithsparsedata论文题目:基于稀疏数据的深度学习光声断层扫描论文链接:Deeplearningoptoacoustictomographywithsparsedata|NatureMachineIntelligence代码链接:GitHub-ndavoudi/sparse_artefact_unet数据链接:Data发
弹伦琴的雷登
·
2024-09-01 18:29
【论文阅读系列】
人工智能
深度学习
论文阅读
图像处理
【HuggingFace
Transformer
s】BertIntermediate 和 BertPooler源码解析
BertIntermediate和BertPooler源码解析1.介绍1.1位置与功能1.2相似点与不同点2.源码解析2.1BertIntermediate源码解析2.2BertPooler源码解析1.介绍1.1位置与功能(1)BertIntermediate位置:位于BertLayer的注意力层(BertSelfAttention)和输出层(BertOutput)之间。功能:它执行一个线性变换(
CS_木成河
·
2024-09-01 17:25
Hugging
Face
深度学习
人工智能
bert
python
大模型
Transformer
在浏览器上使用
transformer
s.js运行(WebGPU)RMBG-1.4进行抠图(背景移除)
在浏览器上使用
transformer
s.js运行(WebGPU)RMBG-1.4进行抠图(背景移除)说明:首次发表日期:2024-08-28官方Github仓库地址:https://github.com
shizidushu
·
2024-09-01 17:55
WebGPU
transformers.js
RMBG-1.4
抠图
LLM-项目详解(一):Chinese-LLaMA-Alpaca【
transformer
s/models/llama/modeling_llama.py文件】
site-packages/
transformer
s/models/llama/modeling_llama.py#coding=utf-8#Copyright2022EleutherAIandtheHuggingFaceInc.team.Allrightsreserved
u013250861
·
2024-08-31 22:57
#
LLM/经典模型
llama
总结:大模型技术栈---算法与原理
word-levelchar-levelsubword-levelBPEWordPieceUniLMSentencePieceByteBPE2.positionencoding绝对位置编码ROPEAliBi相对位置编码
Transformer
-XLT5
lichunericli
·
2024-08-31 22:26
LLM零碎知识
人工智能
自然语言处理
算法
《BERT基础教程:
Transformer
大模型实战》读书笔记
概念BERT,BidirectionalEncoderRepresentationsfrom
Transformer
s,多
Transformer
的双向编码器表示法。
johnny233
·
2024-08-31 19:39
读书笔记
人工智能
深度学习项目实践——QQ聊天机器人(
transformer
)(三)功能实现的方法——NoneBot2插件结构与编写
深度学习项目实践——QQ聊天机器人(
transformer
)(三)功能实现的方法——NoneBot2插件结构与编写在前两节中,我们详细讲解了QQ聊天的原理、QQ机器人的框架与环境配置的流程。
Linductor
·
2024-08-31 18:58
qq聊天机器人项目
机器人
transformer
nonebot
YOLOv9独家改进:一种高效移动应用的卷积加性自注意Vision
Transformer
本文独家改进:轻量化改进之高效移动应用的卷积加性自注意Vision
Transformer
,构建了一个新颖且高效实现方式——卷积加性相似度函数,并提出了一种名为卷积加性标记混合器(CATM)的简化方法来降低计算开销
AI小怪兽
·
2024-08-31 17:28
YOLOv9魔术师
YOLO
transformer
深度学习
开发语言
人工智能
python
自己设计一个
Transformer
模型
Transformer
模型在2017年被Google提出,直接基于self-attention结构,不再依赖于RNN、LSTM或者CNN,是一种Seg2Seg模型。
郑不凡
·
2024-08-31 13:23
transformer
自然语言处理
机器翻译
巴伦射频变器(Balun RF
Transformer
)的常规产品通常包括以下几种类型
1:1高频变压器:用于将平衡和非平衡信号进行转换,通常在信号传输和接收电路中使用,如无线通信设备和各种高频电子设备中。1:4高频变压器:主要用于阻抗匹配和信号传输,能够将低阻抗的平衡信号转换为高阻抗的非平衡信号,广泛应用于射频收发器件和天线系统。双平衡变压器:用于同时处理两个平衡信号的变压器,如应用于差分放大器和差分信号处理电路中。4:1高频变压器:类似于1:4变压器,用于信号匹配和转换,将高阻抗
Hqst88888
·
2024-08-31 08:50
网络
第65期 | GPTSecurity周报
GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练
Transformer
(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。
云起无垠
·
2024-08-31 05:26
GPTSecurity
人工智能
网络安全
语言模型
快速使用
transformer
s的pipeline实现各种深度学习任务
目录引言安装情感分析文本生成文本摘要图片分类实例分割目标检测音频分类自动语音识别视觉问答文档问题回答图文描述引言在这篇中文博客中,我们将深入探讨使用
transformer
s库中的pipeline()函数
E寻数据
·
2024-08-31 04:54
huggingface
计算机视觉
nlp
深度学习
人工智能
python
pipeline
transformers
1-pipeline()函数-
transformer
s-python库
pipeline()函数pipeline()函数是
Transformer
s库中最基本的工具。
Transformer
模型用于解决各种NLP任务,
Transformer
s库提供了创建和使用这些模型的功能。
Flora-pi
·
2024-08-31 04:53
人工智能
人工智能
Transformer
模型整体构建的实现
编码器-解码器结构classEncoderDecoder(nn.Module):def__init__(self,encoder,decoder,source_embedding,target_embedding,generator):"""初始化函数中有5个参数,分别是编码器对象,解码器对象,源数据嵌入函数,目标数据嵌入函数,以及输出部分的类别生成器对象"""super(EncoderDecod
好好学习Py
·
2024-08-30 22:14
自然语言处理
transformer
python
人工智能
深度学习
pytorch
nlp
Bert中文预训练模型(Bert-base-chinese)
使用importtorchfrom
transformer
simportBertTokenizer,BertModel#第一步:离线下载#fromtran
好好学习Py
·
2024-08-30 22:14
自然语言处理
bert
人工智能
深度学习
pytorch
python
自然语言处理
论文阅读
瞎记(四) Cascade R-CNN: Delving into High Quality Object Detection 2017
概述在物体检测中1,IOU阈值被用于判定正负样本。在低IOU阈值比如0.5的状态下训练模型经常产生噪音预测,然而检测效果会随着IOU增加而降低。两个主要因素:1.训练时的过拟合,正样本指数消失2.检测器最优IOU与输入假设的不匹配。一个单阶段的物体检测器CascadeR-CNN被提出用于解决这些问题。网络由一个检测序列组成,这些序列训练时会伴随IOU增长从而对FP样本更加有选择性地判别。检测器一个
码大哥
·
2024-08-30 15:58
深度学习
人工智能
Prompt Engineering Concepts
Introduction,ConceptsTextgenerationmodelsgenerationpre-trained
transformer
s,GPTforshort.所以呢,前置知识是
Transformer
Assistants
初梦语雪
·
2024-08-30 06:59
#
NLP
prompt
大模型训练优化方法
本文主要参考HF上的一篇文章:https://huggingface.co/docs/
transformer
s/perf_train_gpu_one,以及笔者在实际训练中的一些经验,给出一些比较实用的方法
少喝冰美式
·
2024-08-30 05:28
人工智能
大语言模型
ai大模型
大模型应用
LLM
大模型训练
计算机技术
大模型训练和推理
文章目录一、NLP基础1.Tokenizer2.positionencoding3.注意力机制与
transformer
架构二、大模型训练1.SFT训练2.RLHF训练3.分布式并行训练技术(1)模型并行
李明朔
·
2024-08-30 01:27
AIGC
深度学习
人工智能
HuggingFace - linux环境 修改下载默认缓存路径
_使用huggingface下载bert保存在哪里怎么看-CSDN博客Howtochangehuggingface
transformer
sdefaultcachedirectory-StackOverflowlinux
如果曾经拥有
·
2024-08-30 01:53
LLM
linux
缓存
人工智能
上一页
10
11
12
13
14
15
16
17
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他