E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Transformers:
【工程记录】ChatGLM3-6B 部署的详细教程(Windows)
1.环境配置Github地址:ChatGLM3作者注释:
transformers
库版本推荐为4.30.2,torch推荐使用2.0及以上的版本,以获得最佳的推理性能。为了防止依赖之间的版本冲突,
LZXCyrus
·
2024-02-02 20:30
工程记录
windows
人工智能
语言模型
自然语言处理
AIGC
nlp
深度学习
Transformer 自然语言处理(三)
原文:NaturalLanguageProcessingwithTransformers译者:飞龙协议:CCBY-NC-SA4.0第八章:使
transformers
在生产中更高效在之前的章节中,您已经看到了
绝不原创的飞龙
·
2024-02-01 12:59
人工智能
gpt
人工智能
【Transformer 】 Hugging Face手册 (01/10)
Transformers
提供API和工具,可轻松下载和训练最先进的预训练模型。使用预训练模型可以降低计算成本和碳足迹,并节省从头开始训练模型所需的时间和资源。这些模型
无水先生
·
2024-01-31 19:42
NLP高级和ChatGPT
人工智能
transformer
深度学习
人工智能
【问题解决】| 对于代码访问
transformers
库报错,无法正常下载模型及其参数的问题
对于访问Transformer库的问题考虑用科学上网,直接进行下载把模型提前下好后放到本地但是如果能用第一种方式会好很多,但是实际中可能会遇到如下问题报这个错,原因是未开启科学上网OSError:Wecouldn'tconnectto'https://huggingface.co'toloadthisfile,couldn'tfinditinthecachedfilesanditlookslike
Qodicat
·
2024-01-31 13:44
Solve
Problems
问题解决
python
transform
使用 Pegasus-t5 预训练模型遇到问题解决
问题&解决需要手动把tokenizer相关文件进行调整到当前文件夹下,并修改data_utils中fengshen的地址
transformers
版本降低为4.29.1否则会找不到vocabdemo代码fromtransformersimportPegasusF
be_humble
·
2024-01-31 07:28
人工智能
语言模型
自然语言处理
huggingface 的trainer训练框架优势
Transformers
库写了了一个trans
be_humble
·
2024-01-31 07:57
人工智能
深度学习
python
anaconda虚拟环境添加第三方的库tensorbordX,torchvision,tqdm,opencv-python,pillow,tensorflow,keras
系列文章目录一、conda新建配置python3.8的虚拟环境,安装torch-cuda1.8,torchtext0.9.0,huggingface的
transformers
库anaconda虚拟环境添加第三方的库系列文章目录前言一
LinlyZhai
·
2024-01-29 18:00
python
opencv
pillow
使用Bert报错:Bert输出为字符串
1、解决办法参考:通过CCproxy配置内网linux服务器_ccproxy-CSDN博客按照解决办法1,重新下载
transformers
,仍然报错2、解决办法在网上查找资料后发现,这和tranformers
wwqily
·
2024-01-29 16:13
bert
人工智能
深度学习
transformers
实现各种NLP任务的流程框架
整理了b站up主的教程,加强对于
transformers
的使用理解,以及针对各种Nlp任务的训练和评估、推理的流程框架个人代码:https://github.com/yuyu990116/
transformers
_tutorials
鱼鱼9901
·
2024-01-28 20:28
nlp
nlp
Vision Mamba:将Mamba应用于计算机视觉任务的新模型
来源:DeepHubIMBA本文约1300字,建议阅读5分钟Mamba是LLM的一种新架构,与
Transformers
等传统模型相比,它能够更有效地处理长序列。
数据派THU
·
2024-01-28 08:21
计算机视觉
人工智能
transformers
部署
由于已经有conda和pycharm,而且感觉python3.6比较老,因此打算安装python3.10,后来发现好像不支持tokenizers,又重新安装python3.9.1、condacreate-nenv_namepython=3.9安装过程出现如下:appearstobecorrupted.Thepath'venvlauncher.exe'处理方式,清理缓存即可condaclean--p
javastart
·
2024-01-28 05:20
自然语言
transformer
pycharm
python
手写GPT实现小说生成(二)
做一个小说续写器,即只需要给出一些文本,让模型帮你续写,主要内容包含:模型编写训练适配小说的中文分词器将小说按固定大小拆分生成数据集拆分训练/测试集训练体验小说续写效果同时结合HuggingFace的
transformers
愤怒的可乐
·
2024-01-28 01:25
NLP项目实战
#
自然语言处理
gpt
深度学习
人工智能
粒子群算法pos优化transformer 时间序列预测
在这里,我提供了一个简单的示例,使用HuggingFace的
transformers
库中的BertModel作为目标模型,并使用PSO对其进行参数优化。
mqdlff_python
·
2024-01-27 16:40
深度学习神经网络实战100例
transformer
深度学习
人工智能
粒子群算法pos
Transformers
Tutorial教程3-7
outline介绍什么是
Transformers
,为什么要用它介绍一些比较常用的接口最后会给出一个demo,帮助你们快速地入门whatisTransformers?
ringthebell
·
2024-01-27 09:44
大模型
人工智能
深度学习
高通AI应用快速上手:基于
Transformers
的智能问答
文章介绍智能问答是自然语言处理(NLP)中很重要的一个领域,此应用的功能是在段落或文章中找到所需的答案。本文主要介绍一个基于高通SnapdragonNeuralProcessingEngineSDK和ICLR2020ElectraTransformer模型的智能问答Android应用程序,该应用的所有源代码都可以在https://github.com/quic/qidk/tree/master/S
csdnsqst0050
·
2024-01-27 03:10
QIDK
AI
NLP
Qualcomm
AI
QIDK
NLP
Question
Answering
VIT探索笔记 (AN IMAGE IS WORTH 16X16 WORDS:
TRANSFORMERS
FOR IMAGE RECOGNITION AT SCALE)
VIT探索笔记CodePaper[vit-pytorch](https://github.com/lucidrains/vit-pytorch/tree/main)参看学习bilibili视频11.1VisionTransformer(vit)网络详解ViT论文逐段精读【论文精读】切入点如何把一张图变成一句话?对输入图做切割,分块,每一块就是一个token(单词);假设一张224x224x3的图,
FMsunyh
·
2024-01-26 19:34
机器学习
笔记
torch.matmul和torch.bmm区别
torch.matmul可用于4维数组的相乘,而torch.bmm只能用户3维数组的相乘,以/home/tiger/.local/lib/python3.9/site-packages/
transformers
taoqick
·
2024-01-26 11:44
深度学习
python
pytorch
Transformers
库中owlvit2模型的注意事项
Huggingface中的
transformers
库中的owlvit2模型具体由三种应用检测targetimage可能存在的目标(与owlvit的主要区别)利用querytext在targetimage
lanlinbuaa
·
2024-01-26 07:02
目标跟踪
人工智能
计算机视觉
PyTorch-
Transformers
初识
1640539349483912777&wfr=spider&for=pcTransformers理解:https://www.analyticsvidhya.com/blog/2019/06/understanding-
transformers
-nlp-state-of-the-art-models
谷德白麻酱
·
2024-01-26 07:51
Python
自然语言处理
【论文笔记】VideoGPT: Video Generation using VQ-VAE and
Transformers
论文标题:VideoGPT:VideoGenerationusingVQ-VAEandTransformers论文代码:https://wilson1yan.github.io/videogpt/index.html.论文链接:https://arxiv.org/abs/2104.10157发表时间:2021年9月Abstract作者提出了VideoGPT:一种概念上简单的架构,用于将基于似然的生
来自γ星的赛亚人
·
2024-01-26 06:48
论文阅读
VideoGPT:使用VQ-VAE和
Transformers
的视频生成
1TitleVideoGPT:VideoGenerationusingVQ-VAEandTransformers(WilsonYan,YunzhiZhang,PieterAbbeel,AravindSrinivas)2ConlusionThispaperpresentVideoGPT:aconceptuallysimplearchitectureforscalinglikelihoodbasedg
umbrellazg
·
2024-01-26 06:16
算法
计算机视觉
本地以图搜图软件xiSearch-flet
本地以图搜图软件xiSearch-flet简介使用sentence_
transformers
+flet实现项目地址:https://github.com/xjhqre/xiSearch-flet使用说明
xjhqre
·
2024-01-26 04:15
python
python
flet
AttributeError: ‘NoneType‘ object has no attribute ‘flush‘
问题描述当你的项目中使用了
transformers
库,并且使用pyinstaller打包无控制台窗口的程序时就会报这个错。
xjhqre
·
2024-01-26 04:45
python
python
pyinstaller
pyinstaller打包
Transformers
报错No such file or directory
问题描述Traceback(mostrecentcalllast):File"
transformers
\utils\import_utils.py",line1086,inget_moduleFile"importlib_init.py
xjhqre
·
2024-01-26 04:45
python
python
pyinstaller
transformers
书生·浦语大模型训练营
书生·浦语大模型训练营2InternLM-Chat-7B智能对话Demo本章就是通过
transformers
载入本地模型进行推理。原始的demo会导致空输入也会进行交互,浪费计算资源。
__y__
·
2024-01-25 08:57
语言模型
人工智能
自然语言处理
transformer
使用
Transformers
做基于BERT的情感六分类
版本:python==3.8.6torch==1.10.0
transformers
==4.36.2datasets==2.15.0fromtransformersimportBertTokenizerfromtorch.utils.dataimportDataLoader
Shy960418
·
2024-01-25 07:56
bert
分类
深度学习
使用
Transformers
微调基于BERT模型做中文命名实体识别任务
python==3.8.6torch==1.10.0
transformers
==4.36.2datasets==2.15.0importjson#数据集下载地址:https://www.cluebenchmarks.com
Shy960418
·
2024-01-25 07:56
bert
人工智能
深度学习
安装sentence-
transformers
点击此处可访问SBERT官方代码(GitHub)在安装sentence-
transformers
之前需要确保以下条件:WerecommendPython3.6orhigher,PyTorch1.6.0orhigherandtransformersv4.6.0orhigher.ThecodedoesnotworkwithPython2.7
竹霖聴雨
·
2024-01-25 06:53
chatglm部署问题
问题:ModuleNotFoundError:Nomodulenamed‘
transformers
_modules.’解决方法:卸载重装pipuninstalltransformerspipinstalltransformers-ihttps
Y3pro
·
2024-01-23 20:31
ai
Transformers
在数据量不足时,训练不能很好地泛化
"
Transformers
缺乏CNN固有的一些归纳偏置(inductivebiases)——如平移等效性和局部性(translationequivarianceandlocality),因此在数据量不足时
pythonSuperman
·
2024-01-23 10:31
Transformer
Transformer
机器学习算法实战案例:使用 Transformer 进行时间序列预测
LLMs成功的关键在于它们的核心构建模块,即
transformers
。在本文中,我们将提供一个在PyTorch中使用它们的完整指南,特别关注时间序列预测。
Python算法实战
·
2024-01-23 09:56
机器学习算法实战
机器学习
算法
transformer
时间序列预测
基于 GPT 和 Qdrant DB 向量数据库, 我构建了一个电影推荐系统
电影推荐系统自从机器学习时代开始以来就不断发展,逐步演进到当前的
transformers
和向量数据库的时代。在本文中,我们将探讨如何在向量数据库中高效存储数千个视频文件,以构建最佳的推荐引擎。
Python算法实战
·
2024-01-22 10:00
大模型理论与实战
gpt
向量数据库
深度学习
推荐算法
LLM
大模型
pipeline内部发生了什么?(PyTorch)
前言参考说明过程说明前言最近一直疑惑HuggingFace的
Transformers
库中的pipeline函数的具体是干了什么,多方询问以及翻看了HuggingFace的官方说明,终于是弄清楚了其原理,
yuQnY
·
2024-01-22 10:16
nlp
深度学习
pytorch
深度学习
nlp
Hugging Face公司和模型测评榜单简单介绍
HuggingFace提供了一个名为
Transformers
的开源库,这个库为开发者和研究人员提供了一系列预训练模型,以及用于训练和微调这些模型的工具。
人生万事须自为,跬步江山即寥廓。
·
2024-01-22 00:22
机器学习人工智能
深度学习
机器学习
人工智能
GroupMixFormer:Advancing Vision
Transformers
with Group-Mix Attention论文学习笔记
论文地址:https://arxiv.org/pdf/2311.15157.pdf代码地址:https://github.com/AILab-CVC/GroupMixFormer摘要:ViT已被证明可以通过使用多头自注意力(MHSA)对远程依赖关系进行建模来增强视觉识别,这通常被表述为Query-Key-Value计算。但是,从“Query”和“Key”生成的注意力图仅捕获单个粒度的token-t
athrunsunny
·
2024-01-21 19:40
Transformer
学习
笔记
深度学习
计算机视觉
transformer
论文阅读【SWINBERT: End-to-End
Transformers
with Sparse Attention for Video Captioning】
SWINBERT:End-to-EndTransformerswithSparseAttentionforVideoCaptioning发表:CVPR2022idea:之前的方法都是使用其他任务上训练的特征提取器对video进行特征提取,所提取的特征可能与视频描述任务并不是绝对的匹配,即特征提取不参与训练。这篇文章的作者提出使用transformer对原生视频进行特征提取,然后再进行解码,实现端到
hei_hei_hei_
·
2024-01-21 12:38
论文阅读
transformer
深度学习
人工智能
AgentFormer: Agent-Aware
Transformers
for Socio-Temporal Multi-Agent Forecasting
摘要预测多个智能体的准确未来轨迹对于自治系统至关重要,但由于智能体之间复杂的相互作用以及每个智能体未来行为的不确定性,这是一个挑战。预测多智能体轨迹需要对两个关键维度进行建模:(1)时间维度,我们对过去的智能体状态对未来状态的影响进行建模;(2)社会维度,我们对每个主体的状态如何影响他人进行建模。大多数现有方法分别对这两个维度建模,例如,首先使用时间模型独立地总结每个代理随时间变化的特征,然后用社
学号高并发
·
2024-01-20 19:46
论文翻译
transformer
r语言
自动驾驶
[Transformer]Lesion-Aware
Transformers
for Diabetic Retinopathy Grading
Lesion-AwareTransformersforDiabeticRetinopathyGradingAbstractSectionIIntroductionSectionIIRelatedWorkSectionIIILesion-AwareTransformerNetworkPart1OverviewPart2PixelRelationbasedEncoderPart3LesionFilte
黄小米吖
·
2024-01-20 19:15
CV
transformer
深度学习
计算机视觉
Hardware-Aware
Transformers
(HAT)——Transformer模型的NAS策略
Paper地址:https://arxiv.org/abs/2005.14187Github:GitHub-mit-han-lab/hardware-aware-
transformers
:[ACL2020
Law-Yao
·
2024-01-20 19:15
NAS
模型压缩
自然语言处理
人工智能
自然语言处理
Transformer
网络结构搜索
HAT: Hardware-Aware
Transformers
for Efficient Natural Language Processing论文解读
Hardware-AwareTransformersforEfficientNaturalLanguageProcessingcode:https://github.com/mit-han-lab/hardware-aware-
transformers
1
leo0308
·
2024-01-20 19:44
论文解读
Transformer系列
神经网络架构搜索(NAS)
transformer
深度学习
计算机视觉
Hardware-Aware-
Transformers
开源项目笔记
文章目录Hardware-Aware-
Transformers
开源项目笔记开源项目背景知识nas进化算法进化算法代码示例开源项目EvolutionarySearch1生成延迟的数据集2训练延迟预测器3使延时约束运行搜索算法
清风2022
·
2024-01-20 19:14
NAS
transformer
NLP
手写GPT实现小说生成(一)
做一个小说续写器,即只需要给出一些文本,让模型帮你续写,主要内容包含:模型编写训练适配小说的中文分词器将小说按固定大小拆分生成数据集拆分训练/测试集训练体验小说续写效果同时结合HuggingFace的
transformers
愤怒的可乐
·
2024-01-20 10:55
NLP项目实战
#
自然语言处理
gpt
小说续写
NLP | 自然语言处理经典seq2seq网络BERT详解及代码
Pre-trainingofDeepBidirectionalTransformersforLanguageUnderstandingBERT:用于语言理解的深度双向变换器的预训练论文地址:https://arxiv.org/abs/1810.048051.BERT概述BERT是
Transformers
夏天|여름이다
·
2024-01-19 17:54
-
NLP
-
#
-
Transformer
-
论文篇
-
深度学习
人工智能
自然语言处理
transformer
迁移学习
机器学习与ML.NET–NLP与BERT
目录1.先决条件2.理解
Transformers
架构3.BERT直觉4.ONNX模型5.使用ML.NET实现5.1数据模型5.2训练该训练类是相当简单,它只有一个方法BuildAndTrain它使用的路径
寒冰屋
·
2024-01-19 17:21
ASP.NET
CORE
人工智能
人工智能
深度学习
自然语言处理
ML.NET
用通俗易懂的方式讲解:LLM 大模型的 generate 和 chat 函数有什么区别?
在HuggingFace的
transformers
库中,GPT(GenerativePre-trainedTransformer)类的模型有两个常用的生成文本的方法:generate和chat。
Python算法实战
·
2024-01-19 16:43
大模型理论与实战
算法
大模型
LLM
人工智能
Hugging Face怎么通过国内镜像去进行模型下载(hf-mirror.com)
该公司最著名的产品是
Transformers
库,这是一个广泛使用的Python库,它提供了大量预训练模型,如BERT、GPT-2、T5和其他模型,这些模型可以用于各种NLP任务,如文本分类、情感分析、文本生成等
星宇星静
·
2024-01-19 04:18
笔记
hugging
face
【论文笔记】Do
Transformers
Really Perform Bad for Graph Representation(简要笔记供复习使用)
DoTransformersReallyPerformBadforGraphRepresentation论文地址:DoTransformersReallyPerformBadforGraphRepresentation一句话paper:利用度,最短路径增强的GraphTransformerMotivation原有将transformer应用于图的效果并不好节点重要性,图结构性信息往往在目前的工作中
好想变有钱535
·
2024-01-18 07:28
论文阅读
笔记
python协同过滤算法实现电影推荐
下面是一个简单的Python代码实现电影推荐的协同过滤算法:importnumpyasnp#电影评分数据ratings={'Alice':{'
Transformers
':3,'StarWars':4,'
酷爱码
·
2024-01-17 11:21
Python
算法
python
目标检测DETR:End-to-End Object Detection with
Transformers
NMS对一个目标生成了多个检测窗口,但是事实上这些窗口中大部分内容都是重复的,找到目标检测最优的窗口选取多个检测窗口中分数最高的窗口,剔除掉其他同类型的窗口anchorgenerator首先在该点生成scale=512,aspectratio={1:2,1:1,2:1}的三个anchor,size分别为{362x724,512x512,724x362}。中心点坐标{8,8},原图和P6之间的高宽s
发呆哥o_o ....
·
2024-01-17 06:18
论文速读
目标检测
人工智能
计算机视觉
DETR
Transformer
ImportError**: cannot import name ‘COMMON_SAFE_ASCII_CHARACTERS‘ from ‘charset_normalizer.constant‘
cannotimportname‘COMMON_SAFE_ASCII_CHARACTERS’from‘charset_normalizer.constant’解决办法condainfo--env查看环境查看后发现缺少
transformers
苹果就叫不呐呐
·
2024-01-17 06:41
python
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他