E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
3090
远程GPU服务器Autodl搭建Pytorch环境
创建新的虚拟环境2、进入新环境3、安装你想要的包(我的是pytorch)4.安装另外的包一、AutoDL创建实例镜像PyTorch1.10.0Python3.8(ubuntu20.04)Cuda11.3GPURTX
3090
m0_51626061
·
2023-12-16 14:11
深度学习
pytorch
服务器
深度学习
机器学习
Win10 + RTX
3090
安装CUDA + CUDNN
anaconda3中tensorflow和pytorch已经安装过,主要目的是方便自己以后重新安装CUDA主机配置系统:Win1064bitCPU:I9-10850K内存:64G显卡:GeForceRTX
3090
赵孝正
·
2023-12-15 16:13
#
深度学习环境搭建
tensorflow
使用autodl服务器,两个
3090
显卡上运行, Yi-34B-Chat-int4模型,并使用vllm优化加速,显存占用42G,速度23 words/s
1,演示视频地址https://www.bilibili.com/video/BV1Hu4y1L7BH/使用autodl服务器,两个
3090
显卡上运行,Yi-34B-Chat-int4模型,用vllm优化
fly-iot
·
2023-12-05 08:10
chatgpt
大模型
Python
服务器
运维
3090
微调多模态模型Qwen-VL踩坑
本人使用记录一下训练过程中的心得和bug1.数据集准备数据集的标签形式见官方readme,如下:[{"id":"identity_0","conversations":[{"from":"user","value":"你好"},{"from":"assistant","value":"我是Qwen-VL,一个支持视觉输入的大模型。"}]},{"id":"identity_1","conversat
微凉的衣柜
·
2023-12-04 00:34
深度学习
深度学习
语言模型
pytorch
linux中如何修改文件夹的用户权限 chown命令
命令和chown命令的区别chmod修改文件(文件夹)的读写权限chown修改文件(文件夹)的用户和属组参考链接:https://huaweicloud.csdn.net/635641c6d3efff
3090
b5c74c.html
石矶娘娘
·
2023-12-03 04:06
linux
新一代消费级显卡 GeForce RTX 30 系列出炉
刚刚,同样是在自家厨房,英伟达创始人黄仁勋向世人发布了最新一代消费级显卡GeForceRTX30系列的最初三个型号GeForceRTX3070、RTX3080、RTX
3090
。
磕就完事儿
·
2023-11-29 10:42
centos 显卡驱动安装(chatglm2大模型安装步骤一)
1.服务器配置服务器系统:Centos7.9x64显卡:RTX
3090
(24G)2.安装环境2.1检查显卡驱动是否安装输入命令:nvidia-smi(显示显卡信息)如果有以下显示说明,已经有显卡驱动。
平原2018
·
2023-11-28 09:14
算法
人工智能
自然语言处理
ChatGLM2详细安装部署(chatglm2大模型安装步骤三)
ChatGLM2安装部署1.服务器配置服务器系统:Centos7.9x64显卡:RTX
3090
(24G)虚拟环境:Miniconda32.安装部署2.1ChatGLM2下载输入命令:gitclonehttps
平原2018
·
2023-11-28 09:44
算法
人工智能
自然语言处理
Miniconda虚拟环境安装(chatglm2大模型安装步骤二)
1.服务器配置服务器系统:Centos7.9x64显卡:RTX
3090
(24G)2.安装环境2.1检查conda是否安装输入命令:conda-V如果显示conda4.7.12,说明已经有不需要安装2.2
平原2018
·
2023-11-28 09:35
算法
人工智能
自然语言处理
chatgpt
【A股主力资金监控】3月10日收盘,主力资金净流出124.97亿元
3357.74点,跌幅0.05%;深指:报13563.34点,涨幅0.65%;创业板指:报2676.70点,涨幅1.64%;主力资金净流出124.97亿元,环比昨日增加72.22%,个股涨跌比:1026:
3090
精英策略
·
2023-11-26 08:39
红源随笔
2020年9月26日红源悟语
3090
自我觉醒:想都是问题;做才是答案!今日成长任何事情都应该去尝试一下,因为你无法知道,什么样的事或者什么样的人将会改变你的一生。
红源随笔
·
2023-11-25 08:30
Python报错:cuDNN error: CUDNN_STATUS_NOT_INITIALIZED 和 CUDA_LAUNCH_BLOCKING=1.
最近在
3090
服务器上搭建了一个环境用于跑Padim的程序,发现自己制作的数据集跑不了,期间遇到了很多bug。
good good study,day day get up
·
2023-11-24 09:46
深度学习
python
python
linux
深度学习
手把手带你在AutoDL上部署ChatGLM3 Web Demo
环境准备在autodl平台中租一个
3090
等24G显存的显卡机器,如下图所示镜像选择PyTorch–>2.0.0–>3.8(ubuntu
不要葱姜蒜_kmon4
·
2023-11-21 21:41
python
chatgpt
语言模型
手把手带你在AutoDL上部署InternLM-Chat-7B Transformers
InternLM-Chat-7BTransformers部署调用环境准备在autoal平台中租一个
3090
等24G显存的显卡机器,如下图所示
Unicornlyy
·
2023-11-21 21:08
大模型
语言模型
python
揭秘:仅用一块
3090
,轻松高效部署InternLM-20B大模型!
9月20日,上海人工智能实验室推出了书生·浦语大模型(InternLM)200亿参数版本InternLM-20B。它具备优异的综合性能,以不足三分之一的参数量,测评成绩达到了Llama2-70B的水平。200亿参数,大约占40G显存。意味着,要能推理起来InternLM-20B,不得不租用价格高昂的A100服务器。有没有经济一些的方法呢?答案是有的。那就是低比特量化和推理。LMDeploy支持对L
风度78
·
2023-11-21 10:56
大数据架构
大数据架构https://huaweicloud.csdn.net/633578fed3efff
3090
b58398.htmlhttps://blog.csdn.net/yuanziok/article
学习3人组
·
2023-11-20 07:17
python
LLM大模型4位量化实战【GPTQ】
权重量化方面的最新进展使我们能够在消费类硬件上运行大量大型语言模型,例如RTX
3090
GPU上的LLaMA-30B模型。这要归功于性能下降最小的新型4位量化技术,例如GPTQ、GGML和NF4。
新缸中之脑
·
2023-11-20 02:52
mvc
GeForce RTX
3090
with CUDA capability sm_86 is not compatible with the current PyTorch installation
anaconda3/envs/particlesfm/lib/python3.7/site-packages/torch/cuda/init.py:104:UserWarning:GeForceRTX
3090
withCUDAcapabilitysm
crasyter
·
2023-11-16 18:14
ubuntu系统
pytorch
深度学习
解决RTX
3090
with CUDA capability sm_86 is not compatible with the current PyTorch installation.
翻译过来,大意是目前所使用的RTX
3090
的显卡的算力是8.6,而当前Pytorch所依赖的CUDA版本支持的算力只有3.7、5.0、6.0、6.1、7.0、7.5。
信小海
·
2023-11-16 17:55
深度学习
pytorch
深度学习
人工智能
centos 7 显卡更新以及cuda升级
成功安装显卡驱动(超详细)_centos7安装显卡驱动详细教程_嗨,紫玉灵神熊的博客-CSDN博客2、cuda更新升级https://huaweicloud.csdn.net/6356437ed3efff
3090
b5cbf3
逍遥豚
·
2023-11-16 05:48
linux
运维
服务器
Ubuntu18.04 + RTX
3090
安装tensorflow-GPU1.15.4
因为RTX
3090
只支持cuda11.0+的版本,无法配置tensorflow1.×环境。好在NVIDIA一直在维护一个1.15版本的nvidia-tensorflow可以使用在30系显卡上。
人生如梦NO.1
·
2023-11-15 05:13
tensorflow
ubuntu
nvidia
这个云平台直接送
3090
、A100免费无门槛代金券!
点击下方卡片,关注“CVer”公众号AI/CV重磅干货,第一时间送达一、废话不多说:本次读者福利由AutoDL.com赞助,活动规则:前100名向
[email protected]
发送邮件的读者,AutoDL会直接用邮件回复100元代金券激活码,访问AutoDL官网(www.autodl.com或www.gpuhub.com)注册后可无门槛使用代金券。邮件标题可自拟,为防挖矿黑产,邮件内容必
Amusi(CVer)
·
2023-11-14 04:33
cpu
flink
webgl
neo4j
百度
mv150us无线网卡驱动linux,水星MW150US的正确驱动方式 适用于笔记本无线网卡驱动无解的情况...
我的大部分驱动都完美了,但是无线网卡是坑爹的RalinkRT
3090
,这个无线网卡目前无解(10.6及以上,国外论坛据说有人成功,方法我也试过,但依然没有反应,要不就是国外的那些人忽悠,要不就是我太过愚顿了
weixin_39531229
·
2023-11-11 17:39
GTX
3090
首先介绍环境:保证Cuda与Pytorch的版本对齐就可以了。nvcc-V查看原来装的是cuda11.3版本去Pytorch官网找到相应指令下载即可:Ctrl+F:cuda11.3就在诸多版本中找到啦,一定找torch的版本+cuda版本。我之前错误安装的torch,只会显示torch的版本,没有后面的+。#CUDA11.3pipinstalltorch==1.12.1+cu113torchvis
思考实践
·
2023-11-09 05:38
#
深度学习Pytorch框架
false
torch.cuda
GPU
Nvidia
debug
驱动
llava1.5模型安装、预测、训练详细教程
源码链接:点击这里demo链接:点击这里论文链接:点击这里一、系统环境ubuntu20.04gpu:2*
3090
cuda:11.6二、LLava环境安装1、代码下载gitclonehttps://github.com
tangjunjun-owen
·
2023-11-06 22:11
语言模型-多模态大模型
自然语言处理
语言模型
transformer
视觉检测
多模态大模型
llava
微软开源贾维斯(J.A.R.V.I.S.)人工智能AI助理系统
贾维斯(Jarvis)的环境配置一般情况下,深度学习领域相对主流的入门级别显卡是2070或者3070,而
3090
可以算是消费级深度学习显卡的天花板了:再往上走就是工业级别的A系列和V系列显卡,显存是一个硬指标
2301_77342543
·
2023-11-05 08:58
microsoft
开源
r语言
Ubuntu20.04安装CUDA、cuDNN、tensorflow2可行流程(症状:tensorflow2在RTX
3090
上运行卡住)
最近发现我之前在2080ti上运行好好的代码,结果在
3090
上运行会卡住很久,而且模型预测结果完全乱掉,于是被迫研究了一天怎么在Ubuntu20.04安装CUDA、cuDNN、tensorflow2。
专心致志写BUG
·
2023-11-03 07:02
tensorflow
人工智能
深度学习
第八周实验记录
10月20日-10月22日工作:复现S-NeRF代码,按照github的步骤进行,首先使用一个RTX
3090
显卡,在下图步骤中:运行最后一步pythonscripts/run.py出现问题继续使用两张RTX
3090
川河w
·
2023-10-29 19:58
计算机视觉
第6章 灭门惨案
公元
3090
年,春月,21日,天气多云。姐姐的内功突破10战大关时,年纪未到二十,可谓是修炼天才。圣化后,她的公民资料上添上浓重的一笔——19岁圣化!
泽o敏
·
2023-10-28 19:19
2021-05-06
各位朋友沥青2106:沥青我准备在
3090
-3100区间空目标止损目标30-50焦炭我准备在2770-2760区间多止损30目标30-40焦煤我准备在1910-1920区间做空止损30目标30-50棕榈油我准备在
海纳生财99
·
2023-10-24 16:16
【环境】Linux下Anaconda/ Miniconda安装+百度Paddle环境搭建+Cudnn(
3090
显卡+CUDA11.8+cudnn8.6.0)
清华源帮助链接:https://mirror.tuna.tsinghua.edu.cn/help/anaconda/下载链接:https://mirrors.tuna.tsinghua.edu.cn/anaconda/miniconda/其他深度学习环境相关博文:【stable-diffusion】4090显卡下dreambooth、lora、sd模型微调的GUI环境安装(cuda驱动、pytor
曾小蛙
·
2023-10-24 15:17
深度学习
#
Paddle
linux
paddlepaddle
cudnn
miniconda
清华源
制定适合自己的健康生活方式
之前睡觉,最佳时间10:30,确保11:00的排毒时间,不熬夜,晚上临睡前不刷视频不刷剧,减少看手机,多看纸质版的书籍二、早起秋冬季工作日时间6:30起床周末7:00春夏季工作日时间6:00起床周末6:
3090
孙煦雅
·
2023-10-23 02:58
3090
杜甫《登楼》#
3090
#
仇志飞
·
2023-10-20 07:20
Detectron2 安装踩坑
在服务器上安装Detectron2:设备:NVIDIAGeForceRTX
3090
显卡驱动和cuda:安装detectron2时,报错为:Installingcollectedpackages:detectron2Runningsetup.pydevelopfordetectron2error
Immortal stars
·
2023-10-19 06:58
pytorch
人工智能
30系显卡浅析(后)
【嵌牛鼻子】RTX3070RTX3080RTX
3090
【嵌牛正文】安培GPU架构详解之:第三代TensorCore、8K游戏成为可能TensorCore是伏特GPU引入的一种新核心,现在也是SM单元的三
生来渴酒v_v
·
2023-10-19 04:54
xgboost配置GPU
说明:博主的显卡为
3090
,驱动为470.94,CUDA版本为11.4,cmake3.3.2,gcc7.3.1以上版本配置xgboost(2.0.0)GPU可以直接调用直接安装即可pipinstallxgboost
平原2018
·
2023-10-19 00:28
算法
xgboost
gpu
AI开发框架主流之争与百度人工智能开发策略的思考
nvidia的RTX-30系列GPU是去年十月初发布的,特别是其中的
3090
,有24G的显存,可以用来跑通目前几乎所有的深度学习模型。这个是深度学习爱好者,个人能够承担范围内的设备。
老牛实验室
·
2023-10-17 18:25
人工智能
人工智能
RTX
3090
(4090) 与pytorch版本对应关系
在RTX
3090
上判断,当前版本的的torch版本是否可以用,一般需要通过如下方式:condaactivatetorch1.8.1(激活相关的虚拟环境)python进入python环境,importtorch
mingqian_chu
·
2023-10-17 05:32
#
环境相关
RTX3090
pytorch
深度学习之使用CSDN的InsCode的服务器
CSDN开启了一个InsCode的栏目,在里面可以部署自己的项目,同时可以租赁GPU服务器:由于博主在CSDN有些积蓄,因此便来测评一下,博主购买了
3090
这个型号接下来便是登录使用了,博主使用的是Mobaxterm
彭祥.
·
2023-10-16 14:27
经验积累
inscode
服务器
运维
2019-3-22晨间日记 - 草稿
今天是周四图片发自App图片发自App图片发自App起床:5:12就寝:23:30天气:晴0~14心情:平静纪念日:更早打卡D54公婆出院D5妈妈出院D10姥姥住院D34易效能践行D391096天倒计时D
3090
lf720413
·
2023-10-16 10:34
【在家也能连组内GPU】Vscode等各类客户端使用公网云跳板Linux内网穿透实验室Win10主机实现SSH远程开发
目录前言梳理正文前言【本文也适用Linux穿Linux】我配置是这样,有台阿里云,Linux系统,然后实验室有台
3090
的服务器,装的是win10系统,但接的是教育网宽带,相当于被NAT了,没有自己的公网
青春依旧_
·
2023-10-15 20:20
计算机网络
内网穿透
远程访问内网
ssh
跳板
linux远程访问win10
[科研琐事] 安装服务器到机柜的二三事
1U=4.45cm2U=4.45cm*23U=4.45cm*34U=4.45cm*4我们的2080/
3090
/4090服务器都是4U的2.装机准备检查下面几个内容是否备齐:电源线:电源线一头是连接服务器的
吃熊的鱼
·
2023-10-15 04:15
琐事
服务器
运维
tensorflow1迁移到tensorflow2
早期的tf1代码在
3090
上跑不了了,因此复现基于tensorflow1的代码只能1.创建一个还在维护的tf1.x环境2.将tf1.x代码迁移到tf2上。
kushr
·
2023-10-14 02:34
debug
tensorflow
深度学习
python
tensorflow1.x版本代码迁移到2.0
由于
3090
显卡只支持tf2.0以后的版本,而且随着显卡的更新换代,tf1.x版本也不支持更高级的显卡,所以有必要将1.x版本的代码转成2.0后的版本。
donruo
·
2023-10-14 02:31
tensorflow
手把手教学-本地部署minigpt-4
虽然最新版本的minigpt-4需要的显存已经大大减少,但依旧至少需要12GB的显存,我所使用的是
3090
ti,可以部署,以下就介绍如何在Linux系统下本地部署minigpt-4minigpt-4本地部署的官方教程请见
奶龙fans
·
2023-10-13 21:09
gpt
ChatGLM-6B微调p tuning v2和lora对比
THUDM/ChatGLM-6B参考本人之前的博客下载ChatGLM-6B模型:https://blog.csdn.net/Acecai01/article/details/131221676设备一张
3090
Ti
Acecai01
·
2023-10-09 04:28
算法平台
ChatGLM-6B
P
tuning
v2
Lora
微调
centos7安装显卡驱动、cuda以及cudnn
NvidiaGPU,查看支持CUDA的GPU列表:https://developer.nvidia.com/cuda-gpus```shlspci|grep-invidia```服务器使用的是2204,2204指的是
3090
yingchenwy
·
2023-10-05 08:07
linux
linux
运维
服务器
AutoDL快速上手使用
这里我选择的是RTX
3090
,不同的GPU需要的配
滑稽的猴子
·
2023-10-04 02:49
百度云
云计算
使用ExLlamaV2在消费级GPU上运行Llama2 70B
能否在高端消费级GPU,如NVIDIARTX
3090
或4090,上运行呢,如果我们将Llama270b量化到4位精度,仍
deephub
·
2023-10-02 17:57
深度学习
人工智能
大语言模型
llama
聊聊2020年3D渲染装机和新显卡评测
根据统一的评测文件,社区用户进行了30系的渲染速度评测,除掉之前的老显卡,目前新显卡30系列已经包含3070,3080,
3090
,以下是评测的图片说明。
张大妈keyshot
·
2023-10-01 21:11
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他