E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
服务器安装CUDA
Idea + DockerCompose发布项目到docker容器
window环境中使用DockerCompose发布SpringBoot项目到centOs中的docker容器1docker的好处以及centos
服务器安装
docker,不在详细介绍2服务器放开2375
大明白大聪明
·
2024-01-19 16:11
容器技术
docker
容器
运维
Linux-Ngrok内网穿透
1.安装手动搭建ngrok服务器(生成ngrok服务端和客户端文件)、启动ngrok
服务器安装
杂项[root@host~]#yum-yinstallzlib-developenssl-develperlhgcpioexpat-develgettext-develcurlcurl-develperl-ExtUtils-MakeMakerhgwgetgccgcc-c
csdn_yasin
·
2024-01-19 16:22
Linux
CentOS
linux
Ngrok
内网穿透
安装nVidia的
CUDA
工作业务需要安装nVidia的
CUDA
wgethttps://developer.download.nvidia.com/compute/
cuda
/repos/ubuntu1604/x86_64/
cuda
-ubuntu1604
饭醉团伙的表弟
·
2024-01-19 16:42
Windows安装yolov8无法使用
cuda
问题解决办法
但是yolov8的pip安装指令会自动安装一个pytorch版本,就又导致和
cuda
版本对不上号一直用不起来gpu。所以必要条件:pytorch和
ShawnWeasley
·
2024-01-19 12:40
windows
YOLO
cuda
python
cuda
python
cuda
的编程模型简单的数据流:把输入数据从cpu内存拷贝到gpu的显存上;加载执行芯片上的缓存数据,加载gpu程序并执行
怎么开心怎么玩
·
2024-01-19 12:18
cuda编程
python
CUDA
中的原子操作
CUDA
中的原子操作原子函数对驻留在全局或共享内存中的一个32位或64位字执行读-修改-写原子操作。
怎么开心怎么玩
·
2024-01-19 12:48
c++
大模型学习与实践笔记(八)
一、LMDeploy的优势二、核心优势说明1.量化2.持续批处理3.Blockedk/vcache4.有状态的推理5.高性能
cuda
kernel
AllYoung_362
·
2024-01-19 10:55
学习
langchain
AIGC
chatgpt
llama
人工智能
大模型学习与实践笔记(七)
一、环境配置1.平台:Ubuntu+Anaconda+
CUDA
/CUDNN+8GBnvidia显卡2.安装#构建虚拟环境condacreate--namextuner0.1.9python=3.10-y
AllYoung_362
·
2024-01-19 10:54
深度学习
langchain
AIGC
chatgpt
gpt
llama
linux下载
cuda
toolkit实现并行计算
linux下载
cuda
toolkit实现并行计算(1)下载安装
CUDA
Toolkit
CUDA
Toolkit官网:https://developer.nvidia.com/
cuda
-downloads里面有安装步骤教程注意
Hz、辉
·
2024-01-19 09:49
linux
运维
服务器
linux系统环境变量问题记录
linux系统环境变量问题记录遇到的问题(1)在链接
cuda
代码时g++-oprogmain.o-l
cuda
rt报错:usr/bin/ld:找不到-l
cuda
rt(2)其实这个问题就是链接时编译器找不到
Hz、辉
·
2024-01-19 09:49
linux
运维
服务器
CUDA
Toolkit 下载,安装,验证
CUDA
Toolkit下载进
cuda
官网下载
CUDA
Toolkit链接:https://developer.nvidia.com/
cuda
-downloads官网默认显示当前的最新版本,这里以安装
CUDA
Toolkit12.2
qyhua
·
2024-01-19 08:33
linux
人工智能
运维
深度学习(一)——windows深度学习环境安装(pytorch)
1.确认电脑显卡是英伟达GPUwin+R,打开运行菜单,输入命令dxdiag2.安装
CUDA
https://developer.nvidia.com/
cuda
-downloads下载后,一路默认安装命令行
吴禅染
·
2024-01-19 08:30
深度学习小白入门笔记
python
pytorch
深度学习
pytorch 合集: pytorch的函数之torch
GPU类型就是CPU类型中间加上
cuda
.torch.Tensor,torch.rand(),torch.randn()默认生成torch.FloatTensor类型。
JL_Jessie
·
2024-01-19 08:00
pytorch
python
python
pytorch
香港云
服务器安装
宝塔控制面板教程
在当今的数字化时代,云服务器已经成为企业和个人建站、部署应用程序的重要基础设施。而宝塔控制面板,作为一款功能强大的服务器管理工具,能够极大地简化服务器的配置和管理过程。本文将详细介绍如何在香港云服务器上安装宝塔控制面板,帮助您快速搭建和管理自己的服务器环境。一、准备工作在开始安装之前,您需要先准备一些工具和软件:1.准备一台香港云服务器2.宝塔面板软件:您可以从宝塔官网下载最新版本的宝塔控制面板软
海外空间恒创科技
·
2024-01-19 06:30
服务器
php
运维
python服务器环境搭建_python服务器环境搭建(2)——安装相关软件
在上一篇我们在本地的虚拟服务器上安装好CentOS7后,我们的pythonweb服务、自定义的pythonservice或python脚本需要在服务器上运行,还需要在
服务器安装
各种相关的软件才行,一般来说
weixin_39653764
·
2024-01-19 06:59
python服务器环境搭建
Docker consul
什么是服务注册与发现二、什么是consul三、consul的主要工作是什么四、consul的特性有哪些五、Consul部署实验前准备建立consul服务器设置代理查看端口查看集群信息Registrator
服务器安装
陆墨宁
·
2024-01-19 04:34
云计算课程学习
docker
容器
运维
【大数据】HBase集群安装部署
vmware安装三台虚拟机,配置好网络环境安装好对应版本的hadoop集群,并启动安装好对应版本的zookeeper集群,并启动1.HBase集群安装部署1.1准备安装包下载安装包并上传到node01
服务器安装
包下载地址
橙子园
·
2024-01-19 00:51
大数据工程师成神之路
hbase
big
data
hadoop
安装部署
ImportError: cannot import name ‘get_all_providers‘ from ‘onnxruntime.capi._pybind_state‘
debug备份场景:pth转onnx遇到此问题环境:onnx1.8.0onnxruntime-gpu1.6.0
cuda
11.1问题:
cuda
版本不对尝试解决办法:condainstall
cuda
toolkit
Mr.Q
·
2024-01-18 20:30
Debug
深度学习
服务器租用和托管有哪些注意事项?
B:
服务器安装
时要将各个零配件固定好(CPU、硬盘、外置电源线等),如果没有固定好,在运输途中配件在
fzy18757569631
·
2024-01-18 16:13
服务器
运维
20240115在ubuntu20.04.6下给GTX1080M显卡安装驱动程序和
CUDA
20240115在ubuntu20.04.6下给GTX1080M显卡安装驱动程序和
CUDA
2024/1/1518:05百度搜索:ubuntugtx1080m
cuda
https://blog.csdn.net
南棱笑笑生
·
2024-01-18 16:37
杂质
杂质
【TensorRT】DeviceToHost同步与异步拷贝的区别及带来的问题
cuda
Memcpy与
cuda
MemcpyAsync的区别与问题
cuda
Memcpy与
cuda
MemcpyAsync的区别一、认识stream流二、tensorRT推理的常规流程三、遇到的问题四、引用与参考文献
澄鑫
·
2024-01-18 15:55
高性能编程
GPU编程
推理平台
TensorRT
c++
GPU
计算机视觉
不同版本
CUDA
和cudnn下载安装并配置环境变量
干货满满,不要走开~目录前言一、下载或更新显卡驱动(选做)1.查看当前显卡驱动版本以及支持的最高版本的
CUDA
2.下载显卡驱动二、安装
CUDA
1.查看支持的最高版本的
CUDA
2.下载
CUDA
Toolkit
爱敲代码的panda
·
2024-01-18 12:12
深度学习
软件安装教程
gpu算力
openai-whisper
增加到自己的视频里,并且显示字幕1.下载b站视频到电脑2.提取视频中的音频3.音频转文字4.自己的视频去掉音频,增加新的音频和字幕0.参数说明语音识别模型whisper的参数说明1.视频语音转文字export
CUDA
_VISIBLE_DEVICES
GeekPlusA
·
2024-01-18 12:42
人工智能
linux
whisper
pycharm import torch
1安装我的电脑Windows11Python3.11Anaconda3-2023.09-0-Windows-x86_64.exe
cuda
_11.8.0_522.06_windows.exepytorch
东方.既白
·
2024-01-18 10:40
PyTorch
Python
深度学习
pycharm
深度学习
ide
conda install命令无法安装pytorch
由于网络问题,直接采用condainstall命令可能无法直接下载对应的
cuda
包。
qq_43650421
·
2024-01-18 09:40
conda
pytorch
人工智能
Tensorflow、
CUDA
、cuDNN详细的下载安装过程
文章目录前言一、Tensorflow简介二、Tensorflow版本介绍1.Tensorflow与python、
CUDA
、cuDNN对应关系2.NVIDIA显卡和
CUDA
的版本号关系三、Tensorflow
机智的小神仙儿
·
2024-01-18 09:15
python基础
python
tensorflow
TensorRT部署-Windows环境配置
系列文章目录文章目录系列文章目录前言一、安装VisualStudio(2019)二、下载和安装nvidia显卡驱动三、下载
CUDA
四、下载安装cuDNN五、安装Anaconda六、TensorRT安装七
小豆包的小朋友0217
·
2024-01-18 07:07
windows
复现PointNet++(语义分割网络):Windows + PyTorch + S3DIS语义分割 + 代码
一、平台Windows10GPURTX3090+
CUDA
11.1+cudnn8.9.6Python3.9Torch1.9.1+cu111所用的原始代码:https://github.com/yanx27
累了就要打游戏
·
2024-01-18 06:14
pytorch
人工智能
python
点云
语义分割
PointNet
Tensorflow学习笔记(六)——卷积神经网络
实现对fashion-minist分类: (1)引包importosos.environ["
CUDA
_VISIBLE_DEVICES"]="-1"importmatplotlibasmplimportmatplotlib.pyplotasplt
七月七叶
·
2024-01-18 06:50
如果开启了8bit量化加载,项目无法启动,参考此位置,选择合适的
cuda
版本
部署大语言模型过程,报错如标题,并发现同时出现的报错信息:ImportError:Usingload_in_8bit=TruerequiresAccelerate:pipinstallaccelerateandthelatestversionofbitsandbytespipinstall-ihttps://test.pypi.org/simple/bitsandbytesorpipinstall
孔雀竹鱼
·
2024-01-18 01:36
python
开发语言
【深度学习】RTX2060 2080如何安装
CUDA
,如何使用onnx runtime
文章目录如何在Python环境下配置RTX2060与
CUDA
101.安装最新的NVIDIA显卡驱动2.使用conda安装
CUDA
Toolkit3.验证onnxruntime与
CUDA
版本4.验证ONNX
XD742971636
·
2024-01-18 01:29
深度学习机器学习
深度学习
人工智能
onnx版本
onnxruntime
帆软决策报表嵌入html,在决策报表中使用网页框控件
2.1安装插件点击下载插件:网页框控件插件设计器插件安装方法请参见:设计器插件管理
服务器安装
插件方法请参见:服务器插件管理2.2添加网页框控件插件安装完毕后,新建决策报表,点击「控件栏」,新增了「网页框控件
二营长的意大利炮ii
·
2024-01-18 00:46
帆软决策报表嵌入html
nvcc -V显示command not found
出现这个问题,不仅是`nvcc-V`会显示commandnotfound,`nvidia-smi`同样也会显示解决方法如下:1)这里首先转换到
CUDA
所在位置,一般是在这个位置cd/usr/local2
摩卡摩卡~
·
2024-01-17 23:16
2024科研
python
linux
深度学习
华为云
服务器安装
win10系统,云
服务器安装
win10
云
服务器安装
win10内容精选换一换设置“云服务器名称”。名称可自定义,但需符合命名规则:只能由中文字符、英文字母、数字及“_”、“-”、“.”组成。
戴少鹤
·
2024-01-17 23:09
华为云服务器安装win10系统
window.open 服务器运行失败,win10 openssh
服务器安装
失败的最佳解决方法
SecureSHell)协议的免费开源实现,这是一款可以进行远程控制计算机传送文件的软件,然而最近有用户在使用win10系统安装openssh服务器时却出现失败的情况,那么win10系统openssh
服务器安装
失败怎么办
weixin_39851974
·
2024-01-17 23:09
window.open
服务器运行失败
python检查PyTorch版本及
cuda
是否安装成功
__version__)print(torch.
cuda
.is_available())输出True就代表安装成功,反之安装失败1.7.0True
New___dream
·
2024-01-17 21:55
安装
python
pytorch
人工智能
Docker consul、容器服务更新与发现
目录实验前准备Consul部署建立consul服务器设置代理查看集群信息Registrator
服务器安装
Gliderlabs/Registrator测试服务发现功能部署consul-template准备
唐十洪
·
2024-01-17 19:48
云Linux
docker
consul
容器
shell监视gpu使用情况
--------------------------------------------------------------+|NVIDIA-SMI440.44DriverVersion:440.44
CUDA
Version
HackerTom
·
2024-01-17 18:27
环境
shell
grep
sed
awk
nvidia-smi
【
cuda
】四、基础概念:Cache Tiled 缓存分块技术
缓存分块是一种内存优化技术,主要用于提高数据的局部性(Locality),以减少缓存未命中(CacheMiss)的次数。在现代计算机体系结构中,处理器(CPU)的速度通常比内存快得多。因此,如果CPU在处理数据时需要频繁地等待数据从内存中加载,就会大大降低程序的执行效率。CacheTiled技术通过将数据分割成较小的块(Tiles),并确保这些小块能够完全装入CPU的高速缓存(Cache),来减少
prinTao
·
2024-01-17 16:44
CUDA编程
缓存
【
CUDA
】五、基础概念:Coalescing合并用于内存优化
先来看之前的例子:矩阵乘法中的Coalescingwrites刚才的代码中,可以观察到两个for循环,这里可以进行优化。“coalescingwrites”(合并写操作)“coalescingwrites”(合并写操作)是一种优化内存访问模式的技术,它能显著提高内存带宽的利用效率。这种技术尤其对于全局内存访问非常重要,因为全局内存访问速度相比于核心计算速度要慢得多。底层原理内存事务:当GPU的线程
prinTao
·
2024-01-17 14:51
CUDA编程
算法
【
CUDA
】零基础入门教程合集
本系列用于
cuda
编程的基础入门,详细介绍各种相关技术。这是系列连载的入口,还可以关注我的专栏
CUDA
编程。
prinTao
·
2024-01-17 14:51
cuda
c++
【
cuda
】六、基础库:cuBLAS入门
cuBLAS基础介绍
CUDA
BasicLinearAlgebraSubprograms(BLAS)提供了高效计算线性代数的方法。
prinTao
·
2024-01-17 14:51
CUDA编程
cuda
【
cuda
】Visual Studio中进行
CUDA
程序的性能评估
在VisualStudio中使用Nsight进行
CUDA
应用程序的性能评估可以按照以下步骤进行:步骤1:准备工作确保已经安装了以下组件:最新版本的NVIDIA驱动。
prinTao
·
2024-01-17 14:18
CUDA编程
visual
studio
ide
Ubuntu部署ChatGLM2-6B踩坑记录
目录一、环境配置1、安装anaconda或者miniconda进行环境的管理2、安装
CUDA
3、环境安装二、配置加载模型1、建立THUDM文件夹三、遇到的问题1、pipinstall-rrequirements.txt2
XINYU W
·
2024-01-17 13:01
linux
人工智能
自然语言处理
语言模型
GPT实战系列-实战Qwen在
Cuda
12+24G部署方案
GPT实战系列-实战Qwen在
Cuda
12+24G部署方案ChatGLM4进行新闻发布,但还没有开源更新,在此之际,实战部署测试Qwen大模型。
Alex_StarSky
·
2024-01-17 12:43
GPT实战系列
Qwen
本地部署
24G显存
LLM
通义千问
Cuda
千问
windows环境下安装
CUDA
(用GPU训练Tensorflow-YOLOv3)
关键就是搭建好
cuda
环境NVIDIA显卡驱动(https://www.nvidia.cn/Download/inde
dvlee1024
·
2024-01-17 11:47
commvault学习(5):在linux上安装cv客户端
centos71.为两台centos7配置静态ip使得2者可以与服务器ping通2.在两台centos7上预留出足够大的磁盘空间以存放安装文件我是在/mnt下创建了一个空文件夹cv10,即/mnt/cv103.为
服务器安装
入门如入土
·
2024-01-17 09:49
学习
win11 + insightface + pytorch +
CUDA
+ cuDNN 实战安装
安装攻关秘籍,步骤如下:第一步.下载pycharm社区版官网在这里:https://www.jetbrains.com/pycharm/download/?section=windows第二步.下载anaconda(最新版)//参考下面文章来执行安装anacondaWindows下Miniconda+Pytorch+Pycharm开发环境搭建指南第三步.配置anaconda的path和加速下载源加
大树叶
·
2024-01-17 09:06
pytorch
人工智能
python
【报错】NVIDIA 驱动版本不兼容 — NVIDIA driver on your system is too old
【报错】NVIDIA驱动版本不兼容—NVIDIAdriveronyoursystemistooold报错信息查看torch版本查看nvidia驱动版本报错信息
CUDA
initialization:TheNVIDIAdriveronyoursystemistooold
之墨_
·
2024-01-17 09:54
工具
报错
Linux
服务器安装
mysql8.0和5.7简单安装版和卸载、修改数据储存路径
简介文章用来记录,服务器记得开放端口版本http://repo.mysql.com/可进去自行选择版本作者安装的是8.0版本8.0版本wgethttp://repo.mysql.com/mysql80-community-release-el7-3.noarch.rpm5.7版本wgethttp://repo.mysql.com/mysql57-community-release-el7-8.no
孤码
·
2024-01-17 09:17
linux
mysql
mysql
数据库
linux
centos
服务器
上一页
10
11
12
13
14
15
16
17
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他