E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
cuda环境变量配置
Windows10环境下同时下载了jdk8和jdk17的环境变量如何配置
起因:要用Java8,但java--version怎么都输出17,原先的
环境变量配置
太随意,重新搞一下配置:打开
环境变量配置
首先需要为两个jdk指定安装目录,配置两个变量,指向jdk安装目录,用数字区分
失去斗志的菜鸟
·
2024-01-19 15:32
问题集锦
java
数据库
servlet
Windows安装yolov8无法使用
cuda
问题解决办法
但是yolov8的pip安装指令会自动安装一个pytorch版本,就又导致和
cuda
版本对不上号一直用不起来gpu。所以必要条件:pytorch和
ShawnWeasley
·
2024-01-19 12:40
windows
YOLO
cuda
python
cuda
python
cuda
的编程模型简单的数据流:把输入数据从cpu内存拷贝到gpu的显存上;加载执行芯片上的缓存数据,加载gpu程序并执行
怎么开心怎么玩
·
2024-01-19 12:18
cuda编程
python
CUDA
中的原子操作
CUDA
中的原子操作原子函数对驻留在全局或共享内存中的一个32位或64位字执行读-修改-写原子操作。
怎么开心怎么玩
·
2024-01-19 12:48
c++
大模型学习与实践笔记(八)
一、LMDeploy的优势二、核心优势说明1.量化2.持续批处理3.Blockedk/vcache4.有状态的推理5.高性能
cuda
kernel
AllYoung_362
·
2024-01-19 10:55
学习
langchain
AIGC
chatgpt
llama
人工智能
大模型学习与实践笔记(七)
一、环境配置1.平台:Ubuntu+Anaconda+
CUDA
/CUDNN+8GBnvidia显卡2.安装#构建虚拟环境condacreate--namextuner0.1.9python=3.10-y
AllYoung_362
·
2024-01-19 10:54
深度学习
langchain
AIGC
chatgpt
gpt
llama
linux下载
cuda
toolkit实现并行计算
linux下载
cuda
toolkit实现并行计算(1)下载安装
CUDA
Toolkit
CUDA
Toolkit官网:https://developer.nvidia.com/
cuda
-downloads里面有安装步骤教程注意
Hz、辉
·
2024-01-19 09:49
linux
运维
服务器
linux系统环境变量问题记录
linux系统环境变量问题记录遇到的问题(1)在链接
cuda
代码时g++-oprogmain.o-l
cuda
rt报错:usr/bin/ld:找不到-l
cuda
rt(2)其实这个问题就是链接时编译器找不到
Hz、辉
·
2024-01-19 09:49
linux
运维
服务器
CUDA
Toolkit 下载,安装,验证
CUDA
Toolkit下载进
cuda
官网下载
CUDA
Toolkit链接:https://developer.nvidia.com/
cuda
-downloads官网默认显示当前的最新版本,这里以安装
CUDA
Toolkit12.2
qyhua
·
2024-01-19 08:33
linux
人工智能
运维
深度学习(一)——windows深度学习环境安装(pytorch)
1.确认电脑显卡是英伟达GPUwin+R,打开运行菜单,输入命令dxdiag2.安装
CUDA
https://developer.nvidia.com/
cuda
-downloads下载后,一路默认安装命令行
吴禅染
·
2024-01-19 08:30
深度学习小白入门笔记
python
pytorch
深度学习
pytorch 合集: pytorch的函数之torch
GPU类型就是CPU类型中间加上
cuda
.torch.Tensor,torch.rand(),torch.randn()默认生成torch.FloatTensor类型。
JL_Jessie
·
2024-01-19 08:00
pytorch
python
python
pytorch
ImportError: cannot import name ‘get_all_providers‘ from ‘onnxruntime.capi._pybind_state‘
debug备份场景:pth转onnx遇到此问题环境:onnx1.8.0onnxruntime-gpu1.6.0
cuda
11.1问题:
cuda
版本不对尝试解决办法:condainstall
cuda
toolkit
Mr.Q
·
2024-01-18 20:30
Debug
深度学习
Django环境配置
1.安装Python2.下载Django,解压至Python根目录下3.
环境变量配置
C:/Python27以及C:/Python27/Script至path下4.
阿努比斯1117
·
2024-01-18 19:34
CentOS安装JDK
命令生效环境变量3、测试总结一、文件准备1、目录创建在/usr/local下创建java目录2、导入jdk压缩文件3、解压压缩包tar-zxfjdk-8u201-linux-x64.tar.gz二、配置1.配置
环境变量配置
右璇
·
2024-01-18 19:57
运维
CentOS笔记
centos
linux
运维
linux设置java环境变量
编辑环境变量文件输入命令:vim/etc/profile在最下方添加java环境变量信息#JDK全局
环境变量配置
exportJAVA_HOME=/opt/jdk1.8.0_11exportCLASSPATH
平面小狮子
·
2024-01-18 16:36
20240115在ubuntu20.04.6下给GTX1080M显卡安装驱动程序和
CUDA
20240115在ubuntu20.04.6下给GTX1080M显卡安装驱动程序和
CUDA
2024/1/1518:05百度搜索:ubuntugtx1080m
cuda
https://blog.csdn.net
南棱笑笑生
·
2024-01-18 16:37
杂质
杂质
【TensorRT】DeviceToHost同步与异步拷贝的区别及带来的问题
cuda
Memcpy与
cuda
MemcpyAsync的区别与问题
cuda
Memcpy与
cuda
MemcpyAsync的区别一、认识stream流二、tensorRT推理的常规流程三、遇到的问题四、引用与参考文献
澄鑫
·
2024-01-18 15:55
高性能编程
GPU编程
推理平台
TensorRT
c++
GPU
计算机视觉
霍格沃兹测试开发学社技术学习笔记之——Python基础笔记
#阶段十一-Python语言和测试框架(1)##1.pycharm
环境变量配置
和安装##2.基础数据类型数字字符串##3.运算符字符串算数运算符比较运算符赋值运算符逻辑运算符成员运算符身份运算符##4.
zmmici
·
2024-01-18 15:55
python
开发语言
一文精通 crontab 从入门到出坑
文章目录介绍crontab简单示例使用选项任务配置
环境变量配置
部分定时任务配置部分基本配置时间配置段类型定时语句解析工具使用有坑时间配置误区整点时间设置错误日与星期的关系误区环境变量问题解决方式特殊符号
波罗学
·
2024-01-18 15:20
crontab
linux
Windows10系统下的Java
环境变量配置
Windows10系统下的Java
环境变量配置
1.准备java的jdk2.安装JDK--全部选择下一步3.如果安装的jdk环境没有自动配置,需要以下操作进行手动配置4.点击环境变量5.在系统变量的情况下进行新建
脚大江山稳
·
2024-01-18 13:05
java
开发语言
不同版本
CUDA
和cudnn下载安装并配置环境变量
干货满满,不要走开~目录前言一、下载或更新显卡驱动(选做)1.查看当前显卡驱动版本以及支持的最高版本的
CUDA
2.下载显卡驱动二、安装
CUDA
1.查看支持的最高版本的
CUDA
2.下载
CUDA
Toolkit
爱敲代码的panda
·
2024-01-18 12:12
深度学习
软件安装教程
gpu算力
openai-whisper
增加到自己的视频里,并且显示字幕1.下载b站视频到电脑2.提取视频中的音频3.音频转文字4.自己的视频去掉音频,增加新的音频和字幕0.参数说明语音识别模型whisper的参数说明1.视频语音转文字export
CUDA
_VISIBLE_DEVICES
GeekPlusA
·
2024-01-18 12:42
人工智能
linux
whisper
Tomcat启动后无法访问主页
1、确认JDK和Tomcat
环境变量配置
没有问题后,startup启动Tomcat2、输入localhost:8080显示无法访问3、找到Tomcat安装目录下的conf目录4、修改下面两个地方,将port
振华OPPO
·
2024-01-18 10:45
Android经验
tomcat
java
安卓
android
服务器
pycharm import torch
1安装我的电脑Windows11Python3.11Anaconda3-2023.09-0-Windows-x86_64.exe
cuda
_11.8.0_522.06_windows.exepytorch
东方.既白
·
2024-01-18 10:40
PyTorch
Python
深度学习
pycharm
深度学习
ide
uni-app的项目创建和环境搭建
第一步:创建项目第二步:创建项目选择第三步:配置运行浏览器第四步:下载模拟器我用的是夜神模拟器(不同模拟器需要配置的端口不同)安装好后配置
环境变量配置
好环境变量后需要填写模拟器的
猿究院陈安
·
2024-01-18 09:42
uni-app
uni-app
conda install命令无法安装pytorch
由于网络问题,直接采用condainstall命令可能无法直接下载对应的
cuda
包。
qq_43650421
·
2024-01-18 09:40
conda
pytorch
人工智能
Tensorflow、
CUDA
、cuDNN详细的下载安装过程
文章目录前言一、Tensorflow简介二、Tensorflow版本介绍1.Tensorflow与python、
CUDA
、cuDNN对应关系2.NVIDIA显卡和
CUDA
的版本号关系三、Tensorflow
机智的小神仙儿
·
2024-01-18 09:15
python基础
python
tensorflow
最新版 Android Studio 安装教程
Win10系统AndroidStudio安装步骤一、安装JAVAJDK,配置环境变量JDK安装JDK
环境变量配置
二、AndroidStudio安装步骤AndroidStudio下载AndroidStudio
红桃三呀
·
2024-01-18 08:21
android
java
android
studio
TensorRT部署-Windows环境配置
系列文章目录文章目录系列文章目录前言一、安装VisualStudio(2019)二、下载和安装nvidia显卡驱动三、下载
CUDA
四、下载安装cuDNN五、安装Anaconda六、TensorRT安装七
小豆包的小朋友0217
·
2024-01-18 07:07
windows
复现PointNet++(语义分割网络):Windows + PyTorch + S3DIS语义分割 + 代码
一、平台Windows10GPURTX3090+
CUDA
11.1+cudnn8.9.6Python3.9Torch1.9.1+cu111所用的原始代码:https://github.com/yanx27
累了就要打游戏
·
2024-01-18 06:14
pytorch
人工智能
python
点云
语义分割
PointNet
Tensorflow学习笔记(六)——卷积神经网络
实现对fashion-minist分类: (1)引包importosos.environ["
CUDA
_VISIBLE_DEVICES"]="-1"importmatplotlibasmplimportmatplotlib.pyplotasplt
七月七叶
·
2024-01-18 06:50
【远程访问】Hbase+Phoenix(伪分布式部署)
目录Server端部署Hbase+Phoenix环境下载安装包安装JDK并配置
环境变量配置
ssh免密登录(可选)安装并启动zookeeper安装hbase安装phoenix启停hbase验证hbase是否启动
itachi-uchiha
·
2024-01-18 02:46
数据库
hbase
分布式
big
data
standalone
记一次问题定位:plsql配置tnsnames不生效
后来发现是因为TNS的
环境变量配置
错误了。
itachi-uchiha
·
2024-01-18 02:45
数据库
数据库
如果开启了8bit量化加载,项目无法启动,参考此位置,选择合适的
cuda
版本
部署大语言模型过程,报错如标题,并发现同时出现的报错信息:ImportError:Usingload_in_8bit=TruerequiresAccelerate:pipinstallaccelerateandthelatestversionofbitsandbytespipinstall-ihttps://test.pypi.org/simple/bitsandbytesorpipinstall
孔雀竹鱼
·
2024-01-18 01:36
python
开发语言
【深度学习】RTX2060 2080如何安装
CUDA
,如何使用onnx runtime
文章目录如何在Python环境下配置RTX2060与
CUDA
101.安装最新的NVIDIA显卡驱动2.使用conda安装
CUDA
Toolkit3.验证onnxruntime与
CUDA
版本4.验证ONNX
XD742971636
·
2024-01-18 01:29
深度学习机器学习
深度学习
人工智能
onnx版本
onnxruntime
nvcc -V显示command not found
出现这个问题,不仅是`nvcc-V`会显示commandnotfound,`nvidia-smi`同样也会显示解决方法如下:1)这里首先转换到
CUDA
所在位置,一般是在这个位置cd/usr/local2
摩卡摩卡~
·
2024-01-17 23:16
2024科研
python
linux
深度学习
python检查PyTorch版本及
cuda
是否安装成功
__version__)print(torch.
cuda
.is_available())输出True就代表安装成功,反之安装失败1.7.0True
New___dream
·
2024-01-17 21:55
安装
python
pytorch
人工智能
IDEA 安装GO 环境
软件默认安装位置是C:\ProgramFiles\Go,大家可以根据自己使用习惯选择安装位置,方便用于
环境变量配置
。2.Go语言
环境变量配置
安装完成后,进入Windows
环境变量配置
环节。
沐雨橙风_大唐
·
2024-01-17 19:31
language
go
shell监视gpu使用情况
--------------------------------------------------------------+|NVIDIA-SMI440.44DriverVersion:440.44
CUDA
Version
HackerTom
·
2024-01-17 18:27
环境
shell
grep
sed
awk
nvidia-smi
【
cuda
】四、基础概念:Cache Tiled 缓存分块技术
缓存分块是一种内存优化技术,主要用于提高数据的局部性(Locality),以减少缓存未命中(CacheMiss)的次数。在现代计算机体系结构中,处理器(CPU)的速度通常比内存快得多。因此,如果CPU在处理数据时需要频繁地等待数据从内存中加载,就会大大降低程序的执行效率。CacheTiled技术通过将数据分割成较小的块(Tiles),并确保这些小块能够完全装入CPU的高速缓存(Cache),来减少
prinTao
·
2024-01-17 16:44
CUDA编程
缓存
【
CUDA
】五、基础概念:Coalescing合并用于内存优化
先来看之前的例子:矩阵乘法中的Coalescingwrites刚才的代码中,可以观察到两个for循环,这里可以进行优化。“coalescingwrites”(合并写操作)“coalescingwrites”(合并写操作)是一种优化内存访问模式的技术,它能显著提高内存带宽的利用效率。这种技术尤其对于全局内存访问非常重要,因为全局内存访问速度相比于核心计算速度要慢得多。底层原理内存事务:当GPU的线程
prinTao
·
2024-01-17 14:51
CUDA编程
算法
【
CUDA
】零基础入门教程合集
本系列用于
cuda
编程的基础入门,详细介绍各种相关技术。这是系列连载的入口,还可以关注我的专栏
CUDA
编程。
prinTao
·
2024-01-17 14:51
cuda
c++
【
cuda
】六、基础库:cuBLAS入门
cuBLAS基础介绍
CUDA
BasicLinearAlgebraSubprograms(BLAS)提供了高效计算线性代数的方法。
prinTao
·
2024-01-17 14:51
CUDA编程
cuda
【
cuda
】Visual Studio中进行
CUDA
程序的性能评估
在VisualStudio中使用Nsight进行
CUDA
应用程序的性能评估可以按照以下步骤进行:步骤1:准备工作确保已经安装了以下组件:最新版本的NVIDIA驱动。
prinTao
·
2024-01-17 14:18
CUDA编程
visual
studio
ide
Ubuntu部署ChatGLM2-6B踩坑记录
目录一、环境配置1、安装anaconda或者miniconda进行环境的管理2、安装
CUDA
3、环境安装二、配置加载模型1、建立THUDM文件夹三、遇到的问题1、pipinstall-rrequirements.txt2
XINYU W
·
2024-01-17 13:01
linux
人工智能
自然语言处理
语言模型
GPT实战系列-实战Qwen在
Cuda
12+24G部署方案
GPT实战系列-实战Qwen在
Cuda
12+24G部署方案ChatGLM4进行新闻发布,但还没有开源更新,在此之际,实战部署测试Qwen大模型。
Alex_StarSky
·
2024-01-17 12:43
GPT实战系列
Qwen
本地部署
24G显存
LLM
通义千问
Cuda
千问
windows环境下安装
CUDA
(用GPU训练Tensorflow-YOLOv3)
关键就是搭建好
cuda
环境NVIDIA显卡驱动(https://www.nvidia.cn/Download/inde
dvlee1024
·
2024-01-17 11:47
win11 + insightface + pytorch +
CUDA
+ cuDNN 实战安装
安装攻关秘籍,步骤如下:第一步.下载pycharm社区版官网在这里:https://www.jetbrains.com/pycharm/download/?section=windows第二步.下载anaconda(最新版)//参考下面文章来执行安装anacondaWindows下Miniconda+Pytorch+Pycharm开发环境搭建指南第三步.配置anaconda的path和加速下载源加
大树叶
·
2024-01-17 09:06
pytorch
人工智能
python
【报错】NVIDIA 驱动版本不兼容 — NVIDIA driver on your system is too old
【报错】NVIDIA驱动版本不兼容—NVIDIAdriveronyoursystemistooold报错信息查看torch版本查看nvidia驱动版本报错信息
CUDA
initialization:TheNVIDIAdriveronyoursystemistooold
之墨_
·
2024-01-17 09:54
工具
报错
ChatGLM3-6B的本地api调用
openai_api_demo路径下的openai_api.py启动后界面:注意:本地api调到的前提是——本地部署了ChatGLM3-6B,本地部署的教程可参考:20分钟部署ChatGLM3-6B部署了若
CUDA
落叶阳光
·
2024-01-17 08:09
算法篇
chatglm3-6b
api
本地
上一页
10
11
12
13
14
15
16
17
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他