E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
GPU并行计算-CUDA编程
CUDA、cudNN版本号,tensorflow对应版本查询
win+Rcmd命令行输入nvidia-smi查询右上角可见CUDAVersion11.6cudNN版本查询:按照路径查询文件:cudnn_version.hC:\ProgramFiles\NVIDIA
GPU
ComputingToolkit
MayYou-HHH
·
2024-01-27 04:37
tensorflow
人工智能
python
【一次性解决】CUDA和PyTorch的安装与多版本管理的三种方式
一般来说,CUDA将会被用于:PyTorch的
GPU
版本CUDA的C++开发CUDA的Py
prinTao
·
2024-01-27 04:19
CUDA编程
pytorch
python
pytorch
人工智能
python
cuda
ubuntu系统环境指定
GPU
的使用
法1:CUDA_VISIBLE_DEVICES=0,1,2pythontest.py法1中,0,1,2为显卡的编号。可以选择多块或单个显卡法2:importosos.environ["CUDA_VISIBLE_DEVICES"]="0,1,2"步骤一:环境变量设置(好像不是必须的)改变系统变量仅使目标显卡,编辑.bashrc文件,在里面添加系统变量exportCUDA_VISIBLE_DEVICE
计算机视觉-Archer
·
2024-01-27 01:20
ubuntu
深度学习
linux
[AIGC 大数据基础] 浅谈hdfs
它可以在普通的硬件上运行,并且可以适应大型数据集和
并行计算
的需求。HDFS使
程序员三木
·
2024-01-27 01:00
大后端
大数据
AIGC
hdfs
华为OD机试 - 执行时长(图理解)
华为OD机试-执行时长题目描述:为了充分发挥
GPU
算力,需要尽可能多的将任务交给
GPU
执行,现在有一个任务数组,数组元素表示在这1秒内新增的任务个数且每秒都有新增任务,假设
GPU
最多一次执行n个任务,一次执行耗时
K.Encoding
·
2024-01-27 00:41
算法刷题记录
华为od
算法
(野火征途 Altera EP4CE10)硬件说明
通过编程,用户可以随时改变它的应用场景,它可以模拟CPU、
GPU
等硬件的各种并行运算。通过与目标硬件的高速接口互联,FPGA可以完成目标硬件运行效率比较低的部分,从而在系统层面实现加速。
一壶浊酒..
·
2024-01-26 23:01
fpga开发
2022-12-16
GPU
云服务器基于
GPU
应用的计算服务,适用于视频解码、图形渲染、深度学习、科学计算等应用场景
GPU
云服务器是基于
GPU
应用的计算服务。具有实时高速、
并行计算
、浮点计算能力强等特点。
darkvm美美
·
2024-01-26 22:12
AI时代每个程序员都应该了解
GPU
基础知识
GPU
架构和计算入门大多数程序员对CPU和顺序编程都有深入的了解,因为他们是在为CPU编写代码的过程中长大的,但许多程序员不太熟悉
GPU
的内部工作原理以及它们如此特别的原因。
xuejianxinokok
·
2024-01-26 22:32
机器学习
人工智能
华为OD机试真题-执行时长-2023年OD统一考试(C卷)
题目描述:为了充分发挥
GPU
算力,需要尽可能多的将任务交给
GPU
执行,现在有一个任务数组,数组元素表示在这1秒内新增的任务个数且每秒都有新增任务,假设
GPU
最多一次执行n个任务,一次执行耗时1秒,在保证
2023面试高手
·
2024-01-26 22:04
华为od
开发语言
python
华为
算法
紫光展锐T760_芯片性能介绍_展锐T760安卓核心板定制
展锐T760芯片还具有丰富的多媒体处理功能,
GPU
采用的是650MHz的ARMMa
智物通讯科技
·
2024-01-26 21:58
紫光展锐T760
展锐T760
T760
安卓核心板
XGBoost系列7——XGBoost的性能优化策略
目录写在开头1.XGBoost的
并行计算
原理1.1特征并行1.2数据并行1.3参数调整优化并行性能1.4多线程和分布式计算2.大规模数据集的分布式训练2.1分布式训练原理2.2集群配置2.3参数调整2.4
theskylife
·
2024-01-26 21:21
数据挖掘
性能优化
人工智能
机器学习
数据挖掘
Google的Colaboratory
机械学习需要
GPU
性能比较好的设备。记得很久以前我用自己的MacBookPro试过TensorFlow1.0的手写数字识别的示例,由于性能问题,就不了了之了。
Jiangyouhua
·
2024-01-26 18:54
【pytorch】pytorch学习笔记
p8:1.pytorch不是一个完备的语言库,而是一个对于数据的
gpu
加速库,所以其没有对string的内键支持,即pytorch的基本类型中不包含string。
小白冲鸭
·
2024-01-26 18:34
pytorch
学习
笔记
【pytorch】pytorch学习笔记(续3)
p41:1.LeakReLU,SELU,softplus2.
GPU
加速:.to方法p42:不太懂p43:1.visdom,tensorbroadXp44:p45:1.如何检测过拟合?
小白冲鸭
·
2024-01-26 18:03
pytorch
学习
笔记
lonboard:用于在Jupyter中进行快速、交互式地理空间矢量数据可视化
介绍Lonboard以GeoArrow和GeoParquet等尖端技术为基础,结合基于
GPU
的地图渲染,旨在通过简单的界面以交互方式可视化大型地理空间数据集。
孝钦显皇后给过版权费了
·
2024-01-26 17:00
大数据分析
jupyter
信息可视化
3ds Max宣传片怎么提升渲染速度?从硬件升级到云渲染,全面提升你的渲染速度!
以下是一些建议和技巧,帮助你提高3dsMax的渲染速度:1.升级硬件:升级CPU和
GPU
是提高渲染速度的最直接方法。选择具有强大计算能力的处理器和显卡,可以显著减少渲染时间。增加内存也是有益的。
小白的建模
·
2024-01-26 17:12
3DMAX学习交流
3dsmax
3d
计算机视觉
图形渲染
云计算
TensorRT-LLM Docker镜像制作
依赖:TensorRT9.1.0.4docker版本23.08步骤:1.宿主机联网,启动容器,容器内也要联网启动镜像的方法:2023-10-2609:07:57dockerrun--
gpu
sall-it
美洲大蠊很顽强
·
2024-01-26 16:22
docker
人工智能
Cupy的用处概述
cupy的作用:数组和矩阵都是通过cupy来设定,然后cupy来调用
gpu
并行计算
!
胜负55开
·
2024-01-26 15:46
展望2024: 中国AI算力能否引爆高性能计算和大模型训练的新革命?
StableDiffusion;ChatGPT;CoPilot;文本创建;图像生成;代码编写;大语言模型;多模态大模型;预训练;边缘计算;液冷;HPC;冷板式液冷;Bard;AlphaGo;深度学习;AI服务器;
GPU
高性能服务器
·
2024-01-26 15:02
人工智能
如何白嫖
GPU
---kaggle训练自己的模型
首先需要在kaggle用手机号注册,就可以获得每周30小时的免费
GPU
啦接下来讲讲,如何将自己本地的文件放入到kaggle上进行训练在Kaggle项目中创建一个新的Notebook或脚本文件(例如,.ipynb
一只发呆的猪
·
2024-01-26 12:14
人工智能
机器学习
深度学习
LLM-大模型训练-常见错误:RuntimeError: expected scalar type Half but found Float
RuntimeError:expectedscalartypeHalfbutfoundFloat原因一Peft版本不兼容,尝试使用不同版本的Peft原因二1.问题描述 使用
GPU
V100(32GB)对
u013250861
·
2024-01-26 11:52
LLM
python
开发语言
LLM-模型大小:
GPU
显卡内存大小、模型大小、精度、batch_size关系
对于LLaMa-6b模型来说1、训练时模型本身参数、梯度值、优化器参数值需要的内存大小为:2、每个样本需要的内存大小():3、基于第1/2条,对于A100显卡(80GBRAM)来说,batch_size最大可以设置为50
u013250861
·
2024-01-26 11:22
LLM
batch
深度学习
开发语言
#
GPU
|LLM|AIGC#集成显卡与独立显卡|显卡在深度学习中的选择与LLM
GPU
推荐
区别核心区别:显存,也被称作帧缓存。独立显卡拥有独立显存,而集成显卡通常是没有的,需要占用部分主内存来达到缓存的目的集成显卡:是集成在主板上的,与主处理器共享系统内存。一般会在很多轻便薄型的笔记本与低端的台式电脑上得到广泛的应用性能较低,适合一般办公和基本图形任务。独立显卡:一块独立的图形处理器,有自己的显存,并且不与主处理器共享内存。独立显卡通常性能更强大,适合处理复杂的图形和游戏。在一些专业应
向日葵花籽儿
·
2024-01-26 11:45
深度学习
CS基础
LLM
GPU
AIGC
RTX
4090
【技术分享】Ubuntu 20.04如何更改用户名
该开发板集成了四核Cortex-A76和四核Cortex-A55CPU,以及G610MP4
GPU
和6TOPs算力的NPU。
Industio_触觉智能
·
2024-01-26 11:13
ubuntu
linux
嵌入式硬件
【
GPU
】深入理解
GPU
硬件架构及运行机制
深入理解
GPU
硬件架构及运行机制作者:Tim在路上曾看到有一篇名为《Theevolutionofa
GPU
:fromgamingtocomputing》的文章。
Hcoco_me
·
2024-01-26 10:34
GPU
硬件架构
GPU
人工智能
图像处理python基础
array读取图片tensor模型预测一般过程:读取数据np->tensor->model->result->np->画图shape确保图像输入输出尺寸正确读取图片将在
GPU
上运行的tensor类型转变成在
湘溶溶
·
2024-01-26 08:34
深度学习
分割
图像处理
python
人工智能
linux conda 配置 stable video diffusion
github.com/Stability-AI/generative-models.git2创建conda环境condacreate-nsvdpython=3.10condaactivatesvd3安装pytorch
gpu
cuda
lanlinbuaa
·
2024-01-26 07:33
linux
conda
Docker部署Stable-Diffusion-webui
启一个miniconda容器dockerrun-itd-v宿主机内SD项目路径:/tmp--
gpu
sall--ipchost-p7860:7860continuumio/miniconda3:latest
Dreamcatcher风
·
2024-01-26 07:26
机器学习/深度学习
AIGC
docker
stable
diffusion
AIGC
AI作画
人工智能
Ubuntu18.04安装和使用Neofetch
它以简洁的方式显示系统信息,包括但不限于操作系统、内核版本、CPU、
GPU
、内存使用情况和当前运行的桌面环境或窗口管理器。此外,Neofetch还会显示ASCI
sagima_sdu
·
2024-01-26 07:48
linux
ubuntu
运维
在ubuntu20.04 安装nvidia驱动 (亲测有效,这是方法二)
在ubuntu安装cuda10.1和cudnn(亲测有效)2.你的nvidia驱动、
GPU
本来可以用的,但突然不能用了,可能是ubuntu内核版本升级后造成的问题。下面是对应的解决办法。
baidu_huihui
·
2024-01-26 07:28
ubuntu
linux
nvidia驱动
spring事务失效的几种场景以及原因
直接进入主题spring事务失效场景以及原因1、场景一:service没有托管给sprin
gpu
blicclassTranInvalidCaseWithoutInjectSpring{privateUserServiceuserService
linyb极客之路
·
2024-01-26 05:26
Java-final和static
必须在构造对象时初始化修饰基本类型或者不可变的字段表示存储的对象引用不会指向其他对象,但是本身指向的对象可以改变static将一个字段定义为static,每个类只有一个这样的字段static定义的字段属于类,而不是对象静态常量final、statice.
gpu
blicstaticfinaldoublePI
H_7835
·
2024-01-26 01:48
selenium一些常用设置
options=webdriver.ChromeOptions()#谷歌无头模式options.add_argument('--headless')options.add_argument('--disable-
gpu
shifuren
·
2024-01-26 00:25
其他
selenium
PyTorch的衍生资源
2017年:发布了PyTorch0.2版本,引入了许多新特性,如对Windows操作系统的支持、多
GPU
训练等。这一年,Py
科学禅道
·
2024-01-26 00:23
PyTorch
pytorch
人工智能
python
深度学习
开源
计算机视觉
音视频
如何高效安装MindSpore的
GPU
版本
MindSpore的
GPU
版本以前的安装指南,只写清楚了安装依赖,但没有明确指出安装具体执行的命令,缺乏实操性,比较依赖开发者自身的能力去完成安装,导致开发者在安装过程中会出现一些影响安装效率的问题。
iambowen
·
2024-01-25 23:21
Python中的多线程和多进程编程
Python中的多线程和多进程编程是实现并发和
并行计算
的重要手段。下面分别介绍这两种编程方式。多线程编程Python中的多线程编程可以使用内置的threading模块来实现。
api77
·
2024-01-25 22:27
api
电商api
java
开发语言
观察者模式
大数据
python
PyTorch踩过的12坑精选
nn.Module.cuda()和Tensor.cuda()的作用效果差异无论是对于模型还是数据,cuda()函数都能实现从CPU到
GPU
的内存迁移,但是他们的作用效果有所不同。
头顶一根发的程序猿
·
2024-01-25 21:42
算力服务器有哪些优势?
算力服务器对于其它普通的服务器来说,算力服务器可以配置多个高性能的CPU核心,这会使算力服务器可以快速的完成一些复杂的任务,有着高效的计算能力,同时多个高性能的
GPU
可
wanhengwangluo
·
2024-01-25 19:26
服务器
网络
安全
服务
CUDA学习笔记8——
GPU
硬件资源
简单来说就是为了充分利用
GPU
,不要让分出去的CUDA核心摸鱼闲置;
GPU
每次干活,都是以最小的组分配的,因此分派任务的时候就尽量充分发挥每个小组里CUDA核心的作用。
阿卡蒂奥
·
2024-01-25 19:24
CUDA
学习
笔记
AS自带模拟器 Your
GPU
driver information
我出现这个错误是在更新2.3.3版本后出现的.目前只找到这种很麻烦的解决方法.有其他更好的解决方案的同学请分享下.谢谢用命令启动:emulator-avdavd_name-
gpu
mode先找到avd目录
喂_balabala
·
2024-01-25 18:31
移动端Alpha Test为啥费性能?
调查了下现在移动端的
GPU
厂商,主要有Imagenationtechnology公司的PowerVR系列高通的骁龙系列,Mali的MP系列。
SwordMaster
·
2024-01-25 18:20
1、OpenGL快速入门
OpenGL/OpenGLES/Metal在任何项⽬目中解决问题的本质就是利用
GPU
芯片来高效渲染图形图像.图形API是iOS开发者唯一接近
GPU
的⽅方式.图形API简介OpenGL(OpenGraphicsLibrary
Jack__Lee
·
2024-01-25 15:45
Redis 6.0多线程模型比单线程优化在哪里了
推荐阅读项目实战:AI文本OCR识别最佳实践AIGamma一键生成PPT工具直达链接玩转cloudStudio在线编码神器玩转
GPU
AI绘画、AI讲话、翻译,
GPU
点亮AI想象空间资源分享史上最全文档AI
KK_crazy
·
2024-01-25 15:02
redis
java
数据库
CUDA笔记3
CUDA编程
-入门、加法、乘法例子1:入门#include__global__voidhello_from_
gpu
(){constintbid=blockIdx.x;constinttid=threadIdx.x
tensor.shape
·
2024-01-25 15:01
CUDA
笔记
算法
Cuda笔记1
1、培训00111+…+100,CPU是串行执行,
GPU
是分成几部分同时计算,如1+2+3,4+5+6…2、培训002一来一回每种定义有对应的调用位置,和执行位置,不对会报错。
tensor.shape
·
2024-01-25 15:58
CUDA
笔记
系统登录的时候的密码如何做到以加密的形式进行登录【java.security包下的api】工具类。
publicKey普通的publicKey*@return:RSAPublicKey得到一个新的RSAPublicKey**/publicstaticRSAPublicKeygetPublicKey(Strin
gpu
blic
阿文弟
·
2024-01-25 14:04
java
开发语言
Qt+YOLOv4实现目标检测
深度学习
GPU
环境CUDA安装教程2.编译YOLOYOL
QtHalcon
·
2024-01-25 14:01
计算机视觉
qt
目标检测
yolo
大语言模型推理提速:TensorRT-LLM 高性能推理实践
当前LLM模型推理的主要瓶颈是
GPU
显存资源不足。因此,各类加速框
阿里云云原生
·
2024-01-25 13:00
语言模型
人工智能
自然语言处理
查看Pytorch的
GPU
是否可用
查看Pytorch的
GPU
是否可用importtorchtorch.cuda.is_available()返回为True表示Pytorch的
GPU
可用,返回为False表示Pytorch的
GPU
不可用。
鱼儿也有烦恼
·
2024-01-25 13:47
深度学习
pytorch
人工智能
python
Windows配置
GPU
环境
1、重装了电脑显卡:显卡版本号为nvidiaquadroP2000,重装之前nvidia控制面板--帮助--系统信息中的NVCUDA64.dll对应的产品名称为Nvidiacuda10.0driver下载重装后发现为Nvidiacuda11.2.66driver(主要也没有找到10.0的版本了...)2、下载并安装了VisualStudiocommunity--有些教程说要安装,然后编译bandw
沉默魔导师LV7
·
2024-01-25 12:21
上一页
13
14
15
16
17
18
19
20
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他