E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
并行计算-CUDA
Docker安装分布式vLLM
CUDA
Version:12.4
MasonYyp
·
2025-02-18 13:49
docker
分布式
容器
判断是否安装了
cuda
和cuDNN
#判断是否安装了
cuda
importtorchprint(torch.
cuda
.is_available())#返回True则说明已经安装了
cuda
#判断是否安装了cuDNNfromtorch.backendsimportcudnnprint
幽殇默
·
2025-02-17 23:25
pytorch
深度学习
人工智能
[C#]C#使用yolov8的目标检测tensorrt模型+bytetrack实现目标追踪
【测试通过环境】win10x64vs2019
cuda
11.7+cudnn8.8.0TensorRT-8.6.1.6opencvsharp==4.9.0.NETFramework4.7.2NVIDIAGeForceRTX2070Super
FL1623863129
·
2025-02-17 23:55
深度学习
c#
YOLO
目标检测
【Stable Diffusion部署至GNU/Linux】安装流程
显卡与计算架构介绍
CUDA
是NVIDIAGPU的专用
并行计算
架构技术层级说明
CUDA
Toolkit提供GPU编译器(nvcc)、数学库(cuBLAS)等开发工具cuDNN深度神经网络加速库(需单独下载)
星星点点洲
·
2025-02-17 00:34
stable
diffusion
【vLLM 学习】安装
更多vLLM中文文档及教程可访问→https://vllm.hyper.ai/vLLM是一个Python库,包含预编译的C++和
CUDA
(12.1)二进制文件。
·
2025-02-16 23:25
ubuntu完全卸载
cuda
(备忘)
cuda
的卸载方法网上都有很多,这些方法大同小异,几乎都是错的,我在卸载
cuda
时基本试了个遍,各种踩坑。
fengsongdehappy
·
2025-02-16 10:49
ubuntu
linux
运维
DeepSeek 大模型离线 Docker 部署技术指南
DeepSeek离线部署采用容器化微服务架构,核心组件包括:模型服务层:基于TritonInferenceServer的模型推理容器API网关层:FastAPI实现的REST/gRPC接口服务资源管理层:
CUDA
-awareDocker
容器的搬运工
·
2025-02-16 04:32
docker
eureka
容器
【服务器】ubuntu20.04安装
cuda
12.01(使用runfile安装)
【服务器】ubuntu20.04安装
cuda
12.01(使用runfile安装)包教包会【创作不易,求关注收藏点赞】商业合作请私聊,有问题可以评论或者私聊!
弹伦琴的雷登
·
2025-02-15 15:57
服务器相关知识
linux相关知识
服务器
运维
linux
深度学习基础知识
cuda
简介:
CUDA
(ComputeUnifiedDeviceArchitecture)是由NVIDIA开发的一种
并行计算
平台和应用程序编程接口(API)。
namelijink
·
2025-02-15 15:22
深度学习
人工智能
如何在我的电脑上查看是否安装
cuda
12?我现在在我的VS中新建项目时,里面多出来一个
CUDA
12.4 runtime,这是什么?是不是使用
CUDA
cpp进行编程?
在你的电脑上检查是否安装了
CUDA
12,可以通过以下几种方法:1.检查
CUDA
Toolkit安装目录查看
CUDA
安装目录:-默认情况下,
CUDA
Toolkit安装在C:\ProgramFiles\NVIDIAGPUComputingToolkit
吃榴莲的小鳄鱼
·
2025-02-15 15:21
电脑
windows 安装nvidaia驱动和
cuda
安装nvidaia驱动和
cuda
官网搜索下载驱动https://www.nvidia.cn/drivers/lookup/这里查出来的都是最高支持什么版本的
cuda
安装时候都默认精简就行官网下载所需版本的
njl_0114
·
2025-02-15 14:14
配置环境
windows
【笔记】使用 Pytorch 进行分布式训练
最简单的数据并行作为最简单的
并行计算
方式,使用nn.Data
LittleNyima
·
2025-02-14 23:49
人工智能
深度学习
pytorch
分布式
python使用ray框架改进原有代码,实现多进程与分布式
安装依赖:pipinstall-ihttps://mirrors.aliyun.com/pypi/simple/'ray[default]'ray框架可以在几乎不改变现有代码的基础上实现分布式与
并行计算
呆萌的代Ma
·
2025-02-14 20:54
python
python
Python 魔法学院 - 第24篇:Python 解释器优化 ⭐⭐⭐
的优势1.1.2Cython的简单示例1.1.3Cython的适用场景1.2PyPy1.2.1PyPy的优势1.2.2PyPy的简单示例1.2.3PyPy的适用场景1.3Cython与PyPy的对比2.
并行计算
与分布式计算
星核日记
·
2025-02-14 16:57
《Python
魔法学院》
python
开发语言
pycharm
windows
Python
性能优化
我国化学信息学研究的地位与近期研究进展
在理论与计算化学研究中,基于第一性原理的新型
并行计算
方法被提出并用于纳米材料电子结构的高效计算[24],轨道分解方法被用来简化磁性质的四分量相对论计算[25]。
xoaxo
·
2025-02-14 10:07
算法
优化
生物
数据库
网络
工作
tensorrt推理 onxx转engine代码(python),cyclegan网络推理(python、C++)
将onnx文件导出为engine,FP16格式importtensorrtastrtimportpy
cuda
.driveras
cuda
importpy
cuda
.autoinit#加载ONNX文件onnx_file_path
maobin_1
·
2025-02-14 10:04
python
c++
模型实战(19)之 从头搭建yolov9环境+tensorrt部署+
CUDA
前处理 -> 实现目标检测
从头搭建yolov9环境+tensorrt部署实现目标检测yolov9虚拟环境搭建实现训练、推理与导出导出onnx并转为tensorrt模型Python\C++-trt实现推理,
CUDA
实现图像前处理文中将给出详细实现源码
明月醉窗台
·
2025-02-14 09:59
#
深度学习实战例程
目标检测
人工智能
计算机视觉
图像处理
YOLO
GPU(Graphics Processing Unit)详解
GPU(GraphicsProcessingUnit)详解1.GPU的定义与核心特性GPU(图形处理器)是一种专为
并行计算
和图形渲染优化的处理器。
美好的事情总会发生
·
2025-02-14 03:32
AI
人工智能
嵌入式硬件
硬件工程
ai
用Llama Factory单机多卡微调Qwen2.5时报torch.OutOfMemoryError:
CUDA
out of memory的解决办法
接着上一篇博客:在Ubuntu上用LlamaFactory命令行微调Qwen2.5的简单过程_llamafactory微调qwen2.5-CSDN博客如果需要微调比较大的模型,例如Qwen2.5-32B,那么在两个3090上可能不够用,这里我用A6000×4的服务器。但如果仿照上篇博客,直接运行:llamafactory-clitrainexamples/train_qlora/qwen_lora
蛐蛐蛐
·
2025-02-12 22:27
大模型
科研工具
Python技巧
llama
人工智能
大模型
CUDA
与CUDPP源码解析及实战应用
本文还有配套的精品资源,点击获取简介:
CUDA
是NVIDIA推出的
并行计算
平台,CUDPP是一个提供GPU优化算法的开源库。
昊叔Crescdim
·
2025-02-12 19:06
【ai】李沐 动手深度学学v2 环境安装:anaconda3、pycharm、d2
cuda
-toolkit
cuda
_12.5.0_windows_network.exe官方课程网站第二版资源下载release版本pycharm版本李沐【动手学深度学习v2PyTorch版】课程笔记
CUDA
等风来不如迎风去
·
2025-02-12 15:05
AI入门与实战
人工智能
Joblib - Python轻量流水线工具
#joblib具有以下功能:#透明的磁盘缓存功能和“懒惰”执行模式,简单的
并行计算
#joblib对numpy大型矩阵进行了特定的优化,简单快速importtime,mathfromjoblibimportParallel
Think@
·
2025-02-12 11:11
llama-cpp-python
CUDA
error问题
安装完cuBLAS(
CUDA
)版本的llama-cpp-pythonCMAKE_ARGS="-DLLAMA_CUBLAS=on"pipinstallllama-cpp-python跑模型,指定n_gpu_layers
0语1言
·
2025-02-12 09:31
python
人工智能
llama
linux
Unity Dots理论学习-3.ECS有关的模块(2)
使用Burst可以大大提高
并行计算
的性能和可扩展性,正如以下图像所示:然而,需要注意的是,Burst只
keep-learner
·
2025-02-12 04:24
Unity
unity
学习
游戏引擎
报错:检测不到
cuda
解决方案
存在nvcc:NVIDIA®
Cuda
compilerdriverCopyright©20
H_Shelly
·
2025-02-11 15:49
pytorch
CUDA
检测失败的解决方案
CUDA
检测失败的解决方案在使用Python进行
CUDA
编程时,有时候会遇到"
CUDA
detectionfailed"的错误信息。这个错误通常表示
CUDA
驱动程序无法正确地检测到
CUDA
设备。
HackDashX
·
2025-02-11 15:49
Python
川翔云电脑是什么?租电脑?
多卡模式下,RTX4090plus
并行计算
能力大幅提升,能处理高显存需求的复杂任务。在超高清视频剪辑中,无论是8K还是
渲染101专业云渲染
·
2025-02-11 11:55
电脑
服务器
运维
Transformer 的辉煌与大模型方向确立,点燃AGI之火把
技术壁垒:模型,技术,开源
CUDA
壁垒:PTX编程更加底层,大量中国硬件公司,可以适配Transformer架构的奠基2017年,Vaswani等人发表了开创性论文《AttentionisAllY
dingcb168
·
2025-02-11 07:47
搜索引擎
自然语言处理
【ubuntu24.04】GTX4700 配置安装
cuda
筛选显卡驱动显卡驱动NVIDIA-Linux-x86_64-550.135.run而后重启:最新的是12.6用于ubuntu24.04,但是我的4700的显卡驱动要求12.4
cuda
等风来不如迎风去
·
2025-02-11 01:58
AI入门与实战
cuda
ubuntu24.04
显卡
深度学习
均薪23W还缺人,FPGA工程师到底有多重要?
尤其是在高性能计算、边缘计算等场景下,FPGA凭借其高
并行计算
能力和灵活性,成为不可或缺的技术方案。
博览鸿蒙
·
2025-02-10 20:22
FPGA
fpga开发
100.12 AI量化面试题:量化金融中什么是蒙特卡罗模拟?
目录0.承前1.解题思路1.1基础概念维度1.2应用场景维度1.3实践实现维度2.基础实现方法2.1几何布朗运动模拟2.2期权定价实现3.高级优化技术3.1方差缩减方法3.2
并行计算
实现4.风险度量应用
AI量金术师
·
2025-02-10 15:17
金融资产组合模型进化论
人工智能
金融
python
DeepSpeed 在三台T4卡上部署deepseek-r1:32b
步骤:安装
CUDA
和cuDNN:确保你在每台机器上安装了与T4GPU兼容的
CUDA
和cuDNN版本,通常
CUDA
11.0或更高版本。安装
CUDA
:N
MonkeyKing.sun
·
2025-02-10 14:33
deepspeed
模型
【深度学习】无Linux管理员权限,照样可以安装
CUDA
以下演示内容使用
CUDA
版本为
CUDA
11.71、官网官网:
CUDA
官网下载地址这里会列出所有的
CUDA
版本,选择需要的版本即可。
土豆炒马铃薯。
·
2025-02-10 05:40
Linux
CUDA
深度学习
linux
服务器
深度学习
pytorch
算力机房选择RoCE还是InfiniBand(IB)
这允许高吞吐、低延迟的网络通信,尤其适合在大规模
并行计算
机集群中使用。RDMA技术有
helpme流水
·
2025-02-10 03:52
人工智能
云计算
解决Pytorch的cuDNN error: CUDNN_STATUS_NOT_INITIALIZED
目录1.问题报错2.可能原因2.1GPU内存不足2.2缓存问题2.3
CUDA
和Pytorch版本不兼容2.4
CUDA
和cuDNN版本不兼容3.验证
CUDA
是否可用4.参考1.问题报错在使用GPU加速模型训练的过程中经常会遇到这样的错误
Jurio.21
·
2025-02-10 00:31
Python
科研经验
Pytorch
pytorch
人工智能
python
GPU
CUDA
cuDNN
CUDA
环境配置
本文介绍Ubuntu14.04下
CUDA
环境的安装过程标签高性能计算(HPC)并行化加速学习
CUDA
最好的去处还是NVIDIA官网,上面许多文档写的都相当不错,比如
CUDA
编程指南、如何使用cuRand
波小澜
·
2025-02-10 00:29
CUDA
cuda
ubuntu
环境配置
【PyTorch 】【
CUDA
】深入了解 PyTorch 中的
CUDA
和 cuDNN 版本及 GPU 信息
目录引言一、环境准备1.1重要的环境依赖1.2安装
CUDA
和cuDNN1.3示例安装步骤1.4PyTorch、
CUDA
和cuDNN版本兼容性表二、检查
CUDA
和cuDNN版本三、检查GPU可用性四、测试
丶2136
·
2025-02-10 00:27
#
cuda
AI
#
pytorch
pytorch
人工智能
gpu算力
CUDA
学习笔记之程序栈
runtimeapi使用
cuda
rt动态库,以
cuda
为前缀。而driverapi使用
cuda
动态库,在使用前要包含相应的库文件,以c
cs199503
·
2025-02-09 19:26
python
runtime
MapReduce是什么?
它是分布式计算的一个重要概念,通常用于处理海量数据并进行
并行计算
。MapReduce的基本思想是将计算任务分解为两个阶段:Map阶段和Reduce阶段。
头发那是一根不剩了
·
2025-02-09 16:03
mapreduce
大数据
【
CUDA
】 GPU与CPU体系结构对比
1.GPU与CPU运算性能对比在面对并行任务处理时,CPU与GPU的体系结构在设计理念上有着根本的区别。CPU注重通用性来处理各种不同的数据类型,同时支持复杂的控制指令,比如条件转移、分支、循环、逻辑判断及子程序调用等,因此CPU微架构的复杂性高,是面向指令执行的高效率而设计的。GPU最初是针对图形处理领域而设计的。图形运算的特点是大量同类型数据的密集运算,因此GPU微架构是面向这种特点的计算而设
WHAT816
·
2025-02-09 05:16
CUDA学习分享
c语言
AI硬件加速:CPU vs GPU性能对比
AI硬件加速:CPUvsGPU性能对比关键词:人工智能、硬件加速、CPU、GPU、性能对比、硬件架构、
并行计算
、优化策略、项目实战摘要:本文将深入探讨AI硬件加速领域中的两个核心组件:CPU和GPU,通过性能对比分析
AI天才研究院
·
2025-02-09 05:06
AI大模型企业级应用开发实战
Python实战
DeepSeek
R1
&
大数据AI人工智能大模型
java
python
javascript
kotlin
golang
架构
人工智能
大厂程序员
硅基计算
碳基计算
认知计算
生物计算
深度学习
神经网络
大数据
AIGC
AGI
LLM
系统架构设计
软件哲学
Agent
程序员实现财富自由
.NET FrameWork 4.0 新特性
具体来说,本文中将介绍.NET框架4的如下一些新功能和改进特征:应用程序兼容性和部署\内核新功能及改进\托管扩展框架\
并行计算
\网络编程\Web开发\客户端开发\数据\通信和工作流一、应用程序兼容性和部署除了一些在安全
浪子回头了
·
2025-02-09 04:35
asp.net
.net
框架
windows
asp.net
扩展
语言
ext的
cuda
EXT做为与用户交互的前端,其功能可以概括为:生成用户界面,与用户实现交互,并与程序(PHP,.NET等)后台通信来完成与用户的交互。生成用户界面:EXT被广泛接受认可的原因之一便是他拥有良好的用户外观。一个系统中最主要的功能便是实现CRUD(新增,读取,更新,删除),同时还有查询。为了将这些功能集中在一起,特意封装了一个EXT的CRUD面板,将这些常用的功能封装成一个类,以便创建易用性良好的界面
rdman84
·
2025-02-09 02:22
EXT
GROMACS-2023.2 安装(GPU加速)
预装:1,cmake3.25.2安装,路径加入到bashrc2,gcc版本9.3,路径加入到bashrc3,fftw版本3.3.104,Openmpi4.1.1路径加入到bashrc5,
cuda
12.1
咸鱼啦啦
·
2025-02-08 18:56
linux
服务器
经验分享
Ubuntu20.04+GeForce RTX 2080 SUPER+
cuda
11.1+cudnn8.0.4+openCV4.4.0环境搭建
链接在此:Ubuntu20.04+GeForceRTX2080SUPER+
cuda
11.1+cudnn8.0.4+openCV4.4.0环境搭建出现的问题1:ubuntu20.04安装libpng12-
pkuyjxu
·
2025-02-08 08:06
cuda
ubuntu
2025年大年初一篇,C#调用GPU
并行计算
推荐
C#调用GPU库的主要目的是利用GPU的
并行计算
能力,加速计算密集型任务,提高程序性能,支持大规模数据处理,优化资源利用,满足特定应用场景的需求,并提升用户体验。
zzlyx99
·
2025-02-08 02:30
c#
开发语言
ubuntu22.04搭建qt交叉编译环境
qt交叉编译环境教程,方便在上位机开发下位机应用程序主机交叉编译Qt5.15.15代码一、编译环境和开发版本介绍二、准备下载的文件三、配置和编译四、编译中遇到的问题五、上位机qtCreat配置六、一个
cuda
YYRAN_ZZU
·
2025-02-07 16:56
qt
linux
c++
Python 如何使用dask库来并行化Pandas DataFrame
Dask是一个用于
并行计算
的Python库,它可以处理比内存大得多的数据集。
openwin_top
·
2025-02-07 11:21
python编程示例系列二
python
pandas
开发语言
deepseek本地部署会遇到哪些坑
解决方案:确认GPU支持
CUDA
,检查显存需求(如至少16GB显存)。使用nvidia-smi监控显存,通过降低batch_size或模型量化(如FP16/INT8)优化资源。
skyksksksksks
·
2025-02-07 11:49
AI个人杂记
人工智能
深度学习
神经网络
自然语言处理
【AI基础】K8S环境使用GPU--Kubernetes环境(三)
一、概述以常见的NVIDIAGPU为例,系统为Linux1.1裸机环境BMS安装对应的GPUDriver(GPU驱动),以及
CUDA
Toolkit1.2Docker环境需额外安装nvidia-container-toolkit
赛博Talk
·
2025-02-07 07:26
AI基础入门
人工智能
kubernetes
docker
gpu算力
AI编程
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他