E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CUDA从入门到实践
深度学习基础知识
cuda
简介:
CUDA
(ComputeUnifiedDeviceArchitecture)是由NVIDIA开发的一种并行计算平台和应用程序编程接口(API)。
namelijink
·
2025-02-15 15:22
深度学习
人工智能
如何在我的电脑上查看是否安装
cuda
12?我现在在我的VS中新建项目时,里面多出来一个
CUDA
12.4 runtime,这是什么?是不是使用
CUDA
cpp进行编程?
在你的电脑上检查是否安装了
CUDA
12,可以通过以下几种方法:1.检查
CUDA
Toolkit安装目录查看
CUDA
安装目录:-默认情况下,
CUDA
Toolkit安装在C:\ProgramFiles\NVIDIAGPUComputingToolkit
吃榴莲的小鳄鱼
·
2025-02-15 15:21
电脑
windows 安装nvidaia驱动和
cuda
安装nvidaia驱动和
cuda
官网搜索下载驱动https://www.nvidia.cn/drivers/lookup/这里查出来的都是最高支持什么版本的
cuda
安装时候都默认精简就行官网下载所需版本的
njl_0114
·
2025-02-15 14:14
配置环境
windows
tensorrt推理 onxx转engine代码(python),cyclegan网络推理(python、C++)
将onnx文件导出为engine,FP16格式importtensorrtastrtimportpy
cuda
.driveras
cuda
importpy
cuda
.autoinit#加载ONNX文件onnx_file_path
maobin_1
·
2025-02-14 10:04
python
c++
模型实战(19)之 从头搭建yolov9环境+tensorrt部署+
CUDA
前处理 -> 实现目标检测
从头搭建yolov9环境+tensorrt部署实现目标检测yolov9虚拟环境搭建实现训练、推理与导出导出onnx并转为tensorrt模型Python\C++-trt实现推理,
CUDA
实现图像前处理文中将给出详细实现源码
明月醉窗台
·
2025-02-14 09:59
#
深度学习实战例程
目标检测
人工智能
计算机视觉
图像处理
YOLO
GPU(Graphics Processing Unit)详解
关键特性:高并行度:现代GPU包含数千个计算核心(如NVIDIAH100拥有18,432个
CUDA
核心)。专用内存系统:配备高带宽
美好的事情总会发生
·
2025-02-14 03:32
AI
人工智能
嵌入式硬件
硬件工程
ai
python 学习路线
学习顺序《python编程:
从入门到实践
》《Head-FirstPython》《“笨方法”学python3》《PythonCookbook》《Python机器学习基础教程》《FluentPython》《
Coding Happily
·
2025-02-13 11:05
python
学习
windows
Kivy 模块使用python语言编译android可用的apk——开篇
学习本专栏前,请学习kivy的基本操作,可以参考我之前的免费专栏内容:《Python+Kivy(App开发)
从入门到实践
》自学笔记:Python文件+.kv文件实现“Helloworld”_kivykv
静候光阴
·
2025-02-13 08:18
Kivy编译apk技术全面解析
android
python
kivy
ubntu
linux
buildozer
用Llama Factory单机多卡微调Qwen2.5时报torch.OutOfMemoryError:
CUDA
out of memory的解决办法
接着上一篇博客:在Ubuntu上用LlamaFactory命令行微调Qwen2.5的简单过程_llamafactory微调qwen2.5-CSDN博客如果需要微调比较大的模型,例如Qwen2.5-32B,那么在两个3090上可能不够用,这里我用A6000×4的服务器。但如果仿照上篇博客,直接运行:llamafactory-clitrainexamples/train_qlora/qwen_lora
蛐蛐蛐
·
2025-02-12 22:27
大模型
科研工具
Python技巧
llama
人工智能
大模型
CUDA
与CUDPP源码解析及实战应用
本文还有配套的精品资源,点击获取简介:
CUDA
是NVIDIA推出的并行计算平台,CUDPP是一个提供GPU优化算法的开源库。
昊叔Crescdim
·
2025-02-12 19:06
【ai】李沐 动手深度学学v2 环境安装:anaconda3、pycharm、d2
cuda
-toolkit
cuda
_12.5.0_windows_network.exe官方课程网站第二版资源下载release版本pycharm版本李沐【动手学深度学习v2PyTorch版】课程笔记
CUDA
等风来不如迎风去
·
2025-02-12 15:05
AI入门与实战
人工智能
Node.js中的npm包:
从入门到实践
指南
目录一、npm的核心概念二、npm核心命令与工作流三、package.json深度解析四、高级技巧与最佳实践五、常见问题解决方案六、未来趋势在Node.js生态中,npm(NodePackageManager)是开发者不可或缺的工具。它不仅是全球最大的开源软件注册中心,更是项目依赖管理的核心。本文将深入解析npm的核心概念、使用方法及最佳实践,助你高效管理项目依赖。一、npm的核心概念什么是npm
前端Kingtato
·
2025-02-12 14:58
Node.js
node.js
npm
前端
llama-cpp-python
CUDA
error问题
安装完cuBLAS(
CUDA
)版本的llama-cpp-pythonCMAKE_ARGS="-DLLAMA_CUBLAS=on"pipinstallllama-cpp-python跑模型,指定n_gpu_layers
0语1言
·
2025-02-12 09:31
python
人工智能
llama
linux
报错:检测不到
cuda
解决方案
存在nvcc:NVIDIA®
Cuda
compilerdriverCopyright©20
H_Shelly
·
2025-02-11 15:49
pytorch
CUDA
检测失败的解决方案
CUDA
检测失败的解决方案在使用Python进行
CUDA
编程时,有时候会遇到"
CUDA
detectionfailed"的错误信息。这个错误通常表示
CUDA
驱动程序无法正确地检测到
CUDA
设备。
HackDashX
·
2025-02-11 15:49
Python
Transformer 的辉煌与大模型方向确立,点燃AGI之火把
技术壁垒:模型,技术,开源
CUDA
壁垒:PTX编程更加底层,大量中国硬件公司,可以适配Transformer架构的奠基2017年,Vaswani等人发表了开创性论文《AttentionisAllY
dingcb168
·
2025-02-11 07:47
搜索引擎
自然语言处理
Go语言在后端开发中的应用:
从入门到实践
前言随着互联网的发展,后端开发技术也在不断演进。Go语言(又称Golang)自2009年发布以来,以其简洁、高效和并发性强的特点,逐渐在后端开发中占据一席之地。无论是构建Web应用、微服务,还是开发高并发的系统,Go都展现出了巨大的潜力。本篇文章将带你了解Go语言的核心特点,并通过实例演示如何在后端开发中应用Go。1.为什么选择Go语言?1.1简洁易学Go语言的语法设计简洁,初学者可以在短时间内掌
小于负无穷
·
2025-02-11 01:30
开发语言
后端
gin
golang
【ubuntu24.04】GTX4700 配置安装
cuda
筛选显卡驱动显卡驱动NVIDIA-Linux-x86_64-550.135.run而后重启:最新的是12.6用于ubuntu24.04,但是我的4700的显卡驱动要求12.4
cuda
等风来不如迎风去
·
2025-02-11 01:58
AI入门与实战
cuda
ubuntu24.04
显卡
深度学习
【LangChain编程:
从入门到实践
】构建记忆系统
【LangChain编程:
从入门到实践
】构建记忆系统关键词:LangChain,编程范式,记忆系统,对话系统,AI,NLP,知识库,推理1.背景介绍在人工智能领域,对话系统的研究与应用已经取得了显著的进展
杭州大厂Java程序媛
·
2025-02-11 01:57
DeepSeek
R1
&
AI人工智能与大数据
java
python
javascript
kotlin
golang
架构
人工智能
DeepSpeed 在三台T4卡上部署deepseek-r1:32b
步骤:安装
CUDA
和cuDNN:确保你在每台机器上安装了与T4GPU兼容的
CUDA
和cuDNN版本,通常
CUDA
11.0或更高版本。安装
CUDA
:N
MonkeyKing.sun
·
2025-02-10 14:33
deepspeed
模型
【深度学习】无Linux管理员权限,照样可以安装
CUDA
以下演示内容使用
CUDA
版本为
CUDA
11.71、官网官网:
CUDA
官网下载地址这里会列出所有的
CUDA
版本,选择需要的版本即可。
土豆炒马铃薯。
·
2025-02-10 05:40
Linux
CUDA
深度学习
linux
服务器
深度学习
pytorch
解决Pytorch的cuDNN error: CUDNN_STATUS_NOT_INITIALIZED
目录1.问题报错2.可能原因2.1GPU内存不足2.2缓存问题2.3
CUDA
和Pytorch版本不兼容2.4
CUDA
和cuDNN版本不兼容3.验证
CUDA
是否可用4.参考1.问题报错在使用GPU加速模型训练的过程中经常会遇到这样的错误
Jurio.21
·
2025-02-10 00:31
Python
科研经验
Pytorch
pytorch
人工智能
python
GPU
CUDA
cuDNN
CUDA
环境配置
本文介绍Ubuntu14.04下
CUDA
环境的安装过程标签高性能计算(HPC)并行化加速学习
CUDA
最好的去处还是NVIDIA官网,上面许多文档写的都相当不错,比如
CUDA
编程指南、如何使用cuRand
波小澜
·
2025-02-10 00:29
CUDA
cuda
ubuntu
环境配置
【PyTorch 】【
CUDA
】深入了解 PyTorch 中的
CUDA
和 cuDNN 版本及 GPU 信息
目录引言一、环境准备1.1重要的环境依赖1.2安装
CUDA
和cuDNN1.3示例安装步骤1.4PyTorch、
CUDA
和cuDNN版本兼容性表二、检查
CUDA
和cuDNN版本三、检查GPU可用性四、测试
丶2136
·
2025-02-10 00:27
#
cuda
AI
#
pytorch
pytorch
人工智能
gpu算力
CUDA
学习笔记之程序栈
runtimeapi使用
cuda
rt动态库,以
cuda
为前缀。而driverapi使用
cuda
动态库,在使用前要包含相应的库文件,以c
cs199503
·
2025-02-09 19:26
python
runtime
【
CUDA
】 GPU与CPU体系结构对比
1.GPU与CPU运算性能对比在面对并行任务处理时,CPU与GPU的体系结构在设计理念上有着根本的区别。CPU注重通用性来处理各种不同的数据类型,同时支持复杂的控制指令,比如条件转移、分支、循环、逻辑判断及子程序调用等,因此CPU微架构的复杂性高,是面向指令执行的高效率而设计的。GPU最初是针对图形处理领域而设计的。图形运算的特点是大量同类型数据的密集运算,因此GPU微架构是面向这种特点的计算而设
WHAT816
·
2025-02-09 05:16
CUDA学习分享
c语言
ext的
cuda
EXT做为与用户交互的前端,其功能可以概括为:生成用户界面,与用户实现交互,并与程序(PHP,.NET等)后台通信来完成与用户的交互。生成用户界面:EXT被广泛接受认可的原因之一便是他拥有良好的用户外观。一个系统中最主要的功能便是实现CRUD(新增,读取,更新,删除),同时还有查询。为了将这些功能集中在一起,特意封装了一个EXT的CRUD面板,将这些常用的功能封装成一个类,以便创建易用性良好的界面
rdman84
·
2025-02-09 02:22
EXT
老榕树的Java专题:Redis
从入门到实践
一、引言在当今的软件开发领域,数据的高效存储和快速访问是至关重要的。Redis(RemoteDictionaryServer)作为一个开源的、基于内存的数据结构存储系统,因其高性能、丰富的数据类型和广泛的应用场景,成为了众多开发者的首选。本文将详细介绍Redis的基本概念、数据类型、使用场景以及实际操作示例,帮助你快速掌握Redis的使用。二、Redis简介2.1定义Redis是一个使用ANSIC
程序员_老榕树
·
2025-02-08 21:17
树哥java专题:从0到1
java
redis
开发语言
AWS 开始指南:
从入门到实践
AWS开始指南:
从入门到实践
Getting-StartedGettingStartedwiththeAWSCookbook项目地址:https://gitcode.com/gh_mirrors/gettings
韶格珍
·
2025-02-08 19:32
GROMACS-2023.2 安装(GPU加速)
预装:1,cmake3.25.2安装,路径加入到bashrc2,gcc版本9.3,路径加入到bashrc3,fftw版本3.3.104,Openmpi4.1.1路径加入到bashrc5,
cuda
12.1
咸鱼啦啦
·
2025-02-08 18:56
linux
服务器
经验分享
Ubuntu20.04+GeForce RTX 2080 SUPER+
cuda
11.1+cudnn8.0.4+openCV4.4.0环境搭建
链接在此:Ubuntu20.04+GeForceRTX2080SUPER+
cuda
11.1+cudnn8.0.4+openCV4.4.0环境搭建出现的问题1:ubuntu20.04安装libpng12-
pkuyjxu
·
2025-02-08 08:06
cuda
ubuntu
2025年大年初一篇,C#调用GPU并行计算推荐
以下是一些在C#中比较常用且好用的调用GPU的库:1.
CUDA
fy.NET特点:
CUDA
fy.NET是一个开源库,可以将C#代码转换为
CUDA
代码,支持在NVIDI
zzlyx99
·
2025-02-08 02:30
c#
开发语言
Java 8 Lambda表达式详解:
从入门到实践
文章目录1.引言:告别匿名内部类,拥抱Lambda2.Lambda表达式初探:匿名函数的魅力2.1什么是Lambda?2.2Lambda表达式与匿名内部类的对比3.Lambda的基石:函数式接口3.1什么是函数式接口?3.2Lambda表达式与函数式接口的关系4.实战演练:环绕执行模式的Lambda化4.1经典模式回顾4.2Lambda重塑环绕执行5.Java8的函数式接口工具箱5.1`Predi
全端工程师
·
2025-02-08 02:00
java学习笔记
java
ubuntu22.04搭建qt交叉编译环境
qt交叉编译环境教程,方便在上位机开发下位机应用程序主机交叉编译Qt5.15.15代码一、编译环境和开发版本介绍二、准备下载的文件三、配置和编译四、编译中遇到的问题五、上位机qtCreat配置六、一个
cuda
YYRAN_ZZU
·
2025-02-07 16:56
qt
linux
c++
deepseek本地部署会遇到哪些坑
解决方案:确认GPU支持
CUDA
,检查显存需求(如至少16GB显存)。使用nvidia-smi监控显存,通过降低batch_size或模型量化(如FP16/INT8)优化资源。
skyksksksksks
·
2025-02-07 11:49
AI个人杂记
人工智能
深度学习
神经网络
自然语言处理
Ollama AI 开发助手完全指南:
从入门到实践
本文将详细介绍如何使用OllamaAI开发助手来提升开发效率,包括环境搭建、模型选择、最佳实践等全方位内容。©ivwdcwso(ID:u012172506)目录基础环境配置模型选择与使用开发工具集成实践应用场景性能优化与注意事项最佳实践总结一、基础环境配置1.1系统要求在开始使用Ollama之前,请确保您的系统满足以下基本要求:硬件配置:CPU:4核心及以上内存:至少16GBRAM显卡:基础使用:
ivwdcwso
·
2025-02-07 08:36
开发
人工智能
Ollama
开发
AI
【AI基础】K8S环境使用GPU--Kubernetes环境(三)
一、概述以常见的NVIDIAGPU为例,系统为Linux1.1裸机环境BMS安装对应的GPUDriver(GPU驱动),以及
CUDA
Toolkit1.2Docker环境需额外安装nvidia-container-toolkit
赛博Talk
·
2025-02-07 07:26
AI基础入门
人工智能
kubernetes
docker
gpu算力
AI编程
anaconda中安装tensorflow1.15以及Jupyter
anaconda中安装tensorflow1.15以及Jupyter1.安装TensorFlow1.15tensorflow1.15+
cuda
10.0+cudnn7.4PackagesNotFoundError
hou_hbl
·
2025-02-07 04:35
python
tensorflow
深度学习
Ubuntu为julia安装深度学习框架MXNet(支持
CUDA
和OPenCV编译)
Ubuntu为julia安装深度学习框架MXNet(支持
CUDA
和OPenCV编译)环境介绍与注意事项下载源文件安装依赖编译环境配置安装MXNet测试后记环境介绍与注意事项Ubuntu18.04julia1.5.3
CUDA
10.1
盼小辉丶
·
2025-02-06 21:15
julia
深度学习
cmake
linux
mxnet
julia
language
深度学习
深度学习No module named ‘torchvision.transforms.functional_tensor‘问题解决
关于我的环境:
CUDA
==12.1torch==2.4.1GPU==4090D原先进行深度学习用的
CUDA
11.3,torch1.2.1,但是在训练时出现nvrtc:error:in
winrisef
·
2025-02-06 11:44
YOLO
深度学习
人工智能
python
conda
昇腾设备torch_npu推理配置
1.Ascend310B1的npu推理思路在昇腾Ascend310B1NPU上基于PyTorch进行推理时,通过torch_npu替换原有GPU/
CUDA
操作。
时间逝世298
·
2025-02-05 20:21
pytorch
深度学习
人工智能
【LangChain编程:
从入门到实践
】代码实践
【LangChain编程:
从入门到实践
】代码实践1.背景介绍1.1人工智能的发展历程人工智能(ArtificialIntelligence,AI)是当代科技领域最具革命性和颠覆性的技术之一。
AI天才研究院
·
2025-02-05 14:09
计算
大数据AI人工智能
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
【LangChain编程:
从入门到实践
】容错机制
【LangChain编程:
从入门到实践
】容错机制1.背景介绍1.1问题的由来在软件开发和编程的世界里,容错机制是不可或缺的一部分。
AI大模型应用之禅
·
2025-02-05 14:05
AI大模型与大数据
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
Linux的
cuda
安装找不到路径,
Cuda
安装详细步骤
为了学习Caffe新买了笔记本,安装
cuda
时遇到了很多问题,不过好在都成功的解决了。
Tom K
·
2025-02-05 11:14
CUDA
Toolkit安装和验证
一、
cuda
下载网址https://developer.nvidia.com/
cuda
-toolkit-archive二、Win10下载安装三、ubuntu22下载安装3.1
cuda
toolkit下载3.2
乒乓球爱好AI
·
2025-02-05 11:44
人工智能
深度学习
linux
Linux 平台上安装 NVIDIA GPU 驱动和
CUDA
Toolkit
在Linux平台上安装NVIDIAGPU驱动和
CUDA
Toolkit的步骤如下:###1.安装NVIDIAGPU驱动####步骤1:更新系统首先,确保你的系统是最新的:```bashsudoaptupdatesudoaptupgrade
weifengma-wish
·
2025-02-05 11:43
深度学习
gpu算力
DeepSeek安装部署指南
CUDA
和GPU驱动(如果需要GPU加速)。pip和virtualenv(推荐使用虚拟环境)。2.安装DeepSeek克隆DeepSeek仓库(假设DeepSeek已发布为开源项目):gi
SAFE20242034
·
2025-02-05 11:11
AIGC
在LINUX上安装英伟达
CUDA
Toolkit
下载安装包wgethttps://developer.download.nvidia.com/compute/
cuda
/12.8.0/local_installers/
cuda
-repo-rhel8-12
云道轩
·
2025-02-05 11:41
linux
人工智能
PyTorch +
CUDA
环境配置
从目前的情况来看,
CUDA
版本和PyTorch和Py自身版本是绑定的,而cuDNN和
CUDA
的大版本绑定,而其中主要受限的其实是PyTorch支持的
CUDA
版本,因此,这里采用
CUDA
来适配PyTorch
weixin_54533760
·
2025-02-05 04:28
pytorch
深度学习
python必读书单
父与子的编程之旅:与小卡特一起学Python[HOT]Python2.7和孩子一起玩编程Python2.7零压力学PythonPython3.0,但也指出了如何修改示例,以支持Python2.0Python编程:
从入门到实践
Vin0sen
·
2025-02-05 02:08
python
开发语言
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他