E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
并行计算_cuda
cuda
10.1降级(卸载+安装)
1.卸载:实测有用贴:https://blog.csdn.net/qq_34877350/article/details/81185447https://blog.csdn.net/m0_37951243/article/details/90051494https://blog.csdn.net/u012074597/article/details/803172752.安装9.0
Silber666
·
2025-03-25 11:02
怎么在linux服务器选择GPU进行训练模型?
然后选择第0个和第1个GPU进行使用:
CUDA
_VISIBLE_DEVICES=0,1pythontrain.py设置
CUDA
_VISIBLE_D
LRJ-jonas
·
2025-03-25 07:03
python
深度学习
开发语言
【
CUDA
】了解GPU架构
以Fermi架构为例,其包含以下主要组成部分:
CUDA
coresSharedMemory/L1CacheRegisterFileLoad/StoreUnitsSpecialFun
GG_Bond21
·
2025-03-25 04:07
GPU
gpu算力
保姆级大模型学习路线!清华博士耗时半年整理的14个核心阶段,文科生也能跟着冲!(附论文笔记+项目源码+训练技巧)
2023行业调查报告显示:92%学习者停滞在微调阶段,核心痛点集中在:论文看不懂:Transformer源码像天书环境配不好:
CUDA
版本冲突天天报错算力不够用:
大模型入门教程
·
2025-03-25 01:17
学习
人工智能
AI
大模型
大模型学习
大模型教程
大模型入门
深入理解计算机系统_第一章_计算机系统漫游
上下文程序被其他程序翻译成不同的格式了解编译系统如何工作是大有益处的处理器读出并解释存储在内存中的指令系统的硬件组成运行hello程序高速缓存至关重要存储设备形成层次结构操作系统管理硬件进程线程虚拟内存文件系统之间利用网络通信重要主题Amdahl定律并发和
并行计算
机系统中抽象的重要性小结写在前面今天是
真的姜立明
·
2025-03-24 23:36
计算机系统
计算机系统
存储层级结构
程序性能
cache
【AI大模型】搭建本地大模型GPT-NeoX:详细步骤及常见问题处理
1.系统要求1.1硬件要求1.2软件要求操作系统:Linux(推荐Ubuntu20.04或更高版本)
CUDA
:11.2或更高版本Python
qzw1210
·
2025-03-24 09:13
gpt
人工智能
深度学习
vggt 3d重建 相机位姿,新视角生成
vggtimporttorchfromvggt.models.vggtimportVGGTfromvggt.utils.load_fnimportload_and_preprocess_imagesdevice="
cuda
"iftorch.
cuda
.is_available
AI算法网奇
·
2025-03-24 05:32
3D视觉
人工智能
深度学习
SenseVoice 部署记录
首先部署好conda环境和
cuda
,这个可以查看他人的文章。
安静六角
·
2025-03-23 23:09
开源软件
Python读取.nc文件的方法与技术详解
netCDF4库打开.nc文件获取变量读取变量数据案例与代码三、使用xarray库读取.nc文件安装xarray库导入xarray库打开.nc文件访问变量数据案例与代码四、性能与优化分块读取使用Dask进行
并行计算
减少不必要的变量加载五
傻啦嘿哟
·
2025-03-23 22:29
关于python那些事儿
人工智能
前端
服务器
【最新】TensorFlow、cuDNN、
CUDA
三者之间的最新版本对应及下载地址
TensorFlow、cuDNN、
CUDA
对应关系官网查询地址
CUDA
下载地址cuDNN下载地址VersionPythonversionCompilerBuildtoolscuDNN
CUDA
tensorflow_gpu
江上_酒
·
2025-03-23 21:25
开发环境及工具配置
TensorFlow
CUDA
cuDNN
PyTorch核心基础知识点
核心基础知识点,结合最新特性与工业级实践,按优先级和逻辑关系分层解析:▍核心基石:张量编程(TensorProgramming)1.张量创建(8种生产级初始化)#设备自动选择(2024最佳实践)device="
cuda
"iftorch.
cuda
.is_available
niuTaylor
·
2025-03-23 21:20
编程区
pytorch
人工智能
python
os.environ[‘
CUDA
_VISIBLE_DEVICES‘] = 的用法
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录os.environ['
CUDA
_VISIBLE_DEVICES']=单值作用os.environ['
CUDA
_VISIBLE_DEVICES
@锦瑟五十弦
·
2025-03-23 12:06
深度学习
人工智能
位宽512bit显卡_6144
CUDA
/512bit位宽 Maxwell架构曝光
现在网上又流传开Maxwell的架构设计了,旗舰GM100将有6144个
CUDA
核心,512bit位宽显
李涛PS
·
2025-03-23 06:45
位宽512bit显卡
CUDA
学习(3)——
CUDA
初步实践
1定位thread
CUDA
中提供了blockIdx,threadIdx,blockDim,GridDim来定位发起thread,下面发起1个grid,里面有2个block,每个block里有5个threads
哦豁灬
·
2025-03-23 05:08
CUDA
学习笔记
学习
CUDA
pytorch v1.4.0安装问题
直接使用conda安装报错:(CenterNet)C:\Users\16323>condainstallpytorch==1.4.0torchvision==0.5.0
cuda
toolkit=10.1-
大柠丶
·
2025-03-23 05:32
pytorch
人工智能
python
Windows和Linux系统上的Mamba_ssm环境配置
第二种方法(感觉可靠)3、第三种方法:直接下载大神编译好的文件进行安装2)、安装mamba-ssm1、第一种方法2、第二种方法:直接下载大神编译好的文件进行安装一、Linux系统安装如果自己的系统不是
cuda
11.8
清纯世纪
·
2025-03-23 04:23
笔记
python
深度学习
人工智能
Ubuntu和Windows系统之Mamba_ssm安装
Ubuntu安装直接新建一个环境是最好的,不然很容易产生各种冲突#创建环境和相关包condacreate-nmambapython=3.10.13condaactivatemambacondainstall
cuda
Netceor
·
2025-03-23 04:50
Python
ubuntu
windows
linux
不用再当“技术宅“!这个AI神器让我5分钟变身人工智能达人
可每次想自己试试,打开教程就被满屏的代码吓退——"Python环境配置"、"
CUDA
驱动安装"这些词比数学作业还让人头疼。
阳光永恒736
·
2025-03-22 20:01
AI工具
人工智能
deepseek
一键包
本地部署
AI资源
Q&A:备份产品的存储架构采用集中式和分布式的优劣?
很显然,以分布式存储的优点用来存放热备份数据是非常合适的,能满足大规模数据在备份与恢复时的高吞吐需求,同时也能提供
并行计算
的能力,提供高效的目标端数据压缩和数据重删
云祺vinchin
·
2025-03-22 15:22
技术分享
架构
分布式
网络
运维
大数据
GPU计算的历史与
CUDA
编程入门
GPU计算的历史与
CUDA
编程入门背景简介GPU计算的历史可以追溯到早期的
并行计算
研究,如今已发展成为计算机科学中的一个重要分支。
己见明
·
2025-03-22 12:49
GPU计算
CUDA
C
数据并行性
CUDA程序结构
向量加法内核
GTC 2025 中文在线解读
GTC2025中文在线解读|
CUDA
最新特性与未来[WP72383]NVIDIAGTC大会火热进行中,一波波重磅科技演讲让人应接不暇,3月24日,NVIDIA企业开发者社区邀请KenHe、YipengLi
扫地的小何尚
·
2025-03-22 11:17
人工智能
NVIDIA
GPU
深度学习
机器学习
英伟达消费级RTX显卡配置表
显卡型号显存大小显存频率显存位宽显存带宽
CUDA
核心数TDP(功耗)上市年份RTX409024GB21Gbps384-bit1,008GB/s16,384450W2022RTX4080(16GB)16GB22.4Gbps256
真相很简单
·
2025-03-22 10:35
识别算法
网络
rtx
nvidia
英伟达
游戏显卡
3090显卡Ktransformer本地部署deepseek R1:70B
这里写自定义目录标题效果完成视频:配置参考依赖安装安装
cuda
配置环境下载deepseekR170B下载ktransoformer开始安装运行Web启动常见问题runtimeerrordon'tmatch
SIATdog
·
2025-03-21 20:59
ai
【赵渝强老师】达梦数据库MPP集群的架构
为了支持海量数据存储和处理等方面的需求,为高端数据仓库提供解决方案,达梦数据库提供了大规模并行处理MPP架构,以极低的成本代价,提供高性能的
并行计算
。
·
2025-03-21 16:12
数据库信创
【ai】mocap:conda 安装python3.8+
cuda
+ pytorch+torchaudio、torchvision
安装pytorch就是会带上
cuda
cudnn啥的pytorch【ai】tx2nx:安装torch、torchvisionforyolov5这里就发现pytorch和torchvision有依赖关系的,
等风来不如迎风去
·
2025-03-21 05:41
AI入门与实战
人工智能
ubuntu
conda
查看
CUDA
cudnn 版本 查看Navicat GPU版本
查看显卡型号:lspci|grepVGA(lspci是linux查看硬件信息的命令),屏幕会打印出主机的集显几独显信息python中查看显卡型号fromtensorflow.python.clientimportdevice_libdevice_lib.list_local_devices()
FergusJ
·
2025-03-21 03:30
备份
python
开发语言
查看 Linux 系统中安装的
CUDA
版本
查看Linux系统中安装的
CUDA
版本的常见方法:文章目录1查看/usr/local/
cuda
目录2使用nvcc命令3检查libcublas版本注意:nvidia-smi1查看/usr/local/
cuda
烟锁池塘柳0
·
2025-03-20 20:28
Linux
CUDA
linux
ubuntu
已解决:python多线程使用TensorRT输出为零?附tensorrt推理代码
设备:
cuda
12.1,cudnn8.9.2,tensorrt8.6.11.问题tensorrt的推理没输出???
李卓璐
·
2025-03-20 18:11
算法实战
python
开发语言
CUDA
编程基础
一、快速理解
CUDA
编程1.1
CUDA
简介
CUDA
(ComputeUnifiedDeviceArchitecture)是由NVIDIA推出的
并行计算
平台和应用程序接口模型。
清 澜
·
2025-03-20 17:35
算法面试
人工智能
c++
算法
nvidia
cuda编程
2025年开发者工具全景图:IDE与AI协同的效能革命
腾讯云等平台技术文档与行业趋势分析)一、核心工具链的务实演进与配置指南主流开发工具的升级聚焦于工程化适配与智能化增强,以下是2025年开发者必须掌握的配置技巧:1.VSCode:性能优化与远程协作标杆核心特性:
CUDA
He.Tech
·
2025-03-20 14:45
ide
人工智能
bitsandbytes 报错
用nvidia-smi查看
CUDA
版本,我的是12.2。
HuggingMe
·
2025-03-20 08:55
pytorch
centos7输入python -m bitsandbytes报错
CUDA
Setup failed despite GPU being available. Please run the follo
在centos7.9系统中安装gpu驱动及
cuda
,跑大模型会报错,提示让输入python-mbitsandbytes依然报错:
CUDA
SETUP:Loadingbinary/usr/local/python3
小太阳,乐向上
·
2025-03-20 08:21
python
开发语言
关于bitsandbytes安装报错
RunTimeError:
CUDA
SetupfaileddespiteGPUbeingavailable.Inspectthe
CUDA
SETUPoutputsabovetofixyourenvironment
跃跃欲试88
·
2025-03-20 07:18
语言模型
人工智能
transformer
python -m bitsandbytes 报错解释与解决
RuntimeError:
CUDA
SetupfaileddespiteGPUbeingavailable.Pleaserunthefollowingcommandtogetmoreinformation
MityKif
·
2025-03-20 07:44
python
开发语言
纳米尺度仿真软件:Quantum Espresso_(21).
并行计算
与性能优化
并行计算
与性能优化在纳米尺度仿真中,计算资源的需求往往非常庞大。为了提高计算效率和缩短计算时间,
并行计算
和性能优化成为不可或缺的技术手段。
kkchenjj
·
2025-03-20 07:12
分子动力学2
性能优化
模拟仿真
分子动力学
仿真模拟
c++高性能多进程
cuda
编程: safe_softmax实现 + cub::BlockReduce自定义归约操作
BlockReduce自定义归约操作(`cub::BlockReduce::Reduce`)1.语法safe_softmax实现cub::BlockReducecub::BlockReduce是CUB库(
CUDA
UnBound
FakeOccupational
·
2025-03-20 06:35
深度学习
c++
开发语言
芯片:CPU和GPU有什么区别?
GPU:设计目的是为了处理图形和
并行计算
任务。最初是为图形渲
InnoLink_1024
·
2025-03-19 19:07
AGI
人工智能
人工智能
ai
agi
gpu算力
使用LoRA微调LLaMA3
步骤一:环境搭建安装必要的Python包pipinstalltransformersdatasetstorch配置GPU环境确保你的环境中配置了
CUDA
和cuDNN,并验证GPU是否可用。
想胖的壮壮
·
2025-03-19 16:12
深度学习
人工智能
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
在深度学习的背景下,NVIDIA的
CUDA
与AMD的ROCm框架缺乏有效的互操作性,导致基础设施资源利用率显著降低。
·
2025-03-19 11:59
NVIDIA-B200 OFED安装失败解决步骤,实际生产环境故障一例
环境信息系统ubuntu22.04硬件nvidiaB200nvidia-driverubuntu2204-570.124.06
cuda
cuda
-toolkit-12-8报错信息.
清风 001
·
2025-03-19 05:34
AI大模型底层建设
linux
运维
服务器
Ubuntu20.04 RTX4060 AI环境搭建
1.安装步骤0)准备工作使用如下命令创建我们的工作目录:mkdir~/nvidia再使用如下命令进入到上面的目录(接下来的步骤,如无特殊说明,均在该目录下进行):cd~/nvidia1)安装
CUDA
下载并安装
stxinu
·
2025-03-19 05:03
人工智能
人工智能
AI人工智能深度学习算法:在量子计算中的应用
人工智能的深度学习算法在处理大规模数据和复杂任务方面取得了显著的成果,而量子计算则具有强大的
并行计算
能力和高效的信息处理能力。
AI天才研究院
·
2025-03-19 04:52
AI大模型企业级应用开发实战
AI大模型应用入门实战与进阶
DeepSeek
R1
&
大数据AI人工智能大模型
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
【pytorch(
cuda
)】基于DQN算法的无人机三维城市空间航线规划(Python代码实现)
欢迎来到本博客❤️❤️博主优势:博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。⛳️座右铭:行百里者,半于九十。本文目录如下:目录⛳️赠与读者1概述一、研究背景与意义二、DQN算法概述三、基于DQN的无人机三维航线规划方法1.环境建模2.状态与动作定义3.奖励函数设计4.深度神经网络训练5.航线规划四、研究挑战与展望2运行结果3参考文献4Python代码实现⛳️赠与读者做科研,涉及到一个深在的
wlz249
·
2025-03-18 16:28
python
pytorch
算法
【保姆级视频教程(一)】YOLOv12环境配置:从零到一,手把手保姆级教程!| 小白也能轻松玩转目标检测!
FlashAttentionWindows端WHL包下载1.1简介1.2下载链接1.3国内镜像站1.4安装方法2.NVIDIAGPU计算能力概述2.1简介2.2计算能力版本与GPU型号对照表2.2.1
CUDA
-EnabledDatacenterProducts2.2.2
CUDA
-Enab
一只云卷云舒
·
2025-03-18 16:56
YOLOv12保姆级通关教程
YOLO
YOLOv12
flash
attention
GPU
计算能力
算力
LLaMA-Factory 微调训练
(推荐在linux中训练,win可以用wsl+docker)gitclonehttps://github.com/hiyouga/LLaMA-Factory.gitcdLLaMA-Factory#根据
cuda
zsh_abc
·
2025-03-18 14:40
llama
docker
深度学习
人工智能
python
linux
llama-factory微调
大模型微调实操--llama-factoryllama-factory环境安装前置准备英伟达显卡驱动更新地址下载NVIDIA官方驱动|NVIDIA
cuda
下载安装地址
CUDA
Toolkit12.2Downloads
AI Echoes
·
2025-03-18 13:05
深度学习
人工智能
机器学习
deepseek
PyTorch 生态概览:为什么选择动态计算图框架?
其核心优势体现在:动态灵活性:代码即模型,支持即时调试Python原生支持:无缝衔接Python生态高效的GPU加速:通过
CUDA
实现透明的硬件加速活跃的社区生态:GitHub贡献者超1.8万人,日均更新
小诸葛IT课堂
·
2025-03-18 07:12
pytorch
人工智能
python
基于MapReduce的气候数据分析
方法上,采用MapReduce编程模型对大规模气候数据进行分布式处理,通过数据的映射和归约操作实现
并行计算
。结果表明,运用该技术能显著提高
赵谨言
·
2025-03-18 03:03
论文
毕业设计
经验分享
unitree
Unitreeubuntu18.04首先要安装好ubuntu18.04系统,然后开始安装显卡驱动和
cuda
以及cudnn,这里要注意版本对应,我是3090的显卡,安装的显卡版本是520,然后
cuda
的版本是
Matrixart
·
2025-03-18 00:41
ubuntu
LVI-SAM、VINS-Mono、LIO-SAM算法的阅读参考和m2dgr数据集上的复现(留作学习使用)
一键安装-CSDN博客opencv官网下载4.2.0参考:https://opencv.org/releases/page/3/nvidia驱动安装:ubuntu18.04安装显卡驱动-开始战斗-博客园
cuda
再坚持一下!!!
·
2025-03-18 00:10
学习
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他