E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
深度学习机器学习gpu
python环境获取Nvidia显卡型号和驱动版本
GPU
til通过解析nvidia-smi获取显卡名称和驱动版本信息等信息。
babybin
·
2024-01-28 20:48
Python
CUDA基础教程文档记录
目录前言0.CUDA基础语法1.CUDA共享内存2.
GPU
架构简介3.CUDA内存子系统4.原子/规约操作和warpshuffle5.CUDA统一内存(ManagedMemory)6.CUDA流和并发7
爱听歌的周童鞋
·
2024-01-28 20:28
模型部署
CUDA
atomic
operator
warp
shuffle
stream
profiler
【CenterFusion】测试脚本CenterFusion/experiments/test.sh
在README.md中训练模型的命令是:bashexperiments/test.sh首先执行的就是test.sh脚本在脚本中--参数值表示可选参数##使用的NVIDIA_
GPU
设备编号exportCUDA_VISIBLE_DEVICES
HIT_Vanni
·
2024-01-28 18:33
CenterFusion
人工智能
自动驾驶
算法
numpy
2024年华为OD机试真题-执行时长-Python-OD统一考试(C卷)
题目描述:为了充分发挥
GPU
算力,需要尽可能多的将任务交给
GPU
执行,现在有一个任务数组,数组元素表示在这1秒内新增的任务个数且每秒都有新增任务,假设
GPU
最多一次执行n个任务,一次执行耗时1秒,在保证
2023面试高手
·
2024-01-28 17:48
华为od
python
华为
算法
【
GPU
】CUDA是什么?以及学习路线图!
其主要应用于英伟达
GPU
显卡的调用。2、云计算可以简单的理解为是通过网络组合成的计算机集群,用于各种加速,其中以CPU为主,
GPU
为辅。所以CUDA可以成为云计算的一个支柱。
Hcoco_me
·
2024-01-28 16:14
GPU
学习
Soc
GPU
人工智能
CUDA
【
GPU
】
GPU
CUDA 编程的基本原理是什么?
【
GPU
】
GPU
CUDA编程的基本原理是什么?
Hcoco_me
·
2024-01-28 16:44
GPU
GPU
CUDA
DualSPHysics v5.0源码编译教程,新手入门
目录一、前期准备1.安装C++编译器2.安装CUDA二、下载源码三、编译四、报错解决五、验证一、前期准备DualSPHysics是可以编译运行在CPU和
GPU
上的,所以需要安装C++编译器:例如gcc,
ChangYan.
·
2024-01-28 14:58
DualSPHysics
编译
动画
c++
华为比赛-慧科第一届人工智能应用创新大赛的入门培训的相关学习
前言之前强化学习的课程老师鼓励参加华为云的比赛,慧科杯第一届人工智能应用创新大赛(又想去白嫖
GPU
的资源)首先大概说一下这个比赛,基于华为ModelArts平台,和之前学习的百度的AIstudio来说,
renyujie518
·
2024-01-28 13:22
比赛总结
【PyTorch】n卡驱动、CUDA Toolkit、cuDNN全解安装教程
文章目录
GPU
、NVIDIAGraphicsDrivers、CUDA、CUDAToolkit和cuDNN的关系使用情形判断仅仅使用PyTorch使用torch的第三方子模块安装NVIDIAGraphicsDrivers
UnderTurrets
·
2024-01-28 11:50
pytorch
人工智能
python
GPT2中文模型本地搭建(二)
开源中文模型本地搭建2.1开发环境准备2.2下载代码2.3下载模型2.4加载模型1)先安装bert4keras2)下载训练模型的代码,再补全下插件3)修改代码模型地址4)运行模型查看测试效果2.5测试效果3、
GPU
天罚神
·
2024-01-28 11:56
深度学习
开源
深度学习
人工智能
iou的cpu和
gpu
源码实现
本专栏主要是深度学习/自动驾驶相关的源码实现,获取全套代码请参考简介IoU(IntersectionoverUnion)是一种测量在特定数据集中检测相应物体准确度的一个标准,通常用于目标检测中预测框(boundingbox)之间准确度的一个度量(预测框和实际目标框)。IoU计算的是“预测的边框”和“真实的边框”的交叠率,即它们的交集和并集的比值。最理想情况是完全重叠,即比值为1。IoU的计算方法如
zwhdldz
·
2024-01-28 09:10
手撕源码系列
BEV感知系列
深度学习
人工智能
pytorch
transformer
自然语言处理
PyTorch初探:基本函数与案例实践
1.基本函数PyTorch的核心是张量(Tensor),它类似于多维数组,但可以在
GPU
上运行以加速计算。张量上的操作是构建神经网络层的基础。
GT开发算法工程师
·
2024-01-28 08:26
pytorch
人工智能
python
线性回归
Amphion tts(Text to Speech) 语音合成
强烈推荐使用带
GPU
的Ubuntu或Centos系统运行,可以租一个比较便宜的机器实例运行,如AutoDL有了机器我们就可以按步骤操作了step1模型下载gitclonehttps://github.com
小何才露尖尖角
·
2024-01-28 06:18
LLM
Python
深度学习
tts
语音合成
amphion
text
to
speech
GPT-SoVITS 测试
开箱直用版(使用AutoDL)step1打开地址https://www.codewith
gpu
.com/i/RVC-Boss/GPT-SoVITS/GPT-SoVITS-Official选择AutoDL
小何才露尖尖角
·
2024-01-28 06:14
LLM
gpt
gpt-sovits
tts
声音克隆
Windows11搭建
GPU
版本PyTorch环境详细过程
Anaconda安装https://www.anaconda.com/Anaconda:中文大蟒蛇,是一个开源的Python发行版本,其包含了conda、Python等180多个科学包及其依赖项。从官网下载Setup:点击安装,之后勾选上可以方便在普通命令行cmd和PowerShell中使用Anaconda命令,一般他会提示不推荐,防止冲突。验证是否安装成功:打开Anaconda的图形化界面Ana
DogDaoDao
·
2024-01-28 06:00
深度学习
pytorch
python
深度学习
CUDA
NVIDIA
GPU
Windows
GPU
编程2---CUDA核函数和线程配置
CUDA核函数 在
GPU
上执行的函数称为CUDA核函数(KernelFunction),核函数会被
GPU
上多个线程执行,我们可以在核函数中获取当前线程的ID。
张海军2013
·
2024-01-28 06:58
GPU
GPU
教程
CUDA
核函数
线程配置
【cuda编程】CUDA的运行方式以及grid、block结构关系
程序基本运行顺序1.2grid与block1.3dim类型定义2.CUDA的第一个程序3.CUDA线程的组织结构——grid与block关系1.CUDA基础知识1.1程序基本运行顺序一般来说,一个cpu+
gpu
非晚非晚
·
2024-01-28 05:49
GPU&CUDA
c++
c语言
CUDA
GPU
CPU
CUDA编程- -
GPU
线程的理解 thread,block,grid - 再次学习
GPU
线程的理解thread,block,grid一、从cpu多线程角度理解
gpu
多线程1、cpu多线程并行加速2、
gpu
多线程并行加速2.1、cpu线程与
gpu
线程的理解(核函数)2.1.1、第一步:
Nice_cool.
·
2024-01-28 05:17
Cuda与TensorRT
学习
算法
人工智能
AlexNet,ZFNet详解
1AlexNet网络结构对于AlexNet网络来说,因为当时资源环境受限,他从第一步卷积开始就把一个图像分到两个
GPU
上训练,然后中间进行组合最后进行融合成全连接成1000个置信度1得到一张3x224x224
圆圆栗子君
·
2024-01-28 04:46
深度学习专栏
深度学习
人工智能
cnn
神经网络
pytorch安装(CPU和
GPU
),以及简单的API
上述这样命名就是因为深度学习只是机器学习的一个分支2pytorch的优点:简单易用、分布式训练、服务器部署方便、移动端部署方便;3PyTorch是基于以下两个目的而打造的python科学计算框架:无缝替换NumPy,并且通过利用
GPU
圆圆栗子君
·
2024-01-28 04:15
深度学习专栏
pytorch
人工智能
python
记录一次RTX—A6000显卡,VMware horzion V
GPU
实施。
1、前几天有个代理商客户要用6000做V
GPU
,一开始以为是要用RTX6000,最后确定为RTXA6000,这个显卡比较新,我也没做过这个显卡的V
GPU
实施,但是看NVIDIA上,这个显卡是支持V
GPU
fuxiaoland
·
2024-01-28 02:25
技术类
运维
服务器
龙芯,启动!
桥片内部集成
GPU
,支持VGA、HDMI显示输出。板卡提供3个PCIE插槽,可支持独立显卡、网卡等主流PCIE设备。板卡有M.2KEYM和M.2KEYE两种接口,支持PCIe3.
阳排
·
2024-01-28 00:47
loongnix
龙芯
3A6000
使用mergekit 合并大型语言模型
而且这种组合的方法可以不需要
GPU
来完成。在本文中我们将介绍各种合并算法,研究如何实现它们,并深入研究它们的工作原理。还将使用mergekit工
deephub
·
2024-01-28 00:06
语言模型
人工智能
机器学习
深度学习
小土堆pytorch学习笔记005 | 完结,✿✿ヽ(°▽°)ノ✿
:(6)使用
GPU
训练7、完整模型验证(1)代码(2)运行结果1、损失函数与反向传播①计算实际输出和目标之间
柠檬不萌只是酸i
·
2024-01-28 00:22
深度学习
学习
笔记
pytorch
机器学习
深度学习
独家解读 | 滴滴机器学习平台架构演进之路
所谓大同是指大家所要处理的问题都相似,技术架构和选型也差不太多,比如都会使用
GPU
集群、采用Spark或K8s平台等。
csdn产品小助手
·
2024-01-27 19:18
人工智能
运维
大数据
洛谷 P2985 [USACO10FEB] Chocolate Eating S
代码#include#definedebu
gpu
ts("Y")#defineinf0x3f3f
欧耶2023
·
2024-01-27 19:27
c++
算法
开发语言
linux内核radeon
gpu
源码解析
1.什么是radeon简介Radeon(中文名称称为镭龙™)是一个英文产品的商标。Radeon是AMD公司出品的显示芯片的一种系列。俗称A卡。全称一般写作:AMDRadeonHDxxxx,例如台式机显卡型号:AMDRadeonHD6450。HD7000系列以后,AMD启用新的AMDRadeonR9/R7xxx命名旗下新的显示芯片。出产型号AMDRadeon系列的台式机显卡有:AMDRadeonRX
人间正道是沧桑a
·
2024-01-27 18:51
c语言学习笔记分享
用计算机语言告诉计算机人类要解决的问题数据类型:新生儿的数量整数身高体重小数统计名字字符数据计算机世界011+2ALU1.0+2.0
GPU
//浮点(小数)运算不同类型的数据—机器指令不同—最终使用硬件的部件不同基本数据类型
Spcarrydoinb
·
2024-01-27 17:14
c语言
学习
笔记
CoreImage翻译
它使用
GPU
或CPU呈现路径,对核心图形、核心视频和图像I/O框架中的图像数据类型进行操作。CoreImage通过提供一个易于使用的应用程序编程接口(API)来隐藏底层图形处理的细节。
李永开
·
2024-01-27 17:52
开发手札:unity性能优化(一)
unity性能优化一直是一个综合的问题,涵盖了CPU、内存、
GPU
、资源、UI、3D等方面,实际上我自己都不敢说懂unity优化,只能结合自己这些年开发的经历来谈一下,算是抛砖引玉,如果有人有更好的优化建议和文章
羊羊2035
·
2024-01-27 16:06
开发手札
windows环境下配置tensorflow_
gpu
版本——无需更改本地的cuda
大家可以在tensorflow学习中,可能会遇到使用tensorflow_
gpu
版本的安装,但是一般涉及到
gpu
的安装,就需要配置cuda,这个过程很麻烦且浪费时间,下面给出一个简单的方法配置环境。
筱筱西雨
·
2024-01-27 14:41
tool
windows
tensorflow
人工智能
深度学习
为什么 FPGA 比 CPU 和
GPU
快?
FPGA、
GPU
与CPU——AI应用的硬件选择现场可编程门阵列(FPGA)为人工智能(AI)应用带来许多优势。图形处理单元(
GPU
)和传统中央处理单元(CPU)相比如何?
疯狂的泰码君
·
2024-01-27 14:32
FPGA
FPGA
上位机图像处理和嵌入式模块部署(极致成本下的图像处理)
联系信箱:
[email protected]
】目前,大家都习惯了特定的图像处理方式,要么是windows上位机来处理,要么是armsoc来进行处理,要么是fpga或者是nvidia
gpu
来对图像进行处理
嵌入式-老费
·
2024-01-27 09:54
上位机图像处理和嵌入式模块部署
图像处理
人工智能
[Raspberry Pi] Raspberry Pi 4配置OpenCV4.6.0和ncnn环境(32-bit operation system)
文章目录前言配置OpenCV4.6.0环境1调整
GPU
Memory2检查EEPROM3版本确认4安装依赖5下载OpenCV6BuildMake7Make8环境配置9检查10测试11卸载配置ncnn1版本确认
ztmajor
·
2024-01-27 08:00
environment
python
opencv
开发语言
win10+tensorflow2.7-
gpu
安装
1.查看自己显卡的cuda版本在cmd输入:nvidia-smi如果提示没有此命令,说明你要装
gpu
驱动了2.查看tensorflow2.x与cuda和cudnn版本关系点击这里查看所以我选tensorflow2.7
吴天德少侠
·
2024-01-27 08:49
深度学习
tensorflow2
tensorflow
深度学习
python
tensorflow2.x多
gpu
训练
以前经常用importtensorflowastfstrategy=tf.distribute.MirroredStrategy()print('Numberofdevices:%d'%strategy.num_replicas_in_sync)withstrategy.scope():#model=#model.compile()最近用这个会报错:INTERNAL:NCCL:unhandleds
吴天德少侠
·
2024-01-27 08:18
tensorflow2
tensorflow
人工智能
python
onnx推理python代码
前提pipinstallonnxruntime-
gpu
代码importosos.environ["CUDA_VISIBLE_DEVICES"]="4"importonnxruntimeasortimportnumpyasnpimportSimpleITKassitkimportmathimporttime
吴天德少侠
·
2024-01-27 08:18
部署问题
python
开发语言
GPU
无进程但显存占用
在服务器的docker里面使用显卡发现在终端ctrl+c之后,代码会停掉但是
GPU
资源不会释放。
_cv_
·
2024-01-27 06:03
gpu
bash
深度学习
黑马程序员-瑞吉外卖-day4
实现账号的启动禁止EmployeeController@PutMappin
gpu
blicRupdate(@RequestBodyEmployeeemployee){employeeService.updateById
君子善假于物也
·
2024-01-27 05:56
#
学习黑马程序员项目
数据库
java
spring
boot
maven
idea
CUDA、cudNN版本号,tensorflow对应版本查询
win+Rcmd命令行输入nvidia-smi查询右上角可见CUDAVersion11.6cudNN版本查询:按照路径查询文件:cudnn_version.hC:\ProgramFiles\NVIDIA
GPU
ComputingToolkit
MayYou-HHH
·
2024-01-27 04:37
tensorflow
人工智能
python
【一次性解决】CUDA和PyTorch的安装与多版本管理的三种方式
一般来说,CUDA将会被用于:PyTorch的
GPU
版本CUDA的C++开发CUDA的Py
prinTao
·
2024-01-27 04:19
CUDA编程
pytorch
python
pytorch
人工智能
python
cuda
ubuntu系统环境指定
GPU
的使用
法1:CUDA_VISIBLE_DEVICES=0,1,2pythontest.py法1中,0,1,2为显卡的编号。可以选择多块或单个显卡法2:importosos.environ["CUDA_VISIBLE_DEVICES"]="0,1,2"步骤一:环境变量设置(好像不是必须的)改变系统变量仅使目标显卡,编辑.bashrc文件,在里面添加系统变量exportCUDA_VISIBLE_DEVICE
计算机视觉-Archer
·
2024-01-27 01:20
ubuntu
深度学习
linux
华为OD机试 - 执行时长(图理解)
华为OD机试-执行时长题目描述:为了充分发挥
GPU
算力,需要尽可能多的将任务交给
GPU
执行,现在有一个任务数组,数组元素表示在这1秒内新增的任务个数且每秒都有新增任务,假设
GPU
最多一次执行n个任务,一次执行耗时
K.Encoding
·
2024-01-27 00:41
算法刷题记录
华为od
算法
(野火征途 Altera EP4CE10)硬件说明
通过编程,用户可以随时改变它的应用场景,它可以模拟CPU、
GPU
等硬件的各种并行运算。通过与目标硬件的高速接口互联,FPGA可以完成目标硬件运行效率比较低的部分,从而在系统层面实现加速。
一壶浊酒..
·
2024-01-26 23:01
fpga开发
2022-12-16
GPU
云服务器基于
GPU
应用的计算服务,适用于视频解码、图形渲染、深度学习、科学计算等应用场景
GPU
云服务器是基于
GPU
应用的计算服务。具有实时高速、并行计算、浮点计算能力强等特点。
darkvm美美
·
2024-01-26 22:12
AI时代每个程序员都应该了解
GPU
基础知识
GPU
架构和计算入门大多数程序员对CPU和顺序编程都有深入的了解,因为他们是在为CPU编写代码的过程中长大的,但许多程序员不太熟悉
GPU
的内部工作原理以及它们如此特别的原因。
xuejianxinokok
·
2024-01-26 22:32
机器学习
人工智能
华为OD机试真题-执行时长-2023年OD统一考试(C卷)
题目描述:为了充分发挥
GPU
算力,需要尽可能多的将任务交给
GPU
执行,现在有一个任务数组,数组元素表示在这1秒内新增的任务个数且每秒都有新增任务,假设
GPU
最多一次执行n个任务,一次执行耗时1秒,在保证
2023面试高手
·
2024-01-26 22:04
华为od
开发语言
python
华为
算法
紫光展锐T760_芯片性能介绍_展锐T760安卓核心板定制
展锐T760芯片还具有丰富的多媒体处理功能,
GPU
采用的是650MHz的ARMMa
智物通讯科技
·
2024-01-26 21:58
紫光展锐T760
展锐T760
T760
安卓核心板
XGBoost系列7——XGBoost的性能优化策略
集群配置2.3参数调整2.4数据并行与模型并行2.5优势与挑战3.内存优化与缓存策略3.1内存管理3.2缓存策略3.3参数调整3.4外部缓存文件3.5缓存失效策略3.6内存剪枝4.利用XGBoost的
GPU
theskylife
·
2024-01-26 21:21
数据挖掘
性能优化
人工智能
机器学习
数据挖掘
Google的Colaboratory
机械学习需要
GPU
性能比较好的设备。记得很久以前我用自己的MacBookPro试过TensorFlow1.0的手写数字识别的示例,由于性能问题,就不了了之了。
Jiangyouhua
·
2024-01-26 18:54
上一页
11
12
13
14
15
16
17
18
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他