E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
深度学习机器学习gpu
深度学习的零碎知识点
显卡内存什么是显卡内存简单来说就是,Windows会在物理显存/「专用
GPU
内存」不够用或只有集成显卡的情况下,将物理内存RAM当作
GPU
的虚拟显存/「共享
GPU
内存」来使用。
csdn_now
·
2024-09-13 13:50
深度学习
人工智能
GPU
版pytorch安装
由于经常重装系统,导致电脑的环境需要经常重新配置,其中尤其是cudatorch比较难以安装,因此记录一下安装
GPU
版本torch的过程。
普通攻击往后拉
·
2024-09-13 03:13
python
tips
神经网络基础模型关键点
人工智能-
GPU
版本机器学习、深度学习模型安装
背景1、在有Nvidia-
GPU
的情况下模型使用cuda加速计算,但是很有多模型的
GPU
和CPU版本安装方式不同,如何安装lgb\cat\xgb.2、为了让代码有普适性,如何自适应环境当中的设备进行CPU
bw876720687
·
2024-09-13 02:06
人工智能
机器学习
深度学习
入门篇,带你了解CPU,
GPU
, TPU, NPU, DPU
目录CPU(中央处理器)
GPU
(图形处理器)TPU(张量处理单元)NPU(神经网络处理器)DPU(数据处理器)CPU(中央处理器)专业介绍:CPU是计算机系统的核心,负责执行操作系统和应用程序的指令。
今夕是何年,
·
2024-09-13 00:55
视觉算法部署
深度学习
算法
人工智能
LLM大模型学习:LLM大模型推理加速
文Mia/叶娇娇推理优化部署、推理加速技术是现在,尤其在大模型时代背景之下,消费级
GPU
和边端设备仍为主流的状况下。
七七Seven~
·
2024-09-12 17:45
学习
人工智能
transformer
深度学习
llama
鸿蒙(API 12 Beta6版)
GPU
加速引擎服务【自适应VRS】
XEngineKit提供自适应VRS功能,其通过合理分配画面的计算资源,视觉无损降低渲染频次,使不同的渲染图像使用不同的渲染速率,能够有效提高渲染性能。接口说明以下接口为自适应VRS设置接口,如要使用更丰富的设置和查询接口。接口名描述constGLubyte*HMS_XEG_GetString(GLenumname)XEngineGLES扩展特性查询接口。GL_APICALLvoidGL_APIE
移动开发技术栈
·
2024-09-12 16:38
鸿蒙开发
harmonyos
华为
openharmony
鸿蒙
鸿蒙系统
VRS
引擎
安装tensorflow2.5.0 发现 tensorflow 和 numba 两者对应Numpy版本冲突
问题:python3.8安装tensorflow2.5.0发现tensorflow和numba两者对应Numpy版本冲突tensorflow-
gpu
2.5.0requiresnumpy~=1.19.2numba0.58.1requiresnumpy
GJK_
·
2024-09-12 08:16
tensorflow
numpy
人工智能
本地部署大语言模型详细讲解
前言:本地部署大语言模型(LLM,LargeLanguageModel)需要相应的硬件资源和技术栈支持,如
GPU
计算能力、大量内存、存储空间,以及模型部署框架。
程序员小羊!
·
2024-09-12 04:25
杂文
语言模型
人工智能
自然语言处理
验证resneXt,densenet,mobilenet和SENet的特色结构
实验结果
GPU
:gtx107
dfj77477
·
2024-09-11 20:55
人工智能
python
Yolo-v3利用
GPU
训练make时发生错误:/usr/bin/ld: cannot find -lcuda
一.利用
GPU
训练Yolov3时,首先要修改MakeFile文件,修改格式如下:
GPU
=1(原来为0)CUDNN=1(原来为0)NVCC=/usr/local/cuda/bin/nvcc(新建,注意自己本机的地址
徐小妞66666
·
2024-09-11 20:58
【环境搭建:onnx模型部署】onnxruntime-
gpu
安装与测试(python)(1)
cuda==10.2cudnn==8.0.3onnxruntime-
gpu
==1.5.0or1.6.0pipinstallonnxruntime-
gpu
==1.6.0###2.2方法二:onnxruntime-
gpu
2401_83703835
·
2024-09-11 13:36
程序员
python
深度学习
pytorch
linux查看jupyter运行,在Linux服务器上运行Jupyter notebook server教程
但只在本地运行没有
GPU
环境,虽然googlecolab是个好办法,但发现保存模型后在云端找不到模型文件,且需要合理上网才能访问。
天启大烁哥
·
2024-09-11 10:15
ONNX Runtime、CUDA、cuDNN、TensorRT版本对应
、cuDNN的版本对应ONNXRuntime与ONNX的版本对应ONNXRuntime、TensorRT、CUDA版本对应ONNXRuntime的安装官方文档注意,到目前为止,onnxruntime-
gpu
可keke
·
2024-09-10 22:45
ML&DL
pytorch
deep
learning
ONNXRuntime与CUDA版本对应
onnxruntime-
gpu
版本可以说是一个非常简单易用的框架,因为通常用pytorch训练的模型,在部署时,会首先转换成onnx,而onnxruntime和onnx又是有着同一个爸爸,无疑,在op的支持上肯定是最好的
zy_destiny
·
2024-09-10 22:15
部署
YOLO
onnxruntime
onnX
部署
cuda
python
Deepspeed 结合huggingface Trainer实现多机分布式训练
一、环境准备本试验使用两台机器(manager,worker),操作系统ubuntu22.4,每台机器有4个
GPU
为了使安装配置统一,使用docker容器,docker的安装这里不做介绍。
ningzhao
·
2024-09-10 17:38
分布式
大模型多机多卡脚本实例 - 增量预训练 -accelerate和deepspeed命令多机多卡训练有什么不同
第一步,同步权重ls-l/data/xxx/
gpu
008/MoeRemake/train/etuning/LLaMA-Factory2/models/xxx-Base-10B-200k-Llama第二步
AI生成曾小健
·
2024-09-10 16:33
大模型/增量预训练CPT
深度学习
python
机器学习
ray.tune文档总结
ray.tune文档总结tune.runconfig指定超参数的搜索方法ConcurrencyLimiter搜索算法scheduler试验调度程序分析资源(并行、
GPU
、分布式)原文档请看这里https
AI大司马
·
2024-09-10 14:48
python
人工智能
深度学习
从零开始设计一款全新
GPU
(提纲::)设计一款全新的
GPU
(图形处理单元)是一项复杂且多方面的工程工作,涉及到硬件架构、软件编程模型、性能优化、功耗管理等多个领域。以下是从零到一设计一款全新
GPU
的基本步骤和关键考虑因素。
jack_201316888
·
2024-09-10 13:15
GPU
AI大模型
渲染GPU
GPGPU
AMD GCN
GPU
微架构简介
AMDGCN(GraphicsCoreNext)微架构介绍AMDGCN(GraphicsCoreNext)是AMD公司推出的一种用于图形处理单元(
GPU
)的微架构。
jack_201316888
·
2024-09-10 12:09
硬件架构
微架构
AI 证件照制作工具:HivisionIDPhotos,CPU可运行!
而且最棒的是,它在普通的CPU上也能运行,完全不需要高性能的
GPU
支持!HivisionIDPhotosHivisionIDPhotos是什么?Hivis
学术Fun
·
2024-09-09 22:26
AIGC
人工智能
计算机视觉
OSError: libnccl.so.2: cannot open shared object file: No such file or directory
linux安装完torch或者tensorflow的
gpu
版本,安装没问题,但是import就有问题,报错OSError:libnccl.so.2:cannotopensharedobjectfile:
王小葱鸭
·
2024-09-09 17:16
python
cpu运行
gpu
上的pytorch 报错:AssertionError:torch not compiled with cuda enabled——已解决
感觉今天介绍的这种方法可以解决所有这种报错出现的问题事件发生:报错:AssertionError:torchnotcompiledwithcudaenabled解决方法:后来看到这个代码parser.add_argument('--test_device',default="cuda:0",type=str,
霍格沃茨电气魔法师
·
2024-09-09 11:35
python
java
python
数据库
js
深度学习
Infiniband网络架构的技术与性能分析
集群算力优化的关键在于
GPU
利用率和线性加速比。其中,
GPU
利用率受限于
科技互联人生
·
2024-09-09 04:51
科技
数码
人工智能
网络
系统架构
【车载智能座舱域控制器】-【测试】
目录一、座舱SOC芯片历程介绍1、注解:1.CPU(中央处理器)2.
GPU
(图形处理器)3.NPU(神经处理单元)2、具体应用示例3、性能指标的重要性二、智能座舱包含哪些功能三、智能座舱测试包括:四、智能座舱
@逝水流年轻染尘@
·
2024-09-09 01:56
测试工具
【已解决】Halcon错误代码4104
结果如下图所示,正常在使用
GPU
训练。搞定,手工~
聪明不喝牛奶
·
2024-09-08 23:12
深度学习
Halcon+CSharp
halcon
深度学习
10 自研rgbd相机基于rk3566之OPENCL加速库测试与开发
3opencl移植与调用:opencl加速库核函数编写1开发流程:2核函数编写接口函数定义如下:示例代码如下:opencl加速库示例代码opencl加速库介绍1OpenCL概念opencl是可以直接调用
gpu
三十度角阳光的问候
·
2024-09-08 21:03
opencl
gpu加速
rk3566/rk3588
核函数
异构加速
【DeepSpeed 教程翻译】三,在 DeepSpeed 中使用 PyTorch Profiler做性能调试和Flops Profiler教程翻译
文章目录0x0.前言0x1.在DeepSpeed中使用PyTorchProfiler做性能调试Profile模型训练的循环标记任意代码范围ProfileCPU/
GPU
的活动Profile内存消耗0x2.
just_sort
·
2024-09-08 17:39
pytorch
深度学习
人工智能
Vortex GP
GPU
的硬件代码分析(Cache篇3)
文章目录前言一、VX_cache.sv代码部分解读3——bank1.1bankrequestdispatch1.1.1解释VX_stream_xbar模块1.1.2解释VX_stream_arb模块1.1.3解释VX_generic_arbiter模块1.1.4解释VX_priority_arbiter模块1.1.5解释VX_rr_arbiter模块1.1.6解释VX_fair_arbiter模块
DentionY
·
2024-09-08 13:09
Vortex
GPGPU硬件代码分析
架构开发
缓存
关于隐语架构概览的知识
包括但不限于CPU、
GPU
、内存以
m0_67966665
·
2024-09-08 11:25
架构
第十四节:学习Springboot 的restful接口风格(自学Spring boot 3.x的第三天)
增(PostMapping)/***保存学生*@return*/@PostMappin
gpu
blicStudentsave(@RequestBodyStudentstudent){studentService.save
Mero技术博客
·
2024-09-08 05:11
从零开始学习Spring
Boot
3.x
学习
spring
boot
restful
微软开源 Phi-3.5 视觉模型
512个H100
GPU
,3.4万亿个tokens训练了10天。Phi3.5MoE:16x3.8B参数
三花AI
·
2024-09-08 02:19
三花AI
microsoft
人工智能
深度学习
元学习(meta learning)(一)
实际上没有什么好方法来调这些超参,今天工业界最常拿来解决调整超参数的方法是买很多张
GPU
,然后一次训练多个模型,有的训练不起来、训练效果比较差的话就输入掉,最后只看那些可以训练的比较好的模型会得到什么样的性能
前行居士
·
2024-09-08 02:48
学习
人工智能
神经网络
深度学习
机器学习
元学习
OSError: [WinError 126] 找不到指定的模块---caffe2_detectron_ops_
gpu
.dll
Errorloading"C:\Anaconda\Anaconda3\envs\TIN\lib\site-packages\torch\lib\caffe2_detectron_ops_
gpu
.dll"oroneofitsdependencies
努力的小柚
·
2024-09-07 15:34
python运行问题
python
pytorch
深度学习框架相关-Python模块的介绍和使用---torch
PyTorch的设计目标是提供灵活且高效的工具集,用于深度学习和科学计算;2.下面主要介绍torch模块的五个功能:数据加载和处理,
GPU
加速,建立网络模型,模型的保存和加载,梯度更新和参数优化;上面功能主要用到的子模块如下
sccum
·
2024-09-07 09:22
Python常用库的介绍和使用
深度学习
python
人工智能
[
GPU
与CPU100倍性能之谜,论文个人阅读分享]Debunking the 100X
GPU
vs. CPU myth: an evaluation of throughput computing
Debunkingthe100X
GPU
vs.CPUmyth:anevaluationofthroughputcomputingonCPUand
GPU
*Authors:VictorW.Lee,ChangkyuKim
GutsShinyHero
·
2024-09-07 04:17
杂项学习
性能优化
gpu算力
在PyTorch中使用CUDA, pytorch与cuda不同版本对应安装指南,查看CUDA版本,安装对应版本pytorch_pytorch cuda
在PyTorch中使用CUDA,你需要确保正确安装了匹配你的
GPU
的CUDAToolkit。以下是在PyTorch中使用CUDA的一般步骤:检查CUDA支持:首先,确保你的
GPU
支持CUDA。
2401_84009626
·
2024-09-06 16:31
程序员
pytorch
人工智能
python
环境安装-1:Python3.8+CUDA11.6.1+cuDNN8.6+Tensorflow-
gpu
2.6.1
CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使
GPU
能够解决复杂的计算问题。
w坐看云起时
·
2024-09-06 10:50
环境安装
tensorflow
python
人工智能
arm a7 支持虚拟化吗_Arm增加CPU、
GPU
和ISP,实现自主和视觉安全_Mali
原标题:Arm增加CPU、
GPU
和ISP,实现自主和视觉安全Arm引入了一套新的知识产权(IP),包括新的CPU、
GPU
和ISP(图像信号处理器),以实现可扩展、高效的计算能力,以实现跨汽车和工业应用的安全
weixin_39569112
·
2024-09-06 06:22
arm
a7
支持虚拟化吗
GPU
编程
CPU
异同点
nas918+支持的cpu
用ARM编写
显示当前系统时间
ISP(图像信号处理器)是什么?
和电脑的
GPU
类似,通常采并行计算。功能:Bayertransformation图像传感器(就是光电转换器)中的光电二极管(吸收光子产生电流)其实是无法识别颜色的,为了能够识别颜
FoGoiN
·
2024-09-06 05:16
嵌入式硬件
单片机
物联网
NPU技术总结
NPUs的设计架构:NPUs通常采用不同于传统CPU或
GPU
的架构,优化了矩阵运算和并行处理。指令集:它们拥有专门的指令集,用于加速神经网络中的常见操作,如卷积和激活函数。
技术学习分享
·
2024-09-06 00:47
webgl
processon
Nvidia
GPU
benchmark压力测试工具
一、参考资料使用Pytorch测试cuda设备的性能(单卡或多卡并行)
GPU
:使用
gpu
-burn压测
GPU
二、
GPU
压力测试方法1.PyTorch方式使用torch.ones测试CUDA设备。
花花少年
·
2024-09-06 00:13
运维
Nvidia
benchmark
GPU
gpu_burn
快速搭建本地 Whisper 语音识别大模型
前置准备在开始之前,你需要确保计算机符合以下条件:Python3.7+环境
GPU
支持(CUDA驱动):尽管CPU也能运行,但
GPU
会更快。足够的存储空间:模型可能需要几个GB。步骤一:
码上飞扬
·
2024-09-05 18:31
whisper
AI创业必备:
GPU
云、
GPU
租赁或自建,你选对了吗?
在快速发展的机器学习领域,人工智能初创公司对
GPU
的需求与日俱增。
GPU
成了AI创业公司们构建核心资源,甚至颠覆创新的关键资源和基础设施。然而,这也让
GPU
资源的价格水涨船高。
DO_Community
·
2024-09-05 17:25
商业建议
技术科普
人工智能
gpu算力
ai
语言模型
服务器
为什么深度学习用
GPU
而不是CPU
首先,我们深度理解一下中央处理器(CentralProcessingUnit,CPU)的核心。CPU的每个核心都拥有高时钟频率的运行能力,和高达数MB的三级缓存(L3Cache)。它们非常适合执行各种指令,具有分支预测器、深层流水线和其他使CPU能够运行各种程序的功能。然而,这种明显的优势也是它的致命弱点:通用核心的制造成本非常高。它们需要大量的芯片面积、复杂的支持结构(内存接口、内核之间的缓存逻
小锐->技术成就梦想,梦想成就辉煌。
·
2024-09-05 13:59
深度学习
人工智能
Unity3D 如何提升游戏运行效率详解
1.优化渲染性能1.1使用合适的纹理压缩和格式技术详解:使用适当的纹理压缩可以显著减少内存使用和
GPU
负担。Unity支持多种纹理压缩格式,如ETC2、PVRTC
Clank的游戏栈
·
2024-09-05 11:14
游戏
Unity3D Compute Shader如何进行同步详解
前言在Unity3D中,ComputeShaders是一种利用
GPU
并行处理能力执行复杂计算的方法。
Clank的游戏栈
·
2024-09-05 11:44
java
开发语言
Ubuntu下安装CUDA和cuDNN
Ubuntu下安装CUDA和cuDNNCUDA1.查看显卡是否支持CUDA网址https://developer.nvidia.com/cuda-
gpu
s。
_Mallow_
·
2024-09-05 08:26
ubuntu
linux
Ubuntu20.04安装CUDA和cuDNN
这里写目录标题1.简介1.1测试TensorFlow能否使用
GPU
2.安装CUDA11.22.1下载安装包2.2安装2.3配置环境变量2.3.1打开bashrc2.3.2末尾加上2.3.3内容生效2.4
Czi.
·
2024-09-05 08:26
Python学习
tensorflow
python
深度学习
NVIDIA NCCL 源码学习(八)- 数据通信链路transport的建立
上节说到nccl通过ncclTransportP2pSetup完成了数据通信链路的建立,还是以上节两机十六卡的环为例:第一台机器的环:graph->intra:
GPU
/0
GPU
/7
GPU
/
KIDGINBROOK
·
2024-09-04 22:57
nccl
nccl
gpu
cuda
第T4周:使用TensorFlow实现猴痘病识别
本文为365天深度学习训练营中的学习记录博客原作者:K同学啊文章目录一、前期工作1.设置
GPU
(如果使用的是CPU可以忽略这步)2.导入数据3.查看数据二、数据预处理1、加载数据2、数据可视化3、再次检查数据
oufoc
·
2024-09-04 18:03
tensorflow
人工智能
python
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他