E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
gpukvm虚拟化显卡
vscode远程调试 bash 文件的 launch.json写法示例
request":"launch","args":["--config-file","configs/coco-stuff-164k-156/mask2former_maft.yaml","--num-
gpu
s
my墨羽
·
2024-09-01 22:56
vscode
bash
json
linux安装 cuda.run,Ubuntu18.04下安装CUDA和cudnn
安装前需要注意的问题:1需要安装对应的驱动,具体参考下图:安装过程可以参考:Ubuntu18.04安装nvidia
显卡
驱动2由于Cuda-9只支持gcc-6以下的版本,而Ubuntu18.04系统默认安装的
weixin_39535527
·
2024-09-01 20:11
linux安装
cuda.run
【踩坑】ubuntu18.04下安装cuda11.03踩坑要点
首先在软件和更新的附加驱动中安装最新版的
显卡
驱动,使用命令lsmod|grepnouveau检查是否已经禁用nouveau,在ubuntu18.04.05LTS中本身就是直接禁用了的。
北溟客
·
2024-09-01 20:41
ubuntu
linux
cuda
windows C++ 并行编程-在 UWP 应用中使用 C++ AMP
可以在通用Windows平台(UWP)应用中使用C++AMP(C++AcceleratedMassiveParallelism)在
GPU
(图形处理单元)或其他计算加速器上执行计算。
sului
·
2024-09-01 19:07
windows
C++并行编程技术
c++
开发语言
在浏览器上使用transformers.js运行(Web
GPU
)RMBG-1.4进行抠图(背景移除)
在浏览器上使用transformers.js运行(Web
GPU
)RMBG-1.4进行抠图(背景移除)说明:首次发表日期:2024-08-28官方Github仓库地址:https://github.com
shizidushu
·
2024-09-01 17:55
WebGPU
transformers.js
RMBG-1.4
抠图
[UE4] 常用控制台命令
~“键调用控制台命令0,技巧键盘↑键可以看到之前输入过的指令控制台指令并不需要打全名,空格+指令可以模糊搜索Ctrl+Shift+逗号,打开
GPU
Profile面1,调试类statfps——显示帧率statunit
somnusand
·
2024-09-01 14:04
UE4
ue4
使用docker从零构建python、cuda、pytorch等环境
一、docker和nvidia-docker安装本机先安装docker,然后安装nvidia-docker(在docker中使用
gpu
需要安装nvidia-docker,同时本机需要有nvidia
显卡
驱动
ken_asr
·
2024-09-01 11:14
机器视觉
docker
cuda
pytorch
python
【小本本笔记】yolov8跑模型缓慢,内存提示不足?
GPU
-mem=0跑模型跑的慢,
gpu
-mem=0是什么意思。
hhhhhhkkkyyy
·
2024-09-01 10:09
笔记
人工智能
深度学习
《C++与新兴硬件技术的完美融合:开启未来科技新篇章》
首先,在与
GPU
(图形处理单元)的结合方面,C++展现出了巨大的潜力。
GPU
拥有强大的并行计算能力,能够快速处理大量的数据和复杂的计算任务。
程序猿阿伟
·
2024-09-01 06:41
c++
科技
开发语言
Unity3D 如何提升游戏运行效率详解
1.优化渲染性能1.1使用合适的纹理压缩和格式技术详解:使用适当的纹理压缩可以显著减少内存使用和
GPU
负担。Unity支持多种纹理压缩格式,如ETC2、PVRTC
Thomas_YXQ
·
2024-08-31 20:41
游戏
Unity3D
架构
游戏开发
Unity
Unity3D UI Toolkit数据动态绑定详解
前言在Unity3D中,ComputeShader是一种强大的工具,用于在
GPU
上执行并行计算任务,这些任务通常涉及大量的数据处理,如图像处理、物理模拟等。
Thomas_YXQ
·
2024-08-31 19:40
ui
java
开发语言
Unity
游戏开发
前端
c#
三、建造者模式
例如,计算机是由CPU、主板、内存、硬盘、
显卡
、机箱、显示器、键盘、鼠标等部件组装而成的,采购员不可能自己去组装计算机,而是将计算机的配置要求告诉计算机销售公司,计算机销
磊-
·
2024-08-31 17:25
设计模式
建造者模式
前端性能优化-CSS性能优化
文件压缩四、去除无用CSS五、有选择地使用选择器六、减少使用昂贵的属性七、优化重排与重绘1.减少重排2.避免不必要的重绘八、让元素及其内容尽可能独立于文档树的其余部分九、避免使用@import十、开启
GPU
LYFlied
·
2024-08-31 16:46
css
前端
css
性能优化
面试
【笔试】03
在高性能计算领域,FLOPS被广泛用来评估超级计算机、CPU、
GPU
和其他处理器的计算能力。FLOPS数值越高,计算机执行涉及浮点数的计算能力越强。
yogurt=b
·
2024-08-31 13:28
笔试记录
数据库
数据结构
最新视频合成后调优技术ExVideo模型部署
ExVideo提出了一种新的后调优策略,无需对整个模型进行大规模重训,仅通过对模型中时序相关组件的微调,就能够显著增强其生成更长视频片段的能力,大大降低了对计算资源的需求,仅需1.5k
gpu
小时就能将视频生成帧数提高至原模型的
杰说新技术
·
2024-08-31 09:56
AIGC
多模态
AIGC
人工智能
【CUDA】在Windows10,GTX1050,cuda11.1上安装cuda环境
NVIDIA驱动程序三、下载并安装CUDAToolkit11.1四、安装cuDNN五、验证cuDNN是否安装成功(可选)六、设置环境变量七、验证安装八、测试CUDA环境在Windows10上为GTX1050
显卡
和
丶2136
·
2024-08-31 04:22
环境相关
机器学习
gpu算力
人工智能
【CUDA】在Windows11,GTX3060上安装cuda环境
CUDAToolkit11.7四、安装cuDNN五、验证cuDNN是否安装成功(可选)六、设置环境变量七、验证安装八、测试CUDA环境总结在本文中,我们将逐步介绍如何在Windows11操作系统上为NVIDIAGTX3060
显卡
和
丶2136
·
2024-08-31 04:51
环境相关
机器学习
gpu算力
人工智能
深度学习系列70:模型部署torchserve
内容包含:读取args,创建pid文件找到java,启动model-server.jar程序,同时读取log-config文件,TEMP文件夹地址,TS_CONFIG_FILE文件根据cpu核数、
gpu
IE06
·
2024-08-31 00:25
深度学习系列
深度学习
人工智能
做大模型 千万别买苹果笔记本电脑
以下是一些主要原因:1.
GPU
不适合深度学习AppleSilicon
GPU
限制:Apple自家芯片(如M1和M2)的
GPU
架构与传统的NVIDIA
GPU
(通常是深度学习和大模型训练的首选)不同。
路人与大师
·
2024-08-30 16:06
电脑
[2020]tensorflow2.1-
GPU
+ CUDA +CUDNN配置过程记录
最近几天做视频数据集的时候要用到tensorflow2的
gpu
训练版本,要安装对应版本的cuda和cudnn,网上的教程五花八门,我尝试了很多论坛的方法,有些能用有些不可以(也可能是我操作错误),经过两天调试终于能够运行了
夏迪End
·
2024-08-30 15:56
PyTorch深度学习实战(26)—— PyTorch与Multi-
GPU
当拥有多块
GPU
时,可以利用分布式计算(DistributedComputation)与并行计算(ParallelComputation)的方式加速网络的训练过程。
shangjg3
·
2024-08-30 12:10
PyTorch深度学习实战
深度学习
pytorch
人工智能
SK Hynix明年将开发基于96/128 GB DDR5的CXL 2.0内存解决方案
CXL指的是ComputeExpressLink,这是一种互联技术,可以在CPU和
GPU
之间实现更快的数据传输,但在人工智能领域,它实际上是CPU和加速器之间的数据传输。
吴脑的键客
·
2024-08-30 08:43
人工智能
人工智能
gpu算力
PyTorch深度学习实战(27)—— PyTorch分布式训练
这里主要介绍的是数据并行的分布式方法:每一块
GPU
都有同一个模型的副本,仅加载不同的数据
shangjg3
·
2024-08-30 07:37
PyTorch深度学习实战
深度学习
pytorch
分布式
python
大模型训练优化方法
本文主要参考HF上的一篇文章:https://huggingface.co/docs/transformers/perf_train_
gpu
_one,以及笔者在实际训练中的一些经验,给出一些比较实用的方法
少喝冰美式
·
2024-08-30 05:28
人工智能
大语言模型
ai大模型
大模型应用
LLM
大模型训练
计算机技术
查看 linux 系统信息
文章目录查看系统信息查看
GPU
信息查看系统信息在Linux系统中,查看系统信息是一项基本而重要的操作。这可以提供关键的系统配置和状态信息,帮助用户和管理员对系统进行监控、诊断和优化。
彷徨而立
·
2024-08-30 05:57
linux
【学习笔记】:Ubuntu 22 使用模型量化工具llama.cpp部署大模型 CPU+
GPU
学习笔记:Ubuntu22使用模型量化工具llama.cpp部署大模型CPU+
GPU
前言1下载并编译llama.cpp1.1git下载llama.cpp仓库源码1.2编译源码(make)1.2.1选择一
淮序_
·
2024-08-30 02:00
笔记
ubuntu
llama
python
免费部署Flux.1模型,搭载ComfyUI配置与评测
每天签到最少可获得5小时免费
GPU
时长,如果每一次机器运行时长不超过30分钟,就不计算时长。
fysuccess
·
2024-08-29 19:14
其他文档
最新AI绘画
FLUX.1
comfyUI
免费部署
2019-05-16
TensorFlow安装CPU版本pipinstalltensorflow
GPU
版本pipinstalltensorflow-
gpu
(
显卡
必须支持)259.7MB如果装完不支持1.是否
显卡
不支持删除
gpu
微软czw
·
2024-08-29 17:12
TensorFlow和它的弟弟们
以下是它们之间的主要区别:1.TensorFlow(PC\
GPU
)设计目标:TensorFlow是一个开源的机器学习框架,由GoogleBrain团队开发,旨在帮助开发者构建和训练深度学习模型。
活蹦乱跳酸菜鱼
·
2024-08-29 08:31
tensorflow
人工智能
python
买电脑如何选择
显卡
?
买电脑时选择
显卡
,可以遵循以下几个关键点来做出决策:明确使用需求:日常办公、上网浏览等轻度应用:集成
显卡
或入门级独立
显卡
即可满足需求。
是毛毛吧
·
2024-08-29 07:57
硬件架构
电脑
RK3568笔记二十二:基于TACO的垃圾检测和识别
一、环境1、测试训练环境:AutoDL.2、平台:rk35683、开发板:ATK-RK3568正点原子板子4、环境:buildroot5、虚拟机:正点原子提供的ubuntu20二、测试个人电脑没有
GPU
殷忆枫
·
2024-08-29 06:52
RK3568学习笔记
笔记
释放
GPU
潜能:PyTorch中torch.nn.DataParallel的数据并行实践
释放
GPU
潜能:PyTorch中torch.nn.DataParallel的数据并行实践在深度学习模型的训练过程中,计算资源的需求往往随着模型复杂度的提升而增加。
2401_85762266
·
2024-08-29 05:45
pytorch
人工智能
python
OpenGL学习笔记(十六)缓冲区(一)像素缓冲区
缓冲区保存在
GPU
内存中,它
龙行天下01
·
2024-08-29 02:24
opengl
开发语言
图形渲染
CUDA C++ 编程指南
目录1.Introduction1.1.TheBenefitsofUsing
GPU
s1.2.CUDA®:AGeneral-PurposeParallelComputing1.3.AScalableProgrammingModelCUDAC
疯狂的码泰君
·
2024-08-29 02:51
CUDA
c++
开发语言
CUDA
GPUs
向量数据库Faiss的详细介绍和搭建使用教程
它通过将候选向量集封装成一个index数据库,加速检索相似向量的过程,尤其在一些最有用的算法上实现了
GPU
加速。二、Faiss的安装Faiss支持多种操作系统,包
大白菜程序猿
·
2024-08-29 01:14
运维
faiss
GPU
算力租用平台推荐
在当前快速发展的AI和深度学习领域,
GPU
算力租用平台成为了研究者、开发者及企业不可或缺的工具。
hong161688
·
2024-08-29 00:07
gpu算力
550MHz超高主频:揭秘ST公司M7单核性能王MCU(附全系列MCU报告一览表)
550MHz超高主频:揭秘ST公司M7单核性能王MCU(附全系列MCU报告一览表)这周末,除非外面下钞票,否则谁也拦不住我玩《黑神话悟空》(附:两款可以玩转悟空的
显卡
推荐)原创IPBrain平台君集成电路大数据平台
Victor-Tian
·
2024-08-28 20:10
MCU
意法半导体
ST
MCU
微控制器
高通骁龙800系列处理器规格型号及代表机型大全
高通骁龙800系列处理器规格型号及代表机型大全:处理器型号制造工艺CPU架构核心频率
GPU
内存基带出货时间代表机型骁龙800(MSM8x74)28nmHPM四核Krait4002.26GHzAdreno330450MHz
szx940213
·
2024-08-28 20:10
高通骁龙
骁龙800
处理器规格
骁龙处理器
[论文笔记] eval-big-refactor lm_eval 每两个任务使用一个
gpu
,并保证端口未被使用
1.5B在eval时候两个任务一个
gpu
是可以的。7B+在evalbelebele时会OOM,所以分配时脚本不同。
心心喵
·
2024-08-28 19:00
论文笔记
restful
后端
docker: Error response from daemon: could not select device driver with capabilities: [[
gpu
]]问题记录解决
具体参考:docker:Errorresponsefromdaemon:couldnotselectdevicedriverwithcapabilities:[[
gpu
]]问题记录解决_奶茶不加冰的博客
爱科技Ai
·
2024-08-28 12:47
docker
容器
运维
yolo v8 + flask部署到云服务器,以及问题记录
环境安装1、运行项目报错:nopythonapplicationfound,checkyourstartuplogsforerrors在云服务器pytorch版本安装错了,安装了
GPU
版本,需要安装CPU
智商不够_熬夜来凑
·
2024-08-28 11:07
YOLO
pytorch
python
flask
并行计算的艺术:PyTorch中torch.cuda.nccl的多
GPU
通信精粹
并行计算的艺术:PyTorch中torch.cuda.nccl的多
GPU
通信精粹在深度学习领域,模型的规模和复杂性不断增长,单
GPU
的计算能力已难以满足需求。多
GPU
并行计算成为提升训练效率的关键。
2401_85763639
·
2024-08-28 09:56
pytorch
人工智能
python
苹果M4芯片Mac全面曝光 或10月发布
其中三台Mac配备了10核CPU和10核
GPU
;第四台机器配备了8核CPU和8核
GPU
(首次亮相),所有四台M4Mac都有16GB
一一一一一一__1
·
2024-08-28 08:22
macos
精准掌控
GPU
:深度学习中PyTorch的torch.cuda.device应用指南
精准掌控
GPU
:深度学习中PyTorch的torch.cuda.device应用指南在深度学习的世界里,
GPU
加速已成为提升模型训练和推理速度的关键。
2401_85760095
·
2024-08-28 06:41
深度学习
pytorch
人工智能
编译运行 llama.cpp (vulkan, Intel
GPU
SYCL)
llama.cpp是一个运行AI(神经网络)语言大模型的推理程序,支持多种后端(backend),也就是不同的具体的运行方式,比如CPU运行,
GPU
运行等.但是编译运行llama.cpp并不是那么容易的
穷人小水滴
·
2024-08-28 05:27
llama.cpp
AI
Intel
GPU
SYCL
vulkan
A770
大模型推理测速 (llama.cpp, Intel
GPU
A770)
由于本文太长,分开发布,方便阅读.3.1CPU(i5-6200U,2C/4T/2.8GHz)x86_64AVX2在4号PC(物理机)上运行.版本:>./llama-b3617-bin-ubuntu-x64/build/bin/llama-cli--versionversion:3617(a07c32ea)builtwithcc(Ubuntu11.4.0-1ubuntu1~22.04)11.4.0f
穷人小水滴
·
2024-08-28 05:57
人工智能
llama
llama.cpp
A770
vulkan
SYCL
GNU/Linux
Windows下编译libevent 64位静态库总结
参照:https://my.oschina.net/jacobin/blog/146567http://blog.csdn.net/qingfen
gpu
99/article/details/45113841http
岩屿
·
2024-08-28 01:09
libevent
详细说明:向量数据库Faiss的搭建与使用
它能够处理大型数据集,并且在
GPU
上的性能表现尤为出色。下面详细介绍Faiss的搭建与使用。1.搭建Faiss1.1安装依赖包首先,需要安装Faiss及其依赖包。
AI逍遥子
·
2024-08-28 01:09
faiss
PYTORCH 官方文档,开发文档,Python编程 人工智能 深度机器学习
PYTORCH文档PyTorchdocumentation—PyTorchmasterdocumentationPyTorch是一个使用
GPU
和CPU进行深度学习的优化张量库。
zhangfeng1133
·
2024-08-27 13:21
pytorch
人工智能
python
HPC&AI并行计算集群Slurm作业调度系统对通用资源(GRES)的调度
为特定GRES类型启用了其他内置功能,包括图形处理单元(
GPU
)、CUDA多进程服务(MPS)设备,并通过可扩展的插件机制进行分片。二、配置默认情况下,群集的配置中未启用任何GRES。
技术瘾君子1573
·
2024-08-27 09:25
并行计算
AI并行计算
Slurm调度系统
MPS管理
GPU管理
MIG多实例管理
GPU切片
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他