E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
nvidia显卡
大模型加速与性能对比
本人环境torch2.0.1+cu118cuda11.8
nvidia
-driver535.98gcc9
__如风__
·
2024-03-12 11:58
人工智能
语言模型
在Linux中使用docker【下】(常见命令下)
轻量级与资源高效2.2快速部署与版本控制2.3隔离与安全2.4简化运维2.5跨平台兼容2.6持续集成与持续部署(CI/CD)三、Docker的安装3.1ubuntu下安装docker3.2ubuntu下安装
nvidia
-docker3.3centos
长孤秋落
·
2024-03-06 10:35
日常笔记
#
Deepin使用经验
linux
docker
运维
ubuntu
deepin
常用命令
华为昇腾系列——入门学习
从事AI开发的小伙伴,应该明白这个替代,不仅仅是Ascend-910加速卡的算力达到了
Nvidia
-A100的算力,而是需要整个AI开发生态的替代。下面简单列一下,昇腾生态与英伟达生态的一些对标项。
chenxy02
·
2024-03-06 08:00
人工智能
华为
昇腾
Unity双屏全屏方法
项目中遇到了需要双屏全屏的需求,向大神请教了,方法如下:Nvida
显卡
的情况下(没有A卡,也不太清楚怎么设置,应该也不麻烦):打开
nvidia
控制面板,打开”3D设置>配置Surround、PhysX”
inlet511
·
2024-03-06 00:21
Unity3D技巧
显示
双屏
全屏
DirectX诊断工具,dxdiag程序查看系统硬件信息
显卡
内存图文教程
今天给大家介绍一下系统自带的一个程序,它能显示出系统的一些硬件信息,比如CPU主板内存
显卡
等信息。点开始运行,输入命令dxdiag。
老盖聊技术
·
2024-03-05 17:27
Made In Heaven,LLM要加速了
这些都离不开
Nvidia
的Cuda计算,而目前适配这一驱动的只有Windows和Linux。
DisonTangor
·
2024-03-03 12:31
人工智能
transformer
Nvidia
的迅速崛起同时也让它成为众矢之的
在AI热潮中,连
Nvidia
自己的客户也想分一杯羹黄仁勋常说,他不做长远打算。他之所以不戴手表,是因为他认为“当下最为重要”。对
Nvidia
CEO黄仁勋来说,这是一个充满巨大成就与不小挑战的时刻。
Hcoco_me
·
2024-03-02 15:04
AIMAKEMONEY
arm开发
AI
英伟达
Ubuntu 22.04.4 LTS 安装cuda和cudnn
Ubuntu22.04.4LTS安装cuda和cudnn最简单最直接最快速的方法直接在命令行输入下面两行代码安装cudasudoaptinstall
nvidia
-cuda-toolkit安装cudnnsudoaptinstall
nvidia
-cudnn
鹤蓝桉
·
2024-03-01 14:56
ubuntu
linux
[C++]使用C++部署yolov9的tensorrt模型进行目标检测
首先,确保你的开发环境已安装了
NVIDIA
的TensorRT。
FL1623863129
·
2024-02-26 22:35
C/C++
目标检测
人工智能
计算机视觉
unknown flag: --gpus See ‘docker run --help‘
这是docker的版本过低导致的解决办法2种升级docker版本
nvidia
-dockerrun(后面不用加–gpus=all)
开心的宇大帅
·
2024-02-26 04:15
docker
[
NVIDIA
]-6 入手 Jetson Xavier NX USB摄像头图像采集+显示(opencv)示例
[
NVIDIA
]-6入手JetsonXavierNXUSB摄像头图像采集+显示(基于opencv)示例本文主要讲述,基于JetsonXavierNX开发者套件及安装opencv3.3.1,进行USB摄像头图像采集
钟学森
·
2024-02-26 01:09
Jetson
Xavier
NX
opencv
c++
linux
VR游戏开发干货教程:如何创建一个VR项目
简单来说,
显卡
要
NVIDIA
GTX970或AMD290以上,CPU要Inteli5-459以上,内存8GB以上,要有两个USB3.0接口,一个USB2.0接口,一个HDMI1.3接口。
wust小吴
·
2024-02-23 03:19
手游开发
手游开发
VR
服务器硬盘和台式机有什么区别,服务器和电脑主机有什么区别?
因此,它们都是CPU主板内存和硬盘电源,这与
显卡
不同。但事实上,我们平时使用的服务器主机和台式机之间有很大的差距,即使内存有很多差异,因为使用不同,所以设计也不一样。
虫啊啊
·
2024-02-22 14:02
服务器硬盘和台式机有什么区别
ubuntu20修改xorg.conf实现双屏幕输出
如果
显卡
工作正常是不需要自己手动编写xorg.conf的(这个文件一般不存在或者是空的),系统会根据xorg.conf的缺省自动设置屏幕。但有时候有的屏幕输出不对,想手动固定一下配置。
集智飞行
·
2024-02-20 23:02
ubuntu
笔记
系统
ubuntu
linux
运维
GPU独显下ubuntu屏幕亮度不能调节解决方法
GPU独显下屏幕亮度不能调节(假设你已经安装了合适的
nvidia
显卡
驱动),我试过修改/etc/default/grub的GRUB_CMDLINE_LINUX_DEFAULT="quietsplashacpi_backlight
集智飞行
·
2024-02-20 23:01
ubuntu
笔记
ubuntu
linux
想要自己的专属 AI 猫娘助理?教你使用 CPU 本地安装部署运行 ChatGLM-6B实现
关键的是结合模型量化技术,ChatGLM-6B可以本地安装部署运行在消费级的
显卡
上做模型的推理和训练(全量仅需14GB显存,INT4量化级别下最低只需6GB显存)虽然智商比不过openAI的ChatGPT
恒TBOSH
·
2024-02-20 21:05
GPT-4
人工智能
Datawhale用免费GPU线上跑AI项目实践课程任务一学习笔记。部署ChatGLM3-6B模型
结合模型量化技术,用户可以在消费级的
显卡
上进行
Hoogte-oile
·
2024-02-20 21:04
学习笔记
学习
笔记
人工智能
自然语言处理
渲染对硬件的要求有哪些?渲染100邀请码1a12
如果用的软件支持
Nvidia
的CUDA并行运算,那对CPU的性能要求就降低了。2、GPUGPU或图形处
千野竹之卫
·
2024-02-20 19:54
前端
javascript
开发语言
图形渲染
3dsmax
“幕僚智算”重磅上线,打造AI算力新平台
然而,伴随着AIGC技术的普及,对算力的需求呈几何级数增长,高端
显卡
一度供不应求。在2023年,桌面级
显卡
RTX4090曾因为短
·
2024-02-20 19:05
算法机器学习人工智能数据挖掘
AI新工具(20240219) Ollama Windows预览版;谷歌开源的人工智能文件类型识别系统; PopAi是您的个人人工智能工作空间
OllamaWindowspreview-OllamaWindows预览版用户可以在本地创建和运行大语言模型,并且支持
NVIDIA
GPU和现代CPU指令集的硬件加速Ollama发布了Windows预览版
go2coding
·
2024-02-20 17:35
AI智能工具
人工智能
开源
本地个性化聊天机器人CHAT WITH RTX
英伟达推出了自家版本的ChatGPTChatwithRTX是一个技术演示,现已免费>>>下载<<<,可让用户使用自己的内容个性化聊天机器人,并由本地
NVIDIA
GeForceRTX30系列GPU或更高版本
崎山小鹿
·
2024-02-20 17:00
神经网络
人工智能
神经网络
gpt
jetson agx orin 实时内核 调度延时测试
jetsonagxorin是
nvidia
推出的计算平台,在自动驾驶领域得到广泛应用。确定性执行是自动驾驶系统的基本要求,而任务调度的确定性是影响确定性执行的重要因素。
王燕龙(大卫)
·
2024-02-20 15:33
unix
服务器
UE问题盘点
打包后运行时应用程序崩溃GPU崩溃(TimedoutwaitingforRenderTreadafter120.00secs)分析解决:像素流送模式,部署机无显示器无分辨率所致(接显示器或
显卡
欺骗器)项目设置
井底一蛤蟆
·
2024-02-20 14:15
UE
UE
三步完成在英特尔独立
显卡
上量化和部署ChatGLM3-6B模型
作者:英特尔边缘计算创新大使刘力;1.1ChatGLM3-6B简介ChatGLM3是智谱AI和清华大学KEG实验室联合发布的新一代对话预训练模型。ChatGLM3-6B是ChatGLM3系列中的开源模型,在填写问卷进行登记后亦允许免费商业使用。引用自:https://github.com/THUDM/ChatGLM3请使用命令,将ChatGLM3-6B模型下载到本地(例如,保存到D盘):gitcl
英特尔开发人员专区
·
2024-02-20 14:29
英特尔开发套件
开发者分享
人工智能
语言模型
60分钟吃掉ChatGLM2-6b微调范例~
干货预警:这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的开源LLM的finetune教程~ChatGLM2-6b是清华开源的小尺寸LLM,只需要一块普通的
显卡
(32G较稳妥)即可推理和微调
算法美食屋
·
2024-02-20 14:59
MIT-BEVFusion系列九--CUDA-BEVFusion部署2 create_core之参数设置
图像归一化参数体素化参数稀疏卷积网络参数真实世界几何空间参数(雷达坐标系下体素网格的参数)解码后边界框的参数构建bevfusion::Core存储推理时需要的参数本章开始,我们将一起看CUDA-BEVFusion的代码流程,看看
NVIDIA
端木的AI探索屋
·
2024-02-20 14:53
自动驾驶
cuda
cuda-bevfusion
nvidia
部署
模型算法部署
bev
CUDA和cudnn安装教程
查询电脑的
显卡
安装的版本:https://docs.
nvidia
.com/cuda/cuda-toolki
悲伤的拾荒
·
2024-02-20 13:52
Pytorch
tensorflow
cuda
深度学习
python
tensorflow
pytorch
CUDA与CUDNN 关系
CUDA与cuDNN1、什么是CUDACUDA(ComputeUnifiedDeviceArchitecture),是
显卡
厂商
NVIDIA
推出的运算平台。
XF鸭
·
2024-02-20 13:52
小知识
caffe
深度学习
人工智能
绕过
Nvidia
登陆步骤直接下载cuDNN的方法 亲测有效
绕过
Nvidia
登陆步骤直接下载cuDNN的方法亲测有效现在要下载cuDNN,点击下载的页面后都是出现要求先加入
Nvidia
developers会员才能进行下载,这里笔者根据亲身的经验介绍一个可以绕过这个注册或登陆步骤的方式直接下载
ian_41732417
·
2024-02-20 13:51
深度学习
机器学习
绕过
Nvidia
官方要求的注册或登陆步骤直接下载cuDNN的方法
参考:https://blog.csdn.net/jiao_mrswang/article/details/95309247
是阳阳呀
·
2024-02-20 13:21
python
python
无需注册登录
NVIDIA
官网下载CUDNN
打开cuDNN下载网址https://developer.
nvidia
.com/rdp/cudnn-archive点击cuDNNArchive|
NVIDIA
Developer进入下图界面:找到需要的版本
justablackacat
·
2024-02-20 13:49
pytorch
pytorch
深度学习
在使用cuda12 报错Library cublas64_11.dll is not found
因为
nvidia
的升级基本上都是是CUDA12了,在我发表文章的时候如果去官网下载CUDA包默认安装CUDA版本就是12了.今天在调用fast-whisper的时候使用GPU报错Librarycublas64
atlasroben
·
2024-02-20 13:18
python
深度学习
人工智能
[技术杂谈]Chat With RTX 介绍
英伟达(
Nvidia
)已于近日发布了名为“ChatwithRTX”的Demo版个性化AI聊天机器人,并在其海外官网渠道中提供了下载链接。
FL1623863129
·
2024-02-20 13:46
技术杂谈
人工智能
cudnn免登录下载
现在要下载cuDNN,点击下载的页面后都是出现要求先加入
Nvidia
developers才能进行下载,但这个注册的过程非常慢,常常卡在第二个步骤,这里根据亲身的经验介绍一个可以绕过这个注册或登陆步骤的方式直接下载
FL1623863129
·
2024-02-20 13:13
环境配置
人工智能
GPU深度分析
比如
显卡
部分,英伟达早在2020年9月就发布了新一代的RTX3000系列
显卡
,如今四个多月过去了,依然很难买到。在黄牛
Finovy Cloud
·
2024-02-20 10:31
人工智能
算法
GPU服务器安装
显卡
驱动、CUDA和cuDNN
GPU服务器安装cuda和cudnn1.服务器驱动安装2.cuda安装3.cudNN安装4.安装docker环境5.安装
nvidia
-docker25.1ubuntu系统安装5.2centos系统安装6
嘻哈记
·
2024-02-20 08:45
服务器
人工智能
深度学习
笔记本加装内存条
文章目录一、拆前准备1.分析短板2.内存条选购3.工具准备二、拆机实操1.拆后盖2.去静电、电源断电3.斜插45度,听到“嗒”的一声,说明成功了4.插回电源,开机测试一、拆前准备1.分析短板内存、外存、
显卡
程序员爱德华
·
2024-02-20 03:55
电脑保养
电脑常识
内存条
加内存条
浅谈垃圾佬思维的高能效NAS电源方案
待机功耗从50W降低到33W,下降34%NAS配置:主板:P8B75-VCPU:E31230V2TDP69W硬盘:1x256GSATASSD1x2T2.5寸HDD,2x3TP3003T(软RAID0)
显卡
crossni
·
2024-02-20 00:45
硬件应用
硬件
电脑硬件
垃圾回收
AI芯片技术架构有哪些?FPGA芯片定义及结构分析
NVIDIA
的Tens
Hack电子
·
2024-02-20 00:43
人工智能
架构
fpga开发
关于RISC-V与Arm的对比分析和各自的应用
随着西部数据、
Nvidia
等业界巨头以及大量初创公司宣布开始使用RISC-V,A
jacksong2021
·
2024-02-19 20:29
英伟达(
NVIDIA
)和CUDA
英伟达(
NVIDIA
)是一家知名的图形处理器(GPU)制造公司,而CUDA则是
NVIDIA
推出的一种并行计算架构和编程模型。
小米人er
·
2024-02-19 20:57
我的博客
英伟达
OlMo--doc文件阅读
condacreate-y-nLLMpython=3.10ipythoncondaactivateLLMcondainstall-ypytorchtorchvisiontorchaudiopytorch-cuda=11.8-cpytorch-c
nvidia
gitcloneht
瓶子好亮
·
2024-02-19 15:47
10天学完OLMo
语言模型
Windows11(非WSL)安装Installing llama-cpp-python with GPU Support
1.安装CUDAToolkit(
NVIDIA
CUDAToolkit(availableathttps://developer.
nvidia
.com/cuda-downloads)2.安装如下物件:gitpythoncmakeVisualStudioCommunity
aiXpert
·
2024-02-19 14:30
llama
python
开发语言
CES 2024:
NVIDIA
通过新的笔记本电脑、GPU 和工具提供生成式 AI
在CES2024上,
NVIDIA
推出了一系列硬件和软件,旨在释放Windows11PC上生成式AI的全部潜力。在PC上本地运行生成式AI对于隐私、延迟和成本敏感型应用程序至关重要。
少年黑客
·
2024-02-19 10:31
电脑
人工智能
[EFI]ThinkPad-X13-Gen1-20T3电脑 Hackintosh 黑苹果efi引导文件
硬件型号驱动情况主板GigabyteX570AorusElite处理器AMDRyzen95900X已驱动内存32GBDDR43200MHz已驱动硬盘NMVeXPGAtom501TBPCIeGen4已驱动
显卡
黑果魏叔
·
2024-02-19 10:09
电脑
paddlepaddle 2.6版本在WSL2环境中如何使用
NVIDIA
显卡
运行神经网络
paddlepaddle2.6版本发布后,官网上可以使用
NVIDIA
cuda12.x进行机器学习了,训练神经网络的效率大为提升。
kampoo
·
2024-02-15 09:47
paddlepaddle
神经网络
人工智能
ubuntu快速安装miniconda
ubuntu快速安装miniconda环境ubuntu.22.04
显卡
RTX3050关于选择Miniconda还是Anaconda的问题,Anaconda安装包比较大,耗时比较长,如果你是绝对的初学者,
丰色木夕
·
2024-02-15 08:23
ubuntu
miniconda
conda
cuBLAS Level-1 Function
仅为学习记录,具体内容请以
nvidia
官方文档为准:https://docs.
nvidia
.com/cuda/cublas/index.html#cublas-level-1-function-reference
Junr_0926
·
2024-02-15 04:17
多机多卡运行nccl-tests和channel获取
多机多进程多节点运行nccl-testschannel获取环境Ubuntu22.04.3LTS(GNU/Linux5.15.0-91-genericx86_64)cuda11.8+cudnn8nccl2.15.1
NVIDIA
GeForceRTX4090
Pretend ^^
·
2024-02-15 02:03
#
NCCL
NCCL
分布式
mpi
深度学习
ubuntu
网络
大模型
(新人免费)使用函数计算FC云端部署Stable Diffusion丨阿里云
使用函数计算FC云端部署StableDiffusion丨阿里云开通前置服务1.函数计算FC作用:代码层面实现SD以及调用云端的
显卡
、CPU进行计算点击立即使用,按照提示支付宝扫码、认证2.文件存储NARS
weixin_45597589
·
2024-02-14 22:02
#
stable
diffusion部署专题
stable
diffusion专题
云计算
stable
diffusion
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他