E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
NVIDIA显卡
Anaconda配置tensorflow-gpu教程
最近在入门tensorflow深度学习,配置环境吃了不少苦头,写个完整的教程首先得在自己主机上装cuda(我之前就是主机上没装cuda,只在虚拟环境里面装了,结果jupyter里面怎么调都识别不到GPU)打开
Nvidia
rubisco214
·
2025-02-28 22:19
tensorflow
人工智能
python
服务器Ubuntu22.04系统下 ollama的详细部署安装和搭配open_webui使用
基本环境配置1.更新包列表:2.安装docker依赖3.添加docker密钥4.添加阿里云docker软件源5.安装docker6.安装完成docker测试7.docker配置国内镜像源二、安装英伟达
显卡
驱动
m0_74824954
·
2025-02-28 12:09
服务器
运维
【有啥问啥】深入了解 FlashMLA:Hopper GPU 的高效 MLA 解码内核
为了应对这些挑战,DeepSeek推出了FlashMLA,这是一种专为
NVIDIA
HopperGPU架构优化的高效MLA(Multi-LayerAttention)解码内核。
有啥问啥
·
2025-02-28 09:12
大模型
行业调研
科普
算法
语言模型
Stable diffusion 3.5本地运行环境配置记录
3.10Pytorch(>2.0)condainstallpytorch==2.2.2torchvision==0.17.2torchaudio==2.2.2pytorch-cuda=12.1-cpytorch-c
nvidia
Jupyter
寸先生的牛马庄园
·
2025-02-28 09:38
扩散模型
stable
diffusion
Llama.cpp 服务器安装指南(使用 Docker,GPU 专用)
硬件:
NVIDIA
GPU(例如RTX4090)。内存:16GB+系统内存,GPU需12GB+显存(RTX4090有24GB)。存储:15GB+可用空间(用于源码、镜像和模型文件)。
田猿笔记
·
2025-02-28 09:37
AI
高级应用
llama
服务器
docker
llama.cpp
阿里重磅模型深夜开源;DeepSeek宣布开源DeepGEMM;微软开源多模态AI Agent基础模型Magma...|网易数智日报
阿里重磅模型深夜开源:表现超越Sora、Pika,消费级
显卡
就能跑2月26日,25日深夜阿里云视频生成大模型万相2.1(Wan)正式宣布开源,此次开源采用Apache2.0协议,14B和1.3B两个参数规格的全部推理代码和权重全部开源
网易数智
·
2025-02-28 03:16
网易数智日报
开源
人工智能
大数据
业界资讯
ai
AIGC
H100生成式AI效能跃升指南
内容概要作为
NVIDIA
Hopper架构的旗舰产品,H100GPU通过革命性的硬件设计与计算范式重构,为生成式AI工作负载提供了前所未有的加速能力。
智能计算研究中心
·
2025-02-28 02:14
其他
A100高效架构深度解析
内容概要
NVIDIA
A100GPU作为面向人工智能与高性能计算的关键硬件载体,其架构创新标志着计算范式的重要演进。
智能计算研究中心
·
2025-02-28 02:14
其他
nvidia
docker,
nvidia
docker2,
nvidia
container toolkits区别
主要原因是
Nvidia
为docker容器的支持发生了好几代变更,api发生了不少变化。下面来总结一下各代支持发展历程。
coco_1998_2
·
2025-02-28 01:40
#
CUDA
#
Docker
docker
容器
DeepSeek本地部署必要性分析及云端替代方案推荐
一、本地部署适用场景分析硬件要求完整版模型需≥32GB显存(推荐
NVIDIA
A100/A800)基础版也需RTX3090级别
显卡
(约150W功耗)适用人群建议✔️企业用户:需私有化部署处理敏感数据✔️研究人员
Asher_Yao
·
2025-02-28 01:08
人工智能
docker部署GPU环境
使用Docker部署GPU环境涉及到几个关键步骤,以下是详细步骤:1.安装
NVIDIA
驱动程序确保你的系统已经安装了
NVIDIA
GPU驱动。这是使用GPU的前提条件。
atom goper
·
2025-02-27 20:53
gru
docker
A100 解析:为何它成为 AI 大模型时代的首选?
前言
NVIDIA
A100TensorCoreGPU可针对AI、数据分析和HPC应用场景,在不同规模下实现出色的加速,有效助力更高性能的弹性数据中心。
PPIO派欧云
·
2025-02-27 18:37
算力
gpu算力
算法
ai
Linux进程相关命令之
nvidia
-smi
动态显示正在运行的进程pstree:树状查看正在运行的进程pgrep:用于查找进程nice:更改进程的优先级jobs:显示进程的相关信息bg和fg:将进程调入后台kill:杀死进程在开发机中还有一条特殊的命令
nvidia
-smi
find_element_by_id
·
2025-02-27 10:35
linux
服务器
运维
NVIDIA
CUDA Compiler Driver NVCC
NVIDIA
CUDACompilerDriverNVCC4.2.8.23.`--list-gpu-code`(`-code-ls`)4.2.8.24.
Yongqiang Cheng
·
2025-02-27 05:23
NVIDIA
GPU
-
CUDA
-
cuDNN
NVIDIA
CUDA
Compiler
NVCC
NVIDIA
JetPack 6.2 引入超级模式
NVIDIA
JetPack6.2为
NVIDIA
JetsonOrinNano和JetsonOrinNX模块引入超级模式借助SuperModes,JetsonOrinNX系列可将AITOPS提升高达70%。
雨田嘟嘟
·
2025-02-27 02:27
nvidia
linux
云原生周刊:云原生和 AI
FlashMLA是专为
NVIDIA
Hopper架构GPU(如H100、H800)优化的高效多头潜在注意力(MLA)解码内核,旨在提升大模型推理性能,特别是针对可变长度序列进行了优化。
·
2025-02-26 19:58
云计算
DeepSeek在笔记本电脑本地部署
电脑:Notebook,Intel集成
显卡
环境:Windows11准备:安装python3.10以上版本,我的电脑里有3.10.11,略过此步骤。
SayForLin
·
2025-02-26 17:54
深度学习
python
在Intel GPU上使用IPEX-LLM进行本地BGE嵌入
Intel的IPEX-LLM是一种专门为IntelCPU和GPU优化的PyTorch库,能够在包括本地PC上的集成
显卡
和独立
显卡
(如Arc、Flex和Max)在内的Intel硬件上以极低的延迟运行大型语言模型
shuoac
·
2025-02-26 16:16
python
下载cuda11.2+cudnn8.1+tensorflow-gpu2.5
下载前请先安装
显卡
驱动,去
显卡
官网找对应的驱动,英伟达4060就去英伟达官网找4060的驱动。
听微雨
·
2025-02-26 14:03
深度学习
tensorflow
人工智能
【TVM教程】为
NVIDIA
GPU 自动调度神经网络
本文介绍如何使用auto-scheduler为
NVIDIA
GPU调优整个神经网络。为自动调优神经网络,需要将网络划分为小的子图并独立调优。每个子图被视为
HyperAI超神经
·
2025-02-26 09:57
TVM
神经网络
人工智能
深度学习
TVM
GPU
NVIDIA
语言模型
K8S集群搭建(kubeadm+calico)
准备阶段环境
显卡
:4060ti系统:ubuntu22.041.安装docker官网安装步骤:#AddDocker'sofficialGPGkey:sudoapt-getupdatesudoapt-getinstallca-certificatescurlsudoinstall-m0755
·
2025-02-26 05:02
kubernetes
flash_attn安装
flash_attn安装1.cuda-nvcc安装https://anaconda.org/
nvidia
/cuda-nvcc2.torch安装#https://pytorch.org/#找到对应cuda
壶小旭
·
2025-02-26 03:46
Python
Linux
python
PaddleOCR环境搭建(记录)
需
nvidia
下载zlib包即C:\ProgramFiles\
NVIDIA
GPUComputingToolkit\CUDA\v1
江木27
·
2025-02-25 21:04
PaddleOCR
paddle
RK3568平台(显示篇)显示系统基本概念
Frambebuffer驱动Frambebuffer驱动具有以下特征:直接控制
显卡
的帧缓冲区,提供基本的
显卡
输出功
嵌入式_笔记
·
2025-02-25 13:32
瑞芯微
linux
电脑经常绿屏(蓝屏)怎么办(解决方法)?
更新或回滚
显卡
驱动绿屏问题常由
显卡
驱动异常引起。通过设备管理器卸载当前
显卡
驱动,重启后从官网下载并安装最新版本驱动25。若更新后问题未解决,可尝试回滚到旧版稳定驱动
系着秋天的落叶�
·
2025-02-25 11:47
安全
电脑
RTX 3090图形处理巅峰性能解析
内容概要作为
NVIDIA
面向专业创作者与发烧级玩家的旗舰产品,RTX3090重新定义了图形处理的性能边界。
智能计算研究中心
·
2025-02-25 03:26
其他
RTX 4090图形架构性能突破实测
内容概要作为
NVIDIA
新一代旗舰
显卡
,RTX4090基于AdaLovelace架构实现了硬件设计与软件优化的双重突破。本文将从核心架构革新、多分辨率场景性能表现及能效管理技术三大维度展开分析。
智能计算研究中心
·
2025-02-25 03:55
其他
H100
显卡
全面评测与性能解析
内容概要在本篇评测中,我们将围绕H100
显卡
展开全面的分析。首先,我们将对H100
显卡
的技术规格进行细致剖析,帮助读者了解其构造及功能。
智能计算研究中心
·
2025-02-25 03:25
其他
第G9周:ACGAN理论与实战
本人往期文章可查阅:深度学习总结我的环境:语言环境:Python3.11编译器:PyCharm深度学习环境:Pytorchtorch==2.0.0+cu118torchvision==0.18.1+cu118
显卡
OreoCC
·
2025-02-24 18:50
GAN
ubuntu多版本cuda如何指定cuda版本
cuda版本文章目录ubuntu多版本cuda如何指定cuda版本1.关于cuda设置1.1查看当前安装的CUDA版本1.2下载并安装所需的CUDA版本1.3设置环境变量1.4验证切换1.5安装对应的
NVIDIA
slience_me
·
2025-02-24 15:00
服务器
linux
ubuntu
linux
运维
显卡
3050ti等安培架构的GPU安装paddlepaddle
官网原话如果您使用的是安培架构的GPU,推荐使用CUDA11.2如果您使用的是非安培架构的GPU,推荐使用CUDA10.2,性能更优其他配套确定软件版本后,到官网下载对应版本的软件CUDA:CUDAToolkitArchive|
NVIDIA
DevelopercuDNN
社会闲散人员中的代码爱好者
·
2025-02-24 14:49
python
环境搭建
python
人工智能
深度学习
简单介绍
NVIDIA
推出的图形处理单元(GPU)架构“安培架构“
概念"安培架构"(AmpereArchitecture)是
NVIDIA
推出的一款图形处理单元(GPU)架构,它是继图灵架构之后的下一代产品。
神仙约架
·
2025-02-24 13:13
人工智能
架构
安培
安培架构
NVIDIA
Ollama 部署指南(Windows)
Ollama现在作为本机Windows应用程序运行,包括
NVIDIA
和AMDRadeonGPU支持。
圣心
·
2025-02-24 11:27
windows
NVIDIA
-vGPU介绍和下载地址以及安装流程
这里以
NVIDIA
-Linux-x86_64-470.63-vgpu-kvm.run文件进行介绍和下载安装
NVIDIA
-Linux-x86_64-470.63-vgpu-kvm介绍
NVIDIA
-Linux-x86
萌萌哒240
·
2025-02-23 13:56
环境配置
服务器
linux
运维
NVIDIA
A100 SXM4与
NVIDIA
A100 PCIe版本区别深度对比:架构、性能与场景解析
NVIDIA
A100SXM4与PCIe版本深度对比:架构、性能与场景解析作为
NVIDIA
Ampere架构的旗舰级数据中心GPU,A100系列凭借强大的计算能力和显存带宽,已成为人工智能训练、高性能计算(
ASI人工智能
·
2025-02-23 09:55
人工智能
架构
机器人
AIGC
gpt
文心一言
palm
英伟达(
NVIDIA
)芯片全解析:专业分类、应用场景与真实案例
你每天使用的智能手机、AI语音助手、自动驾驶汽车,甚至是电影特效背后,都有英伟达(
NVIDIA
)的芯片在默默工作。
嵌入式Jerry
·
2025-02-23 06:31
AI
分类
人工智能
数据挖掘
嵌入式硬件
linux
数据分析
算法
deepseek-r1系列模型私有化部署分别需要的最低硬件配置
DeepSeek-R1系列模型部署所需的最低硬件配置如下:DeepSeek-R1-1.5BCPU:最低4核(推荐多核处理器)内存:8GB+硬盘:3GB+存储空间(模型文件约1.5-2GB)
显卡
Sophie'sCookingLab
·
2025-02-23 05:21
大模型
deepseek
ubuntu环境搭建备忘
ubuntu环境搭建备忘ubuntu系统安装
nvidia
驱动安装docker安装
nvidia
-docker安装git备忘alias配置ubuntu系统安装用U盘安装,ubuntu16/18都一样1.官网下镜像
Gammm
·
2025-02-23 03:38
Head First设计模式总结(五) 单件模式
对单件模式进行了概括和总结单件模式确保一个类只有一个实例,并提供一个全局访问点有一些对象我们只需要一个,比方说:线程池(threadpool)、缓存(cache)、对话框、处理偏好设置和注册表(registry)的对象、日志对象,充当打印机、
显卡
等设备的驱动程序的对象
float_yy
·
2025-02-21 20:22
Java设计模式
Head
First设计模式
单例模式
Java设计模式
面向对象编程
NVIDIA
B200:高性能 AI 计算的未来
NVIDIA
长期处于人工智能硬件开发的最前沿,它再次凭借由Blackwell架构驱动的B200提高了标准。最近的MLPerf基准测试提供了B200的首批可靠数据,结果非常出色。
知识大胖
·
2025-02-21 15:01
NVIDIA
GPU和大语言模型开发教程
人工智能
nvidia
b200
本地运行stable-diffusion3.5
SD3.5文件启动ComfyUI启动在工作流中分别选中三个Clip模型sd3.5_large_turbo准备本地运行stable-diffusion3.5AI时代不可阻挡,给老机器加了个406016G
显卡
wisfy_21
·
2025-02-21 12:08
stable
diffusion
本地部署DeepSeek的硬件配置建议
显卡
:GTX1060(6GB显存)或更高,推荐RTX3060(8GB显存);若需流畅运行7B模型,建议RTX4060
显卡
。存储:至少20GB剩余空间,推荐NVMe固态硬盘。2
冷冷清清中的风风火火
·
2025-02-21 12:05
笔记
AI
ai
人工智能
在本地部署Ollama服务接口附加OpenWebUI做测试
使用Ollama在本地部署一个类似openai的API做开发和测试1、准备一个旧电脑因为配置要求不高,五年前的电脑都能使用,装一块旧
显卡
,显存大一点的最好有8G。
alalaal
·
2025-02-21 01:24
人工智能
linux
centos
Ubuntu 20.04 安装英伟达
显卡
驱动 cuda cudnn
blacklistnouveauoptionsnouveaumodeset=0sudoupdate-initramfs-usudorebootlsmod|grepnouveau没有任何信息显示,说明nouveau已被禁用,接下来可以安装
nvidia
weixin_38679037
·
2025-02-21 01:19
ubuntu
深度学习
Ubuntu20.04安装英伟达
显卡
驱动,疑难问题解决
Ubuntu安装/卸载/升级
NVIDIA
驱动(10条消息)
Nvidia
显卡
FailedtoinitializeNVMLDriver/libraryversionmismatch错误解决方案_苍蓝儿的博客
未知名dfddsfs
·
2025-02-21 00:17
ubuntu
linux
运维
对于一个程序员来说,电脑的内存需要多大?
1、程序员电脑内存有多大内存够用足够了,纯写代码的编程对电脑要求不高,尤其对
显卡
几乎没有要求,一般编程可能开的任务窗口比较多,所以只要cpu和内存大点就可以了一般来说,处理器确实比
显卡
来得重要一些,因为我们的电脑中只配备了一块处理器
c++服务器开发
·
2025-02-20 20:48
电脑
华为昇腾服务器部署DeepSeek模型实战
服务器是配置了8块910B3的
显卡
,每块
显卡
有64GB显存,根据DeepSeekR1各个模型的参数计算,如果部署R1的Qwen14B版本,需要1张
显卡
,如果是32B版本,需要2张,Llama70B的模型需要
gzroy
·
2025-02-20 18:22
人工智能
语言模型
4070与3070ti
显卡
性能对比:哪款更适合您的需求?
4070与3070ti
显卡
性能对比:哪款更适合您的需求?在高性能
显卡
市场中,4070和3070ti无疑是两款备受瞩目的产品。
mmoo_python
·
2025-02-20 15:29
windows
深入浅出:CUDA是什么,如何利用它进行高效并行计算
为了满足这些需求,
NVIDIA
推出了CUDA(ComputeUnifiedDeviceArchitecture),这是一种并行计算平台和编程模型。
码上飞扬
·
2025-02-20 03:38
CUDA
win11系统亮度调节显示条存在,调节失效的问题解决及补充
没有亮度条是显示卡驱动丢失根据目前CSDN所提出的主流方式以及线下售后门店人员所提供的解决方案1.设备管理器更新显示卡驱动(核显2.更新显示屏(监视器)驱动3.禁用
显卡
后更新显示屏驱动4.检查监视器是否为
Luis Li 的猫猫
·
2025-02-20 01:03
windows
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他