E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
NVIDiA
联想E470 双GPU笔记本部署私有AI模型方案
背景:手上有一台联想E470的闲置笔记本,配置如下:(IntelHD620核显+
NVIDIA
920MX独显,i5-7200UCPU),想用它来部署并学习AI模型。
月光技术杂谈
·
2025-02-19 02:18
大模型初探
人工智能
ChatGLM3
联想E470
Qwen-7B
Phi-3-mini
AI日报 - 2025年02月16日 - 推特版
今日概览(60秒速览)▎AGI突破|阿里巴巴发布Qwen2.5-VL视觉语言模型,支持多模态交互新模型评测榜性能提升30%▎商业动向|
NVIDIA
Blackwell超级芯片网络研讨会将聚焦生成式AI创新预计推动算力市场增长
訾博ZiBo
·
2025-02-18 21:27
AI日报
人工智能
DeepSeek 入门:在 MacOS 上本地运行 DeepSeek-R1
推荐文章《如何在本地电脑上安装和使用DeepSeekR-1》权重1,DeepSeek《
Nvidia
知识大胖
·
2025-02-18 20:46
NVIDIA
GPU和大语言模型开发教程
macos
deepseek
janus
pro
ollama
服务器A到服务器B免密登录
/bin/bash#变量定义source_host="192.168.42.250"#源主机IPtarget_host="192.168.24.43"#目标主机IPtarget_user="
nvidia
悟空空心
·
2025-02-18 20:12
ssh
[C#]C#使用yolov8的目标检测tensorrt模型+bytetrack实现目标追踪
【测试通过环境】win10x64vs2019cuda11.7+cudnn8.8.0TensorRT-8.6.1.6opencvsharp==4.9.0.NETFramework4.7.2
NVIDIA
GeForceRTX2070Super
FL1623863129
·
2025-02-17 23:55
深度学习
c#
YOLO
目标检测
人工智能的发展领域之GPU加速计算的应用概述、架构介绍与教学过程
该平台提供多种
NVIDIA
GPU选择,适用于机器学习、人
m0_74824592
·
2025-02-17 15:00
面试
学习路线
阿里巴巴
人工智能
架构
DeepSeek大模型本地化部署与实践指南
部署准备硬件要求配置项推荐规格最低要求GPU
NVIDIA
A10080Gx4RTX309024GCPUIntelXeonSilver4314i7-12700K内存512GBDDR464GBDDR4存储2TBNVMeSSD512
星辰@Sea
·
2025-02-17 11:31
人工智能
人工智能
DeepSeek
AI
nlp
Nvidia
系列显卡大解析 B100、A40、A100、A800、H100、H800、V100 该如何选择,各自的配置详细与架构详细介绍,分别运用于哪些项目场景
大家好,我是,今天给大家介绍一下本文深入解析了
Nvidia
系列显卡B100、A40、A100、A800、H100、H800、V100的配置细节和架构特点,并探讨了它们在不同项目场景中的适用性。
m0_74823317
·
2025-02-17 03:26
架构
【Stable Diffusion部署至GNU/Linux】安装流程
显卡与计算架构介绍CUDA是
NVIDIA
GPU的专用并行计算架构技术层级说明CUDAToolkit提供GPU编译器(nvcc)、数学库(cuBLAS)等开发工具cuDNN深度神经网络加速库(需单独下载)
星星点点洲
·
2025-02-17 00:34
stable
diffusion
解决Deepseek服务器繁忙的两种高效方案:本地部署与平替平台实测
:本地化部署核心优势说白了就是模型部署在自己本地,只有自己一个人用了没人挤了,但是对电脑硬件要求高部署步骤详解环境准备系统要求:Linux/Windows10+(推荐Ubuntu20.04)硬件配置:
NVIDIA
小真—
·
2025-02-16 18:52
自然语言处理
ai
人工智能
DeepSeek 大模型离线 Docker 部署技术指南
,核心组件包括:模型服务层:基于TritonInferenceServer的模型推理容器API网关层:FastAPI实现的REST/gRPC接口服务资源管理层:CUDA-awareDocker运行时+
NVIDIA
GPU
容器的搬运工
·
2025-02-16 04:32
docker
eureka
容器
深度学习基础知识
cuda简介:CUDA(ComputeUnifiedDeviceArchitecture)是由
NVIDIA
开发的一种并行计算平台和应用程序编程接口(API)。
namelijink
·
2025-02-15 15:22
深度学习
人工智能
如何在我的电脑上查看是否安装cuda12?我现在在我的VS中新建项目时,里面多出来一个CUDA12.4 runtime,这是什么?是不是使用CUDA cpp进行编程?
在你的电脑上检查是否安装了CUDA12,可以通过以下几种方法:1.检查CUDAToolkit安装目录查看CUDA安装目录:-默认情况下,CUDAToolkit安装在C:\ProgramFiles\
NVIDIA
GPUComputingToolkit
吃榴莲的小鳄鱼
·
2025-02-15 15:21
电脑
windows 安装nvidaia驱动和cuda
安装nvidaia驱动和cuda官网搜索下载驱动https://www.
nvidia
.cn/drivers/lookup/这里查出来的都是最高支持什么版本的cuda安装时候都默认精简就行官网下载所需版本的
njl_0114
·
2025-02-15 14:14
配置环境
windows
c++加载TensorRT调用深度学习模型方法
步骤1:准备环境安装TensorRT:确保你已经安装了
NVIDIA
TensorRT库。准备模型:确保你的训练好的模型已经转换为TensorRT支持的格式,通常是一个.engine文件。
feibaoqq
·
2025-02-15 13:35
深度学习
深度学习
YOLO
使用vllm docker容器部署大语言模型
安装过程安卓docker和
nvidia
-container-toolkit安装19.03版本以上的docker-ce即可。
yuanlulu
·
2025-02-15 05:33
LLM
docker
语言模型
容器
ubuntu系统vllm部署deepseek
配置:8张英伟达H800显卡,硬盘14T,内存2T;本次部署显卡驱动和Miniconda都已安装,所以直接从步骤4的创建虚拟环境开始;
nvidia
-smi命令查看显卡;1.系统更新和依赖安装#更新系统包
打工乞丐
·
2025-02-14 20:22
ubuntu
elasticsearch
linux
服务器
深度学习
AI超周期现状 -
NVIDIA
、苹果以及人工智能的整体需求
于2024年6月6日在中国杭州拍摄的英伟达和苹果的标志。到6月5日,东部时间,英伟达的市值超过3万亿美元,正式超越苹果的市值,成为全球市值第二大的科技巨头。值得注意的是,短短3个多月时间里,英伟达的市值就从2万亿美元飙升至3万亿美元。(由Costfoto摄于NurPhoto,经盖蒂图片社批准)在九月初经历了几天的市场动荡后,又有一波关于人工智能超级周期是否已结束的讨论。如果没有结束,那接下来会怎么
AI钛媒体
·
2025-02-14 15:48
人工智能
百度
分布式训练三大并行策略:数据、模型与流水线并行的本质解析
截至2023年,大型语言模型的参数量已突破万亿级别(如GooglePaLM2达到3400亿参数),单卡显存容量(
NVIDIA
A10080GB)与计算能力(312TFLOPS)面临严峻挑战。
WHCIS
·
2025-02-14 10:07
#
分布式训练
人工智能与机器学习
分布式
人工智能
深度学习
windows hyperv中Ubuntu使用本机的
nvidia
显卡
在WindowsHyper-V中,Ubuntu虚拟机默认无法直接使用主机的
NVIDIA
显卡,因为Hyper-V的虚拟化技术会独占GPU资源。
飞瀑
·
2025-02-14 05:26
ubuntu
linux
运维
GPU(Graphics Processing Unit)详解
关键特性:高并行度:现代GPU包含数千个计算核心(如
NVIDIA
H100拥有18,432个CUDA核心)。专用内存系统:配备高带宽
美好的事情总会发生
·
2025-02-14 03:32
AI
人工智能
嵌入式硬件
硬件工程
ai
自学人工智能大模型,满足7B模型的训练和微调以及推理,预算3万,如何选购电脑
在这个预算范围内,以下是推荐的配置:1.关键硬件配置(1)GPU(显卡)推荐显卡:
NVIDIA
RTX4090(24GBVRAM)或者RTX3090(24GBVRAM)理由:7B模型推理:24GB显存足够跑
岁月的眸
·
2025-02-13 23:03
人工智能
unity引擎包含哪些核心组件
PhysicsEngine:物理引擎(基于
NVIDIA
PhysX)模拟真实世界的物理行为,包括碰撞检测和刚体动力学。Sc
你一身傲骨怎能输
·
2025-02-13 21:49
商业化游戏开发技术专栏
unity
游戏引擎
9分钟带你了解
NVIDIA
专业显卡
https://www.bilibili.com/video/BV1EjiRY7E3T/?aid=113599653617...
·
2025-02-13 20:48
Tritonserver 在得物的最佳实践
一、Tritonserver介绍Tritonserver是
Nvidia
推出的基于GPU和CPU的在线推理服务解决方案,因其具有高性能的并发处理和支持几乎所有主流机器学习框架模型的特点,是目前云端的GPU
·
2025-02-13 16:03
运维
联想y7000p安装ubuntu 22.04双系统无法正常关机
ubuntu22.04双系统无法正常关机联想y7000p安装ubuntu22.04双系统无法正常关机关机时一直停留在ubuntu的logo界面,下面是解决办法:本机配置:win11+ubuntu22.04双系统
nvidia
RTX3050
KouweiLee
·
2025-02-13 10:02
ubuntu
linux
运维
Python调用
NVIDIA
的Deepseek-r1接口
importosimportjsonfromopenaiimportOpenAIfromopenaiimportOpenAIErrorclient=OpenAI(base_url="https://integrate.api.
nvidia
.com
ljz2016
·
2025-02-13 10:00
python
android
javascript
CES 2025
NVIDIA
Project DIGITS 与更多突破性发布全解析
每周跟踪AI热点新闻动向和震撼发展想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行!订阅:https://rengongzhineng.io/观看视频B站链接:【年尾特献:AI的规模定律(scalinglaw)和芯片业达到瓶颈了吗
新加坡内哥谈技术
·
2025-02-12 21:17
人工智能
科技
生活
自动化
深度学习
CUDA与CUDPP源码解析及实战应用
本文还有配套的精品资源,点击获取简介:CUDA是
NVIDIA
推出的并行计算平台,CUDPP是一个提供GPU优化算法的开源库。
昊叔Crescdim
·
2025-02-12 19:06
如何查看Ubuntu24.04系统,显卡是什么型号,适配的驱动是什么?
为了专门找到
NVIDIA
显卡,可以使用如下命令:lspci|grep-i
nvidia
这个命令会过滤出所有与
NVIDIA
相关的条目,并显示显卡的具体型号。如果您不确定显卡的品牌或者想要获
一眼青苔
·
2025-02-12 13:24
linux
linux
运维
Deep Seek大模型部署到本地 详细教程
以下是将DeepSeek大模型部署到本地开发环境的详细教程,分为多个步骤,包含技术细节和注意事项:步骤1:环境准备硬件要求GPU:推荐
NVIDIA
GPU(至少16GB显存,如RTX3090/4090或A100
Katie。
·
2025-02-12 11:40
人工智能
AI编程
ai
You already have a newer version of the
NVIDIA
Frameview SDK installed
设置-应用-卸载
nvidia
frameview.Youalreadyhaveanewerversionofthe
NVIDIA
FrameviewSDKinstalled”先把电脑已经存在的FrameViewSDK
9677
·
2025-02-12 10:34
Python
python
nvidia
-smi无法使用解决
通过安装本地驱动解决查看目录下
nvidia
文件夹ls-l/usr/src/例如显示如下内容:其中
nvidia
-570.86.15就是当前
nvidia
驱动版本对应的文件首先,安装dkmssudoapt-getinstalldkms
扛着相机的翻译官
·
2025-02-11 19:43
Linux
ubuntu
报错:检测不到cuda解决方案
1.
nvidia
-smi查看:
NVIDIA
-SMIhasfailedbecauseitcouldn’tcommunicatewiththe
NVIDIA
driver.Makesurethatthelatest
NVIDIA
driverisinstalledandrunning
H_Shelly
·
2025-02-11 15:49
pytorch
CUDA检测失败的解决方案
您可以从
NVIDIA
官方网
HackDashX
·
2025-02-11 15:49
Python
NVIDIA
-docker Cheatsheet
TensorFlowDockerrequirementsInstallDockeronyourlocalhostmachine.ForGPUsupportonLinux,install
nvidia
-docker.Note
weixin_30758821
·
2025-02-11 11:22
运维
开发工具
shell
【ubuntu24.04】GTX4700 配置安装cuda
筛选显卡驱动显卡驱动
NVIDIA
-Linux-x86_64-550.135.run而后重启:最新的是12.6用于ubuntu24.04,但是我的4700的显卡驱动要求12.4cuda
等风来不如迎风去
·
2025-02-11 01:58
AI入门与实战
cuda
ubuntu24.04
显卡
深度学习
虚拟显卡 display port
3.主要显卡制造商:-
NVIDIA
-AMD-Intel(集成显卡)4.驱动更新:-可以通过Win
爱学习的大牛123
·
2025-02-10 22:05
windows驱动内核开发
windows
CUDA环境配置
本文介绍Ubuntu14.04下CUDA环境的安装过程标签高性能计算(HPC)并行化加速学习CUDA最好的去处还是
NVIDIA
官网,上面许多文档写的都相当不错,比如CUDA编程指南、如何使用cuRand
波小澜
·
2025-02-10 00:29
CUDA
cuda
ubuntu
环境配置
Ollama部署 DeepSeek-R1:70B 模型的详细步骤
若使用
NVIDIA
T4(16GB显存),需多卡并行(如8卡)或开启量化(如q4_0、q8_0)。内存需求:建议至少64GB系统内存。存储空间:模型文件约40-140GB(取决于量化方式)。
MonkeyKing.sun
·
2025-02-09 12:11
chrome
前端
超简单的Ollama集成 DeepSeek 本地化安装教程
Ollama支持Windows、macOS、Linux等操作系统以下是Ollama集成DeepSeek的详细安装教程:一、准备工作硬件要求:配备
NVIDIA
显卡的电脑(显存≥8GB)。
diygwcom
·
2025-02-09 10:25
DeepSeek
llama
chatbox
ai
Ubuntu20.04+GeForce RTX 2080 SUPER+cuda11.1+cudnn8.0.4+openCV4.4.0环境搭建
GeForceRTX2080SUPER+cuda11.1+cudnn8.0.4+openCV4.4.0环境搭建出现的问题1:ubuntu20.04安装libpng12-devlibpng12-0出现的问题2:安装
nvidia
pkuyjxu
·
2025-02-08 08:06
cuda
ubuntu
FFmpeg使用GPU编解码,及在C++代码中实现FFmpeg使用GPU编解码
以下是使用GPU进行编解码的常见方法:1.使用
NVIDIA
GPU(通过NVENC/NVDEC)
NVIDIA
提供了NVENC(编码)和NVDEC(解码)硬件加速。
沐风_ZTL
·
2025-02-08 05:47
ffmpeg
c++
开发语言
GPU
视频编解码
运用Faster RCNN、YOLO经典目标检测算法对滑坡图像进行检测
本次实验采用的操作系统为Ubuntu16.04平台,编程环境基于Python,GPU为
NVIDIA
GeForce740m,在基于深度学习框架CAFFE下进行实验。实验输出结果
AngeliaZ
·
2025-02-08 04:10
Faster
RCNN
YOLO
deepseek本地部署会遇到哪些坑
使用
nvidia
-smi监控显存,通过降低batch_size或模型量化(如FP16/INT8)优化资源。CPU模式下考虑模型轻量化(如使用ONN
skyksksksksks
·
2025-02-07 11:49
AI个人杂记
人工智能
深度学习
神经网络
自然语言处理
【AI基础】K8S环境使用GPU--Kubernetes环境(三)
AI时代下,学习如何使用和管理GPU是基础入门技能,本文以常见的
NVIDIA
GPU为例,介绍在普通机器、Docker和Kubernetes等不同的环境下如何使用和管理GPU。
赛博Talk
·
2025-02-07 07:26
AI基础入门
人工智能
kubernetes
docker
gpu算力
AI编程
K8S中使用英伟达GPU —— 筑梦之路
前提条件根据不同的操作系统,安装好显卡驱动,并能正常识别出来显卡,比如如下截图:GPU容器创建流程containerd-->containerd-shim-->
nvidia
-container-runtime
筑梦之路
·
2025-02-07 07:25
虚拟化
linux系统运维
kubernetes
GPU
在本地运行DeepSeek Janus 系列,DeepSeek Janus 系列用于图像理解和生成的统一多模态 AI
推荐文章《如何在本地电脑上安装和使用DeepSeekR-1》权重1,DeepSeek《
Nvidia
系列之使用
NVIDIA
IsaacSim和ROS2的命令行控制您的机器人》权重1,
NVIDIA
Isaa
知识大胖
·
2025-02-07 02:54
NVIDIA
GPU和大语言模型开发教程
人工智能
deepseek
有趣的项目--汇总
文章目录前言一、AI类二、前言持续记录有意思的项目,欢迎大家讨论一、AI类openglass+ollama:链接:OpenGlassAI眼镜的环境配置与实现I
nvidia
Jetson+LLM:链接:生成式人工智能应用
cladel
·
2025-02-06 09:00
人工智能
ffmpeg 硬件解码 264 265 各个平台
以下是在不同平台上使用FFmpeg进行硬件解码的概述:1.
NVIDIA
GPU(NVDEC)适用于Windows、Linux和macOS(较旧的Mac设备)。
爱学习的大牛123
·
2025-02-06 01:54
音视频
ffmpeg
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他