E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
NVIDIA显卡
Ubuntu 20.04系统 安装
显卡
驱动RTX3080
网络上很多,试过很多前人的经验,多多少少都有些奇怪问题特别是对于我这样的新手我记录下,仅代表我个人安装成功的经验说明,我是台式机安装Ubuntu怎么安装完系统就不谈了,主要说第一次进入系统之后的事情1,进入系统之前,关闭secureboot(这个很重要,怎么关闭自己百度,主板不一样稍微有点区别)2,进入Ubuntu系统,打开命令端第一目的是首先更新源打开编辑sources.list文件sudoge
imecco
·
2025-02-08 08:06
安装
ubuntu
linux
FFmpeg使用GPU编解码,及在C++代码中实现FFmpeg使用GPU编解码
以下是使用GPU进行编解码的常见方法:1.使用
NVIDIA
GPU(通过NVENC/NVDEC)
NVIDIA
提供了NVENC(编码)和NVDEC(解码)硬件加速。
沐风_ZTL
·
2025-02-08 05:47
ffmpeg
c++
开发语言
GPU
视频编解码
运用Faster RCNN、YOLO经典目标检测算法对滑坡图像进行检测
本次实验采用的操作系统为Ubuntu16.04平台,编程环境基于Python,GPU为
NVIDIA
GeForce740m,在基于深度学习框架CAFFE下进行实验。实验输出结果
AngeliaZ
·
2025-02-08 04:10
Faster
RCNN
YOLO
deepseek本地部署会遇到哪些坑
使用
nvidia
-smi监控显存,通过降低batch_size或模型量化(如FP16/INT8)优化资源。CPU模式下考虑模型轻量化(如使用ONN
skyksksksksks
·
2025-02-07 11:49
AI个人杂记
人工智能
深度学习
神经网络
自然语言处理
Ollama AI 开发助手完全指南:从入门到实践
目录基础环境配置模型选择与使用开发工具集成实践应用场景性能优化与注意事项最佳实践总结一、基础环境配置1.1系统要求在开始使用Ollama之前,请确保您的系统满足以下基本要求:硬件配置:CPU:4核心及以上内存:至少16GBRAM
显卡
ivwdcwso
·
2025-02-07 08:36
开发
人工智能
Ollama
开发
AI
【AI基础】K8S环境使用GPU--Kubernetes环境(三)
AI时代下,学习如何使用和管理GPU是基础入门技能,本文以常见的
NVIDIA
GPU为例,介绍在普通机器、Docker和Kubernetes等不同的环境下如何使用和管理GPU。
赛博Talk
·
2025-02-07 07:26
AI基础入门
人工智能
kubernetes
docker
gpu算力
AI编程
K8S中使用英伟达GPU —— 筑梦之路
前提条件根据不同的操作系统,安装好
显卡
驱动,并能正常识别出来
显卡
,比如如下截图:GPU容器创建流程containerd-->containerd-shim-->
nvidia
-container-runtime
筑梦之路
·
2025-02-07 07:25
虚拟化
linux系统运维
kubernetes
GPU
在本地运行DeepSeek Janus 系列,DeepSeek Janus 系列用于图像理解和生成的统一多模态 AI
推荐文章《如何在本地电脑上安装和使用DeepSeekR-1》权重1,DeepSeek《
Nvidia
系列之使用
NVIDIA
IsaacSim和ROS2的命令行控制您的机器人》权重1,
NVIDIA
Isaa
知识大胖
·
2025-02-07 02:54
NVIDIA
GPU和大语言模型开发教程
人工智能
deepseek
记录debian12运行时出现卡死的问题
(貌似我发过一篇类似的,找不到了,以后找到再把那篇删掉)引发卡死的可能原因1.alt+tab切换应用进程2.英伟达
显卡
没有安装驱动3.解决卡死的方式ctrl+alt+f3切换命令行界面进行处理(如果使用的时
翻滚吧键盘
·
2025-02-06 18:26
linux
运维
服务器
有趣的项目--汇总
文章目录前言一、AI类二、前言持续记录有意思的项目,欢迎大家讨论一、AI类openglass+ollama:链接:OpenGlassAI眼镜的环境配置与实现I
nvidia
Jetson+LLM:链接:生成式人工智能应用
cladel
·
2025-02-06 09:00
人工智能
《最终幻想14》directx出现了致命错误 原因分析
当《最终幻想14》在运行时出现“DirectX出现了致命错误”的提示时,可以尝试以下几种解决方案:一、更新
显卡
驱动
显卡
驱动是电脑硬件与操作系统之间沟通的桥梁,它负责确保
显卡
能以最佳状态运行所有应用程序。
键盘疾风2501
·
2025-02-06 05:55
windows
microsoft
ffmpeg 硬件解码 264 265 各个平台
以下是在不同平台上使用FFmpeg进行硬件解码的概述:1.
NVIDIA
GPU(NVDEC)适用于Windows、Linux和macOS(较旧的Mac设备)。
爱学习的大牛123
·
2025-02-06 01:54
音视频
ffmpeg
python 3.6 tensorflow_无法在python 3.6中导入Tensorflow
我的GPU
nvidia
940mx和我正在使用python3.6。
weixin_39835178
·
2025-02-05 23:41
python
3.6
tensorflow
ARM与x86:架构对比及其应用
CPU和其他组件(如
显卡
和GPU、内存控制器、存储或处理核心)针对特定功能进行了优化,可以轻松更换或扩展。
qq_52609913
·
2025-02-05 21:54
arm开发
架构
NVIDIA
的算力支持
NVIDIA
的算力支持关键词:
NVIDIA
,GPU,Turing架构,RTX,AI,AIoT,云计算,大数据,深度学习1.背景介绍
NVIDIA
作为全球领先的图形处理芯片制造商,近年来在人工智能领域也取得了显著的进展
杭州大厂Java程序媛
·
2025-02-05 16:55
计算机软件编程原理与应用实践
java
python
javascript
kotlin
golang
架构
人工智能
RockyLinux9.4安装硬件要求
以下是安装RockyLinux9.4的最低和建议硬件要求:最低硬件要求处理器(CPU):64位架构,至少1GHz内存(RAM):至少2GB硬盘空间:至少20GB
显卡
:支持1024x768分辨率的
显卡
网络
会飞的土拨鼠呀
·
2025-02-05 12:52
运维学习笔记
ChatGPT实践
运维
CUDA Toolkit安装和验证
一、cuda下载网址https://developer.
nvidia
.com/cuda-toolkit-archive二、Win10下载安装三、ubuntu22下载安装3.1cudatoolkit下载3.2
乒乓球爱好AI
·
2025-02-05 11:44
人工智能
深度学习
linux
Linux 平台上安装
NVIDIA
GPU 驱动和 CUDA Toolkit
在Linux平台上安装
NVIDIA
GPU驱动和CUDAToolkit的步骤如下:###1.安装
NVIDIA
GPU驱动####步骤1:更新系统首先,确保你的系统是最新的:```bashsudoaptupdatesudoaptupgrade
weifengma-wish
·
2025-02-05 11:43
深度学习
gpu算力
在LINUX上安装英伟达CUDA Toolkit
下载安装包wgethttps://developer.download.
nvidia
.com/compute/cuda/12.8.0/local_installers/cuda-repo-rhel8-12
云道轩
·
2025-02-05 11:41
linux
人工智能
GPU之
nvidia
-smi命令行
显示GPU当前的状态:
nvidia
-smi表格参数详解:GPU:本机中的GPU编号(有多块
显卡
的时候,从0开始编号)图上GPU的编号是:0Fan:风扇转速(0%-100%),N/A表示没有风扇Name:
瑶瑶领先_
·
2025-02-05 06:10
wasm
GPU 进阶笔记(二):华为昇腾 910B GPU
1术语1.1与
NVIDIA
术语对应关系1.2缩写2产品与机器2.1GPU产品2.2训练机器底座CPU功耗操作系统2.3性能3实探:鲲鹏底座8*910BGPU主机3.1CPU3.2网卡和网络3.3GPU信息
hao_wujing
·
2025-02-05 04:22
gpu算力
用于深度学习的硬件配置列表
注意电源功率一定要够,不然带不动
显卡
,最好是1000w左右。
Mr.Q
·
2025-02-05 01:01
项目记录
环境搭建
工具
深度学习
在CentOS服务器上部署DeepSeek R1
硬件配置:GPU版本:
NVIDIA
驱动520+,CUDA11.8+。CPU版本:至少16核处理器,64GB内存。存储空间:原始模型需要30GB,量化后约8-20GB。
蓝染k9z
·
2025-02-04 09:30
deepseek
服务器
centos
linux
人工智能
deepseek
Ubuntu16.04环境下安装cuda10+pytorch1.2
titanx作为新一代的人工智能训练平台的PYTORCH,有其独特的优势,为此,完整的安装这一平台,是开展所有工作的首要条件,一开始,笔者认为应该轻松的完成,但是发现实际上要从零完成这一工作,尤其是在
NVIDIA
TITANX
小楼昨夜,东风
·
2025-02-03 19:11
pytorch
深度学习
神经网络
运行megatron框架的运行环境
megatron是什么,为什么要用主要是在实现Yuan1.0大规模模型时,他们引用了
Nvidia
开发的megatron这个框架,因为这个框架就是为了分布式多卡环境而设计的,而要上大参数量的模型时要获得比较可观的速度就避免不了要上这个框架
David's Code
·
2025-02-03 08:39
自然语言处理
机器学习
Megatron:深度学习中的高性能模型架构
Megatron:深度学习中的高性能模型架构Megatron是由
NVIDIA
推出的深度学习大规模预训练模型框架,主要针对大规模Transformer架构模型的高效训练与推理。
gs80140
·
2025-02-03 08:06
基础知识科谱
AI
机器学习
人工智能
nvidia
-smi命令视图含义
第一部分:
NVIDIA
-SMI标题±-----------------------------------------------------------------------------------
董林夕
·
2025-02-02 19:56
nvidia
最全
NVIDIA
Jetson开发板参数配置和购买指南
NVIDIA
开发的GPU不仅在电脑
显卡
领域占据大量份额,在嵌入式
NVIDIA
的Jeston系列开发板也近乎是领先的存在,特别是
NVIDIA
Jeston系列开发板在算力和成本的平衡上都要优于其他厂家,性价比很高
IRevers
·
2025-02-02 19:55
人工智能
计算机视觉
深度学习
mcu
嵌入式硬件
Ubuntu 安装 docker及基础使用教程(包含
显卡
驱动设置)——小白专属避坑指南
前言: 此教程为小白入门教程,包括安装和一些基础的使用指令。如果需要深度使用的话(例如多容器DockerCompose等),还有很多东西没有涉及到,需要找一些专业的教程进一步学习,后续可能更新一下打包镜像的相关内容。教程参考了很多已有的教程并且结合了很多自己踩过的坑和一些需求(这个教程主要是我发布的另一个用Docker安装ROS的帖子的前置教程,用来了解和入门docker),有任何问题欢迎指正。
littlewells
·
2025-02-02 19:54
ubuntu
docker
linux
Fooocus AI绘画神器兼具Midjourney和Stable Diffusion强大功能,win版本整合包一键运行N卡版(8g内存4g
显卡
可操作硬盘空间要500g),省去繁琐的安装(A卡改参数)
开源AI绘画工具Fooocus使用指南最近,在Github上一款全新的开源AI绘画工具Fooocus横空出世,引发了众多AI绘画爱好者的关注。它不仅能够像StablediffusionWebUI一样部署到本地免费使用,还具备midjourney那般便捷的操作界面,为用户带来了极其出色的创作体验。Foocus重新思考了图像生成器的设计。该软件是离线的,开源的,免费的,同时,类似于许多在线图像生成器,
struggle2025
·
2025-02-02 15:30
AI作画
midjourney
stable
diffusion
人工智能
计算机视觉
图像处理
电脑玩游戏卡死屏幕不动什么原因 如何解决
以下是一些可能的原因及其相应的解决方法:一、硬件原因及解决方法
显卡
性能不足原因:
显卡
是电脑处理游戏画面的主要部件,当游戏对
显卡
的要求超出了其处理能力时,就可能出现卡顿或死机现象。
惊鸿一梦q
·
2025-02-02 12:06
电脑
玩游戏
deepseek R1 14b显存占用
RTX2080ti11G
显卡
,模型7b速度挺快,试试14B也不错。7B显存使用5.6G,14B显存刚好够,出文字速度差不多。打算自己写个移动宽带的IPTV播放器,不知道怎么下手,就先问他了。
容沁风
·
2025-02-02 09:16
deepseek
rtx2080ti
电脑要使用cuda需要进行什么配置
在电脑上使用CUDA(
NVIDIA
的并行计算平台和API),需要进行以下配置和准备:1.检查
NVIDIA
显卡
支持确保你的电脑拥有支持CUDA的
NVIDIA
显卡
。
Channing Lewis
·
2025-02-02 06:19
计算机科学
AI
电脑
cuda
如何安装 CUDA Toolkits
以下是Windows和Linux系统的安装步骤:Windows系统安装CUDAToolkit前提条件确保你的计算机上已经安装了
NVIDIA
显卡
,并且它支持CUDA。
Channing Lewis
·
2025-02-02 06:19
AI
cuda
DeepSeek R1本地化部署与联网功能实战指南:从零搭建智能对话系统
一、环境准备与基础架构1.1硬件需求推荐配置:
NVIDIA
GPU(RTX3090或更高)+32GB内存+50GB存储空间最低配置:CPU(支持AVX2指令集)+16GB内存+3
Coderabo
·
2025-02-01 18:32
python
DeepSeek
R1
Macbook 装win系统后,断电拔下电源屏幕变暗,改
显卡
设置
Macbook装win系统后,断电拔下电源屏幕变暗,改
显卡
设置,打开intel
显卡
控制中心,进入电源点击使用电池,显示器节能技术-禁用。
NUA努努
·
2025-02-01 17:51
macbook
macbook
屏幕
显卡设置
本地部署DeepSeek大模型完整指南
环境准备1.硬件要求最低配置:16GB内存+100GB存储空间(仅运行7B模型)推荐配置:24GB以上显存的
NVIDIA
显卡
(如RTX3090/4090)2.软件依赖#创建Python虚拟环境condacreate-nde
ddv_08
·
2025-02-01 17:17
深度学习
人工智能
LLM-预训练:深入理解 Megatron-LM(2)原理介绍
Megatron-LM代码版本:23.06https://github.com/
NVIDIA
/Megatron-LM/tr
u013250861
·
2025-02-01 15:05
#
LLM/训练
人工智能
使用Ollama部署deepseek大模型
使用Ollama部署deepseek大模型前置条件使用英伟达
显卡
下载cuda驱动https://developer.
nvidia
.com/cuda-downloadsOllamaOllama官方版:https
·
2025-01-31 21:04
DeepSeek 系列之 构建我自己的 DeepSeek Janus Pro Web 界面:使用 Gradio 进行本地实验
推荐文章《如何在本地电脑上安装和使用DeepSeekR-1》权重1,DeepSeek《
Nvidia
系列
知识大胖
·
2025-01-31 20:28
NVIDIA
GPU和大语言模型开发教程
deepseek
janus
pro
DeepSeek 系列之 无需互联网即可在本地运行 DeepSeek R1
推荐文章《如何在本地电脑上安装和使用DeepSeekR-1》权重1,DeepSeek《
Nvidia
系列之使用
NVIDIA
IsaacSim和ROS2的命令行控制您的机器人》权重1,
NVIDIA
IsaacSim
知识大胖
·
2025-01-31 19:21
NVIDIA
GPU和大语言模型开发教程
deepseek
llama
ollama
知识图谱
DeepSeek优势方法策略
DeepSeek优势方法策略目录DeepSeek优势方法策略DeepSeek在训练阶段压缩时间空间复杂度的方法DeepSeek和ChatGPT在压缩时间空间复杂度上的不同之处DeepSeek能降低
显卡
使用的原因
ZhangJiQun&MXP
·
2025-01-31 14:03
2021
论文
2021
AI
python
教学
人工智能
语言模型
自然语言处理
gpt
深度学习
【deepseek】本地部署DeepSeek R1模型:使用Ollama打造个人AI助手
二、环境准备硬件要求GPU显存要求:7B模型:8-12GB显存14B模型:12GB以上显存32B模型:建议16GB以上显存建议使用
NVIDIA
显卡
SSD硬盘空间:建议预留50GB以上软件要求安
大表哥汽车人
·
2025-01-31 06:23
人工智能
大语言模型学习笔记
人工智能
deepseek
CUDA编程(一):GPU计算与CUDA编程简介
CUDA编程(一):GPU计算与CUDA编程简介GPU计算GPU硬件资源GPU软件资源GPU存储资源CUDA编程GPU计算
NVIDIA
公司发布的CUDA是建立在GPU上的一个通用并行计算平台和编程模型,
AI Player
·
2025-01-30 21:17
CUDA
人工智能
CUDA
NVIDIA
RTX4060+ubuntu22.04+cuda11.8.0+cuDNN8.6.0 & 如何根据
显卡
型号和系统配置cuda和cuDNN所需的安装环境
文章目录电脑原配置安装cuda和cuDNN前的环境选择cuDNN与CUDAtookit和
nvidia
driver的对应关系cuda版本选择⭐查看自己的
nvidia
driver版本和最大支持的CUDA版本
computer_vision_chen
·
2025-01-30 20:05
带你跑通人工智能项目
cuda
cuDNN
联想拯救者Y7000p+
Nvidia
rtx2060
显卡
驱动安装
总的来说,
显卡
驱动一般会有几种方式:1.run文件直接安装(采用这种方式完成的)2.ppa安装3.系统附加驱动安装1.run文件安装1.1禁止nouveau集成
显卡
驱动编辑blacklist.confsudogedit
MartianCoder
·
2025-01-30 20:02
rtx2060
y7000p
联想拯救者
nvidia驱动
ubuntu16.04
ubuntu22.04 + isaac gym环境配置流程
1.CUDA安装1.看系统架构:uname-m2.去官网下载适配你
显卡
驱动的最新cuda,可以通过
nvidia
-smi查看https://developer.
nvidia
.com/cuda-toolkit-archive3
Yakusha
·
2025-01-30 20:02
linux
bash
c++
有道子曰推理模型“子曰-o1”发布即开源,14B小参数复现OpenAI o1强推理效果
这一模型以14B(140亿)参数规模为基础,支持在消费级
显卡
上部署,采用思维链技术,能够提供详细且逻辑严密的解题过程,显著提升了推理能力和准确性,尤其是在中文逻辑推理方面表现突出。
百态老人
·
2025-01-30 08:55
笔记
子曰-o1:网易有道开源国内首个分步式讲解推理模型,支持K12数学教学
技术:采用14B轻量级架构,专为消费级
显卡
设计,能在低显存设备上稳定运行。应用:应用于网易有道旗下的AI全科学习助手“有道小P
蚝油菜花
·
2025-01-30 08:52
每日
AI
项目与应用实例
人工智能
开源
网易有道开源 “子曰 - o1” 推理模型
网易有道开源的“子曰-o1”推理模型支持消费级
显卡
,主要通过以下技术实现:轻量级模型设计:“子曰-o1”采用14B参数规模,相比许多对硬件配置要求高的大型推理模型,选择了较小的参数规模,从基础上降低了对硬件的性能需求
timer_017
·
2025-01-30 07:19
开源
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他