E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Nvidia英伟达
CUDA环境配置
本文介绍Ubuntu14.04下CUDA环境的安装过程标签高性能计算(HPC)并行化加速学习CUDA最好的去处还是
NVIDIA
官网,上面许多文档写的都相当不错,比如CUDA编程指南、如何使用cuRand
波小澜
·
2025-02-10 00:29
CUDA
cuda
ubuntu
环境配置
自动驾驶---E2E架构演进
目前一段式端到端系统只有在
英伟达
早期所做的demo中实现,再者就是特斯拉(但特斯拉并没有官方说明是一段式端到端,笔者结合特斯拉的OTA推送说明推测端到端到轨迹层面)。
智能汽车人
·
2025-02-09 23:25
自动驾驶
人工智能
机器学习
Ollama部署 DeepSeek-R1:70B 模型的详细步骤
若使用
NVIDIA
T4(16GB显存),需多卡并行(如8卡)或开启量化(如q4_0、q8_0)。内存需求:建议至少64GB系统内存。存储空间:模型文件约40-140GB(取决于量化方式)。
MonkeyKing.sun
·
2025-02-09 12:11
chrome
前端
超简单的Ollama集成 DeepSeek 本地化安装教程
Ollama支持Windows、macOS、Linux等操作系统以下是Ollama集成DeepSeek的详细安装教程:一、准备工作硬件要求:配备
NVIDIA
显卡的电脑(显存≥8GB)。
diygwcom
·
2025-02-09 10:25
DeepSeek
llama
chatbox
ai
Ubuntu20.04+GeForce RTX 2080 SUPER+cuda11.1+cudnn8.0.4+openCV4.4.0环境搭建
GeForceRTX2080SUPER+cuda11.1+cudnn8.0.4+openCV4.4.0环境搭建出现的问题1:ubuntu20.04安装libpng12-devlibpng12-0出现的问题2:安装
nvidia
pkuyjxu
·
2025-02-08 08:06
cuda
ubuntu
FFmpeg使用GPU编解码,及在C++代码中实现FFmpeg使用GPU编解码
以下是使用GPU进行编解码的常见方法:1.使用
NVIDIA
GPU(通过NVENC/NVDEC)
NVIDIA
提供了NVENC(编码)和NVDEC(解码)硬件加速。
沐风_ZTL
·
2025-02-08 05:47
ffmpeg
c++
开发语言
GPU
视频编解码
运用Faster RCNN、YOLO经典目标检测算法对滑坡图像进行检测
本次实验采用的操作系统为Ubuntu16.04平台,编程环境基于Python,GPU为
NVIDIA
GeForce740m,在基于深度学习框架CAFFE下进行实验。实验输出结果
AngeliaZ
·
2025-02-08 04:10
Faster
RCNN
YOLO
Word接入DeepSeek r1,轻松实现智能文本生成与润色
Vbacode文本生成模块代码通过VBA调用
英伟达
的API(具体获取方式之前已提到
细节处有神明
·
2025-02-07 18:12
chatgpt
deepseek
经验分享
word
AIGC
agi
ai
deepseek
deepseek本地部署会遇到哪些坑
使用
nvidia
-smi监控显存,通过降低batch_size或模型量化(如FP16/INT8)优化资源。CPU模式下考虑模型轻量化(如使用ONN
skyksksksksks
·
2025-02-07 11:49
AI个人杂记
人工智能
深度学习
神经网络
自然语言处理
【AI基础】K8S环境使用GPU--Kubernetes环境(三)
AI时代下,学习如何使用和管理GPU是基础入门技能,本文以常见的
NVIDIA
GPU为例,介绍在普通机器、Docker和Kubernetes等不同的环境下如何使用和管理GPU。
赛博Talk
·
2025-02-07 07:26
AI基础入门
人工智能
kubernetes
docker
gpu算力
AI编程
K8S中使用
英伟达
GPU —— 筑梦之路
前提条件根据不同的操作系统,安装好显卡驱动,并能正常识别出来显卡,比如如下截图:GPU容器创建流程containerd-->containerd-shim-->
nvidia
-container-runtime
筑梦之路
·
2025-02-07 07:25
虚拟化
linux系统运维
kubernetes
GPU
在本地运行DeepSeek Janus 系列,DeepSeek Janus 系列用于图像理解和生成的统一多模态 AI
推荐文章《如何在本地电脑上安装和使用DeepSeekR-1》权重1,DeepSeek《
Nvidia
系列之使用
NVIDIA
IsaacSim和ROS2的命令行控制您的机器人》权重1,
NVIDIA
Isaa
知识大胖
·
2025-02-07 02:54
NVIDIA
GPU和大语言模型开发教程
人工智能
deepseek
记录debian12运行时出现卡死的问题
(貌似我发过一篇类似的,找不到了,以后找到再把那篇删掉)引发卡死的可能原因1.alt+tab切换应用进程2.
英伟达
显卡没有安装驱动3.解决卡死的方式ctrl+alt+f3切换命令行界面进行处理(如果使用的时
翻滚吧键盘
·
2025-02-06 18:26
linux
运维
服务器
有趣的项目--汇总
文章目录前言一、AI类二、前言持续记录有意思的项目,欢迎大家讨论一、AI类openglass+ollama:链接:OpenGlassAI眼镜的环境配置与实现I
nvidia
Jetson+LLM:链接:生成式人工智能应用
cladel
·
2025-02-06 09:00
人工智能
ffmpeg 硬件解码 264 265 各个平台
以下是在不同平台上使用FFmpeg进行硬件解码的概述:1.
NVIDIA
GPU(NVDEC)适用于Windows、Linux和macOS(较旧的Mac设备)。
爱学习的大牛123
·
2025-02-06 01:54
音视频
ffmpeg
python 3.6 tensorflow_无法在python 3.6中导入Tensorflow
我的GPU
nvidia
940mx和我正在使用python3.6。
weixin_39835178
·
2025-02-05 23:41
python
3.6
tensorflow
LAPSUS$声称盗取源代码仓库,微软正在调查
虽然目前尚不清楚LAPSUS$组织是否成功勒索被盗数据,但在过去几个月已经被证实入侵
英伟达
、三星、沃达丰、育
奇安信代码卫士
·
2025-02-05 19:14
安全
java
微软
项目管理
https
NVIDIA
的算力支持
NVIDIA
的算力支持关键词:
NVIDIA
,GPU,Turing架构,RTX,AI,AIoT,云计算,大数据,深度学习1.背景介绍
NVIDIA
作为全球领先的图形处理芯片制造商,近年来在人工智能领域也取得了显著的进展
杭州大厂Java程序媛
·
2025-02-05 16:55
计算机软件编程原理与应用实践
java
python
javascript
kotlin
golang
架构
人工智能
CUDA Toolkit安装和验证
一、cuda下载网址https://developer.
nvidia
.com/cuda-toolkit-archive二、Win10下载安装三、ubuntu22下载安装3.1cudatoolkit下载3.2
乒乓球爱好AI
·
2025-02-05 11:44
人工智能
深度学习
linux
Linux 平台上安装
NVIDIA
GPU 驱动和 CUDA Toolkit
在Linux平台上安装
NVIDIA
GPU驱动和CUDAToolkit的步骤如下:###1.安装
NVIDIA
GPU驱动####步骤1:更新系统首先,确保你的系统是最新的:```bashsudoaptupdatesudoaptupgrade
weifengma-wish
·
2025-02-05 11:43
深度学习
gpu算力
在LINUX上安装
英伟达
CUDA Toolkit
下载安装包wgethttps://developer.download.
nvidia
.com/compute/cuda/12.8.0/local_installers/cuda-repo-rhel8-12
云道轩
·
2025-02-05 11:41
linux
人工智能
GPU之
nvidia
-smi命令行
显示GPU当前的状态:
nvidia
-smi表格参数详解:GPU:本机中的GPU编号(有多块显卡的时候,从0开始编号)图上GPU的编号是:0Fan:风扇转速(0%-100%),N/A表示没有风扇Name:
瑶瑶领先_
·
2025-02-05 06:10
wasm
GPU 进阶笔记(二):华为昇腾 910B GPU
1术语1.1与
NVIDIA
术语对应关系1.2缩写2产品与机器2.1GPU产品2.2训练机器底座CPU功耗操作系统2.3性能3实探:鲲鹏底座8*910BGPU主机3.1CPU3.2网卡和网络3.3GPU信息
hao_wujing
·
2025-02-05 04:22
gpu算力
Llama最新开源大模型Llama3.1
该模型使用了超过15万亿(15T)个token的训练语料,并在16000块
英伟达
H100GPU上进行了训练。此外,Llama3.1还推出了8B和70
kcarly
·
2025-02-04 21:32
LLaMA2
食用指南
llama
开源
开源大模型
在CentOS服务器上部署DeepSeek R1
硬件配置:GPU版本:
NVIDIA
驱动520+,CUDA11.8+。CPU版本:至少16核处理器,64GB内存。存储空间:原始模型需要30GB,量化后约8-20GB。
蓝染k9z
·
2025-02-04 09:30
deepseek
服务器
centos
linux
人工智能
deepseek
Ubuntu16.04环境下安装cuda10+pytorch1.2
titanx作为新一代的人工智能训练平台的PYTORCH,有其独特的优势,为此,完整的安装这一平台,是开展所有工作的首要条件,一开始,笔者认为应该轻松的完成,但是发现实际上要从零完成这一工作,尤其是在
NVIDIA
TITANX
小楼昨夜,东风
·
2025-02-03 19:11
pytorch
深度学习
神经网络
运行megatron框架的运行环境
megatron是什么,为什么要用主要是在实现Yuan1.0大规模模型时,他们引用了
Nvidia
开发的megatron这个框架,因为这个框架就是为了分布式多卡环境而设计的,而要上大参数量的模型时要获得比较可观的速度就避免不了要上这个框架
David's Code
·
2025-02-03 08:39
自然语言处理
机器学习
Megatron:深度学习中的高性能模型架构
Megatron:深度学习中的高性能模型架构Megatron是由
NVIDIA
推出的深度学习大规模预训练模型框架,主要针对大规模Transformer架构模型的高效训练与推理。
gs80140
·
2025-02-03 08:06
基础知识科谱
AI
机器学习
人工智能
nvidia
-smi命令视图含义
第一部分:
NVIDIA
-SMI标题±-----------------------------------------------------------------------------------
董林夕
·
2025-02-02 19:56
nvidia
最全
NVIDIA
Jetson开发板参数配置和购买指南
NVIDIA
开发的GPU不仅在电脑显卡领域占据大量份额,在嵌入式
NVIDIA
的Jeston系列开发板也近乎是领先的存在,特别是
NVIDIA
Jeston系列开发板在算力和成本的平衡上都要优于其他厂家,性价比很高
IRevers
·
2025-02-02 19:55
人工智能
计算机视觉
深度学习
mcu
嵌入式硬件
电脑要使用cuda需要进行什么配置
在电脑上使用CUDA(
NVIDIA
的并行计算平台和API),需要进行以下配置和准备:1.检查
NVIDIA
显卡支持确保你的电脑拥有支持CUDA的
NVIDIA
显卡。
Channing Lewis
·
2025-02-02 06:19
计算机科学
AI
电脑
cuda
如何安装 CUDA Toolkits
以下是Windows和Linux系统的安装步骤:Windows系统安装CUDAToolkit前提条件确保你的计算机上已经安装了
NVIDIA
显卡,并且它支持CUDA。
Channing Lewis
·
2025-02-02 06:19
AI
cuda
DeepSeek点燃国产大模型斗志,RAG等核心技术被重估
另一边,微软、亚马逊等云服务厂商,甚至
英伟达
都开启了“真香”模式,你追我赶地在自家云平台上线DeepSeek-R1。但不管破防还是真香,DeepSeek-R1都已经成为
·
2025-02-01 23:55
量子位
DeepSeek点燃国产大模型斗志,RAG等核心技术被重估
另一边,微软、亚马逊等云服务厂商,甚至
英伟达
都开启了“真香”模式,你追我赶地在自家云平台上线DeepSeek-R1。但不管破防还是真香,DeepSeek-R1都已经成为
·
2025-02-01 20:23
量子位
DeepSeek R1本地化部署与联网功能实战指南:从零搭建智能对话系统
一、环境准备与基础架构1.1硬件需求推荐配置:
NVIDIA
GPU(RTX3090或更高)+32GB内存+50GB存储空间最低配置:CPU(支持AVX2指令集)+16GB内存+3
Coderabo
·
2025-02-01 18:32
python
DeepSeek
R1
本地部署DeepSeek大模型完整指南
环境准备1.硬件要求最低配置:16GB内存+100GB存储空间(仅运行7B模型)推荐配置:24GB以上显存的
NVIDIA
显卡(如RTX3090/4090)2.软件依赖#创建Python虚拟环境condacreate-nde
ddv_08
·
2025-02-01 17:17
深度学习
人工智能
LLM-预训练:深入理解 Megatron-LM(2)原理介绍
Megatron-LM代码版本:23.06https://github.com/
NVIDIA
/Megatron-LM/tr
u013250861
·
2025-02-01 15:05
#
LLM/训练
人工智能
使用Ollama部署deepseek大模型
使用Ollama部署deepseek大模型前置条件使用
英伟达
显卡下载cuda驱动https://developer.
nvidia
.com/cuda-downloadsOllamaOllama官方版:https
·
2025-01-31 21:04
DeepSeek 系列之 构建我自己的 DeepSeek Janus Pro Web 界面:使用 Gradio 进行本地实验
推荐文章《如何在本地电脑上安装和使用DeepSeekR-1》权重1,DeepSeek《
Nvidia
系列
知识大胖
·
2025-01-31 20:28
NVIDIA
GPU和大语言模型开发教程
deepseek
janus
pro
DeepSeek 系列之 无需互联网即可在本地运行 DeepSeek R1
推荐文章《如何在本地电脑上安装和使用DeepSeekR-1》权重1,DeepSeek《
Nvidia
系列之使用
NVIDIA
IsaacSim和ROS2的命令行控制您的机器人》权重1,
NVIDIA
IsaacSim
知识大胖
·
2025-01-31 19:21
NVIDIA
GPU和大语言模型开发教程
deepseek
llama
ollama
知识图谱
【deepseek】本地部署DeepSeek R1模型:使用Ollama打造个人AI助手
二、环境准备硬件要求GPU显存要求:7B模型:8-12GB显存14B模型:12GB以上显存32B模型:建议16GB以上显存建议使用
NVIDIA
显卡SSD硬盘空间:建议预留50GB以上软件要求安
大表哥汽车人
·
2025-01-31 06:23
人工智能
大语言模型学习笔记
人工智能
deepseek
CUDA编程(一):GPU计算与CUDA编程简介
CUDA编程(一):GPU计算与CUDA编程简介GPU计算GPU硬件资源GPU软件资源GPU存储资源CUDA编程GPU计算
NVIDIA
公司发布的CUDA是建立在GPU上的一个通用并行计算平台和编程模型,
AI Player
·
2025-01-30 21:17
CUDA
人工智能
CUDA
NVIDIA
RTX4060+ubuntu22.04+cuda11.8.0+cuDNN8.6.0 & 如何根据显卡型号和系统配置cuda和cuDNN所需的安装环境
文章目录电脑原配置安装cuda和cuDNN前的环境选择cuDNN与CUDAtookit和
nvidia
driver的对应关系cuda版本选择⭐查看自己的
nvidia
driver版本和最大支持的CUDA版本
computer_vision_chen
·
2025-01-30 20:05
带你跑通人工智能项目
cuda
cuDNN
联想拯救者Y7000p+
Nvidia
rtx2060 显卡驱动安装
0.前言:618搞活动,打算入手一台笔记本,听说拯救者还不错,但是驱动好多朋友都装不上,所以把自己的经验分享一下,或许对你有一点点的帮助。总的来说,显卡驱动一般会有几种方式:1.run文件直接安装(采用这种方式完成的)2.ppa安装3.系统附加驱动安装1.run文件安装1.1禁止nouveau集成显卡驱动编辑blacklist.confsudogedit/etc/modprobe.d/blackl
MartianCoder
·
2025-01-30 20:02
rtx2060
y7000p
联想拯救者
nvidia驱动
ubuntu16.04
ubuntu22.04 + isaac gym环境配置流程
1.CUDA安装1.看系统架构:uname-m2.去官网下载适配你显卡驱动的最新cuda,可以通过
nvidia
-smi查看https://developer.
nvidia
.com/cuda-toolkit-archive3
Yakusha
·
2025-01-30 20:02
linux
bash
c++
docker desktop使用ollama在GPU上运行deepseek r1大模型
bilibili二、拉取ollama镜像在powershell中运行如下命令,即可拉取最新版本的ollama镜像:dockerpullollama/ollama如果需要指定版本,可以用如下命令:#CPU或
Nvidia
GPU
yimenren
·
2025-01-29 17:20
docker
容器
运维
Ubantu18.04安装3070显卡驱动
NVIDIA
官网下载驱动下载之后在下载目录在此文件夹下运行:sudochmod+x文件名sudochmod+x
NVIDIA
-Linux-x86_64-510.54.runsudo./文件名sudo.
wjwuyh
·
2025-01-29 09:39
人工智能
linux
ubuntu
基于Blackwell架构的GPU,用七十二个GPU拼接成性能强大的计算集群,其性能比上一代提升三倍,GPU已成为AI时代的基础设施,可实现各种大模型的训练
英伟达
在2024年3月发布了基于Blackwell架构的GPU,这一新一代GPU在性能上相比上一代Hopper架构有显著提升。
百态老人
·
2025-01-29 08:03
架构
人工智能
AI会不会是一个大泡沫
刚看了一下数字:美股盘前,
英伟达
跌超11%,博通跌超11%,台积电、Arm跌超10%,同时,在日本股市,
英伟达
的主要供应商AdvantestCorp的股价暴跌8.6%。这些科技股,真是跌惨了。
人机与认知实验室
·
2025-01-28 23:38
人工智能
docker镜像报错ERROR: failed to solve: DeadlineExceeded:
--------------------1|#基于
NVIDIA
CUDA镜像,确保GPU支持2|>>>FROM
nvidia
/cuda:12.6.2-cudnn-devel-ubuntu20.043|4|#
柠檬编程工作室
·
2025-01-28 11:05
Docker
docker
eureka
容器
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他