E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
cuda(GPU
Linux 平台上安装 NVIDIA
GPU
驱动和
CUDA
Toolkit
在Linux平台上安装NVIDIA
GPU
驱动和
CUDA
Toolkit的步骤如下:###1.安装NVIDIA
GPU
驱动####步骤1:更新系统首先,确保你的系统是最新的:```bashsudoaptupdatesudoaptupgrade
weifengma-wish
·
2025-02-05 11:43
深度学习
gpu算力
DeepSeek安装部署指南
CUDA
和
GPU
驱动(如果需要
GPU
加速)。pip和virtualenv(推荐使用虚拟环境)。2.安装DeepSeek克隆DeepSeek仓库(假设DeepSeek已发布为开源项目):gi
SAFE20242034
·
2025-02-05 11:11
AIGC
在LINUX上安装英伟达
CUDA
Toolkit
下载安装包wgethttps://developer.download.nvidia.com/compute/
cuda
/12.8.0/local_installers/
cuda
-repo-rhel8-12
云道轩
·
2025-02-05 11:41
linux
人工智能
无需昂贵
GPU
:本地部署开源AI项目LocalAI在消费级硬件上运行大模型
无需昂贵
GPU
:本地部署开源AI项目LocalAI在消费级硬件上运行大模型随着人工智能技术的快速发展,越来越多的AI模型被广泛应用于各个领域。
芯作者
·
2025-02-05 10:36
DD:日记
人工智能
星辰——人工智能中台
人工智能中台四个部分介绍算力层面:可以实现对众多CPU、
GPU
、FPGA和ARM等国内外计算资源进行有机整合。容器层面:支持和数据中台进行无缝对接,
jingmuxu123
·
2025-02-05 08:49
人工智能
自然语言处理
nlp
GPU
架构(1.3)--
GPU
SoC 中的内存控制器
目录详细介绍
GPU
SoC中的内存控制器1.内存控制器概述功能2.支持的内存类型DDR4和LPDDR4DDR5和LPDDR53.内存控制器的设计多通道支持内存管理技术功耗管理4.性能优化带宽优化延迟优化功耗优化
小蘑菇二号
·
2025-02-05 07:17
GPU
GPU
之nvidia-smi命令行
显示
GPU
当前的状态:nvidia-smi表格参数详解:
GPU
:本机中的
GPU
编号(有多块显卡的时候,从0开始编号)图上
GPU
的编号是:0Fan:风扇转速(0%-100%),N/A表示没有风扇Name:
瑶瑶领先_
·
2025-02-05 06:10
wasm
PyTorch +
CUDA
环境配置
从目前的情况来看,
CUDA
版本和PyTorch和Py自身版本是绑定的,而cuDNN和
CUDA
的大版本绑定,而其中主要受限的其实是PyTorch支持的
CUDA
版本,因此,这里采用
CUDA
来适配PyTorch
weixin_54533760
·
2025-02-05 04:28
pytorch
深度学习
GPU
进阶笔记(二):华为昇腾 910B
GPU
1术语1.1与NVIDIA术语对应关系1.2缩写2产品与机器2.1
GPU
产品2.2训练机器底座CPU功耗操作系统2.3性能3实探:鲲鹏底座8*910B
GPU
主机3.1CPU3.2网卡和网络3.3
GPU
信息
hao_wujing
·
2025-02-05 04:22
gpu算力
Llama最新开源大模型Llama3.1
该模型使用了超过15万亿(15T)个token的训练语料,并在16000块英伟达H100
GPU
上进行了训练。此外,Llama3.1还推出了8B和70
kcarly
·
2025-02-04 21:32
LLaMA2
食用指南
llama
开源
开源大模型
PyTorch中的In-place操作是什么?为什么要避免使用这种操作?
如今的高级深度神经网络拥有数百万个可训练参数,训练它们通常会导致
GPU
内存耗尽。
小白学视觉
·
2025-02-04 19:49
kaggle花分类比赛91.168%
之前一直都没注意显存,也没注意数据格式,直到跑模型的时候电脑直接崩了,因为排队用TPU,感觉人多,就直接在自己电脑上跑,我自己是有一张8G的4070,没想到啊,光是读取数据,就占用了6G历次成绩这个是用分布式
gpu
仙尊方媛
·
2025-02-04 16:28
分类
数据挖掘
机器学习
keras
tensorflow
站在Developer角度看DeepSeek:技术架构解析与开发实战指南
一、DeepSeek技术全景图:从实验室到生产环境1.1模型架构演进:重新定义Transformer可能性DeepSeek的分层动态稀疏Transformer架构在以下层面实现突破:硬件感知设计:根据
GPU
嵌入式Jerry
·
2025-02-04 15:20
AI
架构
系统架构
AI编程
ai
学习
物联网
全场景深度学习开源框架(MindSpore)
旨在实现不同计算平台(如云端、边缘端、端侧)和不同硬件(如CPU、
GPU
、Ascend等)之间的高效协同。
deepdata_cn
·
2025-02-04 11:41
人工智能
深度学习
开源
人工智能
在CentOS服务器上部署DeepSeek R1
硬件配置:
GPU
版本:NVIDIA驱动520+,
CUDA
11.8+。CPU版本:至少16核处理器,64GB内存。存储空间:原始模型需要30GB,量化后约8-20GB。
蓝染k9z
·
2025-02-04 09:30
deepseek
服务器
centos
linux
人工智能
deepseek
Mac M1 Comfyui 使用MMAudio遇到的问题解决?
问题1:AssertionError:Torchnotcompiledwith
CUDA
enabled?
福葫芦
·
2025-02-04 08:55
macos
深度学习框架PyTorch原理与实践
作者:禅与计算机程序设计艺术文章目录1.简介2.背景介绍3.基本概念和术语3.1PyTorch简介3.2PyTorch的特点1)自动求导机制2)
GPU
加速3)模型部署4)数据管道5)代码阅读友好4.核心算法原理
AI天才研究院
·
2025-02-04 07:47
AI实战
大数据
人工智能
语言模型
Java
Python
架构设计
Databricks 开源 LLM,训练只需三个小时
像ChatGPT和Bard这样的生成式AI,它们使用的数据通常来自于在成千上万不同网站,使用的数据量十分惊人,而且想要使用这些数据训练AI还需要数以千计的强大
GPU
在背后提供支持。
唐 城
·
2025-02-04 07:15
AI-毕业设计全套
spring
log4j
postgresql
数据库
java
PyTorch 训练一个分类器
文章目录0前言1加载和规范化CIFAR102定义一个卷积网络3定义损失函数和优化器4训练网络5测试网络6在
GPU
上训练模型参考资料0前言 TRAINGINGACLASSIFIER这篇教程很清楚的描述了如何使用
亚里
·
2025-02-04 05:59
平台工具类
pytorch训练网络
【Rust日报】2021-12-21 Embark Studio 使用 Rust 进行本地渲染
EmbarkStudio使用Rust进行本地渲染作为Rust的忠实拥护者,EmbarkStudio的工程师们正在使用Rust开发渲染引擎和游戏,并且贡献了rust-
gpu
这个项目。
Rust语言中文社区
·
2025-02-03 23:36
游戏
java
python
编程语言
人工智能
Ubuntu16.04环境下安装
cuda
10+pytorch1.2
1、背景环境:Ubuntu16.04&titanx作为新一代的人工智能训练平台的PYTORCH,有其独特的优势,为此,完整的安装这一平台,是开展所有工作的首要条件,一开始,笔者认为应该轻松的完成,但是发现实际上要从零完成这一工作,尤其是在NVIDIATITANX下,是需要3~4天的摸索的,为了便于后续的工作,也为了后面使用的童鞋,写下这篇文章,闲话少说,先上最终完成shell输出。xxx@xxxU
小楼昨夜,东风
·
2025-02-03 19:11
pytorch
深度学习
神经网络
LWN:让
GPU
的工作也依赖进程优先级!
关注了就能看到更多这么棒的文章哦~Synchronized
GPU
priorityschedulingByJonathanCorbetOctober22,2021DeepLassistedtranslationhttps
LinuxNews搬运工
·
2025-02-03 15:31
java
python
人工智能
大数据
linux
线性回归基础学习
线性回归基础学习目录:理论知识样例代码测试参考文献一、理论知识线性回归思维导图NDArray:MXNet中存储和变换数据的主要工具,提供
GPU
计算和自动求梯度等功能线性回归可以用神经网络图表示,也可以用矢量计算表示在
Remoa
·
2025-02-03 14:53
人工智能
线性回归
优化
gluon
mxnet
loss
GPU
硬件架构分析
GPU
和CPU的差异CPU与
GPU
的设计对比核心数量与计算单元:CPU:通常核心数量较少(如4到16个核心),每个核心都有独立的控制单元。
你一身傲骨怎能输
·
2025-02-03 13:49
渲染管线
硬件架构
【安装记录】lift:learned invariant feature points
我自己的电脑的
cuda
是9.0.该代码安装要求太多了,加上我习惯了docker。
你好joy
·
2025-02-03 03:56
安装记录
nvidia-smi命令视图含义
--------------------------------------------------------+|NVIDIA-SMI555.42.06DriverVersion:555.42.06
CUDA
Version
董林夕
·
2025-02-02 19:56
nvidia
最全NVIDIA Jetson开发板参数配置和购买指南
NVIDIA开发的
GPU
不仅在电脑显卡领域占据大量份额,在嵌入式NVIDIA的Jeston系列开发板也近乎是领先的存在,特别是NVIDIAJeston系列开发板在算力和成本的平衡上都要优于其他厂家,性价比很高
IRevers
·
2025-02-02 19:55
人工智能
计算机视觉
深度学习
mcu
嵌入式硬件
legged gym(包含isaac gym)丝滑安装教程
LeggedGym(包含IsaacGym)安装教程——Ubuntu22.04安装IsaacGym安装leggedgym2.1.安装pytorch和
cuda
:2.2.安装rsl_r2.3.安装legged_gym
littlewells
·
2025-02-02 18:49
机器学习
深度学习
ubuntu
python
全平台制霸!零门槛在本地解锁DeepSeek R1:Ollama+OpenWebUI终极部署手册
纯干货教程,无需
GPU
也能玩转大模型!
程序员辣条
·
2025-02-02 18:17
人工智能
大模型
LLama
AI产品经理
大模型学习
DeepSeek
大模型教程
【pytorch(
cuda
)】基于DQN算法的无人机三维城市空间航线规划(Python代码实现)
欢迎来到本博客❤️❤️博主优势:博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。⛳️座右铭:行百里者,半于九十。本文目录如下:目录⛳️赠与读者1概述一、研究背景与意义二、DQN算法概述三、基于DQN的无人机三维航线规划方法1.环境建模2.状态与动作定义3.奖励函数设计4.深度神经网络训练5.航线规划四、研究挑战与展望2运行结果3参考文献4Python代码实现⛳️赠与读者做科研,涉及到一个深在的
科研_G.E.M.
·
2025-02-02 16:36
python
pytorch
算法
GPU
驱动及
CUDA
安装流程介绍
GPU
驱动及
CUDA
安装流程介绍1.安装前准备工作1.1.确认
GPU
型号和操作系统版本1.2.准备
gpu
驱动和
CUDA
软件包1.3.检查服务器
GPU
识别情况1.4.老版本软件包卸载1.5.安装依赖包CentOS
醉心编码
·
2025-02-02 16:35
通信软件
技术类
c/c++
GPU
Nvidia
GPU驱动
显卡驱动
【llm对话系统】大模型 Llama 源码分析之并行训练方案
为了高效地训练这些模型,我们需要采用各种并行策略,将计算和数据分布到多个
GPU
或设备上。Llama作为当前最流行的开源大模型之一,其训练代码中采用了多种并行技术。
kakaZhui
·
2025-02-02 13:14
llama
人工智能
AIGC
chatgpt
电脑要使用
cuda
需要进行什么配置
在电脑上使用
CUDA
(NVIDIA的并行计算平台和API),需要进行以下配置和准备:1.检查NVIDIA显卡支持确保你的电脑拥有支持
CUDA
的NVIDIA显卡。
Channing Lewis
·
2025-02-02 06:19
计算机科学
AI
电脑
cuda
如何安装
CUDA
Toolkits
安装
CUDA
Toolkit的步骤如下,具体步骤根据你的操作系统(Windows/Linux/Mac)有所不同。
Channing Lewis
·
2025-02-02 06:19
AI
cuda
GPU
架构(1.2)--
GPU
SoC 中的 CPU 架构
目录详细介绍
GPU
SoC中的CPU架构1.CPU核心概述ARMCortex-A72ARMCortex-A762.多线程处理多核架构多线程支持3.任务调度任务调度器动态调度4.内存管理内存层次结构内存管理技术
小蘑菇二号
·
2025-02-02 02:58
手把手教你学
GPU
SoC
芯片
智能电视
DeepSeek R1本地化部署与联网功能实战指南:从零搭建智能对话系统
一、环境准备与基础架构1.1硬件需求推荐配置:NVIDIA
GPU
(RTX3090或更高)+32GB内存+50GB存储空间最低配置:CPU(支持AVX2指令集)+16GB内存+3
Coderabo
·
2025-02-01 18:32
python
DeepSeek
R1
本地部署 DeepSeek 模型并使用 WebUI 调用
环境准备在开始之前,请确保你的系统满足以下要求:Python3.11或更高版本pip包管理工具DeepSeek模型的本地部署文件
GPU
支持(可选,用于加速模型推理)步骤1:本地部署Deep
我喜欢就喜欢
·
2025-02-01 17:22
技术文档
策略模式
本地部署DeepSeek大模型完整指南
本文将手把手教你如何在本地计算机部署DeepSeek模型并实现对话交互,支持CPU/
GPU
双模式运行。
ddv_08
·
2025-02-01 17:17
深度学习
人工智能
GNU编译优化级别-O -O1 -O2 -O3
最近做一个算法的
GPU
加速,发现实际上使用gcc的-O3(最高级编译优化)选项,可以获得很高的加速比,我的程序里达到了3倍的样子,有时效果甚至比
GPU
加速好。因此小小学习了下GNU的编译优化。
hemmingway
·
2025-02-01 06:53
C++
Linux
【Unity 渲染插件】
GPU
Instancer 基于
GPU
实例化技术,旨在解决 Unity 中大量重复对象的渲染瓶颈问题,显著提升游戏性能
GPU
Instancer是一款专注于高性能渲染的Unity插件,基于
GPU
实例化技术,旨在解决Unity中大量重复对象的渲染瓶颈问题,显著提升游戏性能。
Unity游戏资源学习屋
·
2025-02-01 05:14
Unity插件
RuntimeError:
CUDA
is required but not available for bitsandbytes.
今天想配置大模型的环境,需要用到bitsandbytes这个包,但是遇到报错:RuntimeError:
CUDA
isrequiredbutnotavailableforbitsandbytes.Pleaseconsiderinstallingthemulti-platformenabledversionofbitsandbytes
九思Atopos
·
2025-02-01 01:42
python
【TVM教程】为 Mobile
GPU
自动调优卷积网络
ApacheTVM是一个深度的深度学习编译框架,适用于CPU、
GPU
和各种机器学习加速芯片。
HyperAI超神经
·
2025-01-31 22:43
TVM
人工智能
机器学习
TVM
编程
编译器
GPU
CPU
使用Ollama部署deepseek大模型
使用Ollama部署deepseek大模型前置条件使用英伟达显卡下载
cuda
驱动https://developer.nvidia.com/
cuda
-downloadsOllamaOllama官方版:https
·
2025-01-31 21:04
Paddle和pytorch不可以同时引用
importpaddleprint(paddle.utils.run_check())importtorchprint(torch.version.
cuda
)print(torch.backends.cudnn.version
饮马长城窟
·
2025-01-31 21:03
paddle
pytorch
人工智能
YOLO系列之训练环境(
GPU
)搭建篇
YOLOv8专栏导航:点击此处跳转Pytorch环境配置(Windows)Anaconda安装此处下载安装即可⭐温馨提示:安装路径
w94ghz
·
2025-01-31 17:01
YOLO改进系列
YOLOv8改进系列
YOLO
深度学习
人工智能
python
目标检测
DeepSeek极端榨取硬件性能被曝光
DeepSeek的出现是否意味着前沿LLM开发不再需要大规模
GPU
集群?简单来说:不是的。
极道Jdon
·
2025-01-31 08:13
javascript
reactjs
【deepseek】本地部署DeepSeek R1模型:使用Ollama打造个人AI助手
二、环境准备硬件要求
GPU
显存要求:7B模型:8-12GB显存14B模型:12GB以上显存32B模型:建议16GB以上显存建议使用NVIDIA显卡SSD硬盘空间:建议预留50GB以上软件要求安
大表哥汽车人
·
2025-01-31 06:23
人工智能
大语言模型学习笔记
人工智能
deepseek
VS2019+QT4.15+openCV4.5.1+
CUDA
加速
文章目录前言一、软件安转以及注意事项二、CMake编译总结前言`最近公司有一个关于使用海康威视网络摄像头的目标检测的项目,发现使用openCV显示时,出现很大的延时,因此,只能使用
cuda
进行加速才能使显示达到实时
小小秀峰哥
·
2025-01-30 21:47
python
人工智能
深度学习
CUDA
编程(一):
GPU
计算与
CUDA
编程简介
CUDA
编程(一):
GPU
计算与
CUDA
编程简介
GPU
计算
GPU
硬件资源
GPU
软件资源
GPU
存储资源
CUDA
编程
GPU
计算NVIDIA公司发布的
CUDA
是建立在
GPU
上的一个通用并行计算平台和编程模型,
AI Player
·
2025-01-30 21:17
CUDA
人工智能
CUDA
NVIDIA
GPU
编程与
CUDA
CUDA
编程并行计算整体流程从主机端申请内存,把内存部分的内容拷贝到设备端在设备端的核函数计算从设备端拷贝到主机端,并且释放内存显存主机端:cpu设备端:
gpu
核函数:在
gpu
上运行的函数
CUDA
内存模型
Nice_cool.
·
2025-01-30 21:17
Cuda与TensorRT
c++
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他