E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
GPu
保姆级教学——本地免费部署DeepSeek-R1模型并通过Python调用
以下是如何在本地免费部署DeepSeek-R1模型并通过Python调用的详细指南:一、环境准备(Windows/Linux/Mac通用)1.硬件要求最低配置:16GB内存+20GB可用磁盘空间推荐配置:NVIDIA
GPU
shuaige_shiwoa
·
2025-03-14 09:54
python+AI
python
开发语言
AI编程
ai
Unity打包程序嵌入WinForm或者WPF(2) 问题
问题2.嵌入Unity的控件隐藏后,
GPU
使用率达到99%。所谓的Unity控件隐藏是指
llhswwha
·
2025-03-14 09:23
Unity
【解决方案】RAGFlow部分问题清单及解决方案备忘1
一、长时间显示:Taskisqueued多半是因为模型确实在队列中排队的原因,要么是内存一直在被占用中,要么是CPU或
GPU
一直在被占用中,可以首先检查硬件利用率:如果是内存导致的队列缓慢,可以将.env
中杯可乐多加冰
·
2025-03-14 08:45
各种解决方案
人工智能
deepseek
rag
ragflow
LLM
大模型
仅用224张
GPU
训练,训练成本省10倍
关注前沿科技量子位224张
GPU
,训出开源视频生成新SOTA!Open-Sora2.0正式发布。11B参数规模,性能可直追HunyuanVideo和Step-Video(30B)。
·
2025-03-14 04:12
量子位
python和pytorch关系_PyTorch:Python优先的深度学习框架
据该项目官网介绍,PyTorch是一个Python优先的深度学习框架,能够在强大的
GPU
加速基础上实现张量和动态神经网络。
weixin_39877182
·
2025-03-14 02:36
OSError: We couldn‘t connect to ‘https://huggingface.co‘ to load this file,
在一个服务器可以用,但
GPU
只有一个卡,只能换一个服务器,换个服务器又要重装环境,但后者下载模型有问题,手动用git-lfs下载后指定位置报错:Traceback(mostrecentcalllast)
小李飞刀李寻欢
·
2025-03-14 01:00
Notebook
huggingface
bert
分类
大模型
Web
GPU
为什么会取代 WebGL,看看 Web
GPU
都做了啥?
Web
GPU
被普遍认为是WebGL的继任者,并有望在未来逐步取代WebGL,这一趋势主要由以下技术、生态和行业因素推动,本文带着大家看Web
GPU
针对WebGL提升了啥,改进了啥。
贝格前端工场
·
2025-03-13 21:36
webgl
UI设计
大数据
python,pycharm,pytorch,向量数据库,环境搭建记录
修改ubuntu上的pycharm镜像源,详细步骤-腾讯云开发者社区-腾讯云【超详细教程】2024最新Pytorch安装教程(同时讲解安装CPU和
GPU
版本)-CSDN博客https://zhuanlan.zhihu.com
dept123
·
2025-03-13 16:30
python
pycharm
pytorch
向量数据库
本地部署时,如何通过硬件加速(如 CUDA、TensorRT)提升 DeepSeek 的推理性能?不同显卡型号的兼容性如何测试?
GPU
加速验证:运行以下代码检查硬件加速状态:importtensorflowastfprint("可用
GPU
数量:",len(tf
百态老人
·
2025-03-13 14:43
人工智能
科技
算法
vscode
(4-8)基于DeepSeekMoE架构的DeepSeek-V3:测试模型
加载完成后,模型被设置为评估模式,并移动到
GPU
上以加速推理过程。在生成文本时,用户可以输入提示文本,模型会根据这些提示生成相应的文本输出。
码农三叔
·
2025-03-13 13:37
训练
RAG
多模态)
架构
transformer
deekseek
人工智能
大模型
Unity3D 批处理与Draw Call减少(Batching & Reducing Draw Calls)
前言在Unity3D中,批处理(Batching)是优化渲染性能的核心手段,主要通过减少DrawCall数量来降低CPU与
GPU
之间的通信开销。
Thomas_YXQ
·
2025-03-13 13:37
Unity3D
Unity
游戏开发
优化
性能优化
人工智能 - TensorRT与DeepDP终极指南:释放
GPU
潜能的深度学习推理优化之道
TensorRTTensorRT(TensorRuntime)是英伟达(NVIDIA)推出的高性能深度学习推理(Inference)优化器和运行时库,专为在NVIDIA
GPU
上高效部署深度学习模型而设计
天机️灵韵
·
2025-03-13 13:36
具身智能
VLA
人工智能
人工智能
算法
深度学习
pytorch
PyTorch安装与环境配置终极指南:从零搭建高效深度学习开发环境(一)
一、环境搭建的核心意义与准备工作1.1深度学习环境的核心挑战深度学习开发环境涉及复杂的软件栈依赖关系:硬件兼容性:
GPU
型号(NVIDIA系列)与CUDA版本的匹配软件依赖链:Python版本→PyTorch
WHCIS
·
2025-03-13 12:02
python
pytorch
人工智能
深度学习
机器学习
英伟达的最新AI算力芯片——Blackwell芯片性能及应用场景
以下是对其详细性能及应用场景的归纳:性能特点晶体管数量:Blackwell架构的
GPU
拥有2080亿个晶体管。
算力资源比较多
·
2025-03-13 11:20
英伟达
算力
大模型
人工智能
语言模型
gpu算力
推荐算法
分布式并行策略概述
数据并行(DataParallelism)内容:数据并行通过将训练数据分割成多个小批次,并在多个处理单元(如
GPU
)上同时训练模型的副本来工作。
灵海之森
·
2025-03-13 10:11
LLM
算法
分布式
RISC_V
GPU
skybox 系列 core 模块之VX_dispatch_unit.sv
VX_dispatch_unit.sv代码分析总结//Copyright©2019-2023////LicensedundertheApacheLicense,Version2.0(the"License");//youmaynotusethisfileexceptincompliancewiththeLicense.//YoumayobtainacopyoftheLicenseat//http:
CDerL
·
2025-03-13 08:54
skybox
skybox
_core
skybox
core
RISC_V
GPU
skybox 系列 core 模块之VX_issue.sv
VX_issue_top.sv//Copyright©2019-2023////LicensedundertheApacheLicense,Version2.0(the"License");//youmaynotusethisfileexceptincompliancewiththeLicense.//YoumayobtainacopyoftheLicenseat//http://www.apac
CDerL
·
2025-03-13 06:44
skybox
_core
skybox
issue
skybox
core
深入解析CSS动画:从基础到实战的完整指南
相比传统的JavaScript动画实现方式,CSS动画具有以下显著优势:硬件加速优化:浏览器可自动使用
GPU
加速,实现更流畅的动画效果声明式语法:通过简洁的代码描述复杂动画序列性能优势:浏览器原生支持,
斯~内克
·
2025-03-13 06:10
css
css
前端
PyTorch分布式训练
分布式训练概述环境设置数据并行(DDP)模型并行启动训练性能优化建议示例代码参考资料和相关问题以下是为您整理的PyTorch分布式训练教程指南:一、PyTorch分布式训练核心概念数据并行:通过分割数据集实现多
GPU
阳光明媚大男孩
·
2025-03-13 02:16
pytorch
分布式
人工智能
开发ai模型最佳的系统是Ubuntu还是linux?
提供针对NVIDIA
GPU
的官方驱动支持,简化CUDA和cuDNN的配置流程(如nvidia-smi直接监控显存)。2.社区生态与长期维护(LTS)UbuntuLTS版本(如24
俺足
·
2025-03-12 22:18
人工智能
ubuntu
vLLM 部署大语言模型的系统选择策略
核心选型原则指标权重说明CUDA支持⭐⭐⭐⭐⭐直接影响
GPU
加速性能,需确保系统与NVIDIA驱动和CUDA工具链的兼容性软件源时效性⭐⭐⭐⭐系统需提供较新的Python、PyTorch等AI框架版本,
由数入道
·
2025-03-12 22:15
人工智能
语言模型
人工智能
自然语言处理
VLLM
# 显卡算力参数对比
显卡算力参数对比文章目录显卡算力参数对比A显卡参数查询B显卡性能对比:综合看:T4最具性价比A显卡参数查询查询网址:https://www.techpowerup.com/
gpu
-specs/,以下列出部分
猪猪侠|ZZXia
·
2025-03-12 21:39
人工智能
CUDA基础介绍
CUDA基础介绍2月前阅读(6)原文一、
GPU
简介1985年8月20日ATi公司成立,同年10月ATi使用ASIC技术开发出了第一款图形芯片和图形卡,1992年4月ATi发布了Mach32图形卡集成了图形加速功能
Hansen Feng
·
2025-03-12 21:38
linux
android渲染是skia与egl,opengl和skia哪个快 游戏电脑问题解决分享!
从Honeycomb[3.x]版本起,Andorid便支持
GPU
加速,但目前Android并没有使用Skia
GPU
进行Webkit渲染。
赵阿萌
·
2025-03-12 21:36
vLLM框架:使用大模型推理框架
1.环境安装与配置1.1硬件要求
GPU
:支持CUDA11.8及以上(推荐NVIDIAA100/H100,RTX4090等消费级卡需注意显存限制)显存:至少20GB(运行7B模型),推荐40GB+(运行13B
CITY_OF_MO_GY
·
2025-03-12 17:12
人工智能
Sglang部署大模型常用参数详解
部署大模型常用参数详解常用启动命令HTTP服务器配置API配置并行处理张量并行数据并行专家并行内存和调度其他运行时选项日志记录多节点分布式服务LoRA内核后端约束解码推测解码双稀疏性调试选项优化选项参数概览常用启动命令要启用多
GPU
小树苗m
·
2025-03-12 16:36
sglang
vllm
deepseek
GPU
(图形处理器) ARCHITECTURE的变迁史
上面我们已经了解了CPU和
GPU
之间的中转是由graphicsdriversoftware来承担的,接下来我们来了解一下
GPU
硬件本身的构造。
qq_39812022
·
2025-03-12 15:56
Graphics
意见
GPU
ARCHITECTURE
DeepSeek开源第一弹!突破H800性能上限,FlashMLA重磅开源
FlashMLA是一个针对Hopper
GPU
优化的高效MLA(Multi-HeadLatentAttention)解码内核,支持变长序列处理,现在已经投入生产使用。
开源项目精选
·
2025-03-12 14:54
人工智能
Windows 图形显示驱动开发-WDDM 3.2-脏位跟踪
支持
GPU
并行化设备上的实时迁移的驱动程序还必须支持脏位跟踪。介绍随着云方案中的
GPU
越来越受欢迎,越来越需要确保将虚拟机从一个物理主机迁移到另一个物理主机保持合理的性能。
程序员王马
·
2025-03-12 13:15
windows图形显示驱动开发
windows
驱动开发
深入理解Mesa:Linux图形渲染背后的开源力量
简单来说,它是图形应用程序和
GPU
之间沟通的重要桥梁,让开发者可以借助标准的图形接口轻松进行图形渲染和3D处理。
嵌入式Jerry
·
2025-03-12 10:00
Linux
linux
图形渲染
开源
AI系统架构
关键组成计算硬件
GPU
(如NVIDIAA100、H100)TPU(GoogleTensorProcessingUnit)NPU(如华为昇腾、寒武纪等)CPU(用于轻量级推理任务)
flying robot
·
2025-03-12 07:32
AI
系统架构
使用AINetwork进行AI模型管理
它利用去中心化的
GPU
网络,由$AIN代币驱动,并助力AI驱动的NFTs(AINFTs)。其目标是为开发者提供一个安全且高效的平台,来部署和管理AI模型。
qahaj
·
2025-03-12 05:44
人工智能
python
k8s集群中部署dcgm-exporter收集
GPU
指标
总体步骤:部署dcgm-exporter的DaemonSet和Service,确保Service有正确的标签和端口。创建ServiceMonitor,选择dcgm-exporter的Service,并指定端口。检查Prometheus的targets页面,确认dcgm-exporter是否被正确发现和抓取。可能需要调整Prometheus的RBAC或网络策略,确保访问权限。1,部署dcgm-exp
thinkerCoder
·
2025-03-12 03:28
kubernetes
容器
运维
GPU
N卡 英伟达Nvidia 显卡及其计算能力(Compute Capability)表
比如:AWQ量化模型不支持算力小于7.5的显卡V100:ValueError:Thequantizationmethodawqisnotsupportedforthecurrent
GPU
.Minimumcapability
Panesle
·
2025-03-12 01:45
显卡
Nvidia
gpu算力
英伟达
基于PyTorch的深度学习5—神经网络工具箱
nn中已实现了绝大多数层,包括全连接层、损失层、激活层、卷积层、循环层等,这些层都是nn.Module的子类,能够自动检测到自己的Parameter,并将其作为学习参数,且针对
GPU
运行进行了cuDNN
Wis4e
·
2025-03-12 00:09
深度学习
pytorch
神经网络
绿色算力网络构建与智能调度实践
当前架构设计包含三大核心模块:异构计算集群(涵盖
GPU
、FPGA及量子计算单元)、跨区域网络互联协议(适配东数西算的传输需求)以及能耗监测平台(基于实时数据建模的碳足迹追踪)。
智能计算研究中心
·
2025-03-11 22:13
其他
算力安全创新驱动未来趋势endofsentence
例如,异构计算通过CPU、
GPU
、FPGA的协同加速,使复杂模型训练效率提升40%以上。关键数据:根据IDC预测,到2025年全球智能算力需求将增长30倍,
智能计算研究中心
·
2025-03-11 22:42
其他
H100架构解析与性能优化策略
内容概要NVIDIAH100
GPU
作为面向高性能计算与人工智能领域的旗舰级产品,其架构设计与优化策略在计算效率、显存带宽及并行任务处理等方面实现了显著突破。
智能计算研究中心
·
2025-03-11 21:36
其他
【TVM教程】为 Mobile
GPU
自动调优卷积网络
ApacheTVM是一个深度的深度学习编译框架,适用于CPU、
GPU
和各种机器学习加速芯片。
·
2025-03-11 19:35
深度学习训练中
GPU
内存管理
文章目录概述常见问题1、设备选择和数据迁移2、显存监控函数3、显存释放函数4、自适应batchsize调节5、梯度累积概述在深度学习模型训练中,主流
GPU
显存通常为8GB~80GB,内存不足会导致训练中断或
@Mr_LiuYang
·
2025-03-11 19:24
遇到过的问题
内存管理
内存溢出
out
of
memory
GPU内存
深度学习:CPU和
GPU
算力
GPU
算力:图形处理单元用于并行处理的能力,尤其是在深度学习
壹十壹
·
2025-03-11 16:55
深度学习
深度学习
gpu算力
人工智能
如何在DigitalOcean的H100
GPU
服务器上运行DeepSeek R1 模型
在DigitalOcean,我们一直在关注开源大语言模型(LLMs)和商业封闭模型之间差距的不断缩小。其中一个最关键的能力就是“推理”,也就是用合乎逻辑、讲得通的方式思考问题。以前,大语言模型的表现比较单一。只要给它们一个提示,它们就会直接给出答案,根本没有什么“二次思考”的过程,也没有什么机制能让模型在出错时自己纠正。这就让它们在遇到那些指令本身就可能有问题的情况时,很难进行深入推理、提出疑问或
DO_Community
·
2025-03-11 10:44
教程
DeepSeek
GPU
ai
大语言模型
人工智能
基于llama_cpp 调用本地模型(llama)实现基本推理
背景llama_cpp是一个基于C++的高性能库(llama.cpp)的Python绑定,支持在CPU或
GPU
上高效运行LLaMA及其衍生模型(如LLaMA2),并通过量化技术(如GGUF格式)优化内存使用
月光技术杂谈
·
2025-03-11 10:40
大模型初探
llama
llama.cpp
python
LLM
集成显卡
本地模型
AI
C# Winform做动画卡顿怎么办?
Winform用的GDI+,像全屏动画这种卡的稀巴烂,任务管理器看进程如果
GPU
没动静那就是渣,没加速。可以使用OpenGL或者DirectX这样有
GPU
加速就不卡了。
肖无疾
·
2025-03-11 02:05
游戏
gdi/gdi+
opengl
directx
c#
Windows 图形显示驱动开发-WDDM 3.2-用户模式工作提交(一)
UM工作提交使应用程序能够直接从用户模式将工作提交到
GPU
,且延迟非常低。目标是提高经常向
GPU
提交小工作负载的应用程序的性能。
程序员王马
·
2025-03-10 20:52
windows图形显示驱动开发
驱动开发
Windows 图形显示驱动开发-WDDM 3.2-自动显示切换(九)
由于EDID保持不变,当任何一个
GPU
控制内部面板时,都会加载面板驱动程序。这两个驱动程序将显示相同的亮度功能。因此,加载应该不会造成任何问题,面板驱动程序也不需要知道哪个
GPU
在控制多路复用器。
程序员王马
·
2025-03-10 20:22
windows
驱动开发
Windows 图形显示驱动开发-WDDM 3.2-自动显示切换(十)
系统配置为连接d
GPU
的多路复用器。系统进入休眠状态。i
GPU
和d
GPU
都切换到了D3电源状态。系统关闭电源。用户开启系统电源。固件配置i
GPU
的多路复用器和i
GPU
在内部面板上的显示启动序列。
程序员王马
·
2025-03-10 20:22
驱动开发
windows
解密DeepSeek-R1模型微调实战:VIP专属技巧助你轻松掌握行业核心技术
但90%的学习者卡在以下痛点:❌开源数据集质量参差不齐❌实验环境搭建耗时易出错❌行业级调优方案闭源难获取CSDN大模型VIP专项计划针对上述问题,提供:✅金融/医疗/法律三大领域高质量微调数据集✅云端
GPU
竹木有心
·
2025-03-10 19:16
人工智能
【大模型】DeepSeek-R1-Distill-Qwen部署及API调用
当前模型开源后,我们可以将其部署,使用API方式进行本地调用1.部署环境本文中的部署基础环境如下所示:PyTorch2.5.1Python3.12(ubuntu22.04)Cuda12.4
GPU
RTX3090
油泼辣子多加
·
2025-03-10 17:29
大模型实战
算法
gpt
langchain
人工智能
opencv cuda例程 OpenCV和Cuda结合编程
本文转载自:https://www.fuwuqizhijia.com/linux/201704/70863.html此网页,仅保存下来供随时查看一、利用OpenCV中提供的
GPU
模块目前,OpenCV中已提供了许多
weixin_44602056
·
2025-03-10 16:27
opencv
C++
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他