E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
GPU云服务
显卡性能对比:P100、RTX3090、A40、A100、A800、H100
32GBRTX3080RTX2080TiRTXA4000RTXA5000A100-SXM4-80GBA100-PCIE-40GBTITANXpRTX3060RTX3080TiV100-32GBTeslaT4A800H100世上最全NVDIA
GPU
u013250861
·
2025-02-17 03:27
LLM
显卡
【Stable Diffusion部署至GNU/Linux】安装流程
显卡与计算架构介绍CUDA是NVIDIA
GPU
的专用并行计算架构技术层级说明CUDAToolkit提供
GPU
编译器(nvcc)、数学库(cuBLAS)等开发工具cuDNN深度神经网络加速库(需单独下载)
星星点点洲
·
2025-02-17 00:34
stable
diffusion
KTransformers:告别天价显卡!国产框架让单卡24G显存跑DeepSeek-R1 671B大模型:推理速度飙升28倍
清华团队用CPU/
GPU
协同计算,让4090跑起671B参数全量模型!”大家好,我是蚝油菜花。如果你也经历过——看着API调用账单瑟瑟发抖,微调一次模型吃掉半月算力预算️盯着OOM报错抓狂,为了
蚝油菜花
·
2025-02-17 00:32
每日
AI
项目与应用实例
人工智能
开源
高效高并发调度架构
以下是从架构层面为你提供的适合多核CPU、多
GPU
环境下API客户端、服务端高级调度,以实现高效并发大规模与用户交互的技术栈:通信协议gRPC:基于HTTP/2协议,具有高性能、低延迟的特点,支持二进制序列化
之群害马
·
2025-02-16 23:59
架构
【vLLM 学习】安装
依赖环境操作系统:LinuxPython:3.8-3.12
GPU
:计算能力7.0或更高(例如V100、T4、RTX20xx、A100、L
·
2025-02-16 23:25
三种方式实现人车流统计(yolov5+opencv+deepsort+bytetrack+iou)
一、运行环境1、项目运行环境如下2、CPU配置3、
GPU
配置如果没有
GPU
yolov5目标检测时间会比较久二、编程语言与使用库版本项目编程语言使用c++,使用的第三方库,onnxruntime-linux-x64
Jayson God
·
2025-02-16 23:24
人工智能
c++
yolov5
opencv
算法
人工智能
【Stable Diffusion部署至Google Colab】
GoogleColab中快速搭建带
GPU
加速的StableDiffusionWebUIfromgoogle.colabimportdrivedrive.mount('/content/drive')!
星星点点洲
·
2025-02-16 21:40
stable
diffusion
麒麟SoC的详细架构组成介绍
目录麒麟SoC的主要组成部分1.应用处理器(ApplicationProcessor,AP)2.图形处理单元(
GPU
)3.神经网络处理单元(NPU)4.图像信号处理器(ISP)5.调制解调器(Modem
小蘑菇二号
·
2025-02-16 16:33
麒麟
[Soulmask] 教你使用灵魂面甲服务器设置管理员教程[Soulmask]
使用莱卡
云服务
器先连接游戏连接游戏后按键盘左上角ESC下方的波浪键(~)使用控制台管理员密码在服务器启动项可自行修改(修改后需要重启服务器才可生效)输入gm+空格+key+空格+管理员密码示例:gmkey123456
莱卡云(Lcayun)
·
2025-02-16 15:28
github
游戏
服务器
linux
云计算
以下是一篇关于使用SLURM编写作业脚本的原创技术指南
通过编写规范的SLURM脚本,研究人员可以:1.精确申请计算资源(CPU/
GPU
/内存)2.实现任务队列管理3.自动化作业流程4.获得执行日志和性
这题有点难度
·
2025-02-16 15:57
人工智能
InfiniteHiP - 在单个
GPU
上扩展 LLM 上下文至300万tokens
InfiniteHiP:ExtendingLanguageModelContextUpto3MillionTokensonaSingle
GPU
Paper:https://huggingface.co/papers
伊织code
·
2025-02-16 14:18
#
Paper
Reading
InfiniteHiP
推理
GPU
LLM
token
理解Web
GPU
中的
GPU
Device :与
GPU
交互的核心接口
在Web
GPU
开发中,
GPU
Device是一个至关重要的对象,它是与
GPU
进行交互的核心接口。
ttod_qzstudio
·
2025-02-16 13:12
WebGPU
WebGPU
解析浏览器中JavaScript与Native交互原理:以Web
GPU
为例
Web
GPU
的出现正是这一矛盾的解决方案之一。作为新一代Web图形API,Web
GPU
允许JS以接近原生(Native)的方式操作
GPU
,同时严格遵循浏览器的安全模型。本文将结
ttod_qzstudio
·
2025-02-16 12:36
JavaScript
JavaScript
WebGPU
docker+es8+kibana单机及集群安装
安装过程遇到很多坑,涉及
云服务
器连接、配置等,这里把过程记录一下。
qq_33935672
·
2025-02-16 12:33
docker
容器
运维
es
elasticsearch
onnx 推理报错:onnxruntime.capi.onnxruntime_pybind11_state.Fail: [ONNXRuntimeError] : 1 : FAIL : Load mo
onnx模型不匹配有可能是你转换的是
gpu
但是推理是cpu,也可能版本不兼容导致,因此卸载cpu版本,重新安装
gpu
版本或者升级
gpu
版本pipuninstallonnxruntime-
gpu
pipinstall-ihttps
fengsongdehappy
·
2025-02-16 10:19
python
理解Web
GPU
中的
GPU
Adapter :连接浏览器与
GPU
的桥梁
在Web
GPU
开发中,
GPU
Adapter是一个至关重要的对象,它作为浏览器与
GPU
之间的桥梁,为开发者提供了请求
GPU
设备、查询
GPU
特性以及获取适配器信息的能力。
ttod_qzstudio
·
2025-02-16 06:44
WebGPU
WebGPU
理解 Web
GPU
中的
GPU
Queue:
GPU
的命令队列
在现代图形编程中,与
GPU
的交互变得越来越高效和灵活,而Web
GPU
API的出现更是为Web开发者带来了强大的图形处理能力。其中,
GPU
Queue作为Web
GPU
的核心接口之一,扮演着至关重要的角色。
ttod_qzstudio
·
2025-02-16 05:38
WebGPU
WebGPU
DeepSeek 大模型离线 Docker 部署技术指南
核心组件包括:模型服务层:基于TritonInferenceServer的模型推理容器API网关层:FastAPI实现的REST/gRPC接口服务资源管理层:CUDA-awareDocker运行时+NVIDIA
GPU
容器的搬运工
·
2025-02-16 04:32
docker
eureka
容器
动手学深度学习V2.0(Pytorch)——25. 使用块的网络 VGG
文章目录P1讲解1.1基本介绍1.2总结P2代码实现2.1报错解决2.2windows下专用/共享
GPU
内存P3Q&AP4.其他4.1ImageNetClassificationLeaderboard4.2VGG
吨吨不打野
·
2025-02-16 04:58
动手学深度学习pytorch
深度学习
pytorch
网络
清华大学KVCache.AI团队联合趋境科技联合的KTransformers开源项目为什么那么厉害
以下是KTransformers的详细介绍:1.核心特点高性能优化:KTransformers通过内核级优化、多
GPU
并行策略和稀疏注意力等技术,显著加速模型推理速度,降低硬件门槛。
魔王阿卡纳兹
·
2025-02-16 03:52
IT杂谈
人工智能
科技
开源
清华
DeepSeek
趋境科技
KTransformers
大模型转换为 GGUF
其目的是为了有一个单文件共享的格式,并且易于在不同架构的
GPU
和CPU上进行推理。但在后续的开发中,遇到了灵活性不足、相容性及难以维护的问
奔跑中的小象
·
2025-02-15 22:48
AI
GGUF
阿里云通用平衡增强型g6e服务器网络收发包能力PPS对照表详解
阿里
云服务
器通用平衡增强型g6e实例是阿里云新推出的第六代
云服务
器,最大网络收发包能力达到2400万PPS,g6e实例CPU内存比1:4适用于高网络包收发场景等应用场景,InstanceTypes分享阿里云
m0_60889071
·
2025-02-15 19:28
阿里云
服务器
智能化售后服务过程如何建立
而使用瑞
云服务
云的售后服务管理系统,只需要输入关键词,勾勾选选就可以轻松记录;而且智能派单、实时查看流程进度、自动提醒、详尽灵活的数据报表这些功能,都在缩减管理成本、提高管理效率、提升服务品质上变得更容易了
瑞云服务云
·
2025-02-15 18:46
售后管理系统
派工管理系统
工单管理
saas
crm
国标GB28181网页直播平台EasyGBS国标GB28181软件与GB28181应用场景分析
国标GB28181网页直播平台EasyGBS作为一款基于国标GB28181协议的视频
云服务
平台,凭借其强大的功能和广泛的应用场景,在众多领域中展现出了独特的优势。
科技小E
·
2025-02-15 17:13
音视频
视频监控
安全
深度学习基础知识
它允许开发人员利用NVIDIA的
GPU
(图形处理器)来加速各种计算任务,包括科学计算、机器学习、深度学习、数据分析等。NVIDIA是一个全球领先的计算技术公司,专注于设计和制造高性能计算设备。
namelijink
·
2025-02-15 15:22
深度学习
人工智能
如何在我的电脑上查看是否安装cuda12?我现在在我的VS中新建项目时,里面多出来一个CUDA12.4 runtime,这是什么?是不是使用CUDA cpp进行编程?
在你的电脑上检查是否安装了CUDA12,可以通过以下几种方法:1.检查CUDAToolkit安装目录查看CUDA安装目录:-默认情况下,CUDAToolkit安装在C:\ProgramFiles\NVIDIA
GPU
ComputingToolkit
吃榴莲的小鳄鱼
·
2025-02-15 15:21
电脑
Python 并发处理
编写您自己的并发和并行软件系统所需的并发的基本概念介绍调试和异常处理等概念,以及一些允许您创建事件驱动和反应式系统的最流行的库和框架内容加快速度并行化线程的生命线程间同步线程之间的通信调试和基准测试执行和池多进程事件驱动编程反应式编程使用
GPU
亚图跨际
·
2025-02-15 15:21
Python
python
并发编程
【开发日志】数字人+LLM:从概念到实现的全程记录!
系统环境:CPU:i91490016GB
GPU
:GTX40608GBSYS:Windows11WSL:Ubuntu22.04本文章使用到的技术内容:数字人框架:LiveTalking大模型:Llama3.1TTS
AI大模型-王哥
·
2025-02-15 13:11
大模型学习
大模型教程
大模型
人工智能
LLM
数字人
大模型入门
麒麟8000处理器参数
麒麟8000CPU为1个2.4GHz的A77核心+3个2.19GHz的A77核心+4个1.84GHz的A55核心,
GPU
是Mali-G610,频率为864MHz。
m0_50307601
·
2025-02-15 12:32
cpu
阿里
云服务
器突然有大量nmap服务占用大量CPU排查及解决方案
问题描述突然有一天服务器访问很卡顿,在阿里云后台查看CPU,内存,系统平均负载等参数发现没问题但是登陆服务器后,发现大量nmap服务占用大量CPU,但是这台管理员并没有主动安装过nmap原因及对应预防方案暴力破解SSH密码:通过爆破弱密码或没有加固的SSH配置。解决方案:使用强密码和密钥认证修改默认端口号启用防暴力破解工具fail2ban或类似工具通过防火墙(如iptables或ufw)限制SSH
_院长大人_
·
2025-02-15 11:54
线上问题
阿里云
服务器
云计算
使用CerebriumAI进行大规模语言模型的推理
传统的CPU在处理大规模语言模型(LLM)时效率较低,
GPU
成为了首选。然而,自行搭建
GPU
环境成本高昂且维护复杂。
qahaj
·
2025-02-15 07:54
语言模型
人工智能
自然语言处理
python
centos7 安装单机 ClickHouse
能够使用SQL查询实时生成分析数据报告本篇首先介绍下如何基于centos7环境安装单机版的clickhouse官网:https://clickhouse.com/环境准备centos7环境(虚拟机或者
云服务
器
小码农叔叔
·
2025-02-15 06:46
大数据
clickhouse安装
clickhouse单机安装
clickhouse单节点安装
安装单机clickhouse
什么是计算型
云服务
器
计算型
云服务
器是云计算的一种子服务,同时也是一种提供计算资源的
云服务
,计算型
云服务
器是专门设计用来提供强大计算能力的云计算服务,通常是用于需要高性能计算的应用场景当中,会配备高性能CPU和高速的存储设备
wanhengidc
·
2025-02-15 01:29
服务器
运维
实验随记2-Pytorch Lightning多机多卡训练
示例实现5节点4
GPU
共计20卡训练。使用pytorch_lightning==1.9.4存在bug:启
晓岚和雪
·
2025-02-14 23:48
实验随记
pytorch
人工智能
python
深度学习
分布式
PyTorch Lightning多
GPU
分布式日志介绍
分布式日志是指在分布式系统中,多个节点(如多台机器或多个
GPU
)协同工作时,对系统运行状态、错误信息、性能指标等进行记录的过程。
qq_27390023
·
2025-02-14 23:48
pytorch
人工智能
python
1.1、Ray-关键概念Key Concepts
Ray使任务能够指定其在CPU、
GPU
和自定义资源方面的资源需求。这些资源请求被集群调度器用来在整个集群中分配任务,以实现并行执行。参见
MaxCode-1
·
2025-02-14 20:23
Ray计算框架
Ray
Actors
python
用 Python 实现 DeepSeek R1 本地化部署
你的电脑至少得配备8GB内存,要是想运行更大的模型,比如7B及以上的,那最好有更强劲的CPU和
GPU
,内存也
喜-喜
·
2025-02-14 18:33
人工智能
python
DeepSeek
transformer
vscode编程插件cline 配置deepseek使用说明
vscode编程插件cline配置使用说明cline插件使用,四个剪头从左到右依次操作配置deepseek公有
云服务
,依次配置,相关配置信息获取首次调用API|DeepSeekAPIDocs使用ollama
telllong
·
2025-02-14 17:57
深度学习
vscode
ide
编辑器
redis启动的三种方式
//查看
云服务
器是否安装过redisredis-server-v//检查安装目录whichredis-server//查看redis进程ps-ef|grepredis//运行redis前台启动(默认)redis-server
刽子手发艺
·
2025-02-14 09:34
redis
redis
数据库
Chrome内核解析 -- 背景篇:Chromium的多进程多线程构架
采用多进程构架,以DesktopChromium为例,它包括一个BrowserProcess(也称为UIProcess),一个或多个RenderProcess(也称为WebProcess),零个或一个
GPU
Process
yunchao_he
·
2025-02-14 05:31
Chromium/Blink
Rendering
Chromium
multi-process
windows hyperv中Ubuntu使用本机的nvidia显卡
在WindowsHyper-V中,Ubuntu虚拟机默认无法直接使用主机的NVIDIA显卡,因为Hyper-V的虚拟化技术会独占
GPU
资源。
飞瀑
·
2025-02-14 05:26
ubuntu
linux
运维
GPU
(Graphics Processing Unit)详解
GPU
(GraphicsProcessingUnit)详解1.
GPU
的定义与核心特性
GPU
(图形处理器)是一种专为并行计算和图形渲染优化的处理器。
美好的事情总会发生
·
2025-02-14 03:32
AI
人工智能
嵌入式硬件
硬件工程
ai
AI大模型
功能强大通义灵码,是阿里云出品的一款基于通义大模型的智能编码辅助工具,提供行级/函数级实时续写、自然语言生成代码、单元测试生成、代码优化、注释生成、代码解释、研发智能问答、异常报错排查等能力,并针对阿里云的
云服务
使用场景调优
东坡大表哥
·
2025-02-14 02:53
人工智能
人工智能
自学人工智能大模型,满足7B模型的训练和微调以及推理,预算3万,如何选购电脑
在这个预算范围内,以下是推荐的配置:1.关键硬件配置(1)
GPU
(显卡)推荐显卡:NVIDIARTX4090(24GBVRAM)或者RTX3090(24GBVRAM)理由:7B模型推理:24GB显存足够跑
岁月的眸
·
2025-02-13 23:03
人工智能
Linux磁盘扩容:使用growpart扩展分区及文件系统
Linux磁盘扩容:使用growpart扩展分区及文件系统使用场景一、准备工作二、使用growpart扩展分区三、调整文件系统大小四、验证扩容结果使用场景
云服务
器的某个磁盘从20GB扩展到30GB。
阿俊仔(摸鱼版)
·
2025-02-13 23:31
云服务器管理实操
linux
运维
服务器
Windows下安装CPU用的Tensorflow
刚在电脑上安装了Tensorflow,还是碰到了一些麻烦,记录一下:很多教程是介绍怎么在Linux平台下安装的,或者是Windows平台下
GPU
用的,很可惜,这些教程对我来说太麻烦了。
Coder LM Wang
·
2025-02-13 22:26
Python
ubuntu-
gpu
生产环境,创建lvm步骤(真实生产)
一、手动-创建步骤多块磁盘创建成一个LVM,并挂载到/mnt,同时确保系统在启动时自动挂载该LVM卷,你可以按照以下步骤进行操作。以下是具体的操作命令:1.创建LVM1.1初始化物理卷首先,我们需要将所有指定的磁盘初始化为物理卷(PhysicalVolume,PV)。#列出所有磁盘lsblk#初始化每个磁盘为物理卷pvcreate/dev/nvme0n1pvcreate/dev/nvme1n1pv
清风 001
·
2025-02-13 22:26
Linux系统
ubuntu
linux
运维
【虚幻引擎UE】UE4.23到UE5.5的核心功能变化
但通过第三方插件(如WebAssembly+Web
GPU
)可在浏览器运行部分项目。
灵境引路人
·
2025-02-13 21:19
虚幻
ue4
ue5
免费体验!DeepSeek一键部署全攻略
借助AlayaNeW算力
云服务
提供的强大
GPU
资源,您可以轻松实现DeepS
·
2025-02-13 20:13
deepseek
Deepseek的MOE架构中ColumnParallelLinear()是怎么实现的
我记得在PyTorch中,模型并行通常涉及到将模型的层分布到不同的
GPU
上。ColumnParallelLinear可能指的是将线性层的列(即输出神经元)分布在多个设备上。
DukeYong
·
2025-02-13 18:00
架构
上一页
8
9
10
11
12
13
14
15
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他