E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
GPU云服务器
工业级Pandas性能优化:Dask/Modin实战教程
目录工业级Pandas性能优化:Dask/Modin实战教程1.引言与背景1.1Pandas的局限性1.2分布式计算与
GPU
加速的需求1.3Dask与Modin简介2.数据集介绍3.工业级数据处理理论基础
闲人编程
·
2025-03-07 17:06
Python数据分析实战精要
pandas
性能优化
分布式
GPU加速
Dask
Modin
数据分析
esrgan_在 colab 上体验 ESRGAN(低清转高清)
设置笔记本为Python3、
GPU
模式,并保存。2.建立colab和googledrive的连接先获取授权,将下面代码贴进去运行。运行过程会要求填写
weixin_39713763
·
2025-03-07 15:20
esrgan
美国AI圈破防了。。。
微软、Meta和谷歌等巨头正在将资源投入到庞大的10万
GPU
集群中进行人
强化学习曾小健
·
2025-03-07 13:43
LLM大语言模型
人工智能
Windows 图形显示驱动开发-WDDM 3.2-本机
GPU
围栏对象(四)
用于创建、打开和销毁本机围栏的D3DKMT内核API引入了以下D3DKMT内核模式API来创建和打开本机围栏对象。D3DKMTCreateNativeFence/D3DKMT_CREATENATIVEFENCED3DKMTOpenNativeFenceFromNTHandle/D3DKMT_OPENNATIVEFENCEFROMNTHANDLEDxgkrnl调用现有的D3DKMTDestroySy
程序员王马
·
2025-03-07 10:53
windows图形显示驱动开发
驱动开发
单片机
stm32
Docker中
GPU
的使用指南
在当今的计算领域,
GPU
(图形处理单元)已经成为了加速各种计算密集型任务的关键硬件,特别是在深度学习、科学模拟和高性能计算等领域。
俞兆鹏
·
2025-03-07 10:22
云原生实践
docker
容器
运维
LLMs之Llama-3:基于Colab平台(免费T4-
GPU
)利用LLaMA-Factory的GUI界面(底层采用unsloth优化框架【加速训练5~30倍+减少50%的内存占用】)对llama-3
LLMs之Llama-3:基于Colab平台(免费T4-
GPU
)利用LLaMA-Factory的GUI界面(底层采用unsloth优化框架【加速训练5~30倍+减少50%的内存占用】)对llama-3-
一个处女座的程序猿
·
2025-03-07 09:41
NLP/LLMs
成长书屋
大语言模型
unsloth
LLaMA-3
LoRA
DeepSeek开源技术全景解析:从硬件榨取到AI民主化革命
从硬件榨取到AI民主化革命一、开源周核心成果概览2025年2月24日启动的"开源周"计划,DeepSeek团队连续发布三项底层技术突破:FlashMLA(2.24):动态资源调度算法,Hopper架构
GPU
大刘讲IT
·
2025-03-07 09:09
开源
人工智能
【学习笔记5】Linux下cuda、cudnn、pytorch版本对应关系
一、cuda和cudnnNVIDIACUDAToolkit(CUDA)为创建高性能
GPU
加速应用程序提供了一个开发环境。
longii11
·
2025-03-07 08:56
linux
pytorch
运维
【Qt】Qt Widgets和QML(Qt Quick)开发界面的区别
QtWidgetsvs.QML总体对比对比项QtWidgetsQML(QtQuick)语言C++(带QtUI库)QML+JavaScript(底层C++)渲染方式传统窗口系统控件(原生或模拟)基于OpenGL,使用
GPU
£އއ昔年
·
2025-03-07 08:52
qt
开发语言
云服务器
ecs购买须知
购买
云服务器
没有公网ip,基本等于没用,不能挂网站,不能ssh连接,只能通过云服务商提供的控制台访问
云服务器
,只能访问云服务商的内网。
云服务器
不一定自带公网ip,购买时可选公网ip,但是要额外付费。
产幻少年
·
2025-03-07 06:39
服务器
阿里云
只需几步!在本地电脑轻松部署DeepSeek大模型
Ollama还允许用户通过编写Modelfile配置文件来自定义模型的推理参数,支持多
GPU
并行推理加速。二、安装Ollama(一)
魔法小匠
·
2025-03-07 01:42
AI大模型
AI大模型
DeepSeek
Ollama
大模型部署
大模型API
揭秘AWS
GPU
实例:以极致AI算力与成本优化,重塑企业智能竞争力
本文将深度解析AWS
GPU
实例的颠覆性技术方案,带您解锁AI时代的核心生产力。
AWS官方合作商
·
2025-03-06 23:55
人工智能
aws
云计算
gpu算力
chatglm3如何进行微调
loadmodel时,是先放在内存里面,所以内存不能小,最好在30GB左右显存:如果用half()精度来loadmodel的话(int4是不支持微调的),显存在16GB就可以,比如可以用kaggle的t4
gpu
learner_ctr
·
2025-03-06 23:24
人工智能
chatglm3
llm
yolov8训练模型、测试视频
1、训练代码train.pyimportos#os.environ["CUDA_VISIBLE_DEVICES"]="3"#同样是选择第3块
GPU
fromultralyticsimportYOLO#L
灰灰学姐
·
2025-03-06 21:12
深度学习
神经网络
YOLO
python
机器学习
《基于Web
GPU
的下一代科学可视化——告别WebGL性能桎梏》
Web
GPU
作为下一代Web图形标准,通过显存直存、多线程渲染和计算着色器三大革新,将科学可视化性能提升至10倍以上。本文将深入解析如何利用Web
GPU
突破大规模数据渲染的极限。
Eqwaak00
·
2025-03-06 20:31
matplotlib
webgl
微服务
架构
云原生
分布式
VoVNet(2019 CVPR)
论文标题AnEnergyand
GPU
-ComputationEfficientBackboneNetworkforReal-TimeObjectDetection论文作者YoungwanLee,Joong-wonHwang
刘若里
·
2025-03-06 19:15
论文阅读
人工智能
计算机视觉
学习
笔记
网络
高效部署通义万相Wan2.1:ComfyUI文生/图生视频实战,工作流直取!
手把手教你在免费
GPU
算力环境、本地环境部署运行ComfyUI工作流,玩转Wan2.1文生视频、图生视频案例实践。
zhangjiaofa
·
2025-03-06 07:33
DeepSeek
R1&
AI人工智能大模型
通义万相
文生视频
图生视频
本地部署
云服务器
安装宝塔Linux面板教程(建议收藏)
对于新手用
云服务器
来建站的话,宝塔面板是一个非常好用的工具。
慈云数据
·
2025-03-06 06:56
linux
服务器
linux
运维
INA(In-Network Aggregation)技术
核心原理在传统分布式训练中,计算节点(如
GPU
)需要将本地计算的梯度或中间结果发送到中心节点(如参数服务器)进行聚合,这会产生大量的网络传输。In-NetworkAggregation则是通过可编
一只积极向上的小咸鱼
·
2025-03-06 01:22
人工智能
PyTorch 与 NVIDIA
GPU
的适配版本及安装
PyTorch与NVIDIA
GPU
的适配版本需要通过CUDA和cuDNN来实现。以下是详细的安装教程,包括如何选择合适的PyTorch版本以及如何配置NVIDIA
GPU
环境。
小赖同学啊
·
2025-03-05 19:05
人工智能
pytorch
人工智能
python
服务器显示检测不到内存,服务器检测不到内存
服务器检测不到内存相关内容当前创建的Linux
云服务器
,均不支持内存使用
如椽巨笔
·
2025-03-05 19:33
服务器显示检测不到内存
kubevirt源码分析之谁分配了
gpu
_device(3)
目标当一个launcherpod被创建时,它会请求资源,如下Requests:cpu:16devices.kubevirt.io/kvm:1devices.kubevirt.io/tun:1devices.kubevirt.io/vhost-net:1ephemeral-storage:50Mhugepages-2Mi:8Gimemory:1574961152nvidia.com/GA102_GE
生命不息折腾不止
·
2025-03-05 15:54
kubernetes
容器
云原生
《基于WebGL的matplotlib三维可视化性能调优》——让大规模3D数据流畅运行在浏览器端!
本文将解锁matplotlib与WebGL的融合之道,通过
GPU
加速渲染+数据压缩算法+计算负载转移三大杀招,实现浏览器端千万级粒子系统60FPS流畅交互。
Eqwaak00
·
2025-03-05 15:53
matplotlib
webgl
matplotlib
3d
开发语言
python
科技
大模型训练内存预估计算方法
方法论大模型在训练过程中,需要预估需要多少显存进行参数的存储,需要进行预估.来方便
GPU
的购买.举例以DeepSeek-V3模型为例,总共有671B个参数.B=Billion(十亿),因此,671B模型指拥有
junjunzai123
·
2025-03-05 13:29
人工智能
深度学习
机器学习
Python | Pytorch | Tensor知识点总结
如是我闻:Tensor是我们接触Pytorch了解到的第一个概念,这里是一个关于PyTorchTensor主题的知识点总结,涵盖了Tensor的基本概念、创建方式、运算操作、梯度计算和
GPU
加速等内容。
漂亮_大男孩
·
2025-03-05 08:27
Python拾遗
python
pytorch
深度学习
人工智能
NCU使用指南及模型性能测试(pytorch2.5.1)
OverviewNsightCompute(NCU)是NVIDIA提供的
GPU
内核级性能分析工具,专注于CUDA程序的优化。它提供详细的计算资源、内存带宽、指
Jakari
·
2025-03-05 02:05
cuda
gpu
ncu
python
docker
深度学习
pytorch
AI 芯片全解析:定义、市场趋势与主流芯片对比
与普通处理器(如CPU、
GPU
)相比,AI芯片有什么不同?本文将详细解析AI芯片的定义、核心特性、市场上的流行产品(国内外),以及AI芯片的定位与发展趋势。2.什么才算AI芯片?
嵌入式Jerry
·
2025-03-04 22:39
AI
人工智能
物联网
嵌入式硬件
服务器
运维
高性能计算中如何优化内存管理?
例如,在CUDA编程中,可以使用内存池来管理
GPU
内存,从而提高内存访问效率。异构内存管理:在异构计算环境中(如CPU+
GPU
),采用统一内存管理(UnifiedMemory)或智能数据迁移策略,
·
2025-03-04 22:52
gpu
基于PyTorch的深度学习2——Numpy与Tensor
不过它们也有不同之处,最大的区别就是Numpy会把ndarray放在CPU中进行加速运算,而由Torch产生的Tensor会放在
GPU
中进行加速运算。
Wis4e
·
2025-03-04 15:38
深度学习
pytorch
numpy
Helix 是开源的私有 GenAI 堆栈,用于构建具有声明性管道、知识 (RAG)、API 绑定和一流测试的 AI 应用程序。
从语言模型到图像模型等,Helix以符合人体工程学、可扩展的方式为您的业务带来最好的开源AI,同时优化
GPU
内存和延迟
2301_78755287
·
2025-03-04 13:50
人工智能
GPU
与CPU:架构对比与技术应用解析
1.引言1.1为什么探讨
GPU
与CPU的对比?随着计算技术的不断发展,
GPU
(图形处理单元)和CPU(中央处理单元)已经成为现代计算机系统中最重要的两个组成部分。
Hello.Reader
·
2025-03-04 12:50
运维
其他
架构
DEEPSEEK为什么还不能在工业控制领域使用?
以下是具体原因及深度分析:一、实时性与可靠性瓶颈1.毫秒级响应要求工业控制场景(如机器人协作、生产线急停)需确定性响应(通常50℃)、高湿、震动、电磁干扰等极端条件,通用AI服务器(如
GPU
集群)缺乏工业级防护
Wnq10072
·
2025-03-04 11:39
人工智能
测量纹波是否合格的标准是什么?
测量纹波是否合格需要结合具体应用场景和技术规范,以下为收集到的详细判断标准及分类说明:一、通用行业标准数字电路基础逻辑电路(如TTL/CMOS):<100mVpp高速数字电路(DDR/FPGA):<50mVpp处理器核心供电(如CPU/
GPU
CircuitWizard
·
2025-03-04 11:07
硬件工程师成长之路
硬件工程
探索AGI:谷歌开源的先进智能系统框架
探索AGI:谷歌开源的先进智能系统框架agiAndroid
GPU
Inspector项目地址:https://gitcode.com/gh_mirrors/ag/agiAGI(ArtificialGeneralIntelligence
劳泉文Luna
·
2025-03-04 06:30
python数据分析入门与实战王静_Keras快速上手:基于Python的深度学习实战
准备深度学习的环境11.1硬件环境的搭建和配置选择.........................11.1.1通用图形处理单元..........................31.1.2你需要什么样的
GPU
weixin_39724362
·
2025-03-04 04:52
私有部署 ChatGLM3-6B
1.在AutoDL平台上租赁
GPU
GPU
型号:RTX4090PyTorch版本:2.5.1**(推荐使用2.0及以上的版本,以获得最佳的推理性能)**2.开启学术资源加速source/etc/network_turbo3
张申傲
·
2025-03-04 03:16
langchain
人工智能
aigc
chatgpt
ai
人工智能和python的关系
人工智能是计算密集型,需要非常精细的优化,其中还需要
GPU
、专用硬件之类的接口,这些都只有C/C++能做到,所以某种意义上来说,其实C/C++才是人工智能领域最重要的语言。
兜里揣着星星
·
2025-03-03 22:32
python
人工智能
从零打造 Python 爬虫项目:需求分析到部署
一、项目概述二、需求分析三、开发环境搭建四、代码实现1.爬虫基础2.数据解析与存储3.应对反爬虫机制4.多页爬取五、部署与运行1.定时任务2.
云服务器
部署六、常见问题解决七、总结随着互联网的飞速发展,信息获取成为了人们日常生活和工作中不可或缺的一部分
西攻城狮北
·
2025-03-03 16:48
python
爬虫
实战案例
本地部署大语言模型-DeepSeek
HosteaseAMD9950X/96G/3.84TNVMe/1G/5IP/RTX4090
GPU
服务器提供多种计费模式。
NightReader
·
2025-03-03 15:36
语言模型
人工智能
自然语言处理
在 MacBook 上设置 DeepSeek R1 (8B) 的 3 个步骤
推荐文章《24GB
GPU
中的DeepSeekR1:UnslothAI针对671B参数模型进行动态量化》权重1,DeepSeek类《
知识大胖
·
2025-03-03 11:04
NVIDIA
GPU和大语言模型开发教程
deepseek
ollama
openwebui
DeepSeek 开源周五个开源项目,引领 AI 创新?
Day1:FlashMLA项目介绍FlashMLA是一个为Hopper
GPU
设计的高效解码内核,专门用于大型语言模型(
LaughingZhu
·
2025-03-03 08:09
开源
人工智能
产品运营
前端
经验分享
阿里云应用镜像选了wordpress与不选的区别?
如何安装和更换系统镜像的话,可以参考一下更换系统盘(公共镜像)-
云服务器
ECS-阿里云正在上传…重新上传取消通过
云建站架构师rain
·
2025-03-03 07:01
阿里云
腾讯云
服务器
如何高效运行 DeepSeek-R1:分步指南
无论您想在Mac上本地运行它,还是在云
GPU
上运行它,还是优化性能以供大规模使用,本指南都会逐步引导您完成所有操作。
知识大胖
·
2025-03-03 06:31
NVIDIA
GPU和大语言模型开发教程
deepseek
janus
pro
ollama
【wordpress】服务器已有LNMP环境(已运行WordPress),如何配置文档访问功能?
效果如图步骤确定文件存放目录404.html修改配置文件重启nginx服务接下来是从win向linux
云服务器
上传文件使用Samba服务(没成功)使用xshell上传文件(大文件上传一堆乱码)winscp
冰糖雪梨on_chip
·
2025-03-03 06:58
Linux
nginx
文件服务器
基于FRP工具在Windows电脑上的Linux
云服务器
实现星露谷物语远程稳定联机
注意:本教程要求主机玩家有一定的操作系统知识,至少知道如何使用命令操作
云服务器
,对客机玩家则无任何要求。一、准备工作
云服务器
准备一台Linux
云服务器
,本文以CentOs为例演示。
不要成为根号三
·
2025-03-03 05:15
服务器
linux
windows
tomcat
论文阅读笔记2
OptimizingMemoryEfficiencyforDeepConvolutionalNeuralNetworkson
GPU
s1论文简介作者研究了CNN各层的访存效率,并揭示了数据结构和访存模式对
sixfrogs
·
2025-03-03 03:59
论文阅读笔记
论文阅读
cnn
《AI大模型开发笔记》DeepSeek技术创新点
最新开源的DeepSeekV3模型不仅以顶尖基准测试成绩比肩业界SOTA模型,更以惊人的训练效率引发行业震动——仅耗费280万H800
GPU
小时(对应4e24FLOP@40%MFU)即达成巅峰性能。
Richard Chijq
·
2025-03-03 03:57
AI大模型开发笔记
人工智能
笔记
Vulkan:Vulkan与现代
GPU
架构_2024-07-20_17-11-33.Tex
Vulkan:Vulkan与现代
GPU
架构Vulkan简介Vulkan的历史与发展Vulkan是一个跨平台的2D和3D图形应用程序接口(API),由KhronosGroup开发。
chenjj4003
·
2025-03-03 02:22
游戏开发
架构
java
开发语言
网络
服务器
linux
前端
Servlet理论知识详解
文章目录前言一、网络架构1.1网络架构概述1.2B/S与C/S模式1.3Tomcat在网络架构中的角色二、Tomcat与
云服务器
的区别2.1Tomcat2.2
云服务器
2.3Tomcat与
云服务器
的结合三
wertuiop_
·
2025-03-03 00:05
servlet
【弹性计算】弹性裸金属服务器和神龙虚拟化(二):适用场景
弹性裸金属服务器和神龙虚拟化(二):适用场景1.混合云和第三方虚拟化软件部署2.高隔离容器部署3.高质量计算服务4.高速低时延RDMA网络支持场景5.RISCCPU支持6.
GPU
性能无损输出公共云服务提供商推出弹性裸金属服务器
G皮T
·
2025-03-02 14:20
#
云计算
弹性计算
云计算
云服务器
阿里云
裸金属服务器
弹性裸金属服务器
虚拟化
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他