E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
gpu
GPU
教程之开始在 Python 中快速使用
GPU
进行数据科学项目(教程含源码)
GPU
已被证明在加速大规模计算方面非常强大,但是,有时正确配置和设置完整的
GPU
环境可能会很棘手。幸运的是,有一些开源工具专门用于简化
GPU
的软件配置,包括驱动程序和数据科学库。
知识大胖
·
2025-04-10 02:58
先进生产力工具大全
Python源码大全
python
深度学习
开发语言
五分钟使用ollama部署本地大模型
ollama对于环境的要求,需要python3.8及以上的版本,如果需要使用
GPU
进行加速,还需要nNAVIDIA显卡和CUDA驱动。2、ollama安装本次分享基于linux系统操作,其他系统按
知其_所以然
·
2025-04-09 19:38
ollama
大模型
docker
llama
重识 APO:DeepSeek 掀起可观性领域变革 | 龙蜥生态
云观秋毫作为龙蜥社区系统运维联盟成员单位,提供了基于eBPF实现的北极星指标和故障排查工作流,龙蜥社区系统运维SIG也会基于SysOM进行ContinuesProfiling的大规模数据分析、AI火焰图分析等工作流,帮助进行CPU&
GPU
·
2025-04-09 17:40
操作系统开源
第T7周:咖啡豆识别
文为「365天深度学习训练营」内部文章参考本文所写文章,请在文章开头带上「声明」1.设置
GPU
importtensorflowastf
gpu
s=tf.config.list_physical_devices
weixin_50792991
·
2025-04-09 17:55
python
T8 咖啡豆识别
文为「365天深度学习训练营」内部文章参考本文所写文章,请在文章开头带上「声明」importtensorflowastf
gpu
s=tf.config.list_physical_devices("
GPU
weixin_50792991
·
2025-04-09 17:55
python
python3.7安装tensorflow-
gpu
_tensorflow-
gpu
安装的常见问题及解决方案
装tensorflow-
gpu
的时候经常遇到问题,自己装过几次,经常遇到相同或者类似的问题,所以打算记录一下,也希望对其他人有所帮助基本信息tensorflow-
gpu
pip安装(virtualenv等虚拟安装实质也是
weixin_39731922
·
2025-04-09 15:12
A100架构解析:超算集群效能跃迁与数据处理范式重构
内容概要NVIDIAA100
GPU
作为第三代TensorCore架构的集大成者,其创新设计正在重塑高性能计算与人工智能的基础设施逻辑。
智能计算研究中心
·
2025-04-09 14:40
其他
Python----TensorFlow(TensorFlow介绍,安装,主要模块,高级功能)
TensorFlow可以在Windows、Linux和macOS等操作系统上运行,同时也支持Android和iOS移动平台,还能在多个CPU/
GPU
构
蹦蹦跳跳真可爱589
·
2025-04-09 14:40
Python
机器学习
TensorFlow
python
机器学习
tensorflow
人工智能
适用于 NVIDIA Blackwell 架构的全新软件驱动 AI 工厂高速运行
该软件可将
GPU
利用率提高5倍,并提高各种规模的训练和推理效率。蒸汽推动了工业时代的发展,数字时代通过软件带来了转变。
NVIDIA AI技术专区
·
2025-04-09 07:27
人工智能
【探商宝】 Llama 4--技术突破与争议并存的开源多模态
例如:Llama4Scout(中杯):16位专家,17B活跃参数,总参数量109B,单张H100
GPU
可运行INT4量化版本,支持1000万上下文窗口(约2000万字)。
探熵科技
·
2025-04-09 03:59
人工智能
唤醒 AI 算力,专有云 ABC Stack 面向企业级智算平台的
GPU
提效实践
从「建好」到「用好」,企业级智算平台借助专有云ABCStack的
GPU
提效服务,应对大模型业务挑战,唤醒AI算力,加速AI原生业务的落地。
·
2025-04-08 11:22
百度
深入应用FPGA的人形机器人控制系统设计思路
深入应用FPGA的人形机器人控制系统设计思路主要包括以下几个方面:总体架构设计异构融合架构:采用CPU、
GPU
与FPGA异构融合的架构,充分发挥各硬件的优势。
程序员Thomas
·
2025-04-08 10:34
机器人
FPGA
机器人
FPGA
亚马逊多账号风控防护体系构建指南
一、复合型环境隔离技术解析1.1硬件指纹防护体系主板级防护:建议采用TPM2.0安全芯片存储设备指纹(如IntelvPro技术)显卡特征混淆:通过OpenGL指令集重定向实现
GPU
指纹动态化时钟偏移技术
跨境卫士情报站
·
2025-04-08 05:03
经验分享
FPGA 2 ,FPGA与CPU
GPU
APU DSP NPU TPU 之间的关系与区别
目录前言首先,FPGA与CPU
GPU
APUNPUTPUDSP这些不同类型的处理器,可以被统称为"处理器"或者"加速器"。
北城笑笑
·
2025-04-08 04:59
FPGA
fpga
fpga开发
Ubuntu 16.04 + CUDA 8.0 + cuDNN v5.1 + TensorFlow(
GPU
support)安装配置详解
转载:https://www.cnblogs.com/wangduo/p/7383989.htmlUbuntu16.04+CUDA8.0+cuDNNv5.1+TensorFlow(
GPU
support)
caiexu
·
2025-04-08 04:55
Tensorflow
关于 CUDA 的一些名词解释
显卡
GPU
显卡是硬件设备,也就是
GPU
,主要用于图形计算和高性能并行计算任务,目前尤其指NVIDIA公司生产的
GPU
系列。
皮卡兔子屋
·
2025-04-08 01:10
深度学习
#环境配置
gpu算力
pytorch
人工智能
Ubuntu 20.04息屏后唤醒系统死机处理方法
相关错误信息如下:journalctl-b-1|grep-i"suspend\|resume\|error\|fail"8月2809:15:26bowkernel:nvidia-modeset:ERROR:
GPU
霹雳山人
·
2025-04-07 21:14
linux系统
ubuntu
linux
运维
详解 JuiceFS 在多云架构下的数据同步与一致性
随着大模型流行,
GPU
算力资源正变得日益稀缺,传统的“算力跟着存储跑”的策略需要转变为“存储跟着算力跑”。
Juicedata
·
2025-04-07 21:10
架构
数据库
NPU 310、310P和
GPU
4090推理耗时对比
华为310、310P、
GPU
4090推理性能耗时对比:测试图像大小为:300*300推理卡名字单张推理耗时310100ms310P50ms409060msbatch推理耗时对比:310310P4090batch
JobDocLS
·
2025-04-07 20:07
人工智能
D1084:5A大电流可调低压差稳压器深度解析
产品定位D1084是我们推出的5A大电流三端稳压器,支持1.5V-5.0V固定输出或1.25V基准可调输出,典型压降仅1.4V(5A时),专为高性能CPU/
GPU
供电设计。
青牛科技-Allen
·
2025-04-07 19:34
芯谷
单片机
嵌入式硬件
筋膜枪
电动工具
吸尘器
计算机系统---性能指标(1)CPU与
GPU
一、计算机CPU的性能指标1.架构设计(Architecture)指令集架构(ISA)x86架构(CISC复杂指令集):Intel/AMD主流架构,兼容Windows生态,代表产品如Intel酷睿、AMD锐龙,支持超线程(HT)和多线程技术。ARM架构(RISC精简指令集):低功耗优势,用于移动设备(如手机、平板)及服务器(如AppleM系列、QualcommSnapdragon),通过动态指令翻
MzKyle
·
2025-04-07 17:46
计算机系统
计算机
显卡、显卡驱动、cuda、cuDNN之间关系
下面是对这些组件及其关系的详细介绍:显卡(
GPU
)显卡,全称为图形处理器(GraphicsProcessingUnit,
GPU
),是计算机中的专用硬件,最初设计用于处理图形渲染和视频输出。
ergevv
·
2025-04-07 08:54
AI
显卡
显卡驱动
cuda
cuDNN
[machine learning] Triton Server & TensorRT
一、TritonServer1.1架构介绍Triton是一个高性能的推理软件框架,它既支持
GPU
推理,又支持CPU推理,既能部署在server上,也能部署在端侧设备上。
进阶的小蜉蝣
·
2025-04-07 05:04
machine
learning
机器学习
人工智能
Unity 性能优化方案
Unity性能优化的主要方案包括以下几个方面:一、减少DrawCallDrawCall就是CPU调用图形编程接口,是CPU向
GPU
发送的命令1.CPU和
GPU
并行工作的原理CPU和
GPU
工作有一个命令缓冲区
_乐无
·
2025-04-06 23:25
unity
性能优化
游戏引擎
llama.cpp 和 vLLM 的详细对比分析
llama.cpp和vLLM的详细对比分析,基于最新技术动态(2025年4月)整理:1.核心定位维度llama.cppvLLM设计目标轻量化边缘计算,突破硬件限制(如手机/树莓派)企业级高性能推理,优化
GPU
MC数据局
·
2025-04-06 23:53
llama
vllm
大模型
deepseek
Unity中优化绘制调用整理
DrawCall指的是CPU向
GPU
发送渲染指令的过程,在Unity中,每次渲染一个网格时,CPU都需要向
GPU
发送一系列的渲染指令,这个过程被称为一次绘制调用(DrawCall)。
浅陌sss
·
2025-04-06 23:22
游戏优化
unity
游戏引擎
GPU
上的 Reduction(归约)和 Scan(前缀和)优化:LLVM、
GPU
指令集与架构差异
在
GPU
上进行Reduction(归约)和Scan(前缀和)运算,如果想要最大化性能,不仅仅是写一个Kernel就完事了,还需要深入了解:LLVM优化机制
GPU
指令集(如shuffle、DPP、LDS、
codebat_raymond
·
2025-04-06 22:17
java
大数据
linux
芯片介绍-RK3399微处理器
支持多操作系统:二、规格参数一、产品简介一、六核64位高性能一体板AIO-3399JD4一体板采用RK3399六核64位(A72×2+A53×4)处理器,主频高达1.8GHz,集成四核Mali-T860
GPU
漂泊在海上的星星
·
2025-04-06 19:59
linux-驱动开发
污点(Taint)和容忍度(Toleration)存在的意义和需求
和容忍度(Toleration)机制被引入主要是为了满足对集群资源更精细的调度和管理需求,以下从多个方面详细阐述它们出现的原因:节点资源隔离特殊硬件资源节点:在集群里,有些节点可能配备了特殊的硬件资源,像
GPU
网络飞鸥
·
2025-04-06 18:23
Kubernetes
kubernetes
一文详解张量并行Tensor parallel的概念和原理应用
张量并行概念张量并行(TensorParallelism)是一种模型并行技术,其核心思想是将模型的张量操作(如矩阵乘法、注意力计算等)拆分成多个子任务,分配到不同设备(如
GPU
)上并行执行。
OpenAppAI
·
2025-04-06 17:15
vLLM
张量并行
Tensor
parallel
计算加速技术比较分析:
GPU
、FPGA、ASIC、TPU与NPU的技术特性、应用场景及产业生态
本文将深入剖析五类主要计算加速器——
GPU
、FPGA、AS
deephub
·
2025-04-06 15:33
人工智能
深度学习
计算加速
GPU
CUDA学习--体验
GPU
性能
卷积计算以及共享内存_哔哩哔哩_bilibili处理一张图片的处理速度对比
[email protected]
()defprocess_
gpu
停走的风
·
2025-04-06 13:23
李沫深度学习
学习
python
cuda
jetson orin nano学习(torch+OpenCV+yolov5+)
一:入门第一件事:跟着商家教程配置哈哈指令:nvidia-smi-h帮助命令sudojtop--查看nvidia的
gpu
状态Tip:教程下载的pytorth,cuda,cudnn版本不一定是你项目符合的
停走的风
·
2025-04-06 13:22
jetson学习
学习
cuda
jetson
【大模型】微调一个大模型需要多少
GPU
显存?
视频链接:微调一个模型需要多少
GPU
显存?
酒酿小圆子~
·
2025-04-06 13:50
大模型
python
算法
开发语言
OpenGL(三)着色器语言GLSL
着色器语言在
GPU
上运行的图形渲染语言,类C风格。
战术摸鱼大师
·
2025-04-06 09:53
桌面开发
着色器
七、OpenGL ES 着色器语言GLSL
一、关于着色器着色器(Shader)是在
GPU
上运行的小程序。从名称可以看出,可通过处理它们来处理顶点。此程序使用OpenGLESSL语言来编写。它是一个描述顶点或像素特性的简单程序。
mChenys
·
2025-04-06 09:53
opengl
GPU
编程实战指南04:CUDA编程示例,使用共享内存优化性能
以下是详细分析:1.CUDA内存层次结构CUDA设备(
GPU
)具有多层次的内存架构,主要包括以下几种:寄存器(Registers):每个线程私有的高速存储单元,速度最快但容量有限。
anda0109
·
2025-04-06 07:10
CUDA并行编程
gpu算力
AI编程
ai
深度剖析英伟达 GTC 2025:开启 AI 与计算的新纪元
一、盛会启幕,行业聚焦在科技飞速发展的当下,英伟达年度技术盛会GTC(
GPU
TechnologyConference)无疑是全球AI与计算领域的顶级盛宴。
代码世界的浪客
·
2025-04-06 06:33
技术头条热点
人工智能
大数据
使用 AMD
GPU
加速推理的投机采样
SpeedUpTextGenerationwithSpeculativeSamplingonAMD
GPU
s—ROCmBlogs随着变压器模型的规模增长,进行推理的成本也在增加,影响了延迟和吞吐量。
109702008
·
2025-04-06 06:32
#
ROCm
人工智能
从渲染原理剖析如何提高 Flutter 应用性能
本文将主要讲讨论UI线程中的性能优化,由于
GPU
线程涉及底层Skia图形引擎的调用,相较于UI线程而言更加繁琐,对其感兴趣的同学可以观看Google官方的《深入了解Flutter的高性能图形渲染》。
鹅肝手握高V五色
·
2025-04-06 05:55
http
udp
https
websocket
网络安全
网络协议
tcp/ip
pytorch1.2.0
GPU
安装
1.创建框架环境cmd窗口输入:condacreate-npytorch1.2.0python=3.6.52.激活环境condaactivatepytorch1.2.03.安装框架pipinstalltorch=1.2.0torchvision=0.4.0-fhttps://download.pytorch.org/whl/torch_stable.html
缘来也不错
·
2025-04-06 05:23
pytorch
python
深度学习
【Cuda 编程思想】CUDA线程执行原理
CUDA线程执行原理CUDA的线程执行原理是理解
GPU
并行计算的基础。
Mr.Lee jack
·
2025-04-06 04:51
cuda
开发语言
c++
cuda
deepseek开源周的所有项目总结报告
以下是对这五个项目的详细总结报告:1.FlashMLA(2月24日发布)FlashMLA是DeepSeek首个开源的代码库,针对NVIDIAHopper架构
GPU
(如H800)优化的高效多层注意力(MLA
LisaHusband
·
2025-04-06 03:40
开源
人工智能
笔记
deepseek
业界资讯
(本地
GPU
vs 云计算 vs 端侧 AI)
本文将详细介绍如何在本地
GPU
、云计算以及端侧AI环境中部署私有AI大模型,并给出具体实战操作指南。
晴天彩虹雨
·
2025-04-06 03:38
AI
大模型
人工智能
云计算
ai
解决:CUDA error: no kernel image is available for execution on the device CUDA kernel errors
这个错误表明CUDA设备(
GPU
)无法执行当前的PyTorch操作,通常是因为PyTorch版本与CUDA驱动不兼容,或者
GPU
计算能力不被支持。
Dawn³
·
2025-04-05 23:13
工具
python
下载 MindSpore &配置 PyTorch环境
以下是下载MindSpore并配置PyTorch环境的详细步骤,适用于常见的Linux/Windows系统(以NVIDIA
GPU
为例):一、环境准备1.硬件与软件检查
GPU
支持:确保使用NVIDIA显卡
Dawn³
·
2025-04-05 23:13
Interestes
pytorch
人工智能
python
LLM 优化技术(4)——flash_attention 原理
FastandMemory-EfficientExactAttentionwithIO-Awareness如上图所示,Flash-attention采用了矩阵分块和算子融合(safesoftmaxreducetion)的方法,尽可能的减少内存的IO时间,最大化利用
GPU
哦豁灬
·
2025-04-05 22:37
大模型
LLM
深度学习
人工智能
深度学习
LLM
大模型
self-attention
深度学习主流经典框架PyTorch(day1)
PyTorch使用张量(tensor)来表示数据,可以轻松地处理大规模数据集,且可以在
GPU
上加速。
inquisitor.dom
·
2025-04-05 21:29
深度学习
pytorch
人工智能
第J9周:Inception v3算法实战与解析
文章目录一、前期准备1.设置
GPU
/CPU2.导入数据3.划分数据集二、搭建网络模型1.Inception-A3.Inception-C4.Reduction-A5.Reduction-B6.辅助分支7
计算机真好丸
·
2025-04-05 20:56
算法
# 教你计算模型训练时资源占用
然而,在使用BERT-Base模型时,显存(
GPU
内存)的占用问题常常成为开发者们需要面对的重要挑战。本文将深入探讨BERT-Base模型的显存占用来源,并提供一系列实用的
@MrLiu
·
2025-04-05 11:24
人工智能
自然语言处理
上一页
11
12
13
14
15
16
17
18
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他