E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Gpu
星辰——人工智能中台
人工智能中台四个部分介绍算力层面:可以实现对众多CPU、
GPU
、FPGA和ARM等国内外计算资源进行有机整合。容器层面:支持和数据中台进行无缝对接,
jingmuxu123
·
2025-02-05 08:49
人工智能
自然语言处理
nlp
GPU
架构(1.3)--
GPU
SoC 中的内存控制器
目录详细介绍
GPU
SoC中的内存控制器1.内存控制器概述功能2.支持的内存类型DDR4和LPDDR4DDR5和LPDDR53.内存控制器的设计多通道支持内存管理技术功耗管理4.性能优化带宽优化延迟优化功耗优化
小蘑菇二号
·
2025-02-05 07:17
GPU
GPU
之nvidia-smi命令行
显示
GPU
当前的状态:nvidia-smi表格参数详解:
GPU
:本机中的
GPU
编号(有多块显卡的时候,从0开始编号)图上
GPU
的编号是:0Fan:风扇转速(0%-100%),N/A表示没有风扇Name:
瑶瑶领先_
·
2025-02-05 06:10
wasm
GPU
进阶笔记(二):华为昇腾 910B
GPU
1术语1.1与NVIDIA术语对应关系1.2缩写2产品与机器2.1
GPU
产品2.2训练机器底座CPU功耗操作系统2.3性能3实探:鲲鹏底座8*910B
GPU
主机3.1CPU3.2网卡和网络3.3
GPU
信息
hao_wujing
·
2025-02-05 04:22
gpu算力
Llama最新开源大模型Llama3.1
该模型使用了超过15万亿(15T)个token的训练语料,并在16000块英伟达H100
GPU
上进行了训练。此外,Llama3.1还推出了8B和70
kcarly
·
2025-02-04 21:32
LLaMA2
食用指南
llama
开源
开源大模型
PyTorch中的In-place操作是什么?为什么要避免使用这种操作?
如今的高级深度神经网络拥有数百万个可训练参数,训练它们通常会导致
GPU
内存耗尽。
小白学视觉
·
2025-02-04 19:49
kaggle花分类比赛91.168%
之前一直都没注意显存,也没注意数据格式,直到跑模型的时候电脑直接崩了,因为排队用TPU,感觉人多,就直接在自己电脑上跑,我自己是有一张8G的4070,没想到啊,光是读取数据,就占用了6G历次成绩这个是用分布式
gpu
仙尊方媛
·
2025-02-04 16:28
分类
数据挖掘
机器学习
keras
tensorflow
站在Developer角度看DeepSeek:技术架构解析与开发实战指南
一、DeepSeek技术全景图:从实验室到生产环境1.1模型架构演进:重新定义Transformer可能性DeepSeek的分层动态稀疏Transformer架构在以下层面实现突破:硬件感知设计:根据
GPU
嵌入式Jerry
·
2025-02-04 15:20
AI
架构
系统架构
AI编程
ai
学习
物联网
全场景深度学习开源框架(MindSpore)
旨在实现不同计算平台(如云端、边缘端、端侧)和不同硬件(如CPU、
GPU
、Ascend等)之间的高效协同。
deepdata_cn
·
2025-02-04 11:41
人工智能
深度学习
开源
人工智能
在CentOS服务器上部署DeepSeek R1
硬件配置:
GPU
版本:NVIDIA驱动520+,CUDA11.8+。CPU版本:至少16核处理器,64GB内存。存储空间:原始模型需要30GB,量化后约8-20GB。
蓝染k9z
·
2025-02-04 09:30
deepseek
服务器
centos
linux
人工智能
deepseek
深度学习框架PyTorch原理与实践
作者:禅与计算机程序设计艺术文章目录1.简介2.背景介绍3.基本概念和术语3.1PyTorch简介3.2PyTorch的特点1)自动求导机制2)
GPU
加速3)模型部署4)数据管道5)代码阅读友好4.核心算法原理
AI天才研究院
·
2025-02-04 07:47
AI实战
大数据
人工智能
语言模型
Java
Python
架构设计
Databricks 开源 LLM,训练只需三个小时
像ChatGPT和Bard这样的生成式AI,它们使用的数据通常来自于在成千上万不同网站,使用的数据量十分惊人,而且想要使用这些数据训练AI还需要数以千计的强大
GPU
在背后提供支持。
唐 城
·
2025-02-04 07:15
AI-毕业设计全套
spring
log4j
postgresql
数据库
java
PyTorch 训练一个分类器
文章目录0前言1加载和规范化CIFAR102定义一个卷积网络3定义损失函数和优化器4训练网络5测试网络6在
GPU
上训练模型参考资料0前言 TRAINGINGACLASSIFIER这篇教程很清楚的描述了如何使用
亚里
·
2025-02-04 05:59
平台工具类
pytorch训练网络
【Rust日报】2021-12-21 Embark Studio 使用 Rust 进行本地渲染
EmbarkStudio使用Rust进行本地渲染作为Rust的忠实拥护者,EmbarkStudio的工程师们正在使用Rust开发渲染引擎和游戏,并且贡献了rust-
gpu
这个项目。
Rust语言中文社区
·
2025-02-03 23:36
游戏
java
python
编程语言
人工智能
LWN:让
GPU
的工作也依赖进程优先级!
关注了就能看到更多这么棒的文章哦~Synchronized
GPU
priorityschedulingByJonathanCorbetOctober22,2021DeepLassistedtranslationhttps
LinuxNews搬运工
·
2025-02-03 15:31
java
python
人工智能
大数据
linux
线性回归基础学习
线性回归基础学习目录:理论知识样例代码测试参考文献一、理论知识线性回归思维导图NDArray:MXNet中存储和变换数据的主要工具,提供
GPU
计算和自动求梯度等功能线性回归可以用神经网络图表示,也可以用矢量计算表示在
Remoa
·
2025-02-03 14:53
人工智能
线性回归
优化
gluon
mxnet
loss
GPU
硬件架构分析
GPU
和CPU的差异CPU与
GPU
的设计对比核心数量与计算单元:CPU:通常核心数量较少(如4到16个核心),每个核心都有独立的控制单元。
你一身傲骨怎能输
·
2025-02-03 13:49
渲染管线
硬件架构
最全NVIDIA Jetson开发板参数配置和购买指南
NVIDIA开发的
GPU
不仅在电脑显卡领域占据大量份额,在嵌入式NVIDIA的Jeston系列开发板也近乎是领先的存在,特别是NVIDIAJeston系列开发板在算力和成本的平衡上都要优于其他厂家,性价比很高
IRevers
·
2025-02-02 19:55
人工智能
计算机视觉
深度学习
mcu
嵌入式硬件
全平台制霸!零门槛在本地解锁DeepSeek R1:Ollama+OpenWebUI终极部署手册
纯干货教程,无需
GPU
也能玩转大模型!
程序员辣条
·
2025-02-02 18:17
人工智能
大模型
LLama
AI产品经理
大模型学习
DeepSeek
大模型教程
GPU
驱动及CUDA安装流程介绍
GPU
驱动及CUDA安装流程介绍1.安装前准备工作1.1.确认
GPU
型号和操作系统版本1.2.准备
gpu
驱动和CUDA软件包1.3.检查服务器
GPU
识别情况1.4.老版本软件包卸载1.5.安装依赖包CentOS
醉心编码
·
2025-02-02 16:35
通信软件
技术类
c/c++
GPU
Nvidia
GPU驱动
显卡驱动
【llm对话系统】大模型 Llama 源码分析之并行训练方案
为了高效地训练这些模型,我们需要采用各种并行策略,将计算和数据分布到多个
GPU
或设备上。Llama作为当前最流行的开源大模型之一,其训练代码中采用了多种并行技术。
kakaZhui
·
2025-02-02 13:14
llama
人工智能
AIGC
chatgpt
GPU
架构(1.2)--
GPU
SoC 中的 CPU 架构
目录详细介绍
GPU
SoC中的CPU架构1.CPU核心概述ARMCortex-A72ARMCortex-A762.多线程处理多核架构多线程支持3.任务调度任务调度器动态调度4.内存管理内存层次结构内存管理技术
小蘑菇二号
·
2025-02-02 02:58
手把手教你学
GPU
SoC
芯片
智能电视
DeepSeek R1本地化部署与联网功能实战指南:从零搭建智能对话系统
一、环境准备与基础架构1.1硬件需求推荐配置:NVIDIA
GPU
(RTX3090或更高)+32GB内存+50GB存储空间最低配置:CPU(支持AVX2指令集)+16GB内存+3
Coderabo
·
2025-02-01 18:32
python
DeepSeek
R1
本地部署 DeepSeek 模型并使用 WebUI 调用
环境准备在开始之前,请确保你的系统满足以下要求:Python3.11或更高版本pip包管理工具DeepSeek模型的本地部署文件
GPU
支持(可选,用于加速模型推理)步骤1:本地部署Deep
我喜欢就喜欢
·
2025-02-01 17:22
技术文档
策略模式
本地部署DeepSeek大模型完整指南
本文将手把手教你如何在本地计算机部署DeepSeek模型并实现对话交互,支持CPU/
GPU
双模式运行。
ddv_08
·
2025-02-01 17:17
深度学习
人工智能
GNU编译优化级别-O -O1 -O2 -O3
最近做一个算法的
GPU
加速,发现实际上使用gcc的-O3(最高级编译优化)选项,可以获得很高的加速比,我的程序里达到了3倍的样子,有时效果甚至比
GPU
加速好。因此小小学习了下GNU的编译优化。
hemmingway
·
2025-02-01 06:53
C++
Linux
【Unity 渲染插件】
GPU
Instancer 基于
GPU
实例化技术,旨在解决 Unity 中大量重复对象的渲染瓶颈问题,显著提升游戏性能
GPU
Instancer是一款专注于高性能渲染的Unity插件,基于
GPU
实例化技术,旨在解决Unity中大量重复对象的渲染瓶颈问题,显著提升游戏性能。
Unity游戏资源学习屋
·
2025-02-01 05:14
Unity插件
【TVM教程】为 Mobile
GPU
自动调优卷积网络
ApacheTVM是一个深度的深度学习编译框架,适用于CPU、
GPU
和各种机器学习加速芯片。
HyperAI超神经
·
2025-01-31 22:43
TVM
人工智能
机器学习
TVM
编程
编译器
GPU
CPU
YOLO系列之训练环境(
GPU
)搭建篇
YOLOv8专栏导航:点击此处跳转Pytorch环境配置(Windows)Anaconda安装此处下载安装即可⭐温馨提示:安装路径
w94ghz
·
2025-01-31 17:01
YOLO改进系列
YOLOv8改进系列
YOLO
深度学习
人工智能
python
目标检测
DeepSeek极端榨取硬件性能被曝光
DeepSeek的出现是否意味着前沿LLM开发不再需要大规模
GPU
集群?简单来说:不是的。
极道Jdon
·
2025-01-31 08:13
javascript
reactjs
【deepseek】本地部署DeepSeek R1模型:使用Ollama打造个人AI助手
二、环境准备硬件要求
GPU
显存要求:7B模型:8-12GB显存14B模型:12GB以上显存32B模型:建议16GB以上显存建议使用NVIDIA显卡SSD硬盘空间:建议预留50GB以上软件要求安
大表哥汽车人
·
2025-01-31 06:23
人工智能
大语言模型学习笔记
人工智能
deepseek
CUDA编程(一):
GPU
计算与CUDA编程简介
CUDA编程(一):
GPU
计算与CUDA编程简介
GPU
计算
GPU
硬件资源
GPU
软件资源
GPU
存储资源CUDA编程
GPU
计算NVIDIA公司发布的CUDA是建立在
GPU
上的一个通用并行计算平台和编程模型,
AI Player
·
2025-01-30 21:17
CUDA
人工智能
CUDA
NVIDIA
GPU
编程与CUDA
CUDA编程并行计算整体流程从主机端申请内存,把内存部分的内容拷贝到设备端在设备端的核函数计算从设备端拷贝到主机端,并且释放内存显存主机端:cpu设备端:
gpu
核函数:在
gpu
上运行的函数CUDA内存模型
Nice_cool.
·
2025-01-30 21:17
Cuda与TensorRT
c++
GPU
-CUDA编程学习(一)
Hello,CUDA最近在学习GUP编程,故此记录下学习进度。#include__global__voidmyfirstkernel(void){}intmain(void){myfirstkernel>>();printf("hello,CUDA!\n");return0;}不难看出CUDA代码基本上和ANSIC代码一样,只是增加了一些关键字来利用数据并行性global相当于声明函数在设备中运行
☞北海北☜
·
2025-01-30 21:45
c++
全面解析:HTML页面的加载全过程(六)--浏览器渲染之分层 - Layer
分层原因在生成布局树之后,渲染进程会将一些复杂的3D动画、滚动条、高z-index的元素生成图层,并生成图层树交给
GPU
加速渲染。页面设计复杂,并且交互效果多。
huazi99于老师
·
2025-01-30 18:21
html
前端
Apache TVM:开源深度学习编译器栈的领跑者
ApacheTVM:开源深度学习编译器栈的领跑者tvmOpendeeplearningcompilerstackforcpu,
gpu
andspecializedaccelerators项目地址:https
计攀建Eliza
·
2025-01-30 18:51
spring mvc 创建restapi 笔记
RequestMapping("/spittles")publicclassSpittleController{//示例:使用@RequestBody接收JSON并自动转换为Spittle对象@PostMappin
gpu
blicSpittlesaveSpittle
weixin_42277889
·
2025-01-30 13:02
spring
mvc
笔记
LLM系列(0):行业大模型落地服务在全业务场景的应用与探索【大模型智能问答、NL2SQL、文档智能分析智能生成、AI智能体决策等】
行业大模型场景落地是否一定需要大量的
GPU
算力,以及需要多少的算力才能满足落地需求?
GPU
算力主要消耗在两个地方,一是大
汀、人工智能
·
2025-01-30 10:41
LLM工业级落地实践
人工智能
自然语言处理
prompt
NL2DSL
NL2SQL
大模型
智能问答
Transformer架构的
GPU
并行和之前的NLP算法并行有什么不同?
1.什么是
GPU
并行计算?
GPU
并行计算是一种利用图形处理单元(
GPU
)进行大规模并行数据处理的技术。
AI大模型学习不迷路
·
2025-01-30 07:49
transformer
自然语言处理
大模型
深度学习
NLP
LLM
大语言模型
conda创建新虚拟环境——从无到有
自己租的
GPU
最近有点鱼的记忆,base配什么环境自己都忘了,所以自己开始学习如何创建并且配置一个新环境,当然这一切建立在andonate3安装完的前提下自己的配置:Linux系统,Xshell编译器创建环境
S.T.A.R.
·
2025-01-30 05:32
深度学习
tensorflow
anaconda
cuda 线程调度
硬件描述从硬件上看,一块显卡的最小单元是
GPU
核(或者叫做StreamProcessor),所有核心平均分配在多个SM中,而多个SM共同构成整块显卡的核心。
weiwei0319
·
2025-01-30 05:31
CUDA
并发编程
Mooncake:面向大语言模型服务的以 KVCache 为中心的架构
它还利用
GPU
集群未充分利用的CPU、DRAM和SSD资源来实现KVCache的分解缓存。
步子哥
·
2025-01-29 22:42
AGI通用人工智能
语言模型
架构
人工智能
判断字符串能否转json
packagecom.jlit.ms
gPu
sh.utils;importorg.apache.commons.lang.StringUtils;importorg.json.JSONArray;importorg.json.JSONException
qq_26517369
·
2025-01-29 18:37
json
C#高级:常用的扩展方法大全
1.Strin
gpu
blicstaticclassStringExtensions{//////字符串转List(中逗英逗分隔)///publicstaticListSplitCommaToList(thisstringdata
我是苏苏
·
2025-01-29 18:07
C#高级
c#
windows
java
自建stgcn数据集并训练
1.安装st-gcn复现STGCNCPU版(ubuntu16.04+pytorch0.4.0+openpose+caffe)_Significance的博客-CSDN博客复现旧版STGCN
GPU
版(win10
青年夏日科技工作者
·
2025-01-29 18:31
AI编程
docker desktop使用ollama在
GPU
上运行deepseek r1大模型
二、拉取ollama镜像在powershell中运行如下命令,即可拉取最新版本的ollama镜像:dockerpullollama/ollama如果需要指定版本,可以用如下命令:#CPU或Nvidia
GPU
yimenren
·
2025-01-29 17:20
docker
容器
运维
cpu和
gpu
的区别
cpu和
gpu
的区别是cpu是电脑的中央处理器,在电脑中起着控制计算机运行的作用;
gpu
是一个附属型的处理器,主要处理计算机中与图形计算有关的工作,并将数据更好地呈现在显示器中。
sdsadwe
·
2025-01-29 14:03
cpu
cpu
CPU与
GPU
的区别
2.什么是
GPU
?
GPU
:英文全称GraphicProcessingUnit,中文翻译为“图形处理器”,又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作
dingkm666
·
2025-01-29 14:31
基础知识储备
cpu与gpu
cpu和
gpu
的区别,以及cpu和
gpu
中核的概念以及四种架构
1.什么是cpu个人理解cpu就是一个公司里面的技术骨干,但是不参与管理工作的人员,在计算机中cpu主要是用来处理一条条机器指令的,并且cpu的运算速度特别快,所以说周围还有几个秘书,就是给他提供资料或者存储资料的(寄存器),一般一个程序运行的流程就是操作系统从程序对应的pcb中将指令取出,交给cpu进行处理,cpu处理完毕以后将结果写回对应的存储单元(寄存器或者内存)。cpu的具体作用:1.指令
zhoudeng666
·
2025-01-29 13:28
架构
c++
linux
c语言
Writing an efficient Vulkan renderer
27Feb2020In2018,Iwroteanarticle“WritinganefficientVulkanrenderer”for
GPU
Zen2book,whichwaspublishedin2019
Night_Aurora
·
2025-01-29 12:10
Vulkan
渲染
vulkan
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他