E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
(GP)GPU
最全NVIDIA Jetson开发板参数配置和购买指南
NVIDIA开发的
GPU
不仅在电脑显卡领域占据大量份额,在嵌入式NVIDIA的Jeston系列开发板也近乎是领先的存在,特别是NVIDIAJeston系列开发板在算力和成本的平衡上都要优于其他厂家,性价比很高
IRevers
·
2025-02-02 19:55
人工智能
计算机视觉
深度学习
mcu
嵌入式硬件
全平台制霸!零门槛在本地解锁DeepSeek R1:Ollama+OpenWebUI终极部署手册
纯干货教程,无需
GPU
也能玩转大模型!
程序员辣条
·
2025-02-02 18:17
人工智能
大模型
LLama
AI产品经理
大模型学习
DeepSeek
大模型教程
GPU
驱动及CUDA安装流程介绍
GPU
驱动及CUDA安装流程介绍1.安装前准备工作1.1.确认
GPU
型号和操作系统版本1.2.准备
gpu
驱动和CUDA软件包1.3.检查服务器
GPU
识别情况1.4.老版本软件包卸载1.5.安装依赖包CentOS
醉心编码
·
2025-02-02 16:35
通信软件
技术类
c/c++
GPU
Nvidia
GPU驱动
显卡驱动
【llm对话系统】大模型 Llama 源码分析之并行训练方案
为了高效地训练这些模型,我们需要采用各种并行策略,将计算和数据分布到多个
GPU
或设备上。Llama作为当前最流行的开源大模型之一,其训练代码中采用了多种并行技术。
kakaZhui
·
2025-02-02 13:14
llama
人工智能
AIGC
chatgpt
GPU
架构(1.2)--
GPU
SoC 中的 CPU 架构
目录详细介绍
GPU
SoC中的CPU架构1.CPU核心概述ARMCortex-A72ARMCortex-A762.多线程处理多核架构多线程支持3.任务调度任务调度器动态调度4.内存管理内存层次结构内存管理技术
小蘑菇二号
·
2025-02-02 02:58
手把手教你学
GPU
SoC
芯片
智能电视
pythonocc 球体构造BRepPrimAPI_MakeSphere
fromOCC.Display.SimpleGuiimportinit_displayimportmathfromOCC.Core.BRepPrimAPIimport(BRepPrimAPI_MakeSphere,BRepPrimAPI_MakeCylinder,BRepPrimAPI_MakeBox,)fromOCC.Core.gpimportgp_Ax2,
gp
_Pnt
CAD二次开发秋实
·
2025-02-01 22:36
Python
python
pythonocc
DeepSeek R1本地化部署与联网功能实战指南:从零搭建智能对话系统
一、环境准备与基础架构1.1硬件需求推荐配置:NVIDIA
GPU
(RTX3090或更高)+32GB内存+50GB存储空间最低配置:CPU(支持AVX2指令集)+16GB内存+3
Coderabo
·
2025-02-01 18:32
python
DeepSeek
R1
本地部署 DeepSeek 模型并使用 WebUI 调用
环境准备在开始之前,请确保你的系统满足以下要求:Python3.11或更高版本pip包管理工具DeepSeek模型的本地部署文件
GPU
支持(可选,用于加速模型推理)步骤1:本地部署Deep
我喜欢就喜欢
·
2025-02-01 17:22
技术文档
策略模式
本地部署DeepSeek大模型完整指南
本文将手把手教你如何在本地计算机部署DeepSeek模型并实现对话交互,支持CPU/
GPU
双模式运行。
ddv_08
·
2025-02-01 17:17
深度学习
人工智能
GNU编译优化级别-O -O1 -O2 -O3
最近做一个算法的
GPU
加速,发现实际上使用gcc的-O3(最高级编译优化)选项,可以获得很高的加速比,我的程序里达到了3倍的样子,有时效果甚至比
GPU
加速好。因此小小学习了下GNU的编译优化。
hemmingway
·
2025-02-01 06:53
C++
Linux
【Unity 渲染插件】
GPU
Instancer 基于
GPU
实例化技术,旨在解决 Unity 中大量重复对象的渲染瓶颈问题,显著提升游戏性能
GPU
Instancer是一款专注于高性能渲染的Unity插件,基于
GPU
实例化技术,旨在解决Unity中大量重复对象的渲染瓶颈问题,显著提升游戏性能。
Unity游戏资源学习屋
·
2025-02-01 05:14
Unity插件
使用大语言模型在表格化网络安全数据中进行高效异常检测
论文主要内容这篇论文介绍了一种基于大语言模型(LLMs)的创新方法,用于表格网络安全数据中的异常检测,称为“基于引导式提示的表格异常检测”(TabularAnomalyDetectionviaGuidedPrompts,简称TAD-
GP
C7211BA
·
2025-01-31 23:54
语言模型
web安全
人工智能
生产环境WAS产生javacore、dmp、dump文件分析
目录一、分析工具二、Java转储(Javadump)Java转储内容(Javadumpcontents)标题(TITLE)
GP
信息(GPINFO)环境信息(ENVINFO)本地内存信息(NATIVEMEMINFO
bubble小拾
·
2025-01-31 22:45
1024程序员节
java
运维
【TVM教程】为 Mobile
GPU
自动调优卷积网络
ApacheTVM是一个深度的深度学习编译框架,适用于CPU、
GPU
和各种机器学习加速芯片。
HyperAI超神经
·
2025-01-31 22:43
TVM
人工智能
机器学习
TVM
编程
编译器
GPU
CPU
YOLO系列之训练环境(
GPU
)搭建篇
YOLOv8专栏导航:点击此处跳转Pytorch环境配置(Windows)Anaconda安装此处下载安装即可⭐温馨提示:安装路径
w94ghz
·
2025-01-31 17:01
YOLO改进系列
YOLOv8改进系列
YOLO
深度学习
人工智能
python
目标检测
DeepSeek极端榨取硬件性能被曝光
DeepSeek的出现是否意味着前沿LLM开发不再需要大规模
GPU
集群?简单来说:不是的。
极道Jdon
·
2025-01-31 08:13
javascript
reactjs
【deepseek】本地部署DeepSeek R1模型:使用Ollama打造个人AI助手
二、环境准备硬件要求
GPU
显存要求:7B模型:8-12GB显存14B模型:12GB以上显存32B模型:建议16GB以上显存建议使用NVIDIA显卡SSD硬盘空间:建议预留50GB以上软件要求安
大表哥汽车人
·
2025-01-31 06:23
人工智能
大语言模型学习笔记
人工智能
deepseek
CUDA编程(一):
GPU
计算与CUDA编程简介
CUDA编程(一):
GPU
计算与CUDA编程简介
GPU
计算
GPU
硬件资源
GPU
软件资源
GPU
存储资源CUDA编程
GPU
计算NVIDIA公司发布的CUDA是建立在
GPU
上的一个通用并行计算平台和编程模型,
AI Player
·
2025-01-30 21:17
CUDA
人工智能
CUDA
NVIDIA
GPU
编程与CUDA
CUDA编程并行计算整体流程从主机端申请内存,把内存部分的内容拷贝到设备端在设备端的核函数计算从设备端拷贝到主机端,并且释放内存显存主机端:cpu设备端:
gpu
核函数:在
gpu
上运行的函数CUDA内存模型
Nice_cool.
·
2025-01-30 21:17
Cuda与TensorRT
c++
GPU
-CUDA编程学习(一)
Hello,CUDA最近在学习GUP编程,故此记录下学习进度。#include__global__voidmyfirstkernel(void){}intmain(void){myfirstkernel>>();printf("hello,CUDA!\n");return0;}不难看出CUDA代码基本上和ANSIC代码一样,只是增加了一些关键字来利用数据并行性global相当于声明函数在设备中运行
☞北海北☜
·
2025-01-30 21:45
c++
全面解析:HTML页面的加载全过程(六)--浏览器渲染之分层 - Layer
分层原因在生成布局树之后,渲染进程会将一些复杂的3D动画、滚动条、高z-index的元素生成图层,并生成图层树交给
GPU
加速渲染。页面设计复杂,并且交互效果多。
huazi99于老师
·
2025-01-30 18:21
html
前端
Apache TVM:开源深度学习编译器栈的领跑者
ApacheTVM:开源深度学习编译器栈的领跑者tvmOpendeeplearningcompilerstackforcpu,
gpu
andspecializedaccelerators项目地址:https
计攀建Eliza
·
2025-01-30 18:51
spring mvc 创建restapi 笔记
RequestMapping("/spittles")publicclassSpittleController{//示例:使用@RequestBody接收JSON并自动转换为Spittle对象@PostMappin
gpu
blicSpittlesaveSpittle
weixin_42277889
·
2025-01-30 13:02
spring
mvc
笔记
LLM系列(0):行业大模型落地服务在全业务场景的应用与探索【大模型智能问答、NL2SQL、文档智能分析智能生成、AI智能体决策等】
行业大模型场景落地是否一定需要大量的
GPU
算力,以及需要多少的算力才能满足落地需求?
GPU
算力主要消耗在两个地方,一是大
汀、人工智能
·
2025-01-30 10:41
LLM工业级落地实践
人工智能
自然语言处理
prompt
NL2DSL
NL2SQL
大模型
智能问答
Transformer架构的
GPU
并行和之前的NLP算法并行有什么不同?
1.什么是
GPU
并行计算?
GPU
并行计算是一种利用图形处理单元(
GPU
)进行大规模并行数据处理的技术。
AI大模型学习不迷路
·
2025-01-30 07:49
transformer
自然语言处理
大模型
深度学习
NLP
LLM
大语言模型
conda创建新虚拟环境——从无到有
自己租的
GPU
最近有点鱼的记忆,base配什么环境自己都忘了,所以自己开始学习如何创建并且配置一个新环境,当然这一切建立在andonate3安装完的前提下自己的配置:Linux系统,Xshell编译器创建环境
S.T.A.R.
·
2025-01-30 05:32
深度学习
tensorflow
anaconda
cuda 线程调度
硬件描述从硬件上看,一块显卡的最小单元是
GPU
核(或者叫做StreamProcessor),所有核心平均分配在多个SM中,而多个SM共同构成整块显卡的核心。
weiwei0319
·
2025-01-30 05:31
CUDA
并发编程
Mooncake:面向大语言模型服务的以 KVCache 为中心的架构
它还利用
GPU
集群未充分利用的CPU、DRAM和SSD资源来实现KVCache的分解缓存。
步子哥
·
2025-01-29 22:42
AGI通用人工智能
语言模型
架构
人工智能
判断字符串能否转json
packagecom.jlit.ms
gPu
sh.utils;importorg.apache.commons.lang.StringUtils;importorg.json.JSONArray;importorg.json.JSONException
qq_26517369
·
2025-01-29 18:37
json
C#高级:常用的扩展方法大全
1.Strin
gpu
blicstaticclassStringExtensions{//////字符串转List(中逗英逗分隔)///publicstaticListSplitCommaToList(thisstringdata
我是苏苏
·
2025-01-29 18:07
C#高级
c#
windows
java
自建stgcn数据集并训练
1.安装st-gcn复现STGCNCPU版(ubuntu16.04+pytorch0.4.0+openpose+caffe)_Significance的博客-CSDN博客复现旧版STGCN
GPU
版(win10
青年夏日科技工作者
·
2025-01-29 18:31
AI编程
docker desktop使用ollama在
GPU
上运行deepseek r1大模型
二、拉取ollama镜像在powershell中运行如下命令,即可拉取最新版本的ollama镜像:dockerpullollama/ollama如果需要指定版本,可以用如下命令:#CPU或Nvidia
GPU
yimenren
·
2025-01-29 17:20
docker
容器
运维
cpu和
gpu
的区别
cpu和
gpu
的区别是cpu是电脑的中央处理器,在电脑中起着控制计算机运行的作用;
gpu
是一个附属型的处理器,主要处理计算机中与图形计算有关的工作,并将数据更好地呈现在显示器中。
sdsadwe
·
2025-01-29 14:03
cpu
cpu
CPU与
GPU
的区别
2.什么是
GPU
?
GPU
:英文全称GraphicProcessingUnit,中文翻译为“图形处理器”,又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作
dingkm666
·
2025-01-29 14:31
基础知识储备
cpu与gpu
cpu和
gpu
的区别,以及cpu和
gpu
中核的概念以及四种架构
1.什么是cpu个人理解cpu就是一个公司里面的技术骨干,但是不参与管理工作的人员,在计算机中cpu主要是用来处理一条条机器指令的,并且cpu的运算速度特别快,所以说周围还有几个秘书,就是给他提供资料或者存储资料的(寄存器),一般一个程序运行的流程就是操作系统从程序对应的pcb中将指令取出,交给cpu进行处理,cpu处理完毕以后将结果写回对应的存储单元(寄存器或者内存)。cpu的具体作用:1.指令
zhoudeng666
·
2025-01-29 13:28
架构
c++
linux
c语言
Writing an efficient Vulkan renderer
27Feb2020In2018,Iwroteanarticle“WritinganefficientVulkanrenderer”for
GPU
Zen2book,whichwaspublishedin2019
Night_Aurora
·
2025-01-29 12:10
Vulkan
渲染
vulkan
2020 更新 - 腾讯 Android 面试 (已拿到月薪22K offer)
举个简单例子——UI优化,可以从UI出现什么问题(卡顿不流畅),怎么查找问题(手机开发者权限>
GPU
过度绘制发现层级问题,TraceViewCPU使用情况分析),怎么解决问题(降低层级、自定义View绘图出现问题等
2401_86372526
·
2025-01-29 12:07
android
面试
职场和发展
基于Blackwell架构的
GPU
,用七十二个
GPU
拼接成性能强大的计算集群,其性能比上一代提升三倍,
GPU
已成为AI时代的基础设施,可实现各种大模型的训练
英伟达在2024年3月发布了基于Blackwell架构的
GPU
,这一新一代
GPU
在性能上相比上一代Hopper架构有显著提升。
百态老人
·
2025-01-29 08:03
架构
人工智能
Toxoid Engine:下一代Web游戏引擎的先锋
ECS-basedgameenginewritteninRustwithscriptingsupportforC#,JavaScriptandRusttoRust(WASM),hot-reloading,Web
GPU
r
施刚爽
·
2025-01-29 05:32
Solon2 接口开发: 熟悉 Gateway
1、定义2个组件API_0@Component(tag="api")publicclassAPI_0{@Mappin
gpu
blicResultexec(){
组合缺一
·
2025-01-29 03:15
Solon
Java
Framework
gateway
java
solon
使用飞书群机器人监控服务器
GPU
使用率
目标:如果服务器
GPU
空置,可以及时推送消息到飞书群。其他类似的监控目标也可以修改代码实现。步骤:(1)首先在群聊设置加入机器人,复制webhook_url(2)在服务器后台运行如下代码。
sunrise_ccx
·
2025-01-28 21:24
服务器
飞书
大系统的标准规范介绍
《optee精选全集》付费专栏-[目录]付费专栏-付费课程【购买须知】目录1、思考2、未来系统软件架构图3、当前主流系统软件架构图4、
GP
/PSCI/SMCCC规范概览5、生态:系统软件架构1、思考当前的主流软件框架是怎样的
代码改变世界ctw
·
2025-01-28 19:10
optee精选
armv8
trustzone
TEE
armv9
optee
标准规范
docker镜像报错ERROR: failed to solve: DeadlineExceeded:
--------------------1|#基于NVIDIACUDA镜像,确保
GPU
支持2|>>>FROMnvidia/cuda:12.6.2-cudnn-devel-ubuntu20.043|4|#
柠檬编程工作室
·
2025-01-28 11:05
Docker
docker
eureka
容器
GPT4All:免费使用本地运行无需
GPU
的基于C++的GPT模型和UI: A free-to-use, locally running, privacy-aware chatbot. No
GPU
目录GPT4All:https://github.co:m/nomic-ai/gpt4allGPT4AllChatUIGPT4All聊天用户界面效果测试问题:HowtowriteamultipleThreadcodeInJava?输出:GPT4All如何运作RunningLLMsonCPU在CPU上运行LLMSideloadinganyggMLmodel加载任何ggML模型GPT4ALL:目前已经
AI天才研究院
·
2025-01-28 09:28
ChatGPT
大数据AI人工智能
LLM大模型落地实战指南
gpt
人工智能
语言模型
自然语言处理
编程实践
开发语言
c++
Microchip 系列:SAM L 系列 (基于 ARM Cortex-M0+)_(7).外设驱动开发
通过配置
GP
kkchenkx
·
2025-01-28 08:21
单片机开发
arm开发
驱动开发
架构
java
数据库
嵌入式硬件
ssh创建密钥ansible批量分发
id_rsa.pub:公钥文件known_hosts:ssh访问不同的主机会将公钥记录到此文件,每次访问会核对密钥创建ssh密钥[root@ceshi-128~]#ssh-keygen-trsaGeneratin
gpu
blic
liujiangxu
·
2025-01-28 05:26
linux
ssh
linux
Nvidia-container-toolkit 安装
Nvidia-container-toolkit安装在安装了docker后,如果你的容器需要使用
GPU
运行一些软件,那么就需要安装nvidia的一些支持库。
NathanWu7
·
2025-01-28 04:17
深度学习
docker
驱动开发
linux
ubuntu
神经网络
计算机视觉
【常用bsub指令介绍】使用bsub命令提交作业、开启交互式窗口,在集群服务器上用pdb进行代码调试
运行作业的两种方式2.1bsub直接提交作业2.2bsub开启交互式窗口3.使用pdb进行代码调试4.更多bsub指令分享1.LSF作业调度系统和服务器集群介绍在一个服务器集群中,有很多的人要使用,却只有很少的
GPU
凌漪_
·
2025-01-28 00:16
集群服务器
服务器
gpu算力
bug
【ubuntu 连接显示器无法显示】可以通过 ssh 连接 ubuntu 服务器正常使用,但服务器连接显示器没有输出
CPU为AMDRyzen75800X8-CoreProcessor,并没有显示,只能通过NVDIA
GPU
来显示。
多恩Stone
·
2025-01-28 00:44
服务器
ubuntu
计算机外设
RTX 4090D和A10和T4显卡差别、价格对比
NVIDIAA10:专为数据中心和企业应用设计,优化了AI推理、深度学习、虚拟桌面基础设施(VDI)以及多实例
GPU
(多用户共享显卡
张3蜂
·
2025-01-27 22:05
软件安装
部署
开源
神经网络
人工智能
深度学习
机器学习
上一页
7
8
9
10
11
12
13
14
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他