E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
GPU并行编程
Python的PyTorch+CNN深度学习技术在人脸识别项目中的应用
硬件加速:
GPU
、TPU等加速计算,提升实
mosquito_lover1
·
2025-02-25 01:07
python
深度学习
pytorch
cnn
使用 DeepSeek 和 Streamlit 构建 AI 驱动的 SQL 查询应用程序
推荐文章《10个DeepSeekAI提示助您学习任何语言》权重1,提示词《24GB
GPU
中的D
知识大胖
·
2025-02-25 01:06
NVIDIA
GPU和大语言模型开发教程
人工智能
sql
数据库
[15] 使用Opencv_CUDA 模块实现基本计算机视觉程序
使用Opencv_CUDA模块实现基本计算机视觉程序CUDA提供了出色的接口,发挥
GPU
的并行计算能力来加速复杂的计算应用程序利用CUDA和Opencv的功能实现计算机视觉应用1.对图像的算术和逻辑运算两个图像相加
明月醉窗台
·
2025-02-24 18:51
CUDA
-
Opencv
计算机视觉
opencv
人工智能
图像处理
CUDA
显卡3050ti等安培架构的
GPU
安装paddlepaddle
3050ti等安培架构的
GPU
安装paddlepaddle官网原话如果您使用的是安培架构的
GPU
,推荐使用CUDA11.2如果您使用的是非安培架构的
GPU
,推荐使用CUDA10.2,性能更优其他配套确定软件版本后
社会闲散人员中的代码爱好者
·
2025-02-24 14:49
python
环境搭建
python
人工智能
深度学习
什么是Grok-3?技术特点,场景,潜在问题与挑战
Grok-3的技术特点与优势1.超大算力与训练规模算力投入:Grok-3使用了20万块英伟达H100
GPU
,分两个阶段训练(第一阶段10万
GPU
训练144天,第二阶段20万
GPU
训练92天),总计算量是前代
AndrewHZ
·
2025-02-24 13:46
深度学习新浪潮
深度学习
transformer
人工智能
语言模型
LLM
Grok-3
ElonMusk
简单介绍 NVIDIA推出的图形处理单元(
GPU
)架构“安培架构“
概念"安培架构"(AmpereArchitecture)是NVIDIA推出的一款图形处理单元(
GPU
)架构,它是继图灵架构之后的下一代产品。
神仙约架
·
2025-02-24 13:13
人工智能
架构
安培
安培架构
NVIDIA
ChatTTS-ui模型概述、安装及使用方法说明
的安装与配置1.安装Python和Git环境2.下载ChatTTS-ui源码3.创建并激活虚拟环境4.安装依赖5.启动应用四、ChatTTS-ui的高级功能1.API调用2.音色自定义3.细粒度控制4.
GPU
醉心编码
·
2025-02-24 12:38
人工智能基础
技术类
脚本基础
TTS
大模型
人工智能
Ollama 部署指南(Windows)
Ollama现在作为本机Windows应用程序运行,包括NVIDIA和AMDRadeon
GPU
支持。
圣心
·
2025-02-24 11:27
windows
适用于呼叫中心质检的离线ASR模型
支持
GPU
/CPU部署,提供Python和C++接口。部署
狂爱代码的码农
·
2025-02-24 08:07
VOIP那些事
容器
GPU
与FPGA加速:硬件赋能AI应用
GPU
与FPGA加速:硬件赋能AI应用1.背景介绍1.1人工智能的兴起人工智能(AI)在过去几年中经历了爆炸式增长,成为推动科技创新的核心动力。
AI天才研究院
·
2025-02-24 01:20
DeepSeek
R1
&
大数据AI人工智能大模型
AI大模型企业级应用开发实战
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
(14)FPGA与
GPU
区别
(14)FPGA与
GPU
区别1文章目录1)文章目录2)FPGA入门与提升课程介绍3)FPGA简介4)FPGA与
GPU
区别5)技术交流6)参考资料2FPGA入门与提升课程介绍1)FPGA入门与提升文章目的是为了让想学
宁静致远dream
·
2025-02-24 01:18
FPGA入门与提升(培训课程)
fpga开发
GPU
和FPGA的区别
GPU
(GraphicsProcessingUnit,图形处理器)和FPGA(Field-ProgrammableGateArray,现场可编程门阵列)不是同一种硬件。
Florence23
·
2025-02-24 00:44
fpga开发
在
GPU
上实现全规模文件系统加速
摘要现代高性能计算和人工智能计算解决方案经常使用
GPU
作为其主要计算能力来源。这就为
GPU
应用程序的存储操作造成了严重的不平衡,因为每一个此类存储操作都必须向CPU发出信号并由CPU处理。
·
2025-02-23 16:04
gpu加速器
前端面试题(超全!)
(2)那么就拿html和css来说,是靠GUI来渲染的,那么如果要避免回流重绘,需要靠
GPU
进程完成,这样性能会好。(3)js是靠渲染进程的渲
技术猿禁
·
2025-02-23 15:06
前端
Xmodel-VLM: A Simple Baseline for Multimodal Vision Language Model
它是为在消费级
GPU
服务器上高效部署而设计的。我们的工作直接面对一个关键的行业
UnknownBody
·
2025-02-23 14:58
LLM
Daily
Multimodal
语言模型
人工智能
自然语言处理
NVIDIA-v
GPU
介绍和下载地址以及安装流程
这里以NVIDIA-Linux-x86_64-470.63-v
gpu
-kvm.run文件进行介绍和下载安装NVIDIA-Linux-x86_64-470.63-v
gpu
-kvm介绍NVIDIA-Linux-x86
萌萌哒240
·
2025-02-23 13:56
环境配置
服务器
linux
运维
骁龙 8 至尊版:AI 手机的变革先锋
目录引言性能跃升:AI手机的强劲根基(一)CPU性能革命(二)
GPU
图形进化(三)NPU智能核心AI体验革新:多维度的智能进化(一)个性化多模态AI助手(二)影像体验的AI重塑(三)游戏体验的AI赋能生态合作与未来展望引言在当今科技飞速发展的时代
倔强的小石头_
·
2025-02-23 12:44
人工智能
大数据
NVIDIA A100 SXM4与NVIDIA A100 PCIe版本区别深度对比:架构、性能与场景解析
NVIDIAA100SXM4与PCIe版本深度对比:架构、性能与场景解析作为NVIDIAAmpere架构的旗舰级数据中心
GPU
,A100系列凭借强大的计算能力和显存带宽,已成为人工智能训练、高性能计算(
ASI人工智能
·
2025-02-23 09:55
人工智能
架构
机器人
AIGC
gpt
文心一言
palm
手把手教你本地部署DeepSeek大模型!从环境搭建到数据训练全流程实战
DeepSeek作为国产优秀大模型,支持本地化部署和私有数据训练,可完美解决:数据不出内网:医疗/金融等敏感行业刚需垂直领域定制:用自有数据打造专属AI助手算力自由掌控:灵活调配
GPU
资源,成本可控本文将带你从零完成
菜鸟养成_记
·
2025-02-23 08:16
人工智能
英伟达(NVIDIA)芯片全解析:专业分类、应用场景与真实案例
NVIDIA不仅仅是“游戏显卡”的代名词,它的
GPU
和AI计算平台已经广泛应用于人工智能(AI)、自动驾驶、医疗影像、工业自动化、智能家居等领域。那么,NVIDIA的芯片有哪些分类?它们分别用在哪里?
嵌入式Jerry
·
2025-02-23 06:31
AI
分类
人工智能
数据挖掘
嵌入式硬件
linux
数据分析
算法
deepseek-r1系列模型私有化部署分别需要的最低硬件配置
系列模型部署所需的最低硬件配置如下:DeepSeek-R1-1.5BCPU:最低4核(推荐多核处理器)内存:8GB+硬盘:3GB+存储空间(模型文件约1.5-2GB)显卡:非必需(纯CPU推理),若
GPU
Sophie'sCookingLab
·
2025-02-23 05:21
大模型
deepseek
前端性能优化:页面加载速度慢怎么办?
缓存静态资源缓存webpack的hash策略-文件资源缓存减少资源请求量图片懒加载代码构建优化webpack资源压缩treesharking-js代码的精简分包按需加载浏览器渲染优化webworker
GPU
好运连连女士
·
2025-02-22 20:12
面试题
性能优化
前端
一个完全免费、私有且本地运行的搜索聚合器-FreeAskInternet
什么是FreeAskInternetFreeAskInternet是一个完全免费、私有且本地运行的搜索聚合器,使用LLM生成答案,无需
GPU
。
星霜笔记
·
2025-02-22 18:24
开源
关注简介免费源码
笔记
如何评估代理IP服务对AI大模型训练的影响
工程师们往往更关注
GPU
型号或算法优化,却容易忽略网络链路这个隐形变量。本文将以可复现的测试方法,拆解代理IP对训练效果的三大影响维度,手把手教您建立科学的评估体系。
·
2025-02-22 08:33
http
YOLOv11快速上手:如何在本地使用TorchServe部署目标检测模型
环境准备在开始之前,确保你的开发环境满足以下要求:Python版本:3.8或以上PyTorch:1.9或以上CUDA:如果使用
GPU
,加速训练和推理TorchServe:用于模型
SYC_MORE
·
2025-02-22 07:57
YOLOv11
系列教程:模型训练
优化与部署全攻略
TorchServe
YOLOv11教程
模型部署与推理
TorchServe应用
目标检测模型训练
YOLO模型导出
DeepSeek的架构设计
DeepSeek的架构设计一、基础架构层1.超大规模算力集群跨地域异构计算:南京/临港等多地超算中心构建混合集群,10万+
GPU
卡规模(含H100/A100等),通过自研RDMA网络实现μs级延迟能效优化
程序猿000001号
·
2025-02-22 06:24
DeepSeek
架构设计
哪种LLM量化方法最适合您?:GGUF、GPTQ 还是 AWQ
它允许用户在CPU上运行LLM,同时通过提供速度改进将一些层卸载到
GPU
。GGUF对于那些在CPU或Apple设备上运行模型的用户特别有用。在GGUF上
GordonJK
·
2025-02-22 05:38
人工智能
机器学习
深度学习
马斯克发布的Grok3如何,大家如何评价
技术特点与性能计算能力:Grok3的训练使用了约10万块
GPU
卡,计算能力是上一代Grok2的10倍。这种大规模的计算资源投入使得Grok3在推理能力和逻辑一致性方面表现出色。多模态与实时数据处
魔王阿卡纳兹
·
2025-02-22 01:30
大模型知识札记
Grok3
大模型
AI
马斯克
xAI
GPU
渲染管线——处理流程总结
GPU
图形渲染管线图形渲染管线(GraphicsRenderingPipeline)是
GPU
渲染三维场景的主要工作流程。它是一个逐步处理的框架,将三维场景的数据转化为屏幕上的二维图像。
fengnian18
·
2025-02-21 22:39
cesium
前端
算法
javascript
尝试在exo集群下使用deepseek模型:第一步,调通llama
exo是一个多机协同AI大模型集群软件,它可以将多种设备统一成一个强大的
GPU
,支持多种模型,并具有动态模型分区、自动设备发现等功能。
skywalk8163
·
2025-02-21 22:33
人工智能
软硬件调试
人工智能
exo
llama
蓝耘科技上线 DS 满血版,500万tokens免费送!
立志在坚不欲说,成功在久不在速欢迎关注:点赞⬆️留言收藏欢迎使用:小智初学计算机网页AI蓝耘元生代智算云架构蓝耘元生代智算云平台是一个现代化的、基于Kubernetes的云平台,专为大规模
GPU
加速工作负载而构建
Lethehong
·
2025-02-21 19:16
热点时事
科技
语言模型
人工智能
架构
服务器
前端项目:获取本地计算机(局域网、公网)真实IP。
response.json()).then(data=>console.log('PublicIP:',data.ip)).catch(error=>console.error('Errorfetchin
gpu
blicIP
Smile_Gently
·
2025-02-21 13:14
vue.js
javascript
nginx
autok3s搭建k3s ha集群并支持
gpu
调度
本文描述了如何利用autok3s搭建k3s集群,同时支持对
gpu
的调用和切分。
StevenforAI
·
2025-02-21 12:34
容器
kubernetes
GPU
kubernetes
gpu算力
容器
探索流体模拟新境界:Unity中的基于位置的动力学(PBD)在
GPU
上的壮丽实践
探索流体模拟新境界:Unity中的基于位置的动力学(PBD)在
GPU
上的壮丽实践PBD-Fluid-in-UnityAPBDfluidinunityrunningonthe
GPU
项目地址:https:/
仲玫千Samson
·
2025-02-21 11:02
本地搭建小型 DeepSeek 并进行微调
1.环境准备Python3.7或更高版本PyTorch1.8或更高版本CUDA(可选,用于
GPU
加速)Git2.克隆DeepSeek仓库bash复制gitclonehttps://github.com/
非著名架构师
·
2025-02-20 15:55
大模型
知识文档
智能硬件
人工智能
大数据
大模型
deepseek
马斯克的Grok-3:技术突破与行业冲击的深度解析
一、技术架构与核心突破超大规模算力集群Grok-3基于xAI自研的Colossus超级计算机训练完成,搭载20万块英伟达H100
GPU
,累计消耗2亿
GPU
小时,算力投入是前代Grok-2的10倍48。
♢.*
·
2025-02-20 14:15
马斯克
人工智能
大模型
xAI
Grok
3
AI服务器散热黑科技:让芯片“冷静”提速
以GPT-4的训练为例,它需要大量的
GPU
小深ai硬件分享
·
2025-02-20 09:29
人工智能
深度学习
服务器
FastGPT接入向量模型 M3E 和 重排模型 bge-reranker-large
一、FastGPT接入向量模型M3E1.拉取m3e镜像#
GPU
模式启动,并把m3e加载到fastgpt同一个网络dockerpullregistry.cn-hangzhou.aliyuncs.com/fastgpt_docker
福葫芦
·
2025-02-20 08:58
M3E
M3E
FASTGPT
卷积神经网络之AlexNet经典神经网络,实现手写数字0~9识别
深度学习中较为常见的神经网络模型AlexNet,AlexNet是一个采用
GPU
训练的深层CNN,本质是种LeNet变体。由特征提取层的5个卷积层两个下采样层和分类器中的三个全连接层构成。
知识鱼丸
·
2025-02-20 08:24
深度学习
神经网络
cnn
人工智能
深度学习
AlexNet
经典神经网络
KTransformers如何通过内核级优化、多
GPU
并行策略和稀疏注意力等技术显著加速大语言模型的推理速度?
KTransformers通过内核级优化、多
GPU
并行策略和稀疏注意力等技术显著加速大语言模型的推理速度,具体体现在以下几个方面:内核级优化:KTransformers采用了高效的内核级优化技术,包括对
魔王阿卡纳兹
·
2025-02-20 04:53
大模型知识札记
语言模型
人工智能
自然语言处理
Vulkan
片上系统生产商(SoCs)比如
GPU
独立硬件供应商(IHVs)可以为Android编写Vulkan驱动;OEMs简单地需要为特定的硬件集成
hanpfei
·
2025-02-20 03:14
Android
图形系统
百度百舸 DeepSeek 一体机发布,支持昆仑芯 P800 单机 8 卡满血版开箱即用
选择合适的
GPU
配置、安装相应的环境、成功部署上线业务、加速推理任务加速、支撑多用户并发……完成业务测试,成功融入生产业务中。
百度智能云技术站
·
2025-02-20 01:55
deepseek
百度百舸
专有云
GPU
通信革命:跨平面网络效率提升300%的秘密武器
CPU中转,多平面网络RDMA通信时延降低50%」——Deepseek专利CN118612157A一、技术解析:突破AI算力瓶颈的底层创新1.技术背景:终结多平面网络CPU中转困境传统多平面网络中,跨平面
GPU
CodePatentMaster
·
2025-02-19 22:27
人工智能
深度学习
机器学习
自然语言处理
微服务
服务器
AIGC
【TVM教程】为 x86 CPU 自动调优卷积网络
ApacheTVM是一个深度的深度学习编译框架,适用于CPU、
GPU
和各种机器学习加速芯片。
·
2025-02-19 20:45
QT+FFmpeg如何使用
GPU
加速解码?
本文收录于《全栈Bug调优(实战版)》专栏,主要记录项目实战过程中所遇到的Bug或因后果及提供真实有效的解决方案,希望能够助你一臂之力,帮你早日登顶实现财富自由;同时,欢迎大家关注&&收藏&&订阅!持续更新中,up!up!up!!全文目录:问题描述解决方案1.确保FFmpeg和CUDA的支持2.正确选择硬件解码器设置硬件解码器3.初始化CUDA硬件设备4.硬件解码流程解码帧并处理硬件帧5.检查FF
bug菌¹
·
2025-02-19 17:22
全栈Bug调优(实战版)
qt
ffmpeg
开发语言
c++
x86平台基于Qt+opengl优化ffmpeg软解码1080P视频渲染效率
优化的思路一共有以下几个方面,1.软解码变成硬解码2.将YUV转QImage的操作转移到
GPU
3.QWidget渲染QImage变成opengGL渲染AVFrame这三点优化来说2与3是优化的效率是非常显著的
zanglengyu
·
2025-02-19 16:14
Qt上位机开发
qt
ffmpeg
音视频
Houdini:Houdini光照与渲染基础_2024-07-16_02-34-24.Tex
Mantra的设计理念是灵活性和可扩展性,它支持多种渲染模式,包括CPU渲染和
GPU
渲染,以及分布式渲染。Mantra的渲染质量高,特别适合于处理大规模的场景和复杂的视觉效果。Mantra渲染器的特点
chenjj4003
·
2025-02-19 14:21
游戏开发
houdini
android
cinema4d
blender
游戏
3dsmax
国内支持 Maya 渲染的云渲染平台汇总
以下为大家介绍一些国内支持Maya渲染的云渲染平台:渲染101价格优势:该平台在价格方面表现出色,CPU渲染最低仅0.6元/小时,
GPU
3090起步价为4元/小时。
渲染101专业云渲染
·
2025-02-19 13:49
maya
houdini
云计算
动画
3dsmax
图形渲染(一)——Skia、OpenGL、Mesa 和 Vulkan简介
Skia本身不直接管理
GPU
或进行底层的渲染工作,而是通过底层图形API(如OpenGL或Vulkan)来实现硬件加速的渲染。-Skia的角色:提供高层的2D渲染API,抽象掉底层的硬件细节。
阳光开朗_大男孩儿
·
2025-02-19 09:44
图形渲染
OpenGL
图形渲染
c++
初识Vulkan渲染管线
上面中文管线结构图中有两个应用程序入口,左侧为简单示例入口,右侧为使用
GPU
进行高性能通用计算时的计算管线。1.绘制:命令进入Vulkan图形
超级无敌小小顺利
·
2025-02-19 09:12
Vulkan
Vulkan
渲染管线
GPU
Pipeline
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他