E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
GPU训练
PyTorch 生态概览:为什么选择动态计算图框架?
其核心优势体现在:动态灵活性:代码即模型,支持即时调试Python原生支持:无缝衔接Python生态高效的
GPU
加速:通过CUDA实现透明的硬件加速活跃的社区生态:GitHub贡献者超1.8万人,日均更新
小诸葛IT课堂
·
2025-03-18 07:12
pytorch
人工智能
python
数据挖掘中的数据预处理:填充与主成分分析
现实世界中的数据通常是不完整的,包含噪声、缺失值或异常值,因此在进行模型
训练
或分析前,我们需要对数据进行清理和转换。
阿什么名字不会重复呢
·
2025-03-18 07:08
数据挖掘
人工智能
Windows 图形显示驱动开发-WDDM 3.0功能- D3D12 视频编码(一)
关于Direct3D12视频编码在Windows11(WDDM3.0)之前,DirectX12提供了应用程序和驱动程序级接口(API和DDI),以支持多个视频应用程序的
GPU
加速,包括视频解码、视频处理和运动估计
程序员王马
·
2025-03-18 07:38
windows图形显示驱动开发
驱动开发
windows
大数据开发之Kubernetes篇----安装部署Kubernetes&dashboard
Kubernetes简介由于公司有需要,需要将外后的服务外加Tensorflow模型部署加
训练
全部集成到k8s上,所以特意记录下这次简单部署的过程。
豆豆总
·
2025-03-18 06:02
kubernetes
从零学习大模型(六)-----LoRA(上)
LoRA简介LoRA(Low-RankAdaptation)是一种参数高效的微调技术,旨在降低微调大规模预
训练
模型的存储和计算成本。
懒惰才能让科技进步
·
2025-03-18 06:01
大语言模型
gpt-3
人工智能
深度学习
chatgpt
语言模型
在LORA
训练
中,LORA模型的矩阵的行列是多少
在LORA
训练
中,LORA模型的矩阵的行列是多少:Wnew=W+αrBAW_{new}=W+\frac{\alpha}{r}BA
ZhangJiQun&MXP
·
2025-03-18 05:56
教学
2021
AI
python
2024大模型以及算力
矩阵
人工智能
深度学习
学习
机器学习
算法
代码随想录算法
训练
营第六十六天| 图论11
Floyd算法精讲Floyd算法代码很简单,但真正理解起原理还是需要花点功夫,大家在看代码的时候,会发现Floyd的代码很简单,甚至看一眼就背下来了,但我为了讲清楚原理,本篇还是花了大篇幅来讲解。代码随想录if__name__=='__main__':max_int=10005#设置最大路径,因为边最大距离为10^4n,m=map(int,input().split())grid=[[[max_i
Rachela_z
·
2025-03-18 05:23
算法
图论
代码随想录算法
训练
营| 总结篇
坚持了六十多天的算法,回头看感觉收获很大。之前刷题不管算法,只管能不能a,没有章法,只有一套乱拳,现在看到题目,会想着思考分析一下,可以用什么方法,用什么思路来解决。接下来要把力扣上的热题多刷反复刷!要做到看到题目能够有解法思路!春招接offer!offer四面八方来!!!
Rachela_z
·
2025-03-18 05:23
算法
代码随想录算法
训练
营第六十四天| 图论09
dijkstra(堆优化版)精讲代码随想录importheapqclassEdge:def__init__(self,to,val):self.to=toself.val=valdefdijkstra(n,m,edges,start,end):grid=[[]for_inrange(n+1)]forp1,p2,valinedges:grid[p1].append(Edge(p2,val))minD
Rachela_z
·
2025-03-18 05:22
算法
图论
代码随想录算法
训练
营第八天| 344. 反转字符串、541. 反转字符串II、卡码网:54. 替换数字
344.反转字符串建议:本题是字符串基础题目,就是考察reverse函数的实现,同时也明确一下平时刷题什么时候用库函数,什么时候不用库函数题目链接/文章讲解/视频讲解:代码随想录状态:用左右指针顺利通过左右指针:classSolution:defreverseString(self,s:List[str])->None:"""Donotreturnanything,modifysin-placei
Rachela_z
·
2025-03-18 05:52
算法
python
开发语言
代码随想录算法
训练
营第三十七天| 动态规划01
509.斐波那契数很简单的动规入门题,但简单题使用来掌握方法论的,还是要有动规五部曲来分析。代码随想录视频:手把手带你入门动态规划|LeetCode:509.斐波那契数_哔哩哔哩_bilibili动态规划五部曲:确定dp数组(dptable)以及下标的含义确定递推公式dp数组如何初始化确定遍历顺序举例推导dp数组classSolution:deffib(self,n:int)->int:F=[0,
Rachela_z
·
2025-03-18 05:52
算法
动态规划
ubuntu20.04挂起/休眠后无法唤醒,只能强制重启
设备信息OS:Ubuntu20.04.2LTSx86_64Kernel:5.8.0-63-genericShell:zsh5.8DE:GNOMECPU:Inteli5-6300HQ(4)@3.200GHz
GPU
koigh
·
2025-03-18 04:11
ubuntu
nvidia
ubuntu20.04
GPU
基准测试
目前仅在一种机型尝试环境系统版本(cat/etc/issue)ubuntu20.04
gpu
数量及型号(lspci|grepNV|grepVGA)02:00.0VGAcompatiblecontroller
爱吃土豆的猫ttt
·
2025-03-18 04:11
gpu
深入解析Quantum-GABP:量子神经网络的实现与应用
其中,Quantum-GABP(量子广义反向传播算法)作为一种高效的量子神经网络
训练
算法,展现出极大的应用前景。本文将深入探讨Quantum-G
m0_57781768
·
2025-03-18 02:52
神经网络
量子计算
人工智能
探索DeepSeek:前端开发者不可错过的新一代AI技术实践指南
最近,国产AI模型DeepSeek凭借其低成本
训练
、高性能输出和开源策略,迅速成为开发者社区的热门话题。
formerlyai
·
2025-03-18 02:21
人工智能
前端
pytorch的使用:卷积神经网络模块
1.读取数据分别构建
训练
集和测试集(验证集)DataLoader来迭代取数据使用transforms将数据转换为tensor格式#定义超参数input_size=28#图像的总尺寸28*28num_classes
樱花的浪漫
·
2025-03-18 00:11
pytorch
cnn
pytorch
深度学习
计算机视觉
YOLOv8n-seg.pt的使用(实例分割,
训练
自己制作的数据集)
Ubuntu+python3一、YOLOV8源码下载参考:GitHub-ultralytics/ultralytics:NEW-YOLOv8inPyTorch>ONNX>OpenVINO>CoreML>TFLite二、数据集制作1.labelme下载:pip3installlabelme2.终端输入labelme,打开labelme。界面“打开目录”,打开图片目录images,进行多边形标注(右键
再坚持一下!!!
·
2025-03-18 00:10
YOLO
Dropout: 一种减少神经网络过拟合的技术
在深度学习中,过拟合是一个常见的问题,尤其是在模型复杂度较高或
训练
数据较少的情况下。过拟合意味着模型在
训练
数据上表现得很好,但在未见过的数据上表现不佳,即泛化能力差。
冰蓝蓝
·
2025-03-17 23:37
自然语言处理
神经网络
人工智能
深度学习
模型保存与加载:PyTorch中的实践指南
它不仅有助于在
训练
过程中保存进度,还可以在
训练
完成后部署模型。PyTorch提供了灵活的方式来保存和加载模型,本文将详细介绍这些方法。
冰蓝蓝
·
2025-03-17 23:07
自然语言处理
pytorch
人工智能
python
torch.unsqueeze:灵活调整张量维度的利器
在深度学习框架PyTorch中,张量(Tensor)是最基本的数据结构,它类似于NumPy中的数组,但可以在
GPU
上运行。在日常的深度学习编程中,我们经常需要调整张量的维度以适应不同的操作和层。
冰蓝蓝
·
2025-03-17 23:07
transformer
transformer
深度学习
如何使用MATLAB进行高效的
GPU
加速深度学习模型
训练
?
要使用MATLAB进行高效的
GPU
加速深度学习模型
训练
,可以遵循以下步骤和策略:选择合适的
GPU
硬件:首先,确保您的计算机配备有支持CUDA的NVIDIA
GPU
,并且其计算能力至少为3.0或以上。
百态老人
·
2025-03-17 22:56
matlab
深度学习
开发语言
matlab怎么将代码在
gpu
上运行,使用
GPU
加速MATLAB代码?
使用
GPU
加速MATLAB代码?
如果有片海
·
2025-03-17 22:26
Windows 图形显示驱动开发-WDDM 3.0功能- D3D12 增强型屏障(二)
任何依赖于先前
GPU
工作的
GPU
工作都必须在访问相关数据之前同步。增强型屏障接口使用显式SyncBefore和SyncAfter值作为逻辑位字段掩码。
程序员王马
·
2025-03-17 22:24
windows图形显示驱动开发
驱动开发
windows
【技术解密】本地部署 DeepSeek-V3:完整指南
1.运行环境需求1.1硬件要求✅NVIDIA
GPU
(支持
海棠AI实验室
·
2025-03-17 22:54
“智元启示录“
-
AI发展的深度思考与未来展望
人工智能
深度学习
DeepSeek
推荐文章:
GPU
基于顶点着色器的高效动画系统 for Unity.Entities
推荐文章:
GPU
基于顶点着色器的高效动画系统forUnity.Entities去发现同类优质开源项目:https://gitcode.com/1、项目介绍该项目是一个专为Unity.Entities设计的轻量级但极快的
劳治亮
·
2025-03-17 22:53
[Unity]
GPU
动画实现(四)——生成动画数据
目前使用的方法有一个很大缺陷在于基于顶点生成的动画占用的空间很大,一个理想的情况是基于骨骼数据,本文权当抛砖引玉,后续有时间考虑尝试一下基于骨骼数据生成动画。本文内容大量参考自白菊花瓣丶的视频,感谢!生成动画数据需要用到ComputeShader来提高运行的效率,首先在Resources下创建这样一个computeshader,在这里我将其命名为"AnimVertices"。#pragmakern
Zhidai_
·
2025-03-17 22:23
Unity
unity
动画
游戏引擎
[Unity]
GPU
动画实现(一)——介绍
当谈到戴森球计划的时候,我师兄说里面的动画都是一个叫
GPU
动画的东西来实现的,几乎一切图形功能名字扯到
GPU
的时候,通常都是高性能的体现,让我不禁好奇
GPU
动画是什么东西。
Zhidai_
·
2025-03-17 22:22
Unity
unity
动画
游戏引擎
游戏开发
Matlab
GPU
加速技术
1.
GPU
加速简介(1)为什么使用
GPU
加速?CPU擅长处理逻辑复杂的串行任务,而
GPU
拥有数千个流处理器,专为并行计算设计。
算法工程师y
·
2025-03-17 21:50
matlab
开发语言
【大模型实战篇】使用GPTQ量化QwQ-32B微调后的推理模型
低精度运算(如INT8)在
GPU
等硬件上计算效率更高,推理速度可提升2~4倍。我们的任务是,将QwQ-32B微调后的推理模型,也就是bf16的精度,通过量化,压缩到int4。
源泉的小广场
·
2025-03-17 21:19
大模型
大模型量化
推理模型量化
量化
qwq32b
gptq量化
大模型推理
性能调优
pytorch中的DataLoader
它支持数据的批量加载、随机打乱、并行加载和迭代操作,是
训练
深度学习模型的关键组件之一。1.基本功能DataLoader的主要职责是从数据集中提取样本,并根据设置返回一个批次的数据。
朋也透william
·
2025-03-17 21:48
pytorch
人工智能
python
pytorch 天花板级别的知识点 你可以不会用 但是不能不知道
PyTorch的高级知识涵盖了从模型优化到分布式
训练
的广泛内容,适合已经掌握基础知识的开发者进一步提升技能。
小赖同学啊
·
2025-03-17 21:17
人工智能
pytorch
人工智能
python
Pytorch Dataloader入门
/utils/data/dataloader.py#L71PytorchDatasettutorial:tutorials/beginner/basics/data_tutorial.html理论:在
训练
模型时
gy-7
·
2025-03-17 21:16
pytorch
深度学习
机器学习
AI如何创作音乐及其案例
AI创作音乐主要有以下几种方式:基于深度学习的生成模型深度神经网络:通过大量的音乐数据
训练
,让AI学习音乐的结构、旋律、和声、节奏等特征。
alankuo
·
2025-03-17 21:44
人工智能
LLM-PowerHouse: 一站式大型语言模型定制
训练
与推理指南
然而,如何有效地
训练
和使用这些强大的模型仍然是一个挑战。针对这一需求,GitHub上的LLM-PowerHouse项目应运而生,为开发者、研究人员
Nifc666
·
2025-03-17 21:43
语言模型
人工智能
自然语言处理
whisper
langchain
gpt
开源软件
PyTorch中,将`DataLoader`加载的数据高效传输到
GPU
一、数据加载到
GPU
的核心步骤数据预处理与张量转换若原始数据为NumPy数组或Python列表,需先转换为PyTorch张量:X_tensor=torch.from_numpy(X).float()#转换为浮点张量
大霸王龙
·
2025-03-17 20:42
pytorch
人工智能
python
【sklearn 01】人工智能概述
这是一个非常大的范围,长远目标是让机器实现人工智能,但目前我们仍处在非常初始的阶段,甚至不能称为智能机器学习是指通过数据
训练
出能完成一定功能的模型,是实现人工智能的手段之一,也是目前最主流的人工智能实现方法深度学习则是机器学习的分支
@金色海岸
·
2025-03-17 20:41
人工智能
sklearn
python
【sklearn 07】sklearn工艺流程
01数据的获取02数据预处理03特征的提取04特征的选择05模型的
训练
06模型的评估07模型的优化
@金色海岸
·
2025-03-17 20:41
人工智能
sklearn
python
机器学习
第三篇 从入门到专业:SQL标准语法详解与高效编码规范指南
(数据操作语言)——"搬家具"2.3DCL(数据控制语言)——"配钥匙"三、SQL书写规范(避免被同事吐槽)3.1基础排版规范3.2注释规范四、新手必看避坑指南4.1常见错误4.2安全操作建议五、实战
训练
随缘而动,随遇而安
·
2025-03-17 20:08
SQL之道——从入门到精通
数据库
sql
智能体平台架构深度剖析:从底层到应用的全链路解析
其中,
GPU
和服务器构成了强大的计算硬件支撑,确保平台能够应对复杂的计算任务。而数据与OSS(对象存储服务)则如同智能体的“
·
2025-03-17 20:18
人工智能
美国首例AI
训练
数据版权案:从汤森路透诉罗斯案看AI
训练
数据的“合理使用”
2025年2月11日,美国特拉华州联邦地区法院对汤森路透(ThomsonReuters)诉罗斯(Ross)案作出部分简易判决,认定被告罗斯公司未经授权使用受版权保护的作品
训练
AI法律检索工具的行为构成版权侵权
·
2025-03-17 20:18
人工智能
21-梯度累积原理与实现
一、基本概念在深度学习
训练
的时候,数据的batchsize大小受到
GPU
内存限制,batchsize大小会影响模型最终的准确性和
训练
过程的性能。
机器人图像处理
·
2025-03-17 19:34
深度学习算法与模型
人工智能
深度学习
YOLO
【人工智能基础2】Tramsformer架构、自然语言处理基础、计算机视觉总结
文章目录七、Transformer架构1.替代LSTM的原因2.Transformer架构:编码器-解码器架构3.Transformer架构原理八、自然语言处理基础1.语言模型基本概念2.向量语义3.预
训练
语言模型的基本原理与方法
roman_日积跬步-终至千里
·
2025-03-17 19:59
人工智能习题
人工智能
自然语言处理
计算机视觉
【AI】使用Python实现机器学习小项目教程
通过这个项目,您将掌握机器学习的基本流程,包括数据加载、预处理、模型
训练
、评估和优化等步骤。论文AIGC检测,降AIGC检测,AI降重,三连私信免费获取:ReduceAIGC9折券!
丶2136
·
2025-03-17 18:21
AI
人工智能
python
机器学习
LORA 微调大模型:从入门到入土
在当今人工智能领域,预
训练
的大模型已经成为推动技术发展的核心力量。然而,在实际项目中,我们往往会发现这些预
训练
模型虽然强大,但直接就去应用于一些特定的任务时,往往无法完全满足需求。
大模型.
·
2025-03-17 17:49
人工智能
开发语言
gpt
agi
架构
大模型
【源码阅读】olmocr中的prompts
目录一、PDF转换为
训练
数据二、使用微调模型三、比较差异总结一、PDF转换为
训练
数据让ChatGPT-4将文档(如PDF文件)转换为结构化的“银级”
训练
数据(silvertrainingdata)#Thisisthepromptweuseforgettingchatgpt4otoconvertdocumentsintooursilvertrainingdatadefbuild_openai_sil
海绵波波107
·
2025-03-17 17:46
#
大模型
pdf
GAN模型的Python应用——生成对抗网络
两个神经网络相互博弈,通过一次次迭代
训练
,最终生成器可以生成足以骗过
代码编织匠人
·
2025-03-17 17:15
python
生成对抗网络
开发语言
如何使用Python实现生成对抗网络(GAN)
生成器负责生成与
训练
数据相似的新数据,而判别器负责判断输入数据是真实的还是由生成器生成的。这两个部分不断相互博弈,直到生成器能够生成非常逼真的数据,使判别器难以区分生成数据和真实数据。
「已注销」
·
2025-03-17 16:13
互联网前沿技术
韩进的创作空间
全栈开发知识库
python
生成对抗网络
tensorflow
深度学习
数据分析
Cesium:开源的三维地球可视化引擎
特点:a.高性能:Cesium利用
GPU
加速和流式处理技术,能够处理大规模的地理数据,并实时渲染出逼真的三维地球场景。b.开放性:Cesium是一个开源项目
ZD1
·
2025-03-17 16:13
信息可视化
ST-Align:一个包含430万
训练
样本,涵盖了15种细粒度多模态数据集
2025-01-15,由北航大学、合肥工业大学、中科院信息工程研究所和美团等机构联合创建介绍了一种名为LLaVA-ST的多模态大型语言模型。该模型配备了一个名为ST-Align的数据集,专为细粒度时空多模态理解设计。一、研究背景近年来,多模态大型语言模型(MLLMs)在多模态理解方面取得了显著进展,能够基于图像或视频生成对话或描述。然而,对于需要基于语言输入处理视觉坐标的细粒度多模态理解任务,现有
·
2025-03-17 15:12
数据集
s1K 数据集:是一个用于提升语言模型推理能力的高质量数据集。
一、研究背景近年来,语言模型(LMs)在大规模预
训练
的基础上取得了显著进展,其性能提升主要依赖于
训练
时计算资源的增加。然而,随着模型规模的不断扩大,
训练
成本也急剧上升。
·
2025-03-17 14:37
数据集
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他