E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
腾讯通RTX
python智能合约编程_技术指南 | Python智能合约开发?看这一篇就够了
01前言在之前的技术视点文章中,我们介绍了目前本体主网支持的智能合约体系以及相应的智能合约开发工具Sma
rtX
。很多小伙伴都想上手练一练。在本期的技术视点中,我们将正式开始讲述智能合约语法部分。
weixin_39897127
·
2025-03-24 17:41
python智能合约编程
算力租赁:人工智能时代的“水电煤”革命——以NVIDIA 4090为例解读下一代算力解决方案
本文将深度解析这一革命性服务,并聚焦搭载NVIDIA
RTX
4
·
2025-03-24 14:07
算法工程gpu
SAP-ABAP:SAP生产业务(PP模块)全流程深度解析
运行2.核心主数据表数据对象表结构关键字段事务码物料主数据MARAMATNR,MTART,DISMMMM01工艺路线PLKO/PLPOPLNNR(路由号),VORNR(工序)CA01工作中心CRHD/C
RTX
ARBPL
爱喝水的鱼丶
·
2025-03-24 06:39
VIP详情查看专栏
SAP
ABAP
开发运维
运维
系统架构
【终极解决方案】基于pm2来运行ts文件【和运行js差距很大哦】TypeError [ERR_UNKNOWN_FILE_EXTENSION]: Unknown file extension “.ts“
GPT最开始推荐的方案是:pm2sta
rtx
x.ts--interpreterts-node-esm但是使用你用的是--interpreterts-node-esm但仍然报TypeError[ERR_UNKNOWN_FILE_EXTENSION
weixin_43343144
·
2025-03-24 02:03
javascript
前端
开发语言
《今日AI-人工智能-编程日报》-源自2025年3月20日
同时,英伟达还推出了
RTX
PRO6000系列Blackwell专业卡,拥有24064核心、96GB显存和最高600W功耗。
小亦编辑部
·
2025-03-23 21:55
每日AI-人工智能-编程日报
人工智能
大数据
RTX
4090旗舰显卡效能实战剖析
内容概要作为NVIDIA新一代旗舰显卡,
RTX
4090凭借AdaLovelace架构的革新设计,在4K/8K分辨率下的游戏与创作场景中展现了突破性表现。
智能计算研究中心
·
2025-03-23 15:25
其他
英伟达常用GPU参数速查表,含B300.....
英伟达常用GPU参数速查表,收藏备用:含
RTX
5090、
RTX
4090D、L40、L20、A100、A800、H100、H800、H20、H200、B200、B300、GB300.....专注于高性能计算人工智能细分领域
Ai17316391579
·
2025-03-23 11:59
深度学习服务器
人工智能
机器学习
服务器
电脑
计算机视觉
深度学习
神经网络
英伟达消费级
RTX
显卡配置表
显卡型号显存大小显存频率显存位宽显存带宽CUDA核心数TDP(功耗)上市年份
RTX
409024GB21Gbps384-bit1,008GB/s16,384450W2022
RTX
4080(16GB)16GB22.4Gbps256
真相很简单
·
2025-03-22 10:35
识别算法
网络
rtx
nvidia
英伟达
游戏显卡
glm-4v-9b 踩坑(4-bit量化,bitsandbytes 异常)
实验平台:linux系统,
RTX
A4000。嫌麻烦的可以直接到文未看结论。
phynikesi
·
2025-03-20 08:50
pytorch
glm-4v-9b踩坑
bitsandbytes异常
将 VOC 格式 XML 转换为 YOLO 格式 TXT
目录1.导入必要的模块2.定义类别名称3.设置文件路径完整代码1.导入必要的模块importosimpo
rtx
ml.etree.ElementTreeasETos:用于文件和目录操作,例如创建目录、遍历文件等
JeJe同学
·
2025-03-20 04:18
xml
YOLO
RTX
3060帧率优化与电竞级配置实战
内容概要《
RTX
3060帧率优化与电竞级配置实战》围绕NVIDIAGeForce
RTX
3060显卡的性能释放展开,系统梳理从硬件适配到软件调校的全链路优化策略。
智能计算研究中心
·
2025-03-19 11:36
其他
RTX
4070Ti性能实测与优化解析
内容概要本文将以NVIDIAGeForce
RTX
4070Ti显卡为核心,系统化呈现其在4K与2K分辨率下的性能表现差异,并深入解析光线追踪与DLSS3.0技术对游戏体验的实际影响。
智能计算研究中心
·
2025-03-19 11:36
其他
Linux中部署DeepSeek R1
CPU需求内存需求存储需求备注1.5B-GTX16504GB(可选)四核i5/Ryzen3000+16GBDDR450GBSSD需4-bit量化,CPU推理延迟约10-30秒/回答,适合基础文本生成7B
RTX
306012GB
Java探索者 °
·
2025-03-19 07:26
linux
服务器
语言模型
Ubuntu20.04
RTX
4060 AI环境搭建
下面记录在Ubuntu20.04环境下,使用ASUSATS-
RTX
4060-O8G-V2显卡,搭建NvidiaTensorRT开发环境。
stxinu
·
2025-03-19 05:03
人工智能
人工智能
uniapp移动端图片比较器组件,仿英伟达官网
rtx
光追图片比较器功能
和微信小程序,理论支持全平台亮点:简单易用使用js计算而不是resize属性,定制化程度更高组件挂在后可播放指示线动画,提示用户可以拖拽比较图片左右下角可配置文字,且指引线距离文字过近时文字会变透明使用示例
RTX
OFF
独断万古的伊莉雅
·
2025-03-18 04:42
uni-app
javascript
前端
组件
【Ubuntu】docker报错:Error response from daemon: Container a1035642576a3a899c8fe142c416fc is not running
:Errorresponsefromdaemon:Containera1035642bcf83ce56a3a899c8fe142c416fcisnotrunning解决方法:sudodockersta
rtX
XX
Jackilina_Stone
·
2025-03-18 02:56
【EH】报错处理
docker
ubuntu
EXCEL 读写文件xlrd,xlwt, xlsxwriter
1.xlrd读EXCELimpo
rtx
lrdxlsx=xlrd.open_workbook('d:/表格1.xlsx')table=xlsx.sheet_by_index(0)#通过sheet名查找:xlsx.sheet_by_name
jiahuip
·
2025-03-17 20:07
读取RAMS输出文件(RAMS-ISAN文件)的基本程序
importnumpyasnpfromnetCDF4importDatasetimpo
rtx
arrayasxrdefread_rams_data(filename):"""读取RAMS输出文件的基本函数
Hardess-god
·
2025-03-17 14:56
RAMS
人工智能
CMake Error at myplugins_generated_yololayer.cu.o.Debug,tensor
rtx
编译失败解决
system:ubuntu1804gpu:3060cuda:cuda11.4tensorrt:8.4使用项目tensor
rtx
进行yolov5的engine生成,之前在编译成功的配置为system:ubuntu1804gpu
雪可问春风
·
2025-03-16 08:11
BUG
人工智能
大模型的webui
expo
rtX
XX_LLM_C=~/xcore-llm/build/ReleaseexportCUDA_VISIBLE_DEVICES=2,3exportCUDACXX=/usr/local/cuda-
Zain Lau
·
2025-03-16 05:26
人工智能
python
昇腾
Ascend
天数
18.使用读写包操作Excel文件:xlrd、xlwt 和 xlutils 包
impo
rtx
lrdimpo
rtx
lwtfromxlwt.Utilsimportcell_to_rowcol2impo
rtx
lutilsimportexcelbook=xlrd.ope
杜子腾dd
·
2025-03-16 01:22
Excel
Python
25.3.1
excel
pandas
数据挖掘
python
numpy
使用 Ollama 对 LLaMA-2 模型进行微调的详细指南
以下是推荐的硬件配置:GPU:建议使用至少NVIDIA
RTX
3090或更高配置的GPU。如果条件允许,使用多卡GPU(如
RTX
4090或A100)可以显著加快训练速度。
软件职业规划
·
2025-03-15 15:08
llama
NVIDIA显卡型号有哪些?怎么知道自己电脑的型号?
(1)图中的GTX表示是英伟达的一个系列名称,全称叫GeForceGTX,GTX定位高端显卡系列,从低到高排名:GS/GT/GTS/GTX/
RTX
/Ultra,从20
可靠的豆包蟹同志
·
2025-03-15 08:38
杂烩积累
经验分享
RTX
4090性能释放与优化全攻略
内容概要作为NVIDIAAdaLovelace架构的巅峰之作,
RTX
4090凭借24GBGDDR6X显存与16384个CUDA核心,重新定义了4K光追游戏的性能边界。
智能计算研究中心
·
2025-03-14 22:13
其他
使用excel4node向excel批量写入图片
importfsfrom'fs';importpathfrom'path';impo
rtx
lfrom"excel4node";//创建一个新的工作簿constwb=newxl.Workbook();//
weixin_41415820
·
2025-03-14 07:12
javascript
前端
vue.js
大气视热源Q1与视水汽汇Q2的计算 利用python以ERA5再分析资料为例
python代码:importosimportnetCDF4asncimportnumpyasnpimpo
rtx
arrayasxrimportpandasaspdimportmetpy.constantsasconstantsfrommetpy.unitsimportunitsfrommetpy.calcimportmixing_ratio_from_specific_humidity
shift0516
·
2025-03-13 16:55
python
开发语言
本地部署时,如何通过硬件加速(如 CUDA、TensorRT)提升 DeepSeek 的推理性能?不同显卡型号的兼容性如何测试?
本地部署DeepSeek模型的硬件加速优化与显卡兼容性测试指南一、硬件加速技术实现路径CUDA基础环境搭建版本匹配原则:根据显卡架构选择CUDA版本(如NVIDIA
RTX
50系列需CUDA12+,V100
百态老人
·
2025-03-13 14:43
人工智能
科技
算法
vscode
windows11 环境 paddleOCR 环境配置
一、系统环境:操作系统:Windows11专业版显卡:
RTX
4080CUDA:cuda_12.6.2_560.94_windows.exe、cudnn-windows-x86_64-8.9.7.29_cuda12
一醉千秋
·
2025-03-13 08:27
python+银河麒麟
python
开发语言
# 显卡算力参数对比
www.techpowerup.com/gpu-specs/,以下列出部分:ProductNameGPUChipReleasedBusMemoryGPUclockMemoryclockShaders/TMUs/ROPsGeForce
RTX
5090GB1022025PC
猪猪侠|ZZXia
·
2025-03-12 21:39
人工智能
自己写的内存块管理办法
内存管理模块一、所有的实时操作系统都有自己的内存管理系统,目前的代码是把内存块管理模块自己实现了,其实
RTX
5有自己的内存块管理系统没必要自己去实现,CSDN链接如下:https://blog.csdn.net
绵山介子推
·
2025-03-12 17:43
RTX实时操作系统
嵌入式软件
vLLM框架:使用大模型推理框架
1.环境安装与配置1.1硬件要求GPU:支持CUDA11.8及以上(推荐NVIDIAA100/H100,
RTX
4090等消费级卡需注意显存限制)显存:至少20GB(运行7B模型),推荐40GB+(运行13B
CITY_OF_MO_GY
·
2025-03-12 17:12
人工智能
Vue组件通信
Vue组件通信Vue组件放在components目录:1、组件是对于HTML标签的扩展2、以.vue结尾的文件都是叫做组件APP.vue叫做根组件TODO:组件的文件名字的首字母大写组件的引入impo
rtX
xxfrom
星星不打輰
·
2025-03-12 16:36
vue.js
javascript
前端
RTX
4070Ti巅峰性能与温控揭秘
内容概要作为NVIDIAAdaLovelace架构的旗舰产品之一,
RTX
4070Ti通过全新的流式多处理器与第三代RTCore实现了运算效能的跃升。
智能计算研究中心
·
2025-03-11 22:12
其他
【大模型】DeepSeek-R1-Distill-Qwen部署及API调用
当前模型开源后,我们可以将其部署,使用API方式进行本地调用1.部署环境本文中的部署基础环境如下所示:PyTorch2.5.1Python3.12(ubuntu22.04)Cuda12.4GPU
RTX
3090
油泼辣子多加
·
2025-03-10 17:29
大模型实战
算法
gpt
langchain
人工智能
家庭组装台式电脑配置推荐(2024版)
2、显卡(GPU):
RTX
4060Ti是推荐的选择,其性能略高于
RTX
3070,但功耗更低,适合预算在6000元左右的配置。3、内存(RAM):16GB内存是推荐的配置,能够提供足够的多任务处理能力。
encoding-console
·
2025-03-10 07:19
配置
组装
台式机
家用
win11编译llama_cpp_python cuda128
RTX
30/40/50版本
Geforce50xx系显卡最低支持cuda128,llama_cpp_python官方源只有cpu版本,没有cuda版本,所以自己基于0.3.5版本源码编译一个
RTX
30xx/40xx/50xx版本。
System_sleep
·
2025-03-10 01:02
llama
python
windows
cuda
很常见的13种嵌入式实时系统,你知道哪些?
以下介绍15种主流的RTOS,包括μClinux、μC/OS-II、eCos、FreeRTOS、mbedOS、
RTX
、VxWorks、QNX、AliOSThings、望获实时Linux、HuaweiLiteOS
RTOS研究员
·
2025-03-08 14:24
操作系统
操作系统
RTOS
OS
嵌入式软件
Linux
PCI-5565反射内存卡的驱动程序--
RTX
64
在
RTX
实时系统下设计PCI-5565反射内存卡的驱动程序涉及多个步骤,包括硬件初始化、内存映射、中断处理和数据传输。
机载总线仿真测试
·
2025-03-07 18:53
光纤反射内存
网络
Kotlin 实现图片裁剪
/***图片裁剪*@paramoriginalImage原始图像*@paramsta
rtX
裁剪区域的起始x坐标*@paramstartY裁剪区域的起始y坐标*@paramendX裁剪区域的结束x坐标*@
zimoyin
·
2025-03-07 04:17
kotlin
开发语言
android
开源模型应用落地-qwen2-7b-instruct-LoRA微调-LLaMA-Factory-单机多卡-
RTX
4090双卡(五)
一、前言本篇文章将使用LLaMA-Factory去高效微调QWen2系列模型,通过阅读本文,您将能够更好地掌握这些关键技术,理解其中的关键技术要点,并应用于自己的项目中。二、术语介绍2.1.LoRA微调LoRA(Low-RankAdaptation)用于微调大型语言模型(LLM)。是一种有效的自适应策略,它不会引入额外的推理延迟,并在保持模型质量的同时显着减少下游任务的可训练参数数量。2.2.参数
开源技术探险家
·
2025-03-06 23:26
开源模型-实际应用落地
#
开源模型-微调实战密码
自然语言处理
深度学习
语言模型
vue vxe-table 实现财务记账凭证
vxetable.cn/新增保存财务主管:小徐记账:张三出纳:李四审核:老六import{ref,reactive,nextTick}from'vue'import{VxeUI}from'vxe-table'impo
rtX
EUtilsfrom'xe-utils'constgridRef
·
2025-03-06 13:20
vue.js
C++使用Onnxruntime/TensorRT模型推理
pytorch的模型.pth,并基于.pth模型进行推理python下依据模型推理实现从.pth转向.onnxpython下基于.onnx进行推理,与后续两种推理方式种的推理结果进行比较环境windows10+
RTX
308015GB
奇华智能
·
2025-03-05 16:30
AI
c++
开发语言
人工智能
AI
计算机视觉
私有部署 ChatGLM3-6B
1.在AutoDL平台上租赁GPUGPU型号:
RTX
4090PyTorch版本:2.5.1**(推荐使用2.0及以上的版本,以获得最佳的推理性能)**2.开启学术资源加速source/etc/network_turbo3
张申傲
·
2025-03-04 03:16
langchain
人工智能
aigc
chatgpt
ai
如何本地部署大模型及性能优化指南(附避坑要点)
一、环境准备:硬件与软件的黄金搭档硬件配置显存与内存:7B模型需至少10GB显存(如
RTX
3060),16B以上推荐专业级显卡(如V100/A100)。若显存不足,可通过CPU
挣扎与觉醒中的技术人
·
2025-03-03 17:20
性能优化
算法
人工智能
opencv
YOLO
AudioLM
本地部署大语言模型-DeepSeek
HosteaseAMD9950X/96G/3.84TNVMe/1G/5IP/
RTX
4090GPU服务器提供多种计费模式。
NightReader
·
2025-03-03 15:36
语言模型
人工智能
自然语言处理
FaceFusion 从0开始本地部署,
RTX
4060
FaceFusion从0开始本地部署指南一、环境准备1.基础工具安装1.1Git安装使用管理员权限打开PowerShell执行安装命令:wingetinstall-e--idGit.Git验证安装:git--version1.2FFmpeg安装使用管理员权限打开PowerShell执行安装命令:wingetinstall-e--idGyan.FFmpeg添加环境变量:打开"系统属性"->“环境变量
万山y
·
2025-03-03 11:37
python
自动化办公|xlwings与pandas交互
2.从Excel读取数据到PandasDataFrame2.1读取整个表格impo
rtx
lwingsasxwimport
游客520
·
2025-03-02 18:21
自动化
python从入门到出家
实用代码
pandas
excel
python
自动化
Python完整代码实现跳动的爱心
importtkinterastkimporttkinter.messageboximportrandomfrommathimportsin,cos,pi,logfromtkinter.constantsimport*width=888height=500hea
rtx
wv15889726201
·
2025-02-28 14:46
python
开发语言
源代码管理
tinyxml创建、写入和读取
最近在集成小程序,涉及到使用tinyxml类,在这里记录本次用于输出程序执行状态的代码,包括创建、添加信息、读取信息,expo
rtX
mlParam用于创建输出,addXmlevent用于主程序部分实时显示进程信息
@Mr_LiuYang
·
2025-02-28 13:40
写过的小程序
C语言
tinyxml
xml创建添加
xml读取
Llama.cpp 服务器安装指南(使用 Docker,GPU 专用)
硬件:NVIDIAGPU(例如
RTX
4090)。内存:16GB+系统内存,GPU需12GB+显存(
RTX
4090有24GB)。存储:15GB+可用空间(用于源码、镜像和模型文件)。
田猿笔记
·
2025-02-28 09:37
AI
高级应用
llama
服务器
docker
llama.cpp
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他