E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
4090
4090
显卡对华禁售出现反转,国产显卡发展现状到底如何?
10月18号,英伟达向美国证券交易委员会,提交的最新公开文件显示:除了H100/A100/H800/A800这类高性能计算卡,消费级旗舰显卡RTX
4090
也被列入到出口管制范围内,对华禁售。
LhcyyVSO
·
2024-01-02 00:15
英伟达
GPU
4090显卡
渲染
GPU
显卡
4090显卡
英伟达
国产显卡
摩尔线程
基于趋动云部署秋葉aaaki的Stable Diffusion整合包v4--linux版
但是笔人没有RTX
4090
这样级别的显卡,又希望有个高速运行的效果。所以索性到云GPU主机上来用秋叶aaaki的StableDiffusionwebui,一番研究后,在趋动云部署成功。
夜魔009
·
2024-01-01 02:12
技术
stable
diffusion
秋叶aaaki
linux
部署
sd-web-ui
Win10 +
4090
显卡配置深度学习环境 + gaussian-splatting配置 + 实测自己的场景
目录1安装Anaconda2023.09版本2安装CUDA11.83安装深度学习库Cudnn8.6.04安装VSCODE20195安装Colmap3.86安装git7安装Python3.10+Pytorch2.0.07安装项目8采集数据8.1IPhone14pro拍摄30张照片左右+做预处理8.2生成colmap位姿等信息8.3开始训练!启动!8.4资源占用8.5训练完成8.5可视化1安装Anac
APS2023
·
2023-12-28 12:09
深度学习
人工智能
科研GPU环境配置-快让师兄弟们优雅地享受共享环境吧!
优雅永不过时,这里列举我对实验室
4090
显卡的操作,目的是为了让实验室所有人都有隔离的沙盒环境,节省硬盘以及更方便系统:Ubuntu22.04显卡不限型号英伟达驱动安装略,网上教程很多CUDA和CuDNN
染念
·
2023-12-25 20:28
折腾心得
linux
gpu算力
深度学习
人工智能
学习方法
编译器使用优化后出现的busfault
)ADC_REG;uint32temp=adc&0xffff;未优化汇编代码//uint32adc=*(uint32*)ADC_REG;MOVWR8,#0X0824//加载高16位地址MOVTR8,#
4090
lyq308152569
·
2023-12-25 20:09
MCU
arm开发
stm32
12.12_黑马数据结构与算法笔记Java
优先级队列堆实现3084优先级队列e01合并多个有序链表1084优先级队列e01合并多个有序链表2085阻塞队列问题提出086阻塞队列单锁实现1087阻塞队列单锁实现2088阻塞队列单锁实现3089阻塞队列单锁实现
4090
simplesin
·
2023-12-14 20:31
后端
数据结构
算法
链表
leetcode
显卡算力总结
https://www.topcpu.net/cpu-r5显卡显存(G)浮点算力FP32(TFLOPS)浮点算力FP16(TensorTFLOPS)RTX
4090
Ti2493.24RTX40902482
Kun Li
·
2023-12-06 17:04
算法部署
人工智能
百度贴吧大战:国内工厂爆改RTX
4090
游戏显卡!用于AI模型训练
,前不久我们刚刚报道完老黄如法炮制再次推出三款中国特供版AI芯片,后脚我们就发现国内公司也上有政策下有对策,百度贴吧显卡吧有网友在前线发来报道:国内AI公司为了绕开计算卡禁令收购大量NvidiaRTX
4090
夕小瑶
·
2023-12-02 07:05
人工智能
游戏
Pytorch报错 RuntimeError: cuFFT error: CUFFT_INTERNAL_ERROR
一、问题产生背景将线上V100显卡运行的lama图片去水印服务docker容器迁移到线下
4090
显卡上运行;本以为只要把docker容器运行起来就大功告成,没想到却抛了错误:>>>importtorch
戴国进
·
2023-12-01 12:21
#
爬虫
机器学习
pytorch
人工智能
python
大模型训练为什么用A100不用
4090
先说结论,大模型的训练用
4090
是不行的,但推理(inference/serving)用
4090
不仅可行,在性价比上还能比H100稍高。
4090
如果极致优化,性价比甚至可以达到H100的2倍。
金戈鐡馬
·
2023-11-30 11:32
深度学习
gpu算力
深度学习
人工智能
大模型
推理训练
【电机参数】直流无刷电机2804电机参数测量——电感、电阻、极对数、磁链常数
D轴电感、Q轴电感三、极对数四、反电动势系数五、磁链六、参考资料总结前言【电机控制】直流有刷电机、无刷电机汇总——持续更新使用工具:1.示波器:正点原子DS100(50M)2.电桥LCR:VICIOR
4090
A3
Kisorge
·
2023-11-27 06:45
嵌入式硬件
AI一键将图片变动画:stable-diffusion“图片转动画“干货教学
实现这些,你不需要一张
4090
显卡,有3060或者更低型号的显卡都行,如果你没有显卡也行,无需显卡,可以用cpu来实现头图这个效果(只是花费的时间稍微长一点而已)。动画片怎么做?
朝阳区靓仔_James
·
2023-11-25 08:39
人工智能
stable
diffusion
ai绘画
ChatGPT或使数百万人实现四天工作制;钉钉与华为达成合作,正式启动鸿蒙原生应用开发;特斯拉开源Roadster|极客头条
阿里云终止拆分后宣布新组织架构,一把手未变化阿里钉钉与华为达成合作,正式启动鸿蒙原生应用开发特斯拉正推动FSD在国内落地:目前确实正在推进中英伟达下架
4090
后,戴尔将在中国停售部分产品马斯克称Op
极客日报
·
2023-11-24 09:35
极客日报
快讯
chatgpt
华为
钉钉
配置你的VsCode服务器,随时随地写代码!
前段时间忙着秋招和论文,临近秋招结束,终于有时间更新了前段时间实验室搞一个
4090
服务器,终于可以无所忌惮地跑深度学习咯,刚好要配置环境,今天就教大家通过code-server配置一下网页版的VsCode
GIS_宇宙
·
2023-11-22 09:16
服务器
vscode
服务器
ide
autodl一键安装Langchain-Chatchat
一、创建服务器还是登录autodl申请实例,最近autodl加了好多
4090
显卡,而且涨价了,以前便宜的A5000很少了。因为面对的是小白或
wuexp
·
2023-11-21 21:55
人工智能
langchain
语言模型
python
chatgpt
第90步 深度学习图像分割:U-Net建模
基于WIN10的64位系统演示一、写在前面从这一期开始,我们杀个回马枪,继续学习深度学习图像分割系列,以为
4090
上岗了。
Jet4505
·
2023-11-16 06:09
《100
Steps
to
Get
ML》—JET学习笔记
深度学习
人工智能
图像分割
U-net
在
4090
GPU服务器上,重新安装cuda11.8,问题汇总
序言:
4090
英伟达显卡,算力8.9,之前安装了cuda的版本是11.7,由于11.7的cuda不支持8.9的算力,所以需要将升版本到11.8。
xixiangdai
·
2023-11-12 03:54
大模型
人工智能
Pytorch 安装经历(基于Nvidia RTX
4090
)
一、安装已经下载的Andconda系统;Anaconda3-2019.03-Windows-x86_64.exe已经下载Andaconda系统,进行安装。此Anaconda会自己安装Python3.7系统;打开windows中的AnacondapowershellPrompt,可以看到前面有(base),就说明Anaconda已经安装成功。2.搭建pytorchcondacreate-npytor
vindicater
·
2023-11-12 03:53
深度学习环境
virtualenv
pycharm
深度学习
人工智能
windows
python
pytorch
4090
安装cuda11.8记录
之前看到有人说
4090
的算力是8.9,要装11.7的cuda,也有人说要装11.8的,那我就装了个11.8的,这个版本比nvidia-smi右上角的版本低就行1.下载cuda11.8cuda11.8的下载链接一定要下
糖豆豆今天也要努力鸭
·
2023-11-12 03:20
杂谈
ubuntu
linux
python
cuda
4090
软件测试/测试开发丨UbuntuServer环境准备
点此获取更多相关资料前提现有设备是一套i5+
4090
的组合,安装了Ubuntu22.04.3LTSServer版本,后文的安装步骤都是基于这套系统和配置进行操作。
测试开发软件测试性能测试自动化测试
·
2023-11-07 07:04
软件测试
人工智能
英伟达禁售?FlashAttention助力LLM推理速度提8倍
英伟达限制细则披露,A/H800、A/H100、L40、L40S以及游戏卡RTX
4090
全部禁售!这也倒逼中国企业通过大模型优化提高推理速度,减少对芯片数量的依赖。我们知道处理小说、法律文件等
AI 研习所
·
2023-10-26 14:01
AIGC
AGI
大模型训练
AIGC
人工智能
uiautomator2常用语法
连接设备使用USB连接:d=u2.connect_USB('148b
4090
')输入手机序列号d是给当前连接设备定位一个变量获取设备的信息:print(d.info)获取当前APP的活动窗口和包名:print
迷迭香_d0e9
·
2023-10-26 03:56
Ubuntu 22.04从零开始安装Openpcdet 0.6.0——详细记录过程(含
4090
+CUDA11.8)
一、前言A、云平台安装和本地安装的差异:之前在几个云平台上的1w算力豆已经用光了,所以这次本地选择本地安装Pcdet。两者安装过程有很大差异,因为九天毕昇云平台使用的是CUDA10.1,且没办法改动,导致pcdet只能安装0.3.2,且只能选择较低的版本的第三方库:torch1.6.0,spconv:1.2.1(相当难安装)。九天毕昇云平台安装过程,详见我之前的博客:九天毕昇”云平台:python
空持千百偈,不如吃茶去
·
2023-10-25 14:35
3D视觉环境安装
ubuntu
python
linux
深度学习
计算机视觉
【环境】Linux下Anaconda/ Miniconda安装+百度Paddle环境搭建+Cudnn(3090显卡+CUDA11.8+cudnn8.6.0)
anaconda/下载链接:https://mirrors.tuna.tsinghua.edu.cn/anaconda/miniconda/其他深度学习环境相关博文:【stable-diffusion】
4090
曾小蛙
·
2023-10-24 15:17
深度学习
#
Paddle
linux
paddlepaddle
cudnn
miniconda
清华源
YOLO V8语义分割模型部署
目录1配置pytorch环境2配置yolo环境3测试yoloV8的语义分割模型1配置pytorch环境我的电脑为Y9000P
4090
,英伟达显卡驱动版本为525.105.17,驱动显示最高的cuda版本号为
APS2023
·
2023-10-24 02:04
YOLO
3.7打卡
周末:早睡早起,睡:10:00起:8:00周一到周五晨练周末晨练自愿家长第一个30天目标:平日:早睡早起,睡10:00起:6:30周末:早睡早起,睡11:00起:7:30早睡早起时间:11:00-6:
4090
天天快乐妈妈
·
2023-10-22 23:08
第二证券:RTX
4090
显卡全面下架,芯片巨头连续两日大跌!
英伟达RTX
4090
显卡全面下架在拜登政府更新针对人工智能(AI)芯片的出口控制规矩后的次日,英伟达RTX
4090
显卡已在各大购物网站下架。
CAKDJF
·
2023-10-20 16:56
postman
B 站广州研发工作室宣布解散;OpenAI 廉价版 GPT-4 夭折;微软推出云原生应用程序平台 Radius|极客头条
微博CEO率先测试前台实名制京东副总裁、京东科技解决方案中心负责人高礼强已离职英伟达RTX
4090
显卡全网断货,库存几近被扫光,最高涨至5万元代工小米汽车?北汽蓝谷:公司未有相关信息传AMD上海将无
极客日报
·
2023-10-20 10:52
快讯
极客日报
microsoft
云原生
人工智能
关于Llama2,关于FreeWilly2,关于百川,还有Autodl
事情的起因是FB开源了llama2,领导让我试试,由于公司只有云服务器,所以我在一个负载比较轻的
4090
的云服务器上开整。
Daniel大人
·
2023-10-18 16:18
记录贴
llama
llm
python
《王国之泪》掉帧严重怎么破?超频Switch教程来了,稳定30帧运行
最痛苦的是,玩正版Switch还会被破解版玩家调侃——不少用Switch模拟器玩破解版《王国之泪》的玩家,能直接在电脑上用
4090
轻轻松松跑到60帧(用MOD解锁30帧),还是
QbitAl
·
2023-10-17 16:11
RTX3090(
4090
) 与pytorch版本对应关系
在RTX3090上判断,当前版本的的torch版本是否可以用,一般需要通过如下方式:condaactivatetorch1.8.1(激活相关的虚拟环境)python进入python环境,importtorch导入torch安装包;测试torch.cuda.is_available(),测试torch.zeros(1).cuda()直到,第四步骤完成,才能说明当前版本的cuda可以调用当前版本的py
mingqian_chu
·
2023-10-17 05:32
#
环境相关
RTX3090
pytorch
[科研琐事] 安装服务器到机柜的二三事
1U=4.45cm2U=4.45cm*23U=4.45cm*34U=4.45cm*4我们的2080/3090/
4090
服务器都是4U的2.装机准备检查下面几个内容是否备齐:电源线:电源线一头是连接服务器的
吃熊的鱼
·
2023-10-15 04:15
琐事
服务器
运维
Python【多分支选择结构1】
else:ifscore==100:print("爸爸给他买一架私人飞机")elif90<=score<100:print("妈妈给他买
4090
显卡")elif60<=
正儿八经的地球人
·
2023-10-13 05:17
Python
python
前端
服务器
Pytorch使用DataLoader, num_workers!=0时的内存泄露
描述一下背景,和遇到的问题:我在做一个超大数据集的多分类,设备Ubuntu22.04+i913900K+Nvidia
4090
+64GBRAM,第一次的训练的训练集有700万张,训练成功。
DeepHacking
·
2023-10-08 05:02
深度学习
神经网络
机器学习
pytorch
人工智能
python
DataLoader
使用
4090
显卡部署 Qwen-14B-Chat-Int4
使用
4090
显卡部署Qwen-14B-Chat-Int41.Qwen-Agent概述2.Github地址3.创建虚拟环境4.安装依赖项5.快速使用6.启动web演示7.访问Qwen1.Qwen-Agent
engchina
·
2023-10-06 13:20
LINUX
Qwen-14B
Qwen
ModelScope
使用ExLlamaV2在消费级GPU上运行Llama2 70B
能否在高端消费级GPU,如NVIDIARTX3090或
4090
,上运行呢,如果我们将Llama270b量化到4位精度,仍
deephub
·
2023-10-02 17:57
深度学习
人工智能
大语言模型
llama
AutoDL初体验
搞了个
4090
体验一下,一小时只要两块五(主要是,之前没有GPU,好多想玩的LLM开源项目都体验不了,实在是太难受了)文章目录AutoDL初体验一.注册及认证二.租用实例三.如何开放端口四.我的几个测试
临风而眠
·
2023-10-01 16:43
基础技能
和AI共同成长
AutoDL
再战三年!锐龙2700x的百元散热新伴侣,超频三K4挑战者风冷实测
所谓40死贵30矿,想败家就往新平台上撞,老黄的RTX
4090
?苏妈的7700XT?爬,都给爷爬。不买立省一两万,谁给你惯的。除了备用的锐龙5600G,我的主力机的C
笔点酷玩
·
2023-09-28 00:54
蓝牙BLE方案|智能穿戴市场持续火热,伦茨科技推出智能手表方案
这一季度这类产品出货量达到了
4090
万只,同比增长5.6%。智能手环市场下滑始于2020年第四季度,已延续至2021年第二季度,出货量骤降23.8%至1550万只。
Lenzetech
·
2023-09-22 11:42
蓝牙技术
蓝牙产品
物联网
智能手表
蓝牙
蓝牙技术|蓝牙BLE在可穿戴设备上的应用
这一季度这类产品出货量达到了
4090
万只,同比增长5.6%。智能手环市场下滑始于2020年第四季度,已延续至2021年第二季度,出货量骤降23.8%至1550万只。
Lenzetech
·
2023-09-22 11:42
蓝牙技术
物联网
智能手表
蓝牙
揭秘英伟达A100、A800、H100、H800 GPU如何实现高性能大模型的百倍训练加速
;OPT;OPT-IML;BLOOM;BLOOMZ;GLM;Reddit;H100;H800;A100;A800;MI200;MI250;LaMA;OpenAI;GQA;RMSNorm;SFT;RTX
4090
·
2023-09-19 17:01
llm
揭秘英伟达A100、A800、H100、H800 GPU如何实现高性能大模型的百倍训练加速
;OPT;OPT-IML;BLOOM;BLOOMZ;GLM;Reddit;H100;H800;A100;A800;MI200;MI250;LaMA;OpenAI;GQA;RMSNorm;SFT;RTX
4090
高性能服务器
·
2023-09-18 12:32
gracehopper
HBM3e
L40S
英伟达 H100 vs. 苹果M2,大模型训练,哪款性价比更高?
M1芯片|Uitra|AMD|A100M2芯片|ARM|A800|H100关键词:M2芯片;Ultra;M1芯片;UltraFusion;ULTRAMAN;RTX
4090
、A800;A100;H100;
高性能服务器
·
2023-09-18 12:01
A100
H100
H800
A800
如何在SAM时代下打造高效的高性能计算大模型训练平台
NLP;PLM;BERT;ZSL;task;zero-shot;data;H100、H800、A100、A800、LLaMA、Transformer、OpenAI、GQA、RMSNorm、SFT、RTX
4090
高性能服务器
·
2023-09-18 12:01
算法
数据结构
线性回归
【题解】JZOJ6645 / 洛谷P
4090
[USACO17DEC] Greedy Gift Takers P
洛谷P
4090
[USACO17DEC]GreedyGiftTakersP题意nnn头牛排成一列,队头的奶牛iii拿一个礼物并插到从后往前数cic_ici头牛的前面,重复无限次,问多少奶牛没有礼物。
inferior_hjx
·
2023-09-12 04:37
题解
c++
如何在SAM时代下打造高效的高性能计算大模型训练平台
NLP;PLM;BERT;ZSL;task;zero-shot;data;H100、H800、A100、A800、LLaMA、Transformer、OpenAI、GQA、RMSNorm、SFT、RTX
4090
·
2023-09-10 01:45
揭秘英伟达A100、A800、H100、H800 GPU如何实现高性能大模型的百倍训练加速
;OPT;OPT-IML;BLOOM;BLOOMZ;GLM;Reddit;H100;H800;A100;A800;MI200;MI250;LaMA;OpenAI;GQA;RMSNorm;SFT;RTX
4090
·
2023-09-10 01:44
llm
Ubuntu22.04 LTS+NVIDIA
4090
+Cuda12.1+cudnn8.8.1
系统环境中:1.系统驱动安装的是:NVIDIA-Linux-x86_64-530.30.02.run2.CUDA安装:cuda_12.1.0_530.30.02_linux.run(无需第1步,直接安装它就带配套驱动)wgethttps://developer.download.nvidia.com/compute/cuda/12.1.0/local_installers/cuda_12.1.0_
DeepHacking
·
2023-09-09 04:54
python
开发语言
深度学习
云端配置detectron2环境
云端配置detectron2环境以及别的环境选择云服务器我选择这个AutoDL云服务器,1.价格因为这个云服务器感觉相比其他的,价格更便宜,同时GPU的数量也挺多的
4090
才需要2.6元一个小时,同时这个
TranquilGlow
·
2023-09-07 11:53
Python
python
pytorch
2021年4月12日感恩日记❤️
4090
谢谢自己一早起来去买菜,来回两个小时,也是醉了,哈哈哈,谢谢,谢谢,谢谢4091谢谢老公和孩子们帮忙拿买回的菜,很给力,一下子就拿完了,人多力量大,连老三都会帮忙了,还帮忙收拾,谢谢,谢谢,谢谢
欢_喜磕到底
·
2023-08-23 03:23
上一页
1
2
3
4
5
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他