- 训练模型时 遇到速度过慢时的深思 & 速度提升 (From GPU & CPU)
Cmy_CTO
MachineLearning#DeepLearning#PyTorch深度学习人工智能机器学习pytorch
训练模型时遇到速度过慢时的深思&速度提升GPU查看GPU使用情况配置单机多卡并行训练torch.nn.DataParallel平衡DataParallel带来的显存使用不平衡的问题torch.nn.parallel.DistributedDataParallel多机多gpu训练Reference使用半精度训练更好的显卡,更轻的模型batch_sizeCPUdataloader减少日志IO操作频率使
- 5.Pytorch模型单机多GPU训练原理与实现
恒友成
pytorchpytorchpython深度学习机器学习人工智能
文章目录Pytorch的单机多GPU训练1)多GPU训练介绍2)pytorch中使用单机多`GPU`训练`DistributedDataParallel`(DDP)相关变量及含义a)初始化b)数据准备c)模型准备d)清理e)运行3)使用`DistributedDataParallel`训练模型的一个简单实例欢迎访问个人网络日志知行空间Pytorch的单机多GPU训练1)多GPU训练介绍当我们使用的
- 【AI实战】分布式训练:使用DistributedDataParallel实现单机多GPU并行训练resnet50模型
szZack
人工智能深度学习图像识别分布式训练并行训练多GPU训练
【AI实战】使用DistributedDataParallel实现单机多卡并行训练resnet50模型DistributedDataParallel依赖包加载预训练模型使用DistributedDataParallel自定义数据加载分布式训练保存模型完整代码DistributedDataParallel一种基于pytorch框架的分布式训练工具。依赖包importargparseimporttim
- pytorch多GPU并行DistributedDataParallel应用和踩坑记录(本节-单机多卡实现)持续补充
Miss_Bueno
pytorch人工智能python
一、前言说在前面:网上参考链接很多,参考之后可以实现分布式,但是对其原理还是云里雾里,有时间的建议去看一看原理。并且我实现分布式之后还是显示显存不足,不知道为什么。参考链接:pytorch多GPU并行训练DistributedDataParallel应用和踩坑记录_train_sampler=distributedsampler(train_dataset,-CSDN博客https://blog.
- PyTorch简单理解ChannelShuffle与数据并行技术解析
E寻数据
pytorchpython深度学习深度学习pytorch机器学习python人工智能
目录torch.nn子模块详解nn.ChannelShuffle用法与用途使用技巧注意事项参数示例代码nn.DataParallel用法与用途使用技巧注意事项参数示例nn.parallel.DistributedDataParallel用法与用途使用技巧注意事项参数示例总结torch.nn子模块详解nn.ChannelShuffletorch.nn.ChannelShuffle是PyTorch深度
- 学习使用DDP: DistributedDataParallel
BlueagleAI
学习DDP并行优化
简介“DistributedDataParalled”是Pytorch中用于分布式训练的模块,相较与比较老的DataParallel更高效,易用(我在使用DataParallel时经常遇到参数和数据没有在一块卡的报错情况,非常烦人),简单说DP是一进程多线程,DDP是多进程。它允许在多个GPU甚至多个节点上并行,在每个GPU上分发参数并建立模型副本。每个进程都会加载不同的数据,DDP会自动处理跨G
- pytorch 分布式训练
Billie使劲学
Python深度学习pytorch人工智能python
目录一、DistributedDataParallel内部机制二、普通单卡训练三、分布式训练四、混合精度训练(采用apex)五、可能会遇到的问题1.问题:报错显示两个数据不在同一个device上2.问题:dataloader接收数据的问题3.问题:NCCLinvalidusage问题4.问题:进程初始化问题5.注意:“shuffle=True”和“sampler”不能同时存在6.进程初始化部分的代
- 基于局域网和广域网训练推理加速策略
数据与后端架构提升之路
大模型推理加速
一、基于局域网的多GPU上并行训练TensorFlow的MirroredStrategy和PyTorch的DistributedDataParallel它们可以帮助您在多个GPU或多个计算节点上训练大型模型。这些策略的核心目标是提高训练速度,同时保持模型的准确性和稳定性。加速的底层原理TensorFlow的MirroredStrategyMirroredStrategy是TensorFlow中的一
- 『PyTorch学习笔记』分布式深度学习训练中的数据并行(DP/DDP) VS 模型并行
AI新视界
Pytorch学习笔记pytorch数据并行模型并行DataParallel
分布式深度学习训练中的数据并行(DP/DDP)VS模型并行文章目录一.介绍二.并行数据加载2.1.加载数据步骤2.2.PyTorch1.0中的数据加载器(Dataloader)三.数据并行3.1.DP(DataParallel)的基本原理3.1.1.从流程上理解3.1.2.从模式角度理解3.1.3.从操作系统角度看3.1.4.低效率3.2.DDP(DistributedDataParallel)的
- PyTorch多GPU训练时同步梯度是mean还是sum?
月夜长影
pythonpytorch深度学习人工智能
PyTorch通过两种方式可以进行多GPU训练:DataParallel,DistributedDataParallel.当使用DataParallel的时候,梯度的计算结果和在单卡上跑是一样的,对每个数据计算出来的梯度进行累加.当使用DistributedDataParallel的时候,每个卡单独计算梯度,然后多卡的梯度再进行平均.下面是实验验证:DataParallelimporttorchi
- 深度学习Pytorch代码相关总结
lybllybl
pythonpytorch深度学习计算机视觉
1、多GPU训练Pytorch分布式训练DataParallel和DistributedDataParallel详解_ncllbackend_九点澡堂子的博客-CSDN博客关于DDP单卡多GPU训练:为防止出现OS中无WORLD_SIZE、RANK、LOCAL_RANK、MASTER_ADDR、MASTER_PORT字段,及init_process_group卡死,需要使用命令行拉起进程:CUDA
- Pytorch多GPU并行训练: DistributedDataParallel
智慧医疗探索者
人工智能初探pytorch人工智能分布式训练并行训练
1模型并行化训练1.1为什么要并行训练在训练大型数据集或者很大的模型时一块GPU很难放下,例如最初的AlexNet就是在两块GPU上计算的。并行计算一般采取两个策略:一个是模型并行,一个是数据并行。左图中是将模型的不同部分放在不同GPU上进行训练,最后汇总计算。而右图中是将数据放在不同GPU上进行训练,最后汇总计算,不仅能增大BatchSize,还能加快计算速度,提高计算精度1.2并行化训练策略并
- 【PyTorch教程】如何使用PyTorch分布式并行模块DistributedDataParallel(DDP)进行多卡训练
自牧君
#PyTorch教程pytorch分布式人工智能python深度学习
本期目录1.导入核心库2.初始化分布式进程组3.包装模型4.分发输入数据5.保存模型参数6.运行分布式训练7.DDP完整训练代码本章的重点是学习如何使用PyTorch中的DistributedDataParallel(DDP)库进行高效的分布式并行训练。以提高模型的训练速度。1.导入核心库DDP多卡训练需要导入的库有:库作用torch.multiprocessingasmp原生Python多进程库
- pytorch DistributedDataParallel 分布式训练踩坑记录
字符搬运工-蓝天
PythonLinuxpytorch分布式人工智能python
目录一、几个比较常见的概念:二、踩坑记录2.1dist.init_process_group初始化2.2spawn启动(rank怎么来的)2.3lossbackward2.4modelcuda设置2.5数据加载一、几个比较常见的概念:rank:多机多卡时代表某一台机器,单机多卡时代表某一块GPUworld_size:多机多卡时代表有几台机器,单机多卡时代表有几块GPUworld_size=torc
- pytorch分布式训练
wu_jiacheng
2023-huggingface2023AIGCpytorch人工智能python
参考如下文章又要丝滑又要快?浅谈torch分布式训练的常见方式:DataParrel/DistributedDataParallel/Huggingfaceaccelerate-知乎
- 分布式训练原理总结(DP、PP、TP 、ZeRO)
神洛华
LLMs分布式wpf
文章目录一、分布式训练基础知识1.1集合通信、集合通信库1.2通信模式1.2.1ParameterServer(2014)1.2.2Ring-AllReduce(2017)1.3同步范式1.4大模型训练的目标公式二、数据并行2.1DataParallel(DP)2.2DistributedDataParallel(DDP)2.2.1原理2.2.2`all-reduce`优化2.2.3对比DP2.3
- DistributedDataParallel提示未参与loss计算的变量错误
天空城阿勇
错误:RuntimeError:Expectedtohavefinishedreductionintheprioriterationbeforestartinganewone.Thiserrorindicatesthatyourmodulehasparametersthatwerenotusedinproducingloss.Youcanenableunusedparameterdetection
- 【分布式】大模型分布式训练入门与实践 - 04
canmoumou
分布式深度学习pytorch1024程序员节
大模型分布式训练数据并行-DistributedDataParallel1.1背景1.2PyTorchDDP1)DDP训练流程2)DistributedSampler3)DataLoader:Parallelizingdataloading4)Data-parallel(DP)5)DDP原理解析2模型并行ModelParallel1)tensorparallel2)Pipelineparallel
- PyTorch训练(三):DDP(DistributedDataParallel)【“单机多卡”、“多机多卡”分布式训练模式】【支持混合精度(fp16/fp32)】【只将数据并行,模型大于显卡则不行】
u013250861
AI/模型训练pytorch深度学习单机多卡训练
一、概述我们知道PyTorch本身对于单机多卡提供了两种实现方式DataParallel(DP):ParameterServer模式,一张卡位reducer,实现也超级简单,一行代码。DistributedDataParallel(DDP):All-Reduce模式,本意是用来分布式训练,但是也可用于单机多卡。DataParallel(DP)是基于Parameterserver的算法,实现比较简单
- distributedDataparallel 單機多卡并行使用
一万的亿
pytorch深度学习机器学习
.distributedDataparallelDistributedcommunicationpackage-torch.distributedpytorch.org/docs/stable/distributed.html#launch-utilityThisisthehighlyrecommendedwaytouseDistributedDataParallel,withmultiplepr
- Pytorch 实现 DistributedDataParallel 操作
Cosmos Tan
Pytorchpytorch深度学习人工智能
一、DataParalle缺点Pytorch单机多卡(GPU)运行的基本方法是使用torch.DataParlle()函数,具体操作参考:其主要原理:假设有四个GPU,batch_size=64,input_dim为输入数据特征维度。nn.DataParallel()将随机样本集(64,input_dim)分成四份输入到每个GPU。每个GPU处理(16,input_dim)的数据集(前向传播计算)
- Pytorch DataParallel and DistributedDataParallel
dreamtactic
Pytorchpython深度学习pytorch
PytorchDataParallelandDistributedDataParallel最近试着使用Pytorch跑单机多卡训练,遇到了不少问题,做个总结和教程方便未来观看。我自己也是一个新手,很多东西总结的不好,有问题请多多指教,不懂的地方可以看参考文档,很多东西写的比我详细(本文只针对单机多卡训练,多机多卡训练未经过验证,请酌情观看)环境:python3.7pytorch1.4.0DataP
- DistributedDataParallel数据不均衡
weixin_43870390
pytorchddp
背景在使用DistributedDataParallel进行数据并行训练时,每次反向传播都需要执行all_reduce操作以同步各个进程的梯度。all_reduce需要进程组中的所有进程参与,如果某一个进程没有执行all_reduce(一个进程的输入较其他进程少),那么其他进程将会挂起或出错(取决于后端,nccl后端会挂起,gloo后端会报错)。问题在进行模型训练时,由于数据不均衡,导致不同GPU
- pytorch分布式系列2——DistributedDataParallel是如何做同步的?
江洋大盗与鸭子
深度学习深度学习分布式pytorch
试验2:DistributedDataParallel是如何做同步的?在开始试验之前我们先说明DataParallel,当我们使用DataParallel去做分布式训练时,假设我们使用四块显卡去做训练,数据的batch_size设置为8,则程序启动时只启动一个进程,每块卡会分配batch_size=2的资源进行forward操作,当4快卡的forward操作做完之后,主进程会收集所有显卡的结果进行
- pytorch单机多卡训练--完整示例代码
coolhuhu~
python深度学习pytorch深度学习python
目录指定可用GPU数据并行(DataParallel)分布式数据并行(DistributedDataParallel,DDP)1.构建并初始化进程组2.分发数据3.构建DDP模型4.保存模型5.开始运行多卡训练6.一个单机多卡训练的完整运行示例使用torchrun进行多卡训练(待更新…)参考资料指定可用GPU在多人共用多卡的情况下,并不是任何时刻每张卡都是空闲的,因此,在模型训练和推理时,需要指定
- python多进程processing中的start和join函数以及pytorch.distributed中初始化进程组init_process_group函数
eecspan
deeplearningpytorchpytorchpython人工智能机器学习
背景在学习pytorch自带的数据并行训练时,有两个库,torch.nn.DataParallel和torch.nn.parallel.DistributedDataParallel,其中第一个库是多线程,也就是一个线程控制一个GPU,第二个是多进程,一个进程控制一个GPU。如果是一个进程控制一个GPU的话,我们会用到torch.multiprocessing库,用它生成多线程,并使每个线程与每个
- Pytorch并行计算(二): DistributedDataParallel介绍
harry_tea
PyTorchpytorch深度学习
PyTorch并行计算:DistributedDataParallel一、为什么要并行计算?二、基本概念三、DistributedDataParallel的使用1.torch.distributed2.torch.multiprocessing四、一些BUG和问题这部分是nn.DataParallel的后续,想看DataParallel的点击这里为什么要用DistributedDataParall
- PyTorch中DistributedDataParallel使用笔记
瞻邈
机器学习pytorch深度学习
1.基本概念在使用DistributedDataParallel时有一些概率必须掌握多机多卡含义world_size代表有几台机器,可以理解为几台服务器rank第几台机器,即第几个服务器local_rank某台机器中的第几块GPU单机多卡含义world_size代表机器一共有几块GPUrank第几块GPUlocal_rank第几块GPU,与rank相同2.使用方法2.1.修改主函数在运行的时候,D
- DistributedDataParallel
小软同学
参考:https://github.com/NVIDIA/nccl1.安装nccl(1)将nccl文件夹gitclone下来yum-yinstallgitgitclonehttps://github.com/NVIDIA/nccl.git(2)buildcdnccl有三种选择i.直接buildmake-jsrc.buildii.改路径:CUDA_HOME默认是/usr/local/cudamake
- Pytorch 多卡并行(1)—— 原理简介和 DDP 并行实践
云端FFF
#PyTorchpytorch人工智能python
近年来,深度学习模型的规模越来越大,需要处理的数据也越来越多,单卡训练的显存空间和计算效率都越来越难以满足需求。因此,多卡并行训练成为了一个必要的解决方案本文主要介绍使用Pytorch的DistributedDataParallel(DDP)库进行分布式数据并行训练的方法文章目录1.多卡并行简介1.1两种并行形式1.2Pytorch中的多卡并行2.使用DDP进行单机多卡训练2.1原理概述2.2使用
- [黑洞与暗粒子]没有光的世界
comsci
无论是相对论还是其它现代物理学,都显然有个缺陷,那就是必须有光才能够计算
但是,我相信,在我们的世界和宇宙平面中,肯定存在没有光的世界....
那么,在没有光的世界,光子和其它粒子的规律无法被应用和考察,那么以光速为核心的
&nbs
- jQuery Lazy Load 图片延迟加载
aijuans
jquery
基于 jQuery 的图片延迟加载插件,在用户滚动页面到图片之后才进行加载。
对于有较多的图片的网页,使用图片延迟加载,能有效的提高页面加载速度。
版本:
jQuery v1.4.4+
jQuery Lazy Load v1.7.2
注意事项:
需要真正实现图片延迟加载,必须将真实图片地址写在 data-original 属性中。若 src
- 使用Jodd的优点
Kai_Ge
jodd
1. 简化和统一 controller ,抛弃 extends SimpleFormController ,统一使用 implements Controller 的方式。
2. 简化 JSP 页面的 bind, 不需要一个字段一个字段的绑定。
3. 对 bean 没有任何要求,可以使用任意的 bean 做为 formBean。
使用方法简介
- jpa Query转hibernate Query
120153216
Hibernate
public List<Map> getMapList(String hql,
Map map) {
org.hibernate.Query jpaQuery = entityManager.createQuery(hql);
if (null != map) {
for (String parameter : map.keySet()) {
jp
- Django_Python3添加MySQL/MariaDB支持
2002wmj
mariaDB
现状
首先,
[email protected] 中默认的引擎为 django.db.backends.mysql 。但是在Python3中如果这样写的话,会发现 django.db.backends.mysql 依赖 MySQLdb[5] ,而 MySQLdb 又不兼容 Python3 于是要找一种新的方式来继续使用MySQL。 MySQL官方的方案
首先据MySQL文档[3]说,自从MySQL
- 在SQLSERVER中查找消耗IO最多的SQL
357029540
SQL Server
返回做IO数目最多的50条语句以及它们的执行计划。
select top 50
(total_logical_reads/execution_count) as avg_logical_reads,
(total_logical_writes/execution_count) as avg_logical_writes,
(tot
- spring UnChecked 异常 官方定义!
7454103
spring
如果你接触过spring的 事物管理!那么你必须明白 spring的 非捕获异常! 即 unchecked 异常! 因为 spring 默认这类异常事物自动回滚!!
public static boolean isCheckedException(Throwable ex)
{
return !(ex instanceof RuntimeExcep
- mongoDB 入门指南、示例
adminjun
javamongodb操作
一、准备工作
1、 下载mongoDB
下载地址:http://www.mongodb.org/downloads
选择合适你的版本
相关文档:http://www.mongodb.org/display/DOCS/Tutorial
2、 安装mongoDB
A、 不解压模式:
将下载下来的mongoDB-xxx.zip打开,找到bin目录,运行mongod.exe就可以启动服务,默
- CUDA 5 Release Candidate Now Available
aijuans
CUDA
The CUDA 5 Release Candidate is now available at http://developer.nvidia.com/<wbr></wbr>cuda/cuda-pre-production. Now applicable to a broader set of algorithms, CUDA 5 has advanced fe
- Essential Studio for WinRT网格控件测评
Axiba
JavaScripthtml5
Essential Studio for WinRT界面控件包含了商业平板应用程序开发中所需的所有控件,如市场上运行速度最快的grid 和chart、地图、RDL报表查看器、丰富的文本查看器及图表等等。同时,该控件还包含了一组独特的库,用于从WinRT应用程序中生成Excel、Word以及PDF格式的文件。此文将对其另外一个强大的控件——网格控件进行专门的测评详述。
网格控件功能
1、
- java 获取windows系统安装的证书或证书链
bewithme
windows
有时需要获取windows系统安装的证书或证书链,比如说你要通过证书来创建java的密钥库 。
有关证书链的解释可以查看此处 。
public static void main(String[] args) {
SunMSCAPI providerMSCAPI = new SunMSCAPI();
S
- NoSQL数据库之Redis数据库管理(set类型和zset类型)
bijian1013
redis数据库NoSQL
4.sets类型
Set是集合,它是string类型的无序集合。set是通过hash table实现的,添加、删除和查找的复杂度都是O(1)。对集合我们可以取并集、交集、差集。通过这些操作我们可以实现sns中的好友推荐和blog的tag功能。
sadd:向名称为key的set中添加元
- 异常捕获何时用Exception,何时用Throwable
bingyingao
用Exception的情况
try {
//可能发生空指针、数组溢出等异常
} catch (Exception e) {
 
- 【Kafka四】Kakfa伪分布式安装
bit1129
kafka
在http://bit1129.iteye.com/blog/2174791一文中,实现了单Kafka服务器的安装,在Kafka中,每个Kafka服务器称为一个broker。本文简单介绍下,在单机环境下Kafka的伪分布式安装和测试验证 1. 安装步骤
Kafka伪分布式安装的思路跟Zookeeper的伪分布式安装思路完全一样,不过比Zookeeper稍微简单些(不
- Project Euler
bookjovi
haskell
Project Euler是个数学问题求解网站,网站设计的很有意思,有很多problem,在未提交正确答案前不能查看problem的overview,也不能查看关于problem的discussion thread,只能看到现在problem已经被多少人解决了,人数越多往往代表问题越容易。
看看problem 1吧:
Add all the natural num
- Java-Collections Framework学习与总结-ArrayDeque
BrokenDreams
Collections
表、栈和队列是三种基本的数据结构,前面总结的ArrayList和LinkedList可以作为任意一种数据结构来使用,当然由于实现方式的不同,操作的效率也会不同。
这篇要看一下java.util.ArrayDeque。从命名上看
- 读《研磨设计模式》-代码笔记-装饰模式-Decorator
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
import java.io.BufferedOutputStream;
import java.io.DataOutputStream;
import java.io.FileOutputStream;
import java.io.Fi
- Maven学习(一)
chenyu19891124
Maven私服
学习一门技术和工具总得花费一段时间,5月底6月初自己学习了一些工具,maven+Hudson+nexus的搭建,对于maven以前只是听说,顺便再自己的电脑上搭建了一个maven环境,但是完全不了解maven这一强大的构建工具,还有ant也是一个构建工具,但ant就没有maven那么的简单方便,其实简单点说maven是一个运用命令行就能完成构建,测试,打包,发布一系列功
- [原创]JWFD工作流引擎设计----节点匹配搜索算法(用于初步解决条件异步汇聚问题) 补充
comsci
算法工作PHP搜索引擎嵌入式
本文主要介绍在JWFD工作流引擎设计中遇到的一个实际问题的解决方案,请参考我的博文"带条件选择的并行汇聚路由问题"中图例A2描述的情况(http://comsci.iteye.com/blog/339756),我现在把我对图例A2的一个解决方案公布出来,请大家多指点
节点匹配搜索算法(用于解决标准对称流程图条件汇聚点运行控制参数的算法)
需要解决的问题:已知分支
- Linux中用shell获取昨天、明天或多天前的日期
daizj
linuxshell上几年昨天获取上几个月
在Linux中可以通过date命令获取昨天、明天、上个月、下个月、上一年和下一年
# 获取昨天
date -d 'yesterday' # 或 date -d 'last day'
# 获取明天
date -d 'tomorrow' # 或 date -d 'next day'
# 获取上个月
date -d 'last month'
#
- 我所理解的云计算
dongwei_6688
云计算
在刚开始接触到一个概念时,人们往往都会去探寻这个概念的含义,以达到对其有一个感性的认知,在Wikipedia上关于“云计算”是这么定义的,它说:
Cloud computing is a phrase used to describe a variety of computing co
- YII CMenu配置
dcj3sjt126com
yii
Adding id and class names to CMenu
We use the id and htmlOptions to accomplish this. Watch.
//in your view
$this->widget('zii.widgets.CMenu', array(
'id'=>'myMenu',
'items'=>$this-&g
- 设计模式之静态代理与动态代理
come_for_dream
设计模式
静态代理与动态代理
代理模式是java开发中用到的相对比较多的设计模式,其中的思想就是主业务和相关业务分离。所谓的代理设计就是指由一个代理主题来操作真实主题,真实主题执行具体的业务操作,而代理主题负责其他相关业务的处理。比如我们在进行删除操作的时候需要检验一下用户是否登陆,我们可以删除看成主业务,而把检验用户是否登陆看成其相关业务
- 【转】理解Javascript 系列
gcc2ge
JavaScript
理解Javascript_13_执行模型详解
摘要: 在《理解Javascript_12_执行模型浅析》一文中,我们初步的了解了执行上下文与作用域的概念,那么这一篇将深入分析执行上下文的构建过程,了解执行上下文、函数对象、作用域三者之间的关系。函数执行环境简单的代码:当调用say方法时,第一步是创建其执行环境,在创建执行环境的过程中,会按照定义的先后顺序完成一系列操作:1.首先会创建一个
- Subsets II
hcx2013
set
Given a collection of integers that might contain duplicates, nums, return all possible subsets.
Note:
Elements in a subset must be in non-descending order.
The solution set must not conta
- Spring4.1新特性——Spring缓存框架增强
jinnianshilongnian
spring4
目录
Spring4.1新特性——综述
Spring4.1新特性——Spring核心部分及其他
Spring4.1新特性——Spring缓存框架增强
Spring4.1新特性——异步调用和事件机制的异常处理
Spring4.1新特性——数据库集成测试脚本初始化
Spring4.1新特性——Spring MVC增强
Spring4.1新特性——页面自动化测试框架Spring MVC T
- shell嵌套expect执行命令
liyonghui160com
一直都想把expect的操作写到bash脚本里,这样就不用我再写两个脚本来执行了,搞了一下午终于有点小成就,给大家看看吧.
系统:centos 5.x
1.先安装expect
yum -y install expect
2.脚本内容:
cat auto_svn.sh
#!/bin/bash
- Linux实用命令整理
pda158
linux
0. 基本命令 linux 基本命令整理
1. 压缩 解压 tar -zcvf a.tar.gz a #把a压缩成a.tar.gz tar -zxvf a.tar.gz #把a.tar.gz解压成a
2. vim小结 2.1 vim替换 :m,ns/word_1/word_2/gc  
- 独立开发人员通向成功的29个小贴士
shoothao
独立开发
概述:本文收集了关于独立开发人员通向成功需要注意的一些东西,对于具体的每个贴士的注解有兴趣的朋友可以查看下面标注的原文地址。
明白你从事独立开发的原因和目的。
保持坚持制定计划的好习惯。
万事开头难,第一份订单是关键。
培养多元化业务技能。
提供卓越的服务和品质。
谨小慎微。
营销是必备技能。
学会组织,有条理的工作才是最有效率的。
“独立
- JAVA中堆栈和内存分配原理
uule
java
1、栈、堆
1.寄存器:最快的存储区, 由编译器根据需求进行分配,我们在程序中无法控制.2. 栈:存放基本类型的变量数据和对象的引用,但对象本身不存放在栈中,而是存放在堆(new 出来的对象)或者常量池中(字符串常量对象存放在常量池中。)3. 堆:存放所有new出来的对象。4. 静态域:存放静态成员(static定义的)5. 常量池:存放字符串常量和基本类型常量(public static f