- Hbase的简单使用示例
傲雪凌霜,松柏长青
后端大数据hbase数据库大数据
HBase是基于HadoopHDFS构建的分布式、列式存储的NoSQL数据库,适用于存储和检索超大规模的非结构化数据。它支持随机读写,并且能够处理PB级数据。HBase通常用于实时数据存取场景,与Hadoop生态紧密集成。使用HBase的Java示例前置条件HBase集群:确保HBase集群已经安装并启动。如果没有,你可以通过本地伪分布模式或Docker来运行HBase。Hadoop配置:HBas
- hadoop配置免密登录
我干开发那十年
ssh服务器linux
1.生成密钥ssh-keygen-trsa所有节点都要执行2.所有节点执行ssh-copy-id-i~/.ssh/id_rsa.pub用户名1@主机名1ssh-copy-id-i~/.ssh/id_rsa.pub用户名2@主机名2ssh-copy-id-i~/.ssh/id_rsa.pub用户名3@主机名33.目录授权chmod700~/.sshchmod600~/.ssh/authorized_
- Hadoop手把手逐级搭建 第二阶段: Hadoop完全分布式(full)
郑大能
前置步骤:1).第一阶段:Hadoop单机伪分布(single)0.步骤概述1).克隆4台虚拟机2).为完全分布式配置ssh免密3).将hadoop配置修改为完全分布式4).启动完全分布式集群5).在完全分布式集群上测试wordcount程序1.克隆4台虚拟机1.1使用hadoop0克隆4台虚拟机hadoop1,hadoop2,hadoop3,hadoop41.1.0克隆虚拟机hadoop11.1
- Hadoop单机环境搭建
三暮辰
Hadoophadoop大数据
Hadoop单机环境搭建一、jdk环境二、IP地址和主机名映射三、生成公私钥授权四、下载解压Hadoop五、配置Hadoop环境变量六、修改Hadoop配置文件七、关闭防火墙八、初始化九、启动十、Yarn配置启动一、jdk环境从官方下载jdk,版本1.8及以上即可给个地址:jdk8二、IP地址和主机名映射将主机名与IP地址映射,可以用主机名进行任务分发或文件传输以及其他工作1.查看主机名称//主机
- Iceberg从入门到精通系列之二十一:Spark集成Iceberg
最笨的羊羊
日常分享专栏Iceberg从入门到精通系列之二十一Spark集成Iceberg
Iceberg从入门到精通系列之二十一:Spark集成Iceberg一、在Spark3中使用Iceberg二、添加目录三、创建表四、写五、读六、Catalogs七、目录配置八、使用目录九、替换会话目录十、使用目录特定的Hadoop配置值十一、加载自定义目录十二、SQL扩展十三、运行时配置-读选项十四、运行时配置-写选项十五、SparkProcedures十六、元数据管理Iceberg的最新版本是1
- Ubuntu22.04三台虚拟机Hadoop集群安装和搭建(全面详细的过程)
WuRobb
hadoop大数据分布式java
虚拟机Ubuntu22.04Hadoop集群安装和搭建(全面详细的过程)环境配置安装安装JDK安装Hadoop三台虚拟机设置克隆三台虚拟机设置静态IP修改虚拟机hostssh免密登录关闭防火墙Hadoop配置core-site.xmlhdfs-site.xmlyarn-site.xmlmapred-site.xmlworkers设置hadoop集群用户权限xsync分发给其他虚拟机格式化namen
- hadoop集群规划部署
Snower_2022
hadoophadoopjava大数据
一、集群规划三台硬件资源,部署hadoop版本,hadoop-3.3.5,部署后配置文件。Hadoop配置文件分两类:默认配置文件和自定义配置文件。hadoop102hadoop103hadoop104HDFSNameNodeDataNodeDataNodeSecondaryNameNodeDataNodeYARNNodeManagerResourceManagerNodeManagerNodeM
- 大数据平台组件日常运维操作说明(Hadoop/Zookeeper/Kafa/ES/Mysql/Spark/Flume/Logstash/Tomcat)
love6a6
大数据java-zookeeper运维
Hadoop日常运维操作说明hdfs生产环境hadoop为30台服务器组成的集群,统一安装配置,版本号为2.7.7部署路径:/opt/hadoop启动用户:hadoop配置文件:/opt/hadoop/config/hdfs-site.xml/opt/hadoop/config/core-site.xmlhadoopy运行环境变量配置文件:hadoop-env.shjournalnode.envd
- hadoop-hdfs-API
有七段变化
处理hadoop配置文件及系统环境1.将hadoop所有jar包(除了..以外)添进hadoop/lib文件夹备用。2.将linux的hadoop/bin导出覆盖windows的hadoop/bin。并将bin/hadoop.dll添入windows\system32文件夹内。需重启。3.配置windows系统环境变量HADOOP_HOME=hadoop所在包。HADOOP_USER_NAME=r
- Linux修改hadoop配置文件及启动hadoop集群详细步骤
CatalinaCatherine
Linuxlinuxhadoop运维
目录一、配置Hadoop环境1.查看Hadoop解压位置2.配置环境变量3.编辑环境变量4.重启环境变量5.查看Hadoop版本,查看成功就表示Hadoop安装成功了二、修改配置文件1.检查三台虚拟机:2.切换到配置文件目录3.修改hadoop-env.sh文件4.修改core-site.xml文件5.修改mapred-site.xml文件6.修改hdfs-site.xml文件7.修改yarn-s
- linux上面hadoop配置集群
酷爱码
大数据基础教程linuxhadoop运维
要在Linux上配置Hadoop集群,需要按照以下步骤进行操作:安装JavaDevelopmentKit(JDK):首先,确保您的Linux系统上已经安装了JDK。可以通过运行以下命令来检查是否已经安装了JDK:java-version如果返回了Java的版本信息,则表示已经安装了JDK。如果没有安装,请根据您使用的Linux发行版,安装相应的JDK。下载和解压Hadoop:前往ApacheHad
- Hadoop配置文件加载
sf_www
hadoophadoop大数据hdfs
1.hadoop使用org.apache.hadoop.conf.Configuration类来加载配置文件2.一般我们在写客户端程序等需要连接hadoop集群时,需要自己准备好core-site.xml和hdfs-site.xml文件,然后使用Configuration类的addResource(xxx)方法来加载以上两个配置文件,下面就来解析下,假如自己不主动加载以上两个配置文件时,Confi
- Hive数据导出的四种方法
冬瓜的编程笔记
大数据hivehadoop数据仓库
hive数据仓库有多种数据导出方法,我在本篇文章中介绍下面的四种方法供大家参考:Insert语句导出、Hadoop命令导出、Hiveshell命令导出、Export语句导出。一、Insert语句导出语法格式Hive支持将select查询的结果导出成文件存放在文件系统中。语法格式如下;注意:导出操作是一个OVERWRITE覆盖操作,慎重。目录可以是完整的URI。Hive使用hadoop配置变量fs.
- 任务5:安装并配置Hadoop
Dija-bl
hadoop大数据分布式
任务描述知识点:掌握Hadoop集群的搭建重点:掌握Linux基础命令在Linux系统下使用命令安装Hadoop集群内容:安装配置Hadoop集群配置Hadoop环境变量修改Hadoop配置文件部署Hadoop集群任务指导Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。任务主要内容:下载
- (十八)大数据学习之HA
Movle
HA专题一.保证服务器时间相同date-s2019-04-21把所有机器时间设置成00:00:00二.HadoopHA1.HDFSHA/usr/local/hadoop-2.8.4/etc/hadoop下是所有hadoop配置文件-------core-site.xml------------------------fs.defaultFShdfs://myclusterha.zookeeper.
- 【spark】基于Spark的电影推荐系统+[详细代码及配置]
BIG*BOSS
Sparkspark
基于Spark的电影推荐系统项目架构组件版本及配置名称版本Hadoop2.8.5Hive2.1.0Spark1.6.3Kafka2.10_0.8.21MariaDB(Mysql)5.5.64Scala2.10.6Java1.8.0_25Zookeeper3.4.12Hadoop配置core-site.xml#配置两个namenode的隔离策略#sshfence方式#使用这种方式,必须实现ssh无密
- 物理机搭建hive
DIY……
hivehadoop数据仓库
一、修改Hadoop配置修改core-site.xml配置yarn-site.xml分发文件,然后重启集群二、Hive解压安装上传文件添加hive环境便量,source生效启动高可用集群,启动hive三、配置mysql元数据库检查当前系统是否安装过Mysql,如果存在就是用下列命令移除,如果不存在则忽略。(一定要做这一步)将MySQL安装包上传到/opt/software目录下,解压MySQL安装
- 【Hadoop】集群配置之主要配置文件(hadoop-env.sh、yarn-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml...)
不怕娜
hadoopxmlhdfs
Hadoop配置文件模板core-site.xmlhadoop-env.shhdfs-site.xmlyarn-env-shyarn-site.xmlmapred-site.xmlslavesHadoop配置文件模板参考官方配置文档:https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/ClusterSetu
- Docker 学习笔记
IT小学僧
dockerdocker
Docker为什么出现?开发–运维问题,环境配置是十分麻烦,每一个机器都要部署环境(Redis,Es,Hadoop)费时费力发布一个项目(jar+(RedisMysqljdkes))项目能不能都带上环境安装打包之前在服务器配置一个应用的环境RedisMysqljdkESHadoop配置超麻烦了,不能够跨平台Docker给以上的问题,提出了解决方案!Docker的思想就来自集装箱聊聊dockerDo
- 在自己电脑配置cdh 版 hadoop 提交mr job客户端
Helen_Cat
image.png1.首先下载与我们cdhhadoop集群对应的hadoop安装文件hadoop-2.6.0-cdh5.14.2.tar.gz链接:https://pan.baidu.com/s/1iHm5M-gGZRWLKbzVjbYJmA密码:q9nv2.hadoop解压到自己本地电脑上mac/optwindowD盘3.将测试服务器的hadoop的配置文件复制到自己的hadoop配置文件目录4
- Windows下安装hadoop
ElegantCodingWH
#Hadoophadoopjava大数据
文章目录1.第一步:下载安装包2.第二步:解压下载的压缩包3.第三步:为hadoop配置环境变量4.第四步:验证是否安装成功5.如果还不能成功,则看看用户名是否含有空格或特殊符号1.第一步:下载安装包到官网去下载安装包:https://archive.apache.org/dist/hadoop/common/2.第二步:解压下载的压缩包最好是以管理员身份运行cmd,进入到压缩文件所在目录,然后用
- Hadoop Single Node Cluster的安装
艾醒(AiXing-w)
hadoophadoop大数据分布式
HadoopSingleNodeCluster的安装安装JDK查看java-version更新本地软件包安装JDK查看java安装位置设置SSH无密码登录安装hadoop下载安装设置hadoop环境变量修改hadoop配置设置文件设置core-site.xml设置YARN-site.xml设置mapred-site.xml设置HDFS分布式文件系统创建并格式化HDFS目录启动hadoop打开had
- Scala-初学
Logan_addoil
大数据学习之旅scala开发语言后端
前提,已经安装好Scala在Linux终端准备资料:a.txt内容HIVE底层是hdfs和mapreduce实现存储和计算的。HIVE也可以使用hadoop配置的压缩方法对中间结果或最终数据进行压缩1importscala.io.Sourcescala>vallines=Source.fromFile(“/usr/local/src/test_data/a.txt”).getLines()line
- 1-Hadoop原理与技术
阿伊同学
hadoop大数据分布式
单选题题目1:安装Hadoop集群时,是在哪个文件指定哪些机器作为集群的从机?选项:AdatanodeBslavesCyarn-site.xmlDcore-site.xml答案:B------------------------------题目2:Hadoop配置文件所在目录是哪个?选项:A/etc/hostsB/etc/hadoopC$HADOOP_HOME/confD$HADOOP_HOME/
- Ubuntu安装hadoop并做单机测试
MA木易YA
1.配置jdk见前文2.下载解压hadoop这里以2.7.7版本为例,将文件剪切到/usr/local里面并更改名字为hadoop方便后续配置#解压sudotar-zxvfhadoop-2.7.7.tar.gz#更名sudomvhadoop-2.7.7.tar.gzhadoop3.为hadoop配置jdk版本呢设置hadoop目录下的env文件,hadoop/etc/hadoop-env.sh文件
- 大数据基础设施搭建 - Sqoop
m0_46218511
大数据基础设施搭建大数据sqoop
文章目录一、上传压缩包二、解压压缩包三、配置环境变量(TODO)四、修改配置文件五、拷贝MySQL驱动六、测试能否连接数据库七、importMySQLtoHDFS一、上传压缩包官网:http://mirrors.hust.edu.cn/apache/sqoop/1.4.6/简介:Hadoop和关系数据库之间传输数据部署节点:在Hadoop集群的任意节点部署都可以,因为Hadoop配置文件中指出了N
- flink写入带kerberos认证的kudu connector
重生之我在异世界打工
flinkflink
文章目录前言一、介绍二、先来看kudujavaapi认证kerberos1.首先需要进行kerberos的验证(需要将相应用户的keytab文件引入本地)2.依赖3.引入hadoop配置文件4.获取客户端5.增删改查三、修改flink-kuduconnector支持kerberos1.先从github下载源码2.修改四、修改后的代码分享前言找了半天网上一点资料都没有,还是得靠自己。一、介绍flin
- HDFS概述
~chun
数据
文章目录一、HDFS概述1.什么是HDFS2.HDFS基本架构3.搭建[HDFS]4.安装hadoop5.hadoop配置文件的配置etc/hadoop6.namenode的格式化7.启动hadoop守护进程8.测试验证安装成果9.HadoopHDFS运行过程中的错误分析#10、HDFS的client访问11.指定Hadoop的启停脚本二、NameNode的持久化(persistent)1.FSI
- spark on yarn模式安装部署
乖乖猪001
大数据spark
配置spark之前,请自行部署Hadoop2.7.2,JDK1.8,ssh免密码登录等准备工作。1)修改hadoop配置文件yarn-site.xml,添加如下内容:[root@mzz11opt]$viyarn-site.xmlyarn.nodemanager.pmem-check-enabledfalseyarn.nodemanager.vmem-check-enabledfalse2)修改sp
- 搭建Spark伪分布式
jzy2024
spark分布式hadoop
文章目录零、本讲学习目标一、搭建伪分布式Hadoop(一)登录ied虚拟机(二)配置免密登录1、在ied虚拟机上生成密钥对2、将生成的公钥发送到本机3、验证虚拟机是否能免密登录本机(三)下载与Spark版本匹配的Hadoop安装包(四)上传Hadoop安装包(五)将Hadoop安装包解压到指定目录(六)查看Hadoop目录1、查看Hadoop安装目录2、查看Hadoop配置目录3、查看sbin子目
- [黑洞与暗粒子]没有光的世界
comsci
无论是相对论还是其它现代物理学,都显然有个缺陷,那就是必须有光才能够计算
但是,我相信,在我们的世界和宇宙平面中,肯定存在没有光的世界....
那么,在没有光的世界,光子和其它粒子的规律无法被应用和考察,那么以光速为核心的
&nbs
- jQuery Lazy Load 图片延迟加载
aijuans
jquery
基于 jQuery 的图片延迟加载插件,在用户滚动页面到图片之后才进行加载。
对于有较多的图片的网页,使用图片延迟加载,能有效的提高页面加载速度。
版本:
jQuery v1.4.4+
jQuery Lazy Load v1.7.2
注意事项:
需要真正实现图片延迟加载,必须将真实图片地址写在 data-original 属性中。若 src
- 使用Jodd的优点
Kai_Ge
jodd
1. 简化和统一 controller ,抛弃 extends SimpleFormController ,统一使用 implements Controller 的方式。
2. 简化 JSP 页面的 bind, 不需要一个字段一个字段的绑定。
3. 对 bean 没有任何要求,可以使用任意的 bean 做为 formBean。
使用方法简介
- jpa Query转hibernate Query
120153216
Hibernate
public List<Map> getMapList(String hql,
Map map) {
org.hibernate.Query jpaQuery = entityManager.createQuery(hql);
if (null != map) {
for (String parameter : map.keySet()) {
jp
- Django_Python3添加MySQL/MariaDB支持
2002wmj
mariaDB
现状
首先,
[email protected] 中默认的引擎为 django.db.backends.mysql 。但是在Python3中如果这样写的话,会发现 django.db.backends.mysql 依赖 MySQLdb[5] ,而 MySQLdb 又不兼容 Python3 于是要找一种新的方式来继续使用MySQL。 MySQL官方的方案
首先据MySQL文档[3]说,自从MySQL
- 在SQLSERVER中查找消耗IO最多的SQL
357029540
SQL Server
返回做IO数目最多的50条语句以及它们的执行计划。
select top 50
(total_logical_reads/execution_count) as avg_logical_reads,
(total_logical_writes/execution_count) as avg_logical_writes,
(tot
- spring UnChecked 异常 官方定义!
7454103
spring
如果你接触过spring的 事物管理!那么你必须明白 spring的 非捕获异常! 即 unchecked 异常! 因为 spring 默认这类异常事物自动回滚!!
public static boolean isCheckedException(Throwable ex)
{
return !(ex instanceof RuntimeExcep
- mongoDB 入门指南、示例
adminjun
javamongodb操作
一、准备工作
1、 下载mongoDB
下载地址:http://www.mongodb.org/downloads
选择合适你的版本
相关文档:http://www.mongodb.org/display/DOCS/Tutorial
2、 安装mongoDB
A、 不解压模式:
将下载下来的mongoDB-xxx.zip打开,找到bin目录,运行mongod.exe就可以启动服务,默
- CUDA 5 Release Candidate Now Available
aijuans
CUDA
The CUDA 5 Release Candidate is now available at http://developer.nvidia.com/<wbr></wbr>cuda/cuda-pre-production. Now applicable to a broader set of algorithms, CUDA 5 has advanced fe
- Essential Studio for WinRT网格控件测评
Axiba
JavaScripthtml5
Essential Studio for WinRT界面控件包含了商业平板应用程序开发中所需的所有控件,如市场上运行速度最快的grid 和chart、地图、RDL报表查看器、丰富的文本查看器及图表等等。同时,该控件还包含了一组独特的库,用于从WinRT应用程序中生成Excel、Word以及PDF格式的文件。此文将对其另外一个强大的控件——网格控件进行专门的测评详述。
网格控件功能
1、
- java 获取windows系统安装的证书或证书链
bewithme
windows
有时需要获取windows系统安装的证书或证书链,比如说你要通过证书来创建java的密钥库 。
有关证书链的解释可以查看此处 。
public static void main(String[] args) {
SunMSCAPI providerMSCAPI = new SunMSCAPI();
S
- NoSQL数据库之Redis数据库管理(set类型和zset类型)
bijian1013
redis数据库NoSQL
4.sets类型
Set是集合,它是string类型的无序集合。set是通过hash table实现的,添加、删除和查找的复杂度都是O(1)。对集合我们可以取并集、交集、差集。通过这些操作我们可以实现sns中的好友推荐和blog的tag功能。
sadd:向名称为key的set中添加元
- 异常捕获何时用Exception,何时用Throwable
bingyingao
用Exception的情况
try {
//可能发生空指针、数组溢出等异常
} catch (Exception e) {
 
- 【Kafka四】Kakfa伪分布式安装
bit1129
kafka
在http://bit1129.iteye.com/blog/2174791一文中,实现了单Kafka服务器的安装,在Kafka中,每个Kafka服务器称为一个broker。本文简单介绍下,在单机环境下Kafka的伪分布式安装和测试验证 1. 安装步骤
Kafka伪分布式安装的思路跟Zookeeper的伪分布式安装思路完全一样,不过比Zookeeper稍微简单些(不
- Project Euler
bookjovi
haskell
Project Euler是个数学问题求解网站,网站设计的很有意思,有很多problem,在未提交正确答案前不能查看problem的overview,也不能查看关于problem的discussion thread,只能看到现在problem已经被多少人解决了,人数越多往往代表问题越容易。
看看problem 1吧:
Add all the natural num
- Java-Collections Framework学习与总结-ArrayDeque
BrokenDreams
Collections
表、栈和队列是三种基本的数据结构,前面总结的ArrayList和LinkedList可以作为任意一种数据结构来使用,当然由于实现方式的不同,操作的效率也会不同。
这篇要看一下java.util.ArrayDeque。从命名上看
- 读《研磨设计模式》-代码笔记-装饰模式-Decorator
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
import java.io.BufferedOutputStream;
import java.io.DataOutputStream;
import java.io.FileOutputStream;
import java.io.Fi
- Maven学习(一)
chenyu19891124
Maven私服
学习一门技术和工具总得花费一段时间,5月底6月初自己学习了一些工具,maven+Hudson+nexus的搭建,对于maven以前只是听说,顺便再自己的电脑上搭建了一个maven环境,但是完全不了解maven这一强大的构建工具,还有ant也是一个构建工具,但ant就没有maven那么的简单方便,其实简单点说maven是一个运用命令行就能完成构建,测试,打包,发布一系列功
- [原创]JWFD工作流引擎设计----节点匹配搜索算法(用于初步解决条件异步汇聚问题) 补充
comsci
算法工作PHP搜索引擎嵌入式
本文主要介绍在JWFD工作流引擎设计中遇到的一个实际问题的解决方案,请参考我的博文"带条件选择的并行汇聚路由问题"中图例A2描述的情况(http://comsci.iteye.com/blog/339756),我现在把我对图例A2的一个解决方案公布出来,请大家多指点
节点匹配搜索算法(用于解决标准对称流程图条件汇聚点运行控制参数的算法)
需要解决的问题:已知分支
- Linux中用shell获取昨天、明天或多天前的日期
daizj
linuxshell上几年昨天获取上几个月
在Linux中可以通过date命令获取昨天、明天、上个月、下个月、上一年和下一年
# 获取昨天
date -d 'yesterday' # 或 date -d 'last day'
# 获取明天
date -d 'tomorrow' # 或 date -d 'next day'
# 获取上个月
date -d 'last month'
#
- 我所理解的云计算
dongwei_6688
云计算
在刚开始接触到一个概念时,人们往往都会去探寻这个概念的含义,以达到对其有一个感性的认知,在Wikipedia上关于“云计算”是这么定义的,它说:
Cloud computing is a phrase used to describe a variety of computing co
- YII CMenu配置
dcj3sjt126com
yii
Adding id and class names to CMenu
We use the id and htmlOptions to accomplish this. Watch.
//in your view
$this->widget('zii.widgets.CMenu', array(
'id'=>'myMenu',
'items'=>$this-&g
- 设计模式之静态代理与动态代理
come_for_dream
设计模式
静态代理与动态代理
代理模式是java开发中用到的相对比较多的设计模式,其中的思想就是主业务和相关业务分离。所谓的代理设计就是指由一个代理主题来操作真实主题,真实主题执行具体的业务操作,而代理主题负责其他相关业务的处理。比如我们在进行删除操作的时候需要检验一下用户是否登陆,我们可以删除看成主业务,而把检验用户是否登陆看成其相关业务
- 【转】理解Javascript 系列
gcc2ge
JavaScript
理解Javascript_13_执行模型详解
摘要: 在《理解Javascript_12_执行模型浅析》一文中,我们初步的了解了执行上下文与作用域的概念,那么这一篇将深入分析执行上下文的构建过程,了解执行上下文、函数对象、作用域三者之间的关系。函数执行环境简单的代码:当调用say方法时,第一步是创建其执行环境,在创建执行环境的过程中,会按照定义的先后顺序完成一系列操作:1.首先会创建一个
- Subsets II
hcx2013
set
Given a collection of integers that might contain duplicates, nums, return all possible subsets.
Note:
Elements in a subset must be in non-descending order.
The solution set must not conta
- Spring4.1新特性——Spring缓存框架增强
jinnianshilongnian
spring4
目录
Spring4.1新特性——综述
Spring4.1新特性——Spring核心部分及其他
Spring4.1新特性——Spring缓存框架增强
Spring4.1新特性——异步调用和事件机制的异常处理
Spring4.1新特性——数据库集成测试脚本初始化
Spring4.1新特性——Spring MVC增强
Spring4.1新特性——页面自动化测试框架Spring MVC T
- shell嵌套expect执行命令
liyonghui160com
一直都想把expect的操作写到bash脚本里,这样就不用我再写两个脚本来执行了,搞了一下午终于有点小成就,给大家看看吧.
系统:centos 5.x
1.先安装expect
yum -y install expect
2.脚本内容:
cat auto_svn.sh
#!/bin/bash
- Linux实用命令整理
pda158
linux
0. 基本命令 linux 基本命令整理
1. 压缩 解压 tar -zcvf a.tar.gz a #把a压缩成a.tar.gz tar -zxvf a.tar.gz #把a.tar.gz解压成a
2. vim小结 2.1 vim替换 :m,ns/word_1/word_2/gc  
- 独立开发人员通向成功的29个小贴士
shoothao
独立开发
概述:本文收集了关于独立开发人员通向成功需要注意的一些东西,对于具体的每个贴士的注解有兴趣的朋友可以查看下面标注的原文地址。
明白你从事独立开发的原因和目的。
保持坚持制定计划的好习惯。
万事开头难,第一份订单是关键。
培养多元化业务技能。
提供卓越的服务和品质。
谨小慎微。
营销是必备技能。
学会组织,有条理的工作才是最有效率的。
“独立
- JAVA中堆栈和内存分配原理
uule
java
1、栈、堆
1.寄存器:最快的存储区, 由编译器根据需求进行分配,我们在程序中无法控制.2. 栈:存放基本类型的变量数据和对象的引用,但对象本身不存放在栈中,而是存放在堆(new 出来的对象)或者常量池中(字符串常量对象存放在常量池中。)3. 堆:存放所有new出来的对象。4. 静态域:存放静态成员(static定义的)5. 常量池:存放字符串常量和基本类型常量(public static f