- HDFS相关API操作
欲无缘
大数据hdfshadoop大数据
文章目录API文档环境配置API操作准备工作创建文件夹文件上传文件下载文件删除文件的更名和移动获取文件详细信息API文档HDFSAPI官方文档:https://hadoop.apache.org/docs/r3.3.1/api/index.html环境配置将Hadoop的Jar包解压到非中文路径(例如D:\hadoop\hadoop-2.7.2)配置HADOOP_HOME环境变量配置Path环境变
- 【精】彻底理解HDFS写文件流程
小北觅
本文包含如下内容:①Pipeline的建立过程,以及下游节点如何给上游节点发Ack②DFSOutputStream、DataStreamer的原理③Sender、BlockReceiver、PacketResponder的原理作为引子,先从最上游谈起:我们使用HDFSAPI创建文件,写文件时,首先会调用FileSystem的create方法,获得一个FSDataOutputStream流,然后通过
- 21、MapReduce读写SequenceFile、MapFile、ORCFile和ParquetFile文件
一瓢一瓢的饮 alanchan
#hadoop专栏mapreducehadoophdfs大数据bigdata
Hadoop系列文章目录1、hadoop3.1.4简单介绍及部署、简单验证2、HDFS操作-shell客户端3、HDFS的使用(读写、上传、下载、遍历、查找文件、整个目录拷贝、只拷贝文件、列出文件夹下文件、删除文件及目录、获取文件及文件夹属性等)-java4、HDFS-java操作类HDFSUtil及junit测试(HDFS的常见操作以及HA环境的配置)5、HDFSAPI的RESTful风格–We
- Java API 操作HDFS文件
一个努力进步的小白
javahdfs大数据
使用JavaAPI操作hdfs文件的常用操作代码1.创建目录@Testpublicvoidmkdir()throwsException{fileSystem.mkdir(newPath("/hdfsapi/test"));}2.创建文件@Testpublicvoidcreate()throwsException{FSDataOutputStreamoutput=fileSystem.crea
- 18、MapReduce的计数器与通过MapReduce读取/写入数据库示例
一瓢一瓢的饮 alanchan
#hadoop专栏mapreduce数据库hadoop大数据bigdata
Hadoop系列文章目录1、hadoop3.1.4简单介绍及部署、简单验证2、HDFS操作-shell客户端3、HDFS的使用(读写、上传、下载、遍历、查找文件、整个目录拷贝、只拷贝文件、列出文件夹下文件、删除文件及目录、获取文件及文件夹属性等)-java4、HDFS-java操作类HDFSUtil及junit测试(HDFS的常见操作以及HA环境的配置)5、HDFSAPI的RESTful风格–We
- 20、MapReduce 工作流介绍
一瓢一瓢的饮 alanchan
#hadoop专栏mapreducehadoop大数据bigdata分布式
Hadoop系列文章目录1、hadoop3.1.4简单介绍及部署、简单验证2、HDFS操作-shell客户端3、HDFS的使用(读写、上传、下载、遍历、查找文件、整个目录拷贝、只拷贝文件、列出文件夹下文件、删除文件及目录、获取文件及文件夹属性等)-java4、HDFS-java操作类HDFSUtil及junit测试(HDFS的常见操作以及HA环境的配置)5、HDFSAPI的RESTful风格–We
- HDFS API编程:第一个应用程序的开发:创建一个目录
糯米君_
大数据hdfshadoop大数据java
使用javaapi操作HDFS文件系统创建一个目录:1)创建Configuration2)获取FileSystem3)一系列HDFSAPI操作packagecom.haglife.bigdata.hadoop.hdfs;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.FileSystem;importorg
- Hadoop 系列(七)—— HDFS Java API
heibaiying
一、简介想要使用HDFSAPI,需要导入依赖hadoop-client。如果是CDH版本的Hadoop,还需要额外指明其仓库地址:4.0.0com.heibaiyinghdfs-java-api1.0UTF-82.6.0-cdh5.15.2clouderahttps://repository.cloudera.com/artifactory/cloudera-repos/org.apache.ha
- HDFS Java API
shangjg3
大数据计算引擎Hadoophdfsjavahadoop大数据
本文代码链接:https://download.csdn.net/download/shangjg03/884374401.简介想要使用HDFSAPI,需要导入依赖`hadoop-client`。如果是CDH版本的Hadoop,还需要额外指明其仓库地址:<?xmlversion="1.0"encoding="UTF-8"?</
- (超详细)HDFS常用命令及HDFS API基础编程
IT路上的军哥
大数据学习之路hadoopbigdata
HDFS常用命令及基础编程JunLeon——gobigorgohome目录HDFS常用命令及基础编程一、HDFS概述1、什么是HDFS?2、HDFS数据存储模式——数据块(block)3、HDFS的副本存放策略及机架感知(1)副本存放策略:(2)机架感知:4、HDFS的读写过程(1)读流程:(2)写流程:二、HDFS常用命令1、Hadoop命令2、HDFS常用命令3、安全模式三、HDFSAPI基础
- pyspark 检测任务输出目录是否空,避免读取报错
三劫散仙
HadoopJavapythonpythonjavahadoophdfs
前言在跑调度任务时候,有时候子任务需要依赖前置任务的输出,但类似读取Parquet或者Orc文件时,如果不判断目录是否为空,在输出为空时会报错,所以需要check一下,此外Hadoop通常在写入数据时会在目录中生成一个名为_SUCCESS的文件来表示写入操作已成功完成,我们在检测时要排除这个文件HDFSAPI判断frompy4j.java_gatewayimportjava_importfromp
- Hadoop NameNode执行命令工作流程
lastembryoXX
javahadoop
HadoopNameNode执行命令工作流程客户端API或者CLI与NameNode的交互命令数据的格式(1)预处理流程(2)创建NameNode与NameNodePrcServer流程(3)HDFSAPI以及CLI的命令到NameNode的工作执行流程(4)执行命令的参数流动客户端API或者CLI与NameNode的交互命令数据的格式hadoop使用PB协议(protocolbuffer)来传输
- hdfs的JavaAPI操作
LMY~~
hadoop大数据java
hdfs的JavaAPI操作一、在window下安装hadoop-(一)安装-(二)配置环境变量二、hdfs的JavaAPI操作1.常用类2.HDFSAPI开发的步骤(1)在HDFS上创建文件夹(2)在HDFS上传文件(3)从HDFS下载文件(4)重命名文件(5)删除文件一、在window下安装hadoop-(一)安装1.下载hadoop安装包2.解压hadoop安装包放到一个文件夹中3.将文件h
- 13、HDFS Snapshot快照
一瓢一瓢的饮 alanchan
#hadoop专栏hdfshadoop大数据bigdata分布式
Hadoop系列文章目录1、hadoop3.1.4简单介绍及部署、简单验证2、HDFS操作-shell客户端3、HDFS的使用(读写、上传、下载、遍历、查找文件、整个目录拷贝、只拷贝文件、列出文件夹下文件、删除文件及目录、获取文件及文件夹属性等)-java4、HDFS-java操作类HDFSUtil及junit测试(HDFS的常见操作以及HA环境的配置)5、HDFSAPI的RESTful风格–We
- 大数据面试总结《九》
豆浆~油条
大数据面试大数据面试总结
上午去明略数据,面试官一直不到,有个临时的面试官先面了一次:1hdfsapi新特性2java7新特性3hive的默认分隔符4eclipse版本号之后正式面试官面试:1shell脚本sort,uniq-u,uniq-t,uniq-d,cat组合使用,解决从不同文件中找出相同数据的问题,还有解决只在一个文件中出现的数据的问题2java实现上述功能,在TB级别数据情况下,实现方案3java实现取出两个文
- 大数据面试总结《八》
豆浆~油条
大数据面试大数据面试面试总结
今天面了一家,上午两个小时技术面,下午两个小时hr面试问题如下:1jvm调优2redis工作原理LRU算法3hive原理,优化4线程同步5ha原理6mr数据倾斜解决办法7hive数据倾斜优化8远程通信技术9hdfs文件创建–工作流程10hbase部署11hdfs异步读12hdfsapi源码解答:文件创建工作流程13hive执行sql时的工作流程14webservice生命周期15对spring的理
- 3、HDFS的使用(读写、上传、下载、遍历、查找文件、整个目录拷贝、只拷贝文件、列出文件夹下文件、删除文件及目录、获取文件及文件夹属性等)-java
一瓢一瓢的饮 alanchan
#hadoop专栏hdfsjavahadoopmapreduce大数据
Hadoop系列文章目录1、hadoop3.1.4简单介绍及部署、简单验证2、HDFS操作-shell客户端3、HDFS的使用(读写、上传、下载、遍历、查找文件、整个目录拷贝、只拷贝文件、列出文件夹下文件、删除文件及目录、获取文件及文件夹属性等)-java4、HDFS-java操作类HDFSUtil及junit测试(HDFS的常见操作以及HA环境的配置)5、HDFSAPI的RESTful风格–We
- 10、HDFS小文件解决方案--Archive
一瓢一瓢的饮 alanchan
#hadoop专栏hdfshadoop大数据bigdatamapreduce
Hadoop系列文章目录1、hadoop3.1.4简单介绍及部署、简单验证2、HDFS操作-shell客户端3、HDFS的使用(读写、上传、下载、遍历、查找文件、整个目录拷贝、只拷贝文件、列出文件夹下文件、删除文件及目录、获取文件及文件夹属性等)-java4、HDFS-java操作类HDFSUtil及junit测试(HDFS的常见操作以及HA环境的配置)5、HDFSAPI的RESTful风格–We
- 9、hadoop高可用HA集群部署及三种方式验证
一瓢一瓢的饮 alanchan
#hadoop专栏hadoophdfs大数据bigdata分布式
Hadoop系列文章目录1、hadoop3.1.4简单介绍及部署、简单验证2、HDFS操作-shell客户端3、HDFS的使用(读写、上传、下载、遍历、查找文件、整个目录拷贝、只拷贝文件、列出文件夹下文件、删除文件及目录、获取文件及文件夹属性等)-java4、HDFS-java操作类HDFSUtil及junit测试(HDFS的常见操作以及HA环境的配置)5、HDFSAPI的RESTful风格–We
- 16、MapReduce的基本用法示例-自定义序列化、排序、分区、分组和topN
一瓢一瓢的饮 alanchan
#hadoop专栏mapreducehadoop大数据bigdata分布式
Hadoop系列文章目录1、hadoop3.1.4简单介绍及部署、简单验证2、HDFS操作-shell客户端3、HDFS的使用(读写、上传、下载、遍历、查找文件、整个目录拷贝、只拷贝文件、列出文件夹下文件、删除文件及目录、获取文件及文件夹属性等)-java4、HDFS-java操作类HDFSUtil及junit测试(HDFS的常见操作以及HA环境的配置)5、HDFSAPI的RESTful风格–We
- 23、hadoop集群中yarn运行mapreduce的内存、CPU分配调度计算与优化
一瓢一瓢的饮 alanchan
#hadoop专栏hadoopmapreduce大数据性能优化bigdata
Hadoop系列文章目录1、hadoop3.1.4简单介绍及部署、简单验证2、HDFS操作-shell客户端3、HDFS的使用(读写、上传、下载、遍历、查找文件、整个目录拷贝、只拷贝文件、列出文件夹下文件、删除文件及目录、获取文件及文件夹属性等)-java4、HDFS-java操作类HDFSUtil及junit测试(HDFS的常见操作以及HA环境的配置)5、HDFSAPI的RESTful风格–We
- 1、hadoop3.1.4简单介绍及部署、简单验证
一瓢一瓢的饮 alanchan
#hadoop专栏hadoop大数据bigdatahdfsmapreduce
Hadoop系列文章目录1、hadoop3.1.4简单介绍及部署、简单验证2、HDFS操作-shell客户端3、HDFS的使用(读写、上传、下载、遍历、查找文件、整个目录拷贝、只拷贝文件、列出文件夹下文件、删除文件及目录、获取文件及文件夹属性等)-java4、HDFS-java操作类HDFSUtil及junit测试(HDFS的常见操作以及HA环境的配置)5、HDFSAPI的RESTful风格–We
- 【大数据之路2】分布式文件系统 HDFS
程序员胖五
大数据大数据hdfs分布式hadoop
2.分布式文件系统HDFS1.引入HDFS【面试点】2.HDFS概述1.HDFS设计思路2.HDFS架构3.HDFS优缺点3.HDFS操作HDFS读写基准测试1.HDFSShell操作【重点】2.HDFSAPI操作1.访问数据1.获取FileSystem2.文件的遍历3.创建文件夹4.文件的上传5.文件的下载2.合并小文件1.合并小文件上传2.合并小文件下载4.HDFS原理1.HDFS的启动流程【
- Hadoop Java API
大雄的学习笔记
获取HDFS客户端对象Configurationconfiguration=newConfiguration();//构造一个访问指定HDFS的客户端对象FileSystemfileSystem=FileSystem.get(newURI("hdfs://hadoop000:8020"),configuration,"hadoop");创建文件夹Pathpath=newPath("/hdfsapi
- 大数据 | 实验一:大数据系统基本实验 | 熟悉常用的HDFS操作
啦啦右一
大数据管理与分析hdfs大数据hadoop
文章目录实验目的实验平台实验内容⭐️HDFSApi⭐️HDFSApi2⭐️HDFSApi3⭐️HDFSApi4⭐️HDFSApi5⭐️HDFSApi6⭐️HDFSApi7⭐️HDFSApi8⭐️HDFSApi9⭐️HDFSApi10实验目的1)理解HDFS在Hadoop体系结构中的角色。2)熟练使用HDFS操作常用的shell命令。3)熟悉HDFS操作常用的JavaAPI。实验平台1)操作系统:L
- Hadoop HDFS 概述 | 优缺点 | 组成架构 | 文件块大小
lesileqin
大数据学习笔记Hadoop分布式大数据hadoophdfs数据块
HDFS是Hadoop的分布式文件系统,负责海量数据的存取HDFS系列文章请参考:一、HDFS概述|优缺点|组成架构|文件块大小二、HDFS常用Shell命令|图文详解三、HDFS搭建客户端API环境|图文详解|提供依赖下载连接四、HDFSAPI操作图文详解及参数解读五、HDFS读写流程|图文详解六、HDFS|NameNode和SecondaryNameNode的工作机制七、HDFS|DataNo
- HDFSAPI编程源码-文件删除
qq_58392257
hadoophdfs大数据
理解HDFSJavaAPI编程原理;掌握HDFS的命令;掌握Elipse远程调试Hadoop程序的方法;掌握HDFS基本的API调用方法删除传入的路径下的指定的文件packagehdfsapi;importjava.io.IOException;importjava.net.URI;importorg.apache.hadoop.conf.Configuration;importorg.apach
- HDFSAPI编程源码-文件创建操作
qq_58392257
hadoophdfsjava
首先获取文件配置//获得文件系统对象,由于只有root用户才有写权限,因此用root用户去获取文件系统对象创建一个txt文件,再使用IO流写入数据最后再关闭packagehdfsapi;importjava.io.BufferedWriter;importjava.io.IOException;importjava.io.OutputStreamWriter;importjava.net.URI;
- HDFSAPI编程源码-文件写入
qq_58392257
hadoophdfsjava
理解HDFSJavaAPI编程原理;掌握HDFS的命令;掌握Elipse远程调试Hadoop程序的方法;掌握HDFS基本的API调用方法通过调用JavaAPI实现对HDFS的文件系统的操作将fout中的文本内容写入fin路径下的文件中packagehdfsapi;importjava.io.BufferedReader;importjava.io.BufferedWriter;importjava
- hadoop hdfs存储原理
Aidon-东哥博客
大数据hadoophdfs存储原理hdfs存储原理hdfs的底层存储原理
来源url:http://www.36dsj.com/archives/41391根据ManeeshVarshney的漫画改编,以简洁易懂的漫画形式讲解HDFS存储机制与运行原理。一、角色出演如上图所示,HDFS存储相关角色与功能如下:Client:客户端,系统使用者,调用HDFSAPI操作文件;与NN交互获取文件元数据;与DN交互进行数据读写。Namenode:元数据节点,是系统唯一的管理者。负
- 关于旗正规则引擎下载页面需要弹窗保存到本地目录的问题
何必如此
jsp超链接文件下载窗口
生成下载页面是需要选择“录入提交页面”,生成之后默认的下载页面<a>标签超链接为:<a href="<%=root_stimage%>stimage/image.jsp?filename=<%=strfile234%>&attachname=<%=java.net.URLEncoder.encode(file234filesourc
- 【Spark九十八】Standalone Cluster Mode下的资源调度源代码分析
bit1129
cluster
在分析源代码之前,首先对Standalone Cluster Mode的资源调度有一个基本的认识:
首先,运行一个Application需要Driver进程和一组Executor进程。在Standalone Cluster Mode下,Driver和Executor都是在Master的监护下给Worker发消息创建(Driver进程和Executor进程都需要分配内存和CPU,这就需要Maste
- linux上独立安装部署spark
daizj
linux安装spark1.4部署
下面讲一下linux上安装spark,以 Standalone Mode 安装
1)首先安装JDK
下载JDK:jdk-7u79-linux-x64.tar.gz ,版本是1.7以上都行,解压 tar -zxvf jdk-7u79-linux-x64.tar.gz
然后配置 ~/.bashrc&nb
- Java 字节码之解析一
周凡杨
java字节码javap
一: Java 字节代码的组织形式
类文件 {
OxCAFEBABE ,小版本号,大版本号,常量池大小,常量池数组,访问控制标记,当前类信息,父类信息,实现的接口个数,实现的接口信息数组,域个数,域信息数组,方法个数,方法信息数组,属性个数,属性信息数组
}
&nbs
- java各种小工具代码
g21121
java
1.数组转换成List
import java.util.Arrays;
Arrays.asList(Object[] obj); 2.判断一个String型是否有值
import org.springframework.util.StringUtils;
if (StringUtils.hasText(str)) 3.判断一个List是否有值
import org.spring
- 加快FineReport报表设计的几个心得体会
老A不折腾
finereport
一、从远程服务器大批量取数进行表样设计时,最好按“列顺序”取一个“空的SQL语句”,这样可提高设计速度。否则每次设计时模板均要从远程读取数据,速度相当慢!!
二、找一个富文本编辑软件(如NOTEPAD+)编辑SQL语句,这样会很好地检查语法。有时候带参数较多检查语法复杂时,结合FineReport中生成的日志,再找一个第三方数据库访问软件(如PL/SQL)进行数据检索,可以很快定位语法错误。
- mysql linux启动与停止
墙头上一根草
如何启动/停止/重启MySQL一、启动方式1、使用 service 启动:service mysqld start2、使用 mysqld 脚本启动:/etc/inint.d/mysqld start3、使用 safe_mysqld 启动:safe_mysqld&二、停止1、使用 service 启动:service mysqld stop2、使用 mysqld 脚本启动:/etc/inin
- Spring中事务管理浅谈
aijuans
spring事务管理
Spring中事务管理浅谈
By Tony Jiang@2012-1-20 Spring中对事务的声明式管理
拿一个XML举例
[html]
view plain
copy
print
?
<?xml version="1.0" encoding="UTF-8"?>&nb
- php中隐形字符65279(utf-8的BOM头)问题
alxw4616
php中隐形字符65279(utf-8的BOM头)问题
今天遇到一个问题. php输出JSON 前端在解析时发生问题:parsererror.
调试:
1.仔细对比字符串发现字符串拼写正确.怀疑是 非打印字符的问题.
2.逐一将字符串还原为unicode编码. 发现在字符串头的位置出现了一个 65279的非打印字符.
 
- 调用对象是否需要传递对象(初学者一定要注意这个问题)
百合不是茶
对象的传递与调用技巧
类和对象的简单的复习,在做项目的过程中有时候不知道怎样来调用类创建的对象,简单的几个类可以看清楚,一般在项目中创建十几个类往往就不知道怎么来看
为了以后能够看清楚,现在来回顾一下类和对象的创建,对象的调用和传递(前面写过一篇)
类和对象的基础概念:
JAVA中万事万物都是类 类有字段(属性),方法,嵌套类和嵌套接
- JDK1.5 AtomicLong实例
bijian1013
javathreadjava多线程AtomicLong
JDK1.5 AtomicLong实例
类 AtomicLong
可以用原子方式更新的 long 值。有关原子变量属性的描述,请参阅 java.util.concurrent.atomic 包规范。AtomicLong 可用在应用程序中(如以原子方式增加的序列号),并且不能用于替换 Long。但是,此类确实扩展了 Number,允许那些处理基于数字类的工具和实用工具进行统一访问。
 
- 自定义的RPC的Java实现
bijian1013
javarpc
网上看到纯java实现的RPC,很不错。
RPC的全名Remote Process Call,即远程过程调用。使用RPC,可以像使用本地的程序一样使用远程服务器上的程序。下面是一个简单的RPC 调用实例,从中可以看到RPC如何
- 【RPC框架Hessian一】Hessian RPC Hello World
bit1129
Hello world
什么是Hessian
The Hessian binary web service protocol makes web services usable without requiring a large framework, and without learning yet another alphabet soup of protocols. Because it is a binary p
- 【Spark九十五】Spark Shell操作Spark SQL
bit1129
shell
在Spark Shell上,通过创建HiveContext可以直接进行Hive操作
1. 操作Hive中已存在的表
[hadoop@hadoop bin]$ ./spark-shell
Spark assembly has been built with Hive, including Datanucleus jars on classpath
Welcom
- F5 往header加入客户端的ip
ronin47
when HTTP_RESPONSE {if {[HTTP::is_redirect]}{ HTTP::header replace Location [string map {:port/ /} [HTTP::header value Location]]HTTP::header replace Lo
- java-61-在数组中,数字减去它右边(注意是右边)的数字得到一个数对之差. 求所有数对之差的最大值。例如在数组{2, 4, 1, 16, 7, 5,
bylijinnan
java
思路来自:
http://zhedahht.blog.163.com/blog/static/2541117420116135376632/
写了个java版的
public class GreatestLeftRightDiff {
/**
* Q61.在数组中,数字减去它右边(注意是右边)的数字得到一个数对之差。
* 求所有数对之差的最大值。例如在数组
- mongoDB 索引
开窍的石头
mongoDB索引
在这一节中我们讲讲在mongo中如何创建索引
得到当前查询的索引信息
db.user.find(_id:12).explain();
cursor: basicCoursor 指的是没有索引
&
- [硬件和系统]迎峰度夏
comsci
系统
从这几天的气温来看,今年夏天的高温天气可能会维持在一个比较长的时间内
所以,从现在开始准备渡过炎热的夏天。。。。
每间房屋要有一个落地电风扇,一个空调(空调的功率和房间的面积有密切的关系)
坐的,躺的地方要有凉垫,床上要有凉席
电脑的机箱
- 基于ThinkPHP开发的公司官网
cuiyadll
行业系统
后端基于ThinkPHP,前端基于jQuery和BootstrapCo.MZ 企业系统
轻量级企业网站管理系统
运行环境:PHP5.3+, MySQL5.0
系统预览
系统下载:http://www.tecmz.com
预览地址:http://co.tecmz.com
各种设备自适应
响应式的网站设计能够对用户产生友好度,并且对于
- Transaction and redelivery in JMS (JMS的事务和失败消息重发机制)
darrenzhu
jms事务承认MQacknowledge
JMS Message Delivery Reliability and Acknowledgement Patterns
http://wso2.com/library/articles/2013/01/jms-message-delivery-reliability-acknowledgement-patterns/
Transaction and redelivery in
- Centos添加硬盘完全教程
dcj3sjt126com
linuxcentoshardware
Linux的硬盘识别:
sda 表示第1块SCSI硬盘
hda 表示第1块IDE硬盘
scd0 表示第1个USB光驱
一般使用“fdisk -l”命
- yii2 restful web服务路由
dcj3sjt126com
PHPyii2
路由
随着资源和控制器类准备,您可以使用URL如 http://localhost/index.php?r=user/create访问资源,类似于你可以用正常的Web应用程序做法。
在实践中,你通常要用美观的URL并采取有优势的HTTP动词。 例如,请求POST /users意味着访问user/create动作。 这可以很容易地通过配置urlManager应用程序组件来完成 如下所示
- MongoDB查询(4)——游标和分页[八]
eksliang
mongodbMongoDB游标MongoDB深分页
转载请出自出处:http://eksliang.iteye.com/blog/2177567 一、游标
数据库使用游标返回find的执行结果。客户端对游标的实现通常能够对最终结果进行有效控制,从shell中定义一个游标非常简单,就是将查询结果分配给一个变量(用var声明的变量就是局部变量),便创建了一个游标,如下所示:
> var
- Activity的四种启动模式和onNewIntent()
gundumw100
android
Android中Activity启动模式详解
在Android中每个界面都是一个Activity,切换界面操作其实是多个不同Activity之间的实例化操作。在Android中Activity的启动模式决定了Activity的启动运行方式。
Android总Activity的启动模式分为四种:
Activity启动模式设置:
<acti
- 攻城狮送女友的CSS3生日蛋糕
ini
htmlWebhtml5csscss3
在线预览:http://keleyi.com/keleyi/phtml/html5/29.htm
代码如下:
<!DOCTYPE html>
<html>
<head>
<meta charset="UTF-8">
<title>攻城狮送女友的CSS3生日蛋糕-柯乐义<
- 读源码学Servlet(1)GenericServlet 源码分析
jzinfo
tomcatWebservlet网络应用网络协议
Servlet API的核心就是javax.servlet.Servlet接口,所有的Servlet 类(抽象的或者自己写的)都必须实现这个接口。在Servlet接口中定义了5个方法,其中有3个方法是由Servlet 容器在Servlet的生命周期的不同阶段来调用的特定方法。
先看javax.servlet.servlet接口源码:
package
- JAVA进阶:VO(DTO)与PO(DAO)之间的转换
snoopy7713
javaVOHibernatepo
PO即 Persistence Object VO即 Value Object
VO和PO的主要区别在于: VO是独立的Java Object。 PO是由Hibernate纳入其实体容器(Entity Map)的对象,它代表了与数据库中某条记录对应的Hibernate实体,PO的变化在事务提交时将反应到实际数据库中。
实际上,这个VO被用作Data Transfer
- mongodb group by date 聚合查询日期 统计每天数据(信息量)
qiaolevip
每天进步一点点学习永无止境mongodb纵观千象
/* 1 */
{
"_id" : ObjectId("557ac1e2153c43c320393d9d"),
"msgType" : "text",
"sendTime" : ISODate("2015-06-12T11:26:26.000Z")
- java之18天 常用的类(一)
Luob.
MathDateSystemRuntimeRundom
System类
import java.util.Properties;
/**
* System:
* out:标准输出,默认是控制台
* in:标准输入,默认是键盘
*
* 描述系统的一些信息
* 获取系统的属性信息:Properties getProperties();
*
*
*
*/
public class Sy
- maven
wuai
maven
1、安装maven:解压缩、添加M2_HOME、添加环境变量path
2、创建maven_home文件夹,创建项目mvn_ch01,在其下面建立src、pom.xml,在src下面简历main、test、main下面建立java文件夹
3、编写类,在java文件夹下面依照类的包逐层创建文件夹,将此类放入最后一级文件夹
4、进入mvn_ch01
4.1、mvn compile ,执行后会在