- 通过Time、Window与Trigger比较Google Cloud DataFlow与Apache Flink的区别
lmalds李麦迪
Flink
本文主要通过GoogleCloudDataFlowPaper的内容与ApacheFlinkDataStream中的实现进行了基于Time、Window和Trigger的比较。众所周知,ApacheFlink最早来源于[Stratosphere]项目,DataFlow则来源于MillWheel项目,且DataFlow的实现是基于FlumeJava和MillWheel。Flink的实现也是借鉴自Mil
- FlumeJava: Easy, Efficient Data-Parallel Pipelines Abastrct
代码不会写
FlumeJava
本文主要是对《FlumeJava:Easy,EfficientData-ParallelPipelines》论文的概要总结完整论文请参考https://research.google.com/pubs/pub35650.html部分内容做了简单概要总结,如有错误请指出一、前言二、FlumeJava库2.1核心抽象2.1.1核心类PCollectionFlumeJava库的核心类是PCollecti
- flume java介绍
weixin_33877885
背景近期在做sharkflume开发框架的测试,该框架是一个简单高效的面向数据的pipeline框架,采用flumejava的思想,实现了一套flumejavaonMaxCompute的library。为了更好的了解shark自己也去阅读了flumejava的paper,这里做一些总结,主要针对flumejava的一些基本概念和思想,由此可以了解shark相较于我们已有的MaxCompute开发框
- 01 为什么 MapReduce 会被淘汰
柳年思水
为什么MR会被淘汰过去十几年,分布式系统的发展非常迅速,计算框架是其中非常耀眼的一个方向,业内比较流行的计算框架如下图所示(图片来自该专栏):大数据框架大规模数据技术的发展,可以分为三个阶段:石器时代:MR诞生之前,当时已经有了相应的需求,但还没有抽象提炼出一个系统的方法;青铜时代:MR的诞生,标志是Jeff的那篇论文;蒸汽机时代:2016Google内部已经废弃MR,开始全面FlumeJava,
- Flume
lixinxin
安装Flume1.6.0-cdh5.7.0配置环境变量exportFLUME_HOME=/root/app/apache-flume-1.6.0-cdh5.7.0-binexportPATH=$FLUME_HOME/bin:$PATH配置FlumeJAVA_HOME/root/app/apache-flume-1.6.0-cdh5.7.0-bin/conf/flume-env.shexportJA
- The Dataflow Model
data4
现状现实中的数据:无边界、乱序、超大规模数据集数据消费需求:低延迟,exactlyonce,有序(按发生时间排序),窗口(发生时间,处理时间,会话,记录数窗口)。流式计算引擎:Storm,SparkStreaming,MillWheel。批处理引擎:MapReduce,Spark,FlumeJava。现实很骨感,理想很丰满,真实的数据处理需要在以下3方面来平衡最佳实践目标输出一个模型,能够达到以下
- Apache Beam 快速入门(Python 版) | 张吉的博客
apachebeampython
ApacheBeam是一种大数据处理标准,由谷歌于2016年创建。它提供了一套统一的DSL用以处理离线和实时数据,并能在目前主流的大数据处理平台上使用,包括Spark、Flink、以及谷歌自身的商业套件Dataflow。Beam的数据模型基于过去的几项研究成果:FlumeJava、Millwheel,适用场景包括ETL、统计分析、实时计算等。目前,Beam提供了两种语言的SDK:Java、Pyth
- Apache Beam 快速入门(Python 版) | 张吉的博客
apachebeampython
ApacheBeam是一种大数据处理标准,由谷歌于2016年创建。它提供了一套统一的DSL用以处理离线和实时数据,并能在目前主流的大数据处理平台上使用,包括Spark、Flink、以及谷歌自身的商业套件Dataflow。Beam的数据模型基于过去的几项研究成果:FlumeJava、Millwheel,适用场景包括ETL、统计分析、实时计算等。目前,Beam提供了两种语言的SDK:Java、Pyth
- Apache Beam 快速入门(Python 版) | 张吉的博客
apachebeampython
ApacheBeam是一种大数据处理标准,由谷歌于2016年创建。它提供了一套统一的DSL用以处理离线和实时数据,并能在目前主流的大数据处理平台上使用,包括Spark、Flink、以及谷歌自身的商业套件Dataflow。Beam的数据模型基于过去的几项研究成果:FlumeJava、Millwheel,适用场景包括ETL、统计分析、实时计算等。目前,Beam提供了两种语言的SDK:Java、Pyth
- Apache Beam 快速入门(Python 版) | 张吉的博客
apachebeampython
ApacheBeam是一种大数据处理标准,由谷歌于2016年创建。它提供了一套统一的DSL用以处理离线和实时数据,并能在目前主流的大数据处理平台上使用,包括Spark、Flink、以及谷歌自身的商业套件Dataflow。Beam的数据模型基于过去的几项研究成果:FlumeJava、Millwheel,适用场景包括ETL、统计分析、实时计算等。目前,Beam提供了两种语言的SDK:Java、Pyth
- Apache Beam 快速入门(Python 版) | 张吉的博客
apachebeampython
ApacheBeam是一种大数据处理标准,由谷歌于2016年创建。它提供了一套统一的DSL用以处理离线和实时数据,并能在目前主流的大数据处理平台上使用,包括Spark、Flink、以及谷歌自身的商业套件Dataflow。Beam的数据模型基于过去的几项研究成果:FlumeJava、Millwheel,适用场景包括ETL、统计分析、实时计算等。目前,Beam提供了两种语言的SDK:Java、Pyth
- Apache Beam 快速入门(Python 版) | 张吉的博客
apachebeampython
ApacheBeam是一种大数据处理标准,由谷歌于2016年创建。它提供了一套统一的DSL用以处理离线和实时数据,并能在目前主流的大数据处理平台上使用,包括Spark、Flink、以及谷歌自身的商业套件Dataflow。Beam的数据模型基于过去的几项研究成果:FlumeJava、Millwheel,适用场景包括ETL、统计分析、实时计算等。目前,Beam提供了两种语言的SDK:Java、Pyth
- Apache Beam 快速入门(Python 版) | 张吉的博客
apachebeampython
ApacheBeam是一种大数据处理标准,由谷歌于2016年创建。它提供了一套统一的DSL用以处理离线和实时数据,并能在目前主流的大数据处理平台上使用,包括Spark、Flink、以及谷歌自身的商业套件Dataflow。Beam的数据模型基于过去的几项研究成果:FlumeJava、Millwheel,适用场景包括ETL、统计分析、实时计算等。目前,Beam提供了两种语言的SDK:Java、Pyth
- Apache Beam 快速入门(Python 版) | 张吉的博客
apachebeampython
ApacheBeam是一种大数据处理标准,由谷歌于2016年创建。它提供了一套统一的DSL用以处理离线和实时数据,并能在目前主流的大数据处理平台上使用,包括Spark、Flink、以及谷歌自身的商业套件Dataflow。Beam的数据模型基于过去的几项研究成果:FlumeJava、Millwheel,适用场景包括ETL、统计分析、实时计算等。目前,Beam提供了两种语言的SDK:Java、Pyth
- Apache Beam 快速入门(Python 版) | 张吉的博客
apachebeampython
ApacheBeam是一种大数据处理标准,由谷歌于2016年创建。它提供了一套统一的DSL用以处理离线和实时数据,并能在目前主流的大数据处理平台上使用,包括Spark、Flink、以及谷歌自身的商业套件Dataflow。Beam的数据模型基于过去的几项研究成果:FlumeJava、Millwheel,适用场景包括ETL、统计分析、实时计算等。目前,Beam提供了两种语言的SDK:Java、Pyth
- Apache Beam 快速入门(Python 版) | 张吉的博客
apachebeampython
ApacheBeam是一种大数据处理标准,由谷歌于2016年创建。它提供了一套统一的DSL用以处理离线和实时数据,并能在目前主流的大数据处理平台上使用,包括Spark、Flink、以及谷歌自身的商业套件Dataflow。Beam的数据模型基于过去的几项研究成果:FlumeJava、Millwheel,适用场景包括ETL、统计分析、实时计算等。目前,Beam提供了两种语言的SDK:Java、Pyth
- Apache Beam 快速入门(Python 版) | 张吉的博客
apachebeampython
ApacheBeam是一种大数据处理标准,由谷歌于2016年创建。它提供了一套统一的DSL用以处理离线和实时数据,并能在目前主流的大数据处理平台上使用,包括Spark、Flink、以及谷歌自身的商业套件Dataflow。Beam的数据模型基于过去的几项研究成果:FlumeJava、Millwheel,适用场景包括ETL、统计分析、实时计算等。目前,Beam提供了两种语言的SDK:Java、Pyth
- Apache Crunch:用于简化MapReduce编程的Java库
罗文浩
ApacheCrunch(孵化器项目)是基于Google的FlumeJava库编写的Java库,用于创建MapReduce流水线。与其他用来创建MapReduce作业的高层工具(如ApacheHive、ApachePig和Cascading等)类似,Crunch提供了用于实现如连接数据、执行聚合和排序记录等常见任务的模式库。而与其他工具不同的是,Crunch并不强制所有输入遵循同一数据类型。相反,
- 并发编程框架之FlumeJava
Flume
基于map-shffle-reduce,google的一些开发人员也实现了另外一些好用的并行计算编程框架,FlumeJava就是其中的一种。
http://faculty.neu.edu.cn/cc/zhangyf/cloud-bigdata/papers/big%20data%20programming/FlumeJava-pldi-2010.pdf
从介绍来看,FlumeJava的出发点应
- 本文摘录 - FlumeJava
Flume
本文节选不保证论文的完整性和理解的准确性
原始的MapReduce。分Map,Shuffle,Reduce。
Map里包含shards。
Shuffle理解为groupByKey的事情。Reduce里包含Combiner,能够定义Sharder来控制key怎么和Reducer worker相应起来。
核心抽象和基本原语
PCollection<T>是
- 大数据处理之-DAG计算
lesorb
Dryadhadoop
阅读更多DAG是有向无环图(DirectedAcyclicGraph)的简称。在大数据处理中,DAG计算常常指的是将计算任务在内部分解成为若干个子任务,将这些子任务之间的逻辑关系或顺序构建成DAG(有向无环图)结构。DAG在分布式计算中是非常常见的一种结构,在各个细分领域都可以看见它,比如Dryad,Flumejava和Tez,都是明确构建DAG计算模型的典型,再如流式计算的Storm等系统或机器
- 大数据处理之-DAG计算
lesorb
hadoopDryad
DAG是有向无环图(Directed Acyclic Graph)的简称。在大数据处理中,DAG计算常常指的是将计算任务在内部分解成为若干个子任务,将这些子任务之间的逻辑关系或顺序构建成DAG(有向无环图)结构。
DAG在分布式计算中是非常常见的一种结构,在各个细分领域都可以看见它,比如Dryad,Flumejava和Tez,都是明确构建DAG计算模型的典型,再如流式计算的Storm等系统或机器
- 谷歌开源Cloud Dataflow Java SDK
Abel Avram
今年早些时候,谷歌宣布了CloudDataflow,一个批量或实时处理海量数据的服务和SDK。现在,他们开源了DataflowJavaSDK,使开发人员可以看到它的实现方式,并合理使用该SDK开发运行在本地或其它云上的服务。Dataflow是一项云服务,使用了由FlumeJava和MillWheel演变而来的技术,前者是一个用于创建数据并行管道的Java库,后者是一个用于构建容错流处理应用的框架,
- 谷歌开源Cloud Dataflow Java SDK
Abel Avram
今年早些时候,谷歌宣布了CloudDataflow,一个批量或实时处理海量数据的服务和SDK。现在,他们开源了DataflowJavaSDK,使开发人员可以看到它的实现方式,并合理使用该SDK开发运行在本地或其它云上的服务。Dataflow是一项云服务,使用了由FlumeJava和MillWheel演变而来的技术,前者是一个用于创建数据并行管道的Java库,后者是一个用于构建容错流处理应用的框架,
- Apache Crunch设计:基础数据处理
zbf8441372
mapreduce分布式计算数据处理
背景ApacheCrunch是FlumeJava的实现,为不太方便直接开发和使用的MapReduce程序,开发一套MR流水线,具备数据表示模型,提供基础原语和高级原语,根据底层执行引擎对MRJob的执行进行优化。从分布式计算角度看,Crunch提供的许多计算原语,可以在Spark、Hive、Pig等地方找到很多相似之处,而本身的数据读写,序列化处理,分组、排序、聚合的实现,类似MapReduce各
- Apache Crunch:用于简化MapReduce编程的Java库
Josh Wills
ApacheCrunch(孵化器项目)是基于Google的FlumeJava库编写的Java库,用于创建MapReduce流水线。与其他用来创建MapReduce作业的高层工具(如ApacheHive、ApachePig和Cascading等)类似,Crunch提供了用于实现如连接数据、执行聚合和排序记录等常见任务的模式库。而与其他工具不同的是,Crunch并不强制所有输入遵循同一数据类型。相反,
- Apache Crunch:用于简化MapReduce编程的Java库
Josh Wills
ApacheCrunch(孵化器项目)是基于Google的FlumeJava库编写的Java库,用于创建MapReduce流水线。与其他用来创建MapReduce作业的高层工具(如ApacheHive、ApachePig和Cascading等)类似,Crunch提供了用于实现如连接数据、执行聚合和排序记录等常见任务的模式库。而与其他工具不同的是,Crunch并不强制所有输入遵循同一数据类型。相反,
- 文章: Apache Crunch:用于简化MapReduce编程的Java库
apache文章Crunch
ApacheCrunch(孵化器项目)是基于Google的FlumeJava库编写的Java库,用于创建MapReduce流水线。与其他用来创建MapReduce作业的高层工具(如ApacheHive、ApachePig和Cascading等)类似,Crunch提供了用于实现如连接数据、执行聚合和排序记录等常见任务的模式库。而与其他工具不同的是,Crunch并不强制所有输入遵循同一数据类型。相反,
- SAX解析xml文件
小猪猪08
xml
1.创建SAXParserFactory实例
2.通过SAXParserFactory对象获取SAXParser实例
3.创建一个类SAXParserHander继续DefaultHandler,并且实例化这个类
4.SAXParser实例的parse来获取文件
public static void main(String[] args) {
//
- 为什么mysql里的ibdata1文件不断的增长?
brotherlamp
linuxlinux运维linux资料linux视频linux运维自学
我们在 Percona 支持栏目经常收到关于 MySQL 的 ibdata1 文件的这个问题。
当监控服务器发送一个关于 MySQL 服务器存储的报警时,恐慌就开始了 —— 就是说磁盘快要满了。
一番调查后你意识到大多数地盘空间被 InnoDB 的共享表空间 ibdata1 使用。而你已经启用了 innodbfileper_table,所以问题是:
ibdata1存了什么?
当你启用了 i
- Quartz-quartz.properties配置
eksliang
quartz
其实Quartz JAR文件的org.quartz包下就包含了一个quartz.properties属性配置文件并提供了默认设置。如果需要调整默认配置,可以在类路径下建立一个新的quartz.properties,它将自动被Quartz加载并覆盖默认的设置。
下面是这些默认值的解释
#-----集群的配置
org.quartz.scheduler.instanceName =
- informatica session的使用
18289753290
workflowsessionlogInformatica
如果希望workflow存储最近20次的log,在session里的Config Object设置,log options做配置,save session log :sessions run ;savesessio log for these runs:20
session下面的source 里面有个tracing 
- Scrapy抓取网页时出现CRC check failed 0x471e6e9a != 0x7c07b839L的错误
酷的飞上天空
scrapy
Scrapy版本0.14.4
出现问题现象:
ERROR: Error downloading <GET http://xxxxx CRC check failed
解决方法
1.设置网络请求时的header中的属性'Accept-Encoding': '*;q=0'
明确表示不支持任何形式的压缩格式,避免程序的解压
- java Swing小集锦
永夜-极光
java swing
1.关闭窗体弹出确认对话框
1.1 this.setDefaultCloseOperation (JFrame.DO_NOTHING_ON_CLOSE);
1.2
this.addWindowListener (
new WindowAdapter () {
public void windo
- 强制删除.svn文件夹
随便小屋
java
在windows上,从别处复制的项目中可能带有.svn文件夹,手动删除太麻烦,并且每个文件夹下都有。所以写了个程序进行删除。因为.svn文件夹在windows上是只读的,所以用File中的delete()和deleteOnExist()方法都不能将其删除,所以只能采用windows命令方式进行删除
- GET和POST有什么区别?及为什么网上的多数答案都是错的。
aijuans
get post
如果有人问你,GET和POST,有什么区别?你会如何回答? 我的经历
前几天有人问我这个问题。我说GET是用于获取数据的,POST,一般用于将数据发给服务器之用。
这个答案好像并不是他想要的。于是他继续追问有没有别的区别?我说这就是个名字而已,如果服务器支持,他完全可以把G
- 谈谈新浪微博背后的那些算法
aoyouzi
谈谈新浪微博背后的那些算法
本文对微博中常见的问题的对应算法进行了简单的介绍,在实际应用中的算法比介绍的要复杂的多。当然,本文覆盖的主题并不全,比如好友推荐、热点跟踪等就没有涉及到。但古人云“窥一斑而见全豹”,希望本文的介绍能帮助大家更好的理解微博这样的社交网络应用。
微博是一个很多人都在用的社交应用。天天刷微博的人每天都会进行着这样几个操作:原创、转发、回复、阅读、关注、@等。其中,前四个是针对短博文,最后的关注和@则针
- Connection reset 连接被重置的解决方法
百合不是茶
java字符流连接被重置
流是java的核心部分,,昨天在做android服务器连接服务器的时候出了问题,就将代码放到java中执行,结果还是一样连接被重置
被重置的代码如下;
客户端代码;
package 通信软件服务器;
import java.io.BufferedWriter;
import java.io.OutputStream;
import java.io.O
- web.xml配置详解之filter
bijian1013
javaweb.xmlfilter
一.定义
<filter>
<filter-name>encodingfilter</filter-name>
<filter-class>com.my.app.EncodingFilter</filter-class>
<init-param>
<param-name>encoding<
- Heritrix
Bill_chen
多线程xml算法制造配置管理
作为纯Java语言开发的、功能强大的网络爬虫Heritrix,其功能极其强大,且扩展性良好,深受热爱搜索技术的盆友们的喜爱,但它配置较为复杂,且源码不好理解,最近又使劲看了下,结合自己的学习和理解,跟大家分享Heritrix的点点滴滴。
Heritrix的下载(http://sourceforge.net/projects/archive-crawler/)安装、配置,就不罗嗦了,可以自己找找资
- 【Zookeeper】FAQ
bit1129
zookeeper
1.脱离IDE,运行简单的Java客户端程序
#ZkClient是简单的Zookeeper~$ java -cp "./:zookeeper-3.4.6.jar:./lib/*" ZKClient
1. Zookeeper是的Watcher回调是同步操作,需要添加异步处理的代码
2. 如果Zookeeper集群跨越多个机房,那么Leader/
- The user specified as a definer ('aaa'@'localhost') does not exist
白糖_
localhost
今天遇到一个客户BUG,当前的jdbc连接用户是root,然后部分删除操作都会报下面这个错误:The user specified as a definer ('aaa'@'localhost') does not exist
最后找原因发现删除操作做了触发器,而触发器里面有这样一句
/*!50017 DEFINER = ''aaa@'localhost' */
原来最初
- javascript中showModelDialog刷新父页面
bozch
JavaScript刷新父页面showModalDialog
在页面中使用showModalDialog打开模式子页面窗口的时候,如果想在子页面中操作父页面中的某个节点,可以通过如下的进行:
window.showModalDialog('url',self,‘status...’); // 首先中间参数使用self
在子页面使用w
- 编程之美-买书折扣
bylijinnan
编程之美
import java.util.Arrays;
public class BookDiscount {
/**编程之美 买书折扣
书上的贪心算法的分析很有意思,我看了半天看不懂,结果作者说,贪心算法在这个问题上是不适用的。。
下面用动态规划实现。
哈利波特这本书一共有五卷,每卷都是8欧元,如果读者一次购买不同的两卷可扣除5%的折扣,三卷10%,四卷20%,五卷
- 关于struts2.3.4项目跨站执行脚本以及远程执行漏洞修复概要
chenbowen00
strutsWEB安全
因为近期负责的几个银行系统软件,需要交付客户,因此客户专门请了安全公司对系统进行了安全评测,结果发现了诸如跨站执行脚本,远程执行漏洞以及弱口令等问题。
下面记录下本次解决的过程以便后续
1、首先从最简单的开始处理,服务器的弱口令问题,首先根据安全工具提供的测试描述中发现应用服务器中存在一个匿名用户,默认是不需要密码的,经过分析发现服务器使用了FTP协议,
而使用ftp协议默认会产生一个匿名用
- [电力与暖气]煤炭燃烧与电力加温
comsci
在宇宙中,用贝塔射线观测地球某个部分,看上去,好像一个个马蜂窝,又像珊瑚礁一样,原来是某个国家的采煤区.....
不过,这个采煤区的煤炭看来是要用完了.....那么依赖将起燃烧并取暖的城市,在极度严寒的季节中...该怎么办呢?
&nbs
- oracle O7_DICTIONARY_ACCESSIBILITY参数
daizj
oracle
O7_DICTIONARY_ACCESSIBILITY参数控制对数据字典的访问.设置为true,如果用户被授予了如select any table等any table权限,用户即使不是dba或sysdba用户也可以访问数据字典.在9i及以上版本默认为false,8i及以前版本默认为true.如果设置为true就可能会带来安全上的一些问题.这也就为什么O7_DICTIONARY_ACCESSIBIL
- 比较全面的MySQL优化参考
dengkane
mysql
本文整理了一些MySQL的通用优化方法,做个简单的总结分享,旨在帮助那些没有专职MySQL DBA的企业做好基本的优化工作,至于具体的SQL优化,大部分通过加适当的索引即可达到效果,更复杂的就需要具体分析了,可以参考本站的一些优化案例或者联系我,下方有我的联系方式。这是上篇。
1、硬件层相关优化
1.1、CPU相关
在服务器的BIOS设置中,可
- C语言homework2,有一个逆序打印数字的小算法
dcj3sjt126com
c
#h1#
0、完成课堂例子
1、将一个四位数逆序打印
1234 ==> 4321
实现方法一:
# include <stdio.h>
int main(void)
{
int i = 1234;
int one = i%10;
int two = i / 10 % 10;
int three = i / 100 % 10;
- apacheBench对网站进行压力测试
dcj3sjt126com
apachebench
ab 的全称是 ApacheBench , 是 Apache 附带的一个小工具 , 专门用于 HTTP Server 的 benchmark testing , 可以同时模拟多个并发请求。前段时间看到公司的开发人员也在用它作一些测试,看起来也不错,很简单,也很容易使用,所以今天花一点时间看了一下。
通过下面的一个简单的例子和注释,相信大家可以更容易理解这个工具的使用。
- 2种办法让HashMap线程安全
flyfoxs
javajdkjni
多线程之--2种办法让HashMap线程安全
多线程之--synchronized 和reentrantlock的优缺点
多线程之--2种JAVA乐观锁的比较( NonfairSync VS. FairSync)
HashMap不是线程安全的,往往在写程序时需要通过一些方法来回避.其实JDK原生的提供了2种方法让HashMap支持线程安全.
- Spring Security(04)——认证简介
234390216
Spring Security认证过程
认证简介
目录
1.1 认证过程
1.2 Web应用的认证过程
1.2.1 ExceptionTranslationFilter
1.2.2 在request之间共享SecurityContext
1
- Java 位运算
Javahuhui
java位运算
// 左移( << ) 低位补0
// 0000 0000 0000 0000 0000 0000 0000 0110 然后左移2位后,低位补0:
// 0000 0000 0000 0000 0000 0000 0001 1000
System.out.println(6 << 2);// 运行结果是24
// 右移( >> ) 高位补"
- mysql免安装版配置
ldzyz007
mysql
1、my-small.ini是为了小型数据库而设计的。不应该把这个模型用于含有一些常用项目的数据库。
2、my-medium.ini是为中等规模的数据库而设计的。如果你正在企业中使用RHEL,可能会比这个操作系统的最小RAM需求(256MB)明显多得多的物理内存。由此可见,如果有那么多RAM内存可以使用,自然可以在同一台机器上运行其它服务。
3、my-large.ini是为专用于一个SQL数据
- MFC和ado数据库使用时遇到的问题
你不认识的休道人
sqlC++mfc
===================================================================
第一个
===================================================================
try{
CString sql;
sql.Format("select * from p
- 表单重复提交Double Submits
rensanning
double
可能发生的场景:
*多次点击提交按钮
*刷新页面
*点击浏览器回退按钮
*直接访问收藏夹中的地址
*重复发送HTTP请求(Ajax)
(1)点击按钮后disable该按钮一会儿,这样能避免急躁的用户频繁点击按钮。
这种方法确实有些粗暴,友好一点的可以把按钮的文字变一下做个提示,比如Bootstrap的做法:
http://getbootstrap.co
- Java String 十大常见问题
tomcat_oracle
java正则表达式
1.字符串比较,使用“==”还是equals()? "=="判断两个引用的是不是同一个内存地址(同一个物理对象)。 equals()判断两个字符串的值是否相等。 除非你想判断两个string引用是否同一个对象,否则应该总是使用equals()方法。 如果你了解字符串的驻留(String Interning)则会更好地理解这个问题。
- SpringMVC 登陆拦截器实现登陆控制
xp9802
springMVC
思路,先登陆后,将登陆信息存储在session中,然后通过拦截器,对系统中的页面和资源进行访问拦截,同时对于登陆本身相关的页面和资源不拦截。
实现方法:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23