- 大数据笔记--Spark(第五篇)
是小先生
大数据08-Sparkspark
目录一、Spark的调优1、更改序列化为kryo2、配置多临时文件目录3、启动推测执行机制4、某些特定场景,用mapPartitions代替map5、避免使用collect二、Spark的共享变量1、广播变量2、计数器三、VSM算法1、什么是倒排索引表?2、什么是相似度的概念?3、什么是TF-IDF算法4、VSM算法Ⅰ、概念Ⅱ、算法原理Ⅲ、举例一、Spark的调优1、更改序列化为kryoSpark
- 大数据笔记(待续)
yangzex
笔记
mysql缓存技术数据库和缓存双写数据一致性问题常见的解决方案常见方案通常情况下,我们使用缓存的主要目的是为了提升查询的性能。大多数情况下,我们是这样使用缓存的:用户请求过来之后,先查缓存有没有数据,如果有则直接返回。如果缓存没数据,再继续查数据库。如果数据库有数据,则将查询出来的数据,放入缓存中,然后返回该数据。如果数据库也没数据,则直接返回空。这是缓存非常常见的用法。一眼看上去,好像没有啥问题
- 【Python大数据笔记_day11_Hadoop进阶之MR和YARN&ZooKeeper】
LKL1026
Python大数据学习笔记hadoop大数据笔记
MR单词统计流程已知文件内容: hadoophivehadoopsparkhive flinkhivelinuxhivemysqlinput结果: k1(行偏移量) v1(每行文本内容) 0 hadoophivehadoopsparkhive 30 flinkhivelinuxhivemysqlmap结果: k2(split切割后的单词)v2(拼接1) hadoop1
- 【Python大数据笔记_day10_Hive调优及Hadoop进阶】
LKL1026
Python大数据学习笔记大数据hadoophive笔记
hive调优hive官方配置url:ConfigurationProperties-ApacheHive-ApacheSoftwareFoundationhive命令和参数配置hive参数配置的意义:开发Hive应用/调优时,不可避免地需要设定Hive的参数。设定Hive的参数可以调优HQL代码的执行效率,或帮助定位问题。然而实践中经常遇到的一个问题是,为什么我设定的参数没有起作用?这是对hive
- 【Python大数据笔记_day08_hive查询】
LKL1026
Python大数据学习笔记数据库hive笔记
hive查询语法结构:SELECT[ALL|DISTINCT]字段名,字段名,...FROM表名[inner|leftouter|rightouter|fullouter|leftsemiJOIN表名ON关联条件][WHERE非聚合条件][GROUPBY分组字段名][HAVING聚合条件][ORDERBY排序字段名asc|desc][CLUSTERBY字段名|[DISTRIBUTEBY字段名SOR
- 【Python大数据笔记_day09_hive函数和调优】
LKL1026
Python大数据学习笔记大数据笔记hive
hive函数函数分类标准[重点]原生分类标准:内置函数和用户定义函数(UDF,UDAF,UDTF)分类标准扩大化:本来,UDF、UDAF、UDTF这3个标准是针对用户自定义函数分类的;但是,现在可以将这个分类标准扩大到hive中所有的函数,包括内置函数和自定义函数;目前hive三大标准UDF:(User-Defined-Function)普通函数:特点是一进一出(输入一行数据输出一行数据)
- 河工阿晖大数据笔记脚本截图
喧嚣小风
大数据bigdata大数据
#!/bin/bashbeg_date=`date-d"${1}"+%s`end_date=`date-d"${2}"+%s`if((beg_date>${end_date}));thenecho"beg_date/root/sh/date手动添加的date=`cat/root/sh/date`#第二步:获取json文件日期的后一天日期afterday_timestamp=$[`date-d"${
- 大数据笔记29—Hadoop基础篇12(Hive特殊使用与函数)
了不起的我阿
hadoophive数据库数据仓库大数据pythonhive
Hive特殊使用与函数知识点01:Hive回顾知识点02:本篇目标知识点03:Hive表结构:普通表结构知识点04:Hive表结构:分区表设计知识点05:Hive表结构:分区表实现知识点06:Hive表结构:分桶表设计及实现知识点07:Hive中的Join:Join逻辑知识点08:Hive中的Join:Join实现知识点09:Select语法:orderby与sortby知识点10:Select语
- 【Python大数据笔记_day07_hive中的分区表、分桶表以及一些特殊类型】
LKL1026
Python大数据学习笔记大数据笔记hive
分区表分区表的特点/好处:需要产生分区目录,查询的时候使用分区字段筛选数据,避免全表扫描从而提升查询效率效率上注意:如果分区表在查询的时候呀没有使用分区字段去筛选数据,效率不变分区字段名注意:分区字段名不能和原有的字段名重复,因为分区字段名要作为字段拼接到表后一级分区创建分区表:create[external]table[ifnotexists]表名(字段名字段类型,字段名字段类型,...)par
- 大数据笔记--Zookeeper(第二篇)
是小先生
大数据02-Zookeeperbigdatazookeeper大数据
目录一、Zookeeper1、概述2、安装3、伪分布式安装4、特点5、命令6、节点信息7、节点类型8、zookeeper-APIi、普通API无观察者ii、观察者API二、完全分布式安装1、三台服务器准备2、安装Zookeeper3、完成效果一、Zookeeper1、概述①、Zookeeper是Yahoo(雅虎)开发后来贡献给了Apache的一套用于分布式管理和协调的框架②、Zookeeper本身
- 【Python大数据笔记_day06_Hive】
LKL1026
Python大数据学习笔记大数据hive笔记
hive内外表操作建表语法create[external]table[ifnotexists]表名(字段名字段类型,字段名字段类型,...)[partitionedby(分区字段名分区字段类型)]#分区表固定格式[clusteredby(分桶字段名)into桶个数buckets]#分桶表固定格式注意:可以排序[sortedby(排序字段名asc|desc)][rowformatdelimitedf
- 【Python大数据笔记_day05_Hive基础操作】
LKL1026
Python大数据学习笔记大数据笔记hive
一.SQL,Hive和MapReduce的关系用户在hive上编写sql语句,hive把sql语句转化为MapReduce程序去执行二.Hive架构映射流程用户接口:包括CLI、JDBC/ODBC、WebGUI,CLI(commandlineinterface)为shell命令行;Hive中的Thrift服务器允许外部客户端通过网络与Hive进行交互,类似于JDBC或ODBC协议。WebGUI是通
- 大数据笔记--Zookeeper(第三篇)
是小先生
大数据02-Zookeeperzookeeperbigdata分布式
目录一、选举机制1、概述2、细节二、ZAB协议1、概述2、原子广播3、原子广播的过程4、查看日志的方式5、崩溃恢复三、Zookeeper-其他1、observer-观察者2、特征3、zookeeper集群操作四、PAXOS算法1、概述五、AVRO1、概述2、序列化3、AVRO序列化举例4、RPC一、选举机制1、概述当一个zookeeper集群刚启动的时候,会自动的进入选举状态,此时所有的服务器都会
- 【Python大数据笔记_day04_Hadoop】
LKL1026
Python大数据学习笔记大数据笔记hadoop分布式
分布式和集群分布式:多台服务器协同配合完成同一个大任务(每个服务器都只完成大任务拆分出来的单独1个子任务)集群:多台服务器联合起来独立做相同的任务(多个服务器分担客户发来的请求)注意:集群如果客户端请求量(任务量)多,多个服务器同时处理不同请求(不同任务),如果请求量少,一台服务器干活,其他服务器备份使用Hadoop框架概述Hadoop简介:是Apache旗下的一个用Java语言实现的存储个计算大
- 大数据笔记-关于Cassandra的删除问题
鬓戈
大数据大数据笔记
Cassandra是Facebook开源的一个NoSQL数据库,它除了具备一般的NoSQL分布式数据库特点以外,最大的一个特点是去中心化架构设计,这和HadoopHDFS/HBase等不一样,比如HDFS分为NameNode和DataNode,而Cassandra集群中所有节点都是数据节点,每一个节点都在集群中承担相同的角色。我们开始在2013年做大数据存储系统选型过程中,也考虑过Cassandr
- 大数据笔记--SparkStreaming
是小先生
大数据08-SparksparkSparkSreaming
目录一、实时计算1、离线和批量、实时和流式Ⅰ、批量计算和流式计算:Ⅱ、批量和流式的区别二、SparkStreaming介绍1、概述2、架构设计二、SparkStreaming基础1、WordCount案例①、监听本地文件数据源②、通过SparkStreaming实时过滤2、基本概念Ⅰ、StreamingContextⅡ、DStream抽象Ⅲ、案例一、实时计算1、离线和批量、实时和流式大数据的计算模
- 大数据笔记--Spark(第四篇)
是小先生
大数据08-SparkSaprkGC
目录一、RDD的容错机制二、RDD持久化机制1、RDD持久化(缓存)2、使用缓存3、缓存数据的清除4、持久化理解三、CheckPoint机制1、概述2、示例代码:3、总结4、Saprk懒执行的意义四、GC回收机制及算法1、概述2、哪些内存数据需要被回收?Ⅰ、引用计数法判定Ⅱ、可达性分析法3、常见的垃圾回收算法Ⅰ、标记-清除算法Ⅱ、复制算法Ⅲ、标记-整理算法Ⅳ、分代收集算法五、GC收集器1、概述2、
- 大数据笔记--Flume(第一篇)
是小先生
大数据04-Flumebigdataflume大数据
目录一、Flume的简介1、概述2、基本概念3、流动模型/拓扑结构①、单级流动②、多级流动③、扇入流动④、扇出流动⑤、复杂流动二、执行流程三、安装Flume四、Source1、AVROSource①、概述②、配置属性③、案例2、ExecSource①、概述②、配置属性③、案例3、SpoolingDirectorySource①、概述②、配置属性③、案例4、NetcatSource①、概述②、配置属
- 大数据笔记--Spark(第一篇)
是小先生
大数据08-Sparksparkscala
目录一、Spark介绍1、概述2、来源二、Spark的生态系统模块三、Spark的使用模式1、Spark单机模式安装2、Spark集群模式安装四、RDD介绍1、概述2、创建RDD两种方式3、分区概念五、RDD的操作1、Transformation变化2、Action执行3、Controller控制一、Spark介绍1、概述Spark是UCBerkeleyAMPlab(加州大学伯克利分校的AMP实验
- 大数据笔记--Hadoop(第一篇)
是小先生
大数据03-Hadoopbigdata大数据hadoop
目录一、大数据简介1、简介2、特点3、应用场景4、组织结构二、Hadoop简介1、概述2、版本3、模块4、安装模式5、web访问端口三、Hadoop发展1、创始人2、发展历程四、Hadoop伪分布式安装五、hadoop完全分布式安装一、大数据简介1、简介①、美国调研机构Gartner给出了定义:大数据是一种新的处理模式,针对海量数据能够提供更强的决策力、洞察发现力和流程优化能力②、维基百科给出了定
- 大数据笔记--Hive(第一篇)
是小先生
大数据05-Hivehivebigdatahadoop
目录一、Hive1、概述2、Hive和数据库的比较3、特点①、优点②、缺点二、Hive的安装1、概述2、安装步骤3、Hive运行日志4、参数配置一、Hive1、概述Hive原本时有Facebook公司开发后来贡献给了Apache的一套用于进行数据仓库管理的机制Hive提供了类SQL(HQL,HiveQL)语句来管理HDFS上的大量数据,底层会将SQL转化为MapReduce来交给HadoopYAR
- 大数据笔记-大数据处理流程
鬓戈
大数据大数据笔记架构
大家对大数据处理流程大体上认识差不多,具体做起来可能细节各不相同,一幅简单的大数据处理流程图如下:1)数据采集:数据采集是大数据处理的第一步。数据采集面对的数据来源是多种多样的,包括各种传感器、社交媒体、电子邮件、数据库、程序运行日志等。数据采集面对的数据类型是多种多样的,有文本数据、结构化数据、图片数据、语音数据、视频数据等。数据采集使用的各种开源工具也是多种多样的,如采用FileBeat对日志
- 【大数据笔记】SQL Optimizer 解析
唐浮
大数据学习笔记大数据sql
前言大数据课程相关笔记一、大数据体系下的SQL一、大数据体系大数据体系自上而下分为七层,分别是:1.业务应用业务应用层次,主要业务应用包括BI报表、数据挖掘、营销分析、精准推荐等,主要工作是管控运维。2.数据开发数据开发层次,主要技术包括Airflow、DAG等,主要工作是集群创建。3.权限管控权限管控层次,主要技术包括ApacheRanger、GDPR等,主要工作是集群创建。4.分析引擎(SQL
- 大数据笔记--HBase(第二篇)
是小先生
大数据06-HBasehbasehadoop
目录一、Hbase的基本架构1、HRegion2、Zookeeper的作用3、HMaster4、HRegionServer5、Compaction机制二、Hbase的架构读写流程1、概念2、写流程3、读流程三、Hbase的设计优化1、设计原则①、行键设计②、列族设计2、优化一、Hbase的基本架构1、HRegion①、在Hbase中,会将一个表从行键方向上进行切分,切分成1个或者多个HRegion
- 大数据笔记-NIFI(第一篇)
是小先生
大数据平台CDH大数据java开发语言NiFi
目录一、NIFI简介1、NIFi的相关概念及特点1.1、什么是ApacheNiFi?1.2、NiFi的核心概念1.3、NiFi架构1.4、NiFi的性能预期和特点1.5、关键NiFi功能的高级概述二、NiFi的安装(无证书集群内)1、NiFi下载2、安装NiFi2.1、上传解压2.2、修改配置文件三、启动1、we页面简介1.1、NIFI登陆后界面1.2、NIFI登陆界面解读编辑2、全局菜单3、NI
- 大数据笔记之Hadoop(HDFS)
小炫锋
Bigdatahadoophadoop大数据
HDFS概述定义:HDFS是一个分布式文件管理系统,用来存储文件,通过目录树来定位文件;由多个服务器联合起来实现其功能,集群中的服务器由各自的角色。应用场景:适合一次写入多次读写的场景,支持追加、不支持修改。适合用来做数据分析,不适合做网盘使用HDFS优缺点优点高容错性:通过增加副本的形式提高容错性,数据自动保存多个副本;某个副本丢失后,可自动恢复。适合处理大数据:数据规模(TB、PB级别以上);
- 【大数据】第二章:搭建Hadoop集群(送尚硅谷大数据笔记)
DragonZhuCn
Hadoop大数据hadoop大数据
尚硅谷Hadoop3.x官方文档大全免费下载搭建集群没什么好讲的,跟着视频和笔记出不了什么问题。唯一遇到的问题就是安装好VmWare后打不开,发现是老师给的VmWare版本不适配本机的WIN11。解决办法就是下载最新版本的VmWare。新版已经修复了与WIN11的兼容性问题。两个常见面试题:1,Hadoop集群中常见的端口Hadoop2.xNameNode内部端口:8020/9000NameNod
- 《大数据时代》
天天向上的小朋友
大数据笔记维克托最具洞见之处在于,他明确指出,大数据时代最大的转变就是,放弃对因果关系的渴求,而取而代之关注相关关系。也就是说只要知道“是什么”,而不需要知道“为什么”。这颠覆了千百年来人类的思维惯例,对人类的认知和与世界交流的方式提出了全新的挑战。本书认为大数据的核心就是预测。大数据将为人类的生活创造前所未有的可量化的维度。本书前瞻性地指出,大数据带来的信息风暴正在变革我们的生活、工作和思维,大
- 大数据笔记--SparkSQL(第一篇)
是小先生
大数据08-SparkSaprkSparkSql
目录一、SparkSql1、概述2、由来3、SparkSQL特点4、为什么SparkSQL的性能会的得到这么大的提升?Ⅰ、内存列存储二、SparkSql入门1、概述2、创建DataFrame对象三、SparkSql基础语法上1、通过方法来使用四、SparkSql基础语法下1、通过sql语句来调用五、SparkSqlAPI一、SparkSql1、概述Spark为了结构化数据处理引入了一个称为Spar
- 【大数据笔记】- Spark-SQL读写MySQL
菜鸟老胡~
技术学习sparkmysqlbigdata大数据数据仓库
Spark-SQL很强大,可以读写各种JDBC的库,先来一弹MySQL的,超简单:1.MySQL库建测试表和数据:CREATETABLEt_realtime.test_spark2mysql(idbigint(11)NOTNULLAUTO_INCREMENT,namevarchar(30)DEFAULTNULL,ageintDEFAULTNULL,PRIMARYKEY(id))ENGINE=Inn
- 算法 单链的创建与删除
换个号韩国红果果
c算法
先创建结构体
struct student {
int data;
//int tag;//标记这是第几个
struct student *next;
};
// addone 用于将一个数插入已从小到大排好序的链中
struct student *addone(struct student *h,int x){
if(h==NULL) //??????
- 《大型网站系统与Java中间件实践》第2章读后感
白糖_
java中间件
断断续续花了两天时间试读了《大型网站系统与Java中间件实践》的第2章,这章总述了从一个小型单机构建的网站发展到大型网站的演化过程---整个过程会遇到很多困难,但每一个屏障都会有解决方案,最终就是依靠这些个解决方案汇聚到一起组成了一个健壮稳定高效的大型系统。
看完整章内容,
- zeus持久层spring事务单元测试
deng520159
javaDAOspringjdbc
今天把zeus事务单元测试放出来,让大家指出他的毛病,
1.ZeusTransactionTest.java 单元测试
package com.dengliang.zeus.webdemo.test;
import java.util.ArrayList;
import java.util.List;
import org.junit.Test;
import
- Rss 订阅 开发
周凡杨
htmlxml订阅rss规范
RSS是 Really Simple Syndication的缩写(对rss2.0而言,是这三个词的缩写,对rss1.0而言则是RDF Site Summary的缩写,1.0与2.0走的是两个体系)。
RSS
- 分页查询实现
g21121
分页查询
在查询列表时我们常常会用到分页,分页的好处就是减少数据交换,每次查询一定数量减少数据库压力等等。
按实现形式分前台分页和服务器分页:
前台分页就是一次查询出所有记录,在页面中用js进行虚拟分页,这种形式在数据量较小时优势比较明显,一次加载就不必再访问服务器了,但当数据量较大时会对页面造成压力,传输速度也会大幅下降。
服务器分页就是每次请求相同数量记录,按一定规则排序,每次取一定序号直接的数据
- spring jms异步消息处理
510888780
jms
spring JMS对于异步消息处理基本上只需配置下就能进行高效的处理。其核心就是消息侦听器容器,常用的类就是DefaultMessageListenerContainer。该容器可配置侦听器的并发数量,以及配合MessageListenerAdapter使用消息驱动POJO进行消息处理。且消息驱动POJO是放入TaskExecutor中进行处理,进一步提高性能,减少侦听器的阻塞。具体配置如下:
- highCharts柱状图
布衣凌宇
hightCharts柱图
第一步:导入 exporting.js,grid.js,highcharts.js;第二步:写controller
@Controller@RequestMapping(value="${adminPath}/statistick")public class StatistickController { private UserServi
- 我的spring学习笔记2-IoC(反向控制 依赖注入)
aijuans
springmvcSpring 教程spring3 教程Spring 入门
IoC(反向控制 依赖注入)这是Spring提出来了,这也是Spring一大特色。这里我不用多说,我们看Spring教程就可以了解。当然我们不用Spring也可以用IoC,下面我将介绍不用Spring的IoC。
IoC不是框架,她是java的技术,如今大多数轻量级的容器都会用到IoC技术。这里我就用一个例子来说明:
如:程序中有 Mysql.calss 、Oracle.class 、SqlSe
- TLS java简单实现
antlove
javasslkeystoretlssecure
1. SSLServer.java
package ssl;
import java.io.FileInputStream;
import java.io.InputStream;
import java.net.ServerSocket;
import java.net.Socket;
import java.security.KeyStore;
import
- Zip解压压缩文件
百合不是茶
Zip格式解压Zip流的使用文件解压
ZIP文件的解压缩实质上就是从输入流中读取数据。Java.util.zip包提供了类ZipInputStream来读取ZIP文件,下面的代码段创建了一个输入流来读取ZIP格式的文件;
ZipInputStream in = new ZipInputStream(new FileInputStream(zipFileName));
&n
- underscore.js 学习(一)
bijian1013
JavaScriptunderscore
工作中需要用到underscore.js,发现这是一个包括了很多基本功能函数的js库,里面有很多实用的函数。而且它没有扩展 javascript的原生对象。主要涉及对Collection、Object、Array、Function的操作。 学
- java jvm常用命令工具——jstatd命令(Java Statistics Monitoring Daemon)
bijian1013
javajvmjstatd
1.介绍
jstatd是一个基于RMI(Remove Method Invocation)的服务程序,它用于监控基于HotSpot的JVM中资源的创建及销毁,并且提供了一个远程接口允许远程的监控工具连接到本地的JVM执行命令。
jstatd是基于RMI的,所以在运行jstatd的服务
- 【Spring框架三】Spring常用注解之Transactional
bit1129
transactional
Spring可以通过注解@Transactional来为业务逻辑层的方法(调用DAO完成持久化动作)添加事务能力,如下是@Transactional注解的定义:
/*
* Copyright 2002-2010 the original author or authors.
*
* Licensed under the Apache License, Version
- 我(程序员)的前进方向
bitray
程序员
作为一个普通的程序员,我一直游走在java语言中,java也确实让我有了很多的体会.不过随着学习的深入,java语言的新技术产生的越来越多,从最初期的javase,我逐渐开始转变到ssh,ssi,这种主流的码农,.过了几天为了解决新问题,webservice的大旗也被我祭出来了,又过了些日子jms架构的activemq也开始必须学习了.再后来开始了一系列技术学习,osgi,restful.....
- nginx lua开发经验总结
ronin47
使用nginx lua已经两三个月了,项目接开发完毕了,这几天准备上线并且跟高德地图对接。回顾下来lua在项目中占得必中还是比较大的,跟PHP的占比差不多持平了,因此在开发中遇到一些问题备忘一下 1:content_by_lua中代码容量有限制,一般不要写太多代码,正常编写代码一般在100行左右(具体容量没有细心测哈哈,在4kb左右),如果超出了则重启nginx的时候会报 too long pa
- java-66-用递归颠倒一个栈。例如输入栈{1,2,3,4,5},1在栈顶。颠倒之后的栈为{5,4,3,2,1},5处在栈顶
bylijinnan
java
import java.util.Stack;
public class ReverseStackRecursive {
/**
* Q 66.颠倒栈。
* 题目:用递归颠倒一个栈。例如输入栈{1,2,3,4,5},1在栈顶。
* 颠倒之后的栈为{5,4,3,2,1},5处在栈顶。
*1. Pop the top element
*2. Revers
- 正确理解Linux内存占用过高的问题
cfyme
linux
Linux开机后,使用top命令查看,4G物理内存发现已使用的多大3.2G,占用率高达80%以上:
Mem: 3889836k total, 3341868k used, 547968k free, 286044k buffers
Swap: 6127608k total,&nb
- [JWFD开源工作流]当前流程引擎设计的一个急需解决的问题
comsci
工作流
当我们的流程引擎进入IRC阶段的时候,当循环反馈模型出现之后,每次循环都会导致一大堆节点内存数据残留在系统内存中,循环的次数越多,这些残留数据将导致系统内存溢出,并使得引擎崩溃。。。。。。
而解决办法就是利用汇编语言或者其它系统编程语言,在引擎运行时,把这些残留数据清除掉。
- 自定义类的equals函数
dai_lm
equals
仅作笔记使用
public class VectorQueue {
private final Vector<VectorItem> queue;
private class VectorItem {
private final Object item;
private final int quantity;
public VectorI
- Linux下安装R语言
datageek
R语言 linux
命令如下:sudo gedit /etc/apt/sources.list1、deb http://mirrors.ustc.edu.cn/CRAN/bin/linux/ubuntu/ precise/ 2、deb http://dk.archive.ubuntu.com/ubuntu hardy universesudo apt-key adv --keyserver ke
- 如何修改mysql 并发数(连接数)最大值
dcj3sjt126com
mysql
MySQL的连接数最大值跟MySQL没关系,主要看系统和业务逻辑了
方法一:进入MYSQL安装目录 打开MYSQL配置文件 my.ini 或 my.cnf查找 max_connections=100 修改为 max_connections=1000 服务里重起MYSQL即可
方法二:MySQL的最大连接数默认是100客户端登录:mysql -uusername -ppass
- 单一功能原则
dcj3sjt126com
面向对象的程序设计软件设计编程原则
单一功能原则[
编辑]
SOLID 原则
单一功能原则
开闭原则
Liskov代换原则
接口隔离原则
依赖反转原则
查
论
编
在面向对象编程领域中,单一功能原则(Single responsibility principle)规定每个类都应该有
- POJO、VO和JavaBean区别和联系
fanmingxing
VOPOJOjavabean
POJO和JavaBean是我们常见的两个关键字,一般容易混淆,POJO全称是Plain Ordinary Java Object / Plain Old Java Object,中文可以翻译成:普通Java类,具有一部分getter/setter方法的那种类就可以称作POJO,但是JavaBean则比POJO复杂很多,JavaBean是一种组件技术,就好像你做了一个扳子,而这个扳子会在很多地方被
- SpringSecurity3.X--LDAP:AD配置
hanqunfeng
SpringSecurity
前面介绍过基于本地数据库验证的方式,参考http://hanqunfeng.iteye.com/blog/1155226,这里说一下如何修改为使用AD进行身份验证【只对用户名和密码进行验证,权限依旧存储在本地数据库中】。
将配置文件中的如下部分删除:
<!-- 认证管理器,使用自定义的UserDetailsService,并对密码采用md5加密-->
- mac mysql 修改密码
IXHONG
mysql
$ sudo /usr/local/mysql/bin/mysqld_safe –user=root & //启动MySQL(也可以通过偏好设置面板来启动)$ sudo /usr/local/mysql/bin/mysqladmin -uroot password yourpassword //设置MySQL密码(注意,这是第一次MySQL密码为空的时候的设置命令,如果是修改密码,还需在-
- 设计模式--抽象工厂模式
kerryg
设计模式
抽象工厂模式:
工厂模式有一个问题就是,类的创建依赖于工厂类,也就是说,如果想要拓展程序,必须对工厂类进行修改,这违背了闭包原则。我们采用抽象工厂模式,创建多个工厂类,这样一旦需要增加新的功能,直接增加新的工厂类就可以了,不需要修改之前的代码。
总结:这个模式的好处就是,如果想增加一个功能,就需要做一个实现类,
- 评"高中女生军训期跳楼”
nannan408
首先,先抛出我的观点,各位看官少点砖头。那就是,中国的差异化教育必须做起来。
孔圣人有云:有教无类。不同类型的人,都应该有对应的教育方法。目前中国的一体化教育,不知道已经扼杀了多少创造性人才。我们出不了爱迪生,出不了爱因斯坦,很大原因,是我们的培养思路错了,我们是第一要“顺从”。如果不顺从,我们的学校,就会用各种方法,罚站,罚写作业,各种罚。军
- scala如何读取和写入文件内容?
qindongliang1922
javajvmscala
直接看如下代码:
package file
import java.io.RandomAccessFile
import java.nio.charset.Charset
import scala.io.Source
import scala.reflect.io.{File, Path}
/**
* Created by qindongliang on 2015/
- C语言算法之百元买百鸡
qiufeihu
c算法
中国古代数学家张丘建在他的《算经》中提出了一个著名的“百钱买百鸡问题”,鸡翁一,值钱五,鸡母一,值钱三,鸡雏三,值钱一,百钱买百鸡,问翁,母,雏各几何?
代码如下:
#include <stdio.h>
int main()
{
int cock,hen,chick; /*定义变量为基本整型*/
for(coc
- Hadoop集群安全性:Hadoop中Namenode单点故障的解决方案及详细介绍AvatarNode
wyz2009107220
NameNode
正如大家所知,NameNode在Hadoop系统中存在单点故障问题,这个对于标榜高可用性的Hadoop来说一直是个软肋。本文讨论一下为了解决这个问题而存在的几个solution。
1. Secondary NameNode
原理:Secondary NN会定期的从NN中读取editlog,与自己存储的Image进行合并形成新的metadata image
优点:Hadoop较早的版本都自带,