- spark启动命令
学不会又听不懂
spark大数据分布式
hadoop启动:cd/root/toolssstart-dfs.sh,只需在hadoop01上启动stop-dfs.sh日志查看:cat/root/toolss/hadoop/logs/hadoop-root-datanode-hadoop03.outzookeeper启动:cd/root/toolss/zookeeperbin/zkServer.shstart,三台都要启动bin/zkServ
- 解决Windows环境下hadoop集群的运行_window运行hadoop,unknown hadoop01(4)
2401_84160087
大数据面试学习
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。需要这份系统化资料的朋友,可以戳这里获取一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!org.apache.hadoophadoop-com
- 解决Windows环境下hadoop集群的运行_window运行hadoop,unknown hadoop01(3)
2401_84160087
大数据面试学习
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。需要这份系统化资料的朋友,可以戳这里获取一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!xmlns:xsi="http://www.w3.or
- Ambari2.7.3 和HDP3.1.0搭建Hadoop集群
大道至简非简
一、环境及软件准备1、集群规划hadoop01/192.168.0.151hadoop02/192.168.0.152hadoop03/192.168.0.153hadoop04/192.168.0.154hadoop05/192.168.0.155ambariserver是否否否否ambariagent是是是是是namenode是是否否否datanode否否是是是resourcemanager是
- linux创建虚拟机成功后,第二次使用打不开,(磁盘和文件权限修改)
絲箹
linux运维服务器
二次使用虚拟机出现如图所示提示正常情况下只需要点击>浏览,重新选中找不到的文件即可。但如果出现以下提示>替换缺少的文件时出错:权限不足,无法访问该文件就说明文件的权限太高,或者存放文件的磁盘权限太高,导致无法访问文件这时我们需要对文件和磁盘的权限进行修改选中Hadoop01文件>鼠标右键>属性>安全>编辑>完全控制>确认即完成对权限的修改(同理,磁盘权限也可按照此方法修改)选中磁盘>鼠标右键>属性
- 一,安装Linux
小猪Harry
1,创建虚拟机:image.png2,继续安装:image.pngimage.pngimage.png可以起名为hadoop01,地址任选:image.png文件大小也可以为10G,也可以设置成单一文件:image.pngimage.png设置安装盘:image.pngimage.pngimage.pngimage.pngimage.pngimage.pngimage.pngimage.pngim
- Spark完全分布式集群搭建
小猪Harry
环境准备服务器集群我用的CentOS-6.6版本的4个虚拟机,主机名为hadoop01、hadoop02、hadoop03、hadoop04,另外我会使用hadoop用户搭建集群(生产环境中root用户不是可以任意使用的)spark安装包下载地址:https://mirrors.aliyun.com/apache/spark/我用的spark-2.2.0-bin-hadoop2.7.tgz要根据自
- 记一次Maxwell出现Communications link failure
玖玖1704
maxwellhadoop大数据etl数据库
原报错信息:connectingtojdbc:mysql://hadoop01:3306/maxwell?allowPublicKeyRetrieval=true&connectTimeout=5000&serverTimezone=Asia%2FShanghai&zeroDateTimeBehavior=convertToNull&useSSL=false30954[WARN]BasicReso
- Hadoop分布式集群搭建(三台虚拟机)
# Ling
hadoop大数据分布式
一.准备工作搭建好VMwareWorkstationPro(我这里装的版本是16)二.新建虚拟机hadoop01搭建hadoop集群需要三台虚拟机1.新建虚拟机——>自定义(高级)2.不用改动,点击下一步3.映像文件稍后再加入4.选择Linux——>CentOS764位5.可以在存放虚拟机的文件内新建一个文件夹,专门放hadoop集群需要的虚拟机(有三个)6.处理器数量设置一个就好7.内存不够的选
- 大数据-Zookeeper 安装步骤(亲测保成功)
王哪跑nn
大数据linuxlinuxzookeeper大数据
第2章Zookeeper本地安装步骤1.上传到hadoop01上面的apps包下面[root@hadoop01current]#cd/opt/apps2.解压该文件tar-zxvfzookeeper-3.4.6.tar.gz3.配置服务器编号在/opt/apps/zookeeper-3.4.6/这个目录下创建zkData#以后zkData就是我们存储数据的目录[root@hadoop01apps]
- Ubuntu 域名映射
清风明月一壶酒
BigData
Ubuntu域名映射修改主机名将主机名分别设置为hadoop01、hadoop02、hadoop03(1)输入命令:vim/etc/sysconfig/network(编辑网络配置文件)将主机名修改为:hadoop01输入密令:i(进入编辑模式)编辑完成后按esc键退出编辑模式进入命令模式在按shift键+:键(进入末行模式)输入命令:wq(保存退出)(2)设置虚拟机和主机的域名映射输入命令:vi
- 使用DolphinScheduler调度DataX完成Mysql到Mysql的数据同步
下雨不撑伞丶
大数据mysql大数据数据仓库
使用DolphinScheduler调度DataX完成Mysql到Mysql的数据同步DolphinScheduler集群的部署基础环境:Mysql(5.7.25)JDK(1.8.0_144)Zookeeper(3.4.10)节点部署安排三台主机hadoop01,hadoop02,hadoop03hadoop01:master、alert、apimachinehadoop02:workermach
- 一、Hadoop3.1.3集群搭建
Dream答案
Hadoophadoop大数据hdfsyarnmapreduce
一、集群规划hadoop01(209.2)hadoop02(209.3)hadoop03(209.4)HDFSNameNodeDataNodeDataNodeSecondaryNameNodeDataNodeYARNNodeManagerResourceManagerNodeManagerNodeManagerNameNode和SecondaryNameNode不要放在同一台服务器上二、创建用户u
- hadoop1.2.1+zookeeper-3.4.5+hbase-0.94.1集群安装
浮生(FS)
hadoop+Hbasehadoop集群分布式应用zookeeperhbase
一,环境:1,主机规划:集群中包括3个节点:hadoop01为Master,其余为Salve,节点之间局域网连接,可以相互ping通。机器名称IP地址hadoop01192.168.1.31hadoop02192.168.1.32hadoop03192.168.1.33三个节点上均是CentOS6.3x86_64系统,并且有一个相同的用户hadoop。hadoop01做为master配置NameN
- mac下搭建hadoop完全分布式集群
Tracy_曦
大数据hadoopbigdata
环境要求:MacOSBigSur11.5.2ParallelDesktop17ProEditionFinalShell具体步骤:1.PD下载unbuntulinux安装,安装完毕后进入终端2.进行hostname的设置(永久更改主机名的方式):sudogedit/etc/hostname打开文件后进行修改,改为hadoop01确保防火墙关闭:sudoufwstatus如果是inactive说明关闭
- hadoop01 - 大数据启蒙、初识HDFS
Doit_0e7c
分治思想:需求:1.我有一万个元素(比如数字或者单词)需要存储?2.如果查找某一个元素,最简单的遍历方式复杂度是多少3.如果我期望复杂度是O(4),怎么处理1.使用链表的方式储存数据使用链表的方式储存数据2.使用遍历的方式寻找X,时间复杂度O(n)3.使用数据分治的思想,把数据放到若干链表中(用分为2500个小链表举例,简单举例,不考虑数据倾斜等其他问题)4.分治的思想很多,比如redis集群,e
- linux系统怎么设置静态ip
猫狗熊蛇
Hadooplinuxtcp/ip网络
这里以hadoop01节点为例,首先在控制台输入命令vi/etc/sysconfig/network-scripts/ifcfg-eth0打开配置文件,然后修改hadoop01节点的网卡信息,具体配置如图2-31所示。将BOOTPROTO参数由dhcp改为static,表示将动态IP改为静态IP;添加固定IP地址IPADDR为192.168.20.121;添加子网掩码NETMASK为255.255
- Spark完全分布式集群搭建
piziyang12138
环境准备服务器集群我用的CentOS-6.6版本的4个虚拟机,主机名为hadoop01、hadoop02、hadoop03、hadoop04,另外我会使用hadoop用户搭建集群(生产环境中root用户不是可以任意使用的)spark安装包下载地址:https://mirrors.aliyun.com/apache/spark/我用的spark-2.2.0-bin-hadoop2.7.tgz要根据自
- hadoop01
阿南的生活记录
一、安装hadoop环境和jdk环境:hadoop-2.7.3.tar.gzjdk-7u67-linux-x64.tar.gz解压:tar-zxfjdk-7u67-linux-x64.tar.gz-C/opt/modules/tar-zxfhadoop-2.7.3.tar.gz-C/opt/modules/apache/二、卸载系统自带的jdk查询jdk:sudorpm-qa|grepjdk如下图
- 我的私人笔记(安装hadoop)
瑾寰
笔记hadoop大数据
1.安装hadoop01环境注需安装最小安装和使用英文界面2.安装群集//获得网关IP:192.168.80.2获得子网掩码:255.255.255.0//获得网段:[起始IP地址]192.168.128---[结束IP地址]192.168.80.254//计划集群的ip和主机名//192.168.80.151hadoop01//192.168.80.152hadoop02//192.168.80
- 我的私人笔记(安装hbase)
瑾寰
笔记hadoop大数据
在安装前需要安装好JDK、Hadoop以及Zookeeper,JDK版本为1.8、Hadoop版本为2.7.4以及Zookeeper的版本为3.4.10。4.1.下载下载地址:Indexof/dist/hbase本次学习版本为:hbase-1.2.1-bin.tar.gz4.2.安装步骤上传安装包至hadoop01节点的/opt/software目录下解压hbase-1.2.1-bin.tar.g
- Hadoop 3.2.4 集群搭建详细图文教程
Stars.Sky
Hadoophadoop大数据分布式
目录一、集群简介二、Hadoop集群部署方式三、集群安装3.1集群角色规划3.2服务器基础环境准备3.2.1环境初始化3.2.2ssh免密登录(在hadoop01上执行)3.2.3各个节点上安装JDK1.8环境3.3安装Hadoop3.4Hadoop安装包目录结构3.5编辑Hadoop配置文件3.5.1hadoop-env.sh3.5.2core-site.xml3.5.3hdfs-site.xm
- Hadoop完全分布式集群搭建
T³3
Linuxhadoop分布式大数据centoslinux
文章目录一、克隆二、网络配置三、SSH服务配置四、hadoop完全分布式配置一、克隆1.在虚拟机关机的状态下选择克隆2.开始克隆3.选择从当前状态创建4.创建一个完整的克隆5.选择新的虚拟机存储位置(选择内存充足的磁盘)6.开始克隆7.克隆完成8.同样的方法克隆第二台虚拟机9.在计算机中存在三台虚拟机将第一台虚拟机更名为hadoop01修改hadoop01的主机名为hadoop01修改hadoop
- 远程模式搭建Hive
QYHuiiQ
大数据之Hadoophivehadoopmysql
远程模式即服务端与客户端在不同的机器上。在之前的博客中已经记录了三台节点搭建的hadoop集群,并在hadoop02上安装了hive,在hadoop03上安装了mysql。这里我们将hadoop01节点作为hive的客户端,hadoop02作为hive的服务端。要使用远程模式,需要在Hadoop的每个节点上的core-site.xml中添加如下配置:[root@hadoop01hadoop]#pw
- 大数据项目实战(安装准备)
瑾寰
大数据mysqlbigdatasqoop
一,搭建大数据集群环境1.1安装准备1.1.1虚拟机安装与克隆1.虚拟机的安装和设置以及启动虚拟机并安装操作系统(以下仅供参考)安装一台虚拟机主机名为:hadoop01的虚拟机备用VMware虚拟机安装Linux教程(超详细)_vmware安装linux虚拟机_七维大脑的博客-CSDN博客https://blog.csdn.net/weixin_52799373/article/details/1
- Dolphinscheduler调度DataX从MySQL导入到Hive
docsz
1、Dolphinscheduler创建文件夹及创建文件2、mysql_dms_good_2_hive文件配置(全量抽取){“job”:{“content”:[{“reader”:{“name”:“mysqlreader”,“parameter”:{“column”:["*"],“connection”:[{“jdbcUrl”:[“jdbc:mysql://hadoop01:4000/boot”]
- linux设置ssh无密访问
知识海洋中的淡水鱼
linux设置ssh无密访问#hadoop01操作#生成密钥ssh-keygen-trsa-P''-f~/.ssh/id_rsa#添加密钥到认证库中cat~/.ssh/id_rsa.pub>>~/.ssh/authorized_keys#hadoop02操作#生成密钥ssh-keygen-trsa-P''-f~/.ssh/id_rsa#hadoop03操作#生成密钥ssh-keygen-trsa-
- Hadoop集群启动配置
redstone618
Hadoophadoop大数据分布式
三台机器主hadoop01从hadoop02从hadoop031、Hadoop解压包修改core-site.xmlcdhadoop-2.7.4/etc/hadoop/vimcore-site.xmlfs.defaultFShdfs://hadoop01:9000hadoop.tmp.dir/root/export/servers/hadoop-2.7.4/tmp修改hdfs-site.xmlvim
- Hadoop完全分布式运行环境的搭建
WHYBIGDATA
Hadoophadoop分布式linux大数据
Hadoop完全分布式运行环境的搭建文章目录Hadoop完全分布式运行环境的搭建0.写在前面1.模板虚拟机环境准备安装模板虚拟机hadoop01虚拟机配置要求如下关闭防火墙,关闭防火墙开机自启创建普通用户配置新用户权限修改所属主和所属组卸载虚拟机自带的JDK重启虚拟机2.克隆虚拟机克隆三台虚拟机修改克隆机IP修改主机名重启克隆机修改映射文件0.写在前面Linux版本:CentOS-7.5-x86-
- 大数据技术学习分享:Hadoop集群同步
千_锋小小千
给大家带来的技术分享是——Hadoop集群同步。一、同步方式选择一个机器,作为时间服务器(这里选择hadoop01),所有的机器与这台集群时间进行定时的同步,比如,每隔十分钟,同步一次时间。二、所需工具时间同步服务器有两个:ntpd和ntpdatp。虽然使用二者都能达到时间同步的目的,但是使用之前得弄清楚一个问题,ntpd与ntpdate在更新时间时有什么区别。ntpd不仅仅是时间同步服务器,它还
- rust的指针作为函数返回值是直接传递,还是先销毁后创建?
wudixiaotie
返回值
这是我自己想到的问题,结果去知呼提问,还没等别人回答, 我自己就想到方法实验了。。
fn main() {
let mut a = 34;
println!("a's addr:{:p}", &a);
let p = &mut a;
println!("p's addr:{:p}", &a
- java编程思想 -- 数据的初始化
百合不是茶
java数据的初始化
1.使用构造器确保数据初始化
/*
*在ReckInitDemo类中创建Reck的对象
*/
public class ReckInitDemo {
public static void main(String[] args) {
//创建Reck对象
new Reck();
}
}
- [航天与宇宙]为什么发射和回收航天器有档期
comsci
地球的大气层中有一个时空屏蔽层,这个层次会不定时的出现,如果该时空屏蔽层出现,那么将导致外层空间进入的任何物体被摧毁,而从地面发射到太空的飞船也将被摧毁...
所以,航天发射和飞船回收都需要等待这个时空屏蔽层消失之后,再进行
&
- linux下批量替换文件内容
商人shang
linux替换
1、网络上现成的资料
格式: sed -i "s/查找字段/替换字段/g" `grep 查找字段 -rl 路径`
linux sed 批量替换多个文件中的字符串
sed -i "s/oldstring/newstring/g" `grep oldstring -rl yourdir`
例如:替换/home下所有文件中的www.admi
- 网页在线天气预报
oloz
天气预报
网页在线调用天气预报
<%@ page language="java" contentType="text/html; charset=utf-8"
pageEncoding="utf-8"%>
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transit
- SpringMVC和Struts2比较
杨白白
springMVC
1. 入口
spring mvc的入口是servlet,而struts2是filter(这里要指出,filter和servlet是不同的。以前认为filter是servlet的一种特殊),这样就导致了二者的机制不同,这里就牵涉到servlet和filter的区别了。
参见:http://blog.csdn.net/zs15932616453/article/details/8832343
2
- refuse copy, lazy girl!
小桔子
copy
妹妹坐船头啊啊啊啊!都打算一点点琢磨呢。文字编辑也写了基本功能了。。今天查资料,结果查到了人家写得完完整整的。我清楚的认识到:
1.那是我自己觉得写不出的高度
2.如果直接拿来用,很快就能解决问题
3.然后就是抄咩~~
4.肿么可以这样子,都不想写了今儿个,留着作参考吧!拒绝大抄特抄,慢慢一点点写!
- apache与php整合
aichenglong
php apache web
一 apache web服务器
1 apeche web服务器的安装
1)下载Apache web服务器
2)配置域名(如果需要使用要在DNS上注册)
3)测试安装访问http://localhost/验证是否安装成功
2 apache管理
1)service.msc进行图形化管理
2)命令管理,配
- Maven常用内置变量
AILIKES
maven
Built-in properties
${basedir} represents the directory containing pom.xml
${version} equivalent to ${project.version} (deprecated: ${pom.version})
Pom/Project properties
Al
- java的类和对象
百合不是茶
JAVA面向对象 类 对象
java中的类:
java是面向对象的语言,解决问题的核心就是将问题看成是一个类,使用类来解决
java使用 class 类名 来创建类 ,在Java中类名要求和构造方法,Java的文件名是一样的
创建一个A类:
class A{
}
java中的类:将某两个事物有联系的属性包装在一个类中,再通
- JS控制页面输入框为只读
bijian1013
JavaScript
在WEB应用开发当中,增、删除、改、查功能必不可少,为了减少以后维护的工作量,我们一般都只做一份页面,通过传入的参数控制其是新增、修改或者查看。而修改时需将待修改的信息从后台取到并显示出来,实际上就是查看的过程,唯一的区别是修改时,页面上所有的信息能修改,而查看页面上的信息不能修改。因此完全可以将其合并,但通过前端JS将查看页面的所有信息控制为只读,在信息量非常大时,就比较麻烦。
- AngularJS与服务器交互
bijian1013
JavaScriptAngularJS$http
对于AJAX应用(使用XMLHttpRequests)来说,向服务器发起请求的传统方式是:获取一个XMLHttpRequest对象的引用、发起请求、读取响应、检查状态码,最后处理服务端的响应。整个过程示例如下:
var xmlhttp = new XMLHttpRequest();
xmlhttp.onreadystatechange
- [Maven学习笔记八]Maven常用插件应用
bit1129
maven
常用插件及其用法位于:http://maven.apache.org/plugins/
1. Jetty server plugin
2. Dependency copy plugin
3. Surefire Test plugin
4. Uber jar plugin
1. Jetty Pl
- 【Hive六】Hive用户自定义函数(UDF)
bit1129
自定义函数
1. 什么是Hive UDF
Hive是基于Hadoop中的MapReduce,提供HQL查询的数据仓库。Hive是一个很开放的系统,很多内容都支持用户定制,包括:
文件格式:Text File,Sequence File
内存中的数据格式: Java Integer/String, Hadoop IntWritable/Text
用户提供的 map/reduce 脚本:不管什么
- 杀掉nginx进程后丢失nginx.pid,如何重新启动nginx
ronin47
nginx 重启 pid丢失
nginx进程被意外关闭,使用nginx -s reload重启时报如下错误:nginx: [error] open() “/var/run/nginx.pid” failed (2: No such file or directory)这是因为nginx进程被杀死后pid丢失了,下一次再开启nginx -s reload时无法启动解决办法:nginx -s reload 只是用来告诉运行中的ng
- UI设计中我们为什么需要设计动效
brotherlamp
UIui教程ui视频ui资料ui自学
随着国际大品牌苹果和谷歌的引领,最近越来越多的国内公司开始关注动效设计了,越来越多的团队已经意识到动效在产品用户体验中的重要性了,更多的UI设计师们也开始投身动效设计领域。
但是说到底,我们到底为什么需要动效设计?或者说我们到底需要什么样的动效?做动效设计也有段时间了,于是尝试用一些案例,从产品本身出发来说说我所思考的动效设计。
一、加强体验舒适度
嗯,就是让用户更加爽更加爽的用你的产品。
- Spring中JdbcDaoSupport的DataSource注入问题
bylijinnan
javaspring
参考以下两篇文章:
http://www.mkyong.com/spring/spring-jdbctemplate-jdbcdaosupport-examples/
http://stackoverflow.com/questions/4762229/spring-ldap-invoking-setter-methods-in-beans-configuration
Sprin
- 数据库连接池的工作原理
chicony
数据库连接池
随着信息技术的高速发展与广泛应用,数据库技术在信息技术领域中的位置越来越重要,尤其是网络应用和电子商务的迅速发展,都需要数据库技术支持动 态Web站点的运行,而传统的开发模式是:首先在主程序(如Servlet、Beans)中建立数据库连接;然后进行SQL操作,对数据库中的对象进行查 询、修改和删除等操作;最后断开数据库连接。使用这种开发模式,对
- java 关键字
CrazyMizzz
java
关键字是事先定义的,有特别意义的标识符,有时又叫保留字。对于保留字,用户只能按照系统规定的方式使用,不能自行定义。
Java中的关键字按功能主要可以分为以下几类:
(1)访问修饰符
public,private,protected
p
- Hive中的排序语法
daizj
排序hiveorder byDISTRIBUTE BYsort by
Hive中的排序语法 2014.06.22 ORDER BY
hive中的ORDER BY语句和关系数据库中的sql语法相似。他会对查询结果做全局排序,这意味着所有的数据会传送到一个Reduce任务上,这样会导致在大数量的情况下,花费大量时间。
与数据库中 ORDER BY 的区别在于在hive.mapred.mode = strict模式下,必须指定 limit 否则执行会报错。
- 单态设计模式
dcj3sjt126com
设计模式
单例模式(Singleton)用于为一个类生成一个唯一的对象。最常用的地方是数据库连接。 使用单例模式生成一个对象后,该对象可以被其它众多对象所使用。
<?phpclass Example{ // 保存类实例在此属性中 private static&
- svn locked
dcj3sjt126com
Lock
post-commit hook failed (exit code 1) with output:
svn: E155004: Working copy 'D:\xx\xxx' locked
svn: E200031: sqlite: attempt to write a readonly database
svn: E200031: sqlite: attempt to write a
- ARM寄存器学习
e200702084
数据结构C++cC#F#
无论是学习哪一种处理器,首先需要明确的就是这种处理器的寄存器以及工作模式。
ARM有37个寄存器,其中31个通用寄存器,6个状态寄存器。
1、不分组寄存器(R0-R7)
不分组也就是说说,在所有的处理器模式下指的都时同一物理寄存器。在异常中断造成处理器模式切换时,由于不同的处理器模式使用一个名字相同的物理寄存器,就是
- 常用编码资料
gengzg
编码
List<UserInfo> list=GetUserS.GetUserList(11);
String json=JSON.toJSONString(list);
HashMap<Object,Object> hs=new HashMap<Object, Object>();
for(int i=0;i<10;i++)
{
- 进程 vs. 线程
hongtoushizi
线程linux进程
我们介绍了多进程和多线程,这是实现多任务最常用的两种方式。现在,我们来讨论一下这两种方式的优缺点。
首先,要实现多任务,通常我们会设计Master-Worker模式,Master负责分配任务,Worker负责执行任务,因此,多任务环境下,通常是一个Master,多个Worker。
如果用多进程实现Master-Worker,主进程就是Master,其他进程就是Worker。
如果用多线程实现
- Linux定时Job:crontab -e 与 /etc/crontab 的区别
Josh_Persistence
linuxcrontab
一、linux中的crotab中的指定的时间只有5个部分:* * * * *
分别表示:分钟,小时,日,月,星期,具体说来:
第一段 代表分钟 0—59
第二段 代表小时 0—23
第三段 代表日期 1—31
第四段 代表月份 1—12
第五段 代表星期几,0代表星期日 0—6
如:
*/1 * * * * 每分钟执行一次。
*
- KMP算法详解
hm4123660
数据结构C++算法字符串KMP
字符串模式匹配我们相信大家都有遇过,然而我们也习惯用简单匹配法(即Brute-Force算法),其基本思路就是一个个逐一对比下去,这也是我们大家熟知的方法,然而这种算法的效率并不高,但利于理解。
假设主串s="ababcabcacbab",模式串为t="
- 枚举类型的单例模式
zhb8015
单例模式
E.编写一个包含单个元素的枚举类型[极推荐]。代码如下:
public enum MaYun {himself; //定义一个枚举的元素,就代表MaYun的一个实例private String anotherField;MaYun() {//MaYun诞生要做的事情//这个方法也可以去掉。将构造时候需要做的事情放在instance赋值的时候:/** himself = MaYun() {*
- Kafka+Storm+HDFS
ssydxa219
storm
cd /myhome/usr/stormbin/storm nimbus &bin/storm supervisor &bin/storm ui &Kafka+Storm+HDFS整合实践kafka_2.9.2-0.8.1.1.tgzapache-storm-0.9.2-incubating.tar.gzKafka安装配置我们使用3台机器搭建Kafk
- Java获取本地服务器的IP
中华好儿孙
javaWeb获取服务器ip地址
System.out.println("getRequestURL:"+request.getRequestURL());
System.out.println("getLocalAddr:"+request.getLocalAddr());
System.out.println("getLocalPort:&quo