- Hadooop和Hbase是什么关系
wwwyx12138
hbase数据库大数据
HBase是一个基于Hadoop的NoSQL分布式列存储数据库,用于存储海量结构化和半结构化数据,并提供高可用、高性能和面向列的操作功能。HBase通过Hadoop的HDFS(Hadoop分布式文件系统)和MapReduce实现了水平扩展和处理分布式数据。本文将详细介绍hbase和hadoop有什么关系。1.HBase的存储方式HBase使用列族来存储数据,每个列族可以包含多个列。相比较于关系型数
- PySpark(Spark3.0)
小宇0926
Pythonpythonspark
PySpark(Spark3.0)PySpark简单来说就是Spark提供的Python编程API,包括交互式的PySparkshell和非交互式的Python程序。1.环境Spark3.0Hadooop3.2Centos7Python3.6.8PycharmWindos10其中值得注意的是Python的版本必须是3.6+,以下是Spark官网的说明前提Spark3.0的集群已经搭建完毕,本文使用
- 面试题百日百刷-flink篇(二)
后端面试flink
锁屏面试题百日百刷,每个工作日坚持更新面试题。请看到最后就能获取你想要的,接下来的是今日的面试题:1.Flink的运行必须依赖Hadoop组件吗?**Flink可以完全独立于Hadoop,在不依赖Hadoop组件下运行。但是做为大数据的基础设施,Hadoop体系是任何大数据框架都绕不过去的。Flink可以集成众多Hadooop组件,例如Yarn、Hbase、HDFS等等。例如,Flink可以和Ya
- HDFS文件块大小
高个子男孩
Hadoophdfshadoop大数据
HDFS中的文件在物理上是分块存储(Block),块的大小可以通过配置参数(dfs.blocksize)来规定,默认大小在Hadooop2X版本中是128M,老版本中是64M。思考:为什么块的大小不能设置太小,也不能设置太大?HDFS的块设置太小,会增加寻址时间,程序一直在找块的位置;如果块设置的太大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需要的时间。导致程序在处理这块数据时,会非常慢
- Flink面试题整理
Omar小胖
hadoop大数据分布式
2.Flink的运行必须依赖Hadoop组件吗?Flink可以完全独立于Hadoop,在不依赖Hadoop组件下运行。但是做为大数据的基础设施,Hadoop体系是任何大数据框架都绕不过去的。Flink可以集成众多Hadooop组件,例如Yarn、Hbase、HDFS等等。例如,Flink可以和Yarn集成做资源调度,也可以读写HDFS,或者利用HDFS做检查点3.Flink集群运行时角色Flink
- 【博学谷学习记录】超强总结,用心分享丨大数据超神之路(五):Hadooop进阶版
丨许晨丨
大数据学习hadoop
第1章问题解答1.1Hadoop架构NameNode1、NameNode管理整个HDFS集群2、NameNode管理整个HDFS的所有元数据(/a.txtrwx1K3{blk:node1,node2,node3})3、Client要上传或者下载文件必须先找NameNode4、一旦NameNode挂掉,整个HdFS集群将无法工作5、各个DataNode隔一段时间向NameNode汇报自己的Block
- Hadooop-Yarn
一名小码农
大数据hadoopyarn参数
文章目录一、Yarn资源调度器概述1.Yarn基础架构2.Yarn工作机制二、Yarn调度器和调度算法1.先进先出调度器(FIFO)2.容量调度器(CapacityScheduler)3.公平调度器(FairScheduler)1)公平调度器与容量调度器的区别2)公平调度器队列资源分配方式a.FIFO策略b.Fair策略c.DRF策略三、Yarn常用命令1.yarnapplication查看任务2
- Impala不能查询到Hive中新增加的表
mozuc
Hadoop
使用ClouderaManager部署安装的CDH和Impala,Hive中新增加的表,impala中查询不到,其原因是/etc/impala/conf下面没有hadoop和hive相关的配置文件:将hadooop-core.xml,hdfs-site.xml,hive-site.xml拷贝到conf下,重启服务即可。
- 1.2Hadooop(分布式计算平台)快速入门篇
#YF#
大数据分布式大数据hadoop
Hadooop(分布式计算平台)快速入门任务目的重点掌握Hadoop的核心组件了解Hadoop的发展历史及其生态体系熟记Hadoop的主要特性任务清单任务1:Hadoop简介任务2:Hadoop产生背景任务3:Hadoop特性详细任务步骤任务1:Hadoop简介Hadoop是Apache软件基金会旗下的一个开源的分布式计算平台。Hadoop提供的功能:利用服务器集群,根据用户的自定义业务逻辑,对海
- hadooop篇一-入门(配置及架构了解)
smsmtiger
hadoop学习篇
1.hadoop框架1.1Hadoop是什么1.2Hadoop发展历史1.3Hadoop三大发行版本Hadoop三大发行版本:Apache、Cloudera、Hortonworks。Apache版本最原始(最基础)的版本,对于入门学习最好。Cloudera在大型互联网企业中用的较多。Hortonworks文档较好。1.ApacheHadoop官网地址:http://hadoop.apache.or
- hadooop-3,3,0 linux 64位编译包以及spark-3.0.0配合hadoop-3.3.0 64位源码编译包下载
fanghailiang2016
大数据相关
目前hadoop最新的版本是3.3.0,spark最新的版本是3.0.0。花了一天的时间,编译了hadoop和spark的最新版并进行了资源整合。其中,hadoop包含了snappy压缩包等等。放在我的百度云盘上,分享给各位看官下载~hadoop-3.3.0linux64位源码编译包:链接:https://pan.baidu.com/s/1BEDbOxHJl5HzXVyB5T9gSw密码:dsq7
- hadoop-2.10.0部署
zacharyzlj
笔记
下载hadoop我这里是下载的hadoop-2.10,从北京理工大学开源软件镜像,官网下载你懂得…地址:http://mirror.bit.edu.cn/apache/hadoop/下载完成后解压,tar-xzvfhadoop-2.10.0.tar.gz,这里我将hadoop直接放在加目录下。伪分布配置配置hadoop配置文件路径在hadoop目录/etc/hadoop中hadooop-env.s
- 大数据实践课02——HDFS分布式文件系统
小新同学summer
大数据
大数据实践课02——HDFS分布式文件系统HDFS存储模型:偏移量:offset副本数:3个(可自行调整)/home/hadoop-2.7.5/etc/hadoop/hdfs-site.xml/home/hadoop-2.7.5/etc/hadoop/目录下面为配置文件HDFS架构模型:HDFS部署安装1、Java2、ssh实现免密钥3、修改配置文件(官方文档有介绍)-$HADOOOP_HOME/
- hadooop
Time_Record
hadooop:利用服务器集群对数据进行存储,根据用户自定义业务逻辑,对海量数据分布式计算,JAVA语言开发的组件:HDFS;分布式文件系统MAPREDUCE:分布式运算程序开发框架HIVE:SQL数据仓库工具HBASE:基于HADOOP分布式海量数据库(可用redis,mangoDB替代)ZOOKEEPER:分布式协调服务基础组件Sqoop:数据库迁移工具Flume:日志数据采集框架YARN:资
- 使用hadoop-streaming初体验mapreduce
DaHuangXiao
hadoop
接下来记录一下如何使用hadoop-streaming运行一个简单的mapreducehadoop-streaminghadoop-streaming和spark-streaming不是一个意思简单的说hadooop-streaming是一个框架,可以让任何语言编写的mr程序都能在hadoop上运行,只需要遵循标准输入stdin输出stdout即可。因此我们可以用python写一个mr过程来体验一
- Hadoop生态圈初识
pamperxg
hadooop提供的功能:利用服务器集群,根据用户自定义的业务逻辑(利用hadoop的api),对海量数据进行分布式处理指的是一套开源软件平台,通常也指一个更广泛的概念-hadoop生态圈三大核心组件hdfs,分布式文件系统yarn,资源调度resourcemanagermapreduce,业务逻辑编程maptask,reducetaskzookeeper,做资源协调,其实并没有管理权限Hbase
- Hadoop 与 Hbase基本操作与配置
Elitack
hadoop搭建目的本文档主要讲述如何快速搭建单节点hadoop以及一些简单mapreduce操作和一些HDFS基本知识配置要求平台要求GNU/LINUX支持该平台,Hadoop可以在linux上搭建2000个节点的集群。windows也支持,但是以下步骤只支持linux。想要在windows搭建hadooop请访问wikipage软件要求java安装下载jdk解压设置环境变量:sudogedit
- Hadooop分布式集群搭建之--ntp同步集群时间
卡列宁的微笑66
Hadoop
时间同步方式:hadoop112作为时间服务器,hadoop113、hadoop114定时同步hadoop112的时间,每10分钟同步一次。配置时间同步具体实操:一、时间服务器配置(必须root用户)1、检查ntp是否安装[root@hadoop112hadoop]#rpm-qa|grepntpfontpackages-filesystem-1.41-1.1.el6.noarchntpdate-4
- Hadooop集群安装超详细
wisdom_power
大数据相关
原文链接:https://blog.csdn.net/woshigeshou123/article/details/88331741、集群部署介绍1.1Hadoop简介Hadoop是Apache软件基金会旗下的一个开源分布式计算平台。以Hadoop分布式文件系统(HDFS,HadoopDistributedFilesystem)和MapReduce(GoogleMapReduce的开源实现)为核心
- Hadooop集群安装超详细
wisdom_power
大数据相关
原文链接:https://blog.csdn.net/woshigeshou123/article/details/88331741、集群部署介绍1.1Hadoop简介Hadoop是Apache软件基金会旗下的一个开源分布式计算平台。以Hadoop分布式文件系统(HDFS,HadoopDistributedFilesystem)和MapReduce(GoogleMapReduce的开源实现)为核心
- Spark整合到yarn上步骤
夜古诚
spark
前言:hadoop集群上安装好spark软件后,可以和yarn整合,具体步骤如下。设置HADOOP_CONF_DIRexportHADOOP_CONF_DIR=/home/hadoop/apps/hadoop-2.7.6/etc/hadoop/将hadoop下/etc/hadooop目录下core-site.xmlhdfs-site.xmlyarn-site.xml复制到spark下/conf目录
- hadoop+zookeeper 高可用集群搭建
Amour恋空
Hadoop
首先,hadoop需要java运行环境,所以请提前配置好JDK以及Hadooop环境变量1.集群规划主机名ipNameNodeDataNodeYarnZooKeeperJournalNodeZhiyou01192.168.233.128是是否是是Zhiyou02192.168.233.130是是否是是Zhiyou03192.168.233.131否是是是是2.准备:(在一台机器上配置,之后复制到其
- 大数据环境安装汇总
phn_csdn
分布式大数据hadoop
1.安装centos6.4到vmware用户名为hadoop2.添加hadooop到sudo用户组su-切换到root中visudo添加hadoopALL=(ALL)ALL3.修改主机名:sudovim/etc/sysconfig/networksudovim/etc/hostssudohostnameyour_user_name4.关闭防火墙serviceiptablesstopchkconfi
- 【配置】sqoop安装配置
ZoeYen_
sqoop
一、安装前环境准备1.关闭防火墙1.chkconfigiptablesoff//关闭防火墙2.reboot//重启虚拟机3.serviceiptablesstatus//查看防火墙状态处于关闭状态iptables:firewallisnotrunning2.绑定hostname与IPvi/etc/hosts3.创建hadooop用户和用户组4.配置ssh免密码登录5.安装jdkmkdir-p/ho
- Hadoop伪分布式集群搭建
剥离你的情绪
所谓的伪分布式集群搭建指的是单主机的环境,所以我的暂时只需要一台虚拟机即可本次使用的是hadoop-2.8.0版本1.配置主机环境Hadoop的搭建依赖于JDK所以在搭建之前需要将JDK安装完毕1.1修改主机名称本次我会使用使用hadooop-alone的名称`vim/etc/hostname`1.2在hosts文件中进行主机的注册(tips:如果不注册在启动Hadoop时候报错)vim/etc/
- Hadoop的学习--安装配置与使用
疯狂的原始人
安装配置系统:Ubuntu14.04java:1.7.0_75相关资料官网下载地址官网文档安装我们需要关闭掉防火墙,命令如下:sudoufwdisable下载2.6.5的版本,将下载的Hadooop的压缩包解压到相应的目录,我这里解压到/opt/hadoop-2.6.5文件夹下。配置修改/opt/hadoop-2.6.5/etc/hadoop/hadoop-env.sh文件,将JAVA_HOME直
- spark集群详细搭建过程及遇到的问题解决(一)
lefteva
集群hadoopspark数据挖掘
注:其中也参考了网上的许多教程,但很多网上的教程在配置过程中,会出很多错误,在解决的过程中,做出了总结。此文是针对小白。如有不对,请大神们指教。。。。配置环境系统:Ubuntu16.04配置版本分别为:hadooop2.7.3、java"1.7.0_79"、Scala2.11.6、spark-2.0.1-bin-hadoop2.7本实验主要配置三个节点的小集群:配置节点分为一个master、两个w
- Spark-基础-Spark编译与部署--Hadoop编译安装
youdianjinjin
1、编译Hadooop1.1 搭建环境1.1.1 安装并设置maven1. 下载maven安装包,建议安装3.0以上版本,本次安装选择的是maven3.0.5的二进制包,下载地址如下http://mirror.bit.edu.cn/apache/maven/maven-3/2. 使用ssh工具把maven包上传到/home/hadoop/upload目录3. 解压缩apache-maven-3.0
- hadoop中map的个数
张欢19933
hadoop中map的个数
hadooop提供了一个设置map个数的参数mapred.map.tasks,我们可以通过这个参数来控制map的个数。但是通过这种方式设置map的个数,并不是每次都有效的。原因是mapred.map.tasks只是一个hadoop的参考数值,最终map的个数,还取决于其他的因素。 为了方便介绍,先来看几个名词:block_size:hdfs的文件块大小,默认为64M,可以通过参数dfs.bl
- 数据库_2: HIVE
mijian1207mijian
hive架构独立于集群之外,可以视为Hadooop的客户端Metastore是Hive的元数据集中存放池用户接口:CLIThrift服务器以服务器模式运行,供客户连接thrift是一个软件框架,用来进行可扩展且跨语言的服务的开发。它结合了功能强大的软件堆栈和代码生成引擎,以构建在C++,Java,Python,PHP,Ruby,Erlang,Perl,Haskell,C#,Cocoa,JavaSc
- java封装继承多态等
麦田的设计者
javaeclipsejvmcencapsulatopn
最近一段时间看了很多的视频却忘记总结了,现在只能想到什么写什么了,希望能起到一个回忆巩固的作用。
1、final关键字
译为:最终的
&
- F5与集群的区别
bijian1013
weblogic集群F5
http请求配置不是通过集群,而是F5;集群是weblogic容器的,如果是ejb接口是通过集群。
F5同集群的差别,主要还是会话复制的问题,F5一把是分发http请求用的,因为http都是无状态的服务,无需关注会话问题,类似
- LeetCode[Math] - #7 Reverse Integer
Cwind
java题解MathLeetCodeAlgorithm
原题链接:#7 Reverse Integer
要求:
按位反转输入的数字
例1: 输入 x = 123, 返回 321
例2: 输入 x = -123, 返回 -321
难度:简单
分析:
对于一般情况,首先保存输入数字的符号,然后每次取输入的末位(x%10)作为输出的高位(result = result*10 + x%10)即可。但
- BufferedOutputStream
周凡杨
首先说一下这个大批量,是指有上千万的数据量。
例子:
有一张短信历史表,其数据有上千万条数据,要进行数据备份到文本文件,就是执行如下SQL然后将结果集写入到文件中!
select t.msisd
- linux下模拟按键输入和鼠标
被触发
linux
查看/dev/input/eventX是什么类型的事件, cat /proc/bus/input/devices
设备有着自己特殊的按键键码,我需要将一些标准的按键,比如0-9,X-Z等模拟成标准按键,比如KEY_0,KEY-Z等,所以需要用到按键 模拟,具体方法就是操作/dev/input/event1文件,向它写入个input_event结构体就可以模拟按键的输入了。
linux/in
- ContentProvider初体验
肆无忌惮_
ContentProvider
ContentProvider在安卓开发中非常重要。与Activity,Service,BroadcastReceiver并称安卓组件四大天王。
在android中的作用是用来对外共享数据。因为安卓程序的数据库文件存放在data/data/packagename里面,这里面的文件默认都是私有的,别的程序无法访问。
如果QQ游戏想访问手机QQ的帐号信息一键登录,那么就需要使用内容提供者COnte
- 关于Spring MVC项目(maven)中通过fileupload上传文件
843977358
mybatisspring mvc修改头像上传文件upload
Spring MVC 中通过fileupload上传文件,其中项目使用maven管理。
1.上传文件首先需要的是导入相关支持jar包:commons-fileupload.jar,commons-io.jar
因为我是用的maven管理项目,所以要在pom文件中配置(每个人的jar包位置根据实际情况定)
<!-- 文件上传 start by zhangyd-c --&g
- 使用svnkit api,纯java操作svn,实现svn提交,更新等操作
aigo
svnkit
原文:http://blog.csdn.net/hardwin/article/details/7963318
import java.io.File;
import org.apache.log4j.Logger;
import org.tmatesoft.svn.core.SVNCommitInfo;
import org.tmateso
- 对比浏览器,casperjs,httpclient的Header信息
alleni123
爬虫crawlerheader
@Override
protected void doGet(HttpServletRequest req, HttpServletResponse res) throws ServletException, IOException
{
String type=req.getParameter("type");
Enumeration es=re
- java.io操作 DataInputStream和DataOutputStream基本数据流
百合不是茶
java流
1,java中如果不保存整个对象,只保存类中的属性,那么我们可以使用本篇文章中的方法,如果要保存整个对象 先将类实例化 后面的文章将详细写到
2,DataInputStream 是java.io包中一个数据输入流允许应用程序以与机器无关方式从底层输入流中读取基本 Java 数据类型。应用程序可以使用数据输出流写入稍后由数据输入流读取的数据。
- 车辆保险理赔案例
bijian1013
车险
理赔案例:
一货运车,运输公司为车辆购买了机动车商业险和交强险,也买了安全生产责任险,运输一车烟花爆竹,在行驶途中发生爆炸,出现车毁、货损、司机亡、炸死一路人、炸毁一间民宅等惨剧,针对这几种情况,该如何赔付。
赔付建议和方案:
客户所买交强险在这里不起作用,因为交强险的赔付前提是:“机动车发生道路交通意外事故”;
如果是交通意外事故引发的爆炸,则优先适用交强险条款进行赔付,不足的部分由商业
- 学习Spring必学的Java基础知识(5)—注解
bijian1013
javaspring
文章来源:http://www.iteye.com/topic/1123823,整理在我的博客有两个目的:一个是原文确实很不错,通俗易懂,督促自已将博主的这一系列关于Spring文章都学完;另一个原因是为免原文被博主删除,在此记录,方便以后查找阅读。
有必要对
- 【Struts2一】Struts2 Hello World
bit1129
Hello world
Struts2 Hello World应用的基本步骤
创建Struts2的Hello World应用,包括如下几步:
1.配置web.xml
2.创建Action
3.创建struts.xml,配置Action
4.启动web server,通过浏览器访问
配置web.xml
<?xml version="1.0" encoding="
- 【Avro二】Avro RPC框架
bit1129
rpc
1. Avro RPC简介 1.1. RPC
RPC逻辑上分为二层,一是传输层,负责网络通信;二是协议层,将数据按照一定协议格式打包和解包
从序列化方式来看,Apache Thrift 和Google的Protocol Buffers和Avro应该是属于同一个级别的框架,都能跨语言,性能优秀,数据精简,但是Avro的动态模式(不用生成代码,而且性能很好)这个特点让人非常喜欢,比较适合R
- lua set get cookie
ronin47
lua cookie
lua:
local access_token = ngx.var.cookie_SGAccessToken
if access_token then
ngx.header["Set-Cookie"] = "SGAccessToken="..access_token.."; path=/;Max-Age=3000"
end
- java-打印不大于N的质数
bylijinnan
java
public class PrimeNumber {
/**
* 寻找不大于N的质数
*/
public static void main(String[] args) {
int n=100;
PrimeNumber pn=new PrimeNumber();
pn.printPrimeNumber(n);
System.out.print
- Spring源码学习-PropertyPlaceholderHelper
bylijinnan
javaspring
今天在看Spring 3.0.0.RELEASE的源码,发现PropertyPlaceholderHelper的一个bug
当时觉得奇怪,上网一搜,果然是个bug,不过早就有人发现了,且已经修复:
详见:
http://forum.spring.io/forum/spring-projects/container/88107-propertyplaceholderhelper-bug
- [逻辑与拓扑]布尔逻辑与拓扑结构的结合会产生什么?
comsci
拓扑
如果我们已经在一个工作流的节点中嵌入了可以进行逻辑推理的代码,那么成百上千个这样的节点如果组成一个拓扑网络,而这个网络是可以自动遍历的,非线性的拓扑计算模型和节点内部的布尔逻辑处理的结合,会产生什么样的结果呢?
是否可以形成一种新的模糊语言识别和处理模型呢? 大家有兴趣可以试试,用软件搞这些有个好处,就是花钱比较少,就算不成
- ITEYE 都换百度推广了
cuisuqiang
GoogleAdSense百度推广广告外快
以前ITEYE的广告都是谷歌的Google AdSense,现在都换成百度推广了。
为什么个人博客设置里面还是Google AdSense呢?
都知道Google AdSense不好申请,这在ITEYE上也不是讨论了一两天了,强烈建议ITEYE换掉Google AdSense。至少,用一个好申请的吧。
什么时候能从ITEYE上来点外快,哪怕少点
- 新浪微博技术架构分析
dalan_123
新浪微博架构
新浪微博在短短一年时间内从零发展到五千万用户,我们的基层架构也发展了几个版本。第一版就是是非常快的,我们可以非常快的实现我们的模块。我们看一下技术特点,微博这个产品从架构上来分析,它需要解决的是发表和订阅的问题。我们第一版采用的是推的消息模式,假如说我们一个明星用户他有10万个粉丝,那就是说用户发表一条微博的时候,我们把这个微博消息攒成10万份,这样就是很简单了,第一版的架构实际上就是这两行字。第
- 玩转ARP攻击
dcj3sjt126com
r
我写这片文章只是想让你明白深刻理解某一协议的好处。高手免看。如果有人利用这片文章所做的一切事情,盖不负责。 网上关于ARP的资料已经很多了,就不用我都说了。 用某一位高手的话来说,“我们能做的事情很多,唯一受限制的是我们的创造力和想象力”。 ARP也是如此。 以下讨论的机子有 一个要攻击的机子:10.5.4.178 硬件地址:52:54:4C:98
- PHP编码规范
dcj3sjt126com
编码规范
一、文件格式
1. 对于只含有 php 代码的文件,我们将在文件结尾处忽略掉 "?>" 。这是为了防止多余的空格或者其它字符影响到代码。例如:<?php$foo = 'foo';2. 缩进应该能够反映出代码的逻辑结果,尽量使用四个空格,禁止使用制表符TAB,因为这样能够保证有跨客户端编程器软件的灵活性。例
- linux 脱机管理(nohup)
eksliang
linux nohupnohup
脱机管理 nohup
转载请出自出处:http://eksliang.iteye.com/blog/2166699
nohup可以让你在脱机或者注销系统后,还能够让工作继续进行。他的语法如下
nohup [命令与参数] --在终端机前台工作
nohup [命令与参数] & --在终端机后台工作
但是这个命令需要注意的是,nohup并不支持bash的内置命令,所
- BusinessObjects Enterprise Java SDK
greemranqq
javaBOSAPCrystal Reports
最近项目用到oracle_ADF 从SAP/BO 上调用 水晶报表,资料比较少,我做一个简单的分享,给和我一样的新手 提供更多的便利。
首先,我是尝试用JAVA JSP 去访问的。
官方API:http://devlibrary.businessobjects.com/BusinessObjectsxi/en/en/BOE_SDK/boesdk_ja
- 系统负载剧变下的管控策略
iamzhongyong
高并发
假如目前的系统有100台机器,能够支撑每天1亿的点击量(这个就简单比喻一下),然后系统流量剧变了要,我如何应对,系统有那些策略可以处理,这里总结了一下之前的一些做法。
1、水平扩展
这个最容易理解,加机器,这样的话对于系统刚刚开始的伸缩性设计要求比较高,能够非常灵活的添加机器,来应对流量的变化。
2、系统分组
假如系统服务的业务不同,有优先级高的,有优先级低的,那就让不同的业务调用提前分组
- BitTorrent DHT 协议中文翻译
justjavac
bit
前言
做了一个磁力链接和BT种子的搜索引擎 {Magnet & Torrent},因此把 DHT 协议重新看了一遍。
BEP: 5Title: DHT ProtocolVersion: 3dec52cb3ae103ce22358e3894b31cad47a6f22bLast-Modified: Tue Apr 2 16:51:45 2013 -070
- Ubuntu下Java环境的搭建
macroli
java工作ubuntu
配置命令:
$sudo apt-get install ubuntu-restricted-extras
再运行如下命令:
$sudo apt-get install sun-java6-jdk
待安装完毕后选择默认Java.
$sudo update- alternatives --config java
安装过程提示选择,输入“2”即可,然后按回车键确定。
- js字符串转日期(兼容IE所有版本)
qiaolevip
TODateStringIE
/**
* 字符串转时间(yyyy-MM-dd HH:mm:ss)
* result (分钟)
*/
stringToDate : function(fDate){
var fullDate = fDate.split(" ")[0].split("-");
var fullTime = fDate.split("
- 【数据挖掘学习】关联规则算法Apriori的学习与SQL简单实现购物篮分析
superlxw1234
sql数据挖掘关联规则
关联规则挖掘用于寻找给定数据集中项之间的有趣的关联或相关关系。
关联规则揭示了数据项间的未知的依赖关系,根据所挖掘的关联关系,可以从一个数据对象的信息来推断另一个数据对象的信息。
例如购物篮分析。牛奶 ⇒ 面包 [支持度:3%,置信度:40%] 支持度3%:意味3%顾客同时购买牛奶和面包。 置信度40%:意味购买牛奶的顾客40%也购买面包。 规则的支持度和置信度是两个规则兴
- Spring 5.0 的系统需求,期待你的反馈
wiselyman
spring
Spring 5.0将在2016年发布。Spring5.0将支持JDK 9。
Spring 5.0的特性计划还在工作中,请保持关注,所以作者希望从使用者得到关于Spring 5.0系统需求方面的反馈。