E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
HADOOP_HOME
hbase bluk loading
阅读更多使用HBASE的BULKLOAD一、环境的配置1.首先配置$
HADOOP_HOME
下的conf/hadoop-env.sh文件,修改其中的HADOOP_CLASSPATH为如下exportHADOOP_CLASSPATH
乡里伢崽
·
2015-03-03 11:00
hbase bluk loading
使用HBASE的BULK LOAD 一、环境的配置 1.首先配置$
HADOOP_HOME
下的conf/hadoop-env.sh文件,修改其中的HADOOP_CLASSPATH为如下
乡里伢崽
·
2015-03-03 11:00
hbase
hadoop stream 参数详解
譬如, $
HADOOP_HOME
/bin/hadoop jar $
HADOOP_HOME
/hadoop-streaming.jar -input my
iloveyin
·
2015-01-29 10:00
reduce输出结果到sqlserver数据库异常
其中遇到一些小问题在map、reduce进行的比较顺利,因为数据比较规范,很快都搞定了在运行时出现以下情况遇到这种情况,第一时间想到是因为结点上驱动包的问题对于缺少驱动的问题,有两种方案1、在集群的每个结点${
HADOOP_HOME
小黑放大
·
2015-01-28 17:00
hadoop
数据库
hadoop+hive使用中遇到的问题汇总
问题排查方式一般的错误,查看错误输出,按照关键字google异常错误(如namenode、datanode莫名其妙挂了):查看hadoop($
HADOOP_HOME
/logs)或hive日志hadoop
徐龙平
·
2015-01-21 10:06
hadoop
hive
报错
Mahout-RandomForests
1.数据下载与准备1.1下载地址为http://nsl.cs.unb.ca/NSL-KDD/1.2打开下载的数据,删除其中以@开头的数据1.3将数据上传到hdfs#$
HADOOP_HOME
/bin/hadoopfs-mkdir
公子
·
2015-01-20 15:32
Hadoop
同步hadoop配置文件
/bin/bash
HADOOP_HOME
=/usr/local/hadoop while read line do HOST=$line echo "
kabike
·
2015-01-08 10:00
hadoop
hadoop面试题整理
etc/profile)2)关闭防火墙3)配置hosts文件,方便hadoop通过主机名访问(/etc/hosts)4)设置ssh免密码登录5)解压缩hadoop安装包,并配置环境变量6)修改配置文件($
HADOOP_HOME
fhuadminss1
·
2015-01-07 20:00
hadoop
【转 】Hadoop datanode添加与删除
b.登录到新节点,执行:123 cd$
HADOOP_HOME
bin/hadoop-daemon.shstartdata
damacheng
·
2015-01-04 16:00
Hadoop环境配置
1、修改etc/profile文件,在最后加入如下代码:export JAVA_HOME=/usr/java/jdk1.6.0_21export
HADOOP_HOME
=/usr/java/hadoopexport
xfg0218
·
2015-01-03 17:00
企业级Hadoop 2.x入门系列之九Hadoop核心配置文件的默认配置解读
Hadoop核心配置文件的默认配置解读9.1默认配置文件4个核心的默认配置文件在$
HADOOP_HOME
/share/hadoop/目录下:hadoop-2.2.0\share\hadoop\common
云帆大数据
·
2015-01-03 11:17
企业级Hadoop
2.x入门
hadoop管理员常用命令
启动Hadoop进入
HADOOP_HOME
目录。执行shbin/start-all.sh关闭Hadoop进入
HADOOP_HOME
目录。
xfg0218
·
2015-01-01 20:00
【Pig一】Pig入门
解压配置环境变量 如果Pig使用Map/Reduce模式,那么需要在环境变量中,配置
HADOOP_HOME
环境变量 expor
bit1129
·
2014-12-28 13:00
pig
【Pig一】Pig入门
解压配置环境变量 如果Pig使用Map/Reduce模式,那么需要在环境变量中,配置
HADOOP_HOME
环境变量 expor
bit1129
·
2014-12-28 13:00
pig
【Pig一】Pig入门
解压配置环境变量 如果Pig使用Map/Reduce模式,那么需要在环境变量中,配置
HADOOP_HOME
环境变量 expor
bit1129
·
2014-12-28 13:00
pig
linux bash中的三目运算符
c:d 当a==b时为c否则为d在linuxbash中用 “:-”来表示,如:exportHADOOP_HOME=${
HADOOP_HOME
:-$LIB_DIR/hadoop}我们在hadoop的相关脚本中容易看到这句
xiao_jun_0820
·
2014-12-23 13:00
Hadoop Streaming编程总结
,它允许用户使用任何可执行文件或者脚本文件作为Mapper和Reducer,例如:采用shell脚本语言中的一些命令作为mapper和reducer(cat作为mapper,wc作为reducer)$
HADOOP_HOME
iloveyin
·
2014-12-19 18:00
win7+eclipse配置Hadoop开发环境注意事项
1、需把hadoop.dll和winutils.exe放到hadoop的bin目录下,我的是:E:\Hadoop\hadoop-2.4.0\bin2、且需要配置
HADOOP_HOME
和PATH路径。
kartik
·
2014-12-19 09:04
Eclipse
log4j
hadoop
Hadoop
win7+eclipse配置Hadoop开发环境注意事项
1、需把hadoop.dll和 winutils.exe放到hadoop的bin目录下,我的是:E:\Hadoop\hadoop-2.4.0\bin2、且需要配置
HADOOP_HOME
和PATH路径。
kartik
·
2014-12-19 09:04
eclipse
win7
log4j
hadoop
win7+eclipse配置Hadoop开发环境注意事项
1、需把hadoop.dll和 winutils.exe放到hadoop的bin目录下,我的是:E:\Hadoop\hadoop-2.4.0\bin2、且需要配置
HADOOP_HOME
和PATH路径。
kartik
·
2014-12-19 09:04
eclipse
hadoop
win7
log4j
hive安装总结
tar.gzmvhive-0.12.0hive#vi/etc/profileexportHIVE_HOME=/usr/local/hiveexportPATH=$JAVA_HOME/bin:$PATH:$
HADOOP_HOME
Zero零_度
·
2014-12-12 14:00
Hadoop小兵笔记【一】Hadoop安装过程中core-site.xml,hdfs-site.xml,mapred-site.xml配置文件详解
在搭建hadoop开发环境的时候,需要对hadoop进行配置,其中Hadoop1.x的配置文件放在{
hadoop_home
}/conf目录下,Hadoop2.x的配置文件放在{
hadoop_home
cafuc46wingw
·
2014-12-09 20:00
大数据框架hadoop之版本显示的实现逻辑
Hadoop脚本首先打开hadoop脚本(目录${
HADOOP_HOME
}/B
seandeng888
·
2014-12-08 14:00
大数据
hadoop
版本显示
实现逻辑
hadooop 常用命令
hadooop常用命令启动Hadoop 进入
HADOOP_HOME
目录。 执行shbin/start-all.sh 关闭Hadoop 进入
HADOOP_HOME
目录。
·
2014-11-25 10:00
hadoop使用笔记
一:hadoop程序添加三方包:使用hadoopjar运行时抛出java.lang.NoClassDefFoundError原因:找不到三方包解决方案:1.可以将需要使用的包添加进$
HADOOP_HOME
沐魇
·
2014-11-22 13:00
Hadoop2.2.0分布式安装
hadoop-2.2.0.tar.gz,解压tar-xzvfhadoop-2.2.0.tar.gz2、进入hadoop目录下创建tmp目录和dfs/data目录、dfs/name目录3、进入配置文件存放目录${
HADOOP_HOME
dwj200810
·
2014-11-21 23:52
Hadoop2.2.0分布式安装
解压tar -xzvf hadoop-2.2.0.tar.gz 2、进入hadoop目录下创建tmp目录和dfs/data目录、dfs/name目录 3、进入配置文件存放目录${
HADOOP_HOME
dengwenjun
·
2014-11-21 23:00
hadoop2
Hadoop HBase Hive伪分布式环境搭建
HadoopHBaseHive启动:$
HADOOP_HOME
/bin/start-all.sh$HBASE_HOME/bin/start-hbase.sh$HIVE_HOME/bin/hivestart
iteye_15208
·
2014-11-20 16:47
Hadoop
Hive
HBase
Hadoop HBase Hive伪分布式环境搭建
Hadoop HBase Hive 启动: $
HADOOP_HOME
/bin/start-all.sh $HBASE_HOME/bin/start-hbase.sh $HIVE_HOME/bin
fally
·
2014-11-20 16:00
hadoop
hive
hbase
使用Eclipse运行Hadoop 2.x MapReduce程序常见问题
解决方法:复制$
HADOOP_HOME
/etc/hadoop/目录下的log4j.properties文件到MapReduce项目src文件夹下。2、当执行
东方神剑
·
2014-11-10 10:00
log4j
mahout部署实践
unzipunzipmahout-distribution-0.9-src.zip二设置环境变量1一些说明JAVA_HOMEmahout运行需指定jdk的目录MAHOUT_JAVA_HOME指定此变量可覆盖JAVA_HOME值
HADOOP_HOME
u010414066
·
2014-11-09 07:00
mahout
实践
mahout部署实践
unzipmahout-distribution-0.9-src.zip 二设置环境变量1一些说明JAVA_HOMEmahout运行需指定jdk的目录MAHOUT_JAVA_HOME指定此变量可覆盖JAVA_HOME值
HADOOP_HOME
u010414066
·
2014-11-08 23:00
Mahout
Hadoop问题记录:Wrong FS: hdfs://hp5-249:9000/, expected: file:///
假设当前在eclipse的项目目录下,具体解决办法如下:cp$
HADOOP_HOME
/etc/hadoop/core-site.xml./bincp$
HADOOP_HOME
/etc
下木
·
2014-11-08 21:04
Hadoop
Hadoop问题记录:Wrong FS: hdfs://hp5-249:9000/, expected: file:///
假设当前在eclipse的项目目录下,具体解决办法如下:cp$
HADOOP_HOME
/etc/hadoop/core-site.xml./bin cp$
HADOOP_HOME
/et
Hipercomer
·
2014-11-08 21:00
eclipse
hadoop
File
调试
hadoop stream
譬如, $
HADOOP_HOME
/bin/hadoop jar $
HADOOP_HOME
/hadoop-streaming.jar -input my
qingen1
·
2014-11-06 15:00
mapreduce
hadoop
python
jobs
Streaming
hadoop在上传文件遇到若干问题
hadoop在上传文件遇到若干问题,其中设置
hadoop_home
以及上传端口问题。
打个大西瓜
·
2014-11-03 16:00
hadoop
hadoop之mapreduse 在Eclipse下的调试环境篇
在Eclipse里,我预计需要设置
hadoop_home
变量的值,设置后,不管怎么调试。都报错:Exceptioninthread"main"java.lang.Unsati
supperman_009
·
2014-10-30 17:00
hadoop
异常
调试
NativeIO
Hive下的变量使用
3.env的命名空间,是指环境变量,包括Shell环境下的变量信息,如
HADOOP_HOME
之类的 普通的变量可以使用 --defineke
wisgood
·
2014-10-28 15:00
Hadoop分布式文件系统--HDFS
一、配置伪分布模式: 1.配置伪分布式,需要修改$
HADOOP_HOME
/conf下的三个文件:core-site.xml、hdfs-site.xml和mapred-site.xml。
Chase_Sun
·
2014-10-27 10:00
hadoop
使用Eclipse运行Hadoop 2.x MapReduce程序常见问题
解决方法:复制$
HADOOP_HOME
/etc/hadoop/目录下的log4j.properties文件到MapReduce项目src文件夹下。2、当执行
-Bin-
·
2014-10-21 22:00
hadoop脚本解析
1、hadoop脚本简单介绍 hadoop的脚本分布在$
HADOOP_HOME
下
wangzhaotongalex
·
2014-10-17 13:00
Hive安装配置
bin.tar.gz,并解压到/opt/tools配置环境变量,vim/etc/profile修改配置文件$HIVE_HOME/conf,将所有配置文件名去掉.templatehive-env.sh,添加
HADOOP_HOME
voyage1314
·
2014-10-13 17:00
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(2)
把下载下来的“hadoop-2.2.0.tar.gz”拷贝到“/usr/local/hadoop/”目录下并解压:修改系统配置文件,修改~/.bashrc文件配置“
HADOOP_HOME
”并把“
HADOOP_HOME
HiHeartFirst
·
2014-10-09 16:18
spark
书籍
spark热点
spark技术
spark教程
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(2)
把下载下来的“hadoop-2.2.0.tar.gz”拷贝到“/usr/local/hadoop/”目录下并解压:修改系统配置文件,修改~/.bashrc文件配置“
HADOOP_HOME
”并把“
HADOOP_HOME
Spark亚太研究院
·
2014-10-09 14:00
spark
大数据
云计算
spark书籍
spark热点
spark技术
spark教程
win7 eclipse连接hadoop2.x开发环境搭建
(路径不能有空格)D:\JavaDev\hadoop-2.3.0-cdh5.1.02.配置win7环境变量配置hadoop的环境变量
HADOOP_HOME
=”HADOOP的安装目录”在环境变量的PATH
fz2543122681
·
2014-09-30 18:00
hadoop入门:hadoop使用shell命令总结
nbsp; 包括:Hadoop hadoop的Shellhadoop-config.sh 它的作用是对一些变量进行赋值
HADOOP_HOME
·
2014-09-29 09:00
Hadoop入门
关于运行hadoop任务的第三方jar如何加入classPath
之前在跑一个任务的时候,那个任务需要使用第三方的jar,关于这个jar可以再打包的时候嵌入到包中也可以查看hadoop-env.sh脚本里面有加载classpath的脚本语句:forfin$
HADOOP_HOME
砚羲
·
2014-09-25 16:16
hadoop
job依赖的jar
Hadoop集群搭建(-v1.2.1)
Hadoop集群搭建(-v1.2.1)@[hadoop]1.官网下载安装包(版本:1.2.1)2.安装依赖Java和ssh3.解压安装包,添加
HADOOP_HOME
变量到/etc/profile4.搭建集群机器规划
Cap_zhou
·
2014-09-24 11:00
hadoop
hive-0.12.0-cdh5.1.0安装
#vi/etc/profile增加exportHIVE_HOME=/hadoop/hadoop/hive修改exportPATH=$JAVA_HOME/bin:$PATH:$
HADOOP_HOME
/bin
fz2543122681
·
2014-09-23 15:00
hbase-0.98.1-cdh5.1.0伪分布式安装
文件前提条件是安装好hadoop,下面展开说明1.添加环境变量exportHBASE_HOME=/usr/local/cdh/hbase exportPATH=$PATH:$PIG_HOME/bin:$
HADOOP_HOME
fz2543122681
·
2014-09-17 15:00
上一页
13
14
15
16
17
18
19
20
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他