E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
HDFS深入浅出
今晚校长时间:心理成长的路径~分享的幸福!
从情结到情怀的转变;继而通过
深入浅出
分析孔子的成长之
快乐贝儿
·
2023-12-16 22:55
“猫叔2018年年度分享------个人爆发式成长破局战略”践行笔记
猫叔的分享真是太接地气了,
深入浅出
,把深刻的道理说的浅显易懂,就算是小孩子也看得懂。也算是手把手教了。下面说说我的行动计划。(1)关于时间管理首先要树立珍惜时间的意识,把时间当作自己的命。
草sw草
·
2023-12-16 21:06
【
HDFS
】FsDatasetSpi#adjustCrcChannelPosition
FsDatasetSpi接口里定义adjustCrcChannelPosition方法。应用场景在:append,blockrecovery等场景。方法的作用是设置checksum流(datanode上meta文件)的文件指针,来让最后一个checksum被覆写。/***Setsthefilepointerofthechecksumstreamsothatthelastchecksum*willb
叹了口丶气
·
2023-12-16 20:53
HDFS全方位实战
hdfs
hadoop
大数据
【Apache Pinot】Data upload jobtype 粗略分析
背景目前我司大部分实时数据和离线数据都存储在pinot数据库中,离线数据需要通过脚本去生成对应的数据上传到数据库里面,但是其中config中有个jobtype让人有点迷惑,本文简单的做一个概念的整理用处先说一下流程,目前我以
hdfs
彭笳鑫
·
2023-12-16 20:05
数据库
apache
pinot
数据库
olap
大数据
Sqoop基础理论与常用命令详解(超详细)
文章目录前言一、Sqoop概述1.Sqoop简介2.Sqoop架构(1)SqoopClient(2)SqoopServer(3)Connector(4)Metastore(5)Hadoop/
HDFS
3.
大数据魔法师
·
2023-12-16 15:57
大数据
sqoop
hadoop
hive
python函数
深入浅出
9.replace()函数详解
1.函数名及其来源replace()函数命名来源于英文单词replace(替换)。用于替换字符串中的特定字符replace函数的例子:>>>string='abcisveryeasy.'>>>string.replace('easy','hard')'abcisveryhard.'2.函数定义源码及其用法拆解str.replace(old,new[,max])replace()方法把字符串中的ol
david_pynode
·
2023-12-16 14:24
Mapreduce小试牛刀(1)
1.与
hdfs
一样,mapreduce基于hadoop框架,所以我们首先要启动hadoop服务器-----------------------------------------------------
printcsr
·
2023-12-16 12:51
mapreduce
Mapreduce小试牛刀(2)--java api
1.同
hdfs
的javaapi,我们首先要在IDE中建立一个maven项目pom.xml中配置如下:org.apache.hadoophadoop-mapreduce-client-common3.3.4org.apache.hadoophadoop-mapreduce-client-jobclient3.3.4org.apache.hadoophadoop-client3.3.4org.slf4
printcsr
·
2023-12-16 12:51
学习
Hdfs
java API
1.在主机上启动hadoopsbin/start-all.sh这里有一个小窍门,可以在本机上打开8088端口查看三台机器的连接状态,以及可以打开50070端口,查看
hdfs
文件状况。
printcsr
·
2023-12-16 12:21
学习
深入浅出
:Presto查询引擎全解析
深入浅出
:Presto查询引擎全解析引言在大数据时代,企业和组织积累了海量的数据。为了从这些数据中提取有价值的信息,需要使用高效的数据查询工具。
一休哥助手
·
2023-12-16 09:29
大数据
大数据
深入浅出
:Python内存管理机制详解
文章目录一、什么是内存?1.1、RAM简介1.2、RAM容量1.3、查看电脑内存1.4、监控电脑内存二、RAM是CPU的主内存,显存是GPU的专用内存三、内存管理3.0、不同数据类型的内存范围3.1、python是如何分配内存的?3.2、python采用自动内存管理机制3.3、python自动内存管理机制的缺点3.4、python内存优化的方法四、项目实战4.1、查看对象的引用计数4.2、内存池:
胖墩会武术
·
2023-12-16 08:11
深度学习
Python项目实战
python
内存管理
内存优化
Hive命令操作
linux语句;3.运行
hdfs
命令-->dfs–
hdfs
语句;4.运行sq
xinxinyydss
·
2023-12-16 08:38
hive
hadoop
数据仓库
华为大数据开发者教程知识点提纲
一、线下处理1.离线处理方案数据支持:
HDFS
调度:YARN收入:Flume,sqoop,loader处理:Mapreduce,SparkSql,spark,hive(,Flink)2.HadoopNamenode
qq_1418269732
·
2023-12-16 06:08
大数据
【Hive】——DDL(TABLE)
describeformattedstudent;2删除表如果已配置垃圾桶且未指定PURGE,则该表对应的数据实际上将移动到
HDFS
垃圾桶,而元数据完全丢失。
那时的样子_
·
2023-12-16 05:05
hive
hadoop
数据仓库
使用sqoop操作
HDFS
与MySQL之间的数据互传
一,数据从
HDFS
中导出至MySQL中1)开启Hadoop、mysql进程start-all.sh/etc/init.d/mysqldstart/etc/init.d/mysqldstatus2)将学生数据
冬瓜的编程笔记
·
2023-12-16 05:44
大数据
sqoop
hdfs
mysql
【Hadoop-Distcp】通过Distcp的方式进行两个
HDFS
集群间的数据迁移
【Hadoop-Distcp】通过Distcp的方式进行两个
HDFS
集群间的数据迁移1)Distcp工具简介及参数说明2)Shell脚本1)Distcp工具简介及参数说明【Hadoop-Distcp】工具简介及参数说明
bmyyyyyy
·
2023-12-16 05:45
Hadoop
hadoop
hdfs
【Hadoop-CosDistcp-Distcp】通过命令方式将Cos中的数据迁移至
HDFS
,再将
HDFS
数据迁移至S3
【Hadoop-CosDistcp-Distcp】通过命令方式将Cos中的数据迁移至
HDFS
,再将
HDFS
数据迁移至S31)Shell脚本2)参数说明1)Shell脚本注意:此Shell脚本内置了按照sample_date
bmyyyyyy
·
2023-12-16 05:15
Hadoop
hadoop
hdfs
大数据
【Hadoop-Distcp】通过Distcp的方式迁移Hive中的数据至存储对象
Distcp的方式迁移Hive中的数据至存储对象1)了解Distcp1.1.Distcp的应用场景1.2.Distcp的底层原理2)使用Distcp4)S3可视化App下载4)S3可视化App使用5)跨集群迁移
HDFS
bmyyyyyy
·
2023-12-16 05:14
Hadoop
hadoop
hive
大数据
【Hadoop-OBS-Hive】利用华为云存储对象 OBS 作为两个集群的中间栈 load 文件到 Hive
利用华为云存储对象OBS作为两个集群的中间栈load文件到Hive1)压缩文件2)上传文件到OBS存储对象3)crontab定时压缩上传4)从obs上拉取下来文件后解压缩5)判断对应文件是否存在6)上传至
HDFS
bmyyyyyy
·
2023-12-16 04:04
Hadoop
hadoop
hive
华为云
Spark编程实验一:Spark和Hadoop的安装使用
一、目的与要求1、掌握在Linux虚拟机中安装Hadoop和Spark的方法;2、熟悉
HDFS
的基本使用方法;3、掌握使用Spark访问本地文件和
HDFS
文件的方法。
Francek Chen
·
2023-12-16 04:32
Spark编程基础
spark
hadoop
大数据
pyspark on yarn
直接下载hive组件的客户端配置就可以,它里面包含了
hdfs
和yarn的配置。如下所示:
[email protected]
骑着蜗牛向前跑
·
2023-12-16 03:34
大数据
pyspark
on
yarn
python
大数据
照进乡村英语课堂的那一束亮光(三)
顾名思义,她从写作教学的原则,策略和教学活动设计三个方面进行了
深入浅出
的讲述,并结合一些案例以加深印象。图片发自App图片发自App图片发自App对照陈老师的培训要点,记录下我的反思。
忆君追梦
·
2023-12-16 02:45
十四、YARN核心架构
1、目标(1)掌握YARN的运行角色和角色之间的关系(2)理解使用容器做资源分配和隔离2、核心架构(1)和
HDFS
架构的对比
HDFS
架构:YARN架构:(主从模式)(2)角色解释ResourceManager
弦之森
·
2023-12-16 01:52
Hadoop
hdfs
hadoop
yarn
mapreduce
大数据
【C++】初识
C++基础正确高效地使用C++深入了解C++研究C++自己怎么学多总结写博客中后期画思维导图总结多读书初窥门径潜心修行
深入浅出
勤刷题什么是C++C语言是结构化和模块化的语言,适合处理
笨笨同学
·
2023-12-16 01:47
田轩宇的c++
笔记
1024程序员节
c++
c语言
区块链:改变世界的技术
本文将
深入浅出
地解释区块链的工作原理、特点以及应用场景,让我们一起探索这个改变世界的技术。二、区块链的工作原理区块链的去中心化特性区块链的最重要特性是去中心化,它不依赖于任何中心机构或第三方信任。
凋零的老树
·
2023-12-16 01:40
区块链
基于spark的音乐数据分析系统的设计与实现
收藏关注不迷路文章目录前言一、项目介绍二、开发环境三、功能介绍四、核心代码五、效果图六、文章目录前言本文主要对音乐数据,进行分析,系统技术主要使用,1.对原始数据集进行预处理;3.使用python语言编写Spark程序对
HDFS
QQ2743785109
·
2023-12-16 01:05
spark
python
spark
大数据
分布式
AlphaGo Zero学习一
参考遥行GoFurther《
深入浅出
看懂AlphaGo元》文章开展学习。
ericblue
·
2023-12-16 00:26
单节点hadoop搭建
tar.gz解压文件,配置HADOOP_HOME编辑文件etc/hadoop/hadoop-env.sh配置JAVA_HOME配置etc/hadoop/core-site.xml文件fs.defaultFS
hdfs
曾阿伦
·
2023-12-16 00:04
hadoop
hadoop
大数据
分布式
ambari 开启
hdfs
回收站机制
hdfs
回收站类似于我们常用的windows中的回收站,被删除的文件会被暂时存储于此,和回收站相关的参数有两个:fs.trash.interval:默认值为0代表禁用回收站,其他值为回收站保存文件时间,
dogplays
·
2023-12-16 00:01
hdfs
ambari
hdfs
hue的安装和hadoop集群整合
通过使用Hue我们可以在浏览器端的Web控制台上与Hadoop集群进行交互来分析处理数据,例如操作
HDFS
上的数据,运行Map
五块兰州拉面
·
2023-12-16 00:15
#
hue
大数据
jQuery操作复选框checkbox技巧总结 ---- 设置选中、取消选中、获取被选中的值、判断是否选中等
77448168原jQuery操作复选框checkbox技巧总结----设置选中、取消选中、获取被选中的值、判断是否选中等2017年08月21日12:00:26chunlynn阅读数:23160更多所属专栏:
深入浅出
活着活着就老叻
·
2023-12-15 23:56
JS
大数据学习(一)--------
HDFS
2、hadoophadoop有三个核心组件:
hdfs
:分布式文件系统mapreduce:分布式运算编程框架yarn:分布式资源调度平台3
大数据流动
·
2023-12-15 21:01
深入浅出
理解kafka存储机制
前言Kafka是为了解决大数据的实时日志流而生的,每天要处理的日志量级在千亿规模。对于日志流的特点主要包括:数据实时产生。海量数据存储与处理。所以它必然要面临分布式系统遇到的高并发、高可用、高性能等三高问题。对于Kafka的存储需要保证以下几点:存储的主要是消息流(可以是简单的文本格式也可以是其他格式)。要支持海量数据的高效存储、高持久化(保证重启后数据不丢失)。要支持海量数据的高效检索(消费的时
乖的小肥羊
·
2023-12-15 21:03
kafka
分布式
c++
java
c语言
让党的二十大精神在基层落地生根
创新理论大众化,
深入浅出
讲好新思想。创新理论的宣讲,要让群众愿意花费时间和精力坐下来听,并且要让人坐得住。
华华华华
·
2023-12-15 21:46
Hadoop在mac上的安装与配置
adoptopenjdk8安装指导,指导里面把java换成8:https://medium.com/beeranddiapers/installing-hadoop-on-mac-a9a3649dbc4d验证
hdfs
大红豆小薏米
·
2023-12-15 20:45
Hadoop和Spark的区别
SparkSpark模型是对Mapreduce模型的改进,可以说没有
HDFS
、Mapreduce就没有Spark。Spark可以使用Yarn作为他的资源管理器,并且可以处理
HDFS
数据。
旅僧
·
2023-12-15 20:12
hadoop
spark
大数据
【Hadoop】执行start-dfs.sh启动hadoop集群时,datenode没有启动怎么办
执行start-dfs.sh后,datenode没有启动,很大一部分原因是因为在第一次格式化dfs后又重新执行了格式化命令(
hdfs
namenode-format),这时主节点namenode的clusterID
不怕娜
·
2023-12-15 19:13
hadoop
大数据
分布式
spark链接hive时踩的坑
中也可以看到这个数据库,建表插入数据也没有问题,但是当我们去查询数据库中的数据时,发现查不到数据,去查hive的元数据,发现,spark在创建数据库的时候将数据库创建在了本地文件系统中而我们的hive数据是存放在
hdfs
YuPangZa
·
2023-12-15 18:00
大数据中踩过的坑
spark
hive
大数据
大数据基础知识
为了一场紧急考试,没有正经系统学习过大数据知识的我开始恶补概念涉及Hadoop、Hbase、Spark、Flink、Flume、Kafka、Sqoop、
HDFS
、Hive、Mapreduce、Impala
偶余杭
·
2023-12-15 17:22
深入浅出
Python:从零开始搭建自己的Web服务器
第一部分:前言与环境准备1.前言随着互联网的发展,越来越多的应用都运行在Web上,而Web服务器则成为了支撑这一切的关键。在本文中,我们将利用Python来创建自己的简易Web服务器。通过这个过程,你不仅可以深入了解Web服务器的工作原理,还能够掌握Python的基础知识。2.环境准备首先,你需要有一个Python环境。我们将使用Python3,因为它已经成为了主流。如果你还没有安装,可以去官方网
m0_57781768
·
2023-12-15 17:40
python
前端
服务器
HBase
HBase是一个基于列式存储的分布式数据库,其核心架构由五部分组成:HBaseClient、HMaster、RegionServer、ZooKeeper以及
HDFS
。
编织幻境的妖
·
2023-12-15 17:35
hbase
数据库
大数据
HBase 详细图文介绍
2.3.1NameSpace2.3.2Table2.3.3Row2.3.4Column2.3.5TimeStamp2.3.6Cell三、HBase基本架构架构角色3.1Master3.2RegionServer3.3Zookeeper3.4
HDFS
Stars.Sky
·
2023-12-15 16:24
HBase
hbase
数据库
大数据
kudu由来、架构、数据存储结构、注意事项
1.1一方面:在KUDU之前,大数据主要以两种方式存储;(1)静态数据:以
HDFS
引擎作为存储引擎,适用于高吞吐量的离线大数据分析场景。这类存储的局限性是数据无法进行随机的读写。(2)动
AllenGd
·
2023-12-15 13:32
KUDU
kudu
【基础知识】Hadoop生态系统
关键词——容灾主从结构、多副本主要特点分布式存储-Hadoop采用
HDFS
文件系统,可以将大数据分布式存储在集群中的多台服务器上。
偏振万花筒
·
2023-12-15 12:40
hadoop
大数据
分布式
【基础知识】大数据概述
发展历程中国开源生态图谱2023参考内容中国开源生态图谱2023.pdf技术组件说明数据集成sqoop、dataX、flume数据存储
hdfs
、kafka数据处理mapreduce、hive、impala
偏振万花筒
·
2023-12-15 12:39
大数据
hadoop-
hdfs
简介及常用命令详解(超详细)
文章目录前言一、
HDFS
概述1.
HDFS
简介2.
HDFS
架构3.
HDFS
文件操作二、
HDFS
命令介绍1.
hdfs
命令简介2.
HDFS
命令的基本语法3.常用的
HDFS
命令选项三、
HDFS
常用命令1.列出指定路径下的文件和目录
大数据魔法师
·
2023-12-15 11:22
大数据
hadoop
hdfs
大数据
“自媒体乱象”你怎么看?
做几个
深入浅出
的分析:自媒体行业的乱象在自媒体蓬勃
九侃生活
·
2023-12-15 10:32
hadoop使用内置包进行性能测试TestDFSIO、NNBench、MRBench、SliveTest
使用内置包进行性能测试TestDFSIOread&writeNNBenchMRBenchSliveTestTestDFSIOread&writeTestDFSIO是一个Hadoop自带的基准测试工具,用于测试
HDFS
何亚告
·
2023-12-15 07:51
菜鸟日常
hadoop
大数据
分布式
大数据技术13:HBase分布式列式数据库
Hadoop可以通过
HDFS
来存储结构化、半
Java架构何哥
·
2023-12-15 07:05
大数据治理
大数据
HBase列式数据库
Hbase表的数据结构
【Spark精讲】Spark存储原理
目录类比
HDFS
的存储架构Spark的存储架构存储级别RDD的持久化机制RDD缓存的过程Block淘汰和落盘类比
HDFS
的存储架构
HDFS
集群有两类节点以管理节点-工作节点模式运行,即一个NameNode
话数Science
·
2023-12-15 07:29
Spark精讲
Spark
大数据
spark
大数据
上一页
28
29
30
31
32
33
34
35
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他