E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
HDFS源码解析
React Hooks
源码解析
:useEffect
ReactHooks
源码解析
(4):useEffectReact源码版本:v16.11.0源码注释笔记:airingursb/react1.useEffect简介1.1为什么要有useEffect我们在前文中说到
秋の本名
·
2024-01-22 11:07
hooks
javascript
react.js
开发语言
mongodb
数据库
Impala
Impala概述Impala是什么Impala是一款针对
HDFS
和HBASE中的PB级别数据进行交互式实时查询工具。
奋斗的蛐蛐
·
2024-01-22 10:42
Ranger概述及安装配置
一、前序希望拥有一个框架,可以管理大多数框架的授权,包括:
hdfs
的目录读写权限各种大数据框架中的标的权限,列级(字段)权限,甚至行级权限,函数权限(UDF)等相关资源的权限是否能帮忙做书库脱敏Ranger
小枫@码
·
2024-01-22 09:39
大数据运维
安全
运维
【大数据处理技术实践】期末考查题目:集群搭建、合并文件与数据统计可视化
集群搭建、合并文件与数据统计可视化实验目的任务一:任务二:实验平台实验内容及步骤任务一:搭建具有3个DataNode节点的
HDFS
集群集群环境配置克隆的方式创建Slave节点修改主机名编辑hosts文件生成密钥免认证登录修改
汐ya~
·
2024-01-22 09:35
hadoop
linux
虚拟机
java
HDFS
读流程和写流程
读流程1.客户端向namenode请求下载⽂件,namenode通过查询元数据,找到⽂件块所在的datanode地址。2.挑选⼀台datanode(就近原则,然后随机)服务器,请求读取数据。3.datanode开始传输数据给客户端(从磁盘⾥⾯读取数据放⼊流,以packet为单位来做校验)。4.客户端以packet为单位接收,先在本地缓存,然后写⼊⽬标⽂件。写流程1.客户端向namenode请求上传
不良人-程序星
·
2024-01-22 09:02
hdfs
hadoop
大数据
10 Hadoop的安全模式及权限介绍
1、
HDFS
工作流程启动NameNode,NameNode加载fsimage到内存,对内存数据执行editslog日志中的事务操作。
水无痕simon
·
2024-01-22 08:02
Hadoop
hadoop
安全
大数据
Flink集群部署到YARN上的提交流程
第一步:Flink任务提交后,Client向
HDFS
上传Flink的Jar包和配置第二步:之后向YarnResourceManager提交任务,ResourceManager分配Container资源并通知对应的
疯子1313
·
2024-01-22 08:00
flink
yarn
【Flink】Flink on Yarn 翻译 使用
hdfs
jar yarn.provided.lib.dirs
群友写了UDF.jar想放到
hdfs
上,然后运行的时候,希望指定
hdfs
jar,希望能加载进去尝试使用如下方法发现不可以后面经过网友一起讨论,发现有这个参数yarn.provided.lib.dirs。
九师兄
·
2024-01-22 08:59
大数据-flink
hdfs
hadoop
flink
Hadoop基本概论
1.大数据的概念2.大数据的特点3.大数据应用场景二、Hadoop概述1.Hadoop定义2.Hadoop发展历史3.Hadoop发行版本4.Hadoop优势5.Hadoop1.x/2.x/3.x6.
HDFS
LzYuY
·
2024-01-22 08:25
Hadoop
hadoop
大数据
分布式
hive sql转换成MR任务过程
浏览器访问hive)2)元数据:Metastore元数据包括:表名、表所属的数据库(默认是default)、表的拥有者、列/分区字段、表的类型(是否是外部表)、表的数据所在目录等;3)Hadoop使用
HDFS
上官沐雪
·
2024-01-22 08:08
hive
hive
大数据开发之电商数仓(hadoop、flume、hive、
hdfs
、zookeeper、kafka)
第1章:数据仓库1.1数据仓库概述1.1.1数据仓库概念1、数据仓库概念:为企业制定决策,提供数据支持的集合。通过对数据仓库中数据的分析,可以帮助企业,改进业务流程、控制成本,提高产品质量。数据仓库并不是数据的最终目的地,而是为数据最终的目的地做好准备,这些准备包括对数据的:清洗、转义、分类、重组、合并、拆分、统计等。2、数据仓库的数据通常包括:业务数据、用户行为数据和爬虫数据等3、业务系统数据库
Key-Key
·
2024-01-22 07:29
大数据
hadoop
flume
kafka
hive
hdfs
Hbase 基于
HDFS
分布式列存储Nosql数据库(五) 概念及原理介绍
Hbase优化概念:hbase优化可通过以下几个方面,flush,compaction,split和列簇属性来实现Flush意义:用于将memstore中的数据写入
HDFS
,变成storefile文件,
章云邰
·
2024-01-22 06:13
25.集群异常故障分析——HOSTS
25.1问题情况Hadoop集群
HDFS
、YARN、Hive等服务出现异常告警重启集群异常告警任然存在大量告警Cluster1
HDFS
可用空间抑制...NameNode运行状况抑制...
HDFS
金丝雀抑制
大勇任卷舒
·
2024-01-22 02:51
HashSet
源码解析
从一道面试题说起:HashSet内部是怎么实现的?
本文原创地址,我的博客:https://jsbintask.cn/2019/03/27/jdk/jdk8-hashset/(食用效果最佳),转载请注明出处!前言前段时间朋友面试遇到这个问题:谈一谈HashSet的特点,它是怎么实现的,使用时有什么需要注意的点呢?恰好最近在写这方面的文章,于是正好通过本篇文章讲解下HashSet的源码实现,需要注意的点。HashSet实现了Set接口,是一个不能够存
jsbintask
·
2024-01-21 23:05
数据交换工具DataX使用(2)
yuminstallrpm-build进入rpm目录编译cddatax/trunk/rpmrpmbuild--bat_dp_datax_engine.specrpmbuild--bat_dp_datax_
hdfs
小小毛同学
·
2024-01-21 22:39
【从零到一AIGC
源码解析
系列1】文本生成图片Stable Diffusion的diffusers实现
目录1.如何使用StableDiffusionPipeline1.1环境配置1.2StableDiffusionPipeline1.3生成非正方形图像2.如何使用diffusers构造自己的推理管线关注公众号【AI杰克王】StableDiffusion是由CompVis、StabilityAl和LAION的研究人员和工程师创建的文本到图像潜在扩散模型。它使用来自LAION-5B数据库子集的512x
AI杰克王
·
2024-01-21 20:39
AIGC源码解析
AIGC
stable
diffusion
人工智能
大数据小白初探
HDFS
从零到入门(一)
目录1.前言2.大数据的诞生3.发展趋势及应用4.离线计算和实时计算5.大数据的特性1.前言前两天把Hbase的初级入门知识整理了下,在文章中提到了“
HDFS
”这个大数据的基础,有同事小伙伴想要了解下这方面的知识
北京-景枫
·
2024-01-21 20:55
Hadoop
大数据
hdfs
yarn
大数据特性
CSS Reset 的来龙去脉
CSSReset的来龙去脉.png目录浏览器的默认样式三种样式重置方法硬重置软重置个性化重置Normalize.css
源码解析
总结参考浏览器的默认样式作为一名Web开发者,我们都知道Google开发者工具的
CondorHero
·
2024-01-21 17:33
Go源码分析——Slice篇
Go源码分析专栏Go
源码解析
——Channel篇Go源码分析——Map篇Go源码分析——Slice篇文章目录Go源码
卑微的程序猿
·
2024-01-21 16:28
golang源码解析
golang
开发语言
后端
黑猴子的家:API 操作
HDFS
文件下载
1、Code->GitHubhttps://github.com/liufengji/hadoop_
hdfs
.git2、Code@TestpublicvoidgetFileFrom
HDFS
()throwsException
黑猴子的家
·
2024-01-21 16:19
Spring BeanFactory
以下是对BeanFactory接口和它的默认实现DefaultListableBeanFactory的一些关键
源码解析
。请注意,由于Spring源码非常复杂且包含大量的接口和类
辞暮尔尔-烟火年年
·
2024-01-21 16:07
Spring
spring
java
后端
HDFS
监控方法以及核心指标
文章目录1.监控指标采集2.核心告警指标2.1nn核心指标2.1dn核心指标2.3jn核心指标2.4zkfc核心指标3.参考文章探讨
hdfs
的监控数据采集方式以及需要关注的核心指标,便于日常生产进行监控和巡检
李姓门徒
·
2024-01-21 14:31
大数据
HDFS
hdfs
hadoop
大数据
prometheus
HBase监控方法以及核心指标
1.监控指标采集监控指标的采集方式使用promethues+jmx_prometheus_javaagent的方式进行,具体方案部署方案可以参考
HDFS
监控方法以及核心指标需要注意的是,调整几
李姓门徒
·
2024-01-21 14:28
Hbase
大数据
hbase
大数据
Retrofit 工作原理总结
Retrofit
源码解析
之请求流程概述Retrofit之Converter简单解析Retrofit之OkhttpCall执行原理详解Retrofit之CallAdapter简单解析基本上读完上面的几篇博文应该可以对
夜色流冰
·
2024-01-21 11:01
Java8 异步非阻塞做法:CompletableFuture 两万字详解!
每天14:00更新文章,每天掉亿点点头发...源码精品专栏原创|Java2021超神之路,很肝~中文详细注释的开源项目RPC框架Dubbo
源码解析
网络应用框架Netty
源码解析
消息中间件RocketMQ
Java基基
·
2024-01-21 09:32
java
jvm
开发语言
redisson-spring-boot-starter 自动化配置
源码解析
版本redisson-spring-boot-starter:3.25.2此starter会自动注册RedissonClientBean并可通过注册RedissonAutoConfigurationCustomizerBean实现配置自定义@BeanRedissonAutoConfigurationCustomizerjdkCodecCustomizer(){returnconfiguration
路过君_P
·
2024-01-21 08:02
spring
spring
redis
redisson
HDFS
节点故障的容错方案
HDFS
节点故障的容错方案1.NN高可用1.1选主逻辑1.2HA切换1.3注意点1.3.1fencing的处理1.3.2健康状态的定义1.3.3确保zk中的父节点存在1.3.4确保NN的ID与IP保持一致
李姓门徒
·
2024-01-21 07:06
大数据
HDFS
hdfs
hadoop
大数据
大数据技术汇总
HadoopHadoop入门概述Hadoop运行模式介绍Hadoop
HDFS
的运行流程HadoopMapReduce的运行流程Hadoopyarn的运行流程Hadoop内
HDFS
、MapReduce和YARN
转身成为了码农
·
2024-01-21 07:41
大数据
hadoop
hive
spark
数据仓库
夜天之书 #93 Apache OpenDAL 毕业随感
你可以把它当作是一个更好的S3SDK实现,也可以通过统一的OpenDALAPI来简化配置访问不同的数据存储服务的工作(例如S3/
HDFS
/GCS/AliyunOSS等)。
_tison
·
2024-01-21 07:33
apache
Dubbo
源码解析
第一期:如何使用Netty4构建RPC
一、背景早期学习和使用Dubbo的时候(那时候Dubbo还没成为Apache顶级项目),写过一些源码解读,但随着Dubbo发生了翻天覆地的变化,那些文章早已过时,所以现在计划针对最新的ApacheDubbo源码来进行“阅读理解”,希望和大家一起再探Dubbo的实现。由于能力有限,如果文章有错误的地方,欢迎大家留言指正。本期的主题是Dubbo如何使用Netty4构建RPC来通讯。二、Server端视
飞向札幌的班机
·
2024-01-21 06:20
dubbo
dubbo
rpc
网络协议
Spark:SparkSQL与Hive on Spark(Shark)的比较
Spark特点Spark可以部署在YARN上Spark原生支持对
HDFS
文件系统的访问使用Scal
花和尚也有春天
·
2024-01-21 06:17
sparkSQL
SparkSQL
Hive
on
Spark
sparkSQL sparkSQL整合hive(spark on hive)
sparkSQL整合hivesparkSQL整合hivesparkSQL整合hive步骤示例数据库保存在本地和数据库保存在
HDFS
应用场景sparkSQL整合hivesparkSQL整合hive,即sparkonhive
爱吃甜食_
·
2024-01-21 06:39
Spark
Linux修改hadoop配置文件及启动hadoop集群详细步骤
Hadoop安装成功了二、修改配置文件1.检查三台虚拟机:2.切换到配置文件目录3.修改hadoop-env.sh文件4.修改core-site.xml文件5.修改mapred-site.xml文件6.修改
hdfs
-site.xml
CatalinaCatherine
·
2024-01-21 05:45
Linux
linux
hadoop
运维
Linux-Hadoop集群配置
文章目录一、配置Hadoop集群1、在master虚拟机上配置hadoop(1)编辑Hadoop环境配置文件-hadoop-env.sh(2)编辑Hadoop核心配置文件-core-site.xml(3)编辑
HDFS
人生苦短@我用python
·
2024-01-21 05:44
探索大数据
hadoop
linux
大数据
mapreduce
hdfs
WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-
Unabletoloadnative-hadooplibraryforyourplatform…usingbuiltin-javaclasseswhereapplicableStartingnamenodeson[localhost]ERROR:Attemptingtooperateon
hdfs
name
寂夜了无痕
·
2024-01-21 04:57
大数据搭建问题
hadoop
大数据
HDFS
中的Erasure Coding纠删码是个什么样的存在?
一、什么是纠错码提起纠错码就有必要提起
HDFS
中多副本策略。在多副本策略下,
HDFS
中储存文件,要存储三份相同文件,如果当前文件出现丢失,可以通过其他副本进行复制,恢复回来。
小KKKKKKKK
·
2024-01-21 03:29
大数据技术原理及应用课实验2 :熟悉常用的
HDFS
操作
实验2熟悉常用的
HDFS
操作目录实验2熟悉常用的
HDFS
操作一、实验目的二、实验平台三、实验步骤(每个步骤下均需有运行截图)(一)编程实现以下功能,并利用Hadoop提供的Shell命令完成相同任务:(
Blossom i
·
2024-01-21 02:21
大数据编程
大数据
hdfs
hadoop
IPerf——网络测试工具介绍与
源码解析
(2)
对于IPerf
源码解析
,我是基于2.0.5版本在Windows下执行的情况进行分析的,提倡开始先通过对源码的简单修改使其能够在本地编译器运行起来,这样可以打印输出一些中间信息,对于理解源码的逻辑,程序实现的过程能够起到事半功倍的效果
weixin_33963594
·
2024-01-21 02:40
数据结构与算法
网络
操作系统
k8s client-go
源码解析
之informer三
Informer(三)注意:本文内容为学习笔记,内容为个人见解,不保证准确性,但欢迎大家讨论何指教。觉得文章不错请关注跟博客及githubinformer使用可以参考我的这个项目:hingehinge项目,用于展示如何简单使用informer以及自定义indexer。这个项目支持你用类似于orm的方式在集群中查找资源,这依赖于informer的indexer机制。本篇介绍DeltaFIFO及ind
随风奔跑尿飞扬
·
2024-01-21 00:53
云原生
kubernetes
kubernetes
golang
java
k8s client-go
源码解析
之informer 二
Informer(二)注意:本文内容为学习笔记,内容为个人见解,不保证准确性,但欢迎大家讨论何指教。informer使用可以参考我的这个项目:hingehinge项目,用于展示如何简单使用informer以及自定义indexer。这个项目支持你用类似于orm的方式在集群中查找资源,这依赖于informer的indexer机制。本篇介绍cache.SharedIndexInforme中Control
随风奔跑尿飞扬
·
2024-01-21 00:53
云原生
kubernetes
kubernetes
golang
java
k8s源码阅读:Informer
源码解析
写在之前Kubernetes的Informer机制是一种用于监控资源对象变化的机制。它提供了一种简化开发者编写控制器的方式,允许控制器能够及时感知并响应Kubernetes集群中资源对象的变化。Informer通过与KubernetesAPI服务器进行交互,通过监听API服务器上资源对象的修改事件来实现实时的资源对象状态更新。当一个资源对象被创建、更新或删除时,Informer会收到相应的通知,并
bug_createman
·
2024-01-21 00:21
云原生源码阅读
kubernetes
golang
云原生
大数据导论(3)---大数据技术
文章目录1.大数据技术概述2.数据采集与预处理2.1数据采集2.2预处理3.数据存储和管理3.1分布式基础架构Hadoop3.2分布式文件系统
HDFS
3.3分布式数据库HBase3.4非关系型数据库NoSQL4
冒冒菜菜
·
2024-01-20 21:28
大数据导论
大数据导论
大数据技术
课程学习
HDFS
的EditLog和FsImage作用详细解析,超详细!(含部分非原创图片,大部分原创总结)
Editslog:保存了以
HDFS
最新版本的FsImage为起点起对
hdfs
中文件的操作信息FsImage:某一时刻内存元数据在本地磁盘的映射,用于维护管理文件系统树,即元数据。
科班你宇哥
·
2024-01-20 21:08
Hadoop学习历程
hdfs
hadoop
大数据
使用Sqoop从Oracle数据库导入数据
Sqoop是一个用于在Hadoop生态系统(如
HDFS
和Hive)与关系型数据库之间传输数据的工具。它使数据工程师
晓之以理的喵~~
·
2024-01-20 19:27
sqoop
数据库
sqoop
oracle
大数据Hadoop入门——
HDFS
分布式文件系统基础
HDFS
总结在现代的企业环境中,海量数据超过单台物理计算机的存储能力,分布式文件系统应运而生,对数据分区存储于若干物理主机,管理网络中跨多台计算机存储的文件系统。
nucty
·
2024-01-20 16:00
大数据
大数据
hadoop
hdfs
大数据技术之Hadoop伪分布式安装步骤及结果(Ubuntu)
环境、配置PATH环境变量;3、下载Hadoop并解压;4、修改配置文件;5、名称节点格式化;6、启动Hadoop,JPS查看是否启动成功;7、运行测试例子;8、在安装好的Hadoop伪分布式环境中操作
HDFS
小嘤嘤怪学
·
2024-01-20 16:52
Hadoop
分布式
hadoop
大数据
hdfs
元数据为什么分fsimage和edits,合并操作怎么进行的
在NameNode中,命名空间(namespace,指文件系统中的目录树、文件元数据等信息)是被全部缓存在内存中的,一旦NameNode重启或者宕机,内存中的所有数据将全部丢失,所以必须要有一种机制能够将整个命名空间持久化保存,并且能在NameNode重启时重建命名空间。这里就是通过fsimage(FSImage类)和edits(FSEditLog类)共同实现的。fsimage:命名空间镜像,存储
sf_www
·
2024-01-20 11:53
hadoop
hdfs
hadoop
big
data
Quorum Journal实现
HDFS
HA配置dfs.ha.fencing.methods
1.为什么使用QuorumJournal方式实现
hdfs
ha配置dfs.ha.fencing.methods只需要写shell(true)?
sf_www
·
2024-01-20 11:22
hadoop
hadoop
hdfs
Hadoop配置文件加载
hadoop使用org.apache.hadoop.conf.Configuration类来加载配置文件2.一般我们在写客户端程序等需要连接hadoop集群时,需要自己准备好core-site.xml和
hdfs
-site.xml
sf_www
·
2024-01-20 11:52
hadoop
hadoop
大数据
hdfs
HDFS
垃圾回收
源码解析
1.TrashPolicy类:所有的垃圾回收策略都需要实现该类,
hdfs
默认的实现方式是:TrashPolicyDefault,可通过fs.trash.classname来配置。
sf_www
·
2024-01-20 11:52
hadoop
hadoop
hdfs
大数据
上一页
10
11
12
13
14
15
16
17
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他