E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
hdfs源码分析
基于注解的SpringAOP源码解析(三)
注意,读完本篇文章需要很长很长时间在之前的2篇文章:AOP
源码分析
(一)AOP
源码分析
(二)中,我们搭建了SpringAOP
源码分析
的环境,介绍了@EnableAspectJAutoProxy注解和postProcessBeforeInstantiation
Java学习录
·
2024-02-08 08:18
View#post(Runnable runnable)为什么能拿到view的宽高。
基于androidsdk-23的
源码分析
,文章分成两个部分,实际上我是先写第二部分了再写第一部分的。第一部分看一下view.post的内部。
HWilliamgo
·
2024-02-08 08:24
Hadoop生态漏洞修复记录
Hadoop常用端口介绍
HDFS
NameNode50070dfs.namenode.http-addresshttp服务的端口50470dfs.namenode.https-addresshttps服务的端口
不会吐丝的蜘蛛侠。
·
2024-02-08 08:30
hadoop
大数据
分布式
Hadoop2.7配置
core-site.xmlfs.defaultFS
hdfs
://bigdata/ha.zookeeper.quorum192.168.56.70:2181,192.168.56.71:2181,192.168.56.72
不会吐丝的蜘蛛侠。
·
2024-02-08 08:59
Hadoop
hadoop
大数据
hdfs
HDFS
执行balance报错:
hdfs
balance java.io.IOException: Another Balancer is running.. Exiting
现象:1、大数据Hadoop集群,
HDFS
扩容后,为了使各节点数据均衡,执行balance操作。2、启动
hdfs
balance时,一直出现其他的balance在执行中,其实并没有执行。
不会吐丝的蜘蛛侠。
·
2024-02-08 08:29
Hadoop
hdfs
hadoop
java
hadoop调优-
hdfs
配置优化
配置文件
hdfs
-site.xml生产环境建议优化:dfs.permissions.enabledtruedfs.namenode.handler.count90dfs.ha.automatic-failover.enabledtrue
不会吐丝的蜘蛛侠。
·
2024-02-08 08:28
Hadoop
hadoop
hdfs
big
data
hive自定义UDF依赖第三方jar包
上传jar包到
HDFS
上
hdfs
dfs-putxxxx.jar/tmp/hive/创建永久函数:createfunctionmy_funas'com.test.TestUDF'usingjar'
hdfs
不会吐丝的蜘蛛侠。
·
2024-02-08 08:28
hive
hive
jar
hadoop
spark运行失败The directory item limit of /spark_dir/spark_eventLogs is exceeded: limit=1048576 items=104
报错:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.
hdfs
.protocol.FSLimitException$MaxDirectoryItemsExceededException
不会吐丝的蜘蛛侠。
·
2024-02-08 08:58
Hadoop
spark
hadoop
hdfs
删除和清空Hive外部表数据
外部表和内部表区别未被external修饰的是内部表(managedtable),被external修饰的为外部表(externaltable);区别:内部表数据由Hive自身管理,外部表数据由
HDFS
SunnyRivers
·
2024-02-08 08:53
Hive
hive
drop
truncate
外部表
删除外部表
【Java】ArrayList和LinkedList的区别是什么
目录1.数据结构2.性能特点3.
源码分析
4.代码演示5.细节和使用场景ArrayList和LinkedList分别代表了两类不同的数据结构:动态数组和链表。
王果冻ddd
·
2024-02-08 07:54
java
开发语言
【深入浅出 Yarn 架构与实现】6-4 Container 生命周期
源码分析
本文将深入探讨AM向RM申请并获得Container资源后,在NM节点上如何启动和清理Container。将详细分析整个过程的源码实现。一、Container生命周期介绍Container的启动由ApplicationMaster通过调用RPC函数ContainerManagementProtocol#startContainers()发起请求,NM中的ContainerManagerImpl组件
大数据王小皮
·
2024-02-08 07:27
深入浅出Yarn架构与实现
架构
java
大数据
sqoop导入数据到
hdfs
Sqoop是apache旗下的一款”Hadoop和关系数据库之间传输数据”的工具导入数据:将MySQL,Oracle导入数据到Hadoop的
HDFS
、HIVE、HBASE等数据存储系统导出数据:从Hadoop
鲲鹏猿
·
2024-02-08 06:40
hdfs
sqoop
hadoop
2024-02-07(Sqoop,Flume)
1.Sqoop的增量导入实际工作中,数据的导入很多时候只需要导入增量的数据,并不需要将表中的数据每次都全部导入到hive或者
hdfs
中,因为这样会造成数据重复问题。
陈xr
·
2024-02-08 06:35
随记日志
sqoop
flume
2023大数据必看面试题
1、请讲述
HDFS
输入文件的具体步骤?
东方同学
·
2024-02-08 05:38
大数据
面试题
大数据
hadoop
java
Hyperledger-Fabric
源码分析
(Gossip-Emitter)
接下来我们来看看Emitter模块,这里初略的看就是gossip的消息发送的模块。下面我们来具体分析下启动时机funcNewGossipService(conf*Config,s*grpc.Server,saapi.SecurityAdvisor,mcsapi.MessageCryptoService,selfIdentityapi.PeerIdentityType,secureDialOptsa
Pillar_Zhong
·
2024-02-08 04:11
Spring Boot原理剖析和
源码分析
SpringBoot原理剖析和
源码分析
依赖管理问题一:为什么导入dependency时不需要指定版本?
左师兄zuosx
·
2024-02-08 03:53
第二十三章、AtomicInteger
源码分析
—基于CAS的乐观锁实现
1.悲观锁与乐观锁cpu是时分复用的,也就是把cpu的时间片,分配给不同的thread/process轮流执行,时间片与时间片之间,需要进行cpu切换,也就是会发生进程的切换。切换涉及到清空寄存器,缓存数据。然后重新加载新的thread所需数据。当一个线程被挂起时,加入到阻塞队列,在一定的时间或条件下,在通过notify(),notifyAll()唤醒回来。在某个资源不可用的时候,就将cpu让出,
小母牛不生产奶
·
2024-02-08 00:17
【Canal
源码分析
】Canal Server的启动和停止过程
一、序列图1.1启动启动序列图.png1.2停止停止序列图.png二、
源码分析
整个server启动的过程比较复杂,看图难以理解,需要辅以文字说明。
端木轩
·
2024-02-07 22:31
hive之DDl数据定义
1.Hive在
HDFS
上的默认存储路径Hive的数据都是存储在
HDFS
上的,默认有一个根目录,在hive-site.xml中,由参数hive.metastore.warehouse.dir指定。
嚄825
·
2024-02-07 19:32
hive
hadoop
大数据
vue双向绑定的原理及实现双向绑定MVVM
源码分析
Vue双向数据绑定的原理:可以将对象的属性绑定到UI,具体的说,我们有一个对象,该对象有一个name属性,当我们给这个对象name属性赋新值的时候,新值在UI上也会得到更新。同样的道理,当我们有一个输入框或者textarea的时候,我们输入一个新值的时候,也会在该对象的name属性得到更新。数据劫持实现双向数据绑定:vue.js则是采用数据劫持结合发布者-订阅者模式,通过Object.define
前端来入坑
·
2024-02-07 19:40
HDFS
之 数据管理(namespace 和 slaves)
1、namespaceNamespace在
HDFS
中是一个非常重要的概念,也是有效管理数据的方法。Namespace有很多优点:可伸缩性。使
HDFS
集群存储能力可以轻松进行水平拓展;系统性能。
Studying!!!
·
2024-02-07 17:57
中间件
hdfs
hadoop
大数据
HDFS
架构 之 服务视图
1、简介为实现以上特性,
HDFS
包含的各个服务模块都是经过精心设计的,
HDFS
的服务视图如图。
HDFS
的服务视图包含三大部分:核心服务、公共服务和拓展服务。2、核心服务1)Namenode。
Studying!!!
·
2024-02-07 17:27
中间件
hdfs
hadoop
大数据
HDFS
架构 之 元数据架构解析
1.1namenode启动流程1.1.1启动流程1、加载fsimage文件FsImage是一种持久化到磁盘上的文件,里面包含了集群大部分的meta数据,持久化的目的主要是为了防止meta数据丢失,也就是在
HDFS
Studying!!!
·
2024-02-07 17:23
中间件
hdfs
架构
hadoop
Adb显示第3方应用的包名原理
Android早期版本实现原理请看Android
源码分析
-pm命令的实现,列出包名pmlistpackage,列出系统库pmlistlibraries_pmlistpackages-CSDN博客Android12
亚瑟-小郎
·
2024-02-07 16:24
adb
list
framework
android
02Nginx
源码分析
之总结内存开辟的相关函数(ngx_alloc.c,ngx_palloc.c)
02Nginx
源码分析
之总结内存开辟的相关函数(ngx_alloc.c,ngx_palloc.c)前言:写这一篇的目的是为了方便接下来的阅读,否则每次都要对应查找相应的函数,非常麻烦。
Mango酱
·
2024-02-07 15:53
Nginx源码分析
nginx
数据结构
DataX概述
1.概述DataX是阿里开源的的一个异构数据源离线同步工具,致力于实现包括关系型数据库(MySQL、Oracle等)、
HDFS
、Hive、ODPS、HBase、FTP等各种异构数据源之间稳定高效的数据同步功能
大数据开发工程师-宋权
·
2024-02-07 14:01
DataX
hadoop
阿里云datax工具使用详解
datax介绍特征安装前准备工作-系统需求快速开始补充datax介绍DataX是阿里巴巴集团内被广泛使用的离线数据同步工具/平台,实现包括MySQL、SQLServer、Oracle、PostgreSQL、
HDFS
王春星
·
2024-02-07 14:01
数据高效导入工具
大数据数据迁移工具选择
快速导数据工具
异构数据源导入工具
大数据工具
datax安装与使用详解
一、dataX概览1.1DataXDataX是阿里巴巴集团内被广泛使用的离线数据同步工具/平台,实现包括MySQL、SQLServer、Oracle、PostgreSQL、
HDFS
、Hive、HBase
jhchengxuyuan
·
2024-02-07 14:00
hadoop
大数据
datax
大数据
DataX详解和架构介绍
系列文章目录一、DataX详解和架构介绍二、DataX
源码分析
JobContainer三、DataX
源码分析
TaskGroupContainer四、DataX
源码分析
TaskExecutor五、DataX
shandongwill
·
2024-02-07 14:27
大数据
DataX
大数据
详解
深入理解AQS独占锁之ReentrantLock
源码分析
并发工具类的应用场景详解上一章我们讲解了ReentrantLock、Semaphore、CountDownLatch、CyclicBarrier等同步工具类的应用场景及实现,本章我们重点讲解ReentrantLock
源码分析
Myname_China
·
2024-02-07 12:22
并发编程
Java
java
开发语言
并发编程
读写锁ReentrantReadWriteLock&StampLock详解
传送门:深入理解AQS独占锁之ReentrantLock
源码分析
目录读写锁介绍ReentrantReadWriteLock介绍ReentrantReadWriteLock的使用应用场景锁降级读写锁设计思路
Myname_China
·
2024-02-07 12:22
并发编程
Java
java
开发语言
并发编程
Vue.js
源码分析
——模板编译和组件化
一、模板编译模板编译介绍:模板编译的主要目的是将模板(template)转换为渲染函数(render)titlesomecontent渲染函数render(h){returnh('div',[h('h1',{on:{click:this.handler}},'title'),h('p','somecontent')])}模板编译的作用Vue2.x使用VNode描述视图以及各种交互,用自己编写的VN
丽__
·
2024-02-07 12:41
Eureka
源码分析
(九)清理过期租约
下面我们来说说eureka的过期机制。其实这篇文章主要介绍的是AbstractInstanceRegistry的内部类EvictionTask。我们知道AbstractInstanceRegistry是包括了所有注册到EurekaServer上的实例。而EvictionTask就是清理过期租约的定时任务。在Eureka-Server启动时,初始化EvictionTask定时执行。protected
skyguard
·
2024-02-07 11:21
freertos
源码分析
三 task 结构与几个链表
任务控制块taskControlBLock结构体,以下为部分typedefstructtskTaskControlBlock{volatileStackType_t*pxTopOfStack;//栈顶指针ListItem_txStateListItem;//任务状态表项ListItem_txEventListItem;//事件表项UBaseType_tuxPriority;//优先级StackTy
yvee
·
2024-02-07 10:20
链表
数据结构
freertos
源码分析
四 任务创建的简单分析
任务创建xTaskCreate为TCB和TCB栈分配空间,初始化,加入就绪任务链表#if(configSUPPORT_DYNAMIC_ALLOCATION==1)BaseType_txTaskCreate(TaskFunction_tpxTaskCode,constchar*constpcName,constconfigSTACK_DEPTH_TYPEusStackDepth,void*const
yvee
·
2024-02-07 10:17
嵌入式硬件
Hadoop分布式计算实验踩坑实录及小结
目录Hadoop分布式计算实验踩坑实录及小结踩坑实录Hadoop学习Hadoop简介
HDFS
SomeconceptsMapReduce主要配置文件集群搭建来源与引用Hadoop分布式计算实验踩坑实录及小结踩坑实录单机
小童同学_
·
2024-02-07 10:08
HIT
hadoop
分布式
ubuntu
java
ConcurrentLinkedHashMap
源码分析
一、简介ConcurrentLinkedHashMap是google开源的线程安全的方便并发的Map,Map利用LRU缓存机制对Map中存储对象进行换入换出管理。采用两套资源控制机制,一套同步机制,使用ConcurrentMap对对象数据进行KV存储,保证多线程并发安全地调用Map资源,而对于存储对象的换入换出管理则采用异步机制,使用Queuebuffer存储每次的因对象读写而产生的对象换入换出任
lim快乐_无限
·
2024-02-07 09:15
大数据命令,一文在手,全部都有(送纯净版文档)
比如linux,kafka命令就比较多,
hdfs
操作也多。但是对于HBase.....这类框架命令比较少,就不再本篇展示。望周知。其中内容包含以下,具体命令会一一介绍。
大数据左右手
·
2024-02-07 09:35
大数据
大数据
zookeeper
hadoop
flink
linux
Flink执行流程与
源码分析
(面试必问,建议收藏)
Flink主要组件作业管理器(JobManager)(1)控制一个应用程序执行的主进程,也就是说,每个应用程序都会被一个不同的Jobmanager所控制执行(2)Jobmanager会先接收到要执行的应用程序,这个应用程序会包括:作业图(JobGraph)、逻辑数据流图(ogicaldataflowgraph)和打包了所有的类、库和其它资源的JAR包。(3)Jobmanager会把Jobgraph
大数据左右手
·
2024-02-07 09:04
Flink
大数据
flink
三级?是缓存不是片! spring的三级缓存---学习spring框架第一步
二、是怎么解决的三、反思总结
源码分析
:DefaultSingletonBeanRegistry类getSingleton方法三级缓存的作用反思总结面试点:1、三级缓存原理:如上2、二级缓存就可以解决了为什么还要有三级缓存为什么需要早期引用
苏汀star
·
2024-02-07 08:17
框架
spring
学习
java
面试
nginx upstream server主动健康检测模块ngx_http_upstream_check_module 使用和
源码分析
(中)
目录6.
源码分析
6.1解析指令分析6.2待检查的服务器的添加和状态查询6.3本模块的进程初始化函数6.4准备执行健康检测任务6.5执行健康检测任务本篇对ngx_http_upstream_check_module
码农心语
·
2024-02-07 07:53
高性能
nginx学习
LINUX
nginx
http
运维
健康检测
tengine
源码分析
nginx upstream server主动健康检测模块ngx_http_upstream_check_module 使用和
源码分析
(下)
目录7.实现一个UDP健康检测功能7.1功能定义7.2定义一个新的健康检测类型7.3增加udp特定的健康检测需要的配置指令7.3.1ngx_http_upstream_check_srv_conf_s结构体的扩展7.3.2check_udp_send的实现7.3.3check_udp_expect的实现7.3.416进制解码代码的实现7.4ngx_http_upstream_check函数的修改7
码农心语
·
2024-02-07 07:50
nginx学习
LINUX
c++开发
nginx
http
udp
健康检测
upstream
tengine
源码实现
原来还可以使用 DataX 进行数据同步
DataX实现了包括MySQL、Oracle、SqlServer、Postgre、
HDFS
、Hive、ADS、HBase、TableStore(OTS)、MaxCompute(ODPS)、Hologres
lytao123
·
2024-02-07 06:16
➤
数据库
big
data
hive
java
DataX
Clickhouse
Clickhouse到HBase(Phoenix)数据导入 DataX
DataXDataX是一个异构数据源离线同步工具,致力于实现包括关系型数据库(MySQL、Oracle等)、
HDFS
、Hive、ODPS、HBase、FTP等各种异构数据源之间稳定高效的数据同步功能。
布尔科技技术团队
·
2024-02-07 06:44
hbase
oracle
postgresql
数据仓库
【实验2】在Hadoop平台上部署WordCount程序
文章目录实验内容一、实验环境:二、实验内容与步骤(过程及数据记录):5.分布式文件系统
HDFS
上的操作5.1利用Shell命令与
HDFS
进行交互5.2利用Web界面管理
HDFS
6.分布式文件系统
HDFS
-借我杀死庸碌的情怀-
·
2024-02-07 05:27
hadoop
npm
大数据
centos
分布式
如何将日志文件和二进制文件快速导入
HDFS
?
日志数据在应用程序中一直很常见,Hadoop能够处理生产系统生成的大量日志数据,比如网络设备、操作系统、Web服务器和应用程序的日志数据。这些日志文件提供了对系统和应用程序运行以及使用的见解,统一日志文件的原因是它们往往采用文本形式和面向行的方式,因此易于处理。在《Hadoop从入门到精通》大型专题的上一章节中,我们介绍了可用于将数据复制到Hadoop的低级方法。本节不使用这些方法构建数据移动工具
weixin_34159110
·
2024-02-07 05:36
大数据
数据库
python
Golang context 万字解析实现原理
Golang:context基于go1.21版本Context是什么Context的功能应用场景
源码分析
1.10Context核心结构1.1Err错误2.1emptyCtx3.1Background()
Go 的学习之路
·
2024-02-07 04:02
golang
服务器
linux
RocketMQ
源码分析
(四)消息的发送
消息发送的主要步骤为:验证消息,查找路由,消息发送(包含异常机制处理)我们以DefaultMQProducer#send为切入口:以下代码为验证消息publicSendResultsend(Messagemsg)throwsMQClientException,RemotingException,MQBrokerException,InterruptedException{//校验消息(主要是长度是
甘_
·
2024-02-07 04:01
muduo-net
源码分析
(七)——TcpServer 和 TcpConnection(二)
先序这一节我们将继续完善TcpServer和TCPConnection类,并且解决上一节思考的问题【一定要理清思路】;TcpServer
源码分析
重要的变量ConnectionCallbackconnectionCallback
cyjiayou
·
2024-02-07 03:02
muduo源码分析
c++
数据仓库-Hive基础(二)Hive 的基本概念
其本质是将SQL转换为MapReduce的任务进行运算,底层由
HDFS
来提供数据的存储,说白了hive可以理解为一个将SQL转换为MapReduce的任务的工具,甚至更进一步可以说hive就是一个MapReduce
做个合格的大厂程序员
·
2024-02-07 03:42
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他