E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
hdfs扩容
HDFS
核心理论学习记录
标题
HDFS
理论学习第一天一、
HDFS
优缺点1、优点高容错性:数据会保存多个副本适合处理大数据:能够处理GB,TB甚至PB级别的数据能够处理百万规模的数据数据廉价不吃配置2、缺点不适合低延时数据访问,文件存储是放在磁盘中读取会有额外
袁奎
·
2023-08-30 08:31
hadoop
hdfs
hdfs
hadoop
学习
Hive UDF自定义函数上线速记
0.编写hiveudf函数jar包略1.永久函数上线1.1提交jar包至
hdfs
使用命令or浏览器上传jar到
hdfs
,命令的话格式如下
hdfs
dfs-put[Linux目录][
hdfs
目录]示例:
hdfs
dfs-put
mizuhokaga
·
2023-08-30 08:42
hive
hadoop
数据仓库
hdfs
操作
hadoopfs[genericoptions][-appendToFile…][-cat[-ignoreCrc]…][-checksum…][-chgrp[-R]GROUPPATH…][-chmod[-R]PATH…][-chown[-R][OWNER][:[GROUP]]PATH…][-copyFromLocal[-f][-p][-l][-d]…][-copyToLocal[-f][-p][-
cynthia_file
·
2023-08-30 08:41
大数据
hdfs
hadoop
大数据
服务器防止DDOS
弹性:虚实结合,快速
扩容
与云服务器内网互通,实现快速
连香蝶
·
2023-08-30 08:55
Hive3第三章:DML数据操作
如何生成可参考右边的帮助文档文章目录系列文章目录前言一、数据导入1.向表中装载数据(load)2.通过查询语句导入(insert)二、数据导出1.hadoop导出2.insert导出3.shell导出4.Export导出到
HDFS
超哥--
·
2023-08-30 08:35
hive
hadoop
hive
大数据
大数据学习教程SD版第七篇【Hive】
hiveclientbeelineclient特点HQL用于数据分析,但处理处理粒度粗处理大数据,但延迟高支持自定义函数架构原理Metastore元数据存储Client客户端MapReduce计算引擎
HDFS
道-闇影
·
2023-08-30 08:32
hive
hadoop
big
data
hadoop的
hdfs
中避免因节点掉线产生网络风暴
hadoop的
hdfs
中避免因节点掉线产生网络风暴控制节点掉线RPC风暴的参数三个参数都是
hdfs
-site.xml中参数,具体可以参考apachehadoop官网,其实块的复制速度有两个方面决定,一是
墨卿风竹
·
2023-08-30 08:32
hadoop
hdfs
大数据
Ubuntu18.04 将磁盘挂载在某目录下
Ubuntu18.04的系统时,不小心将内存分区了,导致根目录只用了其中的一个区,后面没有内存用了,不想重新装系统,遂想方法解决解决方法1.合并分区sda1与sda5合并使用gparted工具对分区进行
扩容
或合并首先需要注意的一点是
东风008
·
2023-08-30 08:42
Hadoop 集群一直处于安全模式,强制退出后出现数据丢失警告。解决方法
文章目录安全模式相关命令分析集群为什么一直处于安全模式解决方法安全模式相关命令#查看安全模式状态
hdfs
dfsadmin-safemodeget#进入安全模式
hdfs
dfsadmin-safemodeenter
月亮给我抄代码
·
2023-08-30 08:59
hadoop
安全
大数据
分布式
Hive3第六章:更换引擎
数据操作(二)Hive3第四章:分区表和分桶表Hive3第五章:函数Hive3第六章:更换引擎文章目录系列文章目录前言一、更换hive二、安装hive三、更换引擎1.部署Spark纯净版2.修改配置文件3.
HDFS
超哥--
·
2023-08-30 08:59
线上问诊
hive
hive
【C语言实战项目】通讯录(动态增容版)
动态增容版简介上篇博客我们一起用C语言实现了一个固定大小的通讯录程序,这篇博客里我们将把他改造成可以动态增加大小的版本.二.动态增容版逐步实现详解1.创建通讯录创建部分与静态版不同的是,因为我们在通讯录成员个数
扩容
的时候需要有一个变量来记录当前通讯录的最大容量
修修修也
·
2023-08-30 07:32
c语言
开发语言
C++中的vector结构解读、迭代器失效问题以及模拟实现
1、vector的介绍vector是一个容器,底层使用数组实现,那就意味着,可以使用下标对vector进行访问,和数组一样高效,但是又不像数组一样,他的大小是可以动态改变的,底层实现了
扩容
的逻辑,有的编译器也对缩容进行了实现
孟婆的cappucino
·
2023-08-30 06:59
c++
开发语言
【
HDFS
】ResponseProcessor线程详解以及客户端backoff反压
ResponseProcessor如何处理datanode侧发过来的packetack的客户端侧backoff逻辑。ResponseProcessor:主要功能是处理来自datanode的响应。当一个packet的响应到达时,会把这个packet从ackQueue里移除。@Overridepublicvoidrun(){//设置ResponseProcessor线程的名字setName("Resp
叹了口丶气
·
2023-08-30 05:40
HDFS全方位实战
hdfs
hadoop
大数据
【
HDFS
】PacketResponder线程相关
核心成员变量ackQueue核心函数enqueue、sendAckUpstreamUnprotected、waitForAckHeadPacketResponder线程什么时候启动的?直接找newPacketResponder关键字。发现是在receiveBlock方法里。这个receiveBlock方法又在writeBlock方法内部。//如果是客户端写、并且不是transfer的情况,才启动P
叹了口丶气
·
2023-08-30 05:39
HDFS全方位实战
hdfs
hadoop
大数据
Spark基础学习——RDD算子
二、准备(一)准备数据文件1.在/home目录下创建words.txt文件,在文件中写入一段数据2.将words.txt上传到
HDFS
系统的/park目录里(创建/park命令:
hdfs
dfs-mkdir
十四是40
·
2023-08-30 04:23
spark
学习
TDSQL分布式数据库的
HDFS
和LOCAL备份配置
产品介绍:TDSQL分布式数据库是腾讯公司结合自身支付、金融等核心业务需求,紧紧抓住了国外传统集中式数据库难以适应业务规模快速增长这一现实问题,从2009年开始研制新一代分布式数据库系统TDSQL。并通过持续的产品化完善,实现国产分布式数据库的市场通用化,助力金融政务等行业实现数据库安全可控,并持续降低IT成本,提升数字化运营效率,从而进一步推动普惠金融、数字政务等传统行业升级发展。产品特点:TD
腾讯云数据库
·
2023-08-30 04:31
QCustomPlot 绘制卡顿问题
大数据量导致曲线绘制卡顿问题这里提供一个思路在跟踪源码中发现底层卡顿在vector的resize()此处
扩容
中所以尽量使用下面的接口/*!
_小白鱼儿_
·
2023-08-30 03:25
QT
qt
QCustomPlot
大数据量
Flink教程-flink 1.11使用sql将流式数据写入文件系统
文章目录滚动策略分区提交分区提交触发器分区时间的抽取分区提交策略完整示例定义实体类自定义source写入fileflink提供了一个filesystemconnector,可以使用DDL创建一个table,然后使用sql的方法将数据写入
hdfs
大数据技术与应用实战
·
2023-08-30 03:50
flink
flink
sql
教程
hdfs
1.11
Flink SQL 获取FileSystem时,如果FileName发生更改在则会报错
CREATETABLE`cfg_city`(`provincecode`int,`city_id`int,`city_name`string)WITH('connector'='filesystem','path'='
hdfs
青冬
·
2023-08-30 03:48
Flink
flink
sql
大数据
pyflink实时接收kafka数据至
hdfs
/usr/bin/python#-*-coding:UTF-8-*-#测试kafka接收数据,通过pyflink,写入本地
hdfs
frompyflink.datastreamimportStreamExecutionEnvironment
小金子的夏天
·
2023-08-30 03:15
kafka
hdfs
数据库
剑指 Offer 05. 替换空格
剑指Offer05.替换空格双指针先将字符串
扩容
,加上空格数量2倍的字符。为了避免字符被覆盖,两个指针从后往前走。指针i指向原来字符串的结尾,指针j指向
扩容
后的字符串结尾。
dotJunz
·
2023-08-30 01:56
#
剑指offer
算法
JDK源码解读-集合(一)-ArrayList
JDK源码解读-集合-ArrayList如何
扩容
privatevoidgrow(intminCapacity){//overflow-consciouscode//获取原集合的长度intoldCapacity
wbb9019
·
2023-08-30 00:12
JDK集合
JDK原码
ArrayList原码
ArrayList插入数据解析
ArrayList扩容解析
flink on yarn应用常见问题记录及解决方案
近期由于工作原因,碰巧使用到了flink+kafka+
hdfs
+kerberos流式计算。一路走来,崎岖坎坷,满是荆棘。以此文记录一下学习实践经历。若能为各位后来者提供帮助,实乃我幸!
龙龍隆隆
·
2023-08-30 00:11
大数据
flink
kafka
kerberos
hdfs
Flink on Yarn集群HA高可用部署 基于flink1.12 hadoop 3.0 CDH6.3.2
其次FlinkJob在恢复时,需要依赖Checkpoint进行恢复,而Checkpoint的快照依赖于远端的存储:
HDFS
,所以
HDFS
也必须是高可用,同
Mumunu-
·
2023-08-30 00:09
hadoop
flink
jdk1.8源码解析-ArrayList
前言ArrayList是一个长度可调节的数组,使用者只需向其中添加,删除,获取元素,可以向其中添加任何对象(包括null值),无需关系它的
扩容
,,缩减问题。
jsbintask22
·
2023-08-30 00:39
java
源码
java
ArrayList
源码
JDK源码解析-ArrayList
(2)ArrayList允许空值和重复元素,当往ArrayList中添加的元素数量大于其底层数组容量时,其会通过
扩容
机制重新生成一个更大的数组。
Allen-xs
·
2023-08-30 00:08
源码分析
java
ArrayList
ArrayList 和 Vector 的区别
Collection接口),它们都是有序集合,存储的元素可以重复.安全性:ArrayList是线程不安全的,它的方法之间是线程不同步的,但效率较高.Vector是线程安全的,它的方法之间是线程同步的.
扩容
机制
KouKuma
·
2023-08-30 00:29
AWS S3(vue)+API Gateway+lambda实现无服务网站
lambda每月还有几万的免费访问量,真的很省钱,还有各种高可用,动态
扩容
,安全性,都不用考虑了,找个码农直接开干,业务流
rongyili88
·
2023-08-29 23:01
AWS
vue.js
aws
gateway
serverless
lambda
Redis集群
文章目录1集群分片slot2案例2.1.3主3从的rendis集群配置2.23主3从集群读写2.3主从容错切换迁移案例2.4主从
扩容
案例2.5主从缩容案例1集群分片slot1.槽位最大16384,建议最大节点
学习使我快乐007
·
2023-08-29 23:46
Redis
redis
starrocks湖到仓
LOADLABELbpit_bi.fwwiptransaction_20220720(DATAINFILE("
hdfs
://name01.baidu.com/user/hive/warehouse/bpit_bi.db
liurenfenglrf
·
2023-08-29 22:51
starrocks
数据库
成本翻倍,部署复杂?那是你用错了kubernetes!
kubernetes的出现简化了应用的部署和集群横向扩展的能力,并提供了强大的自动化和弹性
扩容
的能力,为业务带来了极大的提升。
鼎道开发者联盟
·
2023-08-29 21:13
kubernetes
云原生
2021-09-27财富之道(上):创造财富之流的底层逻辑
3、财富容器
扩容
方法:外在
扩容
,让源头之水源源不断进来。而财富基本盘就是外在
扩容
最基本的概念,最核心的通道。4、财富基
生命是一场觉醒之旅
·
2023-08-29 18:14
集合常见面试题
ArrayList的
扩容
方式是1.5倍
扩容
,这样
扩容
避免2倍
扩容
可能浪费空间,是一种折中的方案。另外他不是线程安全,vector则是线程安全的,它是两倍
扩容
的。
Tinner丶
·
2023-08-29 18:06
linux服务器管理学习(九)磁盘管理
==fdisk分区==2.1使用fdisk分区2.2挂载分区设备四、==逻辑卷管理(重点)==1.逻辑卷介绍2.逻辑卷基本概念3.逻辑卷LVM应用3.1逻辑卷创建3.2逻辑卷动态
扩容
3.3逻辑卷相关命令课后扩展补充一
带上耳机世界与我无关
·
2023-08-29 17:13
运维工程师
服务器
linux
学习
面经:第二家公司
手动实现哈希表的映射(说了思路不一定对)2.基础题:哈希表如何
扩容
、
扩容
机制(这些知识我真的不会,只能凭感觉说一些)3
秃头小公主
·
2023-08-29 16:18
【小知识】
hdfs
的namenode的block有哪些状态
有四种状态:1.UnderConstruction真正被写入2.UnderRecovery正在被恢复3.Committed已经确认好它的字节大小与generationstamp值(类似版本号)4.Complete写入执行操作结束状态启动时,namenode认为只有complete的block,才会读取。
老k的代码世界
·
2023-08-29 15:01
HDFS
集群读写压测
文章目录虚拟机设置
HDFS
写数据测试
HDFS
读数据测试删除压测产生的数据虚拟机设置如果你是在虚拟机中使用集群,那你你需要先对每台服务器进行网络设置,模拟真实网络传输速率。
月亮给我抄代码
·
2023-08-29 14:03
hdfs
hadoop
大数据
NameNode 故障无法重新启动解决方法
文章目录NameNode进程挂掉NameNode进程挂掉且数据丢失NameNode进程挂掉如果只是单纯的进程挂掉了,可以直接使用下列命令进行重启:
hdfs
--daemonstartnamenode示例:
月亮给我抄代码
·
2023-08-29 14:32
大数据
Hadoop
namenode
bug
hadoop-
HDFS
1.
HDFS
简介2.1Hadoop分布式文件系统-
HDFS
架构2.2
HDFS
组成角色及其功能(1)Client:客户端(2)NameNode(NN):元数据节点管理文件系统的Namespace元数据一个
不吃香菜lw
·
2023-08-29 10:31
hdfs
hadoop
大数据
从零开始的Hadoop学习(三)| 集群分发脚本xsync
1.Hadoop目录结构bin目录:存放对Hadoop相关服务(
hdfs
,yarn,mapred)进行操作的脚本etc目录:Hadoop的配置文件目录,存放Hadoop的配置文件lib目录:存放Hadoop
庭前云落
·
2023-08-29 10:31
Hadoop
hadoop
学习
大数据
Windows上安装Hadoop 3.x
目录0.安装Java1.安装Hadoop1.1下载Hadoop1.2下载winutils2.配置Hadoop1.hadoop-env.cmd2.创建数据目录3.core-site.xml4.
hdfs
-site.xml3
相国
·
2023-08-29 10:26
分布式
hadoop
大数据
Windows平台
客户端读写HBase数据库的运行原理
没有表关系,不支持JOIN④有列族,列族下可以有上百个列⑤单元格,即列值,可以存储多个版本的值,每个版本都有对应时间戳⑥行键按照字典序升序排列⑦元数据和数据分开存储元数据存储在zookeeper数据存储在
HDFS
时下握今
·
2023-08-29 10:26
数据存储
数据库
hbase
大数据
2023Java ——八股文(面试题冲击小测 15w)
集合集合的形式List和Set的区别ArrayList和LinkedList的区别ArrayList和数组的区别ArrayList的
扩容
机制是什么?Array
leader_song
·
2023-08-29 10:09
面试
面试
HashMap的数据结构(超详细版)
文章目录影响HashMap性能的两个重要参数以及HashMap的几个重要成员变量HashMap底层存储机制概述HashMap的初始化与
扩容
方式1.初始化2.
扩容
方式总结影响HashMap性能的两个重要参数以及
猿究院杨树林
·
2023-08-29 09:56
数据结构
哈希算法
散列表
华为云Stack的学习(二)
可以做集群的配置,
扩容
和运维管理。ServiceOM提供云服务的运维能力,采用虚拟化方式部署在管理节点。可以做资源管理。FusionCare作为健康检查和信息收集的运维工具。
C1yas0
·
2023-08-29 09:42
云计算
华为云
云计算
flume系列之:Error while trying to hflushOrSync,查看
hdfs
生成的文件发现文件损坏
flume系列之:ErrorwhiletryingtohflushOrSync,查看
hdfs
生成的文件发现文件损坏一、flume完整报错如下所示二、追查报错原因三、问题产生原因总结四、报错解决方法一、flume
最笨的羊羊
·
2023-08-29 08:20
flume
flume系列
hflushOrSync
文件损坏
flume系列之:监控flume上个小时生成的
HDFS
文件是否有损毁,并发送告警信息
flume系列之:监控flume上个小时生成的
HDFS
文件是否有损毁,并发送告警信息一、查看
HDFS
文件状态背景知识二、登陆远程服务器代码三、获取当前时间和上个小时时间四、访问
hdfs
执行kerberos
最笨的羊羊
·
2023-08-29 08:20
flume
flume系列
损毁文件
flume系列之:清理
HDFS
上的0字节文件
flume系列之:清理
HDFS
上的0字节文件一、使用脚本找出0字节文件二、删除0字节文件
HDFS
上有时会生成0字节的文件,需要把这些文件从
hdfs
上清理掉,可以使用脚本批量清理指定目录下0字节文件。
最笨的羊羊
·
2023-08-29 08:50
大数据
flume
hdfs
flume
hadoop
清理HDFS上的0字节文件
flume系列之:清理
HDFS
上的tmp文件,把.gz.tmp文件变为.gz文件
flume系列之:清理
HDFS
上的tmp文件,把.gz.tmp文件变为.gz文件一、查找
hdfs
指定目录下的tmp文件二、把所有的.gz.tmp文件变为.gz文件flume出现异常,
hdfs
上生成的gz.tmp
最笨的羊羊
·
2023-08-29 08:49
大数据
flume
hdfs
flume
hadoop
gz.tmp文件变为gz文件
flume系列之:
hdfs
.timeZone设置中国北京或上海时区
flume系列之:
hdfs
.timeZone设置中国北京或上海时区查看服务器时间flume设置中国时区查看服务器时间date2021年12月23日星期四10:09:49CST
hdfs
.timeZone设置中国北京或上海时区后
最笨的羊羊
·
2023-08-29 08:19
大数据
flume
hdfs
flume
kafka
上一页
97
98
99
100
101
102
103
104
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他