E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Hadoop进阶之路
Zookeeper(1):入门
/bin/bashcase$1in"start"){foriin
hadoop
100
hadoop
101
hadoop
102doecho----------zookeeper$i启动------------ssh
叶惠美zz
·
2024-02-20 04:33
zookeeper
linux
服务器
以史为镜,看看和珅从0到99的职场
进阶之路
,对我们的启示
文/校尉职说世人皆说和珅是个大贪官,乾隆皇帝时期的“二黄帝”,可谓一人之下,万人之上。他的家产相当于嘉庆年间15年的国库总收入,曾有记录说,和珅贪污十几亿两白银,按如今白银的价格算,折合人民币大概有1520多亿,这可是一个天文数字,他可谓是中国历史上贪官的集大成者。很多人对和珅的印象都停留在王刚老师等人主演的《铁齿铜牙纪晓岚》、《宰相刘罗锅》等电视剧中,一个本来是狡猾奸诈、手握大权的反叛人物,被王
北柠闻溪
·
2024-02-20 02:13
【Linux】指令 【scp】
scp
hadoop
.tar.gzdatanode:/software这条命令的含义是将本地的
hadoop
.tar.gz文件复制到远程主机datanode的/software目录下。
giao客
·
2024-02-20 01:31
Linux
linux
无依赖单机尝鲜 Nebula Exchange 的 SST 导入
无依赖单机尝鲜NebulaExchange的SST导入本文尝试分享下以最小方式(单机、容器化Spark、
Hadoop
、NebulaGraph),快速趟一下NebulaExchange中SST写入方式的步骤
NebulaGraph
·
2024-02-19 23:51
K8s
进阶之路
-Pod的生命周期
Pod创建过程:首先创建一个pod,然后创建一个APIServer和Etcd【把创建出来的信息存储在etcd中】然后创建Scheduler,监控APIServer是否有新的Pod,如果有的话,会通过调度算法,把pod调度某个node上在node节点,会通过kubelet--apiserver读取etcd拿到分配在当前node节点上的pod,然后通过docker创建容器在容器环境初始化后:初始化阶段
是芸晗ya
·
2024-02-19 21:36
K8s进阶之路
学习笔记
kubernetes
容器
云原生
K8s
进阶之路
-核心概念/架构:
架构:Master/NodeMaster组件--主控节点{负责集群管理(接收用户事件转化成任务分散到node节点上)}Apiserver:资源操作的唯一入口,提供认证、授权、API注册和发现等机制Scheduler:负责集群资源调度,按照预定的调度策略将Pod调度到相应的node节点上注:容器负载均衡部署Deployment控制器是之一Controller-manager:负责维护集群的状态,比如
是芸晗ya
·
2024-02-19 21:31
K8s进阶之路
学习笔记
kubernetes
架构
容器
mv: 无法获取“/opt/module/
hadoop
/logs/
hadoop
-atguigu-nodemanager-
hadoop
102.out.1“ 的文件状态(stat): 没有那个文件或目录
最近在回顾之前做过的离线数仓项目,在启动
hadoop
时出现了如下错误:
hadoop
102:mv:无法获取"/opt/module/
hadoop
/logs/
hadoop
-atguigu-nodemanager-
hadoop
102
时代新人0-0
·
2024-02-19 21:53
hadoop
hadoop
大数据
马士兵 day4_Yarn和Map/Reduce配置启动和原理讲解
分布式计算原则:移动计算,而不是移动数据
hadoop
默认包含了hdfs、yarn、mapReduce三个组件yarn(YetAnotherResourceNegotiater)是资源调度系统,yarn调配的是内存和
PC_Repair
·
2024-02-19 20:28
K8s
进阶之路
-安装部署K8s
参考:(部署过程参考的下面红色字体文档链接就可以,步骤很详细,重点部分在下面做了标注)安装部署K8S集群文档:使用kubeadm方式搭建K8S集群·GitBook本机:master:10.0.0.13masternode1:10.0.0.11node1node2:10.0.0.12node2#systemctlstopfirewalld&&systemctldisablefirewalld#sys
是芸晗ya
·
2024-02-19 20:12
K8s进阶之路
学习笔记
kubernetes
docker
K8s
进阶之路
-命名空间级-服务发现 :
服务发现:Service(东西流量):集群内网络通信、负载均衡(四层负载)内部跨节点,节点与节点之间的通信,以及pod与pod之间的通信,用Service暴露端口即可实现Ingress(南北流量):将内部服务暴露外网访问的服务ingress-nginx,也就是nginx反向代理负载均衡服务(七层http负载)Service:
是芸晗ya
·
2024-02-19 20:12
K8s进阶之路
学习笔记
kubernetes
服务发现
容器
Flink-部署实践
1)修改flink/conf/flink-conf.yaml文件:jobmanager.rpc.address:
hadoop
1132)修改/conf/masters文件:
hadoop
1133)修改/conf
魔笛Love
·
2024-02-19 20:52
flink
主流开发语言和开发环境?
Java被广泛应用于企业级应用开发、移动应用(特别是Android应用)、游戏开发、大数据处理(如
Hadoop
生态系统)、云计算服务端开发等场景。C++简介:C+
dami_king
·
2024-02-19 20:50
开发语言
K8s
进阶之路
-Pod(创建过程)/Pause/Replicas
Pod:是一个容器组,基于容器组管理容器(建议一个pod创建一个应用程序容器必须是紧耦合实例放在一起)pause容器:实现容器与容器之间的共享(在容器创建之前,底层都要先创建一个容器叫pause,用来实现对内的网络及ip、文件系统、主机名、内存等共享)Replicas副本数:描述制定副本数创建第二个即为副本,名字和uid会自动调整组件架构图:k8s集群,至少需要2台ECS机器k8s本身,也是以客器
是芸晗ya
·
2024-02-19 16:55
K8s进阶之路
学习笔记
kubernetes
容器
云原生
Quick introduction to Apache Spark
Spark使用
Hadoop
的客户端库来
Liam_ml
·
2024-02-19 13:29
Hadoop
Shuffle
Whentherearemultiplereducers,themaptaskspartitiontheiroutput,eachcreatingonepartitionforeachreducetask.Therecanbemanykeys(andtheirassociatedvalues)ineachpartition,buttherecordsforeverykeyareallinasing
SharlotteZZZ
·
2024-02-19 13:22
Flink 细粒度滑动窗口性能优化
大数据技术AIFlink/Spark/
Hadoop
/数仓,数据分析、面试,源码解读等干货学习资料118篇原创内容公众号1、概述1.1细粒度滑动的影响当使用细粒度的滑动窗口(窗口长度远远大于滑动步长)时,
hyunbar
·
2024-02-19 13:39
Flink
大数据
flink
java
数据库
【大数据面试题】006介绍一下Parquet存储格式的优势
同时一般查询使用时不会使用所有列,而是只用到几列,所以查询速度会更快压缩比例高因为是列式存储,所以可以对同一类型的一段做压缩,压缩比例高支持的平台和框架多在
Hadoop
,Spark,Presto,Python
Jiweilai1
·
2024-02-19 13:34
一天一道面试题
大数据
spark
hadoop
Sqoop 入门基础
简介Sqoop(SQLto
Hadoop
)是一个开源工具,用于在关系型数据库和
Hadoop
之间传输数据。
香菜的开发日记
·
2024-02-19 13:17
sqoop
hadoop
hive
K8s
进阶之路
-控制器无状态服务:
RC/RS/Deployment控制器deployment无状态(最常用):nginx和Apachestatefulset有状态:mysql和redisdamonset初始化job一次性任务cronjob任务计划1无状态:不会对本地环境产生依赖如:nginx和Apache3.RC、RS和Deployment区别:RC和RS:动态更新pod副本数管理pod,控制pod怎么创建,创建不同的pod类型,
是芸晗ya
·
2024-02-19 13:42
K8s进阶之路
学习笔记
kubernetes
容器
k8s
进阶之路
-pod探针:容器内的监控机制,检测应用是否存活
配合Pod重启策略:RestartPolicy应用程序是否启动完成:3.startupProbe启动探针1.16:排他性如果三个都配置了,会优先启动,会禁用前两个反馈成功后,才会启动以下两个应用启动成功后:1.LivenessProbe存活探针-->故障自动恢复:如果容器挂掉了,会检测是否有重启策略,决定是否需要重启2.ReadnessProbe就绪探针--->应用初始化探针探测成功,确认应用容器
是芸晗ya
·
2024-02-19 13:42
K8s进阶之路
学习笔记
kubernetes
容器
云原生
hadoop
硬件配置 高可用 datanode namenode硬件配置
每个分布式文件系统分块在NameNode的内存中大小约为250个字节,此外还要加上文件和目录所需的250字节空间。500字节一个块假设我们有5000个平均大小为20GB的文件并且使用默认的分布式文件系统分块大小(64MB)同时副本因子为3,5000*20GB=102400000M=97T那么NameNode需要保存5千万个分块的信息,这些分块的大小加上文件系统的开销总共需要1.5GB的内存。但是一
xcagy
·
2024-02-19 13:07
HADOOP
K8S
hadoop硬件
田尚滨
【大数据】
HADOOP
-YARN-ContainerExecutor容器启动器详解
在NodeManager中,有三种运行Container的方式,它们分别是:DefaultContainerExecutorLinuxContainerExecutorDockerContainerExecutor从它们的名字中,我们就能看得出来,默认情况下,一定使用的是DefaultContainerExecutor。而一般情况下,DefaultContainerExecutor也确实能够满足我
笑起来贼好看
·
2024-02-19 11:38
Hadoop
大数据
hadoop
大数据
linux
学习篇-
Hadoop
-YARN-环境搭建
文章目录一、
Hadoop
-YARN-环境搭建一、
Hadoop
-YARN-环境搭建官网参考:https://
hadoop
.apache.org/docs/stable/
hadoop
-project-dist
东东爱编码
·
2024-02-19 11:08
hadoop
大数据
hadoop
【大数据】
HADOOP
-Yarn集群界面UI指标项详解(建议收藏哦)
目录首页(Cluster)节点信息SchedulerMetrics:集群调度信息节点信息详解(Nodes)应用列表信息(applications)队列详情页(Scheduler)指标详细说明(非常重要)首页(Cluster)集群监控信息指标详解AppsSubmitted:已提交的应用AppsCompleted:已完成的应用AppsRunning:正在运行的应用ContainersRunning:正
笑起来贼好看
·
2024-02-19 11:08
Hadoop
大数据
服务运维部署
大数据
hadoop
分布式
yarn
Hadoop
-Yarn-NodeManager都做了什么
一、源码下载下面是
hadoop
官方源码下载地址,我下载的是
hadoop
-3.2.4,那就一起来看下吧Indexof/dist/
hadoop
/core二、上下文在我的博客中已经简要的分析了NodeManager
隔着天花板看星星
·
2024-02-19 11:00
hadoop
大数据
分布式
【2019-04-28】
Hadoop
分布式文件系统
Hadoop
自带HDFS(
hadoop
distributefilesystem)。HDFS默认数据块128M。
BigBigFlower
·
2024-02-19 11:56
Hadoop
搭建之 start-yarn.sh 报错
在搭建伪分布式的
Hadoop
集群环境时,在配置基础环境了并成功开启了HDFS组件后,jps查看已运行的名称节点和数据节点进程,[
hadoop
@master
hadoop
]$jps8994NameNode10396Jps9087DataNode9279SecondaryNameNode
万里长江雪
·
2024-02-19 11:58
java
hadoop
hdfs
大数据
运维
网络
hadoop
-2.7.4-nodemanager无法启动问题解决方案
近期新配了
hadoop
-274版本的集群,发现有一个小问题,DataNode无法顺利启动。
半肉哥
·
2024-02-19 11:27
hadoop
hadoop
-yarn资源分配介绍-以及推荐常用优化参数
如果有什么不正确的欢迎大家一起交流学习~Yarn前言作为
Hadoop
2.x的一部分,YARN采用MapReduce中的资源管理功能并对其进行打包,以便新引擎可以使用它们。
Winhole
·
2024-02-19 11:26
hadoop
Linux
Hadoop
-Yarn-NodeManager如何计算Linux系统上的资源信息
NodeResourceMonitorImpl)时只是提了下SysInfoLinux,下面我们展开讲下SysInfoLinux是用于计算Linux系统上的资源信息的插件二、SysInfoLinux源码packageorg.apache.
hadoop
.util
隔着天花板看星星
·
2024-02-19 11:48
hadoop
大数据
linux
node命令yarn --version指向了java
问题描述本地安装了java、
hadoop
和nodejs,并配置了环境变量,但是
hadoop
的bin目录下存在yarn命令,所以使用nodejs的yarn命令启动项目会出现找不到类,此时键入yarn-version
码学弟
·
2024-02-19 11:43
前端
node.js
yarn
企业级大数据安全架构(一)平台安全隐患
1缺乏统一的访问控制机制大数据平台由
Hadoop
生态体系众多组件组成,而每个组件都会提供相应的WebUI界面和RESTful接口,例如Nam
·
2024-02-19 11:48
大数据企业级安全性
MapReduce
MapReduce定义mapReduce是一个分布式运算程序的编程框架,是用户开发基于
hadoop
的数据分析应用的核心框架。
诺冰1314
·
2024-02-19 10:46
大数据
haoop
MapReduce
hadoop
mapreduce
大数据
Hive入门,Hive是什么?
它是建立在
Hadoop
生态系统之上的,利用
Hadoop
的分布式存储和计算能力来处理和分析数据。
JayGboy
·
2024-02-19 10:31
hive
hadoop
数据仓库
Hive on Spark配置
pwd=66663、将Spark安装包通过xftp上传到/opt/software安装部署Spark1、解压spark-3.3.1-bin-without-
hadoop
.tgz进入安装包所在目录cd/opt
在下区区俗物
·
2024-02-15 10:51
hive
spark
hadoop
配置hive on spark
hdfsdfs-mkdir/spark-jarshdfsdfs-put/opt/spark/jars/*/spark-jars2、修改hive-site.xml文件,添加如下配置:spark.yarn.jarshdfs://
hadoop
空白格2519
·
2024-02-15 10:51
数据采集
big
data
hive
spark
hadoop
hive on spark配置经验
常规配置配置完,开启
hadoop
,开启spark(如果在hdfs上上传了纯净版的spark则不需要开启),开启hive注:当前节点一定要是namenode的active节点,因为
hadoop
长时间不用namenode
小五冲冲冲
·
2024-02-15 10:21
Spark
hive
spark
hadoop
(三十八)大数据实战——Atlas元数据管理平台的部署安装
本节内容是关于ApacheAtlas的部署安装,在开始安装Atlas之前我们需要提前安装好Atlas需要集成的组件,如
hadoop
、zo
厉害哥哥吖
·
2024-02-15 09:09
大数据
大数据
【MySQL
进阶之路
】亿级数据量表SQL调优实战
欢迎关注公众号(通过文章导读关注:【11来了】),及时收到AI前沿项目工具及新技术的推送!在我后台回复「资料」可领取编程高频电子书!在我后台回复「面试」可领取硬核面试笔记!文章导读地址:点击查看文章导读!感谢你的关注!亿级数据量表SQL调优实战先说一下案例背景:在电商平台中,有一个商品表,数据量级别上亿,有一天晚上突然出现大量的慢查询告警,导致每一个数据库连接执行慢查询耗费几十秒的时间,以至于数据
11来了
·
2024-02-15 05:32
MySQL进阶之路
mysql
sql
数据库
【MySQL
进阶之路
】详解执行计划 type 列
欢迎关注公众号(通过文章导读关注:【11来了】),及时收到AI前沿项目工具及新技术的推送!在我后台回复「资料」可领取编程高频电子书!在我后台回复「面试」可领取硬核面试笔记!文章导读地址:点击查看文章导读!感谢你的关注!详解执行计划type列通过explain语句可以帮助我们查看查询语句的具体执行计划,那么在执行计划中的type列表示MySQL是如何查找对应的数据了,我们先来说一下执行计划中type
11来了
·
2024-02-15 05:32
MySQL进阶之路
mysql
数据库
【MySQL
进阶之路
】通过实操理解 explain 执行计划
欢迎关注公众号(通过文章导读关注:【11来了】),及时收到AI前沿项目工具及新技术的推送!在我后台回复「资料」可领取编程高频电子书!在我后台回复「面试」可领取硬核面试笔记!文章导读地址:点击查看文章导读!感谢你的关注!通过实操理解explain执行计划案例一:开胃小菜SQL语句:explainselect*fromtest1;执行计划如下:首先,id=1,id是每一个SQL语句的唯一标识selec
11来了
·
2024-02-15 05:32
MySQL进阶之路
mysql
数据库
【MySQL
进阶之路
】十亿量级评论表SQL调优实战
欢迎关注公众号(通过文章导读关注:【11来了】),及时收到AI前沿项目工具及新技术的推送!在我后台回复「资料」可领取编程高频电子书!在我后台回复「面试」可领取硬核面试笔记!文章导读地址:点击查看文章导读!感谢你的关注!十亿量级评论表SQL调优实战先说一下案例背景:在电商系统的评论表中,数据量非常大,达到了十亿量级,因此对评论的数据库进行分库分表处理,在分库分表之后,基本上单表的评论数据在百万级别左
11来了
·
2024-02-15 05:32
MySQL进阶之路
mysql
sql
数据库
Hadoop
手把手逐级搭建 第二阶段:
Hadoop
完全分布式(full)
前置步骤:1).第一阶段:
Hadoop
单机伪分布(single)0.步骤概述1).克隆4台虚拟机2).为完全分布式配置ssh免密3).将
hadoop
配置修改为完全分布式4).启动完全分布式集群5).在完全分布式集群上测试
郑大能
·
2024-02-15 04:07
一面数据:
Hadoop
迁移云上架构设计与实践
背景一面数据创立于2014年,是一家领先的数据智能解决方案提供商,通过解读来自电商平台和社交媒体渠道的海量数据,提供实时、全面的数据洞察。长期服务全球快消巨头(宝洁、联合利华、玛氏等),获得行业广泛认可。公司与阿里、京东、字节合作共建多个项目,旗下知乎数据专栏“数据冰山”拥有超30万粉丝。一面所属艾盛集团(Ascential)在伦敦证券交易所上市,在120多个国家为客户提供本地化专业服务。公司在2
JuiceFS
·
2024-02-15 01:48
(免费领源码)Java#MySql#
hadoop
高校固定资产管理系统74965-计算机毕业设计项目选题推荐
摘要在信息飞速发展的今天,网络已成为人们重要的信息交流平台。高校部门每天都有大量的信息需要通过网络发布,为此,高校固定资产管理系统开发的必然性,所以本人开发了一个基于Tomcat(服务器)模式的高校固定资产管理系统,该系统以B/S/Java语言、MySql数据库等为开发技术,实现了添加、修改、查看、删除系统数据。本系统采取组件化的方式对系统进行拆分,并对数据库中各个表的增删查改、表与表之间的约束关
2301_3224142804
·
2024-02-15 00:42
java
mysql
hadoop
spring
boot
django
python
php
大数据集群环境启动总结
hadoop
启动与停止单个节点逐一启动在主节点上使用以下命令启动HDFSNameNode:
hadoop
-daemon.shstartnamenode在每个从节点上使用以下命令启动HDFSDataNode
我还不够强
·
2024-02-14 23:04
Hadoop
-3.0.3 安装
Hadoop
-3.0.3安装一下载安装包二配置
Hadoop
环境变量/etc/profile后面追加export
HADOOP
_HOME=/data/
hadoop
-3.0.3exportPATH=$
HADOOP
_HOME
火星机遇号
·
2024-02-14 23:52
HDFS用户及权限配置
HDFS用户及权限配置使用linux用户bruce,格式化
hadoop
的namenode,那么bruce成为hdfs的超级用户在bruce用户下运行命令:#创建/user/
hadoop
目录
hadoop
fs-mkdir-p
wpheternal
·
2024-02-14 21:42
hadoop笔记
hadoop
hdfs
Hadoop
(HDFS)的超级用户
Hadoop
(HDFS)的超级用户超级用户超级用户即运行namenode进程的用户。宽泛的讲,如果你启动了namenode,你就是超级用户。超级用户干任何事情,因为超级用户能够通过所有的权限检查。
zinger.wang
·
2024-02-14 21:12
大数据
hadoop
hdfs
HDFS的超级用户
一.解释原因HDFS(
Hadoop
DistributedFileSystem)和linux文件系统管理一样,也是存在权限控制的。
重剑DS
·
2024-02-14 21:41
大数据
hdfs
hadoop
大数据
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他