E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
hadoop源码分析
iOS promise 设计模式,google promises
源码分析
1.promise模式概念关于文字概念,网上一堆,这里摘取下别人的话Promise设计模式的原理Promise设计模式把每一个异步操作都封装成一个Promise对象,这个Promise对象就是这个异步操作执行完毕的结果,但是这个结果是可变的,就像薛定谔的猫,只有执行了才知道。通过这种方式,就能提前获取到结果,并处理下一步骤。Promise使用then作为关键字,回调最终结果。then是整个Prom
孙掌门
·
2024-01-09 00:35
Hadoop
3.3.5云服务器安装教程-单机/伪分布式配置
系列文章目录华为云服务器试用领取领取的试用云服务器在哪
Hadoop
3.3.5云服务器安装教程-单机/伪分布式配置文章目录系列文章目录创建
hadoop
用户更新apt安装SSH、配置SSH无密码登陆安装Java
柔雾
·
2024-01-08 21:48
服务器
分布式
运维
2021-11-22 Zookeeper Shell脚本
/bin/bashcase$1in"start"){foriin
hadoop
102
hadoop
103
hadoop
104doecho----------zookeeper$i启动------------ssh
不爱吃奶昔(zsl0)
·
2024-01-08 19:12
#
Linux
linux
shell
zookeeper
hadoop
/etc/
hadoop
下没有mapred-site.xml,只有mapred.xml.template
默认情况下,/usr/local/
hadoop
/etc/
hadoop
/文件夹下有mapred.xml.template文件,我们要复制该文件,并命名为mapred.xml,该文件用于指定MapReduce
比特小怪兽
·
2024-01-08 19:34
EventBus
源码分析
及仿EventBus实现
EventBus
源码分析
我分析源码一般是从整体来进行分析,对于一些细节的东西,我没有时间也没有能力去分析。
MEzzsy
·
2024-01-08 19:00
hadoop
命令汇总
启动和关闭
hadoop
服务一键启动/停止start-hdf.shstop-hdf.sh单进程关闭启动hdfs--daemonstop/start/statusnamenode或者
hadoop
--daemonstop
你很棒滴
·
2024-01-08 19:17
hadoop
hdfs
大数据
HDFS常用命令(方便大家记忆版)
1.文件操作(1)列出HDFS下的文件/usr/local/
hadoop
$bin/
hadoop
dfs-ls(2)列出HDFS文件下名为in的文档中的文件/usr/local/
hadoop
$bin/
hadoop
dfs-lsin
姚兴泉
·
2024-01-08 18:01
Hidataplus-3.3.2.0-005公测版本基于openEuler release 22.03 (LTS-SP2)的测试
测试角色如下:
hadoop
、yarn、zookeeper、hive、impala。
杨航的技术博客
·
2024-01-08 16:35
hidataplus
大数据
GPT(Generative Pre-Training)论文解读及源码实现(二)
本篇为gpt2的pytorch实现,参考nanoGPTnanoGPT如何使用见后面第5节1数据准备及预处理data/shakespeare/prepare.py文件
源码分析
1.1数据划分下载数据后90%
晚点吧
·
2024-01-08 16:04
NLP
gpt
预训练模型微调
大模型
gpt2
给
Hadoop
初学者的一些建议
零基础学习
hadoop
,没有想象的那么困难,也没有想象的那么容易。从一开始什么都不懂,到能够搭建集群,开发。整个过程,只要有Linux基础,虚拟机化和java基础,其实
hadoop
并没有太大的困难。
丨程序之道丨
·
2024-01-08 15:29
lighttpd-1.4.20
源码分析
lighttpd-1.4.20
源码分析
以后的更新都在这个地址http://bbs3.chinaunix.net/thread-1369986-1-1.html网络编程讨论QQ群号:454389690写在前面对于轻量级
lenky0401
·
2024-01-08 14:44
Lighttpd源码分析
lighttpd
工作
graphviz
服务器
plugins
makefile
大数据技术期末复习第七章——MapReduce练习
A、Map函数将输入的元素转换成形式的键值对B、
Hadoop
框架是用Java实现的,MapReduce应用程序则一定要用Java来写C、不同的Map任务之间不能互相通信D、MapReduce框架采用了Master
锦鲤儿
·
2024-01-08 12:01
大数据
mapreduce
big
data
hadoop
Hadoop
学习之路(四)HDFS 读写流程详解
1.HDFS写操作1.1图解HDFS读过程hdfs写操作流程图.pngimage.png1.2数据写入过程详解1、使用HDFS提供的客户端Client,向远程的NameNode发起RPC请求;2、NameNode会检查要创建的文件是否已经存在,创建者是否有权限进行操作,成功则会为文件创建一个记录,否则会让客户端抛出异常;3、当客户端开始写入文件的时候,客户端会将文件切分为多个packets,并在内
shine_rainbow
·
2024-01-08 12:21
手动配置Spring AOP的
源码分析
这里写自定义目录标题ProxyFactoryBean模式目标对象拦截器链的初始化获取拦截目标对象ProxyFactoryBean模式在Spring中实现aop功能有两种方式,一种是手动配置的方式,另一种是自动配置。手动配置的实现主要有以下几个类完成:使用ProxyFactoryBean时,需要设置targetName(代理对象),以及作用在代理对象上的拦截器interceptorNames属性,如
用心一
·
2024-01-08 11:19
spring
java
后端
Win10环境下
Hadoop
(单节点伪分布式)的安装与配置--bug(yarn的8088端口打不开+)
Win10环境下
Hadoop
(单节点伪分布式)的安装与配置--bug(yarn的8088端口打不开+)一、本文思路【1】、配置java环境–JDK12(
Hadoop
的底层实现语言是java,
hadoop
老妹儿的
·
2024-01-08 11:19
实战Flink Java api消费kafka实时数据落盘HDFS
flink版本1.13kafka版本0.8
hadoop
版本3.1.42实验过程2.1启动服务程序为了完成Flink从Kafka消费数据
大数据程序终结者
·
2024-01-08 11:13
flink
java
kafka
Mybatis【2.2】-- Mybatis关于创建SqlSession
源码分析
的几点疑问?
代码直接放在Github仓库【https://github.com/Damaer/Mybatis-Learning】,可直接运行,就不占篇幅了。[TOC]1.为什么我们使用SQLSessionFactoryBuilder的时候不需要自己关闭流?我们看我们的代码:publicclassStudentDaoImplimplementsIStudentDao{privateSqlSessionsqlSe
秦怀杂货店
·
2024-01-08 10:56
JanusGraph简介
JanusGraph支持
Hadoop
框架,并能够利用
Hadoop
对图进行大批量的处理和分
娃娃学软件
·
2024-01-08 10:15
大数据 Yarn - 资源调度框架
Hadoop
主要是由三部分组成,除了前面我讲过的分布式文件系统HDFS、分布式计算框架MapReduce,还有一个是分布式集群资源调度框架Yarn。
善守的大龙猫
·
2024-01-08 10:48
大数据
大数据
[源码]mybatis一级缓存
源码分析
一.为什么要有一级缓存 每当我们使用Mybatis开启一次和数据库的会话,就会创建一个SqlSession对象来表示这个会话。就在这一次会话中,我们有可能反复执行完全相同的查询语句,这些相同的查询语句在没有执行过更新的情况下返回的结果也是一致的。相信机智的你已经想到,如果每次都去和数据库进行交互查询的话,就会造成资源浪费。所以,mybatis加入了一级缓存,用来在一次会话中缓存查询结果。 总结
程序媛swag
·
2024-01-08 09:49
mybatis核心层
源码分析
2-binding模块
1.一个核心问题为什么使用mapper接口就能操作数据库?(mapper接口并没有实现类)Ans:配置文件解读+动态代理的增强动态代理增强就是binding模块的功能。从表现来讲,bingding的主要功能是将面向mapper接口编程转换成session中对应的方法执行。2.binding模块分析MapperRegistry:mapper接口和对应的代理对象工厂的注册中心;MapperProxyF
王侦
·
2024-01-08 09:53
Hadoop
、Pig、Hive、Storm、NOSQL 学习资源收集【Updating】 (转)
目录[-](一)
hadoop
相关安装部署(二)hive(三)pig(四)
hadoop
原理与编码(五)数据仓库与挖掘(六)Oozie工作流(七)HBase(八)flume(九)sqoop(十)ZooKeeper
我爱大海V5
·
2024-01-08 08:15
Hadoop
hadoop
《深入理解
Hadoop
(原书第2版)》——2.4
Hadoop
2.0
本节书摘来自华章计算机《深入理解
Hadoop
(原书第2版)》一书中的第2章,第2.4节,作者[美]萨米尔·瓦德卡(SameerWadkar),马杜·西德林埃(MadhuSiddalingaiah),杰森
weixin_34174322
·
2024-01-08 08:44
大数据
系统架构
人工智能
Flume基础知识(十):Flume 聚合实战
1)案例需求:
hadoop
100上的Flume-1监控文件/opt/module/group.log,
hadoop
101上的Flume-2监控某一个端口的数据流,Flume-1与Flume-2将数据发送给
依晴无旧
·
2024-01-08 08:23
大数据
flume
大数据
ZGC
源码分析
(5)-ZGC并发并行度设计
ZGC的目标是希望更短的听段停顿时间,同时希望对应用程序的影响尽量小。所以一定会控制GC并行线程数和并发线程数。并行线程指的是暂停应用执行初始标记,最终标记和初始转移时候的工作线程数。并发线程数是指执行并发标记和并发转移等工作的线程数。并行和并发的线程数目可以通过参数ParallelGCThreads和ConcGCThreads控制。如果没有设置,ZGC会启发式的推断合理的参数。因为ZGC希望暂停
躺在石头上吐泡泡
·
2024-01-08 07:34
Hadoop
精选18道面试题(附回答思路)
1.简述
Hadoop
1和
Hadoop
2的架构异同HDFSHA(HighAvailablity)一旦Active节点出现故障,就可以立即切换到Standby节点,避免了单点故障问题。
Byyyi耀
·
2024-01-08 06:00
hadoop
大数据
分布式
Unrecognized option: -v Error: Could not create the Java Virtual Mac
yarn报错Unrecognizedoption:-vError:CouldnotcreatetheJavaVirtualMac这是因为jdk和
hadoop
或者是其他的在环境变量path中,因为yarn.cmd
꧁“杂货店”꧂
·
2024-01-08 04:39
笔记
java
javascript
yarn
《Ceph
源码分析
》——第1章,第5节RADOS
本节书摘来自华章出版社《Ceph
源码分析
》一书中的第1章,第1.5节RADOS,作者常涛,更多章节内容可以访问云栖社区“华章计算机”公众号查看1.5RADOSRADOS是Ceph存储系统的基石,是一个可扩展的
weixin_34413103
·
2024-01-08 04:54
swift
什么是长轮询
短轮询vs长轮询短轮询长轮询长轮询的原理demotomcat线程池AsyncContext
源码分析
短轮询vs长轮询在看apollo和nacos等配置中心的源码的时候发现,配置更新的实时感知都是采用的长轮询的方式
法拉弟弟
·
2024-01-08 02:24
网络
java
服务器
trino-435:dynamic catalog数据库存储代码实现
一、dynamiccatalog数据库存储
源码分析
dynamiccatalog的实现主要涉及到两个类:CoordinatorDynamicCatalogManager、WorkerDynamicCatalogManager
玉成226
·
2024-01-08 02:45
【trino】
大数据
F. linux:帮助命令help、man、info
[root@
hadoop
01udisk]#ls--help[root@
hadoop
01udisk]#manls[root@
hadoop
01udisk]#infols
小猪Harry
·
2024-01-08 00:40
Spring Authorization Server OAuth2TokenEndpointFilter
源码分析
OAuth2TokenEndpointFilterOAuth2TokenEndpointFilter是负责颁发token的过滤器。AuthenticationConverter负责将提交的参数转换为Authentication.该属性的实例为DelegatingAuthenticationConverter,是一个委派转换器,委派给下面的Convert执行下面三个convert0={OAuth2A
丑过三八线
·
2024-01-08 00:47
spring
25、Spark核心编程之RDD持久化详解
不使用RDD持久化的问题首先看一段代码JavaRDDlinesRDD=javaSparkContext.textFile("hdfs://
hadoop
-100:9000/testdate/1.txt")
ZFH__ZJ
·
2024-01-07 23:21
Hive元数据迁移及升级方案
Hive的架构和工作原理简介Hive是基于
Hadoop
之上的数仓,便于用户可以基于SQL(HiveQL)进行数据分析,其架构图如下:从上图可知,Hive主要用来将建立结构化数据库和后端分布式结构化文件的映射
云原生大数据
·
2024-01-07 22:49
大数据技术
hive
hadoop
数据仓库
hadoop
调优
hadoop
调优1HDFS核心参数1.1NameNode内存生产配置1.1.1NameNode内存计算每个文件块大概占用150byte,如果一台服务器128G,能存储的文件块如下128(G)*1024(
健鑫.
·
2024-01-07 18:25
Hadoop
hadoop
hdfs
大数据
hadoop
调优(二)
hadoop
调优(二)1HDFS故障排除1.1NameNode故障处理NameNode进程挂了并且存储数据丢失了,如何恢复NameNode?
健鑫.
·
2024-01-07 18:25
Hadoop
hadoop
大数据
hdfs
MySQL一条查询SQL的执行过程(
源码分析
)
MySQL一条查询SQL的执行过程(
源码分析
)最基本的一条查询语句:服务端处理流程说明:以下所有说明都以MySQL5.7.25源码为例,存储引擎为InnoDB。
抡着鼠标扛大旗
·
2024-01-07 18:50
MySQL
MySQL
源码解析
SQL查询
MySQL数据库中使用use来切换数据库之底层原理
【MySQL源码】usedatabase切换表空间切换表空间
源码分析
客户端流程服务端流程说明:以下所有说明都以MySQL5.7.25源码为例,存储引擎为InnoDB。
抡着鼠标扛大旗
·
2024-01-07 18:20
MySQL
MySQL
源码解析
use
tables
java容器
源码分析
--HashSet(JDK1.8)
本篇结构:前言数据结构重要参数常用方法
源码分析
疑问解答分析总结一、前言HashSet也是常用的数据结构,是一个没有重复元素的集合,也不能保证元素的顺序,可以有null值,但最多只能有一个。
w1992wishes
·
2024-01-07 18:27
熟悉HDFS常用操作
1.利用
Hadoop
提供的Shell命令完成下列任务(1)向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,由用户指定是追加到原有文件末尾还是覆盖原有的文件。#检查文件是否存在.
cwn_
·
2024-01-07 17:11
大数据
hdfs
hadoop
大数据
linux
虚拟机
熟悉HBase常用操作
1.用
Hadoop
提供的HBaseShell命令完成以下任务(1)列出HBase所有表的相关信息,如表名、创建时间等。
cwn_
·
2024-01-07 17:11
大数据
hbase
数据库
大数据
Tor 1
笔者从今年3月份开始陆陆续续研究Tor系统的源码,由于源码量大,也有很多需要总结的地方,所以特地在这里开辟个Tor
源码分析
的系列文章,供自己总结,也供大家共同探讨。
ivana_1991
·
2024-01-07 17:10
惊心动魄的
Hadoop
-6小时350T数据恢复
Hadoop
在调整前,将
Hadoop
进行关闭.stop-all.sh进行关闭我们在第一步进行关闭的时候这里就出现问题。
胖琪的升级之路
·
2024-01-07 17:17
Hive入门
一、Hive概述1.1Hive简介Hive是基于
Hadoop
的一个数据仓库工具,它可以将结构化或半结构化的数据文件转化为一张数据库表,并提供简单的sql查询功能。
爱过java
·
2024-01-07 17:04
hive
Android 11中Activity启动过程
源码分析
Android中ActivityManagerService简称AMS,主要负责Android中四大组件创建启动管理。本地环境如下:compileSdkVersion30buildToolsVersion"30.0.3"minSdkVersion21targetSdkVersion301)从调用startActivity开始startActivity(Intent(this,MainActivit
Time@traveler
·
2024-01-07 14:51
Android源码分析
ActivityThread
Android
11
AMS
ATMS
Activity启动流程
linux下spark的python编辑_如何在Linux下构建Spark Python编程环境
火花编程环境Spark可以独立安装或与
Hadoop
一起使用.在安装Spark之前linux的python编程环境,首先请确保您的计算机上已安装Java8或更高版本.火花安装访问Spark下载页面,然后选择最新版本的
weixin_39543478
·
2024-01-07 13:10
linux下spark的python编辑_Linux下搭建Spark 的 Python 编程环境的方法
Spark编程环境Spark可以独立安装使用,也可以和
Hadoop
一起安装使用。在安装Spark之前,首先确保你的电脑上已经安装了Java8或者更高的版本。
weixin_39752800
·
2024-01-07 13:10
virtualbox的下载,打开.vdi文件并启动
Hadoop
系统
目录一、virtualbox的下载二、新建Ubuntu系统1、确定好镜像系统的位置2、新建虚拟系统三、
Hadoop
系统的启动1、启动
Hadoop
2、启动hbase3、启动spark4、启动hive5、
hadoop
汤汤upup
·
2024-01-07 13:08
hadoop
linux
大数据
Linux系统下Spark的下载与安装(pyspark运行示例)
最近需要完成数据课程的作业,因此实践了一下如何安装并配置好spark1、版本要求由于我想要将
hadoop
和spark一起使用,因此必须确定好spark的版本Spark和
Hadoop
版本对应关系如下:Spark
汤汤upup
·
2024-01-07 13:06
spark
大数据
分布式
【Java处理百万级数据的高效方法了解】
1.2分布式存储考虑使用分布式数据库(如HBase、Cassandra)或存储系统(如
Hadoop
Distri
無飞
·
2024-01-07 12:21
java
开发语言
上一页
34
35
36
37
38
39
40
41
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他