E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
MapReduce源码分析
Hadoop之
mapreduce
参数大全-2
25.指定在Reduce任务在shuffle阶段的fetch操作中重试的超时时间
mapreduce
.reduce.shuffle.fetch.retry.timeout-ms是ApacheHadoop
MapReduce
OnePandas
·
2024-01-10 06:00
Hadoop
hadoop
大数据
Hadoop之
mapreduce
参数大全-3
51.指定Shuffle传输过程中可以同时连接的节点数
mapreduce
.shuffle.max.connections是Hadoop
MapReduce
中的一个配置参数,用于指定Shuffle传输过程中可以同时连接的节点数
OnePandas
·
2024-01-10 05:57
Hadoop
hadoop
mapreduce
java
Java大数据学习~Hadoop初识三Yarn模式
一个HDFS,一个
MapReduce
,还有就是我们今天要看的YARN。2.0以前的Hadoop在2.0以前的hadoop中是没有Yarn这个模式管理的。大部分都是独自作战。
胖琪的升级之路
·
2024-01-10 05:55
Java并发编程 Lock Condition & ReentrantLock(二)
完成上一篇文章的未尽事宜:ReentrantLock的lock、unlock
源码分析
Condition的await、signal
源码分析
ReentrantLock#locklock方法最终是由sync实现的
weixin_44612246
·
2024-01-10 05:47
java
开发语言
算法
1.2.2.5
MapReduce
实例
总目录:https://www.jianshu.com/p/e406a9bc93a9Hadoop-子目录:https://www.jianshu.com/p/9428e443b7fd天气案例经典案例myclient.java:客户端packagecom.SL.tq;importjava.io.IOException;importorg.apache.hadoop.conf.Configuratio
寒暄_HX
·
2024-01-10 00:53
大数据
MapReduce
如何让数据完成一次旅行?
专栏上一期我们聊到
MapReduce
编程模型将大数据计算过程切分为Map和Reduce两个阶段,先复习一下,在Map阶段为每个数据块分配一个Map计算任务,然后将所有map输出的Key进行合并,相同的Key
善守的大龙猫
·
2024-01-10 00:31
大数据
大数据
mapreduce
Ribbon学习思维导图
参考资料1、OpenFeign与Ribbon
源码分析
总结与面试题2、万字剖析OpenFeign整合Ribbon实现负载均衡的原理3、扒一扒Nacos、OpenFeign、Ribbon、loadbalancer
道法自然 实事求是
·
2024-01-10 00:57
SpringCloud
ribbon
spring
cloud
Spring之启动过程源码
文章目录一.Spring初始化流程二.
源码分析
1.初步分析2.核心方法refresh()三.事件发布机制1.简介2.
源码分析
一.Spring初始化流程前面的内容我们已经把Bean的生命周期的源码已经分析完了
jakiechaipush
·
2024-01-09 23:45
重温Spring源码系列
spring
java
后端
Spring之循环依赖底层源码(一)
文章目录一、简介1.回顾2.循环依赖3.Bean的生命周期回顾4.三级缓存5.解决循环依赖的思路二、
源码分析
三、相关问题1.
jakiechaipush
·
2024-01-09 23:15
重温Spring源码系列
spring
java
后端
Spring之推断构造方法源码
文章目录一、简介1.内容回顾2.Spring推断构造方法二、
源码分析
一、简介1.内容回顾前面分析了Spring的Bean的生命周期的源码,然后分析了依赖注入源码,以及依赖注入的过程中循环依赖Spring
jakiechaipush
·
2024-01-09 23:11
重温Spring源码系列
spring
python
java
Java设计模式-命令模式
目录一、智能生活项目需求二、基本介绍三、原理类图四、命令模式解决智能生活项目五、命令模式在Spring框架JdbcTemplate应用的
源码分析
六、注意事项和细节一、智能生活项目需求看一个具体的需求1)
zoeil
·
2024-01-09 23:06
Java设计模式
设计模式
命令模式
java
后端
笔记:分布式大数据技术原理(一)Hadoop 框架
Hadoop中有3个核心组件:分布式文件系统:HDFS——实现将文件分布式存储在很多的服务器上分布式运算编程框架:
MapReduce
WeeeicheN
·
2024-01-09 22:17
Big
Data
big
data
hadoop
笔记:分布式大数据技术原理(三)Spark
ApacheSpark是一个围绕速度、易用性和复杂分析构建的大数据处理框架,最初在2009年由加州大学伯克利分校的AMPLab开发,并于2010年成为Apache的开源项目之一,与Hadoop和Storm等其他大数据和
MapReduce
WeeeicheN
·
2024-01-09 22:17
Big
Data
big
data
spark
大数据技术原理与应用学习笔记(八)
再探讨Hadoop的优化与发展Hadoop1.0到Hadoop2.0不断完善的Hadoop生态系统HDFS2.0新特性HDFSHA(高可用性)HDFSFederationYARN——新一代资源管理调度框架
MapReduce
1.0
Ragnaros the Firelord
·
2024-01-09 22:46
大数据学习笔记
hadoop
大数据
Android 车联网——CarOccupantZoneService介绍(十四)
一、
源码分析
1、CarOccupantZoneMana
c小旭
·
2024-01-09 21:06
Android
车联网
android
Spark
源码分析
(二): Driver 注册及启动
上一篇文章已经已经执行到Client向masterEndpoint发送了RequestSubmitDriver信息,下面就看看master怎么注册driver信息,并且怎么让worker去启动driver的。一,org.apache.spark.deploy.master.Master这个Master就是前面Client发送的对象,是一个ThreadSafeRpcEndpoint。内部的recei
stone_zhu
·
2024-01-09 21:30
Spring
源码分析
之——AOP动态代理的选择
上一篇《Spring
源码分析
之——AOP的原理及初始化细节》讲到AOP的原理和细节,这一篇补充一下动态代理的选择代码细节。
lsunwing
·
2024-01-09 20:03
Spring
Spring
AOP
动态代理
GCD底层原理分析
GCD底层原理分析下面我们在libdispatch.dylib去探索队列是如何创建的底层
源码分析
在源码中搜索dispatch_queue_createdispatch_queue_tdispatch_queue_create
f8d1cf28626a
·
2024-01-09 18:57
机器学习分布式架构
https://zhuanlan.zhihu.com/p/82116922https://zhuanlan.zhihu.com/p/81784947大数据架构1.批处理
MapReduce
无法应对实时不确定量的小样本处理
小幸运Q
·
2024-01-09 17:27
[超超超超超超详细] Linux Centos7搭建Hadoop集群及运行
MapReduce
分布式集群
版本:Centos7Hadoop3.2.0JDK1.8虚拟机信息:内存3.2G处理器2*2内存50GISO:Centos-7-x86_64-DVD-2009一、在虚拟机上搭建LinuxCentos7略二、选择root登录并管理防火墙systemctlstopdirewalld#关闭防火墙systemctldisablefirewalld#关闭开机自启systemctlstatusfirewalld
没事多学习_Qi
·
2024-01-09 17:38
服务器_Linux
linux
mariadb
运维
负载均衡
基于spark的Hive2Pg数据同步组件
同时sqoop的
mapreduce
任务对数据表的分割以及数据文件也会有一定的不均衡性。为了弥补这些问题,开发了基于
zcc_0015
·
2024-01-09 15:53
spark
大数据
分布式
Hive基础知识(一):Hive入门与Hive架构原理
2)Hive本质:将HQL转化成
MapReduce
程序(1)Hive处理的数据存储在HDFS(2)Hive分析数据底层的实现是
MapReduce
(3)执行程序运行在Yarn上2.Hive的
依晴无旧
·
2024-01-09 13:25
大数据
hive
架构
hadoop
Hive基础知识笔记(含MySQL metastore伪分布式安装配置流程)
可以将结构化的数据文件映射成一张数据库表,将类SQL语句转换为
MapReduce
任务运行,几行查询语句
书忆江南
·
2024-01-09 13:52
大数据
Hive
Hive基础知识
2)其本质是将SQL语句转换为
MapReduce
/Spark程序进行运算,底层数据由HDFS分布式文件系统进行存储。3)可以理解Hive就是
MapReduce
/SparkSql的客户端。
巷子里的猫X
·
2024-01-09 13:52
数据分析
hive
大数据
hadoop
Hive 基础知识
Hive是封装了
MapReduce
的操作,让用户可以通过写sql语句的方式,实现
MapReduce
操作。Hive基于一个统一的查询分析层,通过SQL语句的方式对HDFS上的数据进行查询、统计和分析。
辰阳星宇
·
2024-01-09 13:22
#
Hive
hive
hadoop
big
data
基于hadoop的hive数据仓库基础操作知识整理
Hive本质:将HQL转化成
MapReduce
程序Hive处理的数据存储在HDFSHive分析数据底层的实现是
MapReduce
执行程序运行在Yarn上1.2Hive的优
大包丫
·
2024-01-09 13:51
hadoop
hive
大数据
RocketMQ源码 事务消息 TransactionalMessage
源码分析
前言原理:使用普通消息和订单事务无法保证一致的原因,本质上是由于普通消息无法像单机数据库事务一样,具备提交、回滚和统一协调的能力。而基于RocketMQ的分布式事务消息功能,在普通消息基础上,支持二阶段的提交能力。将二阶段提交和本地事务绑定,实现全局提交结果的一致性。解决问题:事务消息,主要解决生产方和消费方的数据最终一致性问题。实现方式:二阶段消息+反查机制源码版本:4.9.3源码架构图源码解析
虚空小白
·
2024-01-09 12:39
RocketMQ源码
java-rocketmq
rocketmq
java
源码
中间件
RocketMQ
源码
事务
RocketMQ源码 发送顺序消息
源码分析
源码版本:4.9.3源码架构图
源码分析
发送普通消息源码在另外一篇文章https://blog.csdn.net/hzwangmr/article/de
虚空小白
·
2024-01-09 12:38
RocketMQ源码
rocketmq
java-rocketmq
java
源码
消息中间件
RocketMQ源码 发送 延迟消息
源码分析
前言rocketMQ支持的延迟消息,简单理解就是对于生产者发送的消息,支持设置固定时间的延迟级别,在到达指定的延迟时间时,才会投递到消费者队列,消费者才能消费到消息。延迟队列和普通消息的发送流程,主要流程都是一致的,区别在于:可以参考源码架构图来看,在DledgerCommitLog组件写入消息之前,会针对设置了setDelayTimeLevel延迟级别的消息,改写topic为RMQ_SYS_SC
虚空小白
·
2024-01-09 11:33
RocketMQ源码
rocketmq
java-rocketmq
RocketMQ
源码
源码
java
中间件
消息队列
Ceph
源码分析
-在C++中,符号“&“和“*“有不同的用法。
在C++中,符号"&"和"*"有不同的用法。"&"符号:在变量声明时,"&"用于定义引用类型。例如:inta=10;int&ref=a;这里的"ref"是一个引用,它引用了变量"a",对"ref"的修改会影响到"a"的值。在函数参数中,"&"用于传递参数的引用。例如:voidfoo(int&num){...}这里的"num"是一个引用类型的参数,函数内部对"num"的修改会影响到传递进来的变量。"
瓦哥架构实战
·
2024-01-09 08:46
Ceph
ceph
MapReduce
初级编程实践
(一)编程实现文件合并和去重操作**对于两个输入文件,即文件A和文件B,请编写
MapReduce
程序,对两个文件进行合并,并剔除其中重复的内容,得到一个新的输出文件C。
cwn_
·
2024-01-09 06:20
大数据
mapreduce
大数据
Hive基本操作
Hive是类SQL语法的数据查询、计算、分析工具,执行引擎默认的是
MapReduce
,可以设置为Spark、Tez。Hive分内部表和外部表,外部表在建表的同时指定一个
X晓
·
2024-01-09 06:45
hive
big
data
mysql
Thrift
源码分析
(TThreadPoolServer)
Thrift提供的网络服务模型:单线程、多线程、事件驱动,从另一个角度划分为:阻塞服务模型、非阻塞服务模型。阻塞服务模型:TSimpleServer、TThreadPoolServer。非阻塞服务模型:TNonblockingServer、THsHaServer和TThreadedSelectorServer。TThreadPoolServer类图TThreadPoolServer模式采用阻塞so
番薯和米饭
·
2024-01-09 06:34
『HDFS』伪分布式Hadoop集群
博客引流本文是『Hadoop』
MapReduce
处理日志log(单机版)的旭文,maybe还有后续在搭建环境的时候发现很难搜到合适的教程,所以这篇应该会有一定受众伪分布式就是假分布式,假在哪里,假就假在他只有一台机器而不是多台机器来完成一个任务
gunjianpan
·
2024-01-09 04:31
Flutter引擎
源码分析
(二) - channel原生通信
Flutter引擎
源码分析
(一)-编译调试一、Xcode编译干了什么image.pngcdflutter存放路径/flutter/packages/flutter_tools/bin&&vimxcode_backend.shimage.pngvimxcode_backend.dartimage.pngimage.png
erlich
·
2024-01-09 04:11
Android
源码分析
—带你认识不一样的 AsyncTask
前言什么是AsyncTask,相信搞过android开发的朋友们都不陌生。AsyncTask内部封装了Thread和Handler,可以让我们在后台进行计算并且把计算的结果及时更新到UI上,而这些正是Thread+Handler所做的事情,没错,AsyncTask的作用就是简化Thread+Handler,让我们能够通过更少的代码来完成一样的功能,这里,我要说明的是:AsyncTask只是简化Th
度憨憨
·
2024-01-09 03:56
iOS promise 设计模式,google promises
源码分析
1.promise模式概念关于文字概念,网上一堆,这里摘取下别人的话Promise设计模式的原理Promise设计模式把每一个异步操作都封装成一个Promise对象,这个Promise对象就是这个异步操作执行完毕的结果,但是这个结果是可变的,就像薛定谔的猫,只有执行了才知道。通过这种方式,就能提前获取到结果,并处理下一步骤。Promise使用then作为关键字,回调最终结果。then是整个Prom
孙掌门
·
2024-01-09 00:35
hadoop/etc/hadoop 下没有mapred-site.xml,只有mapred.xml.template
默认情况下,/usr/local/hadoop/etc/hadoop/文件夹下有mapred.xml.template文件,我们要复制该文件,并命名为mapred.xml,该文件用于指定
MapReduce
比特小怪兽
·
2024-01-08 19:34
EventBus
源码分析
及仿EventBus实现
EventBus
源码分析
我分析源码一般是从整体来进行分析,对于一些细节的东西,我没有时间也没有能力去分析。
MEzzsy
·
2024-01-08 19:00
GPT(Generative Pre-Training)论文解读及源码实现(二)
本篇为gpt2的pytorch实现,参考nanoGPTnanoGPT如何使用见后面第5节1数据准备及预处理data/shakespeare/prepare.py文件
源码分析
1.1数据划分下载数据后90%
晚点吧
·
2024-01-08 16:04
NLP
gpt
预训练模型微调
大模型
gpt2
lighttpd-1.4.20
源码分析
lighttpd-1.4.20
源码分析
以后的更新都在这个地址http://bbs3.chinaunix.net/thread-1369986-1-1.html网络编程讨论QQ群号:454389690写在前面对于轻量级
lenky0401
·
2024-01-08 14:44
Lighttpd源码分析
lighttpd
工作
graphviz
服务器
plugins
makefile
大数据技术期末复习第七章——
MapReduce
练习
A、Map函数将输入的元素转换成形式的键值对B、Hadoop框架是用Java实现的,
MapReduce
应用程序则一定要用Java来写C、不同的Map任务之间不能互相通信D、
MapReduce
框架采用了Master
锦鲤儿
·
2024-01-08 12:01
大数据
mapreduce
big
data
hadoop
手动配置Spring AOP的
源码分析
这里写自定义目录标题ProxyFactoryBean模式目标对象拦截器链的初始化获取拦截目标对象ProxyFactoryBean模式在Spring中实现aop功能有两种方式,一种是手动配置的方式,另一种是自动配置。手动配置的实现主要有以下几个类完成:使用ProxyFactoryBean时,需要设置targetName(代理对象),以及作用在代理对象上的拦截器interceptorNames属性,如
用心一
·
2024-01-08 11:19
spring
java
后端
Mybatis【2.2】-- Mybatis关于创建SqlSession
源码分析
的几点疑问?
代码直接放在Github仓库【https://github.com/Damaer/Mybatis-Learning】,可直接运行,就不占篇幅了。[TOC]1.为什么我们使用SQLSessionFactoryBuilder的时候不需要自己关闭流?我们看我们的代码:publicclassStudentDaoImplimplementsIStudentDao{privateSqlSessionsqlSe
秦怀杂货店
·
2024-01-08 10:56
大数据 Yarn - 资源调度框架
Hadoop主要是由三部分组成,除了前面我讲过的分布式文件系统HDFS、分布式计算框架
MapReduce
,还有一个是分布式集群资源调度框架Yarn。
善守的大龙猫
·
2024-01-08 10:48
大数据
大数据
[源码]mybatis一级缓存
源码分析
一.为什么要有一级缓存 每当我们使用Mybatis开启一次和数据库的会话,就会创建一个SqlSession对象来表示这个会话。就在这一次会话中,我们有可能反复执行完全相同的查询语句,这些相同的查询语句在没有执行过更新的情况下返回的结果也是一致的。相信机智的你已经想到,如果每次都去和数据库进行交互查询的话,就会造成资源浪费。所以,mybatis加入了一级缓存,用来在一次会话中缓存查询结果。 总结
程序媛swag
·
2024-01-08 09:49
mybatis核心层
源码分析
2-binding模块
1.一个核心问题为什么使用mapper接口就能操作数据库?(mapper接口并没有实现类)Ans:配置文件解读+动态代理的增强动态代理增强就是binding模块的功能。从表现来讲,bingding的主要功能是将面向mapper接口编程转换成session中对应的方法执行。2.binding模块分析MapperRegistry:mapper接口和对应的代理对象工厂的注册中心;MapperProxyF
王侦
·
2024-01-08 09:53
《深入理解Hadoop(原书第2版)》——2.4 Hadoop 2.0
2.4Hadoop2.0
MapReduce
已经进行了全新升级,即Hadoop2.0,升级后的版
weixin_34174322
·
2024-01-08 08:44
大数据
系统架构
人工智能
ZGC
源码分析
(5)-ZGC并发并行度设计
ZGC的目标是希望更短的听段停顿时间,同时希望对应用程序的影响尽量小。所以一定会控制GC并行线程数和并发线程数。并行线程指的是暂停应用执行初始标记,最终标记和初始转移时候的工作线程数。并发线程数是指执行并发标记和并发转移等工作的线程数。并行和并发的线程数目可以通过参数ParallelGCThreads和ConcGCThreads控制。如果没有设置,ZGC会启发式的推断合理的参数。因为ZGC希望暂停
躺在石头上吐泡泡
·
2024-01-08 07:34
Spark基础知识
1.1定义ApacheSpark是用于大数据处理的统一分析引擎;1.2Spark与
MapReduce
对比
MapReduce
的主要缺点:①
MapReduce
是基于进程进行数据处理,进程相对与线程来说,创造和销毁的过程比较耗费资源
MSJ3917
·
2024-01-08 07:21
spark
大数据
分布式
上一页
18
19
20
21
22
23
24
25
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他