E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
MapReduce源码分析
Mybatis
源码分析
-一级缓存【BaseExecutor】
本文主题:Executor执行体系回顾为什么要有一级缓存?一级缓存、二级缓存有什么区别?一级缓存属于通用逻辑,那么结构上它是如何设计的?一级缓存是用什么实现的?一级缓存命中条件有哪些?一级缓存有哪些清空场景?Spring和Mybatis整合一级缓存失效?一级缓存的注意事项Executor执行体系Executor执行体系.png这是从SqlSession到Executor实现的执行体系图,从图中可以
你看起来很好吃_fb4a
·
2023-11-20 22:23
hive-本地模式设置
前言当在hive上提交
mapreduce
任务时,常见的管理引擎有yarn与local,默认使用集群模式yarn进行执行。
马孔多居民
·
2023-11-20 20:57
Hive
hive
hadoop
big
data
Hive本地模式安装(详细)
Hive定义简单的类SQL查询语言(即HQL),可以将结构化的数据文件映射为一张数据表,允许熟悉SQL的用户查询数据,允许熟悉
MapReduce
的开发者开发mappe
i阿极(暂时无法回复版)
·
2023-11-20 20:48
大数据
hive
数据库
hadoop
【SA8295P
源码分析
】130 - GMSL2 协议分析 之 I2C/UART 双向控制通道原理分析
【SA8295P
源码分析
】130-GMSL2协议分析之I2C/UART双向控制通道原理分析一、通过I2CPort1来读写控制本地解串器的寄存器:上电时由CFG0和MFP12引脚的电平来决定走I2C还是UART
"小夜猫&小懒虫&小财迷"的男人
·
2023-11-20 20:15
车芯
SA8295P
源码分析
QNX
android
QAM8295P
SA8295P
如何应对大数据分析工程师面试Spark考察,看这一篇就够了
内存计算下,Spark比
MapReduce
快100倍。Spark使用
AI科技大本营
·
2023-11-20 18:22
tensorflow
源码分析
前言:一般来说,如果安装tensorflow主要目的是为了调试些小程序的话,只要下载相应的包,然后,直接使用pipinstalltensorflow即可。但有时我们需要将Tensorflow的功能移植到其它平台,这时就无法直接安装了。需要我们下载相应的Tensorflow源码,自已动手编译了。正文:Tensorflow功能代码庞大,结构复杂;如何快速了解源码结构,就显示尤为重要了。Tensorfl
海棠如醉
·
2023-11-20 17:10
人工智能
tensorflow
neo4j
人工智能
Collection接口的子接口List接口和Set接口
1.ArrayList底层
源码分析
:(一)jdk7情况下ArrayList源码(二)jdk8中ArrayList的源码变化2.LinkedList底层
源码分析
:3.Vector底层
源码分析
:解决ArrayList
848698119
·
2023-11-20 17:30
Java基础
list
容器
链表
set
iterator
2023.11.19 hadoop之
MapReduce
目录1.简介2.分布式计算框架-
MapReduce
3.
mapreduce
的步骤4.
MapReduce
底层原理map阶段shuffle阶段reduce阶段1.简介
Mapreduce
是一个分布式运算程序的编程框架
白白的wj
·
2023-11-20 16:07
mapreduce
大数据
hadoop
database
数据仓库
hive
sql
一周学完MyBatis源码,万字总结
之前,我给大家分享给很多MyBatis
源码分析
的一系列文章。今天,就自己的感受来做一个整体的总结。
互联网全栈架构
·
2023-11-20 14:30
数据库
mybatis
mysql
spring
java
21、
MapReduce
读写SequenceFile、MapFile、ORCFile和ParquetFile文件
Hadoop系列文章目录1、hadoop3.1.4简单介绍及部署、简单验证2、HDFS操作-shell客户端3、HDFS的使用(读写、上传、下载、遍历、查找文件、整个目录拷贝、只拷贝文件、列出文件夹下文件、删除文件及目录、获取文件及文件夹属性等)-java4、HDFS-java操作类HDFSUtil及junit测试(HDFS的常见操作以及HA环境的配置)5、HDFSAPI的RESTful风格–We
一瓢一瓢的饮 alanchan
·
2023-11-20 13:18
#
hadoop专栏
mapreduce
hadoop
hdfs
大数据
big
data
三十分钟学会Hive
Hadoop之上的数据分析工具(Hive没有存储数据的能力,只有使用数据的能力),底层由HDFS来提供数据存储,可以将结构化的数据文件映射为一张数据库表,并且提供类似SQL的查询功能,本质就是将HQL转化成
MapReduce
地球魔
·
2023-11-20 12:11
hive
hadoop
数据仓库
大数据流处理框架:Spark Streaming与Storm
ApacheSpark流处理Spark框架的出现,是在Hadoop
MapReduce
基础上继承研发而来,本质上来说,还是
成都加米谷大数据
·
2023-11-20 12:20
浅谈交互式查询⼯工具Impala(一)
HDFS和HBASE中的PB级别数据进⾏行行交互式实时查询(Impala速度快),Impala是参照⾕谷歌的新三篇论⽂文当中的Dremel实现⽽而来,其中旧三篇论⽂文分别是(BigTable,GFS,
MapReduce
顾子豪
·
2023-11-20 11:14
Go语言用GoPacket抓包分析
前言离线pcap包解析离线数据包分析
源码分析
新建packetSource读取数据包注意点前言最近有了一个抓取网络数据包来分析的需求,最近在使用go语言,于是乎,决定是用go语言来进行抓包分析。
Vtamins
·
2023-11-20 11:08
go
安全
go语言
golang
网络安全
抓包
netty
源码分析
之服务端启动全解析
原文链接:netty
源码分析
之服务端启动全解析backgroundnetty是一个异步事件驱动的网络通信层框架,其官方文档的解释为NettyisaNIOclientserverframeworkwhichenablesquickandeasydevelopmentofnetworkapplicationssuchasprotocolserversandclients.Itgreatlysimpli
D_DCode
·
2023-11-20 11:49
netty
java
nio
源码
Netty
源码
服务启动
netty
源码分析
之新连接接入全解析
本文收获通读本文,你会了解到netty如何接受新的请求netty如何给新请求分配reactor线程netty如何给每个新连接增加ChannelHandler其实,远不止这些~前序背景读这篇文章之前,最好掌握一些前序知识,包括netty中的reactor线程,以及服务端启动过程下面我带你简单地回顾一下1.netty中的reactor线程netty中最核心的东西莫过于两种类型的reactor线程,可以
weixin_33890499
·
2023-11-20 11:16
netty
java
CopyOnWriteArrayList内存占用过多
CopyOnWriteArrayList二、CopyOnWriteArrayList的适用场景三、CopyOnWriteArrayList内存占用过多的解决方法四、CopyOnWriteArrayList.add()
源码分析
大家好
哪 吒
·
2023-11-20 10:24
搬砖工逆袭Java架构师
python
java
开发语言
源码分析
并解决 HttpAsyncClient 关于 Connection lease request time out 异常
问题描述:接到相应反馈后,我马上去追踪问题点。首先是定位到通知商户的类是HttpAsyncClient。接着去看系统的配置,如下:这是我就会去想。是连接数的问题还是连接池的问题,还是应用本身机器的的问题呢?明明是异步客户端,为啥还会频繁出现超时的问题呢?带着疑问,我就一路去追踪源码。最后找到了报错的信息点。如图。好了,找到问题的爆发点,就成功了一半。究竟具体是什么原因造成的呢?我就从源码一步一步地
呆滞的程序员
·
2023-11-20 08:18
java
网络
源码分析
Mybatis拦截器(Interceptor)拦截saveBatch()获取不到实体id的原因
1.背景由于业务需求想在Mybatis拦截器层面获取insert后实体id去做相关业务。但是发现执行saveBatch()方法时,获取参数实体的时候,拿不到自增id。但是save()方法可以。save方法之所以可以是因为:MybatisPlus的BaseMapper执行insert方法后实体带自增id的原因是,在数据库表中设置了主键自增属性。当插入一条新的记录时,数据库会自动为这条记录生成一个唯一
呆滞的程序员
·
2023-11-20 08:40
mybatis
oracle
数据库
大数据开发(19)-hash table详解
在
MapReduce
框架中,每个Map任务都是独立的,它们分别处理输入数据集的不同部分。每个Map任务都会创建一个哈希表,用于存储键值对(key-valuep
viperrrrrrr
·
2023-11-20 07:36
大数据
hive
mapreduce
今日解析之通过
源码分析
HashSet 为何没有get方法
目录一、HashSet介绍官方介绍源码翻译二、HashSet的应用场景三、HashSet
源码分析
四、HashSet没有get方法的几大因素一、HashSet介绍1、官方的HashSet介绍链接2、源码翻译
猿码叔叔
·
2023-11-20 07:16
Java
java
HDFS、
MapReduce
原理--学习笔记
(2)狭义解释从狭义上来说,Hadoop是指Hadoop这个开源框架,它的核心组件有:a)HDFS(分布式文件系统):解决海量数据存储;b)
MapReduce
(分布式计算):解决海
祈愿lucky
·
2023-11-20 06:33
大数据
hdfs
mapreduce
学习
YARN,ZOOKEERPER--学习笔记
1,YARN组件1.1YARN简介YARN表示分布式资源调度,简单地说,就是:以分布式技术完成资源的合理分配,让
MapReduce
能高效完成计算任务。
祈愿lucky
·
2023-11-20 06:19
大数据
大数据
笔记
RocketMQ高级应用以及
源码分析
1.高级功能1.1消息存储分布式队列因为有高可靠性的要求,所以数据要进行持久化存储。消息生成者发送消息MQ收到消息,将消息进行持久化,在存储中新增一条记录返回ACK给生产者MQpush消息给对应的消费者,然后等待消费者返回ACK如果消息消费者在指定时间内成功返回ack,那么MQ认为消息消费成功,在存储中删除消息,即执行第6步;如果MQ在指定时间内没有收到ACK,则认为消息消费失败,会尝试重新pus
码农阳神
·
2023-11-20 05:26
#
RabbitMQ
RocketMQ高级功能与
源码分析
1.高级功能1.1消息存储分布式队列因为有高可靠性的要求,所以数据要进行持久化存储。消息生成者发送消息MQ收到消息,将消息进行持久化,在存储中新增一条记录返回ACK给生产者MQpush消息给对应的消费者,然后等待消费者返回ACK如果消息消费者在指定时间内成功返回ack,那么MQ认为消息消费成功,在存储中删除消息,即执行第6步;如果MQ在指定时间内没有收到ACK,则认为消息消费失败,会尝试重新pus
王鹏鹏鹏
·
2023-11-20 05:44
RocketMQ修仙之路
队列
Semaphore基本使用及原理
Semaphore基本使用及原理文章目录Semaphore基本使用及原理1什么是Semaphore2基本使用3
源码分析
3.1构造方法3.2获取许可3.2.1`tryAcquire`方法3.2.2`acquire
Bug搬运小能手
·
2023-11-20 03:50
并发
java
Java 集合
源码分析
目录集合简介迭代器Iterable接口Iterator接口Collection接口List体系体系结构List接口ArrayList源码解析Map体系体系结构Map接口HashMap
源码分析
HashMap
chy1984
·
2023-11-20 03:45
Java
SE
jdk源码阅读
集合源码
ArrayList
HashMap
equals
hashCode
1024程序员节
java ArrayList
源码分析
(深度讲解)
目录一、前言二、ArrayList类简介三、ArrayList类的底层实现四、ArrayList类的源码解读(断点调试)0.准备工作:1.空参构造——分步骤Debug(详细阐释)(重要)0°开始Debug。1°初始化底层elementData数组为空数组。2°对add方法中的实参进行自动装箱。3°进入add方法底层。4°进入grow方法。5°进入grow方法底层。6°逐层返回,第一次扩容eleme
Cyan_RA9
·
2023-11-20 03:44
#
源码分析
Java进阶
java
jvm
算法
后端
ArrayList
源码分析
Java
源码分析
(一)Integer
当你掌握Java语言到了一定的阶段,或者说已经对Java的常用类和API都使用的行云流水。你会不会有一些思考?比如,这个类是如何设计的?这个方法是怎么实现的?接下来的一系列文章,我们一起学习下Java的一些常见类的源码。本篇,一起分析下Integer的源码。目录一、两道Integer的题目二、Integer类图三、String转int1、Integer.parseInt2、Integer.valu
heart荼毒
·
2023-11-20 03:12
Java
java
开发语言
jQuery
源码分析
--继承方法
varoptions,name,src,copy,copyIsArray,clone,target=arguments[0]||{},i=1,length=arguments.length,deep=false;//Handleadeepcopysituationif(typeoftarget==="boolean"){deep=target;//Skipthebooleanandthetarge
jack_programme
·
2023-11-20 03:26
大数据常见面试题及答案
6、Spark任务的执行流程7、Spark和
MapReduce
8、cache和persist的区别9、什么是宽窄依赖10、spark的shuffle
遐想者csdn
·
2023-11-20 01:18
大数据
hadoop
spark
hdfs
mapreduce
大数据
【Java】ArrayList和LinkedList使用不当,性能差距会如此之大!
文章目录前言
源码分析
ArrayList基本属性初始化新增元素删除元素遍历元素LinkedList实现类基本属性节点查询新增元素删除元素遍历元素分析测试前言在面试的时候,经常会被问到几个问题:ArrayList
逆流°只是风景-bjhxcc
·
2023-11-19 22:35
Java程序员进阶之路
java
开发语言
linux上java解加密(AES CBC)异常
linux上java解加密(AES/CBC)异常:java.lang.SecurityException:JCEcannotauthenticatetheproviderBC办法用
mapreduce
做数据清洗的时候
杰哥的技术杂货铺
·
2023-11-19 20:22
java
linux
java
运维
java加解密
4️⃣Hive
(Hive没有存储数据的能力,只有使用数据的能力)2.Hive本质将HQL转化成
MapReduce
程序Hive处理的数据存储在HDFSHive分析数据底层的实现是
MapReduce
执行程序运行在Yarn
WovJf
·
2023-11-19 17:39
hive
数据仓库
Hadoop词频统计
这里写自定义目录标题前提制作JAR包启动Hadoop将wordfile1.txt上传到HDFS重新上传文件进行词频统计和注意事项HDFS常用命令前提1.安装了Linux系统,并且安装了Hadoop下的两个组件HDFS和
Mapreduce
weixin_49670340
·
2023-11-19 16:29
hadoop
Hadoop自带WordCount进行词频统计(
mapreduce
)
Hadoop自带WordCount进行词频统计准备:安装好的Hadoop需要统计词频txt文件(用jieba分过词的链接:pycharm分词jieba结巴分词输出txt.step1启动Hadoopcd/usr/local/hadoop./sbin/start-all.sh用jps命令查看是否开启成功准备好需要统计词频的txt文件(也可以用filezilla传入Ubuntu)链接:如何用filezi
摸仙小蓝是人机
·
2023-11-19 16:57
wordcount
词频
hadoop
mapreduce
在Hadoop中进行简单的词频统计
importjava.io.IOException;importorg.apache.hadoop.io.LongWritable;importorg.apache.hadoop.io.Text;importorg.apache.hadoop.
mapreduce
.Mapper
CB_creayblack
·
2023-11-19 16:20
hadoop
hadoop
java
大数据
mapreduce
Hadoop调用
MapReduce
进行词频统计
Hadoop调用
MapReduce
进行词频统计博客目录一.案例1.实验目的2.分析步骤二.前置准备1.传输文本文件2.环境搭建(1)使用VirtualBox虚拟机软件安装Ubuntu(2)在Ubuntu
MidnightFancy
·
2023-11-19 16:17
大数据
hadoop
ubuntu
mapreduce
eclipse
hdfs
sqoop hdfs入mysql_sqoop将hdfs下的数据导入到mysql如何去重?
movie–usernameroot–passwordwelcome1–tablemovieRecommend–fields-terminated-by‘,’–export-dir/recommendoutrecommendout是我
mapreduce
唉唉唉哒
·
2023-11-19 14:05
sqoop
hdfs入mysql
AtomicInteger
源码分析
在Java的多线程开发中需要做一些同步的操作。在javaconcurrent库中提供了一系列支持原子操作的类,在atomic包下。这里分析其中的AtomicInteger源码,来看看他是如何实现原子操作的。AtomicInteger源码比较简单,主要的操作是对一个int值进行加减操作。但是其中应用到了一个神奇的类Unsafe.java.Unsafe.java提供了一些列的方法支持对JVM内存的操作
wMeSlAx767
·
2023-11-19 14:11
Hive 调优指南
1.内存和资源配置1.1调整内存分配为了提高查询性能,可以调整
MapReduce
任务的内存分配。
小泽长不胖
·
2023-11-19 13:41
大数据
hive
hadoop
大数据
数仓开发面试题之Hadoop相关
提纲
MapReduce
原理,map数、reduce数的参数说一下mapjoin与reducejoinhivesql怎么优spark和hive的区别数据倾斜几种解决方式数据如何清洗说一下udf、udtf、
话数Science
·
2023-11-19 13:39
面试
大数据
hadoop
大数据
2023.11.17-hive调优的常见方式
分区裁剪,map端聚合,count(distinct),笛卡尔积)6.1列裁剪:6.2分区裁剪:6.3map端聚合(groupby):6.4count(distinct):6.5笛卡尔积:7.动态分区8.
MapReduce
白白的wj
·
2023-11-19 12:59
hive
hadoop
数据仓库
database
sql
大数据
设计模式之访问者模式
Visitordesignpattern访问者模式的概念、访问者模式的结构、访问者模式的优缺点、访问者模式的使用场景、访问者模式实现示例、访问者模式的
源码分析
、双分派1、访问者模式的概念访问者模式,即在不改变聚合对象内元素的前提下
红衣女妖仙
·
2023-11-19 12:16
java
基础与中高级
设计模式与应用
设计模式
java
访问者模式
telegram android
源码分析
(一)自动设置代理
比如自动设置mtproxy代理,冗长的代码我们怎么去找?1)首先我们发现点代理链接能弹对话框,们可以在strings.xml中搜索得到:Thisproxymaydisplayasponsoredchannelinyourchatlist.Thisdoesn\'trevealanyofyourTelegramtraffic.Useproxyforcalls2)我们在项目中寻找:UseProxyTel
飞鸟真人
·
2023-11-19 10:56
telegram
java开发
telegram
android
05-Hadoop01之HDFS
一、Hadoop介绍Hadoop分为三部分:Common、HDFS、Yarn、
MapReduce
(有点过时了)Hadoop生态圈:除了hadoop技术以外,还有hive、zookeeper、flume、
YuPangZa
·
2023-11-19 10:54
大数据
hdfs
hadoop
大数据
SpringMVC
源码分析
系列
说到java的mvc框架,struts2和springmvc想必大家都知道,struts2的设计基本上完全脱离了Servlet容器,而springmvc是依托着Servlet容器元素来设计的,同时springmvc基于Spring框架,Spring框架想必搞java的同学都很熟悉。一进Spring的官网就发现了这样一排醒目的文字,spring可以让我们构造简单的、便携的、又快又易于扩展的基于jvm
weixin_33851429
·
2023-11-19 10:58
java
测试
json
SpringMVC
源码分析
SpringMVC
源码分析
系列说到java的mvc框架,struts2和springmvc想必大家都知道,struts2的设计基本上完全脱离了Servlet容器,而springmvc是依托着Servlet
qq_37211608
·
2023-11-19 10:25
SpringMVC源码解析
浅析图数据库 Nebula Graph 数据导入工具——Spark Writer
Hadoop的设计核心思想来源于Google
MapReduce
论文,灵感来自于函数式语言中的map和reduce方法。
NebulaGraph
·
2023-11-19 09:22
2023.11.18 Hadoop之 YARN
支持多个数据处理框架(
MapReduce
SparkStorm等)。具有资源利用率高、运行成本底、数据共享等特点资源调度管理的作用
MapReduce
是基于yarn运行的,没有y
白白的wj
·
2023-11-19 08:41
database
hadoop
hive
sql
big
data
yarn
上一页
42
43
44
45
46
47
48
49
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他