E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
flink源码分析
深入理解AQS独占锁之ReentrantLock
源码分析
并发工具类的应用场景详解上一章我们讲解了ReentrantLock、Semaphore、CountDownLatch、CyclicBarrier等同步工具类的应用场景及实现,本章我们重点讲解ReentrantLock
源码分析
Myname_China
·
2024-02-07 12:22
并发编程
Java
java
开发语言
并发编程
读写锁ReentrantReadWriteLock&StampLock详解
传送门:深入理解AQS独占锁之ReentrantLock
源码分析
目录读写锁介绍ReentrantReadWriteLock介绍ReentrantReadWriteLock的使用应用场景锁降级读写锁设计思路
Myname_China
·
2024-02-07 12:22
并发编程
Java
java
开发语言
并发编程
Vue.js
源码分析
——模板编译和组件化
一、模板编译模板编译介绍:模板编译的主要目的是将模板(template)转换为渲染函数(render)titlesomecontent渲染函数render(h){returnh('div',[h('h1',{on:{click:this.handler}},'title'),h('p','somecontent')])}模板编译的作用Vue2.x使用VNode描述视图以及各种交互,用自己编写的VN
丽__
·
2024-02-07 12:41
Eureka
源码分析
(九)清理过期租约
下面我们来说说eureka的过期机制。其实这篇文章主要介绍的是AbstractInstanceRegistry的内部类EvictionTask。我们知道AbstractInstanceRegistry是包括了所有注册到EurekaServer上的实例。而EvictionTask就是清理过期租约的定时任务。在Eureka-Server启动时,初始化EvictionTask定时执行。protected
skyguard
·
2024-02-07 11:21
【Iceberg学习一】什么是Iceberg?
Iceberg为包括Spark、Trino、PrestoDB、
Flink
、Hive和Impala在内的计算引擎增加了表格功能,使用一种高性能的表格格式,其工作方式就像一个SQL表一样。
周润发的弟弟
·
2024-02-07 10:56
Iceberg
学习
freertos
源码分析
三 task 结构与几个链表
任务控制块taskControlBLock结构体,以下为部分typedefstructtskTaskControlBlock{volatileStackType_t*pxTopOfStack;//栈顶指针ListItem_txStateListItem;//任务状态表项ListItem_txEventListItem;//事件表项UBaseType_tuxPriority;//优先级StackTy
yvee
·
2024-02-07 10:20
链表
数据结构
freertos
源码分析
四 任务创建的简单分析
任务创建xTaskCreate为TCB和TCB栈分配空间,初始化,加入就绪任务链表#if(configSUPPORT_DYNAMIC_ALLOCATION==1)BaseType_txTaskCreate(TaskFunction_tpxTaskCode,constchar*constpcName,constconfigSTACK_DEPTH_TYPEusStackDepth,void*const
yvee
·
2024-02-07 10:17
嵌入式硬件
【极数系列】ClassNotFoundException: org.apache.
flink
.connector.base.source.reader.RecordEmitter & 详细分析解决
文章目录01
Flink
集成KafkaConnector运行报错02解决方案03原因分析04深入认识4.1
flink
-connector-base简介概述4.2
flink
-connector-base功能作用
浅夏的猫
·
2024-02-07 10:11
Flink专栏
flink
apache
大数据
【极数系列】
Flink
集成KafkaSource & 实时消费数据(10)
文章目录01引言02连接器依赖2.1kafka连接器依赖2.2base基础依赖03连接器使用方法04消息订阅4.1主题订阅4.2正则表达式订阅4.3Partition列分区订阅05消息解析06起始消费位点07有界/无界模式7.1流式7.2批式08其他属性8.1KafkaSource配置项(1)client.id.prefix(2)partition.discovery.interval.ms(3)
浅夏的猫
·
2024-02-07 10:41
flink
大数据
java
【极数系列】
Flink
集成KafkaSink & 实时输出数据(11)
文章目录01引言02连接器依赖2.1kafka连接器依赖2.2base基础依赖03使用方法04序列化器05指标监控06项目源码实战6.1包结构6.2pom.xml依赖6.3配置文件6.4创建sink作业01引言KafkaSink可将数据流写入一个或多个Kafkatopic实战源码地址,一键下载可用:https://gitee.com/shawsongyue/aurora.git模块:aurora_
浅夏的猫
·
2024-02-07 10:37
Flink专栏
flink
大数据
java
ConcurrentLinkedHashMap
源码分析
一、简介ConcurrentLinkedHashMap是google开源的线程安全的方便并发的Map,Map利用LRU缓存机制对Map中存储对象进行换入换出管理。采用两套资源控制机制,一套同步机制,使用ConcurrentMap对对象数据进行KV存储,保证多线程并发安全地调用Map资源,而对于存储对象的换入换出管理则采用异步机制,使用Queuebuffer存储每次的因对象读写而产生的对象换入换出任
lim快乐_无限
·
2024-02-07 09:15
Flink
执行流程与
源码分析
(面试必问,建议收藏)
Flink
主要组件作业管理器(JobManager)(1)控制一个应用程序执行的主进程,也就是说,每个应用程序都会被一个不同的Jobmanager所控制执行(2)Jobmanager会先接收到要执行的应用程序
大数据左右手
·
2024-02-07 09:04
Flink
大数据
flink
flink
soruce详解
flink
也如此。
loukey_j
·
2024-02-07 08:16
三级?是缓存不是片! spring的三级缓存---学习spring框架第一步
二、是怎么解决的三、反思总结
源码分析
:DefaultSingletonBeanRegistry类getSingleton方法三级缓存的作用反思总结面试点:1、三级缓存原理:如上2、二级缓存就可以解决了为什么还要有三级缓存为什么需要早期引用
苏汀star
·
2024-02-07 08:17
框架
spring
学习
java
面试
python炫酷代码_Python一行代码搞定炫酷可视化,你需要了解一下Cuf
flink
s
原标题:Python一行代码搞定炫酷可视化,你需要了解一下Cuf
flink
s导读:学过Python数据分析的朋友都知道,在可视化的工具中,有很多优秀的三方库,比如matplotlib,seaborn,plotly
weixin_39792472
·
2024-02-07 08:44
python炫酷代码
【
Flink
入门修炼】1-2 Mac 搭建
Flink
源码阅读环境
在后面学习
Flink
相关知识时,会深入源码探究其实现机制。因此,需要现在本地配置好源码阅读环境。
大数据王小皮
·
2024-02-07 08:10
Flink
入门修炼
flink
macos
大数据
nginx upstream server主动健康检测模块ngx_http_upstream_check_module 使用和
源码分析
(中)
目录6.
源码分析
6.1解析指令分析6.2待检查的服务器的添加和状态查询6.3本模块的进程初始化函数6.4准备执行健康检测任务6.5执行健康检测任务本篇对ngx_http_upstream_check_module
码农心语
·
2024-02-07 07:53
高性能
nginx学习
LINUX
nginx
http
运维
健康检测
tengine
源码分析
nginx upstream server主动健康检测模块ngx_http_upstream_check_module 使用和
源码分析
(下)
目录7.实现一个UDP健康检测功能7.1功能定义7.2定义一个新的健康检测类型7.3增加udp特定的健康检测需要的配置指令7.3.1ngx_http_upstream_check_srv_conf_s结构体的扩展7.3.2check_udp_send的实现7.3.3check_udp_expect的实现7.3.416进制解码代码的实现7.4ngx_http_upstream_check函数的修改7
码农心语
·
2024-02-07 07:50
nginx学习
LINUX
c++开发
nginx
http
udp
健康检测
upstream
tengine
源码实现
Flink
-CDC实时读Postgresql数据
前言CDC,ChangeDataCapture,变更数据获取的简称,使用CDC我们可以从数据库中获取已提交的更改并将这些更改发送到下游,供下游使用。这些变更可以包括INSERT,DELETE,UPDATE等。用户可以在如下的场景使用cdc:实时数据同步:比如将Postgresql库中的数据同步到我们的数仓中。数据库的实时物化视图。Postgresql数据库配置Postgresql参数修改#更改wa
pigcoffee
·
2024-02-07 07:13
flink
postgresql
数据库
Flink
cdc debug调试动态变更表结构
Cannotfindfactorywithidentifier"mysql"intheclasspath.2.JsonFactory异常3.NoSuchMethodError异常其他结尾前言接着上一篇
Flink
cdc3.0
yyoc97
·
2024-02-07 06:05
flink
大数据
debug
调试
cdc
【
Flink
】:No operators defined in streaming topology. Cannot execute.
在运行
Flink
的时候出现如下问题Exceptioninthread"main"java.lang.IllegalStateException:Nooperatorsdefinedinstreamingtopology.Cannotexecute.atorg.apache.
flink
.streaming.api.environment.StreamExecutionEnvironment.getS
一杯咖啡半杯糖
·
2024-02-07 06:42
Flink实战
flink
【
Flink
】SQL-CLIENT中出现 Could not find any factory for identifier ‘kafka‘
在
Flink
的sql-client客户端中执行sql代码时出现如下错误,版本
Flink
1.13.6[ERROR]CouldnotexecuteSQLstatement.Reason:org.apache.
flink
.table.api.ValidationException
一杯咖啡半杯糖
·
2024-02-07 06:40
Flink实战
flink
sql
kafka
【
Flink
】
Flink
SQL实现数据从Kafka到MySQL
简介未来
Flink
通用化,代码可能就会转换为sql进行执行,大数据开发工程师研发
Flink
会基于各个公司的大数据平台或者通用的大数据平台,去提交
Flink
SQL实现任务,学习
Flink
sql势在必行。
一杯咖啡半杯糖
·
2024-02-07 06:39
Flink实战
Flink解决方案
flink
kafka
mysql
Zeppelin结合
Flink
查询hudi数据
目前ApacheZeppelin支持ApacheSpark、Apache
Flink
、Python、R、JDBC、
BigDataToAI
·
2024-02-07 05:38
hudi
flink
zeppelin
flink
python
big
data
通过 docker-compose 部署
Flink
概要通过docker-compose以SessionMode部署
flink
前置依赖Docker、docker-compose
flink
客户端docker-compose.ymlversion:"2.2"
xchenhao
·
2024-02-07 05:53
开发
数据
docker
docker
flink
容器
docker-compose
jar
镜像
实时
Golang context 万字解析实现原理
Golang:context基于go1.21版本Context是什么Context的功能应用场景
源码分析
1.10Context核心结构1.1Err错误2.1emptyCtx3.1Background()
Go 的学习之路
·
2024-02-07 04:02
golang
服务器
linux
RocketMQ
源码分析
(四)消息的发送
消息发送的主要步骤为:验证消息,查找路由,消息发送(包含异常机制处理)我们以DefaultMQProducer#send为切入口:以下代码为验证消息publicSendResultsend(Messagemsg)throwsMQClientException,RemotingException,MQBrokerException,InterruptedException{//校验消息(主要是长度是
甘_
·
2024-02-07 04:01
muduo-net
源码分析
(七)——TcpServer 和 TcpConnection(二)
先序这一节我们将继续完善TcpServer和TCPConnection类,并且解决上一节思考的问题【一定要理清思路】;TcpServer
源码分析
重要的变量ConnectionCallbackconnectionCallback
cyjiayou
·
2024-02-07 03:02
muduo源码分析
c++
Java Character源码剖析
下面结合
源码分析
Character的贡献。Unicode也许你没听过Unicode,但应该见过UTF-8。
洒水水儿
·
2024-02-07 02:54
Java常用类的源码剖析
java
开发语言
Apache Log4j2 漏洞原理
经验证,ApacheStruts2、ApacheSolr、ApacheDruid、Apache
Flink
等众多组件与大型应用均受影响2.影响版本ApacheLog4j2.x<=2.14.13.漏
仲瑿
·
2024-02-07 01:55
漏洞原理
apache
log4j
java
libevent
源码分析
(2)--2.1.8--结构体 struct event和struct event_callback
一、event_callback结构体structevent_callback{//下一个回调事件TAILQ_ENTRY(event_callback)evcb_active_next;//回调事件的状态标识,具体为://#defineEVLIST_TIMEOUT0x01//event在time堆中,min_heap//#defineEVLIST_INSERTED0x02//event在已注册事件
录事参军
·
2024-02-07 01:18
libevent
libevent
libevent
Libevent
源码分析
-----与event相关的一些函数和操作
Libevent提供了一些与event相关的操作函数和操作。本文就重点讲一下这方面的源代码。在Libevent中,无论是event还是event_base,都是使用指针而不会使用变量。实际上,如果查看Libevent不同的版本,就可以发现event和event_base这两个结构体的成员是不同的。对比libevent-2.0.21-stable和libevent-1.4.13-stable这两个版
amoscykl
·
2024-02-07 01:48
Libevent
Libevent
libevent
Libevent
源码分析
-----信号event的处理
信号event的工作原理:前面讲解了Libevent如何监听一个IO事件,现在来讲一下Libevent如何监听信号。Libevent对于信号的处理是采用统一事件源的方式。简单地说,就是把信号也转换成IO事件,集成到Libevent中。统一事件源的工作原理如下:假如用户要监听SIGINT信号,那么在实现的内部就对SIGINT这个信号设置捕抓函数。此外,在实现的内部还要建立一条管道(pipe),并把这
amoscykl
·
2024-02-07 01:47
Libevent
Libevent
libevent
Libevent
源码分析
-----超时event的处理
如何成为超时event:Libevent允许创建一个超时event,使用evtimer_new宏。//event.h文件#defineevtimer_new(b,cb,arg)event_new((b),-1,0,(cb),(arg)) 从宏的实现来看,它一样是用到了一般的event_new,并且不使用任何的文件描述符。从超时event宏的实现来看,无论是evtimer创建的event还是一般ev
amoscykl
·
2024-02-07 01:47
Libevent
Libevent
libevent
Libevent
源码分析
-event_base
event_base数据结构初始化event_base相关接口前面介绍了event,本节介绍Reactor的核心结构:event_base,它在event-internal.h中。event_base是整个libevent的核心,它持有所有注册的事件,并负责通知激活的事件。event_base数据结构structevent_base{conststructeventop*evsel;void*ev
KangRoger
·
2024-02-07 01:16
Libevent
libevent
event-base
reactor
MyBatis的二级缓存以及装饰器模式运用
目录Mybatis中如何配置二级缓存基于注解配置缓存基于XML配置缓存Cache解析处理过程Cache支持的过期策略缓存的基本实现装饰器模式Mybatis缓存实现
源码分析
BlockingCacheLRU
陈脩
·
2024-02-06 21:08
iBatis
装饰器模式
java
缓存
eureka
开发语言
JUC AQS ReentrantLock
源码分析
(一)
Java的内置锁一直都是备受争议的,在JDK1.6之前,synchronized这个重量级锁其性能一直都是较为低下,虽然在1.6后,进行大量的锁优化策略,但是与Lock相比synchronized还是存在一些缺陷的:虽然synchronized提供了便捷性的隐式获取锁释放锁机制(基于JVM机制),但是它却缺少了获取锁与释放锁的可操作性,可中断、超时获取锁,且它为独占式在高并发场景下性能大打折扣。如
程序员Yamy
·
2024-02-06 19:13
揭秘阿里云
Flink
智能诊断利器——Fllink Job Advisor
引言阿里云实时计算
Flink
作为一款专业级别的高性能实时大数据处理系统,它在各种业务场景中都发挥了关键的作用。丰富而复杂的上下游系统让它能够支撑实时数仓、实时风控、实时机器学习等多样化的应用场景。
阿里云大数据AI技术
·
2024-02-06 16:49
What is Apache
Flink
- Architecture
原文翻译如下Apache
Flink
是一个能在有界和无界数据流上进行有状态计算的框架和分布式处理引擎。
Flink
被设计为在所有常见的集群环境中运行,在超大规模中仍能以内存速度执行计算。
耳边的火
·
2024-02-06 16:02
Flink
项目系列3-实时流量统计
一.项目概述1.1模块创建和数据准备 新建一个NetworkFlowAnalysis的package。 将apache服务器的日志文件apache.log复制到资源文件目录src/main/resources下,我们将从这里读取数据。 当然,我们也可以仍然用UserBehavior.csv作为数据源,这时我们分析的就不是每一次对服务器的访问请求了,而是具体的页面浏览(“pv”)操作。1.2基
只是甲
·
2024-02-06 16:16
[k8s
源码分析
][client-go] workqueue
1.前言转载请说明原文出处,尊重他人劳动成果!源码位置:https://github.com/nicktming/client-go/tree/tming-v13.0/util/workqueue分支:tming-v13.0(基于v13.0版本)本文将分析util包中的workqueue.在各类controller中经常会使用该workqueue中的一些类.architecture.png2.qu
nicktming
·
2024-02-06 15:10
nginx upstream server主动健康检测模块ngx_http_upstream_check_module 使用和
源码分析
(上)
2.1check2.2check_keepalive_requests2.3check_http_send2.4check_http_expect_alive2.5check_shm_size2.6check_status3.加载健康检测模块3.1模块的编译3.2模块的配置4.测试验证5.思考与问题6.
源码分析
码农心语
·
2024-02-06 14:27
nginx学习
nginx
http
运维
健康检测
主动
upstream
浅谈
Flink
SQL代码生成与UDF重复调用的优化
前言之前讲解
Flink
SQL执行流程时留下了代码生成的坑,在百忙之中抽时间补一补。代码生成简介代码生成(codegeneration)是当今各种数据库和数据处理引擎广泛采用的物理执行层技术之一。
LittleMagic
·
2024-02-06 14:31
flink
学习记录
flink
-conf.yaml配置文件:jobmanager.rpc.address:hadoop1jobmanager.rpc.port:6123jobmanager.heap.size:512mtaskmanager.heap.size
戏 剧
·
2024-02-06 14:34
flink
seatunnel数据集成(三)多表同步
1、单表to单表一个source,一个sinkenv{#Youcanset
flink
configurationhere
大数据_苡~
·
2024-02-06 11:22
mysql
flink
数据库
大数据
设计模式之原型模式
克隆羊问题1.1传统方式解决克隆羊问题1.2代码1.3传统方式的缺点二、原型模式2.1原型模式基本介绍2.2原型模式原理结构uml类图2.3原型模式解决克隆羊问题的应用实例2.4原型模式在Spring框架中
源码分析
三
咱老李
·
2024-02-06 11:41
设计模式
设计模式
原型设计模式
深克隆
浅克隆
编码规范
实战:
Flink
1.12 维表 Join Hive 最新分区功能体验
上周
Flink
1.12发布了,刚好支撑了这种业务场景,我也将1.12版本部署后做了一个线上需求并上线。对比之前生产环境中实现方案,最新分区直接作为时态表提升了很多开发效率,在这里做一些小的分享。
Apache Flink
·
2024-02-06 11:30
java
大数据
hive
hadoop
spark
Flink
关系型API解读:Table API 与SQL
AI前线导读:\本篇文章主要介绍
Flink
的关系型API,整个文章主要分为下面几个部分来介绍:\一、什么是
Flink
关系型API\二、
Flink
关系型API的各版本演进\三、
Flink
关系型API执行原理
weixin_33966095
·
2024-02-06 11:00
大数据
java
scala
【源码改造】
Flink
-jdbc-connector源码简析+改造支持谓词下推
一、需求背景分析
flink
sql在维表关联时,会有一个场景:当右表的数据量比较大且有些数据虽然符合join条件,但其实对于下游来说数据可能没用,这样就浪费了
flink
的计算资源,且拉低了数据处理能力。
roman_日积跬步-终至千里
·
2024-02-06 11:28
#
flink
实战
#
flink源码
flink
java
Apache Paimon 文件操作
前提对以下几篇有了解:1、ApachePaimon介绍2、ApachePaimon基础概念3、ApachePaimon文件布局设计4、知道如何在
Flink
中使用Paimon创建catalog在Fli
zhisheng_blog
·
2024-02-06 11:27
apache
上一页
8
9
10
11
12
13
14
15
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他