E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
FLINK
大数据面试题目_综合面试_hadoop面试题_hive面试题_sqoop面试题_spark面试题_flume面试题_kafka面试题---大数据面试题007
4.用
Flink
处理过什么场景的业务,是如何实现的,说一下流程?5.有没有用过NIFI?6.做的时候后端是如何做的,用的什么框架?有没有了解过springcloudTencent?
添柴程序猿
·
2025-04-18 03:00
大数据
hadoop
hive
大数据面试题
flume
大数据工程师:从牛客整理的 BAT
Flink
面试题
百川智能数据开发笔试腾讯wxg企业微信部门面经金九银十,薪酬谈判技巧美团还真会作废offer啊啊啊啊啊!肠子面试时千万不能说这些话,不然一定凉凉秒杀项目常见问题秋招总结-上感觉读研确实改变了我的人生计算机网络高频面试题美团谈薪2020华为消费者管培生(春招面经)字节跳动前端岗社招面筋分享字节跳动前端岗社招面筋分享虾皮一面_测开_深圳【面经大全】实习&提前批&秋招->277个面经OC记录虾皮测试工程
愤怒的小青春
·
2025-04-18 00:40
java
Prometheus架构和各模块组件功能
例如
Flink
Application,直接通过API,在应用退出时将指标推送给Pushgatewayexporter:专门为一些(生命周期较长
Bulut0907
·
2025-04-17 15:11
其它
prometheus
架构
采集层
储存计算层
应用层
flink
扫盲-调整checkpoint的时间会影响原来的state数据吗
恢复机制
Flink
在恢复作业时,默认会选择最近一次成功的Checkpoint(无论新旧间隔)。可通过-s参数显式指定任意历史Checkpoint路径
别这么骄傲
·
2025-04-17 11:16
flink
大数据
Flink
-doris-connector sql写入doris on zeppelin优化版
要是觉得写得不错,请务必点个赞,谢谢啊!!!目录要是觉得写得不错,请务必点个赞,谢谢啊!!!一,代码开发1,写入doris的案例代码2,指定DorisDynamicTableSourceFactory3,DorisDynamicTableSourceFactory具体实现4,DorisSinkFunction具体实现5,队列类实现6,dorissink代码,这个比较简单。注意传参就ok了。二,打包
黄瓜炖啤酒鸭
·
2025-04-17 11:44
apache
doris
doris-sql
doris-connecter
sql插入doris
flink
实时写doris问题
参照doris官方文档测试写doris,
Flink
DorisConnector-ApacheDoris。
Jmin_L
·
2025-04-17 10:42
flink
Apache Doris
Flink
Connector 使用教程
ApacheDoris
Flink
Connector使用教程doris-
flink
-connector
Flink
ConnectorforApacheDoris项目地址:https://gitcode.com
卢千怡
·
2025-04-17 10:12
Doris实战——结合
Flink
构建极速易用的实时数仓_
flink
doris
原文大佬的这篇Doris+
Flink
构建实时数仓的实战文章整体写的很深入,这里直接摘抄下来用作学习和知识沉淀。
2301_82243558
·
2025-04-17 10:41
程序员
flink
大数据
Doris实战——结合
Flink
构建极速易用的实时数仓_
flink
doris(1)
综上可知,利用
Flink
CDC结合Doris两阶段事务提交保证了数据写入一致性。需要注意的是,在该过程中可能遇到一个问题:如果事务预提交成功、但
Flink
Checkpoint失败了该怎么办?
2301_79988566
·
2025-04-17 10:11
程序员
flink
大数据
flink
写doris时的优化
小量数据的导入;因为doris每一次数据导入都会在be节点上生成数据文件;如果高频导入小量数据,就会在存储层产生大量的小文件(必然会影响到后续的查询效率,也会对系统产生更多的compaction操作压力)而
flink
别这么骄傲
·
2025-04-17 10:10
flink
大数据
鹰角基于
Flink
+ Paimon + Trino 构建湖仓一体化平台实践项目
摘要:本文整理自鹰角大数据开发工程师,ApacheHudiContributor朱正军老师在
Flink
ForwardAsia2024生产实践(二)专场中的分享。
·
2025-04-17 04:47
flink大数据实时计算
CExercise_11_单链表 手动实现一条单链表
题目:基于以下头文件,手动实现一条单链表://头文件保护语法#ifnde
fLINK
ED_LIST_H#defineLINKED_LIST_H//包含linked_list.h头文件也会同步包含它包含的其它头文件
精彩漂亮ing
·
2025-04-16 11:38
题海拾贝~
c语言
AWS 实时数据流服务 Kinesis
数据来源示例AWSLambda发送数据到Kinesis步骤1:创建Kinesis数据流步骤2:编写Lambda函数步骤3:配置Lambda函数权限部署和测试Lambda函数消费和处理Kinesis数据流示例
Flink
wumingxiaoyao
·
2025-04-15 16:35
Big
Data
云计算
Kinesis
Lambda
Big
Data
aws
一图搞定
Flink
Oracle CDC 同步至Paimon(持续更新)
一图搞定
Flink
OracleCDC同步至Paimon(持续更新)本文以
Flink
1.18、
FLink
CDC3.1为环境,配置
Flink
CDC同步Oracle的数据至Paimon环境配置依赖Mavenorg.apache.
flink
flink
-connector-oracle-cdc3.1.0SQLClient
YJJUPUPUP
·
2025-04-13 20:13
flink
oracle
大数据
Flink
CDC 同步表至Paimon 写数据流程,write算子和commit算子。
Flink
CDC同步表至Paimon写数据流程,write算子和commit算子。
YJJUPUPUP
·
2025-04-13 20:13
flink
数据库
大数据
Paimon 集成
Flink
CDC (一) MySQL
Paimon集成并封装了
flink
CDC,并实现了多种cdc同步功能,如实时增量数据入湖,整库同步,表结构变更等。
祺嘉朱
·
2025-04-13 19:12
Paimon
flink
mysql
大数据
hadoop
数据仓库
java
云计算
【
Flink
运行时架构】系统构架
SMP架构数据处理系统的架构最简单的实现方式就是单节点,但是随着数据量的增大,为了使单节点的机器性能更加强大,需要增加CPU数量和加大内存来提高吞吐量。这就是所谓的SMP(SymmetricalMultiProcessing,对称多处理)架构。但是这种架构带来的问题也很明显,不仅所有CPU是完全平等且共享内存和总线资源的,会带来资源竞争。而且随着CPU数量的增加,机器成本会呈指数级增长。因此,SM
Data跳动
·
2025-04-13 06:10
flink
架构
大数据
Flink
作业提交流程
一角色1作业管理器(JobManager) JobManager是一个
Flink
集群中任务管理和调度的核心,是控制应用执行的主进程。
欢乐海豚
·
2025-04-13 05:09
Flink
flink
大数据
java
Flink
的 RecordWriter 数据通道 详解
本文从基础原理到代码层面逐步解释
Flink
的RecordWriter数据通道,尽量让初学者也能理解。1.什么是RecordWriter?
goTsHgo
·
2025-04-13 05:39
Flink
大数据
flink
大数据
【
Flink
运行时架构】作业提交流程
本文介绍在单作业模式下
Flink
提交作业的具体流程,如下图所示。
Data跳动
·
2025-04-13 05:08
flink
大数据
Seatunnel系列之:Apache Iceberg sink connector和往Iceberg同步数据任务示例
Iceberg版本二、支持的引擎三、描述四、支持的数据源信息五、数据库依赖六、数据类型映射七、Sink选项八、往Iceberg同步数据任务示例一、支持的Iceberg版本1.4.2二、支持的引擎Spark
Flink
SeaTunnelZeta
快乐骑行^_^
·
2025-04-12 18:01
大数据
Seatunnel系列
Apache
Iceberg
sink
connector
往Iceberg同步数据
任务示例
Flink
+Iceberg搭建实时数据湖实战
点击上方蓝色字体,选择“设为星标”回复"面试"获取更多惊喜全网最全大数据面试提升手册!第一部分:Iceberg核心功能原理剖析:ApacheIceberg摘自官网:Apache Iceberg is an open table format for huge analytic datasets.可以看到Founders对Iceberg的定位是面向海量数据分析场景的高效存储格式。海量数据分析的场景,
王知无(import_bigdata)
·
2025-04-12 18:30
数据库
大数据
hadoop
hive
mysql
[重磅]
Flink
CDC之Yaml最佳实践之踩坑日记
继上篇文章提到了如何在应用层来通过编写yaml文件远程提交到
flink
集群来跑文章之后,作者开始重点研究了下目前已经支持的
Flink
CDC的yamlpipeline形式的内容source&sink。
一个数据小开发
·
2025-04-12 02:42
flink
大数据
flink-cdc
直播间点赞数和评论数实时数据统计
文章目录1、日志生成与采集2、
Flink
实时统计链路2.1、数据流处理2.2、
Flink
SQL实现3、数据表设计3.1、原始数据表3.2、汇总数据表4、分布式定时任务设计4.1、全量统计任务4.2、汇总合并统计任务
NtK11KGXVkk
·
2025-04-12 02:39
架构
java
kafka
flink
大数据分析(Spark/
Flink
实时计算)
(即生成、即决策分析)ApacheSpark和Apache
Flink
是两种广泛使用的开源框架,它们在处理实时数据流方面各有优势。
小柚净静
·
2025-04-10 22:12
spark
flink
大数据
Flink
在饿了么的应用与实践
本文作者:易伟平(饿了么)整理:姬平(阿里巴巴实时计算部)本文将为大家展示饿了么大数据平台在实时计算方面所做的工作,以及计算引擎的演变之路,你可以借此了解Storm、Spark、
Flink
的优缺点。
Apache Flink
·
2025-04-10 10:51
Flink
大数据
实时计算
大数据
Flink
实时计算
流计算
【
Flink
】
Flink
+ Drools 构建规则模型
文章目录1.概述1.概述我以前搞过drools但是没有真真用起来。https://v.51doit.cn/detail/p_606869c9e4b09890f0e05cbf/6主要是如何将规则模型抽象成用户可以理解的,可以配置的模型。
九师兄
·
2025-04-10 10:48
flink
机器学习
自然语言处理
CEF4Delphi 从零到精通(保姆级中文教程)
目录Chromium框架下载CEF4Delphi开发组件源码下载组件详解1.TChromium/TFMXChromium2.TCEFWindowParent/TFMXWindowParent3.TCE
FLink
edWindowParent4
NolanDing
·
2025-04-09 21:25
Delphi
名库讲解
浏览器
Flink
读取Kafka数据写入IceBerg(HiveCatalog)
Readmejava8
flink
1.13kafka3iceberg0.13链路:Kafka->
Flink
->IceBerg(HiveCatalog)代码importorg.apache.
flink
.api.common.serialization.SimpleStringSchema
徐一闪_BigData
·
2025-04-09 18:34
大数据
flink
iceberg
flink
cdc的source数据流如何配置事件时间,如何设置时间语义,分配时间戳并生成水位线
在
Flink
CDC中为Source数据流配置事件时间需要结合时间语义设置、时间戳分配和水位线生成三个核心步骤。
fzip
·
2025-04-09 04:36
Flink
flink
大数据
Flink
与Elasticsearch整合:万字详解与技术实战
Flink
与Elasticsearch整合:万字详解与技术实战一、技术背景与整合意义1.1技术背景Apache
Flink
:作为新一代流批统一的计算引擎,
Flink
以低延迟、高吞吐量和精准一次(exactly-once
AI天才研究院
·
2025-04-08 21:50
Java实战
计算
flink
elasticsearch
大数据
Flink
1.7.2 并行计算源码分析
Flink
1.7.2并行计算源码分析源码源码:https://github.com/opensourceteams/fink-maven-scala-2
Flink
1.7.2Source、Window数据交互源码分析
thinktothings
·
2025-04-07 13:26
Flink
Flink
并行计算源码分析
Big Data 流处理框架
Flink
BigData流处理框架
Flink
什么是
Flink
Flink
的主要特性典型应用场景AmazonElasticMapReduce(EMR)VS
Flink
架构和运行时环境实时处理能力开发和编程模型操作和管理应用场景总结
wumingxiaoyao
·
2025-04-05 23:47
Big
Data
大数据
flink
Big
Data
流处理框架
实时数据处理
Flink
介绍——实时计算核心论文之Storm论文总结
引入我们通过S4和Storm论文的以下文章,已经对S4和Storm有了较多认识:S4论文详解S4论文总结Storm论文详解本文则会结合这两者的论文内容进行对比总结,去看看为什么Storm能战胜S4成为当时实时处理的顶流。我们知道S4的实时计算模型,是通过抽象出一个叫做PE的单元,然后所有的数据、处理逻辑都是基于PE的,而且整个系统没有Master,是完全对称的架构。而Storm在流式计算上,虽然也
黄雪超
·
2025-04-05 19:20
从0开始学Flink
storm
大数据
论文阅读
Deepseek与
Flink
结合:提升大数据流中的搜索效率
本文提出了将Deepseek与
Flink
结合使用的创新方案,以优化大数据流中的搜索效率。
荣华富贵8
·
2025-04-05 18:16
程序员的知识储备1
程序员的知识储备2
程序员的知识储备3
sqlite
数据库
python
人工智能
机器学习
Flink
双流join中,KeySelector如何使用
在
Flink
双流Join操作中,KeySelector用于定义两个流中元素的关联键,其核心作用是将数据按相同逻辑分区,确保相同键的元素进入同一窗口或时间区间进行关联。
fzip
·
2025-04-05 13:43
Flink
flink
大数据
Flink
之 TopN 以及窗口TopN
一、概念在
Flink
中,TopN计算是指从数据流中选取前N个元素,通常根据某个指标进行排序。TopN计算可以在全局范围内进行,也可以在窗口内进行。
Luckyforever%-
·
2025-04-04 04:33
Flink
flink
大数据
sql
hive
数据挖掘
云计算
python消费datahub_datahub消费数据
有木有大神知道
Flink
能否消费多个kafka集群的数据?这个问题有人遇到吗?你们实时读取广业务库到kafka是通过什么读的?
weixin_39580042
·
2025-04-03 21:45
python消费datahub
Flink
&& Spark SQL提效神器双双更新
大家新年好,在这里先祝大家开工大吉,今年少bug少加班多赚钱!本次SparkSQLHelper主要更新了对于Hints的补全支持,Release版本为2025.2.0。插件地址:https://plugins.jetbrains.com/plugin/26079-spark-sql-helper或者直接在Jetbrains插件市场搜索SparkSQLHelepr。用户QQ群:782150013。而
·
2025-04-01 16:36
flinkspark大数据
流处理开源框架
Flink
原理简介和使用
sparkkafkastream示例大数据处理工具Kafka、Zk、Spark这篇文章描述了如何搭建kafka、zk和spark集群环境本篇文章先简要的举个demo来说明下代码实现过程源码https://gitee.com/pingfanrenbiji/spark-scala-examples/blob/master/src/main/scala/com/sparkbyexamples/spark
平凡人笔记
·
2025-04-01 02:31
平凡人笔记
Flink
/Kafka在python中的用处
一、基础概念1.ApacheKafka是什么?核心功能:Kafka是一个分布式流处理平台,主要用于构建实时数据管道和流式应用程序。核心概念:生产者(Producer):向Kafka发送数据的程序。消费者(Consumer):从Kafka读取数据的程序。主题(Topic):数据流的分类名称(类似数据库中的表)。Broker:Kafka集群中的单个服务器节点。用途:实时数据传输(如日志、事件流)。缓冲
不辉放弃
·
2025-04-01 02:59
python
大数据
Flink
watermark的时间字段有空值,建表的时候,如何处理
在
Flink
中处理时间字段存在空值时,需通过表定义阶段的特殊处理和Watermark生成策略调整来避免因空值导致的窗口计算异常或任务失败。
fzip
·
2025-03-31 04:57
Flink
flink
大数据
【
Flink
SQL】
Flink
SQL 基础概念(一):SQL &; Table 运行环境
如果你是inStreamingMode,则最终创建出来的TableEnvironment实例为StreamTableEnvironmentImpl。如果你是inBatchMode,则最终创建出来的TableEnvironment实例为TableEnvironmentImpl。它两虽然都继承了TableEnvironment接口,但是StreamTableEnvironmentImpl支持的功能更多
m0_74932057
·
2025-03-31 04:55
flink
sql
大数据
Flink
内容分享(一):Fink原理、实战与性能优化(一)_
flink
原理、实战与性能优化(1)
分治法在大数据处理中的应用不仅有助于提高处理效率,还可以充分利用分布式计算和存储资源,从而更好地应对大数据量和复杂性。然而,在应用分治法时需要考虑合适的数据分割策略、任务调度、结果合并等问题,以确保分治法的正确性和性能。然而,分布式计算也带来了一些挑战,如数据一致性、通信开销、任务调度等问题,需要综合考虑各种因素来设计和优化分布式系统。同时,分布式计算也需要开发者具备分布式系统设计和调优的知识和技
2401_84166965
·
2025-03-31 00:03
程序员
flink
性能优化
大数据
Day78_
Flink
(四)
Flink
状态操作
课程大纲课程内容学习效果掌握目标ProcessFunctionProcessFunction掌握状态编程状态编程掌握容错机制容错机制掌握一、ProcessFunction我们之前学习的转换算子是无法访问事件的时间戳信息和水位线信息的。而这在一些应用场景下,极为重要。例如MapFunction这样的map转换算子就无法访问时间戳或者当前事件的事件时间。基于此,DataStreamAPI提供了一系列的
dogedong
·
2025-03-30 10:25
#
flink
大数据
big
data
flink
重温笔记(一):
Flink
基础入门
Flink
重温笔记(一)前言:最近发现
Flink
技术在实时数仓开发上占比越来越明显,希望通过抓紧复习,加强对
Flink
的理解和应用,提升自己实时数仓的开发能力,以下是今日整理的学习笔记,各种图像均按照自己理解重画
卡林神不是猫
·
2025-03-30 10:54
Flink重温笔记
flink
笔记
大数据
学习方法
数据仓库
经验分享
Flink
中聚合算子介绍
前言在
flink
api中,聚合算子是非常常用的。所谓的聚合就是在分组的基础上做比较计算的操作。下面通过几个简单案例来说明聚合算子的用法和注意事项。
林犀居士
·
2025-03-29 07:47
flink
flink
大数据
Flink
SQL窗口表值函数聚合实现原理
Flink
是一个流处理和批处理框架,提供了强大的大数据处理能力。
Flink
SQL是
Flink
的一种高级查询语言,可以用于对数据流进行实时分析和处理。
VqhhMobile
·
2025-03-29 07:45
flink
sql
大数据
Flink
Flink
常用及优化参数
流批模式SET'execution.runtime-mode'='streaming';//orbatch基础Checkpoint配置--启用Checkpoint,间隔5分钟SET'execution.checkpointing.interval'='5min';--Checkpoint超时时间(10分钟)SET'execution.checkpointing.timeout'='10min';-
宝哥大数据
·
2025-03-28 09:41
flink
flink
-connector-jdbc扩展国产达梦数据库
下载
flink
-connector-jdbc源码gitclonehttps://github.com/apache/
flink
-connector-jdbc.git增加达梦数据库支持在org.apache.
flink
.connector.jdbc.databases
炸地瓜
·
2025-03-28 06:49
flink
数据库
大数据
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他