E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
flink异步IO
【
Flink
图计算源码解析】开篇:
Flink
图计算总览
文章目录1.图计算的作用2.本专题的写作目的3.
Flink
Gelly引擎总览3.1.Gelly的源码结构1.Graph的存储数据结构2.图的类别3.图的验证以及指标4.图的生成器5.Library6.图的迭代计算
hxcaifly
·
2025-07-23 08:01
Flink
Flink原理和应用
Flink
在物联网实时大数据处理中的最佳实践
Flink
在物联网实时大数据处理中的最佳实践关键词:
Flink
、物联网、实时大数据处理、最佳实践、数据流摘要:本文围绕
Flink
在物联网实时大数据处理中的最佳实践展开。
大数据洞察
·
2025-07-23 08:29
大数据AI应用
大数据与AI人工智能
flink
物联网
struts
ai
Flink
-Hadoop实战项目
项目说明文档1.项目概述1.1项目简介本项目是一个基于Apache
Flink
的大数据流处理平台,专门用于处理铁路系统的票务和车次信息数据。
Dylan_muc
·
2025-07-22 14:12
hadoop
hdfs
flink
Flink
:处理有界流数据的wordcount
数据源:helloworldhello
flink
helloscala有界流:packagechapter02importorg.apache.
flink
.streaming.api.scala.
小易学编程
·
2025-07-22 11:17
flink
大数据
Python包高级开发技术:性能优化与系统集成
本文将深入探讨Python包的性能优化策略、C扩展开发、
异步IO
集成以及跨语言互操作等高级主题,帮助你将Python包提升到专业水平。
软考和人工智能学堂
·
2025-07-22 05:02
Python开发经验
深度学习
强化学习
python
性能优化
开发语言
10.jobManager初始化流程
JobManager初始化流程1.找到入口类StandaloneSessionClusterEntrypoint该类位于
Flink
源码的以下路径中:
flink
-runtime/src/main/java
·
2025-07-22 00:30
绝佳组合 SpringBoot + Lua + Redis = 王炸!
精选面试题(微信小程序):5000+道面试题和选择题,真实面经,简历模版,包含Java基础、并发、JVM、线程、MQ系列、Redis、Spring系列、Elasticsearch、Docker、K8s、
Flink
·
2025-07-21 21:08
聊聊
flink
的RpcService
序本文主要研究一下
flink
的RpcServiceRpcService
flink
-release-1.7.2/
flink
-runtime/src/main/java/org/apache/
flink
/runtime
go4it
·
2025-07-21 20:02
ARTS-第七周
解决散列冲突的方法:开放寻址法和链表法Review
Flink
动态表概念原文地址流和表为什么可以相互转换呢?我们都知道传统Mysql的主从复制是通过b
梧上擎天
·
2025-07-21 05:01
如何解决一个
flink
on yarn集群上已经跑了一个job,再提交第二个job的时候,task报java heap size oom的问题
在
Flink
onYARN集群中提交第二个Job时出现Task的JavaHeapSizeOOM(内存溢出),核心原因是集群资源不足(第一个Job已占用大量资源,第二个Job分配的内存不够)或Job资源配置不合理
fzip
·
2025-07-20 22:21
Flink
flink
java
大数据
flink
sql读hive catalog数据,将string类型的时间戳数据排序后写入kafka,如何保障写入kafka的数据是有序的
在
Flink
SQL中,要确保从Hive读取的STRING类型时间戳数据排序后有序写入Kafka,需要结合批处理模式、时间类型转换、单分区写入和Kafka生产者配置。
fzip
·
2025-07-20 22:20
Flink
flink
sql
hive
flink
-sql读写hive-1.13
1.版本说明本文档内容基于
flink
-1.13.x,其他版本的整理,请查看本人博客的
flink
专栏其他文章。1.1.概述ApacheHive已经成为了数据仓库生态系统中的核心。
第一片心意
·
2025-07-20 21:48
flink
flink
sql
hive
flink
sql如何对hive string类型的时间戳进行排序
在
Flink
SQL中对Hive表的STRING类型时间戳进行排序,需要先将字符串转换为时间类型,再基于时间类型排序。
·
2025-07-20 20:39
基于Socket来构建无界数据流并通过
Flink
框架进行处理
Apache
Flink
是一个开源的流处理框架,它能够对无界数据流进行高效的、精确的处理。本文将介绍如何通过Socket构建无界数据流,并利用
Flink
框架进行无界流处理。
每天五分钟玩转人工智能
·
2025-07-20 08:15
Flink技术实战
flink
大数据
Flink
分布式
无界数据
Flink
cdc同步增量数据timestamp字段相差八小时(分析|解决)不是粘贴复制的!
问题我使用
flink
cdc同步mysql到mysql遇到了timestamp字段缺少八小时的问题。很少无语,
flink
,cdc,debezium时区都设置了,没有任何效果!
BUG FIXER
·
2025-07-20 07:43
大数据
flink
android
大数据
如何解决
Flink
CDC同步时间类型字段8小时时间差的问题,以MySQL为例
在使用
Flink
CDC进行数据同步时,默认情况下经常会遇到时间类型的字段与实际值相差8个小时的问题。本文以MySQL为例提供解决方案,其他数据源也可以参考这类实现。
智海观潮
·
2025-07-20 07:42
Flink
flink
flink
cdc
大数据
实时数据同步
Paimon对比基于消息队列(如Kafka)的传统实时数仓方案的优势
当
Flink
作业发生故障恢复(Failover)或业务逻辑迭代重跑数据时,同样的数据会被再次写入消息队列,形成重复数据。
lifallen
·
2025-07-20 05:58
Paimon
大数据
数据库
数据结构
java
分布式
apache
数据仓库
Flink
流处理的核心基石【时间语义、水位线、状态、检查点、反压 】
Flink
流处理的核心基石【时间语义、水位线、状态、检查点、反压】,这些概念相互协作,构建了
Flink
高吞吐、低延迟、高容错的实时计算能力。
csdn_tom_168
·
2025-07-20 00:18
大数据
flink
核心
时间语义
水位线
状态
检查点
反压
用
Flink
实现的一个实时订单对账功能,
Flink
的双流实时对账
1.为什么业务订单数据不用Mysql之类的强事务性数据库监控反而用
Flink
的实时?
·
2025-07-19 14:08
Flink
多流转换 (三)CoProcessFunction合流操作案例
文章目录下面是CoProcessFunction的一个具体示例:我们可以实现一个实时对账的需求,也就是app的支付操作和第三方的支付操作的一个双流Join。App的支付事件和第三方的支付事件将会互相等待5秒钟,如果等不来对应的支付事件,那么就输出报警信息。程序如下:Gitee源代码如下publicclassBillCheckExample{publicstaticvoidmain(String[]
Alienware^
·
2025-07-19 14:36
#
Flink
Flink
Flink
双流处理:实时对账实现1
Flink
双流处理:实时对账实现1去发现同类优质开源项目:https://gitcode.com/资源描述本资源文件详细介绍了
Flink
双流处理的实时对账实现。
·
2025-07-19 13:58
Flink
双流实时对账
在电商、金融、银行、支付等涉及到金钱相关的领域,为了安全起见,一般都有对账的需求。比如,对于订单支付事件,用户通过某宝付款,虽然用户支付成功,但是用户支付完成后并不算成功,我们得确认平台账户上是否到账了。针对上述的场景,我们可以采用批处理,或离线计算等技术手段,通过定时任务,每天结束后,扫描数据库中的数据,核对当天的支付数据和交易数据,进行对账。想要达到实时对账的效果,比如有的用户支付成功但是并没
·
2025-07-19 12:24
[特殊字符] 实时数据洪流突围战:
Flink
+Paimon实现毫秒级分析的架构革命(附压测报告)——日均百亿级数据处理成本降低60%的工业级方案
某电商平台借助
Flink
+Paimon重构实时数仓后,端到端延迟从分钟级压缩至800ms,计算资源节省5.6万核/月。
Lucas55555555
·
2025-07-12 17:24
flink
大数据
基于Python的Google Scholar学术论文爬虫实战:最新技术与完整代码解析
文章涵盖最新Python爬虫技术栈(如Playwright、
异步IO
等),提供完整可运行的代码示例,并讨论学术爬虫的伦理与法律问题。
Python爬虫项目
·
2025-07-12 14:36
2025年爬虫实战项目
python
爬虫
开发语言
学习
scrapy
Flink
2.0 DataStream算子全景
在实时流处理中,Apache
Flink
的DataStreamAPI算子是构建流处理pipeline的基础单元。本文基于
Flink
2.0,聚焦算子的核心概念、分类及高级特性。
Edingbrugh.南空
·
2025-07-12 09:32
大数据
flink
flink
人工智能
Flink
SQL 自定义函数详解
Flink
SQL函数详解自定义函数除了内置函数之外,
Flink
SQL还支持自定义函数,我们可以通过自定义函数来扩展函数的使用
Flink
SQL当中自定义函数主要分为四大类:1.ScalarFunction
Tit先生
·
2025-07-12 09:32
基础
flink
sql
大数据
java
Flink
自定义函数之聚合函数(UDAGG函数)
1.聚合函数概念聚合函数:将一个表的一个或多个行并且具有一个或多个属性聚合为标量值。聚合函数理解:假设一个关于饮料的表。表里面有三个字段,分别是id、name、price,表里有5行数据。假设你需要找到所有饮料里最贵的饮料的价格,即执行一个max()聚合。你需要遍历所有5行数据,而结果就只有一个数值。2.聚合函数实现聚合函数主要通过扩展AggregateFunction类实现。AggregateF
土豆马铃薯
·
2025-07-12 09:01
Flink
flink
大数据
Flink
时间窗口详解
一、引言在大数据流处理的领域中,
Flink
的时间窗口是一项极为关键的技术,想象一下,你要统计一个电商网站每小时的订单数量。由于订单数据是持续不断产生的,这就形成了一个无界数据流。
bxlj_jcj
·
2025-07-12 09:31
Flink
flink
大数据
Flink
DataStream API详解(一)
一、引言
Flink
的DataStreamAPI,在流处理领域大显身手的核心武器。
bxlj_jcj
·
2025-07-12 09:01
Flink
flink
大数据
flink
自定义函数
前言在很多情况下,尽管
flink
提供了丰富的转换算子API可供开发者对数据进行各自处理,比如map(),filter()等,但在实际使用的时候仍然不能满足所有的场景,这时候,就需要开发人员基于常用的转换算子的基础上
逆风飞翔的小叔
·
2025-07-12 09:30
flink
入门到精通
flink
大数据
big
data
Flink
自定义函数的常用方式
一、实现
Flink
提供的接口//自定义函数classMyMapFunctionimplementsMapFunction{publicIntegermap(Stringvalue){returnInteger.parseInt
飞Link
·
2025-07-12 09:00
Water
flink
java
大数据
Flink
DataStream API详解(二)
Flink
的DataStreamAPI提供了一系列强大的多流转换算子,如union、connect和split等,下面我们来详细了解一下它们的功能和用法。二、多流转换2.1union算子union算
·
2025-07-12 09:59
【Kafka】Failed to send data to Kafka: Expiring 30 record(s) for xxx 732453 ms has passed since last
1.美图问题与【
Flink
】
Flink
写入kafka报错FailedtosenddatatoKafka:Expiring4record(s)for20001mshaspassed重复了。2.背景
九师兄
·
2025-07-11 21:37
kafka
big
data
zookeeper
【
Flink
】
flink
Kafka报错 : Failed to send data to Kafka: This server is not the leader for that topic-pa
1.背景出现这个问题的背景请参考:【Kafka】FailedtosenddatatoKafka:Expiring30record(s)forxxx732453mshaspassedsincelast[2020-09-0513:16:09
九师兄
·
2025-07-11 21:37
flink
kafka
大数据
安全运维的 “五层防护”:构建全方位安全体系
融合AI、零信任等技术,构建全链路安全运维体系,以下从技术逻辑与实践落地展开解析:第一层:全域资产纳管——筑牢安全根基挑战云网基础设施包含分布式计算(Hadoop/Spark)、数据流处理(Storm/
Flink
KKKlucifer
·
2025-07-11 11:02
安全
运维
kafka单个生产者向具有多个partition的topic写数据(写入分区策略)
最近碰到生产环境现象一个
flink
程序单并行度(一个生产者),对应topic为8分区。每个分区都能消费到生产出的数据。
·
2025-07-10 03:35
云原生--微服务、CICD、SaaS、PaaS、IaaS
往期推荐浅学React和JSX-CSDN博客一文搞懂大数据流式计算引擎
Flink
【万字详解,史上最全】-CSDN博客一文入门大数据准流式计算引擎Spark【万字详解,全网最新】_大数据spark-CSDN
青秋.
·
2025-07-09 05:01
云原生
docker
云原生
微服务
kubernetes
serverless
service_mesh
ci/cd
Apache Iceberg数据湖基础
Iceberg的革新目标:解耦计算引擎与存储格式(支持Spark/
Flink
/Trino等);提供ACID事务、模式
Aurora_NeAr
·
2025-07-08 12:20
apache
Flink
ClickHouse 连接器:实现
Flink
与 ClickHouse 无缝对接
引言在大数据处理领域,Apache
Flink
是一款强大的流处理和批处理框架,而ClickHouse则是一个高性能的列式数据库,专为在线分析处理(OLAP)场景设计。
Edingbrugh.南空
·
2025-07-08 06:32
大数据
flink
flink
clickhouse
大数据
大数据技术之
Flink
第1章
Flink
概述1.1
Flink
是什么1.2
Flink
特点1.3
Flink
vsSparkStreaming表
Flink
和Streaming对比
Flink
Streaming计算模型流计算微批处理时间语义事件时间
·
2025-07-08 02:35
Python高频面试题(四)
答案:GIL使同一时刻仅一个线程执行字节码,CPU密集型任务性能受限绕过方案:使用多进程(multiprocessing)、C扩展(如Cython)、
异步IO
(asyncio)46协程异步调用示例问题
Irene-HQ
·
2025-07-07 17:55
测试
python
自动化测试
python
开发语言
面试
测试工具
github
pycharm
Hadoop核心组件最全介绍
(YetAnotherResourceNegotiator)3.MapReduce二、数据存储与管理1.HBase2.Hive3.HCatalog4.Phoenix三、数据处理与计算1.Spark2.
Flink
3
Cachel wood
·
2025-07-07 12:54
大数据开发
hadoop
大数据
分布式
spark
数据库
计算机网络
MMORPG无loading条大世界技术揭秘
主流方案将地图划分为可独立加载的区块,通过
异步IO
和优先级队列动态管理资源,结合预取机制和资源降级确保流畅体验。典型案例如《原神》《魔兽世界》等采用混合加载模式,核心场景预加载,外围区域动态加载。
你一身傲骨怎能输
·
2025-07-06 19:16
游戏开发技术专栏
mmorpg
flink
数据同步mysql到hive_基于Canal与
Flink
实现数据实时增量同步(二)
背景在数据仓库建模中,未经任何加工处理的原始业务层数据,我们称之为ODS(OperationalDataStore)数据。在互联网企业中,常见的ODS数据有业务日志数据(Log)和业务DB数据(DB)两类。对于业务DB数据来说,从MySQL等关系型数据库的业务数据进行采集,然后导入到Hive中,是进行数据仓库生产的重要环节。如何准确、高效地把MySQL数据同步到Hive中?一般常用的解决方案是批量
·
2025-07-05 22:44
Flink
OceanBase CDC 环境配置与验证
一、OceanBase数据库核心配置1.环境准备与版本要求版本要求:OceanBaseCE4.0+或OceanBaseEE2.2+组件依赖:需部署LogProxy服务(社区版/企业版部署方式不同)兼容模式:支持MySQL模式(默认)和Oracle模式2.创建用户与权限配置在sys租户创建管理用户(社区版示例):--连接sys租户(默认端口2881)mysql-h127.0.0.1-P2881-ur
Edingbrugh.南空
·
2025-07-05 19:51
运维
大数据
flink
flink
oceanbase
大数据
Flink
MongoDB CDC 环境配置与验证
一、MongoDB数据库核心配置1.环境准备与集群要求MongoDBCDC依赖ChangeStreams特性,需满足以下条件:版本要求:MongoDB≥3.6集群模式:副本集(ReplicaSet)或分片集群(ShardedCluster)存储引擎:WiredTiger(默认自3.2版本起)副本集协议:pv1(MongoDB4.0+默认)验证集群配置:#连接MongoDBshellmongo--h
Edingbrugh.南空
·
2025-07-05 19:50
运维
大数据
flink
flink
mongodb
大数据
Flink
将数据流写入Kafka,Redis,ES,Mysql
Flink
写入不同的数据源写入到Mysql写入到ES向Redis写入向kafka写入导入公共依赖org.slf4jslf4j-simple1.7.25compileorg.apache.
flink
flink
-java1.10.1org.apache.
flink
flink
-streaming-java
浅唱战无双
·
2025-07-05 15:22
flink
mysql
es
redis
kafka
Flink
TiDB CDC 环境配置与验证
一、TiDB数据库核心配置1.启用TiCDC服务确保TiDB集群已部署TiCDC组件(版本需兼容
Flink
CDC3.0.1),并启动同步服务:#示例:启动TiCDC捕获changefeedcdcclichangefeedcreate
·
2025-07-05 14:20
Flink
CDC支持Oracle RAC架构CDB+PDB模式的实时数据同步吗,可以上生产环境吗
众所周知,
Flink
CDC是一个流数据集成工具,支持多种数据源的实时数据同步,包括大家所熟知的MySQL,MongoDB等。
智海观潮
·
2025-07-05 14:20
Flink
flink
cdc
oracle
flink
数据同步
大数据
Flink
Oracle CDC 环境配置与验证
一、Oracle数据库核心配置详解1.启用归档日志(ArchivingLog)OracleCDC依赖归档日志获取增量变更数据,需按以下步骤启用:非CDB数据库配置:--以DBA身份连接数据库CONNECTsys/passwordASSYSDBA;--配置归档目标路径和大小ALTERSYSTEMSETdb_recovery_file_dest_size=10G;ALTERSYSTEMSETdb_re
·
2025-07-05 14:20
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他