E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Flink流处理
Flink
on K8s 企业生产化实践
背景为了解决公司模型&特征迭代的系统性问题,提升算法开发与迭代效率,部门立项了特征平台项目。特征平台旨在解决数据存储分散、口径重复、提取复杂、链路过长等问题,在大数据与算法间架起科学桥梁,提供强有力的样本及特征数据支撑。平台从Hive、Hbase、关系型数据库等大数据ODS(OperationalDatastore)层进行快速的数据ETL,将数据抽取到特征平台进行管理,并统一了数据出口,供数据科学
house.zhang
·
2023-12-28 15:00
大数据
big
data
大数据
Py
Flink
on K8s 部署实践
Py
Flink
onK8s部署模式1.1
Flink
的部署模式https://blog.csdn.net/yunxiao6/article/details/1087052441.2Py
Flink
onK8sStandalone
bao_since
·
2023-12-28 15:28
Flink
Kubernetes
PyFlink
kubernetes
flink
使用streampark进行
flink
on k8s LoadBalancer配置域名访问
flink
ui
在使用yarn部署
flink
任务时,yarn自动代理了
flink
webui,通过yarn的地址即可访问任务web页面。
Java小田
·
2023-12-28 14:26
streampark
flink
k8s
kafka基础知识总结
Kafka是一个由Apache软件基金会开发的分布式
流处理
平台。它最初是为LinkedIn设计的,用于处理大规模的实时日志数据流。Kafka的设计目标是将实时流数据高效地发布、订阅和处理。
计算衎
·
2023-12-28 13:09
消息队列
kafka
分布式
Hadoop:
Flink
on Yarn服务配置与设置
之前打算直接在ambari上安装配置
flink
服务方便管理,但是发现ambari集成的
flink
会出现很多问题反而不方便管理(可能是没找到正确的方法),于是打算单独配置服务下载两个文件文件
flink
-1.10.1
william_cheng666
·
2023-12-28 13:14
Hadoop
hadoop
flink
Apache
Flink
1.14.4 on yarn ha环境搭建
Flink
支持多种安装模式Local—本地单机模式,学习测试时使用Standalone—独立集群模式,
Flink
自带集群,开发测试环境使用StandaloneHA—独立集群高可用模式,
Flink
自带集群
一位搬砖工
·
2023-12-28 13:14
flink
flink
flink
的onYarn模式环境搭建
一.onYarn模式把资源管理器交给yarn模式进行管理1.两种运行模式1)session-cluster模式session:会话,开辟一块新的公共的空间先启动集群,直接向yarn申请空间,资源(session)保持不变,这个集群会常驻在yarn的集群中,不需要时进行手动停止,job任务可以向这个session提交,所有任务共享这个session,如果资源用完,需要等待之间的任务执行完毕释放资源才
奶糖~
·
2023-12-28 13:14
flink
大数据
big
data
Apache
Flink
连载(五):Apache
Flink
快速入门 - 环境准备及入门案例
个人主页:IT贫道_大数据OLAP体系技术栈,ApacheDoris,Clickhouse技术-CSDN博客私聊博主:加入大数据技术讨论群聊,获取更多大数据资料。博主个人B栈地址:豹哥教你大数据的个人空间-豹哥教你大数据个人主页-哔哩哔哩视频目录
IT贫道
·
2023-12-28 13:43
大数据计算体系技术栈
Apache
Flink
apache
flink
大数据
Apache
Flink
连载(十七):
Flink
On Standalone任务提交-Standalone Application模式
个人主页:IT贫道_大数据OLAP体系技术栈,ApacheDoris,Clickhouse技术-CSDN博客私聊博主:加入大数据技术讨论群聊,获取更多大数据资料。博主个人B栈地址:豹哥教你大数据的个人空间-豹哥教你大数据个人主页-哔哩哔哩视频目录
IT贫道
·
2023-12-28 13:43
大数据计算体系技术栈
Apache
Flink
apache
flink
大数据
Apache
Flink
连载(十九):
Flink
On Yarn运行-Yarn Session模式
个人主页:IT贫道_大数据OLAP体系技术栈,ApacheDoris,Clickhouse技术-CSDN博客私聊博主:加入大数据技术讨论群聊,获取更多大数据资料。博主个人B栈地址:豹哥教你大数据的个人空间-豹哥教你大数据个人主页-哔哩哔哩视频目录1.任务提交命令2.任务提交流程1.任务提交命令
IT贫道
·
2023-12-28 13:43
大数据计算体系技术栈
Apache
Flink
apache
flink
大数据
org.apache.
flink
.client.deployment.ClusterDeploymentException: Could not deploy Yarn job cluster.
在cdh集群上,通过如下命令,提交
flink
任务到yarn集群中:
flink
run-myarn-cluster-d-ynmmy_
flink
_jobxxx.jar报错,信息如下:org.apache.
flink
.client.program.ProgramInvocationException
赶路人儿
·
2023-12-28 13:42
#
flink
flink
Flink
1.8 on yarn 环境搭建及使用
一、下载
flink
包官网下载
flink
-1.8.1-bin-scala_2.11.tgz,然后解压下载地址https://
flink
.apache.org/downloads.html或https://
magic_kid_2010
·
2023-12-28 13:42
Flink
flink1.8
yarn
Flink
on Yarn实战
使用方式:
flink
的安装包解压之后,即可直接使用,而不需要额外的配置。
fancyChuan
·
2023-12-28 13:11
Flink实战
flink
flink
yarn
flink
on
yarn
Apache
Flink
连载(十八):
Flink
On Yarn运行原理及环境准备
博主个人B栈地址:豹哥教你大数据的个人空间-豹哥教你大数据个人主页-哔哩哔哩视频目录1.
Flink
OnYarn运行原理2.代码及Yarn环境准备
IT贫道
·
2023-12-28 13:40
大数据计算体系技术栈
Apache
Flink
apache
flink
大数据
hadoop hive spark
flink
安装
下载地址Indexof/distubuntu安装hadoop集群准备IP地址主机名称192.168.1.21node1192.168.1.22node2192.168.1.23node3上传hadoop-3.3.5.tar.gz、jdk-8u391-linux-x64.tar.gzJDK环境node1、node2、node3三个节点解压tar-zxvfjdk-8u391-linux-x64.tar
nsa65223
·
2023-12-28 11:59
hadoop
hive
spark
Flink
--DataSink学习
基于
flink
-1.8.1概述
flink
流式计算中需要经计算的结果进行输出(可以是msyql/hbase/ES等常见的DB或者filesystem,也可以是钉钉/邮件/短信等通知类信息),官网上成为connector
李小李的路
·
2023-12-28 09:36
java接受rtsp流解码,推送给前端,实现播放实时流
我们使用java将rtsp流拿到之后,进行rtsp解码,因为要考虑到延时性,所以我们要尽量拿到一秒的数据之后再进行推
流处理
。代码如下:publicvoidd
xzm09
·
2023-12-28 09:21
ffmpeg+rtsp
ffmpeg
websocket
java
javac
rtsp
javacv从入门到精通进阶——第八章:视频
流处理
下面是使用JavaCV进行视频
流处理
和推送的一般步骤:创建FFmpegFrameGrabber并设置输入URL:FFmpegFrameGrabbergrabber=newFFmpegFrameGrabber
ayou_llf
·
2023-12-28 07:08
javacv
java
opencv
语音识别
音视频
视频编解码
Flink
on K8S生产集群使用StreamPark管理
(一)直接部署(手动测试用,不推荐)
Flink
onNativeKubernetes目前支持Application模式和Session模式,两者对比Application模式部署规避了Session模式的资源隔离问题
tuoluzhe8521
·
2023-12-28 02:38
Flink
flink
kubernetes
大数据
streampark
k8s
【知乎大数据技术】用
Flink
取代Spark Streaming!知乎实时数仓架构演进
“数据智能”(DataIntelligence)有一个必须且基础的环节,就是数据仓库的建设,同时,数据仓库也是公司数据发展到一定规模后必然会提供的一种基础服务。从智能商业的角度来讲,数据的结果代表了用户的反馈,获取结果的及时性就显得尤为重要,快速的获取数据反馈能够帮助公司更快的做出决策,更好的进行产品迭代,实时数仓在这一过程中起到了不可替代的作用。本文主要讲述知乎的实时数仓实践以及架构的演进,这包
yoku酱
·
2023-12-27 19:34
基于
Flink
CDC 实现海量数据的实时同步和转换
摘要:本文整理自Apache
Flink
Committer,
Flink
CDCMaintainer,阿里巴巴高级开发工程师徐榜江(雪尽)在5月21日
Flink
CDCMeetup的演讲。
Apache Flink
·
2023-12-27 16:51
大数据
分布式
数据库
flink
深入解读
Flink
CDC 增量快照框架
导读:随着大数据的迅猛发展,企业越来越重视数据的价值,数据采集工具也在不断改进,实时采集工具也在由长链路向短链路发展,今天和大家分享一下
Flink
CDC技术。
学而知之@
·
2023-12-27 16:20
flink
大数据
数据库
Flink
Has Become the De-facto Standard of Streaming Compute
摘要:本文整理自Apache
Flink
中文社区发起人、阿里巴巴开源大数据平台负责人王峰(莫问),在
Flink
ForwardAsia2023主会场的分享。
Apache Flink
·
2023-12-27 16:20
flink
大数据
实战Java springboot 采用
Flink
CDC操作SQL Server数据库获取增量变更数据
ApplicationContextUtil7、自定义sink交由spring管理,处理变更数据前言:我的场景是从SQLServer数据库获取指定表的增量数据,查询了很多获取增量数据的方案,最终选择了
Flink
arden.WANG
·
2023-12-27 16:50
踩坑记录
java相关
数据库
java
spring
boot
flink
sqlserver
Flink
CDC介绍及原理
CDC(ChangeDataCapture)是一种用于捕捉数据库变更数据的技术,
Flink
从1.11版本开始原生支持CDC数据(changelog)的处理,目前已经是非常成熟的变更数据处理方案。
大大大大肉包
·
2023-12-27 16:49
flink
flink
大数据
深入解析
Flink
CDC 增量快照读取机制
一、
Flink
-CDC1.x痛点
Flink
CDC1.x使用Debezium引擎集成来实现数据采集,支持全量加增量模式,确保数据的一致性。
Light Gao
·
2023-12-27 16:47
flink
flink
大数据
flinkcdc
数据同步
mysql
Flink
实时电商数仓之Doris框架(七)
Doris框架大规模并行处理的分析型数据库产品。使用场景:一般先将原始数据经过清洗过滤转换后,再导入doris中使用。主要实现的功能有:实时看板面向企业内部分析师和管理者的报表面向用户或者客户的高并发报表分析即席查询统一数仓构建:替换了原来由Spark,Hive,Kudu,Hbase等旧框架数据湖联邦查询:通过外表的方式联邦分析位于Hive,IceBerg,Hudi中的数据Doris架构后端:C语
十七✧ᐦ̤
·
2023-12-27 16:47
flink
大数据
doris
Flink
输出至 Redis
【1】引入第三方Bahir提供的
Flink
-redis相关依赖包org.apache.bahir
flink
-connector-redis_2.111.0【2】
Flink
连接Redis并输出Sink处理结果
程序猿进阶
·
2023-12-27 14:16
Flink
flink
redis
大数据
java
面试
性能优化
后端
Flink
CDC 原理、实践和优化
本文基于腾讯云Oceanus提供的
Flink
CDC引擎,着重介绍
Flink
在变更数据捕获技术中的应用。一、CDC是什么?
坨坨的大数据
·
2023-12-27 14:33
工作随笔于深圳
今天在极客时间的大规模数据处理实战看到一篇文章,说
流处理
和批处理,常常混合共生,或者频繁互换。比如有A,B2个数据提供商,A一次性给你数据,你用批处理。B给你实时数据,你用
流处理
。
陈宏斌9527
·
2023-12-27 12:26
Flink
on K8S集群搭建及StreamPark平台安装
1.环境准备1.1介绍在使用
Flink
&Spark时发现从编程模型,启动配置到运维管理都有很多可以抽象共用的地方,目前streampark提供了一个
flink
一站式的
流处理
作业开发管理平台,从
流处理
作业开发到上线全生命周期都做了支持
tuoluzhe8521
·
2023-12-27 10:45
flink
flink
kubernetes
大数据
StreamPark
Harbor
Flink
CDC从Mongodb同步数据至elasticsearch(ES) 新版
Flink
CDC从Mongodb同步数据至elasticsearch(ES)一、DataStreamingAPI方式pom.xml二、主程序-配置三、主程序四、其他问题一、DataStreamingAPI
tuoluzhe8521
·
2023-12-27 10:14
数据同步
mongodb
elasticsearch
flink
大数据
json
datax 同步mongodb数据库到hive(hdfs)和elasticserch(es)
(有点老了,后来发现
flink
cdc都只能监控一张表,多张表无法监控)2.datax版本:自己编译的DataX-datax_v2022103.hdfs版本:3.1.34.hive版本:3.1.2二、同步思路
tuoluzhe8521
·
2023-12-27 10:14
数据同步
mongodb
hive
数据库
json
hadoop
五分钟,Docker安装
flink
,并使用
flink
sql消费kafka数据
1、拉取
flink
镜像,创建网络dockerpull
flink
dockernetworkcreate
flink
-network2、创建jobmanager#创建JobManagerdockerrun\-
刘金宝_Arvin
·
2023-12-27 10:52
Docker
大数据
docker
flink
kafka
初试Kafka
Kafka是一个分布式
流处理
平台,通常用作消息中间件,它可以处理大规模的实时数据流。
老攀呀
·
2023-12-27 08:19
Kafka
kafka
分布式
删除azkaban的执行历史
azkaban通常用在大数据任务调度场景,把任务提交之后,如果任务是spark,hive,hadoop,
flink
等任务的话,
飞有飞言
·
2023-12-27 07:09
深入理解Kafka的原理
Kafka是一个高性能、分布式的消息队列系统,被广泛应用于大规模数据
流处理
的场景中。本文将深入探讨Kafka的原理,包括其核心概念、架构设计以及关键的消息处理流程。
WdzDevops
·
2023-12-27 07:53
kafka
linq
分布式
Java实现Kafka生产者和消费者的示例
Kafka是一种高性能、分布式的
流处理
平台,广泛应用于实时数据
流处理
和消息队列系统。在本文中,我们将介绍如何使用Java语言实现Kafka生产者和消费者,并提供相应的源代码示例。
WdzDevops
·
2023-12-27 07:23
java
kafka
linq
Kafka 单节点安装和测试
Kafka是一个分布式
流处理
平台,它具有高吞吐量、可靠性和可扩展性的特点。在本文中,我们将介绍如何在单节点上安装和测试Kafka。我们将涵盖Kafka的安装过程以及如何通过示例代码进行测试。
WdzDevops
·
2023-12-27 07:23
kafka
分布式
Kafka的分区数设置
Kafka是一个高吞吐量、可持久化、分布式发布订阅消息系统,广泛应用于大规模数据处理和实时
流处理
场景。在Kafka中,分区是实现消息并行处理和提供高可用性的关键概念之一。
WdzDevops
·
2023-12-27 07:52
kafka
分布式
Flink
去重计数统计用户数
1.数据订单表,分别是店铺id、用户id和支付金额"店铺id,用户id,支付金额","shop-1,user-1,1","shop-1,user-2,1","shop-1,user-2,1","shop-1,user-3,1","shop-1,user-3,1","shop-1,user-1,1","shop-1,user-2,1","shop-1,user-4,1","shop-2,user-4
不爱吃鱼的馋猫
·
2023-12-27 06:28
flink
大数据
Flink
-1.17集群部署
1、部署1.1、修改
flink
-conf.yaml1.1.1、
flink
-17jobmanager.rpc.address:boshi-122jobmanager.rpc.port:6123#设置jobmanager
docsz
·
2023-12-27 03:05
flink
flink
大数据
Flink
1.13 Checkpoint原理
介绍
Flink
具体如何保证exactly-once呢?它使用一种被称为"检查点"(checkpoint)的特性,在出现故障时将系统重置回正确状态。下面通过简单的类比来解释检查点的作用。
万事万物
·
2023-12-26 20:23
从零开始学大数据框架Hudi,这些学习网站,助你一臂之力!
Hudi的设计使得您可以在Hadoop兼容的存储之上存储大量数据,并且它提供了两种原语,除了经典的批处理之外,还可以在数据湖上进行
流处理
。
知识分享小能手
·
2023-12-26 20:39
学习心得体会
大数据
大数据
学习
优维产品最佳实践第20期:控制台全链路监控
之前我们会觉得cmdb自动发现没有上报很难排查,弄不清楚数据的上报链路;监控指标的数据断点很难定位,
flink
对现场来说是一个黑盒子;apm数据更新不及时到底是上报异常还是入库失败呢?
优维科技EasyOps
·
2023-12-26 18:53
监控
可观测性
运维
devops
Flink
实战案例四部曲
Flink
实战案例四部曲第一部曲:统计5分钟内用户修改创建删除文件的操作日志数量输入1001,delete1002,update1001,create1002,delte输出1001,21002,2代码如下
play_big_knife
·
2023-12-26 18:51
数据采集
大数据
Flink
flink
java
大数据
实战
【
Flink
-Kafka-To-Mongo】使用
Flink
实现 Kafka 数据写入 Mongo(根据对应操作类型进行增、删、改操作,写入时对时间类型字段进行单独处理)
【
Flink
-Kafka-To-Mongo】使用
Flink
实现Kafka数据写入Mongo(根据对应操作类型进行增、删、改操作)1)导入依赖2)resources2.1.appconfig.yml2.2
bmyyyyyy
·
2023-12-26 17:15
Flink
flink
kafka
mongodb
#kafka2mongo
【
Flink
-Kafka-To-Mysql】使用
Flink
实现 Kafka 数据写入 Mysql(根据对应操作类型进行增、删、改操作)
【
Flink
-Kafka-To-Mysql】使用
Flink
实现Kafka数据写入Mysql(根据对应操作类型进行增、删、改操作)1)导入依赖2)resources2.1.appconfig.yml2.2
bmyyyyyy
·
2023-12-26 17:08
Flink
flink
kafka
mysql
#kafka2mysql
dinky1.0 同步PG 时 修改数据类型
flink
cdc在同步decimal类型数据的时候精度不允许超过38,所以修改为精度超过38就修改为string类型AbstractSinkBuilder.java第237行StringcdcSqlInsert
州周
·
2023-12-26 17:56
python
linux
开发语言
dinky 本地编译并启动
1.1下载源码包后,解压进入idea设置profiles,dev,
flink
州周
·
2023-12-26 17:26
intellij-idea
java
ide
上一页
22
23
24
25
26
27
28
29
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他