E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
flink流式处理
流计算 Oceanus | 巧用
Flink
构建高性能 ClickHouse 实时数仓
作者:董伟柯——腾讯云大数据产品中心高级工程师概述Apache
Flink
是流式计算处理领域的领跑者。它凭借易用、高吞吐、低延迟、丰富的算子和原生状态支持等优势,多方位领先同领域的开源竞品。
腾讯云大数据
·
2023-11-21 07:19
Flink
SQL 性能优化实战
缘起最近我们组在大规模上线
Flink
SQL作业。首先,在进行跑批量初始化完历史数据后,剩下的就是消费Kafka历史数据进行追数了。
坨坨的大数据
·
2023-11-21 02:54
Scala学习笔记
大数据开发中常用Scala进行功能开发,而且大数据处理和计算框架
Flink
和Spark都是基于Scala开发的,学习Scala不仅是进行业务开发的前提,而且是深入研究大数据前言技术的基础。
火影启源
·
2023-11-21 02:02
【
Flink
源码系列】
Flink
源码分析之 Client 端启动流程分析
抛出问题首先来思考一个问题,我们在提交
Flink
任务的时候,在
Flink
客户端执行了下面的命令后,
Flink
客户端做了哪些事情?又是怎么执行我们自己写的代码?相信读完这篇文章你就能找到答案。
JasonLee实时计算
·
2023-11-20 23:05
java
hadoop
spring
android
flink
Flink
源码解析 —— 深度解析
Flink
是如何管理好内存的?
最着名的例子是ApacheHadoop,还有较新的框架,如ApacheSpark、ApacheDrill、Apache
Flink
。
zhisheng_blog
·
2023-11-20 23:03
java
Flink
大数据
流式计算
Java
Flink
Flink
源码分析(一)RPC通信和JobManager启动
写在前面1.
Flink
RPC详解
Flink
使用Akka+Netty框架实现RPC通信,之前在spark框架源码剖析过程中已经对Akka实现RPC通信过程有所介绍,这里不做过多描述。
星星点灯1996
·
2023-11-20 23:03
flink
大数据
flink
-1.11-Standalone模式启动源码解读之Master启动
前面我们分析了Standalone模式下执行start-cluster.sh脚本后的一系列脚本执行流程,最后一步是执行
flink
-daemon.sh脚本,在该脚本中会执行对应的java类,其中JobManager
喜讯XiCent
·
2023-11-20 23:32
flink
flink
第四章 Ambari二次开发之自定义
Flink
服务源码剖析
1、Ambari架构剖析1.1、Ambari概述(1)Ambari目标①核心目标:解决Hadoop生态系统部署问题②实现方式:默认配置写入stack中,在开启时将stack总各个版本的config文件读入,在使用blueprint创建集群部署hadoop时,直接生成command-json文件。(2)Ambari主要概念①资源:ambari将集群及集群中的服务、组件、机器都视为资源,资源的状态都会
随缘清风殇
·
2023-11-20 23:31
#
Ambari二次开发
ambari
hadoop
java
flink
源码启动解析
flink
是近来比较热门的实时流计算引擎,相信大家对于其使用并不陌生。
AnzLee888
·
2023-11-20 23:01
开发记录
java
flink
大数据
分布式
linux
Flink
源码系列(创建JobMaster并生成ExecutionGraph)-第七期
上一期指路:上一期上一期主要讲了
flink
内部的rm的创建,Dispatcher的创建与启动,之前也说过在Dispatcher的启动过程中会涉及JobMaster的创建与启动,那么这一期的主题是创建JobMaster
AiryView
·
2023-11-20 23:59
flink源码系列
flink
大数据
big
data
java
源码
从
flink
-example分析
flink
组件(3)WordCount 流式实战及源码分析
前面介绍了批量处理的WorkCount是如何执行的这篇从WordCount的
流式处理
开始/***Implementsthe"WordCount"programthatcomputesasimplewordoccurrence
aebdm757009
·
2023-11-20 23:59
大数据
Flink
源码解读(三):ExecutionGraph源码解读
ExecutionVertex3、IntermediateResult4、IntermediateResultPartition5、ExecutionEdge6、ExecutionExecutionGraph具体生成流程小结1、
Flink
Stray_Lambs
·
2023-11-20 23:27
Flink
flink
flink
源码分析之功能组件(一)-metrics
简介本系列是
flink
源码分析的第二个系列,上一个《
flink
源码分析之集群与资源》分析集群与资源,本系列分析功能组件,kubeclient,rpc,心跳,高可用,slotpool,rest,metric
中间件XL
·
2023-11-20 23:25
java
flink
源码原理分析
组件
Flink
1.17 Scala/Java MySQL CDC案例
文章目录@[toc]数据表及依赖准备创建MySQL测试数据表开启binlog数据库测试语句导入CDCmaven依赖数据变更标识Java版CDCDataStreamAPI测试TableAPI的CDC代码测试Scala版CDCDataStreamAPI测试TableAPI测试数据表及依赖准备创建MySQL测试数据表需要修改MySQL的配置文件,windows为安装目录下的my.ini,linux为/e
小霖大爆屎
·
2023-11-20 20:27
大数据
scala
java
mysql
flink
bigdata
数据库
sql
Flink
DataStream API (十三)
Flink
输出到 Redis
文章目录输出到Redis输出到RedisRedis是一个开源的内存式的数据存储,提供了像字符串(string)、哈希表(hash)、列表(list)、集合(set)、排序集合(sortedset)、位图(bitmap)、地理索引和流(stream)等一系列常用的数据结构。因为它运行速度快、支持的数据类型丰富,在实际项目中已经成为了架构优化必不可少的一员,一般用作数据库、缓存,也可以作为消息代理。F
Alienware^
·
2023-11-20 20:26
#
Flink
Flink
Flink
源码学习二 用户代码逻辑计划生成 1.17分支
1、Streaming环境获取接上节
flink
调用用户代码的main方法后,用户代码中一般会有如下获取
flink
环境的代码valenv=StreamExecutionEnvironment.getExecutionEnvironment
大数据动物园
·
2023-11-20 20:26
大数据flink学习及问题解决
Flink
的DataStream API的使用------输出算子(Sink)
Flink
的DataStreamAPI的使用文章目录***
Flink
的DataStreamAPI的使用***一、
Flink
的DataStreamAPI的使用------执行环境(ExecutionEnvironment
BrotherXu
·
2023-11-20 20:25
flink
大数据
前端
(八)
Flink
DataStream API 编程指南 - 3 事件时间
在本节中,你将了解
Flink
中用于处理事件时间的时间戳和watermark相关的API。有关事件时间,处理时间和摄取时间的介绍,请参阅事件时间概览小节。
京河小蚁
·
2023-11-20 20:53
flink
flink
java
Flink
1.17学习笔记(自用)
Flink
是什么核心目标:数据流上的有状态计算
Flink
是一个框架和分布式处理引擎,用于对无界和有界数据进行有状态计算
Flink
和Streaming对比
Flink
Streaming计算模型流计算微批处理时间语义事件时间
艾卡西亚暴雨o
·
2023-11-20 20:52
大数据
#
Flink
flink
大数据
Flink
1.17 DataStream API
ExecutionEnvironment)1.1创建执行环境1.2执行模式1.3触发程序执行二.源算子(Source)2.1从集合中读取数据2.2从文件读取数据2.3从RabbitMQ中读取数据2.4从数据生成器读取数据2.5
Flink
后端小菜鸡
·
2023-11-20 20:48
flink
大数据
1024程序员节
python 有ide吗_python有什么ide吗
有木有大神知道
Flink
能否消费多个kafka集群的数据?这个问题有人遇到吗?你们实时读取广业务库到kafka是通过什么读的?
Kingston Chang
·
2023-11-20 18:11
python
有ide吗
flink
kafka flume 从开发到部署遇到的问题及解决方案
最近遇到了比较多的中间件的环境问题整理了些注意事项启动顺序zookeeper->kafka->
flink
->
flink
提交的job->flumekafka的快照保存时间的设置log.retention.hours
Nryana0
·
2023-11-20 18:38
大数据
java
flink
flume
kafka
DockerDesktop:使用docker-compose.yml搭建
Flink
集群
前情提示:利用DockerDesktop搭建
flink
集群,有手动模式和利用docker-compose.yml等等方式,自己手动搭建很麻烦,因为真的很小白,比如说按照其他帖子搭建好之后,一般一个taskManager
DreamLy1017
·
2023-11-20 16:44
DockerDesktop
docker-compose
flink
Flink
最锋利的武器:
Flink
SQL 入门和实战
[TOC]一、
Flink
SQL背景
Flink
SQL是
Flink
实时计算为简化计算模型,降低用户使用实时计算门槛而设计的一套符合标准SQL语义的开发语言。
tracy_668
·
2023-11-20 16:02
flink
消费kafka细节
#
flink
消费kafka细节Apachekafkaconnector提供对Kafka服务的事件流的访问。
Flink
提供了特殊的Kafka连接器,用于从Kafka主题读写数据。
ink时光
·
2023-11-20 16:24
Kafka快速入门
ApacheKafka作为一个高吞吐量、低延迟的分布式消息队列系统,广泛应用于构建实时数据管道、
流式处理
应
知识汲取者
·
2023-11-20 15:01
消息队列
kafka
聊聊
flink
的NetworkBufferPool
序本文主要研究一下
flink
的NetworkBufferPoolBufferPoolFactory
flink
-release-1.7.2/
flink
-runtime/src/main/java/org/
go4it
·
2023-11-20 13:18
【
Flink
】窗口(Window)
本文的重心将放在
Flink
如何进行窗口操作以及开发者如何尽可能地利用
Flink
所提供的功能。
lxtx-0510
·
2023-11-20 13:29
大数据之Flink
flink
大数据
java
intellij-idea
【
Flink
】核心概念:任务槽(Task Slots)
这些资源就是用来独立执行一个子任务的任务槽数量的设置
flink
-conf.yaml可以设
lxtx-0510
·
2023-11-20 13:29
大数据之Flink
flink
大数据
java
【
Flink
】核心概念:并行度与算子链
并行度(Parallelism)当要处理的数据量非常大时,我们可以把一个算子操作,“复制”多份到多个节点,数据来了之后就可以到其中任意一个执行。这样一来,一个算子任务就被拆分成了多个并行的“子任务”(subtasks),再将它们分发到不同节点,就真正实现了并行计算。一个特定算子的子任务(subtask)的个数被称之为其并行度(parallelism)。这样,包含并行子任务的数据流,就是并行数据流,
lxtx-0510
·
2023-11-20 13:58
大数据之Flink
flink
大数据
flink
入门
1.安装
flink
,启动
flink
文档地址:Apache
Flink
1.3-SNAPSHOT中文文档:Apache
Flink
中文文档代码:GitHub-apache/
flink
:Apache
Flink
2.
java斗罗
·
2023-11-20 13:26
flink
大数据
Flink
CDC数据实时同步Mysql到ES
今天给大家介绍一种实时同步方案,就是是使用
flink
cdc来读取数据库日志,并且写入到elasticsearch中。1.什么是
flink
cdc?
Flink
CDC(Change
yangzheng01
·
2023-11-20 13:26
mysql
elasticsearch
数据库
flink
35、
Flink
的 Formats 之CSV 和 JSON Format
Flink
系列文章1、
Flink
部署、概念介绍、source、transformation、sink使用示例、四大基石介绍和示例等系列综合文章链接13、
Flink
的tableapi与sql的基本概念、通用
一瓢一瓢的饮 alanchan
·
2023-11-20 13:18
#
Flink专栏
flink
json
大数据
flink
流批一体化
flink
hive
flink
kafka
flink
json
21、
Flink
的table API与DataStream API 集成(完整版)
Flink
系列文章1、
Flink
部署、概念介绍、source、transformation、sink使用示例、四大基石介绍和示例等系列综合文章链接13、
Flink
的tableapi与sql的基本概念、通用
一瓢一瓢的饮 alanchan
·
2023-11-20 13:47
#
Flink专栏
flink
大数据
flink
hive
flink
sql
flink
kafka
flink
流批
flink
大数据
36、
Flink
的 Formats 之Parquet 和 Orc Format
Flink
系列文章1、
Flink
部署、概念介绍、source、transformation、sink使用示例、四大基石介绍和示例等系列综合文章链接13、
Flink
的tableapi与sql的基本概念、通用
一瓢一瓢的饮 alanchan
·
2023-11-20 13:40
#
Flink专栏
flink
大数据
flink
流批一体化
flink
hive
flink
kafka
flink
orc
flink
parquet
07-Hive优化---高级部分3
一、Hive优化大数据的学习:1、学习工具及其原理(50%~70%)2、学习重要的(java、scala、python、sql[mysql\hivesql\sparksql\
flink
sql])(30%
YuPangZa
·
2023-11-20 12:24
大数据
hive
hadoop
数据仓库
使用
flink
api把数据写到StarRocks存储系统
使用
Flink
的JDBC连接器将数据写入StarRocks存储系统中。
wuchongyong
·
2023-11-20 11:43
flink
java
大数据
flink
读取 starrocks 数据
/bin/
flink
listrunning新补充一些jar包,需要重启clusterCouldnotacquiretheminimumrequiredresources.提示资源不够,需要更改配置https
weixin_42462308
·
2023-11-20 11:11
flink
数据库
sql
springboot集成starrocks、以及采用
flink
实现mysql与starrocks亚秒级同步
一、application.yml(因采用dynamic-datasource-spring-boot-starter动态数据源,所以才是以下配置文件的样式,像redis,druid根据自己情况导入依赖)这个配置文件的场景是把starrocks当成slave库在用。某些大数据慢查询就走starrocks就这样配置好后就可把starrocks当mysql用了#spring配置spring:redis
qq_41369135
·
2023-11-20 11:03
Mysql
spring
boot
flink
mysql
starrocks
Flink
——读取Kafka数据处理后存入StarRocks
授权方式登录登录华为FusionInsightManager下载
flink
user用户的授权文件user.keytab、krb5.conf准备LoginUtil工具类登录代码如下://loginStringuserPrincipal
^o^Smile^_^
·
2023-11-20 11:55
大数据
kafka
flink
分布式
FLINK
SQL将 数据导入至STARROCKS报错
报错信息:"Message":"Thesizeofthisbatchexceedthemaxsize[104857600]ofjsontypedatadata[234201957].解决:'sink.buffer-flush.max-bytes' = '104857600',
朱云婷�
·
2023-11-20 11:53
flink
flink
数据无法写入elasticsearch5且不报错
#前言其实和
flink
没啥关系,只是正好场景使用的是
flink
,问题在于elasticsearch5的参数设置#问题之前代码,数据无法写入,但是也不报错,后来添加了一个参数设置,就可以写入了#参数配置config.put
AinUser
·
2023-11-20 11:23
flink
flink
java
postman
elasticsearch
数据无法写入
flink
查看写入starrocks的数据量 总行数
针对该connector:https://github.com/StarRocks/docs.zh-cn/blob/main/loading/
Flink
-connector-starrocks.md
Thomas2143
·
2023-11-20 11:51
free
flink
大数据
【
Flink
】系统架构
DataStreamAPI将你的应用构建为一个jobgraph,并附加到StreamExecutionEnvironment。当调用env.execute()时此graph就被打包并发送到JobManager上,后者对作业并行处理并将其子任务分发给TaskManager来执行。每个作业的并行子任务将在taskslot中执行。clientClient不是运行时和程序执行的一部分,而是用于准备数据流并
lxtx-0510
·
2023-11-20 08:36
大数据之Flink
flink
系统架构
大数据
big
data
【
Flink
问题集】The generic type parameters of ‘Collector‘ are missing
错误展示:Exceptioninthread"main"org.apache.
flink
.api.common.functions.InvalidTypesException:Thereturntypeoffunction'main
lxtx-0510
·
2023-11-20 07:34
大数据之Flink
flink
大数据
big
data
java
Hbase - 自定义Rowkey规则
在
Flink
中我们有时候需要分析数据1点到2点的范围,可是经过Region又比较慢,这时候我们就可以定制TableInputFormat来实现我们的需求了,我们还可以采用
Flink
的DataSet的方式读取
kikiki2
·
2023-11-20 06:12
flink
问题集锦
报错一:CouldnotgetjobjaranddependenciesfromJARfile:JARfiledoesnotexist:-yn原因:
flink
1.8版本之后已弃用该参数,ResourceManager
drhrht
·
2023-11-20 03:45
java
后端
java
后端
大数据
流式处理
框架
Flink
介绍
1、
Flink
的介绍随着数据的飞速发展,出现了很多热门的开源社区,比如:hadoop、spark、storm社区,他们都有各自专注的适用场景,比如hadoop主要是做数据的存储及批处理计算,spark既可以做批处理也可以做准实时计算
大数据动物园
·
2023-11-20 01:57
大数据flink学习及问题解决
大数据
Flink
实时计算框架简介
文章目录(一)
Flink
介绍(二)
Flink
架构(三)
Flink
三大核心组件(四)
Flink
的流出来和批处理(五)大数据实时计算引擎对比(六)计算框架如何选择(一)
Flink
介绍Apache
Flink
是一个开源的分布式
小崔的技术博客
·
2023-11-20 01:56
大数据学习
flink
大数据
spark
Flink
吐血总结,学习与面试收藏这一篇就够了!!!
Flink
核心特点批流一体所有的数据都天然带有时间的概念,必然发生在某一个时间点。把事件按照时间顺序排列起来,就形成了一个事件流,也叫作数据流。
大数据左右手
·
2023-11-20 01:55
Flink
Flink
上一页
35
36
37
38
39
40
41
42
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他