E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
大数据框架flink
Linux学习笔记——分布式内存计算
Flink
环境部署
5.13、分布式内存计算
Flink
环境部署5.13.1、简介
Flink
同Spark一样,是一款分布式内存计算引擎,可以支撑海量数据的分布式计算。
kxttmx
·
2023-10-19 05:11
分布式
linux
学习
flink
hadoop
分布式内存计算Spark环境部署与分布式内存计算
Flink
环境部署
目录分布式内存计算Spark环境部署1.简介2.安装2.1【node1执行】下载并解压2.2【node1执行】修改配置文件名称2.3【node1执行】修改配置文件,spark-env.sh2.4【node1执行】修改配置文件,slaves2.5【node1执行】分发2.6【node2、node3执行】设置软链接2.7【node1执行】启动Spark集群2.8打开Spark监控页面,浏览器打开:2.
时光の尘
·
2023-10-19 05:03
Linux学习
分布式
spark
大数据
flink
StringBuilder
constructor
大数据之
Flink
简介和算子介绍
大数据之
Flink
简介和算子介绍一、
Flink
简介1、
Flink
的特点2、
Flink
的安装本地启动集群启动3、
Flink
提交作业4、
Flink
的部署模式5、
Flink
的本地模式6、
Flink
的Yarn模式
梦回pq
·
2023-10-19 04:45
大数据
大数据
flink
java
大数据之
Flink
简介第三部分
大数据之
Flink
简介第三部分十、
Flink
容错机制1、检查点检查点的保存检查点的配置保存点(Savepoint)2、状态一致性状态一致性概念端到端精确一次
Flink
和Kafka十一、
Flink
TableAPI
梦回pq
·
2023-10-19 04:45
大数据
flink
java
Spark Streaming 原理与实践
目前流计算领域也出现了一些流处理工具,如Storm、
Flink
和KafkaStreams。但是这些工具都有自己独有的编程模型,并且支持的语
禅与计算机程序设计艺术
·
2023-10-19 04:12
Python
大数据AI人工智能
大数据
人工智能
语言模型
Java
Python
架构设计
2.3 如何使用
Flink
SQL读取&写入到JDBC(MySQL)
1、JDBCSQL连接器
Flink
SQL允许使用JDBC连接器,向任意类型的关系型数据库读取或者写入数据添加Maven依赖org.apache.
flink
flink
-connector-jdbc3.1.0
广阔天地大有可为
·
2023-10-19 03:05
#
FlinkSQL
使用技巧
mysql
java
数据库
flink
-sql所有表连接器-1.16
1.版本说明本文档内容基于
flink
-1.16.x,其他版本的整理,请查看本人博客的
flink
专栏其他文章。
第一片心意
·
2023-10-19 03:03
flink
flink
flink
sql
flink
sql连接器
流批一体计算引擎-5-[
Flink
]的Python Table API和SQL程序
参考
Flink
从入门到入土(详细教程)参考
flink
的默认窗口触发机制参考彻底搞清
Flink
中的Window参考官方PythonAPI文档1IDEA中运行
Flink
从
Flink
1.11版本开始,Py
Flink
皮皮冰燃
·
2023-10-19 03:02
Flink
flink
2.4 如何在
Flink
SQL使用DataGen(数据生成器)
1、DataGenSQL连接器
FLink
SQL中可以使用内置的DataGenSQL连接器来生成测试数据官网链接:DataGenSQL连接器2、随机数数据生成器随机数数据生成器支持随机生成char、varchar
广阔天地大有可为
·
2023-10-19 02:55
#
FlinkSQL
使用技巧
数据库
Flink
1.15.4+
flink
cdc+Dinky0.7.3+Mysql5.7+Doris1.2.1实现实时同步
一、下载软件
Flink
1.15.1:https://download.csdn.net/download/qq_37247664/88192279Dinky0.7.3:https://download.csdn.net
向大之路
·
2023-10-19 02:49
linux
运维
服务器
一条 SQL 的查询计划生成之旅【上】
不仅Apache
Flink
、ApacheDruid、ApacheHive等明星开源项目在使用Calcite,腾讯天穹SuperSQL、阿里MaxCompute、Dremio等商业化产品的SQLPlanner
Aloudata技术团队
·
2023-10-18 23:35
技术实战
sql
Apache Doris 系列: 基础篇-
Flink
SQL写入Doris
简介本文介绍
Flink
SQL如何流式写入ApacheDoris,分为一下几个部分:
Flink
DorisconnectorDorisFE节点配置
Flink
SQL写Doris
Flink
Dorisconnector
Flink
Dorisconnector
修破立生
·
2023-10-18 21:25
Apache
Doris
Flink
flink
apache
doris
大数据
big
data
flink
sql
Flink
之转换算子 (Transformation)
一个
Flink
程序的核心,其实就是所有的转换操作,它们决定了处理的业务逻辑。基本转换算子映射(map)map是大家非常熟悉的大数据操作算子,主要用于将数据流中的数据进行转换,形成新的数据流。
四维大脑
·
2023-10-18 21:51
Flink
flink
【
Flink
】转换算子 flatMap
一、实体类@DatapublicclassEvent{publicStringuser;publicStringurl;publicLongtimestamp;publicEvent(Stringuser,Stringurl,Longtimestamp){this.user=user;this.url=url;this.timestamp=timestamp;}}二、自定义数据源模拟流式数据pub
没有BUG就是最大的BUG
·
2023-10-18 21:51
Flink
flink
java
大数据
三、
Flink
常用的转换算子
Flink
常用转换算子常用转换算子类型一、基本转换算子1、map2、filter3、flatMap二、键控流转换算子1、keyBy:分组聚合,类似spark的groupByKey算子,将相同的key存到同一个分区中
末名赶上
·
2023-10-18 21:20
flink学习
java
flink
spark
stream
lambda
【
Flink
】DataStream API使用之转换算子(Transformation)
转换算子(Transformation)数据源读入数据之后,就是各种转换算子的操作,将一个或者多个DataSream转换为新的DataSteam,并且
Flink
可以针对一条流进行转换处理,也可以进行分流或者河流等多流转换操作
sdut菜鸟
·
2023-10-18 21:47
Flink从0开始
flink
java
大数据
Flink
转换算子
文章目录映射(map)过滤(filter)扁平映射(flatMap)聚合算子(Aggregation)按键分区(keyBy)+简单聚合归约聚合(reduce)用户自定义函数(UDF)函数类匿名函数(Lambda表达式)富函数类(RichFunctionClasses)物理分区(PhysicalPartitioning)映射(map)基于DataStream调用map()方法就可以进行转换处理,方法
未来影子
·
2023-10-18 21:15
Flink
flink
【2】
flink
数据流转换算子
【README】本文记录了
flink
对数据的转换操作,包括基本转换,map,flatMap,filter;滚动聚合(minminBymaxmaxBysum);规约聚合-reduce;分流;connect
PacosonSWJTU
·
2023-10-18 21:41
flink
flink
Flink
基本转换算子(Transformation) Map Filter FlatMap
自定义源算子importorg.apache.
flink
.streaming.api.functions.source.SourceFunctionimportjava.util.Calendarimportscala.util.Random
BigData_001_Lz
·
2023-10-18 21:40
笔记
scala
flink
大数据
spark
filter
Flink
之转换算子Transformation
转换算子Transformation概述基本转换算子映射Map扁平映射flatMap过滤Filter聚合算子按键分区keyBy归约聚合reduce简单聚合sum、min、max、minBy、maxBy物理分区算子随机分配轮询分配重缩放广播全局分区自定义分区分流操作Filter分流SideOutPut分流Split分流合流操作联合Union连接ConnectCoMap、CoFlatMapCoProc
CodeDevMaster
·
2023-10-18 21:37
#
Flink
flink
hadoop
spark
Learn
Flink
—— Intro to the DataStream API 1.13
Flink
的Java和ScalaDataStreamAPI可以将任何可序列化的对象转化为流。
lukeyan
·
2023-10-18 20:29
Flink
Sql 实用记录
SinkKafka错误1:doesn'tsupportconsumingupdateanddeletechangeswhichisproducedbynodeTableSourceScan解答:
flink
1.11
爱喝红酒
·
2023-10-18 18:03
Flink
SQL
flink
Flink
SQL 解决No ExecutorFactory found to execute the application
Exceptioninthread"main"java.lang.IllegalStateException:NoExecutorFactoryfoundtoexecutetheapplication.atorg.apache.
flink
.core.execution.DefaultExecutorServiceLoader.getExecutorFactory
爱喝红酒
·
2023-10-18 18:03
Flink
SQL
Flink
递归读取目录下文件
valparameters=newConfiguration//recursive.file.enumeration开启递归获取目录下所有文件parameters.setBoolean("recursive.file.enumeration",true)创建dataset://0.用element创建DataSet(fromElements)valds0:DataSet[String]=env.f
爱喝红酒
·
2023-10-18 18:32
kafka、zookeeper、
flink
测试环境、docker
1、kafka环境单点根据官网版本说明(3.6.0)发布,zookeeper依旧在使用状态,预期在4.0.0大版本的时候彻底抛弃zookeeper使用KRaft(ApacheKafka)官方并给出了zk迁移KR的文档2、使用docker启动单点kafka1、首先将kafka启动命令,存储为.service结尾的系统服务文件,并指定存储在/etc/systemd/system/目录下2、kafk.s
爱喝红酒
·
2023-10-18 18:48
Flink
SQL
kafka
Linux
kafka
zookeeper
flink
Flink
源码解析(一、source原理)
文章目录背景逻辑原理connector架构sql处理阶段代码实例代码debug参考文献背景source/sink是
flink
最核心的部分之一,通过对其实现原理的学习,结合源码debug,有助于加深对框架处理过程的理解
yyoc97
·
2023-10-18 17:50
大数据
flink
flink
大数据
源码解析
source
Flink
1.14版本DataSet已废弃,Streaming和Batch统一改用DataStream
目录1.Streaming模式1.1代码Demo1.2
flink
run命令2.Batch模式2.1代码Demo2.2
flink
run命令1.Streaming模式1.1代码DemopackageapiTestimportorg.apache.
flink
.api.common.RuntimeExecutionModeimportorg.apache.
flink
.api.common.function
Bulut0907
·
2023-10-18 17:50
#
Flink
batch
dataset
streaming
flink
1.14
Flink
1.14 connector-jdbc插入更新(Upsert)模式的源码解析
基于
flink
jdbc方言(dialect)里不同Statement何时、如何被调用的思考。
kene213
·
2023-10-18 17:47
Flink
flink
sql
大数据
flink
1.14的混合源
1、DataStream和Table/SQL混合应用的批执行模式在
Flink
1.14中,有界的批执行模式的SQL/Table应用可将其中间数据表转换成数据流,经过由DataStreamAPI定义的算子处理
平平无奇小码农
·
2023-10-18 17:17
笔记
flink
|
Flink
1.14新特性预览
欢迎加博主微信:threeknowbigdata,拉你进大数据群、
Flink
流计算群大家好,我是土哥。目前在某互联网大厂担任大数据算法工程师。
3分钟秒懂大数据
·
2023-10-18 17:46
Flink
big
data
flink
【
Flink
1.14 实战】
Flink
DataStream wordcount 快速开始
使用以下命令之一创建项目:$mvnarchetype:generate-DarchetypeGroupId=org.apache.
flink
-DarchetypeArtifactId=
flink
-quicksta
吕布辕门
·
2023-10-18 17:10
Flink
1.14
实战
flink
Flink
系例之 SQL 案例 - 游戏上报数据统计
本期示例本示例通过模拟上报数据展现玩家在游戏内的登录、退出、创角、升级等事件,从而了解游戏运营动态;玩家进入游戏后,通常游戏内会进行定时事件上报,后台通过上报数据分析不同的游戏热度。通过玩家在游戏内的行为事件,分析游戏内玩家的存活度或游戏粘性;统计说明统计维度当天游戏在线总人数每分钟游戏登录人数每分钟游戏退出人数每分钟游戏升级人数每分钟角色分类人数每分钟游戏区服人数各游戏角色占比输出效果数据流在f
不会飞的小龙人
·
2023-10-18 17:09
Flink
flink
sql
大数据
Flink
SQL 时区
大数据技术AI
Flink
/Spark/Hadoop/数仓,数据分析、面试,源码解读等干货学习资料95篇原创内容公众号TIMESTAMPvsTIMESTAMP_LTZTIMESTAMP类型TIMESTAMP
hyunbar
·
2023-10-18 17:38
Flink
大数据
分布式
java
大数据
数据分析小结:使用流计算 Oceanus(
Flink
) SQL 作业进行数据类型转换
将数据从来源端经过抽取(extract)、转换(transform)、加载(load)至目的端的过程(即ETL过程),则需要开发人员则需要掌握Spark、
Flink
等技能,使用的技术语言则是Java、Sc
腾讯云大数据
·
2023-10-18 17:38
字符串
可视化
大数据
python
java
Flink
1.14学习测试:将数据写入到Hive&Hdfs(二)
Flink
1.14学习测试:将数据写入到Hive&Hdfs(二)参考KafkaSQL连接器:https://nightlies.apache.org/
flink
/
flink
-docs-master/zh
lyanjun
·
2023-10-18 17:37
Hadoop组件使用记录
hive
hdfs
kafka
flink
sink
hive
Flink
SQL源码解析(三)执行流程
1、前言前面2部分主要是介绍以下2点:
flink
sql整体的执行流程大致为:sqlNode-->Operation-->RelNode-->优化-->execNode-->Transformation。
Yuan_CSDF
·
2023-10-18 17:07
#
Flink源码解析
flink
源码解析
Flink
类型转换与东八时区问题处理
实时计算支持的数据类型数据类型说明值域VARCHAR可变长度字符串VARCHAR最大容量为4MB。BOOLEAN逻辑值取值为TRUE、FALSE或UNKNOWN。TINYINT微整型,1字节整数。-128~127SMALLINT短整型,2字节整数。-32768~32767INT整型,4字节整数。-2147483648~2147483647BIGINT长整型,8字节整数。-9223372036854
房石阳明i
·
2023-10-18 17:06
flink
mysql
sql
oracle
java
Flink
1.14新特性介绍及尝鲜
一、
Flink
简介l官网:Apache
Flink
:StatefulComputationsoverDataStreamslApache
Flink
是一个框架和分布式处理引擎,用于对无界和有界数据流进行有状态计算
骨灰级收藏家
·
2023-10-18 17:36
Python编程
大数据
人工智能
大数据
flink
TableSQL
Pyhton
Flink
1.14 SplitEnumerator概念入门讲解与源码解析 (二)
目录SplitEnumerator概念SplitEnumerator源码voidstart()voidhandleSplitRequest(intsubtaskId,@NullableStringrequesterHostname);voidaddSplitsBack(Listsplits,intsubtaskId);voidaddReader(intsubtaskId);CheckpointTs
Stray_Lambs
·
2023-10-18 17:36
Flink
java
flink
Flink
SQL 时区 -- 时间字符串转时间戳并转换时区
文章目录一、数据需求:二、探索路程1、UNIX_TIMESTAMP+CONVERT_TZ2、UNIX_TIMESTAMP三、解决方案TIMESTAMPADD+TO_TIMESTAMP一、数据需求:将时间字符串格式化,转变成时间戳,再加8小时后写入clickhouse2023-10-17T03:00:42.506205807---->2023-10-1711:00:42.506二、探索路程1、UNI
//承续缘_纪录片
·
2023-10-18 17:34
#
Flink
flink
sql
Flink
1.14 SourceReader概念入门讲解与源码解析 (三)
目录SourceReader概念SourceReader源码方法voidstart();InputStatuspollNext(ReaderOutputoutput)throwsException;ListsnapshotState(longcheckpointId);CompletableFutureisAvailable();voidaddSplits(Listsplits);参考Source
Stray_Lambs
·
2023-10-18 17:04
Flink
flink
Flink
对于CEP的大概实现
CEP和状态机状态机的表示和如何作用在流上
Flink
中CEP的一般代码结构如下:valinput=env.fromElements(newEvent(1,"barfoo",1.0),newEvent(2
天之見證
·
2023-10-18 15:18
Flink
系列(二)
Flink
配置文件详解
安装好
Flink
后,我们来看下安装路径下的配置文件。安装目录下主要有
flink
-conf.yaml配置、日志的配置文件、zk配置、
Flink
SQLClient配置。
香山上的麻雀
·
2023-10-18 14:56
尚硅谷
Flink
(四)处理函数
目录处理函数基本处理函数按键分区处理函数(KeyedProcessFunction)定时器(Timer)和定时服务(TimerService)//1、事件时间的案例//2、处理时间的案例//3、获取process的当前watermark侧输出流状态管理什么是状态按键分区状态值状态(ValueState)列表状态(ListState)Map状态(MapState)归约状态(ReducingState
Int mian[]
·
2023-10-18 12:47
flink
大数据
尚硅谷
Flink
(完)
Flink
SQL
Flink
SQLTableAPI和SQL是最上层的API,在
Flink
中这两种API被集成在一起,SQL执行的对象也是
Flink
中的表(Table),所以我们一般会认为它们是一体的。
Int mian[]
·
2023-10-18 12:11
flink
大数据
回顾 | Apache
Flink
x Iceberg Meetup · 上海站精彩回顾 (附PPT下载)
4月17日,Apache
Flink
Meetup上海站圆满结束!
Apache Flink
·
2023-10-18 11:46
人工智能
编程语言
flink
数据分析
数据可视化
精彩回顾 | Apache
Flink
Meetup · 北京站(附PPT下载)
9月21日下午,2019年度最后一场Meetup在帝都圆满落幕,来自阿里巴巴、小米、贝壳找房的资深专家们现场分享了小米的
Flink
应用实践、贝壳找房的实时数仓建设、
Flink
资源管理机制以及
Flink
PythonAPI
Apache Flink
·
2023-10-18 11:46
Flink
-Gelly:Iterative Graph Processing
Gelly利用
Flink
的高效迭代算子来支持海量数据的迭代式图处理。
老羊_肖恩
·
2023-10-18 11:26
修炼k8s+
flink
+hdfs+dlink(五:安装dockers,cri-docker,harbor仓库)
一:安装docker。(所有服务器都要安装)安装必要的一些系统工具sudoyuminstall-yyum-utilsdevice-mapper-persistent-datalvm2添加软件源信息sudoyum-config-manager--add-repohttps://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.reposudose
宇智波云
·
2023-10-18 08:40
docker
kubernetes
flink
hdfs
docker
【实战】
flink
读取hive写入redis
一、业务背景业务需求:需要实时统计截止到目前存量订购用户数根据指标口径:截止到目前依旧处于订购状态的用户分析:根据离线计算统计出来的,目前存量用户有2E多,而要实时统计该指标,需要将新的订购日志与这2E多数据进行比对,当前该用户如果不是订购状态,则存量订购用户数+1。并且统计的存量用户的清单表在hive中,如果每来一条日志,就去查询一下hive表,太慢了。所以将数据加载到redis中,不仅可以比对
槐序i
·
2023-10-18 07:28
flink
redis
hive
上一页
54
55
56
57
58
59
60
61
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他