E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Flink源码学习
org.apache.
flink
.client.deployment.ClusterDeploymentException: Could not deploy Yarn job cluster.
在cdh集群上,通过如下命令,提交
flink
任务到yarn集群中:
flink
run-myarn-cluster-d-ynmmy_
flink
_jobxxx.jar报错,信息如下:org.apache.
flink
.client.program.ProgramInvocationException
赶路人儿
·
2023-12-28 13:42
#
flink
flink
Flink
1.8 on yarn 环境搭建及使用
一、下载
flink
包官网下载
flink
-1.8.1-bin-scala_2.11.tgz,然后解压下载地址https://
flink
.apache.org/downloads.html或https://
magic_kid_2010
·
2023-12-28 13:42
Flink
flink1.8
yarn
Flink
on Yarn实战
使用方式:
flink
的安装包解压之后,即可直接使用,而不需要额外的配置。
fancyChuan
·
2023-12-28 13:11
Flink实战
flink
flink
yarn
flink
on
yarn
Apache
Flink
连载(十八):
Flink
On Yarn运行原理及环境准备
博主个人B栈地址:豹哥教你大数据的个人空间-豹哥教你大数据个人主页-哔哩哔哩视频目录1.
Flink
OnYarn运行原理2.代码及Yarn环境准备
IT贫道
·
2023-12-28 13:40
大数据计算体系技术栈
Apache
Flink
apache
flink
大数据
hadoop hive spark
flink
安装
下载地址Indexof/distubuntu安装hadoop集群准备IP地址主机名称192.168.1.21node1192.168.1.22node2192.168.1.23node3上传hadoop-3.3.5.tar.gz、jdk-8u391-linux-x64.tar.gzJDK环境node1、node2、node3三个节点解压tar-zxvfjdk-8u391-linux-x64.tar
nsa65223
·
2023-12-28 11:59
hadoop
hive
spark
文心ERNIE
源码学习
与实践:为超越ChatGPT打下技术基础!
ERNIE学习与实践:为超越ChatGPT打下技术基础!ERNIE是BERT相爱相杀的好基友,由ERNIE发展起来的文心大模型,是GPT3.0的强劲竞争对手,未来还会挑战ChatGPT的江湖地位!在“BERT学习与实践:为紧追潮流ChatGPT做好技术准备!”项目中,我们从源码到微调从头实践,对BERT有了较详细的了解。在了解BERT的基础上,本项目从头从源码到部署进行了学习和实践。不想当将军的士
skywalk8163
·
2023-12-28 10:21
人工智能
chatgpt
人工智能
nlp
深度学习
飞桨
Flink
--DataSink学习
基于
flink
-1.8.1概述
flink
流式计算中需要经计算的结果进行输出(可以是msyql/hbase/ES等常见的DB或者filesystem,也可以是钉钉/邮件/短信等通知类信息),官网上成为connector
李小李的路
·
2023-12-28 09:36
mybatis
源码学习
------ResultSetHandler之嵌套映射
DefaultResultSetHandler的handleRowValues方法中有两个分支,一个用于处理嵌套映射,一个用于处理简单映射,本文讲分析其处理嵌套映射的分支。handleRowValues方法的定义如下:publicvoidhandleRowValues(ResultSetWrapperrsw,ResultMapresultMap,ResultHandlerresultHandler
A股慈善家
·
2023-12-28 08:41
源码学习
mybatis
mybatis
mybatis源码
嵌套映射
Shiro
源码学习
(一)Filter的创建
一、从web.xml到Spring容器我们在使用spring配置shiro时,有两处需要配置Filter相关的地方:shiroFilterorg.springframework.web.filter.DelegatingFilterProxyshiroFilter/* -->-->/common/**=anon/search/**=anon/static/superAdmin/**=role
finalcola
·
2023-12-28 07:24
源码
shiro
Shiro
源码
Filter
拦截器
Tomcat 7
源码学习
笔记 -7 请求转发forward和重定向redirect
在servlet里面接收到一个请求以后,处理完毕,根据需要可以有几种选择:1.直接提交response,比如response.getWriter().println();这个比较简单,而且不怎么使用,毕竟动态生成html不是很好的选择2.将请求转给其它的资源(比如:forward到jsp,html,servlet)这个有两种方法可以选择,但是无论哪种方法,都是转发到当前context(web应用)
blogzhoubo
·
2023-12-28 07:40
源代码学习笔记
JAVA
WEB编程
servlet
forward
redirect
302
【MyBatis】
源码学习
03 - 类型处理器 TypeHandler
文章目录前言参考目录学习笔记1、`type`包中类的归类总结2、类型处理器2.1、`TypeReference`类3、类型注册表3.1、`TypeHandlerRegistry#getTypeHandler`前言本文内容对应的是书本第8章的内容,主要是关于类型处理器TypeHandler的学习。这一章节的学习有些地方理解还不算深入,Debug之后还是有些不太能够理解的地方,到了后面的章节深入学习之
MichelleChung
·
2023-12-28 07:49
MyBatis
学习笔记
mybatis
Flink
on K8S生产集群使用StreamPark管理
(一)直接部署(手动测试用,不推荐)
Flink
onNativeKubernetes目前支持Application模式和Session模式,两者对比Application模式部署规避了Session模式的资源隔离问题
tuoluzhe8521
·
2023-12-28 02:38
Flink
flink
kubernetes
大数据
streampark
k8s
【知乎大数据技术】用
Flink
取代Spark Streaming!知乎实时数仓架构演进
“数据智能”(DataIntelligence)有一个必须且基础的环节,就是数据仓库的建设,同时,数据仓库也是公司数据发展到一定规模后必然会提供的一种基础服务。从智能商业的角度来讲,数据的结果代表了用户的反馈,获取结果的及时性就显得尤为重要,快速的获取数据反馈能够帮助公司更快的做出决策,更好的进行产品迭代,实时数仓在这一过程中起到了不可替代的作用。本文主要讲述知乎的实时数仓实践以及架构的演进,这包
yoku酱
·
2023-12-27 19:34
基于
Flink
CDC 实现海量数据的实时同步和转换
摘要:本文整理自Apache
Flink
Committer,
Flink
CDCMaintainer,阿里巴巴高级开发工程师徐榜江(雪尽)在5月21日
Flink
CDCMeetup的演讲。
Apache Flink
·
2023-12-27 16:51
大数据
分布式
数据库
flink
深入解读
Flink
CDC 增量快照框架
导读:随着大数据的迅猛发展,企业越来越重视数据的价值,数据采集工具也在不断改进,实时采集工具也在由长链路向短链路发展,今天和大家分享一下
Flink
CDC技术。
学而知之@
·
2023-12-27 16:20
flink
大数据
数据库
Flink
Has Become the De-facto Standard of Streaming Compute
摘要:本文整理自Apache
Flink
中文社区发起人、阿里巴巴开源大数据平台负责人王峰(莫问),在
Flink
ForwardAsia2023主会场的分享。
Apache Flink
·
2023-12-27 16:20
flink
大数据
实战Java springboot 采用
Flink
CDC操作SQL Server数据库获取增量变更数据
ApplicationContextUtil7、自定义sink交由spring管理,处理变更数据前言:我的场景是从SQLServer数据库获取指定表的增量数据,查询了很多获取增量数据的方案,最终选择了
Flink
arden.WANG
·
2023-12-27 16:50
踩坑记录
java相关
数据库
java
spring
boot
flink
sqlserver
Flink
CDC介绍及原理
CDC(ChangeDataCapture)是一种用于捕捉数据库变更数据的技术,
Flink
从1.11版本开始原生支持CDC数据(changelog)的处理,目前已经是非常成熟的变更数据处理方案。
大大大大肉包
·
2023-12-27 16:49
flink
flink
大数据
深入解析
Flink
CDC 增量快照读取机制
一、
Flink
-CDC1.x痛点
Flink
CDC1.x使用Debezium引擎集成来实现数据采集,支持全量加增量模式,确保数据的一致性。
Light Gao
·
2023-12-27 16:47
flink
flink
大数据
flinkcdc
数据同步
mysql
Flink
实时电商数仓之Doris框架(七)
Doris框架大规模并行处理的分析型数据库产品。使用场景:一般先将原始数据经过清洗过滤转换后,再导入doris中使用。主要实现的功能有:实时看板面向企业内部分析师和管理者的报表面向用户或者客户的高并发报表分析即席查询统一数仓构建:替换了原来由Spark,Hive,Kudu,Hbase等旧框架数据湖联邦查询:通过外表的方式联邦分析位于Hive,IceBerg,Hudi中的数据Doris架构后端:C语
十七✧ᐦ̤
·
2023-12-27 16:47
flink
大数据
doris
Flink
输出至 Redis
【1】引入第三方Bahir提供的
Flink
-redis相关依赖包org.apache.bahir
flink
-connector-redis_2.111.0【2】
Flink
连接Redis并输出Sink处理结果
程序猿进阶
·
2023-12-27 14:16
Flink
flink
redis
大数据
java
面试
性能优化
后端
Flink
CDC 原理、实践和优化
本文基于腾讯云Oceanus提供的
Flink
CDC引擎,着重介绍
Flink
在变更数据捕获技术中的应用。一、CDC是什么?
坨坨的大数据
·
2023-12-27 14:33
11.React
源码学习
-任务调度
任务调度任务调度图解:[图片上传失败...(image-8a93f2-1595402854629)]源码在react-reconciler下的ReactFiberScheduler.js内:scheduleWork:functionscheduleWork(fiber:Fiber,expirationTime:ExpirationTime){//更新Fiber及所有子树的expirationTim
goodman__
·
2023-12-27 12:48
Flink
on K8S集群搭建及StreamPark平台安装
1.环境准备1.1介绍在使用
Flink
&Spark时发现从编程模型,启动配置到运维管理都有很多可以抽象共用的地方,目前streampark提供了一个
flink
一站式的流处理作业开发管理平台,从流处理作业开发到上线全生命周期都做了支持
tuoluzhe8521
·
2023-12-27 10:45
flink
flink
kubernetes
大数据
StreamPark
Harbor
Flink
CDC从Mongodb同步数据至elasticsearch(ES) 新版
Flink
CDC从Mongodb同步数据至elasticsearch(ES)一、DataStreamingAPI方式pom.xml二、主程序-配置三、主程序四、其他问题一、DataStreamingAPI
tuoluzhe8521
·
2023-12-27 10:14
数据同步
mongodb
elasticsearch
flink
大数据
json
datax 同步mongodb数据库到hive(hdfs)和elasticserch(es)
(有点老了,后来发现
flink
cdc都只能监控一张表,多张表无法监控)2.datax版本:自己编译的DataX-datax_v2022103.hdfs版本:3.1.34.hive版本:3.1.2二、同步思路
tuoluzhe8521
·
2023-12-27 10:14
数据同步
mongodb
hive
数据库
json
hadoop
五分钟,Docker安装
flink
,并使用
flink
sql消费kafka数据
1、拉取
flink
镜像,创建网络dockerpull
flink
dockernetworkcreate
flink
-network2、创建jobmanager#创建JobManagerdockerrun\-
刘金宝_Arvin
·
2023-12-27 10:52
Docker
大数据
docker
flink
kafka
删除azkaban的执行历史
azkaban通常用在大数据任务调度场景,把任务提交之后,如果任务是spark,hive,hadoop,
flink
等任务的话,
飞有飞言
·
2023-12-27 07:09
Flink
去重计数统计用户数
1.数据订单表,分别是店铺id、用户id和支付金额"店铺id,用户id,支付金额","shop-1,user-1,1","shop-1,user-2,1","shop-1,user-2,1","shop-1,user-3,1","shop-1,user-3,1","shop-1,user-1,1","shop-1,user-2,1","shop-1,user-4,1","shop-2,user-4
不爱吃鱼的馋猫
·
2023-12-27 06:28
flink
大数据
Flink
-1.17集群部署
1、部署1.1、修改
flink
-conf.yaml1.1.1、
flink
-17jobmanager.rpc.address:boshi-122jobmanager.rpc.port:6123#设置jobmanager
docsz
·
2023-12-27 03:05
flink
flink
大数据
Flink
1.13 Checkpoint原理
介绍
Flink
具体如何保证exactly-once呢?它使用一种被称为"检查点"(checkpoint)的特性,在出现故障时将系统重置回正确状态。下面通过简单的类比来解释检查点的作用。
万事万物
·
2023-12-26 20:23
优维产品最佳实践第20期:控制台全链路监控
之前我们会觉得cmdb自动发现没有上报很难排查,弄不清楚数据的上报链路;监控指标的数据断点很难定位,
flink
对现场来说是一个黑盒子;apm数据更新不及时到底是上报异常还是入库失败呢?
优维科技EasyOps
·
2023-12-26 18:53
监控
可观测性
运维
devops
Flink
实战案例四部曲
Flink
实战案例四部曲第一部曲:统计5分钟内用户修改创建删除文件的操作日志数量输入1001,delete1002,update1001,create1002,delte输出1001,21002,2代码如下
play_big_knife
·
2023-12-26 18:51
数据采集
大数据
Flink
flink
java
大数据
实战
【
Flink
-Kafka-To-Mongo】使用
Flink
实现 Kafka 数据写入 Mongo(根据对应操作类型进行增、删、改操作,写入时对时间类型字段进行单独处理)
【
Flink
-Kafka-To-Mongo】使用
Flink
实现Kafka数据写入Mongo(根据对应操作类型进行增、删、改操作)1)导入依赖2)resources2.1.appconfig.yml2.2
bmyyyyyy
·
2023-12-26 17:15
Flink
flink
kafka
mongodb
#kafka2mongo
【
Flink
-Kafka-To-Mysql】使用
Flink
实现 Kafka 数据写入 Mysql(根据对应操作类型进行增、删、改操作)
【
Flink
-Kafka-To-Mysql】使用
Flink
实现Kafka数据写入Mysql(根据对应操作类型进行增、删、改操作)1)导入依赖2)resources2.1.appconfig.yml2.2
bmyyyyyy
·
2023-12-26 17:08
Flink
flink
kafka
mysql
#kafka2mysql
dinky1.0 同步PG 时 修改数据类型
flink
cdc在同步decimal类型数据的时候精度不允许超过38,所以修改为精度超过38就修改为string类型AbstractSinkBuilder.java第237行StringcdcSqlInsert
州周
·
2023-12-26 17:56
python
linux
开发语言
dinky 本地编译并启动
1.1下载源码包后,解压进入idea设置profiles,dev,
flink
州周
·
2023-12-26 17:26
intellij-idea
java
ide
Flink
的waterMark实现解决乱序以及延迟数据
1、watermark的作用watermark是用于处理乱序事件的,而正确的处理乱序事件,通常用watermark机制结合window来实现。我们知道,流处理从事件产生,到流经source,再到operator,中间是有一个过程和时间的。虽然大部分情况下,流到operator的数据都是按照事件产生的时间顺序来的,但是也不排除由于网络、背压等原因,导致乱序的产生(out-of-order或者说lat
我还不够强
·
2023-12-26 15:30
Flink
SQL Create 语法
主要引用官方文档https://ci.apache.org/projects/
flink
/
flink
-docs-release-1.13/docs/dev/table/sql/createCREATE语句用于注册表
Alex90
·
2023-12-26 13:32
【
flink
番外篇】7、
flink
的State(Keyed State和operator state)介绍及示例(2) - operator state
Flink
系列文章一、
Flink
专栏
Flink
专栏系统介绍某一知识点,并辅以具体的示例进行说明。1、
Flink
部署系列本部分介绍
Flink
的部署、配置相关基础内容。
一瓢一瓢的饮 alanchan
·
2023-12-26 11:04
flink
示例专栏
flink
大数据
kafka
flink
kafka
flink
流批一体化
flink
hive
flink
state
【
flink
番外篇】7、
flink
的State(Keyed State和operator state)介绍及示例 - 完整版
Flink
系列文章一、
Flink
专栏
Flink
专栏系统介绍某一知识点,并辅以具体的示例进行说明。1、
Flink
部署系列本部分介绍
Flink
的部署、配置相关基础内容。
一瓢一瓢的饮 alanchan
·
2023-12-26 11:34
flink
示例专栏
flink
大数据
kafka
flink
hive
flink
sql
flink
实时计算
bigdata
【
flink
番外篇】7、
flink
的State(Keyed State和operator state)介绍及示例(1) - Keyed State
Flink
系列文章一、
Flink
专栏
Flink
专栏系统介绍某一知识点,并辅以具体的示例进行说明。1、
Flink
部署系列本部分介绍
Flink
的部署、配置相关基础内容。
一瓢一瓢的饮 alanchan
·
2023-12-26 11:04
flink
示例专栏
flink
大数据
flink
hive
kafka
flink
sql
flink
状态
flink
大数据
【
flink
番外篇】8、
flink
的Checkpoint容错机制(配置、重启策略、手动恢复)介绍及示例(1) - checkpoint配置及实现
Flink
系列文章一、
Flink
专栏
Flink
专栏系统介绍某一知识点,并辅以具体的示例进行说明。1、
Flink
部署系列本部分介绍
Flink
的部署、配置相关基础内容。
一瓢一瓢的饮 alanchan
·
2023-12-26 11:30
flink
示例专栏
flink
大数据
kafka
flink
sql
flink
hive
clickhouse
flink
容错机制
Iceberg1.4.2 java 表管理(DDL和DML)操作
既然是一种开放的表管理格式,那就不应该依赖hadoop,hive,spark,
flink
smileyboy2009
·
2023-12-26 10:26
java
开发语言
spark和
flink
对比
最近网上和各大公司在对比spark和
flink
,也有一部分人,演讲时不分析代码原理,不根据事实,直接吹嘘
flink
比spark好,
flink
能干掉spark的话,今天就跟大家从技术,应用和未来发展角度对两个产品进行对比
smileyboy2009
·
2023-12-26 10:25
spark
flink
数据仓库
大数据
【OpenGauss
源码学习
—— 列存储(获取表大小)】
获取表大小概述pg_table_size函数calculate_table_size函数calculate_table_file_size函数CalculateCStoreRelationSize函数calculate_relation_size函数声明:本文的部分内容参考了他人的文章。在编写过程中,我们尊重他人的知识产权和学术成果,力求遵循合理使用原则,并在适用的情况下注明引用来源。本文主要参考
J.Kuchiki
·
2023-12-26 09:37
OpenGauss
gaussdb
数据库
【
Flink
-Kafka-To-Kafka】使用
Flink
实现 Kafka 数据写入 Kafka
【
Flink
-Kafka-To-Kafka】使用
Flink
实现Kafka数据写入Kafka1)导入依赖2)代码实现2.1.resources2.1.1.appconfig.yml2.1.2.log4j.properties2.1.3
bmyyyyyy
·
2023-12-26 07:59
Flink
flink
kafka
#kafka2kafka
Flink
电商实时数仓(六)
交易域支付成功事务事实表从topic_db业务数据中筛选支付成功的数据从dwd_trade_order_detail主题中读取订单事实数据、LookUp字典表关联三张表形成支付成功宽表写入Kafka支付成功主题执行步骤设置ttl,通过Intervaljoin实现左右流的状态管理获取下单明细数据:用户必然要先下单才有可能支付成功,因此支付成功明细数据集必然是订单明细数据集的子集。要注意:Interv
十七✧ᐦ̤
·
2023-12-26 07:25
flink
数据库
java
iceberg1.4.2 +minio通过spark创建表,插入数据
下层支持hadoop,s3,对象存储,上层支持hive,spark,
flink
等应用。实现在中间把两部分隔离开来,实现一种对接和数据管理的标准。有这个标准,不管是谁建的表,都可以操作和访问。
smileyboy2009
·
2023-12-26 06:39
spark
大数据
分布式
【Linux系统基础】(6)在Linux上大数据NoSQL数据库HBase集群部署、分布式内存计算Spark环境及
Flink
环境部署详细教程
大数据NoSQL数据库HBase集群部署简介HBase是一种分布式、可扩展、支持海量数据存储的NoSQL数据库。和Redis一样,HBase是一款KeyValue型存储的数据库。不过和Redis设计方向不同Redis设计为少量数据,超快检索HBase设计为海量数据,快速检索HBase在大数据领域应用十分广泛,现在我们来在node1、node2、node3上部署HBase集群。安装HBase依赖Zo
老牛源码
·
2023-12-26 06:13
Linux教程
大数据
分布式
linux
上一页
21
22
23
24
25
26
27
28
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他