E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Kafka源码分析
Lucene
源码分析
——BKD-Tree
Lucene
源码分析
——BKD-Tree-AIQBkd-TreeBkd-Tree作为一种基于K-D-B-tree的索引结构,用来对多维度的点数据(multi-dimensionalpointdata)集进行索引
大叶子不小
·
2024-01-25 05:17
lucene
python使用
kafka
初步入门
kafka
的使用zookeeper相关zookeeper的安装,查看文档:zookeeper的使用在
kafka
中,zookeeper主要存
kafka
节点的数据。
Tang_Lyan
·
2024-01-25 05:23
GreptimeDB v0.6 发布 | 支持 Datanodes 间迁移数据表 Region
接下来我们将介绍GreptimeDBv0.6的主要版本改进:v0.6功能上新其他亮点更新RegionMigration在v0.5版本中,我们引入了对
Kafka
WAL的支持,使得在多个Datanode之
Greptime
·
2024-01-25 03:12
时序数据库
云原生
rust
数据库
数据库开发
时序数据库
源码分析
:Redis hash和Java HashMap、ConcurrentHashMap区别
简述大家在开发工作中经常使用的key-value的数据结构,像Java中有HashMap,线程安全的ConcurrentHashMap,在Redis中hash结构更是最基础的;这里我们来分析一下它们的底层数据结构,包括如何扩容的;HashMapJava的HashMap是比较传统的数据结构了,网上关于HashMap的数据结构介绍有很多,就不再过多赘述了,这里咱们以JDK1.8的为主;我们重点关注Ha
史啸天
·
2024-01-25 02:28
Spring系列之Spring常用注解总结
交流群:818491202验证:33关注公众号领资料搜索公众号【Java耕耘者】,回复【Java】,即可获取大量优质电子书和一份Java高级架构资料、Spring
源码分析
、Dubbo、Redis、Netty
Java耕耘者
·
2024-01-25 01:19
源码分析
:高性能限流器Guava RateLimiter
主题本章我们来分析GuavaRateLimiter是如何解决高并发场景下的限流问题的Guava是Google开源的Java类库,提供了一个工具类RateLimiter。使用时候必须加入以下依赖:com.google.guavaguava${version}其中${version}参考https://search.maven.org/search?q=g:com.google.guava%20AND
逗逼程序员
·
2024-01-25 01:19
Python requests网络库
源码分析
(第三篇:通过学习异常模块,了解http协议)
前言作者在requests包下,定义了exceptions模块,该模块中定义执行http请求过程中常见的错误,熟悉这些错误有助于我们写出健壮的业务程序,同时还能温习http的知识点,本文基于的requests版本为2.27.1exceptions模块,位于requests包中exceptions模块中又定义了很多类,每个类创建的对象,代表一个http错误,可见作者对于http协议有多熟悉逐个介绍一
叫我王员外就行
·
2024-01-25 00:03
Python
requests网络库源码分析
学习
flask_apscheduler
源码分析
前言遵循flask框架的标准的库,称为flask扩展,flask_apscheduler模块就是一个flask扩展,它使用了flask编程上下文,同时内部完全依赖apscheduler。我近期使用flask_apscheduler遇到了一个所有job全部死亡的bug。现象:job平时是正常启动的,突然某个时刻全部挂了,所以需要分析一遍源码,找出解决方案,同时也能提高自己的代码阅读能力,大家一起学习
叫我王员外就行
·
2024-01-25 00:32
flask
python
后端
ThreadLocal
image.pngThreadLocal的
源码分析
Thread类中有个变量threadLocals,
程序员札记
·
2024-01-24 23:42
linuxPWM子系统
源码分析
--Apple的学习笔记
一,前言所谓学习,那么就和单纯完成任务是不同的,我的学习也是有目标的,那么从linux驱动开发的角度来说,若只是配置下就能用了,这样有点知其然而不知其所以然,所以我的目标就是先会用,然后学习框架及源码,便于将来遇到问题后调试定位和代码优化。另外,最主要的就是学习linux中面向对象的抽象设计思路。所以做完了SG90的PWM后,那么就要分析PWM源码了。并且发现了看源码有助于我在写驱动的时候对函数的
applecai
·
2024-01-24 21:03
基于redis实现消息队列
市面上的MQ应用有很多(例如:
Kafka
,RabbitMQ,Disque),同时也可以基于Redis来实现,比较典型的方案有:基于List的LPUSH+BRPOP的实现PUB/SUB,订阅/发布模式基于
tracy_668
·
2024-01-24 21:12
Kafka
高可用集群安装
开始安装配置Kafaka1.编辑server.properties文件#############################ServerBasics##############################Theidofthebroker.Thismustbesettoauniqueintegerforeachbroker.broker.id=1#######################
NikolasNull
·
2024-01-24 19:05
kaafka的rebalance机制
Kafka
的Rebalance机制是为了实现高可用和负载均衡而设计的。
啄sir.
·
2024-01-24 19:44
kafka
小白初探架构模式—常用的设计模式
主从架构的实现2.4主从架构的示例3.主从架构设计的延伸3.1主备模式3.2主从复制3.3集群分片3.4异地多活4.总结1.前言作为一个架构设计小白,我们通常用了很多种工具,比如Mysql、Redis、
Kafka
程序员阿奇
·
2024-01-24 19:03
Hadoop
java
主从架构
设计模式
集群分片
主从复制
死磕以太坊
源码分析
之p2p节点发现
死磕以太坊
源码分析
之p2p节点发现在阅读节点发现源码之前必须要理解kadmilia算法,可以参考:KAD算法详解。节点发现概述节点发现,使本地节点得知其他节点的信息,进而加入到p2p网络中。
mindcarver
·
2024-01-24 18:18
Android 计时器Chronometer 使用及
源码分析
ChronometerChronometer是一个「简单的计时器」组件,继承自TextView。但是Chronometer「不显示当前时间」,它显示的是从某个起始时间开始,一共过去了多长时间。主要XML属性如下:「android:countDown」是否倒计时,默认false。「android:format」设置显示时间格式。如果指定,第一个「"%s"」替换为"MM:SS"或"H:MM:SS"形式
大渔歌_
·
2024-01-24 18:58
Android
android
c++ lambda 使用
bool
Kafka
ResourceManager::Register(std::stringname,std::function()>callback){std::shared_ptrresource=
墨子哲
·
2024-01-24 17:10
C++实战
c lib rd
kafka
接口说明
一、主要数据结构1、typedefstructrd_
kafka
_conf_srd_
kafka
_conf_t;rd_
kafka
_conf_t是
kafka
的全局配置结构,通过rd_
kafka
_conf_new
墨子哲
·
2024-01-24 17:10
C++实战
Linux网卡接收数据包过程图详细总结
简介本文对代码的详细实现过程不做过多的讲解,重点让读者熟悉数据的接收过程,如需进一步熟悉源码,可根据下面的链接做进一步学习:1、网卡驱动
源码分析
2、网卡结构和基础知识详解收包过程总览从TCP/IP网络分层模型中可以清楚当数据帧从网卡
快乐的学习
·
2024-01-24 16:17
驱动
驱动开发
tcp
网络协议
查看 Avro 格式的
Kafka
消息(启用了 Confluent Schema Registry )
使用Avro格式传递
Kafka
消息要比Json更加高效,因为它是二进制格式,在启用了ConfluentSchemaRegistry的情况下,会进一步地提升传输效率,因为Avro中的Schema信息将不再出现在消息中
Laurence
·
2024-01-24 15:57
付费专栏
kafka
avro
confluent
schema
registry
Zookeeper集群 +
Kafka
集群
目录一、Zookeeper概述二、
Kafka
概述三、部署1.部署Zookeeper集群1.环境准备2.安装Zookeeper2.部署
kafka
集群1.下载安装包2.安装
Kafka
3.部署Filebeat
睡美人章繁
·
2024-01-24 14:24
zookeeper
kafka
分布式
14、
Kafka
------
kafka
核心API 之 流API(就是把一个主题的消息 导流 到另一个主题里面去)
目录
kafka
核心API之流API
Kafka
流API的作用:流API的核心API:使用流API编程的大致步骤如下:代码演示流API用法MessageStream流API代码演示消息从test1主题导流到
_L_J_H_
·
2024-01-24 14:33
Kafka
系列
kafka
linq
数据库
【
Kafka
】高级特性:生产者
目录消息发送消息生产流程ProducerRecord序列化器分区器拦截器生产者原理剖析主线程消息累加器发送线程生产者参数消息发送消息生产流程整个流程如下:Producer创建时,会创建一个Sender线程并设置为守护线程。生产消息时,内部其实是异步流程;生产的消息先经过拦截器->序列化器->分区器,然后将消息缓存在缓冲区(该缓冲区也是在Producer创建时创建)。批次发送的条件为:缓冲区数据大小
Ethan-running
·
2024-01-24 14:03
#
kafka
kafka
消息中间件
分布式
Kafka
集群如何实现数据同步?
Kafka
介绍
Kafka
是一个高吞吐的分布式消息系统,不但像传统消息队列(RaabitMQ、RocketMQ等)那样能够【异步处理、流量消峰、服务解耦】还能够把消息持久化到磁盘上,用于批量消费。
java2508
·
2024-01-24 14:02
kafka
分布式
使用时间戳来消费消息(
kafka
)
fromconfluent_
kafka
importConsumer,
Kafka
Errord
鲁班班
·
2024-01-24 14:32
kafka
python
Kafka
集群的安装与配置(二)
2.2.2生产者命令行操作1)查看操作生产者命令参数[atguigu@hadoop102
kafka
]$bin/
kafka
-console-producer.sh2)发送消息[atguigu@hadoop102
kafka
ole_triangle_java
·
2024-01-24 12:59
kafka
linq
分布式
Kafka
(二)原理详解
一、
kafka
核心总控制器(Controller)在
Kafka
集群中会有一个或者多个broker,其中有一个broker会被选举为控制器(
Kafka
Controller),它负责管理整个集群中所有分区和副本的状态
匠道
·
2024-01-24 12:20
kafka
kafka
分布式
kafka
入门(九):
kafka
分区分配策略
kafka
分区分配策略参数:
Kafka
提供了消费者客户端参数partition.assignment.strategy来设置消费者与订阅主题之间的分区分配策略。
乐之者v
·
2024-01-24 12:20
kafka
数据库
分布式
Zookeeper集群 +
Kafka
集群,Filebeat+
Kafka
+ELK
目录什么是Zookeeper?Zookeeper工作机制Zookeeper特点Zookeeper数据结构Zookeeper选举机制实验部署Zookeeper集群1.安装前准备安装JDK下载安装包2.安装Zookeeper修改配置文件拷贝配置好的Zookeeper配置文件到其他机器上在每个节点上创建数据目录和日志目录在每个节点的dataDir指定的目录下创建一个myid的文件配置Zookeeper启
思华年^O^
·
2024-01-24 12:48
linux
服务器
运维
kafka
kafka
kafka
内容producer:发布消息的对象称之为主题生产者(
Kafka
topicproducer)topic:
Kafka
将消息分门别类,每一类的消息称之为一个主题(Topic)consumer:订阅消息并处理发布的消息的对象称之为主题消费者
IsLuNaTiC
·
2024-01-24 12:18
kafka
分布式
Kafka
消费者提交偏移量
偏移量在
Kafka
中,偏移量(offset)是一个与分区相关的概念,用于跟踪一个消费者在分区中已经处理的消息位置。每个分区都有自己的偏移量,用于记录已经传递给消费者的消息的位置。
鲁班班
·
2024-01-24 12:18
kafka
登录
kafka
报错:Could notstart Jolokia agent: java.net.BindException: Address in use
在执行
kafka
命令增加或删除topic的时候,发现总是报错。Addressinuse?端口还是ip被占用了。只能禁用了,再执行命令。
后季暖
·
2024-01-24 12:48
kafka
java
分布式
Spring Bean的生命周期
目录一、知识点二、
源码分析
三、扩展1、InstantiationAwareBeanPostProcessor2、AwareBeanFactory类型的容器ApplicationContext类型的容器3
xiaoyu_alive
·
2024-01-24 10:23
spring
spring
java
后端
spring
boot
kafka
集群的错误处理
今天由于
kafka
集群搭建时的配置不当,由于一台主消费者挂掉(服务器崩了,需要维修),导致了所有新版消费者(新版的offset存储在
kafka
)都无法拉取消息。
Stalary
·
2024-01-24 10:16
JVM系列-5.java内存区域
作者简介:大家好,我是爱吃芝士的土豆倪,24届校招生Java选手,很高兴认识大家系列专栏:Spring原理、JUC原理、
Kafka
原理、分布式技术原理、数据库技术、JVM原理如果感觉博主的文章还不错的话
爱吃芝士的土豆倪
·
2024-01-24 10:53
JVM
jvm
java
Go语言 标准容器
源码分析
类似于Java的集合:list,map,set等,Go语言中也提供了类似的标准容器,在标准包container包含了conatiner/list,container/heap,container/ring三种标准容器。(1)conatiner/list容器在conatiner/list源码包中提供了相关的示例,比如下面这个示例packagelist_testimport("container/li
小杰的快乐时光
·
2024-01-24 09:15
IDEA报错:No hostname could be resolved for the IP address 127.0.0.1, using IP address as host name.
idea编辑flink连接
kafka
读取数据时报错:NohostnamecouldberesolvedfortheIPaddress127.0.0.1,usingIPaddressashostname.Localinputsplitassignment
唯一2333
·
2024-01-24 09:09
flink
kafka
idea
消息中间件之八股面试回答篇:一、问题概览+MQ的应用场景+RabbitMQ如何保证消息不丢失(生产者确认机制、持久化、消费者确认机制)+回答模板
问题概览目前主流的消息队列技术(MQ技术)分为RabbitMQ和
Kafka
,其中深蓝色为只要是MQ,一般都会问到的问题。浅蓝色是针对RabbitMQ的特性的问题。蓝紫色为针对
Kafka
的特性的问题。
鸡鸭扣
·
2024-01-24 09:38
RabbitMQ
消息队列面试
面试
rabbitmq
职场和发展
spring
cloud
java
后端
分布式
Flink(十五)【Flink SQL Connector、savepoint、CateLog、Table API】
前言今天一天争取搞完最后这一部分,学完赶紧把
Kafka
和Flume学完,就要开始做实时数仓了。据说是应届生得把实时数仓搞个80%~90%才能差不多找个工作,太牛马了。
让线程再跑一会
·
2024-01-24 07:17
Flink
flink
大数据
记一次Flink通过
Kafka
写入MySQL的过程
一、前言总体思路:source-->transform-->sink,即从source获取相应的数据来源,然后进行数据转换,将数据从比较乱的格式,转换成我们需要的格式,转换处理后,然后进行sink功能,也就是将数据写入的相应的数据库DB中或者写入Hive的HDFS文件存储。思路:pom部分放到最后面。二、方案及代码实现2.1Source部分Source部分构建一个web对象用于保存数据等操作,代码
梦痕长情
·
2024-01-24 07:17
flink
kafka
mysql
Zookeeper集群+
Kafka
集群
目录Zookeeper1.Zookeeper定义2.Zookeeper工作机制3.Zookeeper特点4.Zookeeper数据结构5.Zookeeper应用场景统一命名服务统一配置管理统一集群管理服务器动态上下线软负载均衡6.Zookeeper选举机制第一次leader选举非第一次选举7.部署Zookeeper集群安装Zookeeper在每个节点上创建数据目录和日志目录配置Zookeeper启
Ybaocheng
·
2024-01-24 06:20
zookeeper
kafka
分布式
Spring Security 6.x 系列【72】授权篇之角色分层
gitee.com/pearl-organization/study-spring-security-demo文章目录1.前言2.RoleHierarchy3.案例演示3.1期望3.2集成3.2测试4.
源码分析
云烟成雨TD
·
2024-01-24 05:08
Spring
Security
6.x
spring
spring
security
spring
boot
(5)消息分发策略
在介绍
kafka
的分区策略之前,先看看几个简单的概念1.topic在
kafka
中,topic是一个存储消息的逻辑概念,可以认为是一个消息集合。每条消息发送到
kafka
集群的消息都有一个类别。
Mrsunup
·
2024-01-24 05:36
以太坊
源码分析
:共识(3)Ethash
前言Ethash实现了PoW,PoW的精妙在于通过一个随机数确定,矿工确实做了大量的工作,并且是没有办法作弊的。接下来将介绍:Ethash的挖矿本质。Ethash是如何挖矿的。如何验证Ethash的随机数。Ethash的挖矿本质挖矿的本质是找到一个随机数,证明自己做了很多工作(计算)。在Ethash中,该随机数称为Nonce,它需要满足一个公式:Rand(hash,nonce)≤MaxValue/
大彬_一起学Golang
·
2024-01-24 05:00
【Linux 内核
源码分析
】堆内存管理
堆堆是一种动态分配内存的数据结构,用于存储和管理动态分配的对象。它是一块连续的内存空间,用于存储程序运行时动态申请的内存。堆可以被看作是一个由各个内存块组成的堆栈,其中每个内存块都有一个地址指针,指向下一个内存块。当程序需要分配内存时,堆会根据分配算法找到一块足够大的连续内存空间,并将其分配给程序。程序可以在堆中动态创建和销毁对象,而不需要在编译时确定对象的数量或大小。与静态分配的栈不同,堆的内存
攻城狮百里
·
2024-01-24 03:19
Linux
linux
【Linux 内核
源码分析
】RCU机制
RCU基本概念Linux内核的RCU(Read-Copy-Update)机制是一种用于实现高效读取和并发更新数据结构的同步机制。它在保证读操作不被阻塞的同时,也能够保证数据的一致性。RCU的核心思想是通过延迟资源释放来实现无锁读取,并且避免了传统锁带来的争用和开销。具体而言,RCU维护了一个“回收”过程,在该过程中,当没有任何读者引用时,才会真正释放资源。这样就可以避免等待所有读者完成或者互斥锁对
攻城狮百里
·
2024-01-24 03:48
Linux
linux
【Linux 内核
源码分析
】内存屏障
内存屏障内存屏障的作用是强制对内存的访问顺序进行排序,保证多线程或多核处理器下的内存访问的一致性和可见性。通过插入内存屏障,可以防止编译器对代码进行过度优化,也可以解决CPU乱序执行引起的问题,确保程序的执行顺序符合预期。Linux内核提供了多种内存屏障,包括通用的内存屏障、数据依赖屏障、写屏障、读屏障、释放操作和获取操作等。Linux内核中的内存屏障源码主要位于include/linux/com
攻城狮百里
·
2024-01-24 03:48
Linux
linux
Storm和hadoop对比及storm组件
MR数分钟,数小时不会主动停止终于完成的时候storm优点:跨语言,可伸缩,低延迟,秒级容错核心概念:Tuple主要数据结构,有序元素的列表streamtuple的序列spouts数据流源头,可以读取
kafka
smartjiang
·
2024-01-24 02:01
String
源码分析
功能简介String可以代表字符串,在代码中的字符串常量,如"abc",实现上都是String类的实例。String是常量,是不可变的,线程安全的。如果需要可变的字符串,可以使用StringBuffer。Stringstr="abc"等价于chardata[]={'a','b','c'};Stringstr=newString(data);下面还有一些常见用法System.out.println(
shalk
·
2024-01-24 01:47
Spring Cloud Netflex Eureka Server
源码分析
(一)
前言上一篇文章《SpringCloudNetflexEurekaClient
源码分析
》通过源码知道,eurekaClient是通过httprest来与eurekaserver交互,实现注册服务,续约服务
程序员L札记
·
2024-01-24 00:53
上一页
21
22
23
24
25
26
27
28
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他