在使用Distributed的分布引擎时出现的报错
问题描述:
先在3台节点上都创建t表, 再在102上使用分布引擎创建表,合并这些表格, 结果出现的错误是:↘ Progress: 0.00 rows, 0.00 B (0.00 rows/s., 0.00 B/s.) Received exception from server (version 19.7.3):
Code: 279. DB::Exception: Received from localhost:9000, 127.0.0.1. DB::NetException. DB::NetException: All connection tries failed. Log:
Code: 210, e.displayText() = DB::NetException: Connection refused (hadoop103:9000, 192.168.2.141) (version 19.7.3.1)
Code: 210, e.displayText() = DB::NetException: Connection refused (hadoop103:9000, 192.168.2.141) (version 19.7.3.1)
Code: 210, e.displayText() = DB::NetException: Connection refused (hadoop103:9000, 192.168.2.141) (version 19.7.3.1)
原因分析:
zookeeper的接口没有统一
1.先测试自己的zookeeper是否正常启用,接口号是否正确按照查看zookeeper的启动问题里的测试图,测试自己的zookeeper,结果如图
2.查看自己的clickhouse的配置文件
解决方案:
修改一致,然后重启clickhouse服务器就解决了.
提示:这里简述项目相关背景:
例如:项目场景:示例:通过蓝牙芯片(HC-05)与手机 APP 通信,每隔 5s 传输一批传感器数据(不是很大)
问题描述:
提示:这里描述项目中遇到的问题:
例如:数据传输过程中数据不时出现丢失的情况,偶尔会丢失一部分数据
APP 中接收数据代码:
@Override
public void run() {
bytes = mmInStream.read(buffer);
mHandler.obtainMessage(READ_DATA, bytes, -1, buffer).sendToTarget();
}
原因分析:
提示:这里填写问题的分析:
例如:Handler 发送消息有两种方式,分别是 Handler.obtainMessage()和 Handler.sendMessage(),其中 obtainMessage 方式当数据量过大时,由于 MessageQuene 大小也有限,所以当 message 处理不及时时,会造成先传的数据被覆盖,进而导致数据丢失。
解决方案:
提示:这里填写该问题的具体解决方案:
例如:新建一个 Message 对象,并将读取到的数据存入 Message,然后 mHandler.obtainMessage(READ_DATA, bytes, -1, buffer).sendToTarget();换成 mHandler.sendMessage()。
报错的信息(翻译后)如下:
clickhouse报错ZooKeeper中的表列结构与本地表结构不同(版本20.12.5.14(官方内部版本))
查看自己的建表语句
ENGINE = ReplicatedMergeTree(’/clickhouse/tables/{layer}-{shard}/tm_dbchangelogdtl_Distributed’,’{replica}’)
这句话有问题:
tm_dbchangelogdtl_Distributed之前定义过,需要换个名字,