StarRocks案例5: hive外表报错starrocks [42000][1064] hdfsOpenFile failed

文章目录

  • 一. 问题描述
  • 二. 解决方案

一. 问题描述

StarRocks版本 2.5.5

现在需要使用hive外表,然后根据官网的的命令创建了hive resource
CREATE EXTERNAL RESOURCE “hive0”
PROPERTIES (
“type” = “hive”,
“hive.metastore.uris” = “thrift://myhadoop:9083”
);

然后查询报错:

starrocks [42000][1064] hdfsOpenFile failed

二. 解决方案

StarRocks的committer在论坛回复我了,原来是打包的问题。
没想到打包名字居然是写死的,而且hive catalog居然受到spark 客户端的影响。

spark jar 打包名字需要是 spark-2x.zip
(既不能是spark.zip 也不能是spark-24.zip, 需要在配置文件中写死为 spark-2x.zip)
https://docs.starrocks.io/zh-cn/latest/loading/SparkLoad#配置-spark-客户端 1

你可能感兴趣的:(大数据和数据仓库,#,Doris,大数据,MPP,StarRocks)