hive入门(二)被大佬鄙视了

昨日之日不可留,昨日之日多烦忧。接上一篇,接着入门

join后跑不动,同事大佬告诉我要加分区。

加了个day=20200518结果仍旧如此,当我采用两个表中都有的分区关键词时hour,告诉我关键词相同。

FAILED: SemanticException Column hour Found in more than One Tables/Subqueries

咋整,搜了下发现,定义别名加上。左右连接也整上。

结果还是不对!!!!依然不对啊。人生啊,人生艰难啊!岂止你想到的这么一点?更多的还没体现出来。

俩表的都注明还是报错。

where u.hour=10 r.hour=10;

FAILED: ParseException line 1:175 missing EOF at 'r' near '10'

大佬给我提示说,俩分区关键词加and ,我试试,仍旧需要指定更具体的分区。。。

hive入门(二)被大佬鄙视了_第1张图片

我问大佬这是正常的吗?大佬说,你自己没点*数吗??我。。。。。。。。。昨天才入坑啊

最后得到了一个用户的点击记录,但是我想得到多个用户的记录,难道执行多次???还是怎么整啊?大佬懒得理我了,大佬,别跑,带带我,我很好带的。

hive入门(二)被大佬鄙视了_第2张图片

一朝入坑就面临这么难度的问题,这比培训班效率高多了,至少达到培训班的中等水平了吧,哈哈哈

em,大佬下午说,limit设置下大的数,似乎是哈,我limit100行,果然。但是下载10000条数据就费劲,这可是咋办啊?

那么问题来了,

请教下hive导出数据到本地有加速办法没啊?

群里有大佬说用Hadoop 啥的get ,,,,不得行啊,没Hadoop相关知识,啥?换引擎,不能瞎捣鼓啊。

我这写入速度太慢了,难道用insert overwrite这种??加个分区时间快了点。

另一问题来了怎么过滤啊??一个关键词的内容是NULL,怎么去掉这种的啊。字符串类型的咋过滤呢??

用where来过滤就好了,写在前面不行。

select age from student where age is not null

当导出的数据比较大时速度就比较快了,limit设置1千万,说不定当天的数据就直接出来了,也不必限制啥了,设置100就要限制了,速度自然就慢了。

基本上解决目前的取用数据的问题。

拜拜。

顺祝天下有情人终成眷属!!

 

For Video Recommendation in Deep learning QQ Group 277356808

For Speech, Image, Video in deep learning QQ Group 868373192

I'm here waiting for you
 

 

 

 

 

 

你可能感兴趣的:(Recommendation)