【58赶集集团】- 数据运营平台部诚聘英才

0、部门简介

数据运营平台部主要负责整个 BU 的数据体系建设与统计分析工作,包括但不限于:日志采集、ETL、数据仓库建设、数据产品设计与实现,为 PM、分析师、BOSS 提供决策依据与指导,最终目标是数据驱动产品运营,期待有相关数据研发经验的你。

从小数据到大数据,从 BI 统计到数据分析,从拍脑袋决策到数据精细化运营,越来越多的公司和老板意识到了数据的重要性,不少公司早就把数据作为战略目标之一,58赶集也一直崇尚在产品设计、运营、市场活动中用数据说话,因此作为整个 BU 的唯一数据部门,地位非常核心,期待认同数据价值的你。

对于求职的同学而言,两点很重要:

第一是薪资,合理的劳动报酬是自己能力的体现,也是自己人生发展必不可少的物质基础。

第二是平台和方向,这点是很多同学会忽略的,每个公司都有核心部门和边缘部门,犹如二流大学也有一流专业,可以说所在的公司和部门决定了你成长的速度和今后的职业发展,这里就是经济学里的机会成本,期待敢于挑战,善于选择的你。

好了,简介就写到这儿了,欢迎各位同学推荐或自荐,过来聊聊~

1、大数据 hadoop BI 开发工程师

 [15-25k][1-3年经验]

公司:58同城数据平台部 地点:北京

岗位职责:
1.ETL开发、优化、技术攻关,BI报表开发
2.负责数据项目的开发、推进和优化
3.数据产品、工具的设计和技术实现

岗位要求:
0 . 熟练使用 Java 语言,对程序性能优化、代码模块化有自己的心得体会
1.1-3年BI报表开发经验,工作严谨细致、认可数据产生价值
2.理解数据库原理,熟练使用 MySQL,有 NoSQL 使用经验优先
3.熟练使用 Python/Shell 等脚本语言的同学优先
4.熟练掌握一种或多种分布式平台,理解大数据计算框架,如hadoop、hive、mapreduce
5.具备较强的业务理解能力和项目管理、推动力,以及良好的自我驱动力

★★★★★ 技术负责人直招,符合要求第一时间通知面试,最快当天面完所有流程,通知结果。



2、高级大数据开发工程师

 [15-30k][3-5年经验]

公司:58同城数据平台部 地点:北京

工作职责
1、基于 MySQL/Redis/HBase/Kafka/Storm/Hadoop/hive 搭建、开发大数据分析平台的后台服务,支持部门的数据接入、落地,统计、分析业务;
2、构建基于spark/storm的实时数据处理平台,支撑上层业务使用,如:数据监控、日报展现、统计分析、业务方调用等;
3、基于海量日志下的多维统计与查询,并能对其存储空间与查询效率进行优化;

职位要求
1、【必须】熟练掌握 Java 编程语言、有丰富的后台服务开发经验,对系统架构设计与性能调优有经验;
2、【必须】熟练掌握 Hive、storm、mapreduce 等大数据技术,并有相关的使用、开发经验,熟悉源码者优先。
3、熟悉MySQL或NoSQL的原理,有相关使用、调优经验者优先;
4、对海量数据场景下的多维统计与查询有一定经验者优先;

★★★★★ 技术负责人直招,符合要求第一时间通知面试,最快当天面完所有流程,通知结果。


3、高级数据仓库开发工程师

 [15-30k][3-5年经验]

公司:58同城数据平台部 地点:北京

岗位职责:
1. 数据仓库相关的应用系统的数据处理及模型建设、元数据管理,完成ETL过程的设计、实现以及优化,对数据质量及可用性负责;
2、公司移动端业务/项目的数据仓库架构、设计;
3、完成项目数据统计与分析任务,对业务组、产品提供数据支持服务;
4、配合产品经理完成数据梳理和技术分析;

岗位要求:
1、本科以上学历,扎实的计算机基础,能够自驱技术学习;
2、熟悉数据仓库方法论、理解维度建模,有ETL相关开发3年以上工作经验;
3、熟悉Hadoop及Map-Reduce应用开发,有较强的开发调优能力;
4、较强的数据库及SQL能力,三年HIVE数据仓库项目经历,熟谙MYSQL等开源数据库
5、数据敏感,逻辑清晰、严谨,理解数据发现价值,数据驱动业务;
6、踏实、细心、认真,有责任心,良好的团队协作,乐于沟通交流和分享。
7、有互联网大数据平台数据开发、多维数据库设计与调优、开源ETL工具使用经验、数据仓库实施经验优先;

★★★★★ 技术负责人直招,符合要求第一时间通知面试,最快当天面完所有流程,通知结果。


联系方式:直接发简历即可

【58赶集集团】- 数据运营平台部诚聘英才_第1张图片

你可能感兴趣的:(【58赶集集团】- 数据运营平台部诚聘英才)