#4 2018-08-15
今天分享的职位是 Apple 于八月六日放出的一个数据科学家职位,是个很好的机会,大家也可以按照我们今天说的去修改简历然后尝试投一下。
职位链接:
https://jobs.apple.com/search?job=114111586&openJobId=114111586#&openJobId=114111586
职位分析:
今天的工作岗位是为苹果公司的 AMP(Apple Media Products (AMP) Analytics) department 做数据的岗位。那在最开始的时候,我们如果有机会,可以去问一问能不能去找一个在苹果公司工作的师兄师姐来看看这个岗位大概的情况。那我们数据应用学院的 Jason 老师这一次有去帮大家联系我们以往的在苹果工作的学员,这个岗位呢,属于一个中等的职位,需要master或者phd左右的学历。年薪的话大概是在八万到十万,在硅谷差不多是这个水平。工作强度的话,这个部门的工作强度应该还是挺大的。有
AMP 是一个核心的部门,是做 Media 的部门,因为苹果本身跟 Media 就有很大的联系,所以这个部门的工作不是那么轻松,所以是有一定的压力。那我们就要去了解一下这个工作的大概流程,这个岗位其实是很有意义的,会接触比较大的数据量。再其次呢,这个岗位对每个学生的个人成长有很大的帮助。在面试最后一般面试官会去问你,你有什么想说的。那这里你就可以表达你为什么喜欢这个岗位。不能单纯地说就是喜欢,得说出为什么。
JD
我们先来说一下这个岗位的一些 requirement 和要做的一些事情。那这个岗位主要是对于这个 media 部门去做一些 payment 的工作。那你要去注意一些买进卖出啊这类的数据。所以这里有一些提示就是,你每天都要接触 large scale 的 data set,然后要在这些大的数据里去找到一些 key insight,然后去做一些 business 的模型。这里有提到我们主要使用的两种机器学习,supervised 和 unsupervised 的两种机器学习的方法。这里在 user behavior 上面主要我们会对用户进行 user segmentation,一些广告的投送啊,或者策略都可以从这里开始。
下面还有说到这个 ab test。ab test 被大量广泛地使用在用户体验的设计上。在 payment 的系统上,也会有不同的 user experience,来通过比较让你设计更好的方案。
下面提到了measurement的东西,这个就是你要如何去 define 这些 KPI,你要达到什么样的商业指标和目标。
然后提到了这个要去跟苹果的其他部门有一些有效的沟通,要去采集一些别人的数据,然后来做后续的分析与沟通。这个在大公司里非常常见。那一些用户的行为你要去跟别的部门去交流,比如技术部门。比如session上,我们就可以去看一些用户行为。比如用户通过账户密码登陆进来了,那这样,在遇到一些问题的时候,我们作为 payment 部门,我们不一定能去看到其他 session 的用户行为。那这些时候,我们在payments部门是无法看到的。所以这个时候就需要去与他们配合,然后通过 ID 把它们 link 到一起。我们要把user behavior和他们的其他行为都要联系在一起,这样我们能分析出来的 insight 就会越多。
最后提到了专业,Master’s degree in Economics, Statistics, Computer Science, Mathematics or relevant field。数据应用这边对于专业的要求就特别广泛。只要你有足够熟练的技能,任何学位都可以去申请。
Key Qualification
那这里我们来说一下这些 key qualifications 都是什么。这里对应的基本就是你的简历上的第一页,所以你的简历上一定要去 cover 所有的 KQ,这样才是你能拿到第一轮店面的第一步。
首先是四年工作经验。我们在上一次的直播中就提到,在工作经验上,公司会夸大自己的要求,特别是大公司,这个具体可以去参考我们昨天的职位讨论 Q&A 部门。
其次呢,这里特别提到了 UX,用户体验。那这里你最好在你的简历上把这些user research 相关的时候可以去写一下。然后在下面的一些经历具体描述的时候,也可以侧重去注意一下这一块的东西。
然后,我们这里提到了一些预估啊,分析处理,这个一般的数据分析师都会具有这样的技能。
下面提到了,communication 和 presentation。这一块我们之前也提到过,这个非常重要。即便你技术很强,也是需要你有方式方法去合理地把它表达出来。这里我们也要去说具体的在你的简历里去提到你有这些方面的经验。同时,你也可以去提到你的 data visualization 上面,你也可以去提到你如何通过这些去体现你是很有 business sense 的一个人。比如在面试中,遇到一个很常见的问题,你遇到过什么样的challenge,那你就可以去说,你之前想要去如何去跟没有足够背景的人去解释你的技术技能。这一方面回到了面试问题,也展现了你的能力。
Ability to operate comfortably and effectively in a dynamic, highly cross-functional, fast-paced environment. 这个呢是hr特别会关注的一个问题。这个就是你能不能够做好完整的 planning。那你回答上,你就要去说,你如何 planning 呀,你怎么去分别自己的 priority。这一块就是比较常见的一个 behavior question。
下面就是一些 hard skill,首先是说 SQL,我们一再强调,你找数据方面的工作,sql的底子一定要非常地扎实,所以我们这一块大家一定要学好。
然后说到了 Hadoop 和 spark,这两个东西,有的同学可能不太了解。我们需要同学去了解,但是不需要像计算机一样去完全挖掘它深层的算法啊之类的东西。我们今天就大概说一下那这一块,我们需要掌握到哪里?Hadoop 这块,我觉得大家一定要学的是 hive,它用 SQL 一样的语言去管理大数据,很重要的就是 map reduce,如何把一个大的东西做成map reduce的分布式算法。spark的话,他跟Hadoop的区别是什么。Hadoop 大概是在15年以前,谷歌出了三本白皮书,Google Big Table -- HBase, Google File System -- HDFS, Google MapReduce -- 分布式管理的算法。那 spark 是什么?spark 是 Hadoop 下一代产品。它是 UCB 做出的一个新的东西。他是为了提高效率,把计算挪到了内存上。那作为数据科学家,我们不关心 Hadoop spark 的具体底层 performance,我们需要知道的是我们如何去使用它,怎么去把机器学习 AI 和这些结合在一起。然后还有一部分就是 ML LAB,我们数据应用学院这边也给大家提供了这个集群计算系统,可以给同学们去进行一些 Spark 上面的练习。其实就是一种分布式机器学习的方法。总结一下,那你可以在简历里去 提到你的 Hadoop spark 你所会的东西就一定会非常亮眼。Hadoop 方面要提到的是 Hive,MapReduce;Spark 方面要提到数据存储与管理和分布式机器学习,就可以了。然后我见到过最难的就是amazon的一个实时数据分析,那这个基本就是对这一块数据方面要求的一个比较难的情况了。
接下来提到了 Python R Tableau,这个就是非常常见的,数据类的岗位都需要,大家一定要尽力去夯实。
full stack,你自己可以去从头到尾地去做整个数据的 life cycle。你可以去做pipline,可以去做统计,可以去做数据分析,数据可视化,这就是 full stack。
Ability to comprehensively understand data elements, sources and relationships in business and technical terms. 这一条的话,只要你做过一些数据方面的项目都没有太大的问题。
Strong familiarity with multiple platforms, tools, methodologies in data analysis and insight synthesis. 这个东西是一个非常 general 的一个东西,你只要去学习了数据方面多角度的语言,这一块就可以达到。
Ending
想找工作,焦头烂额,不要慌!
无论你缺的是硬技术,还是软实力,数据应用学院都会用最专业的方式给你最全面的辅导。