攒波人品!我把整个秋招 NLP 算法岗的面经都在这里分享了!

年底了,最近技术群组织了一次AI算法岗面试讨论会,今天分享一位特别棒的同学,把整个秋招的NLP算法岗面经面试经历都共享了出来。如果你想加入我们的讨论群,见文末。

下面是这位同学分享的内容,喜欢记得收藏、点赞、关注。


首先感谢组织AI算法岗的交流会,我从中收获很多,也有机会分享我的秋招面试的经历,我投的岗位比较杂,主要是NLP,也包括一些多模态、大模型、推荐相关的岗位,最终拿到了腾讯、顺丰、平安金服和迪子的offer,华子、京东和百度的池子。

总结一下,首先算法的问题会问得非常杂,主要根据你的项目经历,面试官一般会从你的经历里挑和他们工作内容比较相关的点提问,然后不断扩展;反而八股文问的不多,一般是一些中小厂喜欢问八股。

最后是自己的一点见解,对于非研究性质的算法岗位,论文的权重并没有很大(也看面试官的喜好),反而是相关的竞赛/实习经历会非常重要。有意找算法岗的uu,一定要去搜广推(可以再加一个大模型)相关的岗位刷刷实习经历。

以下是整个秋招的面试的题目总结了一下:

  • 用语言介绍一下Transformer的整体流程
  • 深度学习的三种并行方式:数据并行,模型并行,流水线并行
  • Deepspeed分布式训练的了解,zero 0-3的了解。
  • 对于CLIP的了解
  • 说几种对比学习的损失函数,以及它们的特点和优缺点
  • 说说大模型生成采样的几种方式,它们的特点和优缺点比较
  • 损失函数中温度的作用
  • BLIP的细节。(面试中提的问题是BLIP为什么将训练分成两个阶段)
  • Visual Encoder有哪些常见的类型?
  • 深度学习中常用的优化器有哪些?
  • SimCSE的了解
  • prenorm和postnorm
  • LLaMA 2的创新/ChatGLM的创新点/Qwen的创新点/Baichuan的创新点
  • LLM的评估方式有哪些?特点是什么?(中文的呢?)
  • 文本生成模型中生成参数的作用(temperature,top p, top k,num beams)
  • LoRA的作用和原理
  • CoT的作用
  • 神经网络经典的激活函数以及它们的优缺点
  • softmax函数求导的推导
  • BERT的参数量如何计算?
  • AUC和ROC
  • batch norm和layer norm
  • 大模型训练的超参数设置
  • 经典的词向量模型有哪些?
  • InstructGPT三个阶段的训练过程,用语言描述出来(过程,损失函数)
  • 大模型推理加速的方法
  • Transformer中注意力的作用是什么
  • RNN、CNN和Transformer的比较(复杂度,特点,适用范围etc)
  • AC自动机
  • 产生梯度消失问题的原因有哪些?
  • 大模型的幻觉问题
  • 大模型训练数据处理
  • RLHF的计算细节
  • 构建CoT样本的时候,怎么保证覆盖不同的场景?
  • 召回的三个指标:Recall、NDCG、RMSE
  • RoPE和ALiBi
  • 交叉熵、NCE和InfoNCE的区别和联系
  • 贝叶斯学派和概率学派的区别
    一个文件的大小超过了主存容量,如何对这个文件进行排序?应该使用什么算法?
  • Python中的线程、进程和协程
  • python中的生成器和迭代器

技术交流&资料

技术要学会分享、交流,不建议闭门造车。一个人可以走的很快、一堆人可以走的更远。

成立了AI算法岗技术&面试交流群,完整代码、相关资料、技术交流&答疑,均可加我们的交流群获取,群友已超过2000人,添加时最好的备注方式为:来源+兴趣方向,方便找到志同道合的朋友。

方式①、微信搜索公众号:机器学习社区,后台回复:加群
方式②、添加微信号:mlc2060,备注:来自CSDN + 技术交流

通俗易懂讲解大模型系列

  • 做大模型也有1年多了,聊聊这段时间的感悟!

  • 用通俗易懂的方式讲解:大模型算法工程师最全面试题汇总

  • 用通俗易懂的方式讲解:不要再苦苦寻觅了!AI 大模型面试指南(含答案)的最全总结来了!

  • 用通俗易懂的方式讲解:我的大模型岗位面试总结:共24家,9个offer

  • 用通俗易懂的方式讲解:大模型 RAG 在 LangChain 中的应用实战

  • 用通俗易懂的方式讲解:一文讲清大模型 RAG 技术全流程

  • 用通俗易懂的方式讲解:如何提升大模型 Agent 的能力?

  • 用通俗易懂的方式讲解:ChatGPT 开放的多模态的DALL-E 3功能,好玩到停不下来!

  • 用通俗易懂的方式讲解:基于扩散模型(Diffusion),文生图 AnyText 的效果太棒了

  • 用通俗易懂的方式讲解:在 CPU 服务器上部署 ChatGLM3-6B 模型

  • 用通俗易懂的方式讲解:使用 LangChain 和大模型生成海报文案

  • 用通俗易懂的方式讲解:ChatGLM3-6B 部署指南

  • 用通俗易懂的方式讲解:使用 LangChain 封装自定义的 LLM,太棒了

  • 用通俗易懂的方式讲解:基于 Langchain 和 ChatChat 部署本地知识库问答系统

  • 用通俗易懂的方式讲解:在 Ubuntu 22 上安装 CUDA、Nvidia 显卡驱动、PyTorch等大模型基础环境

  • 用通俗易懂的方式讲解:Llama2 部署讲解及试用方式

  • 用通俗易懂的方式讲解:基于 LangChain 和 ChatGLM2 打造自有知识库问答系统

  • 用通俗易懂的方式讲解:一份保姆级的 Stable Diffusion 部署教程,开启你的炼丹之路

  • 用通俗易懂的方式讲解:对 embedding 模型进行微调,我的大模型召回效果提升了太多了

  • 用通俗易懂的方式讲解:LlamaIndex 官方发布高清大图,纵览高级 RAG技术

  • 用通俗易懂的方式讲解:为什么大模型 Advanced RAG 方法对于AI的未来至关重要?

  • 用通俗易懂的方式讲解:使用 LlamaIndex 和 Eleasticsearch 进行大模型 RAG 检索增强生成

  • 用通俗易懂的方式讲解:基于 Langchain 框架,利用 MongoDB 矢量搜索实现大模型 RAG 高级检索方法

  • 用通俗易懂的方式讲解:使用Llama-2、PgVector和LlamaIndex,构建大模型 RAG 全流程

你可能感兴趣的:(NLP实战与面试,大模型,自然语言处理,算法,人工智能,大模型,langchain,深度学习)