腾讯NLP算法面试题整

大家好,这里是面经酱~

今天来帮大家梳理网上公开面经中提到的腾讯NLP算法岗相关面试题,欢迎在 面经酱(www.mjj666.cn) 搜索最新面经,有其他公司、岗位的面经梳理需求请留言哦~

编程&数学基础

  1. 高楼扔鸡蛋问题
  2. 取数对弈
  3. 螺丝螺母匹配
  4. 求一个大于等于输入的正整数的最小降序序列
  5. Top K
  6. 贪心和 DP 区别
  7. 两颗二叉树,判断B树是否为A的子树
  8. 最长不重复子串
  9. 打家劫舍
  10. 给100亿个数据,怎么找到中位数
  11. 二叉树直径
  12. 正则表达式match()和search()差别
  13. 最长公共子串
  14. 指针与引用的区别
  15. 蓄水池抽样问题
  16. 甲乙扔骰子,获胜概率相同,投 10 次,已经 5 次了,甲已经赢了 3 次,问甲获胜概率
  17. 判断年份是否为闰年
  18. 判断对称数字(不能用字符串判断)
  19. n分解成最少多少个平方数的和
  20. 完全二叉树的概念
  21. 多路归并
  22. 旋转链表
  23. 给出前序遍历和中序遍历,重建二叉树
  24. 浅copy和深copy的区别
  25. 对数据库的了解如何?用过哪些数据库?

项目深度

  1. 模型选取
  2. 数据增强
  3. 从数据标注的制定标准,到选取模型,再到改进模型、错误分析
  4. NER数据中没有实体标注的句子过多解决方式
  5. 同一句话两个一样字符串如何消岐
  6. 如果是长文本,又怎么做,有什么区别
  7. 模型好坏的评估,如何衡量模型的性能
  8. 方面级情感分析的模型结构
  9. 模型学习中,正负样本的训练方式不同有什么影响
  10. 减轻特征工程的手段
  11. 二叉树的层次遍历
  12. 模型训练的停止标准是什么?如何确定模型的状态
  13. kmeans的k怎么选择
  14. 你模型提升最大的点在哪里

基础知识

  1. Bagging和boosting的区别
  2. LSTM里面为什么有些激活函数用sigmoid,有些用tanh
  3. 模型蒸馏work的原因,具体实现方式
  4. beam search
  5. Random Sample解码策略
  6. seq2seq的结构
  7. 【高频】rnn是怎么运行的
  8. LSTM的参数量
  9. char-rnn
  10. 【高频】CRF与HMM,特征函数,有向图无向图,因子分解
  11. 非自回归的模型如何一次性生成整个句子
  12. Transformer 模型架构
  13. LN和BN的区别,在inference线上模型如何处理
  14. LR是线性模型吗,为什么
  15. SVM的推导:hard margin, soft margin, 几何距离、函数距离,最优化,拉格朗日乘子法,对偶问题,KKT条件,损失函数,惩罚系数、损失函数
  16. Word Piece、BPE和word piece
  17. 动态规划算法通常用来解决什么问题,在HMM里是怎么使用的
  18. 线性和非线性存在什么关系
  19. 【高频】Dropout
  20. 【高频】word2vec,hierarchical softmax和negative sampling
  21. BERT的Self-Attention细节,比如Q、K、V
  22. L1 和 L2 正则化区别
  23. 最小二乘法的推导公式,最小二乘究竟是什么,和极大似然的关系
  24. 序列标注常见算法有什么
  25. 对epcho做shuffle,类似于哪一种优化器
  26. 线性回归损失函数
  27. BERT和其他序列模型区别
  28. 交叉熵公式
  29. 过拟合怎么解决
  30. 为什么BERT能达到这么好的效果
  31. 为什么使用lightGBM,比起xgboost的优点
  32. 生成对抗网络,机制,生成对抗网络用在文本中如何梯度估计
  33. 强化学习的策略梯度
  34. 一阶优化器,二阶优化器
  35. transformer为什么用+不用concat
  36. mse和交叉熵的区别
  37. batch size如何选择
  38. TransformerXL是什么
  39. LSTM和GRU的区别,GRU具体简化了哪个门
  40. Focal loss
  41. BERT和transformer的positional embedding有啥区别
  42. 梯度下降和随机梯度下降的区别
  43. 手推信息增益、信息增益率、Gini指数公式
  44. fasttext的实现原理
  45. 如何实现知识蒸馏,loss怎么选择
  46. 朴素贝叶斯与贝叶斯有什么区别
  47. triplet loss和交叉熵loss各自的优缺点,怎么选择
  48. positional embedding公式

开放题

  1. 所在领域的一些经典论文模型
  2. 研究生阶段最有挑战的项目是什么
  3. 研究生进入工业界有什么思考
  4. 如何和别的部门协调资源
  5. 设计一下如何对文本中各个实体进行情感分析
  6. 平常如何释放压力
  7. 提升指标的一些trick
  8. 如何统计哈尔滨一天的啤酒消耗量
  9. 如何看待工作压力大的问题
  10. 有没有很深刻的受打击的经历
  11. 你希望的工作环境是什么
  12. 比赛做了什么,改动了什么,和第一差距在哪
  13. 在学校还有什么ml dl方面的学习
  14. 产品向你提出了不合理的要求,你如何处理
  15. 你们平常打比赛的时候,队伍是怎么合作的
  16. 有上亿的邮件,如何聚类
  17. 对推荐系统理解

TIPS

  1. 不熟悉的就别往简历上写。说不清楚的会被喷的很惨
  2. HR面还是要长心眼,对某些敏感问题的态度要坚决,宗旨:我爱XX公司,我一定去,工作地点不挑,实习时间能满足

参考资料

  1. NLP面试复盘 | 阿里/腾讯/头条/paypal/快手
  2. 【面试通关篇】NLP面经集结 | 达摩院、腾讯、微软、美团、百度
  3. 超详细!腾讯NLP算法岗面经(已offer)
  4. 面经 | NLP算法岗(腾讯)
  5. 【面经】腾讯NLP实习面经(Offer已拿)
  6. 腾讯自然语言处理实习岗面经
  7. 暑期实习面经(NLP 方向)达摩院、腾讯、微软、美团、百度
  8. 腾讯NLP算法实习面经
  9. 面经 | 百度/寒武纪/作业帮/科大讯飞/追一科技/腾讯NLP
  10. 六面!终斩腾讯NLP暑期实习offer
  11. NLP算法岗面经 | 微软/腾讯/字节跳动/快手
  12. 腾讯、百度、滴滴最新NLP算法面经
  13. 超级重磅!腾讯NLP算法岗面经(已offer)
  14. 腾讯自然语言处理实习面经
  15. 腾讯PCG NLP面经
  16. 蚂蚁/腾讯提前批NLP面试经历-蚂蚁offer get
  17. 腾讯春招NLP一面面经
  18. 暑期实习面经(NLP 方向)达摩院、腾讯、微软、美团、百度精
  19. 腾讯暑期实习-算法工程师-NLP面经
  20. 腾讯2020暑期NLP算法实习面经
  21. 2020/09/21 腾讯微保NLP笔试哭经
  22. 腾讯秋招NLP面经
  23. 腾讯,字节跳动NLP实习面经
  24. 腾讯NLP算法一面凉经
  25. 腾讯/阿里/携程 详细NLP算法实习面经
  26. 腾讯美团面经 NLP算法岗

你可能感兴趣的:(面经整理,算法,腾讯,机器学习,面试,自然语言处理)