Fork me on GitHub

【算法面经系列】百度、寒武纪、科大讯飞、追一科技、腾讯、作业帮算法面经

个人情况

双非本科,985 研究生,研究方向自然语言处理,比较渣,大概从 19 年 6 月份开始准备秋招,大部分压在了提前批,七月份疯狂投简历,投了大概有二十几家,收到面试的有五六家。其中作业帮收到意向 offer;百度确定已有 offer,国庆节左右谈薪资;京东已收到录用函,职位软开。

百度 算法岗(提前批,百度地图)

共三面,可以说三面都是技术,不过第三面夹杂了点职业规划。

一面(90min)

  • 自我介绍+项目提问
  • 机器学习算法都用过哪些
  • 说一下决策树吧,节点划分有哪些方法,如何剪枝
  • SVM了解吗?有什么优点?优化方法?
  • Bagging和boosting
  • 有什么想问的(问了部门方向之类的)

二面(100min)

  • 自我介绍+项目提问+实习经历提问
  • Batchnorm了解吗?
  • 你知道哪些优化函数?
  • 为什么xgboost效果不如随机森林?
  • 选取了哪些特征?
  • 机器学习的优化方法了解吗?
  • 相似度计算除了神经网络的方法还有什么方法?针对文本和离散特征的情况呢?
  • 我看你本科学硬件的,传感器了解吗?
  • 手机上有哪些传感器?(可能是手机地图的部门)
  • 情景题:如何检测藏头诗?机器学习可以吗?神经网络呢?为什么可以?如果不是诗句,普通的文本如何检测是否有人为的编码信息?有什么思路?(情景题是考验思路,一定要灵活,不对也没关系,找到问题的几个关键点,先弱化其中几个关键点,再提出思路,一步一步解决)

三面(60min)

  • 项目提问(占据大部分时间)
  • 如果产品向你提出了不合理的要求,你如何处理?
  • 有没有很深刻的受打击的经历?
  • 如何看待工作压力大的问题?
  • 平常如何释放压力?
  • 如果我给你offer,你有多大几率会来?

一周后收到 offercall,总体面试体验极好,面试小姐姐说唯一遗憾的是电话面试,没能面到代码能力,不过觉得我比较 match,给了 offer,真的是面试体验最好的一次了。

寒武纪 算法岗

共一面,未过。之前拿到的免笔试直接面试资格,很晚了才通知面试,估计是走个过场。

  • 浅copy和深copy的区别
  • Python中的self关键字
  • 类的继承
  • 完全二叉树的概念
  • 一个具有N节点的完全二叉树深度是多少( [log2n]+1)
  • 链表与线性表的区别(答错了,把线性表和顺序存储搞错了。。。)
  • 介绍一下第二个类案推荐的项目
  • 为什么使用transformer?
  • 分层的结构会破坏文本的连贯性吗?
  • 目前有多少数据?

作业帮 NLP 算法岗

共三面。一周后收到录用意向书。

一面

  • 项目提问
  • 给出前序遍历和中序遍历,重建二叉树
  • 旋转链表

二面

  • 项目提问
  • N3的木板,用13的块铺满,有多少种方案?(动态规划)
  • 旋转数组找最大值

三面

  • 感觉我们面试官怎么样?
  • 说说你对作业帮的了解
  • 你对薪资有什么期望?
  • 机器学习和深度学习你希望从事哪方面的工作?
  • 你希望的工作环境是什么?
  • 能来实习吗?

科大讯飞 自然语言处理算法工程师

共两面。一面较简单,二面未过。

一面

  • 自我介绍
  • 你使用过的优化器有哪些,简单介绍一下
  • 类案推荐项目结果怎么样,如何评测的?
  • 一篇文书里面多个案件的情况是如何处理的?
  • 长文本的问题是如何解决的?

二面

  • 项目提问
  • 你在项目中属于什么角色?
  • 遇到不会的问题一般怎么解决?
  • 师兄对你帮助大吗?
  • 合肥和北京你想去哪里?
  • 对薪资有什么要求?

追一科技

共一面,未过。

  • 项目提问
  • 知道graph神经网络吗?听了几次都没听清什么网络,说不了解,了解胶囊神经网络,实际上我了解图神经网络。。。。。。
  • 看论文的频率是多少?
  • 你应该多关注一下其他领域的东西,拓宽一下知识面,虚心接受
  • 说自己也在做法律文书方面的东西,有共同语言
  • 然后就开始说组里的人都很牛逼,大部分是博士,最次都是清北的。。。。。说了有接近20分钟。。。。。。原谅我这渣硕没资格

腾讯 技术研究-自然语言处理

共一面,未过。怼得体无完肤,太难了,太全面了,原谅我太菜。

  • 了解XGboost吗?
  • 随机森林和XGboost什么区别?
  • 隐马尔科夫了解吗?
  • 朴素贝叶斯与贝叶斯有什么区别?
  • LR和SVM什么区别?
  • LSTM里面有哪些门,为什么用这些门?
  • LSTM里面为什么有些激活函数用sigmoid,有些用tanh?
  • 对于多任务模型有哪些最新进展?
  • 从理论角度讲解一下基于不确定性平衡多任务各个loss的原理以及合理性
  • Bert了解吗?
  • Bert里面位置向量的作用是什么?有哪些生成方式?
  • XLnet了解吗?
  • 为什么XLnet效果比bert效果好?
  • Word2vector原理,优化方法?
  • 聚类的算法有哪些?评价方法?优化算法?
  • 情感词在情感计算中的如何计算情感?
  • 情景题:有上亿的邮件,如何聚类?应该从哪些方面考虑?
  • Kmeans与kNN什么区别?
  • Kmeans的缺点?如何改善?


本文地址:https://www.6aiq.com/article/1583735744394
本文版权归作者和AIQ共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出