机器学习算法面经 ---2018 秋招



转载请注明 AIQ - 最专业的机器学习大数据社区  http://www.6aiq.com

AIQ 机器学习大数据 知乎专栏 点击关注

作者:crazyhoney
链接:https://www.nowcoder.com/discuss/32008?type=0&order=0&pos=8&page=2
来源:牛客网

职位:机器学习 / 数据挖掘算法工程师

在牛客网得到很多宝贵的面试经验

现我也来开帖,分享一下到目前为止的面试经验 ~~~

本人会一直写到秋招结束,记录下参加的每场面试

如果回答上有什么错误,请不吝赐教哈!!! 谢谢 ~~~~

目前内推面了:阿里(一面跪)、京东(offer)、拼多多(offer)、美丽联合(一面跪)、链家(offer)、美团点评(三面跪)

目前校招面了:360(一面跪)、百度(一面跪)、三星研究所(offer)

据说可以攒人品 ~~~~~

更新线 -2018-01-25 15:41—————————————————————————

转眼都到了 2018 年了。秋招都结束这么久了。最后拼多多也给了 offer,不过太晚了,真奇怪这家公司,时间拖了那么久。

招聘结束后,不知道都忙了些啥,就到了这会儿。

前几天想编辑此贴,但被告知,加了精,没法编辑。好尴尬。刚才看到被解开了,这才过来编辑。

鉴于有许多人问关于招聘的一些问题。我就写一些招聘的一些事 **。**包含一些经验之谈吧,用好了有奇效 ~~在最后面

更新线 -2017-09-22 17:56—————————————————————————

刚去导员办公室领了三方协议。感觉秋招快要结束了。

唉,腾讯也没霸面上。。。

不过得提一下,三星研究所的效率真的挺高的。刚才打电话说了薪资,让签约。(也算是对周二面试有个交代吧)

效率真心高,而且笔试面试还有福利,送卡管午饭 ~~~

更新线 -2017-09-22 10:14—————————————————————————

尴尬了,前几天犯懒了,没及时更新百度的一面,直到。。。现在还没有收到下一面通知,应该跪掉了。这周二又面了三星研究所。

昨天傍晚,当小伙伴们都焦急的等待华为结果时,我很淡定(因为华为连面试机会都没有给我)。结果收到了意外之喜。

拼多多居然发意向书了,(这公司再不发,都忘了有这一茬了)。毕竟是对自己面试的肯定,还是挺开心的。

秋招快要结束了,霸面腾讯不知道还能不能安排面试,下午领三方 ~~~

话不多说,百度一面,三星两面奉上。

更新线 -2017-09-18 20:54—————————————————————————

**

上周收到了京东的 offer。虽然之前有面试官的口头 offer,但是正式 offer 下来,才安心嘛。

接到 offer 还是很震惊的。出乎人意料啊。

然后,晚上就吃了麻辣香锅 ~~~

犒劳自己 ~

昨天面了百度,第一轮。这是迄今为止经历过时间最长的一轮面试。足足整了 1 个半小时。

把我都快榨干了,会的几乎全都被问了,不会的也被问了。

不过确实学到很多东西,之前很多东西没有实际做过,只看理论,只是知其然,经过面试官的讲解才明白其所以然。

先去洗澡,一会回来更新 ~

**

更新线 -2017-09-12 22:37—————————————————————————

上周末收到了链家的 offer。还是蛮开心的。毕竟是准备这几个月以来的第一个结果。

当天晚上,就给自己加了一个鸡腿 ~~~

继续努力,要让自己的能力尽可能接近用人单位所开出的工资的价值

昨天早上搜狗一面,下午美团三面

昨晚百度做崩了。。。有道编程题脑袋秀逗了,搞错了

刚刚做了腾讯的,感觉真是画风新奇啊。跟其他公司那些浓妆艳抹的风格不一样啊。

没有编程,没有编程,没有编程

还有个求行列式的,略微尴尬啊

更新线 -2017-09-07 16:56—————————————————————————

早上美团点评二面

更新线 -2017-09-05 20:24—————————————————————————

因为要面美团,所以在牛客上找面经。

感觉应该把这几天面的写下来,不能等秋招结束再写了,那样找面经的同学(比如说我 ~)不就少了一篇面经可看嘛

因为时间紧迫,更新的问题没有详细解答。后面再来补

更新:链家二面、链家 HR 面、拼多多二面、拼多多 HR 面、京东 HR 面、360 一面、美团点评一面

更新线 -2017-08-29 14:06—————————————————————————

记录一下链家的面试,本来准备把几面都写完。但发现写完一面,有种精疲力尽的感觉。。。

这是我目前为止经历过时间最长的面试。约 1 个小时多一点点。

后面再写二面、三面吧。一面够长的了。

更新线 -2017-08-27 20:10—————————————————————————

感谢各位大佬捧场,一会记录下今天的面试 ~~~

西安南雷村职业技术学院

—一个散养的没导师的硕。。。

以前玩大数据,现在玩机器学习,刚开始玩。

开八:


2017-08-10- 阿里菜鸟 - 机器学习 - 内推 -1 面 - 电话

没有自我介绍。。。直接略过。。。

1、讲一下你觉得你突出的地方,有亮点的地方。

说了 SVM 和 LR

2、LR 为什么用 sigmoid 函数。这个函数有什么优点和缺点?为什么不用其他函数?

3、SVM 原问题和对偶问题关系?

4、KKT 条件用哪些,完整描述

5、说项目

6、有一堆已经分好的词,如何去发现新的词?

面试官给的提示:用这个词和左右词的关系。** 互信息 ** 新词的左右比较丰富,有的老词的左右也比较丰富。还要区分出新词和老词。

7、L1 正则为什么可以把系数压缩成 0,坐标下降法的具体实现细节

8、spark 原理

9、spark Executor memory 给 16G  executor core 给 2 个。问每个 core 分配多少内存

面试官那边全程嘈杂,不知道在干啥,讨论问题??


2017-08-11- 京东广告数据部 - 机器学习 - 内推 1 面 - 电话

1、自我介绍

2、说一下进程和线程

说一大堆,再就说之间的区别

3、线程安全的理解

4、有哪些线程安全的函数

5、数据库中主键、索引和外键。以及作用

一个表可以没有主键,可以有索引

6、说项目

7、Spark 原理

8、Spark 是多线程模式,怎么退化为多进程模式。

在每个 executor core 设置为 1,即每个 executor 是单线程的。

9、撸代码。实现一个 java 迭代器

数据:

int[][] data = new int[][] {

null,

new int[] {1,2,3,4},

new int[] {},

null,

new int[] {5,6,7},

new int[] {8},

null,

};

要求:遍历是跳过 NULL。依次遍历每个元素:1,2,3,4,5,6,7,8

提示:

hasNext 里面不应该改变迭代器内部状态,hashNext 只判断

next 返回值,并且指向下一个有效元素。

P.S. 面试官很忙,在我写代码的时候。还在跟另一个候选人约时间 ~~~


2017-08-11- 京东广告数据部 - 机器学习 - 内推 2 面 - 电话 一面、二面连着玩 ~~~

1、自我介绍

2、对于机器学习你都学了哪些?讲一个印象深的

说了 SVM 原理,拉格朗日法,对偶问题,以及好处。

3、SVM 怎么防止过拟合

说了 SVM 里面的松弛变量。不知道对不对

4、我主动出击,有另一大类算法决策树,说不管是 LR 还是 SVM 都不能直观的感受到决策依据。而决策树易于理解,能够直观的感受到决策依据。

说了划分依据:信息增益(说了信息熵的来源,等概率时熵最大)、信息增益率、基尼系数。

说了划分方法(基于信息增益的)

说了 C4.5 比较 ID3 的优点。

5、决策树如何防止过拟合

剪枝,前剪枝和后剪枝。说了 REP 剪枝。C4.5 是悲观剪枝

6、项目没问,说从上位面试官了解了。

7、撸代码

求连续子数组最大乘积,还让考虑边界问题(最后问了:连乘有可能导致溢出,存不下了)


2017-08-15- 拼多多 - 算法 - 内推 1 面 - 电话

1、自我介绍

2、介绍项目

3、项目延展题:电商搜索框,每天有 500W 的搜索 query。针对新来的一个 query,给出和它最相似的 100 个 query。

如果用 RNN 分类模型表征,那么向量不应该用最后一层的分类特征。应该用倒数第二层的更纯的特征。

现在假设 500W 的 query 已经是向量了。如何和这一个 query 比较。全部算距离不行,开销太大。

应该怎么办???

4、K-means 聚类个数选择,做什么样的试验来确定 K

5、两个 4G 的文件(每个文件可能有重复),里面全都是数字。现有内存 1G,求这两个文件的交集。

2 个 4G 的文件,分别 hash 成 10 个子文件,一个 400M。

把一个子文件存储到 hash 表中,作为 key。遍历另一个文件,看这个数字是否存在于刚才的 hash 表中。存在即可输出。


2017-08-23- 美丽联合 - 算法 - 内推 1 面 - 电话

1、自我介绍

2、介绍项目

3、说了 SVM

4、为什么要把原问题转换为对偶问题?

因为原问题是凸二次规划问题,转换为对偶问题更加高效。

5、为什么求解对偶问题更加高效?

我答了,因为只用求解 alpha 系数,而 alpha 系数只有支持向量才非 0,其他全部为 0.

6、alpha 系数有多少个?

我答了:样本点的个数

7、避免过拟合的方法

答了:决策树剪枝、L2 正则和 L1 正则

8、为什么 L1 正则可以实现参数稀疏,而 L2 正则不可以?

答了:L1 正则因为是绝对值形式,很多系数被压缩为 0,。而 L2 正则是很多系数被压迫到接近于 0,而不是 0

9、为什么 L1 很多系数可以被压缩为 0,L2 是被压缩至接近于 0?

答了:图像上,L1 正则是正方形,L2 正则是圆形。

L1 正则的往往取到正方形顶点,即有很多参数为 0

L2 正则往往去不到圆形和参数线的交点,即很多分量被压缩到接近于 0

哪位大佬知道哪里有 L1、L2 的实现代码???,求告知 ~~~~~~~

10、问平时用啥语言比较多?

说了之前用 java、scala 多。现在用 python 较多。

11、问 jvm 啥啥啥(没听清)。。。

答:不会

12、python…直接问你个开发中的实际问题吧,如果写的程序跑的非常慢,多方面分析这个问题?

答了: 1、检查程序是否有多层嵌套循环,优化

2、检查程序是否有很耗时的操作,看能否优化为多线程并行执行

3、检查数据量是否非常大,考虑是否可以用分布式计算模型。

求大佬补充 ~~~~~~~~~~

13、SQL 中 inner join 和 outer join 的区别?

14、试图给他说说 SPARK,结果被严词拒绝(开玩笑的)。。。说时间紧迫,还是他来问吧。。。

15、Kmeans 中,现在给你 n 个样本点不在欧式空间中,无法度量距离。现在给了一个函数 F,可以衡量任意两个样本点的相似度。请问 Kmeans 如何操作?

答:想了一会,比如 K=4 的聚类。

1、首先,随机去 4 个点,作为初始类簇中心。

2、计算所有样本点与这 4 个点的 F 相似度。根据相似程度,把所有样本点分到 4 个类中。

3、在这 4 个类中,计算每一个样本点 i 到该类其他样本点的相似度和 Si。取 Si 最大的那个点作为这个类的中心。

4、重复 2、3 步骤,直到类中心不再变化或者循环次数达到目标。


2017-08-27- 链家 - 算法 - 内推 1 面 - 现场

来了之后先做 1 个小时的题,5 道算法题

因为比较长,所以采用 A:面试官   B:本人

B 自我介绍

A 你自己学机器学习,怎么学的?

B 自己看书,周志华的西瓜书、机器学习实战。先找着撸代码,然后去深究里面的理论。

A 西瓜书看到什么程度?

B 刚开始看,看不太懂,然后就以机器学习实战为主,先照着撸代码,然后去西瓜书里深究里面的理论。

B 我给您说说 SVM 吧,自学的时候留下很深的印象(试图抓住主动权 ~)

SVM 是基于。。。说着手动起来写 SVM 的损失函数

A (打断)为什么样本点到决策面是 1/||w||

B 手推向量点到决策面的表达式(麻蛋,竟然一时紧张忘了。。。没推出来)

A 点到直线距离公式记得吧?

B 嗯嗯,又没写出来。只能说之前推过,现在一紧张忘了。。。

A 这个也无关紧要,继续

B 继续说 SVM

A (打断)知道 LR 吧,知道 LR 和 SVM 有什么不同吗?

B 知道,首先这两个算法的分类思想不同,LR 是基于概率推导的,SVM 是基于最大化几何间隔的

A (打断)写一下,LR 的损失函数

B 手写出来。其实这个 sigmoid 函数由那个什么族分布(真的忘了名字,其实是:指数族分布),加上二项分布导出来的。损失函数是由最大似然估计求出的。

A 怎么由最大似然估计导出的?推导一下

B 最大似然估计就是求让已知事件发生的概率最大的参数。

假设有 5 个样本,每一个的类别是 yi,由 LR 计算出的概率是 h(x)。那么每一个样本预测正确的概率为:

(H(x)yi)*((1-h(x))(1-yi)) —-

(刚开始一紧张,把 h(x) 和 yi 写反了)面试官说是这样吗?你这样全为 0,我感觉你在背公式。。。你再看看

我一看,卧槽这竟然写错了。赶紧改过来,然后表明是自己紧张了。

概率连乘后,然后取对数就是 LR 的损失函数了。

A 为什么损失函数有个负号?

B 这是因为要应用梯度下降法,引入的。不加负号也可以,梯度上升法。这都是一样的。

A OK,继续,LR 和 SVM 有什么区别?

B SVM 决策面只由少量的支持向量决定,而 LR 的话是所有样本都会参与决策面的更新。

A 对,所以说 SVM 怎么样?

B SVM 对于异常点不敏感,而 LR 敏感。SVM 更加健壮,决策面不受非支持向量影响。

A OK

A 知道过拟合吧?

B 知道,在训练集表现好,在测试集表现一塌糊涂。举个例子就是:学生平时考试成绩非常棒,但一到实际应用就很烂。

A 说说常见的过拟合的解决办法

B 数据,样本不够,如果现在的训练集只是所有样本空间的一个小小的部分,那么这个模型的泛化能力就非常差(边画图,边说)

A 嗯嗯,还有呢

B 可以加正则项,L1,L2 正则。L1 还可以用来选择特征

A 为什么 L1 可以用来选择特征

B 因为 L1 的话会把某些不重要的特征压缩为 0

A 为什么 L1 可以把某些特征压缩为 0

B 因为(画图)L1 约束是正方形的,经验损失最有可能和 L1 的正方形的顶点相交,L1 比较有棱角。所以可以把某些特征压缩为 0

A 还有什么过拟合的解决方法

B 神经网络中,dropout 方法。就是每层网络的训练,随机的让一半神经元不工作。达到防止过拟合的目的

A 还有吗?

B 决策树中可以用剪枝操作。

B 决策树过拟合,可以用随机森林。。。

A 什么???现在一个决策树已经过拟合了,还要再以它为基准训练随机森林?

B 。。。对,你说的对。我想错了。。。

B 我就知道这些方法了。。。

A OK,挑一个项目给我说说吧

B 说项目(不记得中间有没有再提问了。。。)

B 要不我给您说说 spark 框架吧,之前还用的挺多。

A 嗯(看简历和笔试题中。。。)

B 开始说。。。说到三分之一

A 好了! 你不必说了。(大手一挥 ~)我看你 5 道笔试题都没写思路,现在把第二题代码写出来

注: 第二题就是检测括号是否匹配

B 我写了啊。。。(给他翻到其中一个的背面)

A 哦,(迅速扫过代码,),为什要把字符压栈呢?不压栈也可以的。

B 是吗?{abc()} 这样的也是合法的吗?

A 当然啊(看了一眼题。)

B 好吧,我本来也准备看到字符就丢到,不入栈。但担心这种情况不合法,就给入栈了。

A 嗯,第三题呢?

B 没思路,没写

A 给我说说第四题

第四题:10 分钟内,恶意 IP 访问检测(10 分钟内访问次数超过 1024 即为恶意访问)

B 这是 10 分钟动态检测的,需要时间刻度精确到秒吗?

A 不需要

B 把 10 分钟内的存入 hashmap, 再把 key,value 互换存入 treemap。因为 treemap 是基于 key 有序的,升序。然后直接拿出来最后一个和 1024 比较。

A 怎么实现动态的检测,当前检测 0-10 分钟,那么第 11 分钟怎么办?

B 把 0-10 分钟的摘出来,从 10 分钟内的 hashmap 中减去,再把 10-11 分钟内的加上。

我知道这样实现起来,效率应该不高,但这一会我只想到了这个。。。

A 嗯,其实可以这样,把每分钟的分开存储,动态的向后移动,取这 10 个的总的数据就行。

甚至可以每分钟只存储 TOP200 的,然后 10 个分钟的汇总,取 TOP1

B 嗯,明白了。

A 说说循环依赖这个怎么解决的?

第五题:系统有很多相互依赖的包,怎么检测循环依赖

B 把它当做一个链表。记录当前的名字在 hashset 中。如果某一次遍历的依赖名字存在于这个 hashet 中。就认为有循环依赖。

A 学过数据结构吧?学过图吧?给你一个有向图,怎么检测有环?

B 维护一个访问的数组,记录哪些点被访问过,从一点开始遍历,如果遍历的点被访问过,就说明有环

A 从哪个店开始遍历?

B 从入度为 0 的点开始遍历

A 如果有多个入度为 0 的点呢?

B 嗯。。。都要以它为入口开始遍历。

A show me the code!!!

(我内心是崩溃的。。。)

B 纠结了一会,又给他说了一遍思路。

A 嗯,好吧,我没有什么想问的了。你呢?

B 请问您说的这个图的这个应该怎么。。。算了,我还是下去自己看吧。。。我还是想知道怎么解决。。。

A 你说的对啊,就把思路给我讲了一下,和我的差不多。

B 贵公司这里机器学习、深度学习有什么应用场景呢?

A 房屋估价啊什么的。

B 好的,谢谢。再次感谢,离开。


2017-08-27- 链家 - 算法 - 内推 2 面 - 现场

1、自我介绍

2、之前写过 spark?写过统计日志用户数?那手写一下统计用户数(scala 手写)

3、项目中用到了聚类?手写一下 Kmeans

4、一般工业界不这样用,用 kd-tree 加速

5、给你出道题写一下,一个文件每一行有 3 列(\t 分隔),每个字符串是 abcd,这种形式,中间有大写有小写。

现认为:abcDe 等于 BcaDe (即:不区分大小写,无关顺序)

要求输出: 字符 空格 出现次数 空格 每一种字符(以 | 分隔)

实例输出: abcde 2 abcDe|BcaDe

6、记不得了。。。好像没了。。。


2017-08-27- 链家 - 算法 - 内推 HR 面 - 现场

这个后面再补吧,无关技术


2017-08-29- 拼多多 - 算法 -2 面 - 内推 - 电话

1、自我介绍

2、将项目

3、说 SVM

4、好像还说了 spark 原理

5、电话中断,面试官线上有BUG**,去改BUG了。。。**

6、10 分钟后电话来了

7、我主动说:我给您说一下决策树方面的吧

8、面试官说:不用了,来道题。。。

9、一个矩阵都是 0,1 且每一行,0 都在 1 前面。求 1 个数最多的那一行的序号


2017-08-30- 京东 - 机器学习 - 内推 HR 面 - 现场

这个后面再补吧,无关技术


2017-08-31- 拼多多 - 算法 -HR 面 - 内推 - 电话

这个后面再补吧,无关技术


2017-09-04-360- 大数据算法 -1 面 - 内推 - 视频

1、自我介绍

2、说项目

3、说一下项目中用的 Kmeans 算法

4、知道哪几种聚类算法,说下原理

5、Kmeans 有什么优缺点

6、项目用了 RNN,说一下 RNN 原理

说了 RNN 原理,顺便说了 LSTM/GRU 的出现

7、为什么会出现长时依赖的问题

8、LSTM/GRU 如何解决长时依赖的问题

9、写代码:

一个有序数组中查找某个数

一开始写了个遍历查找,面试官说,还能再快吗?

然后写了个二分查找


2017-09-05- 美团点评 - 机器学习 -1 面 - 内推 - 电话

1、自我介绍

2、说项目

3、打断,问个扩展题:问答系统,有 200W 个 FAQ,如何用分类模型做分类

思考 ing,面试官提示:了解搜索引擎吗?

用倒排索引,把 FAQ 的问题分词,每个词对应多个 FAQ。新来的 query 分词,每个词对应的 FAQ 拉出来。再在这个里面做分类。

4、继续说项目

5、说一下 hadoop 重要的 2 点

说 shuffle,说 map、reduce 分别分配资源,可以细粒度控制资源占用情况,有利于超大任务平稳正常运行。

6、面试官说,其实是 HDFS,正是由于有了分布式文件系统,才可以分布式计算

对,分布式文件系统。数据在哪里计算就在哪里,移动数据变成了移动计算。更高效

7、做题

给定二叉树前序、中序遍历结果。求后序遍历结果

8、一维空间中,2 个线段,a1-b1 和 a2-b2。判断是否两个线段有交集

他想要的答案是:一个线段里面的大坐标,小于等于另一个线段里面的小坐标。


2017-09-07- 美团点评 - 机器学习 -2 面 - 内推 - 电话

1、自我介绍

2、说项目

3、用 RNN 了,说一下原理

说 RNN,顺便说了长时依赖问题,介绍了 LSTM,GRU

4、说情感分析的项目

5、每个句子都被打上标签正向或者负向情感,如果我想得出句子中的每个词的情感倾向,怎么做?

我不清楚该怎么做,就如下扯乎:

认为每个句子的情感倾向由每个词的情感倾向打分相加而得。

有的词正向:+1,+2,+3…

有的词负向:-1,-2,-3…

经过 RNN,每一时刻的输出。。。扯完我现在想都想不通了。。。

后来想了想可以用贝叶斯分类。不知道对不对,还请大佬指正啊 ~~~~~

6、情感分析里用了 SVM,说一下

说 SVM,顺便跟 LR 对比一下

7、还知道其他分类算法吗

嗯嗯,知道,说了决策树,ID3,C4.5,再扯了扯 bagging 和 boosting

8、做题

数轴上从左到右有 n 各点 a[0], a[1], ……,a[n -1],给定一根长度为 L 的绳子,求绳子最多能覆盖其中的几个点。要求时间复杂度 O(n),空间复杂度 O(1)


2017-09-11- 美团点评 - 机器学习 -3 面 - 内推 - 电话

1、自我介绍

2、说项目

3、场景题:一个景点有很多信息,位置、门票、类型等等。设计一个知识图谱。这个事情如果交给你来做,你会怎么推进

当时就一脸懵逼,只听过这个东西。没研究过。。。就硬着头皮瞎掰

4、我给介绍了 SVM

5、你这机器学习这块,只学了这几个月。你认为你有什么优势能跟其他这个专业的人竞争?

麻蛋。。。确实没想过这个问题,继续瞎掰

6、又是场景题:有 100 亿网页,每个网页都有一个标签。有可能一个标签对应上百万标签,有的标签只对应几个标签。要做一个数据去重,每个标签只要 1 个网页。

7、工作中遇到了什么实际的难点问题,怎么解决的?

面试官是一个和蔼的秃顶大叔,估计是总监级别。问的问题就是有深度,考察解决问题能力


2017-09-11- 搜狗 - 机器学习 -1 面 - 校招 - 现场

1、自我介绍

2、说项目

3、用 RNN 了,说一下原理

4、问 RNN 怎么训练的?

大概说了说,BPTT。这个不太懂

5、RNN 的输入是什么呢?

有 word2vec 训练的词向量库,一个句子分词后,把词都换成对应的向量输入

6、继续说项目

7、项目用到聚类了?介绍一下

巴拉巴拉巴拉

8、说文本情感分类项目,文本向量用 tf-idf 这种有什么问题没有?

有,不能捕获到上下文之间的联系。以后尝试用 doc2vec 这种。

9、了解 bagging 和 boosting 吗?

巴拉巴拉

10、做题

1、全排列

2、数组第 k 大的数

3、数组左减右,求最大差

4、树的路径和


2017-09-17- 百度 - 机器学习 -1 面 - 校招 - 现场

因为笔试做的比较烂,所以以为没有面试机会。于是去了现场企图霸面。结果小姐姐当场一查,居然我也在面试名单,是还没有通知。于是回去,愉快的等待第二天面试。

因为较长 A: 面试官    B: 本人

A 你是上午最后一个,咱们可以多聊一会(内心是崩溃的。。。)

A(原本以为要套路的自我介绍。。。结果。。。)你用 C++ 多吗?

B 不多,用 java、python 较多

A 那 STL 熟悉吗?

B 不熟

A 知道 Trie 树吗?

B 不熟,一顿扯

A 详细讲解 Trie 树。

A 红黑树了解吗?(据说让搞红黑树就要挂,难道这里就是预兆???)

B 说了说 5 个特性

A 详细讲解红黑树、B 树、2-3-4 树。

B(一脸谦虚的认真听)

A 来做道题

一副扑克牌,未拆封,是有序的排列。要给 4 个人发牌,要使发的每一张牌的概率相同。

即发第 i 次牌,发出 10 和发出 2 的概率要相等。

B 想了想,问了问,说了说思路,谈论了一下。

A 排序算法知道哪些

B 巴拉巴拉

A 快排了解吗?

B 说了思想,说了如何划分集合。

A 知道快排的非递归实现吗?

B 不了解

A 那写个 mergeSort 吧,规定要写代码的。

B 一会就搞定了

A 咱们问问机器学习吧

A 随机森林了解吗?Bagging 和 boosting 了解吗?

B 介绍随机森林

A RF 的话,如果有一个特征和标签特别强相关。选择划分特征时,如果不随机的从所用特征中随机取一些特征的话,那么每一次那个强相关特征都会被选取。那么每个数都会是一样的。这就是随机森林随机选取一些特征的作用,让某些树,不选这个强相关特征。

B 搜嘎。。。

A 知道为什么 bagging 吗?

B。。。

A bootstrap aggregating

B 又介绍了 boosting

A 说说这个项目吧

B 巴拉巴拉

A 看你项目用了 SVM,介绍一下

B 巴拉巴拉(中间被打断)

A 你们怎么过来说的都很像啊,你们都看什么书?

B。。。我看的周志华的西瓜书和李航的统计学习方法。。。

A 继续

B。。。巴拉巴拉

A 还用到了 RNN,介绍一下

B 巴拉巴拉


2017-09-19- 三星研究所 - 机器学习 -1 2 面 - 校招 - 现场

笔试:

早上笔试,一道题,3 小时。。。

其实不是考编程,是考英语。。。

看题 1 小时,做题 10 分钟。。。

结束后,发了一张公交卡(32 元)~ 管了一顿泡菜料理。。。

HR 面试:

略。。。

技术面试:

1、介绍项目

2、介绍 RNN

3、Python 如何定义一个私有变量

4、Java 多线程 start 和 run 方法的区别

5、Java hashmap 和 hashtable 的区别

西安三星电子研究所说有关机器学习的有存储 SSD 方面的、物联网平台方面的


2018-01-25 回顾校招经验

知识储备(老生常谈):

    计算机基础 + 算法题 + 专业知识基础(我就是机器学习基础)+ 项目

招聘内推信息:

    水木社区 + 北邮人论坛 + 牛客网 + 等等等

海投,看准岗位。

能提前实习就实习,能内推就内推。因为坑位一步一步变少嘛

面试前经验:在牛客网上搜索该公司的面经,把和自己岗位有关的知识点,记录下来,搞懂。

上面这句有奇效*******

面试中经验:当气氛尴尬时,就是你回答了他的问题后,他还没有提出下一个问题时。抢占先机,想他兜售、推销你准备好的、熟练的知识。

上面这句也挺关键*******

HR 面试经验:当 HR 问你,那个 XXX 公司怎么样啊,他让你去,你怎么选择呢?

                       个人感觉(仁者见仁智者见智):客观的表达自己的观点,不能因为参加 A 公司的面试,就当场贬低 B 公司。但是,有一点很重要,                           一定要说出一个听起来让人信服的理由,自己想加入 A 公司而不是 B 公司的理由。


更多高质资源 尽在AIQ 机器学习大数据 知乎专栏 点击关注

转载请注明 AIQ - 最专业的机器学习大数据社区  http://www.6aiq.com