Fork me on GitHub

2021 年 8 月,Shopee- 算法工程师 5 道面试题分享

问题1:逻辑回归和SVM的异同

LR与SVM的相同点:

  1. 都是有监督的分类算法;
  2. 如果不考虑核函数,LR和SVM都是线性分类算法。
  3. 它们的分类决策面都是线性的。
  4. LR和SVM都是判别式模型。

LR与SVM的不同点:

  1. 本质上是loss函数不同,或者说分类的原理不同。
  2. SVM是结构风险最小化,LR则是经验风险最小化。
  3. SVM只考虑分界面附近的少数点,而LR则考虑所有点。
  4. 在解决非线性问题时,SVM可采用核函数的机制,而LR通常不采用核函数的方法。
  5. SVM计算复杂,但效果比LR好,适合小数据集;LR计算简单,适合大数据集,可以在线训练。

文末免费送电子书:七月在线干货组最新 升级的《2021最新大厂AI面试题》免费送!


问题2:LR的参数可以初始化0 吗?

可以。

在逻辑回归中,
在这里插入图片描述
因此在LR的反向传播中,我们假设w=[w1,w2]Tw=[w_1,w_2]^Tw=[w1,w2]T,则
在这里插入图片描述

在这里插入图片描述

因而
在这里插入图片描述
可以看出,就算初始w1,w2,bw_1,w_2,bw1,w2,b设为0,后续梯度还是会更新的。

问题3:CNN中[1,1]卷积核的作用

  1. 实现跨通道的交互和信息整合
  2. 进行卷积核通道数的降维和升维
  3. 对于单通道feature map 用单核卷积即为乘以一个参数,而一般情况都是多核卷积多通道,实现多个feature map的线性组合
  4. 可以实现与全连接层等价的效果。如在faster-rcnn中用1x1xm的卷积核卷积n(如512)个特征图的每一个位置(像素点),其实对于每一个位置的1x1卷积本质上都是对该位置上n个通道组成的n维vector的全连接操作。


问题4:详细介绍下Batch Normolization

BN(Batch Normolization)是Google提出的用于解决深度网络梯度消失和梯度爆炸的问题,可以起到一定的正则化作用。我们来说一下它的原理:

批规范化,即在模型每次随机梯度下降训练时,通过mini-batch来对每一层卷积的输出做规范化操作,使得结果(各个维度)的均值为0,方差为1。

BN操作共分为四步。输入为xix_ixi,第一步计算均值:
在这里插入图片描述
第二步计算数据方差:
在这里插入图片描述
第三步进行规范化:
在这里插入图片描述
第四步尺度变换和偏移:
在这里插入图片描述
mmm表示mini-batch中的数据个数,可以看出,BN实际就是对网络的每一层都进行白化操作。白化操作是线性的,最后的“尺度变换和偏移”操作是为了让BN能够在线性和非线性之间做一个权衡,而这个偏移的参数γ\gammaγ和 β\betaβ 是神经网络在训练时学出来的

经过BN操作,网络每一层的输出小值被“拉大”,大值被“缩小”,所以就有效避免了梯度消失和梯度爆炸。总而言之,BN是一个可学习、有参数(γ、β)的网络层。


问题5:ROC与AUC

AUC是一种模型分类指标,且仅仅是二分类模型的评价指标。AUC是Area Under Curve的简称,那么Curve就是 ROC(Receiver Operating Characteristic),翻译为"接受者操作特性曲线"。也就是说ROC是一条曲线,AUC是 一个面积值。


七月【图像分类与图像搜索】 卷积神经实践解决车辆识别问题,价值千元课程,限时1分秒杀!

课程链接:https://www.julyedu.com/course/getDetail/256
在这里插入图片描述
本课程是CV高级小班的前期预习课之一,主要内容包含卷积神经网络基础知识、卷积网络结构、反向传播、图像特征提取、三元组损失等理论,以及目标检测和图像搜索实战项目,理论和实战结合,打好计算机视觉基础。
在这里插入图片描述


评论区回复 “2021”,七月在线干货组最新升级的《2021大厂最新AI面试题 [含答案和解析, 更新到前121题]》,免费送!

持续无限期更新大厂最新面试题,AI干货资料,目前干货组汇总了今年3月-6月份,各大厂面试题。
在这里插入图片描述


本文地址:https://www.6aiq.com/article/1631979070972
本文版权归作者和AIQ共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出