### 写在前面
今年CV方向算法工程师非常难找,投递CV算法的毕业生越来越多,各个CV岗位(包括研究岗与业务线上的算法工程师岗)对于求职人员的要求也越来越高。
这里本文以自己春招实习以及秋招的经历为基础,整理秋招求职的视觉图像算法中的经常会遇到的一些面试问题。主要整理一些常问的基础知识以及算法知识。由于每个人自己的项目不同,岗位的不同问题也会有一些不同,这些基础问题应该是都有所理解的,这些基础知识作为查漏补缺来看吧。
1. 机器学习
梯度下降法与牛顿法
感知机的计算公式
K近邻中kd树的思路
朴素贝叶斯的推导以及假设条件
ID3,C4.5,CART决策树的计算流程
Logistic回归的极大似然推导
SVM的推导,KKT条件,原问题与对偶问题的联系
Adaboost,梯度提升决策树,GBDT,XGboost
L1正则化为什么能够获得稀疏解
2. 深度学习
RCNN系列算法的演进过程,重点详细介绍Faster RCNN算法
YOLO系列算法(v1-v4)的演进以及每个算法的特点
YOLOv3的主要改进
YOLOv4的主要改进
SSD系列算法(SSD,DSSD等算法)
two-stage算法主要慢在哪儿
ROIpooling,RoiAlign的计算
RetinaNet解决什么问题
Focal Loss的计算
Batch Normalization的作用
BN的计算公式
BN中偏移因子与缩放因子的作用
训练和测试时BN的不同点
多卡的BN如何实现同步(一次同步与两次同步)
Normalization的几种形式的计算(BN,Layer Normalization,Instance Normalization,Group Normalization)
DNN的反向传播推导
CNN的反向传播
池化层的反向传播
img2col的计算
ResNet到底解决了什么问题
感受野计算
普通卷积,Group卷积,深度可分离卷积的计算量与参数量
IOU计算(代码)
NMS(代码)
soft-NMS(代码)
MobileNet与shuffleNet特点
MobileNetv1与v2的改进
K-means聚类anchor的思路以及代码
anchor-free的算法都知道哪些
DETR算法介绍一下
FPN为何能够提升小目标的精度
Softmax与sigmoid计算公式
softmax交叉熵损失的梯度
分类为何采用交叉熵损失而不是均方差损失
TP、TF、FP、FN的计算
precision、recall、F1score、accuracy的计算
ROC、AUC、MAP的计算
各种回归损失的计算以及优缺点(L1loss,L2loss,smooth L1loss,IOU Loss, GIOULoss,DIOUloss,CIOULoss)
带有warmup的cosine学习率计算
说说了解到的几种分割算法
Transformer的原理以及VIT的了解
各种优化器的计算公式(GD,SGD,batch GD,SGD+momentum,NAG,AdaGrad,RMSProp,Adam)
CNN的平移不变性的理解
Dropout具体是怎么做的,训练和测试时有什么不一样
神经网络的深度和宽度理解
SIFT与HOG
Transformer相比较CNN的优缺点
雅可比矩阵与海塞阵(一阶导与二阶导)
深度可分离卷积的优缺点,Mobilenet是否一定快
Faster RCNN回归的公式。
权重初始化的方案(Xavier,kaiming_normal)
数据增广的常用方案
数据类别不均衡的解决方案
半监督算法
自监督算法
自监督中的崩溃解问题的理解
Triplet Loss
3. 图像处理
各种图像边缘检测算子(sober算子,Robert算子,Prewitt算子,Laplace算子,canny算子)
低通高通滤波器
降噪
形态学处理(腐蚀以及膨胀)
图像量化
4. linux常用命令
查找文件命令(whereis,which,find,grep,locate)
查看进程
杀死进程
ssh,scp
nohup &
文件权限
5. c++基础
c++编译过程
静态链接库与动态链接区别
cmakelist文件
6. python基础
python多线程,多进程
python的GIL
生成器与迭代器
装饰器
深浅拷贝
上边的基础知识,大家是不是都有很好的理解呢,在评论区大家一起交流一下,这些知识太多,整理起来太麻烦,如果需要的人较多,我就整理一下对于这些问题我自己的理解。
推荐扫码关注「小哲AI」公众号,分享更多技术文档,一起交流学习
?
原文首发于「小哲AI」公众号,公众号主要分享人工智能前言算法解读,AI项目代码解析,以及编程、互联网求职等技术资料文章,偶尔也会分享个人读书笔记、工作学习心得,欢迎关注,一起学习。
?
本文暂时没有评论,来添加一个吧(●'◡'●)