计算机系统应用教程网站

网站首页 > 技术文章 正文

2021年9月科大讯飞-cv方向

btikc 2024-09-06 18:01:21 技术文章 6 ℃ 0 评论

问题1:常见的attention机制,说明channel attention 和 self attention 的原理

self-attention、channel attention、spatial attention、multi-head attention、transformer

自注意力机制是注意力机制的变体,其减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性。


文末免费送电子书:七月在线干货组最新 升级的《2021最新大厂AI面试题》免费送



问题2:triplet loss的训练要注意什么

答:构造类内差异大、类间差异小的数据集


问题3:softmax求导

问题4:KL散度

KL散度可以用来衡量两个概率分布之间的相似性,两个概率分布越相近,KL散度越小


问题5:检测模型里为啥用smoothL1去回归bbox

从上面的导数可以看出,L2 Loss的梯度包含 (f(x) - Y),当预测值 f(x) 与目标值 Y 相差很大时,容易产生梯度爆炸,而L1 Loss的梯度为常数,通过使用Smooth L1 Loss,在预测值与目标值相差较大时,由L2 Loss转为L1 Loss可以防止梯度爆炸。


问题6:前沿的检测范式DETR,transformer等等

与传统的计算机视觉技术不同,DETR将目标检测作为一个直接的集合预测问题来处理。它由一个基于集合的全局损失和一个Transformer encoder-decoder 结构组成,该全局损失通过二分匹配强制进行唯一预测。给定固定的学习对象查询集,则DETR会考虑对象与全局图像上下文之间的关系,以直接并行并行输出最终的预测集。由于这种并行性,DETR非常快速和高效。


评论区回复 “2021”,七月在线干货组最新升级的《2021大厂最新AI面试题 [含答案和解析, 更新到前121题]》,免费送!

持续无限期更新大厂最新面试题,AI干货资料,目前干货组汇总了今年3月-6月份,各大厂面试题。

Tags:

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表