深度学习面试题

1,

激活函数在神经网络中的作用是什么?

激活函数模拟生物学中的神经元是否应该被激发。它接受输入和偏差的加权和作为任何激活函数的输入。从数学角度讲引入激活函数是为了增加神经网络模型的非线性。Sigmoid、ReLU、Tanh 都是常见的激活函数。

2,反向传播的过程?

3,CNN中常见的层有哪些? 分别是什么作用?

4,简述一下sigmoid函数

5,神经网络中哪些方法可以避免过拟合?

  1. Dropout
  2. 加L1/L2正则化
  3. BatchNormalization
  4. 网络bagging
  5. 提取终止训练
  6. 数据增强

6,绍Batch Normalization的意义

7,你通常使用哪些指标来评估你的模型?这些指标含义?

8,当图像尺寸变为2倍,CNN的参数数量变为几倍?为什么?

9,Yolov4的5个基本组件

1.CBM: Yolov4网络结构中最小的组件,由Conv+Bn+Mish激活函数三者组成
2.CBL:由Conv+Bn+Leaky_relu激活函数三者组成。
3.Res unit: 借鉴Resnet网络中的残差结构,让网络可以构建的更深。
4.CSPX:借鉴CSPNet网络结构,由三个卷积层和 X个Res unit模块Concate组成。
5.SPP: 采用1x1,5x5,9x9,13x13的最大池化的方式,进行多尺度融合。

Mish激活函数,网络后面任然采用Leaky_relu激活函数

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
THE END
分享
二维码
< <上一篇
下一篇>>