算法工程师(机器学习)面试题目4---深度学习算法
Posted 小葵花幼儿园园长
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了算法工程师(机器学习)面试题目4---深度学习算法相关的知识,希望对你有一定的参考价值。
基础问题
CNN
1. 卷积神经网络和全连接网络的根本不同之处在哪里
两者之间的唯一区别是神经网络相邻两层的连接方式。在全连接神经网络中,每相邻两层之间的节点都有边相连
,而对于卷积神经网络,相邻两层之间只有部分节点相连
;
全连接网络缺点: 参数太多,计算速度变慢,容易过拟合
卷积神经网络:局部链接;权值共享;参数更少,降低过拟合的可能
卷积神经网络一般是由卷积层、汇聚层和全连接层交叉堆叠而成的前馈神经网络。
RNN
1、BatchNormalization的作用
2、梯度消失
3、循环神经网络,为什么好?
4、什么是GroupConvolution
5、什么是RNN
6、训练过程中,若一个模型不收敛,那么是否说明这个模型无效?导致模型不收敛的原因有哪些?
7、图像处理中锐化和平滑的操作
8、VGG使用3*3卷积核的优势是什么?
9、Relu比Sigmoid的效果好在哪里?
10、神经网络中权重共享的是?
11、神经网络激活函数?
12、在深度学习中,通常会finetuning已有的成熟模型,再基于新数据,修改最后几层神经网络权值,为什么?
13、画GRU结构图
14、Attention机制的作用
15、Lstm和Gru的原理
16、什么是dropout
17、LSTM每个门的计算公式
18、HOG算法原理
19、DropConnect的原理
20、深度学习了解多少,有看过底层代码吗?caffe,tf?
21、除了GMM-HMM,你了解深度学习在语音识别中的应用吗?
22、用过哪些移动端深度学习框架?
23、Caffe:整体架构说一下,新加一个层需要哪些步骤,卷积是怎么实现的,多卡机制,数据并行还是模型并行?
24、HOG算子是怎么求梯度的
25、BN层的作用,为什么要在后面加伽马和贝塔,不加可以吗
26、梯度消失,梯度爆炸的问题,
27、Adam
28、attention机制
29、RNN梯度消失问题,为什么LSTM和GRU可以解决此问题
30、GAN网络的思想
31、1*1的卷积作用
32、怎么提升网络的泛化能力
33、什么是seq2seq model
34、激活函数的作用
35、为什么用relu就不用sigmoid了
36、讲一下基于WFST的静态解码网络的语音识别流程?
37、目标检测了解吗,Faster RCNN跟RCNN有什么区别
38、SPP,YOLO了解吗?
39、梯度消失梯度爆炸怎么解决
40、RNN容易梯度消失,怎么解决?
41、LSTM跟RNN有啥区别
42、卷积层和池化层有什么区别
43、 防止过拟合有哪些方法
44、dropout咋回事讲讲
45、relu
46、神经网络为啥用交叉熵。
47、注意力公式
48、论文flow情况
48、Flappy.Bird开发者,怎么利用DNQ方法强化学习你的游戏AI
49、LeNet-5结构
50、推导LSTM正向传播和单向传播过程
51、LSTM原理,与GRU区别
52、DNN的梯度更新方式
53、 CNN为什么比DNN在图像识别上更好
54、现场用collabedit写代码,一个怪异的归并算法。之前没遇到过,直接把归并写出来,但是说复杂度太高,优化了三遍还不行,最后说出用小顶堆解决了。
55、LSTM和Naive RNN的区别
56、神经网络为啥用交叉熵。
57、注意力公式
58、Inception Score 评价指标介绍
59、使用的 CNN 模型权重之间有关联吗?
60、CycleGAN 原理介绍一下
61、训练 GAN 的时候有没有遇到什么问题
62、CPM 模型压缩怎么做的?有压过 OpenPose 吗?
63、用过哪些 Optimizer,效果如何?
64、图像基础:传统图像处理方法知道哪些,图像对比度增强说一下
65、介绍一下图像的高频、低频部分,知道哪些图像补全的方法
66、百度实习:模型压缩的大方向。CPM 模型怎么压缩的,做了哪些工作?
67、Depthwise 卷积实际速度与理论速度差距较大,解释原因。
68、RetinaNet 的大致结构画一下
69、RetinaNet为什么比SSD效果好
以上是关于算法工程师(机器学习)面试题目4---深度学习算法的主要内容,如果未能解决你的问题,请参考以下文章
程序员面试宝典:百面机器学习+百面深度学习 算法工程师带你去面试