算法工程师(机器学习)面试题目3---机器学习算法
Posted 小葵花幼儿园园长
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了算法工程师(机器学习)面试题目3---机器学习算法相关的知识,希望对你有一定的参考价值。
说明:这些是自己整理回答的答案 可以借鉴 也可能存在错误 欢迎指正
机器学习
- 机器学习算法
- 1、处理分类问题常用算法
- 1、交叉熵公式
- 2、LR公式
- 3、LR的推导,损失函数
- 4、逻辑回归怎么实现多分类
- 5 、SVM中什么时候用线性核什么时候用高斯核?
- 6、什么是支持向量机,SVM与LR的区别?
- 7、监督学习和无监督学习的区别
- 8、机器学习中的距离计算方法?
- 9、朴素贝叶斯(naive Bayes)法的要求是?
- 10、训练集中类别不均衡,哪个参数最不准确?
- 11、你用的模型,最有挑战性的项目
- 12、SVM的作用,基本实现原理;
- 13、SVM的硬间隔,软间隔表达式;
- 14、SVM使用对偶计算的目的是什么,如何推出来的,手写推导;
- 15、SVM的物理意义是什么;
- 16、如果给你一些数据集,你会如何分类(我是分情况答的,从数据的大小,特征,是否有缺失,分情况分别答的);
- 17、如果数据有问题,怎么处理;
- 18、分层抽样的适用范围
- 19、LR的损失函数
- 20、LR和线性回归的区别
- 21、生成模型和判别模型基本形式,有哪些?
- 22、核函数的种类和应用场景。
- 23、分类算法列一下有多少种?应用场景。
- 24、给你一个检测的项目,检测罐装的可口可乐,瓶装的可口可乐作为负样本,怎么弄?
- 25、SVM核函数的选择
- 26、SVM的损失函数
- 27、核函数的作用
- 28、SVM为什么使用对偶函数求解
- 29、ID3,C4.5和CART三种决策树的区别
- 30、SVM和全部数据有关还是和局部数据有关?
- 31、为什么高斯核能够拟合无穷维度
- 32、第二面完整推导了svm一遍,还有强化学习问的很多,dqn的各种trick了解多少,怎么实现知不知道。
- 33、SVM所有核函数的了解应用,SVM的损失函数
- 34、LR和SVM 区别
- 35、朴素贝叶斯基本原理和预测过程
- 36、LR推导
- 2、处理回归问题常用算法
- 3、处理聚类问题常用算法
- 4、推荐系统的常用算法
- 5、模型融合和提升的算法
- 6、其他重要算法
机器学习算法
1、处理分类问题常用算法
1、交叉熵公式
2、LR公式
3、LR的推导,损失函数
4、逻辑回归怎么实现多分类
5 、SVM中什么时候用线性核什么时候用高斯核?
6、什么是支持向量机,SVM与LR的区别?
7、监督学习和无监督学习的区别
8、机器学习中的距离计算方法?
9、朴素贝叶斯(naive Bayes)法的要求是?
10、训练集中类别不均衡,哪个参数最不准确?
11、你用的模型,最有挑战性的项目
12、SVM的作用,基本实现原理;
13、SVM的硬间隔,软间隔表达式;
14、SVM使用对偶计算的目的是什么,如何推出来的,手写推导;
15、SVM的物理意义是什么;
16、如果给你一些数据集,你会如何分类(我是分情况答的,从数据的大小,特征,是否有缺失,分情况分别答的);
17、如果数据有问题,怎么处理;
18、分层抽样的适用范围
19、LR的损失函数
20、LR和线性回归的区别
21、生成模型和判别模型基本形式,有哪些?
22、核函数的种类和应用场景。
23、分类算法列一下有多少种?应用场景。
24、给你一个检测的项目,检测罐装的可口可乐,瓶装的可口可乐作为负样本,怎么弄?
25、SVM核函数的选择
26、SVM的损失函数
27、核函数的作用
28、SVM为什么使用对偶函数求解
29、ID3,C4.5和CART三种决策树的区别
30、SVM和全部数据有关还是和局部数据有关?
31、为什么高斯核能够拟合无穷维度
32、第二面完整推导了svm一遍,还有强化学习问的很多,dqn的各种trick了解多少,怎么实现知不知道。
33、SVM所有核函数的了解应用,SVM的损失函数
34、LR和SVM 区别
35、朴素贝叶斯基本原理和预测过程
36、LR推导
2、处理回归问题常用算法
1、L1和L2正则化的区别
2、问题:Loss Function有哪些,怎么用?
3、问题:线性回归的表达式,损失函数;
4、线性回归的损失函数
5、机器学习:知道哪些传统机器学习模型
3、处理聚类问题常用算法
1、什么是DBSCAN
2、k-means算法流程
3、LDA的原理
4、介绍几种机器学习的算法,我就结合我的项目经理介绍了些RF, Kmeans等算法。
5、KMeans讲讲,KMeans有什么缺点,K怎么确定
6、DBSCAN原理和算法伪代码,与kmeans,OPTICS区别
4、推荐系统的常用算法
1、 问推荐算法,fm,lr,embedding
2、协同过滤的itemCF,userCF区别适用场景
3、 推荐系统的大概步骤,解决冷启动。。。
4、传统的机器学习算法了解吗
5、用mapreduce实现10亿级以上数据的kmeans
6、A/B test如何进行流量分流
7、协同过滤中的算法怎么细分
8、FM公式、FFM公式
5、模型融合和提升的算法
1、bagging和boosting的区别
2、boosting和 bagging区别
3、XGBOOST和GDBT的区别
4、GDBT的原理,以及常用的调参参数
6、AdaBoost和GBDT的区别,AdaBoost和GBDT的区别
7、gbdt推导
8、boosting和bagging在不同情况下的选用
9、gbdt推导和适用场景
10、说一下gbdt的全部算法过程
11、rf和gbdt基分类器区别,里面的决策树分别长啥样,怎么剪枝
12、随机森林和 GBDT 的区别
13、xgboost的特征重要性计算
14、xgboost的正则项表达式
15、xgboost原理,怎么防过拟合
16、xgboost,rf,lr优缺点场景。。。
17、xgboost特征并行化怎么做的
18、xgboost和lightgbm的区别和适用场景
6、其他重要算法
1、HMM隐马尔可夫模型的参数估计方法是?
2、Bootstrap方法是什么?
3、如何防止过拟合?
4、EM算法推导,jensen不等式确定的下界
以上是关于算法工程师(机器学习)面试题目3---机器学习算法的主要内容,如果未能解决你的问题,请参考以下文章