目的
为了增进对机器学习算法的学习,目前暂定一周一次讨论课,这里主要对课上的讨论结果进行记录,以增进记忆,方便日后查看学习
主要内容
本次讨论课的题目及解答如下所示:
1、逻辑回归估计参数时的目标函数。[百度 2016 校招]
http://kubicode.me/2015/08/16/Machine%20Learning/Algorithm-Summary-for-Interview/
2、逻辑回归估计参数时的目标函数 如果加上一个先验的服从高斯分布的假设,会是什么样
3、SVM在哪个地方引入的核函数
4、如果用高斯核可以升到多少维?
5、什么是贝叶斯估计
6、k折交叉验证 中k取值多少有什么关系,bias,variance是什么?
7、逻辑回归的值表示概率吗?
8、分类模型和回归模型的区别
9、分类模型可以做回归分析吗?反过来可以吗?
1、SVM的原理推导 [美团 2016 校招]
http://blog.sina.com.cn/s/blog_4298002e010144k8.html
2、讲一下random forest 和 GBDT的区别
3、特征选取怎么选? 为什么信息增益可以用来选特征?
4、倒排索引的原理
考虑两个分类器:1)核函数取二次多项式的SVM分类器和2)没有约束的高斯混合模型(每个类别为一个高斯模型)。我们对R2空间的点进行两类分类。假设数据完全可分,SVM分类器中不加松弛惩罚项,并且假设有足够多的训练数据来训练高斯模型的协方差。下面说法正确的是?
A.SVM的VC维大于高斯混合模型的VC维
B.SVM的VC维小于高斯混合模型的VC维
C.两个分类器的结构风险值相同
D.这两个分类器的VC维相同
下面说法正确的是?
A.梯度下降有时会陷于局部极小值,但EM算法不会。
B.SVM对噪声鲁棒。
C.当训练数据较多时更容易发生过拟合。
D.给定n个数据点,如果其中一半用于训练,另一半用于测试,则训练误差和测试误差之间的差别会随着n的增加而减小。
总结
这一部分主要是近期整理的一些机器学习数据挖掘相关的校招题,日后大概每周会进行一次校招题讲解,旨在深入理解常用的机器学习算法,加强机器学习基本功。