1、KNN
原理:k 近邻算法的输入为实例的特征向量,对应于特征空间的点;输出为实例的类别,可以取多类。k 近邻算法假设给定一个训练数据集,其中的实例类别已定。分类时,对新的实例,根据其 k 个最近邻的训练实例的类别,通过多数表决等方式进行预测。总之,一句话概括,近朱者赤近墨者黑。
案例:使用KNN算法改进约会网站的配对效果
2、Naive Bayes
原理:朴素贝叶斯分类是一种十分简单的分类算法,朴素贝叶斯的思想基础是这样的:对于给出的待分类项,求解在此项出现的条件下各个类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。
案例:使用朴素贝叶斯算法过滤垃圾邮件
3、Logistic Regression
原理:逻辑回归是机器学习中一个非常常见的模型,在实际生产环境中也常常被使用,是一种经典的分类模型。其思想是当面对一个回归或者分类问题,建立代价函数,然后通过优化方法迭代求解出最优的模型参数,然后测试验证我们这个求解的模型的好坏。
案例:从病症预测病马的死亡率
4、Linear Regression
原理:线性回归是对连续型的数据做出处理,回归的目的是预测数值型数据的目标值。
案例:预测玩具售价