一个专门做海鲜的网站,专做化妆品网站,如何学好网站建设,做古玩的网站很多线性分类模型只使用与二分类问题#xff0c;将二分类算法推广到多分类算法的一种常见方法是“一对其余”方法。在“一对其余”方法中#xff0c;对每个类别都学习一个二分类模型#xff0c;将这个类别和其他类别尽量区分#xff0c;这样就生成了与类别数相同的二分类模…很多线性分类模型只使用与二分类问题将二分类算法推广到多分类算法的一种常见方法是“一对其余”方法。在“一对其余”方法中对每个类别都学习一个二分类模型将这个类别和其他类别尽量区分这样就生成了与类别数相同的二分类模型数。在测试点上运行所有分类器进行预测在对应类别上分数最高的分类器“胜出”将这个类别标签范围作为预测结果。
多分类Logistics回归背后的数学与“一对其余”方法稍有不同但也是对每个类别都有一个系数向量和一个截距也使用了同样的预测方法。
以一个三分类的二维数据集为例
from sklearn.datasets import make_blobs
import matplotlib.pyplot as plt
import mglearn
from sklearn.svm import LinearSVC
import numpy as npplt.rcParams[font.sans-serif][SimHei]
X,ymake_blobs(random_state42)
mglearn.discrete_scatter(X[:,0],X[:,1],y)
plt.ylim(-10,15)
plt.xlim(-10,10)
plt.xlabel(0)
plt.ylabel(1)
plt.legend([类别0,类别1,类别2],loc(1.01,0.3))plt.show() 在这个数据集上训练LinearSVC分类器
line_svcLinearSVC().fit(X,y)
print(coef_形状:{}.format(line_svc.coef_.shape))
print(intercept_形状:{}.format(line_svc.intercept_.shape))可以看到coef_的形状是(3,2)说明coef_每行包括三个分类之一的系数向量每列包含某个特征对应的系数值。
对3个二类分类器给出可视化 训练集中所有属于类别0的点都在与类别0对应的直线上方说明他们位于这个二类分类器属于类别0的那一侧。没有直接和某类点在同一个区域的点属于“其余”部分。“其余”部分属于分类方程结果最大的那个类别即最近的的那条线对应的类别