2020-08-12
阅读量:
944
8月12日
先用标准线性回归试一下,再用岭回归或者lasso回归.
逻辑回归:
解决多分类问题
OVO方法:
容易两个类别之间构建一个分类器,加起来取值最大选哪个
缺点:计算量大,优点:数据相对平衡
OVR方法(一类和剩下的一类)
缺点:数据相对不平衡,优点:计算量小
机器学习中的损失函数
1.回归问题
1.1平均决定误差--L1损失函数
l.2均方差误差 -- L2损失函数
1.3Huber损失 -- 平滑平均绝对误差
2.分类问题
2.1:0-1损失函数
2.2:交叉熵损失函数(Logistic回归)
处理数据不平衡的处理方式:
1.数据层门处理:只能处理训练集,不能处理测试集
2.算法层门:权重参数调整






评论(0)


暂无数据