姚慧扬

2020-08-16   阅读量: 790

机器学习

逻辑回归

扫码加入数据分析学习群

损失函数:

1.线性回归:L(θ)=常数-J(θ) -->J(θ)最小

2.逻辑回归:J(θ)=-L(θ) -->最小

3.softmax回归:J(θ)=-L(θ) -->最小

交叉熵函数:衡量两个概率分布的距离

为什么用交叉熵函数:因为MSE训练起来很费劲,但是交叉熵函数可以收敛的更快

分类问题都是使用交叉熵损失函数,不用MSE


对于不平衡的数据有以下处理方法:

1.数据层面处理:只能处理训练集,不能处理测试集

2.算法层面:权重参数调整


添加CDA认证专家【维克多阿涛】,微信号:【cdashijiazhuang】,提供数据分析指导及CDA考试秘籍。已助千人通过CDA数字化人才认证。欢迎交流,共同成长!
32.3250 2 1 关注作者 收藏

评论(0)


暂无数据

推荐课程

推荐帖子