博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
机器学习(二)逻辑斯蒂回归
阅读量:5068 次
发布时间:2019-06-12

本文共 1345 字,大约阅读时间需要 4 分钟。

上文中说过,逻辑斯蒂回归虽然称为回归,但它实际上是一种分类算法。认识逻辑斯蒂回归,首先需要知道sigmoid函数。下面公式1即为sigmoid函数\[g\left( x\right) =\dfrac {1}{1+e^{-x}}\]它的函数图像如图所示。

这里写图片描述

1、算法介绍

和上文中的回归算法一样,我们有m条数据,每条数据有n个特征和1个标签。不同的是,上文的标签是一个连续型变量,本文中的标签是一个离散型变量,且它只有两个值,[0,1]。

在线性回归中,有\(\widehat{y}=\theta ^{T}x\),而在逻辑斯蒂回归中,其结果就是在线性回归外面套上sigmoid函数,即\[\widehat {y}=\dfrac {1}{1+e^{-\theta ^{T}x}}\]因此,\(\widehat {y}\)是一个连续变量,其取值范围为(0,1)。

对于\(y\)\(\widehat {y}\),我们希望,当\(\widehat {y}\)接近1时,\(y\)也大概率为1;当\(\widehat {y}\)接近0时,\(y\)也大概率为0。因此可以做出如下假设。

\[p(y=1| x,\theta )=\widehat {y}\] \[p(y=0| x,\theta )=1-\widehat {y}\]
以上两式可以统一为\[P\left( y| x,\theta \right) =\widehat {y}^{y}\left( 1-\widehat {y}\right) ^{1-y}\]同理,由于x和y均已知,它是一个关于\(\theta\)的函数。
据此可求出其最大似然函数:\[L\left( \theta \right) =\prod ^{m}_{i=1}\widehat {y}^{y}\left( 1-\widehat {y}\right) ^{1-y}\]\(i\)为第\(i\)个样本。
同理,可求其对数似然函数为\(l\left( \theta \right)\),并对每个\(\theta\)求偏导。求导结果为:\[\dfrac {\partial l\left( \theta \right) }{\partial \theta_{ j}}=\sum ^{m}_{i=1}\left( y^{i}-\widehat {y}^{i}\right) x^{i}_{j}\]

对其进行梯度上升学习,有

\[\theta _{j}=\theta _{j}+\alpha \left( y-\widehat {y}\right) x_{j}\]

逻辑斯蒂回归的目标函数被习惯性的认为成对数似然函数的相反数,即\[loss=-l\left( \theta \right) \]

前文中,我们认为y的取值为0,1。若认为y的取值为+1和-1,则可推导出一个较为优美的损失函数如下。\[loss=\sum ^{m}_{i=1}\left[ \ln \left( 1+e^{-y_{i}\widehat {y}_{i}}\right) \right] \]

转载于:https://www.cnblogs.com/Yolanda7171/p/7242324.html

你可能感兴趣的文章
标准IO库
查看>>
OPENCV形态学操作1
查看>>
WINDOWS动态链接库--MFC规则动态链接库
查看>>
SpeechLib 应用
查看>>
深入理解计算机系统—链接
查看>>
mybatis自动生成mapper.xml文件,model文件
查看>>
数组和关联数组
查看>>
C# 知识点总结
查看>>
STP RSTP
查看>>
2018年学习计划
查看>>
Visual Studio 2017 版本 15.5.5
查看>>
防火墙/IDS测试工具Ftester
查看>>
“多个单核CPU”与“单个多核CPU”哪种方式性能较强?
查看>>
PEP8 Python 编码规范整理
查看>>
esxi安装全过程及基本配置
查看>>
First ServiceStack Service
查看>>
SNMP协议
查看>>
Django模型之Meta选项详解
查看>>
cell选中后进入重用池出来选中状态消失
查看>>
物联网开源项目:机智云智能婴儿摇篮,可跟踪、能防丢
查看>>