国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

機(jī)器學(xué)習(xí)分享——邏輯回歸推導(dǎo)以及 numpy 的實(shí)現(xiàn)

Java3y / 1286人閱讀

摘要:我們對(duì)不等式兩邊分別取對(duì)數(shù)根據(jù)貝葉斯公式我們開(kāi)始假設(shè)過(guò),兩個(gè)類別分別服從均值不等,方差相等的高斯分布,根據(jù)高斯分布的公式有高斯分布忽略常數(shù)項(xiàng)方差也是相等的是常熟,可以使用矩陣的表示。詳細(xì)推導(dǎo)對(duì)值取冪,以及等式取等號(hào)計(jì)算。

邏輯回歸基本概念

什么是邏輯回歸?
邏輯回歸就是這樣的一個(gè)過(guò)程:面對(duì)一個(gè)回歸或者分類問(wèn)題,建立代價(jià)函數(shù),然后通過(guò)優(yōu)化方法迭代求解出最優(yōu)的模型參數(shù),然后測(cè)試驗(yàn)證我們這個(gè)求解的模型的好壞。

Logistic 回歸雖然名字里帶“回歸”,但是它實(shí)際上是一種分類方法,主要用于兩分類問(wèn)題(即輸出只有兩種,分別代表兩個(gè)類別)

回歸模型中,y是一個(gè)定性變量,比如y=0或1,logistic方法主要應(yīng)用于研究某些事件發(fā)生的概率

概念解釋

Logistic Regression推導(dǎo)過(guò)程

它的表達(dá)式是:

$$ f(x) = frac{1}{1 + e^{- heta}} $$

$$ heta = WX + B $$

可以發(fā)現(xiàn),經(jīng)過(guò)sigmoid函數(shù)轉(zhuǎn)換后, 輸出值是在[0, 1]之間,可以認(rèn)為輸出是概率,下面就來(lái)詳細(xì)的推導(dǎo):

推導(dǎo)

為了計(jì)算方便, 我們只討論二分類.

首先, 邏輯回歸進(jìn)行了一個(gè)假設(shè),兩個(gè)類別都服從均值不同,方差相同(方便推導(dǎo))的高斯分布

$$ p(y|x=0) = mu(mu_0, sigma) $$

$$ p(y|x=1) = mu(mu_1, sigma) $$

高斯分布是比較容易處理的分布,根據(jù)中心極限定理也知道,最終會(huì)收斂于高斯分布。
從信息論的角度上看,當(dāng)均值和方差已知時(shí)(盡管你并不知道確切的均值和方差,但是根據(jù)概率論,當(dāng)樣本量足夠大時(shí),樣本均值和方差以概率1趨向于均值和方差),高斯分布是熵最大的分布,為什么要熵最大?因?yàn)樽畲箪氐姆植伎梢云綌偰愕娘L(fēng)險(xiǎn)(同一個(gè)值會(huì)有兩個(gè)點(diǎn)可以取到, 不確定性很大),這就好比不要把雞蛋放到同一個(gè)籃子里,想想二分查找中,為什么每次都是選取中間點(diǎn)作為查找點(diǎn)?就是為了平攤風(fēng)險(xiǎn)(假設(shè)方差相等只是為了計(jì)算方便)。

風(fēng)險(xiǎn)

$$ Risk(y=0|x) = lambda_{00}P(y=0|x) + lambda_{01}P(y = 1|x) $$

$$ Risk(y=1|x) = lambda_{10}P(y=0|x) + lambda_{11}P(y = 1|x) $$

其中,$Risk(y=0|x)$是把樣本預(yù)測(cè)為0時(shí)的風(fēng)險(xiǎn),$Risk(y=1|x)$是把樣本預(yù)測(cè)為1時(shí)的風(fēng)險(xiǎn),
$λ_{ij}$是樣本實(shí)際標(biāo)簽為j時(shí),卻把它預(yù)測(cè)為i是所帶來(lái)的風(fēng)險(xiǎn)。

我們認(rèn)為預(yù)測(cè)正確并不會(huì)帶來(lái)風(fēng)險(xiǎn),因此$λ_{00}$和$λ_{11}$都為0,此外,我們認(rèn)為當(dāng)標(biāo)簽為0而預(yù)測(cè)為1 和 當(dāng)標(biāo)簽為1而預(yù)測(cè)為0,這兩者所帶來(lái)的風(fēng)險(xiǎn)是相等的,因此$λ_{10}$和$λ_{01}$相等,方便起見(jiàn),我們記為λ。但在一些領(lǐng)域里,比如醫(yī)學(xué)、風(fēng)控等,這些λ在大多數(shù)情況下是不相等的,有時(shí)候我們會(huì)選擇“寧可錯(cuò)殺一一千也不能放過(guò)一個(gè)”;

那么我們簡(jiǎn)化后的表達(dá)式:

$$ Risk(y=0|x) = lambda P(y = 1|x) $$

$$ Risk(y=1|x) = lambda P(y=0|x) $$

根據(jù)最小化風(fēng)險(xiǎn)的原則,我們通常會(huì)選擇風(fēng)險(xiǎn)較小的。

比如:

$$ Risk(y=0|x) < Risk(y=1|x) $$

這就說(shuō)明了預(yù)測(cè)為第0類的風(fēng)險(xiǎn)小于預(yù)測(cè)為第1類的風(fēng)險(xiǎn)。

可以得到:

$$ frac{Risk(y=0|x)}{Risk(y=1|x)} < 1 $$

$$ frac{P(y = 1|x)}{P(y=0|x)} < 1 $$

就是說(shuō)明預(yù)測(cè)第1類的概率小于第0類的概率。

我們對(duì)不等式兩邊分別取對(duì)數(shù)

$$ logfrac{{P(y = 1|x)}}{{P(y=0|x)}} < 0 $$

根據(jù)貝葉斯公式:

$$ logfrac{P(x|y = 1)p(y=1)}{P(x|y=0)p(y=0)} < 0 $$

$$ logfrac{P(x|y = 1)}{P(x|y=0)} + logfrac{p(y=1)}{p(y=0)} < 0 $$

我們開(kāi)始假設(shè)過(guò),兩個(gè)類別分別服從均值不等,方差相等的高斯分布,根據(jù)高斯分布的公式有:

高斯分布

$$ g(x) = frac{1}{2pisigma}e^{-frac{(x - mu)^2}{2sigma^2}} $$

忽略常數(shù)項(xiàng)(方差也是相等的)

$$ logfrac{P(x|y = 1)}{P(x|y=0)} + loge^{(frac{(x - mu_0)^2}{2sigma^2} - frac{(x - mu_1)^2}{2sigma^2})} $$

$$ logfrac{P(x|y = 1)}{P(x|y=0)} + (frac{(x - mu_0)^2}{2sigma^2} - frac{(x - mu_1)^2}{2sigma^2}) < 0 $$

$$ logfrac{P(x|y = 1)}{P(x|y=0)} < frac{(x - mu_1)^2}{2sigma^2} - frac{(x - mu_0)^2}{2sigma^2} $$

$$ logfrac{P(x|y = 1)}{P(x|y=0)} < frac{mu_0}{sigma^2}x - frac{mu_1}{sigma^2}x + C $$

C是常熟,可以使用矩陣的表示。

$$ logfrac{P(x|y = 1)}{P(x|y=0)} < heta{X} $$

詳細(xì)推導(dǎo)

對(duì)值取冪,以及等式取等號(hào)計(jì)算。

$$ frac{P(y=1|x)}{P(y=0|x)} = e^{ heta x} $$

$$ = frac{P(y=1|x)}{1 - P(y=1|x)} = e^{ heta x} $$

$$ = frac{1 - P(y=1|x)}{P(y=1|x)} = e^{- heta x} $$

$$ = frac{1}{P(y=1|x)} - 1 = e^{- heta x} $$

$$ = frac{1}{P(y=1|x)} = e^{- heta x} + 1 $$

$$ = P(y=1|x) = frac{1}{e^{- heta x} + 1} $$

以下是實(shí)現(xiàn)的一些截圖

優(yōu)化我們采用梯度下降算法

交叉熵?fù)p失函數(shù)

最終效果


電腦端查看完整代碼

——————————————————————————————————
Mo (網(wǎng)址:momodel.cn )是一個(gè)支持 Python 的人工智能建模平臺(tái),能幫助你快速開(kāi)發(fā)訓(xùn)練并部署 AI 應(yīng)用。期待你的加入。

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://m.specialneedsforspecialkids.com/yun/20014.html

相關(guān)文章

  • 【精華分享】:轉(zhuǎn)行數(shù)據(jù)分析一份學(xué)習(xí)清單

    摘要:數(shù)據(jù)分析的發(fā)展方向一般有商業(yè)方向,行業(yè)分析業(yè)務(wù)方向,和機(jī)器學(xué)習(xí)數(shù)據(jù)挖掘方向。機(jī)器學(xué)習(xí)的書(shū)籍推薦統(tǒng)計(jì)學(xué)習(xí)方法,機(jī)器學(xué)習(xí),機(jī)器學(xué)習(xí)實(shí)戰(zhàn)三本書(shū)。 作者:xiaoyu 微信公眾號(hào):Python數(shù)據(jù)科學(xué) 知乎:python數(shù)據(jù)分析師 上一篇主要分享了博主親身轉(zhuǎn)行數(shù)據(jù)分析的經(jīng)歷: 【從零學(xué)起到成功轉(zhuǎn)行數(shù)據(jù)分析,我是怎么做的?】 本篇繼上一篇將分享轉(zhuǎn)行數(shù)據(jù)分析的一些經(jīng)驗(yàn)和學(xué)習(xí)方法,看完這篇你將會(huì)解...

    suemi 評(píng)論0 收藏0
  • 我是如何入門(mén)機(jī)器學(xué)習(xí)

    摘要:在這里我分享下我個(gè)人入門(mén)機(jī)器學(xué)習(xí)的經(jīng)歷,希望能對(duì)大家能有所幫助。相關(guān)學(xué)習(xí)鏈接,,入門(mén)后的體驗(yàn)在入門(mén)了機(jī)器學(xué)習(xí)之后,在實(shí)際工作中,絕大多數(shù)的情況下你并不需要去創(chuàng)造一個(gè)新的算法。 機(jī)器學(xué)習(xí)在很多眼里就是香餑餑,因?yàn)闄C(jī)器學(xué)習(xí)相關(guān)的崗位在當(dāng)前市場(chǎng)待遇不錯(cuò),但同時(shí)機(jī)器學(xué)習(xí)在很多人面前又是一座大山,因?yàn)榘l(fā)現(xiàn)它太難學(xué)了。在這里我分享下我個(gè)人入門(mén)機(jī)器學(xué)習(xí)的經(jīng)歷,希望能對(duì)大家能有所幫助。 PS:這篇文章...

    ShowerSun 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<