老師們好,我在英國的謝菲爾德大學讀書,學到廣義線性模型與圖論課程的時候遇到了一些困難,想要找一位專業(yè)的老師來幫幫我,請問有老師可以補習我的課程嗎?
廣義線性模型圖論課程我們當然是有可以補習的老師了。
考而思作為一家成立13年、專業(yè)的留學生學術服務中心,多年的經(jīng)驗與敏銳的眼光怎么會讓我們放過廣義線性模型圖論這么有意思的課程呢。
什么是廣義線性模型?
廣義線性模型(GLiM,或GLM)是由John Nelder和Robert Wedderburn于1972年制定的一種先進的統(tǒng)計建模技術。這是一個涵蓋性術語,它包含許多其他模型,該模型允許響應變量y的誤差分布不同于a。正態(tài)分布。這些模型包括線性回歸,邏輯回歸和泊松回歸。
在線性回歸模型中,響應(即因變量/目標)變量“ y”表示為所有預測變量“ X”的線性函數(shù)/線性組合(即獨立變量/回歸變量/解釋變量/觀測變量)。響應和預測變量之間的基本關系是線性的(即我們可以簡單地以直線形式可視化關系)。另外,響應變量的錯誤分布應為正態(tài)分布。因此,我們正在建立一個線性模型。
GLM模型使我們能夠在響應和預測變量之間建立線性關系,即使它們之間的基本關系不是線性的。這可以通過使用鏈接函數(shù)將響應變量鏈接到線性模型來實現(xiàn)。與線性回歸模型不同,響應變量的誤差分布不需要正態(tài)分布。假定響應變量中的誤差遵循指數(shù)分布分布(即正態(tài)分布,二項分布,泊松分布或伽馬分布)。
由于我們試圖推廣也可以在這些情況下應用的線性回歸模型,因此將名稱命名為Generalized Linear Models。
為什么是GLM?
如果以下情況不適合使用線性回歸模型,
X和y之間的關系不是線性的。它們之間存在一些非線性關系。例如,y隨X的增加呈指數(shù)增長。
y中的誤差方差(通常稱為線性回歸中的同方差)不是恒定的,并且隨X的變化而變化。
響應變量不是連續(xù)的,而是離散的/分類的。線性回歸假設響應變量的正態(tài)分布,該變量只能應用于連續(xù)數(shù)據(jù)。如果嘗試在離散/二進制y變量上建立線性回歸模型,則線性回歸模型會為相應的響應變量預測負值,這是不合適的。

GLM的假設:
與線性回歸模型相似,廣義線性模型也有一些基本假設。大多數(shù)假設與線性回歸模型相似,而一些線性回歸的假設已修改。
數(shù)據(jù)應該是獨立且隨機的(每個隨機變量具有相同的概率分布)。
響應變量y不需要正態(tài)分布,但是分布來自指數(shù)族(例如,二項式,泊松,多項式,正態(tài))
原始響應變量不必與自變量具有線性關系,但是轉換后的響應變量(通過鏈接函數(shù))線性依賴于自變量
例如,對數(shù)回歸方程,對數(shù)幾率=β0+β1X1+β2X2,
其中β0,β1,β2是回歸系數(shù),X1,X2是自變量
可以應用對自變量的特征工程,即代替采用原始的原始自變量,可以進行變量轉換,并且還可以對轉換后的自變量(例如進行對數(shù)轉換,對變量進行平方,對等)進行轉換。用于構建GLM模型。
不需要等方性(即恒定方差)。響應變量誤差方差可以隨著獨立變量而增加或減少。
錯誤是獨立的,但無需正態(tài)分布
GLM的組成部分:
GLM中包含3個組件。
系統(tǒng)組件/線性預測器:
它只是預測變量和回歸系數(shù)的線性組合。
β0+β1X1+β2X2
鏈接功能:
用η或g(μ)表示,它指定了隨機和系統(tǒng)成分之間的聯(lián)系。它指示響應的期望/預測值如何與預測變量的線性組合相關。
隨機分量/概率分布:
它是指分布變量中響應變量的概率分布。
分布族稱為指數(shù)族,包括正態(tài)分布,二項分布或泊松分布。
下面總結了概率分布表及其相應的鏈接函數(shù).
不同的廣義線性模型:
GLiM系列中常用的模型包括:
線性回歸,對于具有正態(tài)分布的連續(xù)結果:
在此,我們根據(jù)解釋變量對連續(xù)響應變量的平均期望值進行建模。使用身份鏈接功能,這是最簡單的鏈接功能。
如果只有1個預測變量,則該模型稱為簡單線性回歸。如果有2個或更多解釋變量,則該模型稱為多重線性回歸。
簡單線性回歸,y =β0+β1X1
多元線性回歸,y =β0+β1X1+β2X2
響應是連續(xù)的
預測變量可以是連續(xù)的或分類的,也可以進行轉換。
誤差呈正態(tài)分布,方差恒定。
二進制Logistic回歸,用于二項分布或二項式或二項結果:
在此,對數(shù)賠率表示為解釋變量的線性組合。 Logit是鏈接功能。 Logistic或Sigmoid函數(shù)將概率返回為輸出,范圍在0到1之間。
對數(shù)賠率=β0+β1X1+β2X2
反應變量只有2個結果
預測變量可以是連續(xù)的或分類的,也可以進行轉換。
泊松回歸,用于基于計數(shù)和泊松分布的結果:
此處的計數(shù)值表示為解釋變量的線性組合。Log link是鏈接函數(shù)。
log(λ)=β0+β1×1 +β2×2,
其中λ是計數(shù)變量的平均值
響應變量是單位時間和空間的計數(shù)值
預測變量可以是連續(xù)的或分類的,也可以進行轉換。
廣義線性模型和廣義線性模型之間的區(qū)別:
通用線性模型,也表示為GLM,是廣義線性模型(GLiM)的特例。通用線性模型是指具有連續(xù)響應變量的正常線性回歸模型。它包括許多統(tǒng)計模型,例如單線性回歸,多元線性回歸,Anova,Ancova,Manova,Mancova,t檢驗和F檢驗。通用線性模型假定殘差/誤差服從正態(tài)分布。另一方面,廣義線性模型允許殘差具有指數(shù)分布族的其他分布。
廣義線性模型可以關聯(lián)數(shù)據(jù)嗎?
對于廣義線性模型,數(shù)據(jù)不應相互關聯(lián)。如果數(shù)據(jù)相關,則模型性能將不可靠。因此,GLM不適合用于時間序列數(shù)據(jù),在這些數(shù)據(jù)中,通常數(shù)據(jù)會具有一些自相關。但是,還開發(fā)了一些GLM變體來考慮數(shù)據(jù)中的相關性,例如廣義估計方程(GEE)模型和廣義線性混合模型(GLMM)模型。
圖論是什么?
圖論的主題起源于休閑數(shù)學問題(參見數(shù)字游戲),但它已發(fā)展成為數(shù)學研究的重要領域,并應用于化學,運籌學,社會科學和計算機科學。
圖論經(jīng)典圖形:
歐拉回路
圖是頂點或節(jié)點以及部分或所有頂點之間的邊的集合。當存在一條路徑,該路徑恰好遍歷每個邊緣一次,從而該路徑在同一頂點處開始和結束時,該路徑稱為歐拉回路,而該圖稱為歐拉圖。
哈密頓回路
一個有向圖,其中路徑在相同的頂點上開始和結束(閉環(huán)),以使每個頂點都被精確地訪問一次,這被稱為哈密頓電路。 19世紀的愛爾蘭數(shù)學家威廉·羅恩·漢密爾頓(William Rowan Hamilton)開始了對此類圖的系統(tǒng)數(shù)學研究。圖論與拓撲之間的聯(lián)系導致了一個稱為拓撲圖論的子域。該領域中的一個重要問題涉及平面圖。
由于條件限制我們就不一一列舉廣義線性模型與圖論的圖形了。
如果同學你有其他廣義線性模型與圖論上的學術需求,可以通過我們下方的微信或我們的在線客服與我們取得聯(lián)系哦,我們的課程規(guī)劃師將會為同學你匹配最適合的課程補習老師。