廣義線性混合模型結果顯示"glmm:不存在有效記錄"是什么意思?
- 教育綜合
- 2024-04-10 12:59:57
廣義線性模型sas結果圖怎么看
廣義線性混合模型是目前線性模型范疇內最為完備的模型框架,它是廣義線性模型的進一步延伸,進一步突破適用條件,因變量既 可以非正態(tài),也可以非獨立,由于其最為復雜,因此SPSS對其輸出結果采用模型格式,而不是傳統(tǒng)的表格形式,下面我們來看一個 例子 我們還是使用一般線性混合模型的數(shù)據(jù)來進行擬合 分析—混合模型—廣義線性 ? SPSS數(shù)據(jù)分析—廣義線性混合模型的更多相關文章 SPSS數(shù)據(jù)分析—廣義線性模型 我們前面介紹的一般線性模型.Logistic回歸模型.對數(shù)線性模型.Poisson回歸模型等,實際上均屬于廣義線性模型的范疇,廣義 線性模型包含的范圍非常廣泛,原因在于其對于因變量.因變量的概率分布等廣義線性模型和廣義線性混合模型怎么區(qū)分使用
廣義線性模型(GLM)。這種模型是把自變量的線性預測函數(shù)當作因變量的估計值。在機器學習中,有很多模型都是基于廣義線性模型的,比如傳統(tǒng)的線性回歸模型,最大熵 模型,Logistic回歸,softmax回歸。 廣義線性模型GLM很簡單,舉個例子,藥物的療效和服用藥物的劑量有關。這個相關性可能是多種多樣的,可能是簡單線性關系(發(fā)燒時吃一片藥退燒0.1度,兩片藥退燒0.2度,以此類推;這種情況就是一般線性模型),也可能是比較復雜的其他關系,如指數(shù)關系(一片藥退燒0.1度,兩片藥退燒0.4度),對數(shù)關系等等。這些復雜的關系一般都可以通過一系列數(shù)學變換變成線性關系,以此統(tǒng)稱為廣義線性模 而對于廣義線性混合廣義相加模型gam 中,處理后的各參數(shù)都代表什么意思?
原文鏈接:http://tecdat.cn/?p=20882
1導言
這篇文章探討了為什么使用廣義相加模型是一個不錯的選擇。為此,我們首先需要看一下線性回歸,看看為什么在某些情況下它可能不是最佳選擇。
2回歸模型
假設我們有一些帶有兩個屬性Y和X的數(shù)據(jù)。如果它們是線性相關的,則它們可能看起來像這樣:
a<-ggplot(my_data, aes(x=X,y=Y))+geom_point()+
為了檢查這種關系,我們可以使用回歸模型。線性回歸是一種使用X來預測變量Y的方法。將其應用于我們的數(shù)據(jù)將預測成紅線的一組值:
a+geom_smooth(col="red", method="lm")+
這就是“直線方程式”。根據(jù)此等式,我們可以從直線在y軸上開始的位置(“截距”或α)開始描述,并且每個單位的x都增加了多少y(“斜率”),我們將它稱為x的系數(shù),或稱為β)。還有一點自然的波動,如果沒有的話,所有的點都將是完美的。我們將此稱為“殘差”(?)。數(shù)學上是:
或者,如果我們用實際數(shù)字代替,則會得到以下結果:
這篇文章通過考慮每個數(shù)據(jù)點和線之間的差異(“殘差)然后最小化這種差異來估算模型。我們在線的上方和下方都有正誤差和負誤差,因此,通過對它們進行平方并最小化“平方和”,使它們對于估計都為正。這稱為“普通最小二乘法”或OLS。
3非線性關系如何?
因此,如果我們的數(shù)據(jù)看起來像這樣,我們該怎么辦:
我們剛剛看到的模型的關鍵假設之一是y和x線性相關。如果我們的y不是正態(tài)分布的,則使用廣義線性模型(Nelder&Wedderburn,1972),其中y通過鏈接函數(shù)進行變換,但再次假設f(y)和x線性相關。如果不是這種情況,并且關系在x的范圍內變化,則可能不是最合適的。我們在這里有一些選擇:
我們可以使用線性擬合,但是如果這樣做的話,我們會在數(shù)據(jù)的某些部分上面或者下面。
我們可以分為幾類。我在下面的圖中使用了三個,這是一個合理的選擇。同樣,我們可能處于數(shù)據(jù)某些部分之下或之上,而在類別之間的邊界附近似乎是準確的。例如,如果x = 49時,與x = 50相比,y是否有很大不同?
我們可以使用多項式之類的變換。下面,我使用三次多項式,因此模型適合:。這些的組合使函數(shù)可以光滑地近似變化。這是一個很好的選擇,但可能會極端波動,并可能在數(shù)據(jù)中引起相關性,從而降低擬合度。
μi≡E(Yi),Y的期望
Yi?EF(μi,?i),Yi是一個響應變量,根據(jù)均值μi和形狀參數(shù)?的指數(shù)族分布。
Ai是任何嚴格參數(shù)化模型分量的模型矩陣的一行,其中θ為對應的參數(shù)向量。
fi是協(xié)變量xk的光滑函數(shù),其中k是每個函數(shù)的基礎。
- gam(Y ~ s(X, bs="cr")
s()指定光滑器。還有其他選項,但是s是一個很好的默認選項
bs=“cr”告訴它使用三次回歸樣條('basis')。
s函數(shù)計算出要使用的默認結數(shù),但是您可以將其更改為k=10,例如10個結。
- #### Family: gaussian## Link function: identity## Parametric coefficients:## Estimate Std. Error t value Pr(>|t|)## (Intercept) 43.9659 0.8305 52.94 <2e-16 ***## ---## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1#### Approximate significance of smooth terms:## edf Ref.df F p-value## s(X) 6.087 7.143 296.3 <2e-16 ***## ---## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1#### R-sq.(adj) = 0.876 Deviance explained = 87.9%## GCV = 211.94 Scale est. = 206.93 n = 300
顯示了我們截距的模型系數(shù),所有非光滑參數(shù)將在此處顯示
每個光滑項的總體含義如下。
這是基于“有效自由度”(edf)的,因為我們使用的樣條函數(shù)可以擴展為許多參數(shù),但我們也在懲罰它們并減少它們的影響。
- #### Method: GCV Optimizer: magic## Smoothing parameter selection converged after 4 iterations.## The RMS GCV score gradient at convergence was 1.107369e-05 .## The Hessian was positive definite.## Model rank = 10 / 10#### Basis dimension (k) checking results. Low p-value (k-index<1) may## indicate that k is too low, especially if edf is close to k'.#### k' edf k-index p-value## s(X) 9.00 6.09 1.1 0.97
- anova(my_lm, my_gam)
- ## Analysis of Variance Table#### Model 1: Y ~ X## Model 2: Y ~ s(X, bs = "cr")## Res.Df RSS Df Sum of Sq F Pr(>F)## 1 298.00 88154## 2 292.91 60613 5.0873 27540 26.161 < 2.2e-16 ***## ---## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
NELDER, J. A. & WEDDERBURN, R. W. M. 1972. Generalized Linear Models. Journal of the Royal Statistical Society. Series A (General), 135, 370-384.
HARRELL, F. E., JR. 2001. Regression Modeling Strategies, New York, Springer-Verlag New York.
4樣條曲線
多項式的進一步細化是擬合“分段”多項式,我們在數(shù)據(jù)范圍內將多項式鏈在一起以描述形狀。“樣條線”是分段多項式,以繪圖員用來繪制曲線的工具命名。物理樣條曲線是一種柔性條,可以彎曲成形,并由砝碼固定。在構造數(shù)學樣條曲線時,我們有多項式函數(shù),二階導數(shù)連續(xù),固定在“結”點上。
下面是一個ggplot2對象,該對象的geom_smooth的公式包含ns函數(shù)中的“自然三次樣條” 。這種樣條曲線為“三次”,并且使用10個結
5光滑函數(shù)
樣條曲線可以是光滑的或“搖擺的”,這可以通過改變節(jié)點數(shù)(k)或使用光滑懲罰γ來控制。如果我們增加結的數(shù)目,它將更“搖擺”。這可能會更接近數(shù)據(jù),而且誤差也會更小,但我們開始“過度擬合”關系,并擬合我們數(shù)據(jù)中的噪聲。當我們結合光滑懲罰時,我們會懲罰模型中的復雜度,這有助于減少過度擬合。
6廣義相加模型(GAM)
廣義加性模型(GAM)(Hastie,1984)使用光滑函數(shù)(如樣條曲線)作為回歸模型中的預測因子。這些模型是嚴格可加的,這意味著我們不能像正?;貧w那樣使用交互項,但是我們可以通過重新參數(shù)化作為一個更光滑的模型來實現(xiàn)同樣的效果。事實并非如此,但本質上,我們正轉向一種模型,如:
摘自Wood(2017)的GAM的更正式示例是:
其中:
如果您要建立回歸模型,但懷疑光滑擬合會做得更好,那么GAM是一個不錯的選擇。它們適合于非線性或有噪聲的數(shù)據(jù)。
7 gam擬合
那么,如何為上述S型數(shù)據(jù)建立GAM模型?在這里,我將使用三次樣條回歸:
上面的設置意味著:
8模型輸出:
查看模型摘要:
9檢查模型:
該gam.check()函數(shù)可用于查看殘差圖,但它也可以測試光滑器以查看是否有足夠的結來描述數(shù)據(jù)。但是如果p值很低,則需要更多的結。
10它比線性模型好嗎?
讓我們對比具有相同數(shù)據(jù)的普通線性回歸模型:
我們的方差分析函數(shù)在這里執(zhí)行了f檢驗,我們的GAM模型明顯優(yōu)于線性回歸。
11小結
所以,我們看了什么是回歸模型,我們是如何解釋一個變量y和另一個變量x的。其中一個基本假設是線性關系,但情況并非總是這樣。當關系在x的范圍內變化時,我們可以使用函數(shù)來改變這個形狀。一個很好的方法是在“結”點處將光滑曲線鏈接在一起,我們稱之為“樣條曲線”
我們可以在常規(guī)回歸中使用這些樣條曲線,但是如果我們在GAM的背景中使用它們,我們同時估計了回歸模型以及如何使我們的模型更光滑。
上面的示例顯示了基于樣條的GAM,其擬合度比線性回歸模型好得多。
12參考:
最受歡迎的見解
1.R語言多元Logistic邏輯回歸 應用案例
2.面板平滑轉移回歸(PSTR)分析案例實現(xiàn)
3.matlab中的偏最小二乘回歸(PLSR)和主成分回歸(PCR)
4.R語言泊松Poisson回歸模型分析案例
5.R語言回歸中的Hosmer-Lemeshow擬合優(yōu)度檢驗
6.r語言中對LASSO回歸,Ridge嶺回歸和Elastic Net模型實現(xiàn)
7.在R語言中實現(xiàn)Logistic邏輯回歸
8.python用線性回歸預測股票價格
9.R語言如何在生存分析與Cox回歸中計算IDI,NRI指標
上一篇
線上考試未閱讀考試須知和點擊我已認真閱讀并同意會是什么結果
下一篇
返回列表