Seminar Nasional Statistika IX Institut Teknologi Sepuluh Nopember, 7 November 2009
PEMILIHAN KNOT OPTIMAL DALAM ESTIMATOR SPLINE TERBOBOT PADA REGRESI NONPARAMETRIK HETEROSKEDASTIK DATA LONGITUDINAL
I Nyoman Budiantara Jurusan Statistika FMIPA – ITS Surabaya Budi Lestari Mahasiswa S3 Jurusan Statistika FMIPA - ITS Surabaya Anna Islamiyati Mahasiswa S2 Jurusan Statistika FMIPA - ITS Surabaya Wahyu Wibowo Jurusan Statistika FMIPA – ITS Surabaya Abstrak Diberikan data berpasangan
(yij ,tij ); j 1,2,..., ni ,
dan
i 1,2,..., r ,
dimana
ni
menyatakan banyaknya pengukuran berulang dari obyek ke-i. Asumsikan bahwa data tersebut mengikuti model model regresi nonparametrik heteroskedastik untuk data longitudinal y ij fi (tij ) ij , j =1,2,…,ni, i = 1,2,3,...r dengan error random ij , i 1,2,,r saling independen, tetapi
ij ,
j 1,2,, ni
(heteroskedastik). Estimator fungsi
saling berkorelasi dengan mean nol dan variansi tidak sama
fi (tij ) dalam model tersebut adalah estimator spline terbobot
yang dapat diperoleh dengan penalized least square terbobot. Estimator spline terbobot sangat tergantung pada parameter penghalus k , k = 1,2,…,r, sehingga perlu diberikan metode untuk memilih parameter penghalus optimal. Parameter penghalus optimal ini dapat diperoleh dengan meminimumkan suatu fungsi G. Makalah ini akan memberikan gambaran tentang kemampuan estimator spline terbobot dalam regresi nonparametrik heteroskedastik untuk data longitudinal dengan menggunakan data simulasi. Kata-kata Kunci : Spline regresi nonparametrik, heteroskedastik, data longitudinal, knots. 1. Pendahuluan Data longitudina terjadi apabila dilakukan pengamatan terhadap r obyek yang saling independen, dimana setiap obyek diamati secara berulang (repeated measurement) dalam kurun waktu yang berbeda. Sehingga akan diperoleh pasangan data
i 1,2,..., r ,
dimana
ni
(yij ,tij ); j 1,2,..., ni ,
dan
menyatakan banyaknya pengukuran berulang dari obyek ke-i. Data
longitudinal terdapat dalam bidang kesehatan (Demidenko, 2004 dan Diggle, et. al., 2002). Beberapa penelitian untuk data longitudinal menggunakan pendekatan regresi nonparametrik, telah banyak dipublikasikan diantaranya Wang (2003), Wu dan Chiang (2000) yang menggunakan estimator Kernel. Disamping itu, beberapa peneliti telah pula menggunakan estimator spline untuk estimasi kurva regresi untuk data longitudinal, seperti Huang, Wu dan Zhang (2006) yang
1
mengunakan model spline original, dan Zhang (1997) menggunakan regresi spline generalized (umum). Rice dan Wu (2001), Wu dan Zhang (2006) menggunakan pendekatan spline yang didasarkan pada suatu model efek campuran untuk estimasi kurva regresi untuk data longitudinal. Pada sisi lain, terdapat beberapa penelitian tentang data longitudinal yang didasarkan pada model semiparametrik, seperti diantaranya Fan dan Zhang (2000), Guo (2002) dan Durban, et al. (2005). Dalam regresi nonparametrik dan semiparametrik spline merupakan salah satu model
yang sering digunakan karena mempunyai interpretasi statistik dan interpretasi visual sangat khusus dan sangat baik (Eubank,1988). Estimator spline diperoleh dari suatu optimasi penalized least square (PLS) dan memiliki fleksibelitas yang tinggi (Budiantara,2004; 2000). Disamping itu spline mampu menangani karakter data/fungsi yang bersifat mulus (smooth). Spline juga memiliki kemampuan yang sangat baik untuk menangani data yang perilakunya berubah-ubah pada sub-sub interval tertentu (Cox dan O’Sullivan,1996 dan Budiantara,2006). Estimator spline disamping diperoleh dari optimasi PLS, dapat pula diperoleh dengan pendekatan Bayesian. Wahba(1983) memberikan pendekatan Bayesian untuk estimator spline original dan Wahba(1983) juga telah mengkonstruksi interval konfidesi untuk model spline original. Budiantara dan Subanar (1998) menggeneralisasikan pendekatan Bayesian dari Wahba (1983) untuk estimator spline terbobot dalam regresi nonparametrik. Model-model pendekatan regresi nonparametrik dan semiparametrik untuk data longitudinal yang dikembangkan oleh peneliti-peneliti di atas, jika ditelusuri secara mendalam, pada dasarnya terdapat dua asumsi yang sangat berat dan sangat mendasar pada modelnya, yaitu pertama variansi dari error random dalam model tersebut diasumsikan sama (homogen) untuk setiap pengukuran berulang didalam subjek. Asumsi kedua adalah matriks variance-covariance dari error random dalam model tersebut diasumsikan diketahui. Dua asumsi yang digunakan dalam model untuk data longitudinal ini, pada dasarnya hanya ada secara teoritis, dan dalam persoalan aplikasi sering dijumpai kasus-kasus dimana terjadi ketaksamaan variansi (heteroskedastik) dari error random dalam model tersebut. Demikan pula matriks variance-covariance dari error random dari model populasi, umumnya (hampir pasti) tidak diketahui. Berdasarkan pada realita ini, maka persoalan estimasi kurva regresi dalam regresi nonparametrik spline untuk data longitudinal, harus diselesaikan dengan model regresi nonparametrik spline terbobot yang heteroskedastik Selanjutnya asumsikan bahwa pasangan data
(yij ,tij )
mengikuti model regresi
nonparametrik heteroskedastik data longitudinal :
yij Lti fi Dengan
Lt
ij
, i 1,2,..., r ; j 1, 2, , ni ,
merupakan fungsional Linear terbatas pada ruang H. Fungsi
(1)
f1, f2,..., fr
tidak
diketahui bentuknya dan diasumsikan smooth dalam arti termuat di dalam ruang H. Error random
2
ij ,
i 1,2,, r saling independen, tetapi
j 1,2,, ni
ij ,
saling berkorelasi dengan mean nol
dan variansi tidak sama (heteroskedastik). Matriks variance covariance
L [BNS ( 2)] 1 error random
diberikan oleh : 2 11
1(1,2) 2 12
1(2,1)
L [BNS ( 2)] 1
1(n1,1)
1(n1,2)
0 0 0
0 0 0
0 0 L 2 BNS ,r ( r )
L 2 BNS 0 ,1( 1 ) L 2 0 BNS ,2 ( 2 ) 0 0 L 2 BNS ,i ( i ) ,
Matriks-matriks
2 i1 L 2 BNS ,i ( i )
i(1,2) 2 i2
i(2,1)
i(ni ,1)
i(ni ,2)
1(1,n1) 1(2,n1)
2 1n1
0 0 0
0 0 0 2 r1 r(2,1)
r(r,1)
0 0 0 r(1,2) 2 r2
r(r,2)
0 0 0 r(1,nr ) r(2,nr )
2 rnr
L 2 L 2 L 2 Diag(BNS ,1( 1 ), BNS,2 ( 2 ),, BNS,r ( r )) .
i = 1,2,...,r diberikan oleh :
i(1,ni ) i(2,ni )
2 ini
Matriks 0 merupakan matriks dengan semua elemennya nol. Tujuan utama analisis regresi nonparametrik adalah mengestimasi bentuk kurva regresi
f . Untuk
tujuan estimasi ini, dapat digunakan pendekatan Reproducing Kernel Hilbert Space (RKHS) (Wahba, 1990). Estimasi
Min f H i
i 1,2,..,r
f akan memenuhi optimasi terbobot : 2 L 1/2 L 1/2 BNS ( 2) BNS ( 2 )(y f ) = Min fi H i 1,2,..,r
dengan kendala-kendala :
f1
2
f2
2
,
1
1
0,
,
2
0,
,
r
0.
2
fr
2 r
3
2
,
(2)
Optimasi terbobot (2) dengan kendala ekuivalen dengan menyelesaikan optimasi Penalized Least Square Terbobot (PLST) : 1
Min
fk W2m[ak ,bk ], k 1,2,...,r
L NS
bk
r
2
N y f 'B ( ) y f
k k 1
fk m tk
2
dtk
(3)
ak
n
N
dengan
ni
dan
k,
k =1,2,...,r merupakan parameter penghalus (smoothing parameter)
i 1
yang mengontrol antara Goodness of fit : L N 1 y f ' BNS ( 2) y f
,
dan Penalty : b1 1
2
f1 m t1
b2
dt1
+
a1
2
f2 m t2
2
br
dt2 + .... +
a2
fr m tr
r
2
dtr .
ar
Estimator untuk kurva regresi nonparametrik heteroskedastik untuk data longitudinal (Budiantara, dkk, 2009):
fˆ1, 1 fˆ2, 2 fˆ2, r
fˆ
1 L L Tdˆ Vcˆ = T TM 1BNS ( 2)T TM 1BNS ( 2 )y +
1
L L L VM 1BNS ( 2)[I T TM 1BNS ( 2)T TM 1BNS ( 2)]y 1 1 L 2 1 L 2 ={ T TM BNS ( )T TM BNS ( ) + 1 L L L + VM 1BNS ( 2)[I T TM 1BNS ( 2)T TM 1BNS ( 2)]}y A y
+
dengan :
A
=
1
L L T TM 1BNS ( 2)T TM 1BNS ( 2)
+
+ 1
L L L VM 1BNS ( 2)[I T TM 1BNS ( 2)T TM 1BNS ( 2)] . r
T adalah matriks berorde
N M, M
mi , diberikan oleh : i 1
T
T1 0 0
0 T2 0
0 0 , Tr
4
(4)
d
adalah vektor parameter berorde
M 1, diberikan oleh :
d (d1, d2, , dr ) , Vadalah matriks berorde N N diberikan oleh :
V
V1 0 0
0 V2 0
0 0 , Vr
c adalah vektor parameter berorde N 1, diberikan oleh : c (c1, c2, , cr ) Wahba (1990) dan Budiantara,dkk (2009) memperlihatkan dalam regresi nonparametrik spline data cross section dan satu respon, bahwa jika nilai parameter penghalus (
sangat kecil
0) maka akan memberikan estimator kurva regresi yang sangat kasar. Sebaliknya, jika nilai
parameter penghalus
sangat besar (
) maka akan menghasilkan estimator kurva regresi
nonparametrik yang sangat mulus. Akibatnya dalam estimator spline untuk data cross section perlu dipilih parameter penghalus
yang optimal agar diperoleh estimator yang paling sesuai untuk
data. Untuk tujuan memilih parameter penghalus optimal ini telah dikembangkan beberapa metode dalam regresi nonparametrik untuk data cross section, seperti Craven dan Wahba (1979) memberikan metode cross validation (CV). Wang (1998) memberikan metode unbiased risk (UBR) dan Wahba (1990) memberikan suatu metode generalized cross validation (GCV). Seperti halnya regresi nonparametrik spline untuk data cross section satu respon, maka estimator spline terbobot dalam regresi nonparametrik heteroskedastik untuk data longitudinal, sangat tergantung kepada parameter penghalus (smoothing)
i,
i = 1,2,…,r. Akibatnya, untuk
memperoleh estimator spline terbobot terbaik untuk data, perlu diberikan metode untuk memilih parameter penghalus optimal.
Eubank (1988) dan Budiantara (2006) memperlihatkan bahwa
pemilihan parameter penghalus optimal dalam spline ekuivalen dengan pemilihan titik knots optimal.
Artinya, jika spline yang digunakan adalah smoothing spline, maka spline terbaik
berkaitan dengan parameter penghalus optimal. Sebaliknya jika spline yang digunakan adalah spline truncated maka berkaitan dengan titik knots optimal. Oleh karena itu, pada makalah ini selanjutnya akan dibahas metode untuk memilih titik knots optimal dalam estimaor spline terbobot truncated dalam regresi nonparametrik heteroskedastik untuk data longitudinal.
2. Metode Memilih Titik Knots Optimal Estimator spline terbobot dalam regresi nonparametrik heteroskedastik untuk data longitudinal dapat disajikan menjadi :
5
Ki
dengan
adalah titik
fˆK (t) A(K1, K2,..., Kr ; 2)y i 1,2,.., r knot optimal subyek ke-i dengan 2 ( 12 , 22 ,..., r2 ) .
(5) Mean Square
Error (MSE) dari estimator spline terbobot ini diberikan oleh : 2
1
r
nk
MSE(K1, K2,..., Kr ; ) = k 1 1
r
L [ y A(K1, K2,..., Kr ; 2 )y] BNS ( 2 )[y A(K1, K2,..., Kr ; 2 )y]
nk
= k 1
1
r
nk
=
L ( y fˆK (t)) BNS ( 2 ) ( y fˆK (t))
k 1
L [(I A(K1, K2,..., Kr ; 2 ))y] BNS ( 2 )[(I A(K1, K2 ,..., Kr ; 2 ))y]
L L [(I A(K1, K2,..., Kr ; 2))y] [BNS ( 2)] 1/2 [BNS ( 2)]1/2 [(I A(K1, K2,..., Kr ; 2)]y r nk k 1 L L [BNS ( 2)]1/2[(I A(K1, K2,..., Kr ; 2))y] [BNS ( 2)]1/2 [(I A(K1, K2,..., Kr ; 2)]y r nk k 1
1
r
nk
= k 1
Matriks
L [BNS ( 2 )]1/2[(I A(K1, K2,..., Kr ; 2 )]y
2
(6)
L [BNS ( 2)]1/2 merupakan suatu matriks dengan sifat : L L L [BNS ( 2 )]1/2 [BNS ( 2)]1/2 BNS ( 2) .
(7)
Selanjutnya didefinisikan kuantitas : 1
r
L [BNS ( 2 )]1/2[(I A(K1, K2,..., Kr ; 2)]y
nk G(K1, K2,..., Kr ; 2)
k 1
2
2
1 r
trace I r nk
nk
A(K1, K2,..., Kr ; 2); 2)
k1
k 1
Titik knot optimal K yang optimal diperoleh dengan menyelesaikan optimasi :
Gopt (K1(opt) , K2(opt) ,..., Kr(opt) ; 2) Min G(K1, K2,..., Kr ; 2) K1 K 2
Kr
6
.
(8)
Kopt (K1(opt) , K2(opt) ,..., Kr(opt) )
Jadi titik knots optimal
G(K1, K2,..., Kr ; 2) ,
fungsi
K1
, K2
,..., Kr
untuk
setiap
diperoleh dengan meminimumkan
parameter
penghalus
nonnegatif
.
Selanjunya akan ditunjukkan dengan data simulasi bagaimana memperoleh titik knots optimal
Kopt (K1(opt) , K2(opt) ,..., Kr(opt) )
yang meminimumkan fungsi
G(K1, K2,..., Kr ; 2) .
1.Diambil data longitudinal dengan banyak subyek r = 3 dan setiap subyek diambil ulangan yang sama,
n1 n2 n3 n 200, sehingga yij
2. Membangkitkan
fi (tij )
ij
, i 1,2,3; j 1, 2, , 200
tij ~ N(0,1) , i = 1,2,3 ; j =1,2,…,200
3. Membangkitkan error random
,
1 2
dan
3
masing-masing berdistribusi normal n-variat
dengan vektor mean nol. Sedangkan matriks variance-covariance dibangun dengan korelasi antar pengamatan dalam tiap obyek 0,5 dan standard deviasi untuk pengamatan ke-i yang dibangkitkan dengan dsitribusi Uniform (0,1). 4. Menentukan
yi
fi (ti ) i sin3(2 ti3) i
, i = 1,2,3
5. Mengestimasi kurva regresi f dengan spline truncated polinomial terbobot derajat p ( p = 1,2,3) p
k kt
f (t)
dan banyak titik knots K=1,2,3,4
k 0
(t
p k)
(t 0
k
)p , t , t
K k
(t
k
)p , dengan
k 1
k k
6. Memilih titik knot optimal berdasarkan kombinasi nilai p dan K yang meminimumkan
1
3
L [BNS ( 2 )]1/2[(I A( p, K; 2 )]y
nk Min p.K
k 1
2
2
1 3
nk
trace I 3 nk
(9)
A( p, K; 2 )
k1
k 1
7. Mengestimasi parameter estimator spline terbobot dan menentukan bentuk estimasi kurva regresi nonparametrik heteroskedastik data longitudinal, untuk setiap subjek 8. Membuat plot data bersama-sama dengan plot estimator spline terbobot untuk kurva regresi nonparametrik heteroskedastik data longitudinal, untuk setiap subjek dalam satu salib sumbu. 9. Menentukan nilai MSE estimator spline terbobot untuk kurva regresi nonparametrik heteroskedastik data longitudinal, untuk setiap subjek.
7
Hasil data simulasi disajikan pada Gambar 1, Gambar 2 dan Gambar 3, masing-masing untuk subyek 1, 2, dan 3. Selanjutnya, dilakukan pemilihan derajat ( p ) estimator spline terbobot dan banyak titik knot (K) yang optimal untuk pola data, yang meminimumkan fungsi (9). Nilai fungsi tersebut disajikan pada Tabel 1.
G( p, K) Untuk Berbagai Nilai K dan p G( p, K) G( p, K) K p
Tabel 1 : Nilai Fungsi K
p
1
1
0.10823874
3
1
0.08799608
1
2
0.10734357
3
2
0.10564578
1
3
0.10653639
3
3
0.09687839
1
4
0.10574771
3
4
0.10268951
2
1
0.10649813
4
1
0.09532215
2
2
0.10495917
4
2
0.08025256
2
3
0.10589317
4
3
0.09909714
2
4
0.10271698
4
4
0.10301223
Untuk semua nilai K=1,2,3,4
dan nilai
p = 1,2,3,4 diperoleh nilai
G( p, K) terkecil adalah
0.08025256, bersesuaian dengan p = 2 (spline kuadratik terbobot) dan banyak knot K = 4. Estimator spline kuadratik terbobot (optimal) dalam regresi nonparametrik heteroskedastik untuk data longitudinal diberikan oleh persamaan : 2
fˆ 1 (t1) fˆ (t2 )
i 0 2
fˆ 3 (t3)
i 0 2
2
4
ˆ1it1i ˆ2it2i
k 1 4 k 1 4
ˆ3it3i
i 0
ˆ1k (t1
1k
)2
ˆ2k (t2
2k
ˆ3k (t3
3k
)2
(10)
)2
k 1
Estimator Spline kuadratik terbobot untuk subjek-1 :
fˆ 1(opt) (t1)
0.929 2.538t1 0.937t12 + 8.589(t1 0.422)2
+
18411(t1 0.00013)2 17.141(t1 0,432)2 7.175(t1 0.936)2 . Estimator Spline kuadratik terbobot untuk subjek-2 :
fˆ 2(opt) (t2)
1.556 1.804t2 0.694t22 + 12.026(t2 0.259)2
+
30.821(t2 0.088)2 32.935(t2 0.446)2 14.711(t2 0.825)2 . Estimator Spline kuadratik terbobot untuk subjek-3 :
fˆ 3(opt) (t3)
0.113 0.752t3 0.108t32 + 6.750(t2 0.349)2
+
17.608(t3 0.058)2 14.702(t3 0.418)2 3.628(t3 0.912)2 .
8
Estimator Spline kuadrat terbobot optimal untuk subjek-1, subjek-2 dan subjek-3, berturut-turut diberikan oleh Gambar 1, Gambar 2, dan Gambar 3.
Plot Fungsi Taksiran Knots Optimal Subyek 1 o
-1
0
ft1
1
2
Data aktual Fungsi taksiran
-2
-1
0
1
2
3
t1
Gambar 1: Estimator Spline kuadrat terbobot optimal subjek-1 untuk n = 200.
Plot Fungsi Taksiran Knots Optimal Subyek 2 Data aktual Fungsi taksiran
-2
-1
ft2
0
1
o
-2
-1
0
1
2
3
t2
Gambar 2: Estimator Spline kuadrat terbobot optimal subjek-1 untuk n = 200.
9
Plot Fungsi Taksiran Knots Optimal Subyek 3 Data aktual Fungsi taksiran
-1
0
1
ft3
2
3
o
-2
-1
0
1
2
3
t3
Gambar 3: Estimator Spline kuadrat terbobot optimal subjek-1 untuk n = 200.
Nilai MSE untuk estimator Spline kubik terbobot subjek-1, subjek-2, dan subjek-3, untuk n = 200 berturut-turut diberikan oleh :
MSE( fˆ 1(opt) (t1)) = 85.114, MSE( fˆ 2(opt) (t2)) = 85.120, MSE( fˆ 3(opt) (t3)) = 104.113. 4. Kesimpulan Pemilihan parameter penghalus optimal
(
opt
1(opt)
,
2(opt)
,...,
r(opt)
)
dalam estimator
spline terbobot dalam regresi nonparametrik heteroskedastik untuk data longitudinal dapat dilakukan dengan pemilihan banyak titik knot
Kopt (K1(opt) , K2(opt) ,..., Kr(opt) )
pada spline
truncated terbobot. Titik knot optimal dapat diperoleh dengan meminimumkan fungsi G, yang didefinisikan 1
r
L [BNS ( 2 )]1/2[(I A(K1, K2,..., Kr ; 2)]y
nk G(K1, K2,..., Kr ; 2)
k 1
2
2
1 r
nk
A(K1, K2,..., Kr ; 2); 2)
trace I r nk k1
k 1
Titik knot optimal
Kopt (K1(opt) , K2(opt) ,..., Kr(opt) )
yang diperoleh akan menghasilkan estimator
spline truncated terbobot yang paling sesuai untuk data.
10
Ucapan terima kasih Makalah ini merupakan bagian dari Penelitian Hibah Kompetensi 2009. Peneliti mengucapkan terima kasih kepada DIKTI yang telah membiayai riset ini melalui Hibah Penelitian Kompetensi 2009.
Daftar Pustaka Budiantara, I. N., dan Subanar, 1998, Pendekatan Bayes Untuk Kurva Regresi Nonparametrik Spline Terbobot, Majalah Ilmiah Himpunan Matematika Indonesia (MIHMI), 4, 69-78. Budiantara, I. N., 2000, Optimasi dan Proyeksi Dalam Regresi Nonparametrik Spline, Majalah Berkala Matematika dan Ilmu Pengetahuan Alam (BMIPA), Universitas Gadjah Mada, 10, 35-44. Budiantara, I. N, 2004, Spline : Historis, Motivasi, dan Perannya Dalam Regresi Nonparametrik, Makalah Pembicara Utama pada Konferensi Nasional Matematika XII, Jurusan Matematika, Fakultas Matematika dan Ilmu Pengetahuan Alam, Universitas Udayana (UNUD), Denpasar. Budiantara, I. N., 2006, Model Spline Dengan Knots Optimal, Jurnal Ilmu Dasar, FMIPA Universitas Jember, 7, 77-85. Budiantara, I.N., Lestari, B, Islamiyati, A., 2009, “Weighted Spline Estimator in Heteroscedastic Nonparametric for Longitudinal Data”, International Conference on Mathematics and Its application, Gadjah Mada University, Yogyakarta Budiantara, I.N., Lestari, B., Islamiyati, A., 2009, Estimator Spline Terbobot Dan Spline Parsial Terbobot Dalam Regresi Nonparametrik Dan Semiparametrik HeteroskedastikUntuk Data Longitudinal, Laporan Penelitian Hibah Penelitian Kompetensi Cox, D. D. and O’Sullivan, F.,1996, Penalized Type Estimator for Generalized Nonparametric Regression, 1983, Journal of Multivariate Analysis, 56, 185-206. Craven, P. and Wahba, G.,1979, Smoothing Noise Data with Spline Functions, Numerische Mathematics, 31, 377-403. Demidenko, E, 2004, Mixed Models : Theory and Application, John Wiley and Sons, Ney York. Diggle, P. J., Heagerty, P., Liang, K. Y., and Zelger, S. L., 2002, Analysis of Longitudinal Data, Oxford University Press, Oxford. Durban, M., Harezlak, J., Wan, M. P., and Carroll, L. J., 2005, Simple Fitting of Subject Spesific Curve for Longitudinal Data, Statistic in Medicine, 24, 1153-1167. Eubank,R.L.,1988, Spline Smoothing and Nonparametric Regression, Mercel Dekker, New York. Guo, W., (2002), Functional Mixed-Effect Models, Biometrics, 58, 121-128. Rice, J. A. and Wu, C. O., 2001, Nonparametric Mixed Effects Models for Unequally Sampled Noisy Curve, Biometrics, 57, 253-259. Wahba, G.,1983, Bayesian Confidence Interval for the Cross Validated Smoothing Parameter in the Generalized Spline Smoothing Problems, The Annals of Statistics, 13, 1378-1402. Wahba G.,1990, Spline Models For Observasion Data, SIAM Pensylvania Wang, Y., 1998, Spline Smoothing Models With Correlated Errors, Journal of the American Statistical Association., 93, 341-348. Wang, N., 2003, Marginal Nonparametric Kernel Regession Accounting for Whitin-Subject Correlation, Biometrika, 90, 43-52. Wu, C. O,. and Chiang, C. T., 2000, Kernel Smoothing on Varying Coeficient Model with Longitudinal Dependent Variable, Statistica Sinica, 10, 433-456. Wu, H. and Zhang, J. T., 2006, Nonparametric Regression Method for Longitudinal Data Analisys : Mixed Effects Modeling Approaches, John Wiley and Sons, New York. Zhang, H.P., 1997, Multivariate Addaptive Spline for the Analysis of Longitudinal Data, Journal of Computational and Graphical Statistics, 6, 74-91.
11