Kali ini kita membahas cara merangkum data dan hubungan antar-variabel dengan 2 hal utama:
- Mean / Ekspektasi: nilai rata-rata yang diharapkan
- Varians & Kovarians: "seberapa menyebar” dan “seberapa bergerak bersama” antar variabel
Ini dipakai untuk memahami ide di SEM: model yang bagus harus bisa “menjelaskan” pola/ matriks kovarians yang terlihat di data.
Mean/ Ekspektasi E(Y)
- Konsepnya
-- Bayangkan kamu mengulang pengukuran berkali-kali. Ekspektasi E(Y) adalah “rata-rata jangka panjang”.
Makna sederhananya: rata-rata jangka panjang kalau percobaan diulang sangat banyak.
-- Mean populasi ditulis μY
- Aturan dasar ekspektasi
- Konstanta: E(c) = c
- Kelipatan konstanta: E(cY) = cE(Y)
- Penjumlahan/pengurangan: E(X - Y) = E(X) + E(Y) atau E(X - Y) = E(X) - E(Y)
- Perkalian (butuh independen!), kalau X dan Y independen (tidak saling memengaruhi): E(XY) = E(X)E(Y), jika dependen, umumnya tidak sama
Varians (VAR): ukuran “sebaran”
- Konsepnya
Varians mengukur: nilai-nilai itu rapat (mirip-mirip) atau menyebar jauh.
Notasi:
- Rumus cepat
sehingga juga
- Aturan varians yang penting
- Varians konstanta: Var(c) = 0 (konstanta tidak menyebar)
- Varians skala: Var(cY) = c^2Var(Y)
- Tambah konstanta tidak mengubah varians: Var(c+Y) = Var(Y)
Kovarians (COV): ukuran “gerak bareng” 2 variabel
- Konsepnya
Kovarians menjawab: "kalau X naik, apakah Y juga cenderung naik?"
Cov(X,Y) > 0: naik bersama
Cov(X,Y) < 0: yang satu naik, yang lain turun
Cov(X,Y) = 0: tidak ada hubungan linear (belum tentu “tidak berhubungan sama sekali”)
- Rumus cepat
- Hubungan dengan independen
Kalau X dan Y independen, maka kovariansnya 0 -> Cov(X,Y) = 0.
- Aturan kovarians
-- Dengan konstanta:
-- Skala:
-- Penjumlahan:
- Varians penjumlahan: kenapa muncul “2Cov”?
Rumus penting:
Maknanya:
Kalau X dan Y sering naik bersama (kovarians positif), total sebaran X+Y jadi lebih besar.
Kalau Cov(X,Y) = 0, barulah:
Var dan Cov Dipakai untuk apa?
Misal model:
Artinya:
- Y1 dipengaruhi oleh X1 dan X2
- ζ1 = faktor lain yang tidak kita ukur (error)
Maka varians Y1 berasal dari:
- sebaran X1
- sebaran X2
- hubungan X1 dengan X2 (kovarians)
- sebaran error ζ1
Itulah mengapa rumusnya jadi “campuran” antara varians dan kovarians.
Implied Covariance Matrix” (kovarians yang diprediksi model)
- Di SEM, kita bandingkan 2 “tabel hubungan”:
Σ = kovarians populasi/observasi (yang “kita lihat” dari data)
Σ(θ) = kovarians yang diprediksi oleh model (tergantung parameter θ)
Hipotesis dasarnya:
Kalau mirip → model dianggap cocok/ bagus.
- Apa itu “matriks” di sini?
Anggap matriks seperti tabel kotak-kotak angka:
diagonalnya = varians tiap variabel
luar diagonal = kovarians antar variabel
Bentuk model struktural dan “reduced form”
Notasi:
Penjelasan:
y: variabel endogen (dipengaruhi variabel lain dalam model)
x: variabel eksogen (sebagai penyebab/prediktor)
B: pengaruh antar komponen di y
Γ: pengaruh x ke y
ζ: error/disturbance untuk y
I: matriks identitas (analog “angka 1” untuk matriks)
Pindahkan By ke kiri:
Jika (I−B) bisa dibalik (non-singular), maka:
Ini yang disebut reduced form: y ditulis langsung sebagai fungsi x dan error.
Rumus inti: kovarians yang “diimplied” oleh model
Biasanya diasumsikan:
Maka kovarians y:
Makna sederhananya: varians/kovarians pada y berasal dari:
- variasi pada x yang “mengalir” lewat Γ, dan
- variasi error ζ, lalu semuanya “dipropagasikan” oleh struktur hubungan di B lewat (I−B)^−1.
bagian kedua:
bagian ketiga:
akhirnya:
Contoh:
Penjelasan:
- y1 dipengaruhi x1
- y2 dipengaruhi y1 dan x1
Persamaan dari gambar ini:
Secara konsep, matriks B jadi sederhana (hanya ada panah y1 → y2), sehingga (I−B)^−1 masih bisa dihitung manual. Untuk model besar, hitung tangan jadi rumit, tapi kita perlu paham “isi black box”-nya: dari aturan varians/kovarians + aljabar matriks.
Jenis parameter
Ada 3 tipe:
- Free (diestimasi)
Nilainya dicari dari data (misal β21 tidak ditentukan).
- Fixed (ditetapkan, sering 0)
Misal tidak ada panah dari y2 ke y1 → koefisiennya dipaksa 0. Kadang bisa fixed bukan 0, tapi harus ada teori kuat.
- Constrained (dibuat sama)
Misalnya (dua pengaruh dianggap sama besar)
Artinya pengaruh x1 ke y1 dipaksa sama dengan pengaruh x1 ke y2. Ini mengurangi jumlah parameter bebas.
Correlated errors” (error saling berkorelasi)
Artinya apa?
Jika ada dua error (misal ζ1 dan ζ2) dibuat berkorelasi, artinya:
- Ada faktor lain yang tidak dimodelkan yang mempengaruhi keduanya bersamaan, atau
- Ada kemiripan pengukuran/lingkungan yang membuat residual mereka “nyambung”
Dalam matriks Ψ, ini muncul sebagai elemen off-diagonal ≠ 0.
Referensi
Bollen, K. A. (1989). Structural equations with latent variables. New York: Wiley.
Kline, R. B. (2016). Principles and practice of structural equation modeling (4th ed.). New York: Guilford Press.