Latent State-Trait Modelle

Latent State-Trait (LST) Modelle erweitern die Grundgleichung der KTT für Situationen, in denen mehrere Messzeitpunkte vorliegen.

Pfaddarstellung von LST-Modellen

Sie haben in der Vorlesung Pfaddarstellungen von LST Modellen, wie die folgende kennengelernt:

Beschreiben Sie die Datensituation, auf die das gezeigte LST Modell passen würde, genauer:

  • Wie viele Messzeitpunkte liegen vor?

  • Wie viele Items gibt es zu jedem Messzeitpunkt?

Das Modell passt zu einer Situation, in der drei Items zu jeweils drei Messzeitpunkten erhoben wurden.

Welche der \(y\)-Variablen beziehen sich jeweils auf das gleiche Item?

Item 1: \(y_{11}\), \(y_{12}\), \(y_{13}\)

Item 2: \(y_{21}\), \(y_{22}\), \(y_{23}\)

Item 3: \(y_{31}\), \(y_{32}\), \(y_{33}\)

Welche der \(y\)-Variablen beziehen sich jeweils auf den gleichen Messzeitpunkt?

Messzeitpunkt 1: \(y_{11}\), \(y_{21}\), \(y_{31}\)

Messzeitpunkt 2: \(y_{12}\), \(y_{22}\), \(y_{32}\)

Messzeitpunkt 3: \(y_{13}\), \(y_{23}\), \(y_{33}\)

Welche Bedeutung haben die folgenden Parameter jeweils?

  • \(\epsilon_{21}\) (“epsilon”)

  • \(\lambda_{32}\) (“lambda”)

  • \(\tau_3\) (“tau”)

  • \(\zeta_2\) (“zeta”)

  • \(\gamma_1\) (“gamma”)

  • \(\xi\) (“xi”)

\(\epsilon_{21}\): Residuum auf Item \(2\) zu Zeitpunkt \(1\). Dieser Term nimmt wie ein Residuum in der Regression alles auf, was das Modell in Variable \(y_{21}\) nicht vorhersagen kann.

\(\lambda_{32}\): Faktorladung von Item \(3\) zu Zeitpunkt \(2\) auf dem latenten State \(\tau_2\). Der latente State beeinflusst das Item \(y_{32}\) gewichtet um \(\lambda_{32}\).

\(\tau_3\): Die latente State-Variable für Zeitpunkt \(3\). Diese Variable erfasst Varianzanteile, die den Items zum Zeitpunkt \(3\) gemeinsam sind.

\(\zeta_2\): State-spezifisches Residuum zu Zeitpunkt \(2\). Dieser Term enthält die Anteile am latenten State, die durch die den stabilen Trait nicht erklärt werden können.

\(\gamma_1\): Faktorladung von State \(1\) auf der stabilen Trait-Variable \(\xi\). Der stabile Trait beeinflusst den latenten State zu Zeitpunkt \(1\) gewichtet um \(\gamma_1\).

\(\xi\): Stabile Trait-Variable. Diese Variable erfasst Varianzanteile, die den drei latenten States gemeinsam sind.

Der Übersicht halber wurde der Personenindex \(m\) in der Übersicht ignoriert. Das kommt manchmal vor, wenn aus dem Kontext ersichtlich ist, welche Variablen und Parameter personenspezifisch geschätzt werden.

Welche Variablen und Parameter sind personenspezifisch?

Alle \(\epsilon\)-Parameter

Alle \(y\)-Variablen

Die \(\lambda\)-Parameter nicht

Alle \(\tau\)-Parameter

Alle \(\zeta\)-Parameter

Die \(\gamma\)-Parameter nicht

Der \(\xi\)-Parameter

Von der Pfaddarstellung zu Modellgleichungen

Die Pfaddarstellung des Modells sehr nützlich, um schnell einen Überblick über das Modell zu bekommen. Hinter der Pfaddarstellung steckt aber, wie bei den Messmodellen auch, ein System linearer Modellgleichungen. In der folgenden Aufgabe werden Sie gebeten, die Modellgleichung für ein Item zu einem Zeitpunkt aufzuschreiben. Das wird vielen vermutlich nicht leicht fallen. Das ist nicht schlimm. Versuchen Sie es trotzdem einmal. Auch wenn Sie falsch liegen, haben Sie danach noch Gelegenheit zu üben.

Was ist die Modellgleichung für Item \(2\) zu Zeitpunkt \(3\)?

Auf Basis der KTT setzt sich die Antwort aus den Komponenten \(\tau_{3}\) und \(\epsilon_{23}\) zusammen. \(\tau_3\) ist für jedes Item zu Zeitpunkt \(3\) identisch, wird aber für jedes Item anders gewichtet, hier mit \(\lambda_{23}\):

\(y_{23} = \lambda_{23} \cdot \tau_{3} + \epsilon_{23}\)

Der latente State zu Zeitpunkt \(3\) setzt sich zusammen aus dem stabilen Trait \(\xi\) und einem messgelegenheitsspezifischen Residuum \(\zeta_3\). Der stabile Trait ist für jeden Messzeitpunkt identisch, wird aber für jeden Zeitpunkt anders gewichtet, hier mit \(\gamma_3\):

\(\tau_{3} = \gamma_3 \cdot \xi + \zeta_3\)

Nun muss man nurnoch \(\tau_3\) in die erste Gleichung einsetzen:

\(y_{23} = \lambda_{23} \cdot (\gamma_3 \cdot \xi + \zeta_3) + \epsilon_{23}\)

Wenn man das lieber mag, kann man natürlich auch noch ausmultiplizieren:

\(y_{23} = \lambda_{23} \cdot \gamma_3 \cdot \xi + \lambda_{23} \cdot \zeta_3 + \epsilon_{23}\)

Wie versprochen der zweite Versuch:

Was ist die Modellgleichung für Item \(1\) zu Zeitpunkt \(2\)?

\(y_{12} = \lambda_{12} \cdot \tau_{2} + \epsilon_{12}\)

\(\tau_{2} = \gamma_2 \cdot \xi + \zeta_2\)

\(y_{12} = \lambda_{12} \cdot (\gamma_2 \cdot \xi + \zeta_2) + \epsilon_{12}\)

Und noch einmal

Was ist die Modellgleichung für Item \(3\) zu Zeitpunkt \(3\)?

\(y_{33} = \lambda_{33} \cdot \tau_{3} + \epsilon_{33}\)

\(\tau_{3} = \gamma_3 \cdot \xi + \zeta_3\)

\(y_{33} = \lambda_{33} \cdot (\gamma_3 \cdot \xi + \zeta_3) + \epsilon_{33}\)

Die letzten drei Aufgaben sind meiner Meinung nach zentral für das tiefere Verständnis, denn die Pfaddarstellung ist nicht das Modell, sondern eine nützliche Darstellungsweise. Um tiefer mit einem Modell arbeiten zu können, sollte man auch mit der Gleichungsebene umgehen können. Diesen Umgang vertiefen wir nun noch einmal.

Ich nehme noch einmal ein Item zu einem Zeitpunkt heraus. Zum Beispiel Item \(3\) zum Zeitpunkt \(1\). Aufgrund der vorherigen Aufgaben wissen Sie, dass die Grafik die folgende Modellgleichung für dieses Item impliziert:

\[y_{31} = \lambda_{31} \cdot (\gamma_3 \cdot \xi + \zeta_3) + \epsilon_{31}\]

Diese Darstellungsform ist schon sehr nützlich. Noch besser wäre es aber, eine allgemeine Modellgleichung für ein Item \(i\) zu einem Zeitpunkt \(t\) zu erhalten.

Bezeichnen Sie Items mit \(i\) und Zeitpunkte mit \(t\). Verallgemeinern Sie die Modellgleichung des LST Modells.

\[y_{it} = \lambda_{it} \cdot (\gamma_t \cdot \xi + \zeta_t) + \epsilon_{it}\]

Wie Sie aus einer vorherigen Aufgabe bereits wissen, sind einige der Gleichungskomponenten personenspezifisch. Da drei Indices schnell unübersichtlich würden, wurde das \(m\) für Personen hier fallengelassen. Im Prinzip könnte man es aber noch hinzufügen.

Fügen Sie überall wo es sinnvoll ist einen Personenindex \(m\) zur LST-Gleichung hinzu.

\[y_{mit} = \lambda_{it} \cdot (\gamma_{t} \cdot \xi_m + \zeta_{mt}) + \epsilon_{mit}\]

Im Folgenden geht es aber ohne den Index \(m\) weiter.

Varianzzerlegung

Nimmt man die Modellgleichung

\[y_{it} = \lambda_{it} \cdot (\gamma_t \cdot \xi + \zeta_t) + \epsilon_{it}\]

an, folgt daraus eine spezifische Varianzzerlegung für jeden Messwert. Man kann diese Varianzzerlegung herleiten. Das ist aber schon etwas fortgeschritten. Wenn Sie kein Interesse daran haben, können Sie die folgende Aufgabe getrost überspringen. Ich finde aber, es lohnt sich. :)

Sei

\[y_{it} = \lambda_{it} \cdot (\gamma_t \cdot \xi + \zeta_t) + \epsilon_{it}\]

\[= \lambda_{it} \cdot \gamma_t \cdot \xi + \lambda_{it} \cdot \zeta_t + \epsilon_{it}\]

\[= \textcolor{red}{(\lambda_{it} \cdot \gamma_t \cdot \xi)} + \textcolor{blue}{(\lambda_{it} \cdot \zeta_t)} + \textcolor{green}{\epsilon_{it}}\]

eine Zufallsvariable. Berechnen Sie \(Var(y_{it})\).

Nutzen Sie dafür die folgenden allgemeinen Zusammenhänge der Stochastik:

Varianz der Summe von drei Zufallsvariablen

\[Var(\textcolor{red}{X} + \textcolor{blue}{Y} + \textcolor{green}{Z})\]

\[= Var(X) + Var(Y) + Var(Z)\]

\[+ 2 \cdot Cov(X, Y) + 2 \cdot Cov(X, Z) + 2 \cdot Cov(Y, Z)\]

Konstanten in Varianzen

\[Var(a \cdot X) = a^2 \cdot Var(X)\]

Hier verstehen wir alles als “konstant”, was nicht personenspezifisch ist, also die \(\lambda\)- und \(\gamma\)-Parameter.

Konstanten in Kovarianzen

\[Cov(a \cdot X, b \cdot Y) = a \cdot b \cdot Cov(X, Y)\]

Nehmen Sie außerdem an, dass alle Kovarianzen nach Annahme Null sind.

Es ist

\[y_{it} = (\lambda_{it} \cdot \gamma_t \cdot \xi) + (\lambda_{it} \cdot \zeta_t) + \epsilon_{it}\]

Mit der angegebenen Formel für die Varianz der Summe von drei Zufallsvariablen gilt

\[Var(y_{it})\]

\[= Var(\lambda_{it} \cdot \gamma_t \cdot \xi) + Var(\lambda_{it} \cdot \zeta_t) + Var(\epsilon_{it})\]

\[+ 2 \cdot Cov(\lambda_{it} \cdot \gamma_t \cdot \xi, \lambda_{it} \cdot \zeta_t)\]

\[+ 2 \cdot Cov(\lambda_{it} \cdot \gamma_t \cdot \xi, \epsilon_{it})\]

\[+ 2 \cdot Cov(\lambda_{it} \cdot \zeta_t, \epsilon_{it})\]

Parameter, die sich nicht zwischen Personen unterscheiden (für die Formeln “Konstanten”), kann man quadrieren und als Faktor vor die Varianzen schreiben. Bei Kovarianzen muss man nicht quadrieren:

\[Var(y_{it})\]

\[= \lambda_{it}^2 \cdot \gamma_t^2 \cdot Var(\xi) + \lambda_{it}^2 \cdot Var(\zeta_t) + Var(\epsilon_{it})\]

\[+ 2 \cdot \lambda_{it}^2 \cdot \gamma_t \cdot Cov(\xi, \zeta_t)\]

\[+ 2 \cdot \lambda_{it} \cdot \gamma_t \cdot Cov(\xi, \epsilon_{it})\]

\[+ 2 \cdot \lambda_{it} \cdot Cov(\zeta_t, \epsilon_{it})\]

Nun folgen allehand Annahmen.

  1. Der stabile Trait und das State-spezifische Residuum sind unabhängig voneinander und daher ist \(Cov(\xi, \zeta_t) = 0\).

  2. Der stabile Trait und das Item- und Zeitpunkt-spezifische Residuum sind unabhängig voneinander und daher ist \(Cov(\xi, \epsilon_{it}) = 0\).

  3. Das State-spezifische Residuum und das Item- und Zeitpunkt-spezifische Residuum sind unabhängig voneinander und daher ist \(Cov(\zeta_t, \epsilon_{it}) = 0\).

Unter diesen Annahmen würde man für alle Kovarianzen Nullen einsetzen, sodass folgt:

\[Var(y_{it}) = \lambda_{it}^2 \cdot \gamma_t^2 \cdot Var(\xi) + \lambda_{it}^2 \cdot Var(\zeta_t) + Var(\epsilon_{it})\]

Nun sind wir schon am Ziel. Diese Varianzzerlegung finden Sie auf den Vorlesungsfolien wieder.

Das Ergebnis der letzten Aufgabe ist, dass sich die Varianz einer Variablen im LST Modell wie folgt zerlegen lässt:

\[Var(y_{it}) = \lambda_{it}^2 \cdot \gamma_t^2 \cdot Var(\xi) + \lambda_{it}^2 \cdot Var(\zeta_t) + Var(\epsilon_{it})\]

Das heißt, die Varianz der Antworten auf ein Item zu einem Zeitpunkt setzt sich additiv aus drei Komponenten zusammen.

  1. aus einem Varianzanteil, der auf den stabilen Trait zurückzuführen ist:

\[\lambda_{it}^2 \cdot \gamma_t^2 \cdot Var(\cdot \xi)\]

  1. aus einem Varianzanteil, der auf das State-Residuum zurückzuführen ist:

\[\lambda_{it}^2 \cdot Var(\zeta_t)\]

  1. aus einem Varianzanteil, der auf den Messfehler zurückzuführen ist:

\[Var(\epsilon_{it})\]

Die Anteile 1., 2. und 3. kann man jeweils durch die Gesamtvarianz der Variable teilen und erhält so eine Statistik darüber, welcher Anteil der Varianz eines Items auf den stabilen Trait, das State-Residuum oder den Messfehler zurückzuführen ist.

Setzen Sie die Formeln für diese Varianzanteile selbst zusammen, ohne auf den Folien nachzusehen.

Ich setze voraus, dass

\[ Var(y_{it}) = \lambda_{it}^2 \cdot \gamma_t^2 \cdot Var(\cdot \xi) + \lambda_{it}^2 \cdot Var(\zeta_t) + Var(\epsilon_{it}) \]

Man könnte \(Var(y_{it})\) im Nenner aller Formeln auch in aufgelöster Form einsetzen. Das macht die Formeln aber schnell unübersichtlich.

1. Varianzanteil aufgrund des stabilen Traits

Diesen Anteil nennt man auch Konsistenz. Daher wird er hier mit \(Con(y_{it})\) bezeichnet.

\[ Con(y_{it}) = \frac{ \lambda_{it}^2 \cdot \gamma_t^2 \cdot Var(\cdot \xi) }{ Var(y_{it}) } \]

2. Varianzanteil aufgrund des State-Residuums

Diesen Anteil nennt man auch Messgelegenheitsspezifität oder abgekürzt \(OSpe(y_{it})\):

\[ OSpe(y_{it}) = \frac{ \lambda_{it}^2 \cdot Var(\zeta_t) }{ Var(y_{it}) } \]

3. Varianzanteil aufgrund des Messfehlers

Man kann entsprechend auch einen Varianzanteil berechnen, der auf den Messfehler zurückzuführen ist:

\[ \frac{ Var(\epsilon_{it}) }{ Var(y_{it}) } \]

Üblicherweise arbeitet man aber eher mit dem komplementären Varianzanteil. Diesen nennt man im LST-Kontext Reliabilität des Items \(i\) zur Messgelegenheit \(t\):

\[ Rel(y_{it}) = 1 - \frac{ Var(\epsilon_{it}) }{ Var(y_{it}) } \]

Datenbeispiel

Ein Test mit fünf Items wurde zu vier Messzeitpunkten an jeweils \(784\) Personen erhoben. Im Folgenden wird ein LST Modell auf die resultierenden Daten geschätzt.

library(lavaan)
This is lavaan 0.6-19
lavaan is FREE software! Please report any bugs.
lst <- '
state1 =~ y_11 + y_21 + y_31 + y_41 + y_51
state2 =~ y_12 + y_22 + y_32 + y_42 + y_52
state3 =~ y_13 + y_23 + y_33 + y_43 + y_53
state4 =~ y_14 + y_24 + y_34 + y_44 + y_54

trait =~ state1 + state2 + state3 + state4
'

lst_fit <- cfa(lst, data = dat, estimator = "MLR")

summary(lst_fit, standardize = TRUE, rsquare = TRUE, fit.measures = TRUE)
lavaan 0.6-19 ended normally after 156 iterations

  Estimator                                         ML
  Optimization method                           NLMINB
  Number of model parameters                        44

  Number of observations                           784

Model Test User Model:
                                              Standard      Scaled
  Test Statistic                               177.185     176.092
  Degrees of freedom                               166         166
  P-value (Chi-square)                           0.262       0.281
  Scaling correction factor                                  1.006
    Yuan-Bentler correction (Mplus variant)                       

Model Test Baseline Model:

  Test statistic                              8716.493    8673.003
  Degrees of freedom                               190         190
  P-value                                        0.000       0.000
  Scaling correction factor                                  1.005

User Model versus Baseline Model:

  Comparative Fit Index (CFI)                    0.999       0.999
  Tucker-Lewis Index (TLI)                       0.998       0.999
                                                                  
  Robust Comparative Fit Index (CFI)                         0.999
  Robust Tucker-Lewis Index (TLI)                            0.999

Loglikelihood and Information Criteria:

  Loglikelihood user model (H0)                710.621     710.621
  Scaling correction factor                                  1.022
      for the MLR correction                                      
  Loglikelihood unrestricted model (H1)        799.214     799.214
  Scaling correction factor                                  1.009
      for the MLR correction                                      
                                                                  
  Akaike (AIC)                               -1333.243   -1333.243
  Bayesian (BIC)                             -1128.009   -1128.009
  Sample-size adjusted Bayesian (SABIC)      -1267.731   -1267.731

Root Mean Square Error of Approximation:

  RMSEA                                          0.009       0.009
  90 Percent confidence interval - lower         0.000       0.000
  90 Percent confidence interval - upper         0.019       0.019
  P-value H_0: RMSEA <= 0.050                    1.000       1.000
  P-value H_0: RMSEA >= 0.080                    0.000       0.000
                                                                  
  Robust RMSEA                                               0.009
  90 Percent confidence interval - lower                     0.000
  90 Percent confidence interval - upper                     0.019
  P-value H_0: Robust RMSEA <= 0.050                         1.000
  P-value H_0: Robust RMSEA >= 0.080                         0.000

Standardized Root Mean Square Residual:

  SRMR                                           0.023       0.023

Parameter Estimates:

  Standard errors                             Sandwich
  Information bread                           Observed
  Observed information based on                Hessian

Latent Variables:
                   Estimate  Std.Err  z-value  P(>|z|)   Std.lv  Std.all
  state1 =~                                                             
    y_11              1.000                               0.181    0.653
    y_21              0.914    0.060   15.190    0.000    0.166    0.642
    y_31              0.891    0.063   14.213    0.000    0.162    0.622
    y_41              0.702    0.056   12.588    0.000    0.127    0.524
    y_51              1.138    0.076   15.013    0.000    0.206    0.719
  state2 =~                                                             
    y_12              1.000                               0.366    0.886
    y_22              1.160    0.034   34.148    0.000    0.424    0.904
    y_32              1.121    0.033   34.003    0.000    0.410    0.905
    y_42              1.303    0.034   37.951    0.000    0.477    0.920
    y_52              1.250    0.036   34.968    0.000    0.457    0.916
  state3 =~                                                             
    y_13              1.000                               0.277    0.813
    y_23              0.728    0.034   21.145    0.000    0.201    0.719
    y_33              0.797    0.034   23.541    0.000    0.220    0.744
    y_43              0.706    0.035   20.127    0.000    0.195    0.700
    y_53              0.524    0.031   17.172    0.000    0.145    0.609
  state4 =~                                                             
    y_14              1.000                               0.116    0.503
    y_24              1.469    0.134   10.972    0.000    0.171    0.660
    y_34              1.200    0.121    9.949    0.000    0.140    0.577
    y_44              1.184    0.123    9.656    0.000    0.138    0.567
    y_54              1.010    0.106    9.554    0.000    0.117    0.514
  trait =~                                                              
    state1            1.000                               0.742    0.742
    state2            2.627    0.175   14.998    0.000    0.966    0.966
    state3            1.816    0.135   13.453    0.000    0.883    0.883
    state4            0.594    0.065    9.175    0.000    0.687    0.687

Variances:
                   Estimate  Std.Err  z-value  P(>|z|)   Std.lv  Std.all
   .y_11              0.044    0.003   16.239    0.000    0.044    0.573
   .y_21              0.039    0.002   16.727    0.000    0.039    0.588
   .y_31              0.041    0.003   16.229    0.000    0.041    0.614
   .y_41              0.043    0.002   18.435    0.000    0.043    0.725
   .y_51              0.040    0.002   15.944    0.000    0.040    0.483
   .y_12              0.037    0.002   16.451    0.000    0.037    0.215
   .y_22              0.040    0.003   15.194    0.000    0.040    0.183
   .y_32              0.037    0.002   16.767    0.000    0.037    0.180
   .y_42              0.042    0.003   15.867    0.000    0.042    0.154
   .y_52              0.040    0.002   16.365    0.000    0.040    0.162
   .y_13              0.039    0.003   15.573    0.000    0.039    0.339
   .y_23              0.038    0.002   18.156    0.000    0.038    0.483
   .y_33              0.039    0.002   16.543    0.000    0.039    0.446
   .y_43              0.040    0.002   17.951    0.000    0.040    0.510
   .y_53              0.036    0.002   17.327    0.000    0.036    0.629
   .y_14              0.040    0.002   16.607    0.000    0.040    0.747
   .y_24              0.038    0.003   14.319    0.000    0.038    0.565
   .y_34              0.039    0.002   16.415    0.000    0.039    0.667
   .y_44              0.040    0.002   17.513    0.000    0.040    0.679
   .y_54              0.038    0.002   17.359    0.000    0.038    0.736
   .state1            0.015    0.002    7.767    0.000    0.449    0.449
   .state2            0.009    0.004    2.547    0.011    0.067    0.067
   .state3            0.017    0.002    7.041    0.000    0.219    0.219
   .state4            0.007    0.001    6.113    0.000    0.528    0.528
    trait             0.018    0.002    7.442    0.000    1.000    1.000

R-Square:
                   Estimate
    y_11              0.427
    y_21              0.412
    y_31              0.386
    y_41              0.275
    y_51              0.517
    y_12              0.785
    y_22              0.817
    y_32              0.820
    y_42              0.846
    y_52              0.838
    y_13              0.661
    y_23              0.517
    y_33              0.554
    y_43              0.490
    y_53              0.371
    y_14              0.253
    y_24              0.435
    y_34              0.333
    y_44              0.321
    y_54              0.264
    state1            0.551
    state2            0.933
    state3            0.781
    state4            0.472
# Modellimplizierte Varianz-Kovarianz-Matrix
fitted(lst_fit)
$cov
      y_11  y_21  y_31  y_41  y_51  y_12  y_22  y_32  y_42  y_52  y_13  y_23
y_11 0.077                                                                  
y_21 0.030 0.067                                                            
y_31 0.029 0.027 0.068                                                      
y_41 0.023 0.021 0.021 0.059                                                
y_51 0.037 0.034 0.033 0.026 0.082                                          
y_12 0.048 0.043 0.042 0.033 0.054 0.171                                    
y_22 0.055 0.050 0.049 0.039 0.063 0.155 0.220                              
y_32 0.053 0.049 0.048 0.037 0.061 0.150 0.174 0.205                        
y_42 0.062 0.057 0.055 0.043 0.071 0.175 0.202 0.196 0.269                  
y_52 0.059 0.054 0.053 0.042 0.068 0.167 0.194 0.188 0.218 0.250            
y_13 0.033 0.030 0.029 0.023 0.037 0.086 0.100 0.097 0.113 0.108 0.116      
y_23 0.024 0.022 0.021 0.017 0.027 0.063 0.073 0.070 0.082 0.079 0.056 0.078
y_33 0.026 0.024 0.023 0.018 0.030 0.069 0.080 0.077 0.090 0.086 0.061 0.044
y_43 0.023 0.021 0.021 0.016 0.026 0.061 0.071 0.068 0.079 0.076 0.054 0.039
y_53 0.017 0.016 0.015 0.012 0.020 0.045 0.052 0.051 0.059 0.057 0.040 0.029
y_14 0.011 0.010 0.010 0.008 0.012 0.028 0.033 0.032 0.037 0.035 0.020 0.014
y_24 0.016 0.014 0.014 0.011 0.018 0.041 0.048 0.046 0.054 0.052 0.029 0.021
y_34 0.013 0.012 0.011 0.009 0.015 0.034 0.039 0.038 0.044 0.042 0.023 0.017
y_44 0.013 0.012 0.011 0.009 0.014 0.033 0.039 0.037 0.044 0.042 0.023 0.017
y_54 0.011 0.010 0.010 0.008 0.012 0.029 0.033 0.032 0.037 0.036 0.020 0.014
      y_33  y_43  y_53  y_14  y_24  y_34  y_44  y_54
y_11                                                
y_21                                                
y_31                                                
y_41                                                
y_51                                                
y_12                                                
y_22                                                
y_32                                                
y_42                                                
y_52                                                
y_13                                                
y_23                                                
y_33 0.088                                          
y_43 0.043 0.078                                    
y_53 0.032 0.028 0.057                              
y_14 0.016 0.014 0.010 0.054                        
y_24 0.023 0.020 0.015 0.020 0.067                  
y_34 0.019 0.017 0.012 0.016 0.024 0.059            
y_44 0.018 0.016 0.012 0.016 0.023 0.019 0.059      
y_54 0.016 0.014 0.010 0.014 0.020 0.016 0.016 0.052

Beurteilen Sie den Modellfit anhand des CFI, SRMR, RMSEA und \(\chi^2\)-Tests.

Man kann CFI, SRMR und RMSEA anhand gängiger, aber arbiträrer Cutoffs beurteilen:

\(CFI = .999 > .95\)

\(SRMR = .023 < 0.08\)

\(RMSEA = .009 < 0.08\)

Diese sprechen alle für einen sehr guten fit. Falls Ihnen in der Vorlesung andere Cutoffs mitgeteilt wurden, sollten Sie natürlich diese verwenden.

Der p-Wert des \(\chi^2\)-Tests ist \(.262\) und damit bei \(\alpha = 0.05\) nicht signifikant. Die H0, dass die modellbasierte und beobachtete Varianz-Kovarianz-Matrix identisch sind, kann also nicht verworfen werden. Das spricht für einen sehr guten Modellfit.

Insbesondere ein nicht signifikanter \(\chi^2\)-Test ist bei \(N = 784\) Personen ungewöhnlich gut. In diesem Fall liegt das daran, dass die Daten nicht empirisch, sondern simuliert sind.

Zeichnen Sie eine Pfaddarstellung des Modells. Zeichnen Sie dort auch alle Parameter ein.

Suchen Sie im Output die

  • unstandardisierten State-Ladungen \(\lambda_{it}\)

  • unstandardisierten Trait-Ladungen \(\gamma_t\)

  • unstandardisierte Trait-Varianz \(Var(\xi)\)

  • unstandardisierte State-Varianz \(Var(\tau_t)\)

  • unstandardisierten State-Residuen \(Var(\zeta_t)\)

  • unstandardisierten Item-Residuen \(\epsilon_{it}\)

  • Item Varianzen \(y_{it}\)

  • unstandardisierten State-Ladungen \(\lambda_{it}\)

z.B. bei state1 =~ y_11 in der Spalte Estimate

  • unstandardisierten Trait-Ladungen \(\gamma_t\)

z.B. bei trait =~ state1 in der Spalte Estimate

  • unstandardisierte Trait-Varianz \(Var(\xi)\)

Unter Variances in der Zeile trait und der Spalte Estimate

  • unstandardisierte State-Varianz \(Var(\tau_t)\)

Diesen Wert findet man nicht im Output, da \(\tau_t\) im Modell in einen stabilen Trait und ein State-spezifisches Residuum dekomponiert wird. Man könnte ihn aber berechnen.

  • unstandardisierten State-Residuen \(Var(\zeta_t)\)

Unter Variances, z.B. in der Zeile state1 in der Spalte Estimate

  • unstandardisierten Item-Residuen \(\epsilon_{it}\)

Die unstandardisierten Item-Residuen findet man nicht im Output. Sie sind personenspezifisch und würden \(N\) Zeilen Output erfordern. Man findet aber die Residualvarianzen, nämlich unter Variances bei den Itemnamen.

  • Item Varianzen \(Var(y_{it})\)

Die Itemvarianzen finden Sie auf der Hauptdiagonale der modellimplizierten Varianz-Kovarianz-Matrix. Man könnte sie aber auch aus den Parametern ausrechnen, wenn die Matrix nicht gegeben ist (siehe Formel oben).

Berechnen Sie anhand des Outputs die Konsistenz, Messgelegenheitspezifität und Reliabilität von Item \(4\) zu Zeitpunkt \(3\).

Gesucht

\[ Con(y_{43}) = \frac{ \lambda_{43}^2 \cdot \gamma_3^2 \cdot Var(\xi) }{ Var(y_{43}) } \]

\[ OSpe(y_{43}) = \frac{ \lambda_{43}^2 \cdot Var(\zeta_3) }{ Var(y_{43}) } \]

\[ Rel(y_{43}) = 1 - \frac{ Var(\epsilon_{43}) }{ Var(y_{43}) } \]

Gegeben

Aus dem Output und der modellimplizierten Varianz-Kovarianz-Matrix:

\(\lambda_{43} = 0.706\)

\(\gamma_3 = 1.816\)

\(Var(\xi) = 0.018\)

\(Var(\zeta_3) = 0.017\)

\(Var(\epsilon_{43}) = 0.040\)

\(Var(y_{43}) = 0.078\)

Einsetzen

\[ Con(y_{43}) =\frac{0.706^2\cdot 1.816^2\cdot 0.018}{0.078} \approx 0.38 \]

\[ OSpe(y_{43}) =\frac{0.706^2\cdot 0.017}{0.078} \approx 0.11 \]

\[ Rel(y_{43}) =1-\frac{0.040}{0.078} \approx 0.49 \]

Zur Überprüfung kann man noch einmal schauen, ob der berechnete Wert von \(Rel(y_{43})\) dem Wert bei R-Square im Output entspricht. Das ist hier der Fall.

Zum Weiterüben finden Sie hier die Konsistenzen und Messgelegenheitsspezifitäten aller Items zu allen Zeitpunkten. Die Reliabilitäten können Sie unter R-Square im Output ablesen.

Beachten Sie, dass es zu Rundungsabweichungen kommen kann, da die Lösungen mit ungerundeten Parameterschätzungen berechnet wurden.

[1] "Item: 1 Zeitpunkt: 1 Konsistenz: 0.24 M.Spezifität: 0.19"
[1] "Item: 1 Zeitpunkt: 2 Konsistenz: 0.73 M.Spezifität: 0.05"
[1] "Item: 1 Zeitpunkt: 3 Konsistenz: 0.52 M.Spezifität: 0.15"
[1] "Item: 1 Zeitpunkt: 4 Konsistenz: 0.12 M.Spezifität: 0.13"
[1] "Item: 2 Zeitpunkt: 1 Konsistenz: 0.23 M.Spezifität: 0.18"
[1] "Item: 2 Zeitpunkt: 2 Konsistenz: 0.76 M.Spezifität: 0.06"
[1] "Item: 2 Zeitpunkt: 3 Konsistenz: 0.4 M.Spezifität: 0.11"
[1] "Item: 2 Zeitpunkt: 4 Konsistenz: 0.21 M.Spezifität: 0.23"
[1] "Item: 3 Zeitpunkt: 1 Konsistenz: 0.21 M.Spezifität: 0.17"
[1] "Item: 3 Zeitpunkt: 2 Konsistenz: 0.76 M.Spezifität: 0.06"
[1] "Item: 3 Zeitpunkt: 3 Konsistenz: 0.43 M.Spezifität: 0.12"
[1] "Item: 3 Zeitpunkt: 4 Konsistenz: 0.16 M.Spezifität: 0.18"
[1] "Item: 4 Zeitpunkt: 1 Konsistenz: 0.15 M.Spezifität: 0.12"
[1] "Item: 4 Zeitpunkt: 2 Konsistenz: 0.79 M.Spezifität: 0.06"
[1] "Item: 4 Zeitpunkt: 3 Konsistenz: 0.38 M.Spezifität: 0.11"
[1] "Item: 4 Zeitpunkt: 4 Konsistenz: 0.15 M.Spezifität: 0.17"
[1] "Item: 5 Zeitpunkt: 1 Konsistenz: 0.28 M.Spezifität: 0.23"
[1] "Item: 5 Zeitpunkt: 2 Konsistenz: 0.78 M.Spezifität: 0.06"
[1] "Item: 5 Zeitpunkt: 3 Konsistenz: 0.29 M.Spezifität: 0.08"
[1] "Item: 5 Zeitpunkt: 4 Konsistenz: 0.12 M.Spezifität: 0.14"