Begriffe


Definitionen


Operationalisierung
Operationalisierung bezeichnet die Summe der Anweisungen (Operationen), mit deren Hilfe ein hypothetisches Konstrukt (theoretischer Begriff) über beobachtbare Sachverhalte (Indikatoren) erfasst und gemessen werden soll (Messvorschrift).

 

 

Partial Least Squares (PLS) Ansatz
Der PLS-Ansatz eine varianzbasierte Methode zur Schätzung von Strukturgleichungsmodellen. Das Ziel ist dabei die Maximierung der erklärten Varianz der endogenen latenten Variablen.

 

 

Partielle Messinvarianz
Partielle Messinvarianz liegt vor, wenn auf einer Invarianz-Stufe einzelne Identitätsrestriktionen aufgehoben werden, so dass sich der Modell-Fit verbessert, die dadurch entstehende „Verletzung“ der theoretisch unterstellten Identitäten aus Sicht der Anwendungspraxis aber noch als „akzeptabel“ gelten.

 

 

Perzentil-Methode
Ist ein Ansatz zur Ermittlung von Bootstrap-Konfidenzintervallen. Auf Basis der nach Größe sortierten Parameterschätzungen, die anhand von Bootstrap-Subsamples ermittelt wurden, wird das Intervall berechnet, welches einen gewissen Prozentsatz der niedrigsten und höchsten Werte ausschließt (z. B. 2,5 % der niedrigsten und 2,5 % der höchsten Werte im Fall des 95% Bootstrap-Konfidenzintervalls). Dieses Verfahren hat eine hohe Teststärke, kann aber zu Typ I-Fehlern führen.

 

 

PLSpredict-Prozedur
Ist ein Verfahren zur Bestimmung der Prognosekraft eines PLS-Modells. Das Verfahren führt eine k-fache Kreuzvalidierung durch bei dem der Datensatz in k Teilmengen aufgeteilt wird. Jede der Teilmengen wird schrittweise bei der Modellschätzung ausgelassen und auf Basis der gewonnenen Parameterschätzungen prognostiziert.

 

 

Ratingskalen
Ratingskalen sind Skalen mit mehreren Abstufungen, mit deren Hilfe ein Proband die Ausprägung eines Merkmals subjektiv einordnet. Dabei werden i. d. R. markierte Abschnitte eines Merkmalskontinuums vorgegeben.

 

 

Redundanzanalyse
Ist ein Verfahren zur Prüfung der Konvergenzvalidität formativ spezifizierter Messmodelle. Es prüft, ob das formativ gemessene Konstrukt hoch mit einer reflektiven Messung oder Single-Item-Messung desselben Konzepts korreliert ist.

 

 

Reflektive Messmodelle
Bei reflektiven Messmodellen stellen die hypothetischen Konstrukte die Ursache der auf der Beobachtungsebene zu erhebenden Messindikatoren dar. Entsprechend müssen die Messindikatoren beobachtbare „Folgen“ oder „Konsequenzen“ der Wirksamkeit eines Konstruktes auf der Beobachtungsebene widerspiegeln.

 

 

Reliabilität
Reliabilität bezeichnet das Ausmaß, mit dem wiederholte Messungen eines Sachverhaltes mit einem Messinstrument auch die gleichen Ergebnisse liefern. Vollkommen reliable (zuverlässige oder genaue) Messungen liegen vor, wenn keine Zufallsfehler auftreten, während systematische Fehler gegeben sein können.

 

 

Reliabilitätskoeffizient Rho A
Ist ein Maß der Internen-Konsistenz-Reliabilität das im Rahmen des PLS-Ansatzes verwendet wird.

 

 

Second-Order-Faktorenanalyse (SFA)
Die Second-Order-Faktorenanalyse unterstellt eine Faktorenstruktur zweiter Ordnung, bei der das latente Konstrukt zweiter Ordnung ursächlich für die Kovariation der latenten Konstrukte erster Ordnung ist (reflektives Modell). Die unterstellte Faktorenstruktur wird mit Hilfe der konfirmatorische Faktorenanalyse geprüft.

 

 

Scheinkorrelation und Drittvariableneffekt
Eine Scheinkorrelation liegt vor, wenn sich die bivariate Korrelation zwischen zwei Variablen x1 und x2 durch die Wirksamkeit einer dritten Variablen z verändert (sog. Drittvariableneffekt).

 

 

Skalare Invarianz der Indikatoren (starke Form faktorieller Invarianz)
Skalare Invarianz der Indikatoren liegt vor, wenn neben der Höhe der Faktorladungen (metrische Invarianz) zusätzlich auch die Konstanten (Measurement Intercepts) der Indikatoren der Messmodelle übereinstimmen. Liegen konfigurale, metrische und skalare Invarianz vor, so können nicht nur die Beziehungsstrukturen, sondern auch die (geschätzten) Mittelwerte der Konstrukte zwischen den Gruppen verglichen werden.

 

 

Skalierung
Skalierung bezeichnet allgemein die Konstruktion einer Messvorschrift mit deren Hilfe qualitative Eigenschaften (Dimensionen) von Sachverhalten quantitativ durch die Zuordnung von Zahlen erfasst werden können. Das Ergebnis eines Skalierungsverfahrens wird als Skala bezeichnet.

 

 

Spezifikation der Messmodelle
Die Spezifikation eines Messmodells betrifft die Entscheidung zwischen „formativen oder reflektiven“ Messmodellen. Ihr ist eine herausragende Bedeutung beizumessen, da sie wesentliche Konsequenzen für die Formulierung und Auswahl der Items sowie die anzuwendende Prüfmethodik besitzt.

 

 

Strukturgleichungsanalyse (SGA)
Die Strukturgleichungsanalyse umfasst statistische Verfahren zur Untersuchung komplexer Beziehungsstrukturen zwischen manifesten und/oder latenten Variablen und ermöglicht die quantitative Abschätzung der Wirkungszusammenhänge. Ziel der SGA ist es, die a-priori formulierten Wirkungszusammenhänge in einem linearen Gleichungssystem abzubilden und die Modellparameter so zu schätzen, dass die zu den Variablen erhobenen Ausgangsdaten möglichst gut reproduziert werden.

 

 

Strukturgleichungsmodelle (SGM)
Strukturgleichungsmodelle bilden a-priori formulierte und theoretisch und/oder sachlogisch begründete komplexe Zusammenhänge zwischen Variablen in einem linearen Gleichungssystem ab und dienen der Schätzung der Wirkungskoeffizienten zwischen den betrachteten Variablen sowie der Abschätzung von Messfehlern.

 

 

Strukturgleichungsmodellierung
Die Strukturgleichungsmodellierung umfasst den gesamten Prozess von der theoretischen und/oder sachlogischen Formulierung eines Strukturmodells und seiner Messmodelle bis hin zur Beurteilung der empirisch mittels Strukturgleichungsanalyse gewonnenen Ergebnisse.