Liebes SoSci Survey-Support-Team,
meine Befragung ist abgeschlossen und nun habe ich für meine Likert-Skalen Cronbachs Alpha mit RStudio berechnet. Die Likert-Skalen mit deren Items sind größtenteils von bereits bestehenden Fragebögen übernommen, aber wurden auf meinen Untersuchungsgegenstand angepasst, d.h. Wörter und Phrasen habe ich abgeändert.
Bei den Cronbachs Alpha Werten sind mir leider ein paar Dinge sehr unklar.
- Aufgrund einer Filterfrage wurden die Befragten auf verschiedene Seiten geschickt, jedoch haben sie die gleichen Items bewerten müssen.
(Zum Hintergrund: Teilnehmende, die die Sprache A oder B lernen mussten Seite 5 & 6 ausfüllen und Teilnehmende, die Sprache A und B lernen haben Seite 7 & 8 angezeigt bekommen. Bei Seiten 5 & 6 haben die Teilnehmenden die Items für eine Sprache bewertet und bei Seite 7 & 8 für beide Sprachen – dabei wurden die Items auch einmal präsentiert, nur die Teilnehmenden mussten zwei Skalen bewerten, eine Skala für Sprache A und eine für Sprache B).
Ich hatte angenommen, dass die Werte, die bei der Berechnung von Cronbachs Alpha herauskommen, für die jeweiligen Skalen gleich sein müssen, was sie aber leider nicht sind. Beispielsweise weist Skala 1 für Teilnehmende die Sprache A oder B lernen den Wert 0.43 auf und Teilnehmende die Sprache A und B lernen 0.78 und 0.77.
Wie soll ich mit diesen Werten umgehen?
- Abgesehen von den unterschiedlichen Werten derselben Skalen/Items, habe ich zudem des öfteren sehr schlechte Werte (unter 0.6 bis 0.12) erhalten. Ich könnte mir vorstellen, dass das an den wenigen Items innerhalb der Skalen liegt, da ich aufgrund der Länge des Fragebogens nur 3 bis 5 Items verwendet habe. Das Löschen mancher Items macht den Wert nur bei einigen Skalen besser, bei anderen bleibt der Wert gleich schlecht.
Wie kann ich mit diesen schlechten Werten verfahren?
Vielen lieben Dank für Ihre Hilfe und beste Grüße!