> Haupteffekt des within-Faktors "Phase" gibt (im Sinne eines zeitbezogenen Trends in der Aktivitätsvalenz
Das verstehe ich nicht genau: Welche Messungen möchten Sie heir vergleichen?
> Wenn ich dann z.B. in der Gruppe 1 eine Abnahme in der Aktivitätsvalenz beobachte, weiss ich nicht, ob dies (1) auf einen zeitbezogenen Trend hinweist oder (2) auf einen Materialeffekt
Sie hatten geschrieben:
> Die Ratings finden immer nach 7 gelesenen Karten statt (also in jeder Phase nach der 7., 14. , und 21. Karte).
Wenn Sie Phase 7 und 14 vergleichen möchten, dann haben Sie bei Phase 7 den Effekt der Karten 1-7 und bei Phase 14 den Effekt der Karten 8-14 (plus Priming mit 1-7).
Wenn Sie also die Phasen vergleichen möchten, dann sprechen wir hier von einem within-subject-Faktor (den Sie so im obigen Design glaube ich nicht mitgezählt haben). Und dann würde ich Ihnen zustimmen, dass Sie die Abfolge der Karten randomisieren oder - viel besser noch - systematisch variieren müssten, um das sauber abzubilden und von der Phase zu trennen.
Aber nehmen wir nur mal für einen Moment an, Sie würden systematisch variieren. Und nehmen wir der Einfachheit halber mal an, Sie verwenden 3 feste Blöcke aus jeweils 7 Karten, welche die Position wechseln (macht 6 mögliche Abfolgen). Dann haben Sie kein 2x3-Design mehr, sondern ein 2x3x6-Design und die "6" ist between-subject. Heißt, die Anzahl der benötigten Teilnehmer für das komplette Design schnellt in die Höhe.
Wenn Sie jetzt argumentieren, dass Sie ja genau deshalb randomisieren möchten, dann entgege ich: Das ändert nichts am Einfluss des Faktors. Und wenn Sie den Einfluss nicht einmal kontrollieren möchten, dann fügen Sie der AV eine Menge unerklärter Varianz hinzu. Mit entsprechenden Auswirkungen auf die Zusammenhangsmaße.
Experimente sind ja auf ein hohes Maß an Kontrolle ausgelegt. Ich empfehle, für einen Vergleich zwischen den Phasen zumindest die "Kosten" zu betrachten: Wenn Sie 6-mal so viele Teilnehmer problemlos stemmen können, ist es natürlich schön, das mit aufzunehmen. Aber man ist halt sonst schnell verleitet zu denken, dass man die Probleme mit zufälligem Randomisieren mal eben unter den Teppich des Messrauschens schieben kann.
Kann man auch, aber die Qualität des Experiments leidet dadurch genaus stark also würde man den zusätzlichen Faktor mit einbeziehen, nicht aber die Anzahl der Teilnehmer erhöhen.
Ich habe das Ganze wahrlich nicht komplett durchgerechnet und Sie kennen das Design deutlich besser als ich. Lassen Sie sich von mir also nicht zu viel reinreden :) Aber ich habe das Gefühl, dass viele Kollegen zu schnell zur Rotation greifen, ohne den Verlust an experimenteller Kontrolle zu betrachten, den sie sich damit einhandeln.