Home

Menu

Loading wiki pages...

View
Wiki Version:
<p>Das Ziel des Projekts ist die Konsolidierung und Weiterentwicklung psychologischer Erkenntnisse, wobei die Replizierbarkeit publizierter Effekte sowie u.u. potenzielle Moderatoren, die das Auftreten und die Stärke dieser Effekte beeinflussen, untersucht werden sollen. <br><br> In einem kürzlich publizierten Projekt wurde die Replizierbarkeit von Befunden aus 100 zufällig ausgewählten Studien empirisch überprüft (Open Science Collaboration, 2015). Trotz einer methodisch fundierten Vorgehensweise (u.a. Verwendung ausreichend großer Stichproben) konnten lediglich 36% der Effekte statistisch signifikant repliziert werden. Auch war die Größe der beobachteten Effekte deutlich kleiner als in den Original-Studien. Diese Befunde sind alarmierend und werfen verschiedene Fragen auf: Können wir den in Zeitschriften und Lehrbüchern dargestellten Befunden überhaupt noch trauen? Auf welche Befunde können wir uns verlassen, wenn wir Verhalten im Labor oder in der realen Welt vorhersagen wollen? Was sind die Ursachen für diese niedrige Reproduzierbarkeit? Und wie kann man die Methodik der Psychologie verbessern, um dieser Problematik entgegenzuwirken? <br> Diese Fragen werden aktuell kontrovers diskutiert. Im Rahmen des „Hagen Cumulative Science Project I“ soll eine Untersuchung realisiert werden, welche dazu beiträgt einige dieser Fragen zu beantworten. Speziell sollen in erweiterten Replikationen systematisch ausgewählte Befunde kritisch reflektiert und deren Replizierbarkeit sowie die Grenzen der Gültigkeit empirisch geprüft werden.<br><br> Durch die Abschlussarbeiten wird je eine kritische Prüfung und möglichst exakte Replikation einer vorgegebenen, aktuellen Studie des Journals "Judgment and Decision Making" durchgeführt. Ergänzend zu einer reinen Replikation sollen die Masterarbeits-Kandidaten außerdem potentielle Moderatoren, die den Befund verstärken oder abschwächen könnten (z.B. Situationsvariablen wie Zeitdruck, Bearbeitungsdauer, Wetter oder Personenvariablen wie Geschlecht), identifizieren und empirisch testen. Es handelt sich bei dem „Hagen Cumulative Science Project I“ um ein kollaboratives Projekt, in dem verschiedene Teilarbeiten zusammengeführt werden und dessen Ergebnisse in Bezug auf Replizierbarkeit (im besten Fall) publiziert werden sollen. Die erfolgreiche Durchführung einer für das Gesamtprojekt verwendbaren Replikation führt zur Aufnahme in die Autorenliste des Artikels. In der Abschlussarbeit sollen die Studenten nachweisen, dass sie in der Lage sind, eine wissenschaftliche Arbeit selbstständig durchzuführen und zu dokumentieren. Zur Unterstützung und Qualitätssicherung werden die Arbeiten in diesem Projekt durch die Mitarbeiter des Lehrgebiets Allgemeine Psychlogie: Urteilen, Entscheiden, Handeln des psychologischen Instituts der FernUniversität in Hagen begleitet. In drei Konsultationen erhalten sie die Möglichkeit, auftretende Fragen zu klären. Des Weiteren erhalten sie eine Rückmeldung zu Ihrer Arbeit und die Möglichkeit, Dinge ggf. zu verbessern. Außerdem werden die Studierenden bei der Realisierung der (Online-) Datenerhebung organisatorisch unterstützt (soweit dies möglich ist).<br><br> <strong>Betreuung</strong><br> Eine Masterarbeit wird durch eine/n direkte/n Betreuer/-in begleitet. Darüber hinaus werden Anfragen ggf. bei Bedarf von dem jeweiligen Betreuer weitergeleitet an eine der folgenden Mitwirkenden im Projekt: <br>Ramona Allstadt Torras, <a href="http://M.Sc" rel="nofollow">M.Sc</a>. (organisatorische Betreuung bei Erhebungen) <br>Dr. Marc Jekel (statistische Betreuung und Beratung) <br>Prof. Dr. Andreas Glöckner (Gesamtkoordination des Projekts) <br><br>Die Durchführung einer Replikationsstudie beinhaltet folgende Arbeitsschritte:<br> 1) Bekanntmachen mit vorangegangenen Replikationsprojekten, Determinanten von Replizierbarkeit und Vorgehensweise. <br>a. Lesen von Open Science Collaboration (2015) inkl. Online Supplement <br>b. Sichtung einiger Replikationsberichte auf Open Science Framework (<a href="https://osf.io/ezcuj/wiki/home/" rel="nofollow">https://osf.io/ezcuj/wiki/home/</a> ). 2) Original Artikel lesen und kritisch analysieren <br>a. zentrale Theorien, Hypothesen, Methoden und Ergebnisse verstehen. <br>b. Reflexion über Replizierbarkeit der dargestellten Befunde (Bezug zu Determinanten der Replizierbarkeit: Größe der Stichproben, Replikation im Papier, Größe der Effekte). <br>c. Befund zur Replikation auswählen: zentraler (signifikanter) Befund in der letzten berichteten Studie des Artikels (begründete Ausnahmen sind ggf. nach Abstimmung möglich). <br>d. Originaldaten der Studie reanalysieren: Rechnungen im Ergebnisteil des Originalartikels replizieren. (Daten publiziert unter: <a href="http://journal.sjdm.org/vol10.5.html" rel="nofollow">http://journal.sjdm.org/vol10.5.html</a>) <br>e. Erste Konsultation mit Betreuer zur generellen Projektplanung 3) Master: Moderatoren <br>a. Können aus theoretischen Überlegungen oder auch auf Basis der Re-Analyse der Daten Faktoren identifiziert werden, von denen plausibel angenommen werden kann, dass diese das Auftreten oder zumindest die Größe des Effekts substantiell beeinflussen? <br>b. Wie können diese getestet werden? (Fokus auf einfach messbare Variablen empfehlenswert: Persönlichkeit, Reaktionszeit, ggf. Kontrollgruppen etc.) 4) Vorbereitung der Studie <br>a. Master: Autoren kontaktieren und informieren über das Projekt <br>b. Original-Materialen der Studie von den Autoren der Studie beschaffen und ggf. übersetzen / lassen. (Daten ggf. ebenfalls publiziert unter: <a href="http://journal.sjdm.org/vol10.5.html" rel="nofollow">http://journal.sjdm.org/vol10.5.html</a>) <br>c. Ggf. Fragen zur Erhebung der Moderatoren / Kontrollgruppen ergänzen. <br>d. Abschätzung der Stichprobengröße auf Basis einer Power-Analyse (z.B. mit der freien Software G*Power) 5) Erhebungsplan erstellen & Registrieren <br>a. Erhebungsplan und Hypothesen kurz beschreiben (in Englisch)<br> b. Zweite Konsultation und Abnahme Erhebungsplan durch Betreuer (ggf. Revision) <br>c. Replikation auf der Plattform “Open Science Framework” registrieren und dokumentieren. (<a href="https://osf.io/4znzp/wiki/home/" rel="nofollow">https://osf.io/4znzp/wiki/home/</a> )<br> d. Ggf. Autoren befragen bezüglich selbsteingeschätzter Replizierbarkeit. 6) Studie implementieren und durchführen <br>a. Implementierung der Studie als Fragebogen oder Online-Fragebogen <br>b. Dritte Konsultation und Abnahme Studie durch Betreuer (ggf. Revision) <br>c. Durchführung (Nutzung der Ressourcen der Abteilung möglich) 7) Analysieren und Interpretieren <br>a. Ergebnisse analysieren und interpretieren (Effekt repliziert oder nicht?; Master: Effekt des Moderators gefunden oder nicht) <br>b. Kurzbericht schreiben und mit Daten auf die Plattform “Open Science Framework” hochladen (Englisch). 8) Arbeit verfassen <br>a. Knappe, prägnante Darstellung. Zielwert: 40 DIN A 4 Seiten (Maximum: 80 Seiten) <br>b. Englische Teile können verwendet werden. <br><br>Literatur: Open Science Collaboration. (2015). Estimating the reproducibility of psychological science. Science, 349(6251), aac4716.</p>
OSF does not support the use of Internet Explorer. For optimal performance, please switch to another browser.
Accept
This website relies on cookies to help provide a better user experience. By clicking Accept or continuing to use the site, you agree. For more information, see our Privacy Policy and information on cookie use.
Accept
×

Start managing your projects on the OSF today.

Free and easy to use, the Open Science Framework supports the entire research lifecycle: planning, execution, reporting, archiving, and discovery.