Menü
KurzreviewForschendes Lernen

Lassen sich wissenschaftliche Kompetenzen im Unterricht fördern?

12. September 2018 | Forschendes Lernen, Lehrstrategien

(Aktualisiert am 4.2.2019) Eines der wichtigsten Ziele des MINT-Unterrichts ist es, wissenschaftliche Kompetenzen zu fördern und eine Grundlage dafür zu schaffen, dass SchülerInnen an der Wissensgesellschaft teilhaben, mündige Entscheidungen treffen und lebenslang lernen können. Welche wissenschaftlichen Kompetenzen im MINT-Unterricht gefördert werden können und was die Wirksamkeit von Unterricht beeinflusst, untersucht die Metaanalyse »Fostering scientific reasoning in education – meta-analytic evidence from intervention studies« von Engelmann, Neuhaus & Fischer (2016).

Metaanalyse im Überblick

Fokus der Studie
Förderung wissenschaftlicher Kompetenzen durch Interventionen zum wissenschaftlichen Forschen, Argumentieren und Verstehen

Durchschnittliche Effektstärke
Mittelgroßer Effekt der Interventionen (g = 0.71) auf wissenschaftliche Kompetenzen

Zielgruppe
SchülerInnen der Primar- und Sekundarstufe

Weitere Befunde
Interventionen wirken für SchülerInnen aller Altersstufen wirksam, besonders in Biologie (g = 1.19)

Download Kurzreview

Lassen sich wissenschaftliche Kompetenzen im Unterricht fördern?
(Aktualisiert am 4.02.2019)

Creative Commons LizenzvertragDas Kurzreview als pdf sowie als Text auf der Website ist lizenziert unter einer Creative Commons Namensnennung – Keine Bearbeitungen 4.0 International Lizenz.

Kurzreview online lesen

Einleitung

Die Fähigkeit, wissenschaftlich denken und handeln sowie wissenschaftliche Befunde einordnen zu können, ist nicht (mehr) nur für WissenschaftlerInnen von Bedeutung. Vielmehr ist es für eine aktive Teilhabe an der Wissensgesellschaft sowie die ständige Präsenz von wissenschaftlicher Evidenz in den Medien zentral, Wissenschaft von Täuschung oder scheinbaren Fakten unterscheiden zu können. Dazu ist es hilfreich, selbst zu einem gewissen Grad wie Wissenschaftler denken und argumentieren zu können.

Allerdings erweisen sich wissenschaftliche Kompetenzen als ein komplexes Phänomen, wenn es darum geht, sie theoretisch definieren und mögliche Interventionen empirisch untersuchen zu wollen. Während die Metaanalyse von Schwichow und Kollegen (2016) mit der Variablenkontrollstrategie eine ganz spezifische Form wissenschaftlichen Denkens untersucht, (siehe Kurzreview 16), fasst die vorliegende Metaanalyse wissenschaftliche Kompetenzen in einem allgemeineren Sinne: Sie klärt, wie wissenschaftliche Kompetenzen – verstanden als

  • Wissenschaftliches Forschen,
  • Wissenschaftliches Argumentieren und
  • Verstehen von Wissenschaft

im Unterricht gefördert werden können und wovon eine erfolgreiche Förderung abhängt.

Worum geht es in dieser Studie?

Die Metaanalyse untersucht, in welchem Ausmaß Interventionen wissenschaftliche Kompetenzen von SchülerInnen fördern und inwiefern bestimmte Einflussfaktoren, sogenannte Moderatoren, die Effektivität der Interventionen beeinflussen. Neben Alter und Unterrichtsfach untersuchen die AutorInnen, inwiefern sich die Effektivität der Interventionen im Hinblick auf Wissenschaftliches Forschen, Wissenschaftliches Argumentieren und Verstehen von Wissenschaft unterscheidet.

 

Diese Aspekte definieren sie wie folgt:

  1. Wissenschaftliches Forschen.
    Dazu gehört für die AutorInnen einerseits wissenschaftliches Denken, z.B. anhand der Variablenkontrollstrategie, und andererseits Forschendes Lernen, d.h. Forschungsfragen zu entwickeln, Probleme und Hypothesen zu formulieren, Untersuchungen zu planen und Daten zu erheben, auszuwerten und zu interpretieren.
  2. Wissenschaftliches Argumentieren.
    Darunter verstehen die AutorInnen die Fähigkeit, eine Argumentation auf wissenschaftlichen Befunden aufbauen zu können.
  3. Verstehen von Wissenschaft.
    Dazu zählt für die AutorInnen, Annahmen, Konzepte, Werte und Grenzen von Wissenschaft zu verstehen.

 

Zudem untersuchen die AutorInnen, wie sich verschiedene Arten von Lernaktivitäten auf den Erwerb wissenschaftlicher Kompetenzen auswirken. Die Lernaktivitäten klassifizieren sie dafür – basierend auf der ICAP-Hypothese von Chi (2009) und Chi & Wylie (2014) – als interaktiv (I), konstruktiv (C), aktiv (A) oder passiv (P)*. Daraus wollen sie Rückschlüsse ziehen, welche Art von Lernaktivitäten für die Förderung von wissenschaftlichen Kompetenzen besonders geeignet ist.

In die Metaanalyse gehen 30 Interventionen mit experimentellem oder quasi-experimentellem Untersuchungsdesign ein. Die Primärstudien wurden im Zeitraum von 1988-2016 in deutsch- oder englischsprachigen wissenschaftlichen Zeitschriften mit Begutachtungsverfahren veröffentlicht. Insgesamt nahmen an den Studien 3.711 SchülerInnen der Primar- und Sekundarstufe (83 %) in den Fächern Physik (50 %), Biologie (20 %), Chemie (13 %) und weiteren, nicht spezifizierten Fächern (17 %) teil.

* Genauere Informationen zur ICAP-Hypothese finden Sie im Ergebnisteil.

Was fand diese Studie heraus?

Wissenschaftliche Kompetenzen können durch Interventionen gefördert werden. Engelmann und KollegInnen errechnen einen mittelgroßen Effekt (g = 0.71). Die sogenannten Moderatoranalysen zeigen, dass sich Interventionen auf wissenschaftliches Forschen, wissenschaftliches Argumentieren und das Verstehen von Wissenschaft gleichermaßen positiv auswirken – ohne signifikante Unterschiede (vgl. Tabelle 1).

Tabelle 1. Effekte von Interventionen auf wissenschaftliche Kompetenzen.

WISSENSCHAFTLICHE KOMPETENZENEFFEKTSTÄRKE (g)ANZAHL STUDIEN
Wissenschaftliches Forschen0.7918
Wissenschaftlich Argumentieren0.588
Verstehen von Wissenschaft0.872

Weitere Moderatoranalysen ergeben in Bezug auf die Lernaktivitäten, dass keine der untersuchten Interventionen ausschließlich auf passive oder aktive Lernaktivitäten zurückgreift. 62 % der Interventionen bestehen überwiegend aus konstruktiven Lernaktivitäten, das heißt, SchülerInnen werden selbst kreativ; 38 % bauen in erster Linie auf interaktive Lernaktivitäten. Das bedeutet, SchülerInnen sind für die Lösung der Aufgaben auf die Zusammenarbeit mit anderen angewiesen. Die theoretische Annahme von Chi und Wylie (2014), nach der interaktive Lernaktivitäten effektiver sein müssten als konstruktive, bestätigt die Metaanalyse nicht. (vgl. Tabelle 2).

Tabelle 2. Effekte unterschiedlicher Lernaktiväten auf die Förderung von wissenschaftlichen Kompetenzen.

LERNAKTIVITÄTSTUFEEFFEKTSTÄRKE (g)ANZAHL INTERVENTIONEN
Interaktiv40.7418
Konstruktiv30.7011
Aktiv2-0
Passiv1-0

* Weitere Ergebnisse zu den stärker methodisch orientierten Befunden finden Sie in im Abschnitt »Wie bewertet das Clearing House Unterricht diese Studie«.

Wie bewertet das Clearing House Unterricht diese Studie?

Die Clearing House Unterricht Research Group bewertet die Metaanalyse anhand der folgenden fünf Fragen und orientiert sich dabei an den Abelson-Kriterien (1995):

Wie substanziell sind die Effekte?
Die durchschnittliche Effektstärke liegt nach der üblichen Einteilung nach Cohen (1988) im mittleren Bereich (g = 0.71). Die Größe des Effekts bedeutet, dass ca. 76 % der SchülerInnen, die an Interventionen teilgenommen haben, höhere wissenschaftliche Kompetenzen aufweisen als der Durchschnitt der Kontrollgruppe. Der Effekt fällt etwas größer aus als in den Metaanalysen zum wissenschaftlichen Denken (siehe Kurzreview 16) und Forschenden Lernen (siehe Kurzreview 1 und Kurzreview 5).

Einige für die Einordnung der Befunde wesentlichen Aspekte werden in der Metaanalyse allerdings nicht beleuchtet: Informationen zu Kontrollbedingungen, zur Dauer und Intensität der Interventionen und dazu, wie die Lerneffekte im Detail gemessen wurden, fehlen. Aus bisheriger Forschung (Cheung & Slavin, 2016; Slavin & Madden, 2011) ist jedoch bekannt, dass es eine bedeutende Rolle spielen kann, ob standardisierte oder nicht standardisierte Tests verwendet werden. Deshalb ist hier beispielsweise nicht auszuschließen, dass durch den Einsatz von nichtstandardisierten Messverfahren die Interventionsgruppe begünstigt wurde und Effekte damit tendenziell überschätzt sind.

 

Wie differenziert sind die Ergebnisse dargestellt?
Die Differenziertheit der berichteten Effekte wird anhand der Bereiche Schulfächer, Jahrgangsstufen und des Erfolgskriteriums eingeschätzt. Die AutorInnen schlüsseln ihre Ergebnisse nach Unterrichtsfächern und Altersstufen auf. Interventionen fördern in allen Unterrichtsfächern wirksam wissenschaftliche Kompetenzen – am Wirksamsten sind sie in Biologie (g = 1.19), gefolgt von Physik (g = 0.59) und Chemie (g = 0.54). Sonstige Fächer erreichen in einer Sammelkategorie eine Effektstärke von g = 0.65. Interventionen zur Förderung wissenschaftlicher Kompetenzen sind hilfreich für SchülerInnen aller Altersstufen (g = 0.63-0.80). Als Erfolgskriterium wurden die drei beschriebenen Aspekte wissenschaftlicher Kompetenzen untersucht. Als Erfolgskriterium wurden Lernerfolge beim wissenschaftlichen Forschen, wissenschaftlichen Argumentieren und Verstehen von Wissenschaft untersucht. Andere Variablen (z. B. Interesse, Motivation) wurden nicht systematisch erfasst.

 

Wie verallgemeinerbar sind die Befunde?
Die AutorInnen testen verschiedene Moderatorvariablen, um zu sehen, inwiefern sie den Gesamteffekt beeinflussen. Es zeigt sich, dass der Gesamteffekt größtenteils eine gute Orientierung bietet: Für unterschiedliche Altersgruppen, die verschiedenen wissenschaftlichen Kompetenzen und für unterschiedliche Lernaktivitäten konnten keine Unterschiede nachgewiesen werden. In Bezug auf das Fach unterscheiden sich die Stärke der Effekte allerdings bedeutsam und die spezifischen Befunde für die einzelnen Moderatorstufen (z.B. Biologie) sind aussagekräftiger als der Gesamteffekt. Darüber hinaus wurden keine weiteren potenziellen Einflussfaktoren getestet.

 

Was macht die Metaanalyse wissenschaftlich relevant?
Die Metaanalyse ist wissenschaftlich bedeutsam. Sie repliziert die Befunde der Metaanalysen von Schwichow und Kollegen (2016) und Ross (1988) und erweitert diese um Erkenntnisse zum wissenschaftlichen Forschen, wissenschaftlichen Argumentieren und Verstehen von Wissenschaft. Darüber hinaus gibt die Metaanalyse Hinweise darauf, dass interaktive Zusammenarbeit mit MitschülerInnen individuellem Lernen per se überlegen ist wie von Chi und Wylie (2014) angenommen. Vielmehr scheint es auf das Wie der Gestaltung der jeweiligen Lernaktivitäten anzukommen(vgl. dazu auch Kurzreview 15).

 

Wie methodisch verlässlich sind die Befunde?
Die Transparenz und Begründung des methodischen Vorgehens entspricht überwiegend den Kriterien gängiger Anforderungskataloge (z.B. APA Metaanalysis Reporting Standards). Insbesondere die Suche und die Analyse erfüllen alle Ansprüche. Weitere Informationen zur Beurteilung des methodischen Vorgehens finden Sie in unserem Rating Sheet.

Fazit für die Unterrichtspraxis

Die Metaanalyse zeigt, dass Lehrkräfte große Handlungsspielräume haben, um wissenschaftliche Kompetenzen von SchülerInnen aller Altersstufen im MINT-Unterricht zu stärken. Lehrpersonen können beim wissenschaftlichen Forschen, wissenschaftlichen Argumentieren und das Verstehen von Wissenschaft ansetzen und dabei sowohl konstruktive als auch interaktive Lernformen einsetzen.

Beim wissenschaftlichen Argumentieren ist es beispielsweise hilfreich, Komplexität dadurch zu reduzieren, dass Lehrpersonen ihren SchülerInnen eine Auswahl möglicher Aussagen und dazu passender Satzbausteine und -strukturen vorgeben (vgl. Studienbeispiel). Wie wissenschaftliches Forschen erfolgreich gefördert werden kann, zeigt das Kurzreview 16: »Wie fördert man wissenschaftliches Denken im Unterricht?«.

Dafür, dass diese Befunde auch für die deutschsprachige Unterrichtspraxis relevant sind, spricht, dass die Mehrzahl der Studien im Schulkontext durchgeführt wurden und auch deutsche Primärstudien in die Untersuchung eingeflossen sind.

Studienbeispiel

In ihrer experimentellen Studie im Klassenzimmer zeigen Chen und She (2012), dass sich die SchülerInnen durch die eingesetzte Online-Lernumgebung im wissenschaftlichen Argumentieren sowohl qualitativ als auch quantitativ deutlich verbesserten. 150 AchtklässlerInnen wurden für 25 Unterrichtsstunden in zwei verschiedene Gruppen (Experimental- vs. Kontrollgruppe) unterteilt, die beide an den gleichen regulären Lehrplanthemen – beispielsweise an der Reaktion von Magnesium mit Trockeneis – im Klassenzimmer und im Labor arbeiteten.

Die 74 SchülerInnen der Experimentalgruppe arbeiteten dabei jeweils in Gruppen von sechs SchülerInnen mit einer Online-Lernumgebung, die sie in zwei Schritten zum wissenschaftlichen Argumentieren anleitete: Im ersten Schritt wurden fünf unterschiedliche Arten von Aussagen eingeführt, zwischen denen die SchülerInnen dann für ihre eigene Argumentation wählen konnten: Beschreibung, Erklärung, theoretische Herleitung, Untermauerung und Gegenbeweis. Die zweite Ebene bot für jede der Aussagearten zwei bis drei Satzbausteine, die die SchülerInnen auswählen und mit ihren eigenen Inhalten füllen konnten, etwa: »Der Grund aus dem ich glaube, dass …, ist, dass …«.

Die SchülerInnen der Experimentalgruppe lernten deutlich besser wissenschaftlich zu argumentieren. Das zeigte sich in einem standardisierten Argumentationstest und in der höheren Qualität ihrer Argumente. Hochwertige Argumente brachten sie zudem häufiger ein als die SchülerInnen der Kontrollgruppe.

Referenzen und Links

Referenzen
Abelson, R. P. (1995). Statistics as principled argument. Hillsdale, NJ: Lawrence Erlbaum Associates.

Chen, C.-H., & She, H.-C. (2012). The Impact of Recurrent On-line Synchrononous Scientific Argumentation on Students’ Argumentation and Conceptual Change. Educational Technology & Society, 15(1), 197-210.

Cheung, A. C., & Slavin, R. E. (2013). The effectiveness of educational technology applications for enhancing mathematics achievement in K-12 classrooms: A meta-analysis. Educational Research Review, 9, 88-113.

Cheung, A. C., & Slavin, R. E. (2016). How methodological features affect effect sizes in education. Educational Researcher, 45(5), 283-292.

Chi, M.T.H. (2009). Active-constructive-interactive: A conceptual framework for differentiating learning activitities. Topics in Cognitive Science, 1(1), 73-105.

Chi, M.T.H., & Wylie, R. (2014). The ICAP framework: Linking cognitive engagement to active learning outcomes. Educational Psychologist, 49(4), 219-243.

Cohen, J. (1988). Statistical power analysis for the behavioral sciences (2. Auflage). Hillsdale, NJ: Erlbaum.

Engelmann, K., Neuhaus, B. J., & Fischer, F. (2016). Fostering scientific reasoning in education – meta-analytic evidence from intervention studies. Educational Research and Evaluation, 22(5-6), 333-349. doi: 10.1080/13803611.2016.1240089.

Furtak, E. M., Seidel, T., Iverson, H., & Briggs, D. C. (2012). Experimental and Quasi-Experimental Studies of Inquiry-Based Science Teaching. A Meta-Analysis. Review of Educational Research, 82(3), 300-329.

Schwichow, M., Croker, S., Zimmerman, C., Höffler, T., & Härtig, H. (2016). Teaching the control-of-variables strategy: A meta-analysis. Developmental Review, 39, 37-63. doi: 10.1016/j.dr.2015.12.001.

Slavin, R., & Madden, N. A. (2011). Measures inherent to treatments in program effectiveness reviews. Journal of Research on Educational Effectiveness, 4(4), 370-380.

Links
Zur Metaanalyse von Engelmann et al., 2016.

Zum Studienbeispiel von Chen & She, 2012.

Zitieren als
Wiesbeck, A. B., Hetmanek, A., & CHU Research Group (2018). Lassen sich wissenschaftliche Kompetenzen im Unterricht fördern? www.clearinghouse-unterricht.de, Kurzreview 20.

Zusätzliches Material

Rating Sheet zur Metaanalyse

Wie bewertet die Clearing House Unterricht Research Group das methodische Vorgehen der Metaanalyse? Laden Sie sich hier das Rating Sheet herunter.

Share This