Knowledge, Cognitive demand and contexts in the assessment of scientific literacy in PISA
Downloads
- PDF (Español (España)) 1918
- EPUB (Español (España)) 51
- VISOR (Español (España))
- MÓVIL (Español (España))
DOI
https://doi.org/10.25267/Rev_Eureka_ensen_divulg_cienc.2020.v17.i2.2302Info
Abstract
Scientific literacy responds to what is important to know, value and be able to do in situations involving science and technology and as an educational goal, requires rethinking science teaching and the corresponding assessment methods. This work presents the systematic analysis of 106 items from tests to assess scientific literacy run from 2000-2015 in PISA (Programme for International Student Assessment). In line with recommendations from the specialised research, results show that questions are mainly situated in real life contexts and scenarios that bring purpose and meaning to the knowledge to be used, demanding not only conceptual knowledge but also an understanding of epistemic aspects of science, though procedural knowledge is underrepresented. Nevertheless, the bi-dimensional analysis of the type of knowledge and the cognitive demand shows that over 80% of questions focus on the application of low order skills (remember and understanding). These results suggest the need to increase activities that require the evaluation and creation of knowledge to enhance high order cognitive skills and to better prepare individuals for a critical and active participation in a world shaped by science and technology.
Keywords
Downloads
License
Copyright (c) 2020 Los/as autores/as pueden mantener el copyright, concediendo a la revista el derecho de primera publicación. Alternativamente, las/os autoras/es puede transferir el copyright a la revista, la cual permitirá a las/os autoras/es el uso no-comercial del trabajo, incluyendo el derecho a colocarlo en un archivo de acceso libre. Además, se puede consultar Creative Commons sobre licencias de copyright flexibles.
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
Require authors to agree to Copyright Notice as part of the submission process. This allow the / o authors / is non-commercial use of the work, including the right to place it in an open access archive. In addition, Creative Commons is available on flexible copyright licenses (Creative Commons).
Reconocimiento-NoComercial
CC BY-NC
References
Amer, A. (2006). Reflections on Bloom’s revised taxonomy. Electronic Journal of Research in Educational Psychology, 8(4), 213-230.
Avargil, S., Herscovitz, O. y Dori, Y. J. (2012). Teaching thinking skills in context-based learning: Teachers’ challenges and assessment knowledge. Journal of Science Education and Technology, 21, 207-225.
Bennett, J., Lubben, F. y Hogarth, S. (2007). Bringing science to life: a synthesis of the research evidence on the effects of context‐based and STS approaches to science teaching. Science Education, 91(3), 347-370.
Cañal, P. (2004). La alfabetización científica: ¿necesidad o utopía? Cultura y Educación, 16(3), 245-257.
Cañal, P. (2012). ¿Cómo evaluar la competencia científica? Investigación en la Escuela, 78, 5-17.
Cañas, A. M. y Nieda, J. (2013) Una forma de trabajar la competencia científica en el aula. Revista Digital de Educación y Formación del Profesorado, 10, 35-47.
Crujeiras-Pérez, B. y Jiménez-Aleixandre, M. P. (2015). Análisis de la competencia científica de alumnado de secundaria: respuestas y justificaciones a ítems de PISA. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 12(3), 385-401.
Díaz, M. V. y Poblete, A. (2001). Contextualizando tipos de problemas matemáticos en el aula. Números, 45, 33-41.
Dori, Y. J., Avargil, S., Kohen, Z. y Saar, L. (2018). Context-based learning and metacognitive prompts for enhancing scientific text comprehension. International Journal of Science Education, 40(10), 1198-1220.
Gallardo-Gil, M., Fernández-Navas, M., Sepúlveda-Ruiz, M. P., Serván, M. J., Yus, R., y Barquín, J. (2010). PISA y la competencia científica: Un análisis de las pruebas de PISA en el Área de Ciencias. RELIEVE, 16(2), 1-17.
Gobierno de España. Ministerio de Educación, Cultura y Deporte (2017). El Bienestar de los Estudiantes. Resultados de PISA 2015. Recuperado de: https://sede.educacion.gob.es/publiventa/d/22091/19/00 [Consultado 24/07/2019]
Gutiérrez, A. (2006). PISA y la evaluación de la alfabetización científica. Investigación en la Escuela, 60, 65-77.
Instituto Nacional de Evaluación Educativa (2015). Preguntas liberadas de PISA como recursos didácticos de las Ciencias. Recuperado de: http://educalab.es/inee/evaluaciones-internacionales/preguntas-liberadas-pisa-piaac/preguntas-pisa-ciencias [Consultado 24/07/2019]
King D. (2016) Teaching and Learning in Context-Based Science Classes. En: Taconis R., Brok P.., Pilot A. (eds) Teachers Creating Context-Based Learning Environments in Science. Advances in Learning Environments Research. SensePublishers, Rotterdam.
Krathwohl, D. R. (2002). A revision of Bloom's taxonomy: an overview. Theory into practice, 41(4), 212-218.
Muñoz, J. y Charro, E. (2018). La interpretación de datos y pruebas científicas vistas desde los ítems liberados de PISA. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 15(2), 2101-2121.
OCDE (2003). The PISA 2003 Assessment Framework. Mathematics, Reading, Science and Problem Solving, Knowledge and Skills. París, Francia: OECD publishing.
OCDE (2009). El Programa PISA de la OCDE. Qué Es y Para Qué Sirve. París, Francia: Santillana.
OCDE (2016a). PISA 2015. Assessment and Analytical Framework: Science, Reading, Mathematic and Financial Literacy. Paris, France: OECD Publising. doi: 10.1787/9789264255425-en
OCDE (2016b). PISA 2015. Country Overview (Spain). Recuperado de: http://www.compareyourcountry.org/pisa/country/esp?lg=en [Consultado 24/07/2019]
OCDE (2016c). PISA 2015. Resultados Clave. París, Francia: OECD publising.
OCDE (2017), Marco de Evaluación y de Análisis de PISA para el Desarrollo: Lectura, matemáticas y ciencias, Versión preliminar, OECD Publishing, Paris.
OCDE (2019). PISA 2018. Assessment and Analytical Framework, Paris, France: OECD Publishing. doi: 10.1787/b25efab8-en
Pedrinaci, E. (2013). Alfabetización en ciencias de la Tierra y competencia científica. Enseñanza de las Ciencias de la Tierra, 21(2), 208-214.
Pérez-Martín, J. M. (2018). Un viaje en el tiempo por la alfabetización científica en España. Revista de Didácticas Específicas, 18, 144-166.
Romero-Ariza, M. (2017). El aprendizaje por indagación: ¿existen suficientes evidencias sobre sus beneficios en la enseñanza de las ciencias? Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 14(2), 286-299.
Romero-Ariza, M. y Quesada, A. (2015). Is the science taught useful to explain daily phenomena? A qualitative study with pre-service teachers. En: ICERI2015 Proceedings (pp. 2150-2156). Sevilla, España: IATED Academy.
Sanmartí, N. y Márquez, C. (2017). Aprendizaje de las ciencias basado en proyectos: del contexto a la acción. Ápice. Revista de Educación Científica, 1(1), 3-16.
Sevian, H., Dori, Y. J. y Parchmann, I. (2018). How does STEM context-based learning work: what we know and what we still do not know. International Journal of Science Education, 40(10), 1095-1107.
Ültay, N. y Çalık, M. (2012). A thematic review of studies into the effectiveness of context-based chemistry curricula. Journal of Science Education and Technology, 21, 686-701.
Vázquez-Alonso, A. y Manasserom M. A. (2018). El conocimiento epistémico en la evaluación de la competencia científica en PISA 2015. Revista de Educación, 380, 103-128.