Knowledge, Cognitive demand and contexts in the assessment of scientific literacy in PISA

DOI

https://doi.org/10.25267/Rev_Eureka_ensen_divulg_cienc.2020.v17.i2.2302

Info

Science education today
2302
Published: 02-04-2020
PlumX

Authors

Abstract

Scientific literacy responds to what is important to know, value and be able to do in situations involving science and technology and as an educational goal, requires rethinking science teaching and the corresponding assessment methods. This work presents the systematic analysis of 106 items from tests to assess scientific literacy run from 2000-2015 in PISA (Programme for International Student Assessment). In line with recommendations from the specialised research, results show that questions are mainly situated in real life contexts and scenarios that bring purpose and meaning to the knowledge to be used, demanding not only conceptual knowledge but also an understanding of epistemic aspects of science, though procedural knowledge is underrepresented. Nevertheless, the bi-dimensional analysis of the type of knowledge and the cognitive demand shows that over 80% of questions focus on the application of low order skills (remember and understanding). These results suggest the need to increase activities that require the evaluation and creation of knowledge to enhance high order cognitive skills and to better prepare individuals for a critical and active participation in a world shaped by science and technology.

Keywords


Downloads

Download data is not yet available.

Author Biography

Marta Romero Ariza, Universidad de Jaén

Doctora en Química Orgánica, motivada por contribuir a la comprensión y aplicación de las ideas científicas para entender y explicar el mundo, ingresé en el Departamento de Didáctica de las Ciencias de la Universidad de Jaén en 2006. Desde entonces investigo sobre nuevas enfoques y recursos para mejorar y potenciar el aprendizaje de las ciencias, participando en varios proyectos internacionales. Actualmente estoy involucrada en el desarrollo y evaluación de materiales y propuestas educativas para promover una imagen adecuada sobre la ciencia, en la promoción del aprendizaje por investigación y la investigación en torno al potencial de las nuevas tecnologías para facilitar el aprendizaje de las ciencias.

References

Amer, A. (2006). Reflections on Bloom’s revised taxonomy. Electronic Journal of Research in Educational Psychology, 8(4), 213-230.

Avargil, S., Herscovitz, O. y Dori, Y. J. (2012). Teaching thinking skills in context-based learning: Teachers’ challenges and assessment knowledge. Journal of Science Education and Technology, 21, 207-225.

Bennett, J., Lubben, F. y Hogarth, S. (2007). Bringing science to life: a synthesis of the research evidence on the effects of context‐based and STS approaches to science teaching. Science Education, 91(3), 347-370.

Cañal, P. (2004). La alfabetización científica: ¿necesidad o utopía? Cultura y Educación, 16(3), 245-257.

Cañal, P. (2012). ¿Cómo evaluar la competencia científica? Investigación en la Escuela, 78, 5-17.

Cañas, A. M. y Nieda, J. (2013) Una forma de trabajar la competencia científica en el aula. Revista Digital de Educación y Formación del Profesorado, 10, 35-47.

Crujeiras-Pérez, B. y Jiménez-Aleixandre, M. P. (2015). Análisis de la competencia científica de alumnado de secundaria: respuestas y justificaciones a ítems de PISA. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 12(3), 385-401.

Díaz, M. V. y Poblete, A. (2001). Contextualizando tipos de problemas matemáticos en el aula. Números, 45, 33-41.

Dori, Y. J., Avargil, S., Kohen, Z. y Saar, L. (2018). Context-based learning and metacognitive prompts for enhancing scientific text comprehension. International Journal of Science Education, 40(10), 1198-1220.

Gallardo-Gil, M., Fernández-Navas, M., Sepúlveda-Ruiz, M. P., Serván, M. J., Yus, R., y Barquín, J. (2010). PISA y la competencia científica: Un análisis de las pruebas de PISA en el Área de Ciencias. RELIEVE, 16(2), 1-17.

Gobierno de España. Ministerio de Educación, Cultura y Deporte (2017). El Bienestar de los Estudiantes. Resultados de PISA 2015. Recuperado de: https://sede.educacion.gob.es/publiventa/d/22091/19/00 [Consultado 24/07/2019]

Gutiérrez, A. (2006). PISA y la evaluación de la alfabetización científica. Investigación en la Escuela, 60, 65-77.

Instituto Nacional de Evaluación Educativa (2015). Preguntas liberadas de PISA como recursos didácticos de las Ciencias. Recuperado de: http://educalab.es/inee/evaluaciones-internacionales/preguntas-liberadas-pisa-piaac/preguntas-pisa-ciencias [Consultado 24/07/2019]

King D. (2016) Teaching and Learning in Context-Based Science Classes. En: Taconis R., Brok P.., Pilot A. (eds) Teachers Creating Context-Based Learning Environments in Science. Advances in Learning Environments Research. SensePublishers, Rotterdam.

Krathwohl, D. R. (2002). A revision of Bloom's taxonomy: an overview. Theory into practice, 41(4), 212-218.

Muñoz, J. y Charro, E. (2018). La interpretación de datos y pruebas científicas vistas desde los ítems liberados de PISA. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 15(2), 2101-2121.

OCDE (2003). The PISA 2003 Assessment Framework. Mathematics, Reading, Science and Problem Solving, Knowledge and Skills. París, Francia: OECD publishing.

OCDE (2009). El Programa PISA de la OCDE. Qué Es y Para Qué Sirve. París, Francia: Santillana.

OCDE (2016a). PISA 2015. Assessment and Analytical Framework: Science, Reading, Mathematic and Financial Literacy. Paris, France: OECD Publising. doi: 10.1787/9789264255425-en

OCDE (2016b). PISA 2015. Country Overview (Spain). Recuperado de: http://www.compareyourcountry.org/pisa/country/esp?lg=en [Consultado 24/07/2019]

OCDE (2016c). PISA 2015. Resultados Clave. París, Francia: OECD publising.

OCDE (2017), Marco de Evaluación y de Análisis de PISA para el Desarrollo: Lectura, matemáticas y ciencias, Versión preliminar, OECD Publishing, Paris.

OCDE (2019). PISA 2018. Assessment and Analytical Framework, Paris, France: OECD Publishing. doi: 10.1787/b25efab8-en

Pedrinaci, E. (2013). Alfabetización en ciencias de la Tierra y competencia científica. Enseñanza de las Ciencias de la Tierra, 21(2), 208-214.

Pérez-Martín, J. M. (2018). Un viaje en el tiempo por la alfabetización científica en España. Revista de Didácticas Específicas, 18, 144-166.

Romero-Ariza, M. (2017). El aprendizaje por indagación: ¿existen suficientes evidencias sobre sus beneficios en la enseñanza de las ciencias? Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 14(2), 286-299.

Romero-Ariza, M. y Quesada, A. (2015). Is the science taught useful to explain daily phenomena? A qualitative study with pre-service teachers. En: ICERI2015 Proceedings (pp. 2150-2156). Sevilla, España: IATED Academy.

Sanmartí, N. y Márquez, C. (2017). Aprendizaje de las ciencias basado en proyectos: del contexto a la acción. Ápice. Revista de Educación Científica, 1(1), 3-16.

Sevian, H., Dori, Y. J. y Parchmann, I. (2018). How does STEM context-based learning work: what we know and what we still do not know. International Journal of Science Education, 40(10), 1095-1107.

Ültay, N. y Çalık, M. (2012). A thematic review of studies into the effectiveness of context-based chemistry curricula. Journal of Science Education and Technology, 21, 686-701.

Vázquez-Alonso, A. y Manasserom M. A. (2018). El conocimiento epistémico en la evaluación de la competencia científica en PISA 2015. Revista de Educación, 380, 103-128.