Conocimiento, demanda cognitiva y contextos en la evaluación de la alfabetización científica en PISA

Descargas

Visitas a la página del resumen del artículo:  2858  

DOI

https://doi.org/10.25267/Rev_Eureka_ensen_divulg_cienc.2020.v17.i2.2302

Información

La educación científica hoy
2302
Publicado: 02-04-2020
PlumX

Autores/as

Resumen

La alfabetización científica responde a qué es importante saber, valorar y saber hacer en situaciones en las que intervienen la ciencia y la tecnología y como objetivo educativo, requiere un cuestionamiento de las formas de enseñar y evaluar el aprendizaje de las ciencias. Este trabajo presenta el análisis sistemático de 106 ítems de las pruebas realizadas entre los años 2000 y 2015 dentro del programa PISA (Programme for International Student Assessment). La finalidad es analizar el tipo de conocimiento evaluado y el papel que los contextos y la demanda cognitiva juegan en la evaluación de la alfabetización científica en dicho programa. Los resultados muestran que las actividades se ubican mayoritariamente en contextos cotidianos o utilitarios y requieren no solo el dominio de conceptos científicos, sino también la comprensión de aspectos epistémicos de la ciencia con una infrarrepresentación de aspectos procedimentales. El análisis bidimensional del tipo de conocimiento evaluado y la demanda cognitiva exigida muestra que más del 80% de las actividades se asocian con una demanda cognitiva baja (recordar y comprender). Los resultados sugieren la necesidad de reforzar el número de actividades que requieren la aplicación, evaluación y creación de conocimiento con objeto de enfatizar habilidades cognitivas de orden superior, especialmente relevantes en un mundo dominado por la ciencia y la tecnología.

Palabras clave: Alfabetización científica; Aprendizaje basado en contextos; Demanda cognitiva; Conocimiento científico; PISA.

Knowledge, Cognitive demand and contexts in the assessment of scientific literacy in PISA

Abstract: Scientific literacy responds to what is important to know, value and be able to do in situations involving science and technology and as an educational goal, requires rethinking science teaching and the corresponding assessment methods. This work presents the systematic analysis of 106 items from tests to assess scientific literacy run from 2000-2015 in PISA (Programme for International Student Assessment). In line with recommendations from the specialised research, results show that questions are mainly situated in real life contexts and scenarios that bring purpose and meaning to the knowledge to be used, demanding not only conceptual knowledge but also an understanding of epistemic aspects of science, though procedural knowledge is underrepresented. Nevertheless, the bi-dimensional analysis of the type of knowledge and the cognitive demand shows that over 80% of questions focus on the application of low order skills (remember and understanding). These results suggest the need to increase activities that require the evaluation and creation of knowledge to enhance high order cognitive skills and to better prepare individuals for a critical and active participation in a world shaped by science and technology.

Keywords: Scientific literacy; Context-based learning; Cognitive demand; Scientific knowledge; PISA.

Palabras clave


Descargas

Los datos de descargas todavía no están disponibles.

Biografía del autor/a

Marta Romero Ariza, Universidad de Jaén

Doctora en Química Orgánica, motivada por contribuir a la comprensión y aplicación de las ideas científicas para entender y explicar el mundo, ingresé en el Departamento de Didáctica de las Ciencias de la Universidad de Jaén en 2006. Desde entonces investigo sobre nuevas enfoques y recursos para mejorar y potenciar el aprendizaje de las ciencias, participando en varios proyectos internacionales. Actualmente estoy involucrada en el desarrollo y evaluación de materiales y propuestas educativas para promover una imagen adecuada sobre la ciencia, en la promoción del aprendizaje por investigación y la investigación en torno al potencial de las nuevas tecnologías para facilitar el aprendizaje de las ciencias.

Citas

Amer, A. (2006). Reflections on Bloom’s revised taxonomy. Electronic Journal of Research in Educational Psychology, 8(4), 213-230.

Avargil, S., Herscovitz, O. y Dori, Y. J. (2012). Teaching thinking skills in context-based learning: Teachers’ challenges and assessment knowledge. Journal of Science Education and Technology, 21, 207-225.

Bennett, J., Lubben, F. y Hogarth, S. (2007). Bringing science to life: a synthesis of the research evidence on the effects of context‐based and STS approaches to science teaching. Science Education, 91(3), 347-370.

Cañal, P. (2004). La alfabetización científica: ¿necesidad o utopía? Cultura y Educación, 16(3), 245-257.

Cañal, P. (2012). ¿Cómo evaluar la competencia científica? Investigación en la Escuela, 78, 5-17.

Cañas, A. M. y Nieda, J. (2013) Una forma de trabajar la competencia científica en el aula. Revista Digital de Educación y Formación del Profesorado, 10, 35-47.

Crujeiras-Pérez, B. y Jiménez-Aleixandre, M. P. (2015). Análisis de la competencia científica de alumnado de secundaria: respuestas y justificaciones a ítems de PISA. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 12(3), 385-401.

Díaz, M. V. y Poblete, A. (2001). Contextualizando tipos de problemas matemáticos en el aula. Números, 45, 33-41.

Dori, Y. J., Avargil, S., Kohen, Z. y Saar, L. (2018). Context-based learning and metacognitive prompts for enhancing scientific text comprehension. International Journal of Science Education, 40(10), 1198-1220.

Gallardo-Gil, M., Fernández-Navas, M., Sepúlveda-Ruiz, M. P., Serván, M. J., Yus, R., y Barquín, J. (2010). PISA y la competencia científica: Un análisis de las pruebas de PISA en el Área de Ciencias. RELIEVE, 16(2), 1-17.

Gobierno de España. Ministerio de Educación, Cultura y Deporte (2017). El Bienestar de los Estudiantes. Resultados de PISA 2015. Recuperado de: https://sede.educacion.gob.es/publiventa/d/22091/19/00 [Consultado 24/07/2019]

Gutiérrez, A. (2006). PISA y la evaluación de la alfabetización científica. Investigación en la Escuela, 60, 65-77.

Instituto Nacional de Evaluación Educativa (2015). Preguntas liberadas de PISA como recursos didácticos de las Ciencias. Recuperado de: http://educalab.es/inee/evaluaciones-internacionales/preguntas-liberadas-pisa-piaac/preguntas-pisa-ciencias [Consultado 24/07/2019]

King D. (2016) Teaching and Learning in Context-Based Science Classes. En: Taconis R., Brok P.., Pilot A. (eds) Teachers Creating Context-Based Learning Environments in Science. Advances in Learning Environments Research. SensePublishers, Rotterdam.

Krathwohl, D. R. (2002). A revision of Bloom's taxonomy: an overview. Theory into practice, 41(4), 212-218.

Muñoz, J. y Charro, E. (2018). La interpretación de datos y pruebas científicas vistas desde los ítems liberados de PISA. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 15(2), 2101-2121.

OCDE (2003). The PISA 2003 Assessment Framework. Mathematics, Reading, Science and Problem Solving, Knowledge and Skills. París, Francia: OECD publishing.

OCDE (2009). El Programa PISA de la OCDE. Qué Es y Para Qué Sirve. París, Francia: Santillana.

OCDE (2016a). PISA 2015. Assessment and Analytical Framework: Science, Reading, Mathematic and Financial Literacy. Paris, France: OECD Publising. doi: 10.1787/9789264255425-en

OCDE (2016b). PISA 2015. Country Overview (Spain). Recuperado de: http://www.compareyourcountry.org/pisa/country/esp?lg=en [Consultado 24/07/2019]

OCDE (2016c). PISA 2015. Resultados Clave. París, Francia: OECD publising.

OCDE (2017), Marco de Evaluación y de Análisis de PISA para el Desarrollo: Lectura, matemáticas y ciencias, Versión preliminar, OECD Publishing, Paris.

OCDE (2019). PISA 2018. Assessment and Analytical Framework, Paris, France: OECD Publishing. doi: 10.1787/b25efab8-en

Pedrinaci, E. (2013). Alfabetización en ciencias de la Tierra y competencia científica. Enseñanza de las Ciencias de la Tierra, 21(2), 208-214.

Pérez-Martín, J. M. (2018). Un viaje en el tiempo por la alfabetización científica en España. Revista de Didácticas Específicas, 18, 144-166.

Romero-Ariza, M. (2017). El aprendizaje por indagación: ¿existen suficientes evidencias sobre sus beneficios en la enseñanza de las ciencias? Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 14(2), 286-299.

Romero-Ariza, M. y Quesada, A. (2015). Is the science taught useful to explain daily phenomena? A qualitative study with pre-service teachers. En: ICERI2015 Proceedings (pp. 2150-2156). Sevilla, España: IATED Academy.

Sanmartí, N. y Márquez, C. (2017). Aprendizaje de las ciencias basado en proyectos: del contexto a la acción. Ápice. Revista de Educación Científica, 1(1), 3-16.

Sevian, H., Dori, Y. J. y Parchmann, I. (2018). How does STEM context-based learning work: what we know and what we still do not know. International Journal of Science Education, 40(10), 1095-1107.

Ültay, N. y Çalık, M. (2012). A thematic review of studies into the effectiveness of context-based chemistry curricula. Journal of Science Education and Technology, 21, 686-701.

Vázquez-Alonso, A. y Manasserom M. A. (2018). El conocimiento epistémico en la evaluación de la competencia científica en PISA 2015. Revista de Educación, 380, 103-128.