Secciones
Referencias
Resumen
Servicios
Descargas
HTML
ePub
PDF
Buscar
Fuente


Conocimiento, demanda cognitiva y contextos en la evaluación de la alfabetización científica en PISA
Knowledge, Cognitive demand and contexts in the assessment of scientific literacy in PISA
Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, vol. 17, núm. 2, pp. 230201-230222, 2020
Universidad de Cádiz

La educación científica hoy



Recepción: 01 Septiembre 2019

Revisado: 01 Diciembre 2019

Aprobación: 16 Marzo 2020

DOI: https://doi.org/10.25267/Rev_Eureka_ensen_divulg_cienc.2020.v17.i2.2302

Resumen: La alfabetización científica responde a qué es importante saber, valorar y saber hacer en situaciones en las que intervienen la ciencia y la tecnología y como objetivo educativo, requiere un cuestionamiento de las formas de enseñar y evaluar el aprendizaje de las ciencias. Este trabajo presenta el análisis sistemático de 106 ítems de las pruebas realizadas entre los años 2000 y 2015 dentro del programa PISA (Programme for International Student Assessment). La finalidad es analizar el tipo de conocimiento evaluado y el papel que los contextos y la demanda cognitiva juegan en la evaluación de la alfabetización científica en dicho programa. Los resultados muestran que las actividades se ubican mayoritariamente en contextos cotidianos o utilitarios y requieren no solo el dominio de conceptos científicos, sino también la comprensión de aspectos epistémicos de la ciencia con una infrarrepresentación de aspectos procedimentales. El análisis bidimensional del tipo de conocimiento evaluado y la demanda cognitiva exigida muestra que más del 80% de las actividades se asocian con una demanda cognitiva baja (recordar y comprender). Los resultados sugieren la necesidad de reforzar el número de actividades que requieren la aplicación, evaluación y creación de conocimiento con objeto de enfatizar habilidades cognitivas de orden superior, especialmente relevantes en un mundo dominado por la ciencia y la tecnología.

Palabras clave: Alfabetización científica, Aprendizaje basado en contextos, Demanda cognitiva, Conocimiento científico, PISA.

Abstract: Scientific literacy responds to what is important to know, value and be able to do in situations involving science and technology and as an educational goal, requires rethinking science teaching and the corresponding assessment methods. This work presents the systematic analysis of 106 items from tests to assess scientific literacy run from 2000-2015 in PISA (Programme for International Student Assessment). In line with recommendations from the specialised research, results show that questions are mainly situated in real life contexts and scenarios that bring purpose and meaning to the knowledge to be used, demanding not only conceptual knowledge but also an understanding of epistemic aspects of science, though procedural knowledge is underrepresented. Nevertheless, the bi-dimensional analysis of the type of knowledge and the cognitive demand shows that over 80% of questions focus on the application of low order skills (remember and understanding). These results suggest the need to increase activities that require the evaluation and creation of knowledge to enhance high order cognitive skills and to better prepare individuals for a critical and active participation in a world shaped by science and technology.

Keywords: Scientific literacy, Context-based learning, Cognitive demand, Scientific knowledge, PISA.

Afabetización científica, competencia científica y aprendizaje basado en contextos

La alfabetización no es un proceso que se produzca de manera espontánea y, por lo tanto, tampoco lo hace la alfabetización científica (AC). La AC necesariamente va a influir en la cultura básica del ciudadano y es por eso, que el analfabetismo científico debería preocupar tanto como el lingüístico (Cañal, 2004).

El concepto de alfabetización científica responde a la pregunta de qué necesita un individuo saber, valorar y saber hacer para desenvolverse adecuadamente en situaciones en las que están presentes la ciencia y la tecnología (Romero-Ariza, 2017) y dota de relevancia al aprendizaje minimizando el rechazo hacia una ciencia abstracta y alejada de la realidad del alumnado (Pérez-Martín, 2018).

Por otro lado, la competencia científica (CC) implica formar estudiantes que pasen del “saber”, al “saber hacer” y que sean capaces de aplicar los conocimientos adquiridos a los problemas reales (Cañas y Nieda, 2013). Para ello, los conocimientos teóricos, prácticos y actitudinales, tienen que dominarse y evaluarse de manera integrada para comprobar si los estudiantes están adquiriendo las competencias necesarias (Cañal, 2012). Como bien menciona Cañal (2012) en su trabajo ¿Cómo evaluar la competencia científica?, cabe destacar que la CC no es algo absoluto y su adquisición debería ser continua y progresiva. Para desarrollar la CC, es necesario que los docentes lleven a cabo estrategias de enseñanza, que desarrollen la competencia, y estrategias de evaluación, adecuadas para detectar el progreso.

Aunque algunos marcos conceptuales consideran la competencia científica como un elemento de la AC (OECD, 2018), muchos autores utilizan AC y competencia científica como términos sinónimos e intercambiables, puesto que ambos requieren que los estudiantes posean un conocimiento funcional que sepan aplicar a problemas que surjan en diferentes ámbitos de su vida. Una persona científicamente alfabetizada es una persona científicamente competente (Pedrinaci, 2013).

El desarrollo de la competencia científica requiere la capacidad del sujeto de transferir y utilizar el conocimiento en diversas situaciones; es por ello que la utilización de diferentes contextos cobra especial relevancia en el desarrollo y evaluación de la alfabetización científica y el Aprendizaje Basado en Contextos (ABC) se considera una metodología idónea para fomentar la competencia científica (Avargil et al., 2012; Sanmartí y Márquez, 2017).

Los contextos son necesarios para estimular a los estudiantes y ayudarlos a entender situaciones o fenómenos que ocurren o han ocurrido en el mundo. Crean una conexión entre lo que se aprende en la escuela y lo que ocurre fuera de ella, de esta forma el aprendizaje capacitará para actuar y motivará para seguir aprendiendo (Sanmartí y Márquez, 2017). Otro punto importante que se consigue con el ABC es dar respuesta a la pregunta: “¿Por qué estoy aprendiendo esto?” (Sevian, Dori y Parchmann, 2018). Utilizar los contextos como punto de partida, además de invertir el orden de una clase tradicional (primero teoría y después ejemplos), hace que los estudiantes estén situados a la hora de aprender conceptos científicos, que sepan para qué sirve lo que están aprendiendo (Bennett, Lubben y Hogarth, 2007).

En el ABC el profesorado debe escoger contextos adecuados para “enganchar” a sus estudiantes y dotar de sentido al aprendizaje mejorando su actitud hacia las clases de ciencias (Avargil, Herscovitz y Dori, 2012; Romero-Ariza y Quesada, 2015). Entendemos por contextos situaciones relacionadas con la vida de los estudiantes en las que las aplicaciones de la ciencia proporcionen puntos de partida para desarrollar ideas científicas (Dori, Avargil, Kohen, y Saar, 2018), generando la necesidad de saber y, por tanto, facilitando el aprendizaje significativo (Ültay y Çalik, 2012). También es importante no limitar el aprendizaje a un solo contexto para que el conocimiento no se asocie solo a esa experiencia (Sanmartí y Márquez, 2017). El aprendizaje basado en contextos, relacionado con problemas del mundo real, fomenta la alfabetización científica (Avargil et al., 2012). El ABC hace que los estudiantes se impliquen en un tipo de aprendizaje que activa sus habilidades cognitivas y de pensamiento, los motiva a aprender y desarrolla su alfabetización científica (Dori et al., 2018).

Es importante destacar, que la aparición y utilización de estas nuevas formas de enseñanza-aprendizaje tienen que ir asociadas a nuevas formas de evaluación, de poco sirven las innovaciones si al final se sigue determinando el grado de retención de conocimientos conceptuales (Gutiérrez, 2006).

Este trabajo pretende analizar el tipo de contextos utilizados para la evaluación de la alfabetización científica en el programa PISA.

El programa PISA

PISA son las siglas (en inglés) del nombre del programa: Programme for International Student Assessment (OCDE, 2009). Se trata de un estudio trienal que evalúa si alumnos que están a punto de finalizar la educación obligatoria han conseguido adquirir los conocimientos y habilidades que se requieren para poder participar plenamente en las sociedades modernas (OCDE, 2016c).

La evaluación de este programa está centrada en las materias escolares básicas: ciencia, lectura y matemáticas. En la evaluación se quiere ver si los estudiantes aplican lo que han aprendido. Es decir, estas pruebas son un símil de lo que requieren las empresas y el mundo laboral hoy en día: no personas con conocimientos, sino personas que dominan y aplican esos conocimientos (OCDE, 2016c).

Los resultados de las pruebas PISA 2015 son los últimos que se tienen hasta la fecha. Ese año la evaluación se centró en las ciencias y fue la primera vez que la resolución de los cuestionarios se hizo mediante ordenador (Ministerio de Educación, Cultura y Deporte, 2017). La página web de PISA proporciona gran cantidad de información y permite visualizar cómo ha sido la trayectoria de los países participantes en el proyecto, por ejemplo, España se encuentra justo en la media de la OCDE y Andalucía está por debajo de la de los países participantes y por tanto, de la española (OCDE, 2016b).

Alfabetización y competencia científica en PISA

Muchos autores consideran equivalentes la alfabetización y competencia científica (Pedrinaci, 2013), pero en PISA, la definición de AC tiene un matiz algo diferente. Este programa define alfabetización científica como: “la capacidad de comprometerse con temas relacionados con la ciencia y con las ideas de la ciencia, como un ciudadano reflexivo” y se subdivide en varios componentes, pero el que influye directamente sobre ella es la CC. Los demás componentes considerados por el marco conceptual de PISA serían los contextos, el conocimiento y las actitudes hacia la ciencia. El análisis de las actitudes hacia la ciencia se articula mediante una serie de preguntas específicas cuya respuesta no tiene consecuencia alguna sobre la evaluación de la alfabetización científica y la puntuación final del alumnado (OECD, 2017) y aunque se trata sin duda de un aspecto de interés que está siendo abordado por otros trabajos, queda fuera del enfoque de este estudio.


Figura 1
Elementos que forman la alfabetización científica en PISA

La alfabetización científica va a estar basada en la competencia científica (dividida en tres subcompetencias) sobre la que, a su vez, van a influir el conocimiento científico, los contextos y las actitudes hacia la ciencia (ilustrado por la figura 1 elaborada a partir de Gutiérrez (2006)). Por eso PISA 2015 evalúa el desempeño de los estudiantes en ciencias a través de preguntas relacionadas con contextos, conocimiento, competencias y actitudes (OCDE, 2016a).

Para PISA, al evaluar la competencia científica, se está valorando si un estudiante es capaz de jugar con los valores y la información que posee y comprende la naturaleza del conocimiento científico (OCDE, 2009). Se está evaluando la aplicación del conocimiento en lugar de la memorización de conceptos teóricos (Gallardo-Gil et al., 2010). Si una persona es competente científicamente sabrá aplicar ese conocimiento a contextos personales, globales y locales. Por otro lado, también será capaz de ver la importancia que tienen la ciencia, la tecnología y la investigación en la sociedad actual (Sanmartí y Márquez, 2017).

En PISA la competencia científica se subdivide en subcompetencias científicas que se han ido modificando y concretando con el paso del tiempo (Muñoz y Charro, 2018). Esos cambios quedan recogidos en la Tabla 1 que completa la elaborada por Muñoz y Charro (2018). En el proyecto de 2006 fue cuando se definió alfabetización científica por el programa y se incluyeron tres subcompetencias científicas interconectadas: identificar cuestiones científicas, explicar fenómenos científicamente y utilizar pruebas científicas (Crujeiras-Pérez y Jiménez-Aleixandre, 2015). Hasta entonces se había estado hablando de procesos científicos en lugar de competencias y en el marco de referencia del programa en el año 2003 se puede encontrar su definición (OCDE, 2003).

Tabla 1
Reagrupación y evolución de los procesos y competencias en PISA 2000 a 2015.

En el marco de referencia de PISA 2015 publicado por la OCDE (2016a), se definen las subcompetencias utilizadas ese año y fueron: explicar fenómenos científicamente, evaluar y diseñar experimentos y preguntas científicas e interpretar datos y pruebas científicamente. En el marco de referencia de PISA 2018 se siguen manteniendo las mismas que en 2015 (OCDE, 2019).

Alfabetización científica, aprendizaje basado en contextos y PISA

Una de las características del proyecto PISA es que las preguntas relacionadas con las ciencias se refieren frecuentemente a la vida real de los estudiantes (Cañal, 2004).

Para ver si los alumnos son capaces de aplicar los conocimientos adquiridos a situaciones reales, no se pueden utilizar métodos tradicionales basados en la evaluación de conocimiento teórico (Cañal, 2004). En este sentido PISA pretende evaluar no sólo conocimiento, sino también las habilidades de pensamiento, las competencias y las actitudes necesarias para saber actuar ante situaciones de la vida (OCDE, 2009).

Además de analizar la utilización de contextos en la evaluación de la alfabetización científica por parte del programa PISA, este trabajo también pretende estudiar el tipo de conocimiento evaluado y la demanda cognitiva asociada. Para analizar el tipo de conocimiento se va a recurrir a las categorías definidas en el marco conceptual de PISA (OCDE, 2015, 2019), mientras que el análisis de la demanda cognitiva se abordará teniendo en cuenta la taxonomía de Bloom.

La taxonomía de Bloom

La Taxonomía de Bloom fue publicada por Benjamin S. Bloom y asociados en el año 1956. A esta taxonomía se la denominó: La Taxonomía Original (TO). Crear esta clasificación facilitaría el intercambio de elementos de prueba entre los docentes de distintas universidades (Krathwohl, 2002).

La TO incluía seis categorías principales en el dominio cognitivo: Conocimiento, Comprensión, Aplicación, Análisis, Síntesis y Evaluación (Amer, 2006). Estas categorías estaban ordenadas de simple a complejas y desde lo concreto a lo abstracto. Además, se asumía que el dominio de cada categoría más simple era imprescindible para el dominio de la siguiente categoría más compleja (Krathwohl, 2002).

Anderson et al., en 2002 publicaron una revisión de la TO que se adaptaba mejor a los nuevos cambios en la enseñanza: La Taxonomía Revisada (TR). En la TR el número de categorías se mantuvo, pero hubo variaciones importantes (Krathwohl, 2002). Por otro lado, como bien explica Amer (2006) en su trabajo: Reflections on Bloom’s Revised Taxonomy, la TR aporta algo más que no lo hacía la TO: diferencia entre la Dimensión del Conocimiento (sustantivos) y la Dimensión del Proceso Cognitivo (verbos). La TO no hacía diferencia entre las dos partes, por ejemplo, la categoría Conocimiento implicaba tanto los aspectos relacionados con el contenido como aquellos relacionados con lo que iba a ocurrir con o a ese contenido. La TR sí que hace diferencia entre los dos componentes y por eso se habla de que la taxonomía de Bloom pasa a tener dos dimensiones: la Dimensión del Conocimiento y la Dimensión del Proceso Cognitivo.

La TR vuelve a estar organizada en una estructura jerárquica, pero no tan rígida como la de la TO. En combinación, las dimensiones de conocimiento y el proceso cognitivo forman una tabla muy útil para clasificar objetivos, actividades y evaluaciones. Proporciona una presentación visual, concisa y clara que facilita mucho la labor de los docentes, se corresponde con la tabla 2 (Krathwohl, 2002).

Tabla 2
Tabla de la taxonomía bidimensional.

La demanda cognitiva en PISA

En PISA 2015 se establecieron niveles de demanda cognitiva dentro de la evaluación de la alfabetización científica y en las tres subcompetencias del marco. Es muy normal que la demanda cognitiva de una actividad se confunda con la dificultad de dicha actividad. La dificultad se estima a partir de la proporción de examinados que resuelven el ítem correctamente y evalúa la cantidad de conocimiento que posee la población examinada. Por otro lado, la demanda cognitiva hace referencia a los tipos de procesos mentales requeridos. Por eso en los ítems de PISA se distingue, por un lado, el tipo de conocimiento que requieren y, por otro lado, la demanda cognitiva (OCDE, 2016a).

En el informe PISA 2018 assessment and analytical framework (OCDE, 2019), se propone una herramienta (tabla 3) que recuerda a la tabla de la Taxonomía de Bloom Revisada, que permite mapear los elementos de estas pruebas en cuanto a dos dimensiones: conocimiento y competencias. Además, cada elemento puede mapearse utilizando una tercera dimensión basada en la profundidad de conocimiento. Esta última dimensión permite categorizar la demanda cognitiva de los elementos o ítems en: baja, media o alta.

Con todo esto se consigue una medida más amplia de la AC, se logra categorizar los procesos cognitivos necesarios para alcanzar las competencias que forman la base de la alfabetización científica y se facilita una forma de clasificación de los parámetros de la escala de competencia tal y como apuntaron Crujeiras-Pérez y Jiménez-Aleixandre, 2015.

Tabla 3
Herramienta que permite mapear los elementos de las pruebas PISA en cuanto a la dimensión del conocimiento, competencias y la demanda cognitiva. Fuente Marco Analítico para la Evaluación de PISA 2018, disponible en https://www.oecd.org/pisa/pisa-for-development/PISA-D-Assessment-and-Analytical-Framework-Ebook.pdf

Conocimiento científico en PISA

Hasta PISA 2015 se habían estado considerando dos tipos de conocimiento: a) Conocimiento de la ciencia y b) Conocimiento sobre la ciencia, pero en 2015 este último se dividió para dar lugar a conocimiento procedimental y conocimiento epistémico (Vázquez-Alonso y Manassero, 2018). Por tanto, el marco de referencia de PISA 2015 dado por la OCDE (2016a), al igual que en PISA 2018 (OCDE, 2019) el conocimiento científico queda dividido en:

a) Conocimiento del contenido: comprensión de los principales hechos, conceptos, ideas y teorías que la ciencia ha establecido para explicar el mundo natural y que forman la base del conocimiento científico.

b) Conocimiento procedimental: prácticas en las que se basa la investigación empírica.

c) Conocimiento epistémico: incluye una comprensión de la función que las preguntas, observaciones, teorías, hipótesis, modelos y argumentos desempeñan en la ciencia.

El conocimiento epistémico está directamente relacionado con la comprensión de la naturaleza de la ciencia y es esencial para “comprender la diferencia entre observaciones, hechos, hipótesis, explicaciones, modelos y teorías”. Además, implica que los estudiantes sean capaces de pensar y razonar (Vázquez-Alonso y Manassero, 2018), lo que se asemeja mucho a ese conocimiento funcional que se requiere para la alfabetización científica (Pedrinaci, 2013).

Tras recurrir a la literatura especializada para fundamentar teóricamente este trabajo, se procede a describir la metodología aplicada para abordar el estudio de las pruebas PISA, con objeto de aportar un análisis que permita discutir el papel de PISA en la promoción y evaluación de la alfabetización científica.

Materiales y métodos

El objetivo principal de este estudio es analizar la consistencia interna con relación a cómo se evalúa el grado de alfabetización científica mediante las pruebas PISA aplicadas en los últimos años. Para ello, hemos realizado un análisis profundo de las pruebas PISA utilizadas para la evaluación en ciencias en el periodo abarcado desde el año 2000 a 2015, cuyas correspondientes versiones liberadas y en castellano se encuentran disponibles en la web del Instituto Nacional de Innovación Educativa (2015). En concreto, se han analizado las pruebas disponibles correspondientes a las materias de Biología (22 pruebas) y Geología (10 pruebas), suponiendo un total de 32 pruebas analizadas. En cada una de estas pruebas el número de preguntas / actividades (ítems) es variable y, en nuestro caso, ha oscilado entre 1 y 7 dependiendo del examen. Así, un total de 106 ítems han supuesto la muestra total analizada en el presente trabajo, 74 de los cuales corresponden a Biología y 32 a Geología. Cada uno de estos ítems han sido evaluados en base a cuatro análisis diferentes, aunque complementarios, a saber: (1) análisis de contextos, (2) análisis de demanda cognitiva, (3) análisis del tipo de conocimiento y (4) análisis bidimensional de demanda cognitiva/ tipo de conocimiento. Las características de cada uno de estos análisis se describen a continuación.

Análisis de contextos

De manera diferente a la utilizada en las pruebas PISA, nuestro interés no se ha centrado en la clasificación de contextos atendiendo a su marco o escala (personal, local, global). Por el contrario, apoyándonos en la literatura especializada y reconociendo la influencia que los contextos tienen sobre la motivación y el aprendizaje del alumnado, hemos categorizado las pruebas en base a una nueva clasificación que se ha creado tomando como referencia la incluida en el trabajo de Díaz y Poblete (2001). Con esta clasificación se ha querido valorar de alguna forma el potencial de dichos contextos para dotar de sentido y utilidad al aprendizaje y, en definitiva, para enganchar emocional y cognitivamente al alumnado. Se han definido las siguientes categorías de contextos:

Cotidiano: contextos que están presentes en la realidad diaria del alumnado y con los que están en contacto asiduamente.

Utilitario: contextos que, aunque no están presentes en la vida diaria del estudiante, son realistas y/o útiles. Son susceptibles de producirse.

Aficiones y ocio: contextos relacionados con posibles actividades que el alumnado puede llevar como medio de distracción o disfrute.

Fantasía: contextos producto de la imaginación, que no se corresponde con una situación real o plausible.

Académico: contextos de evaluación que no hacen referencia explícita a una situación cotidiana o a la realidad del alumnado. Se trata por tanto de contextos que no tienen sentido fuera del ámbito escolar.

En cualquier caso, las categorías definidas ponen de manifiesto la presencia de determinados rasgos en un contexto, sin ser necesariamente excluyentes entre sí, es decir, que se puede dar el caso de que una misma prueba exhiba rasgos de varias categorías diferentes al mismo tiempo. En este caso, el valor medio de contextos que han sido asignados al conjunto de pruebas evaluadas ha sido de 1,45. Por esta razón, la asignación de los contextos en cada uno de los ítems analizados se llevó a cabo mediante el análisis deductivo individualizado por parte de las tres investigadoras participantes en este trabajo. La comparación entre los análisis individualizados iniciales aportó grados de acuerdo entre jueces superiores al 70% para todas las categorías, mostrando una elevada confiabilidad en el sistema de análisis que se incrementó hasta un 100% tras sucesivos ciclos de análisis resolviendo las discrepancias por consenso.

Análisis de demanda cognitiva

El análisis de la demanda cognitiva que requiere cada uno de los ítems de las pruebas PISA analizadas se ha llevado a cabo mediante su ubicación dentro de la Taxonomía de Bloom Revisada y, en concreto, dentro de la Dimensión del Proceso Cognitivo. Las seis categorías que recoge esta clasificación y en las que se han enmarcado los diferentes ítems, son, (de menor a mayor grado de demanda cognitiva) los que se recogen en la Tabla 4.

Tabla 4
Tabla resumen de las categorías según la Taxonomía Revisada de Bloom descriptores y demanda cognitiva asociada

Dado que en este caso cada uno de los ítems puede ubicarse tan solo en una de las categorías, ha sido posible evaluar el grado de confiabilidad inicial de las categorizaciones realizadas de forma individual por cada investigadora. En este caso, se alcanzó en primera vuelta un grado de confiabilidad inicial del 77% y del 35% para la asignación de la demanda cognitiva y categoría de cada ítem, respectivamente, tras lo cual se llegó por consenso (mediante la reasignación de algunos de los ítems evaluados) a un 100% de acuerdo entre las partes.

Análisis del tipo de conocimiento

Del mismo modo, se ha determinado el tipo de conocimiento que demanda cada uno de los ítems presentes en las pruebas PISA analizadas de acuerdo con la clasificación reportada por Muñoz y Charro (2018) y que resume de forma clara la dada por la OCDE (2016a) para el marco de referencia de PISA 2015:

Conocimiento del contenido: el proceso de interpretación requiere de los conceptos puntuales, teorías o hechos de la ciencia. Aquí se han incluido aquellos ítems que requieren la comprensión de los hechos, conceptos, ideas y teorías que la ciencia ha establecido para explicar el mundo natural y que forman la base del conocimiento científico.

Conocimiento procedimental: el proceso de interpretación solo requiere de la información explícita, implícita o conceptual brindada por el ítem. No se necesita una justificación científica. Aquí se han incluido aquellos ítems que pueden resolverse empleando para ello la mera información brindada por el contexto y el enunciado.

Conocimiento epistémico: el proceso de interpretación requiere explicaciones que justifiquen los procedimientos científicos utilizados. Aquí se han incluido todos aquellos ítems que además requieran interpretar, reflexionar o dar una explicación.

Aunque puede reconocerse más de un tipo de conocimiento en algunos de los ítems analizados, con el objetivo de evaluar el grado de confiabilidad de la categorización realizada, cada ítem ha sido ubicado en solo una de las categorías, teniendo en cuenta el principal tipo de conocimiento demandado en cada caso. Así, se alcanzó un grado de confiabilidad inicial del 74% en primera vuelta, tras lo cual se llegó por consenso (y tras la reasignación de algunos de los ítems evaluados) a un 100% de acuerdo entre las partes.

Análisis bidimensional de demanda cognitiva/tipo de conocimiento

El análisis bidimensional implica el cruce de los resultados obtenidos en las categorizaciones realizadas para la demanda cognitiva y el tipo de conocimiento identificados en cada uno de los ítems analizados y tiene por objetivo proporcionar una representación visual de la frecuencia en que cada par de variables aparece en el conjunto de ítems analizados. Este tipo de análisis permite, por tanto, mostrar cómo se correlaciona la demanda cognitiva identificada en cada ítem con el tipo de conocimiento requerido para su resolución. Con el fin de emplear el instrumento de análisis que mejor se adaptara a las características del presente trabajo, se ha creado el instrumento que se muestra en la Tabla 5 en base a la metodología reportada en el trabajo de Krathwohl (2002) y la proporcionada por la OCDE (2016a) en el marco de referencia de PISA 2015.

Tabla 5
Tabla bidimensional que recoge la demanda cognitiva y el tipo de conocimiento requerido por los ítems de PISA analizados.

Resultados y discusión

A continuación, se presentan los resultados obtenidos tras el análisis de contenido de las pruebas PISA utilizando las categorías descritas anteriormente. Los resultados expuestos a continuación hacen alusión a los obtenidos tras haber sometido cada análisis a consenso entre las partes y haber obtenido un 100% de acuerdo. En el Anexo I se facilita la tabla consensuada del análisis realizado, en donde se recogen los datos concretos obtenidos, incluyendo el título de las pruebas evaluadas (con enlace para su consulta) y sus respectivas categorías según tipo de contexto, tipo de conocimiento y de proceso y demanda cognitiva.

Análisis de contextos

La Figura 2 recoge los resultados obtenidos tras el análisis de los contextos encontrados en las pruebas PISA que han sido objeto de estudio.

El contexto utilitario es el más recurrente entre las pruebas analizadas, con una frecuencia de aparición del 48%. Este tipo de contextos, aunque estrictamente no puedan definirse como cotidianos, son realistas y están asociados a situaciones de interés, por lo que ponen de manifiesto la utilidad que un determinado conocimiento (o sus habilidades asociadas), puede tener en la resolución/comprensión/evaluación de una situación factible para el alumnado. No obstante, cabe mencionar que, dado que la asignación de contextos aplicada no ha sido excluyente (asignando, por tanto, varios tipos distintos a una misma prueba en algunos casos), se ha observado que el contexto utilitario es concomitante con el cotidiano en hasta 12 de las pruebas estudiadas, lo cual es lógico teniendo en cuenta que la mayor o menor utilidad que un contexto puede tener para el alumnado estará ciertamente ligada al grado de cotidianidad del mismo. En segundo lugar, aparecen con una frecuencia del 26% los contextos cotidianos. Estos plantean situaciones con las que el estudiante está en contacto diariamente, lo que también dota de autenticidad al aprendizaje. En tercer lugar, se sitúan los contextos académicos (14%), es decir, aquellos en los que se presentan los contenidos a evaluar sin establecer ninguna conexión con situaciones identificables o reconocibles por el alumnado. Por último, el contexto aficiones y ocio ha obtenido una frecuencia del 12% mientras que el contexto fantasía no ha sido identificado en ninguna de las pruebas analizadas.


Figura 2
Frecuencia de aparición (expresada en %) de cada contexto identificado en las pruebas PISA.

Con respecto a la frecuencia de aparición de los diferentes contextos, cabe decir que el hecho de que el utilitario y el cotidiano sean los más frecuentes es coherente con las recomendaciones basadas en las evidencias que, desde la investigación especializada en el área de Didáctica de las Ciencias, se vienen dando para lograr un aprendizaje significativo. El empleo de este tipo de contextos resulta beneficioso desde el punto de vista del aprendizaje, ya que las probabilidades de que el alumnado se implique cognitiva y emocionalmente en la resolución de una situación son mayores si dicha situación tiene sentido e interés para él. Además, y a diferencia de los contextos académicos, este tipo de contextos proporcionan una vía para mostrar a los estudiantes las íntimas conexiones existentes entre los hallazgos de la ciencia y la multitud de situaciones o actividades cotidianas a las que los estudiantes se enfrentan diariamente. Les permiten reconocer que dichas actividades, así como los consejos y recomendaciones que obtienen de la sociedad, tienen en realidad una base científica. De este modo se consigue además fomentar el interés general por el aprendizaje de las ciencias, que dejan de verse como materias abstractas o de poca utilidad más allá de la que se les presupone como parte fundamental de la investigación realizada en áreas específicas y por especialistas. Por el contrario, proporcionarles la información de forma teórica sin utilizar contextos en los que se muestre algún tipo de conexión con su realidad, disminuye la probabilidad de despertar en ellos la curiosidad y el interés (King, 2016).

Llama la atención que el contexto aficiones y ocio (en donde se han incluido todas aquellas pruebas que aluden a actividades que los estudiantes pueden hacer por entretenimiento o placer) aparezca con una frecuencia incluso inferior a la obtenida para el académico, a pesar del elevado potencial motivador que esto tiene. En este sentido, podría ser interesante que el número de pruebas en esta categoría ascendiese, ya que permitiría a los alumnos ver cómo lo que hacen en su tiempo libre está también relacionado con lo que aprenden en el centro escolar.

Aunque existen numerosas referencias a contenidos de ciencias en películas, libros, etc., del género ciencia-ficción, que podrían servir para aportar contextos motivadores para aplicar el conocimiento científico, no se ha detectado el contexto fantasía en ninguna de las pruebas revisadas. Incrementar la utilización de este tipo de contextos podría ser interesante teniendo en cuenta el elevado número de jóvenes que se sienten atraídos por este género y la necesidad de dotarles de espíritu crítico a la hora de valorar la credibilidad y verosimilitud de las situaciones y argumentos planteados en la ciencia-ficción.

En definitiva, observamos que la mayoría de las pruebas PISA analizadas utilizan contextos cotidianos y realistas y por tanto significativos, útiles e interesantes para los estudiantes. Sin embargo, más allá del valor de estos contextos desde el punto de vista didáctico, podemos afirmar que las pruebas PISA están demandando la capacidad de conectar y transferir el conocimiento y las habilidades adquiridas a la resolución de problemas cotidianos o reales, es decir, están valorando el nivel de competencia de los encuestados. Por otro lado, cabe destacar que sería muy interesante que el contexto de aficiones y ocio pudiese sobrepasar al académico, de forma que se ampliara aún más el uso de contextos motivadores para los estudiantes y se potenciara el desarrollo de la alfabetización científica. Otro aspecto interesante que valorar en relación con la alfabetización científica sería el de ofrecer contextos realistas que demanden una actitud crítica hacia la ciencia, sus aplicaciones e implicaciones. Este sería el caso del empleo de contextos vinculados con controversias socio-científicas, las cuales frecuentemente entrañan consecuencias ambientales o aspectos éticos y morales controvertidos. En cualquier caso, hemos de reconocer que estamos analizando pruebas dirigidas a un gran abanico de países, ciudades y culturas. Este hecho hace que sea más complicado encontrar contextos adecuados para estudiantes de tan distinta procedencia. Es por ello que la elaboración de estos suponga un reto.

Análisis de la demanda cognitiva

Los resultados del análisis de la demanda cognitiva de las pruebas se recogen en la Figura 3.


Figura 3
Frecuencia de aparición (expresada en %) de la demanda cognitiva identificada en cada uno de los ítems de las pruebas PISA analizadas.

De entre los 106 ítems analizados, 53 pueden encuadrarse en la categoría Recordar y 35 en la categoría Comprender. Esto supone que más del 80% de los ítems que se proponen en el conjunto de pruebas PISA de Biología y Geología analizadas para el periodo 2000-2015 requieren una demanda cognitiva baja de acuerdo con la Taxonomía Revisada de Bloom. En estas dos categorías encontramos que el tipo de preguntas más recurrentes son del tipo verdadero/falso para los ítems encuadrados en la categoría Recordar, mientras que las que aparecen con mayor frecuencia en la categoría Comprender suponen dar una explicación sobre algún aspecto relacionado con la cuestión que se plantea, a veces apoyado sobre la interpretación de una tabla, figura o esquema.

Tan sólo 11 de las actividades pueden encuadrarse dentro de la categoría Analizar. Estos ejercicios, aunque aún se sitúan dentro de los procesos de menor demanda cognitiva según la TR de Bloom, sí que requieren una mayor demanda cognitiva que los anteriores e implican ejercicios en los que el alumnado debe extraer conclusiones mediante un ejercicio de relacionar información y reflexionar sobre datos que se proporcionan de manera científica en forma de gráficos y/o tablas.

Las categorías Aplicar, Evaluar y Crear son claramente minoritarias, con una frecuencia de aparición del 1%, 4% y 1%, respectivamente. Es llamativa la baja frecuencia de actividades pertenecientes a la categoría Aplicar, categoría que supone plantear actividades en las que el alumnado deba aplicar un conocimiento previo a un caso concreto, como podría ser la resolución de un problema por aplicación de una ecuación determinada. En nuestro caso, sólo se ha encontrado una actividad de este tipo y en ella se pide realizar un esquema de forma que este cumpla con las premisas que proporciona el enunciado. En cuanto a la categoría Evaluar, solo se han identificado 4 actividades que requieran desarrollar argumentos para emitir conclusiones. Por último, solo una actividad implica un proceso cognitivo de complejidad suficiente como para poder encuadrarse dentro de la categoría Crear. En esta actividad se proporciona a los estudiantes una viñeta que representa un fenómeno de forma esquemática (en concreto, la formación de ozono en la estratosfera) y se les pide que, a partir de la misma, elaboren una explicación de forma que pueden explicar el proceso a un familiar cuyas nociones de química son muy limitadas. Ciertamente, este tipo de actividades requieren una mayor demanda cognitiva porque no solo exigen que el alumno conozca el proceso por el que están siendo preguntados, sino que además deben de demostrar capacidad suficiente como para producir de forma coherente y sintetizada un texto que sirva de explicación simplificada del mismo.

Al predominar las actividades de la categoría I (Recordar), se puede decir que, en general, los exámenes de PISA no requieren una gran demanda cognitiva. La mayoría de las actividades que se proponen son de tipo elección múltiple, ya sea simple (elegir la respuesta correcta) o compleja (indicar verdadero o falso). Este tipo de actividades no requieren un gran esfuerzo mental por parte del estudiante puesto que incluso podrían resolverse correctamente por azar. Una de las razones por las que podrían predominar este tipo de ítems sería la dificultad añadida que supondría la corrección de las pruebas si en esas mismas actividades se pidiese una reflexión escrita. Mediante una justificación, se podría ver el procedimiento que ha llevado al estudiante a marcar una de las respuestas y su forma de expresarse al escribir, los términos que utiliza y la madurez que presenta al expresar sus ideas. Por ejemplo, en uno de los exámenes se proporcionaba un texto y se pedía a los estudiantes que propusieran un título adecuado de acuerdo con la información recopilada en este. Planteada así, esta actividad sin duda requeriría una demanda cognitiva elevada. Sin embargo, dicho examen PISA planteaba esta pregunta mediante un sistema de elección múltiple, por lo que el alumno solo tenía que identificar la respuesta correcta y marcarla, eliminando así la capacidad de reflexión, de conexión de ideas, de síntesis y creatividad que exigiría tener que proporcionar una respuesta libre.

En cuanto a las categorías de Evaluar y Crear que aparecen en muy baja proporción en las pruebas PISA analizadas, sería muy interesante que con el paso del tiempo fueran tomando más peso en el programa. Son los dos últimos escalones de la TR e implican una alta demanda cognitiva. Actividades basadas en esas categorías van a permitir medir la capacidad de los estudiantes para hacer sus propias valoraciones basadas en su conocimiento y criterio y para conectar elementos de forma constructiva y creativa con objeto de generar un todo genuino y coherente. En este sentido, es remarcable su escasa aparición a pesar de la importancia que en los últimos años se le está dando a promover el uso de prácticas docentes que fomenten la educación de ciudadanos científicamente alfabetizados, entendiéndose estos como aquellos que son capaces de trasladar su conocimiento específico en un ámbito determinado de las ciencias a la toma de decisiones o actividades de su vida cotidiana.

Aunque con el paso de los años siguen predominando las actividades que no requieren una gran demanda cognitiva, en el año 2015 hubo un cambio notable. Las pruebas se realizaron mediante el uso de ordenadores, lo que permitió variar la formulación de las actividades. Por ejemplo, en algunas de las preguntas de elección múltiple se pidió “marcar una o varias casillas”, lo que redujo la probabilidad del acierto por azar. También aparece una nueva forma de obtener los datos para poder responder los ejercicios. En las actividades aparecen simulaciones en las que los alumnos pueden probar con diferentes parámetros para averiguar qué ocurre en cada uno de los casos y de esta forma crear ellos mismos sus propios datos. El programa permite guardar en una tabla la información obtenida y en algunos de los ejercicios, incluso se pide que, tras la investigación con el simulador y la obtención de los datos, se marquen aquellos que han ayudado a contestar la pregunta. Los simuladores requieren la capacidad del alumnado para gestionar e interpretar datos, así como de generar conclusiones basadas en evidencias. Estos aspectos están directamente vinculados con el concepto alfabetización científica y por tanto son relevantes para su evaluación. En este sentido, podemos observar que, con el paso del tiempo, las pruebas PISA revisan y mejoran la medida del constructo alfabetización científica en alumnado de 15 años.

Tal y como se ha discutido en apartados anteriores, la evaluación de la competencia científica no se puede limitar a pruebas que se resuelvan recitando conocimiento memorizado. Por el contrario, se requiere la capacidad de comprender dicho conocimiento y transferirlo a situaciones nuevas con objeto de resolver satisfactoriamente problemas realistas. En cualquier caso y a pesar de la evolución mencionada en los últimos años, nuestro análisis pone de manifiesto que aún se recurre a contextos meramente académicos y que la demanda cognitiva de las actividades es en general baja. Sin embargo, es necesario reconocer que, aunque predominen los ejercicios con una baja demanda cognitiva, todas las actividades llevan delante un encabezamiento contextualizado que los alumnos deben ser capaces de entender para responder las actividades que los preceden.

Análisis del tipo de conocimiento

Los resultados del análisis del tipo de conocimiento de las pruebas se recogen en la Figura 4.


Figura 4
Frecuencia de aparición (expresada en %) del tipo de conocimiento identificado en cada uno de los ítems de las pruebas PISA analizadas.

En este caso, como se muestra en la Figura 4, el reparto de actividades que pueden encuadrarse en cada una de las tres categorías es bastante equitativo, con una menor proporción de aquellas pertenecientes a la categoría de conocimiento de tipo procedimental.

Aunque existe una mayoría de actividades que solamente implican el conocimiento del contenido, realmente no es notoria la diferencia con respecto a aquellas que requieren de conocimiento epistémico. Los contenidos conceptuales, además de ser descriptores objetivos de la calidad de los sistemas educativos que son evaluados a través de PISA, son fundamentales para aportar una base sobre la que continuar construyendo conocimiento y, por tanto, se entiende que sea el tipo de conocimiento más evaluado en este tipo de pruebas, seguido del conocimiento epistémico. Los aspectos epistémicos tienen un peso importante en la alfabetización científica, ya que no solo están vinculados con una comprensión de la naturaleza de la ciencia y de la forma en la que ésta desarrolla y valida conocimiento, sino que además capacitan a los individuos para construir conocimiento de forma científica, así como para valorar críticamente los resultados y conclusiones asociadas a una determinada investigación. En este sentido, el elevado porcentaje de actividades que demandan conocimiento epistémico son un indicador de que las pruebas PISA están aportando una adecuada medida del constructo alfabetización científica. Sin embargo, la presencia de actividades diseñadas para valorar conocimiento procedimental es minoritaria. Esto se puede deber, por un lado, a la forma en la que se lleva a cabo la evaluación (contestando a preguntas escritas en papel o través de ordenador). No obstante, es importante no perder de vista que los procedimientos científicos están íntimamente ligados a los aspectos epistémicos y que las personas necesitan los tres tipos de conocimiento para exhibir las tres sub-competencias científicas. El conocimiento conceptual, unido a los conocimientos procedimental y epistémico conforman la base de la alfabetización científica y garantizan la educación de personas capaces de desenvolverse en situaciones relacionadas con la ciencia y la tecnología y de aplicar su conocimiento en una amplia variedad de contextos para resolver problemas reales.

Análisis bidimensional demanda cognitiva/tipo de conocimiento

Una vez completados los análisis de demanda cognitiva y del tipo de conocimiento, se procedió a realizar un estudio bidimensional de estos dos parámetros con el objetivo de obtener un mapa que permitiera identificar cómo el conocimiento requerido en una actividad determinada se correlaciona con el proceso cognitivo que demanda, y su frecuencia dentro del conjunto de ítems evaluados. Los resultados obtenidos de este análisis se muestran en la Tabla 6, en donde cada casilla indica el porcentaje de actividades encontradas en los que convergen dos descriptores concretos.

Tabla 6
Tabla bidimensional que recoge la demanda cognitiva y el tipo de conocimiento requerido por los ítems de PISA analizados. Los cuadros de resultados marcados indican los mayores porcentajes obtenidos.

El 36,4% de las actividades analizadas suponen una demanda cognitiva perteneciente a la categoría Recordar y requieren conocimiento del contenido. Por su parte, a pesar de la alta presencia de actividades vinculadas con conocimiento epistémico, tan solo el 9,3% y el 3,7% suponen demandas cognitivas más elevadas relacionadas con procesos más complejos como analizar o evaluar, respectivamente.

La información brindada por esta tabla resulta muy útil y visual a la hora de comprender como está siendo evaluada la alfabetización científica en PISA en cuanto a la demanda cognitiva y el tipo de conocimiento requerido por sus pruebas. La esquina superior izquierda representa la abundancia de pruebas con baja demanda cognitiva y que requieren un conocimiento del contenido, mientras que la esquina inferior derecha representa el número de pruebas con alta demanda cognitiva y que requieren un conocimiento epistémico. Las primeras exigen para su resolución procesos que no se asemejan a las características de una persona científicamente alfabetizada, mientras que las segundas implican realizar procesos cuyas características se asemejan más a las capacidades de una persona científicamente alfabetizada.

Los tres tipos de pruebas que destacan son aquellas que pertenecen a las categorías:

● Recordar (baja demanda cognitiva) y conocimiento del contenido (36,4%)

● Comprender (baja demanda cognitiva) y conocimiento procedimental (15,9%)

● Recordar (baja demanda cognitiva) y conocimiento epistémico (13,1%)

En conjunto, la tabla 6 muestra que la mayoría de las actividades utilizadas en las pruebas de evaluación PISA se sitúan en la esquina superior izquierda de la tabla y pocas se acercan a la esquina inferior derecha. Estos resultados sugieren que, si queremos garantizar individuos capaces de resolver satisfactoriamente situaciones de alta demanda cognitiva, sería necesario disminuir el número de actividades en la categoría Recordar en las pruebas PISA. En cualquier caso, el programa PISA representa un esfuerzo internacional por alinear los objetivos educativos relacionados con la alfabetización científica con los sistemas de evaluación, y aporta una base interesante para la reflexión crítica acerca de los logros académicos y de su relación con factores sociales y con las metodologías utilizadas. La complejidad del constructo a medir y la dificultad para diseñar pruebas que permitan una evaluación adecuada de todos los aspectos vinculados con la alfabetización científica justifican cómo el programa PISA sigue revisando y mejorando su marco conceptual y los instrumentos utilizados. Este hecho es visible en los avances introducidos a lo largo de los años (como por ejemplo la introducción de pruebas mediante ordenador y la utilización de simulaciones en PISA 2015).

Esperamos que este análisis aporte una base interesante para valorar el programa e identificar limitaciones y áreas de mejora en el esfuerzo de diseñar ejercicios que demanden exactamente lo mismo que se demanda en una persona científicamente alfabetizada. No obstante, sería interesante ampliar este estudio incluyendo otras áreas (como Física y Química) con el objetivo de buscar paralelismos o diferencias en las tendencias observadas en el presente trabajo.

Conclusiones y futuras líneas de trabajo

Siguiendo un enfoque innovador, este trabajo aborda el análisis de las pruebas PISA multidimensionalmente, atendiendo a los contextos en los que se encuadran las actividades de evaluación, al tipo de conocimiento necesario para resolverlas y a la demanda cognitiva asociada.

El sistema de análisis y las categorías utilizadas están basadas en la literatura especializada sobre alfabetización científica, naturaleza de la ciencia, demanda cognitiva y aprendizaje basado en contextos, lo que fundamenta la validez del estudio. Los resultados muestran una buena confiabilidad entre jueces avalando el rigor científico del mismo.

Tras el análisis de las pruebas PISA podemos concluir que los contextos más utilizados se enmarcan en las categorías cotidiano y utilitario, lo que es coherente con un concepto de alfabetización científica ligado a la capacidad para desenvolverse adecuadamente en situaciones diarias en las que intervienen la ciencia y la tecnología. Además, cabe destacar que la utilización de contextos vinculados con la realidad y las necesidades del alumnado no sólo dota de sentido y utilidad al aprendizaje evaluado, sino que además ofrece oportunidades para reconocer hasta qué punto la ciencia está presente en nuestro entorno y afecta a nuestra vida, así como el valor del conocimiento para tomar decisiones adecuadas. No obstante, el análisis llevado a cabo revela que existe margen para la mejora en la utilización de contextos en las pruebas PISA, ya que se podría disminuir el uso de contextos puramente académicos a favor de otros contextos que favorezcan más la implicación y motivación del alumnado. En este sentido, se ha detectado una ausencia de contextos de fantasía que, vinculados a la ciencia ficción tan presente en el cine y la literatura actual, permitiría evaluar la capacidad crítica del alumnado para valorar la verosimilitud de determinados argumentos sobre lo que la evolución de la sociedad, la ciencia y la tecnología podrían generar en un futuro.

El análisis de la demanda cognitiva asociada a las pruebas PISA pone de manifiesto el predominio de actividades que requieren recordar y comprender información. Si las preguntas de ese tipo disminuyeran a favor de otras pertenecientes a las últimas categorías de la Taxonomía de Bloom Revisada, como lo son las de Evaluar y Crear, se estaría enfatizando la formación de individuos críticos, capaces de valorar alternativas y generar soluciones creativas.

En relación con el conocimiento demandado por las pruebas PISA, predomina la evaluación de contenidos, aunque el conocimiento epistémico también tiene una presencia importante. Este resultado es especialmente relevante si tenemos en cuenta los actuales consensos sobre qué debe saber, valorar y saber hacer una persona alfabetizada científicamente. Estar alfabetizado/a científicamente supone no sólo dominar los principales hechos, teorías y leyes científicas sino también apropiarse de la forma en la que la ciencia desarrolla y valida conocimiento, reconociendo la importancia de las pruebas y evidencias en la generación de argumentos y explicaciones. También es necesario mencionar que el conocimiento procedimental está poco representado lo que puede deberse a las restricciones propias de la naturaleza de la evaluación llevada a cabo. No obstante, sería interesante reflexionar acerca de cómo se podrían emplear las actuales herramientas tecnológicas para dar un mayor protagonismo a los aspectos procedimentales tan ligados al desarrollo de habilidades y destrezas. El desarrollo de las pruebas a través de ordenador en las últimas ediciones podría facilitar esta posibilidad.

En definitiva y atendiendo a los resultados obtenidos, se puede concluir que las pruebas PISA proporcionan una evaluación de la alfabetización científica alineada con el consenso experto. No obstante, se detecta la posibilidad de mejorar el uso de contextos, enfatizar las habilidades procedimentales y aumentar la demanda cognitiva de las actividades para primar el pensamiento evaluativo y creativo del alumnado en un mundo dominado por la tecnología. Cierto es que las características multiculturales de los participantes hacen que sea complicado crear pruebas que se adapten a todos ellos, pero como ya quedó reflejado en PISA 2015 con la formulación de las preguntas por ordenador, es posible mejorar los ítems para una mejor adaptación a las demandas y necesidades actuales.

Este estudio está siendo ampliado a los ítems liberados para Física y Química en el mismo periodo, siguiendo idéntica metodología de análisis. Se espera, de este modo, ofrecer una perspectiva por áreas y encontrar nuevas evidencias que refuercen o maticen los resultados obtenidos en este trabajo, en relación con el tipo de contextos, de conocimiento y de demanda cognitiva en las pruebas PISA de ciencias. Con ello se pretende, no sólo replicar el análisis con otra muestra, sino también ofrecer una panorámica más amplia del problema planteado atendiendo a las especialidades docentes y a las distintas áreas de conocimiento en que las ciencias se imparten en Educación Secundaria.

Dada la significativa influencia de los procesos de evaluación en la forma en la que se enseña y se prepara al alumnado para superar dichas pruebas, sería interesante investigar hasta qué punto las pruebas de evaluación del programa PISA alienadas con el concepto de alfabetización científica, están influyendo en la forma en la que se trabaja en las aulas, así como aportar evidencias de investigación que permitan enriquecer el debate sobre qué metodologías y recursos didácticos favorecen la adquisición de competencias científicas y la formación de individuos creativos y críticos capaces de participar de forma activa e informada en las sociedades actuales.

Materiales Suplementarios

Anexo I (pdf)

Referencias

Amer, A. (2006). Reflections on Bloom’s revised taxonomy. Electronic Journal of Research in Educational Psychology, 8(4), 213-230.

Avargil, S., Herscovitz, O. y Dori, Y. J. (2012). Teaching thinking skills in context-based learning: Teachers’ challenges and assessment knowledge. Journal of Science Education and Technology, 21, 207-225.

Bennett, J., Lubben, F. y Hogarth, S. (2007). Bringing science to life: a synthesis of the research evidence on the effects of context‐based and STS approaches to science teaching.Science Education, 91(3), 347-370.

Cañal, P. (2004). La alfabetización científica: ¿necesidad o utopía? Cultura y Educación, 16(3), 245-257.

Cañal, P. (2012). ¿Cómo evaluar la competencia científica? Investigación en la Escuela, 78, 5-17.

Cañas, A. M. y Nieda, J. (2013) Una forma de trabajar la competencia científica en el aula. Revista Digital de Educación y Formación del Profesorado, 10, 35-47.

Crujeiras-Pérez, B. y Jiménez-Aleixandre, M. P. (2015). Análisis de la competencia científica de alumnado de secundaria: respuestas y justificaciones a ítems de PISA. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 12(3), 385-401.

Díaz, M. V. y Poblete, A. (2001). Contextualizando tipos de problemas matemáticos en el aula. Números, 45, 33-41.

Dori, Y. J., Avargil, S., Kohen, Z. y Saar, L. (2018). Context-based learning and metacognitive prompts for enhancing scientific text comprehension. International Journal of Science Education, 40(10), 1198-1220.

Gallardo-Gil, M., Fernández-Navas, M., Sepúlveda-Ruiz, M. P., Serván, M. J., Yus, R., y Barquín, J. (2010). PISA y la competencia científica: Un análisis de las pruebas de PISA en el Área de Ciencias. RELIEVE, 16(2), 1-17.

Gobierno de España. Ministerio de Educación, Cultura y Deporte (2017). El Bienestar de los Estudiantes. Resultados de PISA 2015. Recuperado de: https://sede.educacion.gob.es/publiventa/d/22091/19/00 [Consultado 24/07/2019]

Gutiérrez, A. (2006). PISA y la evaluación de la alfabetización científica. Investigación en la Escuela, 60, 65-77.

Instituto Nacional de Evaluación Educativa (2015). Preguntas liberadas de PISA como recursos didácticos de las Ciencias. Recuperado de: http://educalab.es/inee/evaluaciones-internacionales/preguntas-liberadas-pisa-piaac/preguntas-pisa-ciencias [Consultado 24/07/2019]

King D. (2016) Teaching and Learning in Context-Based Science Classes. En: Taconis R., Brok P.., Pilot A. (eds) Teachers Creating Context-Based Learning Environments in Science. Advances in Learning Environments Research. SensePublishers, Rotterdam.

Krathwohl, D. R. (2002). A revision of Bloom's taxonomy: an overview. Theory into practice, 41(4), 212-218.

Muñoz, J. y Charro, E. (2018). La interpretación de datos y pruebas científicas vistas desde los ítems liberados de PISA. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 15(2), 2101-2121.

OCDE (2003). The PISA 2003 Assessment Framework. Mathematics, Reading, Science and Problem Solving, Knowledge and Skills. París, Francia: OECD publishing.

OCDE (2009). El Programa PISA de la OCDE. Qué Es y Para Qué Sirve. París, Francia: Santillana.

OCDE (2016a). PISA 2015. Assessment and Analytical Framework: Science, Reading, Mathematic and Financial Literacy. Paris, France: OECD Publising. doi: 10.1787/9789264255425-en

OCDE (2016b). PISA 2015. Country Overview (Spain). Recuperado de: http://www.compareyourcountry.org/pisa/country/esp?lg=en [Consultado 24/07/2019]

OCDE (2016c). PISA 2015. Resultados Clave. París, Francia: OECD publising.

OCDE (2017), Marco de Evaluación y de Análisis de PISA para el Desarrollo: Lectura, matemáticas y ciencias, Versión preliminar, OECD Publishing, Paris.

OCDE (2019). PISA 2018. Assessment and Analytical Framework, Paris, France: OECD Publishing. doi: 10.1787/b25efab8-en

Pedrinaci, E. (2013). Alfabetización en ciencias de la Tierra y competencia científica. Enseñanza de las Ciencias de la Tierra, 21(2), 208-214.

Pérez-Martín, J. M. (2018). Un viaje en el tiempo por la alfabetización científica en España. Revista de Didácticas Específicas, 18, 144-166.

Romero-Ariza, M. (2017). El aprendizaje por indagación: ¿existen suficientes evidencias sobre sus beneficios en la enseñanza de las ciencias? Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 14(2), 286-299.

Romero-Ariza, M. y Quesada, A. (2015). Is the science taught useful to explain daily phenomena? A qualitative study with pre-service teachers. En: ICERI2015 Proceedings (pp. 2150-2156). Sevilla, España: IATED Academy.

Sanmartí, N. y Márquez, C. (2017). Aprendizaje de las ciencias basado en proyectos: del contexto a la acción. Ápice. Revista de Educación Científica, 1(1), 3-16.

Sevian, H., Dori, Y. J. y Parchmann, I. (2018). How does STEM context-based learning work: what we know and what we still do not know. International Journal of Science Education, 40(10), 1095-1107.

Ültay, N. y Çalık, M. (2012). A thematic review of studies into the effectiveness of context-based chemistry curricula. Journal of Science Education and Technology, 21, 686-701.

Vázquez-Alonso, A. y Manasserom M. A. (2018). El conocimiento epistémico en la evaluación de la competencia científica en PISA 2015. Revista de Educación, 380, 103-128.

Información adicional

Para citar este artículo: Rosales Sánchez, E. M., Rodríguez Ortega, P. G., y Romero Ariza, Marta (2020) Conocimiento, demanda cognitiva y cntextos en la evaluación de la alfabetización científica en PISA. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias 17(2), 2302. doi: 10.25267/Rev_Eureka_ensen_divulg_cienc.2020.v17.i2.2302



Buscar:
Ir a la Página
IR
Visor de artículos científicos generados a partir de XML-JATS4R por