La educación científica hoy
Recepción: 25 Abril 2023
Revisado: 17 Julio 2023
Aprobación: 22 Septiembre 2023
DOI: https://doi.org/10.25267/Rev_Eureka_ensen_divulg_cienc.2024.v21.i2.2301
Resumen: La competencia científica del alumnado de educación secundaria se evalúa cada tres años a través de las pruebas PISA. Los resultados de los últimos tres informes muestran carencias en dicha competencia, que debería desarrollarse en las aulas a través de una enseñanza de las ciencias, competencial y contextualizada. Sin embargo, todavía son pocos los/as docentes que orientan así su docencia, en muchos casos debido a la falta de conocimiento sobre cómo plantearla y, en otros muchos, a la falta de herramientas para evaluar el aprendizaje del alumnado a través de competencias. En esta investigación, hemos diseñado una secuencia de enseñanza aprendizaje específica, en la que se utiliza como instrumento vehicular una estación meteorológica, con el objetivo de desarrollar la competencia científica a través de indagación guiada. Para evaluar el desarrollo de dicha competencia, se han diseñado dos rúbricas ad hoc, que pueden ser de utilidad para otros docentes y/o investigadores. Se recogieron datos a través de grabaciones de audio y vídeo a lo largo de un curso académico. Los resultados se analizaron a través de las rúbricas diseñadas a tal efecto, y se concluyó que la secuencia diseñada facilita en gran medida el desarrollo de la competencia científica, concretamente favorece que el alumnado sea competente, por un lado, en la evaluación y diseño de investigaciones científicas y en la interpretación de pruebas y datos y, por otro lado, favorece la profundidad en su conocimiento procedimental y epistémico.
Palabras clave: Secuencia de enseñanza aprendizaje (SEA), Competencia científica, Rúbrica, Estación meteorológica.
Abstract: The scientific competence of secondary school students is evaluated every three years through the PISA tests. The results of the last three reports show deficiencies in this competence, which should be developed in the classroom through a competence-based and contextualized teaching of science. However, there are still few teachers who guide their teaching in this way, in many cases due to lack of knowledge on how to approach it and, in many others, due to the lack of tools to assess student learning through competencies. In this research, we have designed a specific teaching-learning sequence, in which a weather station is used as a vehicular instrument, with the aim of developing scientific competence through guided inquiry. To assess the development of said competence, two ad hoc rubrics have been designed, which may be useful for other teachers and/or researchers. Data was collected through audio and video recordings throughout an academic year. The results were analyzed through the rubrics designed for this purpose, and it was concluded that the designed sequence greatly facilitates the development of scientific competence, specifically favors the students to be competent, on the one hand, in the evaluation and design of scientific investigations and in the interpretation of tests and data and, on the other hand, favors the depth of their procedural and epistemic knowledge.
Keywords: Teaching-learning sequence, Scientific competence, Rubric, Wather station.
Introducción
Una vez cada tres años, la OCDE (Organización para la Cooperación y el Desarrollo Económicos) evalúa la competencia científica del alumnado de enseñanza secundaria, a través de pruebas cuyos resultados se recogen en los informes PISA. Estos resultados sirven para comparar el desarrollo de dicha competencia entre los/as estudiantes de los países miembros de la organización. Si nos fijamos en el ámbito de las Ciencias, España no es uno de los países que mejores resultados obtiene, de acuerdo a los últimos tres informes PISA publicados (OCDE, 2016, 2019 y 2022).
Buscando respuestas, los expertos coinciden en que se dan varias circunstancias que justifican estos resultados. Por un lado, la docencia en este país dista de basarse en el desarrollo de la competencia científica (Muñoz y Charro, 2023). Para que esto fuera así, la docencia debería anclarse en el desarrollo de secuencias de enseñanza aprendizaje contextualizadas (Caamaño, 2018) y que se basen en el desarrollo de prácticas científicas (Muñoz et al., 2020). Autores como Sanmartí e Hinojosa (2015) coinciden en que este tipo de metodología ayuda al desarrollo de la competencia científica en el aula, mediando directamente entre la motivación del alumnado y los conocimientos que se deben trabajar en el aula (Cascarosa-Salillas et al., 2021). Por otro lado, hay una falta de herramientas específicas que permitan la evaluación de esta competencia, lo que dificulta que los docentes integren este tipo de enseñanza en las aulas (Ferrés-Gurt et al., 2014; Osborne et al., 2016).
En este trabajo, se ha diseñado una secuencia de enseñanza aprendizaje con el objetivo principal de evaluar el desarrollo de la competencia científica, a través del análisis de tres sub-competencias y de los conocimientos puestos en juego, durante el desarrollo de la misma, que se basa en el uso de una estación meteorológica como contexto en el cual se implementa herramientas como las diseñadas para desarrollar y evaluar la competencia científica para trabajar las ciencias en el aula de educación secundaria. Para ello, se diseñó e implementó una secuencia de actividades específica, se diseñaron herramientas de evaluación del desarrollo de la competencia científica y con ellas se recogieron datos en el aula durante un curso académico. Todo ello con la finalidad de dar respuesta a la pregunta de investigación que guía este trabajo: ¿En qué medida es válida la secuencia de enseñanza aprendizaje diseñada para desarrollar la competencia científica en el alumnado?, que hemos planteado responder a través de dos objetivos parciales: Evaluar cómo favorece la secuencia de enseñanza-aprendizaje el desarrollo de las sub-competencias científicas y, valorar de qué forma la secuencia favorece el uso del conocimiento científico.
Marco teórico
Competencia Científica
Desde hace algunos años, el término competencia científica se usa de manera equivalente al término alfabetización científica, entendiendo que, una persona alfabetizada científicamente también es científicamente competente (Pedrinaci et al., 2012; Pedrinaci, 2013). Las bases de la alfabetización científica vienen estableciéndose desde la segunda mitad del siglo XX, cuando los expertos comenzaron a solicitar una educación en ciencias entre la población, que les permitiera desarrollarse plenamente en la sociedad (Romero-Ariza, 2017; Woods-McConney et al., 2014). Actualmente, y centrando el término en el contexto educativo, la OCDE (2016; 2019; 2022) requiere como objetivo fundamental el desarrollo de la competencia científica entre el alumnado. Varios autores indican que esta competencia científica debe desarrollarse en las propias aulas de ciencias, a través del desarrollo de los contenidos y procedimientos que marca el currículo escolar, haciendo uso de las prácticas científicas (indagación, argumentación y modelización) y teniendo en cuenta el contexto de aprendizaje del alumno (Chamizo e Izquierdo, 2005; García Carmona, 2020). Para evaluar esta competencia científica a nivel internacional, el Programme for International Student Assesment (OCDE, 2016; 2019; 2022) evalúa cada tres años los conocimientos y habilidades en materias de ciencia, lectura y matemáticas. En relación a la competencia científica, PISA evalúa si el alumnado es capaz de usar los valores y la información que posee y comprende la naturaleza del conocimiento científico (Rosales Ortega et al., 2020), así se premia la aplicación del conocimiento frente a la memorización (Gallardo-Gil et al., 2010). Para ello, una de las herramientas que utiliza el proyecto PISA es el uso de contextos en sus preguntas, de esta manera, se analiza la forma que tienen los estudiantes de aplicar conceptos a la vida diaria (OCDE, 2009).
La evaluación del desarrollo de la competencia científica, se puede llevar a cabo a través del análisis del desarrollo de tres sub-competencias (explicar fenómenos científicamente, evaluar y diseñar experimentos y preguntas científicas e interpretar datos y pruebas científicas) que son consecuencia del desarrollo de conocimientos científicos (de contenido, procedimental y epistémico) (ver Figura 1).
Sub-competencias científicas
A continuación definimos las tres sub-competencias, vinculándolas a trabajos de investigación publicados en los últimos años, de manera que se pueda recoger aquí una especie de base de datos donde se vinculen sub-competencias con investigaciones concretas y facilitar así al lector/a la búsqueda de información al respecto:
C1) Explicar fenómenos científicamente
Esta competencia hace referencia a la capacidad de reconocer, ofrecer y evaluar explicaciones para una cierta gama de fenómenos naturales y tecnológicos. Depende en gran medida del conocimiento de estas ideas o teorías, es decir, del conocimiento del contenido, sin embargo, también requiere una comprensión del camino recorrido para llegar a dicho conocimiento y los métodos utilizados (conocimiento procedimental) y un entendimiento del papel que juega el propio conocimiento en la justificación de dicho conocimiento (conocimiento epistemológico). Según PISA (OCDE, 2016; 2019; 2022), esta sub-competencia requiere de una serie de habilidades, que se detallan en la tabla 1.
Varios trabajos actuales recogen investigaciones sobre el desarrollo de la explicación de fenómenos científicamente. Blanco y Díaz (2017) analizan el nivel de desempeño de dicha sub-competencia a lo largo de una actividad de modelización en el aula en torno a un proceso de sedimentación. Para ello, utilizan la rúbrica usada en la prueba PISA (OCDE, 2008) y concluyen que, a pesar de que el análisis del desempeño a través de rúbrica “ayuda a comprender el grado de competencia de los estudiantes”, la rúbrica utilizada por PISA no es suficiente para evaluarla debido a que está muy orientada hacia respuestas “tipo test” y no favorece el análisis de explicaciones de los estudiantes.
Por otro lado, Blanco y Lupión (2015) desarrollan una propuesta de nueve unidades didácticas para trabajar la competencia científica en relación a temas de consumo, salud o medioambiente.
C2) Evaluar y diseñar la investigación científica
Para alcanzar esta competencia el alumnado debe ser capaz de describir y evaluar investigaciones científicas y proponer formas de abordar ciertas cuestiones de forma científica. Según PISA (OCDE, 2016; 2019, 2022), esta competencia requiere más que un conocimiento del contenido de la ciencia, una comprensión de la forma en la que se establece el conocimiento científico y el grado de confianza de este, es decir, un conocimiento procedimental y epistémico de la ciencia (OCDE, 2016; 2019; 2022). Las habilidades que requiere esta competencia se recogen la tabla 2.
En relación a esta sub-competencia, Crujeiras-Pérez (2017) analiza el desarrollo de la indagación con futuros docentes de educación secundaria, como práctica científica que ayuda a desarrollar la sub-competencia de evaluar y diseñar una invesitigación científica.
C3) Interpretar datos y pruebas científicas
Esta competencia requiere del análisis y la evaluación de datos, demandas y argumentos en cierta variedad de representación para poder ofrecer conclusiones de carácter científico adecuadas. Al igual que la competencia anterior, el conocimiento del contenido es necesario, pero son de gran importancia el conocimiento procedimental y epistémico. De esta forma se espera que un ciudadano alfabetizado científicamente, además de saber representar los datos que tienen, deben comprender las incertidumbres inherentes a la toma de datos y la propia medida (conocimiento procedimental). Ahora bien, el alumnado también debe saber juzgar si estos datos son apropiados, adquiriendo un papel importante la argumentación y la crítica en el proceso (conocimiento epistémico). Así, esta competencia incluye el acceso a la información y la evaluación de los argumentos y pruebas científicas (Kuhn, 2010; Osborne, 2010). Las habilidades que requiere esta competencia se recogen la tabla 3.
Con respecto a esta sub-competencia, autores/as como Blanco y Lupión (2015), Crujeiras y Jiménez (2015), Crujeiras et al. (2020) y Muñoz y Charro (2018) analizan la interpretación de datos y pruebas científicamente desde actividades en las que por ejemplo se desarrolla la práctica de la argumentación en el aula de ciencias.
En los últimos años se han publicado también trabajos de investigación que abarcan el estudio del desarrollo de varias de las sub-competencias al mismo tiempo. Por ejemplo, Franco-Mariscal et al. (2017) diseñaron actividades para el desarrollo de la competencia científica en un marco relacionado con la salud. Dichos autores plantean actividades vinculadas a cada una de las sub-competencias y analizan el alcance de las mismas a través del estudio de los objetivos concretos marcados inicialmente para cada una, ofreciendo así ejemplos concretos de la evaluación de las sub-competencias y dando un papel fundamental al contexto de la actividad.
Por otra parte, Muñoz y Charro (2023) han generado una investigación que ha abordado distintas habilidades en relación a las sub-competencias propuestas por PISA. Este trabajo facilita y orienta a los maestros y maestras en el abordaje de las sub-competencias y su evaluación en las aulas.
Demanda cognitiva y evaluación de la competencia científica
La evaluación en PISA se lleva a cabo a partir de lo que se conoce como demanda cognitiva en la evaluación de la alfabetización científica y las tres sub-competencias a adquirir. Es importante no confundir demanda cognitiva con la dificultad de una pregunta. La dificultad, en PISA, se valora según el conocimiento científico de una población en función de las respuestas acertadas, mientras que la demanda cognitiva considera el tipo de proceso mental requerido para responder correctamente las preguntas (Rosales Ortega et al., 2020). Por ello, se distingue entre el tipo de conocimiento que necesitan frente a la demanda cognitiva que exigen.
Secuencia de Enseñanza Aprendizaje
Una secuencia de enseñanza aprendizaje (SEA a partir de ahora) es un conjunto de actividades diseñadas con un fin concreto, que se consigue como consecución del desarrollo de estas actividades (Crujeiras y Cambeiro, 2018). En la enseñanza de las ciencias, la SEA es el instrumento metodológico que dirige la enseñanza y también el aprendizaje (Lijnse y Klaassen, 2004). A partir de un objetivo concreto, debe estar estructurada en actividades con objetivos parciales, que permitan al estudiante establecer puntos de anclaje del conocimiento (actividades y sesiones) y siempre debe diseñarse de la manera más contextualizada posible de forma que el alumno encuentre utilidad en su manera de proceder, lo que además invita a la motivación hacia el aprendizaje (Caamaño, 2012; Cobern et al., 2010; Couso, 2020; Guisasola et al., 2021). De acuerdo a Ferrés-Gurt (2017) esta SEA debe contener preguntas investigables por el alumnado, que permitan el desarrollo de las prácticas científicas (indagación, argumentación y modelización).
Teniendo en cuenta todo lo anterior, este trabajo de investigación se contextualiza en un aula real de ciencias, donde el objetivo es trabajar las ciencias a través de una secuencia de enseñanza aprendizaje, diseñada para desarrollar la competencia científica en alumnos de educación secundaria. Y, para evaluar el desarrollo de esta competencia científica, se han diseñado herramientas ad hoc que pueden ser de utilidad para docentes e investigadores, a través de su uso directo o adaptado.
Metodología
La investigación se ha desarrollado, a lo largo de un curso escolar, con un grupo de 16 alumnos/as de 1º de Bachillerato (de los cuales 8 son alumnas), en la asignatura de Cultura Científica (para la elección del curso y la materia se han tenido en cuenta el número de alumnos/as y la posibilidad de máxima dedicación al proyecto), a través de una situación surgida de una necesidad del propio centro y que derivó en dos preguntas que los estudiantes debían resolver por indagación libre: ¿qué estación meteorológica compramos para el instituto? (Actividad 2) y ¿en qué ubicación del centro la instalamos? (Actividad 3). Se formaron 4 grupos de trabajo (G1, G2, G3 y G4) que, de manera independiente, debían llegar a conclusiones sobre las preguntas a resolver en cada actividad a través de indagación guiada por el profesor en sesiones, y que al final, ponían en común entre los grupos para llegar a una respuesta única. Previa a estas dos actividades, se inició a los alumnos en la investigación y posteriormente se realizó una actividad final para recoger las conclusiones sobre las actividades. La secuencia de enseñanza aprendizaje diseñada constó de cuatro actividades, desarrolladas a través de 11 sesiones tal como se muestran de manera esquemática en la figura 2. A lo largo del desarrollo de dicha secuencia de actividades, se pretenden evaluar las sub-competencias desarrolladas (ver Tabla 4 de resultados) y también los conocimientos científicos (de contenido, procedimentales y epistémicos) detallados en la Tabla 6 de resultados. En el Anexo I se puede consultar la SEA en mayor detalle.
Para recoger y analizar los datos obtenidos en el desarrollo de la SEA que permitan concluir sobre el desarrollo de la competencia científica, se han utilizado distintos instrumentos (entrevista semiestructurada profesor-investigador-alumnado, observaciones directas, informes escritos del estudiantado, cuestionarios y grabaciones de audio y vídeo de las sesiones). No obstante, en la mayoría de las ocasiones se cuenta con más de un instrumento para la misma sesión, lo que facilita la triangulación tanto del método, como de los datos (Aguilar y Barroso, 2015).
Evaluación del desarrollo de la competencia científica
Tal como se ha comentado en el marco teórico, el desarrollo de la competencia científica a lo largo de la SEA, se puede analizar a través del estudio de tres sub-competencias: (a) explicar fenómenos científicamente; (b) evaluar y diseñar una investigación científica; (c) e interpretar información y evidencias científicas. A su vez, estas competencias necesitan de ciertos conocimientos que pueden ser clasificados en: de contenido, procedimentales y epistémicos (OCDE, 2016; 2019; 2022). Esta clasificación propuesta para la evaluación en el marco PISA, permite relacionar algunos tipos de conocimientos con la sub-competencia científica que desarrollan en mayor medida. Así, cabe esperar que el conocimiento de contenido facilitará, por ejemplo, en mayor medida la sub-competencia asociada a explicar fenómenos científicamente. Los conocimientos procedimental y epistémico facilitarán más las prácticas científicas de evaluar y diseñar una investigación e interpretar datos y pruebas científicamente (OCDE, 2016). Por otro lado, las prácticas científicas favorecen la búsqueda de pruebas, la discusión sobre su validez o la reconstrucción de estas (Milar, 1998), lo que permite trabajar la naturaleza de la ciencia (Lederman, 2006) o las ideas sobre ciencia (Millar, 1998).
Para realizar esta evaluación se han elaborado dos rúbricas, teniendo en cuenta las características de la SEA, una asociada a conocimientos y otra asociada a sub-competencias. En su diseño se ha incluido la demanda de aprendizaje recogido en las pruebas PISA 2015, 2018 y 2021 (OCDE, 2016; 2019; 2022) y que es analizada por Rosales Ortega et al. (2020).
Para evaluar la competencia científica se ha diseñado, a partir de la bibliografía, una herramienta que separa las tres sub-competencias científicas en tres dimensiones diferentes. A su vez, se ha atendido a la demanda cognitiva para evaluar dichas competencias. De esta forma, cada grupo puede alcanzar un nivel de profundidad del conocimiento según la demanda cognitiva que requiera para alcanzarlo. Al nivel alcanzado según demanda de aprendizaje le ha sido asociada una puntuación (que va desde 1 a 6 por los 6 niveles). Esta puntuación permite cuantificar los resultados de cada uno de los grupos según las tres sub-competencias y los tres contenidos y con ello analizar si la SEA es válida para el desarrollo de la competencia científica.
Resultados
A continuación, se analiza el desarrollo de la competencia científica a partir de las sub-competencias y los contenidos científicos, presentando en primer lugar, la rúbrica diseñada ad hoc para el análisis de cada uno de las dos partes.
Competencia científica
La rúbrica diseñada para evaluar cómo la SEA contribuye al desarrollo de las sub-competencias, de cuáles y en qué profundidad, se muestra en el tabla 4.
Tras aplicar la rúbrica a lo largo de todo el desarrollo de la SEA, en la tabla siguiente se muestran las sub-competencias desarrolladas por cada grupo y el nivel de demanda cognitiva alcanzado.
Hemos codificado los datos recogidos en la tabla anterior, presentando los resultados por grupos, de esta forma se puede ver el alcance de cada uno de los grupos según cada dimensión de las tres sub-competencias, siendo el nivel máximo de desarrollo de cada su-competencia de 18 puntos (6 puntos máximo por cada una de las tres dimensiones asociadas a cada una de las tres sub-competencias).
Analizando los resultados recogidos en la tabla 5 y en la figura 3, se observa que los grupos 1 y 4, han desarrollado con mayor profundidad las sub-competencias científicas analizadas con la rúbrica diseñada a tal efecto. La puntuación en el desempeño de las dimensiones suma 40 puntos en el caso del G1 y 36 en el G4, mientras que el G2 tiene una puntuación representativa del desarrollo de las sub-competencias de 30 puntos y el G3 de 15 puntos.
Dentro de cada sub-competencia, unos grupos desarrollan más unas dimensiones y otros otras distintas. Por ejemplo, el G1, ha desarrollado la sub-competencia de explicar fenómenos científicamente a través del uso de predicciones, hipótesis y relaciones causales o correlaciones simples. Por ejemplo, en la elección de la estación meteorológica, el grupo ha elegido la estación meteorológica estableciendo relación entre los rangos de medición de la estación con las características climatológicas de la zona: <<el rango de medición de la temperatura debe estar entre -10ºC y 50ºC, ya que en nuestra ciudad las temperaturas pueden ir desde los -3 hasta los 40ºC>>. Y, en mayor medida, este G1 ha desarrollado la competencia de interpretar datos y pruebas ya que ha recogido datos y sobre estos ha buscado argumentos y evidencias que fundamentaran esos datos. Por ejemplo, ha identificado un error en una de las propuestas de ubicación de la estación: <<colocamos la estación cerca del suelo, pero la temperatura medida era demasiado alta probablemente porque el suelo radiaba calor, por eso es necesario un lugar elevado para que la medida sea fiable>>. La demanda cognitiva desarrollada en esta sub-competencia va más allá de comprender y analizar, estos alumnos evalúan y proponen soluciones.
El G4, al igual que el G1, desarrolla la sub-competencia de interpretar datos y pruebas. Por ejemplo, ha comprobado que la estación medía correctamente algunas de las magnitudes realizando pruebas controlada (para comprobar el funcionamiento del pluviómetro ha añadido cantidades conocidas de agua o ha medido la temperatura en una habitación en distintos puntos para comprobar que la presencia de un radiador influía en dicha medida). Aunque no desarrolla tanto la sub-competencia de explicar fenómenos, si lo hace en la de evaluar y diseñar la investigación a través del planteamiento de objetivos claros y seguir una metodología de trabajo, por ejemplo, al realizar pruebas de medida antes de buscar directamente la ubicación, y también en la fundamentación basada en el análisis de trabajos o información científica existente, por ejemplo, consultando en la web los datos de estaciones meteorológicas cercanas.
Ponderando al 100% las competencias trabajadas a lo largo de la SEA por cada grupo (ver Figura 4), se puede observar la proporción interna (en cada grupo) del desarrollo de cada sub-competencia. Esto nos permite afirmar que, en general, la SEA ha favorecido el desarrollo de las sub-competencias 2 y 3 frente a la 1.
A continuación, se realiza un análisis de los resultados agrupados en competencias. En la figura 5, se han representado los resultados ponderados al tanto por ciento.
A partir de esta representación se puede observar que, las sub-competencias 2 y 3 han sido las más desarrolladas a lo largo del desarrollo de la SEA. Es decir, el alumnado en mayor medida, ha diseñado y evaluado metodologías de recogida y de análisis de datos científicos, más que interpretar fenómenos.
Conocimiento científicos
Para analizar los contenidos científicos que se han puesto en juego a lo largo del desarrollo de la SEA, se ha diseñado la rúbrica justificada y elaborada a partir de la bibliografía sobre la cuestión, que agrupa los contenidos científicos en tres modalidades: de contenido, procedimental y epistémico. A su vez, en cada tipo de conocimiento científico se han tenido en cuenta tres dimensiones asociadas a esta SEA. Este tipo de conocimiento se ha centrado en las magnitudes físicas trabajadas en la investigación. Por otro lado, y al igual que se ha hecho con las competencias científicas, se ha tenido en cuenta la demanda cognitiva requerida para utilizar en mayor o en menor medida los distintos conocimientos. Así se establecen 6 niveles de demanda cognitiva (ver tabla 6).
En la figura 6 se muestra, a través de una escala de colores, la demanda cognitiva con la que ha sido usado cada uno de los contenidos científicos por cada grupo.
A partir de estos resultados se procede a realizar un análisis equivalente al de las competencias científicas, de esta forma se realiza una comparativa entre los grupos y entre los contenidos, teniendo en cuenta el nivel máximo de demanda cognitiva que cada grupo ha alcanzado.
Se observa que los grupos G1 y G4 son los que en mayor profundidad han desarrollado cada uno de los tres conocimientos, obteniendo una puntuación de 48 y 42 respectivamente, seguidos del G2 con 39 puntos. Sin embargo, el grupo 3 se ha quedado lejos de desarrollar los conocimientos al mismo nivel de profundidad. En el conocimiento del contenido, estos grupos destacan en el conocimiento de las magnitudes físicas, teniendo presentes sus conocimientos sobre las mismas a la hora de tomar decisiones. Por ejemplo, los tres grupos proponen ubicaciones que cumplen con los requisitos establecidos para cada variable. También destacan en conocimiento procedimental. Por ejemplo, G2 aprovecha un día ventoso para realizar distintas pruebas de la medición de la velocidad y dirección del viento con la estación meteorológica. Estas pruebas consisten en medir en distintas ubicaciones, observando que <<en el patio había una velocidad de 17 km/h y en la azotea de 6 km/h>>, todo ello debido <<a que el edificio creaba corrientes muy fuertes de viento>>. En cuanto al conocimiento epistémico, es G4 quien más conocimientos demuestra. Por ejemplo, proponen evaluar definitivamente la ubicación elegida a partir de la comparación con datos oficiales de la AEMET (Agencia Estatal de Meteorología). Autores como Crujeiras et al. (2020) y Muñoz et al. (2020) investigaron sobre la argumentación en el alumnado como práctica vinculada a la manifestación del conocimiento epistémico del alumnado. Muñoz y Charro (2018) investigaron directamente la sub-competencia de interpretar datos y pruebas científicas, concluyendo todos en la dificultad del desarrollo del conocimiento epistémico del alumnado, lo que sustentaría los resultados obtenidos en este trabajo.
Por otro lado, se han representado porcentualmente el uso de estos conocimientos, correspondiendo el 100% al uso de dicho conocimiento al máximo nivel de demanda cognitiva dentro de cada grupo (ver figura 7), de manera que se puede observar en qué proporción se ha desarrollado cada conocimiento en cada uno de ellos. En este caso, la tendencia no es tan general como ocurría en el análisis de las sub-competencias científicas. Aquí se observa que solo en el G2, se puede concluir que el desarrollo del conocimiento C1, es menor que el C2 y C3. En el G4, parece que el conocimiento más desarrollado a lo largo de la SEA es el C3. En los grupos G1 y G3, el desarrollo de los tres conocimientos sería equivalente.
Se analiza también el desarrollo del desempeño de cada conocimiento a lo largo de la SEA (ver Figura 8).
Estos datos muestran que la SEA ha favorecido el uso de los conocimientos procedimental (C2) y epistémico (C3) frente al conocimiento del contenido (C1), en los cuatro grupos.
Observando estos resultados desde la perspectiva global de la SEA, se observa una tendencia similar a la que se viene estableciendo hasta ahora, en la que destacan el grupo 1 y 4. Sin embargo, el uso de los conocimientos científicos 2 y 3 por parte del grupo 2 lo ha colocado entre los grupos de mayor rendimiento en este aspecto.
Discusión y conclusiones
En esta investigación se ha evaluado la calidad de una SEA diseñada para el desarrollo de la competencia científica, utilizando como herramienta una estación meteorológica.
La competencia científica viene determinada por tres sub-competencias científicas (OCDE, 2016; 2019; 2022): explicar fenómenos científicamente; evaluar y diseñar una investigación científica; e interpretar datos y pruebas, vinculadas a conocimientos de contenido, procedimental y epistémico.
Para la evaluación del desarrollo de la competencia científica a lo largo de la SEA, se han diseñado y usado dos herramientas, la primera es una rúbrica para evaluar las tres sub-competencias científicas y la segunda es una rúbrica para evaluar los conocimientos científicos (Rosales Ortega et al., 2020).
En esta investigación se ha diseñado una secuencia de actividades, contextualizada, que persigue facilitar el desarrollo de las sub-competencias científicas del alumnado así como de conocimientos científicos específicos. Para evaluar el alcance de ambos, se han elaborado dos rúbricas ad-hoc.
Los resultados obtenidos muestran que la secuencia de enseñanza aprendizaje diseñada e implementada ha favorecido el desarrollo de las tres sub-competencias, aunque en mayor medida la segunda y tercera frente a la primera sub-competencia. Tal y como afirma Sanmartí (2020), el desarrollo de las prácticas científicas está vinculado a la búsqueda de pruebas, la discusión sobre su validez o la reconstrucción de dichas pruebas, tal como se concluye en esta investigación. Por otro lado, y aunque en menor medida, la primera competencia científica, explicar fenómenos científicamente, también ha sido desarrollada a lo largo de la secuencia. En este sentido, se puede afirmar que la utilización de la estación meteorológica como instrumento científico ha facilitado el desarrollo de las tres sub-competencias científicas, destacando la competencia científica de carácter más práctico, como son la evaluación y diseño de una investigación o la interpretación de datos y pruebas científicamente.
En la rúbrica diseñada para la evaluación del conocimiento científico, establecen tres modalidades (OCDE, 2016; 2019; 2022): de contenido, procedimental y epistémico. El uso de cada uno de estos conocimientos no es exclusivo de cada competencia, ahora bien, el desarrollo de la segunda y tercera competencia necesita de un mayor uso de los conocimientos segundo y tercero a su vez, por lo que cabía esperar un mayor desarrollo y uso de los conocimientos procedimental y epistémico dentro de la secuencia, tal y como ha resultado. El conocimiento procedimental se entiende como un conocimiento de las pruebas (Gott et al., 2008; Millar, 1995), y el uso que se puede hacer de ellas (OCDE, 2016; 2019; 2022). La obtención de datos y el uso de estos como pruebas ha estado presente en varios momentos de la secuencia demostrando el desarrollo de este desempeño en el uso del conocimiento procedimental. El conocimiento epistémico requiere de la comprensión de las preguntas, de hipótesis o de los argumentos dentro de la ciencia (Rosales Ortega et al., 2020), facilitando la construcción de conocimiento científico (Duschl, 2007). En este sentido, el alumnado ha necesitado emitir hipótesis, obtener datos para verificarlas y después argumentar dichos resultados. Esto les ha permitido acercarse a la forma de trabajo de los científicos y a conocer en primera persona algunos de los métodos propios de la ciencia. Con ello, se puede afirmar que el uso de la SEA utilizando una estación meteorológica como instrumento, ha favorecido el desarrollo de los conocimientos científicos procedimental y epistémico, y aunque en menor medida también el conocimiento del contenido.
El tamaño de la muestra de estudio es una posible limitación, sin embargo al ser una muestra pequeña nos ha permitido realizar un análisis en profundidad, a través del análisis mediante rúbricas, que “ayuda a comprender mejor el grado de competencia de los estudiantes” (Blanco y Díaz, 2017, p. 518).
Habiendo identificado los resultados mostrados, consideramos que este trabajo puede continuar en un futuro próximo a través de la propuesta de mejora de implementar de nuevo la secuencia con nuevo alumnado y evaluar en concreto las prácticas de la indagación y de la argumentación, de manera que se lleve a cabo un análisis cualitativo que permita vincular dichas prácticas científicas con los resultados alcanzados en relación a las sub-competencias científicas.
Materiales suplementarios
Anexo I (pdf)
Agradecimientos
Esta investigación se ha desarrollado dentro del contexto de la tesis doctoral de J. Pozuelo Muñoz, cuya directora de tesis ha sido E. Cascarosa Salillas. Ambos autores agradecen a todos y todas las participantes en el desarrollo del estudio su dedicación y generosidad. Los autores agradecemos también al grupo Beagle de referencia en investigación en didáctica de las ciencias experimentales y al Instituto IUCA de investigación en ciencias ambientales de Aragón, ambos de la Universidad de Zaragoza, su respaldo en esta investigación.
Referencias
Aguilar, S. y Barroso, J. (2015). La triangulación de datos como estrategia en investigación educativa. Pixel-Bit. Revista de Medios y Educación, 47, 73-88.
Blanco Anaya, P. y Díaz de Bustamante, J. (2017) Análisis del nivel de desempeño para la explicación de fenómenos de forma científica en una actividad de modelización. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 14(3), 505-520. https://doi.org/10498/19504
Blanco A. y Lupión T. (2015). La competencia científica en las aulas. Nueve propuestas didácticas. Andavira Editora.
Caamaño, A. (2012). ¿Cómo introducir la indagación en el aula? Alambique: Didáctica de las ciencias experimentales, 70, 83-92.
Caamaño, A. (2018). Enseñar química en contexto: Un recorrido por los proyectos de química en contexto desde la década de los 80 hasta la actualidad. Educación química, 29(1), 21-54. https://doi.org/10.22201/fq.18708404e.2018.1.63686
Cascarosa-Salillas, E., Pozuelo-Muñoz, J. y Feringán, B. (2021). Old instruments in the physics and chemistry cabinet al Goya Secondary School. Analysis of their didactic use in teaching physics today. Culture and Education, 33(3), 556-572. https://doi.org/10.1080/11356405.2021.1949113
Chamizo, J. y Izquierdo, M. (2005). Ciencia en contexto: Una reflexión desde la filosofía. Alambique: Didáctica de las ciencias experimentales, 46, 9-17.
Cobern, W. W., Schuster, D., Adams, B., Applegate, B., Skjold, B., Undreiu, A., Loving, C. C. y Gobert, J. D. (2010). Experimental comparison of inquiry and direct instruction in science. Research in Science & Technological Education, 28(1), 81-96.
Couso, D. (2020). Aprender ciencia escolar implica construir modelos cada vez más sofisticados de los fenómenos del mundo. En Enseñando Ciencia con Ciencia (FECYT&Fundación Lilly). Penguin Random House.
Crujeiras-Pérez, B. (2017) Análisis de las estrategias de apoyo elaboradas por futuros docentes de educación secundaria para guiar al alumnado en la indagación. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 14(2), 473–486. https://doi.org/ 10498/19230
Crujeiras-Pérez, B. y Cambeiro, F. (2018). Una experiencia de indagación cooperativa para aprender ciencias en educación secundaria participando en las prácticas científicas. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 15(1), 1201.
Crujeiras-Pérez, B., Martín-Gámez, C., Díaz-Moreno, N. y Fernández-Oliveras, A. (2020). Trabajar la argumentación a través de un juego de rol: ¿debemos instalar el cementerio nuclear? Enseñanza de las Ciencias, 38(3), 125-142 https://doi.org/10.5565/rev/ensciencias.2888
Crujeiras Pérez, B. y Jiménez Aleixandre, M. P. (2015). Análisis de la competencia científica de alumnado de secundaria: respuestas y justificaciones a ítems de PISA. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 12(3), 385-401. https://doi.org/10498/17598
Duschl, R. A. (2007). Science education in three-part harmony: Balancing conceptual, epistemic and social learning goals. Research in Education, 32, 268-291.
Ferrés-Gurt, C. (2017). El reto de plantear preguntas científicas investigables. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 14(2), 410-426.
Ferrés-Gurt, C., Marbà-Tallada, A. y Sanmartí, N. (2014). Trabajos de indagación de los alumnos: Instrumentos de evaluación e identificación de dificultades. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 12(1), 22-37.
Franco-Mariscal, A.J., Blanco-López, A. y España-Ramos, E. (2014). El desarrollo de la competencia científica en una unidad didáctica sobre la salud bucodental. Diseño y análisis de tareas. Enseñanza de las Ciencias, 32(3), 649-667.
Franco-Mariscal, A.J., Blanco-López, A. y España-Ramos, E. (2017). Diseño de actividades para el desarrollo de competencias científicas. Utilización del marco de PISA en un contexto relacionado con la salud. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias 14(1), 38-53. https://doi.org/ 10498/18845
Gallardo-Gil, M., Fernández-Navas, M., Sepúlveda-Ruiz, M. P., Serván, M. J., Yus, R. y Barquín, J. (2010). PISA y la competencia científica: Un análisis de las pruebas de PISA en el Área de Ciencias. Relieve, 16(2), 1-17.
Gallardo Gil, M., Mayorga Fernández, M. J. y Sierra Nieto, J. E. (2014). La competencia de conocimiento e interacción con el mundo físico y natural’: Análisis de las pruebas de evaluación de diagnóstico de Andalucía. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias 11(2), 160-180. https://doi.org/ 10498/15973
García-Carmona, A. (2020). STEAM, ¿una nueva distracción para la enseñanza de la ciencia?. Ápice. Revista De Educación Científica, 4(2), 35-50. https://doi.org/10.17979/arec.2020.4.2.6533
Gott, R., Duggan, S. y Roberts, R. (2008). Concepts of evidence and their role in open-ended practical investigations and scientific literacy. Sociology: UK.
Guisasola, J., Ametller, J. y Zuza, K. (2021). Investigación basada en el diseño de Secuencias de Enseñanza-Aprendizaje: Una línea de investigación emergente en Enseñanza de las Ciencias. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 18(1), 1801-1801. https://doi.org/10.25267/Rev_Eureka_ensen_divulg_cienc.2021.v18.i1.1801
Kuhn, D. (2010). Teaching and learning science as argument. Science Education, 60(3), 299-312. https://doi.org/10.1002/sce.20395
Lederman, N. G. (2006). Nature of science: Past, present and future. En S. K. Abell & N. G. Lederman (Eds.), Handbook of Research on Science Education (pp. 831-879). Lawrence Erlbaum.
Lijnse, P. L. y Klaassen, C. W. J. M. (2004). Didactical structures as an outcome of research on teaching–learning sequences? International Journal of Science Education, 26(5), 537-554. https://doi.org/10.1080/09500690310001614753
Millar, R. (1995). Investigating in the school science laboratory: Conceptual and procedural knowledge and performance. Research Papers in Education, 9(2), 207-248.
Millar, R. (1998). Beyond 2000: Science Education for the future. King’s college.
Muñoz Campos, V., Franco-Mariscal, A. J. y Blanco-López, Á. (2020). Integración de prácticas científicas de argumentación, indagación y modelización en un contexto de la vida diaria. Valoraciones de estudiantes de secundaria. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 17(3), 3201. https://doi.org/10.25267/Rev_Eureka_ensen_divulg_cienc.2020.v17.i3.3201
Muñoz Martínez, J. I. y Charro Huerga, E. (2023). El desarrollo de Competencias Científicas a través de una línea de saberes: Un análisis experimental en el aula. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 20(2). https://doi.org/10.25267/Rev_Eureka_ensen_divulg_cienc.2023.v20.i2.2101
Muñoz, J. y Charro, E. (2018). La Interpretación de Datos y Pruebas Científicas vistas desde los Ítems liberados de PISA. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 15(2), 2101. https://doi.org/10.25267/Rev_Eureka_ensen_divulg_cienc.2018.v15.i2.2101
OCDE. (2009). El programa PISA de la OCDE. Qué es y para qué sirve. Santillana.
OCDE. (2016). PISA 2015 Assessment and Analytical Framework: Science, Reading, Mathematic and Financial Literacy. OEDC Publisching.
OCDE. (2019). PISA 2018 Assessment and Analytical Framework [PISA]. https://doi.org/10.1787/b25efab8-en
OCDE. (2022). PISA 2021 Assessment and Analytical Framework [PISA].
Osborne, J. (2010). Arguing to learn in science. Science, 328(5977), 463-466. https://doi.org/10.1126/science.1183944
Osborne, J., Henderson, J. B., MacPherson, A., Szu, E., Wild, A. y Yao, S. Y. (2016). The development and validation of a learning progression for argumentation in science. Journal of Research in Science Teaching, 53(6), 821-846. https://doi.org/10.1002/tea.21316
Pedrinaci, E. (2013). Alfabetización en ciencias de la Tierra y competencia científica. Enseñanza de las Ciencias de la Tierra, 21(2), 208-214.
Pedrinaci, E., Caamaño i Ros, A., Cañal, P. y Pro Bueno, A. de. (2012). El desarrollo de la competencia científica: 11 ideas clave. Barcelona: Graó.
Romero-Ariza, M. (2017). El aprendizaje por indagación: ¿existen suficientes evidencias sobres sus beneficios en la enseñanza de las ciencias? Revista Eureka sobre enseñanza y divulgación de las ciencias, 14(2), 286-299. http://dx.doi.org/10.25267/Rev_Eureka_ensen_divulg_cienc.2017.v14.i2.01
Rosales Ortega, E. M., Rodríguez Ortega, P. G. y Romero Ariza, M. (2020). Conocimiento, demanda cognitiva y contexto en la evaluación de la alfabetización científica en PISA. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 17(2), 2302. http://dx.doi.org/10.25267/Rev_Eureka_ensen_divulg_cienc.2020.v17.i2.2302
Sanmartí, N. (2020). Qué sabemos de la importancia del valor del error y de su gestión para el aprendizaje. En Enseñando Ciencia con Ciencia (FECYT&Fundación Lilly). Penguin Random House.
Sanmartí, N. y Hinojosa, J. (2015). La autorregulación metacognitiva como medio para facilitar la transferencia en mecánica. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 12(2), 249-263. http://dx.doi.org/10.25267/Rev_Eureka_ensen_divulg_cienc.2015.v12.i2.02
Woods-McConney, A., Oliver, M., McConney, A., Schibeci, R. y Maor, D. (2014). Science Engagement and Literacy: A retrospective analysis for students in Canada and Australia. International Journal of Science Education, 36. https://doi.org/10.1080/09500693.2013.871658
Yus Ramos, R., Fernández Navas, M., Gallardo Gil, M., Barquín Ruiz, J., Sepúlveda Ruiz, M. P. y Serván Núñez, M. J. (2013). La competencia científica y su evaluación. Análisis de las pruebas estandarizadas de PISA. Revista de Educación, 360, 557-576.
Información adicional
Para citar este artículo: Pozuelo Muñoz, J. y Cascarosa Salillas, E. (2023). Diseño y uso de herramientas para el análisis del desarrollo de la Competencia Científica en el contexto de una Secuencia de Enseñanza Aprendizaje en Educación Secundaria. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias 21(2), 2301. doi: 10.25267/Rev_Eureka_ensen_divulg_cienc.2024.v21.i2.2301