Servicios
Descargas
Buscar
Idiomas
P. Completa
La fiabilidad de la información sobre ciencia de Internet y criterios utilizados para justificarla por parte de estudiantes de educación secundaria
Daniel Valverde-Crespo; Antonio de Pro Bueno; Joaquín González-Sánchez
Daniel Valverde-Crespo; Antonio de Pro Bueno; Joaquín González-Sánchez
La fiabilidad de la información sobre ciencia de Internet y criterios utilizados para justificarla por parte de estudiantes de educación secundaria
Reliability of Internet science information for high school students and robustness of the criteria used to justify it
Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, vol. 19, núm. 3, pp. 310301-310323, 2022
Universidad de Cádiz
resúmenes
secciones
referencias
imágenes

Resumen: En este trabajo se pretende estudiar cómo el alumnado de Educación Secundaria Obligatoria (ESO) valora la fiabilidad de la información que contiene Internet para realizar una actividad de búsqueda de información en la asignatura de física y química. Para ello, participaron 156 estudiantes de esta etapa educativa, de 3º y 4º de ESO, de cuatro Institutos del municipio de Murcia. En la tarea planteada debían responder un cuestionario sobre el concepto de lluvia ácida y podían usar dos páginas web seleccionadas de forma autónoma para resolverlo. Una vez realizada la actividad, se les planteó unas cuestiones sobre las páginas utilizadas, la credibilidad del contenido encontrado y las razones o criterios utilizados para otorgarle dicha fiabilidad. Además, se estudió la dependencia de la fiabilidad otorgada a las páginas web con algunas variables sociales (edad, género, centro educativo) y su relación con la eficacia en la búsqueda de información en Internet. Los resultados muestran aportaciones para conocer mejor la competencia digital adquirida por los participantes.

Palabras clave: Competencia digital, Aprendizaje de las ciencias, Internet, Educación secundaria, Criterios de credibilidad.

Abstract: This paper aims to study how the students of Compulsory Secondary Education (ESO) valued the reliability of the information contained in the Internet to carry out a task in a science class. To do this, 156 students from this educational stage, from 3rd and 4th of ESO, from four institutes in the municipality of Murcia took part in the study. We set them a task: they had to answer some questions about “acid rain” and they could use two web pages that the participants could independently select. Once the activity has been carried out, we ask them some questions about the pages used, the credibility of the content found and the reasons or criteria used to grant it such reliability. In addition, we study the dependence of the reliability with some social variables (age, gender, center) and the relationship between the reliability granted and the efficiency in the search for information. The results show contributions to better understand digital competence developed by the particpants.

Keywords: Digital competence, Science learning, Internet, Secondary education, Credibility criteria.

Carátula del artículo

Fundamentos y líneas de trabajo

La fiabilidad de la información sobre ciencia de Internet y criterios utilizados para justificarla por parte de estudiantes de educación secundaria

Reliability of Internet science information for high school students and robustness of the criteria used to justify it

Daniel Valverde-Crespo
IES Ricardo Ortega. Fuente Álamo de Murcia, Región de Murcia, España
Antonio de Pro Bueno
Departamento de Didáctica de las Ciencias Experimentales. Facultad de Educación, Universidad de Murcia, España
Joaquín González-Sánchez
Departamento de Química Física. Facultad de Química, Universidad de Murcia, España
Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, vol. 19, núm. 3, pp. 310301-310323, 2022
Universidad de Cádiz

Recepción: 11 Febrero 2022

Revisado: 09 Mayo 2022

Aprobación: 10 Julio 2022

Introducción

Actualmente, los dispositivos tecnológicos, el acceso a Internet, las redes sociales o el correo electrónico forman parte de la vida cotidiana de gran parte de la sociedad. Según el Instituto Nacional de Estadística (INE, 2019) en 2019 el 91,4% de los domicilios en España tiene acceso a Internet y el 98% de los adolescentes de 15 años son usuarios de la red. Además, según la Encuesta de Percepción Social de la Ciencia, elaborada por la Fundación Española para la Ciencia y la Tecnología (Revuelta y Corchero, 2016), Internet es el primer medio para acceso y consulta de información sobre ciencia o cuestiones de carácter científico de los jóvenes entre 15 y 24 años, siendo las redes sociales y YouTube las principales fuentes para ello.

Como fuente de información, en Internet encontramos noticias o documentos sobre salud (nuevos fármacos, vacunas, consejos sobre alimentación o dietética, riesgos, dispositivos tecnológicos, terapias alternativas, etc.), sobre problemas ambientales (cambio climático, contaminación, basuras, residuos nucleares, etc.) o sobre consumo (medios de trasporte, ahorro energético, coste del gas o de la electricidad, etc.); todas ellas son temáticas que deben trabajarse en las clases de ciencias durante la educación obligatoria y, en muchos casos, van a ser consultadas por nuestro alumnado. Sin embargo, como señala Solli (2019), con frecuencia aparecen afirmaciones, posiciones o argumentos que contradicen los hallazgos y avances científicos, opiniones interesadas que se trasmiten como "verdades incuestionables". Como denuncian Castells et al. (2020), emulando el estilo del discurso científico, se propagan contenidos de pseudociencias, sobre todo a través de las redes sociales, de forma anónima y sin verificar.

Precisamente porque la cantidad no es sinónimo de calidad, desde hace años, se advierte sobre los problemas asociados a la fiabilidad y sobre la necesidad de dotar a los ciudadanos de criterios o pautas que permitan hacer frente a ciertos contenidos presentes en Internet tales como bulos, fake news, información sesgada, mercadotecnia, desinformación intencionada, etc. No podemos olvidar los efectos nocivos y las consecuencias que todo ello puede suponer a la ciudadanía originando una situación de desestabilización y confusión continua (McDougall, Brites, Couto y Lucas, 2019) que, como señalan Osborne et al. (2022), incluso puede dañar o distorsionar la imagen pública y social de la ciencia.

En este sentido, hay aportaciones interesantes tanto para divulgar como para contrastar una noticia (por ejemplo, los trabajos de Fernández, Mecha y Milán, 2018; Fernández, del Pozo, Méndez y Casas, 2021). Se han realizado informes para actuar en situaciones tan propicias para la desinformación como la existencia de una pandemia (Salaverría, 2021). También empiezan a “tener audiencia” las plataformas creadas específicamente para denunciarlas; por ejemplo, Newtral (http://www.newtral.es/topic/ciencia), Maldita ciencia (http://www.maldita.es/metodologia-de-maldita-ciencia) o la Agencia SINC de la FECYT (https://www.agenciasinc.es/), etc. Sin duda, son pasos importantes, pero aún insuficientes.

Por todo ello, la llamada alfabetización mediática ha despertado el interés de la comunidad educativa y, dado el uso creciente y generalizado de Internet, ha ampliado el campo de la competencia digital (Osuna, Frau y Marta, 2018). Por ello, disponer de competencias para comprender cualquier información, valorar su fiabilidad o actuar frente a ella, se ha convertido en un objetivo en la educación obligatoria. No obstante, en este trabajo, sólo nos vamos a ocupar de la competencia digital en la Didáctica de las Ciencias Experimentales (DCE).

Antecedentes de la investigación

El marco que utilizamos para el desarrollo y concreción de la competencia digital en la DCE es el DigComp: A Framework for Developing and Understanding Digital Competence in Europe (Ferrari, 2013), y sus posteriores actualizaciones; en éste precisamente es en el que se apoya nuestra legislación educativa (MECD, 2015).

En dicho marco se contemplan cinco dimensiones para la competencia digital: Información, Comunicación, Creación de contenido, Seguridad y Resolución de problemas. Este trabajo pretende aportar datos a la primera y, dentro de la misma, a una subcompetencia que define como: "recopilar, procesar, comprender y evaluar críticamente información" (Ferrari, 2013, p.16), que incluye descriptores como (Ferrari, 2013, p.16-17):

"Comprende la fiabilidad de las diferentes fuentes".

"Juzga la validez del contenido que se encuentra en Internet o en los medios, evalúa e interpreta la información".

"Evalúa la utilidad, oportunidad, precisión e integridad de la información".

"Puede comparar, contrastar e integrar información de diferentes fuentes".

Hay consenso en que las habilidades para buscar, sintetizar, analizar y comunicar la información disponible se consideran competencias científicas deseables para toda la ciudadanía, lo que debería convertirlas en prioritarias en la alfabetización científica en la escolaridad obligatoria, como muestran Blanco-López, España-Ramos, González-García y Franco-Mariscal (2015).

En esta línea, Cañal (2012) identificó cuatro dimensiones en la evaluación de las competencias: conceptual, procedimental, actitudinal e integrada. En relación con la primera resaltaba la capacidad de diferenciar las interpretaciones acordes con la ciencia de las no científicas. Respecto a la segunda indicaba la necesidad de un desarrollo profundo de las destrezas comunicativas. En la actitudinal, que esta competencia debía capacitar para valorar la calidad de la fuente y su contenido, para ser críticos, para analizar la coherencia de los argumentos utilizados en la información... Esto implica, según Solli (2019), una comprensión de cómo y para qué se elabora el conocimiento científico.

Pero esto exige que, en la educación obligatoria, los estudiantes no sólo deben ser capaces de distinguir entre fuentes de información fiables y no fiables. Pedrinaci, Caamaño, Cañal y de Pro (2012) amplían el ámbito de la competencia digital e incluyen otras subcompetencias: “Buscar y seleccionar fuentes”, “Buscar y seleccionar información en dichas fuentes”, “Utilizar la información para comparar, clasificar, cuantificar, relacionar, inferir, etc”, “Valorar la información, posicionarse ante ella, aplicarla a otras situaciones”, etc.

Probablemente por la importancia educativa que está adquiriendo este tema, en la actualización del ámbito científico para PISA 2024 (OECD, 2020) se ha incluido una competencia evaluable que se denomina "Investigar y evaluar la información". Según la misma, los jóvenes deben ser capaces de buscar información de forma crítica reconociendo fuentes poco fiables o no fiables. Para ello deben conocer sus características, identificar sus posibles sesgos u omisiones, tomar conciencia de que pueden necesitar varias búsquedas usando diferentes términos, o incluso cambiando los buscadores, etc. si desea obtener respuestas en las que se pueda confiar. Como señala Forzani (2018) las disciplinas científicas y su enseñanza se basan en la fiabilidad de la información existente para construir una comprensión precisa y sólida a lo largo del tiempo.

En la investigación en DCE encontramos algunos estudios empíricos que han puesto de manifiesto que los estudiantes de educación secundaria no están adquiriendo algunas subcompetencias de la competencia digital. Así, Valverde-Crespo, Pro-Bueno y González-Sánchez (2020a), en el desarrollo de una actividad de clase sobre reacciones químicas en las que usaban Internet, pudieron apreciar que no tenían dificultades para localizar la información y “cortar y pegar” la contestación a la cuestión planteada. Ahora bien, cuando debían “utilizar el contenido de la información recogida” (inferir información a partir de un texto, localizar errores, interpretar la intencionalidad de un contenido, etc.), mostraban dificultades.

En otro trabajo, muy relacionado con este (Valverde-Crespo, Pro-Bueno y González-Sánchez, 2020b), se pedía a los participantes que respondieran unas cuestiones sobre la lluvia ácida usando Internet. Este se situaba en la dimensión “Navegación y búsqueda” del área Información, siguiendo la categorización de Ferrari (2013). En dicha situación, ya percibimos que habían “automatizado” el proceso de búsqueda, sin pensar previamente qué se les pedía o qué necesitaban y sin planificar una estrategia de resolución. Fueron muy homogéneos para seleccionar las páginas que habían precisado para resolver la tarea. También identificamos algunas secuencias utilizadas en la búsqueda de respuestas. Aunque las preguntas planteadas no eran complejas, también hubo algunas con dificultad para resolverlas.

En dicho trabajo, para describir los resultados en cuanto a la “eficacia en la Navegación y búsqueda” (variable que agrupaba los valores sobre la secuencia de acciones realizadas, el motor de búsqueda, la navegación, la adecuación de las respuestas, etc.) se establecieron cuatro niveles de desarrollo de cada capacidad: ningún desarrollo (N); desarrollo básico (B); desarrollo intermedio (Int) y desarrollo avanzado (A). En la Tabla 1 se recuerdan los resultados obtenidos en las distintas categorías de la subcompetencia digital “Navegación, búsqueda y filtrado”.

Tabla 1
Resultados obtenidos en la eficacia de "Navegación y búsqueda de información" (Valverde-Crespo et al,. 2020b).

Los trabajos de otros autores (Calvani, Fini, Ranieri y Picci, 2012, Colás, Conde y Reyes, 2017) también han puesto de manifiesto que los estudiantes se auto-perciben como competentes en aspectos instrumentales (navegar, buscar información, manejar programas) y en tareas cotidianas (ocio, comunicación, trabajos escolares...). Sin embargo, muestran bajos resultados competenciales en tareas de mayor complejidad al tratar la información: valorar su calidad, indagar en la solvencia de la fuente de información, realizar inferencias a partir del contenido, preocuparse por la ciberseguridad, tener comportamientos éticos, velar por la privacidad, etc.

Respecto a la valoración de la fiabilidad de la información encontrada, el International Computer and Information Literacy Study 2018 (ICILs), realizado por la International Association for the Evaluation of Educational Achievement (IEA, 2020) -con 46.000 estudiantes de secundaria de 14 países- arroja datos preocupantes. Entre ellos señala que sólo el 2% de los participantes mostró capacidad para evaluar críticamente la información que obtenía en Internet, quedando el 18% por debajo del nivel más bajo de competencias informacionales que contempla el estudio. Esto sugiere que el manejo diario, y desde edades tempranas, de las TIC no supone en sí mismo una mejora en el desarrollo de las competencias en un gran número de adolescentes.

Esta paradoja también se señala en el trabajo de Macedo-Rouet et al. (2019), aunque, en este caso y según los autores, los resultados pueden estar condicionados por otro factor: los conocimientos previos acerca de la temática sobre la que versa la información. De acuerdo con Forzani (2018), dichos conocimientos son un factor predictivo a la hora de valorar información de forma crítica por parte del alumnado. Por contra, Tseng (2018), con una metodología similar pero utilizando el texto de un blog contrario a las vacunas, encontró que los conocimientos previos de los estudiantes sobre vacunación no resultaron determinantes para que pudiesen valorar la fiabilidad global de la fuente; algunos valoraron críticamente la misma por su inteligibilidad (lenguaje persuasivo, razonamiento y método, empleo de términos vagos o ambiguos...), credenciales del autor, etc., a pesar de las inconsistencias con sus creencias sobre vacunación.

Son varias las causas de este bajo nivel de los estudiantes para valorar la fiabilidad de la información de Internet. Queremos señalar dos:

• En primer lugar, se destaca que la mera incorporación de las TIC a los centros educativos no ha supuesto una mejora en la adquisición de estas subcompetencias que conforman la competencia digital, algo que no debe sorprender si no van acompañados de otras actuaciones. Investigaciones con docentes (Gómez-Crespo, Cañas, Gutiérrez y Martín-Díaz, 2014) han puesto de manifiesto que muchos se muestran inseguros cuando usan estos recursos en sus aulas o frustrados al proponer actividades con ellas y no observar las expectativas de aprendizaje previstas. El ICILs (IEA, 2020) señala que sólo el 32% del profesorado utiliza dichos recursos; que necesita formación y que, para mejorar su actitud, es preciso que institucionalmente se realicen proyectos colaborativos entre docentes.

• En segundo lugar, se piensa que las competencias digitales se adquieren por el uso cotidiano de la tecnología. A pesar de que el ICILs (IEA, 2020) hablaba de que el 70% de los adolescentes ha utilizado materiales escolares en formato digital (libros digitales, vídeos...), sus competencias tienen un origen mayoritariamente extraescolar y se describen como superficiales, irreflexivas, carentes de sentido crítico, muy arraigadas y difíciles de modificar (Colwell, Hunt y Reinking, 2013).

Ahora bien, además de la fiabilidad de información, nos parece importante conocer los motivos o causas que utilizamos para dotarle de credibilidad; lo que hemos denominado la solidez de la argumentación para defender o cuestionar la credibilidad de una noticia. Esta variable -que vamos a estudiar en este trabajo- tiene como referentes las aportaciones de Fornás (2003) y Martínez (2016), que comentaremos en secciones posteriores.

Por último, también encontramos algunas propuestas de enseñanza que han tenido un cierto éxito de cara al aprendizaje de las Ciencias (Colwell et al., 2013; Witzig, Halverson, Siegel y Freyemurth, 2013; Mason, Junyent y Tornatora, 2014; Franco-Mariscal, Blanco-López y España-Ramos, 2014; Franco-Mariscal, 2015; Bravo-Torija y Jiménez Alexandre (2018); Cebrián, 2019; Wiblom, Rundgren y Andreé, 2019). Éstas comparten algunos aspectos:

• Que parten de cuestiones socio-científicas (SSI) que generan controversias, que exigen poner de manifiesto diferentes puntos de vista y que rara vez tienen una solución única.

• Que precisan de un enfoque guiado -por medio de materiales, herramientas o puestas en común con el profesorado- para dotar de criterios específicos a los estudiantes para evaluar las fuentes.

• Que se usen criterios concretos para indagar en la objetividad de la información, su autoría, el tipo de web, si ésta se basaba en hechos, opiniones u otras intencionalidades, etc.

No obstante, creemos que aún son necesarios más estudios que permitan conocer la realidad que tenemos, tanto del profesorado como del alumnado. Este conocimiento es obligado para diseñar intervenciones que mejoren la adquisición de la competencia científico-digital.

Por ello, dado que ya abordamos la temática de la “Navegación y búsqueda en Internet” en otro trabajo (Valverde-Crespo et al., 2020b), el objetivo del presente estudio es conocer la fiabilidad que dichos estudiantes de Educación Secundaria Obligatoria (ESO) les otorgaban a unas páginas webs que habían utilizado en una tarea de clase de ciencias, e indagar sobre la solidez de los criterios que utilizaban para dicha valoración. También queremos estudiar si existe una dependencia de los resultados de estas variables con otras de carácter social y las relaciones existentes entre las variables estudiadas (eficacia en la “Navegación y búsqueda”, “Fiabilidad otorgada a la información” y “Solidez de argumentos de valoración”).

Para ordenar las respuestas, planteamos cuatro problemas de investigación:

• Pregunta de investigación 1 (RQ1): ¿Cómo valoran los estudiantes la fiabilidad de dos páginas web, que utilizan en la realización de una tarea de búsqueda de información?

• Pregunta de investigación 2 (RQ2): ¿Qué criterios utilizan estos estudiantes para valorar la fiabilidad de dichas páginas web? ¿Qué solidez tienen los criterios utilizados?

• Pregunta de investigación 3 (RQ3): ¿Existe una relación significativa entre la valoración de la fiabilidad y los criterios que la justifican, y alguna variable de carácter social (por ejemplo, el género, la edad, y el centro educativo)?

• Pregunta de investigación 4 (RQ4): ¿Existe una relación significativa entre la valoración de la fiabilidad, los criterios que la justifican, y la eficacia en el uso de la “Navegación y búsqueda”?

Marco empírico

Como señala Mateo-Andrés (2014), si queremos determinar o explorar una situación concreta e intentar responder a cuestiones sobre la misma, se utiliza un diseño ex post-facto descriptivo Vamos a describir los elementos más importantes de la metodología utilizada.

Participantes y contexto

En el estudio participaron 156 estudiantes de ESO, de cuatro Institutos (IES) públicos de Murcia (España). La edad de los participantes oscilaba entre los 14 y los 16 años. Pertenecían a 3º de ESO (78 participantes) y 4º de ESO (78 participantes). Todos cursaban la materia de Física y Química y fue, en esta asignatura, donde se recogió la información.

No utilizamos ninguna técnica de muestreo para seleccionar a los participantes. Realizamos la experiencia con todos los estudiantes disponibles en los IES seleccionados; tanto los equipos directivos, como el profesorado y ellos mismos se mostraron favorables a colaborar. Los centros se encontraban en zonas urbanas con un nivel socioeconómico medio-alto.

Experiencia realizada: recogida y análisis de información

Como dijimos, para aportar datos a nuestro estudio se planteó una actividad en las clases de ciencias, en la que los participantes tuvieron que poner en juego sus competencias para resolverla. Aunque en otro trabajo (Valverde-Crespo et al., 2020b) hemos estudiado el proceso técnico de navegación, búsqueda y selección de información, y la eficacia para resolver las cuestiones científicas planteadas, en éste nos ocuparemos sólo de la valoración que hacen de la fiabilidad de las fuentes seleccionadas y de los criterios utilizados para valorar dicha credibilidad.

En la tarea que les planteamos debían responder individualmente unas preguntas sobre la lluvia ácida (qué es, si es un problema ambiental, de qué tipo de proceso se trata y por qué, y qué medidas habría que tomar para combatirla). Para hacerlo, cada participante disponía de un ordenador, un ordenador portátil o una Tablet (todos estos dispositivos eran conocidos y utilizados habitualmente por los estudiantes en sus clases). Les indicamos que podían utilizar un máximo de dos páginas web para resolver las cuestiones y les limitamos el tiempo para realizar la tarea a una hora. La hoja de trabajo del alumnado tenía tres partes: una sobre la secuencia de acciones realizadas para localizar cada página de Internet; otra para responder las preguntas indicadas y, en el Anexo 1, se recogen las cuestiones que corresponden a este trabajo.

Ahora bien, una vez recogida la información de esta parte del cuestionario, se realizó un vaciado de tipo inductivo o de categorización abierta; con ello, pudimos describir las respuestas dadas por los participantes en torno a:

• qué páginas habían seleccionado los estudiantes para resolver la tarea.

• qué grado de fiabilidad le otorgaron a la información localizada en las dos páginas web elegidas, respondiendo las opciones “Mucha”, “Poca” o “Nada”.

Para analizar y valorar la calidad de los criterios y argumentos empleados por los estudiantes, aplicamos un procedimiento de categorización cerrada, elaborado a partir de los trabajos de Fornás (2003) y Martínez (2016). Establecimos y definimos los posibles criterios (se exponen en la Tabla 2), categorizamos los argumentos esgrimidos por los participantes y, en base a ellos, establecimos la solidez de los mismos.

Tabla 2
Criterios para valorar la fiabilidad por estudiantes de educación secundaria (Fornás, 2003; Martínez, 2016).

Cuando utilizaban un solo criterio, la solidez de éste viene determinada en la propia Tabla 2. Si un participante empleaba dos (ninguno empleó más de dos), se le asignaba un valor de acuerdo con lo establecido en el Anexo 2.

Los dos procesos de categorización fueron realizados por tres profesores de la Universidad de Murcia y sólo fue aceptado el valor cuando había coincidencia en los tres jueces.

En cuanto al tratamiento estadístico, las variables se miden en diferentes escalas; así “los criterios” utilizan una nominal, mientras que “la fiabilidad”, “la solidez” y “la eficacia en la navegación y búsqueda” son variables ordinales. Por otro lado, para estudiar la dependencia de las variables (curso, género, centro) -que recoge la RQ3- hemos utilizado la χ. de Pearson. Y para la relación entre fiabilidad, solidez y eficiencia -que recoge RQ4-hemos utilizado la prueba ρ (correlación de Spearman). En ambos casos se ha establecido como riesgo de error un porcentaje menor del 5%.

Por último, queremos señalar que no pretendemos generalizar los resultados, sino aportar datos y resultados para avanzar en el conocimiento de la competencia digital.

Resultados

En la descripción de los resultados, vamos a mantener la división en los problemas planteados.

En relación con el RQ1 (valoración de la fiabilidad)

No todos mencionaron las dos páginas web, valoraron la fiabilidad de ambas o justificaron dicha valoración. En este sentido, disponemos de 311 respuestas completas; se puede apreciar que la implicación de los participantes fue muy alta. En la Figura 1, se recogen las señaladas por más del 3% de los estudiantes de nuestra experiencia.


Figura 1
Páginas web seleccionadas por los participantes.

Se aprecia cierta variedad en la elección de las páginas, aunque esta heterogeneidad no fue desmedida. Las entradas “lluvia ácida” en la página National Geographic y en la página Wikipedia fueron las más seleccionadas; el resto tuvo una menor frecuencia.

En la categoría “Otros” se han agrupado páginas con una frecuencia inferior o igual a 3 (menos del 2% de los participantes). Entre ellas, encontramos: Historiaybiografias.com; Yahoo respuestas (estaba activa en el momento de realizar la experiencia); Significados.com, Monografias.com; rincondelvago.com; Lluviaacida.blogspot.es; rae.es; 100ciaquimica.net; Twenergy.com; Naturaeduca.com; Tendenzias.com, etc.

Respecto a la fiabilidad que daban a los dos sitios, la Tabla 3 muestra las respuestas realizadas.

Tabla 3
Fiabilidad asignada a las páginas web seleccionadas.

La respuesta más repetida fue que le daban “Mucha” fiabilidad a los sitios consultados. Apenas se registraron contestaciones que indicaran “Nada” en la valoración de la fiabilidad.

La página web de National Geographic es la que ofrece mayor fiabilidad para nuestros estudiantes; la usaron el 80% de los participantes y, de ellos, el 95,2% la consideraron muy fiable. También le otorgan credibilidad a Inecc (82,4%), Wikipedia (70,5%) y LaReserva.com (64,5%), aunque -si exceptuamos Wikipedia- el uso de las demás fue mucho menor.

Por lo tanto, hay una dependencia de la fiabilidad de la página consultada (χ2 = 38.47; p= 0.00).

En relación con la RQ2 (criterios y solidez)

En las 311 respuestas, se identificaron 341 criterios (30 participantes utilizaron dos). Se obtuvieron 22 tipos diferentes. Se categorizaron según los criterios de la Tabla 1; los resultados aparecen en Tabla 4.

Tabla 4
Criterios utilizados por los participantes para valorar la información.

Solo tres criterios tienen una presencia superior al 10%: “Popularidad”, “Autoría y credenciales” e “Inteligibilidad”. El más usado es “Popularidad”; en las que se alude a aspectos como la fama, la consideración mediática, el ser un medio conocido, etc. El segundo más citado es “Autoría y credenciales”; en este caso, aluden a la autoría del trabajo: personas cualificadas, a expertos, a “científicos” o a instituciones; no obstante, hay respuestas que confunden estos dos primeros criterios ya que indican que una fuente de autoridad lo es, por el hecho de ser popular. Para la “Inteligibilidad”, se aludía a aspectos del lenguaje y a la comprensión del contenido; ninguno se refirió a la ortografía, a su originalidad y, sobre todo, ninguno valoró el contenido.

El resto de criterios aparecen en un porcentaje inferior al 10%. De ellos destacamos que algunos valoraban positivamente la fiabilidad en base a haber usado la página previamente en tareas escolares, y al buen resultado obtenido. También percibieron la presencia de “Fuentes de procedencia” (identificaron las fuentes en el contenido, aunque no revisaran la credibilidad de las mismas) y los “Métodos de publicación” (explicaron, con relativo conocimiento, su funcionamiento como enciclopedia online para valorar Wikipedia).

Por último, la categoría de “Otros criterios” (17.9% del total) engloba los aportados que no permiten realizar una valoración de forma explícita o justificada. Desglosamos los resultados en la Tabla 5.

Tabla 5
Respuestas agrupadas en “Otros criterios”

Por otro lado, se quiso estudiar la relación entre los criterios utilizados y la valoración de la fiabilidad de los mismos. Los resultados se muestran en la Figura 2.


Figura 2
Valoración de la fiabilidad otorgada a los criterios.

Casi todos dieron “mucha fiabilidad” a los criterios; de hecho, en cinco no hay valoraciones “poca” o “nada” fiables: Comparación, Fuentes, Método, Conocimientos previos y Posicionamiento.

No obstante, hay criterios con valoraciones “poca” o “nada” de fiabilidad. El más problemático es “Autoría” ya que, en un 31,9% de las veces que lo utilizan, le otorgan poca fiabilidad. Esto se debía especialmente a Wikipedia pues afirman que “cualquiera, sea o no un buen científico, puede escribir en ella”. También aparece un porcentaje importante de valoraciones con poca o nula fiabilidad en los criterios “Inteligibilidad” (26,3%), “Uso previo” (11,8%) y “Utilidad” (25%).

Por último, en cuanto la solidez de los criterios, realizada la trasformación señalada en la Tabla 2 de criterios a solidez, se obtuvieron los resultados -frecuencia y porcentajes- recogidos en la Tabla 6.

Tabla 6
Estudio de la solidez de los criterios.

Algo más de la tercera parte de los participantes tiene una solidez de los criterios alta o muy alta; cerca del 40% podemos considerar con una solidez media; los demás tienen problemas o son discutibles los que han utilizado. Estos resultados no son los deseables.

En relación con RQ3 (relación con variables sociales)

Queríamos profundizar en las variables fiabilidad, criterios y solidez de nuestra experiencia. Para ello calculamos el coeficiente de contingencia, a partir de χ2, entre las tres variables y las de cruce (género, curso y centro educativo). Los resultados se recogen en la Tabla 7, donde aparece el valor de χ2 y, si éste es estadísticamente significativo, el riesgo asociado a ese valor.

Tabla 7
Estudio de cruce de variables sociales.

La mayor parte de resultados obtenidos en las variables estudiadas (valoración de la fiabilidad, utilización de criterios y solidez de los criterios) no presentan una dependencia estadísticamente significativa con el género ni con el centro (si asumimos riesgos de error menores del 5%).

Sin embargo, parece que existe una dependencia con el curso, tanto en la valoración de la fiabilidad como en el de la solidez de los criterios (no la hay respecto a los criterios utilizados). No resulta sencillo interpretar estos valores.

En relación con RQ4 (relación “Navegación y búsqueda de información” con “Evaluación de la información”)

Por último, hemos estudiado la relación entre las dos variables centrales de nuestro trabajo (fiabilidad y solidez) y la eficacia en la “Navegación y búsqueda de información”.

Recordemos que en la Tabla 1 se recogieron los resultados obtenidos en esta última; que cada categoría podía valorarse como ninguna, básica, intermedia y avanzada; que la mayoría de los participantes estaban en un nivel básico; y que no había nadie que pudiera estar considerado en el nivel avanzado. No obstante, se categorizaaron los mencionados y estudiamos la relación existente entre las variables indicadas.

Obtuvimos unos valores de ρ de Spearman de 0.073 (entre eficacia de “Navegación y búsqueda de información” y valoración de fiabilidad) y 0.055 (entre eficacia de “Navegación y búsqueda” y solidez de la argumentación utilizada), lo que supone que, en ambos casos, no existen relaciones estadísticamente significativas con un p = 0.05.

Discusión

En este trabajo se pretendía aportar datos y reflexiones sobre la “Evaluación de la información”, siguiendo los criterios de Ferrari (2013) y que concretamos en la fiabilidad que otorgaban los estudiantes a la información buscada y encontrada en Internet para resolver una tarea de clase y en la solidez de los criterios utilizados. Para ello, organizamos nuestro trabajo en torno a cuatro interrogantes principales (RQ1).

• En relación a nuestra RQ1, planteábamos: “¿Cómo valoran los estudiantes la fiabilidad de dos páginas web, que utilizan en la realización de una tarea de búsqueda de información?”

Los resultados indican que existe una tendencia en nuestros estudiantes a valorar positivamente la fiabilidad de las páginas web que buscan y que utilizan. De hecho, se ha observado en todas las páginas que han usado durante la experiencia. En pocos casos, han manifestado dudas y apenas se han recogido respuestas en que se indique que el sitio web no es fiable.

Una posible interpretación es que el alumnado tiene una predisposición a creerse lo que le diga Internet (Castells et al, 2020). Es cierto que esta última fuente de información no tiene el control de otras (lo que dice el profesor en sus explicaciones o lo que recoge el libro de texto). Precisamente por ello, es obligada una visión crítica de la información recogida para no favorecer la manipulación oportunista de la realidad, la proliferación de las fake news, o el establecimiento de falsas verdades. Creemos que las temáticas científicas permiten, como pocas, confrontar datos, sugerir distintas explicaciones de un mismo resultado o ser críticos y rigurosos ante cualquier situación, lo que resulta imprescindible y deseable en la formación básica de un ciudadano del siglo XXI.

Pero otra posibilidad es que el estudiante no entienda realmente lo que ha leído. En estos casos, lo inmediato es ignorar la fiabilidad, sencillamente porque no se puede trabajar mientras el estudiante no haya adquirido conocimientos o competencias -en concreto, la comprensión lectora- para hacerlo. La búsqueda de cualquier información y la valoración de su fiabilidad depende de muchos factores, pero todos se supeditan al dominio lector del que realiza la búsqueda.

Es preciso, por tanto, revisar lo que estamos compartiendo con ellos en las clases de ciencias; ya que el alumnado cohabita con noticias de prensa interesadas, con una publicidad consumista y con medios tan seductores como Internet, en los que la objetividad no es la seña de identidad más característica.

• En relación a nuestra RQ2, planteábamos: “¿Qué criterios utilizan estos estudiantes para valorar la fiabilidad de dichas páginas web? ¿Qué solidez tienen los criterios utilizados?”

Entre los criterios que los participantes han utilizado para justificar sus valoraciones de la fiabilidad, la más frecuente fue la “Popularidad” del sitio web. Si, además, se tiene en cuenta que el cuarto criterio más frecuente fue “Haber usado previamente la página web”, podemos considerar que ambos motivos (popularidad y haberla utilizado en otra ocasión) vaticinan una situación inquietante. Como indica Fornás (2003) que un contenido goce de una cierta popularidad puede suponer solo que sea ampliamente aceptado. Sin embargo, no existe ninguna relación inequívoca entre el grado de aceptación y la fiabilidad de un contenido. Es más, por las mismas razones, a las páginas “menos populares” podrían no darle credibilidad apriorística, lo que impediría el contraste de la información.

Otro criterio muy empleado por los participantes ha sido el de “Autoría y credenciales”. El conocer y utilizar estos criterios supone, inicialmente, una situación idónea. Aunque, en algunos casos, mencionan de forma superficial “expertos” o “científicos” sin contrastarlo o sin tener en cuenta el tipo de página web que están usando (página de divulgación, revista, blog, etc.), el resultado se puede valorar como positivo. Sin embargo, es cierto que les resulta más fácil reconocer la fiabilidad si el contenido se halla en la web de alguna institución (Universidad, Institutos Nacionales, etc.).

También tiene una presencia importante “Inteligibilidad”, “Uso previo” (ya comentado) y “Utilidad” (25%). El primero podría deberse a que consideran que a veces se usa un lenguaje o unas formas que no les permite comprender el contenido. El segundo porque, al no conocer la web y desconocer si tendrán un buen resultado, les resta confianza. Y el tercero porque les permite responder a las preguntas que les habíamos hecho sobre la lluvia ácida mediante un “corta y pega”, pero, como ya dijimos en Valverde-Crespo et al. (2020b), buscan respuestas literales sin comprender muy bien el contenido de las páginas web que revisan (es como si ojearan un libro buscando un texto).

Por último, resulta destacable que se obtuvo un amplio conjunto de respuestas en las que no se justificaba la fiabilidad. Se trataba de respuestas escuetas y superficiales que no contenían ninguna valoración argumentada. Esto indica que un amplio conjunto de estudiantes no dispone de las competencias necesarias para poder emitir una valoración ya que, presumiblemente, no es una tarea a la que estén habituados o de la que no han recibido formación específica, lo que corrobora otros estudios previos (Calvani et al., 2012; Colás et al., 2017).

En cuanto a la solidez de los criterios, sólo la tercera parte de los participantes obtienen resultados deseables, según los establecidos por Formás (2003) y Martínez (2016). Además, se observa una gran heterogeneidad (probablemente debido a que la solidez de los argumentos se ha realizado de forma descontrolada). En cualquier caso, resulta evidente la necesidad de aportar criterios desde la institución escolar -en nuestro caso, en las clases de ciencias- ya que, con los resultados encontrados, es posible afirmar que, desde fuera de los centros educativos, no existe una formación completa en esta dimensión de la competencia digital.

• En relación con nuestra RQ3, planteábamos: “¿Existe una relación significativa entre la valoración de la fiabilidad y los criterios que la justifican, y alguna variable de carácter social (por ejemplo, el género, la edad y el centro educativo)?”

Hemos de decir que las relaciones estadísticamente significativas han estado ausentes en cuanto al género y al centro; sólo aparecen algunas respecto al curso. No es fácil interpretar este resultado, a la vista de los participantes intervinientes.

Se podrían mencionar dos factores para justificar que los estudiantes de 3º y 4º de la ESO presentan diferencias: curricularmente los segundos podrían haber adquirido más competencias o tener más conocimientos; o algunos de 4º han optado por asignaturas de ciencias frente a otras opciones. En cualquier caso, son causas muy poco consistentes para explicar las diferencias. Además, quedaría sin explicar por qué no afectan estos factores a los criterios utilizados para la fiabilidad (¿por la dispersión de los mismos?)

Debemos buscar otras situaciones, participantes y colectivos (por ejemplo, estudiantes con mayores diferencias de edad, rendimiento académico, etc.) para realizar otros estudios que permitan encontrar regularidades, en caso de haberlas.

• En relación con el RQ4, planteábamos: “¿Existe una relación significativa entre la valoración de la fiabilidad y los criterios que la justifican, y la eficacia en el uso de la “Navegación y búsqueda?”

No encontramos investigaciones previas de otros autores que aporten resultados sobre las relaciones entre las variables mencionadas. Según nuestros resultados: una mayor eficacia en la “Navegación y búsqueda de información” no supone mayor confianza en la fuente, mayor calidad en los criterios o mayor solidez en los argumentos para utilizar dichos criterios. Parece que fueran dos aspectos -dos componentes, dimensiones o subcompetencias diferentes- en la competencia genérica “digital”, tal como está previsto por Ferrari (2013).

Es cierto que en la que hemos llamado “Navegación y búsqueda de información” (Valverde-Crespo et al., 2020b) intervienen aspectos técnicos de “manejo del ordenador o Tablet”, destrezas comunicativas (búsqueda de información, comprensión lectora o expresión escrita) e, incluso, conocimientos conceptuales. Y posiblemente la valoración de la fiabilidad depende de las creencias, de la predisposición ante la tarea… ¿Son campos a priori tan diferentes para no encontrar una correlación significativa? Si realmente es así, ¿qué podría realizarse para mejorar cada una de las dimensiones?

Conclusiones

En conclusión, de acuerdo los resultados de nuestras preguntas investigación, los participantes han manifestado un nivel mejorable respecto a su competencia digital; tanto para evaluar la fiabilidad de la información de Internet sobre un contenido de ciencias, como a la hora de justificar aquellos criterios que utilizan. De acuerdo al contexto actual, resultaría deseable que nuestros jóvenes terminasen su escolaridad obligatoria con cierto nivel de competencia que les permitiese juzgar información de Internet usando de forma adecuada unos criterios que permitan mejorar la objetividad de la información.

Aspectos tales como, saber identificar y reconocer la autoría de un contenido, las credenciales de los autores, el medio en que se encuentra, sus fuentes de procedencia, la identificación de omisiones, errores, sesgos o publicidad, etc. son herramientas que se deben facilitar a los jóvenes antes de finalizar su educación obligatoria. Como bien indica Fornás (2003), resulta complicado determinar la fiabilidad de un contenido web, pero el empleo conjunto de varios de los criterios mencionados podrían ser las herramientas más sólidas que las que disponen.

La adquisición de las competencias, en especial la digital, puede ocurrir tanto dentro como fuera del aula (Pereira, Fillol y Moura, 2019). No obstante, en la educación formal, resulta fundamental el profesorado. Aunque el objetivo de este trabajo no ha sido indagar sobre la formación de los docentes respecto a la “Evaluación de la información”, no debemos olvidar que, en el aula, estos basan su práctica profesional en aquello que dominan, que les da buen resultado o en lo que están sensibilizados. En este sentido, si los resultados aportados por Álvarez-Herrero y Gisbert (2015) o por Gómez-Crespo et al. (2014) son generalizables, tenemos otro problema: hay que formar a aquellos que deben favorecer la adquisición de la competencia digital por su alumnado.

Por último, el alumnado acude al aula con el desarrollo, más o menos adecuado, de unas competencias digitales. No obstante, parece que no son tenidas en cuenta de forma frecuente para construir conocimientos y adquirir mayor desarrollo a partir de ellas. Por ello, sugerimos que se haga un diagnóstico profundo de la situación que estamos, incluyendo las otras áreas que mencionamos en el modelo de DigComp de Ferrari (2013). Una vez realizada la exploración, podríamos planificar secuencias de actividades en las clases de ciencias que hagan posible la adquisición de la competencia digital en todas sus áreas: Información, Comunicación, Creación de contenidos, Seguridad y Resolución de problemas.

Materiales suplementarios

Anexo I (pdf)

Anexo II (pdf)

Información adicional

Para citar este artículo: Valverde-Crespo, D., de Pro, A. y González-Sánchez, J. (2022). La fiabilidad de la información sobre ciencia de Internet y criterios utilizados para justificarla por parte de estudiantes de educación secundaria. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias 19(3), 3103. doi:10.25267/Rev_Eureka_ensen_divulg_cienc.2022.v19.i3.3103

Referencias bibliográficas
Álvarez-Herrero, J.F. y Gisbert, M. (2015). Grado de alfabetización informacional del profesorado de Secundaria en España: Creencias y autopercepciones. Comunicar, 45(23), 187-194.
Blanco-López, A., España-Ramos, E., González-García, F.J. & Franco-Mariscal A.J. (2015). Key Aspects of Scientific Competence for Citizenship: A Delphi Study of the Expert Community in Spain. Journal of Research in Science Teaching, 52(2), 164-168. https://doi.org/10.1002/tea.21188
Bravo-Torija, B., & Jiménez-Aleixandre, M. P. (2018). Developing an Initial Learning Progression for the Use of Evidence in Decision-Making Contexts. International Journal of Science and Mathematics Education, 16(4), 619–638.
Calvani, A., Fini, A., Ranieri, M. & Picci, P. (2012). Are young generations in secondary school digitally competent? A study on Italian teenagers. Computers & Education, 58, 797-807. https://doi.org/10.1016/j.compedu.2011.10.004
Cañal, P. (2012). ¿Cómo evaluar la competencia científica? Investigación en la Escuela, 78, 5-17.
Castells, N., Miralda, A., Garcia, M., Minguela, M. & Nadal, E. (2020). La sociedad de la desinformación: el reto de las fake news en la construcción de conocimiento científico. V Simposio Internacional de Enseñanza de las Ciencias SIEC 2020. Educación Editora: Universidad de Vigo.
Cebrián, D. (2019). Identificación de noticias falsas sobre ciencia y tecnología por estudiantes del grado de Primaria. Pixel-Bit Revista de Medios y Educación, 55, 23-36.
Colás, P., Conde, J. & Reyes, S. (2017). Competencias digitales del alumnado no universitario. Revista Latinoamericana de Tecnología Educativa, 16(1), 7-20.
Colwell, J., Hunt, S. & Reinking, D. (2013). Obstacles to Developing Digital Literacy on the Internet in Middle School Science Instruction. Journal of Literacy Research, 45(3), 295-324.
FECyT (2021). 10.ª Encuesta de Percepción Social de la Ciencia y la Tecnología – 2020 Informe completo. https://icono.fecyt.es/sites/default/files/filepublicaciones/21/percepcion_social_de_la_ciencia_y_la_tecnologia_2020_informe_completo_0.pdf
Fernández, I., Mecha, R. & Milán, M. (2018). La Comunidad Científica ante los Medios de Comunicación. Guía de Actuación para la Divulgación de la Ciencia. Madrid: Servicio de Publicaciones UCM. https://www.ucm.es/otri/publicaciones-guias-de-actuacion
Fernández, I., del Pozo, E., Méndez, T. & Casas, L. (2021). La Comunidad Científica ante la desinformación. Guía de actuación para contrastar la información científica. Madrid: Servicio de Publicaciones UCM. https://www.ucm.es/otri/file/gui%CC%81a-de-actuacio%CC%81n-para-contrastar-la-informacio%CC%81n-cienti%CC%81fica-1
Ferrari, A. (2013). DIGCOMP: A Framework for Developing and Understanding Digital Competence in Europe. En Y. Punie, y B.N. Brecko (Eds.), JRC scientific and policy reports. Publications Office of the European Union. http://dx.doi.org/10.2788/52966
Fornás, R. (2003). Criterios para evaluar la calidad y fiabilidad de los contenidos en Internet. Revista Española de Documentación Científica, 26(1), 75-80. https://doi.org/10.3989/redc.2003.v26.i1.226
Forzani, E. (2018). How Well Can Students Evaluate Online Science Information? Contributions of Prior Knowledge, Gender, Socioeconomic Status, and Offline Reading Ability. Reading Research Quarterly, 53(4), 385-390. https://doi.org/10.1002/rrq.218
Franco-Mariscal, A. J., Blanco-López, A. & España-Ramos, E. (2014). El desarrollo de la competencia científica en una unidad didáctica sobre la salud bucodental. Diseño y análisis de tareas. Enseñanza de las Ciencias, 32(3), 649-667. https://doi.org/10.5565/rev/ensciencias.1346
Franco-Mariscal, A.J. (2015). Competencias científicas en la enseñanza y el aprendizaje por investigación. Un estudio de caso sobre corrosión de metales en secundaria. Enseñanza de las Ciencias, 33(2), 231-252. https://doi.org/10.5565/rev/ensciencias.1645
Gómez-Crespo, M. A., Cañas, A. M., Gutiérrez, M. S. & Martín-Díaz, M. J. (2014). Ordenadores en las aulas: ¿estamos preparados los profesores? Enseñanza de las Ciencias, 32(2), 239-250. https://doi.org/10.5565/rev/ensciencias.939
IEA (2020). IEA International Computer and Information Literacy Study 2018. https://www.iea.nl/studies/iea/icils/2018
INE (2019). Encuesta sobre Equipamiento y Uso de Tecnologías de Información y Comunicación en los Hogares. https://www.ine.es/prensa/tich_2019.pdf
Macedo-Rouet, M., Potocki, A., Scharrer, L., Ros, C., Stadler, M., Salmerón, L. & Rouet, J.F. (2019). How Good Is This Page? Benefits and Limits of Prompting on Adolescents’ Evaluation of Web Information Quality. Reading Research Quarterly, 54(3), 229-231. https://doi.org/10.1002/rrq.241
Martínez, L.J. (2016). Cómo seleccionar información de la web. En Martínez, L.J. (coord.) Cómo buscar y usar información científica. Guía para estudiantes universitarios 2016, (pp.15-24). Unican.
Mateo-Andrés, J. (2014). La investigación ex post-facto. En Bisquerra, R. (coord.) Metodología de la investigación educativa, (pp. 195-229). La Muralla.
McDougall, J, Brites, M.J., Couto, M. & Lucas, C. (2019). Digital literacy, fake news and education. Culture and Education, 31 (2), 203-212. https://doi.org/10.1080/11356405.2019.1603632
MECD (2015). Orden ECD/65/2015, de 21 de enero, por la que se describen las relaciones entre las competencias, los contenidos y los criterios de evaluación de la educación primaria, la educación secundaria obligatoria y bachillerato. BOE nº 25, de 29 de enero de 2015.
Osborne, J., Pimentel, D., Alberts, B., Allchin, D., Barzilai, S., Bergstrom, C., Coffey, J., Donovan, B., Kivinen, K., Kozyreva. A., & Wineburg, S. (2022). Science Education in an Age of Misinformation. Stanford University: Stanford, CA.
Osuna, S., Frau, D. & Marta, C. (2018). Educación Mediática y Formación del Profesorado. Educomunicación más allá de la Alfabetización Digital. Revista Interuniversitaria de Formación del Profesorado, 91, 29-42. http://creativecommons.org/licenses/by-nc-nd/4.0
Pedrinaci, E., Caamaño, A., Cañal, P. & de Pro, A. (2012). 11 ideas clave. El desarrollo de la competencia científica. Graó.
Pereira, S., Fillol, J. & Moura, P. (2019). El aprendizaje de los jóvenes con medios digitales fuera de la escuela: De lo informal a lo formal. Comunicar, 58(27), 41-50.
Revuelta, G. & Corchero, C. (2016). Perfiles generacionales en el consumo de información científica. En FECyT (Ed.) Percepción Social de la Ciencia y la Tecnología 2016 (pp. 179-205). Madrid: FECyT.
Salaverría, R. (2021). Informe del GTM: Entender y combatir la desinformación sobre ciencia y salud. Ministerio de Ciencia e Innovación. https://fundadeps.org/recursos/informe-del-gtm-entender-y-combatir-la-desinformacion-sobre-ciencia-y-salud/
Solli, A. (2021). Appeals to Science: Recirculation of Online Claims in Socioscientific Reasoning. Research in Science Education, 51, 983-1013. https://doi.org/10.1007/s11165-019-09878-w
Tseng, A.S. (2018). Students and evaluation of web-based misinformation about vaccination: critical reading or passive acceptance of claims?, International Journal of Science Education, Part B, 8(3), 250-265. https://doi.org/10.1080/21548455.2018.1479800
Valverde-Crespo, D., Pro-Bueno, A. & González-Sánchez, J. (2020a). La información científica deInternet vista por estudiantes de Educación Secundaria Obligatoria: Un estudio exploratorio de sus competencias digitales. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 17(1), 1101. http://dx.doi.org/10.25267/Rev_Eureka_ensen_divulg_cienc.2020v17.i1.1101
Valverde-Crespo, D., de Pro-Bueno, A. & González-Sánchez, J. (2020b). Competencia digital de estudiantes de Secundaria al buscar y seleccionar información sobre ciencia. Enseñanza de las Ciencias, 38(3), 81-103. https://doi.org/10.5565/rev/ensciencias.2833
Wiblom, J., Rundgren, C.J. & Andreé, M. (2019). Developing Students’ Critical Reasoning About Online Health Information: a Capabilities Approach. Research in Science Education, 49, 1759-1782. https://doi.org/10.1007/s11165-017-9674-7
Witzig, S., Halverson, K., Siegel, M. & Freyemurth, S. (2013). The Interface of Opinion, Understanding and Evaluation While Learning About a Socioscientific Issue. International Journal of Science Education, 35(15), 2483-2507. http://dx.doi.org/10.1080/09500693.2011.600351
Notas
Tabla 1
Resultados obtenidos en la eficacia de "Navegación y búsqueda de información" (Valverde-Crespo et al,. 2020b).

Tabla 2
Criterios para valorar la fiabilidad por estudiantes de educación secundaria (Fornás, 2003; Martínez, 2016).


Figura 1
Páginas web seleccionadas por los participantes.
Tabla 3
Fiabilidad asignada a las páginas web seleccionadas.

Tabla 4
Criterios utilizados por los participantes para valorar la información.

Tabla 5
Respuestas agrupadas en “Otros criterios”


Figura 2
Valoración de la fiabilidad otorgada a los criterios.
Tabla 6
Estudio de la solidez de los criterios.

Tabla 7
Estudio de cruce de variables sociales.

Buscar:
Contexto
Descargar
Todas
Imágenes
Visor de artículos científicos generados a partir de XML-JATS4R por Redalyc