diana carolina vargas pienda - …

37
APOYO EN LA CONSTRUCCIÓN DE PREGUNTAS DE CIENCIAS NATURALES DE LOS PROGRAMAS APLICADOS POR EL ICFES PARA LA EVALUACIÓN DE LA EDUCACIÓN EN COLOMBIA DIANA CAROLINA VARGAS PIENDA UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS BOGOTÁ D.C. 2016

Upload: others

Post on 21-Oct-2021

3 views

Category:

Documents


0 download

TRANSCRIPT

APOYO EN LA CONSTRUCCIÓN DE PREGUNTAS DE CIENCIAS NATURALES DE

LOS PROGRAMAS APLICADOS POR EL ICFES PARA LA EVALUACIÓN DE LA

EDUCACIÓN EN COLOMBIA

DIANA CAROLINA VARGAS PIENDA

UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

BOGOTÁ D.C.

2016

APOYO EN LA CONSTRUCCIÓN DE PREGUNTAS DE CIENCIAS NATURALES DE

LOS PROGRAMAS APLICADOS POR EL ICFES PARA LA EVALUACIÓN DE LA

EDUCACIÓN EN COLOMBIA

DIANA CAROLINA VARGAS PIENDA

Director: Liz M. Muñoz

UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

FACULTAD DE CIENCIAS Y EDUCACIÓN

PROYECTO CURRICULAR DE LICENCIATURA EN QUÍMICA

BOGOTÁ D.C.

2016

AGRADECIMIENTOS

Debo agradecer principalmente al ICFES, quienes me abrieron sus puertas y propiciaron un

espacio de aprendizaje y conocimiento de las exigencias del mundo laboral aún sin la experiencia

que normalmente requerirían, y cuyo objetivo central, más allá de las contribuciones al instituto,

fue el desarrollo de una profesional íntegra, capaz y competente.

Agradezco también al equipo de la Subdirección de Producción de Instrumentos, especialmente

a Claudia L. Sáenz y Mónica Roldán, quienes desde su amplia experiencia en el instituto me

acompañaron y guiaron permanentemente, confiando siempre en mis capacidades y

competencias para participar activamente en las funciones de la subdirección.

Finalmente, quiero expresar mi más sincero agradecimiento a la Dra. Liz Muñoz, cuyo

acompañamiento y apoyo incondicional fue invaluable para direccionar adecuadamente y dar

rigor a las labores realizadas en el ICFES en relación a mi formación académica como

Licenciada en Química, quien, por demás, siempre ha incentivado en mí la discusión y

pensamiento crítico de mi quehacer como futura docente investigadora en ciencias naturales

desde las metaciencias, y de quien he aprendido que es tan importante saber química como saber

sobre ella.

TABLA DE CONTENIDO

1. INTRODUCCIÓN .......................................................................................................................... 2

2. JUSTIFICACIÓN ............................................................................................................................ 2

3. MARCO TEÓRICO ........................................................................................................................ 2

3.1. ANTECEDENTES: LA INSTITUCIÓN ...................................................................................... 2

3.2. REFERENTES TEÓRICOS: ASPECTOS GENERALES DE LA EVALUACIÓN .............................. 7

3.3. EVALUACIÓN DE LA EDUCACIÓN: REFERENTES DESDE EL MEN Y EL ICFES .................... 13

4. METODOLOGÍA ......................................................................................................................... 17

4.1. Objetivo general ............................................................................................................... 18

4.2. Objetivos específicos ........................................................................................................ 18

4.3. Metodología De Investigación ......................................................................................... 18

4.4. Fases y desarrollo del proceso realizado ......................................................................... 18

5. RESULTADOS ............................................................................................................................. 19

6. ANÁLISIS DE LOS RESULTADOS ................................................................................................ 23

7. ALCANCE DE LOS RESULTADOS ................................................................................................ 27

8. IMPACTOS ................................................................................................................................. 28

9. CONCLUSIONES ......................................................................................................................... 28

10. REFERENCIAS ........................................................................................................................ 29

ANEXO 1. Cronograma de actividades ............................................................................................. 31

ANEXO 2. Cumplimiento de horas de pasantía ............................................................................... 32

ANEXO 3. Evaluación de la pasantía emitida por supervisor de la práctica en el ICFES ................ 33

ANEXO 4. Constancia emitida por el ICFES de la realización de la pasantía .................................. 34

2

1. INTRODUCCIÓN

La pasantía se llevó a cabo en la Subdirección de Producción de Instrumentos del ICFES,

enfocada en el apoyo a los procesos de construcción de preguntas de Ciencias Naturales. La

estudiante se encargó específicamente de la validación, retroalimentación y revisión con el fin

de ingresar los ítems al banco de pruebas para su pilotaje. Estas tres actividades fueron realizadas

en el marco de una investigación/acción mediante entrevistas semiestructuradas con docentes

de grado 3°, 5°, 7°, 9° y 11° ya que es vital asegurar la correspondencia entre el contenido

conceptual de las preguntas y el grado al cual son dirigidas, garantizando una evaluación basada

en criterios válidos. En total, fueron validados y revisados 1059 ítems de Ciencias Naturales para

los programas Saber 3579 y Saber 11.

2. JUSTIFICACIÓN

Durante la pasantía realizada en el ICFES se contribuyó a la educación en ciencias naturales del

país ya que a partir de la construcción de instrumentos de evaluación que dimensionan la calidad

de la educación en ciencias desde las competencias, se fomenta la formación enfocada al

pensamiento crítico y conocimiento aplicado más que el aprendizaje memorístico.

Así mismo, favoreció la formación integral de la estudiante desde el fortalecimiento de

conocimientos prácticos en evaluación educativa respecto a los lineamientos tanto nacionales

como internacionales, lo que permitió un acercamiento a la problemática de la educación en el

país desde una perspectiva gubernamental. Por otro lado, proporcionó un espacio de

autoevaluación como docente de Química acerca de qué, cómo, para qué y según qué criterios

se enseña ciencia.

3. MARCO TEÓRICO

A continuación se presenta una caracterización de la institución y área específica ne la cual se

realizó la pasantía:

3.1. ANTECEDENTES: LA INSTITUCIÓN

El Instituto Colombiano para la Evaluación de la Educación – ICFES. Es el encargado llevar a

cabo la preparación, administración y evaluación de instrumentos para realizar el proceso de

selección de estudiantes a universidades, la Asociación Colombiana de Universidades y el

Fondo Universitario firman en 1966 el acuerdo 065 (Grupo de Evaluación de la Educación

Básica y Media - Subdirección Académica, 1999) con el que se creó el Servicio de Admisión

Universitaria y Orientación Profesional. Estas fueron las primeras pruebas de selección y

clasificación en diversas universidades del país, que se realizaban por demanda y se presentaban

en las sedes solicitantes.

3

En 1968 se reestructuró el Servicio de Admisión Universitaria y Orientación Profesional y surgió

el Servicio Nacional de Pruebas, una de las dependencias del ICFES, el cual aplicó los primeros

exámenes nacionales que evaluaban Aptitud Matemática, verbal, razonamiento abstracto,

relaciones especiales, ciencias sociales y filosofía, química, física, biología e inglés.

Sin embargo, los exámenes de admisión fueron reglamentados hasta 1980 e incluía nueve

pruebas agrupadas en 5 áreas:

Ciencias naturales (Biología, Química y Física)

Lenguaje (Aptitud Verbal, Español y Literatura)

Matemática (Aptitud Matemática y Conocimientos en Matemáticas)

Ciencias sociales (Historia, Geografía y Filosofía)

Electiva (Razonamiento Abstracto, Relaciones Espaciales, Razonamiento Mecánico,

Inglés, Conocimientos Pedagógicos, Conocimientos Agropecuarios, Contabilidad y

Comercio, Francés, Metalmecánica, Electricidad y Electrónica, Salud y Nutrición,

Artes, Construcciones Civiles, Promoción de la Comunidad, Medio Ambiente,

Democracia o Etnoeducación)

A partir del año 2000, debido a la globalización, se derivan nuevas exigencias educativas

consecuencia de los cambios sociales, políticos, culturales y económicos, que implicaron la

implementación de un nuevo tipo de evaluación. Así, el examen de estado cambió su enfoque

de contenidos a competencias y se adaptó a los lineamientos establecidos en la Ley General de

la Educación de 1994 (inicialmente indicadores de logros curriculares y actualmente estándares

básicos de competencias).

Para el 2005, el examen de estado se proyecta para

Orientación profesional de los estudiantes

Instrumento para el desarrollo de investigaciones interdisciplinares

Guiar y apoyar el proceso de autoevaluación de los planteles educativos

En 2007, la prueba fue dividida en núcleo común (Lenguaje, Matemáticas, Biología, Química,

Física, Ciencias Sociales, Filosofía e Inglés) y un componente flexible (profundización en alguna

de las áreas y una prueba interdisciplinar).

Actualmente, el examen se compone de 5 pruebas: Matemáticas, Lectura Crítica, Sociales,

Ciencias Naturales e Inglés; y de 2 subpruebas: Competencias Ciudadanas y Razonamiento

Cuantitativo. Adicionalmente, se incluye una pregunta abierta en cada área. Además se llevan

a cabo otros exámenes como Saber 359 (3ro, 5to, 9no) para evaluar el proceso educativo y

evidenciar las fallas en el proceso de educación básica y media, y Saber Pro que se aplica al

finalizar los estudios de pregrado con el fin de valorar la formación en la Educación Superior

Misión

Ofrecer el servicio de evaluación de la educación en todos sus niveles, y adelantar investigación

sobre los factores que inciden en la calidad educativa, con la finalidad de ofrecer información

para mejorarla

4

Visión

En el 2020 el ICFES será la entidad de evaluación de la educación más importante de América

Latina, reconocida por la calidad y pertinencia de sus mediciones y se consolidará como el centro

de pensamiento sobre calidad educativa, incidiendo en todo el sector educativo. Así mismo, el

ICFES habrá incursionado estratégicamente y con éxito en nuevos servicios de evaluación

que contribuyan a la toma de decisiones, que promuevan la competitividad y la inclusión social.

SUBDIRECCIÓN DE PRODUCCIÓN DE INSTRUMENTOS

En la figura 1 se presenta la estructura organizacional del ICFES, en la cual se observa que

existen dos direcciones misionales, la Dirección de Evaluación y la Dirección de Producción y

Operaciones. La pasantía se llevó a cabo en la Subdirección de Producción de Instrumentos, una

de las dependencias de la dicha Dirección, cuya principal función es controlar el plan de

construcción y diagramación de los ítems y su validación, atendiendo a las especificaciones

técnicas definidas en el diseño de instrumentos de evaluación (MINISTERIO DE

EDUCACIÓN NACIONAL, 2009).

Labores de la Subdirección de Producción de Instrumentos: Enmarcando las labores de la pasantía

Figura 1. Estructura organizacional del ICFES – Instituto Colombiano para la Evaluación de la Educación. Disponible online en: http://www.icfes.gov.co/index.php/quienes-somos/organigrama

5

La figura 2 muestra el procedimiento general para

la construcción de preguntas. El trabajo realizado

en el ICFES se enfocó principalmente en los pasos

6 y 7, es decir en la validación y su respectiva

retroalimentación.

De forma general, la construcción de un ítem

comprende la selección de los constructores según

los requerimientos del área, en este caso, de

ciencias naturales. Esto se lleva a cabo por medio

de una prueba específica (biología, química, física

o ciencias de la tierra) aplicada y revisada por los

gestores de pruebas. Una vez seleccionados los

constructores, se realiza la capacitación sobre la

estructura de la prueba de ciencias: componentes,

competencias, evidencias y tareas de acuerdo a las

especificaciones suministradas por la Subdirección

de Producción de Instrumentos, así como los

principales criterios a tener en cuenta para asegurar

la validez y confiabilidad de la misma.

Posteriormente, se lleva a cabo una revisión por

parte del Gestor de pruebas de las preguntas

construidas. En caso de que se evidencien errores

conceptuales o de constructo, el ítem es devuelto al

constructor; no obstante, si el ítem no presenta

falencias según la perspectiva del gestor, éste pasa a

una revisión de estilo para su posterior

diagramación.

Una vez diagramado, el ítem se revisado

nuevamente por el gestor, verificando que las

condiciones inicialmente propuestas por el

constructor no se hayan afectado por la

diagramación.

A continuación, los ítems diagramados se llevan a validación con docentes, ojo fresco o

estudiantes (según el tipo de pregunta y programa). En este paso específico se concentraron las

actividades desarrolladas durante la pasantía, las cuales se describen detalladamente a

continuación:

Selección y capacitación de validadores: para la selección se tienen en cuenta criterios

como el curso en que el docente dicta las clases así como los enfoques educativos de la

institución. Por su parte, la capacitación consiste en una breve descripción de las

actividades llevadas a cabo por el ICFES (qué pruebas se realizan, con qué fin, etc.) y de

2. Construcción

3. Revisión

4. Revisión de estilo

5. Diagramación

6. Revisión

7. Validación

8. Retroalimenteción

9. Ingreso a Banco para piloto

1. Selección y Capacitación de constructores

¿El ítem presenta problemas de conceptuales?

¿El ítem presenta problemas de diagramación?

¿El ítem presenta problemas de conceptos,

estilo o diagramación?

SI

NO

NO

SI

NO

SI

Figura 2. Procedimiento para la construcción de ítems

Act

ivid

ades

a c

argo

de

la

estu

dia

nte

du

ran

te la

pas

antí

a

6

la estructura de la prueba a validar (componentes, competencias, evidencias y tareas),

explicación del proceso de validación (qué es, cómo se enmarca en el proceso de

construcción y mantenimiento de ítems, cómo se desarrolla, aspectos a tener en cuenta

durante la validación, etc.) y, finalmente, diligenciamiento del Acta de Confidencialidad

por parte de los validadores.

Validación individual: es el primer paso de la validación, en el cual, los docentes revisan

cada ítem en un tiempo aproximado de 4 minutos por pregunta, cuyas observaciones se

registran en el formato C1.1.F16, Validación de ítems. Es importante el carácter

individual de la revisión ya que esto impide el sesgo de la opinión acerca de la pregunta.

Moderación de la validación grupal: en este caso, teniendo en cuenta las observaciones

registradas, los docentes discuten acerca de los errores y sugerencias sobre las preguntas

con el fin de llegar a un consenso para mejorar el ítem. Este proceso es moderado por el

pasante, quien dirige y establece el consenso de la discusión por medio del formato

C1.1.F17, Relatoría de Moderador.

Ajustes según la validación: habiendo finalizado la validación con docentes, el pasante

se reúne con el gestor de la prueba en cuestión y señala los principales ajustes de los

ítems, bien sea de constructo o de diagramación.

Teniendo en cuenta las observaciones de la validación, el gestor de prueba puede enviar el ítem

al constructor (en caso de que existan errores conceptuales que se hayan pasado por alto en

etapas anteriores y que requieran de la reconsideración del autor de la pregunta) o a

diagramación (si se presentan factores en documento como tal que interfieren en la

interpretación de la pregunta). Si no se observan elementos que requieran de corrección, el ítem

es ingresado al Banco de preguntas para su aplicación piloto.

Las labores realizadas por la estudiante en práctica se enfocaron principalmente en esta última

fase del proceso, la validación, retroalimentación y corrección de los ítems.

Funciones de la Subdirección de Producción de Instrumentos (MINISTERIO DE EDUCACIÓN

NACIONAL, 2009)

Como dependencia de la Dirección de Producción y Operaciones, la Subdirección de

Producción de Instrumentos debe responder con las siguientes funciones:

Ejecutar y controlar el plan de construcción y diagramación de los ítems y su validación,

atendiendo a las especificaciones técnicas definidas en el diseño de instrumentos de

evaluación.

Ejecutar y controlar el proceso de armado y edición de instrumentos de evaluación,

atendiendo a las especificaciones definidas en el proceso de diseño.

Administrar y controlar el banco de pruebas y preguntas.

Coordinar y controlar la diagramación, medición y control de riesgos operativos

relacionados con los procesos que se desarrollan en la dependencia.

Las demás que le sean designadas, de acuerdo con la naturaleza de la dependencia

Organigrama de la Subdirección de Producción de Instrumentos

7

En la figura 3 se muestra un esquema general de los cargos en la Subdirección de Producción de

Instrumentos. Cabe resaltar que la labor como pasante es apoyar concretamente las labores de

los gestores de prueba y, eventualmente, los cargos administrativos.

Figura 3. Organigrama de la Subdirección de Producción de Instrumentos

3.2. REFERENTES TEÓRICOS: ASPECTOS GENERALES DE LA EVALUACIÓN

Hoy por hoy, las pruebas aplicadas por el ICFES constituyen para muchas instituciones un

medio para llegar a una posición alta en un ranking de calidad de planteles educativos. Es debido

a esta jerarquización que se ha perdido el verdadero sentido de la evaluación: el propósito inicial

del desarrollo de los instrumentos no es aplicar y medir sistemáticamente una serie de técnicas,

sino proporcionar una perspectiva general de la educación de los estudiantes, fomentando una

autoevaluación consciente de la formación frente a las necesidades del entorno, de manera que

los estudiantes comprendan que no se forma para una prueba sino para la vida.

A continuación se presenta una contextualización general de la evaluación, su significado, tipos

y modelos según la situación histórica, política, social y cultural desde la que se mire.

Qué es la evaluación

En la literatura existen diversas definiciones sobre la evaluación según la necesidad y objeto de

la misma: enjuiciamiento, control, rendición de cuentas, entre otros (Mora Vargas, 2004). Según

el Joint Committee on Standards for Educational Evaluations, JCSEE, la evaluación es “el

enjuiciamiento sistemático del valor o mérito de un programa”, asimismo debe ser útil, viable,

ética y exacta.

Subdirector de Producción de Instrumentos

Profesional universitario 02

Profesional Universitario 01

Técnico Administrativo 01

Gestores de Prueba 04

Gestores de Prueba 03

Gestores de Prueba 02

Gestores de Prueba 01

Cargos administrativos Construcción de pruebas

8

Otras definiciones de evaluación, por ejemplo la de Tyler (1973) “una constante comparación

de los resultados de aprendizaje de loa alumnos con los objetivos previamente determinados en

la programación de la enseñanza”, han sido ampliamente criticadas ya que es necesario superar

el paradigma instrumentalista de la evaluación basado en la recolección y comparación de datos

numéricos que restringen el proceso a la medición. En este sentido, desde hace varias décadas

se ha venido planteando una concepción de la evaluación como un proceso práctico,

pedagógico, comunicativo y holísitico que responda a las necesidades sociales de la educación

y que no se restrinja al procesamiento de datos cuantitativos sino que abarque un método

cualitativo (Eisner, 1967). Por tanto, existen diversos tipos de evaluación según el contexto.

Tipos de evaluación

Debido a que la evaluación puede responder a varias necesidades han surgido distintas

clasificaciones según la perspectiva metodológica, la finalidad, la función, el agente que la aplica,

el momento de aplicación y el criterio.

Según la perspectiva metodológica

Se considera cuantitativa si implica el análisis y cuantificación de conductas observables. Sus

principales características según Herrera (2009) son la “objetividad, valoración de un producto,

utilización del método hipotético-deductivo y el tratamiento estadístico, empleo de pruebas de

rendimiento y pruebas psicométricas”. Es cualitativa cuando se basa principalmente en la

observación del desenvolvimiento en un contexto social, apuntando a una evaluación holística.

Según la finalidad

en este caso la evaluación puede ser: diagnóstica si se desea conocer el estado del objeto antes

de la intervención, poniendo especial atención en sus fortalezas, debilidades y oportunidades de

mejora; sumativa si el objetivo es emitir un juicio evaluativo general al final de un período de

tiempo sin una trascendencia más allá de establecer una posición o promoción del alumno;

formativa si se busca brindar información que enriquezca el proceso de enseñanza – aprendizaje

durante el desarrollo del mismo, y no debe ser confundido con la evaluación por procesos.

Según la función

Existen diferentes tipos de función:

- la función social, referida a la promoción, certificación y acreditación.

- la función de control, debido al poder político que se le ha otorgado históricamente a la

evaluación.

- la función pedagógica, orientada a la formación y guía del evaluado.

Según el agente que la aplica

Puede ser heteroevaluación si el evaluador es un agente ajeno al evaluado, generalmente con

mayor formación con el fin de asegurar un mejor criterio a la hora de evaluar.; co-evaluación si

el proceso es realizado por un par, con un nivel de conocimientos similar; auto-evaluación si el

evaluado se evalúa a sí mismo.

Según el momento de aplicación

9

Se divide en inicial, procesual y final. La primera se aplica antes de iniciar el curso con el fin de

establecer los objetivos y cambios necesarios en el sistema. La segunda consiste en el análisis

continuo del aprendizaje durante el período de tiempo estipulado para el alcance de las metas;

no debe confundirse con la evaluación formativa, puesto que la evaluación procesual no tiene

trascender en el aprendizaje para la vida sino que apunta la obtención y medición de los

resultados. La tercera consiste en la recolección de datos al finalizar el período; usualmente se

asimila como una evaluación sumativa ya que no existe una retroalimentación del proceso, de

las fallas de la evaluación misma o de las fortalezas del evaluado con el fin de aportar a su vida

cotidiana.

Según el criterio de comparación

Se clasifica en nomotética e idiográfica. A su vez, la evaluación nomotética es normativa cuando

se compara al individuo en un grupo de referencia sin criterio alguno, es decir, apunta al

posicionamiento ordinal del estudiante. Esto resulta contraproducente cuando un alumno con

habilidades medias medido en un grupo de bajo nivel adquiere una posición alta; frente a esta

falencia, surgió la evaluación nomotética criterial, que se basa en un cambio respecto a criterios

externos bien definidos y no frente a un grupo de referencia. La evaluación idiográfica, por su

parte, es personalizada y los resultados se fundamentan en el cambio o adquisición de

habilidades en el individuo respecto a un estado anterior.

Modelos de evaluación

Así mismo, existen diversos modelos de evaluación que han surgido de acuerdo a los paradigmas

sociales, políticos y culturales, (CAJIGAS & GARCIA , 2014) divide los modelos de la

evaluación en clásicos y alternativos:

Modelos de evaluación clásicos

La característica común consiste en su enfoque instrumentalista orientado hacia la obtención de

resultados cuantitativos sin considerar un desarrollo holístico del evaluado. Entre estos modelos

se encuentra:

- Evaluación por objetivos: Establecida por Ralph Tyler, se basa en la medida del

cumplimiento de unas metas preestablecidas al iniciar el período de tiempo a evaluar.

- Evaluación para la toma de decisiones: Consiste en la recolección de información

al servicio de instancias superiores con el fin de justificar sus decisiones. En este sentido,

la evaluación no es un proceso democrático sino que se restringe a una élite social.

Stufflebeam (1995) y Guba (1989) propusieron dentro de este modelo la evaluación CIPP

(Contexto-Input-Producto-Proceso) con el objetivo de tomar decisiones conforme se

desarrolla la evaluación y no al final, como lo planteaba el modelo tyleriano.

- Evaluación de contexto: se fundamente en la valoración de un objeto en relación a su

entorno.

- Evaluación input: está basada en el análisis de las condiciones con las que cuenta el

estudiante, institución o entidad: objetivos, personal, actividades, recursos, etc., para

determinar las necesidades del evaluado.

10

- Evaluación de procesos: (CAJIGAS & GARCIA , 2014) la define como la valoración

de “la calidad de los actores implicados en el proceso y su interacción, los materiales

utilizados en esa interacción, las metodologías aplicadas en ella, los espacios en que se

hace efectiva”. Asimismo, está sujeta al momento político y social en que se desarrolla.

Modelos alternativos

Estos modelos apuntan a la evaluación global del estudiante con la intención de aportar a su

desenvolvimiento en la cotidianidad y un desarrollo integral de sus habilidades. Entre estos se

encuentra:

- Evaluación iluminativa: planteada por Parlett y Hamilton (1972), estudia los efectos de

la introducción o modificaciones de un programa sobre los implicados en el proceso de

enseñanza-aprendizaje (Parlett & Hamilton, 1972) (Fonseca, 2007). Stufflebeam y

Shinkfield, (1995) indican que existen tres fases principales de investigación:

observación, para identificar todas las variables; investigación, con el fin de establecer

los factores que afectan directamente el resultado; explicación, que expone los principios

que rigen el modo de operación del programa.

Evaluación por competencias: nacido por la necesidad de formar personas competentes en un

entorno laboral (Clavijo, 2008), este modelo retoma el concepto de competencia desde una

perspectiva académica: “capacidad compleja que integra conocimientos, potencialidades,

habilidades, destrezas, prácticas y acciones que se manifiestan en el desempeño en situaciones

concretas, en contextos específicos (saber hacer en forma pertinente)” (Instituto Colombiano

para la Evaluación de la Educación, 2015). En este sentido, la evaluación por competencias

apunta a la formación de personas íntegras capaces de desenvolverse y aplicar sus conocimientos

en contextos demandantes de la sociedad actual.

Metaevaluación

Cuando una evaluación es aplicada en distintas ocasiones sin observar cambios en el proceso es

necesario revisar los criterios sobre los cuales se ha construido dicha evaluación. La

metaevaluación consiste en analizar y estudiar el proceso evaluativa (Santos Guerra & Moreno

Olivos, 2004) Por tanto, asi como es necesario someter a juicio los resultados de una evaluación,

también se debe indagar acerca de la pertinencia de la misma, si efectivamente se está generando

un impacto positivo.

Santos y Moreno (2004) plantean 6 contextos desde los cuales se debe revisar el marco de la

evaluación:

- Contexto de constitución: se refiere a cuáles han sido las iniciativas de la evaluación,

bajo qué necesidad ha surgido, quiénes la han construido y con quién ha sido negociada.

- Contexto de justificación: implica qué métodos se utilizan para recoger los datos y cómo

se ha diversificado y enriquecido los mismos.

- Contexto de presentación: su principal cuestión es cómo se procesan los datos, de qué

manera se garantiza la validez tanto de la información procesada como de las

conclusiones.

11

- Contexto de negociación: se refiere a la forma en que se entregan los informes y

resultados

- Contexto de valoración: se cuestiona sobre los cambios producidos por la evaluación, si

existieron presiones o sesgos durante la evaluación.

- Contextos de difusión: abarca las formas en que se han difundido los informes, si han

estado al alcance de toda la población y si su conocimiento se ha dado de manera

democrática.

El proceso de metaevaluación debe ser simultáneo a la evaluación, ya que de esta manera se

garantiza la validez y pertinencia del proceso.

Teniendo en cuenta lo anterior, el diseño de los instrumentos de evaluación es crucial, ya que

es necesario una construcción con un fin fundamentalmente formativo. A continuación se

presentan los lineamientos bajo los cuales el ICFES realiza la construcción de preguntas que

garantizan un sentido evaluativo.

INSTRUMENTOS COMO UNIDADES EVALUATIVAS

En el contexto de evaluación de la educación, un

instrumento es considerado como una herramienta que, a

través de una serie de preguntas estructuradas, permite

recoger información acerca del proceso educativo del

estudiante por la asignación de valores numéricos a las

respuestas. El ICFES define un instrumento como “un

conjunto intencionalmente articulado de ítems a través de

cuya aplicación se infiere el desempeño de quienes son

evaluados en relación con el objeto de evaluación”

En este sentido, cabe establecer la diferencia entre

instrumento y pregunta: el instrumento se refiere a la suma

armónica y completa de ítems que responden a las

especificaciones de la prueba. De esta forma, los

instrumentos pueden estar compuestos por uno o varios tipos

de preguntas según sea requerido.

En la figura 4 se muestran los diferentes tipos de pregunta

que pueden clasificarse de acuerdo a la forma en que se

responde: selección de respuesta, si hay una codificación

previa, o producción de respuesta, si depende del evaluado

la construcción de la misma.

Debido a su practicidad para el análisis, el ICFES e enfoca

principalmente en la construcción de preguntas de selección

múltiple con respuesta única. La estructura general de una

pregunta de este tipo se presenta en la figura 5.

Un ítem de selección múltiple con respuesta única está constituido por las siguientes partes:

TIPOS DE PREGUNTA

SELECCIÓN DE RESPUESTA

Selección múltiple

apareamiento

selección alterna

falso -verdadero

dependientes de contextos

PRODUCCIÓN DE RESPUESTA

completar respuestas

ensayo corto

ensayo largo

ensayo oral

ejecución

productos no escritos

Figura 4. Tipos de pregunta según implementadas por el ICFES (ICFES,

2009)

12

- Contexto: proporciona la información necesaria para la resolución del problema; pueden

ser textos, imágenes, gráficas, tablas.

- Enunciado: expone, de forma explícita, la problemática que debe ser tratada por el

evaluado, está directamente relacionada por el objeto a evaluar (competencia). Para el

ICFES es estrictamente necesario que “provea una idea completa y clara de la tarea de

evaluación, que contenga la información necesaria y suficiente para contestar el ítem”

(ICFES, 2009)

- Opciones de respuesta: son posibles soluciones a la problemática plateada en el

enunciado. En este caso, solo una de las opciones es válida (clave), mientras que las

demás no responden a cabalidad con la tarea. Según el ICFES, una opción no válida

“puede ser un error común, una afirmación verdadera pero que no contesta

completamente a la pregunta o no satisface las exigencias del problema” (ICFES, 2009)

Figura 5. Esquema general de una pregunta de selección múltiple con única respuesta (ICFES, 2009)

Por otro lado, desde el 2014 el ICFES viene implementando un nuevo tipo de pregunta debido

a las falencias que presentan los ítems de respuesta múltiple de única respuesta. Estas nuevas

preguntas se denominan abiertas ya que requieren la construcción de una respuesta corta

elaborada por el evaluado a fin de determinar cómo se estructuran los procesos de interpretación,

argumentación y/o proposición para la solución de un problema específico.

Caracterización de los ítems:

La taxonomía de una pregunta es vital para la interpretación y análisis de resultados debido a

que establece el sentido de la construcción de la pregunta, es decir, el objeto específico de la

evaluación. De acuerdo a lo anterior, un ítem se puede clasificar por:

- Competencia: se refiere específicamente al saber hacer en contexto, a la implementación

de los conocimientos en un contexto específico.

- Componente: hace referencia al área específica de conocimiento que se evalúa.

- Dificultad: el ICFES define las dificultades según los siguientes criterios:

13

o Baja si el problema implica considerar solamente una variable, tiene en cuenta

una disciplina o si es altamente común en el quehacer profesional. Se prevé que

entre el 70% y el 100% de los evaluados contesten acertadamente a este tipo de

pregunta.

o Media: si el problema implica considerar dos variables, un análisis

multidisciplinario o interdisciplinario o si corresponde a asuntos específicos del

quehacer profesional. Se prevé que entre el 30% y el 70% de los evaluados

contesten acertadamente a este tipo de pregunta.

o Alta: si el problema requiere considerar el análisis de más de dos variables al

mismo tiempo, un análisis transdisciplinario o si se encuentra con poca

frecuencia en el quehacer profesional. Se prevé que entre el 10% y el 30% de los

evaluados contesten acertadamente a este tipo de pregunta.

Respecto a los modelos de análisis de ítems, el ICFES implementa principalmente la Teoría

Clásica de Test, TCT, y la Teoría de Respuesta al ítem, específicamente el modelo Rasch, para

analizar la validez y confiabilidad de los instrumentos construidos.

3.3. EVALUACIÓN DE LA EDUCACIÓN: REFERENTES DESDE EL MEN Y EL ICFES

Así como existen diversos modelos y tipos de evaluación que se derivan de los paradigmas

sociales, culturales y políticos del contexto en el que se desarrolla, en Colombia las formas de

evaluar la educación han cambiado por la evolución de la concepción epistemológica e histórica

de las ciencias naturales. A continuación se presenta un estudio histórico de como el MEN y el

ICFES han modificado los fundamentos de la evaluación en ciencias.

Período comprendido entre 1968 y 1991: los inicios de la evaluación (González, Sáenz, & Sánchez,

1998)

Ya en los años 60 se venía dando una revolución en la concepción de la evaluación educativa

gracias a los avances de Taylor en el desarrollo del modelo por objetivos. De esta forma, la

evaluación inicia con el establecimiento de los objetivos de la educación a través del Decreto 45

de 1962 (MEN, Decreto 45, 1962): la apropiación del conocimiento a partir de la sistematización

del aprendizaje, preparación para vivir en un mundo en constante evolución y adquisición de

principios básicos como responsabilidad y criterio para desempeñar actividades remunerativas

o provechosas. Asimismo, por cada curso de la básica secundaria se asigna un número de horas

anuales que varía de acuerdo a la intensidad y complejidad del área:

Tabla 1. Horas anuales por área según Decreto 45 de 1962.

Curso Materias Horas

Anuales

Primero Introducción a las ciencias 60

Segundo Biología vegetal 60

Tercero Biología natural 60

Cuarto Anatomía y fisiología humanas y salud 120

Quinto Física, nociones de mineralogía y química inorgánica 240

Sexto Física y química del carbono 240

14

En 1963, el Ministerio De Educación Nacional publica los Programas Analíticos que contiene

“sugerencias didácticas” para el área de ciencias y establece objetivos generales y específicos,

contenidos, material de apoyo, experimentos mínimos que se deben realizar, etc.

Adicionalmente, la evaluación se realiza de acuerdo a la intensidad de horario, profundidad y

extensión de los temas, es decir, en la construcción de las pruebas, el número de preguntas de

una temática específica depende del número de horas destinado su enseñanza.

Para los programas de ciencias naturales, se establecen siete objetivos fundamentales orientados

hacia el fortalecimiento de procedimientos asociados al método científico y la mecanización del

conocimiento

En 1974 surge el Decreto 80 (MEN, Decreto 80, 1974), que plantea un currículo menos rígido

orientado a la formación libre del sujeto, con un lineamiento en ciencias naturales fuertemente

marcado por el método científico, cuyo carácter inductivo es necesario en la enseñanza y en base

a los cuales señala una serie de capacidades y habilidades que deben ser logrados a través de la

educación en el área (observar, experimentar y analizar situaciones).

Siguiendo la visión inductiva de la ciencia, el currículo es organizado como tal: los temas se

presentan en orden jerárquico y se presenta de lo particular a lo general. Esto, aunado a la

concepción asociacionista del proceso enseñanza-aprendizaje y método conductista aplicado a

la educación desemboca en una perspectiva estática e inmutable de la realidad, siendo poco lo

que pueda ser aportado por estudiantes o profesores. De esta manera, las ciencias naturales se

convierten en una serie de conocimientos establecidos, y la relación docente-estudiante en una

simple transmisión de información.

Por otro lado, a pesar de que el decreto propone una formación ética y vital en ciencias,

solamente establece los contenidos a enseñar, por lo que la evaluación se limita a comprobar la

adquisición-memorización de los temas, concebida como una medida que permite establecer si los

objetivos instruccionales se han alcanzado ubicado al final del proceso, cuyo carácter cuantitativo garantiza

la objetividad de la misma (González, Sáenz, & Sánchez, 1998).

Finalmente, la evaluación se realiza según la taxonomía de Bloom (Bloom, Hastings, &

Madaus, 1975). La estructura de la prueba se divide en tres ejes: de contenidos (temas y subtemas

de cada disciplina) y de conducta (categorías son identificación o recuerdo, comprensión,

análisis, síntesis y evaluación.

Período comprendido entre 1991 y 1998: de los objetivos al constructivismo

No obstante, en vista de las dificultades que presentaba el modelo de evaluación por objetivos y

las diversas críticas que a nivel mundial surgían frente a éste, en 1991 el MEN establece una serie

de Fundamentos Generales, el plan de estudios, marcos generales, programas curriculares y

materiales de apoyo (MEN, Dirección General de capacitación y perfeccionamiento docente,

currículo y medios educativos. Ciencias naturales y salud. Marco general: propuesta de

programa curricular, 1991).

Se evidencian cambios respecto a los decretos anteriores como la visión globalizada y cambiante

de las ciencias, por lo que su enseñanza “no se basa en contenidos sino en la formación de actitudes que

permitan la construcción de conocimiento”. Sin embargo, la estructura jerarquizada de los contenidos

persiste aunque se propone una mayor profundidad en los mismos.

15

Por otro lado, se sugiere un currículo flexible que garantice la libre formación del estudiante

según sus intereses, pero la evaluación es generalizada y enmarcada según las categorías y sub-

categorías de contenidos propuesta por el MEN, desvirtuando la libertad de currículo.

Adicionalmente, la evaluación deja de ser un método de clasificación de los alumnos y se

convierte en una herramienta para detectar fallas aciertos en el proceso educativo con el fin de

establecer estrategias de mejora: ya no se evalúa la memorización del concepto sino la

adquisición de habilidades y destrezas. No obstante, el carácter cuantitativo de la evaluación se

conserva: “La evaluación se concibe como un proceso flexible y valorativo del quehacer humano, que debe

desempeñar un papel regulador, orientador, motivador y dinamizador de la acción educativa y de carácter

integral y permanente” (González, Sáenz, & Sánchez, 1998)

Finalmente, el proceso enseñanza-aprendizaje es comprendido desde el punto de vista

constructivista con el fin de fomentar la construcción de conocimiento. En este sentido, el

método científico deja de ser universal y obligatorio, permitiendo el desarrollo y exploración de

métodos de investigación y construcción de conocimiento distintos de acuerdo a la necesidad y

perspectiva de cada estudiante. Cabe preguntarse si es posible que el estudiante construya todos

los conceptos científicos sin recurrir a sus ideas previas, generando conocimientos distintos a los

aceptados universalmente por la comunidad científica.

Dado que la concepción de ciencia y construcción de conocimiento es distinto, el enfoque de las

pruebas en ciencias cambia el diseño en función de contenidos por el de comprensión de

fenómenos, estructurando contextos que permiten delimitar la validez de los distractores,

resaltar el carácter multifactorial de la ciencia y proporcionar los elementos suficientes para

discriminar entre las opciones de respuesta.

Con la introducción del contexto en los Exámenes de Estado, surge el problema de que la prueba

se limita a la comprensión lectora más que el análisis propio de los fenómenos naturales y las

destrezas y habilidades en ciencias.

Período comprendido entre 1998 y

2014: el auge de la evaluación por

competencias

Teniendo en cuenta las dificultades

que implicaba la evaluación por

objetivos señaladas anteriormente, en

el año 2000 se adopta la evaluación

por competencias basados en los

Lineamientos Curriculares. Ciencias

Naturales y Educación Ambiental

(MEN, Lineamientos curriculares.

Ciencias naturales y educación

ambiental. , 1988) (figura 1), que

propone evaluar las ciencias según competencias propias del área y niveles de competencia.

Figura 6. Dimensiones de evaluación en ciencias naturales (Toro , González, & Naranjo, Alineación del examen Saber 11°. Anexo 4. La prueba de ciencias naturales., 2013)

16

Cabe resaltar que los niveles de competencia son tomados como competencias: se habla de

‘Competencia interpretativa, argumentativa y propositiva’, evidenciando errores conceptuales

de la evaluación por competencias desde el diseño propio de las pruebas.

No obstante en el 2006 la estructura de la prueba cambia a componentes y competencias, los

primeros corresponden a los contenidos y las segundas a las capacidades que se evalúan en el

estudiante (figura 6)

Asimismo, se implementa un modelo basado evidencias para la construcción de pruebas (Toro

, González, & Naranjo, Alineación del examen Saber 11°. Anexo 4. La prueba de ciencias

naturales., 2013) (figura 7). En este modelo, los Estándares Básicos propuestos por el MEN

definen lo que se debe evaluar, a partir de cuyas competencias (capacidades que debe desarrollar

el estudiante durante su formación) se derivan afirmaciones (desempeños, logros y, entre otras

palabras, objetivos) que se convierten en evidencias (productos observables, responden a la

pregunta ¿qué deben hacer los estudiantes en las pruebas que permita inferir que tienen

determinadas competencias, conocimientos o habilidades?). Finalmente, de las evidencias se

construyen las tareas, que son los enunciados en la prueba y definen el nivel de complejidad de

la misma, dando lugar a las preguntas.

Figura 7. Estructura de la prueba de ciencias naturales por componente y competencias (Toro , González, & Naranjo, Alineación del examen Saber 11°. Anexo 4. La prueba de ciencias naturales., 2013)

17

Tabla 2. Cuadro comparativo entre las bases para la evaluación en ciencias naturales en 1963 y 2013

Objetivos instruccionales propuestos en

1963

Afirmaciones de la prueba propuestos en

2013

Valerse de la conexión lógica de los fenómenos observados para enseñar al alumno a ordenar su pensamiento

Competencia: Explicación de fenómenos:

Afirmación: Modela fenómenos de la

naturaleza basándose en el análisis de variables, la relación entre dos o más conceptos del conocimiento científico y de la evidencia derivada de investigaciones científicas

Ejercitar al educando en el análisis de los

hechos para que pueda encontrar la explicación de los mismos

Competencia: Explicación de fenómenos

Afirmación: Explica cómo ocurren algunos

fenómenos de la naturaleza basándose en observaciones, en patrones y en conceptos propios del conocimiento científico

Capacitar al alumno en el método de estudio propio de las ciencias naturales, agilizarlo en el manejo del material científico y familiarizarlo con el empleo de vocabulario

Competencia: Indagación

Afirmación:

Observa y relaciona patrones en los datos para evaluar las predicciones.

Utiliza procedimientos para evaluar predicciones

Deriva conclusiones para algunos fenómenos de la naturaleza basándose en conocimientos científicos y en la evidencia de su propia investigación y de la de otros.

Aprovechar los experimentos en donde sea posible una apreciación cuantitativa, a fin de habituar al alumno a la correcta ordenación de datos en tablas para deducir las leyes

Competencia: Indagación

Afirmación: observar y relacionar patrones

en los datos para evaluar las predicciones. Este objetivo se cumple cuando el estudiante

De esta manera, se observa que aún se mantiene el método científico como pilar para la

indagación en ciencias a pesar de hacer énfasis en una ciencia cambiante y como herramienta

de interpretación que modela la realidad. Además, la mayoría de preguntas se limitan a

escenarios no cotidianos que se remiten a situaciones en el laboratorio (generalmente en

química), por lo que la ciencia pierde su carácter interdisciplinar y universal, que además deja

de lado a aquellos estudiantes que no tienen acceso a este tipo de espacios.

4. METODOLOGÍA

Las actividades desarrolladas por la estudiante durante el desarrollo de la pasantía se enfocaron

en los siguientes objetivos:

18

4.1. Objetivo general

Apoyar la construcción de los ítems de Ciencias Naturales para el armado de las pruebas Saber

5°, 7°, 9°, 11° y Pro, desde los estándares de calidad propuestos por el ICFES.

4.2. Objetivos específicos

Revisar los ítems construidos de acuerdo a las especificaciones suministradas por la

Subdirección de Diseño de Instrumentos

Validar con expertos y pares académicos los ítems revisados y corregidos para su ingreso

al banco de preguntas piloto.

Realizar la retroalimentación del proceso para obtener los ítems aprobados para la

aplicación piloto.

4.3. Metodología De Investigación

Este trabajo se enmarca en la investigación cualitativa (Cohen & Lawrence, 1990) ya que el

principal método utilizado fue la investigación/participación si se tiene en cuenta que la

validación de instrumentos parte del análisis crítico de los docentes acerca de lo que se debería

enseñar según los lineamientos del MEN con lo que en realidad es enseñado en el aula. Así,

según la discusión de la experiencia en el campo, se toma acción sobre las modificaciones,

ajustes y correcciones de los ítems.

La técnica utilizada por la estudiante fue la entrevista semiestructurada (Munarriz, 1991)

utilizando los formatos presentados en los C1.1.F16 y C1.1.F17, enfocada tanto en la

construcción conceptual de la pregunta como en la correspondencia entre el conocimiento

manejado en el ítem y el grado al cual se dirige el ítem.

4.4. Fases y desarrollo del proceso realizado

Las actividades llevadas a cabo por la estudiante estuvieron enmarcadas en la construcción de

ítems (ver figura 2). Como se ha mencionado anteriormente, la estudiante estuvo

específicamente a cargo de dirigir la última parte del proceso, que incluye la validación,

retroalimentación y corrección de los ítems según las observaciones suministradas por los

docentes validadores. A continuación, se detalla el desarrollo de dichas actividades:

1. VALIDACIÓN DE PREGUNTAS:

Selección y capacitación de validadores: para la selección se tienen en cuenta criterios

como el curso en que el docente dicta las clases así como los enfoques educativos de la

institución. Por su parte, la capacitación consiste en una breve descripción de las

actividades llevadas a cabo por el ICFES (qué pruebas se realizan, con qué fin, etc.) y de

19

la estructura de la prueba a validar (componentes, competencias, evidencias y tareas),

explicación del proceso de validación (qué es, cómo se enmarca en el proceso de

construcción y mantenimiento de ítems, cómo se desarrolla, aspectos a tener en cuenta

durante la validación, etc.) y, finalmente, diligenciamiento del Acta de Confidencialidad

por parte de los validadores.

Validación individual: es el primer paso de la validación, en el cual, los docentes revisan

cada ítem en un tiempo aproximado de 4 minutos por pregunta, cuyas observaciones se

registran en el formato C1.1.F16, Validación de ítems. Es importante el carácter

individual de la revisión ya que esto impide el sesgo de la opinión acerca de la pregunta.

Moderación de la validación grupal: en este caso, teniendo en cuenta las observaciones

registradas, los docentes discuten acerca de los errores y sugerencias sobre las preguntas

con el fin de llegar a un consenso para mejorar el ítem. Este proceso es moderado por el

pasante, quien dirige y establece el consenso de la discusión por medio del formato

C1.1.F17, Relatoría de Moderador.

Ajustes según la validación: habiendo finalizado la validación con docentes, el pasante

se reúne con el gestor de la prueba en cuestión y señala los principales ajustes de los

ítems, bien sea de constructo o de diagramación.

Teniendo en cuenta las observaciones de la validación, el gestor de prueba puede enviar el ítem

al constructor (en caso de que existan errores conceptuales que se hayan pasado por alto en

etapas anteriores y que requieran de la reconsideración del autor de la pregunta) o a

diagramación (si se presentan factores en documento como tal que interfieren en la

interpretación de la pregunta). Si no se observan elementos que requieran de corrección, el ítem

es ingresado al Banco de preguntas para su aplicación piloto.

2. RETROALIMENTACIÓN DE VALIDACIÓN:

Comprendió la discusión con los gestores de prueba las observaciones derivadas de la validación

tanto individual como grupal. Se analizaron aspectos no solo del ítem como tal sino también el

contexto social y cultural de los validadores, así como la influencia de dihcos factores en el

proceso de validación.

Esta retroalimentación conllevó a la revisión de la diagramación y conceptual de los ítems que

presentaron problemas.

3. REVISIÓN DIGITAL 3°, 5°, 7° y 9°

Esta actividad se llevó a cabo en la plataforma digital TAO y abarcó desde el diseño

metodológico de la tarea hasta la revisión de los cuadernillos cognitivos y de factores asociados

según los lineamientos suministrados por la Unidad de Diagramación, Edición y Armado.

5. RESULTADOS

Teniendo en cuenta las fases del proceso realizado en el ICFES, a continuación se describen los

resultados más relevantes:

20

1. Validación de preguntas

Como se ha mostrado en la figura 2, la construcción de preguntas implica una cadena de

procesos: las primeras etapas estuvieron a cargo de los gestores de pruebas del área de ciencias

naturales, esto es, desde la capacitación de constructores hasta el envío a diagramación de los

instrumentos construidos según la asignación de labores por parte de la Subdirección. Las

actividades desarrolladas por la estudiante durante la pasantía se concentraron específicamente en dirigir y

coordinar la validación de las preguntas de ciencias naturales diagramadas, así como los ulteriores

procedimientos de retroalimentación y revisión digital. Teniendo en cuenta esto, el aporte principal de

la estudiante a la entidad radican en estas tres etapas.

En los anexos 1 y 2 se presentan tanto el cronograma de actividades establecido para la

validación de preguntas, retroalimentación y revisión digital, como las horas dedicadas al

desarrollo de estas actividades teniendo en cuenta el número de horas mínimo exigidas por el

acuerdo 031 de 2014 de la Universidad Distrital.

Así mismo, el anexo 3 corresponde a la valoración final emitida por el supervisor de la pasantía

del proceso realizado por la estudiante. Por su parte, el anexo 4 es la constancia de la realización

de la pasantía en el ICFES.

Se validaron 49 grupos de 18 a 25 preguntas de ciencias naturales de distintos grados, para un

total de 1059 ítems. Los componentes fueron Entorno vivo, Entorno físico y Ciencia tecnología

& sociedad y las competencias Uso comprensivo del conocimiento científico, Explicación de

fenómenos e Indagación.

Tabla 3. Total de ítems de ciencias naturales validados por programa

Según se muestra en la gráfica 1, el 50% de los

ítems validados pertenecen al programa Saber

11°. Adicionalmente, en el año 2015 el ICFES

empezó a implementar Saber 7° con el fin de proporcionar a las instituciones información más

detallada acerca del proceso de formación en la educación media. Para la construcción de estos

ítems, se tomaron preguntas de las pruebas 9° con dificultad baja y 5° con dificultad alta, fueron

reajustados según los estándares básicos de competencias para dicho grado y validados con

docentes de ciencias de grado 7°; el 31% de los ítems validados corresponden al programa Saber

7°. Finalmente, el 10% fueron preguntas del programa Saber 9° y el 9% a Saber 5°.

Programa Número de ítems

Saber 11° & Pro 531

Saber 9° 108

Saber 7° 324

Saber 5° 96

TOTAL 1059

50%

10%

31%

9%

Ítems construídos en Ciencias Naturales

1

2

3

4

Gráfica 1. Distribución por porcentajes de ítems de ciencias naturales validados por programa.

21

Por otro lado, también se apoyó la revisión de ítems de otras áreas, favoreciendo una visión

global acerca de las pruebas de estado. La tabla 4 muestra los resultados de validación de todas

las pruebas, incluyendo el área de ciencias.

En la gráfica 2 se observa que el principal aporte en cuanto a número de ítems por prueba fue

al programa Saber 11°, seguido de Saber 7°.

Tabla 4. Distribución de ítems de todas las áreas validados por programa y prueba.

Saber 11°

& Pro Saber 9° Saber 7° Saber 5°

Total de ítems

validados por área

Ciencias Naturales 531 108 324 96 1059

Razonamiento Cuantitativo

y Matemáticas 309 68 268 96 741

Lectura Crítica y Lenguaje 599 324 923

Competencias Ciudadanas y

Ciencias Sociales 223 112 231 132 698

Inglés 330 330

TOTAL 3751

Gráfica 2. Ítems validados por programa y prueba

En total, se coordinó la validación de 3751 ítems, de los cuales el 28% corresponden a la prueba

de ciencias naturales, 24% de lenguaje y lectura crítica, 20% de razonamiento cuantitativo y

matemáticas, 19% de competencias ciudadanas y ciencias sociales y 9% de inglés. Teniendo en

cuenta lo anterior, se aportó mayoritariamente en materia de validación al área de ciencias

naturales además de apoyar ampliamente en aspectos conceptuales y teóricos principalmente

desde el área de química.

0

100

200

300

400

500

600

700

Saber 11° Saber 9° Saber 7° Saber 5°

mer

o d

e ít

ems

Ítems validados por programa y prueba

Ciencias Naturales

Razonamiento Cuantitativo yMatemáticas

Lectura Crítica y Lenguaje

Competencias Ciudadanas y CienciasSociales

Inglés

22

Gráfica 3. Distribución por porcentaje de ítems validados por programa y prueba.

2. Retroalimentación de la validación:

Entre el 5% y 15% de los ítems requirió ajustes de diagramación, mientras que el 10% fue enviado

de nuevo al gestor y al constructor para la verificación de aspectos conceptuales. Luego de las

correcciones la totalidad de los ítems construidos, esto es, 1059, fueron aprobados para el ingreso

al banco de preguntas para pilotaje.

No obstante, la discusión acerca de las preguntas revisadas en contraste con la experiencia de

formación en competencias de ciencias naturales en el aula permite hacer las siguientes

observaciones:

La construcción está enfocada hacia la evaluación de competencias científicas (uso

comprensivo del conocimiento científico, explicación de fenómenos e indagación),

dando cuenta de las bases epistemológicas de la prueba, no obstante, la prioridad en la

formación de ciencias naturales en el aula es el contenido. En otras palabras, los docentes

se interesan por enseñar a sus alumnos las líneas temáticas establecidas por el MEN y

no por formar un pensamiento científico crítico.

Contrario a lo planteado por los estándares básicos de competencias propuestos por el

MEN, no existe una visión holística del conocimiento, por lo cual la evaluación es

compartimentada por áreas.

La validación con docentes da cuenta de que la formación no está orientada hacia el

desarrollo de competencias en ciencias ya que si bien los profesores hacen un uso

adecuado del conocimiento, existe bastante dificultad en el planteamiento de problemas

de investigación y establecimiento de conclusiones a partir de experimentos. Asimismo,

no hay claridad a la hora de argumentar una observación que contradice un estamento

científico considerado inicialmente válido.

Lo anterior se traduce en una visión tradicional de la evaluación basada en contenidos y

que implica una concepción de la ciencia como estática, no falsable, absoluta e inmutable

llevada al aula de clases.

28%

20%24%

19%

9%

Porcentaje de ítems validados por prueba

Ciencias Naturales

Razonamiento Cuantitativoy Matemáticas

Lectura Crítica y Lenguaje

Competencias Ciudadanasy Ciencias Sociales

Inglés

23

Si bien la prueba se enfoca a la evaluación de competencias científicas, usualmente se

utilizan contextos poco cotidianos y que remiten a una visión clásica de la ciencia, en la

que los experimentos son llevados a cabo en laboratorios y entornos netamente

académicos que carecen de trascendencia social. Teniendo en cuenta lo anterior, se ha

sugerido una estructura de la prueba basada en la Naturaleza de las ciencias que retome

las ideas metacientíficas no solo de la epistemología e historia sino también de la

sociología de las ciencias.

3. Revisión digital 3°, 5°, 7°, 9°:

Desde el año 2015, el ICFES implementó las TIC para la aplicación de las pruebas 3579 en

algunas instituciones educativas del país a través de TAO (plataforma digital). Esto implicó

subir 69 cuadernillos de prueba a TAO, haciendo necesaria la revisión estructural,

conceptual y piloto de los mismos.

La revisión estructural consistió en verificar todos los detalles de diagramación de las

preguntas y del cuadernillo (señalizaciones de inicio y parada, indicativos del área y número

de ítems). La revisión conceptual se basó en el estudio detallado de la coherencia del armado.

Finalmente, para el piloto se llevó a cabo por duplicado el string, proceso que consiste en

marcar y enviar una simulación de respuestas suministradas por la UNIDEA (Unidad de

Diagramación, Edición y Archivo) con el fin de contrastar las respuestas enviadas con las

recibidas en la Subdirección de Tecnología después de procesar los datos.

Como resultado, se revisaron 69 cuadernillos de 3579 en TAO, los cuales fueron aplicados

en el segundo semestre de 2015.

6. ANÁLISIS DE LOS RESULTADOS

La implementación de entrevistas semiestructuradas permitió a la estudiante observar ciertas

problemáticas no sólo de la formación del profesorado en ciencias sino de las contradicciones

que existen en los estándares de competencias formulados por el MEN:

Teniendo en cuenta que los estándares se enfocan a una educación holística, es necesario

establecer una coherencia entre dicho modelo y los criterios de evaluación.

Dimensionalidad en las pruebas Saber: una contradicción a la concepción holística de la educación en

ciencias naturales

En los contextos de ciencias naturales planteados se presenta una ciencia que no trasciende el

laboratorio, cuyas investigaciones y conclusiones no tienen un impacto más allá del académico.

No obstante, en competencias ciudadanas se evalúan, por ejemplo, la toma de decisiones desde

la problemática ambiental a partir de conclusiones basadas en análisis científico, observando

una trascendencia del conocimiento de las ciencias a la esfera social. Así mismo, en las pruebas

de lectura crítica se utilizan contextos de la filosofía de las ciencias sobre cómo surge el

conocimiento científico. Por tanto, cabe preguntarse ¿por qué no es posible construir una prueba

24

que abarque todas las áreas desde un mismo contexto con el fin de evaluar desde una misma

perspectiva un conocimiento global?

El problema de una prueba holística radica en el modelo de estadística que se utiliza para el

procesamiento de datos: la Teoría de Respuesta al ítem, TRI. Uno de los supuestos básicos de

esta teoría es la Dimensionalidad (Martinez , Lopez, Amador, & Saenz, 2000), según la cual se

asume que la prueba está diseñada para medir una sola habilidad o una combinación particular,

limitando la posibilidad de evaluar diversas áreas desde un solo instrumento. Sin embargo, el

ICFES ha venido implementando otro modelo multidimensional denominado Modelo Rasch

que aún está en proceso de aplicación a todas las pruebas.

Pertinencia de la evaluación en ciencias naturales: ¿Momento de una metaevaluación?

Otro de los problemas detectados a través de la validación de preguntas radica en que el ICFES

aplica un sinnúmero de instrumentos que carecen de un impacto más allá de establecer un

ranking de colegios o universidades. Por tanto, es momento de realizar una metaevaluación

junto al MEN con el fin de establecer cómo las pruebas aplicadas han contribuido al cambio en

la enseñanza de las ciencias. Así mismo, el ICFES debe contribuir a la democratización del

análisis de las pruebas, ya que es a partir de la interpretación y comprensión de los resultados

que planteles educativos pueden tomar juicios acerca de los procesos de enseñanza.

A través de una metaevaluación es posible democratizar la discusión de los resultados de las

pruebas así como su construcción, favoreciendo la visión holística de la enseñanza. Por tanto,

este proceso debe ser simultáneo a la construcción de los instrumentos con el fin de propiciar

una reflexión constante acerca de los impactos esperados de la evaluación

Según los contextos de metaevaluación planteados por Santos y Moreno (2004) respecto a la

difusión, debe tenerse en cuenta que el lenguaje utilizado debe ser claro y conciso. A este

respecto, debe resaltarse que el ICFES se ha interesado por crear guías de análisis de las pruebas

para que las instituciones puedan interpretar sus resultados autónomamente. Sin embargo,

durante las sesiones de validación, es recurrente encontrarse con docentes de ciencias naturales

que no saben bajo qué competencias se evalúa a los estudiantes, por lo que resulta difícil tomar

acciones si no se conocen los criterios en los que se falla.

Por tanto, se infiere la necesidad de un acompañamiento continuo por parte del MEN y del

ICFES para la interpretación de los resultados, haciendo énfasis no en el resultado cuantitativo

sino en la importancia de tomar acciones al respecto con el fin de mejorar la formación científica

y, en general, la educación de los estudiantes.

Como señalan Santos y Moreno (2004)

“No se trata, pues, de concluir, al estilo de las investigaciones experimentales, si existe o

no validez, sino de avivar la reflexión para generar compresión rica y relevante sobre los

programas evaluados. Esto convierte a la evaluación no tanto en una tarea de expertos

cuanto en un proceso democrático de discusión.

No basta interrogarse sobre la calidad de los datos que se recogen en el informe o sobre

el rigor de los métodos que se han aplicado para extraer información, sino que es preciso

preguntarse por la naturaleza de la iniciativa, por la finalidad del proceso, por las reglas

éticas que lo han inspirado, por la utilización que se ha hecho de la información, por el

25

control democrático de los informes, por las secuelas que la evaluación ha dejado”.

(Santos Guerra & Moreno Olivos, 2004)

Una mirada epistemológica de la validez y la confiabilidad.

El ICFES (2009) señala que la construcción de una prueba objetiva que cumpla los fines para la

cual fue diseñada debe obedecer a dos criterios fundamentales: la confiabilidad, asumida como

la obtención de los mismos resultados utilizando el mismo instrumento bajo condiciones

específicas en distintos momentos, y la validez, entendida como la exactitud en la medición del

objeto de estudio:

“Una prueba es válida si mide lo que se pretende medir. El grado de validez de una

prueba se refiere a la exactitud con la cual se mide la cualidad o atributo que se quiere

medir con la prueba. Es el grado en el cual las interpretaciones sobre el objeto de

evaluación (competencias, conocimientos, etc.) de una persona o un grupo de personas,

son correctas, a partir de su o sus respuestas a una pregunta.” (ICFES, 2009)

Con el fin de asegurar la validez y confiabilidad de las pruebas, el ICFES se basa en un modelo

de evidencias, en el que se plantean una serie de afirmaciones (enunciados sobre las habilidades

esperadas) a partir de las cuales se establecen las evidencias (productos observables que permiten

verificar la afirmación). Así, teniendo en cuenta el modelo de análisis de ítems implementado,

modelo Rasch, cada evidencia debe ser evaluada de forma aislada, de manera que al final la

suma de factores separados da cuenta del estado general de la competencia en el estudiante.

Es por esta evaluación aislada de las evidencias que se asume una concepción positivista

tradicional de la validez y confiabilidad de las pruebas.

Así como se ha modificado sustancialmente la visión de una ciencia estática a una sujeta a

cambios y construida desde el contexto social, también debe cambiarse la base epistemológica

de las pruebas con las que se pretende evaluar la educación en ciencias naturales, puesto que

actualmente se ha aceptado que la realidad es un sistema complejo en el que las partes

constituyentes interactúan entre sí para darle un nuevo sentido al conjunto (Martínez, 2011).

Uno de los supuestos para el armado es que el instrumento de evaluación debe ser un todo

armónico que evalúe lo más completamente posible al sujeto. Ahora bien, no solo es la reunión

de varios ítems que valoren por separado distintas evidencias, sino que es necesario establecer

un algoritmo que permita relacionar las preguntas a fin de establecer una visión global respecto

a la serie de pensamientos que surgen en el estudiante a la hora de resolver una situación en

ciencias naturales. Como señala Polanyi (1966) no podemos comprender el todo sin ver sus

partes, pero tampoco podemos ver las partes sin comprender el todo.

En el caso de la prueba Saber Pro, se implementan casos de estudio en los que, a partir de una

situación específica, el estudiante debe hacer uso de diversos conocimientos transversales

adquiridos a lo largo de su formación. Se propone aplicar casos similares en las pruebas de

ciencias naturales, de forma que la interacción de las evidencias modifique la interpretación

global de la competencia, favoreciendo una visión sistémica del conocimiento científico.

De esta forma, se asumiría la validez como la apreciación de la realidad en sentido pleno, y no

sólo un aspecto o parte de la misma y la confiabilidad como estabilidad, seguridad, congruencia

26

en la interpretación de los resultados de una prueba en diferentes tiempos (Martínez Migueléz,

2006)

Las bases epistemológicas de la validación de ítems

Uno de los aspectos más rescatables de la pasantía llevada a cabo en el instituto fue dar una

importancia significativa al proceso de validación, pues anteriormente se realizaba como parte

de un protocolo puesto que se asumía que no habrían mayores aportes a la pregunta después de

haber pasado por diversas revisiones con expertos en el área. Sin embargo, se observó que la

selección cuidadosa de los validadores así como un juicioso seguimiento a las discusiones en

torno a los ítems, proporcionó excelentes y valiosos aportes al proceso de revisión.

Para lograr lo anterior, se tomaron en cuenta ciertos criterios sugeridos por Martínez (2006) para

asegurar la validez y confiabilidad internas. En el primer caso, se hizo hincapié en:

- Registrar los cambios a lo largo del proceso de validación, esto cuando los validadores

permanezcan invariados a lo largo de la actividad.

- Calibrar hasta qué punto la posición del moderador/gestor afecta la realidad observada.

- Garantizar la credibilidad de la información recolectada. Para esto, se debe buscar

contrastar los datos obtenidos en distintos momentos y con distintos validadores.

En el segundo caso, se prestó especial atención a:

- Uso de “categorías descriptivas de bajo nivel de inferencia” (Martínez Migueléz, 2006)de

manera que se omita en lo más posible todo tipo de interpretaciones, limitando a la

descripción de la circunstancia y el aporte a la pregunta.

- Presencia de varios investigadores, con el fin de asegurar una interdisciplinariedad en los

aportes al ítem.

- Implementación de medios y tecnologías a la mano para garantizar un análisis total de

los aportes.

Por otro lado, también hubo confiabilidad externa al tener en cuenta aspectos como:

- Precisión del nivel de participación del moderador/gestor: a lo largo del proceso, se hizo

énfasis en que el papel del gestor y moderador debía proporcionar la distancia suficiente

para que no hubiese interferencias en las discusiones llevadas a cabo por el grupo de

validadores.

- Identificación y caracterización de los validadores: se tuvo especial cuidado en la

selección de las instituciones y docentes para la validación, haciendo énfasis especial en

la formación y experiencia profesional con el grado al cual se dirigían las preguntas por

revisar.

- Revisión del contexto de los validadores: se observó que un factor determinante en la

calidad de los aportes a las preguntas es el contexto laboral y social del docente validador,

puesto que las orientaciones formativas de las instituciones difiere sustancialmente entre

las oficiales y las no oficiales.

Limitaciones de la validación de ítems: los problemas de la interpretación subjetiva de las preguntas.

Como Heidegger sostiene, el ser humano es inherentemente interpretativo, por tanto, toda

información que esté sujeta a la evaluación de sus sentidos estará también inmersa en la

interpretación subjetiva del mismo.

27

Una de las técnicas utilizadas para superar las dificultades de la subjetividad en la valoración de

los ítems fue la discusión y la entrevista dirigida, de forma que no se sesgaran las opiniones a un

solo punto de vista, sino que fuese posible ver la situación desde distintos ángulos.

A pesar de que se propendió en todo momento asegurar una objetividad persistente a lo largo

del proceso de validación, la revisión de un ítem implica interpretarlo, argumentarlo y

enmarcarlo en el contexto de la mente de un estudiante, por lo cual es muy diferente asumir la

pregunta desde la perspectiva de un alumno de una población vulnerable (por ejemplo, la

Guajira) a comprenderla desde la posición de un sujeto de una institución educativa privilegiada

(por ejemplo, un colegio internacional).

Al respecto, hubo una marcada discusión acerca de los procesos de inclusión en las pruebas

Saber, desembocando obviamente en los problemas de raíz en el sistema educativo del país

respecto a las herramientas para enseñar ciencias naturales en poblaciones de difícil acceso.

Actualmente el ICFES está implementando la traducción de las pruebas a Lengua de Señas

Colombiana, LSC. Sin embargo, existen problemas inevitables por la educación propia en

ciencias naturales a la población con discapacidad auditiva, además de la inexistencia de

personal especializado en la construcción de pruebas específicas para el estudiantado sordo.

Sugerencias al proceso:

Se puede considerar que se realizó una triangulación de métodos y técnicas al implementar

primero una validación individual utilizando un formato a manera de encuesta, y después llevar

a cabo una validación grupal, en la que se desarrolla la discusión en torno a los ítems a través de

una observación participativa.

No obstante, sería interesante aplicar una triangulación interdisciplinaria con el fin de revisar

factores transversales en la prueba de ciencias naturales, por ejemplo referentes sociales en las

situaciones planteadas en las preguntas; asimismo, se observaron ítems en las pruebas de

competencias ciudadanas en las que se aplicaban conceptos propios de las ciencias naturales,

para lo que resultaría muy conveniente la participación de un experto de ésta a fin de evitar

errores conceptuales.

Finalmente, como se ha indicado anteriormente, se sugiere cambiar la perspectiva positivista

tradicional a una concepción sistémica de las pruebas, en la que se establezcan relaciones entre

las evidencias a fin de proporcionar una visión global de las competencias en ciencias naturales.

Esto implica también modificar el concepto de validez y confiabilidad.

7. ALCANCE DE LOS RESULTADOS

Las contribuciones a la institución por parte de la estudiante se pueden dividir en dos ramas:

materia intelectual y procedimental.

En el primer aspecto, la validación de preguntas constituye un paso fundamental para el

ingreso de ítems al banco de pruebas. Por otro lado, también se participó en proyectos como

calificación de pregunta abierta de ciencias naturales en Saber 11° y PISA 2015.

28

En el segundo aspecto, se implementaron y/o mejoraron los siguientes procedimientos:

- Revisión de pruebas 3579 en digital:

- Construcción (C2.P1) y Edición & diagramación de pruebas (C2.P2) según la NTCGP

1000.

8. IMPACTOS

Los impactos se consideran bilaterales puesto que se contribuyó ampliamente a la Subdirección

de Producción de Instrumentos en los aspectos anteriormente mencionados, y así mismo hubo

un importante aporte a la estudiante en práctica en cuanto al desarrollo de competencias

laborales y personales así como un pensamiento crítico de la evaluación de la educación en

ciencias naturales en Colombia fundamentada en la perspectiva institucional.

- Desarrollo de competencias laborales: Se fortaleció el sentido de responsabilidad con la

institución, el compromiso con la calidad de resultados propuestos, la conciencia acerca

de la coherencia entre los objetivos y los procedimientos, manejo de normas técnicas de

calidad (NTGCP 1000)

- Desarrollo de competencias personales: Se mejoraron aspectos como capacidad de

aprendizaje continuo, trabajo en equipo, liderazgo y toma de decisiones, manejo de

relaciones interpersonales.

Por tanto, puede afirmarse que la pasantía resultó enriquecedora para ambas partes.

9. CONCLUSIONES

Durante las pasantías desarrolladas en el ICFES, la estudiante dirigió y coordinó la validación

de 1059 preguntas de ciencias naturales de los programas Saber 5°, 7°, 9° y 11°para su ingreso

al banco de ítems piloto, para lo cual se requirió la implementación continua de conocimientos

de química, metaciencias, evaluación en educación e investigación educativa.

Por otro lado, se realizaron importantes aportes al proceso de validación de ítems ya que se

establecieron bases epistemológicas desde la perspectiva sistémica de las ciencias.

Finalmente, hubo una contribución significativa a la formación de la estudiante ya que la

pasantía propició un espacio para la autoevaluación como futura docente de ciencias naturales

y la adquisición de un pensamiento crítico frente a cómo se educa y se evalúa en el país en ésta

área desde una perspectiva institucional, además del desarrollo de competencias laborales y

personales que garantizan la construcción de una profesional íntegra.

29

10. REFERENCIAS

Bloom, B., Hastings, J., & Madaus, G. (1975). Evaluación del aprendizaje. Buenos Aires: Editorial

Troquel.

CAJIGAS, R., & GARCIA , Y. (2014). LA EVALUACIÓN DE LOS APRENDIZAJES EN

LAS CIENCIAS NATURALES: Una compliación bibliográfica (2000-2013). Trabajo

para optar el título de Licenciados en Educación Básica. Santiago de Cali: UNIVERSIDAD

DEL VALLE.

Clavijo, G. (Septiembre de 2008). La evaluación del proceso de formación. Obtenido de

http://www.colombiaaprende.edu.co/html/productos/1685/articles-

178627_ponen7.pdf

Cohen, L., & Lawrence, M. (1990). Métodos de investigación educativa (tercera edición ed.).

Madrid: La muralla, colección Aula Abierta.

Eisner, E. (1967). Educational ObjetivesHelp or Hindrence. The School Review.

Fonseca, J. (2007). Modelos cualitativos de evaluación. Educere, 427-432.

González, M., Sáenz, C., & Sánchez, G. (1998). Examen de estado para ingreso a la educación

superior. Pruebas de Ciencias Naturales. Bogotá D.C.: Editorial Creamos alternativas Soc.

Grupo de Evaluación de la Educación Básica y Media - Subdirección Académica. (1999).

ANTECEDENTES Y MARCO LEGAL DEL EXAMEN DE ESTADO. Bogotá D.C.:

ICFES.

Guba, E. G., & Loncoln., Y. S. (1989). Fourth Generation Evaluation. Londres: Sage Publications.

Herrera Capita, Á. M. (Marzo de 2009). La evaluación de los procesos de enseñanza

aprendizaje. Revista digital Innovación y Experiencias educativas(16).

ICFES. (2009). MANUAL PARA LA CONSTRUCCIÓN DE ÍTEMS TIPO SELECCIÓN DE

RESPUESTA. Bogotá D.C.

ICFES. (07 de Noviembre de 2015). ¿Cómo se elaboran las pruebas? Obtenido de

http://www.icfes.gov.co/examenes/acerca-de-las-evaluaciones/como-se-elaboran-las-

pruebas. Consultado 28/03/2015

Instituto Colombiano para la Evaluación de la Educación. (Septiembre de 2015). ICFES.

Obtenido de http://www.icfes.gov.co/index.php/atencion-al-ciudadano/glosario/6-

competencias

Martinez , P., Lopez, T., Amador, P., & Saenz, C. (2000). Transformaciones en las pruebas para

obtener resultados diferentes. Bogotá D.C.: Nuevo examen de estado para el ingreso a la

educación superior.

Martínez Migueléz, M. (2006). Validez y confiabilidad en la metodología cualitativa. Paradigma,

27(2).

30

Martínez, M. (2011). El paradigma sistémico, la complejidad y la transdisciplinariedad. Revista

electrónica de humanidades, educación y comunicación social, 6 - 27.

MEN. (1962). Decreto 45.

MEN. (1974). Decreto 80.

MEN. (1984). Decreto 1002.

MEN. (1988). Lineamientos curriculares. Ciencias naturales y educación ambiental. . Bogotá D.C.

MEN. (1991). Dirección General de capacitación y perfeccionamiento docente, currículo y

medios educativos. Ciencias naturales y salud. Marco general: propuesta de programa

curricular. Bogotá D.C.

MEN. (1993). Dirección general de educación. Ciencias Naturales y educación ambiental. Marco General.

Bogotá D.C.

MEN. (2006). Estándares Básicos de Competencias en Lenguaje, matemáticas, ciencias y ciudadanas.

Bogotá D.C.

MINISTERIO DE EDUCACIÓN NACIONAL. (2009). DECRETO 5014 DE 2009. Bogotá D.C.

Mora Vargas, A. I. (diciembre de 2004). LA EVALUACIÓN EDUCATIVA: CONCEPTO,

PERÍODOS Y MODELOS. Actualidades Investigativas en Educación, 04(2).

Munarriz, B. (1991). Técnicas y métodos en Investigación cualitativa. Vitoria: Universidad del País

Vasco.

Parlett, M., & Hamilton. (1972). Evaluation and Illumition. En Curriculum Revaluation Today.

Trends and Implications. Londres: Mc Millan.

Polanyi, M. (1966). El estudio del hombre. Paidós.

Santos Guerra, M. Á., & Moreno Olivos, T. (2004). ¿El momento de la metaevaluación

educativa? Consideraciones sobre epistemología, método, control y finalidad. Revista

mexicana de investivación educativa, IX(023), 913-931.

Stufflebeam, D., & Shinkfield, A. (1995). Evaluación sistemática - Guía teórica y. Centro de

Publicaciones del Ministerio de Educación y Ciencia.

Toro , J., González, M., & Naranjo, N. (2013). Alineación del examen Saber 11°. Anexo 4. La prueba

de ciencias naturales. Bogotá D.C.

Toro, J., Reyes, C., Martínez , C., Castelblanco , R., Cárdenas , Y., & Granés, F. (2007).

Fundamentación área de ciencias naturales. Bogotá D.C.

Tyler, R. (1973). Principios básicos del currículo. Buenos Aires: Centro Regional de Ayuda Técnica

AID.

31

ANEXO 1. Cronograma de actividades

Tabla 5. Cronograma de actividades a realizar durante las pasantías en la Subdirección de Producción de Instrumentos.

1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4

1Reconocimiento de la institución, grupo de trabajo,

principales actividades de la subdirección

2 Empalme de labores en la construcción de ítems en curso

3Acompañamiento a talleres de validación de ítems “Pensar

en voz alta” Saber 11 en el área de ciencias naturales.

4Coordinación de la logística para el proceso de validación de

ítems de pruebas SABER 5º, 9º y 11º en diversas áreas.

5Validación de ítems de pruebas SABER 5º, 9º y 11º en

diversas áreas.

6Ajuste y retroalimentación de acuerdo a la validación de

ítems de pruebas SABER 5º, 9º y 11º en diversas áreas.

7 Validación de ítems de pruebas SABER 7° en diversas áreas.

8Ajuste y retroalimentación de acuerdo a la validación de

ítems de pruebas SABER 7º en diversas áreas.

9 Digitalización de pruebas 3°, 5°, 7°, y 9° en TAO

10 Revisión digital 3579 en TAO

MAYO JUNIO JULIO AGOSTO

Actividad desarrollada por

la estudiante

No.

Actividad desarollada por

diagramadores del ICFES

FEBRERO MARZO ABRILActividad

32

ANEXO 2. Cumplimiento de horas de pasantía

Tabla 6. Cumplimiento de horas semanales establecidas por el Acuerdo 031 de junio de 2014

Inicio Fin

1 Semana 1 23-feb 27-feb 36

2 Semana 2 02-mar 06-mar 36

3 Semana 3 09-mar 13-mar 36

4 Semana 4 16-mar 20-mar 36

Semana 5 23-mar 27-mar 36

Semana 6 06-abr 10-abr 36

Semana 7 13-abr 17-abr 36

Semana 8 20-abr 24-abr 36

Semana 9 27-abr 01-may 36

Semana 10 04-may 08-may 36

Semana 11 11-may 15-may 36

Semana 12 18-may 22-may 36

Semana 13 25-may 29-may 36

Semana 14 01-jun 05-jun 36

Semana 15 08-jun 12-jun 36

Semana 16 03-ago 07-ago 36

Semana 17 10-ago 14-ago 36

Semana 18 17-ago 21-ago 36

Semana 19 24-ago 28-ago 36

684TOTAL HORAS**

*Las fechas corresponden a 2015

**Horas mínimas totales de pasantía según acuerdo 031 de 2014 son

382

Fecha*Semana

Horas de

pasantía

5

Número de

actividad

6

7

8

10

33

ANEXO 3. Evaluación de la pasantía emitida por supervisor de la

práctica en el ICFES

34

ANEXO 4. Constancia emitida por el ICFES de la realización de la

pasantía