dossier investigacion

540
UNIVERSIDAD MILITAR DE LAS FF.AA. DE LA NACIÓN ESCUELA DE COMANDO Y ESTADO MAYOR “MARISCAL. ANDRÉS DE SANTA CRUZ” DIVISIÓN DE PROGRAMAS DE POSTGRADO BOLIVIA DOSSIER DE TEMAS DE INVESTIGACIÓN MATERIAL BIBLIOGRÁFICO DE APOYO PARA DIPLOMANTES EN INVESTIGACIÓN CIENTÍFICA Y TÉCNICA COMPILADOR: Lic. Jesús Demis Zuna Aguilar agosto del año 2010 COCHABAMBA – BOLIVIA

Upload: paolo-marzana

Post on 30-Jul-2015

217 views

Category:

Documents


16 download

TRANSCRIPT

Page 1: Dossier Investigacion

UNIVERSIDAD MILITAR DE LAS FF.AA. DE LA NACIÓN ESCUELA DE COMANDO Y ESTADO MAYOR

“MARISCAL. ANDRÉS DE SANTA CRUZ” DIVISIÓN DE PROGRAMAS DE POSTGRADO BOLIVIA

DOSSIER DE TEMAS DE INVESTIGACIÓN

MATERIAL BIBLIOGRÁFICO DE APOYO PARA

DIPLOMANTES EN INVESTIGACIÓN CIENTÍFICA Y TÉCNICA

COMPILADOR: Lic. Jesús Demis Zuna Aguilar

agosto del año 2010

COCHABAMBA – BOLIVIA

Page 2: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar i

ÍNDICE DE CONTENIDOS Pág.

PROEMIO............................................................................................................................................................1 1. CAPITULO I: GUIA PARA LA ELABORACIÓN DEL PERFIL DE INVESTIGACIÓN...............................2 1.1. INDICACIONES GENERALES PARA EL QUE INICIA UN PROYECTO DE INVESTIGACION............3 1.2. LA ELABORACIÓN DE LOS PROYECTOS DE INVESTIGACIÓN........................................................6 1.2.1. ESQUEMA PARA LA ELABORACIÓN DE UN PROYECTO DE INVESTIGACIÓN...........................6 1.2.2. DESARROLLO DE ASPECTOS DE LA ELABORACIÓN DE UNA INVESTIGACIÓN.......................7 1.2.2.1. EL PROBLEMA ..................................................................................................................................7 1.2.2.1.1. Título descriptivo del proyecto.....................................................................................................7 1.2.2.1.2. Formulación del problema. ...........................................................................................................7 1.2.2.1.3. Objetivos de la investigación. ......................................................................................................8 1.2.2.1.4. Justificación ...................................................................................................................................8 1.2.2.2. MARCO DE REFERENCIA ................................................................................................................9 1.2.2.2.1. Fundamentos teóricos. .................................................................................................................9 1.2.2.2.2. Antecedentes del tema. .................................................................................................................9 1.2.2.2.3. Elaboración de hipótesis. ...........................................................................................................10 1.2.2.2.4. Identificación de las variables. ...................................................................................................10 1.2.2.3. METODOLOGÍA ...............................................................................................................................11 1.2.2.3.1. Diseño de técnicas e instrumentos de recolección de información. .....................................11 1.2.2.3.2. Población y muestra. ...................................................................................................................11 1.2.2.3.3. Técnicas de análisis. ...................................................................................................................12 1.2.2.3.4. Indice analítico tentativo del proyecto.......................................................................................12 1.2.2.3.5. Guía de trabajo de campo. ..........................................................................................................12 1.2.2.4. ASPECTOS ADMINISTRATIVOS....................................................................................................12 1.2.2.4.1. Recursos humanos......................................................................................................................12 1.2.2.4.2. Presupuesto. ................................................................................................................................13 1.2.2.4.3. Cronograma..................................................................................................................................13 1.2.2.5. BIBLIOGRAFÍA ................................................................................................................................13 1.2.3. REFERENTES .....................................................................................................................................14 2. CAPITULO II: BASES EPISTEMOLÓGICAS DE LA INVESTIGACIÓN .................................................15 2.1. LA EVOLUCIÓN DEL PENSAMIENTO CIENTÍFICO............................................................................16 2.1.1. DESARROLLO DEL PENSAMIENTO CIENTÍFICO...........................................................................16 2.1.2. REFERENTES .....................................................................................................................................27 2.2. LA NATURALEZA DE LA CIENCIA Y EL MÉTODO CIENTÍFICO.......................................................28 2.2.1. LA CIENCIA: UNA CARACTERIZACIÓN GENERAL........................................................................28 2.2.2. LAS CIENCIAS FORMALES Y EL MÉTODO AXIOMÁTICO ............................................................28 2.2.3. LA CUESTIÓN DEL MÉTODO EN LA CIENCIA EMPÍRICA: LAS TRADICIONES INDUCTIVISTAS Y REFUTACIONISTAS .....................................................................................................................................29 2.2.3.1. EL INDUCTIVISMO ..........................................................................................................................29 2.2.3.2. EL REFUTACIONISMO....................................................................................................................32 2.2.4. LAS CIENCIAS FORMALES Y LAS CIENCIAS FÁCTICAS: DIFERENCIAS ADICIONALES ........34 2.2.5. EL CONOCIMIENTO CIENTÍFICO Y SUS CONTEXTOS ..................................................................35 2.2.6. EL CONOCIMIENTO CIENTÍFICO Y SUS PECULIARIDADES.........................................................36 2.2.7. NOTAS.................................................................................................................................................37 2.2.8. REFERENCIAS ...................................................................................................................................37 2.3. LA CIENCIA Y EL MÉTODO CIENTÍFICO ............................................................................................39 2.3.1. EL EMPIRISMO LÓGICO....................................................................................................................43 2.3.2. EL FALSACIONISMO DE POPPER ...................................................................................................44 2.3.3. REFERENCIAS ...................................................................................................................................45 2.4. EL POSITIVISMO ...................................................................................................................................46 2.4.1. INTRODUCCIÓN .................................................................................................................................46 2.4.2. EL POSITIVISMO, SUS ORÍGENES...................................................................................................46 2.4.3. DEFINICIÓN ........................................................................................................................................50 2.4.4. ACTUALIDAD DEL PENSAMIENTO ..................................................................................................57 2.4.5. EL POSITIVISMO EN VENEZUELA ...................................................................................................58 2.4.6. REFERENCIAS ...................................................................................................................................64 2.5. LÓGICA Y ÉTICA EN KARL POPPER..................................................................................................66

Page 3: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar ii

2.6. LÓGICA Y EPISTEMOLOGÍA DE LA CIENCIA SOCIAL: ENSAYO SOBRE EL ENTENDIMIENTO REFLEXIVO EN HEGEL...................................................................................................................................81 2.6.1. INTRODUCCIÓN .................................................................................................................................81 2.6.2. LÓGICA Y REPRESENTACIÓN DE REALIDAD ...............................................................................81 2.6.3. LA DIALECTIZACIÓN HEGELIANA DE LA LÓGICA........................................................................82 2.6.4. LÓGICA COMO REPRESENTACIÓN Y LÓGICA COMO LENGUAJE.............................................90 2.6.5. DETERMINACIÓN DIALÉCTICA Y EPISTEMOLOGÍA DE LA CIENCIA .........................................93 2.7. EL ESTUDIO DE LA CIENCIA Y LOS PARADIGMAS DE THOMAS S. KHUN...................................98 2.8. RECURSOS PARA LA INVESTIGACIÓN SISTÉMICO/CONSTRUCTIVISTA...................................107 2.8.1. INTRODUCCIÓN ...............................................................................................................................107 2.8.2. LA OBSERVACIÓN DE SEGUNDO ORDEN ...................................................................................107 2.8.3. EL DOMINIO DE INVESTIGACIÓN SISTÉMICO/CONSTRUCTIVISTA ..........................................109 2.8.4. ORIENTACIONES PARA LAS NUEVAS METODOLOGÍAS...........................................................110 2.8.5. METODOLOGÍAS APROPIADAS ....................................................................................................111 2.8.6. CRITERIOS DE VALIDEZ PARA LA INVESTIGACIÓN DE SEGUNDO ORDEN ...........................114 2.8.7. ANEXOS, PASOS Y PROCEDIMIENTOS DE INVESTIGACIÓN ....................................................116 2.8.8. REFERENCIAS .................................................................................................................................117 2.8.9. NOTAS...............................................................................................................................................118 2.9. MARCO TEÓRICO ...............................................................................................................................121 2.9.1. CÓMO SE DEBE LEER PARA FORMULAR UN MARCO TEÓRICO. ............................................122 2.9.2. INTEGRACIÓN DEL MATERIAL ......................................................................................................124 2.9.3. DEFINICIÓN DE TÉRMINOS BÁSICOS...........................................................................................124 2.9.4. DEFINICIÓN OPERACIONAL...........................................................................................................126 2.9.4.1. FUNCIÓN DE LOS CONCEPTOS O DEFINICIONES OPERACIONALES: .................................127 2.9.5. REQUISITOS DE LOS CONCEPTOS: .............................................................................................127 2.9.6. REGLAS PARA DEFINIR..................................................................................................................127 2.9.7. ESQUEMA DE LA INVESTIGACIÓN................................................................................................128 2.9.8. REFERENCIAS .................................................................................................................................131 2.10. LA INVESTIGACIÓN EN LAS CIENCIAS SOCIALES ......................................................................132 2.10.1. EL MÉTODO COMPARATIVO........................................................................................................134 2.10.2. EL PLANTEAMIENTO DE PROBLEMAS DE INVESTIGACIÓN SEGÚN EL MATERIALISMO HISTÓRICO.....................................................................................................................................................135 2.10.3. REFERENCIAS ...............................................................................................................................136 3. CAPITULO III: BASES PARA LA INVESTIGACIÓN CUANTITATIVA..................................................137 3.1. EL DISEÑO DE LA INVESTIGACIÓN .................................................................................................138 3.1.1. TIPOS DE DISEÑO............................................................................................................................138 3.1.2. DISEÑOS BIBLIOGRÁFICOS...........................................................................................................139 3.1.3. DISEÑOS DE CAMPO.......................................................................................................................141 3.1.4. DISEÑO EXPERIMENTAL ................................................................................................................141 3.1.5. EXPERIMENTOS POST - FACTO ....................................................................................................144 3.1.6. ENCUESTAS .....................................................................................................................................144 3.1.7. EL PANEL .........................................................................................................................................146 3.1.8. ESTUDIOS DE CASOS .....................................................................................................................147 3.1.9. EL DISEÑO CONCRETO DE LA INVESTIGACIÓN.........................................................................148 3.1.10. LA RESEÑA DE PROCEDIMIENTOS Y EL PROYECTO DE INVESTIGACIÓN ..........................148 3.1.11. REFERENCIAS ...............................................................................................................................149 3.2. LAS HIPÓTESIS ...................................................................................................................................150 3.2.1. REQUISITOS DE LAS HIPÓTESIS: .................................................................................................150 3.2.2. TIPOS DE HIPÓTESIS ......................................................................................................................151 3.2.3. DIFICULTADES PARA LA FORMULACIÓN DE HIPÓTESIS .........................................................153 3.2.4. UTILIDAD DE LAS HIPÓTESIS ........................................................................................................153 3.2.5. ESTRUCTURA DE LAS HIPÓTESIS ................................................................................................153 3.2.6. REFERENCIAS .................................................................................................................................154 3.3. LAS VARIABLES .................................................................................................................................155 3.3.1. ALGUNOS CRITERIOS PARA ESCOGER LOS INDICADORES ...................................................155 3.3.2. VARIABLE INDEPENDIENTE Y VARIABLE DEPENDIENTE.........................................................155 3.3.3. VARIABLE INTER Y VARIABLE INTRA ..........................................................................................156 3.3.4. VARIABLES EXTRAÑAS..................................................................................................................156 3.3.4.1. ELIMINACIÓN. ...............................................................................................................................156

Page 4: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar iii

3.3.4.2. CONSTANCIA DE CONDICIONES................................................................................................156 3.3.4.3. BALANCEO ....................................................................................................................................157 3.3.4.4. CONTRABALANCEO ....................................................................................................................157 3.3.4.5. ALEATORIZACIÓN ........................................................................................................................157 3.3.5. VARIABLES CONTINUAS Y VARIABLES DISCRETAS.................................................................157 3.3.6. CAUSALIDAD ...................................................................................................................................157 3.3.7. REFERENCIAS .................................................................................................................................158 3.4. LA VARIABLE ......................................................................................................................................159 3.4.1. CLASES DE VARIABLES.................................................................................................................159 3.4.2. VARIABLES Y DIMENSIONES.........................................................................................................160 3.4.3. RELACIONES ENTRE VARIABLES ................................................................................................161 3.4.4. REFERENCIAS .................................................................................................................................163 3.5. EL PROBLEMA DE LA CAUSALIDAD ...............................................................................................164 3.5.1. TIPOS DE DETERMINACIÓN ...........................................................................................................165 3.5.2. REFERENCIAS .................................................................................................................................166 3.6. INDICADORES E ÍNDICES ..................................................................................................................167 3.6.1. CRITERIOS A CONSIDERAR PARA EL USO DE INDICADORES: ...............................................168 3.6.2. ESCALAS DE MEDICIÓN .................................................................................................................169 3.6.3. CLASES DE ESCALAS ....................................................................................................................170 3.6.4. CARACTERÍSTICAS DE LAS ESCALAS DE MEDICIÓN ...............................................................171 3.6.5. LOS ÍNDICES ....................................................................................................................................172 3.6.6. REFERENCIAS .................................................................................................................................177 3.7. POBLACIÓN Y MUESTRA ..................................................................................................................178 3.7.1. LEYES DEL MÉTODO DE MUESTREO...........................................................................................178 3.7.2. TIPOS DE MUESTRAS .....................................................................................................................179 3.7.3. REFERENCIAS .................................................................................................................................180 3.8. EL MUESTREO ....................................................................................................................................181 3.8.1. DATOS Y UNIDADES .......................................................................................................................182 3.8.2. UNIVERSO Y MUESTRA ..................................................................................................................183 3.8.3. MUESTRAS ALEATORIAS...............................................................................................................184 3.8.4. TAMAÑO DE LA MUESTRA Y ERROR MUESTRAL ......................................................................187 3.8.5. REFERENCIAS .................................................................................................................................188 3.9. MEDIDAS DE TENDENCIA CENTRAL Y DE DISPERSIÓN ..............................................................189 3.9.1. ESTADÍSTICA SUMARIA .................................................................................................................189 3.9.2. LA MEDIA ARITMÉTICA...................................................................................................................189 3.9.2.1. SÍMBOLOS CONVENCIONALES..................................................................................................189 3.9.2.2. CÁLCULO DE LA MEDIA A PARTIR DE DATOS NO AGRUPADOS. ........................................190 3.9.2.3. CODIFICACIÓN:.............................................................................................................................190 3.9.2.4. VENTAJAS Y DESVENTAJAS DE LA MEDIA ARITMÉTICA. .....................................................191 3.9.3. LA MEDIANA.....................................................................................................................................191 3.9.3.1. CÁLCULO DE LA MEDIANA A PARTIR DE DATOS NO AGRUPADOS: ...................................192 3.9.3.2. CÁLCULO DE LA MEDIANA A PARTIR DE DATOS AGRUPADOS: .........................................192 3.9.3.3. VENTAJAS Y DESVENTAJAS DE LA MEDIANA: .......................................................................193 3.9.4. LA MODA ..........................................................................................................................................193 3.9.4.1. CÁLCULO DE LA MODA DE DATOS AGRUPADOS: .................................................................193 3.9.4.2. VENTAJAS Y DESVENTAJAS DE LA MODA:.............................................................................194 3.9.4.3. COMPARACIÓN ENTRE LA MEDIA, LA MEDIANA Y LA MODA...............................................194 3.9.5. LA DISPERSIÓN ...............................................................................................................................195 3.9.5.1. MEDIDAS DE DISPERSIÓN. .........................................................................................................195 3.9.5.2. ALCANCE.......................................................................................................................................196 3.9.5.2.1. Alcance Interfractil.....................................................................................................................196 3.9.5.2.2. Alcance Intercuartil....................................................................................................................196 3.9.6. MEDIDAS DE DESVIACIÓN PROMEDIO ........................................................................................197 3.9.7. VARIANZA DE LA POBLACIÓN. .....................................................................................................197 3.9.7.1. DESVIACIÓN ESTÁNDAR DE LA POBLACIÓN ..........................................................................197 3.9.7.2. USOS DE LA DESVIACIÓN ESTÁNDAR......................................................................................198 3.9.7.3. CON MÁS PRECISIÓN: .................................................................................................................198 3.9.7.4. RESULTADO ESTÁNDAR:............................................................................................................198

Page 5: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar iv

3.9.7.5. CÁLCULO DE LA VARIANZA Y LA DESVIACIÓN ESTÁNDAR UTILIZANDO DATOS AGRUPADOS: ................................................................................................................................................198 3.9.7.6. DESVIACIÓN ESTÁNDAR DE UNA MUESTRA:..........................................................................199 3.9.7.7. DISPERSIÓN RELATIVA: EL COEFICIENTE DE VARIACIÓN ...................................................199 3.9.7.8. CONCEPTOS .................................................................................................................................200 3.9.7.9. RECOMENDACIONES PRÁCTICAS: ...........................................................................................202 3.9.8. REFERENCIAS .................................................................................................................................202 3.10. INFERENCIA ESTADÍSTICA .............................................................................................................203 3.10.1. INTRODUCCIÓN AL MUESTREO ..................................................................................................203 3.10.1.1. CONDICIONES QUE DEBE REUNIR UNA MUESTRA: .............................................................203 3.10.1.2. ESTADÍSTICAS Y PARÁMETROS..............................................................................................203 3.10.2. PARÁMETROS Y ESTIMADORES.................................................................................................204 3.10.2.1. MUESTREO ALEATORIO............................................................................................................204 3.10.2.1.1. Muestreo Aleatorio Simple......................................................................................................204 3.10.2.1.2. Muestreo Sistemático. .............................................................................................................205 3.10.2.1.3. Muestreo Estratificado. ...........................................................................................................205 3.10.2.2. MUESTREO DE RACIMO ............................................................................................................206 3.10.3. INTRODUCCIÓN A LAS DISTRIBUCIONES DE MUESTREO......................................................207 3.10.3.1. DESCRIPCIÓN DE LAS DISTRIBUCIONES DE MUESTREO. ..................................................207 3.10.3.2. CONCEPTO DE ERROR ESTÁNDAR.........................................................................................207 3.10.3.3. USO DEL ERROR ESTÁNDAR. ..................................................................................................208 3.10.4. BASE CONCEPTUAL PARA MUESTREAR DISTRIBUCIONES. .................................................208 3.10.4.1. MUESTREO DE POBLACIONES NORMALES. .........................................................................208 3.10.4.2. MUESTREO DE POBLACIONES NO NORMALES. ...................................................................209 3.10.4.2.1. El teorema del límite central. ..................................................................................................209 3.10.4.2.2. Relación entre el tamaño de la muestra y el error estándar. ..............................................210 3.10.4.2.3. El multiplicador de la población finita. ..................................................................................211 3.10.5. ESTIMACIÓN...................................................................................................................................215 3.10.5.1. TIPOS DE ESTIMACIÓN..............................................................................................................215 3.10.5.2. ESTIMADOR Y ESTIMACIONES.................................................................................................216 3.10.5.3. CRITERIOS PARA SELECCIONAR UN BUEN ESTIMADOR....................................................216 3.10.5.4. ESTIMACIONES PUNTUALES....................................................................................................217 3.10.5.4.1. Estimación puntual de la varianza y de la desviación estándar de la población..............217 3.10.5.4.2. Estimación puntual de la porción de la población. ..............................................................218 3.10.5.5. ESTIMACIONES DE INTERVALO...............................................................................................218 3.10.5.5.1. Probabilidad de que el parámetro de la población esté dentro de la estimación. ............218 3.10.5.5.2. Estimaciones de intervalo e intervalos de confianza...........................................................219 3.10.5.5.3. Relación entre el nivel de confianza e intervalo de confianza. ...........................................219 3.10.5.5.4. Uso del muestreo y de la estimación de intervalos de confianza. .....................................219 3.10.5.5.5. Cálculo de estimaciones de intervalo de la media a partir de muestras grandes. ...........219 3.10.5.5.6. Cuando no se conoce la desviación estándar......................................................................220 3.10.6. DETERMINACIÓN DEL TAMAÑO DE LA MUESTRA. ..................................................................220 3.10.7. SUGERENCIAS:..............................................................................................................................220 3.10.8. CONCEPTOS. .................................................................................................................................221 3.10.9. PRUEBAS DE HIPÓTESIS .............................................................................................................222 3.10.9.1. INTRODUCCIÓN ..........................................................................................................................222 3.10.9.2. INTERPRETACIÓN DEL NIVEL DE SIGNIFICANCIA. ...............................................................222 3.10.9.3. SELECCIÓN DEL NIVEL DE SIGNIFICANCIA ...........................................................................223 3.10.9.3.1. Errores tipo I y tipo II. ..............................................................................................................223 3.10.9.3.2. Pruebas de hipótesis de dos extremos y de un extremo. ...................................................223 3.10.9.3.3. Medición de la potencia de una prueba de hipótesis...........................................................224 3.10.10. SUGERENCIAS:............................................................................................................................224 3.10.11. CONCEPTOS: ...............................................................................................................................225 3.10.12. INTRODUCCIÓN A LA ESTADÍSTICA NO PARAMÉTRICA ......................................................226 3.10.12.1. VENTAJAS DE LOS MÉTODOS NO PARAMÉTRICOS. .........................................................227 3.10.12.2. DESVENTAJAS DE LOS MÉTODOS NO PARAMÉTRICOS. ..................................................227 3.10.12.3. PRUEBA DE KOLMOGOROV.SMIRNOV. ................................................................................227 3.10.13. SUGERENCIAS:............................................................................................................................228 3.10.14. CONCEPTOS: ...............................................................................................................................228

Page 6: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar v

3.10.15. REFERENCIAS .............................................................................................................................228 3.11. PROBABILIDAD.................................................................................................................................229 3.11.1. HISTORIA DE LA PROBABILIDAD ...............................................................................................229 3.11.2. CONCEPTOS BÁSICOS SOBRE PROBABILIDAD. .....................................................................229 3.11.3. TRES TIPOS DE PROBABILIDAD. ................................................................................................230 3.11.3.1. PROBABILIDAD CLÁSICA. ........................................................................................................230 3.11.3.2. FRECUENCIA RELATIVA DE PRESENTACIÓN........................................................................230 3.11.3.3. PROBABILIDADES SUBJETIVAS. .............................................................................................231 3.11.4. REGLAS DE PROBABILIDAD. ......................................................................................................232 3.11.4.1. REGLA DE LA ADICIÓN PARA EVENTOS MUTUAMENTE EXCLUYENTES. ........................232 3.11.4.2. REGLA DE ADICIÓN PARA EVENTOS QUE NO SON MUTUAMENTE EXCLUYENTES. ......233 3.11.4.3. PROBABILIDADES BAJO CONDICIONES DE INDEPENDENCIA ESTADÍSTICA. .................233 3.11.4.4. PROBABILIDADES MARGINALES BAJO INDEPENDENCIA ESTADÍSTICA. ........................233 3.11.4.5. PROBABILIDADES CONJUNTAS BAJO CONDICIONES DE INDEPENDENCIA....................233 3.11.4.6. PROBABILIDADES CONDICIONALES BAJO INDEPENDENCIA. ...........................................233 3.11.4.7. PROBABILIDADES BAJO CONDICIONES DE DEPENDENCIA ESTADÍSTICA......................234 3.11.4.8. PROBABILIDAD CONDICIONAL BAJO DEPENDENCIA ESTADÍSTICA. ...............................234 3.11.4.9. PROBABILIDADES CONJUNTAS BAJO CONDICIONES DE DEPENDENCIA. ......................234 3.11.5. CONCEPTOS: .................................................................................................................................235 3.11.6. REFERENCIAS ...............................................................................................................................235 3.12. VARIABLE ALEATORIA....................................................................................................................236 3.12.1. INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROBABILIDAD. .............................................236 3.12.2. TIPOS DE DISTRIBUCIONES DE PROBABILIDAD......................................................................236 3.12.3. VARIABLES ALEATORIAS. ...........................................................................................................236 3.12.3.1. VALOR ESPERADO DE UNA VARIABLE ALEATORIA............................................................237 3.12.3.2. TRATAMIENTO DE VARIABLES ALEATORIAS. ......................................................................237 3.12.3.2.1. Variables aleatorias discretas. ...............................................................................................237 3.12.3.2.2. Variables aleatorias continuas. ..............................................................................................238 3.12.3.2.3. Medidas características de una distribución de probabilidades. .......................................239 3.12.3.2.4. CONCEPTOS: ...........................................................................................................................239 3.12.4. REFERENCIAS ...............................................................................................................................240 3.13. DISTRIBUCIONES DE PROBABILIDAD...........................................................................................241 3.13.1. INTRODUCCIÓN. ............................................................................................................................241 3.13.2. LA DISTRIBUCIÓN BINOMIAL. .....................................................................................................241 3.13.2.1. USO DEL PROCESO DE BERNOULLI. ......................................................................................241 3.13.2.1.1. Generalizaciones: ....................................................................................................................242 3.13.2.1.2. Medidas de tendencia central y de dispersión para la distribución binomial. ..................242 3.13.2.1.3. Cumplimiento de las condiciones del proceso de Bernoulli. .............................................242 3.13.2.2. LA DISTRIBUCIÓN DE POISSON. ..............................................................................................242 3.13.2.2.1. Características de los procesos de distribución de probabilidad de Poisson. ................243 3.13.2.2.2. Cálculo de la probabilidad de Poisson. .................................................................................243 3.13.2.2.3. La distribución de Poisson como una aproximación a la distribución binomial..............244 3.13.3. LA DISTRIBUCIÓN NORMAL DE UNA VARIABLE ALEATORIA CONTINUA............................245 3.13.3.1. CARACTERÍSTICAS DE LA DISTRIBUCIÓN NORMAL DE PROBABILIDAD. ........................245 3.13.3.2. ÁREAS BAJO LA CURVA NORMAL. .........................................................................................245 3.13.3.3. USO DE LA TABLA DE DISTRIBUCIÓN DE PROBABILIDAD NORMAL ESTÁNDAR. ..........246 3.13.3.4. DEFECTOS DE LA DISTRIBUCIÓN NORMAL DE PROBABILIDAD. .......................................247 3.13.3.5. LA DISTRIBUCIÓN NORMAL COMO UNA APROXIMACIÓN DE LA DISTRIBUCIÓN BINOMIAL. ......................................................................................................................................................247 3.13.4. DISTRIBUCIÓN EXPONENCIAL. ...................................................................................................248 3.13.4.1. TEOREMA DEL LÍMITE CENTRAL.............................................................................................248 3.13.4.2. IDENTIFICACIÓN DEL MODELO APROPIADO. ........................................................................250 3.13.4.3. CONCEPTOS. ..............................................................................................................................250 3.13.5. REFERENCIAS ...............................................................................................................................252 3.14. NÚMEROS ÍNDICES ..........................................................................................................................253 3.14.1. DEFINICIÓN DE UN NÚMERO ÍNDICE..........................................................................................253 3.14.2. TIPOS DE NÚMEROS ÍNDICE........................................................................................................253 3.14.3. USOS DE LOS NÚMEROS ÍNDICE................................................................................................253 3.14.4. PROBLEMAS RELACIONADOS CON LOS NÚMEROS ÍNDICE. ................................................254

Page 7: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar vi

3.14.4.1. ÍNDICE DE AGREGADOS NO PESADOS. .................................................................................254 3.14.4.2. ÍNDICE DE AGREGADOS PESADOS.........................................................................................255 3.14.5. MÉTODOS DE PROMEDIO DE RELATIVOS.................................................................................256 3.14.5.1. MÉTODO DE PROMEDIO NO PESADO DE RELATIVOS. ........................................................256 3.14.5.2. MÉTODO DE PROMEDIO PESADO DE RELATIVOS................................................................256 3.14.6. ÍNDICES DE CANTIDAD Y VALOR................................................................................................257 3.14.6.1. ÍNDICES DE CANTIDAD..............................................................................................................257 3.14.6.2. ÍNDICES DE VALOR. ...................................................................................................................257 3.14.7. PROBLEMAS EN LA CONSTRUCCIÓN Y EN EL USO DE NÚMEROS ÍNDICE. ........................257 3.14.7.1. PROBLEMAS EN LA CONSTRUCCIÓN.....................................................................................257 3.14.7.2. ADVERTENCIA EN LA INTERPRETACIÓN DE UN ÍNDICE......................................................258 3.14.7.3. CONCEPTOS: ..............................................................................................................................258 3.14.8. REFERENCIAS ...............................................................................................................................259 3.15. RECOLECCIÓN DE LOS DATOS .....................................................................................................260 3.15.1. INDICADORES, TÉCNICAS E INSTRUMENTOS. .........................................................................260 3.15.2. DATOS PRIMARIOS Y SECUNDARIOS. .......................................................................................261 3.15.3. TÉCNICAS DE RECOLECCIÓN DE DATOS PRIMARIOS............................................................261 3.15.3.1. LA OBSERVACIÓN CIENTÍFICA. ...............................................................................................262 3.15.3.1.1. Observación simple y participante. .......................................................................................263 3.15.3.1.2. Registro y formalización de la observación..........................................................................265 3.15.3.2. LA ENTREVISTA..........................................................................................................................267 3.15.3.2.1. Entrevistas no estructuradas: ................................................................................................268 3.15.3.2.2. Entrevistas formalizadas: .......................................................................................................270 3.15.3.3. EL CUESTIONARIO AUTOADMINISTRADO..............................................................................271 3.15.3.3.1. Tipos de cuestionarios. ...........................................................................................................273 3.15.3.3.2. Listas de preferencias y ordenamientos de opciones:........................................................274 3.15.3.4. SOCIOGRAMA. ............................................................................................................................274 3.15.3.5. TESTS PSICOLÓGICOS..............................................................................................................275 3.15.3.6. TÉCNICAS PROYECTIVAS. ........................................................................................................275 3.15.3.7. ESCALAS Y DIFERENCIALES SEMÁNTICOS. .........................................................................275 3.15.3.8. ANÁLISIS DE CONTENIDO.........................................................................................................276 3.15.4. RECOLECCIÓN DE DATOS SECUNDARIOS. ..............................................................................277 3.15.5. REFERENCIAS ...............................................................................................................................279 3.16. OBTENCIÓN Y ORDENAMIENTO DE DATOS.................................................................................280 3.16.1. POBLACIÓN Y MUESTRA. ............................................................................................................280 3.16.2. ORDENAMIENTO DE DATOS. .......................................................................................................280 3.16.3. RECOLECCIÓN DE DATOS:..........................................................................................................280 3.16.3.1. DIFERENCIA ENTRE MUESTRAS Y POBLACIONES: .............................................................281 3.16.3.2. BÚSQUEDA DE UN PATRÓN SIGNIFICATIVO EN LOS DATOS: ............................................282 3.16.3.3. DATOS SIN PROCESAR: ............................................................................................................282 3.16.3.4. ORDENAMIENTO DE DATOS UTILIZANDO SU ARREGLO Y DISTRIBUCIÓN DE FRECUENCIAS: .............................................................................................................................................283 3.16.3.4.1. La distribución de frecuencias. ..............................................................................................283 3.16.3.4.2. Características de las distribuciones de frecuencias relativas. .........................................283 3.16.3.5. CONSTRUCCIÓN DE UNA DISTRIBUCIÓN DE FRECUENCIAS: ............................................284 3.16.3.6. REPRESENTACIÓN GRÁFICA DE LAS DISTRIBUCIONES DE FRECUENCIAS: ..................285 3.16.3.6.1. Histogramas. ............................................................................................................................285 3.16.3.6.2. Polígonos de frecuencias. ......................................................................................................286 3.16.3.6.3. Ojivas. .......................................................................................................................................287 3.16.3.7. TRATAMIENTO DE UNA VARIABLE DISCRETA: .....................................................................287 3.16.4. CONCEPTOS: .................................................................................................................................288 3.16.5. REFERENCIAS ...............................................................................................................................290 3.17. REGISTRO DE LA INFORMACIÓN. MODELOS DE FICHAS..........................................................291 3.17.1. FICHA BIBLIOGRÁFICA.................................................................................................................291 3.17.2. FICHA DE DIARIOS Y REVISTAS..................................................................................................292 3.17.3. FICHA DE TESIS.............................................................................................................................292 3.17.4. FICHA DE PUBLICACIÓN OFICIAL...............................................................................................293 3.17.5. FICHA DE TEXTOS JURÍDICOS. ...................................................................................................293 3.17.6. FICHA DE DOCUMENTOS NACIONALES. ...................................................................................293

Page 8: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar vii

3.17.7. FICHA DE DOCUMENTOS INTERNACIONALES. ........................................................................294 3.17.8. FICHA DE REGISTRO DE OBRAS DE RECOPILACIÓN DE CONSTITUCIONES O LEYES. ....294 3.17.9. FICHA DE REGISTRO DE PACTOS, ACUERDOS O TRATADOS INTERNACIONALES...........294 3.17.10. FICHA DE ARTÍCULOS CONTENIDOS EN LIBROS O ENCICLOPEDIAS................................295 3.17.11. FICHA DE CAMPO........................................................................................................................295 3.17.12. FICHA DE NOTICIARIO. ...............................................................................................................295 3.17.13. FICHA DE INSTITUCIÓN. .............................................................................................................295 3.17.14. FICHA DE REGISTRO DE INFORMACIÓN DE MAPAS, DIBUJOS, FOTOGRAFÍAS...............296 3.17.15. FICHA DE TRABAJO....................................................................................................................296 3.17.16. FICHA DE TRANSCRIPCIÓN TEXTUAL. ....................................................................................297 3.17.17. FICHA DE SÍNTESIS.....................................................................................................................297 3.17.18. FICHAS METODOLÓGICAS. .......................................................................................................297 3.17.19. REFERENCIAS .............................................................................................................................298 3.18. ANÁLISIS CUANTITATIVO................................................................................................................299 3.18.1. LA LÓGICA DE ESTUDIAR CANTIDADES ...................................................................................299 3.18.2. CLASIFICAR ...................................................................................................................................301 3.18.3. ANALIZAR VARIABLES INDIVIDUALES ......................................................................................303 3.18.4. ANALIZAR LAS RELACIONES ENTRE VARIABLES...................................................................307 3.18.5. REFERENCIAS ...............................................................................................................................320 4. CAPITULO IV: BASES PARA LA INVESTIGACIÓN CUALITATIVA ....................................................321 4.1. LA NATURALEZA DE LA INVESTIGACIÓN CUALITATIVA .............................................................322 4.1.1. COMPRENSIÓN MEDIANTE LA EXPERIENCIA: ...........................................................................323 4.1.2. LA INTERPRETACIÓN COMO MÉTODO. .......................................................................................326 4.1.3. OTRAS CARACTERÍSTICAS DE LA INESTIGACIÓN CUALITATIVA. ..........................................328 4.1.4. RECONOCIMIENTO DE CULPAS. ...................................................................................................329 4.2. UN INVESTIGADOR PRINCIPIANTE ..................................................................................................332 4.3. LA OBSERVACIÓN..............................................................................................................................338 4.3.1. OBSERVACIÓN PARTICIPANTE: ...................................................................................................338 4.3.2. OBSERVACIÓN NO PARTICIPANTE: .............................................................................................339 4.3.3. OBSERVACIÓN LIBRE O NO ESTRUCTURADA: ..........................................................................339 4.3.4. OBSERVACIÓN ESTRUCTURADA: ................................................................................................340 4.3.5. REFERENCIAS .................................................................................................................................340 4.4. LA INVESTIGACIÓN ETNOGRÁFICA: ...............................................................................................341 4.4.1. ¿QUÉ ES LA ETNOGRAFÍA?...........................................................................................................341 4.4.2. ¿CUÁL ES EL ALCANCE DE LA ETNOGRAFÍA? ..........................................................................342 4.4.3. ¿CUÁLES SON LAS CARACTERÍSTICAS DE LA ETNOGRAFÍA?...............................................343 4.4.4. ¿QUÉ ES "LO CIENTÍFICO"? ..........................................................................................................345 4.4.5. ¿QUÉ ES "LO OCULTO" EN UNA INVESTIGACIÓN? ...................................................................346 4.4.6. ¿QUÉ ES "LO CUALITATIVO" Y "LO CUANTITATIVO"?..............................................................348 4.4.7. ¿QUÉ EXPERIENCIAS TENEMOS EN INVESTIGACIÓN ETNOGRÁFI-CA?................................349 4.4.8. ¿QUÉ ME PROPONGO CON ESTA INVESTIGACIÓN? .................................................................350 4.4.9. ¿CUÁLES SON LAS VIVENCIAS OBTENIDAS? ............................................................................350 4.4.10. ¿CUÁLES SON MIS EXPECTATIVAS? .........................................................................................352 4.4.11. EN EL CAMPO DE LOS VALORES EN EDUCACIÓN SUPERIOR (LOURDES DENIS) .............352 4.4.12. REFERENCIAS ...............................................................................................................................356 4.5. INVESTIGACION-ACCION PARTICIPATIVA......................................................................................358 4.5.1. CONCEPTO .......................................................................................................................................359 4.5.2. PRESUPUESTOS EPISTÉMICOS....................................................................................................359 4.5.2.1. RELACIÓN SUJETO-OBJETO ......................................................................................................360 4.5.2.2. TOMA DE CONCIENCIA................................................................................................................360 4.5.2.3. PARTICIPACIÓN............................................................................................................................361 4.5.2.4. REDESCUBRIMIENTO DEL SABER POPULAR..........................................................................362 4.5.2.5. CIENTIFICIDAD..............................................................................................................................364 4.5.3. ASPECTOS METODOLÓGICOS ......................................................................................................365 4.5.3.1. ETAPA INICIAL ..............................................................................................................................366 4.5.3.2. ESTRUCTURACIÓN DE LA IAP: NEGOCIAR PARA CONSTRUIR EL PROGRAMA................367 4.5.3.3. DESARROLLAR Y EVALUAR LO REALIZADO ..........................................................................368 4.5.4. REFERENCIA ....................................................................................................................................368 4.6. LA TRIANGULACIÓN ..........................................................................................................................371

Page 9: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar viii

4.6.1. LA VALIDACIÓN ...............................................................................................................................371 4.6.2. OBJETIVOS DE LA TRIANGULACIÓN ...........................................................................................373 4.6.3. ESTRETEGIAS DE LA TRIANGULACIÓN.......................................................................................375 4.6.4. REVISIÓN DE LOS INTERESADOS ................................................................................................377 4.7. LA COMPLEMENTARIEDAD COMO POSIBILIDAD EN LA ESTRUCTURACIÓN DE DISEÑOS DE INVESTIGACIÓN CUALITATIVA ...................................................................................................................379 4.7.1. RESUMEN .........................................................................................................................................379 4.7.2. UN DISEÑO DESDE LA COMPLEMENTARIEDAD.........................................................................380 4.7.3. DISEÑO METODOLÓGICO ..............................................................................................................386 4.7.4. ESTRUCTURA DEL DISEÑO DE INVESTIGACIÓN........................................................................387 4.7.4.1. PRIMER MOMENTO (PRECONFIGURACIÓN) ............................................................................387 4.7.4.2. SEGUNDO MOMENTO: PLAN DE CONFIGURACIÓN ................................................................388 4.7.4.3. EN EL TERCER MOMENTO O RECONFIGURACIÓN .................................................................389 4.7.5. REFERENCIAS .................................................................................................................................391 4.8. ANÁLISIS CUALITATIVO ....................................................................................................................392 4.9. LA INVESTIGACIÓN COMO UNA ACTIVIDAD EN EL AULA ...........................................................411 4.10. REFLEXIONES EPISTEMOLÓGICAS SOBRE LA INVESTIGACIÓN CUALITATIVA EN CIENCIAS SOCIALES ......................................................................................................................................................414 4.10.1. INTRODUCCIÓN .............................................................................................................................414 4.10.2. ESTRATEGIAS ALTERNATIVAS PARA LA INVESTIGACIÓN CUALITATIVA...........................415 4.10.2.1. ANÁLISIS DE CONTENIDO (CLÁSICO) .....................................................................................415 4.10.2.2. ANÁLISIS DE CONTENIDO (ETNOGRÁFICO)...........................................................................416 4.10.2.3. ANÁLISIS DEL DISCURSO .........................................................................................................416 4.10.2.4. ESTUDIOS DE DOCUMENTOS, HISTORIAS DE VIDA E HISTORIA ORAL ............................416 4.10.2.5. ETNOGRAFÍA (CLÁSICA, HOLÍSTICA, REFLEXIVA) ...............................................................416 4.10.2.6. ETNOGRAFÍA (ESTRUCTURAL) ................................................................................................416 4.10.2.7. ETNOGRAFÍA DE LA COMUNICACIÓN (MICROETNOGRAFÍA) .............................................417 4.10.2.8. ETNOMETODOLOGÍA .................................................................................................................417 4.10.2.9. ETNOCIENCIA (ANTROPOLOGÍA COGNITIVA) .......................................................................417 4.10.2.10. ANÁLISIS DE LA ESTRUCTURA DE EVENTOS .....................................................................417 4.10.2.11. "GROUNDED THEORY CONSTRUCTION" .............................................................................418 4.10.2.12. INTERACCIONISMO SIMBÓLICO ............................................................................................418 4.10.3. NUEVAS EXPERIENCIAS DE GABINETE Y FORMAS DE RAZONAMIENTO EN LA INVESTIGACIÓN CUALITATIVA ...................................................................................................................419 4.10.3.1. PLURALIDAD DE VOCES Y LA UTILIZACIÓN DE HIPERTEXTOS .........................................420 4.10.3.2. HACIA UNA LÓGICA DEL RAZONAMIENTO HIPOTÉTICO EN INVESTIGACIÓN CUALITATIVA.................................................................................................................................................422 4.10.4. A MODO DE CONCLUSIÓN: PROBLEMAS EPISTEMOLÓGICOS EMERGENTES DE LA INVESTIGACIÓN CUALITATIVA ASISTIDA POR COMPUTADORA. .........................................................426 4.10.5. REFERENCIAS ...............................................................................................................................427 4.11. INVESTIGACIÓN CUALITATIVA Y TEXTUALIDAD LA INTERPRETACIÓN COMO PRÁCTICA SOCIOLÓGICA ...............................................................................................................................................429 4.11.1. RESUMEN .......................................................................................................................................429 4.11.2. ACTIVIDAD SOCIOLÓGICA Y TEXTUALIDAD MÁS ALLÁ DE LA APORÍA CUALITATIVO-CUANTITATIVO ..............................................................................................................................................429 4.11.3. DATOS, NARRACIÓN E INTERPRETACIÓN ................................................................................431 4.11.3.1. MANIFESTACIONES, PROPOSICIONES E INTERPRETACIÓN ..............................................431 4.11.3.2. DATO Y DOCUMENTO SOCIOLÓGICO .....................................................................................433 4.11.4. LA INTERPRETACIÓN COMO PRÁCTICA SOCIOLÓGICA.........................................................434 4.11.5. A MODO DE CONCLUSIÓN: LA INTERPRETACIÓN ENTRE LA EPISTEMOLOGÍA Y LA METODOLOGÍA .............................................................................................................................................437 4.11.6. REFERENCIAS ...............................................................................................................................439 5. CAPITULO V: ELEMENTOS PARA LA ELABORACIÓN DEL INFORME DE INVESTIGACIÓN ........442 5.1. INVESTIGACION CIENTIFICA Y ESCRITURA CIENTIFICA..............................................................443 5.1.1. DESAFIOS PARA EL INVESTIGADOR: ..........................................................................................443 5.1.2. PREGUNTAS CLAVES PARA ANTES DE SENTARSE A ESCRIBIR UN ARTICULO: ................443 5.1.3. COMO ORGANIZAR LOS PENSAMIENTOS PLANIFICACION: PRIMER PASO HACIA LA COMPETENCIA: .............................................................................................................................................443 5.1.4. FORMAS DE ESCRITURA TECNICO-CIENTIFICA: .......................................................................444

Page 10: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar ix

5.1.5. CRITERIOS PARA ESCRITURA EFECTIVA ...................................................................................444 5.1.6. COMO EVITAR LAS FALTAS MAS COMUNES EN LOS INFORMES ...........................................444 5.1.7. PROCESO DE ESCRITURA: ............................................................................................................445 5.1.8. COMO CONSTRUIR ORACIONES GRAMATICALES EFECTIVAS: ..............................................445 5.1.9. ESTILO EDITORIAL:.........................................................................................................................446 5.1.10. FALTAS FRECUENTES QUE CONSTITUYEN CAUSAS DE RECHAZO DE ARTICULOS TECNICO - CIENTIFICOS. .............................................................................................................................447 5.1.10.1. FALTAS RELACIONADAS CON EL CONTENIDO DE LA INVESTIGACION ...........................447 5.1.10.2. FALTAS RELACIONADAS CON EL INFORME DE LA INVESTIGACION ................................447 5.1.11. ASPECTOS PARA UNA LECTURA INTELIGENTE: .....................................................................447 5.1.11.1. SELECCIÓN .................................................................................................................................447 5.1.11.2. EVALUACION DE CALIDAD .......................................................................................................447 5.1.11.3. ACCESO A LA LITERATURA .....................................................................................................447 5.2. CÓMO ESCRIBIR UN ARTÍCULO CIENTÍFICO .................................................................................448 5.2.1. LA ESTRUCTURA DE UN ARTÍCULO ORIGINAL ..........................................................................448 5.2.1.1. INTRODUCCIÓN ............................................................................................................................448 5.2.1.2. MATERIAL Y MÉTODOS ...............................................................................................................448 5.2.1.3. RESULTADOS ...............................................................................................................................449 5.2.2. OTROS ASPECTOS DEL ARTÍCULO..............................................................................................450 5.2.3. COMPROBACIÓN DE ERRORES ....................................................................................................452 5.3. EPISTEMOGRAFÍAS. LA ESCRITURA DE LOS RESULTADOS DE INVESTIGACIÓN ..................454 5.3.1. RESUMEN .........................................................................................................................................454 5.3.2. INTRODUCCIÓN ...............................................................................................................................454 5.3.3. EL ASPECTO EPISTÉMICO: EL ENCUADRE POLÍTICO DE LA ESCRITURA ............................458 5.3.4. EL ASPECTO METÓDICO: LA CONSTRUCCIÓN DEL OBJETO-LA DECONSTRUCCIÓN DEL SUJETO-LA CONSTRUCCIÓN DEL SUJETO-LA DECONSTRUCCIÓN DEL OBJETO ............................461 5.3.5. REFERENCIAS .................................................................................................................................463 5.3.6. NOTAS...............................................................................................................................................464 5.4. GUIA PARA LA REDACCION DE ARTICULOS CIENTIFICOS DESTINADOS A LA PUBLICACION 466 5.4.1. INTRODUCCION ...............................................................................................................................467 5.4.2. PREAMBULO ....................................................................................................................................468 5.4.3. CATEGORIAS DE ARTICULOS .......................................................................................................468 5.4.3.1. MEMORIAS CIENTÍFICAS ORIGINALES .....................................................................................468 5.4.3.2. PUBLICACIONES SECUNDARIAS Y SERVICIOS DE INFORMACIÓN......................................469 5.4.3.3. ESTUDIOS RECAPITULATIVOS...................................................................................................469 5.4.4. REGLA CONTRA LA DUPLICACION DE PUBLICACIONES .........................................................469 5.4.5. ELEMENTOS CONSTITUTIVOS DEL MANUSCRITO.....................................................................470 5.4.6. ESTILO DE PRESENTACION ..........................................................................................................471 5.4.7. CITAS Y REFERENCIAS ..................................................................................................................472 5.4.8. BIBLID (IDENTIFICACION BIBLIOGRAFICA).................................................................................473 5.4.9. PREPARACION DE RESUMENES ANALITICOS ...........................................................................474 5.4.10. TERMINOLOGIA Y NOMENCLATURA..........................................................................................476 5.4.11. PREPARACION DE CUADROS .....................................................................................................476 5.4.12. PREPARACION DE ILUSTRACIONES ..........................................................................................477 5.4.13. FORMA DE PRESENTACIÓN ........................................................................................................478 5.4.14. RECOMENDACIONES COMPLEMENTARIAS A LOS JEFES DE REDACCIÓN. .......................479 5.4.15. NORMAS RELATIVAS A LAS PUBLICACIONES CIENTÍFICAS. ................................................480 5.4.16. LISTA DE ABREVIATURAS. ..........................................................................................................482 5.5. REFERENCIAS BIBLIOGRAFICAS ELEMENTOS ESENCIALES.....................................................483 5.5.1. ALCANCE Y DEFINICIÓN ................................................................................................................483 5.5.2. FORMAS DE REFERENCIAS...........................................................................................................483 5.5.3. INDICADORES QUE HAN DE FIGURAR EN LA REFERENCIA. ...................................................483 5.5.3.1. LIBROS ( U OTROS TRABAJOS PUBLICADOS SEPARADAMENTE) EJEMPLO: .................483 5.5.3.2. PERIÓDICOS (U OTRAS PUBLICACIONES EN SERIE) .............................................................484 5.5.4. ORDEN DE LAS INDICACIONES.....................................................................................................485 5.5.4.1. AUTORES.......................................................................................................................................485 5.5.4.2. TÍTULO ...........................................................................................................................................485 5.6. CITAS A PIE DE PÁGINA ....................................................................................................................487

Page 11: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar x

5.6.1. IBID ....................................................................................................................................................487 5.6.2. OP. CIT. .............................................................................................................................................487 5.6.3. LOC. CIT ............................................................................................................................................487 5.7. FALTAS FRECUENTES DE RECHAZO DE ARTICULOS TECNICO-CIENTIFICOS ........................489 5.7.1. FALTAS RELACIONADAS CON EL CONTENIDO DE LA INVESTIGACION ................................489 5.7.1.1. FASE CONCEPTUAL DE LA INVESTIGACIÓN ...........................................................................489 5.7.1.2. FASE EMPÍRICA DE LA INVESTIGACIÓN...................................................................................490 5.7.1.3. FASE INTERPRETATIVA DE LA INVESTIGACIÓN .....................................................................491 5.7.2. FALTAS RELACIONADAS CON EL INFORME DE LA INVESTIGACION .....................................492 5.7.2.1. ESTRUCTURA DEL ARTÍCULO ...................................................................................................492 5.7.2.2. ESTILO DEL ARTÍCULO ...............................................................................................................493 5.7.3. CLAVE DE RESPUESTAS................................................................................................................494 6. CAPITULO VI: ELEMENTOS PARA LA EVALUACIÓN DE RESULTADOS........................................496 6.1. EVALUAR LOS RESULTADOS ..........................................................................................................497 6.1.1. FACTUALIDAD Y CREDIBILIDAD ...................................................................................................497 6.1.1.1. CREDIBILIDAD DE LAS CONCLUSIONES CUALITATIVAS ......................................................498 6.1.1.2. CREDIBILIDAD DE LAS CONCLUSIONES CUANTITATIVAS....................................................503 6.1.1.2.1. Prueba Chi ..................................................................................................................................505 6.1.1.2.2. Prueba Cochran Q......................................................................................................................508 6.1.1.2.3. Prueba Wilcoxon ........................................................................................................................510 6.1.1.2.4. La prueba t ..................................................................................................................................511 6.1.2. REFERENCIAS .................................................................................................................................512 6.2. UTILIDAD DE LOS RESULTADOS Y APLICACIÓN PRÁCTICA ......................................................513 6.2.1. VENTAJAS E INCONVENIENTES PARA LAS PERSONAS DEL EXTERIOR...............................513 6.2.2. REFERENCIAS .................................................................................................................................516 6.3. EL INFORME DE INVESTIGACIÓN ....................................................................................................517 6.3.1. PARTES DE UN INFORME DE INVESTIGACIÓN ...........................................................................517 6.3.2. ESCRIBIR EL INFORME...................................................................................................................521 6.3.3. MAQUETADO Y CONFECCIÓN DE ÍNDICES .................................................................................523 6.3.4. REFERENCIAS .................................................................................................................................526

Page 12: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar xi

ÍNDICE DE TABLAS Pág.

Tabla 1: Diagrama de Gantt ...............................................................................................13 Tabla 2: Características de las Macroorientaciones Metodológicas .................................110 Tabla 3: Técnicas y procedimientos de investigación.......................................................112 Tabla 4: Desgloce de estudio y aspectos de la investigación...........................................129 Tabla 5: Especificación de escala ....................................................................................173 Tabla 6: Ejemplo de escala para observación ..................................................................266 Tabla 7: Ejemplo de escalas de opinión ...........................................................................276 Tabla 8: Símbolos habituales en tablas............................................................................302 Tabla 9: Analisis de variables por escala .........................................................................303 Tabla 10: Analisis de variables por escala........................................................................308 Tabla 11: Ejemplo de escala ............................................................................................312 Tabla 12: Caracteristicas de los estudios .........................................................................394 Tabla 13: Tabulación Cruzada..........................................................................................401 Tabla 14: Fases de una familia.........................................................................................402 Tabla 15: Comprobaciones estadísticas...........................................................................505 Tabla 16: fórmula de la prueba Cochran ..........................................................................509

Page 13: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar xii

ÍNDICE DE ILUSTRACIONES Pág.

Ilustración 6: Ejemplo me dedidas de tendencia central...................................................305 Ilustración 7: Presentación grafica diagramica .................................................................309 Ilustración 8: Dispercigrama .............................................................................................309 Ilustración 9: Diagrama de barras en series .....................................................................310 Ilustración 10: Histograma de medias ..............................................................................311 Ilustración 11: Ejemplo no adecuado de diagramación ....................................................312 Ilustración 12: Disoercigrama ...........................................................................................313 Ilustración 13: Ejemplo de proyecciones ..........................................................................316 Ilustración 14: Ejemplo de proyecciones ..........................................................................317 Ilustración 15: Diagrama de disperción ............................................................................318 Ilustración 16: Metodo fenomenologico ............................................................................397 Ilustración 17: Clasificación de ornamentación.................................................................402 Ilustración 18: Clasificación de simbolos ..........................................................................402 Ilustración 19: Beneficios del proceso de investigación....................................................513

Page 14: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar xiii

ÍNDICE DE IMÁGENES Pág.

Imagen 1: David Hume( 1711-1776) .................................................................................47 Imagen 2: Immanuel Kant (1724-1804) .............................................................................47 Imagen 3: Claude Saint-Simon (1760-1825) .....................................................................48 Imagen 4: Augusto Comte(1798-1857) .............................................................................50 Imagen 5: Herbet Spencer (1820-1903) ............................................................................51 Imagen 6: John Stuart Mill (1806-1873) ............................................................................52 Imagen 7: Ejemplo de observación .................................................................................108 Imagen 8: Comparaciones cualitativas............................................................................399

Page 15: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 1

PROEMIO

Este Dossier de temas de investigación pretende apoyar la formación de los diplomantes

en Investigación Científica y Técnica de la División de Programas de Maestría de la

Escuela de Comando y Estado Mayor de la Universidad Militar de las FF.AA., de la

Nación, poniendo a su disposición una compilación de fundamentos de investigación,

marcos epistemológicos, modelos metodológicos e instrumentales que hacen al proceso

de la investigación en las diferentes Ciencias del que hacer cotidiano.

El material que se brinda es una compilación de temas básicos para la investigación, que

recupera el aporte de la producción intelectual de destacados autores registrados en

diferentes Páginas Web del Internet, por lo que al final de cada tema, aparecen registradas

las direcciones del correo electrónico en las que los Investigadores en formación pueden

consultar para profundizar sobre los contenidos de su interés.

En dicho entendido agradeceré el desprendimiento de los beneficiarios en socializar y

posibilitar la publicación de este compendio de temas de investigación, que sin duda

constituirá un elemento motivador y regulador del conocimiento y la práctica investigativa.

Doctorante Ph. D. Jesús Demis Zuna Aguilar COMPILADOR

Page 16: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 2

1. CAPITULO I: GUÍA PARA LA ELABORACIÓN DEL PERFIL DE INVESTIGACIÓN

Page 17: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 3

1.1. INDICACIONES GENERALES PARA EL QUE INICIA UN PROYECTO DE INVESTIGACIÓN

Tulio Arends y Virginia Urquidi

Es muy difícil hacer indicaciones teóricas de lo que debe o puede investigar un joven

investigador o cómo puede iniciarse en la investigación científica un profesional de

experiencia.

Es imposible cubrir todas las variables que se pueden presentar en estos casos y por lo

menos sería interminable tratar de enfocar todas las alternativas. Pero sí es posible dar

algunos principios muy generales, nacidos de la experiencia, que en cierta manera

orienten al que se inicia en estos campos.

1. El tema a escoger depende de algunos factores muy concretos:

a) Preparación o especialización de la persona. El que se inicia en la investigación

debe hacerlo en aquel campo en que está mejor preparado. No se compagina un

endocrinólogo, por ejemplo, que de golpe quiera iniciarse en investigaciones

gastroenterológicas, o viceversa. Tampoco se ve bien que un clínico se quiera

iniciar con un problema de ingeniería genética.

b) Se deben estudiar aquellos casos o fenómenos que se presenten con cierta

frecuencia. No se hace buena elección cuando se escoge una o dos veces al año.

Tampoco se gana mucho escogiendo como tema de estudio una enfermedad que

no existe en Venezuela, por ejemplo, la enfermedad del sueño o el Kurú, por muy

interesantes que sean.

c) Se debe escoger para iniciarse un tema que atraiga profundamente al que va a

comenzar, sobre todo para que no se desanime cuando surjan los primeros

obstáculos.

d) No es prudente iniciarse con un tema extraordinariamente complicado, a menos

que se tenga un enfoque muy original que prometa resultados a corto plazo. Nadie

debe iniciarse, por ejemplo, estudiando la causa del cáncer o la cura de la

leucemia. Es más sensato iniciarse con un tema que puede ser estudiado, de

acuerdo con el tiempo que se le dedique, en el plazo de un año o menos, para que

Page 18: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 4

los resultados que se obtengan sirvan de estímulo a seguir hacia otros temas más

complicados.

e) El tema a escoger debe estar relacionado con la infraestructura de laboratorio de

que se disponga. Iniciarse en ingeniería genética requiere hacer grandes

inversiones en equipo y consumo, mientras que trabajar en diagnóstico, en etiología

o en farmacología tal vez no sea tan dispendioso.

f) Relacionar el tema a escoger con las tareas prioritarias determinadas para la región

donde se va a hacer el trabajo, es una sana política.

g) La posibilidad de integrarse a un equipo de investigación ya formado y en plena

actividad, es una sana decisión. El joven investigador tendría la oportunidad de

colaborar en un proyecto que se supone habrá pasado por varios filtros, tratando de

completar algún aspecto de dicho proyecto. Si se trabaja en una línea de

investigación ya acreditada, cualquier resultado que se obtenga, será interpretado

en el contexto de hallazgos afines importantes. Además, habrá mayor garantía de

obtener resultados en el menor tiempo posible.

2. Elegido el tema, es necesario definir con precisión el objeto de la investigación,

realizando un estudio analítico de la observación que le ha dado origen y de las

preguntas que origina su planteamiento. Se debe elaborar una hipótesis de trabajo y

esquematizar un diseño de los pasos a dar para comprobarla.

3. Es conveniente establecer o definir etapas parciales dentro del proyecto total,

asignando una utilización de recursos y un tiempo estimado para que cada etapa sea

culminada. Una planificación hecha así permite en primer lugar un ajuste más riguroso

de las metas u objetivos del trabajo a la disponibilidad real de los recursos. En

segundo lugar, resultará más fácil y económico encontrar y subsanar algún posible

error producido en el desarrollo del trabajo, si la revisión se efectúa a nivel de

contenidos y procedimientos parciales.

4. En una planificación bien hecha cabe prever más de una vía alternativa para abordar

un problema determinado, de forma que si la evaluación de los resultados parciales,

producto de una estrategia de investigación, no es satisfactoria, exista la posibilidad de

desarrollar alguna otra de las previstas, evitando la pérdida definitiva de esfuerzos y de

inversión en tiempo y recursos.

5. Un plan de trabajo debe contemplar el tratamiento estadístico más adecuado de los

parámetros involucrados en cada problema. En este sentido el número de casos a

Page 19: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 5

incluir en el estudio, la cantidad de variables posibles en una experimentación y el

número de veces que debe repetirse un experimento para considerar válido un

resultado, debe ser objeto de una definición metodológica previa.

6. La continuación del trabajo iniciado depende de los fondos disponibles y de la

voluntad. Antes de iniciar un trabajo de investigación debe aclararse de dónde van a

salir los gastos de consumo que originará tal proyecto y si es posible calcular estos

gastos hasta lo más cerca de la realidad.

7. Hay instituciones y fundaciones que dan financiamiento a los proyectos en el campo

biomédico, especialmente debemos mencionar al CONICIT y a la Fundación Vargas.

Ese financiamiento debe ser solicitado con anticipación, antes de iniciar el trabajo.

8. Antes de iniciar el trabajo durante el curso de los experimentos, se debe tener una

buena información bibliográfica a la mano, para no repetir sin fundamento alguno lo

que ya está investigado y también para saber si mientras se está investigando sale

alguna técnica que facilite o acelere el trabajo que se está ejecutando.

9. Pensar siempre que lo que se está haciendo terminará formalmente en una

publicación. Investigación que no se publique es trabajo perdido.

10. No ocultar extremadamente lo que se está haciendo y obteniendo por el peligro de que

alguien lo conozca, pero tampoco ir al extremo opuesto de prestar los resultados para

que alguien los utilice. El prestigio del investigador se basa en la prioridad, es decir en

quien primero descubra o describa un nuevo fenómeno o conocimiento.

11. Como autores de una publicación no debe figurar sino realmente los que han trabajado

en ella. Recordar que los créditos de una publicación se reparten entre el número de

autores.

12. Enviar siempre el trabajo a revistas serias, las cuales aún no aceptándolo, le hacen

observaciones valiosas que mejoran su presentación.

13. Enfocar preferencialmente un problema cuya solución pueda ser un aporte positivo al

campo de las ciencias médicas o a la región. Pero el individuo que se siente preparado

para atacar cualquier otro problema o con la creatividad suficiente para resolver uno

que hasta ese momento se haya considerado insoluble, debe dedicarse de todas

maneras a dicho tema sea o no prioritario, sea o no aplicado.

REFERENTES: http://www.unet.edu.ve/~frey/varios/decinv/investigacion/indicagral.html

Page 20: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 6

1.2. LA ELABORACIÓN DE LOS PROYECTOS DE INVESTIGACIÓN

M.Sc. Nubia Amparo Ortiz Guerrero

Con las siguientes pautas no pretendo crear modelos que se adapten al trabajo de

elaboración de los proyectos de investigación que van a ser en un futuro las monografías

de grado. Es nuestro objetivo ilustrar y dar paso a paso el proceso de elaboración de un

proyecto, que se elabore teniendo en cuenta que él todo es la esencia del proceso de

investigación y no aislar conceptos ni partes del mismo a elaboraciones secundarias

dando prioridad a otros. El cuerpo del proyecto debe ser secuencial y gozar del proceso de

los vasos comunicantes que determinara el éxito del proyecto.

Es una pauta de seguimiento y de construcción que se debe tener en cuenta para que el

proyecto goce de un éxito y de una realización a ciencia cierta. Que todo lo expuesto en

estas líneas sea el verdadero reflejo de un trabajo de investigación y no la simple

transcripción de información de un texto a estas páginas.

Espero aportar aunque sea una mínima parte a la realización de sus proyectos de

investigación.

1.2.1. ESQUEMA PARA LA ELABORACIÓN DE UN PROYECTO DE INVESTIGACIÓN I.- EL PROBLEMA.

A. Título descriptivo del proyecto.

B. Formulación del problema.

C. Objetivos de la investigación.

D. Justificación.

E. Limitaciones

II.-MARCO DE REFERENCIA.

A. Fundamentos teóricos.

B. Antecedentes del problema.

C. Elaboración de Hipótesis.

D. Identificación de las variables.

III.-METODOLOGÍA.

A. Diseño de técnicas e instrumentos de recolección de información.

Page 21: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 7

B. Población y muestra.

C. Técnicas de análisis.

D. Indice analítico tentativo del proyecto.

E. Guía de trabajo de campo.

IV.-ASPECTOS ADMINISTRATIVOS.

A. Recursos humanos.

B. Presupuesto.

C. Cronograma.

V.- BIBLIOGRAFÍA.

1.2.2. DESARROLLO DE ASPECTOS DE LA ELABORACIÓN DE UNA INVESTIGACIÓN 1.2.2.1. EL PROBLEMA Lo primero que nos interesa es conocer, saber, lo que será investigado: Por qué, para qué,

cual es el valor o la importancia del hecho o fenómeno a investigar. Si la investigación a

realizar tiene criterios de prioridad, novedad, oportunidad, conformismo o comportamiento.

1.2.2.1.1. Título descriptivo del proyecto. El título de la investigación a realizar, debe ser claro, preciso y completo. Está destinado a

indicar dónde, qué, cómo y cuándo, en forma clara y sucinta indica el lugar a que se

refieren los datos, el fenómeno que se presenta, las variables que sé interrelacionan, y la

fecha a que se refiere la información.

1.2.2.1.2. Formulación del problema. ¿Qué entendemos por formular un problema? Partamos del siguiente criterio: formular un

problema es caracterizarlo, definirlo, enmarcarlo teóricamente, sugerir propuestas de

solución para ser demostradas, establecer unas fuentes de información y unos métodos

para recoger y procesar dicha información. La caracterización o definición del problema

nos conduce otorgarle un título, en el cual de la manera más clara y denotativa indiquemos

los elementos que le son esenciales.

La formulación del problema, es la estructuración de toda la investigación, de tal forma que

uno de sus componentes resulte parte de un todo y que ese todo forme un cuerpo que

Page 22: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 8

tenga lógica de investigación. Se debe por lo tanto, sintetizar la cuestión proyectada para

investigar, generalmente a través de un interrogante.

En primer lugar, deberá revisarse si el problema es susceptible de resolverse mediante

una investigación. Puede inquirirse sobre la significación del problema, es decir, si su

solución representa una aportación importante al campo de estudios y si puede abrir

nuevos caminos. Se aconseja además preguntarse: ¿Es un problema nuevo o ya existen

trabajos sobre él? En este caso, ¿las soluciones son pertinentes? ¿ Esta adecuadamente

planteado el problema? ¿Cuáles hipótesis se pretenden confirmar? ¿Los términos están

suficientemente definidos? ¿ Vale la pena emplear tiempo y esfuerzo en su solución,

aunque esta sea provisional?

1.2.2.1.3. Objetivos de la investigación. Presupone el logro esperado para las respuestas expresadas en la hipótesis. Es el

propósito de la investigación. Responde a la pregunta: ¿PARA QUÉ?, ¿QUÉ SE BUSCA

CON LA INVESTIGACIÓN?. Un objetivo debe redactarse con verbos en infinitivo que se

puedan evaluar, verificar, refutar en un momento dado. Existen seis categorías: Memoria,

comprensión, aplicación, análisis, síntesis y evaluación. Es pertinente redactar uno de

cada categoría pero siempre relacionado con lo que se busca demostrar en la

investigación.

1.2.2.1.4. Justificación Una vez que se ha seleccionado el tema de investigación, definido por el planteamiento

del problema y establecidos los objetivos, se debe indicar las motivaciones que llevan al

investigador a desarrollar el proyecto. Para ello se debe responder a la pregunta de: ¿POR

QUÉ SE INVESTIGA?

Limitaciones-

Es pertinente dar al problema una formulación lógica, adecuada, precisar sus

límites, su alcance, para ello es necesario tener en cuenta los siguientes factores:

• Viabilidad: lo importante es que el investigador debe verificar la posibilidad de

conseguir fuentes de datos para el desarrollo de su estudio, ya sean del grado

primario o secundario.

• Lugar o espacio de llevará a cabo la investigación.

Page 23: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 9

• Tiempo, si el asignado me da la cobertura del estudio o debo disponer de uno en

caso de imprevistos.

• Financiación, si voy a implementar algo que cantidad de dinero dispongo para ello o

si solo será un estudio de factibilidad.

1.2.2.2. MARCO DE REFERENCIA Es importante señalar en el proyecto la estrecha relación entre teoría, el proceso de

investigación y la realidad, el entorno. La investigación puede iniciar una teoría nueva,

reformar una existente o simplemente definir con más claridad, conceptos o variables ya

existentes.

1.2.2.2.1. Fundamentos teóricos. Es lo mismo que el marco de referencia, donde se condensara todo lo pertinente a la

literatura que se tiene sobre el tema a investigar. Debe ser una búsqueda detallada y

concreta donde el tema y la temática del objeto a investigar tenga un soporte teórico, que

se pueda debatir, ampliar, conceptualizar y concluir. Ninguna investigación debe privarse

de un fundamento o marco teórico o de referencia.

Es necesario que el grupo de trabajo conozca y maneje todos los niveles teóricos de su

trabajo, para evitar repetir hipótesis o planteamientos ya trabajados. La reseña de este

aparte del proyecto se debe dejar bien claro para indicar que teórico(s) es el que va a

servir de pauta en su investigación.

Estos fundamentos teóricos van a permitir presentar una serie de conceptos, que

constituyen un cuerpo unitario y no simplemente un conjunto arbitrario de definiciones, por

medio del cual se sistematizan, clasifican y relacionan entre sí los fenómenos particulares

estudiados.

1.2.2.2.2. Antecedentes del tema. En este aspecto entrara en juego la capacidad investigadora del grupo de trabajo, aquí se

condensará todo lo relacionado a lo que se ha escrito e investigado sobre el objeto de

investigación. Hay que diferenciar entre teóricos consultados y antecedentes del problema,

ya que a veces confundimos los dos aspectos. El primero – los teóricos- son los

planteamientos escritos sobre el tema que va tratar en su objeto de investigación, y los

antecedentes del problema, son las investigaciones que se han hecho sobre el objeto de

Page 24: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 10

investigación y te pueden servir para ampliar o continuar su objeto de investigación, en

algunos casos servirá para negar su objeto de investigación cuando esto suceda se entra

e elaborar postulados que más tarde entraran a formar el campo de las investigaciones

negativas, sector aún sin explotar a fondo, porque en la mayoría de los trabajos de

investigación nos limitamos a ampliar sobre conceptos trabajados o a plantear nuevos

postulados pero siempre con alta carga de complemento sobre lo investigado. Es hora de

que se inicie un proceso de negación a muchas investigaciones que están en los

anaqueles de las bibliotecas de las diferentes universidades del país sin haber aportado

nada a la construcción del conocimiento en cualquiera de sus modalidades.

Es oportuno recordar que la citación de los antecedentes se pueden elaborar con base en

fechas y/o cronogramas de otros proyectos realizados, pero es indispensable citar la

fuente de consulta.

1.2.2.2.3. Elaboración de hipótesis. Es una proposición de carácter afirmativo enunciada para responder tentativamente a un

problema. Se plantea con el fin de explicar hechos o fenómenos que caracterizan o

identifican al objeto de conocimiento.

• Hipótesis de primer grado: describe hechos o situaciones del objeto de

conocimiento, los cuales aunque son conocidos por el saber popular, pueden ser

sometidos a comprobación.

• Hipótesis de segundo grado: establecen una relación causa – efecto (sí X entonces

Y). Esta afirmación se demuestra y verifica por su vinculación con un modelo

teórico.

• Hipótesis de tercer grado: se afirma la presencia de relaciones existentes entre

variables complejas. Sugiere explicaciones entre fenómenos de mayor extensión.

• Hipótesis nula: aquella por la cual indicamos que la información a obtener en

contraria a la hipótesis de trabajo.

1.2.2.2.4. Identificación de las variables. Toda hipótesis constituye, un juicio, o sea una afirmación o una negación de algo. Sin

embargo, es un juicio de carácter especial. Es realmente un juicio científico, técnico o

ideológico, en cuanto a su origen o esencia. Siendo así, toda hipótesis lleva implícita un

valor, un significado, una solución específica al problema. Esta es la variable, o sea el

Page 25: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 11

valor que le damos a la hipótesis. La variable viene a ser el contenido de solución que le

damos al problema de investigación.

o Variable independiente: El valor de verdad que se le da a una hipótesis en

relación con la causa, se denomina variable independiente.

o Variable dependiente: Denominamos de esta manera a las hipótesis cuando

su valor de verdad hace referencia no ya a la causa, sino al efecto.

o Variable interviniente: Será aquella cuyo contenido se refiere a un factor que

ya no es causa, tampoco efecto, pero sí modifica las condiciones del

problema investigado.

1.2.2.3. METODOLOGÍA 1.2.2.3.1. Diseño de técnicas e instrumentos de recolección de información. Aquí debe condensar toda la información relacionada con el cómo va a realizar su trabajo

objeto de estudio, que parámetros van a utilizar si se apoyará en datos estadísticos, que

evaluara de toda la información RECUERDE QUE TODA INFORMACION no siempre le

sirve para su trabajo. Debe seleccionar que sirve de una entrevista, de un artículo de

revista, de un comentario ya sea radial, textual o de otra índole.

Se debe citar la fuente al igual que las personas que van a proporcionar los datos,

recuerde mencionarlos aquí y en forma especial y detallada en los RECURSOS ya sean

humanos o institucionales.

1.2.2.3.2. Población y muestra. Población o universo es cualquiera conjunto de unidades o elementos como personas,

fincas, municipios, empresas, etc. , claramente definidos para el que se calculan las

estimaciones o se busca la información. Deben estar definidas las unidades, su contenido

y extensión.

Cuando es imposible obtener datos de todo el universo es conveniente extraer una

muestra, subconjunto del universo, que sea representativa. En el proyecto se debe

especificar el tamaño y tipo de muestreo a utilizar: estratificado, simple al azar, de

conglomerado, proporcional, polietápico, sistemático, etc.

Page 26: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 12

1.2.2.3.3. Técnicas de análisis. Para poder definir las técnicas de análisis, se debe elaborar, con base en las hipótesis

generales y de trabajo, un plan o proyecto tentativo de las diferentes correlaciones,

especificando:

Sistema de codificación y tabulación.

Serán las técnicas estadísticas para evaluar la calidad de los datos. Comprobar las

hipótesis u obtener conclusiones.

1.2.2.3.4. Indice analítico tentativo del proyecto. Es aconsejable elaborar un índice analítico tentativo que de una visión general de las

partes o capítulos que va a contener el trabajo a realizar.

1.2.2.3.5. Guía de trabajo de campo. En algunos proyectos de investigación es necesario presentar una guía de trabajo de

campo, para su elaboración se pueden seguir los siguientes pasos:

o Estudio previo o sondeo.

o Diseño de la muestra.

o Preparación de los materiales de recolección de datos.

o Equipo de trabajo necesario: grabadoras, cámaras fotográficas, filmadoras, etc.

o Selección y entrenamiento de personal.

o Revista y prueba experimental de las etapas anteriores.

o Recolección de datos, ya sea primarios o secundarios.

o Elaboración del informe del trabajo de campo.

o Estimación del personal necesario y costos.

1.2.2.4. ASPECTOS ADMINISTRATIVOS En ésta sección se debe ubicar los aspectos administrativos del proyecto, ésta etapa tiene

una mayor importancia para aquellos proyectos que se presentan para obtener

financiación, total o parcial.

1.2.2.4.1. Recursos humanos. Relacionar las personas que participarán: asesores, equipo de recolección de datos, etc.,

especificando la calificación profesional y su función en la investigación.

Page 27: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 13

1.2.2.4.2. Presupuesto. Se debe presentar un cuadro con los costos del proyecto indicando las diferentes fuentes,

si existen, y discriminando la cuantía de cada sector e la investigación.

Presentar un cronograma financiero que cubra todo el desarrollo del proyecto.

1.2.2.4.3. Cronograma. Es un plan de trabajo o un plan de actividades, que muestra la duración del proceso

investigativo. El tipo de Cronograma recomendado para presentar el plan de actividades

que orienten un trabajo de investigación es el de GANTT. Las actividades aquí indicadas

no son definitivas. La especificación de las actividades depende del tipo de estudio que se

desea realizar.

Tabla 1: Diagrama de Gantt

CRONOGRAMA

ACTIVIDADES TIEMPO 1 2 3 4 5 6 7 8 9 10 11 12 13 14.

1. - ASESORIA METODOLOGICA

2. - PROPUESTA

3. - OBSERVACIONES

4. - DISEÑO DEL PROYECTO

5. - OBSERVACIONES

6. - PROYECTO

7. - OBSERVACIONES

8. - ENCUESTA

9. - CLASIFICACION DE MATERIAL

10. - TRATAMIENTO INFORMACIÓN

11. - ANÁLISIS E INTERPRETACIÓN

12. - REDACCIÓN

1.2.2.5. BIBLIOGRAFÍA En la bibliografía se registran las obras que tratan del tema, implícita o explícitamente, no

es recomendable citar obras de cultura general, como enciclopedias, diccionarios, etc.

La lista bibliográfica o referencia bibliográfica puede subdividirse en dos partes:

Page 28: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 14

Fuentes bibliográficas consultadas.

Fuentes bibliográficas para consultar.

Recuerde que este es un esquema del proyecto de investigación, es la guía de lo

que va a investigar, en ningún caso es la INVESTIGACION como tal.

1.2.3. REFERENTES o CARVAJAL, Lizardo. Metodología de la Investigación Científica. Curso general y

Aplicado. 12º- Ed. Cali: F.A.I.D., 1998. 139 p.

o COBO Bejarano, Héctor. Glosario de Metodología. 8ª. Ed. Cali: Impretec, 1998. 50

p.

o INSTITUTO COLOMBIANO DE NORMAS TECNICAS Y CERTIFICACIÓN

Compendio de Normas Técnicas Colombianas sobre Documentación, Tesis y otros

trabajos de grado. Santafé de Bogotá: ICONTEC, 1996

o http://www.monografias.com/trabajos/elabproyec/elabproyec.shtml

Page 29: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 15

2. CAPITULO II: BASES EPISTEMOLÓGICAS DE LA INVESTIGACIÓN

Page 30: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 16

<

2.1. LA EVOLUCIÓN DEL PENSAMIENTO CIENTÍFICO

2.1.1. DESARROLLO DEL PENSAMIENTO CIENTÍFICO. La ciencia es un conjunto de conocimiento comprobados y sistematizados, obtenidos

mediante el concurso de métodos lógicos, rigurosamente aplicados. Estos conocimientos,

después de estar sujetos a la crítica y a la comprobación, se presentan organizados y

distribuidos en las diversas ramas del saber.

Desde que el hombre empezó a tratar de comprender el mundo que lo rodea, la ciencia

comenzó a gestarse. El conjunto de aprehensiones por medio de los sentidos, el discurrir

rudimentario, la búsqueda de satisfactores a sus necesidades, el instinto de supervivencia,

la curiosidad, fueron, entre otros, los factores que encaminaron al hombre a la ciencia.

En la prehistoria, el hombre asimilaba sus experiencias según su particular concepción de

la naturaleza; las que estaban más allá de su explicación eran relegadas al campo del

misterio, atribuido a manifestaciones mágicas de quienes más tarde habrían de ser

reconocidos como deidades. El hombre apoyó su ignorancia en la existencia de entes

sobrenaturales, que se encargarían de ayudarlo o castigarlo, según las condiciones en

que el fenómeno natural ocurría. A pesar de esta cómoda actitud, que consistía en relegar

la necesidad de comprender, al capricho de los dioses, el hombre siguió aplicando el

discernimiento a su experiencia diaria: utilizó en la observación la curiosidad y el deseo de

saber hasta llegar al análisis y el raciocinio en la experimentación, y a la sistematización

de los conocimientos que gradualmente adquiría. Todo este saber, disperso geográfica y

epistemológicamente, fue recogido por los griegos, quienes lo ordenaron y pretendieron

darle una forma más precisa.

Allí, donde el hombre comienza a actuar - consciente o inconscientemente - con la idea

elaborada de la causalidad, es precisamente donde se da la ciencia y su primer método.

La metodización comienza allí donde a través de la observación se llega en la práctica a la

concepción de que, dados ciertos fenómenos o circunstancias, se producen en sucesión

temporal otros que aparecen condicionados por los que les anteceden; en términos más

precisos: donde se descubre la relación de que unos fenómenos son causa y otros efecto.

Esta primera intuición de la causalidad, alcanzada de manera empírica (no está teorizada,

sino sencillamente realizada), es el primer método científico. Este primer método, punto de

Page 31: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 17

partida de la ciencia, carece, en esta etapa, de un objeto en particular al cual se le aplique.

Es un método general que explica los efectos más diversos y relaciona objetos o

fenómenos muchas veces muy lejanos unos de otros. El progreso del pensamiento

científico se efectuará en la medida que el hombre depure los fenómenos antecedentes,

concomitantes y consecuentes y escoja uno o algunos de ellos sin los cuales no se

producirán los efectos observados. A estos fenómenos - primero o primeros - se les llama

causa.

El pensamiento indiferenciado es el que aborda la realidad; que es geométrico, por

ejemplo, si su finalidad práctica consiste en determinar la extensión de un área de terreno

y sus delimitación; que es aritmético cuando se hace necesario censar o contar un rebaño.

La geometría y la aritmética, así como la medicina, son quehaceres prácticos que hallarán

su teorización algunos siglos más tarde. La medicina lo tendrá en el corpus hipocrático. La

aritmética y la geometría, en Pitágoras y en los Elementos de Euclides. El trayecto de las

ciencias empíricas es un poco más largo y difícil que el de la aritmética y la geometría, en

cuanto a que aquellas tratan de encontrar un cuerpo teórico debido a la necesidad de

acumular datos, hechos y experiencias que sirvan de contenido para la abstracción

generalizadora y derivadora de leyes que establezcan las relaciones causales que

permitan hacer predicciones exactas. El camino pasa por el "método" de ensayos y

errores, que es quizás el primero en desbrozar el terreno de la ciencia primitiva. Sus logros

y desaciertos se transmiten por tradición oral en forma de preceptos plagados de

supersticiones y mitos.

El método causal, íntimamente vinculado al hombre como sistema de referencia, acuña el

sesgo antropomórfico y animista en el análisis de la realidad. Las propiedades humanas y

las cualidades humanas son atribuidas a las cosas o también las de la naturaleza orgánica

a la inorgánica y viceversa.

El método comparativo, en su búsqueda de semejanzas y diferencias entre las cosas,

hace posible una confusión en la cual el hombre, aún no totalmente enajenado de la

naturaleza, no se concibe a sí mismo como algo distinto. Este método comparativo los

vemos ejemplificado en el símil, la metáfora, la analogía, formas que sirven para calificar

más cercanamente los objetos mediante su semejanza o diferencia con uno o varios

objetos. Las cualidades no han sido, en esta etapa, abstraídas de los objetos a los cuales

pertenecen. Al mencionar el objeto se menciona también su cualidad fundamental, sin

haber sido concebida ésta, todavía, como un concepto aparte.

Page 32: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 18

El proceso de salida de este primer estado del pensamiento será lento. En dicho proceso

se adecuarán los métodos a sus objetos de investigación. Este desarrollo se efectuará en

el decurso histórico de la cultura griega. En ésta, se irá deslindando el pensamiento

científico de las otras formas sobrenaturales y míticas, se intentará explicar la naturaleza

por sí misma. En tal proceso, el lenguaje jugará un papel fundamental. En el caso de los

griegos crecerá la capacidad de sustantivación, tanto de verbos como de adjetivos, por

medio del uso del artículo. Este perfeccionamiento del lenguaje hará posible el desarrollo

de la lógica.

En todos los filósofos griegos existirá como característica predominante la observación

natural, aunque no se puede descartar que ocasionalmente hayan efectuado algún tipo de

experimentación muy simple. Los griegos, por no haber avanzado todavía hasta el análisis

y la desintegración de la naturaleza, la enfocan como un todo, en sus rasgos generales. La

trabazón general de los fenómenos naturales aún no se indaga en detalle, sino que es el

resultado de la intuición directa. En esto estriba precisamente la falla de la filosofía griega,

la que más tarde la obligaría a ceder el paso a otros métodos.

En los primeros presocráticos de la escuela naturalista de Jonia, pueden señalarse

caracteres muy determinados: la observación cuidadosa de la naturaleza, el uso de la

razón para explicarla, la búsqueda de una sustancia universal o primera, de la cual están

compuestos todos los cuerpos del universo. Con esta actitud metódica es que Tales (624 -

547 AC) establece su idea de que el agua es la sustancia primera, como principio de la

unidad material del mundo. De ese principio surge todo, es decir, el movimiento y la vida,

concebidos de un modo general. Sobre los supuestos que establece, elabora inferencias

como la existencia de un polo Antártico no perceptible directamente por los sentidos.

También en esta forma supone que a todo fenómeno sucede uno que le es contrario

cualitativamente, lo cual le lleva a establecer como contrarios: agua - fuego, húmedo -

seco, verano - invierno. Esta paridad simétrica de la naturaleza, que implica una

concepción de cadenas causales, se desarrollará en el pensamiento griego posterior.

Anaximandro (610 - 546 AC) sustituye el principio del agua por el ápeiron, para explicar la

unidad material del mundo. Se trata ya de un principio más sutil, que es al mismo tiempo el

fin de las cosas y que se mueve conforme a leyes. Pitágoras (575 . 500 AC): en la escuela

pitagórica se va al análisis de un objeto sólido cualquiera. Este objeto está compuesto por

partes (un cubo, por ejemplo), pero estas partes pueden corresponderse o no de manera

simétrica, y ésta es representable en una relación matemática que conserve esa simetría.

Page 33: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 19

Desmenuzando analíticamente el cuadrado, éste está compuesto primeramente de planos

de superficie, de líneas, y estas líneas, de puntos; estos elementos están en una relación

precisa que es la que constituye todas las formas semejantes a él.

Zenón (495 - 430 AC) continúa, en esencia, el pensamiento de Parménides (515 - ? AC).

En su primera "aporía de la medida", Zenón demuestra lo absurdo de la tesis según la cual

las magnitudes constan de una infinidad de puntos discontinuos, ya que en este caso "su

suma debe ser inevitablemente tan pequeña... que no exista magnitud alguna". La

segunda "aporía de la medida" se basa en la suposición de que las magnitudes constan

de un número infinito de puntos continuos, que tienen una magnitud todo lo pequeña que

se quiera. En este caso, la suma de estos puntos puede ser infinitamente grande.

Heráclito (535 - 465 AC) considera el movimiento como movimiento del Ser que afecta su

propia esencia y no como movimiento en el Ser, puesto que aquél es su desenvolvimiento.

El movimiento del cosmos, como flujo continuo, no es matematizable, ya que es

considerado como movimiento vivo de generación y corrupción. Está sujeto a

periodicidades calculables matemáticamente. Todo fenómeno tiene su contrario y ambos

se presuponen mutuamente. Es como si la naturaleza se desarrollase conforme a una

paridad simétrica y el movimiento fuese de uno al otro polo guardando el equilibrio o la

armonía.

Demócrito (460 - 370 AC) sostiene que el Ser es la sustancia material concreta y el no ser

el espacio vacío en el cual la sustancia se mueve, tan necesario el uno como el otro. El

átomo es el "uno", principio de individualización del Ser; éste se une a otros "unos"

(átomos) y forma combinaciones que constituyen cosas.

El método exhaustivo aplicado por Demócrito, en el cual se suponía a toda figura

compuesta por capas delgadas superpuestas las unas a las otras, conduce al

razonamiento de que lo que se nos presenta como unicidad es, realmente, una

multiplicidad de unidades más pequeñas que el cuerpo mismo.

Demócrito se refiere al átomo como entidad física concreta, pero partiendo de un concepto

matemático racionalista. Esto elimina las incongruencias lógicas de Pitágoras al considerar

al número abstracto como físico. Los átomos no son números, aunque se llegue a ellos

mediante el razonamiento matemático, son una pluralidad infinita de materia en cantidades

discretas. Demócrito realiza, pues, una inclusión muy importante para el pensamiento

científico al plantear como objeto de estudio a la llamada ananké, fuerza ciega, bruta o

azar.

Page 34: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 20

Sócrates (469 - 399 AC) postula la duda metódica como un principio fundamental en su

concepción del método. Nada debe estimarse cierto sin ser sometido al tribunal de la

razón. En su aspecto formal, el método está compuesto por la ironía y la mayéutica.

El desarrollo de la inducción es seguramente la contribución más valiosa de Sócrates al

pensamiento humano. Su análisis de los casos particulares para llegar al conocimiento

general, y la crítica de este último, representan un enorme avance en el campo de la

metodología. Lo mismo cabe decir respecto a la elaboración del concepto de "definición"

en el pensamiento socrático. Los caracteres de la definición y cómo llegar a ella evitando

numerosos errores que suelen presentarse, representan un aporte de muy alta estimación

en la historia del pensamiento humano.

Según Platón (428 - 348 AC), la percepción sensible sólo nos ofrece apariencias y las

ideas que de ellas surgen son mera opinión (doxa). La verdad está en el mundo de las

ideas, inmutable y eterna, que sólo se puede alcanzar con el empleo de la Dialéctica,

mediante el verdadero saber (episteme). Las cosas participan de las Ideas y son su copia

imperfecta.

Para salir de las tinieblas de la caverna e ir a la luz del reino de las Ideas es necesario

estudiar estas ciencias. Primero debe estudiarse la Aritmética para elevarse por medio de

la pura inteligencia a la contemplación de la esencia de los números. En segundo lugar, la

Geometría, a condición de fijarnos en las ideas que representa. En tercer lugar, una

Geometría aún no inventada, decía Platón, la de los cuerpos sólidos de las tres

dimensiones. En cuarto lugar, la Astronomía, estudiada con el mismo espíritu científico.

Pero todo esto no es más que el preludio de la verdadera ciencia, la ciencia filosófica que

permite llegar a la verdad: la Dialéctica. La Dialéctica es ciencia y es método a la vez y

permite llegar a las ideas más elevadas (Dialéctica ascendente que culmina en la idea del

bien) y descender a las cosas más humildes (Dialéctica descendente) en búsqueda

constante de la verdad.

Aristóteles (384 - 322 AC): la elaboración clásica de los problemas del método, que

determinó en gran medida la senda teórica tradicional del pensamiento, corresponde a

Aristóteles. Su aportación más original a la metodología es la creación de la lógica formal,

a la que considera como el Organon universal para obtener el conocimiento. La génesis de

la lógica de Aristóteles está relacionada con el análisis de la fuerza de convicción del

discurso; es decir, la explicación de qué recursos debe poseer el discurso para convencer

a la gente, obligarla a aceptar tal o cual cosa, o reconocer que algo no es cierto.

Page 35: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 21

En realidad, dijo Aristóteles, todo silogismo es obtenido de premisas o de lo necesario (lo

inherente), o bien de lo que suele ocurrir en la mayoría de los casos. Y si las premisas (la

esencia de los juicios) se refieren a lo necesario (lo inherente), la conclusión también será

acerca de lo necesario. Si las premisas (la esencia de las conclusiones) se refieren a lo

que ocurre en la mayoría de los casos, así serán también las conclusiones.

Por otra parte, las proposiciones de los Elementos de Euclides (primera mitad del siglo III

AC) que no están basadas en la construcción de figuras geométricas, se pueden

considerar como experimentos mentales, y la geometría, como el capítulo más simple de

la física.

Arquímedes (primera mitad del siglo III AC) incorpora la inducción continuando la tradición

del método deductivo y axiomático de sus antecesores, dándole a la demostración de los

axiomas nuevos elementos de verificación, el experimento real, en el mundo físico. Así, la

geometría ideal nos proporciona datos sobre el espacio físico. Los axiomas y las teorías

vuelven a su punto de partida, la experiencia, y se enriquecen en ella. Arquímedes

combina estos pasos en un ir y venir de la teoría a la práctica y de la práctica a la teoría.

Años más tarde, el emporio cultural se desplazó de Grecia a Roma y luego se dispersó.

Durante siglos la ciencia cae bajo la influencia de la fe, las creencias inhiben el progreso

científico, el que se busca bajo la perspectiva de la época (piedra filosofal, teoría del

flogisto). Sin embargo, la inquietud y la inconformidad inherentes al hombre lo encauzan a

la ruptura de esa mentalidad. El hombre renace, saliendo del letargo de siglos, y retoma

inquietudes; hay un ansia por conocer y por explicarse lo que no entiende. Las ramas de la

ciencia se multiplican, su contenido crece.

La mayor aportación de Galileo (1564 - 1642) a la metodología de la ciencia fue la

unificación de las investigaciones teóricas y experimentales en un todo único. Al situar el

experimento como base del conocimiento científico, no menosprecia el papel de la teoría.

Uno de los logros más admirables de Galileo fue la introducción de la matemática en la

práctica de la investigación científica. El libro de la naturaleza, considera Galileo, está

escrito en el lenguaje de la matemática, cuyas letras son los cuadrados, circunferencias y

otras figuras geométricas. Por ello, puede ser objeto de la verdadera ciencia todo lo que es

susceptible de medición: la longitud, la superficie, el volumen, la velocidad, el tiempo, etc.,

o sea, las llamadas propiedades primarias de la materia.

En su forma general, la estructura del método de Galileo puede ser expuesta como sigue:

Page 36: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 22

1. Partiendo de los datos de las investigaciones y del experimento burdo, se crea el

modelo ideal del experimento, que se realiza más tarde, y que de ese modo queda

precisado.

2. Mediante la repetición del experimento se obtiene el promedio de las magnitudes

medidas, teniendo en cuenta las correcciones y los diversos factores perturbadores.

3. Las magnitudes así obtenidas, son el punto de partida para formular la hipótesis

matemática, de la que se deducen las consecuencias mediante razonamientos

lógicos.

4. Esas consecuencias se comprueban después en el experimento y sirven de

confirmación indirecta para la hipótesis adoptada.

Según Newton (1642 - 1727), en la matemática y la filosofía natural, el método del análisis

siempre debe preceder al método de la síntesis. Pero el método de Newton nada tiene en

común con la deducción, ya que consiste en realizar experimentos y observaciones, en

obtener de éstos conclusiones generales y en no admitir refutación alguna contra las

conclusiones, a no ser la proveniente del experimento u otras verdades ciertas.

El método de la síntesis fue aplicado en los Principios matemáticos de la filosofía natural,

de Newton, que son considerados como el modelo del planteamiento hipotético - deductivo

de la ciencia experimental. De este modo, la tarea fundamental de la filosofía natural,

según Newton, consiste en el descubrimiento de un reducido número de principios, de los

que se deducen lógicamente "las propiedades y acciones de todos los objetos corporales".

La primera regla de Newton es una forma original del principio de simplicidad: no hay que

recurrir a otras causas de los fenómenos más que a las que sean suficientes para su

explicación. Es consecuencia de esta regla el principio de la uniformidad de la naturaleza:

en la medida de lo posible hay que atribuir las mismas causas a manifestaciones análogas

de la naturaleza.

El principio de la uniformidad de la naturaleza es la base para el uso del método de la

inducción, ya que la conclusión de lo particular a lo general presupone el examen de los

casos particulares como manifestaciones de las leyes comunes. En esto se basa,

propiamente, la idea del enfoque experimental, cuya tarea consiste en el descubrimiento

de aspectos importantes del fenómeno investigado (ley).

La tercera regla de la deducción dice que las propiedades comunes de los cuerpos son

tales que, aunque inherentes a todos los cuerpos que sometemos a experimento, no

pueden ser aumentadas o reducidas.

Page 37: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 23

La cuarta regla expone que las leyes descubiertas mediante la inducción deben

considerarse verdaderas hasta tanto no se revelen fenómenos que precisen esas leyes o

limiten la esfera de su aplicación.

La metodología general seguida en los trabajos de Newton puede ser sintetizada en la

siguiente forma:

1. La observación de la realidad y la experimentación meticulosa sobre el

comportamiento de ésta, lo llevan mediante una inducción general a establecer una

ley o hipótesis.

2. Una vez enunciada, ésta se aplica a una situación particular, deduciendo

matemáticamente cómo se comportarían los objetos reales en este caso.

3. Se comprueba en la práctica la verdad de los resultados obtenidos mediante la

deducción y, por tanto, la validez del principio de partida (ley o hipótesis).

4. Se repite este proceso en una gran cantidad de casos particulares y, si sus

resultados son coherentes, se acepta la ley o inducción primaria, hasta que se

descubra algún fenómeno que no sea explicable por ella.

La verdadera lógica, según René Descartes (1596 - 1650), no son las formas del

silogismo, sino "las reglas para guiar la razón", que son necesarias al investigar verdades

que todavía no conocemos. Esta idea se manifiesta en la concepción de Descartes del

método universal, que comprende tres componentes inseparablemente vinculados entre

sí:

1. Todo problema científico se reduce a un problema formulado en el lenguaje de la

matemática.

2. Todo problema matemático se reduce a un problema algebraico.

3. Todo problema algebraico se reduce a la solución de una ecuación única.

Además de la idea general, Descartes ofrece a grandes rasgos un esbozo de la estructura

del método universal que se resume en las siguientes cuatro reglas para la guía de la

mente:

1. Incluir en los juicios sólo lo que aparece con tanta claridad y evidencia que no

concede margen alguno para dudar de ello.

2. Dividir cada una de las dificultades investigadas en tantas partes como sea posible

y necesario para superarlas.

3. Mantener determinado orden del razonamiento, empezando con los objetos más

sencillos y de más fácil comprensión para ir ascendiendo paulatinamente al

Page 38: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 24

conocimiento de lo más complicado, aplicando ese orden incluso allí donde los

objetivos del razonamiento no aparecen en su vínculo natural.

4. Elaborar siempre una relación tan completa y concisa, tan general, que se tenga la

seguridad de que no sean cometido omisiones.

Para G. W. Leibnitz (1646 - 1716) el problema reside en lograr un método exacto de

enlazar ideas. Su objetivo en este caso consiste en establecer, mediante la utilización de

ideas elementales, un alfabeto lógico donde todas las nociones compuestas acerca del

mundo sean reducidas a nociones simples, como a su alfabeto. Según Leibnitz, el

pensamiento es el fundamento del Ser. No se trata de que el criterio de verdad sea

encontrado en la coincidencia de la imagen con un objeto exterior. Este criterio está dado

por la concordancia entre los fenómenos mismos. Los fenómenos tienen el carácter de

realidad en tanto se someten a las leyes de las matemáticas.

Para Leibnitz la fundamentación de la ciencia está dada, no sólo en los juicios idénticos,

sino también en las definiciones de los conceptos básicos. Asegura, además, que todas

las verdades se pueden dividir en dos clases: de razón y de hecho.

Considera que la base de la verdad de la proposición puede ser hallada por medio del

análisis, que se aplica simultáneamente al concepto y a la proposición. El análisis de los

conceptos consiste en las definiciones, el análisis de las verdades, en la demostración.

Puesto que la propia demostración culmina por medio del análisis de los términos de la

proposición, la demostración se reduce al análisis del concepto, es decir, a la definición. El

análisis del concepto es la descomposición progresiva de los conceptos más complejos

para llegar a otros más simples, con la particularidad de que el análisis puede ser finito o

infinito. El mejor procedimiento para demostrar la posibilidad de la cosa consiste en

señalar su causa o su planteamiento.

El conocimiento de lo individual para Leibnitz requiere un conocimiento de la totalidad. Es

decir, el conocimiento de un objeto exige conocer su sustancia en sus relaciones con

todas las sustancias conocidas y desconocidas.

Según Leibnitz, el grado de fundamentación de las hipótesis corresponde al grado de su

probabilidad. La hipótesis es tanto más probable:

• Cuanto más sencilla es.

• Cuanto mayor es el número de fenómenos que pueden ser explicados con esta

hipótesis y con la ayuda del menor número posible de postulados y axiomas.

Page 39: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 25

• Cuanto mejor permite prever los nuevos fenómenos o explicar los nuevos

experimentos, excepto aquellos que no son conocidos.

Francis Bacon (1561 - 1626) considera que el verdadero método del conocimiento

científico es un método que se apoya en el experimento y la observación. La ascensión, a

partir de los hechos sensibles hasta llegar a los conceptos, era para él la senda de la

genuina ciencia. La verdadera inducción, según Bacon, es aquella con la cual se pueden

buscar las formas. La forma es algo estable en los fenómenos, una cierta determinación

interna, la que condiciona la distinta "naturaleza" de las cosas. La investigación de las

formas es, de este modo, la investigación de los vínculos esenciales y lógicos de la

realidad.

J.F.G. Herschell (1792 - 1871) entiende por inducción el proceso de clasificación

consecutiva de los objetos individuales o hechos, bajo una rúbrica común, cuyos

resultados a su vez se convierten en material para una clasificación ulterior. La

metodología inductiva del conocimiento de las leyes de la naturaleza comprende una serie

de reglas basadas en determinadas correlaciones entre la causa y la acción.

En el siglo XVIII surgen enormes fábricas y de la forma de producción devienen dos clases

sociales antagonistas: la burguesía y el proletariado. Ambas en conflicto constante por

tener una, el carácter de explotadora, y la otra, por ser explotada. Esta condición repercute

en la ciencia y culmina en una nueva concepción metodológica.

J.S. Mill (1806 - 1873) sostiene que la inducción es un proceso mental con la ayuda de la

cual deducimos algo que nos es conocido como verídico en un caso particular o en unos

cuantos casos y que será verídico en todos los casos semejantes al primero en ciertas

determinadas relaciones de la clase. A Mill pertenece la descripción clásica de los

métodos de la inducción científica, elaborada de acuerdo con la tradición de Bacon: el

método de semejanza o concordancia, el método de diferencia, el método combinado de

semejanza y diferencia y el método de residuos.

La línea del inductivismo clásico de Bacon - Mill fue la predominante en la lógica del siglo

XIX. Pero en la historia de la lógica hubo otro enfoque del problema de la investigación

lógica de las relaciones entre los conocimientos empíricos individuales y las leyes de la

ciencia.

Este enfoque coloca en primer plano la investigación metodológica del análisis del proceso

de comprobación y fundamentación de la tesis general en su calidad de hipótesis.

Consiste en su confrontación tanto con los hechos empíricos, ya conocidos, como con

Page 40: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 26

aquellos hechos que han de ser establecidos posteriormente, es decir, presupone la

evaluación de la hipótesis desde el punto de vista de las posibilidades de lograr, con su

ayuda, la explicación de los hechos existentes y la previsión de otros nuevos. El método

de la fundamentación de las generalizaciones teóricas, adoptadas como hipótesis, con

ayuda de la deducción de consecuencias empíricas comprobadas, recibe la denominación

de método hipotético - deductivo.

W. Whewell (1794 - 1866) considera que su lógica inductiva es la lógica del

descubrimiento y estima que su trabajo es la continuación directa de la obra de Bacon. El

proceso de inducción es equiparado al proceso de movimiento del pensamiento que va del

hecho a la ley, de lo empírico a la teoría general. En este sentido, para Whewell, toda la

ciencia experimental es inductiva, quien sostiene que la doctrina de la hipótesis del

razonamiento deductivo se manifiesta como una conclusión del proceso inductivo. Los

hechos especiales que son la base de la conclusión inductiva resultan ser la consecuencia

en la cadena de deducciones. Y de este modo, la deducción establece la inducción. El

principio que obtenemos de los hechos es verdadero, porque los hechos pueden ser

obtenidos de él mediante una rigurosa demostración.

Según E. Kant (1770 - 1831), a priori sólo tenemos la forma, el procedimiento de

organización del conocimiento, de su estructura. La formación del conocimiento presupone

la unidad de forma y el contenido en sentido propio, esto es, únicamente posible a

consecuencia de la aplicación de las formas apriorísticas del contenido del conocimiento,

cuya obtención, en definitiva, presupone la experiencia directa, la interacción de sujeto y

objeto. El conocimiento constituye la unidad orgánica de lo apriorístico y lo aposteriórico, la

forma y el contenido.

Las formas apriorísticas, uniéndose al contenido del conocimiento, caracterizan la síntesis

de los conocimientos, lo que determina la unidad de la variedad como un rasgo

característico del objeto del conocimiento científico. Éste constituye, a juicio de Kant, la

construcción cognoscitiva, el "objeto ideal". Kant destaca la primacía de la síntesis

respecto del análisis al estudiar el origen del conocimiento científico.

Kant sostiene la idea de que la interacción es la verdadera causa "definitiva" de todos los

cambios que se realizan en la naturaleza. El medio de que se sirve la naturaleza para

lograr el desarrollo de todas sus facultades es el antagonismo de los mismos en la

sociedad, en la medida en que éste, por tanto, deviene al final en causa de un

ordenamiento sujeto a leyes de los mismos. Kant afirma: "El conocimiento común, sólo

Page 41: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 27

gracias a la unidad sistemática se convierte en ciencia, o sea, de un conjunto de ideas se

transforma en sistema".

Hegel trató de presentar el desarrollo del sistema categorial de la ciencia como un proceso

natural de desarrollo, que se desenvuelve de acuerdo con sus propias leyes internas. El

estímulo, el "resorte" y el motor de este desarrollo fueron, a juicio de Hegel, las

contradicciones internas del concepto; y su superación lograda a un nivel más elevado y

profundo de penetración en el contenido fue presentada por él como el desarrollo, el

enriquecimiento y la concreción del régimen de categorías, ascendente desde las

categorías abstractas, con menos contenido, a categorías de un contenido cada vez

mayor. La dialéctica del conocimiento, consistente en la revelación de las contradicciones

del concepto, el descubrimiento de lo contradictorio contenido en ellas, y la superación de

las contradicciones fue fundamentada y desarrollada por Hegel como la lógica interna del

desarrollo del conocimiento.

K. Marx (1818 - 1883), F. Engels (1820 - 1895), V. Lenin (1870 - 1924): la filosofía

marxista - leninista liquida la oposición de principio de la gnoselogía a la ontología, y de la

doctrina del conocimiento a la doctrina de la existencia, característica de la filosofía

premarxista, y considera la actividad práctica y transformadora del hombre como base del

conocimiento y criterio de su verdad

La filosofía marxista - leninista considera el método desde las posiciones de la teoría del

reflejo, teniendo en cuenta que la dialéctica materialista puede actuar como método

universal del conocimiento porque es el reflejo en el razonamiento teórico de las leyes más

generales del desarrollo del mundo material.

2.1.2. REFERENTES TENORIO BAHENA, JORGE - TÉCNICAS DE INVESTIGACIÓN DOCUMENTAL - 3ª

edición - ED.MC GRAW HILL - México - 1988

Page 42: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 28

2.2. LA NATURALEZA DE LA CIENCIA Y EL MÉTODO CIENTÍFICO

Lic. Humberto Fernández

2.2.1. LA CIENCIA: UNA CARACTERIZACIÓN GENERAL Es ciertamente difícil, como lo reconoce Kerlinger (1975) proporcionar una definición del

término ‘ciencia’. No obstante ello, podría decirse en aras de una caracterización general

de la ciencia, que ésta podría entenderse como un ‘cuerpo de ideas’ (Bunge, 1979) o

sistema de conocimientos. Estos conocimientos tienen la peculiaridad de ser el resultado

de la aplicación de un conjunto de procedimientos racionales y críticos -esto es, no

dogmáticos, no opinativos, no arbitrarios (Cf. López Alonso, 1982)- que caen bajo la

denominación genérica de ‘método científico’. En consecuencia, lo que esencialmente

caracteriza a la ciencia en tanto que saber racional y críticamente fundado sobre la

realidad (empírica y no-empírica), es el método a través del cual se construye ese saber o

conocimiento. En la Figura 1 se proporciona una representación esquemática de este

estado de cosas.

Precisamente, es en virtud del tipo de método seguido para alcanzar el conocimiento

científico como puede establecerse una primera distinción entre las ciencias: las ‘ciencias

formales’ se caracterizarían por el empleo del así llamado ‘método axiomático’ y las

‘ciencias empíricas o fácticas’, por el empleo de un método que, genéricamente, se podría

denominar como el ‘método de la contrastación empírica'.

2.2.2. LAS CIENCIAS FORMALES Y EL MÉTODO AXIOMÁTICO El núcleo metodológico de las ciencias formales como la Lógica y la Matemática lo

constituye el método axiomático. Este método consiste en la postulación de un conjunto

de proposiciones o enunciados los cuales guardan entre sí una relación de deducibilidad.

Este conjunto de proposiciones recibe el nombre de sistema axiomático por cuanto el

punto de inicio de toda la cadena deductiva lo constituyen los axiomas, proposiciones cuya

verdad no se demuestra aunque se toman como verdaderas. A partir de los axiomas y

mediante la aplicación de una serie de reglas de inferencia, se derivan los otros

componentes de la cadena deductiva denominados teoremas.

Page 43: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 29

Estos, habida cuenta del proceso deductivo que les dio origen, habrán de ser verdaderos

en la medida en que lo sean los axiomas [1]. A su vez, en todo sistema axiomático, los

conceptos o términos con los que arman sus enunciados constituyentes pueden ser de

dos tipos: términos primitivos o indefinidos, aquellos que se aceptan y emplean sin

definición y términos definidos, aquellos que se definen a partir de los términos primitivos.

Como un ejemplo de la aplicación del método axiomático en el campo de la Matemática

puede citarse el desarrollo, por parte del matemático italiano Giuseppe Peano, de un

sistema axiomático para la aritmética de los números naturales. Este sistema, conocido

genéricamente como la axiomática de Peano, consta de los siguientes elementos

constituyentes: (a) un conjunto de términos primitivos tales como ‘uno’, el predicado ‘ser

número natural’ y la operación ‘sucesor inmediato’ y, (b) un conjunto de axiomas tales

como ‘uno es un número natural’, ‘el sucesor de uno es también un número natural, ‘no

hay dos números naturales que tengan el mismo sucesor, etc.

Es a partir de estos axiomas como se pueden demostrar los teoremas propios de la

aritmética referidos a las propiedades (conmutatividad, asociatividad, etc.) de las

operaciones de suma, resta, multiplicación y división. Una representación esquemática del

método característico de las ciencias formales se esboza en la Figura 2.

2.2.3. LA CUESTIÓN DEL MÉTODO EN LA CIENCIA EMPÍRICA: LAS TRADICIONES INDUCTIVISTAS Y REFUTACIONISTAS Respecto del método seguido por la ciencia empírica, pueden distinguirse a su vez varias

versiones encontradas que difieren entre sí en lo atinente a la concepción epistemológica

de base respecto de lo que es la ciencia en sí o el conocimiento científico como tal. Entre

estas versiones respecto de cuál es el método que sigue la ciencia empírica para lograr un

conocimiento de la realidad, es tradicional distinguir entre las posiciones inductivistas y las

falsacionistas. Estas últimas también conocidas como refutacionistas. Cada una de estas

posiciones contó, en sus épocas de esplendor con figuras prominentes en sus filas. Así,

militaron en el inductivismo, entre otros, H. Reichenbach, R. Carnap, C. Hempel y, en el

refutacionismo, sin duda la figura más fuerte de todas, K. Popper.

2.2.3.1. EL INDUCTIVISMO Desde el inductivismo, el conocimiento científico se concibe como un conocimiento

verdadero o cierto sobre la estructura del mundo derivable por inducción a partir de la

Page 44: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 30

observación de un cierto número de hechos particulares por lo que, el método

característico de la ciencia habrá de ser el método inductivo. De allí el nombre de

inductivismo con el que se conoce a esta posición metodológica.

¿En qué consiste el método inductivo como medio de acceso al conocimiento científico?

En lo esencial, dicho método consiste en la derivación -mediante un proceso de inferencia

no-deductiva- de un conjunto de reglas generales bajo las cuales queden comprendidos

las instancias particulares del fenómeno objeto de estudio. Estas reglas vendrían a

describir una regularidad empírica en el comportamiento de los fenómenos observados

por lo que suele denominárseles ‘leyes empíricas’ (Nagel, 1981). Estas leyes constituirían,

para el inductivista, el corazón de la ciencia. Dado que esta posición admite que los

enunciados (universales)[2] derivados mediante generalización inductiva pueden darse por

verificados, esto es, probados como verdaderos, a esta variedad de inductivismo se la

conoce con el nombre de verificacionismo.

El problema capital del verificacionismo, el ‘problema de la inducción’, es que la

argumentación inductiva que sirve de base para la formulación de las leyes empíricas no

constituye un razonamiento lógicamente válido por lo que, en principio, la conclusión -ley

general- puede ser falsa aún cuando las premisas de partida -hechos observados- sean

verdaderas. Luego, en punto a superar este problema, los inductivistas se vieron

obligados a apelar a algún principio que permitiera legitimar la pretensión de verdad de las

leyes empíricas. El así denominado ‘principio de inducción’ permitió a los inductivistas

justificar el supuesto de que las leyes empíricas podrían considerarse como enunciados

verdaderos acerca del mundo. Este principio rezaría más o menos como sigue: "si, en una

gran variedad de circunstancias, se observa un gran número de objetos de una cierta

clase y es el caso que absolutamente todos poseen la propiedad j, entonces puede

aceptarse a todos los efectos como verdadero que todos los objetos de esa clase poseen

la propiedad en cuestión" (Cf. Chalmers,1991; Klimovsky, 1997). Puesto que el principio

de inducción debidamente cumplimentado no garantiza que una cierta ley general no sea

refutada habida cuenta que es lógicamente posible encontrar un contraejemplo que la

invalide, el inductivismo primitivo se vió obligado a reconsiderar el carácter de verdad

perenne de sus leyes empíricas adoptando en su lugar, el concepto de verdad probable.

Desde una visión más atenuada del inductivismo, se comenzó a considerar que las

afirmaciones generales de la ciencia no necesariamente se abstraían inductivamente de la

experiencia sino que también, eran factibles de ser descubiertas por cualquier otro medio.

Page 45: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 31

Además, desde este inductivismo moderado, el conocimiento científico no era ya

concebido como un conocimiento necesariamente verdadero sobre la realidad. Esta

posición atenuada llegó a conocerse con el nombre de confirmacionismo. Desde esta

perspectiva, las leyes empíricas en lugar de considerarse como enunciados verdaderos

sobre la estructura del mundo, se las contemplaba más bien como una descripción

probablemente verdadera acerca de cómo es el mundo siendo el grado de probabilidad

mayor o menor en función del monto de apoyo observacional que le servía de sustento.

Luego, para el confirmacionismo, las afirmaciones o enunciados generales de la ciencia

que disponían de un fuerte apoyo empírico se las consideraría confirmadas antes que

verificadas.

El estatuto de verdad probable de una ley empírica se encontraría justificado por un

principio de inducción de corte probabilístico que rezaría más o menos como sigue: "si, en

una gran variedad de circunstancias, se observa un gran número de objetos de una cierta

clase y es el caso que absolutamente todos poseen la propiedad j, entonces puede

aceptarse a todos los efectos como probablemente verdadero que todos los objetos de

esa clase poseen la propiedad en cuestión" (Cf. Chalmers,1991). Ahora bien, la pretensión

de justificar mediante este principio de inducción reformulado, el carácter de verdad

probable de una ley universal enfrenta un escollo de peso cual es, como bien señala

Chalmers (1991), el concepto de que la probabilidad de que sea verdadera una

generalización empírica de carácter universal es, a todos los efectos, nula y ello es así por

cuanto la probabilidad definida como un cociente entre un número finito de casos

singulares o hechos observados –evidencia empírica acumulada- y un número

potencialmente infinito de casos posibles –dominio de la ley general- es igual a cero.

Ambas variantes inductivistas coinciden, sin embargo, en el concepto de que es posible

establecer la verdad o probable verdad de los enunciados universales, núcleo del saber o

de las teorías científicas, mediante la recolección oportuna de la evidencia empírica

pertinente. En efecto, en los enfoques menos sofisticados del inductivismo, la recolección

de datos precede a la formulación, mediante la generalización inductiva, de un enunciado

universal. Empero, en los enfoques más sofisticados no importa cómo se obtenga o

descubra un enunciado universal, a posteriori de su formulación debe recabarse la

evidencia empírica que servirá de basamento como prueba de su verdad o probable

verdad. En este sentido se puede decir que una cierta teoría puede reputarse de científica,

o lo que es lo mismo, adquiere visos de legitimidad en la medida en que se encuentre

Page 46: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 32

justificada o avalada por los datos empíricos, árbitros últimos de la verdad o probable

verdad de una tal teoría. Así, como bien lo señalan Klimovsky y de Asúa (1997), puede

decirse del enfoque inductivista que es justificacionista en la medida en que supone que

es posible una justificación empírica de los enunciados universales constituyentes del

conocimiento científico en tanto que afirmaciones verdaderas o probablemente verdaderas

acerca del mundo.

En las Figuras 3 y 4 se representan esquemáticamente las posiciones del inductivismo

‘ingenuo’ –verificacionismo- y del inductivismo ‘sofisticado’ –confirmacionismo’-,

respectivamente y, en la Figura 5, se esquematiza el concepto de que las hipótesis

científicas no pueden contemplarse como enunciados verdaderos o probablemente

verdaderos sobre la estructura del mundo.

2.2.3.2. EL REFUTACIONISMO En abierta oposición al concepto de conocimiento científico como conocimiento cierto o

probablemente cierto sobre la estructura del mundo, Popper (1973) basándose en la idea

de que ningún tipo de argumentación inductiva puede llegar a establecer la verdad o

probable verdad de una proposición universal, desarrolla su concepción hipotética de la

ciencia proponiendo que, a lo sumo, el conocimiento científico es una conjetura acerca de

cómo es el mundo. Una conjetura es, en esencia, un enunciado de carácter hipotético en

el sentido de que comporta una suposición acerca cómo está estructurado el sector de la

realidad al cual el mismo hace referencia. Los enunciados conjeturales, aunque se

suponen verdaderos, por cuestiones estrictamente lógicas como habrá de verse, jamás

podrán llegar a probarse que son tales.

Partiendo de la base de que las afirmaciones en ciencia empírica deben poder

contrastarse con la realidad (empírica), resulta imperativo para cualquier teoría (científica)

contar con elementos de juicio que, de algún modo, le otorguen un sentido de verosimilitud

a la misma. Entre estos elementos de juicio, se destacan aquellos de carácter

observacional que, por su propia naturaleza (fáctica), provienen del campo de la

experiencia. Estos elementos observacionales suelen recibir el nombre de ‘consecuencias

observacionales’ [3] por cuanto los mismos se desprenden como una consecuencia lógica

de los enunciados conjeturales que se proponen a propósito de la estructura del mundo.

Así, si el mundo es verdaderamente tal y como lo afirma una hipótesis H, entonces cabría

esperar la ocurrencia (en el mundo) de un cierto tipo de acontecimientos O. Ahora bien,

Page 47: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 33

¿qué puede decirse de una teoría que cuenta con un cúmulo de elementos

observacionales o evidencia empírica favorable a la misma? Si uno asimila el concepto de

enunciado hipotético o hipótesis (H) a las condiciones antecedentes de un enunciado

condicional (p) y los elementos observacionales (O) a sus consecuentes respectivos (q),

es claro que, desde el punto de vista lógico, el cumplimiento o verificación de O no lleva

necesariamente a afirmar la verdad de H.

En caso de llegarse a esta conclusión, se acometería lo que los lógicos denominan la

‘falacia de afirmación del consecuente’: la mera ocurrencia del consecuente q, no

garantiza la verdad del antecedente p por cuanto aquel bien puede llegar a producirse por

múltiples razones, entre éstas, el antecedente p considerado en forma explícita. Esto es lo

mismo que decir que la ocurrencia de O es compatible con un conjunto más o menos

vasto de j posibilidades hipotéticas H, H1, H2 , …, Hj de las cuales se encuentran bajo

estudio sólo una, H. De allí que sería gratuito aceptar la verdad de H a partir de la verdad

de O. Empero, si bien la verificación de O no permite establecer la verdad (o probable

verdad) de H, su no cumplimiento o refutación, llevaría a establecer o a presumir la

falsedad de H. En efecto, puesto que O es una consecuencia que debe producirse en el

supuesto de que H sea verdadera, la no ocurrencia o refutación de O lleva a pensar que H

puede no ser verdadera, es decir, puede ser falsa. La razón lógica que lleva a expedirse

sobre la falsedad de H a partir de la refutación de O estriba en que ésta no es ni más ni

menos que la conclusión de un razonamiento deductivo [4] que tiene entre sus premisas a

H y, como en toda deducción válida una conclusión no puede ser falsa si sus premisas

son verdaderas, H no puede ser verdadera. Atento a este rol asimétrico que cumplen la

verificación y la refutación de O en cuanto al establecimiento de la verdad de H, el

refutacionista tiende cautamente a considerar corroboradas a las hipótesis cuyas

consecuencias observacionales resultan verificadas en la realidad. Una hipótesis

corroborada es aquella que puede aceptarse provisionalmente como una descripción más

o menos verosímil respecto cómo es el mundo en la medida en que, en el proceso de

contrastación empírica, se produzca la verificación de sus respectivas consecuencias

observacionales.

Cuando ocurre lo contrario, esto es, cuando las consecuencias observacionales resultan

refutadas, desde una posición refutacionista extrema conocida como ‘falsacionismo

ingenuo’ (Cf. Chalmers, 1991), la hipótesis en cuestión se declararía falsa sin más trámite.

Una versión menos radical de esta posición, el ‘falsacionismo sofisticado’, admite que el

Page 48: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 34

proceso de contrastación empírica de una hipótesis dada es un asunto complejo en el cual

intervienen no sólo la hipótesis principal a contrastar sino también otras hipótesis que se

encuentran implícitas en el marco teórico (y metodológico) en el cual se inserta aquella.

Por ello, la refutación de una determinada consecuencia observacional no implicaría

necesariamente la falsedad de la hipótesis principal.

En definitiva, para el refutacionismo, el conocimiento científico no es sino un conjunto

articulado de hipótesis o conjeturas que, sin ser verdaderas, al comprobarse en el plano

empírico, nos acercarían progresivamente a la verdad configurando así ‘un modelo

tentativo y verosímil’ (Klimovsky y de Asúa, 1997), más no uno verdadero, acerca de la

realidad. En punto a obtener este conocimiento, el refutacionista propone como única

alternativa metodológica válida, el método hipotético deductivo. Este consiste en formular

hipótesis acerca de la realidad, derivar de ella deductivamente una serie de

consecuencias observacionales, y someterlas a contrastación en el plano empírico. Si

dichas consecuencias resultan verificadas, la hipótesis se mantiene; caso contrario, se

revisan los datos observacionales o las hipótesis conexas a la hipótesis principal en pos

de encontrar las razones por las que se produjo la refutación. De no haberlas o de

producirse reiteradas refutaciones de las consecuencias observacionales asociadas a la

hipótesis de marras, ésta eventualmente se descarta como conocimiento científico válido.

En la Figura 6 se proporciona una representación esquemática del concepto de asimetría

entre la verificación y la refutación –central en la concepción refutacionista de la ciencia- y,

asimismo, del modelo hipotético-deductivo de contrastación de hipótesis.

2.2.4. LAS CIENCIAS FORMALES Y LAS CIENCIAS FÁCTICAS: DIFERENCIAS ADICIONALES Amén de la cuestión metodológica, por cierto que ambos tipos de ciencias, las formales y

las fácticas, difieren en otros aspectos importantes: el tipo de objetos de los que se

ocupan, el tipo de enunciados con los que expresan el conocimiento sobre el mundo y, por

último, la finalidad que persiguen. En cuanto a los objetos de estudio, las ciencias

empíricas se ocupan de los hechos y acontecimientos del ‘mundo en que vivimos’

(Hempel, 1979), esto es, de la realidad empírica en tanto que, las ciencias formales se

abocan al estudio de objetos ideales, esto es, entidades que solo habitan en el mundo del

pensamiento. Con respecto a los enunciados con los que operan ambas ciencias, suele

Page 49: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 35

afirmarse que las empíricas apelan predominantemente a enunciados sintéticos y, las

formales, a enunciados analíticos en forma exclusiva.

Los primeros son enunciados cuya verdad o falsedad es una función de su

correspondencia con el estado de cosas de la realidad a la que hacen referencia (Vg., el

enunciado "El pensamiento formal como último estado del desarrollo intelectual se alcanza

aproximadamente a la edad de 12 años" es verdadero en el caso de que lo afirmado se

corresponda con la realidad). Los segundos, por el contrario, son afirmaciones cuya

verdad o falsedad se determina en virtud de relaciones formales o semánticas que se

establecen entre los términos o componentes que lo constituyen (Vg. "Llueve y no llueve":

lógicamente falso; "Ningún soltero es casado": verdadero por definición). En lo atinente a

la finalidad que ambos tipos de ciencia persiguen podría decirse que las ciencias fácticas

apuntan a describir y explicar el conjunto de fenómenos de aquel sector de la realidad que

recortan como su objeto de estudio. Puesto que las ciencias formales no se ocupan de la

realidad empírica, bien podría afirmarse en un sentido general que su finalidad es el

desarrollo y construcción de sistemas abstractos de pensamiento. En la Figura 7 se

proporciona una descripción comparativa de ambos tipos de ciencia.

2.2.5. EL CONOCIMIENTO CIENTÍFICO Y SUS CONTEXTOS De ser cierto que, como afirman algunos filósofos, "de la nada, nada sale", del

conocimiento científico en tanto que creación de la mente humana, bien cabría

preguntarse acerca de cómo surgió en un momento y lugar determinado de la historia.

Una vez producido, bien correspondería preguntarse cómo determinar que dicho

conocimiento puede tomarse como un conocimiento válido acerca de la realidad.

Supuesto que tal conocimiento sea válido, cabría preguntarse asimismo acerca de cuál es

su utilidad en el inventario de las cosas del mundo. En el ámbito de la ciencia, este tipo de

cuestiones vienen a definir lo que tradicionalmente se denominan los contextos del

conocimiento científico. Estos son: el contexto de descubrimiento, el contexto de

justificación y el contexto de aplicación. Los dos primeros fueron propuestos por H.

Reichenbach (1937) un filósofo de la ciencia enrolado primitivamente en el inductivismo y,

el último, por el epistemólogo argentino G. Klimovsky (1994).

En el contexto de descubrimiento, como su nombre lo hace suponer, trata de las

cuestiones referidas a los factores que dieron origen o coadyuvaron a la producción de

una hipótesis o teoría científica. La elucidación de estos factores caería en la órbita de la

Page 50: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 36

Psicología y, también, de la Sociología. Estas disciplinas se abocarían la una, a estudiar

los mecanismos psicológicos involucrados en la creación de hipótesis científicas, los

procesos de razonamiento, solución de problemas, toma de decisiones y demás que

acaecerían en la mente del hombre de ciencia, y, la otra, a desentrañar las circunstancias

históricas que contribuyeron a la formulación de una teoría en un tiempo y lugar

determinados.

El contexto de justificación, por otro lado, atañe a la cuestión de si la teoría descubierta o

creada puede considerarse como conocimiento científico objetivo y fundado acerca del

mundo. En este contexto se deben presentar los argumentos empíricos, lógicos y teóricos

que lleven a aceptar una teoría como parte del corpus de la ciencia.

El contexto de aplicación, como su nombre lo indica, aludiría a la aplicación que se hace

del conocimiento científico en vistas a la transformación de la realidad. En este contexto

se trataría no solo los usos del conocimiento sino también los eventuales beneficios o

perjuicios que los mismos acarrean a la humanidad.

2.2.6. EL CONOCIMIENTO CIENTÍFICO Y SUS PECULIARIDADES Bunge (1979) en su clásico texto sobre la ciencia, cataloga magistralmente una serie de

características que distinguen al conocimiento científico en tanto que construcción artificial

de la mente humana. En lo esencial, este tipo de conocimiento se destacaría por su

carácter fáctico, racional, verificable, objetivo, sistemático y explicativo. El conocimiento

científico es fáctico por cuanto trata sobre los fenómenos y hechos de la realidad empírica;

es racional por estar fundado en la razón, esto es, en un conjunto de ideas y

razonamientos y no en sensaciones, opiniones, pareceres o dogmas; verificable en el

sentido de comprobable empíricamente por cuanto sus afirmaciones deben someterse al

tribunal de la experiencia; objetivo por cuanto sus afirmaciones pretenden ser

concordantes con los objetos de la realidad; sistemático en el sentido de constituir un

cuerpo de ideas lógicamente entrelazadas más que un cúmulo de proposiciones

inconexas y, por último aunque no menos importante, el conocimiento científico es

explicativo en el sentido de que el mismo no se conforma con describir cómo es el mundo

sino que intenta dar cuenta de las razones por las cuales el mundo es como es vale decir,

encontrar las razones por las cuales los fenómenos empíricos se comportan del modo en

que lo hacen.

Page 51: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 37

2.2.7. NOTAS [1] Recordar que en toda deducción válida, las conclusiones nunca pueden ser falsas si

las premisas son verdaderas. En un sistema axiomático, las premisas son los axiomas y

las conclusiones, los teoremas.

[2] Estos enunciados constituyen afirmaciones generales referidos a todos los miembros

de una cierta clase. Ejemplo: "Todos los toros son negros" es una afirmación que sostiene

que la propiedad de ser negro es consustancial a la clase de los toros.

[3] Una consecuencia observacional es un enunciado o expresión lingüística de aquello

que cabría esperar en caso de ser cierta la hipótesis que le dio origen. Si las

‘observaciones pertinentes’ (Klimovsky, 1997), esto es los datos empíricos del caso se

corresponden o no se corresponden con lo que se afirma en dicho enunciado, se dice que

se ha producido, respectivamente, la verificación o refutación de la consecuencia

observacional.

[4] Un razonamiento deductivo es, desde el punto de vista lógico, un conjunto de

enunciados o proposiciones una de las cuales, llamada conclusión, se pretende que se

derive o infiera de un modo necesario o no contingente de las otras llamadas premisas.

2.2.8. REFERENCIAS o Bunge, M. (1979). La ciencia. Su método y su filosofía. Buenos Aires: Siglo Veinte.

Chalmers, A. (1991). ¿Qué es esa cosa llamada ciencia?. Buenos Aires: Siglo

Veintiuno.

o Hempel, C. (1979). La filosofía de la ciencia natural. Madrid: Alianza.

o Kerlinger, F. S. (1975). Investigación del comportamiento. Técnicas y metodología.

México: Interamericana.

o López Alonso, A. (1982). Temas de metodología de la investigación. Buenos Aires:

Eudeba.

o Nagel, E. (1981). La estructura de la ciencia. Buenos Aires: Piadós.

o Klimovsky, G. (1994). Las desventuras del conocimiento científico. Una introducción

a la epistemología. Buenos Aires: A-Z editora.

o Klimovsky, G. y de Asúa, M. (1997). Corrientes epistemológicas contemporáneas.

Buenos Aires: Editores de América Latina.

o Popper, K. (1973). La lógica de la investigación científica. Madrid: Tecnos.

Page 52: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 38

o Reichenbach, H. (1937). Experience and prediction. Chicago: The University of

Chicago Press.

o http://www.salvador.edu.ar/ua1-9pub02-5-01.htm

Page 53: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 39

<

2.3. LA CIENCIA Y EL MÉTODO CIENTÍFICO

Francisco Osorio G.

El objetivo de esta reunión es presentar brevemente lo que se entiende por explicación

científica, las características básicas del empirismo lógico y la falsación en Popper. Estos

temas revisten una enorme importancia para la antropología, pero dado el escaso tiempo

disponible, sólo es posible hacer una sucinta presentación de dichos contenidos.

Explicación Científica, Los comienzos de la antropología están ligados �entre otros

aspectos� a los ideales de la ilustración, a la confianza en la ciencia como eje del

progreso de la humanidad y, en lo que nos interesa, a la creencia que los fenómenos

culturales pueden ser explicados de acuerdo al modelo de la ciencia natural. El positivismo

decimonónico y, posteriormente, el empirismo lógico, crearon las bases de la antropología

como ciencia y, en general, de las ciencias sociales como hoy las conocemos.

Esta posición se denomina naturalista y continua hasta nuestros días, sólo que las críticas

hoy son más fuertes o, tal vez, más gente a empezado a creer en ellas. Los naturalistas

creen en la explicación, entendiéndose por este concepto una variedad de razonamiento

que incluye leyes cubrientes o generales. Es decir, en un sentido ambiguo podemos decir

que hay muchas maneras de explicar, pero siendo rigurosos dentro del contexto de la

antropología como ciencia, diremos que explicar es una manera concreta de razonar con

características muy específicas, donde el concepto de ley general es de extrema

importancia. Pero, ¿cuáles son las características de la explicación científica?

Tal vez es la obra de Carl G. Hempel la que más destaque entre los epistemólogos

cuando tratan de caracterizar la explicación y su naturaleza. Por ello nos detendremos a

caracterizarla mediante un conjunto de 11 aforismos que resume el ensayo La Lógica de

la Explicación aparecido en su famoso libro La Explicación Científica (Hempel 1965).

1. Explicar es responder a la(s) pregunta(s) ¿por qué?

2. La explicación consta de un explanandum y un explanans, que es necesario distinguir

de los términos explicandum y explicans, los cuales se reservan para el ámbito de la

explicación de significado y análisis.

3. El explanandum es un enunciado que describe el fenómeno a explicar (es una

descripción y no el fenómeno mismo).

Page 54: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 40

4. El explanans consta de �al menos� dos conjuntos de enunciados utilizados con el

propósito de dilucidar el fenómeno:

4.1. Por una parte, enunciados que formulan condiciones antecedentes (C1, C2, .... Ck);

indican condiciones que se manifiestan antes de la aparición del fenómeno que se va a

explicar.

4.2. Por otra, enunciados que representan leyes generales (L1, L2,... Lr)

5. El fenómeno en proceso de explicación será explicado demostrando que se produjo de

acuerdo con las leyes generales (4.2) y en virtud de las condiciones antecedentes

especificadas (4.1.).

5.1. Así, la pregunta ¿por qué sucede el fenómeno? se transforma en la pregunta ¿de

acuerdo con qué leyes generales y cuáles condiciones antecedentes se produce el

fenómeno?

6. La explicación también puede formularse respecto a leyes generales. Es decir, la

explicación de una regularidad general puede subsumirse dentro de otra regularidad más

inclusiva (una ley más general). Dicho de otra manera, las leyes generales son cubrientes,

ya que pueden subsumir otras leyes o un conjunto de hechos.

6.1. Ejemplo: la validez de la ley de Galileo sobre la caída de los cuerpos en la superficie

terrestre, puede explicarse a partir de un conjunto más inclusivo de leyes, tales como las

del movimiento y de la gravedad de Newton y de otros enunciados acerca de hechos

particulares como los referidos a la masa y al radio terrestre.

7. Requisito Lógico Empírico de la Explicación. 7.1. Los dos primeros requisitos (R) son de carácter lógico. El tercero es lógicoempírico. El

cuarto es de carácter empírico.

7.1.1. (R1). Deducibilidad. El explanandum debe ser lógicamente deducible de la

información contenida en el explanans.

7.1.2. (R2). Leyes. El explanans debe contener leyes generales adecuadas a la derivación

lógica del explanandum.

7.1.3. (R3). Consecuencia Empírica. El explanans debe tener contenido empírico

(comprobable por experimento u observación); lo anterior supone asumir que el explanans

deberá contener, al menos, una consecuencia de índole empírico.

7.1.4. (R4). Requisito Empírico. Los enunciados del explanans deben satisfacer la

condición de corrección fáctica, lo cual implica que han de ser confirmados por todos los

elementos relevantes antes de ser considerados verdaderos.

Page 55: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 41

7.1.4.1. Ejemplo: Supóngase, que en una etapa primitiva de la ciencia un determinado

fenómeno fue explicado mediante un explanans verificado con las pruebas disponibles en

ese momento, pero descubrimientos empíricos más recientes lo han negado. Las posibles

respuestas que pueden proporcionarse atendiendo a la condición de corrección fáctica

son: (a) originariamente la condición fue correcta, pero dejó de serla al descubrirse

elementos de prueba desfavorables; (b) la verdad (empírica) del explanans y la solidez de

la explicación (lógica) había sido bastante probable, pero la mayor evidencia empírica

disponible ahora hace muy probable que el explanans no fuera verdadero y �en

consecuencia� la explicación no era, ni ha sido nunca, correcta.

8. Explicación y Predicción. El mismo análisis formal (incluidos los cuatros requisitos) se

aplica a la explicación y a la predicción.

8.1. Diferencia entre explicación y predicción. La diferencia es de carácter pragmático.

8.1.1. Explicación. Si dado E (enunciado descriptivo), y conociendo que E ha ocurrido, se

enuncia un conjunto de oraciones C1, C2, ... Ck y luego se enuncia otro conjunto de

enunciados L1, L2, ... Lr, conexos a los anteriores, entonces hablamos de explicación.

8.1.2. Predicción. Si, proporcionados los dos conjuntos de enunciados (Ck y Lr), de ellos se

infiere E antes de que suceda el fenómeno, entonces hablamos de predicción.

8.1.3. En consecuencia, a nivel de características lógicas, la explicación y la predicción

poseen los mismos elementos estructurales.

9. Explicación PreCientífica y Explicación Incompleta. 9.1. La explicación pre científica carece de fuerza predictiva, puesto que el explanans no

suministra leyes explícitas por medio de las cuales poder realizar la predicción, ni

establece, de manera adecuada, las condiciones antecedentes que serían necesarias para

este propósito.

9.2. La explicación incompleta puede considerarse como un índice de correlación positiva

entre las condiciones antecedentes y el tipo de fenómeno que se va a explicar y como

guía de la dirección que deberán tomar las investigaciones ulteriores con el propósito de

completar dicha explicación.

10. Explicación Causal. Si E describe un hecho, puede decirse que las circunstancias

antecedentes señaladas en C1, C2... Ck "causan" en conjunto aquel hecho, en el sentido

de que existen ciertas regularidades empíricas expresadas por L1, L2... Lr, las cuales

implican que toda vez que ocurran condiciones del tipo indicado por C1, C2... Ck, tendrá

lugar un hecho del tipo descrito en E.

Page 56: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 42

10.1. De acuerdo a lo indicado tenemos que: una explicación causal completa se convierte

en una adecuada predicción.

10.2. En tal contexto, los enunciados L1, L2... Lr, al expresar conexiones generales y

ordinarias entre características específicas de hechos, se denominan leyes causales.

10.3. La explicación causal es una variedad del tipo de razonamiento deductivo.

11. La tesis de Hempel es que los principios de la explicación generados en la física son

también aplicables a las ciencias sociales.

En resumen, hasta aquí se han entregando los antecedentes que nos permiten

caracterizar la explicación científica, según la obra del epistemólogo Hempel, entendida

como un razonamiento por leyes cubrientes. Dicho de otra manera, la explicación causal

es una variedad del tipo de razonamiento deductivo. Sin embargo, con el propósito de

ejemplificar las ideas expuestas, es conveniente destacar que la explicación que

usualmente damos en nuestra vida cotidiana está, curiosamente, bastante cerca de la

científica.

Cuando observamos las noticias en televisión, podemos notar que los periodistas

preguntan a los encargados de la seguridad pública: –"¿Por qué han aumentado los robos

a mano armada?" y estos responden algo así como: –"No es que hayan aumentado los

robos, puesto que se mantienen en el mismo promedio de la década pasada, lo que pasa

es que los delincuentes tienen mayor acceso a armas, las cuales son obtenidas,

principalmente, de los habitantes de las mismas casas que asaltan, puesto que las

compraron para defenderse de los delincuentes. Como los miembros de la familia no

pueden estar armados mientras almuerzan o duermen, entonces guardan el arma en el

closet, pero es ahí donde los delincuentes las encuentran y las ocupan en los posteriores

atracos".

Este tipo de respuesta puede considerarse una explicación satisfactoria. El fenómeno a

explicar es el aumento de robos con armas, enunciándose como condición antecedente

que los delincuentes obtienen las armas de las mismas casas que asaltan. Es decir, dada

la condición antecedente C (obtención de armas), se produce E (más robos armados). La

causa C produce el efecto E. Sin embargo, lo anterior no es literalmente una explicación

científica, aunque pudiera parecerlo.

¿Qué es aquello que le falta a este ejemplo para ser considerado una explicación

científica? Una ley general. En efecto, falta una legalidad fuerte que conecte la obtención

Page 57: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 43

de armas con la mayor cantidad de robos armados. Si una ley tal existiera, quedaría como

sigue:

1. Todas las armas robadas son usadas en robos armados

2. En Santiago aumentan las armas robadas

3. En Santiago se produce una mayor cantidad de robos armados

Donde 1 es la ley general, 2 es el antecedente o causa y 3 el consecuente o efecto.

Hasta aquí dejaremos la presentación de la explicación científica. Rápidamente

observamos las críticas y consecuencias que para la antropología tienen estas

proposiciones, pero es el momento es cumplir nuestro segundo objetivo.

2.3.1. EL EMPIRISMO LÓGICO

Siguiendo a Boyd (1991), se podría decir que gran parte de la literatura epistemológica de

este siglo está dedicada a criticar o apoyar el empirismo lógico. Por algún motivo, los que

apoyan este programa filosófico se autodenominan empiristas lógicos. Quienes critican

este programa (realistas científicos y constructivistas sociales) llaman positivistas lógicos a

quienes siguen el programa del empirismo lógico.

Para abordar este programa de investigación se puede comenzar con el problema de la

demarcación, es decir, el problema de distinguir la ciencia y de la no–ciencia (teorías

metafísicas en lenguaje de ellos). La respuesta a este problema se conoce como

verificacionismo. Esta solución tienen dos componentes:

i) Teoría de la verificación del significado y ii) teoría del conocimiento empírico. El primer

componente señala que entender el significado de una expresión o teoría consiste en

entender las circunstancias bajo las cuales uno estaría justificado en creerla o creer su

negación. Es decir, el significado de una proposición o teoría se identifica con el conjunto

de procedimientos por los cuales puede ser probada y, así, verificada o desconfirmada.

Por ejemplo, la expresión de Durkheim "el suicidio varía en razón inversa del grado de

desintegración de la sociedad", es una proposición científica ya que por un conjunto de

procedimientos estadísticos podemos estar justificados en creer en ella. La expresión "el

Trauko es la causa del 37.8% de los nacimientos de Chiloé" es una proposición

metafísica.

El segundo componente, teoría del conocimiento empírico, señala que ya que el

conocimiento se basa en la evidencia de los sentidos, se puede elegir entre dos

proposiciones científicas que compiten por explicar un fenómeno mediante un experimento

Page 58: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 44

crucial: cada teoría realiza una predicción observacional, aquella que sea confirmada nos

permite estar justificados en creer en ella. ¿Qué pasa si ambas con confirmadas? Cabe la

posibilidad que no sea un buen experimento, pero si lo es, entonces ambas teorías dicen

lo mismo, es decir, son empíricamente equivalentes.

De lo anterior se infiere que hay términos observacionales y términos teóricos. Ejemplos

de los primeros son suicidio y maternidad. Ejemplos de los segundos son anomia y mito.

El operacionalismo es la propuesta del empirismo lógico de reducir los términos teóricos a

términos observacionales con el propósito que tengan sentido.

Las consecuencias que estas propuestas tienen para la antropología y las consecuencias

que de ello se derivan, exceden el tiempo disponible en esta reunión. Por lo demás,

existen diferencias entre el positivismo, el positivismo lógico y los desarrollos

contemporáneos de estos programas de investigación que no podemos desarrollar en esta

conferencia. Incluso tampoco alcanzo a justificar que la creencia que Durkheim es un

positivista lógico (como se podría deducir de los ejemplos) es errónea.

2.3.2. EL FALSACIONISMO DE POPPER Popper también se preocupó del problema de la demarcación. Su respuesta es que una

teoría es potencialmente una teoría científica si y solo si existen posibles observaciones

que puedan falsarla (refutarla).

Según Popper, Hume tenía razón en que la inducción no puede fundar verdaderamente la

ciencia. Es decir, supongamos que vemos un cisne con cuello negro, luego vemos otro y

otro, entonces podemos tener la tentación de decir: "todos los cisnes tienen el cuello

negro". Hemos hecho una generalización o inducción tendiente a darle el carácter de ley

general. Sin embargo, aun cuando veamos muchos cisnes negros (y este es el punto),

nunca podemos estar ciertos que nuestra siguiente observación confirme la pretendida ley

"todos los cisnes tienen el cuello negro".

Frente a esto, Popper señala que la expresión "Todo A es B" tiene como juicio

contradictorio la expresión "Algún A no es B". Es decir, si bien el juicio "Ningún A es B" es

opuesto a "Todo A es B", lo que refuta la expresión desde un punto de vista lógico es

"Algún A no es B".

Para el ejemplo del cisne, dice Popper, no hay que proceder como los científicos que

tratan de probar su teoría capturando un cisne y observando si tiene el cuello negro, con el

propósito de decir que se ha confirmado la teoría. Al contrario, lo que hay que buscar son

Page 59: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 45

los casos anómalos, aquellos que no cumplen con el enunciado de la ley. Si encontramos

ese caso, entonces la teoría no es cierta. Pero, ¿qué pasa si no lo encontramos?

Entonces es probable que la teoría sea cierta, pero nunca estaremos seguros que esa sea

la verdad absoluta.

Es esta última idea la que más adeptos tiene la propuesta popperiana, de los cual también

se extraen consecuencias para la antropología. Son estas, como las consecuencias

emanadas de la explicación científica y el empirismo lógico, las que nos motivan a

reflexionar al interior de esta disciplina en particular y de las ciencias sociales en general.

Sólo queda extender una cordial invitación a revisar estos programas de investigación en

función de los intereses buscados por cada uno de ustedes.

2.3.3. REFERENCIAS

o Boyd, Richard. 1991 (1993). Confirmation, Semantics, and the Interpretation of

Scientific Theories. The Philosophy of Science. Mit Press. Cambridge.

o Hempel, Carl. 1965 (1988). La Lógica de la Explicación. pp. 247-253. La Explicación Científica. Editorial Paidós. Barcelona.

o http://rehue.csociales.uchile.cl/antropologia/ciencia.htm

Page 60: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 46

2.4. EL POSITIVISMO

2.4.1. INTRODUCCIÓN Indudablemente el Positivismo aparece en un momento histórico (finales del Siglo XIX y

comienzos del XX), cuyo terreno había sido abonado por innumerables cambios

tecnológicos como los acontecidos por la Revolución Industrial, coincidiendo a la vez, con

el decaimiento del sentido metafísico y religioso del conocimiento.

El hombre, al no obtener las respuestas esperadas en la religión, en su búsqueda y

peregrinaje permanente, por saber el porque de las cosas, fija su atención en la ciencia, ya

que la misma le brinda seguridad, confianza y confort. Ya no es el hombre, a merced de la

naturaleza, mas bien es un ser, que encuentra respuestas lógicas al estudiar en forma

analítica, los mecanismos de los objetos que se encuentran en su alrededor.

Y en este marco, con los cimientos antes mencionados, germina la semilla del Positivismo,

doctrina que Comte resume bien, a través de su Ley de los Tres Estadios, marcando así el

comienzo de la Historicidad del Conocimiento Humano.

A partir de este momento, la realidad se va a encontrar limitada por coordenadas de:

tiempo, espacio y masa, puesto que solo considera la posibilidad de estudiar

científicamente los hechos, los fenómenos, el dato experimentable, lo observable, lo

verificable para lograr el progreso de la sociedad, y ello, solo se puede alcanzar a través

de la ciencia, considerada desde Hegel, como la expresión más pura de la Racionalidad

de la cultura. Esta, se propone a entender el mundo real, definir sus relaciones, leyes y

características de la manera más objetiva, independientemente de la subjetividad de los

investigadores, de los orígenes y condiciones psico-sociales del descubrimiento o de sus

aplicaciones prácticas, utilizando en todo momento, la verificación en la experiencia y en la

observación de los fenómenos. Concepción que se expande hacia todas las ramas del

saber, inclusive hacia los hechos sociales que también son tratados como cosas.

2.4.2. EL POSITIVISMO, SUS ORÍGENES El termino Positivismo fue utilizado por primera vez por el filósofo matemático francés del

Siglo XIX Auguste Comte, no obstante, algunos de los conceptos positivistas pueden

perseguirse claramente desde Hume, Kant, y Saint-Simon.

Page 61: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 47

Imagen 1: David Hume( 1711-1776)

Filósofo escocés, cuyo espíritu analítico le llevó al escepticismo. Considera que el

conocimiento esta limitado a los acontecimiento actuales de la existencia, no puede ir más

allá, porque no acepta que existan ideas innatas, ya que todos los contenidos de la

conciencia provienen de la experiencia, y su teoría principal reside en la asociación de las

ideas. Para él, las ideas son copias borrosas sin viveza de las impresiones directas. Tanto

la percepción como la reflexión aportan una serie de elementos que se atribuyen a la

sustancia como soporte de ellos, no limita su crítica a la sustancia material, sino al propio

yo. Esto significa que las causas y hechos del mundo físico no se pueden entender, ni por

mucho, ni poco; solamente la creemos porque la naturaleza se comporta siempre así. El

escepticismo de Hume no pone en entre dicho la ciencia, pero le pone un basamento

caprichoso: la costumbre, el hábito, la asociación de ideas, los fenómenos naturales,

psicológicos; provocan en él la creencia en el mundo exterior.

Imagen 2: Immanuel Kant (1724-1804)

Page 62: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 48

Filósofo alemán; formado en el racionalismo, comienza a dudar del valor de la razón al

leer a Hume, planteándose el problema del valor y los límites de ésta. La filosofía kantiana,

supone una síntesis del racionalismo y del empirismo, cerrando una época filosófica muy

importante. Kant procede a un estudio de cómo es posible la construcción de la ciencia,

llevando a cabo una reflexión sobre el problema de las relaciones de la razón con la

realidad, que en ella aparecen vinculadas. Kant distinguió dos grandes facultades dentro

del conocimiento humano: 1)La sensibilidad: es pasiva, se limita simplemente a recibir una

serie de impresiones sensibles, que Locke había llamado ideas de sensación y Hume

impresiones, y 2)El entendimiento: es activo y espontáneo. Y puede generar, dos tipos de

ideas o conceptos:

Conceptos puros o categorías: ideas o conceptos independientes de la experiencia (que

provienen de la razón)

Conceptos empíricos: ideas obtenidas a partir de la experiencia.

Admite que existen categorías o conceptos que no provienen de la experiencia, pero a la

vez sostiene que la aplicación de estos conceptos a la realidad nunca podrá ir más allá de

la experiencia sensible. Constituyendo así, una síntesis entre racionalismo y empirismo, ya

que, el conocimiento es síntesis a priori: es síntesis porque es organización o conexión de

datos sensibles (como lo exige el empirismo) y a priori, porque el principio de esta

organización es nuestra conciencia, la cual al constituirla, actúa según leyes esenciales a

su propia naturaleza, y por eso mismo leyes universales y necesarios (conforme a la

exigencia del racionalismo)

Imagen 3: Claude Saint-Simon (1760-1825)

Page 63: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 49

Pensador francés, que insistió en el progreso industrial y científico con el fin de delinear un

nuevo orden social. El Saintsimonísmo es una doctrina socialista, basada en las teorías

del Conde Saint-Simon, según la cual cada uno ha de ser clasificado según su capacidad

y remunerado según sus obras. Considera que hay dos tipos de épocas en la historia:

Las críticas: son necesarias para eliminar las fosilizaciones sociales.

Las orgánicas: donde el hombre no es una entidad pasiva dentro del acontecer histórico,

sino que siempre trata de descubrir modos de alterar el medio social dentro del cual vive,

dichas alteraciones se imponen como indispensables para el desarrollo de la sociedad

cuando funciona ésta según normas no correspondientes. No se puede decir en absoluto

que existen normas sociales convenientes a toda organización humana; lo que para una

época puede ser adecuado, para otra no. Así sucede para con la sociedad industrial

moderna.

Para Saint-Simon es engañoso suponer que las clases deben ser niveladas o que deben

mantener la estructura de anteriores épocas, durante las cuales dependía de la jerarquía,

pero se mantenía cuando menos en lo que concierne a la moral y a las creencias

religiosas, una cierta igualdad. Dice que esta igualdad es imposible: "la moral y los

sistemas de ideas deben ser diferentes para cada una de las clases fundamentales de la

nueva sociedad industrial moderna". (Ramírez, Pág. 10 , 2000)

Saint-Simon atribuyó el poder temporal a los industriales (propietarios, técnicos y

campesinos) y el espiritual, a aquellos a quienes encomendaba la elaboración de un

sistema llamado Nuevo Cristianismo basado frente a los preceptos negativos

desarrollados por el catolicismo, protestantismo y otras religiones en leyes positivas

afirmadoras del desarrollo del trabajo. Dicho sistema tenía como núcleo fundamental: la

idea de fraternidad, que conducía a la concepción de una sociedad mundial libre, es decir,

una sociedad universal continuamente dedicada a la producción y en la cual la Iglesia

pudiese ser sustituida por el taller.

Son elementos destacados de sus ideas: la bondad de la propiedad privada, la

preocupación básica de la sociedad debería ser la mejora de la clase más numerosa y

pobre, la herencia debía suprimirse y todo los individuos (clasificados por su capacidad y

retribuidos por sus obras) debían trabajar.

Page 64: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 50

2.4.3. DEFINICIÓN Según Enciclopedia Hispánica (Pág. 75-76, 1993) "Fundado por Augusto Comte, alega

que el hombre debe aplicarse al conocimiento de los fenómenos y sus leyes, y la ciencia

se ubica de acuerdo a su complejidad y generalidad creciente, estableciendo categorías

para analizar hechos sociales, porque conocer el mundo físico no es igual que conocer la

realidad social.

Según el Club Caminante (Pág. 1, 1999) "Consiste en no admitir como validos

científicamente otros conocimientos, sino los que proceden de la experiencia, rechazando,

por tanto, toda noción a priori y todo concepto universal y absoluto. El hecho es la única

realidad científica, y la experiencia y la inducción, los métodos exclusivos de la ciencia".

Según Biblioteca Práctica de Consulta del Nuevo Milenio (Pág. 124, 2000) "Es una

corriente filosófica que se fundió con distintas variantes; la que pretende estar por encima

del idealismo y del materialismo, argumenta ser una tercera vía para la filosofía. De hecho

se trata de eludir definiciones sobre los problemas fundamentales y concentrarse en el

conocimiento positivo, esto es, en los datos de la ciencia que da por vía experimental".

Según Juan Ramírez (Pág. 10, 1999) "Es un sistema filosófico basado en la experiencia y

el conocimiento empírico de los fenómenos naturales, en el cual la metafísica y la teología

son sistemas de conocimientos imperfectos e inadecuados". Según la Nueva Enciclopedia

Larousse (Pág. 7892,1982) "Tendencia científica y filosófica de la segunda mitad del siglo

XIX que se caracteriza por la atención exclusiva a los hechos, prescindiendo de cualquier

postulado no verificable".

Principales representantes

Imagen 4: Augusto Comte(1798-1857)

Page 65: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 51

Vida. Nació en Montpellier en 1798 y murió en París en 1857. Estudió en París y luego de

diversos avatares académicos, logró el puesto de profesor auxiliar de matemáticas en la

Escuela Politécnica de París. Su vida económica fue bastante desgraciada, debiendo

subsistir los últimos años de su vida de las ayudas de discípulos y amigos. La hostilidad

que sus escritos suscitaron en los diferentes ambientes académicos fue la principal causa

de su desgracia.

Obras. "Curso de filosofía positiva", "Sistema de política positiva o tratado de la sociología

que instituye la religión de la humanidad", "Discurso sobre el espíritu positivo", entre otras.

Imagen 5: Herbet Spencer (1820-1903)

Vida. Nació en Derby (Inglaterra) y murió en Brighton en 1903. Durante toda su vida se

mantuvo apartado de los cargos y honores oficiales, dedicándose a su obra filosófica.

Obras. "Principios de Sicología", "Primeros Principios" "Principios de Biología" "Principios

de Sociología", "Carta a cerca de la esfera de acción que le compete al gobierno",

"Estática social", "La educación intelectual, moral y física", "Clasificación de las ciencias",

"La Sociología descriptiva", "El individuo contra el estado", "Principios de una moral

evolucionista", "Una Introducción a la Ciencias Sociales".

Page 66: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 52

Imagen 6: John Stuart Mill (1806-1873)

Vida. Nació en Londres en 1806 y murió en 1873. Hijo de James Mill, un destacado

utilitarista inglés, quien le inculca a su hijo, estos principios filosóficos. Crearon juntos

(padre e hijo) el radicalismo filosófico y se propusieron explicar como mecanismos

mentales todas las supersticiones entre las que incluyeron al cristianismo, al cual

consideraban el enemigo mayor de la moralidad. John recibió una cuidada educación. Las

ideas utilitaristas de Bentham, gran pensador inglés de su tiempo y amigo de su padre, le

influyeron decisivamente. Obras. Entre las más destacadas están: "Principios de

economía política y utilitarismo", "Filosofía de las ciencias y métodos", "Autobiografía",

"Sistema de lógica racionativa e inductiva", "Sobre la libertad",, "Augusto Comte y el

Positivismo", "Naturaleza y utilidad de la religión".

Doctrina Comte eligió la palabra Positivismo sobre la base que señalaba la realidad y tendencia

constructiva que él reclamó para el aspecto teórico de la doctrina. Se interesó por la

reorganización de la vida social para el bien de la humanidad a través del conocimiento

científico, y por esta vía, del control de las fuerzas naturales. Los dos componentes

principales del Positivismo: la Filosofía y el Gobierno (o programas de conductas individual

y social), fueron más tardes unificados en todo bajo la concepción de una religión en la

cual la realidad es el objeto de culto.

El Positivismo no admite como válido científicamente otros conocimientos, sino los que

proceden de la experiencia, rechazando toda noción a priori y todo concepto total y

absoluto, por lo que apoya el relativismo del conocimiento. El hecho es la única realidad

científica, y la experiencia y la inducción, los métodos exclusivos de la ciencia. El

Positivismo es, antes que nada, una Teoría de Historia y un intento de construir una teoría

de la sociedad humana es decir una sociología. El dogma del progreso y los tres estados

Page 67: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 53

de la sociedad (de Comte), son las dos columnas fundamentales que la sostiene. La base

del planteamiento de Comte consiste en afirmar que todo enunciado o proposición que no

se corresponda al simple testimonio de un hecho, no encierra ningún sentido real e

inteligible.

Algunas ideas centrales de su pensamiento son: la concepción historicista del desarrollo

de la ciencia y de la razón; las cuales él desarrolla en tres estados fundamentales, es

decir, la historia del pensamiento transitó por tres senderos y en el último radica la verdad

clara y demostrada; estos estadio son: Estadio mitológico – teológico: en este estadio el

ser humano hace depender los fenómenos naturales de la voluntad de poderes personales

superiores, es lo conocido como fetichismo donde se atribuyen poderes mágicos a

fenómenos naturales. Es en este estadio donde se vive el proceso del paso del politeísmo

al monoteísmo.

Estadio metafísico: es el estadio en el cual todo es explicado a partir de entidades

abstractas, es un período crítico, en el cual irrumpen las fuerzas disolventes de la

inteligencia; simplemente es transitorio.

Estadio positivo: Es el estadio definitivo y superior porque en él se explica la realidad

mediante la observación y la experimentación. Ya que, el Positivismo busca explicar los

hechos por medio de la formulación de sus leyes y es por ello que prescinde de la

metafísica. En este estadio se renuncia al conocimiento de lo absoluto, y se pasa a buscar

las leyes de los fenómenos. Comte intenta fijar el sentido de la palabra positivo,

analizando las diversas acepciones de la misma:

1) Positivo como real por oposición a quimérico

2) Útil en contraste con inútil

3) Certeza frente a indecisión

4) Preciso frente a vago

5) Positivo como contrario a negativo y/o Relativo en contra de absoluto

Estas precisiones semánticas pueden sirven para ir acotando cuál es la verdadera esencia

de la teoría positivista del conocimiento.

1) La exigencia de realidad es el postulado fundamental. Comte nos aclara que con esta

exigencia se pretende limitar el conocimiento filosófico "a las investigaciones

verdaderamente asequibles a nuestra inteligencia, con exclusión permanente de los

impenetrables misterios con que se ocupaba, sobre todo en su infancia" (Alsina, 2000). Lo

asequible a nuestra inteligencia es lo que el Positivismo llama los hechos. Comte

Page 68: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 54

establece "como regla fundamental que toda proposición que no pueda reducirse

estrictamente al mero enunciado de un hecho particular o general no puede ofrecer ningún

sentido real e inteligible" (Alsina, 2000); definiendo los hechos como las cosas o

acontecimientos accesibles a la observación, o dicho de otra manera, fenómenos u

objetos de experiencia. Esta exigencia va contra toda construcción especulativa, contra

toda elaboración a priori o puramente racional del conocimiento, en definitiva, contra toda

metafísica o todo cuanto no sea sensible – material (Materialismo), valiéndose del

Empirismo para reducir por completo todo conocimiento a sensaciones sensibles, por

medio de regularidades observadas en los fenómenos, a las cuales se llega a través de la

observación por procedimientos inductivos.

2) Comte precisa el sentido de la palabra utilidad: el verdadero conocimiento no tiene un

fin en sí mismo (no es "una estéril curiosidad"), sino en el "mejoramiento continuo de

nuestra identidad individual y colectiva". Es decir, el conocimiento científico, aparte de su

utilidad instrumental y tecnológica, contribuye a un mejoramiento del ser humano. El gran

destino práctico de la positividad, al hacer al hombre fin último de todo saber, postula

también una ciencia de lo social, lo moral y lo político, unificada por Comte en la

sociología, con sus técnicas correspondientes. Sin embargo, las precisiones de Comte, no

pueden evitar la idea de utilidad asociada al conocimiento interpretado en el sentido

pragmático de conocimiento aplicado y tecnológico.

3) Certeza frente a indecisión, revela el utopismo y refleja el exceso de optimismo que

anima a Comte, y como tal hay que relegarlo al cajón de las grandes ilusiones no

confirmadas por el fallo inapelable de la historia, lo cual no es óbice para que no sigan

formando parte del repertorio ideológico de la modernidad, con aggiornamentos

continuados (Alsina, 2000).

4) Precisión frente a vaguedad. El gran desarrollo de la tecnología y la revolución industrial

no podían fundamentarse en conceptos vagos y confusos, y así nos habla Comte del

"grado de precisión compatible con la naturaleza de los fenómenos" y de que "el

pensamiento de una acción final recuerda siempre la condición de una precisión

conveniente" (Alsina, 2000).

5) Positivo como contrario a negativo y/o Relativo en contra de absoluto. Ambas

acepciones permiten la entrada a un nuevo tema: El sentido histórico, ya que la

historicidad del hombre, junto al nacimiento de la Sociología, vislumbran el más profundo

hallazgo del Positivismo. La historicidad del hombre plantea la relatividad del

Page 69: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 55

conocimiento: "El estudio de los fenómenos, en lugar de poder llegar a ser, en modo

alguno, absoluto, debe permanecer siempre relativo a nuestra organización-oposición"

(Alsina, 2000). Es decir que la valoración de una teoría científica deberá hacerse en

función de las circunstancias históricas que la rodean. Al descubrir la historicidad del

hombre, Comte descubre también la historicidad de la ciencia. Como consecuencia directa

de este relativismo e historicismo se plantea por primera vez la existencia de la Historia de

la Ciencia como disciplina autónoma; pero los propios dogmas del Positivismo frustran en

parte las expectativas de un descubrimiento tan importante como es la historicidad del

conocimiento. La ciencia se contextualiza en función de su época, de su momento

histórico, pero a su vez, este momento histórico se ve siempre en relación con el Gran

final, con el advenimiento del espíritu positivo, y al llegar aquí el movimiento de la historia

se detiene, y lo que era relativo deviene ahora en lo absoluto. Además, la creencia de que

la historia tiene un motor propio se traslada también a la historia de la ciencia,

deduciéndose de aquí que la ciencia tiene un movimiento propio y autónomo de su

entorno social e histórico.

Finalmente se tiene como una temática fundamental en el discurso positivista: la unidad de

la ciencia. Comte la vincula, directamente a la dinámica social, reafirmando una vez más la

tesis de que el Positivismo es, más que una Filosofía o una Filosofía de la Ciencia, una

Teoría de la Historia. Los compartimentos estancos del conocimiento humano, que

llamamos las ciencias, deben articularse en una superior unidad, una unidad sistemática

determinada por su origen y destino común. En la mente humana esta unificación dará

lugar a la armonía mental, de tipo universal, a la que aspira Comte, y esto se producirá

indefectiblemente cuando la totalidad de los conocimientos humanos hayan alcanzado el

estado positivo.

Pero además de definir este ideal de la unificación de la ciencia, que sus herederos

neopositivistas han intentado llevar a la práctica, Comte clasifica y jerarquiza las ciencias,

añadiendo además una discriminación entre las auténticas ciencias, las positivas, y las

que no lo son. La psicología, por ejemplo, no es admitida entre las ciencias. Partiendo

desde su base matemática, las ciencias positivas son jerarquizadas según su grado de

generaIidad decreciente y de complejidad creciente: astronomía, física, química, biología y

sociología. Esta ordenación es a la vez lógica, histórica y pedagógica. Nos indica el orden

en que han ido apareciendo las distintas ciencias, nos indica a la vez la lógica interna del

proceso según los dos parámetros arriba indicados, y nos indica también el orden en que

Page 70: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 56

deben ser enseñadas en una educación positiva. Respecto al orden histórico cabe añadir

el comentario de que no responde a la realidad: las distintas ciencias no han aparecido en

el orden que Comte quiere imponer. Otra vez la especulación, el debe ser, la deducción a

partir de unos postulados se impone sobre la observación: de nuevo triunfa la metafísica.

El desarrollo de la técnica y el progreso de la ciencia acreditaron el estadio positivo de la

ciencias naturales junto al dinamismo que supuso la teoría evolucionista de Darwin, la cual

fue avalada en la compendiosa obra de H. Spencer cuya directriz esta fundamentada en la

evolución natural, en virtud de una ley que rige el paso de lo homogéneo a lo heterogéneo,

de lo indefinido a lo definido, de lo simple a lo complejo. Spencer aducía, que la evolución

se aplica a todas las formas de la existencia cósmica y a todas las ciencias, en general

integración de materia y disipación concomitante del movimiento; desde este punto de

vista, es un fenómeno mecánico, evidenciable en la biología cuando muestra, el paso de lo

homogéneo a lo heterogéneo en la transformación de las células fecundadas en

organismo vivo.

En la psicología explica la génesis de los procesos psíquicos por una adaptación

progresiva de un estado interno, simple al principio, a un medio que cada vez va siendo

más complejo; dicha adaptación origina las diversas funciones mentales. En cuanto a la

sociología, Spencer señala que en todo organismo social y en cada órgano en particular

(en la familia, en el Estado, en la Iglesia), existe una complejidad creciente y una densidad

cada vez mayor. Dada la radical identidad de la sustancia universal, todos los fenómenos

de la naturaleza forman una serie en la que no hay lugar a fisuras, ni a ninguna creación:

los hechos psico-sociológicos nacen de los hechos biológicos y estos a su vez, nacen de

los fenómenos físicos y cósmicos; la creciente complejidad es suficiente para explicar la

aparición de los reinos superiores.

No obstante, Mill consideró necesario crear un método que permitiera la indagación de

dichos fenómenos de manera positiva, postulando el método inductivo como vía científica

del conocimiento. Considera que la experiencia suministra los datos, los fenómenos; razón

por la cual establece cuatro reglas para averiguar sus antecedentes:

• La Concordancia: que consiste en la observación de un fenómeno y su

circunstancias antecedentes, si las cambiamos todas menos una y el fenómeno

sigue dándose, la conclusión es que esta última circunstancia es la causa del

fenómeno observado.

Page 71: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 57

• La Diferencia: si se suprime una circunstancia antecedente y, como consecuencia,

desaparece el fenómeno, se puede afirmar que tal antecedente es la causa del

fenómeno.

• Los Residuos: llegado el caso en que se conoce la causa de una parte del

fenómeno, se debe considerar que el resto del fenómeno se debe a causas

desconocidas aún.

• Las Variaciones Concomitantes: consiste en partir de los hechos y, mediante el uso

de la inducción, llegar al establecimiento de las leyes físicas; es decir, cuando un

fenómeno varía en función de otro, se podría afirmar que de tal fenómeno es efecto

del segundo.

Mill funda su ciencia social en la voluntad y la creencia, toma el egoísmo como el principal

motor de las relaciones humanas, considera los valores religiosos como simple

colaboración, en los que la marcha del hombre va en la búsqueda moral. Afirma que el

hombre ante las necesidades materiales descubre que no existen soluciones espirituales,

sino que esas soluciones se encuentran en la Sociología. La lógica la declara como una

ciencia de prueba, lo mismo que a la Psicología como ciencia moral. Ya que, establece

que: "La observación y la experimentación, por profunda que sea, no puede conducirnos al

conocimiento absoluto de los fenómenos. Hay que partir, por tanto, de un cierto relativismo

cognoscitivo"(Ramírez, Pág. 30, 2000).

2.4.4. ACTUALIDAD DEL PENSAMIENTO El Positivismo en la actualidad tiene influencia en muchas personas y lugares, que sin ser

conscientes, se sitúan en esta línea de pensamiento. Definitivamente, hoy lo social y

teórico pierden más espacio que ganan lo matemático y comprobable. El Positivismo por

sus bases empíricas rechazan todo lo que no se pueda comprobar desde la óptica

humana y eso pasa en nuestros días, el hombre cada vez más acostumbrado a la técnica

y a la manera de mostrar las cosas, a través de laboratorios e investigaciones, se hace

más inverosímil ante las tesis de pensamiento y las especulaciones. El gran desarrollo de

la ciencia en los últimos siglos le ha permitido al Positivismo posicionarse en nuestros días

como una disciplina de verdadero conocimiento, que mirando atrás, puede situarse con

muchos adelantos y muchos logros, ya que lo que se vende, lo aceptado y lo creíble para

nuestros días, es solamente lo que se puede comprobar por algún proceso positivo.

Page 72: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 58

Las ciencias que han rechazado el Positivismo hoy no despiertan ningún tipo de

seguidores, ya que la conceptualización tan propia en otras épocas, donde fueron

aceptadas y tenidas como fuente de conocimiento, hoy más que nunca son cuestionadas y

tildadas de troncadoras del verdadero saber, y esto gracias al Positivismo.

De todas maneras, el pensamiento positivista, ha influido en la actualidad, en especial en

nuestro continente donde todos los países han sido marcados por estas ideas, sobretodo

en el campo político y en países subdesarrollados, buscando formas de progreso. En

Latinoamérica, se tiene un peculiar caso, y es que la tradición positivista de corte inglés

será el telón de fondo de una concepción neoescolástica de la vida, tanto política como

social. Sin embargo, a pesar de las influencias efectivas del Positivismo en la vida

espiritual latinoamericana, no se puede afirmar que tal influencia posee un carácter reflejo,

pues ya existía en nuestros países un autóctono Positivismo, que empieza a germinar a

partir de la crítica de la escolástica y la teología colonial. Es más, el Positivismo fue

instrumentalizado por un afán de sus seguidores de imprimirlo a las específicas

situaciones históricas. Se arraiga de manera profunda dicha actitud positivista en la

mayoría de nuestros pensadores, también siendo su reacción muy extraordinaria.

2.4.5. EL POSITIVISMO EN VENEZUELA Rafael Villavicencio (1886-1896). Es un insigne representante de la teoría Positivista en

Venezuela, ya que su contribución a la educación define época y marca huellas

imborrables. Los aportes mas interesantes los hizo junto al Dr. Ernest Adolf, quienes

desde la primera exposición que hacían en el periódico La Tribuna y de las lecciones de la

cátedra de Historia Universal a la que luego convirtió en Filosofía de la Historia, ayuda a

formar una generación de pensadores que actúan para comprender y analizar los

fenómenos desde otras perspectivas. La orientación imperante en este momento,

focalizaba su atención en construir una inventiva y un saber afianzado sobre el método de

la ciencia positiva.

Arturo Uslar Pietri dice al respecto: el Positivismo se presenta como una de las mas

fecundas etapas de la historia del pensamiento venezolano. No consistió solamente en

una serie de conceptos aprendidos en libros europeos, sino que despertó la curiosidad por

el estudio de nuestros fenómenos sociales, históricos y provocó así un mejor conocimiento

del país y de su realidad. De manera que bajo esta influencia se paso del conocimiento de

la Historia, como narración a la conceptualización de la Historia como Ciencia. El Doctor

Page 73: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 59

Villavicencio miraba con una aureola de Positivismo comteano, ya que ejerció en

Venezuela el liderazgo de esta Escuela. Entre los años 1866 y 1880 aprendió el

positivismo con Litte con la lectura de una obra titulada: Conservación, Revolución del

Positivismo.

En dos grandes ideas centró la atención de esta nueva teoría en la concepción de la

historia y en la necesidad de estudiar y divulgar la ciencia como base del progreso. Es

importante destacar que en los discursos que pronunciaba Villavicencio en la Universidad

caraqueña en 1866 y 1869, no solo perseguía trasmitir las ideas conceptuales del

Positivismo sino que se deja entrever un mensaje político, la búsqueda de una Filosofía

que vigorice con sus principios el progreso del país dentro del orden y estabilidad

institucional en momentos de grave disolución y deterioro de fuentes de la riqueza.

Villavicencio era hombre de saberes actualizados y la novedad científica influye en sus

definiciones filosóficas, de manera que su filosofar está muy asociado a la ciencia. Al

respecto dice: "He sido y soy positivista en el sentido de que todo verdadero conocimiento

tiene por base la experiencia, es cuestión de método no de doctrinas".(Heces, Pág. 92,

1994)

En cuanto a lo epistemológico, su vocación científicista se caracteriza por la confianza que

tiene en la observación y experimentación para la adquisición del conocimiento, y este se

mantiene, dentro de la filosofía positivista. Villavicencio pone todo el peso en la educación

y cree firmemente en la influencia de esta, para lograr la formación del nuevo estado y la

consolidación del nuevo orden, a partir de la expansión del poder material e industrial.

De igual manera destaca la importancia del dominio de la naturaleza por la inteligencia,

tomados como elementos que definen a la sociedad positivista; ya que sostiene que: "La

sociedad es un hecho natural sometido a leyes fijas ,y sustraído como tal a la voluntad

humana, pero no de la inteligencia que puede comprenderle y modificar notablemente su

tendencia y determinación" (Heces, Pág. 97, l994). Asimismo, se dedicó a la divulgación

de dichas ideas positivistas, considerando a las filosofías de inspiración teológicas o

metafísicas, insuficientes para las necesidades del espíritu moderno acostumbrado a las

demostraciones científicas.

En cuanto a las ideas educativas, las resume en tres documentos: A)El informe de 1890,

conocido en el primer congreso pedagógico de Caracas en 1895; B)El informe claustro

universitario de Caracas; y C)Las observaciones que hace al proyecto Código de

Instrucción Pública 1909. Al ser interrogado a cerca de la elaboración de estos

Page 74: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 60

documentos, él expresa claramente que los avala la madurez que produce la experiencia

desde el punto de vista comteano. En los cuales, se da un elemento común: que es la

clara modificación al curriculum, fundamentado en el orden lógico e histórico de las

diferentes ciencias.

Dr. Luis Razzetti (1896), fue un insigne educador que durante las postrimerías del Siglo

XIX y comienzo del XX, tuvo una destacada participación en la educación superior

venezolana. Estuvo becado en Francia, específicamente en la ciudad de París donde

recibió una formación caracterizada según Jacques Maritain como cientificísta,

determinista, materialista, y positivista. En varias ocasiones, el Dr. Razzetti se define

como: determinista, porque creo que todos los fenómenos de la naturaleza están

sometidos a leyes abstractas. "Soy monista porque creo que la materia y la energía son

dos propiedades esenciales de la sustancia universal, infinita y eterna" (Hernández Pág.

298, 1984)

Luis Razzetti fue un joven que recibió la influencia del Dr. Villavicencio y de Dr. Adolfo

Ernest, los cuales fueron considerados por Razzetti como los apóstoles máximos en

Venezuela de la filosofía y ciencias positivista. La enseñanza del Dr. Villavicencio

estimularon el apetito intelectual de Razzetti como para acoger con admiración las fuentes

que nutren su pensamiento científico- filosófico de las obras de Darwin y Hackel. Del

primero, abrazo la idea del principio evolucionista, que descalifica la tesis creacionista y la

espiritualidad del alma. A Hackel lo calificó como maestro predilecto, en cuyas obras

aprendió a amar la verdad, de él toma la idea del monismo cientificísta.

La concepción científica – filosófica de Hackel que negaba la existencia de Dios y el

mundo sobrenatural, consideraba que no había dos mundos uno natural y otro moral, sino

uno solo donde la vida intelectual y moral forma parte del Cosmos. El hombre forma parte

de los vertebrados sociales y tiene dos clases de deberes: los que surgen de su

naturaleza y los que corresponden a su beneficio y progreso individual. Esto hace que el

Dr. Luis Razzetti sea considerado como ateo y le trajo como consecuencia una serie de

disputas con el clero. Sin embargo, pensaba que las ciencias eran un hermoso producto

de nuestro siglo de verdad, creyendo que las únicas ciencias validas son las naturales y

las ciencias del espíritu, que también son parte de las naturales. Explicando además, que

la verdadera ciencia reposa en el empirísmo y no sobre la trascendencia; y que el

verdadero método es el empírico, porque compromete en el desenvolvimiento del mismo,

la actividad de nuestros órganos de los sentidos y de nuestro cerebro.

Page 75: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 61

Todas estas ideas inciden en el desempeño de Razzetti como docente de la Facultad de

Medicina de la Universidad Central de Venezuela, en cuya cátedra exigía a sus alumnos la

presentación de una tesis, con la cual aprenderían a observar, experimentar, y aprender a

expresar; de manera, que se evitaría combatir el apriorismo, y el abstraccionismo.

Logrando extender dicha práctica a todo el magisterio.

En l893 publica en la Gaceta Medica de Caracas las ideas sobre la renovación de los

estudios médicos, iniciado el planteamiento por la base, es decir, por la necesidad de

reformar los estudios del Bachillerato, diversificándolo según áreas de interés vocacional,

de modo que permitan la adecuada preparación básica para los aspirantes a cursar los

estudios médico. Consideraba que la educación primaria debía ser tomada como piedra

angular de la educación, sin embargo la educación superior debería quedar restringida y

dirigida por las autoridades de la Facultad de Medicina , ya que la Medicina es una ciencia

objetiva, y para que esta pueda ser aplicada se crea un centro de salud como el Hospital

Vargas.

Al Dr. Razzetti se deben los siguientes aportes hechos en la educación de esa época

como: La enseñanza antialcohólica y la educación sexual. El Ministro de Educación Dr.

Felipe Guevara Rojas encomienda al Dr. Luis Razzetti en Abril de l913, la tarea de

preparar el texto para orientar la enseñanza antialcohólica. Razzetti ya venía haciendo

estudios en la traducción y adaptación al medio venezolano del libro del Dr. Galtier

Boissiere, Manual de Antialcohólismo, obra elaborada de acuerdo a los programas

escolares de Francia, para que sirviese de texto a la nueva enseñanza prevista en

Venezuela. La medida acordada por las autoridades pone de manifiesto, la preocupación

existente por la generalización del consumo de las bebidas alcohólicas.

En 1921, preocupa a Luis Razzetti la lucha contra las enfermedades venéreas, de manera

que es necesario educar sobre este tema desde la escuela primaria hasta la universidad,

lo que son las enfermedades venéreas por medio de conferencias populares, indicándole

a la juventud los medios de que podemos valernos para evitar el contagio. El aclaraba,

que la educación sexual debía impartirse a través de metodologías sencillas y de acuerdo

a la edad. Se impartiría de arriba hacia abajo, desde los padres a los jóvenes de mayor

edad hasta llegar a los niños; en estos se principiaría por la fecundación de las plantas y

de los animales inferiores.

Un aspecto importante relacionado con el tema de la educación sexual fue el eugenismo.

El lo define como "el estudio de los factores sometidos al cuidado y vigilancia de la

Page 76: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 62

sociedad y susceptible de modificar, en bien o en mal, las cualidades de la raza, físicas y

mentales, en las generaciones futuras". (Fernández, Pág. 325, 1994)

Cual era el objetivo del programa hombres y mujeres sanos sin enfermedades

hereditarias. Para ello es importante exigir el certificado pre-nupcial, testificando de que no

son portadores de aquellas enfermedades capaces de contribuir a la degeneración de la

descendencia.

José Gil Fortoul (1912) y Rómulo Gallegos (1895) son prácticamente contemporáneos y la

formación de uno y otro coincide con aquella oleada de positivismo y de libre pensamiento.

Desde la época de Guzmán Blanco se origino en Venezuela, un ambiente hostil a los

valores de la tradición católica. Este ambiente cargado de positivismo conduce al mundo

del agnosticismo que limita el horizonte de valoración a solo los datos inmediatos. Este

agnosticismo condiciona la concepción sobre la moral y la religión, lo lleva

inexorablemente al laicismo, al libre pensamiento, y a una posición ecléctica de la vida.

Entre las reformas mas importante se encuentra la escuela laica y la libertad de

enseñanza. El tema de la educación laica adquiere mas importancia en el país a medida

que se acentúa la influencia política del liberalismo y de la filosofía positivista. En cuanto al

segundo aspecto es importante que las ideas luchen en el amplio campo de la discusión,

garantizar el derecho a elegir y rodear de un profundo respeto el pensamiento de los

demás

Gil Fortoul opina que la moral no es nada mas que un conjunto de ideas que se han

trasmitido por herencia y dominan tiránicamente en nuestra sociedad. La ley de la

evolución es compartida por todos los seres vivos. En tanto que la de la evolución cerebral

solo es compartida por los seres humanos y en la expresión de Gil Fortoul expresa que

esto es producto de la ciencia, el arte y la industria. La evolución cerebral no depende

solamente de la evolución natural sino de otros factores y en el caso venezolano dice: La

raza y el clima son para nosotros, causa evidente de inferioridad orgánica y la única

solución es la inmigración.

La educación debe ser un instrumento para que el hombre modifique el medio, por lo tanto

no se admite escuela sin práctica. En 1911, Gil Fortoul es designado Ministro de

Instrucción Pública, allí permanece hasta fines de Abril de l912. Lo acompaña un

destacado pedagogo: Guillermo Todd, cuyas modificaciones esta orientadas a modificar la

observación, la memoria y el razonamiento. Entre los criterios para orientar el proceso de

enseñanza aprendizaje se dan los siguientes lineamientos: de lo simple a lo complejo, que

Page 77: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 63

la enseñanza debe ayudarse de la pedagogía con el propósito de dar al educando una

educación integral dentro de la concepción Spenceriana. En síntesis un sistema educativo

basado en la observación, experimentación y critica de los hechos.

Rómulo Gallegos, su proposición educativa consistió en una perspectiva de expansión

cultural, de responsabilidad intelectual y de promoción socio-política. Se dejo influenciar

por las ideas de Sarmiento en Argentina, que establecía una diferencia entre Barbarie y

Educación, sólo puede concebirse la cultura aparejada al principio y sentido de libertad. La

idea central de la idea educativa de Gallegos, consiste en: personal, idóneo y apto, para

ello crea las escuelas normales donde con métodos eficaces se formen verdaderos

maestros.

En cuanto al método de enseñanza, opina que debe sustituirse el empirísmo por métodos

científicos de observación y experimentación, y aboga por la aplicación de aquellos

métodos que la Psicología y la Educación indican como pertinente en la enseñanza. La

Reforma al Sistema Educativo es una de sus ideas principales, la más transcendental y

fecunda que debería hacerse su máxima ser resumiría en este aspecto en el siguiente

pensamiento: pensar más en educar que en instruir. Entre el concepto que merece la

Educación esta el actuar sobre el carácter y formar al hombre: en tanto que la instrucción

actúa sobre la inteligencia. La influencia, que tiene la escuela en la sociedad, es motivo de

preocupación en la obra de Gallegos, donde destaca el papel de la escuela en la

constitución de una sociedad sana y productiva.

Conclusiones El Positivismo, es una doctrina filosófica en donde se acepta como conocimiento válido, el

saber científico obtenido a través de la experimentación, es decir, con la utilización del

método científico, se estudian los hechos y a partir de estos, se deducen las leyes que los

hacen valederos. Por ello, el Positivismo es considerado como analítico, y tiene como

características generales:

Nomotética: porque halla las causas que explican los fenómenos, confrontando la teoría

con la praxis, detecta discrepancias y establece conexiones generalizables entre variables.

Propicia la utilización de un método de investigación: el método hipotético-deductivo como

método científico.

La neutralidad valorativa: como criterio de objetividad. Sin embargo, esta doctrina,

incurre en dos importantes contradicciones: 1)Aunque legitimiza el conocimiento científico,

no específica de manera clara, inequívoca y por tanto positiva en qué consiste

Page 78: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 64

exactamente este conocimiento científico; y 2)Que las más importantes afirmaciones de la

doctrina positivista como la Ley de los Tres Estadios (teológico, metafísico y positivo), no

proceden de la actividad científica ni de la observación, sino de la especulación filosófica y

son por tanto metafísica.

Pero esto, no ha mermado la proliferación de trascendentales descubrimientos y avances

del mundo moderno; los cuales, se deben sin lugar a duda, a la influencia del Positivismo,

siendo uno de sus más importantes hallazgos, el descubrimiento de la Historicidad del

Conocimiento Humano a través de la Sociología, que permite la jerarquización (orden y

progreso) de la Sociedad de acuerdo a su nivel intelectual, a fin de que estos, reciban una

remuneración acorde a su labor desempeñada. A partir de la Sociología se debe ubicar

cualquier investigación para que exista un orden, ya que la experiencia que posee el

individuo la sustrae de su entorno, y esta transcurre en un momento histórico, que lo

orientará a través del proceso de experimentación científica.

En Venezuela, los diferentes representantes del Positivismo abogan por modificaciones

educativas que debiesen darse desde las perspectivas metodológicas y de proyecciones

que la educación debe tener en la formación de un ciudadano útil y productivo para la

Sociedad. Actualmente el país, se encuentra en pleno proceso de desarrollo del Enfoque

Humanista: nuevo diseño curricular, proyectos pedagógicos de aulas, proyectos

pedagógicos comunitarios; sin embargo, las investigaciones que se realizan mantienen un

patrón positivista: son cuantitativos-medibles, porque los datos que se extraen de la

realidad, tienen que ser validados utilizando métodos estadísticos.

2.4.6. REFERENCIAS

o Alsina J. El Positivismo, ideología de la sociedad industrial. 2000

o Café Rincón Literario.Com. Auguste Comte. Café Rincón Literario.Com. 2000

o Club Caminante.Com. El Positivismo. Club Caminante.Com.1999

o Díaz P. Curso de Historia de la Filosofía. Caracas. 1965.

o Diccionario. Nueva Enciclopedia Larousse. Tomo 7, 8 y 9. Editorial Planeta. 1982.

o Enciclopedia Hispánica. Volumen 12. Editorial Enciclopedia Británica Publicer inc.

Estados Unidos 1992 – 1993. Págs. 75 y 76.

o Urbina E. El Positivismo. Monografías.Com. 2000

o Zamora. Biblioteca Práctica de Consulta de Nuevo Milenio. Editorial Zamora. 2000.

Page 79: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 65

o http://www.monografias.com/trabajos6/deso/deso.shtml

Page 80: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 66

2.5. LÓGICA Y ÉTICA EN KARL POPPER

Prof. Mariano Artigas

Es un placer encontrarme aquí para tener este Seminario que, según me parece, se ocupa

de un problema importante: la relación entre lógica y ética. En la cultura actual, la ética

parece ser un asunto meramente subjetivo, y el ámbito de los argumentos objetivos

pertenecería por entero a una ciencia que se presenta como libre de valores. La

Wertfreiheit (o "libertad de valores": no existe un término castellano o inglés equivalente a

este término alemán) se presenta como una característica central de la ciencia: los

argumentos lógicos nada tendrían que ver con los valores éticos, que quedarían relegados

a opciones completamente subjetivas y circunstanciales.

En mi opinión, la Wertfreiheit es una característica real de la ciencia experimental, que se centra en el conocimiento de pautas espacio-temporales naturales. Podemos

alcanzar ese conocimiento con independencia de nuestro sistema de valores éticos. Pero

eso no significa que la ciencia experimental no tenga nada que ver con los valores. Por el

contrario, tiene mucho que ver. Por una parte, la ciencia experimental es una actividad

humana dirigida hacia un doble objetivo, el conocimiento de la naturaleza y su dominio

controlado, y esa actividad, desde el punto de vista objetivo, supone que consideramos

que ese doble objetivo merece ser buscado. Así, la búsqueda del conocimiento de la naturaleza y de su dominio controlado son valores constitutivos sin los cuales la

empresa científica carecería de significado y ni siquiera podría existir.

Además, la exigencia del control experimental implica una exigencia de intersubjetividad

que da lugar a valores institucionales: los científicos constituyen una comunidad en la

cual existen unos estándares rigurosos que afectan a la integridad intelectual, a la

publicidad, a la apertura al diálogo y a la crítica. En definitiva, esos valores constitutivos e institucionales son condiciones necesarias para la existencia y el progreso de la ciencia experimental. Por tanto, existen importantes relaciones intrínsecas entre ciencia

experimental y valores éticos. Sin perjuicio, claro está, de que existan otros tipos de

conexiones además de los que acabo de señalar.

Pero el tema de este seminario es la relación entre lógica y ética en Karl Popper. ¿Cuál

es la opinión de Popper al respecto? La respuesta estándar es muy clara. Karl Popper

Page 81: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 67

relaciona esos dos ámbitos a través de su criterio de demarcación entre la ciencia y la

no-ciencia. Una teoría es científica si es falsable, o sea, empíricamente refutable: el

precio que debe pagarse para poder entrar en el templo de la ciencia empírica es la

actitud científica, que lleva a buscar contra-ejemplos que puedan mostrar falsedades en

nuestras teorías, con el ánimo de detectar errores y, así, avanzar en nuestra búsqueda de

la verdad. La lógica elemental muestra que nunca podemos demostrar, en pura lógica, la

verdad de una teoría, mientras que un solo contraejemplo basta para mostrar que la teoría

contiene algún error. Esa asimetría lógica entre verificación y falsación es la clave del

método científico, que consiste en una búsqueda sin término, porque nunca podemos

demostrar con certeza que nuestras teorías son definitivamente verdaderas, y siempre

deberíamos buscar contraejemplos que nos ayuden a acercarnos más a la verdad

mediante la eliminación del error.

La aplicación de estas ideas a la teoría social tiene como resultado la sociedad abierta. Si

nuestro conocimiento es esencialmente falible, debemos cultivar la disposición a rectificar

nuestras ideas y a examinarlas de modo crítico, aceptando la crítica objetiva, venga de

quien venga, e incluso buscándola activamente. La sociedad abierta se basa en la

apertura a la crítica, en la tolerancia, en el rechazo de cualquier tipo de autoritarismo y

de dogmatismo. De este modo, La lógica de la investigación científica (publicada en

1934), donde Popper expone su criterio de demarcación, proporciona la base lógica para

La miseria del historicismo (publicada en 1944-1945) y La sociedad abierta y sus enemigos (publicada en 1945), donde Popper expone su teoría social. En la obra lógica

de 1934 Popper se enfrenta al verificacionismo cientificista del Círculo de Viena, y en las

dos obras de teoría social de 1944-1945 se enfrenta al totalitarismo, especialmente en su

versión marxista.

La conexión entre lógica y ética parece clara y lineal. Filosofía de la ciencia y teoría social

son, en Popper, dos caras de la misma moneda. Su filosofía de la ciencia, que está

centrada en torno a las relaciones lógicas entre enunciados, fue elaborada y publicada en

primer lugar, pero los problemas sociales habían ocupado seriamente a Popper desde su

juventud, y su rechazo temprano del marxismo en 1919 le llevó a ocuparse seriamente del

derecho con que el marxismo se presentaba como teoría científica y, desde ahí, a

ocuparse de la naturaleza de la ciencia en general.

Me parece que lo que he dicho hasta ahora refleja fielmente el pensamiento y la

trayectoria de Popper. He dicho estas mismas cosas, e incluso las he publicado en mi

Page 82: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 68

primer libro, titulado Karl Popper: búsqueda sin término, desde la década de 1970. Sin

embargo, si ahora, 30 años después, acabo de publicar otro libro titulado Lógica y ética en Karl Popper y he venido a dirigir un Seminario con el mismo título, es porque pienso

que se puede decir algo más. ¿Qué es este algo más?, ¿cuál es su interés? Para

responder a estas preguntas, que se refieren directamente, como veremos, a la relación

entre lógica y ética en Popper, me referiré a la génesis de mi nuevo libro y a algunas de

sus ideas principales.

En 1995, después de ocuparme durante 25 años de Popper, casi exclusivamente de su

filosofía de la ciencia, me interesé con mayor detalle por los aspectos éticos de su obra.

Tuve ocasión de trabajar en el archivo de Popper en la Hoover Institution, en la

Universidad de Stanford, y allí pude asomarme a los aspectos más personales de su vida

y de su obra, especialmente a través de la correspondencia. Las dimensiones éticas de la

obra de Popper me parecían cada vez más importantes. En esas circunstancias, comencé

a pensar que, de algún modo, la ética de Popper proporciona la clave para comprender e

interpretar adecuadamente toda su filosofía, incluida su epistemología. Cuando estaba

dando vueltas a esta sospecha, Josep Corcó me dejó copia de un artículo que se

encontrabva en un libro recientemente llegado a nuestra Biblioteca, porque pensaba que

me podía interesar. En efecto, me interesó sobremanera. El autor era el profesor Hubert Kiesewetter, de la Universidad de Eichstätt en Baviera, a quien tendremos el gusto de

escuchar dentro de un par de meses aquí mismo. En ese artículo Kiesewetter escribía:

Desde que estudié en la London School of Economics and Political Science en 1967-68, la

cuestión de las raíces éticas o fuentes morales de la filosofía de Popper nunca ha cesado

de ocupar mi mente (...) En los últimos años discutí extensamente con Sir Karl el tema de

los fundamentos éticos de su filosofía (...) mi intención es demostrar que todo su

pensamiento se encuentra profundamente enraizado en la ética (...) La metodología del

falsificacionismo o racionalidad crítica de Karl Popper había sido formada en su núcleo

mucho antes de que él estudiara matemática, física y filosofía natural en la Universidad de

Viena. Por tanto, mi hipótesis es que el método de Popper de ensayo y error (...) se

encuentra inseparablemente entrelazado con principios éticos o morales1.

En ese artículo, Kiesewetter solamente proporciona unos datos muy escuetos sobre la

infancia y juventud de Popper. Pero su idea central me estimuló a estudiar más en

concreto las raíces éticas de la epistemología de Popper.

Page 83: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 69

Nuevos datos vinieron a confirmar el interés del tema. Como suele suceder cuando

nos interesamos sobre algún tema, comenzaron a llegar noticias de personas que

compartían ese interés, trabajaban en esa línea e incluso habían publicado algo. Además,

y sobre todo, en el verano de 1996 (Pablo López lo recordará bien), un día me llegó un

sobre de South Croydon, de los herederos de Karl Popper. Me enviaban un material que

pensaban, acertadamente, que me podría interesar: la transcripción (unos cuatro folios a un espacio) de una intervención espontánea de Popper en un seminario que tuvo

lugar en 1992 en Japón. Se refería a la naturaleza de su racionalismo crítico, intentando

clarificar algunos equívocos relacionados con las ideas de uno de sus discípulos más

conocidos, William Warren Bartley.

William Warren Bartley nació en los Estados Unidos en 1934. Era, por tanto, 32 años más

joven que Popper (quien nació en Viena en 1902). Bartley se graduó en filosofía, en

Harvard, en 1958. En ese año marchó a Londres para trabajar con Popper. Completó su

tesis doctoral, bajo la supervisión de Popper, en 1962, y en ese mismo año publicó su

primer libro, titulado La retirada al compromiso2. Este libro, cuyo contenido se relaciona

ampliamente con su tesis doctoral, se centra en torno a los límites de la racionalidad,

que es el tema que preocupaba a Bartley y que provocó unas relaciones difíciles con

Popper.

Bartley fue, sin duda, uno de los mejores discípulos y colaboradores de Popper.

Precisamente de aquí surgen las dificultades para advertir los equívocos que él mismo

provocó. Atraído por las ideas de Popper, desde el primer momento Bartley creyó

descubrir en ellas la posibilidad de formular una visión del mundo que le permitía

responder a los problemas que él se planteaba. Le parecía, sin embargo, que para servir a ese objetivo, los argumentos de Popper debían ser generalizados e incluso corregidos.

La generalización parecía bastante fácil. En efecto, Popper había propuesto la

falsabilidad como criterio de demarcación entre la ciencia y la pseudo-ciencia; en la ciencia

empírica, según Popper, formulamos nuestras hipótesis de tal modo que puedan ser

sometidas a control experimental: nunca podemos demostrarlas de modo concluyente,

pero podemos avanzar hacia la verdad eliminando los errores que detectamos cuando

chocan contra la experiencia.

Popper mismo había generalizado esta actitud, aplicándola a las teorías metafísicas: estas

teorías, según Popper, tampoco podrían ser demostradas, pero podrían ser sometidas a

Page 84: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 70

"crítica racional", utilizando argumentos racionales que, sin poseer la fuerza típica de los

experimentos científicos, serían suficientes, no obstante, para someter a las teorías

metafísicas a un proceso de eliminación de error análogo al que se da en las ciencias.

Bartley proponía considerar el problema de la demarcación como un caso particular del

problema de la racionalidad. Las ideas de Popper no sólo daban pie a esa generalización; parecía, incluso, que Popper mismo ya la había realizado, y que sólo era necesario hacerla explícita.

Existía, sin embargo, un aspecto en las ideas de Popper que molestaba profundamente a Bartley, quien lo veía como un obstáculo insalvable para conseguir su

objetivo. Popper subrayaba con fuerza el carácter conjetural del conocimiento humano y la

imposibilidad de conseguir demostraciones concluyentes; por tanto, proponía un

pensamiento claramente anti-dogmático en el que no había lugar para la certeza. Pero ese

"racionalismo crítico" reposaba en último término, según confesión explícita del mismo

Popper, en una "fe irracional en la razón", fruto de una "decisión moral" en favor del

racionalismo.

Según Popper, la actitud de tomar en serio los argumentos racionales no podía, a su vez,

ser fundamentada mediante argumentos racionales, y por este motivo afirmaba que, en

último término, su racionalismo crítico se basaba en una decisión irracional. Bartley pensaba que este paso era suicida porque, en esas condiciones, el racionalismo crítico siempre debería enfrentarse, sin posibilidad de respuesta, a la objeción típica del fideísmo filosófico o religioso; en efecto, el fideísta podría decir al racionalista algo

de este estilo: "tú me atacas porque fundamento mis ideas en una fe irracional, pero tú

también te apoyas, en último término, en una fe irracional".

Lo que Bartley buscaba era, precisamente, una filosofía que no se viera sometida a este

argumento del "tu quoque". Le sobraba la fe en la razón, la decisión moral que Popper

colocaba en la base de su racionalismo crítico. Creyó encontrar lo que buscaba en lo que

él llamó primero "racionalismo crítico comprehensivo" y más tarde "racionalismo pan-

crítico". Estaba en la línea del racionalismo de Popper, pero había dado el último paso:

considerar absolutamente todo como abierto a la crítica, eliminando la necesidad de

ninguna decisión moral básica, de ninguna fe irraccional. Según Bartley, todo, incluso el propio racionalismo, debe estar abierto a crítica. Se trataría, en definitiva, de llevar

hasta el final la dirección emprendida por Popper: no sólo podemos criticar cualquier

Page 85: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 71

hipótesis, sino que incluso esa misma posición, o sea, la disposición de someter todo a

crítica, debe estar ella misma abierta también a la crítica.

Si Bartley se hubiese limitado a desarrollar su posición, y Popper a aceptarla o rechazarla

claramente, yo no habría escrito mi libro ni estaría diciendo aquí estas cosas, ni Pablo

estaría haciendo una tesis doctoral sobre estas cuestiones. Lo que sucedió es mucho más

complicado. Terriblemente complicado. Tan complicado, que en mi libro yo digo que sólo

podré asomarme a los problemas que surgieron y que se encuentran sin resolver.

Para resolverlos completamente, si es que alguna vez se llega a hacerlo, será necesario

utilizar una documentación mucho más extensa de la que yo cito. Sin embargo, conozco

buena parte de esa documentación, al menos lo suficiente como para poder decir que, en

sus aspectos fundamentales, casi todos los aspectos esenciales del problema pueden

tratarse seriamente en base a los textos que ya han sido publicados. Algunos aspectos

importantes, de tipo personal, quedarán necesariamente sin tratar (por el momento, los

herederos de Popper no han autorizado la publicación de cartas, que tanto Pablo como yo

conocemos como consecuencia del trabajo en los archivos de Popper, y que son muy

importantes para este tema).

En la primera parte de mi libro, me centro en la publicación y comentario de un texto de

Popper que denominaré documento de Kyoto, que hasta ahora no había sido publicado.

Es difícil exagerar su trascendencia. Gabriel Zanotti, profesor en la Universidad Austral de

Buenos Aires y experto en Popper, ha escrito una recensión de mi libro que será publicada

probablemente en la revista Arbor, y en el resumen inicial dice lo siguiente: "En su último

libro sobre Karl Popper, Mariano Artigas plantea una hermenéutica revolucionaria: muestra

que la ética de Popper es el fundamento de su epistemología, y que el fundamento de esa

ética está lejos del "conjeturalismo" que suele atribuirse a Popper. Artigas analiza qué

significa en Popper la "fe irracional en la razón" y utiliza, como fuente inédita, el dramático

relato que hace Popper de su relación con W. W. Bartley, por primera vez, en Kyoto, en

1992. Sea cual fuere la opinión del lector, el libro de Artigas divide la hermenéutica de

Popper en un antes y un después".

Situaré brevemente el documento de Kyoto. Cuando ya había cumplido los 90 años, Karl

Popper fue a Japón para recibir de la Fundación Inamori, en Kyoto, un premio para "las

artes creativas y ciencias morales". Con ese motivo, entre otras actividades, el 12 de

noviembre de 1992 tuvo lugar un seminario titulado "La Filosofía de la sociedad abierta".

Actuaron como coordinadores los profesores Ryuichi Nagao y Rinitsu Kawakami,

Page 86: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 72

Universidad de Kyoto. Karl Popper pronunció una conferencia titulada "El origen de la

cultura occidental y sus raíces literarias y científicas". Además de unas introducciones y de

varios diálogos, hubo cuatro conferencias pronunciadas por profesores japoneses.

La conferencia del profesor Keiichiro Kamino se tituló "Sobre el racionalismo crítico de

Popper" y fue calificada por Popper como excelente. Pero Kamino no se había limitado a

una exposición neutral. Se había referido, de modo muy concreto, a la interpretación de

Bartley y a su relación con Popper, expresando además sus opiniones al respecto. Y aquí

empezó todo. Según él mismo dijo en su intervención improvisada, Popper nunca había

querido intervenir en las disputas a que había dado lugar la posición de Bartley (quien,

dicho sea de paso, a pesar de ser mucho más joven que Popper, había muerto de cáncer

en 1990). Pero ahora, al cabo de los años, Popper se encontró con un acto en el que,

delante de expertos en su filosofía, se trataba expresamente ese tema.

También había, en las intervenciones de otros profesores, algunas alusiones a ese

problema. Entonces Popper quiso clarificar algunos puntos, y lo hizo de modo espontáneo,

con gran sencillez, aludiendo a aspectos de su obra y de su relación con Bartley que en

ninguna otra ocasión manifestó públicamente. Se trata, por tanto, de un documento único

y excepcional. La intervención de Popper fue grabada y hasta ahora no había sido

publicada. Se ha publicado un libro, en japonés, donde se recogen las conferencias del

seminario de Kyoto y algunos otros estudios, pero ahí no se incluye esa intervención.

No es mi intención desarrollar en detalle los problemas que Popper planteó en su

intervención de Kyoto. Están analizados en la primera parte de mi libro. Aquí bastará una

referencia a la idea central. En Kyoto, Popper subraya una vez y otra que su racionalismo crítico no es una doctrina, sino una actitud. En otras palabras: él no está

proponiendo una tesis filosófica, sino que está argumentando en favor de una actitud que

considera importante, sobre todo por motivos éticos: porque es una actitud de diálogo y de

razonabilidad, que favorece el entendimiento, la tolerancia y la paz, frente a cualquier tipo

de totalitarismo y de violencia. En este contexto, es importante la Introducción que Popper

escribió para su libro "El mito del marco común", colección de ensayos publicada

póstumamente en 1994, el mismo año de su muerte.

En esa Introducción, medio siglo después de la publicación de La sociedad abierta,

Popper se refiere a la racionalidad como una manera de pensar e incluso una manera de

vivir: una disposición para escuchar argumentos críticos, para buscar los errores propios y

para aprender de ellos. Es, en lo fundamental, una actitud que he tratado de formular

Page 87: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 73

(quizá por primera vez en 1932) en estos dos versos: Quizá esté yo equivocado y tú

tengas razón, quizá con un esfuerzo a la verdad nos acerquemos... Los puse en cursiva

para indicar que los considero importantes, pues fueron un intento de resumir una parte

particularmente central de mis artículos morales de fe. Al punto de vista que los mismos

resumen lo llamé "racionalismo crítico".

A continuación, Popper lamenta que se haya reparado poco en esos versos, admitiendo

que pudo ser en parte culpa suya, porque al lector le puede pasar por alto todo lo que

quiere decir con esos versos tan breves, y añade:

Por esta razón los cito aquí medio siglo después. Fueron concebidos para que

contuvieran, en el mínimo espacio posible, una confesión de fe, expresada simplemente,

de manera no filosófica y en lenguaje corriente; fe en la paz, en la humanidad, en la

tolerancia, en la modestia, en el esfuerzo por aprender de nuestros propios errores; y en

las posibilidades de la discusión crítica. Era un llamamiento a la razón.

Y, en medio de estas reflexiones, Popper menciona varias interpretaciones equivocadas

de su racionalismo crítico. Aquí nos interesa muy especialmente una. Según Popper,

también existió un intento de sustituir mi racionalismo crítico por una posición radicalmente

crítica y más explícitamente definida. Pero, puesto que este intento adoptó el carácter de

una definición, condujo a una serie interminable de argumentaciones filosóficas acerca de

su adecuación3.

La alusión a Bartley es inequívoca: no cabe otra interpretación. Y también es clara la

diferencia que Popper advierte entre su posición y la de Bartley: éste, en su afán de evitar

cualquier tipo de presupuestos, se embarca en un problema que constituye un auténtico

laberinto lógico, mientras que Popper admite francamente, desde los años 1940 y hasta

los años 1990, que toda su posición se basa sobre un compromiso de tipo ético y tiene sentido a la luz del mismo.

No digo que la postura de Popper sea inequívoca ni que esté libre de dificultades. Por el

contrario, me parece que su planteamiento contiene algunos defectos que afectan a toda

su filosofía y provocan ambigüedades de difícil solución. Por ejemplo, su negación

completa de toda certeza en el conocimiento parece excesiva. Es cierto que afirma la

existencia de una verdad objetiva, y que subraya que podemos acercarnos

progresivamente hacia ella, pero al mismo tiempo insiste en que nunca podemos saber

que ningún conocimiento particular es verdadero. Precisamente el análisis de las raíces

éticas de la epistemología de Popper tiene interés porque permite advertir el sentido más

Page 88: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 74

auténtico de sus ideas, evitando bastantes dificultades y facilitandola utilización de sus

aspectos válidos. De todos modos, considero mi deber advertir que la posición de Popper, tal como él la expresa, contiene bastantes aspectos que fácilmente conducen a perplejidades y confusiones, y que mi interpretación no elimina completamente esas dificultades.

Popper coloca en la base de toda su filosofía lo que él llama fe en la razón, o fe irracional en la razón. Esta expresión resultaba inaceptable para Bartley. En realidad, la

expresión no es muy afortunada, sobre todo en su segunda formulación, cuando no sólo

se habla de "fe en la razón", sino que se dice que esa fe es "irracional". En mi opinión, esa

"fe en la razón" se refiere a unos supuestos humanistas que sirven de base a Popper y

que se refieren a la dignidad de la persona humana. Tanto en su filosofía de la ciencia

como en su filosofía social, Popper se apoya en unos supuestos que él mismo considera obvios, de modo que no se detiene a hacerlos explícitos. En efecto, su

filosofía de la ciencia no tiene sentido a menos que se acepte una ontología y una teoría

del conocimiento realistas, y su filosofía social se apoya sobre unas convicciones morales

amplias y profundas acerca de la persona humana y de la sociedad. En definitiva, la

racionalidad popperiana se inscribe dentro del marco de una racionalidad más básica y

general, la racionalidad del mundo y la racionalidad de la persona, y propone un cultivo

sistemático de la racionalidad humana tanto en el ámbito de la ciencia como de la vida

social. Las ideas de Popper son coherentes con una filosofía realista que le sirve de

complemento y que, de hecho, es utilizada implícitamente por Popper en su obra.

Contemplada en esta perspectiva, la decisión moral en que se apoya la propuesta social

de Popper no es una fe irracional, como él dice. Es racional. De hecho, Popper argumenta

en su favor.

Popper afirma que su compromiso moral con la dignidad de la persona humana es fruto de una decisión, y tiene razón: por muy bien fundamentado que ese compromiso

pueda estar, requiere una decisión moral. Pero Popper admite que esa decisión está

abierta a argumentación, y de hecho argumenta en su favor: por eso no tiene

inconveniente en aceptar la propuesta de Bartley según la cual deberíamos mantener todo

abierto a la crítica, incluso nuestra decisión básica de mantener todo abierto a la crítica. Al

mismo tiempo, su decisión moral es amplia y firme; ése es el motivo que le llevó a

separarse del marxismo y a estudiar seriamente en qué consiste el carácter científico de

las teorías: de hecho, toda la filosofía de la ciencia y de la sociedad de Popper tiene como

Page 89: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 75

fondo ese compromiso moral del que no está dispuesto a renunciar. En cambio, Bartley no

quiere saber nada de compromisos, porque identifica compromiso con fe ciega en el

sentido del fideísmo. Pero existen tipos de fe y de compromiso que son razonables y no

tienen nada que ver con la fe ciega del fideísmo. Además, existe una racionalidad básica

que sirve de marco general a la ciencia, a la filosofía, a la religión, y en general a toda la

vida humana

En su intervención de Kyoto, Popper subraya que su racionalismo se refiere a una actitud, no es una teoría. Es una actitud que lleva a mantener las propias ideas abiertas

a posibles rectificaciones, pero no es, en absoluto, una actitud iconoclasta. Precisamente

es una actitud que, al basarse en unas razones morales, implica toda una serie de

supuestos éticos. Con su decisión moral, Popper admite implícitamente toda una serie de

supuestos que no está dispuesto a abandonar: supuestos que se refieren a la libertad, a la

dignidad humana, a la justicia, a la igualdad, a la convivencia pacífica, al respeto, a la

tolerancia. Lo que sucede es que le parecen tan obvios que ni siquiera se los plantea

expresamente como supuestos. Quizá ésa sea una de las claves de los equívocos que

puede provocar la filosofía de Popper: que se apoya en unos supuestos que no examina

expresamente.

Las consideraciones precedentes se pueden aplicar a la valoración del falibilismo de Popper. Los argumentos de Popper en favor del falibilismo derivan del carácter conjetural

de nuestro conocimiento y de la magnitud de nuestra ignorancia. Sin embargo, Popper

combina estos argumentos con consideraciones éticas. Dice, por ejemplo: Los principios

que constituyen la base de toda discusión racional, es decir, de toda discusión emprendida

a la búsqueda de la verdad, constituyen los principios éticos esenciales. Me gustaría

enunciar aquí tres de estos principios.

Y formula esos tres principios de este modo:

1. El principio de falibilidad: quizá yo estoy equivocado y quizá tú tienes razón. Pero es

fácil que ambos estemos equivocados. 2. El principio de discusión racional: deseamos

sopesar, de forma tan impersonal como sea posible, las razones en favor y en contra de

una teoría (...). 3. El principio de aproximación a la verdad: en una discusión que evite los

ataques personales, casi siempre podemos acercarnos a la verdad (...).

Popper subraya que esos principios incluyen aspectos éticos cuando continúa diciendo:

Vale la pena señalar que estos tres principios son principios tanto epistemológicos

como éticos, pues implican, entre otras cosas, la tolerancia: si yo espero aprender

Page 90: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 76

de ti, y si tú deseas aprender en interés de la verdad, yo tengo no sólo que tolerarte

sino reconocerte como alguien potencialmente igual; la unidad e igualdad potencial

de todos constituye en cierto modo un requisito previo de nuestra disposición a

discutir racionalmente las cosas4.

Una explicación puramente lógica o epistemológica no puede reflejar esta situación,

porque las ideas principales implicadas en ella "son principios tanto epistemológicos como

éticos". Por eso no hay círculo vicioso: la ética sirve de base a la actitud racional (aunque

esto no significa que la ética sea completamente autónoma: lo racional y lo ético se

encuentran estrechamente entrelazados y relacionados en ambas direcciones). También

es interesante señalar que Popper incluye "el principio de falibilidad" como uno de los

principios que "constituyen los principios éticos esenciales". Esta afirmación bastaría para

mostrar que el falibilismo no se refiere a un asunto meramente lógico, y que no sólo

incluye dimensiones éticas, sino que tiene, según las palabras del propio Popper, un

carácter principalmente ético.

Popper también se refiere a la igualdad y unidad entre los hombres como otro componente

ético de su falibilismo, y esto tiene fuertes connotaciones antropológicas. Me atrevería a

decir que aquí se encuentra el supuesto básico de toda la filosofía de Popper: él cree en el hombre, en la libertad, en la razón, en la paz, en el respeto. Popper se encuentra

fuertemente comprometido con esos valores, y todos sus argumentos los suponen. En la

misma línea añade:

Así, los principios éticos constituyen la base de la ciencia. La idea de verdad como

principio regulador fundamental -el principio que guía nuestra búsqueda- puede

considerarse un principio ético. La búsqueda de la verdad y la idea de aproximación

a la verdad también son principios éticos; como lo son las ideas de integridad

intelectual y falibilidad, que nos conducen a una actitud de autocrítica y de

tolerancia5.

Es difícil exagerar la importancia de estas afirmaciones, que abren nuevas perspectivas a

la base ética de la ciencia, que constituye todo un ámbito de investigación, y muestran que

los aspectos cruciales de la epistemología de Popper no pueden comprenderse

adecuadamente sin una referencia a sus aspectos éticos.

Ha habido varios intentos de proporcionar una clave unificadora de la filosofía de Popper. No pretendo presentar otro intento de unificación. En cambio, la perspectiva ética proporciona una comprensión de la filosofía de Popper en un nivel diferente

Page 91: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 77

que se refiere al origen de las otras claves. Más en concreto, permite comprender el significado de la crítica y del racionalismo crítico de Popper. En efecto, cuando

consideramos la epistemología de Popper bajo la luz de la clave ética, nos damos cuenta

de que representa una actitud más que una doctrina. Es una doctrina centrada en torno a

una actitud, la actitud de razonabilidad, de dar importancia a la discusión racional, una

discusión en la cual mantenemos la apertura mental con respecto a cualquier tipo de

objeciones o calificaciones, dispuestos a abandonar una opinión que apreciamos cuando

hay razones para abandonarla. La epistemología de Popper puede ser considerada como

la articulación teórica de este tipo de actitud.

Popper está interesado principalmente en la verdad. La crítica de Popper se encuentra

esencialmente relacionada con la búsqueda de la verdad: es una actitud cuya relevancia

se debe, precisamente, a la función esencial que desempeña si deseamos buscar un

conocimiento verdadero del mundo real. De hecho, cuando Popper argumenta en favor de

un realismo filosófico que se opone a cualquier forma de subjetivismo e idealismo, sus

argumentos adoptan un tono que casi hace olvidar su insistencia en el carácter conjetural

de nuestro conocimiento. En la última parte de mi libro muestro algunos ejemplos.

Aunque no me detendré en otros detalles, mencionaré que Popper dice que "creyó" y

continúa "creyendo" en el realismo metafísico. Esto es aparentemente no popperiano, si

recordamos que Popper subraya que no cree en la creencia. Encontramos otras

expresiones aparentemente no popperianas cuando Popper desarrolla su discusión del

realismo. Dice, por ejemplo, que tanto el realismo como el idealismo comparten como

característica común que son indemostrables e irrefutables, pero, añade, hay una

importantísima diferencia entre ellas.

El idealismo metafísico es falso y el realismo metafísico es verdadero. No ‘sabemos’ esto,

naturalmente, en el sentido en que podemos saber que 2 + 3 = 5; es decir, no lo sabemos

en el sentido del conocimiento demostrable. Tampoco lo sabemos en el sentido del

‘conocimiento científico’ contrastable. Pero esto no significa que nuestro conocimiento no

sea razonado o razonable. Por el contrario, no hay conocimiento factual que esté apoyado

por más argumentos o por argumentos más fuertes (aunque no sean concluyentes)6. Esta

afirmación acerca del realismo y el idealismo no podría ser más fuerte, y la referencia a

argumentos positivos parece chocar con el criticismo extremo atribuido con frecuencia a

Popper. Además, Popper continúa hablando de "los argumentos positivos en apoyo del

realismo metafísico".

Page 92: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 78

Por supuesto, Popper se refiere aquí a verdades muy elementales. Pero las trata de modo

completamente realista, sin ninguna concesión a los argumentos típicos de los filósofos

subjetivistas o idealistas. En este terreno, Popper no parece tener miedo de decir que

realmente sabe algo con certeza.

Pienso que la argumentación de Popper acerca del realismo metafísico podría ser suscrita

por un tomista como Étienne Gilson. El criticista Popper utiliza el mismo tipo de

argumentos empleados por Gilson para llegar a la misma conclusión con el mismo tipo de

certeza. Esta no es, sin embargo, la única ocasión en que Popper argumenta sobre temas

metafísicos. Cuando se le acusó de ser o haber sido positivista, replicaba que nunca había

negado que la metafísica tenga sentido, y también que había discutido frecuentemente

problemas metafísicos, lo cual es cierto. Subrayaría que, aunque Popper nos diga que sus

puntos de vista deberían ser considerados como conjeturas, de hecho argumenta tan

fuertemente como cualquier otro lo haría cuando ataca el materialismo o argumenta en

favor del realismo, el indeterminismo y la emergencia.

Todo este asunto puede ser clarificado si recordamos que, al argumentar en favor del

realismo, Popper escribe: "No ‘sabemos’ esto, naturalmente, en el sentido en que

podemos saber que 2 + 3 = 5; es decir, no lo sabemos en el sentido del conocimiento

demostrable. Tampoco lo sabemos en el sentido del ‘conocimiento científico’ contrastable.

Pero esto no significa que nuestro conocimiento no sea razonado o razonable". Pienso

que un diálogo acerca de este texto podría bastar para alcanzar un amplio acuerdo sobre

algunos temas entre Popper y muchos filósofos realistas, tomistas incluidos.

Desde mi punto de vista, diría que difícilmente conocemos algo acerca del mundo físico

"en el sentido en que podemos saber que 2 + 3 = 5", de modo que, si consideramos esto

como el paradigma del "conocimiento demostrable", Popper tendría razón cuando

considera que nuestro conocimiento es básicamente conjetural. Sin embargo, para evitar,

como Popper pretende hacerlo, actitudes que obstruyen el progreso científico, no es

necesario afirmar que todo nuestro conocimiento es conjetural, lo cual no es cierto. Basta

aceptar que nuestro conocimiento es siempre limitado y perfectible. Además, en la ciencia

experimental nuestras construcciones siempre dependen de contextos que nosotros

mismos construimos y que, en consecuencia, conducen a conocimientos que, aunque

sean verdaderos, poseen siempre un carácter contextual y parcial.

Por otra parte, tampoco es difícil comprender que en la ciencia experimental existe una

fuente especial de intersubjetividad y de verdad. Esa fuente, sin embargo, no es nada

Page 93: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 79

misteriosa: consiste en el hecho de que el mundo natural está organizado en torno a

pautas espacio-temporales repetibles. Los experimentos científicos son posibles porque

existen pautas repetibles. En cambio, cuando se trata de las ciencias humanas, debemos

tomar en consideración las dimensiones específicamente humanas que, aunque puedan

relacionarse con pautas espacio-temporales, también las trascienden. Por tanto, no

podemos zanjar las discusiones metafísicas utilizando exactamente la misma clase de

argumentos que se usan en la ciencia experimental; sin embargo, podemos alcanzar

eventualmente conclusiones que son mucho más seguras que las de la ciencia

experimental.

Popper defiende algunas doctrinas filosóficas que tienen gran importancia para los

tomistas y para muchos otros filósofos realistas. Éste es el caso de su argumentación en

favor del realismo metafísico. Esto también puede extenderse a la imagen de la ciencia

experimental como una empresa humana cuyo objetivo es la búsqueda de la verdad; a la

importancia de las razones éticas para la búsqueda de la verdad; a la afirmación de que

nuestra búsqueda de conocimiento empírico debe basarse en el método de conjeturas y

refutaciones; a la idea de que, más allá de la ciencia experimental, existe un ámbito de

cuestiones metafísicas que no pueden ser decididas mediante experimentos pero pueden,

no obstante, ser discutidas racionalmente; a la importancia de la modestia intelectual,

especialmente en el ámbito de las empresas intelectuales; a la necesidad de fomentar la

actitud de diálogo y razonabilidad en los asuntos humanos.

Me atrevería a decir que algunas dificultades aparentes en la filosofía de Popper podrían

ser superadas mediante un diálogo previo dirigido a entender los respectivos marcos de

referencia. Sin embargo, la tarea no es fácil. Ahora, yo no diría que la filosofía de Popper

es principalmente una epistemología que se aplica al ámbito social; más bien diría que es

verdad lo contrario. En tal caso, el diálogo con Popper es, probablemente, más factible de

lo que parece a primera vista, pero, en cualquier caso, no es un asunto fácil. Mi trabajo

sobre las raíces éticas de la epistemología de Popper pretende ayudar a hacer más fácil

esa tarea.

REFERRENTES o Hubert Kiesewetter, "Ethical Foundations of Popper's Philosophy", en: A. O'Hear

(editor), Karl Popper: Philosophy and Problems, Royal Institute of Philosophy

Supplement: 39, Cambridge University Press, Cambridge 1995, pp. 275-276.

Page 94: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 80

o W.W. Bartley, The Retreat to Commitment, Knopf, New York 1962.

o K. R. Popper, El mito del marco común. En defensa de la ciencia y la racionalidad,

Paidós, Barcelona 1997, p. 15

o Karl Popper, En busca de un mundo mejor, Paidós, Barcelona 1994, p.255.

o Karl Popper, Realismo y el objetivo de la ciencia, Tecnos, Madrid 1985, pp. 120-128.

o Cinta de Moebio No.5. Abril de 1999. Facultad de Ciencias Sociales. Universidad de

Chile.

o http://rehue.csociales.uchile.cl/publicaciones/moebio/05/frames13.htm

Page 95: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 81

2.6. LÓGICA Y EPISTEMOLOGÍA DE LA CIENCIA SOCIAL: ENSAYO SOBRE EL ENTENDIMIENTO REFLEXIVO EN HEGEL

Jorge Gibert Galassi.

Si la apariencia fenoménica y la esencia de las cosas coincidieran totalmente, la ciencia y

la filosofía serían superfluas. Karel Kosik, Dialéctica de lo Concreto.

2.6.1. INTRODUCCIÓN El propósito del trabajo consiste en aproximarse a una re–evaluación del enfoque negativo

de la filosofía hegeliana en el marco de la discusión epistemológica de la ciencia

contemporánea.

En la exposición del concepto de "entendimiento reflexivo", tal como lo reelabora Hegel en

su Ciencia de la Lógica, se afirma que la crítica hegeliana implicó la creación de una

epistemología de la ciencia especial, conocida como dialéctica. El desarrollo histórico de

tal epistemología ha sido precario y las refutaciones a ese punto de vista, múltiples.

Básicamente, éstas últimas se han centrado en la afirmación de la hipótesis formalista que

asigna un rol definitivo y exclusivo a la lógica de la identidad y la no contradicción en la

investigación científica, opuesta al planteamiento hegeliano.

Sin embargo, la distinción entre lógica y representación permitiría re–ubicar la reflexión

hegeliana desde otro punto de vista, permitiendo, además, ampliar el marco de la

discusión epistemológica sobre la dialéctica, al menos respecto del cómo ésta se ha

desarrollado recientemente.

2.6.2. LÓGICA Y REPRESENTACIÓN DE REALIDAD La afirmación "En virtud de que la esencia –a diferencia de los fenómenos– no se

manifiesta directamente, y por cuanto que el fundamento oculto de las cosas debe ser

descubierto mediante una actividad especial, existen la ciencia y la filosofía" (2), centra la

discusión sobre el conocimiento y su plausibilidad en las características de esta especial

actividad y, por tanto, respecto del método filosófico y científico y las presuposiciones

epistemológicas de éstos.

Page 96: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 82

Sin embargo, surge aquí la falacia de la distinción estricta entre ciencia y filosofía: ¿no

contiene, y se edifica, la ciencia sobre un conjunto de hipótesis filosóficas?; y la

contraparte, para que la filosofía pueda realizar un aporte reflexivo a la dinámica científica,

¿no es acaso necesario que ella esté por encima (analíticamente informada) del

conocimiento científico de su época?

El problema de la distinción surge cuando la operación se reconoce en ella misma:

¿podemos pensar las relaciones formales y factuales entre ciencia y filosofía sin acudir al

instrumental formal (lógica) y factual (conocimiento) a las que ellas mismas acuden para

su realización como tales? O dicho de otro modo: ¿puede existir un criterio de operación

externo a ellas –ciencia y filosofía– utilizable para su análisis?

Una respuesta a esta pregunta podría construirse desde una opción ética, ideológica o

estética–literaria. Pero sería irrazonable quebrar el principio de autorreferencia, mínimo

para la comprensión de la evolución autoorganizada de la filosofía o la ciencia, puesto que

no es posible modelar matemáticamente la creación literaria así como tampoco es posible

suponer intencionalidad ideológica a la solución de ecuaciones diferenciales. Es decir, sólo

podemos hablar científicamente de la ciencia desde la ciencia misma y artísticamente del

arte desde el arte.

Sin embargo, habitualmente las taxonomías que ordenan las disciplinas filosóficas

incluyen a la lógica y, al mismo tiempo, la lógica se incorpora instrumentalmente en el

quehacer creativo de la ciencia, como una modalidad operatoria para la construcción

coherente (racional) de teorías. La lógica se relaciona con la objetividad mediante el

problema de la representación. El lenguaje científico intenta adaptarse a los hechos

mediante la formulación de enunciados sobre la realidad, siempre y cuando dichos

enunciados se relacionen entre sí de una manera coherente, respetando el principio de

identidad y no–contradicción. Así planteado, el problema surge con la pregunta: ¿qué

sucede, cómo operar estratégicamente, cuando concebimos la realidad como unidad de

identidad y no–identidad?; ¿qué sucede con el instrumental lógico para la construcción de

teorías?

2.6.3. LA DIALECTIZACIÓN HEGELIANA DE LA LÓGICA La distinción forma–contenido es el punto de partida del análisis crítico de Hegel sobre

este problema: "Al aceptar que la lógica sea la ciencia del pensamiento en general se

entiende con ello que este pensamiento constituye la pura forma de un conocimiento, que

Page 97: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 83

la lógica hace abstracción de cualquier contenido y que el llamado segundo elemento que

pertenecería a un conocimiento, es decir la materia, debe ser ofrecido trayéndolo de otra

parte" (3). El sujeto cognoscente daría forma, una fisonomía sui generis, a los enunciados

sobre la realidad o lo conocido. De esta, el conocimiento consistiría en la combinación de

la arquitectura de todo pensamiento pensable levantada con la materia, que estaría fuera

de ella. Pero el planteamiento de Hegel, no conforme con ello, gira en torno a la pregunta

respecto de cómo es posible "unir" un elemento perteneciente a un conjunto A (las formas

del pensamiento) con un otro elemento perteneciente a un conjunto B (contenidos

materiales de la realidad), siendo que la operación "unión" no es aplicable dada la

naturaleza, excluyentes entre sí, de los elementos de ambos conjuntos. Existe una

clausura operacional puesto que la operación no puede realizarse dada la naturaleza de

los dominios de ambos conjuntos. Los elementos no pueden conectarse por definición, de

acuerdo a la lógica como ha sido concebida antes que él.

A ello, Hegel plantea varias contraindicaciones: "...en primer lugar, es inapropiado decir

que la lógica hace abstracción de cualquier contenido, que enseña sólo las reglas del

pensar, sin penetrar en lo que ha sido pensado, y sin poder considerar su naturaleza.

Puesto que son el pensamiento y las reglas del pensar los que deben constituir su objeto,

en éstos tiene la lógica su contenido característico inmediato, y en ellos tiene también

aquel segundo elemento del conocimiento, a saber, una materia, de cuya naturaleza debe

preocuparse" (Ibid, pág. 58). Radicalizando el enunciado, éste afirma que la lógica, en

tanto formas del pensamiento, pertenece, también, al orden de la realidad y, por lo tanto,

no puede separarse de ella, a riesgo de cometer una petición de principio.

En segundo lugar, por ello no menos relevante, Hegel plantea que no es posible una

verdad incierta y una certeza no–verdadera. A lo menos no desde la filosofía. Es decir,

complementando con el punto anterior, no sería posible concebir el pensamiento como

algo imperfecto, una forma blanda, indeterminada, siendo que éste es real y, por ello, algo

por sí completo y acabado. En consecuencia, la concordancia del pensamiento con el

objeto no puede ser posible, a menos que éste descienda de su status de realidad,

menoscabando su función a mero "ajuste y acomodo".

En tercer lugar, y este es el decisivo, "...dado que la diversidad entre la materia y la forma,

entre el objeto y el pensamiento, no es dejada en aquella nebulosa indeterminación (ajuste

y acomodo), sino que es concebida de manera más determinada, deben los dos constituir

esferas distintas. Por consiguiente, el pensamiento cuando aprehende y forma la materia,

Page 98: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 84

no sale fuera de sí mismo; su acto de aprehender y amoldarse a ella no es sino una

modificación de sí mismo; y la determinación autoconsciente pertenece, no obstante, sólo

a él. De modo que, aún en su relación con el objeto, el pensamiento no sale fuera de sí

mismo hacia el objeto: éste sigue siendo como una cosa en sí, absolutamente un más allá

del pensamiento" (Ibid, pág.59, cursiva mía).

Aquí hay dos problemas: el primero, que la filosofía prehegeliana no responde cómo se

relacionan, cuál es el dispositivo vinculante, entre estas dos esferas; el segundo, en caso

de reconocer una misma naturaleza a ambas esferas, tendría que optar por suponer la

inclusión de una en la otra. ¿Pero cómo dirimir semejante disyuntiva?

La única manera de plantear un problema tal es mediante la incorporación de la categoría

de lo contradictorio, de manera de poder afirmar que el pensamiento es pensamiento y es

no–pensamiento (realidad); así como que la realidad es realidad y es no–realidad

(pensamiento).

Frente a la filosofía griega que explica el ser natural en general mediante la categoría de

autoidentidad, la filosofía hegeliana precisa de una categoría que de cuenta de su propio

contenido. Este descubrimiento de Hegel, lo contradictorio existente en el seno de lo no–

contradictorio, es lo que denominó en su propio lenguaje "negativität"; cuya consecuencia

es elaborar la pregunta por el ser que unifica la naturaleza regida por la autoidentidad y la

no–contradicción y la región, recién descubierta, de la subjetividad o del Geist, regido por

la negatividad (4). Una lectura plausible de la solución hegeliana es que se "reinterpreta la

totalidad del ser desde la perspectiva del sujeto, interpretando subjetivamente la

substancia" (Ibid, pág.6). Este ser que es la unidad de lo contradictorio y lo no–

contradictorio es, para Hegel, Concepto (Begriff) o Espíritu.

Pareciera, así que la operación hegeliana para lograr una representación adecuada de lo

real es la inclusión de la contradicción en su concepción de la lógica, una lógica que, por

cierto, tiene contenido.

El planteamiento sobre el entendimiento en Hegel sugiere, es la tesis, que es posible (de

hecho irrenunciable) superar la distinción entre determinaciones antitéticas puesto que

éstas son sólo un momento en el despliegue del Espíritu Absoluto. O en palabras, del

mismo Hegel: "El formalismo que la filosofía ...denuncia... y que constantemente se

engendra de nuevo en ella no desaparecerá de la ciencia... hasta que él conocimiento de

la realidad absoluta llegue a ser totalmente claro en cuanto a su naturaleza" (5).

Page 99: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 85

Según Hegel, "el entendimiento es una fase en el movimiento y despliegue del espíritu. En

este movimiento, de carácter progresivo, el espíritu va alcanzado nuevas formas, cada una

de las cuales supone la ruptura con los hábitos de las etapas anteriores, conteniéndolas y

superándolas a la vez, removiendo sus defectos y conciliando todo lo que aquellas han

determinado unilateralmente como incompatibles" (6).

El entendimiento reflexivo consiste en lo siguiente: "...suponer lo concreto inmediato,

determinarlo y dividirlo". Pero dice Hegel "...tal reflexión debe también superar sus

determinaciones divisorias, y ante todo, tiene que relacionarlas mutuamente. Pero, desde

el punto de vista de establecer esta relación surge su contradicción" y añade lo

fundamental "Esta relación de la reflexión pertenece en sí a la razón; elevarse sobre

aquellas determinaciones hasta alcanzar a conocer el contraste contenida en ellas, es el

gran paso negativo hacia el verdadero concepto de la razón" (7).

Más adelante, Hegel diagnostica (y desliza la solución) al impasse de la disciplina lógica:

"Sin duda, en las condiciones en que todavía se encuentra, no tiene esta ciencia un

contenido de tal especie, que pueda ser válido como realidad y como cosa verdadera en la

conciencia común, lo que no significa que sea una ciencia formal, desprovista de una

verdad sustancial" (Ibid, pág.63).

La falta de contenido de la lógica, en consecuencia, sólo hace resaltar la falta de contenido

de la filosofía misma, en tanto pretensión de representar la realidad. Al reflexionar sobre

las formas lógicas, insiste: "Cuando son consideradas como determinaciones firmes, y por

ende, desligadas, en lugar de ser reunidas en una unidad orgánica, son formas muertas,

donde ya no reside el espíritu, que constituye su unidad viviente" (Ibid, pág.63). De algún

modo, esto sugiere que toda indagación científica de la realidad es una indagación sobre

la realidad del concepto o espíritu.

La incorporación, de parte de Hegel, de la categoría de contradicción a la reflexión formal

(lógica) supone una definición del concepto en un sentido débil, que denominaremos

representacionista. Esta definición del concepto, como modalidad de funcionamiento o

arquitectura, representaría fidedignamente a la realidad tal cual es. Pero la lógica es,

desde su origen, una forma de pensar y comunicar, más no de representar. Al definir la

lógica desde la representación, Hegel propone una teoría de la realidad. El marxismo, al

proponer esta arquitectura "vuelta de cabeza", lo que hace es crear un enfoque

epistemológico especial, una manera de indagar la realidad de acuerdo a un conjunto de

Page 100: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 86

nuevas presuposiciones (cuya expresión mayor es el modelo societal de Marx a partir de

la dialéctica capital/trabajo).

Es decir, la pretensión de Hegel es fundamentar una nueva teoría general, una estructura

abstracta, donde las teorías particulares no serían más que campos de aplicación, la

realización específica de esa estructura abstracta, cuya teoría general las englobaría a

todas. Esta estructura está constituida por un conjunto de operaciones típicas, como la

operación "oposición" o "salto cualitativo", cuya descripción empírica sería el objeto de las

ciencias particulares. La aplicación de la idea "la realidad es dialéctica" –o sea, que "esa"

es la estructura de la realidad– en las disciplinas fácticas , desde Engels hasta Kopnin, es

una muestra del impacto de la pretensión hegeliana. En suma, la lógica hegeliana abrió

una manera de concebir la estructura abstracta de la realidad.

La Refutación Formal de la Dialéctica Hegeliana

La refutación formal contemporánea del programa lógico hegeliano, está contenida en las

presuposiciones epistemológicas de la investigación científica. Esta, tal y como la ha

codificado y divulgado Bunge, "presupone y controla ciertas importantes hipótesis

filosóficas. Entre ellas, destacan las siguientes: la realidad del mundo externo, la

estructura de muchos niveles que tiene la realidad, el determinismo en un sentido amplio,

la cognoscibilidad del mundo y la autonomía de la lógica y de la matemática" (8).

En cuanto al formalismo, esto es, la autonomía de la lógica y la matemática, plantea: "por

mucho que cambie la ciencia de la lógica, lo hace siempre internamente o en respuesta a

problemas puramente racionales, no en un esfuerzo de adaptarse a la realidad. La lógica

es autosuficiente, desde los puntos de vista de su objeto y de su método: no tiene más

objeto que sus propios conceptos, y sus demostraciones no deben nada a las

peculiaridades del mundo" y agrega más adelante "la validez de una ciencia formal es

independiente del mundo porque no se ocupa de él" (Ibid, pág.327).

Sin duda, la posición de Bunge respecto a la lógica es distinta a las concepciones tratadas

en la primera parte: no corresponde a la visión hegeliana (lógica con contenido) como

tampoco corresponde a la visión de indeterminación (el pensamiento que se adapta al

objeto).

Más radical, Bunge señala que la lógica es autosuficiente poseyendo objeto y método

propio, con total autonomía de los contenidos materiales del mundo. Quizás esta visión,

dice relación con el enunciado de complejidad del mundo y de la complejidad del proceso

cognoscitivo, lo cual lleva a dejar ambas esferas "fuera" de la actividad disciplinaria de la

Page 101: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 87

lógica, precisamente debido a su complejidad, por no visualizar la posibilidad de dar

cuenta fundadamente de dicha complejidad.

Pareciera que en Bunge, la concepción de la lógica tiene un sentido netamente

instrumental de control. Esa "tecnología" tendría una función semejante a toda tecnología:

ejercer dominio sobre un mundo, en este caso, no sobre un mundo natural o social sino

sobre el mundo de la producción de verdades. Es decir, no se trataría, como lo plantea

Hegel, de una disciplina con contenido, sino de un instrumental de apoyo para la

producción científica; por cierto, un apoyo algo semejante al del Tribunal de la Santa

Inquisición.

Específicamente, la función de la lógica al interior de la investigación científica sería

apoyar la búsqueda de la certeza, y estaría dada por su enfoque en tanto lógica deductiva

y lógica inductiva.

Con respecto a la lógica inductiva, Bunge le asigna un papel bastante menor que al de la

lógica deductiva: "...desentenderse de la lógica deductiva y buscar certeza por otra parte,

en la lógica inductiva...esto es una quimera: no hay hipótesis infalibles y, estrictamente

hablando, todas las inferencias no–deductivas son falaces: no nos permiten concluir nada,

pero son expedientes que nos permiten sospechar de la verdad o falsedad de las

afirmaciones. La verdadera tarea de la "lógica" no deductiva no tiene que consistir en

consagrar falsedades, sino en estudiar los efectivos esquemas de la inferencia científica

no deductiva que se presentan en el estadio de la contrastación, así como las condiciones

de su rendimiento óptimo.

Por ejemplo, en nuestro caso del sujeto "mentalmente ausente", si hallamos que no

reacciona al ruido, "inferimos" que es plausible suponer que está mentalmente ausente

(caso de reducción fuerte). Pero nuestro sujeto puede estar simulando, de tal modo que

habrá que disponer de otras contrastaciones más...O bien, la hipótesis en cuestión puede

ser plausible en razón de la anterior experiencia con el sujeto, la cual nos sugiera que

suele estar ausente mentalmente; ...A ® - R, y "A" es verosímil, luego "-R" es plausible

(caso de modus ponens débil). O también, por último, puede ser que estemos bastante

seguros, aunque no totalmente, de que el sujeto está reaccionando al ruido, en cuyo caso

inferimos que el sujeto esté probablemente alerta: A ® - R es plausible, luego "-A" es

plausible (caso de modus tollens débil).

Pero, ¿cuánta plausibilidad puede tener una suposición plausible, y cuánta plausibilidad

puede tener, por su parte, la inferencia que da aquella conclusión? Ninguna de las

Page 102: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 88

existentes teorías de "lógica" inductiva da respuestas aceptables a esas preguntas: se

trata aún hoy de problemas abiertos" (Ibid, pág.883).

El planteamiento de Bunge respecto a la lógica deductiva es, a la vez, claro y

parsimonioso: "...la lógica deductiva, aunque es un poderoso instrumento para la

explicitación de supuestos iniciales y la obtención de todas las consecuencias

contrastables que aquéllos puedan implicar, es impotente para convalidar los supuestos

iniciales mismos; en cambio, ayuda a mostrar cuáles de ellos son falsos" (Ibid, pág.881).

Es decir, cumple un rol de apoyo indiscutible para la construcción coherente (racional) de

teorías. Pero insiste en que la investigación científica sólo es fructífera cuando es posible

falsar teorías, a la vez que éstas sólo se generan si las preguntas de investigación son

capaces de plantearse problemas (Popper), y desarrolla la argumentación relativa a la

impotencia para convalidar supuestos iniciales –y su relación con la construcción de

teorías– del modo siguiente: "...Una teoría axiomática de base A es el conjunto de todas

las fórmulas de la teoría basada en A:

F = Cn (A)

[También F = Cn (F), lo que quiere decir que una teoría axiomática contiene todas sus

consecuencias, o sea, que es deductivamente cerrada]. Podemos según eso adoptar la

siguiente definición: Una teoría axiomática de base A es el conjunto de todas las

consecuencias lógicas de A.

El caso más sencillo se presenta cuando no hay ningún supuesto, o sea, cuando la base

de la teoría es el conjunto vacío. Si nos preguntamos «¿qué se sigue de nada?», la

respuesta correcta, aunque nada intuitiva, es lo que se sigue de nada es la lógica

ordinaria. Esto es: no hay supuestos a partir de los cuales se siga la lógica; o, como

también puede decirse, nada precede (lógicamente) a la lógica; otra manera de decir lo

mismo: la lógica es autocontenida. (Con esto queda probada la autonomía de la lógica;...)

Esto puede escribirse brevemente así:

Cn (Æ ) = L,

Æ a L

El dual de este teorema es: De supuestos lógicamente falsos se sigue cualquier cosa. O

sea: el conjunto U de todas las fórmulas se sigue de todo conjunto unidad { A} tal que la

negación de A sea lógicamente verdadera:

Si - A Î L, entonces...Cn (A) = U

Page 103: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 89

He aquí una primera moraleja: huir de fórmulas que puedan explicarlo todo, en el campo

dado y en cualquier otro. Segundo: No reforzar los supuestos a toda costa (Ibid, pág. 442

y 443). A lo que el autor agrega: "...podemos seguir amontonando simples proposiciones

de bajo nivel sin sacar nada en limpio teoréticamente: un conjunto de informaciones

lógicamente aisladas, por precisas y numerosas que sean, están tan lejos de ser una

teoría como pueda estarlo una colección de chismes. Un conjunto de supuestos no puede

empezar a dar de sí consecuencias lógicas –y, por lo tanto, demostraciones– más que si

esos supuestos trascienden los datos. En este caso, un sólo supuesto inicial –siempre que

sea rico– puede implicar infinitas consecuencias lógicas... (pero) los datos no producen

teorías (Ibid, pág. 443).

Finalmente, resume el autor con un argumento práctico: "Todas las teorías lógicas

contienen ... las leyes de identidad y no–contradicción... Supongamos, por arrancar

nuestra argumentación, que la ciencia factual no presupusiera estos principios... no habría

limitación alguna de las formas lógicas ni de las inferencias: todo podría afirmarse... y todo

podría inferirse" (Ibid, pág. 328, cursiva mía). El significado profundo de esta

argumentación es meramente administrativo mientras no se realice la pregunta por la

validez de la representación de lo real por la semántica científica: a saber, lo único que

podría concluirse, es que no podemos acumular oraciones enunciativas.

Sin embargo, Bunge desliza la posibilidad hegeliana: "...que la ciencia factual emprendiera

una investigación propia de la lógica y buscara sus propios principios de razonamiento.

¿Cómo podría conseguirlo? Los conceptos, las funciones proposicionales, las

proposiciones, etc. –o sea, los objetos lógicos– no tienen existencia material ni pueden,

consiguientemente, ser objetos de experiencia: sólo sus símbolos tienen existencia

material, pero son inesenciales, o sea, que pueden cambiarse por otros símbolos

cualesquiera sin que cambie lo denotado. La ciencia factual tendría que volverse hacia

adentro, tendría que hacer su propio análisis para descubrir los principios lógicos que

estuvieran insertos en ella misma" (Ibid, pág.328). Pero, ¿no es ésta acaso la propuesta

hegeliana? Por cierto, lo es. Sin embargo, Bunge insiste: "Pero, ¿con qué instrumentos

procedería a ese análisis, si no es con los instrumentos lógicos que al principio se había

negado a presuponer? Por tanto, la ciencia factual tiene que presuponer alguna lógica"

(Ibid, pág.328).

Visto más de cerca, el razonamiento de Bunge tiende a fundamentar tales afirmaciones

desde un punto de vista de la construcción de teorías más que desde el punto de vista de

Page 104: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 90

la representación de lo real a través del sistema ciencia: "Si se abandona el principio

lógico de identidad tendríamos que admitir el milagro de que un enunciado cambiara por sí

mismo y fuera capaz de representar dos veces –en una misma argumentación por

ejemplo– la misma proposición. Si se abandonara el principio de no contradicción,

seríamos incapaces de hacer suposiciones determinadas pues podríamos estar afirmando

al mismo tiempo sus negaciones" (Ibid, pág. 329). Sin embargo, esto tiene relación con el

requisito de comunicabilidad y contabilización del conocimiento acumulado, pero,

insistimos, nada nos informa acerca de sí el sistema ciencia representa válidamente o no a

la realidad tal cual es. La realidad del mundo es más compleja que la ciencia, pero ¿es

válido, como pretensión, partir del supuesto de que sólo es posible comunicar

parcialmente el "estado de realidad" del mundo? Y si no fuera válida la pretensión, ¿cabría

pensar que la naturaleza es de una uniformidad tal que es plausible la idea de

representarla mediante formas lógicas? Aún cuando pudieramos responder estas

preguntas, tampoco darían argumentos para enfrentar el problema del movimiento, que de

algún modo es el quid de la pretensión lógica hegeliana.

En efecto, en el caso particular de las ciencias sociales, si fuera posible que ellas

representaran el movimiento de lo social, como secuencia ordenada de eventos, estarían

en condiciones, entre otras, de realizar predicciones. Respecto a este punto, lo más allá

que se ha llegado es la teoría de juegos, que no deja de ser un ejercicio de interés

heurístico basado en supuestos múltiples, lo que nos vuelve a dejar en el punto de partida:

¿Sobre cuáles supuestos, entonces, sería factible construir una representación valedera

de lo social?

2.6.4. LÓGICA COMO REPRESENTACIÓN Y LÓGICA COMO LENGUAJE El sistema ciencia comunica en el particular código de la verdad objetiva y sistemática. La

ciencia fáctica presupone una lógica bivalente –verdad / falsedad–, aunque algunas

teorías presuponen lógicas no ordinarias (9).

Cuando definimos la función de la lógica en el proceso del conocer científico, de acuerdo a

la dialéctica, ésta consiste en "adaptarse a la realidad". Es la definición débil,

representacionista. Sin embargo, al proceder de este modo, confundimos la lógica con la

estructura de la realidad y con algunos otros conceptos, tales como el de modelo. La

función de la lógica no es adaptarse a la realidad, sino más bien en hacer ésta

comunicable en términos de conjunto de proposiciones verdaderas vinculadas

Page 105: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 91

sistemáticamente. Más precisamente, la función de la lógica es el cálculo de

proposiciones, en un sentido inductivo o deductivo, que permita validar la conexión entre

proposiciones. Los resultados de estos cálculos son multiformes, y van desde el

desprendimiento de nuevas proposiciones (generación de hipótesis) hasta la evaluación

de teorías (control).

Pero no hay que olvidar que la pretensión hegeliana es dar cuenta de la transformación, y

es por ello que incorpora la categoría de contradicción. La hipótesis general es simple: la

transformación es cambio, y el cambio es obra de la oposición de entidades contrarias,

que explica la transformación de los estados de las entidades que se oponen. Hegel

plantea que la dialéctica es una representación de lo real viviente, que en cuanto y en

tanto unidad, contiene los términos de identidad y de contradicción. El problema se plantea

cuando comunicamos esta idea a través del lenguaje. Supongamos el siguiente ejercicio:

Es cierto que una entidad es A y ~ A.

Pero la mera inclusión de "y" en la sintaxis de la proposición nos demuestra que:

A ~ A A * ~ A

V F F

F V F

La refutación pueril a esta conclusión es que la lógica proposicional no encaja con la

realidad. Pues bien, úsese el lenguaje ordinario, lo que tenemos es la siguiente oración:

"las cosas son no son al mismo tiempo". ¿Y por qué no está en la oración el "y"? Porque el

"y" es la lectura del *, que es la conjunción o producto lógico. Sin embargo, más de uno

insistirá: Si tomamos un período, encontraremos A y ~ A como estados. Pero, como es

obvio, ya no estamos comunicando lo que originalmente queríamos comunicar: esta nueva

comunicación es la de un proceso o "secuencia temporalmente ordenada de

acaecimientos, tal que cada miembro de la secuencia toma parte en la determinación del

miembro siguiente" (10), como por ejemplo el proceso vital (vida–muerte).

La única manera de comunicar la idea original es mediante una "paradoja", y las paradojas

son problematizaciones (no son descripciones o explicaciones) de la realidad, que se

resuelven adicionando en la formulación lingüística una tercera entidad. En el caso de la

dialéctica, el problema se resuelve sólo si la tercera entidad es de un nivel de realidad

Page 106: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 92

distinto al nivel de los dos términos antitéticos (o aparentemente antitéticos) que incluye.

Lo veremos en la siguiente parte y final.

Por otra parte, algunos han confundido el problema de la lógica y la representación de otro

modo. Es lo denominado "lógica borrosa".

A modo de ejemplo, expongamos la siguiente idea: "la lógica formal tradicional no encaja

con nuestro objeto de estudio, por dos razones al menos. La primera... porque se requiere

un modo de pensar no lineal, sino reticular y, mejor todavía, sistémico... La segunda razón

es todavía más obvia. La lógica formal en que hemos sido entrenados se basa en el

empleo cualitativo de inclusión y exclusión...para caracterizar los fenómenos sociales y

encajarlos en los esquemas tipológicos que, explícita o implícitamente, utilizamos como

referencia" (11). En suma, supone la tesis que la lógica debe "adaptarse a la realidad".

Pero es cuestionable también por otras razones.

El primer argumento se rebate con dos ejemplos simples: i) El estudio general de la

continuidad lo emprende la topología, que es una creación matemática de Poincaré; y, ii)

los códigos de los sistemas Luhmannianos son binarios (12). Tanto la teoría del continuum

como el pensamiento sistémico, matemática y sociología, no sólo no son incompatibles

con la lógica formal, sino que la requieren.

El segundo argumento, confunde un caso particular de agrupaciones científicas, el más

simple, la clasificación divisoria, con toda la amplia gama de clasificaciones posibles. Si la

división es correcta (el dominio del discurso es igual a la unión de A y -A y que la

intersección de A y -A es Æ ), un elemento pertinente podrá ser incluido en el subconjunto

de uno de los términos.

Si un elemento es excluido de ambos subconjuntos, está mal definido el elemento

(vaguedad) o existe independencia entre el criterio de división y el elemento (el agua no

puede ser incluida en la dicotomía comestible/ no–comestible; sino en la dicotomía

bebible/ no–bebible).

Además, concibe la tipología como un instrumento "anterior", más elemental, respecto de

la clasificación; cuando no lo es. Una tipología es el resultado de un sistema de

coordenadas, un espacio de atributos. Teórica y metodológicamente, una tipología implica

una correlación que un agregado social posee entre dos conceptos de clase, con niveles

de medición variados, como la propuesta de Fromm (13), grado de autoridad de los padres

y grado de aceptación (de dicha autoridad) por los hijos; y que le produjo cuatro tipos de

relaciones de autoridad: autoridad absoluta, autoridad normal, falta de autoridad y

Page 107: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 93

rebelión. Por lo tanto, la tipología es un subproducto del juego teórico y metodológico entre

dos clasificaciones, en el ejemplo anterior, la clasificación entre autoridad de los padres

(que en realidad es de un tipo especial, la ordenación, puesto que establece relaciones

asimétricas y transitivas entre dos miembros, por ejemplo, un miembro con autoridad débil

y otro con autoridad fuerte) y la clasificación de grados de aceptación de los hijos (también

ordenada: baja, media, fuerte).

Esta refutación no impide estar de acuerdo en que "definir exactamente lo que es y lo que

no es el objeto examinado" es muy difícil, pues "A veces, la vaguedad conceptual refleja

una nebulosidad o indeterminación objetiva, no en el sentido de que los hechos sean

confusos, pero sí en el de que entre los géneros naturales hay a menudo formas de

transición. Estas formas de transición impiden una demarcación tajante, dan lugar a

vaguedad conceptual y pueden arruinar incluso clasificaciones" (14). Pero este problema

no lo resuelve un continuum donde el fenómeno se ubica entre dos tipos ideales, a lo

Weber, puesto que volvemos al mismo argumento anterior.

2.6.5. DETERMINACIÓN DIALÉCTICA Y EPISTEMOLOGÍA DE LA CIENCIA El punto de arranque es que la distinción entre lógica formal y lógica dialéctica es

inoficiosa y, por lo tanto, improductiva como idea científica. Pero la intención

"representacionista" de Hegel, la dialéctica como estructura de la realidad, es fructífera en

cuanto hipótesis de "un modo de ser de la realidad misma"; y en ese sentido, es válida

como esquema presuposicional de determinación que es plausible de contrastar

empíricamente para obtener evidencia a su favor.

De hecho, la reflexión contemporánea de la filosofía de la ciencia incluye entre los tipos de

determinación, la determinación dialéctica, y la expone del siguiente modo: "Determinación

dialéctica (o autodeterminación cualitativa): de la totalidad del proceso por la «lucha»

interna y por la eventual síntesis subsiguiente de sus componentes esenciales opuestos.

Ejemplo: a) los cambios de estado de la materia a nivel macroscópico se producen por el

juego recíproco y predominio final de dos tendencias opuestas: la agitación térmica y la

atracción molecular; b) los intereses en conflicto de los grupos sociales determinan los

cambios de la propia estructura social de dichos grupos. Por oposición a la

autodeterminación cuantitativa, la dialéctica interna implica cambios cualitativos" (15).

Es decir, constituye una modalidad diferenciada de otras modalidades expresivas de la

determinación. Esta última, en general, es definida como "...aquella teoría ontológica

Page 108: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 94

cuyos componentes necesarios y suficientes son: El principio genético o principio de

productividad, según el cual nada puede surgir de la nada ni convertirse en nada; y el

principio de legalidad, según el cual nada sucede en forma incondicional ni completamente

irregular, o sea, de modo ilegal o arbitrario. Ambos principios pueden ser fundidos en uno

solo, a saber: Todo es determinado según leyes por alguna otra cosa, entendiéndose por

esta última las condiciones externas tanto como las internas del objeto en cuestión. Este

enunciado puede llamarse el principio de determinación. Se trata de un supuesto filosófico

de la ciencia, confirmado por los resultados de la investigación científica...Cualquier teoría

de la estructura, o del cambio, o de una y otro, que respete el principio de determinación

recibirá el nombre de determinista" (16).

De particular interés es la formulación de determinación como modo de devenir: "la tercera

acepción (del determinismo)...la forma (acto o proceso) en la cual un objeto adquiere una

propiedad" (Ibid, pág. 23). Esta idea fue desarrollada analíticamente de manera notable

por Marx, al afirmar que la sociedad cambia (en tanto "modo de producción") por el

proceso de la lucha de clases (clases que se reubican constantemente en posiciones

dominadas o dominantes según el control que tengan de los medios de producción), las

que concomitantemente alteran su fisonomía al alterarse el modo de producción (los

siervos pasan a ser obreros, etc.).

Afirmamos anteriormente que, en el caso de la dialéctica, el problema se resuelve sólo si

la tercera entidad, nuestro objeto en la formulación anterior, es de un nivel de realidad

distinto al nivel de los dos términos antitéticos (o aparentemente antitéticos) que incluye.

Ello incluye tres problemas: la distinción entre niveles de realidad; la distinción del status

lógico entre hipótesis; y, la distinción entre relaciones de los términos antitéticos. Toda las

teorías parciales, se apoyan en alguna opción hipotética de resolución de estos

problemas.

El primer problema es el de la distinción entre niveles de realidad, puesto que toda

hipótesis dialéctica está afirmando que el tercer término es de un nivel de realidad distinto

a los dos otros términos. La idea que la realidad no es una estructura homogénea y rígida

esta consagrada desde hace mucho. Cada nivel de realidad opera a base de un conjunto

de propiedades y leyes propias (lo cual muestra cuán absurdo es una formulación como

"La sociedad está esquizofrénica"); lo cual no impide afirmar que existen relaciones entre

niveles (17). Además, varios importantes principios metodológicos se desprenden de las

Page 109: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 95

dos hipótesis ontológicas anteriores, como: a) parsimonia de niveles; b) trascendencia de

niveles; c) nivel–origen; y, d) contigüidad de niveles (18).

A nivel disciplinario, sólo la investigación puede confirmar si la hipótesis dialéctica, in

concreto, es representativa de una estructura donde el tercer término pertenece a un nivel

superior contiguo al nivel que incluye los dos términos antitéticos. Cabe señalar, además,

que la estructura propuesta debe explicitar los dispositivos reguladores de esta relación

entre niveles.

El segundo problema es el de la forma. Se afirma que los términos antitéticos son reales,

de una forma antitética real. Sin embargo, por ejemplo, la agitación térmica y atracción a

nivel molecular son antitéticos en su relacionalidad, como procesos que desde puntos

polares convergen en un centro de "choque"; pero la morfología fenoménica no ha sido

esclarecida. En rigor, sólo es posible afirmar que A y ~ A son antitéticos en cuanto a su

fisonomía formal, pero empíricamente es probable que expresen una diferencia óntica y no

un antagonismo óntico, sino relacional (19). En general, es más razonable pensar en

términos antitéticos aparentes.

Un ejercicio como el siguiente podría esclarecer esta cuestión: Sea ~ A el opuesto de A.

Pero existe un problema previo: ¿Es probable encontrar en la realidad dos entidades

idénticas? La respuesta es no, inclusive a nivel atómico. Luego, dada la imposibilidad de

encontrar en la realidad A y A (2A), sino más bien la existencia de A y A’; entonces, del

mismo modo, no se podrá encontrar ~ A y otro ~ A, sino ~ A y ~ A’. Ahora bien, ¿cuál es la

plausibilidad de encontrar en algún fenómeno A y ~ A, una correspondencia estricta entre

opuestos?; ¿por qué no suponer que es más plausible la coexistencia de A y ~ A’ (o A’ y ~

A o A’’ y ~ A; etcétera)?

Ello deriva en la formulación de una hipótesis general que supone una semántica formal,

donde ~ A es el opuesto de A; mientras las hipótesis específicas suponen una semántica

empírica que afirma la improbabilidad de la coexistencia de A y ~ A.

El tercer problema es el de las variables cardinales o el problema de las magnitudes de los

términos antitéticos. Si la determinación dialéctica es la "lucha" entre contrarios, el

problema de la magnitud de éstos se torna relevante, pues supone algún grado de

predictibilidad acerca de la situación futura del tercer término "de estado".

Una propuesta preliminar para abordar el problema es la distinción entre una

determinación dialéctica simple y otra compleja, en tanto tipos. Así, se postula que la

determinación dialéctica simple es el postulado de plausibilidad de un estado con

Page 110: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 96

tendencia al equilibrio, o, al menos, un equilibrio que opera bajo ciertos parámetros

determinados (como la dialéctica agitación térmica v/s atracción molecular en el caso del

agua, cuyo estado es constante hasta los 100º); mientras que determinación dialéctica

compleja es el postulado acerca de la plausibilidad de estados con tendencia al des–

equilibrio (como en el caso de el estado del sistema "parlamento" donde es improbable

una representación proporcional entre oposición y oficialismo).

En suma, toda formulación hipotética de tipo "dialéctico", para ser procesada en el corpus

de la ciencia estricta, debe dar cuenta de estos tres problemas: nivel, forma y magnitud.

Finalmente, todo lo anterior presupone una lógica bivalente para la comunicación científica

de la hipótesis dialéctica y excluye la posibilidad de toda lógica dialéctica a lo Hegel. Valga

para los defensores del postulado de la dialectización de la lógica el consuelo de que la

ciencia es sólo un modo de comprender la realidad.

Notas

1. El presente artículo es uno de los resultados preliminares de un programa de

investigación en epistemología y metódica de la investigación social. El autor

agradece los valiosos comentarios de Juan Miguel Chávez, Germán Fierro y

Laurence Maxwell.

2. Kosik, K. Dialéctica de lo concreto, Ed. Grijalbo, México, 1989, pág. 29.

3. Hegel, G. Ciencia de la lógica, FCE, México, pág. 58.

4. Fierro, G. Aproximaciones al tema de la muerte en Hegel, Tesis de grado, UCV,

Valpo., pág. 6.

5. Hegel, G. Fenomenología del Espíritu, FCE, México, pág. 15.

6. Otero, E. El estilo antitético de pensamiento en la filosofía política moderna, Doc.

Doctorado en Filosofía, U. de Chile, pág. 1.

7. Hegel, G. Ciencia de la lógica, FCE, México, pág. 61.

8. Bunge, M. La investigación científica, Madrid, 1983, pág. 319.

9. Por ejemplo: Varela, F.; Coguen, J. The aritmethic of clousure en J. Cybernetics,

1978,8: 291-324; Varela, F. The extended calculus of indications interpreted as a

three-valued logic, en Notre Dame J. Formal Logic, 1979, 20:141-146 (citado en

Maturana, H. y Varela, F. De máquinas y seres vivos, Prefacio a la segunda edición,

Editorial Universitaria, Stgo., 1995.

10. Bunge, M. op. cit., pág. 718.

Page 111: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 97

11. Pérez de Guzmán, T. El modo de pensar sociológico: Una propuesta en Revista

Chilena de Temas Sociológicos, Nº 3, 1997, pág. 98.

12. Es más, la teoría sistémico autorreferencial "No concierne tampoco a la posibilidad,

hoy muy discutida, de una lógica de los sistemas autorreferenciales". Luhmann, N.

Sistemas sociales, Alianza Editorial, Madrid, 1991, pág. 36.

13. Barton, A. Concepto de espacio de atributos en sociología en Boudon, R. y

Lazarsfeld, P. Metodología de las ciencias sociales, Vol. I, Laia, Barcelona, pág.

216-218.

14. Bunge, M. op. cit., pág. 123.

15. Bunge, M. Causalidad, Eudeba, Buenos Aires, 1961, pág. 31.

16. Bunge, M. Causalidad. pág. 37 y 38.

17. Una solución al problema de cómo es esta relación es: "...los niveles superiores

arraigan en los inferiores" (Bunge, M. La investigación científica, pág. 321); muy

complementaria con esta otra "...los sistemas de un orden superior (más

emergentes) pueden ser de una complejidad menor que los sistemas de un orden

inferior, ya que estos últimos determinan la unidad y el número de elementos de los

que están constituidos" (Luhmann, N. Sistemas sociales, pág. 45).

18. Al respecto, consultar Bunge, M. op. cit., pág. 321 - 323.

19. Es lo denominado "tesis de la indiscernibilidad de los idénticos". Bunge, M. op. cit.,

pág. 335.

Page 112: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 98

2.7. EL ESTUDIO DE LA CIENCIA Y LOS PARADIGMAS DE THOMAS S. KHUN

2.7.1. CONOCIMIENTO CIENTÍFICO Podemos resumir las características del conocimiento científico en tres cualidades: el

conocimiento científico es general, social y legal. Lo fundamental, para que un

conocimiento pueda llamarse científico, es que tal conocimiento sea comunicado. El

conocimiento no comunicado de hecho, aunque en principio sea comunicable, no integra

el sistema científico al que por su naturaleza esta destinado.

La diferencia entre el conocimiento vulgar y el científico. La diferencia es que el

conocimiento vulgar es el conocimiento que se aprende naturalmente, y el conocimiento

científico es el conocimiento que se obtiene mediante el estudio y la investigación.

Concepto y características de la ciencia: El conocimiento científico, pues, se representa en

conglomerados de proposiciones agrupadas en torno de hipótesis, de leyes o de conjuntos

de leyes que buscan comprender ciertos sectores del universo. El modo en que estas

proposiciones se fundan unas en otras constituye su unidad lógica; el hecho de referirse a

un mismo sector del universo constituye su unidad temática. Una ciencia es, pues, una

agrupación de conocimientos científicos organizados entre sí sistemáticamente.

La ciencia como actividad metódica. La actividad del hombre de ciencia consiste, en

términos genéricos, en recopilar datos, elaborarlos, extraer de ellos conclusiones,

confrontar estas conclusiones con otros datos y con el resultado de otras investigaciones,

ordenar todas las conclusiones de un modo sistemático y exponerlas con precisión. Las

ciencias fácticas tienen como fuente principal la experiencia. Las ciencias formales tienen

como fuente básica el razonamiento.

2.7.2. MÉTODO El método científico sirve para adquirir o comprobar los conocimientos de la ciencia. El

método científico tiene por objeto averiguar la verdad de proposiciones. El método

deductivo es el que mejor se adapta a las ciencias formales, pero cumple un importante

papel en las empíricas. El método inductivo, a su vez, está especialmente destinado a las

ciencias fácticas y tiene también cierta injerencia (aunque menor) en las formales.

Page 113: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 99

El método de investigación para el conocimiento de la realidad observable, que consiste

en formularse interrogantes sobre esa realidad, con base en la teoría ya existente,

tratando de hallar soluciones a los problemas planteados. El método científico (MTC) se

basa en la recopilación de datos, su ordenamiento y su posterior análisis.

Pasos del Método Científico: Observación: el primer paso es la observación de una parte limitada del universo o

población que constituye la muestra. Anotación de lo observable, posterior ordenamiento,

tabulación y selección de los datos obtenidos, para quedarse con los más representativos.

Hipótesis: se desarrolla en esta etapa, el planteamiento de las hipótesis que expliquen los

hechos ocurridos (observados). Este paso intenta explicar la relación causa – efecto entre

los hechos. Para buscar la relación causa – efecto se utiliza la analogía y el método

inductivo. La HP debe estar de acuerdo con lo que se pretende explicar (atingencia) y no

se debe contraponer a otras HP generales ya aceptadas.

La HP debe tener matices predictivos, si es posible. Cuanto más simple sea, mas

fácilmente demostrable (las HP complejas, generalmente son reformulables a dos o más

HP simples). La HP debe poder ser comprobable experimentalmente por otros

investigadores, o sea ser reproducible. Experimentación: la hipótesis debe ser

comprobada en estudios controlados, con autentica veracidad.

Hipótesis en Investigación: Hipótesis significa literalmente "lo que se supone". Está compuesta por enunciados

teóricos probables, referentes a variables o relaciones entre ellas. En el campo de la

investigación, la hipótesis, supone soluciones probables al problema de estudio. El

proceso estadístico se basa en la comprobación de hipótesis (HP).

Existen dos tipos de HP, a saber: HP. Alterna o Científica: es la HP que pretende comprobar el investigador en su muestra

de pacientes. Básicamente significa que la media de una característica o propiedad de un

grupo es diferente a la media del otro grupo o grupos, o que la distribución y frecuencia de

un evento en un grupo es diferente del otro. H1 : grupo 1 grupo 2 HP. Nula: es lo contrario

de la anterior, o sea que no existen diferencias entre dos o más grupos o muestras. H0 :

grupo 1 = grupo 2. El valor de p es entonces la medida de la evidencia contra la

H0.Cuanto menor sea el valor de p, menor será la posibilidad de que la HP. Nula sea

cierta, por lo cual se rechazará, aceptando a la HP. Científica como verdadera.

Método Deductivo:

Page 114: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 100

El ejemplo clásico de la deducción es el silogismo. Podríamos, pues definir "deducción"

(válida, se entiende) como un razonamiento tal que, a partir de proposiciones verdaderas,

garantiza la verdad de su conclusión. La verdad de la conclusión se obtiene bajo dos

condiciones: la verdad de las premisas y la validez de la inferencia.

Método Inductivo: El razonamiento inductivo, pues, ya que de él se trata, conduce a una conclusión más o

menos probable, pero no otorga garantía completa acerca de la verdad de ésta. Esto de la

falta de garantía hace que una inducción ( a diferencia de la deducción válida) pueda llevar

de premisas verdaderas a una conclusión falsa. El razonamiento inductivo se halla

siempre sujeto a refutación por la aparición de un nuevo dato. Hay quienes llaman

inducción al proceso psicológico de quien arriesga una hipótesis que sirve para subsumir

datos particulares en una ley general.

2.7.3. EL INDUCTIVISMO: LA CIENCIA COMO CONOCIMIENTO DERIVADO DE LOS HECHOS DE LA EXPERIENCIA Para el INDUCTIVISMO INGENUO, la ciencia se inicia con la OBSERVACIÓN. Para ello

se requiere que el observador científico tenga los órganos de los sentidos en condiciones

normales y esté libre de prejuicios. A los enunciados a los que se llega mediante la

observación se los conoce bajo la denominación de enunciados observacionales, de los

cuales se derivarán, mediante la generalización, teorías y leyes que constituirán el

conocimiento científico.

Podemos distinguir entre dos tipos de enunciados observacionales: (a) los singulares,

derivados de la observación de un determinado fenómeno, en un determinado momento y

lugar y (b) los generales, que hacen referencia a todos los acontecimientos de un

determinado tipo en todos los lugares y en todos los tiempos. Las leyes y teorías que

forman el conocimiento científico son enunciados de este tipo, que se llaman universales.

Las condiciones que deben cumplir los enunciados observacionales singulares para

establecer generalizaciones universales son tres y son las siguientes:

a) Que el número de enunciados observacionales sea grande, vale decir, no es

lícito establecer una generalización a partir de una sola observación. Se trata

de una condición necesaria.

b) Que las observaciones se repitan en una amplia variedad de condiciones.

Page 115: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 101

c) Que ningún enunciado observacional aceptado contradiga la ley universal

derivada. Ésta es una condición esencial. El tipo de razonamiento que nos

permite ir de los enunciados singulares a los universales, es decir, de la

parte al todo, se llama RAZONAMIENTO INDUCTIVO, y el proceso,

INDUCCIÓN.

2.7.4. EL PROBLEMA DE LA INDUCCIÓN La validez y la justificabilidad del principio de inducción pueden ponerse en duda. En

relación a la validez, se sostiene que las argumentaciones lógicas válidas se caracterizan

por el hecho que si la premisa es verdadera, la conclusión debe ser verdadera. Esto es lo

propio en las argumentaciones deductivas. Pero las argumentaciones inductivas no son

argumentaciones lógicamente válidas. Podría darse el caso de conclusiones falsas con

premisas verdaderas, sin que esto constituya una contradicción. Ejemplo: se observó en

repetidas ocasiones y en variadas circunstancias cuervos negros. Pero no hay garantías

lógicas que el próximo cuervo que se observe no sea rosa. Si así sucediera, la conclusión

"todos los cuervos son negros" sería falsa. Respecto a la justificabilidad, los inductivistas

emplean la inducción para justificar la inducción –lo que constituye una definición circular y

el denominado "problema de la inducción"-. La inducción no se puede justificar sobre

bases estrictamente lógicas.

Si bien la inducción funciona en algunas ocasiones, por ejemplo, en las leyes de la óptica

y del movimiento planetario, presenta algunas desventajas:

a)Determinar cuánto es "un número de enunciados observacionales grande".

b)Determinar cuánto es "una amplia variedad de circunstancias".

Un modo de atenuar la postura del inductivismo ingenuo consiste en recurrir a la

probabilidad: ya no se afirma que las generalizaciones a las que se han arribado mediante

la inducción sean perfectamente verdaderas, sino probablemente verdaderas. Esta

concepción sin embargo, mantiene las desventajas ya mencionadas. La Observación

Depende De La Teoría Se criticará el estatus y el papel que desempeña la propia

observación. El inductivismo ingenuo tiene dos supuestos en relación a la observación,

ambos falsos: La ciencia comienza con la observación. La observación da una base

segura para derivar el conocimiento.

Se sabe que dos personas que observen el mismo objeto desde el mismo lugar y en las

mismas circunstancias no tienen necesariamente idénticas experiencias visuales aunque

Page 116: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 102

las imágenes que se produzcan en sus retinas sean prácticamente idénticas. Lo que un

observador ve depende en parte de su cultura (su experiencia, sus expectativas, sus

conocimientos) y su estado general. Se suma a esto el hecho de que las teorías preceden

a los enunciados observacionales, es decir, los enunciados observacionales se hacen en

el lenguaje de alguna teoría. Por lo tanto, es falso que la ciencia comienza con la

observación.

Los enunciados observacionales son tan falibles como las teorías que presuponen y por lo

tanto el hecho de ser base completamente segura sobre la cual edificar leyes y teorías

científicas es erróneo. Para establecer la validez de un enunciado observacional es

necesario apelar a la teoría; las observaciones siempre se realizan a la luz de alguna

teoría.

Esta postura es contraria a la que sostienen los inductivistas, que ven en la observación la

fuente del conocimiento. Los inductivistas más modernos establecen una diferencia entre

el modo de descubrimiento de una teoría y su modo de justificación. Admiten que las

teorías se pueden concebir de distintas maneras, por ejemplo, tras un momento de

inspiración, accidentalmente o tras períodos de observaciones. Se sabe que usualmente

las teorías son concebidas antes de hacerse las observaciones que las comprueban. Para

los acérrimos defensores del inductivismo, las teorías sólo tienen sentido si se pueden

verificar mediante la observación. Pero no se puede mantener esta división tajante entre

teoría y observación ya que esta última está influida por la teoría.

Los paradigmas de Khun sostiene, básicamente, que no en todo momento se puede

hablar de progreso de la ciencia, ya que en ocasiones esta palabra carece de significado

discernible. En las ciencias, dice, se producen revoluciones, caracterizadas por el cambio

del paradigma.

Los paradigmas cumplen una función positiva y otra negativa. La positiva consiste en

determinar las direcciones en las que ha de desarrollarse la ciencia normal, por medio de

la propuesta de enigmas a resolver dentro del contexto de las teorías aceptadas. La

función negativa del paradigma es la de establecer los límites de lo que ha de

considerarse ciencia durante el tiempo de su predominio. Khun sostiene que cada

paradigma delimita el campo de los problemas que pueden plantearse, con tal fuerza que

aquellos que caen fuera del campo de aplicación del paradigma ni siquiera se advierten.

Los paradigmas cambian de un modo semejante ( aunque en gran escala) al de las

hipótesis científicas. En los periodos de ciencia normal aparecen anomalías que las

Page 117: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 103

teorías integrantes del paradigma no consiguen explicar. Durante un tiempo tales

anomalías no se observan, o no se les presta atención; después se busca su solución

mediante nuevas teorías que puedan insertarse en el paradigma vigente y, por último, ante

el fracaso de ese intento, se proponen nuevos paradigmas.

Lo que caracteriza a la teoría de Khun es la afirmación de que los paradigmas no son

conmensurables; es decir que las teorías que se inscriben en un paradigma no pueden

traducirse en términos de las teorías que forman el paradigma posterior: cada revolución

científica es un cambio total de la percepción del mundo.

En defecto, el único progreso científico consiste, para Khun, en el trabajo que cumple la

ciencia normal para responder a las preguntas que genera su propio paradigma: pero la

palabra "progreso" es inútil para describir los cambios del paradigma, ya que éstos son

incomparables entre sí. Por otra parte el método científico sólo tiene cabida dentro de

cada período de ciencia normal, ya que las revoluciones científicas no ocurren

metódicamente.

2.7.5. LOS PARADIGMAS DE KHUN Un rasgo característico de su concepción es la importancia dada al carácter revolucionario

del progreso científico, donde una revolución implica el abandono de una estructura

teórica y su reemplazo por otra, incompatible con la anterior. Lakatos y Kuhn tienen puntos

en común: ambas concepciones filosóficas deben resistir a las críticas basadas en la

historia de la ciencia. Se debe tener en cuenta que la concepción kuhniana es anterior a la

lakatosiana. Por otra parte, la postura kuhniana se diferencia de la lakatosiana en el

hincapié que hace el primero en los factores sociológicos. Thomas Kuhn expresa su idea

acerca del progreso de la ciencia por medio del siguiente esquema abierto: {Presencia –

Ciencia Normal – Crisis – Revolución – Nueva Ciencia Normal – Nueva Crisis}

Introduce la noción de Paradigma, el cual está constituido por supuestos teóricos, leyes y

técnicas de aplicación que deberán adoptar los científicos que se mueven dentro de una

determinada comunidad científica. Los que trabajan dentro de un paradigma, ponen en

práctica la ciencia normal. Es probable que al trabajar en ella, que desarrollará el

paradigma en su intento por explicar el comportamiento de aspectos del mundo, resulten

dificultades (por ejemplo, se encuentren con aparentes falsaciones).

Si estas dificultades se hacen inmanejables, se desarrollará un estado de crisis. Ésta se

resolverá con el surgimiento de un paradigma totalmente nuevo, el cual cobrará cada vez

Page 118: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 104

mayor adhesión por parte de la comunidad científica, hasta que finalmente se abandone el

paradigma original. Este cambio discontinuo entre paradigmas constituye una revolución

científica. El nuevo paradigma enmarcará la nueva actividad científica normal, hasta que

choque con dificultades y se produzca una nueva crisis y una nueva revolución. Una CIENCIA MADURA se rige por un solo paradigma, quien establece las normas que

dan legitimidad al trabajo que se realiza dentro de la ciencia que rige, incluyendo la

resolución de problemas que se presentan. Para Kuhn, será justamente la existencia de

un paradigma que pueda apoyar una tradición de ciencia normal lo que establecerá la

diferencia entre lo que es CIENCIA y lo que no lo es. Carecer de paradigma implica no

poseer el estatus de ciencia.

Los paradigmas están compuestos por: leyes explícitamente establecidas, supuestos

teóricos, maneras normales de aplicación de las leyes, instrumental y técnicas

instrumentales, prescripciones metodológicas muy generales y como componente

adicional, algunos principios metafísicos muy generales.

La CIENCIA NORMAL es descripta por Kuhn como una actividad de resolver problemas

gobernada por las reglas del paradigma en cuestión. El paradigma deberá proveer los

medios para solucionar los problemas que en él se formulan. Aquellos problemas que no

puedan ser solucionados, serán entendidos como anomalías y como fracasos del

científico, más que como falsaciones e insuficiencias del paradigma. Kuhn reconoce que

todos los paradigmas contienen algunas anomalías y sostiene además que un científico

normal no debe criticar el paradigma en el cual se encuentra trabajando.

Lo que diferencia a la CIENCIA NORMAL, madura, de la PRECIENCIA, inmadura, es la

falta de acuerdo en lo fundamental. La Presencia se caracteriza por el total desacuerdo y

el constante debate de lo fundamental, llegándose a establecer casi tantas teorías como

teóricos haya trabajando.

La existencia de problemas sin resolver dentro de un paradigma no constituye en sí una

crisis. Se sabe que en los paradigmas siempre habrá anomalías. Las anomalías pueden

desarrollarse de modo tal que le resten confianza, es decir, que afecte los fundamentos

del paradigma. En esta situación estamos ante una crisis. La misma comienza a

manifestarse con un período de "inseguridad profesional marcada": se intentará defender

los nuevos argumentos y el descontento respecto al paradigma en el cual se está

trabajando aparecerá.

Page 119: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 105

La crisis se agravará si aparece en escena un paradigma rival. El nuevo paradigma será

distinto e incompatible con su predecesor; constituyen ópticas diferentes del mundo y será

adoptado no por un solo científico en particular sino por la comunidad científica en su

totalidad.

Para Kuhn, su concepción acerca de la ciencia es una teoría y no una descripción en la

medida que explicita las funciones que tienen sus componentes. Reconoce que las

funciones de LA CIENCIA NORMAL Y LAS REVOLUCIONES son necesarias: mientras se

está en período de Ciencia Normal, se pueden desarrollar los detalles de las teorías,

resolver problemas y realizar trabajos teóricos y experimentales. Se requiere que, en cierta

medida, la ciencia normal sea acrítica; de lo contrario, se estaría permanentemente

discutiendo la licitud de los supuestos y métodos y no se llegaría a realizar trabajos

detallados.

Las Revoluciones son la oportunidad de pasar de un paradigma a otro mejor. Si se

desarrolla una crisis, el pasaje de un paradigma a otro se hace necesario, y este paso es

esencial para el progreso de la ciencia. Si no hubiera "revoluciones", la ciencia quedaría

atrapada en un solo paradigma y no se avanzaría más allá de él, lo que constituiría para

Kuhn un grave defecto.

El progreso de la ciencia de Khun: A continuación reseñaremos en forma de tesis las

características que Khun atribuye al progreso de las ciencias. La ciencia normal es

acumulativa. La actividad científica normal, regida por un "paradigma" , consiste

fundamentalmente en ampliar el conocimiento de los hechos que el paradigma delimita

como relevantes, en extender la adecuación entre las predicciones del paradigma y los

hechos y en articular cada vez mejor el propio paradigma.

El desarrollo de una ciencia consiste en una sucesión de períodos de tradición

eslabonados por rupturas no acumulativas. El progreso a través de las revoluciones sólo

se da si, ante la competencia de al menos dos paradigmas, uno de ellos obtiene la

aceptación de la comunidad científica. El progreso es nota exclusiva de la ciencia madura.

El desarrollo de la ciencia es distinto al de otros campos y sólo tiene lugar cuando la

ciencia alcanza la "madurez", a la cual se arriba cuando emergen de la teoría técnicas

predictivas exitosas y cada vez mejores.

El progreso a través de las revoluciones tiende a enmascararse como acumulativo. El

progreso no es continuo. Ya hemos dicho que las revoluciones constituyen auténticos

hiatos o discontinuidades en el desarrollo de las ciencias.

Page 120: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 106

No es acercamiento a la verdad. El progreso no es una evolución hacia un objetivo

determinado sino, a lo sumo, un mejoramiento desde el conocimiento disponible; lo más

que puede afirmarse es que cada paradigma nuevo es un instrumento mejor para resolver

enigmas.

Fuente Extraída de la pagina www.lafacu.com y del libro Introducción al Conocimiento

Científico ( Eudeba ).

Trabajo enviado por:

Eduardo Daniel Arce [email protected]

http://www.monografias.com/trabajos7/parad/parad.shtml

Page 121: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 107

2.8. RECURSOS PARA LA INVESTIGACIÓN SISTÉMICO/CONSTRUCTIVISTA

Marcelo Arnold Cathalifaud

2.8.1. INTRODUCCIÓN No se pueden ignorar por más tiempo las renovaciones epistemológicas que sacuden las

ciencias humanas y sociales (2). Redefinir nuestro quehacer en tanto observadores de

sistemas complejos, y no triviales, que observan y operan en realidades que ellos mismos

construyen, es el principal desafío para la investigación social contemporánea.

Toda observación � cotidiana y científica � representa, por parte de su observador,

aplicaciones de esquemas de diferencias que le permiten identificar / describir una

realidad. Tal información le vale como horizonte para nuevas acciones y experiencias, es

decir, tiene un valor informativo.

Cuando la aplicación de la observación es reiterada genera la ilusión de la estabilidad;

cuando ésta modifica sus formas construye una nueva realidad. Las distinciones que se

aplican en la observación están abiertas a la observación externa, en tanto puedan ser

realizadas en el lenguaje.

En lo que sigue puntualizaremos algunos avances en el campo de una metodología,

orientada por los principios epistemológicos constructivistas, que se hacen cargo de estos

desafíos y que corresponden a la denominada observación de segundo orden.

2.8.2. LA OBSERVACIÓN DE SEGUNDO ORDEN Un observador de segundo orden es un tipo de observador externo, orientado a la

observación de observadores y sus respectivas observaciones. Desde su posición no sólo

puede observar lo que sus observados indican y describen �el qué observan� , sino

también, captar los esquemas de diferencias con que marcan tales observaciones y trazan

sus distinciones �el cómo observan.

Su perspectiva es privilegiada: un observador no puede observar por sí mismo, en su

perspectiva interna y sin ayuda, sus propios esquemas de distinción, es decir, precisar

cómo él ve lo que ve, cuando está viendo (3). Esto obliga al investigador a observar

diferencias con esquemas de diferencias propios y desarrollar la capacidad para distinguir

entre ambos (4).

Page 122: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 108

Por otra parte, el observador de segundo orden, al observar conjuntos de descripciones

puede combinar puntos de vista y con ello relevar lo que sus observados, desde sus

parcialidades, no pueden ver, es decir, identificar estructuras latentes.

Estas últimas son ciegas para sus usuarios, así la latencia refiere a las posibilidades de

observar y describir lo que otro(s) observador(es) no puede(n) observar ni describir, aun lo

que es provocado por su propia concurrencia. Es decir, el efecto constituyente de realidad

que resulta de la aplicación de sus propios esquemas de diferencia.

Desde la siguiente figura se puede apreciar mejor la posición que adscribimos al

observador de segundo orden:

Imagen 7: Ejemplo de observación

Como se aprecia, el objetivo de la nueva ciencia consiste en pasar de una investigación

tradicional, orientada a "objetos", a la de observar observadores que en su operar

construyen los mundos en los cuales se desenvuelven. Para ello debemos penetrar en la

retícula y formas donde se seleccionan observaciones con valor informativo.

Se debe poner atención que estas ideas proyectan en una redefinición del quehacer de la

investigación social, en cuanto sistema de observación de sistemas observadores (von

Foerster 1990). Trastocando no sólo el tipo esperado de investigación científica, sino,

también, las formas deseables de explicación, es decir, la gramática que se imprime para

la lectura de conjuntos de distinciones (Bateson 1993).

Page 123: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 109

En este punto, los enfoques sistémico/constructivistas se entroncan con los ideacionales

acerca de la cultura. En efecto, esas perspectivas convergen en una teoría de la

observación, en tanto su atención está por el lado de los sistemas observadores y sus

recursos. Es decir, las normas con arreglo a las cuales se observa (se distinguen),

organiza (construye la diferencia), valora (prioriza) y da sentido al ambiente cotidiano. En

otras palabras, representaciones que nos remiten a los modos de entendimiento y de

comunicación, mediante los cuales se construye la realidad del mundo vivido

cotidianamente �Lebenswelt.

2.8.3. EL DOMINIO DE INVESTIGACIÓN SISTÉMICO/CONSTRUCTIVISTA Bajo tal marco podemos apoyarnos en perspectivas teóricas, métodos y técnicas

orientadas a la investigación de las categorías, significados y ordenes simbólicos

constituyentes de lo que denominamos realidad. Entre ellas, las que mejor empalman con

la observación de segundo orden son las de tipo semiótico y cognoscitivo (5). Estas

postulan que los sistemas observadores �humanos y sociales � están suspendidos en

redes de significaciones, coparticipativamente producidas y externalizadas a través del

lenguaje, que constituyen sus horizontes de realidad (6).

Desde esta posición se experimenta la cultura como continente de comunicaciones

recursivas, basadas en la aplicación de esquemas de distinción. Se acceden las

distinciones en tanto éstas pueden ser observadas externamente, estabilizadas y

organizadas por el lenguaje en entidades tales como palabras y frases. A través de ellas

podemos rescatar los esquemas de diferencias que determinan las concepciones

�construcciones de realidad.

Como se puede apreciar, la constancia de los "objetos" es sustituida, en el nuevo

paradigma, por la de los medios de observación. En el fondo, la investigación

sistémica/constructivista persigue recrear, planificadamente, los mismos procesos que

acontecen cuando son socializadas las nuevas generaciones, durante la integración de

inmigrantes o mientras quienes ingresan, por primera vez, a una organización son

sometidos al proceso de inducción. En todos estos casos se aprende a distinguir

"correctamente" �calibrar observaciones.

En el plano investigativo dimensiones del ver y leer cotidiano, que responden a

interrogantes del tipo ¿cómo se observan y organizan los entornos desde sistemas

observadores? (etnocogniciones), ¿cuáles son los conocimientos del ambiente que sirven

Page 124: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 110

de base a la objetividad cotidiana? (etnoconocimientos), resultan ser de suma relevancia

(Arnold 1991).

2.8.4. ORIENTACIONES PARA LAS NUEVAS METODOLOGÍAS Dentro de las actuales prioridades está, justamente, la de enfilar técnicas e instrumentos,

en coherencia con las nuevas orientaciones que oponemos a las tradicionales en el

siguiente cuadro:

Tabla 2: Características de las Macroorientaciones Metodológicas

Tradicional Sistémica/Constructivista

Elemental (analítica) Complejidad (holismo)

Lineal (causal) Retroacciones (redes)

Legal (trivializante) Contingente (abierta a la novedad)

Distributiva/Algorítmica Distintiva/Cualitativa

Muestras Estadísticas Muestras Estructurales

Estímulo-Respuesta Interpretativa De las indicaciones presentadas arriba, pueden ser destacados los siguientes aspectos

para ser tomados en cuenta por los investigadores:

a) Una investigación debe dirigirse hacia la identificación de conjuntos relacionados de

distinciones y no sólo a la reducción analítica y causal de componentes y procesos

aislados. Con enfoques no aditivos, los registros se ajustan al ritmo de los observados

respetando sus propias configuraciones. Subyace a esta opción el principio que el todo

emergente es diferente a sus partes (sinergia).

b) Las mejores explicaciones para fenómenos complejos se alcanzan observando

atentamente procesos dinámicos en mutua afectación, es decir, redes de

retroalimentaciones de observaciones que se sostienen unas a otras. El principio aquí es

la flexibilidad y, a la vez, sostener la externalidad de la observación.

c) La investigación debe ser aplicable a esquemas contingentes, complejos, múltiples,

variados y heterogéneos que cubren gran parte de la emergencia de expresiones sociales,

culturales y personales. No se trata de comprobar nada por la vía del congelamiento de

realidades efímeras.

Page 125: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 111

d) Si bien algunas técnicas estadísticas como el cluster analysis y las estimaciones no-

lineales apuntan a redes de relaciones, éstas sólo resultan adecuadas para procesos

triviales. Por ello los procedimientos aplicados a sistemas complejos y que se dirigen a la

determinación de rasgos distintivos y relevamientos de organicidades, siguen siendo

básicamente cualitativos.

e) Interesa recoger la franja ancha de distinciones hasta alcanzar sus márgenes. En

consecuencia, ningún observador puede ignorarse aduciendo su baja presencia. El

muestreo, con el cual seleccionamos a nuestros interlocutores, debe ser estructural. Para

ello se deben identificar los distintos ángulos/voceros de la comunicación y buscar su

representación.

f) La identificación de rasgos distintivos proyecta la investigación hacia las elaboraciones

de sentido y sus interpretaciones. Estos problemas difícilmente pueden abordarse bajo el

marco, temporalmente limitado, en que opera la lógica cuantitativa de

alternativas/respuestas.

Sobre esta esquematización, que traza diferencias entre una u otra estrategia, se

despliega el ambiente donde se mueve gran parte de las opciones metodológicas que

caen bajo el rótulo de observación de segundo orden. Sus instrumentarios privilegian el

reconocimiento, desde el punto de vista de sus miembros, de sus distinciones

significativas, validadas por ellos mismos, que permiten describir �registrar/inscribir� una

cultura a partir de las categorías descriptivas de sus descriptores.

La explicabilidad, operación secundaria, puede ser abordada con idéntica estrategia,

creando ambientes para devolver las múltiples descripciones �los diversos puntos de

vista� , para que los observados reintroduzcan, ante nosotros, sus distinciones y elaboren

explicaciones �interpretaciones� sobre ellas. Estas pueden estar en calidad de material

elaborado en temas que agrupen ámbitos importantes de sus temas comunicativos y que

pueden, o no, estar dentro de su autoconciencia.

Se aprecia, por tanto, que la objetividad que nos interesa, en principio, es la que

coproducen y sostienen nuestros observados (7). En este campo, la validez está sujeta a

un contexto que la define como tal �no es ontológica y sí contingente.

2.8.5. METODOLOGÍAS APROPIADAS Tales complejidades obligan a restablecer un diálogo con las metodologías disponibles; de

ellas se requiere apoyos con procedimientos que pongan acento en la identificación y

Page 126: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 112

descripción de operatorias mediante las cuales las comunidades humanas (8) absorben,

organizan y describen sus experiencias. Se trata de reconvertir tecnologías de

investigación positivistas, redirigiéndolas a la aprehensión del sentido y descripción de las

categorías donde se incuban las posibilidades de observación de nuestros grupos de

interés y las formas que dan cuenta de ellas. De esta manera lo esencial concierne a la

determinación de los medios mediante los cuales se distinguen "cosas" y "eventos", tal

como se realizan desde los sistemas observados. Por lo tanto la principal interrogante a

plantear es: ¿qué operaciones de distinción son necesarias para observar lo que nuestros observad os indican y describen?

Parte de esta tarea puede realizarse con procedimientos característicos del trabajo de

campo antropológico (vid. Junker, B. 1972; Tylor, S.J. et al. 1990) y de la sociología

cualitativa. De ellos podemos mencionar algunas técnicas, ya consagradas:

Tabla 3: Técnicas y procedimientos de investigación

Técnicas Procedimientos

Observación participante

Prescribe una inclusión consciente y planificada, hasta donde lo permiten las circunstancias, en la cotidianeidad de los grupos en estudio (Bruyn, S.1972)

Documentos personales

Exponen la cultura desde el punto de vista de sus intérpretes (Langness, L. 1965)

Historias orales Externalizaciones de la memoria colectiva de sistemas sociales locales (Samuel, R.1982)

Entrevistas etnográficas o en profundidad

Bajo el marco de eventos comunicativos controlados, pero no directivos, se aprehenden, desde interlocutores individuales, los sistemas culturales en sus propios términos (Spradley, J.P.1979)

Grupos focales; de autodiagnóstico y de discusión

La "información" se provoca en espacios abiertos de conversaciones asistidas (Morgan, D.L. 1988; Ibáñez, J.1991; Burgess, R.1982)

Método Delphi Fórmulas que reintroducen sistemáticamente comunicaciones develando una red de distinciones (Linstone, A. et al. 1975)

Con tales instrumentos, u otros equivalentes, se pueden relevar etnografías que permiten

acceder a los esquemas de distinción y compenetrarnos en las mallas (selectividad) de

observación que nos interesan. Ellos dan la posibilidad de interceptar comunicaciones y

adentrarnos en los fundamentos de una cultura. De cualquier modo, su utilización exige

Page 127: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 113

una concentración prolongada de los investigadores y someter, permanentemente, sus

identificaciones a miradas desde distintos ángulos y perspectivas (9).

Los instrumentos de investigación deben ser contribuyentes para observaciones que

apuntan a desentrañar las formas del ver y del leer cotidiano �en vistas a las operaciones

en que basan sus observaciones. Su aplicación debe permitirnos generar ambientes

donde los medios de observación puedan ser rescatados en juegos comunicativos. Estos

van desde la conversación asistida (tipo entrevista terapéutica) hasta el grupo de discusión

(en el sentido de J.Ibáñez), donde las premisas del investigador quedan suspendidas en la

contingencia y toda comunicación es posible. En este punto es importante volver a retomar

las exigencias de la observación externa: el investigador debe intentar, en lo posible, estar

frente a sus interlocutores como si no estuviera presente (el hablar vago es uno de sus

recursos).

Es pertinente destacar que los esquemas de distinción que interesan en la investigación

social sistémica son los compartidos: encajes o acoplamientos (10) que se implican en

procesos sociales cotidianos. Un problema consiguiente consiste en cómo poder describir

lo social a partir de superar su interlocución individual.

El individualismo, que siempre tiene gran atracción para la investigación social, es

reforzado por baterías de instrumentos destinados para interpelar individuos

(cuestionarios, test, entrevistas, etc.), pero no resulta ser lo más adecuado. Las

comunicaciones de los sistemas sociales se representan a través de sistemas personales,

pero debe tenerse en cuenta que se trata de sistemas distintos. Los individuos, muchas

veces, colocan sus observaciones en contradicción con las de su grupo, comunidad o

sociedad originando tensiones que llegan a cambiar la misma cultura. El proceso contrario

es suficientemente conocido.

Por ello, si se toman individuos como centros de observación, no es para rescatar sus

perspectivas idiosincrásicas, sino como usuarios de los medios observacionales e

interpretativos disponibles en el repertorio de sus comunidades. Debido a ello cuando se

trata de muestras, en la observación de segundo orden son decididamente intencionadas,

respondiendo a criterios socioestructurales delimitados por el investigador.

Actualmente una de las mayores debilidades de la estrategia investigativa

sistémica/constructivista se encuentra en sus posibilidades para procesar la información

compilada. En este punto, existen grietas de implicancias muy severas. Las alternativas

disponibles son abiertamente insatisfactorias. La reducción analítica y cuantitativa se

Page 128: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 114

deben desechar por la incierta síntesis que resulta de su aplicación; y la representación

testimonial, que en su afán de ser lo más fiel posible a las fuentes se reduce a la mera

transcripción de comunicaciones orales al papel, no es científicamente admisible, más allá

de material en "bruto".

Un abordaje a este problema parte por precisar requisitos que deberían contar las técnicas

sistémicas de procesamiento de información. Sobre estas no hay acuerdos pero, al

menos, se podría decir que en lo fundamental deben trabajar selectividades reversibles y

ordenamientos múltiples. En definitiva, cautelando la apertura para otras posibilidades de

reprocesamientos.

Algunos procedimientos, en tal sentido, pueden ser recomendados:

• Construcción de modelos que expresen relaciones a través de grafos, diagramas de

flujos y modelos como los que se aplican en el diseño de sistemas inteligentes.

• Procedimientos inductivos para el desarrollo de modelos (etno) teóricos (vid.

Glasser, B y A. Strauss, 1967).

• Reducciones tipológicas cualitativas (vid. McKinney, J.1972) y,

• la construcción de sistemas categoriales a partir del análisis de contenidos

comunicacionales (vid. Krippendorff, K.1990). Con respecto a éstos últimos, pueden

ser considerados desde el análisis de discursos (Ibáñez, J. op.cit.) hasta el análisis

componencial.

Por cierto, todo lo anterior debe ser complementado con indicaciones acerca de los

aspectos a considerar como criterios de validación. Sobre este tema nos extenderemos en

adelante.

2.8.6. CRITERIOS DE VALIDEZ PARA LA INVESTIGACIÓN DE SEGUNDO ORDEN La observación de segundo orden conlleva su propia selectividad. La pertinencia de sus

observaciones sólo parcialmente puede ser evaluada por su concordancia con la de los

observados �"las cosas son concebidas así por ustedes". Una interpretación científica

también es una construcción. Para el caso de las ciencias sociales, es una pauta

configurada, una explicación, un orden de experiencias ajenas hechas propias.

Las explicaciones sustentadas en las observaciones de segundo orden, científicamente

encauzadas, se valoran por su conectividad con explicaciones relacionadas en un orden

superior (teorías, hipótesis, etc.). Es allí donde se produce el despegue y Minerva hace su

aparición. Al dejar de ser la verdad un argumento de explicabilidad, dado que ésta es

Page 129: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 115

contextual, y al no poder afirmarse algo, en la exterioridad de la naturaleza, como punto de

confrontación para aceptar o rechazar una explicación científica, es imperativo reelaborar

los criterios para la validación de los resultados de una investigación guiada bajo los

principios del segundo orden. Estas deben ser coherentes con la naturaleza descrita para

toda observación.

Maturana (1995), que ha avanzado mucho en el campo de la construcción de los criterios

de validación en la investigación constructivista, concluye que sólo se aceptan como

explicaciones científicas válidas aquellas que resultan de la aplicación de los criterios de

validez generados por las comunidades científicas (11).

Para finalizar, no podemos dejar de mencionar otro tipo de condicionante que interesa de

sobremanera al investigador social que trabaja en esta línea.

La observación/descripción científicamente pertinente tiene tres lecturas, cada una de las

cuales imponen sus condiciones:

1. Los sistemas sociales de la cual proviene (las comunidades observadas),

2. los que la requieren como input (nuestros patrocinadores [12]) y,

3. el sistema ciencia a la cual definitivamente pertenecen.

En el primer caso la confiabilidad se encuentra en el autorreconocimiento del sistema

observado en la descripción; para el segundo en estudios que proporcionan información

para mantener la performatividad de algún sistema �evaluaciones, diagnósticos, por

ejemplo� y para la ciencia en la transparencia del cumplimiento del canon científico

vigente lo cual puede implicar, incluso, apelaciones causales, es decir, condiciones

especificadas de criterios de explicabilidad.

En esta presentación nos hemos centrado en la comunicabilidad científica de la

investigación sistémico/constructivista, intentando asegurar que la renovación tenga el

rigor suficiente para su aceptabilidad en nuestras comunidades, pero nuestros propósitos

incluyen traspasar ese ambiente y orientarnos hacia los otros destinatarios, que sin duda

esperan del conocimiento contribuciones que apoyen la optimización de sus actuales

condiciones de operación. En ese último camino, sin duda, encontramos avances

paralelos, por ejemplo en las líneas de la llamada investigación-acción, evaluación

iluminativa, estudios cualitativos de opinión pública, estrategias derivadas del

etnodesarrollo, educación popular, comunicación alternativa y la planificación estratégica

organizacional. En todos estos casos la perspectiva autorreferencial, de la que hemos

hablado, se aplica sin más, incluso sin tener que ser reconocida como tal. Otra prueba de

Page 130: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 116

la potencia y "naturalidad" práctica de la anunciada renovación a la que nos hemos

referido aquí.

Finalmente, con respecto a nuestras interrogantes iniciales podemos indicar que es

posible reelaborar algunos de nuestros métodos de investigación tradicionales para

enfilarlos en las nuevas rutas, aunque aún hay mucho camino por recorrer.

2.8.7. ANEXOS, PASOS Y PROCEDIMIENTOS DE INVESTIGACIÓN TEMA. Selección del espacio de comunicación de interés o TEMA (la selección puede ser

motivada externa o internamente al equipo investigador; puede incluir un gran tema o

varios temas). En esta etapa se delimitan las cotas comunicativas del estudio.

EQUIPO. Organización de los observadores. Se debe garantizar las bases mínimas que

aseguran la presencia de una pluralidad de miradas y perspectivas. En este punto se

definen las cotas estructurales del grupo observador.

UNIVERSO. Selección y caracterización del ámbito social en donde se deben/pueden

explorar los TEMAS (esto incluye consideraciones etarias, de estratificación social,

educacionales, residenciales, de género, etc.). En esta etapa se delimitan las cotas

sociales del estudio (13).

MUESTRA. Muestreo estructural e intencional para seleccionar los interpelados o

informantes claves (esto implica estimaciones acerca su distribución y pesos específicos).

En esta etapa se delimitan las cotas de las aportaciones temáticas que se incluirán en el

estudio.

PROCEDIMIENTOS. Selección de las técnicas, delineamiento de las líneas de indagación

con las cuales se estimulará la comunicación y aplicación de los procedimientos (es

recomendable una prueba antes de extender el estudio). En esta fase quedan definidos

los filtros comunicativos del estudio.

ANÁLISIS. Parte del registro íntegro de las comunicaciones, digitación para darles formato

de texto y selección del tipo de Análisis del Contenido (de una u otra manera ello implica la

desagregación de los discursos individuales y/o grupales) y su reagrupación en sub-

temas.

PROCESAMIENTO. Reorganización de los sub-temas en función del reconocimiento de

las distinciones detectadas (puede ayudarse con preguntas como las siguientes: ¿qué

distinciones sostienen los TEMAS tratados?; ¿qué distinciones sostienen las

APORTACIONES?; ¿mediante qué criterios se han seleccionado las informaciones?, etc.).

Page 131: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 117

PRESENTACIÓN. Reorganización de las distinciones identificadas bajo la forma de un

esquema del tipo diagrama de flujos y reconocer las relaciones que se evidencian �

cautelando su reversibilidad� (esta fase es crítica, pero muy creativa).

RETROINFORMACIÓN 1. Presentación del modelo representacional con sus respectivos

esquemas de distinción a representantes del ámbito social explorado (pueden realizarse

triangulaciones con otros expertos). Reformulación y establecimiento de hipótesis

explicativas (retroinformación: volver a 7).

COMUNICABILIDAD. La presentación definitiva debe considerar los intereses del

destinatario final.

2.8.8. REFERENCIAS

1. Arnold, M. y D.Rodríguez."Crisis y cambios en la ciencia social contemporánea". En

Revista Estudios Sociales, No 65, 1990, pp. 9-29.

2. Arnold, M. "Antropología Social aplicada en organizaciones económicas y

participacionales". En Revista Chilena de Antropología, No 10, 1991, pp. 81-95.

3. Bateson, G. Pasos hacia una ecología de la mente. Ed. Carlos Lohé, Buenos Aires,

1985.

4. Bateson, G. Espíritu y Naturaleza. Amorrortu Editores, Buenos Aires, 1993.

5. Blumer, H. Symbolic Interactionism: perspective and method. New York, 1969.

6. Burgess,R. "The Unstructured Interview as a Conversation". En Field Research: A

Sourcebook and Field Manual. Edited by Robert G. Burgess, George Allen & Unwin,

London, 1982, pp. 107-110.

7. Glaser, B.G. y A.L. Strauss. The Discovery of Grounded Theory. Chicago, Aldine

Publisching Company. 1967.

8. Ibáñez, J. El regreso del sujeto. La investigación social de segundo orden.

Amerinda, Santiago, 1991.

9. Junker,B. Introducción a las ciencias sociales. El trabajo de campo. Ediciones

Marymar, Buenos Aires, 1972.

10. Krippendorff, K. Metodología de análisis de contenido. Teoría y Práctica. Ediciones

Paidós, Barcelona, 1990.

11. Langness, L.L. The Life History in Anthropological Science. Rinehart & Winston

(ed.), New York, 1965.

Page 132: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 118

12. Linstone, A. y M. Turoff (ed.). The Delphi Method: Techniques and Applications.

Adisson Wesley, Massachusetts, 1975.

13. Luhmann, N. Sociología del riesgo. Universidad Iberoamericana / Universidad de

Guadalajara, México, 1992.

14. Luhmann, N. Teoría de la Sociedad. Universidad de Guadalajara/Universidad

Iberoamericana/Instituto Tecnológico y de Estudios Superiores de Occidente. 1993.

15. McKinney, J. Tipología constructiva y teoría social. Ed. Amorrortu, Buenos Aires,

1968.

16. Maturana, H. La realidad: ¿objetiva o construida?. ANTHOPOS, México, 1995.

17. Mead, G.H. Mind, Self and Society. Chicago: University of Chicago Press, 1934.

(hay versión en castellano).

18. Morgan, D.L. Focus group as qualitative Research. Sage Publications, California,

1988.

19. Pike, K. "Puntos de vista éticos y émicos para la descripción de la conducta", en

A.G.Smith (ed.) Comunicación y Cultura, Ed. Nueva Visión, Buenos Aires, 1972.

20. Rodríguez, D. y M. Arnold. Sociedad y Teoría de Sistemas. Ed. Universitaria,

Santiago de Chile, 1991.

21. Samuel, R. "Local History and Oral History". En Field Research: A Sourcebook and

Field Manual. Edited by Robert G. Burgess, George Allen & Unwin, London, 1982,

pp. 136-145.

22. Spradley, J.P.The Ethnographic Interview. Holt, Rinehart and Wiston, 1979.

23. Schmidt, S.J. Der Diskurs des radikalen Konstruktivismus. Franfurt aM. , Suhrkamp,

1987.

24. Spencer-Brown, G. Laws of Form. Allen & Unwin, Londres, 1979.

25. Taylor, S.J. y R. Bogdan. Introducción a los métodos cualitativos de investigación.

La búsqueda de significados. Ed. Paidós, Buenos Aires, 1990.

26. Turner, S.P. La explicación sociológica como traducción. Ed. Fondo de Cultura

Económica, México, 1984.

27. von Foerster, H. "Bases epistemológicas". En J. Ibáñez, Nuevos avances en la

investigación social. La investigación de segundo orden. Suplementos Anthropos

22, Barcelona, octubre de 1990.

2.8.9. NOTAS

Page 133: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 119

1. Este ensayo representa una continuidad y extensión de las reflexiones que hemos

publicado en "Cinta de Moebio Nº2" bajo el nombre de Introducción a las

Epistemologías Sistémico/Constructivistas (1997).

2. Cuyas fuentes de inspiración son autores tales como G. Bateson, P. Feyerabend,

H. von Foerster, E. von Glaserfeld, J. Ibáñez, T. Kühn, N. Luhmann, H. Maturana, K.

Pike, G. Spencer-Brown, F. Varela, P. Watzlawick entre otros. Todos ellos, pesar de

sus diferencias, han contribuido a generar una importante corriente renovadora de

nuestras costumbres investigativas.

3. Al intentar hacerlo debe detener su observación, al concentrar la vista en nuestros

"lentes" deja de ver a través de ellos y de operar con las circunstancias que desde

ellos se configuran.

4. Indudablemente ello no elimina la incapacidad de observar, por sí mismo, sus

propios puntos ciegos.

5. Esa perspectiva teórica fue inaugurada por los antropólogos Ward Goodenough y

Floyd Lounsbury (1962 en la Universidad de Yale). Junto a ellos cabe mencionar a

Charles Frake y Harold Conklin. En tanto Escuela, esta perspectiva ha perdido

perfil, no obstante parte importante de sus supuestos están incorporados en la

"cultura" teórica de la antropología contemporánea. La Antropología cognoscitiva

pone su acento en la identificación y descripción de los medios -culturalmente

disponibles- que disponen los miembros de un sistema social para categorizar sus

experiencias, mientras que la Antropología simbólica coloca su atención en la

significación de tales categorías.

6. Estos temas fueron abordados por la escuela de pensamiento sicosociológico

denominada interaccionismo simbólico (vid. Blumer, H. 1969), cuyos esfuerzos

investigativos e interpretativos descansan en tres premisas: a) los hombres actúan

hacia las cosas -objetos, otros hombres, instituciones, situaciones, etc.- sobre la

base de los significados que tales cosas tienen para ellos; b) estos significados se

originan en la misma interacción social y no son cualidades intrínsecas de los

objetos que las representan y, por último, c) esos significados son manipulados y

readecuados a través de procesos permanentes de reinterpretación.

7. Las tareas del investigador consisten en aprender a reconocer la realidad como lo

hacen sus observados (acompasarse). Pero debe recordarse que siempre es un

observador quien determina que distinciones hacen una diferencia para él.

Page 134: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 120

8. Parejas, familias, grupos, organizaciones, movimientos sociales, sociedades.

9. Varias modalidades son recomendables, pero probablemente la más importante es

someter a discusión y crítica los hallazgos en el marco de un equipo

interdisciplinario y, entre éste y unidades sociales equivalentes a las estudiadas

(triangulación).

10. Vale aquí considerar la noción maturaniana de acoplamiento estructural entendida

como una relación de coevolución de sistemas autopoiéticos, donde ninguno

determina la estructura del otro. Desde el punto de vista de un observador ello

puede ser visto como un encaje (observación del sociólogo Claudio Garrido).

11. Estos mismos criterios pueden aplicarse para la validación de los esquemas de

distinción que se identifican entre nuestros observados.

12. Stephen P. Turner reflexiona en forma equivalente cuando señala que el modelo

"sociológico" se asemeja más a la traducción que a cualquier otra forma de

explicación (1984:18).

13. Esta etapa no debe hacerse desde el escritorio sino que sumergiéndose en el

espacio a investigar y vagabundeando dentro de él.

Page 135: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 121

2.9. MARCO TEÓRICO

En el planteamiento de una investigación es necesario hacer explícito aquello que nos

proponemos conocer, por eso es imprescindible definir el problema que se va a investigar.

Del planteamiento del problema surgen, por lo tanto, los objetivos internos y externos de la

investigación.

Ningún hecho o fenómeno de la realidad puede abordarse sin una adecuada

conceptualización. El investigador que se plantea un problema, no lo hace en el vacío,

como si no tuviese la menor idea del mismo, sino que siempre parte de algunas ideas o

informaciones previas, de algunos referentes teóricos y conceptuales, por más que éstos

no tengan todavía un carácter preciso y sistemático.

El marco teórico, marco referencial o marco conceptual tiene el propósito de dar a la

investigación un sistema coordinado y coherente de conceptos y proposiciones que

permitan abordar el problema. De éste dependerá el resultado del trabajo. Significa poner

en claro para el propio investigador sus postulados y supuestos, asumir los frutos de

investigaciones anteriores y esforzarse por orientar el trabajo de un modo coherente.

El fin que tiene el marco teórico es el de situar a nuestro problema dentro de un conjunto

de conocimientos, que permita orientar nuestra búsqueda y nos ofrezca una

conceptualización adecuada de los términos que utilizaremos. El punto de partida para

construir un marco de referencia lo constituye nuestro conocimiento previo de los

fenómenos que abordamos, así como las enseñanzas que extraigamos del trabajo de

revisión bibliográfica que obligatoriamente tendremos que hacer.

Veamos un ejemplo... Si deseamos conocer las causas de la delincuencia juvenil, será

conveniente aproximarnos al tema desde varios aspectos: desde el plano psicológico,

psicosocial, económico, legal, etc. También será necesario esbozar la concepción que

tenemos de sociedad y de delicuencia juvenil (el fenómeno en estudio), porque nuestra

comprensión del fenómeno variará si partimos de apreciarlo como una conducta

disfuncional (por ejemplo) que afecta a individuos impropiamente integrados a sus grupos

de referencia o, por el contrario, como una expresión de una contracultura que se origina

en una crisis de valores de la sociedad existente.

Page 136: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 122

En muchos trabajos de investigación no se presenta una sección aparte denominada

"marco teórico", sino que se exponen sus características dentro de lo que se denomina

"revisión bibliográfica" o "antecedentes". En otras ocasiones, cuando se trata de una

investigación donde el marco referencial se reduce a algunas pocas proposiciones, éstas

pueden insertarse al comienzo del trabajo, sin merecer una aclaración mayor. Es el caso

de estudios aplicados o de investigaciones que buscan extender conceptos bien conocidos

o nuevos estudios.

En síntesis, el marco teórico responde a la pregunta: ¿qué antecedentes existen? Por

ende, el marco teórico tiene como objeto dar a la investigación un sistema coordinado y

coherente de conceptos, proposiciones y postulados, que permita obtener una visión

completa del sistema teórico, sobre el conocimiento científico, que se tiene acerca del

tema. La conclusión del marco teórico debe ser que existe un problema científico y ése es

el que los investigadores van a abordar.

Es acá donde se realiza la descripción y análisis de las investigaciones previas o de los

antecedentes teóricos que llevan al planteamiento del problema.

En general, se podría afirmar que el marco teórico tiene como funciones:

• Orientar hacia la organización de datos y hechos significativos para descubrir las

relaciones de un problema con las teorías ya existentes.

• Evitar que el investigador aborde temáticas que, dado el estado del conocimiento,

ya han sido investigadas o carecen de importancia científica.

• Guiar en la selección de los factores y variables que serán estudiadas en la

investigación, así como sus estrategias de medición, su validez y confiabilidad.

• Prevenir sobre los posibles factores de confusión o variables extrañas que

potencialmente podrían generar sesgos no deseados.

Recordar!!! No puede haber un marco teórico que no tenga relación con el problema.

2.9.1. CÓMO SE DEBE LEER PARA FORMULAR UN MARCO TEÓRICO. Una vez que se ha seleccionado el tema y se ha establecido el problema, se debe realizar

una lectura sistemática. ¿Qué quiere decir esto? La sistematización se refiere

fundamentalmente a la necesidad de leer, a fin de desarrollar el marco teórico de la

investigación, teniendo en cuenta el problema que se va a investigar.

Esto tiene tres razones:

Page 137: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 123

• Para poder concretar el marco teórico.

• Para que sea relevante el tema de nuestra investigación.

• Para ahorrar tiempo e incrementar nuestra eficiencia.

Si nos dedicamos a hacer referencia a ciertos artículos, o a consultar libros como si

estuviéramos leyendo por placer, lo más probable es que obtengamos resúmenes muy

extensos que comprendan la mayoría de los puntos de la lectura en cuestión o, por el

contrario, pequeños resúmenes irrelevantes o ininteligibles.

¿Qué hacer para evitar esto? La primera regla que debemos aprender es tener siempre

presente el problema que se va a investigar. Así, si el libro que estamos consultando se

refiere en general a la "toma de decisiones", y nuestro estudio es "la toma de riesgos", nos

interesarán únicamente aquellos capítulos, fragmentos o frases relacionados con estos

últimos.

Otra sugerencia importante es leer con sentido crítico, tanto para obtener aquella

información importante para nuestra investigación, como para aprender de los errores

teóricos o metodológicos de otros autores. De este modo, evitaremos tener que descartar

material que nos pareció importante durante su lectura, pero que más tarde consideramos

repetitivo o irrelevante.

Por supuesto, existen diferencias obvias entre los temas de investigación que hacen más

o menos importante esta parte de la investigación, o que la convierten en una tarea fácil o

dificultosa. En una investigación donde el objetivo fundamental es, por ejemplo, determinar

el grado de adaptación de una especie Z a una zona más desértica que la de origen, los

problemas del marco teórico pueden ser resueltos con bastante simplicidad. En cambio,

estos problemas pueden ser esenciales y habrá que dedicarles el mayor esfuerzo

intelectual y tiempo a un estudio que intentase determinar los valores que predominan en

el sistema educativo.

Por ello, es recomendable que el investigador, al comenzar a estudiar su tema, trate de

poner al día sus conocimientos por medio de una sistemática y amplia consulta

bibliográfica. En general, se recurre a alguno de los siguientes lugares:

• Una biblioteca (privada o pública)

• Una librería

• Una hemeroteca

• Redes informáticas.

Page 138: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 124

La recapitulación no debe ser pasiva, será conveniente formular redes esquemáticas,

comparar puntos de vista, establecer análisis y síntesis, confeccionar fichas.

2.9.2. INTEGRACIÓN DEL MATERIAL Una vez terminadas nuestras lecturas, así como la elaboración y clasificación de las

fichas, estaremos en posición de elaborar nuestro marco teórico, que se basará en la

integración de las fichas. El orden que llevará la integración estará determinado por el

objetivo del marco teórico. Si, por ejemplo, es de tipo histórico, recomendaríamos un orden

cronológico de las teorías y/o de los hallazgos empíricos. Si la investigación se relaciona

con una serie de variables y tenemos información de teoría, así como de estudios previos

de cada una de esas variables y de la relación entre ellas, sería conveniente delimitar

secciones que abarcaran cada uno de los aspectos relevantes, a fin de integrar aquellos

datos pertinentes a nuestro estudio.

Es en esta fase de la investigación donde la identificación de las fichas nos permitirá hacer

referencia a éstas para poder extender o aclarar algún punto. Además, la correcta

identificación de las fichas y del tema a que se refieren, nos permitirá reunir todas las

tarjetas que se relacionan con un mismo tema y leer cada una de éstas para su

integración, en lugar de leer varias veces todas las tarjetas que fueron recopiladas.

Es fundamental en toda investigación que el autor incorpore sus ideas, críticas y

conclusiones con respecto tanto al problema como al material recopilado. También es

importante que se relacionen las cuestiones más sobresalientes, yendo de lo general a lo

concreto, es decir, mencionando primero generalidades del tema, hasta llegar a lo que

específicamente está relacionado con nuestra investigación.

2.9.3. DEFINICIÓN DE TÉRMINOS BÁSICOS Todo investigador debe hacer uso de conceptos para poder organizar sus datos y percibir

las relaciones que hay entre ellos. Un concepto es una abstracción obtenida de la realidad

y, por tanto, su finalidad es simplificar resumiendo una serie de observaciones que se

pueden clasificar bajo un mismo nombre.

Algunos conceptos están estrechamente ligados a objetos y a los hechos que representan,

por eso cuando se define se busca asegurar que las personas que lleguen a una

investigación conozca<n perfectamente el significado con el que se va a utilizar el término

o concepto a través de toda la investigación.

Page 139: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 125

El problema que nos lleva a la definición de conceptos es el de que muchos de los

términos que se utilizan en las ciencias sociales son tomados del lenguaje vulgar y,

generalmente, el investigador los utiliza en otro sentido.

La definición conceptual es necesaria para unir el estudio a la teoría y las definiciones

operacionales son esenciales para poder llevar a cabo cualquier investigación, ya que los

datos deben ser recogidos en términos de hechos observables.

De acuerdo con la idea del realismo científico, los objetos de estudio existen en el mundo

empírico (tangible) pero la teoría pertenece al mundo conceptual del pensamiento. Si el

investigador acepta esta visión, debe hacer lo posible para que existan conexiones entre

estos dos mundos.

Si el investigador y el lector y usuario del estudio en su forma escrita han de tener la

misma noción del objeto, son necesarias normas fijadas y no ambiguas de

correspondencia para establecer el modelo teórico con el objeto empírico. Estas son las

definiciones de conceptos teóricos que sirven de puentes entre teoría y empiria.

Hay dos tipos de definiciones:

• Definiciones empíricas que anuncian cómo se va a observar o medir el concepto

en el mundo real, o en la empiria, como se le suele llamar. Dado que la definición

explica las operaciones para la observación, es llamada a veces definición

operacional.

• No es necesario definir todas nuestros conceptos teóricos directamente con

definiciones empíricas, que son a veces difíciles de construir. En muchos casos es

un sucedáneo aceptable una definición nominal, que describe el sentido del

concepto usando otros conceptos que han sido ya adecuadamente definidos

(empírica o nominalmente).

Si, por ejemplo, hemos definido operativamente dos variables, "distancia" medida en kms.

y "duración" medida en minutos, podemos usarlas para definir nominalmente un tercer

concepto, "velocidad" = "distancia" / "duración". No es necesario definir continuamente

palabras como "ser humano", "día" y "comprar" si son usadas en sus sentidos habituales

indicados en los diccionarios corrientes. El uso de lenguaje común y significados estándar

de palabras tiene también la ventaja suplementaria de hacer el informe más comprensible

para el profano.

Sin embargo, cada campo de la ciencia tiene sus conceptos teóricos especiales y para

nombrarlos se necesitan algunas palabras especiales. A veces las palabras del lenguaje

Page 140: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 126

estándar han sido adoptadas para uso científico y han adquirido un significado especial,

cuya definición puede encontrarse en los manuales sobre ese campo. En ocasiones las

palabras adecuadas se han tomado prestadas del griego o del latín. Y, finalmente, algunas

palabras completamente nuevas se han acuñado por investigadores con inventiva. En

cualquier caso, cada investigador debe usar el vocabulario normal de su campo de

investigación tanto como le sea posible, para que pueda beneficiarse directamente de

resultados anteriores y, a la inversa, sus nuevos resultados sean fáciles de leer y así

contribuyan de manera efectiva a la teoría general de ese campo.

Otra regla general útil dice que el investigador debe intentar operar con tan pocos

conceptos y variables teóricos como le sea posible. Esta recomendación lleva el nombre

de "navaja de Occam", y se remonta al siglo XIV, atribuyéndose a Guillermo de Occam.

2.9.4. DEFINICIÓN OPERACIONAL. Las definiciones operacionales constituyen un manual de instrucciones para el

investigador. Deben definir las variables de las hipótesis de tal manera que éstas puedan

ser comprobadas.

Una definición operacional asigna un significado a una construcción hipotética o variable,

especificando las actividades u "operaciones" necesarias para medirla o manipularla.

Una definición operacional es, esencialmente, aquella que indica que un cierto fenómeno

existe, y lo hace especificando de manera precisa y, preferiblemente, en qué unidades

puede ser medido dicho fenómeno. Esto es, una definición operacional de un concepto,

consiste en un enunciado de las operaciones necesarias para producir el fenómeno. Una

vez que el método de registro y de medición de un fenómeno se ha especificado, se dice

que ese fenómeno se ha definido operacionalmente. Por tanto, cuando se define

operacionalmente un término, se pretende señalar los indicadores que van a servir para la

realización del fenómeno que nos ocupa, de ahí que en lo posible se deban utilizar

términos con posibilidad de medición.

Las definiciones operacionales pueden ser:

• Medidas: cuando se observan y clasifican las variaciones.

• Experimentales: indican cómo manipular una variable.

Las definiciones operacionales son definiciones limitadas, cuyo propósito es permitir que el

investigador se acerque a los aspectos de la realidad a estudiar. Siempre existe el peligro

Page 141: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 127

de fragmentar un concepto de tal forma que se aleje (o carezca de relevancia) respecto a

su significado real. Pero se aproximan a aspectos significativos de la realidad conceptual.

Las definiciones operacionales establecen un puente entre los conceptos o construcciones

hipotéticas y las observaciones, comportamientos y actividades reales. Es decir, el

científico o investigador opera en dos niveles: el de los conceptos e hipótesis (Nivel I) y el

de la observación y manipulación (Nivel II). Los dos niveles están conectados por una

definición operacional. En las situaciones experimentales, las definiciones operacionales

especifican lo que los experimentadores hacen para manipular una o más variables

independientes. Estas definiciones indican, literalmente, las operaciones involucradas.

2.9.4.1. FUNCIÓN DE LOS CONCEPTOS O DEFINICIONES OPERACIONALES: • Ordenar la percepción.

• Valorar lo percibido.

• Guiar la acción individual.

• Facilitar la comunicación.

2.9.5. REQUISITOS DE LOS CONCEPTOS: • Ha de existir acuerdo y continuidad en la atribución de determinados contenidos

figurativos o determinadas palabras.

• Deben estar definidos con precisión: contenido semántico exactamente establecido.

• Tienen que tener una referencia empírica: deben referirse a algo aprehensible,

observable (aunque sea indirectamente).

2.9.6. REGLAS PARA DEFINIR. La función de la definición consiste en presentar los rasgos principales de la estructura de

un concepto para hacerlo más preciso, delimitándolo de otros conceptos, a fin de hacer

posible una exploración sistemática del objetivo que representa. Para ello es necesario

tener en cuenta:

• Validez significa que nuestra definición se ajusta al concepto. Debe referise

justamente a ese concepto y no a algo similar. Si nuestra definición es válida,

estamos midiendo justamente lo que pretendemos medir y no otra cosa.

• Fiabilidad o reproductibilidad significa que si repetimos nuestra medición o registro,

el resultado será siempre el mismo.

Page 142: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 128

• Dar la esencia. La definición debe dar la esencia de lo que se intenta definir, es

decir, su naturaleza, sus notas características, sus límites.

• Evitar tautologías. No debe directa o indirectamente contener el objetivo. Ejemplo:

la economía es la ciencia que estudia los fenómenos económicos. No debe ser

circular. Es decir, se debe evitar, por ejemplo, definir al entendimiento como la

capacidad de pensar y, a su vez, a la capacidad de pensar como a la actividad de

entendimiento. Un círculo vicioso consiste en dos (o más) definiciones nominales

que se refieren la una a la otra mientras que los conceptos usados en estas

definiciones no tienen definición real para vincularlos a la empiria.

• Debe ser afirmativa. Toda definición debe expresarse siempre en términos

afirmativos, nunca en términos negativos.

• Empleo de lenguaje claro. Debe expresarse en palabras claras y asequibles, no

debe contener metáforas o figuras literarias.

• Significado preciso y unitario.

La fase de establecer "definiciones de trabajo" está estrechamente vinculada a la decisión

que se tome con respecto a los instrumentos de recogida de datos que se utilizarán. Las

definiciones de trabajo son adecuadas si los instrumentos o procedimientos basados en

ellas agrupan datos que constituyen indicativos satisfactorios de los conceptos que

intentan representar.

¿Pueden modificarse las definiciones cuando el trabajo avanza? Sí, de hecho en

investigación cualitativa es habitual, porque la comprensión por parte del investigador de lo

que está estudiando muchas veces se hace más profunda cuando la investigación avanza.

Por otro lado, si las definiciones que han servido como base para mediciones cuantitativas

se cambian después de reunir datos empíricos, se han desperdiciado los datos

correspondientes a la vieja definición que se habían reunido.

2.9.7. ESQUEMA DE LA INVESTIGACIÓN Es la estructura que permite ubicar el objeto de la investigación en el marco que lo

comprende y analizar las partes de que consta.

Se formula para:

• Apreciar el objeto de estudio de forma total y en cada una de sus partes.

• Estructurar el escrito.

• Organizar el acopio de información.

Page 143: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 129

• Planear nuestras actividades.

En el modelo que sigue se tratan los aspectos generales de una investigación.

El trabajo será más fácil si se desglosan al máximo el objeto de estudio y los aspectos de

la investigación.

Tabla 4: Desgloce de estudio y aspectos de la investigación

PREGUNTAS ORIENTADORAS CONCEPTO

¿Qué conceptos vamos a utilizar?

¿Qué criterios usaremos? 1. Definiciones.

¿Cuál es nuestra concepción del tema?

Consisten en la precisión de los conceptos, acepciones o criterios que vamos a utilizar.

Condiciones históricas que rodean el objeto de estudio.

• Marco histórico. Consideración de los factores

externos que tienen relación con el objeto de la investigación.

Comprende el estado o hechos que prevalecen en el ambiente en que se presenta el objeto de estudio. Constituye el contexto histórico de la investigación.

¿Cuál es el origen del objeto de la investigación?

¿Qué evolución ha tenido? • Antecedentes.

¿Qué otras investigaciones similares se han hecho?

Son el origen y el desarrollo del objeto de estudio. Conocer la evolución de lo que estamos investigando nos facilita su comprensión.

¿Cómo es el área que comprende?

¿Cómo se manifiesta? • Ubicación del

objeto de estudio.

¿Qué relación guardan entre sí las partes del área?

Es la situación del objeto de la investigación en la disciplina, materia o especie que lo comprende.

Page 144: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 130

¿Cómo es el objeto de estudio? • ¿Cuáles son sus partes? • ¿Qué relación existe

entre el objeto y su contexto?

• ¿Cuáles y cómo son sus características intrínsecas?

• ¿Qué efectos produce? • ¿En qué períodos se

encuentra el fenómeno? • ¿Qué aspectos

coordinados y subordinados presenta?

• Descripción del objeto de investigación.

¿Qué circunstancias condicionan al objeto de la investigación?

• Éticas. • Geográficas • Económicas • Ecológicas • Tecnológicas • Teóricas • Culturales • Religiosas • Filosóficas

Es la "disección", el análisis, el estudio minucioso de las características, propiedades, relaciones, formas de manifestarse... el desglosamiento de lo que investigamos.

¿Qué tesis existen al respecto?

1. Marco teórico.

¿Qué teorías tratan de explicarlo?

• ¿Cuál es la teoría clásica?

• ¿Cuáles son las teorías opuestas a la clásica?

• ¿Cuál es la teoría predominante?

Es la consideración de lo que se ha investigado (teorías, hipótesis, tesis) acerca del objeto de nuestra investigación.

1. Exposición de datos.

Descripción y/o provocación del fenómeno. Aquí se muestra la información, directamente relacionada con la hipótesis, obtenida de la investigación.

• Valoración e interpretación del material obtenido.

Es el análisis crítico de los datos obtenidos.

Page 145: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 131

• Resumen.

Es la parte del escrito que tiene como finalidad mostrar en qué se sustentan las conclusiones que se obtuvieron.

• Conclusiones y/o recomendaciones.

Es el resultado de la investigación.

2.9.8. REFERENCIAS o Tenorio Bahena, Jorge. INVESTIGACIÓN DOCUMENTAL. 3ª ed. México (1988).

Ed. Mac Graw - Hill.

o Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS SOCIALES.

5ª ed. México (1994). Ed. Trillas S.A.

o Tamayo y Tamayo, Mario. EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA. 3ª

ed. México (1998). Ed. Limusa S.A.

o Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed.

Lumen - Humanitas.

Page 146: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 132

<<

2.10. LA INVESTIGACIÓN EN LAS CIENCIAS SOCIALES

Surge el cambio con métodos como el análisis concreto de situaciones concretas de

Carlos Marx o con el de formación de modelos o tipologías del cambio social de Max

Weber.

De una manera sencilla establezcamos que una teoría es un conjunto de conceptos

relacionados entre sí que nos permite explicar un área de la realidad. Las teorías se

construyen regularmente por acumulación de distintas ideas que han tenido sucesivos

científicos sociales.

Aquí el problema surge entonces cuando el individuo no acepta para sí mismo las

consecuencias del tipo de vínculos sociales tradicionales y se aparta, tomando el camino

del alejamiento o de la desintegración, que es una disfunción para el conjunto social. Estos

problemas de funcionamiento en la estructura social, el individuo se los imagina como

problemas personales, según Durkheim, tienen distintas fuentes pues las disfunciones

provienen de:

1. La perdida de la capacidad de integración que el sistema ejerce sobre los individuos.

Esta perdida de capacidad no depende de que de pronto surjan individuos

"innatamente rebeldes" capaces de liderear a otros, sino que el problema tiene una

causa social también.

2. Los excesos generados por el tipo de vínculos sociales en que se encuentra inmerso el

individuo, Durkheim reconoce que a pesar de que estos vínculos pueden estar

funcionando bien y por tanto producir que el individuo viva conforme con ellos.

3. En el mundo de las creencias, la persona su decisión de reaccionar ante los excesos

del sistema se le figura como muy personal.

4. La progresiva sustitución de un tipo de vínculos sociales por otros como, cuando en

una sociedad se inicia la profundización de la división del trabajo social.

El problema no se crea con la reacción del individuo sino antes, con la deficiente

funcionalidad del sistema que llevo a crear primero una situación de enfrentamiento que

debía evitarse y después a la reacción disfuncional del individuo. ¿Como se plantea un

problema según la perspectiva de lo normal y lo patológico de Emilio Durkheim?. Todos

estos temas provienen de su perspectiva inicial, el considerar a la sociedad como una

Page 147: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 133

realidad superior a los individuos y a la suma de estos, que lo coaccionan a pensar y

actuar de determinada manera funcional al sistema, el cual por estos medios alcanza

estabilidad y orden.

El científico social debe cumplir estas reglas para poder abordar un problema social

científicamente con su propuesta de que lo normal es lo que se encuentra difundido y

generalizadamente aceptado, le da al sociólogo un criterio externo, que no depende de él,

para saber clasificar los fenómenos que observa.

Para Durkheim el suicidio no es un hecho social anormal, sino que cada sociedad tiene

sus propias tasas de suicidio constantes, en un momento determinado. Y el suicidio no

depende de atributos individuales o de sentimientos de soledad, tristeza, etc., sino de la

forma como se dan los vínculos sociales con el grupo: muy dependientes de éste o muy

alejados e individualistas, plantea así su problema:

Que investigar: el suicidio de la sociedad moderna.

Donde: en Francia.

Cuando: a mediados del siglo XX (1930-1950).

Un problema social tiene así causas sociales,y el individuo solo reacciona ante éstas.

Los problemas que examina Durkheim son así:

1. Desajusten entre sistemas de relaciones sociales por ejemplo entre tradiciones.

2. Disfunciones que surgen por excesos de un mismo sistema de vinculaciones

sociales, entre el grupo y el individuo.

3. Debilitamiento de la funcionalidad de un sistema.

Que investiga: la estructura y función de las instituciones modernas.

Donde: en Francia.

Cuando. A mediados del siglo XIX (1930-1950)

¿Porque el método comparativo es el apropiado para conocer a las instituciones y

disfunciones sociales?.

Esto significa que el científico social:

1. Considera los modos de pensar y actuar sociales, como cosas, es decir como

realidades ajenas a nosotros de igual manera que los científicos de la naturaleza

actuan cuando se enfrentan a conocer a ésta.

2. Mirará a éstos modos sociales como realidades que se imponen al individuo igual

que lo hace la naturaleza.

3. analizará fríamente éstos modos de pensar, creer, sentir y actuar de las personas.

Page 148: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 134

4. Procederá a manejar los datos que le arrojen éstos hechos sociales con las mismas

operaciones intelectuales que utilizan los científicos.

5. Pensará como lo hacen los científicos de la naturaleza en términos de elementos,

combinaciones, vinculaciones, estructuras, etc., para conceptualizar los modos de

pensar y de actuar de los humanos.

Esta teoría requiere entonces un método que permita:

1. Pensar los hechos de modo fijo, sin movimiento, pero a la vez en sus

interconexiones, en el marco de las redes o estructuras sociales en las que acciona.

2. Analizar a fondo en el nivel de sus efectos sociales impersonales y no quedarse en

la superficie de las diferencias individuales.

3. Clasificarlos en lo que tienen en común para obtener principios, generales, o leyes

que estarían en el fondo de la vida social,

Si los datos y hechos que postula Durkheim, como necesarios para su teoría son

impersonales en tanto busca efectos sociales, que además deben de estar fijos o sin

movimiento, para visualizar sus interconexiones, entonces buscamos el método que sea

apropiado. Y nada hay más parecido a ésta clase de hechos impersonales y fijos que los

de la naturaleza: fríos y externos a la voluntad humana. Por eso su proceso de

investigación y su tratamiento metódico están tomados de las ciencias naturales: en

método comparativo.

2.10.1. EL MÉTODO COMPARATIVO El método comparativo no es una invención de Emilio Durkheim ya que este se usaba

frecuentemente en ciencias naturales como la biológica y la química. Lo que él hace es

aplicar éste método a los datos de las ciencias sociales, para obtener clasificaciones y

leyes que a su vez le permiten darle estatuto científico a la antropología social y a la

sociología.

Debemos rescatar el tema anterior los siguientes puntos:

1. La sociología es para Emilio Durkheim una ciencia natural teórica de la sociedad

humana.

2. A ésta teoría social que usa métodos de las ciencias naturales le llama sociología

comparada.

3. Si en las ciencias naturales se produce primero observando las estructuras del

Universo, tal cual se nos da a los sentidos.

Page 149: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 135

4. El método de investigación comprende como faces significativas las etapas de

observación, descripción, clasificación, elaboración de tipologías y generalización.

5. Concluye que utiliza el método característico de las ciencias inductivas, esto es, el

método de generalización... por comparación de ejemplos.

Si seguimos el procedimiento de las ciencias inductivas, entonces el método comparativo

parte de la realidad para irla depurando, hasta llegar a encontrar lo común a muchos

ejemplos y así establecer por la vía de la abstracción o generalización, sus leyes.

2.10.2. EL PLANTEAMIENTO DE PROBLEMAS DE INVESTIGACIÓN SEGÚN EL MATERIALISMO HISTÓRICO Cralos Marx pensaba que la historia de la humanidad y el conocimiento de la vida social

hasta entonces había sido poco científico e incompleto porque partía de una concepción

idealista del mundo en el cual se exageraba el papel que tienen las ideas políticas,

religiosas o jurídicas en el desarrollo social. Carlos Marx propone, por eso, como punto de

partida para el análisis no quedarse en las ideas; si no ir a los hechos o actos reales que

tienen los individuos o las clases sociales.

Para Carlos Marx el estudio científico de la sociedad comienza cuando primero tomamos

en cuenta sus modos de producción y distribución de la riqueza para después ubicar allí

sus ideas sobre el mundo, las ideas filosóficas, religiosas, morales, educativas y políticas.

¿Como se plantea un problema con la perspectiva del materialismo histórico?

Su método estriba en analizar con detalle un determinado orden de producción social,

ubicada en ese contexto las ideas y las Psicología de los hombres y en el descubrir como

dicho orden necesariamente entra en contradicción y da lugar a uno nuevo. De aquí deriva

toda la problemática de Carlos Marx analicen sus obras. Por ello podemos decir que la

forma en como Marx se plantea su objeto de estudio y sus respectivos problemas, sigue

las siguientes faces:

1. Contempla un mundo social nuevo que va surgiendo, que es el capitalismo y que

trae aparejados muchos problemas sociales.

2. Carlos Marx tiene claro que las teorías que explica la historia en su tiempo son

idealistas proponen educar, dar servicios religiosos a la clase obrera, etc.

3. Al mirar el mundo desde esta perspectiva, ya esta dejando de lado otra y con ella

todo un campo de análisis de problemas a estudiar.

Page 150: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 136

En el primer caso su perspectiva se formula así: Que estudia: los modos de producción.

Donde: en Europa occidental. Cuando: en la historia Europea. En el segundo caso queda

así: Que estudia el modo de producción y la sociedad capitalista Donde: en Europa

tomando como modelo Inglaterra. Cuando: entre 1830-1860.

2.10.3. REFERENCIAS http://www.miexamen.com.mx/Investigacion%20en%20las%20ciencias%20sociales.htm

Page 151: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 137

3. CAPITULO III: BASES PARA LA INVESTIGACIÓN CUANTITATIVA

Page 152: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 138

<

3.1. EL DISEÑO DE LA INVESTIGACIÓN

El diseño es una estrategia general de trabajo que el investigador determina una vez que

ya alcanzado suficiente claridad respecto a su problema y que orienta y esclarece las

etapas que habrán de realizarse posteriormente.

Así, por ejemplo, si nuestra investigación teórica nos lleva a suponer que la esquizofrenia

tiene un origen orgánico, tendremos que elaborar un método para poder comprobar si tal

afirmación se corresponde o no con la realidad. Definir qué pruebas de laboratorio, qué

observaciones y qué datos son los pertinentes para llegar a esa comprobación, es lo que

llamamos elaborar un diseño. Es el momento metodológico de la investigación; en él, ya

no se trata de definir qué vamos a investigar, sino cómo vamos a hacerlo.

Realizar el diseño de una investigación significa llevar a la práctica los postulados

generales del método científico, planificando una serie de actividades sucesivas y

organizadas donde se encuentran las pruebas que se han de efectuar y las técnicas que

se van a utilizar para recolectar y analizar los datos.

3.1.1. TIPOS DE DISEÑO En función del tipo de datos que han de ser recogidos, e posible categorizar los diseños en

dos grandes tipos básicos:

1. Diseños bibliográficos.

2. Diseños de campo:

1. Experimental.

2. Post – facto.

3. Encuesta.

4. Panel.

5. Estudio de casos.

Los diseños de campo son los que se refieren a los métodos empleados cuando los

datos de interés se recogen en forma directa de la realidad, mediante el trabajo concreto

del investigador y su equipo; estos datos, obtenidos directamente de la experiencia

empírica, son llamados datos primarios. Son datos de primera mano, originales, producto

de la investigación en curso sin intermediación de ninguna naturaleza.

Page 153: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 139

Cuando los datos ya han sido recolectados en otras investigaciones y son conocidos

mediante los informes correspondientes, nos referimos a datos secundarios, porque han

sido obtenidos por otros y nos llegan elaborados y procesados de acuerdo con los fines de

quienes inicialmente los obtuvieron y manipularon. Como estas informaciones proceden

siempre de documentos escritos (ésa es la forma en que se emiten los informes

científicos), damos a estos diseños el nombre de bibliográficos.

Todo trabajo bibliográfico no deja por eso de referirse a la experiencia empírica tanto como

los diseños de campo, porque los datos que nosotros tomamos como secundarios han

sido datos primarios para el investigador inicial, por más que nos lleguen como

experiencias ya analizadas y sintetizadas. De modo que el contacto con los hechos

subsiste, aunque se trate de un contacto indirecto.

Algunas personas sostienen la opinión de que los trabajos bibliográficos no pueden

considerarse en un sentido estricto como verdaderas investigaciones, ya que, al faltar el

contacto directo entre el estudioso y su mundo empírico, lo único que podrá hacer es

reelaborar conocimientos ya obtenidos sin efectuar mayores aportes al respecto. Es una

visión muy estrecha de las posibilidades que ofrece el trabajo bibliográfico, pues el

investigador que desarrolla este modelo puede realmente concebir y resolver problemas

nuevos. Si tomamos datos de un censo sanitario, por ejemplo, y analizamos sus

resultados de acuerdo con indicadores sociales y económicos específicos, podremos

obtener un conocimiento muy rico respecto a la relación entre esos factores; estaremos en

condiciones de corroborar hipótesis de un mayor nivel de generalidad y habremos

alcanzado un conocimiento sintético, interdisciplinario de suma utilidad.

Por último, es preciso anotar que los diseños de campo tampoco pueden basarse

exclusivamente en datos primarios. Siempre será necesario ubicar e integrar nuestro

problema y nuestros resultados dentro de un conjunto mayor (marco teórico o referencial),

para cuya elaboración es imprescindible realizar consultas o estudios bibliográficos.

3.1.2. DISEÑOS BIBLIOGRÁFICOS El principal beneficio que el investigador obtiene mediante una invetigación bibliográfica es

que puede cubrir una amplia gama de fenómenos, ya que no sólo tiene que basarse en los

cuales él mismo tiene acceso, sino que puede extenderse para abarcar una experiencia

mayor. Esta ventaja se hace particularmente valiosa cuando el problema requiere de datos

dispersos en el espacio, que sería imposible obtener de otra manera: un investigador no

Page 154: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 140

puede ir recorriendo el planeta en busca de datos de producción o población para luego

hacer análisis comparativos; pero si tiene a su alcance una bibliografía adecuada no

tendrá obstáculos para contar con toda la información necesaria.

El diseño bibliográfico también es indispensable cuando hacemos estudios históricos; no

hay otro modo, en general, de enterarnos de los hechos pasados si no es apelando a una

gran proporción de datos secundarios.

El diseño bibliográfico tiene una dificultad que puede llegar a ser muy significativa: si

nuestras fuentes han recogido o procesado defectuosamente su material primario, ya sea

por error, subjetivismo o intencionalmente, todo nuestro trabajo habrá de apoyarse sobre

bases falsas, sobre una serie de errores que nosotros trasladaremos y amplificaremos.

La duda sobre la calidad del material secundario está siempre presente. Para reducir este

margen de incertidumbre, conviene asegurarse de las condiciones concretas en que han

sido obtenidos los datos, estudiar en profundidad cada información para descubrir

incoherencias y contradicciones, utilizar a la vez varias fuentes distintas, cotejándolas

cuidadosamente y, en general, regirse por una sana dosis de escepticismo. Todos estos

recursos, si los aplicamos sistemáticamente y con rigor, permiten incrementar nuestro

margen de confianza hasta niveles razonables.

Otra observación metodológica que puede hacerse con respecto a este diseño es que,

debido a que es el propio investigador quien define y selecciona los datos que va a utilizar,

es posible que éste tome solamente en cuenta aquellos que concuerdan con sus hipótesis

iniciales. Por eso, se recomienda que cualquier búsqueda de datos secundarios se haga

con sistematicidad y orden, fijando categorías claras para las fuentes de datos y utilizando

todas las informaciones disponibles.

No existe un camino preestablecido para el manejo de la información bibliográfica, per

algunas de las tareas básicas a realizar son:

1. Conocer y explorar todo el conjunto de fuentes que pueden resultar de utilidad. La

mejor manera de tener un panorama completo respecto de las publicaciones

existentes es acudir a bibliotecas y centros de documentación. Una alternativa

complementaria es consultar a expertos y especialistas que pueden tener

conocimiento del material existente. Por último, recordemos que todo libro o trabajo

serio incluye generalmente una serie de citas, referencias bibliográficas y listas de

material consultado que facilitan nuestros propósitos.

Page 155: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 141

2. Leer todas las fuentes disponibles. No es preciso leer completamente cada uno de

los trabajos escritos sobre el tema, sino utilizar un tipo de lectura discriminatoria,

que nos permita detenernos en los aspectos esenciales. De acuerdo con los

resultados de esta lectura, se podrá ir ordenando todo el material.

3. Recolección de datos. Se puede realizar mediante ficha y otros procedimientos

similares. De cada fuente se extraerán los aspectos concretos que parezcan

relevantes para la investigación.

4. Elaboración de un esquema de exposición del informe final. Según este equema, se

ordenarán las fichas de datos.

5. Cotejo o comparación de fichas. Se observan los puntos de contacto y oposición

entre ellas, tratando de evaluar la confiabilidad de la información, para realizar

síntesis parciales y comparaciones particulares.

6. Conclusiones. Se reelaborarán nuestros puntos de vista respecto a cada parte del

estudio, teniendo especial cuidado en esclarecer la problemática que previamente

nos habíamso planteado en la fase inicial de la investigación.

3.1.3. DISEÑOS DE CAMPO Su valor reside en que le permiten al investigador cerciorarse de las verdaderas

condiciones en que se han conseguido los datos, haciendo posible su revisión o

modificación en el caso de que surjan dudas con respecto a su calidad. No obstante,

presentan la limitación de su reducido alcance: son muchos los datos que no se pueden

alcanzar por esta vía, ya sea por restricciones espaciales o temporales, por carencia de

recursos, etc.

Los diseños de campo más frecuentes son el experimental, post – facto, encuesta, panel y

estudio de casos.

3.1.4. DISEÑO EXPERIMENTAL Un experimento consiste en someter al objeto de estudio a la influencia de ciertas

variables, en condiciones controladas y conocidas por el investigador, para observar los

resultados que cada variable produce en el objeto.

La variable a cuya influencia se somete el objeto en estudio recibe el nombre de estímulo.

Cuando a través de un experimento se pretende llegar a la causa de un fenómeno, se

procede del siguiente modo: sea Z el fenómeno en estudio, que en condiciones no

Page 156: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 142

experimentales se presenta frente a los factores A, B y C. Nuestra primera prueba consiste

en controlar - reduciendo a un valor 0 - cada uno de estos factores, para observar qué

ocurre en los restantes. Así tendríamos por ejemplo que, efectuando algunas pruebas

específicas, se obtiene que:

A y B no producen Z

B y C producen Z

A y C producen Z

De estas tres pruebas efectuadas podemos inferir, al menos, que C es necesario para que

se produzca Z. Si comprobáramos además que con sólo el factor C, y eliminando los

restantes, también ocurre Z, podríamos afirmar que C es condición necesaria y suficiente

del hecho Z, en otras palabras, su causa.

Cuando nuestros objetos de estudio son barras de metal, moléculas, virus o ratas, no

tenemos prácticamente ninguna limitación en cuanto a las posibilidades de inventar

estímulos diversos. Las limitaciones de la experimentación en el campo de las ciencias

sociales hacen que este método sólo pueda usarse en contados casos, pues diversas

consideraciones éticas y humanas impiden su realización.

Si quisiéramos conocer los efectos que la desnutrición aguda ejerce sobre la agresividad

de los grupos humanos, deberíamos buscar otras formas de comprobación ajenas al

experimento, pues no podemos aplicar el estímulo "desnutrición aguda" a un conjunto

humano.

Hay otra cantidad de experimentos que son teóricamente posibles, pero que en la práctica

ningún investigador tiene opción de realizar, porque para modificar ciertas variables sería

necesario alterar todo el curso de la sociedad o poseer la suma del poder político o

económico.

No se puede, por ejemplo, suprimir el uso de automóviles ni cambiar las regulaciones

legales vigentes; tampoco se puede modificar la forma en que se comportan los mercados

ni las costumbres existentes en una cultura.

El diseño experimental sólo se utiliza en las ciencias humanas para algunos problemas de

psicología social (estudios para medir actitudes, influencia de la propaganda, tipos de

liderazgo, etc.), de sociología del trabajo ( cambio de condiciones de producción, tipos de

organización laboral), de técnicas pedagógicas (nuevas formas de enseñanza o

modalidades de aprendizaje) y en otros casos semejantes, como el estudio de mercados,

problemas clínicos de psicología, etc.

Page 157: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 143

Existen diversos patrones según los cuales se realizan los experimentos en las ciencias

sociales:

• Antes y después con un solo grupo. El objeto en estudio queda constituido por

un grupo social, generalmente reducido, previamente definido en cuanto a sus

características fundamentales. Supongamos que nos interesa medir el efecto de la

iluminación sobre la productividad de los trabajadores. Para ello, tomaríamos un

grupo de trabajadores que estén realizando sus tareas con una iluminación

determinada y mediríamos (antes del experimento) su productividad. Luego

introduciríamos el estímulo, en este caso una mejor iluminación, para después

volver a medir la productividad del grupo. Este modelo de experimentación tropieza

con la dificultad de que las modificaciones que se producen en la variable medida

pueden tener su origen en el estímulo, o en alguna otra variable que no hemos

tenido en cuenta. Con una repetición suficientemente grande de experimentos, sin

embargo, podemos lograr resultados confiables. • Solamente después con dos grupos. Debemos construir dos grupos, que se

denominan grupo experimental (destinado a recibir el estímulo) y grupo de control

(que nos sirve de punto de referencia para apreciar las variaciones que se

produzcan en el anterior). Como es necesario efectuar las mediciones comparando

los resultados entre los dos grupos, éstos deben ser, en todas las características de

relevancia que sea posible controlar, lo más semejantes posibles. Esta tarea de

igualación de los grupos se denomina homogeneización, y para llevarla a cabo se

apela a procedimientos de muestreo. No se realizan mediciones antes de la

aplicación del estímulo: se aplica éste solamente al grupo experimental y se mide

finalmente a ambos grupos. • Antes y después con un grupo de control. Se basa en los mismos principios que

el método anterior, pero las mediciones se hacen antes y después del estímulo, a

ambos grupos. Esto nos previene contra los posibles defectos de la igualación y

nos permite también tener en cuenta la influencia de cualquier situación que pueda

originar variaciones simultáneas en ambos grupos y que de otro modo no

detectaríamos. Siempre es preciso tener el cuenta las posibles alteraciones que

pueden producirse en la conducta de los grupos cuando éstos conocen que se

hallan en una situación experimental.

Page 158: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 144

Los esquemas vistos anteriormente son los más simples que se emplean; existen

modelos que se denominan "antes y después con dos grupos de control", "antes y

después con tres grupos de control", y otras variaciones sobre estos modelos básicos.

Dan lugar, por lo general, a conocimientos más precisos y valiosos, aunque su aplicación

es muy costosa y delicada.

3.1.5. EXPERIMENTOS POST - FACTO Experimento post - facto quiere decir experimento que se realiza después de los hechos.

No se trata de un verdadero experimento, porque el investigador no controla ni regula las

condiciones de prueba. Pero el procedimiento lógico de que se vale es idéntico al de los

experimentos propiamente dichos.

Consiste en tomar como experimentales situaciones reales que se hayan producido

espontáneamente, trabajando sobre ellas como si efectivamente se hubieran dado bajo

nuestro control.

Si en un país tenemos dos regiones geográficas A y B, por ejemplo, que en cuanto a una

serie de variables tienen un comportamiento similar, y ocurre un hecho en una sola de

ellas, digamos la apertura de una carretera troncal, las modificaciones que se produzcan

en ésta y no en la otra pueden ser atribuidas a este hecho, pues ha sido el único factor de

peso que hubo en un caso y no en otro, y porque consideramos previamente que ambos

sujetos en estudio eran homogéneos. Podemos atribuir un incremento del comercio o un

cambio en las pautas sociales a los efectos que produce esta vía de comunicación.

Casi todo el trabajo de comparaciones históricas, sociales y culturales se basa en una

lógica de este tipo. Así, por ejemplo, el estudio de los procesos de desarrollo económico

hechos por diversas escuelas del pensamiento social, como el análisis comparativo de

políticas públicas, de tratamientos terapéuticos y procedimientos administrativos, están

realizados bajo este tipo de diseño.

3.1.6. ENCUESTAS Este diseño es exclusivo de las ciencias sociales y parte de la premisa de que, si

queremos conocer algo sobre el comportamiento de las personas, lo mejor, lo más directo

y simple, es preguntárselo a ellas.

Page 159: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 145

Se trata de requerir información a un grupo socialmente significativo de personas acerca

de los problemas en estudio para luego, mediante un análisis de tipo cuantitativo, sacar las

conclusiones que correspondan con los datos recogidos.

Cuando se recaba información a todas las personas que están involucradas en el

problema en estudio, este diseño toma el nombre de censo. Los censos, por las

dificultades materiales que implican su realización, casi siempre son trabajos emprendidos

por el Estado o por instituciones de muchos recursos. Por la cantidad de personas que se

deben entrevistar, no es factible obtener información muy detallada, pues se convertirían

en trabajos desproporcionadamente difíciles de ejecutar y analizar.

En su lugar, se realizan encuestas por muestreo, en las que se escoge, por

procedimientos estadísticos, una parte significativa de todo el universo que se toma como

objeto a investigar. Las conclusiones que se obtienen a partir de la muestra pueden

generalizarse a todo el universo con un margen de error conocido y limitado previamente.

Una encuesta es sólo uno de los métodos posibles de estudio de la realidad social, que

presenta puntos a favor y en contra.

Sus principales ventajas son:

1. Su conocimiento de la realidad es primario, no mediado, y por lo tanto, menos

engañoso.

2. Como es posible agrupar los datos en forma de cuadros estadísticos, se hace más

accesible la medición de las variables.

3. Es un método de trabajo relativamente económico y rápido.

Las desventajas más frecuentes son:

1. La encuesta recoge la visión que la gente tiene de sí misma: no es lo mismo lo que

la gente hace, siente o cree, que lo que la gente "dice" que hace, siente o cree.

Existen algunos recursos para reducir la magnitud de este serio problema, como

omitir algunas preguntas que sabemos que las personas no quieren responder,

cuidar la presentación del entrevistador, etc.

2. La encuesta relata los hechos sociales desde el punto de vista de sus actores, pero

no considera las relaciones sociales interpersonales o institucionales.

3. El diseño es básicamente estático. Tiende a dar una imagen instantánea de un

determinado problema, pero no nos indica sus tendencias.

Page 160: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 146

4. El tratamiento de la información es estadístico. Esto puede resultar muy

democrático y útil, pero casi nunca se corresponde con la realidad de los hechos

sociales, donde el liderazgo y la asimetría social son la norma.

Las encuestas resultan apropiadas para estudios de tipo descriptivo, pero no tanto para

los explicativos. Son adecuadas para estudios de mercado masivo y opiniones electorales,

pero no tanto para el estudio de tipos de liderazgo y a los problemas que se refieren a

estructuras y relaciones sociales.

3.1.7. EL PANEL Surge como respuesta al panorama estático que ofrecen las encuestas y pretende superar

esta dificultad a través de la repetición de mediciones normalizadas.

Se llama panel a toda sucesión de mediciones que se hacen en condiciones regulares y

que se aplica a determinar los valores de una variable, para un cierto objeto. Es una forma

de presentación secuencial de datos de cualquier tipo, que tiene la ventaja de

proporcionarnos información acerca de sus variaciones en el tiempo.

Es esencial que las mediciones se realicen siempre bajo las mismas condiciones,

empleando para todos los casos un mismo instrumento de recolección de datos. Esto

permite la exacta comparación de los resultados y posibilita hacer una análisis de

tendencias.

Mucha información económica se presenta de esta manera, ya que carece de sentido

hablar del PBI o de la tasa de inversión de un país o una región si no ubicamos estos

datos dentro de una perspectiva histórica.

También se utiliza para reflejar el crecimiento de la población urbana y rural, o la

aceptación de un candidato.

Un panel es algo así como una encuesta repetida: un mismo cuestionario que se

administra a una misma muestra para observar la evolución y las modificaciones de las

respuestas. Las encuestas deben realizarse en lapsos prefijados y regulares.

Una dificultad que presenta este diseño es lo que se denomina mortandad del panel, que

consiste en la progresiva reducción de la muestra por diversas causas: traslados, fatiga y

otros problemas. Al reducirse el número de entrevistados, el error muestral aumenta

progresivamente.

Otro problema es la saturación del panel, que consiste en una actitud de rechazo

progresivo por parte de los entrevistados. Después de ser sometida varias veces a las

Page 161: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 147

mismas preguntas, la gente empieza a cansarse de ellas: surgen respuestas

estereotipadas, de mala voluntad, hay apresuramiento para responder y otros problemas

similares que aumentan sensiblemente los errores.

Para reducir el efecto de estos fenómenos, se puede reemplazar la muestra en parte, de

medición a medición. Para ello, debemos seleccionar un número determinado de sub -

muestras, lo más parecidas posibles en todos sus aspectos fundamentales. Estos

reemplazos reducen la mortandad del panel y eliminan todo efecto de saturación.

3.1.8. ESTUDIOS DE CASOS Es el estudio profundizado y exhaustivo de uno o muy pocos objetos de investigación, lo

que permite obtener un conocimiento amplio y detallado de los mismos. Se basa en la idea

de que, si estudiamos con atención cualquier unidad de un cierto universo, estaremos en

condiciones de conocer algunos aspectos generales del mismo; por lo menos, tendremos

una perspectiva, una reseña general que orientará una búsqueda posterior.

Así, si nuestro interés es conocer la estructura y funcionamiento de las universidades,

podemos partir del supuesto de que todos los objetos que pertenecen a la categoría

"universidad" tienen algunas características en común, que permiten ubicarlos dentro de

una categoría general. Si estudiamos una universidad cualquiera podremos, entonces,

reconocer esas líneas comunes o por lo menos obtener un punto de partida para ello.

Lógicamente, no estaremos a cubierto de la posibilidad de que la universidad elegida sea

un caso anormal dentro de su especie.

La mayor limitación de este tipo de investigación es la absoluta imposibilidad de

generalizar o extender a todo el universo los hallazgos obtenidos. Su principal ventaja es

su relativa simplicidad y economía.

La utilidad de los estudios de casos es mayor cuando se trata de investigaciones

exploratorias o para las fases iniciales de una investigación sobre temas más complejos,

para formular hipótesis o reconocer cuáles son las principales variables involucradas en un

problema. También los estudios de casos son recomendables cuando el verdadero interés

del investigador se centra en algunos pocos objetos de estudio: resulta obvio que conviene

estudiar los planetas del sistema solar o los ríos de una región como casos particulares.

Para seleccionar los casos de interés conviene seguir ciertos criterios:

• Buscar casos típicos: aquellos objetos que parecen ser la mejor expresión del tipo

ideal.

Page 162: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 148

• Seleccionar casos extremos. Así, podríamos considerar una universidad muy

antigua y otra de reciente creación. La ventaja de utilizar casos extremos reside en

que, de este modo, probablemente, podamos tener una idea de los límites dentro

de los cuales nuestras variables pueden oscilar.

• Tomar casos desviados o marginales: es una forma muy utilizada por la medicina y

la psiquiatría. Se trata de encontrar casos atípicos o anormales para, por contraste,

conocer las cualidades propias de los casos normales y las posibles causas de su

desviación.

3.1.9. EL DISEÑO CONCRETO DE LA INVESTIGACIÓN Lo importante no es conocer toda la lista de posibles diseños, sino apelar al razonamiento

lógico y a la experiencia para determinar, antes de recolectar los datos, qué información

nos proporcionará un determinado método y qué relevancia y confiabilidad puede

asignársele a la misma. Por ejemplo, un estudio que se hace sobre un solo caso puede

estar antecedido por toda una sección bibliográfica y recoger gran parte de los datos a

través de encuestas por muestreo, si el caso que se va a investigar es una institución o

comunidad que integran varios centenares de individuos; una encuesta puede ser

profundizada, en algunos aspectos de primordial interés, realizando estudios de casos

sobre una sub - muestra de la misma, a la vez que se podrá analizar con una secuencia

tipo panel; un experimento se puede repetir a intervalos sucesivos (panel), o quizás sea

necesario utilizar encuestas para medir las variables de un estudio post - facto en el

campo de lo social.

3.1.10. LA RESEÑA DE PROCEDIMIENTOS Y EL PROYECTO DE INVESTIGACIÓN Una vez seleccionado el diseño concreto que se va a utilizar en la investigación, se hace

necesario poner en claro las formas específicas que éste habrá de adoptar, definiendo las

operaciones concretas para llevarla a cabo. A esta actividad la denominamos reseña de procedimientos, y para realizarla es preciso detallar:

• Las variables que se deben medir y su relación con las otras variables que

intervienen.

• Los esquemas lógicos de comprobación y la interpretación que puede dárseles a

los diversos resultados posibles.

Page 163: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 149

• Los pasos necesarios para llevar a cabo el diseño de la investigación, ordenada y

explícitamente.

• Los recursos materiales y humanos necesarios.

• Cualquier otro elemento de importancia para la demarcación de tareas:

cronograma, presupuesto, lista de actividades y materiales, formas de registro, etc.

La reseña de procedimientos debe ser completada, para mayor claridad, con un esquema de presentación de la investigación, que será previo y provisional. Este esquema tiene

por objeto proporcionar una visión general de cómo va a resultar, en conjunto, nuestro

trabajo, lo que nos servirá de orientación acerca de sus posibles omisiones, incoherencias

y contradicciones. Debe constar, cuando existen datos que se van a procesar

estadísticamente, el plan de cuadros que se presentarán y, en todos los casos, del

esquema de capítulos o partes que se desarrollarán en el contenido del trabajo.

Estos esquemas son tentativos y, por lo tanto, están sujetos a una cantidad de revisiones

posteriores. Lo importante no es elaborar el plan perfecto, sino poseer de antemano una

guía que haga posible una actividad más organizada.

Estas tareas pueden desarrollarse antes o después de encarar la operacionalización, pero

es fundamental que estén concluidas antes de abordar la recolección de datos, ya que de

otro modo trabaremos a ciegas durante toda esta etapa.

El proyecto de investigación es un documento que elabora el investigador para

especificar las características de la indagación que va a realizar. Generalmente va

antecedido de un anteproyecto, un documento similar pero menos preciso que se elabora

al comenzar la investigación, apenas se hayan definido sus características principales.

En un anteproyecto deben exponerse las características del problema, su justificación, los

objetivos de la investigación y (si las hubiere) las hipótesis a verificar. En un proyecto es

preciso completar mucho más la información, profundizando y definiendo mejor lo tratado

en el anteproyecto y agregándole lo relativo al diseño de la investigación, así como un

marco teórico que haga comprensible el sentido de lo que se proyecta.

3.1.11. REFERENCIAS o Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed.

Lumen - Humanitas.

Page 164: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 150

3.2. LAS HIPÓTESIS

Podemos definir la hipótesis como un intento de explicación o una respuesta "provisional"

a un fenómeno. Su función consiste en delimitar el problema que se va a investigar según

algunos elementos tales como el tiempo, el lugar, las características de los sujetos, etc.

Llegar a comprobar o rechazar la hipótesis que se ha elaborado previamente,

confrontando su enunciado teórico con los hechos empíricos, es el objetivo primordial de

todo estudio que pretenda explicar algún campo de la realidad.

Para plantear una hipótesis adecuada, debemos tener en cuenta los siguientes puntos:

1. Los términos que se empleen deben ser claros y concretos para poder definirlos de

manera operacional, a fin de que cualquier investigador que quiera replicar la

investigación, pueda hacerlo.

Una hipótesis sin referencia empírica constituye un juicio de valor.

Si una hipótesis no puede ser sometida a verificación empírica, desde el punto de

vista científico no tiene validez.

2. Las hipótesis deben ser objetivas y no llevar algún juicio de valor; es decir, no debe

definirse el fenómeno con adjetivos tales como "mejor" o "peor", sino solamente tal

y como pensamos que sucede en la realidad.

3. Las hipótesis deben ser específicas, no sólo en cuanto al problema, sino a los

indicadores que se van a emplear para medir las variables que estamos estudiando.

4. Las hipótesis deben estar relacionadas con los recursos y las técnicas disponibles.

Esto quiere decir que cuando el investigador formule su hipótesis debe saber si los

recursos que posee son adecuados para la comprobación de la misma.

5. La hipótesis debe estar directamente relacionada con el marco teórico de la

investigación y derivarse de él.

Las hipótesis deben ser producto de la observación objetiva y su comprobación, estar al

alcance del investigador.

3.2.1. REQUISITOS DE LAS HIPÓTESIS: Las hipótesis deben:

Page 165: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 151

• Establecer las variables a estudiar, es decir, especificar las variables a estudiar,

fijarles límite.

• Establecer relaciones entre variables, es decir, la hipótesis debe ser especificada

de tal manera que sirva de base a inferencias que nos ayuden a decidir si explica o

no los fenómenos observados. Las hipótesis deben establecer relaciones

cuantitativas entre variables.

• Mantener la consistencia entre hechos e hipótesis, ya que éstas se cimentan, al

menos en parte, sobre hechos ya conocidos. Por tanto, las hipótesis no deben

establecer implicaciones contradictorias o inconsistentes con lo ya verificado en

forma objetiva.

3.2.2. TIPOS DE HIPÓTESIS • Hipótesis nula. Para todo tipo de investigación en la que tenemos dos o más

grupos, se establecerá una hipótesis nula.

La hipótesis nula es aquella que nos dice que no existen diferencias

significativas entre los grupos.

Por ejemplo, supongamos que un investigador cree que si un grupo de

jóvenes se somete a un entrenamiento intensivo de natación, éstos serán

mejores nadadores que aquellos que no recibieron entrenamiento. Para

demostrar su hipótesis toma al azar una muestra de jóvenes, y también al

azar los distribuye en dos grupos: uno que llamaremos experimental, el cual

recibirá entrenamiento, y otro que no recibirá entrenamiento alguno, al que

llamaremos control. La hipótesis nula señalará que no hay diferencia en el

desempeño de la natación entre el grupo de jóvenes que recibió el

entrenamiento y el que no lo recibió.

Una hipótesis nula es importante por varias razones:

1. Es una hipótesis que se acepta o se rechaza según el resultado de la investigación.

2. El hecho de contar con una hipótesis nula ayuda a determinar si existe una

diferencia entre los grupos, si esta diferencia es significativa, y si no se debió al

azar.

No toda investigación precisa de formular hipótesis nula. Recordemos que la

hipótesis nula es aquella por la cual indicamos que la información a obtener

es contraria a la hipótesis de trabajo.

Page 166: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 152

Al formular esta hipótesis, se pretende negar la variable independiente. Es

decir, se enuncia que la causa determinada como origen del problema

fluctúa, por tanto, debe rechazarse como tal.

Otro ejemplo:

Hipótesis: el aprendizaje de los niños se relaciona directamente con su edad.

Hipótesis nula: no existe diferencia significativa entre el aprendizaje en niños

de diversas edades.

• Hipótesis conceptual. Es la hipótesis que se formula como resultado de las

explicaciones teóricas aplicables a nuestro problema. Nos ayuda a explicar desde el

punto de vista teórico el fenómeno que estamos investigando.

Es la hipótesis orientadora de la investigación, intenta enfocar el problema

como base para la búsqueda de datos. No puede abarcar más de lo

propuesto en los objetivos de la investigación o estar en desacuerdo con

ellos.

Podemos enunciarla como una relación causal o determinante proveniente

del planteamiento del problema, de donde se desprenden las variables.

• Hipótesis de trabajo. Es aquella que le sirve al investigador como base de su

investigación, o sea, trata de dar una explicación tentativa al fenómeno que se está

investigando. Ésta es la hipótesis que el investigador tratará de aceptar como

resultado de su investigación, rechazando la hipótesis nula.

Se dice que la hipótesis de trabajo es operacional por presentar

cuantitativamente (en términos medibles) la hipótesis conceptual o general.

• Hipótesis alternativa. Al responder a un problema, es muy conveniente proponer

otras hipótesis en que aparezcan variables independientes distintas de las primeras

que formulamos. Por tanto, para no perder tiempo en búsquedas inútiles, es

necesario hallar diferentes hipótesis alternativas como respuesta a un mismo

problema y elegir entre ellas cuáles y en qué orden vamos a tratar su

comprobación.

Las hipótesis, naturalmente, serán diferentes según el tipo de investigación que se esté

realizando. En los estudios exploratorios, a veces, el objetivo de la investigación podrá ser

simplemente el de obtener los mínimos conocimientos que permitan formular una

hipótesis. También es aceptable que, en este caso, resulten poco precisas, como cuando

Page 167: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 153

afirmamos que "existe algún tipo de problema social en tal grupo", o que los planetas

poseen algún tipo de atmósfera, sin especificar de qué elementos está compuesta.

Los trabajos de índole descriptiva generalmente presentan hipótesis del tipo "todos los X

poseen, en alguna medida, las característica Y". Por ejemplo, podemos decir que todas

las naciones poseen algún comercio internacional, y dedicarnos a describir, cuantificando,

las relaciones comerciales entre ellas. También podemos hacer afirmaciones del tipo "X

pertenece al tipo Y", como cuando decimos que una tecnología es capital - intensiva. En

estos casos, describimos, clasificándolo, el objeto de nuestro interés, incluyéndolo en un

tipo ideal complejo de orden superior.

Por último, podemos construir hipótesis del tipo "X produce (o afecta) a Y", donde

estaremos en presencia de una relación entre variables.

Sólo en los casos de investigaciones explicativas es necesario formular claramente cuáles son las hipótesis de la investigación. En las investigaciones descriptivas y, con

más razón, en las exploratorias, es posible omitir las hipótesis, ya sea porque éstas son

tan amplias y poco definidas que dicen muy poco a quien lee el informe de investigación, o

porque no es posible o necesario verificarlas. 3.2.3. DIFICULTADES PARA LA FORMULACIÓN DE HIPÓTESIS

• Falta de conocimientos o ausencia de claridad en el marco teórico.

• Falta de aptitud para la utilización lógica del marco teórico.

• Desconocimiento de las técnicas adecuadas de investigación para redactar

hipótesis en debida forma.

3.2.4. UTILIDAD DE LAS HIPÓTESIS El uso y formulación correcta de las hipótesis le permiten al investigador poner a prueba

aspectos de la realidad, disminuyendo la distorsión que pudieran producir sus propios

deseos o gustos. Pueden ser sometidas a prueba y demostrarse como probablemente

correctas o incorrectas sin que interfieran los valores o creencias del individuo.

3.2.5. ESTRUCTURA DE LAS HIPÓTESIS Una hipótesis generalmente se especifica por la estructura SI - ENTONCES (cuando

intervienen dos variables).

Cuando las variables son más de dos, las estructuras más frecuentes son:

Page 168: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 154

• Si P, entonces Q, bajo las condiciones R y S.

• Si P1, P2 y P3, entonces Q.

3.2.6. REFERENCIAS o Tenorio Bahena, Jorge. INVESTIGACIÓN DOCUMENTAL. 3ª ed. México (1988).

Ed. Mac Graw - Hill.

o Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS SOCIALES.

5ª ed. México (1994). Ed. Trillas S.A.

o Tamayo y Tamayo, Mario. EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA. 3ª

ed. México (1998). Ed. Limusa S.A.

o Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed.

Lumen - Humanitas.

Page 169: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 155

<

3.3. LAS VARIABLES

Se pueden definir como todo aquello que vamos a medir, controlar y estudiar en una

investigación o estudio. Por lo tanto, es importante, antes de iniciar una investigación, que

sepamos cuáles son las variables que vamos a medir y la manera en que lo haremos. Es

decir, las variables deben ser susceptibles de medición. Variable es todo aquello que

puede asumir diferentes valores, desde el punto de vista cuantitativo o cualitativo. Las

variables pueden ser definidas conceptual y operacionalmente. La definición conceptual es

de índole teórica, mientras que la operacional nos da las bases de medición y la definición

de los indicadores.

Para definir las variables, nos podemos basar en los indicadores, que constituyen el

conjunto de actividades o características propias de un concepto. Por ejemplo, si

hablamos de inteligencia, podemos decir que está compuesta por una serie de factores

como la capacidad verbal, capacidad de abstracción, etc.

Cada factor puede ser medido a través de indicadores. En otras palabras, los indicadores

son algo específico y concreto que representan algo más abstracto o difícil de precisar. No

todos los indicadores tienen el mismo valor. Es decir, aunque haya varios indicadores para

un mismo fenómeno, habrá algunos más importantes que otros, y por lo general cualquier

indicador que se tenga está basado en una probabilidad de que realmente represente al

fenómeno.

3.3.1. ALGUNOS CRITERIOS PARA ESCOGER LOS INDICADORES • Se debe tener el menor número de indicadores de una variable, siempre y cuando

éstos sean realmente representativos de la misma.

• Se deben poseer formas de medición específicas para cada indicador.

• Hay que tener en cuenta que los indicadores sólo poseen una relación de

probabilidad con respecto a la variable.

3.3.2. VARIABLE INDEPENDIENTE Y VARIABLE DEPENDIENTE La variable independiente es aquella propiedad de un fenómeno a la que se le va a

evaluar su capacidad para influir, incidir o afectar a otras variables.

Page 170: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 156

La variable independiente por manipulación es la que el investigador aplica según su

criterio, se hace en estudios de carácter experimental. Todo aquello que el experimentador

manipula, debido a que cree que existe una relación entre ésta y la variable dependiente.

La variable independiente asignada o seleccionada es la que el investigador no puede

modificar, pero se desea saber si influye sobre la variable dependiente. No son

manipulables.

La variable dependiente puede ser definida como los cambios sufridos por los sujetos

como consecuencia de la manipulación de la variable independiente por parte del

experimentador.

3.3.3. VARIABLE INTER Y VARIABLE INTRA Las variables inter son aquellas que estudian simultáneamente varios grupos de

sujetos.Las comparaciones se establecen entre (inter) los grupos.

Las variables intra son aquellas que pueden estudiar al mismo grupo en diferentes

períodos. O sea, las comparaciones se establecen dentro de un mismo grupo.

3.3.4. VARIABLES EXTRAÑAS Son todas aquellas variables que el investigador no controla directamente, pero que

pueden influir en el resultado de su investigación. Deben ser controladas, hasta donde sea

posible, para asegurarnos de que los resultados se deben al manejo que el investigador

hace de la variable independiente, más no a variables extrañas, no controladas. Algunos

métodos para realizar este control son los siguientes:

3.3.4.1. ELIMINACIÓN. Cuando sabemos que existe una variable extraña que puede alterar los resultados de la

investigación, podemos controlarla mediante la eliminación.

3.3.4.2. CONSTANCIA DE CONDICIONES Si, por ejemplo, en un estudio experimental deseamos estudiar dos o más grupos de

sujetos, éstos se deben someter exactamente a las mismas condiciones, tanto físicas

como de lugar, manteniendo, de esta manera, constantes las circunstancias bajo las

cuales se investiga.

Page 171: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 157

3.3.4.3. BALANCEO Cuando tenemos una variable extraña puede influir de manera definitiva en nuestro

estudio y, si no la podemos eliminar ni igualar las condiciones de los grupos, deberemos

recurrir al balanceo. Este mecanismo distribuye en forma equitativa la presencia de la

variable extraña entre los grupos.

3.3.4.4. CONTRABALANCEO En algunas investigaciones se pide a los sujetos que respondan varias veces a un mismo

estímulo o a varios estímulos diferentes. Esta serie de respuestas puede provocar en los

mismos dos reacciones: por un lado, fatiga, porque los sujetos se cansan de estar

respondiendo; por otro lado, aprendizaje, ya que después de presentar 2 o 3 veces el

mismo estímulo el sujeto ya sabe cómo responder. Para evitar estos problemas, los

grupos se pueden subdividir en subgrupos para que los efectos de la fatiga y/o aprendizaje

queden anulados.

3.3.4.5. ALEATORIZACIÓN Este método de control es uno de los más sencillos y más utilizados en ciencias sociales,

sobre todo cuando se llevan a cabo estudios experimentales. Se parte del postulado de

que si la selección y distribución de sujetos en grupos de control fue hecha al azar,

podemos inferir que las variables extrañas, desconocidas por el investigador, se habrán

repartido también al azar en ambos grupos, y así quedarán igualadas.

3.3.5. VARIABLES CONTINUAS Y VARIABLES DISCRETAS. Una variable continua es aquella que puede asumir cualquier valor numérico y que puede

cambiar en cualquier cantidad. Una variable discreta es aquella que tiene valores

numéricos enteros previamente establecidos, los cuales no pueden cambiarse

arbitrariamente

3.3.6. CAUSALIDAD Al hablar de variables independientes y dependientes, debemos tener cuidado de no caer

en el error de afirmar que la variable dependiente es causada por la variable

independiente. A este tipo de conclusiones se puede llegar en muy contadas situaciones.

En ciencias sociales, es conveniente hablar de relaciones entre variables, y no de causas.

Page 172: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 158

3.3.7. REFERENCIAS o Susan Pick y Ana Luisa López -CÓMO INVESTIGAR EN CIENCIAS SOCIALES -

Ed. Trillas - 1998

Page 173: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 159

3.4. LA VARIABLE

Una vez que alcanzamos un conocimiento relativamente amplio del tema que se va a

investigar, debemos dedicarnos a aislar, dentro del problema, los factores más

importantes que en él intervienen. Por ejemplo: si se trata de un problema de

comercialización, los aspectos fundamentales que deberemos estudiar serán la oferta y la

demanda, las motivaciones del consumidor, la distribución, la publicidad y otros factores

semejantes. Gracias a estos factores, estaremos en condiciones de construir el marco

teórico dentro del que se inserta el fenómeno de nuestro interés.

En aquellos casos en que sea posible llegar a un grado de aislamiento de los factores

involucrados en el problema, resulta útil realizar un esquema de variables que nos

permitirá organizar mejor nuestro marco teórico. Una variable es cualquier característica o

cualidad de la realidad que es susceptible de asumir diferentes valores, ya sea cuantitativa

o cualitativamente.

Es decir, que puede variar. Aunque para un objeto determinado pueda tener un valor fijo.

Por ejemplo: una mesa; no puede ser, en sí, una variable. Pero, si nos referimos a la altura

de una mesa, estamos en presencia de una variable. O sea, que esa cualidad de la mesa

(la altura) puede asumir diferentes valores. No quiere decir que la altura de una mesa

determinada deba variar, sino que el concepto genérico "altura de una mesa" puede variar

de un caso a otro.

Las variaciones puede también producirse para un mismo objeto, y no sólo entre

diferentes objetos. Por ejemplo: el caudal de un río.

También podemos decir que una variable es todo aquello que vamos a medir, controlar y

estudiar en una investigación o estudio. Las variables pueden ser definidas conceptual y

operacionalmente.

3.4.1. CLASES DE VARIABLES • Cualitativas. Sobre ellas no se construye una serie numérica. Por ejemplo: colores.

• Cuantitativas. Admiten una escala numérica de medición.

Todos los valores que llega a tener una variable pueden entenderse como una serie, una

sucesión más o menos ordenada de posibilidades:

Page 174: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 160

• Continuas. Cuando entre uno y otro valor existen infinitas posibilidades

intermedias. Por ejemplo: la altura de una persona, el peso de un objeto, el

rendimiento de un estudiante.

• Discretas. Cuando estas posiciones intermedias carecen de sentido, pues la

variable se modifica de "a saltos" entre un valor y otro, y no en forma paulatina. Por

ejemplo: la cantidad de hijos que puede tener una persona, el número de países

que intervienen en una conferencia. Sin embargo, sí tiene sentido, y se emplea

usualmente, calcular promedios sobre estas variables.

• Un caso particular de las variables discretas, es la variable dicotómica, que es

aquella que sólo admite dos posibilidades: muerto/vivo; hombre/mujer.

Otra clasificación:

• Categóricas. Tienen la característica de que todos los miembros de una categoría

se consideran iguales en lo que se refiere a esa variable. Por ejemplo: las mujeres. • Medidas. Se pueden asignar numerales a las personas u objetos en base a que

poseen cantidades de alguna característica o propiedad. • Experimentales o manipuladas. Cuando los investigadores establecen

condiciones experimentales, crean o producen variables.

3.4.2. VARIABLES Y DIMENSIONES En la práctica, muchas de las características que nos interesan estudiar no son tan

simples... Resulta muy sencillo medir y comparar la variable "cantidad de hijos que posee

una persona", pero nos enfrentamos con una dificultad mayor si pretendemos conocer el

"rendimiento de un estudiante".

Cuando nos hallamos frente a variables complejas que resumen o integran una

multiplicidad de aspectos diversos, debemos recurrir a subdividir o descomponer la

variable en cualidades más simples y fáciles de medir. A estas sub - cualidades que en

conjunto integran la variable se las denomina dimensiones de la misma.

Dimensión: es un componente significativo de una variable, que posee una relativa

autonomía. Así, el patriarcalismo de una sociedad es una síntesis de un cierto tipo de

organización familiar, determinados valores individuales y pautas definidas de

organización económica.

Un ejemplo más simple: el tamaño de un objeto está determinado por su altura, largo y

ancho.

Page 175: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 161

Cuando hablamos de "relativa autonomía", hacemos referencia a que las dimensiones

pueden presentar diferentes valores unas de otras, pero siempre dentro de ciertos límites

de congruencia. Si el largo de un objeto se modificara al variar su altura, no estaríamos en

presencia de dos dimensiones de una misma variable, sino frente a dos variables

diferentes, una de las cuales influye sobre la otra.

Una misma cualidad puede considerarse como una variable en sí o como una dimensión

de una variable mayor, según el enfoque y los propósitos que guíen cada investigación,

pues se trata de definiciones de carácter instrumental que el científico realiza de acuerdo

con la naturaleza del problema planteado.

Si nos interesa conocer y distinguir a las personas de acuerdo a su nivel socio -

económico, podemos descomponer esta variable en dos dimensiones: el nivel social y el

nivel económico. pero, si estamos estudiando el ingreso de las familias, debemos manejar

el concepto "nivel económico" como una variable en sí y nos veremos en la necesidad de

descomponerla en algunas de las dimensiones que la integran.

Una calidad intervienen como variable en una investigación cuando nos es útil relacionarla

como un todo con otra u otras variables. En cambio, debemos tomarla sólo como una

dimensión cuando su sentido como cualidad aislada sea poco significante y deba

agruparse con otras cualidades para poder ser relevante.

Cada una de las variables y dimensiones que hemos aislado debe ser definida con la

mayor rigurosidad posible, asignándole un sentido unívoco y claro para evitar que se

originen ambigüedades, distorsiones e innecesarias discusiones sobre la terminología.

3.4.3. RELACIONES ENTRE VARIABLES Luego de haber precisado los factores que intervienen en un problema, de haberlos

definido y analizado hasta determinar el tipo de condicionamiento que los une, habremos

obtenido un conjunto de variables relacionadas entre sí de una cierta manera. Debemos

entonces organizar estas relaciones observadas de modo tal que podamos construir un

esquema coherente que exprese el cuadro general del problema.

Una variable independiente es aquella que, dentro de la relación establecida, no

depende de ninguna otra, aunque pudiera estar dependiente si estudiáramos otro

problema. Son las condiciones manipuladas por el investigador a fin de producir ciertos

efectos.

Page 176: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 162

Una variable dependiente es aquella cuyos valores dependen de los que asuma otra

variable. Por ejemplo, si el investigador sostiene la hipótesis de que si administra una

determinada droga a un grupo de niños, el grado de aprendizaje de éstos se incrementará.

En este caso, la variable independiente estará representada por la droga manipulada por

el experimentador, y la variable dependiente será el grado de aprendizaje de los niños.

Una variable es interviniente cuando resulta un factor que interviene entre dos variables

modificando o alterando con su propio contenido las relaciones que existen entre esos dos

elementos. Por ejemplo:

• Variable A: alimentación que se recibe en la infancia (variable independiente).

• Variable B: nivel de inteligencia posterior de la persona (variable dependiente).

• Variable C: nivel socio - económico (variable interviniente que influye a A).

Conviene analizar si la variable interviniente aparece a partir de la variable independiente,

es decir, es posterior a ella y con anterioridad a la variable independiente, o si actúa como

factor concerniente en la relación de variables.

Es normal que una variable no sólo afecte a otra más, sino a varias simultáneamente, así

como que una variable dependiente sea influida por dos, tres o más variables

independientes.

Además de estas tres posiciones básicas que las variables pueden adoptar al relacionarse

entre sí, existe una cuarta posibilidad que se refiere a las dos características del universo

que ejercen una influencia de tipo difuso y general sobre todo el conjunto de los hechos

considerados. Las variables contextuales indican el ámbito general donde se desarrollan

los fenómenos que se estudian. Por ejemplo: los valores presentes en una sociedad, el

tipo de estructura económica.

La variable antecedente es la que se supone como "antecedente" de otra. Ejemplo: para

realizar el aprendizaje se supone un grado mínimo de inteligencia. Por lo tanto, la variable

inteligencia es antecedente de la variable aprendizaje.

Cuando existe una variable independiente no relacionada con el propósito del estudio,

pero que puede presentar efectos sobre la variable dependiente, tenemos una variable extraña. Por tal razón, un estudio bien diseñado es aquel que nos asegura que el efecto

sobre la variable dependiente sólo puede atribuirse a la variable independiente y no a

variables extrañas. Ejemplo: si deseamos evaluar el efecto de determinado método de

enseñanza, podemos considerar que la inteligencia es una variable extraña.

Page 177: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 163

Otro ejemplo: si parte de la investigación consiste en la aplicación de pruebas

psicológicas, y en el momento de la aplicación hay mucho ruido o se corta la luz, estas

alteraciones pueden considerarse como variables extrañas.

3.4.4. REFERENCIAS o Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed.

Lumen - Humanitas.

o Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS SOCIALES.

5ª ed. México (1994). Ed. Trillas S.A.

o Tamayo y Tamayo, Mario. EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA. 3ª

ed. México (1998). Ed. Limusa S.A.

Page 178: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 164

3.5. EL PROBLEMA DE LA CAUSALIDAD

Una de las mayores preocupaciones de todo científico se refiere a las causas que originan

los fenómenos. Encontrar las causas, las razones que producen determinados hechos es

encontrar una explicación para los mismos. La relación causal o relación causa-efecto se

presenta en las ciencias naturales. Así, por ejemplo, siempre que un trozo de hierro (a

presión atmosférica) alcanza los 1.535 º C, se funde, y siempre que se funde es que ha

alcanzado esa temperatura.

En el área de las ciencias humanas, los fenómenos ocurren en un marco muy complejo de

variables interrelacionadas de tal modo que, al acontecer el fenómeno en estudio, no sólo

percibimos la presencia de una, dos o tres variables, sino de una multiplicidad de ellas,

que a su vez que modifican en influencia entre sí.

Muchas veces se habla del carácter histórico, irrepetible, de todos los acontecimientos

humanos, pretendiendo que es imposible abstraer, a partir de ellos, leyes generales. Éste

es un argumento poco sólido pues, en esencia, los hechos físicos son también irrepetibles.

Si fundimos una barra de hierro, ese hecho, en sí mismo, es también único, ya que

podemos volver a hacer esa misma operación con otro trozo de metal o con el mismo

trozo después de un tiempo, pero se tratará de hechos muy similares, casi idénticos, pero

nunca el mismo hecho.

En cada operación en que se repite un experimento, el investigador puede regular con

relativa precisión el comportamiento de muchas variables que podrían intervenir: controla

la presión, la composición química del material que va a fundir y de la atmósfera en que se

encuentra, el tamaño del objeto, etc. Este tipo de control, que consiste en aislar el

fenómeno de la influencia de los muchos factores que no nos interesan como posibles

causas, es lo que es prácticamente imposible de realizar en el campo de lo social.

Si dijéramos que las depresiones se producen cada vez que la oferta de bienes y servicios

excede a la demanda en una cierta proporción, encontraríamos que esta relación no

puede adoptar la forma cerrada de un modelo causal. Si bien es cierto que ambas

variables están estrechamente ligadas dentro de una economía de libre mercado, no

podemos negar que existen muchas otras influencias y circunstancias que inciden

directamente: el tipo de control que puede ejercer el Estado sobre la economía, la tasa de

Page 179: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 165

inversión, el tipo de tecnología empleado, factores psicosociales, políticos, etc. son

variables capaces de estimular, reducir, desencadenar o impedir ese fenómeno, según su

peso relativo.

Por esto, la relación de causa ha sido suplantada por el concepto más abierto de

determinación. Decir que A determina a B significa tan sólo expresar que ejerce una

influencia, que es capaz de alterar o modificar el comportamiento de B. No diríamos así

que A es causa de B - por cuanto B puede estar determinado además por muchos otros

elementos -, sino que A lo determina en alguna medida que es preciso evaluar.

Decir que el subdesarrollo es la causa de los cinturones de miseria que se forman

alrededor de muchas ciudades latinoamericanas, resulta una aseveración excesivamente

terminante, dado que "subdesarrollo" es una categoría demasiado amplia. Proponer, en

cambio, que esas áreas "marginales" tienen cierta correlación con una determinada forma

de industrialización, con migraciones interiores y con problemas de tipo cultural - por

ejemplo - es introducir un enfoque más rico y matizado del problema.

3.5.1. TIPOS DE DETERMINACIÓN • Condiciones necesarias: son aquellas sin las cuales es imposible que ocurra un

determinado fenómeno, aunque esto no quiere decir que cada vez que se

encuentre ocurra el fenómeno. Por ejemplo, para que en un país se produzca un

golpe militar es condición necesaria que exista un ejército organizado. Pero esto no

quiere decir que, habiendo un ejército organizado, esto provoque un golpe militar. • Condiciones suficientes: se refieren a circunstancias que, siempre que aparecen,

desencadenan el fenómeno en estudio, aunque no es necesario que ellas estén

presentes para producirlo. Por ejemplo, es condición suficiente para producir la

muerte, que se paralice durante un cierto período el funcionamiento del corazón,

pero el deceso de una persona puede producirse por muchas otras razones. • Condiciones contribuyentes: son aquellas que favorecen de una manera decisiva

el suceso investigado y que generalmente suelen producirlo, aunque no alcancen

un determinismo que pueda considerarse como necesario o suficiente. Por ejemplo:

tanto el riego como la radiación solar contribuyen al crecimiento de los vegetales,

pero lo hacen de modo diverso según la especie considerada. • Condiciones contingentes: son circunstancias que, pudiendo favorecer la

ocurrencia del hecho estudiado, se presentan sólo eventualmente, pudiendo estar

Page 180: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 166

por completo ausentes en la mayoría de los casos. El embargo petrolero decretado

por los países árabes en 1973 fue una contingencia que redujo la oferta de ese

producto, promoviendo un aumento notable de los precios, pero la disminución en

la oferta de los bienes se produce normalmente por muchas otras circunstancias.

Solamente en aquellos casos en que se pueda sostener que una condición es a la vez

necesaria y suficientes, podemos decir que estamos en presencia de la causa de un

hecho. Es decir, C es la causa de F cuando siempre que se presenta C, aparece F, y cada

vez que ocurre F es que está presente C.

3.5.2. REFERENCIAS o Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed.

Lumen - Humanitas.

Page 181: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 167

3.6. INDICADORES E ÍNDICES

Supongamos que estamos interesados en conocer si existen o no prejuicios raciales

dentro de una población. Para ello, naturalmente, deberíamos medir u observar, de algún

modo, la presencia de dichos prejuicios. Pero los prejuicios no son objetos que puedan

verse directamente, que puedan medirse como otros hechos del mundo físico: sólo

podemos conocerlos a través del modo en que se expresan o manifiestan en situaciones

determinadas, a través de hechos o acciones que podemos interpretar como originados en

los prejuicios raciales.

Estos hechos que se corresponden con los conceptos teóricos que nos interesan

(correlatos empíricos), son los indicadores de las variables que intentamos medir: sus

expresiones concretas, prácticas, medibles. El proceso de encontrar los indicadores que

permiten conocer el comportamiento de las variables es lo que llamamos

operacionalización.

En nuestro ejemplo, los indicadores de los prejuicios raciales serán la existencia o no de

matrimonios interraciales, la distribución de los empleos entre personas de las diferentes

comunidades étnicas, las restricciones al uso de elementos comunitarios, las actitudes que

se expresan en el trato cotidiano, giros o formas empleados en el lenguaje coloquial y en

los medios de comunicación, etc. Como a veces no es posible incorporar a una

investigación todos los indicadores posibles de una determinada variable, será necesario

elegir aquellos que más directamente reflejen el concepto que nos interesa y que - por otra

parte - resulten más accesibles a los medios de que disponemos para medirlos.

Para operacionalizar una variable, es necesario partir de la definición teórica que ya se ha

elaborado y, si se trata de una variable compleja, de las dimensiones en que puede

descomponerse la misma. Luego, revisando los datos ya disponibles y analizando los

conceptos en profundidad, podremos encontrar cierto conjunto de indicadores que - en

principio - expresen consistentemente el comportamiento de la variable estudiada, con lo

que habremos llegado a la definición operacional de la misma.

Así, la definición teórica de las migraciones dice que éstas son los desplazamientos

permanentes de la población, pero la definición operacional de ese concepto debiera

hacer referencia, más concretamente, a los saldos netos de las diferencias intercensales

Page 182: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 168

descontado el crecimiento vegetativo. Se trata de la misma idea, pero presentada ahora

de una forma operacional que permite encontrar rápidamente los datos empíricos

correspondientes.

La tarea de búsqueda y selección de indicadores es una tarea delicada, que exige mucho

cuidado y que requiere experiencia suficiente. Sucede a veces que existen muchos

indicadores posibles para una misma variable y resulta difícil encontrar cuáles son los más

apropiados para describirla. En otros casos, los indicadores encontrados no son fáciles de

medir y deben ser suplantados por otros menos confiables pero más asequibles a los

medios disponibles por el investigador. En otras ocasiones, algunos de los indicadores

sugeridos no miden exactamente la variable sino algún aspecto conexo o colateral, que en

realidad posee menor relevancia.

Para actuar adecuadamente frente a esta tarea, que es eminentemente práctica, se

requiere de una aguda intuición y, más que nada, de sólidos conocimientos sobre el tema

investigado. De otro modo, se corre el grave riesgo de realizar una selección subjetiva,

con lo que puede invalidarse gran parte del trabajo teórico previo.

Del mismo modo que las variables son susceptibles de ser operacionalizadas, a través de

los indicadores correspondientes, las hipótesis elaboradas teóricamente como relaciones

entre variables pueden también sufrir el mismo proceso. Para ello, se operacionalizan

cada una de las variables que intervienen en la hipótesis, definiendo sus indicadores.

Luego se procede a relacionar las definiciones operacionales de las variables entre sí, del

mismo modo en que se hacía al formular la hipótesis general o teórica. Así se obtiene una

hipótesis operacional, que puede ser directamente probada o refutada en la práctica.

3.6.1. CRITERIOS A CONSIDERAR PARA EL USO DE INDICADORES: 1. Se debe tener el menor número de indicadores de una variable, siempre y cuando

éstos sean realmente representativos de la misma.

2. Se deben poseer formas de medición específicas para cada indicador.

3. Cada indicador posee sólo una relación de probabilidad con respecto a la variable,

ya que en ciencias sociales es muy difícil saber con certeza cuándo un indicador

representa una variable.

Page 183: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 169

3.6.2. ESCALAS DE MEDICIÓN La idea de medición, de medida, es intrínsecamente comparativa. Medir algo, en el caso

más sencillo, es determinar cuántas veces una cierta unidad o patrón de medida cabe en

el objeto medido. Para medir la longitud de un objeto físico, desplazamos una regla

graduada sobre el mismo, observando cuántas unidades (en este caso, centímetros o

metros) abarca ese objeto. Es decir, comparamos el objeto con nuestro patrón de

medición para determinar cuántas unidades y fracciones del mismo incluye.

La medición de variables no físicas resulta, en esencia, un proceso idéntico al anterior. La

dificultad reside en que las variables de este tipo no pueden medirse con escalas tan

sencillas como las lineales y en que, por otra parte, no existen para su comparación

patrones de medida universalmente definidos y aceptados. Si deseamos medir el peso de

un objeto, podremos expresar el valor del mismo en kilogramos o libras. En cambio, para

medir el grado de autoritarismo de un dirigente, no existe ni una unidad ni una escala

generalmente reconocidas, por lo que el investigador se ve obligado a elegir alguna escala

de las que se han utilizado en otros trabajos o a construir una adaptada a sus necesidades

específicas.

Por esta razón, medir un concepto complejo implica realizar una serie de operaciones que

no se hacen en el caso de variables como el peso o la longitud; será necesario definir las

dimensiones que integran las variables, encontrar diversos indicadores que la reflejen y

construir luego una escala apropiada para el caso.

Puede decirse que una escala es un continuo de valores ordenados correlativamente, que

admite un punto inicial y otro final. Si evaluamos el rendimiento académico de estudiantes,

podemos asignar el valor cero al mínimo rendimiento imaginable al respecto. Al mayor

rendimiento posible podemos atribuirle un valor 100, 20, 10 o 7 puntos, según resulte más

práctico. Con estos dos valores tendríamos ya marcados los límites de nuestra escala.

Para concluir de confeccionarla, será necesario asignar a los posibles rendimientos

intermedios puntajes también intermedios. Con ello obtendremos una escala capaz de

medir la variable rendimiento académico a través de los indicadores concretos de los

trabajos presentados por los estudiantes, de sus exámenes, pruebas y otras formas de

evaluación posibles.

Para que una escala pueda considerarse como capaz de aportar información objetiva,

debe reunir los siguientes requisitos básicos:

Page 184: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 170

• Confiabilidad. Se refiere a la consistencia interior de la misma, a su capacidad

para discriminar entre un valor y otro. Cabe confiar en una escala cuando produzca

constantemente los mismos resultados al aplicarla a una misma muestra, es decir,

cuando siempre los mismos objetos aparezcan valorados en la misma forma. • Validez. Indica la capacidad de la escala para medir las cualidades para las cuales

ha sido construida y no otras parecidas. Una escala confusa no puede tener

validez; tampoco una escala que esté midiendo, a la vez e indiscriminadamente,

distintas variables superpuestas. Una escala tiene validez cuando verdaderamente

mide lo que afirma medir.

3.6.3. CLASES DE ESCALAS

• Escalas nominales. Son aquellas en que sólo se manifiesta una equivalencia de

categorías entre los diferentes puntos que asume la variable. Es como una simple

lista de las diferentes posiciones que puede adoptar la variable, pero sin que en ella

se defina algún tipo de orden o relación. Si en una investigación sobre producción

agrícola queremos determinar los cereales que se cultivan en una cierta región,

tendremos una variable que se designará como "cereal cultivado". Los distintos

valores que esa variable reconoce serán: trigo, maíz, centeno, etc. Entre estos

valores, no cabe obviamente ninguna jerarquía, no se puede trazar ningún

ordenamiento. Sin embargo, a la enunciación explícita de todas esas posibilidades

la consideramos como una escala, pues de algún modo es útil para medir el

comportamiento de la variable, indicándonos en qué posición se halla en cada caso. • Escalas ordinales. Distinguen los diferentes valores de la variable jerarquizándolos

simplemente de acuerdo con un rango. Establecen que existe una gradación entre

uno y otro valor de la escala, de tal modo que cualquiera de ellos es mayor que el

precedente y menor que el que le sigue a continuación. Sin embargo, la distancia

entre un valor y otro no queda definida sin que es indeterminada. En otras palabras,

tales escalas nos esclarecen solamente el rango que las distintas posiciones

guardan entre sí. Un ejemplo de escala ordinal es el que suele usarse para medir la

variable "grado de escolaridad": podemos decir que una persona que ha tenido 2

años de instrucción escolar, ha recibido más instrucción que quien sólo tiene un

año, y menos que quien posee 3. Sin embargo, no puede afirmarse válidamente

que la diferencia entre quien posee 2 años de instrucción y quien ha recibido un año

Page 185: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 171

es igual a la diferencia entre quienes han recibido 16 y 17 años de educación

formal. • Escalas de intervalos iguales. Además de poseer la equivalencia de categorías y

el ordenamiento interno entre ellas, tienen la característica de que la distancia entre

sus intervalos está claramente determinada y que éstos son iguales entre sí. Un

ejemplo típico de las escalas de intervalos iguales está dado por las escalas

termométricas. Entre 23º y 24º C, por ejemplo, existe la misma diferencia que entre

45º y 46º C. Muchas otras escalas, como las que se utilizan en los tests

psicológicos y de rendimiento, pertenecen a este tipo. La limitación que poseen es

que no definen un cero absoluto, un valor límite que exprese realmente la ausencia

completa de la cualidad medida. Por ello no se pueden establecer equivalencias

matemáticas como las de proporcionalidad: no puede afirmarse que 24º C es el

doble de temperatura que 12º C, porque el cero de la escala es un valor arbitrario y

no se corresponde con la ausencia absoluta de la variable que se mide. • Escalas de cocientes. Llamadas también de razones. En ellas se conservan

también todas las propiedades de los casos anteriores, pero además se añade la

existencia de un valor cero real, con lo que se hacen posibles ciertas operaciones

matemáticas, tales como la obtención de proporciones y cocientes. Esto quiere

decir que un valor de 20 en una escala de este tipo es el doble de un valor de 10, o

de las dos terceras partes de 30. Son escalas de cocientes las que miden la

longitud, la masa, la intensidad de la corriente eléctrica y otras variables del mundo

físico. Difícilmente las escalas que intervienen en las ciencias sociales son medidas

con escalas de razones, ya que son contados los casos en que dichas variables

pueden ser definidas con la exactitud y la precisión necesarias. La economía y la

demografía son, entre estas disciplinas, las que más utilizan escalas de razones.

3.6.4. CARACTERÍSTICAS DE LAS ESCALAS DE MEDICIÓN • Sus intervalos deben ser mutuamente excluyentes. Cada dato recogido sólo

puede pertenecer a una y sólo una de las categorías de la escala. Nunca se debe

comenzar un intervalo con el mismo valor con que finaliza el anterior, porque

aparecerán datos que pueden incluirse en cualquiera de ambos:

Edades: 1) de 20 a 25 años

2) de 25 a 30 años

Page 186: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 172

Del mismo modo, deben evitarse las imprecisiones que produzcan el mismo

fenómeno entre categorías verbales. Una escala donde se incluyen las

siguientes posibilidades:

1. Música bailable

2. Música folclórica

3. Música clásica

4. Música moderna

No tiene categorías mutuamente excluyentes, pues hay música folclórica que es a la

vez bailable, música clásica que es moderna o bailable, y varias otras posibilidades.

• Las escalas deben ser exhaustivas. En ellas deben pode ubicarse todos los

valores posibles de la variable que se va a medir. En el caso de que resulte difícil

construir una escala con todas las posibilidades será preciso agregar el código

"otros", para resumir allí toda la información que no sea correcto ubicar en las

restantes posiciones.

3.6.5. LOS ÍNDICES Supongamos que se desee evaluar el comportamiento de una variable para la cual, una

vez elaboradas las definiciones correspondientes, se hayan encontrado diversos

indicadores capaces de expresar los valores que asume en distintos objetos. A través de

cada indicador, se podrán obtener los datos pertinentes, que deberán ser llevados a

escalas adecuadas para ordenarlos. Para cada indicador que utilicemos, será necesario

adoptar o construir una escala que cuantifique las observaciones realizadas. Ésta podrá

ser del tipo más simple – como la escala dicotómica "si/no", "0/1", de dos valores

solamente – o más compleja, con varias posiciones posibles, lo que aumenta su

sensibilidad o grado de discriminación frente a los fenómenos medidos.

De acuerdo con los datos obtenidos, evaluaremos en cada escala el comportamiento que

sigue cada indicador. No obstante, esto no nos permite todavía medir claramente la

variable, pues nos entrega información fragmentaria, que debe ser integrada o sintetizada

para llegar a un valor único, que exprese lo que en realidad ocurre con la variable. Para

lograrlo, debemos sumar ponderadamente los valores de los indicadores, obteniendo un

valor total que se denomina índice, y que es el que nos dará la información relevante

sobre el problema en estudio.

Analicemos un ejemplo.

Page 187: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 173

Variable a medir: "exposición a los medios de comunicación masivos".

Definición operacional: intensidad del contacto que un individuo grupo posee con los

medios masivos de comunicación.

Indicadores: como existen varios medios importantes de comunicación, se referirán al

grado de exposición con respecto a cada uno de los medios. Después de un análisis del

problema, el investigador llega a la conclusión de que los principales medios son: cine,

radio, televisión y periódicos. Existen otros medios que también podrían ser incluidos,

como la propaganda mural y las revistas, pero se decide dejarlos de lado porque parecen

de menor importancia.

Designados estos cuatro medios de comunicación, habrá que especificar los indicadores.

Así, tendríamos:

Para el cine: frecuencia mensual de asistencia.

Para la radio: promedio de horas semanales en que se escucha.

Para la TV: promedio de horas semanales en que se ve.

Para los periódicos: promedio semanal de periódicos leídos.

La razón de preferir estos indicadores sobre otros posibles surge de que cumplen con la

condición de ser perfectamente factibles de medir y de que, según la experiencia, parecen

ser los que mejor configuran la conducta respecto a cada caso. Ahora deberemos

construir una escala que resulte útil para medir cada indicador.

Tomemos el caso del cine. Podríamos discriminar tres posiciones: la de quienes no están

expuestos para nada a la influencia del medio, la de quienes reciben una exposición media

y la de quienes reciben un alto grado de influencia. Estas tres conductas deben ser

traducidas a conductas definidas cuantitativamente, buscando un equivalente entre los

conceptos mencionados y las conductas correspondientes. Para concluir, es necesario

buscar una equivalencia numérica dentro de la escala mencionada.

Tabla 5: Especificación de escala

Conceptos Conductas Valores escalares

Exposición baja Va menos de una vez al mes 0

Exposición media Va de una a cuatro veces al mes

1

Exposición alta Va más de cuatro veces al mes

2

Page 188: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 174

La escala podría tener más o menos posiciones, y las conductas equivalentes podrían

variar según como enfoquemos el problema. Aquí lo que priva es el criterio del

investigador, basado indudablemente en su experiencia sobre el tema y complementado

con consultas a otros especialistas o con trabajos anteriores sobre el mismo problema.

Para cada uno de los diferentes medios de comunicación, tendremos que realizar una

tarea semejante:

PARA LA RADIO

Conceptos conductas Valores escalares

No está expuesto (no escucha radio) Menos de una hora semanal 0

Exposición débil (escucha esporádicamente)

De 1 a 3 horas semanales 1

Exposición media (escucha regularmente)

Más de 3 horas y menos de 10 horas semanales 2

Exposición alta (escucha frecuentemente) Más de 10 horas semanales 3

PARA LA TV

Conceptos Conductas Valores escalares

No está expuesto Ve menos de 1 hora semanal 0

Exposición débil De 1 a 3 horas por semana 1

Exposición media De 3,1 a 10 horas semanales 2

Exposición alta De 10,1 a 20 horas semanales 3

Exposición muy alta Más de 20 horas por semana 4

PARA LOS PERIÓDICOS

Conceptos Conductas Valores escalares

No está expuesto Menos de un periódico leído por semana 0

Exposición débil De 1 a 4 periódicos semanales leídos 1

Exposición media De 5 a 8 periódicos semanales leídos 2

Exposición alta Más de 8 periódicos semanales leídos 3

Page 189: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 175

Tenemos ahora cuatro escalas, una para cada indicador, que son capaces de

discriminarnos las conductas de los individuos de acuerdo con situaciones típicas,

señaladas por los conceptos teóricos. Para llegar al índice, que es el verdadero valor que

nos ilustra acerca de la variable, será preciso hacer dos operaciones más:

1. Igualar las escalas entre sí

2. Ponderar los indicadores.

Para igualar las escalas conviene tomar un valor único, con el que haremos coincidir el

máximo de cada una de ellas. El valor 100 es muy usado en estos casos por su

practicidad. Entonces, la escala de exposición al cine, que tenía un máximo de 2 puntos,

tendrá ahora un máximo de 100; su mínimo seguirá siendo el valor 0. El punto intermedio

hallado será, proporcionalmente, de 50 en la escala.

Escala original 0 1 2

Escala equivalente 0 50 100 Para la radio y los periódicos, las proporciones serían:

Escala original 0 1 2 3

Escala equivalente

0 33 67 100

Para la televisión, tendríamos:

Esc. Original 0 1 2 3 4

Esc. equivalente

0 25 50 75 100

El segundo paso, la ponderación de indicadores, parte del hecho de que la influencia de

cada medio de comunicación sobre la población es muy diferente. Es decir que,

cualitativamente, la influencia de la exposición a la TV es mayor que la que proporciona la

radio, por ejemplo, porque se trata de un medio no sólo auditivo sino también visual.

Ponderar significa asignar pesos, pesar la influencia relativa que cada indicador tiene con

respecto a la variable tomada en su conjunto. Para hacerlo, otorgaremos valores

numéricos a los indicadores, de modo tal que reflejen la relación que existe entre ellos,

dando a los indicadores más importantes valores mayores que a los menos importantes.

Podríamos asignar los siguientes valores relativos, que llamaremos coeficientes de

ponderación:

Page 190: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 176

Para la TV 10

Para los periódicos 7

Para la radio 4

Para el cine 3 Ahora supongamos que una persona haya expresado que:

• Va a cine 2 veces promedio por mes

• Escucha 4 ó 5 horas de radio por semana

• Ve unas 2 horas diarias de televisión (14 semanales)

• Lee 1 periódico al día (7 semanales)

En primer lugar, habría que convertir los valores originales de las escalas en sus

correspondientes valores equivalentes y luego multiplicarlos por cada uno de los

coeficientes de ponderación. Sumando estos valores, y dividiéndolos luego por la suma de

los coeficientes de ponderación, obtendremos el valor ponderado total.

Medio Valor en la escala original

Valores equivalentes (1)

Coeficientes de ponderación (2)

(1) x (2)

TV 3 75 10 750

Cine 1 50 3 150

Radio 2 67 4 268

Periódicos 2 67 7 469

Totales - - 24 1.637

I = 1.637 / 24 = 68,2

Éste es el valor que nos interesa. El índice ponderado nos está expresando que, para la

persona o promedio de personas considerados, existe un grado de exposición de 68,2

sobre un máximo posible de 100 y un mínimo posible de 0 puntos. Este valor, dado que la

escala va de 0 a 100, puede traducirse a porcentajes, diciendo que la exposición a los

medios de comunicación masivos es, para este caso, de un 68% del máximo posible.

Finalmente, podemos decir que un índice no es otra cosa que la combinación de valores

obtenidos por un individuo o elemento en cada uno de los indicadores propuestos para

medir la variable.

Page 191: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 177

En otras palabras, un índice es el complejo de indicadores de dimensiones de una

variable, el indicador total de una variable compleja.

3.6.6. REFERENCIAS o Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed.

Lumen - Humanitas.

Page 192: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 178

<

3.7. POBLACIÓN Y MUESTRA

Una población está determinada por sus características definitorias. Por lo tanto, el

conjunto de elementos que posea esta característica se denomina población o universo.

Población es la totalidad del fenómeno a estudiar, donde las unidades de población

poseen una característica común, la que se estudia y da origen a los datos de la

investigación.

Entonces, una población es el conjunto de todas las cosas que concuerdan con una serie

determinada de especificaciones. Un censo, por ejemplo, es el recuento de todos los

elementos de una población.

Cuando seleccionamos algunos elementos con la intención de averiguar algo sobre una

población determinada, nos referimos a este grupo de elementos como muestra. Por

supuesto, esperamos que lo que averiguamos en la muestra sea cierto para la población

en su conjunto. La exactitud de la información recolectada depende en gran manera de la

forma en que fue seleccionada la muestra.

Cuando no es posible medir cada uno de los individuos de una población, se toma una

muestra representativa de la misma. La muestra descansa en el principio de que las

partes representan al todo y, por tal, refleja las características que definen la población de

la que fue extraída, lo cual nos indica que es representativa. Por lo tanto, la validez de la

generalización depende de la validez y tamaño de la muestra.

3.7.1. LEYES DEL MÉTODO DE MUESTREO El método de muestreo se basa en ciertas leyes que le otorgan su fundamento científico,

las cuales son:

• Ley de los grandes números: si en una prueba, la probabilidad de un

acontecimiento o suceso es P, y si éste se repite una gran cantidad de veces, la

relación entre las veces que se produce el suceso y la cantidad total de pruebas (es

decir, la frecuencia F del suceso) tiende a acercarse cada vez más a la probabilidad

P.

• Cálculo de probabilidades: La probabilidad de un hecho o suceso es la relación

entre el número de casos favorables (p) a este hecho con la cantidad de casos

Page 193: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 179

posibles, suponiendo que todos los casos son igualmente posibles. El método de

establecer la probabilidad es lo que se denomina cálculo de probabilidad.

De estas dos leyes fundamentales de la estadística, se infieren aquellas que sirven de

base más directamente al método de muestreo:

• Ley de la regularidad estadística: un conjunto de n unidades tomadas al azar de un

conjunto N, es casi seguro que tenga las características del grupo más grande.

• Ley de la inercia de los grandes números: esta ley es contraria a la anterior. Se

refiere al hecho de que en la mayoría de los fenómenos, cuando una parte varía en

una dirección, es probable que una parte igual del mismo grupo, varíe en dirección

opuesta.

• Ley de la permanencia de los números pequeños: si una muestra suficientemente

grande es representativa de la población, una segunda muestra de igual magnitud

deberá ser semejante a la primera; y, si en la primera muestra se encuentran pocos

individuos con características raras, es de esperar encontrar igual proporción en la

segunda muestra.

3.7.2. TIPOS DE MUESTRAS Muestreo aleatorio simple: la forma más común de obtener una muestra es la selección

al azar. es decir, cada uno de los individuos de una población tiene la misma posibilidad

de ser elegido. Si no se cumple este requisito, se dice que la muestra es viciada. Para

tener la seguridad de que la muestra aleatoria no es viciada, debe emplearse para su

constitución una tabla de números aleatorios.

Muestreo estratificado: una muestra es estratificada cuando los elementos de la muestra

son proporcionales a su presencia en la población. La presencia de un elemento en un

estrato excluye su presencia en otro. Para este tipo de muestreo, se divide a la población

en varios grupos o estratos con el fin de dar representatividad a los distintos factores que

integran el universo de estudio. Para la selección de los elementos o unidades

representantes, se utiliza el método de muestreo aleatorio.

Muestreo por cuotas: se divide a la población en estratos o categorías, y se asigna una

cuota para las diferentes categorías y, a juicio del investigador, se selecciona las unidades

de muestreo. La muestra debe ser proporcional a la población, y en ella deberán tenerse

en cuenta las diferentes categorías. El muestreo por cuotas se presta a distorsiones, al

quedar a criterio del investigador la selección de las categorías.

Page 194: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 180

Muestreo intencionado: también recibe el nombre de sesgado. El investigador

selecciona los elementos que a su juicio son representativos, lo que exige un conocimiento

previo de la población que se investiga.

Muestreo mixto: se combinan diversos tipos de muestreo. Por ejemplo: se puede

seleccionar las unidades de la muestra en forma aleatoria y después aplicar el muestreo

por cuotas.

Muestreo tipo: la muestra tipo (master simple) es una aplicación combinada y especial de

los tipos de muestra existentes. Consiste en seleccionar una muestra "para ser usada" al

disponer de tiempo, la muestra se establece empleando procedimientos sofisticados; y

una vez establecida, constituirá el módulo general del cual se extraerá la muestra definitiva

conforme a la necesidad específica de cada investigación.

3.7.3. REFERENCIAS

o EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA, Mario Tamayo y Tamayo,

1998.

Page 195: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 181

3.8. EL MUESTREO

Cuando un investigador realiza en ciencias sociales un experimento, una encuesta o

cualquier tipo de estudio, trata de obtener conclusiones generales acerca de una población

determinada. Para el estudio de ese grupo, tomará un sector, al que se conoce como

muestra.

Las poblaciones que el investigador puede estudiar son muy diversas, pero generalmente

se relacionan con personas. Por ejemplo, puede estudiar la opinión de las amas de casa

con respecto a ciertos métodos de planificación familiar, la edad promedio de los alumnos

de una escuela, el coeficiente intelectual promedio de los universitarios, etc.

Desde luego, es de fundamental importancia que se empiece el estudio definiendo la

población que se va a estudiar. Las poblaciones suelen ser muy numerosas, por lo que es

difícil estudiar a todos sus miembros; además de que esto no es posible, no es necesario.

Es como si quisiéramos estudiar la composición química del agua de un río y para ello

tratáramos de analizar todo el líquido que corre por su cauce, cuando solamente

necesitamos algunas muestras para realizar ese estudio y para llegar a conclusiones

generalizables con respecto a la composición química del agua a todo el río.

En ciencias sociales, las muestras no se obtienen tan fácilmente, puesto que los eventos

se relacionan siempre con personas, las cuales son mucho menos estables en cuanto a

sus pautas de actividades, valores, actitudes y conductas que algunos de los fenómenos

que se estudian en las ciencias naturales.

El momento metodológico de la investigación está constituido por la definición y

especificación del diseño que se va a utilizar y por la tarea de operacionalización de

variables (convertir en operativos, en manejables, a los diversos elementos que

intervienen en el problema que se va a investigar).

La operacionalización se refiere de dos tipos de elementos:

• El universo, en tanto conjunto de unidades o fuentes de datos que es preciso

reducir a proporciones manejables para poderlo explorar.

• Las variables, en tanto conceptos abstractos a los que es preciso dar contenido

concreto para poder efectuar sobre ellos las mediciones correspondientes.

Page 196: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 182

La operacionalización del universo es la tarea de encontrar una forma de obtener

información relevante sin necesidad de acudir a la medición de todo el universo posible de

datos. Es el aspecto cuantitativo de la operacionalización y, para resolverlo, tendremos

que apelar a la estadística, mediante técnicas de muestreo. La operacionalización de las

variables, de naturaleza cualitativa, tiene por objeto encontrar los indicadores a través de

los cuales se expresa concretamente el comportamiento de las mismas.

La relación que existe entre la operacionalización y el tipo de diseño se origina en que, de

acuerdo con el método general que se va a utilizar (o sea, el diseño), se requerirá de uno

u otro tipo de datos, operacionalizar de cierta manera o de otra. Inversamente, de acuerdo

con las posibilidades concretas de operacionalizar en uno u otro sentido las variables y el

universo considerado, será más o menos adecuado un cierto tipo de diseño. Por esta

razón, ambas tareas deben encararse simultáneamente.

3.8.1. DATOS Y UNIDADES Un dato es cada uno de los elementos de información que se recoge durante el desarrollo

de una investigación y en base a los cuales, convenientemente sintetizados, podrán

extraerse conclusiones en relación con el problema inicial planteado.

Cualquier información, por más pequeña y fragmentaria que sea, puede considerarse

como un dato, siempre y cuando pueda colaborar de algún modo a esclarecer los

problemas que nos planteamos en un estudio. Saber, por ejemplo, que la persona N opina

que las pruebas nucleares deben ser proscritas, es un dato. Esa información, por sí sola,

carece prácticamente de valor, pues poco nos dice de las reacciones que despiertan las

pruebas de armas atómicas en la gente. Pero el valor del dato reside no en su alcance

individual, en lo que nos expresa por sí mismo, sino en su posibilidad de ser integrado en

conjuntos mayores. Cuando agrupamos muchas informaciones de carácter similar, cada

dato se hace valioso dentro de una perspectiva más amplia. Así, en nuestro ejemplo, si

consultamos la opinión de muchas personas, podemos llegar a enunciar que un

determinado tanto por ciento de ellas están en contra de los ensayos nucleares e integrar

esa información, a su vez, en un estudio sobre las opiniones de determinado

conglomerado social.

Las fuentes de datos pueden ser personas, situaciones o hechos que se observan

directamente, o materiales bibliográficos de diversa naturaleza. Las llamamos unidades de datos y, a su conjunto, a la suma de todas las unidades, se le da el nombre de

Page 197: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 183

universo o población. Podríamos decir que una población o universo es, entonces, el

conjunto de todas las cosas que concuerdan con una determinada serie de

especificaciones. En general, toda investigación puede considerarse como una búsqueda

de los datos apropiados que permitan resolver ciertos problemas de conocimiento. Estos

datos son obtenidos a través de un conjunto de unidades que constituyen el universo

relevante para la investigación.

Existen universos que resultan demasiado amplios para el investigador, pues éste no

tienen ni el tiempo ni los recursos para abordar el estudio de cada una de las unidades

que lo componen (el conjunto de ciudadanos de un país, la flora de una región o las

innumerables galaxias). Para resolver este inconveniente, se acude a la

operacionalización del universo mediante la extracción de muestras.

3.8.2. UNIVERSO Y MUESTRA Una muestra es un conjunto de unidades, una porción del total, que nos representa la

conducta del universo en su conjunto.

Una muestra, en un sentido amplio, no es más que eso, una parte del todo que llamamos

universo y que sirve para representarlo.

Sin embargo, no todas las muestras resultan útiles para llevar a cabo un trabajo de

investigación. Lo que se busca al emplear una muestra es que, observando una porción

relativamente reducida de unidades, se obtengan conclusiones semejantes a las que

lograríamos si estudiáramos el universo total. Cuando una muestra cumple con esta

condición, es decir, cuando nos refleja en sus unidades lo que ocurre en el universo, la

llamamos muestra representativa. Por lo tanto, una muestra representativa contiene las

características relevantes de la población en las mismas proporciones en que están

incluidas en tal población. Sus conclusiones son susceptibles de ser generalizadas al

conjunto del universo, aunque para ello debamos añadir un cierto margen de error en

nuestras proyecciones.

Las muestras pueden ser clasificadas, en una primera división en probabilísticas y no

probabilísticas.

En las muestras probabilísticas, la característica fundamental es que todo elemento del

universo tiene una determinada probabilidad de integrar la muestra, y esa probabilidad

puede ser calculada matemáticamente con precisión. En las muestras no probabilísticas

Page 198: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 184

ocurre lo contrario y el investigador no tiene idea del error que puede estar introduciendo

en sus apreciaciones.

Las muestras no probabilísticas más usadas son:

• Muestra accidental. Es aquella que se obtiene sin ningún plan preconcebido; las

unidades elegidas resultan producto de circunstancias fortuitas. Si entrevistamos a

los primeros 50 transeúntes que pasan por cierta calle o medimos la profundidad

del mar a lo largo de un trayecto entre dos puntos cualesquiera, estaremos en

presencia de una muestra accidental; los datos obtenidos podrán o no representar

al universo en estudio. El investigador no puede saber hasta qué punto sus

resultados podrán proyectarse, con confiabilidad, hacia el conjunto más amplio que

desea conocer. • Muestra por cuotas. Consiste en predeterminar la cantidad de elementos de cada

categoría que habrán de integrar la muestra. Así podemos asignar una cuota de 50

hombres y 50 mujeres a una muestra de 100 individuos, asumiendo que ésa es la

distribución de la población total. Por más que esa presunción llegue a ser válida,

no deja de existir cierta arbitrariedad en este modo de proceder, por lo que la

rigurosidad estadística de las muestras por cuotas se reduce considerablemente. • Muestra intencional. Las unidades se eligen en forma arbitraria, designando a

cada unidad según características que para el investigador resulten de relevancia.

Se emplea, por lo tanto, el conocimiento y la opinión personal para identificar

aquellos elementos que deben ser incluidos en la muestra. Se basa,

primordialmente, en la experiencia de alguien con la población. Estas muestras son

muy útiles y se emplean frecuentemente en los estudios de caso, por más que la

posibilidad de generalizar conclusiones a partir de ellas, sea en rigor nula. En

algunas oportunidades se usan como guía o muestra tentativa para decidir cómo

tomar una muestra aleatoria más adelante.

3.8.3. MUESTRAS ALEATORIAS Como dijimos, en ellas cada uno de los elementos del universo tiene una probabilidad

determinada y conocida de ser seleccionado. Los procedimientos más usuales para la

obtención de muestras aleatorias son:

• Azar simple. Este procedimiento se inicia confeccionando una lista de todas las

unidades que configuran el universo, numerando correlativamente cada una de

Page 199: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 185

ellas. Luego, mediante cualquier sistema (tabla de números al azar, programas de

computación), se van sorteando al azar estos números hasta completar el total de

unidades que deseamos que entren en la muestra. De este modo, la probabilidad

que cada elemento tienen de aparecer en la muestra es exactamente la misma. Si

cada uno de los elementos que integran la población no tiene la misma posibilidad

de ser elegido, se habla entonces de una muestra viciada. Este método nos

garantiza una selección completamente aleatoria, pero resulta muy lento y costoso,

pues nos obliga a elaborar listas completas de todas las unidades de interés, lo que

a veces es sencillamente imposible. Por este motivo, sólo se emplea cuando los

universos son relativamente pequeños. Este método no será adecuado si, por

ejemplo, queremos sacar una muestra de todas las personas analfabetas que

existen en un país. En cambio, si nuestra intención es extraer una muestra del

universo de todos los alumnos que ingresan a una universidad en un determinado

año, resultará muy adecuado. • Azar sistemático. También se requiere de un listado completo de las unidades que

integran el universo en estudio. Luego se efectúan las siguientes operaciones:

1. Se calcula la constante K, que resulta de dividir el número total de unidades que

componen el universo por el número de unidades que habrán de integrar la

muestra:

K = N/n

Donde:

N = número total de unidades que componen e universo.

n = número total de unidades que integrarán la muestra.

2. Se efectúa un sorteo para elegir un número que sea inferior o igual al valor de K.

Como primera unidad para integrar la muestra se elige aquella que, en la lista

general, posea idéntico número de orden al sorteado. Si designamos con A este

primer valor, la segunda unidad elegida será la que lleve el número A + K, la tercera

corresponderá a A + 2K y así sucesivamente hasta llegar a A + (n – 1)K.

Supongamos un universo constituido por 2.800 elementos, del que

deseamos obtener una muestra de 70 casos. Tenemos entonces:

N = 2.800

n = 70

K = 2.800 / 70 = 40

Page 200: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 186

Ahora, mediante cualquier procedimiento, buscamos al azar un número

entero cuyo valor figure entre los límites de 1 y 40. En este caso, el número

elegido es el 32. Entonces, las unidades que pasarán a formar parte de la

muestra serán las que lleven los siguientes números de orden:

1° unidad 32

2° unidad 32 + 40 72

3° unidad 32 + 80 112

....

70° unidad 32 + 2760 2.792 Las ventajas y desventajas de este procedimiento son casi idénticas a la de

las muestras al azar simple. Los procedimientos computacionales hacen

mucho más fácil efectuar el sorteo de las unidades y no existe el riesgo de

que la muestra quede sesgada por algún tipo de regularidad que no

conocemos y que esté presente en el universo.

• Muestras por conglomerados. Esta técnica tiene utilidad cuando el universo que

se requiere estudiar admite ser subdividido en universos menores de características

similares a las del universo total. Se procede a subdividir el universo en un número

finito de conglomerados y, entre ellos, se pasa a elegir algunos que serán los

únicos que se investigarán; esta elección puede realizarse por el método del azar

simple o por el del azar sistemático. Una vez cumplida esta etapa, puede efectuarse

una segunda selección, dentro de cada uno de los conglomerados elegidos, para

llegar a un número aún más reducido de unidades muestrales. La ventaja de esta

técnica es que obvia la tarea de confeccionar el listado de todas las unidades del

universo. Su desventaja mayor radica en que, al efectuarse el muestreo en dos

etapas, los errores muestrales de cada una se van acumulando, lo que da un error

mayor que para los métodos anteriores. La técnica de conglomerados suele

utilizarse cuando queremos extraer muestras de los habitantes de un conjunto

geográfico amplio, por ejemplo, una gran ciudad o un conjunto de pueblos, por lo

que se procede a tomar cada pueblo o grupo de manzanas como un conglomerado

independiente; del mismo modo, se la utiliza para conocer las reservas forestales y

marinas, para estudiar las estrellas y otros casos semejantes.

Page 201: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 187

• Muestras estratificadas. Este método supone que el universo puede desagregarse

en sub – conjuntos menores, homogéneos internamente pero heterogéneos entre

sí. Cada uno de estos estratos se toma luego como un universo particular, de

tamaño más reducido, y sobre él se seleccionan muestras según cualquiera de los

procedimientos anteriores. Por ejemplo, si quisiéramos estudiar las actitudes

políticas de los estudiantes de una universidad, podríamos subdividir en estratos de

acuerdo con el tipo de estudios que cursen, suponiendo que estas actitudes van a

ser diferentes entre quienes siguen Ingeniería, Letras, Medicina u otras carreras.

Luego, efectuaríamos un muestreo dentro de cada sub – universo así definido para,

finalmente, realizar un análisis integrando los resultados de todas las sub –

muestras.

Tanto en el muestreo estratificado como en el de conglomerados, la población se divide en

grupos bien definidos. Usamos el muestreo estratificado cuando hay una amplia variación

entre los grupos. Usamos el muestreo por conglomerados en el caso opuesto: cuando hay

una variación considerable dentro de cada grupo, pero los grupos son esencialmente

similares entre sí.

3.8.4. TAMAÑO DE LA MUESTRA Y ERROR MUESTRAL Recordemos que la muestra descansa en el principio de que las partes representan al

todo y, por tal, refleja las características que definen a la población de la cual fue extraída,

lo cual nos indica que es representativa. Es decir, que para hacer una generalización

exacta de una población, es necesario tomar una muestra representativa. Por lo tanto, la

validez de la generalización depende de la validez y tamaño de la muestra.

Cuando trabajamos con muestras, generalmente se presentan dos tipos de errores:

• Error sistemático. Llamado de distorsión o sesgo de la muestra, se presentan por

causas ajenas a la muestra:

• Situaciones inadecuadas: se presentan, por ejemplo, cuando el encuestador tiene

dificultades para obtener la información y la sustituye por la que más fácilmente

está a su alcance, que no siempre es la más confiable.

• Insuficiencia en la recolección de datos: hay distorsión por falta de respuestas, o

respuestas inadecuadas, ya sea por ignorancia o falta de datos relativos a los

elementos incluidos. Distorsiones del encuestador causadas por prejuicios, interés

personal o por fallas en la aplicación de instrumentos.

Page 202: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 188

• Errores de cobertura a causa de que no se han incluido elementos importantes y

significativos para la investigación que se realiza.

• Error de muestreo o muestral. Cualquiera sea el procedimiento utilizado y la

perfección del método empleado, la muestra diferirá de la población. A esta

diferencia se la denomina error de muestreo.

Cuando una muestra es aleatoria o probabilística, es posible calcular sobre

ella el error muestral. Este error indica el porcentaje de incertidumbre, es

decir, el riesgo que se corre de que la muestra elegida no sea representativa.

Si trabajamos con un error calculado en 5%, ello significa que existe un 95%

de probabilidades de que el conjunto muestral represente adecuadamente al

universo del cual ha sido extraído.

A medida que incrementamos el tamaño de la muestra, el error muestral

tiende a reducirse, pues la muestra va acercándose más al tamaño del

universo. Del mismo modo, para una muestra determinada, su error será

menor cuanto más pequeño sea el universo a partir del cual se la ha

seleccionado. Así, para un universo de 10.000 casos, una muestra de 200

unidades tendrá un error mayor que una de 300; una muestra de 200 casos,

por otra parte, tendrá un error mayor si el universo tiene 10.000 unidades

que si éste posee solamente 2.000.

Para fijar el tamaño de la muestra adecuado a cada investigación, es preciso primero

determinar el porcentaje de error que estamos dispuestos a admitir. Una vez hecho esto,

deberán realizarse las operaciones estadísticas correspondientes para poder calcular el

tamaño de la muestra que nos permite situarnos dentro del margen de error aceptado.

A veces, sin embargo, el tamaño de la muestra queda determinado previamente por

consideraciones prácticas; en tales casos, no hay otra alternativa que aceptar el nivel de

error que su magnitud acarree.

3.8.5. REFERENCIAS o Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed.

Lumen - Humanitas.

Page 203: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 189

<

3.9. MEDIDAS DE TENDENCIA CENTRAL Y DE DISPERSIÓN

3.9.1. ESTADÍSTICA SUMARIA Podemos usar una serie de números conocidos como estadística sumaria para describir

las características del conjunto de datos. Dos de estas características son de particular

importancia para los responsables de tomar decisiones: la de tendencia central y la de

dispersión.

Tendencia central: la tendencia central se refiere al punto medio de una distribución. Las

medidas de tendencia central se conocen como medidas de posición.

Dispersión: se refiere a la extensión de los datos en una distribución, es decir, al grado en

que las observaciones se distribuyen.

Sesgo: las curvas que representan los puntos de datos de un conjunto de datos pueden

ser simétricas o sesgadas. Las curvas simétricas, tienen una forma tal que una línea

vertical que pase por el punto más alto de la curva dividirá el área de ésta en dos partes

iguales. Cada parte es una imagen espejo de la otra. En las curvas sesgadas, los valores

de su distribución de frecuencias están concentrados en el extremo inferior o en el

superior de la escala de medición del eje horizontal. Los valores no están igualmente

distribuidos. Las curvas pueden estar sesgadas hacia la derecha (positivamente

sesgadas) o sesgadas hacia la izquierda (negativamente sesgadas).

Curtosis: cuando medimos la curtosis de una distribución, estamos midiendo su grado de

agudeza.

3.9.2. LA MEDIA ARITMÉTICA Cuando nos referimos al "promedio" de algo, estamos hablando de la media aritmética.

Para encontrar la media aritmética, sumamos los valores y el resultado lo dividimos entre

el número de observaciones.

3.9.2.1. SÍMBOLOS CONVENCIONALES Una muestra de una población consiste en n observaciones, con una media de x (léase

equis testada). Las medidas que calculamos para una muestra se conocen como

estadística. La notación es diferente cuando calculamos medidas para la población entera,

Page 204: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 190

es decir, para el grupo que contiene a todos los elementos que estamos describiendo. La

media de una población se simboliza con μ (letra griega mi). El número de elementos de

una población se denota con la letra mayúscula cursiva N. Por lo general, en estadística

utilizamos letras del alfabeto latino para simbolizar la información sobre las muestras y

letras del griego para referirnos a la información sobre poblaciones.

3.9.2.2. CÁLCULO DE LA MEDIA A PARTIR DE DATOS NO AGRUPADOS. Media de la población: μ = ∑x / N

x = ∑x / n

Para calcular esta media, sumamos todas las observaciones. Los estadísticos se refieren

a este tipo de datos como datos no agrupados.

Cálculo de la media de datos agrupados: Una distribución de frecuencias consta de datos agrupados en clases. Cada valor de una

observación cae dentro de alguna de las clases. No sabemos el valor individual de cada

observación. A partir de la información de la tabla, podemos calcular fácilmente una

estimación del valor de la media de estos datos agrupados. De haber usado los datos

originales sin agrupar, podríamos haber calculado el valor real de la media.

Para encontrar la media aritmética de datos agrupados, primero calculamos el punto

medio de cada clase. Para lograr que los puntos medios queden en cifras cerradas,

redondeamos las cantidades. Después, multiplicamos cada punto medio por la frecuencia

de las observaciones de dicha clase, sumamos todos los resultados y dividimos esta suma

entre el número total de observaciones de la muestra.

x = � (f x) / n

f = frecuencia de observaciones de cada clase

x= punto medio de cada clase de la muestra

n = número de observaciones de la muestra

3.9.2.3. CODIFICACIÓN: Mediante esta técnica, podemos eliminar el problema de tener puntos medios muy

grandes o inconvenientes. En lugar de utilizar los puntos medios reales para llevar a efecto

nuestros cálculos, podemos asignar enteros consecutivos de valor pequeño, conocidos

como códigos, a cada uno de los puntos medios. El entero cero puede ser asignado a

Page 205: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 191

cualquier punto medio, pero para que nuestros enteros sean pequeños, asignaremos cero

al punto medio de la parte media de la distribución (o la parte más cercana a ésta).

Podemos asignar enteros negativos a los valores menores a dicho punto medio y enteros

positivos a los valores más grandes.

Los estadísticos usan xo para representar el punto medio al que se le ha asignado el

código 0 y u para el punto medio codificado:

x = xo + w [(u f)] / n

w = ancho numérico del intervalo de clase

u = código asignado a cada punto medio de clase

3.9.2.4. VENTAJAS Y DESVENTAJAS DE LA MEDIA ARITMÉTICA. La media aritmética, en su carácter de un solo número que representa a un conjunto de

datos completo, tiene importantes ventajas:

1. Se trata de un concepto familiar para la mayoría de las personas y es intuitivamente

claro.

2. Cada conjunto de datos tiene una media, es una medida que puede calcularse y es

única debido a que cada conjunto de datos posee una y sólo una media.

3. Es útil para llevar a cabo procedimientos estadísticos como la comparación de

medias de varios conjuntos de datos.

Por otra parte presenta desventajas en las cuales puede verse afectada por valores

extremos que no son representativos del resto de los datos.

1. Resulta tedioso calcular la media debido a que utilizamos cada uno de los puntos

de dato de nuestro cálculo.

2. Somos incapaces de calcular la media para un conjunto de datos que tiene clases

de extremo abierto, ya sea en el inferior o en el superior de la escala.

3.9.3. LA MEDIANA La mediana es un solo valor calculado a partir del conjunto de datos que mide la

observación central de éstos. Esta sola observación es la más central o la que está más

en medio en el conjunto de números. La mitad de los elementos están por encima de este

punto y la otra mitad está por debajo.

Page 206: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 192

3.9.3.1. CÁLCULO DE LA MEDIANA A PARTIR DE DATOS NO AGRUPADOS: Para hallar la mediana de un conjunto de datos, primero hay que organizarlos en orden

descendente o ascendente. Si el conjunto de datos contiene un número impar de

elementos, el de en medio en el arreglo es la mediana. Si hay un número par de

observaciones, la mediana es el promedio de los dos elementos de en medio.

Mediana = (n + 1) / 2

3.9.3.2. CÁLCULO DE LA MEDIANA A PARTIR DE DATOS AGRUPADOS: Encontrar qué observación de la distribución está más al centro (Mediana = (n + 1) / 2).

1. Sumar las frecuencias de cada clase para encontrar la clase que contiene a ese

elemento más central.

2. Determinar el número de elementos de la clase y la localización de la clase que

contiene al elemento mediano.

3. Determinar el ancho de cada paso para pasar de una observación a otra en la clase

mediana, dividiendo el intervalo de cada clase entre el número de elementos

contenido en la clase.

4. Determinar el número de pasos que hay desde el límite inferior de la clase mediana

hasta el elemento correspondiente a la mediana.

5. Calcular el valor estimado del elemento mediano multiplicando el número de pasos

que se necesitan para llegar a la observación mediana por el ancho de cada paso.

Al producto sumarle el valor del límite inferior de la clase mediana.

6. Si existe un número par de observaciones en la distribución, tomar el promedio de

los valores obtenidos para el elemento mediano calculados en el paso número 6.

Un método más sencillo: m = {[(n + 1) / 2 – (F + 1)] / fm} w + Lm

m = mediana de la muestra

n = número total de elementos de la distribución

F = suma de todas las frecuencias de clase hasta, pero sin incluir, la clase mediana

fm = frecuencia de la clase mediana

w = ancho de intervalo de clase

Lm = límite inferior del intervalo de clase mediano

Page 207: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 193

3.9.3.3. VENTAJAS Y DESVENTAJAS DE LA MEDIANA: Los valores extremos no afectan a la mediana tan intensamente como a la media. La

mediana es fácil de entender y se puede calcular a partir de cualquier tipo de datos –

incluso a partir de datos agrupados con clases de extremo abierto – a menos que la

mediana entre en una clase de extremo abierto.

Podemos encontrar la mediana incluso cuando nuestros datos son descripciones

cualitativas, en lugar de números.

Ciertos procedimientos estadísticos que utilizan la mediana son más complejos que

aquellos que utilizan la media. Debido a que la mediana es una posición promedio,

debemos ordenar los datos antes de llevar a cabo cualquier cálculo. Esto implica consumo

de tiempo para cualquier conjunto de datos que contenga un gran número de elementos.

Por consiguiente, si deseamos utilizar una estadística de muestra para estimar un

parámetro de población, la media es más fácil de usar que la mediana.

3.9.4. LA MODA La moda es una medida de tendencia central diferente de la media, pero un tanto parecida

a la mediana, pues en realidad no se calcula mediante algún proceso aritmético ordinario.

La moda es aquel valor que más se repite en el conjunto de datos.

En ocasiones, el azar hace que un solo elemento no representativo se repita lo suficiente

para ser el valor más frecuente del conjunto de datos. Es por esta razón que rara vez

utilizamos la moda de un conjunto de datos no agrupados como medida de tendencia

central.

Por esta razón, siempre que utilizamos la moda como medida de tendencia central de un

conjunto de datos, debemos calcular la moda de datos agrupados (buscar la clase modal).

3.9.4.1. CÁLCULO DE LA MODA DE DATOS AGRUPADOS: Cuando los datos ya se encuentran agrupados en una distribución de frecuencias,

podemos poner que la moda está localizada en la clase que contiene el mayor número de

elementos, es decir, en la clase que tiene mayor frecuencia. Para determinar un solo valor

para la moda a partir de esta clase modal:

Mo = Lmo + [d1 / (d1 + d2 )] w

Lmo = límite inferior de la clase modal.

Page 208: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 194

d1 = frecuencia de la clase modal menos la frecuencia de la clase que se encuentra

inmediatamente por debajo de ella.

d2 = frecuencia de la clase modal menos la frecuencia de la clase que se encuentra

inmediatamente por encima de ella.

w = ancho del intervalo de la clase modal.

3.9.4.2. VENTAJAS Y DESVENTAJAS DE LA MODA: La moda, al igual que la mediana, se puede utilizar como una posición central para datos

tanto cualitativos como cuantitativos.

También, al igual que la mediana, la moda no se ve mayormente afectada por los valores

extremos. Incluso si los valores extremos son muy altos o muy bajos, nosotros escogemos

el valor más frecuente del conjunto de datos como el valor modal. Podemos utilizar la

moda sin importar qué tan grandes o qué tan pequeños sean los valores del conjunto de

datos, e independientemente de cuál sea su dispersión. La podemos utilizar aun cuando

una o más clases sean de extremo abierto.

Muy a menudo, no existe un valor modal debido a que el conjunto de datos no contiene

valores que se presenten más de una vez. En otras ocasiones, cada valor es la moda,

pues cada uno de ellos se presenta el mismo número de veces. Otra desventaja consiste

en que cuando los datos contienen dos, tres o más modas, resultan difíciles de interpretar

y comparar.

3.9.4.3. COMPARACIÓN ENTRE LA MEDIA, LA MEDIANA Y LA MODA. Cuando trabajamos un problema de estadística, debemos decidir si vamos a utilizar la

media, la mediana o la moda como medidas de tendencia central. Las distribuciones

simétricas que sólo contienen una moda, siempre tienen el mismo valor para la media, la

mediana y la moda. En tales casos, no es necesario escoger la medida de tendencia

central, pues ya está hecha la selección.

En una distribución positivamente sesgada (es decir, sesgada hacia la derecha), la moda

todavía se encuentra en el punto más alto de la distribución, la mediana está hacia la

derecha de la moda y la media se encuentra todavía más a la derecha de la moda y la

mediana.

Page 209: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 195

En una distribución negativamente sesgada, la moda sigue siendo el punto más alto de la

distribución, la mediana está hacia la izquierda de ella y la media se encuentra todavía

más a la izquierda de la moda y la mediana.

Cuando la población está sesgada negativa o positivamente, con frecuencia la mediana

resulta ser la mejor medida de posición, debido a que siempre está entre la moda y la

media. La mediana no se ve altamente influida por la frecuencia de aparición de un solo

valor como es el caso de la moda, ni se distorsiona con la presencia de valores extremos

como la media.

La selección de la media, la mediana o la moda, en ocasiones, depende de la práctica

común de una industria en particular (salario medio de los obreros, precio mediano de una

casa, familia modal para el diseño de automóviles).

3.9.5. LA DISPERSIÓN Al igual que sucede con cualquier conjunto de datos, la media, la mediana y la moda sólo

nos revelan una parte de la información que necesitamos acerca de las características de

los datos. Para aumentar nuestro entendimiento del patrón de los datos, debemos medir

también su dispersión, extensión o variabilidad. La dispersión es importante porque:

1. Proporciona información adicional que permite juzgar la confiabilidad de la medida

de tendencia central. Si los datos se encuentran ampliamente dispersos, la posición

central es menos representativa de los datos.

2. Ya que existen problemas característicos para datos ampliamente dispersos,

debemos ser capaces de distinguir que presentan esa dispersión antes de abordar

esos problemas.

3. Quizá se desee comparar las dispersiones de diferentes muestras. Si no se desea

tener una amplia dispersión de valores con respecto al centro de distribución o esto

presenta riesgos inaceptables, necesitamos tener habilidad de reconocerlo y evitar

escoger distribuciones que tengan las dispersiones más grandes.

3.9.5.1. MEDIDAS DE DISPERSIÓN. La dispersión puede medirse en términos de la diferencia entre dos valores seleccionados

del conjunto de datos. Las medidas de distancia son: el alcance, el alcance interfractil y el

alcance intercuartil.

Page 210: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 196

3.9.5.2. ALCANCE. Es la diferencia entre el más alto y el más pequeño de los valores observados.

Alcance = valor de la observación más alta – valor de la observación más pequeña

El alcance es fácil de entender y de encontrar, pero su utilidad como medida de dispersión

es limitada. Sólo toma en cuenta los valores más alto y más bajo de una distribución y no

considera ninguna otra observación del conjunto de datos. Ignora la naturaleza de la

variación entre todas las demás observaciones, y se ve muy influido por los valores

extremos.

Las distribuciones de extremo abierto no tienen alcance, pues no existe un valor más alto

o más bajo en la clase de extremo abierto.

3.9.5.2.1. Alcance Interfractil. En una distribución de frecuencias, una fracción o proporción dada de los datos cae en un

fractil o por debajo de éste. La mediana, por ejemplo, es el fractil 0,5, puesto que la mitad

de los datos es menor o igual a este valor. Los fractiles son parecidos a los porcentajes.

En una distribución cualquiera, el 25% de los datos está en el fractil 0,25 o por debajo de

éste; igualmente, 25% de los datos cae en el vigésimo quinto percentil o por debajo de

éste. El alcance interfractil es una medida de la dispersión entre dos fractiles de una

distribución de frecuencias, es decir, la diferencia entre los valores de los dos fractiles.

Los fractiles tienen nombres especiales, dependiendo del número de partes iguales en que

se dividen los datos. Los fractiles que los dividen en 10 partes iguales se conocen como

deciles. Los cuartiles dividen los datos en cuatro partes iguales. Los percentiles dividen el

conjunto de datos en 100 partes iguales.

3.9.5.2.2. Alcance Intercuartil. El alcance intercuartil mide aproximadamente qué tan lejos de la mediana tenemos que ir

en cualquiera de las dos direcciones antes de que podamos recorrer una mitad de los

valores del conjunto de datos. Para calcular este alcance, dividimos nuestros datos en

cuatro partes, cada una de las cuales contiene 25% de los elementos de la distribución.

Los cuartiles son, entonces, los valores más alto y más bajo de estas cuatro partes, y el

alcance intercuartil es la diferencia entre los valores del primer cuartil y el tercer cuartil.

El punto fractil es siempre el punto en el o debajo del cual cae la proporción establecida de

valores.

Page 211: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 197

3.9.6. MEDIDAS DE DESVIACIÓN PROMEDIO Las descripciones más comprensivas de la dispersión son aquellas que tratan con la

desviación promedio con respecto a alguna medida de tendencia central. Dos de tales

medidas son la varianza y la desviación estándar. Ambas medidas nos dan una distancia

promedio de cualquier observación del conjunto de datos con respecto a la media de la

distribución.

3.9.7. VARIANZA DE LA POBLACIÓN. Cada población tiene una varianza, que se simboliza con � 2 (sigma cuadrada). Para

calcular la varianza de una población, dividimos la suma de las distancias al cuadrado

entre la media y cada elemento de la población entre el número total de observaciones de

dicha población.

� 2 = � (x - � )2 / N

� 2 = varianza de la población.

x = elemento u observación.

� = media de la población.

N = número total de elementos de la población.

Para la varianza, las unidades son el cuadrado de las unidades de los datos. Estas

unidades no son intuitivamente claras o fáciles de interpretar. Por esta razón, tenemos que

hacer un cambio significativo en la varianza para calcular una medida útil de la desviación,

que sea menos confusa. Esta medida se conoce como la desviación estándar, y es la raíz

cuadrada de la varianza. La desviación estándar, entonces, está en las mismas unidades

que los datos originales.

3.9.7.1. DESVIACIÓN ESTÁNDAR DE LA POBLACIÓN La desviación estándar de la población, o � , es simplemente la raíz cuadrada de la

varianza de la población. Como la varianza es el promedio de las distancias al cuadrado

que van desde las observaciones a la media, la desviación estándar es la raíz cuadrada

del promedio de las distancias al cuadrado que van desde las observaciones a la media.

La desviación estándar está en las mismas unidades que las que se usaron para medir los

datos.

Page 212: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 198

La raíz cuadrada de un número positivo puede ser tanto positiva como negativa. Cuando

tomamos la raíz cuadrada de la varianza para calcular la desviación estándar, los

estadísticos solamente consideran la raíz cuadrada positiva. Para calcular la varianza o la

desviación estándar, construimos una tabla utilizando todos los elementos de la población.

3.9.7.2. USOS DE LA DESVIACIÓN ESTÁNDAR. La desviación estándar nos permite determinar, con un buen grado de precisión, dónde

están localizados los valores de una distribución de frecuencias con relación a la media. El

teorema de Chebyshev dice que no importa qué forma tenga la distribución, al menos 75%

de los valores caen dentro de + 2 desviaciones estándar a partir de la media de la

distribución, y al menos 89% de los valores caen dentro de + 3 desviaciones estándar a

partir de la media.

3.9.7.3. CON MÁS PRECISIÓN: Aproximadamente 68% de los valores de la población cae dentro de + 1 desviación

estándar a partir de la media.

• Aproximadamente 95% de los valores estará dentro de + 2 desviaciones estándar a

partir de la media.

• Aproximadamente 99% de los valores estará en el intervalo que va desde tres

desviaciones estándar por debajo de la media hasta tres desviaciones estándar por

arriba de la media.

3.9.7.4. RESULTADO ESTÁNDAR: La desviación estándar es también útil para describir qué tan lejos las observaciones

individuales de una distribución de frecuencias se apartan de la media de la distribución.

Una medida que se conoce como resultado estándar nos da el número de desviaciones

estándar que una observación en particular ocupa por debajo o por encima de la media:

Resultado estándar = (x - � ) / �

3.9.7.5. CÁLCULO DE LA VARIANZA Y LA DESVIACIÓN ESTÁNDAR UTILIZANDO DATOS AGRUPADOS: � 2 = � f(x - � )2 / N

� 2 = varianza de la población.

Page 213: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 199

x = punto medio de cada una de las clases.

� = media de la población.

N = número total de elementos de la población.

f = frecuencia de cada una de las clases.

� = √� 2

3.9.7.6. DESVIACIÓN ESTÁNDAR DE UNA MUESTRA: Para calcular la varianza y la desviación estándar de una muestra, utilizamos las mismas

fórmulas, sustituyendo � por x y N con n – 1.

s2 = � (x - x)2 / (n – 1)

¿Por qué utilizamos n – 1 como denominador en lugar de N? Los especialistas en

estadística pueden demostrar que si tomamos muchas muestras de una población dada, si

encontramos la varianza de la muestra para cada muestra y promediamos los resultados,

entonces este promedio no tiende a tomar el valor de la varianza de la población, a menos

que tomemos n – 1 como denominador de los cálculos.

Al igual que utilizamos la desviación estándar de la población para derivar los resultados

estándar de la misma, podemos también usar la desviación estándar de la muestra para

calcular los resultados estándar de la muestra. Estos resultados indican a cuántas

desviaciones estándar se halla una observación en particular por arriba o por debajo de la

media de la muestra. Resultado estándar de la muestra = (x – x) / s

Las letras griegas siempre se refieren a parámetros de la población y las letras latinas se

refieren a estadísticas de la muestra.

Recordar utilizar N como denominador cuando se calcula la desviación estándar de la

población, pero n – 1 para calcular la desviación estándar de la muestra.

3.9.7.7. DISPERSIÓN RELATIVA: EL COEFICIENTE DE VARIACIÓN La desviación estándar es una medida absoluta de la dispersión que expresa la variación

en las mismas unidades que los datos originales.

La desviación estándar no puede ser la única base para la comparación de dos

distribuciones. Si tenemos una desviación estándar de 10 y una media de 5, los valores

varían en una cantidad que es el doble de la media misma. Si, por otro lado, tenemos una

desviación estándar de 10 y una media de 5.000, la variación con respecto a la media es

insignificante. En consecuencia, no podemos conocer la dispersión de un conjunto de

Page 214: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 200

datos hasta que conocemos su desviación estándar, su media y cómo se compara la

desviación estándar con respecto a la media.

Lo que necesitamos es una medida relativa que nos proporcione una estimación de la

magnitud de la desviación con respecto a la magnitud de la media. El coeficiente de

variación es una de estas medidas relativas de dispersión. Se relaciona la desviación

estándar y la media, expresando la desviación estándar como porcentaje de la media.

Coeficiente de variación = (� / � ) * 100

3.9.7.8. CONCEPTOS • Alcance: distancia entre los valores más bajo y más alto de un conjunto de datos.

Alcance intercuartil: diferencia entre los valores del primer y tercer cuartiles; eta

diferencia representa el alcance de la mitad central del conjunto de datos.

• Alcance interfractil: medida de la dispersión entre dos fractiles de una distribución;

es decir, la diferencia entre los valores de dos fractiles.

• Clase mediana: clase de una distribución de frecuencias que contiene el valor

mediano de un conjunto de datos.

• Codificación: método para calcular la media de datos agrupados mediante la

recodificación de los valores de los puntos medios de las clases a valores más

sencillos.

• Coeficiente de variación: medida relativa de la dispersión, comparable por medio

de distribuciones diferentes, que expresa la desviación estándar como porcentaje

de la media. Proporción o porcentaje de la media que representa la desviación

estándar.

• Cuartiles: fractiles que dividen los datos en cuatro partes iguales.

• Curtosis: el grado de agudeza de una distribución de puntos.

• Deciles: fractiles que dividen los datos en diez partes iguales.

• Desviación estándar: raíz cuadrada positiva de la varianza; medida de dispersión

con las mismas unidades que los datos originales.

• Dispersión: la extensión o variabilidad de un conjunto de datos.

• Distribución bimodal: distribución de puntos de datos en la que dos valores se

presentan con más frecuencia que los demás elementos del conjunto de datos.

• Estadística (o estimador): medidas numéricas que describen las características

de una muestra, representadas por caracteres latinos.

Page 215: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 201

• Estadística sumaria: números solos que describen ciertas características de un

conjunto de datos.

• Fractil: en una distribución de frecuencias, es la posición de un valor en, o por

encima de, una fracción dada de los datos.

• Media: medida de tendencia central que representa el promedio aritmético de un

conjunto de observaciones.

• Mediana: punto situado a la mitad de conjunto de datos, medida de localización

que divide al conjunto de datos en dos partes iguales.

• Medida de dispersión: medida que describe cómo se dispersan o distribuyen las

observaciones de un conjunto de datos. Cantidades que describen la variabilidad de

los datos.

• Medida de distancia: medida de dispersión en términos de la diferencia entre dos

valores del conjunto de datos.

• Medida de tendencia central (o de posición): medida que indica el valor

esperado de un punto de datos típico o situado en el medio. Cantidades numéricas

que dan una idea sobre la ubicación de la distribución de frecuencias.

• Parámetros: valores numéricos que describen las características de una población

completa, representados generalmente por letras griegas.

• Percentiles: fractiles que dividen los datos en 100 partes iguales.

• Resultado estándar: expresión de una observación en términos de unidades de

desviación estándar por encima o por debajo de la media; es decir, la

transformación de una observación al restarle la media y dividirla entre la

desviación estándar.

• Sesgo: grado en que una distribución de puntos está concentrada en un extremo o

en el otro; falta de simetría. Asimetría en distribuciones de frecuencias no

simétricas.

• Simétrica: característica de una distribución en la que cada mitad es la imagen

especular de la otra.

• Teorema de Chebyshev: no importa qué forma tenga la distribución, al menos

75% de los valores de la población caerán dentro de dos desviaciones estándar a

partir de la media, y al menos 89% caerá dentro de tres desviaciones estándar.

Page 216: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 202

• Varianza: medida de la distancia cuadrada promedio entre la media y cada

observación de la población. Promedio de los desvíos cuadráticos con respecto a la

media.

3.9.7.9. RECOMENDACIONES PRÁCTICAS: • Revisar cuidadosamente los datos antes de usarlos; verificar que no contengan

errores; chequear en particular los valores extremos.

• Elaborar histogramas o cualquier otro tipo de gráficos que permita visualizar la

forma y las características principales de la distribución de frecuencias.

• Diferenciar con precisión cuándo se hace referencia a un parámetro poblacional y

cuándo a un estadístico muestral.

• Usar en forma conjunta una media de posición y una de dispersión (como mínimo)

para analizar el comportamiento de la variable.

• Prestar atención a las ventajas y desventajas de las distintas medidas de posición y

dispersión, para decidir correctamente su elección.

• Calcular la media aritmética con los datos en bruto – sin agrupar – siempre que se

requiera su valor exacto.

• Dar preferencia al cálculo de la mediana como medida de posición, cuando la serie

tiene pocos datos e incluye valores extremos.

• No tiene sentido calcular la moda en series de datos sin agrupar.

• Tanto la mediana como la moda son valores de la variable (no confundir con las

frecuencias a las que están asociadas).

• Comparar, siempre que se pueda, media, mediana y moda para determinar el

sesgo de la distribución.

• El rango o alcance es una medida de dispersión poco apropiada para describir

series con muchos datos.

• La desviación estándar es preferible a la varianza porque se expresa en las mismas

unidades de la variable.

3.9.8. REFERENCIAS o RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA

ADMINISTRADORES, ED. PRENTICE HALL, SEXTA ED., 1996

Page 217: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 203

3.10. INFERENCIA ESTADÍSTICA

3.10.1. INTRODUCCIÓN AL MUESTREO Algunas veces es posible y práctico examinar a cada persona o elemento de la población

que deseamos describir. A esto lo llamamos enumeración completa o censo. Utilizamos el

muestreo cuando no es posible contar o medir todos los elementos de la población.

Los estadísticos usan la palabra población para referirse no sólo a personas sino a todos

los elementos que han sido elegidos para un estudio, y emplean la palabra muestra para

describir una porción elegida de la población.

3.10.1.1. CONDICIONES QUE DEBE REUNIR UNA MUESTRA: • Homogeneidad: debe ser extraída de la misma población.

• Independencia: las observaciones no deben estar mutuamente condicionadas entre

sí.

• Representatividad: la muestra debe ser el mejor reflejo posible del conjunto del cual

proviene.

3.10.1.2. ESTADÍSTICAS Y PARÁMETROS. Matemáticamente, podemos describir muestras y poblaciones al emplear mediciones

como la media, la mediana, la oda y la desviación estándar. Cuando estos términos

describen las características de una población, se llaman parámetros. Cuando describen

las características de la muestra, se llaman estadísticos. Una estadística es una

característica de una muestra y un parámetro es una característica de la población.

Se emplean letras latinas minúsculas para denotar estadísticas de muestra y letras griegas

o latinas mayúsculas para representar parámetros de población.

Población Muestra

Definición Colección de elementos considerados

Parte o porción de la población seleccionada para su estudio

Características Parámetros Estadísticas

Símbolos Tamaño de la población: N Media de la población:� Desviación estándar: �

Tamaño de la muestra: n Media de la muestra: x Desviación estándar: s

Page 218: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 204

3.10.2. PARÁMETROS Y ESTIMADORES. Una población queda caracterizada a través de ciertos valores denominados parámetros,

que describen las principales propiedades del conjunto.

Un parámetro es un valor fijo (no aleatorio) que caracteriza a una población en particular.

En general, una parámetro es una cantidad desconocida y rara vez se puede determinar

exactamente su valor, por la dificultad práctica de observar todas las unidades de una

población. Por este motivo, tratamos de estimar el valor de los parámetros desconocidos a

través del empleo de muestras. Las cantidades usadas para describir una muestra se

denominan estimadores o estadísticos muestrales. Ahora bien, es razonable pensar que si tomamos diferentes muestras de la misma

población y calculamos los diferentes estadísticos de cada una, esos valores van a diferir

de muestra a muestra. Por lo tanto, un estadístico no es un valor fijo, sino que presenta las

siguientes características:

• Puede tener varios resultados posibles.

• No se puede predecir de antemano su valor.

Estas son las condiciones que definen a una variable aleatoria. Un estadístico, entonces,

es una variable aleatoria, función de las observaciones muestrales.

A los estadísticos muestrales se los designa con las letras latinas (x, s2), o letras griegas

"con sombrero" (� ^, � ^2).

Si un estadístico es una variable aleatoria, entonces es posible determinar su distribución

de probabilidades y calcular sus principales propiedades.

3.10.2.1. MUESTREO ALEATORIO. 3.10.2.1.1. Muestreo Aleatorio Simple. Selecciona muestras mediante métodos que permiten que cada posible muestra tenga

igual probabilidad de ser seleccionada y que cada elemento de la población total tenga

una oportunidad igual de ser incluido en la muestra.

Una población infinita es aquella en la que es teóricamente imposible observar todos los

elementos. Aunque muchas poblaciones parecen ser excesivamente grandes, no existe

una población realmente infinita de objetos físicos. Con recursos y tiempo ilimitados,

podríamos enumerar cualquier población finita. Como cuestión práctica, entonces,

Page 219: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 205

utilizamos el término población infinita cuando hablamos acerca de una población que no

podría enumerarse en un intervalo razonable.

La forma más fácil de seleccionar una muestra de manera aleatoria es mediante el uso de

números aleatorios. Estos números pueden generarse ya sea con una computadora

programada para resolver números o mediante una tabla de números aleatorios (tabla de

dígitos aleatorios).

3.10.2.1.2. Muestreo Sistemático. En el muestreo sistemático, los elementos son seleccionados de la población dentro de un

intervalo uniforme que se mide con respecto al tiempo, al orden o al espacio.

El muestreo sistemático difiere del aleatorio simple en que cada elemento tiene igual

probabilidad de ser seleccionado, pero cada muestra no tiene una posibilidad igual de ser

seleccionada (Por ejemplo: tomar cada elemento de 10 en 10: el Nª 1, 11, 21...)

En este tipo de muestreo, existe el problema de introducir un error en el proceso de

muestreo.

Aún cuando este tipo de muestreo puede ser inapropiado cuando los elementos entran en

un patrón secuencial, este método puede requerir menos tiempo y algunas veces tiene

como resultado un costo menor que el método aleatorio simple.

3.10.2.1.3. Muestreo Estratificado. Dividimos la población en grupos relativamente homogéneos, llamados estratos. Después,

se utiliza uno de estos planteamientos:

• Seleccionamos aleatoriamente de cada estrato un número específico de elementos

correspondientes a la fracción de ese estrato en la población como un todo.

• Extraemos un número igual de elementos de cada estrato y damos peso a los

resultados de acuerdo con la porción del estrato con respecto a la población total.

Con cualquiera de estos planteamientos, el muestreo estratificado garantiza que cada

elemento de la población tenga posibilidad de ser seleccionado.

Este método resulta apropiado cuando la población ya está dividida en grupos de

diferentes tamaños y deseamos tomar en cuenta este hecho (por ejemplo: categorías

profesionales de la población).

Page 220: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 206

La ventaja de las muestras estratificadas es que, cuando se diseñan adecuadamente,

reflejan de manera más precisa las características de la población de la cual fueron

elegidas.

3.10.2.2. MUESTREO DE RACIMO Dividimos la población en grupos, o racimos, y luego seleccionamos una muestra aleatoria

de estos racimos. Suponemos que estos racimos individualmente son representativos de

la población como un todo (Por ejemplo: las cuadras o barrios de un pueblo). Un

procedimiento de racimo bien diseñado puede producir una muestra más precisa a un

costo considerablemente menor que el de un muestreo aleatorio simple.

Tanto en el muestreo estratificado como en el de racimo, la población se divide en grupos

bien definidos. Usamos el muestreo estratificado cuando cada grupo tiene una pequeña

variación dentro de sí mismo, pero hay una amplia variación dentro de los grupos. Usamos

el muestreo de racimo en el caso opuesto, cuando hay una variación considerable dentro

de cada grupo, pero los grupos son esencialmente similares entre sí.

El muestreo sistemático, estratificado y el de racimo intentan aproximarse al muestreo

aleatorio simple. Todos son métodos que han sido desarrollados por su precisión,

economía o facilidad física.

Los principios del muestreo aleatorio simple son la base de la inferencia estadística, el

proceso de hacer inferencias acerca de poblaciones a partir de información contenida en

muestras.

SUGERENCIAS: • El uso de muestras en un estudio estadístico permite ahorrar mucho esfuerzo y

dinero, y generalmente proporciona información muy precisa sobre las principales

propiedades de la población.

• Para seleccionar una muestra, usar técnicas que permitan garantizar que se

cumplan las propiedades de homogeneidad, independencia y representatividad.

• La técnica de muestreo utilizada depende de los objetivos del estudio, de las

características de la población y de las disponibilidades de materiales.

• Cada dato cuesta dinero, así que para elegir el tamaño de la muestra hay que

compatibilizar la precisión requerida con la variabilidad de los datos y los recursos

disponibles.

Page 221: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 207

3.10.3. INTRODUCCIÓN A LAS DISTRIBUCIONES DE MUESTREO. Si tomamos varias muestras de una población, las estadísticas que calcularíamos para

cada muestra no necesariamente serían iguales, y lo más probable es que variaran de una

muestra a otra.

Una distribución de probabilidad de todas las medias posibles de las muestras es una

distribución de las medias de las muestras. Los estadísticos la conocen como distribución

de muestreo de la media.

También podríamos tener una distribución de muestreo de una porción. Si trazamos una

distribución de probabilidad de porciones posibles de un evento en todas las muestras,

obtendríamos una distribución de las porciones de las muestras. A esto se lo conoce como

distribución de la porción.

3.10.3.1. DESCRIPCIÓN DE LAS DISTRIBUCIONES DE MUESTREO. Cualquier distribución de probabilidad (y, por tanto, cualquier distribución de muestreo)

puede ser descripta parcialmente por su media y su desviación estándar.

3.10.3.2. CONCEPTO DE ERROR ESTÁNDAR. En vez de decir "la desviación estándar de la distribución de las medias de la muestra"

para describir una distribución de medias de la muestra, los estadísticos se refieren al

error estándar de la media. De manera similar, la "desviación estándar de la distribución

de las proporciones de la muestra" se abrevia como error estándar de la proporción. El

término error estándar se utiliza porque da a entender un significado específico. La

variabilidad en las estadísticas de muestras proviene de un error de muestreo debido al

azar; es decir, hay diferencias entre cada muestra y la población, y entre las diversas

muestras, debido únicamente a los elementos que decidimos escoger para las muestras.

La desviación estándar de la distribución de las medias de las muestras mide el grado

hasta el que esperamos que varíen las medias de las diferentes muestras debido a este

error fortuito cometido en el proceso de muestreo. Por tanto, la desviación estándar de la

distribución de una estadística de muestra se conoce como el error estándar de la

estadística.

El error estándar indica no sólo el tamaño del error de azar que se ha cometido, sino

también la probable precisión que obtendremos si utilizamos una estadística de muestra

Page 222: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 208

para estimar un parámetro de población. Una distribución de medias de muestra que está

menos extendida (y que tiene un error estándar pequeño) es un mejor estimador de la

media de la población que una distribución de medias de muestra que está ampliamente

dispersa y que tiene un error estándar más grande.

3.10.3.3. USO DEL ERROR ESTÁNDAR. Siempre que usamos pruebas, tenemos que tratar con el error estándar. Específicamente,

necesitamos cierta medición de la precisión del instrumento de prueba, generalmente

representado por el error estándar.

SUGERENCIA:

El conocimiento de la distribución de muestreo permite a los estadísticos planear muestras

de tal forma que los resultados sean significativos. Debido a que resulta caro recabar y

analizar muestras grandes, los administradores siempre procuran obtener la muestra más

pequeña que proporcione un resultado confiable.

3.10.4. BASE CONCEPTUAL PARA MUESTREAR DISTRIBUCIONES. En la terminología estadística, la distribución de muestreo que obtendríamos al tomar

todas las muestras de un tamaño dado constituye una distribución teórica de muestreo. En

casi todos los casos, los responsables de las decisiones sólo toman una muestra de la

población, calculan estadísticas para esa muestra y de esas estadísticas infieren algo

sobre los parámetros de toda la población.

3.10.4.1. MUESTREO DE POBLACIONES NORMALES. Si extraemos muestras de una población normalmente distribuida y calculamos sus

medias, debido a que estamos promediando para obtener cada media de muestra, se

promediarían hacia abajo valores muy grandes de la muestra y hacia arriba valores muy

pequeños. El razonamiento consistiría en que nos estaríamos extendiendo menos entre

las medias de muestra que entre los elementos individuales de la población original. Esto

es lo mismo que afirmar que error estándar de la media, o la desviación estándar de la

distribución de muestreo, sería menor que la desviación estándar de los elementos

individuales en la población.

Page 223: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 209

El error estándar de la media obtenido para situaciones en las que la población es infinita

es:

� x = � /� n

Para convertir cualquier variable aleatoria normal en una variable aleatoria normal

estándar, debemos sustraer la media de la variable que se está estandarizando y dividir el

resultado entre el error estándar (la desviación estándar de dicha variable). En este caso

particular:

3.10.4.2. MUESTREO DE POBLACIONES NO NORMALES. Cuando una población está distribuida normalmente, la distribución de muestreo de la

media también es normal.

Incluso en el caso en el que una población no está normalmente distribuida, � x, la media

de la distribución de muestreo, sigue siendo igual a la media de la población, � . Es decir,

la distribución de muestreo de la media se acerca a la normalidad, sin importar la forma de

la distribución de la población.

3.10.4.2.1. El teorema del límite central.

• La media de la distribución de muestreo de la media será igual a la media de la

población.

• Al incrementarse el tamaño de la muestra, la distribución de muestreo de la media

se acercará a la normalidad, sin importar la forma de la distribución de la población.

Esta relación entre la forma de la distribución de la población y la forma de la distribución

de muestreo se denomina teorema del límite central, que es tal vez el más importante de

toda la inferencia estadística. Nos asegura que la distribución de muestreo de la media se

aproxima a la normal al incrementarse el tamaño de la muestra. Hay situaciones teóricas

en las que el teorema del límite central no se cumple, pero casi nunca se encuentran en la

toma de decisiones práctica. Una muestra no tiene que ser muy grande para que la

distribución de muestreo de la media se acerque a la normal. Los estadísticos utilizan la

Page 224: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 210

distribución normal como una aproximación a la distribución de muestreo siempre que el

tamaño de la muestra sea al menos de 30, pero la distribución de muestreo de la media

puede ser casi normal con muestras incluso de la mitad de ese tamaño. La importancia del

teorema del límite central es que nos permite usar estadísticas de muestra para hacer

inferencias con respecto a los parámetros de población sin saber nada sobre la forma de

la distribución de frecuencias de esa población más que lo que podamos obtener de la

muestra.

SUGERENCIA:

El teorema del límite central nos permite utilizar las propiedades de la distribución normal

en muchos casos en los que los datos subyacentes no están normalmente distribuidos. El

hecho de que la distribución de muestreo sea aproximadamente normal es la base de una

amplia variedad de pruebas estadísticas diferentes.

3.10.4.2.2. Relación entre el tamaño de la muestra y el error estándar. El error estándar es una medición de la dispersión de las medias de muestras alrededor

de la media de la población. Si la dispersión disminuye (si � x se hace más pequeña),

entonces los valores tomados por la media de la muestra tienden a agruparse más

cercanamente alrededor de � . Y a la inversa, si la dispersión se incrementa (si � x se

agranda), los valores tomados por la media de la muestra tienden a agruparse menos

cercanamente alrededor de � . Al disminuir el error estándar, el valor de cualquier media

de muestra probablemente se acercará al valor de la media de la población. Los

estadísticos describen este fenómeno diciendo: al disminuir el error estándar, se

incrementa la precisión con que se puede usar la media de muestra para estimar la media

de población.

Debido al hecho de que � x varía inversamente con la raíz cuadrada de n, hay una utilidad

decreciente en el muestreo.

Es cierto que al muestrear más elementos disminuye el error estándar, pero este beneficio

puede no valer el costo. El aumento de precisión puede no valer el costo del muestreo

adicional.

Sea X una variable aleatoria con distribución normal, con parámetros � , � 2. Si sacamos

muestras de tamaño n, y calculamos la media aritmética, se demuestra que bajo ciertas

Page 225: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 211

condiciones, X también es una variable aleatoria con distribución normal, con parámetros

� , � 2/n. Es decir:

Si X - N (� , � 2), entonces X - N (� , � 2/n)

Las dos distribuciones tienen la misma media, pero la dispersión de la media aritmética es

menor, tanto más pequeña cuando mayor sea el tamaño de la muestra.

Como en un proceso de inferencia � es un parámetro desconocido, al extraer una muestra

en particular y calcular x, no podemos determinar exactamente qué tan cerca estuvo esa

estimación del valor verdadero del parámetro.

De lo único que podemos estar seguros es que, al aumentar el tamaño de la muestra, la

distribución de la media aritmética tiende a concentrarse más y más alrededor de la media

poblacional y, por tanto, las estimaciones van a estar más próximas al valor del parámetro

(desconocido).

Lo más relevante de la media aritmética es que, aún cuando la variable en estudio no

tenga distribución normal, o su distribución sea desconocida, si el número de elementos

de la muestra es suficientemente grande, por aplicación del Teorema del Límite Central, la

media aritmética igualmente va a tener aproximadamente distribución normal.

Por último, es interesante remarcar la idea de que la media aritmética es conceptualmente

una variable aleatoria hasta el instante previo a calcular efectivamente su valor. Después

de efectuar ese cálculo, tenemos un valor fijo (no aleatorio), y por lo tanto, deja de tener

sentido hablar de la "probabilidad de la media aritmética".

El cálculo de probabilidades con la media aritmética tiene entonces validez en términos

teóricos, es decir, representa "lo que se espera" que ocurra con dicha variable antes de

tomar una muestra y calcular efectivamente su valor.

3.10.4.2.3. El multiplicador de la población finita. Para calcular el error estándar de la media, utilizamos la ecuación:

� x = � /� n

esta ecuación está diseñada para situaciones en las que la población es infinita, o en las

que tomamos muestras de una población infinita con reemplazo.

La fórmula diseñada para encontrar el error estándar de la media cuando la población es

finita y el muestreo se hace sin reemplazo es:

� x = � /� n x � (N - n) / (N - 1)

donde:

Page 226: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 212

N = tamaño de la población

n = tamaño de la muestra

Este nuevo factor que aparece en la ecuación y se multiplica al error estándar original se

conoce como multiplicador de la población finita.

Cuando muestreamos una pequeña fracción de la población entera (es decir, cuando el

tamaño de la población N es muy grande en relación con el tamaño de la muestra n), el

multiplicador de la población finita toma un valor cercano a 1. Los estadísticos se refieren

a la fracción n/N como la fracción de muestreo, porque es la fracción de la población N

contenida en la muestra.

Cuando la fracción de muestreo es pequeña, el error estándar de la media para

poblaciones finitas es tan cercano a la media para poblaciones infinitas, que bien

podríamos utilizar la misma fórmula para ambas desviaciones. La regla generalmente

aceptada es: si la fracción de muestreo es menor a 0,05, no se necesita usar el multiplicar

para la población finita.

Cuando utilizamos la ecuación para poblaciones infinitas, � es constante y, por tanto, la

medida de la precisión de muestreo, � x, depende solamente del tamaño de la muestra n y

no de la fracción de población muestreada. Es decir, para hacer � x más pequeña sólo es

necesario agrandar n. En consecuencia, resulta que el tamaño absoluto de la muestra es

el que determina la precisión del muestreo, no la fracción de la población muestreada.

SUGERENCIAS: • Cuando desee calcular probabilidades con la media aritmética, no olvide que al

calcular la variable estandarizada, debe dividir por el desvío o error estándar de la

media. Los resultados serán inexactos si omite este punto.

• Para verificar el funcionamiento de un proceso, medir el rendimiento de un método,

etc. necesitamos conocer su valor medio. Si debemos estimar ese valor a través de

la muestra, recuerde que la precisión de la estimación aumenta con el incremento

del tamaño muestral. Evite realizar inferencias utilizando una sola observación.

• La aplicación del Teorema del Límite Central hace de la media aritmética una

herramienta útil, aún en aquellos casos en que la distribución de la variable en

estudio no es conocida, o no es normal.

• La disminución del error estándar no es directamente proporcional al tamaño de la

muestra, así que es conveniente compatibilizar precisión con costos.

Page 227: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 213

Conceptos. • Censo: medición o examen de cada elemento de la población.

• Distribución de muestreo de la media: una distribución de probabilidad de todas

las medias posibles de muestras de un tamaño dado, n, de una población.

• Distribución de muestreo de una estadística: para una población dada,

distribución de probabilidad de todos los valores posibles que puede tomar una

estadística, dado un tamaño de la muestra.

• Error de muestreo: error o variación entre estadísticas de muestra debido al azar,

es decir, diferencias entre cada muestra y la población, y entre varias muestras, que

se deben únicamente a los elementos que elegimos para la muestra.

• Error estándar: la desviación estándar de la distribución de muestreo de una

estadística.

• Error estándar de la media: la desviación estándar de la distribución de muestreo

de la media, una medida del grado en que se espera que varíen las medias de las

diferentes muestras de la media de la población, debido al error aleatorio en el

proceso de muestreo.

• Estadísticas: mediciones que describen las características de una muestra.

• Estimador o estadístico: cantidad que caracteriza a una muestra, y que sirve para

aproximar el valor de un parámetro desconocido. Variable aleatoria, función de las

observaciones muestrales, a través de la cual tratamos de inferir el valor de un

parámetro poblacional.

• Estimación: valor particular de un estimador, que caracteriza a una muestra

específica.

• Estratos: grupos dentro de una población formados de tal manera que cada grupo

es relativamente homogéneo, aunque existe una variabilidad más amplia entre los

diferentes grupos.

• Fracción de muestreo: la fracción o porción de la población contenida en una

muestra.

• Inferencia estadística: proceso de análisis que consiste en inferir las propiedades

de una población en base a la caracterización de la muestra.

• Muestra: subconjunto de la población seleccionado mediante algún criterio

particular. Porción de elementos de una población elegidos para su examen o

medición directa.

Page 228: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 214

• Muestreo no aleatorio: conformación de la muestra en base al conocimiento o

experiencia del observador.

• Muestreo aleatorio: conformación de la muestra usando métodos al azar.

• Muestreo aleatorio simple: métodos de selección de muestras que permiten a

cada muestra posible una probabilidad igual de ser elegida y a cada elemento de la

población completa una oportunidad igual de ser incluido en la muestra.

• Muestreo con reemplazo: procedimiento de muestreo en el que los elementos se

regresan a la población después de ser elegidos, de tal forma que algunos

elementos de la población pueden aparecer en la muestra más de una vez.

• Muestreo de juicio: método para seleccionar una muestra de una población en el

que se usa el conocimiento o la experiencia personal para identificar aquellos

elementos de la población que deben incluirse en la muestra.

• Muestreo de probabilidad o aleatorio: método para seleccionar una muestra de

una población en el que todos los elementos de la población tienen igual

oportunidad de ser elegidos en la muestra.

• Muestreo estratificado: la población se divide en estratos, y luego se muestra en

forma proporcional en cada estrato. Método de muestreo aleatorio en el que la

población se divide en grupos homogéneos, o estratos, y los elementos dentro de

cada estrato se seleccionan al azar de acuerdo con una de dos reglas: 1) un

número específico de elementos se extrae de cada estrato correspondiente a la

porción de ese estrato en la población; 2) igual número de elementos se extraen de

cada estrato, y los resultados son valorados de acuerdo con la porción del estrato

de la población total.

• Muestreo de racimo (o por conglomerados): la población se divide en racimos y

luego se elige aleatoriamente una muestra de racimos. Método de muestreo

aleatorio en el que la población se divide en grupos o racimos de elementos y luego

se selecciona una muestra aleatoria de estos racimos.

• Muestreo sin reemplazo: procedimiento de muestreo en el que los elementos no

se regresan a la población después de ser elegidos, de tal forma que ningún

elemento de la población puede aparecer en la muestra más de una vez. • Muestreo sistemático: los elementos de la muestra son elegidos a intervalos fijos.

Método de muestreo aleatorio usado en estadística en el que los elementos que se

Page 229: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 215

muestrearán se seleccionan de la población en un intervalo uniforme que se mide

con respecto al tiempo, al orden o al espacio.

• Multiplicador de la población finita: factor que se utiliza para corregir el error

estándar de la media en el estudio de una población de tamaño finito, pequeño con

respecto al tamaño de la muestra.

• Parámetro: valor fijo que caracteriza a una población. Valores que describen las

características de una población.

• Población: conjunto de elementos que son objeto de un estudio estadístico.

• Población finita: población que tiene un tamaño establecido o limitado.

• Precisión: el grado de exactitud con el que la media de la muestra puede estimar la

media de la población, según revela el error estándar de la media.

• Racimos: grupos dentro de una población que son esencialmente similares entre

sí, aunque los grupos mismos tengan amplia variación interna.

• Teorema del límite central: resultado que asegura que la distribución de muestreo

de la media se acerca a la normalidad cuando el tamaño de la muestra se

incrementa, sin importar la forma de la distribución de la población de la que se

selecciona la muestra.

3.10.5. ESTIMACIÓN. El material sobre teoría de la probabilidad constituye la base de la inferencia estadística,

rama de la estadística que tiene que ver con el uso de los conceptos de la probabilidad

para tratar con la toma de decisiones en condiciones de incertidumbre. La inferencia

estadística está basada en la estimación y en la prueba de hipótesis.

3.10.5.1. TIPOS DE ESTIMACIÓN. Podemos hacer dos tipos de estimaciones concernientes a una población:

• Una estimación puntual: es sólo u número que se utiliza para estimar un parámetro

de población desconocido. Una estimación puntual a menudo resulta insuficiente,

debido a que sólo tiene dos opciones: es correcta o está equivocada. Una

estimación puntual es mucho más útil si viene acompañada por una estimación del

error que podría estar implicado.

• Una estimación de intervalo: es un intervalo de valores que se utiliza para estimar

un parámetro de población. Esta estimación indica el error de dos maneras: por la

Page 230: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 216

extensión del intervalo y por la probabilidad de obtener el verdadero parámetro de

la población que se encuentra dentro del intervalo.

3.10.5.2. ESTIMADOR Y ESTIMACIONES. Un estimador es una estadística de muestra utilizada para estimar un parámetro de

población. La media de la muestra puede ser un estimador de la media de la población, y

la porción de la muestra se puede utilizar como estimador de la porción de la población.

También podemos utilizar el alcance de la muestra como un estimador del alcance de la

población.

Cuando hemos observado un valor numérico específico de nuestro estimador, nos

referimos a ese valor como una estimación. Una estimación es un valor específico

observado de una estadística. Hacemos una estimación si tomamos una muestra y

calculamos el valor que toma nuestro estimador en esa muestra.

3.10.5.3. CRITERIOS PARA SELECCIONAR UN BUEN ESTIMADOR. 1. Imparcialidad. Se refiere al hecho de que una media de muestra es un estimador

no sesgado de una media de población, porque la media de distribución de

muestreo de las medias de muestras tomadas de la misma población es igual a la

media de la población misma. Podemos decir que una estadística es un estimador

imparcial (o no sesgado) si, en promedio, tiende a tomar valores que están por

encima del parámetro de la población y la misma extensión con la que tiende a

asumir valores por debajo del parámetro de población que se está estimando. 2. Eficiencia. Se refiere al tamaño del error estándar de la estadística. Si

comparamos dos estadísticas de una muestra del mismo tamaño y tratamos de

decidir cuál de ellas es un estimador más eficiente, escogeríamos la estadística que

tuviera el menor error estándar o la menor desviación estándar de la distribución de

muestreo. Tiene sentido pensar que un estimador con un error estándar menor (con

menos desviación) tendrá una mayor oportunidad de producir una estimación más

cercana al parámetro de población que se está considerando. 3. Coherencia. Una estadística es un estimador coherente de un parámetro de

población si al aumentar el tamaño de la muestra, se tiene casi la certeza de que el

valor de la estadística se aproxima bastante al valor del parámetro de la población.

Page 231: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 217

Si un estimador es coherente, se vuelve más confiable si tenemos tamaños de

muestras más grandes. 4. Suficiencia. Un estimador es suficiente si utiliza una cantidad de la información

contenida en la muestra que ningún otro estimador podría extraer información

adicional de la muestra sobre el parámetro de la población.

Una estadística de muestra dada no siempre es el mejor estimador de su parámetro de

población correspondiente. Considere una población distribuida simétricamente, en la que

los valores de la mediana y de la media coinciden. En este caso, la media de la muestra

sería un estimador imparcial de la mediana de la población debido a que asumiría valores

que en promedio serían iguales a la mediana de la población. También, la media de la

muestra sería un estimador consistente de la mediana de la población, puesto que,

conforme aumenta el tamaño de la muestra, el valor de la media de la muestra tenderá a

acercarse bastante a la mediana de la población. Y la media de la muestra sería un

estimador más eficiente de la mediana de la población que la mediana misma, ya que en

muestras grandes, la media de la muestra tiene una desviación estándar menor que la

mediana de la muestra. Al mismo tiempo, la mediana de la muestra de una distribución

distribuida simétricamente sería un estimador imparcial y consistente de la media de la

población, pero no el más eficiente estimador, porque en muestras grandes su error

estándar es mayor que el de la media de la muestra.

3.10.5.4. ESTIMACIONES PUNTUALES. La media de la muestra es el mejor estimador de la media de la población. Es imparcial,

coherente, el estimador más eficiente y, siempre y cuando la muestra sea la

suficientemente grande, su distribución de muestreo puede ser aproximada por la

distribución normal.

Si conocemos la distribución de muestreo de la media, podemos llegar a conclusiones con

respecto a cualquier estimación que podamos hacer a partir de la información de

muestreo.

3.10.5.4.1. Estimación puntual de la varianza y de la desviación estándar de la población. El estimador utilizado con más frecuencia para hacer la estimación de la desviación

estándar de la población, es la desviación estándar de la muestra:

Page 232: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 218

s2 = � (x - x)2 / (n - 1)

Al utilizar un divisor n - 1, nos da un estimador imparcial de � 2.

3.10.5.4.2. Estimación puntual de la porción de la población. La porción de unidades de una población dada que posee una característica particular se

representa mediante el símbolo p. Si conocemos la porción de unidades de una muestra

que tiene la misma característica, podemos utilizar esa p como estimador de p. Se puede

mostrar que p tiene todas las características deseables: es imparcial (no sesgado),

coherente, eficiente y suficiente.

SUGERENCIA:

Incluso cuando estamos utilizando el mejor estimador de un parámetro de población,

aceptamos que puede estar implicado algo de error. Afirmamos que la estimación puntual

y la medida de la varianza proporcionan información útil para las decisiones.

3.10.5.5. ESTIMACIONES DE INTERVALO. El propósito de tomar muestras es para conocer más acerca de una población. Podemos

calcular esa información a partir de las muestras como estimaciones puntuales, o como

estimaciones de intervalo. Una estimación de intervalo describe un intervalo de valores

dentro del cual es posible que esté un parámetro de población.

Si seleccionamos y representamos gráficamente un gran número de medias de muestras

de una población, la distribución de tales medias se aproximará a la curva normal.

Además, la media de las medias de muestra será la misma media de la población.

3.10.5.5.1. Probabilidad de que el parámetro de la población esté dentro de la estimación. En lo que concierne a cualquier intervalo particular, éste contiene a la media de la

población o no la contiene, pues la media de la población es un parámetro fijo, y no varía.

Cuando las organizaciones informan la precisión de encuestas de opinión como "estos

resultados son precisos en más menos tres puntos", por lo general no establecen el nivel

de confianza que están utilizando para hacer la estimación de intervalo. Una afirmación

más completa tendría la forma. "existe un 95% de probabilidad de que la verdadera

opinión de la población caiga dentro del intervalo comprendido entre….."

Page 233: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 219

3.10.5.5.2. Estimaciones de intervalo e intervalos de confianza. La probabilidad que asociamos con una estimación de intervalo se conoce como nivel de

confianza. Esta probabilidad indica qué tanta confianza tenemos de que la estimación de

intervalo incluya al parámetro de población. Una probabilidad más alta indica más

confianza.

El intervalo de confianza es el alcance de la estimación que estamos haciendo.

Expresaremos el intervalo de confianza en términos de errores estándar, más que con

valores numéricos. Los límites de confianza son los límites superior e inferior del intervalo

de confianza

3.10.5.5.3. Relación entre el nivel de confianza e intervalo de confianza. Podría pensarse que deberíamos utilizar un nivel alto de confianza en todos los problemas

sobre estimaciones. En la práctica, sin embargo, altos niveles de confianza producen

intervalos de confianza grandes, y éstos no son precisos, dan estimaciones bastante

imprecisas.

3.10.5.5.4. Uso del muestreo y de la estimación de intervalos de confianza. A menudo resulta difícil o caro tomar más de una muestra de una población. Basados en

solamente una muestra estimamos el parámetro de población.

El intervalo de confianza quiere decir que si seleccionamos muchas muestras aleatorias

del mismo tamaño y si calculamos un intervalo de confianza para cada una de las

muestras, tendremos un porcentaje de confianza determino de que en todos los casos la

media de la población caerá dentro del intervalo.

Por otro lado, existe un cierto equilibrio entre la certidumbre de la estimación y el ancho de

un intervalo de confianza.

3.10.5.5.5. Cálculo de estimaciones de intervalo de la media a partir de muestras grandes. Se calcula el error estándar de la media para una población infinita:

� x = � /� n

Posteriormente, se establecen los límites de confianza superior e inferior, considerando el

porcentaje de confianza requerido.

Page 234: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 220

3.10.5.5.6. Cuando no se conoce la desviación estándar. Cuando no se conoce la desviación estándar de la población, utilizamos la desviación

estándar de la muestra para estimar la desviación estándar de la población:

s2 = � � [(x - x)2 / (n - 1)]

La fórmula para derivar el error estándar de la media de poblaciones finitas es:

� x = {� /� n} x � (N - n) / N - 1)

A partir de esto, podemos calcular el error estándar de la media mediante la desviación

estándar de la población:

� ´x = {� ´x/� n} x � (N - n) / N - 1)

SUGERENCIA:

Cuando tenemos muestras grandes, utilizamos el Teorema del Límite Central, nuestro

conocimiento de la curva normal y nuestra habilidad para hacer correcciones para

poblaciones finitas.

3.10.6. DETERMINACIÓN DEL TAMAÑO DE LA MUESTRA. Siempre que tomamos una muestra, perdemos algo de información útil con respecto a la

población. El error de muestre se puede controlar si seleccionamos una muestra cuyo

tamaño sea el adecuado. En general, cuanta más precisión se quiera, más grande será el

tamaño de la muestra necesaria.

Para calcular el tamaño de muestra, podemos utilizar la fórmula del error estándar de la

media:

� x = � /� n

Si no conocemos la desviación estándar de la población, podemos utilizar el alcance de la

población para obtener una estimación burda pero manejable de la desviación estándar.

Sabemos que más menos tres desviaciones estándar incluyen 99,7% del área total bajo la

curva normal, esto es, más tres desviaciones estándar y menos tres desviaciones

estándar de la media incluyen casi toda el área de la distribución.

3.10.7. SUGERENCIAS: • Un estimador es una variable aleatoria, y por lo tanto es posible asociarle

probabilidades, lo que resulta de suma utilidad como herramienta auxiliar para la

toma de decisiones bajo condiciones de incertidumbre.

• Una estimación, en cambio, es un valor particular del estimador, calculado en base

a una muestra dada. Por tanto, constituye un valor fijo (no aleatorio) que caracteriza

Page 235: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 221

a esa muestra en particular, pero que se usa para inferir el valor de un parámetro

desconocido.

• Entre un estimador puntual y uno por intervalos, es preferible usar este último

porque tiene asociado una probabilidad que contempla el error que se puede

cometer en la aproximación.

3.10.8. CONCEPTOS. • Estimación: valor específico de un estimador, calculado en base a una muestra

dada.

• Estimación de intervalo: intervalo de valores utilizado para estimar un parámetro

de población desconocido.

• Estimación de parámetros: Aproximación del valor de parámetros poblacionales

desconocidos mediante del empleo de estadísticos muestrales.

• Estimación puntual: un solo número que se utiliza para estimar un parámetro de

población desconocido.

• Estimador: estadística de muestra utilizada para estimar un parámetro de

población. Conceptualmente es una variable aleatoria.

• Estimador coherente: estimador que produce valores que se acercan más al

parámetro de la población conforme aumenta el tamaño de la muestra.

• Estimador eficiente: estimador con un menor error estándar que algún otro

estimador del parámetro de la población, esto es, cuanto más pequeño sea el error

estándar de un estimador, más eficiente será ese estimador.

• Estimador imparcial: estimador de un parámetro de población que, en promedio,

asume valores por encima del parámetro de la población con la misma frecuencia, y

al mismo grado, con que tiende a tomarlos por debajo del parámetro de la

población.

• Estimador suficiente: estimador que utiliza toda la información disponible en los

datos correspondientes a un parámetro.

• Intervalo de confianza: intervalo de valores que tiene designada una probabilidad

de que incluya el valor real del parámetro de la población.

• Límites de confianza: límites inferior y superior de un intervalo de confianza.

• Nivel de confianza: probabilidad que los estadísticos asocian con una estimación

de intervalo de un parámetro de población, ésta indica qué tan seguros están de

que la estimación de intervalo incluirá el parámetro de la población. Probabilidad,

Page 236: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 222

designada de antemano, de que un intervalo de confianza incluya al valor del

parámetro desconocido.

• Propiedades de un buen estimador: características deseables de un estimador,

para lograr la mejor aproximación posible de un parámetro poblacional.

3.10.9. PRUEBAS DE HIPÓTESIS Una hipótesis es una afirmación acerca de algo. En estadística, puede ser una suposición

acerca del valor de un parámetro desconocido.

Pasos en la prueba de hipótesis:

1. Definir la hipótesis nula: suponer una hipótesis acerca de una población.

2. Formular una hipótesis alternativa: es una contra-hipótesis.

3. Definir un criterio de decisión para rechazar o no la hipótesis nula.

4. Recabar datos de la muestra.

5. Calcular una estadística de muestra.

6. Utilizar la estadística de muestra para evaluar la hipótesis.

Generalmente, se habla de "no rechazar" una hipótesis en lugar de "aceptar", ya que las

pruebas no son concluyentes.

3.10.9.1. INTRODUCCIÓN La prueba de hipótesis comienza con una suposición, llamada hipótesis, que hacemos con

respecto a un parámetro de población. Después recolectamos datos de muestra,

producimos estadísticas de muestra y usamos esta información para decidir qué tan

probable es que sea correcto nuestro parámetro de población acerca del cual hicimos la

hipótesis.

Debemos establecer el valor supuesto o hipotetizado del parámetro de población antes de

comenzar a tomar la muestra. La suposición que deseamos probar se conoce como

hipótesis nula, y se simboliza H0.

Siempre que rechazamos la hipótesis, la conclusión que sí aceptamos se llama hipótesis

alternativa y se simboliza H1.

3.10.9.2. INTERPRETACIÓN DEL NIVEL DE SIGNIFICANCIA. El propósito de la prueba de hipótesis no es cuestionar el valor calculado de la estadística

de muestra, sino hacer un juicio respecto a la diferencia entre esa estadística de muestra y

Page 237: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 223

un parámetro de población hipotetizado. El siguiente paso después de establecer la

hipótesis nula alternativa consiste en decidir qué criterio utilizar para decidir si aceptar o

rechazar la hipótesis nula.

Si suponemos que la hipótesis es correcta, entonces el nivel de significancia indicará el

porcentaje de medias de muestra que está fuera de ciertos límites.

Siempre que afirmemos que aceptamos la hipótesis nula, en realidad lo que queremos

decir es que no hay suficiente evidencia estadística para rechazarla. El empleo del término

aceptar, en lugar de rechazar, se ha vuelto de uso común. Significa simplemente que

cuando los datos de la muestra n hacen que rechacemos una hipótesis nula, nos

comportamos como si fuera cierta.

3.10.9.3. SELECCIÓN DEL NIVEL DE SIGNIFICANCIA Nuestra elección del estándar mínimo para una probabilidad aceptable, o el nivel de

significancia, es también el riesgo que asumimos al rechazar una hipótesis nula cuando es

cierta. Mientras más alto sea el nivel de significancia que utilizamos para probar una

hipótesis, mayor será la probabilidad de rechazar una hipótesis nula cuando es cierta.

3.10.9.3.1. Errores tipo I y tipo II. El rechazo de una hipótesis nula cuando es cierta se denomina error de tipo I, y su

probabilidad (que es también el nivel de significancia) se simboliza como � . El hecho de

aceptar una hipótesis nula cuando es falsa se denomina error de tipo II, y su probabilidad

se simboliza como � . La probabilidad de cometer un tipo de error puede reducirse sólo si

deseamos incrementar la probabilidad de cometer el otro tipo de error. Con el propósito de

obtener una � baja, tendremos que tolerar una � alta. Los responsables de la toma de

decisiones deciden el nivel de significancia adecuado, al examinar los costos o

desventajas vinculadas con ambos tipos de errores.

3.10.9.3.2. Pruebas de hipótesis de dos extremos y de un extremo. Una prueba de dos extremos de una hipótesis, rechazará la hipótesis nula si la media de

muestra es significativamente mayor o menor que la media de la población hipotetizada.

Existen dos regiones de rechazo.

Page 238: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 224

Hay situaciones en las que no es apropiada una prueba de dos extremos, por lo que

debemos usar una prueba de un extremo, que pueden ser de extremo izquierdo (o inferior)

o extremo derecho (o superior).

La única forma de probar una hipótesis nula es conociendo el parámetro de población, y

eso no es posible al tomar una muestra. Por consiguiente, aceptamos la hipótesis nula y

nos comportamos como si fuera cierta, simplemente porque no podemos encontrar

evidencia para rechazarla.

3.10.9.3.3. Medición de la potencia de una prueba de hipótesis. Idealmente, tanto � como � (las probabilidades de los errores tipo I y II deben ser

pequeñas. Una vez que decidimos el nivel de significancia, no hay nada que podamos

hacer con respecto a � .

Cuando la hipótesis nula es falsa, � (la media de la población cierta) no es igual a la

media hipotetizada.

Puesto que rechazar una hipótesis nula cuando es falsa es exactamente lo que debe

hacer una buena prueba, un valor alto de 1 - � significa que la prueba está trabajando

bastante bien (está rechazando la hipótesis nula cuando es falsa. Puesto que 1 - � es la

medida de qué tan bien trabaja la prueba, se la conoce como la potencia de la prueba. Si

representamos gráficamente los valores 1 - � por cada valor de � para el que la hipótesis

alternativa es cierta, la curva resultante se conoce como curva de potencia.

3.10.10. SUGERENCIAS: • Conviene plantear la hipótesis nula siempre por la igualdad. Adapte la

contrahipótesis de acuerdo con el objetivo del problema.

• Formule la hipótesis en base a los objetivos del estudio, pero siempre antes de

extraer la muestra y calcular el estimador puntual del parámetro desconocido, para

no verse influenciado por este resultado.

• Tenga en cuenta que si bien la hipótesis nula es la que se pone bajo prueba, eso no

significa que deba ser siempre la suposición que el experimentador desea que se

compruebe.

• Como en todo proceso de inferencia, existe algún grado de subjetividad en la

realización de una prueba, particularmente en la elección del nivel de significancia y

Page 239: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 225

del tamaño de la muestra. Trate de que la elección de estos valores responda a un

análisis cuidadoso del problema en cuestión.

• Una vez fijadas las condiciones de la prueba, el resultado de la misma es

totalmente objetivo.

• Para fijar el nivel de significancia de la prueba, hay que tener en cuenta que cuando

la probabilidad del error tipo I aumenta, la del error tipo II disminuye. La forma de

minimizar el error tipo II independientemente del nivel de significancia, es

aumentando el tamaño de la muestra.

• Como las probabilidades de los errores tipo I y II están relacionadas entre ´si, pero

el experimentador puede fijar la primera, antes de elegir el nivel de significancia hay

que ver cuál de los dos tipos de errores resulta más crítico.

3.10.11. CONCEPTOS: • Alfa: probabilidad de cometer un error de tipo I.

• Beta: probabilidad de cometer un error de tipo II.

• Curva de potencia: gráfica de los valores de la potencia de una prueba por cada

valor de � , u otro parámetro de población, para el que la hipótesis alternativa es

cierta.

• Error de tipo I: rechazo de una hipótesis nula cuando es cierta.

• Error de tipo II: aceptación de una hipótesis nula cuando es falsa.

• Escala estandarizada: medición en desviaciones estándar a partir de la media de

la variable.

• Escala sin procesar: medición en las unidades originales de la variable.

• Hipótesis: suposición o especulación que hacemos con respecto a un parámetro

de población.

• Hipótesis alternativa: conclusión que aceptamos cuando los datos no respaldan la

hipótesis nula. • Hipótesis estadística: afirmación acerca del valor de un parámetro desconocido, o

sobre la distribución de una variable.

• Hipótesis nula: hipótesis o suposición con respecto a un parámetro de población

que deseamos probar.

Page 240: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 226

• Nivel de significancia: valor que indica el porcentaje de valores de muestra que

están fuera de ciertos límites, suponiendo que la hipótesis nula es correcta, es

decir, se trata de la probabilidad de rechazar la hipótesis nula cuando es cierta.

• Potencia de prueba de hipótesis: probabilidad de rechazar la hipótesis nula

cuando es falsa, es decir, una medida de qué tan bien funciona la prueba de

hipótesis.

• Prueba de hipótesis: experimento que pone bajo prueba una hipótesis estadística,

para decidir si es verdadera o falsa.

• Prueba de dos extremos: prueba de hipótesis en la que la hipótesis nula se

rechaza si el valor de muestra es significativamente menor o mayor que el valor

hipotetizado del parámetro de población, prueba que involucra dos regiones de

rechazo.

• Prueba de extremo inferior: prueba de hipótesis de un extremo en la que un valor

de la muestra que se encuentra significativamente por debajo del valor de la

población hipotetizada, nos llevará a rechazar la hipótesis nula.

• Prueba de extremo superior: prueba de hipótesis de un extremo en la que un

valor de muestra significativamente superior al valor de población hipotetizado nos

llevará a rechazar la hipótesis nula.

• Prueba de un extremo: prueba de hipótesis en la que sólo hay una región de

rechazo, es decir, sólo nos interesa si el valor observado se desvía del valor

hipotetizado en una dirección.

• Valor crítico: valor de la estadística estándar (z) más allá del cual rechazamos la

hipótesis nula; el límite entre las regiones de aceptación y rechazo. 3.10.12. INTRODUCCIÓN A LA ESTADÍSTICA NO PARAMÉTRICA Las pruebas de hipótesis hacen inferencias respecto a los parámetros de la población,

como la media. Estas pruebas paramétricas utilizan la estadística paramétrica de muestras

que provinieron de la población que se está probando. Para formular estas pruebas,

hicimos suposiciones restrictivas sobre las poblaciones de las que extraíamos las

muestras. Por ejemplo: suponíamos que las muestras eran grandes o que provenían de

poblaciones normalmente distribuidas. Pero las poblaciones no siempre son normales.

Los estadísticos han desarrollado técnicas útiles que no hacen suposiciones restrictivas

respecto a la forma de las distribuciones de las poblaciones. Éstas se conocen como

Page 241: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 227

pruebas sin distribución, o pruebas no paramétricas. Las hipótesis de una probabilidad no

paramétrica se refieren a algo distinto del valor de un parámetro de población

3.10.12.1. VENTAJAS DE LOS MÉTODOS NO PARAMÉTRICOS. 1. No requieren que hagamos la suposición de que una población está distribuida en

forma de curva normal u otra forma específica.

2. Generalmente, son más fáciles de efectuar y comprender.

3. Algunas veces, ni siquiera se requiere el ordenamiento o clasificación formal.

3.10.12.2. DESVENTAJAS DE LOS MÉTODOS NO PARAMÉTRICOS. 1. Ignoran una cierta cantidad de información

2. A menudo, no son tan eficientes como las pruebas paramétricas. Cuando usamos

pruebas no paramétricas, efectuamos un trueque: perdemos agudeza al estimar

intervalos, pero ganamos la habilidad de usar menos información y calcular más

rápidamente.

3.10.12.3. PRUEBA DE KOLMOGOROV.SMIRNOV. Se trata de un método no paramétrico sencillo para probar si existe una diferencia

significativa entre una distribución de frecuencia observada y otra frecuencia teórica. Es

otra medida de la bondad de ajuste de una distribución de frecuencia teórica.

Se basa en la comparación de distribuciones acumuladas: la distribución acumulada de los

datos observados y la distribución acumulada teórica correspondiente al modelo elegido.

Tiene varias ventajas: es una prueba poderosa y fácil de utilizar, puesto que no requiere

que los datos se agrupen de determinada manera.

Es particularmente útil para juzgar qué tan cerca está la distribución de frecuencias

observada de la distribución de frecuencias esperada, porque la distribución de

probabilidad Dn depende del tamaño de muestra n, pero es independiente de la

distribución de frecuencia esperada (Dn es una estadística de distribución libre).

Para calcular la estadística K-S, simplemente se elige Dn (la desviación absoluta máxima

entre las frecuencias observadas y teóricas).

Una prueba K-S siempre debe ser una prueba de un extremo.

Luego se busca el valor crítico en la tabla, para las n observaciones, considerando el nivel

de significancia adoptado.

Page 242: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 228

Si el valor de la tabla es mayor que el valor de Dn, entonces aceptaremos la hipótesis

nula.

3.10.13. SUGERENCIAS: • La prueba de Kolmogorov puede usarse con muestras muy pequeñas, en donde no

se pueden aplicar otras pruebas paramétricas.

• Podemos usar la prueba de Kolmogorov para verificar la suposición de normalidad

subyacente en todo análisis de inferencia.

• Si bien constituye una prueba de implementación sencilla, tenga en cuenta que

carga con las desventajas de los métodos no paramétricos en general, en el sentido

de producir resultados menos precisos que los procedimientos convencionales.

• Cuando trabaje con muestras pequeñas, recuerde usar la frecuencia cumulada

experimental.

3.10.14. CONCEPTOS: • Pruebas de bondad de ajuste: pruebas de hipótesis que ponen bajo prueba una

afirmación acerca de la distribución de una variable aleatoria.

• Prueba de Kolmogorrov-Smirnov: prueba no paramétrica que no requiere que los

datos se agrupen de ninguna manera para determinar si existe diferencia

significativa entre la distribución de frecuencia observada y la distribución de

frecuencia teórica. • Pruebas no paramétricas: técnicas estadísticas que no hacen suposiciones

restrictivas respecto a la forma de la distribución de población al realizar una prueba

de hipótesis. •

3.10.15. REFERENCIAS o RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA

ADMINISTRADORES, ED. PRENTICE HALL, SEXTA ED., 1996

Page 243: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 229

3.11. PROBABILIDAD

3.11.1. HISTORIA DE LA PROBABILIDAD Jacob Berooulli (1654 - 1705), Abraham de Moivre (1667 - 1754), el reverendo Thomas

Bayes (1702 - 1761) y Joseph Lagrange (1736 - 1813) desarrollaron fórmulas y técnicas

para el cálculo de la probabilidad. En el siglo XIX, Pierre Simon, marqués de Laplace

(1749 - 1827), unificó todas estas primeras ideas y compiló la primera teoróa general de la

probabilidad.

La teoría de la probabilidad fue aplicada con éxito en las mesas de juego y, lo que es más

importante, en problemas sociales y económicos. La industria de seguros requería un

conocimiento preciso acerca de los riesgos de pérdida. Muchos centros de aprendizaje

estudiaron la probabilidad como una herramienta para el entendimiento de los fenómenos

sociales.

Nuestra necesidad de tratar con total incertidumbre nos lleva a estudiar y utilizar la teoría

de la probabilidad. Al organizar la información y considerarla de manera sistemática,

seremos capaces de reconocer nuestras suposiciones, comunicar nuestro razonamiento a

otras personas y tomar una decisión más sólida.

3.11.2. CONCEPTOS BÁSICOS SOBRE PROBABILIDAD. La probabilidad es la posibilidad de que algo pase. Las probabilidades se expresan como

fracciones o como decimales que están entre uno y cero. Tener una probabilidad de cero

significa que algo nuca va a suceder; una probabilidad de uno indica que algo va a

suceder siempre.

En la teoría de la probabilidad, un evento es uno o más de los posibles resultados de

hacer algo. La actividad que origine uno de dichos eventos se conoce como experimento

aleatorio.

Al conjunto de todos los resultados posibles de un experimento se le llama espacio

muestral del experimento.

Se dice que dos eventos son mutuamente excluyentes si uno y sólo uno de ellos puede

tener lugar a un tiempo.

Page 244: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 230

Cuando en una lista de los posibles eventos que pueden resultar de un experimento se

incluyen todos los resultados posibles, se dice que la lista es colectivamente exhaustiva.

En una lista colectivamente exhaustiva se presentan todos los resultados posibles.

3.11.3. TRES TIPOS DE PROBABILIDAD. Existen tres maneras básicas de clasificar la probabilidad. Estas tres formas presentan

planteamientos conceptuales bastante diferentes:

• Planteamiento clásico.

• Planteamiento de frecuencia relativa.

• Planteamiento subjetivo.

3.11.3.1. PROBABILIDAD CLÁSICA. Se define la probabilidad de que un evento ocurra como:

Número de resultados en los que se presenta el evento / número total de resultados

posibles

Cada uno de los resultados posibles debe ser igualmente posible.

La probabilidad clásica, a menudo, se le conoce como probabilidad a priori, debido a que

si utilizamos ejemplos previsibles como monedas no alteradas, dados no cargados y

mazos de barajas normales, entonces podemos establecer la respuesta de antemano, sin

necesidad de lanzar una moneda, un dado o tomar una carta. No tenemos que efectuar

experimentos para poder llegar a conclusiones.

Este planteamiento de la probabilidad tiene serios problemas cuando intentamos aplicarlo

a los problemas de toma de decisiones menos previsibles. El planteamiento clásico

supone un mundo que no existe, supone que no existen situaciones que son bastante

improbables pero que podemos concebir como reales. La probabilidad clásica supone

también una especie de simetría en el mundo.

3.11.3.2. FRECUENCIA RELATIVA DE PRESENTACIÓN. En el siglo XIX, los estadísticos británicos, interesados en la fundamentación teórica del

cálculo del riesgo de pérdidas en las pólizas de seguros de vida y comerciales, empezaron

a recoger datos sobre nacimientos y defunciones. En la actualidad, a este planteamiento

se le llama frecuencia relativa de presentación de un evento y define la probabilidad como:

Page 245: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 231

• La frecuencia relativa observada de un evento durante un gran número de intentos,

o

• La fracción de veces que un evento se presenta a la larga, cuando las condiciones

son estables.

Este método utiliza la frecuencia relativa de las presentaciones pasadas de un evento

como una probabilidad. Determinamos qué tan frecuente ha sucedido algo en el pasado y

usamos esa cifra para predecir la probabilidad de que suceda de nuevo en el futuro.

Cuando utilizamos el planteamiento de frecuencia relativa para establecer probabilidades,

el número que obtenemos como probabilidad adquirirá mayor precisión a medida que

aumentan las observaciones.

Una dificultad presente con este planteamiento es que la gente lo utiliza a menudo sin

evaluar el número suficiente de resultados.

3.11.3.3. PROBABILIDADES SUBJETIVAS. Las probabilidades subjetivas están basadas en las creencias de las personas que

efectúan la estimación de probabilidad. La probabilidad subjetiva se puede definir como la

probabilidad asignada a un evento por parte de un individuo, basada en la evidencia que

se tenga disponible. Esa evidencia puede presentarse en forma de frecuencia relativa de

presentación de eventos pasados o puede tratarse simplemente de una creencia

meditada.

Las valoraciones subjetivas de la probabilidad permiten una más amplia flexibilidad que los

otros dos planteamientos. Los tomadores de decisiones puede hacer uso de cualquier

evidencia que tengan a mano y mezclarlas con los sentimientos personales sobre la

situación.

Las asignaciones de probabilidad subjetiva se dan con más frecuencia cuando los eventos

se presentan sólo una vez o un número muy reducido de veces.

Como casi todas las decisiones sociales y administrativas de alto nivel se refieren a

situaciones específicas y únicas, los responsables de tomar decisiones hacen un uso

considerable de la probabilidad subjetiva.

SUGERENCIA.

En la resolución de problemas de probabilidad clásica, tener cuidado de asegurarse de si

la situación descrita es "con sustitución" o "sin sustitución" después de cada intento.

Page 246: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 232

3.11.4. REGLAS DE PROBABILIDAD. La mayoría de los administradores que utilizan la probabilidad se preocupan por dos

condiciones:

• El caso en que un evento u otro se presente.

• La situación en que dos o más eventos se presenten al mismo tiempo.

La probabilidad de un evento A se expresa como:

P (A)

Una probabilidad sencilla quiere decir que sólo un evento puede llevarse a cabo. Se le

conoce como probabilidad marginal o incondicional.

Usamos una representación gráfica, conocida como diagrama de Venn. El espacio

muestral completo se representa mediante un rectángulo y los eventos se representan

como partes de ese rectángulo.

Si dos eventos son mutuamente excluyentes, las partes correspondientes de éstos en el

rectángulo, no se traslaparán. Si dos eventos no son mutuamente excluyentes, sus partes

correspondientes en el rectángulo sí se traslapan.

Debido a que las probabilidades se comportan en mucho como si fueran áreas,

tomaremos el área del rectángulo como la unidad. Entonces la probabilidad de que suceda

un evento es su área que le corresponde dentro del rectángulo.

3.11.4.1. REGLA DE LA ADICIÓN PARA EVENTOS MUTUAMENTE EXCLUYENTES. A menudo, estamos interesados en la probabilidad de que una cosa u otra suceda. Si

estos dos eventos son mutuamente excluyentes, podemos expresar esta probabilidad

haciendo uso de la regla de adición para eventos mutuamente excluyentes:

P (A o B) = P (A) + P (B)

Existe un caso especial, para cualquier evento A, tenemos que éste sucede o no sucede.

De modo que los eventos A y no A son mutuamente excluyentes y exhaustivos:

P(A) + P(no A) = 1

P(A) = 1 - P(no A)

Page 247: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 233

3.11.4.2. REGLA DE ADICIÓN PARA EVENTOS QUE NO SON MUTUAMENTE EXCLUYENTES. Si dos eventos no son mutuamente excluyentes, es posible que ambos se presenten al

mismo tiempo. En tales casos, debemos modificar la regla de la adición para evitar el

conteo doble:

P(A o B) = P(A) + P(B) - P(AB)

3.11.4.3. PROBABILIDADES BAJO CONDICIONES DE INDEPENDENCIA ESTADÍSTICA. Cuando se presentan dos eventos, el resultado del primero puede tener un efecto en el

resultado del segundo, o puede no tenerlo. Esto es, los eventos pueden ser dependientes

o independientes. Existen tres tipos de probabilidades que se presentan bajo

independencia estadística:

• Marginal.

• Conjunta.

• Condicional.

3.11.4.4. PROBABILIDADES MARGINALES BAJO INDEPENDENCIA ESTADÍSTICA. Una probabilidad marginal o incondicional es la probabilidad simple de presentación de un

evento.

3.11.4.5. PROBABILIDADES CONJUNTAS BAJO CONDICIONES DE INDEPENDENCIA. La probabilidad de dos o más eventos independientes que se presentan juntos o en

sucesión es el producto de sus probabilidades marginales:

P (AB) = P(A) X P(B)

Un árbol de probabilidad muestra los resultados posibles y su respectiva probabilidad.

3.11.4.6. PROBABILIDADES CONDICIONALES BAJO INDEPENDENCIA. Simbólicamente, la probabilidad condicional se escribe: P(B/A)

Page 248: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 234

Y se lee "la probabilidad de que se presente el evento B, dado que el evento A se ha

presentado". La probabilidad condicional es la probabilidad de que un segundo evento (B)

se presente, si un primer evento (A) ya ha sucedido.

Para eventos estadísticamente independientes, la probabilidad condicional de que suceda

el evento B dado que el evento A se ha presentado, es simplemente la probabilidad del

evento B:

P(B/A) = P(B)

SUGERENCIA:

Una buena verificación de los cálculos para obtener la probabilidad conjunta consiste en

recordar que para cada intento, el total de probabilidades resultantes debe sumar 1.

3.11.4.7. PROBABILIDADES BAJO CONDICIONES DE DEPENDENCIA ESTADÍSTICA. La dependencia estadística existe cuando la probabilidad de que se presente algún

suceso depende o se ve afectada por la presentación de algún otro evento. Los tipos de

probabilidad bajo condiciones de dependencia estadística son:

• Condicional.

• Conjunta.

• Marginal.

3.11.4.8. PROBABILIDAD CONDICIONAL BAJO DEPENDENCIA ESTADÍSTICA. P(B/A) = P(BA) / P(A)

3.11.4.9. PROBABILIDADES CONJUNTAS BAJO CONDICIONES DE DEPENDENCIA. P(BA) = P(B/A) x P(A) O

P(BA) = P(A/B) x P(B)

3.11.4.10. PROBABILIDADES MARGINALES BAJO CONDICIONES DE DEPENDENCIA.

Page 249: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 235

Las probabilidades marginales bajo dependencia estadística se calculan mediante la suma

de las probabilidades de todos los eventos conjuntos en los que se presenta el evento

sencillo.

SUGERENCIA:

Hacer la diferencia necesaria entre probabilidad condicional y probabilidad conjunta

mediante el uso correcto de los términos "dado que..." y "tanto... como": P(A/B) es la

"probabilidad de que se presente el evento A dado que ya se ha presentado B" y P(AB) es

la "probabilidad de que tanto A como B se presenten". Y la probabilidad marginal P(A) es

la "probabilidad de que se presenta A, haya sucedido o no el evento B".

3.11.5. CONCEPTOS: • Árbol de probabilidades: representación gráfica que muestra los resultados

posibles de una serie de experimentos y sus respectivas probabilidades.

• Complemento de un evento: elementos del espacio muestral no incluidos en el

evento considerado.

• Dependencia estadística: condición en la que la probabilidad de presentación de

un evento depende de la presentación de algún otro evento, o se ve afectada por

ésta.

• Diagrama de Venn: representación gráfica de los conceptos de probabilidad en la

que el espacio muestral está representado por un rectángulo y los eventos que

suceden en el espacio muestral se representan como partes de dicho rectángulo.

• Espacio muestral: conjunto de todos los resultados posibles de un experimento

aleatorio.

• Evento: uno o más de los resultados posibles de hacer algo, o uno de los

resultados posibles de realizar un experimento.

3.11.6. REFERENCIAS

o RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA

ADMINISTRADORES, ED. PRENTICE HALL, SEXTA ED., 1996

Page 250: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 236

<<

3.12. VARIABLE ALEATORIA

3.12.1. INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROBABILIDAD. Las distribuciones de probabilidad están relacionadas con las distribuciones de

frecuencias. Una distribución de frecuencias teórica es una distribución de probabilidades

que describe la forma en que se espera que varíen los resultados. Debido a que estas

distribuciones tratan sobre expectativas de que algo suceda, resultan ser modelos útiles

para hacer inferencias y para tomar decisiones en condiciones de incertidumbre.

Una distribución de frecuencias es un listado de las frecuencias observadas de todos los

resultados de un experimento que se presentaron realmente cuando se efectuó el

experimento, mientras que una distribución de probabilidad es un listado de las

probabilidades de todos los posibles resultados que podrían obtenerse si el experimento

se lleva a cabo.

Las distribuciones de probabilidad pueden basarse en consideraciones teóricas o en una

estimación subjetiva de la posibilidad. Se pueden basar también en la experiencia.

3.12.2. TIPOS DE DISTRIBUCIONES DE PROBABILIDAD. Las distribuciones de probabilidad se clasifican como continuas y discretas. En la

distribución de probabilidad discreta está permitido tomar sólo un número limitado de

valores.

En una distribución de probabilidad continua, la variable que se está considerando puede

tomar cualquier valor dentro de un intervalo dado. Las distribuciones continuas son una

forma conveniente de presentar distribuciones discretas que tienen muchos resultados

posibles, todos muy cercanos entre sí.

3.12.3. VARIABLES ALEATORIAS. Una variable es aleatoria si toma diferentes valores como resultado de un experimento

aleatorio. Puede ser discreta o continua. Si puede tomar sólo un número limitado de

valores, entonces es una variable aleatoria discreta. En el otro extremo, si puede tomar

cualquier valor dentro de un intervalo dado, entonces se trata de una variable aleatoria

continua.

Page 251: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 237

Se puede pensar en una variable aleatoria como un valor o una magnitud que cambia de

una presentación a otra, sin seguir una secuencia predecible. Los valores de una variable

aleatoria son los valores numéricos correspondientes a cada posible resultado de un

experimento aleatorio.

La distribución de probabilidad de una variable aleatoria proporciona una probabilidad para

cada valor posible, y estas probabilidades deben sumar 1.

3.12.3.1. VALOR ESPERADO DE UNA VARIABLE ALEATORIA. El valor esperado es una idea fundamental en el estudio de las distribuciones de

probabilidad.

Para obtener el valor esperado de una variable aleatoria discreta, se multiplica cada valor

que la variable puede tomar por la probabilidad de presentación de ese valor y luego se

suman esos productos. Es un promedio pesado de los resultados que se esperan en el

futuro. El valor esperado pesa cada resultado posible con respecto a la frecuencia con que

se espera se que presente. En consecuencia, las presentaciones más comunes tienen

asignadas un peso mayor que las menos comunes.

El valor esperado también puede ser obtenido a partir de estimaciones subjetivas. En ese

caso, el valor esperado no es más que la representación de las convicciones personales

acerca del resultado posible.

En muchas situaciones, encontraremos que es más conveniente, en términos de los

cálculos que se deben hacer, representar la distribución de probabilidad de una variable

aleatoria de una manera algebraica. Al hacer esto, podemos llevar a cabo cálculos de

probabilidad mediante la sustitución de valores numéricos directamente en una fórmula

algebraica.

SUGERENCIA:

El valor esperado de una variable aleatoria discreta es un promedio pesado del valor de

cada resultado posible multiplicado por la probabilidad de dicho resultado. Aunque existen

muchos valores diferentes posibles que la variable aleatoria puede tomar, el valor

esperado es sólo un número.

3.12.3.2. TRATAMIENTO DE VARIABLES ALEATORIAS. 3.12.3.2.1. Variables aleatorias discretas. Sean x1, x2, x3, ... xn los distintos valores que puede tomar la variable aleatoria.

Page 252: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 238

Y p(x1), p(x2),... p(xn) su probabilidad.

Los pares de valores (xj, p(xj)) constituyen la distribución de probabilidades de la variable

aleatoria.

p(x) se denomina función de probabilidad, y debe cumplir con las siguientes propiedades:

• 0 < p(xj) < 1 (p(x) es una probabilidad, y por lo tanto debe tomar valores entre 0 y

1).

• � p(xj) = 1 (la suma de probabilidades repartidas entre todos los valores de la

variable debe ser igual a 1).

De la misma manera que calculamos frecuencias acumuladas, podemos acumular

probabilidades, obteniendo la función de distribución de probabilidades:

F(x) = � p(xj)

Esta función representa la probabilidad de que la variable aleatoria sea menor o igual que

un determinado valor:

F(xj) = P (X < xj)

Gráficamente, la función aumenta de "a saltos", ya que entre dos valores consecutivos de

una variable discreta, no puede tomar valores intermedios.

3.12.3.2.2. Variables aleatorias continuas. En este caso, en lugar de trabajar con la probabilidad de valores particulares de la

variable, resulta más apropiado calcular probabilidades asociadas a intervalos. Para

distribuir propiedades se usa una función que mide "concentración" de probabilidades

alrededor de un punto, que se denomina función de densidad de probabilidad (fdp) y se

denota como f(x).

Una función de densidad de probabilidad debe cumplir con las siguientes propiedades:

• F(x) > 0 (la función es no negativa para cualquier valor de x, f(x) no es una

probabilidad, y puede valer más de 1).

• � f(x) dx = 1 (la acumulada para todos los valores de la variable suma 1, el área

bajo la curva de la función vale 1).

La función de distribución para una variable aleatoria continua se calcula:

F(a) = P(X < a) = � f(x) dx

La probabilidad de que la variable esté dentro de un intervalo [a - b] se calcula:

P (a< x < b) = F(b) - F(a)

La probabilidad de que la variable tome un valor particular se puede expresar como:

Page 253: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 239

F(c) - F(c) = 0

Esto explica la idea de que para el caso de una variable aleatoria continua no tiene sentido

trabajar con la probabilidad de un valor particular.

3.12.3.2.3. Medidas características de una distribución de probabilidades. • El valor esperado es un operador matemático, cuya fórmula de cálculo depende del

tipo de variable aleatoria:

Variable aleatoria discreta: E (X) = � xj p (xj)

Variable aleatoria continua: � x f(x) dx

• Para caracterizar correctamente a la distribución, además de determinar su posición

es necesario calcular alguna medida que cuantifique su variabilidad. Una cantidad

muy útil para evaluar la dispersión de la variable aleatoria es el operador varianza,

que se calcula:

• Variable aleatoria discreta: Var (X) = � (xj - E(X))2 p (xj)

Variable aleatoria continua: Var (X) = � x - E(X))2 f(x) dx

3.12.3.2.4. CONCEPTOS: • Variable aleatoria: variable que cuantifica los resultados de un experimento

aleatorio. Variable que toma diferentes valores como resultado de un experimento

aleatorio.

• Distribución de probabilidades: modelo teórico que describe la forma en que

varían los resultados de un experimento aleatorio. Lista de los resultados de un

experimento con las probabilidades que se esperarían ver asociadas con cada

resultado.

• Variable aleatoria discreta: variable que toma un número finito o infinito de valores

numerables. Variable aleatoria que puede tomar sólo un número limitado de

valores.

• Variable aleatoria continua: variable que toma un valor infinito de valores no

numerables. Variable aleatoria que puede tomar cualquier valor dentro de un

intervalo dado de valores.

• Función de probabilidad: función que asigna probabilidades a cada uno de los

valores de una variable aleatoria discreta.

Page 254: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 240

• Función de densidad de probabilidad: función que mide concentración de

probabilidad alrededor de los valores de una variable aleatoria continua.

• Función de distribución: función que acumula probabilidades asociadas a una

variable aleatoria.

• Valor esperado: operador matemático que caracteriza la posición de la distribución

de probabilidades. Promedio pesado de los resultados de un experimento.

Varianza: operador que caracteriza la dispersión de la distribución

3.12.4. REFERENCIAS o RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA

ADMINISTRADORES, ED. PRENTICE HALL, SEXTA ED., 1996

Page 255: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 241

3.13. DISTRIBUCIONES DE PROBABILIDAD

3.13.1. INTRODUCCIÓN. Un modelo es una simplificación de la realidad. Un modelo probabilístico es un modelo

matemático que describe el comportamiento de una variable aleatoria. Es una función que

depende de los valores de la variable aleatoria, y de otras cantidades que caracterizan a

una población en particular y que se denominan parámetros del modelo. En el proceso de

modelación, es necesario seguir los siguientes pasos:

1. Seleccionar el modelo más apropiado.

2. Ajustar el modelo (calcular el valor de sus parámetros).

3. Verificar el modelo.

4. Decidir su aceptación o volver al paso 1.

Para ejecutar el paso 1, podemos optar por una amplia gama de modelos de probabilidad,

desarrollados para representar distintos tipos de variables y diferentes fenómenos

aleatorios. Por lo tanto, el problema se reduce a elegir el modelo más apropiado para el

caso en estudio.

Para ejecutar el paso 2, es necesario recopilar una muestra representativa de la población

en estudio y calcular las cantidades necesarias como para evaluar los parámetros del

modelo.

3.13.2. LA DISTRIBUCIÓN BINOMIAL. Esta distribución describe una variedad de procesos de interés para los administradores y

describe datos discretos, no continuos, que son resultado de un experimento conocido

como proceso de Bernoulli.

3.13.2.1. USO DEL PROCESO DE BERNOULLI. Podemos describir el proceso de la manera siguiente:

1. Cada intento tiene sólo dos resultados posibles.

2. La probabilidad del resultado de cualquier intento permanece fijo con respecto al

tiempo.

3. Los intentos son estadísticamente independientes.

Page 256: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 242

Fórmula binomial:

Probabilidad de r éxitos en n ensayos = n! / [r! (n - r)!] pr qn - r

p = probabilidad característica o probabilidad de tener éxito

q = 1 - p = probabilidad de fracaso

r = número de éxitos deseados

n = número de intentos hechos

3.13.2.1.1. Generalizaciones: • Cuando p es pequeña (0,1), la distribución binomial está sesgada hacia la derecha.

• Cuando p aumenta (0,3 por ejemplo), el sesgo es menos notable.

• Cuando p = 0,5, la distribución binomial es simétrica.

• Cuando p es mayor que 0,5, la distribución está sesgada hacia la izquierda.

• Las probabilidades para 0,3, por ejemplo, son las mismas para 0,7, excepto que los

valores de p y q están invertidos. Esto es cierto para cualquier pareja de valores p y

q complementarios.

3.13.2.1.2. Medidas de tendencia central y de dispersión para la distribución binomial. La distribución binomial tiene un valor esperado o media y una desviación estándar.

• Valor esperado o media: � = np

• Desviación estándar: � = � npq

3.13.2.1.3. Cumplimiento de las condiciones del proceso de Bernoulli. Necesitamos ser cuidadosos en el uso de la distribución binomial de la probabilidad y

asegurar que se cumplen las tres condiciones necesarias, en particular las condiciones 2 y

3. La condición 2 requiere que la probabilidad del resultado de cualquier intento

permanezca fija en el tiempo. La condición 3 requiere que los ensayos o intentos de un

proceso de Bernoulli sean estadísticamente independientes, es decir, que el resultado de

un intento no puede afectar de ningún modo el resultado de cualquier otro intento.

3.13.2.2. LA DISTRIBUCIÓN DE POISSON. La distribución de Poisson se utiliza para describir cierto tipo de procesos, entre los que se

encuentran la distribución de llamadas telefónicas que llegan a un conmutador, la

Page 257: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 243

demanda (necesidades) de los pacientes que requieren servicio en una institución de

salud, las llegadas de camiones a una caseta de cobro y el número de accidentes

registrados en una cierta intersección de calles. Estos ejemplos tienen en común un

elemento: pueden ser descritos mediante una variable aleatoria discreta que toma valores

enteros (0, 1, 2...).

3.13.2.2.1. Características de los procesos de distribución de probabilidad de Poisson.

1. El promedio (la media) del número de eventos que se producen por hora, puede

estimarse a partir de datos que se tengan disponibles.

2. Si dividimos la hora pico en periodos (intervalos) de un segundo cada uno,

encontraremos que las siguientes afirmaciones son verdaderas:

• La probabilidad de que exactamente un evento ocurra por segundo es muy

pequeña y es constante para cada intervalo de un segundo.

• La probabilidad de que dos o más eventos ocurran en un intervalo de un segundo

es tan pequeña que le podemos asignar un valor cero.

• El número de eventos que ocurren en un intervalo de un segundo es independiente

del tiempo en que dicho intervalo se presente en la hora pico.

• El número de eventos en un intervalo de un segundo no depende del número de

ocurrencias en cualquier otro intervalo de un segundo.

3.13.2.2.2. Cálculo de la probabilidad de Poisson. La letra X por lo general representa a una variable discreta y puede tomar valores enteros.

Utilizamos la letra X para representar a la variable aleatoria y la letra x para señalar un

valor específico que esta variable pueda tomar. La probabilidad de tener exactamente x

presentaciones en una distribución de Poisson se calcula con la fórmula:

Page 258: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 244

3.13.2.2.3. La distribución de Poisson como una aproximación a la distribución binomial. La distribución de Poisson puede ser un razonable aproximación a la binomial, pero sólo

bajo ciertas condiciones. Tales condiciones se presentan cuando n es grande y p es

pequeña, esto es, cuando el número de ensayos es grande y la probabilidad binomial de

tener éxito es pequeña. La regla que utilizan con más frecuencia los estadísticos es que la

distribución de Poisson es una buena aproximación de la distribución binomial cuando n es

igual o mayor que 20 y p es igual o menor que 0,05. En los casos en que se cumplen

estas condiciones, podemos sustituir la media de la distribución binomial (np) en lugar de

la media de la distribución de Poisson (� ).

SUGERENCIA:

El uso de una distribución para aproximar a otra es una práctica bastante común en

probabilidad y estadística. La idea consiste en buscar situaciones en las que una

distribución (como la de Poisson), cuyas probabilidades son relativamente fáciles de

calcular, tiene valores que se encuentran razonablemente cercanos a las de otra

distribución (como la binomial) cuyas probabilidades implican cálculos más complicados.

RECOMENDACIONES PRÁCTICAS: • Frente a un problema concreto, analice detenidamente todas sus características, y

al elegir el modelo apropiado, verifique que se cumplan todos los supuestos del

mismo.

• Habituése a utilizar las tablas provistas por la bibliografía para calcular

probabilidades. Ahorrará tiempo y evitará errores de cálculo.

• No olvide emplear la distribución de Poisson a la binomial en aquellos casos en que

p es pequeño y n es grande.

• Para calcular probabilidades acumuladas, del tipo P(X > x), P(X < x) o P(x < X < x),

también existen valores tabulados en textos especializados.

• En el caso de variables aleatorias discretas, es importante diferenciar si la

probabilidad deseada incluye o no el valor particular de la variable. Es decir, que

P(X > x) no es lo mismo que P(X > x) y P (X < x) es distinto de P(X < x).

Page 259: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 245

3.13.3. LA DISTRIBUCIÓN NORMAL DE UNA VARIABLE ALEATORIA CONTINUA. La variable puede tomar cualquier valor que esté en un intervalo de valores dado, y la

distribución de probabilidad es continua.

Las razones básicas de la importancia de la distribución normal son:

1. Tiene algunas propiedades que la hacen aplicable a un gran número de situaciones

en las que es necesario hacer inferencias mediante la toma de muestras. La

distribución normal es una útil distribución de muestreo.

2. La distribución normal casi se ajusta a las distribuciones de frecuencias reales

observadas en muchos fenómenos, incluyendo características humanas (pesos,

alturas), resultados de procesos físicos (dimensiones y rendimientos) y muchas

otras medidas de interés para los administradores.

3.13.3.1. CARACTERÍSTICAS DE LA DISTRIBUCIÓN NORMAL DE PROBABILIDAD.

1. La curva tiene un solo pico; por tanto, es unimodal. Tiene forma de campana.

2. La media de una población distribuida normalmente cae en el centro de su curva

normal.

3. Debido a la simetría de la distribución normal de probabilidad, la mediana y la moda

se encuentran también en el centro; en consecuencia, para una curva normal, la

media, la mediana y la moda tienen el mismo valor.

4. Los dos extremos de la distribución normal de probabilidad se extienden

indefinidamente y nunca tocan el eje horizontal.

La mayor parte de las poblaciones reales no se extienden de manera indefinida en ambas

direcciones; pero en estas poblaciones, la distribución normal es una aproximación

conveniente. No hay una sola distribución normal, sino una familia de curvas normales.

Para definir una distribución normal de probabilidad necesitamos definir sólo dos

parámetros: la media y la desviación estándar.

La curva normal puede describir un gran número de poblaciones, diferenciadas solamente

por la media, la desviación estándar o por ambas.

3.13.3.2. ÁREAS BAJO LA CURVA NORMAL.

Page 260: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 246

No importa cuáles sean los valores de � y � para una distribución de probabilidad normal,

el área bajo la curva es 1,00, de manera que podemos pensar en áreas bajo la curva

como si fueran probabilidades. Matemáticamente:

1. Aproximadamente el 68% de todos los valores de una población normalmente

distribuida se encuentran dentro + 1 desviación estándar de la media.

2. Aproximadamente 95,5% de todos los valores de una población normalmente

distribuida se encuentran dentro de + 2 desviaciones estándar de la media.

3. Aproximadamente 99,7% de todos los valores de una población normalmente

distribuida se encuentran dentro de + 3 desviaciones estándar de la media.

Las tablas estadísticas indican porciones del área bajo la curva normal que están

contenidas dentro de cualquier número de desviaciones estándar (más, menos) a partir de

la media.

No es posible ni necesario tener una tabla distinta para cada curva normal posible. En

lugar de ello, podemos utilizar una distribución de probabilidad normal estándar para

encontrar áreas bajo cualquier curva normal. Con esta tabla podemos determinar el área o

la probabilidad de que la variable aleatoria distribuida normalmente esté dentro de ciertas

distancias a partir de la media. Estas distancias están definidas en términos de

desviaciones estándar.

Para cualquier distribución normal de probabilidad, todos los intervalos que contienen el

mismo número de desviaciones estándar a partir de la media contendrán la misma

fracción del área total bajo la curva para cualquier distribución de probabilidad normal.

3.13.3.3. USO DE LA TABLA DE DISTRIBUCIÓN DE PROBABILIDAD NORMAL ESTÁNDAR. En esta tabla, el valor z está derivado de la fórmula:

z = (x - � ) / �

en la que:

• x = valor de la variable aleatoria que nos preocupa

• � = media de la distribución de la variable aleatoria

• � = desviación estándar de la distribución

• z = número de desviaciones estándar que hay desde x a la media de la distribución.

¿Por qué utilizamos z en lugar del número de desviaciones estándar? Las variables

aleatorias distribuidas normalmente tienen unidades diferentes de medición: dólares,

Page 261: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 247

pulgadas, partes de millón, kilogramos, segundos, etc. Como vamos a utilizar una tabla,

hablamos en términos de unidades estándar (que en realidad significa desviaciones

estándar), y denotamos a éstas con el símbolo z.

La tabla de distribución de probabilidad normal estándar da los valores de únicamente la

mitad del área bajo la curva normal, empezando con 0,0 en la media. Como la distribución

normal de probabilidad es simétrica, los valores verdaderos para una mitad de la curva

son verdaderos para la otra.

3.13.3.4. DEFECTOS DE LA DISTRIBUCIÓN NORMAL DE PROBABILIDAD. Los extremos de la distribución normal se acercan al eje horizontal, pero nunca llegan a

tocarlo. Esto implica que existe algo de probabilidad (aunque puede ser muy pequeña) de

que la variable aleatoria pueda tomar valores demasiado grandes. No perderemos mucha

precisión al ignorar valores tan alejados de la media. Pero a cambio de la conveniencia del

uso de este modelo teórico, debemos aceptar el hecho de que puede asignar valores

empíricos imposibles.

3.13.3.5. LA DISTRIBUCIÓN NORMAL COMO UNA APROXIMACIÓN DE LA DISTRIBUCIÓN BINOMIAL. Aunque la distribución normal es continua, resulta interesante hacer notar que algunas

veces puede utilizarse para aproximar a distribuciones discretas.

La aproximación normal a la distribución binomial resulta muy conveniente, pues nos

permite resolver el problema sin tener que consultar grandes tablas de la distribución

binomial. Pero se necesita tener algo de cuidado al utilizar esta aproximación, que es

bastante buena, siempre que np y nq sean al menos de cinco.

SUGERENCIA: La distribución normal es otra función algebraica con propiedades matemáticas bien

conocidas, y es una buena aproximación para muchos problemas binomiales que

impliquen números grandes. Pero, no olvide la regla de que tanto np y nq deben ser de al

menos , y sea cauteloso acerca de la aplicación de la aproximación normal a situaciones

en las que la probabilidad de un evento es muy pequeña. Los valores de la aproximación

normal provenientes de los extremos de la distribución no son muy exactos.

Page 262: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 248

Este modelo se aplica generalmente en el caso de variables que presentan las siguientes

características:

• Son variables dimensionales, que surgen como resultado de la medición sobre

alguna escala continua: kgs., cms., $, Tº, etc.

• Son variables que pueden pensarse como el resultado de la suma de muchos

pequeños efectos.

Estos elementos son sólo orientativos, y proporcionan un primer indicio para iniciar la

búsqueda del modelo más apropiado.

3.13.4. DISTRIBUCIÓN EXPONENCIAL. Procesos donde se estudian fenómenos como tiempo entre o distancia entre dos eventos

cualquiera, se pueden modelas mediante la distribución exponencial, que tiene la siguiente

función de densidad:

donde � es el parámetro del modelo. Sus principales

propiedades son:

• E (X) = �

• Var (X) = � 2

El parámetro � representa el valor esperado de la variable.

La función de distribución es la siguiente:

F(X) = 1 - e-x/�

3.13.4.1. TEOREMA DEL LÍMITE CENTRAL. Este teorema explica la vinculación que existe entre diversas distribuciones de

probabilidad y la normal. Especifica las condiciones bajo las cuales puede esperarse que

una variable aleatoria tenga distribución normal.

Si sumamos variables aleatorias del mismo tipo, si el número de términos de la suma es

suficientemente grande, el resultado que se obtiene es una variable con distribución

normal.

En la práctica, si todas las variables que sumamos tienen la misma distribución, no es

necesario que n sea demasiado grande para que se verifique la normalidad de la suma.

Page 263: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 249

Una aplicación inmediata de este teorema es la interpretación de la media aritmética: para

calcular un promedio, sumamos variables que provienen de la misma población, y por lo

tanto tienen igual distribución. La media obtenida seguramente va a tener distribución

normal, aún para valores bajos de n.

Otro aspecto importante es la siguiente extensión del teorema: no es estrictamente

necesario que todas las variables tengan la misma distribución. Basta con que sean

independientes, y tengan esperanza y varianza finitas, para que si n es lo suficientemente

grande, el resultado de la suma tenga aproximadamente distribución normal:

Y - N (� � , � � 2)

Se asume que cada término de la suma aporta un efecto del mismo orden de magnitud, y

que es poco probable que un valor individual haga una gran contribución a la suma.

Este teorema explica por qué algunos modelos tienden a la normal, bajo ciertas

condiciones:

Modelo binomial: es la suma de n variables - tipo Bernoulli -, y si n tiende a infinito, las

probabilidades se pueden aproximar mediante la normal.

Modelo de Poisson: es una extensión de la binomial, y por tanto, se verifica que para � =

np suficientemente grande, se pueden aproximar sus probabilidades con la normal.

RECOMENDACIONES PRÁCTICAS: • En el caso de distribuciones continuas, no tiene sentido calcular la probabilidad

asociada a un valor particular de la variable. Siempre se trabaja con la probabilidad

asociada a intervalos de valores de la variable.

• Como la probabilidad de un valor particular no existe, en la práctica, son válidas

cualquiera de las siguiente expresiones:

P (a<X<b); P (a<X<b); P (a<X<b); P (a<X<b)

• Usar la aproximación normal a la binomial (inclusive a Poisson) en aquellos casos

en que las condiciones del problema lo permitan. En estos casos, hay que realizar

la corrección por continuidad, para obtener resultados más aproximados.

• Como dato orientativo, la aproximación normal a la binomial anda bien cuando tanto

np como n(1 - p) son mayores que 5. Si p es cercano a 0,5, la aproximación anda

bien para cualquier valor de n; en caso contrario, n debe ser suficientemente

grande, no menor a 50.

Page 264: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 250

3.13.4.2. IDENTIFICACIÓN DEL MODELO APROPIADO. La selección depende, entre otros, de los siguientes factores:

• Un adecuado análisis del problema considerado: qué tipo de variable se estudia,

qué fenómeno se desea modelar, etc.

• Los resultados de la descripción de los datos disponibles: forma de la distribución,

propiedades de la variable.

• La disponibilidad y manejo de un buen número de modelos de probabilidad que

permitan describir diferentes tipos de situaciones.

Una vez identificado el modelo apropiado, hay que calcular sus parámetros, en base a las

observaciones que se dispongan de la variable en estudio.

Si planeamos utilizar una probabilidad para describir una situación, debemos escoger con

cuidado la correcta. La distribución binomial se aplica cuando el número de ensayos está

fijo antes de que empiece el experimento, y cada ensayo es independiente y puede tener

sólo dos resultados mutuamente excluyentes. Al igual que la distribución binomial, se

aplica cuando cada ensayo es independiente de los demás.

Pero, aunque la probabilidad de Poisson se aproxima a cero después de los primeros

valores, el número de valores posibles es infinito. No se conoce el límite de dos resultados

mutuamente excluyentes. En ciertas condiciones, la distribución de Poisson se puede

utilizar como aproximación de la binomial, pero no siempre es posible hacerlo. Todas las

suposiciones que conforman la base de una distribución deben cumplirse, si la intención

del uso de dicha distribución es producir resultados significativos.

3.13.4.3. CONCEPTOS.

• Aproximaciones a la normal: empleo de la distribución normal para aproximar el

cálculo de probabilidades de otros modelos, que por aplicación del Teorema del

Límite Central, bajo determinadas condiciones, tienden a la normal.

• Distribución binomial: modelo para variable aleatoria discreta que permite calcular

la probabilidad de obtener x éxitos en n ensayos repetidos de tipo Bernoulli.

Distribución discreta que describe los resultados de un experimento conocido como

proceso de Bernoulli.

• Distribución continua de probabilidad: distribución de probabilidad en la que la

variable tiene permitido tomar cualquier valor dentro de un intervalo dado.

Page 265: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 251

• Distribución discreta de probabilidad: distribución de probabilidad en la que la

variable tiene permitido tomar solamente un número limitado de valores.

• Distribución normal: modelo para variable aleatoria continua que permite

representar un gran número de fenómenos físicos. Distribución de una variable

aleatoria continua que tiene una curva de un solo pico y con forma de campana. La

media cae en el centro de la distribución y la curva es simétrica respecto a una

línea vertical que pase por la media. Los dos extremos se extienden

indefinidamente, sin tocar nunca el eje horizontal.

• Distribución exponencial: modelo para variable aleatoria continua que permite

representar variables del tipo "tiempo entre" o "distancia entre" dos eventos y vida

útil de ciertos componentes.

• Distribución de Poisson: modelo para variable aleatoria discreta que permite

calcular la probabilidad de obtener x éxitos en un intervalo continuo. Distribución

discreta en la que la probabilidad de presentación de un evento en un intervalo muy

pequeño es un número también muy pequeño, la probabilidad de que dos o más

eventos se presenten dentro del mismo intervalo es efectivamente igual a cero, y la

probabilidad de presentación del evento dentro del período dado es independiente

de cuándo se presenta dicho período.

• Distribución de probabilidad: lista de los resultados de un experimento con las

probabilidades que se esperarían ver asociadas con cada resultado.

• Distribución de probabilidad normal estándar: distribución normal de

probabilidad con una media � = 0 y una desviación estándar � = 1.

• Factor de corrección de continuidad: correcciones utilizadas para mejorar la

precisión de la aproximación de una distribución binomial mediante una distribución

normal.

• Modelo o distribución de probabilidades: función que distribuye probabilidades

entre los valores de una variable aleatoria.

• Parámetros: cantidades que aparecen en la formulación de un modelo,

relacionadas con las propiedades de la variable aleatoria en estudio.

• Proceso de Bernoulli: experimento aleatorio que tiene sólo dos resultados

posibles (éxito o fracaso), cuyas probabilidades permanecen constantes cualquiera

sea el número de intentos.

Page 266: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 252

• Proceso de Poisson: Proceso de Bernoulli desarrollado en un intervalo continuo

de tiempo o espacio.

• Teorema del Límite Central: teorema que especifica las condiciones bajo las

cuales puede esperarse que una variable aleatoria tenga distribución normal.

• Valor esperado: promedio pesado de los resultados de un experimento.

• Valor esperado de una variable aleatoria: la suma de los productos de cada valor

de la variable aleatoria por la correspondiente probabilidad de presentación de

dicho valor.

• Variable aleatoria: variable que toma diferentes valores como resultado de un

experimento aleatorio.

• Variable aleatoria continua: variable aleatoria que puede tomar infinitos valores

dentro de un rango cualquiera.

• Variable aleatoria discreta: variable que toma un número finito o infinito de valores

numerables.

3.13.5. REFERENCIAS

o RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA

ADMINISTRADORES, ED. PRENTICE HALL, SEXTA ED., 1996

Page 267: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 253

3.14. NÚMEROS ÍNDICES

3.14.1. DEFINICIÓN DE UN NÚMERO ÍNDICE. Un número índice mide qué tanto una variable ha cambiado con el tiempo. Calculamos un

número índice encontrando el cociente del valor actual entre un valor base. Luego

multiplicamos el número resultante por 100, para expresar el índice como un porcentaje.

Este valor final es el porcentaje relativo. El número índice para el punto base en el tiempo

siempre es 100.

3.14.2. TIPOS DE NÚMEROS ÍNDICE. El índice de precios compara niveles de precios de un período a otro. El índice de precios

al consumidor (IPC) mide los cambios globales de precios de una variedad de bienes de

consumo y de servicios, y se le utiliza para definir el costo de vida.

El índice de cantidad mide qué tanto cambia el número o la cantidad de una variable en el

tiempo.

El índice de valor mide los cambios en el valor monetario total. Esto es, mide los cambios

en el valor en pesos de una variable. Combina los cambios en precio y cantidad para

presentar un índice con más información.

Por lo general, un índice mide el cambio en una variable durante un cierto período, como

en una serie temporal. Sin embargo, también se le puede utilizar para medir diferencias en

una variable dada en diferentes lugares. Esto se lleva a cabo recolectando datos de

manera simultánea en los diferentes lugares y luego comprándolos.

Un solo número índice puede reflejar a una variable compuesta o a un grupo de éstas. El

IPC mide el nivel general de precios para bienes y servicios específicos en la economía.

Combina los precios individuales de bienes y servicios para conformar un número de

índice de precios compuestos.

3.14.3. USOS DE LOS NÚMEROS ÍNDICE. Los números de índice pueden utilizarse de diferentes maneras. Es más común usarlos

por sí mismos, como un resultado final. En la administración se utilizan como parte de un

cálculo intermedio para entender mejor otra información.

Page 268: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 254

3.14.4. PROBLEMAS RELACIONADOS CON LOS NÚMEROS ÍNDICE. Existen varias cosas que pueden distorsionar los números índice:

• En ocasiones, hay dificultad para hallar datos adecuados para calcular un índice.

• La incomparabilidad de índices se presenta cuando se hacen intentos para

comparar un índice con otro después de que ha habido un cambio básico en lo que

se ha estado midiendo.

• La ponderación no apropiada de factores puede distorsionar un índice. Al

desarrollar un índice compuesto, como el IPC, debemos tomar en cuenta que los

cambios en ciertas variables son más importantes que en otras.

• La distorsión de los números índice también se puede presentar cuando se

selecciona una base no apropiada. Siempre debemos considerar cómo y por qué el

período base fue seleccionado antes de aceptar una aseveración basada en el

resultado de comparar números índice.

3.14.4.1. ÍNDICE DE AGREGADOS NO PESADOS. No pesados quiere decir que todos los valores considerados son de igual importancia.

Agregado significa que agregamos o sumamos todos los valores. La principal ventaja es

su simplicidad.

Se calcula mediante la suma de todos los elementos del compuesto, para el período dado,

y luego dividiendo este resultado entre la suma de los mismos elementos durante el

período base.

(� Q1/� Q0) x 100

Como el cociente es multiplicado por 100, técnicamente, el índice resultante es un

porcentaje. Sin embargo, se acostumbra referirse solamente al valor y omitir el signo del

porcentaje cuando se analizan números índice.

La principal desventaja de un índice no pesado es que no le da mayor importancia o peso

al cambio de precio de un producto de uso común que el que le da a uno de uso poco

común. Un cambio sustantivo en el precio de productos de lento movimiento puede

distorsionar por completo un índice. Por esta razón, no es práctica común utilizar un índice

simple no pesado en análisis importantes.

Un índice no pesado puede verse distorsionado por un cambio en unos cuantos productos,

lo cual puede no ser representativo de la situación que se está estudiando.

Page 269: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 255

3.14.4.2. ÍNDICE DE AGREGADOS PESADOS. A menudo tenemos que asignar una importancia mayor a los cambios que se dan en

algunas variables que a los que se presentan en otras cuando calculamos un índice. Esta

ponderación nos permite incluir más información, aparte del mero cambio de los precios

en el tiempo. Nos permite mejorar la precisión de la estimación. El problema está en

decidir cuánto peso asignar a cada una de las variables en la muestra

La fórmula general para calcular un índice de precios de agregados pesados es:

(� P1Q/� P0Q) x 100

Típicamente, la administración utiliza la cantidad consumida de un producto como la

medida de su importancia cuando se calcula un índice de agregados pesados.

Existen tres formas de pesar un índice:

1. Método Laspeyres: utiliza las cantidades consumidas durante el período base, es

el más usado, debido a que requiere medidas de cantidades de únicamente un

período. Como cada número índice depende de los mismos precio y cantidad base,

la administración puede comparar el índice de un período directamente con el

índice de otro. Una ventaja de este método es la comparabilidad de un índice con

otro. El uso de la misma cantidad de período base nos permite hacer

comparaciones de manera directa. Otra ventaja es que muchas medidas de

cantidad de uso común no son tabuladas cada año. La principal desventaja es que

no toma en cuenta los cambios de los patrones de consumo. 2. Método de Paasche: es un proceso parecido al seguido para encontrar un índice

de Laspeyres. La diferencia consiste en que los pesos utilizados en el método

Paasche son las medidas de cantidad correspondientes al período actual. Es

particularmente útil porque combina los efectos de los cambios de precio y de los

patrones de consumo, así, es un mejor indicador de los cambios generales de la

economía que el método Laspeyres. Una de las principales desventajas es la

necesidad de tabular medidas de cantidad para cada período examinado. Cada

valor de un índice de precios Paasche es el resultado tanto de cambios en el precio

como en la cantidad consumida correspondiente al período base. Como las

medidas de cantidad utilizadas por un período de índice, por lo general son

diferentes de las medidas de cantidad de otro período de índice, resulta imposible

atribuir la diferencia entre los dos índices solamente a cambios de precio. En

Page 270: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 256

consecuencia, es difícil comparar índices de diferentes períodos con el método

Paasche. 3. Método de agregados de peso fijo: en lugar de utilizar pesos de período base o

de período actual, utiliza pesos tomados de un período representativo. Los pesos

representativos se conocen como pesos fijos. Estos últimos y los precios base no

tienen que provenir del mismo período. La principal ventaja es la flexibilidad al

seleccionar el precio base y el peso fijo (cantidad).

3.14.5. MÉTODOS DE PROMEDIO DE RELATIVOS. 3.14.5.1. MÉTODO DE PROMEDIO NO PESADO DE RELATIVOS. Como una alternativa del método de agregados, podemos utilizar el método de promedio

de relativos.

Cuando tenemos más de un producto (o actividad), primero encontramos el cociente del

precio actual entre el precio base para cada producto y multiplicamos cada cociente

obtenido por 100. Luego sumamos los porcentajes relativos resultantes y dividimos el

resultado entre el número de productos.

� [(Q1/ Q0) x 100] / n

Con el método de promedio no pesado de relativos, calculamos el promedio de los

cocientes de los precio para cada producto. Con el método de agregados no pesados,

calculamos el cociente de las sumas de los precios de cada producto. No es lo mismo que

asignar a algunos productos más peso que a otros. El método de promedio de relativos

convierte cada elemento a una escala relativa en la que los elementos están

representados como un porcentaje más que como una cantidad. Debido a esto, cada uno

de los elementos del compuesto se mide con respecto a una base de 100.

3.14.5.2. MÉTODO DE PROMEDIO PESADO DE RELATIVOS. Con los métodos de promedio pesado de relativos existen varias formas de determinar un

valor pesado. Como en el método de Laspeyres, podemos utilizar el valor base que

encontramos multiplicando la cantidad base por el precio base. El uso del valor base

producirá exactamente el mismo resultado que si estuviéramos calculando el índice con el

método de Laspeyres. Usamos el método Laspeyres cuando los datos de cantidad se

obtienen con mayor facilidad.

� {[(Q1/ Q0) x 100] PnQn} / � PnQn

Page 271: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 257

Si deseamos calcular un índice de promedio pesado de realativos usando valores base, la

ecuación a utilizar sería:

� {[(Q1/ Q0) x 100] P0Q0} / � P0Q0

Cuando utilizamos valores actuales, no podemos comparar de manera directa valores de

períodos diferentes, ya que tanto los precios como las cantidades pueden haber

cambiado. Así que por lo general utilizamos valores base o valores fijos cuando

calculamos un índice de promedio pesado de relativos.

3.14.6. ÍNDICES DE CANTIDAD Y VALOR. 3.14.6.1. ÍNDICES DE CANTIDAD. También podemos utilizar números índice para describir cambios en cantidades y en

valores. En tiempos de inflación, un índice de cantidad proporciona una medida más

confiable de la producción real de materias primas y bienes terminados que el

correspondiente índice de valores. De manera parecida, la producción agrícola se mide

mejor si se utiliza un índice de cantidad, debido a que éste elimina los efectos engañosos

producidos por la fluctuación de precios. A menudo usamos un índice de cantidad para

medir mercancías que están sujetas a una variación considerable de precios.

Cualquiera de los métodos analizados para determinar índices de precios, puede utilizarse

para calcular índices de cantidad. Cuando deseamos calcular índices de precios, usamos

cantidades o valores como pesos. Ahora que queremos calcular índices de cantidad,

utilizamos precios o valores como pesos.

3.14.6.2. ÍNDICES DE VALOR. Un índice de valor mide cambios generales en el valor total de alguna variable. Como el

valor está determinado tanto por el precio como por la calidad, un índice de valor

realmente mide los efectos combinados de los cambios de precios y cantidad. La principal

desventaja de un índice de valor es que no hace diferencia alguna entre los efectos de

estados dos componentes.

Sin embargo, un índice de valor resulta útil al medir cambios globales.

3.14.7. PROBLEMAS EN LA CONSTRUCCIÓN Y EN EL USO DE NÚMEROS ÍNDICE. 3.14.7.1. PROBLEMAS EN LA CONSTRUCCIÓN.

Page 272: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 258

1. Selección de un elemento para ser incluido en un compuesto: casi todos los

índices se construyen para responder a una cierta pregunta en particular. Los

elementos incluidos en el compuesto dependen de la pregunta en cuestión. 2. Selección de los pesos apropiados: los pesos seleccionados deberían

representar la importancia relativa de los diferentes elementos.

Desafortunadamente, lo que resulta apropiado en un período puede volverse

inapropiado en un lapso muy corto. 3. Selección de un período base: el período base seleccionado debe ser un período

normal, preferentemente un período bastante reciente. Normal significa que el

período no debe estar en un pico o en una depresión de una fluctuación. Una

técnica para evitar la elección de un período irregular consiste en promediar los

valores de varios períodos consecutivos.

3.14.7.2. ADVERTENCIA EN LA INTERPRETACIÓN DE UN ÍNDICE. 1. Generalización a partir de un índice específico: generalización de los resultados. 2. Falta de conocimiento general con respecto a índices publicados: es la falta de

conocimiento de qué es lo que miden los diferentes índices. 3. Efecto del paso del tiempo en un índice: los factores relacionados con un índice

tienden a cambiar con el tiempo, en particular, los pesos apropiados. A menos que

se cambien los pesos de acuerdo a las circunstancias, el índice se vuelve cada vez

menos confiable. 4. Cambios de calidad: los números índice no reflejan los cambios en la calidad de

los productos que miden. Si la calidad ha cambiado realmente, entonces el índice

sobrestima o subestima los cambios en los niveles de precios.

3.14.7.3. CONCEPTOS: • Índice de agregados no pesados: utiliza todos los valores considerados y asigna

igual importancia a cada uno de estos valores.

• Índice de agregados pesados: utilizando todos los valores considerados, este

índice asigna pesos a estos valores.

• Índice de cantidad: compara niveles de precios de un período a otro.

• Índice simple: número que relaciona un solo valor de la variable con una cantidad

base.

Page 273: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 259

• Índice compuesto: número que relaciona un conjunto de valores agregados de la

variable, con relación al agregado de los valores base.

• Método de agregados de pesos fijos: para pesar un índice de agregados, este

método utiliza como pesos cantidades consumidas durante algún período

representativo.

• Método de Laspeyres: para pesar un índice de agregados, este método utiliza

como pesos las cantidades consumidas durante el período base.

• Método de Paasche: en el pesado de un índice de agregados, este método utiliza

como pesos las cantidades consumidas durante el período actual.

• Método de promedio no pesado de relativos: para construir un número índice,

este método encuentra el cociente del precio actual entre el precio base para cada

producto, suma los porcentajes relativos resultantes y posteriormente divide el

resultado entre el número de productos.

• Método de promedio pesado de relativos: para construir un número índice, este

método pondera la importancia del valor de cada elemento del compuesto.

• Número índice: cociente que mide cuánto cambia una variable con el tiempo, o en

distintos lugares.

• Porcentaje relativo: cociente de un valor actual entre un valor base cuyo resultado

es multiplicado por 100.

3.14.8. REFERENCIAS o RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA

ADMINISTRADORES, ED. PRENTICE HALL, SEXTA ED., 1996

Page 274: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 260

<

3.15. RECOLECCIÓN DE LOS DATOS

3.15.1. INDICADORES, TÉCNICAS E INSTRUMENTOS. Una vez obtenidos los indicadores de los elementos teóricos y definido el diseño de la

investigación, será necesario definir las técnicas de recolección de datos para construir los

instrumentos que nos permitan obtenerlos de la realidad.

Un instrumento de recolección de datos es cualquier recurso de que se vale el

investigador para acercarse a los fenómenos y extraer de ellos información. Dentro de

cada instrumento pueden distinguirse dos aspectos:

• La forma: se refiere a las técnicas que utilizamos para la tarea de aproximación a

la realidad (observación, entrevista). • El contenido: queda expresado en la especificación de los datos que necesitamos

conseguir. Se concreta en una serie de ítems que no son otra cosa que los

indicadores que permiten medir a las variables, pero que asumen ahora la forma de

preguntas, puntos a observar, elementos para registrar, etc.

El instrumento sintetiza en sí toda la labor previa de investigación: resume los aportes del

marco teórico al seleccionar datos que corresponden a los indicadores y, por lo tanto, a las

variables y conceptos utilizados; pero también sintetiza el diseño concreto elegido para el

trabajo.

Mediante una adecuada construcción de los instrumentos de recolección, la investigación

alcanza la necesaria correspondencia entre teoría y hechos.

¿Qué ocurre si en una investigación los instrumentos son defectuosos?

Se producirán algunas de las siguientes dificultades:

• Los datos recogidos no servirán para satisfacer los interrogantes iniciales;

• No se podrán obtener los datos que necesitamos,

• Los datos vendrán falseados o distorsionados.

En estos casos, habrá habido, seguramente, uno o varios errores en las etapas anteriores

del proceso de investigación. Será necesario, entonces, volver hacia atrás y revisar las

diferentes etapas realizadas, hasta alcanzar una mejor aproximación al problema-

Page 275: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 261

3.15.2. DATOS PRIMARIOS Y SECUNDARIOS. Ya hemos hablado de que los datos, según su procedencia, pueden dividirse en primarios

y secundarios.

• Los datos primarios son aquellos que el investigador obtiene directamente de la

realidad, recolectándolos con sus propios instrumentos.

• Los datos secundarios, por otra parte, son registros escritos que proceden

también de un contacto con la práctica, pero que ya han sido elegidos y procesados

por otros investigadores.

Los datos primarios y secundarios no son dos clases esencialmente diferentes de

información, sino partes de una misma secuencia: todo dato secundario ha sido primario

en sus orígenes, y todo dato primario, a partir del momento en que el investigador

concluye su trabajo, se convierte en dato secundario para los demás.

3.15.3. TÉCNICAS DE RECOLECCIÓN DE DATOS PRIMARIOS.

1. La observación. Consiste en el uso sistemático de nuestros sentidos orientados a

la captación de la realidad que queremos estudiar.

Es una técnica antiquísima: a través de sus sentidos, el hombre capta la realidad

que lo rodea, que luego organiza intelectualmente. A través de innumerables

observaciones sistemáticamente repetidas, mayas y caldeos lograron penetrar en

los secretos del movimiento de los cuerpos celestes; observando miles de casos

concretos Mendel pudo formular las leyes sobre la herencia.

El uso de nuestros sentidos es una fuente inagotable de datos que, tanto para la

actividad científica como para la vida práctica, resulta de inestimable valor.

2. La entrevista. Consiste en una interacción entre dos personas, una de las cuales -

el investigador - formula determinadas preguntas relativas al tema en investigación,

mientras que la otra - el investigado - proporciona verbalmente o por escrito la

información que le es solicitada.

Existen además otros procedimientos de recolección de datos primarios, entre los que

figguran el llamado cuestionario de autoaplicación, los tests, los diagramas sociométricos,

las escalas y diferenciales semánticos, etc. sin embargo, todos tienen su origen, en última

instancia, en las dos principales técnicas mencionadas.

Page 276: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 262

3.15.3.1. LA OBSERVACIÓN CIENTÍFICA. La observación puede definirse como el uso sistemático de nuestros sentidos en la

búsqueda de los datos que se necesitan para resolver un problema de investigación.

Dicho de otro modo, observar científicamente es percibir activamente la realidad exterior

con el propósito de obtener los datos que previamente han sido definidos de interés para

la investigación. La observación que se realiza cotidianamente, como parte de nuestra

experiencia vital, no puede ser considerada como científica pues no está orientada hacia

objetos precisos de estudio, no es sistemática y carece de controles o de mecanismos que

nos pongan a cubierto de los errores que podemos cometer cuando la realizamos.

La observación científica debe seguir algunos principios básicos:

• Debe tener un propósito específico.

• Debe ser planeada cuidadosa y sistemáticamente.

• Debe llevarse, por escrito, un control cuidadoso de la misma.

• Debe especificarse su duración y frecuencia.

• Debe seguir los principios básicos de validez y confiabilidad.

La principal ventaja de esta técnica en el campo de las ciencias del hombre radica en que

los hechos son percibidos directamente, sin ninguna clase de intermediación,

colocándonos ante una situación tal como ésta se da naturalmente. De este modo, no se

presentan las distorsiones que son usuales en las entrevistas, como la subjetividad del

objeto investigado.

Otra ventaja es que la conducta se describe en el momento exacto en que está

ocurriendo. Por ejemplo, si queremos hacer un estudio de las diferentes formas que

existen para educar a los niños entre las tribus primitivas, observaremos las conductas de

las madres hacia sus hijos y las describiríamos tal como se presentan en un momento

dado.

Además, las observaciones se pueden realizar independientemente de que las personas

estén dispuestas a cooperar o no, a diferencia de otros métodos en los que sí necesitamos

de la cooperación de las personas para obtener la información deseada.

Su principal inconveniente reside en que la presencia del observador puede provocar, por

sí sola, una alteración o modificación en la conducta de los objetos observados,

destruyendo la espontaneidad de los mismos y aportando datos, por lo tanto, poco fiables.

Todos los seres humanos, al saberse observados, tienden naturalmente a alterar su

conducta, pues hay muchas actividades, opiniones y actitudes que podemos tener en

Page 277: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 263

privado, pero nunca cuando sentimos que estamos siendo objeto de una observación. Es

difícil poder observar la interacción familiar, por ejemplo, en el momento de acostarse o

levantarse.

Esta reacción frente a la presencia de terceros debe tenerse en cuenta siempre que se

pretenda utilizar la técnica de la observación con seres humanos. Para evitar las

perturbaciones mecionadas, se han diseñado dos procedimientos:

• Para evitar inhibiciones o alteraciones en la conducta de los sujetos observados, se

trata de pasar lo más desapercibidos posible, actuando de tal manera que el

observador no aparezca con contornos nítidos ante los observados, sino más bien

como parte del "telón de fondo" de la situación. Si logramos esto, lograremos

observaciones confiables y de buena calidad. Ésta es la observación simple. • La otra forma de que las personas no se sientan observadas se basa en un

procedimiento inverso: el observador, en vez de pasar desapercibido, trata de

integrarse a la acción de los observados, de participar en ella como si se tratara de

un miembro más del grupo. Por ello, se la denomina observación participante. La observación, debido a su utilidad, es una técnica que se puede utilizar, junto con otras,

para recabar información; por ejemplo, la observación se puede utilizar en un estudio

exploratorio, y para el estudio final se pueden usar otras técnicas como cuestionarios,

entrevistas, etc.

3.15.3.1.1. Observación simple y participante. La observación simple resulta útil y viable cuando se trata de conocer hechos o

situaciones que de algún modo tienen un cierto carácter público, o que por lo menos no

pertenecen estrictamente a la esfera de las conductas privadas de los individuos.

Es factible mediante este procedimiento conocer hábitos de compra, situándonos

estratégicamente en los puntos de ventas, relevar formas de comportamiento político,

mediante la asistencia a actos de esa naturaleza, y conocer otros aspectos de la conducta

manifiesta de las personas: hábitos de vestimenta, de concurrencia a lugares públicos, de

trato social, etc. Casi siempre sus resultados apuntan a lo más superficial o visible de la

realidad social.

La observación simple puede adquirir también un carácter indirecto, si apelamos al auxilio

de instrumentos capaces de registrar información sobre el problema. El uso de vidrios

polarizados, de cintas magnetofónicas, filmadoras, cámaras de televisión y otros aparatos

es de indudable valor en el estudio de la conducta humana, por la exactitud de sus

Page 278: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 264

registros y por la confianza que proporcionan al investigador. Es conveniente utilizar estos

auxiliares siempre y cuando las circunstancias lo permitan. Por supuesto, el uso de estos

medios debe plantearse de modo tal que no perturben la acción o situación, porque de lo

contrario sus efectos serían más bien contraproducentes.

La observación participante, por otra parte, implica la necesidad de un trabajo más

dilatado y cuidadoso, ya que el investigador debe primeramente ingresar al grupo,

comunidad o institución en estudio para, una vez allí, ir realizando la doble tarea de

desempeñar roles dentro del conjunto y de ir recogiendo los datos que desea conseguir.

Por lo tanto, es preciso confundirse con las personas sobre las que recae la investigación,

sin abandonar la actitud observadora. Con esto se consigue ser testigo de los hechos

"desde adentro", y el observador no sólo puede percibir las formas más exteriores de la

conducta sino también experimentar en carne propia las actitudes y valores que se

relacionan con el comportamiento en estudio. Esta información resulta, por lo general, más

confiable que la que se obtiene por medio de entrevistas, ya que los hechos se observan a

medida que se producen y tal como se producen.

La observación participante puede llamarse natural cuando el investigador pertenece, de

hecho, al conjunto humano que investiga. Si un estudiante quiere hacer una investigación

sobre estudiantes, prácticamente no necesita ningún esfuerzo para lograr su cometido,

pues ya es estudiante y conoce el lenguaje, los modos de hacer y de comportarse del

grupo que investiga.

La observación participante, en cambio, se denomina artificial cuando la integración del

observador al grupo se hace con el objeto deliberado de desarrollar un trabajo de

investigación. Cuando la distancia social entre observador y observado es poca, la

adecuación no es difícil.

La observación participante puede variar desde una afiliación total al grupo hasta una

participación limitada y condicionada, tanto en cuanto al tiempo como en cuanto a las

funciones asumidas por el observador. No es necesario que éste lleve a cabo

exactamente las mismas actividades que realizan los demás miembros del grupo; en lugar

de ello, puede buscarse algún papel que sea aceptable dentro de la comunidad y que el

observador pueda desempeñar razonablemente bien. En todos los casos, es importante

que no se divulgue la verdadera finalidad de su participación y que cuide todos los detalles

de su aspecto personal, de sus gestos y ademanes, de las palabras y opiniones que

expresa, para no aparecer como un participante anómalo, porque esto puede generar

Page 279: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 265

hacia él una actitud de desconfianza o un trato atípico, bloqueando la información que

recibe y llegando hasta a distorsionar las actividades que el grupo normalmente realiza.

En cuanto a las desventajas de la observación participante, debemos mencionar que el

excesivo compromiso que adopta el investigador frente al grupo puede llegar a provocar

una identificación tan intensa que altere su objetividad y distorsione su percepción; que

acepte, dentro del grupo investigado, una sola de las posiciones posibles; y los enormes

costos que pueden estar asociados a trabajos de tan larga duración.

En la práctica, es conveniente efectuar las tareas de observación en equipo, para tener

una mayor cobertura de los sucesos y para evitar los siempre posibles errores de

percepción. Los datos pueden ser así confrontados o cotejados luego de su obtención par

enmendar errores o superar los vacíos que puedan existir. Cuando los sucesos de interés

se dan dentro de colectividades pequeñas o muy sensibles, es preferible reducir el número

de observadores, pues una presencia colectiva puede causar más daños que beneficios.

Debemos distinguir también entre observaciones de situaciones producidas

espontáneamente, en la misma vida social, de las que se llevan a cabo en condiciones

controladas, experimentales, ya preparadas.

3.15.3.1.2. Registro y formalización de la observación. La tarea de observar no es una mera percepción pasiva de hechos, situaciones o cosas...

Hablábamos de una percepción activa, lo cual significa seleccionar, organizar y relacionar

los datos referentes a nuestro problema. No todo lo que aparece en el campo del

observador tiene importancia y, si la tiene, no siempre en el mismo grado; no todos los

datos se refieren a las mismas variables o indicadores y es preciso estar alerta para

discriminar adecuadamente todo este conjunto posible de informaciones.

Resulta indispensable registrar toda observación que se haga, para poder organizar luego

lo percibido en un conjunto coherente. Los medios más comúnmente utilizados son:

cuadernos de campo, diarios, cuadros de trabajo, gráficos y mapas.

El problema del registro puede llegar a ser sumamente delicado cuando se trata de la

observación de fenómenos de tipo social. En muchas circunstancias es prácticamente

imposible tomar notas durante el transcurso de la observación, pues ello originaría

sospechas y recelo. En situaciones extremas, no habrá más remedio que confiar en la

memoria, con todas las limitaciones que esto supone. Este inconveniente se allana cuando

los observadores son varios, ya que pueden redactar independientemente sus informes

para luego compararlos entre sí, completando y depurando los datos obtenidos.

Page 280: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 266

En cuanto a los datos para registrar, es posible adoptar diversas posiciones. Puede

actuarse con suma flexibilidad, recogiendo sólo aquellos datos que van apareciendo,

anotando las impresiones generales que causan los sucesos, de una manera espontánea

y poco organizada. Se trata de una observación no estructurado o no formalizada, que

ofrece las ventajas de su gran capacidad de adaptación frente a sucesos inesperados y de

no pasar por alto ningún aspecto importante que pueda producirse.

Este tipo de observación generalmente se lleva a cabo en un estudio piloto, cuando no se

conoce muy bien la muestra que se va a estudiar.

Cuando establecemos de antemano una pauta de observación explícita en que se detalla

qué datos habremos de recoger, llamamos a la observación estructurada o formalizada.

Aquí la ventaja principal es que recogemos datos que pueden cuantificarse más

fácilmente, debido a su homogeneidad, y que podemos tener la certeza de no haber

olvidado registrar ninguno de los aspectos principales del problema en estudio. Su

desventaja radica en su poca flexibilidad frente a circunstancias no previstas pero que

pueden llegar a ser interesantes o importantes para la investigación.

La observación estructurada se lleva a cabo cuando se pretende probar una hipótesis, o

cuando se quiere hacer una descripción sistemática de un fenómeno; es decir, cuando

estamos realizando un estudio o investigación en el que sabemos exactamente lo que

vamos a investigar.

Por ejemplo, si vamos a observar el grado de agresividad de un niño mediante la

frecuencia con que se presenta la conducta, en sus diferentes grados, primero definiremos

qué queremos decir con conducta agresiva y cuáles son sus manifestaciones:

Identificación del niño: (se puede dar su nombre, o hacer referencia a alguna característica

física o a algún número que permita identificarlo).

Tabla 6: Ejemplo de escala para observación

1 2 3 4 5

Golpeó a un niño cerca de él.

Golpeó a un niño que estaba lejos de él.

Le dijo palabras insultantes a un niño cerca de él.

Le dijo palabras insultantes a un niño que estaba lejos de él.

Page 281: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 267

También pueden realizarse observaciones semiestructuradas, detallando más o menos

la pauta de observación según las necesidades y posibilidades.

3.15.3.2. LA ENTREVISTA. La entrevista es una forma específica de interacción social que tiene por objeto recolectar

datos para una indagación.

El investigador formula preguntas a las personas capaces de aportarle datos de interés,

estableciendo un diálogo, donde una de las partes busca recoger informaciones y la otra

es la fuente de esas informaciones.

La ventaja esencial de la entrevista reside en que son los mismos actores sociales quienes

proporcionan los datos relativos a sus conductas, opiniones, deseos, actitudes y

expectativas. Nadie mejor que la misma persona involucrada para hablarnos acerca de

aquello que piensa y siente, de lo que ha experimentado o piensa hacer.

Pero existe un importante inconveniente que limita sus alcances. Cualquier persona

entrevistada podrá hablarnos de aquello que le preguntemos pero siempre nos dará la

imagen que tiene de las cosas, lo que cree que son, a través de su carga subjetiva de

intereses, prejuicios y estereotipos. La propia imagen que el entrevistado tiene de sí

mismo podrá ser radicalmente falsa y, en todo caso, estará siempre idealizada,

distorsionada, mejorada o retocada.

Este problema nos obliga a dejar fuera de esta técnica a problemas y temas que son mejor

explorados por medio de otros procedimientos. Por otra parte, nos obliga a utilizar, a

veces, caminos indirectos, mediante preguntas que alcancen nuestro objetivo

elípticamente, utilizando rodeos. Es clásico el ejemplo de que las personas nunca

contestan la verdad respecto de sus ingresos personales en dinero, ya sea porque los

disminuyen (ante el temor de estar frente a algún inspector de impuestos), o porque los

aumentan (con fines de ostentación social o para reforzar su autoestima).

Para que una entrevista tenga éxito, es preciso prestar atención a una serie de factores:

es importante que la apariencia exterior del entrevistador resulte adecuada al medio social

donde habrá de formular sus preguntas. El entrevistador habrá de ser una persona de por

lo menos una cultura media, que comprenda el valor y la importancia de cada dato

recogido y la función que su trabajo desempeña en el conjunto de la investigación. Tendrá

que ser mentalmente ágil, no tener prejuicios marcados frente a ninguna categoría de

personas y, sobre todo, ser capaz de dejar hablar libremente a los demás, eliminando por

Page 282: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 268

completo todo intento de convencerlos, apresurarlos, o agredirlos con sus opiniones. La

entrevista habrá de realizarse a las horas más apropiadas para las personas que

responden, teniendo en cuenta que su posible duración no afecte la confiabilidad de los

datos.

Lo que vulgarmente se llama entrevista es una técnica que en realidad se denomina

entrevista no estructurada, y lo que suele llamarse encuesta es igual a lo que

denominamos, en metodología, entrevista estructurada.

Las entrevistas más estructuradas serán aquellas que predeterminen en una mayor

medida las respuestas por obtener, que fijan de antemano sus elementos con más rigidez,

mientras que las entrevistas informales serán las que transcurran de un modo más

espontáneo, libre, sin sujetarse a ningún canon establecido.

3.15.3.2.1. Entrevistas no estructuradas: Una entrevista no estructurada o no formalizada es aquella en que existe un margen más

o menos grande de libertad para formular las preguntas y las respuestas. No se guían por

un cuestionario o modelo rígido.

• Entrevista formal: Es la modalidad menos estructurada posible de entrevista, ya

que se reduce a una simple conservación sobre el tema en estudio. Lo importante

no es definir los límites de lo tratado ni ceñirse a algún esquema previo, sino "hacer

hablar" al entrevistado, de modo de obtener un panorama de los problemas más

salientes, de los mecanismos lógicos y mentales del respondente, de los temas que

para él resultan de importancia. Es de gran utilidad en estudios exploratorios y recomendable cuando se trata

de abordar realidades poco conocidas por el investigador. También suele

utilizarse en las fases iniciales - aproximativas - de investigaciones de

cualquier naturaleza, recurriendo a informantes claves que pueden ser

expertos sobre el tema en estudio, líderes formales o informales,

personalidades destacadas o cualquier persona que posea información para

la investigación.

Lo más importante es dar al respondente la sensación clara y definida de

que puede hablar libremente, alentándolo y estimulándolo para que lo haga y

cuidando de no influirlo demasiado con nuestras actitudes o las palabras que

decimos.

Page 283: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 269

• Entrevista focalizada: Es prácticamente tan libre y espontánea como la anterior,

pero tiene la particularidad de concentrarse en un único tema. El entrevistador deja

hablar sin restricciones al entrevistado, proponiéndole apenas algunas

orientaciones básicas pero, cuando éste se desvía del tema original, el

entrevistador vuelve a centrar la conversación sobre el primer asunto. Se emplea normalmente con el objeto de explorar a fondo alguna

experiencia vivida por el entrevistado o cuando nuestros informantes son

testigos presenciales de hechos de interés o de acontecimientos históricos.

Requiere de gran habilidad en su desarrollo, para evitar tanto la dispersión

temática como caer en formas más estructuradas de interrogación.

• Entrevista por pautas o guías: Se guían por una lista de puntos que se van

explorando en el curso de la entrevista. Los temas deben guardar una cierta

relación entre sí. El entrevistador hace muy pocas preguntas directas, y deja hablar

al respondente siempre que vaya tocando alguno de los temas señalados en la

pauta o guía. Se usan en situaciones parecidas a las anteriores y cuando se presentan

casos en que los sujetos investigados prefieren más un desarrollo flexible

que uno rígido, por sus propias actitudes culturales o necesidades.

Todas estas formas de entrevistas (que tienen en común su poca formalización) poseen la

ventaja de permitir un diálogo más profundo y rico, de presentar los hechos en toda su

complejidad, captando no sólo las respuestas a los temas elegidos sino también las

actitudes, valores y formas de pensar de los entrevistados.

Su principal inconveniente radica en que es poco práctico sistematizar un gran número de

entrevistas de este tipo, organizándolas estadísticamente, pues pueden tener muy pocos

puntos de contacto entre sí. Otra dificultad es su costo, pues involucran la presencia de

personal altamente especializado durante tiempos relativamente largos.

Los problemas de registro pueden ser importantes, pues existe un gran número de

palabras que es casi imposible de registrar en su totalidad. Pueden utilizarse grabadores,

aunque es preciso determinar previamente si la presencia de estos aparatos cohibe o no a

los informantes.

Page 284: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 270

3.15.3.2.2. Entrevistas formalizadas: Se desarrollar en base a un listado fijo de preguntas cuyo orden y redacción permanece

invariable. Comúnmente se administran a un gran número de entrevistados para su

posterior tratamiento estadístico.

Entre sus principales ventajas, podemos mencionar su rapidez y el hecho de que pueden

ser llevadas a cabo por personas con mediana preparación, lo cual redunda en su bajo

costo. Otra ventaja es su posibilidad de procesamiento matemático.

Su mayor desventaja radica en que reducen grandemente el campo de información,

limitando los datos a los que surgen de una lista taxativa de preguntas.

Esta lista de preguntas, que es el instrumento concreto de recolección empleado en este

caso, recibe el nombre de cuestionario y puede ser administrado sin que necesariamente

medie una entrevista. Debe ser cuidadosamente redactado, evitando preguntas

demasiado generales, confusas o de doble sentido, y tratando de conservar un orden lo

más natural posible.

Las preguntas suelen dividirse en dos grandes tipos:

• Preguntas de alternativas fijas o cerradas: Formalizan más el cuestionario, pues

en ellas sólo se otorga al entrevistado la posibilidad de elegir entre un número

limitado de respuestas posibles. Si se pregunta "¿cree usted en los OVNIS, sí o

no?", estamos realizando una pregunta cerrada. No importa la cantidad de

alternativas ofrecidas, si el respondente no puede elegir una respuesta que esté

fuera de la lista, la pregunta se considera cerrada. Hay que tener sumo cuidado en

la redacción de estas alternativas, procurando especialmente que sean exhaustivas

y mutuamente excluyentes, y evitando que estimulen a responder en un sentido

determinado.

• Preguntas de final abierto o abiertas: Proporcionan una variedad más amplia de

respuestas. Su redacción debe ser muy cuidadosa para evitar respuestas erróneas

o confusas, y para evitar que ellas predispongan al entrevistado en uno u otro

sentido. Un ejemplo de pregunta abierta sería: "¿Qué opina usted acerca de los

OVNIS?". La información que se obtendrá será mucho más completa y valiosa, pero

el trabajo de procesamiento de los datos tendrá que ser mucho mayor.

Una vez que se redacta el conjunto de preguntas que constituyen un cuestionario, es

necesario revisarlas para asegurarse de su consistencia y eliminar los posibles errores y

omisiones. Casi siempre se realiza una prueba piloto, que consiste en administrar el

Page 285: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 271

cuestionario a un conjunto reducido de personas para calcular su duración, conocer sus

dificultades y corregir sus defectos, antes de aplicarlo a la totalidad de la muestra.

3.15.3.3. EL CUESTIONARIO AUTOADMINISTRADO. Al cuestionario lo podemos definir como un método para obtener información de manera

clara y precisa, donde existe un formato estandarizado de preguntas y donde el informante

reporta sus respuestas.

Es un instrumento indispensable para llevar a cabo entrevistas formalizadas, pero puede

usarse independientemente de éstas. En tal caso, se entregará al respondente el

cuestionario para que éste, por escrito, consigne por sí mismo las respuestas.

Es claro que no se trata de una entrevista, pues no existe el elemento de interacción

personal que la define.

La elaboración del cuestionario requiere un conocimiento previo del fenómeno que se va a

investigar. Del mismo modo, la experiencia del investigador es imprescindible para la

construcción de cuestionarios, los que deben ser adaptados a las necesidades del

investigador y a las características de la comunidad en la que se realiza la investigación.

En el desarrollo de un cuestionario se debe considerar los siguientes puntos:

1. El nivel educacional de la población, para saber qué clase de vocabulario se va a

utilizar en la redacción de las preguntas.

2. Los cuestionarios deben ser autoexplicativos en cuanto a lo que requieren del

informante. Los que los responden no deben necesitar la ayuda directa del

investigador y/o sus colaboradores.

3. Deben contener preguntas concretas que no den lugar a respuestas vagas.

4. Al informante se le deben explicar los objetivos de la investigación, es decir, par qué

queremos la información que estamos solicitando.

5. El orden de presentación de las preguntas es muy importante: deben ir de las más

fáciles a las más difíciles.

6. Preguntar primero si el informante está consciente o ha pensado en el problema

que se está investigando, y después hacer las preguntas específicas.

7. Las preguntas deben ser redactadas de manera que no se suponga que los

informantes tienen la "obligación" de poseer o conocer la información que

buscamos, ya que si es así se pueden sentir presionados y se rehusarán a

contestar.

Page 286: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 272

8. No se deben presentar preguntas dobles o que requieran de dos respuestas a la

vez, por ejemplo: "¿Tiene el niño problemas emocionales y de aprendizaje?".

9. Las preguntas no deben redactarse de manera que exista una doble negación.

10. Es importante obtener datos del informante(edad, sexo, ocupación, nivel educativo).

Estas preguntas generalmente aparecen al final del cuestionario y precedidas de

una pequeña introducción, debido a que muchas personas evitan responder este

tipo de preguntas.

11. Cuando preguntamos sobre modos de comportamientos habituales, debemos

especificar el período a que nos estamos refiriendo. Por ejemplo: la semana

pasada, el último mes, en los últimos seis meses, etc.

12. Todas las preguntas deben ser elaboradas de manera neutra, evitando sugerir de

manera directa la respuesta. Por ejemplo: "¿Qué opina usted de los programas de

TV para niños que se emiten de 3 a 5 de la tarde?", en lugar de algo así como:

"Según se dice, los programas de TV para niños que se emiten diariamente de 3 a

5 de la tarde son fabulosos, ¿usted qué opina?".

La principal ventaja de los cuestionarios autoadministrados reside en la gran economía de

tiempo y personal que implican, ya que pueden enviarse por correo, dejarse en algún lugar

apropiado o administrarse directamente a grupos reunidos al efecto.

Otra ventaja es que la calidad de los datos obtenidos se incrementa, ya que al

desaparecer la situación de interacción, se eliminan las posibles distorsiones que la

presencia del entrevistador puede traer, ya sea por la forma de hablar, de enfatizar las

palabras u oraciones, de dirigir inconscientemente las respuestas, ya sea por su misma

presencia física, que puede retraer o inhibir al entrevistado.

Su desventaja está en que impide conocer las reacciones reales del informante ante cada

pregunta. También las confusiones o malentendidos pueden multiplicarse, pues no existe

la posibilidad de consultar sobre dudas específicas o de orientar una respuesta hacia su

mayor profundización o especificación. Otro inconveniente es que el respondente puede

consultar con otras personas antes de expresar sus opiniones.

Otro problema es el relacionado con el "prestigio", puesto que muchas preguntas tienen

una connotación social. La mayoría de la gente tenderá a contestar algunas preguntas de

manera que muestren conductas o actitudes socialmente aceptables: probablemente dirán

que leen más de lo que en realidad lo hacen, que asisten a espectáculos culturales con

mayor frecuencia de lo que en realidad sucede, que compran su ropa en comercios de

Page 287: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 273

prestigio, etc. Esto se puede solucionar aplicando preguntas que nos permitan detectar

mentiras, por ejemplo: colocar dos preguntas similares y separarlas lo más posible dentro

del cuestionario.

El empleo de los cuestionarios autoadministrados se hace especialmente recomendable

en aquellos casos en que es factible reunir de una sola vez a un cierto número de

personas. También es conveniente cuando, por el tipo de información, se produzcan

normalmente omisiones o falsedades deliberadas ante la presencia del entrevistador,

como en los cuestionarios sobre salud, problemas sexuales, experiencias con drogas,

comisión de delitos, etc. Por otra parte, muchas personas adoptan una actitud

irresponsable o pierden el interés frente a cuestionarios autoadministrados, lo que es otro

factor negativo de esta técnica.

3.15.3.3.1. Tipos de cuestionarios. La forma o tipo de cuestionario depende tanto de los objetivos que persiga la

investigación, como de los informantes:

• Cuestionarios abiertos. Son aquellos en los que se pregunta al sujeto algo y se le

deja en libertad de responder como quiera. Este tipo de cuestionario es muy útil y

proporciona mucha información, pero requiere más tiempo por parte del informante

y es más difícil de analizar y codificar por parte del investigador. Generalmente, se

aplican en estudios pilotos con el fin de obtener más datos. Serían ejemplos de preguntas abiertas: ¿Qué piensa usted de la

planificación familiar? ¿Cuál es su opinión acerca del presidente X? ¿Qué le

parecen los productos Y?

• Cuestionarios cerrados. Están estructurados de tal manera que al informante se

le ofrecen sólo determinadas alternativas de respuesta. Es más fácil de codificar y

contestar. Como desventaja, podemos mencionar que las categorías que se

ofrecen pueden no ser las más adecuadas, o que la persona no haya pensado sus

respuestas en términos de las categorías que se le ofrecen. Otra desventaja es

que, al ofrecerle categorías al informante, se le están "sugiriendo" las respuestas.

Entre los cuestionarios cerrados, tenemos: a. Preguntas con opciones: el sujeto tiene dos o más opciones para contestar. Por

ejemplo:

o ¿Prefiere algún perfume en especial?

Page 288: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 274

SÍ NO

o Los negros son superiores a los blancos:

Correcto Incorrecto

o Indique los artículos que más han aumentado de precio:

Automóviles Casas Comida

Electricidad Ropa Combustible

Gas Otros

3.15.3.3.2. Listas de preferencias y ordenamientos de opciones: Al sujeto se le presenta una serie de afirmaciones, frases, opciones, etc. y él las debe

ordenar según su grado de preferencia. Por ejemplo:

Coloque en orden de mayor a menor las actividades que

prefiere realizar en su tiempo libre:

Leer Ir al teatro

Ver TV Descansar

Salir con amigos Otras

Ir al cine

Con respecto a los cuestionarios enviados por correo, el punto más importante que debe

considerarse es que, por lo general, el porcentaje de personas que lo devuelven es muy

reducido y, además, la muestra que contesta los cuestionarios, está sesgada; es decir,

puede tener alguna característica en común, por ejemplo, cierto interés en el tema, y dar

un tipo especial de respuestas.

3.15.3.4. SOCIOGRAMA. Consiste en un gráfico en que se expresan las atracciones y repulsiones que los miembros

de un determinado grupo experimentan entre sí, siendo por ello de suma utilidad para

detectar fenómenos tales como liderazgo, existencia de subgrupos internos y anomia.

Se construye pidiendo a cada miembro que señale a las personas que más congenian con

él y las que menos lo atraen. Esta información se recoge mediante el uso de breves

cuestionarios de dos o tres preguntas, y luego es procesada para construir el diagrama

correspondiente.

Page 289: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 275

3.15.3.5. TESTS PSICOLÓGICOS. Emplean una gran variedad de técnicas específicas. Una buena proporción de ellos utiliza

la formulación de preguntas anotadas en algún formulario apropiado (el test) y que por lo

general se autoadministra. En otros casos, se propone a la persona la realización de

ciertas actividades pautadas y se observa su desarrollo. Se registra el tiempo empleado en

su ejecución, las reacciones que se producen, el desempeño de ciertos roles, etc.

Desde un punto de vista general, estos tests pueden considerarse como observaciones

realizadas en condiciones artificiales, preparadas y definidas de antemano.

3.15.3.6. TÉCNICAS PROYECTIVAS. Se basan en presentar algún estímulo definido a los sujetos para que ellos expresen

libremente, a partir de estos estímulos, lo que piensan, sienten o ven.

Generalmente, se trata de dibujos, manchas, fotografías u otros elementos similares,

aunque también se apela a veces a estímulos verbales o auditivos. La recolección de

datos, normalmente, se hace por medio de entrevistas poco formalizadas.

3.15.3.7. ESCALAS Y DIFERENCIALES SEMÁNTICOS. En las escalas, se pide al entrevistado que se sitúe, según su opinión o actitud, en una

escala gráfica. Se trata de un segmento de dimensiones fijas y conocidas, sobre el cual el

respondente marcará algún signo que indique la posición en que se sitúa. Midiendo luego

la distancia en centímetros que separa la marca hecha por el respondente respecto a uno

cualquiera de los extremos, se podrá obtener un valor numérico, que corresponde a un

punto determinado de la escala.

También es posible señalar previamente en el segmento las posiciones intermedias, o

utilizar otros recursos gráficos que no sean segmentos: caras serias o alegres,

termómetros, rectángulos o cualquier otro elemento gráfico capaz de reflejar una

gradación y que resulte atractivo a la vez que preciso.

En los diferenciales semáticos, lo que aparece en cada posición, son oraciones que

señalan conductas o actitudes típicas, entre las cuales el entrevistado podrá elegir las que

más coinciden con sus opiniones.

Por ejemplo:

Las siguientes escalas fueron diseñadas para estudiar la opinión de las personas con

respecto a diferentes marcas de jabones de tocador:

Page 290: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 276

Tabla 7: Ejemplo de escalas de opinión

Limpia Deja sucio

Huele bien Huele mal

Caro Barato

Fuerte Suave

Masculino Femenino

Elegante Común 3.15.3.8. ANÁLISIS DE CONTENIDO. Es una técnica que se basa en el estudio cuantitativo del contenido manifiesto de la

comunicación.

Es usada especialmente en sociología, psicología, ciencias políticas y literatura, e incluye

normalmente la determinación de la frecuencia con que aparecen en un texto ciertas

categorías previamente definidas, tales como ideas, términos o vocablos, o elementos

gráficos de diversa naturaleza. Estas categorías son las variables o indicadores que

intervienen en el problema de investigación planteado.

El análisis de contenido es útil, especialmente, para establecer comparaciones y estudiar

en profundidad diversos materiales: registros de entrevistas en estudios de psicología

clínica o evolutiva, editoriales de periódicos o revistas, programas o declaraciones

políticas, entrevistas focalizadas o abiertas, etc.

Gracias a la aplicación de esta técnica, es posible hacer apreciaciones sistemáticas sobre

la ideología y el pensamiento político de diversos órganos de difusión, encontrar

coincidencias y discrepancias en entrevistas y, en general, obtener un tipo de información

bastante profunda sobre temas complejos y difíciles de estudiar. También es posible

realizar análisis de contenido de materiales propagandísticos, cuantificándose el espacio

en centímetros dedicado a ciertos temas o elementos gráficos, así como la frecuencia de

aparición de ciertas palabras o frases.

La principal ventaja que posee el análisis de contenido es que tiene una base empírica

clara y perfectamente accesible, por lo que puede analizarse un texto con menos

subjetividad que por otros medios.

Su principal inconveniente estriba en su costo, pues sólo puede hacer un análisis de

contenido de cierta calidad un personal de alta calificación.

Page 291: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 277

Esta técnica tiene además una limitación intrínseca que el investigador tiene que tener

presente: como el análisis abarca solamente el contenido manifiesto de la información (lo

denotativo) pero no mide ni evalúa los contenidos latentes o implícitos (lo connotativo), no

puede afirmarse que por medio de esta técnica pueda tenerse una visión completa de los

documentos en estudio.

Los pasos concretos que se siguen para efectuar un análisis de contenido son:

1. Después de definir las variables que intervienen en el problema, es preciso

encontrar para éstas indicadores verbales o gráficos que puedan encontrarse en los

documentos investigados.

2. Es necesario hacer un arqueo de los documentos relevantes para la investigación.

Si las unidades detectadas son muchas, será preciso proceder a la extracción de

una muestra.

3. Conviene realizar una revisión somera del contenido de los materiales. El objetivo

es encontrar los aspectos concretos que puedan identificarse con las variables y los

indicadores ya definidos.

4. Marcar la aparición de cada elemento de interés, utilizando la forma de registro

apropiada. Luego debe tabularse la información obtenida. Finalmente, habrá que

analizar los cuadros elaborados con los datos, de modo de obtener las

conclusiones.

Los programas de computación llamados procesadores de textos facilitan enormemente la

aplicación de esta técnica.

Algunos investigadores también realizan un análisis de contenido cualitativo. En esencia,

consiste en establecer categorías de estudio, con el fin de determinar los puntos más

salientes del documento. Las categorías dependerán del documento que se analiza. Por

ejemplo: los enfoques políticos, los tipos de propaganda, las contradicciones que se

encuentren en el documento, etc. Otras categorías que frecuentemente se utilizan son

aquellas que se refieren a la intensidad de alguna actitud determinada, es decir, hacen

referencia a qué tan fuerte o débilmente se manifiestan las reacciones personales.

3.15.4. RECOLECCIÓN DE DATOS SECUNDARIOS. Las bibliotecas son la mejor opción que se presenta al investigador, en especial en cuanto

se refiere a libros, revistas científicas y boletines informativos. Tampoco deben dejarse de

registrar otros lugares que pueden reunir información de este tipo: archivos y bibliotecas

Page 292: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 278

privadas, de organismos e instituciones públicas o privadas, librerías, puestos de venta de

periódicos, etc. También las redes informáticas hacen posible una búsqueda sistemática

de los materiales bibliográficos existentes.

Las bibliotecas ofrecen tres tipos de ficheros que, si son adecuadamente usados,

proporcionan un cuadro completo de la información existente sobre un tema:

• Ficheros por autor.

• Ficheros temáticos.

• Ficheros de títulos de libros y artículos.

Para recolectar la información, el instrumento que se utiliza es la ficha. Las fichas bibliográficas son una simple guía para recordar cuáles libros o trabajos han

sido consultados o existen sobre un tema. Las fichas textuales, además de poseer los

datos del libro, constan de párrafos o trozos seleccionados que aparecen en la obra, o de

estadísticas, cuadros y otros datos semejantes. Estos fragmentos se repiten exactamente

tal como han sido escritos, sin la menor alteración, para respetar el trabajo creador de

quien estamos citando, haciendo mención explícita de la página en que aparecen. Las

fichas de contenido, aparte de poseer los datos comunes a toda ficha, consisten en

resúmenes o síntesis de párrafos, capítulos o aún de la obra entera.

Las fichas son unidades de registro, no objetos físicos de determinadas características.

Por ello, son fichas las que se hacen en cartulinas, pero también deben considerarse

como tales los registros que se hagan en cualquier clase de papel o las bases de datos

que se manejan por computadora.

El valor de las fichas reside en que ellas permiten recopilar las informaciones que

necesitamos para una determinada investigación. Si las fichas son completas y reflejan

fielmente los datos originales, será posible desarrollar la investigación con la seriedad que

requiere todo trabajo científico.

Una vez concluido el trabajo de fichado de las fuentes, se estará en condiciones de

continuar con las operaciones propias del diseño bibliográfico: cotejo y evaluación de las

fuentes, análisis, síntesis y redacción del informe de investigación.

Por otra parte, si definimos a los documentos como todos aquellos escritos que nos

pueden servir como instrumentos en nuestra investigación, debemos incluir a todos los

documentos públicos y privados.

Existen documentos públicos que resumen información masiva sobre determinada

población (censos, archivos, registros de instituciones). Generalmente, la información que

Page 293: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 279

se recolecta en este tipo de documentos se utiliza con un propósito específico y es difícil

que se le pueda dar otro empleo.

También existen documentos privados o personales que nos proporcionan información

acerca de una persona determinada (cartas, diarios íntimos). El problema consiste en que

no podemos saber qué tan fidedignos son los datos que estos documentos representan.

por ejemplo, un diario íntimo nos puede proporcionar información acerca de los

sentimientos y vivencias de la persona, pero probablemente nos ofrecerá pocos datos (o

muy subjetivos) acerca de hechos externos a la persona.

3.15.5. REFERENCIAS o Tenorio Bahena, Jorge. INVESTIGACIÓN DOCUMENTAL. 3ª ed. México

(1988). Ed. Mac Graw - Hill.

o Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS

SOCIALES. 5ª ed. México (1994). Ed. Trillas S.A.

o Tamayo y Tamayo, Mario. EL PROCESO DE LA INVESTIGACIÓN

CIENTÍFICA. 3ª ed. México (1998). Ed. Limusa S.A.

o Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996).

Ed. Lumen - Humanitas.

Page 294: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 280

<<<

3.16. OBTENCIÓN Y ORDENAMIENTO DE DATOS

3.16.1. POBLACIÓN Y MUESTRA. Marco de referencia de un estudio estadístico:

1. Definir la unidad de observación (elemento sobre el que vamos a registrar los

datos). Las unidades de observación pueden tener existencia natural, como una

persona o una cosa –elementos tangibles, o pueden estar definidas artificialmente,

como las distintas áreas de una empresa.

2. Determinar qué vamos a medir (lo que vamos a observar).

3. Definir si el relevamiento de datos se hace sobre la totalidad (población) o sobre

una muestra. Si el análisis se realiza en base a una muestra, el objetivo es obtener

conclusiones acerca de la población. Por lo tanto, la muestra debe ser

representativa de la población de la cual fue extraida.

3.16.2. ORDENAMIENTO DE DATOS. Los datos son colecciones de cualquier cantidad de observaciones relacionadas. Una

colección de datos se conoce como conjunto de datos, y una sola observación es un punto

de dato.

Para que los datos sean útiles, necesitamos organizar nuestras observaciones, de modo

que podamos distinguir patrones y llegar a conclusiones lógicas.

3.16.3. RECOLECCIÓN DE DATOS: Los especialistas en estadística seleccionan sus observaciones de manera que todos los

grupos relevantes estén representados en los datos.

Los datos pueden provenir de observaciones reales o de registros que se mantienen para

otros propósitos.

Los datos pueden ayudar a los responsables de tomar decisiones a hacer suposiciones

bien pensadas acerca de las causas y, por tanto, de los efectos probables de ciertas

características en situaciones dadas. También el conocimiento de tendencias adquirido de

la experiencia previa puede permitir estar al tanto de posibles resultados y actuar en

consecuencia.

Page 295: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 281

Cuando los datos son ordenados de manera compacta y útil, los responsables de tomar

decisiones pueden obtener información confiable sobre el ambiente y usarla para tomar

decisiones inteligentes. Los administradores deben tener mucho cuidado y asegurar que

los datos utilizados están basados en suposiciones e interpretaciones correctas. Para ello,

se utilizan las pruebas para datos:

1. ¿De dónde vienen los datos? ¿La fuente es parcial? ¿Es posible que haya un

interés en proporcionar datos que conduzcan a una cierta conclusión más que a

otras?

2. ¿Los datos comprueban o contradicen otras evidencias que se poseen?

3. ¿Hace falta alguna evidencia cuya ausencia podría ocasionar que se llegue a una

conclusión diferente?

4. ¿Cuántas observaciones se tienen? ¿Representan a todos los grupos que se desea

estudiar?

5. ¿La conclusión es lógica? ¿Se ha llegado a conclusiones que nuestros datos no

confirman?

¿Vale la pena usar los datos o debemos esperar y recabar más información antes de

actuar?

3.16.3.1. DIFERENCIA ENTRE MUESTRAS Y POBLACIONES: Muestra y población son términos relativos. Una población es un todo y una muestra es

una fracción o segmento de ese todo.

Estudiaremos muestras con el fin de ser capaces de describir poblaciones.

El estudio de muestras es más sencillo que el estudio de la población completa, cuesta

menos y lleva menos tiempo. Además, se ha probado que el examen de una población

entera todavía permite la aceptación de elementos defectuosos, por tanto, en algunos

casos, el muestreo puede elevar el nivel de calidad.

Una población es un conjunto de todos los elementos que estamos estudiando, acerca de

los cuales intentamos sacar conclusiones. Debemos definir dicha población de modo que

quede claro cuándo un cierto elemento pertenece o no a la población.

Una muestra es una colección de algunos elementos de la población, pero no de todos.

Cualquier grupo que cumple con los requisitos de la población, puede constituir una

muestra, siempre y cuando el grupo sea una fracción de la población completa.

Page 296: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 282

Una muestra representativa contiene las características relevantes de la población en las

mismas proporciones en que están incluidas en tal población.

3.16.3.2. BÚSQUEDA DE UN PATRÓN SIGNIFICATIVO EN LOS DATOS: Existen muchas formas de organizar los datos. Podemos sólo colectarlos y mantenerlos

en orden; o si las observaciones están hechas con números, entonces podemos hacer una

lista de los puntos de dato de menor a mayor según su valor numérico. Pero si los datos

son trabajadores especializados o los distintos tipos de automóviles que ensamblan todos

los fabricantes, debemos organizarlos de manera distinta. Necesitaremos presentar los

puntos de dato en orden alfabético o mediante algún principio de organización. Una forma

común de organizar los datos consiste en dividirlos en categorías o clases parecidas y

luego contar el número de observaciones que quedan dentro de cada categoría. Este

método produce una distribución de frecuencias.

El objetivo de organizar los datos es permitirnos ver rápidamente algunas de las

características de los datos que hemos recogido: el alcance (los valores mayor y menor),

patrones evidentes, alrededor de qué valores tienden a agruparse los datos, qué valores

aparecen con mayor frecuencia, etc.

RECOMENDACIONES:

Al plantear un estudio estadístico, definir claramente la población objeto de análisis.

Si se trabaja con muestras, definir las condiciones que deben reunir antes de extraerlas.

Especificar qué se va a medir, las unidades a usar y la forma de registro.

3.16.3.3. DATOS SIN PROCESAR: La información obtenida, antes de ser organizada y analizada, se conoce como datos sin

procesar puesto que aún no han sido tratados mediante ningún método estadístico.

La cantidad de datos más grande y los detalles más minuciosos pueden no contener la

información más útil para la toma de decisiones administrativa. Una parte importante de la

planeación de sistemas de información administrativa consiste en resumir y presentar los

datos de modo que se pueda obtener la información crítica de manera rápida y sencilla.

Page 297: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 283

3.16.3.4. ORDENAMIENTO DE DATOS UTILIZANDO SU ARREGLO Y DISTRIBUCIÓN DE FRECUENCIAS: La ordenación de datos es una de las formas más sencillas de presentarlos, los forma en

orden ascendente o descendente.

Ventajas:

1. Podemos notar rápidamente los valores mayor y menor de los datos.

2. Podemos dividir fácilmente los datos en secciones.

3. Podemos ver si algunos de los valores aparecen más de una vez en ese

ordenamiento.

4. Podemos observar la distancia entre valores sucesivos de datos.

En ocasiones, un ordenamiento de datos no resulta útil. Debido a que da una lista de

todos los valores, es una forma incómoda de mostrar grandes cantidades de datos.

3.16.3.4.1. La distribución de frecuencias. Una forma en que podemos comprimir los datos es la tabla de frecuencias o distribución

de frecuencias. Las distribuciones de frecuencias sacrifican algunos detalles, pero ofrecen

nuevas perspectivas sobre los patrones de datos.

Una distribución de frecuencias es una tabla en la que los datos se organizan en clases,

es decir, en grupos de valores que describen una características de los datos.

Una distribución de frecuencias muestra el número de observaciones del conjunto de

datos que caen en cada una de las clases.

3.16.3.4.2. Características de las distribuciones de frecuencias relativas. También podemos expresar la frecuencia de cada valor como una fracción o un porcentaje

del número total de observaciones. Para obtener este valor, dividimos la frecuencia de esa

clase entre el número total de observaciones del conjunto de datos. La respuesta se

puede expresar como una fracción, un número decimal o un porcentaje.

La suma de todas las frecuencias relativas es igual a 1,00 o a 100%. Esto es así debido a

que una distribución de frecuencias relativas aparea a cada clase con su fracción o

porcentaje apropiados del total de datos. Por consiguiente, las clases que aparecen en

cualquier distribución de frecuencias, ya sean relativas o simples, son completamente

inclusivas. Todos los datos caen en una u otra categoría. Las clases son mutuamente

exclusivas, es decir, ningún punto de dato cae en más de una categoría.

Page 298: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 284

En las distribuciones de frecuencias no aparecen clases que se traslapen.

Podemos, también, clasificar la información de acuerdo con características cualitativas,

como raza, religión y sexo, que no entran de manera natural en clasificaciones numéricas.

Como clases de atributos cuantitativos, éstas deben ser completamente inclusivas y

mutuamente exclusivas.

La categoría "otros" se conoce como clase de extremo abierto cuando permite que el

extremo inferior o el superior de una clasificación cuantitativa no esté limitado.

Los esquemas de clasificación pueden ser tanto cuantitativos como cualitativos y tanto

discretos como continuos. Las clases discretas son entidades separadas que no pasan de

una clase discreta a otra sin que haya un rompimiento. Los datos discretos son aquellos

que pueden tomar sólo un número limitado de valores.

Los datos continuos pasan de una clase a otra sin que haya un rompimiento. Implican

mediciones numéricas. Los datos continuos pueden expresarse con números fraccionarios

o con enteros.

Las variables discretas son cosas que se pueden contar y las continuas son cosas que

aparecen en algún punto de una escala.

3.16.3.5. CONSTRUCCIÓN DE UNA DISTRIBUCIÓN DE FRECUENCIAS: Pasos:

1. Decidir el tipo y número de clases para dividir los datos. De acuerdo con la

medida cuantitativa o un atributo cualitativo. Necesitamos decidir cuántas clases

distintas usar y el alcance que cada clase debe cubrir. el alcance total debe

dividirse entre clases iguales, esto es, el ancho del intervalo, tomado desde el

principio de una clase hasta el principio de la clase siguiente, necesita ser el mismo

para todas las clases. El número de clases depende del número de puntos de dato y del alcance de los

datos recolectados. Cuantos más puntos de dato se tengan o cuanto más grande

sea el alcance, más clases se necesitarán para dividir los datos. Como regla

general, los estadísticos rara vez utilizan menos de 6 y más de 15 clases.

Debido a que necesitamos hacer los intervalos de clase de igual tamaño, el número

de clases determina el ancho de cada clase.

Ancho de los intervalos de clase = (valor unitario siguiente después del valor más

grande

Page 299: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 285

de los datos – valor más pequeño de los datos) / número total de intervalos

Debemos utilizar el siguiente valor más alto de las mismas unidades, ya que

estamos midiendo el intervalo entre el primer valor de una clase y el primer valor de

la siguiente.

2. Clasificar los puntos de dato en clases y contar el número de datos que hay en

cada clase.

3. Ilustrar los datos en un diagrama.

3.16.3.6. REPRESENTACIÓN GRÁFICA DE LAS DISTRIBUCIONES DE FRECUENCIAS: Las gráficas dan los datos en un diagrama de dos dimensiones. Sobre el eje horizontal

podemos mostrar los valores de la variable (la característica que estamos midiendo).

Sobre el eje vertical señalamos las frecuencias de las clases mostradas en el eje

horizontal.

Las gráficas de distribuciones de frecuencias simples y de distribuciones de frecuencias

relativas son de utilidad debido a que resaltan y aclaran los patrones que no se pueden

distinguir fácilmente en las tablas. Atraen la atención del que las observa hacia los

patrones existentes en los datos. Las gráficas pueden también ayudarnos a resolver

problemas concernientes a las distribuciones de frecuencias. Nos permitirán estimar

algunos valores con sólo una mirada y nos proporcionarán una verificación visual sobre la

precisión de nuestras soluciones.

3.16.3.6.1. Histogramas. Un histograma consiste en una serie de rectángulos, cuyo ancho es proporcional al

alcance de los datos que se encuentran dentro de una clase, y cuya altura es proporcional

al número de elementos que caen dentro de cada clase. Si las clases que utilizamos en la

distribución de frecuencias son del mismo ancho, entonces las barras verticales del

histograma también tienen el mismo ancho. La altura de la barra correspondiente a cada

clase representa el número de observaciones de la clase. Como consecuencia, el área

contenida en cada rectángulo (ancho por altura) ocupa un porcentaje del área total de

todos los rectángulos igual al porcentaje de la frecuencia de la clase correspondiente con

respecto a todas las observaciones hechas.

Page 300: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 286

Un histograma que utiliza las frecuencias relativas de los puntos de dato de cada una de

las clases, en lugar de usar el número real de puntos, se conoce como histograma de

frecuencias relativas. Este tipo de histograma tiene la misma forma que un histograma de

frecuencias absolutas construido a partir del mismo conjunto de datos. Esto es así debido

a que en ambos, el tamaño relativo de cada rectángulo es la frecuencia de esa clase

comparada con el número total de observaciones.

3.16.3.6.2. Polígonos de frecuencias. Son otra forma de representar gráficamente distribuciones tanto de frecuencias simples

como relativas. Para construir un polígono de frecuencias señalamos éstas en el eje

vertical y los valores de la variable que estamos midiendo en el eje horizontal. A

continuación, graficamos cada frecuencia de clase trazando un punto sobre su punto

medio y conectamos los resultantes puntos sucesivos con una línea recta para formar un

polígono.

Se añaden dos clases, una en cada extremo de la escala de valores observados. Estas

dos nuevas clases que contienen cero observaciones permiten que el polígono alcance el

eje horizontal en ambos extremos de la distribución.

Un polígono de frecuencias es sólo una línea que conecta los puntos medios de todas las

barras de un histograma. Por consiguiente, podemos reproducir el histograma mediante el

trazado de líneas verticales desde los límites de clase y luego conectando tales líneas con

rectas horizontales a la altura de los puntos medios del polígono.

Un polígono de frecuencias que utiliza frecuencias relativas de puntos de dato en cada

una de las clases, en lugar del número real de puntos, se conoce como polígono de

frecuencias relativas. Este polígono tiene la misma forma que el polígono de frecuencias

construido a partir del mismo conjunto de datos, pero con una escala diferente en los

valores del eje vertical.

Ventajas de los histogramas: • Los rectángulos muestran cada clase de la distribución por separado.

• El área de cada rectángulo, en relación con el resto, muestra la proporción del

número total de observaciones que se encuentran en esa clase.

Ventajas de los polígonos de frecuencias: • Es más sencillo que su correspondiente histograma.

• Traza con más claridad el perfil del patrón de datos.

Page 301: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 287

• Se vuelve cada vez más liso y parecido a una curva conforme aumentamos el

número de clases y el número de observaciones.

Un polígono alisado mediante el aumento de clases y de puntos de dato se conoce como

curva de frecuencias.

3.16.3.6.3. Ojivas. Una distribución de frecuencias acumuladas nos permite ver cuántas observaciones están

por encima de ciertos valores, en lugar de hacer un mero registro del número de

elementos que hay dentro de los intervalos.

La gráfica de una distribución de frecuencias acumuladas se conoce como ojiva.

En ocasiones, la información que utilizamos se presenta en términos de frecuencias

acumuladas "mayores que". La ojiva adecuada para tal información tendría una inclinación

hacia abajo y hacia la derecha, en lugar de tener una inclinación hacia arriba y a la

derecha. Podemos construir una ojiva de una distribución de frecuencias relativas de la

misma manera en que trazamos la ojiva de una distribución de frecuencias absolutas. Sólo

habrá un cambio: la escala del eje vertical.

Del ordenamiento de datos podemos construir distribuciones de frecuencias. A partir de

las distribuciones de frecuencias podemos construir distribuciones de frecuencias

acumuladas. A partir de éstas podemos trazar una ojiva. Y de esta ojiva podemos

aproximar los valores que tenemos en el ordenamiento de datos. Sin embargo, no

podemos recobrar de manera normal los datos originales exactos a partir de cualquiera de

las representaciones gráficas que hemos analizado. 3.16.3.7. TRATAMIENTO DE UNA VARIABLE DISCRETA: Se utilizan los diagramas de barras, la diferencia con el histograma es que los rectángulos

no se tocan entre sí; esto se debe a que, al ser la variable discreta, entre los valores

sucesivos no hay valores intermedios. Las frecuencias acumuladas se grafican por medio

de una ojiva en forma de escalera, debido a que la frecuencia aumenta de a saltos.

RECOMENDACIONES:

Cuando se trabaja con muestras, recopilar el mayor número de datos posible.

Usar 5 clases como mínimo y 15 como máximo para agrupar los datos, en función del

número de datos disponibles.

Page 302: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 288

Trabajar con intervalos de clase de igual longitud.

Tener cuidado con la clasificación automática que hacen los paquetes estadísticos.

Al calcular frecuencias relativas – como proporción – trabajar con cuatro dígitos después

de la coma, para evitar errores de redondeo en la suma.

Al dibujar un gráfico, no exagerar la escala vertical u horizontal. Un gráfico

desproporcionado complica su interpretación y puede resultar engañoso a simple vista.

3.16.4. CONCEPTOS: • Unidad de observación: persona o casa sobre la que se mide una o varias

características de interés. • Caracteres: propiedades o rasgos que se miden en cada unidad de observación. • Variable numérica: VARIABLE. Carácter cuantitativo. • Variable categórica: ATRIBUTO. Carácter cualitativo. • Población: conjunto formado por todas las unidades objeto de un estudio

estadístico. Colección de todos los elementos que se están estudiando y sobre los

cuales intentamos llegar a conclusiones. • Muestra: subconjunto representativo de la población. Colección de algunos

elementos, pero no de todos, de la población bajo estudio, utilizada para describir

poblaciones.

• Muestra representativa: muestra que contiene las características importantes de

la población en las mismas proporciones en que están contenidas en la población. • Datos: colección de cualquier número de observaciones relacionadas sobre una o

más variables.

• Punto de dato: una sola observación de un conjunto de datos. • Arreglo de datos: organización de los datos sin procesar por observación,

tomados en orden ascendente o descendente.

• Clase de extremo abierto: clase que permite que el extremo superior o inferior de

un esquema de clasificación cuantitativo no tenga límite.

• Conjunto de datos: una colección de datos.

• Curva de frecuencias: polígono de frecuencias alisado mediante el aumento de

clases y puntos de dato a un conjunto de datos.

• Datos continuos: datos que pueden pasar de una clase a la siguiente sin

interrumpirse y que pueden expresarse mediante números enteros o fraccionarios.

Page 303: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 289

Datos numéricos que admiten infinitos valores entre dos valores cualesquiera;

generalmente surgen de una medición.

• Datos discretos: datos que no pasan de una clase a la siguiente sin que haya una

interrupción; esto es, donde las clases representan categorías o cuentas distintas

que pueden representarse mediante números enteros. Datos numéricos que no

admiten valores intermedios entre dos valores sucesivos; generalmente surgen de

un conteo.

• Datos sin procesar: información antes de ser organizada o analizada por métodos

estadísticos. Conjunto de datos que no han recibido ningún tratamiento estadístico.

• Datos tratados: conjunto de datos que ha sido objeto de algún tipo de

ordenamiento o procesamiento.

• Intervalo de clase: agrupamiento de valores de una variable.

• Alcance de los datos: diferencia entre el mayor y menor valor de la serie.

• Distribución de frecuencias: despliegue organizado de datos que muestran el

número de observaciones del conjunto de datos que entran en cada una de las

clases de un conjunto de clases mutuamente exclusivas y colectivamente

exhaustivas. Asignación de frecuencias a cada uno de los valores de una variable o

atributo.

• Tabla de frecuencias: tabla donde se asienta la distribución de frecuencias.

• Distribución de frecuencias acumuladas: despliegue de datos en forma de tabla

que muestra cuántos datos están por encima o por debajo de ciertos valores.

• Distribución de frecuencias relativas: despliegue de un conjunto de datos en el

que se muestra la fracción o porcentaje del total del conjunto de datos que entra en

cada elemento de un conjunto de clases mutuamente exclusivas y colectivamente

exhaustiva.

• Histograma: gráfica de un conjunto de datos compuesta de una serie de

rectángulos, cada uno con un ancho proporcional al alcance de los valores de cada

clase y altura proporcional al número de elementos que entran en la clase, o altura

proporcional a la fracción de elementos de la clase. Representación gráfica de la

distribución de frecuencias (absoluta o relativa) de una variable continua.

• Ojiva: gráfica de una distribución de frecuencias acumuladas absolutas o relativas.

• Polígono de frecuencias: línea que une los puntos medios de cada clase de un

conjunto de datos, trazada a la altura correspondiente a la frecuencia de datos.

Page 304: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 290

Representación gráfica de la distribución de frecuencias en forma suavizada de una

variable continua.

• Diagrama de barras: representación gráfica de la distribución de frecuencias de un

atributo o de una variable discreta.

• Frecuencia absoluta: número de veces que se repite un determinado valor de una

variable o atributo.

• Frecuencia relativa: proporción o porcentaje de veces que se repite un valor.

3.16.5. REFERENCIAS o RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA

ADMINISTRADORES, ED. PRENTICE HALL, SEXTA ED., 1996

Page 305: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 291

3.17. REGISTRO DE LA INFORMACIÓN. MODELOS DE FICHAS.

Cuando una publicación ingresa a una biblioteca se registra, se anotan los datos más

importantes para localizarla fácilmente. El criterio que se sigue en las bibliotecas para

clasificar libros, revistas, tesis y artículos sueltos, es el siguiente:

• Por autor.

• Por título.

• Por tema.

3.17.1. FICHA BIBLIOGRÁFICA. Los índices que se refieren a los libros se encuentran generalmente en cajones que

contienen tarjetas de 3 x 5 pulgadas, ordenadas alfabéticamente. Los datos que se

enumeran a continuación son los que se registran en las fichas:

1. Autor. Apellido, nombre

2. Título (siempre va subrayado)

3. Subtítulo (si lo hay)

4. Traductor, prologuista, etc. (si el original se escribió en otro idioma)

5. Edición (si es la primera no se anota, se anota a partir de la segunda)

6. Número de volumen (si cuenta con más de uno)

7. Lugar (donde se editó la obra)

8. Editorial

9. Fecha

10. Número total de páginas, láminas, ilustraciones

11. Colección o serie.

Los datos que corresponden a 7, 8 y 9 se conocen como pie de imprenta. Entre paréntesis

rectangulares o corchetes, se anotan los datos que se deseen agregar: si contiene mapas,

ilustraciones, comentarios o apreciaciones personales sobre el libro.

Cuando no aparecen algunos datos indispensables, se usan las siguientes abreviaturas:

[et. al]: cuando son varios autores se anotan los datos del primero y esta abreviatura

significa: y otros.

[s. tr.]: sin traductor

[s. l.]: sin lugar

Page 306: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 292

[s. f.]: sin fecha

[s. e.]: sin editorial

[s. p. i.]: sin pie de imprenta.

Las anotaciones particulares, hechas por el investigador para su empleo personal, se

encierran también entre corchetes. En algunas fichas se incluye también un breve

resumen del libro y/o un índice de contenido. A este fichero se recurre cuando se conoce

el nombre del autor del libro que se desea consultar.

Otras veces se recurre a ficheros clasificados por temas y por título, porque se desconoce

el nombre del autor. En ocasiones, cuando no hay referencias en el fichero sobre el

concepto investigado, se deben buscar sinónimos o temas afines.

3.17.2. FICHA DE DIARIOS Y REVISTAS. En las bibliotecas existen generalmente dos formas de clasificar las revistas: por tema y

por artículo. La clasificación por temas es muy general y se refiere principalmente a

disciplinas tan amplias como la psicología, la sociología, la economía, la antropología, etc.

A la clasificación que con mayor frecuencia se recurre en relación con las revistas, es a la

clasificación por títulos, ya que es la manera más práctica de hacerlo.

Una ficha, cuando el dato se toma de diarios y revistas, debe contener:

1. Nombre del autor

2. Título y subtítulo del artículo (entre comillas)

3. Título y subtítulo del periódico o revista (subrayado). Institución que la publica

4. Número del columen, año, tomo (con números romanos)

5. Número del fascículo (con números arábigos)

6. Fecha

7. Número de página o páginas que ocupa el artículo o dato

8. Información (dato). Cuando aparece sin datos de lo que trata el artículo, se le

conoce como ficha de artículo.

En ocasiones se recorta el artículo o parte de él. En estos casos, los datos de esta ficha se

anotan en la hoja o tarjeta en donde se pegó el recorte.

3.17.3. FICHA DE TESIS.

Page 307: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 293

Las tesis se encuentran archivadas en un fichero especial y están clasificadas de la misma

manera que los libros, es decir, tanto por tema como por autor. Los datos que deben

contener son:

1. Autor

2. Título

3. Tesis (se menciona al grado que se aspira con ella)

4. Lugar (colegio o institución donde se presenta)

5. Editor (si lo hay)

6. Fecha

7. Número de páginas (cuando el texto está escrito por un solo lado de la hoja, se

usará la abreviatura h, en lugar de p).

3.17.4. FICHA DE PUBLICACIÓN OFICIAL. 1. País

2. Dependencia

3. Año

4. Título (época que comprende el trabajo, ensayo, memoria, etc.)

5. Editorial (o los talleres donde se imprimió)

6. Número de páginas (si la dependencia que la publica no es la responsable del

contenido, el registro se iniciará con el nombre del autor.

3.17.5. FICHA DE TEXTOS JURÍDICOS.

1. Territorio en donde se aplican

2. Referencia al tipo de normas de que trata

3. Nombre de la ley o decreto (subrayado)

4. Editor o talleres donde se imprimió (o el conducto por el cual se dio a conocer)

5. Fecha

6. Número de páginas.

3.17.6. FICHA DE DOCUMENTOS NACIONALES. 1. Título (o asunto de que trata)

2. Lugar

3. Fecha

Page 308: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 294

4. Archivo

5. Legajo

6. Foja

7. Demás especificaciones

8. Número de páginas

9. Características de interés particular, si el investigador juzga indispensable

registrarlas)

3.17.7. FICHA DE DOCUMENTOS INTERNACIONALES. 1. Órgano responsable

2. Título (o asunto)

3. Número, clave o codificación

4. Lugar donde se publicó

5. Editor (o conducto por el que se da a conocer

6. Fecha

3.17.8. FICHA DE REGISTRO DE OBRAS DE RECOPILACIÓN DE CONSTITUCIONES O LEYES.

1. Nombre del compilador o editor

2. Referencia al tipo de norma o documento (subrayado)

3. Número de volumen (con números romanos)

4. Lugar

5. Editor

6. Fecha

7. Número de páginas en donde está comprendido.

3.17.9. FICHA DE REGISTRO DE PACTOS, ACUERDOS O TRATADOS INTERNACIONALES.

1. País u organismo (con mayúsculas)

2. Tipo de norma o documento

3. Autor del prólogo, comentario o nota

4. Lugar

5. Editor

Page 309: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 295

6. Fecha

7. Número de páginas en donde está comprendido.

3.17.10. FICHA DE ARTÍCULOS CONTENIDOS EN LIBROS O ENCICLOPEDIAS.

1. Autor del capítulo o artículo

2. Título del capítulo o artículo (entre comillas)

3. Páginas en que está comprendido

4. Autor de la obra que contiene el artículo o capítulo

5. Título de la obra (subrayado)

6. Demás datos de la ficha bibliográfica de la obra.

3.17.11. FICHA DE CAMPO. 1. Tema de investigación

2. Nombre del investigador

3. Institución

4. Lugar

5. Fecha

6. Hora

7. Datos de la fuente (edad, sexo, ocupación).

3.17.12. FICHA DE NOTICIARIO. 1. Agencia noticiosa / comentarista

2. Nombre del noticiario

3. Número / horario

4. Estación / canal / cine

5. Lugar

6. Fecha

7. Noticia o comentario

3.17.13. FICHA DE INSTITUCIÓN. 1. Nombre de la institución (subrayado)

2. Institución de la que forma parte

3. Objetivos que tiene en su función

Page 310: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 296

4. Ubicación

• Dirección

• Lugar que ocupa en la disciplina a la que pertenece o practica

1. Funciones y servicios

2. Información que puede proporcionar

3. Conexión, nexos, relación con otras fuentes similares

4. Forma de acceso (procedimientos para obtener sus servicios, o persona u oficina

por cuyo conducto se pueden obtener sus servicios).

5. Publicaciones que emite

6. Otros datos importantes.

3.17.14. FICHA DE REGISTRO DE INFORMACIÓN DE MAPAS, DIBUJOS, FOTOGRAFÍAS

1. Nombre (de lo que se trata, subrayado)

2. Autor

3. Fuente (lugar, libro, revista, museo, etc., dónde está)

4. Descripción del objeto (colores, medidas, material de que está hecho, datos

indispensables para tener noción de cómo es)

5. Contenido (descripción de lo que se ilustra o representa)

6. Otros datos que interesen al investigador (fecha, sala, en el caso de museos,

exposición, etc.)

3.17.15. FICHA DE TRABAJO. Es aquella donde se registran los datos que interesan al investigador. Cuando el dato está

contenido en más de una tarjeta, las tarjetas que ocupe constituirán una sola ficha. En

estos casos, conviene marcar las tarjetas con el número de ficha y una letra (ej.: 5a y 5b).

Una ficha debe contener un solo dato, éste puede ser un solo detalle (una fecha, un

nombre, un acontecimiento, etc.) o estar formado por más información (una carta, la

descripción de un hecho, una biografía, etc.).

Para saber qué información debe registrarse en una ficha de trabajo, en el momento de

hacer la anotación debe pensarse si esa información va a aparecer en un solo lugar o hay

detalles que se utilizarán en otros lugares del escrito; en el primer caso se tratará de una

ficha; en el segundo, será necesario hacer una ficha por cada información que aparecerá

Page 311: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 297

en distintas partes del escrito. El regesto es el asunto, tema o título del contenido de la

ficha de trabajo. Debe ser breve y reflejar fielmente la información anotada.

La información (dato) puede registrarse textualmente o resumirse.

Datos fundamentales:

1. Autor

2. Título (entre comillas)

3. Número de página (s) donde aparece el dato

4. Regesto (asunto, tema; va subrayado)

Datos complementarios:

1. Fecha en que se recogió el dato

2. Razón o motivo por el que se recabó la información.

3.17.16. FICHA DE TRANSCRIPCIÓN TEXTUAL. Como su nombre lo indica, es aquella a la que se traslada íntegramente el texto tomado

de la fuente, por lo que esta información siempre irá entre comillas.

3.17.17. FICHA DE SÍNTESIS. Es la que se utiliza para consignar, en pocas palabras, el extracto del texto consultado. Se

debe tener cuidado de no omitir o tergiversar el contenido. No es necesario utilizar una

tarjeta especial para los comentarios personales acerca de la fuente, puesto que es

conveniente incluirlos en la misma ficha que la registra. Se escriben entre corchetes.

3.17.18. FICHAS METODOLÓGICAS. Se refieren a aquellos puntos obtenidos de las lecturas, concretamente relacionados con

notas metodológicas, es decir, con qué sujetos se hizo la investigación, cómo se eligieron

éstos, qué hipótesis se emplearon, cómo se analizaron los datos, algún instrumento

original que se utilizó, alguna cuestión interesante que se investigó, es decir, con las

cuestiones operativas del estudio. El origen de estas fichas, al igual que en los casos

anteriores, debe identificarse utilizando la abreviación de la fuente original y el número de

página.

Page 312: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 298

3.17.19. REFERENCIAS o TENORIO BAHENA, JORGE, Técnicas de investigación documental, 3ra.

edición, México, Ed.Mc. Graw Hill, 1998

o PICK, Susan (et. al.), Cómo investigar en ciencias sociales, 3ra edición,

México, Editorial Trillas, 1998.

Page 313: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 299

3.18. ANÁLISIS CUANTITATIVO

3.18.1. LA LÓGICA DE ESTUDIAR CANTIDADES Si deseamos estudiar algo que también queremos medir, un prerrequisito es que, al

comenzar, tenemos que tener una idea bastante clara de la cosa que se va a estudiar (de

otro modo, no podríamos medirla). Este preconcepto del objeto de estudio también hace

posible planear nuestra investigación de manera relativamente precisa en comparación

con muchos proyectos de investigación cualitativa humanística.

Normalmente, un proyecto de investigación que examina cantidades medibles puede

organizarse en distintas fases, como en el diagrama de la derecha. Primero, recogemos

los datos y después los procesamos o depuramos, de modo que sean adecuados a los

fines del proyecto.

Para facilitar el análisis de los datos, debemos almacenarlos bien ordenados. Las

herramientas tradicionales para esta tarea suelen ser las fichas y las carpetas, pero hoy

esto se suele llevar a cabo con la ayuda de un ordenador. Al principio el investigador debe

haber considerado ya qué tipo de programa será más adelante el más efectivo cuando

haya que alimentar y extraer datos a y desde las operaciones analíticas. La elección

depende de la naturaleza de nuestros datos.

Ilustración 1: Lógica de estudiar cantidades

Page 314: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 300

La herramienta informática normal para datos cuantitativos es una hoja de cálculo como

Excel o QuattroPro. Nuestros datos pueden ser dispuestos en la forma en que convenga,

clasificados y presentados en varias tablas; junto a ello, es fácil someter nuestros datos a

operaciones aritméticas o booleanas y también transformarlos en llamativos diagramas.

La selección se hace más complicada si nuestro material es una combinación de

mediciones, descripciones y tal vez fotos u otros ingredientes multimedia. Tales conjuntos

combinados de materiales son a veces gestionados mejor con programas de a bases de datos tales como DBase y Paradox, incluso si algunos programas de procesamiento de

textos van siendo capaces de manejar diversos tipos de materiales.

Una vez recibidos los datos y antes de someterlos al análisis, suele ser útil llevar a cabo

algunas operaciones preliminares. Esto puede incluir:

• apartar los datos que son obviamente erróneos o irrelevantes. Esto ha de ser

hecho con precaución: no debiéramos borrar datos que son solamente "anómalos"

y no armonizan con nuestras hipótesis.

• normalizar o reducir nuestros datos significa que eliminamos la influencia de algún

factor bien conocido pero sin interés. Por ejemplo, podemos eliminar el efecto de la

inflación dividiendo todos los precios por el índice de precios de la fecha de la

compra.

En el análisis propiamente dicho de los datos, el propósito es extraer una invariante o

estructura que nos interese a partir de los datos. Esto no significa que introduzcamos los

datos en un ordenador y esperemos que el ordenador nos muestre qué estructuras

pueden encontrarse en ellos. Los ordenadores no son lo bastante listos para eso. En lugar

de ello, es bastante habitual que ya en un momento tan temprano como el inicio del

proyecto, el investigador tenga un modelo matemático que aplicará a los resultados. Este

modelo también proporciona las hipótesis para el proyecto de investigación o al menos

actúa como una "hipótesis de trabajo" no exacta.

Los resultados empíricos pueden entonces analizarse del modo siguiente: primero, el

investigador dispone los resultados de acuerdo con el modelo y después considera en qué

grado el marco es adecuado a los datos o si ha de buscarse un modelo que se adapte

mejor. En otras palabras, el investigador suele primero decidir qué tipo de patrón es el que

está buscando en los datos. Esto determinará los métodos para un análisis matemático.

Así, la primera cuestión a la hora de elegir el método de análisis es: ¿Queremos usar las

Page 315: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 301

variables medidas para clasificar casos o individuos? ¿O deseamos analizar variables

inconexas, o bien las relaciones entre diversas variables?

(Otra cuestión es cuál es la razón para la asociación estadística: ¿Hay una relación causal

o algún otro tipo de relación entre las variables? Esto es algo que el análisis estadístico no

será capaz de revelar.)

3.18.2. CLASIFICAR Si deseamos clasificar los individuos o casos en nuestra muestra de objetos de estudio,

hay unos cuantos métodos alternativos. La elección depende de la base de la

clasificación:

• Las clasificaciones cualitativas se tratan dentro de este documento junto al resto

de los métodos de análisis cualitativo. Véase también lo relativo a la segmentación

de los clientes.

• Toda variable singular puede ser usada para

clasificar los individuos o casos. Qué es esta

variable y dónde están situados los límites de la

clase, suele ser dictado por la teoría y el modelo

que estamos poniendo en práctica; si no, es común

seguir la serie aritmética (como pueda ser:

0...10...20...30...) o las series geométricas o

logarítmicas: 1...10...100...1000... etc.

• Dos o tres variables simultáneamente pueden

usarse para clasificar los casos, pero hay el riesgo

de generar demasiadas clases si alguna de las

variables tienen varios valores potenciales. El riesgo es menor si algunas variables

son dicotómicas, con sólo dos valores. Por ejemplo, tres variables dicotómicas

producen 2x2x2=8 clases.

En el método del análisis de grupos (cluster analysis) se tiene en cuenta

simultáneamente un gran número de variables. Se usa para encontrar tales

grupos de casos individuales de la muestra que, de acuerdo con los valores de las

variables, se asemejan entre sí en el mayor grado. Por ejemplo, en la figura de la

derecha han sido analizadas 30 respuestas a un cuestionario. El programa de

Ilustración 2: Clasificación por grupos

Page 316: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 302

análisis de grupos estudia, para cada caso de la muestra, su conjunto de valores

para todas las variables dadas, y resuelve qué casos de la muestra tienen el

conjunto de valores más similar. En este caso particular resulta que los que se

parecen más entre sí son los individuos 8 y 29, y también 6 y 22 etc.

Después de que se haya encontrado la mejor manera de agrupar los casos, el

siguiente estadio en el análisis es descubrir grupos cada vez más amplios, siendo el

principio de agrupación que cada caso en un grupo se parece más a los demás

casos de ese grupo que a los casos de fuera del mismo. Corresponde al

investigador el decidir cuántos grupos acabará al final el programa. En la figura hay

tres grupos finales: A, B y C. Cada investigador tiene que tomar la decisión sobre la

base de su teoría, como es habitual en todo análisis estadístico. Para tomar la

decisión, debemos considerar el significado e interpretación teóricos de cada grupo.

Una vez que se ha llevado a cabo una clasificación con uno de los métodos arriba

mostrados, queda la tarea de presentarla en el informe. El número de individuos en cada

categoría es llamado frecuencia. Si se divide por el número total del conjunto de la

muestra, se obtiene la frecuencia relativa. La frecuencia relativa puede indicarse como

un porcentaje o una fracción. Todas estas estadísticas son variables de la escala

aritmética sin que importe el tipo de escala de las mediciones originales.

Tabla 8: Símbolos habituales en tablas

Algunas abreviaturas usadas

convencionalmete en tablas se presentan

a la derecha. En lo alto de la tabla, en el

encabezamiento de la tabla, se muestran

los

nombre

s de las

variables, las unidades de medida y los posibles límites

de las clases. Una columna es un conjunto vertical de

valores de una variable. La correspondiente línea

horizontal es una fila. Las notaciones convencionales en

tablas comprenden:

(caja vacía) = la tabla no ha sido completada

. . = no se ha obtenido la información

* = datos preliminares

- = 0.000 (exactamente cero)

0 = redondeado a cero Ilustración 3: Curva normal

Page 317: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 303

3.18.3. ANALIZAR VARIABLES INDIVIDUALES A continuación hay una lista de algunos métodos habituales para el análisis estadístico de

una sola variable. Los métodos han sido dispuestos de acuerdo con la escala de medición

de la variable.

Tabla 9: Analisis de variables por escala

- Escala nominal

Escala ordinal

Escala de intervalo

Escala de proporción

Métodos de presentación

de los datos - Tabulación ; Presentación gráfica -

- La moda -

- - La mediana - Medias:

- - - Media aritmética -

- - Desviación de cuartil -

- - El rango - Medidas de dispersión:

- - - Desviación estándar -

Presentación gráfica de una variable

Ilustración 4: Ciclograma

Page 318: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 304

Un modo simple de presentar una distribución de valores es mostrar cada valor como un

punto en una escala. Si hay un gran número de valores, puede ser mejor clasificarlos

primero y entonces presentar la frecuencia de cada clase como un histograma (Fig. de la

derecha).

Si nuestros estudios tienen que ver con personas, ocurrirá con bastante frecuencia que

nuestras mediciones estarán distribuidas de acuerdo con cierta curva, la llamada curva de

Gauss (a la izquierda) que es, por consiguiente, llamada la distribución normal. Una de

sus propiedades es que el 68% de todas las mediciones diferirá de la media (en la figura:

M) en no más que la desviación estándar, y el 95% en no más que el doble de la

desviación estándar.

A veces querremos poner el énfasis no en la distribución absoluta, sino en la proporcional

o de porcentaje. Un diagrama apropiado para esto es el gráfico de sectores, también

llamado "de tarta" o "de queso" (a la derecha):

Medias Una media es una estadística que caracteriza el valor típico de nuestros datos y elimina la

dispersión aleatoria de valores. Para cada una de las distintas escalas de medición hay un

tipo adecuado de media,

Ilustración 5:Diagrama de barras

Page 319: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 305

Ilustración 6: Ejemplo me dedidas de tendencia central

• la moda

• la mediana

• la media aritmética.

Moda es el valor más común en nuestro conjunto de datos.

Mediana es el valor en el medio de la selección, si todos los valores están dispuestos del

menor al mayor.

Media (aritmética) es la suma de todos los valores dividido por su número, o

De entre las medias que se han presentado más arriba, el investigador puede elegir

habitualmente aquella que muestra mejor el valor típico de la variable. La media aritmética

es el más popular, pero puede ofrecer un cuadro equivocado por ejemplo en datos que

incluyen un valor que difieren en gran medida de los otros (véase la imagen de abajo).

Lo mismo ocurre si la distribución está desviada, como en la imagen de la derecha. En el

ejemplo, se relacionan los minutos que los distintos sujetos tardan en llevar a cabo una

tarea. Los más rápidos necesitaron 5 minutos, pero el resultado más común (=la moda)

fue de siete minutos. El valor en el medio, es decir, la mediana, se ha mostrado en rojo en

la imagen. La mediana tenía aquí el valor 11. ¿Qué pasa con la media? Como al sujeto

más lento le llevó el acabar 34 minutos, la media se eleva a 11.98 minutos, lo que no da

un cuadro exacto del resultado medio en este caso. Esto muestra que los datos están

desviados; el tipo de media debe elegirse con cuidado. Una presentación gráfica muchas

veces sería más ilustrativa que calcular una sola estadística.

Page 320: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 306

La distribución mostrada en esta figura está escorada positivamente, porque las

mediciones que han dado valores mayores que la mediana (11) se extieneden en un

amplio rango (de 11 a 34), mientras que las mediciones que han dado valores por debajo

de la mediana se concentran pocos valores (5...11).

Se puede también, si es necesario, acudir a una estadística para describir la cantidad de

desviación. Al elegir la media más apropiada, debemos tener en cuenta la escala que fue

usada en la recolección de los datos. Si la escala era nominal, la única media posible es la

moda. Si la escala fue ordinal, podemos usar la mediana o la moda.

Finalmente, si la media fue calculada a partir de una muestra, debemos examinar su

representatividad estadística, o qué probable es que la misma media sea cierta en la

población de la que la muestra se extrajo. Una comprobación apropiada para esto es la

prueba t.

Indicar la dispersión de los datos Una vez que hemos calculado el valor medio, puede ser a veces interesante describir a

qué distancia en torno a la media están diseminados los valores singulares. Para este fin,

podemos elegir entre diversas estadísticas. La elección depende del tipo de media que

hayamos usado:

• En conexión con la moda la dispersión de valores raramente es interesante.

• En lugar de ello, si hemos calculado una mediana, muchas veces querremos

señalar la diseminación de valores en torno a ella. Una forma adecuada para esto

es la desviación de cuartiles. Un "cuartil más alto" es aquel valor que es

sobrepasado por el 25% del conjunto de todas las mediciones; del mismo, modo el

25% de todos los valores son más bajos que el "cuartil bajo". La desviación media

de los cuartiles a partir de la mediana es llamada desviación de cuartiles y es

calculada con facilidad dividiendo por la mitad la diferencia de los cuartiles.

Una estadística alternativa y muy simple es el rango: la diferencia entre el mayor y

el menor valor.

• En conexión con la media aritmética muchas veces querremos calcular la

desviación estándar. Si los valores se miden a partir de una población, la formula

será,

Page 321: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 307

Sin embargo, si la desviación estándar sólo se refiere a una muestra, la formula es,

En ambas fórmulas, n es el número de los valores, y los valores de cada variable

sustituirán a x uno tras otro. Raramente un investigador se molestará en realizar por sí

mismo el cálculo, porque el algoritmo necesario para esto existe incluso en calculadoras

de bolsillo.

A la raíz cuadrada de la desviación estándar se llama varianza, y también ésta es usada

con frecuencia para describir y analizar la dispersión.

Si la estadística de dispersión se ha calculado a partir de una muestra, su

representatividad estadística debe también calcularse al final. La prueba t es adecuada

para esto.

3.18.4. ANALIZAR LAS RELACIONES ENTRE VARIABLES Si dos variables evolucionan modo tal que en alguna medida se siguen entre ellas,

podemos decir que existe una asociación entre ellas. Por ejemplo, la altura y peso de la

gente están estadísticamente asociadas: aunque el peso de nadie esté causado por su

altura ni la altura por el peso es, no obstante, habitual que las personas altas pesen más

que las personas bajas. Por otro lado los datos habitualmente incluyen también

excepciones, lo que significa que una asociación estadística es inherentemente

estocástica.

La ciencia de la estadística ofrece numerosos métodos para revelar y presentar las

asociaciones entre dos y hasta más variables. Los medios más simple son los medios de

presentación gráfica y tabulación. La asociación entre las variables puede también

describirse como una estadística especial, como el coeficiente de contingencia y una

correlación para lo que hay varios métodos de análisis disponibles.

Si, al analizar los datos, se descubre alguna asociación entre las variables, esto no

significa que necesariamente alguna de ellas dependa causalmente de la otra. Una fuerte

correlación entre, digamos, A y B, puede deberse a cuatro razones alternativas:

• A es la causa de B.

• B es la causa de A.

Page 322: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 308

• Tanto A como B son causadas por C.

• La asociación de A y B es causada por una pura coincidencia.

El investigador debe elegir deliberadamente una de estas alternativas. No hay medios en

el análisis estadístico para la tarea de descubrir la explicación causal para una asociación

estadística. En muchos casos, la teoría original del investigador puede proporcionar una

explicación; si no, el investigador debe usar su sentido común para clarificar la causa.

A continuación mencionamos algunos métodos usuales de análisis estadístico que pueden

usarse al estudiar la interdependencia entre una o más variables. Los métodos han sido

dispuestos siguiendo a qué escala de medición corresponden la mayor parte de las

variables.

Tabla 10: Analisis de variables por escala

- Escala nominal

escala ordinal

escala de intervalo

escala de proporción

Métodos de presentación

de datos - Tabulación ; Gráficos -

- Coeficiente de contingencia; Chi cuadrado -

- - correlación ordinal -

- - Correlación r de Pearson ; ANOVAMedidas de asociación

- - análisis de regresión ; análisis

factorial

Tabulación La tabulación es una forma habitual de presentar las asociaciones entre dos o más

variables. Una tabla tiene la ventaja de que en ella puede disponerse bien una cantidad

extensa de datos y se conservan las cifras exactas. Una desventaja es que una tabla

grande no es ilustrativa: raras veces revela algo más que las más obvias regularidades o

interdependencias entre datos. Algunas abreviaturas convencionales usadas en tablas se

presentan bajo el encabezado Clasificar.

Presentación gráfica

Page 323: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 309

Ilustración 7: Presentación grafica diagramica

Ilustración 8: Dispercigrama

Los artefactos, como objetos de estudio, son presentados con frecuencia como imágenes,

que son una forma de presentación gráfica. (Ejemplos de presentaciones gráficas.)

Si el investigador desea resaltar algunos rasgos comunes o patrones generales que ha

encontrado en un grupo de objetos, puede combinar varios objetos en un gráfico, como en

la figura de la izquierda. En el diagrama, Sture Balgård muestra cómo los edificios viejos

en Härnösand siguen proporciones uniformes de anchura y altura (la línea roja) con sólo

algunas excepciones. Al inventar métodos ilustrativos de presentación de los hallazgos del

estudio de artefactos, la más seria restricción es la imaginación del investigador.

Page 324: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 310

Ilustración 9: Diagrama de barras en series

Con frecuencia, no obstante, la apariencia del objeto en sí no es importante y sólo

interesan los valores numéricos de sus mediciones. Si se considera así, lo primero que

debiéramos plantearnos al elegir el tipo de gráficos es cuál es la estructura que queremos

mostrar de los datos. Por supuesto tenemos que no "mentir con ayuda de la estadística",

pero siempre es admisible elegir un estilo de presentación realce los patrones importantes

al eliminar o dejar en segundo plano las relaciones y estructuras que no nos interesan.

Si nuestros datos consisten en solamente unas pocas mediciones, es posible mostrarlos

todos como un diagrama de dispersión. Podemos exhibir los valores de dos variables

sobre los ejes de abscisas y ordenadas, y adicionalmente unas cuantas variables más

utilizando los colores o formas de los puntos. En el diagrama de la derecha, la variable z

tiene dos valores que se indican respectivamente por un cuadrado y un signo +.

Si la variación es demasiado pequeña para que aparezca claramente, podemos darle

énfasis eliminando partes de una o ambas escalas, véanse los ejemplos. Simplemente

eliminamos la parte que no nos interesa, sea por la parte superior o por la inferior. La parte

descartada debe estar vacía de valores medidos empíricamente. Para asegurarnos que el

lector se da cuenta de la operación, es mejor mostrarlo no sólo en las escalas, sino

también en la cuadrícula de fondo del diagrama.

Por otro lado, si el rango de variación de nuestros datos es muy amplio, podemos

plantearnos usar una escala logarítmica en uno o ambos ejes (véase el diagrama de la

izquierda). La escala logarítmica es apropiada solamente en una escala de proporción.

Si tenemos cientos de mediciones, es probable que no queramos mostrarlas todas en

forma de diagrama de dispersión. Una posibilidad en este caso es clasificar los casos y

presentarlos como un histograma.

Page 325: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 311

Ilustración 10: Histograma de medias

El histograma puede adaptarse para presentar hasta cuatro o cinco variables. Podemos

hacer esto variando las anchuras de las columnas, sus colores, sus tramados y por una

representación tridimensional (fig. de la izda.). Todas estas variaciones se crean

fácilmente con un programa de hoja de cálculo como Excel, pero no deben ser usadas

sólo como adorno.

Los patrones que rellenan o marcan las columnas del histograma pueden ser elegidos de

forma que simbolicen una de las variables. Por ejemplo, las columnas que describen el

número de automóviles pueden estar formadas por una pila de automóviles unos sobre

otros. Esto es correcto, con tal de que no variemos el tamaño de los símbolos usados en

un histograma. De otro modo, la interpretación se le haría difícil al lector (¿se vincula el

número de automóviles a la longitud, el área o el volumen de los símbolos de los

automóviles?)

El investigador suele estar interesado en las relaciones de dos o más variables antes que

en las parejas de mediciones tomadas separadamente. La forma normal de presentar dos

o más variables interdependientes es la curva. Esto implica una variable continua (es

decir, en que el número de posibles valores es infinito). (Ejemplos.)

No debemos producir una curva a partir de mediciones que no son valores de la misma

variable. Por ejemplo, los atributos de un objeto son variables diferentes. Ejemplos de ello

son las evaluaciones personales que los investigadores suelen reunir con la ayuda de

escalas semánticas diferenciales del tipo de la mostrada abajo:

Page 326: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 312

Tabla 11: Ejemplo de escala

Estime las características de su dormitorio. Tache un recuadro en cada línea.

Claro _ _ _ _ _ _ _ Oscuro

Ruidoso _ _ _ _ _ _ _ Tranquilo

Limpio _ _ _ _ _ _ _ Sucio

Grande _ _ _ _ _ _ _ Pequeño

Carecería ahora de sentido el presentar las distintas evaluaciones del dormitorio como un

solo "perfil" como en el diagrama de la izquierda (aunque encontremos con frecuencia este

tipo de presentaciones ilógicas en informes de investigación.) Si queremos a toda costa

poner el acento en que las variables han de ir juntas (por ejemplo porque todas son

evaluaciones del mismo objeto), un método apropiado podría ser, por ejemplo, un grupo

de histogramas (como el de la derecha).

Ilustración 11: Ejemplo no adecuado de diagramación

Todos los diagramas mostrados arriba pueden combinarse con mapas y otras

presentaciones topológicas. Por ejemplo, la variación en las diferentes áreas del país

suele mostrarse como un cartograma que distinga los diferentes distritos con distintos

colores o tramas. Otra forma es el cartopictograma en que pequeños diagramas de

sectores ("de tarta" o "queso") o de columnas han sido colocados en el mapa. Las

conexiones entre distintas áreas suele ser con frecuencia mostradas con filas cuyo grosor

indica el número de conexiones. (Ejemplo.)

Una obra útil y concisa en español sobre el uso de diagramas para análisis estadístico es:

Antonio Alaminos, Gráficos, Madrid, Centro de Investigaciones Sociológicas, 1993 (Col.

Cuadernos metodológicos, nº 7)

Contingencia

Page 327: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 313

Los medios disponibles para el análisis de los vínculos entre las variables dependen de

con qué tipo de escala se han medido las variables. La variable decisiva es aquella cuya

escala es la más rudimentaria.

Ilustración 12: Disoercigrama

El metro más rudimentario y general de la covarianza estadística de las variables es la

contingencia. Puede aplicarse a todo tipo de variables, incluyendo aquellas que se han

medido solo con una escala de clasificación, es decir, una escala de diferencia de

cualidades. La contingencia suele ser analizada haciendo una tabla, pero también hay

disponibles estadísticas especiales para indicar su intensidad:

• Las conexiones entre dos variables que se han medido con una escala de

clasificación escala se describen con un cociente de contingencia o también con la

estadística del Chi cuadrado.

• Si dos variables se han medido con una escala ordinal, su conexión puede

describirse con una correlación ordinal. • Para variables sobre escalas aritméticas, el método usual de contingencia es la

correlación estándar.

Las formulas para calcular las estadísticas de contingencia no se muestran aquí porque

llevar a cabo los cálculos manualmente sería poco práctico y los investigadores

habitualmente los hacen con un ordenador.

Correlación Una forma habitual de expresar la fuerza de la asociación entre dos variables es la

correlación del momento-producto o correlación de Pearson. Suele abreviarse con la

letra r. La fórmula es bastante complicada pero raramente se necesita hoy, pues el

algoritmo es ahora común incluso en las calculadoras de bolsillo. Aunque el algoritmo

presupone que ambas variables deben ser medidas sobre una escala aritmética, en la

práctica los investigadores suelen pasar por alto esta limitación.

Page 328: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 314

A la derecha podemos ver un diagrama de dispersión que muestra los valores de dos

variables y la correlación entre ellas. Se trata de una imagen animada, pero podemos ver

también una vista combinada de los once conjuntos de valores, que puede servirnos

también en el caso de que el programa que estamos utilizando para ver estas páginas

(navegador o browser) no muestre de forma alternativa once conjuntos de valores con sus

respectivas correlaciones.

Si el coeficiente de correlación es bajo, por ejemplo algo entre -0.3 y +0.3, las dos

variables no tienen mucho que ver entre sí. Si es alto, en otras palabras, si su valor se

aproxima ya sea a +1 o a -1, esto significa que la relación entre las dos variables se

aproxima a la ecuación

y = ax + b. El signo del coeficiente de correlación no es importante; el signo siempre es

idéntico al signo del coeficiente a en la ecuación de arriba.

La correlación es una herramienta práctica para el análisis inicial de los datos, cuando no

tenemos una idea clara de las relaciones mutuas entre variables. Es fácil para un

ordenador calcular una matriz de correlación entre un gran número de variables o, más

exactamente, para todos los pares potenciales de variables. Podemos entonces elegir

esos pares que presentan las correlaciones más fuertes, y continuar examinandolos con

otras herramientas, más refinadas, de análisis, por ejemplo el análisis de regresión.

Un aspecto débil del análisis de correlación es que no puede detectar otras relaciones

lineales entre las variables. Por ejemplo, una relación que obedece a la ecuación y = ax2 +

bx + c pasaría inadvertida. Sin embargo, algunos de los nuevos programas de análisis son

capaces de detectar incluso esta y algunas otras asociaciones habituales de variables.

Si la correlación se calcula a partir de una muestra, debemos recordar probar su

representatividad estadística. Una prueba adecuada para esto es la prueba t.

Análisis de varianza El análisis de varianza (en inglés ANOVA, ANalysis Of VAriance) examina dos o más

conjuntos de mediciones, especialmente sus varianzas, e intenta detectar diferencias

estadísticamente representativas entre los conjuntos. Estos conjuntos podrían ser, por

ejemplo, reacciones medidas para dos grupos experimentales, y el investigador quiere

examinar si hay una diferencia en las reacciones, tal vez causada por los distintos

estímulos a los grupos.

Page 329: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 315

El método de análisis de varianza se basa en el hecho matemáticamente probado de que

hay una diferencia entre los grupos sólo si la varianza inter-grupos es mayor que la

varianza intra-grupo. El análisis se inicia calculando la varianza intra-grupo para cada

grupo, y la media de todas

estas varianzas de grupo.

El siguiente paso es calcular la media para cada grupo, y entonces la varianza de estas

medias. Esa es la varianza inter-grupos. Entonces calculamos la proporción de las dos

cifras que acabamos de obtener, que es llamada F. En otras palabras, = (varianza de las

medias de grupo) / (media de las varianzas de grupo). Finalmente nos referimos a la tabla

(en manuales estadísticos) que muestra qué valores puede alcanzar el coeficiente F

cuando sólo actúa el azar. Si el F obtenido del ANOVA es mayor que el valor de la tabla,

hay una diferencia entre los grupos que es significativa según muestra la tabla.

Análisis de regresión

El investigador suele tener razones teóricas o prácticas para creer que determinada

variable es causalmente dependiente de una o más variables distintas. Si hay bastantes

datos empíricos sobre estas variables, el análisis de regresión es un método apropiado

para desvelar el patrón exacto de esta asociación. El algoritmo de análisis de regresión

construye una ecuación, que tiene el siguiente patrón. Además, da los parámetros a1, a2

etc. y b valores tales que la ecuación corresponde a los valores empíricos con tanta

precisión como es posible.

y = a1x1 + a2x2 + a3x3 + ... + b

En la ecuación,

y = la variable dependiente

x1 , x2 etc. = variables independentes

a1 , a2 etc. = parámetros

b = coeficiente.

Si tenemos amplios datos con muchas variables, al principio del análisis no estaremos tal

vez seguros de qué variables están mutuamente conectadas y cuales debieran así ser

incluidas en la ecuación. Podríamos primero estudiar esto con el análisis de correlación, o

podemos dejar al programa de análisis de regresión elegir las variables "correctas" (x1, x2

etc.) para la ecuación. "Correctas" son aquellas variables que mejoran la exactitud del

ajuste entre la ecuación y los valores empíricos.

Análisis factorial

Page 330: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 316

A veces tiene el investigador una gran cantidad de datos sobre numerosas variables

diferentes con correlación entre ellas. Con ayuda del análisis factorial, tales datos suelen

poder comprimirse y las variaciones presentarse a través de sólo unas pocas variables.

Como ejemplo, consideremos los datos de un cuestionario (mostrado en otra parte) donde

a un cierto número de sujetos de un test se les preguntó en qué grado se correspondían

sus dormitorios personales con los adjetivos proporcionados por el investigador

(mostrados en escalas "semánticas diferenciales").

Ilustración 13: Ejemplo de proyecciones

El investigador ahora quiere descubrir si tras las estimaciones de los sujetos, hay algunas

"variables de fondo" cuya medición directa por a través de medios lingüísticos no sería

posible a causa de la carencia de adjetivos apropiados en el lenguaje. La hipótesis del

investigador es que estas variables de fondo "aparecen" a través de los adjetivos usados

en las escalas semánticas, habitualmente no con un adjetivo único, sino mediante un

grupo de adjetivos con correlación entre ellos.

Con la ayuda de un análisis factorial, las variables de combinación o factores ocultos tras

los atributos medidos pueden detectarse y especificarse, y el análisis también dice lo

estrechamente que estos factores están vinculados con las variables originalmente

verificadas.—

Page 331: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 317

Ilustración 14: Ejemplo de proyecciones

A veces se sitúa también una condición suplementaria sobre los factores, concretamente

que no deben tener correlación alguna entre ellos y estén por lo tanto en "ángulo recto"

uno con respecto a otro (= "rotación ortogonal" de los factores durante el análisis).

Un inconveniente del método del análisis factorial es que es demasiado fácil de usar para

estudios que son formalmente correctos pero en la práctica absurdos, porque siempre

presenta los resultados de una forma elegante y matemáticamente exacta, incluso cuando

los factores obtenidos son tienen ningún contenido empírico sensato.

Analizar una serie temporal

Una serie cronológica es una línea de valores de variables reunidos en un cierto periodo

de tiempo, habitualmente en intervalos regulares. Si cada valor nuevo se añade a los

previos, la serie es acumulativa. La curva es la presentación más usual para la serie cronológica. El tiempo siempre se

presenta en el eje horizontal, x. Si es necesario, pueden situarse varias variables o series

de datos en el mismo diagrama. Esto tiene especial sentido cuando se están investigando

sus conexiones o ha de ponerse énfasis en éstas. Cuando se presentan dos series

cronológicas distintas con distintas escalas en una figura, podemos situar una escala

cuanto al margen izquierdo de la figura y la otra junto al margen derecho.

Si es necesario, tanto los valores medidos como los que se predicen pueden mostrarse en

la misma curva; véanse las figuras de abajo. Si el rango de la variable es muy pequeño,

puede ser resaltado acortando la escala Y, es decir, cortando la parte que no contiene

valores, normalmente a partir de la parte de abajo de la escala. La figura de la derecha

tiene exactamente los mismos contenidos que la de la izquierda, pero la variación se ha

Page 332: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 318

hecho más visible al recortar la escala por la parte de abajo. - Si, por el contrario, la

variable varía en una escala muy amplia, puede hacerse logarítmica la escala del eje Y.

Toda serie cronológica es intrínsecamente discontinua, es decir, obtiene un valor discreto

para cada periodo de tiempo. Esto es por lo que la presentación elegida para una serie

cronológica suele ser una curva "en escalera", que es en principio lo mismo que un

histograma donde las columnas se dibujan una junto a otra. Véase la figura de la

izquierda.

Si dirigimos una mirada más detenida a la variación de la serie cronológica, ésta suele

revelar componentes, todos los cuales tienen sus regularidades específicas que pueden

ser analizadas. Los más habituales de estos componentes son:

• - tendencia

• - variación periódica

• - variación coyuntural

Una tendencia es una dirección lineal de desarrollo en un periodo de tiempo. Una forma

sencilla de estudiarla es hacer un diagrama de dispersión y entonces situar manualmente

una estimación aproximada de la línea que describe la tendencia en él (la línea roja en el

diagrama de la izquierda).

Ilustración 15: Diagrama de disperción

Un método más refinado y exacto para la tarea arriba mencionada es el análisis de

regresión. Tras haber encontrado la ecuación que se ajusta de forma óptima a la

tendencia, ésta habitualmente es también presentada de forma gráfica, posiblemente junto

con el diagrama de dispersión original.

Una variación periódica es una variación cíclica recurrente en forma similar una y otra

vez. El periodo de variación suele ser una unidad natural de tiempo, como un año o un día.

Por ejemplo, el consumo de energía de un edificio varía simultáneamente con tres

Page 333: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 319

frecuencias: ritmos anual, semanal y diario. Estos se calculan uno cada vez, por el

siguiente método, básicamente el mismo en los tres casos:

• La variación periódica anual se halla haciendo un grupo de los valores para enero,

otro de los de febrero, etc. Entonces, para cada uno de estos doce grupos se

calcula la media y finalmente las doce medias se presentan como la variación anual

(la curva roja en el diagrama de la derecha).

• Cuando calculan los ritmos semanales, habrá siete grupos, es decir, uno para cada

día de la semana. Se calcula la media para cada uno de los siete grupos, y las siete

medias conforman la variación semanal.

• El ritmo diario de 24 mediciones diarias se calcula de forma tal que todos los

valores se disponen en grupos de 24. Las 24 medias indican entonces la variación

diaria buscada.

Cuando se ha encontrado la variación periódica, ésta se presenta, sea gráficamente como

curva de la longitud de un periodo, o bien numéricamente como un índice. Este índice

habitualmente se hace a partir de una base de 100 (ó 1,00), y sus valores periódicos se

obtienen cuando las medias periódicas (por ejemplo mensuales) se dividen por la media

común del conjunto de los datos.

Una variación de coyuntura tiene lugar repetidamente en la misma manera que una

variación periódica, pero su longitud y forma varían. Para revelar la variación de coyuntura,

la tendencia y las variaciones periódicas de los datos han de ser halladas primero. Tras

esto, la tendencia y las variaciones periódicas se eliminan de los datos. Esto se hace por

ejemplo dividiendo todos los valores individuales por el índice de la variación periódica, y

por la fórmula de la tendencia tal y como se ha hallado por el método de análisis de

regresión.

Tras estas operaciones, los datos sólo incluyen (de forma suplementaria a la variación

aleatoria) la variación de coyuntura. La variación coyuntural se presenta gráficamente

como una curva o numéricamente, como un índice de coyuntura, del mismo modo que el

índice de variación mencionado anteriormente.

La variación aleatoria es habitualmente eliminada mediante la media flexible. Por ejemplo,

en datos que contienen valores mensuales, esto se hace sustituyendo para cada valor

mensual una media que comprende a ese mes y los meses vecinos. La media de cinco o

siete meses puede también usarse, aunque la desventaja de esto es que puede oscurecer

incluso la variación que podría interesar al investigador. La variación aleatoria no es

Page 334: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 320

necesariamente una perturbación que haya de ser eliminada. Si hay una gran cantidad de

ella, el investigador podría intentar plantearse las razones para esta variación: ¿es

causada por un factor importante o interesante que debiera ser incluido en la hipótesis del

proyecto de investigación?

Todos los análisis de series cronológicas que acaban de mencionarse son hoy realizados

normalmente con un ordenador. Aquí sólo era posible presentar los métodos más

habituales de análisis estadístico. Otras guías sobre metodología son, por ejemplo.:

Friedman, Pisani, Purves, Adhikari: Statistics.

Lugares en el Www sobre métodos de análisis estadístico:

• Electronic Textbook Statsoft

• University of Newcastle: Surfstat

Cuando la información deseada se ha extraído de los datos, la credibilidad de los

resultados debiera ser evaluada, como una fase separada, antes de publicarlos y antes de

aplicarlos en la práctica.

3.18.5. REFERENCIAS o http://usuarios.iponet.es/casinada/arteolog (España)

o http://www.uiah.fi/projects/metodi/ (Finlandia)

Page 335: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 321

<

4. CAPITULO IV: BASES PARA LA INVESTIGACIÓN CUALITATIVA

Page 336: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 322

<

4.1. LA NATURALEZA DE LA INVESTIGACIÓN CUALITATIVA

Robert E. Stake,

No existe una única fuente de investigación cualitativa. Su historia es variada, parte de la

evolución de la curiosidad humana a lo largo de los siglos, y etnógrafos, psicólogos

sociales, historiadores y críticos literarios la encauzaron formalmente (Bogdan y Biklin,

1982; Eco, 1994; Hamilton, 1991; Stake, 1978). Hace un siglo, el filósofo Wilhelm Dilthey

sostenía que la ciencias no se movía en un sentido que ayudara a los humanos a

comprenerse a si mismo:

Sólo desde sus acciones, desde sus manifestaciones unmutables, desde el efecto

que produce en otros, puede el hombre aprender sobre si mismo; así que aprende a

conocerse solo por la vía circular de la comprensión. Lo que fuimos, como nos

desarrollamos y nos convertimos en lo que somos, lo aprendemos en la forma en

que actuamos, por los planes que una ves seguimo, por la forma en que nos

sentimos en nuestra voación, por los antiguos y caducos conocimientos, por los

juicios que hace tiempo se nos hicieron...Nos comprendemos, a nosotros mismos y

a los otros, cuando transmitimos nuestras experiencias vividad a todo tipo de

expresión propia y a las vidas d los demás.

(Dilthey, citado en Richman, 1976, pág. 163.)

La ciencia puede ocuparse de estos momentos personales y circunstanciales, pero la

mayoría de los “científicos humanos” prefieren estudiar grupos de población más que la

unicidad de las vidas individuales. Esta distinción entre métodos cuantitastivos y

cualitativos es una cuestión de énfasis – ya que la realidad es la mezcla de unos y otros.

En cualquier estudio estnográfico, naturalista, hermeneutico u holístico (po ej., en

cualquier estudio cualitativo) la enumeración y el reconocimiento de la diferencia

decantidad ocupan un lugar destacado. Y en cualquier estudio estadístico o experimiento

controlado (po ej., en cualquier estudio cuantitativo) son importantes el lenguaje natulra

con que se describen y la interpretación del investigador.

Un experte en métodos de investigación, Philip Runkel (1990), describía la actividad de los

investigadores como la de echar las redes y la de comprobar las muestras. Para averiguar

las realaciones comunes entre los casos, echamos las redes para capturar muchos casos.

Page 337: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 323

Para averiguar como funciona un caso concreto, examinamos las muestras particualares.

Runkel llamó a ese echar las redes, es decir, la sumas de mediciones de los diversos

casos, métodos de frecuancias relativas. Los investigadores en estudios de casos, tanto

los de orientación cualitativa como los de orientación cuantitativa, echan las redes cuando

se fijan n las frecuancias del caso, por ejemplo, como cuantos alumnos lucían birretes

blancos en la seremonia de graduación, y cuando hacen análisis transversales de casos.

Runkel llamaba método de muestras cuando el objetivo es aprender sobre la especie

mediante el análisis de una muestra, una gran muestra o una muestra única. Los

investigadores en estudios de casos emplean el método de muestras, como método

promordial, para llegar a conocer un caso en particular de forma extensiva e intensiva. En

el estudio intrinceso de casos, hay poco interéz de generalizar sobre las especies; el

mayor interéz reside en el caso concreto, aunque el investigador estudia también unaprte

del todo, y busca comprender que es la muesta, com fucniona.

Hay que detenerse en tres diferencias importantes entre la orientación cualitativa y

cuantitativa: 1) La distinción entre explicación y comprensión como objeto de investigación;

2) La distinción entre una función personal y una función impersonal de investigador, y 3)

Una distinción entre conocimiento descubierto y uno construido. Por ahora nos

ocuparemos de las otras dos distinciones.

4.1.1. COMPRENSIÓN MEDIANTE LA EXPERIENCIA:

La distinción fundamental entre investigación cuantitativa e investigación cualitativa estriba

en el tipo de conocimiento que se pretende. Aunque parezca extraño, la distinción no está

relacionada diirectamente con la diferencia entre datos cuantitativos y datos cualitativos,

sinó con una dirferencia entre búsqueda de acontecientos. Los investigadores

cuantitativos destacan destacan la explicación y eeel control; los investigadores

cualitativos destacan la comprensión de las complejas realciones entre todo lo que existe.

La distinción entre investigar para ofrecer explicciones e investigar par impulsar la

comprensión ha sido desarrollada muy bien por el filósofo finlandés Georg Henrick Von

Wright en su libro Explanatión and Understanding.

Se puede decir que practicamente cualquier explicación, sea causal teleológica o de

algún otro tipo, incrementa nuestra comprensión de las cosas. Pero la

“comprensión” tiene tambien un aspecto psicológico, quizá quien lo hizo con el

mayor énfasis fue Simmel, que pensaba que la comprensión como método

Page 338: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 324

característico de las humanidades es una forma d4e empatía o de recreación en la

mente del pensador del clima mental, los pensaimentos, los sentimientos y las

motivaciones de los objetos de estudio...La omprensión está unida también a la

intencionalidad, de una forma que no lo está la explicación. Se comprenden los

objetivos y los propósitos de un agente, el significado de signo o de un símbolo, y la

relevancia de una institución social o de un rito religioso. Esta...dimensión de

intencionalidad ha llegado a desempeñar una fucnión primordial en los estudios

más recientes sobre metodología. (Pag. 6).

Von Wright aseguraba que se requieren las explicaciones para incrementar que se

requieren la comprensión, y que a veces la ocmprensión se expresa en términos de

explicación-pero los dos objetivos son epistemológicamente bastante distintos. Insistía en

una diferencia importante para nosotros, la diferencia entre estudios de casos que tratan

de identificar las realaciones de causa y efecto, y los que tratan de comprender la

experiencia humana.

En el capítulo anterior señalábamos estos dos ejemplos de preguntas temáticas:

• ¿El hecho de que las horas lectivas hayan pasado de antender a cuatro grupos a

tender a cinco grupos afecta a la calidad de enseñanza?.

• ¿Participan menos en el trabajo los profesores que residen fuera de la comunidad?.

La primera constituye un ejemplo de búsqueda de una causa de la calidad de enseñanza

(por ej., busca una explicación), y es el tipo de pregunta más habitual en el estudio

cuantitativo de casos. La segunda es un ejemplo de búsqueda de la comprensión, una

descripción de las cosa que ocurren mas o menos en el mismo momento, sin esperar una

explicación causal. Estas descripciones contigentes no causales, como son el objetivo

habitual de las preguntas temáticas del estudio cualitativo de casos. La descripción de

Harper School del Capítulo X apenas explica poe que las cosas eran como eran; mas bien

describe en profundidad cómo eran las cosas en un determinado lugar y en un

determinado momento. Von Wright tembien hablaba de mpatía, el conocimiento de la

situación de otro mediante la experiencia propia de la misma. La investigación cualitativa

itenta establecer cuna comprensión empática para el lector, mediante la descripción, a

veces la descipción densa, transmientiendo al lector aquello que la experiencia misma

transmite.

Siguiendo las oreintaciones de Dilthey, el investigador en estudios cualitativos de casos

intenta facilitar la comprensión al lector, ayudar a comprender que las acciones humanas

Page 339: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 325

importantes pocas veces tienen una cuasa simple, y que normalmente no se producen por

motivos que se pueden averiguar. Basta con reconocer algunos de los acontecimientos

simultáneos (por ej., la polémica que se suscitan en las reuniones, el cambio del

tiempo,los mensajes dejados en el correo, una expresión de confianza inesperada-algunos

delos cuales pueden incidir en las desiciones de esa tarde). Estos sucesos complejos se

producen contínuamente, sin que haya oportunida, ni siquiera posibilidad, de sonsacar las

causas. Es posible que el deterioro del sistema escolar o el éxito del cambio n la

enseñanza n un aula no tengan ni causas ni manifestaciones simples. Para el pensador

cualitativo, la ocmprensión de la experiencia es una cuestión de cronología, más que de

causas y efectos.

Los métodos de la investigación cuantitativa han surgido de la búsqueda científica de la

causa y el efecto, expresada en una última instancia por una teoría fundamentada en

hechos (grand theory). Para esteblecer las generalizaciones que sean aplicables a

diversas situaciones, la mayoría de los investigadores de orientación semejante a la de las

ciencias sociales realizan observaciones en situaciones diversas. Intentan eliminar aquello

que sea meramente situacional, y ahcer que los efectos contextuales “se compensen

mútuamente”. Tratan de anular el cotnexto con el fin de averiguar las realciones

explicativas más generales y constantes. Las generalizaciones es un ojetivo importante, y

relevante para otros posibles casos. Para los investigadores cualitativos la unicidad de los

casos y delos contextos individuales es importante para la comprensión. La

partucularización es un bojeto importante, llegar a atender la particualridad del caso.

Permitanme el lector que recurra a mi propia experiencia para señalar que la mayor parte

de l trabajo en evaluación de programas ha estado doinada por la búsqueda de

explicaciones fundamentadas en hechos (grand explanations). El empleó de mediciones

formales y de análisis estadísticos. Porej. De la cuantificación, se debe el deseo de hacer

un estudio simultáneo de un gran número de casos diferentes, para situar el investigador

en posisión de realizar generalizaciones formales sobre el programa. Michael Scriven

(1978) e Lee Cronbach y colaboradores(1980) han señalado lo inadecuado de esta visión

estadística y de ciencia básica para la evaluación de programas, aduciendo la

particularidad del programa, su situacionalidad y su contexto político. Mabos han insistido

en la responsabilidad del avaluador como el autor de descripciones e interpretaciones

específicas del programa.

Page 340: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 326

Estas preocupaciones epistemológicas no devueven a los significados habituales del

estudio cualitativo y cuantitativo. Para perfeccionar la búsqueda de explicación, los

investigadores cuantitativos perciben lo que ocurre en términos de variables decriptivas,

representan los acontecimientos con escalas y mediciones (po ej., números). Para

perfeccionar la búsqueda de comprensión, los investigadores cualitativos perciben lo que

ocurrer en calve de episodios o testimonios, representan los acontecimientos con su

ppropia interpretación directa y con sus historias, por ej., relatos. El investigador cualitativo

emplea los relatos para ofrecer al lector la mejor oportunidad de alcanzar una comprensión

de causa que se base en la experiencia.

4.1.2. LA INTERPRETACIÓN COMO MÉTODO.

Los defensores de los cualitativo, Egon Cuba e Yvonna Lincoln (1982) y Elliot Eisner y

Alam Peshkin (1990) otrgan mayor prioridad a la interpretación directa de los

acontecimientos, y menor a la interpretación de los datos de las mediciones. “En gerra y

Paz” Tolstoy (1869/1978) decía:

Mediante la razón el hombre se observa a si mismo, pero se conoce a si mismo

mediante la conciencia. (Pag. 1427).

Toda la investigación depende de la interpretación, pero en los modelos cuantitativos

habituales se produce un esfuerzo por limitar la función de la interpretación personal del

periodo que media entre el momento en que diseña la investigación y el momento en que

se recogen los datos y se anlizan estadísticamente-un periodo que a veces se considera

“libre de valore”. Los modelos cualitativos habituales requieren que las personas más

responsables de las interpretacines estén en trabajo de campo, haciendo observaciones,

emitiendo juncios subjetivos, analizando y resumiendo a la vez que se dan cuenta de su

propia conciencia.

A diferencias entre lo cualitativo y cuantitativo guarda relación con dos clases de

preguntas de la investigación. En los estudios cuantitativos, esas preguntas buscan una

realción entre un pequeño número de variables. Por ej., “¿Existe una correlación contínua

entre los logros del alumno y la formación del profesor, en una variedad de situaciones

que se producen en el aula y la comunidad?”. Los esfuerzos van dirigidos a acotar la

investigación para que sea operativa, a definir las variables, y a reducir al mínimo la

importancia de la interpretación hasta que los datos etén analizados. En los primeros

momentos, es importante que el investigador cuantitativo interprete de que forma las

Page 341: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 327

relaciones entre las variables van ha reducir la inconsistencia de la explicación y, al final,

debe incrementar la importancia que otrogue a us generalizaaciones sobre las variables.

Entre ambos momentos, es importante no permitir que las interpretación cambie el curso

del estudio.

Lo característico de los estudios cualitativos es que se dirigen las preguntas de la

investigación a casos o fenómenos, y buscan modelos de relaciones inesperadas o

previstas. Por ej.: “¿qué ocurre con las relaciones personales entre los profesores que

participan en un proyecto de recuperación en lectura, si se les obliga a emplear una

metodología de resolución de problemas?” O si el proyecto hubiera sido puesto en práctica

con antelación, ¿Qué ocurrio con tales realciones personales?. Las variables

dependientes se definen por criterios de experiencia más que por criterios de operatividad.

Las condiciones situacionales no se conocen ni se controlan de antemano. Se prevé que

incluso las variables independientes se desarrollen de forma inesperada. Es esencial que

la capacidad interpretativa del equipo de investigadores no pierda contacto nunca con el

desarrollo de los acontecimientos y con lo que se va revelando, en parte para reoientar las

obaservaciones y proseguir con los temas que afloren. Por eso, la distribución de recursos

es diferente. La dependencia de instrumentos cuidadosamente desarrollados y de

observaciones redundantes controladas, característica de un estudio cuantitativo, se

sustituye por la colocación de los investigadores más capacitados en contacto directo con

los fenómenos, y con juicios muchos mas subjetivos sobre el significado de los datos. Uno

de los grupos requerira la mayor experiencia para el desarrrollo de instrumentos, antes de

la recogida de datos, y el otro grupo la requerira en el lugar de trabajo para realizar

observaciones interpretativa.

En su exelente resumen sobre la naturaleza del estudio cualitativo en el libro de Wittrock,

Handbook of Research on Teaching, Frederick Erickson (1986) sostenía que la piencipal

caracterísica de la investigación cualitativa es el lugar central que ocupa la interpretación.

Decía que los resultados de la investigación no son tanto “decubrimientos” como “acertos”.

Despues de intensa interacción del investigador con las personas, objeto del estudio o no,

despues de una aproximación constructivista en la búsqueda del conocimiento, despues

de considerar la intencionalidad de los participantes y su subejtividad, por lo descriptivo

que sea el informe, en última instancia el investigador termina por dar una visión personal.

Erickson se fijaba en l tradicinal énfasis de los etnógrafos en los temas émico, aquellos

vaores y preocupaciones que se manifiestan en la conducta y en el lenguaje de las

Page 342: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 328

personas estudiadas. Clifford Geertz (1973) lo llmaba “descripción abierta”. No se refería

con este término a las oncplejidades descritasde forma objetiva; es una descripción que

recoge las percepciones particulares de los actores. ¿Pueden aceptar los lectores una

descripción subjetiva?. A menudo, el objetivo del investigador no es tanto una

representación verídica de la mayores oportunidades de aprendizaje. Deborah Trumbull y

yo (Stake y Tumbulll, 1982) llmábamos “generalización naturalista” al aprendizaje que se

realiza mediante la experiencia y proponían que el investigador cualitativo fuera capaz

deorganizar el estudio de forma que ofreciera las máximas opotunidadees a la

generalización naturalista. De esta forma, es estudio se basaría en el actor y en la

experiencia del lector, un hecho ya común en muchas disciplinas, tales como la

historiografía, la filosofía, la literatura y la música. Claude Debussy, cuando componía La

Mer en su estudio de París y no al mar, decía:

Dispongo de mis recuerdos, que son mejores que los mismos paisajes marinos,

cuya belleza a menudo enturbia el pensamiento. Quienes me escuchan tienen su

proio caudal de recuerdos para que yo los desentierre. (Cox, pág. 26.).

La función de la investigación no es necesariamente la de trazar el mapa y conquistar el

mundo, sinó la de ilustrar su contemplación. De los estudios cualitativos de casos se

esperan “descripciones abiertas”, “comprensión mediante la experiencia” y “realidades

múltiples” (las personas perciben las cosas de forma diferente, debido no solo a las

secillez de sus abservaciones, sinó a que la experiencia determina en parte los

significados). No se puede sencillamente diseñar la búsqueda de significados complejos,

ni alcanzarlos de forma retrospectiva (Denzin y Lincoln, 1994). Parece que se requiere una

atención contínu, una atención que raras veces se puede mantener cuando los

instrumentos principales para la recogida de datos son listas de control o puntos de

encuestas interporetables. En el estudio caulitativo de casos es de gran importancia la

función interpretativa constante del investigador.

4.1.3. OTRAS CARACTERÍSTICAS DE LA INESTIGACIÓN CUALITATIVA.

Además de su orientación alejada de la explicación de causa y efecto, y su propensión a la

interpretación personal, la indagación cualitativa se distingue por su acento n el trato

holístico de los fenómenos (Schwandt, 1994). Ya he señalado que la epistemología del

investigador cualitativo es existencial (no determinista) y constructivista. Estasdosvisiones

van unidas habitualmente a la idea de que los fenómenos gurdan una estrecha realción

Page 343: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 329

entre si debida a accines fortuitas, y que la comprensión de los mismos requiere la

ocnsideración de una amplia variedad de contextos: temporales y espaciales, históricos,

políticos, económicos, culturales, sociales y personales.

Así pues, se consideran que el caso, la actividad y el suceso son únicos, a la ves que

comunes. La oomprensión de cada uno de ellos exige comprender otros casos, otras

actividades y otrsos sucesos, pero también comprender la unicidad de cada uno. La

unicidad no se establece particularmente comparándola en un número de variables -

podrían existir pocas posibilidades de que se aljara de la norma – sinó que las personas

próximas al caso lo entienden, n muchos sentidos, como algo sin precedentes e

importante en otras palabras, como una unicidad decisiva. Los lectores son dirigidos hacia

este sentido de la unicidad a medida que leen los relatos, los esbozos y las explicaciones

de experiencias (Van Manen, 1988). Se intuye que el conjunto de características, la

secuencias de los acontecimientos, son diferente. Se considera que la unicidad es de

importancia fundamental para la comprensión del caso particular.

En sus intrusiones en los habitats y los auntos personales, los investigadores cualitativos

no son intervensionistas. Intentan ver lo que hubiera ocurrido si ellos no hubieran estado

presentes. Durante el trabajo de campo, tratan de no llamar la atención, ni hacia si mismos

ni hacia su trabajo. Una vez en sus sitios, se esfuerzan por evitar crear situaciones para

comprobar su hipótesis. Intentan observar la corriente, y observarlo lo suficiente que

significa corriente n este caso. Pa ellos, la observación naturalista ha sido el medio

primordial del conocimiento. Cuando no saben ver por si mismos, preguntan a otros que

sepan. Pero la mayoría de ellos favorecen una visión personal de la experiencia con el fin

de que, desde su propia participación (la observación participativa es una técnica

desarrollada por los etnógrafos, para observar a la vez que se desempeña una función

activa en el grupo que se está estudiando), la puden interpretar , reconocer sus contextos,

indagar n los diferentes significados mientras estén presentes, y transmitir un realto

naturalista, basado en la experiencia, para que sus lectores participen en una reflexión

similar.

4.1.4. RECONOCIMIENTO DE CULPAS.

Los detractores del estudio cualitativo le atribuyen un gran número de defectos. La

investigacón cualitativa es subjetiva. Es más frecuente que origine nuevos enigmas que

soluciones para antiguos. Su contrubución a la ciencia disciplinada es lenta y tendenciosa.

Page 344: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 330

Los resultados contribuyen poco al avance de la práctica social. Los riesgos éticos son

sutanciales. Y el coste de timpo es elevado, muy elevado.

Se sabe qe la pretensión de los investigadores cualitativos es realizar una investigación

subjetiva. No se recomienda que la subjetividad sea un fallo que hay que eliminar, sino un

elemento esencial para la comprensión. Y aun más, la comprensión personal a menudo es

una falsa comprensión pora parte de los investigadores y de sus lectores (Philllips, 1990).

La falsa comprensión se produce por que el investigador – intérprete no es consciente de

sus propias limitaciones intelectuales, y como consecuencia de los métodos defectuosos

que no consiguen evitar las falsas interpretaciones. Los investigadores cualitativos tienen

una respetable preocupación por la validación de sus obsevaciones, y procedimientos

habituales de “triangulación” cuyos propósitos se aproximan a los de investigadores

cuantitativos, pero carecen de estrategias ampliamente consensuadas que somentan las

falsas comprensiones subjetivas a una comprensión exhaustiva.

Los fenómenos que investiga el investigador cualitativo suelen ocurrir con lentitud, y

evolucionan en su acontecer. Se suele requerir mucho tiempo para entender lo que ocurre.

Es un trabajo de mucha mano de oabra, y es difícil de recortar sus costes. Muchos

estudios continuan por que son fruto del entusiasmo. Mchos de sus descubrimientos son

esotéricos. El mundo del comercio y de los servicios sociales se benefician muy poco de lo

que se invierten en estudios cualitativos formales. Las recompensas pueden ser mayores

para quienes estudian sus propias cosas, sus negocios y sistemas con estos métodos,

pero el autoestudio muy pocas veces aporta la visión disciplinada del especialista.

Muchos estudios cualitativos son estudios personalistas. Los temas impersonales que se

aplican a seres humanos observados con detenimiento se convierten en temas

personales. La intimidad siempre se encuentra en peligro. La incitación al delito está

siempre presente cuando el investigador, a pesar de ser un convencido no

intervensionista, plantea cuestiones y opciones que quien las debe repsonder no había

considerado previamente. Una cierta fragilidad de conducta que de cerca parece tolerable,

adquiere una categoría ética dudosa cuando aparece en un relato lejano. Algunos “nos

hacemos nativos”, adoptamos las costumbres de estos, y nos acomodamos a los puntos

de vista y al sistema de vaores de las personas del lugar – para después retroceder, con

reacciones menos a su favor, cuando nos encontramos otra ves con nuestros colegas

universitarios. (Stake, 1986).

Page 345: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 331

Optar por lo cualitativo no es una simple cuestión de si lo beneficios previstos justifican los

costes. Los estudios intensivos e interpretativos siempre tienen un atractivo aparente,

como lo tenían incluso cuando muchos centros y facultades de investigación no

consideraban digno de respeto el estudio cualitativo. El ser humano suele ser curioso, y

los investigadores tienen un a obsesión especial por la investigación. En cierta medidad,

están controlados por las reglas de la financiación y us disciplinas, pero unas y otras solo

sólo controlan si se informa o no del uso de los métodos cualitativos – porque todos los

investigadores lo usan. Hay veces en que los investigadores son interpretativos, holísticos,

naturalistas y partes en la causa y, en estos casos, por definción, con indagadores

cualitativos.

Page 346: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 332

4.2. UN INVESTIGADOR PRINCIPIANTE

En este documento se responde con fines didácticos siete preguntas que pudiera

plantearse un investigador principiante durante el planteamiento y desarrollo de su trabajo.

Estas preguntas son: ¿Qué tiene que ver el "paradigma" con la "investigación?". ¿Por qué

se dice que hay "cambio de paradigmas?". ¿Qué es lo que hace que un investigador tenga

un funcionamiento intelectual cualitativo?. ¿Qué aspectos debe cultivar para ser un buen

investigador?. ¿Qué no debe hacer como investigador?. Cómo la investigación puede

aportar a la educación?. ¿Qué tan significativa puede resultar una investigación? ¿Qué

tiene que ver el paradigma con la investigación? Paradigma es el acuerdo o consenso de

una comunidad. Este acuerdo incluye supuestos filosóficos, epistemológicos y

metodológicos que permanecen generalmente de manera oculta (implícitos) en el

quehacer investigativo.

Así como el producto intelectual lleva el sello personal del autor, la investigación tiene

también el sello del investigador. En este sello, el investigador refleja su pensamiento, su

manera de concebir al mundo, su forma de abordar situaciones de la vida. Los paradigmas

de investigación socioeducativa tienen su origen (su raíz) en la manera de concebir la

ciencia y los fenómenos. La forma de indagar en las ciencias naturales se proyecta en el

paradigma de investigación cuantitativo. En este paradigma, el investigador de manera

usual se interesa por las causas del problema independientemente de los estados

subjetivos de los sujetos.

La búsqueda de respuestas para los fenómenos de las ciencias sociales se realiza desde

la perspectiva del protagonista, lo cual se corresponde con el paradigma de investigación

cualitativo. Un tercer paradigma de investigación socioeducativa identificado como

paradigma crítico se corresponde con la perspectiva de investigar la realidad para

transformarla, para emanciparla ¿Por qué se dice que hay cambio de paradigmas? En la

historia de la investigación se vislumbran cambios en el pensamiento o en la visión para

analizar la realidad. La investigación como quehacer científico que da respuestas a los

acontecimientos ha sido abordado desde diferentes perspectivas. Algunos investigadores

que abordan el estado del arte de los temas que constituyen el objeto de investigación

señalan yuxtaposición de paradigmas en el quehacer investigativo. Otros autores se

Page 347: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 333

pronuncian más bien por interpretar que se ha logrado la sustitución de un paradigma por

otro.

Partiendo de una interpretación personal de la situación y con el convencimiento de la

incompatibilidad de supuestos en el orden filosófico, epistemológico y metodológico entre

los paradigmas de investigación socioeducativa, se sostiene que está planteada

actualmente la sustitución del paradigma cuantitativo por el paradigma cualitativo. En el

marco mundial, se ha manifestado el predominio del paradigma cualitativo desde las

décadas de los setenta y ochenta. Un buen rastreo que se pudiera hacer a través de la

Red Mundial (Internet) demostrará la proliferación de investigaciones desarrolladas en el

contexto del paradigma cualitativo.

Hay una nueva conciencia no-casual sobre la investigación educativa que se está

desarrollando en el mundo que tiene que ver con el grado de madurez investigativo y la

necesidad de dar respuestas a través de los procesos científicos. Cada vez con mayor

fuerza, la circunstancia actual propicia la búsqueda de legitimar el proceso investigativo

cualitativo y en consecuencia de valorarlo. Como la idea de paradigma no implica

compromiso explícito sino implícito, ésta se refleja desde la selección misma del problema

o situación a abordar. De manera usual, el investigador no declara el compromiso. En

investigaciones mexicanas, por ejemplo, no se expresa en el discurso del trabajo el

compromiso cualitativo del investigador sino que el lector lo intuye. De tal manera que el

quehacer investigativo no consiste en clasificarlo y exponer las razones, sino en concebirlo

dentro de una trama de significados cualitativos.

También es cierto que como el paradigma es un acuerdo oculto de hacer investigación, es

difícil en ocasiones precisar en un determinado estudio a cuál de las categorías

(cuantitativa, cualitativa o crítica) corresponde. El problema se hace mayor cuando en el

ejercicio de la investigación se pretende incluir manifestaciones combinadas de supuestos

provenientes de los paradigmas ¿Qué es lo que hace que un investigador tenga un

funcionamiento intelectual cualitativo? En primer lugar, el investigador se muestra

consustancial con los supuestos filosóficos, epistemológicos y metodológicos del

paradigma cualitativo de investigación. Esto quiere decir, un pensamiento que se alimenta

de principios fenomenológicos para concebir al hombre y su mundo, al hombre y su

historia, al hombre y su contexto. Además, una manera de relacionarse con el objeto de

estudio (lo que se investiga) que manifiesta comprenderlo desde adentro (sobre la base de

lo que piensan, sienten y hacen sus protagonistas), una actitud de sujeto de la

Page 348: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 334

investigación (como investigador) sensible a los elementos contextuales del objeto de

estudio.

Y, por último, un investigador que participa de las técnicas conjuntamente con los otros

protagonistas de la escena y que las utiliza como medio para aproximarse a lo que

investiga. En segundo lugar, la investigación que se desarrolla con el pensamiento

cualitativo muestra la cohesión de supuestos y se manifiesta explícita e implícitamente en

el trabajo de una manera compatible entre lo que se quiere abordar (el problema), lo que

se quiere lograr (los objetivos), cómo se desea abordar (procedimientos) y los resultados

obtenidos (hallazgos) ¿Qué aspectos debe cultivar para ser un buen investigador? Como

primer aspecto, la organización es una de las cualidades que debe reafirmar el

investigador principiante.

La organización le va a permitir hacer más llevadero un trabajo que requiere del

tratamiento de lotes de información. Para ser organizado se requiere de estrategia, cómo

se abordarán las escenas, qué registros se coleccionarán y cómo se recolectarán, de qué

manera se analizarán. Un segundo aspecto tiene que ver con desarrollar una eficiente

expresión escrita.

El éxito de los hallazgos estará en función de las habilidades del investigador para

registrarlos y para divulgarlos mayormente a través de un medio textual. El alcance de dar

a conocer el trabajo del investigador por la vía escrita es impredecible. El tercero de los

aspectos es asumir el rol de detective, de indagar más allá de las acciones de los

protagonistas ¿Por qué actuó de esa manera? ¿Por qué se expresó así?, ¿Qué significa lo

que dijo? La búsqueda de estas respuestas permitirán al investigador comprender la

escena y obtener credibilidad en sus conclusiones al confrontarlas entre las diversas

instancias de análisis de consenso en el estudio. El cuarto aspecto que debe cultivar un

buen investigador es aprender a vivir en la incertidumbre. Constituye un buen aliado

dejarse llevar por la intuición. Hemos nacido y crecido en un sistema en el cual nuestras

acciones están ordenadas en unos pasos racionalizados.

Desprenderse de esquemas tradicionales de investigación constituye un desafío para el

investigador actual. Este desafío también se presenta en otros campos. Recientemente vi

en la televisión la entrevista a un director de películas que construye el libreto de las

escenas con las reacciones propias de los protagonistas. El director planteaba que esta

estrategia, alejada de poder ser interpretada como improvisación, le confiere mayor

naturalidad a sus actores. El quinto aspecto se refiere a la sensibilidad que debe

Page 349: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 335

desarrollar el investigador con el entorno que le rodea y sus protagonistas. El investigador

será sensible en la medida que logre comprender el verdadero significado de las acciones,

sentimientos, creencias, expresiones, valores, de los participantes en las escenas que

captura ¿Qué no debe hacer como investigador?

La anécdota que relata Schiel (1991) sobre la inserción del etnógrafo en el escenario

ilustra las reacciones intelectuales propias con las cuales deberá debatirse el investigador

en su trabajo, algo así como los demonios del investigador. Estos tienen que ver con la

participación en la escena y con el objeto de la investigación. Uno de ellos consiste en

acometer la tarea con la investidura de un juez, y en las primeras intromisiones en el

ambiente, el investigador principiante se dedica a enjuiciar a los protagonistas y a las

escenas. El investigador se debate intelectualmente entre lo que es y lo que debe ser, lo

cual resta energía a la realización de un trabajo impecable.

El otro tropiezo intelectual que debe afrontar el investigador se refiere a la concepción de

ser investigador es ser un experto en soluciones. En ocasiones, el investigador aborda

situaciones no para resolverlas sino para aproximarse al objeto de estudio. La investidura

de asesor experto homogeniza el papel del investigador y de la investigación. El tercer

obstáculo está en confundir paradigmas con metodología, técnicas, o con variables de

estudio. Expositores en diferentes eventos han tratado de aclararlo. Recientemente, Ruiz

Bolívar (1998, Mayo) en el Foro Enfoque Cuantitativo y Cualitativo de la Investigación

realizado en Rubio, se pronunció acerca de las implicaciones que pudieran presentar

estos errores.

Personalmente, pienso que no es posible mezclar los paradigmas de investigación, ya que

ello puede afectar seriamente la validez de los resultados . La metodología cualitativa, lo

que denomina y da sentido , significa para Taylor y Bogdan (1986) la manera de abordar la

realidad y se convierte en algo más que en un conjunto de técnicas para recoger y

procesar información

¿Cómo la investigación puede aportar a la educación? Los modelos de las ciencias

sociales desde enfoques sociológicos, antropológicos y pedagógicos han permitido la

conformación del paradigma ecológico de investigación didáctico. En la investigación

didáctica ecológica tiene cabida la metodología cualitativa a través de la etnografía,

etnometodología, estudio de casos. Por ejemplo, el paradigma ecológico de investigación

didáctica ha aportado a través de sus hallazgos en el diseño y desarrollo del curriculum en

países como Inglaterra. Por otra parte, el cambio de paradigma en la enseñanza y en la

Page 350: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 336

investigación no ha sido casual. La conexión investigación- educación se hace cada vez

más necesaria.

La concepción del acto educativo se ha modificado en la teoría y se está cambiando en la

práctica. Aún cuando se reconozca la desigualdad actual existente entre el desarrollo

social y económico con respecto al educativo, en el nuevo entorno de enseñanza y

aprendizaje se ha iniciado la búsqueda de un nuevo papel para el docente y para el

estudiante así como otras metodologías y epistemologías .

La Reforma Curricular Venezolana, por ejemplo, plantea la necesidad de emprender la

búsqueda de vías alternas de enseñanza para la acción del docente. Esta reforma plantea

explícitamente un cambio de paradigma didáctico que implicará la instrumentación de la

metodología cualitativa en la investigación. El docente podrá utilizarla para apropiarse de

su realidad, comprenderla y reconducirla.

Ya hay experiencias en otros países en este sentido. Se puede citar el Manual para la

Escuela Eficaz (Espínola y otros, Chile, 1994) el cual constituye una propuesta de

estrategias pedagógicas eficaces a partir de los resultados obtenidos mediante una

investigación cualitativa. Otra obra Talleres Pedagógicos. Alternativas en Formación

Docente para el Cambio de la Práctica de Aula (Abarzua Palma y otros, UNESCO, 1996)

se deriva de los hallazgos producidos mediante una investigación- acción. El pensamiento

del investigador progresará en la medida en que vea a la investigación didáctica como un

asunto institucional e ideológico, y conciba a la ciencia como una construcción social, con

intereses explícitos e implícitos y con una acción ideológicamente no-neutral sino

intencional.

En la actualidad, el investigador tiene que afrontar desafíos propios de la imposición de la

sociedad de la información. Las nuevas tecnologías de la comunicación y de la

información están modificando silenciosamente hasta nuestra manera de pensar. La

evolución de las tecnologías de la información conformará parte de la cultura de nuestra

sociedad informatizada. Cambiamos nuestra manera de presentar y acceder al

conocimiento, y por lo tanto se modificará nuestro quehacer investigativo (Lyotard, 1987).

Se dice que el conocimiento-saber cambió de status en las sociedades informatizadas, y

por tanto es de esperarse que la investigación también lo haga. Ahora, el investigador

accede fácilmente a lotes de información. El desafío es cómo procesar y darle tratamiento

a esta abundante colección de datos que cambia su estado histórico aceleradamente

¿Qué tan significativa puede resultar una investigación?

Page 351: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 337

Una investigación será significativa en la medida en que se develan escenas de la

realidad, lo que permanecía oculto, lo hace visible, evidente, comprensible. La

investigación adquiere significado en su objeto de estudio y en cómo se abordó, cuando

los actores se ven reflejados en las escenas tal cual ocurren y exclaman ¡eso lo he vivido

yo! Pero la investigación no debería agotarse en reflejar acertadamente lo que ocurre y en

su interpretación. También el investigador aportará elementos para vislumbrar el alcance

de los hallazgos y su futuro, así como su utilidad para el mejoramiento de la educación y

de la sociedad ¿Se agotan en el estudio todos los elementos del fenómeno? Esto podría

dar pistas para futuras investigaciones

¿Cuáles son las fortalezas teóricas, conceptuales, metodológicas de la investigación en

desarrollo? De la respuesta se podría derivar la utilidad como aporte al conocimiento, a la

técnica, a la práctica, a la experiencia.

Page 352: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 338

4.3. LA OBSERVACIÓN

Se utiliza para recolectar los datos necesarios para un estudio. La observación es un

método clásico de investigación científica; además, es la manera básica por medio de la

cual obtenemos información acerca del mundo que nos rodea.

Principios básicos para realizar una observación:

1. Debe tener un propósito específico.

2. Debe ser planeada cuidadosa y sistemáticamente.

3. Debe llevarse, por escrito, un control cuidadoso de la misma.

4. Debe especificarse su duración y frecuencia.

5. Debe seguir los principios básicos de confiabilidad y validez.

Entre las ventajas de la observación, tenemos que determinada conducta se describe en

el momento exacto en que está ocurriendo. Además, las observaciones se pueden realizar

independientemente de que las personas estén dispuestas a cooperar o no, a diferencia

de otros métodos en los que sí necesitamos de la cooperación de las personas para

obtener la información deseada.

En contraposición, también existen algunas desventajas, tales como la dificultad para

observar un comportamiento específico en el momento de efectuar la observación.

Además, las conductas que se encuentran sujetas a observación, generalmente son

limitadas. es difícil poder observar la interacción familiar, por ejemplo, al acostarse o

levantarse.

La observación, debido a su utilidad, es un método que se puede utilizar, junto con otros,

para recabar información. Por ejemplo, se puede emplear la observación en un estudio

exploratorio, y para el estudio final se pueden usar otros métodos tales como

cuestionarios, entrevistas, etc.

4.3.1. OBSERVACIÓN PARTICIPANTE:

Este tipo de observación está determinado por el hecho de que el observador participa de

manera activa dentro del grupo que se está estudiando; se identifica con él de tal manera

que el grupo lo considera uno más de sus miembros. es decir, el observador tiene una

Page 353: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 339

participación tanto externa, en cuanto a actividades, como interna, en cuanto a

sentimientos e inquietudes.

Con este tipo de observación, los investigadores pueden influir en la vida del grupo. Un

problema del registro de la observación es que el observador puede perder su objetividad.

Para resolver este problema es conveniente que más de una persona observe el mismo

fenómeno, con el fin de comparar las observaciones realizadas.

4.3.2. OBSERVACIÓN NO PARTICIPANTE:

En este tipo de observación el investigador no participa de manera activa dentro del grupo

que observa. Se limita a mirar y a tomar notas sin relacionarse con los miembros del

grupo.

Dependiendo de los objetivos que persiga la investigación, se empleará uno u otro tipo de

observación. La observación participante nos puede dar una idea más clara acerca de lo

que sucede dentro de un grupo, puesto que si los sujetos ven al observador como un

miembro más del grupo se comportarán normalmente. En cambio, aplicando la

observación no participante, probablemente no se comportarán normalmente. Por otro

lado, es probable que el investigador, al no participar en la vida del grupo observado,

pueda mantener más fácilmente su objetividad.

4.3.3. OBSERVACIÓN LIBRE O NO ESTRUCTURADA:

Generalmente se lleva a cabo en un estudio piloto, cuando no se conoce muy bien la

muestra que se va a estudiar.

Puntos a considerar:

• La población que vamos a estudiar: quiénes son, cómo se relacionan entre sí, edad,

sexo, nivel socioeconómico, etc.

• Las variables que son relevantes para nuestro estudio, así como la frecuencia y

duración de las mismas.

La mejor manera de registrar esta información es haciéndolo en el momento y situación en

que se está manifestando la conducta, puesto que así tendremos menos prejuicios,

seremos menos selectivos y, en general, más objetivos al registrar la información tal y

como se presenta en la realidad. Sin embargo, esto no siempre se puede realizar, puesto

que al estar tomando notas se puede distorsionar la conducta; además, las personas

pueden comportarse de manera poco diferente cuando saben que las están observando, y

Page 354: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 340

sobre todo si alguien está tomando notas en relación con su comportamiento. Por otro

lado, es difícil tomar notas y observar al mismo tiempo.

Si se trata de guardar todo en la memoria, probablemente la observación no pueda ser

muy exacta. Lo que se puede hacer es escribir solamente palabras claves mientras se

realiza la observación. Cuando se redacten los resultados finales, se debe utilizar una

forma organizada y sistemática, como, por ejemplo, una tabla de frecuencias.

4.3.4. OBSERVACIÓN ESTRUCTURADA:

Es aquella que se lleva a cabo cuando se pretende probar una hipótesis, o cuando se

quiere hacer una descripción sistemática de algún fenómeno. es decir, cuando estamos

realizando un estudio o investigación en el que sabemos exactamente lo que vamos a

investigar y tenemos un diseño de investigación.

Se diferencia de la observación no estructurada en el sentido de que en esta última sólo

poseemos una idea vaga acerca de lo que vamos a observar, mientras que en la

estructurada ya tenemos más claramente definidos los objetivos que nos ayudarán a

clasificar y concretar el fenómeno en cuestión. En este tipo de observación nos basamos

en tablas de frecuencias.

La observación estructurada presenta menos problemas prácticos en cuanto a la forma de

registro y utilizamos formas estandarizadas. Existen menos probabilidades de que los

observadores sean subjetivos.

4.3.5. REFERENCIAS

o TENORIO BAHENA, JORGE - TÉCNICAS DE INVESTIGACIÓN DOCUMENTAL -

3ª edición - ED.MC GRAW HILL - México - 1988

Page 355: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 341

4.4. LA INVESTIGACIÓN ETNOGRÁFICA:

Lourdes Denis Santana y Lidia Gutiérrez Borobia

4.4.1. ¿QUÉ ES LA ETNOGRAFÍA?

Desde un punto de vista general y conscientes de su relevante aplicación en los campos

antropológico y so-cial, la Etnografía ha sido concebida como la ciencia que estudia,

describe y clasifica las culturas o pueblos. El término Etnografía proviene de la

Antropología en cuyo contexto ha sido definido como la rama de la Antropología que trata

de la descripción científica de culturas indi-viduales. Desde esta perspectiva se distingue a

la etno-grafía como "una teoría de la descripción", concepción ésta que ha conducido a

formar la idea de que la etnogra-fía es sólo un reflejo de la realidad concreta, un dato

empírico, absoluto y relativo de acuerdo a categorías arbitrarias.

En el campo de la investigación socio-educativa la Etnografía constituye una alternativa

metodológica que se diferencia de los métodos tradicionalmente empleados en este

campo y de los métodos convencionales que por mucho tiempo fueron exclusivamente

aceptados y recomendados para la investigación educativa. Por constituir una estrategia

no convencional cuyo proceso metodológico se centra más en "lo cualitativo" que en "lo

cuantitativo", pareciera que la Etnografía no es aún totalmente recono-cida como válida

por algunos investigadores. Con miras a precisar el concepto sobre Etnografía en el

contexto de la investigación socio-educativa podemos decir que el término Etnografía se

ha utilizado para agrupar y etiquetar todos aquellos estudios descriptivos que, dentro de la

metodología cualitativa, proporcionan una imagen de la vida, del quehacer, de las

acciones, de la cultura,... de grupos en escenarios específicos y contextualizados.

Es necesario detenerse aquí para precisar lo que entendemos por escenario y por

contextualizar en el marco de la investigación cualitativa del fenómeno educativo. En el

trabajo de Castillo Lupemar (1984) sobre "Situaciones Sociales y Observación

Participante" se puntualiza acertadamente, a nuestro parecer, lo que es el escenario de

una situación socio-educativa. Escenario representa lo que es el espacio físico, en donde

actores o participantes comparten una actividad, un quehacer, al realizar ciertas acciones.

Estos tres elementos escena-rio, participantes y actividades interrelacionados se ubican

en un determinado contexto. Contextualizar en la investigación etnográfica va mucho más

allá del escena-rio, del ambiente, incluye historia, costumbres, lengua-je, en un ambiente

Page 356: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 342

de interacción social natural (no- artificial). Podríamos sintetizar lo que es la Etnografía en

térmi-nos de descubrir y describir las acciones de los partici-pantes dentro de su

interacción social contextualizada, en el sentido y significado que dan los mismos

participantes a sus acciones.

El hecho de ser aceptada dentro de una metodología no clásica, naturalista, básicamente

descriptiva, ha contribuido a que exista la tendencia a considerar la Etnogra-fía como

sinónimo de trabajo informal, libre de fundamen-tos y de enlaces teóricos, carente de

experimentación y de cuantificación e incluso generadora de informes "novelescos" y

"anecdóticos". A nuestro juicio, tal percepción sólo refleja un profundo desconocimiento del

verdadero alcance de la Etnografía y de las elaboraciones teóricas que de la misma

pueden derivarse.

4.4.2. ¿CUÁL ES EL ALCANCE DE LA ETNOGRAFÍA?

En relación con el alcance de la investigación etnográfica algunos autores lo limitan

básicamente a la labor des-criptiva (Wiersma, 1986: 238). Desde este punto de vista, el

propósito fundamental del estudio etnográfico puede ser sólo describir una cultura o algún

aspecto de una o más culturas en una organización. No obstante, existe una visión más

amplia, compleja y relevante en cuanto al alcance de la metodología etnográfica. Según

ésta, la Etnografía contempla mucho más que la descripción, inclu-ye también la

comprensión e interpretación de fenómenos hasta llegar a teorizaciones sobre los mismos.

Acerca de su alcance hay que enfatizar entonces que, mucho más que describir, la

Etnografía permite reflexionar constante y profundamente sobre la realidad, asignando

significaciones a lo que se ve, se oye y se hace, desarrollando aproximaciones hipotéticas,

redefiniendo continuamente, hasta llegar a construir e interpretar esa realidad sin

anteponer el sistema de valores del investigador, lo cual conduce a la reconstrucción teóri-

ca. Ello nos permite afirmar que los estudios etnográfi-cos no necesariamente son

estudios limitados y que además la Etnografía puede llegar a utilizarse en problemas

teóricos.

En este orden de ideas, ¿la Etnografía nos garantiza una metodología seria, rigurosa y no

superficial? La concepción exacta acerca de la estrategia etnográfica involucra tanto un

determinado tipo de procedimientos en el trabajo de campo como la fidelidad del producto

final en la labor de investigación. Por ello, el etnógrafo tiene el compromiso de alcanzar

una descripción profunda que le permita interpretar no sólo las conductas sino también sus

Page 357: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 343

significados en un determinado contexto cultural, descubriendo e interpretando lo

relevante, lo que tiene sentido para el actor, a fin de formular conclusiones realmente

significativas de la realidad abordada.

Para garantizar que así sea es preciso tener presente tanto la realidad cultural como las

acciones concretas de los individuos con miras a articular los significados culturales con la

visión del grupo observado y con la perspectiva del etnógrafo. Esto lleva a considerar el

trabajo etnográfico como una forma particular de cons-truir el objeto de la investigación ("lo

que se investi-ga"), a plena conciencia de que en esta forma particular de construir la

realidad subyacen supuestos teóricos relacionados con una concepción general de la

cultura como totalidad.

4.4.3. ¿CUÁLES SON LAS CARACTERÍSTICAS DE LA ETNOGRAFÍA?

Una característica relevante de la Etnografía es que incorpora las experiencias, creencias,

actitudes, pensa-mientos, reflexiones, de los participantes. La Etnogra-fía considera tales

aspectos en los mismos términos y significados que le dan las personas a sus acciones,

ya que Etnografía supone describir e interpretar los fenóme-nos sociales desde la propia

perspectiva del participan-te: "... tal como son expresadas por ellos mismos y no como uno

los describe" (Watson en Montero, 1982:19).

Podría surgir entonces la interrogante ¿Por qué razón la investigación etnográfica

interpreta las acciones sociales desde la perspectiva del propio actor o partici-pante? La

investigación cualitativa, y por ende la investiga-ción etnográfica, se propone descubrir lo

que está detrás de las acciones sociales basándose en la siguiente con-cepción: En

primer lugar, la persona actúa ante las cosas según el significado que represente para

ella. En segundo lugar, el significado en cada persona se deriva o surge de su interacción

social. En tercer lugar, los significa-dos se manejan y modifican según el proceso de

interpre-tación de las personas.

Si la Etnografía asume que las acciones sociales se producen en los participantes según

su forma de percibir, entender, interpretar, juzgar y organizar su mundo, para investigar

sobre las acciones sociales no hay una vía más propicia que la de preguntar directamente

a los partici-pantes por qué actúan de determinada manera. Esto quiere decir que el

etnógrafo escudriña por qué las personas actúan tal como lo hacen y a qué significados

obedecen. En la Etnografía, entonces, se asume la relevancia del papel del actor y se

insiste en comprender las acciones sociales desde la perspectiva del propio actor.

Page 358: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 344

Por todo lo dicho anteriormente, podemos afirmar que hacer etnografía es tener presente

aspectos explícitos e implícitos, manifiestos y ocultos, objetivos y subjeti-vos, lo

cuantitativo y lo cualitativo. Al hablar de los aspectos subjetivos en la Etnografía, ¿podría

pensarse en que "cualquiera podría decir cual-quier cosa como le parezca o perciba"?

Para aproximarnos a la respuesta, tendríamos que revisar la concepción que tiene la

investigación cualita-tiva acerca de lo subjetivo, de cómo lo subjetivo se convierte en el

término "significado" y de cómo se proce-de a investigar con estos aspectos.

Por una parte, lo subjetivo de la investigación etno-gráfica se manifiesta en tres

dimensiones. Una primera dimensión está conformada por los propósitos, motivos,

significados que definen la acción social propia de la persona. Una segunda dimensión la

conforma el promedio o común del grupo de personas. La tercera dimensión es el

significado que construye el investigador. En este con-texto de la subjetividad etnográfica,

algunos autores se expresan refiriéndose más bien a la intersubjetividad de tal forma que

la Etnografía personaliza el trabajo cien-tífico pues quien investiga participa directamente e

interactúa con las personas involucradas en la situación social que se estudia.

Al desarrollar su trabajo, el etnógrafo genera hipóte-sis o interrogantes que conectan los

estados subjetivos de los individuos y la acción social. Estas hipótesis se van precisando,

modificando y/o profundizando a medida que se avanza en el ciclo metodológico

etnográfico. De esta manera en el proceso de la investigación, cuando se asume un

aspecto subjetivo es porque es producto de un consenso metodológico.

Otro aspecto que caracteriza a la Etnografía es el de estudiar la cultura como unidad

particular. El propósito fundamental de un estudio etnográfico es descubrir una cultura o

una parte de ella dentro de una organización, partiendo de la observación de las

conductas que se evidencian en la interacción de las personas y descu-briendo el

significado cultural de tales conductas desde la óptica de los propios participantes y del

investiga-dor.

Además, la Etnografía utiliza un proceso cíclico de investigación. En dicho proceso, las

actividades pueden ser repetidas de acuerdo con la información que van arro-jando las

observaciones. Es posible avanzar al próximo paso sin haber resuelto todo lo que requiere

el anterior, ya que luego tendrá oportunidad de revisar, reajustar, modificar o completar

informaciones si así lo requiere el proceso. Este carácter cíclico hace que la investigación

no sea totalmente estructurada y preconcebida, por lo que podríamos decir que la

planificación de un estudio etno-gráfico es muy general.

Page 359: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 345

Asimismo, cabe resaltar la flexibilidad inherente a un estudio etnográfico. El investigador

puede emplear di-stintas técnicas de recolección de la información; no se requiere la

formulación de hipótesis prediseñadas, ni esquemas teóricos rígidos antes de iniciar el

estudio de campo. La teoría emerge de la propia realidad en forma espontánea. La

flexibilidad también se refleja en la postura del investigador quien trata de ignorar cualquier

idea preconcebida que pueda influenciar la interpretación de lo que observa. Esta

característica de flexibilidad en los estudios etnográficos ¿puede insinuar que vamos a

iniciar nuestro trabajo de campo sin haber logrado lo que entendemos por una

planificación del estudio? o ¿sugiere más bien que nos podemos permitir algunas

improvisaciones en la investigación?

El etnógrafo planifica su investigación en términos generales sobre el objeto de su estudio

(lo que va a investigar) antes de iniciar su trabajo de campo. Se plantea hipótesis o

interrogantes acerca del fenómeno con la certeza de que tendrá sucesivas oportunidades

para precisar, redefinir, reordenar y hasta reorientar su estudio, lo cual como ya hemos

dicho en párrafos anterio-res sintetiza una actitud distinta ante la investigación. Por lo

tanto, la flexibilidad en los estudios etnográfi-cos no debe entenderse como falta de rigor.

El rigor de los estudios etnográficos está dado por las reconstruc-ciones teóricas, por el

auto-reconocimiento del nivel en que se encuentra el trabajo y por la búsqueda de

coheren-cia entre las interpretaciones y la realidad.

4.4.4. ¿QUÉ ES "LO CIENTÍFICO"?

En relación con esta interrogante quizás resulte para algunos injustificada pues al hablar

de "verdad científi-ca" pareciera que todo el mundo está claro en lo que ello significa. Pero

realmente ¿hay consenso en qué es lo científico hoy en día? Tal vez, para muchos lo

científico se refiere aún a una verdad absoluta, indiscutible y generalizable que se

fundamenta en rigurosos tratamientos matemáticos y estadísticos que garantizan una total

objetividad y neutralidad por parte del investigador. Para quienes así creen no hay duda

posible al respecto. Sin embargo, para muchos otros lo científico no tiene necesariamente

que referirse a esa verdad inmutable. Ya numerosos investigadores están de acuerdo en

que lo científico no tiene por qué estar reñido con la subjeti-vidad humana, con sus

sentimientos y con los significados que la misma persona asigna a sus actitudes y

conductas. Con quienes así opinan nos hemos identificado.

Page 360: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 346

La reflexión sobre lo que es científico también po-dríamos orientarla sobre cómo se ha

venido hablando durante bastante tiempo acerca de "lo que debemos enten-der por

Ciencia", referida en casi todos los textos como la forma particular de descubrir y verificar

fenómenos al estilo de la ciencia positivista. También se nos ha enseñado que el

conocimiento científico es aquél obtenido únicamente por el "Método Científico" y cuando

se habla de este método se está refiriendo al método de la ciencia positivista.

A nivel de la práctica personal en la investigación, este saber adquirido es sometido a

confrontación al descubrir que hay otra manera de concebir la investiga-ción, la ciencia y

el método científico. Esto nos lleva a pensar sobre la legitimidad del conocimiento y de la

información recabada. ¿Es legítimo únicamente el conoci-miento obtenido mediante el

"método científico" antes referido? ¿Hacemos ciencia sólo cuando realizamos inves-

tigaciones bajo la óptica cuantitativa- positivista? Estas son algunas interrogantes que

surgen en este tema. Se trata entonces de reconceptualizar los términos Cien-cia, Método

y Conocimiento Científico tal como han sido definidos convencionalmente.

La experiencia que hemos comenzado a acumular en el ámbito de la estrategia

etnográfica nos ha permitido, por una parte, comparar el proceso emocional vivido en un

patrón de investigación básicamente racionalista que tiene por substrato el paradigma

cuantitativo de investi-gación socio- educativa y el que se vive al abordar el fenómeno

desde una perspectiva fundamentalmente cualita-tiva. Aunque cada caso es de vivencia

particular y muy propia, y por supuesto sin ánimos de pretender hacerla generalizable, en

el primer caso enfrentamos un proceso bajo tensión. Recibimos una serie de

observaciones antes de interactuar con la realidad a estudiar. Observaciones que, nos

atrevemos a asegurar, ha enfrentado cualquier principiante al abordar una investigación.

Esta vivencia podemos ahora compararla con un proceso emocional de menor tensión,

menos agresivo, más fluido, en el cual la identificación con el problema, con la literatura y

con la realidad natural a ser estudiada nos permite vivir una sensación menos conflictiva.

4.4.5. ¿QUÉ ES "LO OCULTO" EN UNA INVESTIGACIÓN?

Un primer aspecto importante a abordar cuando refle-xionamos sobre lo oculto en el

campo de la investigación es el referente a la concepción sobre "metodología".

Metodología designa el modo en que enfocamos los proble-mas y buscamos las

respuestas (Taylor y Bogdan, 1986: 15). (El subrayado es nuestro) En esta manera de

enfrentar los problemas están "ocultos" los elementos personales subyacentes que defi-

Page 361: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 347

nitivamente afectan la tarea de investigar. Por la plataforma filosófica donde se ubica la

Etno-grafía, que es el caso que nos interesa destacar, podemos decir que desarrollar una

investigación etnográfica involucra algo más que utilizarla como herramienta para describir

íntimamente las acciones sociales.

Una investi-gación de este tipo exige un compromiso con una manera de concebir al

mundo, a los problemas, a los fenómenos sociales, al sujeto (quien investiga) y al objeto

(lo investigado) susceptible de investigación. Este compromi-so que adquiere el

investigador etnográfico lo sumerge en un mundo pleno de interacciones y sentimientos en

el cual interviene con una doble responsabilidad: por un lado participar espontáneamente

sin distorsionar la manera natural de deselvolverse el grupo, y por otra descubrir e

interpretar lo más fielmente posible la dinámica que define significativamente el contexto

de ese grupo en particu-lar. Todo este panorama de interacciones está necesaria-mente

afectado por elementos implícitos, ocultos, no manifiestos.

Subyacente a esta manera comprometida de abordar los problemas está el esfuerzo que

supone asumir y apropiar-nos de una metodología distinta, considerando que hemos sido

formados en una metodología convencional. Este esfuerzo, ya lo hemos dicho, supone

despojarse de un modo de pensar y de abordar la información; supone despojarse de

esquemas que no siempre se adaptan a la situación socio-educativa que se estudia.

Preguntarnos sobre lo oculto en una investigación genera en nosotros otra interrogante.

¿Qué hace que un investigador seleccione una u otra metodología?. Además de razones

técnicas, académicas o de otra índole relacio-nadas con la investigación (como podrían

ser el tipo y alcance del problema, las condiciones apropiadas del escenario) por sobre

todas las razones se destacan los intereses, valores, sentimientos, supuestos y propósitos

personales del investigador. Estos elementos constituyen ese mundo oculto que a veces ni

el propio investigador vislumbra conscientemente. Son estos elementos no visi-bles los

que moldean la intención genuina del investiga-dor al enfrentar una realidad a través de

una determinada metodología.

Puesto que no siempre se da importancia a lo que llamamos "lo oculto" en una

investigación es por lo que deseamos reflexionar al respecto. En cada uno de los

momentos relacionados con el proceso de investigación están implícitos los sentimientos y

valores del investi-gador: desde que seleccionamos el problema y la metodolo-gía hasta

que producimos el informe final. Por supuesto esa dimensión oculta que se revela a través

de intereses, posturas, decisiones y acciones individuales se genera o está en clara

Page 362: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 348

conexión con un contexto social global en el que intervienen elementos académicos,

económicos, sociales, culturales, políticos, así como valorativos e ideológicos.

Es nuestro interés resaltar que lo importante para nosotros como investigadores es estar

lo más conscientes posible de la existencia y de la influencia de esas fuerzas ocultas o

implícitas, tanto al desarrollar una investigación como al interpretar los trabajos de otros

autores. Estar conscientes de que la neutralidad abogada y requerida en otros tiempos es

poco menos que imposible lograrla en una labor tan impregnada de nosotros mismos

como lo es investigar en el ámbito educativo.

4.4.6. ¿QUÉ ES "LO CUALITATIVO" Y "LO CUANTITATIVO"?

En la actualidad se discute ampliamente el plantea-miento de la existencia de dos

paradigmas de investiga-ción socio-educativa (algunos autores hablan de coexis-tencia,

otros de complementariedad, otros de ruptura entre ambos paradigmas) o de dos

perspectivas distintas "la cuantitativa" y "la cualitativa".

Ciertas expresiones que manejan los autores vienen a sintetizar la caracterización de cada

tendencia... Se habla de una perspectiva "cuantitativa" que se resume en "lo que sucede

es lo que el investigador dice que ocurre", mientras la perspectiva "cualitativa" se sinte-tiza

en "lo que sucede es lo que los participantes dicen que ocurre".

Trasladando estas premisas que definen a cada para-digma al ámbito educativo, se afirma

que las investiga-ciones cuantitativas son estudios realizados "sobre¨ educación, a

diferencia de las investigaciones cualitati-vas que se realizan "en" educación.

Sobre los señalados paradigmas también se ha argumenta-do que la investigación

cuantitativa utiliza una metodo-logía "externa" (el fenómeno es observado desde afuera) y

la investigación cualitativa una metodología "interna" (el fenómeno es observado desde

adentro).

Por otra parte, se asocia el origen de los paradigmas a posiciones filosóficas

contrapuestas. Se afirma que el paradigma cuantitativo emplea los supuestos

mecanicistas y estáticos del modelo positivista de las ciencias natu-rales, fundamentados

en el racionalismo, el realismo y el positivismo lógico. Mientras que el paradigma

Page 363: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 349

cualitativo posee un fundamento decididamente humanista para entender la realidad social

emanado de la posición idealista según la cual el mundo no es dado sino creado por los

indivi-duos que en él viven (Cook y Reichardt,1986: 62).

En resumen, "lo cuantitativo" se identifica con el número, lo positivo, lo hipotético-

deductivo, lo particu-lar, lo objetivo, la búsqueda de resultados generaliza-bles, lo confiable

y lo válido... Mientras que "lo cuali-tativo" se asocia con la palabra, lo fenomenológico, lo

inductivo, lo holístico, lo subjetivo, la interpretación de casos, lo creíble y lo confirmable.

En el caso particular de la Etnografía (como investi-gación cualitativa) se resaltan los

aspectos subjetivos sin despreciar lo objetivo (lo observable), no interesa generalizar,

tipificar, ni buscar muestras representati-vas sino contextualizar (el fenómeno depende del

contex-to), describir grupos en un escenario particular y natu-ral y en una situación

específica, no se garantizan los resultados en términos de validez ni confiabilidad sino más

bien se reporta en la información: su credibilidad (para hacerla aceptable), su

transferibilidad (relevante para el contexto), su dependencia (estabilidad de la

información) y su confirmabilidad (independiente del investigador la información es

confirmable).

Al ofrecer estas reflexiones sobre "lo cualitativo" y "lo cuantitativo", nuestra intención no es

evaluar cada paradigma. El propósito no es diferenciar cuál de los paradigmas es "el

bueno" y cuál es "el malo"... El plan-teamiento se orienta a que cada investigador tiene

liber-tad para seleccionar un paradigma de acuerdo con criterios técnicos y personales.

Creemos que en la decisión que tome estará reflejando su grado de compromiso el cual

involucra tanto los aspectos "manifiestos" como los "ocultos".

Asimismo, queremos considerar la manera como en la práctica se ha tratado de

diferenciar las investigaciones cualitativas de las cuantitativas. ¿Una investigación

descriptiva con datos cualitativos es una investigación etnográfica? ¿Qué hace que una

investigación se ubique en uno u otro paradigma, los datos, las técnicas, la metodo-

logía...? ¿Es igual la perspectiva para abordar el fenó-meno en uno u otro caso?

4.4.7. ¿QUÉ EXPERIENCIAS TENEMOS EN INVESTIGACIÓN ETNOGRÁFI-CA?

En el campo de la enseñanza de la Matemática en Educación Superior (Lidia Gutiérrez)

Esta experiencia es una inves-tigación etnográfica acerca de la Presentación y Apropia-

ción del contenido matemático en Educación Superior.

Page 364: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 350

4.4.8. ¿QUÉ ME PROPONGO CON ESTA INVESTIGACIÓN?

El estudio, pretende interrogar la realidad (entendiéndose en térmi-nos de la práctica

educativa) acerca de las formas de interacción comunicativa que se dan de manera

cotidiana en el aula de Matemática entre docente y alumnos. Me he planteado

interrogantes como las siguientes: ¿qué ocurre real y naturalmente en el aula de

Matemática?, ¿en qué formas las personas (docente y /o alumnos) presentan el contenido

matemático?, ¿cómo se apropian de este contenido?, ¿cuál es el significado que dan a la

acción de expresar, comunicar, interpretar e incorporar el contenido matemático?, ¿cuál o

cuáles teorías aportarían elementos interpretativos para comprender lo que sucede en la

práctica diaria del aula?

Para dar respuestas a estas interrogantes planteo el estudio de los patrones de

comportamiento individual, grupal y colectivo con respecto a los modos del habla,

repertorios verbales, roles y significados que permitan indagar sobre la estructura de las

interacciones comuni-cativas, de las tareas académicas y de las negociaciones que se

suceden en la práctica del aula universitaria de Matemática.

La manera propuesta para incursionar en la realidad es a través de técnicas de

investigación cualitativa como la observación "in situ" , la entrevista profunda, las

encuestas, los protocolos de análisis de interacción, en tres grupos de docentes y alumnos

aparentemente distin-tos.

4.4.9. ¿CUÁLES SON LAS VIVENCIAS OBTENIDAS?

De la aplicación de la metodología etnográfica reali-zada hasta los momentos, he podido

derivar algunas viven-cias. Una de ellas fue la apropiación gradual, reflexiva, consciente,

acerca de la manera de abordar la metodología en el trabajo de campo. El proceso lento

de asumir una actitud de observar sin descartar información, despojarme - en cierta

medida- de las preconcepciones sobre la enseñanza y el aprendizaje adquiridas durante

mi expe-riencia como docente, sentir apertura hacia lo que puede ocurrir en el escenario y

aceptación de lo que está ocurriendo aunque no haya sido previsto ni esperado. La lucha

interna de querer aplicar el sentido común a mis primeras interpretaciones y al evitar

adoptar una acti-tud evaluativa de lo que sucede en el escenario.

Otra experiencia que obtuve fue el descubrir la evolución que experimenta el observador

en el grupo, cómo afecta al inicio su incorporación en las acciones socia-les, lo importante

de explicar al grupo los propósitos de la investigación en términos muy generales, y cómo

Page 365: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 351

el grupo va aceptando al observador integrándolo a las actividades hasta demostrar

apertura para iniciar espon-táneamente una conversación. Estos aspectos podríamos

resumirlos en "aprender a vivir durante cierto tiempo en ese espacio ecológico

denominado aula como un observador". En este aspecto, es incalculable la relación de

ayuda que se establece con los actores (especialmente el docente) para poder cumplir con

el cometido.

Mi incursión en el ámbito de la investigación cualita-tiva me ha permitido la posibilidad de

trabajar en el campo educativo, con diversas técnicas de investigación diferentes en su

concepción a las tradicionales, así como ir tomando decisión sobre cuáles aplicar en un

momento determinado y descubrir las razones de tal selección.

En este sentido y en cuanto a la técnica de observa-ción aplicada obtuve una rica e

interesante experiencia al llevar registros ("el diario") y al revivir los even-tos con el fin de

organizarlos. Al mismo tiempo, he tenido la oportunidad de poner en práctica ciertas

mane-ras muy personales para ir llevando los registros de la información.

Una vivencia por demás emocionante ha sido descubrir la trama de las relaciones que se

dan cotidianamente en el aula y de las cuales los actores dentro de su rol quizás no se

percatan, y que yo desde mi perspectiva como observadora puedo apreciar con más

claridad.

Ciertamente, dentro de las cuatro paredes que confor-man el aula de Matemática se da

una variada gama de intercambios entre quienes protagonizan las acciones. Se manejan

significados matemáticos pero también de otra índole, y se manifiestan comportamientos

aprendidos al actuar con el contenido matemático. Al colocarme como observadora me

percato del protagonista complejo llamado docente, con fuertes tradiciones para actuar en

su prác-tica cotidiana del aula y del protagonista complejo llamado alumno que participa

con su silencio o su palabra en la construcción social del conocimiento escolar.

La experiencia etnográfica que aquí presento me ha permitido comenzar a ver el

aprendizaje dependiente del contexto social y no sólo de las ideas previas de los actores y

de su posibilidad de evolucionar en el medio que le rodea. Por otra parte, estoy

confrontando la paradoja educativa según la cual "no hay lugar más artificial para aprender

que el aula". Definitivamente, el escenario del aula resulta un ambiente artificial de vida en

el que domina un contexto escolar con normas establecidas y condiciones de trabajo que

limitan y deforman la puesta en práctica del verdadero aprendizaje.

Page 366: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 352

Aplicar la metodología etnográfica también constituyó para mí un esfuerzo al tratar de

desenvolverme cumpliendo con las expectativas de los actores. Resulta de interés las

posibles interrogantes que surgen entre quienes rodean al investigador, así como las

expectativas de los actores y la forma de manifestarlas. En ocasiones algunos preguntaron

¿Qué es eso de "cualitativo"?, ¿Cómo es esa investigación que usted está haciendo?,

¡Profeso-ra, usted sí escribe! Además, me ha resultado un ejerci-cio interesante aprender

a satisfacer las expectativas de actuación, manejar sugerencias como observadora en el

aula y al mismo tiempo procesar y decidir cuáles recomen-daciones de los manuales de

etnografía se pueden poner en práctica en ese escenario específico.

4.4.10. ¿CUÁLES SON MIS EXPECTATIVAS?

Por supuesto que en este inicio de práctica etnográfi-ca quedan inquietudes, dudas,

aspectos por superar. Una inmediata, en mi caso particular, es superar la incerti-dumbre

de cómo será posible derivar conceptos teóricos del análisis de la información obtenida.

Otra de mis inquietudes, a esta altura del proceso etnográfico que he venido

experimentando tiene relación con la thesis por demostrar en la investigación. Esta

expectativa supone el compromiso de asumir una posición en cuanto a la forma de

abordar la práctica escolar de la Matemática desde la perspectiva de los complejos inter-

cambios socioculturales. Mi principal aspiración es demostrar que cada grupo de

participantes (conformados por docente y alumnos) ubicados en un determinado escena-

rio, de un instituto particular, y reunidos en torno a un quehacer matemático desarrollan

una manera de interacción propia que se traduce en lo que denomino "cultura del aula de

Matemática".

Una última aspiración es llegar a mostrar cómo la Etnografía plantea una metodología

asequible de utilizar en el campo educativo y apropiada para indagar sobre situaciones

socio-educativas que pretendan descubrir, describir, interpretar, los sucesos en un

determinado contexto.

4.4.11. EN EL CAMPO DE LOS VALORES EN EDUCACIÓN SUPERIOR (LOURDES DENIS)

Deseo aclarar que mi inclinación hacia la tarea de investigar siempre ha girado en torno a

un mismo tópico: los Valores y la Educación. Tengo la secreta aspiración de poder

conformar, en un futuro cercano, una línea de investigación sobre dicho tema.

Page 367: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 353

El caso particular que interesa reseñar en este momen-to es él referente a la experiencia

que tuve en ocasión de preparar un trabajo para el Simposio sobre Educación, Ética y

Valores, el cual se desarrolló en el Instituto Pedagógico Rural "El Mácaro" (Turmero) en

mayo de 1991. El referido trabajo se titula ¿Qué valores subyacen en el discurso

universitario? Reflexiones en torno a una experiencia. No se trata de hacer énfasis en el

contenido del mismo, sino más bien referirles qué experimenté yo como investigadora al

utilizar la vía etnográfica para abordar el tema particular de los valores presentes en el

discurso universitario. Para cumplir este propósito debo puntualizar primero cómo fue

estructurado el contenido.

El documento contiene una parte introductoria referida a Supuestos, Premisas y

Conceptos básicos, en la cual se exponen los fundamentos del trabajo. Asimismo, incluye

una parte básicamente teórica en la cual se pretende abordar la dimensión valorativa que

subyace en el discur-so universitario, en términos generales. Por último, una parte de

carácter más práctico en la cual se da a conocer los resultados de un ejercicio de

investigación a nivel micro a partir del cual se realizan algunas reflexiones. La situación

objeto de estudio se centra en el primer proceso de elecciones que se efectuó en la

Universidad Pedagógica Experimental "Libertador”, caso Instituto Pedagógico Rural "El

Mácaro", durante los meses abril-mayo de 1991, con el fin de elegir las autoridades inter-

nas que regirían en los próximos años.

Cabe aclarar que la primera decisión que enfrenté fue seleccionar el escenario y los

actores a considerar en el estudio. Pudo haber sido, y así lo llegué a pensar, el escenario

del aula el cual podría constituir el más natural y expedito para detectar qué valores están

pre-sentes en el discurso universitario. Sin embargo, consi-derando la situación particular

generada en el ambiente macarino al experimentar el primer proceso eleccionario para

elegir a sus propias autoridades, sentí que lo más significativo en ese momento, lo más

importante para los actores (personal del Mácaro), era precisamente ese evento tan

novedoso y trascendente para la vida institu-cional. Focalizar tal proceso podría constituir

una fuente interesante y significativa de la realidad valora-tiva que deseaba abordar, y

efectivamente así fue.

Esta primera decisión que enfrenté al iniciar mi estudio etnográfico, puede ilustrar el hecho

de que el investigador en todo momento debe tomar decisiones, como lo hacemos

también en la vida cotidiana, y que tales decisiones están irremediablemente afectadas

por factores como: intereses, propósitos, sentimientos y valores del propio investigador,

Page 368: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 354

los cuales son parte de ese mundo oculto, no manifiesto e implícito, presente en toda

investigación y en toda acción humana. Creo que lo más importante, en el caso de la

decisión referida, es tratar de seleccionar lo que el investigador, guiándose por lo que

evidencie la situación, considere como los eventos más trascendentes y más significativos

de la realidad a estudiar. Otro aspecto que también deseo relatarles es cómo me sentí

durante el proceso de recolección de la informa-ción.

Realmente fue una experiencia que podría calificar de emocionante, no sólo por el interés

que generó en mí realizar esa tarea en el poco tiempo disponible, sino además porque

requirió desempeñar un papel que hasta ese momento no había vivido, como lo es el rol

de "detective". Cuando me reunía con uno o varios compañeros de trabajo (en un pasillo,

una oficina, el cafetín, el patio o fuera de la institución) para comentar sobre la situación

de las elecciones en "El Mácaro" trataba de captar sus opiniones y comentarios.

En esos encuentros, que a veces eran formales y otras veces informales, llegué a

conversar con docentes y estudiantes, y con empleados administrativos y obreros. Luego,

hacía anotaciones tratando de ser lo más fiel posible a las expresiones empleadas en la

conversación, incluyendo las mías, a la vez que anotaba algunos comentarios personales

acerca de cómo era la actitud de las personas, qué gestos hacían , en qué lugar nos

encontrábamos, fecha y hora.

Conviene aclarar que debido a la premura que tuve para recabar la información y por las

características del evento observado (proceso de elecciones) no aclaré en un primer

momento mi propósito; nadie sabía que sus comen-tarios yo los registraría en una libreta.

Actitud ésta contraria, debo confesarlo, a la que recomiendan quienes defienden la

investigación cualitativa.

Sabemos que por razones éticas, el investigador debe aclarar en términos generales su

objeto de estudio así como la estrategia de observación que será empleada. No obstante,

la situación tal como se presentó no me permi-tía (así lo experimenté en ese momento)

aclarar el propó-sito de mis notas; las cuales, por supuesto, forman parte de un archivo

estrictamente personal, debidamente res-guardado, en el que los nombres de las

personas aparecen en clave.

Este detalle, aunque parezca intrascendente, creo que es necesario preverlo y cuidarlo

pues la inten-ción de un estudio etnográfico no es comprometer o afec-tar a personas que

simplemente están actuando de manera sincera y espontánea, con toda la carga de

criticidad y confianza que puede generarse en conversaciones entre compañeros de

Page 369: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 355

trabajo. Siento él deber de decirles que me sentí como una espía, en el más sano sentido

del térmi-no, ya que aquello que con disimulo iba observando y escuchando no lo

comunicaba a terceros, sino lo anotaba para luego procesarlo en un contexto global

institucional sin identificar nombres ni situaciones.

A veces en forma simultánea y, en ocasiones, después de esta primera fase que les he

presentado, fui recabando toda la información escrita que se produjo durante el proceso

eleccionario. En este caso sí aclaré que esa información la usaría en un trabajo que

estaba realizan-do. Con la ayuda de algunos compañeros y estudiantes obtuve los

mensajes propagandísticos emitidos en la campaña de los candidatos así como los

comunicados, boletines, anónimos, programas de acción, escritos indi-viduales y grupales,

emanados de diversas instancias dentro de la propia institución. Es bueno recordar que

siempre mi propósito fue descubrir, en toda la informa-ción oral, escrita y "paratextual"

recabada, los mensajes valorativos presentes en el discurso universita-rio.

Durante las dos primeras fases del estudio fui entrevistando a catorce informantes claves.

Esta cantidad parece exagerada si consideramos lo que recomiendan algunos autores. En

realidad conversé con esos informan-tes claves (diez docentes, dos estudiantes, una

secreta-ria y un obrero) sólo en una o dos oportunidades para pedirle aclaratoria de algún

comentario que habían emitido. Esta parte me resultó interesante porque me permitó

confrontar mi percepción con la de esas personas, y debo aclarar que en casi todos los

casos mi interpretación coincidió con el significado de lo que quiso decir la persona

entrevistada. Creo que ello se debió a que son mis compañeros de trabajo con quienes a

diario me comuni-co y conozco de cerca sus maneras de pensar.

Un aspecto que tuve oportunidad de comprobar es el carácter cíclico y flexible de la

investigación cualita-tiva. A la hora de redactar el informe me fui percatando que "sobre la

marcha" había ido de atrás hacia adelante y de adelante hacia atrás. En la práctica no

siempre pude delimitar o diferenciar totalmente una fase de otra, especialmente las fases

2 y 3.

Tengo que reconocer que en ocasiones hubo falta de profundidad en ciertas fases del

proceso, específicamente en lo relativo a comprobar la credibilidad de algunas de las

informaciones recabadas. No realicé rigurosamente el proceso de triangulación sugerido

por la metodología etnográfica. Por todo lo que les he relatado se habrán percatado de la

serie de "dolencias" o "carencias" que tiene ésta mi primera investigación etnográfica, así

Page 370: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 356

como de las satis-facciones que experimenté al ejecutarla. Me he propuesto introducirle

algunas mejoras y completarla con el objeto de una posterior publicación.

Espero que mi modesto esfuerzo haya servido de ilus-tración a quienes están interesados

en transitar el agradable sendero de la investigación cualitativa a través de la vía

etnográfica. Recordemos que todo estudio etnográfico es cualitativo, más no toda

investigación cualitativa es etnográfica. En efecto, Evelyn Jacob (1987) distingue cinco

tendencias representativas dentro del paradigma cualitativo: a) Psicología ecologista, b)

Etnografía holista, c) Antropología cognitiva, d) Etno-grafía de la comunicación, y e)

Interaccionismo simbóli-co.

Por mi parte, esta experiencia me permitió hacer un primer intento de abordar la realidad

desde una perspec-tiva distinta a la empleada en ocasiones anteriores. Realmente no

resulta fácil enfrentar la realidad para comprenderla e interpretarla tal como se nos

manifiesta, involuntariamente hay la tendencia a evaluar o juzgar la situación analizada

pero éste no ha sido nuestro propósi-to. Además tuve oportunidad de verificar que la

etnografía es una alternativa metodológica válida para enfrentar casos tan particulares

como el proceso de elecciones en una institución educativa. Ya teníamos referencia de

que ha sido empleada, por ejemplo, para descubrir la forma de saludarse de las personas,

las relaciones padre-hijo, las inquietudes de los adolescentes, los problemas emociona-

les, la amistad como situación social, la realidad de un mercado de las pulgas,... Todo ello

nos da una idea del uso multidisciplinario de la Etnografía.

Agradezco la atención que hayan podido prestar a mi relato y espero que para aquellos

que tengan la intención de iniciarse o se estén iniciando en el campo cualitativo esta

exposición les proporcione algunas pistas.

Nos damos por satisfechas si nuestras reflexiones han contribuido a aclarar algunos

conceptos así como a gene-rar inquietudes y estusiasmo hacia la investigación cualitativa

encauzada por la vía etnográfica.

4.4.12. REFERENCIAS

o Castillo, V. (1984). Situaciones sociales y Observación participante. Paradigma, V

(5),7-19

o Cook, T.D. y CH. S. Reichardt (1986). Métodos cualita-tivos y cuantitativos en

Investigación Evaluativa. Madrid: Morata

Page 371: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 357

o Denis S., L. (1991, Mayo). ¿Qué valores subyacen en el discurso universitario?

Reflexiones en torno a una experiencia. Ponencia presentada en el Simposio sobre

Educación, Ética y Valores, El Mácaro-Turmero

o Gutiérrez, L. y Denis, L. (1989). La Etnografía como metodología de investigación.

Trabajo no publicado, Universidad Nacional Experimental "Simón Rodríguez",

Caracas

o Gutiérrez, L. (1990, Junio). Paradigmas Cuantitativo y Cualitativo en la

Investigación Socio-educativa: Pro-yección y Reflexiones. Charla presentada en el

Curso sobre Diseño de Proyectos de Investigación, Escuela de Aviación Militar,

Maracay. (Incluido en este mismo número de Paradigma).

o Gutiérrez, L. (1990). Presentación y Apropiación del contenido matemático en

Educación Superior. Proyecto de investigación. Trabajo no publicado. Universidad

Nacional Experimental "Simón Rodríguez", Caracas

o Jacob, E. (1987). Qualitative Research Traditions: A review. Review of

Educational Research, 57 (1), 1-50

o Martínez, M. (1990) La investigación cualitativa etnográfica en Educación. Manual

teórico-práctico.

o Montero, M. (1984). La investigación cualitativa en el campo educativo. La

educación, 96, 19-31

o Taylor, S.J. y R. Bogdan (1986) Introducción a los Métodos Cualitativos de

Investigación. La búsqueda de significados. (Jorge Piatigorski, Trad.) Buenos Aires:

Paidós.

o Sitios en el Web de investigación:

o http://investigacion.jumpeducation.co...

o http://www.orbitas.com/mall/store203/...

o http://www.geocities.com/CapeCanavera...

o http://www.orbitas.com/mall/store203/...

o http://asesoria.orbitas.com/investiga...

Page 372: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 358

4.5. INVESTIGACION-ACCION PARTICIPATIVA

José Luis Moreno Pestaña y Maria Angeles Espadas Alcázar

Las relaciones entre dirigentes y dirigidos en los movimientos de emancipación popular se

han representado de muy diferentes formas. Entre la "sequedad" del Lenin de ¿Qué

hacer?, declarando que la conciencia revolucionaria sólo podría ser introducida desde el

exterior a unos trabajadores instintivamente conciliadores, y la "calidez" de unos

movimientos alternativos que vieron en el establecimiento de una vanguardia dirigente los

fermentos de una nueva relación de dominación, la disputa, en diferentes versiones, nunca

se ha dirimido. Ni el autoproclamado vanguardismo (lejos por otra parte del primer

bolchevismo) ni el espontaneísmo que atribuye potencial suficiente al saber explícito de

los explotados sobre su condición, han resultado jamás satisfactorios.

A mitad de camino entre las exigencias del saber teórico y las enseñanzas de la

movilización popular, la investigación-acción participativa propone una nueva aportación al

problema de cómo el saber puede proporcionar poder a los que carecen de él sin injertar

durante el proceso nuevas relaciones de sojuzgamiento. Lo hace desde ámbitos

específicos, relacionados todos con lo que podríamos abreviar como el problema de una

pedagogía que persiga la destrucción de los roles iniciales entre el enseñante y enseñado

(desde la educación al Trabajo Social, pasando por la acción política). La investigación-

acción participativa persigue el modo de eliminar los privilegios del maestro o el dirigente

sin desperdiciar por el camino el capital de autoridad racional sobre la que hacía

descansar parte de su preeminencia.

Procederemos, primero, a ofrecer algunos rasgos de su amplia base filosófica para ofrecer

a continuación un esbozo de ciertas fases que articulan su metodología. Dado que la

investigación-acción participativa no pretende ofrecer tecnologías que produzcan

resultados automáticos, debido a que somete a una crítica radical las implicaciones

epistemológicas y éticas de la concepción del espacio de intervención como escenario de

un proyecto de amaestramiento, dichas fases destacan por estar sobrecargadas

teóricamente de precauciones. Derivan éstas de un magma filosófico que permite a los

teóricos de la investigación-acción participativa incorporar una notable y nada común

autoconciencia epistémica.

Page 373: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 359

4.5.1. CONCEPTO

No resulta sencillo delimitar el concepto de investigación-acción participativa (IAP). La

investigación-acción en su primitiva delimitación por Kurt Lewin remitía a un proceso

continuo en espiral por el que se analizaban los hechos y conceptualizaban los problemas,

se planificaban y ejecutaban las acciones pertinentes y se pasaba a un nuevo proceso de

conceptualización. La manera en que Lewin concebía ese proceso estaba aún cargada de

supuestos elitistas y de concepciones del cambio social alucinadas con la eficacia de la

acción instrumental (Carr, Kemmis, 1988: 175-177). Por su parte, los profesores Lourdes

Merino y Enrique Raya proponen establecer diferencias entre investigación-acción e

investigación-acción participativa, situando a la primera como una aplicación del método

científico a un problema con voluntad praxeológica y con cierta participación de los

afectados (Merino, Raya, 1993: 5).

La IAP aparecería entonces como un tipo de investigación-acción que, incorporando los

presupuestos de la epistemología crítica, organiza el análisis y la intervención como una

pedagogía constructiva de disolución de los privilegios del proceso de investigación como

punto de partida para un cambio social de alcance indeterminable. Esa búsqueda del

conocimiento se caracteriza por ser colectiva, por proporcionar resultados cuya utilización

y gobierno corresponde a los propios implicados, que deben haber determinado el proceso

de conocimiento a la vez que experimentado en el mismo un proceso de maduración

colectiva (De Miguel, 1993, 97-101). Por otra parte, y esta cuestión es central, los

iniciadores de la IAP se previenen contra su propio poder concibiéndose "como

participantes y aprendices en el proceso, aportando sus conocimientos y convirtiéndose

también en objeto de análisis" (IOE, 1993: 69). Los investigadores entran así en un

proceso en que la objetivación de sí mismos, en una suerte de inagotable sociología del

conocimiento, se convierte en testigo de la calidad emancipatoria de su actuación

(Rahman, 1991: 34).

4.5.2. PRESUPUESTOS EPISTÉMICOS

Los teóricos de la Investigación-acción participativa se reclaman de una múltiple

inspiración teórica: Marx y Freud, Gramsci y Dewey, Habermas y Foucault, Jesús Ibáñez y

T. Kuhn, Edgar Morin y Paulo Freire, Kurt Lewin y Orlando Fals Borda. No podemos

realizar una selección de las aportaciones de éstos, ni sería muy útil en una entrada de

Page 374: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 360

este tipo. En lo que sigue intentaremos delinear los supuestos epistemológicos que nutren

la investigación-acción participativa desde determinados radicales básicos.

4.5.2.1. RELACIÓN SUJETO-OBJETO

La IAP reniega de la separación sujeto-objeto tal como ha sido planteada en la teoría

tradicional del conocimiento por razones tanto epistémicas como ético-políticas. Respecto

a lo primero la mayoría de los teóricos rubrican, sin duda, con la reciente filosofía de la

ciencia, la tesis de que la conciencia del investigador forma parte del sistema

experimental, y, con Sartre (1960: 46-50), que la conciencia únicamente puede adquirir

nuevas perspectivas si es capaz de embarcarse en una praxis diferente. Una realidad

social de opresión no sólo es imposible de captar desde una objetividad pura, sino que el

proceso de aprehensión de la misma se desarrollará en una u otra dirección en función de

la práctica social en que la conciencia se encabalga confirmándola y/o transformándola.

Es imposible, por ejemplo, desvelar el carácter alienante de la educación tradicional sin

embarcarse en una práctica alternativa que pruebe la posibilidad de otros procesos de

aprendizaje por el camino en que se transforma el anterior.

4.5.2.2. TOMA DE CONCIENCIA

Estrictamente relacionado con lo que acabamos de exponer se encuentra el problema de

la toma de conciencia. Toda teoría de la concientización se apoya, de algún modo, en una

teoría marxista de la ideología y, por tanto, en la posibilidad de configurar una

representación del mundo verdadera frente a otra falsificada. La mayoría de los teóricos

de la investigación remiten a la teoría de los intereses del conocimiento establecida por

Jürgen Habermas. Para el autor de Conocimiento e interés existen un tipo de ciencias

dirigidas por un interés de emancipación.

Mientras las ciencias empírico-analíticas construyen el mundo como unidad legaliforme

desde el que organizar su sometimiento y las ciencias histórico-hermenéuticas como un

espacio simbólicamente dotado de sentido dialógicamente asimilable, las ciencias sociales

críticas median ambos paradigmas mediante la utilización de la autorreflexión. Por un lado,

conciben la existencia de determinaciones sociales que actúan con fuerza de ley, por otro,

sitúan en las condiciones iniciales que hacen posibles semejantes regularidades la

conciencia oscurecida como el conductor fundamental del determinismo. Al establecer las

condiciones iniciales de las leyes sociales como espacio de coacción inconsciente,

Page 375: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 361

Habermas sitúa la autorreflexión sobre lo que nos constituye como previo necesario de un

cambio social, que aún puede abortarse por el miedo derivado de la amenaza directa de

violencia.

Este interés autorreflexivo puede ser interpretado como una nueva rehabilitación del sueño

hegeliano y lukacsiano de un lugar epistemológico absoluto como guía para la IAP.

Semejante peligro ha sido eliminado por alguno de sus más capaces defensores por el

énfasis, no en el sueño de una transparencia completa, sino en el valor formativo de un

proceso autorreflexivo inacabable: "encontrar la belleza de la artesanía popular en la

construcción participada en las ciencias sociales. Es decir, no en el resultado final, pulido y

perfeccionista, sino en la textura y el pulso, que muestran la viveza del proceso, su

práctica"(Villasante, 1993 : 25).

4.5.2.3. PARTICIPACIÓN

La participación ha sido propuesta por teóricos de las ciencias humanas como mecanismo

de prevención y difuminación de los conflictos sociales. Desde la psicología "humanista"

de los 50 a la nueva empresa toyotista, la participación consiste en la incorporación activa

de los implicados a un proyecto cuya dirección estratégica se encuentra definida de

antemano.

Desde la IAP se considera ésto un simulacro de la verdadera participación (Gianoten, de

Wit, 1991: 95). La participación no puede confundirse con una simple preocupación por

encontrar el apoyo reflexivo de los implicados para los objetivos de conocimiento e

intervención delineados por un dispositivo exterior a ellos. La IAP tiene cuidado de

diferenciarse de todas aquellas llamadas a la participación basadas en la asimilación

acrítica de un marco global de partida con el que se propone compromiso. La participación

que reclama la IAP no es simple movilización, sino recapitulación sobre el conjunto de

procesos que condicionan la vida social de un colectivo determinado con el objetivo de

acometer una eventual modificación de los mismos.

Por supuesto, esto supone una específica relación entre los dirigentes y los dirigidos. En la

IAP los dirigentes tienen (a la manera del Estado revolucionario según Lenin) como primer

objetivo su desaparición, por lo que cada una de las fases -como veremos a continuación-

no culmina sin que se haya avanzado en la capacidad de autogestión de los colectivos

sociales implicados. En la IAP, la acción transforma al "enseñante" en facilitador y

catalizador. Con el último concepto se refiere a la inteligencia para provocar una reacción

Page 376: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 362

reflexiva en la comunidad que se estudia, con el primero a la necesidad de ir

proporcionando elementos de reflexión y análisis a los implicados sin prefigurar

totalitariamente los problemas de reflexión o los objetivos de acción que los mismos elijan

(Rahman, 1991: 27-28).

La concepción de la participación en la IAP debe evitar tanto el peligro elitista como la

apuesta por un diálogo oscurecido ante las desigualdades reales de los sujetos que entran

en comunicación. Frente al sueño vanguardista o el libertario-liberal, la IAP propone

establecerse en el espacio abierto por una contradicción sólo clausurable tendencial y

temporalmente . En palabras de Paulo Freire (1970: 108): "el hombre dialógico tiene fe en

los hombre antes de encontrarse frente a frente con ellos. Esta, sin embargo, no es una fe

ingenua. El hombre dialógico que es crítico sabe que el poder de hacer, de crear, de

transformar, es un poder de los hombres y sabe también que ellos pueden, enajenados en

una situación concreta tener ese poder disminuido. Esta posibilidad, sin embargo, en vez

de matar en el hombre dialógico su fe en los hombres se presenta ante él, por el contario

como un desafío al cual puede responder. Está convencido de que este poder de hacer y

transformar, si bien negado en ciertas situaciones, puede renacer. No gratuitamente sino

en la lucha por su liberación".

La apuesta por una democracia participativa radical podría hacer a la IAP sospechosa de

un idealismo que desconoce las dificultades de concebir una sociedad compleja como un

sujeto que se autorregula a sí mismo. Huyendo de semejantes objetivos desaforados, uno

de los promotores centrales de la IAP, Orlando Fals Borda (1991: 12-13), ha insistido en la

referencia a una utopía realista ("un Estado con menos Locke y más Kropotkin") ajena

tanto al socialismo de Estado y la simplicidad ultraizquierdista como a la democracia de

competencia entre partidos del capitalismo tardío. La IAP parecería conectar, así, con

algunos de los rasgos distintivos del arsenal político configurado durante los años 70 y 80

de nuestro siglo por lo que se denominó como nuevos movimientos sociales (ver entrada Movimientos populares y conciencia social).

4.5.2.4. REDESCUBRIMIENTO DEL SABER POPULAR

La existencia de una diferencia entre los lugares de extracción de conocimiento y los de su

utilización demuestra cómo las ciencias sociales se entreveran en prácticas de opresión.

Las exigencias de una reapropiación del conocimiento deriva de la vocación

participacionista de la IAP. Sin embargo, las llamadas a la rehabilitación del saber popular

Page 377: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 363

no tienen sólo el sentido de proporcionar a los grupos sociales dominados capacidad para

conocer las claves que rigen sus vidas. Los defensores de la IAP buscan el desarrollo y la

potenciación de los saberes que configuran la vida cotidiana de las gentes. Desde la

certeza, claro está, de que puede rescatarse allí una riqueza sobre el mundo despreciada

y minorada por los supuestos hegemónicos acerca de la producción, la posesión y la

aplicación del saber.

Esta cuestión se presta a confusión. La IAP se ha practicado, a menudo, en sociedades

excluidas de las sociedades capitalistas más desarrolladas, y las apelaciones al saber

popular están cargadas de cierta melancolía ensoñadora de la cultura campesina y del tipo

de estrecha experiencia simbólica característica de las estructuras comunitarias

tradicionales. Por sensato que pueda ser la dignificación de las culturas precapitalistas,

late en todo ese tipo de apelaciones cierto naturalismo ingenuo. Es cierto que la IAP

requiere formas de agregación popular con relaciones vitales distinguibles de la relación

de maximización competitiva que caracteriza nuestra vida cotidiana (Park, 1992: 168),

pero sería un error teóricamente miope y políticamente paralizante desechar a las

sociedades occidentales como lugares donde resulta posible desarrollar la IAP (Gaventa,

1991: 167-169).

Cabe entender la cuestión del saber popular desde ópticas menos proclives a las

idealizaciones de la cultura preindustrial. La primera es utilizar la noción de rescate del

saber popular como forma de discernir los elementos emancipatorios (inevitablemente

compuestos con otros opresivos) que penetran toda manifestación cultural humana, desde

la curandería popular al rap, desde el futbol a la exigencia por parte de los alumnos de

clases magistrales. Redescubrir el saber popular funcionaría así como un referente

heurístico que exigiría a los investigadores buscar las energías a catalizar en la propia

existencia social de los grupos oprimidos, evitando dejarse llevar por ese aristocratismo

epistemológico con el que la izquierda se hace elitista para esconder su miserable (y

culpable) impotencia.

El rescate del saber popular podría revelar una exigencia doble para la IAP inspirable en el

materialismo de Walter Benjamin (Buck-Morss, 1995: 143, 236): la necesidad de partir de

los deseos y los conocimientos (a menudo inconscientes) sociohistóricos existentes para

conceptualizar cualquier proyecto (que si es de transformación, dirige a lo que no existe

aún). Esta necesidad debe acompañarse de otra; la de eliminar el modo en que el deseo

popular queda encapsulado por las formas opresivas y muertas en que se expone

Page 378: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 364

cotidianamente (la necesidad de solidaridad se transmuta en tribalismo futbolístico o

étnico, la de dignidad en chulería desafiante...). El redescubrimiento del saber popular

tendría entonces que ver con el reencuentro con las capacidades individuales y colectivas,

emotivas y cognitivas, adquiribles en plurales procesos de socialización (también en los

del capitalismo tardío), desde las cuales los sujetos evalúan su experiencia social y a cuyo

fardo cualquier propuesta de cambio social ha de dirigirse para encontrar elementos de

apoyo (Honneth, 1997) si no quiere elevarse sobre el vacío (Sobre este tema consultar las

entradas Ciencia social, conocimiento espontáneo y sentido común, Discurso académico/discurso vulgar).

4.5.2.5. CIENTIFICIDAD

El redescubrimiento del saber popular, las exigencias de un conocimiento ligado a las

personas que configuran su contexto de surgimiento, permite que la literatura de la IAP

rehabilite ciertos tópicos confusos sobre la ciencia popular en una curiosa composición de

posmodernismo y lyssenkismo. Ciertos teóricos de la IAP parecen utilizar la orientación

antipositivista de la filosofía de la ciencia dominante, para reclamarse de una ciencia

alternativa al "monopolio positivista presente (sic), al etnocentrismo de la ciencia

occidental y a la tecnología de destrucción" (Fals Borda, 1991: 197). De ahí se ha inferido

que cada ciencia crea su mundo y sus métodos de validación, con lo cual una ciencia

orientada por un interés emancipatorio podría disponer de estructuras de conocimiento y

de formas de verdad distintas e incompatibles a las de la ciencia positivista (Fals Borda,

1991: 13).

La introducción en la idea de una ciencia social crítica de reverberaciones de los luctuosos

sueños de una ciencia proletaria haría revolverse en su silla a alguien tan sobrio

epistemológicamente como Jürgen Habermas, inspiración básica de la IAP (1994: 178-

180, 1990: 22). El abandono de controles epistemológicos basados en una cierta noción

de objetividad, deja sin valor cualquier práctica cognoscitiva orientada por una crítica de

las ideologías que, de hecho, organiza múltiples aportaciones relacionadas con la

investigación-acción (Kemmis y Mc Taggart, 1988). Esto haría al investigador defender en

la teoría lo contrario de lo que supone en la práctica, siempre conducida por un interés,

implícito o explícito, en la verdad.

Dejando a un lado la discusión sobre la teoría de los intereses del conocimiento, la

solución estriba en cambiar de tercio. El problema está mal planteado metiéndose en un

Page 379: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 365

terreno que reaviva los peores traumas del movimiento emancipatorio en este siglo

(Moreno, 1997). La IAP necesita de la objetividad para que sus apuestas de

transformación moral de la realidad correspondan a tendencias y potencialidades reales

de un momento histórico determinado. Cuantos más controles ayuden a evitar la

deformación del acercamiento pluridimensional de los interesados a su propia realidad,

tanto mejor para ellos y para sus proyectos emancipatorios.

La IAP no debe pretender ser una "nueva ciencia social", ni presumir de aportar un

presuntuoso conocimiento alternativo, aunque la selección de sus "objetos" (las causas de

la opresión) y la actividad de éstos (gobierno del saber por los propios interesados y

productores del mismo), tenga poco que ver con lo que sucede en los laboratorios

científicos o los gabinetes de investigación social dirigidos por el Estado o el Capital. La

relación entre el "sujeto" y los "objetos" es tan diferente en el ámbito de la IAP porque el

suyo es el ideal de la praxis y no el de la episteme, es decir, no el del control de una

realidad fijada por relaciones causa-efecto, sino el de la organización moral de una

realidad para la que no hay más reglas que el diálogo prudente entre seres humanos libres

(Habermas, 1991: 50-86). Tal es el imprescindible objetivo asintótico de toda actividad

humana que, cuando se quiere emancipatoria, pasa a descansar más sobre la filosofía

moral y política que sobre sobre una epistemología, sin la que, sin embargo, sería una

simple rabieta sin base alguna.

4.5.3. ASPECTOS METODOLÓGICOS

Como hemos visto en el apartado anterior la IAP se articula diferenciadamente del método

científico convencional, ya sea instrumental o interactivo (Park, 1992 : 141-149) En este

sentido, el esquema metodológico o modo de organizar la investigación por el que se

guían tales perspectivas -generalmente lineal, mas o menos rígidamente pero muy

estructurado, diseñado desde arriba por los expertos- no puede ser válido para producir un

tipo de conocimiento que persigue ser crítico, reflexivo, colectivo, participado,

emancipador.

Pero aún mas, la IAP no termina en la producción de conocimientos, sino que pretende

actuar frente a las realidades sociales, transformandolas desde el protagonismo de los

actores: "no es una preocupación principal la obtención de datos o la constatación de

hechos de manera única y excluyente... Lo prioritario es la dialéctica que se establece en

los agentes sociales, entre unos y otros, es decir la interacción continua entre reflexión y

Page 380: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 366

acción, ... una visión pragmática del mundo social, donde lo fundamental es el diálogo

constante con la realidad para intervenir en su transformación" (Guerra, 1995).

Así pues, el hilo conductor de la IAP debe plantearse como un proceso cíclico de reflexión-

acción-reflexión, en el que se reestructura la relación entre conocer y hacer , entre sujeto y

objeto de manera que se vaya configurando y consolidando con cada paso la capacidad

de autogestión de los implicados. Bajo esta perspectiva es imposible e inconveniente crear

un modelo o esquema metodológico cerrado, a modo de recetario, que nos vaya

marcando el paso de lo que debemos hacer en cada momento. Mas bien debemos

plantear algunos criterios que nos hagan avanzar en la creación de "un contexto

investigativo mas abierto y procesual de modo que los propios resultados de la

investigación se reintroduzcan en el mismo proceso para profundizar en la misma"

(Villasante, 1994 ).

Algunas líneas clarificadoras que pueden orientar acerca de lo que requiere un proceso de

IAP, las encontramos en los diseños de experiencias concretas llevadas a cabo por

distintos investigadores ( Park, Villasante, López de Ceballos, entre otros), de las que

presentamos aquí un intento de síntesis.

4.5.3.1. ETAPA INICIAL

El problema a estudiar surge de la propia población implicada, aunque generalmente es

necesaria la actuación de un grupo promotor (asociación, agencia de desarrollo, equipos

de Trabajo Social ...) alrededor del cual se puedan reunir y tratar el problema. Se puede

comenzar con una reunión amplia de negociación e implicación de los promotores en la

que se lanza la idea del proyecto. Se produce así la toma de contacto de los

investigadores con la comunidad y con miembros significativos que puedan tomar parte

activa.

Es el momento también en el que se debe abrir la investigación hacia sectores mas

amplios para realizar un autodiagnóstico, identificar el problema, delimitar su alcance,

dimensionarlo. Surgirán múltiples dificultades, muy especialmente, las que a menudo

tendrán los propios participantes para la expresión y definición del problema. Esta

situación se puede desbloquear mediante diversas técnicas o actividades facilitadoras

como el teatro popular, audiovisuales, entrevistas grupales, que además van creando

espacios y perspectivas compartidas que producen ya por si mismas reflexión. El

investigador se convierte en un agente facilitador, en un recurso técnico, dejando que

Page 381: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 367

actúen como organizadores las personas de la comunidad que tienen sus propias formas y

recursos organizativos. Estos se presentan así como investigadores activos, como sujetos

de la investigación, no como meros suministradores de información.

4.5.3.2. ESTRUCTURACIÓN DE LA IAP: NEGOCIAR PARA CONSTRUIR EL PROGRAMA

En esta fase se pretende crear un esquema básico donde se recojan propuestas de

actuación concretas. Este debe responder al menos a tres objetivos (López de Ceballos,

1987: 72): ligar la investigación a la acción; asegurar la coherencia entre lo que se busca y

lo que se quiere hacer; lograr un esquema de IAP sencillo, utilizable por grupos de base.

Hay que definir desde los grupos qué acciones se van a llevar a cabo y de qué manera.

De nuevo recurrimos a las reuniones con los sectores implicados para negociar cuales

serán las estrategias de actuación. Es importante no perder de vista que la finalidad

principal es reforzar las potencialidades del propio colectivo, tanto en el nivel del

conocimiento como de la acción (IOE, 1993). El investigador juega un papel importante en

el sentido de poner a su disposición diferentes técnicas de recogida, producción y análisis

de información; de transmitir herramientas de trabajo operativas de manera que resulten

asequibles y fácilmente manejables por los miembros de la comunidad. Es necesario

entonces llevar a cabo un entrenamiento en cuanto a la elaboración de cuestionarios,

instrumentos, habilidades de quienes recogerán la información, etc.

Asímismo, las técnicas a emplear también van a venir definidas por el tipo de análisis que

vayamos a realizar. Son válidas todas las que incluyan al sujeto y que no se escapen,

como hemos señalado, de los recursos técnicos y materiales de los implicados en la IAP.

Son útiles tanto las técnicas cuantitativas como las cualitativas; desde las encuestas hasta

los grupos de discusión, los documentos personales, bibliográficos, etc. No desdeñaremos

ninguna técnica siempre que esta pueda ser útil, y lo son especialmente todas las que

facilitan la relación, el intercambio, el diálogo, la participación, en definitiva la

comunicación entre iguales. Se hace énfasis en las que faciliten la aparición de los

aspectos intersubjetivos de la relación entre entrevistado y entrevistador. Eso si, hay que

observar que no se utilicen técnicas que requieran análisis estadísticos muy complejos

puesto que entonces necesitaremos expertos externos, generándose resultados

difícilmente comprensibles por todos. Aún habiendo algún experto en el grupo, esto

conllevaría una especialización y una división del trabajo que podría crear situaciones de

Page 382: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 368

dependencia y poder. En palabras de Park (1992:156): "este aspecto de la IAP sirve para

desmitificar la metodología de la investigación, y ponerla en manos de la gente para que la

usen como instrumento de adquisición de poder. Si obtiene éxito, la capacidad de

investigar científicamente los problemas de la comunidad se convierte en una

característica permanente de la misma que puede volver a ser usada una y otra vez sin

necesidad de contar con expertos".

En la IAP entonces, contrariamente a lo que sucede en las investigaciones

convencionales, nos encontramos con que el asunto de la validez depende de la empatía

de los sujetos con el fin de la investigación comprendiendo plenamente la intención de las

preguntas y queriendo dar la información necesaria de la mejor forma posible.

4.5.3.3. DESARROLLAR Y EVALUAR LO REALIZADO

Poner en marcha las técnicas tiene una doble finalidad: por un lado facilitar información

para otros sobre hechos concretos, por otro, producir conocimientos interpersonales y

autoconocimiento (encuentros dialógicos, Park ). Pero para que verdaderamente se pueda

dar la participación es necesario que la información este constantemente circulando y en

todas las direcciones.

El análisis de los resultados de este proceso nos ayudarán a comprender mejor la

naturaleza de los problemas, pero como indicábamos mas arriba, ya están produciendo

por sí mismos acción, están generando temas para la reflexión colectiva (uso colectivo de

los resultados o vuelta de la información a la comunidad), ligando la investigación a la

acción, el conocimiento y la práctica.

En cualquier caso, a pesar de los intentos de sistematización o de captura que queramos

hacer proponiendo formulas, todo este camino se debe dibujar como algo mucho mas

artesanal que tecnológico. Villasante resume con un lema las aportaciones que la

metodología de la IAP debería hacer a las Ciencias Sociales : "sobre cómo los

movimientos populares son analizadores y generadores de metodologías para las ciencias

sociales, y como no deberían dejar que éstas degeneraran en técnicas que se

automitifican, sino que deberían seguir como prácticas que implican una episteme (desde,

por y) para las soluciones operativas que necesitan los sectores populares".(Villasante,

1994: 424).

4.5.4. REFERENCIA

Page 383: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 369

o Bartolomé, M. (1992) "La investigación cooperativa (praxis)"(copigrafiado), Taller de

iniciación a la investigación-acción(EUTS-Universidad de Granada), 2-IV-1992.

o Bourdieu, P., Chamboredon, J., Paseron, J.P. (1994) El oficio de sociólogo, Madrid,

Siglo XXI.

o Buck-Morss, S. (1995) Dialéctica de la mirada. Walter Benjamin y el proyecto de los

pasajes, Madrid, La balsa de la medusa.

o Carr, W. y Kemmis, S. (1988) Teoría crítica de la educación. La investigación-

acción en la formación del profesorado, Barcelona, Martínez Roca.

o Delgado, J.M. y Gutierrez, J. (1994), Métodos y técnicas cualitativas de

investigación en las Ciencias Sociales. Síntesis. Madrid.

o Fals Borda, O (1991)"Rehaciendo el saber", Fals Borda y otros (1991).

o Fals Borda y otros (1991) Acción y conocimiento. Como romper el monopolio con

investigación-acción participativa, Santafé de Bogotá, Cinep.

o Freire, P. (1970) Pedagogía del oprimido, Madrid, Siglo XXI.

o Gaventa, J. (1991) "Hacia la democracia del conocimiento", Fals Borda y otros

(1991).

o Guerra, C. (1995).; "Investigación-acción participativa en la periferia urbana de

Salamanca", en Cuadernos de la Red, nº 3 (Red CIMS), Madrid

o Habermas, J. (1989) Conocimiento e interés,Madrid, Taurus. ideología, Madrid,

Tecnos. 5, Madrid.

o Kemmis, S. y Mc Taggart, R. (1992) Como planificar la investigación acción, Madrid,

Laertes.

o Lopez de Ceballos, P. (1987) Un Método para la Investigación-acción participativa.

Popular, Madrid.

o Merino, L. y Raya, E. (1993) "El método de la investigación-acción participativa

como mediación entre la teoría y la práctica de la formación del/a trabajador/a social

y en el desarrollo profesional"(copigrafiado), Seminario de integración teoría-

práctica en la formación de los trabajadores sociales (EUTS de Alicante- C.E.B.S.),

2/3-XII-1993.

o Moreno, J. L. (1997) "El voluntarismo epistemológico de las dos ciencias: actualidad

de Lyssenko", Iralka nº 9, Irún.

o Park, P. (1992)"Qué es la investigación-acción participativa. Perspectivas teóricas y

metodológicas", Salazar (1992).

Page 384: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 370

o Rahman, M.A. (1991) "El punto de vista teórico de la IAP", Fals Borda y otros

(1991).

o Salazar, M.C. (1992) La investigación-acción participativa. Inicios y desarrollos,

Madrid, Edit. Popular-OEI.

o Sartre, J.P. (1960) Questions de méthode, Paris, Gallimard.

o Villasante, T.R. (1993) "Aportaciones básicas de la IAP a la Epistemología y a la

Metodología", Documentación Social nº 92, Madrid.

o Villasante, T.R. (1994) "De los movimientos sociales a las metodologías

participativas" en Delgado, J.M. y Gutierrez, J. (1994).

o http://www.ucm.es/info/eurotheo/d-moreno1.htm

El pensamiento es tarea de vagos y maleantes. Hay que saber perderse para trazar un

mapa: vagar por los márgenes y por el desierto, fuera de las fortalezas en las que están

encerrados la verdad, el bien y la belleza. Sólo los nómadas descubren otros mundos. Hay

que saber pervertir la ley --jugar con ella-- y a veces subvertirla --ponerla en cuestión--

para cambiar y/o quitar la ley: provocar malos pensamientos en los bien-pensantes,

asediar las sedes de la verdad, el bien y la belleza. Sólo los malditos mejoran este mundo.

[JESUS IBAÑEZ]

Page 385: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 371

<

4.6. LA TRIANGULACIÓN

Robert E. Stake,

Durante el desarrollo de estudios de casos nos preguntamos:”¿lo hacemos bien?” No solo:

“¿Estamos generando una descripción comprensiva y exacta?”, sino: “¿estamos

desarrollando las interpretaciones que deseamos?”, el sentido común trabja a nuestro

favor, y nos advierte cuando conviene fijarse de nuevo y donde preguntar para aclarar los

asuntos; pero el sentido común no es suficiente. En nuestra búsqueda de presición y de

explicaciones alternativas, necesitamos disciplina, necesitamos estretegias que no

dependan de la imple intuición y de las buenas intenciones de “hacerlo bien”. En la

investigación cualitativa, esas estretegias se denominan “triangulación”. En nuestras notas

de campo utilizaremos A (delta) para identificar los datos que se deben usar en la

triangulación. Identificaremos con Aquellos datos que puedan requerir una triangulación.

Todo lo que registremos debe recordarnos continuamente la necesidad de la triangulación.

El problema de Aes complejo debido al gran número de investigadores cualitativos que

comparten, poco o mucho, una epistemología llamada “constructivismo”. La última parte

del capítulo anterior estaba dedicada a dicha espistemología. Ahora señalaremos que la

mayoría de los investigadores cualitativos no solo creen que existen múltiples perspectivas

y visiones de que se deben representar, sino que no existen formas de establecer, más

alla de la discusión, cual sea la mejor.

4.6.1. LA VALIDACIÓN

Todos los investigadores reconocen que es necesarios no solo ser exacto en la medición

de las cosas, sino tembién lógico en la iterpretación del significado deesas mediciones.

Las técnicas de pruebas educativas y psicológicas han acertado especialmente al exigir

mediciones que tengan rigurosidad y validez demostrables (Cronbach, 1971). Quienes

utilizn puntuaciones, incluidos los expertos en pruebas, no siempre limitan sus

interpretaciones delas puntuaciones que se obtienen en las pruebas a las que han sido

validadas, sino que hace ya tiempo que la teoría y las técnicas han experimentado una

gran complejidad.

El nivel de exigencia sigue subiendo. Sam Messick (1989), del Educational Testing Service

(Servicio de pruebas educativas), ha insistido repetidamente en la necesidad de que los

Page 386: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 372

investigadores aseguren la validez de resultados de las mediciones. Esto significa que las

conscuencias de usar esas mediciones deben ser consideradas parte de la

responsabilidad del investigador. Como en el caso de los datos decriptivos, los usuarios

deben advertir la posibilidad de cualquier descripción determinada puede invalidar

injustamente el caso y que esa descripción no es totalmente válida si no se advierte de

tales consecuencias. Esto exige mucho rigor, pero en la historia de todo tipo de

investigación el nivel de exigencia en la validación de la interpretación de las mediciones

ha sido levado, aunque no haya ocurrido lo mismo con el uso de la investigación.

No veo razón por la que debamos contentarnos con menos en el estudio de caso. Es

verdad que nos ocupamos de muchos fenómenos y temas complejos para los que no se

puede alcanzar sconsenso sobre lo que existe realmente – a pesar de ello, tenemos la

obleigación moral de reducir al mínimo las falsas representaciones e interpretaciones.

Necesitamos determinadas estrategias o procedimientos, que esperan tanto los

investigadores cmo los lectores; esfuerzos que van mas alla de la simple repeticiónde la

recogida de datos observados.

Para mi al menos, la palabra triangulación proviene de la navegación celeste. Nuestro

navegante sabía inferir muy bien. Todas las mañanas y todas las tardes en elar infería

nuestra posición, en parte mediante la medición delos ángulos deelvación delas estrellas:

Justo después de la puestea del sol subía al puente con el sextante. “malditas nuves”,

murmuraba, y después:”ah, aquí esta vega”, y seguía con la taresa de “establecer la

posición”. Sus costumbres ya no necesitaban una voz interior que dijera: “...la posición de

nuestra nuve está en un círculo imaginario centrado en el punto de la superficie terrestre

sobre el que, en este momento, se observa directamente Vega, y cuya extensión se

determina por el ángulo de elvación,...”para todos los momentos de todos los días, sus

tablas le indicaban donde se hallaban esos puntos centrales. Para cada uno, calculó el

margen de error de su supuesta posición, para determinar así cuanto había que corregirla.

Naturalmente no bastaba con saber que estábamos situados en un círculo determinado

pero muy extenso sobre la superficie terrestre. Pero cuando dirigía la vista hacia poniente

y alcanzaba el ángulo de Dubhe, obtenía un segundocírculo con dos puntos de

intersección con el primero así:

Normalmente, los dos puntos de intersección se encontraban a miles de millas de

distancia, y asi, en una nave lenta cmo la nuestra, que de hoy para mañana no podía

Page 387: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 373

pasar de un océano a otro, él podía inferir, con la visión de dos estrellas, donde nos

encontrábamos.

Pero solía observar otra estrella, quiza hacia el norte, la estrella Polar. Los arcos de los

círculos, tan amplios que pudieran parecer líneas rectas, pareian en su mapa tal como los

representamos arriba a la derecha.

Su cronómetro, sus elevaciones y sus cálculos no eran perfectamente precisos, por eso

las líneas (los círculos) no tenían un único punto de intersección. Solía recoger seis

estrellas, si las nuves no se lo permitían, para completar sus deducciones con un punto en

el centro de las intersecciones. En sus tablas se llmaba “triangulación” a este proceso,

pero nunca le oí utilizar esta palabra.

El problema que es nos presenta en el estudio de casos es el de establecer un significado,

no una posición, pero la teoría es la misma. Asumimos que el significado de una

observación es una cosa, pero las observaciones adicionales nos sirven de base para la

revisiónde nuestra interpretación.

4.6.2. OBJETIVOS DE LA TRIANGULACIÓN

Para definir el caso, intentamos presentar un cuerpo sustancial de descripción

incuestionable. Queremos decir sobre el caso aquello que casi cualquiera que hubiera

tenido la misma oportunidad quenosotros de observarlo habria señalado y registrado, en la

misma medida en que lo hicimos nosotros. Por ej., en la graduación de Umea:

1. El director se sento en la primera fila, junto al pasillo central.

2. Los alumnos de especialidades académicas se sentaron en las primeras

filas, y los de especialidades técnicas en las de atrás.

3. algunos de esos últimos alumnos se burlaban del director.

Incluso buscamos registrar información que el lector posiblemente conozca, con el objetivo

de asegurarle que somos capaces de ver y pensar con claridad – o deliberadamente para

indicar nuestras propias inclinaciones o partidismos. Esto da oprtunidad de triangulación a

los lectores.

Tarde o temprano, y aunque en menor medida en la primera parte del informe , ofrecemos

interpretaciones. Algunas son accidentales. Para ahorrar espacio, cuando la descripción

no parece controvertida, saltamos n seguida a la conclusión, y extrapolamos. Por ej.:

4. El director estaba nervioso

Page 388: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 374

5. intencionadamente o no, la asignación de los asientos reflejaba una visión

institucional/social de que los estudios académicos son superiores a los

técnicos.

Realmente no sabemos que el director estaba nervioso. Quizá un poco de sudor en su

frente y las rápidas miradas por encima del hombro (de lo que informaba Ulla) nos llevaron

a tal conclusión. Pensamos que la descripción de las pruebas no es punto de importancia

suficiente (por ej., hay que ofrecer la oportunidad a los lectores para que tomen sus

propias desiciones). Su forma de comportarse parecía dar esta impresión.

Si se prevé que algún tema importante va ha suscitar controversias, lo presentaremos con

mas detalle. Incluso si el proio director no hubiera confiado que estaba nervioso, lo

presentaríamos como una manifestación suya, y no como un hecho. “el director dijo que

estaba nervioso”. Presentaremos las pruebas como sepamos, a menudo añadiéndoles

nuestra interpretación. En muchos casos, optaremos por expresiones interpretativas que

permitan al lector sentirse cómodo con una visión alternativa. Por ej.:

6. Algunas veces, las ceremonias poco organizadas hace que los directores

se sientan nerviosos.

7. En opinión de muchos, con la graduación se pasa de depender de la familia

y delos profesores, a depender de las otras personas y del sistema social.

Para cualquiera de estas siete afirmaciones descriptivas e interpretativas puede ser

necesaria la triangulación. Ésta agota los recursos, al menos el tiempo, por tanto solo se

triangularán los datos y los supuestos relevantes. La importancia depende de nuestra

intención de ofrecer una comprensión del caso, y del grado en que tal afirmación

contribuye a aclarar la historia o a diferenciasr significados opuestos. Si es esencial para

definir “el caso”, deberíamos estar más que seguros de “estar en lo cierto”.

Lo resumimos eneste cencillo cuadro:

Cuando se tienen dudas sobre la “cuestionabilidad” de la descripción o sobre la

importancia de los asertos, es una buena idea someterlas a la prueba de unos pocos

lectores que se ofrezcan para tal labor.

Situación de los datos: Necesidad de triangulación Descripción incuestionable se requiere poco esfuerzo para confirmarla Descripción dudosa y cuestionada requiere ser confirmada . Datos fundamentales para un acerto se requiere mayor esfuerzo para confirmarlos Interpretaciones clave se requiere mayor esfuerzo para confirmarlas Presuaciones del autor identificadas como tales se requiere poco esfuerzo par confirmarlas

Page 389: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 375

4.6.3. ESTRETEGIAS DE LA TRIANGULACIÓN

Para conseguir la confirmación necesaria, para aumentar el crédito de la interpretación,

para demostrar lo común de un aserto, el investigador puede utilizar cualquiera de las

diversas estrategias. En 1984, Norman Denzin identificó las siguientes estrategias en su

libro The Research Act.

Para la triangulación de las fuentes de datos observamos si l fenómeno o caso sigue

siendo el mismo en otros momentos, en otrsos espacios o cuando las personas

interactúan de forma diferente. Supongamos que son los arduos esfuerzos de algunos

profesores de Harper por majorar su enseñanza. Si durante la fase preparatoria ya se ha

observado que los profesores apelan a la autoridad de la experiencia profesional, el

siguiente paso puede consistir en ver si el mismo comportamiento ocurre al finalizar el

taller o en casa, o cuando esos profesores participan de alguna actividad de formación.

Nos preguntaríamos: “¿qué cambios en las circunstancias pueden propiciar que los

profesores pongan en práctica métodos alternativos para mejorar su nseñanza, y

favorecer la aparición de esas otras circunstancias. La triangulación de las fuentes de

datos es el esfuerzo por ver si aquello que observamos y de lo que informamos contiene el

mismo significado cuando lo encontramos en otras circunstancias.

Las otras estretegias de Denzin son los cambios que los investigadores introducen en lo

que hacen. Para la triangulación del investigador, hacemos que otros investigadores

observen la misma escena o el mismo fenómeno. Supongamos que estamos

truiangulando una interpretación, según el cual el desarrollo de los niveles del NCTM era

un intento de los profesores de matemáticas por recuperar el control del currículo, que

estaba en manos de las autoridades de l gobierno del Estado. En las ocasiones

importantes, servirá de ayuda contar con un compañer, quizá un segundo miembro del

equipo, para que observe. Normalmente no es posible conseguir que otros investigadores

observen. Pero una buena estretegia, aunque poco utilizada, consiste en presentar las

observaciones (con nuestra interpretación o sin ella) a una comisión de investigadores o

expertos para analizar interpretaciones alternativas. A la vista de los datos, muchos

expertos en matemáticas negarían cualquier propósito político en la elaboración de los

niveles del NCTM. Sus reacciones no solo sirven para confirmar o refutar las interpretación

original, sino también para portar datos adicionales par el estudio de casos.

Al alegir coobseervaciones, una comisión o revisores con puntos de vista teóricos

alternativos, actúan según lo que Denzin (1989) llamó triangulación de la teoría. En

Page 390: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 376

realidad, dado que nunca dos investigadores interpretan las cosa de una forma

completamente indéntica, siempre que varios investigadores comparan sus datos se

produce algún tipo de triangulación de la teoría. Por ej., un investigador, a propósito o no,

se muestra más conductista, otro más holista. En la medida en que describen el fenómeno

con un detalle similar, la descripción está triangulada. En la medida en que están de

acuerdo sobre su significado, la interpretación está triangulada. (evidentemente no

triangulada por completo.) En cierto modo, se trata de una situación de mútuo beneficio,

ya que el significado alternativo puede ser de gran ayuda a los lectores para comprender

el caso. Pero, según mi experiencia, el investigador tiene prisa por conseguir la

confirmación y no le agrada encontrarse con otra interpretación que requiera ser

desarrollada y que, por tanto, precisen su propia triangulación.

Lacuarta esretegia es en realidad la más aceptada: la triangulación metodológica. Por ej.,

si se trata de afianzar nuestra confianza en nuestra interpreteación, podemos completar la

observación directa con la revisión de registros anteriores. En cierta ocación pregunte a

Donald Campbell, psicólogo y epistemólogo, ucal ha sido en su opinión su mejor logro, lo

que respondio refiriéndose a su trabajo con Donald Fiske sobre diseños de investigación

de características y diseños múltiples (Campbell y Fiske, 1959). Decían:

Para conseguir constructos útiles e hipotéticamente realistas en una ciencia se

requieren métodos múltiples que se centren en el diagnóstico del mismo constructo

desde puntos de observación independiente, mediante uan estrategia de

triangulación. (Pág.81)

Ambos reconocían que muchos descubrimientos de los estudios de las ciencias sociales

está n influidos sutilmente por la forma en que los investigadores abordan su trabajo. Con

enfoques múltiples dentro de un único estudio, es probable que clarifiquemos o que

anulemos algunas influencias externas. Cuando hablamos de métodos en los estudios de

casos, nos referimos una vez más sobre todo a la observación, la entrevista y la revisión

de documentos. Después de un incidente en el patio que yo mismo he haya observado

puedo preguntar a un profesor o a un alumno qué vieron ellos. La entrevista es un método

alternativo, con el que, mediante otro observador, se pretende ver aquello que quizá yo no

haya percibido. Normalmente, sus repuestas confirman mi descripción en alguna medida

y, a menudo, parte de mi interpretación. Pero muchas veces me doy cuenta de que el

incidente no era tan simple como supuse al principio. La triangulación nos obliga una y

otra vez a la revisión.

Page 391: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 377

Cuando más cree uno en la realidad construida, más difícil resulta creer que cualquier

observación o interpretación compleja se puede triangular. Par Denzin y muchos

investigadores cualitativos, las estrategias de la triangulación se han convertido en la

búsqueda deinterpretaiones adicionales, antes que la confirmación de un significado único

(Flick, 1992).

4.6.4. REVISIÓN DE LOS INTERESADOS

En el estudio de casos, los actores desempeñan un papel fundamental, tanto en la

dirección como en la representación. Aunque ellos son el objeto del estudio, hacen

observaciones e interpretaciones muy importantes con regularidad y, en algunos casos,

sugerencias sobre las fuentes de datos. También ayudan a triangular las observaciones e

interpretaciones del investigador. En un proceso llamado “revisión de los interesados”, se pide al actor que examine escritos

en borrador en los que se reflejan actuaciones o palabras suyas, en algunos casos cuando

acaban de ser anotadas, aunque normalmente cuando ya no se le va ha perdir que aporte

más datos. Se le pide que revise la exactitud y la adecuación de material. Se le puede

animar a que sugiera una redacción o una interpretación alternativas, aunque no se le

promete que tal versión vaya a aparecer en el informe final. Normalmente, merece la pena

incluir parte de esta retroalimentación (feedback).

Puede darse el caso en que un actor plantee objeciones a la exposición. Así ocurrio con

una extensa descripción mía de un profesor, en la que se incluia el párrafo que sigue.

Durante varias semanas de estudio había admirado su forma de enseñar y pensé que el

borrador reflejaba de forma favorable. Se opuso enérgicamente, y dijo que mis palabras le

incomodaban, a él y a la escuela. Revisé el apartado correspondiente. Eliminé las

palabras que aparecen tachadas een el párrafo y añadí las que aparecen en negrita:

Lo que he estado viendo en el aula del Sr. Free me recuerda que la ética del

estudio a la que aspira está aliada con los antojos de los adultos por es

consecuente con la importancia generalizada que se otorga a la conducta y a la

socialización. La mayoría de las personas están de acuerdo en que, para que los

niños aprendan sus lecciones, deben evitar aquellas cosas interesantes pero no

académicas de la vida del estudiante: hacer aviones de papel, eliminar los gases,

poner monedas en la masa de la pizza. El profesor intenta reducir el nivel de

distracción. Y no sólo porque padres y administradores piensen en las clases en las

Page 392: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 378

que se guarda silencio son clases buenas. Evitar la distracción habitual es

necesario para que se puedan estudiar algunas lecciones mas bien aburridas

facilita la atención a los hábitos de la instrucción. Cambié una docena de párrafos, mas o menos. El Sr. Free no repondio a mis repetidas

solicitudes de aprobación, pero cuando me hice con él dijo que no quería que se incluyera

de ningún modo la descripción de su clase. Después de una larga deliberación, guarde el

anonimato en todo el estudio e incluí la descripción de su clase en mi informe.

Después de haber recurrido mucho a la revisión del interesado, lo m´s habitual ha sido

recibir del actor muy pocas cosas – lo cual no es muy satisfactorio, aunque totalmente

necesario. Es frecuente que no disponga de una explicación directa de los hechos, y que

necesite ayuda. Requiero del actor que dedique su tiempo a hacer parte de mi trabajo. La

repuesta más comúnde los actores a quienes he enviado borradores consiste en no

reconocer queles haya enviado cosa alguna. A menudo, lo que les explico es algo

rutinario, que aparentemente no merece una repuesta. Pero a veces consigo que lo lean

por entero, un análisis respetuoso, y sugerencias para mejorarlo. Creo que puedeo afirmar

que todos mis informes han mejorado gracias a la revisión de los interesados.

Page 393: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 379

<

4.7. LA COMPLEMENTARIEDAD COMO POSIBILIDAD EN LA ESTRUCTURACIÓN DE DISEÑOS DE INVESTIGACIÓN CUALITATIVA

Napoleón Murcia Peña y Luis Guillermo Jaramillo Echeverri.

4.7.1. RESUMEN

Uno de los problemas más traumáticos que enfrentamos al asumir un proceso de

investigación tiene que ver con la falta de comprensión de las perspectivas teóricas con

que podemos emprender la solución de un determinado problema.

Existe por ejemplo, la creencia derivada de resolver problemas de investigación a partir de

un solo modelo y diseño enseñado a lo largo de la historia por nuestros padres positivistas

cual es la experimentación, y que por ende; todo aquello que pueda ser verificado,

comprobado, manipulado y controlado es considerado como investigación. Esta creencia

ha hecho además que se considere como válido en el conocimiento científico, todo aquello

que contenga análisis estadístico o matemático, incluso para abordar fenómenos

psicológicos, antropológicos y hasta sociales como lo es la educación.

En este sentido, han surgido diferentes tendencias de investigación de corte cualitativo en

la comprensión de fenómenos sociales como son: La fenomenología, la etnografía , la

teoría fundada y la etnometodología expuestas desde los años treinta por la escuela de

Chicago con un énfasis mas sociológico; la hermenéutica, expuesta por pensadores

filosóficos como Dilthey, Gadamer y Weber; y la teoría crítica expuesta por Habermas

como una forma diferente de asumir las ciencias sociales, en la cual se plantea el enfoque

histórico hermenéutico que considera la explicación del mundo desde las relaciones del

lenguaje, la tradición y la historia; y el principio de etnografía reflexiva expuesto por

Hammersley y Atkinson (1994).

Nuestro interés es presentar una posición mediadora de todas estas teorías cualitativas y

ofrecer una propuesta de diseño metodológico para abordar estudios relacionados con las

ciencias sociales; lo anterior, es con el fin de compartir con los investigadores una

posibilidad mas en el proceso de comprensión de las realidades culturales.

De igual forma, es nuestro deseo dar a conocer las diferentes experiencias que hemos

tenido al abordar este diseño, tras haber desarrollado en primera instancia una

investigación con jóvenes marginados en la ciudad de Manizales (Colombia) y haber

desarrollado otras tantas con los estudiantes de nuestra universidad.

Page 394: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 380

4.7.2. UN DISEÑO DESDE LA COMPLEMENTARIEDAD

Partimos de considerar las investigaciones denominadas cualitativas, como la base de

nuestro propuesta, las cuales le interesan los datos por sus cualidades, por lo que ocurre

en cada uno de ellos y no tanto por sus cantidades. Su fundamento está dado por la visión

holística de las realidades, lo cual implica comprender una realidad desde la relación que

hay en cada uno de sus elementos y no desde la mirada aislada de estos. Como lo asume

Martínez (1993:8.): "Cada parte al formar una nueva realidad, toma en si misma algo de la

sustancia de otras, cede algo de si misma y en definitiva queda modificada."

Si bien, reconocemos que existen diferentes tendencias cualitativas como: La Etnografía,

la Teoría fundada, la Fenomenología, la Hermenéutica, la Investigación Acción

Participativa, la Etnometodología, las Historias Orales o de Vida, e incluso las

investigaciones Históricas, entre otras; todas estas presentan elementos importantes en el

análisis en la comprensión de las realidades culturales; sin embargo, cada una de ellas

desconoce el aporte de las otras, al centrar su análisis de comprensión en fracciones de la

realidad; caso de la etnometodología que centra su análisis en las acciones de los sujetos

y no en su esencia como lo propone la fenomenología; o de la etnografía que busca la

descripción de rasgos culturales, distinto a la Teoría fundada que pretende construir teoría

a parir de la comparación constante (ver Garfinkel 1994,62; Ritzer 1996,287; Sandoval

1997,58 y Murcia y Jaramillo 2000,61).

En un proceso de investigación social, lo que se busca es comprender el fenómeno, lo

más cerca posible a la realidad que viven los sujetos inmersos en este, y esa comprensión

no se logra en su totalidad si se percibe desde pequeñas miradas del investigador.

En consideración a lo anterior, se hace necesario reconocer cada uno de los aportes de

las diferentes tendencias anteriormente expuestas para lograr una mayor y mejor

aproximación a la realidad estudiada, por ello se acudimos al principio de

complementariedad como una posibilidad de articulación respecto a las opciones que nos

brinda cada tendencia. Por tanto, y a manera de síntesis, para estructurar una propuesta desde la

complementariedad, es necesario entre otras, que esta se sustente en:

Las teorías de la complejización de las ciencias propuestas por Edgar Morín y Kern

(1993,189), según las cuales, una ciencia se desarrolla cuando busca su complejización;

esto es, cuando se analiza desde las relaciones internas y externas, o sea, en función de

sus posibilidades de relación con el todo y sus partes. Los autores consideran que una

Page 395: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 381

ciencia se estanca, cuando se simplifica, es decir, cuando se reduce al fraccionamiento de

cada una de sus partes y se desconoce la relación con el todo y con otras ciencias.

El principio sistémico Ecológico expuesto por Miguel Martínez como una posibilidad de

comprensión de un texto cultural y la consideración de las relaciones que se dan

permanentemente en dicho texto: "Nuestra mente no sigue sólo una vía causal, lineal,

unidireccional; sino también, y a veces sobre todo, un enfoque modular estructural,

dialéctico, gestáltico, donde todo afecta e interactúa con todo, donde cada elemento no

sólo se define por lo que es o representa en sí mismo, sino y especialmente, por su red de

relaciones con todos los demás". (Miguel Martínez 1993, 4). Dicha relación de

interdependencia, es considerada también por Morín (1994,70-72) como una característica

de todo sujeto al ser "auto eco organizado".

En la teoría de la acción comunicativa de Habermas; según la cual, todo acto de habla

implica una acción de comunicarse, y esa comunicación se desarrolla mediante las

señales o emisiones emitidas en un contexto de intencionalidad que desencadena una

acción, la cual es la base en los acuerdos entre varios participantes del proceso

comunicativo (Habermas, 1999 tomo II,14); lo anterior implica que para comprender la

comunicación es necesario reconocer la intencionalidad de los actos de habla.

Si este acto de habla se analiza en el referente de contexto sociocultural donde tuvo

origen y desde el proceso global que implica comunicarse, se puede realizar una

aproximación a la veracidad y validez de la información recolectada. Pues es en el marco

de los procesos comunicativos, que el sujeto expresa ese cúmulo de acciones e

interacciones que determinan su percepción del mundo y de su realidad.

Esto es, que en el acto comunicativo, existen hablantes y oyentes que se refieren a algo

en el mundo, y en esa relación buscan entenderse. Lo anterior, se logra mediante unos

contratos implícitos entre el hablante y oyente, quienes se ponen de acuerdo en las

pretensiones de validez de sus argumentaciones.

De este acuerdo mutuo, puede surgir la acción, la cual es un dominio de situaciones

producto de los contratos de habla. Por lo anterior, una acción comunicativa se basa en

tres aspectos: el primero está dado por la intención de los comunicantes al manifestar sus

actos comunicativos; es decir, el aspecto teleológico de ejecución de un plan de acción. El

segundo es el aspecto comunicativo propiamente dicho, que implica la interpretación de la

situación y el pacto de comunicación; y el tercero es el acuerdo logrado en la interacción

(ver Habermas, op,cit. tomo II, 14 y Mardones 1991,114-118).

Page 396: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 382

Esta perspectiva se apoya también en las propuestas de Wittgestein II (citado por Briones

1988 y Habermas), de Searle, Austin y Grise; que asumen la necesidad de comprender los

actos comunicativos para poder descifrar la verdadera intencionalidad de los mismos.

Garfinkel (1994,23.) considera que "la mayoría de las interacciones que fundamentan la

estructura y el orden social, toman la forma de intercambios y transacciones lingüísticas

entre los miembros de una sociedad".

La posibilidad de conocer el mundo desde la perspectiva de los sujetos, en tanto

este es una representación de las vivencias que se van logrando durante la historia

cultural. Lo anterior recogiendo la posibilidad de emprender miradas del mundo subjetivo a partir de la búsqueda de posibles estructuras que lo configuran, para llegar a la

comprensión de las esencias de esas estructuras; esto, apoyados en las tendencias

flexibles del estructuralismo que asumen la estructura como algo dinámico y que

representan la intencionalidad de los sujetos mediadas por las acciones e interacciones;

como las armazones de Goffman, y el rechazo al funcionalismo estructural que asumen

Peter Blu y las teorías de redes (ver Ritzar,1996).

Considera que la realidad debe ser complementada con las múltiples miradas, lo que

constituye la necesidad de entender que la percepción se da en relación a los sujetos; por

tanto, sería incompleto un estudio que no tuviese en cuenta diferentes miradas sobre el

mismo fenómeno. Mockus (1994) siguiendo a Habermas, considera que es necesario

realizar la "comprensión de los textos culturales desde el análisis e interpretación de los

contratos de habla", los cuales se pueden comprender desde diferentes ángulos de

análisis.

Este elemento de la complementariedad, es denominado por los investigadores

cualitativos como Triangulación, que a decir de Hammersley y Atkinson (1994,216) es la

que "conlleva a la comprobación de información referente a un mismo fenómeno obtenida

en diferentes fases del trabajo de campo, desde diferentes puntos o ciclos temporales

existentes en el lugar, o comparando los relatos de los diferentes participantes". Para

Denzin 1978 y Patton 1980 (citados por Taylor y Bogdan 1996,91) la triangulación se

refiere a la utilización de distintos métodos o fuentes de datos (datos sustantivos y datos

formales).

Sandoval (1997,132) asocia la triangulación con el proceso de verificación de resultados, y

Velazco y Díaz de Rada (1999,223), con la contrastación en diferentes fuentes y

Page 397: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 383

localización. Mariño (1991a, 77) realiza la triangulación desde la confrontación y

socialización de los diarios de campo (validez interna).

Esta estrategia metodológica facilita el desarrollo del principio de complementariedad, toda

vez que permite ver que tipo de acciones e interacciones forman pautas culturales; es lo

que Velazco y Díaz de Rada (1999,223) denominan "acceder al espacio público de la

cultura, según una multiplicidad de perspectivas y datos multirreferenciales". Desde esta

perspectiva, se considera la cultura como un estructura compleja que sería imposible de

captar desde una sola mirada; por eso, los datos recolectados sobre ella, deben ofrecer

múltiples facetas o matices remitiendo a una gran variedad de aspectos y niveles de la

realidad.

En síntesis, la triangulación que contempla este punto desde las múltiples miradas desde

el principio de complementariedad tiene en cuenta:

1. Los diferentes sujetos informantes que tengan relación con el fenómeno en la

observación de este (validación interna).

2. La observación del fenómeno desde diferentes ángulos geográficos e históricos.

3. Los diferentes contextos internos y externos que intervienen en el fenómeno a estudiar

(políticos, ideológicos, económicos y culturales).

4. Comprender la realidad cultural desde la confrontación entre el sujeto protagonista del

fenómeno, la interpretación del investigador (teoría sustantiva) y las teorías formales

desarrolladas sobre el fenómeno.

Los estudios deben realizarse donde tiene objeto la cotidianidad sin perder de vista lo externo. Esta pretensión trae una doble connotación para un estudio desde el principio

de complementariedad: En primer lugar, la necesidad de tener en cuenta los contextos

interno y externo que están relacionados con el fenómeno de investigación, lo que hace

posible una visión histórica del mismo. Por ejemplo, no es pertinente buscar la

comprensión de lo que sucede en un fenómeno educativo, desde la búsqueda de uno sólo

de sus comportamientos normativos (la relación alumno-maestro) sin tener en cuenta los

otros factores que en él mismo intervienen (el factor económico, el factor social, político, el

criterio ético, afectivo y pedagógico entre otros). En segundo lugar, la necesidad de

realizar los estudios desde dentro; es decir, desde la propia percepción de los sujetos

implicados.

En el proceso de conocimiento social es necesario tener en cuenta que el extraer el sujeto

o fenómeno del medio natural donde se genera el acontecimiento es negativo para la

Page 398: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 384

comprensión, toda vez que el comportamiento de los sujetos cambia permanentemente y

de acuerdo a las características del contexto donde se están generando.

En la hermenéutica como base en los procesos de comprensión de sentidos y

significados de los escenarios sociales y de los sujetos que intervienen en ellos (tanto del

investigador como del investigado).

Las realidades de los sujetos desde las teorías del lenguaje, no sólo son objetivadas por

medio de los procesos comunicativos, sino que son incorporadas a través de dichos

procesos. Por ello, el lenguaje desde nuestra perspectiva, es asumido como la posibilidad

natural que tiene el individuo para expresar sus acciones y conciencia sobre el mundo. El

investigador y el investigado en un proceso de relación directa con el fenómeno, dejan

entrever mediante el lenguaje (sea hablado, escrito o expresivo) la forma como ellos están

interpretando el mundo. En tal razón, es la hermenéutica del lenguaje, la que propicia ese

acercamiento entre la realidad y el acto comunicativo, entre el dato descrito y la posibilidad

interpretativa, entre el saber lo observado y la comprensión de ese fenómeno. Este

planteamiento es aceptado por Berger y Luckman cuando consideran que "mediante el

lenguaje no sólo se objetiva el mundo subjetivo, sino que a su vez se incorpora el

conocimiento socialmente compartido".

La influencia de los sujetos en la percepción del mundo, pues considera que la mejor

forma para desentrañar una realidad sociocultural es estudiando a los sujetos que son

actores de esa realidad. Desde lo anterior, reconoce los aportes de Husserl (1997) y Prieto

Castillo (1993), en cuanto que la realidad es para los sujetos; pues son ellos quienes

asumen los elementos de una cultura, dándole sentido a cada uno de esos elementos y

proyectando su vida según ese sentido dado.

Searle (citado por Mardones, op.cit, 117) considera a propósito que "el significado de un

texto sólo puede aprehenderse sobre el trasfondo de una precomprensión, que

desarrollamos al crecer en nuestra cultura". En este mismo sentido J. Piaget (citado por

Poso, 1994) en sus estudios sobre psicología considera que el mundo es configurado y re-

configurado por los individuos. Así mismo otras teorías psicológicas como la desarrollada

por Colly Gallart (citado por Pérez y Gallego 1995, 99), consideran que "las competencias

cognoscitivas se hallan fuertemente ligadas al tipo de aprendizaje cognitivo en relación a

las prácticas sociales dominantes".

Precisamente, fundamentados en esta perspectiva, se han desarrollado diversas

investigaciones entre las que se encuentran las de Parra Sandoval (1997) y Francisco

Page 399: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 385

Cajiao (1993) sobre las realidades educativas en Colombia; y los aportes investigativos de

Martínez, Mariño, Sánchez Parga, Bonilla y Rodríguez, Velasco y Díaz de Rada, De la

Cuesta, entre otros; todos ellos coinciden en que la estructura de un texto cultural, inicia

con los elementos que la propia cultura le otorga al investigador, presentados básicamente

en el lenguaje ordinario y en general en los procesos de comunicación que los sujetos

utilizan.

En la investigación acción participativa como un complemento operativo posterior de

los estudios cualitativos iniciales, tal y como lo propone Mariño (1991b,103). Lo anterior,

por cuanto no descartamos en nuestra perspectiva, el llegar a formular, comprobar o

refinar teorías, hipótesis y conceptos, siempre que ellos sean la resultante de la

comprensión de esa red de sentidos y significados socioculturales. Por lo anterior, el grupo

de investigación se identifica con las propuestas de Hamersley y Atkinson, Taylor y

Bogdan, y Glasser y Strauss (1967) en relación a que, lo mas importante, es la

comprensión y re definición de las acciones e interacciones desde los propios escenarios

donde estas se estén generando.

En las diferentes aportaciones de la investigación cualitativa; entre ellas: La

propuesta de Hoyos y Vargas en relación a la teoría de la acción comunicativa como

nuevo paradigma de investigación en ciencias sociales; los aportes de Mariño, 1991a)

sobre la investigación etnográfica aplicada a la educación (anotación sobre el diario de

campo en la cruzada de alfabetización en Nicaragua); Sandoval, referente a la

investigación cualitativa; Elsie Rockwell, sobre la etnografía y teoría de la investigación

educativa; Restrepo Gómez, en torno a la investigación en educación; Edwads, desde los

sujetos y la construcción social del sujeto escolar en primaria; Velazco y Díaz de Rada,

desde los aportes en la lógica de la investigación etnográfica; Hammersley y Atkinson, con

las aportaciones en etnografía Reflexiva, Taylor y Bogdan, en su texto introducción a los

métodos cualitativos de investigación y las aportaciones de Mardones, en torno al objeto

de las ciencias sociales y humanas.

En síntesis en, en un enfoque desde el principio de complementariedad es necesario tener

en cuenta:

Realizar los estudios sociales en su medio natural, tal y como lo enuncia el naturalismo.

La posibilidad de comprender la esencia de los fenómenos a partir del reconocimiento de

las acciones y experiencias de los sujetos, y su consolidación en estructuras

Page 400: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 386

socioculturales; propuestas impulsadas por la Fenomenología, la Etnometodología y el

estructuralismo.

La importancia de comprender las redes de sentido y significado socioculturales desde los

procesos comunicativos en un contexto determinado, propias de la hermenéutica.

El apoyo en un paradigma teórico científico que reconozca la trascendencia de la

comunicación, la tradición y la historia, tal y como lo propone la teoría crítica.

La importancia de poder construir teoría a partir de la comparación constante, propuesta

por la teoría fundada.

La necesidad de reconocer los rasgos culturales y poder reflexionar sobre ellos a partir de

la propuesta de la etnografía reflexiva.

La posibilidad de apoyar los análisis de tipo individual y colectivo en historias orales y de

vida.

La posibilidad de utilizar algunos diseños previos de tipo flexible, que se puedan ir

reconfigurando en el proceso mismo de investigación.

La opción de utilizar algunas técnicas estadísticas, siempre que sean un medio en esa

búsqueda teórica para ayudar a comprender mejor la realidad.

La posibilidad de extender las propuestas comprensivas hacia la reflexión y cambio de

estructuras socioculturales mediante la crítica emancipadora de la comunidad, propia de la

Investigación Acción Participativa.

4.7.3. DISEÑO METODOLÓGICO

Desde las consideraciones anteriores se propone un diseño metodológico que tenga en

cuenta los elementos importantes de cada una de las tendencias de investigación

complementándolas entre si.

Asumimos que la forma de percepción del universo por el sujeto se hace manifiesta a

través de las acciones e interacciones que dicho sujeto expresa en una realidad

determinada; en tal sentido, es necesario estudiarlas en el escenario de relaciones

sociales de esa realidad con la menor influencia posible de un marco de inferencias

apriorísticas. Esto es, con un referente conceptual limitado, el cual se utilizaría para una

mejor comprensión de los aspectos a investigar.

Page 401: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 387

4.7.4. ESTRUCTURA DEL DISEÑO DE INVESTIGACIÓN

Preconfiguración de la Realidad< = > Plan de Configuración

\\ //

Reconfiguración de la Realidad

El diseño consta de tres momentos, los cuales interactúan a lo largo de todo el proceso de

investigación y trabajo de campo, con el objetivo de ir configurando la estructura

sociocultural (ver Murcia y Jaramillo 2000).

Con el objeto de clarificar un poco el desarrollo de los tres momentos, estos serán

abordados por separado a continuación:

4.7.4.1. PRIMER MOMENTO (PRECONFIGURACIÓN)

En este momento, se hace una aproximación a la realidad sociocultural desde un

acercamiento a la teoría formal (perspectiva deductiva) y a la teoría sustantiva

(perspectiva inductiva) (1), con el fin de focalizar un interrogante o problema de

investigación respecto a la realidad que se desea comprender, la cual se denomina en

esta propuesta "posible dimensión temática".

Como se delimita la temática desde lo inductivo. Para delimitar y definir la dimensión

temática desde lo inductivo es necesario iniciar el acceso al escenario de investigación; es

decir, comenzar los contactos con los diferentes sujetos involucrados en el fenómeno

social, para posibilitar una negociación de relaciones, esto es la iniciación del trabajo de

campo, teniendo en cuenta la mirada interna y externa de la realidad.

Es como preparar el acceso al trabajo de campo desde una guía de observación inicial la

cual se estructura de acuerdo a la intencionalidad de los investigadores.

Como se precisó anteriormente, este primer momento (preconfiguración), es el que

permite al investigador asumir una dirección inicial en la selección del tema, para irla

condensando y delimitando de forma progresiva; el investigador, apoyado en un plan de

acción inicial, deberá asumir procesos de interacción con el grupo en estudio, del que

surgirán los primeros elementos pre-configuradores de esa realidad, los cuales serán

enriquecidos con procesos de búsqueda teórica que se desarrolla de forma paralela.

Como delimitar el área desde lo deductivo. En la preconfiguración, debe existir una

estrecha relación entre la teoría y la práctica cultural, pues existe la necesidad de

comprender el fenómeno estudiado y en muchas ocasiones la sola descripción de la

realidad no nos permite dicha interpretación.

Page 402: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 388

Por tanto, el proceso deductivo implica la búsqueda teórica de los elementos que

configuran la temática de estudio, la cual debe realizarse en forma paralela a la búsqueda

empírica, para evitar en lo posible, juicios sesgados sobre la estructura que la realidad nos

va mostrando.

Esta práctica complementaria, es importante además por cuanto permite conocer otros

estudios en relación al área o a la temática; y junto con los primeros hallazgos inductivos

ayuda a definir una posible pre- estructura sociocultural.

Pre-Estructura Sociocultural. Una vez clarificado el escenario desde el proceso inductivo

y deductivo, se procede a establecer una Pre-estructura que represente de manera

articulada los elementos encontrados en la realidad.

Recordando que los elementos de una estructura no tienen significado por sí solos, sino

que estos se deben a las relaciones que poseen entre si, es posible representar esa

estructura inicialmente encontrada, en un ideograma o mapa conceptual.

4.7.4.2. SEGUNDO MOMENTO: PLAN DE CONFIGURACIÓN

A partir de la pre-estructura encontrada, se elabora una segunda guía que nos ayuda a

buscar la estructura propiamente dicha de la realidad investigada, mediante un proceso

profundo de trabajo de campo.

Elementos posibles de la segunda guía o guía de configuración: 1. La indagación central a solucionar. (Formulando el problema emergente desde la pre

configuración de la estructura sociocultural).

2. Las preguntas de investigación. (La orientación a partir de otros interrogantes surgidos

desde los elementos de la pre- estructura)

3. La metodología de la investigación (Los procedimientos para llegar a desentrañar la

estructura sociocultural)

3.1 Población e informantes claves: hacia la representatividad sociocultural.

3.2 Métodos de recolección de información :

3.3 Entrevista a profundidad.

3.4 La observación participante

3.5 Otras posibles técnicas

4. Desarrollo de la guía de investigación (trabajo de campo en profundidad).

El trabajo de campo propiamente dicho inicia cuando se pone en marcha el diseño hasta

aquí elaborado. Lo mas importante en este proceso es lograr la saturación total o teórica

Page 403: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 389

de los datos a través de la relación constante y permanente que se establece con los

informantes claves, a tal punto de alcanzar un alto nivel de empatía y que posibilite la

veracidad de la información recolectada.

Existen muchas formas de acopiar la información, lo importante es que se pueda tener el

dato a la mano en el momento que se necesite y sin perder el contexto en el que se

produjo el relato (relación sentido).

4.7.4.3. EN EL TERCER MOMENTO O RECONFIGURACIÓN

En este momento, se exponen los hallazgos de la investigación, donde se redimensiona la

estructura sociocultural, a partir de la relación : elementos teóricos, interpretación del

investigador y datos culturales; es decir, se inicia la comprensión de sentido a una

estructura sociocultural.

Qué pretende el análisis en un proceso de Complementariedad: Partimos de recordar

que la propuesta, busca la complementariedad entre las tendencias de investigación, por

eso el procesamiento de la información se mueve entre aquellos estudios considerados

descriptivos y aquellos considerados teóricos o conceptuales (Ver Taylor y Bogdan 1996).

Lo importante es que el escenario relatado se presente con gran fidelidad, pero matizado

por las percepciones del investigador y por las teorías sociológicas o disciplinares según

sea el estudio.

Qué es reconfigurar la realidad? La reconfiguración de la estructura ciertamente no es

un momento independiente del momento anterior (configuración), aunque ningún momento

lo es, pero el paso de la configuración a la reconfiguración, podría decirse que es paralelo,

en tanto una vez los elementos de la estructura van emergiendo, estos se van analizando

y articulando con la teoría formal; y desde esta relación se construye la comprensión con

sentido del fenómeno; es decir, se redimensiona la estructura desde la comprensión que la

teoría nos aporta sobre las categorías culturales.

Se asume así mismo el proceso de reconfiguración, como un momento de confrontación,

logrado desde la realidad empírica y contrastada con la realidad conceptual ; pues no se

puede caer aquí en la especulación del racionalismo técnico, que al decir de Tedezco

(1989), no ha podido dar explicación a los fenómenos sociales; ni en el reduccionismo de

la casuística, que no permite visualizar una dimensión histórica del fenómeno.

En términos generales, en una investigación etnográfica cuyo interés está fundamentado

en la comprensión de las acciones e interacciones de un escenario sociocultural, los datos

Page 404: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 390

deben analizarse permanentemente, para desde ese análisis, poder reorientar el proceso,

e ir comprendiendo esa realidad; por eso, proponemos algunas recomendaciones en la

elaboración de los informes.

Por último un informe escrito debe contener: el modo como se recogieron e interpretaron

los datos, tiempo y extensión del estudio, naturaleza y número de escenarios e

informantes y encuadre mental del investigador; o sea, su ubicación epistemológica en

torno a la investigación en ciencias sociales (ver Hammersley y Atkinson op.cit 1994)

Algunas investigaciones que se han realizado con esta propuesta son las siguientes:

La danza y la promoción ético moral en adolescentes marginados, la cual tuvo por objetivo

desentrañar las acciones e interacciones de los adolescentes por medio de la práctica de

diferentes manifestaciones dancísticas como el rap, el rock and roll y la danza latina.

(Murcia Jaramillo y Castro 1996)

El fútbol femenino. Producto de estigmatización cultural en la mujer de hoy. En este

trabajo se vislumbra claramente como la mujer que practica fútbol es víctima del

machismo y el estigma de brusquedad y homosexualidad por el sólo hecho de realizar

esta práctica deportiva. (Murcia, Arango, Castañeda y Duque 1997)

Nuevos sentidos de los discapacitados visuales con relación a la Educación Física, la

Recreación y del Deporte. En esta investigación, los discapacitados consideran como ellos

viven en una sociedad discapacitante que no comprende sus posibilidades de percibir por

medio de otros sentidos. (Jaramillo, Ortiz, Palacio,1998)

Percepción de los estudiante de I y VIII semestres de la carrera de Educación Física

Recreación y Deporte de la Universidad de Caldas de la Ciudad de Manizales. Donde se

pudo comprender como los estudiantes ven la carrera como una acumulación de

asignaturas aisladas y que brindan poco apoyo en su desempeño profesional. (Jaramillo,

Arroyave, Bedoya, Osorio, Toro, Ospina y Marín, 1998)

La recreación y la producción empresarial en MABE de Colombia, investigación que pudo

comprender como los procesos de producción empresarial se ven afectados positivamente

por la generación de actividades recreativas de la empresa. (Murcia, y estudiantes 1998)

El baile de salón como ejercicio físico en los ancianos que asisten a la Caja de

Compensación Familiar (Confamiliares) de la ciudad de Manizales. (Jaramillo, Gómez y

Zuluaga 1999)

El Sentido de la Recreación encontrado por los Trabajadores de la CHEC de Manizales.

(Murcia y estudiantes 1997)

Page 405: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 391

Una aproximación al sentir de los Riosuseños frente al carnaval y a su máxima expresión

de ingenio y creatividad: las cuadrillas ( Jaramillo, Mafla, Pérez, Pinzón y Toro 1999).

Esta propuesta de diseño metodológico fue estructurada en el transcurso de nuestra labor

académica, y se ha ido modificando en los constantes encuentros con los escenarios de

búsqueda y los estudiantes investigadores que se han atrevido a compleja tarea de

comprender las realidades socioculturales de nuestro entorno.

4.7.5. REFERENCIAS

o BONILLA C. Elsy, RODRIGUEZ S., Penélope. La investigación en Ciencias

Sociales. Más allá del dilema de los métodos. Bogotá: Universidad de los Andes.

1997. 219p. ISBN: 958-9057-72-1.

o BRIONES, Guillermo. Bogotá: Métodos y técnicas avanzadas de Investigación

aplicadas a la Educación y a las Ciencias sociales. Módulo 1. Metodología y

epistemología de la investigación social. 2ª Ed. Santafé de Bogotá: ICFES, 1988.

150.p.

Page 406: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 392

<

4.8. ANÁLISIS CUALITATIVO

4.8.1. EL PUNTO DE PARTIDA DEL ANÁLISIS CUALITATIVO

Por investigación cualitativa entendemos estudios que proporcionan una descripción

verbal o explicación del fenómeno estudiado, su esencia, naturaleza, comportamiento, en

contraste con la exposición ofrecida en la investigación cuantitativa: cifras. La

investigación cualitativa es corriente en las ciencias humanas, mientras que en las

ciencias naturales la tendencia es a favor del enfoque cuantitativo. No obstante, muchos

fenómenos pueden ser estudiados con cualquiera de ambos métodos, o con ambos, y es

al investigador a quien corresponde elegir.

A veces el análisis puede estar basado en un modelo teórico anterior que tal vez pueda

ser tratado en una hipotésis que pongamos a prueba. La presencia o ausencia de tal

modelo afecta en gran medida al proceso lógico de análisis. A este respecto hay tres

alternativas principales:

• investigación exploratoria,

• investigación con miras a la amplición o depuración de un modelo anterior, y

• investigación para probar hipótesis (escasa en investigación cualitativa).

Investigación exploratoria

Cuando se comienza un proyecto de investigación, tenemos que tener al menos una idea

preliminar de nuestro objeto de estudio y de su contexto. Durante el proyecto de

investigación exploratoria estos conceptos incipientes mejorarán gradualmente. Muchos

objetos pueden ser mirados desde varios puntos de vista diferentes; debemos elegir

nuestro punto de vista y explicar cómo "entendemos" el objeto. Esto no significa que

tengamos que empezar nuestro trabajo por clarificar la esencia de nuestro objeto de

estudio, es decir: lo que el objeto es realmente. En lugar de eso, debemos intentar

contemplar y clarificar cómo vemos el objeto, ya sea posible por ejemplo que sea definido

en un micronivel como resultado de instintos individuales, móviles y experiencias, o quizás

en un macronivel como una expresión de desarrollo en sociedad.

Los investigadores han definido y estudiado, por ejemplo, el concepto de "belleza" de

forma alternativa como un atributo de los objetos, como un atributo de la percepción o

como una propiedad de Dios. (Ejemplos.)

Page 407: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 393

El progreso de un proyecto de estudio se hace más fácil en cuanto hemos definido nuestro

problema. Tras esto, vamos a necesitar reunir sólo aquel conocimiento empírico

relacionado con el problema; esto nos permitirá minimizar el material que tendremos que

analizar.

Sin embargo, a veces es difícil definir a priori lo que es pertinente; es algo que sólo llega a

serlo de forma manifiesta a través del análisis. Muchas veces necesitaremos reunir gran

cantidad de material antes de definir el objetivo final de nuestro proyecto. En otras

palabras, parte del material tal vez no será usado en el análisis final.

Obstáculos aparte, debiéramos centrarnos en definir el problema tan pronto como sea

posible. La definición nos ayudará a seleccionar los mejores procedimientos y a reducir la

cantidad de material que ha de ser procesado. Raramente será posible dividir el estudio

cualitativo en fases tan claras como las que son comunes en el trabajo cuantitativo. De

acuerdo con Alasuutari (p.22), en un análisis de hallazgos empíricos, se podrían distinguir

dos fases, pero éstas se solapan. Estas fases serían:

simplificación de observaciones

interpretación de resultados (o "resolver el enigma")

En la fase de simplificación, el material es inspeccionado desde el punto de vista teórico

del proyecto de estudio, y sólo los puntos pertinentes desde este ángulo se toman en

cuenta. Los detalles que difieren de un individuo a otro de forma aleatoria se omiten o se

ponen de lado de forma que las líneas generales de los datos puedan ser discernidas más

fácilmente.

La segunda fase consiste en una clasificación de las observaciones: el investigador intenta

ver si hay algún común denominador en los datos y procede a dar forma a una regla que

gobierna todas las observaciones. Esta estructura general pudieran ser los rasgos típicos

de un cierto individuo o la comparación o clasificación de individuos o casos, o tomar nota

de su desarrollo. Todos estas aproximaciones al problema serán explicadas más tarde

bajo los encabezamientos correspondientes. "Resolver el enigma" no siempre significa

contestar exactamente a aquellas preguntas que fueron formuladas en el comienzo del

proyecto. A veces las preguntas más interesantes se encuentran al final de la

investigación, cuando el investigador es un experto en el tema. Se suele decir que "los

datos enseñan al investigador". En todo caso, el propósito final es extraer una invariancia

o una estructura interesante a partir del material fuente.

Investigación sobre la base de una teoría anterior

Page 408: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 394

Muchos de los problemas de la investigación exploratoria se pueden evitar si el

investigador comienza con un modelo, desarrollado en estudios anteriores, que usa como

"hipótesis de trabajo". Durante el análisis, el investigador intenta ver si el material recogido

es conforme al modelo o si debe corregir el modelo o buscar uno más apropiado.

Estudio basado en hipótesis

En estudios cualitativos raramente es posible formulas una hipótesis tan exacta que pueda

ser rigurosamente verificada y potencialmente rechazada. En lugar de esto, cuando un

investigador de cualidades habla de hipótesis, lo que suele querer indicar es a una

hipótesis de trabajo, o una suposición que irá gradualmente reforzando o corrigiendo

cuando el estudio avance. Si el investigador desea formular y probar apropiadamente una

hipótesis cualitativa, la metodología es la misma que en el estudio basado en hipótesis de

tipo cuantitativo.

4.8.2. ANÁLISIS DESCRIPTIVO CUALITATIVO: UNA REVISIÓN DE LOS MÉTODOS

El método para el análisis descriptivo cualitativo suele poder ser elegido de la tabla de

abajo. Los métodos para estudios exploratorios están marcados con la letra X al final de

cada columna, mientras que la M indica que el estudio debe estar basado en un modelo

teórico existente ya en el punto de partida del estudio.

Tabla 12: Caracteristicas de los estudios

El estudio concierne a un solo caso:

Estudio de caso: - Estudio exploratorio de caso X - - Describir un caso extraordinario X - - Documentar X - - Estudio fenomenológico X - Estudio de caso sobre la base de un modelo previoM

El estudio concierne a dos casos: Estudio comparativo X, M

Estudio transeccional, o investigación sin perspectiva temporal

El estudio concierne un número de casos:

Clasificación: - Clasificaciones autóctonas X - Clasificaciones basadas en propiedadesM - Tipologías M - Clasificaciones difusas X, M

Investigación diacrónica, o Estudio histórico- Historias de Artefactos X - Historias de Diseño y Manufactura M - Biografías X, (M)

Page 409: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 395

La investigación normativa se trata separadamente en Análisis normativo cualitativo.

Estudio de caso

En el estudio de caso, o monografía, estudiamos sólo un objeto o un caso. En

consecuencia, los resultados que obtendremos permanecerán ciertos sólo en ese caso

singular; es por lo que puede parecer que los resultados no serán muy útiles por no poder

ser aplicados de modo inmediato a otros casos que podrían aparecer y requerir soluciones

prácticas.

A pesar de esto, los estudios de caso se hacen en ocasiones y la razón típica para ello es

que el objeto es tan complicado que el investigador debe centrar todas sus energías en el

estudio del objeto singular para revelar sus múltiples atributos y relaciones complejas con

el contexto.

Objetos típicos de estudios cualitativos de casos son los productos culturales, los artistas

destacados, personas que están usando los artefactos, sus modos de vida y situaciones

sociales típicas. Los puntos de vista relacionados con la selección de nuestro objeto se

tratan bajo el epígrafe Delimitar la población de estudio.

En el estudio de caso, el investigador suele apuntar a adquirir la percepción más completa

posible del objeto, considerándolo como una entidad holística, cuyos atributos podemos

entender en su totalidad solamente en el momento en que examinemos todos

simultáneamente, en otras palabras: el objeto como un todo.

Cuando el investigador comienza ahora a construir la visión descriptiva del objeto de

estudio, la cuestión decisiva es si hay ya modelos que puedan ser usados como una base

o punto de partida. A este respecto, los extremos son los dos siguientes:

Estudio exploratorio de caso, y

Estudio de caso sobre la base de una teoría anterior.

1. Estudio exploratorio de caso. La razón para no basar el estudio en un modelo o teoría

previos puede ser:

No hay modelo teórico previo. El objeto de estudio difiere de todos los objetos anteriores y

el objetivo del estudio es describir su carácter excepcional. El objetivo es documentar el objeto de forma tan completa como sea posible, y no sólo

aquellos temas que fueron documentados en estudios anteriores.

búsqueda fenomenológica de una comprensión profunda y desconfianza en las

anteriores descripciones y explicaciones.

Page 410: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 396

Describir el carácter excepcional del objeto era en otro tiempo un objetivo habitual de los

estudios de caso. Los más tempranos informes publicados de investigaciones describían

obras de arte en la antigua Grecia. Pronto también aparecieron monografías sobre gente

eminente escritas por Plutarco y Suetonio. Realmente las primeras monografías de artistas

fueron las Vite de' piu eccellenti architetti, pittori e scultori escritas por Vasari (1568) y la

autobiografía de Cellini (1569).

Los primeros autores de monografías deseaban describir los rasgos singulares,

dramáticos o divertidos de los objetos, y lo mismo es cierto en muchos de sus sucesores

modernos. Hoy en día, las organizaciones industriales o administrativas a veces encargan

en ocasiones monografías sobre ellas mismas, con el fin implícito de aparecer a una luz

favorable en el libro. Por ello, es esencial la crítica de fuentes, cuando tales obras se usan

por otros investigadores.

Documentar es algo necesario si el objeto está en peligro de desaparición. Tal cosa, por

supuesto, ocurre con frecuencia a artefactos así como a sus creadores. El objetivo de

documentar es reunir tantos hechos como sea posible, y por esta razón esta actividad se

trata bajo el epígrafe Reunir datos.

El análisis fenomenológico significa abordar el objeto de estudio, el fenómeno, como una

experiencia concreta del hombre, tan libres como se pueda de presuposiciones

conceptuales. El objetivo de la investigación fenomenológica es adquirir una comprensión

de las estructuras esenciales de estos fenómenos sobre la base de ejemplos mentales

proporcionados por la experiencia o la imaginación y por una variación sistemática de

estos ejemplos en la imaginación. Esta técnica de recogida de información es descrita en

otro lugar, entre otros métodos para Registrar atributos cualitativos de Objetos.

Zu den Sachen selbst (A las cosas mismas) fue la divisa de Edmund Husserl, el más

eminente autor sobre el método fenomenológico durante los años 1906-1936. El método

básico del análisis fenomenológico es la reducción. Primero, la existencia del objeto de

estudio ha de ser "puesta entre paréntesis", no porque el filósofo deba dudar de ella, sino

porque las condiciones en torno al objeto de estudio están sujetas a varias coincidencias

que pueden oscurecer su esencia real.

Page 411: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 397

Ilustración 16: Metodo fenomenologico

El segundo paso es la reducción eidética. El fin es encontrar la esencia universal e

inmutable o estructura del objeto. Un método adecuado es imaginar variaciones del objeto

de estudio y centrar nuestra atención en lo que permanece sin cambios en estas

variaciones.

El tercer y último paso debe ser la reducción transcendental, a través de la cual el

investigador vuelve a su ego transcendental como la base para la fundación y constitución

(o formación) de todo significado (alemán Sinn). Entonces comprende cómo el significado

está basado en significados, como los estratos en un proceso de sedimentación. Esta

tercera fase del método era, sin embargo, algo que quedaba bastante oscuro en los

escritos de Husserl, aunque él intentase clarificarla hasta el final de su vida. Su

interpretación llevaría más tarde a una división del movimiento fenomenológico.

(Resumido de la Encyclopaedia Britannica.)

Los fenomenologistas creen que su método da una más profunda información sobre el

mundo empírico de la que puedan ofrecer los métodos empíricos usuales. Heidegger dio

una explicación existencialista para esto diciendo que una comprensión fenomenológica

viene de la existencia (das Sein) común al investigador y lo investigado:

"Comprender es lo mismo que el ser existencial relacionado con el propio ser y capacidad

de un ser humano, y tiene lugar en tal modo que este ser refleja el sentido de su propia

existencia a su vez en sí mismo (del libro Sein und Zeit, 1972, 78)... "Cuando nuestra

comprensión se desarrolla, la llamamos interpretación. En la interpretación no adquirimos

Page 412: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 398

conocimiento sobre lo que entendemos; en lugar de ello, interpretar consiste en ser

consciente de las potencialidadess proyectadas por la comprensión" (ibid., 82, 32).

En lenguaje llano, una de las implicaciones de estas líneas podría ser que todos

encuentran lo más fácil entender los productos de su propia cultura, y la interpretación

parte desde el investigador más que desde los datos.

Se ha incluido una explicación detenida del método fenomenológico porque muchos

investigadores hoy afirman usarlo. Es, de hecho, un método muy apropiado para el

investigador: "Cuando la misma persona hace las preguntas y da las respuestas, no queda

nada cuestionable." Sin embargo, en la práctica, el pretendido "método fenomenológico"

con frecuencia simplemente indica que el escritor ha hecho un esfuerzo especial para

mediar en los atributos simbólicos y asociativos del objeto de estudio.

Direcciones en el WWW sobre fenomenología:

Fenomenología

Martin Heidegger

2. Estudio de caso basado en teoría previa. Hoy en día, todos los temas del mundo han

sido ya estudiados por uno o más campos especiales de la investigación. Toda pregunta

concebible u objeto de estudio de caso pueden ahora en consecuencia haber sido

investigados a la luz de teoría previa.

Las obras de arte, por ejemplo, pueden ser estudiadas sobre la base del análisis

estructural, el análisis de contenido o la semiología. (Véanse ejemplos de los distintos

enfoques de la estética.)

El estudio de los artistas puede obviamente estar basado en cualquiera de las muchas

teorías que interpretan el comportamiento humano como resultado de circunstancias

sociales y culturales. El francés Charles Sainte-Beuve (1804 - 1869) e Hippolyte Taine

(1828 - 1893) fueron pioneros del estudio sociológico del arte.

Wilhelm Scherer fue el primero en presentar un modelo general para las biografías de

artistas. El modelo explica el carácter especial de cada artistas por tres factores, que eran,

das Ererbte (los elementos heredados)

das Erlebte (las experiencias) y

das Erlernte (lo que el artista ha aprendido).

Sobre esta base, el enfoque psicológico ganó gran popularidad en el estudio del arte y los

artistas, especialmente tras la obra de Sigmund Freud.

Page 413: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 399

Salvo las más superficiales, todas las monografías estudian el objeto sucesivamente

desde varios puntos de vista, cada undo de los cuales está basado en una teoría existente

hecha por investigadores anteriores (véase la figura de la derecha). Cada punto de vista

añade algo al cuadro general. Muchas veces, cuanto más conflictivas son las presiones en

varias direcciones, más interesante puede llegar a ser la monografía.

4.8.3. ESTUDIO COMPARATIVO

El método comparativo significa que estudiamos ejemplares que pertenecen al mismo

grupo pero que difieren en algunos aspectos. En un nivel elemental, la comparación puede

ser útil cuando el investigador no está interesado en diferencias sino en un caso singular.

Si el objeto que interesa pertenece al entorno cultural normal del investigador, no siempre

son fáciles de percibir sus características especiales. El caso puede aparece demasiado

obvio y no problemático. "Un pez no puede notar que vive en el agua." Un método para

revelar la naturaleza específica de un objeto demasiado-bien-conocido es compararlo con

otros casos o ejemplares.

Imagen 8: Comparaciones cualitativas

Un ejemplo del empleo arriba mencionado de la comparación puede encontrarse en el

estudio Products as Representations, (Productos como representaciones) de Susann

Vihma. La autora examinó metáforas de equipos domésticos. Entre sus objetos de estudio

estaban doce planchas de vapor, cinco de las cuales se representan en la foto de arriba.

Descubrió que cuando se estudiaba cada ejemplar aisladamente no era fácil captar su

mensaje simbólico; esto se volvía más fácil cuando el objeto se estudiaba junto con otros

objetos similares o cuando dos objetos podían ser comparados entre sí.

El método comparativo suele ser popular en un cierto estadio de la evolución de un campo

de investigación, cuando los científicos intentan salir del nivel inicial de los estudios

Page 414: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 400

exploratorios de caso a uno nivel más avanzado de estructuras teóricas generales o leyes.

En estos estudios, las diferencias entre varios casos singulares pueden revelar

interesantes estructuras, invariancias, que son válidas en un grupo más amplio de casos u

objetos, o tal vez incluso de forma universal.

Si deseamos obtener resultados que sean válidos en un cierto grupo, debemos definir éste

como una población de objetos, de casos, y a partir de ese momento debemos considerar

qué tamaño ha de tener la muestra de esta población que tenemos que estudiar. Muchas

veces una muestra de solamente dos ejemplares o casos no es bastante para eliminar

perturbaciones y variaciones indeseadas; en ese caso tendríamos que comparar varios

pares, o clases de casos o ejemplares.

En otras palabras, el diseño de nuestra investigación se convierte en una forma de

clasificación. Con frecuencia el material que ha de ser comparado se registra a partir de

los casos o ejemplares existentes en el "campo". La otra alternativa es montar un

experimento en el laboratorio. El trabajo de campos suele significar una buena validez

pero muchas veces una inferior fiabilidad de los resultados: hay mucha variación aleatoria

y perturbaciones que obstruyen el estudio de solamente aquellas diferencias en que el

investigador está interesado.

Clasificación

Cuando va a ser estudiado un gran número de objetos, puede ser útil estructurar la

agrupación material de los objetos en clases. La base de la agrupación es proporcionada

normalmente por el punto de partida teórico, y suele ser uno de los atributos importantes

de los objetos. Todos los miembros en una clase tienen este atributo nombrado, o lo

tienen en mayor grado que otros objetos.

La clasificación de acuerdo con solo un atributo es raras veces muy gratificante. Bien

distinta es la situación cuando tenemos dos o más propiedades que nos interesan de los

objetos o casos: entonces podemos construir una tabulación cruzada que es muy una

herramienta muy efectiva si queremos revelar una asociación entre estos factores.

Page 415: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 401

Tabla 13: Tabulación Cruzada

El ejemplo ficticio de la derecha ilustra una tabulación cruzada, y una fuerte asociación, de

dos atributos de los respondientes: la marca de su aspiradora y su intención de

mantenerse fieles a la vieja marca. De esta fuerte asociación puede ser hecho uso por

ejemplo cuando se planifican futuras campañas de ventas. (La fuerza de una asociación

estadística puede ser medida con una prueba chi.)

Qué atributo es "interesante", es algo que será definido por el problema inicial del estudio

y por el modelo teórico que se usa como punto de partida. Más adelante se explican

algunos principios habituales de clasificación. Las categorías autóctonas son nombres

de grupos tradicionalmente usados, por ejemplo: americanos, Los impresionistas. Las

clasificaciones basadas en propiedades tienen su origen en el modelo teórico que el

investigador tiene como punto de partida. Estas clasificaciones no son, de este modo,

factibles en la investigación exploratoria. Si es posible medir este atributo interesante, el

análisis se convierte en cuantitativo y eso se trata bajo el epígrafe Tabulación. Las

clasificaciones basadas en atributos cualitativos son comunes en la sociología. Los

miembros de una sociedad se disponen sobre la base de la profesión, educación, renta,

atributos demográficos, etc. Las familias son muchas veces clasificadas de acuerdo con la

"fase" de la familia:

La familia posee una aspiradora de la marca ZIP

La familia posee una aspiradora pero no es una ZIP

La familia no posee una aspiradora

La próxima aspiradora de la familia será quizás una ZIP

31 respuestas 20 respuestas 1 respuesta

La próxima aspiradora de la familia no será una ZIP 3 respuestas 36 respuestas 0 respuestas

La pregunta no es pertinente o no hay respuesta

6 respuestas 30 respuestas 1 respuesta

Page 416: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 402

Tabla 14: Fases de una familia

Comienzo de la fase Fase de Familia Matrimonio, etc. Establecimiento de la familia Nacimiento del primer hijo Crecimiento de la familia Nacimiento del último hijo Periodo estático El primer hijo deja el hogar Contracción de la familia El último hijo deja el hogar Fase postparental El primer progenitor fallece Desintegración de la familia El segundo progenitor fallece -

Los ejemplos de clasificaciones interesantes comercialmente son las segmentaciones de

potenciales clientes.

Toda clasificación trabaja mejor cuando los límites entre las categorías son tajantes y hay

pocos casos intermedios. Podemos siempre añadir una categoría llamada "otros", pero

eso complica el análisis.

Ilustración 17: Clasificación de ornamentación

Una clasificación meticulosa fue hecha por Rostislav Holthoer, en New Kingdom Pharaonic

Sites [Los yacimientos faraónicos del Imperio Nuevo] (1977, 56). Clasificó más de 3000

ejemplares de cerámica antigua de acuerdo con su ornamentación. Definió las clases a

través de las pinturas y también verbalmente:

Ilustración 18: Clasificación de simbolos

Page 417: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 403

Línea

Línea ondulada

Línea punteada

Líneas cruzadas

Fila de rectángulos

Fila de triángulos

Además, Holthoer hizo otra clasificación sobre la base de las líneas que el artista de la

antigüedad había dibujado sobre los motivos:

Sin línea

Líneas a ambos lados de los motivos

Línea a lo largo del motivo

Líneas a través y a ambos lados

Considerando la variación en los 3000 recipientes de Holthoer, su clasificación era

admirablemente explícita y el número de ejemplares no acorde con alguna de estas clases

era mínimo. Los artefactos modernos y las obras de arte pueden resultar más difíciles de

clasificar.

La tipología es un método de clasificación donde cada clase es formada en torno a un

ejemplar "típico" o "puro" predefinido. Cada objeto de estudio es comparado entonces a

este conjunto de ejemplares, y asignado a la clase más acorde con el ejemplar. La

debilidad de este método es que muchas veces es imposible medir la adecuación de la

concordancia con la clase; con lo que la clasificación final de los objetos resulta más bien

subjetiva. El riesgo es pequeño si el número de casos intermedios es pequeño, como tal

vez sea el caso de los nudos de alfombra. Sólo hay un número limitado de nudos, y cada

nudo es inequívocamente discernible de los otros, como se puede ver en la ilustración

hecha por Geijer en el libro A History of Textile Art. En lo que respecta a la mayor parte de

los demás artefactos, hay un número ilimitado de variaciones y por tanto de posibles

clasificaciones o tipologías.

La subjetividad del método tipológico se intensifica cuando una misma persona, es decir,

el investigador, es quien define los tipos-clases y coloca los objetos en ellos. Se vuelve

entonces muy fácil para él el demostrar la validez de su tipología favorita. Esto es -¡ay!-

bastante común en investigadores que sencillamente desprecian (como "no típicos") todos

los objetos o casos que no son acordes con la clasificación prefabricada, en lugar de

Page 418: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 404

corregir la misma clasificación caduca. La corrección obvia, por supuesto, es que la

clasificación final debiera ser hecha por otra persona neutral.

Clasificaciones difusas. Si el investigador no puede definir ningún atributo único que

determine la clase, puede, en lugar de ello, intentar clasificar los objetos sobre la base de

una semejanza de familia. Esto significa que no hay ningún rasgo único que deba ser

común a todos los miembros de una clase; en lugar de ello, hay una lista de rasgos

potenciales. Cada miembro de la clase tiene la mayor parte de ellos, pero no

necesariamente todos ellos.

Un ejemplo de clasificación difusa es la manera en que se disponen habitualmente las

historias del arte, el estilo. Indica en una obra de arte, el agregado de todas las

características personales del artista. Un estilo es, en cierto grado, común a todos los

artistas pertenecientes a una "escuela" de artistas. De este modo un estilo puede incluir

miles de obras y habrá probablemente muchas que quedarán cerca de las fronteras de la

clase o puedan ser colocadas en cualquiera de ambos lados de la frontera. Esto conlleva

otra vez los riesgos de la subjetividad.

Los problemas de las clasificaciones estilísticas se tratan en:

Semper: Der Stil (1860),

Riegl: Stilfragen (1893),

Wölfflin: Kunstgeschichtliche Grundbegriffe

(1915),

Walker: Design history and the history of

design (1989).

Las clasificaciones sobre la base de

mediciones se tratan en el capítulo

Investigación cuantitativa.

La frecuencia de una clase es una variable aritmética. De este modo se abre un camino

para transformar descripciones cualitativas en variables cuantitativas que en ese momento

pueden ser analizadas con todos los métodos estadísticos (si eso es lo que el investigador

quiere).

Estudio histórico

Cuando definimos nuestro ángulo de visión sobre nuestro objeto de estudio, tenemos que

considerar la dimensión del tiempo. A este respecto tenemos las siguiente opciones,

Page 419: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 405

La investigación transeccional o sincrónica es una buena elección si nuestro objeto es

relativamente estático, o si deliberadamente deseamos hacer una "imagen congelada" de

una situación inestable; un ejemplo de esto es el censo nacional anual. Sin embargo, si

deseamos estudiar relaciones

causales, la "imagen congelada"

es un vehículo pobre; véase el ejemplo

de arriba donde la intención es

descubrir porqué fue elegido

cierto diseño para la tetera.

El estudio longitudinal o diacrónico

es una herramienta efectiva para revelar influencias y relaciones causales, tanto físicas

como psicológicas. Por este método Penny Sparke fue

capaz de explicar la evolución de las aplicaciones

eléctricas domésticas sobre la base de la evolución de

las convenciones de la vida doméstica y de la industria

(véase el diagrama de la izquierda. El inconveniente es

que necesitamos reunir muchos más datos que en el

método de la "imagen congelada". La variación en el

lapso período de tiempo de la investigación es grande:

algunos procesos físicos pueden durar menos de un

segundo, mientras que un estudio de seguimiento de

las historias personales de individuos puede que

requiera estudiar a las mismas personas durante

décadas.

En el estudio diacrónico de artefactos hay dos líneas

principales que también es posible combinar (para una

explicación más profunda, véase Walker, Design

history and the history of design, 1989).

Los estudios de historias de artefactos (que Walker

llama "Historias de Diseño") tratan la evolución de un cierto tipo de productos o artefactos.

Por ejemplo, en los libros llamados "Historia de la Arquitectura" encontraremos

descripciones de edificios famosos antiguos y recientes. De manera similar, Raymond

Loewy da cuenta en el libro Industrial Design de una larga serie de sus dibujos y explica

Page 420: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 406

algunas características de la progresión gradual de su apariencia. En la página 74 se

encuentra una ilustración muchas veces citada, "Evolution Chart of Design" parte de la

cual vemos a la derecha. Loewy no da una explicación general o "ley natural" de esta

evolución.

Las historias de diseño están centradas en los artefactos, su apariencia y forma. El estilo

y periodo estilístico son estructuras teóricas capitales. Las fases en el desarrollo de un

estilo de diseño se definen convencionalmente como crecimiento, madurez o florecimiento

y declive o decadencia. En relación con los periodos estilísticos, los artistas individuales se

suelen describir o bien como vanguardia o creadores originales de novedades, o como

seguidores que adaptan y refinan las ideas creadas por la vanguardia.

Las historias de diseño y manufactura (por Walker, "Design Histories"), por ejemplo la

"historia de la construcción" no son algo opuesto al tipo precedente, sino que profundizan

más e intentan encontrar las razones y explicaciones para la evolución de los artefactos.

Los artefactos se ven sólo como ilustraciones, y el objeto principal de estudio es la

actividad del diseño como un proceso social, económico y ecológico. Los factores

explicativos son, por ejemplo, cambios en la demografía de la sociedad, en las

condiciones de la industria o de la economía; por otra parte las consecuencias de

invenciones, educación, cambios políticos, guerras y la adquisición o pérdida de colonias.

En el estudio del arte se puede encontrar un paradigma comparable en la sociología del

arte. Los modelos comunes de investigación también incluyen los procesos de producción

industrial a partir de materias primas hacia el mercado y el uso, desgaste, reparación,

desechado y reciclado de productos.

Hoy, las dos vistas que se

han presentado de la

investigación son

combinadas con bastante

frecuencia. Un ejemplo es el

estudio de Ulla-Kirsti Junttila

de los elementos de

iluminación y otros

equipamientos urbanos

(UIAH, 1986). Junttila describe secuencias de artefactos tal y como los descubre el estudio

empírico, como el de la derecha; y por otro lado explica las razones de esta evolución:

Page 421: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 407

Las regulaciones administrativas,

La estructura organizativa de las obras e instalaciones en calles: que organismos públicos

están implicados y el grado de familiaridad de su cooperación,

la competencia del personal a cargo de las obras e instalaciones en calles,

las actitudes de funcionarios, de concejales y de los ciudadanos.

El "Zeitgeist" (el "espíritu de la época") no debiera darse como un factor influyente. El

Zeitgeist es una etiqueta útil para todos los rasgos simultáneaos de la cultura y de las

distintas artes de una época, pero si acabamos diciendo que es también la razón para

estos rasgos, habremos cometido el error del razonamiento recíproco.

Una vez que el investigador ha descubierto las estructuras inherentes de una evolución

histórica, esto puede también puede ser usado para predecir desarrollos futuros del objeto

de estudio. Los métodos disponibles son:

Las secuencias del tipo de la historia de artefactos pueden prolongarse al futuro por

extrapolación,

Las invariancias encontradas en la modalidad de investigación de historia de diseño y

manufactura pueden ser usadas para predecir sobre la base de un modelo causal.

Por otro lado, una vez que se han clarificado las razones de una evolución pasada, éstas

pueden ser usadas también para cambiar la dirección de futuros progresos. Véase Análisis

cualitativo normativo, Desarrollar un producto, y Desarrollar una actividad.

4.8.4. ANÁLISIS CUALITATIVO NORMATIVO

Antes muchos investigadores querían hacer una distinción tajante entre investigación

descriptiva y normativa. La primera era vista como "objetiva" y "universalmente cierta",

mientras que la segunda era "subjetiva" e influenciada por valores personales, que son

variables. Hoy la opinión general es que ningún investigador puede eliminar totalmente sus

valores y por tanto no hay una división absoluta entre las dos formas de investigación. Por

otra parte, se están haciendo muchas investigaciones que son explícitamente normativas.

Tal es el caso cuando el estudio se pretende que aporte una base para el desarrollo de

nuevos productos industriales. En este tipo de estudio el objeto muchas veces es un

producto anterior del mismo tipo y el objetivo es descubrir:

sus fallos o debilidades potenciales,

si podría ser mejor y en qué aspectos,

las maneras en que estas mejoras se podrían obtener.

Son atributos o propiedades cualitativos típicos del producto que se estudia de este modo:

Page 422: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 408

usabilidad, funcionalidad, efecto, capacidad

durabilidad y mantenimiento fácil

belleza o apariencia agradable

significación simbólica, mensaje, indicación de estatus o prestigio.

4.8.5. HERRAMIENTAS PARA EL ANÁLISIS CUALITATIVO

Dándose el hecho de que la vida humana es infinitamente variada, es comprensible que la

lógica que gobierna la investigación que se hace para entenderla también tome muchas

formas. Hay frecuentemente más lógica en el informe de investigación que en el plan de

investigación, dejado atrás en los pasos que realmente se han dado en el proyecto. Esto

no puede ser evitado en estudios enfocados a entender el comportamiento y la cultura

humanos: ya que el objeto no es muy bien entendido en el comienzo, tampoco es posible,

por adelantado, encontrar las formas efectivas de estudiarlo.

La lógica y el proceso de la investigación cualitativa es raramente tan llana como la del

estilo cuantitativo de investigación. Mientras que ambos tipos comprenden una búsqueda

de información, rara vez ocurre que no se conozca casi nada sobre el asunto en el

momento de comienzo del proyecto. Tenemos entonces que comenzar con una impresión

más bien vaga de lo que tenemos que estudiar

A veces podemos comenzar simplemente un único ejemplar o caso que ilustra el problema

que nos interesa y entonces tal vez continuar estudiando el mismo objeto, o un grupo

progresivamente creciente de objetos hasta que llega a ser evidente que no se puede

profundizar más en el problema. Una indicación de este estado de "saturación" del estudio

es que el análisis de nuevos elementos o casos ya no revela conocimientos interesantes.

El análisis de un campo empírico cualitativo puede ser una tarea bastante exigente. Los

informes pueden incluir cientos o miles de páginas manuscritas, de las que tenemos que

arrancar las pocas páginas de hallazgos significativos. La tarea se hará mucho más fácil

tan pronto como podamos especificar la invariancia que estamos persiguiendo. Tras esa

decisión, podemos omitir todo el material que ya no sea pertinente y comprimir la

información pertinente. La compactación se suele hacer con la ayuda de la codificación

de los elementos frecuentes y típicos, que consiste en asignarles nombres cortos, letras o

símbolos.

Para facilitar el análisis de los datos, debiéramos almacenarlos bien ordenados. Las

herramientas tradicionales para esta tarea eran las fichas de cartulina y las carpetas, pero

hoy lo más probable es que prefiramos un ordenador. Antes de empezar a alimentar a la

Page 423: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 409

máquina con datos, el investigador debe considerar qué tipo de programa informático le va

a resultar en el futuro más efectivo cuando haya de someter el material a operaciones

analíticas. La elección debe ser hecha dependiendo del carácter de nuestros datos.

el texto se presenta y maneja fácilmente con programas de tratamiento de textos, como

Word o WordPerfect.

los materiales combinados que incluyen imágenes a veces se gestionan mejor con

programas de bases de datos como DBase y Paradox. Por otro lado, algunos programas

de tratamiento de textos son capaces de manejar varios tipos de material. El almacenado

de imágenes, imágenes en movimiento y grabaciones de voz sigue siendo algo

complicado y con sus riesgos.

• las tablas se manejan mejor con programas de hoja de cálculo, como Excel o

QuattroPro. Son ideales para datos numéricos, pero pueden manejar también

textos cortos.

Junto a los programas de funciones más generales que acabamos de mencionar, hay

programas especiales para análisis cualitativo. Una recopilación de ellos puede

encontrarse en Computer Assisted Qualitative Data Analysis Software. Un programa

bastante extendido es, por ejemplo, Atlas.ti, desarrollado originalmente en la Universidad

Técnica de Berlín. Se pretende que facilite muchas de las actividades que implica el

análisis y la interpretación de datos textuales, gráficos y sonoros, particularmente

seleccionando, codificando, anotando y comparando segmentos relevantes. También

ayuda a presentar los resultados en forma de modelos lógicos, como árboles o tablas.

Documentos en el WWW que tratan de forma general los métodos de análisis cualitativo:

• Qualitative Research Resources on the Internet, por Ron Chenail.

• Descriptive Methods

• QualPage! Recursos para investigadores cualitativos

• Comparing Qualitative and Quantitative Methods por William M.K. Trochim

• Concept Maps as Hypermedia Components, por Brian R. Gaines y Mildred L. G.

Shaw, Knowledge Science Institute, University of Calgary.

Una vez terminado el análisis y el material organizado en las estructuras cualitativas

deseadas, debemos proceder al siguiente paso: evaluar los resultados, su factualidad y tal

vez su utilidad.

Sobre lo referido a informar de los resultados de un estudio, se ofrece en este documento

una página aparte.

Page 424: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 410

o http://usuarios.iponet.es/casinada/arteolog (España)

o http://www.uiah.fi/projects/metodi/ (Finlandia)

Page 425: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 411

<<<<

4.9. LA INVESTIGACIÓN COMO UNA ACTIVIDAD EN EL AULA

José Burgos Tovar

Por lo general, en el quehacer docente vemos con inquietud la gran separación que existe

entre la teoría y la práctica, la cual es producida, quizá, por el desconocimiento de los

docentes sobre la importancia que tiene el relacionarlas; así mismo, desconocen la

importancia de relacionar la teoría y la investigación.

La investigación debe ser reconocida como una actividad que conlleva a la producción de

conocimientos, lo cual permite establecer una mayor objetividad de la realidad educativa.

Asimismo, la investigación educativa, debe ser una práctica constante, dirigida esencialmente, a dar respuesta a los problemas que surgen en el medio educativo y

también dirigida a establecer nuevos cambios y parámetros a los ya establecidos.

Hoy en día, se establecen dos formas en el campo de la investigación educativa en el

aula:

1. La investigación psicométrica o cuantitativa: Su objetivo es comparar los diferentes

métodos, materiales y técnicas de enseñanza, con el propósito de determinar si una

o más de estas variables, produce un mayor aprendizaje en los alumnos.

2. La investigación cualitativa o interpretativa: Su objeto es revelar algunas de las

complejidades que tiene la enseñanza y el aprendizaje, más que el demostrar que

un médico determinado, es mejor que otro. Su foco de atención es la

documentación y análisis de lo que sucede en el aula. (V. Corrales Olga y Jiménez

María, en: Revista de Educación de la Universidad de Costa Rica. p. 41)

En el primer procedimiento, aplicarnos la estadística inferencial, para establecer

comparaciones entre grupos, planteando hipótesis que debemos demostrar

estadísticamente. El segundo procedimiento es más que todo presentar los hechos que

ocurren en el aula, es una investigación que tiende a ser descriptiva, sin embargo, ninguna

excluye a la otra.

Con ambas se puede jugar, una para establecer lo que pasa y la otra para aplicar alguna

solución.

Por esta razón hay quienes utilizan la investigación cualitativa o cuantitativa, mientras que

otros utilizan ambas, en fin, hay que considerar la realidad misma de la acción en el aula y

Page 426: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 412

de la intencionalidad del investigador, ya partiendo de esto, se determinan los

procedimientos a seguir.

También se identifican otras tradiciones en el campo de la investigación educativa en el

aula:

1. Análisis de la interacción: es donde el investigador emplea sistemas y esquemas

para el estudio de conductas e interacciones.

2. Análisis del discurso: Se describen todas las acciones que ocurren en el aula:

cambio de tema, de participación, de reglas, de actividades. El investigador se

familiariza con toda esta información, sobre lo que se dijo y se llevó a cabo. Todo

esto servirá para hacer una descripción y análisis posterior del proceso de

aprendizaje en el aula.

3. La investigación etnográfica: el investigador observa, describe, escribe e interpreta

eventos en el aula por medio de procedimientos similares a los usados por los

antropólogos, cuando estudian culturas y sociedades desconocidas.

El término etnografía está constituido por dos principios:

1. El étnico: el cual exige al investigador que deje de un lado las ideas

preestablecidas, modelos, esquemas y tipologías y derive su conocimiento por

medio de la observación y estudio de la interacción que se establece entre el

maestro, alumno y materiales didácticos y por medio de ciertos documentos como

lo son las entrevistas, conversaciones, planes de acción, apuntes y otros.

2. El holístico: es la de establecer la relación entre el estudio de aspectos específicos

de determinada cultura, con el conocimiento acerca de otros componentes de dicha

cultura. (Ibid. p. 74).

En muchas ocasiones algunos, educadores sienten el deseo de realizar investigación en el

aula, motivados por la propia actividad docente y de la interacción con sus alumnos y esto

es significativo, puesto que, se estaría ejerciendo un mayor entendimiento de la acción en

el aula, lo cual propicia la productividad de ideas y se estaría dando respuesta a preguntas

surgidas dentro del aula.

Todo lo anterior amerita el planteamiento de las siguientes preguntas:

¿Cuáles son las expectativas que tiene el docente, respecto a la realización de

investigación?

¿Existe interés del profesorado en realizar investigación? ¿Cuáles son las facilidades que

se le brindan al profesorado para realizar investigación? ¿Existe algún plan o programa de

Page 427: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 413

formación metodológico - estadístico, que fomente y facilite la investigación entre el

profesorado?. ¿ Los posgrados, están formando a nivel de investigación? o ¿son meros

repetidores teóricos? si es esto último, necesita una revisión urgente de uno de sus

principales objetivos, como es la de capacitar profesionales con formación en

investigación.

¿Existe aún la creencia de que los que deben investigar son los investigadores, y no todos

los profesores que estamos en ejercicio docente? ¿Exige la universidad investigación a

sus docentes? Si así fuese..., ¿Se respeta el tiempo para investigar, o estamos inmersos

en tantas actividades "curriculares", que no nos resta tiempo para investigar?

Una última idea para reflexionar es que la investigación es importante para toda

universidad, puesto que orienta, con criterios sólidos y válidos, sobre qué o cuáles

actividades, objetivos, métodos, técnicas o procedimientos, podemos establecer, tomando

en cuenta, por supuesto, las diversas tendencias que ocurren en nuestro entorno.

"La cantidad y calidad de la investigación, es un síntoma o señal, de la salud académica

de una institución".

... ¿Cómo está la salud de su institución?

El autor es Doctor en Educación por la Universidad Autónoma de Guadalajara.

Recientemente retornó a Venezuela, su país de origen.

Page 428: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 414

<<

4.10. REFLEXIONES EPISTEMOLÓGICAS SOBRE LA INVESTIGACIÓN CUALITATIVA EN CIENCIAS SOCIALES

Adrián Scribano

4.10.1. INTRODUCCIÓN

En las Ciencias Sociales existe una estrategia metodológica que ha cobrado un especial

auge en los últimos años denominada generalmente como investigación cualitativa.

Particularmente en Argentina, más allá de que el material estrictamente metodológico

publicado es muy poco, existe una especie de consenso académico implícito, al menos en

sociología y politología, sobre dicha estrategia, que puede ser explicitado del siguiente

modo: a) que lo cualitativo es la "alternativa" a una ciencia social positivista y cuantitativa,

y b) que dadas las condiciones de trabajo y formación reinantes, dicha alternativa es más

fácil de enseñar y de aplicar. Si bien estas dos características deberían ser revisadas con

algún detenimiento, desde mi punto de vista ambas parten de y arriban a conclusiones

erróneas. De manera sintética mi argumento tendría la siguiente forma: no tenemos

ninguna seguridad que un abordaje cualitativo no sea positivista, no hay ninguna razón

epistémica que permita oponer aporéticamente cuantitativo a cualitativo, y finalmente los

conocimientos teóricos-metodológicos necesarios para hacer investigación cualitativa no

son ni tan fáciles de transmitir ni muchos menos de ejecutar fácilmente.

En base a este diagnóstico, este trabajo pretende destacar algunos tópicos de la discusión

metodológica respecto a la investigación cualitativa, con especial referencia al lugar de la

informática en la misma, que permitan observar los problemas epistémicos que de ello

emergen. Mi objetivo es mostrar, al menos parcialmente, que la estrategia en cuestión

implica una pluralidad de técnicas y teorías, que, por su peso específico, trascienden los

rasgos propuestos en el diagnóstico realizado y evidencian que su "progreso" implica

discusiones que van más allá de la mera referencia alegórica al subjetivismo. Para lograr

este objetivo seguiré el siguiente camino argumentativo: en primer lugar mostraré

sintéticamente la situación actual de las diversas estrategias cualitativas desde donde se

presenta una suerte de periodización de la relación cualitativo y cuantitativo. En segunda

instancia, señalaré el lugar que hoy ocupa la informática en la investigación cualitativa a

través de la presentación de dos artículos que pueden resumir algunas de las discusiones

en torno a esto y, finalmente, esquematizaré las discusiones epistémicas que afloran de

Page 429: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 415

este contexto, señalando algunos temas para debatir que van más allá de una simplificada

visión sobre lo cualitativo.

4.10.2. ESTRATEGIAS ALTERNATIVAS PARA LA INVESTIGACIÓN CUALITATIVA

Una de las confusiones más comunes entre los investigadores recién iniciados respecto a

la investigación cualitativa, es la asimilación de las técnicas cualitativas con las estrategias

metodológicas. Esta confusión acarrea muchos problemas de diseño para la investigación,

de igual dimensión que los que ocasiona realizar una encuesta creyendo que en la

aplicación del instrumento se agota el estudio cuantitativo de la sociedad.

Sumado a esto, existe un prejuicio teórico muy arraigado sobre las diferencias entre

estrategias cuantitativas y cualitativas tomadas como paradigmas rivales e

inconmensurables. Por lo tanto, he creído conveniente sintetizar muy brevemente cuál es

la situación actual de estas dos temáticas para que la presentación que se hará sobre el

lugar de la informática, pueda ser ubicada a un nivel satisfactorio de discusión.

Si bien una de las características de los enfoques cualitativos de la investigación en

ciencias sociales es la íntima relación existente entre diseño, técnicas, análisis y

construcción teórica, que en la práctica invalida una separación tajante de las etapas de la

misma, es lícito y además conveniente intentar mostrar cómo se puede reagrupar dichas

prácticas según alguna orientación dominante que las asemeje y diferencie.

La siguiente es una síntesis y reelaboración de una lista construida por Renata Tesch,

donde la autora ha esquematizado lo que ella denomina "tipos de investigación",

proveyendo de una definición de lo que entiende son los propósitos de los mismos, con la

particularidad de que estas últimas son tomadas directamente de la literatura más usual en

cada temática, lo que la hace aún más interesante. De esta manera se pueden visualizar

12 enfoques diversos para llevar adelante una investigación cualitativa, que están

agrupados de acuerdo a diversos criterios, entre los cuales predominan el metodológico y

el teórico. Dichos enfoques son:

4.10.2.1. ANÁLISIS DE CONTENIDO (CLÁSICO)

"Realizar inferencias válidas y replicables desde los datos hacia sus contextos"

(Krippendorf 1990:21).

"Descripción objetiva, sistemática y cuantitativa del contenido manifiesto de la

comunicación" (Berelson 1952:489).

Page 430: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 416

"Realizar inferencias mediante una identificación sistemática y objetiva de las

características especificadas dentro del texto"(Stone et al.1966:5).

4.10.2.2. ANÁLISIS DE CONTENIDO (ETNOGRÁFICO)

"Análisis reflexivos de los documentos" (Altheide 1987:65).

"Usar el documento y comprender el sentido de la comunicación, tanto como verificar las

interrelaciones teoréticas" (Altheide 1987:68).

4.10.2.3. ANÁLISIS DEL DISCURSO

"Análisis de lo naturalmente ocurrido conectado por discursos hablados o escritos" (Stubbs

1983:1) proveyendo "una introducción dentro de las formas y mecanismos de la

comunicación humana y de la interacción verbal" (van Dijk 1985:4).

4.10.2.4. ESTUDIOS DE DOCUMENTOS, HISTORIAS DE VIDA E HISTORIA ORAL

Un enfoque "no estructurado y no cuantitativo" usando documentos personales (Bailey

1978:273) que generalmente terminan en tipologías, o "a través del cual se examina y

analiza la experiencia subjetiva de los individuos y de sus construcciones del mundo

social" (Jones 1983:147).

4.10.2.5. ETNOGRAFÍA (CLÁSICA, HOLÍSTICA, REFLEXIVA)

"Describir y analizar toda o parte de cultura o comunidad por la descripción de las

creencias y prácticas del grupo estudiado y mostrar cómo las diversas partes contribuyen

a la cultura como un todo consistente unificado" (Jacob 1987:10).

4.10.2.6. ETNOGRAFÍA (ESTRUCTURAL)

"Clasificar e iluminar la organización y distribución social de las significaciones subjetivas

como campos de la realidad originarios y diversos" (Gumbrium 1988:26), estando "en

relación con ... catalogar sus formas e interrelaciones en el tiempo y en el espacio"

(Gumbrium 1988:26) donde se "piensa la cultura como un mapa cognitivo" (Spradley

1979:7) y donde "a la vez, la cultura tácita y explícita son reveladas a través del habla"

(Spradley 1979:7).

Page 431: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 417

4.10.2.7. ETNOGRAFÍA DE LA COMUNICACIÓN (MICROETNOGRAFÍA)

Consiste en focalizar "los patrones de interacción social entre miembros de un grupo

cultural o entre miembros de grupos culturales diferentes" en orden a "especificar el

proceso de interacción y entender como estos ‘micros’ procesos están relacionados con

unos más amplios ‘macros’ problemas de cultura y organización social" (Jacob 1987:18).

4.10.2.8. ETNOMETODOLOGÍA

Que es definida de las siguientes maneras: "estudiar cómo los miembros de la sociedad,

en el curso de la realización de la interacción social, producen el sentido de expresiones

‘indexicales’. Indexicales son términos cuyo sentido no es universal, pero es dependiente

del contexto" (Bailey 1978:249) o "cómo los miembros de una situación ensamblan

razonablemente comprensiones de las cosas y eventos que les conciernen a ellos y, por lo

tanto, realizan estas como objetos de la vida cotidiana" (Gubrium 1988:27) o finalmente

"cómo la gente en sociedad organiza sus actividades de un modo tal que ellos producen

un sentido mutuo, cómo la gente hace cosas de maneras tales que los otros pueden

reconocerlos por como ellas son" (Sharrock y Anderson 1986:56).

4.10.2.9. ETNOCIENCIA (ANTROPOLOGÍA COGNITIVA)

Que desde una perspectiva se define como: "comprender las categorías culturales de los

participantes e identificar los principios organizativos que fundamentan esas categorías ...

a través del estudio de los sistemas semánticos" (Jacob 1987:22); o también como "definir

sistemáticamente el significado de las palabras, o etiquetas -en síntesis los nombres de

las cosas en el contexto de su uso" (Werner y Schoepfle 1987:38) en orden a "construir los

campos lexicos-semánticos de conexión de las proposiciones" (Werner y Schoepfle

1987:38).

4.10.2.10. ANÁLISIS DE LA ESTRUCTURA DE EVENTOS

Que puede ser conceptualizada como: "examinar y presentar series de eventos como

estructuras lógicas, es decir, como elementos y sus conexiones (incluyendo los supuestos

que gobiernan estas conexiones) que pueden servir como modelos explicativos para

interpretar secuencias de eventos actuales o folklóricos" (Heis and Lewis 1980).

Page 432: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 418

4.10.2.11. "GROUNDED THEORY CONSTRUCTION"

De particular interés para este trabajo, puede ser sintetizada diciendo que consiste en

"descubrir la teoría desde los datos a través de un método general de análisis

comparativos" (Glaser y Strauss 1967:1).

4.10.2.12. INTERACCIONISMO SIMBÓLICO

Cuya conceptualización es: "ver cómo los procesos de designación e interpretación [los

participantes definen e interpretan recíprocamente sus actos] es la sustancia, devalúa, re-

direcciona, y transforma los modos en los cuales los participantes organizan juntos sus

líneas de acción" (Blumer 1969:53); o también "comprender cómo los individuos son

capaces de tomar otra perspectiva y aprender significados y símbolos en instancias

concretas de participación" (Jacob 1987:29).

La pluralidad es innegable. En cada uno de estos enfoques las unidades de registros y de

análisis cambian o son entendidas de otro modo, el lugar de la natural textualidad de lo

cualitativo es diferente, las técnicas pueden o no ser las mismas, pero por lo general unas

se adecuan más que otras y los puntos de partida teóricos son los que se transforman

radicalmente.

Esta enumeración nos autoriza sólo a constatar dos elementos útiles para nuestro objetivo

aquí: por un lado saber que existen diferentes técnicas y diversas formas de hacer

investigación cualitativa y por otro que sólo a través de sus conceptualizaciones se puede

observar que la relación cuantitativo/cualitativo no es aporética como suele pensarse. Para

ilustrar este último punto, parece conveniente resumir lo que Ray Pawson a denominado

"fases de la relación cuantitativo/cualitativo".

La primera fase se caracteriza por permanecer dentro del puritanismo metodológico,

donde la actividad de investigación podía relacionarse dicotómicamente con uno u otro

enfoque. Se relaciona con la así llamada "guerra de los paradigmas" metodológicos y las

discusiones son "métodocentradas".

La segunda fase hace referencia al surgimiento de un pluralismo pragmático como

reacción a la metodolatría, teniendo a las estrategias de "triangulación". Es una fase

centrada en la elaboración y resolución de problemas donde se acepta que existen

diversas vías metodológicas para lograr este objetivo.

La tercera fase, que aún hoy se desarrolla, consiste en la superación de la relación

cualitativo/cuantitativo desde un punto de vista dicotómico diluyendo un tratamiento

Page 433: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 419

aporético de la misma. Centrada en lo relacional, apunta a que la discusión se desplace

hacia la mejor articulación entre estrategias que puedan dar cuenta de la conexión entre

mecanismos, contextos y agentes.

Finalmente, este apartado nos respalda para introducir, sin malos entendidos, algunas

discusiones sobre el lugar de la informática en la investigación cualitativa.

Fundamentalmente por que ante la pluralidad de enfoques y las nuevas relaciones entre lo

cuantitativo y lo cualitativo dichas discusiones no pueden entenderse como un intento de

cuantificar lo cualitativo, ni tampoco como la idea de disolver la intrínseca pluralidad de la

investigación cualitativa.

El procesamiento y análisis de datos asistido por computadora tiene un lugar especial en

este campo disciplinar y muchos son los avances que se han realizado en su aplicación.

Justamente sobre algunos de los problemas epistemológicos que esto trae aparejado es

sobre lo que se intenta reflexionar en el próximo apartado.

4.10.3. NUEVAS EXPERIENCIAS DE GABINETE Y FORMAS DE RAZONAMIENTO EN LA INVESTIGACIÓN CUALITATIVA

En el contexto reseñado hasta aquí y junto al desarrollo de las estrategias cualitativas

desde finales de la década de los ‘70 y principio de los ‘80 se consolidó la utilización de la

informática en la investigación cualitativa. En principio como una vía más eficiente para

codificar y recuperar la inmensa cantidad de registros acumulados por las diversas

técnicas de observación, la asistencia de la computadora se pensó simplemente como

algo meramente instrumental.

Este puesto para la asistencia de la computadora se fue modificando hasta llegar al nivel

del análisis de esos datos otrora irrecuperables, dada la complejidad de su inserción

sistemática. En este sentido, dando un paso más la informática asistió al investigador en la

delicada tarea de interpretar ayudando en la construcción inductiva de "micro-teorías"

sobre la base de datos que se le había proporcionado. Esta estrategia de análisis

básicamente tomada del enfoque de Glasser y Strauss (al menos de su primer libro) se

popularizó, como así también se amplió la oferta de paquetes estadísticos que podían

asistirla. Los noventa son los años de consolidación de esta relación afianzada por la

popularización de lo multi-mediático en el mercado de las computadoras personales.

En el marco de dicha consolidación se han llevado adelante algunos debates sobre la

posibilidad de que esta "instalación" de la informática en el campo de los estudios

Page 434: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 420

cualitativos sea el comienzo de una nueva visión paradigmática que pretenda agotar la

pluralidad y narratividad propia del abordaje cualitativo en alguna especie de sobre-

cuantificación de los registros y en la creación de la ilusión de formalización del momento

de análisis de las investigaciones. Un dato curioso de dicho debate, por lo menos desde

los autores a que se hace referencia aquí, es que ninguno pretende descalificar el rol de la

asistencia de la computadora en los trabajos de tratamiento, procesamiento y análisis

cualitativo. Un análisis de la discusión aludida puede ser realizado siguiendo el siguiente

camino.

4.10.3.1. PLURALIDAD DE VOCES Y LA UTILIZACIÓN DE HIPERTEXTOS

En principio se puede partir de la presentación de Coffey, Holbrook y Atkinson llamada

"Qualitative Data Analysis: Technologies and Representations" cuya estructura

argumentativa es la siguiente. La investigación cualitativa se caracteriza por la pluralidad

de interpretaciones que generan una multiplicidad de relatos asociados a la existencia de

una pluralización de mundos. Las dos vías que identifican como predominantes son:

aquellas que separadamente aceptan por un lado la consolidación de lo narrativo-literario

aceptando el "desafío" post-moderno de la diferencia y la multiculturalidad, y por otro,

aquella que construye un texto desde un enfoque que denominan "realismo narrativo"

caracterizado por la construcción de un relato en tercera persona desde donde afluye el

llamado problema de la "crisis de representatividad" que se basa en la eliminación de la

intrínseca pluralidad de voces en la constitución del mundo social. Los autores señalan,

por un lado, la generalización de las técnicas de codificación y recuperación de datos

"cualitativos" asistido por computadora, como el centro de la conformación de una nueva

ortodoxia ligada directamente al "realismo narrativo"; y por otro lado, la estructuración de

una heterodoxia conectada a la retórica y los desafíos post-modernos. En este contexto,

postulan como una posible vía alternativa que permita una síntesis de estas dos

tendencias para el análisis y la representación de la investigación etnográfica, a los

desarrollos generados alrededor del uso de hipertextos e hipermedios. Citando a Nielsen

afirman: "podemos decir que el hipertexto fue concebido en 1945, nació en los ‘60, nutrido

lentamente en los ‘70, y finalmente incorporado al mundo real en los ‘80 especialmente

con un rápido crecimiento en 1985, culminando con el establecimiento de un campo

definitivo durante 1989" (Coffey et al. 8.2).

Page 435: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 421

En esta larga historia de la consolidación del uso del hipertexto se visualiza a la

presentación del texto de un modo no secuencial, como un principio que juega el rol de

hilo conductor en la búsqueda de un tratamiento más eficiente de los textos (Coffey et al.

8.3). Si bien el escritor o lector asistido por un procesador de texto podía desplazarse de

diversas maneras por un documento, dicho desplazamiento era siempre secuencial y este

modo de leer y re-escribir no se condecía con las operaciones que en la vida real se

realizaban. En este sentido es que Coffey y sus colegas sostienen que "el texto mismo

está fijado en forma lineal. De tal modo, trabajar con archivos de textos en la computadora,

implica del mismo modo una estructura lineal" (Coffey et al. 8.3).

El uso de hipertexto involucra la posibilidad de diferentes vías de lectura determinadas por

el lector, dado que el autor provee de distintas alternativas para explorar el texto en

cuestión. Si bien los autores aceptan que ésta no es un idea nueva, señalan una mayor

versatilidad que las referencias cruzadas, por ejemplo. La clave está en la mayor

capacidad de interactividad desde donde aparece una más amplia gama de posibilidades

de relación entre texto y lector. "Los lectores pueden, en un sentido, devenir autores de

sus propias lecturas; ellos no son simple recipientes pasivos de una forma textual

determinada" (Coffey et al. 8.4).

Básicamente, la utilización del hipertexto consiste en la utilización de botones para

establecer links entre referencias cruzadas que apunten a una misma temática o tópicos

relacionados, pudiendo también desplazarse a fuentes de información distinta como los

son bases de datos cuantitativas u otras formas de almacenamiento de datos. "Tales links

constituyen ‘nodos’ y el analista puede crear una red densa de esos links los cuales

pueden ser luego ‘navegados’ en distintas exploraciones de datos" (Coffey et al. 8.6).

Por otro lado, se usan botones de "expansión" que permiten agregar comentarios,

incorporar otro tipos de textos como registros de campo, notas y comentarios. Se abre así

también la posibilidad para el lector de introducirse en el texto. Las limitaciones de estas

posibilidades son justamente las capacidades cognitivas humanas de encontrarse frente a

la creación de un "hiperespacio de lectura y escritura", donde las vías de recorrido y

expansión de la textualidad son prácticamente indefinidas. Para Coffey y sus colegas es

en este marco en que nace una de las particularidades más llamativas de la introducción

de estos medios informáticos para la lectura y escritura etnográfica, que es justamente la

probabilidad que esa diferencia colapse, en tanto procesos separados de leer y escribir. El

Page 436: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 422

hipertexto conserva el sentido de complejidad, intertextualidad y no linealidad que una

narración sobre el mundo social tiene en sí misma.

Si la utilización del hipertexto abre estas posibilidades, su combinación con las tecnologías

multimedia las potencializa aún más. Con la articulación entre imagen, sonido y otros tipos

de textos para nuestros autores, se puede pensar "la reconstrucción de los mundos

sociales a través de múltiples representaciones" (Coffey et al. 8.11). Citando el trabajo de

Kersenboom, ellos muestran que la aparición de monografías en CD ofrecen la posibilidad

de presentar los registros de palabras, música, escritos y conversaciones en "sus

condiciones existenciales" (Coffey et al. 8.11), lo cual permite a su vez manejar los

contextos interpretativos, también explorar lecturas alternativas y modos complementarios

de representación de los registros originales. Para Coffey y sus colegas, hipermedios e

hipertexto posibilitan un manejo instantáneo y simultáneo de formas distintas de

representar las múltiples voces de la realidad del mundo social.

Estos autores ofrecen como ejemplo su estudio sobre las consecuencias de la genética en

nuestros días, donde aplicaron el etno-drama como medio de reconstruir la toma de

decisiones de los genetistas, junto a las formas de decisiones de las personas respecto a

la reproducción, grabaciones de conferencias científicas, datos contextuales y entrevistas

de familias enteras, usando las posibilidades del hipertexto e hipermedia, conjuntamente

con investigaciones sociológicas más tradicionales. La propuesta de este equipo es

justamente la de articular el realismo narrativo y las posibilidades de representar múltiples

y simultáneas voces, sugiriendo que de este modo se hace innecesario optar por un

enfoque postmoderno o caer en la "nueva ortodoxia" de la investigación cualitativa asistida

por computadora.

4.10.3.2. HACIA UNA LÓGICA DEL RAZONAMIENTO HIPOTÉTICO EN INVESTIGACIÓN CUALITATIVA

En un artículo que intenta responder la caracterización de la "nueva ortodoxia" en la

investigación cualitativa asistida por computadora, realizada, entre otros, por Coffey y sus

colegas en el artículo al que se ha hecho alusión, Udo Kelle señala que dicha

caracterización proviene de interpretar mal algunos puntos metodológicos de la

investigación cualitativa. Kelle, para estructurar su argumentación, se desplaza a la

discusión de las estrategias metodológicas y a sus bases epistémicas. Es en este marco

que propone una interrelación entre uso de la informática y la aplicación de la inducción

Page 437: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 423

cualitativa y la inferencia abductiva como modo de coordinar una vía alternativa para la

investigación cualitativa.

Kelle plantea el problema desde la base misma de lo que se ha dado en llamar la

"construcción de teoría" en la investigación cualitativa asistida por computadora.

Genéricamente hablando, la discusión sobre dicha base tiene dos facetas: su sustento

teórico-metodológico representado por la "Grounded Theory" y su procedimiento elemental

conocido como "codificar y recuperar". Como lo reconoce el mismo Kelle, dada la

estructura de su artículo, ambas facetas si bien no agotan el lugar de la informática en la

investigación cualitativa, son el punto de partida de una adecuada discusión de la

supuesta instauración de una nueva ortodoxia en investigación cualitativa. Sin hacer

justicia a la complejidad de la grounded theory se puede decir que representa desde 1958

y 1967 una estrategia inductiva de construcción de teoría que ha sufrido diferentes

reformas. En lo sustancial consiste en la idea que se puede obtener una red de conceptos

que emergen de los registros cualitativos a través de un procedimiento de codificación y

"etiquetamiento" de las principales dimensiones de dichos registros.

Este procedimiento se basa en "descubrir" desde los registros grupos analíticos de datos,

conformados por la construcción de lo que Glaser y Strauss llamaron códigos, categorías y

memos. La idea central es que de esta manera se evitaba dar una forma teórica a los

registros, ofreciendo la posibilidad de que justamente el tratamiento analítico de los datos

dieran forma a una teoría particular emergida desde los datos mismos.

Por otro lado, codificar y recuperar es un procedimiento para clasificar datos que parte de

la identificación, sistematización y comparación de segmentos de textos que contienen los

registros. Muy esquemáticamente hablando, una vez establecidas las diferencias y

semejanzas se procede a construir índices de segmentos de textos sobre tópicos

identificados con palabras claves. Por otro lado se construyen referencias cruzadas que

permitan relacionar los segmentos de textos entre sí y con otras fuentes de información.

Estos procedimientos tan antiguos como los de la exégesis textual se ven acelerados y

mejorados por los medios informáticos para su recuperación y tratamiento.

Si bien esta sucinta presentación puede ser muy esquemática, nos ayuda a comprender

por qué Kelle se preocupa en mostrar que no todo proceso de codificación y recuperación

está basado en la grounded theory, por qué codificar puede ser un proceso más creativo

de lo que se piensa y cómo pueden ser pensadas alternativas metodológicas para

Page 438: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 424

conservar la creatividad en el marco del desarrollo de los paquetes informáticos, sin caer

en un inductivismo ingenuo pero tampoco en una posición excesivamente relativista.

Como es obvio, dada la síntesis realizada entre la grounded theory y el proceso de

codificar y recuperar, hay aires de familia innegables; más allá de la terminología que usen

los diversos programas, las coincidencias entre los códigos de Glaser y Strauss y los

índices de los programas son muy grandes. Por esto, Kelle muestra cómo existen

diferentes paquetes de tratamiento informático de textos que se basan en la

fenomenología, en los tipos ideales de Weber o directamente en las ideas falsacionistas

de Popper, y cita también una revisión realizada de los programas usados que indica que

el 70% de ellos no tienen como base a la grounded theory. Una vez realizada esta tarea

de esclarecimiento, Kelle se concentra en tres temas: las formas de codificar y recuperar

que implican la llamada tercera generación de programas, las confusiones que provienen

de tratar de aplicar una estructura hipotético deductiva en base a la grounded theory y la

propuesta de la abducción como una forma adecuada para evitar el dualismo.

Para mostrar que codificar y recuperar no se basan necesariamente ni en una idea

inductiva ni en las confusiones con la grounded theory, señala los avances producidos a

través de los hiperlinks que no sólo están a disposición en los programas especializados

sino también en las versiones más actuales de Windows. Esto transforma básicamente el

proceso de interrelación entre los textos y otros tipos de materiales, pero especialmente se

abandona la idea de que un segmento de texto debe ser "comprendido" subsumiéndolo en

una categoría creada desde esos mismos registros.

Esto ocasiona varios resultados colaterales entre los cuales se pueden mencionar los

siguientes: se aumenta la capacidad de recuperación selectiva, pueden ser cruzadas

referencias en un "mismo espacio textual" cuya distancia en los registros es considerable,

los segmentos de textos pueden ser conectados sin códigos previos y los códigos pueden

ser subdivididos en varias categorías nuevas. Codificar y recuperar, vista de esta manera,

es una tecnología abierta que brinda un gran número de posibilidades para la

interpretación. Esta idea de codificar Kelle la analiza desde dos dimensiones: desde la

definición del proceso de codificación y desde la noción de testear hipótesis a través de

este procedimiento, cuestiones ambas que nos llevan a su segundo tema.

Por un lado, Kelle señala las diferencias entre la codificación cuantitativa y la cualitativa y

la importancia de preservarse de la ingenua idea de poder partir a codificar sin teoría

previa alguna; pero por otro lado subraya la confusión existente por el uso ambiguo de la

Page 439: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 425

expresión "testear hipótesis". En el primer caso, es claro que la codificación cuantitativa

funciona bajo una lógica deductiva en base a hipótesis previamente establecidas, mientras

que la cualitativa se basa en un proceso de lectura de los registros una vez efectuados,

actúan como marcas que permiten que una cierta cantidad de información sea agrupada y

manejada constituyéndose en representantes de algunas perspectivas desde donde mirar

los datos por parte del investigador.

En relación a esto es que Kelle plantea el problema sobre el testeo de hipótesis. Para él,

los códigos de la investigación cualitativa "no son muy utilizables para testear

proposiciones empíricas respecto a la exacta relación entre dos variables definidas" (Kelle

1997 3.9), como así tampoco permiten representar claramente eventos empíricos

determinados. Para Kelle en la investigación cualitativa "la aplicación del paradigma de la

codificación o de ‘códigos teoréticos’ sobre datos empíricos se basa en una lógica del

descubrimiento que no es ni inductiva ni deductiva" (Kelle 1997 4.3), por lo que dicha

aplicación representa el uso de una especial lógica del razonamiento, donde "las premisas

son un set de fenómenos empíricos y la conclusión es una hipótesis, la cual puede dar

cuenta de esos fenómenos" (Kelle 1997 4.3). Según él, se puede denominar a esta

operación razonamiento hipotético basado en las dos formas de inferencia lógica que

Peirce llamara inducción cualitativa y abducción. Estos es así, porque en una inducción

cualitativa un fenómeno empírico específico es descripto o explicado subsumiéndolo bajo

una categoría o regla existente y porque la abducción permite encontrar conceptos o

reglas no conocidas en base a un evento sorpresivo o anómalo. Al parecer, la clave para

Kelle consiste en que "la inferencia abductiva combina de una manera creativa nuevos e

interesantes hechos empíricos con conocimiento teorético previo" (Kelle 1997 4.3). Estas

formas de inferencia se condicen de alguna forma con el trabajo de la investigación

cualitativa, en tanto se necesita revisar permanentemente pre-concepciones y prejuicios

teoréticos y además posibilita entender de qué manera se usan en investigación cualitativa

los marcos de referencia heurísticos, que permiten al investigador concentrarse en ciertos

fenómenos de su campo de estudio. Para Kelle con la utilización de la inducción cualitativa

y la abducción se puede dar cuenta del trabajo creativo de la investigación cualitativa

como así también del uso del conocimiento disponible para el área de estudio.

Page 440: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 426

4.10.4. A MODO DE CONCLUSIÓN: PROBLEMAS EPISTEMOLÓGICOS EMERGENTES DE LA INVESTIGACIÓN CUALITATIVA ASISTIDA POR COMPUTADORA.

Aparecen de esta manera dos grupos de problemas o desafíos epistemológicos basados

en las sugerencias sobre el rol de la utilización de hipertextos y multimedios, y en la

propuesta de aplicar el razonamiento hipotético a la investigación cualitativa. Dos temas

centrales parecen emerger de estos desarrollos: en primer lugar podríamos estar en frente

de una nueva noción de experiencia de gabinete en ciencias sociales, y en segundo lugar

se podrían explorar alternativas a las estrategias deductivas e inductivas aplicadas a la

investigación cualitativa.

Sin pensar que se asemeja a un concepto de simulación y sin tomarla como solución

definitiva, en algún sentido, la utilización del hipertexto y la tecnología multimedia crea una

nueva situación de gabinete que al menos necesita ser analizada en los siguientes niveles:

la redefinición de la noción de lo que se podría llamar "experiencia de laboratorio de la

interpretación", el lugar del conocimiento conceptual en relación al sensitivo, como por

ejemplo el visual, la posibilidad de interacción indefinida entre observador y los sujetos

sociales analizados. Esto nos indica una forma de comprensión de lo social que puede ser

reconstruida a través de la computadora en situación de interactividad o aislamiento, el

escritorio del analista no es sólo una computadora y miles de salidas de computadora, es

en algún sentido un mundo social a escala.

La conexión entre hipertexto e hipermedia posibilitaría, dada la potencialidad para

relacionar hipótesis previas, descubrimientos y "realidad virtual", la recreación

multimediática de la pluralidad de voces. Esto es importante porque permitiría redefinir la

noción de generalización empírica extendiendo posiblemente su utilidad y alcance.

También de este modo se presenta la interesante oportunidad para la re-utilización de los

estudios de caso como estrategia de comprensión de la realidad social.

Además, la asistencia de estas tecnologías a la investigación cualitativa permitiría hacer

manejable la complejidad propia de la conformación textual de los registros, pudiéndose

de esta manera disponer de un texto que, si bien presenta mayor variabilidad, dada la

interactividad y la simultaneidad, posibilita explorar con mayor fuerza la búsqueda de una

estructura básica para los análisis.

Esto trae aparejado que además de las tradicionales tareas de registrar, escribir, leer e

interpretar, se agregue la de editar como mecanismo de reconstrucción del mundo social

en la computadora. La confluencia de información cualitativa e información cuantitativa de

Page 441: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 427

diversos orígenes, permite "fijar" con mayor detenimiento las condiciones contextuales de

la interpretación. Por otro lado, si se hace pie en los desarrollos anteriores, no sería para

nada difícil pensar en la propuesta de Kelle, dado que se tendría la oportunidad de

estructurar una forma de razonamiento que permita partir de y crear hipótesis para la

argumentación sobre el nivel de adecuación de la realidad recreada en la computadora.

Para finalizar, sólo resta afirmar que en el campo de la investigación cualitativa, como al

menos se pretende haber insinuado, existen problemas epistémicos que trascienden las

argumentaciones a las que tradicionalmente se las asocia. Lo que llama a salir de un

tratamiento aporético de la relación cualitativo-cuantitativo y sumergirse en la posibilidades

de nuevas racionalidades y narraciones sin perder de vista la construcción científica de

conocimiento sobre el mundo social.

4.10.5. REFERENCIAS

o Ball, W. 1994 "Using Virgil to Analyze Public Policy Arguments: A System Based on

Toulmin´s Informal Logic." En Social Science Computer Review, 12:I, Spring. pp.

26-37.

o Coffey, A., Holbrook, B. y Atkinson, P. 1996. "Qualitative Data Analysis:

Technologies and Representations" en Sociological Research Online, Vol.1 Nº1.

o Coffey, A. y Atkinson, P. 1996. Making Sense of Qualitative Data. Complementary Research Strategies. Sage Publications. London.

o Cook, T. D. y Reichardt, CH. 1986. Métodos Cualitativos y Cuantitativos en Investigación Evaluativa. Introducción, Cap. I y II. Morata. Madrid.

o Gallino, L. 28/3/96 "La Costruzione della Conoscenza Scientifica in Netropolis:

Aspetti Sociali e culturali della ricerca scientifica in rete". Torino Internet. pp. 1 a 5

o Goetz, J.P. y LeCompte, M.D. 1988. Etnografía y Diseño Cualitativo en Investigación Educativa. Cap. II, V, VI, VII. Morata. Madrid.

o Forni, F.; Gallart, M.; Vasilachis de Gialdino, I. 1993. Métodos Cualitativos II. La

práctica de la Investigación. CEAL. Nº 57 Bs. As.

o Holstein, J. y Gubrium, J. 1995. The Active Interview. Sage. California.

o Kelle, U. 1994. Ethnographic Research and Logic of Discovery. Recent

Developments in Analytic Philosophy of Science and their Impact on the Debate on

the Epistemological Foundations of Qualitative Research. Paper presented at the

XIII World Congress of Sociology. Bielefeld. RC 33. Sess. 14.

Page 442: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 428

o Kelle, U. 1997. "Theory Building in Qualitative Research and Computer Programs

for the Management of Textual Date." En Sociological Research Online, vol.2,

Nº2.

o Marshall Magan, J. 1994. "Research Report: Using a Database Management

System to Support Qualitative Research" en Social Science Computer Review,

12:I, Spring. pp. 114-121.

o Marshall, C. y Rossman, G. 1995. Designing Qualitative Research. 2º Edition.

Sage. California.

o Rodriguez-Alamo, E. 1995. "The conflict Between Conceptual and Visual Thought

and the Future of Science" en Social Science Computer Review 13:2 Summer.

pp.: 207-221

o Vasilachis de Gialdino, Irene. 1993. Métodos Cualitativos I. Los problemas teóricos-

epistemológicos. CEAL.Nº 32 Bs. As.

Page 443: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 429

4.11. INVESTIGACIÓN CUALITATIVA Y TEXTUALIDAD LA INTERPRETACIÓN COMO PRÁCTICA SOCIOLÓGICA

Adrián Scribano

4.11.1. RESUMEN

La sociología presenta hoy un panorama de superación de las antiguas "parejas

epistemológicas" cuantitativo/cualitativo (3). En este contexto la lectura y comprensión del

texto sociológico se transforma en un punto nodal para la práctica sociológica. Con lo

anterior se relacionan, al menos, dos prácticas: aquella de leer un texto dentro de un

"horizonte" de comprensión y de precomprensión, y la de construir un "textum" en la

dinamicidad de la investigación como comunicación.

El presente trabajo busca mostrar cómo para lograr una "adecuada epistemología" de lo

cualitativo se deben discutir: a) las cualidades de los textos creados por la actividad

sociológica, b) el proceso de interpretación que la aludida creación implica y c) el papel de

los sujetos que participan en la génesis del "documento sociológico".

4.11.2. ACTIVIDAD SOCIOLÓGICA Y TEXTUALIDAD MÁS ALLÁ DE LA APORÍA CUALITATIVO-CUANTITATIVO

En el campo de la práctica sociológica el enfrentarse a la textualidad no es un fenómeno

novedoso. Desde la escuela de Chicago (solo para datar la discusión en este siglo) la

importancia de las narraciones de los sujetos han tenido un rol central en la comprensión

de la realidad. El auge de la investigación cualitativa muchas veces se ha entendido (y

entiende) como "respuesta" a los enfoques cuantitativos de una sociología positivista (4).

Una de las confusiones más comunes entre los investigadores recién iniciados respecto a

la investigación cualitativa es la asimilación de las técnicas cualitativas con las estrategias

metodológicas. Esta confusión acarrea muchos problemas de diseño para la investigación

de igual dimensión que los que ocasiona realizar una encuesta creyendo que en la

aplicación del instrumento se agota el estudio cuantitativo de la sociedad. Sumado a esto

existe un prejuicio teórico muy arraigado sobre las diferencias entre estrategias

cuantitativas y cualitativas tomadas como paradigmas rivales e inconmensurables. Si bien

una de las características de los enfoques cualitativos de la investigación en ciencias

sociales es la intima relación existente entre diseño, técnicas, análisis y construcción

Page 444: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 430

teórica, que en la práctica invalida una separación tajante de las etapas de la misma, es

lícito y además conveniente intentar mostrar como se puede reagrupar dichas prácticas

según alguna orientación dominante que las asemeje y diferencie.

Renata Tesch (1991) ha esquematizado lo que ella denomina "tipos de investigación"

proveyendo de una definición de lo que entiende son los propósitos de los mismo, con la

particularidad de que estas últimas son tomadas directamente de la literatura más usual en

cada temática, lo que la hace aún más interesante. De esta manera se pueden visualizar

doce enfoques diversos para llevar adelante una investigación cualitativa que están

agrupados de acuerdo a diversos criterios, entre los cuales predominan el metodológico y

el teórico. Dichos enfoques son: Análisis de Contenido. (Clásico),. Análisis de Contenido.

(Etnográfico), Análisis del Discurso, Estudios de Documento, historias de vida e historia

oral;. Etnografía. (clásica,holistica, reflexiva); Etnografía. (estructural); Etnografía de la

Comunicación. (microetnografía); Etnometodología., Etnociencia. (antropología cognitiva),

Análisis de la Estructura de Eventos, "Grounded theory construction", Interaccionismo

Simbólico.

La pluralidad es innegable. En cada una de estos enfoques las unidades de registros y de

análisis cambian o son entendidas de forma diversa, el lugar de la natural textualidad de lo

cualitativo es diferente, las técnicas pueden o no ser las mismas, pero por lo general unas

se adecuan más que otras y los puntos de partida teóricos o estos son los que se

transforman radicalmente. El significado de las formas de crear, reproducir e interpretar la

acción en tanto narración se modifica y varía, aparecen así desde la correlación

estadística hasta la semiótica como "instrumentos" para la interpretación.

La enumeración realizada arriba, autoriza solo a constatar dos elementos útiles para los

objetivos de este trabajo: por un lado saber que existen diferentes técnicas y diversas

formas de hacer investigación cualitativa y por otro que a través de una simple

enumeración se puede observar que la relación cuantitativo/ cualitativo no es, como suele

pensarse, necesariamente aporética. Para ilustrar este último punto, parece conveniente

resumir lo que Ray Pawson (1993) a denominado "fases de la relación cualitativo/

cualitativo".

La primera fase se caracteriza por permanecer dentro del puritanismo metodológico,

donde la actividad de investigación podía relacionarse dicotómicamente con uno u otro

enfoque. Se relaciona con la así llamada "guerra de los paradigmas" metodológicos y las

discusiones son "metodocentradas".

Page 445: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 431

La segunda fase hace referencia al surgimiento de un pluralismo pragmático como

reacción a la metodolatría, teniendo a la estrategias de "triangulación" como fundamento

operativo. Es una fase centrada en la elaboración y resolución de problemas donde se

acepta que existen diversas vías metodológicas para lograr este objetivo.

La tercera fase, que aún hoy se desarrolla, consiste en la superación de la relación

cualitativo/ cuantitativo desde un punto de vista dicotómico diluyendo un tratamiento

aporético de la misma. Centrada en lo relacional apunta a que la discusión se desplace

hacia la mejor articulación entre estrategias que puedan dar cuanta de la conexión entre

mecanismos, contextos y agentes.

Finalmente, este apartado respalda la posibilidad de introducirse , sin malos entendidos,

en algunas discusiones sobre el lugar de la "textualidad" en la investigación cualitativa.

Como guía de la discusión se ha optado por ordenar la argumentación de la siguiente

manera: en primer lugar, desde un punto de vista epistemológico se intentará aclarar la

relación entre, datos, narración e interpretación, haciendo especial referencia a la

conexión entre, manifestaciones, proposiciones e interpretación; luego desde la misma

perspectiva se aclara cómo se puede conectar datos y documento sociológico. En

segundo lugar, desde un cruce entre filosofía y sociología se tratará de explicar la

Interpretación como práctica sociológica. Por último, en tercer lugar, se deducirán algunas

conclusiones epistemológicas y metodológicas que permitan re-pensar el lugar de la

interpretación en la investigación cualitativa.

4.11.3. DATOS, NARRACIÓN E INTERPRETACIÓN

Unos de los problemas más interesantes de la aceptación de la estructura narrativa de la

investigación cualitativa es el de redefinir el lugar y la noción de dato que ella implica (5).

En estrecha conexión con esto se puede identificar la tarea de construir un texto como

resultado de las estrategia cualitativa. En lo que sigue se pretende abordar estas dos

temáticas intentado contextualizarlas en marco de la filosofía de las ciencias sociales en la

actualidad (6).

4.11.3.1. MANIFESTACIONES, PROPOSICIONES E INTERPRETACIÓN

La investigación cualitativa enfrenta al investigador con la necesidad de realizar un análisis

detenido de la noción de dato. En este contexto discursivo se encuentran algunos

elementos para aclarar el rol de los datos como garantías de las interpretaciones y su

Page 446: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 432

conexión con la noción de evidencia. Desde una perspectiva clásica se puede afirmar que

los datos son la manifestación verbal o escrita de la observación que se refiere

simbólicamente a una unidad determinada del fenómeno observado. Lejos de emprender

una crítica sistemática de la mencionada noción, aquí se intenta enfatizar, que es ella

misma la que da pie para comprender como los datos tienen siempre una estructura

relacional. Esto quiere decir que su composición es una conexión explícita entre

afirmación, observación y fenómeno que no se puede reducir a ninguno de estos tres

momentos del conocimiento de lo social.

En la investigación cualitativa se puede ver claramente como la base empírica de la

investigación tiene la forma de una estructura diferenciada en diversos "niveles" de

afirmaciones. Estos niveles contienen como elementos diferentes proposiciones que se

diferencian de acuerdo a: su contenido, su puesto en la lectura (que origina el tipo de

interpretación) y según la distancia con la materialidad de la observación.

De este modo la investigación cualitativa supone el manejo de afirmaciones producidas

por la narración misma del fenómeno, que implican una primera lectura de la realidad y

que tienen una aproximación mayor con lo concreto entendido como materialidad que

responde a la pregunta ¿qué es eso?. Se puede visualizar que la investigación cualitativa

involucra proposiciones descriptivas que se ubican como puente entre observación y

lectura segunda y que comparten en algún modo ambos polos de la relación concreto-

abstracto. Finalmente se pueden identificar afirmaciones interpretativas que constituyen el

comienzo de la segunda lectura y que son más abstractas que los otros niveles.

1) narración--manifestación primera lectura concreto

2) proposición descriptiva

3) afirmación interpretativa lectura segunda abstracto

Es evidente que la relacionalidad de los datos se manifiesta en la estratificación de las

enunciaciones que contienen las observaciones. En esta estratificación es claro que las

posiciones entre los sujetos son intercambiables y que las enunciaciones son efectuadas

siempre en tercera persona desde el punto de vista de la pragmática del lenguaje. En este

sentido, se puede aclarar como la base empírica de la investigación cualitativa aparece

como garantía de la interpretación. En el caso que la pretensión de validez de la

interpretación sea puesta en duda, se responde señalando el nivel de la estratificación que

Page 447: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 433

ha sido objeto del cuestionamiento y se reconstruye paso a paso los componentes de la

estructura en orden a develar la base que sostiene la enunciación criticada.

Para evitar un circulo que re-envíe la discusión a la afirmación puesta en duda se debe

poder señalar los mecanismos que se han utilizado en el pasaje de la narración a la

proposición descriptiva. Emerge de esta manera que los datos tienen un rol de garantía de

la interpretación entendiendo por esto a la argumentación racional que conecta la

relacionalidad de los datos con la forma estructural que estos tienen y que permite

reconstruir la relación misma como momentos de conexión entre afirmaciones,

observaciones y fenómenos.

4.11.3.2. DATO Y DOCUMENTO SOCIOLÓGICO

Por otro lado, aparece el hecho particular que en la investigación cualitativa los datos no

se cuentan sino se "re-cuentan", y así, emerge el problema de afrontar una teoría del texto

sociológico en tanto documento construido por la "acción sociológica". Los datos

producidos por la investigación cualitativa tienen una dependencia mayor de la narración y

en ello nace la objetivación de la interpretación como documento sociológico.

Una pregunta fundamental nace aquí: ¿Cómo se puede analizar la relación entre registro,

escritura e interpretación de un texto sociológico� En una primera mirada se propone la

utilización del término "documento" para designar el resultado escrito construido

temporalmente entre diálogo efectivo e interpretación segunda. El texto sociológico

proviene de la reconstrucción del documento como manifestación del diálogo. Para llegar

a la construcción del documento la práctica sociológica sigue el camino que va de la

comunicación y se mueve sucesivamente a la narración, el registro, la escritura, la

interpretación y la reflexividad arribando nuevamente a la comunicación (7).

1) comunicación 3) registro 5) interpretación

2) narración 4) escritura 6) reflexividad

En la investigación de las ciencias sociales aparece como primer movimiento de la

comprensión la necesidad de captar el horizonte compartido pre-reflexivo de la acción. El

juego entre experiencia de construcción, documento y sentido de la acción implica un re-

leer el horizonte de sentido compartido partiendo de la diversidad. Por lo tanto, la meta

inmediata de la acción sociológica es tomarse a si misma como acción humana. En esta

dirección aparecen dos momentos de la dialéctica de la comprensión:

Page 448: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 434

a) El momento de autoreconocimiento de aquel que hace la búsqueda como sujeto

inmerso en una intersubjetividad (8),

b) El entender que la acción sociológica es un modo particular de acción sobrepuesta a las

reglas compartidas de la vida cotidiana en tanto acción científica.

En este marco de experiencia (y en un primer momento) la pregunta sociológica no es otra

que la pregunta por una fenomenología de la vida cotidiana que permita iluminar el juego

de comprensión y precomprensión de la relación intersubjetiva. Tal fenomenología puede

entenderse como reconstrucción racional del mundo de la vida donde se encuentran las

raíces de un sujeto-en-el-mundo.

Así, los habitantes de esta región de la experiencia son los productos de la práctica

cotidiana del hombre. El sentido que adviene en la relación pregunta, respuesta e

interpretación, manifiesta la acción humana como co-construcción. Pero no todo es

construido, el lenguaje por el cual los objetos llegan ha ser interpretados se conecta con la

tradición en tanto linaje teórico al cual pertenece quien quiere comprender, y como "forma

de vida" que siempre esta ya presente entre dos personas que se quieren entender. El

movimiento que hay en la actividad de traducir una narración es un movimiento cargado

de sentido en sí mismo. El texto sociológico en su intención de captar el sentido de la

acción encuentra al final su propio punto de partida: la posibilidad de la pluralización de los

mundos. El movimiento de la comprensión no se detienen, solamente puede ser detenido

como objeto de una decisión del lector. La pequeña historia entre sujetos que adviene en

la relación sociológica puede ser narrada de nuevo como otra experiencia y por eso

necesita ser detenida en el diálogo y el acuerdo. En este marco, el documento sociológico

deviene evidencia de un horizonte de sentido como decisión dialógica con la intención de

representar su significatividad. Desde aquí se puede apreciar como emerge la centralidad

de la práctica sociológica en la tarea de construir una narración compartida de la realidad

social.

4.11.4. LA INTERPRETACIÓN COMO PRÁCTICA SOCIOLÓGICA

En conexión con lo que se ha expuesto, se puede relacionar ahora, dos prácticas aquella

de leer un texto dentro de un "horizonte" de comprensión y de precomprensión, y la de

construir un "textum" en la dinamicidad de la investigación como comunicación. Sin duda

esta conexión tiene bastantes presupuestos por develar y aclarar, pero se pueden

considerar como punto de partida, para la reflexión, dos experiencias (9): la de lectura y

Page 449: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 435

la de comunicación. En este contexto se plantea una pregunta como esquema para la

búsqueda propuesta: ¿Se puede utilizar el enfoque filosófico sobre la lectura de un texto

para iluminar la inscripción, escritura e interpretación de un texto sociológico?

La misma pregunta es ya una interpretación de la actividad de lectura en el contexto de

una hermenéutica (10), en la cual la principal finalidad es la comprensión y construcción

del pensamiento, es el hacer saber el sentido de una relación entre escritura y lectura.

Interpretación que parte de la aceptación de que el leer es proveer de sentido al texto

desde un sujeto que es el lector y desde otro que es un co-lector. Esta perspectiva hace

pensar que una conexión entre la "lectura filosófica" y la práctica sociológica es posible. La

finalidad aquí, será subrayar los aspectos de la práctica sociológica que aparecen como

semejantes a la práctica filosófica de leer un texto. También se intentará, originar en la

práctica interpretativa de la hermenéutica, (que hace de la relación, texto, autor, lector su

medio específico para pensar y pensarse) una reflexión sobre la práctica sociológica.

Desde este punto de vista, la sociología (RE-)TOMA LA ACCION A TRAVES DE LA

PALABRA, haciendo una comparación con la afirmación bien conocida de Ricoeur "La

acción dará qué pensar". La acción es así un símbolo que produce una llamada a la

interpretación. Desde esta perspectiva, la sociología no se puede comprender si no se

acepta que todos sus actos son actos de comunicación e informes inter-subjetivos. La

acción no es el lenguaje, pero solamente se puede comprender en el especial medio que

anida en el lenguaje, por que esa práctica sociológica se piensa como una práctica

comunicativa y toma como punto de partida el diálogo entre dos sujetos produciendo

sentido a esa misma acción. Por consiguiente, interpretar una acción es una práctica de

lectura que pone en relación acciones, lenguaje y vida cotidiana del sujeto.

Fenoménicamente esta práctica aparece como, narración, conciencia discursiva y como

documento sociológico, estos tres elementos aparecen como la primera objetivación del

diálogo sociológico (11). El diálogo sociológico implica la relación entre dos o mas sujetos

donde uno o algunos de ellos entran al intercambio en posición objetivante y tienen la

capacidad en tanto seres humanos de pasar a una actitud reflexiva por la cual el diálogo

mismo se hace posible.

El científico social qua sujeto perteneciente a un mundo de la vida tiene la cualidad de

poder "darse cuenta" de sus acciones en la forma de una narración. Esta capacidad de dar

respuesta, esta "responsabilidad" (accountability) implica el poder de decir e interpretar la

acción misma, así el actor-sujeto se re-presenta en su vivir cotidiano desde el punto de

Page 450: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 436

vista de sí mismo como sujeto de la acción. La capacidad de narrar es un hecho que surge

de la conciencia discursiva como cualidad del hombre de transformar la práctica en

palabra, la actividad en lenguaje. La sociología provee como resultado del diálogo un

documento que como reinterpretación re-construye la narración y cristaliza la conciencia

discursiva del sujeto, por lo tanto, la acción sociológica es una acción interpretativa, y una

segunda lectura hecha por el coautor de un texto. La comprensión sociológica se pone en

marcha como resultado de una interpretación del documento que genera, tomando como

supuestos los rasgos "ontológicos" que hacen comprender el enlace entre constitución del

sí-mismo en el diálogo con otro sí-mismo, transformándose así, en dicho diálogo, la

interpretación misma.

Una hermenéutica de la acción se puede entender como una experiencia de lectura del

espacio que está entre el lenguaje y la acción, espacio que se constituye en el diálogo que

posibilita pensar a la sociedad de modo diferente. La pregunta específica de la Sociología

es aquella que hace de la relación social un hecho de sentido y que está orientado a

comprender este sentido construido. La hermenéutica, entonces parece ser la actividad de

evidenciar el sentido de la relación social en el contexto de un relato entre dos sujetos, el

científico que intenta comprender y otro sujeto que sabe qué cosa es el sentido de su

actividad en el mundo de la vida. Emerge por esta vía el "informe" del diálogo aludido.

Este informe se cristaliza en el escrito que el sociólogo tiene como registro. Dicho escrito

aparentemente sin sentido, parece ser al mismo tiempo una lectura que provee una

primera interpretación, y así, una primera imposición de la relación entre sujeto que quiere

conocer y sujeto que conoce. Se genera de este modo, otra interpretación efectivizada

como necesidad del acto de comprensión.

La interpretación sociológica produce otra acción que se manifiesta como textum, vale

decir, como objeto de una lectura que constituye un contexto de la relación y de la misma

primera interpretación. Así, ve la luz un texto que hace de (co) texto y que necesita de ser

interpretado en el continuo de dos historias, las historias de dos sujetos, que en la propia

relación construyen su interpretación. La construcción de sentido parece ser una co-

construcción de un textum que se manifiesta como red entre pensamiento, historia e

interpretación. La co-construcción es creada como dialéctica entre palabra, ausencia y

silencio. Palabra como pregunta por la acción, ausencia como relación sobre la cual se

necesita el sentido, y silencio como el doble juego de lo no dicho y aquello que es la

Page 451: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 437

respuesta. Se puede entender como la reconstrucción de la acción es una construcción de

sentido respecto al diálogo suprimido y en el diálogo ahora escrito y re-interpretado.

La interpretación se entrecruza con la traducción en la acción comunicativa, "los otros" que

hablan sobre su mundo de la vida son sujetos de una interpretación que parece ser una

traducción del sentido de la acción en el horizonte comprensivo compartido. Y que al

mismo tiempo necesita de un desplazamiento, de una nueva re-interpretación, ahora sobre

la forma de narración construida como objeto más allá del proceso de pregunta-respuesta.

Por lo que, el moverse entre sujeto-sujeto, (el diálogo) por un objeto (el texto) que

cristaliza pero no finaliza ni agota el sentido, hace aparecer la racionalidad que supone la

comunicación. Por esto, el diálogo se puede entender como proceso de conocimiento y de

interpretación de la acción que se busca comprender.

Finalmente, entonces, el texto es evidencia inter-subjetiva del diálogo como proceso de

conocimiento y de construcción compartida del sentido de la acción, evidencia de una

experiencia de re-lectura entre dos sujetos con dos narraciones que surgen desde un

mismo horizonte de comprensión. El diálogo hace reingresar el sentido en el contexto

intersubjetivo como pensamiento y como racionalidad. Como pensamiento por sus

características en tanto "juego del lenguaje" que hace volver a los sujetos objetos de sí

mismos. Como racionalidad es el resultado conocido del proceso mismo de re-conocer el

texto de un mundo de la vida.

4.11.5. A MODO DE CONCLUSIÓN: LA INTERPRETACIÓN ENTRE LA EPISTEMOLOGÍA Y LA METODOLOGÍA

Entendiendo, del modo arriba expuesto, el lugar de lo textual se pueden deducir algunas

consecuencias de orden metodológico para el diseño y análisis de las investigaciones

cualitativas. En primera instancia se puede pensar algunas "condiciones de entrada" a la

elaboración de diseños cualitativos. De esta manera, para poder ingresar a la ejecución de

un diseño cualitativo se deben tener en cuenta los siguientes supuestos:

1) La asimetría estructural, o mejor las diferencias de posición y condición (sensu

Bourdieu) entre el investigador y los sujetos de la investigación.

2) El rasgo fundamental del científico social que qua sujeto comparte el conocimiento de lo

social con el sujeto que co-construye el documento sociológico con él.

3) La necesaria "descentralización" del investigador, es decir, el abandono consciente y

explícito del centro de las relaciones que genera la actividad de investigación.

Page 452: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 438

4) La importancia de planificar dispositivos de "socio-análisis" de las prácticas involucradas

en la acción sociológica, lo que implica la incorporación de indagaciones tendientes

principalmente a reflexionar sobre la reflexividad de la misma. Por otro lado, si se entiende

la interpretación y construcción del modo que se ha expuesto se puede conocer mejor que

tenemos cuando hacemos análisis en la investigación cualitativa:

Por un lado tenemos REGISTROS PROGRESIVOS de lo observado, vale decir tenemos

objetos que se ubican en algún punto de una espiral compuesta y re-compuesta por

realidad y teoría formando un texto. Si bien, el grado de constructibilidad de estos objetos

depende de nuestro enfoque teórico y de los supuesto ontológicos y epistémicos al cual

este responde, básicamente se puede identificar una estratificación básica que involucra la

relación entre:

1) narración--manifestación primera lectura concreto

2) proposición descriptiva

3) afirmación interpretativa lectura segunda abstracto

Por otro lado, tenemos un JUEGO DE INTERPRETACIONES que proporcionan los

sujetos de la investigación MAS ACA DEL ANALISIS que pretende nuestra teoría. Aquí se

debe tener siempre presente que tanto investigador como investigado son considerados

como sujetos "portantes" de dichas interpretaciones. Esta relación se da en el marco del

movimiento entre:

1) comunicación 3) registro 5) interpretación

2) narración 4) escritura 6) reflexividad

Finalmente, se puede iluminar que hacemos cuando analizamos:

En primer lugar RECONSTRUIMOS lo que VEMOS en un equilibrio entre la pluralidad y la

unicidad a partir de un proceso de comprensión en el marco de una dialéctica de pregunta

respuestas.

En segundo lugar SUBSUMIMOS las reconstrucciones en una red de interpretaciones.

Punto de partida éste del continuo que va de la comunicación a la reflexividad. Luego,

como subsumir incluye una tarea de encastre, procedemos a CORREGIR pero no la

realidad sino las interpretaciones. Este corregir es sugerido por un proceso que incluye a)

un análisis crítico de las condiciones de análisis que hemos puesto, b) de las pre-

condiciones de visibilidad de lo analizado y c) por lo que se ha denominado aquí

construcción del documento sociológico. Por esta vía, a) se refiere a una redefinición de

los modos de "definir" los registros y los datos; b) implica un ajuste de la coherencia entre

Page 453: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 439

preguntas, técnicas e interpretaciones y c) involucra revisar la relación entre texto, práctica

y sentido.

Por todo esto, RECONSTRUIR, SUBSUMIR Y CORREGIR devienen en ARGUMENTAR,

esto al menos implica:

A) Escribir, es decir construir un TEXTO, sujeto de intersubjetividad; y

B) Dar RAZONES SOBRE la particularidad de nuestras interpretaciones apelando a la

estructura relacional de los datos tal como arriba se ha expuesto. Entendida de esta

manera la tarea sociológica de interpretación parece, al menos de forma provisoria, poder

ligarse con la interpretación del texto que supone la investigación cualitativa. La práctica

sociológica es una interpretación segunda que se configura en un diálogo que

fundamentalmente se objetiva en el documento sociológico. Por esta vía, lo cualitativo del

texto sociológico se presenta como característica primaria del conocimiento sobre lo

social. Es justamente en el corazón de esta urdimbre que pone en movimiento la relación

diálogo, interpretación y práctica sociológica, donde filosofía y sociología se entrecruzan

una vez más. La posición de los sujetos en la co-construcción del documento sociológico

señala en la dirección de recuperar lo que hay de humano en la práctica reflexiva de la

acción sociológica.

4.11.6. REFERENCIAS

o Alexander,J. y Colomy, P. (1992) "Tradition and Competition: Preface to a

Postpositivist Approach to Knowledge Cumulation" en Ritzer, G. Metatheorizing.

Sage. California. USA.

o Coffey, A., Holbrook,B. y Atkinson, P. (1996a) "Qualitative Data Analysis:

Technologies and Representations" en Sociological Research Online, vol.1 nº 1,

o http://www.socresoline.org.uk/socresoline/1/1/4.html

o Coffey, A. y Atkinson, P (1996b) Making Sense of Qualitative Data.

Complementary Research Strategies. Sage Publications. London.

o Coulon, A. (1995) Ethnomethodoly. Sage. London.

o Bohaman, J. (1994) New Philosophy of Social Science. Polity Press. Cambridge.

o Bourdieu, P. (1994) Raisons Pratiques. Seuil. Paris.

o Brown, R. H. (1989) Social Science as Civic Discourse. University Chicago Press.

Chicago.

o Bryant, C.G.A (1995) Practical Sociology. Polity Press. Cambridge.

Page 454: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 440

o Fay, B. (1996) Contemporary Philosophy of Social Science. Blackwell. UK. USA.

o Fine, G. y Sandstrom, K. (1988) Knowing Children Sage London

o Fielding, N. y Lee, R. (1991) Using Computers in Qualitative Research . Sage.

London

o Holstein, J. y Gubrium, J. (1995) The Active Interview. Sage. California.

o Kelle, U. (1994) Ethnographic Research and Logic of Discovery. Recent

Developments in Analytic Philosophy of Science and their Impact on the Debate on

the Epistemological Foundations of Qualitative Research. Paper presented at the

XIII World Congress of Sociology. Bielefeld. RC 33. Sess. 14.

o Kelle, U. (1997) "Theory Building in Qualitative Research and Computer Programs

for the Management of Textual Date." Sociological Research Online, vol.2, nº 2.

http://www.socresoline.org.uk/socresoline/2/2/1.html

o Kritzer, H. (1996) "The Data Puzzle: The Nature of Interpretation in Quantitative

Research" en American Journal of Political Science Vol. 40 No 1 Frebruary Pp. 1-32

o Marsh, D and Stoker, G. (edt.) (1995) Theory and Methods in Political Science.

MacMillan Press. London.

o Marshall Magan, J. (1994) "Research Report: Using a Database Management

System to Support Qualitative Research" en Social Science Computer Review, 12:I,

Spring. P.p. 114-121.

o Marshall, C. y Rossman, G. (1995) Designing Qualitative Research. 2º Edition.

Sage. California.

o Michael M. y McIntyre, L. (1994) Readings in the Philosophy of Social Science.

MIT Press. USA.

o Melucci, A. (1996) Challenging Codes. Collective Action in the Information Age.

Cambridge University Press. Cambridge.

o Myerson, G. (1994) Rhetoric, Reason and Society. Sage. London.

o Outhwaite, W. (1987) New Philosophy of Social Science. St. Martin's Press. New

York.

o Outhwaite, W. (1994) Theoretical Concepts and Real Definition. University of

Sussex. ms.

o Outhwaite, W. (1996) "Introduction" Klassisk og Modern samfundsteorien

Introduktion. de Andersen, H. y Kaspersen, L. Vorlag. Copenhagen. Forthcoming

Page 455: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 441

o Pawson, R. (1994) "Quality and Quantity, Agency and Structure, Mechanism and

Context, Dons and Cons." Nuffield College 1993/ World Congress of Sociology ISA ,

Bielefeld M/S.

o Ritzer, G. (Eds) (1990) Frontiers of Social Theory. The New Synthesis. Columbia

University Press. New York.

o Root, M. (1994) Philosophy of Social Science Blackwell Publishers. Oxford.

o Rossman, G. (1995) Designing Qualitative Research. 2° Edition. Sage. California.

o Scribano, A. (1994) Teoría Social y Hermenéutica. Centro Editor de América

Latina. Buenos Aires. Colección: Los Fundamentos de las Ciencias del Hombre. Nº

141.

o Scribano, A. (1995) Curso Introductorio al Proceso de Investigación en Ciencias

Sociales. Centro Editor de la Secretaría de Ciencia y Tecnología de la Universidad

Nacional de Catamarca.

o Scribano, A. (1997) "El Problema de la Acumulación de Conocimiento en las

Ciencias Sociales". Estudios Sociológicos Vol. XV, Num, 45, Septiembre-Diciembre.

1997.Pp 857-869 Colegio de México. México, D.F.

o Scribano, A. (1998a) "Texto Sociológico y Metáfora". en Red de Filosofía y Teoría

Social, Tercer Encuentro, Enrique Giménez y Adrián Scribano (Comp.). Centro

Editor de la Secretaría de Ciencia y Tecnología de la Universidad Nacional de

Catamarca. ISBN 950-746-015-2 pp.221-240

o Scribano, A. (1998b) "Complex Society and Social Theory". Social Science

Information. 37 (3) Sept, p.p 493-532 Sage.

o Scribano, A. (1999) Epistemología y Teoría: Un estudio introductorio a Habermas,

Bourdieu y Giddens. Centro Editor de la Secretaría de Ciencia y Tecnología de la

Universidad Nacional de Catamarca., 251 p.p. ISBN Nº 950-746-018-7

o Tesch, R. (1991) "Sofware for Qualitative Researchers: Analysis Needs and

Program Capabilities", en Lee y Fielding Using Computers in Qualitative Research .

Sage. London p.p 16-38.

o Sayer, A. (1992) Method in Social Science. 2nd. edition. Routledge. London.

Page 456: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 442

<

5. CAPITULO V: ELEMENTOS PARA LA ELABORACIÓN DEL INFORME DE INVESTIGACIÓN

Page 457: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 443

5.1. INVESTIGACION CIENTIFICA Y ESCRITURA CIENTIFICA

Manuel A. Bobenrieth

5.1.1. DESAFIOS PARA EL INVESTIGADOR: 1. ¿COMO ORGANIZAR Y ANALIZAR LA INFORMACION?

Selección de variables a analizar; Arreglos adecuados de la información para cada

variables; Resumen de la información para discernir sobre relaciones y contrastes;

2. ¿CÓMO SACAR CONCLUSIONES?

Conocimiento de antecedentes científicos, estructura de la investigación y magnitud de

relaciones observadas y de contrastes permite uso del juicio científico para decisiones

sobre importancia sustantiva;

Magnitudes observadas y tamaño de los grupos examinados permite inferencia

matemática para decisiones sobre “significación estadística”;

3. ¿CÓMO COMUNICAR LOS RESULTADOS?

Provisión a la comunidad científica de un recuento claro y conciso de qué se hizo, qué se

encontró y qué se concluyó; Recuento debe ser comprensible, evaluable y utilizable por

la comunidad científica y de servicios de salud.

5.1.2. PREGUNTAS CLAVES PARA ANTES DE SENTARSE A ESCRIBIR UN ARTICULO: 1. ¿QUE ES LO QUE TENGO QUE DECIR?

2. VALE EL DOCUMENTO EL ESFUERZO DE ESCRIBIRLO?

3. CUAL ES EL FORMATO (O ESTRUCTURA) ADECUADO

4. ¿CUAL ES LA AUDIENCIA ESPERADA?

5. ¿CUÁL ES LA REVISTA APROPIADA?

5.1.3. COMO ORGANIZAR LOS PENSAMIENTOS PLANIFICACION: PRIMER PASO HACIA LA COMPETENCIA: 1. INCLUIR CADA TEMA QUE REQUIERE LA MATERIA

2. EXCLUIR CADA TEMA QUE NO REQUIERE LA MATERIA

3. DIVIDIR CADA TEMA EN SUS SUBCATEGORIAS PRINCIPALES.

Page 458: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 444

4. ORDENAR CADA GRUPO DE SUBCATEGORIAS ADECUADAMENTE

5.1.4. FORMAS DE ESCRITURA TECNICO-CIENTIFICA: 1. CARTA

2. MEMORANDUM

3. PROPUESTA

4. INFORME TECNICO

5. RESEÑA

6. MONOGRAFIA

7. CAPITULO DE LIBRO

8. LIBRO

9. ARTICULO CIENTIFICO

5.1.5. CRITERIOS PARA ESCRITURA EFECTIVA 1. RIGOR LOGICO

2. REPLICABILIDAD

3. CLARIDAD Y CONCISION DE ESTILO

4. ORIGINALIDAD

5. PRECISION

6. AMPLITUD

7. COMPATIBILIDAD CON ETICA

8. SIGNIFICACION

9. PERTINENCIA

10. APLICABILIDAD

5.1.6. COMO EVITAR LAS FALTAS MAS COMUNES EN LOS INFORMES 1. ESTABLECER CLARAMENTE EL PROPOSITO

2. DAR UN ANTECEDENTE BREVE DEL TEMA

3. TRABAJAR CON UN ESQUEMA CLARO Y EFICAZ

4. DIFERENCIAR HECHOS DE OPINIONES

5. USAR FRECUENTES AYUDAS VISUALES

6. PRODUCIR UN DOCUMENTO ATRACTIVO Y AGRADABLE

7. ASEGURAR CONCLUSIONES CLARAS Y PERTINENTES

Page 459: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 445

8. UTILIZAR LENGUAJE PRECISO Y CONCISO, NO VAGO NI AMBIGUO EN EL

5.1.7. PROCESO DE ESCRITURA: 1. PREPARACIÓN

- OBJETIVO

- AMPLITUD

- AUDIENCIA

2. INFORMACIÓN

- SISTEMA DE ANOTACIÓN

- INVESTIGACION BIBLIOGRAFICA

3. ENTREVISTAS ENCUESTAS (muestra y cuestionarios)

4. ORGANIZACIÓN:

- METODO DE DESARROLLO

- ESQUEMA

- LUSTRACIONES

5. PRIMER BORRADOR

- TITULO

- INTRODUCCION

- EXPOSICION

- CONCLUSION

6. SEGUNDO BORRADOR (REVISION)

- CLARIDAD

- COHERENCIA

- CONCISION

- LOGICA

- TRANSICION

- UNIDAD

- DEFINICION TERMINOS

5.1.8. COMO CONSTRUIR ORACIONES GRAMATICALES EFECTIVAS: 1. USAR SOLAMENTE PALABRAS NECESARIAS

2. EVITAR CONSTRUCCIONES INCOMPLETAS

3. DAR ENFASIS A LOS PENSAMIENTOS PRINCIPALES

Page 460: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 446

4. UBICAR CORRECTAMENTE TODOS LOS MODIFICANTES

5. USAR CONSTRUCCIONES SIMILARES PARA EXPRESAR SITUACIONES

SIMILARES

6. EMPLEAR TERMINOS PRECISOS

7. TRATAR DE MEJORAR LA REDACCION EN FORMA HABITUAL

5.1.9. ESTILO EDITORIAL: 1. FORMATO

2. IDENTACION

3. PAGINACION

4. TIPO Y TAMAÑO LETRA

5. NUMERACION

6. TERMINOLOGIA (MECANICA)

7. MAYUSCULAS

8. ABREVIACIONES

9. PALABRAS COMPUESTAS

10. DELETREO

11. SIMBOLOS

12. CONTRACCIONES

13. ACRONIMOS

14. SILABEO

15. CURSIVA

16. BIBLIOGRAFIA

17. NOTAS DE PIE DE PAGINA

18. PUNTUACION

19. PUNTO APARTE

20. PUNTO SEGUIDO

21. COMA

22. PUNTO Y COMA

23. DOS PUNTOS

24. GUION

25. PARENTESIS

26. EXCLAMACION

Page 461: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 447

27. NTERROGACION

5.1.10. FALTAS FRECUENTES QUE CONSTITUYEN CAUSAS DE RECHAZO DE ARTICULOS TECNICO - CIENTIFICOS. 5.1.10.1. FALTAS RELACIONADAS CON EL CONTENIDO DE LA INVESTIGACION A. Fase conceptual de la investigación

B. Fase empírica de la investigación

C. Fase interpretativa de la investigación

5.1.10.2. FALTAS RELACIONADAS CON EL INFORME DE LA INVESTIGACION A. Estructura del artículo

B. Estilo del artículo.

5.1.11. ASPECTOS PARA UNA LECTURA INTELIGENTE: 5.1.11.1. SELECCIÓN Lo que es nuevo y relevante a mi interés

Lo que me ayuda a resolver un problema en particular o responder a una necesidad

específica de información

Lectura crítica (título, resumen, resultados y resto)

5.1.11.2. EVALUACION DE CALIDAD Confiabilidad de la información

Diseño investigación

Procedimientos estadísticos

Falsedad consciente (fraude, engaño, plagio)

Secreto, reserva (retención de información)

5.1.11.3. ACCESO A LA LITERATURA “BENDITO ES EL HOMBRE QUIEN NO TENIENDO NADA QUE DECIR SE ABSTIENE

DE DAR EN PALABRAS EVIDENCIA DE ESE HECHO” George Eliot (1819-1880)

http://www.unet.edu.ve/~frey/varios/decinv/investigacion/investyescrit.html

Page 462: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 448

5.2. CÓMO ESCRIBIR UN ARTÍCULO CIENTÍFICO

5.2.1. LA ESTRUCTURA DE UN ARTÍCULO ORIGINAL 5.2.1.1. INTRODUCCIÓN La introducción debe responder a la pregunta de "porqué se ha hecho este trabajo".

Describe el interés que tiene en el contexto científico del momento, los trabajos previos

que se han hecho sobre el tema y qué aspectos no dejan claros. Con la abundancia de

trabajos de revisión existentes actualmente, la Introducción no necesariamente debe ser

muy extensa y puede beneficiarse de lo expuesto en la revisión más reciente sobre el

tema.

La Introducción es pues la presentación de una pregunta, la cual es a su vez como el nexo

de unión que engarza la investigación con el cuerpo de doctrina existente. Y para no

encontrarse al final del esfuerzo con la sorpresa de que la pregunta ya ha sido respondida

por otro investigador más madrugador, es necesario (imperativo, por mucho que cueste),

hacer una revisión bibliográfica previa. Probablemente es la parte más costosa del

trabajo, entre otras cosas porque siempre existe la posibilidad de que de dicha revisión

pueda concluirse que nuestras preguntas ya tienen respuesta y, por lo tanto, no vale la

pena llevar a cabo la investigación.

Es conveniente que el último párrafo de la Introducción se utilice para resumir el objetivo

del estudio.

5.2.1.2. MATERIAL Y MÉTODOS En esta sección se responde a la pregunta de "cómo se ha hecho el estudio". Una vez se

han visto las razones por las que merece la pena acometer el proyecto, hay que pensar en

cómo llevarlo a la práctica, para lo cual es de gran utilidad la ayuda de un epidemiólogo o de un bioestadístico a fin de no malgastar esfuerzos en vano. Un magnífico proyecto

puede resultar inválido o ineficiente si no utiliza la metodología adecuada: no se puede

llevar a cabo un estudio de causalidad con un diseño transversal; es ineficiente hacer un

estudio prospectivo, más largo y costoso, si lo que se busca es simplemente explorar una

hipotética relación causa-efecto, algo que con un estudio retrospectivo, más rápido y

barato, puede resolverse, reservando el estudio prospectivo para probar dicha relación.

Page 463: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 449

Muchos estudios fracasan por defectos en la metodología utilizada. Si un bioestadístico o

epidemiólogo colabora de alguna forma en la investigación, debe ser, o bien retribuido

económicamente, o bien incluido entre los autores.

La sección de material y métodos se organiza en cinco áreas:

• Diseño: se describe el diseño del experimento (aleatorio, controlado, casos y

controles, ensayo clínico, prospectivo, etc.)

• Población sobre la que se ha hecho el estudio. Describe el marco de la muestra y

cómo se ha hecho su selección.

• Entorno: indica dónde se ha hecho el estudio (hospital, asistencia primaria,

escuela, etc).

• Intervenciones: se describen las técnicas, tratamientos (utilizar nombres genéricos

siempre), mediciones y unidades, pruebas piloto, aparatos y tecnología, etc.

• Análisis estadístico: señala los métodos estadísticos utilizados y cómo se han

analizado los datos.

La sección de material y métodos debe ser lo suficientemente detallada como para que

otro autor pueda repetir el estudio y verificar los resultados de forma independiente.

5.2.1.3. RESULTADOS Esta sección debiera ser la más simple de redactar. Incluye las tablas y figuras que, por sí

solas, deben poder expresar claramente los resultados del estudio. Hay editores de

revistas importantes que afirman sin ambages que el mejor texto para esta sección

debiera ser simplemente: "los resultados del estudio se pueden ver en la Tabla 1".

Los resultados deben cumplir dos funciones:

• Expresar los resultados de los experimentos descritos en el Material y Métodos.

• Presentar las pruebas que apoyan tales resultados, sea en forma de figuras,

tablas o en el mismo texto.

Los resultados deben poder ser vistos y entendidos de forma rápida y clara. Es por ello por

lo que la construcción de esta sección debe comenzar por la elaboración de las tablas y

figuras, y sólo posteriormente redactar el texto pertinente en función de ellas. El primer

párrafo de este texto debe ser utilizado para resumir en una frase concisa, clara y directa,

el hallazgo principal del estudio. Esta sección debe ser escrita utilizando los verbos en

pasado. Aunque se utiliza mucho la voz pasiva o el impersonal ("se ha encontrado que...")

como prefieren algunos editores, cada vez se tiende más a utilizar la voz activa en primera

Page 464: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 450

persona del plural ("hemos visto que... "); al fin y al cabo el mérito es de los autores y no

hay porqué ocultarlo.

Discusión

Esta sección es el corazón del manuscrito, donde la mayoría de los lectores irán después

de leer el resumen (a pesar de que los expertos recomiendan que, tras leer el título, lo

primero que hay que leer es el material y métodos) y la sección más compleja de elaborar

y organizar. Algunas sugerencias pueden ayudar:

• Comience la Discusión con la respuesta a la pregunta de la Introducción, seguida

inmediatamente con las pruebas expuestas en los resultados que la corroboran.

• Escriba esta sección en presente ("estos datos indican que"), porque los hallazgos

del trabajo se consideran ya evidencia científica.

• Saque a la luz y comente claramente, en lugar de ocultarlos, los resultados

anómalos, dándoles una explicación lo más coherente posible o simplemente

diciendo que esto es lo que ha encontrado, aunque por el momento no se vea

explicación. Si no lo hace el autor, a buen seguro lo hará el editor.

• Especule y teorice con imaginación y lógica. Esto puede avivar el interés de los

lectores.

• Incluya las recomendaciones que crea oportunas, si es apropiado.

• Y, por encima de todo, evite sacar más conclusiones de las que sus resultados

permitan, por mucho que esas conclusiones sean menos espectaculares que las

esperadas o deseadas.

5.2.2. OTROS ASPECTOS DEL ARTÍCULO El título debe ser corto, conciso y claro. Los más efectivos tienen menos de 10 palabras y

no deben incluir abreviaturas ni acrónimos. Todos los acrónimos utilizados en el texto

deben ser seguidos, la primera vez que se mencionan, de un paréntesis con su

significado. Es aconsejable que el título sea escrito después de redactar el núcleo del

manuscrito (introducción, material-métodos, resultados y discusión). Los títulos pueden ser

informativos ("Alta incidencia de infartos de miocardio en fumadores") o indicativos

("Incidencia del infarto de miocardio en fumadores").

El resumen da una visión de conjunto del trabajo. Si se trata de trabajos de revisión, el

resumen suele ser descriptivo (describe brevemente cuál es el contenido del trabajo y no

menciona resultados ni conclusiones); si se trata de trabajos originales, el resumen es

Page 465: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 451

comprehensivo (informa brevemente de todas las secciones del trabajo, incluyendo

resultados y conclusiones). Este resumen comprehensivo puede ser estructurado (con

los apartados de: objetivo, diseño, entorno, sujetos, resultados y conclusiones) o no estructurado, en el que la información se suele dar en dos o tres párrafos. Obsérvese que

en el resumen estructurado, la Introducción es sustituida por Objetivo, la Discusión por

Conclusiones y el Material-Métodos está separado en sus componentes.

Los errores más frecuentes en la redacción del resumen son:

• no plantear claramente la pregunta

• ser demasiado largo

• ser demasiado detallado

Las palabras clave serán de 3 a 10, si su número no está ya especificado en las

"Instrucciones para los Autores", y seleccionadas a ser posible de la lista del MeSH

(Medical Subject Headings), del Index Medicus o del Indice Médico Español.

Los agradecimientos se situarán en el lugar que determine el editor de la revista en las

"Instrucciones para los Autores": puede ser en la primera página o al final de la Discusión.

Se deben incluir en los agradecimientos, pero no entre los autores, a quienes sin ser

autores o coautores en sentido estricto han prestado su ayuda técnica (técnicos de

laboratorio, secretarias, etc.) o han sido de inestimable apoyo moral (el Jefe de un

Departamento, etc.).

La bibliografía se citará según la normativa exigida por la revista elegida. Salvo casos de

publicaciones de gran relevancia histórica, las citas deben ser recientes, no superiores a

los 5 años en caso de un trabajo de revisión. Esta normativa suele seguir de manera

bastante uniforme las normas de Vancouver. • Para la citación de revistas se indica el siguiente orden:

o Nombre de los autores, hasta un máximo de seis, separados por comas, con

su apellido y las iniciales sin puntos (excepto tras la última inicial del último

autor). Si se sobrepasa el número de seis, hay que escribir los seis primeros

y añadir "et al.", abreviación de la expresión latina "et alii" que significa "y

otros". Si el autor es un Comité, poner el nombre del Comité.

o Título del trabajo, terminado con un punto.

o Revista biomédica, en su expresión abreviada según aparece en el Index

Medicus, a la que sigue, sin puntuación alguna intermedia, el

Page 466: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 452

o Año de publicación, -punto y coma-, Volumen, -abrir paréntesis-, Número o mes del ejemplar (esto puede omitirse si la paginación del Volumen es

consecutiva), -cerrar paréntesis-, -dos puntos-, Páginas del artículo (la

primera y la última, si bien la última página puede indicarse con sólo el último

dígito si los primeros fueran iguales a los de la primera página).

• Si se trata capítulos de libros en los que varios autores han colaborado, se cita de

la siguiente forma:

o Autor/es del capítulo

o Título del capítulo

o Autor/es del libro (denominados "editores" en terminología anglosajona),

o Título del libro

o Ciudad donde se ha impreso

o Editorial que lo ha publicado

o Año de publicación

o páginas (primera y última) del capítulo

He aquí algunos ejemplos:

1-International Committee of Medical Journal Editors. Uniform requirements

for manuscripts submitted to biomedical journals. N Engl J Med 1991; 324:

424-5

2-Weinstein L, Swartz MN. Pathologic properties of invading microorganisms.

En: Sodeman WA, editor. Pathologic physiology: mechanisms of disease.

Philadelphia: Saunders, 1974:457-72.

Además de la normativa de Vancouver, existe la normativa para la citación de

publicaciones en la bibliografía de trabajos científicos, según la American Psychology Association.

5.2.3. COMPROBACIÓN DE ERRORES • ¿Se envía a la revista adecuada?

• ¿Se cumplen todas las instrucciones que el editor de la revista indica?

• ¿Son los autores los que realmente merecen el crédito del trabajo?

• ¿Es el resumen demasiado largo o demasiado complejo?

• ¿Está correctamente estructurado el núcleo del trabajo (introducción, material-

métodos, resultados, discusión?

Page 467: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 453

• ¿Es la bibliografía reciente y citada según normativa de la propia revista?

• ¿Se corresponden las citas bibliográficas con lugar del texto donde se citan?

• ¿Se responde en la Conclusión a la pregunta formulada en la Introducción?

• ¿Se sacan las conclusiones apropiadas a los resultados obtenidos y no más?

• ¿Son las tablas o figuras fácilmente inteligibles y resumen los resultados?

• ¿Están la Introducción y Conclusiones escritas en presente, y el Material y

Resultados, en pasado?

Page 468: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 454

5.3. EPISTEMOGRAFÍAS. LA ESCRITURA DE LOS RESULTADOS DE INVESTIGACIÓN

Juan Besse

5.3.1. RESUMEN El presente artículo tiene como objetivo desplegar un conjunto de reflexiones que pueden

ser de utilidad para exponer los resultados de investigación. En ese sentido, podemos

distinguir, en principio, dos tipos de prácticas discursivas: 1) la escritura que va diseñando

los diversos componentes de una investigación y 2) la escritura destinada a elaborar un

producto para ser expuesto públicamente. Y este último es un punto no menor, porque

está asociado a la comunicación y el intercambio de los productos de investigación. A

aquello que podríamos denominar el proceso de su publificación. Un término que resulta

útil ya que agrega al acto material de la publicación, la producción de su resonancia social.

El análisis de las prácticas de escritura de los resultados de investigación se asienta en la

distinción de tres aspectos anudados de manera borromea: lo epistémico, lo metódico y lo

técnico. En el presente trabajo hemos puesto énfasis en los dos primeros.

5.3.2. INTRODUCCIÓN El presente artículo tiene como objetivo desplegar un conjunto de reflexiones que pueden

ser de utilidad para exponer los resultados de investigación.

En ese sentido, podemos distinguir, en principio, dos tipos de prácticas discursivas: 1) La

escritura que va diseñando los diversos componentes de una investigación y 2) la escritura

destinada a elaborar un producto para ser expuesto públicamente. Y este último es un

punto no menor, porque está asociado a la comunicación y el intercambio de los productos

de investigación. A aquello que podríamos denominar el proceso de su publificación. Un

término que resulta útil ya que agrega al acto material de la publicación la producción de

su resonancia social.

Rabotnikof (1998: 5 y ss.) distingue tres "criterios heterogéneos" para el trazado de la

distinción entre lo público y lo privado, o, lo que ella llama "tres sentidos tradicionalmente

adheridos a la distinción público-privado". El primer criterio es el que opone lo colectivo a

lo individual, en esa oposición lo público asumiría el sentido del interés general y se

Page 469: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 455

deslizaría hacia su asociación sinonímica con lo político, tanto lo público estatal como lo

no estatal. El segundo criterio haría hincapié en la oposición entre lo visible y lo oculto,

entre lo manifiesto y lo secreto. Un criterio que pone en el tapete la dimensión espacial de

lo público y su relación con la mirada. Por último, el tercero, es el que opone apertura a

clausura y define lo público por las condiciones de accesibilidad y como contrapartida

establece las condiciones de apropiación de los objetos culturales. Entre ellos, el

conocimiento.

La distinción entre discurso de investigación y discurso de exposición (Escolar 2000)

puede entonces delinearse sobre la base de estas nociones de lo público, o más

precisamente de las relaciones entre lo público y lo privado que atraviesan la producción

de los ordenamientos sociales. Algo así como distinguir entre la cocina del platillo para la

fiesta y el modo de exponerlo para convertirlo en objeto de consumo.

Es obvio que entre ambos tipos de discurso hay una relación quiasmática. No hay

delikatessen sin cocina, pero difícilmente ese producto sería deseado y consumido sin la

fantasía que soporta su realidad como conocimiento. Los libros los compramos en

librerías, y no en cualquiera, y los informes de investigación deben estar escritos en

"lenguaje científico" y presentados según ciertos formatos discursivos y estéticos que

trasunten familiaridad y den cuenta de su sostén institucional. Lo que equivale a decir que

el informe genere las propias condiciones de su legitimidad haciendo pública su inscripción

social e institucional (1).

Es decir, se espera del conocimiento científico que sea público en alguno de los sentidos

antes mencionados. Por lo menos que sirva al interés general, sus fundamentos sean

visibles y manifiestos y, en tanto bien común, esté garantizada su accesibilidad. Sin

embargo, desde la constitución del campo científico social en el siglo XIX, la "publificación"

del conocimiento ha basculado históricamente entre, por lo menos, dos conjuntos de

imágenes sobre la ciencia cuyos rasgos principales han sido y aún siguen siendo

esquemáticamente:

a) una ciencia independiente de la política -cuyo atributo esencial es la frontera que la

separa del sentido común y las ideologías de turno- capaz de descubrir un mundo, es

decir con acceso a la verdad como correspondencia y/o adecuación, cuya expresión más

ordinaria es el dogma de la neutralidad valorativa de cuño positivista y

b) una ciencia altamente politizada dónde su especificidad como práctica social se ve

desdibujada en provecho de los proyectos político-ideológicos que le otorgan su razón de

Page 470: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 456

ser. De modo tal que la ciencia adquiere un carácter altamente instrumental, ya sea por

servir a proyectos estratégicos estatales o por colaborar en la tarea de sedimentar las

identidades nacionales en función de esos proyectos (2).

Lo más destacable de ambas opciones epistemológicas es el modo en que se traman la

una con la otra, una concepción opera como fantasma de la otra dándole una consistencia

positiva arrolladora. La báscula entre las concepciones antagónicas mencionadas halló

sus momentos de vacilación en lo que podríamos llamar un saber que al reconocer su

ligazón estructural con el poder puede distanciarse del mismo, y de ese modo procurar

fijar en la travesía de la crítica al poder, los límites históricos del acoplamiento.

En ese sentido, el panorama quedaría incompleto si eludiéramos una tercer concepción

que juega sus cartas en los campos del antagonismo entre del saber disyunto del poder y

el saber acoplado al poder. Esa concepción es la del impolítico nietzscheano que

compartiera con Weber el ideal de una ciencia independiente de la filosofía pro estatal, en

definitiva, una práctica científica capaz de distanciarse de los proyectos gubernamentales

dominantes y por lo tanto devenir en ciertos contextos institucionales grupo sujeto en la

construcción de relaciones democratizantes entre la sociedad (civil) y el estado (3). Y es

precisamente en este punto que el conocimiento, en tanto objeto de intercambio puede, y

necesita, ser pensado como factor constituyente de la esfera pública. Es decir, los tres

criterios heterogéneos para definir "lo público" señalados por Rabotnikof más arriba, tienen

que articular los conceptos de estado, mercado y sociedad civil mediante un anudamiento

borromeo que dé cuenta de los modos históricos y de las especificidades institucionales

en que la escritura científica es producida y apropiada.

Ahora bien, pensar el informe de investigación puede ser una tarea vasta, de modo tal que

es pertinente establecer tres aspectos que a grandes trazos constituyen los problemas de

toda escritura pública:

2) El aspecto epistémico de la producción y el consumo de conocimiento, que como

toda epistemología es necesariamente política ya que fija las condiciones de la

eficacia del discurso y regula por tanto los aspectos metodológicos y técnicos que

participan en su construcción. Es decir todo lo atinente a la demanda de

conocimiento, qué se demanda y quién demanda una investigación (Ibáñez 1986).

De modo tal que la demanda sea entendida como parte del dispositivo de validación

del conocimiento. No sería exagerado decir entonces que el deseo de las

instituciones o de quienes las componen, la pregunta por el deseo del otro, es parte

Page 471: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 457

del aspecto político de toda escritura. Y en esa encrucijada, empezamos a delinear

el contorno de un problema: lo que desean las instituciones no siempre coincide

con lo que anhelan.

3) El aspecto metódico, que en tanto práctica, lo es de un proceso de investigación

particular y da cuenta de las relaciones entre la teoría, el método y la técnica en el

proceso de construcción de un objeto de investigación (Bourdieu 1987). Este

aspecto es el que permite articular el discurso de investigación en un discurso de

exposición mediante estrategias narrativas cuyo objetivo, a nuestro entender, es

producir la unidad en la discontinuidad sin perder el carácter heterogéneo y abierto

de lo social. Aquí se juega la eficacia del montaje que el investigador realiza con

metros de celuloide, dirección y método.

4) Imaginemos que usted ha escrito en varios registros, que ha acopiado información

discrepante y aspira a construir explicaciones coherentes que sin aplanar la

discrepancia permitan captar la lógica fragmentaria en que se expresa lo social y

sus conflictos, sin embargo está obsesionado por la transmisibilidad de sus ideas.

Así, el método es ese camino que construye las ideas. Entre el método y las ideas

hay una relación de anverso y reverso. Antes del método con dificultad estamos

frente a relaciones conceptuales como las que constituyen las explicaciones o las

descripciones. La ideabilidad de las transmisiones es el envés del problema: ¿cómo

nos separamos (se-parere) del otro y engendramos el objeto? A lo que agregamos

un aspecto propiamente epistémico. La construcción de un objeto de investigación,

no es posible sin un efecto de cierre conceptual. Ahora bien, ¿cómo efectuar el

cierre conceptual sin caer en la ausencia de punto de fuga, es decir, en un cierre de

la significación?

5) El aspecto técnico que apela a ciertas figuras de la escritura y de la gráfica que

permiten exponer la información como datos y que ayudan al lector a aproximarse

al informe. El informe es un texto que sometido a una práctica de lectura puede

proveer pistas para reconstruir el objeto de investigación construido por la práctica

de investigación. Como lectores hemos incorporado ciertos hábitos, que suelen

combinar la visión y el tacto.

6) En el caso del libro, y esto presenta apenas una diferencia de grado con los

informes caseros o los documentos institucionales que aspiran a imitar su formato;

el rodeo comienza con la tapa, la contratapa, la solapa, antes o después el índice,

Page 472: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 458

la bibliografía, las notas al pie que nos indican la adscripción institucional. Una

estrategia que nos evoca el relato mítico o histórico de Atahuallpa oliendo la Biblia,

sometiendo el texto sagrado a la tactilidad profana que no ve más allá del ícono al

ser supremo indiscernible; sencillamente porque no mora dentro de él. Sin

embargo, de alguna manera se lo busca en la pregunta sobre el qué pretende, que

se adosa al ¿quién es y sobre qué habla? Allí se juega la técnica expositiva. Una

delgada línea que separa el ornamento de la estructura y deja al desnudo cierta

inescindible relación de la forma y el contenido. Vemos el libro, el informe, el

producto de investigación en cualquiera de sus formatos, pero siempre desde un

lugar diferente del que el artefacto nos mira.

Los tres aspectos están presentes con diversos grados de predominancia en el derrotero

que traza un proceso de investigación. Entre el 1) establecimiento del encuadre

epistémico, 2) las decisiones de las articulaciones de método que realiza el investigador y

3) las opciones técnicas a las que apela para exponer los resultados que ha obtenido

encontramos nuevamente un anudamiento borromeo. No es posible pensar la escritura

como técnica de exposición más allá de las decisiones metodológicas o de la demanda del

campo profesional para el que y, finalmente, en el que trabajamos.

En tal sentido, suscribir la distinción entre el lenguaje denotativo y el connotativo, nos

arroja al despeñadero de los sobrentendidos que en ocasiones suelen ser más perniciosos

que los malentendidos, porque reemplazan la función de pensar por lo pensado e instalan

la confusión entre la reproducción institucional, a la que cualquier institución aspira, y la

normalización del sentido de la comunicación. Algo así como interpretar que normatividad

y normativismo (4) son términos intercambiables.

A continuación desarrollaremos unos apuntes que tienen como objetivo ampliar los

aspectos epistémico y metódico de la escritura en la investigación social y avanzar en la

conceptualización del aspecto técnico mediante el supuesto de su anudamiento con los

niveles anteriores.

5.3.3. EL ASPECTO EPISTÉMICO: EL ENCUADRE POLÍTICO DE LA ESCRITURA "los informes de investigación esperan la consagración de su lanzamiento

en un volumen de pasta dura, o con más frecuencia desaparecen en el

purgatorio, en la flotilla de la ‘literatura gris’ empantanada en el secreto de los

Ministerios o de los centros de investigación" Michel de Certeau

Page 473: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 459

¿Qué sentidos soporta la palabra escritura? Si nos desplazamos por el sesgo etimológico

del título se impone la representación de una inscripción. Inscripción de lo circunscripto

mediante una práctica de investigación, es decir, lo que ha podido ser construido como

conjunto mediante un diseño, cuyo proceso de elaboración ha dejado su huella.

En un trabajo anterior (Besse 2000), donde nos propusimos explorar las relaciones entre

la escritura y las prácticas de diseño, hicimos uso de la imagen de la escritura como una

articulación múltiple. La multiplicidad es lo que hace de esa articulación "algo"

problemático. Sin embargo, aquí no nos vamos a detener in extenso en los supuestos

teóricos que permiten problematizar la escritura, sino que, como si se tratara de transitar

un camino inverso, intentaremos dar cuenta de ciertas precauciones de método que

pueden facilitar la producción de un documento institucional, eso que habitualmente

llamamos informe de investigación.

Si pensamos el informe de investigación como un instrumento para la comunicación, es

inevitable desensillar en la comunicabilidad del texto que soporta la letra. En ese punto

podemos acordar en que los discursos de investigación aspiran a ser comunicados (5) y lo

hacen en la medida que hagan signo. Esto es, que la actividad del lector produzca un

efecto de sentido que se aproxime al que quiso imprimirle el escritor. Por supuesto, el

discurso oficiará de lazo y habilitará la comprensión si se inscribe en una formación social

–discursiva e institucional- que oficie de interpretante. Cuestión esta última que rebasa la

suposición de un marco cultural común a investigadores y lectores, y por lo tanto nos invita

a sondear como operan esas formaciones sociales, en tanto creadoras de demanda, en

los procesos de producción de significación en los campos académicos, intelectuales y

profesionales.

¿Qué pasa entre las estrategias de comunicación de los investigadores, mediante actos

de escritura y las apropiaciones plurales, móviles de los lectores? ¿Cómo se transforman

los documentos de investigación mediante las operaciones de los usuarios? (Certeau

1980; Chartier 1997) ¿Cómo se trama la relación entre la comunicabilidad y la

transmisibilidad en una práctica discursiva como es la de producir un texto escrito? Esas

preguntas nos confrontan con los límites de la comunicación -de toda comunicación- y nos

permiten pensar criterios de comunicabilidad relativamente (6) óptimos.

La eficacia relativa de cualquier escritura se asienta en su capacidad de coadyuvar a

producir un acto de subjetivación. Es en la práctica de lectura, que el discurso hace signo

y produce enlace; allí donde se bordean los contornos de un objeto de conocimiento,

Page 474: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 460

adviene el sujeto. Sujeto y objeto de conocimiento se co-constituyen simultáneamente, a lo

cual agregaría sujeto y sujeto se co-constituyen simultáneamente.

El problema está precisamente en la ciénaga de la simultaneidad. Una perspectiva

"dialéctico-subjetiva", daría cuenta de la compenetración de los opuestos, pensaría al

objeto como acuerdo intersubjetivo, en fin, suturaría la falta, mediante la postulación de la

realidad "hecha" objeto mediante "el colapso del campo mismo de la subjetividad qua

vehículo de la verdad en el capitalismo tardío" y rompería el carácter colectivo de la

construcción de la verdad faccionándola, es decir volviéndola facciosa mediante "su

desintegración en los dos polos del conocimiento experto y la verdad psicótica ‘privada’"

(Zizek 1994:194). O bien cerrando la discusión como un derivado del criterio de autoridad

propio del discurso experto o cayendo en el perspectivismo ingenuo de las verdades

privadas que eleva la experiencia personal a la categoría de absoluto rompiendo,

paradójicamente desde el relativismo que niega toda certidumbre, la construcción misma

de la relatividad que permite formular problemas sobre la base de criterios de verdad pero

sin absolutizarlos.

Entonces no sería abusivo decir que hay escritura científica, cuando se acoplan el escrito

y la lectura produciendo ese efecto de sentido que permite bordear los contornos de un

problema.

Eso es un objeto de investigación, lo que produce un problema, un ob-jectum, algo que se

interpone en el rumor de las murmuraciones conocidas (7).

En las analogías de los itinerarios, el pensamiento científico se asemeja o mejor dicho está

hecho de la misma sustancia que la metáfora o el chiste; que los son –siempre- para un

determinado público, aquel capaz de construir la equivalencia entre un significante y otro

significante. Entre los cuales media una distancia, que como la letra en el papel es la que

marca que esa equivalencia se asienta en una ruptura con el mundo inmediato o la

naturalización de ese mundo por la experiencia cotidiana que, para el caso, es lo mismo

(Le Gaufey 1993: 191 y ss.).

El informe de investigación, al igual que el proyecto de investigación es un documento de

gestión (8). En tal sentido, la eficacia de la gestión dependerá en mucho del discurso de

exposición, es decir de cómo está escrito, una pregunta que comienza a contestarse a

partir de la demanda de investigación: para qué y para quién se escribe.

¿Qué desea el otro de mi escritura? Pregunta incompleta. ¿Quién es el otro de mi

escritura?

Page 475: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 461

5.3.4. EL ASPECTO METÓDICO: LA CONSTRUCCIÓN DEL OBJETO-LA DECONSTRUCCIÓN DEL SUJETO-LA CONSTRUCCIÓN DEL SUJETO-LA DECONSTRUCCIÓN DEL OBJETO El consumo científico es también una cuestión de estilo, y no en el sentido vulgar que

identifica estilo con distorsión culterana, tal como sucede con aquellos trabajos dónde la

teoría muestra a las claras su distancia respecto de las descripciones, trasuntando de ese

modo lo que podríamos denominar la debilidad metodológica del trabajo. ¿En qué sentido

puede pensarse la debilidad metodológica de una investigación en relación con la escritura

de los resultados? Caben varias posibilidades. Sin embargo, pensemos en dos tipos de

problemas:

Si, como vimos, es inadecuado partir del supuesto de que la escritura es simplemente la

puesta en página de una delgada laminilla llamada lenguaje científico que expresaría uno

a uno el núcleo de la realidad, sino que por el contrario el lenguaje realiza un arduo trabajo

en la reconstrucción siempre inacabada de esa realidad y por lo tanto, aceptamos que

entre la investigación como práctica y su escritura -como práctica de la práctica- hay una

distancia; una de las posibilidades es que se produzcan (9) aquellos obstáculos de los que

hablaba Bachelard: el formalismo y el empirismo. Por un lado, un dispositivo conceptual

dogmático propenso a la sobreteorización y por otro, porciones de realidad que quieren

ser actos descriptivos pero que no logran romper con el conocimiento espontáneo que

replica las representaciones oficiales de lo oficial (Bourdieu 1987).

Afirmar que la práctica científica y el consumo de los productos que manufactura es una

cuestión de estilo vuelve relevante la relación entre el mercado, el estado y la sociedad

civil en la constitución de los sujetos y objetos de consumo. Según Panofsky (1936: 146)

"estilizar previamente la realidad antes de abordarla es lo mismo que eludir el problema. El

problema radica en manipular y filmar la realidad no estilizada de tal modo que el resultado

cree estilo" (el destacado es nuestro). La investigación social no está al margen de ello,

sin embargo la distancia dialéctica respecto de su propia estructura de funcionamiento

debe impulsar su propia economía política y colaborar en el develamiento de las

relaciones sociales que ayuda a producir.

El método crea estilo. Una determinada forma de exponer los resultados que permita leer

a la letra el modo en que la teoría orientó la producción de la información, es decir ver

como permitió un uso satisfactorio de la técnica haciendo de la entrevista o de la encuesta

Page 476: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 462

un instrumento para apropiarse de un aspecto de lo real y viceversa. Es decir dar cuenta

acerca de como la información preñó la teoría en un sentido correctivo. Todo ese

movimiento hace a la coherencia del producto final.

No se trata entonces de la coherencia interna de una teoría, como la que puede

expresarse en el desarrollo argumental de los supuestos manejamos como investigadores

o a la coherencia de la descripción de una realidad cualquiera, sino de un cierto croché

que teje la teoría (el discurso manipulable) con lo real (los discursos imposibles que se

escapan cada vez que se los quiere manipular) mediante un efecto interpretativo que

posibilita una coherencia en la que el rigor del discurso no pasa ni por la aguja ni por la

hebra.

Ese es el punto en que el método crea realidad como efecto de discurso. Una realidad que

rebasa la mera postulación o el carácter externo cuando el discurso ha mordido las

determinaciones de lo real. El discurso como la mañanita de la abuela no estaba contenido

ni en la materia prima ni en los instrumentos, sino que fue realizado mediante un acto de

construcción que permite partir de un mundo preconstruido para llegar a producir otro

mundo.

Así las cosas, la exposición o las técnicas expositivas son algo más que instrumentos de

una política. Allí se juega la identidad. Es en el juego de las filiaciones dónde la escritura

en su dimensión expositiva desnuda que no hay meta discurso, que lo dicho es el soporte

de lo que quiere decirse. Lo escrito finalmente se dice así mismo en el acto de la

apropiación. Cuando concurren las apropiaciones de los autores con las de los lectores,

estamos frente a la frontera de la comunicación sin cuya línea no habría comunicabilidad.

Simplemente estaríamos allí como un real que no cesa de existir pero que nada sabe de

eso.

El conocimiento tiene que ver con la distancia entre la cosa y la imagen, entre la imagen y

el nombre. Como afirma Agamben (1996: 80) "la exposición es el lugar de la política. Si no

hay, probablemente, una política animal, es sólo porque los animales, que viven

permanentemente en lo abierto, no tratan de apropiarse de sus exposición, moran

sencillamente en ella sin preocuparse. Por eso no les interesan los espejos, las imágenes

en cuanto imágenes. El hombre, por el contrario, al querer reconocerse -es decir

apropiarse de su propia a apariencia- separa las imágenes de las cosas, les da un

nombre. Así transforma lo abierto en un mundo, en el campo de una lucha política sin

cuartel".

Page 477: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 463

5.3.5. REFERENCIAS o Agamben, Giorgio (1996) Medios sin fin. Notas sobre la política, Valencia, Pre-

Textos, 2001.

o Aguilar Villanueva, Luis (1988) Weber: la idea de ciencia social. Vol. I La tradición,

México, Cuadernos de Humanidades/Miguel Angel Porrúa.

o Besse, Juan (2000) "Las prácticas de escritura y diseño en la investigación social"

en Cora Escolar (comp.) Topografías de la investigación. Métodos, espacios y

prácticas profesionales, Buenos Aires, Eudeba.

o Bourdieu, Pierre (1987) "La práctica de la antropología reflexiva" en Bourdieu,

Pierre y Loïc Wacquant Respuestas por una antropología reflexiva, México,

Grijalbo, 1995.

o Cacciari, Massimo (1978) "Lo impolítico nietzscheano" en Desde Nietzsche.

Tiempo, arte y política, Buenos Aires, Biblos, 1994.

o Certeau, Michel de (1980) La invención de lo cotidiano. I Artes de hacer, México,

UIA Ediciones, 1996.

o Chartier, Roger (1997) Pluma de ganso, libro de letras, ojo viajero, México,

Universidad Iberoamericana-Departamento de Historia.

o Eagleton, Terry (1996) La función de la crítica, Buenos Aires, Paidós, 1999.

o Escolar, Cora (2000) "Palabras introductorias" en Cora Escolar (comp.)

Topografías de la investigación. Métodos, espacios y prácticas profesionales,

Buenos Aires, Eudeba.

o Herf, Jeffrey (1984) El modernismo reaccionario. Tecnología, cultura y política en

Weimar, México/Buenos Aires, FCE, 1993.

o Ibáñez, Jesús (1979) Más allá de la sociología. El grupo de discusión: técnica y

crítica, Madrid, Siglo XXI de España, 1992.

o Le Gaufey, Guy (1993) La evicción del origen, Buenos Aires, Edelp, 1995.

o Legendre, Pierre (1985) El inestimable objeto de la transmisión. Estudio sobre el

principio genealógico en Occidente, México, Siglo XXI, 1996.

o Milner, Jean-Claude (1995) La obra clara, Buenos Aires, Bordes Manantial, 1996.

o Panofsky, Erwin (1936) "El estilo y el medio en la imagen cinematográfica" en

Sobre el estilo. Tres ensayos inéditos, Barcelona, Paidós, 2000.

Page 478: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 464

o Rabotnikof, Nora (1998) "Lo público, lo privado" en Debate Feminista. Público-

Privado, Año 9, Vol. 18, México, octubre.

o Zizek, Slavoj (1994) "En su mirada insolente está escrita mi ruina" en Zizek, Slavoj

(comp.) Todo lo que usted siempre quiso saber sobre Lacan y no se atrevió a

preguntarle a Hitchcock, Buenos Aires, Manantial.

5.3.6. NOTAS 1) Aquí es pertinente producir un abalizamiento teórico que evite la simplificación que

entraña pensar la legitimidad como derivado de los títulos del autor o como algo que se

encuentra en el mensaje, aquella polémica que Ricoeur pensara como un endeble dilema

entre la "falacia intencional" y la "falacia del texto absoluto" (Besse, 2000: 80 y ss.). Terry

Eagleton (1996: 18) señala que "lo que se dice no obtiene su legitimidad [a lo que yo

agregaría exclusivamente] ni de sí mismo como mensaje ni del título social del emisor,

sino de su conformidad como enunciado con un cierto paradigma de razón inscripto en el

propio acto de habla".

2) Una versión de exacerbada de la ciencia politizada es la que sostuvo el vínculo

ontológico entre cultura y técnica durante el proceso modernización reaccionario que se

desarrolló en Alemania teniendo como actores centrales a los campos profesionales e

intelectuales. Un análisis sugerente puede verse en (Herf, 1994).

3) Para ilustrar esa báscula, dos citas dan cuenta del espesor histórico de los problemas

de la escritura científica, terreno en el que escribir pareció siempre el momento ulterior al

armisticio, pero en el que en realidad se funda la investidura del pensamiento mediante el

acto de su publicación. En relación con Weber, Aguilar Villanueva (1988: 22) nos dice que

"La propuesta teórica y la posición política de Weber (…) En parte, son un esfuerzo por

aclarar el entonces confuso entendimiento del que hacer científico histórico y sociológico y

por deslindar los territorios de la ciencia y la política. En parte son un esfuerzo por

transformar la propensión proestatista de la filosofía alemana en sociología crítica del

estado, el Reich en República". Para Cacciari (1978: 70) " ‘Impolítico’ no significa por lo

tanto ‘supra-político’: su concepto atraviesa el total espacio de lo ‘político’, es, en, lo

‘político’, la crítica de su ideología y de su determinación".

4) Para la conceptualización de la diferencia entre normatividad y normativismo puede

verse Legendre (1985).

Page 479: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 465

5) En esta perspectiva el discurso puede ser entendido como un mensaje. Un discurso,

desde el momento que es producido entraña una pretensión de comunicación y se inscribe

por lo tanto en la lógica del intercambio. El acto de habla bajo el signo de lo inmediato y el

acto de escritura bajo el signo de lo diferido ponen en el tapete las discusiones sobre el

tratamiento del discurso como mensaje que posibilita una práctica de intercambio. En el

caso particular de los discursos científicos, es un presupuesto incuestionable que son

producidos para ser comunicados y que dicha comunicación aspira a comunicar un

sentido. Es allí, en esa aspiración donde la escritura de una manera distinta que el habla

interviene como práctica de articulación entre dos impulsos: la intención del escritor por

imponer un sentido y la intención del lector puesta en hallarlo allí donde lo busca. ¿Quién

aspira?. Las aspiraciones son múltiples y en modo alguno lineales.

6) En coincidencia no explícita con el psicoanálisis de Lacan, Agamben (1996: 72) nos

dice que "lo que impide la comunicación es la comunicabilidad misma; los hombres están

separados por lo que los une".

7) Milner (1995: 8) hace referencia al pensamiento, un pensamiento como algo que objeta

en el sentido que se impone, "es decir algo cuya existencia se impone a quien no lo

pensó".

8) Agradezco esta lectura del informe como documento de gestión a Miriam Wlosko.

9) Es decir que produzcamos y nos produzcan como investigadores.

Page 480: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 466

5.4. GUIA PARA LA REDACCION DE ARTICULOS CIENTIFICOS DESTINADOS A LA PUBLICACION

Anders Martinsson

Programa General de Información y UNISIST organización de las Naciones Unidas para la

Educación, la Ciencia y la Cultura. El presente documento es una reproducción

Fotográfica del texto redactado por el autor. Asiento recomendado:

Guía para la redacción de artículos científicos destinados a la publicación/

Preparada para el/ Programa General de Información y UNISIST-Segunda

Edición/revisada y actualizada por Anders Martinsson-París-Unesco, 1983-13 Págs.

30 cm- (PGI-83/WS/10).

Primera edición en París: Unesco, 1968 (SC/MD/5)

I. Anders Martinsson

II. Unesco – Programa General de Información y UNISIST. Unesco 1983.

0.INTRODUCCION ..........................................................................................................1

1.PREAMBULO................................................................................................................2

2.CATEGORIAS DE ARTICULOS ...................................................................................3

3.REGLA CONTRA LA DUPLICACION DE PUBLICACIONES.......................................3

4.ELEMENTOS CONSTITUTIVOS DEL MANUSCRITO.................................................3

5.ESTILO DE PRESENTACION ......................................................................................4

6.CITAS Y REFERENCIAS .............................................................................................5

7.BIBLID (IDENTIFICACION BIBLIOGRAFICA) ..............................................................6

8.PREPARACION DE RESUMENES ANALITICOS ........................................................6

9.TERMINOLOGIA Y NOMENCLATURA ........................................................................8

10.PREPARACION DE CUADROS..................................................................................8

11.PREPARACION DE ILUSTRACIONES ......................................................................9

12.FORMA DE PRESENTACIÓN...................................................................................10

13.RECOMENDACIONES COMPLEMENTARIAS A LOS JEFES DE REDACCION ....10

14.NORMAS RELATIVAS A LAS PUBLICACIONES CIENTIF.......................................11

15.LISTA DE ABREVIATURAS ......................................................................................13

Page 481: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 467

5.4.1. INTRODUCCION En 1962, la Unesco publicó las Normas que deben aplicarse en materia de publicaciones

científicas (documento UNESCO / NS / 177), preparado por el entonces comité de enlace

FID-CIUC-FIAB- OIUN. Dicho comité había sido creado para examinar los medios de

llevar a cabo una actividad internacional eficaz que permitieran mejorar la situación de la

información científica. El comité consideró que la falta de disciplina libremente aceptada en

materia de redacción y de publicaciones de informaciones científicas era una de las

causas principales del inútil aumento de los documentos publicados, así como de los

gastos que entraña su publicación primaria y el posterior tratamiento de las publicaciones

en los servicios de indizado y de extractos y en las bibliotecas. Por consiguiente, el comité

estableció en las normas, en la forma más concisa posible, las reglas que debieran seguir

los autores de publicaciones científicas y los redactores de revistas científicas. La Unesco

y la Oficina de Resúmenes Analíticos del CIUC difundieron ampliamente las normas en

español, Francés, Ingles y Ruso; asimismo, se publicaron versiones en Alemán,

Esperanto, Polaco y Portugués.

En 1968, fue publicada la nueva Guía para la Redacción de artículos Científicos

Destinados a la Publicación, en la que se tuvieron en cuenta todas las sugerencias y

comentarios recibidos en relación con las Normas y, en particular, un estudio detenido de

las mismas y de su anexo: la “Guía para la preparación y publicación de resúmenes

analíticos” (titulo dado entonces al resumen preparado por el autor) elaborada por la Unión

Internacional de Física Pura y Aplicada (UIFPA). En principio, se conservaron en la Guía

todos los elementos esenciales de las Normas y solo se hicieron algunas adiciones y

ligeras modificaciones a las normas existentes. No obstante, visto retrospectivamente, la

extraordinaria utilidad e impacto del documento mencionado se debió, en gran parte, al

hecho de que aquéllas iban acompañadas de comentarios, detalles y sugerencias

secundarias, generalmente de carácter explicativo, presentado en cursiva, en columna

aparte, para facilitar la lectura del texto.

En presente edición de la Guía, se mantiene y amplía el enfoque de “una norma

explicativa”. La nueva edición refleja, además, la evolución registrada desde 1.968 en el

mundo de las publicaciones científicas, sobre todo dentro de las asociaciones de jefes de

redacción agrupadas en la IFSEA y que cuenta con patrocinio de la Unesco. En primer

lugar, la publicación de trabajo científicos es ahora más profesional, por lo que la

presentación de publicaciones científicas se centran más en el editor y en el usuario que

Page 482: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 468

en los bibliotecarios y documentalistas. Actualmente, se hace mayor hincapié en la

ergonomía, la economía y las técnicas más recientes de producción de publicaciones,

teniendo muy en cuenta los hábitos de trabajo del lector y, por supuesto, las necesidades

de los servicios auxiliares. En segundo término, las nuevas técnicas de tratamiento de

textos y de la “palabra” han eliminado la clara línea divisoria que existía entre la

producción tipográfica y la de manuscritos.

La presente Guía trata de la preparación técnica del manuscrito para su composición

profesional, y no de las técnicas, más o menos desarrolladas, que utiliza cada autor para

elaborar un texto mecanografiado, listo para reproducirlo en una publicación relativamente

efímera. No obstante, los principios básicos deberían ser similares.

La preparación adecuada de manuscritos e ilustraciones disminuyen radicalmente los

costos de edición. Las publicaciones correctamente preparadas reducen los enormes

gastos que han de sufragar las bibliotecas científicas y los centros de documentación de

todo el mundo. Además del control de calidad editorial del texto en los manuscritos

científicos, una presentación que tenga en cuenta los factores ergonómicos y económicos

contribuirán en gran medida a diminuir los costos de edición y los tiempos de lectura y de

búsqueda del lector.

5.4.2. PREAMBULO La finalidad esencial de un artículo científico (erudito) es comunicar los resultados de

investigaciones, ideas y debates de una manera clara, concisa y fidedigna. Los autores y

los jefes de redacción deben tratar sobre todo de lograr ese objetivo. La mayoría de las

recomendaciones formuladas en la presente Guía están concebidas con ese fin.

La publicación es uno de los métodos inherentes al trabajo científico. Es preciso

establecer estrategias de publicación bien elaboradas y seguir con conocimiento de causa

una serie de normas adecuadas para facilitar el intercambio entre científicos de todos los

países y reducir a proporciones razonables el incremento del volumen de las

publicaciones.

5.4.3. CATEGORIAS DE ARTICULOS 5.4.3.1. MEMORIAS CIENTÍFICAS ORIGINALES En las que se informa sobre los resultados obtenidos, se describen métodos, técnicas y

aparatos, se presentan nuevas ideas, etc. Esta es la principal categoría de colaboraciones

Page 483: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 469

primarias destinadas a publicaciones periódicas. Además de los artículos completos y la

monografías, las notas preliminares y la exposición subsiguiente en forma de anotación

desempeñan un papel importante en la publicación primaria. Un texto pertenece a la

categoría de “publicaciones originales” cuando contribuye a ampliar considerablemente el

conocimiento o la comprensión de un problema y está redactado de tal manera que un

investigador competente pueda repetir los experimentos, observaciones, cálculos o

razonamientos teóricos del autor y juzgar sus conclusiones y la precisión de su trabajo.

5.4.3.2. PUBLICACIONES SECUNDARIAS Y SERVICIOS DE INFORMACIÓN Por lo general, estos sistemas son administrados por importantes organismos comerciales

o gubernamentales y se ocupan de la elaboración de resúmenes y el indizado de

publicaciones primarias, así como del almacenamiento y recuperación de la información

contenida en ellas. El autor de memorias científicas necesita estos sistemas para obtener

resúmenes analíticos y grupos de palabras clave.

5.4.3.3. ESTUDIOS RECAPITULATIVOS Un estudio recapitulativo es una investigación realizada sobre un tema determinado, en la

que se reúnen, analizan y discuten informaciones ya publicadas. Su alcance depende de

la publicación a la que se destina. El estudio recapitulativo es considerado, a veces, como

una publicación secundaria e, incluso, terciaria; de hecho, los compiladores creativos de

este tipo de estudio a menudo lo complementan con actitudes considerables de

información primaria. El autor de un estudio recapitulativo debe tener en cuenta todos los

trabajos publicados que han hecho avanzar el tema, o que lo habrían hecho avanzar si se

hubiesen tomado en consideración.

5.4.4. REGLA CONTRA LA DUPLICACION DE PUBLICACIONES 3.1. No debe enviarse ningún manuscrito, para su publicación, si este ha sido ya editado o

ha de serlo en algún otro medio. Los manuscritos no deben someterse simultáneamente al

examen de varias revistas o publicaciones periódicas.

Esta regla obedece a consideraciones sobre la economía general de la información

científica, la preocupación por los esfuerzos que deben realizar los jefes de redacción y los

comités de lectura y a problemas de derechos de autor. Excepcionalmente, los autores y

los responsables de la publicación pueden llegar a un acuerdo cuando ésta vaya a

Page 484: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 470

realizarse en áreas lingüísticas claramente separadas o la reedición del trabajo se deba a

una evidente imposibilidad de obtenerlo.

Las presentaciones subsiguientes de manuscritos deben ir siempre acompañadas de una

declaración sobre consideraciones previamente formuladas acerca de ellos por los jefes

de redacción o los comités de lectura.

5.4.5. ELEMENTOS CONSTITUTIVOS DEL MANUSCRITO 4.1. El título debe ser conciso; su objeto es dar a conocer el lector el contenido esencial

del artículo. No debe sobrecargarse con información expuesta en forma de abreviaturas,

paréntesis, fórmulas o caracteres desconocidos en el idioma utilizado en la revista. Ya no

es necesario sobrecargar el título con elementos indicativos ni añadir un subtítulo, porque

todo ello se suple con el resumen analítico y las palabras clave.

4.2. El resumen analítico es un título más extenso compuesto por oraciones conexas.

Todos los artículos deben incluir un resumen de este tipo, en consideración a los lectores

y a los servicios de información secundaria (para mayores detalles, véase el punto 8.1 y

siguiente).

Más adelante figura una sección especial en la que se da información detallada para la

redacción de resúmenes analíticos. En ella se explica la disposición del título, el resumen

analítico y las palabras clave. Otros elementos del mismo son la identificación bibliográfica

(Biblid) y la identificación (dirección, etc) del autor.

4.3. Una línea de palabras clave colocada a continuación del resumen analítico facilita

grandemente a los servicios secundarios el indizado del artículo. Además, la línea de

palabras clave disminuye la cantidad de elementos indicativos incluidos en el resumen

analítico y permite adoptar un enfoque más informativo. Según la práctica habitual de las

distintas revistas, las palabras clave pueden elegirse libremente o de acuerdo con un

vocabulario autorizado.

4.4. El texto principal debe estar bien integrado, aunque dividido en secciones, mediante

encabezamientos de carácter informativo. Deben evitarse las notas al pie de página y la

separación innecesaria de partes del texto en forma de anexos o apéndices. La notación

aumenta considerablemente los costos de composición del texto y se opone a la

ergonomía de la lectura. La presente Guía no pretende ser un manual de estilo para todo

tipo de manuscritos científicos. Deben consultarse cuidadosamente (y con espíritu crítico)

Page 485: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 471

las “instrucciones para los autores” que proporcionan las distintas revistas y los manuales

de estilo publicados en relación con las diferentes materias.

4.5. Un resumen redactado en el mismo idioma del artículo o traducido a una lengua de

mayor difusión internacional facilita la asequibilidad del artículo. A diferencia del resumen

analítico, el resumen puede variar considerablemente en extensión, en función de la

longitud del artículo y no está sujeto a muchas de las limitaciones estilísticas impuestas a

aquél. El resumen puede combinarse con conclusiones y presentar información adicional,

en forma de síntesis gráficas, aspectos más amplios del campo de estudio, etc.

4.6. La lista de referencias debe elaborarse con especial cuidado, considerando cada uno

de los elementos y prestando atención a los detalles de puntuación, de acuerdo con las

“instrucciones para los autores” de las respectivas publicaciones.

Las listas de referencias suelen adquirir una magnitud desproporcionada en la publicación

de temas científicos, hasta tal punto que, en ocasiones, requieren un mayor esfuerzo

editorial que la parte estrictamente científica del artículo.

5.4.6. ESTILO DE PRESENTACION 5.1. La introducción debe explicar la finalidad del artículo. Si en un artículo de

investigación primaria se incluye una reseña crítica o histórica de los conocimientos

existentes, ésta debe limitarse estrictamente al tema tratado en el artículo. Las reseñas

más generales deben publicarse, como tales, por separado.

5.2. Debe exponerse el tema de la manera más concisa posible, utilizando un vocabulario

sencillo y directo. La terminología y la nomenclatura, aunque forman parte del lenguaje

científico, han de usarse con sentido crítico y con mesura (véase el punto 9.1). Los

autores deberán procurar que sus artículos contengan todos los datos que contribuyan a

la comprensión del artículo y con ese fin, darán las explicaciones necesarias sobre el

sentido de los símbolos y abreviaturas empleados. Los autores no deben utilizar

demasiadas abreviaturas poco corrientes y sobre todo, las que designen términos de

escasa utilización, ya que esa práctica dificulta considerablemente la lectura de los

artículos. Incluso las abreviaturas normalizadas a nivel nacional o ampliamente

reconocidas resultan harto dificultosas para los lectores cuya lengua materna no es la del

artículo.

5.3. Los autores deben aclarar qué partes del artículo representan contribuciones propias

y cuáles corresponden a aportes de otros investigadores. Deben especificar

Page 486: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 472

cuidadosamente en el texto las limitaciones del trabajo realizado: el grado de validez de

sus conclusiones, las fuentes de error y los errores probables en los datos presentados.

No deben adoptar una actitud excesivamente optimista respecto de la precisión de su

trabajo, la universalidad de sus conclusiones o la aplicabilidad de los resultados obtenidos.

Evitarán los argumentos “ad hominem” cuando critiquen otros trabajos conexos. Las

críticas sólo se referirán al aspecto científico de esos trabajos.

5.4. Si por consideraciones de propiedad industrial o de seguridad nacional el autor se ve

obligado a limitar sensiblemente la información científica que ha de contener el artículo,

esto debe quedar señalado en el texto, que en cuyo caso suele convertirse en una

“publicación provisional”. Se habrá de indicar si el artículo se publica en forma de resumen

y si los datos primarios están depositados en algún centro de acceso general.

5.5. La mayoría de las revistas, en particular las publicaciones seriadas, han establecido

“instrucciones para los autores” en las que se indica con detalle la presentación que deben

adoptar. Suelen referirse a la presentación general, a la forma de las referencias

bibliográficas, las condiciones establecidas para cuadros e ilustraciones, etc. Dichas

instrucciones están actualizadas, en mayor o menor grado, con arreglo a la evolución

moderna de las publicaciones, pero deben cumplirse siempre para facilitar el rápido

tratamiento de los manuscritos. El estudio de la presentación y del estilo de artículos

análogos publicados sobre temas afines en la revista a que se destina el artículo puede

dar valiosas indicaciones sobre la forma y contenido convenientes. Los autores

experimentados que poseen profundos conocimientos de la evolución técnica y estilística

de la publicación científica no deben vacilar en buscar un acuerdo sobre la modernización

de las “instrucciones para los autores”.

5.4.7. CITAS Y REFERENCIAS 6.1. Los trabajos anteriores publicados sobre el mismo tema deben ser objeto de

referencias bibliográficas explícitas cuando éstas sean necesarias para poner de

manifiesto el progreso que suponen los nuevos trabajos y resultados para el conocimiento

del tema. En esas referencias se expresará el debido reconocimiento de los trabajos que

hayan permitido realizar la nueva aportación.

6.2. En general, sólo hay que mencionar trabajos publicados y en principio, deben

abarcarse todas las fuentes oportunas incluidas en esta categoría. Se hará referencia

también a los trabajos aceptados para su publicación o de dominio público sin han sido

Page 487: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 473

utilizados por el autor. Debe evitarse, dentro de lo posible, toda referencia a

comunicaciones y documentos privados de difusión limitada (es decir, no universalmente

accesibles). No se trata de prohibir las alusiones a entrevistas o comunicaciones privadas,

pero es ciertamente injustificado apoyar una afirmación o una teoría en una entrevista no

controlada.

6.3. Las referencias deben indicarse en el texto mediante una cita que sea lo más breve

posible y que corresponda a una referencia completa en la lista de referencias que figura

al final del trabajo. Una cita en el texto puede consistir en el nombre del autor (o de los

autores) y el año de publicación, a lo que corresponderá un artículo que comience con los

mismos datos en la lista de referencias, dispuesto en orden alfabético ( y

cronológicamente, si se hace referencia a más de un trabajo del mismo autor). Este

sistema es el más ergonómico, tanto para el autor como para el lector: el elemento

mnemónico de la cita que menciona al autor y el año de publicación permite evitar la

consulta frecuente de la lista de referencias.

En las publicaciones científicas se siguen empleando otros procedimientos, desde las

referencias al pie de página (que, por no ser económicas ni ergonómicas, deben evitarse

totalmente), hasta las notas de referencia al final del texto y las citas numeradas,

correspondientes a listas de referencias no alfabéticas o alfabéticas. Todos estos sistemas

requieren una lectura en dos lugares diferentes.

5.4.8. BIBLID (IDENTIFICACION BIBLIOGRAFICA) 7.1. Para poder identificar cada uno de los componentes de una publicación periódica

(volumen, número, artículo, página, etc) en citas y referencias adecuadas, se ha de

proporcionar una serie de elementos bibliográficos normalizados, agrupados bajo la

denominación de biblid (véase Norma ISO 30 en la lista de Normas adjunta). El biblid del

artículo resulta fundamental, sobre todo, para la circulación de referencias en las

publicaciones científicas (eruditas). Además de esta última función, una condición principal

del biblid es que la identificación debe acompañar, utomáticamente, una separata o un

elemento secundario de la publicación que haya sido reproducido (página, páginas

enfrentadas, resúmenes analíticos, etc.).

Page 488: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 474

5.4.9. PREPARACION DE RESUMENES ANALITICOS 8.1. Ante el creciente volumen del material científico publicado, es indispensable que el

contenido básico de todos los artículos sea fácilmente accesible, en forma concisa. Para

ello, los títulos han de ser adecuados y deben ir seguidos de un resumen analítico, al

comienzo de cada artículo. Al redactar el resumen, los autores no deben olvidar que,

probablemente, será esa la única parte del artículo que leerá la mayoría de los lectores. El

resumen tiene una doble finalidad:

a) Proporcionar a determinados lectores, tanto al especialista en el tema como

al científico que lee (“hojea”) una publicación para obtener más amplia

orientación, una información suficiente que les permita juzgar si les conviene

profundizar en el texto.

b) Acelerar el trabajo de los servicios de resúmenes analíticos de manera que

puedan reproducir inmediatamente el resumen en cuestión. Un resumen bien

formulado, que guarde relación con un título adecuado y con un conjunto de

palabras clave, constituye una gran ayuda para el mejoramiento general de

los servicios de información en el campo científico.

Una ventaja considerable que tienen los resúmenes analíticos redactados por los autores

(antes denominados sinopsis) sobre los resúmenes elaborados por terceros es que los

conocimientos especializados del autor pueden utilizarse para seleccionar y subrayar los

aspectos esenciales del artículo.

8.2. El lugar y extensión del resumen analítico vienen determinados por su carácter de

complemento del título, redactado en forma de oraciones conexas. Por lo tanto, el

resumen debe estar situado entre el título y el texto principal y (al igual que el título) variar

dentro de límites relativamente estrechos; según el tipo de caracteres elegidos, se suele

recomendar un máximo de 200 a 250 palabras (véanse las “instrucciones para los autores”

de las respectivas publicaciones).

Teniendo en cuenta que el resumen analítico (o el título) no es un “sumario” o

“condensado” arbitrario del artículo, no debe extenderse tanto que venga a corresponder a

un largo texto, sino que, por el contrario, habrá de ser cada vez más selectivo e indicativo.

En general, se trata de que, una vez impreso en su forma definitiva el resumen analítico

(agregado, si es posible, el biblid del artículo), ésta pueda ser directamente reproducido o

cortado y pegado, por ejemplo, en fichas de 75 x 125 mm, tamaño correspondiente al de

las hojas especiales de impresión de resúmenes. (Este tamaño, a pesar de no haber sido

Page 489: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 475

adoptado oficialmente, es uno de los más ampliamente aceptados en el campo de la

información; el formato adecuado para resúmenes analíticos y la reproducción en hojas

listas para ser cortadas y pegadas fueron recomendados, originalmente, por la

Conferencia Internacional sobre Resúmenes Analíticos Científicos).

8.3. Contenido: el resumen debe incluir, de manera detallada pero sucinta, los resultados

y conclusiones del artículo, ajustándose al espacio a ello destinado, e indicar, dentro de

estos límites, todo tipo de información nueva que contenga el artículo. No deberá contener

datos o consideraciones que no figuren en el texto ni detalles de interés secundario.

En la mayoría de las normas e instrucciones se hace una distinción entre resúmenes

informativos (que especifican resultados particulares y reproducen datos de interés directo

para el lector) e indicativos (que indican los resultados por categoría de clasificación, es

decir, los datos de utilidad directa para el indizado), y se reconoce la utilidad de adoptar un

informe mixto. En realidad, estas distinciones suelen ser más bien teóricas: los conjuntos

de palabras clave aligeran el resumen de una excesiva carga de elementos indicativos; a

su vez, los resúmenes de artículos más largos adoptan, automáticamente, un enfoque

más indicativo.

8.4. El resumen analítico debe ser independiente, aunque puede interrelacionarse con el

título. Razones: los servicios secundarios reproducen solamente el resumen analítico,

junto con el título; por eso, deben evitarse las citas del texto “aisladas” o las referencias a

figuras que aparezcan en el mismo (ya que el resumen no incluye referencias ni

ilustraciones). Por razones similares, el texto del resumen no debe estar redactado en

primera persona (lo que, en cambio, está ampliamente permitido y es recomendable en el

estilo moderno de redacción de textos científicos; en el resumen analítico, sin embargo, no

es ya el autor quien habla)

8.5. Conviene calificar la manera en que han sido tratados los diversos aspectos de la

materia con adjetivos como “sucinto”, “detallado”, “teórico”, “experimental”, etc.

8.6. Las informaciones nuevas comprenden hechos observados, las conclusiones de una

experiencia o de un razonamiento, las características principales de un nuevo método o

aparato, etc. Se mencionarán los nuevos materiales (compuestos, etc.) y los nuevos

datos, numéricos o verbales.

8.7. Es aún más importante evitar abreviaturas, símbolos, etc. en el resumen analítico que

en el cuerpo del artículo. Dada la índole independiente del resumen, no cabe explicar

abreviaturas y símbolos en otro espacio que el asignado al mismo.

Page 490: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 476

8.8. Tanto en los resúmenes como en los títulos, debe evitarse el empleo de fórmulas

gráficas, símbolos y caracteres en otros alfabetos. Los dispositivos de almacenamiento y

de impresión de los servicios secundarios solo tienen, por lo general, los caracteres

correspondientes al alfabeto latino (inglés y excepcionalmente, los signos diacríticos

utilizados en las principales lenguas Romance).

8.9. Cualquiera que sea el idioma en que esté redactado el original, se recomienda

publicar los resúmenes analíticos por lo menos en una de las lenguas de mayor difusión

en el mundo científico, para facilitar su difusión internacional.

5.4.10. TERMINOLOGIA Y NOMENCLATURA 9.1. La nueva terminología y nomenclatura debe ir acompañada de una explicación sobre

la derivación y construcción del término o nombre en cuestión. Los nuevos términos deben

introducirse sólo para fenómenos que se mencionan con frecuencia y que no pueden

describirse recurriendo a breves expresiones de uso común. Los términos deben

elaborarse teniendo debidamente en cuenta su etimología, contenido semántico y

características mnemónicas. Explicar la construcción de un término o de un nombre es,

también, un acto de autodisciplina; la introducción de una nueva palabra constituye una

innovación suficientemente importante como para dar lugar a dicho tratamiento. No deben

utilizarse innecesariamente, como términos nuevos, palabras de uso común, ya que ello

restringe la flexibilidad del lenguaje no terminológico.

5.4.11. PREPARACION DE CUADROS 10.1. Los detalles relativos para la preparación de cuadros escapan al alcance de la

presente Guía, ya que suelen variar según los distintos campos científicos. No obstante,

conviene señalar que los cuadros elaborados según la tipografía moderna carecen de

líneas verticales. Los cuadros que contienen elementos gráficos distintos de caracteres

normales y de líneas horizontales (líneas irregulares, fórmulas y símbolos pocos comunes,

etc.) deben dibujarse, preferentemente, para ser reproducidos como “figuras”. Los cuadros

deben ir acompañados de una leyenda explicativa y no un simple título o referencia a una

explicación que figura en el cuerpo del texto.

Los sistemas modernos de procesamiento de textos y los dispositivos correspondientes de

composición tipográfica ofrecen la posibilidad de volver a emplear las líneas verticales

Page 491: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 477

utilizadas en la época de la artesanía tipográfica, pero éstas resultan anticuadas y poco

prácticas en el mecanografiado de los manuscritos.

5.4.12. PREPARACION DE ILUSTRACIONES 11.1. Las ilustraciones deben planearse de tal forma que abarquen todo el espacio que

ocupa el texto o el de una columna. Si se utiliza un ancho intermedio, debe preverse un

espacio suficiente para colocar la leyenda al lado de la figura dentro del área destinada al

texto. El costo de reproducción de una ilustración se basa en el marco rectangular más

pequeño dentro del cual puede acomodare la figura. No deben dejarse ángulos abiertos o

espacios innecesarios entre los elementos de figuras múltiples.

11.2. Los dibujos lineales deben realizarse con trazados de igual espesor y

ennegrecimiento. Para las partes sombreadas, no deben emplearse tramas dibujadas o

adheridas con líneas demasiado próximas. Las líneas deben interrumpirse, sobre todo,

cuando interfieren con elementos del texto. Las tramas demasiado densas, los ángulos

entre cuadrículas y las partes sobrecargadas de detalles tienden a ennegrecerse

demasiado al utilizarse todos los métodos de reproducción comunes, en particular cuando

se efectúan reducciones. Además, suelen hacerse más visibles las irregularidades y otras

imperfecciones de las líneas.

11.2. Las fotografías destinadas a ilustraciones de medio tono deben revelarse sobre

papel blanco brillante. Deben ser nítidas y bien contrastadas, pero sin zonas demasiado

oscuras o extremadamente claras. Si se emplea luz incidente para fotografías de

laboratorio, la luz debe provenir uniformemente del ángulo superior izquierdo. En una

figura múltiple, todos los elementos deben ser de tono y contraste semejantes. En lo

posible, las figuras múltiples deben estar compuestas por unidades rectangulares. Las

fotografías deben montarse sobre cartulinas, preferentemente del mismo tamaño de las

hojas del texto mecanografiado. Se evitarán las composiciones que exijan una delineación,

porque resultan costosas y el trazado de los objetos queda sujeto al criterio del impresor.

(11.3 ? )

11.4. Para el texto de todo tipo de ilustraciones, debe utilizarse esténcil o rotulado

adhesivo y no el mecanografiado habitual. Se prestará especial atención al espaciamiento

y alineación correctos de las letras. Para una reproducción nítida, se recomienda el

empleo de letras sencillas, por ejemplo, de tipo Letraset. Existen actualmente aparatos de

precio accesible (similar al de una máquina de escribir) para el espaciamiento y alineación

Page 492: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 478

automáticos, en cintas adhesivas, de textos correspondientes a ilustraciones y sobre el

papel especial; no deben paginarse las láminas.

11.5. Deben numerarse consecutivamente (con números arábigos), las ilustraciones que

forman figuras y son reproducidas en hojas ordinarias (incluso si ocupan una página

entera). Se procederá de la misma forma con las ilustraciones que hayan de reproducirse

en láminas por métodos particulares y sobre el papel especial; no deben paginarse las

láminas.

11.6. Todas las ilustraciones deben ir acompañadas de una leyenda explicativa y no

solamente de títulos o referencias que figuran en el texto. La explicación de los símbolos

se dará inmediatamente después del símbolo correspondiente de la leyenda y no

mediante una llamada incluida en la misma. Las ilustraciones que carecen de leyenda

requieren por lo menos, una lectura en dos lugares distintos y a menudo, una consulta del

texto principal. Las explicaciones de leyendas mediante llamadas numéricas obligan a

una lectura en tres o incluso cuatro lugares diferentes.

5.4.13. FORMA DE PRESENTACIÓN 12.1. Deben presentarse por separado el texto principal (con su resumen analítico y

referencias), las leyendas, los cuadros y las ilustraciones. No deben cortarse y pegarse

figuras originales, leyendas o cuadros originales (numerados), en el lugar del texto

principal que el autor ha destinado a los mismos. Esto se explica por las formas habituales

de composición, que se utilizan en todos los métodos de impresión “profesionales”. La

descomposición y recomposición de manuscritos e ilustraciones originales es la tarea más

tediosa y frustrante que puede abordar un jefe de redacción. Sólo escapan a esta regla

las páginas mecanografiadas listas para la reproducción fotográfica (a condición de que

no incluyan ilustraciones en medio tono).

12.2. Todos los textos deben estar ampliamente espaciados y tener un ancho margen

izquierdo. La posición de las figuras y de los cuadros debe estar indicada en el margen (o

en el de las pruebas de galera, cuando el autor se ocupe de ello). Es necesario dejar

amplias interlíneas para poder introducir modificaciones, dar instrucciones al cajista, etc.

Nótese que las técnicas de composición (en tipografía integral) exigen que las

modificaciones sean indicadas en el mismo lugar donde deben efectuarse , mientras que

en la corrección de pruebas, se señalan en el margen mediante un signo convencional,

que vuelve a encontrarse en el lugar deseado, en la línea correspondiente.

Page 493: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 479

12.3. Todos los textos y figuras deben ser definitivos, por lo que su ortografía y lenguaje

han de ser correctos. Asimismo, deben leerse cuidadosamente para asegurarse de que

son coherentes en todos sus detalles. En las ilustraciones originales se indicará, por lo

menos, el nombre del autor y su número de referencia en el texto.

Una preparación poco cuidadosa de los manuscritos entraña una pérdida de tiempo para

los jefes de redacción (es decir, particularmente del tiempo de investigación de otros

científicos), los críticos y (si el artículo se publica) los lectores. Además hace dudar del

valor científico de los trabajos expuestos.

Cuando el autor redacte su artículo en una lengua que no domina perfectamente, debe

consultar a colegas que la conozcan a fondo para presentar el trabajo en una forma

aceptable. No es razonable esperar que los jefes de redacción o comités de lectura se

encarguen de escribir de nuevo un artículo para corregir las definiciones lingüísticas.

5.4.14. RECOMENDACIONES COMPLEMENTARIAS A LOS JEFES DE REDACCIÓN. 1.3.1. El jefe de redacción es el representante del autor en el campo de la edición

científica. Su tarea consiste en conciliar en una publicación, el contenido científico con los

medios modernos de expresión y encauzar la información que el autor dirige al lector, de

una forma eficaz y conforme a las finalidades buscadas. Esta metodología, inherente al

trabajo científico, justifica la adquisición, por parte del científico, de una verdadera

competencia profesional en esta materia.

13.2. Los jefes de redacción habrán de velar para que las revistas u otras publicaciones

seriadas a su cargo respondan a un programa u orientación claramente definidos y

atenerse a esa estructura para transmitir la información adecuada al lector apropiado.

13.3. Los jefes de redacción deben procurar también que toda publicación seriada a su

cargo vaya acompañada de “instrucciones para los autores”, actualizadas de acuerdo con

las normas modernas y que no se opongan a los principios fundamentales enunciados en

el presente documento.

13.4. Los jefes de redacción deben procurar, en particular, que todas las colaboraciones

incluyan elementos normalizados que faciliten la circulación y precisión de la información

científica en las publicaciones originales y los servicios de referencia, es decir la

identificación bibliográfica, los resúmenes analíticos y los sistemas adecuados de citas y

Page 494: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 480

referencias. En la revista se debe especificar claramente si se autoriza la reproducción de

resúmenes analíticos.

3.5. Para la evaluación profesional de los manuscritos sobre temas ajenos a su

especialidad, los jefes de redacción deben recurrir al asesoramiento de críticos

especializados. La crítica de los manuscritos de dimensiones de un artículo constituye una

práctica común entre científicos. El número de críticos puede variar en función de las

necesidades del jefe de redacción.

13.6. Considerando que el trabajo del jefe de redacción es, esencialmente, una

prolongación del realizado por el autor, aquel se convierte en el maestro por antonomasia

de los métodos y la metodología de la edición. La enseñanza sobre el tema organizada

por las universidades libera a los jefes de redacción de la pesada tarea de orientar

personalmente a cada autor.

5.4.15. NORMAS RELATIVAS A LAS PUBLICACIONES CIENTÍFICAS. Las publicaciones científicas están sujetas a una serie de normas internacionales (ISO),

principalmente desde el punto de vista de bibliotecarios y documentalistas. En muchos

países existen normas nacionales equivalentes. Las normas propiamente dichas están

complementadas por importantes documentos normativos (guías y manuales para autores

y editores, etc.), la mayoría de los cuales están destinados a un sector científico

determinado. La siguiente lista se refiere, únicamente a normas ISO ya publicadas o en

vías de elaboración (DIS: proyecto de norma internacional; DP: anteproyecto; el asterisco

indica que la norma considerada está siendo revisada; R indica una “Recomendación” ISO

según la antigua terminología):

ISO 4* (1972) Internacional code for the abbreviation of titles of periodicals (Código

internacional para la abreviación de los títulos de las Publicaciones periódicas).

ISO 8 (1977) Presentation of periodicals (Presentación de las publicaciones Periódicas).

ISO 9* (1968) Internacional system for the transliteration of Slavic Cyrillic Characters

(Sistema internacional para la transliteración de los Caracteres cirílicos).

ISO DIS 18 (1980) Short contents lists of peridicals and other documents (sumario de

publicaciones periódicas y de otros documentos).

ISO DP 30 (1982) Bibliographic identification (biblid) of serials (Identificación Bibliográfica

(biblid) de publicaciones seriadas).

Page 495: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 481

ISO 31 comprises 13 separate documents (as of 1982) for quantities, units and symbols of

special fields. (La Norma ISO comprende 13 documentos separados desde 1982 para

cantidades, unidades y símbolos en campos especializados).

ISO 214 (1976) Abstracts for publication and documentation (Resúmenes analíticos para

publicación y documentación.

ISO R 215*(1961) Representation of contributions to pediodicals (presentación de

Artículos de publicaciones periódicas).

ISO DIS 233 (1975) International system for the transliteration of Arabic Characters Into

Latin characters (Sistema internacional para la transliteración de caracteres árabes en

caracteres latinos).

ISO DIS 259 ( 1975) Transliteration of Hebrew characters into Latin characters

(Transliteración de caracteres hebreos en caracteres latinos).

ISO DP 690 (1980) Bibliographic references to monographs and serials, and to

Contributions in monographs and serials ( Referencias bibliográficas para monografías y

publicaciones seriadas y para contribuciones a las mismas).

ISO 710 comprises three separate documents (as of 1982) for graphical symbols on

detailed maps, plans and geological cross-sections. (La Norma ISO 710 comprende 3

documentos separados (desde 1982) sobre símbolos gráficos de mapas, planos y cortes

geológicos detallados).

ISO 832 (1975) Bibliographical references: Abreviations of typical words (Refencias

bibliográficas: abreviaturas de palabras de uso frecuente).

ISO R 843* (1968) International system for the transliteration of Greek characters into

Latin characters (Sistema internacional para la transliteración de caracteres griegos en

caracteres latinos).

ISO 999 (1975) Index of a publication (Indice de una publicación).

ISO 1000 (1973) SI units and recommendations for the use of their multiples and of Their

multiples and of certain other units (Unidades SÍ y recomendaciones para el uso de sus

múltiplos y de otras unidades).

ISO 1086 (1975) Title-leaves of a book (Hojas de título de un libro).

ISO 2014 (1978) Writing calendar dates in all-numeric form (Escritura numérica de

Fechas).

ISO 2108 (1978) International standard book numberinh (ISBN) (Numeración internacional

normalizada de libros (ISBN).

Page 496: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 482

ISO 2384 (1977) Presentation of translation (Presentación de traducciones).

ISO DIS 2805 (1974) Transliteration of the alphabets of non-Slavic languages using

Cyrullic characters (Transliteración de los alfabetos de lenguas no eslavas con caracteres

cirílicos).

ISO 3297 (1975) International standard serial nubering (ISSN) (Numeración normalizada

internacional de publicaciones seriadas (ISSN).

ISO DIS 3602 (1975) Romanization of Japanese (Romanización del japonés).

ISO DIS 5122 (1979) Abstract sheets in serial publications (Sumarios analíticos en

Publicaciones seriadas).

ISO DIS 5966 (1978) Presentation of scientific and technical reports (presentación de

informes científicos y técnicos).

ISO DP 6357 (1981) Spine titles on books other publications (Títulos en tomos de Libros

y en otras publicaciones).

Las normas arriba mencionadas han sido publicadas en “ISO Standard Handbook 1:

Información transfer; 2nd edition, Geneva, 1982” y pueden obtenerse dirigiéndose a la

Sede de la Organización Internacional de Normalización, 1 rue de Varembé, CH-1211

Ginebra 20 (Suiza) o a la correspondiente Organización Nacional de Normalización de los

países miembros de la ISO (los documentos designados con las siglas DP y DIS no son

de disponibilidad universal, pero se espera que sean aceptados como normas durante el

período de vigencia del presente documento).

La UNISIST Guide to standard for information handling (1980), que puede obtenerse

dirigiéndose a la Sección de Promoción de Métodos, Reglas y Normas de la División del

Programa General de Información de la UNESCO, 7 Place de Fontenoy, F-75700 París

(Francia), incluye una amplia selección de referencias o normas nacionales y a

documentos normativos (la mayoría internacionales).

5.4.16. LISTA DE ABREVIATURAS. CIUC Consejo Internacional de Uniones Científicas FID Federación Internacional de

Documentación IFLA Federación Internacional de Asociaciones de Bibliotecarios y de

Bibliotecas IFSEA Federación Internacional de Asociaciones de Editores Científicos

SO Organización Internacional de Normalización.

Page 497: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 483

<

5.5. REFERENCIAS BIBLIOGRAFICAS ELEMENTOS ESENCIALES

5.5.1. ALCANCE Y DEFINICIÓN 1.1. En esta norma se indican los elementos y detalles que se consideren esenciales

en todas las formas de referencias bibliográficas.

1.2. Una referencia bibliográfica es un grupo de datos suficientemente precisos y

detallados para permitir identificar una publicación o parte de una publicación.

5.5.2. FORMAS DE REFERENCIAS Una referencia bibliográfica puede tener cualquiera de las siguientes formas:

a) Una parte de una lista o índice bibliográfico, tanto si es descriptivo como analítico

(Ejemplos 1 a 10 de la Sección 10).

b) El encabezamiento de un sumario o de una revista crítica (Ejemplos de 1 a 10 de la

sección 10).

c) Una nota añadida a un texto (al pie de la página o al final del texto).

d) Incluida en parte en un texto y en parte de una nota (Ejemplo 11 de la Sección 10).

e) Incluida por completo en el texto (Ejemplo 12 de la Sección 10).

5.5.3. INDICADORES QUE HAN DE FIGURAR EN LA REFERENCIA. Una referencia bibliográfica ha de contener las indicaciones siguientes, cuando las haya

en la publicación a que se refiere.

5.5.3.1. LIBROS ( U OTROS TRABAJOS PUBLICADOS SEPARADAMENTE) EJEMPLO: Nombre del autor o autores: Lecuna, Con los nombres propios u otros Vicente.

Elementos secundarios. Título del libro o Trabajo: Crónica Razonada De las guerras de

Bolívar. Número de la edición 1ra. Ed. (3 vol). Número del volumen (en obras De varios

volúmenes). Lugar de publicación New York. Año de publicación (véase aparte 7.1) 1950

Página o primera y última página de la Parte específica a que se refiere.

Page 498: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 484

5.5.3.2. PERIÓDICOS (U OTRAS PUBLICACIONES EN SERIE) Ejemplo:

Título del periódico Teintex

Lugar de publicación París

Fecha (véase aparte 7.2) 1936

3.3. Contribuciones a trabajos colectivos, misceláneas, etc. (véase aparte 6.5)

Ejemplo:

Nombre de autor y autores Ranganathan Con los nombres propios u otros S.R.

Elementos secundarios

Título de la contribución (véase aparte 6.5) Colón clasificación

And its aproach to documentation.

Título del trabajo principal, precedido, si es

Necesario por nombre (s) de autor (es). Shera, Jesse H., And.

Editor (es) o compilador (es) Egan, margaret E., Ed.

Título Bibliographic

Organization.

Número de la edición

Número del volumen (o equivalente)

Lugar de publicación Chicago Año de publicación (véase aparte 7.1)1951

Página de la contribución o parte a la que se p. 94

Refiere, o primera y últimas páginas. p. 94-105 o pp. 94-105

3.4. Artículos en periódicos (u otras publicaciones En serie).

Ejemplo:

Nombre del autor o autores, Navarro

Con nombres propios u otros elementos: Mons.D. Nicolás Secundarios. E.

Título del artículo: Los franciscanos Capuchinos en Venezuela..

Título del periódico: Boletín de la Academia Nacional de la Historia. Número (s) o año (s)

del volumen Tomo XLIII

Número (s) de la edición No. 172 (Véase aparte 4.1).

Fecha (s) de la edición )es) Oct-Dic. 1960. (Véase aparte 4.1)

Página del artículo o parte a que se refiere o primera y última Pp.701-710.

Page 499: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 485

Nota: El orden del número o año del volumen y el número y la fecha de la edición pueden

cambiarse.

5.5.4. ORDEN DE LAS INDICACIONES 4.1. Las indicaciones que constituyen la referencia han de colocarse en el orden indicado

en las listas de la sección 3, excepto para el aparte 3.4 respecto al cual se puede

cambiar el orden de los tres detalles indicados en la nota.

4.2. Cuando una referencia incluida en un texto forma parte de una frase, no puede

prescribirse ningún orden determinado, pero es deseable que se siga lo más posible el

orden que se fija en las listas dadas en la sección 3. Ejemplo: “... on peut se reporter aux

Causseries dulundi de Charles A. SAINTE BEUVE, dont la troisiome edition, tome ler, a

paru á París en 1857...”.

5.5.4.1. AUTORES 5.1. Cuando hay dos autores debe darse el nombre de ambos Ejemplo: Muret, Pierre y

Sagnac, Philippe.

5.2. Cuando hay más de dos autores, basta indicar el nombre del primero, seguida por “et

alii”. Ejemplo: Acevedo, Julio; Ramírez, Tomás; Morales, Gabriel; Rodrigo, Claudio.

Debe indicarse solamente: Acevedo, Julio, Et alii.

5.3. Los nombres propios o elementos secundarios han de darse en la forma en que

aparecen en el libro o trabajo a que se refieren. Ejemplos: Salas, Alberto Romero, J.M.

5.4. El editor o compilador de un trabajo colectivo se considera como su autor. Ejemplo:

Furnas, C.C., Ed. Research in industry.

5.5. Pueden citarse los títulos que indican profesión, cargo o Jerarquía para facilitar la

identificación del autor. Ejemplos: CLARK, William, M.D., M.R.C.P. CLARK, William,

A.R.I.B.A. BALFOUR, Roberto (Cirujano) BALFOUR, Roberto (Reverendo)

5.5.4.2. TÍTULO El título se indica tal como aparece en el libro o trabajo el cual se refiere y

traducido si es necesario.

Un título que se considere demasiado largo puede darse en forma abreviada, pero

las palabras iniciales no han de omitirse nunca, ni alterarse su sentido. Las palabras

omitidas se reemplazan por tres puntos (Véase jemplo 9 de la sección 10).

Page 500: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 486

Cuando se abrevia el título debe hacerse en la forma prescrita en la Norma

NORVEN 81-1, Código internacional para la abreviación de la totulación de las revistas.

Pueden añadirse al título el nombre del editor, traductor o de cualquier otra persona

como un ilustrador) que hayan colaborado en la preparación del libro o trabajo y que

puedan facilitar su identificación.

En las referencias bibliográficas de contribuciones a trabajos colectivo el título de la

contribución se ha de distinguir de la obra principal por un cambio en el aspecto del tipo

de imprenta o por la inserción de alguna falta.

http://www.unet.edu.ve/~frey/varios/decinv/investigacion/referenbiblio.html

Page 501: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 487

5.6. CITAS A PIE DE PÁGINA

Cita a pie de página:Indicación que sirve para explicar algún punto que no se incluye en el

cuerpo del texto, a fin de no recargarlo innecesariamente.

5.6.1. IBID Ibidem que significa "en el mismo lugar, lo mismo". Se utiliza para evitar la repetición de

una cita. Cuando la referencia es exactamente igual a la que precede, se usa solamente

Ibid. Si varía el número de páginas, se deberá poner Ibid, más el número de páginas.

EJEMPLO a. GUILFORD, J. Estadística aplicada a la psicología y la educación. México, McGraw-Hill,

1984. p.51

b. Ibid (indica exactamente a la misma referencia)

c. Ibid., p. 72 ( el mismo documento, pero en página distinta)

5.6.2. OP. CIT. Opus citatum, que significa "obra citada". Se usa cuando se desea referir una cita ya

mencionada, pero no consecutiva y cuando corresponda a diferentes páginas del trabajo.

Se debe repetir el apellido del autor y luego Op. cit., más el número de página.

EJEMPLO a. GUILFORD, J. Estadística aplicada a la psicología y la educación. México, McGraw-Hill,

1984. p. 13.

b. HERNANDEZ, Fabio. Metodología del estudio. México, McGraw-Hill, 1996. p. 7.

c. GUILFORD, J. Op.cit., p. 230

d. HERNANDEZ, Fabio. Op.cit., p.48

e. Ibid.

5.6.3. LOC. CIT Locus citatum, significa "lugar citado". Se usa para abreviar la repetición de la cita de un

trabajo ya mencionado con referencias intermedias, y cuando corresponde a las mismas

páginas. Razón por la cual, el número de páginas no sigue a la abreviaturaLoc. cit.

Page 502: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 488

EJEMPLO a. Briones, Guillermo. La investigación social y educativa. Bogotá, SECAB, 1992. p.15.

b. BOLDIRIEV, N. Metodología de la organización del trabajo educativo. La Habana,

Pueblo y Educación, 1990. p.55

c. BRIONES, Guillermo. Loc.Cit.

d. BOLDIRIEV, N. Op.cit. p.43

http://www.umce.cl/biblioteca/gpt_c_ppaginas.html

Page 503: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 489

<

5.7. FALTAS FRECUENTES DE RECHAZO DE ARTICULOS TECNICO-CIENTIFICOS

Manuel A. Bobenrieth

5.7.1. FALTAS RELACIONADAS CON EL CONTENIDO DE LA INVESTIGACION 5.7.1.1. FASE CONCEPTUAL DE LA INVESTIGACIÓN

1. El tema del documento tiene baja prioridad para los objetivos de la revista.

2. La información contenida es de conocimiento común; no aporta elementos nuevos u

originales al área de interés.

3. El documento muestra que el autor no conoce suficientemente la materia sobre la

cual escribe.

4. El problema general y el problema de investigación no se encuentran claramente

definidos.

5. Los objetivos del estudio (o investigación) no se exponen en forma clara y concreta.

6. No se establecen definiciones precisas para los términos principales (o claves) que

se utilizan a lo largo del texto.

7. Los términos principales se definen pero sin considerar las características y nivel de

los lectores de la revista.

8. La introducción no logra el propósito de proporcionar información y antecedentes

suficientes que permitan al lector entenderla exposición razonada del texto y

comprender y evaluar los resultados del estudio.

9. El marco de referencia conceptual está ausente. La investigación no se basa en un

marco teórico conceptual el cual, al englobar otros estudios en un esquema

sistemático y comparativo, permita una evaluación posterior.

10. El Diseño (procedimientos para abordar el problema de investigación) que se utiliza

es inapropiado para el objetivo de la investigación.

11. El diseño que se utiliza no está de acuerdo con el nivel actual de conocimientos

sobre el problema de investigación.

12. El diseño utilizado no es factible considerando los recursos humanos y materiales

disponibles para el estudio.

13. El diseño utilizado presenta inconvenientes de carácter ético.

Page 504: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 490

14. El diseño que se utiliza tiene poco potencial para un análisis de resultados completo

e integral.

15. El diseño utilizado no proporciona resultados aplicables

16. Las variables (atributos o características) no se definen. No se diferencian variables

independientes de variables dependientes; variables intervinientes y variables de

control.

17. La clasificación de categorías de variables es deficiente, lo cual permite el paso de

un sujeto de un grupo a otro grupo que no le corresponde o deja los grupos mal

definidos. Esta situación implica errores en la interpretación y en la generalización

de los resultados (inferencia).

18. El documento muestra una recolección general de información sin relación con

hipótesis que sirvan de guía.

19. Las hipótesis del estudio están mal formuladas.

20. El estudio falla en formular hipótesis rivales o alternativas que podrían explicar un

número dado de hallazgos y que desafíen las interpretaciones y conclusiones del

investigador.

21. El documento falla en hacer explícitos y claros los supuestos básicos de la

investigación, de manera que los hallazgos puedan ser evaluados en términos de

esas suposiciones.

22. El estudio parece tomar un “paquete de información” que ya existe y pretende hacer

calzar preguntas de investigación significativas.

23. El documento falla en reconocer y explicar las limitaciones del estudio; esto impone

restricciones a las conclusiones y en cómo éstas se aplican a otras situaciones.

24. El examen de la literatura es insuficiente, lo cual impide al lector juzgar la

familiaridad del autor con el conocimiento actual del tema de estudio; además

impide conocer otros enfoques, otros puntos de vista posibles y distintos para la

investigación del problema.

5.7.1.2. FASE EMPÍRICA DE LA INVESTIGACIÓN 25. La sección del material y de los métodos no proporciona información

suficientemente clara y completa para que un lector interesado y competente pueda

repetir la investigación. La falta de reproducibilidad disminuye grandemente el valor

científico del artículo.

Page 505: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 491

26. El texto del documento mezcla y confunde información sobre “material y métodos”

con información sobre “resultados”.

27. El universo (población a la cual se intenta referir los hallazgos) no se define con

claridad.

28. La muestra es atípica, no representativa del universo sobre el cual se pretende

inferir los hallazgos.

29. El tamaño de la muestra es inadecuado y no garantiza la presencia de una parte

aceptable de la población, como requisito mínimo. Tampoco se establece la

precisión con la cual el investigador quiere garantizar sus resultados.

30. Las fuentes de información son inapropiados y/o carecen de idoneidad.

31. Los datos recogidos son de mala calidad; hay deficiencias, vacíos y

contradicciones.

32. La información recolectada está desactualizada, obsoleta.

33. El documento contiene la información preliminar de un estudio, lo cual limita mucho

el valor de los resultados y conclusiones.

34. La metodología tiene problemas de validez y confiabilidad.

35. La metodología tiene problemas de especificidad y sensibilidad.

36. La metodología prescinde de la utilización de grupos testigos.

37. El documento no se basa en observaciones directas, de primera mano, lo cual

aumenta la posibilidad de errores.

38. En el documento se utilizan índices o indicadores arbitrarios, inapropiados e

incorrectos para calificar y evaluar determinados fenómenos.

39. Los resultados contienen información mas bien repetitiva que representativa. Esta

redundancia muestra falta de capacidad selectiva y discriminativa.

40. La presentación de los hallazgos carece de suficiente claridad y objetividad; faltan

detalles de importancia, lo cual impide que el lector los juzgue por sí mismo.

41. Los hallazgos presentados carecen de consistencia interna (totales que no

coinciden, tablas y gráficos con información incompleta, contradicción entre el texto

y la información contenida en las tablas y los gráficos, etc.).

5.7.1.3. FASE INTERPRETATIVA DE LA INVESTIGACIÓN 42. La información recolectada que se presenta no merece análisis estadístico.

Page 506: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 492

43. El análisis de los datos es insuficiente, insatisfactorio; el autor no utiliza

correctamente las técnicas basadas en la lógica y la estadística.

44. El análisis estadístico no es apropiado a la fuente y naturaleza de la información.

45. El análisis no es suficiente para determinar si las diferencias significativas pueden

deberse a falta de comparabilidad de los grupos en lo que respecta a sexo,

distribución por edad, características clínicas u otras variables relevantes.

46. El documento carece de conclusiones.

47. Las conclusiones no se justifican, por cuanto no se apoyan en la evidencia de los

hallazgos (resultados)

48. El autor no mantiene el mismo punto de vista a lo largo del trabajo.

49. Las conclusiones no concuerdan con las preguntas de investigación formuladas por

los investigadores. Las conclusiones no se derivan de la respuesta encontrada al

problema y no cierran el trabajo dejándolo bien terminado.

50. La experiencia descrita es de aplicabilidad mínima o nula a países diferentes del

país donde se originó el estudio o la investigación.

51. La investigación realizada muestra graves transgresiones de las normas de ética

médica. Esto se refiere principalmente a estudios o investigaciones que involucran

experimentación con seres humanos, donde se requiere certificación de que se

explicó la situación y se obtuvo el libre consentimiento de los sujetos.

52. El documento contiene expresiones en forma de declaraciones, referencias y juicios

de valor incompatibles con las normas de respeto a los Gobiernos que rigen el

trabajo de la OPS.

5.7.2. FALTAS RELACIONADAS CON EL INFORME DE LA INVESTIGACION 5.7.2.1. ESTRUCTURA DEL ARTÍCULO

53. La estructura del documento no corresponde a la de un artículo técnico-científico.

54. La estructura del documento podría servir el propósito de una presentación oral,

pero no el de un artículo técnico-científico.

55. El material contenido en el documento se presenta muy pobremente organizado y/o

deficientemente explicado.

56. El material que se presenta es muy extenso, no está suficientemente condensado.

57. El título no refleja en forma específica, clara, exacta y breve el contenido del

artículo.

Page 507: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 493

58. El título desorienta al lector sobre el contenido real del artículo.

59. No se presenta resumen.

60. El resumen no permite a los lectores identificar el contenido básico en forma rápida

y exacta, determinar la relevancia de ese contenido para sus intereses y decidir si

necesita leer el documento en su totalidad.

61. El resumen presenta información o conclusiones que no se relacionan con el resto.

62. Las tablas no se explican por sí mismas y repiten la misma información del texto;

esto plantea problemas de redundancia y desperdicia espacio en la revista.

63. Los gráficos no cumplen los propósitos de evidencia, eficiencia y énfasis.

64. Las ilustraciones que se utilizan carecen de legibilidad y de comprensibilidad.

65. No se presentan referencias bibliográficas.

66. Las referencias bibliográficas son demasiado exiguas.

67. Las referencias bibliográficas son obsoletas y muestran desactualización del autor.

68. Las referencias bibliográficas no están citadas en el texto, o se citan

equivocadamente.

69. Las referencias bibliográficas están incompletas. Estas cinco fallas relativas a la

bibliografía impiden lograr los propósitos de identificar fuentes originales, dar apoyo

a hechos y opiniones y orientar al lector para estudios en mayor profundidad.

5.7.2.2. ESTILO DEL ARTÍCULO 70. El estilo carece de claridad.

71. El estilo carece de concisión

72. El estilo carece de originalidad

73. El estilo carece de fluidez

74. El estilo es verboso y difuso

75. El estilo es pomposo y altisonante

76. El texto contiene falacias y otros errores, probablemente por falta de disciplina y

rigor en el raciocinio y/o en la expresión del pensamiento.

77. El estilo utiliza jerga o jerigonza, en la forma de lenguaje confuso, ininteligible,

extraño; a veces llegar a ser pretencioso y ridículo.

78. El estilo muestra que el autor confunde hechos con opiniones y trata de vestir

ambos con un ropaje de fantasía imaginativa.

Page 508: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 494

79. El estilo utiliza abreviaciones y siglas que no se explican ni definen; esto confunde y

aburre al lector.

80. El estilo no se adapta a los lectores de la revista.

81. El documento no cumple con normas de material inédito y derechos de registro.

5.7.3. CLAVE DE RESPUESTAS 1. Todo artículo científico debe contener: Un título, el nombre del autor o autores y su

filiación, un Resumen, una Introducción, una sección de Materiales y Métodos, una

de Resultados, una Discusión, una lista de Referencias Bibliográficas y una sección

de Agradecimientos.

2. El problema, su naturaleza y relevancia, así como el objetivo del trabajo, deben

plantearse muy claramente en la Introducción del artículo.

3. La población a la que se intenta referir los hallazgos, debe presentarse en la

sección de Materiales y Métodos, incluyendo las especificaciones técnicas exactas,

cantidades, edad, sexo, status genético (en caso de plantas y microorganismos),

etnia y fuentes.

4. El uso de figuras está indicado, cuando los datos experimentales muestran una

tendencia; el uso de tablas se recomienda para la presentación de volumen

considerable de datos experimentales, que no puedan ser presentados en el texto y

que no muestren tendencia evidente.

5. El autor debe evitar ser redundante. La presentación de una figura y una tabla

conteniendo la misma información, no demuestra la destreza e inteligencia del

autor, sino por el contrario, confunde al lector innecesariamente y es causa

frecuente de rechazo para publicación.

6. El problema de investigación es una descripción y discusión lógica de la situación,

idea, concepto o teoría que indica el estudio y provee un marco de referencia para

el propósito del mismo. La hipótesis es una solución provisional a un problema de

investigación, basada en el conocimiento de las características de las variables del

problema y/o investigaciones anteriores.

7. Las características del problema de investigación, del modelo experimental (en

caso de haberlo) y la definición de términos no convencionales necesarios para la

comprensión de dicho problema, deben indicarse en los primeros párrafos de la

Introducción.

Page 509: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 495

8. Bibliografía es el conjunto de asientos bibliográficos, generalmente sistematizados

por tema. La referencia bibliográfica es la unidad más pequeña de información

científica. Ella debe contener los datos indispensable para la localización de la

publicación referida.

9. No más de 15 palabras.

10. No más de 250 palabras.

11. En la Discusión del artículo, se confrontan los resultados del autor con aquellos

resultados ya publicados por otros autores sobre el tema o temas relacionados. La

conclusión es la última palabra del autor y debe justificarse con evidencias.

12. Las consecuencias prácticas del autor deben analizarse en la sección de Discusión,

así como cualquier implicación teórica derivada del estudio.

http://www.unet.edu.ve/~frey/varios/decinv/investigacion/clave.html

Page 510: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 496

<<

6. CAPITULO VI: ELEMENTOS PARA LA EVALUACIÓN DE RESULTADOS

Page 511: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 497

6.1. EVALUAR LOS RESULTADOS

Una vez obtenidos los resultados, antes de informar de ellos, el investigador debe dedicar

algún tiempo a una fase especial: la evaluación. Debe evaluar los resultados: ¿son lo que

él quería?, ¿Es posible mejorar algo en el informe? ¿Debe ser dejado fuera algo o merece

el informe publicarse en su totalidad?. Por definición, la evaluación es sólo posible cuando

se haga desde el punto de vista de alguien. El propio punto de vista del investigador es tan

válido como cualquier otro, pero no siempre es el que marcará el resultado y

consecuencias del proyecto de investigación. Más adelante se tratarán otros ángulos de

visión.

6.1.1. FACTUALIDAD Y CREDIBILIDAD En el informe, el investigador presenta los resultados de sus mediciones u observaciones

hechas en el mundo empírico. Son en su mayor parte afirmaciones incondicionales: "Un

86% de los clientes estaban satisfechos"; "El peso del coche era de 1.550 kg". Ahora es

posible que entre las muchas afirmaciones hechas en un informe haya algunas que no son

ciertas, con lo que debe haber modo de evaluar la factualidad de toda la información dada.

El asunto se convierte en algo realmente serio cuando se trata de sopesar la afirmación

central del proyecto, la hipótesis.

¿Qué queremos decir con las palabras "factual" y "verdadero" y cómo determinamos la

factualidad de una afirmación?

En el curso del tiempo, los investigadores han interpretado la palabra "factual" de distintos

modos. Una posibilidad es ver si la afirmación es coherente con otras informaciones que

creemos que son ciertas. Este método era popular en la Edad Media, cuando todas las

ramas de la investigación eran ramificaciones de la teología. De acuerdo con ello, había

un indicador simple y universal para la credibilidad de una afirmación: su acuerdo con la

Biblia.

Hoy la mayor parte de los investigadores están de acuerdo en que, en el mundo empírico,

el criterio correcto de una afirmación es su correspondencia con la realidad, no con las

autoridades. El examen de esta correspondencia es llamado verificación. La dificultad es

que una afirmación reside en el mundo de los conceptos y teorías, no en el mundo de las

Page 512: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 498

cosas empíricas sobre las que habla; de modo que la correspondencia no siempre es fácil

de definir y registrar. Junto a ello, siempre hay la posibilidad de error en las mediciones.

Como resultado, los investigadores ahora están de acuerdo en que nunca podemos

alcanzar un 100% de certidumbre en la correspondencia con la realidad de ninguna

afirmación empírica.

Las "ciencias formales" tales como las matemáticas son un caso diferente: podemos

probar con absoluta certeza que el área del círculo es pi por el radio al cuadrado. Pero ello

sólo es cierto si no estamos describiendo un círculo empírico, porque, si medimos un

círculo empírico, probablemente encontremos que los últimos decimales de nuestra

medición son incorrectos.

Otra dificultad de verificación surge si la afirmación es de tipo general, como lo son la

mayor parte de las hipótesis. Si la hipótesis dice que todos los objetos en el mundo siguen

una cierta regla, debemos investigar todos los objetos antes de que podamos estar

seguros al 100% -- lo que será casi siempre imposible. En lugar de ello, hay otro modo de

evaluar una hipótesis general: podemos mostrarla como falsa si encontramos un sólo

caso en que la hipótesis sea falsa. Por supuesto, incluso en este caso, tenemos el riesgo

de error. Ni siquiera una serie prolongada de intentos infructuosos de mostrar la falsedad

puede producir una absoluta verificación de la hipótesis.

A causa de las dificultades prácticas arriba mencionadas, la mayor parte de la gente está

de acuerdo en que, hablando en sentido estricto, es imposible verificar afirmaciones

empíricas generales. Debiéramos usar la palabra verificación cuidadosamente y definir a

qué casos nos referimos, como por ejemplo: "La hipótesis fue verificada en todos los

casos examinados."

6.1.1.1. CREDIBILIDAD DE LAS CONCLUSIONES CUALITATIVAS Tenemos que aceptar el hecho de que los estudios empíricos no pueden producir

resultados que sean ciertos con absoluta certeza. Sin embargo, incluso cuando sabemos

que los resultados pueden contener pequeños errores, los resultados pueden seguir

siendo bastante útiles para muchos fines prácticos. Por ejemplo, si creemos que los

resultados de una investigación son ciertos en un 99% de los casos, muy bien podemos

asumir el riesgo de usarlos y aceptar que el 1% de nuestra aplicación será fallido. Los

beneficios con el 99 de productos exitosos pueden compensar las pérdidas con el

producto defectuoso.

Page 513: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 499

En todo caso, cuando se usan los resultados de la investigación con una certidumbre

menos que absoluta, podemos no obstante necesitar métodos para evaluar los resultados

de la investigación. Tendremos suerte si usamos resultados que han sido verdaderos en el

99.9% de los casos estudiados, pero no si se mostraron como ciertos en sólo el 51% de

los casos.

Una evaluación inequívoca de los resultados de la investigación es imposible, por las

mismas razones (véase más arriba) por las que es imposible una verificación absoluta. Sin

embargo, las prácticas convencionales de las comunidades científicas existentes ejecutan

esta evaluación de una forma muy eficaz. La evaluación no es un acontecimiento

separado ni un proceso planificado. Suele alcanzarse gradualmente y participan en el

proceso un gran número de colegas investigadores. Los acontecimientos habituales en la

evaluación son los siguientes;

• Si el informe de investigación es una Tesis, será criticado por los examinadores

oficiales y los oponentes .

• Cuando se presenta un nuevo informe de investigación a los editores de una serie

de publicaciones científicas, el informe será criticado no sólo por los editores, sino

que también lo será por revisores establecidos para la serie, que normalmente son

científicos expertos y reconocidos y por ello son capaces de presentar unas agudas

observaciones críticas.

• Tras la publicación, nuestro informe atraerá muchas veces la atención de nuestros

colegas investigadores, y lo usarán como una base para nuevas hipótesis que

están poniendo a prueba en sus propios proyectos. Si la hipótesis del último

proyecto falla inesperadamente, el investigador respectivo puede volver un ojo

crítico hacia el informe anterior sobre el que se ha apoyado.

• Si nuestros hallazgos son aplicados a problemas prácticos entre los ejercientes de

la profesión o en la producción industrial, pueden fallar al producir los resultados

que habíamos pronosticado. Las investigaciones sobre las razones del fallo

normalmente incluirán una verificación crítica de nuestros procesos y resultados.

Mientras nadie entre las personas arriba mencionadas encuentre todos los fallos en

nuestro informe, nuestros hallazgos ganarán, sin embargo, credibilidad durante el

proceso. Los colegas y profesionales empezarán de forma gradual a ver nuestros

hallazgos como una base fiable para su propio trabajo, del mismo modo que cuando ellos

usan sus propias observaciones, las tablas que se encuentran en los manuales, o todo lo

Page 514: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 500

que todos aceptan como ajustado a los hechos y verdadero. A este proceso gradual se le

llama en ocasiones método de confirmación por "consenso".

"La ciencia no reposa sobre un fondo de roca. La audaz estructura de sus

teorías se levanta como si lo hicira encima de un pantano. Es como un

edificio erigido sobre pilones. Los pilones se clavan en el fondo del pantano,

pero no en una base "natural" o "estableciada"; y cuando cesamos en

nuestros intentos de hundir nuestros pilones en una capa más profunda, no

es porque hayamos alcanzado una base firme. Simplemente nos detenemos

cuando estamos satisfechos porque son lo bastante firmes como para

aguantar la estructura, al menos por el momento". (Karl R. Popper: The Logic

of Scientific Discovery, 1959, p. 111)

El tipo de proceso de confirmación por "consenso" no puede comenzar antes de que el

informe sea público. Sin embargo, ya antes de la impresión, el investigador puede intentar

valorar algunos componentes de su credibilidad. Durante el proceso de investigación, el

investigador raramente contempla el proyecto o sus resultados desde fuera, pero en la

fase de valoración sería útil desplazar la propia visión desde el ángulo "interno" de visión

al "externo":

• La visión interna del proyecto está confinada a lo que se manifestaba

explícitamente en los objetivos iniciales o las hipótesis. En esta visión son cosas

importantes por ejemplo la claridad de definiciones, la fiabilidad de mediciones y un

bajo nivel de error aleatorio.

• La visión externa lo que intenta revelar es ¿Con qué amplitud son validos los

resultados fuera de la muestra, en la población?. ¿Pueden aplicarse a problemas

prácticos habituales? ¿Pueden aplicarse los resultados en situaciones análogas en

otros sitios, fuera de la población? Por supuesto, al investigador no puede

hacérsele responsable de tales ampliaciones "ilegales"; al público en general, sin

embargo, le gustan, y podría ser sensato estar preparado para contestar a esta

pregunta.

Un examen más detallado de los componentes de credibilidad podría incluir algunas de las

siguientes preguntas.

• ¿Se explican claramente los principios de interpretación de modo que otro

investigador pueda llegar a las mismas conclusiones a partir del material reunido?

Page 515: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 501

• ¿Hemos estudiado bastante material? Habitualmente podemos contestar que sí

cuando consideramos que nuestro material está "saturado", esto es: el examen de

casos nuevos ya no produce información suplementaria.

• ¿Hay anomalías entre los casos? Éstas son los casos que no obedecen a nuestra

hipótesis. Algunos investigadores dicen que tales casos no deben tolerarse;

algunos otros piensan que es permisible un pequeño porcentaje. Si hay anomalías,

debemos analizarlas; sería demasiado simple una solución que sencillamente las

excluyese de los casos estudiados. Si no podemos encontrar explicaciones a las

anomalías podríamos simplemente enumerarlas como elementos que precisan

estudios ulteriores.

• ¿Es nuestra interpretación la única razonable o es claramente, por lo menos, la más

verosímil entre las alternativas? Debemos pensarlo bien antes de contestar que sí,

porque, en la práctica, una vez que el investigador ha encontrado una interpretación

sostenible, se le hace difícil inventar otras alternativas, incluso aunque una persona

ajena podría pensar fácilmente en otras posibilidades. Podría ser una buena idea

que discutiésemos las alternativas con una persona ajena.

Fiabilidad de una fuente. La fiabilidad de los docuentos escritos o impresos y su

evaluación se trata bajo el encabezado Crítica de fuentes. El método para valorar

documentos es también adecuado para evaluar información factual que recibimos a

través de entrevistas o cuestionarios (no debiéramos, sin embargo, evaluar o censurar las

opiniones de nuestros entrevistados).

El método más eficiente para descartar la información falsa es el análisis cruzado de los datos, obteniendo información de fuentes paralelas. Cuando no existe información

paralela y nuestra única fuentes es una sola declaración, debemos hacernos las siguientes

preguntas:

• ¿Qué quería decir el informante con su declaración? ¿Tiene la declaración un

sentido real distinto de su contenido literal?

• ¿Se hizo la declaración de buena fe?

o ¿Tenía el informante interés en engañar al lector?

o ¿Estaba el informante bajo presión para decir alguna falsedad?

o ¿Estaba influenciado por simpatía o antipatía para decir una falsedad?

o ¿Le influenciaba la vanidad?

o ¿Estaba influenciado por la opinión pública?

Page 516: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 502

• ¿Era exacta la declaración? o, de manera más particular:

o ¿Era el autor un observador deficiente a causa de algún defecto o

anormalidad mental?

o ¿Estaba el autor mal situado en cuanto al momento o el lugar para observar?

o ¿Contiene la declaración contradicciones internas?

o ¿Era el hecho de tal naturaleza que no podía observarse directamente?

Cuando hemos reunido los resultados de una muestra no aleatoria a partir de una

población, lo normal es que queramos generalizar nuestros resultados. Generalizar

significa que afirmamos que los resultados son ciertos no sólo para la muestra, sino

también respecto a la población. ¿Es posible evaluar la credibilidad de tal declaración?

La cuestión crucial en la evaluación es si la muestra se desvía de la población en aspectos

relevantes. Por relevantes entendemos aquellas cuestiones que medimos o que se

incluyen en nuestra hipótesis o en los objetivos del proyecto. Habitualmente la única

manera de estimas esto sería investigar otra muestra de la misma población, lo que en la

mayor parte de los casos iría más alla de los recursos disponibles.

Como un débil sucedáneo del examen arriba descrito, podríamos plantearnos el estudiar si

nuestra muestra no aleatoria se desvía de la población respecto a aspectos distintos de

los puntos "relevantes" arriba mencionados. Con frecuencia podremos examinar archivos

públicos y descubrir por ejemplo la conformación demográfica, edad o estructura por

sexos de nuestra población y comparar estas cifras con nuestra muestra.

Si encontramos desviaciones, tenemos que plantearnos si éstas nos dan razones para

sospechar sobre desviaciones también en las variables "relevantes" arriba aludidas. Para

ayudarnos a la hora de plantearnos esto, podríamos calcular las correlaciones entre la

variable demográfica que aparece desviada y nuestras variables "relevantes" (si son

numéricas). Por ejemplo, si la distribución por sexos no es igual a la distribución por sexos

de la población, calcularemos las correlaciones entre sexo y nuestras variables

"relevantes" en la muestra. Unas correlaciones altas indican que nuestra muestra estaba

sesgada.

Sin embargo, incluso si las correlaciones mencionadas son bajas, esto no garantizará la

ausencia de sesgo. Así, tal vez sería una buena idea usar el muestreo aleatorio, siempre

que sea posible, para evitar llegar a vernos en la necesidad de realizar las evaluaciones

arriba descritas.

Page 517: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 503

6.1.1.2. CREDIBILIDAD DE LAS CONCLUSIONES CUANTITATIVAS Los procesos de investigación cuantitativa están mejor definidos que los cualitativos, de

modo que es más fácil encontrar criterios de evaluación. Podríamos, por ejemplo,

investigar si los resultados han sido ciertos en un 99% o sólo un 80% de los casos

medidos. Un indicador efectivo es la varianza de las mediciones. Podemos evaluar su

representatividad con la prueba t. Con la misma prueba, podemos calcular el error

probable de la media de nuestras mediciones. No hace falta decir que que cualquiera de

los algoritmos y procesos de análisis numérico pueden estar equivocados y han de ser

comprobados.

Además, puede que el investigador se quiera hacer las siguientes preguntas:

• ¿Hay definiciones para todos los conceptos principales o al menos para aquellas

variables que hemos medido?

¿Nos hemos apartado en algún punto de las definiciones originales?

• ¿Cuál es la población donde queremos que sean válidos nuestros resultados?

¿Esta seleccionada de forma precisa la muestra a partir de esa población?

• Hagamos un repaso detenido a las frases de nuestro texto que incluyen palabras

como todos, ninguno, nunca o siempre; ¿queremos de verdad decir que la

población de la que hablamos es infinita?

Si hemos reunido nuestros resultados empíricos a partir de una muestra aleatoria, vamos

a querer saber hasta que punto es seguro o probable que los resultados sean ciertos no

sólo en la muestra sino también en la población original. Para este examen, hay dos

métodos llamados comprobaciones estadísticas. Estos métodos nos ayudarán a elegir

entre dos explicaciones alternativas para nuestros resultados,

• o bien nuestra hipótesis de investigación es cierta y los resultados medidos a

partir de la muestra son también ciertos en la población,

• o la "hipótesis nula" es cierta y los resultados no son válidos en la población.

Hemos obtenido los resultados de la muestra de manera sencillamente accidental.

Ahora es posible calcular la probabilidad de obtener, por azar sólo, ciertos resultados a

partir de la muestra. Si esta probabilidad es muy pequeña, por ejemplo menos de un 0.1%,

tenemos buenas razones para rechazar la hipótesis nula y creer que los mismos

resultados son ciertos en la población. A tales resultados se les llama estadísticamente

altamente significativos. Sin embargo, si la probabilidad de recibir el resultado por azar es

amplia, digamos que por encima de un 5%, no debemos afirmar que nuestros resultados

Page 518: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 504

son necesariamente válidos en la población. En este caso, nuestros resultados se llaman

estadísticamente no significativos.

Los niveles de representatividad de los resultados de una investigación usados

habitualmente se detallan abajo. Los porcentajes indican la probabilidad de obtener el

resultado sólamente al azar, incluso cuando el resultado no fuera cierto en la población.

• la probabilidad es mayor que un 5% significa que el resultado no es significativo.

• menos del 5%. el resultado es considerado significativo en el nivel del 5%.

Abreviado *

• menos del 1%. el resultado es considerado significativo en el nivel del 1%.

Abreviado **

• menos del .1%. el resultado es considerado significativo en el nivel del .1%.

Abreviado ***

La abreviatura se usa situando una o más estrellas tras el resultado de la investigación ya

sometido a prueba.

Se usan nombres ligeramente distintos para los niveles de representatividad según el país,

y eso es por lo que, para evitar confusiones, podría por ejemplo afirmarse en el informe de

investigación que "el resultado es significativo en el nivel del 5%", queriendo esto decir que

la probabilidad de que se produjese ese resultado por accidente es inferior al 5 %.

Al mismo tiempo, la representatividad también indica el riesgo para el investigador de

cometer el "error de tipo 1", descartando equivocadamente la hipótesis nula y aceptando la

hipótesis de investigación, a pesar del hecho de que la hipótesis de investigación en

realidad ya no es válida. A pesar del riesgo, el investigador no debe poner el listón de la

representatividad innecesariamente alto, porque entonces hay la amenaza del llamado

"error de tipo 2", en que el investigador acepta la hipótesis nula y descarta

equivocadamente la hipótesis de investigación a pesar de ser en realidad verdadera.

¿Hasta qué grado ha de ser significativo un resultado logrado en un estudio? En la

práctica, la representatividad de un estudio suele depender de qué tipo de datos ha podido

reunir. Un informe de investigación con frecuencia es juzgado adecuado para ser hecho

público si al menos en alguna de las cuestiones estudiadas se alcanza el nivel de

representatividad del 5%.

No hay una fórmula universal para la comprobación estadística. En lugar de ello hay un

cierto número de comprobaciones especiales para cada distinto tipo de estadísticas (para

Page 519: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 505

la media, la varianza, etc.). Sin embargo, la práctica general en las comprobaciones es

siempre la misma:

1. primero, en el manual de estadística, encontramos la fórmula específica para la

estadística que queremos comprobar,

2. entonces colocamos nuestra estadística en la fórmula, y junto a ella algunos

parámetros (que indican el número de nuestras mediciones, su varianza, etc.). La

fórmula entonces nos da una cantidad especial llamada Chi, t, F, etc., que describe

la "fuerza" de nuestro hallazgo,

3. comparamos esta cantidad con las tablas (en los manuales) que nos dicen cuál es

la probabilidad de obtener nuestro conjunto de datos únicamente por coincidencia.

Si la probabilidad es, pongamos, de menos de un 1%, nuestros resultados son

significativos.

En la siguiente tabla encontraremos algunas comprobaciones estadísticas. Una tabla no

puede dar todos los criterios que deben tenerse en cuenta en la elección; sería

aconsejable consultar a un estadístico si tenemos la posibilidad.

Tabla 15: Comprobaciones estadísticas

DATOS QUE HAN DE SOMETERSE A PRUEBA: PRUEBA ADECUADA:

Distribución: prueba Chi Estadísticas que describen una variable aritmética (por ej.: media): prueba t

Variables medidas sobre una nominal escala: Cochran Q test Variables medidas sobre una escala ordinal: Prueba Wilcoxon Correlaciones (escala aritmética): prueba t

Relaciones entre dos o más variables Resultados a partir del análisis de varianza: prueba F Enlaces en el WWW sobre inferencia estadística y pruebas:

• Surfstat, de la University of Newcastle

• Inferential Statistics, de William M. K. Trochim

6.1.1.2.1. Prueba Chi La prueba Chi (letra griega que se pronuncia como en español "ji") puede usarse para

valorar cómo están distribuidos en clases los objetos o sujetos en una muestra aleatoria.

Un ejemplo inventado:

Page 520: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 506

Un fabricante vende grifos en España. Éstos pueden ser cromados en plateado o dorado.

La empresa empezará pronto a lanzar al mercado estos productos en Portugal y necesita

saber si los clientes portugueses están relativamente más interesados en los dorados que

los clientes españoles.

Se ha enviado un cuestionario a 150 portugueses elegidos al azar y a un número igual de

españoles. 100 cuestionarios no fueron devueltos. Las 200 respuestas obtenidas se

distribuyeron como indican los números marcados con una T:

. Prefiere acabado cromado Prefiere acabado dorado TotalEspañoles T = 50 T = 40 90 Portugueses T = 50 T = 60 110 Total 100 100 200

En este caso (inventado), la mayoría de portugueses preferían grifos dorados, mientras

que la mayoría de españoles los preferían cromados. Ahora surge una pregunta: ¿esta

diferencia es válida en todos los portugueses y españoles o es posible que una

divergencia tal de las muestras esté causada sólo por el azar? Tenemos que plantearnos

el hecho de que recibiéramos sólo 200 respuestas y es bastante posible que

accidentalmente tengamos un grupo tan pequeño, varias personas que no son típicas en

sus opiniones .

La probabilidad de un resultado accidental puede calcularse con la prueba Chi. Para llevar

a cabo la prueba, primero vamos a investigar cómo estas 200 respuestas podrían estar

distribuidas con mayor probabilidad, si no hubiese diferencias entre las dos poblaciones;

en otras palabras, si todos los portugueses y todos los españoles tuviesen idénticas

opiniones sobre los acabados de los grifos. Esta distribución hipotética se llama

distribución esperada. En nuestro ejemplo sería como sigue. (Las frecuencias de clases

en esta distribución van marcadas con la letra V):

. Prefiere acabado cromado Prefiere acabado dorado Total

Españoles V = 45 V = 45 90

Portugueses V = 55 V = 55 110

Total 100 100 200

Ahora necesitamos construir una medida para indicar cuánta discrepancia hay entre la

distribución real y la esperada. Esta medida se llama Chi cuadrado, y se calcula como

sigue:

Page 521: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 507

(siendo x la discrepancia, T el total y V el valor de los que prefieren cromado o dorado y

significando suma). En la fórmula tenemos que sustituir sucesivamente T por cada valor T

en la tabla de "distribución real" y, de la misma manera, a su vez, para V, cada valor de V

en la tabla de "distribución esperada" En nuestro ejemplo, Chi al cuadrado da el siguiente

valor:

= 0,56 + 0,56 + 0,45 + 0,45 = 2,02

El siguiente paso es calcular la probabilidad de obtener, sólo por accidente, los resultados

de arriba (o, lo que es lo mismo, la divergencia mencionada anteriormente entre

portugueses y españoles).

No necesitamos calcular esta probabilidad, ya que se indica para un gran número de

valores en los manuales de estadística. Estas tablas nos dicen, por ejemplo, que hay un

5% de probabilidad de obtener el valor 3.84 para Chi cuadrado en un par de tablas de 4

celdas, cuando sólo actúa el azar y no hay diferencia entre las poblaciones.

En nuestro ejemplo, obtuvimos un valor Chi cuadrado de 2.02, que es menos de 3.84.

Esto significa que la probabilidad de obtener un valor Chi cuadrado así por azar es más

del 5%. En otras palabras, los resultados de nuestro cuestionario son estadísticamente no

significativos. Así, nuestro cuestionario no permite hacer afirmación alguna sobre las

diferencias entre portugueses y españoles.

Cuando la prueba Chi se aplica a distribuciones que consisten en más de cuatro clases, es

probable que Chi cuadrado se haga mayor por la simple razón de que la fórmula Chi

cuadrado incluye más de cuatro términos que han de agregarse. Para neutralizar este

incremento, la prueba Chi requiere que demos una medida de la amplitud de nuestra tabla.

La medida para esto tiene un nombre peculiar, grado de libertad.En nombre indica el

número de las celdas de nuestra tabla que podrían cambiar cuando el número de casos es

constante.

Por ejemplo, si vamos a estudiar distribuciones en que exactamente cien personas están

clasificadas en seis grupos, el grado de libertad en cualquiera de esas distribuciones es

cinco. La explicación para esto es que cinco celdas de las seis están siempre libres para

recibir cualquier número de sujetos (entre 0 y 100); pero después de que las cinco celdas

Page 522: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 508

han recibido su contenido, la sexta no tiene libertad para cambiar; estará determinada por

el total de 100.

Una tabla de 2 x 2 celdas tiene un grado de libertad de exactamente uno: si todas las

celdas cambiasen, todas las demás celdas tendrían que cambiar de acuerdo con ello;

tienen colectivamente un único grado de libertad.

En la tabla de abajo se dan los grados de libertad de algunas tablas pequeñas.

Tamaño de la tabla Grado de libertad f

2 x 2 1 2 x 3 2 2 x 4 3 2 x 5 4 3 x 3 4 3 x 4 6

La tabla siguiente da los valores que alcanza Chi cuadrado bajo la influencia sólo del azar,

con una probabilidad de 5%, 1% o bien 0.1%. Esta tabla incluye sólo pequeñas

distribuciones con un grado de libertad hasta 6. Encontraremos tablas mayores en los

manuales.

Grado de libertad Probabilidad f 5 % 1 % 0,1 % 1 3,841 6,635 10,8282 5,991 9,210 13,8163 7,815 11,341 16,2664 9,488 13,277 18,4675 11,070 15,086 20,5156 12,592 16,812 22,458

6.1.1.2.2. Prueba Cochran Q La prueba Cochran Q puede usarse para evaluar la relación entre dos variables que se

miden en una escala nominal. Una de las variables puede incluso ser dicotómica, o

consistir en sólo dos valores posibles.

En el ejemplo siguiente se evaluaron por 12 sujetos cuatro combinaciones distintas de

asientos para camión y de cinturones de seguridad. La escala de evaluación era

dicotómica: el cinturón podía molestar al usuario (=1) o no molestarle (=0). (El ejemplo es

Page 523: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 509

de Raimo Nikkanen: Seat and Seat-Belt Comfort in Heavy Commercial Vehicles in

Finland.) Las evaluaciones por sujetos A...L se dan en las filas 2...5. Además, la tabla

indica las sumas para cada combinación de asiento/cinturón, sumas para cada sujeto,

cuadrados de ambas sumas y sumas de estos cuadrados, que son entonces usados en la

fórmula de la prueba Cochran.

Tabla 16: fórmula de la prueba Cochran

1 Sujeto de la prueba: A B C D E F G H I J K L SV SV2

2 Asiento de tipo I: 1 1 1 1 1 1 1 0 0 1 0 0 8 64

3 Asiento de tipo II: 1 1 1 1 0 1 1 0 1 1 1 1 10 100

4 Asiento de tipo III: 0 0 1 1 0 1 1 0 0 1 0 0 5 25

5 Asiento de tipo IV: 0 1 1 1 0 1 1 0 1 1 1 1 9 81

6 Totales por cada sujeto = SH 2 3 4 4 1 4 4 0 2 4 2 2 Total

S=32

Total

=270

7 Cuadrados de la fila precedente = SH2 4 9 16 16 1 16 16 0 4 16 4 4 Total

=106-

En el siguiente paso, los valores de la tabla se sitúan en la siguiente fórmula, que da

entonces el valor Q:

Todos los parámetros en esta fórmula se encuentran en la tabla, excepto k, que es el

número de alternativas (aquí = 4). El valor de Q se hace mayor si hay asociación

estadística entre las variables. Si no hay asociación y solo actúa el azar, Q alcanza

exactamente el mismo valor que Chi cuadrado. Esto significa que cuando se evalúa el

valor de Q que hemos recibido en una prueba, podemos usar la Tabla Chi cuadrado

mostrada anteriormente.

En una tabla de distribución del tipo de la de arriba, el grado de libertad es igual a k-1; en

el ejemplo de arriba es igual a 3. En el ejemplo de arriba, el valor obtenido para Q fue de

7.63. Consultando la tabla de Chi cuadrado encontramos que el resultado de arriba sería

significativo solo sí Q tuviese un valor de al menos 7.815. La prueba Q Cochran mostró así

Page 524: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 510

que la diferencia encontrada empíricamente entre las alternativas de asientos no era

estadísticamente significativa.

6.1.1.2.3. Prueba Wilcoxon Con la prueba Wilcoxon podemos comprobar la representatividad de las preferencias entre

dos (o más) alternativas. La escala al dar las preferencias es ordinal.

En su estudio Seat and Seat-Belt Comfort in Heavy Commercial Vehicles in Finland,

Raimo Nikkanen quería comparar dos asientos distintos para camión. Doce sujetos

probaron ambos asientos y evaluaron su comodidad sobre una escala de 7 puntos. Las

valoraciones obtenidas se dan en las columnas 2 y 3 de la siguiente tabla. La fila 5, Orden

de rango de las diferencias (ignorando el signo) significa que la diferencia más pequeña de

esta fila recibe el valor 1, la segunda el valor 2, etc. Los casos en que no hay diferencia se

descartan completamente. El valor 6.5 significa que las diferencias situadas en el sexto y

séptimo lugar eran iguales; con lo que les damos a ambas el mismo rango de 6.5. La fila 6,

Los casos de signo menos frecuente significa que tomamos de la fila 5 aquellos casos

donde el signo de la diferencia era del tipo menos común. En este ejemplo, había una

minoría de diferencias negativas. De aquellos casos únicamente tomamos sus rangos, de

la fila 5. En el ejemplo, el único número que se tomará será el 3.

1 Sujeto de la prueba: A B C D E F G H I J K L

2 Comodidad del asiento estándar: 3 5 5 6 5 5 3 5 4 5 3 3

3 Comodidad del asiento anti-vibración: 2 3 2 2 2 2 2 3 3 2 2 4

4 Diferencia de los valores de arriba: 1 2 3 4 3 3 1 2 1 3 1-

1

5 Orden de rango de las diferencias (ignorando el

signo): 3 6,5 9,5 12 9,5 9,5 3 6,5 3 9,5 3 3

6 Los casos de signo menos frecuente: - - - - - - - - - - - 3

En el siguiente paso, añadimos todos los números a la fila 6, ignorando sus signos.

Llamamos a esto suma T. En el ejemplo será 3. Ahora es momento de mirar en la tabla de

la prueba Wilcoxon en nuestro manual. Las filas de la tabla son para diferentes números

de pares (=N, aquí 12). En la fila correcta, encontramos, encontramos Tmax = valor que T

Page 525: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 511

no debe exceder, o los resultados no serán significativos en un nivel del 5%. Aquí debajo

tenemos una parte de la tabla.

N= 6 7 8 9 10 11 12 13 14 15 16 17 18

Tmax= 1 2 4 6 8 11 14 17 21 25 30 35 40

En nuestro caso, el valor empírico (3) está claramente bajo el valor permisible, y así

podemos llamar significativos a nuestros resultados. Sería altamente improbable que se

obtuviese una diferencia tan amplia en las preferencias

sólamente por azar.

Arriba hemos comprobado distribuciones y mediciones

en una escala ordinal. Estos tipos de pruebas son bien

explicadas en Sidney Siegel: Nonparametric statistics

for the behavioral sciences.

6.1.1.2.4. La prueba t El efecto del azar hay que considerarlo siempre cuando

calculamos una estadística descriptiva, por ejemplo, una media o una correlación. Estas

estadísticas siempre proceden del algoritmo aparentemente exacto y digno de confianza,

incluso en casos en que el material subyacente es a la vez escaso y poco fiable. Esto

puede ilustrarse por un ejemplo inventado (a la derecha) donde tenemos dos mediciones a

partir de tres estudiantes elegidos al azar en la UIAH.

En el diagrama de dispersión, resulta que podríamos dibujar una línea recta a través de

los tres casos, lo que significa también que la correlación de las dos variables es

exactamente 1.00. ¿Indica una correlación tan inusualmente fuerte que generalmente el

peso (y) de cualquier estudiante en la UIAH puede calcularse a partir de su año de

estudios (x) usando la fórmula y = 5x + 55 ?

Por supuesto que no. La probabilidad de obtener por azar una correlación alta entre tres

pares de mediciones es bastante elevada. Incluso si teníamos 5 pares de mediciones, la

correlación alcanzaría de manera puramente accidental el valor ±0,81en el 10% de casos,

y el valor ±0,96 en el 1% de los casos, cuando las dos variables en realidad son

absolutamente independientes la una de la otra.

Cuantas más mediciones tenemos, la correlación más baja se convierte en significativa.

Esto puede verse en la siguiente tabla:

Page 526: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 512

Numero de mediciones Si la correlación es al menos:

4 pares 0.95 0.99 5 pares 0.88 0.96 7 pares 0.75 0.88 10 pares 0.63 0.77 20 pares 0.44 0.56 40 pares 0.31 0.40 100 pares 0.20 0.26

... ... entonces la correlación es significativa en un nivel del 5%.

... entonces la correlación is significativa en un nivel del 1%.

La tabla de arriba es un simple ejemplo de una prueba t. Además del cociente de

correlación, la prueba t puede usarse para estimar la representatividad de otros muchos

parámetros estadísticos. En la mayor parte de los casos, sin embargo, los valores para el

parámetro t no pueden obtenerse directamente a partir de una tabla como la de arriba,

sino que han de calcularse con fórmulas especiales que son desgraciadamente todas

distintas.

La prueba t puede también usarse para estimar la representatividad de la diferencia entre

los parámetros obtenidos a partir de dos muestras distintas, es decir, lo probable que

también las poblaciones correspondientes difieran entre ellas en una manera similar. El

principio de la prueba es el mismo. Una limitación de la prueba t es que sólo puede usarse

para estimar uno de dos parámetros a la vez.

6.1.2. REFERENCIAS • Surfstat, de la University of Newcastle - Inferential Statistics, por William M. K.

Trochim

Page 527: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 513

6.2. UTILIDAD DE LOS RESULTADOS Y APLICACIÓN PRÁCTICA

Ilustración 19: Beneficios del proceso de investigación

El investigador siempre desea que su trabajo produzca ventajas para otras personas, y

habitualmente intenta estimar estos beneficios desde el comienzo del proyecto y en las

observaciones de conclusión del informe de investigación.

Esta estimación será subjetiva, por supuesto. Se puede obtener una evaluación más

realista y objetiva si el proyecto de investigación de originó a partir de un problema

práctico experimentado por la gente. Un indicador fiable del valor de los resultados de la

investigación es que si estas personas estén dispuestas a aplicar estos resultados al

problema original (figura de la derecha). Si la aplicación resulta fácil y exitosa, el proyecto

de investigación recibe unas notas altas desde el punto de vista de sus potencialidades a

la hora de ser utilizado.

Se encuentran con frecuencia métodos bien desarrollados para valorar esas

potencialidades de los resultados de la investigación en proyectos de desarrollo de

actividades o desarrollo de productos.

6.2.1. VENTAJAS E INCONVENIENTES PARA LAS PERSONAS DEL EXTERIOR El producto final de un proyecto de investigación es a veces puro conocimiento sin

aplicaciones intrínsecas. En ese caso puede ser difícil pronosticar los resultados de futuras

puestas en práctica y los puntos de vista que otras personas puedan tener sobre ellos.

Un pronóstico así se hace más fácil en proyectos de investigación y desarrollo, donde las

personas que tienen intereses en el proyecto suelen poderse dividir en grupos diferentes.

Page 528: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 514

Guba y Lincoln dan la siguiente lista de grupos de interés en torno a un proyecto de

desarrollo:

• los agentes, o personas implicadas en producir y poner en práctica lo que se

evalúa. Éstas comprenden:

o los desarrolladores de lo evaluado

o los financiadores

o aquellos que toman las decisiones que están decididos a utilizar o desarrollar

localmente lo evaluado

o quienes proporcionan instalaciones y materiales

o el personal comprometido con el proyecto.

• los beneficiarios, aquellas personas que de algún modo se benefician del uso del

proyecto y entre las que están

o los beneficiarios directo, el "grupo-finalidad" las personas para las que el

proyecto se diseñó

o beneficiarios indirectos, quienes están en a relación con las personas

anteriores y reciben desde ellas influencias positivas.

o personas que ganan con la existencia del proyecto, tales como editores de

los materiales, contratistas que proporcionan servicios,

• las víctimas, aquellas personas que se ven afectadas negativamente por el uso del

los resultados del proyecto; entre ellas se incluyen

o grupos sistemáticamente excluidos, como los jóvenes "normales" a quienes

no se ofrece un programa pensado para jóvenes problemáticos

o personas que sufren efectos colaterales negativos

o personas en las que se pensó originalmente como beneficiarios que sufren,

sin embargo, por causa de algún fracaso en el proyecto.

La lista de arriba es una versión abreviada de la de Guba - Lincoln: Fourth Generation

Evaluation, 1989. El libro trata bien el método de evaluación sobre el que se basa un

debate abierto y democrático entre el investigador y todos los beneficiarios, víctimas y

agentes o las personas implicadas en producir y poner en práctica los resultados del

proyecto.

Page 529: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 515

Otros investigadores sostienen una opinión más "positivista" e insisten en que las

discusiones generales son métodos demasiado subjetivos para la evaluación, ya que

normalmente no podemos garantizar que esas personas presentes en los debates

representen a la mayoría de la gente y todos los puntos de vista posibles. En lugar de ello,

el investigador debe asumir un papel "objetivo" y desarrollar métodos de medición y

valoración que simulen el punto de vista general e imparcial. Este paradigma de

evaluación se explica en King et al.: How to Assess Program Implementation (1987) y

otros libros en el Program Evaluation Kit de Sage Publications. Ejemplos de evaluaciones

así pueden encontrarse en la revista Evaluation Review.

Los inconvenientes causados a otras partes y a personas ajenas son un problema habitual

en sociedad, y desde los tiempos de Hammurabi las personas han aprendido a regular por

medio de leyes, "buenas maneras" y otras normas de comportamiento. Normas éticas más

recientes son por ejemplo las del movimiento Pugwash y los "principios de desarrollo

continuo". Un ejemplo de estos principios son las "reglas de economía ética" enumeradas

en el libro Maa (La Tierra) de Eero Paloheimo (1985), de los que presentamos aquí una

muestra:

• las materias primas han de conservarse para las generaciones futuras

• sólo se usa la energía renovable

• no se explotará la aflicción de los países subdesarrollados

• la población debe decrecer

• la polución peligrosa no puede aceptarse

No siempre es tan fácil ver como un proyecto de investigación limitado puede violar esos

principios globales. El investigador puede que ni siquiera adivine todos las zonas a las que

podría afectar su proyecto, por no hablar de estimar las repercusiones que la aplicación de

sus resultados podrían tener para terceras personas, la naturaleza y el entorno.

El investigador debe preferiblemente intentar mantenerse en contacto con al menos

algunas potenciales "victimas del desarrollo". Si el investigador encuentra que le es

imposible entrar en contacto con las personas afectadas, el grupo de gestión del proyecto,

o tal vez un comité compuesto de usuarios de los resultados, podrían ser un foro

adecuado para tratar el asunto.

Si los resultados de la investigación van a ser aplicados en cierta profesión, por ejemplo

dentro de los campos de la enseñanza, la arquitectura o la ingeniería, el investigador

quizás podría atender a las normas tradicionales de la profesión a título de orientación.

Page 530: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 516

Las asociaciones de algunas profesiones han emitido documentos llamados "Código ético

de la profesión", "Código deontológico", etc. Sitios en el Web sobre evaluación:

• American Evaluation Association

• Evaluation and Performance Measurement (por Government Performance

Information Consultants)

• Performance Measurement in Government (Ciudad de Grande Prairie, Canadá)

• Introduction to Evaluation, por William M. K. Trochim.

15.dic.1998. Versión en español: [email protected]

6.2.2. REFERENCIAS

o http://usuarios.iponet.es/casinada/arteolog (España)

o http://www.uiah.fi/projects/metodi/ (Finlandia)

Page 531: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 517

<

6.3. EL INFORME DE INVESTIGACIÓN

6.3.1. PARTES DE UN INFORME DE INVESTIGACIÓN El informe es, para el investigador, un medio de transmitir los resultados de su trabajo a

otros. En consecuencia, los resultados tienen que ser presentados de tal modo que los

lectores puedan fácilmente aplicarlo a sus propios fines. Por otra parte, debemos dar al

lector la oportunidad de verificar la fiabilidad de los resultados.

Formalmente, un informe de investigación suele consistir de las siguientes partes:

1. Páginas de título

2. Resumen (Abstract)

3. Indice (también puede estar al final del libro)

4. Prefacio

5. El texto propiamente dicho

6. Lista de fuentes y de bibliografía

7. Posibles índices de personas o un índice general

8. Apéndices

Las páginas de título son las primeras páginas del libro. Habitualmente la primera de

todas sólo indica la serie de publicaciones y el título del libro. La siguiente, propiamente la

página de título contiene la siguiente información, cuyo orden varía de un país a otro y de

un editor a otro:

• La serie de publicaciones, si hay tal, y el número de la publicación dentro de esta

serie.

• El título, a saber: el nombre de la publicación. Un título conciso y expresivo ayudará

a futuros investigadores a que estén elaborando una lista bibliográfica sobre el

mismo tema. Es aconsejable dar al libro un título en que el primer sustantivo

exprese el tema más importante que se ha estudiado; por esta razón no es

prudente comenzar el título con la palabra Investigación, por ejemplo.

• Autor(es) (sin títulos y cargos académicos)

• Editor

• Publicado en ..., hoy en día suele indicar la localización de la casa editora (En otros

tiempos, aquí se solía mencionar el lugar de impresión.)

Page 532: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 518

La página del título también indica, posiblemente, a su vuelta:

• casa impresora, lugar de impresión, fecha

• ISBN (International Standard Book Number), proporcionado por el editor.

La idea del resumen (abstract) es hacer las ulteriores búsquedas de información más

fáciles. Ayuda a los investigadores posteriores a decidir si le merece la pena buscar ese

trabajo en concreto. El resumen clarifica el título y es una exposición de no más de 250

palabras que tratan de lo que ha sido estudiado y como, y da un esquema de los

resultados, de tal modo que el lector entienda el tema sin haber tenido que leer el trabajo

mismo. Esto se logra mejor si es el investigador quien escribe su propia exposición.

El resumen se escribe en el mismo lenguaje del informe, y con frecuencia también en

inglés. El investigador puede también indicar el número UDK que describa los temas del

estudio. Estos temas deberían preferiblemente ser tomados del thesaurus de ese campo

del conocimiento, si lo hay. En este asunto es aconsejable para el investigador recurrir al

analista de sistemas bibliotecarios.

Si el investigador encuentra que este informe podría también tener algunas aplicaciones

fuera de los lectores del campo científico, puede, además del resumen, preparar también

una exposición de aplicaciones de esta publicación. Esta exposición puede también servir

como anuncio para varias publicaciones periódicas profesionales.

El prefacio ("Al lector") trata de los orígenes de la investigación y acerca de las diferentes

colaboraciones que han contribuido a ello. Es costumbre expresar aquí el agradecimiento

a los patrocinadores y a las personas que han promovido el trabajo. El texto propiamente

dicho cuenta cómo se obtuvieron los resultados. El texto debe también proporcionar al

lector una posibilidad de valorar la fiabilidad de los resultados. Esta es la razón por la que

debe contener al menos lo siguiente:

• la finalidad de la investigación, el problema o la intención

• la naturaleza de los datos analizados y las bases para la selección de los datos

• método de investigación

• resultados obtenidos y conclusiones

• una estimación de la fiabilidad de los resultados y con qué medida pueden ser

aplicados de manera general

Con método de investigación queremos decir la estructura lógica a través de la cual los

resultados se han obtenido a partir de los datos. En las ciencias naturales suele ser fácil

describir este método, pero ¿cómo se hace en un proyecto de investigación humanística

Page 533: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 519

en el que muchas veces ocurre que el investigador trabaja durante meses en algo que

más tarde se muestra inútil?. Es bastante habitual en investigación cualitativa que la

interpretación del investigador cambie profundamente al mismo tiempo que avanza la

investigación, llevando al hecho de que los resultados de que se informa son producto de

las semanas de investigación más recientes.

En esto los distintos investigadores han seguido diferentes pautas, que Outi Lehtopuro

describe con humor en el prólogo del libro Perinteentutkimuksen perusteita [Introducción a

la investigación del folklore]:

"... la investigación humanística ha tenido aversión a especificar claramente

los procesos por los cuales el investigador tuvo que pasar para obtener los

resultados alcanzados. Los investigadores tratan de parcelar la investigación

acabada en una forma legible, suave y desenvuelta para disimular una pila

entera de esforzada investigación de detalle, intento, error y experimentos

que no ha producido resultados.

Pero gradualmente ha empezado a ganar terreno la demanda de una

exposición clara de los métodos de investigación también en el pensamiento

humanístico. Uno podría notar a primera vista que... algo esencial desde el

punto de vista del lector se ha perdido: la habitual legibilidad a que uno

estaba acostumbrado en la investigación humanística. En un examen más

profundo, se hace patente que eso se ha reemplazado por una experiencia

incluso más enriquecedora que lo que un libro escrito en modo fascinante y

vistoso podría ofrecer. El lector se convierte en parte de un proceso mental

que nos aporta conocimiento enriquecedor a todos."

En alguna medida puede, entonces, ser útil explicar la "comprensión preliminar" del tema

que el investigador tenía al comienzo de la investigación: cómo veía el objeto al principio y

en que teoría ha basado su trabajo. Puede igualmente ser útil indicar las razones por las

que el investigador tuvo que interpretar los datos de un modo nuevo y por qué tuvo que

buscar más datos. Sin embargo, no tendrá sentido, dar cuenta de cada presuposición que

resultó ser falsa, ni nombrar todos los datos que recogió y trató en vano. Tampoco será

necesario mencionar que el investigador cree haber hallado al final la verdad, ni describir

la exaltación que le produce el haberla alcanzado.

Los resultados de la investigación cuantitativa en particular suelen ser generalizaciones

analíticas ("modelos") hechas sobre la base de casos individuales; con frecuencia de

Page 534: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 520

lectura más bien aburrida. Lo más fácil de leer suelen ser informes cualitativos cuyos

contenidos principales con frecuencia son la descripción de un caso individual, especial

(por ejemplo, monografías); pensemos en obras de gran éxito como el "Origen de las

especies" de Darwin o "Vegas färd" de Nordenskjöld. Un texto de contenido altamente

numérico o monótono puede ser enriquecido con descripciones ocasionales de ejemplos

individuales de los objetos de estudio. Si el estudio trata de obras de artes, conviene darse

cuenta de que la ley permite que se publiquen simples fotografías de artefactos sin

permiso del artista y sin tener que pagar una compensación. Las citas literales de las

personas entrevistadas pueden hacer el papel de especias para aderezar un plato

insípido. Estas citas, sin embargo, requieren el acuerdo del hablante o, en otro caso, que

garanticemos su anonimato, por ejemplo, cambiando los nombres.

El estilo del informe puede no ser crucial si el investigador está en disposición de

proporcionar nuevas informaciones importantes. Pero por supuesto que la información

será entendida más fácilmente si las frases y palabras son cortas y en un lenguaje

estándar, no una jerga interna a una profesión. A veces es imposible evitar conceptos

especiales que han de definirse en el informe de investigación. Véanse también las

consideraciones sobre la organización práctica del escrito.

La conclusión suele tratar de ideas para investigaciones ulteriores que han surgido en el

curso del trabajo.

Las listas bibliográficas pueden contener sólo las fuentes explícitamente citadas o

usadas en la investigación (=lista de fuentes) o, también, se puede añadir bibliografía

potencialmente importante. Cualquiera que sea el tipo de lista de que se trate, la idea es el

ayudar al lector a localizar mayor información. Con este fin, es costumbre proporcionar la

siguiente información sobre los libros (aunque hoy en día sólo los tres primeros elementos

son absolutamente necesarios):

• apellido del autor y nombre propio o inicial

• título del libro

• edición usada por el investigador

• editor

• imprenta (s.l.= sine loco, en caso de que no se haya hecho figurar)

• año de impresión (s.a.= sine anno, si no figura)

En lo que respecta a publicaciones periódicas, es necesaria la siguiente información:

• autor del artículo

Page 535: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 521

• el título del artículo

• título de la publicación periódica

• volumen de la publicación periódica subrayado, o número de año entre corchetes

• número de la publicación periódica

La lista de bibliografía suele estar al final del informe; alternativamente los libros pueden

ser listados o bien al final de los capítulos o en la parte inferior de la página. Si el informe

está pensado para ser publicado en una serie concreta, hallaremos el patrón para

presentación de las fuentes en volúmenes anteriores de dicha serie.

Los apéndices pueden incluir un índice temático o de otro tipo y también material

relacionado por su tema con la investigación que hubiera sido demasiado extenso para

incluirlo en el texto. Es el caso por ejemplo de los cuestionarios, listas o imágenes de los

objetos, o tablas grandes que resumen los resultados. En ocasiones es posible ahorrar

costes de impresión colocando grandes tablas de imágenes en color en el apéndice o en

un volumen separado con un menor número de ejemplares.

6.3.2. ESCRIBIR EL INFORME El investigador no debe sentirse desanimado si escribir el informe le resulta difícil. Siempre

lo es, por varias razones.

• Antes que nada, el tema es complicado; la investigación es intrínsecamente un

trabajo duro, una labor penosa para arrojar luz sobre asuntos oscuros; se iluminan

hechos de los que nadie sabía nada hasta hace poco.

• En segundo lugar, la forma de presentación es incómoda: las frases en el trabajo

han de aparecer en forma lineal, lo que se corresponde muy pobremente con la

progresión lógica de la investigación y también con la red multidimensional de las

formas de pensar del investigador. Queda por ver si los formatos de hipertexto

pueden eliminar este problema.

• Muchas veces, especialmente en el caso de una Tesis obligatoria, el trabajo de

investigación es para el autor el primero de este tipo, y no siempre se dispone de

modelos y orientación.

El investigador podría comenzar la escritura por hacer un esquema de las cuestiones, los

resultados y las conclusiones lógicas que combinen estas dos en una hoja de papel.

Entonces puede elegir el orden de presentación adecuado para los tres aspectos. No es

necesariamente el mismo orden en que se escribirán los apartados: suele ser mejor

Page 536: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 522

comenzar por escribir los pasajes se parecen más fáciles, como descripciones de los

métodos de investigación o de los nuevos hallazgos.

Con frecuencia será necesario modificar un informe de investigación repetidas veces. Ha

que procurar que estas revisiones no alteren los pasajes acabados. En esta tarea, un

ordenador personal puede ser de gran ayuda. Los ordenadores personales son máquinas

tan potentes que sería insensato usarlos sólo como máquinas de escribir con memoria.

Los programas para procesamiento de texto tienen numerosas herramientas útiles para

quien escribe un trabajo de investigación, como las siguientes:

• El esquema es preferible planearlo antes de ponerse a escribir el texto. Debe

presentar la estructura lógica del proyecto de un vistazo. Esto puede hacerse

escribiendo el título de cada parte del informe en una línea aparte, y ordenando

primero solamente estos títulos. Una vez que la disposición sea correcta, el escritor

comienza a añadir texto a cada encabezamiento, en el orden que le sea más fácil.

Si el investigador posteriormente encuentra una secuencia mejor para los capítulos,

la revisión puede ser hecha fácilmente moviendo capítulos completos o párrafos

completos con sus títulos y las imágenes y tablas vinculadas a ellos.

• La jerarquía de encabezamientos (encabezamientos principales,

subencabezamientos, etc.) debe crearse con la ayuda de los llamados estilos. En la

escritura asistida por el ordenador, un estilo significa ante todo escoger el tipo y

tamaño de letra, pero puede también incluir, por ejemplo, una numeración

automática de los párrafos o una definición para un índice de materias generado

por el ordenador o para un índice de nombres.

• En las referencias a otras partes del mismo texto, por ejemplo "cf. párrafo 100 en

página 100" o "véase figura 100", es mejor dejar al procesador de textos hacer la

numeración (número 100 en el ejemplo de arriba). El programa de procesamiento

de textos se encarga de actuliazar los números de página y figura si la paginación

cambia posteriormente en el informe.

• Las notas a pie de página y notas finales deben confeccionarse también con la

ayuda de un programa de procesamiento de textos. Así no será necesario ocuparse

de su colocación o renumeración si se añade una nueva nota entre ellas.

• Algunos procesadores de texto incluyen un thesaurus o un diccionario de

sinónimos que puede ayudar al escritor a buscar una palabra más adecuada al

Page 537: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 523

contexto, o simplemente evitar las tautologías. Esto es especialmente útil para

quienes escriben en una lengua extranjera.

• Pueden utilizarse herramientas o un programa para una corrección lingüística,

especialmente para corrección de pruebas, es decir, corrección de errores

ortográficos. Un programa así recorre un texto y para en cada palabra que no está

incluida en su diccionario.-- Por otro lado, hay programas de corrección (como

Grammatik) para examinar la gramática en textos españoles, ingleses, o en otros

muchos idiomas, capaces de señalar algunos errores habituales, expresiones

torpes, tautologías, defectos de puntuación, etc.

6.3.3. MAQUETADO Y CONFECCIÓN DE ÍNDICES Los informes de investigación no siempre se editan en una imprenta, hoy en día hay con

frecuencia se fotocopian con las máquinas del instituto de investigación. Con cualquiera de

ambos métodos es aconsejable para el escritor dar un aspecto uniforme a todas las

páginas del trabajo, es decir: maquetar la publicación. La ventaja es que el escritor está

mejor equipado para recortar, alargar o cambiar el texto y así hacer de cada página un

conjunto fácilmente legible de texto, imágenes y figuras.

Es habitual hacer una base para la puesta en página, una plantilla que contenga los

rasgos comunes a todas las páginas de la publicación: tamaño de página, márgenes,

fuentes y tamaños de los encabezamientos, texto, leyendas de imágenes, los comienzos

de capítulos y los principios de colocación de las imágenes. En estas cuestiones, parece

que casi cada serie de publicaciones tiene su propio modelo. Si no hay disponible un

modelo, debiéramos comenzar la puesta en página por crearlo. Si el tamaño de página del

informe es A4, el texto debería dividirse en dos o tres columnas, de otro modo sería difícil

de leer. Alinear el margen derecho hace más lenta la lectura; la justificación sólo del

margen izquierdo iría mejor a este respecto. Los tipos de letra que son más fáciles de leer

son los usados por los periódicos, tales como el Times; mientras que uno de los peores es

el Courier, o el que asemeja una máquina de escribir.

Hay programas especiales para publicación tales como Ventura o PageMaker que pueden

servir como herramientas para la puesta en página. Tienen dispositivos cómodos y

semiautomáticos como el disponer en columnas, control de columna viuda y columna

huérfana (las columnas viudas y huérfanas son líneas sueltas en lo alto o en la parte

inferior de la página), y una opción para enlazar ciertas lineas entre sí de modo que nunca

Page 538: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 524

queden en páginas separadas. De modo similar, la ubicación de las notas a pie de página

en las páginas adecuadas se hace automáticamente.

Los programas de tratamiento de texto suelen tener problemas con las imágenes. Las

imágenes producidas de distintos modos suelen ir vinculadas a textos y serán impresas

con el texto si estamos usando una impresora láser; el único problema es que las

imágenes suelen ocupar una gran cantidad de espacio en la memoria del ordenador, los

procesos se ralentizan y tienen lugar fallos. Una forma probada de solventar el problema

es dejar espacios vacíos para las imágenes grandes y pegar las imágenes en los huecos

antes del fotocopiado.

El tamaño de las imágenes se escogerá de modo tal que los detalles necesarios sean

visibles a la misma distancia de lectura que el texto mismo. El grosor de línea de las

imágenes en el impreso final no debe ser menor de 0.1 mm. Es fácil cambiar la

configuración inicial de puesta en página con un ordenador. Esto es especialmente cierto

para la cambiar la configuración inicial de un maqueta que se ha definido sólo una vez al

comienzo del fichero de texto, tal como tamaño de página, márgenes y número de

columnas. De forma similar, si todas las definiciones de tipos de letra han sido hechas por

referencia a un tipo base definido al principio del texto, basta un comando para ampliar

todos los tipos de letras en el trabajo o incluso cambiar el tipo de letra para la publicación

entera (por ejemplo de Courier a Helvetica). Es igualmente fácil cambiar todo lo definido

en un estilo. Un simple cambio en la definición del estilo tendrá inmediatamente efecto en

todos los lugares en que éste se ha aplicado.

Tras la maquetación, pero antes de la impresión o fotocopiado, es el momento adecuado

para organizar el índice de contenidos, los índices de nombres, etc. e insertar la

numeración correcta en las referencias dentro del texto. Como se anotó anteriormente, es

posible que un índice de contenidos se forme automáticamente. Los otros índices pueden

también generarse de modo automático por el programa de tratamiento de textos, con tal

que el escritor haya marcado aquellas palabras del texto que han de ser incluídos en los

índices. Todas estas tareas son de hecho tan sencillas que pueden ser hechas cada vez

que un informe de investigación es impreso como un borrador preliminar.

Si se desea una impresión de alta calidad, el texto ha de ser compuesto en una imprenta.

El escritor suele enviar el texto a la sala de composición en disquete, después de que el y

los maquetistas se hayan puesto de acuerdo en el programa de tratamiento de texto. Es

aconsejable observar las siguientes pautas en cuanto al trabajo que va a ser impreso:

Page 539: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 525

• Los retornos de carro "duros", es decir, obligatorios, se hacen sólo entre párrafos,

de modo que cada párrafo forma a los efectos una sola línea.

• Nunca se han de dividir palabras entre dos líneas; en lugar de esto, se pueden dar

indicaciones de separación con guión con un código especial. Suele ser mejor

escribir con la separación de palabras desactivada. El maquetista se ocupará de

eso.

• No debemos poner espacios al comienzo de párrafos; si se quiere resaltar el

comienzo de párrafo, es fácil hacerlo durante la maquetación.

• Suele ser buena idea poner el margen a cero en la fase de manuscrito.

• No debe haber espacios extra entre palabras. A veces tendremos muchos espacios

indeseados si está activada la alineación con el margen derecho en el procesador

de textos. Por ello es mejor escribir sin una alineación al lado derecho.

• Aunque las letras especiales como ñ, á, ü, etc. tengan sus propios códigos, en

ocasiones desaparecen cuando se lee el texto con un programa distinto de aquél

con el que fue escrito. Debemos verificar los signos especiales en la corrección de

pruebas.

• La sangría, los subrayados, las cursivas, las letras grandes de encabezamientos, y

otros efectos especiales deben añadirse en la sala de maquetación; hay que

ponerse de acuerdo sobre cómo se marcarán en el manuscrito.

• Las tablas, especialmente las hechas con hoja de cálculo o programas de bases de

datos, con frecuencia se distorsionan cuando se sitúan en el entorno de otro

programa de tratamiento de textos. Lo más seguro es imprimirlas en papel y

pegarlas en las páginas acabadas del mismo modo que si fueran imágenes.

Después de que el informe se ha imprimido, el investigador sigue teniendo algo pendiente:

debe intentar evitar de que el informe se limite a acumular polvo en una estantería. Debe

tratar de encontrar quiénes son las personas que querrían aplicar el nuevo conocimiento e

informarles.

Si el informe se publica en una serie científica, automáticamente se distribuirá dentro de la

serie entre las bibliotecas del mismo campo de trabajo. La información sobre la publicación

y su resumen irá así a las bases de datos de las bibliotecas científicas.

Sin embargo, vale la pena plantearse si habría otros sectores que podrían necesitar la

información pero no saben dónde buscarla. Los canales habituales para difundir los

Page 540: Dossier Investigacion

DOSSIER DE TEMAS DE INVESTIGACIÓN

COMPILADOR: Lic. Jesús Demis Zuna Aguilar 526

resultados de la investigación son los artículos en revistas profesionales y las conferencias

en seminarios de personas que trabajan en el sector adecuado.

Bibliografía en español sobre el informe de investigación:

• Emilia Currás, "Los resultados de la investigación: su publicación", tema 14 de

Documentación y metodología de la investigación científica. Cuaderno de trabajo,

Madrid, Paraninfo, 1985

Documentos en el WWW sobre el informe de investigación:

• Writing Research Proposal and Reports. Página personal de Mark Mitchell.

• Writer's Guide, Guía de escritura del Depto. de Inglés de la University of Victoria

(Canadá).

6.3.4. REFERENCIAS o http://usuarios.iponet.es/casinada/arteolog (España)

o http://www.uiah.fi/projects/metodi/ (Finlandia)