dossier investigacion
TRANSCRIPT
UNIVERSIDAD MILITAR DE LAS FF.AA. DE LA NACIÓN ESCUELA DE COMANDO Y ESTADO MAYOR
“MARISCAL. ANDRÉS DE SANTA CRUZ” DIVISIÓN DE PROGRAMAS DE POSTGRADO BOLIVIA
DOSSIER DE TEMAS DE INVESTIGACIÓN
MATERIAL BIBLIOGRÁFICO DE APOYO PARA
DIPLOMANTES EN INVESTIGACIÓN CIENTÍFICA Y TÉCNICA
COMPILADOR: Lic. Jesús Demis Zuna Aguilar
agosto del año 2010
COCHABAMBA – BOLIVIA
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar i
ÍNDICE DE CONTENIDOS Pág.
PROEMIO............................................................................................................................................................1 1. CAPITULO I: GUIA PARA LA ELABORACIÓN DEL PERFIL DE INVESTIGACIÓN...............................2 1.1. INDICACIONES GENERALES PARA EL QUE INICIA UN PROYECTO DE INVESTIGACION............3 1.2. LA ELABORACIÓN DE LOS PROYECTOS DE INVESTIGACIÓN........................................................6 1.2.1. ESQUEMA PARA LA ELABORACIÓN DE UN PROYECTO DE INVESTIGACIÓN...........................6 1.2.2. DESARROLLO DE ASPECTOS DE LA ELABORACIÓN DE UNA INVESTIGACIÓN.......................7 1.2.2.1. EL PROBLEMA ..................................................................................................................................7 1.2.2.1.1. Título descriptivo del proyecto.....................................................................................................7 1.2.2.1.2. Formulación del problema. ...........................................................................................................7 1.2.2.1.3. Objetivos de la investigación. ......................................................................................................8 1.2.2.1.4. Justificación ...................................................................................................................................8 1.2.2.2. MARCO DE REFERENCIA ................................................................................................................9 1.2.2.2.1. Fundamentos teóricos. .................................................................................................................9 1.2.2.2.2. Antecedentes del tema. .................................................................................................................9 1.2.2.2.3. Elaboración de hipótesis. ...........................................................................................................10 1.2.2.2.4. Identificación de las variables. ...................................................................................................10 1.2.2.3. METODOLOGÍA ...............................................................................................................................11 1.2.2.3.1. Diseño de técnicas e instrumentos de recolección de información. .....................................11 1.2.2.3.2. Población y muestra. ...................................................................................................................11 1.2.2.3.3. Técnicas de análisis. ...................................................................................................................12 1.2.2.3.4. Indice analítico tentativo del proyecto.......................................................................................12 1.2.2.3.5. Guía de trabajo de campo. ..........................................................................................................12 1.2.2.4. ASPECTOS ADMINISTRATIVOS....................................................................................................12 1.2.2.4.1. Recursos humanos......................................................................................................................12 1.2.2.4.2. Presupuesto. ................................................................................................................................13 1.2.2.4.3. Cronograma..................................................................................................................................13 1.2.2.5. BIBLIOGRAFÍA ................................................................................................................................13 1.2.3. REFERENTES .....................................................................................................................................14 2. CAPITULO II: BASES EPISTEMOLÓGICAS DE LA INVESTIGACIÓN .................................................15 2.1. LA EVOLUCIÓN DEL PENSAMIENTO CIENTÍFICO............................................................................16 2.1.1. DESARROLLO DEL PENSAMIENTO CIENTÍFICO...........................................................................16 2.1.2. REFERENTES .....................................................................................................................................27 2.2. LA NATURALEZA DE LA CIENCIA Y EL MÉTODO CIENTÍFICO.......................................................28 2.2.1. LA CIENCIA: UNA CARACTERIZACIÓN GENERAL........................................................................28 2.2.2. LAS CIENCIAS FORMALES Y EL MÉTODO AXIOMÁTICO ............................................................28 2.2.3. LA CUESTIÓN DEL MÉTODO EN LA CIENCIA EMPÍRICA: LAS TRADICIONES INDUCTIVISTAS Y REFUTACIONISTAS .....................................................................................................................................29 2.2.3.1. EL INDUCTIVISMO ..........................................................................................................................29 2.2.3.2. EL REFUTACIONISMO....................................................................................................................32 2.2.4. LAS CIENCIAS FORMALES Y LAS CIENCIAS FÁCTICAS: DIFERENCIAS ADICIONALES ........34 2.2.5. EL CONOCIMIENTO CIENTÍFICO Y SUS CONTEXTOS ..................................................................35 2.2.6. EL CONOCIMIENTO CIENTÍFICO Y SUS PECULIARIDADES.........................................................36 2.2.7. NOTAS.................................................................................................................................................37 2.2.8. REFERENCIAS ...................................................................................................................................37 2.3. LA CIENCIA Y EL MÉTODO CIENTÍFICO ............................................................................................39 2.3.1. EL EMPIRISMO LÓGICO....................................................................................................................43 2.3.2. EL FALSACIONISMO DE POPPER ...................................................................................................44 2.3.3. REFERENCIAS ...................................................................................................................................45 2.4. EL POSITIVISMO ...................................................................................................................................46 2.4.1. INTRODUCCIÓN .................................................................................................................................46 2.4.2. EL POSITIVISMO, SUS ORÍGENES...................................................................................................46 2.4.3. DEFINICIÓN ........................................................................................................................................50 2.4.4. ACTUALIDAD DEL PENSAMIENTO ..................................................................................................57 2.4.5. EL POSITIVISMO EN VENEZUELA ...................................................................................................58 2.4.6. REFERENCIAS ...................................................................................................................................64 2.5. LÓGICA Y ÉTICA EN KARL POPPER..................................................................................................66
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar ii
2.6. LÓGICA Y EPISTEMOLOGÍA DE LA CIENCIA SOCIAL: ENSAYO SOBRE EL ENTENDIMIENTO REFLEXIVO EN HEGEL...................................................................................................................................81 2.6.1. INTRODUCCIÓN .................................................................................................................................81 2.6.2. LÓGICA Y REPRESENTACIÓN DE REALIDAD ...............................................................................81 2.6.3. LA DIALECTIZACIÓN HEGELIANA DE LA LÓGICA........................................................................82 2.6.4. LÓGICA COMO REPRESENTACIÓN Y LÓGICA COMO LENGUAJE.............................................90 2.6.5. DETERMINACIÓN DIALÉCTICA Y EPISTEMOLOGÍA DE LA CIENCIA .........................................93 2.7. EL ESTUDIO DE LA CIENCIA Y LOS PARADIGMAS DE THOMAS S. KHUN...................................98 2.8. RECURSOS PARA LA INVESTIGACIÓN SISTÉMICO/CONSTRUCTIVISTA...................................107 2.8.1. INTRODUCCIÓN ...............................................................................................................................107 2.8.2. LA OBSERVACIÓN DE SEGUNDO ORDEN ...................................................................................107 2.8.3. EL DOMINIO DE INVESTIGACIÓN SISTÉMICO/CONSTRUCTIVISTA ..........................................109 2.8.4. ORIENTACIONES PARA LAS NUEVAS METODOLOGÍAS...........................................................110 2.8.5. METODOLOGÍAS APROPIADAS ....................................................................................................111 2.8.6. CRITERIOS DE VALIDEZ PARA LA INVESTIGACIÓN DE SEGUNDO ORDEN ...........................114 2.8.7. ANEXOS, PASOS Y PROCEDIMIENTOS DE INVESTIGACIÓN ....................................................116 2.8.8. REFERENCIAS .................................................................................................................................117 2.8.9. NOTAS...............................................................................................................................................118 2.9. MARCO TEÓRICO ...............................................................................................................................121 2.9.1. CÓMO SE DEBE LEER PARA FORMULAR UN MARCO TEÓRICO. ............................................122 2.9.2. INTEGRACIÓN DEL MATERIAL ......................................................................................................124 2.9.3. DEFINICIÓN DE TÉRMINOS BÁSICOS...........................................................................................124 2.9.4. DEFINICIÓN OPERACIONAL...........................................................................................................126 2.9.4.1. FUNCIÓN DE LOS CONCEPTOS O DEFINICIONES OPERACIONALES: .................................127 2.9.5. REQUISITOS DE LOS CONCEPTOS: .............................................................................................127 2.9.6. REGLAS PARA DEFINIR..................................................................................................................127 2.9.7. ESQUEMA DE LA INVESTIGACIÓN................................................................................................128 2.9.8. REFERENCIAS .................................................................................................................................131 2.10. LA INVESTIGACIÓN EN LAS CIENCIAS SOCIALES ......................................................................132 2.10.1. EL MÉTODO COMPARATIVO........................................................................................................134 2.10.2. EL PLANTEAMIENTO DE PROBLEMAS DE INVESTIGACIÓN SEGÚN EL MATERIALISMO HISTÓRICO.....................................................................................................................................................135 2.10.3. REFERENCIAS ...............................................................................................................................136 3. CAPITULO III: BASES PARA LA INVESTIGACIÓN CUANTITATIVA..................................................137 3.1. EL DISEÑO DE LA INVESTIGACIÓN .................................................................................................138 3.1.1. TIPOS DE DISEÑO............................................................................................................................138 3.1.2. DISEÑOS BIBLIOGRÁFICOS...........................................................................................................139 3.1.3. DISEÑOS DE CAMPO.......................................................................................................................141 3.1.4. DISEÑO EXPERIMENTAL ................................................................................................................141 3.1.5. EXPERIMENTOS POST - FACTO ....................................................................................................144 3.1.6. ENCUESTAS .....................................................................................................................................144 3.1.7. EL PANEL .........................................................................................................................................146 3.1.8. ESTUDIOS DE CASOS .....................................................................................................................147 3.1.9. EL DISEÑO CONCRETO DE LA INVESTIGACIÓN.........................................................................148 3.1.10. LA RESEÑA DE PROCEDIMIENTOS Y EL PROYECTO DE INVESTIGACIÓN ..........................148 3.1.11. REFERENCIAS ...............................................................................................................................149 3.2. LAS HIPÓTESIS ...................................................................................................................................150 3.2.1. REQUISITOS DE LAS HIPÓTESIS: .................................................................................................150 3.2.2. TIPOS DE HIPÓTESIS ......................................................................................................................151 3.2.3. DIFICULTADES PARA LA FORMULACIÓN DE HIPÓTESIS .........................................................153 3.2.4. UTILIDAD DE LAS HIPÓTESIS ........................................................................................................153 3.2.5. ESTRUCTURA DE LAS HIPÓTESIS ................................................................................................153 3.2.6. REFERENCIAS .................................................................................................................................154 3.3. LAS VARIABLES .................................................................................................................................155 3.3.1. ALGUNOS CRITERIOS PARA ESCOGER LOS INDICADORES ...................................................155 3.3.2. VARIABLE INDEPENDIENTE Y VARIABLE DEPENDIENTE.........................................................155 3.3.3. VARIABLE INTER Y VARIABLE INTRA ..........................................................................................156 3.3.4. VARIABLES EXTRAÑAS..................................................................................................................156 3.3.4.1. ELIMINACIÓN. ...............................................................................................................................156
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar iii
3.3.4.2. CONSTANCIA DE CONDICIONES................................................................................................156 3.3.4.3. BALANCEO ....................................................................................................................................157 3.3.4.4. CONTRABALANCEO ....................................................................................................................157 3.3.4.5. ALEATORIZACIÓN ........................................................................................................................157 3.3.5. VARIABLES CONTINUAS Y VARIABLES DISCRETAS.................................................................157 3.3.6. CAUSALIDAD ...................................................................................................................................157 3.3.7. REFERENCIAS .................................................................................................................................158 3.4. LA VARIABLE ......................................................................................................................................159 3.4.1. CLASES DE VARIABLES.................................................................................................................159 3.4.2. VARIABLES Y DIMENSIONES.........................................................................................................160 3.4.3. RELACIONES ENTRE VARIABLES ................................................................................................161 3.4.4. REFERENCIAS .................................................................................................................................163 3.5. EL PROBLEMA DE LA CAUSALIDAD ...............................................................................................164 3.5.1. TIPOS DE DETERMINACIÓN ...........................................................................................................165 3.5.2. REFERENCIAS .................................................................................................................................166 3.6. INDICADORES E ÍNDICES ..................................................................................................................167 3.6.1. CRITERIOS A CONSIDERAR PARA EL USO DE INDICADORES: ...............................................168 3.6.2. ESCALAS DE MEDICIÓN .................................................................................................................169 3.6.3. CLASES DE ESCALAS ....................................................................................................................170 3.6.4. CARACTERÍSTICAS DE LAS ESCALAS DE MEDICIÓN ...............................................................171 3.6.5. LOS ÍNDICES ....................................................................................................................................172 3.6.6. REFERENCIAS .................................................................................................................................177 3.7. POBLACIÓN Y MUESTRA ..................................................................................................................178 3.7.1. LEYES DEL MÉTODO DE MUESTREO...........................................................................................178 3.7.2. TIPOS DE MUESTRAS .....................................................................................................................179 3.7.3. REFERENCIAS .................................................................................................................................180 3.8. EL MUESTREO ....................................................................................................................................181 3.8.1. DATOS Y UNIDADES .......................................................................................................................182 3.8.2. UNIVERSO Y MUESTRA ..................................................................................................................183 3.8.3. MUESTRAS ALEATORIAS...............................................................................................................184 3.8.4. TAMAÑO DE LA MUESTRA Y ERROR MUESTRAL ......................................................................187 3.8.5. REFERENCIAS .................................................................................................................................188 3.9. MEDIDAS DE TENDENCIA CENTRAL Y DE DISPERSIÓN ..............................................................189 3.9.1. ESTADÍSTICA SUMARIA .................................................................................................................189 3.9.2. LA MEDIA ARITMÉTICA...................................................................................................................189 3.9.2.1. SÍMBOLOS CONVENCIONALES..................................................................................................189 3.9.2.2. CÁLCULO DE LA MEDIA A PARTIR DE DATOS NO AGRUPADOS. ........................................190 3.9.2.3. CODIFICACIÓN:.............................................................................................................................190 3.9.2.4. VENTAJAS Y DESVENTAJAS DE LA MEDIA ARITMÉTICA. .....................................................191 3.9.3. LA MEDIANA.....................................................................................................................................191 3.9.3.1. CÁLCULO DE LA MEDIANA A PARTIR DE DATOS NO AGRUPADOS: ...................................192 3.9.3.2. CÁLCULO DE LA MEDIANA A PARTIR DE DATOS AGRUPADOS: .........................................192 3.9.3.3. VENTAJAS Y DESVENTAJAS DE LA MEDIANA: .......................................................................193 3.9.4. LA MODA ..........................................................................................................................................193 3.9.4.1. CÁLCULO DE LA MODA DE DATOS AGRUPADOS: .................................................................193 3.9.4.2. VENTAJAS Y DESVENTAJAS DE LA MODA:.............................................................................194 3.9.4.3. COMPARACIÓN ENTRE LA MEDIA, LA MEDIANA Y LA MODA...............................................194 3.9.5. LA DISPERSIÓN ...............................................................................................................................195 3.9.5.1. MEDIDAS DE DISPERSIÓN. .........................................................................................................195 3.9.5.2. ALCANCE.......................................................................................................................................196 3.9.5.2.1. Alcance Interfractil.....................................................................................................................196 3.9.5.2.2. Alcance Intercuartil....................................................................................................................196 3.9.6. MEDIDAS DE DESVIACIÓN PROMEDIO ........................................................................................197 3.9.7. VARIANZA DE LA POBLACIÓN. .....................................................................................................197 3.9.7.1. DESVIACIÓN ESTÁNDAR DE LA POBLACIÓN ..........................................................................197 3.9.7.2. USOS DE LA DESVIACIÓN ESTÁNDAR......................................................................................198 3.9.7.3. CON MÁS PRECISIÓN: .................................................................................................................198 3.9.7.4. RESULTADO ESTÁNDAR:............................................................................................................198
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar iv
3.9.7.5. CÁLCULO DE LA VARIANZA Y LA DESVIACIÓN ESTÁNDAR UTILIZANDO DATOS AGRUPADOS: ................................................................................................................................................198 3.9.7.6. DESVIACIÓN ESTÁNDAR DE UNA MUESTRA:..........................................................................199 3.9.7.7. DISPERSIÓN RELATIVA: EL COEFICIENTE DE VARIACIÓN ...................................................199 3.9.7.8. CONCEPTOS .................................................................................................................................200 3.9.7.9. RECOMENDACIONES PRÁCTICAS: ...........................................................................................202 3.9.8. REFERENCIAS .................................................................................................................................202 3.10. INFERENCIA ESTADÍSTICA .............................................................................................................203 3.10.1. INTRODUCCIÓN AL MUESTREO ..................................................................................................203 3.10.1.1. CONDICIONES QUE DEBE REUNIR UNA MUESTRA: .............................................................203 3.10.1.2. ESTADÍSTICAS Y PARÁMETROS..............................................................................................203 3.10.2. PARÁMETROS Y ESTIMADORES.................................................................................................204 3.10.2.1. MUESTREO ALEATORIO............................................................................................................204 3.10.2.1.1. Muestreo Aleatorio Simple......................................................................................................204 3.10.2.1.2. Muestreo Sistemático. .............................................................................................................205 3.10.2.1.3. Muestreo Estratificado. ...........................................................................................................205 3.10.2.2. MUESTREO DE RACIMO ............................................................................................................206 3.10.3. INTRODUCCIÓN A LAS DISTRIBUCIONES DE MUESTREO......................................................207 3.10.3.1. DESCRIPCIÓN DE LAS DISTRIBUCIONES DE MUESTREO. ..................................................207 3.10.3.2. CONCEPTO DE ERROR ESTÁNDAR.........................................................................................207 3.10.3.3. USO DEL ERROR ESTÁNDAR. ..................................................................................................208 3.10.4. BASE CONCEPTUAL PARA MUESTREAR DISTRIBUCIONES. .................................................208 3.10.4.1. MUESTREO DE POBLACIONES NORMALES. .........................................................................208 3.10.4.2. MUESTREO DE POBLACIONES NO NORMALES. ...................................................................209 3.10.4.2.1. El teorema del límite central. ..................................................................................................209 3.10.4.2.2. Relación entre el tamaño de la muestra y el error estándar. ..............................................210 3.10.4.2.3. El multiplicador de la población finita. ..................................................................................211 3.10.5. ESTIMACIÓN...................................................................................................................................215 3.10.5.1. TIPOS DE ESTIMACIÓN..............................................................................................................215 3.10.5.2. ESTIMADOR Y ESTIMACIONES.................................................................................................216 3.10.5.3. CRITERIOS PARA SELECCIONAR UN BUEN ESTIMADOR....................................................216 3.10.5.4. ESTIMACIONES PUNTUALES....................................................................................................217 3.10.5.4.1. Estimación puntual de la varianza y de la desviación estándar de la población..............217 3.10.5.4.2. Estimación puntual de la porción de la población. ..............................................................218 3.10.5.5. ESTIMACIONES DE INTERVALO...............................................................................................218 3.10.5.5.1. Probabilidad de que el parámetro de la población esté dentro de la estimación. ............218 3.10.5.5.2. Estimaciones de intervalo e intervalos de confianza...........................................................219 3.10.5.5.3. Relación entre el nivel de confianza e intervalo de confianza. ...........................................219 3.10.5.5.4. Uso del muestreo y de la estimación de intervalos de confianza. .....................................219 3.10.5.5.5. Cálculo de estimaciones de intervalo de la media a partir de muestras grandes. ...........219 3.10.5.5.6. Cuando no se conoce la desviación estándar......................................................................220 3.10.6. DETERMINACIÓN DEL TAMAÑO DE LA MUESTRA. ..................................................................220 3.10.7. SUGERENCIAS:..............................................................................................................................220 3.10.8. CONCEPTOS. .................................................................................................................................221 3.10.9. PRUEBAS DE HIPÓTESIS .............................................................................................................222 3.10.9.1. INTRODUCCIÓN ..........................................................................................................................222 3.10.9.2. INTERPRETACIÓN DEL NIVEL DE SIGNIFICANCIA. ...............................................................222 3.10.9.3. SELECCIÓN DEL NIVEL DE SIGNIFICANCIA ...........................................................................223 3.10.9.3.1. Errores tipo I y tipo II. ..............................................................................................................223 3.10.9.3.2. Pruebas de hipótesis de dos extremos y de un extremo. ...................................................223 3.10.9.3.3. Medición de la potencia de una prueba de hipótesis...........................................................224 3.10.10. SUGERENCIAS:............................................................................................................................224 3.10.11. CONCEPTOS: ...............................................................................................................................225 3.10.12. INTRODUCCIÓN A LA ESTADÍSTICA NO PARAMÉTRICA ......................................................226 3.10.12.1. VENTAJAS DE LOS MÉTODOS NO PARAMÉTRICOS. .........................................................227 3.10.12.2. DESVENTAJAS DE LOS MÉTODOS NO PARAMÉTRICOS. ..................................................227 3.10.12.3. PRUEBA DE KOLMOGOROV.SMIRNOV. ................................................................................227 3.10.13. SUGERENCIAS:............................................................................................................................228 3.10.14. CONCEPTOS: ...............................................................................................................................228
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar v
3.10.15. REFERENCIAS .............................................................................................................................228 3.11. PROBABILIDAD.................................................................................................................................229 3.11.1. HISTORIA DE LA PROBABILIDAD ...............................................................................................229 3.11.2. CONCEPTOS BÁSICOS SOBRE PROBABILIDAD. .....................................................................229 3.11.3. TRES TIPOS DE PROBABILIDAD. ................................................................................................230 3.11.3.1. PROBABILIDAD CLÁSICA. ........................................................................................................230 3.11.3.2. FRECUENCIA RELATIVA DE PRESENTACIÓN........................................................................230 3.11.3.3. PROBABILIDADES SUBJETIVAS. .............................................................................................231 3.11.4. REGLAS DE PROBABILIDAD. ......................................................................................................232 3.11.4.1. REGLA DE LA ADICIÓN PARA EVENTOS MUTUAMENTE EXCLUYENTES. ........................232 3.11.4.2. REGLA DE ADICIÓN PARA EVENTOS QUE NO SON MUTUAMENTE EXCLUYENTES. ......233 3.11.4.3. PROBABILIDADES BAJO CONDICIONES DE INDEPENDENCIA ESTADÍSTICA. .................233 3.11.4.4. PROBABILIDADES MARGINALES BAJO INDEPENDENCIA ESTADÍSTICA. ........................233 3.11.4.5. PROBABILIDADES CONJUNTAS BAJO CONDICIONES DE INDEPENDENCIA....................233 3.11.4.6. PROBABILIDADES CONDICIONALES BAJO INDEPENDENCIA. ...........................................233 3.11.4.7. PROBABILIDADES BAJO CONDICIONES DE DEPENDENCIA ESTADÍSTICA......................234 3.11.4.8. PROBABILIDAD CONDICIONAL BAJO DEPENDENCIA ESTADÍSTICA. ...............................234 3.11.4.9. PROBABILIDADES CONJUNTAS BAJO CONDICIONES DE DEPENDENCIA. ......................234 3.11.5. CONCEPTOS: .................................................................................................................................235 3.11.6. REFERENCIAS ...............................................................................................................................235 3.12. VARIABLE ALEATORIA....................................................................................................................236 3.12.1. INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROBABILIDAD. .............................................236 3.12.2. TIPOS DE DISTRIBUCIONES DE PROBABILIDAD......................................................................236 3.12.3. VARIABLES ALEATORIAS. ...........................................................................................................236 3.12.3.1. VALOR ESPERADO DE UNA VARIABLE ALEATORIA............................................................237 3.12.3.2. TRATAMIENTO DE VARIABLES ALEATORIAS. ......................................................................237 3.12.3.2.1. Variables aleatorias discretas. ...............................................................................................237 3.12.3.2.2. Variables aleatorias continuas. ..............................................................................................238 3.12.3.2.3. Medidas características de una distribución de probabilidades. .......................................239 3.12.3.2.4. CONCEPTOS: ...........................................................................................................................239 3.12.4. REFERENCIAS ...............................................................................................................................240 3.13. DISTRIBUCIONES DE PROBABILIDAD...........................................................................................241 3.13.1. INTRODUCCIÓN. ............................................................................................................................241 3.13.2. LA DISTRIBUCIÓN BINOMIAL. .....................................................................................................241 3.13.2.1. USO DEL PROCESO DE BERNOULLI. ......................................................................................241 3.13.2.1.1. Generalizaciones: ....................................................................................................................242 3.13.2.1.2. Medidas de tendencia central y de dispersión para la distribución binomial. ..................242 3.13.2.1.3. Cumplimiento de las condiciones del proceso de Bernoulli. .............................................242 3.13.2.2. LA DISTRIBUCIÓN DE POISSON. ..............................................................................................242 3.13.2.2.1. Características de los procesos de distribución de probabilidad de Poisson. ................243 3.13.2.2.2. Cálculo de la probabilidad de Poisson. .................................................................................243 3.13.2.2.3. La distribución de Poisson como una aproximación a la distribución binomial..............244 3.13.3. LA DISTRIBUCIÓN NORMAL DE UNA VARIABLE ALEATORIA CONTINUA............................245 3.13.3.1. CARACTERÍSTICAS DE LA DISTRIBUCIÓN NORMAL DE PROBABILIDAD. ........................245 3.13.3.2. ÁREAS BAJO LA CURVA NORMAL. .........................................................................................245 3.13.3.3. USO DE LA TABLA DE DISTRIBUCIÓN DE PROBABILIDAD NORMAL ESTÁNDAR. ..........246 3.13.3.4. DEFECTOS DE LA DISTRIBUCIÓN NORMAL DE PROBABILIDAD. .......................................247 3.13.3.5. LA DISTRIBUCIÓN NORMAL COMO UNA APROXIMACIÓN DE LA DISTRIBUCIÓN BINOMIAL. ......................................................................................................................................................247 3.13.4. DISTRIBUCIÓN EXPONENCIAL. ...................................................................................................248 3.13.4.1. TEOREMA DEL LÍMITE CENTRAL.............................................................................................248 3.13.4.2. IDENTIFICACIÓN DEL MODELO APROPIADO. ........................................................................250 3.13.4.3. CONCEPTOS. ..............................................................................................................................250 3.13.5. REFERENCIAS ...............................................................................................................................252 3.14. NÚMEROS ÍNDICES ..........................................................................................................................253 3.14.1. DEFINICIÓN DE UN NÚMERO ÍNDICE..........................................................................................253 3.14.2. TIPOS DE NÚMEROS ÍNDICE........................................................................................................253 3.14.3. USOS DE LOS NÚMEROS ÍNDICE................................................................................................253 3.14.4. PROBLEMAS RELACIONADOS CON LOS NÚMEROS ÍNDICE. ................................................254
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar vi
3.14.4.1. ÍNDICE DE AGREGADOS NO PESADOS. .................................................................................254 3.14.4.2. ÍNDICE DE AGREGADOS PESADOS.........................................................................................255 3.14.5. MÉTODOS DE PROMEDIO DE RELATIVOS.................................................................................256 3.14.5.1. MÉTODO DE PROMEDIO NO PESADO DE RELATIVOS. ........................................................256 3.14.5.2. MÉTODO DE PROMEDIO PESADO DE RELATIVOS................................................................256 3.14.6. ÍNDICES DE CANTIDAD Y VALOR................................................................................................257 3.14.6.1. ÍNDICES DE CANTIDAD..............................................................................................................257 3.14.6.2. ÍNDICES DE VALOR. ...................................................................................................................257 3.14.7. PROBLEMAS EN LA CONSTRUCCIÓN Y EN EL USO DE NÚMEROS ÍNDICE. ........................257 3.14.7.1. PROBLEMAS EN LA CONSTRUCCIÓN.....................................................................................257 3.14.7.2. ADVERTENCIA EN LA INTERPRETACIÓN DE UN ÍNDICE......................................................258 3.14.7.3. CONCEPTOS: ..............................................................................................................................258 3.14.8. REFERENCIAS ...............................................................................................................................259 3.15. RECOLECCIÓN DE LOS DATOS .....................................................................................................260 3.15.1. INDICADORES, TÉCNICAS E INSTRUMENTOS. .........................................................................260 3.15.2. DATOS PRIMARIOS Y SECUNDARIOS. .......................................................................................261 3.15.3. TÉCNICAS DE RECOLECCIÓN DE DATOS PRIMARIOS............................................................261 3.15.3.1. LA OBSERVACIÓN CIENTÍFICA. ...............................................................................................262 3.15.3.1.1. Observación simple y participante. .......................................................................................263 3.15.3.1.2. Registro y formalización de la observación..........................................................................265 3.15.3.2. LA ENTREVISTA..........................................................................................................................267 3.15.3.2.1. Entrevistas no estructuradas: ................................................................................................268 3.15.3.2.2. Entrevistas formalizadas: .......................................................................................................270 3.15.3.3. EL CUESTIONARIO AUTOADMINISTRADO..............................................................................271 3.15.3.3.1. Tipos de cuestionarios. ...........................................................................................................273 3.15.3.3.2. Listas de preferencias y ordenamientos de opciones:........................................................274 3.15.3.4. SOCIOGRAMA. ............................................................................................................................274 3.15.3.5. TESTS PSICOLÓGICOS..............................................................................................................275 3.15.3.6. TÉCNICAS PROYECTIVAS. ........................................................................................................275 3.15.3.7. ESCALAS Y DIFERENCIALES SEMÁNTICOS. .........................................................................275 3.15.3.8. ANÁLISIS DE CONTENIDO.........................................................................................................276 3.15.4. RECOLECCIÓN DE DATOS SECUNDARIOS. ..............................................................................277 3.15.5. REFERENCIAS ...............................................................................................................................279 3.16. OBTENCIÓN Y ORDENAMIENTO DE DATOS.................................................................................280 3.16.1. POBLACIÓN Y MUESTRA. ............................................................................................................280 3.16.2. ORDENAMIENTO DE DATOS. .......................................................................................................280 3.16.3. RECOLECCIÓN DE DATOS:..........................................................................................................280 3.16.3.1. DIFERENCIA ENTRE MUESTRAS Y POBLACIONES: .............................................................281 3.16.3.2. BÚSQUEDA DE UN PATRÓN SIGNIFICATIVO EN LOS DATOS: ............................................282 3.16.3.3. DATOS SIN PROCESAR: ............................................................................................................282 3.16.3.4. ORDENAMIENTO DE DATOS UTILIZANDO SU ARREGLO Y DISTRIBUCIÓN DE FRECUENCIAS: .............................................................................................................................................283 3.16.3.4.1. La distribución de frecuencias. ..............................................................................................283 3.16.3.4.2. Características de las distribuciones de frecuencias relativas. .........................................283 3.16.3.5. CONSTRUCCIÓN DE UNA DISTRIBUCIÓN DE FRECUENCIAS: ............................................284 3.16.3.6. REPRESENTACIÓN GRÁFICA DE LAS DISTRIBUCIONES DE FRECUENCIAS: ..................285 3.16.3.6.1. Histogramas. ............................................................................................................................285 3.16.3.6.2. Polígonos de frecuencias. ......................................................................................................286 3.16.3.6.3. Ojivas. .......................................................................................................................................287 3.16.3.7. TRATAMIENTO DE UNA VARIABLE DISCRETA: .....................................................................287 3.16.4. CONCEPTOS: .................................................................................................................................288 3.16.5. REFERENCIAS ...............................................................................................................................290 3.17. REGISTRO DE LA INFORMACIÓN. MODELOS DE FICHAS..........................................................291 3.17.1. FICHA BIBLIOGRÁFICA.................................................................................................................291 3.17.2. FICHA DE DIARIOS Y REVISTAS..................................................................................................292 3.17.3. FICHA DE TESIS.............................................................................................................................292 3.17.4. FICHA DE PUBLICACIÓN OFICIAL...............................................................................................293 3.17.5. FICHA DE TEXTOS JURÍDICOS. ...................................................................................................293 3.17.6. FICHA DE DOCUMENTOS NACIONALES. ...................................................................................293
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar vii
3.17.7. FICHA DE DOCUMENTOS INTERNACIONALES. ........................................................................294 3.17.8. FICHA DE REGISTRO DE OBRAS DE RECOPILACIÓN DE CONSTITUCIONES O LEYES. ....294 3.17.9. FICHA DE REGISTRO DE PACTOS, ACUERDOS O TRATADOS INTERNACIONALES...........294 3.17.10. FICHA DE ARTÍCULOS CONTENIDOS EN LIBROS O ENCICLOPEDIAS................................295 3.17.11. FICHA DE CAMPO........................................................................................................................295 3.17.12. FICHA DE NOTICIARIO. ...............................................................................................................295 3.17.13. FICHA DE INSTITUCIÓN. .............................................................................................................295 3.17.14. FICHA DE REGISTRO DE INFORMACIÓN DE MAPAS, DIBUJOS, FOTOGRAFÍAS...............296 3.17.15. FICHA DE TRABAJO....................................................................................................................296 3.17.16. FICHA DE TRANSCRIPCIÓN TEXTUAL. ....................................................................................297 3.17.17. FICHA DE SÍNTESIS.....................................................................................................................297 3.17.18. FICHAS METODOLÓGICAS. .......................................................................................................297 3.17.19. REFERENCIAS .............................................................................................................................298 3.18. ANÁLISIS CUANTITATIVO................................................................................................................299 3.18.1. LA LÓGICA DE ESTUDIAR CANTIDADES ...................................................................................299 3.18.2. CLASIFICAR ...................................................................................................................................301 3.18.3. ANALIZAR VARIABLES INDIVIDUALES ......................................................................................303 3.18.4. ANALIZAR LAS RELACIONES ENTRE VARIABLES...................................................................307 3.18.5. REFERENCIAS ...............................................................................................................................320 4. CAPITULO IV: BASES PARA LA INVESTIGACIÓN CUALITATIVA ....................................................321 4.1. LA NATURALEZA DE LA INVESTIGACIÓN CUALITATIVA .............................................................322 4.1.1. COMPRENSIÓN MEDIANTE LA EXPERIENCIA: ...........................................................................323 4.1.2. LA INTERPRETACIÓN COMO MÉTODO. .......................................................................................326 4.1.3. OTRAS CARACTERÍSTICAS DE LA INESTIGACIÓN CUALITATIVA. ..........................................328 4.1.4. RECONOCIMIENTO DE CULPAS. ...................................................................................................329 4.2. UN INVESTIGADOR PRINCIPIANTE ..................................................................................................332 4.3. LA OBSERVACIÓN..............................................................................................................................338 4.3.1. OBSERVACIÓN PARTICIPANTE: ...................................................................................................338 4.3.2. OBSERVACIÓN NO PARTICIPANTE: .............................................................................................339 4.3.3. OBSERVACIÓN LIBRE O NO ESTRUCTURADA: ..........................................................................339 4.3.4. OBSERVACIÓN ESTRUCTURADA: ................................................................................................340 4.3.5. REFERENCIAS .................................................................................................................................340 4.4. LA INVESTIGACIÓN ETNOGRÁFICA: ...............................................................................................341 4.4.1. ¿QUÉ ES LA ETNOGRAFÍA?...........................................................................................................341 4.4.2. ¿CUÁL ES EL ALCANCE DE LA ETNOGRAFÍA? ..........................................................................342 4.4.3. ¿CUÁLES SON LAS CARACTERÍSTICAS DE LA ETNOGRAFÍA?...............................................343 4.4.4. ¿QUÉ ES "LO CIENTÍFICO"? ..........................................................................................................345 4.4.5. ¿QUÉ ES "LO OCULTO" EN UNA INVESTIGACIÓN? ...................................................................346 4.4.6. ¿QUÉ ES "LO CUALITATIVO" Y "LO CUANTITATIVO"?..............................................................348 4.4.7. ¿QUÉ EXPERIENCIAS TENEMOS EN INVESTIGACIÓN ETNOGRÁFI-CA?................................349 4.4.8. ¿QUÉ ME PROPONGO CON ESTA INVESTIGACIÓN? .................................................................350 4.4.9. ¿CUÁLES SON LAS VIVENCIAS OBTENIDAS? ............................................................................350 4.4.10. ¿CUÁLES SON MIS EXPECTATIVAS? .........................................................................................352 4.4.11. EN EL CAMPO DE LOS VALORES EN EDUCACIÓN SUPERIOR (LOURDES DENIS) .............352 4.4.12. REFERENCIAS ...............................................................................................................................356 4.5. INVESTIGACION-ACCION PARTICIPATIVA......................................................................................358 4.5.1. CONCEPTO .......................................................................................................................................359 4.5.2. PRESUPUESTOS EPISTÉMICOS....................................................................................................359 4.5.2.1. RELACIÓN SUJETO-OBJETO ......................................................................................................360 4.5.2.2. TOMA DE CONCIENCIA................................................................................................................360 4.5.2.3. PARTICIPACIÓN............................................................................................................................361 4.5.2.4. REDESCUBRIMIENTO DEL SABER POPULAR..........................................................................362 4.5.2.5. CIENTIFICIDAD..............................................................................................................................364 4.5.3. ASPECTOS METODOLÓGICOS ......................................................................................................365 4.5.3.1. ETAPA INICIAL ..............................................................................................................................366 4.5.3.2. ESTRUCTURACIÓN DE LA IAP: NEGOCIAR PARA CONSTRUIR EL PROGRAMA................367 4.5.3.3. DESARROLLAR Y EVALUAR LO REALIZADO ..........................................................................368 4.5.4. REFERENCIA ....................................................................................................................................368 4.6. LA TRIANGULACIÓN ..........................................................................................................................371
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar viii
4.6.1. LA VALIDACIÓN ...............................................................................................................................371 4.6.2. OBJETIVOS DE LA TRIANGULACIÓN ...........................................................................................373 4.6.3. ESTRETEGIAS DE LA TRIANGULACIÓN.......................................................................................375 4.6.4. REVISIÓN DE LOS INTERESADOS ................................................................................................377 4.7. LA COMPLEMENTARIEDAD COMO POSIBILIDAD EN LA ESTRUCTURACIÓN DE DISEÑOS DE INVESTIGACIÓN CUALITATIVA ...................................................................................................................379 4.7.1. RESUMEN .........................................................................................................................................379 4.7.2. UN DISEÑO DESDE LA COMPLEMENTARIEDAD.........................................................................380 4.7.3. DISEÑO METODOLÓGICO ..............................................................................................................386 4.7.4. ESTRUCTURA DEL DISEÑO DE INVESTIGACIÓN........................................................................387 4.7.4.1. PRIMER MOMENTO (PRECONFIGURACIÓN) ............................................................................387 4.7.4.2. SEGUNDO MOMENTO: PLAN DE CONFIGURACIÓN ................................................................388 4.7.4.3. EN EL TERCER MOMENTO O RECONFIGURACIÓN .................................................................389 4.7.5. REFERENCIAS .................................................................................................................................391 4.8. ANÁLISIS CUALITATIVO ....................................................................................................................392 4.9. LA INVESTIGACIÓN COMO UNA ACTIVIDAD EN EL AULA ...........................................................411 4.10. REFLEXIONES EPISTEMOLÓGICAS SOBRE LA INVESTIGACIÓN CUALITATIVA EN CIENCIAS SOCIALES ......................................................................................................................................................414 4.10.1. INTRODUCCIÓN .............................................................................................................................414 4.10.2. ESTRATEGIAS ALTERNATIVAS PARA LA INVESTIGACIÓN CUALITATIVA...........................415 4.10.2.1. ANÁLISIS DE CONTENIDO (CLÁSICO) .....................................................................................415 4.10.2.2. ANÁLISIS DE CONTENIDO (ETNOGRÁFICO)...........................................................................416 4.10.2.3. ANÁLISIS DEL DISCURSO .........................................................................................................416 4.10.2.4. ESTUDIOS DE DOCUMENTOS, HISTORIAS DE VIDA E HISTORIA ORAL ............................416 4.10.2.5. ETNOGRAFÍA (CLÁSICA, HOLÍSTICA, REFLEXIVA) ...............................................................416 4.10.2.6. ETNOGRAFÍA (ESTRUCTURAL) ................................................................................................416 4.10.2.7. ETNOGRAFÍA DE LA COMUNICACIÓN (MICROETNOGRAFÍA) .............................................417 4.10.2.8. ETNOMETODOLOGÍA .................................................................................................................417 4.10.2.9. ETNOCIENCIA (ANTROPOLOGÍA COGNITIVA) .......................................................................417 4.10.2.10. ANÁLISIS DE LA ESTRUCTURA DE EVENTOS .....................................................................417 4.10.2.11. "GROUNDED THEORY CONSTRUCTION" .............................................................................418 4.10.2.12. INTERACCIONISMO SIMBÓLICO ............................................................................................418 4.10.3. NUEVAS EXPERIENCIAS DE GABINETE Y FORMAS DE RAZONAMIENTO EN LA INVESTIGACIÓN CUALITATIVA ...................................................................................................................419 4.10.3.1. PLURALIDAD DE VOCES Y LA UTILIZACIÓN DE HIPERTEXTOS .........................................420 4.10.3.2. HACIA UNA LÓGICA DEL RAZONAMIENTO HIPOTÉTICO EN INVESTIGACIÓN CUALITATIVA.................................................................................................................................................422 4.10.4. A MODO DE CONCLUSIÓN: PROBLEMAS EPISTEMOLÓGICOS EMERGENTES DE LA INVESTIGACIÓN CUALITATIVA ASISTIDA POR COMPUTADORA. .........................................................426 4.10.5. REFERENCIAS ...............................................................................................................................427 4.11. INVESTIGACIÓN CUALITATIVA Y TEXTUALIDAD LA INTERPRETACIÓN COMO PRÁCTICA SOCIOLÓGICA ...............................................................................................................................................429 4.11.1. RESUMEN .......................................................................................................................................429 4.11.2. ACTIVIDAD SOCIOLÓGICA Y TEXTUALIDAD MÁS ALLÁ DE LA APORÍA CUALITATIVO-CUANTITATIVO ..............................................................................................................................................429 4.11.3. DATOS, NARRACIÓN E INTERPRETACIÓN ................................................................................431 4.11.3.1. MANIFESTACIONES, PROPOSICIONES E INTERPRETACIÓN ..............................................431 4.11.3.2. DATO Y DOCUMENTO SOCIOLÓGICO .....................................................................................433 4.11.4. LA INTERPRETACIÓN COMO PRÁCTICA SOCIOLÓGICA.........................................................434 4.11.5. A MODO DE CONCLUSIÓN: LA INTERPRETACIÓN ENTRE LA EPISTEMOLOGÍA Y LA METODOLOGÍA .............................................................................................................................................437 4.11.6. REFERENCIAS ...............................................................................................................................439 5. CAPITULO V: ELEMENTOS PARA LA ELABORACIÓN DEL INFORME DE INVESTIGACIÓN ........442 5.1. INVESTIGACION CIENTIFICA Y ESCRITURA CIENTIFICA..............................................................443 5.1.1. DESAFIOS PARA EL INVESTIGADOR: ..........................................................................................443 5.1.2. PREGUNTAS CLAVES PARA ANTES DE SENTARSE A ESCRIBIR UN ARTICULO: ................443 5.1.3. COMO ORGANIZAR LOS PENSAMIENTOS PLANIFICACION: PRIMER PASO HACIA LA COMPETENCIA: .............................................................................................................................................443 5.1.4. FORMAS DE ESCRITURA TECNICO-CIENTIFICA: .......................................................................444
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar ix
5.1.5. CRITERIOS PARA ESCRITURA EFECTIVA ...................................................................................444 5.1.6. COMO EVITAR LAS FALTAS MAS COMUNES EN LOS INFORMES ...........................................444 5.1.7. PROCESO DE ESCRITURA: ............................................................................................................445 5.1.8. COMO CONSTRUIR ORACIONES GRAMATICALES EFECTIVAS: ..............................................445 5.1.9. ESTILO EDITORIAL:.........................................................................................................................446 5.1.10. FALTAS FRECUENTES QUE CONSTITUYEN CAUSAS DE RECHAZO DE ARTICULOS TECNICO - CIENTIFICOS. .............................................................................................................................447 5.1.10.1. FALTAS RELACIONADAS CON EL CONTENIDO DE LA INVESTIGACION ...........................447 5.1.10.2. FALTAS RELACIONADAS CON EL INFORME DE LA INVESTIGACION ................................447 5.1.11. ASPECTOS PARA UNA LECTURA INTELIGENTE: .....................................................................447 5.1.11.1. SELECCIÓN .................................................................................................................................447 5.1.11.2. EVALUACION DE CALIDAD .......................................................................................................447 5.1.11.3. ACCESO A LA LITERATURA .....................................................................................................447 5.2. CÓMO ESCRIBIR UN ARTÍCULO CIENTÍFICO .................................................................................448 5.2.1. LA ESTRUCTURA DE UN ARTÍCULO ORIGINAL ..........................................................................448 5.2.1.1. INTRODUCCIÓN ............................................................................................................................448 5.2.1.2. MATERIAL Y MÉTODOS ...............................................................................................................448 5.2.1.3. RESULTADOS ...............................................................................................................................449 5.2.2. OTROS ASPECTOS DEL ARTÍCULO..............................................................................................450 5.2.3. COMPROBACIÓN DE ERRORES ....................................................................................................452 5.3. EPISTEMOGRAFÍAS. LA ESCRITURA DE LOS RESULTADOS DE INVESTIGACIÓN ..................454 5.3.1. RESUMEN .........................................................................................................................................454 5.3.2. INTRODUCCIÓN ...............................................................................................................................454 5.3.3. EL ASPECTO EPISTÉMICO: EL ENCUADRE POLÍTICO DE LA ESCRITURA ............................458 5.3.4. EL ASPECTO METÓDICO: LA CONSTRUCCIÓN DEL OBJETO-LA DECONSTRUCCIÓN DEL SUJETO-LA CONSTRUCCIÓN DEL SUJETO-LA DECONSTRUCCIÓN DEL OBJETO ............................461 5.3.5. REFERENCIAS .................................................................................................................................463 5.3.6. NOTAS...............................................................................................................................................464 5.4. GUIA PARA LA REDACCION DE ARTICULOS CIENTIFICOS DESTINADOS A LA PUBLICACION 466 5.4.1. INTRODUCCION ...............................................................................................................................467 5.4.2. PREAMBULO ....................................................................................................................................468 5.4.3. CATEGORIAS DE ARTICULOS .......................................................................................................468 5.4.3.1. MEMORIAS CIENTÍFICAS ORIGINALES .....................................................................................468 5.4.3.2. PUBLICACIONES SECUNDARIAS Y SERVICIOS DE INFORMACIÓN......................................469 5.4.3.3. ESTUDIOS RECAPITULATIVOS...................................................................................................469 5.4.4. REGLA CONTRA LA DUPLICACION DE PUBLICACIONES .........................................................469 5.4.5. ELEMENTOS CONSTITUTIVOS DEL MANUSCRITO.....................................................................470 5.4.6. ESTILO DE PRESENTACION ..........................................................................................................471 5.4.7. CITAS Y REFERENCIAS ..................................................................................................................472 5.4.8. BIBLID (IDENTIFICACION BIBLIOGRAFICA).................................................................................473 5.4.9. PREPARACION DE RESUMENES ANALITICOS ...........................................................................474 5.4.10. TERMINOLOGIA Y NOMENCLATURA..........................................................................................476 5.4.11. PREPARACION DE CUADROS .....................................................................................................476 5.4.12. PREPARACION DE ILUSTRACIONES ..........................................................................................477 5.4.13. FORMA DE PRESENTACIÓN ........................................................................................................478 5.4.14. RECOMENDACIONES COMPLEMENTARIAS A LOS JEFES DE REDACCIÓN. .......................479 5.4.15. NORMAS RELATIVAS A LAS PUBLICACIONES CIENTÍFICAS. ................................................480 5.4.16. LISTA DE ABREVIATURAS. ..........................................................................................................482 5.5. REFERENCIAS BIBLIOGRAFICAS ELEMENTOS ESENCIALES.....................................................483 5.5.1. ALCANCE Y DEFINICIÓN ................................................................................................................483 5.5.2. FORMAS DE REFERENCIAS...........................................................................................................483 5.5.3. INDICADORES QUE HAN DE FIGURAR EN LA REFERENCIA. ...................................................483 5.5.3.1. LIBROS ( U OTROS TRABAJOS PUBLICADOS SEPARADAMENTE) EJEMPLO: .................483 5.5.3.2. PERIÓDICOS (U OTRAS PUBLICACIONES EN SERIE) .............................................................484 5.5.4. ORDEN DE LAS INDICACIONES.....................................................................................................485 5.5.4.1. AUTORES.......................................................................................................................................485 5.5.4.2. TÍTULO ...........................................................................................................................................485 5.6. CITAS A PIE DE PÁGINA ....................................................................................................................487
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar x
5.6.1. IBID ....................................................................................................................................................487 5.6.2. OP. CIT. .............................................................................................................................................487 5.6.3. LOC. CIT ............................................................................................................................................487 5.7. FALTAS FRECUENTES DE RECHAZO DE ARTICULOS TECNICO-CIENTIFICOS ........................489 5.7.1. FALTAS RELACIONADAS CON EL CONTENIDO DE LA INVESTIGACION ................................489 5.7.1.1. FASE CONCEPTUAL DE LA INVESTIGACIÓN ...........................................................................489 5.7.1.2. FASE EMPÍRICA DE LA INVESTIGACIÓN...................................................................................490 5.7.1.3. FASE INTERPRETATIVA DE LA INVESTIGACIÓN .....................................................................491 5.7.2. FALTAS RELACIONADAS CON EL INFORME DE LA INVESTIGACION .....................................492 5.7.2.1. ESTRUCTURA DEL ARTÍCULO ...................................................................................................492 5.7.2.2. ESTILO DEL ARTÍCULO ...............................................................................................................493 5.7.3. CLAVE DE RESPUESTAS................................................................................................................494 6. CAPITULO VI: ELEMENTOS PARA LA EVALUACIÓN DE RESULTADOS........................................496 6.1. EVALUAR LOS RESULTADOS ..........................................................................................................497 6.1.1. FACTUALIDAD Y CREDIBILIDAD ...................................................................................................497 6.1.1.1. CREDIBILIDAD DE LAS CONCLUSIONES CUALITATIVAS ......................................................498 6.1.1.2. CREDIBILIDAD DE LAS CONCLUSIONES CUANTITATIVAS....................................................503 6.1.1.2.1. Prueba Chi ..................................................................................................................................505 6.1.1.2.2. Prueba Cochran Q......................................................................................................................508 6.1.1.2.3. Prueba Wilcoxon ........................................................................................................................510 6.1.1.2.4. La prueba t ..................................................................................................................................511 6.1.2. REFERENCIAS .................................................................................................................................512 6.2. UTILIDAD DE LOS RESULTADOS Y APLICACIÓN PRÁCTICA ......................................................513 6.2.1. VENTAJAS E INCONVENIENTES PARA LAS PERSONAS DEL EXTERIOR...............................513 6.2.2. REFERENCIAS .................................................................................................................................516 6.3. EL INFORME DE INVESTIGACIÓN ....................................................................................................517 6.3.1. PARTES DE UN INFORME DE INVESTIGACIÓN ...........................................................................517 6.3.2. ESCRIBIR EL INFORME...................................................................................................................521 6.3.3. MAQUETADO Y CONFECCIÓN DE ÍNDICES .................................................................................523 6.3.4. REFERENCIAS .................................................................................................................................526
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar xi
ÍNDICE DE TABLAS Pág.
Tabla 1: Diagrama de Gantt ...............................................................................................13 Tabla 2: Características de las Macroorientaciones Metodológicas .................................110 Tabla 3: Técnicas y procedimientos de investigación.......................................................112 Tabla 4: Desgloce de estudio y aspectos de la investigación...........................................129 Tabla 5: Especificación de escala ....................................................................................173 Tabla 6: Ejemplo de escala para observación ..................................................................266 Tabla 7: Ejemplo de escalas de opinión ...........................................................................276 Tabla 8: Símbolos habituales en tablas............................................................................302 Tabla 9: Analisis de variables por escala .........................................................................303 Tabla 10: Analisis de variables por escala........................................................................308 Tabla 11: Ejemplo de escala ............................................................................................312 Tabla 12: Caracteristicas de los estudios .........................................................................394 Tabla 13: Tabulación Cruzada..........................................................................................401 Tabla 14: Fases de una familia.........................................................................................402 Tabla 15: Comprobaciones estadísticas...........................................................................505 Tabla 16: fórmula de la prueba Cochran ..........................................................................509
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar xii
ÍNDICE DE ILUSTRACIONES Pág.
Ilustración 6: Ejemplo me dedidas de tendencia central...................................................305 Ilustración 7: Presentación grafica diagramica .................................................................309 Ilustración 8: Dispercigrama .............................................................................................309 Ilustración 9: Diagrama de barras en series .....................................................................310 Ilustración 10: Histograma de medias ..............................................................................311 Ilustración 11: Ejemplo no adecuado de diagramación ....................................................312 Ilustración 12: Disoercigrama ...........................................................................................313 Ilustración 13: Ejemplo de proyecciones ..........................................................................316 Ilustración 14: Ejemplo de proyecciones ..........................................................................317 Ilustración 15: Diagrama de disperción ............................................................................318 Ilustración 16: Metodo fenomenologico ............................................................................397 Ilustración 17: Clasificación de ornamentación.................................................................402 Ilustración 18: Clasificación de simbolos ..........................................................................402 Ilustración 19: Beneficios del proceso de investigación....................................................513
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar xiii
ÍNDICE DE IMÁGENES Pág.
Imagen 1: David Hume( 1711-1776) .................................................................................47 Imagen 2: Immanuel Kant (1724-1804) .............................................................................47 Imagen 3: Claude Saint-Simon (1760-1825) .....................................................................48 Imagen 4: Augusto Comte(1798-1857) .............................................................................50 Imagen 5: Herbet Spencer (1820-1903) ............................................................................51 Imagen 6: John Stuart Mill (1806-1873) ............................................................................52 Imagen 7: Ejemplo de observación .................................................................................108 Imagen 8: Comparaciones cualitativas............................................................................399
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 1
PROEMIO
Este Dossier de temas de investigación pretende apoyar la formación de los diplomantes
en Investigación Científica y Técnica de la División de Programas de Maestría de la
Escuela de Comando y Estado Mayor de la Universidad Militar de las FF.AA., de la
Nación, poniendo a su disposición una compilación de fundamentos de investigación,
marcos epistemológicos, modelos metodológicos e instrumentales que hacen al proceso
de la investigación en las diferentes Ciencias del que hacer cotidiano.
El material que se brinda es una compilación de temas básicos para la investigación, que
recupera el aporte de la producción intelectual de destacados autores registrados en
diferentes Páginas Web del Internet, por lo que al final de cada tema, aparecen registradas
las direcciones del correo electrónico en las que los Investigadores en formación pueden
consultar para profundizar sobre los contenidos de su interés.
En dicho entendido agradeceré el desprendimiento de los beneficiarios en socializar y
posibilitar la publicación de este compendio de temas de investigación, que sin duda
constituirá un elemento motivador y regulador del conocimiento y la práctica investigativa.
Doctorante Ph. D. Jesús Demis Zuna Aguilar COMPILADOR
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 2
1. CAPITULO I: GUÍA PARA LA ELABORACIÓN DEL PERFIL DE INVESTIGACIÓN
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 3
1.1. INDICACIONES GENERALES PARA EL QUE INICIA UN PROYECTO DE INVESTIGACIÓN
Tulio Arends y Virginia Urquidi
Es muy difícil hacer indicaciones teóricas de lo que debe o puede investigar un joven
investigador o cómo puede iniciarse en la investigación científica un profesional de
experiencia.
Es imposible cubrir todas las variables que se pueden presentar en estos casos y por lo
menos sería interminable tratar de enfocar todas las alternativas. Pero sí es posible dar
algunos principios muy generales, nacidos de la experiencia, que en cierta manera
orienten al que se inicia en estos campos.
1. El tema a escoger depende de algunos factores muy concretos:
a) Preparación o especialización de la persona. El que se inicia en la investigación
debe hacerlo en aquel campo en que está mejor preparado. No se compagina un
endocrinólogo, por ejemplo, que de golpe quiera iniciarse en investigaciones
gastroenterológicas, o viceversa. Tampoco se ve bien que un clínico se quiera
iniciar con un problema de ingeniería genética.
b) Se deben estudiar aquellos casos o fenómenos que se presenten con cierta
frecuencia. No se hace buena elección cuando se escoge una o dos veces al año.
Tampoco se gana mucho escogiendo como tema de estudio una enfermedad que
no existe en Venezuela, por ejemplo, la enfermedad del sueño o el Kurú, por muy
interesantes que sean.
c) Se debe escoger para iniciarse un tema que atraiga profundamente al que va a
comenzar, sobre todo para que no se desanime cuando surjan los primeros
obstáculos.
d) No es prudente iniciarse con un tema extraordinariamente complicado, a menos
que se tenga un enfoque muy original que prometa resultados a corto plazo. Nadie
debe iniciarse, por ejemplo, estudiando la causa del cáncer o la cura de la
leucemia. Es más sensato iniciarse con un tema que puede ser estudiado, de
acuerdo con el tiempo que se le dedique, en el plazo de un año o menos, para que
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 4
los resultados que se obtengan sirvan de estímulo a seguir hacia otros temas más
complicados.
e) El tema a escoger debe estar relacionado con la infraestructura de laboratorio de
que se disponga. Iniciarse en ingeniería genética requiere hacer grandes
inversiones en equipo y consumo, mientras que trabajar en diagnóstico, en etiología
o en farmacología tal vez no sea tan dispendioso.
f) Relacionar el tema a escoger con las tareas prioritarias determinadas para la región
donde se va a hacer el trabajo, es una sana política.
g) La posibilidad de integrarse a un equipo de investigación ya formado y en plena
actividad, es una sana decisión. El joven investigador tendría la oportunidad de
colaborar en un proyecto que se supone habrá pasado por varios filtros, tratando de
completar algún aspecto de dicho proyecto. Si se trabaja en una línea de
investigación ya acreditada, cualquier resultado que se obtenga, será interpretado
en el contexto de hallazgos afines importantes. Además, habrá mayor garantía de
obtener resultados en el menor tiempo posible.
2. Elegido el tema, es necesario definir con precisión el objeto de la investigación,
realizando un estudio analítico de la observación que le ha dado origen y de las
preguntas que origina su planteamiento. Se debe elaborar una hipótesis de trabajo y
esquematizar un diseño de los pasos a dar para comprobarla.
3. Es conveniente establecer o definir etapas parciales dentro del proyecto total,
asignando una utilización de recursos y un tiempo estimado para que cada etapa sea
culminada. Una planificación hecha así permite en primer lugar un ajuste más riguroso
de las metas u objetivos del trabajo a la disponibilidad real de los recursos. En
segundo lugar, resultará más fácil y económico encontrar y subsanar algún posible
error producido en el desarrollo del trabajo, si la revisión se efectúa a nivel de
contenidos y procedimientos parciales.
4. En una planificación bien hecha cabe prever más de una vía alternativa para abordar
un problema determinado, de forma que si la evaluación de los resultados parciales,
producto de una estrategia de investigación, no es satisfactoria, exista la posibilidad de
desarrollar alguna otra de las previstas, evitando la pérdida definitiva de esfuerzos y de
inversión en tiempo y recursos.
5. Un plan de trabajo debe contemplar el tratamiento estadístico más adecuado de los
parámetros involucrados en cada problema. En este sentido el número de casos a
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 5
incluir en el estudio, la cantidad de variables posibles en una experimentación y el
número de veces que debe repetirse un experimento para considerar válido un
resultado, debe ser objeto de una definición metodológica previa.
6. La continuación del trabajo iniciado depende de los fondos disponibles y de la
voluntad. Antes de iniciar un trabajo de investigación debe aclararse de dónde van a
salir los gastos de consumo que originará tal proyecto y si es posible calcular estos
gastos hasta lo más cerca de la realidad.
7. Hay instituciones y fundaciones que dan financiamiento a los proyectos en el campo
biomédico, especialmente debemos mencionar al CONICIT y a la Fundación Vargas.
Ese financiamiento debe ser solicitado con anticipación, antes de iniciar el trabajo.
8. Antes de iniciar el trabajo durante el curso de los experimentos, se debe tener una
buena información bibliográfica a la mano, para no repetir sin fundamento alguno lo
que ya está investigado y también para saber si mientras se está investigando sale
alguna técnica que facilite o acelere el trabajo que se está ejecutando.
9. Pensar siempre que lo que se está haciendo terminará formalmente en una
publicación. Investigación que no se publique es trabajo perdido.
10. No ocultar extremadamente lo que se está haciendo y obteniendo por el peligro de que
alguien lo conozca, pero tampoco ir al extremo opuesto de prestar los resultados para
que alguien los utilice. El prestigio del investigador se basa en la prioridad, es decir en
quien primero descubra o describa un nuevo fenómeno o conocimiento.
11. Como autores de una publicación no debe figurar sino realmente los que han trabajado
en ella. Recordar que los créditos de una publicación se reparten entre el número de
autores.
12. Enviar siempre el trabajo a revistas serias, las cuales aún no aceptándolo, le hacen
observaciones valiosas que mejoran su presentación.
13. Enfocar preferencialmente un problema cuya solución pueda ser un aporte positivo al
campo de las ciencias médicas o a la región. Pero el individuo que se siente preparado
para atacar cualquier otro problema o con la creatividad suficiente para resolver uno
que hasta ese momento se haya considerado insoluble, debe dedicarse de todas
maneras a dicho tema sea o no prioritario, sea o no aplicado.
REFERENTES: http://www.unet.edu.ve/~frey/varios/decinv/investigacion/indicagral.html
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 6
1.2. LA ELABORACIÓN DE LOS PROYECTOS DE INVESTIGACIÓN
M.Sc. Nubia Amparo Ortiz Guerrero
Con las siguientes pautas no pretendo crear modelos que se adapten al trabajo de
elaboración de los proyectos de investigación que van a ser en un futuro las monografías
de grado. Es nuestro objetivo ilustrar y dar paso a paso el proceso de elaboración de un
proyecto, que se elabore teniendo en cuenta que él todo es la esencia del proceso de
investigación y no aislar conceptos ni partes del mismo a elaboraciones secundarias
dando prioridad a otros. El cuerpo del proyecto debe ser secuencial y gozar del proceso de
los vasos comunicantes que determinara el éxito del proyecto.
Es una pauta de seguimiento y de construcción que se debe tener en cuenta para que el
proyecto goce de un éxito y de una realización a ciencia cierta. Que todo lo expuesto en
estas líneas sea el verdadero reflejo de un trabajo de investigación y no la simple
transcripción de información de un texto a estas páginas.
Espero aportar aunque sea una mínima parte a la realización de sus proyectos de
investigación.
1.2.1. ESQUEMA PARA LA ELABORACIÓN DE UN PROYECTO DE INVESTIGACIÓN I.- EL PROBLEMA.
A. Título descriptivo del proyecto.
B. Formulación del problema.
C. Objetivos de la investigación.
D. Justificación.
E. Limitaciones
II.-MARCO DE REFERENCIA.
A. Fundamentos teóricos.
B. Antecedentes del problema.
C. Elaboración de Hipótesis.
D. Identificación de las variables.
III.-METODOLOGÍA.
A. Diseño de técnicas e instrumentos de recolección de información.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 7
B. Población y muestra.
C. Técnicas de análisis.
D. Indice analítico tentativo del proyecto.
E. Guía de trabajo de campo.
IV.-ASPECTOS ADMINISTRATIVOS.
A. Recursos humanos.
B. Presupuesto.
C. Cronograma.
V.- BIBLIOGRAFÍA.
1.2.2. DESARROLLO DE ASPECTOS DE LA ELABORACIÓN DE UNA INVESTIGACIÓN 1.2.2.1. EL PROBLEMA Lo primero que nos interesa es conocer, saber, lo que será investigado: Por qué, para qué,
cual es el valor o la importancia del hecho o fenómeno a investigar. Si la investigación a
realizar tiene criterios de prioridad, novedad, oportunidad, conformismo o comportamiento.
1.2.2.1.1. Título descriptivo del proyecto. El título de la investigación a realizar, debe ser claro, preciso y completo. Está destinado a
indicar dónde, qué, cómo y cuándo, en forma clara y sucinta indica el lugar a que se
refieren los datos, el fenómeno que se presenta, las variables que sé interrelacionan, y la
fecha a que se refiere la información.
1.2.2.1.2. Formulación del problema. ¿Qué entendemos por formular un problema? Partamos del siguiente criterio: formular un
problema es caracterizarlo, definirlo, enmarcarlo teóricamente, sugerir propuestas de
solución para ser demostradas, establecer unas fuentes de información y unos métodos
para recoger y procesar dicha información. La caracterización o definición del problema
nos conduce otorgarle un título, en el cual de la manera más clara y denotativa indiquemos
los elementos que le son esenciales.
La formulación del problema, es la estructuración de toda la investigación, de tal forma que
uno de sus componentes resulte parte de un todo y que ese todo forme un cuerpo que
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 8
tenga lógica de investigación. Se debe por lo tanto, sintetizar la cuestión proyectada para
investigar, generalmente a través de un interrogante.
En primer lugar, deberá revisarse si el problema es susceptible de resolverse mediante
una investigación. Puede inquirirse sobre la significación del problema, es decir, si su
solución representa una aportación importante al campo de estudios y si puede abrir
nuevos caminos. Se aconseja además preguntarse: ¿Es un problema nuevo o ya existen
trabajos sobre él? En este caso, ¿las soluciones son pertinentes? ¿ Esta adecuadamente
planteado el problema? ¿Cuáles hipótesis se pretenden confirmar? ¿Los términos están
suficientemente definidos? ¿ Vale la pena emplear tiempo y esfuerzo en su solución,
aunque esta sea provisional?
1.2.2.1.3. Objetivos de la investigación. Presupone el logro esperado para las respuestas expresadas en la hipótesis. Es el
propósito de la investigación. Responde a la pregunta: ¿PARA QUÉ?, ¿QUÉ SE BUSCA
CON LA INVESTIGACIÓN?. Un objetivo debe redactarse con verbos en infinitivo que se
puedan evaluar, verificar, refutar en un momento dado. Existen seis categorías: Memoria,
comprensión, aplicación, análisis, síntesis y evaluación. Es pertinente redactar uno de
cada categoría pero siempre relacionado con lo que se busca demostrar en la
investigación.
1.2.2.1.4. Justificación Una vez que se ha seleccionado el tema de investigación, definido por el planteamiento
del problema y establecidos los objetivos, se debe indicar las motivaciones que llevan al
investigador a desarrollar el proyecto. Para ello se debe responder a la pregunta de: ¿POR
QUÉ SE INVESTIGA?
Limitaciones-
Es pertinente dar al problema una formulación lógica, adecuada, precisar sus
límites, su alcance, para ello es necesario tener en cuenta los siguientes factores:
• Viabilidad: lo importante es que el investigador debe verificar la posibilidad de
conseguir fuentes de datos para el desarrollo de su estudio, ya sean del grado
primario o secundario.
• Lugar o espacio de llevará a cabo la investigación.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 9
• Tiempo, si el asignado me da la cobertura del estudio o debo disponer de uno en
caso de imprevistos.
• Financiación, si voy a implementar algo que cantidad de dinero dispongo para ello o
si solo será un estudio de factibilidad.
1.2.2.2. MARCO DE REFERENCIA Es importante señalar en el proyecto la estrecha relación entre teoría, el proceso de
investigación y la realidad, el entorno. La investigación puede iniciar una teoría nueva,
reformar una existente o simplemente definir con más claridad, conceptos o variables ya
existentes.
1.2.2.2.1. Fundamentos teóricos. Es lo mismo que el marco de referencia, donde se condensara todo lo pertinente a la
literatura que se tiene sobre el tema a investigar. Debe ser una búsqueda detallada y
concreta donde el tema y la temática del objeto a investigar tenga un soporte teórico, que
se pueda debatir, ampliar, conceptualizar y concluir. Ninguna investigación debe privarse
de un fundamento o marco teórico o de referencia.
Es necesario que el grupo de trabajo conozca y maneje todos los niveles teóricos de su
trabajo, para evitar repetir hipótesis o planteamientos ya trabajados. La reseña de este
aparte del proyecto se debe dejar bien claro para indicar que teórico(s) es el que va a
servir de pauta en su investigación.
Estos fundamentos teóricos van a permitir presentar una serie de conceptos, que
constituyen un cuerpo unitario y no simplemente un conjunto arbitrario de definiciones, por
medio del cual se sistematizan, clasifican y relacionan entre sí los fenómenos particulares
estudiados.
1.2.2.2.2. Antecedentes del tema. En este aspecto entrara en juego la capacidad investigadora del grupo de trabajo, aquí se
condensará todo lo relacionado a lo que se ha escrito e investigado sobre el objeto de
investigación. Hay que diferenciar entre teóricos consultados y antecedentes del problema,
ya que a veces confundimos los dos aspectos. El primero – los teóricos- son los
planteamientos escritos sobre el tema que va tratar en su objeto de investigación, y los
antecedentes del problema, son las investigaciones que se han hecho sobre el objeto de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 10
investigación y te pueden servir para ampliar o continuar su objeto de investigación, en
algunos casos servirá para negar su objeto de investigación cuando esto suceda se entra
e elaborar postulados que más tarde entraran a formar el campo de las investigaciones
negativas, sector aún sin explotar a fondo, porque en la mayoría de los trabajos de
investigación nos limitamos a ampliar sobre conceptos trabajados o a plantear nuevos
postulados pero siempre con alta carga de complemento sobre lo investigado. Es hora de
que se inicie un proceso de negación a muchas investigaciones que están en los
anaqueles de las bibliotecas de las diferentes universidades del país sin haber aportado
nada a la construcción del conocimiento en cualquiera de sus modalidades.
Es oportuno recordar que la citación de los antecedentes se pueden elaborar con base en
fechas y/o cronogramas de otros proyectos realizados, pero es indispensable citar la
fuente de consulta.
1.2.2.2.3. Elaboración de hipótesis. Es una proposición de carácter afirmativo enunciada para responder tentativamente a un
problema. Se plantea con el fin de explicar hechos o fenómenos que caracterizan o
identifican al objeto de conocimiento.
• Hipótesis de primer grado: describe hechos o situaciones del objeto de
conocimiento, los cuales aunque son conocidos por el saber popular, pueden ser
sometidos a comprobación.
• Hipótesis de segundo grado: establecen una relación causa – efecto (sí X entonces
Y). Esta afirmación se demuestra y verifica por su vinculación con un modelo
teórico.
• Hipótesis de tercer grado: se afirma la presencia de relaciones existentes entre
variables complejas. Sugiere explicaciones entre fenómenos de mayor extensión.
• Hipótesis nula: aquella por la cual indicamos que la información a obtener en
contraria a la hipótesis de trabajo.
1.2.2.2.4. Identificación de las variables. Toda hipótesis constituye, un juicio, o sea una afirmación o una negación de algo. Sin
embargo, es un juicio de carácter especial. Es realmente un juicio científico, técnico o
ideológico, en cuanto a su origen o esencia. Siendo así, toda hipótesis lleva implícita un
valor, un significado, una solución específica al problema. Esta es la variable, o sea el
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 11
valor que le damos a la hipótesis. La variable viene a ser el contenido de solución que le
damos al problema de investigación.
o Variable independiente: El valor de verdad que se le da a una hipótesis en
relación con la causa, se denomina variable independiente.
o Variable dependiente: Denominamos de esta manera a las hipótesis cuando
su valor de verdad hace referencia no ya a la causa, sino al efecto.
o Variable interviniente: Será aquella cuyo contenido se refiere a un factor que
ya no es causa, tampoco efecto, pero sí modifica las condiciones del
problema investigado.
1.2.2.3. METODOLOGÍA 1.2.2.3.1. Diseño de técnicas e instrumentos de recolección de información. Aquí debe condensar toda la información relacionada con el cómo va a realizar su trabajo
objeto de estudio, que parámetros van a utilizar si se apoyará en datos estadísticos, que
evaluara de toda la información RECUERDE QUE TODA INFORMACION no siempre le
sirve para su trabajo. Debe seleccionar que sirve de una entrevista, de un artículo de
revista, de un comentario ya sea radial, textual o de otra índole.
Se debe citar la fuente al igual que las personas que van a proporcionar los datos,
recuerde mencionarlos aquí y en forma especial y detallada en los RECURSOS ya sean
humanos o institucionales.
1.2.2.3.2. Población y muestra. Población o universo es cualquiera conjunto de unidades o elementos como personas,
fincas, municipios, empresas, etc. , claramente definidos para el que se calculan las
estimaciones o se busca la información. Deben estar definidas las unidades, su contenido
y extensión.
Cuando es imposible obtener datos de todo el universo es conveniente extraer una
muestra, subconjunto del universo, que sea representativa. En el proyecto se debe
especificar el tamaño y tipo de muestreo a utilizar: estratificado, simple al azar, de
conglomerado, proporcional, polietápico, sistemático, etc.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 12
1.2.2.3.3. Técnicas de análisis. Para poder definir las técnicas de análisis, se debe elaborar, con base en las hipótesis
generales y de trabajo, un plan o proyecto tentativo de las diferentes correlaciones,
especificando:
Sistema de codificación y tabulación.
Serán las técnicas estadísticas para evaluar la calidad de los datos. Comprobar las
hipótesis u obtener conclusiones.
1.2.2.3.4. Indice analítico tentativo del proyecto. Es aconsejable elaborar un índice analítico tentativo que de una visión general de las
partes o capítulos que va a contener el trabajo a realizar.
1.2.2.3.5. Guía de trabajo de campo. En algunos proyectos de investigación es necesario presentar una guía de trabajo de
campo, para su elaboración se pueden seguir los siguientes pasos:
o Estudio previo o sondeo.
o Diseño de la muestra.
o Preparación de los materiales de recolección de datos.
o Equipo de trabajo necesario: grabadoras, cámaras fotográficas, filmadoras, etc.
o Selección y entrenamiento de personal.
o Revista y prueba experimental de las etapas anteriores.
o Recolección de datos, ya sea primarios o secundarios.
o Elaboración del informe del trabajo de campo.
o Estimación del personal necesario y costos.
1.2.2.4. ASPECTOS ADMINISTRATIVOS En ésta sección se debe ubicar los aspectos administrativos del proyecto, ésta etapa tiene
una mayor importancia para aquellos proyectos que se presentan para obtener
financiación, total o parcial.
1.2.2.4.1. Recursos humanos. Relacionar las personas que participarán: asesores, equipo de recolección de datos, etc.,
especificando la calificación profesional y su función en la investigación.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 13
1.2.2.4.2. Presupuesto. Se debe presentar un cuadro con los costos del proyecto indicando las diferentes fuentes,
si existen, y discriminando la cuantía de cada sector e la investigación.
Presentar un cronograma financiero que cubra todo el desarrollo del proyecto.
1.2.2.4.3. Cronograma. Es un plan de trabajo o un plan de actividades, que muestra la duración del proceso
investigativo. El tipo de Cronograma recomendado para presentar el plan de actividades
que orienten un trabajo de investigación es el de GANTT. Las actividades aquí indicadas
no son definitivas. La especificación de las actividades depende del tipo de estudio que se
desea realizar.
Tabla 1: Diagrama de Gantt
CRONOGRAMA
ACTIVIDADES TIEMPO 1 2 3 4 5 6 7 8 9 10 11 12 13 14.
1. - ASESORIA METODOLOGICA
2. - PROPUESTA
3. - OBSERVACIONES
4. - DISEÑO DEL PROYECTO
5. - OBSERVACIONES
6. - PROYECTO
7. - OBSERVACIONES
8. - ENCUESTA
9. - CLASIFICACION DE MATERIAL
10. - TRATAMIENTO INFORMACIÓN
11. - ANÁLISIS E INTERPRETACIÓN
12. - REDACCIÓN
1.2.2.5. BIBLIOGRAFÍA En la bibliografía se registran las obras que tratan del tema, implícita o explícitamente, no
es recomendable citar obras de cultura general, como enciclopedias, diccionarios, etc.
La lista bibliográfica o referencia bibliográfica puede subdividirse en dos partes:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 14
Fuentes bibliográficas consultadas.
Fuentes bibliográficas para consultar.
Recuerde que este es un esquema del proyecto de investigación, es la guía de lo
que va a investigar, en ningún caso es la INVESTIGACION como tal.
1.2.3. REFERENTES o CARVAJAL, Lizardo. Metodología de la Investigación Científica. Curso general y
Aplicado. 12º- Ed. Cali: F.A.I.D., 1998. 139 p.
o COBO Bejarano, Héctor. Glosario de Metodología. 8ª. Ed. Cali: Impretec, 1998. 50
p.
o INSTITUTO COLOMBIANO DE NORMAS TECNICAS Y CERTIFICACIÓN
Compendio de Normas Técnicas Colombianas sobre Documentación, Tesis y otros
trabajos de grado. Santafé de Bogotá: ICONTEC, 1996
o http://www.monografias.com/trabajos/elabproyec/elabproyec.shtml
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 15
2. CAPITULO II: BASES EPISTEMOLÓGICAS DE LA INVESTIGACIÓN
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 16
<
2.1. LA EVOLUCIÓN DEL PENSAMIENTO CIENTÍFICO
2.1.1. DESARROLLO DEL PENSAMIENTO CIENTÍFICO. La ciencia es un conjunto de conocimiento comprobados y sistematizados, obtenidos
mediante el concurso de métodos lógicos, rigurosamente aplicados. Estos conocimientos,
después de estar sujetos a la crítica y a la comprobación, se presentan organizados y
distribuidos en las diversas ramas del saber.
Desde que el hombre empezó a tratar de comprender el mundo que lo rodea, la ciencia
comenzó a gestarse. El conjunto de aprehensiones por medio de los sentidos, el discurrir
rudimentario, la búsqueda de satisfactores a sus necesidades, el instinto de supervivencia,
la curiosidad, fueron, entre otros, los factores que encaminaron al hombre a la ciencia.
En la prehistoria, el hombre asimilaba sus experiencias según su particular concepción de
la naturaleza; las que estaban más allá de su explicación eran relegadas al campo del
misterio, atribuido a manifestaciones mágicas de quienes más tarde habrían de ser
reconocidos como deidades. El hombre apoyó su ignorancia en la existencia de entes
sobrenaturales, que se encargarían de ayudarlo o castigarlo, según las condiciones en
que el fenómeno natural ocurría. A pesar de esta cómoda actitud, que consistía en relegar
la necesidad de comprender, al capricho de los dioses, el hombre siguió aplicando el
discernimiento a su experiencia diaria: utilizó en la observación la curiosidad y el deseo de
saber hasta llegar al análisis y el raciocinio en la experimentación, y a la sistematización
de los conocimientos que gradualmente adquiría. Todo este saber, disperso geográfica y
epistemológicamente, fue recogido por los griegos, quienes lo ordenaron y pretendieron
darle una forma más precisa.
Allí, donde el hombre comienza a actuar - consciente o inconscientemente - con la idea
elaborada de la causalidad, es precisamente donde se da la ciencia y su primer método.
La metodización comienza allí donde a través de la observación se llega en la práctica a la
concepción de que, dados ciertos fenómenos o circunstancias, se producen en sucesión
temporal otros que aparecen condicionados por los que les anteceden; en términos más
precisos: donde se descubre la relación de que unos fenómenos son causa y otros efecto.
Esta primera intuición de la causalidad, alcanzada de manera empírica (no está teorizada,
sino sencillamente realizada), es el primer método científico. Este primer método, punto de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 17
partida de la ciencia, carece, en esta etapa, de un objeto en particular al cual se le aplique.
Es un método general que explica los efectos más diversos y relaciona objetos o
fenómenos muchas veces muy lejanos unos de otros. El progreso del pensamiento
científico se efectuará en la medida que el hombre depure los fenómenos antecedentes,
concomitantes y consecuentes y escoja uno o algunos de ellos sin los cuales no se
producirán los efectos observados. A estos fenómenos - primero o primeros - se les llama
causa.
El pensamiento indiferenciado es el que aborda la realidad; que es geométrico, por
ejemplo, si su finalidad práctica consiste en determinar la extensión de un área de terreno
y sus delimitación; que es aritmético cuando se hace necesario censar o contar un rebaño.
La geometría y la aritmética, así como la medicina, son quehaceres prácticos que hallarán
su teorización algunos siglos más tarde. La medicina lo tendrá en el corpus hipocrático. La
aritmética y la geometría, en Pitágoras y en los Elementos de Euclides. El trayecto de las
ciencias empíricas es un poco más largo y difícil que el de la aritmética y la geometría, en
cuanto a que aquellas tratan de encontrar un cuerpo teórico debido a la necesidad de
acumular datos, hechos y experiencias que sirvan de contenido para la abstracción
generalizadora y derivadora de leyes que establezcan las relaciones causales que
permitan hacer predicciones exactas. El camino pasa por el "método" de ensayos y
errores, que es quizás el primero en desbrozar el terreno de la ciencia primitiva. Sus logros
y desaciertos se transmiten por tradición oral en forma de preceptos plagados de
supersticiones y mitos.
El método causal, íntimamente vinculado al hombre como sistema de referencia, acuña el
sesgo antropomórfico y animista en el análisis de la realidad. Las propiedades humanas y
las cualidades humanas son atribuidas a las cosas o también las de la naturaleza orgánica
a la inorgánica y viceversa.
El método comparativo, en su búsqueda de semejanzas y diferencias entre las cosas,
hace posible una confusión en la cual el hombre, aún no totalmente enajenado de la
naturaleza, no se concibe a sí mismo como algo distinto. Este método comparativo los
vemos ejemplificado en el símil, la metáfora, la analogía, formas que sirven para calificar
más cercanamente los objetos mediante su semejanza o diferencia con uno o varios
objetos. Las cualidades no han sido, en esta etapa, abstraídas de los objetos a los cuales
pertenecen. Al mencionar el objeto se menciona también su cualidad fundamental, sin
haber sido concebida ésta, todavía, como un concepto aparte.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 18
El proceso de salida de este primer estado del pensamiento será lento. En dicho proceso
se adecuarán los métodos a sus objetos de investigación. Este desarrollo se efectuará en
el decurso histórico de la cultura griega. En ésta, se irá deslindando el pensamiento
científico de las otras formas sobrenaturales y míticas, se intentará explicar la naturaleza
por sí misma. En tal proceso, el lenguaje jugará un papel fundamental. En el caso de los
griegos crecerá la capacidad de sustantivación, tanto de verbos como de adjetivos, por
medio del uso del artículo. Este perfeccionamiento del lenguaje hará posible el desarrollo
de la lógica.
En todos los filósofos griegos existirá como característica predominante la observación
natural, aunque no se puede descartar que ocasionalmente hayan efectuado algún tipo de
experimentación muy simple. Los griegos, por no haber avanzado todavía hasta el análisis
y la desintegración de la naturaleza, la enfocan como un todo, en sus rasgos generales. La
trabazón general de los fenómenos naturales aún no se indaga en detalle, sino que es el
resultado de la intuición directa. En esto estriba precisamente la falla de la filosofía griega,
la que más tarde la obligaría a ceder el paso a otros métodos.
En los primeros presocráticos de la escuela naturalista de Jonia, pueden señalarse
caracteres muy determinados: la observación cuidadosa de la naturaleza, el uso de la
razón para explicarla, la búsqueda de una sustancia universal o primera, de la cual están
compuestos todos los cuerpos del universo. Con esta actitud metódica es que Tales (624 -
547 AC) establece su idea de que el agua es la sustancia primera, como principio de la
unidad material del mundo. De ese principio surge todo, es decir, el movimiento y la vida,
concebidos de un modo general. Sobre los supuestos que establece, elabora inferencias
como la existencia de un polo Antártico no perceptible directamente por los sentidos.
También en esta forma supone que a todo fenómeno sucede uno que le es contrario
cualitativamente, lo cual le lleva a establecer como contrarios: agua - fuego, húmedo -
seco, verano - invierno. Esta paridad simétrica de la naturaleza, que implica una
concepción de cadenas causales, se desarrollará en el pensamiento griego posterior.
Anaximandro (610 - 546 AC) sustituye el principio del agua por el ápeiron, para explicar la
unidad material del mundo. Se trata ya de un principio más sutil, que es al mismo tiempo el
fin de las cosas y que se mueve conforme a leyes. Pitágoras (575 . 500 AC): en la escuela
pitagórica se va al análisis de un objeto sólido cualquiera. Este objeto está compuesto por
partes (un cubo, por ejemplo), pero estas partes pueden corresponderse o no de manera
simétrica, y ésta es representable en una relación matemática que conserve esa simetría.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 19
Desmenuzando analíticamente el cuadrado, éste está compuesto primeramente de planos
de superficie, de líneas, y estas líneas, de puntos; estos elementos están en una relación
precisa que es la que constituye todas las formas semejantes a él.
Zenón (495 - 430 AC) continúa, en esencia, el pensamiento de Parménides (515 - ? AC).
En su primera "aporía de la medida", Zenón demuestra lo absurdo de la tesis según la cual
las magnitudes constan de una infinidad de puntos discontinuos, ya que en este caso "su
suma debe ser inevitablemente tan pequeña... que no exista magnitud alguna". La
segunda "aporía de la medida" se basa en la suposición de que las magnitudes constan
de un número infinito de puntos continuos, que tienen una magnitud todo lo pequeña que
se quiera. En este caso, la suma de estos puntos puede ser infinitamente grande.
Heráclito (535 - 465 AC) considera el movimiento como movimiento del Ser que afecta su
propia esencia y no como movimiento en el Ser, puesto que aquél es su desenvolvimiento.
El movimiento del cosmos, como flujo continuo, no es matematizable, ya que es
considerado como movimiento vivo de generación y corrupción. Está sujeto a
periodicidades calculables matemáticamente. Todo fenómeno tiene su contrario y ambos
se presuponen mutuamente. Es como si la naturaleza se desarrollase conforme a una
paridad simétrica y el movimiento fuese de uno al otro polo guardando el equilibrio o la
armonía.
Demócrito (460 - 370 AC) sostiene que el Ser es la sustancia material concreta y el no ser
el espacio vacío en el cual la sustancia se mueve, tan necesario el uno como el otro. El
átomo es el "uno", principio de individualización del Ser; éste se une a otros "unos"
(átomos) y forma combinaciones que constituyen cosas.
El método exhaustivo aplicado por Demócrito, en el cual se suponía a toda figura
compuesta por capas delgadas superpuestas las unas a las otras, conduce al
razonamiento de que lo que se nos presenta como unicidad es, realmente, una
multiplicidad de unidades más pequeñas que el cuerpo mismo.
Demócrito se refiere al átomo como entidad física concreta, pero partiendo de un concepto
matemático racionalista. Esto elimina las incongruencias lógicas de Pitágoras al considerar
al número abstracto como físico. Los átomos no son números, aunque se llegue a ellos
mediante el razonamiento matemático, son una pluralidad infinita de materia en cantidades
discretas. Demócrito realiza, pues, una inclusión muy importante para el pensamiento
científico al plantear como objeto de estudio a la llamada ananké, fuerza ciega, bruta o
azar.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 20
Sócrates (469 - 399 AC) postula la duda metódica como un principio fundamental en su
concepción del método. Nada debe estimarse cierto sin ser sometido al tribunal de la
razón. En su aspecto formal, el método está compuesto por la ironía y la mayéutica.
El desarrollo de la inducción es seguramente la contribución más valiosa de Sócrates al
pensamiento humano. Su análisis de los casos particulares para llegar al conocimiento
general, y la crítica de este último, representan un enorme avance en el campo de la
metodología. Lo mismo cabe decir respecto a la elaboración del concepto de "definición"
en el pensamiento socrático. Los caracteres de la definición y cómo llegar a ella evitando
numerosos errores que suelen presentarse, representan un aporte de muy alta estimación
en la historia del pensamiento humano.
Según Platón (428 - 348 AC), la percepción sensible sólo nos ofrece apariencias y las
ideas que de ellas surgen son mera opinión (doxa). La verdad está en el mundo de las
ideas, inmutable y eterna, que sólo se puede alcanzar con el empleo de la Dialéctica,
mediante el verdadero saber (episteme). Las cosas participan de las Ideas y son su copia
imperfecta.
Para salir de las tinieblas de la caverna e ir a la luz del reino de las Ideas es necesario
estudiar estas ciencias. Primero debe estudiarse la Aritmética para elevarse por medio de
la pura inteligencia a la contemplación de la esencia de los números. En segundo lugar, la
Geometría, a condición de fijarnos en las ideas que representa. En tercer lugar, una
Geometría aún no inventada, decía Platón, la de los cuerpos sólidos de las tres
dimensiones. En cuarto lugar, la Astronomía, estudiada con el mismo espíritu científico.
Pero todo esto no es más que el preludio de la verdadera ciencia, la ciencia filosófica que
permite llegar a la verdad: la Dialéctica. La Dialéctica es ciencia y es método a la vez y
permite llegar a las ideas más elevadas (Dialéctica ascendente que culmina en la idea del
bien) y descender a las cosas más humildes (Dialéctica descendente) en búsqueda
constante de la verdad.
Aristóteles (384 - 322 AC): la elaboración clásica de los problemas del método, que
determinó en gran medida la senda teórica tradicional del pensamiento, corresponde a
Aristóteles. Su aportación más original a la metodología es la creación de la lógica formal,
a la que considera como el Organon universal para obtener el conocimiento. La génesis de
la lógica de Aristóteles está relacionada con el análisis de la fuerza de convicción del
discurso; es decir, la explicación de qué recursos debe poseer el discurso para convencer
a la gente, obligarla a aceptar tal o cual cosa, o reconocer que algo no es cierto.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 21
En realidad, dijo Aristóteles, todo silogismo es obtenido de premisas o de lo necesario (lo
inherente), o bien de lo que suele ocurrir en la mayoría de los casos. Y si las premisas (la
esencia de los juicios) se refieren a lo necesario (lo inherente), la conclusión también será
acerca de lo necesario. Si las premisas (la esencia de las conclusiones) se refieren a lo
que ocurre en la mayoría de los casos, así serán también las conclusiones.
Por otra parte, las proposiciones de los Elementos de Euclides (primera mitad del siglo III
AC) que no están basadas en la construcción de figuras geométricas, se pueden
considerar como experimentos mentales, y la geometría, como el capítulo más simple de
la física.
Arquímedes (primera mitad del siglo III AC) incorpora la inducción continuando la tradición
del método deductivo y axiomático de sus antecesores, dándole a la demostración de los
axiomas nuevos elementos de verificación, el experimento real, en el mundo físico. Así, la
geometría ideal nos proporciona datos sobre el espacio físico. Los axiomas y las teorías
vuelven a su punto de partida, la experiencia, y se enriquecen en ella. Arquímedes
combina estos pasos en un ir y venir de la teoría a la práctica y de la práctica a la teoría.
Años más tarde, el emporio cultural se desplazó de Grecia a Roma y luego se dispersó.
Durante siglos la ciencia cae bajo la influencia de la fe, las creencias inhiben el progreso
científico, el que se busca bajo la perspectiva de la época (piedra filosofal, teoría del
flogisto). Sin embargo, la inquietud y la inconformidad inherentes al hombre lo encauzan a
la ruptura de esa mentalidad. El hombre renace, saliendo del letargo de siglos, y retoma
inquietudes; hay un ansia por conocer y por explicarse lo que no entiende. Las ramas de la
ciencia se multiplican, su contenido crece.
La mayor aportación de Galileo (1564 - 1642) a la metodología de la ciencia fue la
unificación de las investigaciones teóricas y experimentales en un todo único. Al situar el
experimento como base del conocimiento científico, no menosprecia el papel de la teoría.
Uno de los logros más admirables de Galileo fue la introducción de la matemática en la
práctica de la investigación científica. El libro de la naturaleza, considera Galileo, está
escrito en el lenguaje de la matemática, cuyas letras son los cuadrados, circunferencias y
otras figuras geométricas. Por ello, puede ser objeto de la verdadera ciencia todo lo que es
susceptible de medición: la longitud, la superficie, el volumen, la velocidad, el tiempo, etc.,
o sea, las llamadas propiedades primarias de la materia.
En su forma general, la estructura del método de Galileo puede ser expuesta como sigue:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 22
1. Partiendo de los datos de las investigaciones y del experimento burdo, se crea el
modelo ideal del experimento, que se realiza más tarde, y que de ese modo queda
precisado.
2. Mediante la repetición del experimento se obtiene el promedio de las magnitudes
medidas, teniendo en cuenta las correcciones y los diversos factores perturbadores.
3. Las magnitudes así obtenidas, son el punto de partida para formular la hipótesis
matemática, de la que se deducen las consecuencias mediante razonamientos
lógicos.
4. Esas consecuencias se comprueban después en el experimento y sirven de
confirmación indirecta para la hipótesis adoptada.
Según Newton (1642 - 1727), en la matemática y la filosofía natural, el método del análisis
siempre debe preceder al método de la síntesis. Pero el método de Newton nada tiene en
común con la deducción, ya que consiste en realizar experimentos y observaciones, en
obtener de éstos conclusiones generales y en no admitir refutación alguna contra las
conclusiones, a no ser la proveniente del experimento u otras verdades ciertas.
El método de la síntesis fue aplicado en los Principios matemáticos de la filosofía natural,
de Newton, que son considerados como el modelo del planteamiento hipotético - deductivo
de la ciencia experimental. De este modo, la tarea fundamental de la filosofía natural,
según Newton, consiste en el descubrimiento de un reducido número de principios, de los
que se deducen lógicamente "las propiedades y acciones de todos los objetos corporales".
La primera regla de Newton es una forma original del principio de simplicidad: no hay que
recurrir a otras causas de los fenómenos más que a las que sean suficientes para su
explicación. Es consecuencia de esta regla el principio de la uniformidad de la naturaleza:
en la medida de lo posible hay que atribuir las mismas causas a manifestaciones análogas
de la naturaleza.
El principio de la uniformidad de la naturaleza es la base para el uso del método de la
inducción, ya que la conclusión de lo particular a lo general presupone el examen de los
casos particulares como manifestaciones de las leyes comunes. En esto se basa,
propiamente, la idea del enfoque experimental, cuya tarea consiste en el descubrimiento
de aspectos importantes del fenómeno investigado (ley).
La tercera regla de la deducción dice que las propiedades comunes de los cuerpos son
tales que, aunque inherentes a todos los cuerpos que sometemos a experimento, no
pueden ser aumentadas o reducidas.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 23
La cuarta regla expone que las leyes descubiertas mediante la inducción deben
considerarse verdaderas hasta tanto no se revelen fenómenos que precisen esas leyes o
limiten la esfera de su aplicación.
La metodología general seguida en los trabajos de Newton puede ser sintetizada en la
siguiente forma:
1. La observación de la realidad y la experimentación meticulosa sobre el
comportamiento de ésta, lo llevan mediante una inducción general a establecer una
ley o hipótesis.
2. Una vez enunciada, ésta se aplica a una situación particular, deduciendo
matemáticamente cómo se comportarían los objetos reales en este caso.
3. Se comprueba en la práctica la verdad de los resultados obtenidos mediante la
deducción y, por tanto, la validez del principio de partida (ley o hipótesis).
4. Se repite este proceso en una gran cantidad de casos particulares y, si sus
resultados son coherentes, se acepta la ley o inducción primaria, hasta que se
descubra algún fenómeno que no sea explicable por ella.
La verdadera lógica, según René Descartes (1596 - 1650), no son las formas del
silogismo, sino "las reglas para guiar la razón", que son necesarias al investigar verdades
que todavía no conocemos. Esta idea se manifiesta en la concepción de Descartes del
método universal, que comprende tres componentes inseparablemente vinculados entre
sí:
1. Todo problema científico se reduce a un problema formulado en el lenguaje de la
matemática.
2. Todo problema matemático se reduce a un problema algebraico.
3. Todo problema algebraico se reduce a la solución de una ecuación única.
Además de la idea general, Descartes ofrece a grandes rasgos un esbozo de la estructura
del método universal que se resume en las siguientes cuatro reglas para la guía de la
mente:
1. Incluir en los juicios sólo lo que aparece con tanta claridad y evidencia que no
concede margen alguno para dudar de ello.
2. Dividir cada una de las dificultades investigadas en tantas partes como sea posible
y necesario para superarlas.
3. Mantener determinado orden del razonamiento, empezando con los objetos más
sencillos y de más fácil comprensión para ir ascendiendo paulatinamente al
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 24
conocimiento de lo más complicado, aplicando ese orden incluso allí donde los
objetivos del razonamiento no aparecen en su vínculo natural.
4. Elaborar siempre una relación tan completa y concisa, tan general, que se tenga la
seguridad de que no sean cometido omisiones.
Para G. W. Leibnitz (1646 - 1716) el problema reside en lograr un método exacto de
enlazar ideas. Su objetivo en este caso consiste en establecer, mediante la utilización de
ideas elementales, un alfabeto lógico donde todas las nociones compuestas acerca del
mundo sean reducidas a nociones simples, como a su alfabeto. Según Leibnitz, el
pensamiento es el fundamento del Ser. No se trata de que el criterio de verdad sea
encontrado en la coincidencia de la imagen con un objeto exterior. Este criterio está dado
por la concordancia entre los fenómenos mismos. Los fenómenos tienen el carácter de
realidad en tanto se someten a las leyes de las matemáticas.
Para Leibnitz la fundamentación de la ciencia está dada, no sólo en los juicios idénticos,
sino también en las definiciones de los conceptos básicos. Asegura, además, que todas
las verdades se pueden dividir en dos clases: de razón y de hecho.
Considera que la base de la verdad de la proposición puede ser hallada por medio del
análisis, que se aplica simultáneamente al concepto y a la proposición. El análisis de los
conceptos consiste en las definiciones, el análisis de las verdades, en la demostración.
Puesto que la propia demostración culmina por medio del análisis de los términos de la
proposición, la demostración se reduce al análisis del concepto, es decir, a la definición. El
análisis del concepto es la descomposición progresiva de los conceptos más complejos
para llegar a otros más simples, con la particularidad de que el análisis puede ser finito o
infinito. El mejor procedimiento para demostrar la posibilidad de la cosa consiste en
señalar su causa o su planteamiento.
El conocimiento de lo individual para Leibnitz requiere un conocimiento de la totalidad. Es
decir, el conocimiento de un objeto exige conocer su sustancia en sus relaciones con
todas las sustancias conocidas y desconocidas.
Según Leibnitz, el grado de fundamentación de las hipótesis corresponde al grado de su
probabilidad. La hipótesis es tanto más probable:
• Cuanto más sencilla es.
• Cuanto mayor es el número de fenómenos que pueden ser explicados con esta
hipótesis y con la ayuda del menor número posible de postulados y axiomas.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 25
• Cuanto mejor permite prever los nuevos fenómenos o explicar los nuevos
experimentos, excepto aquellos que no son conocidos.
Francis Bacon (1561 - 1626) considera que el verdadero método del conocimiento
científico es un método que se apoya en el experimento y la observación. La ascensión, a
partir de los hechos sensibles hasta llegar a los conceptos, era para él la senda de la
genuina ciencia. La verdadera inducción, según Bacon, es aquella con la cual se pueden
buscar las formas. La forma es algo estable en los fenómenos, una cierta determinación
interna, la que condiciona la distinta "naturaleza" de las cosas. La investigación de las
formas es, de este modo, la investigación de los vínculos esenciales y lógicos de la
realidad.
J.F.G. Herschell (1792 - 1871) entiende por inducción el proceso de clasificación
consecutiva de los objetos individuales o hechos, bajo una rúbrica común, cuyos
resultados a su vez se convierten en material para una clasificación ulterior. La
metodología inductiva del conocimiento de las leyes de la naturaleza comprende una serie
de reglas basadas en determinadas correlaciones entre la causa y la acción.
En el siglo XVIII surgen enormes fábricas y de la forma de producción devienen dos clases
sociales antagonistas: la burguesía y el proletariado. Ambas en conflicto constante por
tener una, el carácter de explotadora, y la otra, por ser explotada. Esta condición repercute
en la ciencia y culmina en una nueva concepción metodológica.
J.S. Mill (1806 - 1873) sostiene que la inducción es un proceso mental con la ayuda de la
cual deducimos algo que nos es conocido como verídico en un caso particular o en unos
cuantos casos y que será verídico en todos los casos semejantes al primero en ciertas
determinadas relaciones de la clase. A Mill pertenece la descripción clásica de los
métodos de la inducción científica, elaborada de acuerdo con la tradición de Bacon: el
método de semejanza o concordancia, el método de diferencia, el método combinado de
semejanza y diferencia y el método de residuos.
La línea del inductivismo clásico de Bacon - Mill fue la predominante en la lógica del siglo
XIX. Pero en la historia de la lógica hubo otro enfoque del problema de la investigación
lógica de las relaciones entre los conocimientos empíricos individuales y las leyes de la
ciencia.
Este enfoque coloca en primer plano la investigación metodológica del análisis del proceso
de comprobación y fundamentación de la tesis general en su calidad de hipótesis.
Consiste en su confrontación tanto con los hechos empíricos, ya conocidos, como con
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 26
aquellos hechos que han de ser establecidos posteriormente, es decir, presupone la
evaluación de la hipótesis desde el punto de vista de las posibilidades de lograr, con su
ayuda, la explicación de los hechos existentes y la previsión de otros nuevos. El método
de la fundamentación de las generalizaciones teóricas, adoptadas como hipótesis, con
ayuda de la deducción de consecuencias empíricas comprobadas, recibe la denominación
de método hipotético - deductivo.
W. Whewell (1794 - 1866) considera que su lógica inductiva es la lógica del
descubrimiento y estima que su trabajo es la continuación directa de la obra de Bacon. El
proceso de inducción es equiparado al proceso de movimiento del pensamiento que va del
hecho a la ley, de lo empírico a la teoría general. En este sentido, para Whewell, toda la
ciencia experimental es inductiva, quien sostiene que la doctrina de la hipótesis del
razonamiento deductivo se manifiesta como una conclusión del proceso inductivo. Los
hechos especiales que son la base de la conclusión inductiva resultan ser la consecuencia
en la cadena de deducciones. Y de este modo, la deducción establece la inducción. El
principio que obtenemos de los hechos es verdadero, porque los hechos pueden ser
obtenidos de él mediante una rigurosa demostración.
Según E. Kant (1770 - 1831), a priori sólo tenemos la forma, el procedimiento de
organización del conocimiento, de su estructura. La formación del conocimiento presupone
la unidad de forma y el contenido en sentido propio, esto es, únicamente posible a
consecuencia de la aplicación de las formas apriorísticas del contenido del conocimiento,
cuya obtención, en definitiva, presupone la experiencia directa, la interacción de sujeto y
objeto. El conocimiento constituye la unidad orgánica de lo apriorístico y lo aposteriórico, la
forma y el contenido.
Las formas apriorísticas, uniéndose al contenido del conocimiento, caracterizan la síntesis
de los conocimientos, lo que determina la unidad de la variedad como un rasgo
característico del objeto del conocimiento científico. Éste constituye, a juicio de Kant, la
construcción cognoscitiva, el "objeto ideal". Kant destaca la primacía de la síntesis
respecto del análisis al estudiar el origen del conocimiento científico.
Kant sostiene la idea de que la interacción es la verdadera causa "definitiva" de todos los
cambios que se realizan en la naturaleza. El medio de que se sirve la naturaleza para
lograr el desarrollo de todas sus facultades es el antagonismo de los mismos en la
sociedad, en la medida en que éste, por tanto, deviene al final en causa de un
ordenamiento sujeto a leyes de los mismos. Kant afirma: "El conocimiento común, sólo
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 27
gracias a la unidad sistemática se convierte en ciencia, o sea, de un conjunto de ideas se
transforma en sistema".
Hegel trató de presentar el desarrollo del sistema categorial de la ciencia como un proceso
natural de desarrollo, que se desenvuelve de acuerdo con sus propias leyes internas. El
estímulo, el "resorte" y el motor de este desarrollo fueron, a juicio de Hegel, las
contradicciones internas del concepto; y su superación lograda a un nivel más elevado y
profundo de penetración en el contenido fue presentada por él como el desarrollo, el
enriquecimiento y la concreción del régimen de categorías, ascendente desde las
categorías abstractas, con menos contenido, a categorías de un contenido cada vez
mayor. La dialéctica del conocimiento, consistente en la revelación de las contradicciones
del concepto, el descubrimiento de lo contradictorio contenido en ellas, y la superación de
las contradicciones fue fundamentada y desarrollada por Hegel como la lógica interna del
desarrollo del conocimiento.
K. Marx (1818 - 1883), F. Engels (1820 - 1895), V. Lenin (1870 - 1924): la filosofía
marxista - leninista liquida la oposición de principio de la gnoselogía a la ontología, y de la
doctrina del conocimiento a la doctrina de la existencia, característica de la filosofía
premarxista, y considera la actividad práctica y transformadora del hombre como base del
conocimiento y criterio de su verdad
La filosofía marxista - leninista considera el método desde las posiciones de la teoría del
reflejo, teniendo en cuenta que la dialéctica materialista puede actuar como método
universal del conocimiento porque es el reflejo en el razonamiento teórico de las leyes más
generales del desarrollo del mundo material.
2.1.2. REFERENTES TENORIO BAHENA, JORGE - TÉCNICAS DE INVESTIGACIÓN DOCUMENTAL - 3ª
edición - ED.MC GRAW HILL - México - 1988
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 28
2.2. LA NATURALEZA DE LA CIENCIA Y EL MÉTODO CIENTÍFICO
Lic. Humberto Fernández
2.2.1. LA CIENCIA: UNA CARACTERIZACIÓN GENERAL Es ciertamente difícil, como lo reconoce Kerlinger (1975) proporcionar una definición del
término ‘ciencia’. No obstante ello, podría decirse en aras de una caracterización general
de la ciencia, que ésta podría entenderse como un ‘cuerpo de ideas’ (Bunge, 1979) o
sistema de conocimientos. Estos conocimientos tienen la peculiaridad de ser el resultado
de la aplicación de un conjunto de procedimientos racionales y críticos -esto es, no
dogmáticos, no opinativos, no arbitrarios (Cf. López Alonso, 1982)- que caen bajo la
denominación genérica de ‘método científico’. En consecuencia, lo que esencialmente
caracteriza a la ciencia en tanto que saber racional y críticamente fundado sobre la
realidad (empírica y no-empírica), es el método a través del cual se construye ese saber o
conocimiento. En la Figura 1 se proporciona una representación esquemática de este
estado de cosas.
Precisamente, es en virtud del tipo de método seguido para alcanzar el conocimiento
científico como puede establecerse una primera distinción entre las ciencias: las ‘ciencias
formales’ se caracterizarían por el empleo del así llamado ‘método axiomático’ y las
‘ciencias empíricas o fácticas’, por el empleo de un método que, genéricamente, se podría
denominar como el ‘método de la contrastación empírica'.
2.2.2. LAS CIENCIAS FORMALES Y EL MÉTODO AXIOMÁTICO El núcleo metodológico de las ciencias formales como la Lógica y la Matemática lo
constituye el método axiomático. Este método consiste en la postulación de un conjunto
de proposiciones o enunciados los cuales guardan entre sí una relación de deducibilidad.
Este conjunto de proposiciones recibe el nombre de sistema axiomático por cuanto el
punto de inicio de toda la cadena deductiva lo constituyen los axiomas, proposiciones cuya
verdad no se demuestra aunque se toman como verdaderas. A partir de los axiomas y
mediante la aplicación de una serie de reglas de inferencia, se derivan los otros
componentes de la cadena deductiva denominados teoremas.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 29
Estos, habida cuenta del proceso deductivo que les dio origen, habrán de ser verdaderos
en la medida en que lo sean los axiomas [1]. A su vez, en todo sistema axiomático, los
conceptos o términos con los que arman sus enunciados constituyentes pueden ser de
dos tipos: términos primitivos o indefinidos, aquellos que se aceptan y emplean sin
definición y términos definidos, aquellos que se definen a partir de los términos primitivos.
Como un ejemplo de la aplicación del método axiomático en el campo de la Matemática
puede citarse el desarrollo, por parte del matemático italiano Giuseppe Peano, de un
sistema axiomático para la aritmética de los números naturales. Este sistema, conocido
genéricamente como la axiomática de Peano, consta de los siguientes elementos
constituyentes: (a) un conjunto de términos primitivos tales como ‘uno’, el predicado ‘ser
número natural’ y la operación ‘sucesor inmediato’ y, (b) un conjunto de axiomas tales
como ‘uno es un número natural’, ‘el sucesor de uno es también un número natural, ‘no
hay dos números naturales que tengan el mismo sucesor, etc.
Es a partir de estos axiomas como se pueden demostrar los teoremas propios de la
aritmética referidos a las propiedades (conmutatividad, asociatividad, etc.) de las
operaciones de suma, resta, multiplicación y división. Una representación esquemática del
método característico de las ciencias formales se esboza en la Figura 2.
2.2.3. LA CUESTIÓN DEL MÉTODO EN LA CIENCIA EMPÍRICA: LAS TRADICIONES INDUCTIVISTAS Y REFUTACIONISTAS Respecto del método seguido por la ciencia empírica, pueden distinguirse a su vez varias
versiones encontradas que difieren entre sí en lo atinente a la concepción epistemológica
de base respecto de lo que es la ciencia en sí o el conocimiento científico como tal. Entre
estas versiones respecto de cuál es el método que sigue la ciencia empírica para lograr un
conocimiento de la realidad, es tradicional distinguir entre las posiciones inductivistas y las
falsacionistas. Estas últimas también conocidas como refutacionistas. Cada una de estas
posiciones contó, en sus épocas de esplendor con figuras prominentes en sus filas. Así,
militaron en el inductivismo, entre otros, H. Reichenbach, R. Carnap, C. Hempel y, en el
refutacionismo, sin duda la figura más fuerte de todas, K. Popper.
2.2.3.1. EL INDUCTIVISMO Desde el inductivismo, el conocimiento científico se concibe como un conocimiento
verdadero o cierto sobre la estructura del mundo derivable por inducción a partir de la
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 30
observación de un cierto número de hechos particulares por lo que, el método
característico de la ciencia habrá de ser el método inductivo. De allí el nombre de
inductivismo con el que se conoce a esta posición metodológica.
¿En qué consiste el método inductivo como medio de acceso al conocimiento científico?
En lo esencial, dicho método consiste en la derivación -mediante un proceso de inferencia
no-deductiva- de un conjunto de reglas generales bajo las cuales queden comprendidos
las instancias particulares del fenómeno objeto de estudio. Estas reglas vendrían a
describir una regularidad empírica en el comportamiento de los fenómenos observados
por lo que suele denominárseles ‘leyes empíricas’ (Nagel, 1981). Estas leyes constituirían,
para el inductivista, el corazón de la ciencia. Dado que esta posición admite que los
enunciados (universales)[2] derivados mediante generalización inductiva pueden darse por
verificados, esto es, probados como verdaderos, a esta variedad de inductivismo se la
conoce con el nombre de verificacionismo.
El problema capital del verificacionismo, el ‘problema de la inducción’, es que la
argumentación inductiva que sirve de base para la formulación de las leyes empíricas no
constituye un razonamiento lógicamente válido por lo que, en principio, la conclusión -ley
general- puede ser falsa aún cuando las premisas de partida -hechos observados- sean
verdaderas. Luego, en punto a superar este problema, los inductivistas se vieron
obligados a apelar a algún principio que permitiera legitimar la pretensión de verdad de las
leyes empíricas. El así denominado ‘principio de inducción’ permitió a los inductivistas
justificar el supuesto de que las leyes empíricas podrían considerarse como enunciados
verdaderos acerca del mundo. Este principio rezaría más o menos como sigue: "si, en una
gran variedad de circunstancias, se observa un gran número de objetos de una cierta
clase y es el caso que absolutamente todos poseen la propiedad j, entonces puede
aceptarse a todos los efectos como verdadero que todos los objetos de esa clase poseen
la propiedad en cuestión" (Cf. Chalmers,1991; Klimovsky, 1997). Puesto que el principio
de inducción debidamente cumplimentado no garantiza que una cierta ley general no sea
refutada habida cuenta que es lógicamente posible encontrar un contraejemplo que la
invalide, el inductivismo primitivo se vió obligado a reconsiderar el carácter de verdad
perenne de sus leyes empíricas adoptando en su lugar, el concepto de verdad probable.
Desde una visión más atenuada del inductivismo, se comenzó a considerar que las
afirmaciones generales de la ciencia no necesariamente se abstraían inductivamente de la
experiencia sino que también, eran factibles de ser descubiertas por cualquier otro medio.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 31
Además, desde este inductivismo moderado, el conocimiento científico no era ya
concebido como un conocimiento necesariamente verdadero sobre la realidad. Esta
posición atenuada llegó a conocerse con el nombre de confirmacionismo. Desde esta
perspectiva, las leyes empíricas en lugar de considerarse como enunciados verdaderos
sobre la estructura del mundo, se las contemplaba más bien como una descripción
probablemente verdadera acerca de cómo es el mundo siendo el grado de probabilidad
mayor o menor en función del monto de apoyo observacional que le servía de sustento.
Luego, para el confirmacionismo, las afirmaciones o enunciados generales de la ciencia
que disponían de un fuerte apoyo empírico se las consideraría confirmadas antes que
verificadas.
El estatuto de verdad probable de una ley empírica se encontraría justificado por un
principio de inducción de corte probabilístico que rezaría más o menos como sigue: "si, en
una gran variedad de circunstancias, se observa un gran número de objetos de una cierta
clase y es el caso que absolutamente todos poseen la propiedad j, entonces puede
aceptarse a todos los efectos como probablemente verdadero que todos los objetos de
esa clase poseen la propiedad en cuestión" (Cf. Chalmers,1991). Ahora bien, la pretensión
de justificar mediante este principio de inducción reformulado, el carácter de verdad
probable de una ley universal enfrenta un escollo de peso cual es, como bien señala
Chalmers (1991), el concepto de que la probabilidad de que sea verdadera una
generalización empírica de carácter universal es, a todos los efectos, nula y ello es así por
cuanto la probabilidad definida como un cociente entre un número finito de casos
singulares o hechos observados –evidencia empírica acumulada- y un número
potencialmente infinito de casos posibles –dominio de la ley general- es igual a cero.
Ambas variantes inductivistas coinciden, sin embargo, en el concepto de que es posible
establecer la verdad o probable verdad de los enunciados universales, núcleo del saber o
de las teorías científicas, mediante la recolección oportuna de la evidencia empírica
pertinente. En efecto, en los enfoques menos sofisticados del inductivismo, la recolección
de datos precede a la formulación, mediante la generalización inductiva, de un enunciado
universal. Empero, en los enfoques más sofisticados no importa cómo se obtenga o
descubra un enunciado universal, a posteriori de su formulación debe recabarse la
evidencia empírica que servirá de basamento como prueba de su verdad o probable
verdad. En este sentido se puede decir que una cierta teoría puede reputarse de científica,
o lo que es lo mismo, adquiere visos de legitimidad en la medida en que se encuentre
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 32
justificada o avalada por los datos empíricos, árbitros últimos de la verdad o probable
verdad de una tal teoría. Así, como bien lo señalan Klimovsky y de Asúa (1997), puede
decirse del enfoque inductivista que es justificacionista en la medida en que supone que
es posible una justificación empírica de los enunciados universales constituyentes del
conocimiento científico en tanto que afirmaciones verdaderas o probablemente verdaderas
acerca del mundo.
En las Figuras 3 y 4 se representan esquemáticamente las posiciones del inductivismo
‘ingenuo’ –verificacionismo- y del inductivismo ‘sofisticado’ –confirmacionismo’-,
respectivamente y, en la Figura 5, se esquematiza el concepto de que las hipótesis
científicas no pueden contemplarse como enunciados verdaderos o probablemente
verdaderos sobre la estructura del mundo.
2.2.3.2. EL REFUTACIONISMO En abierta oposición al concepto de conocimiento científico como conocimiento cierto o
probablemente cierto sobre la estructura del mundo, Popper (1973) basándose en la idea
de que ningún tipo de argumentación inductiva puede llegar a establecer la verdad o
probable verdad de una proposición universal, desarrolla su concepción hipotética de la
ciencia proponiendo que, a lo sumo, el conocimiento científico es una conjetura acerca de
cómo es el mundo. Una conjetura es, en esencia, un enunciado de carácter hipotético en
el sentido de que comporta una suposición acerca cómo está estructurado el sector de la
realidad al cual el mismo hace referencia. Los enunciados conjeturales, aunque se
suponen verdaderos, por cuestiones estrictamente lógicas como habrá de verse, jamás
podrán llegar a probarse que son tales.
Partiendo de la base de que las afirmaciones en ciencia empírica deben poder
contrastarse con la realidad (empírica), resulta imperativo para cualquier teoría (científica)
contar con elementos de juicio que, de algún modo, le otorguen un sentido de verosimilitud
a la misma. Entre estos elementos de juicio, se destacan aquellos de carácter
observacional que, por su propia naturaleza (fáctica), provienen del campo de la
experiencia. Estos elementos observacionales suelen recibir el nombre de ‘consecuencias
observacionales’ [3] por cuanto los mismos se desprenden como una consecuencia lógica
de los enunciados conjeturales que se proponen a propósito de la estructura del mundo.
Así, si el mundo es verdaderamente tal y como lo afirma una hipótesis H, entonces cabría
esperar la ocurrencia (en el mundo) de un cierto tipo de acontecimientos O. Ahora bien,
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 33
¿qué puede decirse de una teoría que cuenta con un cúmulo de elementos
observacionales o evidencia empírica favorable a la misma? Si uno asimila el concepto de
enunciado hipotético o hipótesis (H) a las condiciones antecedentes de un enunciado
condicional (p) y los elementos observacionales (O) a sus consecuentes respectivos (q),
es claro que, desde el punto de vista lógico, el cumplimiento o verificación de O no lleva
necesariamente a afirmar la verdad de H.
En caso de llegarse a esta conclusión, se acometería lo que los lógicos denominan la
‘falacia de afirmación del consecuente’: la mera ocurrencia del consecuente q, no
garantiza la verdad del antecedente p por cuanto aquel bien puede llegar a producirse por
múltiples razones, entre éstas, el antecedente p considerado en forma explícita. Esto es lo
mismo que decir que la ocurrencia de O es compatible con un conjunto más o menos
vasto de j posibilidades hipotéticas H, H1, H2 , …, Hj de las cuales se encuentran bajo
estudio sólo una, H. De allí que sería gratuito aceptar la verdad de H a partir de la verdad
de O. Empero, si bien la verificación de O no permite establecer la verdad (o probable
verdad) de H, su no cumplimiento o refutación, llevaría a establecer o a presumir la
falsedad de H. En efecto, puesto que O es una consecuencia que debe producirse en el
supuesto de que H sea verdadera, la no ocurrencia o refutación de O lleva a pensar que H
puede no ser verdadera, es decir, puede ser falsa. La razón lógica que lleva a expedirse
sobre la falsedad de H a partir de la refutación de O estriba en que ésta no es ni más ni
menos que la conclusión de un razonamiento deductivo [4] que tiene entre sus premisas a
H y, como en toda deducción válida una conclusión no puede ser falsa si sus premisas
son verdaderas, H no puede ser verdadera. Atento a este rol asimétrico que cumplen la
verificación y la refutación de O en cuanto al establecimiento de la verdad de H, el
refutacionista tiende cautamente a considerar corroboradas a las hipótesis cuyas
consecuencias observacionales resultan verificadas en la realidad. Una hipótesis
corroborada es aquella que puede aceptarse provisionalmente como una descripción más
o menos verosímil respecto cómo es el mundo en la medida en que, en el proceso de
contrastación empírica, se produzca la verificación de sus respectivas consecuencias
observacionales.
Cuando ocurre lo contrario, esto es, cuando las consecuencias observacionales resultan
refutadas, desde una posición refutacionista extrema conocida como ‘falsacionismo
ingenuo’ (Cf. Chalmers, 1991), la hipótesis en cuestión se declararía falsa sin más trámite.
Una versión menos radical de esta posición, el ‘falsacionismo sofisticado’, admite que el
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 34
proceso de contrastación empírica de una hipótesis dada es un asunto complejo en el cual
intervienen no sólo la hipótesis principal a contrastar sino también otras hipótesis que se
encuentran implícitas en el marco teórico (y metodológico) en el cual se inserta aquella.
Por ello, la refutación de una determinada consecuencia observacional no implicaría
necesariamente la falsedad de la hipótesis principal.
En definitiva, para el refutacionismo, el conocimiento científico no es sino un conjunto
articulado de hipótesis o conjeturas que, sin ser verdaderas, al comprobarse en el plano
empírico, nos acercarían progresivamente a la verdad configurando así ‘un modelo
tentativo y verosímil’ (Klimovsky y de Asúa, 1997), más no uno verdadero, acerca de la
realidad. En punto a obtener este conocimiento, el refutacionista propone como única
alternativa metodológica válida, el método hipotético deductivo. Este consiste en formular
hipótesis acerca de la realidad, derivar de ella deductivamente una serie de
consecuencias observacionales, y someterlas a contrastación en el plano empírico. Si
dichas consecuencias resultan verificadas, la hipótesis se mantiene; caso contrario, se
revisan los datos observacionales o las hipótesis conexas a la hipótesis principal en pos
de encontrar las razones por las que se produjo la refutación. De no haberlas o de
producirse reiteradas refutaciones de las consecuencias observacionales asociadas a la
hipótesis de marras, ésta eventualmente se descarta como conocimiento científico válido.
En la Figura 6 se proporciona una representación esquemática del concepto de asimetría
entre la verificación y la refutación –central en la concepción refutacionista de la ciencia- y,
asimismo, del modelo hipotético-deductivo de contrastación de hipótesis.
2.2.4. LAS CIENCIAS FORMALES Y LAS CIENCIAS FÁCTICAS: DIFERENCIAS ADICIONALES Amén de la cuestión metodológica, por cierto que ambos tipos de ciencias, las formales y
las fácticas, difieren en otros aspectos importantes: el tipo de objetos de los que se
ocupan, el tipo de enunciados con los que expresan el conocimiento sobre el mundo y, por
último, la finalidad que persiguen. En cuanto a los objetos de estudio, las ciencias
empíricas se ocupan de los hechos y acontecimientos del ‘mundo en que vivimos’
(Hempel, 1979), esto es, de la realidad empírica en tanto que, las ciencias formales se
abocan al estudio de objetos ideales, esto es, entidades que solo habitan en el mundo del
pensamiento. Con respecto a los enunciados con los que operan ambas ciencias, suele
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 35
afirmarse que las empíricas apelan predominantemente a enunciados sintéticos y, las
formales, a enunciados analíticos en forma exclusiva.
Los primeros son enunciados cuya verdad o falsedad es una función de su
correspondencia con el estado de cosas de la realidad a la que hacen referencia (Vg., el
enunciado "El pensamiento formal como último estado del desarrollo intelectual se alcanza
aproximadamente a la edad de 12 años" es verdadero en el caso de que lo afirmado se
corresponda con la realidad). Los segundos, por el contrario, son afirmaciones cuya
verdad o falsedad se determina en virtud de relaciones formales o semánticas que se
establecen entre los términos o componentes que lo constituyen (Vg. "Llueve y no llueve":
lógicamente falso; "Ningún soltero es casado": verdadero por definición). En lo atinente a
la finalidad que ambos tipos de ciencia persiguen podría decirse que las ciencias fácticas
apuntan a describir y explicar el conjunto de fenómenos de aquel sector de la realidad que
recortan como su objeto de estudio. Puesto que las ciencias formales no se ocupan de la
realidad empírica, bien podría afirmarse en un sentido general que su finalidad es el
desarrollo y construcción de sistemas abstractos de pensamiento. En la Figura 7 se
proporciona una descripción comparativa de ambos tipos de ciencia.
2.2.5. EL CONOCIMIENTO CIENTÍFICO Y SUS CONTEXTOS De ser cierto que, como afirman algunos filósofos, "de la nada, nada sale", del
conocimiento científico en tanto que creación de la mente humana, bien cabría
preguntarse acerca de cómo surgió en un momento y lugar determinado de la historia.
Una vez producido, bien correspondería preguntarse cómo determinar que dicho
conocimiento puede tomarse como un conocimiento válido acerca de la realidad.
Supuesto que tal conocimiento sea válido, cabría preguntarse asimismo acerca de cuál es
su utilidad en el inventario de las cosas del mundo. En el ámbito de la ciencia, este tipo de
cuestiones vienen a definir lo que tradicionalmente se denominan los contextos del
conocimiento científico. Estos son: el contexto de descubrimiento, el contexto de
justificación y el contexto de aplicación. Los dos primeros fueron propuestos por H.
Reichenbach (1937) un filósofo de la ciencia enrolado primitivamente en el inductivismo y,
el último, por el epistemólogo argentino G. Klimovsky (1994).
En el contexto de descubrimiento, como su nombre lo hace suponer, trata de las
cuestiones referidas a los factores que dieron origen o coadyuvaron a la producción de
una hipótesis o teoría científica. La elucidación de estos factores caería en la órbita de la
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 36
Psicología y, también, de la Sociología. Estas disciplinas se abocarían la una, a estudiar
los mecanismos psicológicos involucrados en la creación de hipótesis científicas, los
procesos de razonamiento, solución de problemas, toma de decisiones y demás que
acaecerían en la mente del hombre de ciencia, y, la otra, a desentrañar las circunstancias
históricas que contribuyeron a la formulación de una teoría en un tiempo y lugar
determinados.
El contexto de justificación, por otro lado, atañe a la cuestión de si la teoría descubierta o
creada puede considerarse como conocimiento científico objetivo y fundado acerca del
mundo. En este contexto se deben presentar los argumentos empíricos, lógicos y teóricos
que lleven a aceptar una teoría como parte del corpus de la ciencia.
El contexto de aplicación, como su nombre lo indica, aludiría a la aplicación que se hace
del conocimiento científico en vistas a la transformación de la realidad. En este contexto
se trataría no solo los usos del conocimiento sino también los eventuales beneficios o
perjuicios que los mismos acarrean a la humanidad.
2.2.6. EL CONOCIMIENTO CIENTÍFICO Y SUS PECULIARIDADES Bunge (1979) en su clásico texto sobre la ciencia, cataloga magistralmente una serie de
características que distinguen al conocimiento científico en tanto que construcción artificial
de la mente humana. En lo esencial, este tipo de conocimiento se destacaría por su
carácter fáctico, racional, verificable, objetivo, sistemático y explicativo. El conocimiento
científico es fáctico por cuanto trata sobre los fenómenos y hechos de la realidad empírica;
es racional por estar fundado en la razón, esto es, en un conjunto de ideas y
razonamientos y no en sensaciones, opiniones, pareceres o dogmas; verificable en el
sentido de comprobable empíricamente por cuanto sus afirmaciones deben someterse al
tribunal de la experiencia; objetivo por cuanto sus afirmaciones pretenden ser
concordantes con los objetos de la realidad; sistemático en el sentido de constituir un
cuerpo de ideas lógicamente entrelazadas más que un cúmulo de proposiciones
inconexas y, por último aunque no menos importante, el conocimiento científico es
explicativo en el sentido de que el mismo no se conforma con describir cómo es el mundo
sino que intenta dar cuenta de las razones por las cuales el mundo es como es vale decir,
encontrar las razones por las cuales los fenómenos empíricos se comportan del modo en
que lo hacen.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 37
2.2.7. NOTAS [1] Recordar que en toda deducción válida, las conclusiones nunca pueden ser falsas si
las premisas son verdaderas. En un sistema axiomático, las premisas son los axiomas y
las conclusiones, los teoremas.
[2] Estos enunciados constituyen afirmaciones generales referidos a todos los miembros
de una cierta clase. Ejemplo: "Todos los toros son negros" es una afirmación que sostiene
que la propiedad de ser negro es consustancial a la clase de los toros.
[3] Una consecuencia observacional es un enunciado o expresión lingüística de aquello
que cabría esperar en caso de ser cierta la hipótesis que le dio origen. Si las
‘observaciones pertinentes’ (Klimovsky, 1997), esto es los datos empíricos del caso se
corresponden o no se corresponden con lo que se afirma en dicho enunciado, se dice que
se ha producido, respectivamente, la verificación o refutación de la consecuencia
observacional.
[4] Un razonamiento deductivo es, desde el punto de vista lógico, un conjunto de
enunciados o proposiciones una de las cuales, llamada conclusión, se pretende que se
derive o infiera de un modo necesario o no contingente de las otras llamadas premisas.
2.2.8. REFERENCIAS o Bunge, M. (1979). La ciencia. Su método y su filosofía. Buenos Aires: Siglo Veinte.
Chalmers, A. (1991). ¿Qué es esa cosa llamada ciencia?. Buenos Aires: Siglo
Veintiuno.
o Hempel, C. (1979). La filosofía de la ciencia natural. Madrid: Alianza.
o Kerlinger, F. S. (1975). Investigación del comportamiento. Técnicas y metodología.
México: Interamericana.
o López Alonso, A. (1982). Temas de metodología de la investigación. Buenos Aires:
Eudeba.
o Nagel, E. (1981). La estructura de la ciencia. Buenos Aires: Piadós.
o Klimovsky, G. (1994). Las desventuras del conocimiento científico. Una introducción
a la epistemología. Buenos Aires: A-Z editora.
o Klimovsky, G. y de Asúa, M. (1997). Corrientes epistemológicas contemporáneas.
Buenos Aires: Editores de América Latina.
o Popper, K. (1973). La lógica de la investigación científica. Madrid: Tecnos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 38
o Reichenbach, H. (1937). Experience and prediction. Chicago: The University of
Chicago Press.
o http://www.salvador.edu.ar/ua1-9pub02-5-01.htm
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 39
<
2.3. LA CIENCIA Y EL MÉTODO CIENTÍFICO
Francisco Osorio G.
El objetivo de esta reunión es presentar brevemente lo que se entiende por explicación
científica, las características básicas del empirismo lógico y la falsación en Popper. Estos
temas revisten una enorme importancia para la antropología, pero dado el escaso tiempo
disponible, sólo es posible hacer una sucinta presentación de dichos contenidos.
Explicación Científica, Los comienzos de la antropología están ligados �entre otros
aspectos� a los ideales de la ilustración, a la confianza en la ciencia como eje del
progreso de la humanidad y, en lo que nos interesa, a la creencia que los fenómenos
culturales pueden ser explicados de acuerdo al modelo de la ciencia natural. El positivismo
decimonónico y, posteriormente, el empirismo lógico, crearon las bases de la antropología
como ciencia y, en general, de las ciencias sociales como hoy las conocemos.
Esta posición se denomina naturalista y continua hasta nuestros días, sólo que las críticas
hoy son más fuertes o, tal vez, más gente a empezado a creer en ellas. Los naturalistas
creen en la explicación, entendiéndose por este concepto una variedad de razonamiento
que incluye leyes cubrientes o generales. Es decir, en un sentido ambiguo podemos decir
que hay muchas maneras de explicar, pero siendo rigurosos dentro del contexto de la
antropología como ciencia, diremos que explicar es una manera concreta de razonar con
características muy específicas, donde el concepto de ley general es de extrema
importancia. Pero, ¿cuáles son las características de la explicación científica?
Tal vez es la obra de Carl G. Hempel la que más destaque entre los epistemólogos
cuando tratan de caracterizar la explicación y su naturaleza. Por ello nos detendremos a
caracterizarla mediante un conjunto de 11 aforismos que resume el ensayo La Lógica de
la Explicación aparecido en su famoso libro La Explicación Científica (Hempel 1965).
1. Explicar es responder a la(s) pregunta(s) ¿por qué?
2. La explicación consta de un explanandum y un explanans, que es necesario distinguir
de los términos explicandum y explicans, los cuales se reservan para el ámbito de la
explicación de significado y análisis.
3. El explanandum es un enunciado que describe el fenómeno a explicar (es una
descripción y no el fenómeno mismo).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 40
4. El explanans consta de �al menos� dos conjuntos de enunciados utilizados con el
propósito de dilucidar el fenómeno:
4.1. Por una parte, enunciados que formulan condiciones antecedentes (C1, C2, .... Ck);
indican condiciones que se manifiestan antes de la aparición del fenómeno que se va a
explicar.
4.2. Por otra, enunciados que representan leyes generales (L1, L2,... Lr)
5. El fenómeno en proceso de explicación será explicado demostrando que se produjo de
acuerdo con las leyes generales (4.2) y en virtud de las condiciones antecedentes
especificadas (4.1.).
5.1. Así, la pregunta ¿por qué sucede el fenómeno? se transforma en la pregunta ¿de
acuerdo con qué leyes generales y cuáles condiciones antecedentes se produce el
fenómeno?
6. La explicación también puede formularse respecto a leyes generales. Es decir, la
explicación de una regularidad general puede subsumirse dentro de otra regularidad más
inclusiva (una ley más general). Dicho de otra manera, las leyes generales son cubrientes,
ya que pueden subsumir otras leyes o un conjunto de hechos.
6.1. Ejemplo: la validez de la ley de Galileo sobre la caída de los cuerpos en la superficie
terrestre, puede explicarse a partir de un conjunto más inclusivo de leyes, tales como las
del movimiento y de la gravedad de Newton y de otros enunciados acerca de hechos
particulares como los referidos a la masa y al radio terrestre.
7. Requisito Lógico Empírico de la Explicación. 7.1. Los dos primeros requisitos (R) son de carácter lógico. El tercero es lógicoempírico. El
cuarto es de carácter empírico.
7.1.1. (R1). Deducibilidad. El explanandum debe ser lógicamente deducible de la
información contenida en el explanans.
7.1.2. (R2). Leyes. El explanans debe contener leyes generales adecuadas a la derivación
lógica del explanandum.
7.1.3. (R3). Consecuencia Empírica. El explanans debe tener contenido empírico
(comprobable por experimento u observación); lo anterior supone asumir que el explanans
deberá contener, al menos, una consecuencia de índole empírico.
7.1.4. (R4). Requisito Empírico. Los enunciados del explanans deben satisfacer la
condición de corrección fáctica, lo cual implica que han de ser confirmados por todos los
elementos relevantes antes de ser considerados verdaderos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 41
7.1.4.1. Ejemplo: Supóngase, que en una etapa primitiva de la ciencia un determinado
fenómeno fue explicado mediante un explanans verificado con las pruebas disponibles en
ese momento, pero descubrimientos empíricos más recientes lo han negado. Las posibles
respuestas que pueden proporcionarse atendiendo a la condición de corrección fáctica
son: (a) originariamente la condición fue correcta, pero dejó de serla al descubrirse
elementos de prueba desfavorables; (b) la verdad (empírica) del explanans y la solidez de
la explicación (lógica) había sido bastante probable, pero la mayor evidencia empírica
disponible ahora hace muy probable que el explanans no fuera verdadero y �en
consecuencia� la explicación no era, ni ha sido nunca, correcta.
8. Explicación y Predicción. El mismo análisis formal (incluidos los cuatros requisitos) se
aplica a la explicación y a la predicción.
8.1. Diferencia entre explicación y predicción. La diferencia es de carácter pragmático.
8.1.1. Explicación. Si dado E (enunciado descriptivo), y conociendo que E ha ocurrido, se
enuncia un conjunto de oraciones C1, C2, ... Ck y luego se enuncia otro conjunto de
enunciados L1, L2, ... Lr, conexos a los anteriores, entonces hablamos de explicación.
8.1.2. Predicción. Si, proporcionados los dos conjuntos de enunciados (Ck y Lr), de ellos se
infiere E antes de que suceda el fenómeno, entonces hablamos de predicción.
8.1.3. En consecuencia, a nivel de características lógicas, la explicación y la predicción
poseen los mismos elementos estructurales.
9. Explicación PreCientífica y Explicación Incompleta. 9.1. La explicación pre científica carece de fuerza predictiva, puesto que el explanans no
suministra leyes explícitas por medio de las cuales poder realizar la predicción, ni
establece, de manera adecuada, las condiciones antecedentes que serían necesarias para
este propósito.
9.2. La explicación incompleta puede considerarse como un índice de correlación positiva
entre las condiciones antecedentes y el tipo de fenómeno que se va a explicar y como
guía de la dirección que deberán tomar las investigaciones ulteriores con el propósito de
completar dicha explicación.
10. Explicación Causal. Si E describe un hecho, puede decirse que las circunstancias
antecedentes señaladas en C1, C2... Ck "causan" en conjunto aquel hecho, en el sentido
de que existen ciertas regularidades empíricas expresadas por L1, L2... Lr, las cuales
implican que toda vez que ocurran condiciones del tipo indicado por C1, C2... Ck, tendrá
lugar un hecho del tipo descrito en E.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 42
10.1. De acuerdo a lo indicado tenemos que: una explicación causal completa se convierte
en una adecuada predicción.
10.2. En tal contexto, los enunciados L1, L2... Lr, al expresar conexiones generales y
ordinarias entre características específicas de hechos, se denominan leyes causales.
10.3. La explicación causal es una variedad del tipo de razonamiento deductivo.
11. La tesis de Hempel es que los principios de la explicación generados en la física son
también aplicables a las ciencias sociales.
En resumen, hasta aquí se han entregando los antecedentes que nos permiten
caracterizar la explicación científica, según la obra del epistemólogo Hempel, entendida
como un razonamiento por leyes cubrientes. Dicho de otra manera, la explicación causal
es una variedad del tipo de razonamiento deductivo. Sin embargo, con el propósito de
ejemplificar las ideas expuestas, es conveniente destacar que la explicación que
usualmente damos en nuestra vida cotidiana está, curiosamente, bastante cerca de la
científica.
Cuando observamos las noticias en televisión, podemos notar que los periodistas
preguntan a los encargados de la seguridad pública: –"¿Por qué han aumentado los robos
a mano armada?" y estos responden algo así como: –"No es que hayan aumentado los
robos, puesto que se mantienen en el mismo promedio de la década pasada, lo que pasa
es que los delincuentes tienen mayor acceso a armas, las cuales son obtenidas,
principalmente, de los habitantes de las mismas casas que asaltan, puesto que las
compraron para defenderse de los delincuentes. Como los miembros de la familia no
pueden estar armados mientras almuerzan o duermen, entonces guardan el arma en el
closet, pero es ahí donde los delincuentes las encuentran y las ocupan en los posteriores
atracos".
Este tipo de respuesta puede considerarse una explicación satisfactoria. El fenómeno a
explicar es el aumento de robos con armas, enunciándose como condición antecedente
que los delincuentes obtienen las armas de las mismas casas que asaltan. Es decir, dada
la condición antecedente C (obtención de armas), se produce E (más robos armados). La
causa C produce el efecto E. Sin embargo, lo anterior no es literalmente una explicación
científica, aunque pudiera parecerlo.
¿Qué es aquello que le falta a este ejemplo para ser considerado una explicación
científica? Una ley general. En efecto, falta una legalidad fuerte que conecte la obtención
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 43
de armas con la mayor cantidad de robos armados. Si una ley tal existiera, quedaría como
sigue:
1. Todas las armas robadas son usadas en robos armados
2. En Santiago aumentan las armas robadas
3. En Santiago se produce una mayor cantidad de robos armados
Donde 1 es la ley general, 2 es el antecedente o causa y 3 el consecuente o efecto.
Hasta aquí dejaremos la presentación de la explicación científica. Rápidamente
observamos las críticas y consecuencias que para la antropología tienen estas
proposiciones, pero es el momento es cumplir nuestro segundo objetivo.
2.3.1. EL EMPIRISMO LÓGICO
Siguiendo a Boyd (1991), se podría decir que gran parte de la literatura epistemológica de
este siglo está dedicada a criticar o apoyar el empirismo lógico. Por algún motivo, los que
apoyan este programa filosófico se autodenominan empiristas lógicos. Quienes critican
este programa (realistas científicos y constructivistas sociales) llaman positivistas lógicos a
quienes siguen el programa del empirismo lógico.
Para abordar este programa de investigación se puede comenzar con el problema de la
demarcación, es decir, el problema de distinguir la ciencia y de la no–ciencia (teorías
metafísicas en lenguaje de ellos). La respuesta a este problema se conoce como
verificacionismo. Esta solución tienen dos componentes:
i) Teoría de la verificación del significado y ii) teoría del conocimiento empírico. El primer
componente señala que entender el significado de una expresión o teoría consiste en
entender las circunstancias bajo las cuales uno estaría justificado en creerla o creer su
negación. Es decir, el significado de una proposición o teoría se identifica con el conjunto
de procedimientos por los cuales puede ser probada y, así, verificada o desconfirmada.
Por ejemplo, la expresión de Durkheim "el suicidio varía en razón inversa del grado de
desintegración de la sociedad", es una proposición científica ya que por un conjunto de
procedimientos estadísticos podemos estar justificados en creer en ella. La expresión "el
Trauko es la causa del 37.8% de los nacimientos de Chiloé" es una proposición
metafísica.
El segundo componente, teoría del conocimiento empírico, señala que ya que el
conocimiento se basa en la evidencia de los sentidos, se puede elegir entre dos
proposiciones científicas que compiten por explicar un fenómeno mediante un experimento
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 44
crucial: cada teoría realiza una predicción observacional, aquella que sea confirmada nos
permite estar justificados en creer en ella. ¿Qué pasa si ambas con confirmadas? Cabe la
posibilidad que no sea un buen experimento, pero si lo es, entonces ambas teorías dicen
lo mismo, es decir, son empíricamente equivalentes.
De lo anterior se infiere que hay términos observacionales y términos teóricos. Ejemplos
de los primeros son suicidio y maternidad. Ejemplos de los segundos son anomia y mito.
El operacionalismo es la propuesta del empirismo lógico de reducir los términos teóricos a
términos observacionales con el propósito que tengan sentido.
Las consecuencias que estas propuestas tienen para la antropología y las consecuencias
que de ello se derivan, exceden el tiempo disponible en esta reunión. Por lo demás,
existen diferencias entre el positivismo, el positivismo lógico y los desarrollos
contemporáneos de estos programas de investigación que no podemos desarrollar en esta
conferencia. Incluso tampoco alcanzo a justificar que la creencia que Durkheim es un
positivista lógico (como se podría deducir de los ejemplos) es errónea.
2.3.2. EL FALSACIONISMO DE POPPER Popper también se preocupó del problema de la demarcación. Su respuesta es que una
teoría es potencialmente una teoría científica si y solo si existen posibles observaciones
que puedan falsarla (refutarla).
Según Popper, Hume tenía razón en que la inducción no puede fundar verdaderamente la
ciencia. Es decir, supongamos que vemos un cisne con cuello negro, luego vemos otro y
otro, entonces podemos tener la tentación de decir: "todos los cisnes tienen el cuello
negro". Hemos hecho una generalización o inducción tendiente a darle el carácter de ley
general. Sin embargo, aun cuando veamos muchos cisnes negros (y este es el punto),
nunca podemos estar ciertos que nuestra siguiente observación confirme la pretendida ley
"todos los cisnes tienen el cuello negro".
Frente a esto, Popper señala que la expresión "Todo A es B" tiene como juicio
contradictorio la expresión "Algún A no es B". Es decir, si bien el juicio "Ningún A es B" es
opuesto a "Todo A es B", lo que refuta la expresión desde un punto de vista lógico es
"Algún A no es B".
Para el ejemplo del cisne, dice Popper, no hay que proceder como los científicos que
tratan de probar su teoría capturando un cisne y observando si tiene el cuello negro, con el
propósito de decir que se ha confirmado la teoría. Al contrario, lo que hay que buscar son
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 45
los casos anómalos, aquellos que no cumplen con el enunciado de la ley. Si encontramos
ese caso, entonces la teoría no es cierta. Pero, ¿qué pasa si no lo encontramos?
Entonces es probable que la teoría sea cierta, pero nunca estaremos seguros que esa sea
la verdad absoluta.
Es esta última idea la que más adeptos tiene la propuesta popperiana, de los cual también
se extraen consecuencias para la antropología. Son estas, como las consecuencias
emanadas de la explicación científica y el empirismo lógico, las que nos motivan a
reflexionar al interior de esta disciplina en particular y de las ciencias sociales en general.
Sólo queda extender una cordial invitación a revisar estos programas de investigación en
función de los intereses buscados por cada uno de ustedes.
2.3.3. REFERENCIAS
o Boyd, Richard. 1991 (1993). Confirmation, Semantics, and the Interpretation of
Scientific Theories. The Philosophy of Science. Mit Press. Cambridge.
o Hempel, Carl. 1965 (1988). La Lógica de la Explicación. pp. 247-253. La Explicación Científica. Editorial Paidós. Barcelona.
o http://rehue.csociales.uchile.cl/antropologia/ciencia.htm
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 46
2.4. EL POSITIVISMO
2.4.1. INTRODUCCIÓN Indudablemente el Positivismo aparece en un momento histórico (finales del Siglo XIX y
comienzos del XX), cuyo terreno había sido abonado por innumerables cambios
tecnológicos como los acontecidos por la Revolución Industrial, coincidiendo a la vez, con
el decaimiento del sentido metafísico y religioso del conocimiento.
El hombre, al no obtener las respuestas esperadas en la religión, en su búsqueda y
peregrinaje permanente, por saber el porque de las cosas, fija su atención en la ciencia, ya
que la misma le brinda seguridad, confianza y confort. Ya no es el hombre, a merced de la
naturaleza, mas bien es un ser, que encuentra respuestas lógicas al estudiar en forma
analítica, los mecanismos de los objetos que se encuentran en su alrededor.
Y en este marco, con los cimientos antes mencionados, germina la semilla del Positivismo,
doctrina que Comte resume bien, a través de su Ley de los Tres Estadios, marcando así el
comienzo de la Historicidad del Conocimiento Humano.
A partir de este momento, la realidad se va a encontrar limitada por coordenadas de:
tiempo, espacio y masa, puesto que solo considera la posibilidad de estudiar
científicamente los hechos, los fenómenos, el dato experimentable, lo observable, lo
verificable para lograr el progreso de la sociedad, y ello, solo se puede alcanzar a través
de la ciencia, considerada desde Hegel, como la expresión más pura de la Racionalidad
de la cultura. Esta, se propone a entender el mundo real, definir sus relaciones, leyes y
características de la manera más objetiva, independientemente de la subjetividad de los
investigadores, de los orígenes y condiciones psico-sociales del descubrimiento o de sus
aplicaciones prácticas, utilizando en todo momento, la verificación en la experiencia y en la
observación de los fenómenos. Concepción que se expande hacia todas las ramas del
saber, inclusive hacia los hechos sociales que también son tratados como cosas.
2.4.2. EL POSITIVISMO, SUS ORÍGENES El termino Positivismo fue utilizado por primera vez por el filósofo matemático francés del
Siglo XIX Auguste Comte, no obstante, algunos de los conceptos positivistas pueden
perseguirse claramente desde Hume, Kant, y Saint-Simon.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 47
Imagen 1: David Hume( 1711-1776)
Filósofo escocés, cuyo espíritu analítico le llevó al escepticismo. Considera que el
conocimiento esta limitado a los acontecimiento actuales de la existencia, no puede ir más
allá, porque no acepta que existan ideas innatas, ya que todos los contenidos de la
conciencia provienen de la experiencia, y su teoría principal reside en la asociación de las
ideas. Para él, las ideas son copias borrosas sin viveza de las impresiones directas. Tanto
la percepción como la reflexión aportan una serie de elementos que se atribuyen a la
sustancia como soporte de ellos, no limita su crítica a la sustancia material, sino al propio
yo. Esto significa que las causas y hechos del mundo físico no se pueden entender, ni por
mucho, ni poco; solamente la creemos porque la naturaleza se comporta siempre así. El
escepticismo de Hume no pone en entre dicho la ciencia, pero le pone un basamento
caprichoso: la costumbre, el hábito, la asociación de ideas, los fenómenos naturales,
psicológicos; provocan en él la creencia en el mundo exterior.
Imagen 2: Immanuel Kant (1724-1804)
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 48
Filósofo alemán; formado en el racionalismo, comienza a dudar del valor de la razón al
leer a Hume, planteándose el problema del valor y los límites de ésta. La filosofía kantiana,
supone una síntesis del racionalismo y del empirismo, cerrando una época filosófica muy
importante. Kant procede a un estudio de cómo es posible la construcción de la ciencia,
llevando a cabo una reflexión sobre el problema de las relaciones de la razón con la
realidad, que en ella aparecen vinculadas. Kant distinguió dos grandes facultades dentro
del conocimiento humano: 1)La sensibilidad: es pasiva, se limita simplemente a recibir una
serie de impresiones sensibles, que Locke había llamado ideas de sensación y Hume
impresiones, y 2)El entendimiento: es activo y espontáneo. Y puede generar, dos tipos de
ideas o conceptos:
Conceptos puros o categorías: ideas o conceptos independientes de la experiencia (que
provienen de la razón)
Conceptos empíricos: ideas obtenidas a partir de la experiencia.
Admite que existen categorías o conceptos que no provienen de la experiencia, pero a la
vez sostiene que la aplicación de estos conceptos a la realidad nunca podrá ir más allá de
la experiencia sensible. Constituyendo así, una síntesis entre racionalismo y empirismo, ya
que, el conocimiento es síntesis a priori: es síntesis porque es organización o conexión de
datos sensibles (como lo exige el empirismo) y a priori, porque el principio de esta
organización es nuestra conciencia, la cual al constituirla, actúa según leyes esenciales a
su propia naturaleza, y por eso mismo leyes universales y necesarios (conforme a la
exigencia del racionalismo)
Imagen 3: Claude Saint-Simon (1760-1825)
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 49
Pensador francés, que insistió en el progreso industrial y científico con el fin de delinear un
nuevo orden social. El Saintsimonísmo es una doctrina socialista, basada en las teorías
del Conde Saint-Simon, según la cual cada uno ha de ser clasificado según su capacidad
y remunerado según sus obras. Considera que hay dos tipos de épocas en la historia:
Las críticas: son necesarias para eliminar las fosilizaciones sociales.
Las orgánicas: donde el hombre no es una entidad pasiva dentro del acontecer histórico,
sino que siempre trata de descubrir modos de alterar el medio social dentro del cual vive,
dichas alteraciones se imponen como indispensables para el desarrollo de la sociedad
cuando funciona ésta según normas no correspondientes. No se puede decir en absoluto
que existen normas sociales convenientes a toda organización humana; lo que para una
época puede ser adecuado, para otra no. Así sucede para con la sociedad industrial
moderna.
Para Saint-Simon es engañoso suponer que las clases deben ser niveladas o que deben
mantener la estructura de anteriores épocas, durante las cuales dependía de la jerarquía,
pero se mantenía cuando menos en lo que concierne a la moral y a las creencias
religiosas, una cierta igualdad. Dice que esta igualdad es imposible: "la moral y los
sistemas de ideas deben ser diferentes para cada una de las clases fundamentales de la
nueva sociedad industrial moderna". (Ramírez, Pág. 10 , 2000)
Saint-Simon atribuyó el poder temporal a los industriales (propietarios, técnicos y
campesinos) y el espiritual, a aquellos a quienes encomendaba la elaboración de un
sistema llamado Nuevo Cristianismo basado frente a los preceptos negativos
desarrollados por el catolicismo, protestantismo y otras religiones en leyes positivas
afirmadoras del desarrollo del trabajo. Dicho sistema tenía como núcleo fundamental: la
idea de fraternidad, que conducía a la concepción de una sociedad mundial libre, es decir,
una sociedad universal continuamente dedicada a la producción y en la cual la Iglesia
pudiese ser sustituida por el taller.
Son elementos destacados de sus ideas: la bondad de la propiedad privada, la
preocupación básica de la sociedad debería ser la mejora de la clase más numerosa y
pobre, la herencia debía suprimirse y todo los individuos (clasificados por su capacidad y
retribuidos por sus obras) debían trabajar.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 50
2.4.3. DEFINICIÓN Según Enciclopedia Hispánica (Pág. 75-76, 1993) "Fundado por Augusto Comte, alega
que el hombre debe aplicarse al conocimiento de los fenómenos y sus leyes, y la ciencia
se ubica de acuerdo a su complejidad y generalidad creciente, estableciendo categorías
para analizar hechos sociales, porque conocer el mundo físico no es igual que conocer la
realidad social.
Según el Club Caminante (Pág. 1, 1999) "Consiste en no admitir como validos
científicamente otros conocimientos, sino los que proceden de la experiencia, rechazando,
por tanto, toda noción a priori y todo concepto universal y absoluto. El hecho es la única
realidad científica, y la experiencia y la inducción, los métodos exclusivos de la ciencia".
Según Biblioteca Práctica de Consulta del Nuevo Milenio (Pág. 124, 2000) "Es una
corriente filosófica que se fundió con distintas variantes; la que pretende estar por encima
del idealismo y del materialismo, argumenta ser una tercera vía para la filosofía. De hecho
se trata de eludir definiciones sobre los problemas fundamentales y concentrarse en el
conocimiento positivo, esto es, en los datos de la ciencia que da por vía experimental".
Según Juan Ramírez (Pág. 10, 1999) "Es un sistema filosófico basado en la experiencia y
el conocimiento empírico de los fenómenos naturales, en el cual la metafísica y la teología
son sistemas de conocimientos imperfectos e inadecuados". Según la Nueva Enciclopedia
Larousse (Pág. 7892,1982) "Tendencia científica y filosófica de la segunda mitad del siglo
XIX que se caracteriza por la atención exclusiva a los hechos, prescindiendo de cualquier
postulado no verificable".
Principales representantes
Imagen 4: Augusto Comte(1798-1857)
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 51
Vida. Nació en Montpellier en 1798 y murió en París en 1857. Estudió en París y luego de
diversos avatares académicos, logró el puesto de profesor auxiliar de matemáticas en la
Escuela Politécnica de París. Su vida económica fue bastante desgraciada, debiendo
subsistir los últimos años de su vida de las ayudas de discípulos y amigos. La hostilidad
que sus escritos suscitaron en los diferentes ambientes académicos fue la principal causa
de su desgracia.
Obras. "Curso de filosofía positiva", "Sistema de política positiva o tratado de la sociología
que instituye la religión de la humanidad", "Discurso sobre el espíritu positivo", entre otras.
Imagen 5: Herbet Spencer (1820-1903)
Vida. Nació en Derby (Inglaterra) y murió en Brighton en 1903. Durante toda su vida se
mantuvo apartado de los cargos y honores oficiales, dedicándose a su obra filosófica.
Obras. "Principios de Sicología", "Primeros Principios" "Principios de Biología" "Principios
de Sociología", "Carta a cerca de la esfera de acción que le compete al gobierno",
"Estática social", "La educación intelectual, moral y física", "Clasificación de las ciencias",
"La Sociología descriptiva", "El individuo contra el estado", "Principios de una moral
evolucionista", "Una Introducción a la Ciencias Sociales".
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 52
Imagen 6: John Stuart Mill (1806-1873)
Vida. Nació en Londres en 1806 y murió en 1873. Hijo de James Mill, un destacado
utilitarista inglés, quien le inculca a su hijo, estos principios filosóficos. Crearon juntos
(padre e hijo) el radicalismo filosófico y se propusieron explicar como mecanismos
mentales todas las supersticiones entre las que incluyeron al cristianismo, al cual
consideraban el enemigo mayor de la moralidad. John recibió una cuidada educación. Las
ideas utilitaristas de Bentham, gran pensador inglés de su tiempo y amigo de su padre, le
influyeron decisivamente. Obras. Entre las más destacadas están: "Principios de
economía política y utilitarismo", "Filosofía de las ciencias y métodos", "Autobiografía",
"Sistema de lógica racionativa e inductiva", "Sobre la libertad",, "Augusto Comte y el
Positivismo", "Naturaleza y utilidad de la religión".
Doctrina Comte eligió la palabra Positivismo sobre la base que señalaba la realidad y tendencia
constructiva que él reclamó para el aspecto teórico de la doctrina. Se interesó por la
reorganización de la vida social para el bien de la humanidad a través del conocimiento
científico, y por esta vía, del control de las fuerzas naturales. Los dos componentes
principales del Positivismo: la Filosofía y el Gobierno (o programas de conductas individual
y social), fueron más tardes unificados en todo bajo la concepción de una religión en la
cual la realidad es el objeto de culto.
El Positivismo no admite como válido científicamente otros conocimientos, sino los que
proceden de la experiencia, rechazando toda noción a priori y todo concepto total y
absoluto, por lo que apoya el relativismo del conocimiento. El hecho es la única realidad
científica, y la experiencia y la inducción, los métodos exclusivos de la ciencia. El
Positivismo es, antes que nada, una Teoría de Historia y un intento de construir una teoría
de la sociedad humana es decir una sociología. El dogma del progreso y los tres estados
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 53
de la sociedad (de Comte), son las dos columnas fundamentales que la sostiene. La base
del planteamiento de Comte consiste en afirmar que todo enunciado o proposición que no
se corresponda al simple testimonio de un hecho, no encierra ningún sentido real e
inteligible.
Algunas ideas centrales de su pensamiento son: la concepción historicista del desarrollo
de la ciencia y de la razón; las cuales él desarrolla en tres estados fundamentales, es
decir, la historia del pensamiento transitó por tres senderos y en el último radica la verdad
clara y demostrada; estos estadio son: Estadio mitológico – teológico: en este estadio el
ser humano hace depender los fenómenos naturales de la voluntad de poderes personales
superiores, es lo conocido como fetichismo donde se atribuyen poderes mágicos a
fenómenos naturales. Es en este estadio donde se vive el proceso del paso del politeísmo
al monoteísmo.
Estadio metafísico: es el estadio en el cual todo es explicado a partir de entidades
abstractas, es un período crítico, en el cual irrumpen las fuerzas disolventes de la
inteligencia; simplemente es transitorio.
Estadio positivo: Es el estadio definitivo y superior porque en él se explica la realidad
mediante la observación y la experimentación. Ya que, el Positivismo busca explicar los
hechos por medio de la formulación de sus leyes y es por ello que prescinde de la
metafísica. En este estadio se renuncia al conocimiento de lo absoluto, y se pasa a buscar
las leyes de los fenómenos. Comte intenta fijar el sentido de la palabra positivo,
analizando las diversas acepciones de la misma:
1) Positivo como real por oposición a quimérico
2) Útil en contraste con inútil
3) Certeza frente a indecisión
4) Preciso frente a vago
5) Positivo como contrario a negativo y/o Relativo en contra de absoluto
Estas precisiones semánticas pueden sirven para ir acotando cuál es la verdadera esencia
de la teoría positivista del conocimiento.
1) La exigencia de realidad es el postulado fundamental. Comte nos aclara que con esta
exigencia se pretende limitar el conocimiento filosófico "a las investigaciones
verdaderamente asequibles a nuestra inteligencia, con exclusión permanente de los
impenetrables misterios con que se ocupaba, sobre todo en su infancia" (Alsina, 2000). Lo
asequible a nuestra inteligencia es lo que el Positivismo llama los hechos. Comte
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 54
establece "como regla fundamental que toda proposición que no pueda reducirse
estrictamente al mero enunciado de un hecho particular o general no puede ofrecer ningún
sentido real e inteligible" (Alsina, 2000); definiendo los hechos como las cosas o
acontecimientos accesibles a la observación, o dicho de otra manera, fenómenos u
objetos de experiencia. Esta exigencia va contra toda construcción especulativa, contra
toda elaboración a priori o puramente racional del conocimiento, en definitiva, contra toda
metafísica o todo cuanto no sea sensible – material (Materialismo), valiéndose del
Empirismo para reducir por completo todo conocimiento a sensaciones sensibles, por
medio de regularidades observadas en los fenómenos, a las cuales se llega a través de la
observación por procedimientos inductivos.
2) Comte precisa el sentido de la palabra utilidad: el verdadero conocimiento no tiene un
fin en sí mismo (no es "una estéril curiosidad"), sino en el "mejoramiento continuo de
nuestra identidad individual y colectiva". Es decir, el conocimiento científico, aparte de su
utilidad instrumental y tecnológica, contribuye a un mejoramiento del ser humano. El gran
destino práctico de la positividad, al hacer al hombre fin último de todo saber, postula
también una ciencia de lo social, lo moral y lo político, unificada por Comte en la
sociología, con sus técnicas correspondientes. Sin embargo, las precisiones de Comte, no
pueden evitar la idea de utilidad asociada al conocimiento interpretado en el sentido
pragmático de conocimiento aplicado y tecnológico.
3) Certeza frente a indecisión, revela el utopismo y refleja el exceso de optimismo que
anima a Comte, y como tal hay que relegarlo al cajón de las grandes ilusiones no
confirmadas por el fallo inapelable de la historia, lo cual no es óbice para que no sigan
formando parte del repertorio ideológico de la modernidad, con aggiornamentos
continuados (Alsina, 2000).
4) Precisión frente a vaguedad. El gran desarrollo de la tecnología y la revolución industrial
no podían fundamentarse en conceptos vagos y confusos, y así nos habla Comte del
"grado de precisión compatible con la naturaleza de los fenómenos" y de que "el
pensamiento de una acción final recuerda siempre la condición de una precisión
conveniente" (Alsina, 2000).
5) Positivo como contrario a negativo y/o Relativo en contra de absoluto. Ambas
acepciones permiten la entrada a un nuevo tema: El sentido histórico, ya que la
historicidad del hombre, junto al nacimiento de la Sociología, vislumbran el más profundo
hallazgo del Positivismo. La historicidad del hombre plantea la relatividad del
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 55
conocimiento: "El estudio de los fenómenos, en lugar de poder llegar a ser, en modo
alguno, absoluto, debe permanecer siempre relativo a nuestra organización-oposición"
(Alsina, 2000). Es decir que la valoración de una teoría científica deberá hacerse en
función de las circunstancias históricas que la rodean. Al descubrir la historicidad del
hombre, Comte descubre también la historicidad de la ciencia. Como consecuencia directa
de este relativismo e historicismo se plantea por primera vez la existencia de la Historia de
la Ciencia como disciplina autónoma; pero los propios dogmas del Positivismo frustran en
parte las expectativas de un descubrimiento tan importante como es la historicidad del
conocimiento. La ciencia se contextualiza en función de su época, de su momento
histórico, pero a su vez, este momento histórico se ve siempre en relación con el Gran
final, con el advenimiento del espíritu positivo, y al llegar aquí el movimiento de la historia
se detiene, y lo que era relativo deviene ahora en lo absoluto. Además, la creencia de que
la historia tiene un motor propio se traslada también a la historia de la ciencia,
deduciéndose de aquí que la ciencia tiene un movimiento propio y autónomo de su
entorno social e histórico.
Finalmente se tiene como una temática fundamental en el discurso positivista: la unidad de
la ciencia. Comte la vincula, directamente a la dinámica social, reafirmando una vez más la
tesis de que el Positivismo es, más que una Filosofía o una Filosofía de la Ciencia, una
Teoría de la Historia. Los compartimentos estancos del conocimiento humano, que
llamamos las ciencias, deben articularse en una superior unidad, una unidad sistemática
determinada por su origen y destino común. En la mente humana esta unificación dará
lugar a la armonía mental, de tipo universal, a la que aspira Comte, y esto se producirá
indefectiblemente cuando la totalidad de los conocimientos humanos hayan alcanzado el
estado positivo.
Pero además de definir este ideal de la unificación de la ciencia, que sus herederos
neopositivistas han intentado llevar a la práctica, Comte clasifica y jerarquiza las ciencias,
añadiendo además una discriminación entre las auténticas ciencias, las positivas, y las
que no lo son. La psicología, por ejemplo, no es admitida entre las ciencias. Partiendo
desde su base matemática, las ciencias positivas son jerarquizadas según su grado de
generaIidad decreciente y de complejidad creciente: astronomía, física, química, biología y
sociología. Esta ordenación es a la vez lógica, histórica y pedagógica. Nos indica el orden
en que han ido apareciendo las distintas ciencias, nos indica a la vez la lógica interna del
proceso según los dos parámetros arriba indicados, y nos indica también el orden en que
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 56
deben ser enseñadas en una educación positiva. Respecto al orden histórico cabe añadir
el comentario de que no responde a la realidad: las distintas ciencias no han aparecido en
el orden que Comte quiere imponer. Otra vez la especulación, el debe ser, la deducción a
partir de unos postulados se impone sobre la observación: de nuevo triunfa la metafísica.
El desarrollo de la técnica y el progreso de la ciencia acreditaron el estadio positivo de la
ciencias naturales junto al dinamismo que supuso la teoría evolucionista de Darwin, la cual
fue avalada en la compendiosa obra de H. Spencer cuya directriz esta fundamentada en la
evolución natural, en virtud de una ley que rige el paso de lo homogéneo a lo heterogéneo,
de lo indefinido a lo definido, de lo simple a lo complejo. Spencer aducía, que la evolución
se aplica a todas las formas de la existencia cósmica y a todas las ciencias, en general
integración de materia y disipación concomitante del movimiento; desde este punto de
vista, es un fenómeno mecánico, evidenciable en la biología cuando muestra, el paso de lo
homogéneo a lo heterogéneo en la transformación de las células fecundadas en
organismo vivo.
En la psicología explica la génesis de los procesos psíquicos por una adaptación
progresiva de un estado interno, simple al principio, a un medio que cada vez va siendo
más complejo; dicha adaptación origina las diversas funciones mentales. En cuanto a la
sociología, Spencer señala que en todo organismo social y en cada órgano en particular
(en la familia, en el Estado, en la Iglesia), existe una complejidad creciente y una densidad
cada vez mayor. Dada la radical identidad de la sustancia universal, todos los fenómenos
de la naturaleza forman una serie en la que no hay lugar a fisuras, ni a ninguna creación:
los hechos psico-sociológicos nacen de los hechos biológicos y estos a su vez, nacen de
los fenómenos físicos y cósmicos; la creciente complejidad es suficiente para explicar la
aparición de los reinos superiores.
No obstante, Mill consideró necesario crear un método que permitiera la indagación de
dichos fenómenos de manera positiva, postulando el método inductivo como vía científica
del conocimiento. Considera que la experiencia suministra los datos, los fenómenos; razón
por la cual establece cuatro reglas para averiguar sus antecedentes:
• La Concordancia: que consiste en la observación de un fenómeno y su
circunstancias antecedentes, si las cambiamos todas menos una y el fenómeno
sigue dándose, la conclusión es que esta última circunstancia es la causa del
fenómeno observado.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 57
• La Diferencia: si se suprime una circunstancia antecedente y, como consecuencia,
desaparece el fenómeno, se puede afirmar que tal antecedente es la causa del
fenómeno.
• Los Residuos: llegado el caso en que se conoce la causa de una parte del
fenómeno, se debe considerar que el resto del fenómeno se debe a causas
desconocidas aún.
• Las Variaciones Concomitantes: consiste en partir de los hechos y, mediante el uso
de la inducción, llegar al establecimiento de las leyes físicas; es decir, cuando un
fenómeno varía en función de otro, se podría afirmar que de tal fenómeno es efecto
del segundo.
Mill funda su ciencia social en la voluntad y la creencia, toma el egoísmo como el principal
motor de las relaciones humanas, considera los valores religiosos como simple
colaboración, en los que la marcha del hombre va en la búsqueda moral. Afirma que el
hombre ante las necesidades materiales descubre que no existen soluciones espirituales,
sino que esas soluciones se encuentran en la Sociología. La lógica la declara como una
ciencia de prueba, lo mismo que a la Psicología como ciencia moral. Ya que, establece
que: "La observación y la experimentación, por profunda que sea, no puede conducirnos al
conocimiento absoluto de los fenómenos. Hay que partir, por tanto, de un cierto relativismo
cognoscitivo"(Ramírez, Pág. 30, 2000).
2.4.4. ACTUALIDAD DEL PENSAMIENTO El Positivismo en la actualidad tiene influencia en muchas personas y lugares, que sin ser
conscientes, se sitúan en esta línea de pensamiento. Definitivamente, hoy lo social y
teórico pierden más espacio que ganan lo matemático y comprobable. El Positivismo por
sus bases empíricas rechazan todo lo que no se pueda comprobar desde la óptica
humana y eso pasa en nuestros días, el hombre cada vez más acostumbrado a la técnica
y a la manera de mostrar las cosas, a través de laboratorios e investigaciones, se hace
más inverosímil ante las tesis de pensamiento y las especulaciones. El gran desarrollo de
la ciencia en los últimos siglos le ha permitido al Positivismo posicionarse en nuestros días
como una disciplina de verdadero conocimiento, que mirando atrás, puede situarse con
muchos adelantos y muchos logros, ya que lo que se vende, lo aceptado y lo creíble para
nuestros días, es solamente lo que se puede comprobar por algún proceso positivo.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 58
Las ciencias que han rechazado el Positivismo hoy no despiertan ningún tipo de
seguidores, ya que la conceptualización tan propia en otras épocas, donde fueron
aceptadas y tenidas como fuente de conocimiento, hoy más que nunca son cuestionadas y
tildadas de troncadoras del verdadero saber, y esto gracias al Positivismo.
De todas maneras, el pensamiento positivista, ha influido en la actualidad, en especial en
nuestro continente donde todos los países han sido marcados por estas ideas, sobretodo
en el campo político y en países subdesarrollados, buscando formas de progreso. En
Latinoamérica, se tiene un peculiar caso, y es que la tradición positivista de corte inglés
será el telón de fondo de una concepción neoescolástica de la vida, tanto política como
social. Sin embargo, a pesar de las influencias efectivas del Positivismo en la vida
espiritual latinoamericana, no se puede afirmar que tal influencia posee un carácter reflejo,
pues ya existía en nuestros países un autóctono Positivismo, que empieza a germinar a
partir de la crítica de la escolástica y la teología colonial. Es más, el Positivismo fue
instrumentalizado por un afán de sus seguidores de imprimirlo a las específicas
situaciones históricas. Se arraiga de manera profunda dicha actitud positivista en la
mayoría de nuestros pensadores, también siendo su reacción muy extraordinaria.
2.4.5. EL POSITIVISMO EN VENEZUELA Rafael Villavicencio (1886-1896). Es un insigne representante de la teoría Positivista en
Venezuela, ya que su contribución a la educación define época y marca huellas
imborrables. Los aportes mas interesantes los hizo junto al Dr. Ernest Adolf, quienes
desde la primera exposición que hacían en el periódico La Tribuna y de las lecciones de la
cátedra de Historia Universal a la que luego convirtió en Filosofía de la Historia, ayuda a
formar una generación de pensadores que actúan para comprender y analizar los
fenómenos desde otras perspectivas. La orientación imperante en este momento,
focalizaba su atención en construir una inventiva y un saber afianzado sobre el método de
la ciencia positiva.
Arturo Uslar Pietri dice al respecto: el Positivismo se presenta como una de las mas
fecundas etapas de la historia del pensamiento venezolano. No consistió solamente en
una serie de conceptos aprendidos en libros europeos, sino que despertó la curiosidad por
el estudio de nuestros fenómenos sociales, históricos y provocó así un mejor conocimiento
del país y de su realidad. De manera que bajo esta influencia se paso del conocimiento de
la Historia, como narración a la conceptualización de la Historia como Ciencia. El Doctor
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 59
Villavicencio miraba con una aureola de Positivismo comteano, ya que ejerció en
Venezuela el liderazgo de esta Escuela. Entre los años 1866 y 1880 aprendió el
positivismo con Litte con la lectura de una obra titulada: Conservación, Revolución del
Positivismo.
En dos grandes ideas centró la atención de esta nueva teoría en la concepción de la
historia y en la necesidad de estudiar y divulgar la ciencia como base del progreso. Es
importante destacar que en los discursos que pronunciaba Villavicencio en la Universidad
caraqueña en 1866 y 1869, no solo perseguía trasmitir las ideas conceptuales del
Positivismo sino que se deja entrever un mensaje político, la búsqueda de una Filosofía
que vigorice con sus principios el progreso del país dentro del orden y estabilidad
institucional en momentos de grave disolución y deterioro de fuentes de la riqueza.
Villavicencio era hombre de saberes actualizados y la novedad científica influye en sus
definiciones filosóficas, de manera que su filosofar está muy asociado a la ciencia. Al
respecto dice: "He sido y soy positivista en el sentido de que todo verdadero conocimiento
tiene por base la experiencia, es cuestión de método no de doctrinas".(Heces, Pág. 92,
1994)
En cuanto a lo epistemológico, su vocación científicista se caracteriza por la confianza que
tiene en la observación y experimentación para la adquisición del conocimiento, y este se
mantiene, dentro de la filosofía positivista. Villavicencio pone todo el peso en la educación
y cree firmemente en la influencia de esta, para lograr la formación del nuevo estado y la
consolidación del nuevo orden, a partir de la expansión del poder material e industrial.
De igual manera destaca la importancia del dominio de la naturaleza por la inteligencia,
tomados como elementos que definen a la sociedad positivista; ya que sostiene que: "La
sociedad es un hecho natural sometido a leyes fijas ,y sustraído como tal a la voluntad
humana, pero no de la inteligencia que puede comprenderle y modificar notablemente su
tendencia y determinación" (Heces, Pág. 97, l994). Asimismo, se dedicó a la divulgación
de dichas ideas positivistas, considerando a las filosofías de inspiración teológicas o
metafísicas, insuficientes para las necesidades del espíritu moderno acostumbrado a las
demostraciones científicas.
En cuanto a las ideas educativas, las resume en tres documentos: A)El informe de 1890,
conocido en el primer congreso pedagógico de Caracas en 1895; B)El informe claustro
universitario de Caracas; y C)Las observaciones que hace al proyecto Código de
Instrucción Pública 1909. Al ser interrogado a cerca de la elaboración de estos
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 60
documentos, él expresa claramente que los avala la madurez que produce la experiencia
desde el punto de vista comteano. En los cuales, se da un elemento común: que es la
clara modificación al curriculum, fundamentado en el orden lógico e histórico de las
diferentes ciencias.
Dr. Luis Razzetti (1896), fue un insigne educador que durante las postrimerías del Siglo
XIX y comienzo del XX, tuvo una destacada participación en la educación superior
venezolana. Estuvo becado en Francia, específicamente en la ciudad de París donde
recibió una formación caracterizada según Jacques Maritain como cientificísta,
determinista, materialista, y positivista. En varias ocasiones, el Dr. Razzetti se define
como: determinista, porque creo que todos los fenómenos de la naturaleza están
sometidos a leyes abstractas. "Soy monista porque creo que la materia y la energía son
dos propiedades esenciales de la sustancia universal, infinita y eterna" (Hernández Pág.
298, 1984)
Luis Razzetti fue un joven que recibió la influencia del Dr. Villavicencio y de Dr. Adolfo
Ernest, los cuales fueron considerados por Razzetti como los apóstoles máximos en
Venezuela de la filosofía y ciencias positivista. La enseñanza del Dr. Villavicencio
estimularon el apetito intelectual de Razzetti como para acoger con admiración las fuentes
que nutren su pensamiento científico- filosófico de las obras de Darwin y Hackel. Del
primero, abrazo la idea del principio evolucionista, que descalifica la tesis creacionista y la
espiritualidad del alma. A Hackel lo calificó como maestro predilecto, en cuyas obras
aprendió a amar la verdad, de él toma la idea del monismo cientificísta.
La concepción científica – filosófica de Hackel que negaba la existencia de Dios y el
mundo sobrenatural, consideraba que no había dos mundos uno natural y otro moral, sino
uno solo donde la vida intelectual y moral forma parte del Cosmos. El hombre forma parte
de los vertebrados sociales y tiene dos clases de deberes: los que surgen de su
naturaleza y los que corresponden a su beneficio y progreso individual. Esto hace que el
Dr. Luis Razzetti sea considerado como ateo y le trajo como consecuencia una serie de
disputas con el clero. Sin embargo, pensaba que las ciencias eran un hermoso producto
de nuestro siglo de verdad, creyendo que las únicas ciencias validas son las naturales y
las ciencias del espíritu, que también son parte de las naturales. Explicando además, que
la verdadera ciencia reposa en el empirísmo y no sobre la trascendencia; y que el
verdadero método es el empírico, porque compromete en el desenvolvimiento del mismo,
la actividad de nuestros órganos de los sentidos y de nuestro cerebro.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 61
Todas estas ideas inciden en el desempeño de Razzetti como docente de la Facultad de
Medicina de la Universidad Central de Venezuela, en cuya cátedra exigía a sus alumnos la
presentación de una tesis, con la cual aprenderían a observar, experimentar, y aprender a
expresar; de manera, que se evitaría combatir el apriorismo, y el abstraccionismo.
Logrando extender dicha práctica a todo el magisterio.
En l893 publica en la Gaceta Medica de Caracas las ideas sobre la renovación de los
estudios médicos, iniciado el planteamiento por la base, es decir, por la necesidad de
reformar los estudios del Bachillerato, diversificándolo según áreas de interés vocacional,
de modo que permitan la adecuada preparación básica para los aspirantes a cursar los
estudios médico. Consideraba que la educación primaria debía ser tomada como piedra
angular de la educación, sin embargo la educación superior debería quedar restringida y
dirigida por las autoridades de la Facultad de Medicina , ya que la Medicina es una ciencia
objetiva, y para que esta pueda ser aplicada se crea un centro de salud como el Hospital
Vargas.
Al Dr. Razzetti se deben los siguientes aportes hechos en la educación de esa época
como: La enseñanza antialcohólica y la educación sexual. El Ministro de Educación Dr.
Felipe Guevara Rojas encomienda al Dr. Luis Razzetti en Abril de l913, la tarea de
preparar el texto para orientar la enseñanza antialcohólica. Razzetti ya venía haciendo
estudios en la traducción y adaptación al medio venezolano del libro del Dr. Galtier
Boissiere, Manual de Antialcohólismo, obra elaborada de acuerdo a los programas
escolares de Francia, para que sirviese de texto a la nueva enseñanza prevista en
Venezuela. La medida acordada por las autoridades pone de manifiesto, la preocupación
existente por la generalización del consumo de las bebidas alcohólicas.
En 1921, preocupa a Luis Razzetti la lucha contra las enfermedades venéreas, de manera
que es necesario educar sobre este tema desde la escuela primaria hasta la universidad,
lo que son las enfermedades venéreas por medio de conferencias populares, indicándole
a la juventud los medios de que podemos valernos para evitar el contagio. El aclaraba,
que la educación sexual debía impartirse a través de metodologías sencillas y de acuerdo
a la edad. Se impartiría de arriba hacia abajo, desde los padres a los jóvenes de mayor
edad hasta llegar a los niños; en estos se principiaría por la fecundación de las plantas y
de los animales inferiores.
Un aspecto importante relacionado con el tema de la educación sexual fue el eugenismo.
El lo define como "el estudio de los factores sometidos al cuidado y vigilancia de la
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 62
sociedad y susceptible de modificar, en bien o en mal, las cualidades de la raza, físicas y
mentales, en las generaciones futuras". (Fernández, Pág. 325, 1994)
Cual era el objetivo del programa hombres y mujeres sanos sin enfermedades
hereditarias. Para ello es importante exigir el certificado pre-nupcial, testificando de que no
son portadores de aquellas enfermedades capaces de contribuir a la degeneración de la
descendencia.
José Gil Fortoul (1912) y Rómulo Gallegos (1895) son prácticamente contemporáneos y la
formación de uno y otro coincide con aquella oleada de positivismo y de libre pensamiento.
Desde la época de Guzmán Blanco se origino en Venezuela, un ambiente hostil a los
valores de la tradición católica. Este ambiente cargado de positivismo conduce al mundo
del agnosticismo que limita el horizonte de valoración a solo los datos inmediatos. Este
agnosticismo condiciona la concepción sobre la moral y la religión, lo lleva
inexorablemente al laicismo, al libre pensamiento, y a una posición ecléctica de la vida.
Entre las reformas mas importante se encuentra la escuela laica y la libertad de
enseñanza. El tema de la educación laica adquiere mas importancia en el país a medida
que se acentúa la influencia política del liberalismo y de la filosofía positivista. En cuanto al
segundo aspecto es importante que las ideas luchen en el amplio campo de la discusión,
garantizar el derecho a elegir y rodear de un profundo respeto el pensamiento de los
demás
Gil Fortoul opina que la moral no es nada mas que un conjunto de ideas que se han
trasmitido por herencia y dominan tiránicamente en nuestra sociedad. La ley de la
evolución es compartida por todos los seres vivos. En tanto que la de la evolución cerebral
solo es compartida por los seres humanos y en la expresión de Gil Fortoul expresa que
esto es producto de la ciencia, el arte y la industria. La evolución cerebral no depende
solamente de la evolución natural sino de otros factores y en el caso venezolano dice: La
raza y el clima son para nosotros, causa evidente de inferioridad orgánica y la única
solución es la inmigración.
La educación debe ser un instrumento para que el hombre modifique el medio, por lo tanto
no se admite escuela sin práctica. En 1911, Gil Fortoul es designado Ministro de
Instrucción Pública, allí permanece hasta fines de Abril de l912. Lo acompaña un
destacado pedagogo: Guillermo Todd, cuyas modificaciones esta orientadas a modificar la
observación, la memoria y el razonamiento. Entre los criterios para orientar el proceso de
enseñanza aprendizaje se dan los siguientes lineamientos: de lo simple a lo complejo, que
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 63
la enseñanza debe ayudarse de la pedagogía con el propósito de dar al educando una
educación integral dentro de la concepción Spenceriana. En síntesis un sistema educativo
basado en la observación, experimentación y critica de los hechos.
Rómulo Gallegos, su proposición educativa consistió en una perspectiva de expansión
cultural, de responsabilidad intelectual y de promoción socio-política. Se dejo influenciar
por las ideas de Sarmiento en Argentina, que establecía una diferencia entre Barbarie y
Educación, sólo puede concebirse la cultura aparejada al principio y sentido de libertad. La
idea central de la idea educativa de Gallegos, consiste en: personal, idóneo y apto, para
ello crea las escuelas normales donde con métodos eficaces se formen verdaderos
maestros.
En cuanto al método de enseñanza, opina que debe sustituirse el empirísmo por métodos
científicos de observación y experimentación, y aboga por la aplicación de aquellos
métodos que la Psicología y la Educación indican como pertinente en la enseñanza. La
Reforma al Sistema Educativo es una de sus ideas principales, la más transcendental y
fecunda que debería hacerse su máxima ser resumiría en este aspecto en el siguiente
pensamiento: pensar más en educar que en instruir. Entre el concepto que merece la
Educación esta el actuar sobre el carácter y formar al hombre: en tanto que la instrucción
actúa sobre la inteligencia. La influencia, que tiene la escuela en la sociedad, es motivo de
preocupación en la obra de Gallegos, donde destaca el papel de la escuela en la
constitución de una sociedad sana y productiva.
Conclusiones El Positivismo, es una doctrina filosófica en donde se acepta como conocimiento válido, el
saber científico obtenido a través de la experimentación, es decir, con la utilización del
método científico, se estudian los hechos y a partir de estos, se deducen las leyes que los
hacen valederos. Por ello, el Positivismo es considerado como analítico, y tiene como
características generales:
Nomotética: porque halla las causas que explican los fenómenos, confrontando la teoría
con la praxis, detecta discrepancias y establece conexiones generalizables entre variables.
Propicia la utilización de un método de investigación: el método hipotético-deductivo como
método científico.
La neutralidad valorativa: como criterio de objetividad. Sin embargo, esta doctrina,
incurre en dos importantes contradicciones: 1)Aunque legitimiza el conocimiento científico,
no específica de manera clara, inequívoca y por tanto positiva en qué consiste
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 64
exactamente este conocimiento científico; y 2)Que las más importantes afirmaciones de la
doctrina positivista como la Ley de los Tres Estadios (teológico, metafísico y positivo), no
proceden de la actividad científica ni de la observación, sino de la especulación filosófica y
son por tanto metafísica.
Pero esto, no ha mermado la proliferación de trascendentales descubrimientos y avances
del mundo moderno; los cuales, se deben sin lugar a duda, a la influencia del Positivismo,
siendo uno de sus más importantes hallazgos, el descubrimiento de la Historicidad del
Conocimiento Humano a través de la Sociología, que permite la jerarquización (orden y
progreso) de la Sociedad de acuerdo a su nivel intelectual, a fin de que estos, reciban una
remuneración acorde a su labor desempeñada. A partir de la Sociología se debe ubicar
cualquier investigación para que exista un orden, ya que la experiencia que posee el
individuo la sustrae de su entorno, y esta transcurre en un momento histórico, que lo
orientará a través del proceso de experimentación científica.
En Venezuela, los diferentes representantes del Positivismo abogan por modificaciones
educativas que debiesen darse desde las perspectivas metodológicas y de proyecciones
que la educación debe tener en la formación de un ciudadano útil y productivo para la
Sociedad. Actualmente el país, se encuentra en pleno proceso de desarrollo del Enfoque
Humanista: nuevo diseño curricular, proyectos pedagógicos de aulas, proyectos
pedagógicos comunitarios; sin embargo, las investigaciones que se realizan mantienen un
patrón positivista: son cuantitativos-medibles, porque los datos que se extraen de la
realidad, tienen que ser validados utilizando métodos estadísticos.
2.4.6. REFERENCIAS
o Alsina J. El Positivismo, ideología de la sociedad industrial. 2000
o Café Rincón Literario.Com. Auguste Comte. Café Rincón Literario.Com. 2000
o Club Caminante.Com. El Positivismo. Club Caminante.Com.1999
o Díaz P. Curso de Historia de la Filosofía. Caracas. 1965.
o Diccionario. Nueva Enciclopedia Larousse. Tomo 7, 8 y 9. Editorial Planeta. 1982.
o Enciclopedia Hispánica. Volumen 12. Editorial Enciclopedia Británica Publicer inc.
Estados Unidos 1992 – 1993. Págs. 75 y 76.
o Urbina E. El Positivismo. Monografías.Com. 2000
o Zamora. Biblioteca Práctica de Consulta de Nuevo Milenio. Editorial Zamora. 2000.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 65
o http://www.monografias.com/trabajos6/deso/deso.shtml
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 66
2.5. LÓGICA Y ÉTICA EN KARL POPPER
Prof. Mariano Artigas
Es un placer encontrarme aquí para tener este Seminario que, según me parece, se ocupa
de un problema importante: la relación entre lógica y ética. En la cultura actual, la ética
parece ser un asunto meramente subjetivo, y el ámbito de los argumentos objetivos
pertenecería por entero a una ciencia que se presenta como libre de valores. La
Wertfreiheit (o "libertad de valores": no existe un término castellano o inglés equivalente a
este término alemán) se presenta como una característica central de la ciencia: los
argumentos lógicos nada tendrían que ver con los valores éticos, que quedarían relegados
a opciones completamente subjetivas y circunstanciales.
En mi opinión, la Wertfreiheit es una característica real de la ciencia experimental, que se centra en el conocimiento de pautas espacio-temporales naturales. Podemos
alcanzar ese conocimiento con independencia de nuestro sistema de valores éticos. Pero
eso no significa que la ciencia experimental no tenga nada que ver con los valores. Por el
contrario, tiene mucho que ver. Por una parte, la ciencia experimental es una actividad
humana dirigida hacia un doble objetivo, el conocimiento de la naturaleza y su dominio
controlado, y esa actividad, desde el punto de vista objetivo, supone que consideramos
que ese doble objetivo merece ser buscado. Así, la búsqueda del conocimiento de la naturaleza y de su dominio controlado son valores constitutivos sin los cuales la
empresa científica carecería de significado y ni siquiera podría existir.
Además, la exigencia del control experimental implica una exigencia de intersubjetividad
que da lugar a valores institucionales: los científicos constituyen una comunidad en la
cual existen unos estándares rigurosos que afectan a la integridad intelectual, a la
publicidad, a la apertura al diálogo y a la crítica. En definitiva, esos valores constitutivos e institucionales son condiciones necesarias para la existencia y el progreso de la ciencia experimental. Por tanto, existen importantes relaciones intrínsecas entre ciencia
experimental y valores éticos. Sin perjuicio, claro está, de que existan otros tipos de
conexiones además de los que acabo de señalar.
Pero el tema de este seminario es la relación entre lógica y ética en Karl Popper. ¿Cuál
es la opinión de Popper al respecto? La respuesta estándar es muy clara. Karl Popper
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 67
relaciona esos dos ámbitos a través de su criterio de demarcación entre la ciencia y la
no-ciencia. Una teoría es científica si es falsable, o sea, empíricamente refutable: el
precio que debe pagarse para poder entrar en el templo de la ciencia empírica es la
actitud científica, que lleva a buscar contra-ejemplos que puedan mostrar falsedades en
nuestras teorías, con el ánimo de detectar errores y, así, avanzar en nuestra búsqueda de
la verdad. La lógica elemental muestra que nunca podemos demostrar, en pura lógica, la
verdad de una teoría, mientras que un solo contraejemplo basta para mostrar que la teoría
contiene algún error. Esa asimetría lógica entre verificación y falsación es la clave del
método científico, que consiste en una búsqueda sin término, porque nunca podemos
demostrar con certeza que nuestras teorías son definitivamente verdaderas, y siempre
deberíamos buscar contraejemplos que nos ayuden a acercarnos más a la verdad
mediante la eliminación del error.
La aplicación de estas ideas a la teoría social tiene como resultado la sociedad abierta. Si
nuestro conocimiento es esencialmente falible, debemos cultivar la disposición a rectificar
nuestras ideas y a examinarlas de modo crítico, aceptando la crítica objetiva, venga de
quien venga, e incluso buscándola activamente. La sociedad abierta se basa en la
apertura a la crítica, en la tolerancia, en el rechazo de cualquier tipo de autoritarismo y
de dogmatismo. De este modo, La lógica de la investigación científica (publicada en
1934), donde Popper expone su criterio de demarcación, proporciona la base lógica para
La miseria del historicismo (publicada en 1944-1945) y La sociedad abierta y sus enemigos (publicada en 1945), donde Popper expone su teoría social. En la obra lógica
de 1934 Popper se enfrenta al verificacionismo cientificista del Círculo de Viena, y en las
dos obras de teoría social de 1944-1945 se enfrenta al totalitarismo, especialmente en su
versión marxista.
La conexión entre lógica y ética parece clara y lineal. Filosofía de la ciencia y teoría social
son, en Popper, dos caras de la misma moneda. Su filosofía de la ciencia, que está
centrada en torno a las relaciones lógicas entre enunciados, fue elaborada y publicada en
primer lugar, pero los problemas sociales habían ocupado seriamente a Popper desde su
juventud, y su rechazo temprano del marxismo en 1919 le llevó a ocuparse seriamente del
derecho con que el marxismo se presentaba como teoría científica y, desde ahí, a
ocuparse de la naturaleza de la ciencia en general.
Me parece que lo que he dicho hasta ahora refleja fielmente el pensamiento y la
trayectoria de Popper. He dicho estas mismas cosas, e incluso las he publicado en mi
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 68
primer libro, titulado Karl Popper: búsqueda sin término, desde la década de 1970. Sin
embargo, si ahora, 30 años después, acabo de publicar otro libro titulado Lógica y ética en Karl Popper y he venido a dirigir un Seminario con el mismo título, es porque pienso
que se puede decir algo más. ¿Qué es este algo más?, ¿cuál es su interés? Para
responder a estas preguntas, que se refieren directamente, como veremos, a la relación
entre lógica y ética en Popper, me referiré a la génesis de mi nuevo libro y a algunas de
sus ideas principales.
En 1995, después de ocuparme durante 25 años de Popper, casi exclusivamente de su
filosofía de la ciencia, me interesé con mayor detalle por los aspectos éticos de su obra.
Tuve ocasión de trabajar en el archivo de Popper en la Hoover Institution, en la
Universidad de Stanford, y allí pude asomarme a los aspectos más personales de su vida
y de su obra, especialmente a través de la correspondencia. Las dimensiones éticas de la
obra de Popper me parecían cada vez más importantes. En esas circunstancias, comencé
a pensar que, de algún modo, la ética de Popper proporciona la clave para comprender e
interpretar adecuadamente toda su filosofía, incluida su epistemología. Cuando estaba
dando vueltas a esta sospecha, Josep Corcó me dejó copia de un artículo que se
encontrabva en un libro recientemente llegado a nuestra Biblioteca, porque pensaba que
me podía interesar. En efecto, me interesó sobremanera. El autor era el profesor Hubert Kiesewetter, de la Universidad de Eichstätt en Baviera, a quien tendremos el gusto de
escuchar dentro de un par de meses aquí mismo. En ese artículo Kiesewetter escribía:
Desde que estudié en la London School of Economics and Political Science en 1967-68, la
cuestión de las raíces éticas o fuentes morales de la filosofía de Popper nunca ha cesado
de ocupar mi mente (...) En los últimos años discutí extensamente con Sir Karl el tema de
los fundamentos éticos de su filosofía (...) mi intención es demostrar que todo su
pensamiento se encuentra profundamente enraizado en la ética (...) La metodología del
falsificacionismo o racionalidad crítica de Karl Popper había sido formada en su núcleo
mucho antes de que él estudiara matemática, física y filosofía natural en la Universidad de
Viena. Por tanto, mi hipótesis es que el método de Popper de ensayo y error (...) se
encuentra inseparablemente entrelazado con principios éticos o morales1.
En ese artículo, Kiesewetter solamente proporciona unos datos muy escuetos sobre la
infancia y juventud de Popper. Pero su idea central me estimuló a estudiar más en
concreto las raíces éticas de la epistemología de Popper.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 69
Nuevos datos vinieron a confirmar el interés del tema. Como suele suceder cuando
nos interesamos sobre algún tema, comenzaron a llegar noticias de personas que
compartían ese interés, trabajaban en esa línea e incluso habían publicado algo. Además,
y sobre todo, en el verano de 1996 (Pablo López lo recordará bien), un día me llegó un
sobre de South Croydon, de los herederos de Karl Popper. Me enviaban un material que
pensaban, acertadamente, que me podría interesar: la transcripción (unos cuatro folios a un espacio) de una intervención espontánea de Popper en un seminario que tuvo
lugar en 1992 en Japón. Se refería a la naturaleza de su racionalismo crítico, intentando
clarificar algunos equívocos relacionados con las ideas de uno de sus discípulos más
conocidos, William Warren Bartley.
William Warren Bartley nació en los Estados Unidos en 1934. Era, por tanto, 32 años más
joven que Popper (quien nació en Viena en 1902). Bartley se graduó en filosofía, en
Harvard, en 1958. En ese año marchó a Londres para trabajar con Popper. Completó su
tesis doctoral, bajo la supervisión de Popper, en 1962, y en ese mismo año publicó su
primer libro, titulado La retirada al compromiso2. Este libro, cuyo contenido se relaciona
ampliamente con su tesis doctoral, se centra en torno a los límites de la racionalidad,
que es el tema que preocupaba a Bartley y que provocó unas relaciones difíciles con
Popper.
Bartley fue, sin duda, uno de los mejores discípulos y colaboradores de Popper.
Precisamente de aquí surgen las dificultades para advertir los equívocos que él mismo
provocó. Atraído por las ideas de Popper, desde el primer momento Bartley creyó
descubrir en ellas la posibilidad de formular una visión del mundo que le permitía
responder a los problemas que él se planteaba. Le parecía, sin embargo, que para servir a ese objetivo, los argumentos de Popper debían ser generalizados e incluso corregidos.
La generalización parecía bastante fácil. En efecto, Popper había propuesto la
falsabilidad como criterio de demarcación entre la ciencia y la pseudo-ciencia; en la ciencia
empírica, según Popper, formulamos nuestras hipótesis de tal modo que puedan ser
sometidas a control experimental: nunca podemos demostrarlas de modo concluyente,
pero podemos avanzar hacia la verdad eliminando los errores que detectamos cuando
chocan contra la experiencia.
Popper mismo había generalizado esta actitud, aplicándola a las teorías metafísicas: estas
teorías, según Popper, tampoco podrían ser demostradas, pero podrían ser sometidas a
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 70
"crítica racional", utilizando argumentos racionales que, sin poseer la fuerza típica de los
experimentos científicos, serían suficientes, no obstante, para someter a las teorías
metafísicas a un proceso de eliminación de error análogo al que se da en las ciencias.
Bartley proponía considerar el problema de la demarcación como un caso particular del
problema de la racionalidad. Las ideas de Popper no sólo daban pie a esa generalización; parecía, incluso, que Popper mismo ya la había realizado, y que sólo era necesario hacerla explícita.
Existía, sin embargo, un aspecto en las ideas de Popper que molestaba profundamente a Bartley, quien lo veía como un obstáculo insalvable para conseguir su
objetivo. Popper subrayaba con fuerza el carácter conjetural del conocimiento humano y la
imposibilidad de conseguir demostraciones concluyentes; por tanto, proponía un
pensamiento claramente anti-dogmático en el que no había lugar para la certeza. Pero ese
"racionalismo crítico" reposaba en último término, según confesión explícita del mismo
Popper, en una "fe irracional en la razón", fruto de una "decisión moral" en favor del
racionalismo.
Según Popper, la actitud de tomar en serio los argumentos racionales no podía, a su vez,
ser fundamentada mediante argumentos racionales, y por este motivo afirmaba que, en
último término, su racionalismo crítico se basaba en una decisión irracional. Bartley pensaba que este paso era suicida porque, en esas condiciones, el racionalismo crítico siempre debería enfrentarse, sin posibilidad de respuesta, a la objeción típica del fideísmo filosófico o religioso; en efecto, el fideísta podría decir al racionalista algo
de este estilo: "tú me atacas porque fundamento mis ideas en una fe irracional, pero tú
también te apoyas, en último término, en una fe irracional".
Lo que Bartley buscaba era, precisamente, una filosofía que no se viera sometida a este
argumento del "tu quoque". Le sobraba la fe en la razón, la decisión moral que Popper
colocaba en la base de su racionalismo crítico. Creyó encontrar lo que buscaba en lo que
él llamó primero "racionalismo crítico comprehensivo" y más tarde "racionalismo pan-
crítico". Estaba en la línea del racionalismo de Popper, pero había dado el último paso:
considerar absolutamente todo como abierto a la crítica, eliminando la necesidad de
ninguna decisión moral básica, de ninguna fe irraccional. Según Bartley, todo, incluso el propio racionalismo, debe estar abierto a crítica. Se trataría, en definitiva, de llevar
hasta el final la dirección emprendida por Popper: no sólo podemos criticar cualquier
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 71
hipótesis, sino que incluso esa misma posición, o sea, la disposición de someter todo a
crítica, debe estar ella misma abierta también a la crítica.
Si Bartley se hubiese limitado a desarrollar su posición, y Popper a aceptarla o rechazarla
claramente, yo no habría escrito mi libro ni estaría diciendo aquí estas cosas, ni Pablo
estaría haciendo una tesis doctoral sobre estas cuestiones. Lo que sucedió es mucho más
complicado. Terriblemente complicado. Tan complicado, que en mi libro yo digo que sólo
podré asomarme a los problemas que surgieron y que se encuentran sin resolver.
Para resolverlos completamente, si es que alguna vez se llega a hacerlo, será necesario
utilizar una documentación mucho más extensa de la que yo cito. Sin embargo, conozco
buena parte de esa documentación, al menos lo suficiente como para poder decir que, en
sus aspectos fundamentales, casi todos los aspectos esenciales del problema pueden
tratarse seriamente en base a los textos que ya han sido publicados. Algunos aspectos
importantes, de tipo personal, quedarán necesariamente sin tratar (por el momento, los
herederos de Popper no han autorizado la publicación de cartas, que tanto Pablo como yo
conocemos como consecuencia del trabajo en los archivos de Popper, y que son muy
importantes para este tema).
En la primera parte de mi libro, me centro en la publicación y comentario de un texto de
Popper que denominaré documento de Kyoto, que hasta ahora no había sido publicado.
Es difícil exagerar su trascendencia. Gabriel Zanotti, profesor en la Universidad Austral de
Buenos Aires y experto en Popper, ha escrito una recensión de mi libro que será publicada
probablemente en la revista Arbor, y en el resumen inicial dice lo siguiente: "En su último
libro sobre Karl Popper, Mariano Artigas plantea una hermenéutica revolucionaria: muestra
que la ética de Popper es el fundamento de su epistemología, y que el fundamento de esa
ética está lejos del "conjeturalismo" que suele atribuirse a Popper. Artigas analiza qué
significa en Popper la "fe irracional en la razón" y utiliza, como fuente inédita, el dramático
relato que hace Popper de su relación con W. W. Bartley, por primera vez, en Kyoto, en
1992. Sea cual fuere la opinión del lector, el libro de Artigas divide la hermenéutica de
Popper en un antes y un después".
Situaré brevemente el documento de Kyoto. Cuando ya había cumplido los 90 años, Karl
Popper fue a Japón para recibir de la Fundación Inamori, en Kyoto, un premio para "las
artes creativas y ciencias morales". Con ese motivo, entre otras actividades, el 12 de
noviembre de 1992 tuvo lugar un seminario titulado "La Filosofía de la sociedad abierta".
Actuaron como coordinadores los profesores Ryuichi Nagao y Rinitsu Kawakami,
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 72
Universidad de Kyoto. Karl Popper pronunció una conferencia titulada "El origen de la
cultura occidental y sus raíces literarias y científicas". Además de unas introducciones y de
varios diálogos, hubo cuatro conferencias pronunciadas por profesores japoneses.
La conferencia del profesor Keiichiro Kamino se tituló "Sobre el racionalismo crítico de
Popper" y fue calificada por Popper como excelente. Pero Kamino no se había limitado a
una exposición neutral. Se había referido, de modo muy concreto, a la interpretación de
Bartley y a su relación con Popper, expresando además sus opiniones al respecto. Y aquí
empezó todo. Según él mismo dijo en su intervención improvisada, Popper nunca había
querido intervenir en las disputas a que había dado lugar la posición de Bartley (quien,
dicho sea de paso, a pesar de ser mucho más joven que Popper, había muerto de cáncer
en 1990). Pero ahora, al cabo de los años, Popper se encontró con un acto en el que,
delante de expertos en su filosofía, se trataba expresamente ese tema.
También había, en las intervenciones de otros profesores, algunas alusiones a ese
problema. Entonces Popper quiso clarificar algunos puntos, y lo hizo de modo espontáneo,
con gran sencillez, aludiendo a aspectos de su obra y de su relación con Bartley que en
ninguna otra ocasión manifestó públicamente. Se trata, por tanto, de un documento único
y excepcional. La intervención de Popper fue grabada y hasta ahora no había sido
publicada. Se ha publicado un libro, en japonés, donde se recogen las conferencias del
seminario de Kyoto y algunos otros estudios, pero ahí no se incluye esa intervención.
No es mi intención desarrollar en detalle los problemas que Popper planteó en su
intervención de Kyoto. Están analizados en la primera parte de mi libro. Aquí bastará una
referencia a la idea central. En Kyoto, Popper subraya una vez y otra que su racionalismo crítico no es una doctrina, sino una actitud. En otras palabras: él no está
proponiendo una tesis filosófica, sino que está argumentando en favor de una actitud que
considera importante, sobre todo por motivos éticos: porque es una actitud de diálogo y de
razonabilidad, que favorece el entendimiento, la tolerancia y la paz, frente a cualquier tipo
de totalitarismo y de violencia. En este contexto, es importante la Introducción que Popper
escribió para su libro "El mito del marco común", colección de ensayos publicada
póstumamente en 1994, el mismo año de su muerte.
En esa Introducción, medio siglo después de la publicación de La sociedad abierta,
Popper se refiere a la racionalidad como una manera de pensar e incluso una manera de
vivir: una disposición para escuchar argumentos críticos, para buscar los errores propios y
para aprender de ellos. Es, en lo fundamental, una actitud que he tratado de formular
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 73
(quizá por primera vez en 1932) en estos dos versos: Quizá esté yo equivocado y tú
tengas razón, quizá con un esfuerzo a la verdad nos acerquemos... Los puse en cursiva
para indicar que los considero importantes, pues fueron un intento de resumir una parte
particularmente central de mis artículos morales de fe. Al punto de vista que los mismos
resumen lo llamé "racionalismo crítico".
A continuación, Popper lamenta que se haya reparado poco en esos versos, admitiendo
que pudo ser en parte culpa suya, porque al lector le puede pasar por alto todo lo que
quiere decir con esos versos tan breves, y añade:
Por esta razón los cito aquí medio siglo después. Fueron concebidos para que
contuvieran, en el mínimo espacio posible, una confesión de fe, expresada simplemente,
de manera no filosófica y en lenguaje corriente; fe en la paz, en la humanidad, en la
tolerancia, en la modestia, en el esfuerzo por aprender de nuestros propios errores; y en
las posibilidades de la discusión crítica. Era un llamamiento a la razón.
Y, en medio de estas reflexiones, Popper menciona varias interpretaciones equivocadas
de su racionalismo crítico. Aquí nos interesa muy especialmente una. Según Popper,
también existió un intento de sustituir mi racionalismo crítico por una posición radicalmente
crítica y más explícitamente definida. Pero, puesto que este intento adoptó el carácter de
una definición, condujo a una serie interminable de argumentaciones filosóficas acerca de
su adecuación3.
La alusión a Bartley es inequívoca: no cabe otra interpretación. Y también es clara la
diferencia que Popper advierte entre su posición y la de Bartley: éste, en su afán de evitar
cualquier tipo de presupuestos, se embarca en un problema que constituye un auténtico
laberinto lógico, mientras que Popper admite francamente, desde los años 1940 y hasta
los años 1990, que toda su posición se basa sobre un compromiso de tipo ético y tiene sentido a la luz del mismo.
No digo que la postura de Popper sea inequívoca ni que esté libre de dificultades. Por el
contrario, me parece que su planteamiento contiene algunos defectos que afectan a toda
su filosofía y provocan ambigüedades de difícil solución. Por ejemplo, su negación
completa de toda certeza en el conocimiento parece excesiva. Es cierto que afirma la
existencia de una verdad objetiva, y que subraya que podemos acercarnos
progresivamente hacia ella, pero al mismo tiempo insiste en que nunca podemos saber
que ningún conocimiento particular es verdadero. Precisamente el análisis de las raíces
éticas de la epistemología de Popper tiene interés porque permite advertir el sentido más
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 74
auténtico de sus ideas, evitando bastantes dificultades y facilitandola utilización de sus
aspectos válidos. De todos modos, considero mi deber advertir que la posición de Popper, tal como él la expresa, contiene bastantes aspectos que fácilmente conducen a perplejidades y confusiones, y que mi interpretación no elimina completamente esas dificultades.
Popper coloca en la base de toda su filosofía lo que él llama fe en la razón, o fe irracional en la razón. Esta expresión resultaba inaceptable para Bartley. En realidad, la
expresión no es muy afortunada, sobre todo en su segunda formulación, cuando no sólo
se habla de "fe en la razón", sino que se dice que esa fe es "irracional". En mi opinión, esa
"fe en la razón" se refiere a unos supuestos humanistas que sirven de base a Popper y
que se refieren a la dignidad de la persona humana. Tanto en su filosofía de la ciencia
como en su filosofía social, Popper se apoya en unos supuestos que él mismo considera obvios, de modo que no se detiene a hacerlos explícitos. En efecto, su
filosofía de la ciencia no tiene sentido a menos que se acepte una ontología y una teoría
del conocimiento realistas, y su filosofía social se apoya sobre unas convicciones morales
amplias y profundas acerca de la persona humana y de la sociedad. En definitiva, la
racionalidad popperiana se inscribe dentro del marco de una racionalidad más básica y
general, la racionalidad del mundo y la racionalidad de la persona, y propone un cultivo
sistemático de la racionalidad humana tanto en el ámbito de la ciencia como de la vida
social. Las ideas de Popper son coherentes con una filosofía realista que le sirve de
complemento y que, de hecho, es utilizada implícitamente por Popper en su obra.
Contemplada en esta perspectiva, la decisión moral en que se apoya la propuesta social
de Popper no es una fe irracional, como él dice. Es racional. De hecho, Popper argumenta
en su favor.
Popper afirma que su compromiso moral con la dignidad de la persona humana es fruto de una decisión, y tiene razón: por muy bien fundamentado que ese compromiso
pueda estar, requiere una decisión moral. Pero Popper admite que esa decisión está
abierta a argumentación, y de hecho argumenta en su favor: por eso no tiene
inconveniente en aceptar la propuesta de Bartley según la cual deberíamos mantener todo
abierto a la crítica, incluso nuestra decisión básica de mantener todo abierto a la crítica. Al
mismo tiempo, su decisión moral es amplia y firme; ése es el motivo que le llevó a
separarse del marxismo y a estudiar seriamente en qué consiste el carácter científico de
las teorías: de hecho, toda la filosofía de la ciencia y de la sociedad de Popper tiene como
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 75
fondo ese compromiso moral del que no está dispuesto a renunciar. En cambio, Bartley no
quiere saber nada de compromisos, porque identifica compromiso con fe ciega en el
sentido del fideísmo. Pero existen tipos de fe y de compromiso que son razonables y no
tienen nada que ver con la fe ciega del fideísmo. Además, existe una racionalidad básica
que sirve de marco general a la ciencia, a la filosofía, a la religión, y en general a toda la
vida humana
En su intervención de Kyoto, Popper subraya que su racionalismo se refiere a una actitud, no es una teoría. Es una actitud que lleva a mantener las propias ideas abiertas
a posibles rectificaciones, pero no es, en absoluto, una actitud iconoclasta. Precisamente
es una actitud que, al basarse en unas razones morales, implica toda una serie de
supuestos éticos. Con su decisión moral, Popper admite implícitamente toda una serie de
supuestos que no está dispuesto a abandonar: supuestos que se refieren a la libertad, a la
dignidad humana, a la justicia, a la igualdad, a la convivencia pacífica, al respeto, a la
tolerancia. Lo que sucede es que le parecen tan obvios que ni siquiera se los plantea
expresamente como supuestos. Quizá ésa sea una de las claves de los equívocos que
puede provocar la filosofía de Popper: que se apoya en unos supuestos que no examina
expresamente.
Las consideraciones precedentes se pueden aplicar a la valoración del falibilismo de Popper. Los argumentos de Popper en favor del falibilismo derivan del carácter conjetural
de nuestro conocimiento y de la magnitud de nuestra ignorancia. Sin embargo, Popper
combina estos argumentos con consideraciones éticas. Dice, por ejemplo: Los principios
que constituyen la base de toda discusión racional, es decir, de toda discusión emprendida
a la búsqueda de la verdad, constituyen los principios éticos esenciales. Me gustaría
enunciar aquí tres de estos principios.
Y formula esos tres principios de este modo:
1. El principio de falibilidad: quizá yo estoy equivocado y quizá tú tienes razón. Pero es
fácil que ambos estemos equivocados. 2. El principio de discusión racional: deseamos
sopesar, de forma tan impersonal como sea posible, las razones en favor y en contra de
una teoría (...). 3. El principio de aproximación a la verdad: en una discusión que evite los
ataques personales, casi siempre podemos acercarnos a la verdad (...).
Popper subraya que esos principios incluyen aspectos éticos cuando continúa diciendo:
Vale la pena señalar que estos tres principios son principios tanto epistemológicos
como éticos, pues implican, entre otras cosas, la tolerancia: si yo espero aprender
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 76
de ti, y si tú deseas aprender en interés de la verdad, yo tengo no sólo que tolerarte
sino reconocerte como alguien potencialmente igual; la unidad e igualdad potencial
de todos constituye en cierto modo un requisito previo de nuestra disposición a
discutir racionalmente las cosas4.
Una explicación puramente lógica o epistemológica no puede reflejar esta situación,
porque las ideas principales implicadas en ella "son principios tanto epistemológicos como
éticos". Por eso no hay círculo vicioso: la ética sirve de base a la actitud racional (aunque
esto no significa que la ética sea completamente autónoma: lo racional y lo ético se
encuentran estrechamente entrelazados y relacionados en ambas direcciones). También
es interesante señalar que Popper incluye "el principio de falibilidad" como uno de los
principios que "constituyen los principios éticos esenciales". Esta afirmación bastaría para
mostrar que el falibilismo no se refiere a un asunto meramente lógico, y que no sólo
incluye dimensiones éticas, sino que tiene, según las palabras del propio Popper, un
carácter principalmente ético.
Popper también se refiere a la igualdad y unidad entre los hombres como otro componente
ético de su falibilismo, y esto tiene fuertes connotaciones antropológicas. Me atrevería a
decir que aquí se encuentra el supuesto básico de toda la filosofía de Popper: él cree en el hombre, en la libertad, en la razón, en la paz, en el respeto. Popper se encuentra
fuertemente comprometido con esos valores, y todos sus argumentos los suponen. En la
misma línea añade:
Así, los principios éticos constituyen la base de la ciencia. La idea de verdad como
principio regulador fundamental -el principio que guía nuestra búsqueda- puede
considerarse un principio ético. La búsqueda de la verdad y la idea de aproximación
a la verdad también son principios éticos; como lo son las ideas de integridad
intelectual y falibilidad, que nos conducen a una actitud de autocrítica y de
tolerancia5.
Es difícil exagerar la importancia de estas afirmaciones, que abren nuevas perspectivas a
la base ética de la ciencia, que constituye todo un ámbito de investigación, y muestran que
los aspectos cruciales de la epistemología de Popper no pueden comprenderse
adecuadamente sin una referencia a sus aspectos éticos.
Ha habido varios intentos de proporcionar una clave unificadora de la filosofía de Popper. No pretendo presentar otro intento de unificación. En cambio, la perspectiva ética proporciona una comprensión de la filosofía de Popper en un nivel diferente
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 77
que se refiere al origen de las otras claves. Más en concreto, permite comprender el significado de la crítica y del racionalismo crítico de Popper. En efecto, cuando
consideramos la epistemología de Popper bajo la luz de la clave ética, nos damos cuenta
de que representa una actitud más que una doctrina. Es una doctrina centrada en torno a
una actitud, la actitud de razonabilidad, de dar importancia a la discusión racional, una
discusión en la cual mantenemos la apertura mental con respecto a cualquier tipo de
objeciones o calificaciones, dispuestos a abandonar una opinión que apreciamos cuando
hay razones para abandonarla. La epistemología de Popper puede ser considerada como
la articulación teórica de este tipo de actitud.
Popper está interesado principalmente en la verdad. La crítica de Popper se encuentra
esencialmente relacionada con la búsqueda de la verdad: es una actitud cuya relevancia
se debe, precisamente, a la función esencial que desempeña si deseamos buscar un
conocimiento verdadero del mundo real. De hecho, cuando Popper argumenta en favor de
un realismo filosófico que se opone a cualquier forma de subjetivismo e idealismo, sus
argumentos adoptan un tono que casi hace olvidar su insistencia en el carácter conjetural
de nuestro conocimiento. En la última parte de mi libro muestro algunos ejemplos.
Aunque no me detendré en otros detalles, mencionaré que Popper dice que "creyó" y
continúa "creyendo" en el realismo metafísico. Esto es aparentemente no popperiano, si
recordamos que Popper subraya que no cree en la creencia. Encontramos otras
expresiones aparentemente no popperianas cuando Popper desarrolla su discusión del
realismo. Dice, por ejemplo, que tanto el realismo como el idealismo comparten como
característica común que son indemostrables e irrefutables, pero, añade, hay una
importantísima diferencia entre ellas.
El idealismo metafísico es falso y el realismo metafísico es verdadero. No ‘sabemos’ esto,
naturalmente, en el sentido en que podemos saber que 2 + 3 = 5; es decir, no lo sabemos
en el sentido del conocimiento demostrable. Tampoco lo sabemos en el sentido del
‘conocimiento científico’ contrastable. Pero esto no significa que nuestro conocimiento no
sea razonado o razonable. Por el contrario, no hay conocimiento factual que esté apoyado
por más argumentos o por argumentos más fuertes (aunque no sean concluyentes)6. Esta
afirmación acerca del realismo y el idealismo no podría ser más fuerte, y la referencia a
argumentos positivos parece chocar con el criticismo extremo atribuido con frecuencia a
Popper. Además, Popper continúa hablando de "los argumentos positivos en apoyo del
realismo metafísico".
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 78
Por supuesto, Popper se refiere aquí a verdades muy elementales. Pero las trata de modo
completamente realista, sin ninguna concesión a los argumentos típicos de los filósofos
subjetivistas o idealistas. En este terreno, Popper no parece tener miedo de decir que
realmente sabe algo con certeza.
Pienso que la argumentación de Popper acerca del realismo metafísico podría ser suscrita
por un tomista como Étienne Gilson. El criticista Popper utiliza el mismo tipo de
argumentos empleados por Gilson para llegar a la misma conclusión con el mismo tipo de
certeza. Esta no es, sin embargo, la única ocasión en que Popper argumenta sobre temas
metafísicos. Cuando se le acusó de ser o haber sido positivista, replicaba que nunca había
negado que la metafísica tenga sentido, y también que había discutido frecuentemente
problemas metafísicos, lo cual es cierto. Subrayaría que, aunque Popper nos diga que sus
puntos de vista deberían ser considerados como conjeturas, de hecho argumenta tan
fuertemente como cualquier otro lo haría cuando ataca el materialismo o argumenta en
favor del realismo, el indeterminismo y la emergencia.
Todo este asunto puede ser clarificado si recordamos que, al argumentar en favor del
realismo, Popper escribe: "No ‘sabemos’ esto, naturalmente, en el sentido en que
podemos saber que 2 + 3 = 5; es decir, no lo sabemos en el sentido del conocimiento
demostrable. Tampoco lo sabemos en el sentido del ‘conocimiento científico’ contrastable.
Pero esto no significa que nuestro conocimiento no sea razonado o razonable". Pienso
que un diálogo acerca de este texto podría bastar para alcanzar un amplio acuerdo sobre
algunos temas entre Popper y muchos filósofos realistas, tomistas incluidos.
Desde mi punto de vista, diría que difícilmente conocemos algo acerca del mundo físico
"en el sentido en que podemos saber que 2 + 3 = 5", de modo que, si consideramos esto
como el paradigma del "conocimiento demostrable", Popper tendría razón cuando
considera que nuestro conocimiento es básicamente conjetural. Sin embargo, para evitar,
como Popper pretende hacerlo, actitudes que obstruyen el progreso científico, no es
necesario afirmar que todo nuestro conocimiento es conjetural, lo cual no es cierto. Basta
aceptar que nuestro conocimiento es siempre limitado y perfectible. Además, en la ciencia
experimental nuestras construcciones siempre dependen de contextos que nosotros
mismos construimos y que, en consecuencia, conducen a conocimientos que, aunque
sean verdaderos, poseen siempre un carácter contextual y parcial.
Por otra parte, tampoco es difícil comprender que en la ciencia experimental existe una
fuente especial de intersubjetividad y de verdad. Esa fuente, sin embargo, no es nada
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 79
misteriosa: consiste en el hecho de que el mundo natural está organizado en torno a
pautas espacio-temporales repetibles. Los experimentos científicos son posibles porque
existen pautas repetibles. En cambio, cuando se trata de las ciencias humanas, debemos
tomar en consideración las dimensiones específicamente humanas que, aunque puedan
relacionarse con pautas espacio-temporales, también las trascienden. Por tanto, no
podemos zanjar las discusiones metafísicas utilizando exactamente la misma clase de
argumentos que se usan en la ciencia experimental; sin embargo, podemos alcanzar
eventualmente conclusiones que son mucho más seguras que las de la ciencia
experimental.
Popper defiende algunas doctrinas filosóficas que tienen gran importancia para los
tomistas y para muchos otros filósofos realistas. Éste es el caso de su argumentación en
favor del realismo metafísico. Esto también puede extenderse a la imagen de la ciencia
experimental como una empresa humana cuyo objetivo es la búsqueda de la verdad; a la
importancia de las razones éticas para la búsqueda de la verdad; a la afirmación de que
nuestra búsqueda de conocimiento empírico debe basarse en el método de conjeturas y
refutaciones; a la idea de que, más allá de la ciencia experimental, existe un ámbito de
cuestiones metafísicas que no pueden ser decididas mediante experimentos pero pueden,
no obstante, ser discutidas racionalmente; a la importancia de la modestia intelectual,
especialmente en el ámbito de las empresas intelectuales; a la necesidad de fomentar la
actitud de diálogo y razonabilidad en los asuntos humanos.
Me atrevería a decir que algunas dificultades aparentes en la filosofía de Popper podrían
ser superadas mediante un diálogo previo dirigido a entender los respectivos marcos de
referencia. Sin embargo, la tarea no es fácil. Ahora, yo no diría que la filosofía de Popper
es principalmente una epistemología que se aplica al ámbito social; más bien diría que es
verdad lo contrario. En tal caso, el diálogo con Popper es, probablemente, más factible de
lo que parece a primera vista, pero, en cualquier caso, no es un asunto fácil. Mi trabajo
sobre las raíces éticas de la epistemología de Popper pretende ayudar a hacer más fácil
esa tarea.
REFERRENTES o Hubert Kiesewetter, "Ethical Foundations of Popper's Philosophy", en: A. O'Hear
(editor), Karl Popper: Philosophy and Problems, Royal Institute of Philosophy
Supplement: 39, Cambridge University Press, Cambridge 1995, pp. 275-276.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 80
o W.W. Bartley, The Retreat to Commitment, Knopf, New York 1962.
o K. R. Popper, El mito del marco común. En defensa de la ciencia y la racionalidad,
Paidós, Barcelona 1997, p. 15
o Karl Popper, En busca de un mundo mejor, Paidós, Barcelona 1994, p.255.
o Karl Popper, Realismo y el objetivo de la ciencia, Tecnos, Madrid 1985, pp. 120-128.
o Cinta de Moebio No.5. Abril de 1999. Facultad de Ciencias Sociales. Universidad de
Chile.
o http://rehue.csociales.uchile.cl/publicaciones/moebio/05/frames13.htm
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 81
2.6. LÓGICA Y EPISTEMOLOGÍA DE LA CIENCIA SOCIAL: ENSAYO SOBRE EL ENTENDIMIENTO REFLEXIVO EN HEGEL
Jorge Gibert Galassi.
Si la apariencia fenoménica y la esencia de las cosas coincidieran totalmente, la ciencia y
la filosofía serían superfluas. Karel Kosik, Dialéctica de lo Concreto.
2.6.1. INTRODUCCIÓN El propósito del trabajo consiste en aproximarse a una re–evaluación del enfoque negativo
de la filosofía hegeliana en el marco de la discusión epistemológica de la ciencia
contemporánea.
En la exposición del concepto de "entendimiento reflexivo", tal como lo reelabora Hegel en
su Ciencia de la Lógica, se afirma que la crítica hegeliana implicó la creación de una
epistemología de la ciencia especial, conocida como dialéctica. El desarrollo histórico de
tal epistemología ha sido precario y las refutaciones a ese punto de vista, múltiples.
Básicamente, éstas últimas se han centrado en la afirmación de la hipótesis formalista que
asigna un rol definitivo y exclusivo a la lógica de la identidad y la no contradicción en la
investigación científica, opuesta al planteamiento hegeliano.
Sin embargo, la distinción entre lógica y representación permitiría re–ubicar la reflexión
hegeliana desde otro punto de vista, permitiendo, además, ampliar el marco de la
discusión epistemológica sobre la dialéctica, al menos respecto del cómo ésta se ha
desarrollado recientemente.
2.6.2. LÓGICA Y REPRESENTACIÓN DE REALIDAD La afirmación "En virtud de que la esencia –a diferencia de los fenómenos– no se
manifiesta directamente, y por cuanto que el fundamento oculto de las cosas debe ser
descubierto mediante una actividad especial, existen la ciencia y la filosofía" (2), centra la
discusión sobre el conocimiento y su plausibilidad en las características de esta especial
actividad y, por tanto, respecto del método filosófico y científico y las presuposiciones
epistemológicas de éstos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 82
Sin embargo, surge aquí la falacia de la distinción estricta entre ciencia y filosofía: ¿no
contiene, y se edifica, la ciencia sobre un conjunto de hipótesis filosóficas?; y la
contraparte, para que la filosofía pueda realizar un aporte reflexivo a la dinámica científica,
¿no es acaso necesario que ella esté por encima (analíticamente informada) del
conocimiento científico de su época?
El problema de la distinción surge cuando la operación se reconoce en ella misma:
¿podemos pensar las relaciones formales y factuales entre ciencia y filosofía sin acudir al
instrumental formal (lógica) y factual (conocimiento) a las que ellas mismas acuden para
su realización como tales? O dicho de otro modo: ¿puede existir un criterio de operación
externo a ellas –ciencia y filosofía– utilizable para su análisis?
Una respuesta a esta pregunta podría construirse desde una opción ética, ideológica o
estética–literaria. Pero sería irrazonable quebrar el principio de autorreferencia, mínimo
para la comprensión de la evolución autoorganizada de la filosofía o la ciencia, puesto que
no es posible modelar matemáticamente la creación literaria así como tampoco es posible
suponer intencionalidad ideológica a la solución de ecuaciones diferenciales. Es decir, sólo
podemos hablar científicamente de la ciencia desde la ciencia misma y artísticamente del
arte desde el arte.
Sin embargo, habitualmente las taxonomías que ordenan las disciplinas filosóficas
incluyen a la lógica y, al mismo tiempo, la lógica se incorpora instrumentalmente en el
quehacer creativo de la ciencia, como una modalidad operatoria para la construcción
coherente (racional) de teorías. La lógica se relaciona con la objetividad mediante el
problema de la representación. El lenguaje científico intenta adaptarse a los hechos
mediante la formulación de enunciados sobre la realidad, siempre y cuando dichos
enunciados se relacionen entre sí de una manera coherente, respetando el principio de
identidad y no–contradicción. Así planteado, el problema surge con la pregunta: ¿qué
sucede, cómo operar estratégicamente, cuando concebimos la realidad como unidad de
identidad y no–identidad?; ¿qué sucede con el instrumental lógico para la construcción de
teorías?
2.6.3. LA DIALECTIZACIÓN HEGELIANA DE LA LÓGICA La distinción forma–contenido es el punto de partida del análisis crítico de Hegel sobre
este problema: "Al aceptar que la lógica sea la ciencia del pensamiento en general se
entiende con ello que este pensamiento constituye la pura forma de un conocimiento, que
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 83
la lógica hace abstracción de cualquier contenido y que el llamado segundo elemento que
pertenecería a un conocimiento, es decir la materia, debe ser ofrecido trayéndolo de otra
parte" (3). El sujeto cognoscente daría forma, una fisonomía sui generis, a los enunciados
sobre la realidad o lo conocido. De esta, el conocimiento consistiría en la combinación de
la arquitectura de todo pensamiento pensable levantada con la materia, que estaría fuera
de ella. Pero el planteamiento de Hegel, no conforme con ello, gira en torno a la pregunta
respecto de cómo es posible "unir" un elemento perteneciente a un conjunto A (las formas
del pensamiento) con un otro elemento perteneciente a un conjunto B (contenidos
materiales de la realidad), siendo que la operación "unión" no es aplicable dada la
naturaleza, excluyentes entre sí, de los elementos de ambos conjuntos. Existe una
clausura operacional puesto que la operación no puede realizarse dada la naturaleza de
los dominios de ambos conjuntos. Los elementos no pueden conectarse por definición, de
acuerdo a la lógica como ha sido concebida antes que él.
A ello, Hegel plantea varias contraindicaciones: "...en primer lugar, es inapropiado decir
que la lógica hace abstracción de cualquier contenido, que enseña sólo las reglas del
pensar, sin penetrar en lo que ha sido pensado, y sin poder considerar su naturaleza.
Puesto que son el pensamiento y las reglas del pensar los que deben constituir su objeto,
en éstos tiene la lógica su contenido característico inmediato, y en ellos tiene también
aquel segundo elemento del conocimiento, a saber, una materia, de cuya naturaleza debe
preocuparse" (Ibid, pág. 58). Radicalizando el enunciado, éste afirma que la lógica, en
tanto formas del pensamiento, pertenece, también, al orden de la realidad y, por lo tanto,
no puede separarse de ella, a riesgo de cometer una petición de principio.
En segundo lugar, por ello no menos relevante, Hegel plantea que no es posible una
verdad incierta y una certeza no–verdadera. A lo menos no desde la filosofía. Es decir,
complementando con el punto anterior, no sería posible concebir el pensamiento como
algo imperfecto, una forma blanda, indeterminada, siendo que éste es real y, por ello, algo
por sí completo y acabado. En consecuencia, la concordancia del pensamiento con el
objeto no puede ser posible, a menos que éste descienda de su status de realidad,
menoscabando su función a mero "ajuste y acomodo".
En tercer lugar, y este es el decisivo, "...dado que la diversidad entre la materia y la forma,
entre el objeto y el pensamiento, no es dejada en aquella nebulosa indeterminación (ajuste
y acomodo), sino que es concebida de manera más determinada, deben los dos constituir
esferas distintas. Por consiguiente, el pensamiento cuando aprehende y forma la materia,
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 84
no sale fuera de sí mismo; su acto de aprehender y amoldarse a ella no es sino una
modificación de sí mismo; y la determinación autoconsciente pertenece, no obstante, sólo
a él. De modo que, aún en su relación con el objeto, el pensamiento no sale fuera de sí
mismo hacia el objeto: éste sigue siendo como una cosa en sí, absolutamente un más allá
del pensamiento" (Ibid, pág.59, cursiva mía).
Aquí hay dos problemas: el primero, que la filosofía prehegeliana no responde cómo se
relacionan, cuál es el dispositivo vinculante, entre estas dos esferas; el segundo, en caso
de reconocer una misma naturaleza a ambas esferas, tendría que optar por suponer la
inclusión de una en la otra. ¿Pero cómo dirimir semejante disyuntiva?
La única manera de plantear un problema tal es mediante la incorporación de la categoría
de lo contradictorio, de manera de poder afirmar que el pensamiento es pensamiento y es
no–pensamiento (realidad); así como que la realidad es realidad y es no–realidad
(pensamiento).
Frente a la filosofía griega que explica el ser natural en general mediante la categoría de
autoidentidad, la filosofía hegeliana precisa de una categoría que de cuenta de su propio
contenido. Este descubrimiento de Hegel, lo contradictorio existente en el seno de lo no–
contradictorio, es lo que denominó en su propio lenguaje "negativität"; cuya consecuencia
es elaborar la pregunta por el ser que unifica la naturaleza regida por la autoidentidad y la
no–contradicción y la región, recién descubierta, de la subjetividad o del Geist, regido por
la negatividad (4). Una lectura plausible de la solución hegeliana es que se "reinterpreta la
totalidad del ser desde la perspectiva del sujeto, interpretando subjetivamente la
substancia" (Ibid, pág.6). Este ser que es la unidad de lo contradictorio y lo no–
contradictorio es, para Hegel, Concepto (Begriff) o Espíritu.
Pareciera, así que la operación hegeliana para lograr una representación adecuada de lo
real es la inclusión de la contradicción en su concepción de la lógica, una lógica que, por
cierto, tiene contenido.
El planteamiento sobre el entendimiento en Hegel sugiere, es la tesis, que es posible (de
hecho irrenunciable) superar la distinción entre determinaciones antitéticas puesto que
éstas son sólo un momento en el despliegue del Espíritu Absoluto. O en palabras, del
mismo Hegel: "El formalismo que la filosofía ...denuncia... y que constantemente se
engendra de nuevo en ella no desaparecerá de la ciencia... hasta que él conocimiento de
la realidad absoluta llegue a ser totalmente claro en cuanto a su naturaleza" (5).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 85
Según Hegel, "el entendimiento es una fase en el movimiento y despliegue del espíritu. En
este movimiento, de carácter progresivo, el espíritu va alcanzado nuevas formas, cada una
de las cuales supone la ruptura con los hábitos de las etapas anteriores, conteniéndolas y
superándolas a la vez, removiendo sus defectos y conciliando todo lo que aquellas han
determinado unilateralmente como incompatibles" (6).
El entendimiento reflexivo consiste en lo siguiente: "...suponer lo concreto inmediato,
determinarlo y dividirlo". Pero dice Hegel "...tal reflexión debe también superar sus
determinaciones divisorias, y ante todo, tiene que relacionarlas mutuamente. Pero, desde
el punto de vista de establecer esta relación surge su contradicción" y añade lo
fundamental "Esta relación de la reflexión pertenece en sí a la razón; elevarse sobre
aquellas determinaciones hasta alcanzar a conocer el contraste contenida en ellas, es el
gran paso negativo hacia el verdadero concepto de la razón" (7).
Más adelante, Hegel diagnostica (y desliza la solución) al impasse de la disciplina lógica:
"Sin duda, en las condiciones en que todavía se encuentra, no tiene esta ciencia un
contenido de tal especie, que pueda ser válido como realidad y como cosa verdadera en la
conciencia común, lo que no significa que sea una ciencia formal, desprovista de una
verdad sustancial" (Ibid, pág.63).
La falta de contenido de la lógica, en consecuencia, sólo hace resaltar la falta de contenido
de la filosofía misma, en tanto pretensión de representar la realidad. Al reflexionar sobre
las formas lógicas, insiste: "Cuando son consideradas como determinaciones firmes, y por
ende, desligadas, en lugar de ser reunidas en una unidad orgánica, son formas muertas,
donde ya no reside el espíritu, que constituye su unidad viviente" (Ibid, pág.63). De algún
modo, esto sugiere que toda indagación científica de la realidad es una indagación sobre
la realidad del concepto o espíritu.
La incorporación, de parte de Hegel, de la categoría de contradicción a la reflexión formal
(lógica) supone una definición del concepto en un sentido débil, que denominaremos
representacionista. Esta definición del concepto, como modalidad de funcionamiento o
arquitectura, representaría fidedignamente a la realidad tal cual es. Pero la lógica es,
desde su origen, una forma de pensar y comunicar, más no de representar. Al definir la
lógica desde la representación, Hegel propone una teoría de la realidad. El marxismo, al
proponer esta arquitectura "vuelta de cabeza", lo que hace es crear un enfoque
epistemológico especial, una manera de indagar la realidad de acuerdo a un conjunto de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 86
nuevas presuposiciones (cuya expresión mayor es el modelo societal de Marx a partir de
la dialéctica capital/trabajo).
Es decir, la pretensión de Hegel es fundamentar una nueva teoría general, una estructura
abstracta, donde las teorías particulares no serían más que campos de aplicación, la
realización específica de esa estructura abstracta, cuya teoría general las englobaría a
todas. Esta estructura está constituida por un conjunto de operaciones típicas, como la
operación "oposición" o "salto cualitativo", cuya descripción empírica sería el objeto de las
ciencias particulares. La aplicación de la idea "la realidad es dialéctica" –o sea, que "esa"
es la estructura de la realidad– en las disciplinas fácticas , desde Engels hasta Kopnin, es
una muestra del impacto de la pretensión hegeliana. En suma, la lógica hegeliana abrió
una manera de concebir la estructura abstracta de la realidad.
La Refutación Formal de la Dialéctica Hegeliana
La refutación formal contemporánea del programa lógico hegeliano, está contenida en las
presuposiciones epistemológicas de la investigación científica. Esta, tal y como la ha
codificado y divulgado Bunge, "presupone y controla ciertas importantes hipótesis
filosóficas. Entre ellas, destacan las siguientes: la realidad del mundo externo, la
estructura de muchos niveles que tiene la realidad, el determinismo en un sentido amplio,
la cognoscibilidad del mundo y la autonomía de la lógica y de la matemática" (8).
En cuanto al formalismo, esto es, la autonomía de la lógica y la matemática, plantea: "por
mucho que cambie la ciencia de la lógica, lo hace siempre internamente o en respuesta a
problemas puramente racionales, no en un esfuerzo de adaptarse a la realidad. La lógica
es autosuficiente, desde los puntos de vista de su objeto y de su método: no tiene más
objeto que sus propios conceptos, y sus demostraciones no deben nada a las
peculiaridades del mundo" y agrega más adelante "la validez de una ciencia formal es
independiente del mundo porque no se ocupa de él" (Ibid, pág.327).
Sin duda, la posición de Bunge respecto a la lógica es distinta a las concepciones tratadas
en la primera parte: no corresponde a la visión hegeliana (lógica con contenido) como
tampoco corresponde a la visión de indeterminación (el pensamiento que se adapta al
objeto).
Más radical, Bunge señala que la lógica es autosuficiente poseyendo objeto y método
propio, con total autonomía de los contenidos materiales del mundo. Quizás esta visión,
dice relación con el enunciado de complejidad del mundo y de la complejidad del proceso
cognoscitivo, lo cual lleva a dejar ambas esferas "fuera" de la actividad disciplinaria de la
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 87
lógica, precisamente debido a su complejidad, por no visualizar la posibilidad de dar
cuenta fundadamente de dicha complejidad.
Pareciera que en Bunge, la concepción de la lógica tiene un sentido netamente
instrumental de control. Esa "tecnología" tendría una función semejante a toda tecnología:
ejercer dominio sobre un mundo, en este caso, no sobre un mundo natural o social sino
sobre el mundo de la producción de verdades. Es decir, no se trataría, como lo plantea
Hegel, de una disciplina con contenido, sino de un instrumental de apoyo para la
producción científica; por cierto, un apoyo algo semejante al del Tribunal de la Santa
Inquisición.
Específicamente, la función de la lógica al interior de la investigación científica sería
apoyar la búsqueda de la certeza, y estaría dada por su enfoque en tanto lógica deductiva
y lógica inductiva.
Con respecto a la lógica inductiva, Bunge le asigna un papel bastante menor que al de la
lógica deductiva: "...desentenderse de la lógica deductiva y buscar certeza por otra parte,
en la lógica inductiva...esto es una quimera: no hay hipótesis infalibles y, estrictamente
hablando, todas las inferencias no–deductivas son falaces: no nos permiten concluir nada,
pero son expedientes que nos permiten sospechar de la verdad o falsedad de las
afirmaciones. La verdadera tarea de la "lógica" no deductiva no tiene que consistir en
consagrar falsedades, sino en estudiar los efectivos esquemas de la inferencia científica
no deductiva que se presentan en el estadio de la contrastación, así como las condiciones
de su rendimiento óptimo.
Por ejemplo, en nuestro caso del sujeto "mentalmente ausente", si hallamos que no
reacciona al ruido, "inferimos" que es plausible suponer que está mentalmente ausente
(caso de reducción fuerte). Pero nuestro sujeto puede estar simulando, de tal modo que
habrá que disponer de otras contrastaciones más...O bien, la hipótesis en cuestión puede
ser plausible en razón de la anterior experiencia con el sujeto, la cual nos sugiera que
suele estar ausente mentalmente; ...A ® - R, y "A" es verosímil, luego "-R" es plausible
(caso de modus ponens débil). O también, por último, puede ser que estemos bastante
seguros, aunque no totalmente, de que el sujeto está reaccionando al ruido, en cuyo caso
inferimos que el sujeto esté probablemente alerta: A ® - R es plausible, luego "-A" es
plausible (caso de modus tollens débil).
Pero, ¿cuánta plausibilidad puede tener una suposición plausible, y cuánta plausibilidad
puede tener, por su parte, la inferencia que da aquella conclusión? Ninguna de las
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 88
existentes teorías de "lógica" inductiva da respuestas aceptables a esas preguntas: se
trata aún hoy de problemas abiertos" (Ibid, pág.883).
El planteamiento de Bunge respecto a la lógica deductiva es, a la vez, claro y
parsimonioso: "...la lógica deductiva, aunque es un poderoso instrumento para la
explicitación de supuestos iniciales y la obtención de todas las consecuencias
contrastables que aquéllos puedan implicar, es impotente para convalidar los supuestos
iniciales mismos; en cambio, ayuda a mostrar cuáles de ellos son falsos" (Ibid, pág.881).
Es decir, cumple un rol de apoyo indiscutible para la construcción coherente (racional) de
teorías. Pero insiste en que la investigación científica sólo es fructífera cuando es posible
falsar teorías, a la vez que éstas sólo se generan si las preguntas de investigación son
capaces de plantearse problemas (Popper), y desarrolla la argumentación relativa a la
impotencia para convalidar supuestos iniciales –y su relación con la construcción de
teorías– del modo siguiente: "...Una teoría axiomática de base A es el conjunto de todas
las fórmulas de la teoría basada en A:
F = Cn (A)
[También F = Cn (F), lo que quiere decir que una teoría axiomática contiene todas sus
consecuencias, o sea, que es deductivamente cerrada]. Podemos según eso adoptar la
siguiente definición: Una teoría axiomática de base A es el conjunto de todas las
consecuencias lógicas de A.
El caso más sencillo se presenta cuando no hay ningún supuesto, o sea, cuando la base
de la teoría es el conjunto vacío. Si nos preguntamos «¿qué se sigue de nada?», la
respuesta correcta, aunque nada intuitiva, es lo que se sigue de nada es la lógica
ordinaria. Esto es: no hay supuestos a partir de los cuales se siga la lógica; o, como
también puede decirse, nada precede (lógicamente) a la lógica; otra manera de decir lo
mismo: la lógica es autocontenida. (Con esto queda probada la autonomía de la lógica;...)
Esto puede escribirse brevemente así:
Cn (Æ ) = L,
Æ a L
El dual de este teorema es: De supuestos lógicamente falsos se sigue cualquier cosa. O
sea: el conjunto U de todas las fórmulas se sigue de todo conjunto unidad { A} tal que la
negación de A sea lógicamente verdadera:
Si - A Î L, entonces...Cn (A) = U
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 89
He aquí una primera moraleja: huir de fórmulas que puedan explicarlo todo, en el campo
dado y en cualquier otro. Segundo: No reforzar los supuestos a toda costa (Ibid, pág. 442
y 443). A lo que el autor agrega: "...podemos seguir amontonando simples proposiciones
de bajo nivel sin sacar nada en limpio teoréticamente: un conjunto de informaciones
lógicamente aisladas, por precisas y numerosas que sean, están tan lejos de ser una
teoría como pueda estarlo una colección de chismes. Un conjunto de supuestos no puede
empezar a dar de sí consecuencias lógicas –y, por lo tanto, demostraciones– más que si
esos supuestos trascienden los datos. En este caso, un sólo supuesto inicial –siempre que
sea rico– puede implicar infinitas consecuencias lógicas... (pero) los datos no producen
teorías (Ibid, pág. 443).
Finalmente, resume el autor con un argumento práctico: "Todas las teorías lógicas
contienen ... las leyes de identidad y no–contradicción... Supongamos, por arrancar
nuestra argumentación, que la ciencia factual no presupusiera estos principios... no habría
limitación alguna de las formas lógicas ni de las inferencias: todo podría afirmarse... y todo
podría inferirse" (Ibid, pág. 328, cursiva mía). El significado profundo de esta
argumentación es meramente administrativo mientras no se realice la pregunta por la
validez de la representación de lo real por la semántica científica: a saber, lo único que
podría concluirse, es que no podemos acumular oraciones enunciativas.
Sin embargo, Bunge desliza la posibilidad hegeliana: "...que la ciencia factual emprendiera
una investigación propia de la lógica y buscara sus propios principios de razonamiento.
¿Cómo podría conseguirlo? Los conceptos, las funciones proposicionales, las
proposiciones, etc. –o sea, los objetos lógicos– no tienen existencia material ni pueden,
consiguientemente, ser objetos de experiencia: sólo sus símbolos tienen existencia
material, pero son inesenciales, o sea, que pueden cambiarse por otros símbolos
cualesquiera sin que cambie lo denotado. La ciencia factual tendría que volverse hacia
adentro, tendría que hacer su propio análisis para descubrir los principios lógicos que
estuvieran insertos en ella misma" (Ibid, pág.328). Pero, ¿no es ésta acaso la propuesta
hegeliana? Por cierto, lo es. Sin embargo, Bunge insiste: "Pero, ¿con qué instrumentos
procedería a ese análisis, si no es con los instrumentos lógicos que al principio se había
negado a presuponer? Por tanto, la ciencia factual tiene que presuponer alguna lógica"
(Ibid, pág.328).
Visto más de cerca, el razonamiento de Bunge tiende a fundamentar tales afirmaciones
desde un punto de vista de la construcción de teorías más que desde el punto de vista de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 90
la representación de lo real a través del sistema ciencia: "Si se abandona el principio
lógico de identidad tendríamos que admitir el milagro de que un enunciado cambiara por sí
mismo y fuera capaz de representar dos veces –en una misma argumentación por
ejemplo– la misma proposición. Si se abandonara el principio de no contradicción,
seríamos incapaces de hacer suposiciones determinadas pues podríamos estar afirmando
al mismo tiempo sus negaciones" (Ibid, pág. 329). Sin embargo, esto tiene relación con el
requisito de comunicabilidad y contabilización del conocimiento acumulado, pero,
insistimos, nada nos informa acerca de sí el sistema ciencia representa válidamente o no a
la realidad tal cual es. La realidad del mundo es más compleja que la ciencia, pero ¿es
válido, como pretensión, partir del supuesto de que sólo es posible comunicar
parcialmente el "estado de realidad" del mundo? Y si no fuera válida la pretensión, ¿cabría
pensar que la naturaleza es de una uniformidad tal que es plausible la idea de
representarla mediante formas lógicas? Aún cuando pudieramos responder estas
preguntas, tampoco darían argumentos para enfrentar el problema del movimiento, que de
algún modo es el quid de la pretensión lógica hegeliana.
En efecto, en el caso particular de las ciencias sociales, si fuera posible que ellas
representaran el movimiento de lo social, como secuencia ordenada de eventos, estarían
en condiciones, entre otras, de realizar predicciones. Respecto a este punto, lo más allá
que se ha llegado es la teoría de juegos, que no deja de ser un ejercicio de interés
heurístico basado en supuestos múltiples, lo que nos vuelve a dejar en el punto de partida:
¿Sobre cuáles supuestos, entonces, sería factible construir una representación valedera
de lo social?
2.6.4. LÓGICA COMO REPRESENTACIÓN Y LÓGICA COMO LENGUAJE El sistema ciencia comunica en el particular código de la verdad objetiva y sistemática. La
ciencia fáctica presupone una lógica bivalente –verdad / falsedad–, aunque algunas
teorías presuponen lógicas no ordinarias (9).
Cuando definimos la función de la lógica en el proceso del conocer científico, de acuerdo a
la dialéctica, ésta consiste en "adaptarse a la realidad". Es la definición débil,
representacionista. Sin embargo, al proceder de este modo, confundimos la lógica con la
estructura de la realidad y con algunos otros conceptos, tales como el de modelo. La
función de la lógica no es adaptarse a la realidad, sino más bien en hacer ésta
comunicable en términos de conjunto de proposiciones verdaderas vinculadas
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 91
sistemáticamente. Más precisamente, la función de la lógica es el cálculo de
proposiciones, en un sentido inductivo o deductivo, que permita validar la conexión entre
proposiciones. Los resultados de estos cálculos son multiformes, y van desde el
desprendimiento de nuevas proposiciones (generación de hipótesis) hasta la evaluación
de teorías (control).
Pero no hay que olvidar que la pretensión hegeliana es dar cuenta de la transformación, y
es por ello que incorpora la categoría de contradicción. La hipótesis general es simple: la
transformación es cambio, y el cambio es obra de la oposición de entidades contrarias,
que explica la transformación de los estados de las entidades que se oponen. Hegel
plantea que la dialéctica es una representación de lo real viviente, que en cuanto y en
tanto unidad, contiene los términos de identidad y de contradicción. El problema se plantea
cuando comunicamos esta idea a través del lenguaje. Supongamos el siguiente ejercicio:
Es cierto que una entidad es A y ~ A.
Pero la mera inclusión de "y" en la sintaxis de la proposición nos demuestra que:
A ~ A A * ~ A
V F F
F V F
La refutación pueril a esta conclusión es que la lógica proposicional no encaja con la
realidad. Pues bien, úsese el lenguaje ordinario, lo que tenemos es la siguiente oración:
"las cosas son no son al mismo tiempo". ¿Y por qué no está en la oración el "y"? Porque el
"y" es la lectura del *, que es la conjunción o producto lógico. Sin embargo, más de uno
insistirá: Si tomamos un período, encontraremos A y ~ A como estados. Pero, como es
obvio, ya no estamos comunicando lo que originalmente queríamos comunicar: esta nueva
comunicación es la de un proceso o "secuencia temporalmente ordenada de
acaecimientos, tal que cada miembro de la secuencia toma parte en la determinación del
miembro siguiente" (10), como por ejemplo el proceso vital (vida–muerte).
La única manera de comunicar la idea original es mediante una "paradoja", y las paradojas
son problematizaciones (no son descripciones o explicaciones) de la realidad, que se
resuelven adicionando en la formulación lingüística una tercera entidad. En el caso de la
dialéctica, el problema se resuelve sólo si la tercera entidad es de un nivel de realidad
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 92
distinto al nivel de los dos términos antitéticos (o aparentemente antitéticos) que incluye.
Lo veremos en la siguiente parte y final.
Por otra parte, algunos han confundido el problema de la lógica y la representación de otro
modo. Es lo denominado "lógica borrosa".
A modo de ejemplo, expongamos la siguiente idea: "la lógica formal tradicional no encaja
con nuestro objeto de estudio, por dos razones al menos. La primera... porque se requiere
un modo de pensar no lineal, sino reticular y, mejor todavía, sistémico... La segunda razón
es todavía más obvia. La lógica formal en que hemos sido entrenados se basa en el
empleo cualitativo de inclusión y exclusión...para caracterizar los fenómenos sociales y
encajarlos en los esquemas tipológicos que, explícita o implícitamente, utilizamos como
referencia" (11). En suma, supone la tesis que la lógica debe "adaptarse a la realidad".
Pero es cuestionable también por otras razones.
El primer argumento se rebate con dos ejemplos simples: i) El estudio general de la
continuidad lo emprende la topología, que es una creación matemática de Poincaré; y, ii)
los códigos de los sistemas Luhmannianos son binarios (12). Tanto la teoría del continuum
como el pensamiento sistémico, matemática y sociología, no sólo no son incompatibles
con la lógica formal, sino que la requieren.
El segundo argumento, confunde un caso particular de agrupaciones científicas, el más
simple, la clasificación divisoria, con toda la amplia gama de clasificaciones posibles. Si la
división es correcta (el dominio del discurso es igual a la unión de A y -A y que la
intersección de A y -A es Æ ), un elemento pertinente podrá ser incluido en el subconjunto
de uno de los términos.
Si un elemento es excluido de ambos subconjuntos, está mal definido el elemento
(vaguedad) o existe independencia entre el criterio de división y el elemento (el agua no
puede ser incluida en la dicotomía comestible/ no–comestible; sino en la dicotomía
bebible/ no–bebible).
Además, concibe la tipología como un instrumento "anterior", más elemental, respecto de
la clasificación; cuando no lo es. Una tipología es el resultado de un sistema de
coordenadas, un espacio de atributos. Teórica y metodológicamente, una tipología implica
una correlación que un agregado social posee entre dos conceptos de clase, con niveles
de medición variados, como la propuesta de Fromm (13), grado de autoridad de los padres
y grado de aceptación (de dicha autoridad) por los hijos; y que le produjo cuatro tipos de
relaciones de autoridad: autoridad absoluta, autoridad normal, falta de autoridad y
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 93
rebelión. Por lo tanto, la tipología es un subproducto del juego teórico y metodológico entre
dos clasificaciones, en el ejemplo anterior, la clasificación entre autoridad de los padres
(que en realidad es de un tipo especial, la ordenación, puesto que establece relaciones
asimétricas y transitivas entre dos miembros, por ejemplo, un miembro con autoridad débil
y otro con autoridad fuerte) y la clasificación de grados de aceptación de los hijos (también
ordenada: baja, media, fuerte).
Esta refutación no impide estar de acuerdo en que "definir exactamente lo que es y lo que
no es el objeto examinado" es muy difícil, pues "A veces, la vaguedad conceptual refleja
una nebulosidad o indeterminación objetiva, no en el sentido de que los hechos sean
confusos, pero sí en el de que entre los géneros naturales hay a menudo formas de
transición. Estas formas de transición impiden una demarcación tajante, dan lugar a
vaguedad conceptual y pueden arruinar incluso clasificaciones" (14). Pero este problema
no lo resuelve un continuum donde el fenómeno se ubica entre dos tipos ideales, a lo
Weber, puesto que volvemos al mismo argumento anterior.
2.6.5. DETERMINACIÓN DIALÉCTICA Y EPISTEMOLOGÍA DE LA CIENCIA El punto de arranque es que la distinción entre lógica formal y lógica dialéctica es
inoficiosa y, por lo tanto, improductiva como idea científica. Pero la intención
"representacionista" de Hegel, la dialéctica como estructura de la realidad, es fructífera en
cuanto hipótesis de "un modo de ser de la realidad misma"; y en ese sentido, es válida
como esquema presuposicional de determinación que es plausible de contrastar
empíricamente para obtener evidencia a su favor.
De hecho, la reflexión contemporánea de la filosofía de la ciencia incluye entre los tipos de
determinación, la determinación dialéctica, y la expone del siguiente modo: "Determinación
dialéctica (o autodeterminación cualitativa): de la totalidad del proceso por la «lucha»
interna y por la eventual síntesis subsiguiente de sus componentes esenciales opuestos.
Ejemplo: a) los cambios de estado de la materia a nivel macroscópico se producen por el
juego recíproco y predominio final de dos tendencias opuestas: la agitación térmica y la
atracción molecular; b) los intereses en conflicto de los grupos sociales determinan los
cambios de la propia estructura social de dichos grupos. Por oposición a la
autodeterminación cuantitativa, la dialéctica interna implica cambios cualitativos" (15).
Es decir, constituye una modalidad diferenciada de otras modalidades expresivas de la
determinación. Esta última, en general, es definida como "...aquella teoría ontológica
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 94
cuyos componentes necesarios y suficientes son: El principio genético o principio de
productividad, según el cual nada puede surgir de la nada ni convertirse en nada; y el
principio de legalidad, según el cual nada sucede en forma incondicional ni completamente
irregular, o sea, de modo ilegal o arbitrario. Ambos principios pueden ser fundidos en uno
solo, a saber: Todo es determinado según leyes por alguna otra cosa, entendiéndose por
esta última las condiciones externas tanto como las internas del objeto en cuestión. Este
enunciado puede llamarse el principio de determinación. Se trata de un supuesto filosófico
de la ciencia, confirmado por los resultados de la investigación científica...Cualquier teoría
de la estructura, o del cambio, o de una y otro, que respete el principio de determinación
recibirá el nombre de determinista" (16).
De particular interés es la formulación de determinación como modo de devenir: "la tercera
acepción (del determinismo)...la forma (acto o proceso) en la cual un objeto adquiere una
propiedad" (Ibid, pág. 23). Esta idea fue desarrollada analíticamente de manera notable
por Marx, al afirmar que la sociedad cambia (en tanto "modo de producción") por el
proceso de la lucha de clases (clases que se reubican constantemente en posiciones
dominadas o dominantes según el control que tengan de los medios de producción), las
que concomitantemente alteran su fisonomía al alterarse el modo de producción (los
siervos pasan a ser obreros, etc.).
Afirmamos anteriormente que, en el caso de la dialéctica, el problema se resuelve sólo si
la tercera entidad, nuestro objeto en la formulación anterior, es de un nivel de realidad
distinto al nivel de los dos términos antitéticos (o aparentemente antitéticos) que incluye.
Ello incluye tres problemas: la distinción entre niveles de realidad; la distinción del status
lógico entre hipótesis; y, la distinción entre relaciones de los términos antitéticos. Toda las
teorías parciales, se apoyan en alguna opción hipotética de resolución de estos
problemas.
El primer problema es el de la distinción entre niveles de realidad, puesto que toda
hipótesis dialéctica está afirmando que el tercer término es de un nivel de realidad distinto
a los dos otros términos. La idea que la realidad no es una estructura homogénea y rígida
esta consagrada desde hace mucho. Cada nivel de realidad opera a base de un conjunto
de propiedades y leyes propias (lo cual muestra cuán absurdo es una formulación como
"La sociedad está esquizofrénica"); lo cual no impide afirmar que existen relaciones entre
niveles (17). Además, varios importantes principios metodológicos se desprenden de las
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 95
dos hipótesis ontológicas anteriores, como: a) parsimonia de niveles; b) trascendencia de
niveles; c) nivel–origen; y, d) contigüidad de niveles (18).
A nivel disciplinario, sólo la investigación puede confirmar si la hipótesis dialéctica, in
concreto, es representativa de una estructura donde el tercer término pertenece a un nivel
superior contiguo al nivel que incluye los dos términos antitéticos. Cabe señalar, además,
que la estructura propuesta debe explicitar los dispositivos reguladores de esta relación
entre niveles.
El segundo problema es el de la forma. Se afirma que los términos antitéticos son reales,
de una forma antitética real. Sin embargo, por ejemplo, la agitación térmica y atracción a
nivel molecular son antitéticos en su relacionalidad, como procesos que desde puntos
polares convergen en un centro de "choque"; pero la morfología fenoménica no ha sido
esclarecida. En rigor, sólo es posible afirmar que A y ~ A son antitéticos en cuanto a su
fisonomía formal, pero empíricamente es probable que expresen una diferencia óntica y no
un antagonismo óntico, sino relacional (19). En general, es más razonable pensar en
términos antitéticos aparentes.
Un ejercicio como el siguiente podría esclarecer esta cuestión: Sea ~ A el opuesto de A.
Pero existe un problema previo: ¿Es probable encontrar en la realidad dos entidades
idénticas? La respuesta es no, inclusive a nivel atómico. Luego, dada la imposibilidad de
encontrar en la realidad A y A (2A), sino más bien la existencia de A y A’; entonces, del
mismo modo, no se podrá encontrar ~ A y otro ~ A, sino ~ A y ~ A’. Ahora bien, ¿cuál es la
plausibilidad de encontrar en algún fenómeno A y ~ A, una correspondencia estricta entre
opuestos?; ¿por qué no suponer que es más plausible la coexistencia de A y ~ A’ (o A’ y ~
A o A’’ y ~ A; etcétera)?
Ello deriva en la formulación de una hipótesis general que supone una semántica formal,
donde ~ A es el opuesto de A; mientras las hipótesis específicas suponen una semántica
empírica que afirma la improbabilidad de la coexistencia de A y ~ A.
El tercer problema es el de las variables cardinales o el problema de las magnitudes de los
términos antitéticos. Si la determinación dialéctica es la "lucha" entre contrarios, el
problema de la magnitud de éstos se torna relevante, pues supone algún grado de
predictibilidad acerca de la situación futura del tercer término "de estado".
Una propuesta preliminar para abordar el problema es la distinción entre una
determinación dialéctica simple y otra compleja, en tanto tipos. Así, se postula que la
determinación dialéctica simple es el postulado de plausibilidad de un estado con
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 96
tendencia al equilibrio, o, al menos, un equilibrio que opera bajo ciertos parámetros
determinados (como la dialéctica agitación térmica v/s atracción molecular en el caso del
agua, cuyo estado es constante hasta los 100º); mientras que determinación dialéctica
compleja es el postulado acerca de la plausibilidad de estados con tendencia al des–
equilibrio (como en el caso de el estado del sistema "parlamento" donde es improbable
una representación proporcional entre oposición y oficialismo).
En suma, toda formulación hipotética de tipo "dialéctico", para ser procesada en el corpus
de la ciencia estricta, debe dar cuenta de estos tres problemas: nivel, forma y magnitud.
Finalmente, todo lo anterior presupone una lógica bivalente para la comunicación científica
de la hipótesis dialéctica y excluye la posibilidad de toda lógica dialéctica a lo Hegel. Valga
para los defensores del postulado de la dialectización de la lógica el consuelo de que la
ciencia es sólo un modo de comprender la realidad.
Notas
1. El presente artículo es uno de los resultados preliminares de un programa de
investigación en epistemología y metódica de la investigación social. El autor
agradece los valiosos comentarios de Juan Miguel Chávez, Germán Fierro y
Laurence Maxwell.
2. Kosik, K. Dialéctica de lo concreto, Ed. Grijalbo, México, 1989, pág. 29.
3. Hegel, G. Ciencia de la lógica, FCE, México, pág. 58.
4. Fierro, G. Aproximaciones al tema de la muerte en Hegel, Tesis de grado, UCV,
Valpo., pág. 6.
5. Hegel, G. Fenomenología del Espíritu, FCE, México, pág. 15.
6. Otero, E. El estilo antitético de pensamiento en la filosofía política moderna, Doc.
Doctorado en Filosofía, U. de Chile, pág. 1.
7. Hegel, G. Ciencia de la lógica, FCE, México, pág. 61.
8. Bunge, M. La investigación científica, Madrid, 1983, pág. 319.
9. Por ejemplo: Varela, F.; Coguen, J. The aritmethic of clousure en J. Cybernetics,
1978,8: 291-324; Varela, F. The extended calculus of indications interpreted as a
three-valued logic, en Notre Dame J. Formal Logic, 1979, 20:141-146 (citado en
Maturana, H. y Varela, F. De máquinas y seres vivos, Prefacio a la segunda edición,
Editorial Universitaria, Stgo., 1995.
10. Bunge, M. op. cit., pág. 718.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 97
11. Pérez de Guzmán, T. El modo de pensar sociológico: Una propuesta en Revista
Chilena de Temas Sociológicos, Nº 3, 1997, pág. 98.
12. Es más, la teoría sistémico autorreferencial "No concierne tampoco a la posibilidad,
hoy muy discutida, de una lógica de los sistemas autorreferenciales". Luhmann, N.
Sistemas sociales, Alianza Editorial, Madrid, 1991, pág. 36.
13. Barton, A. Concepto de espacio de atributos en sociología en Boudon, R. y
Lazarsfeld, P. Metodología de las ciencias sociales, Vol. I, Laia, Barcelona, pág.
216-218.
14. Bunge, M. op. cit., pág. 123.
15. Bunge, M. Causalidad, Eudeba, Buenos Aires, 1961, pág. 31.
16. Bunge, M. Causalidad. pág. 37 y 38.
17. Una solución al problema de cómo es esta relación es: "...los niveles superiores
arraigan en los inferiores" (Bunge, M. La investigación científica, pág. 321); muy
complementaria con esta otra "...los sistemas de un orden superior (más
emergentes) pueden ser de una complejidad menor que los sistemas de un orden
inferior, ya que estos últimos determinan la unidad y el número de elementos de los
que están constituidos" (Luhmann, N. Sistemas sociales, pág. 45).
18. Al respecto, consultar Bunge, M. op. cit., pág. 321 - 323.
19. Es lo denominado "tesis de la indiscernibilidad de los idénticos". Bunge, M. op. cit.,
pág. 335.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 98
2.7. EL ESTUDIO DE LA CIENCIA Y LOS PARADIGMAS DE THOMAS S. KHUN
2.7.1. CONOCIMIENTO CIENTÍFICO Podemos resumir las características del conocimiento científico en tres cualidades: el
conocimiento científico es general, social y legal. Lo fundamental, para que un
conocimiento pueda llamarse científico, es que tal conocimiento sea comunicado. El
conocimiento no comunicado de hecho, aunque en principio sea comunicable, no integra
el sistema científico al que por su naturaleza esta destinado.
La diferencia entre el conocimiento vulgar y el científico. La diferencia es que el
conocimiento vulgar es el conocimiento que se aprende naturalmente, y el conocimiento
científico es el conocimiento que se obtiene mediante el estudio y la investigación.
Concepto y características de la ciencia: El conocimiento científico, pues, se representa en
conglomerados de proposiciones agrupadas en torno de hipótesis, de leyes o de conjuntos
de leyes que buscan comprender ciertos sectores del universo. El modo en que estas
proposiciones se fundan unas en otras constituye su unidad lógica; el hecho de referirse a
un mismo sector del universo constituye su unidad temática. Una ciencia es, pues, una
agrupación de conocimientos científicos organizados entre sí sistemáticamente.
La ciencia como actividad metódica. La actividad del hombre de ciencia consiste, en
términos genéricos, en recopilar datos, elaborarlos, extraer de ellos conclusiones,
confrontar estas conclusiones con otros datos y con el resultado de otras investigaciones,
ordenar todas las conclusiones de un modo sistemático y exponerlas con precisión. Las
ciencias fácticas tienen como fuente principal la experiencia. Las ciencias formales tienen
como fuente básica el razonamiento.
2.7.2. MÉTODO El método científico sirve para adquirir o comprobar los conocimientos de la ciencia. El
método científico tiene por objeto averiguar la verdad de proposiciones. El método
deductivo es el que mejor se adapta a las ciencias formales, pero cumple un importante
papel en las empíricas. El método inductivo, a su vez, está especialmente destinado a las
ciencias fácticas y tiene también cierta injerencia (aunque menor) en las formales.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 99
El método de investigación para el conocimiento de la realidad observable, que consiste
en formularse interrogantes sobre esa realidad, con base en la teoría ya existente,
tratando de hallar soluciones a los problemas planteados. El método científico (MTC) se
basa en la recopilación de datos, su ordenamiento y su posterior análisis.
Pasos del Método Científico: Observación: el primer paso es la observación de una parte limitada del universo o
población que constituye la muestra. Anotación de lo observable, posterior ordenamiento,
tabulación y selección de los datos obtenidos, para quedarse con los más representativos.
Hipótesis: se desarrolla en esta etapa, el planteamiento de las hipótesis que expliquen los
hechos ocurridos (observados). Este paso intenta explicar la relación causa – efecto entre
los hechos. Para buscar la relación causa – efecto se utiliza la analogía y el método
inductivo. La HP debe estar de acuerdo con lo que se pretende explicar (atingencia) y no
se debe contraponer a otras HP generales ya aceptadas.
La HP debe tener matices predictivos, si es posible. Cuanto más simple sea, mas
fácilmente demostrable (las HP complejas, generalmente son reformulables a dos o más
HP simples). La HP debe poder ser comprobable experimentalmente por otros
investigadores, o sea ser reproducible. Experimentación: la hipótesis debe ser
comprobada en estudios controlados, con autentica veracidad.
Hipótesis en Investigación: Hipótesis significa literalmente "lo que se supone". Está compuesta por enunciados
teóricos probables, referentes a variables o relaciones entre ellas. En el campo de la
investigación, la hipótesis, supone soluciones probables al problema de estudio. El
proceso estadístico se basa en la comprobación de hipótesis (HP).
Existen dos tipos de HP, a saber: HP. Alterna o Científica: es la HP que pretende comprobar el investigador en su muestra
de pacientes. Básicamente significa que la media de una característica o propiedad de un
grupo es diferente a la media del otro grupo o grupos, o que la distribución y frecuencia de
un evento en un grupo es diferente del otro. H1 : grupo 1 grupo 2 HP. Nula: es lo contrario
de la anterior, o sea que no existen diferencias entre dos o más grupos o muestras. H0 :
grupo 1 = grupo 2. El valor de p es entonces la medida de la evidencia contra la
H0.Cuanto menor sea el valor de p, menor será la posibilidad de que la HP. Nula sea
cierta, por lo cual se rechazará, aceptando a la HP. Científica como verdadera.
Método Deductivo:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 100
El ejemplo clásico de la deducción es el silogismo. Podríamos, pues definir "deducción"
(válida, se entiende) como un razonamiento tal que, a partir de proposiciones verdaderas,
garantiza la verdad de su conclusión. La verdad de la conclusión se obtiene bajo dos
condiciones: la verdad de las premisas y la validez de la inferencia.
Método Inductivo: El razonamiento inductivo, pues, ya que de él se trata, conduce a una conclusión más o
menos probable, pero no otorga garantía completa acerca de la verdad de ésta. Esto de la
falta de garantía hace que una inducción ( a diferencia de la deducción válida) pueda llevar
de premisas verdaderas a una conclusión falsa. El razonamiento inductivo se halla
siempre sujeto a refutación por la aparición de un nuevo dato. Hay quienes llaman
inducción al proceso psicológico de quien arriesga una hipótesis que sirve para subsumir
datos particulares en una ley general.
2.7.3. EL INDUCTIVISMO: LA CIENCIA COMO CONOCIMIENTO DERIVADO DE LOS HECHOS DE LA EXPERIENCIA Para el INDUCTIVISMO INGENUO, la ciencia se inicia con la OBSERVACIÓN. Para ello
se requiere que el observador científico tenga los órganos de los sentidos en condiciones
normales y esté libre de prejuicios. A los enunciados a los que se llega mediante la
observación se los conoce bajo la denominación de enunciados observacionales, de los
cuales se derivarán, mediante la generalización, teorías y leyes que constituirán el
conocimiento científico.
Podemos distinguir entre dos tipos de enunciados observacionales: (a) los singulares,
derivados de la observación de un determinado fenómeno, en un determinado momento y
lugar y (b) los generales, que hacen referencia a todos los acontecimientos de un
determinado tipo en todos los lugares y en todos los tiempos. Las leyes y teorías que
forman el conocimiento científico son enunciados de este tipo, que se llaman universales.
Las condiciones que deben cumplir los enunciados observacionales singulares para
establecer generalizaciones universales son tres y son las siguientes:
a) Que el número de enunciados observacionales sea grande, vale decir, no es
lícito establecer una generalización a partir de una sola observación. Se trata
de una condición necesaria.
b) Que las observaciones se repitan en una amplia variedad de condiciones.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 101
c) Que ningún enunciado observacional aceptado contradiga la ley universal
derivada. Ésta es una condición esencial. El tipo de razonamiento que nos
permite ir de los enunciados singulares a los universales, es decir, de la
parte al todo, se llama RAZONAMIENTO INDUCTIVO, y el proceso,
INDUCCIÓN.
2.7.4. EL PROBLEMA DE LA INDUCCIÓN La validez y la justificabilidad del principio de inducción pueden ponerse en duda. En
relación a la validez, se sostiene que las argumentaciones lógicas válidas se caracterizan
por el hecho que si la premisa es verdadera, la conclusión debe ser verdadera. Esto es lo
propio en las argumentaciones deductivas. Pero las argumentaciones inductivas no son
argumentaciones lógicamente válidas. Podría darse el caso de conclusiones falsas con
premisas verdaderas, sin que esto constituya una contradicción. Ejemplo: se observó en
repetidas ocasiones y en variadas circunstancias cuervos negros. Pero no hay garantías
lógicas que el próximo cuervo que se observe no sea rosa. Si así sucediera, la conclusión
"todos los cuervos son negros" sería falsa. Respecto a la justificabilidad, los inductivistas
emplean la inducción para justificar la inducción –lo que constituye una definición circular y
el denominado "problema de la inducción"-. La inducción no se puede justificar sobre
bases estrictamente lógicas.
Si bien la inducción funciona en algunas ocasiones, por ejemplo, en las leyes de la óptica
y del movimiento planetario, presenta algunas desventajas:
a)Determinar cuánto es "un número de enunciados observacionales grande".
b)Determinar cuánto es "una amplia variedad de circunstancias".
Un modo de atenuar la postura del inductivismo ingenuo consiste en recurrir a la
probabilidad: ya no se afirma que las generalizaciones a las que se han arribado mediante
la inducción sean perfectamente verdaderas, sino probablemente verdaderas. Esta
concepción sin embargo, mantiene las desventajas ya mencionadas. La Observación
Depende De La Teoría Se criticará el estatus y el papel que desempeña la propia
observación. El inductivismo ingenuo tiene dos supuestos en relación a la observación,
ambos falsos: La ciencia comienza con la observación. La observación da una base
segura para derivar el conocimiento.
Se sabe que dos personas que observen el mismo objeto desde el mismo lugar y en las
mismas circunstancias no tienen necesariamente idénticas experiencias visuales aunque
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 102
las imágenes que se produzcan en sus retinas sean prácticamente idénticas. Lo que un
observador ve depende en parte de su cultura (su experiencia, sus expectativas, sus
conocimientos) y su estado general. Se suma a esto el hecho de que las teorías preceden
a los enunciados observacionales, es decir, los enunciados observacionales se hacen en
el lenguaje de alguna teoría. Por lo tanto, es falso que la ciencia comienza con la
observación.
Los enunciados observacionales son tan falibles como las teorías que presuponen y por lo
tanto el hecho de ser base completamente segura sobre la cual edificar leyes y teorías
científicas es erróneo. Para establecer la validez de un enunciado observacional es
necesario apelar a la teoría; las observaciones siempre se realizan a la luz de alguna
teoría.
Esta postura es contraria a la que sostienen los inductivistas, que ven en la observación la
fuente del conocimiento. Los inductivistas más modernos establecen una diferencia entre
el modo de descubrimiento de una teoría y su modo de justificación. Admiten que las
teorías se pueden concebir de distintas maneras, por ejemplo, tras un momento de
inspiración, accidentalmente o tras períodos de observaciones. Se sabe que usualmente
las teorías son concebidas antes de hacerse las observaciones que las comprueban. Para
los acérrimos defensores del inductivismo, las teorías sólo tienen sentido si se pueden
verificar mediante la observación. Pero no se puede mantener esta división tajante entre
teoría y observación ya que esta última está influida por la teoría.
Los paradigmas de Khun sostiene, básicamente, que no en todo momento se puede
hablar de progreso de la ciencia, ya que en ocasiones esta palabra carece de significado
discernible. En las ciencias, dice, se producen revoluciones, caracterizadas por el cambio
del paradigma.
Los paradigmas cumplen una función positiva y otra negativa. La positiva consiste en
determinar las direcciones en las que ha de desarrollarse la ciencia normal, por medio de
la propuesta de enigmas a resolver dentro del contexto de las teorías aceptadas. La
función negativa del paradigma es la de establecer los límites de lo que ha de
considerarse ciencia durante el tiempo de su predominio. Khun sostiene que cada
paradigma delimita el campo de los problemas que pueden plantearse, con tal fuerza que
aquellos que caen fuera del campo de aplicación del paradigma ni siquiera se advierten.
Los paradigmas cambian de un modo semejante ( aunque en gran escala) al de las
hipótesis científicas. En los periodos de ciencia normal aparecen anomalías que las
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 103
teorías integrantes del paradigma no consiguen explicar. Durante un tiempo tales
anomalías no se observan, o no se les presta atención; después se busca su solución
mediante nuevas teorías que puedan insertarse en el paradigma vigente y, por último, ante
el fracaso de ese intento, se proponen nuevos paradigmas.
Lo que caracteriza a la teoría de Khun es la afirmación de que los paradigmas no son
conmensurables; es decir que las teorías que se inscriben en un paradigma no pueden
traducirse en términos de las teorías que forman el paradigma posterior: cada revolución
científica es un cambio total de la percepción del mundo.
En defecto, el único progreso científico consiste, para Khun, en el trabajo que cumple la
ciencia normal para responder a las preguntas que genera su propio paradigma: pero la
palabra "progreso" es inútil para describir los cambios del paradigma, ya que éstos son
incomparables entre sí. Por otra parte el método científico sólo tiene cabida dentro de
cada período de ciencia normal, ya que las revoluciones científicas no ocurren
metódicamente.
2.7.5. LOS PARADIGMAS DE KHUN Un rasgo característico de su concepción es la importancia dada al carácter revolucionario
del progreso científico, donde una revolución implica el abandono de una estructura
teórica y su reemplazo por otra, incompatible con la anterior. Lakatos y Kuhn tienen puntos
en común: ambas concepciones filosóficas deben resistir a las críticas basadas en la
historia de la ciencia. Se debe tener en cuenta que la concepción kuhniana es anterior a la
lakatosiana. Por otra parte, la postura kuhniana se diferencia de la lakatosiana en el
hincapié que hace el primero en los factores sociológicos. Thomas Kuhn expresa su idea
acerca del progreso de la ciencia por medio del siguiente esquema abierto: {Presencia –
Ciencia Normal – Crisis – Revolución – Nueva Ciencia Normal – Nueva Crisis}
Introduce la noción de Paradigma, el cual está constituido por supuestos teóricos, leyes y
técnicas de aplicación que deberán adoptar los científicos que se mueven dentro de una
determinada comunidad científica. Los que trabajan dentro de un paradigma, ponen en
práctica la ciencia normal. Es probable que al trabajar en ella, que desarrollará el
paradigma en su intento por explicar el comportamiento de aspectos del mundo, resulten
dificultades (por ejemplo, se encuentren con aparentes falsaciones).
Si estas dificultades se hacen inmanejables, se desarrollará un estado de crisis. Ésta se
resolverá con el surgimiento de un paradigma totalmente nuevo, el cual cobrará cada vez
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 104
mayor adhesión por parte de la comunidad científica, hasta que finalmente se abandone el
paradigma original. Este cambio discontinuo entre paradigmas constituye una revolución
científica. El nuevo paradigma enmarcará la nueva actividad científica normal, hasta que
choque con dificultades y se produzca una nueva crisis y una nueva revolución. Una CIENCIA MADURA se rige por un solo paradigma, quien establece las normas que
dan legitimidad al trabajo que se realiza dentro de la ciencia que rige, incluyendo la
resolución de problemas que se presentan. Para Kuhn, será justamente la existencia de
un paradigma que pueda apoyar una tradición de ciencia normal lo que establecerá la
diferencia entre lo que es CIENCIA y lo que no lo es. Carecer de paradigma implica no
poseer el estatus de ciencia.
Los paradigmas están compuestos por: leyes explícitamente establecidas, supuestos
teóricos, maneras normales de aplicación de las leyes, instrumental y técnicas
instrumentales, prescripciones metodológicas muy generales y como componente
adicional, algunos principios metafísicos muy generales.
La CIENCIA NORMAL es descripta por Kuhn como una actividad de resolver problemas
gobernada por las reglas del paradigma en cuestión. El paradigma deberá proveer los
medios para solucionar los problemas que en él se formulan. Aquellos problemas que no
puedan ser solucionados, serán entendidos como anomalías y como fracasos del
científico, más que como falsaciones e insuficiencias del paradigma. Kuhn reconoce que
todos los paradigmas contienen algunas anomalías y sostiene además que un científico
normal no debe criticar el paradigma en el cual se encuentra trabajando.
Lo que diferencia a la CIENCIA NORMAL, madura, de la PRECIENCIA, inmadura, es la
falta de acuerdo en lo fundamental. La Presencia se caracteriza por el total desacuerdo y
el constante debate de lo fundamental, llegándose a establecer casi tantas teorías como
teóricos haya trabajando.
La existencia de problemas sin resolver dentro de un paradigma no constituye en sí una
crisis. Se sabe que en los paradigmas siempre habrá anomalías. Las anomalías pueden
desarrollarse de modo tal que le resten confianza, es decir, que afecte los fundamentos
del paradigma. En esta situación estamos ante una crisis. La misma comienza a
manifestarse con un período de "inseguridad profesional marcada": se intentará defender
los nuevos argumentos y el descontento respecto al paradigma en el cual se está
trabajando aparecerá.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 105
La crisis se agravará si aparece en escena un paradigma rival. El nuevo paradigma será
distinto e incompatible con su predecesor; constituyen ópticas diferentes del mundo y será
adoptado no por un solo científico en particular sino por la comunidad científica en su
totalidad.
Para Kuhn, su concepción acerca de la ciencia es una teoría y no una descripción en la
medida que explicita las funciones que tienen sus componentes. Reconoce que las
funciones de LA CIENCIA NORMAL Y LAS REVOLUCIONES son necesarias: mientras se
está en período de Ciencia Normal, se pueden desarrollar los detalles de las teorías,
resolver problemas y realizar trabajos teóricos y experimentales. Se requiere que, en cierta
medida, la ciencia normal sea acrítica; de lo contrario, se estaría permanentemente
discutiendo la licitud de los supuestos y métodos y no se llegaría a realizar trabajos
detallados.
Las Revoluciones son la oportunidad de pasar de un paradigma a otro mejor. Si se
desarrolla una crisis, el pasaje de un paradigma a otro se hace necesario, y este paso es
esencial para el progreso de la ciencia. Si no hubiera "revoluciones", la ciencia quedaría
atrapada en un solo paradigma y no se avanzaría más allá de él, lo que constituiría para
Kuhn un grave defecto.
El progreso de la ciencia de Khun: A continuación reseñaremos en forma de tesis las
características que Khun atribuye al progreso de las ciencias. La ciencia normal es
acumulativa. La actividad científica normal, regida por un "paradigma" , consiste
fundamentalmente en ampliar el conocimiento de los hechos que el paradigma delimita
como relevantes, en extender la adecuación entre las predicciones del paradigma y los
hechos y en articular cada vez mejor el propio paradigma.
El desarrollo de una ciencia consiste en una sucesión de períodos de tradición
eslabonados por rupturas no acumulativas. El progreso a través de las revoluciones sólo
se da si, ante la competencia de al menos dos paradigmas, uno de ellos obtiene la
aceptación de la comunidad científica. El progreso es nota exclusiva de la ciencia madura.
El desarrollo de la ciencia es distinto al de otros campos y sólo tiene lugar cuando la
ciencia alcanza la "madurez", a la cual se arriba cuando emergen de la teoría técnicas
predictivas exitosas y cada vez mejores.
El progreso a través de las revoluciones tiende a enmascararse como acumulativo. El
progreso no es continuo. Ya hemos dicho que las revoluciones constituyen auténticos
hiatos o discontinuidades en el desarrollo de las ciencias.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 106
No es acercamiento a la verdad. El progreso no es una evolución hacia un objetivo
determinado sino, a lo sumo, un mejoramiento desde el conocimiento disponible; lo más
que puede afirmarse es que cada paradigma nuevo es un instrumento mejor para resolver
enigmas.
Fuente Extraída de la pagina www.lafacu.com y del libro Introducción al Conocimiento
Científico ( Eudeba ).
Trabajo enviado por:
Eduardo Daniel Arce [email protected]
http://www.monografias.com/trabajos7/parad/parad.shtml
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 107
2.8. RECURSOS PARA LA INVESTIGACIÓN SISTÉMICO/CONSTRUCTIVISTA
Marcelo Arnold Cathalifaud
2.8.1. INTRODUCCIÓN No se pueden ignorar por más tiempo las renovaciones epistemológicas que sacuden las
ciencias humanas y sociales (2). Redefinir nuestro quehacer en tanto observadores de
sistemas complejos, y no triviales, que observan y operan en realidades que ellos mismos
construyen, es el principal desafío para la investigación social contemporánea.
Toda observación � cotidiana y científica � representa, por parte de su observador,
aplicaciones de esquemas de diferencias que le permiten identificar / describir una
realidad. Tal información le vale como horizonte para nuevas acciones y experiencias, es
decir, tiene un valor informativo.
Cuando la aplicación de la observación es reiterada genera la ilusión de la estabilidad;
cuando ésta modifica sus formas construye una nueva realidad. Las distinciones que se
aplican en la observación están abiertas a la observación externa, en tanto puedan ser
realizadas en el lenguaje.
En lo que sigue puntualizaremos algunos avances en el campo de una metodología,
orientada por los principios epistemológicos constructivistas, que se hacen cargo de estos
desafíos y que corresponden a la denominada observación de segundo orden.
2.8.2. LA OBSERVACIÓN DE SEGUNDO ORDEN Un observador de segundo orden es un tipo de observador externo, orientado a la
observación de observadores y sus respectivas observaciones. Desde su posición no sólo
puede observar lo que sus observados indican y describen �el qué observan� , sino
también, captar los esquemas de diferencias con que marcan tales observaciones y trazan
sus distinciones �el cómo observan.
Su perspectiva es privilegiada: un observador no puede observar por sí mismo, en su
perspectiva interna y sin ayuda, sus propios esquemas de distinción, es decir, precisar
cómo él ve lo que ve, cuando está viendo (3). Esto obliga al investigador a observar
diferencias con esquemas de diferencias propios y desarrollar la capacidad para distinguir
entre ambos (4).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 108
Por otra parte, el observador de segundo orden, al observar conjuntos de descripciones
puede combinar puntos de vista y con ello relevar lo que sus observados, desde sus
parcialidades, no pueden ver, es decir, identificar estructuras latentes.
Estas últimas son ciegas para sus usuarios, así la latencia refiere a las posibilidades de
observar y describir lo que otro(s) observador(es) no puede(n) observar ni describir, aun lo
que es provocado por su propia concurrencia. Es decir, el efecto constituyente de realidad
que resulta de la aplicación de sus propios esquemas de diferencia.
Desde la siguiente figura se puede apreciar mejor la posición que adscribimos al
observador de segundo orden:
Imagen 7: Ejemplo de observación
Como se aprecia, el objetivo de la nueva ciencia consiste en pasar de una investigación
tradicional, orientada a "objetos", a la de observar observadores que en su operar
construyen los mundos en los cuales se desenvuelven. Para ello debemos penetrar en la
retícula y formas donde se seleccionan observaciones con valor informativo.
Se debe poner atención que estas ideas proyectan en una redefinición del quehacer de la
investigación social, en cuanto sistema de observación de sistemas observadores (von
Foerster 1990). Trastocando no sólo el tipo esperado de investigación científica, sino,
también, las formas deseables de explicación, es decir, la gramática que se imprime para
la lectura de conjuntos de distinciones (Bateson 1993).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 109
En este punto, los enfoques sistémico/constructivistas se entroncan con los ideacionales
acerca de la cultura. En efecto, esas perspectivas convergen en una teoría de la
observación, en tanto su atención está por el lado de los sistemas observadores y sus
recursos. Es decir, las normas con arreglo a las cuales se observa (se distinguen),
organiza (construye la diferencia), valora (prioriza) y da sentido al ambiente cotidiano. En
otras palabras, representaciones que nos remiten a los modos de entendimiento y de
comunicación, mediante los cuales se construye la realidad del mundo vivido
cotidianamente �Lebenswelt.
2.8.3. EL DOMINIO DE INVESTIGACIÓN SISTÉMICO/CONSTRUCTIVISTA Bajo tal marco podemos apoyarnos en perspectivas teóricas, métodos y técnicas
orientadas a la investigación de las categorías, significados y ordenes simbólicos
constituyentes de lo que denominamos realidad. Entre ellas, las que mejor empalman con
la observación de segundo orden son las de tipo semiótico y cognoscitivo (5). Estas
postulan que los sistemas observadores �humanos y sociales � están suspendidos en
redes de significaciones, coparticipativamente producidas y externalizadas a través del
lenguaje, que constituyen sus horizontes de realidad (6).
Desde esta posición se experimenta la cultura como continente de comunicaciones
recursivas, basadas en la aplicación de esquemas de distinción. Se acceden las
distinciones en tanto éstas pueden ser observadas externamente, estabilizadas y
organizadas por el lenguaje en entidades tales como palabras y frases. A través de ellas
podemos rescatar los esquemas de diferencias que determinan las concepciones
�construcciones de realidad.
Como se puede apreciar, la constancia de los "objetos" es sustituida, en el nuevo
paradigma, por la de los medios de observación. En el fondo, la investigación
sistémica/constructivista persigue recrear, planificadamente, los mismos procesos que
acontecen cuando son socializadas las nuevas generaciones, durante la integración de
inmigrantes o mientras quienes ingresan, por primera vez, a una organización son
sometidos al proceso de inducción. En todos estos casos se aprende a distinguir
"correctamente" �calibrar observaciones.
En el plano investigativo dimensiones del ver y leer cotidiano, que responden a
interrogantes del tipo ¿cómo se observan y organizan los entornos desde sistemas
observadores? (etnocogniciones), ¿cuáles son los conocimientos del ambiente que sirven
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 110
de base a la objetividad cotidiana? (etnoconocimientos), resultan ser de suma relevancia
(Arnold 1991).
2.8.4. ORIENTACIONES PARA LAS NUEVAS METODOLOGÍAS Dentro de las actuales prioridades está, justamente, la de enfilar técnicas e instrumentos,
en coherencia con las nuevas orientaciones que oponemos a las tradicionales en el
siguiente cuadro:
Tabla 2: Características de las Macroorientaciones Metodológicas
Tradicional Sistémica/Constructivista
Elemental (analítica) Complejidad (holismo)
Lineal (causal) Retroacciones (redes)
Legal (trivializante) Contingente (abierta a la novedad)
Distributiva/Algorítmica Distintiva/Cualitativa
Muestras Estadísticas Muestras Estructurales
Estímulo-Respuesta Interpretativa De las indicaciones presentadas arriba, pueden ser destacados los siguientes aspectos
para ser tomados en cuenta por los investigadores:
a) Una investigación debe dirigirse hacia la identificación de conjuntos relacionados de
distinciones y no sólo a la reducción analítica y causal de componentes y procesos
aislados. Con enfoques no aditivos, los registros se ajustan al ritmo de los observados
respetando sus propias configuraciones. Subyace a esta opción el principio que el todo
emergente es diferente a sus partes (sinergia).
b) Las mejores explicaciones para fenómenos complejos se alcanzan observando
atentamente procesos dinámicos en mutua afectación, es decir, redes de
retroalimentaciones de observaciones que se sostienen unas a otras. El principio aquí es
la flexibilidad y, a la vez, sostener la externalidad de la observación.
c) La investigación debe ser aplicable a esquemas contingentes, complejos, múltiples,
variados y heterogéneos que cubren gran parte de la emergencia de expresiones sociales,
culturales y personales. No se trata de comprobar nada por la vía del congelamiento de
realidades efímeras.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 111
d) Si bien algunas técnicas estadísticas como el cluster analysis y las estimaciones no-
lineales apuntan a redes de relaciones, éstas sólo resultan adecuadas para procesos
triviales. Por ello los procedimientos aplicados a sistemas complejos y que se dirigen a la
determinación de rasgos distintivos y relevamientos de organicidades, siguen siendo
básicamente cualitativos.
e) Interesa recoger la franja ancha de distinciones hasta alcanzar sus márgenes. En
consecuencia, ningún observador puede ignorarse aduciendo su baja presencia. El
muestreo, con el cual seleccionamos a nuestros interlocutores, debe ser estructural. Para
ello se deben identificar los distintos ángulos/voceros de la comunicación y buscar su
representación.
f) La identificación de rasgos distintivos proyecta la investigación hacia las elaboraciones
de sentido y sus interpretaciones. Estos problemas difícilmente pueden abordarse bajo el
marco, temporalmente limitado, en que opera la lógica cuantitativa de
alternativas/respuestas.
Sobre esta esquematización, que traza diferencias entre una u otra estrategia, se
despliega el ambiente donde se mueve gran parte de las opciones metodológicas que
caen bajo el rótulo de observación de segundo orden. Sus instrumentarios privilegian el
reconocimiento, desde el punto de vista de sus miembros, de sus distinciones
significativas, validadas por ellos mismos, que permiten describir �registrar/inscribir� una
cultura a partir de las categorías descriptivas de sus descriptores.
La explicabilidad, operación secundaria, puede ser abordada con idéntica estrategia,
creando ambientes para devolver las múltiples descripciones �los diversos puntos de
vista� , para que los observados reintroduzcan, ante nosotros, sus distinciones y elaboren
explicaciones �interpretaciones� sobre ellas. Estas pueden estar en calidad de material
elaborado en temas que agrupen ámbitos importantes de sus temas comunicativos y que
pueden, o no, estar dentro de su autoconciencia.
Se aprecia, por tanto, que la objetividad que nos interesa, en principio, es la que
coproducen y sostienen nuestros observados (7). En este campo, la validez está sujeta a
un contexto que la define como tal �no es ontológica y sí contingente.
2.8.5. METODOLOGÍAS APROPIADAS Tales complejidades obligan a restablecer un diálogo con las metodologías disponibles; de
ellas se requiere apoyos con procedimientos que pongan acento en la identificación y
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 112
descripción de operatorias mediante las cuales las comunidades humanas (8) absorben,
organizan y describen sus experiencias. Se trata de reconvertir tecnologías de
investigación positivistas, redirigiéndolas a la aprehensión del sentido y descripción de las
categorías donde se incuban las posibilidades de observación de nuestros grupos de
interés y las formas que dan cuenta de ellas. De esta manera lo esencial concierne a la
determinación de los medios mediante los cuales se distinguen "cosas" y "eventos", tal
como se realizan desde los sistemas observados. Por lo tanto la principal interrogante a
plantear es: ¿qué operaciones de distinción son necesarias para observar lo que nuestros observad os indican y describen?
Parte de esta tarea puede realizarse con procedimientos característicos del trabajo de
campo antropológico (vid. Junker, B. 1972; Tylor, S.J. et al. 1990) y de la sociología
cualitativa. De ellos podemos mencionar algunas técnicas, ya consagradas:
Tabla 3: Técnicas y procedimientos de investigación
Técnicas Procedimientos
Observación participante
Prescribe una inclusión consciente y planificada, hasta donde lo permiten las circunstancias, en la cotidianeidad de los grupos en estudio (Bruyn, S.1972)
Documentos personales
Exponen la cultura desde el punto de vista de sus intérpretes (Langness, L. 1965)
Historias orales Externalizaciones de la memoria colectiva de sistemas sociales locales (Samuel, R.1982)
Entrevistas etnográficas o en profundidad
Bajo el marco de eventos comunicativos controlados, pero no directivos, se aprehenden, desde interlocutores individuales, los sistemas culturales en sus propios términos (Spradley, J.P.1979)
Grupos focales; de autodiagnóstico y de discusión
La "información" se provoca en espacios abiertos de conversaciones asistidas (Morgan, D.L. 1988; Ibáñez, J.1991; Burgess, R.1982)
Método Delphi Fórmulas que reintroducen sistemáticamente comunicaciones develando una red de distinciones (Linstone, A. et al. 1975)
Con tales instrumentos, u otros equivalentes, se pueden relevar etnografías que permiten
acceder a los esquemas de distinción y compenetrarnos en las mallas (selectividad) de
observación que nos interesan. Ellos dan la posibilidad de interceptar comunicaciones y
adentrarnos en los fundamentos de una cultura. De cualquier modo, su utilización exige
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 113
una concentración prolongada de los investigadores y someter, permanentemente, sus
identificaciones a miradas desde distintos ángulos y perspectivas (9).
Los instrumentos de investigación deben ser contribuyentes para observaciones que
apuntan a desentrañar las formas del ver y del leer cotidiano �en vistas a las operaciones
en que basan sus observaciones. Su aplicación debe permitirnos generar ambientes
donde los medios de observación puedan ser rescatados en juegos comunicativos. Estos
van desde la conversación asistida (tipo entrevista terapéutica) hasta el grupo de discusión
(en el sentido de J.Ibáñez), donde las premisas del investigador quedan suspendidas en la
contingencia y toda comunicación es posible. En este punto es importante volver a retomar
las exigencias de la observación externa: el investigador debe intentar, en lo posible, estar
frente a sus interlocutores como si no estuviera presente (el hablar vago es uno de sus
recursos).
Es pertinente destacar que los esquemas de distinción que interesan en la investigación
social sistémica son los compartidos: encajes o acoplamientos (10) que se implican en
procesos sociales cotidianos. Un problema consiguiente consiste en cómo poder describir
lo social a partir de superar su interlocución individual.
El individualismo, que siempre tiene gran atracción para la investigación social, es
reforzado por baterías de instrumentos destinados para interpelar individuos
(cuestionarios, test, entrevistas, etc.), pero no resulta ser lo más adecuado. Las
comunicaciones de los sistemas sociales se representan a través de sistemas personales,
pero debe tenerse en cuenta que se trata de sistemas distintos. Los individuos, muchas
veces, colocan sus observaciones en contradicción con las de su grupo, comunidad o
sociedad originando tensiones que llegan a cambiar la misma cultura. El proceso contrario
es suficientemente conocido.
Por ello, si se toman individuos como centros de observación, no es para rescatar sus
perspectivas idiosincrásicas, sino como usuarios de los medios observacionales e
interpretativos disponibles en el repertorio de sus comunidades. Debido a ello cuando se
trata de muestras, en la observación de segundo orden son decididamente intencionadas,
respondiendo a criterios socioestructurales delimitados por el investigador.
Actualmente una de las mayores debilidades de la estrategia investigativa
sistémica/constructivista se encuentra en sus posibilidades para procesar la información
compilada. En este punto, existen grietas de implicancias muy severas. Las alternativas
disponibles son abiertamente insatisfactorias. La reducción analítica y cuantitativa se
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 114
deben desechar por la incierta síntesis que resulta de su aplicación; y la representación
testimonial, que en su afán de ser lo más fiel posible a las fuentes se reduce a la mera
transcripción de comunicaciones orales al papel, no es científicamente admisible, más allá
de material en "bruto".
Un abordaje a este problema parte por precisar requisitos que deberían contar las técnicas
sistémicas de procesamiento de información. Sobre estas no hay acuerdos pero, al
menos, se podría decir que en lo fundamental deben trabajar selectividades reversibles y
ordenamientos múltiples. En definitiva, cautelando la apertura para otras posibilidades de
reprocesamientos.
Algunos procedimientos, en tal sentido, pueden ser recomendados:
• Construcción de modelos que expresen relaciones a través de grafos, diagramas de
flujos y modelos como los que se aplican en el diseño de sistemas inteligentes.
• Procedimientos inductivos para el desarrollo de modelos (etno) teóricos (vid.
Glasser, B y A. Strauss, 1967).
• Reducciones tipológicas cualitativas (vid. McKinney, J.1972) y,
• la construcción de sistemas categoriales a partir del análisis de contenidos
comunicacionales (vid. Krippendorff, K.1990). Con respecto a éstos últimos, pueden
ser considerados desde el análisis de discursos (Ibáñez, J. op.cit.) hasta el análisis
componencial.
Por cierto, todo lo anterior debe ser complementado con indicaciones acerca de los
aspectos a considerar como criterios de validación. Sobre este tema nos extenderemos en
adelante.
2.8.6. CRITERIOS DE VALIDEZ PARA LA INVESTIGACIÓN DE SEGUNDO ORDEN La observación de segundo orden conlleva su propia selectividad. La pertinencia de sus
observaciones sólo parcialmente puede ser evaluada por su concordancia con la de los
observados �"las cosas son concebidas así por ustedes". Una interpretación científica
también es una construcción. Para el caso de las ciencias sociales, es una pauta
configurada, una explicación, un orden de experiencias ajenas hechas propias.
Las explicaciones sustentadas en las observaciones de segundo orden, científicamente
encauzadas, se valoran por su conectividad con explicaciones relacionadas en un orden
superior (teorías, hipótesis, etc.). Es allí donde se produce el despegue y Minerva hace su
aparición. Al dejar de ser la verdad un argumento de explicabilidad, dado que ésta es
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 115
contextual, y al no poder afirmarse algo, en la exterioridad de la naturaleza, como punto de
confrontación para aceptar o rechazar una explicación científica, es imperativo reelaborar
los criterios para la validación de los resultados de una investigación guiada bajo los
principios del segundo orden. Estas deben ser coherentes con la naturaleza descrita para
toda observación.
Maturana (1995), que ha avanzado mucho en el campo de la construcción de los criterios
de validación en la investigación constructivista, concluye que sólo se aceptan como
explicaciones científicas válidas aquellas que resultan de la aplicación de los criterios de
validez generados por las comunidades científicas (11).
Para finalizar, no podemos dejar de mencionar otro tipo de condicionante que interesa de
sobremanera al investigador social que trabaja en esta línea.
La observación/descripción científicamente pertinente tiene tres lecturas, cada una de las
cuales imponen sus condiciones:
1. Los sistemas sociales de la cual proviene (las comunidades observadas),
2. los que la requieren como input (nuestros patrocinadores [12]) y,
3. el sistema ciencia a la cual definitivamente pertenecen.
En el primer caso la confiabilidad se encuentra en el autorreconocimiento del sistema
observado en la descripción; para el segundo en estudios que proporcionan información
para mantener la performatividad de algún sistema �evaluaciones, diagnósticos, por
ejemplo� y para la ciencia en la transparencia del cumplimiento del canon científico
vigente lo cual puede implicar, incluso, apelaciones causales, es decir, condiciones
especificadas de criterios de explicabilidad.
En esta presentación nos hemos centrado en la comunicabilidad científica de la
investigación sistémico/constructivista, intentando asegurar que la renovación tenga el
rigor suficiente para su aceptabilidad en nuestras comunidades, pero nuestros propósitos
incluyen traspasar ese ambiente y orientarnos hacia los otros destinatarios, que sin duda
esperan del conocimiento contribuciones que apoyen la optimización de sus actuales
condiciones de operación. En ese último camino, sin duda, encontramos avances
paralelos, por ejemplo en las líneas de la llamada investigación-acción, evaluación
iluminativa, estudios cualitativos de opinión pública, estrategias derivadas del
etnodesarrollo, educación popular, comunicación alternativa y la planificación estratégica
organizacional. En todos estos casos la perspectiva autorreferencial, de la que hemos
hablado, se aplica sin más, incluso sin tener que ser reconocida como tal. Otra prueba de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 116
la potencia y "naturalidad" práctica de la anunciada renovación a la que nos hemos
referido aquí.
Finalmente, con respecto a nuestras interrogantes iniciales podemos indicar que es
posible reelaborar algunos de nuestros métodos de investigación tradicionales para
enfilarlos en las nuevas rutas, aunque aún hay mucho camino por recorrer.
2.8.7. ANEXOS, PASOS Y PROCEDIMIENTOS DE INVESTIGACIÓN TEMA. Selección del espacio de comunicación de interés o TEMA (la selección puede ser
motivada externa o internamente al equipo investigador; puede incluir un gran tema o
varios temas). En esta etapa se delimitan las cotas comunicativas del estudio.
EQUIPO. Organización de los observadores. Se debe garantizar las bases mínimas que
aseguran la presencia de una pluralidad de miradas y perspectivas. En este punto se
definen las cotas estructurales del grupo observador.
UNIVERSO. Selección y caracterización del ámbito social en donde se deben/pueden
explorar los TEMAS (esto incluye consideraciones etarias, de estratificación social,
educacionales, residenciales, de género, etc.). En esta etapa se delimitan las cotas
sociales del estudio (13).
MUESTRA. Muestreo estructural e intencional para seleccionar los interpelados o
informantes claves (esto implica estimaciones acerca su distribución y pesos específicos).
En esta etapa se delimitan las cotas de las aportaciones temáticas que se incluirán en el
estudio.
PROCEDIMIENTOS. Selección de las técnicas, delineamiento de las líneas de indagación
con las cuales se estimulará la comunicación y aplicación de los procedimientos (es
recomendable una prueba antes de extender el estudio). En esta fase quedan definidos
los filtros comunicativos del estudio.
ANÁLISIS. Parte del registro íntegro de las comunicaciones, digitación para darles formato
de texto y selección del tipo de Análisis del Contenido (de una u otra manera ello implica la
desagregación de los discursos individuales y/o grupales) y su reagrupación en sub-
temas.
PROCESAMIENTO. Reorganización de los sub-temas en función del reconocimiento de
las distinciones detectadas (puede ayudarse con preguntas como las siguientes: ¿qué
distinciones sostienen los TEMAS tratados?; ¿qué distinciones sostienen las
APORTACIONES?; ¿mediante qué criterios se han seleccionado las informaciones?, etc.).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 117
PRESENTACIÓN. Reorganización de las distinciones identificadas bajo la forma de un
esquema del tipo diagrama de flujos y reconocer las relaciones que se evidencian �
cautelando su reversibilidad� (esta fase es crítica, pero muy creativa).
RETROINFORMACIÓN 1. Presentación del modelo representacional con sus respectivos
esquemas de distinción a representantes del ámbito social explorado (pueden realizarse
triangulaciones con otros expertos). Reformulación y establecimiento de hipótesis
explicativas (retroinformación: volver a 7).
COMUNICABILIDAD. La presentación definitiva debe considerar los intereses del
destinatario final.
2.8.8. REFERENCIAS
1. Arnold, M. y D.Rodríguez."Crisis y cambios en la ciencia social contemporánea". En
Revista Estudios Sociales, No 65, 1990, pp. 9-29.
2. Arnold, M. "Antropología Social aplicada en organizaciones económicas y
participacionales". En Revista Chilena de Antropología, No 10, 1991, pp. 81-95.
3. Bateson, G. Pasos hacia una ecología de la mente. Ed. Carlos Lohé, Buenos Aires,
1985.
4. Bateson, G. Espíritu y Naturaleza. Amorrortu Editores, Buenos Aires, 1993.
5. Blumer, H. Symbolic Interactionism: perspective and method. New York, 1969.
6. Burgess,R. "The Unstructured Interview as a Conversation". En Field Research: A
Sourcebook and Field Manual. Edited by Robert G. Burgess, George Allen & Unwin,
London, 1982, pp. 107-110.
7. Glaser, B.G. y A.L. Strauss. The Discovery of Grounded Theory. Chicago, Aldine
Publisching Company. 1967.
8. Ibáñez, J. El regreso del sujeto. La investigación social de segundo orden.
Amerinda, Santiago, 1991.
9. Junker,B. Introducción a las ciencias sociales. El trabajo de campo. Ediciones
Marymar, Buenos Aires, 1972.
10. Krippendorff, K. Metodología de análisis de contenido. Teoría y Práctica. Ediciones
Paidós, Barcelona, 1990.
11. Langness, L.L. The Life History in Anthropological Science. Rinehart & Winston
(ed.), New York, 1965.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 118
12. Linstone, A. y M. Turoff (ed.). The Delphi Method: Techniques and Applications.
Adisson Wesley, Massachusetts, 1975.
13. Luhmann, N. Sociología del riesgo. Universidad Iberoamericana / Universidad de
Guadalajara, México, 1992.
14. Luhmann, N. Teoría de la Sociedad. Universidad de Guadalajara/Universidad
Iberoamericana/Instituto Tecnológico y de Estudios Superiores de Occidente. 1993.
15. McKinney, J. Tipología constructiva y teoría social. Ed. Amorrortu, Buenos Aires,
1968.
16. Maturana, H. La realidad: ¿objetiva o construida?. ANTHOPOS, México, 1995.
17. Mead, G.H. Mind, Self and Society. Chicago: University of Chicago Press, 1934.
(hay versión en castellano).
18. Morgan, D.L. Focus group as qualitative Research. Sage Publications, California,
1988.
19. Pike, K. "Puntos de vista éticos y émicos para la descripción de la conducta", en
A.G.Smith (ed.) Comunicación y Cultura, Ed. Nueva Visión, Buenos Aires, 1972.
20. Rodríguez, D. y M. Arnold. Sociedad y Teoría de Sistemas. Ed. Universitaria,
Santiago de Chile, 1991.
21. Samuel, R. "Local History and Oral History". En Field Research: A Sourcebook and
Field Manual. Edited by Robert G. Burgess, George Allen & Unwin, London, 1982,
pp. 136-145.
22. Spradley, J.P.The Ethnographic Interview. Holt, Rinehart and Wiston, 1979.
23. Schmidt, S.J. Der Diskurs des radikalen Konstruktivismus. Franfurt aM. , Suhrkamp,
1987.
24. Spencer-Brown, G. Laws of Form. Allen & Unwin, Londres, 1979.
25. Taylor, S.J. y R. Bogdan. Introducción a los métodos cualitativos de investigación.
La búsqueda de significados. Ed. Paidós, Buenos Aires, 1990.
26. Turner, S.P. La explicación sociológica como traducción. Ed. Fondo de Cultura
Económica, México, 1984.
27. von Foerster, H. "Bases epistemológicas". En J. Ibáñez, Nuevos avances en la
investigación social. La investigación de segundo orden. Suplementos Anthropos
22, Barcelona, octubre de 1990.
2.8.9. NOTAS
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 119
1. Este ensayo representa una continuidad y extensión de las reflexiones que hemos
publicado en "Cinta de Moebio Nº2" bajo el nombre de Introducción a las
Epistemologías Sistémico/Constructivistas (1997).
2. Cuyas fuentes de inspiración son autores tales como G. Bateson, P. Feyerabend,
H. von Foerster, E. von Glaserfeld, J. Ibáñez, T. Kühn, N. Luhmann, H. Maturana, K.
Pike, G. Spencer-Brown, F. Varela, P. Watzlawick entre otros. Todos ellos, pesar de
sus diferencias, han contribuido a generar una importante corriente renovadora de
nuestras costumbres investigativas.
3. Al intentar hacerlo debe detener su observación, al concentrar la vista en nuestros
"lentes" deja de ver a través de ellos y de operar con las circunstancias que desde
ellos se configuran.
4. Indudablemente ello no elimina la incapacidad de observar, por sí mismo, sus
propios puntos ciegos.
5. Esa perspectiva teórica fue inaugurada por los antropólogos Ward Goodenough y
Floyd Lounsbury (1962 en la Universidad de Yale). Junto a ellos cabe mencionar a
Charles Frake y Harold Conklin. En tanto Escuela, esta perspectiva ha perdido
perfil, no obstante parte importante de sus supuestos están incorporados en la
"cultura" teórica de la antropología contemporánea. La Antropología cognoscitiva
pone su acento en la identificación y descripción de los medios -culturalmente
disponibles- que disponen los miembros de un sistema social para categorizar sus
experiencias, mientras que la Antropología simbólica coloca su atención en la
significación de tales categorías.
6. Estos temas fueron abordados por la escuela de pensamiento sicosociológico
denominada interaccionismo simbólico (vid. Blumer, H. 1969), cuyos esfuerzos
investigativos e interpretativos descansan en tres premisas: a) los hombres actúan
hacia las cosas -objetos, otros hombres, instituciones, situaciones, etc.- sobre la
base de los significados que tales cosas tienen para ellos; b) estos significados se
originan en la misma interacción social y no son cualidades intrínsecas de los
objetos que las representan y, por último, c) esos significados son manipulados y
readecuados a través de procesos permanentes de reinterpretación.
7. Las tareas del investigador consisten en aprender a reconocer la realidad como lo
hacen sus observados (acompasarse). Pero debe recordarse que siempre es un
observador quien determina que distinciones hacen una diferencia para él.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 120
8. Parejas, familias, grupos, organizaciones, movimientos sociales, sociedades.
9. Varias modalidades son recomendables, pero probablemente la más importante es
someter a discusión y crítica los hallazgos en el marco de un equipo
interdisciplinario y, entre éste y unidades sociales equivalentes a las estudiadas
(triangulación).
10. Vale aquí considerar la noción maturaniana de acoplamiento estructural entendida
como una relación de coevolución de sistemas autopoiéticos, donde ninguno
determina la estructura del otro. Desde el punto de vista de un observador ello
puede ser visto como un encaje (observación del sociólogo Claudio Garrido).
11. Estos mismos criterios pueden aplicarse para la validación de los esquemas de
distinción que se identifican entre nuestros observados.
12. Stephen P. Turner reflexiona en forma equivalente cuando señala que el modelo
"sociológico" se asemeja más a la traducción que a cualquier otra forma de
explicación (1984:18).
13. Esta etapa no debe hacerse desde el escritorio sino que sumergiéndose en el
espacio a investigar y vagabundeando dentro de él.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 121
2.9. MARCO TEÓRICO
En el planteamiento de una investigación es necesario hacer explícito aquello que nos
proponemos conocer, por eso es imprescindible definir el problema que se va a investigar.
Del planteamiento del problema surgen, por lo tanto, los objetivos internos y externos de la
investigación.
Ningún hecho o fenómeno de la realidad puede abordarse sin una adecuada
conceptualización. El investigador que se plantea un problema, no lo hace en el vacío,
como si no tuviese la menor idea del mismo, sino que siempre parte de algunas ideas o
informaciones previas, de algunos referentes teóricos y conceptuales, por más que éstos
no tengan todavía un carácter preciso y sistemático.
El marco teórico, marco referencial o marco conceptual tiene el propósito de dar a la
investigación un sistema coordinado y coherente de conceptos y proposiciones que
permitan abordar el problema. De éste dependerá el resultado del trabajo. Significa poner
en claro para el propio investigador sus postulados y supuestos, asumir los frutos de
investigaciones anteriores y esforzarse por orientar el trabajo de un modo coherente.
El fin que tiene el marco teórico es el de situar a nuestro problema dentro de un conjunto
de conocimientos, que permita orientar nuestra búsqueda y nos ofrezca una
conceptualización adecuada de los términos que utilizaremos. El punto de partida para
construir un marco de referencia lo constituye nuestro conocimiento previo de los
fenómenos que abordamos, así como las enseñanzas que extraigamos del trabajo de
revisión bibliográfica que obligatoriamente tendremos que hacer.
Veamos un ejemplo... Si deseamos conocer las causas de la delincuencia juvenil, será
conveniente aproximarnos al tema desde varios aspectos: desde el plano psicológico,
psicosocial, económico, legal, etc. También será necesario esbozar la concepción que
tenemos de sociedad y de delicuencia juvenil (el fenómeno en estudio), porque nuestra
comprensión del fenómeno variará si partimos de apreciarlo como una conducta
disfuncional (por ejemplo) que afecta a individuos impropiamente integrados a sus grupos
de referencia o, por el contrario, como una expresión de una contracultura que se origina
en una crisis de valores de la sociedad existente.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 122
En muchos trabajos de investigación no se presenta una sección aparte denominada
"marco teórico", sino que se exponen sus características dentro de lo que se denomina
"revisión bibliográfica" o "antecedentes". En otras ocasiones, cuando se trata de una
investigación donde el marco referencial se reduce a algunas pocas proposiciones, éstas
pueden insertarse al comienzo del trabajo, sin merecer una aclaración mayor. Es el caso
de estudios aplicados o de investigaciones que buscan extender conceptos bien conocidos
o nuevos estudios.
En síntesis, el marco teórico responde a la pregunta: ¿qué antecedentes existen? Por
ende, el marco teórico tiene como objeto dar a la investigación un sistema coordinado y
coherente de conceptos, proposiciones y postulados, que permita obtener una visión
completa del sistema teórico, sobre el conocimiento científico, que se tiene acerca del
tema. La conclusión del marco teórico debe ser que existe un problema científico y ése es
el que los investigadores van a abordar.
Es acá donde se realiza la descripción y análisis de las investigaciones previas o de los
antecedentes teóricos que llevan al planteamiento del problema.
En general, se podría afirmar que el marco teórico tiene como funciones:
• Orientar hacia la organización de datos y hechos significativos para descubrir las
relaciones de un problema con las teorías ya existentes.
• Evitar que el investigador aborde temáticas que, dado el estado del conocimiento,
ya han sido investigadas o carecen de importancia científica.
• Guiar en la selección de los factores y variables que serán estudiadas en la
investigación, así como sus estrategias de medición, su validez y confiabilidad.
• Prevenir sobre los posibles factores de confusión o variables extrañas que
potencialmente podrían generar sesgos no deseados.
Recordar!!! No puede haber un marco teórico que no tenga relación con el problema.
2.9.1. CÓMO SE DEBE LEER PARA FORMULAR UN MARCO TEÓRICO. Una vez que se ha seleccionado el tema y se ha establecido el problema, se debe realizar
una lectura sistemática. ¿Qué quiere decir esto? La sistematización se refiere
fundamentalmente a la necesidad de leer, a fin de desarrollar el marco teórico de la
investigación, teniendo en cuenta el problema que se va a investigar.
Esto tiene tres razones:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 123
• Para poder concretar el marco teórico.
• Para que sea relevante el tema de nuestra investigación.
• Para ahorrar tiempo e incrementar nuestra eficiencia.
Si nos dedicamos a hacer referencia a ciertos artículos, o a consultar libros como si
estuviéramos leyendo por placer, lo más probable es que obtengamos resúmenes muy
extensos que comprendan la mayoría de los puntos de la lectura en cuestión o, por el
contrario, pequeños resúmenes irrelevantes o ininteligibles.
¿Qué hacer para evitar esto? La primera regla que debemos aprender es tener siempre
presente el problema que se va a investigar. Así, si el libro que estamos consultando se
refiere en general a la "toma de decisiones", y nuestro estudio es "la toma de riesgos", nos
interesarán únicamente aquellos capítulos, fragmentos o frases relacionados con estos
últimos.
Otra sugerencia importante es leer con sentido crítico, tanto para obtener aquella
información importante para nuestra investigación, como para aprender de los errores
teóricos o metodológicos de otros autores. De este modo, evitaremos tener que descartar
material que nos pareció importante durante su lectura, pero que más tarde consideramos
repetitivo o irrelevante.
Por supuesto, existen diferencias obvias entre los temas de investigación que hacen más
o menos importante esta parte de la investigación, o que la convierten en una tarea fácil o
dificultosa. En una investigación donde el objetivo fundamental es, por ejemplo, determinar
el grado de adaptación de una especie Z a una zona más desértica que la de origen, los
problemas del marco teórico pueden ser resueltos con bastante simplicidad. En cambio,
estos problemas pueden ser esenciales y habrá que dedicarles el mayor esfuerzo
intelectual y tiempo a un estudio que intentase determinar los valores que predominan en
el sistema educativo.
Por ello, es recomendable que el investigador, al comenzar a estudiar su tema, trate de
poner al día sus conocimientos por medio de una sistemática y amplia consulta
bibliográfica. En general, se recurre a alguno de los siguientes lugares:
• Una biblioteca (privada o pública)
• Una librería
• Una hemeroteca
• Redes informáticas.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 124
La recapitulación no debe ser pasiva, será conveniente formular redes esquemáticas,
comparar puntos de vista, establecer análisis y síntesis, confeccionar fichas.
2.9.2. INTEGRACIÓN DEL MATERIAL Una vez terminadas nuestras lecturas, así como la elaboración y clasificación de las
fichas, estaremos en posición de elaborar nuestro marco teórico, que se basará en la
integración de las fichas. El orden que llevará la integración estará determinado por el
objetivo del marco teórico. Si, por ejemplo, es de tipo histórico, recomendaríamos un orden
cronológico de las teorías y/o de los hallazgos empíricos. Si la investigación se relaciona
con una serie de variables y tenemos información de teoría, así como de estudios previos
de cada una de esas variables y de la relación entre ellas, sería conveniente delimitar
secciones que abarcaran cada uno de los aspectos relevantes, a fin de integrar aquellos
datos pertinentes a nuestro estudio.
Es en esta fase de la investigación donde la identificación de las fichas nos permitirá hacer
referencia a éstas para poder extender o aclarar algún punto. Además, la correcta
identificación de las fichas y del tema a que se refieren, nos permitirá reunir todas las
tarjetas que se relacionan con un mismo tema y leer cada una de éstas para su
integración, en lugar de leer varias veces todas las tarjetas que fueron recopiladas.
Es fundamental en toda investigación que el autor incorpore sus ideas, críticas y
conclusiones con respecto tanto al problema como al material recopilado. También es
importante que se relacionen las cuestiones más sobresalientes, yendo de lo general a lo
concreto, es decir, mencionando primero generalidades del tema, hasta llegar a lo que
específicamente está relacionado con nuestra investigación.
2.9.3. DEFINICIÓN DE TÉRMINOS BÁSICOS Todo investigador debe hacer uso de conceptos para poder organizar sus datos y percibir
las relaciones que hay entre ellos. Un concepto es una abstracción obtenida de la realidad
y, por tanto, su finalidad es simplificar resumiendo una serie de observaciones que se
pueden clasificar bajo un mismo nombre.
Algunos conceptos están estrechamente ligados a objetos y a los hechos que representan,
por eso cuando se define se busca asegurar que las personas que lleguen a una
investigación conozca<n perfectamente el significado con el que se va a utilizar el término
o concepto a través de toda la investigación.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 125
El problema que nos lleva a la definición de conceptos es el de que muchos de los
términos que se utilizan en las ciencias sociales son tomados del lenguaje vulgar y,
generalmente, el investigador los utiliza en otro sentido.
La definición conceptual es necesaria para unir el estudio a la teoría y las definiciones
operacionales son esenciales para poder llevar a cabo cualquier investigación, ya que los
datos deben ser recogidos en términos de hechos observables.
De acuerdo con la idea del realismo científico, los objetos de estudio existen en el mundo
empírico (tangible) pero la teoría pertenece al mundo conceptual del pensamiento. Si el
investigador acepta esta visión, debe hacer lo posible para que existan conexiones entre
estos dos mundos.
Si el investigador y el lector y usuario del estudio en su forma escrita han de tener la
misma noción del objeto, son necesarias normas fijadas y no ambiguas de
correspondencia para establecer el modelo teórico con el objeto empírico. Estas son las
definiciones de conceptos teóricos que sirven de puentes entre teoría y empiria.
Hay dos tipos de definiciones:
• Definiciones empíricas que anuncian cómo se va a observar o medir el concepto
en el mundo real, o en la empiria, como se le suele llamar. Dado que la definición
explica las operaciones para la observación, es llamada a veces definición
operacional.
• No es necesario definir todas nuestros conceptos teóricos directamente con
definiciones empíricas, que son a veces difíciles de construir. En muchos casos es
un sucedáneo aceptable una definición nominal, que describe el sentido del
concepto usando otros conceptos que han sido ya adecuadamente definidos
(empírica o nominalmente).
Si, por ejemplo, hemos definido operativamente dos variables, "distancia" medida en kms.
y "duración" medida en minutos, podemos usarlas para definir nominalmente un tercer
concepto, "velocidad" = "distancia" / "duración". No es necesario definir continuamente
palabras como "ser humano", "día" y "comprar" si son usadas en sus sentidos habituales
indicados en los diccionarios corrientes. El uso de lenguaje común y significados estándar
de palabras tiene también la ventaja suplementaria de hacer el informe más comprensible
para el profano.
Sin embargo, cada campo de la ciencia tiene sus conceptos teóricos especiales y para
nombrarlos se necesitan algunas palabras especiales. A veces las palabras del lenguaje
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 126
estándar han sido adoptadas para uso científico y han adquirido un significado especial,
cuya definición puede encontrarse en los manuales sobre ese campo. En ocasiones las
palabras adecuadas se han tomado prestadas del griego o del latín. Y, finalmente, algunas
palabras completamente nuevas se han acuñado por investigadores con inventiva. En
cualquier caso, cada investigador debe usar el vocabulario normal de su campo de
investigación tanto como le sea posible, para que pueda beneficiarse directamente de
resultados anteriores y, a la inversa, sus nuevos resultados sean fáciles de leer y así
contribuyan de manera efectiva a la teoría general de ese campo.
Otra regla general útil dice que el investigador debe intentar operar con tan pocos
conceptos y variables teóricos como le sea posible. Esta recomendación lleva el nombre
de "navaja de Occam", y se remonta al siglo XIV, atribuyéndose a Guillermo de Occam.
2.9.4. DEFINICIÓN OPERACIONAL. Las definiciones operacionales constituyen un manual de instrucciones para el
investigador. Deben definir las variables de las hipótesis de tal manera que éstas puedan
ser comprobadas.
Una definición operacional asigna un significado a una construcción hipotética o variable,
especificando las actividades u "operaciones" necesarias para medirla o manipularla.
Una definición operacional es, esencialmente, aquella que indica que un cierto fenómeno
existe, y lo hace especificando de manera precisa y, preferiblemente, en qué unidades
puede ser medido dicho fenómeno. Esto es, una definición operacional de un concepto,
consiste en un enunciado de las operaciones necesarias para producir el fenómeno. Una
vez que el método de registro y de medición de un fenómeno se ha especificado, se dice
que ese fenómeno se ha definido operacionalmente. Por tanto, cuando se define
operacionalmente un término, se pretende señalar los indicadores que van a servir para la
realización del fenómeno que nos ocupa, de ahí que en lo posible se deban utilizar
términos con posibilidad de medición.
Las definiciones operacionales pueden ser:
• Medidas: cuando se observan y clasifican las variaciones.
• Experimentales: indican cómo manipular una variable.
Las definiciones operacionales son definiciones limitadas, cuyo propósito es permitir que el
investigador se acerque a los aspectos de la realidad a estudiar. Siempre existe el peligro
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 127
de fragmentar un concepto de tal forma que se aleje (o carezca de relevancia) respecto a
su significado real. Pero se aproximan a aspectos significativos de la realidad conceptual.
Las definiciones operacionales establecen un puente entre los conceptos o construcciones
hipotéticas y las observaciones, comportamientos y actividades reales. Es decir, el
científico o investigador opera en dos niveles: el de los conceptos e hipótesis (Nivel I) y el
de la observación y manipulación (Nivel II). Los dos niveles están conectados por una
definición operacional. En las situaciones experimentales, las definiciones operacionales
especifican lo que los experimentadores hacen para manipular una o más variables
independientes. Estas definiciones indican, literalmente, las operaciones involucradas.
2.9.4.1. FUNCIÓN DE LOS CONCEPTOS O DEFINICIONES OPERACIONALES: • Ordenar la percepción.
• Valorar lo percibido.
• Guiar la acción individual.
• Facilitar la comunicación.
2.9.5. REQUISITOS DE LOS CONCEPTOS: • Ha de existir acuerdo y continuidad en la atribución de determinados contenidos
figurativos o determinadas palabras.
• Deben estar definidos con precisión: contenido semántico exactamente establecido.
• Tienen que tener una referencia empírica: deben referirse a algo aprehensible,
observable (aunque sea indirectamente).
2.9.6. REGLAS PARA DEFINIR. La función de la definición consiste en presentar los rasgos principales de la estructura de
un concepto para hacerlo más preciso, delimitándolo de otros conceptos, a fin de hacer
posible una exploración sistemática del objetivo que representa. Para ello es necesario
tener en cuenta:
• Validez significa que nuestra definición se ajusta al concepto. Debe referise
justamente a ese concepto y no a algo similar. Si nuestra definición es válida,
estamos midiendo justamente lo que pretendemos medir y no otra cosa.
• Fiabilidad o reproductibilidad significa que si repetimos nuestra medición o registro,
el resultado será siempre el mismo.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 128
• Dar la esencia. La definición debe dar la esencia de lo que se intenta definir, es
decir, su naturaleza, sus notas características, sus límites.
• Evitar tautologías. No debe directa o indirectamente contener el objetivo. Ejemplo:
la economía es la ciencia que estudia los fenómenos económicos. No debe ser
circular. Es decir, se debe evitar, por ejemplo, definir al entendimiento como la
capacidad de pensar y, a su vez, a la capacidad de pensar como a la actividad de
entendimiento. Un círculo vicioso consiste en dos (o más) definiciones nominales
que se refieren la una a la otra mientras que los conceptos usados en estas
definiciones no tienen definición real para vincularlos a la empiria.
• Debe ser afirmativa. Toda definición debe expresarse siempre en términos
afirmativos, nunca en términos negativos.
• Empleo de lenguaje claro. Debe expresarse en palabras claras y asequibles, no
debe contener metáforas o figuras literarias.
• Significado preciso y unitario.
La fase de establecer "definiciones de trabajo" está estrechamente vinculada a la decisión
que se tome con respecto a los instrumentos de recogida de datos que se utilizarán. Las
definiciones de trabajo son adecuadas si los instrumentos o procedimientos basados en
ellas agrupan datos que constituyen indicativos satisfactorios de los conceptos que
intentan representar.
¿Pueden modificarse las definiciones cuando el trabajo avanza? Sí, de hecho en
investigación cualitativa es habitual, porque la comprensión por parte del investigador de lo
que está estudiando muchas veces se hace más profunda cuando la investigación avanza.
Por otro lado, si las definiciones que han servido como base para mediciones cuantitativas
se cambian después de reunir datos empíricos, se han desperdiciado los datos
correspondientes a la vieja definición que se habían reunido.
2.9.7. ESQUEMA DE LA INVESTIGACIÓN Es la estructura que permite ubicar el objeto de la investigación en el marco que lo
comprende y analizar las partes de que consta.
Se formula para:
• Apreciar el objeto de estudio de forma total y en cada una de sus partes.
• Estructurar el escrito.
• Organizar el acopio de información.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 129
• Planear nuestras actividades.
En el modelo que sigue se tratan los aspectos generales de una investigación.
El trabajo será más fácil si se desglosan al máximo el objeto de estudio y los aspectos de
la investigación.
Tabla 4: Desgloce de estudio y aspectos de la investigación
PREGUNTAS ORIENTADORAS CONCEPTO
¿Qué conceptos vamos a utilizar?
¿Qué criterios usaremos? 1. Definiciones.
¿Cuál es nuestra concepción del tema?
Consisten en la precisión de los conceptos, acepciones o criterios que vamos a utilizar.
Condiciones históricas que rodean el objeto de estudio.
• Marco histórico. Consideración de los factores
externos que tienen relación con el objeto de la investigación.
Comprende el estado o hechos que prevalecen en el ambiente en que se presenta el objeto de estudio. Constituye el contexto histórico de la investigación.
¿Cuál es el origen del objeto de la investigación?
¿Qué evolución ha tenido? • Antecedentes.
¿Qué otras investigaciones similares se han hecho?
Son el origen y el desarrollo del objeto de estudio. Conocer la evolución de lo que estamos investigando nos facilita su comprensión.
¿Cómo es el área que comprende?
¿Cómo se manifiesta? • Ubicación del
objeto de estudio.
¿Qué relación guardan entre sí las partes del área?
Es la situación del objeto de la investigación en la disciplina, materia o especie que lo comprende.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 130
¿Cómo es el objeto de estudio? • ¿Cuáles son sus partes? • ¿Qué relación existe
entre el objeto y su contexto?
• ¿Cuáles y cómo son sus características intrínsecas?
• ¿Qué efectos produce? • ¿En qué períodos se
encuentra el fenómeno? • ¿Qué aspectos
coordinados y subordinados presenta?
• Descripción del objeto de investigación.
¿Qué circunstancias condicionan al objeto de la investigación?
• Éticas. • Geográficas • Económicas • Ecológicas • Tecnológicas • Teóricas • Culturales • Religiosas • Filosóficas
Es la "disección", el análisis, el estudio minucioso de las características, propiedades, relaciones, formas de manifestarse... el desglosamiento de lo que investigamos.
¿Qué tesis existen al respecto?
1. Marco teórico.
¿Qué teorías tratan de explicarlo?
• ¿Cuál es la teoría clásica?
• ¿Cuáles son las teorías opuestas a la clásica?
• ¿Cuál es la teoría predominante?
Es la consideración de lo que se ha investigado (teorías, hipótesis, tesis) acerca del objeto de nuestra investigación.
1. Exposición de datos.
Descripción y/o provocación del fenómeno. Aquí se muestra la información, directamente relacionada con la hipótesis, obtenida de la investigación.
• Valoración e interpretación del material obtenido.
Es el análisis crítico de los datos obtenidos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 131
• Resumen.
Es la parte del escrito que tiene como finalidad mostrar en qué se sustentan las conclusiones que se obtuvieron.
• Conclusiones y/o recomendaciones.
Es el resultado de la investigación.
2.9.8. REFERENCIAS o Tenorio Bahena, Jorge. INVESTIGACIÓN DOCUMENTAL. 3ª ed. México (1988).
Ed. Mac Graw - Hill.
o Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS SOCIALES.
5ª ed. México (1994). Ed. Trillas S.A.
o Tamayo y Tamayo, Mario. EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA. 3ª
ed. México (1998). Ed. Limusa S.A.
o Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed.
Lumen - Humanitas.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 132
<<
2.10. LA INVESTIGACIÓN EN LAS CIENCIAS SOCIALES
Surge el cambio con métodos como el análisis concreto de situaciones concretas de
Carlos Marx o con el de formación de modelos o tipologías del cambio social de Max
Weber.
De una manera sencilla establezcamos que una teoría es un conjunto de conceptos
relacionados entre sí que nos permite explicar un área de la realidad. Las teorías se
construyen regularmente por acumulación de distintas ideas que han tenido sucesivos
científicos sociales.
Aquí el problema surge entonces cuando el individuo no acepta para sí mismo las
consecuencias del tipo de vínculos sociales tradicionales y se aparta, tomando el camino
del alejamiento o de la desintegración, que es una disfunción para el conjunto social. Estos
problemas de funcionamiento en la estructura social, el individuo se los imagina como
problemas personales, según Durkheim, tienen distintas fuentes pues las disfunciones
provienen de:
1. La perdida de la capacidad de integración que el sistema ejerce sobre los individuos.
Esta perdida de capacidad no depende de que de pronto surjan individuos
"innatamente rebeldes" capaces de liderear a otros, sino que el problema tiene una
causa social también.
2. Los excesos generados por el tipo de vínculos sociales en que se encuentra inmerso el
individuo, Durkheim reconoce que a pesar de que estos vínculos pueden estar
funcionando bien y por tanto producir que el individuo viva conforme con ellos.
3. En el mundo de las creencias, la persona su decisión de reaccionar ante los excesos
del sistema se le figura como muy personal.
4. La progresiva sustitución de un tipo de vínculos sociales por otros como, cuando en
una sociedad se inicia la profundización de la división del trabajo social.
El problema no se crea con la reacción del individuo sino antes, con la deficiente
funcionalidad del sistema que llevo a crear primero una situación de enfrentamiento que
debía evitarse y después a la reacción disfuncional del individuo. ¿Como se plantea un
problema según la perspectiva de lo normal y lo patológico de Emilio Durkheim?. Todos
estos temas provienen de su perspectiva inicial, el considerar a la sociedad como una
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 133
realidad superior a los individuos y a la suma de estos, que lo coaccionan a pensar y
actuar de determinada manera funcional al sistema, el cual por estos medios alcanza
estabilidad y orden.
El científico social debe cumplir estas reglas para poder abordar un problema social
científicamente con su propuesta de que lo normal es lo que se encuentra difundido y
generalizadamente aceptado, le da al sociólogo un criterio externo, que no depende de él,
para saber clasificar los fenómenos que observa.
Para Durkheim el suicidio no es un hecho social anormal, sino que cada sociedad tiene
sus propias tasas de suicidio constantes, en un momento determinado. Y el suicidio no
depende de atributos individuales o de sentimientos de soledad, tristeza, etc., sino de la
forma como se dan los vínculos sociales con el grupo: muy dependientes de éste o muy
alejados e individualistas, plantea así su problema:
Que investigar: el suicidio de la sociedad moderna.
Donde: en Francia.
Cuando: a mediados del siglo XX (1930-1950).
Un problema social tiene así causas sociales,y el individuo solo reacciona ante éstas.
Los problemas que examina Durkheim son así:
1. Desajusten entre sistemas de relaciones sociales por ejemplo entre tradiciones.
2. Disfunciones que surgen por excesos de un mismo sistema de vinculaciones
sociales, entre el grupo y el individuo.
3. Debilitamiento de la funcionalidad de un sistema.
Que investiga: la estructura y función de las instituciones modernas.
Donde: en Francia.
Cuando. A mediados del siglo XIX (1930-1950)
¿Porque el método comparativo es el apropiado para conocer a las instituciones y
disfunciones sociales?.
Esto significa que el científico social:
1. Considera los modos de pensar y actuar sociales, como cosas, es decir como
realidades ajenas a nosotros de igual manera que los científicos de la naturaleza
actuan cuando se enfrentan a conocer a ésta.
2. Mirará a éstos modos sociales como realidades que se imponen al individuo igual
que lo hace la naturaleza.
3. analizará fríamente éstos modos de pensar, creer, sentir y actuar de las personas.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 134
4. Procederá a manejar los datos que le arrojen éstos hechos sociales con las mismas
operaciones intelectuales que utilizan los científicos.
5. Pensará como lo hacen los científicos de la naturaleza en términos de elementos,
combinaciones, vinculaciones, estructuras, etc., para conceptualizar los modos de
pensar y de actuar de los humanos.
Esta teoría requiere entonces un método que permita:
1. Pensar los hechos de modo fijo, sin movimiento, pero a la vez en sus
interconexiones, en el marco de las redes o estructuras sociales en las que acciona.
2. Analizar a fondo en el nivel de sus efectos sociales impersonales y no quedarse en
la superficie de las diferencias individuales.
3. Clasificarlos en lo que tienen en común para obtener principios, generales, o leyes
que estarían en el fondo de la vida social,
Si los datos y hechos que postula Durkheim, como necesarios para su teoría son
impersonales en tanto busca efectos sociales, que además deben de estar fijos o sin
movimiento, para visualizar sus interconexiones, entonces buscamos el método que sea
apropiado. Y nada hay más parecido a ésta clase de hechos impersonales y fijos que los
de la naturaleza: fríos y externos a la voluntad humana. Por eso su proceso de
investigación y su tratamiento metódico están tomados de las ciencias naturales: en
método comparativo.
2.10.1. EL MÉTODO COMPARATIVO El método comparativo no es una invención de Emilio Durkheim ya que este se usaba
frecuentemente en ciencias naturales como la biológica y la química. Lo que él hace es
aplicar éste método a los datos de las ciencias sociales, para obtener clasificaciones y
leyes que a su vez le permiten darle estatuto científico a la antropología social y a la
sociología.
Debemos rescatar el tema anterior los siguientes puntos:
1. La sociología es para Emilio Durkheim una ciencia natural teórica de la sociedad
humana.
2. A ésta teoría social que usa métodos de las ciencias naturales le llama sociología
comparada.
3. Si en las ciencias naturales se produce primero observando las estructuras del
Universo, tal cual se nos da a los sentidos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 135
4. El método de investigación comprende como faces significativas las etapas de
observación, descripción, clasificación, elaboración de tipologías y generalización.
5. Concluye que utiliza el método característico de las ciencias inductivas, esto es, el
método de generalización... por comparación de ejemplos.
Si seguimos el procedimiento de las ciencias inductivas, entonces el método comparativo
parte de la realidad para irla depurando, hasta llegar a encontrar lo común a muchos
ejemplos y así establecer por la vía de la abstracción o generalización, sus leyes.
2.10.2. EL PLANTEAMIENTO DE PROBLEMAS DE INVESTIGACIÓN SEGÚN EL MATERIALISMO HISTÓRICO Cralos Marx pensaba que la historia de la humanidad y el conocimiento de la vida social
hasta entonces había sido poco científico e incompleto porque partía de una concepción
idealista del mundo en el cual se exageraba el papel que tienen las ideas políticas,
religiosas o jurídicas en el desarrollo social. Carlos Marx propone, por eso, como punto de
partida para el análisis no quedarse en las ideas; si no ir a los hechos o actos reales que
tienen los individuos o las clases sociales.
Para Carlos Marx el estudio científico de la sociedad comienza cuando primero tomamos
en cuenta sus modos de producción y distribución de la riqueza para después ubicar allí
sus ideas sobre el mundo, las ideas filosóficas, religiosas, morales, educativas y políticas.
¿Como se plantea un problema con la perspectiva del materialismo histórico?
Su método estriba en analizar con detalle un determinado orden de producción social,
ubicada en ese contexto las ideas y las Psicología de los hombres y en el descubrir como
dicho orden necesariamente entra en contradicción y da lugar a uno nuevo. De aquí deriva
toda la problemática de Carlos Marx analicen sus obras. Por ello podemos decir que la
forma en como Marx se plantea su objeto de estudio y sus respectivos problemas, sigue
las siguientes faces:
1. Contempla un mundo social nuevo que va surgiendo, que es el capitalismo y que
trae aparejados muchos problemas sociales.
2. Carlos Marx tiene claro que las teorías que explica la historia en su tiempo son
idealistas proponen educar, dar servicios religiosos a la clase obrera, etc.
3. Al mirar el mundo desde esta perspectiva, ya esta dejando de lado otra y con ella
todo un campo de análisis de problemas a estudiar.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 136
En el primer caso su perspectiva se formula así: Que estudia: los modos de producción.
Donde: en Europa occidental. Cuando: en la historia Europea. En el segundo caso queda
así: Que estudia el modo de producción y la sociedad capitalista Donde: en Europa
tomando como modelo Inglaterra. Cuando: entre 1830-1860.
2.10.3. REFERENCIAS http://www.miexamen.com.mx/Investigacion%20en%20las%20ciencias%20sociales.htm
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 137
3. CAPITULO III: BASES PARA LA INVESTIGACIÓN CUANTITATIVA
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 138
<
3.1. EL DISEÑO DE LA INVESTIGACIÓN
El diseño es una estrategia general de trabajo que el investigador determina una vez que
ya alcanzado suficiente claridad respecto a su problema y que orienta y esclarece las
etapas que habrán de realizarse posteriormente.
Así, por ejemplo, si nuestra investigación teórica nos lleva a suponer que la esquizofrenia
tiene un origen orgánico, tendremos que elaborar un método para poder comprobar si tal
afirmación se corresponde o no con la realidad. Definir qué pruebas de laboratorio, qué
observaciones y qué datos son los pertinentes para llegar a esa comprobación, es lo que
llamamos elaborar un diseño. Es el momento metodológico de la investigación; en él, ya
no se trata de definir qué vamos a investigar, sino cómo vamos a hacerlo.
Realizar el diseño de una investigación significa llevar a la práctica los postulados
generales del método científico, planificando una serie de actividades sucesivas y
organizadas donde se encuentran las pruebas que se han de efectuar y las técnicas que
se van a utilizar para recolectar y analizar los datos.
3.1.1. TIPOS DE DISEÑO En función del tipo de datos que han de ser recogidos, e posible categorizar los diseños en
dos grandes tipos básicos:
1. Diseños bibliográficos.
2. Diseños de campo:
1. Experimental.
2. Post – facto.
3. Encuesta.
4. Panel.
5. Estudio de casos.
Los diseños de campo son los que se refieren a los métodos empleados cuando los
datos de interés se recogen en forma directa de la realidad, mediante el trabajo concreto
del investigador y su equipo; estos datos, obtenidos directamente de la experiencia
empírica, son llamados datos primarios. Son datos de primera mano, originales, producto
de la investigación en curso sin intermediación de ninguna naturaleza.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 139
Cuando los datos ya han sido recolectados en otras investigaciones y son conocidos
mediante los informes correspondientes, nos referimos a datos secundarios, porque han
sido obtenidos por otros y nos llegan elaborados y procesados de acuerdo con los fines de
quienes inicialmente los obtuvieron y manipularon. Como estas informaciones proceden
siempre de documentos escritos (ésa es la forma en que se emiten los informes
científicos), damos a estos diseños el nombre de bibliográficos.
Todo trabajo bibliográfico no deja por eso de referirse a la experiencia empírica tanto como
los diseños de campo, porque los datos que nosotros tomamos como secundarios han
sido datos primarios para el investigador inicial, por más que nos lleguen como
experiencias ya analizadas y sintetizadas. De modo que el contacto con los hechos
subsiste, aunque se trate de un contacto indirecto.
Algunas personas sostienen la opinión de que los trabajos bibliográficos no pueden
considerarse en un sentido estricto como verdaderas investigaciones, ya que, al faltar el
contacto directo entre el estudioso y su mundo empírico, lo único que podrá hacer es
reelaborar conocimientos ya obtenidos sin efectuar mayores aportes al respecto. Es una
visión muy estrecha de las posibilidades que ofrece el trabajo bibliográfico, pues el
investigador que desarrolla este modelo puede realmente concebir y resolver problemas
nuevos. Si tomamos datos de un censo sanitario, por ejemplo, y analizamos sus
resultados de acuerdo con indicadores sociales y económicos específicos, podremos
obtener un conocimiento muy rico respecto a la relación entre esos factores; estaremos en
condiciones de corroborar hipótesis de un mayor nivel de generalidad y habremos
alcanzado un conocimiento sintético, interdisciplinario de suma utilidad.
Por último, es preciso anotar que los diseños de campo tampoco pueden basarse
exclusivamente en datos primarios. Siempre será necesario ubicar e integrar nuestro
problema y nuestros resultados dentro de un conjunto mayor (marco teórico o referencial),
para cuya elaboración es imprescindible realizar consultas o estudios bibliográficos.
3.1.2. DISEÑOS BIBLIOGRÁFICOS El principal beneficio que el investigador obtiene mediante una invetigación bibliográfica es
que puede cubrir una amplia gama de fenómenos, ya que no sólo tiene que basarse en los
cuales él mismo tiene acceso, sino que puede extenderse para abarcar una experiencia
mayor. Esta ventaja se hace particularmente valiosa cuando el problema requiere de datos
dispersos en el espacio, que sería imposible obtener de otra manera: un investigador no
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 140
puede ir recorriendo el planeta en busca de datos de producción o población para luego
hacer análisis comparativos; pero si tiene a su alcance una bibliografía adecuada no
tendrá obstáculos para contar con toda la información necesaria.
El diseño bibliográfico también es indispensable cuando hacemos estudios históricos; no
hay otro modo, en general, de enterarnos de los hechos pasados si no es apelando a una
gran proporción de datos secundarios.
El diseño bibliográfico tiene una dificultad que puede llegar a ser muy significativa: si
nuestras fuentes han recogido o procesado defectuosamente su material primario, ya sea
por error, subjetivismo o intencionalmente, todo nuestro trabajo habrá de apoyarse sobre
bases falsas, sobre una serie de errores que nosotros trasladaremos y amplificaremos.
La duda sobre la calidad del material secundario está siempre presente. Para reducir este
margen de incertidumbre, conviene asegurarse de las condiciones concretas en que han
sido obtenidos los datos, estudiar en profundidad cada información para descubrir
incoherencias y contradicciones, utilizar a la vez varias fuentes distintas, cotejándolas
cuidadosamente y, en general, regirse por una sana dosis de escepticismo. Todos estos
recursos, si los aplicamos sistemáticamente y con rigor, permiten incrementar nuestro
margen de confianza hasta niveles razonables.
Otra observación metodológica que puede hacerse con respecto a este diseño es que,
debido a que es el propio investigador quien define y selecciona los datos que va a utilizar,
es posible que éste tome solamente en cuenta aquellos que concuerdan con sus hipótesis
iniciales. Por eso, se recomienda que cualquier búsqueda de datos secundarios se haga
con sistematicidad y orden, fijando categorías claras para las fuentes de datos y utilizando
todas las informaciones disponibles.
No existe un camino preestablecido para el manejo de la información bibliográfica, per
algunas de las tareas básicas a realizar son:
1. Conocer y explorar todo el conjunto de fuentes que pueden resultar de utilidad. La
mejor manera de tener un panorama completo respecto de las publicaciones
existentes es acudir a bibliotecas y centros de documentación. Una alternativa
complementaria es consultar a expertos y especialistas que pueden tener
conocimiento del material existente. Por último, recordemos que todo libro o trabajo
serio incluye generalmente una serie de citas, referencias bibliográficas y listas de
material consultado que facilitan nuestros propósitos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 141
2. Leer todas las fuentes disponibles. No es preciso leer completamente cada uno de
los trabajos escritos sobre el tema, sino utilizar un tipo de lectura discriminatoria,
que nos permita detenernos en los aspectos esenciales. De acuerdo con los
resultados de esta lectura, se podrá ir ordenando todo el material.
3. Recolección de datos. Se puede realizar mediante ficha y otros procedimientos
similares. De cada fuente se extraerán los aspectos concretos que parezcan
relevantes para la investigación.
4. Elaboración de un esquema de exposición del informe final. Según este equema, se
ordenarán las fichas de datos.
5. Cotejo o comparación de fichas. Se observan los puntos de contacto y oposición
entre ellas, tratando de evaluar la confiabilidad de la información, para realizar
síntesis parciales y comparaciones particulares.
6. Conclusiones. Se reelaborarán nuestros puntos de vista respecto a cada parte del
estudio, teniendo especial cuidado en esclarecer la problemática que previamente
nos habíamso planteado en la fase inicial de la investigación.
3.1.3. DISEÑOS DE CAMPO Su valor reside en que le permiten al investigador cerciorarse de las verdaderas
condiciones en que se han conseguido los datos, haciendo posible su revisión o
modificación en el caso de que surjan dudas con respecto a su calidad. No obstante,
presentan la limitación de su reducido alcance: son muchos los datos que no se pueden
alcanzar por esta vía, ya sea por restricciones espaciales o temporales, por carencia de
recursos, etc.
Los diseños de campo más frecuentes son el experimental, post – facto, encuesta, panel y
estudio de casos.
3.1.4. DISEÑO EXPERIMENTAL Un experimento consiste en someter al objeto de estudio a la influencia de ciertas
variables, en condiciones controladas y conocidas por el investigador, para observar los
resultados que cada variable produce en el objeto.
La variable a cuya influencia se somete el objeto en estudio recibe el nombre de estímulo.
Cuando a través de un experimento se pretende llegar a la causa de un fenómeno, se
procede del siguiente modo: sea Z el fenómeno en estudio, que en condiciones no
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 142
experimentales se presenta frente a los factores A, B y C. Nuestra primera prueba consiste
en controlar - reduciendo a un valor 0 - cada uno de estos factores, para observar qué
ocurre en los restantes. Así tendríamos por ejemplo que, efectuando algunas pruebas
específicas, se obtiene que:
A y B no producen Z
B y C producen Z
A y C producen Z
De estas tres pruebas efectuadas podemos inferir, al menos, que C es necesario para que
se produzca Z. Si comprobáramos además que con sólo el factor C, y eliminando los
restantes, también ocurre Z, podríamos afirmar que C es condición necesaria y suficiente
del hecho Z, en otras palabras, su causa.
Cuando nuestros objetos de estudio son barras de metal, moléculas, virus o ratas, no
tenemos prácticamente ninguna limitación en cuanto a las posibilidades de inventar
estímulos diversos. Las limitaciones de la experimentación en el campo de las ciencias
sociales hacen que este método sólo pueda usarse en contados casos, pues diversas
consideraciones éticas y humanas impiden su realización.
Si quisiéramos conocer los efectos que la desnutrición aguda ejerce sobre la agresividad
de los grupos humanos, deberíamos buscar otras formas de comprobación ajenas al
experimento, pues no podemos aplicar el estímulo "desnutrición aguda" a un conjunto
humano.
Hay otra cantidad de experimentos que son teóricamente posibles, pero que en la práctica
ningún investigador tiene opción de realizar, porque para modificar ciertas variables sería
necesario alterar todo el curso de la sociedad o poseer la suma del poder político o
económico.
No se puede, por ejemplo, suprimir el uso de automóviles ni cambiar las regulaciones
legales vigentes; tampoco se puede modificar la forma en que se comportan los mercados
ni las costumbres existentes en una cultura.
El diseño experimental sólo se utiliza en las ciencias humanas para algunos problemas de
psicología social (estudios para medir actitudes, influencia de la propaganda, tipos de
liderazgo, etc.), de sociología del trabajo ( cambio de condiciones de producción, tipos de
organización laboral), de técnicas pedagógicas (nuevas formas de enseñanza o
modalidades de aprendizaje) y en otros casos semejantes, como el estudio de mercados,
problemas clínicos de psicología, etc.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 143
Existen diversos patrones según los cuales se realizan los experimentos en las ciencias
sociales:
• Antes y después con un solo grupo. El objeto en estudio queda constituido por
un grupo social, generalmente reducido, previamente definido en cuanto a sus
características fundamentales. Supongamos que nos interesa medir el efecto de la
iluminación sobre la productividad de los trabajadores. Para ello, tomaríamos un
grupo de trabajadores que estén realizando sus tareas con una iluminación
determinada y mediríamos (antes del experimento) su productividad. Luego
introduciríamos el estímulo, en este caso una mejor iluminación, para después
volver a medir la productividad del grupo. Este modelo de experimentación tropieza
con la dificultad de que las modificaciones que se producen en la variable medida
pueden tener su origen en el estímulo, o en alguna otra variable que no hemos
tenido en cuenta. Con una repetición suficientemente grande de experimentos, sin
embargo, podemos lograr resultados confiables. • Solamente después con dos grupos. Debemos construir dos grupos, que se
denominan grupo experimental (destinado a recibir el estímulo) y grupo de control
(que nos sirve de punto de referencia para apreciar las variaciones que se
produzcan en el anterior). Como es necesario efectuar las mediciones comparando
los resultados entre los dos grupos, éstos deben ser, en todas las características de
relevancia que sea posible controlar, lo más semejantes posibles. Esta tarea de
igualación de los grupos se denomina homogeneización, y para llevarla a cabo se
apela a procedimientos de muestreo. No se realizan mediciones antes de la
aplicación del estímulo: se aplica éste solamente al grupo experimental y se mide
finalmente a ambos grupos. • Antes y después con un grupo de control. Se basa en los mismos principios que
el método anterior, pero las mediciones se hacen antes y después del estímulo, a
ambos grupos. Esto nos previene contra los posibles defectos de la igualación y
nos permite también tener en cuenta la influencia de cualquier situación que pueda
originar variaciones simultáneas en ambos grupos y que de otro modo no
detectaríamos. Siempre es preciso tener el cuenta las posibles alteraciones que
pueden producirse en la conducta de los grupos cuando éstos conocen que se
hallan en una situación experimental.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 144
Los esquemas vistos anteriormente son los más simples que se emplean; existen
modelos que se denominan "antes y después con dos grupos de control", "antes y
después con tres grupos de control", y otras variaciones sobre estos modelos básicos.
Dan lugar, por lo general, a conocimientos más precisos y valiosos, aunque su aplicación
es muy costosa y delicada.
3.1.5. EXPERIMENTOS POST - FACTO Experimento post - facto quiere decir experimento que se realiza después de los hechos.
No se trata de un verdadero experimento, porque el investigador no controla ni regula las
condiciones de prueba. Pero el procedimiento lógico de que se vale es idéntico al de los
experimentos propiamente dichos.
Consiste en tomar como experimentales situaciones reales que se hayan producido
espontáneamente, trabajando sobre ellas como si efectivamente se hubieran dado bajo
nuestro control.
Si en un país tenemos dos regiones geográficas A y B, por ejemplo, que en cuanto a una
serie de variables tienen un comportamiento similar, y ocurre un hecho en una sola de
ellas, digamos la apertura de una carretera troncal, las modificaciones que se produzcan
en ésta y no en la otra pueden ser atribuidas a este hecho, pues ha sido el único factor de
peso que hubo en un caso y no en otro, y porque consideramos previamente que ambos
sujetos en estudio eran homogéneos. Podemos atribuir un incremento del comercio o un
cambio en las pautas sociales a los efectos que produce esta vía de comunicación.
Casi todo el trabajo de comparaciones históricas, sociales y culturales se basa en una
lógica de este tipo. Así, por ejemplo, el estudio de los procesos de desarrollo económico
hechos por diversas escuelas del pensamiento social, como el análisis comparativo de
políticas públicas, de tratamientos terapéuticos y procedimientos administrativos, están
realizados bajo este tipo de diseño.
3.1.6. ENCUESTAS Este diseño es exclusivo de las ciencias sociales y parte de la premisa de que, si
queremos conocer algo sobre el comportamiento de las personas, lo mejor, lo más directo
y simple, es preguntárselo a ellas.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 145
Se trata de requerir información a un grupo socialmente significativo de personas acerca
de los problemas en estudio para luego, mediante un análisis de tipo cuantitativo, sacar las
conclusiones que correspondan con los datos recogidos.
Cuando se recaba información a todas las personas que están involucradas en el
problema en estudio, este diseño toma el nombre de censo. Los censos, por las
dificultades materiales que implican su realización, casi siempre son trabajos emprendidos
por el Estado o por instituciones de muchos recursos. Por la cantidad de personas que se
deben entrevistar, no es factible obtener información muy detallada, pues se convertirían
en trabajos desproporcionadamente difíciles de ejecutar y analizar.
En su lugar, se realizan encuestas por muestreo, en las que se escoge, por
procedimientos estadísticos, una parte significativa de todo el universo que se toma como
objeto a investigar. Las conclusiones que se obtienen a partir de la muestra pueden
generalizarse a todo el universo con un margen de error conocido y limitado previamente.
Una encuesta es sólo uno de los métodos posibles de estudio de la realidad social, que
presenta puntos a favor y en contra.
Sus principales ventajas son:
1. Su conocimiento de la realidad es primario, no mediado, y por lo tanto, menos
engañoso.
2. Como es posible agrupar los datos en forma de cuadros estadísticos, se hace más
accesible la medición de las variables.
3. Es un método de trabajo relativamente económico y rápido.
Las desventajas más frecuentes son:
1. La encuesta recoge la visión que la gente tiene de sí misma: no es lo mismo lo que
la gente hace, siente o cree, que lo que la gente "dice" que hace, siente o cree.
Existen algunos recursos para reducir la magnitud de este serio problema, como
omitir algunas preguntas que sabemos que las personas no quieren responder,
cuidar la presentación del entrevistador, etc.
2. La encuesta relata los hechos sociales desde el punto de vista de sus actores, pero
no considera las relaciones sociales interpersonales o institucionales.
3. El diseño es básicamente estático. Tiende a dar una imagen instantánea de un
determinado problema, pero no nos indica sus tendencias.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 146
4. El tratamiento de la información es estadístico. Esto puede resultar muy
democrático y útil, pero casi nunca se corresponde con la realidad de los hechos
sociales, donde el liderazgo y la asimetría social son la norma.
Las encuestas resultan apropiadas para estudios de tipo descriptivo, pero no tanto para
los explicativos. Son adecuadas para estudios de mercado masivo y opiniones electorales,
pero no tanto para el estudio de tipos de liderazgo y a los problemas que se refieren a
estructuras y relaciones sociales.
3.1.7. EL PANEL Surge como respuesta al panorama estático que ofrecen las encuestas y pretende superar
esta dificultad a través de la repetición de mediciones normalizadas.
Se llama panel a toda sucesión de mediciones que se hacen en condiciones regulares y
que se aplica a determinar los valores de una variable, para un cierto objeto. Es una forma
de presentación secuencial de datos de cualquier tipo, que tiene la ventaja de
proporcionarnos información acerca de sus variaciones en el tiempo.
Es esencial que las mediciones se realicen siempre bajo las mismas condiciones,
empleando para todos los casos un mismo instrumento de recolección de datos. Esto
permite la exacta comparación de los resultados y posibilita hacer una análisis de
tendencias.
Mucha información económica se presenta de esta manera, ya que carece de sentido
hablar del PBI o de la tasa de inversión de un país o una región si no ubicamos estos
datos dentro de una perspectiva histórica.
También se utiliza para reflejar el crecimiento de la población urbana y rural, o la
aceptación de un candidato.
Un panel es algo así como una encuesta repetida: un mismo cuestionario que se
administra a una misma muestra para observar la evolución y las modificaciones de las
respuestas. Las encuestas deben realizarse en lapsos prefijados y regulares.
Una dificultad que presenta este diseño es lo que se denomina mortandad del panel, que
consiste en la progresiva reducción de la muestra por diversas causas: traslados, fatiga y
otros problemas. Al reducirse el número de entrevistados, el error muestral aumenta
progresivamente.
Otro problema es la saturación del panel, que consiste en una actitud de rechazo
progresivo por parte de los entrevistados. Después de ser sometida varias veces a las
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 147
mismas preguntas, la gente empieza a cansarse de ellas: surgen respuestas
estereotipadas, de mala voluntad, hay apresuramiento para responder y otros problemas
similares que aumentan sensiblemente los errores.
Para reducir el efecto de estos fenómenos, se puede reemplazar la muestra en parte, de
medición a medición. Para ello, debemos seleccionar un número determinado de sub -
muestras, lo más parecidas posibles en todos sus aspectos fundamentales. Estos
reemplazos reducen la mortandad del panel y eliminan todo efecto de saturación.
3.1.8. ESTUDIOS DE CASOS Es el estudio profundizado y exhaustivo de uno o muy pocos objetos de investigación, lo
que permite obtener un conocimiento amplio y detallado de los mismos. Se basa en la idea
de que, si estudiamos con atención cualquier unidad de un cierto universo, estaremos en
condiciones de conocer algunos aspectos generales del mismo; por lo menos, tendremos
una perspectiva, una reseña general que orientará una búsqueda posterior.
Así, si nuestro interés es conocer la estructura y funcionamiento de las universidades,
podemos partir del supuesto de que todos los objetos que pertenecen a la categoría
"universidad" tienen algunas características en común, que permiten ubicarlos dentro de
una categoría general. Si estudiamos una universidad cualquiera podremos, entonces,
reconocer esas líneas comunes o por lo menos obtener un punto de partida para ello.
Lógicamente, no estaremos a cubierto de la posibilidad de que la universidad elegida sea
un caso anormal dentro de su especie.
La mayor limitación de este tipo de investigación es la absoluta imposibilidad de
generalizar o extender a todo el universo los hallazgos obtenidos. Su principal ventaja es
su relativa simplicidad y economía.
La utilidad de los estudios de casos es mayor cuando se trata de investigaciones
exploratorias o para las fases iniciales de una investigación sobre temas más complejos,
para formular hipótesis o reconocer cuáles son las principales variables involucradas en un
problema. También los estudios de casos son recomendables cuando el verdadero interés
del investigador se centra en algunos pocos objetos de estudio: resulta obvio que conviene
estudiar los planetas del sistema solar o los ríos de una región como casos particulares.
Para seleccionar los casos de interés conviene seguir ciertos criterios:
• Buscar casos típicos: aquellos objetos que parecen ser la mejor expresión del tipo
ideal.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 148
• Seleccionar casos extremos. Así, podríamos considerar una universidad muy
antigua y otra de reciente creación. La ventaja de utilizar casos extremos reside en
que, de este modo, probablemente, podamos tener una idea de los límites dentro
de los cuales nuestras variables pueden oscilar.
• Tomar casos desviados o marginales: es una forma muy utilizada por la medicina y
la psiquiatría. Se trata de encontrar casos atípicos o anormales para, por contraste,
conocer las cualidades propias de los casos normales y las posibles causas de su
desviación.
3.1.9. EL DISEÑO CONCRETO DE LA INVESTIGACIÓN Lo importante no es conocer toda la lista de posibles diseños, sino apelar al razonamiento
lógico y a la experiencia para determinar, antes de recolectar los datos, qué información
nos proporcionará un determinado método y qué relevancia y confiabilidad puede
asignársele a la misma. Por ejemplo, un estudio que se hace sobre un solo caso puede
estar antecedido por toda una sección bibliográfica y recoger gran parte de los datos a
través de encuestas por muestreo, si el caso que se va a investigar es una institución o
comunidad que integran varios centenares de individuos; una encuesta puede ser
profundizada, en algunos aspectos de primordial interés, realizando estudios de casos
sobre una sub - muestra de la misma, a la vez que se podrá analizar con una secuencia
tipo panel; un experimento se puede repetir a intervalos sucesivos (panel), o quizás sea
necesario utilizar encuestas para medir las variables de un estudio post - facto en el
campo de lo social.
3.1.10. LA RESEÑA DE PROCEDIMIENTOS Y EL PROYECTO DE INVESTIGACIÓN Una vez seleccionado el diseño concreto que se va a utilizar en la investigación, se hace
necesario poner en claro las formas específicas que éste habrá de adoptar, definiendo las
operaciones concretas para llevarla a cabo. A esta actividad la denominamos reseña de procedimientos, y para realizarla es preciso detallar:
• Las variables que se deben medir y su relación con las otras variables que
intervienen.
• Los esquemas lógicos de comprobación y la interpretación que puede dárseles a
los diversos resultados posibles.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 149
• Los pasos necesarios para llevar a cabo el diseño de la investigación, ordenada y
explícitamente.
• Los recursos materiales y humanos necesarios.
• Cualquier otro elemento de importancia para la demarcación de tareas:
cronograma, presupuesto, lista de actividades y materiales, formas de registro, etc.
La reseña de procedimientos debe ser completada, para mayor claridad, con un esquema de presentación de la investigación, que será previo y provisional. Este esquema tiene
por objeto proporcionar una visión general de cómo va a resultar, en conjunto, nuestro
trabajo, lo que nos servirá de orientación acerca de sus posibles omisiones, incoherencias
y contradicciones. Debe constar, cuando existen datos que se van a procesar
estadísticamente, el plan de cuadros que se presentarán y, en todos los casos, del
esquema de capítulos o partes que se desarrollarán en el contenido del trabajo.
Estos esquemas son tentativos y, por lo tanto, están sujetos a una cantidad de revisiones
posteriores. Lo importante no es elaborar el plan perfecto, sino poseer de antemano una
guía que haga posible una actividad más organizada.
Estas tareas pueden desarrollarse antes o después de encarar la operacionalización, pero
es fundamental que estén concluidas antes de abordar la recolección de datos, ya que de
otro modo trabaremos a ciegas durante toda esta etapa.
El proyecto de investigación es un documento que elabora el investigador para
especificar las características de la indagación que va a realizar. Generalmente va
antecedido de un anteproyecto, un documento similar pero menos preciso que se elabora
al comenzar la investigación, apenas se hayan definido sus características principales.
En un anteproyecto deben exponerse las características del problema, su justificación, los
objetivos de la investigación y (si las hubiere) las hipótesis a verificar. En un proyecto es
preciso completar mucho más la información, profundizando y definiendo mejor lo tratado
en el anteproyecto y agregándole lo relativo al diseño de la investigación, así como un
marco teórico que haga comprensible el sentido de lo que se proyecta.
3.1.11. REFERENCIAS o Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed.
Lumen - Humanitas.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 150
3.2. LAS HIPÓTESIS
Podemos definir la hipótesis como un intento de explicación o una respuesta "provisional"
a un fenómeno. Su función consiste en delimitar el problema que se va a investigar según
algunos elementos tales como el tiempo, el lugar, las características de los sujetos, etc.
Llegar a comprobar o rechazar la hipótesis que se ha elaborado previamente,
confrontando su enunciado teórico con los hechos empíricos, es el objetivo primordial de
todo estudio que pretenda explicar algún campo de la realidad.
Para plantear una hipótesis adecuada, debemos tener en cuenta los siguientes puntos:
1. Los términos que se empleen deben ser claros y concretos para poder definirlos de
manera operacional, a fin de que cualquier investigador que quiera replicar la
investigación, pueda hacerlo.
Una hipótesis sin referencia empírica constituye un juicio de valor.
Si una hipótesis no puede ser sometida a verificación empírica, desde el punto de
vista científico no tiene validez.
2. Las hipótesis deben ser objetivas y no llevar algún juicio de valor; es decir, no debe
definirse el fenómeno con adjetivos tales como "mejor" o "peor", sino solamente tal
y como pensamos que sucede en la realidad.
3. Las hipótesis deben ser específicas, no sólo en cuanto al problema, sino a los
indicadores que se van a emplear para medir las variables que estamos estudiando.
4. Las hipótesis deben estar relacionadas con los recursos y las técnicas disponibles.
Esto quiere decir que cuando el investigador formule su hipótesis debe saber si los
recursos que posee son adecuados para la comprobación de la misma.
5. La hipótesis debe estar directamente relacionada con el marco teórico de la
investigación y derivarse de él.
Las hipótesis deben ser producto de la observación objetiva y su comprobación, estar al
alcance del investigador.
3.2.1. REQUISITOS DE LAS HIPÓTESIS: Las hipótesis deben:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 151
• Establecer las variables a estudiar, es decir, especificar las variables a estudiar,
fijarles límite.
• Establecer relaciones entre variables, es decir, la hipótesis debe ser especificada
de tal manera que sirva de base a inferencias que nos ayuden a decidir si explica o
no los fenómenos observados. Las hipótesis deben establecer relaciones
cuantitativas entre variables.
• Mantener la consistencia entre hechos e hipótesis, ya que éstas se cimentan, al
menos en parte, sobre hechos ya conocidos. Por tanto, las hipótesis no deben
establecer implicaciones contradictorias o inconsistentes con lo ya verificado en
forma objetiva.
3.2.2. TIPOS DE HIPÓTESIS • Hipótesis nula. Para todo tipo de investigación en la que tenemos dos o más
grupos, se establecerá una hipótesis nula.
La hipótesis nula es aquella que nos dice que no existen diferencias
significativas entre los grupos.
Por ejemplo, supongamos que un investigador cree que si un grupo de
jóvenes se somete a un entrenamiento intensivo de natación, éstos serán
mejores nadadores que aquellos que no recibieron entrenamiento. Para
demostrar su hipótesis toma al azar una muestra de jóvenes, y también al
azar los distribuye en dos grupos: uno que llamaremos experimental, el cual
recibirá entrenamiento, y otro que no recibirá entrenamiento alguno, al que
llamaremos control. La hipótesis nula señalará que no hay diferencia en el
desempeño de la natación entre el grupo de jóvenes que recibió el
entrenamiento y el que no lo recibió.
Una hipótesis nula es importante por varias razones:
1. Es una hipótesis que se acepta o se rechaza según el resultado de la investigación.
2. El hecho de contar con una hipótesis nula ayuda a determinar si existe una
diferencia entre los grupos, si esta diferencia es significativa, y si no se debió al
azar.
No toda investigación precisa de formular hipótesis nula. Recordemos que la
hipótesis nula es aquella por la cual indicamos que la información a obtener
es contraria a la hipótesis de trabajo.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 152
Al formular esta hipótesis, se pretende negar la variable independiente. Es
decir, se enuncia que la causa determinada como origen del problema
fluctúa, por tanto, debe rechazarse como tal.
Otro ejemplo:
Hipótesis: el aprendizaje de los niños se relaciona directamente con su edad.
Hipótesis nula: no existe diferencia significativa entre el aprendizaje en niños
de diversas edades.
• Hipótesis conceptual. Es la hipótesis que se formula como resultado de las
explicaciones teóricas aplicables a nuestro problema. Nos ayuda a explicar desde el
punto de vista teórico el fenómeno que estamos investigando.
Es la hipótesis orientadora de la investigación, intenta enfocar el problema
como base para la búsqueda de datos. No puede abarcar más de lo
propuesto en los objetivos de la investigación o estar en desacuerdo con
ellos.
Podemos enunciarla como una relación causal o determinante proveniente
del planteamiento del problema, de donde se desprenden las variables.
• Hipótesis de trabajo. Es aquella que le sirve al investigador como base de su
investigación, o sea, trata de dar una explicación tentativa al fenómeno que se está
investigando. Ésta es la hipótesis que el investigador tratará de aceptar como
resultado de su investigación, rechazando la hipótesis nula.
Se dice que la hipótesis de trabajo es operacional por presentar
cuantitativamente (en términos medibles) la hipótesis conceptual o general.
• Hipótesis alternativa. Al responder a un problema, es muy conveniente proponer
otras hipótesis en que aparezcan variables independientes distintas de las primeras
que formulamos. Por tanto, para no perder tiempo en búsquedas inútiles, es
necesario hallar diferentes hipótesis alternativas como respuesta a un mismo
problema y elegir entre ellas cuáles y en qué orden vamos a tratar su
comprobación.
Las hipótesis, naturalmente, serán diferentes según el tipo de investigación que se esté
realizando. En los estudios exploratorios, a veces, el objetivo de la investigación podrá ser
simplemente el de obtener los mínimos conocimientos que permitan formular una
hipótesis. También es aceptable que, en este caso, resulten poco precisas, como cuando
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 153
afirmamos que "existe algún tipo de problema social en tal grupo", o que los planetas
poseen algún tipo de atmósfera, sin especificar de qué elementos está compuesta.
Los trabajos de índole descriptiva generalmente presentan hipótesis del tipo "todos los X
poseen, en alguna medida, las característica Y". Por ejemplo, podemos decir que todas
las naciones poseen algún comercio internacional, y dedicarnos a describir, cuantificando,
las relaciones comerciales entre ellas. También podemos hacer afirmaciones del tipo "X
pertenece al tipo Y", como cuando decimos que una tecnología es capital - intensiva. En
estos casos, describimos, clasificándolo, el objeto de nuestro interés, incluyéndolo en un
tipo ideal complejo de orden superior.
Por último, podemos construir hipótesis del tipo "X produce (o afecta) a Y", donde
estaremos en presencia de una relación entre variables.
Sólo en los casos de investigaciones explicativas es necesario formular claramente cuáles son las hipótesis de la investigación. En las investigaciones descriptivas y, con
más razón, en las exploratorias, es posible omitir las hipótesis, ya sea porque éstas son
tan amplias y poco definidas que dicen muy poco a quien lee el informe de investigación, o
porque no es posible o necesario verificarlas. 3.2.3. DIFICULTADES PARA LA FORMULACIÓN DE HIPÓTESIS
• Falta de conocimientos o ausencia de claridad en el marco teórico.
• Falta de aptitud para la utilización lógica del marco teórico.
• Desconocimiento de las técnicas adecuadas de investigación para redactar
hipótesis en debida forma.
3.2.4. UTILIDAD DE LAS HIPÓTESIS El uso y formulación correcta de las hipótesis le permiten al investigador poner a prueba
aspectos de la realidad, disminuyendo la distorsión que pudieran producir sus propios
deseos o gustos. Pueden ser sometidas a prueba y demostrarse como probablemente
correctas o incorrectas sin que interfieran los valores o creencias del individuo.
3.2.5. ESTRUCTURA DE LAS HIPÓTESIS Una hipótesis generalmente se especifica por la estructura SI - ENTONCES (cuando
intervienen dos variables).
Cuando las variables son más de dos, las estructuras más frecuentes son:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 154
• Si P, entonces Q, bajo las condiciones R y S.
• Si P1, P2 y P3, entonces Q.
3.2.6. REFERENCIAS o Tenorio Bahena, Jorge. INVESTIGACIÓN DOCUMENTAL. 3ª ed. México (1988).
Ed. Mac Graw - Hill.
o Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS SOCIALES.
5ª ed. México (1994). Ed. Trillas S.A.
o Tamayo y Tamayo, Mario. EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA. 3ª
ed. México (1998). Ed. Limusa S.A.
o Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed.
Lumen - Humanitas.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 155
<
3.3. LAS VARIABLES
Se pueden definir como todo aquello que vamos a medir, controlar y estudiar en una
investigación o estudio. Por lo tanto, es importante, antes de iniciar una investigación, que
sepamos cuáles son las variables que vamos a medir y la manera en que lo haremos. Es
decir, las variables deben ser susceptibles de medición. Variable es todo aquello que
puede asumir diferentes valores, desde el punto de vista cuantitativo o cualitativo. Las
variables pueden ser definidas conceptual y operacionalmente. La definición conceptual es
de índole teórica, mientras que la operacional nos da las bases de medición y la definición
de los indicadores.
Para definir las variables, nos podemos basar en los indicadores, que constituyen el
conjunto de actividades o características propias de un concepto. Por ejemplo, si
hablamos de inteligencia, podemos decir que está compuesta por una serie de factores
como la capacidad verbal, capacidad de abstracción, etc.
Cada factor puede ser medido a través de indicadores. En otras palabras, los indicadores
son algo específico y concreto que representan algo más abstracto o difícil de precisar. No
todos los indicadores tienen el mismo valor. Es decir, aunque haya varios indicadores para
un mismo fenómeno, habrá algunos más importantes que otros, y por lo general cualquier
indicador que se tenga está basado en una probabilidad de que realmente represente al
fenómeno.
3.3.1. ALGUNOS CRITERIOS PARA ESCOGER LOS INDICADORES • Se debe tener el menor número de indicadores de una variable, siempre y cuando
éstos sean realmente representativos de la misma.
• Se deben poseer formas de medición específicas para cada indicador.
• Hay que tener en cuenta que los indicadores sólo poseen una relación de
probabilidad con respecto a la variable.
3.3.2. VARIABLE INDEPENDIENTE Y VARIABLE DEPENDIENTE La variable independiente es aquella propiedad de un fenómeno a la que se le va a
evaluar su capacidad para influir, incidir o afectar a otras variables.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 156
La variable independiente por manipulación es la que el investigador aplica según su
criterio, se hace en estudios de carácter experimental. Todo aquello que el experimentador
manipula, debido a que cree que existe una relación entre ésta y la variable dependiente.
La variable independiente asignada o seleccionada es la que el investigador no puede
modificar, pero se desea saber si influye sobre la variable dependiente. No son
manipulables.
La variable dependiente puede ser definida como los cambios sufridos por los sujetos
como consecuencia de la manipulación de la variable independiente por parte del
experimentador.
3.3.3. VARIABLE INTER Y VARIABLE INTRA Las variables inter son aquellas que estudian simultáneamente varios grupos de
sujetos.Las comparaciones se establecen entre (inter) los grupos.
Las variables intra son aquellas que pueden estudiar al mismo grupo en diferentes
períodos. O sea, las comparaciones se establecen dentro de un mismo grupo.
3.3.4. VARIABLES EXTRAÑAS Son todas aquellas variables que el investigador no controla directamente, pero que
pueden influir en el resultado de su investigación. Deben ser controladas, hasta donde sea
posible, para asegurarnos de que los resultados se deben al manejo que el investigador
hace de la variable independiente, más no a variables extrañas, no controladas. Algunos
métodos para realizar este control son los siguientes:
3.3.4.1. ELIMINACIÓN. Cuando sabemos que existe una variable extraña que puede alterar los resultados de la
investigación, podemos controlarla mediante la eliminación.
3.3.4.2. CONSTANCIA DE CONDICIONES Si, por ejemplo, en un estudio experimental deseamos estudiar dos o más grupos de
sujetos, éstos se deben someter exactamente a las mismas condiciones, tanto físicas
como de lugar, manteniendo, de esta manera, constantes las circunstancias bajo las
cuales se investiga.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 157
3.3.4.3. BALANCEO Cuando tenemos una variable extraña puede influir de manera definitiva en nuestro
estudio y, si no la podemos eliminar ni igualar las condiciones de los grupos, deberemos
recurrir al balanceo. Este mecanismo distribuye en forma equitativa la presencia de la
variable extraña entre los grupos.
3.3.4.4. CONTRABALANCEO En algunas investigaciones se pide a los sujetos que respondan varias veces a un mismo
estímulo o a varios estímulos diferentes. Esta serie de respuestas puede provocar en los
mismos dos reacciones: por un lado, fatiga, porque los sujetos se cansan de estar
respondiendo; por otro lado, aprendizaje, ya que después de presentar 2 o 3 veces el
mismo estímulo el sujeto ya sabe cómo responder. Para evitar estos problemas, los
grupos se pueden subdividir en subgrupos para que los efectos de la fatiga y/o aprendizaje
queden anulados.
3.3.4.5. ALEATORIZACIÓN Este método de control es uno de los más sencillos y más utilizados en ciencias sociales,
sobre todo cuando se llevan a cabo estudios experimentales. Se parte del postulado de
que si la selección y distribución de sujetos en grupos de control fue hecha al azar,
podemos inferir que las variables extrañas, desconocidas por el investigador, se habrán
repartido también al azar en ambos grupos, y así quedarán igualadas.
3.3.5. VARIABLES CONTINUAS Y VARIABLES DISCRETAS. Una variable continua es aquella que puede asumir cualquier valor numérico y que puede
cambiar en cualquier cantidad. Una variable discreta es aquella que tiene valores
numéricos enteros previamente establecidos, los cuales no pueden cambiarse
arbitrariamente
3.3.6. CAUSALIDAD Al hablar de variables independientes y dependientes, debemos tener cuidado de no caer
en el error de afirmar que la variable dependiente es causada por la variable
independiente. A este tipo de conclusiones se puede llegar en muy contadas situaciones.
En ciencias sociales, es conveniente hablar de relaciones entre variables, y no de causas.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 158
3.3.7. REFERENCIAS o Susan Pick y Ana Luisa López -CÓMO INVESTIGAR EN CIENCIAS SOCIALES -
Ed. Trillas - 1998
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 159
3.4. LA VARIABLE
Una vez que alcanzamos un conocimiento relativamente amplio del tema que se va a
investigar, debemos dedicarnos a aislar, dentro del problema, los factores más
importantes que en él intervienen. Por ejemplo: si se trata de un problema de
comercialización, los aspectos fundamentales que deberemos estudiar serán la oferta y la
demanda, las motivaciones del consumidor, la distribución, la publicidad y otros factores
semejantes. Gracias a estos factores, estaremos en condiciones de construir el marco
teórico dentro del que se inserta el fenómeno de nuestro interés.
En aquellos casos en que sea posible llegar a un grado de aislamiento de los factores
involucrados en el problema, resulta útil realizar un esquema de variables que nos
permitirá organizar mejor nuestro marco teórico. Una variable es cualquier característica o
cualidad de la realidad que es susceptible de asumir diferentes valores, ya sea cuantitativa
o cualitativamente.
Es decir, que puede variar. Aunque para un objeto determinado pueda tener un valor fijo.
Por ejemplo: una mesa; no puede ser, en sí, una variable. Pero, si nos referimos a la altura
de una mesa, estamos en presencia de una variable. O sea, que esa cualidad de la mesa
(la altura) puede asumir diferentes valores. No quiere decir que la altura de una mesa
determinada deba variar, sino que el concepto genérico "altura de una mesa" puede variar
de un caso a otro.
Las variaciones puede también producirse para un mismo objeto, y no sólo entre
diferentes objetos. Por ejemplo: el caudal de un río.
También podemos decir que una variable es todo aquello que vamos a medir, controlar y
estudiar en una investigación o estudio. Las variables pueden ser definidas conceptual y
operacionalmente.
3.4.1. CLASES DE VARIABLES • Cualitativas. Sobre ellas no se construye una serie numérica. Por ejemplo: colores.
• Cuantitativas. Admiten una escala numérica de medición.
Todos los valores que llega a tener una variable pueden entenderse como una serie, una
sucesión más o menos ordenada de posibilidades:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 160
• Continuas. Cuando entre uno y otro valor existen infinitas posibilidades
intermedias. Por ejemplo: la altura de una persona, el peso de un objeto, el
rendimiento de un estudiante.
• Discretas. Cuando estas posiciones intermedias carecen de sentido, pues la
variable se modifica de "a saltos" entre un valor y otro, y no en forma paulatina. Por
ejemplo: la cantidad de hijos que puede tener una persona, el número de países
que intervienen en una conferencia. Sin embargo, sí tiene sentido, y se emplea
usualmente, calcular promedios sobre estas variables.
• Un caso particular de las variables discretas, es la variable dicotómica, que es
aquella que sólo admite dos posibilidades: muerto/vivo; hombre/mujer.
Otra clasificación:
• Categóricas. Tienen la característica de que todos los miembros de una categoría
se consideran iguales en lo que se refiere a esa variable. Por ejemplo: las mujeres. • Medidas. Se pueden asignar numerales a las personas u objetos en base a que
poseen cantidades de alguna característica o propiedad. • Experimentales o manipuladas. Cuando los investigadores establecen
condiciones experimentales, crean o producen variables.
3.4.2. VARIABLES Y DIMENSIONES En la práctica, muchas de las características que nos interesan estudiar no son tan
simples... Resulta muy sencillo medir y comparar la variable "cantidad de hijos que posee
una persona", pero nos enfrentamos con una dificultad mayor si pretendemos conocer el
"rendimiento de un estudiante".
Cuando nos hallamos frente a variables complejas que resumen o integran una
multiplicidad de aspectos diversos, debemos recurrir a subdividir o descomponer la
variable en cualidades más simples y fáciles de medir. A estas sub - cualidades que en
conjunto integran la variable se las denomina dimensiones de la misma.
Dimensión: es un componente significativo de una variable, que posee una relativa
autonomía. Así, el patriarcalismo de una sociedad es una síntesis de un cierto tipo de
organización familiar, determinados valores individuales y pautas definidas de
organización económica.
Un ejemplo más simple: el tamaño de un objeto está determinado por su altura, largo y
ancho.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 161
Cuando hablamos de "relativa autonomía", hacemos referencia a que las dimensiones
pueden presentar diferentes valores unas de otras, pero siempre dentro de ciertos límites
de congruencia. Si el largo de un objeto se modificara al variar su altura, no estaríamos en
presencia de dos dimensiones de una misma variable, sino frente a dos variables
diferentes, una de las cuales influye sobre la otra.
Una misma cualidad puede considerarse como una variable en sí o como una dimensión
de una variable mayor, según el enfoque y los propósitos que guíen cada investigación,
pues se trata de definiciones de carácter instrumental que el científico realiza de acuerdo
con la naturaleza del problema planteado.
Si nos interesa conocer y distinguir a las personas de acuerdo a su nivel socio -
económico, podemos descomponer esta variable en dos dimensiones: el nivel social y el
nivel económico. pero, si estamos estudiando el ingreso de las familias, debemos manejar
el concepto "nivel económico" como una variable en sí y nos veremos en la necesidad de
descomponerla en algunas de las dimensiones que la integran.
Una calidad intervienen como variable en una investigación cuando nos es útil relacionarla
como un todo con otra u otras variables. En cambio, debemos tomarla sólo como una
dimensión cuando su sentido como cualidad aislada sea poco significante y deba
agruparse con otras cualidades para poder ser relevante.
Cada una de las variables y dimensiones que hemos aislado debe ser definida con la
mayor rigurosidad posible, asignándole un sentido unívoco y claro para evitar que se
originen ambigüedades, distorsiones e innecesarias discusiones sobre la terminología.
3.4.3. RELACIONES ENTRE VARIABLES Luego de haber precisado los factores que intervienen en un problema, de haberlos
definido y analizado hasta determinar el tipo de condicionamiento que los une, habremos
obtenido un conjunto de variables relacionadas entre sí de una cierta manera. Debemos
entonces organizar estas relaciones observadas de modo tal que podamos construir un
esquema coherente que exprese el cuadro general del problema.
Una variable independiente es aquella que, dentro de la relación establecida, no
depende de ninguna otra, aunque pudiera estar dependiente si estudiáramos otro
problema. Son las condiciones manipuladas por el investigador a fin de producir ciertos
efectos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 162
Una variable dependiente es aquella cuyos valores dependen de los que asuma otra
variable. Por ejemplo, si el investigador sostiene la hipótesis de que si administra una
determinada droga a un grupo de niños, el grado de aprendizaje de éstos se incrementará.
En este caso, la variable independiente estará representada por la droga manipulada por
el experimentador, y la variable dependiente será el grado de aprendizaje de los niños.
Una variable es interviniente cuando resulta un factor que interviene entre dos variables
modificando o alterando con su propio contenido las relaciones que existen entre esos dos
elementos. Por ejemplo:
• Variable A: alimentación que se recibe en la infancia (variable independiente).
• Variable B: nivel de inteligencia posterior de la persona (variable dependiente).
• Variable C: nivel socio - económico (variable interviniente que influye a A).
Conviene analizar si la variable interviniente aparece a partir de la variable independiente,
es decir, es posterior a ella y con anterioridad a la variable independiente, o si actúa como
factor concerniente en la relación de variables.
Es normal que una variable no sólo afecte a otra más, sino a varias simultáneamente, así
como que una variable dependiente sea influida por dos, tres o más variables
independientes.
Además de estas tres posiciones básicas que las variables pueden adoptar al relacionarse
entre sí, existe una cuarta posibilidad que se refiere a las dos características del universo
que ejercen una influencia de tipo difuso y general sobre todo el conjunto de los hechos
considerados. Las variables contextuales indican el ámbito general donde se desarrollan
los fenómenos que se estudian. Por ejemplo: los valores presentes en una sociedad, el
tipo de estructura económica.
La variable antecedente es la que se supone como "antecedente" de otra. Ejemplo: para
realizar el aprendizaje se supone un grado mínimo de inteligencia. Por lo tanto, la variable
inteligencia es antecedente de la variable aprendizaje.
Cuando existe una variable independiente no relacionada con el propósito del estudio,
pero que puede presentar efectos sobre la variable dependiente, tenemos una variable extraña. Por tal razón, un estudio bien diseñado es aquel que nos asegura que el efecto
sobre la variable dependiente sólo puede atribuirse a la variable independiente y no a
variables extrañas. Ejemplo: si deseamos evaluar el efecto de determinado método de
enseñanza, podemos considerar que la inteligencia es una variable extraña.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 163
Otro ejemplo: si parte de la investigación consiste en la aplicación de pruebas
psicológicas, y en el momento de la aplicación hay mucho ruido o se corta la luz, estas
alteraciones pueden considerarse como variables extrañas.
3.4.4. REFERENCIAS o Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed.
Lumen - Humanitas.
o Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS SOCIALES.
5ª ed. México (1994). Ed. Trillas S.A.
o Tamayo y Tamayo, Mario. EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA. 3ª
ed. México (1998). Ed. Limusa S.A.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 164
3.5. EL PROBLEMA DE LA CAUSALIDAD
Una de las mayores preocupaciones de todo científico se refiere a las causas que originan
los fenómenos. Encontrar las causas, las razones que producen determinados hechos es
encontrar una explicación para los mismos. La relación causal o relación causa-efecto se
presenta en las ciencias naturales. Así, por ejemplo, siempre que un trozo de hierro (a
presión atmosférica) alcanza los 1.535 º C, se funde, y siempre que se funde es que ha
alcanzado esa temperatura.
En el área de las ciencias humanas, los fenómenos ocurren en un marco muy complejo de
variables interrelacionadas de tal modo que, al acontecer el fenómeno en estudio, no sólo
percibimos la presencia de una, dos o tres variables, sino de una multiplicidad de ellas,
que a su vez que modifican en influencia entre sí.
Muchas veces se habla del carácter histórico, irrepetible, de todos los acontecimientos
humanos, pretendiendo que es imposible abstraer, a partir de ellos, leyes generales. Éste
es un argumento poco sólido pues, en esencia, los hechos físicos son también irrepetibles.
Si fundimos una barra de hierro, ese hecho, en sí mismo, es también único, ya que
podemos volver a hacer esa misma operación con otro trozo de metal o con el mismo
trozo después de un tiempo, pero se tratará de hechos muy similares, casi idénticos, pero
nunca el mismo hecho.
En cada operación en que se repite un experimento, el investigador puede regular con
relativa precisión el comportamiento de muchas variables que podrían intervenir: controla
la presión, la composición química del material que va a fundir y de la atmósfera en que se
encuentra, el tamaño del objeto, etc. Este tipo de control, que consiste en aislar el
fenómeno de la influencia de los muchos factores que no nos interesan como posibles
causas, es lo que es prácticamente imposible de realizar en el campo de lo social.
Si dijéramos que las depresiones se producen cada vez que la oferta de bienes y servicios
excede a la demanda en una cierta proporción, encontraríamos que esta relación no
puede adoptar la forma cerrada de un modelo causal. Si bien es cierto que ambas
variables están estrechamente ligadas dentro de una economía de libre mercado, no
podemos negar que existen muchas otras influencias y circunstancias que inciden
directamente: el tipo de control que puede ejercer el Estado sobre la economía, la tasa de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 165
inversión, el tipo de tecnología empleado, factores psicosociales, políticos, etc. son
variables capaces de estimular, reducir, desencadenar o impedir ese fenómeno, según su
peso relativo.
Por esto, la relación de causa ha sido suplantada por el concepto más abierto de
determinación. Decir que A determina a B significa tan sólo expresar que ejerce una
influencia, que es capaz de alterar o modificar el comportamiento de B. No diríamos así
que A es causa de B - por cuanto B puede estar determinado además por muchos otros
elementos -, sino que A lo determina en alguna medida que es preciso evaluar.
Decir que el subdesarrollo es la causa de los cinturones de miseria que se forman
alrededor de muchas ciudades latinoamericanas, resulta una aseveración excesivamente
terminante, dado que "subdesarrollo" es una categoría demasiado amplia. Proponer, en
cambio, que esas áreas "marginales" tienen cierta correlación con una determinada forma
de industrialización, con migraciones interiores y con problemas de tipo cultural - por
ejemplo - es introducir un enfoque más rico y matizado del problema.
3.5.1. TIPOS DE DETERMINACIÓN • Condiciones necesarias: son aquellas sin las cuales es imposible que ocurra un
determinado fenómeno, aunque esto no quiere decir que cada vez que se
encuentre ocurra el fenómeno. Por ejemplo, para que en un país se produzca un
golpe militar es condición necesaria que exista un ejército organizado. Pero esto no
quiere decir que, habiendo un ejército organizado, esto provoque un golpe militar. • Condiciones suficientes: se refieren a circunstancias que, siempre que aparecen,
desencadenan el fenómeno en estudio, aunque no es necesario que ellas estén
presentes para producirlo. Por ejemplo, es condición suficiente para producir la
muerte, que se paralice durante un cierto período el funcionamiento del corazón,
pero el deceso de una persona puede producirse por muchas otras razones. • Condiciones contribuyentes: son aquellas que favorecen de una manera decisiva
el suceso investigado y que generalmente suelen producirlo, aunque no alcancen
un determinismo que pueda considerarse como necesario o suficiente. Por ejemplo:
tanto el riego como la radiación solar contribuyen al crecimiento de los vegetales,
pero lo hacen de modo diverso según la especie considerada. • Condiciones contingentes: son circunstancias que, pudiendo favorecer la
ocurrencia del hecho estudiado, se presentan sólo eventualmente, pudiendo estar
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 166
por completo ausentes en la mayoría de los casos. El embargo petrolero decretado
por los países árabes en 1973 fue una contingencia que redujo la oferta de ese
producto, promoviendo un aumento notable de los precios, pero la disminución en
la oferta de los bienes se produce normalmente por muchas otras circunstancias.
Solamente en aquellos casos en que se pueda sostener que una condición es a la vez
necesaria y suficientes, podemos decir que estamos en presencia de la causa de un
hecho. Es decir, C es la causa de F cuando siempre que se presenta C, aparece F, y cada
vez que ocurre F es que está presente C.
3.5.2. REFERENCIAS o Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed.
Lumen - Humanitas.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 167
3.6. INDICADORES E ÍNDICES
Supongamos que estamos interesados en conocer si existen o no prejuicios raciales
dentro de una población. Para ello, naturalmente, deberíamos medir u observar, de algún
modo, la presencia de dichos prejuicios. Pero los prejuicios no son objetos que puedan
verse directamente, que puedan medirse como otros hechos del mundo físico: sólo
podemos conocerlos a través del modo en que se expresan o manifiestan en situaciones
determinadas, a través de hechos o acciones que podemos interpretar como originados en
los prejuicios raciales.
Estos hechos que se corresponden con los conceptos teóricos que nos interesan
(correlatos empíricos), son los indicadores de las variables que intentamos medir: sus
expresiones concretas, prácticas, medibles. El proceso de encontrar los indicadores que
permiten conocer el comportamiento de las variables es lo que llamamos
operacionalización.
En nuestro ejemplo, los indicadores de los prejuicios raciales serán la existencia o no de
matrimonios interraciales, la distribución de los empleos entre personas de las diferentes
comunidades étnicas, las restricciones al uso de elementos comunitarios, las actitudes que
se expresan en el trato cotidiano, giros o formas empleados en el lenguaje coloquial y en
los medios de comunicación, etc. Como a veces no es posible incorporar a una
investigación todos los indicadores posibles de una determinada variable, será necesario
elegir aquellos que más directamente reflejen el concepto que nos interesa y que - por otra
parte - resulten más accesibles a los medios de que disponemos para medirlos.
Para operacionalizar una variable, es necesario partir de la definición teórica que ya se ha
elaborado y, si se trata de una variable compleja, de las dimensiones en que puede
descomponerse la misma. Luego, revisando los datos ya disponibles y analizando los
conceptos en profundidad, podremos encontrar cierto conjunto de indicadores que - en
principio - expresen consistentemente el comportamiento de la variable estudiada, con lo
que habremos llegado a la definición operacional de la misma.
Así, la definición teórica de las migraciones dice que éstas son los desplazamientos
permanentes de la población, pero la definición operacional de ese concepto debiera
hacer referencia, más concretamente, a los saldos netos de las diferencias intercensales
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 168
descontado el crecimiento vegetativo. Se trata de la misma idea, pero presentada ahora
de una forma operacional que permite encontrar rápidamente los datos empíricos
correspondientes.
La tarea de búsqueda y selección de indicadores es una tarea delicada, que exige mucho
cuidado y que requiere experiencia suficiente. Sucede a veces que existen muchos
indicadores posibles para una misma variable y resulta difícil encontrar cuáles son los más
apropiados para describirla. En otros casos, los indicadores encontrados no son fáciles de
medir y deben ser suplantados por otros menos confiables pero más asequibles a los
medios disponibles por el investigador. En otras ocasiones, algunos de los indicadores
sugeridos no miden exactamente la variable sino algún aspecto conexo o colateral, que en
realidad posee menor relevancia.
Para actuar adecuadamente frente a esta tarea, que es eminentemente práctica, se
requiere de una aguda intuición y, más que nada, de sólidos conocimientos sobre el tema
investigado. De otro modo, se corre el grave riesgo de realizar una selección subjetiva,
con lo que puede invalidarse gran parte del trabajo teórico previo.
Del mismo modo que las variables son susceptibles de ser operacionalizadas, a través de
los indicadores correspondientes, las hipótesis elaboradas teóricamente como relaciones
entre variables pueden también sufrir el mismo proceso. Para ello, se operacionalizan
cada una de las variables que intervienen en la hipótesis, definiendo sus indicadores.
Luego se procede a relacionar las definiciones operacionales de las variables entre sí, del
mismo modo en que se hacía al formular la hipótesis general o teórica. Así se obtiene una
hipótesis operacional, que puede ser directamente probada o refutada en la práctica.
3.6.1. CRITERIOS A CONSIDERAR PARA EL USO DE INDICADORES: 1. Se debe tener el menor número de indicadores de una variable, siempre y cuando
éstos sean realmente representativos de la misma.
2. Se deben poseer formas de medición específicas para cada indicador.
3. Cada indicador posee sólo una relación de probabilidad con respecto a la variable,
ya que en ciencias sociales es muy difícil saber con certeza cuándo un indicador
representa una variable.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 169
3.6.2. ESCALAS DE MEDICIÓN La idea de medición, de medida, es intrínsecamente comparativa. Medir algo, en el caso
más sencillo, es determinar cuántas veces una cierta unidad o patrón de medida cabe en
el objeto medido. Para medir la longitud de un objeto físico, desplazamos una regla
graduada sobre el mismo, observando cuántas unidades (en este caso, centímetros o
metros) abarca ese objeto. Es decir, comparamos el objeto con nuestro patrón de
medición para determinar cuántas unidades y fracciones del mismo incluye.
La medición de variables no físicas resulta, en esencia, un proceso idéntico al anterior. La
dificultad reside en que las variables de este tipo no pueden medirse con escalas tan
sencillas como las lineales y en que, por otra parte, no existen para su comparación
patrones de medida universalmente definidos y aceptados. Si deseamos medir el peso de
un objeto, podremos expresar el valor del mismo en kilogramos o libras. En cambio, para
medir el grado de autoritarismo de un dirigente, no existe ni una unidad ni una escala
generalmente reconocidas, por lo que el investigador se ve obligado a elegir alguna escala
de las que se han utilizado en otros trabajos o a construir una adaptada a sus necesidades
específicas.
Por esta razón, medir un concepto complejo implica realizar una serie de operaciones que
no se hacen en el caso de variables como el peso o la longitud; será necesario definir las
dimensiones que integran las variables, encontrar diversos indicadores que la reflejen y
construir luego una escala apropiada para el caso.
Puede decirse que una escala es un continuo de valores ordenados correlativamente, que
admite un punto inicial y otro final. Si evaluamos el rendimiento académico de estudiantes,
podemos asignar el valor cero al mínimo rendimiento imaginable al respecto. Al mayor
rendimiento posible podemos atribuirle un valor 100, 20, 10 o 7 puntos, según resulte más
práctico. Con estos dos valores tendríamos ya marcados los límites de nuestra escala.
Para concluir de confeccionarla, será necesario asignar a los posibles rendimientos
intermedios puntajes también intermedios. Con ello obtendremos una escala capaz de
medir la variable rendimiento académico a través de los indicadores concretos de los
trabajos presentados por los estudiantes, de sus exámenes, pruebas y otras formas de
evaluación posibles.
Para que una escala pueda considerarse como capaz de aportar información objetiva,
debe reunir los siguientes requisitos básicos:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 170
• Confiabilidad. Se refiere a la consistencia interior de la misma, a su capacidad
para discriminar entre un valor y otro. Cabe confiar en una escala cuando produzca
constantemente los mismos resultados al aplicarla a una misma muestra, es decir,
cuando siempre los mismos objetos aparezcan valorados en la misma forma. • Validez. Indica la capacidad de la escala para medir las cualidades para las cuales
ha sido construida y no otras parecidas. Una escala confusa no puede tener
validez; tampoco una escala que esté midiendo, a la vez e indiscriminadamente,
distintas variables superpuestas. Una escala tiene validez cuando verdaderamente
mide lo que afirma medir.
3.6.3. CLASES DE ESCALAS
• Escalas nominales. Son aquellas en que sólo se manifiesta una equivalencia de
categorías entre los diferentes puntos que asume la variable. Es como una simple
lista de las diferentes posiciones que puede adoptar la variable, pero sin que en ella
se defina algún tipo de orden o relación. Si en una investigación sobre producción
agrícola queremos determinar los cereales que se cultivan en una cierta región,
tendremos una variable que se designará como "cereal cultivado". Los distintos
valores que esa variable reconoce serán: trigo, maíz, centeno, etc. Entre estos
valores, no cabe obviamente ninguna jerarquía, no se puede trazar ningún
ordenamiento. Sin embargo, a la enunciación explícita de todas esas posibilidades
la consideramos como una escala, pues de algún modo es útil para medir el
comportamiento de la variable, indicándonos en qué posición se halla en cada caso. • Escalas ordinales. Distinguen los diferentes valores de la variable jerarquizándolos
simplemente de acuerdo con un rango. Establecen que existe una gradación entre
uno y otro valor de la escala, de tal modo que cualquiera de ellos es mayor que el
precedente y menor que el que le sigue a continuación. Sin embargo, la distancia
entre un valor y otro no queda definida sin que es indeterminada. En otras palabras,
tales escalas nos esclarecen solamente el rango que las distintas posiciones
guardan entre sí. Un ejemplo de escala ordinal es el que suele usarse para medir la
variable "grado de escolaridad": podemos decir que una persona que ha tenido 2
años de instrucción escolar, ha recibido más instrucción que quien sólo tiene un
año, y menos que quien posee 3. Sin embargo, no puede afirmarse válidamente
que la diferencia entre quien posee 2 años de instrucción y quien ha recibido un año
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 171
es igual a la diferencia entre quienes han recibido 16 y 17 años de educación
formal. • Escalas de intervalos iguales. Además de poseer la equivalencia de categorías y
el ordenamiento interno entre ellas, tienen la característica de que la distancia entre
sus intervalos está claramente determinada y que éstos son iguales entre sí. Un
ejemplo típico de las escalas de intervalos iguales está dado por las escalas
termométricas. Entre 23º y 24º C, por ejemplo, existe la misma diferencia que entre
45º y 46º C. Muchas otras escalas, como las que se utilizan en los tests
psicológicos y de rendimiento, pertenecen a este tipo. La limitación que poseen es
que no definen un cero absoluto, un valor límite que exprese realmente la ausencia
completa de la cualidad medida. Por ello no se pueden establecer equivalencias
matemáticas como las de proporcionalidad: no puede afirmarse que 24º C es el
doble de temperatura que 12º C, porque el cero de la escala es un valor arbitrario y
no se corresponde con la ausencia absoluta de la variable que se mide. • Escalas de cocientes. Llamadas también de razones. En ellas se conservan
también todas las propiedades de los casos anteriores, pero además se añade la
existencia de un valor cero real, con lo que se hacen posibles ciertas operaciones
matemáticas, tales como la obtención de proporciones y cocientes. Esto quiere
decir que un valor de 20 en una escala de este tipo es el doble de un valor de 10, o
de las dos terceras partes de 30. Son escalas de cocientes las que miden la
longitud, la masa, la intensidad de la corriente eléctrica y otras variables del mundo
físico. Difícilmente las escalas que intervienen en las ciencias sociales son medidas
con escalas de razones, ya que son contados los casos en que dichas variables
pueden ser definidas con la exactitud y la precisión necesarias. La economía y la
demografía son, entre estas disciplinas, las que más utilizan escalas de razones.
3.6.4. CARACTERÍSTICAS DE LAS ESCALAS DE MEDICIÓN • Sus intervalos deben ser mutuamente excluyentes. Cada dato recogido sólo
puede pertenecer a una y sólo una de las categorías de la escala. Nunca se debe
comenzar un intervalo con el mismo valor con que finaliza el anterior, porque
aparecerán datos que pueden incluirse en cualquiera de ambos:
Edades: 1) de 20 a 25 años
2) de 25 a 30 años
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 172
Del mismo modo, deben evitarse las imprecisiones que produzcan el mismo
fenómeno entre categorías verbales. Una escala donde se incluyen las
siguientes posibilidades:
1. Música bailable
2. Música folclórica
3. Música clásica
4. Música moderna
No tiene categorías mutuamente excluyentes, pues hay música folclórica que es a la
vez bailable, música clásica que es moderna o bailable, y varias otras posibilidades.
• Las escalas deben ser exhaustivas. En ellas deben pode ubicarse todos los
valores posibles de la variable que se va a medir. En el caso de que resulte difícil
construir una escala con todas las posibilidades será preciso agregar el código
"otros", para resumir allí toda la información que no sea correcto ubicar en las
restantes posiciones.
3.6.5. LOS ÍNDICES Supongamos que se desee evaluar el comportamiento de una variable para la cual, una
vez elaboradas las definiciones correspondientes, se hayan encontrado diversos
indicadores capaces de expresar los valores que asume en distintos objetos. A través de
cada indicador, se podrán obtener los datos pertinentes, que deberán ser llevados a
escalas adecuadas para ordenarlos. Para cada indicador que utilicemos, será necesario
adoptar o construir una escala que cuantifique las observaciones realizadas. Ésta podrá
ser del tipo más simple – como la escala dicotómica "si/no", "0/1", de dos valores
solamente – o más compleja, con varias posiciones posibles, lo que aumenta su
sensibilidad o grado de discriminación frente a los fenómenos medidos.
De acuerdo con los datos obtenidos, evaluaremos en cada escala el comportamiento que
sigue cada indicador. No obstante, esto no nos permite todavía medir claramente la
variable, pues nos entrega información fragmentaria, que debe ser integrada o sintetizada
para llegar a un valor único, que exprese lo que en realidad ocurre con la variable. Para
lograrlo, debemos sumar ponderadamente los valores de los indicadores, obteniendo un
valor total que se denomina índice, y que es el que nos dará la información relevante
sobre el problema en estudio.
Analicemos un ejemplo.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 173
Variable a medir: "exposición a los medios de comunicación masivos".
Definición operacional: intensidad del contacto que un individuo grupo posee con los
medios masivos de comunicación.
Indicadores: como existen varios medios importantes de comunicación, se referirán al
grado de exposición con respecto a cada uno de los medios. Después de un análisis del
problema, el investigador llega a la conclusión de que los principales medios son: cine,
radio, televisión y periódicos. Existen otros medios que también podrían ser incluidos,
como la propaganda mural y las revistas, pero se decide dejarlos de lado porque parecen
de menor importancia.
Designados estos cuatro medios de comunicación, habrá que especificar los indicadores.
Así, tendríamos:
Para el cine: frecuencia mensual de asistencia.
Para la radio: promedio de horas semanales en que se escucha.
Para la TV: promedio de horas semanales en que se ve.
Para los periódicos: promedio semanal de periódicos leídos.
La razón de preferir estos indicadores sobre otros posibles surge de que cumplen con la
condición de ser perfectamente factibles de medir y de que, según la experiencia, parecen
ser los que mejor configuran la conducta respecto a cada caso. Ahora deberemos
construir una escala que resulte útil para medir cada indicador.
Tomemos el caso del cine. Podríamos discriminar tres posiciones: la de quienes no están
expuestos para nada a la influencia del medio, la de quienes reciben una exposición media
y la de quienes reciben un alto grado de influencia. Estas tres conductas deben ser
traducidas a conductas definidas cuantitativamente, buscando un equivalente entre los
conceptos mencionados y las conductas correspondientes. Para concluir, es necesario
buscar una equivalencia numérica dentro de la escala mencionada.
Tabla 5: Especificación de escala
Conceptos Conductas Valores escalares
Exposición baja Va menos de una vez al mes 0
Exposición media Va de una a cuatro veces al mes
1
Exposición alta Va más de cuatro veces al mes
2
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 174
La escala podría tener más o menos posiciones, y las conductas equivalentes podrían
variar según como enfoquemos el problema. Aquí lo que priva es el criterio del
investigador, basado indudablemente en su experiencia sobre el tema y complementado
con consultas a otros especialistas o con trabajos anteriores sobre el mismo problema.
Para cada uno de los diferentes medios de comunicación, tendremos que realizar una
tarea semejante:
PARA LA RADIO
Conceptos conductas Valores escalares
No está expuesto (no escucha radio) Menos de una hora semanal 0
Exposición débil (escucha esporádicamente)
De 1 a 3 horas semanales 1
Exposición media (escucha regularmente)
Más de 3 horas y menos de 10 horas semanales 2
Exposición alta (escucha frecuentemente) Más de 10 horas semanales 3
PARA LA TV
Conceptos Conductas Valores escalares
No está expuesto Ve menos de 1 hora semanal 0
Exposición débil De 1 a 3 horas por semana 1
Exposición media De 3,1 a 10 horas semanales 2
Exposición alta De 10,1 a 20 horas semanales 3
Exposición muy alta Más de 20 horas por semana 4
PARA LOS PERIÓDICOS
Conceptos Conductas Valores escalares
No está expuesto Menos de un periódico leído por semana 0
Exposición débil De 1 a 4 periódicos semanales leídos 1
Exposición media De 5 a 8 periódicos semanales leídos 2
Exposición alta Más de 8 periódicos semanales leídos 3
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 175
Tenemos ahora cuatro escalas, una para cada indicador, que son capaces de
discriminarnos las conductas de los individuos de acuerdo con situaciones típicas,
señaladas por los conceptos teóricos. Para llegar al índice, que es el verdadero valor que
nos ilustra acerca de la variable, será preciso hacer dos operaciones más:
1. Igualar las escalas entre sí
2. Ponderar los indicadores.
Para igualar las escalas conviene tomar un valor único, con el que haremos coincidir el
máximo de cada una de ellas. El valor 100 es muy usado en estos casos por su
practicidad. Entonces, la escala de exposición al cine, que tenía un máximo de 2 puntos,
tendrá ahora un máximo de 100; su mínimo seguirá siendo el valor 0. El punto intermedio
hallado será, proporcionalmente, de 50 en la escala.
Escala original 0 1 2
Escala equivalente 0 50 100 Para la radio y los periódicos, las proporciones serían:
Escala original 0 1 2 3
Escala equivalente
0 33 67 100
Para la televisión, tendríamos:
Esc. Original 0 1 2 3 4
Esc. equivalente
0 25 50 75 100
El segundo paso, la ponderación de indicadores, parte del hecho de que la influencia de
cada medio de comunicación sobre la población es muy diferente. Es decir que,
cualitativamente, la influencia de la exposición a la TV es mayor que la que proporciona la
radio, por ejemplo, porque se trata de un medio no sólo auditivo sino también visual.
Ponderar significa asignar pesos, pesar la influencia relativa que cada indicador tiene con
respecto a la variable tomada en su conjunto. Para hacerlo, otorgaremos valores
numéricos a los indicadores, de modo tal que reflejen la relación que existe entre ellos,
dando a los indicadores más importantes valores mayores que a los menos importantes.
Podríamos asignar los siguientes valores relativos, que llamaremos coeficientes de
ponderación:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 176
Para la TV 10
Para los periódicos 7
Para la radio 4
Para el cine 3 Ahora supongamos que una persona haya expresado que:
• Va a cine 2 veces promedio por mes
• Escucha 4 ó 5 horas de radio por semana
• Ve unas 2 horas diarias de televisión (14 semanales)
• Lee 1 periódico al día (7 semanales)
En primer lugar, habría que convertir los valores originales de las escalas en sus
correspondientes valores equivalentes y luego multiplicarlos por cada uno de los
coeficientes de ponderación. Sumando estos valores, y dividiéndolos luego por la suma de
los coeficientes de ponderación, obtendremos el valor ponderado total.
Medio Valor en la escala original
Valores equivalentes (1)
Coeficientes de ponderación (2)
(1) x (2)
TV 3 75 10 750
Cine 1 50 3 150
Radio 2 67 4 268
Periódicos 2 67 7 469
Totales - - 24 1.637
I = 1.637 / 24 = 68,2
Éste es el valor que nos interesa. El índice ponderado nos está expresando que, para la
persona o promedio de personas considerados, existe un grado de exposición de 68,2
sobre un máximo posible de 100 y un mínimo posible de 0 puntos. Este valor, dado que la
escala va de 0 a 100, puede traducirse a porcentajes, diciendo que la exposición a los
medios de comunicación masivos es, para este caso, de un 68% del máximo posible.
Finalmente, podemos decir que un índice no es otra cosa que la combinación de valores
obtenidos por un individuo o elemento en cada uno de los indicadores propuestos para
medir la variable.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 177
En otras palabras, un índice es el complejo de indicadores de dimensiones de una
variable, el indicador total de una variable compleja.
3.6.6. REFERENCIAS o Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed.
Lumen - Humanitas.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 178
<
3.7. POBLACIÓN Y MUESTRA
Una población está determinada por sus características definitorias. Por lo tanto, el
conjunto de elementos que posea esta característica se denomina población o universo.
Población es la totalidad del fenómeno a estudiar, donde las unidades de población
poseen una característica común, la que se estudia y da origen a los datos de la
investigación.
Entonces, una población es el conjunto de todas las cosas que concuerdan con una serie
determinada de especificaciones. Un censo, por ejemplo, es el recuento de todos los
elementos de una población.
Cuando seleccionamos algunos elementos con la intención de averiguar algo sobre una
población determinada, nos referimos a este grupo de elementos como muestra. Por
supuesto, esperamos que lo que averiguamos en la muestra sea cierto para la población
en su conjunto. La exactitud de la información recolectada depende en gran manera de la
forma en que fue seleccionada la muestra.
Cuando no es posible medir cada uno de los individuos de una población, se toma una
muestra representativa de la misma. La muestra descansa en el principio de que las
partes representan al todo y, por tal, refleja las características que definen la población de
la que fue extraída, lo cual nos indica que es representativa. Por lo tanto, la validez de la
generalización depende de la validez y tamaño de la muestra.
3.7.1. LEYES DEL MÉTODO DE MUESTREO El método de muestreo se basa en ciertas leyes que le otorgan su fundamento científico,
las cuales son:
• Ley de los grandes números: si en una prueba, la probabilidad de un
acontecimiento o suceso es P, y si éste se repite una gran cantidad de veces, la
relación entre las veces que se produce el suceso y la cantidad total de pruebas (es
decir, la frecuencia F del suceso) tiende a acercarse cada vez más a la probabilidad
P.
• Cálculo de probabilidades: La probabilidad de un hecho o suceso es la relación
entre el número de casos favorables (p) a este hecho con la cantidad de casos
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 179
posibles, suponiendo que todos los casos son igualmente posibles. El método de
establecer la probabilidad es lo que se denomina cálculo de probabilidad.
De estas dos leyes fundamentales de la estadística, se infieren aquellas que sirven de
base más directamente al método de muestreo:
• Ley de la regularidad estadística: un conjunto de n unidades tomadas al azar de un
conjunto N, es casi seguro que tenga las características del grupo más grande.
• Ley de la inercia de los grandes números: esta ley es contraria a la anterior. Se
refiere al hecho de que en la mayoría de los fenómenos, cuando una parte varía en
una dirección, es probable que una parte igual del mismo grupo, varíe en dirección
opuesta.
• Ley de la permanencia de los números pequeños: si una muestra suficientemente
grande es representativa de la población, una segunda muestra de igual magnitud
deberá ser semejante a la primera; y, si en la primera muestra se encuentran pocos
individuos con características raras, es de esperar encontrar igual proporción en la
segunda muestra.
3.7.2. TIPOS DE MUESTRAS Muestreo aleatorio simple: la forma más común de obtener una muestra es la selección
al azar. es decir, cada uno de los individuos de una población tiene la misma posibilidad
de ser elegido. Si no se cumple este requisito, se dice que la muestra es viciada. Para
tener la seguridad de que la muestra aleatoria no es viciada, debe emplearse para su
constitución una tabla de números aleatorios.
Muestreo estratificado: una muestra es estratificada cuando los elementos de la muestra
son proporcionales a su presencia en la población. La presencia de un elemento en un
estrato excluye su presencia en otro. Para este tipo de muestreo, se divide a la población
en varios grupos o estratos con el fin de dar representatividad a los distintos factores que
integran el universo de estudio. Para la selección de los elementos o unidades
representantes, se utiliza el método de muestreo aleatorio.
Muestreo por cuotas: se divide a la población en estratos o categorías, y se asigna una
cuota para las diferentes categorías y, a juicio del investigador, se selecciona las unidades
de muestreo. La muestra debe ser proporcional a la población, y en ella deberán tenerse
en cuenta las diferentes categorías. El muestreo por cuotas se presta a distorsiones, al
quedar a criterio del investigador la selección de las categorías.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 180
Muestreo intencionado: también recibe el nombre de sesgado. El investigador
selecciona los elementos que a su juicio son representativos, lo que exige un conocimiento
previo de la población que se investiga.
Muestreo mixto: se combinan diversos tipos de muestreo. Por ejemplo: se puede
seleccionar las unidades de la muestra en forma aleatoria y después aplicar el muestreo
por cuotas.
Muestreo tipo: la muestra tipo (master simple) es una aplicación combinada y especial de
los tipos de muestra existentes. Consiste en seleccionar una muestra "para ser usada" al
disponer de tiempo, la muestra se establece empleando procedimientos sofisticados; y
una vez establecida, constituirá el módulo general del cual se extraerá la muestra definitiva
conforme a la necesidad específica de cada investigación.
3.7.3. REFERENCIAS
o EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA, Mario Tamayo y Tamayo,
1998.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 181
3.8. EL MUESTREO
Cuando un investigador realiza en ciencias sociales un experimento, una encuesta o
cualquier tipo de estudio, trata de obtener conclusiones generales acerca de una población
determinada. Para el estudio de ese grupo, tomará un sector, al que se conoce como
muestra.
Las poblaciones que el investigador puede estudiar son muy diversas, pero generalmente
se relacionan con personas. Por ejemplo, puede estudiar la opinión de las amas de casa
con respecto a ciertos métodos de planificación familiar, la edad promedio de los alumnos
de una escuela, el coeficiente intelectual promedio de los universitarios, etc.
Desde luego, es de fundamental importancia que se empiece el estudio definiendo la
población que se va a estudiar. Las poblaciones suelen ser muy numerosas, por lo que es
difícil estudiar a todos sus miembros; además de que esto no es posible, no es necesario.
Es como si quisiéramos estudiar la composición química del agua de un río y para ello
tratáramos de analizar todo el líquido que corre por su cauce, cuando solamente
necesitamos algunas muestras para realizar ese estudio y para llegar a conclusiones
generalizables con respecto a la composición química del agua a todo el río.
En ciencias sociales, las muestras no se obtienen tan fácilmente, puesto que los eventos
se relacionan siempre con personas, las cuales son mucho menos estables en cuanto a
sus pautas de actividades, valores, actitudes y conductas que algunos de los fenómenos
que se estudian en las ciencias naturales.
El momento metodológico de la investigación está constituido por la definición y
especificación del diseño que se va a utilizar y por la tarea de operacionalización de
variables (convertir en operativos, en manejables, a los diversos elementos que
intervienen en el problema que se va a investigar).
La operacionalización se refiere de dos tipos de elementos:
• El universo, en tanto conjunto de unidades o fuentes de datos que es preciso
reducir a proporciones manejables para poderlo explorar.
• Las variables, en tanto conceptos abstractos a los que es preciso dar contenido
concreto para poder efectuar sobre ellos las mediciones correspondientes.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 182
La operacionalización del universo es la tarea de encontrar una forma de obtener
información relevante sin necesidad de acudir a la medición de todo el universo posible de
datos. Es el aspecto cuantitativo de la operacionalización y, para resolverlo, tendremos
que apelar a la estadística, mediante técnicas de muestreo. La operacionalización de las
variables, de naturaleza cualitativa, tiene por objeto encontrar los indicadores a través de
los cuales se expresa concretamente el comportamiento de las mismas.
La relación que existe entre la operacionalización y el tipo de diseño se origina en que, de
acuerdo con el método general que se va a utilizar (o sea, el diseño), se requerirá de uno
u otro tipo de datos, operacionalizar de cierta manera o de otra. Inversamente, de acuerdo
con las posibilidades concretas de operacionalizar en uno u otro sentido las variables y el
universo considerado, será más o menos adecuado un cierto tipo de diseño. Por esta
razón, ambas tareas deben encararse simultáneamente.
3.8.1. DATOS Y UNIDADES Un dato es cada uno de los elementos de información que se recoge durante el desarrollo
de una investigación y en base a los cuales, convenientemente sintetizados, podrán
extraerse conclusiones en relación con el problema inicial planteado.
Cualquier información, por más pequeña y fragmentaria que sea, puede considerarse
como un dato, siempre y cuando pueda colaborar de algún modo a esclarecer los
problemas que nos planteamos en un estudio. Saber, por ejemplo, que la persona N opina
que las pruebas nucleares deben ser proscritas, es un dato. Esa información, por sí sola,
carece prácticamente de valor, pues poco nos dice de las reacciones que despiertan las
pruebas de armas atómicas en la gente. Pero el valor del dato reside no en su alcance
individual, en lo que nos expresa por sí mismo, sino en su posibilidad de ser integrado en
conjuntos mayores. Cuando agrupamos muchas informaciones de carácter similar, cada
dato se hace valioso dentro de una perspectiva más amplia. Así, en nuestro ejemplo, si
consultamos la opinión de muchas personas, podemos llegar a enunciar que un
determinado tanto por ciento de ellas están en contra de los ensayos nucleares e integrar
esa información, a su vez, en un estudio sobre las opiniones de determinado
conglomerado social.
Las fuentes de datos pueden ser personas, situaciones o hechos que se observan
directamente, o materiales bibliográficos de diversa naturaleza. Las llamamos unidades de datos y, a su conjunto, a la suma de todas las unidades, se le da el nombre de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 183
universo o población. Podríamos decir que una población o universo es, entonces, el
conjunto de todas las cosas que concuerdan con una determinada serie de
especificaciones. En general, toda investigación puede considerarse como una búsqueda
de los datos apropiados que permitan resolver ciertos problemas de conocimiento. Estos
datos son obtenidos a través de un conjunto de unidades que constituyen el universo
relevante para la investigación.
Existen universos que resultan demasiado amplios para el investigador, pues éste no
tienen ni el tiempo ni los recursos para abordar el estudio de cada una de las unidades
que lo componen (el conjunto de ciudadanos de un país, la flora de una región o las
innumerables galaxias). Para resolver este inconveniente, se acude a la
operacionalización del universo mediante la extracción de muestras.
3.8.2. UNIVERSO Y MUESTRA Una muestra es un conjunto de unidades, una porción del total, que nos representa la
conducta del universo en su conjunto.
Una muestra, en un sentido amplio, no es más que eso, una parte del todo que llamamos
universo y que sirve para representarlo.
Sin embargo, no todas las muestras resultan útiles para llevar a cabo un trabajo de
investigación. Lo que se busca al emplear una muestra es que, observando una porción
relativamente reducida de unidades, se obtengan conclusiones semejantes a las que
lograríamos si estudiáramos el universo total. Cuando una muestra cumple con esta
condición, es decir, cuando nos refleja en sus unidades lo que ocurre en el universo, la
llamamos muestra representativa. Por lo tanto, una muestra representativa contiene las
características relevantes de la población en las mismas proporciones en que están
incluidas en tal población. Sus conclusiones son susceptibles de ser generalizadas al
conjunto del universo, aunque para ello debamos añadir un cierto margen de error en
nuestras proyecciones.
Las muestras pueden ser clasificadas, en una primera división en probabilísticas y no
probabilísticas.
En las muestras probabilísticas, la característica fundamental es que todo elemento del
universo tiene una determinada probabilidad de integrar la muestra, y esa probabilidad
puede ser calculada matemáticamente con precisión. En las muestras no probabilísticas
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 184
ocurre lo contrario y el investigador no tiene idea del error que puede estar introduciendo
en sus apreciaciones.
Las muestras no probabilísticas más usadas son:
• Muestra accidental. Es aquella que se obtiene sin ningún plan preconcebido; las
unidades elegidas resultan producto de circunstancias fortuitas. Si entrevistamos a
los primeros 50 transeúntes que pasan por cierta calle o medimos la profundidad
del mar a lo largo de un trayecto entre dos puntos cualesquiera, estaremos en
presencia de una muestra accidental; los datos obtenidos podrán o no representar
al universo en estudio. El investigador no puede saber hasta qué punto sus
resultados podrán proyectarse, con confiabilidad, hacia el conjunto más amplio que
desea conocer. • Muestra por cuotas. Consiste en predeterminar la cantidad de elementos de cada
categoría que habrán de integrar la muestra. Así podemos asignar una cuota de 50
hombres y 50 mujeres a una muestra de 100 individuos, asumiendo que ésa es la
distribución de la población total. Por más que esa presunción llegue a ser válida,
no deja de existir cierta arbitrariedad en este modo de proceder, por lo que la
rigurosidad estadística de las muestras por cuotas se reduce considerablemente. • Muestra intencional. Las unidades se eligen en forma arbitraria, designando a
cada unidad según características que para el investigador resulten de relevancia.
Se emplea, por lo tanto, el conocimiento y la opinión personal para identificar
aquellos elementos que deben ser incluidos en la muestra. Se basa,
primordialmente, en la experiencia de alguien con la población. Estas muestras son
muy útiles y se emplean frecuentemente en los estudios de caso, por más que la
posibilidad de generalizar conclusiones a partir de ellas, sea en rigor nula. En
algunas oportunidades se usan como guía o muestra tentativa para decidir cómo
tomar una muestra aleatoria más adelante.
3.8.3. MUESTRAS ALEATORIAS Como dijimos, en ellas cada uno de los elementos del universo tiene una probabilidad
determinada y conocida de ser seleccionado. Los procedimientos más usuales para la
obtención de muestras aleatorias son:
• Azar simple. Este procedimiento se inicia confeccionando una lista de todas las
unidades que configuran el universo, numerando correlativamente cada una de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 185
ellas. Luego, mediante cualquier sistema (tabla de números al azar, programas de
computación), se van sorteando al azar estos números hasta completar el total de
unidades que deseamos que entren en la muestra. De este modo, la probabilidad
que cada elemento tienen de aparecer en la muestra es exactamente la misma. Si
cada uno de los elementos que integran la población no tiene la misma posibilidad
de ser elegido, se habla entonces de una muestra viciada. Este método nos
garantiza una selección completamente aleatoria, pero resulta muy lento y costoso,
pues nos obliga a elaborar listas completas de todas las unidades de interés, lo que
a veces es sencillamente imposible. Por este motivo, sólo se emplea cuando los
universos son relativamente pequeños. Este método no será adecuado si, por
ejemplo, queremos sacar una muestra de todas las personas analfabetas que
existen en un país. En cambio, si nuestra intención es extraer una muestra del
universo de todos los alumnos que ingresan a una universidad en un determinado
año, resultará muy adecuado. • Azar sistemático. También se requiere de un listado completo de las unidades que
integran el universo en estudio. Luego se efectúan las siguientes operaciones:
1. Se calcula la constante K, que resulta de dividir el número total de unidades que
componen el universo por el número de unidades que habrán de integrar la
muestra:
K = N/n
Donde:
N = número total de unidades que componen e universo.
n = número total de unidades que integrarán la muestra.
2. Se efectúa un sorteo para elegir un número que sea inferior o igual al valor de K.
Como primera unidad para integrar la muestra se elige aquella que, en la lista
general, posea idéntico número de orden al sorteado. Si designamos con A este
primer valor, la segunda unidad elegida será la que lleve el número A + K, la tercera
corresponderá a A + 2K y así sucesivamente hasta llegar a A + (n – 1)K.
Supongamos un universo constituido por 2.800 elementos, del que
deseamos obtener una muestra de 70 casos. Tenemos entonces:
N = 2.800
n = 70
K = 2.800 / 70 = 40
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 186
Ahora, mediante cualquier procedimiento, buscamos al azar un número
entero cuyo valor figure entre los límites de 1 y 40. En este caso, el número
elegido es el 32. Entonces, las unidades que pasarán a formar parte de la
muestra serán las que lleven los siguientes números de orden:
1° unidad 32
2° unidad 32 + 40 72
3° unidad 32 + 80 112
....
70° unidad 32 + 2760 2.792 Las ventajas y desventajas de este procedimiento son casi idénticas a la de
las muestras al azar simple. Los procedimientos computacionales hacen
mucho más fácil efectuar el sorteo de las unidades y no existe el riesgo de
que la muestra quede sesgada por algún tipo de regularidad que no
conocemos y que esté presente en el universo.
• Muestras por conglomerados. Esta técnica tiene utilidad cuando el universo que
se requiere estudiar admite ser subdividido en universos menores de características
similares a las del universo total. Se procede a subdividir el universo en un número
finito de conglomerados y, entre ellos, se pasa a elegir algunos que serán los
únicos que se investigarán; esta elección puede realizarse por el método del azar
simple o por el del azar sistemático. Una vez cumplida esta etapa, puede efectuarse
una segunda selección, dentro de cada uno de los conglomerados elegidos, para
llegar a un número aún más reducido de unidades muestrales. La ventaja de esta
técnica es que obvia la tarea de confeccionar el listado de todas las unidades del
universo. Su desventaja mayor radica en que, al efectuarse el muestreo en dos
etapas, los errores muestrales de cada una se van acumulando, lo que da un error
mayor que para los métodos anteriores. La técnica de conglomerados suele
utilizarse cuando queremos extraer muestras de los habitantes de un conjunto
geográfico amplio, por ejemplo, una gran ciudad o un conjunto de pueblos, por lo
que se procede a tomar cada pueblo o grupo de manzanas como un conglomerado
independiente; del mismo modo, se la utiliza para conocer las reservas forestales y
marinas, para estudiar las estrellas y otros casos semejantes.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 187
• Muestras estratificadas. Este método supone que el universo puede desagregarse
en sub – conjuntos menores, homogéneos internamente pero heterogéneos entre
sí. Cada uno de estos estratos se toma luego como un universo particular, de
tamaño más reducido, y sobre él se seleccionan muestras según cualquiera de los
procedimientos anteriores. Por ejemplo, si quisiéramos estudiar las actitudes
políticas de los estudiantes de una universidad, podríamos subdividir en estratos de
acuerdo con el tipo de estudios que cursen, suponiendo que estas actitudes van a
ser diferentes entre quienes siguen Ingeniería, Letras, Medicina u otras carreras.
Luego, efectuaríamos un muestreo dentro de cada sub – universo así definido para,
finalmente, realizar un análisis integrando los resultados de todas las sub –
muestras.
Tanto en el muestreo estratificado como en el de conglomerados, la población se divide en
grupos bien definidos. Usamos el muestreo estratificado cuando hay una amplia variación
entre los grupos. Usamos el muestreo por conglomerados en el caso opuesto: cuando hay
una variación considerable dentro de cada grupo, pero los grupos son esencialmente
similares entre sí.
3.8.4. TAMAÑO DE LA MUESTRA Y ERROR MUESTRAL Recordemos que la muestra descansa en el principio de que las partes representan al
todo y, por tal, refleja las características que definen a la población de la cual fue extraída,
lo cual nos indica que es representativa. Es decir, que para hacer una generalización
exacta de una población, es necesario tomar una muestra representativa. Por lo tanto, la
validez de la generalización depende de la validez y tamaño de la muestra.
Cuando trabajamos con muestras, generalmente se presentan dos tipos de errores:
• Error sistemático. Llamado de distorsión o sesgo de la muestra, se presentan por
causas ajenas a la muestra:
• Situaciones inadecuadas: se presentan, por ejemplo, cuando el encuestador tiene
dificultades para obtener la información y la sustituye por la que más fácilmente
está a su alcance, que no siempre es la más confiable.
• Insuficiencia en la recolección de datos: hay distorsión por falta de respuestas, o
respuestas inadecuadas, ya sea por ignorancia o falta de datos relativos a los
elementos incluidos. Distorsiones del encuestador causadas por prejuicios, interés
personal o por fallas en la aplicación de instrumentos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 188
• Errores de cobertura a causa de que no se han incluido elementos importantes y
significativos para la investigación que se realiza.
• Error de muestreo o muestral. Cualquiera sea el procedimiento utilizado y la
perfección del método empleado, la muestra diferirá de la población. A esta
diferencia se la denomina error de muestreo.
Cuando una muestra es aleatoria o probabilística, es posible calcular sobre
ella el error muestral. Este error indica el porcentaje de incertidumbre, es
decir, el riesgo que se corre de que la muestra elegida no sea representativa.
Si trabajamos con un error calculado en 5%, ello significa que existe un 95%
de probabilidades de que el conjunto muestral represente adecuadamente al
universo del cual ha sido extraído.
A medida que incrementamos el tamaño de la muestra, el error muestral
tiende a reducirse, pues la muestra va acercándose más al tamaño del
universo. Del mismo modo, para una muestra determinada, su error será
menor cuanto más pequeño sea el universo a partir del cual se la ha
seleccionado. Así, para un universo de 10.000 casos, una muestra de 200
unidades tendrá un error mayor que una de 300; una muestra de 200 casos,
por otra parte, tendrá un error mayor si el universo tiene 10.000 unidades
que si éste posee solamente 2.000.
Para fijar el tamaño de la muestra adecuado a cada investigación, es preciso primero
determinar el porcentaje de error que estamos dispuestos a admitir. Una vez hecho esto,
deberán realizarse las operaciones estadísticas correspondientes para poder calcular el
tamaño de la muestra que nos permite situarnos dentro del margen de error aceptado.
A veces, sin embargo, el tamaño de la muestra queda determinado previamente por
consideraciones prácticas; en tales casos, no hay otra alternativa que aceptar el nivel de
error que su magnitud acarree.
3.8.5. REFERENCIAS o Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed.
Lumen - Humanitas.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 189
<
3.9. MEDIDAS DE TENDENCIA CENTRAL Y DE DISPERSIÓN
3.9.1. ESTADÍSTICA SUMARIA Podemos usar una serie de números conocidos como estadística sumaria para describir
las características del conjunto de datos. Dos de estas características son de particular
importancia para los responsables de tomar decisiones: la de tendencia central y la de
dispersión.
Tendencia central: la tendencia central se refiere al punto medio de una distribución. Las
medidas de tendencia central se conocen como medidas de posición.
Dispersión: se refiere a la extensión de los datos en una distribución, es decir, al grado en
que las observaciones se distribuyen.
Sesgo: las curvas que representan los puntos de datos de un conjunto de datos pueden
ser simétricas o sesgadas. Las curvas simétricas, tienen una forma tal que una línea
vertical que pase por el punto más alto de la curva dividirá el área de ésta en dos partes
iguales. Cada parte es una imagen espejo de la otra. En las curvas sesgadas, los valores
de su distribución de frecuencias están concentrados en el extremo inferior o en el
superior de la escala de medición del eje horizontal. Los valores no están igualmente
distribuidos. Las curvas pueden estar sesgadas hacia la derecha (positivamente
sesgadas) o sesgadas hacia la izquierda (negativamente sesgadas).
Curtosis: cuando medimos la curtosis de una distribución, estamos midiendo su grado de
agudeza.
3.9.2. LA MEDIA ARITMÉTICA Cuando nos referimos al "promedio" de algo, estamos hablando de la media aritmética.
Para encontrar la media aritmética, sumamos los valores y el resultado lo dividimos entre
el número de observaciones.
3.9.2.1. SÍMBOLOS CONVENCIONALES Una muestra de una población consiste en n observaciones, con una media de x (léase
equis testada). Las medidas que calculamos para una muestra se conocen como
estadística. La notación es diferente cuando calculamos medidas para la población entera,
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 190
es decir, para el grupo que contiene a todos los elementos que estamos describiendo. La
media de una población se simboliza con μ (letra griega mi). El número de elementos de
una población se denota con la letra mayúscula cursiva N. Por lo general, en estadística
utilizamos letras del alfabeto latino para simbolizar la información sobre las muestras y
letras del griego para referirnos a la información sobre poblaciones.
3.9.2.2. CÁLCULO DE LA MEDIA A PARTIR DE DATOS NO AGRUPADOS. Media de la población: μ = ∑x / N
x = ∑x / n
Para calcular esta media, sumamos todas las observaciones. Los estadísticos se refieren
a este tipo de datos como datos no agrupados.
Cálculo de la media de datos agrupados: Una distribución de frecuencias consta de datos agrupados en clases. Cada valor de una
observación cae dentro de alguna de las clases. No sabemos el valor individual de cada
observación. A partir de la información de la tabla, podemos calcular fácilmente una
estimación del valor de la media de estos datos agrupados. De haber usado los datos
originales sin agrupar, podríamos haber calculado el valor real de la media.
Para encontrar la media aritmética de datos agrupados, primero calculamos el punto
medio de cada clase. Para lograr que los puntos medios queden en cifras cerradas,
redondeamos las cantidades. Después, multiplicamos cada punto medio por la frecuencia
de las observaciones de dicha clase, sumamos todos los resultados y dividimos esta suma
entre el número total de observaciones de la muestra.
x = � (f x) / n
f = frecuencia de observaciones de cada clase
x= punto medio de cada clase de la muestra
n = número de observaciones de la muestra
3.9.2.3. CODIFICACIÓN: Mediante esta técnica, podemos eliminar el problema de tener puntos medios muy
grandes o inconvenientes. En lugar de utilizar los puntos medios reales para llevar a efecto
nuestros cálculos, podemos asignar enteros consecutivos de valor pequeño, conocidos
como códigos, a cada uno de los puntos medios. El entero cero puede ser asignado a
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 191
cualquier punto medio, pero para que nuestros enteros sean pequeños, asignaremos cero
al punto medio de la parte media de la distribución (o la parte más cercana a ésta).
Podemos asignar enteros negativos a los valores menores a dicho punto medio y enteros
positivos a los valores más grandes.
Los estadísticos usan xo para representar el punto medio al que se le ha asignado el
código 0 y u para el punto medio codificado:
x = xo + w [(u f)] / n
w = ancho numérico del intervalo de clase
u = código asignado a cada punto medio de clase
3.9.2.4. VENTAJAS Y DESVENTAJAS DE LA MEDIA ARITMÉTICA. La media aritmética, en su carácter de un solo número que representa a un conjunto de
datos completo, tiene importantes ventajas:
1. Se trata de un concepto familiar para la mayoría de las personas y es intuitivamente
claro.
2. Cada conjunto de datos tiene una media, es una medida que puede calcularse y es
única debido a que cada conjunto de datos posee una y sólo una media.
3. Es útil para llevar a cabo procedimientos estadísticos como la comparación de
medias de varios conjuntos de datos.
Por otra parte presenta desventajas en las cuales puede verse afectada por valores
extremos que no son representativos del resto de los datos.
1. Resulta tedioso calcular la media debido a que utilizamos cada uno de los puntos
de dato de nuestro cálculo.
2. Somos incapaces de calcular la media para un conjunto de datos que tiene clases
de extremo abierto, ya sea en el inferior o en el superior de la escala.
3.9.3. LA MEDIANA La mediana es un solo valor calculado a partir del conjunto de datos que mide la
observación central de éstos. Esta sola observación es la más central o la que está más
en medio en el conjunto de números. La mitad de los elementos están por encima de este
punto y la otra mitad está por debajo.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 192
3.9.3.1. CÁLCULO DE LA MEDIANA A PARTIR DE DATOS NO AGRUPADOS: Para hallar la mediana de un conjunto de datos, primero hay que organizarlos en orden
descendente o ascendente. Si el conjunto de datos contiene un número impar de
elementos, el de en medio en el arreglo es la mediana. Si hay un número par de
observaciones, la mediana es el promedio de los dos elementos de en medio.
Mediana = (n + 1) / 2
3.9.3.2. CÁLCULO DE LA MEDIANA A PARTIR DE DATOS AGRUPADOS: Encontrar qué observación de la distribución está más al centro (Mediana = (n + 1) / 2).
1. Sumar las frecuencias de cada clase para encontrar la clase que contiene a ese
elemento más central.
2. Determinar el número de elementos de la clase y la localización de la clase que
contiene al elemento mediano.
3. Determinar el ancho de cada paso para pasar de una observación a otra en la clase
mediana, dividiendo el intervalo de cada clase entre el número de elementos
contenido en la clase.
4. Determinar el número de pasos que hay desde el límite inferior de la clase mediana
hasta el elemento correspondiente a la mediana.
5. Calcular el valor estimado del elemento mediano multiplicando el número de pasos
que se necesitan para llegar a la observación mediana por el ancho de cada paso.
Al producto sumarle el valor del límite inferior de la clase mediana.
6. Si existe un número par de observaciones en la distribución, tomar el promedio de
los valores obtenidos para el elemento mediano calculados en el paso número 6.
Un método más sencillo: m = {[(n + 1) / 2 – (F + 1)] / fm} w + Lm
m = mediana de la muestra
n = número total de elementos de la distribución
F = suma de todas las frecuencias de clase hasta, pero sin incluir, la clase mediana
fm = frecuencia de la clase mediana
w = ancho de intervalo de clase
Lm = límite inferior del intervalo de clase mediano
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 193
3.9.3.3. VENTAJAS Y DESVENTAJAS DE LA MEDIANA: Los valores extremos no afectan a la mediana tan intensamente como a la media. La
mediana es fácil de entender y se puede calcular a partir de cualquier tipo de datos –
incluso a partir de datos agrupados con clases de extremo abierto – a menos que la
mediana entre en una clase de extremo abierto.
Podemos encontrar la mediana incluso cuando nuestros datos son descripciones
cualitativas, en lugar de números.
Ciertos procedimientos estadísticos que utilizan la mediana son más complejos que
aquellos que utilizan la media. Debido a que la mediana es una posición promedio,
debemos ordenar los datos antes de llevar a cabo cualquier cálculo. Esto implica consumo
de tiempo para cualquier conjunto de datos que contenga un gran número de elementos.
Por consiguiente, si deseamos utilizar una estadística de muestra para estimar un
parámetro de población, la media es más fácil de usar que la mediana.
3.9.4. LA MODA La moda es una medida de tendencia central diferente de la media, pero un tanto parecida
a la mediana, pues en realidad no se calcula mediante algún proceso aritmético ordinario.
La moda es aquel valor que más se repite en el conjunto de datos.
En ocasiones, el azar hace que un solo elemento no representativo se repita lo suficiente
para ser el valor más frecuente del conjunto de datos. Es por esta razón que rara vez
utilizamos la moda de un conjunto de datos no agrupados como medida de tendencia
central.
Por esta razón, siempre que utilizamos la moda como medida de tendencia central de un
conjunto de datos, debemos calcular la moda de datos agrupados (buscar la clase modal).
3.9.4.1. CÁLCULO DE LA MODA DE DATOS AGRUPADOS: Cuando los datos ya se encuentran agrupados en una distribución de frecuencias,
podemos poner que la moda está localizada en la clase que contiene el mayor número de
elementos, es decir, en la clase que tiene mayor frecuencia. Para determinar un solo valor
para la moda a partir de esta clase modal:
Mo = Lmo + [d1 / (d1 + d2 )] w
Lmo = límite inferior de la clase modal.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 194
d1 = frecuencia de la clase modal menos la frecuencia de la clase que se encuentra
inmediatamente por debajo de ella.
d2 = frecuencia de la clase modal menos la frecuencia de la clase que se encuentra
inmediatamente por encima de ella.
w = ancho del intervalo de la clase modal.
3.9.4.2. VENTAJAS Y DESVENTAJAS DE LA MODA: La moda, al igual que la mediana, se puede utilizar como una posición central para datos
tanto cualitativos como cuantitativos.
También, al igual que la mediana, la moda no se ve mayormente afectada por los valores
extremos. Incluso si los valores extremos son muy altos o muy bajos, nosotros escogemos
el valor más frecuente del conjunto de datos como el valor modal. Podemos utilizar la
moda sin importar qué tan grandes o qué tan pequeños sean los valores del conjunto de
datos, e independientemente de cuál sea su dispersión. La podemos utilizar aun cuando
una o más clases sean de extremo abierto.
Muy a menudo, no existe un valor modal debido a que el conjunto de datos no contiene
valores que se presenten más de una vez. En otras ocasiones, cada valor es la moda,
pues cada uno de ellos se presenta el mismo número de veces. Otra desventaja consiste
en que cuando los datos contienen dos, tres o más modas, resultan difíciles de interpretar
y comparar.
3.9.4.3. COMPARACIÓN ENTRE LA MEDIA, LA MEDIANA Y LA MODA. Cuando trabajamos un problema de estadística, debemos decidir si vamos a utilizar la
media, la mediana o la moda como medidas de tendencia central. Las distribuciones
simétricas que sólo contienen una moda, siempre tienen el mismo valor para la media, la
mediana y la moda. En tales casos, no es necesario escoger la medida de tendencia
central, pues ya está hecha la selección.
En una distribución positivamente sesgada (es decir, sesgada hacia la derecha), la moda
todavía se encuentra en el punto más alto de la distribución, la mediana está hacia la
derecha de la moda y la media se encuentra todavía más a la derecha de la moda y la
mediana.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 195
En una distribución negativamente sesgada, la moda sigue siendo el punto más alto de la
distribución, la mediana está hacia la izquierda de ella y la media se encuentra todavía
más a la izquierda de la moda y la mediana.
Cuando la población está sesgada negativa o positivamente, con frecuencia la mediana
resulta ser la mejor medida de posición, debido a que siempre está entre la moda y la
media. La mediana no se ve altamente influida por la frecuencia de aparición de un solo
valor como es el caso de la moda, ni se distorsiona con la presencia de valores extremos
como la media.
La selección de la media, la mediana o la moda, en ocasiones, depende de la práctica
común de una industria en particular (salario medio de los obreros, precio mediano de una
casa, familia modal para el diseño de automóviles).
3.9.5. LA DISPERSIÓN Al igual que sucede con cualquier conjunto de datos, la media, la mediana y la moda sólo
nos revelan una parte de la información que necesitamos acerca de las características de
los datos. Para aumentar nuestro entendimiento del patrón de los datos, debemos medir
también su dispersión, extensión o variabilidad. La dispersión es importante porque:
1. Proporciona información adicional que permite juzgar la confiabilidad de la medida
de tendencia central. Si los datos se encuentran ampliamente dispersos, la posición
central es menos representativa de los datos.
2. Ya que existen problemas característicos para datos ampliamente dispersos,
debemos ser capaces de distinguir que presentan esa dispersión antes de abordar
esos problemas.
3. Quizá se desee comparar las dispersiones de diferentes muestras. Si no se desea
tener una amplia dispersión de valores con respecto al centro de distribución o esto
presenta riesgos inaceptables, necesitamos tener habilidad de reconocerlo y evitar
escoger distribuciones que tengan las dispersiones más grandes.
3.9.5.1. MEDIDAS DE DISPERSIÓN. La dispersión puede medirse en términos de la diferencia entre dos valores seleccionados
del conjunto de datos. Las medidas de distancia son: el alcance, el alcance interfractil y el
alcance intercuartil.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 196
3.9.5.2. ALCANCE. Es la diferencia entre el más alto y el más pequeño de los valores observados.
Alcance = valor de la observación más alta – valor de la observación más pequeña
El alcance es fácil de entender y de encontrar, pero su utilidad como medida de dispersión
es limitada. Sólo toma en cuenta los valores más alto y más bajo de una distribución y no
considera ninguna otra observación del conjunto de datos. Ignora la naturaleza de la
variación entre todas las demás observaciones, y se ve muy influido por los valores
extremos.
Las distribuciones de extremo abierto no tienen alcance, pues no existe un valor más alto
o más bajo en la clase de extremo abierto.
3.9.5.2.1. Alcance Interfractil. En una distribución de frecuencias, una fracción o proporción dada de los datos cae en un
fractil o por debajo de éste. La mediana, por ejemplo, es el fractil 0,5, puesto que la mitad
de los datos es menor o igual a este valor. Los fractiles son parecidos a los porcentajes.
En una distribución cualquiera, el 25% de los datos está en el fractil 0,25 o por debajo de
éste; igualmente, 25% de los datos cae en el vigésimo quinto percentil o por debajo de
éste. El alcance interfractil es una medida de la dispersión entre dos fractiles de una
distribución de frecuencias, es decir, la diferencia entre los valores de los dos fractiles.
Los fractiles tienen nombres especiales, dependiendo del número de partes iguales en que
se dividen los datos. Los fractiles que los dividen en 10 partes iguales se conocen como
deciles. Los cuartiles dividen los datos en cuatro partes iguales. Los percentiles dividen el
conjunto de datos en 100 partes iguales.
3.9.5.2.2. Alcance Intercuartil. El alcance intercuartil mide aproximadamente qué tan lejos de la mediana tenemos que ir
en cualquiera de las dos direcciones antes de que podamos recorrer una mitad de los
valores del conjunto de datos. Para calcular este alcance, dividimos nuestros datos en
cuatro partes, cada una de las cuales contiene 25% de los elementos de la distribución.
Los cuartiles son, entonces, los valores más alto y más bajo de estas cuatro partes, y el
alcance intercuartil es la diferencia entre los valores del primer cuartil y el tercer cuartil.
El punto fractil es siempre el punto en el o debajo del cual cae la proporción establecida de
valores.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 197
3.9.6. MEDIDAS DE DESVIACIÓN PROMEDIO Las descripciones más comprensivas de la dispersión son aquellas que tratan con la
desviación promedio con respecto a alguna medida de tendencia central. Dos de tales
medidas son la varianza y la desviación estándar. Ambas medidas nos dan una distancia
promedio de cualquier observación del conjunto de datos con respecto a la media de la
distribución.
3.9.7. VARIANZA DE LA POBLACIÓN. Cada población tiene una varianza, que se simboliza con � 2 (sigma cuadrada). Para
calcular la varianza de una población, dividimos la suma de las distancias al cuadrado
entre la media y cada elemento de la población entre el número total de observaciones de
dicha población.
� 2 = � (x - � )2 / N
� 2 = varianza de la población.
x = elemento u observación.
� = media de la población.
N = número total de elementos de la población.
Para la varianza, las unidades son el cuadrado de las unidades de los datos. Estas
unidades no son intuitivamente claras o fáciles de interpretar. Por esta razón, tenemos que
hacer un cambio significativo en la varianza para calcular una medida útil de la desviación,
que sea menos confusa. Esta medida se conoce como la desviación estándar, y es la raíz
cuadrada de la varianza. La desviación estándar, entonces, está en las mismas unidades
que los datos originales.
3.9.7.1. DESVIACIÓN ESTÁNDAR DE LA POBLACIÓN La desviación estándar de la población, o � , es simplemente la raíz cuadrada de la
varianza de la población. Como la varianza es el promedio de las distancias al cuadrado
que van desde las observaciones a la media, la desviación estándar es la raíz cuadrada
del promedio de las distancias al cuadrado que van desde las observaciones a la media.
La desviación estándar está en las mismas unidades que las que se usaron para medir los
datos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 198
La raíz cuadrada de un número positivo puede ser tanto positiva como negativa. Cuando
tomamos la raíz cuadrada de la varianza para calcular la desviación estándar, los
estadísticos solamente consideran la raíz cuadrada positiva. Para calcular la varianza o la
desviación estándar, construimos una tabla utilizando todos los elementos de la población.
3.9.7.2. USOS DE LA DESVIACIÓN ESTÁNDAR. La desviación estándar nos permite determinar, con un buen grado de precisión, dónde
están localizados los valores de una distribución de frecuencias con relación a la media. El
teorema de Chebyshev dice que no importa qué forma tenga la distribución, al menos 75%
de los valores caen dentro de + 2 desviaciones estándar a partir de la media de la
distribución, y al menos 89% de los valores caen dentro de + 3 desviaciones estándar a
partir de la media.
3.9.7.3. CON MÁS PRECISIÓN: Aproximadamente 68% de los valores de la población cae dentro de + 1 desviación
estándar a partir de la media.
• Aproximadamente 95% de los valores estará dentro de + 2 desviaciones estándar a
partir de la media.
• Aproximadamente 99% de los valores estará en el intervalo que va desde tres
desviaciones estándar por debajo de la media hasta tres desviaciones estándar por
arriba de la media.
3.9.7.4. RESULTADO ESTÁNDAR: La desviación estándar es también útil para describir qué tan lejos las observaciones
individuales de una distribución de frecuencias se apartan de la media de la distribución.
Una medida que se conoce como resultado estándar nos da el número de desviaciones
estándar que una observación en particular ocupa por debajo o por encima de la media:
Resultado estándar = (x - � ) / �
3.9.7.5. CÁLCULO DE LA VARIANZA Y LA DESVIACIÓN ESTÁNDAR UTILIZANDO DATOS AGRUPADOS: � 2 = � f(x - � )2 / N
� 2 = varianza de la población.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 199
x = punto medio de cada una de las clases.
� = media de la población.
N = número total de elementos de la población.
f = frecuencia de cada una de las clases.
� = √� 2
3.9.7.6. DESVIACIÓN ESTÁNDAR DE UNA MUESTRA: Para calcular la varianza y la desviación estándar de una muestra, utilizamos las mismas
fórmulas, sustituyendo � por x y N con n – 1.
s2 = � (x - x)2 / (n – 1)
¿Por qué utilizamos n – 1 como denominador en lugar de N? Los especialistas en
estadística pueden demostrar que si tomamos muchas muestras de una población dada, si
encontramos la varianza de la muestra para cada muestra y promediamos los resultados,
entonces este promedio no tiende a tomar el valor de la varianza de la población, a menos
que tomemos n – 1 como denominador de los cálculos.
Al igual que utilizamos la desviación estándar de la población para derivar los resultados
estándar de la misma, podemos también usar la desviación estándar de la muestra para
calcular los resultados estándar de la muestra. Estos resultados indican a cuántas
desviaciones estándar se halla una observación en particular por arriba o por debajo de la
media de la muestra. Resultado estándar de la muestra = (x – x) / s
Las letras griegas siempre se refieren a parámetros de la población y las letras latinas se
refieren a estadísticas de la muestra.
Recordar utilizar N como denominador cuando se calcula la desviación estándar de la
población, pero n – 1 para calcular la desviación estándar de la muestra.
3.9.7.7. DISPERSIÓN RELATIVA: EL COEFICIENTE DE VARIACIÓN La desviación estándar es una medida absoluta de la dispersión que expresa la variación
en las mismas unidades que los datos originales.
La desviación estándar no puede ser la única base para la comparación de dos
distribuciones. Si tenemos una desviación estándar de 10 y una media de 5, los valores
varían en una cantidad que es el doble de la media misma. Si, por otro lado, tenemos una
desviación estándar de 10 y una media de 5.000, la variación con respecto a la media es
insignificante. En consecuencia, no podemos conocer la dispersión de un conjunto de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 200
datos hasta que conocemos su desviación estándar, su media y cómo se compara la
desviación estándar con respecto a la media.
Lo que necesitamos es una medida relativa que nos proporcione una estimación de la
magnitud de la desviación con respecto a la magnitud de la media. El coeficiente de
variación es una de estas medidas relativas de dispersión. Se relaciona la desviación
estándar y la media, expresando la desviación estándar como porcentaje de la media.
Coeficiente de variación = (� / � ) * 100
3.9.7.8. CONCEPTOS • Alcance: distancia entre los valores más bajo y más alto de un conjunto de datos.
Alcance intercuartil: diferencia entre los valores del primer y tercer cuartiles; eta
diferencia representa el alcance de la mitad central del conjunto de datos.
• Alcance interfractil: medida de la dispersión entre dos fractiles de una distribución;
es decir, la diferencia entre los valores de dos fractiles.
• Clase mediana: clase de una distribución de frecuencias que contiene el valor
mediano de un conjunto de datos.
• Codificación: método para calcular la media de datos agrupados mediante la
recodificación de los valores de los puntos medios de las clases a valores más
sencillos.
• Coeficiente de variación: medida relativa de la dispersión, comparable por medio
de distribuciones diferentes, que expresa la desviación estándar como porcentaje
de la media. Proporción o porcentaje de la media que representa la desviación
estándar.
• Cuartiles: fractiles que dividen los datos en cuatro partes iguales.
• Curtosis: el grado de agudeza de una distribución de puntos.
• Deciles: fractiles que dividen los datos en diez partes iguales.
• Desviación estándar: raíz cuadrada positiva de la varianza; medida de dispersión
con las mismas unidades que los datos originales.
• Dispersión: la extensión o variabilidad de un conjunto de datos.
• Distribución bimodal: distribución de puntos de datos en la que dos valores se
presentan con más frecuencia que los demás elementos del conjunto de datos.
• Estadística (o estimador): medidas numéricas que describen las características
de una muestra, representadas por caracteres latinos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 201
• Estadística sumaria: números solos que describen ciertas características de un
conjunto de datos.
• Fractil: en una distribución de frecuencias, es la posición de un valor en, o por
encima de, una fracción dada de los datos.
• Media: medida de tendencia central que representa el promedio aritmético de un
conjunto de observaciones.
• Mediana: punto situado a la mitad de conjunto de datos, medida de localización
que divide al conjunto de datos en dos partes iguales.
• Medida de dispersión: medida que describe cómo se dispersan o distribuyen las
observaciones de un conjunto de datos. Cantidades que describen la variabilidad de
los datos.
• Medida de distancia: medida de dispersión en términos de la diferencia entre dos
valores del conjunto de datos.
• Medida de tendencia central (o de posición): medida que indica el valor
esperado de un punto de datos típico o situado en el medio. Cantidades numéricas
que dan una idea sobre la ubicación de la distribución de frecuencias.
• Parámetros: valores numéricos que describen las características de una población
completa, representados generalmente por letras griegas.
• Percentiles: fractiles que dividen los datos en 100 partes iguales.
• Resultado estándar: expresión de una observación en términos de unidades de
desviación estándar por encima o por debajo de la media; es decir, la
transformación de una observación al restarle la media y dividirla entre la
desviación estándar.
• Sesgo: grado en que una distribución de puntos está concentrada en un extremo o
en el otro; falta de simetría. Asimetría en distribuciones de frecuencias no
simétricas.
• Simétrica: característica de una distribución en la que cada mitad es la imagen
especular de la otra.
• Teorema de Chebyshev: no importa qué forma tenga la distribución, al menos
75% de los valores de la población caerán dentro de dos desviaciones estándar a
partir de la media, y al menos 89% caerá dentro de tres desviaciones estándar.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 202
• Varianza: medida de la distancia cuadrada promedio entre la media y cada
observación de la población. Promedio de los desvíos cuadráticos con respecto a la
media.
3.9.7.9. RECOMENDACIONES PRÁCTICAS: • Revisar cuidadosamente los datos antes de usarlos; verificar que no contengan
errores; chequear en particular los valores extremos.
• Elaborar histogramas o cualquier otro tipo de gráficos que permita visualizar la
forma y las características principales de la distribución de frecuencias.
• Diferenciar con precisión cuándo se hace referencia a un parámetro poblacional y
cuándo a un estadístico muestral.
• Usar en forma conjunta una media de posición y una de dispersión (como mínimo)
para analizar el comportamiento de la variable.
• Prestar atención a las ventajas y desventajas de las distintas medidas de posición y
dispersión, para decidir correctamente su elección.
• Calcular la media aritmética con los datos en bruto – sin agrupar – siempre que se
requiera su valor exacto.
• Dar preferencia al cálculo de la mediana como medida de posición, cuando la serie
tiene pocos datos e incluye valores extremos.
• No tiene sentido calcular la moda en series de datos sin agrupar.
• Tanto la mediana como la moda son valores de la variable (no confundir con las
frecuencias a las que están asociadas).
• Comparar, siempre que se pueda, media, mediana y moda para determinar el
sesgo de la distribución.
• El rango o alcance es una medida de dispersión poco apropiada para describir
series con muchos datos.
• La desviación estándar es preferible a la varianza porque se expresa en las mismas
unidades de la variable.
3.9.8. REFERENCIAS o RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA
ADMINISTRADORES, ED. PRENTICE HALL, SEXTA ED., 1996
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 203
3.10. INFERENCIA ESTADÍSTICA
3.10.1. INTRODUCCIÓN AL MUESTREO Algunas veces es posible y práctico examinar a cada persona o elemento de la población
que deseamos describir. A esto lo llamamos enumeración completa o censo. Utilizamos el
muestreo cuando no es posible contar o medir todos los elementos de la población.
Los estadísticos usan la palabra población para referirse no sólo a personas sino a todos
los elementos que han sido elegidos para un estudio, y emplean la palabra muestra para
describir una porción elegida de la población.
3.10.1.1. CONDICIONES QUE DEBE REUNIR UNA MUESTRA: • Homogeneidad: debe ser extraída de la misma población.
• Independencia: las observaciones no deben estar mutuamente condicionadas entre
sí.
• Representatividad: la muestra debe ser el mejor reflejo posible del conjunto del cual
proviene.
3.10.1.2. ESTADÍSTICAS Y PARÁMETROS. Matemáticamente, podemos describir muestras y poblaciones al emplear mediciones
como la media, la mediana, la oda y la desviación estándar. Cuando estos términos
describen las características de una población, se llaman parámetros. Cuando describen
las características de la muestra, se llaman estadísticos. Una estadística es una
característica de una muestra y un parámetro es una característica de la población.
Se emplean letras latinas minúsculas para denotar estadísticas de muestra y letras griegas
o latinas mayúsculas para representar parámetros de población.
Población Muestra
Definición Colección de elementos considerados
Parte o porción de la población seleccionada para su estudio
Características Parámetros Estadísticas
Símbolos Tamaño de la población: N Media de la población:� Desviación estándar: �
Tamaño de la muestra: n Media de la muestra: x Desviación estándar: s
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 204
3.10.2. PARÁMETROS Y ESTIMADORES. Una población queda caracterizada a través de ciertos valores denominados parámetros,
que describen las principales propiedades del conjunto.
Un parámetro es un valor fijo (no aleatorio) que caracteriza a una población en particular.
En general, una parámetro es una cantidad desconocida y rara vez se puede determinar
exactamente su valor, por la dificultad práctica de observar todas las unidades de una
población. Por este motivo, tratamos de estimar el valor de los parámetros desconocidos a
través del empleo de muestras. Las cantidades usadas para describir una muestra se
denominan estimadores o estadísticos muestrales. Ahora bien, es razonable pensar que si tomamos diferentes muestras de la misma
población y calculamos los diferentes estadísticos de cada una, esos valores van a diferir
de muestra a muestra. Por lo tanto, un estadístico no es un valor fijo, sino que presenta las
siguientes características:
• Puede tener varios resultados posibles.
• No se puede predecir de antemano su valor.
Estas son las condiciones que definen a una variable aleatoria. Un estadístico, entonces,
es una variable aleatoria, función de las observaciones muestrales.
A los estadísticos muestrales se los designa con las letras latinas (x, s2), o letras griegas
"con sombrero" (� ^, � ^2).
Si un estadístico es una variable aleatoria, entonces es posible determinar su distribución
de probabilidades y calcular sus principales propiedades.
3.10.2.1. MUESTREO ALEATORIO. 3.10.2.1.1. Muestreo Aleatorio Simple. Selecciona muestras mediante métodos que permiten que cada posible muestra tenga
igual probabilidad de ser seleccionada y que cada elemento de la población total tenga
una oportunidad igual de ser incluido en la muestra.
Una población infinita es aquella en la que es teóricamente imposible observar todos los
elementos. Aunque muchas poblaciones parecen ser excesivamente grandes, no existe
una población realmente infinita de objetos físicos. Con recursos y tiempo ilimitados,
podríamos enumerar cualquier población finita. Como cuestión práctica, entonces,
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 205
utilizamos el término población infinita cuando hablamos acerca de una población que no
podría enumerarse en un intervalo razonable.
La forma más fácil de seleccionar una muestra de manera aleatoria es mediante el uso de
números aleatorios. Estos números pueden generarse ya sea con una computadora
programada para resolver números o mediante una tabla de números aleatorios (tabla de
dígitos aleatorios).
3.10.2.1.2. Muestreo Sistemático. En el muestreo sistemático, los elementos son seleccionados de la población dentro de un
intervalo uniforme que se mide con respecto al tiempo, al orden o al espacio.
El muestreo sistemático difiere del aleatorio simple en que cada elemento tiene igual
probabilidad de ser seleccionado, pero cada muestra no tiene una posibilidad igual de ser
seleccionada (Por ejemplo: tomar cada elemento de 10 en 10: el Nª 1, 11, 21...)
En este tipo de muestreo, existe el problema de introducir un error en el proceso de
muestreo.
Aún cuando este tipo de muestreo puede ser inapropiado cuando los elementos entran en
un patrón secuencial, este método puede requerir menos tiempo y algunas veces tiene
como resultado un costo menor que el método aleatorio simple.
3.10.2.1.3. Muestreo Estratificado. Dividimos la población en grupos relativamente homogéneos, llamados estratos. Después,
se utiliza uno de estos planteamientos:
• Seleccionamos aleatoriamente de cada estrato un número específico de elementos
correspondientes a la fracción de ese estrato en la población como un todo.
• Extraemos un número igual de elementos de cada estrato y damos peso a los
resultados de acuerdo con la porción del estrato con respecto a la población total.
Con cualquiera de estos planteamientos, el muestreo estratificado garantiza que cada
elemento de la población tenga posibilidad de ser seleccionado.
Este método resulta apropiado cuando la población ya está dividida en grupos de
diferentes tamaños y deseamos tomar en cuenta este hecho (por ejemplo: categorías
profesionales de la población).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 206
La ventaja de las muestras estratificadas es que, cuando se diseñan adecuadamente,
reflejan de manera más precisa las características de la población de la cual fueron
elegidas.
3.10.2.2. MUESTREO DE RACIMO Dividimos la población en grupos, o racimos, y luego seleccionamos una muestra aleatoria
de estos racimos. Suponemos que estos racimos individualmente son representativos de
la población como un todo (Por ejemplo: las cuadras o barrios de un pueblo). Un
procedimiento de racimo bien diseñado puede producir una muestra más precisa a un
costo considerablemente menor que el de un muestreo aleatorio simple.
Tanto en el muestreo estratificado como en el de racimo, la población se divide en grupos
bien definidos. Usamos el muestreo estratificado cuando cada grupo tiene una pequeña
variación dentro de sí mismo, pero hay una amplia variación dentro de los grupos. Usamos
el muestreo de racimo en el caso opuesto, cuando hay una variación considerable dentro
de cada grupo, pero los grupos son esencialmente similares entre sí.
El muestreo sistemático, estratificado y el de racimo intentan aproximarse al muestreo
aleatorio simple. Todos son métodos que han sido desarrollados por su precisión,
economía o facilidad física.
Los principios del muestreo aleatorio simple son la base de la inferencia estadística, el
proceso de hacer inferencias acerca de poblaciones a partir de información contenida en
muestras.
SUGERENCIAS: • El uso de muestras en un estudio estadístico permite ahorrar mucho esfuerzo y
dinero, y generalmente proporciona información muy precisa sobre las principales
propiedades de la población.
• Para seleccionar una muestra, usar técnicas que permitan garantizar que se
cumplan las propiedades de homogeneidad, independencia y representatividad.
• La técnica de muestreo utilizada depende de los objetivos del estudio, de las
características de la población y de las disponibilidades de materiales.
• Cada dato cuesta dinero, así que para elegir el tamaño de la muestra hay que
compatibilizar la precisión requerida con la variabilidad de los datos y los recursos
disponibles.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 207
3.10.3. INTRODUCCIÓN A LAS DISTRIBUCIONES DE MUESTREO. Si tomamos varias muestras de una población, las estadísticas que calcularíamos para
cada muestra no necesariamente serían iguales, y lo más probable es que variaran de una
muestra a otra.
Una distribución de probabilidad de todas las medias posibles de las muestras es una
distribución de las medias de las muestras. Los estadísticos la conocen como distribución
de muestreo de la media.
También podríamos tener una distribución de muestreo de una porción. Si trazamos una
distribución de probabilidad de porciones posibles de un evento en todas las muestras,
obtendríamos una distribución de las porciones de las muestras. A esto se lo conoce como
distribución de la porción.
3.10.3.1. DESCRIPCIÓN DE LAS DISTRIBUCIONES DE MUESTREO. Cualquier distribución de probabilidad (y, por tanto, cualquier distribución de muestreo)
puede ser descripta parcialmente por su media y su desviación estándar.
3.10.3.2. CONCEPTO DE ERROR ESTÁNDAR. En vez de decir "la desviación estándar de la distribución de las medias de la muestra"
para describir una distribución de medias de la muestra, los estadísticos se refieren al
error estándar de la media. De manera similar, la "desviación estándar de la distribución
de las proporciones de la muestra" se abrevia como error estándar de la proporción. El
término error estándar se utiliza porque da a entender un significado específico. La
variabilidad en las estadísticas de muestras proviene de un error de muestreo debido al
azar; es decir, hay diferencias entre cada muestra y la población, y entre las diversas
muestras, debido únicamente a los elementos que decidimos escoger para las muestras.
La desviación estándar de la distribución de las medias de las muestras mide el grado
hasta el que esperamos que varíen las medias de las diferentes muestras debido a este
error fortuito cometido en el proceso de muestreo. Por tanto, la desviación estándar de la
distribución de una estadística de muestra se conoce como el error estándar de la
estadística.
El error estándar indica no sólo el tamaño del error de azar que se ha cometido, sino
también la probable precisión que obtendremos si utilizamos una estadística de muestra
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 208
para estimar un parámetro de población. Una distribución de medias de muestra que está
menos extendida (y que tiene un error estándar pequeño) es un mejor estimador de la
media de la población que una distribución de medias de muestra que está ampliamente
dispersa y que tiene un error estándar más grande.
3.10.3.3. USO DEL ERROR ESTÁNDAR. Siempre que usamos pruebas, tenemos que tratar con el error estándar. Específicamente,
necesitamos cierta medición de la precisión del instrumento de prueba, generalmente
representado por el error estándar.
SUGERENCIA:
El conocimiento de la distribución de muestreo permite a los estadísticos planear muestras
de tal forma que los resultados sean significativos. Debido a que resulta caro recabar y
analizar muestras grandes, los administradores siempre procuran obtener la muestra más
pequeña que proporcione un resultado confiable.
3.10.4. BASE CONCEPTUAL PARA MUESTREAR DISTRIBUCIONES. En la terminología estadística, la distribución de muestreo que obtendríamos al tomar
todas las muestras de un tamaño dado constituye una distribución teórica de muestreo. En
casi todos los casos, los responsables de las decisiones sólo toman una muestra de la
población, calculan estadísticas para esa muestra y de esas estadísticas infieren algo
sobre los parámetros de toda la población.
3.10.4.1. MUESTREO DE POBLACIONES NORMALES. Si extraemos muestras de una población normalmente distribuida y calculamos sus
medias, debido a que estamos promediando para obtener cada media de muestra, se
promediarían hacia abajo valores muy grandes de la muestra y hacia arriba valores muy
pequeños. El razonamiento consistiría en que nos estaríamos extendiendo menos entre
las medias de muestra que entre los elementos individuales de la población original. Esto
es lo mismo que afirmar que error estándar de la media, o la desviación estándar de la
distribución de muestreo, sería menor que la desviación estándar de los elementos
individuales en la población.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 209
El error estándar de la media obtenido para situaciones en las que la población es infinita
es:
� x = � /� n
Para convertir cualquier variable aleatoria normal en una variable aleatoria normal
estándar, debemos sustraer la media de la variable que se está estandarizando y dividir el
resultado entre el error estándar (la desviación estándar de dicha variable). En este caso
particular:
3.10.4.2. MUESTREO DE POBLACIONES NO NORMALES. Cuando una población está distribuida normalmente, la distribución de muestreo de la
media también es normal.
Incluso en el caso en el que una población no está normalmente distribuida, � x, la media
de la distribución de muestreo, sigue siendo igual a la media de la población, � . Es decir,
la distribución de muestreo de la media se acerca a la normalidad, sin importar la forma de
la distribución de la población.
3.10.4.2.1. El teorema del límite central.
• La media de la distribución de muestreo de la media será igual a la media de la
población.
• Al incrementarse el tamaño de la muestra, la distribución de muestreo de la media
se acercará a la normalidad, sin importar la forma de la distribución de la población.
Esta relación entre la forma de la distribución de la población y la forma de la distribución
de muestreo se denomina teorema del límite central, que es tal vez el más importante de
toda la inferencia estadística. Nos asegura que la distribución de muestreo de la media se
aproxima a la normal al incrementarse el tamaño de la muestra. Hay situaciones teóricas
en las que el teorema del límite central no se cumple, pero casi nunca se encuentran en la
toma de decisiones práctica. Una muestra no tiene que ser muy grande para que la
distribución de muestreo de la media se acerque a la normal. Los estadísticos utilizan la
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 210
distribución normal como una aproximación a la distribución de muestreo siempre que el
tamaño de la muestra sea al menos de 30, pero la distribución de muestreo de la media
puede ser casi normal con muestras incluso de la mitad de ese tamaño. La importancia del
teorema del límite central es que nos permite usar estadísticas de muestra para hacer
inferencias con respecto a los parámetros de población sin saber nada sobre la forma de
la distribución de frecuencias de esa población más que lo que podamos obtener de la
muestra.
SUGERENCIA:
El teorema del límite central nos permite utilizar las propiedades de la distribución normal
en muchos casos en los que los datos subyacentes no están normalmente distribuidos. El
hecho de que la distribución de muestreo sea aproximadamente normal es la base de una
amplia variedad de pruebas estadísticas diferentes.
3.10.4.2.2. Relación entre el tamaño de la muestra y el error estándar. El error estándar es una medición de la dispersión de las medias de muestras alrededor
de la media de la población. Si la dispersión disminuye (si � x se hace más pequeña),
entonces los valores tomados por la media de la muestra tienden a agruparse más
cercanamente alrededor de � . Y a la inversa, si la dispersión se incrementa (si � x se
agranda), los valores tomados por la media de la muestra tienden a agruparse menos
cercanamente alrededor de � . Al disminuir el error estándar, el valor de cualquier media
de muestra probablemente se acercará al valor de la media de la población. Los
estadísticos describen este fenómeno diciendo: al disminuir el error estándar, se
incrementa la precisión con que se puede usar la media de muestra para estimar la media
de población.
Debido al hecho de que � x varía inversamente con la raíz cuadrada de n, hay una utilidad
decreciente en el muestreo.
Es cierto que al muestrear más elementos disminuye el error estándar, pero este beneficio
puede no valer el costo. El aumento de precisión puede no valer el costo del muestreo
adicional.
Sea X una variable aleatoria con distribución normal, con parámetros � , � 2. Si sacamos
muestras de tamaño n, y calculamos la media aritmética, se demuestra que bajo ciertas
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 211
condiciones, X también es una variable aleatoria con distribución normal, con parámetros
� , � 2/n. Es decir:
Si X - N (� , � 2), entonces X - N (� , � 2/n)
Las dos distribuciones tienen la misma media, pero la dispersión de la media aritmética es
menor, tanto más pequeña cuando mayor sea el tamaño de la muestra.
Como en un proceso de inferencia � es un parámetro desconocido, al extraer una muestra
en particular y calcular x, no podemos determinar exactamente qué tan cerca estuvo esa
estimación del valor verdadero del parámetro.
De lo único que podemos estar seguros es que, al aumentar el tamaño de la muestra, la
distribución de la media aritmética tiende a concentrarse más y más alrededor de la media
poblacional y, por tanto, las estimaciones van a estar más próximas al valor del parámetro
(desconocido).
Lo más relevante de la media aritmética es que, aún cuando la variable en estudio no
tenga distribución normal, o su distribución sea desconocida, si el número de elementos
de la muestra es suficientemente grande, por aplicación del Teorema del Límite Central, la
media aritmética igualmente va a tener aproximadamente distribución normal.
Por último, es interesante remarcar la idea de que la media aritmética es conceptualmente
una variable aleatoria hasta el instante previo a calcular efectivamente su valor. Después
de efectuar ese cálculo, tenemos un valor fijo (no aleatorio), y por lo tanto, deja de tener
sentido hablar de la "probabilidad de la media aritmética".
El cálculo de probabilidades con la media aritmética tiene entonces validez en términos
teóricos, es decir, representa "lo que se espera" que ocurra con dicha variable antes de
tomar una muestra y calcular efectivamente su valor.
3.10.4.2.3. El multiplicador de la población finita. Para calcular el error estándar de la media, utilizamos la ecuación:
� x = � /� n
esta ecuación está diseñada para situaciones en las que la población es infinita, o en las
que tomamos muestras de una población infinita con reemplazo.
La fórmula diseñada para encontrar el error estándar de la media cuando la población es
finita y el muestreo se hace sin reemplazo es:
� x = � /� n x � (N - n) / (N - 1)
donde:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 212
N = tamaño de la población
n = tamaño de la muestra
Este nuevo factor que aparece en la ecuación y se multiplica al error estándar original se
conoce como multiplicador de la población finita.
Cuando muestreamos una pequeña fracción de la población entera (es decir, cuando el
tamaño de la población N es muy grande en relación con el tamaño de la muestra n), el
multiplicador de la población finita toma un valor cercano a 1. Los estadísticos se refieren
a la fracción n/N como la fracción de muestreo, porque es la fracción de la población N
contenida en la muestra.
Cuando la fracción de muestreo es pequeña, el error estándar de la media para
poblaciones finitas es tan cercano a la media para poblaciones infinitas, que bien
podríamos utilizar la misma fórmula para ambas desviaciones. La regla generalmente
aceptada es: si la fracción de muestreo es menor a 0,05, no se necesita usar el multiplicar
para la población finita.
Cuando utilizamos la ecuación para poblaciones infinitas, � es constante y, por tanto, la
medida de la precisión de muestreo, � x, depende solamente del tamaño de la muestra n y
no de la fracción de población muestreada. Es decir, para hacer � x más pequeña sólo es
necesario agrandar n. En consecuencia, resulta que el tamaño absoluto de la muestra es
el que determina la precisión del muestreo, no la fracción de la población muestreada.
SUGERENCIAS: • Cuando desee calcular probabilidades con la media aritmética, no olvide que al
calcular la variable estandarizada, debe dividir por el desvío o error estándar de la
media. Los resultados serán inexactos si omite este punto.
• Para verificar el funcionamiento de un proceso, medir el rendimiento de un método,
etc. necesitamos conocer su valor medio. Si debemos estimar ese valor a través de
la muestra, recuerde que la precisión de la estimación aumenta con el incremento
del tamaño muestral. Evite realizar inferencias utilizando una sola observación.
• La aplicación del Teorema del Límite Central hace de la media aritmética una
herramienta útil, aún en aquellos casos en que la distribución de la variable en
estudio no es conocida, o no es normal.
• La disminución del error estándar no es directamente proporcional al tamaño de la
muestra, así que es conveniente compatibilizar precisión con costos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 213
Conceptos. • Censo: medición o examen de cada elemento de la población.
• Distribución de muestreo de la media: una distribución de probabilidad de todas
las medias posibles de muestras de un tamaño dado, n, de una población.
• Distribución de muestreo de una estadística: para una población dada,
distribución de probabilidad de todos los valores posibles que puede tomar una
estadística, dado un tamaño de la muestra.
• Error de muestreo: error o variación entre estadísticas de muestra debido al azar,
es decir, diferencias entre cada muestra y la población, y entre varias muestras, que
se deben únicamente a los elementos que elegimos para la muestra.
• Error estándar: la desviación estándar de la distribución de muestreo de una
estadística.
• Error estándar de la media: la desviación estándar de la distribución de muestreo
de la media, una medida del grado en que se espera que varíen las medias de las
diferentes muestras de la media de la población, debido al error aleatorio en el
proceso de muestreo.
• Estadísticas: mediciones que describen las características de una muestra.
• Estimador o estadístico: cantidad que caracteriza a una muestra, y que sirve para
aproximar el valor de un parámetro desconocido. Variable aleatoria, función de las
observaciones muestrales, a través de la cual tratamos de inferir el valor de un
parámetro poblacional.
• Estimación: valor particular de un estimador, que caracteriza a una muestra
específica.
• Estratos: grupos dentro de una población formados de tal manera que cada grupo
es relativamente homogéneo, aunque existe una variabilidad más amplia entre los
diferentes grupos.
• Fracción de muestreo: la fracción o porción de la población contenida en una
muestra.
• Inferencia estadística: proceso de análisis que consiste en inferir las propiedades
de una población en base a la caracterización de la muestra.
• Muestra: subconjunto de la población seleccionado mediante algún criterio
particular. Porción de elementos de una población elegidos para su examen o
medición directa.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 214
• Muestreo no aleatorio: conformación de la muestra en base al conocimiento o
experiencia del observador.
• Muestreo aleatorio: conformación de la muestra usando métodos al azar.
• Muestreo aleatorio simple: métodos de selección de muestras que permiten a
cada muestra posible una probabilidad igual de ser elegida y a cada elemento de la
población completa una oportunidad igual de ser incluido en la muestra.
• Muestreo con reemplazo: procedimiento de muestreo en el que los elementos se
regresan a la población después de ser elegidos, de tal forma que algunos
elementos de la población pueden aparecer en la muestra más de una vez.
• Muestreo de juicio: método para seleccionar una muestra de una población en el
que se usa el conocimiento o la experiencia personal para identificar aquellos
elementos de la población que deben incluirse en la muestra.
• Muestreo de probabilidad o aleatorio: método para seleccionar una muestra de
una población en el que todos los elementos de la población tienen igual
oportunidad de ser elegidos en la muestra.
• Muestreo estratificado: la población se divide en estratos, y luego se muestra en
forma proporcional en cada estrato. Método de muestreo aleatorio en el que la
población se divide en grupos homogéneos, o estratos, y los elementos dentro de
cada estrato se seleccionan al azar de acuerdo con una de dos reglas: 1) un
número específico de elementos se extrae de cada estrato correspondiente a la
porción de ese estrato en la población; 2) igual número de elementos se extraen de
cada estrato, y los resultados son valorados de acuerdo con la porción del estrato
de la población total.
• Muestreo de racimo (o por conglomerados): la población se divide en racimos y
luego se elige aleatoriamente una muestra de racimos. Método de muestreo
aleatorio en el que la población se divide en grupos o racimos de elementos y luego
se selecciona una muestra aleatoria de estos racimos.
• Muestreo sin reemplazo: procedimiento de muestreo en el que los elementos no
se regresan a la población después de ser elegidos, de tal forma que ningún
elemento de la población puede aparecer en la muestra más de una vez. • Muestreo sistemático: los elementos de la muestra son elegidos a intervalos fijos.
Método de muestreo aleatorio usado en estadística en el que los elementos que se
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 215
muestrearán se seleccionan de la población en un intervalo uniforme que se mide
con respecto al tiempo, al orden o al espacio.
• Multiplicador de la población finita: factor que se utiliza para corregir el error
estándar de la media en el estudio de una población de tamaño finito, pequeño con
respecto al tamaño de la muestra.
• Parámetro: valor fijo que caracteriza a una población. Valores que describen las
características de una población.
• Población: conjunto de elementos que son objeto de un estudio estadístico.
• Población finita: población que tiene un tamaño establecido o limitado.
• Precisión: el grado de exactitud con el que la media de la muestra puede estimar la
media de la población, según revela el error estándar de la media.
• Racimos: grupos dentro de una población que son esencialmente similares entre
sí, aunque los grupos mismos tengan amplia variación interna.
• Teorema del límite central: resultado que asegura que la distribución de muestreo
de la media se acerca a la normalidad cuando el tamaño de la muestra se
incrementa, sin importar la forma de la distribución de la población de la que se
selecciona la muestra.
3.10.5. ESTIMACIÓN. El material sobre teoría de la probabilidad constituye la base de la inferencia estadística,
rama de la estadística que tiene que ver con el uso de los conceptos de la probabilidad
para tratar con la toma de decisiones en condiciones de incertidumbre. La inferencia
estadística está basada en la estimación y en la prueba de hipótesis.
3.10.5.1. TIPOS DE ESTIMACIÓN. Podemos hacer dos tipos de estimaciones concernientes a una población:
• Una estimación puntual: es sólo u número que se utiliza para estimar un parámetro
de población desconocido. Una estimación puntual a menudo resulta insuficiente,
debido a que sólo tiene dos opciones: es correcta o está equivocada. Una
estimación puntual es mucho más útil si viene acompañada por una estimación del
error que podría estar implicado.
• Una estimación de intervalo: es un intervalo de valores que se utiliza para estimar
un parámetro de población. Esta estimación indica el error de dos maneras: por la
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 216
extensión del intervalo y por la probabilidad de obtener el verdadero parámetro de
la población que se encuentra dentro del intervalo.
3.10.5.2. ESTIMADOR Y ESTIMACIONES. Un estimador es una estadística de muestra utilizada para estimar un parámetro de
población. La media de la muestra puede ser un estimador de la media de la población, y
la porción de la muestra se puede utilizar como estimador de la porción de la población.
También podemos utilizar el alcance de la muestra como un estimador del alcance de la
población.
Cuando hemos observado un valor numérico específico de nuestro estimador, nos
referimos a ese valor como una estimación. Una estimación es un valor específico
observado de una estadística. Hacemos una estimación si tomamos una muestra y
calculamos el valor que toma nuestro estimador en esa muestra.
3.10.5.3. CRITERIOS PARA SELECCIONAR UN BUEN ESTIMADOR. 1. Imparcialidad. Se refiere al hecho de que una media de muestra es un estimador
no sesgado de una media de población, porque la media de distribución de
muestreo de las medias de muestras tomadas de la misma población es igual a la
media de la población misma. Podemos decir que una estadística es un estimador
imparcial (o no sesgado) si, en promedio, tiende a tomar valores que están por
encima del parámetro de la población y la misma extensión con la que tiende a
asumir valores por debajo del parámetro de población que se está estimando. 2. Eficiencia. Se refiere al tamaño del error estándar de la estadística. Si
comparamos dos estadísticas de una muestra del mismo tamaño y tratamos de
decidir cuál de ellas es un estimador más eficiente, escogeríamos la estadística que
tuviera el menor error estándar o la menor desviación estándar de la distribución de
muestreo. Tiene sentido pensar que un estimador con un error estándar menor (con
menos desviación) tendrá una mayor oportunidad de producir una estimación más
cercana al parámetro de población que se está considerando. 3. Coherencia. Una estadística es un estimador coherente de un parámetro de
población si al aumentar el tamaño de la muestra, se tiene casi la certeza de que el
valor de la estadística se aproxima bastante al valor del parámetro de la población.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 217
Si un estimador es coherente, se vuelve más confiable si tenemos tamaños de
muestras más grandes. 4. Suficiencia. Un estimador es suficiente si utiliza una cantidad de la información
contenida en la muestra que ningún otro estimador podría extraer información
adicional de la muestra sobre el parámetro de la población.
Una estadística de muestra dada no siempre es el mejor estimador de su parámetro de
población correspondiente. Considere una población distribuida simétricamente, en la que
los valores de la mediana y de la media coinciden. En este caso, la media de la muestra
sería un estimador imparcial de la mediana de la población debido a que asumiría valores
que en promedio serían iguales a la mediana de la población. También, la media de la
muestra sería un estimador consistente de la mediana de la población, puesto que,
conforme aumenta el tamaño de la muestra, el valor de la media de la muestra tenderá a
acercarse bastante a la mediana de la población. Y la media de la muestra sería un
estimador más eficiente de la mediana de la población que la mediana misma, ya que en
muestras grandes, la media de la muestra tiene una desviación estándar menor que la
mediana de la muestra. Al mismo tiempo, la mediana de la muestra de una distribución
distribuida simétricamente sería un estimador imparcial y consistente de la media de la
población, pero no el más eficiente estimador, porque en muestras grandes su error
estándar es mayor que el de la media de la muestra.
3.10.5.4. ESTIMACIONES PUNTUALES. La media de la muestra es el mejor estimador de la media de la población. Es imparcial,
coherente, el estimador más eficiente y, siempre y cuando la muestra sea la
suficientemente grande, su distribución de muestreo puede ser aproximada por la
distribución normal.
Si conocemos la distribución de muestreo de la media, podemos llegar a conclusiones con
respecto a cualquier estimación que podamos hacer a partir de la información de
muestreo.
3.10.5.4.1. Estimación puntual de la varianza y de la desviación estándar de la población. El estimador utilizado con más frecuencia para hacer la estimación de la desviación
estándar de la población, es la desviación estándar de la muestra:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 218
s2 = � (x - x)2 / (n - 1)
Al utilizar un divisor n - 1, nos da un estimador imparcial de � 2.
3.10.5.4.2. Estimación puntual de la porción de la población. La porción de unidades de una población dada que posee una característica particular se
representa mediante el símbolo p. Si conocemos la porción de unidades de una muestra
que tiene la misma característica, podemos utilizar esa p como estimador de p. Se puede
mostrar que p tiene todas las características deseables: es imparcial (no sesgado),
coherente, eficiente y suficiente.
SUGERENCIA:
Incluso cuando estamos utilizando el mejor estimador de un parámetro de población,
aceptamos que puede estar implicado algo de error. Afirmamos que la estimación puntual
y la medida de la varianza proporcionan información útil para las decisiones.
3.10.5.5. ESTIMACIONES DE INTERVALO. El propósito de tomar muestras es para conocer más acerca de una población. Podemos
calcular esa información a partir de las muestras como estimaciones puntuales, o como
estimaciones de intervalo. Una estimación de intervalo describe un intervalo de valores
dentro del cual es posible que esté un parámetro de población.
Si seleccionamos y representamos gráficamente un gran número de medias de muestras
de una población, la distribución de tales medias se aproximará a la curva normal.
Además, la media de las medias de muestra será la misma media de la población.
3.10.5.5.1. Probabilidad de que el parámetro de la población esté dentro de la estimación. En lo que concierne a cualquier intervalo particular, éste contiene a la media de la
población o no la contiene, pues la media de la población es un parámetro fijo, y no varía.
Cuando las organizaciones informan la precisión de encuestas de opinión como "estos
resultados son precisos en más menos tres puntos", por lo general no establecen el nivel
de confianza que están utilizando para hacer la estimación de intervalo. Una afirmación
más completa tendría la forma. "existe un 95% de probabilidad de que la verdadera
opinión de la población caiga dentro del intervalo comprendido entre….."
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 219
3.10.5.5.2. Estimaciones de intervalo e intervalos de confianza. La probabilidad que asociamos con una estimación de intervalo se conoce como nivel de
confianza. Esta probabilidad indica qué tanta confianza tenemos de que la estimación de
intervalo incluya al parámetro de población. Una probabilidad más alta indica más
confianza.
El intervalo de confianza es el alcance de la estimación que estamos haciendo.
Expresaremos el intervalo de confianza en términos de errores estándar, más que con
valores numéricos. Los límites de confianza son los límites superior e inferior del intervalo
de confianza
3.10.5.5.3. Relación entre el nivel de confianza e intervalo de confianza. Podría pensarse que deberíamos utilizar un nivel alto de confianza en todos los problemas
sobre estimaciones. En la práctica, sin embargo, altos niveles de confianza producen
intervalos de confianza grandes, y éstos no son precisos, dan estimaciones bastante
imprecisas.
3.10.5.5.4. Uso del muestreo y de la estimación de intervalos de confianza. A menudo resulta difícil o caro tomar más de una muestra de una población. Basados en
solamente una muestra estimamos el parámetro de población.
El intervalo de confianza quiere decir que si seleccionamos muchas muestras aleatorias
del mismo tamaño y si calculamos un intervalo de confianza para cada una de las
muestras, tendremos un porcentaje de confianza determino de que en todos los casos la
media de la población caerá dentro del intervalo.
Por otro lado, existe un cierto equilibrio entre la certidumbre de la estimación y el ancho de
un intervalo de confianza.
3.10.5.5.5. Cálculo de estimaciones de intervalo de la media a partir de muestras grandes. Se calcula el error estándar de la media para una población infinita:
� x = � /� n
Posteriormente, se establecen los límites de confianza superior e inferior, considerando el
porcentaje de confianza requerido.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 220
3.10.5.5.6. Cuando no se conoce la desviación estándar. Cuando no se conoce la desviación estándar de la población, utilizamos la desviación
estándar de la muestra para estimar la desviación estándar de la población:
s2 = � � [(x - x)2 / (n - 1)]
La fórmula para derivar el error estándar de la media de poblaciones finitas es:
� x = {� /� n} x � (N - n) / N - 1)
A partir de esto, podemos calcular el error estándar de la media mediante la desviación
estándar de la población:
� ´x = {� ´x/� n} x � (N - n) / N - 1)
SUGERENCIA:
Cuando tenemos muestras grandes, utilizamos el Teorema del Límite Central, nuestro
conocimiento de la curva normal y nuestra habilidad para hacer correcciones para
poblaciones finitas.
3.10.6. DETERMINACIÓN DEL TAMAÑO DE LA MUESTRA. Siempre que tomamos una muestra, perdemos algo de información útil con respecto a la
población. El error de muestre se puede controlar si seleccionamos una muestra cuyo
tamaño sea el adecuado. En general, cuanta más precisión se quiera, más grande será el
tamaño de la muestra necesaria.
Para calcular el tamaño de muestra, podemos utilizar la fórmula del error estándar de la
media:
� x = � /� n
Si no conocemos la desviación estándar de la población, podemos utilizar el alcance de la
población para obtener una estimación burda pero manejable de la desviación estándar.
Sabemos que más menos tres desviaciones estándar incluyen 99,7% del área total bajo la
curva normal, esto es, más tres desviaciones estándar y menos tres desviaciones
estándar de la media incluyen casi toda el área de la distribución.
3.10.7. SUGERENCIAS: • Un estimador es una variable aleatoria, y por lo tanto es posible asociarle
probabilidades, lo que resulta de suma utilidad como herramienta auxiliar para la
toma de decisiones bajo condiciones de incertidumbre.
• Una estimación, en cambio, es un valor particular del estimador, calculado en base
a una muestra dada. Por tanto, constituye un valor fijo (no aleatorio) que caracteriza
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 221
a esa muestra en particular, pero que se usa para inferir el valor de un parámetro
desconocido.
• Entre un estimador puntual y uno por intervalos, es preferible usar este último
porque tiene asociado una probabilidad que contempla el error que se puede
cometer en la aproximación.
3.10.8. CONCEPTOS. • Estimación: valor específico de un estimador, calculado en base a una muestra
dada.
• Estimación de intervalo: intervalo de valores utilizado para estimar un parámetro
de población desconocido.
• Estimación de parámetros: Aproximación del valor de parámetros poblacionales
desconocidos mediante del empleo de estadísticos muestrales.
• Estimación puntual: un solo número que se utiliza para estimar un parámetro de
población desconocido.
• Estimador: estadística de muestra utilizada para estimar un parámetro de
población. Conceptualmente es una variable aleatoria.
• Estimador coherente: estimador que produce valores que se acercan más al
parámetro de la población conforme aumenta el tamaño de la muestra.
• Estimador eficiente: estimador con un menor error estándar que algún otro
estimador del parámetro de la población, esto es, cuanto más pequeño sea el error
estándar de un estimador, más eficiente será ese estimador.
• Estimador imparcial: estimador de un parámetro de población que, en promedio,
asume valores por encima del parámetro de la población con la misma frecuencia, y
al mismo grado, con que tiende a tomarlos por debajo del parámetro de la
población.
• Estimador suficiente: estimador que utiliza toda la información disponible en los
datos correspondientes a un parámetro.
• Intervalo de confianza: intervalo de valores que tiene designada una probabilidad
de que incluya el valor real del parámetro de la población.
• Límites de confianza: límites inferior y superior de un intervalo de confianza.
• Nivel de confianza: probabilidad que los estadísticos asocian con una estimación
de intervalo de un parámetro de población, ésta indica qué tan seguros están de
que la estimación de intervalo incluirá el parámetro de la población. Probabilidad,
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 222
designada de antemano, de que un intervalo de confianza incluya al valor del
parámetro desconocido.
• Propiedades de un buen estimador: características deseables de un estimador,
para lograr la mejor aproximación posible de un parámetro poblacional.
3.10.9. PRUEBAS DE HIPÓTESIS Una hipótesis es una afirmación acerca de algo. En estadística, puede ser una suposición
acerca del valor de un parámetro desconocido.
Pasos en la prueba de hipótesis:
1. Definir la hipótesis nula: suponer una hipótesis acerca de una población.
2. Formular una hipótesis alternativa: es una contra-hipótesis.
3. Definir un criterio de decisión para rechazar o no la hipótesis nula.
4. Recabar datos de la muestra.
5. Calcular una estadística de muestra.
6. Utilizar la estadística de muestra para evaluar la hipótesis.
Generalmente, se habla de "no rechazar" una hipótesis en lugar de "aceptar", ya que las
pruebas no son concluyentes.
3.10.9.1. INTRODUCCIÓN La prueba de hipótesis comienza con una suposición, llamada hipótesis, que hacemos con
respecto a un parámetro de población. Después recolectamos datos de muestra,
producimos estadísticas de muestra y usamos esta información para decidir qué tan
probable es que sea correcto nuestro parámetro de población acerca del cual hicimos la
hipótesis.
Debemos establecer el valor supuesto o hipotetizado del parámetro de población antes de
comenzar a tomar la muestra. La suposición que deseamos probar se conoce como
hipótesis nula, y se simboliza H0.
Siempre que rechazamos la hipótesis, la conclusión que sí aceptamos se llama hipótesis
alternativa y se simboliza H1.
3.10.9.2. INTERPRETACIÓN DEL NIVEL DE SIGNIFICANCIA. El propósito de la prueba de hipótesis no es cuestionar el valor calculado de la estadística
de muestra, sino hacer un juicio respecto a la diferencia entre esa estadística de muestra y
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 223
un parámetro de población hipotetizado. El siguiente paso después de establecer la
hipótesis nula alternativa consiste en decidir qué criterio utilizar para decidir si aceptar o
rechazar la hipótesis nula.
Si suponemos que la hipótesis es correcta, entonces el nivel de significancia indicará el
porcentaje de medias de muestra que está fuera de ciertos límites.
Siempre que afirmemos que aceptamos la hipótesis nula, en realidad lo que queremos
decir es que no hay suficiente evidencia estadística para rechazarla. El empleo del término
aceptar, en lugar de rechazar, se ha vuelto de uso común. Significa simplemente que
cuando los datos de la muestra n hacen que rechacemos una hipótesis nula, nos
comportamos como si fuera cierta.
3.10.9.3. SELECCIÓN DEL NIVEL DE SIGNIFICANCIA Nuestra elección del estándar mínimo para una probabilidad aceptable, o el nivel de
significancia, es también el riesgo que asumimos al rechazar una hipótesis nula cuando es
cierta. Mientras más alto sea el nivel de significancia que utilizamos para probar una
hipótesis, mayor será la probabilidad de rechazar una hipótesis nula cuando es cierta.
3.10.9.3.1. Errores tipo I y tipo II. El rechazo de una hipótesis nula cuando es cierta se denomina error de tipo I, y su
probabilidad (que es también el nivel de significancia) se simboliza como � . El hecho de
aceptar una hipótesis nula cuando es falsa se denomina error de tipo II, y su probabilidad
se simboliza como � . La probabilidad de cometer un tipo de error puede reducirse sólo si
deseamos incrementar la probabilidad de cometer el otro tipo de error. Con el propósito de
obtener una � baja, tendremos que tolerar una � alta. Los responsables de la toma de
decisiones deciden el nivel de significancia adecuado, al examinar los costos o
desventajas vinculadas con ambos tipos de errores.
3.10.9.3.2. Pruebas de hipótesis de dos extremos y de un extremo. Una prueba de dos extremos de una hipótesis, rechazará la hipótesis nula si la media de
muestra es significativamente mayor o menor que la media de la población hipotetizada.
Existen dos regiones de rechazo.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 224
Hay situaciones en las que no es apropiada una prueba de dos extremos, por lo que
debemos usar una prueba de un extremo, que pueden ser de extremo izquierdo (o inferior)
o extremo derecho (o superior).
La única forma de probar una hipótesis nula es conociendo el parámetro de población, y
eso no es posible al tomar una muestra. Por consiguiente, aceptamos la hipótesis nula y
nos comportamos como si fuera cierta, simplemente porque no podemos encontrar
evidencia para rechazarla.
3.10.9.3.3. Medición de la potencia de una prueba de hipótesis. Idealmente, tanto � como � (las probabilidades de los errores tipo I y II deben ser
pequeñas. Una vez que decidimos el nivel de significancia, no hay nada que podamos
hacer con respecto a � .
Cuando la hipótesis nula es falsa, � (la media de la población cierta) no es igual a la
media hipotetizada.
Puesto que rechazar una hipótesis nula cuando es falsa es exactamente lo que debe
hacer una buena prueba, un valor alto de 1 - � significa que la prueba está trabajando
bastante bien (está rechazando la hipótesis nula cuando es falsa. Puesto que 1 - � es la
medida de qué tan bien trabaja la prueba, se la conoce como la potencia de la prueba. Si
representamos gráficamente los valores 1 - � por cada valor de � para el que la hipótesis
alternativa es cierta, la curva resultante se conoce como curva de potencia.
3.10.10. SUGERENCIAS: • Conviene plantear la hipótesis nula siempre por la igualdad. Adapte la
contrahipótesis de acuerdo con el objetivo del problema.
• Formule la hipótesis en base a los objetivos del estudio, pero siempre antes de
extraer la muestra y calcular el estimador puntual del parámetro desconocido, para
no verse influenciado por este resultado.
• Tenga en cuenta que si bien la hipótesis nula es la que se pone bajo prueba, eso no
significa que deba ser siempre la suposición que el experimentador desea que se
compruebe.
• Como en todo proceso de inferencia, existe algún grado de subjetividad en la
realización de una prueba, particularmente en la elección del nivel de significancia y
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 225
del tamaño de la muestra. Trate de que la elección de estos valores responda a un
análisis cuidadoso del problema en cuestión.
• Una vez fijadas las condiciones de la prueba, el resultado de la misma es
totalmente objetivo.
• Para fijar el nivel de significancia de la prueba, hay que tener en cuenta que cuando
la probabilidad del error tipo I aumenta, la del error tipo II disminuye. La forma de
minimizar el error tipo II independientemente del nivel de significancia, es
aumentando el tamaño de la muestra.
• Como las probabilidades de los errores tipo I y II están relacionadas entre ´si, pero
el experimentador puede fijar la primera, antes de elegir el nivel de significancia hay
que ver cuál de los dos tipos de errores resulta más crítico.
3.10.11. CONCEPTOS: • Alfa: probabilidad de cometer un error de tipo I.
• Beta: probabilidad de cometer un error de tipo II.
• Curva de potencia: gráfica de los valores de la potencia de una prueba por cada
valor de � , u otro parámetro de población, para el que la hipótesis alternativa es
cierta.
• Error de tipo I: rechazo de una hipótesis nula cuando es cierta.
• Error de tipo II: aceptación de una hipótesis nula cuando es falsa.
• Escala estandarizada: medición en desviaciones estándar a partir de la media de
la variable.
• Escala sin procesar: medición en las unidades originales de la variable.
• Hipótesis: suposición o especulación que hacemos con respecto a un parámetro
de población.
• Hipótesis alternativa: conclusión que aceptamos cuando los datos no respaldan la
hipótesis nula. • Hipótesis estadística: afirmación acerca del valor de un parámetro desconocido, o
sobre la distribución de una variable.
• Hipótesis nula: hipótesis o suposición con respecto a un parámetro de población
que deseamos probar.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 226
• Nivel de significancia: valor que indica el porcentaje de valores de muestra que
están fuera de ciertos límites, suponiendo que la hipótesis nula es correcta, es
decir, se trata de la probabilidad de rechazar la hipótesis nula cuando es cierta.
• Potencia de prueba de hipótesis: probabilidad de rechazar la hipótesis nula
cuando es falsa, es decir, una medida de qué tan bien funciona la prueba de
hipótesis.
• Prueba de hipótesis: experimento que pone bajo prueba una hipótesis estadística,
para decidir si es verdadera o falsa.
• Prueba de dos extremos: prueba de hipótesis en la que la hipótesis nula se
rechaza si el valor de muestra es significativamente menor o mayor que el valor
hipotetizado del parámetro de población, prueba que involucra dos regiones de
rechazo.
• Prueba de extremo inferior: prueba de hipótesis de un extremo en la que un valor
de la muestra que se encuentra significativamente por debajo del valor de la
población hipotetizada, nos llevará a rechazar la hipótesis nula.
• Prueba de extremo superior: prueba de hipótesis de un extremo en la que un
valor de muestra significativamente superior al valor de población hipotetizado nos
llevará a rechazar la hipótesis nula.
• Prueba de un extremo: prueba de hipótesis en la que sólo hay una región de
rechazo, es decir, sólo nos interesa si el valor observado se desvía del valor
hipotetizado en una dirección.
• Valor crítico: valor de la estadística estándar (z) más allá del cual rechazamos la
hipótesis nula; el límite entre las regiones de aceptación y rechazo. 3.10.12. INTRODUCCIÓN A LA ESTADÍSTICA NO PARAMÉTRICA Las pruebas de hipótesis hacen inferencias respecto a los parámetros de la población,
como la media. Estas pruebas paramétricas utilizan la estadística paramétrica de muestras
que provinieron de la población que se está probando. Para formular estas pruebas,
hicimos suposiciones restrictivas sobre las poblaciones de las que extraíamos las
muestras. Por ejemplo: suponíamos que las muestras eran grandes o que provenían de
poblaciones normalmente distribuidas. Pero las poblaciones no siempre son normales.
Los estadísticos han desarrollado técnicas útiles que no hacen suposiciones restrictivas
respecto a la forma de las distribuciones de las poblaciones. Éstas se conocen como
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 227
pruebas sin distribución, o pruebas no paramétricas. Las hipótesis de una probabilidad no
paramétrica se refieren a algo distinto del valor de un parámetro de población
3.10.12.1. VENTAJAS DE LOS MÉTODOS NO PARAMÉTRICOS. 1. No requieren que hagamos la suposición de que una población está distribuida en
forma de curva normal u otra forma específica.
2. Generalmente, son más fáciles de efectuar y comprender.
3. Algunas veces, ni siquiera se requiere el ordenamiento o clasificación formal.
3.10.12.2. DESVENTAJAS DE LOS MÉTODOS NO PARAMÉTRICOS. 1. Ignoran una cierta cantidad de información
2. A menudo, no son tan eficientes como las pruebas paramétricas. Cuando usamos
pruebas no paramétricas, efectuamos un trueque: perdemos agudeza al estimar
intervalos, pero ganamos la habilidad de usar menos información y calcular más
rápidamente.
3.10.12.3. PRUEBA DE KOLMOGOROV.SMIRNOV. Se trata de un método no paramétrico sencillo para probar si existe una diferencia
significativa entre una distribución de frecuencia observada y otra frecuencia teórica. Es
otra medida de la bondad de ajuste de una distribución de frecuencia teórica.
Se basa en la comparación de distribuciones acumuladas: la distribución acumulada de los
datos observados y la distribución acumulada teórica correspondiente al modelo elegido.
Tiene varias ventajas: es una prueba poderosa y fácil de utilizar, puesto que no requiere
que los datos se agrupen de determinada manera.
Es particularmente útil para juzgar qué tan cerca está la distribución de frecuencias
observada de la distribución de frecuencias esperada, porque la distribución de
probabilidad Dn depende del tamaño de muestra n, pero es independiente de la
distribución de frecuencia esperada (Dn es una estadística de distribución libre).
Para calcular la estadística K-S, simplemente se elige Dn (la desviación absoluta máxima
entre las frecuencias observadas y teóricas).
Una prueba K-S siempre debe ser una prueba de un extremo.
Luego se busca el valor crítico en la tabla, para las n observaciones, considerando el nivel
de significancia adoptado.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 228
Si el valor de la tabla es mayor que el valor de Dn, entonces aceptaremos la hipótesis
nula.
3.10.13. SUGERENCIAS: • La prueba de Kolmogorov puede usarse con muestras muy pequeñas, en donde no
se pueden aplicar otras pruebas paramétricas.
• Podemos usar la prueba de Kolmogorov para verificar la suposición de normalidad
subyacente en todo análisis de inferencia.
• Si bien constituye una prueba de implementación sencilla, tenga en cuenta que
carga con las desventajas de los métodos no paramétricos en general, en el sentido
de producir resultados menos precisos que los procedimientos convencionales.
• Cuando trabaje con muestras pequeñas, recuerde usar la frecuencia cumulada
experimental.
3.10.14. CONCEPTOS: • Pruebas de bondad de ajuste: pruebas de hipótesis que ponen bajo prueba una
afirmación acerca de la distribución de una variable aleatoria.
• Prueba de Kolmogorrov-Smirnov: prueba no paramétrica que no requiere que los
datos se agrupen de ninguna manera para determinar si existe diferencia
significativa entre la distribución de frecuencia observada y la distribución de
frecuencia teórica. • Pruebas no paramétricas: técnicas estadísticas que no hacen suposiciones
restrictivas respecto a la forma de la distribución de población al realizar una prueba
de hipótesis. •
3.10.15. REFERENCIAS o RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA
ADMINISTRADORES, ED. PRENTICE HALL, SEXTA ED., 1996
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 229
3.11. PROBABILIDAD
3.11.1. HISTORIA DE LA PROBABILIDAD Jacob Berooulli (1654 - 1705), Abraham de Moivre (1667 - 1754), el reverendo Thomas
Bayes (1702 - 1761) y Joseph Lagrange (1736 - 1813) desarrollaron fórmulas y técnicas
para el cálculo de la probabilidad. En el siglo XIX, Pierre Simon, marqués de Laplace
(1749 - 1827), unificó todas estas primeras ideas y compiló la primera teoróa general de la
probabilidad.
La teoría de la probabilidad fue aplicada con éxito en las mesas de juego y, lo que es más
importante, en problemas sociales y económicos. La industria de seguros requería un
conocimiento preciso acerca de los riesgos de pérdida. Muchos centros de aprendizaje
estudiaron la probabilidad como una herramienta para el entendimiento de los fenómenos
sociales.
Nuestra necesidad de tratar con total incertidumbre nos lleva a estudiar y utilizar la teoría
de la probabilidad. Al organizar la información y considerarla de manera sistemática,
seremos capaces de reconocer nuestras suposiciones, comunicar nuestro razonamiento a
otras personas y tomar una decisión más sólida.
3.11.2. CONCEPTOS BÁSICOS SOBRE PROBABILIDAD. La probabilidad es la posibilidad de que algo pase. Las probabilidades se expresan como
fracciones o como decimales que están entre uno y cero. Tener una probabilidad de cero
significa que algo nuca va a suceder; una probabilidad de uno indica que algo va a
suceder siempre.
En la teoría de la probabilidad, un evento es uno o más de los posibles resultados de
hacer algo. La actividad que origine uno de dichos eventos se conoce como experimento
aleatorio.
Al conjunto de todos los resultados posibles de un experimento se le llama espacio
muestral del experimento.
Se dice que dos eventos son mutuamente excluyentes si uno y sólo uno de ellos puede
tener lugar a un tiempo.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 230
Cuando en una lista de los posibles eventos que pueden resultar de un experimento se
incluyen todos los resultados posibles, se dice que la lista es colectivamente exhaustiva.
En una lista colectivamente exhaustiva se presentan todos los resultados posibles.
3.11.3. TRES TIPOS DE PROBABILIDAD. Existen tres maneras básicas de clasificar la probabilidad. Estas tres formas presentan
planteamientos conceptuales bastante diferentes:
• Planteamiento clásico.
• Planteamiento de frecuencia relativa.
• Planteamiento subjetivo.
3.11.3.1. PROBABILIDAD CLÁSICA. Se define la probabilidad de que un evento ocurra como:
Número de resultados en los que se presenta el evento / número total de resultados
posibles
Cada uno de los resultados posibles debe ser igualmente posible.
La probabilidad clásica, a menudo, se le conoce como probabilidad a priori, debido a que
si utilizamos ejemplos previsibles como monedas no alteradas, dados no cargados y
mazos de barajas normales, entonces podemos establecer la respuesta de antemano, sin
necesidad de lanzar una moneda, un dado o tomar una carta. No tenemos que efectuar
experimentos para poder llegar a conclusiones.
Este planteamiento de la probabilidad tiene serios problemas cuando intentamos aplicarlo
a los problemas de toma de decisiones menos previsibles. El planteamiento clásico
supone un mundo que no existe, supone que no existen situaciones que son bastante
improbables pero que podemos concebir como reales. La probabilidad clásica supone
también una especie de simetría en el mundo.
3.11.3.2. FRECUENCIA RELATIVA DE PRESENTACIÓN. En el siglo XIX, los estadísticos británicos, interesados en la fundamentación teórica del
cálculo del riesgo de pérdidas en las pólizas de seguros de vida y comerciales, empezaron
a recoger datos sobre nacimientos y defunciones. En la actualidad, a este planteamiento
se le llama frecuencia relativa de presentación de un evento y define la probabilidad como:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 231
• La frecuencia relativa observada de un evento durante un gran número de intentos,
o
• La fracción de veces que un evento se presenta a la larga, cuando las condiciones
son estables.
Este método utiliza la frecuencia relativa de las presentaciones pasadas de un evento
como una probabilidad. Determinamos qué tan frecuente ha sucedido algo en el pasado y
usamos esa cifra para predecir la probabilidad de que suceda de nuevo en el futuro.
Cuando utilizamos el planteamiento de frecuencia relativa para establecer probabilidades,
el número que obtenemos como probabilidad adquirirá mayor precisión a medida que
aumentan las observaciones.
Una dificultad presente con este planteamiento es que la gente lo utiliza a menudo sin
evaluar el número suficiente de resultados.
3.11.3.3. PROBABILIDADES SUBJETIVAS. Las probabilidades subjetivas están basadas en las creencias de las personas que
efectúan la estimación de probabilidad. La probabilidad subjetiva se puede definir como la
probabilidad asignada a un evento por parte de un individuo, basada en la evidencia que
se tenga disponible. Esa evidencia puede presentarse en forma de frecuencia relativa de
presentación de eventos pasados o puede tratarse simplemente de una creencia
meditada.
Las valoraciones subjetivas de la probabilidad permiten una más amplia flexibilidad que los
otros dos planteamientos. Los tomadores de decisiones puede hacer uso de cualquier
evidencia que tengan a mano y mezclarlas con los sentimientos personales sobre la
situación.
Las asignaciones de probabilidad subjetiva se dan con más frecuencia cuando los eventos
se presentan sólo una vez o un número muy reducido de veces.
Como casi todas las decisiones sociales y administrativas de alto nivel se refieren a
situaciones específicas y únicas, los responsables de tomar decisiones hacen un uso
considerable de la probabilidad subjetiva.
SUGERENCIA.
En la resolución de problemas de probabilidad clásica, tener cuidado de asegurarse de si
la situación descrita es "con sustitución" o "sin sustitución" después de cada intento.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 232
3.11.4. REGLAS DE PROBABILIDAD. La mayoría de los administradores que utilizan la probabilidad se preocupan por dos
condiciones:
• El caso en que un evento u otro se presente.
• La situación en que dos o más eventos se presenten al mismo tiempo.
La probabilidad de un evento A se expresa como:
P (A)
Una probabilidad sencilla quiere decir que sólo un evento puede llevarse a cabo. Se le
conoce como probabilidad marginal o incondicional.
Usamos una representación gráfica, conocida como diagrama de Venn. El espacio
muestral completo se representa mediante un rectángulo y los eventos se representan
como partes de ese rectángulo.
Si dos eventos son mutuamente excluyentes, las partes correspondientes de éstos en el
rectángulo, no se traslaparán. Si dos eventos no son mutuamente excluyentes, sus partes
correspondientes en el rectángulo sí se traslapan.
Debido a que las probabilidades se comportan en mucho como si fueran áreas,
tomaremos el área del rectángulo como la unidad. Entonces la probabilidad de que suceda
un evento es su área que le corresponde dentro del rectángulo.
3.11.4.1. REGLA DE LA ADICIÓN PARA EVENTOS MUTUAMENTE EXCLUYENTES. A menudo, estamos interesados en la probabilidad de que una cosa u otra suceda. Si
estos dos eventos son mutuamente excluyentes, podemos expresar esta probabilidad
haciendo uso de la regla de adición para eventos mutuamente excluyentes:
P (A o B) = P (A) + P (B)
Existe un caso especial, para cualquier evento A, tenemos que éste sucede o no sucede.
De modo que los eventos A y no A son mutuamente excluyentes y exhaustivos:
P(A) + P(no A) = 1
P(A) = 1 - P(no A)
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 233
3.11.4.2. REGLA DE ADICIÓN PARA EVENTOS QUE NO SON MUTUAMENTE EXCLUYENTES. Si dos eventos no son mutuamente excluyentes, es posible que ambos se presenten al
mismo tiempo. En tales casos, debemos modificar la regla de la adición para evitar el
conteo doble:
P(A o B) = P(A) + P(B) - P(AB)
3.11.4.3. PROBABILIDADES BAJO CONDICIONES DE INDEPENDENCIA ESTADÍSTICA. Cuando se presentan dos eventos, el resultado del primero puede tener un efecto en el
resultado del segundo, o puede no tenerlo. Esto es, los eventos pueden ser dependientes
o independientes. Existen tres tipos de probabilidades que se presentan bajo
independencia estadística:
• Marginal.
• Conjunta.
• Condicional.
3.11.4.4. PROBABILIDADES MARGINALES BAJO INDEPENDENCIA ESTADÍSTICA. Una probabilidad marginal o incondicional es la probabilidad simple de presentación de un
evento.
3.11.4.5. PROBABILIDADES CONJUNTAS BAJO CONDICIONES DE INDEPENDENCIA. La probabilidad de dos o más eventos independientes que se presentan juntos o en
sucesión es el producto de sus probabilidades marginales:
P (AB) = P(A) X P(B)
Un árbol de probabilidad muestra los resultados posibles y su respectiva probabilidad.
3.11.4.6. PROBABILIDADES CONDICIONALES BAJO INDEPENDENCIA. Simbólicamente, la probabilidad condicional se escribe: P(B/A)
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 234
Y se lee "la probabilidad de que se presente el evento B, dado que el evento A se ha
presentado". La probabilidad condicional es la probabilidad de que un segundo evento (B)
se presente, si un primer evento (A) ya ha sucedido.
Para eventos estadísticamente independientes, la probabilidad condicional de que suceda
el evento B dado que el evento A se ha presentado, es simplemente la probabilidad del
evento B:
P(B/A) = P(B)
SUGERENCIA:
Una buena verificación de los cálculos para obtener la probabilidad conjunta consiste en
recordar que para cada intento, el total de probabilidades resultantes debe sumar 1.
3.11.4.7. PROBABILIDADES BAJO CONDICIONES DE DEPENDENCIA ESTADÍSTICA. La dependencia estadística existe cuando la probabilidad de que se presente algún
suceso depende o se ve afectada por la presentación de algún otro evento. Los tipos de
probabilidad bajo condiciones de dependencia estadística son:
• Condicional.
• Conjunta.
• Marginal.
3.11.4.8. PROBABILIDAD CONDICIONAL BAJO DEPENDENCIA ESTADÍSTICA. P(B/A) = P(BA) / P(A)
3.11.4.9. PROBABILIDADES CONJUNTAS BAJO CONDICIONES DE DEPENDENCIA. P(BA) = P(B/A) x P(A) O
P(BA) = P(A/B) x P(B)
3.11.4.10. PROBABILIDADES MARGINALES BAJO CONDICIONES DE DEPENDENCIA.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 235
Las probabilidades marginales bajo dependencia estadística se calculan mediante la suma
de las probabilidades de todos los eventos conjuntos en los que se presenta el evento
sencillo.
SUGERENCIA:
Hacer la diferencia necesaria entre probabilidad condicional y probabilidad conjunta
mediante el uso correcto de los términos "dado que..." y "tanto... como": P(A/B) es la
"probabilidad de que se presente el evento A dado que ya se ha presentado B" y P(AB) es
la "probabilidad de que tanto A como B se presenten". Y la probabilidad marginal P(A) es
la "probabilidad de que se presenta A, haya sucedido o no el evento B".
3.11.5. CONCEPTOS: • Árbol de probabilidades: representación gráfica que muestra los resultados
posibles de una serie de experimentos y sus respectivas probabilidades.
• Complemento de un evento: elementos del espacio muestral no incluidos en el
evento considerado.
• Dependencia estadística: condición en la que la probabilidad de presentación de
un evento depende de la presentación de algún otro evento, o se ve afectada por
ésta.
• Diagrama de Venn: representación gráfica de los conceptos de probabilidad en la
que el espacio muestral está representado por un rectángulo y los eventos que
suceden en el espacio muestral se representan como partes de dicho rectángulo.
• Espacio muestral: conjunto de todos los resultados posibles de un experimento
aleatorio.
• Evento: uno o más de los resultados posibles de hacer algo, o uno de los
resultados posibles de realizar un experimento.
3.11.6. REFERENCIAS
o RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA
ADMINISTRADORES, ED. PRENTICE HALL, SEXTA ED., 1996
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 236
<<
3.12. VARIABLE ALEATORIA
3.12.1. INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROBABILIDAD. Las distribuciones de probabilidad están relacionadas con las distribuciones de
frecuencias. Una distribución de frecuencias teórica es una distribución de probabilidades
que describe la forma en que se espera que varíen los resultados. Debido a que estas
distribuciones tratan sobre expectativas de que algo suceda, resultan ser modelos útiles
para hacer inferencias y para tomar decisiones en condiciones de incertidumbre.
Una distribución de frecuencias es un listado de las frecuencias observadas de todos los
resultados de un experimento que se presentaron realmente cuando se efectuó el
experimento, mientras que una distribución de probabilidad es un listado de las
probabilidades de todos los posibles resultados que podrían obtenerse si el experimento
se lleva a cabo.
Las distribuciones de probabilidad pueden basarse en consideraciones teóricas o en una
estimación subjetiva de la posibilidad. Se pueden basar también en la experiencia.
3.12.2. TIPOS DE DISTRIBUCIONES DE PROBABILIDAD. Las distribuciones de probabilidad se clasifican como continuas y discretas. En la
distribución de probabilidad discreta está permitido tomar sólo un número limitado de
valores.
En una distribución de probabilidad continua, la variable que se está considerando puede
tomar cualquier valor dentro de un intervalo dado. Las distribuciones continuas son una
forma conveniente de presentar distribuciones discretas que tienen muchos resultados
posibles, todos muy cercanos entre sí.
3.12.3. VARIABLES ALEATORIAS. Una variable es aleatoria si toma diferentes valores como resultado de un experimento
aleatorio. Puede ser discreta o continua. Si puede tomar sólo un número limitado de
valores, entonces es una variable aleatoria discreta. En el otro extremo, si puede tomar
cualquier valor dentro de un intervalo dado, entonces se trata de una variable aleatoria
continua.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 237
Se puede pensar en una variable aleatoria como un valor o una magnitud que cambia de
una presentación a otra, sin seguir una secuencia predecible. Los valores de una variable
aleatoria son los valores numéricos correspondientes a cada posible resultado de un
experimento aleatorio.
La distribución de probabilidad de una variable aleatoria proporciona una probabilidad para
cada valor posible, y estas probabilidades deben sumar 1.
3.12.3.1. VALOR ESPERADO DE UNA VARIABLE ALEATORIA. El valor esperado es una idea fundamental en el estudio de las distribuciones de
probabilidad.
Para obtener el valor esperado de una variable aleatoria discreta, se multiplica cada valor
que la variable puede tomar por la probabilidad de presentación de ese valor y luego se
suman esos productos. Es un promedio pesado de los resultados que se esperan en el
futuro. El valor esperado pesa cada resultado posible con respecto a la frecuencia con que
se espera se que presente. En consecuencia, las presentaciones más comunes tienen
asignadas un peso mayor que las menos comunes.
El valor esperado también puede ser obtenido a partir de estimaciones subjetivas. En ese
caso, el valor esperado no es más que la representación de las convicciones personales
acerca del resultado posible.
En muchas situaciones, encontraremos que es más conveniente, en términos de los
cálculos que se deben hacer, representar la distribución de probabilidad de una variable
aleatoria de una manera algebraica. Al hacer esto, podemos llevar a cabo cálculos de
probabilidad mediante la sustitución de valores numéricos directamente en una fórmula
algebraica.
SUGERENCIA:
El valor esperado de una variable aleatoria discreta es un promedio pesado del valor de
cada resultado posible multiplicado por la probabilidad de dicho resultado. Aunque existen
muchos valores diferentes posibles que la variable aleatoria puede tomar, el valor
esperado es sólo un número.
3.12.3.2. TRATAMIENTO DE VARIABLES ALEATORIAS. 3.12.3.2.1. Variables aleatorias discretas. Sean x1, x2, x3, ... xn los distintos valores que puede tomar la variable aleatoria.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 238
Y p(x1), p(x2),... p(xn) su probabilidad.
Los pares de valores (xj, p(xj)) constituyen la distribución de probabilidades de la variable
aleatoria.
p(x) se denomina función de probabilidad, y debe cumplir con las siguientes propiedades:
• 0 < p(xj) < 1 (p(x) es una probabilidad, y por lo tanto debe tomar valores entre 0 y
1).
• � p(xj) = 1 (la suma de probabilidades repartidas entre todos los valores de la
variable debe ser igual a 1).
De la misma manera que calculamos frecuencias acumuladas, podemos acumular
probabilidades, obteniendo la función de distribución de probabilidades:
F(x) = � p(xj)
Esta función representa la probabilidad de que la variable aleatoria sea menor o igual que
un determinado valor:
F(xj) = P (X < xj)
Gráficamente, la función aumenta de "a saltos", ya que entre dos valores consecutivos de
una variable discreta, no puede tomar valores intermedios.
3.12.3.2.2. Variables aleatorias continuas. En este caso, en lugar de trabajar con la probabilidad de valores particulares de la
variable, resulta más apropiado calcular probabilidades asociadas a intervalos. Para
distribuir propiedades se usa una función que mide "concentración" de probabilidades
alrededor de un punto, que se denomina función de densidad de probabilidad (fdp) y se
denota como f(x).
Una función de densidad de probabilidad debe cumplir con las siguientes propiedades:
• F(x) > 0 (la función es no negativa para cualquier valor de x, f(x) no es una
probabilidad, y puede valer más de 1).
• � f(x) dx = 1 (la acumulada para todos los valores de la variable suma 1, el área
bajo la curva de la función vale 1).
La función de distribución para una variable aleatoria continua se calcula:
F(a) = P(X < a) = � f(x) dx
La probabilidad de que la variable esté dentro de un intervalo [a - b] se calcula:
P (a< x < b) = F(b) - F(a)
La probabilidad de que la variable tome un valor particular se puede expresar como:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 239
F(c) - F(c) = 0
Esto explica la idea de que para el caso de una variable aleatoria continua no tiene sentido
trabajar con la probabilidad de un valor particular.
3.12.3.2.3. Medidas características de una distribución de probabilidades. • El valor esperado es un operador matemático, cuya fórmula de cálculo depende del
tipo de variable aleatoria:
Variable aleatoria discreta: E (X) = � xj p (xj)
Variable aleatoria continua: � x f(x) dx
• Para caracterizar correctamente a la distribución, además de determinar su posición
es necesario calcular alguna medida que cuantifique su variabilidad. Una cantidad
muy útil para evaluar la dispersión de la variable aleatoria es el operador varianza,
que se calcula:
• Variable aleatoria discreta: Var (X) = � (xj - E(X))2 p (xj)
Variable aleatoria continua: Var (X) = � x - E(X))2 f(x) dx
3.12.3.2.4. CONCEPTOS: • Variable aleatoria: variable que cuantifica los resultados de un experimento
aleatorio. Variable que toma diferentes valores como resultado de un experimento
aleatorio.
• Distribución de probabilidades: modelo teórico que describe la forma en que
varían los resultados de un experimento aleatorio. Lista de los resultados de un
experimento con las probabilidades que se esperarían ver asociadas con cada
resultado.
• Variable aleatoria discreta: variable que toma un número finito o infinito de valores
numerables. Variable aleatoria que puede tomar sólo un número limitado de
valores.
• Variable aleatoria continua: variable que toma un valor infinito de valores no
numerables. Variable aleatoria que puede tomar cualquier valor dentro de un
intervalo dado de valores.
• Función de probabilidad: función que asigna probabilidades a cada uno de los
valores de una variable aleatoria discreta.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 240
• Función de densidad de probabilidad: función que mide concentración de
probabilidad alrededor de los valores de una variable aleatoria continua.
• Función de distribución: función que acumula probabilidades asociadas a una
variable aleatoria.
• Valor esperado: operador matemático que caracteriza la posición de la distribución
de probabilidades. Promedio pesado de los resultados de un experimento.
Varianza: operador que caracteriza la dispersión de la distribución
3.12.4. REFERENCIAS o RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA
ADMINISTRADORES, ED. PRENTICE HALL, SEXTA ED., 1996
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 241
3.13. DISTRIBUCIONES DE PROBABILIDAD
3.13.1. INTRODUCCIÓN. Un modelo es una simplificación de la realidad. Un modelo probabilístico es un modelo
matemático que describe el comportamiento de una variable aleatoria. Es una función que
depende de los valores de la variable aleatoria, y de otras cantidades que caracterizan a
una población en particular y que se denominan parámetros del modelo. En el proceso de
modelación, es necesario seguir los siguientes pasos:
1. Seleccionar el modelo más apropiado.
2. Ajustar el modelo (calcular el valor de sus parámetros).
3. Verificar el modelo.
4. Decidir su aceptación o volver al paso 1.
Para ejecutar el paso 1, podemos optar por una amplia gama de modelos de probabilidad,
desarrollados para representar distintos tipos de variables y diferentes fenómenos
aleatorios. Por lo tanto, el problema se reduce a elegir el modelo más apropiado para el
caso en estudio.
Para ejecutar el paso 2, es necesario recopilar una muestra representativa de la población
en estudio y calcular las cantidades necesarias como para evaluar los parámetros del
modelo.
3.13.2. LA DISTRIBUCIÓN BINOMIAL. Esta distribución describe una variedad de procesos de interés para los administradores y
describe datos discretos, no continuos, que son resultado de un experimento conocido
como proceso de Bernoulli.
3.13.2.1. USO DEL PROCESO DE BERNOULLI. Podemos describir el proceso de la manera siguiente:
1. Cada intento tiene sólo dos resultados posibles.
2. La probabilidad del resultado de cualquier intento permanece fijo con respecto al
tiempo.
3. Los intentos son estadísticamente independientes.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 242
Fórmula binomial:
Probabilidad de r éxitos en n ensayos = n! / [r! (n - r)!] pr qn - r
p = probabilidad característica o probabilidad de tener éxito
q = 1 - p = probabilidad de fracaso
r = número de éxitos deseados
n = número de intentos hechos
3.13.2.1.1. Generalizaciones: • Cuando p es pequeña (0,1), la distribución binomial está sesgada hacia la derecha.
• Cuando p aumenta (0,3 por ejemplo), el sesgo es menos notable.
• Cuando p = 0,5, la distribución binomial es simétrica.
• Cuando p es mayor que 0,5, la distribución está sesgada hacia la izquierda.
• Las probabilidades para 0,3, por ejemplo, son las mismas para 0,7, excepto que los
valores de p y q están invertidos. Esto es cierto para cualquier pareja de valores p y
q complementarios.
3.13.2.1.2. Medidas de tendencia central y de dispersión para la distribución binomial. La distribución binomial tiene un valor esperado o media y una desviación estándar.
• Valor esperado o media: � = np
• Desviación estándar: � = � npq
3.13.2.1.3. Cumplimiento de las condiciones del proceso de Bernoulli. Necesitamos ser cuidadosos en el uso de la distribución binomial de la probabilidad y
asegurar que se cumplen las tres condiciones necesarias, en particular las condiciones 2 y
3. La condición 2 requiere que la probabilidad del resultado de cualquier intento
permanezca fija en el tiempo. La condición 3 requiere que los ensayos o intentos de un
proceso de Bernoulli sean estadísticamente independientes, es decir, que el resultado de
un intento no puede afectar de ningún modo el resultado de cualquier otro intento.
3.13.2.2. LA DISTRIBUCIÓN DE POISSON. La distribución de Poisson se utiliza para describir cierto tipo de procesos, entre los que se
encuentran la distribución de llamadas telefónicas que llegan a un conmutador, la
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 243
demanda (necesidades) de los pacientes que requieren servicio en una institución de
salud, las llegadas de camiones a una caseta de cobro y el número de accidentes
registrados en una cierta intersección de calles. Estos ejemplos tienen en común un
elemento: pueden ser descritos mediante una variable aleatoria discreta que toma valores
enteros (0, 1, 2...).
3.13.2.2.1. Características de los procesos de distribución de probabilidad de Poisson.
1. El promedio (la media) del número de eventos que se producen por hora, puede
estimarse a partir de datos que se tengan disponibles.
2. Si dividimos la hora pico en periodos (intervalos) de un segundo cada uno,
encontraremos que las siguientes afirmaciones son verdaderas:
• La probabilidad de que exactamente un evento ocurra por segundo es muy
pequeña y es constante para cada intervalo de un segundo.
• La probabilidad de que dos o más eventos ocurran en un intervalo de un segundo
es tan pequeña que le podemos asignar un valor cero.
• El número de eventos que ocurren en un intervalo de un segundo es independiente
del tiempo en que dicho intervalo se presente en la hora pico.
• El número de eventos en un intervalo de un segundo no depende del número de
ocurrencias en cualquier otro intervalo de un segundo.
3.13.2.2.2. Cálculo de la probabilidad de Poisson. La letra X por lo general representa a una variable discreta y puede tomar valores enteros.
Utilizamos la letra X para representar a la variable aleatoria y la letra x para señalar un
valor específico que esta variable pueda tomar. La probabilidad de tener exactamente x
presentaciones en una distribución de Poisson se calcula con la fórmula:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 244
3.13.2.2.3. La distribución de Poisson como una aproximación a la distribución binomial. La distribución de Poisson puede ser un razonable aproximación a la binomial, pero sólo
bajo ciertas condiciones. Tales condiciones se presentan cuando n es grande y p es
pequeña, esto es, cuando el número de ensayos es grande y la probabilidad binomial de
tener éxito es pequeña. La regla que utilizan con más frecuencia los estadísticos es que la
distribución de Poisson es una buena aproximación de la distribución binomial cuando n es
igual o mayor que 20 y p es igual o menor que 0,05. En los casos en que se cumplen
estas condiciones, podemos sustituir la media de la distribución binomial (np) en lugar de
la media de la distribución de Poisson (� ).
SUGERENCIA:
El uso de una distribución para aproximar a otra es una práctica bastante común en
probabilidad y estadística. La idea consiste en buscar situaciones en las que una
distribución (como la de Poisson), cuyas probabilidades son relativamente fáciles de
calcular, tiene valores que se encuentran razonablemente cercanos a las de otra
distribución (como la binomial) cuyas probabilidades implican cálculos más complicados.
RECOMENDACIONES PRÁCTICAS: • Frente a un problema concreto, analice detenidamente todas sus características, y
al elegir el modelo apropiado, verifique que se cumplan todos los supuestos del
mismo.
• Habituése a utilizar las tablas provistas por la bibliografía para calcular
probabilidades. Ahorrará tiempo y evitará errores de cálculo.
• No olvide emplear la distribución de Poisson a la binomial en aquellos casos en que
p es pequeño y n es grande.
• Para calcular probabilidades acumuladas, del tipo P(X > x), P(X < x) o P(x < X < x),
también existen valores tabulados en textos especializados.
• En el caso de variables aleatorias discretas, es importante diferenciar si la
probabilidad deseada incluye o no el valor particular de la variable. Es decir, que
P(X > x) no es lo mismo que P(X > x) y P (X < x) es distinto de P(X < x).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 245
3.13.3. LA DISTRIBUCIÓN NORMAL DE UNA VARIABLE ALEATORIA CONTINUA. La variable puede tomar cualquier valor que esté en un intervalo de valores dado, y la
distribución de probabilidad es continua.
Las razones básicas de la importancia de la distribución normal son:
1. Tiene algunas propiedades que la hacen aplicable a un gran número de situaciones
en las que es necesario hacer inferencias mediante la toma de muestras. La
distribución normal es una útil distribución de muestreo.
2. La distribución normal casi se ajusta a las distribuciones de frecuencias reales
observadas en muchos fenómenos, incluyendo características humanas (pesos,
alturas), resultados de procesos físicos (dimensiones y rendimientos) y muchas
otras medidas de interés para los administradores.
3.13.3.1. CARACTERÍSTICAS DE LA DISTRIBUCIÓN NORMAL DE PROBABILIDAD.
1. La curva tiene un solo pico; por tanto, es unimodal. Tiene forma de campana.
2. La media de una población distribuida normalmente cae en el centro de su curva
normal.
3. Debido a la simetría de la distribución normal de probabilidad, la mediana y la moda
se encuentran también en el centro; en consecuencia, para una curva normal, la
media, la mediana y la moda tienen el mismo valor.
4. Los dos extremos de la distribución normal de probabilidad se extienden
indefinidamente y nunca tocan el eje horizontal.
La mayor parte de las poblaciones reales no se extienden de manera indefinida en ambas
direcciones; pero en estas poblaciones, la distribución normal es una aproximación
conveniente. No hay una sola distribución normal, sino una familia de curvas normales.
Para definir una distribución normal de probabilidad necesitamos definir sólo dos
parámetros: la media y la desviación estándar.
La curva normal puede describir un gran número de poblaciones, diferenciadas solamente
por la media, la desviación estándar o por ambas.
3.13.3.2. ÁREAS BAJO LA CURVA NORMAL.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 246
No importa cuáles sean los valores de � y � para una distribución de probabilidad normal,
el área bajo la curva es 1,00, de manera que podemos pensar en áreas bajo la curva
como si fueran probabilidades. Matemáticamente:
1. Aproximadamente el 68% de todos los valores de una población normalmente
distribuida se encuentran dentro + 1 desviación estándar de la media.
2. Aproximadamente 95,5% de todos los valores de una población normalmente
distribuida se encuentran dentro de + 2 desviaciones estándar de la media.
3. Aproximadamente 99,7% de todos los valores de una población normalmente
distribuida se encuentran dentro de + 3 desviaciones estándar de la media.
Las tablas estadísticas indican porciones del área bajo la curva normal que están
contenidas dentro de cualquier número de desviaciones estándar (más, menos) a partir de
la media.
No es posible ni necesario tener una tabla distinta para cada curva normal posible. En
lugar de ello, podemos utilizar una distribución de probabilidad normal estándar para
encontrar áreas bajo cualquier curva normal. Con esta tabla podemos determinar el área o
la probabilidad de que la variable aleatoria distribuida normalmente esté dentro de ciertas
distancias a partir de la media. Estas distancias están definidas en términos de
desviaciones estándar.
Para cualquier distribución normal de probabilidad, todos los intervalos que contienen el
mismo número de desviaciones estándar a partir de la media contendrán la misma
fracción del área total bajo la curva para cualquier distribución de probabilidad normal.
3.13.3.3. USO DE LA TABLA DE DISTRIBUCIÓN DE PROBABILIDAD NORMAL ESTÁNDAR. En esta tabla, el valor z está derivado de la fórmula:
z = (x - � ) / �
en la que:
• x = valor de la variable aleatoria que nos preocupa
• � = media de la distribución de la variable aleatoria
• � = desviación estándar de la distribución
• z = número de desviaciones estándar que hay desde x a la media de la distribución.
¿Por qué utilizamos z en lugar del número de desviaciones estándar? Las variables
aleatorias distribuidas normalmente tienen unidades diferentes de medición: dólares,
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 247
pulgadas, partes de millón, kilogramos, segundos, etc. Como vamos a utilizar una tabla,
hablamos en términos de unidades estándar (que en realidad significa desviaciones
estándar), y denotamos a éstas con el símbolo z.
La tabla de distribución de probabilidad normal estándar da los valores de únicamente la
mitad del área bajo la curva normal, empezando con 0,0 en la media. Como la distribución
normal de probabilidad es simétrica, los valores verdaderos para una mitad de la curva
son verdaderos para la otra.
3.13.3.4. DEFECTOS DE LA DISTRIBUCIÓN NORMAL DE PROBABILIDAD. Los extremos de la distribución normal se acercan al eje horizontal, pero nunca llegan a
tocarlo. Esto implica que existe algo de probabilidad (aunque puede ser muy pequeña) de
que la variable aleatoria pueda tomar valores demasiado grandes. No perderemos mucha
precisión al ignorar valores tan alejados de la media. Pero a cambio de la conveniencia del
uso de este modelo teórico, debemos aceptar el hecho de que puede asignar valores
empíricos imposibles.
3.13.3.5. LA DISTRIBUCIÓN NORMAL COMO UNA APROXIMACIÓN DE LA DISTRIBUCIÓN BINOMIAL. Aunque la distribución normal es continua, resulta interesante hacer notar que algunas
veces puede utilizarse para aproximar a distribuciones discretas.
La aproximación normal a la distribución binomial resulta muy conveniente, pues nos
permite resolver el problema sin tener que consultar grandes tablas de la distribución
binomial. Pero se necesita tener algo de cuidado al utilizar esta aproximación, que es
bastante buena, siempre que np y nq sean al menos de cinco.
SUGERENCIA: La distribución normal es otra función algebraica con propiedades matemáticas bien
conocidas, y es una buena aproximación para muchos problemas binomiales que
impliquen números grandes. Pero, no olvide la regla de que tanto np y nq deben ser de al
menos , y sea cauteloso acerca de la aplicación de la aproximación normal a situaciones
en las que la probabilidad de un evento es muy pequeña. Los valores de la aproximación
normal provenientes de los extremos de la distribución no son muy exactos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 248
Este modelo se aplica generalmente en el caso de variables que presentan las siguientes
características:
• Son variables dimensionales, que surgen como resultado de la medición sobre
alguna escala continua: kgs., cms., $, Tº, etc.
• Son variables que pueden pensarse como el resultado de la suma de muchos
pequeños efectos.
Estos elementos son sólo orientativos, y proporcionan un primer indicio para iniciar la
búsqueda del modelo más apropiado.
3.13.4. DISTRIBUCIÓN EXPONENCIAL. Procesos donde se estudian fenómenos como tiempo entre o distancia entre dos eventos
cualquiera, se pueden modelas mediante la distribución exponencial, que tiene la siguiente
función de densidad:
donde � es el parámetro del modelo. Sus principales
propiedades son:
• E (X) = �
• Var (X) = � 2
El parámetro � representa el valor esperado de la variable.
La función de distribución es la siguiente:
F(X) = 1 - e-x/�
3.13.4.1. TEOREMA DEL LÍMITE CENTRAL. Este teorema explica la vinculación que existe entre diversas distribuciones de
probabilidad y la normal. Especifica las condiciones bajo las cuales puede esperarse que
una variable aleatoria tenga distribución normal.
Si sumamos variables aleatorias del mismo tipo, si el número de términos de la suma es
suficientemente grande, el resultado que se obtiene es una variable con distribución
normal.
En la práctica, si todas las variables que sumamos tienen la misma distribución, no es
necesario que n sea demasiado grande para que se verifique la normalidad de la suma.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 249
Una aplicación inmediata de este teorema es la interpretación de la media aritmética: para
calcular un promedio, sumamos variables que provienen de la misma población, y por lo
tanto tienen igual distribución. La media obtenida seguramente va a tener distribución
normal, aún para valores bajos de n.
Otro aspecto importante es la siguiente extensión del teorema: no es estrictamente
necesario que todas las variables tengan la misma distribución. Basta con que sean
independientes, y tengan esperanza y varianza finitas, para que si n es lo suficientemente
grande, el resultado de la suma tenga aproximadamente distribución normal:
Y - N (� � , � � 2)
Se asume que cada término de la suma aporta un efecto del mismo orden de magnitud, y
que es poco probable que un valor individual haga una gran contribución a la suma.
Este teorema explica por qué algunos modelos tienden a la normal, bajo ciertas
condiciones:
Modelo binomial: es la suma de n variables - tipo Bernoulli -, y si n tiende a infinito, las
probabilidades se pueden aproximar mediante la normal.
Modelo de Poisson: es una extensión de la binomial, y por tanto, se verifica que para � =
np suficientemente grande, se pueden aproximar sus probabilidades con la normal.
RECOMENDACIONES PRÁCTICAS: • En el caso de distribuciones continuas, no tiene sentido calcular la probabilidad
asociada a un valor particular de la variable. Siempre se trabaja con la probabilidad
asociada a intervalos de valores de la variable.
• Como la probabilidad de un valor particular no existe, en la práctica, son válidas
cualquiera de las siguiente expresiones:
P (a<X<b); P (a<X<b); P (a<X<b); P (a<X<b)
• Usar la aproximación normal a la binomial (inclusive a Poisson) en aquellos casos
en que las condiciones del problema lo permitan. En estos casos, hay que realizar
la corrección por continuidad, para obtener resultados más aproximados.
• Como dato orientativo, la aproximación normal a la binomial anda bien cuando tanto
np como n(1 - p) son mayores que 5. Si p es cercano a 0,5, la aproximación anda
bien para cualquier valor de n; en caso contrario, n debe ser suficientemente
grande, no menor a 50.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 250
3.13.4.2. IDENTIFICACIÓN DEL MODELO APROPIADO. La selección depende, entre otros, de los siguientes factores:
• Un adecuado análisis del problema considerado: qué tipo de variable se estudia,
qué fenómeno se desea modelar, etc.
• Los resultados de la descripción de los datos disponibles: forma de la distribución,
propiedades de la variable.
• La disponibilidad y manejo de un buen número de modelos de probabilidad que
permitan describir diferentes tipos de situaciones.
Una vez identificado el modelo apropiado, hay que calcular sus parámetros, en base a las
observaciones que se dispongan de la variable en estudio.
Si planeamos utilizar una probabilidad para describir una situación, debemos escoger con
cuidado la correcta. La distribución binomial se aplica cuando el número de ensayos está
fijo antes de que empiece el experimento, y cada ensayo es independiente y puede tener
sólo dos resultados mutuamente excluyentes. Al igual que la distribución binomial, se
aplica cuando cada ensayo es independiente de los demás.
Pero, aunque la probabilidad de Poisson se aproxima a cero después de los primeros
valores, el número de valores posibles es infinito. No se conoce el límite de dos resultados
mutuamente excluyentes. En ciertas condiciones, la distribución de Poisson se puede
utilizar como aproximación de la binomial, pero no siempre es posible hacerlo. Todas las
suposiciones que conforman la base de una distribución deben cumplirse, si la intención
del uso de dicha distribución es producir resultados significativos.
3.13.4.3. CONCEPTOS.
• Aproximaciones a la normal: empleo de la distribución normal para aproximar el
cálculo de probabilidades de otros modelos, que por aplicación del Teorema del
Límite Central, bajo determinadas condiciones, tienden a la normal.
• Distribución binomial: modelo para variable aleatoria discreta que permite calcular
la probabilidad de obtener x éxitos en n ensayos repetidos de tipo Bernoulli.
Distribución discreta que describe los resultados de un experimento conocido como
proceso de Bernoulli.
• Distribución continua de probabilidad: distribución de probabilidad en la que la
variable tiene permitido tomar cualquier valor dentro de un intervalo dado.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 251
• Distribución discreta de probabilidad: distribución de probabilidad en la que la
variable tiene permitido tomar solamente un número limitado de valores.
• Distribución normal: modelo para variable aleatoria continua que permite
representar un gran número de fenómenos físicos. Distribución de una variable
aleatoria continua que tiene una curva de un solo pico y con forma de campana. La
media cae en el centro de la distribución y la curva es simétrica respecto a una
línea vertical que pase por la media. Los dos extremos se extienden
indefinidamente, sin tocar nunca el eje horizontal.
• Distribución exponencial: modelo para variable aleatoria continua que permite
representar variables del tipo "tiempo entre" o "distancia entre" dos eventos y vida
útil de ciertos componentes.
• Distribución de Poisson: modelo para variable aleatoria discreta que permite
calcular la probabilidad de obtener x éxitos en un intervalo continuo. Distribución
discreta en la que la probabilidad de presentación de un evento en un intervalo muy
pequeño es un número también muy pequeño, la probabilidad de que dos o más
eventos se presenten dentro del mismo intervalo es efectivamente igual a cero, y la
probabilidad de presentación del evento dentro del período dado es independiente
de cuándo se presenta dicho período.
• Distribución de probabilidad: lista de los resultados de un experimento con las
probabilidades que se esperarían ver asociadas con cada resultado.
• Distribución de probabilidad normal estándar: distribución normal de
probabilidad con una media � = 0 y una desviación estándar � = 1.
• Factor de corrección de continuidad: correcciones utilizadas para mejorar la
precisión de la aproximación de una distribución binomial mediante una distribución
normal.
• Modelo o distribución de probabilidades: función que distribuye probabilidades
entre los valores de una variable aleatoria.
• Parámetros: cantidades que aparecen en la formulación de un modelo,
relacionadas con las propiedades de la variable aleatoria en estudio.
• Proceso de Bernoulli: experimento aleatorio que tiene sólo dos resultados
posibles (éxito o fracaso), cuyas probabilidades permanecen constantes cualquiera
sea el número de intentos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 252
• Proceso de Poisson: Proceso de Bernoulli desarrollado en un intervalo continuo
de tiempo o espacio.
• Teorema del Límite Central: teorema que especifica las condiciones bajo las
cuales puede esperarse que una variable aleatoria tenga distribución normal.
• Valor esperado: promedio pesado de los resultados de un experimento.
• Valor esperado de una variable aleatoria: la suma de los productos de cada valor
de la variable aleatoria por la correspondiente probabilidad de presentación de
dicho valor.
• Variable aleatoria: variable que toma diferentes valores como resultado de un
experimento aleatorio.
• Variable aleatoria continua: variable aleatoria que puede tomar infinitos valores
dentro de un rango cualquiera.
• Variable aleatoria discreta: variable que toma un número finito o infinito de valores
numerables.
3.13.5. REFERENCIAS
o RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA
ADMINISTRADORES, ED. PRENTICE HALL, SEXTA ED., 1996
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 253
3.14. NÚMEROS ÍNDICES
3.14.1. DEFINICIÓN DE UN NÚMERO ÍNDICE. Un número índice mide qué tanto una variable ha cambiado con el tiempo. Calculamos un
número índice encontrando el cociente del valor actual entre un valor base. Luego
multiplicamos el número resultante por 100, para expresar el índice como un porcentaje.
Este valor final es el porcentaje relativo. El número índice para el punto base en el tiempo
siempre es 100.
3.14.2. TIPOS DE NÚMEROS ÍNDICE. El índice de precios compara niveles de precios de un período a otro. El índice de precios
al consumidor (IPC) mide los cambios globales de precios de una variedad de bienes de
consumo y de servicios, y se le utiliza para definir el costo de vida.
El índice de cantidad mide qué tanto cambia el número o la cantidad de una variable en el
tiempo.
El índice de valor mide los cambios en el valor monetario total. Esto es, mide los cambios
en el valor en pesos de una variable. Combina los cambios en precio y cantidad para
presentar un índice con más información.
Por lo general, un índice mide el cambio en una variable durante un cierto período, como
en una serie temporal. Sin embargo, también se le puede utilizar para medir diferencias en
una variable dada en diferentes lugares. Esto se lleva a cabo recolectando datos de
manera simultánea en los diferentes lugares y luego comprándolos.
Un solo número índice puede reflejar a una variable compuesta o a un grupo de éstas. El
IPC mide el nivel general de precios para bienes y servicios específicos en la economía.
Combina los precios individuales de bienes y servicios para conformar un número de
índice de precios compuestos.
3.14.3. USOS DE LOS NÚMEROS ÍNDICE. Los números de índice pueden utilizarse de diferentes maneras. Es más común usarlos
por sí mismos, como un resultado final. En la administración se utilizan como parte de un
cálculo intermedio para entender mejor otra información.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 254
3.14.4. PROBLEMAS RELACIONADOS CON LOS NÚMEROS ÍNDICE. Existen varias cosas que pueden distorsionar los números índice:
• En ocasiones, hay dificultad para hallar datos adecuados para calcular un índice.
• La incomparabilidad de índices se presenta cuando se hacen intentos para
comparar un índice con otro después de que ha habido un cambio básico en lo que
se ha estado midiendo.
• La ponderación no apropiada de factores puede distorsionar un índice. Al
desarrollar un índice compuesto, como el IPC, debemos tomar en cuenta que los
cambios en ciertas variables son más importantes que en otras.
• La distorsión de los números índice también se puede presentar cuando se
selecciona una base no apropiada. Siempre debemos considerar cómo y por qué el
período base fue seleccionado antes de aceptar una aseveración basada en el
resultado de comparar números índice.
3.14.4.1. ÍNDICE DE AGREGADOS NO PESADOS. No pesados quiere decir que todos los valores considerados son de igual importancia.
Agregado significa que agregamos o sumamos todos los valores. La principal ventaja es
su simplicidad.
Se calcula mediante la suma de todos los elementos del compuesto, para el período dado,
y luego dividiendo este resultado entre la suma de los mismos elementos durante el
período base.
(� Q1/� Q0) x 100
Como el cociente es multiplicado por 100, técnicamente, el índice resultante es un
porcentaje. Sin embargo, se acostumbra referirse solamente al valor y omitir el signo del
porcentaje cuando se analizan números índice.
La principal desventaja de un índice no pesado es que no le da mayor importancia o peso
al cambio de precio de un producto de uso común que el que le da a uno de uso poco
común. Un cambio sustantivo en el precio de productos de lento movimiento puede
distorsionar por completo un índice. Por esta razón, no es práctica común utilizar un índice
simple no pesado en análisis importantes.
Un índice no pesado puede verse distorsionado por un cambio en unos cuantos productos,
lo cual puede no ser representativo de la situación que se está estudiando.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 255
3.14.4.2. ÍNDICE DE AGREGADOS PESADOS. A menudo tenemos que asignar una importancia mayor a los cambios que se dan en
algunas variables que a los que se presentan en otras cuando calculamos un índice. Esta
ponderación nos permite incluir más información, aparte del mero cambio de los precios
en el tiempo. Nos permite mejorar la precisión de la estimación. El problema está en
decidir cuánto peso asignar a cada una de las variables en la muestra
La fórmula general para calcular un índice de precios de agregados pesados es:
(� P1Q/� P0Q) x 100
Típicamente, la administración utiliza la cantidad consumida de un producto como la
medida de su importancia cuando se calcula un índice de agregados pesados.
Existen tres formas de pesar un índice:
1. Método Laspeyres: utiliza las cantidades consumidas durante el período base, es
el más usado, debido a que requiere medidas de cantidades de únicamente un
período. Como cada número índice depende de los mismos precio y cantidad base,
la administración puede comparar el índice de un período directamente con el
índice de otro. Una ventaja de este método es la comparabilidad de un índice con
otro. El uso de la misma cantidad de período base nos permite hacer
comparaciones de manera directa. Otra ventaja es que muchas medidas de
cantidad de uso común no son tabuladas cada año. La principal desventaja es que
no toma en cuenta los cambios de los patrones de consumo. 2. Método de Paasche: es un proceso parecido al seguido para encontrar un índice
de Laspeyres. La diferencia consiste en que los pesos utilizados en el método
Paasche son las medidas de cantidad correspondientes al período actual. Es
particularmente útil porque combina los efectos de los cambios de precio y de los
patrones de consumo, así, es un mejor indicador de los cambios generales de la
economía que el método Laspeyres. Una de las principales desventajas es la
necesidad de tabular medidas de cantidad para cada período examinado. Cada
valor de un índice de precios Paasche es el resultado tanto de cambios en el precio
como en la cantidad consumida correspondiente al período base. Como las
medidas de cantidad utilizadas por un período de índice, por lo general son
diferentes de las medidas de cantidad de otro período de índice, resulta imposible
atribuir la diferencia entre los dos índices solamente a cambios de precio. En
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 256
consecuencia, es difícil comparar índices de diferentes períodos con el método
Paasche. 3. Método de agregados de peso fijo: en lugar de utilizar pesos de período base o
de período actual, utiliza pesos tomados de un período representativo. Los pesos
representativos se conocen como pesos fijos. Estos últimos y los precios base no
tienen que provenir del mismo período. La principal ventaja es la flexibilidad al
seleccionar el precio base y el peso fijo (cantidad).
3.14.5. MÉTODOS DE PROMEDIO DE RELATIVOS. 3.14.5.1. MÉTODO DE PROMEDIO NO PESADO DE RELATIVOS. Como una alternativa del método de agregados, podemos utilizar el método de promedio
de relativos.
Cuando tenemos más de un producto (o actividad), primero encontramos el cociente del
precio actual entre el precio base para cada producto y multiplicamos cada cociente
obtenido por 100. Luego sumamos los porcentajes relativos resultantes y dividimos el
resultado entre el número de productos.
� [(Q1/ Q0) x 100] / n
Con el método de promedio no pesado de relativos, calculamos el promedio de los
cocientes de los precio para cada producto. Con el método de agregados no pesados,
calculamos el cociente de las sumas de los precios de cada producto. No es lo mismo que
asignar a algunos productos más peso que a otros. El método de promedio de relativos
convierte cada elemento a una escala relativa en la que los elementos están
representados como un porcentaje más que como una cantidad. Debido a esto, cada uno
de los elementos del compuesto se mide con respecto a una base de 100.
3.14.5.2. MÉTODO DE PROMEDIO PESADO DE RELATIVOS. Con los métodos de promedio pesado de relativos existen varias formas de determinar un
valor pesado. Como en el método de Laspeyres, podemos utilizar el valor base que
encontramos multiplicando la cantidad base por el precio base. El uso del valor base
producirá exactamente el mismo resultado que si estuviéramos calculando el índice con el
método de Laspeyres. Usamos el método Laspeyres cuando los datos de cantidad se
obtienen con mayor facilidad.
� {[(Q1/ Q0) x 100] PnQn} / � PnQn
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 257
Si deseamos calcular un índice de promedio pesado de realativos usando valores base, la
ecuación a utilizar sería:
� {[(Q1/ Q0) x 100] P0Q0} / � P0Q0
Cuando utilizamos valores actuales, no podemos comparar de manera directa valores de
períodos diferentes, ya que tanto los precios como las cantidades pueden haber
cambiado. Así que por lo general utilizamos valores base o valores fijos cuando
calculamos un índice de promedio pesado de relativos.
3.14.6. ÍNDICES DE CANTIDAD Y VALOR. 3.14.6.1. ÍNDICES DE CANTIDAD. También podemos utilizar números índice para describir cambios en cantidades y en
valores. En tiempos de inflación, un índice de cantidad proporciona una medida más
confiable de la producción real de materias primas y bienes terminados que el
correspondiente índice de valores. De manera parecida, la producción agrícola se mide
mejor si se utiliza un índice de cantidad, debido a que éste elimina los efectos engañosos
producidos por la fluctuación de precios. A menudo usamos un índice de cantidad para
medir mercancías que están sujetas a una variación considerable de precios.
Cualquiera de los métodos analizados para determinar índices de precios, puede utilizarse
para calcular índices de cantidad. Cuando deseamos calcular índices de precios, usamos
cantidades o valores como pesos. Ahora que queremos calcular índices de cantidad,
utilizamos precios o valores como pesos.
3.14.6.2. ÍNDICES DE VALOR. Un índice de valor mide cambios generales en el valor total de alguna variable. Como el
valor está determinado tanto por el precio como por la calidad, un índice de valor
realmente mide los efectos combinados de los cambios de precios y cantidad. La principal
desventaja de un índice de valor es que no hace diferencia alguna entre los efectos de
estados dos componentes.
Sin embargo, un índice de valor resulta útil al medir cambios globales.
3.14.7. PROBLEMAS EN LA CONSTRUCCIÓN Y EN EL USO DE NÚMEROS ÍNDICE. 3.14.7.1. PROBLEMAS EN LA CONSTRUCCIÓN.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 258
1. Selección de un elemento para ser incluido en un compuesto: casi todos los
índices se construyen para responder a una cierta pregunta en particular. Los
elementos incluidos en el compuesto dependen de la pregunta en cuestión. 2. Selección de los pesos apropiados: los pesos seleccionados deberían
representar la importancia relativa de los diferentes elementos.
Desafortunadamente, lo que resulta apropiado en un período puede volverse
inapropiado en un lapso muy corto. 3. Selección de un período base: el período base seleccionado debe ser un período
normal, preferentemente un período bastante reciente. Normal significa que el
período no debe estar en un pico o en una depresión de una fluctuación. Una
técnica para evitar la elección de un período irregular consiste en promediar los
valores de varios períodos consecutivos.
3.14.7.2. ADVERTENCIA EN LA INTERPRETACIÓN DE UN ÍNDICE. 1. Generalización a partir de un índice específico: generalización de los resultados. 2. Falta de conocimiento general con respecto a índices publicados: es la falta de
conocimiento de qué es lo que miden los diferentes índices. 3. Efecto del paso del tiempo en un índice: los factores relacionados con un índice
tienden a cambiar con el tiempo, en particular, los pesos apropiados. A menos que
se cambien los pesos de acuerdo a las circunstancias, el índice se vuelve cada vez
menos confiable. 4. Cambios de calidad: los números índice no reflejan los cambios en la calidad de
los productos que miden. Si la calidad ha cambiado realmente, entonces el índice
sobrestima o subestima los cambios en los niveles de precios.
3.14.7.3. CONCEPTOS: • Índice de agregados no pesados: utiliza todos los valores considerados y asigna
igual importancia a cada uno de estos valores.
• Índice de agregados pesados: utilizando todos los valores considerados, este
índice asigna pesos a estos valores.
• Índice de cantidad: compara niveles de precios de un período a otro.
• Índice simple: número que relaciona un solo valor de la variable con una cantidad
base.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 259
• Índice compuesto: número que relaciona un conjunto de valores agregados de la
variable, con relación al agregado de los valores base.
• Método de agregados de pesos fijos: para pesar un índice de agregados, este
método utiliza como pesos cantidades consumidas durante algún período
representativo.
• Método de Laspeyres: para pesar un índice de agregados, este método utiliza
como pesos las cantidades consumidas durante el período base.
• Método de Paasche: en el pesado de un índice de agregados, este método utiliza
como pesos las cantidades consumidas durante el período actual.
• Método de promedio no pesado de relativos: para construir un número índice,
este método encuentra el cociente del precio actual entre el precio base para cada
producto, suma los porcentajes relativos resultantes y posteriormente divide el
resultado entre el número de productos.
• Método de promedio pesado de relativos: para construir un número índice, este
método pondera la importancia del valor de cada elemento del compuesto.
• Número índice: cociente que mide cuánto cambia una variable con el tiempo, o en
distintos lugares.
• Porcentaje relativo: cociente de un valor actual entre un valor base cuyo resultado
es multiplicado por 100.
3.14.8. REFERENCIAS o RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA
ADMINISTRADORES, ED. PRENTICE HALL, SEXTA ED., 1996
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 260
<
3.15. RECOLECCIÓN DE LOS DATOS
3.15.1. INDICADORES, TÉCNICAS E INSTRUMENTOS. Una vez obtenidos los indicadores de los elementos teóricos y definido el diseño de la
investigación, será necesario definir las técnicas de recolección de datos para construir los
instrumentos que nos permitan obtenerlos de la realidad.
Un instrumento de recolección de datos es cualquier recurso de que se vale el
investigador para acercarse a los fenómenos y extraer de ellos información. Dentro de
cada instrumento pueden distinguirse dos aspectos:
• La forma: se refiere a las técnicas que utilizamos para la tarea de aproximación a
la realidad (observación, entrevista). • El contenido: queda expresado en la especificación de los datos que necesitamos
conseguir. Se concreta en una serie de ítems que no son otra cosa que los
indicadores que permiten medir a las variables, pero que asumen ahora la forma de
preguntas, puntos a observar, elementos para registrar, etc.
El instrumento sintetiza en sí toda la labor previa de investigación: resume los aportes del
marco teórico al seleccionar datos que corresponden a los indicadores y, por lo tanto, a las
variables y conceptos utilizados; pero también sintetiza el diseño concreto elegido para el
trabajo.
Mediante una adecuada construcción de los instrumentos de recolección, la investigación
alcanza la necesaria correspondencia entre teoría y hechos.
¿Qué ocurre si en una investigación los instrumentos son defectuosos?
Se producirán algunas de las siguientes dificultades:
• Los datos recogidos no servirán para satisfacer los interrogantes iniciales;
• No se podrán obtener los datos que necesitamos,
• Los datos vendrán falseados o distorsionados.
En estos casos, habrá habido, seguramente, uno o varios errores en las etapas anteriores
del proceso de investigación. Será necesario, entonces, volver hacia atrás y revisar las
diferentes etapas realizadas, hasta alcanzar una mejor aproximación al problema-
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 261
3.15.2. DATOS PRIMARIOS Y SECUNDARIOS. Ya hemos hablado de que los datos, según su procedencia, pueden dividirse en primarios
y secundarios.
• Los datos primarios son aquellos que el investigador obtiene directamente de la
realidad, recolectándolos con sus propios instrumentos.
• Los datos secundarios, por otra parte, son registros escritos que proceden
también de un contacto con la práctica, pero que ya han sido elegidos y procesados
por otros investigadores.
Los datos primarios y secundarios no son dos clases esencialmente diferentes de
información, sino partes de una misma secuencia: todo dato secundario ha sido primario
en sus orígenes, y todo dato primario, a partir del momento en que el investigador
concluye su trabajo, se convierte en dato secundario para los demás.
3.15.3. TÉCNICAS DE RECOLECCIÓN DE DATOS PRIMARIOS.
1. La observación. Consiste en el uso sistemático de nuestros sentidos orientados a
la captación de la realidad que queremos estudiar.
Es una técnica antiquísima: a través de sus sentidos, el hombre capta la realidad
que lo rodea, que luego organiza intelectualmente. A través de innumerables
observaciones sistemáticamente repetidas, mayas y caldeos lograron penetrar en
los secretos del movimiento de los cuerpos celestes; observando miles de casos
concretos Mendel pudo formular las leyes sobre la herencia.
El uso de nuestros sentidos es una fuente inagotable de datos que, tanto para la
actividad científica como para la vida práctica, resulta de inestimable valor.
2. La entrevista. Consiste en una interacción entre dos personas, una de las cuales -
el investigador - formula determinadas preguntas relativas al tema en investigación,
mientras que la otra - el investigado - proporciona verbalmente o por escrito la
información que le es solicitada.
Existen además otros procedimientos de recolección de datos primarios, entre los que
figguran el llamado cuestionario de autoaplicación, los tests, los diagramas sociométricos,
las escalas y diferenciales semánticos, etc. sin embargo, todos tienen su origen, en última
instancia, en las dos principales técnicas mencionadas.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 262
3.15.3.1. LA OBSERVACIÓN CIENTÍFICA. La observación puede definirse como el uso sistemático de nuestros sentidos en la
búsqueda de los datos que se necesitan para resolver un problema de investigación.
Dicho de otro modo, observar científicamente es percibir activamente la realidad exterior
con el propósito de obtener los datos que previamente han sido definidos de interés para
la investigación. La observación que se realiza cotidianamente, como parte de nuestra
experiencia vital, no puede ser considerada como científica pues no está orientada hacia
objetos precisos de estudio, no es sistemática y carece de controles o de mecanismos que
nos pongan a cubierto de los errores que podemos cometer cuando la realizamos.
La observación científica debe seguir algunos principios básicos:
• Debe tener un propósito específico.
• Debe ser planeada cuidadosa y sistemáticamente.
• Debe llevarse, por escrito, un control cuidadoso de la misma.
• Debe especificarse su duración y frecuencia.
• Debe seguir los principios básicos de validez y confiabilidad.
La principal ventaja de esta técnica en el campo de las ciencias del hombre radica en que
los hechos son percibidos directamente, sin ninguna clase de intermediación,
colocándonos ante una situación tal como ésta se da naturalmente. De este modo, no se
presentan las distorsiones que son usuales en las entrevistas, como la subjetividad del
objeto investigado.
Otra ventaja es que la conducta se describe en el momento exacto en que está
ocurriendo. Por ejemplo, si queremos hacer un estudio de las diferentes formas que
existen para educar a los niños entre las tribus primitivas, observaremos las conductas de
las madres hacia sus hijos y las describiríamos tal como se presentan en un momento
dado.
Además, las observaciones se pueden realizar independientemente de que las personas
estén dispuestas a cooperar o no, a diferencia de otros métodos en los que sí necesitamos
de la cooperación de las personas para obtener la información deseada.
Su principal inconveniente reside en que la presencia del observador puede provocar, por
sí sola, una alteración o modificación en la conducta de los objetos observados,
destruyendo la espontaneidad de los mismos y aportando datos, por lo tanto, poco fiables.
Todos los seres humanos, al saberse observados, tienden naturalmente a alterar su
conducta, pues hay muchas actividades, opiniones y actitudes que podemos tener en
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 263
privado, pero nunca cuando sentimos que estamos siendo objeto de una observación. Es
difícil poder observar la interacción familiar, por ejemplo, en el momento de acostarse o
levantarse.
Esta reacción frente a la presencia de terceros debe tenerse en cuenta siempre que se
pretenda utilizar la técnica de la observación con seres humanos. Para evitar las
perturbaciones mecionadas, se han diseñado dos procedimientos:
• Para evitar inhibiciones o alteraciones en la conducta de los sujetos observados, se
trata de pasar lo más desapercibidos posible, actuando de tal manera que el
observador no aparezca con contornos nítidos ante los observados, sino más bien
como parte del "telón de fondo" de la situación. Si logramos esto, lograremos
observaciones confiables y de buena calidad. Ésta es la observación simple. • La otra forma de que las personas no se sientan observadas se basa en un
procedimiento inverso: el observador, en vez de pasar desapercibido, trata de
integrarse a la acción de los observados, de participar en ella como si se tratara de
un miembro más del grupo. Por ello, se la denomina observación participante. La observación, debido a su utilidad, es una técnica que se puede utilizar, junto con otras,
para recabar información; por ejemplo, la observación se puede utilizar en un estudio
exploratorio, y para el estudio final se pueden usar otras técnicas como cuestionarios,
entrevistas, etc.
3.15.3.1.1. Observación simple y participante. La observación simple resulta útil y viable cuando se trata de conocer hechos o
situaciones que de algún modo tienen un cierto carácter público, o que por lo menos no
pertenecen estrictamente a la esfera de las conductas privadas de los individuos.
Es factible mediante este procedimiento conocer hábitos de compra, situándonos
estratégicamente en los puntos de ventas, relevar formas de comportamiento político,
mediante la asistencia a actos de esa naturaleza, y conocer otros aspectos de la conducta
manifiesta de las personas: hábitos de vestimenta, de concurrencia a lugares públicos, de
trato social, etc. Casi siempre sus resultados apuntan a lo más superficial o visible de la
realidad social.
La observación simple puede adquirir también un carácter indirecto, si apelamos al auxilio
de instrumentos capaces de registrar información sobre el problema. El uso de vidrios
polarizados, de cintas magnetofónicas, filmadoras, cámaras de televisión y otros aparatos
es de indudable valor en el estudio de la conducta humana, por la exactitud de sus
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 264
registros y por la confianza que proporcionan al investigador. Es conveniente utilizar estos
auxiliares siempre y cuando las circunstancias lo permitan. Por supuesto, el uso de estos
medios debe plantearse de modo tal que no perturben la acción o situación, porque de lo
contrario sus efectos serían más bien contraproducentes.
La observación participante, por otra parte, implica la necesidad de un trabajo más
dilatado y cuidadoso, ya que el investigador debe primeramente ingresar al grupo,
comunidad o institución en estudio para, una vez allí, ir realizando la doble tarea de
desempeñar roles dentro del conjunto y de ir recogiendo los datos que desea conseguir.
Por lo tanto, es preciso confundirse con las personas sobre las que recae la investigación,
sin abandonar la actitud observadora. Con esto se consigue ser testigo de los hechos
"desde adentro", y el observador no sólo puede percibir las formas más exteriores de la
conducta sino también experimentar en carne propia las actitudes y valores que se
relacionan con el comportamiento en estudio. Esta información resulta, por lo general, más
confiable que la que se obtiene por medio de entrevistas, ya que los hechos se observan a
medida que se producen y tal como se producen.
La observación participante puede llamarse natural cuando el investigador pertenece, de
hecho, al conjunto humano que investiga. Si un estudiante quiere hacer una investigación
sobre estudiantes, prácticamente no necesita ningún esfuerzo para lograr su cometido,
pues ya es estudiante y conoce el lenguaje, los modos de hacer y de comportarse del
grupo que investiga.
La observación participante, en cambio, se denomina artificial cuando la integración del
observador al grupo se hace con el objeto deliberado de desarrollar un trabajo de
investigación. Cuando la distancia social entre observador y observado es poca, la
adecuación no es difícil.
La observación participante puede variar desde una afiliación total al grupo hasta una
participación limitada y condicionada, tanto en cuanto al tiempo como en cuanto a las
funciones asumidas por el observador. No es necesario que éste lleve a cabo
exactamente las mismas actividades que realizan los demás miembros del grupo; en lugar
de ello, puede buscarse algún papel que sea aceptable dentro de la comunidad y que el
observador pueda desempeñar razonablemente bien. En todos los casos, es importante
que no se divulgue la verdadera finalidad de su participación y que cuide todos los detalles
de su aspecto personal, de sus gestos y ademanes, de las palabras y opiniones que
expresa, para no aparecer como un participante anómalo, porque esto puede generar
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 265
hacia él una actitud de desconfianza o un trato atípico, bloqueando la información que
recibe y llegando hasta a distorsionar las actividades que el grupo normalmente realiza.
En cuanto a las desventajas de la observación participante, debemos mencionar que el
excesivo compromiso que adopta el investigador frente al grupo puede llegar a provocar
una identificación tan intensa que altere su objetividad y distorsione su percepción; que
acepte, dentro del grupo investigado, una sola de las posiciones posibles; y los enormes
costos que pueden estar asociados a trabajos de tan larga duración.
En la práctica, es conveniente efectuar las tareas de observación en equipo, para tener
una mayor cobertura de los sucesos y para evitar los siempre posibles errores de
percepción. Los datos pueden ser así confrontados o cotejados luego de su obtención par
enmendar errores o superar los vacíos que puedan existir. Cuando los sucesos de interés
se dan dentro de colectividades pequeñas o muy sensibles, es preferible reducir el número
de observadores, pues una presencia colectiva puede causar más daños que beneficios.
Debemos distinguir también entre observaciones de situaciones producidas
espontáneamente, en la misma vida social, de las que se llevan a cabo en condiciones
controladas, experimentales, ya preparadas.
3.15.3.1.2. Registro y formalización de la observación. La tarea de observar no es una mera percepción pasiva de hechos, situaciones o cosas...
Hablábamos de una percepción activa, lo cual significa seleccionar, organizar y relacionar
los datos referentes a nuestro problema. No todo lo que aparece en el campo del
observador tiene importancia y, si la tiene, no siempre en el mismo grado; no todos los
datos se refieren a las mismas variables o indicadores y es preciso estar alerta para
discriminar adecuadamente todo este conjunto posible de informaciones.
Resulta indispensable registrar toda observación que se haga, para poder organizar luego
lo percibido en un conjunto coherente. Los medios más comúnmente utilizados son:
cuadernos de campo, diarios, cuadros de trabajo, gráficos y mapas.
El problema del registro puede llegar a ser sumamente delicado cuando se trata de la
observación de fenómenos de tipo social. En muchas circunstancias es prácticamente
imposible tomar notas durante el transcurso de la observación, pues ello originaría
sospechas y recelo. En situaciones extremas, no habrá más remedio que confiar en la
memoria, con todas las limitaciones que esto supone. Este inconveniente se allana cuando
los observadores son varios, ya que pueden redactar independientemente sus informes
para luego compararlos entre sí, completando y depurando los datos obtenidos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 266
En cuanto a los datos para registrar, es posible adoptar diversas posiciones. Puede
actuarse con suma flexibilidad, recogiendo sólo aquellos datos que van apareciendo,
anotando las impresiones generales que causan los sucesos, de una manera espontánea
y poco organizada. Se trata de una observación no estructurado o no formalizada, que
ofrece las ventajas de su gran capacidad de adaptación frente a sucesos inesperados y de
no pasar por alto ningún aspecto importante que pueda producirse.
Este tipo de observación generalmente se lleva a cabo en un estudio piloto, cuando no se
conoce muy bien la muestra que se va a estudiar.
Cuando establecemos de antemano una pauta de observación explícita en que se detalla
qué datos habremos de recoger, llamamos a la observación estructurada o formalizada.
Aquí la ventaja principal es que recogemos datos que pueden cuantificarse más
fácilmente, debido a su homogeneidad, y que podemos tener la certeza de no haber
olvidado registrar ninguno de los aspectos principales del problema en estudio. Su
desventaja radica en su poca flexibilidad frente a circunstancias no previstas pero que
pueden llegar a ser interesantes o importantes para la investigación.
La observación estructurada se lleva a cabo cuando se pretende probar una hipótesis, o
cuando se quiere hacer una descripción sistemática de un fenómeno; es decir, cuando
estamos realizando un estudio o investigación en el que sabemos exactamente lo que
vamos a investigar.
Por ejemplo, si vamos a observar el grado de agresividad de un niño mediante la
frecuencia con que se presenta la conducta, en sus diferentes grados, primero definiremos
qué queremos decir con conducta agresiva y cuáles son sus manifestaciones:
Identificación del niño: (se puede dar su nombre, o hacer referencia a alguna característica
física o a algún número que permita identificarlo).
Tabla 6: Ejemplo de escala para observación
1 2 3 4 5
Golpeó a un niño cerca de él.
Golpeó a un niño que estaba lejos de él.
Le dijo palabras insultantes a un niño cerca de él.
Le dijo palabras insultantes a un niño que estaba lejos de él.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 267
También pueden realizarse observaciones semiestructuradas, detallando más o menos
la pauta de observación según las necesidades y posibilidades.
3.15.3.2. LA ENTREVISTA. La entrevista es una forma específica de interacción social que tiene por objeto recolectar
datos para una indagación.
El investigador formula preguntas a las personas capaces de aportarle datos de interés,
estableciendo un diálogo, donde una de las partes busca recoger informaciones y la otra
es la fuente de esas informaciones.
La ventaja esencial de la entrevista reside en que son los mismos actores sociales quienes
proporcionan los datos relativos a sus conductas, opiniones, deseos, actitudes y
expectativas. Nadie mejor que la misma persona involucrada para hablarnos acerca de
aquello que piensa y siente, de lo que ha experimentado o piensa hacer.
Pero existe un importante inconveniente que limita sus alcances. Cualquier persona
entrevistada podrá hablarnos de aquello que le preguntemos pero siempre nos dará la
imagen que tiene de las cosas, lo que cree que son, a través de su carga subjetiva de
intereses, prejuicios y estereotipos. La propia imagen que el entrevistado tiene de sí
mismo podrá ser radicalmente falsa y, en todo caso, estará siempre idealizada,
distorsionada, mejorada o retocada.
Este problema nos obliga a dejar fuera de esta técnica a problemas y temas que son mejor
explorados por medio de otros procedimientos. Por otra parte, nos obliga a utilizar, a
veces, caminos indirectos, mediante preguntas que alcancen nuestro objetivo
elípticamente, utilizando rodeos. Es clásico el ejemplo de que las personas nunca
contestan la verdad respecto de sus ingresos personales en dinero, ya sea porque los
disminuyen (ante el temor de estar frente a algún inspector de impuestos), o porque los
aumentan (con fines de ostentación social o para reforzar su autoestima).
Para que una entrevista tenga éxito, es preciso prestar atención a una serie de factores:
es importante que la apariencia exterior del entrevistador resulte adecuada al medio social
donde habrá de formular sus preguntas. El entrevistador habrá de ser una persona de por
lo menos una cultura media, que comprenda el valor y la importancia de cada dato
recogido y la función que su trabajo desempeña en el conjunto de la investigación. Tendrá
que ser mentalmente ágil, no tener prejuicios marcados frente a ninguna categoría de
personas y, sobre todo, ser capaz de dejar hablar libremente a los demás, eliminando por
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 268
completo todo intento de convencerlos, apresurarlos, o agredirlos con sus opiniones. La
entrevista habrá de realizarse a las horas más apropiadas para las personas que
responden, teniendo en cuenta que su posible duración no afecte la confiabilidad de los
datos.
Lo que vulgarmente se llama entrevista es una técnica que en realidad se denomina
entrevista no estructurada, y lo que suele llamarse encuesta es igual a lo que
denominamos, en metodología, entrevista estructurada.
Las entrevistas más estructuradas serán aquellas que predeterminen en una mayor
medida las respuestas por obtener, que fijan de antemano sus elementos con más rigidez,
mientras que las entrevistas informales serán las que transcurran de un modo más
espontáneo, libre, sin sujetarse a ningún canon establecido.
3.15.3.2.1. Entrevistas no estructuradas: Una entrevista no estructurada o no formalizada es aquella en que existe un margen más
o menos grande de libertad para formular las preguntas y las respuestas. No se guían por
un cuestionario o modelo rígido.
• Entrevista formal: Es la modalidad menos estructurada posible de entrevista, ya
que se reduce a una simple conservación sobre el tema en estudio. Lo importante
no es definir los límites de lo tratado ni ceñirse a algún esquema previo, sino "hacer
hablar" al entrevistado, de modo de obtener un panorama de los problemas más
salientes, de los mecanismos lógicos y mentales del respondente, de los temas que
para él resultan de importancia. Es de gran utilidad en estudios exploratorios y recomendable cuando se trata
de abordar realidades poco conocidas por el investigador. También suele
utilizarse en las fases iniciales - aproximativas - de investigaciones de
cualquier naturaleza, recurriendo a informantes claves que pueden ser
expertos sobre el tema en estudio, líderes formales o informales,
personalidades destacadas o cualquier persona que posea información para
la investigación.
Lo más importante es dar al respondente la sensación clara y definida de
que puede hablar libremente, alentándolo y estimulándolo para que lo haga y
cuidando de no influirlo demasiado con nuestras actitudes o las palabras que
decimos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 269
• Entrevista focalizada: Es prácticamente tan libre y espontánea como la anterior,
pero tiene la particularidad de concentrarse en un único tema. El entrevistador deja
hablar sin restricciones al entrevistado, proponiéndole apenas algunas
orientaciones básicas pero, cuando éste se desvía del tema original, el
entrevistador vuelve a centrar la conversación sobre el primer asunto. Se emplea normalmente con el objeto de explorar a fondo alguna
experiencia vivida por el entrevistado o cuando nuestros informantes son
testigos presenciales de hechos de interés o de acontecimientos históricos.
Requiere de gran habilidad en su desarrollo, para evitar tanto la dispersión
temática como caer en formas más estructuradas de interrogación.
• Entrevista por pautas o guías: Se guían por una lista de puntos que se van
explorando en el curso de la entrevista. Los temas deben guardar una cierta
relación entre sí. El entrevistador hace muy pocas preguntas directas, y deja hablar
al respondente siempre que vaya tocando alguno de los temas señalados en la
pauta o guía. Se usan en situaciones parecidas a las anteriores y cuando se presentan
casos en que los sujetos investigados prefieren más un desarrollo flexible
que uno rígido, por sus propias actitudes culturales o necesidades.
Todas estas formas de entrevistas (que tienen en común su poca formalización) poseen la
ventaja de permitir un diálogo más profundo y rico, de presentar los hechos en toda su
complejidad, captando no sólo las respuestas a los temas elegidos sino también las
actitudes, valores y formas de pensar de los entrevistados.
Su principal inconveniente radica en que es poco práctico sistematizar un gran número de
entrevistas de este tipo, organizándolas estadísticamente, pues pueden tener muy pocos
puntos de contacto entre sí. Otra dificultad es su costo, pues involucran la presencia de
personal altamente especializado durante tiempos relativamente largos.
Los problemas de registro pueden ser importantes, pues existe un gran número de
palabras que es casi imposible de registrar en su totalidad. Pueden utilizarse grabadores,
aunque es preciso determinar previamente si la presencia de estos aparatos cohibe o no a
los informantes.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 270
3.15.3.2.2. Entrevistas formalizadas: Se desarrollar en base a un listado fijo de preguntas cuyo orden y redacción permanece
invariable. Comúnmente se administran a un gran número de entrevistados para su
posterior tratamiento estadístico.
Entre sus principales ventajas, podemos mencionar su rapidez y el hecho de que pueden
ser llevadas a cabo por personas con mediana preparación, lo cual redunda en su bajo
costo. Otra ventaja es su posibilidad de procesamiento matemático.
Su mayor desventaja radica en que reducen grandemente el campo de información,
limitando los datos a los que surgen de una lista taxativa de preguntas.
Esta lista de preguntas, que es el instrumento concreto de recolección empleado en este
caso, recibe el nombre de cuestionario y puede ser administrado sin que necesariamente
medie una entrevista. Debe ser cuidadosamente redactado, evitando preguntas
demasiado generales, confusas o de doble sentido, y tratando de conservar un orden lo
más natural posible.
Las preguntas suelen dividirse en dos grandes tipos:
• Preguntas de alternativas fijas o cerradas: Formalizan más el cuestionario, pues
en ellas sólo se otorga al entrevistado la posibilidad de elegir entre un número
limitado de respuestas posibles. Si se pregunta "¿cree usted en los OVNIS, sí o
no?", estamos realizando una pregunta cerrada. No importa la cantidad de
alternativas ofrecidas, si el respondente no puede elegir una respuesta que esté
fuera de la lista, la pregunta se considera cerrada. Hay que tener sumo cuidado en
la redacción de estas alternativas, procurando especialmente que sean exhaustivas
y mutuamente excluyentes, y evitando que estimulen a responder en un sentido
determinado.
• Preguntas de final abierto o abiertas: Proporcionan una variedad más amplia de
respuestas. Su redacción debe ser muy cuidadosa para evitar respuestas erróneas
o confusas, y para evitar que ellas predispongan al entrevistado en uno u otro
sentido. Un ejemplo de pregunta abierta sería: "¿Qué opina usted acerca de los
OVNIS?". La información que se obtendrá será mucho más completa y valiosa, pero
el trabajo de procesamiento de los datos tendrá que ser mucho mayor.
Una vez que se redacta el conjunto de preguntas que constituyen un cuestionario, es
necesario revisarlas para asegurarse de su consistencia y eliminar los posibles errores y
omisiones. Casi siempre se realiza una prueba piloto, que consiste en administrar el
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 271
cuestionario a un conjunto reducido de personas para calcular su duración, conocer sus
dificultades y corregir sus defectos, antes de aplicarlo a la totalidad de la muestra.
3.15.3.3. EL CUESTIONARIO AUTOADMINISTRADO. Al cuestionario lo podemos definir como un método para obtener información de manera
clara y precisa, donde existe un formato estandarizado de preguntas y donde el informante
reporta sus respuestas.
Es un instrumento indispensable para llevar a cabo entrevistas formalizadas, pero puede
usarse independientemente de éstas. En tal caso, se entregará al respondente el
cuestionario para que éste, por escrito, consigne por sí mismo las respuestas.
Es claro que no se trata de una entrevista, pues no existe el elemento de interacción
personal que la define.
La elaboración del cuestionario requiere un conocimiento previo del fenómeno que se va a
investigar. Del mismo modo, la experiencia del investigador es imprescindible para la
construcción de cuestionarios, los que deben ser adaptados a las necesidades del
investigador y a las características de la comunidad en la que se realiza la investigación.
En el desarrollo de un cuestionario se debe considerar los siguientes puntos:
1. El nivel educacional de la población, para saber qué clase de vocabulario se va a
utilizar en la redacción de las preguntas.
2. Los cuestionarios deben ser autoexplicativos en cuanto a lo que requieren del
informante. Los que los responden no deben necesitar la ayuda directa del
investigador y/o sus colaboradores.
3. Deben contener preguntas concretas que no den lugar a respuestas vagas.
4. Al informante se le deben explicar los objetivos de la investigación, es decir, par qué
queremos la información que estamos solicitando.
5. El orden de presentación de las preguntas es muy importante: deben ir de las más
fáciles a las más difíciles.
6. Preguntar primero si el informante está consciente o ha pensado en el problema
que se está investigando, y después hacer las preguntas específicas.
7. Las preguntas deben ser redactadas de manera que no se suponga que los
informantes tienen la "obligación" de poseer o conocer la información que
buscamos, ya que si es así se pueden sentir presionados y se rehusarán a
contestar.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 272
8. No se deben presentar preguntas dobles o que requieran de dos respuestas a la
vez, por ejemplo: "¿Tiene el niño problemas emocionales y de aprendizaje?".
9. Las preguntas no deben redactarse de manera que exista una doble negación.
10. Es importante obtener datos del informante(edad, sexo, ocupación, nivel educativo).
Estas preguntas generalmente aparecen al final del cuestionario y precedidas de
una pequeña introducción, debido a que muchas personas evitan responder este
tipo de preguntas.
11. Cuando preguntamos sobre modos de comportamientos habituales, debemos
especificar el período a que nos estamos refiriendo. Por ejemplo: la semana
pasada, el último mes, en los últimos seis meses, etc.
12. Todas las preguntas deben ser elaboradas de manera neutra, evitando sugerir de
manera directa la respuesta. Por ejemplo: "¿Qué opina usted de los programas de
TV para niños que se emiten de 3 a 5 de la tarde?", en lugar de algo así como:
"Según se dice, los programas de TV para niños que se emiten diariamente de 3 a
5 de la tarde son fabulosos, ¿usted qué opina?".
La principal ventaja de los cuestionarios autoadministrados reside en la gran economía de
tiempo y personal que implican, ya que pueden enviarse por correo, dejarse en algún lugar
apropiado o administrarse directamente a grupos reunidos al efecto.
Otra ventaja es que la calidad de los datos obtenidos se incrementa, ya que al
desaparecer la situación de interacción, se eliminan las posibles distorsiones que la
presencia del entrevistador puede traer, ya sea por la forma de hablar, de enfatizar las
palabras u oraciones, de dirigir inconscientemente las respuestas, ya sea por su misma
presencia física, que puede retraer o inhibir al entrevistado.
Su desventaja está en que impide conocer las reacciones reales del informante ante cada
pregunta. También las confusiones o malentendidos pueden multiplicarse, pues no existe
la posibilidad de consultar sobre dudas específicas o de orientar una respuesta hacia su
mayor profundización o especificación. Otro inconveniente es que el respondente puede
consultar con otras personas antes de expresar sus opiniones.
Otro problema es el relacionado con el "prestigio", puesto que muchas preguntas tienen
una connotación social. La mayoría de la gente tenderá a contestar algunas preguntas de
manera que muestren conductas o actitudes socialmente aceptables: probablemente dirán
que leen más de lo que en realidad lo hacen, que asisten a espectáculos culturales con
mayor frecuencia de lo que en realidad sucede, que compran su ropa en comercios de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 273
prestigio, etc. Esto se puede solucionar aplicando preguntas que nos permitan detectar
mentiras, por ejemplo: colocar dos preguntas similares y separarlas lo más posible dentro
del cuestionario.
El empleo de los cuestionarios autoadministrados se hace especialmente recomendable
en aquellos casos en que es factible reunir de una sola vez a un cierto número de
personas. También es conveniente cuando, por el tipo de información, se produzcan
normalmente omisiones o falsedades deliberadas ante la presencia del entrevistador,
como en los cuestionarios sobre salud, problemas sexuales, experiencias con drogas,
comisión de delitos, etc. Por otra parte, muchas personas adoptan una actitud
irresponsable o pierden el interés frente a cuestionarios autoadministrados, lo que es otro
factor negativo de esta técnica.
3.15.3.3.1. Tipos de cuestionarios. La forma o tipo de cuestionario depende tanto de los objetivos que persiga la
investigación, como de los informantes:
• Cuestionarios abiertos. Son aquellos en los que se pregunta al sujeto algo y se le
deja en libertad de responder como quiera. Este tipo de cuestionario es muy útil y
proporciona mucha información, pero requiere más tiempo por parte del informante
y es más difícil de analizar y codificar por parte del investigador. Generalmente, se
aplican en estudios pilotos con el fin de obtener más datos. Serían ejemplos de preguntas abiertas: ¿Qué piensa usted de la
planificación familiar? ¿Cuál es su opinión acerca del presidente X? ¿Qué le
parecen los productos Y?
• Cuestionarios cerrados. Están estructurados de tal manera que al informante se
le ofrecen sólo determinadas alternativas de respuesta. Es más fácil de codificar y
contestar. Como desventaja, podemos mencionar que las categorías que se
ofrecen pueden no ser las más adecuadas, o que la persona no haya pensado sus
respuestas en términos de las categorías que se le ofrecen. Otra desventaja es
que, al ofrecerle categorías al informante, se le están "sugiriendo" las respuestas.
Entre los cuestionarios cerrados, tenemos: a. Preguntas con opciones: el sujeto tiene dos o más opciones para contestar. Por
ejemplo:
o ¿Prefiere algún perfume en especial?
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 274
SÍ NO
o Los negros son superiores a los blancos:
Correcto Incorrecto
o Indique los artículos que más han aumentado de precio:
Automóviles Casas Comida
Electricidad Ropa Combustible
Gas Otros
3.15.3.3.2. Listas de preferencias y ordenamientos de opciones: Al sujeto se le presenta una serie de afirmaciones, frases, opciones, etc. y él las debe
ordenar según su grado de preferencia. Por ejemplo:
Coloque en orden de mayor a menor las actividades que
prefiere realizar en su tiempo libre:
Leer Ir al teatro
Ver TV Descansar
Salir con amigos Otras
Ir al cine
Con respecto a los cuestionarios enviados por correo, el punto más importante que debe
considerarse es que, por lo general, el porcentaje de personas que lo devuelven es muy
reducido y, además, la muestra que contesta los cuestionarios, está sesgada; es decir,
puede tener alguna característica en común, por ejemplo, cierto interés en el tema, y dar
un tipo especial de respuestas.
3.15.3.4. SOCIOGRAMA. Consiste en un gráfico en que se expresan las atracciones y repulsiones que los miembros
de un determinado grupo experimentan entre sí, siendo por ello de suma utilidad para
detectar fenómenos tales como liderazgo, existencia de subgrupos internos y anomia.
Se construye pidiendo a cada miembro que señale a las personas que más congenian con
él y las que menos lo atraen. Esta información se recoge mediante el uso de breves
cuestionarios de dos o tres preguntas, y luego es procesada para construir el diagrama
correspondiente.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 275
3.15.3.5. TESTS PSICOLÓGICOS. Emplean una gran variedad de técnicas específicas. Una buena proporción de ellos utiliza
la formulación de preguntas anotadas en algún formulario apropiado (el test) y que por lo
general se autoadministra. En otros casos, se propone a la persona la realización de
ciertas actividades pautadas y se observa su desarrollo. Se registra el tiempo empleado en
su ejecución, las reacciones que se producen, el desempeño de ciertos roles, etc.
Desde un punto de vista general, estos tests pueden considerarse como observaciones
realizadas en condiciones artificiales, preparadas y definidas de antemano.
3.15.3.6. TÉCNICAS PROYECTIVAS. Se basan en presentar algún estímulo definido a los sujetos para que ellos expresen
libremente, a partir de estos estímulos, lo que piensan, sienten o ven.
Generalmente, se trata de dibujos, manchas, fotografías u otros elementos similares,
aunque también se apela a veces a estímulos verbales o auditivos. La recolección de
datos, normalmente, se hace por medio de entrevistas poco formalizadas.
3.15.3.7. ESCALAS Y DIFERENCIALES SEMÁNTICOS. En las escalas, se pide al entrevistado que se sitúe, según su opinión o actitud, en una
escala gráfica. Se trata de un segmento de dimensiones fijas y conocidas, sobre el cual el
respondente marcará algún signo que indique la posición en que se sitúa. Midiendo luego
la distancia en centímetros que separa la marca hecha por el respondente respecto a uno
cualquiera de los extremos, se podrá obtener un valor numérico, que corresponde a un
punto determinado de la escala.
También es posible señalar previamente en el segmento las posiciones intermedias, o
utilizar otros recursos gráficos que no sean segmentos: caras serias o alegres,
termómetros, rectángulos o cualquier otro elemento gráfico capaz de reflejar una
gradación y que resulte atractivo a la vez que preciso.
En los diferenciales semáticos, lo que aparece en cada posición, son oraciones que
señalan conductas o actitudes típicas, entre las cuales el entrevistado podrá elegir las que
más coinciden con sus opiniones.
Por ejemplo:
Las siguientes escalas fueron diseñadas para estudiar la opinión de las personas con
respecto a diferentes marcas de jabones de tocador:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 276
Tabla 7: Ejemplo de escalas de opinión
Limpia Deja sucio
Huele bien Huele mal
Caro Barato
Fuerte Suave
Masculino Femenino
Elegante Común 3.15.3.8. ANÁLISIS DE CONTENIDO. Es una técnica que se basa en el estudio cuantitativo del contenido manifiesto de la
comunicación.
Es usada especialmente en sociología, psicología, ciencias políticas y literatura, e incluye
normalmente la determinación de la frecuencia con que aparecen en un texto ciertas
categorías previamente definidas, tales como ideas, términos o vocablos, o elementos
gráficos de diversa naturaleza. Estas categorías son las variables o indicadores que
intervienen en el problema de investigación planteado.
El análisis de contenido es útil, especialmente, para establecer comparaciones y estudiar
en profundidad diversos materiales: registros de entrevistas en estudios de psicología
clínica o evolutiva, editoriales de periódicos o revistas, programas o declaraciones
políticas, entrevistas focalizadas o abiertas, etc.
Gracias a la aplicación de esta técnica, es posible hacer apreciaciones sistemáticas sobre
la ideología y el pensamiento político de diversos órganos de difusión, encontrar
coincidencias y discrepancias en entrevistas y, en general, obtener un tipo de información
bastante profunda sobre temas complejos y difíciles de estudiar. También es posible
realizar análisis de contenido de materiales propagandísticos, cuantificándose el espacio
en centímetros dedicado a ciertos temas o elementos gráficos, así como la frecuencia de
aparición de ciertas palabras o frases.
La principal ventaja que posee el análisis de contenido es que tiene una base empírica
clara y perfectamente accesible, por lo que puede analizarse un texto con menos
subjetividad que por otros medios.
Su principal inconveniente estriba en su costo, pues sólo puede hacer un análisis de
contenido de cierta calidad un personal de alta calificación.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 277
Esta técnica tiene además una limitación intrínseca que el investigador tiene que tener
presente: como el análisis abarca solamente el contenido manifiesto de la información (lo
denotativo) pero no mide ni evalúa los contenidos latentes o implícitos (lo connotativo), no
puede afirmarse que por medio de esta técnica pueda tenerse una visión completa de los
documentos en estudio.
Los pasos concretos que se siguen para efectuar un análisis de contenido son:
1. Después de definir las variables que intervienen en el problema, es preciso
encontrar para éstas indicadores verbales o gráficos que puedan encontrarse en los
documentos investigados.
2. Es necesario hacer un arqueo de los documentos relevantes para la investigación.
Si las unidades detectadas son muchas, será preciso proceder a la extracción de
una muestra.
3. Conviene realizar una revisión somera del contenido de los materiales. El objetivo
es encontrar los aspectos concretos que puedan identificarse con las variables y los
indicadores ya definidos.
4. Marcar la aparición de cada elemento de interés, utilizando la forma de registro
apropiada. Luego debe tabularse la información obtenida. Finalmente, habrá que
analizar los cuadros elaborados con los datos, de modo de obtener las
conclusiones.
Los programas de computación llamados procesadores de textos facilitan enormemente la
aplicación de esta técnica.
Algunos investigadores también realizan un análisis de contenido cualitativo. En esencia,
consiste en establecer categorías de estudio, con el fin de determinar los puntos más
salientes del documento. Las categorías dependerán del documento que se analiza. Por
ejemplo: los enfoques políticos, los tipos de propaganda, las contradicciones que se
encuentren en el documento, etc. Otras categorías que frecuentemente se utilizan son
aquellas que se refieren a la intensidad de alguna actitud determinada, es decir, hacen
referencia a qué tan fuerte o débilmente se manifiestan las reacciones personales.
3.15.4. RECOLECCIÓN DE DATOS SECUNDARIOS. Las bibliotecas son la mejor opción que se presenta al investigador, en especial en cuanto
se refiere a libros, revistas científicas y boletines informativos. Tampoco deben dejarse de
registrar otros lugares que pueden reunir información de este tipo: archivos y bibliotecas
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 278
privadas, de organismos e instituciones públicas o privadas, librerías, puestos de venta de
periódicos, etc. También las redes informáticas hacen posible una búsqueda sistemática
de los materiales bibliográficos existentes.
Las bibliotecas ofrecen tres tipos de ficheros que, si son adecuadamente usados,
proporcionan un cuadro completo de la información existente sobre un tema:
• Ficheros por autor.
• Ficheros temáticos.
• Ficheros de títulos de libros y artículos.
Para recolectar la información, el instrumento que se utiliza es la ficha. Las fichas bibliográficas son una simple guía para recordar cuáles libros o trabajos han
sido consultados o existen sobre un tema. Las fichas textuales, además de poseer los
datos del libro, constan de párrafos o trozos seleccionados que aparecen en la obra, o de
estadísticas, cuadros y otros datos semejantes. Estos fragmentos se repiten exactamente
tal como han sido escritos, sin la menor alteración, para respetar el trabajo creador de
quien estamos citando, haciendo mención explícita de la página en que aparecen. Las
fichas de contenido, aparte de poseer los datos comunes a toda ficha, consisten en
resúmenes o síntesis de párrafos, capítulos o aún de la obra entera.
Las fichas son unidades de registro, no objetos físicos de determinadas características.
Por ello, son fichas las que se hacen en cartulinas, pero también deben considerarse
como tales los registros que se hagan en cualquier clase de papel o las bases de datos
que se manejan por computadora.
El valor de las fichas reside en que ellas permiten recopilar las informaciones que
necesitamos para una determinada investigación. Si las fichas son completas y reflejan
fielmente los datos originales, será posible desarrollar la investigación con la seriedad que
requiere todo trabajo científico.
Una vez concluido el trabajo de fichado de las fuentes, se estará en condiciones de
continuar con las operaciones propias del diseño bibliográfico: cotejo y evaluación de las
fuentes, análisis, síntesis y redacción del informe de investigación.
Por otra parte, si definimos a los documentos como todos aquellos escritos que nos
pueden servir como instrumentos en nuestra investigación, debemos incluir a todos los
documentos públicos y privados.
Existen documentos públicos que resumen información masiva sobre determinada
población (censos, archivos, registros de instituciones). Generalmente, la información que
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 279
se recolecta en este tipo de documentos se utiliza con un propósito específico y es difícil
que se le pueda dar otro empleo.
También existen documentos privados o personales que nos proporcionan información
acerca de una persona determinada (cartas, diarios íntimos). El problema consiste en que
no podemos saber qué tan fidedignos son los datos que estos documentos representan.
por ejemplo, un diario íntimo nos puede proporcionar información acerca de los
sentimientos y vivencias de la persona, pero probablemente nos ofrecerá pocos datos (o
muy subjetivos) acerca de hechos externos a la persona.
3.15.5. REFERENCIAS o Tenorio Bahena, Jorge. INVESTIGACIÓN DOCUMENTAL. 3ª ed. México
(1988). Ed. Mac Graw - Hill.
o Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS
SOCIALES. 5ª ed. México (1994). Ed. Trillas S.A.
o Tamayo y Tamayo, Mario. EL PROCESO DE LA INVESTIGACIÓN
CIENTÍFICA. 3ª ed. México (1998). Ed. Limusa S.A.
o Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996).
Ed. Lumen - Humanitas.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 280
<<<
3.16. OBTENCIÓN Y ORDENAMIENTO DE DATOS
3.16.1. POBLACIÓN Y MUESTRA. Marco de referencia de un estudio estadístico:
1. Definir la unidad de observación (elemento sobre el que vamos a registrar los
datos). Las unidades de observación pueden tener existencia natural, como una
persona o una cosa –elementos tangibles, o pueden estar definidas artificialmente,
como las distintas áreas de una empresa.
2. Determinar qué vamos a medir (lo que vamos a observar).
3. Definir si el relevamiento de datos se hace sobre la totalidad (población) o sobre
una muestra. Si el análisis se realiza en base a una muestra, el objetivo es obtener
conclusiones acerca de la población. Por lo tanto, la muestra debe ser
representativa de la población de la cual fue extraida.
3.16.2. ORDENAMIENTO DE DATOS. Los datos son colecciones de cualquier cantidad de observaciones relacionadas. Una
colección de datos se conoce como conjunto de datos, y una sola observación es un punto
de dato.
Para que los datos sean útiles, necesitamos organizar nuestras observaciones, de modo
que podamos distinguir patrones y llegar a conclusiones lógicas.
3.16.3. RECOLECCIÓN DE DATOS: Los especialistas en estadística seleccionan sus observaciones de manera que todos los
grupos relevantes estén representados en los datos.
Los datos pueden provenir de observaciones reales o de registros que se mantienen para
otros propósitos.
Los datos pueden ayudar a los responsables de tomar decisiones a hacer suposiciones
bien pensadas acerca de las causas y, por tanto, de los efectos probables de ciertas
características en situaciones dadas. También el conocimiento de tendencias adquirido de
la experiencia previa puede permitir estar al tanto de posibles resultados y actuar en
consecuencia.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 281
Cuando los datos son ordenados de manera compacta y útil, los responsables de tomar
decisiones pueden obtener información confiable sobre el ambiente y usarla para tomar
decisiones inteligentes. Los administradores deben tener mucho cuidado y asegurar que
los datos utilizados están basados en suposiciones e interpretaciones correctas. Para ello,
se utilizan las pruebas para datos:
1. ¿De dónde vienen los datos? ¿La fuente es parcial? ¿Es posible que haya un
interés en proporcionar datos que conduzcan a una cierta conclusión más que a
otras?
2. ¿Los datos comprueban o contradicen otras evidencias que se poseen?
3. ¿Hace falta alguna evidencia cuya ausencia podría ocasionar que se llegue a una
conclusión diferente?
4. ¿Cuántas observaciones se tienen? ¿Representan a todos los grupos que se desea
estudiar?
5. ¿La conclusión es lógica? ¿Se ha llegado a conclusiones que nuestros datos no
confirman?
¿Vale la pena usar los datos o debemos esperar y recabar más información antes de
actuar?
3.16.3.1. DIFERENCIA ENTRE MUESTRAS Y POBLACIONES: Muestra y población son términos relativos. Una población es un todo y una muestra es
una fracción o segmento de ese todo.
Estudiaremos muestras con el fin de ser capaces de describir poblaciones.
El estudio de muestras es más sencillo que el estudio de la población completa, cuesta
menos y lleva menos tiempo. Además, se ha probado que el examen de una población
entera todavía permite la aceptación de elementos defectuosos, por tanto, en algunos
casos, el muestreo puede elevar el nivel de calidad.
Una población es un conjunto de todos los elementos que estamos estudiando, acerca de
los cuales intentamos sacar conclusiones. Debemos definir dicha población de modo que
quede claro cuándo un cierto elemento pertenece o no a la población.
Una muestra es una colección de algunos elementos de la población, pero no de todos.
Cualquier grupo que cumple con los requisitos de la población, puede constituir una
muestra, siempre y cuando el grupo sea una fracción de la población completa.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 282
Una muestra representativa contiene las características relevantes de la población en las
mismas proporciones en que están incluidas en tal población.
3.16.3.2. BÚSQUEDA DE UN PATRÓN SIGNIFICATIVO EN LOS DATOS: Existen muchas formas de organizar los datos. Podemos sólo colectarlos y mantenerlos
en orden; o si las observaciones están hechas con números, entonces podemos hacer una
lista de los puntos de dato de menor a mayor según su valor numérico. Pero si los datos
son trabajadores especializados o los distintos tipos de automóviles que ensamblan todos
los fabricantes, debemos organizarlos de manera distinta. Necesitaremos presentar los
puntos de dato en orden alfabético o mediante algún principio de organización. Una forma
común de organizar los datos consiste en dividirlos en categorías o clases parecidas y
luego contar el número de observaciones que quedan dentro de cada categoría. Este
método produce una distribución de frecuencias.
El objetivo de organizar los datos es permitirnos ver rápidamente algunas de las
características de los datos que hemos recogido: el alcance (los valores mayor y menor),
patrones evidentes, alrededor de qué valores tienden a agruparse los datos, qué valores
aparecen con mayor frecuencia, etc.
RECOMENDACIONES:
Al plantear un estudio estadístico, definir claramente la población objeto de análisis.
Si se trabaja con muestras, definir las condiciones que deben reunir antes de extraerlas.
Especificar qué se va a medir, las unidades a usar y la forma de registro.
3.16.3.3. DATOS SIN PROCESAR: La información obtenida, antes de ser organizada y analizada, se conoce como datos sin
procesar puesto que aún no han sido tratados mediante ningún método estadístico.
La cantidad de datos más grande y los detalles más minuciosos pueden no contener la
información más útil para la toma de decisiones administrativa. Una parte importante de la
planeación de sistemas de información administrativa consiste en resumir y presentar los
datos de modo que se pueda obtener la información crítica de manera rápida y sencilla.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 283
3.16.3.4. ORDENAMIENTO DE DATOS UTILIZANDO SU ARREGLO Y DISTRIBUCIÓN DE FRECUENCIAS: La ordenación de datos es una de las formas más sencillas de presentarlos, los forma en
orden ascendente o descendente.
Ventajas:
1. Podemos notar rápidamente los valores mayor y menor de los datos.
2. Podemos dividir fácilmente los datos en secciones.
3. Podemos ver si algunos de los valores aparecen más de una vez en ese
ordenamiento.
4. Podemos observar la distancia entre valores sucesivos de datos.
En ocasiones, un ordenamiento de datos no resulta útil. Debido a que da una lista de
todos los valores, es una forma incómoda de mostrar grandes cantidades de datos.
3.16.3.4.1. La distribución de frecuencias. Una forma en que podemos comprimir los datos es la tabla de frecuencias o distribución
de frecuencias. Las distribuciones de frecuencias sacrifican algunos detalles, pero ofrecen
nuevas perspectivas sobre los patrones de datos.
Una distribución de frecuencias es una tabla en la que los datos se organizan en clases,
es decir, en grupos de valores que describen una características de los datos.
Una distribución de frecuencias muestra el número de observaciones del conjunto de
datos que caen en cada una de las clases.
3.16.3.4.2. Características de las distribuciones de frecuencias relativas. También podemos expresar la frecuencia de cada valor como una fracción o un porcentaje
del número total de observaciones. Para obtener este valor, dividimos la frecuencia de esa
clase entre el número total de observaciones del conjunto de datos. La respuesta se
puede expresar como una fracción, un número decimal o un porcentaje.
La suma de todas las frecuencias relativas es igual a 1,00 o a 100%. Esto es así debido a
que una distribución de frecuencias relativas aparea a cada clase con su fracción o
porcentaje apropiados del total de datos. Por consiguiente, las clases que aparecen en
cualquier distribución de frecuencias, ya sean relativas o simples, son completamente
inclusivas. Todos los datos caen en una u otra categoría. Las clases son mutuamente
exclusivas, es decir, ningún punto de dato cae en más de una categoría.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 284
En las distribuciones de frecuencias no aparecen clases que se traslapen.
Podemos, también, clasificar la información de acuerdo con características cualitativas,
como raza, religión y sexo, que no entran de manera natural en clasificaciones numéricas.
Como clases de atributos cuantitativos, éstas deben ser completamente inclusivas y
mutuamente exclusivas.
La categoría "otros" se conoce como clase de extremo abierto cuando permite que el
extremo inferior o el superior de una clasificación cuantitativa no esté limitado.
Los esquemas de clasificación pueden ser tanto cuantitativos como cualitativos y tanto
discretos como continuos. Las clases discretas son entidades separadas que no pasan de
una clase discreta a otra sin que haya un rompimiento. Los datos discretos son aquellos
que pueden tomar sólo un número limitado de valores.
Los datos continuos pasan de una clase a otra sin que haya un rompimiento. Implican
mediciones numéricas. Los datos continuos pueden expresarse con números fraccionarios
o con enteros.
Las variables discretas son cosas que se pueden contar y las continuas son cosas que
aparecen en algún punto de una escala.
3.16.3.5. CONSTRUCCIÓN DE UNA DISTRIBUCIÓN DE FRECUENCIAS: Pasos:
1. Decidir el tipo y número de clases para dividir los datos. De acuerdo con la
medida cuantitativa o un atributo cualitativo. Necesitamos decidir cuántas clases
distintas usar y el alcance que cada clase debe cubrir. el alcance total debe
dividirse entre clases iguales, esto es, el ancho del intervalo, tomado desde el
principio de una clase hasta el principio de la clase siguiente, necesita ser el mismo
para todas las clases. El número de clases depende del número de puntos de dato y del alcance de los
datos recolectados. Cuantos más puntos de dato se tengan o cuanto más grande
sea el alcance, más clases se necesitarán para dividir los datos. Como regla
general, los estadísticos rara vez utilizan menos de 6 y más de 15 clases.
Debido a que necesitamos hacer los intervalos de clase de igual tamaño, el número
de clases determina el ancho de cada clase.
Ancho de los intervalos de clase = (valor unitario siguiente después del valor más
grande
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 285
de los datos – valor más pequeño de los datos) / número total de intervalos
Debemos utilizar el siguiente valor más alto de las mismas unidades, ya que
estamos midiendo el intervalo entre el primer valor de una clase y el primer valor de
la siguiente.
2. Clasificar los puntos de dato en clases y contar el número de datos que hay en
cada clase.
3. Ilustrar los datos en un diagrama.
3.16.3.6. REPRESENTACIÓN GRÁFICA DE LAS DISTRIBUCIONES DE FRECUENCIAS: Las gráficas dan los datos en un diagrama de dos dimensiones. Sobre el eje horizontal
podemos mostrar los valores de la variable (la característica que estamos midiendo).
Sobre el eje vertical señalamos las frecuencias de las clases mostradas en el eje
horizontal.
Las gráficas de distribuciones de frecuencias simples y de distribuciones de frecuencias
relativas son de utilidad debido a que resaltan y aclaran los patrones que no se pueden
distinguir fácilmente en las tablas. Atraen la atención del que las observa hacia los
patrones existentes en los datos. Las gráficas pueden también ayudarnos a resolver
problemas concernientes a las distribuciones de frecuencias. Nos permitirán estimar
algunos valores con sólo una mirada y nos proporcionarán una verificación visual sobre la
precisión de nuestras soluciones.
3.16.3.6.1. Histogramas. Un histograma consiste en una serie de rectángulos, cuyo ancho es proporcional al
alcance de los datos que se encuentran dentro de una clase, y cuya altura es proporcional
al número de elementos que caen dentro de cada clase. Si las clases que utilizamos en la
distribución de frecuencias son del mismo ancho, entonces las barras verticales del
histograma también tienen el mismo ancho. La altura de la barra correspondiente a cada
clase representa el número de observaciones de la clase. Como consecuencia, el área
contenida en cada rectángulo (ancho por altura) ocupa un porcentaje del área total de
todos los rectángulos igual al porcentaje de la frecuencia de la clase correspondiente con
respecto a todas las observaciones hechas.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 286
Un histograma que utiliza las frecuencias relativas de los puntos de dato de cada una de
las clases, en lugar de usar el número real de puntos, se conoce como histograma de
frecuencias relativas. Este tipo de histograma tiene la misma forma que un histograma de
frecuencias absolutas construido a partir del mismo conjunto de datos. Esto es así debido
a que en ambos, el tamaño relativo de cada rectángulo es la frecuencia de esa clase
comparada con el número total de observaciones.
3.16.3.6.2. Polígonos de frecuencias. Son otra forma de representar gráficamente distribuciones tanto de frecuencias simples
como relativas. Para construir un polígono de frecuencias señalamos éstas en el eje
vertical y los valores de la variable que estamos midiendo en el eje horizontal. A
continuación, graficamos cada frecuencia de clase trazando un punto sobre su punto
medio y conectamos los resultantes puntos sucesivos con una línea recta para formar un
polígono.
Se añaden dos clases, una en cada extremo de la escala de valores observados. Estas
dos nuevas clases que contienen cero observaciones permiten que el polígono alcance el
eje horizontal en ambos extremos de la distribución.
Un polígono de frecuencias es sólo una línea que conecta los puntos medios de todas las
barras de un histograma. Por consiguiente, podemos reproducir el histograma mediante el
trazado de líneas verticales desde los límites de clase y luego conectando tales líneas con
rectas horizontales a la altura de los puntos medios del polígono.
Un polígono de frecuencias que utiliza frecuencias relativas de puntos de dato en cada
una de las clases, en lugar del número real de puntos, se conoce como polígono de
frecuencias relativas. Este polígono tiene la misma forma que el polígono de frecuencias
construido a partir del mismo conjunto de datos, pero con una escala diferente en los
valores del eje vertical.
Ventajas de los histogramas: • Los rectángulos muestran cada clase de la distribución por separado.
• El área de cada rectángulo, en relación con el resto, muestra la proporción del
número total de observaciones que se encuentran en esa clase.
Ventajas de los polígonos de frecuencias: • Es más sencillo que su correspondiente histograma.
• Traza con más claridad el perfil del patrón de datos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 287
• Se vuelve cada vez más liso y parecido a una curva conforme aumentamos el
número de clases y el número de observaciones.
Un polígono alisado mediante el aumento de clases y de puntos de dato se conoce como
curva de frecuencias.
3.16.3.6.3. Ojivas. Una distribución de frecuencias acumuladas nos permite ver cuántas observaciones están
por encima de ciertos valores, en lugar de hacer un mero registro del número de
elementos que hay dentro de los intervalos.
La gráfica de una distribución de frecuencias acumuladas se conoce como ojiva.
En ocasiones, la información que utilizamos se presenta en términos de frecuencias
acumuladas "mayores que". La ojiva adecuada para tal información tendría una inclinación
hacia abajo y hacia la derecha, en lugar de tener una inclinación hacia arriba y a la
derecha. Podemos construir una ojiva de una distribución de frecuencias relativas de la
misma manera en que trazamos la ojiva de una distribución de frecuencias absolutas. Sólo
habrá un cambio: la escala del eje vertical.
Del ordenamiento de datos podemos construir distribuciones de frecuencias. A partir de
las distribuciones de frecuencias podemos construir distribuciones de frecuencias
acumuladas. A partir de éstas podemos trazar una ojiva. Y de esta ojiva podemos
aproximar los valores que tenemos en el ordenamiento de datos. Sin embargo, no
podemos recobrar de manera normal los datos originales exactos a partir de cualquiera de
las representaciones gráficas que hemos analizado. 3.16.3.7. TRATAMIENTO DE UNA VARIABLE DISCRETA: Se utilizan los diagramas de barras, la diferencia con el histograma es que los rectángulos
no se tocan entre sí; esto se debe a que, al ser la variable discreta, entre los valores
sucesivos no hay valores intermedios. Las frecuencias acumuladas se grafican por medio
de una ojiva en forma de escalera, debido a que la frecuencia aumenta de a saltos.
RECOMENDACIONES:
Cuando se trabaja con muestras, recopilar el mayor número de datos posible.
Usar 5 clases como mínimo y 15 como máximo para agrupar los datos, en función del
número de datos disponibles.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 288
Trabajar con intervalos de clase de igual longitud.
Tener cuidado con la clasificación automática que hacen los paquetes estadísticos.
Al calcular frecuencias relativas – como proporción – trabajar con cuatro dígitos después
de la coma, para evitar errores de redondeo en la suma.
Al dibujar un gráfico, no exagerar la escala vertical u horizontal. Un gráfico
desproporcionado complica su interpretación y puede resultar engañoso a simple vista.
3.16.4. CONCEPTOS: • Unidad de observación: persona o casa sobre la que se mide una o varias
características de interés. • Caracteres: propiedades o rasgos que se miden en cada unidad de observación. • Variable numérica: VARIABLE. Carácter cuantitativo. • Variable categórica: ATRIBUTO. Carácter cualitativo. • Población: conjunto formado por todas las unidades objeto de un estudio
estadístico. Colección de todos los elementos que se están estudiando y sobre los
cuales intentamos llegar a conclusiones. • Muestra: subconjunto representativo de la población. Colección de algunos
elementos, pero no de todos, de la población bajo estudio, utilizada para describir
poblaciones.
• Muestra representativa: muestra que contiene las características importantes de
la población en las mismas proporciones en que están contenidas en la población. • Datos: colección de cualquier número de observaciones relacionadas sobre una o
más variables.
• Punto de dato: una sola observación de un conjunto de datos. • Arreglo de datos: organización de los datos sin procesar por observación,
tomados en orden ascendente o descendente.
• Clase de extremo abierto: clase que permite que el extremo superior o inferior de
un esquema de clasificación cuantitativo no tenga límite.
• Conjunto de datos: una colección de datos.
• Curva de frecuencias: polígono de frecuencias alisado mediante el aumento de
clases y puntos de dato a un conjunto de datos.
• Datos continuos: datos que pueden pasar de una clase a la siguiente sin
interrumpirse y que pueden expresarse mediante números enteros o fraccionarios.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 289
Datos numéricos que admiten infinitos valores entre dos valores cualesquiera;
generalmente surgen de una medición.
• Datos discretos: datos que no pasan de una clase a la siguiente sin que haya una
interrupción; esto es, donde las clases representan categorías o cuentas distintas
que pueden representarse mediante números enteros. Datos numéricos que no
admiten valores intermedios entre dos valores sucesivos; generalmente surgen de
un conteo.
• Datos sin procesar: información antes de ser organizada o analizada por métodos
estadísticos. Conjunto de datos que no han recibido ningún tratamiento estadístico.
• Datos tratados: conjunto de datos que ha sido objeto de algún tipo de
ordenamiento o procesamiento.
• Intervalo de clase: agrupamiento de valores de una variable.
• Alcance de los datos: diferencia entre el mayor y menor valor de la serie.
• Distribución de frecuencias: despliegue organizado de datos que muestran el
número de observaciones del conjunto de datos que entran en cada una de las
clases de un conjunto de clases mutuamente exclusivas y colectivamente
exhaustivas. Asignación de frecuencias a cada uno de los valores de una variable o
atributo.
• Tabla de frecuencias: tabla donde se asienta la distribución de frecuencias.
• Distribución de frecuencias acumuladas: despliegue de datos en forma de tabla
que muestra cuántos datos están por encima o por debajo de ciertos valores.
• Distribución de frecuencias relativas: despliegue de un conjunto de datos en el
que se muestra la fracción o porcentaje del total del conjunto de datos que entra en
cada elemento de un conjunto de clases mutuamente exclusivas y colectivamente
exhaustiva.
• Histograma: gráfica de un conjunto de datos compuesta de una serie de
rectángulos, cada uno con un ancho proporcional al alcance de los valores de cada
clase y altura proporcional al número de elementos que entran en la clase, o altura
proporcional a la fracción de elementos de la clase. Representación gráfica de la
distribución de frecuencias (absoluta o relativa) de una variable continua.
• Ojiva: gráfica de una distribución de frecuencias acumuladas absolutas o relativas.
• Polígono de frecuencias: línea que une los puntos medios de cada clase de un
conjunto de datos, trazada a la altura correspondiente a la frecuencia de datos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 290
Representación gráfica de la distribución de frecuencias en forma suavizada de una
variable continua.
• Diagrama de barras: representación gráfica de la distribución de frecuencias de un
atributo o de una variable discreta.
• Frecuencia absoluta: número de veces que se repite un determinado valor de una
variable o atributo.
• Frecuencia relativa: proporción o porcentaje de veces que se repite un valor.
3.16.5. REFERENCIAS o RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA
ADMINISTRADORES, ED. PRENTICE HALL, SEXTA ED., 1996
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 291
3.17. REGISTRO DE LA INFORMACIÓN. MODELOS DE FICHAS.
Cuando una publicación ingresa a una biblioteca se registra, se anotan los datos más
importantes para localizarla fácilmente. El criterio que se sigue en las bibliotecas para
clasificar libros, revistas, tesis y artículos sueltos, es el siguiente:
• Por autor.
• Por título.
• Por tema.
3.17.1. FICHA BIBLIOGRÁFICA. Los índices que se refieren a los libros se encuentran generalmente en cajones que
contienen tarjetas de 3 x 5 pulgadas, ordenadas alfabéticamente. Los datos que se
enumeran a continuación son los que se registran en las fichas:
1. Autor. Apellido, nombre
2. Título (siempre va subrayado)
3. Subtítulo (si lo hay)
4. Traductor, prologuista, etc. (si el original se escribió en otro idioma)
5. Edición (si es la primera no se anota, se anota a partir de la segunda)
6. Número de volumen (si cuenta con más de uno)
7. Lugar (donde se editó la obra)
8. Editorial
9. Fecha
10. Número total de páginas, láminas, ilustraciones
11. Colección o serie.
Los datos que corresponden a 7, 8 y 9 se conocen como pie de imprenta. Entre paréntesis
rectangulares o corchetes, se anotan los datos que se deseen agregar: si contiene mapas,
ilustraciones, comentarios o apreciaciones personales sobre el libro.
Cuando no aparecen algunos datos indispensables, se usan las siguientes abreviaturas:
[et. al]: cuando son varios autores se anotan los datos del primero y esta abreviatura
significa: y otros.
[s. tr.]: sin traductor
[s. l.]: sin lugar
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 292
[s. f.]: sin fecha
[s. e.]: sin editorial
[s. p. i.]: sin pie de imprenta.
Las anotaciones particulares, hechas por el investigador para su empleo personal, se
encierran también entre corchetes. En algunas fichas se incluye también un breve
resumen del libro y/o un índice de contenido. A este fichero se recurre cuando se conoce
el nombre del autor del libro que se desea consultar.
Otras veces se recurre a ficheros clasificados por temas y por título, porque se desconoce
el nombre del autor. En ocasiones, cuando no hay referencias en el fichero sobre el
concepto investigado, se deben buscar sinónimos o temas afines.
3.17.2. FICHA DE DIARIOS Y REVISTAS. En las bibliotecas existen generalmente dos formas de clasificar las revistas: por tema y
por artículo. La clasificación por temas es muy general y se refiere principalmente a
disciplinas tan amplias como la psicología, la sociología, la economía, la antropología, etc.
A la clasificación que con mayor frecuencia se recurre en relación con las revistas, es a la
clasificación por títulos, ya que es la manera más práctica de hacerlo.
Una ficha, cuando el dato se toma de diarios y revistas, debe contener:
1. Nombre del autor
2. Título y subtítulo del artículo (entre comillas)
3. Título y subtítulo del periódico o revista (subrayado). Institución que la publica
4. Número del columen, año, tomo (con números romanos)
5. Número del fascículo (con números arábigos)
6. Fecha
7. Número de página o páginas que ocupa el artículo o dato
8. Información (dato). Cuando aparece sin datos de lo que trata el artículo, se le
conoce como ficha de artículo.
En ocasiones se recorta el artículo o parte de él. En estos casos, los datos de esta ficha se
anotan en la hoja o tarjeta en donde se pegó el recorte.
3.17.3. FICHA DE TESIS.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 293
Las tesis se encuentran archivadas en un fichero especial y están clasificadas de la misma
manera que los libros, es decir, tanto por tema como por autor. Los datos que deben
contener son:
1. Autor
2. Título
3. Tesis (se menciona al grado que se aspira con ella)
4. Lugar (colegio o institución donde se presenta)
5. Editor (si lo hay)
6. Fecha
7. Número de páginas (cuando el texto está escrito por un solo lado de la hoja, se
usará la abreviatura h, en lugar de p).
3.17.4. FICHA DE PUBLICACIÓN OFICIAL. 1. País
2. Dependencia
3. Año
4. Título (época que comprende el trabajo, ensayo, memoria, etc.)
5. Editorial (o los talleres donde se imprimió)
6. Número de páginas (si la dependencia que la publica no es la responsable del
contenido, el registro se iniciará con el nombre del autor.
3.17.5. FICHA DE TEXTOS JURÍDICOS.
1. Territorio en donde se aplican
2. Referencia al tipo de normas de que trata
3. Nombre de la ley o decreto (subrayado)
4. Editor o talleres donde se imprimió (o el conducto por el cual se dio a conocer)
5. Fecha
6. Número de páginas.
3.17.6. FICHA DE DOCUMENTOS NACIONALES. 1. Título (o asunto de que trata)
2. Lugar
3. Fecha
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 294
4. Archivo
5. Legajo
6. Foja
7. Demás especificaciones
8. Número de páginas
9. Características de interés particular, si el investigador juzga indispensable
registrarlas)
3.17.7. FICHA DE DOCUMENTOS INTERNACIONALES. 1. Órgano responsable
2. Título (o asunto)
3. Número, clave o codificación
4. Lugar donde se publicó
5. Editor (o conducto por el que se da a conocer
6. Fecha
3.17.8. FICHA DE REGISTRO DE OBRAS DE RECOPILACIÓN DE CONSTITUCIONES O LEYES.
1. Nombre del compilador o editor
2. Referencia al tipo de norma o documento (subrayado)
3. Número de volumen (con números romanos)
4. Lugar
5. Editor
6. Fecha
7. Número de páginas en donde está comprendido.
3.17.9. FICHA DE REGISTRO DE PACTOS, ACUERDOS O TRATADOS INTERNACIONALES.
1. País u organismo (con mayúsculas)
2. Tipo de norma o documento
3. Autor del prólogo, comentario o nota
4. Lugar
5. Editor
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 295
6. Fecha
7. Número de páginas en donde está comprendido.
3.17.10. FICHA DE ARTÍCULOS CONTENIDOS EN LIBROS O ENCICLOPEDIAS.
1. Autor del capítulo o artículo
2. Título del capítulo o artículo (entre comillas)
3. Páginas en que está comprendido
4. Autor de la obra que contiene el artículo o capítulo
5. Título de la obra (subrayado)
6. Demás datos de la ficha bibliográfica de la obra.
3.17.11. FICHA DE CAMPO. 1. Tema de investigación
2. Nombre del investigador
3. Institución
4. Lugar
5. Fecha
6. Hora
7. Datos de la fuente (edad, sexo, ocupación).
3.17.12. FICHA DE NOTICIARIO. 1. Agencia noticiosa / comentarista
2. Nombre del noticiario
3. Número / horario
4. Estación / canal / cine
5. Lugar
6. Fecha
7. Noticia o comentario
3.17.13. FICHA DE INSTITUCIÓN. 1. Nombre de la institución (subrayado)
2. Institución de la que forma parte
3. Objetivos que tiene en su función
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 296
4. Ubicación
• Dirección
• Lugar que ocupa en la disciplina a la que pertenece o practica
1. Funciones y servicios
2. Información que puede proporcionar
3. Conexión, nexos, relación con otras fuentes similares
4. Forma de acceso (procedimientos para obtener sus servicios, o persona u oficina
por cuyo conducto se pueden obtener sus servicios).
5. Publicaciones que emite
6. Otros datos importantes.
3.17.14. FICHA DE REGISTRO DE INFORMACIÓN DE MAPAS, DIBUJOS, FOTOGRAFÍAS
1. Nombre (de lo que se trata, subrayado)
2. Autor
3. Fuente (lugar, libro, revista, museo, etc., dónde está)
4. Descripción del objeto (colores, medidas, material de que está hecho, datos
indispensables para tener noción de cómo es)
5. Contenido (descripción de lo que se ilustra o representa)
6. Otros datos que interesen al investigador (fecha, sala, en el caso de museos,
exposición, etc.)
3.17.15. FICHA DE TRABAJO. Es aquella donde se registran los datos que interesan al investigador. Cuando el dato está
contenido en más de una tarjeta, las tarjetas que ocupe constituirán una sola ficha. En
estos casos, conviene marcar las tarjetas con el número de ficha y una letra (ej.: 5a y 5b).
Una ficha debe contener un solo dato, éste puede ser un solo detalle (una fecha, un
nombre, un acontecimiento, etc.) o estar formado por más información (una carta, la
descripción de un hecho, una biografía, etc.).
Para saber qué información debe registrarse en una ficha de trabajo, en el momento de
hacer la anotación debe pensarse si esa información va a aparecer en un solo lugar o hay
detalles que se utilizarán en otros lugares del escrito; en el primer caso se tratará de una
ficha; en el segundo, será necesario hacer una ficha por cada información que aparecerá
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 297
en distintas partes del escrito. El regesto es el asunto, tema o título del contenido de la
ficha de trabajo. Debe ser breve y reflejar fielmente la información anotada.
La información (dato) puede registrarse textualmente o resumirse.
Datos fundamentales:
1. Autor
2. Título (entre comillas)
3. Número de página (s) donde aparece el dato
4. Regesto (asunto, tema; va subrayado)
Datos complementarios:
1. Fecha en que se recogió el dato
2. Razón o motivo por el que se recabó la información.
3.17.16. FICHA DE TRANSCRIPCIÓN TEXTUAL. Como su nombre lo indica, es aquella a la que se traslada íntegramente el texto tomado
de la fuente, por lo que esta información siempre irá entre comillas.
3.17.17. FICHA DE SÍNTESIS. Es la que se utiliza para consignar, en pocas palabras, el extracto del texto consultado. Se
debe tener cuidado de no omitir o tergiversar el contenido. No es necesario utilizar una
tarjeta especial para los comentarios personales acerca de la fuente, puesto que es
conveniente incluirlos en la misma ficha que la registra. Se escriben entre corchetes.
3.17.18. FICHAS METODOLÓGICAS. Se refieren a aquellos puntos obtenidos de las lecturas, concretamente relacionados con
notas metodológicas, es decir, con qué sujetos se hizo la investigación, cómo se eligieron
éstos, qué hipótesis se emplearon, cómo se analizaron los datos, algún instrumento
original que se utilizó, alguna cuestión interesante que se investigó, es decir, con las
cuestiones operativas del estudio. El origen de estas fichas, al igual que en los casos
anteriores, debe identificarse utilizando la abreviación de la fuente original y el número de
página.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 298
3.17.19. REFERENCIAS o TENORIO BAHENA, JORGE, Técnicas de investigación documental, 3ra.
edición, México, Ed.Mc. Graw Hill, 1998
o PICK, Susan (et. al.), Cómo investigar en ciencias sociales, 3ra edición,
México, Editorial Trillas, 1998.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 299
3.18. ANÁLISIS CUANTITATIVO
3.18.1. LA LÓGICA DE ESTUDIAR CANTIDADES Si deseamos estudiar algo que también queremos medir, un prerrequisito es que, al
comenzar, tenemos que tener una idea bastante clara de la cosa que se va a estudiar (de
otro modo, no podríamos medirla). Este preconcepto del objeto de estudio también hace
posible planear nuestra investigación de manera relativamente precisa en comparación
con muchos proyectos de investigación cualitativa humanística.
Normalmente, un proyecto de investigación que examina cantidades medibles puede
organizarse en distintas fases, como en el diagrama de la derecha. Primero, recogemos
los datos y después los procesamos o depuramos, de modo que sean adecuados a los
fines del proyecto.
Para facilitar el análisis de los datos, debemos almacenarlos bien ordenados. Las
herramientas tradicionales para esta tarea suelen ser las fichas y las carpetas, pero hoy
esto se suele llevar a cabo con la ayuda de un ordenador. Al principio el investigador debe
haber considerado ya qué tipo de programa será más adelante el más efectivo cuando
haya que alimentar y extraer datos a y desde las operaciones analíticas. La elección
depende de la naturaleza de nuestros datos.
Ilustración 1: Lógica de estudiar cantidades
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 300
La herramienta informática normal para datos cuantitativos es una hoja de cálculo como
Excel o QuattroPro. Nuestros datos pueden ser dispuestos en la forma en que convenga,
clasificados y presentados en varias tablas; junto a ello, es fácil someter nuestros datos a
operaciones aritméticas o booleanas y también transformarlos en llamativos diagramas.
La selección se hace más complicada si nuestro material es una combinación de
mediciones, descripciones y tal vez fotos u otros ingredientes multimedia. Tales conjuntos
combinados de materiales son a veces gestionados mejor con programas de a bases de datos tales como DBase y Paradox, incluso si algunos programas de procesamiento de
textos van siendo capaces de manejar diversos tipos de materiales.
Una vez recibidos los datos y antes de someterlos al análisis, suele ser útil llevar a cabo
algunas operaciones preliminares. Esto puede incluir:
• apartar los datos que son obviamente erróneos o irrelevantes. Esto ha de ser
hecho con precaución: no debiéramos borrar datos que son solamente "anómalos"
y no armonizan con nuestras hipótesis.
• normalizar o reducir nuestros datos significa que eliminamos la influencia de algún
factor bien conocido pero sin interés. Por ejemplo, podemos eliminar el efecto de la
inflación dividiendo todos los precios por el índice de precios de la fecha de la
compra.
En el análisis propiamente dicho de los datos, el propósito es extraer una invariante o
estructura que nos interese a partir de los datos. Esto no significa que introduzcamos los
datos en un ordenador y esperemos que el ordenador nos muestre qué estructuras
pueden encontrarse en ellos. Los ordenadores no son lo bastante listos para eso. En lugar
de ello, es bastante habitual que ya en un momento tan temprano como el inicio del
proyecto, el investigador tenga un modelo matemático que aplicará a los resultados. Este
modelo también proporciona las hipótesis para el proyecto de investigación o al menos
actúa como una "hipótesis de trabajo" no exacta.
Los resultados empíricos pueden entonces analizarse del modo siguiente: primero, el
investigador dispone los resultados de acuerdo con el modelo y después considera en qué
grado el marco es adecuado a los datos o si ha de buscarse un modelo que se adapte
mejor. En otras palabras, el investigador suele primero decidir qué tipo de patrón es el que
está buscando en los datos. Esto determinará los métodos para un análisis matemático.
Así, la primera cuestión a la hora de elegir el método de análisis es: ¿Queremos usar las
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 301
variables medidas para clasificar casos o individuos? ¿O deseamos analizar variables
inconexas, o bien las relaciones entre diversas variables?
(Otra cuestión es cuál es la razón para la asociación estadística: ¿Hay una relación causal
o algún otro tipo de relación entre las variables? Esto es algo que el análisis estadístico no
será capaz de revelar.)
3.18.2. CLASIFICAR Si deseamos clasificar los individuos o casos en nuestra muestra de objetos de estudio,
hay unos cuantos métodos alternativos. La elección depende de la base de la
clasificación:
• Las clasificaciones cualitativas se tratan dentro de este documento junto al resto
de los métodos de análisis cualitativo. Véase también lo relativo a la segmentación
de los clientes.
• Toda variable singular puede ser usada para
clasificar los individuos o casos. Qué es esta
variable y dónde están situados los límites de la
clase, suele ser dictado por la teoría y el modelo
que estamos poniendo en práctica; si no, es común
seguir la serie aritmética (como pueda ser:
0...10...20...30...) o las series geométricas o
logarítmicas: 1...10...100...1000... etc.
• Dos o tres variables simultáneamente pueden
usarse para clasificar los casos, pero hay el riesgo
de generar demasiadas clases si alguna de las
variables tienen varios valores potenciales. El riesgo es menor si algunas variables
son dicotómicas, con sólo dos valores. Por ejemplo, tres variables dicotómicas
producen 2x2x2=8 clases.
En el método del análisis de grupos (cluster analysis) se tiene en cuenta
simultáneamente un gran número de variables. Se usa para encontrar tales
grupos de casos individuales de la muestra que, de acuerdo con los valores de las
variables, se asemejan entre sí en el mayor grado. Por ejemplo, en la figura de la
derecha han sido analizadas 30 respuestas a un cuestionario. El programa de
Ilustración 2: Clasificación por grupos
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 302
análisis de grupos estudia, para cada caso de la muestra, su conjunto de valores
para todas las variables dadas, y resuelve qué casos de la muestra tienen el
conjunto de valores más similar. En este caso particular resulta que los que se
parecen más entre sí son los individuos 8 y 29, y también 6 y 22 etc.
Después de que se haya encontrado la mejor manera de agrupar los casos, el
siguiente estadio en el análisis es descubrir grupos cada vez más amplios, siendo el
principio de agrupación que cada caso en un grupo se parece más a los demás
casos de ese grupo que a los casos de fuera del mismo. Corresponde al
investigador el decidir cuántos grupos acabará al final el programa. En la figura hay
tres grupos finales: A, B y C. Cada investigador tiene que tomar la decisión sobre la
base de su teoría, como es habitual en todo análisis estadístico. Para tomar la
decisión, debemos considerar el significado e interpretación teóricos de cada grupo.
Una vez que se ha llevado a cabo una clasificación con uno de los métodos arriba
mostrados, queda la tarea de presentarla en el informe. El número de individuos en cada
categoría es llamado frecuencia. Si se divide por el número total del conjunto de la
muestra, se obtiene la frecuencia relativa. La frecuencia relativa puede indicarse como
un porcentaje o una fracción. Todas estas estadísticas son variables de la escala
aritmética sin que importe el tipo de escala de las mediciones originales.
Tabla 8: Símbolos habituales en tablas
Algunas abreviaturas usadas
convencionalmete en tablas se presentan
a la derecha. En lo alto de la tabla, en el
encabezamiento de la tabla, se muestran
los
nombre
s de las
variables, las unidades de medida y los posibles límites
de las clases. Una columna es un conjunto vertical de
valores de una variable. La correspondiente línea
horizontal es una fila. Las notaciones convencionales en
tablas comprenden:
(caja vacía) = la tabla no ha sido completada
. . = no se ha obtenido la información
* = datos preliminares
- = 0.000 (exactamente cero)
0 = redondeado a cero Ilustración 3: Curva normal
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 303
3.18.3. ANALIZAR VARIABLES INDIVIDUALES A continuación hay una lista de algunos métodos habituales para el análisis estadístico de
una sola variable. Los métodos han sido dispuestos de acuerdo con la escala de medición
de la variable.
Tabla 9: Analisis de variables por escala
- Escala nominal
Escala ordinal
Escala de intervalo
Escala de proporción
Métodos de presentación
de los datos - Tabulación ; Presentación gráfica -
- La moda -
- - La mediana - Medias:
- - - Media aritmética -
- - Desviación de cuartil -
- - El rango - Medidas de dispersión:
- - - Desviación estándar -
Presentación gráfica de una variable
Ilustración 4: Ciclograma
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 304
Un modo simple de presentar una distribución de valores es mostrar cada valor como un
punto en una escala. Si hay un gran número de valores, puede ser mejor clasificarlos
primero y entonces presentar la frecuencia de cada clase como un histograma (Fig. de la
derecha).
Si nuestros estudios tienen que ver con personas, ocurrirá con bastante frecuencia que
nuestras mediciones estarán distribuidas de acuerdo con cierta curva, la llamada curva de
Gauss (a la izquierda) que es, por consiguiente, llamada la distribución normal. Una de
sus propiedades es que el 68% de todas las mediciones diferirá de la media (en la figura:
M) en no más que la desviación estándar, y el 95% en no más que el doble de la
desviación estándar.
A veces querremos poner el énfasis no en la distribución absoluta, sino en la proporcional
o de porcentaje. Un diagrama apropiado para esto es el gráfico de sectores, también
llamado "de tarta" o "de queso" (a la derecha):
Medias Una media es una estadística que caracteriza el valor típico de nuestros datos y elimina la
dispersión aleatoria de valores. Para cada una de las distintas escalas de medición hay un
tipo adecuado de media,
Ilustración 5:Diagrama de barras
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 305
Ilustración 6: Ejemplo me dedidas de tendencia central
• la moda
• la mediana
• la media aritmética.
Moda es el valor más común en nuestro conjunto de datos.
Mediana es el valor en el medio de la selección, si todos los valores están dispuestos del
menor al mayor.
Media (aritmética) es la suma de todos los valores dividido por su número, o
De entre las medias que se han presentado más arriba, el investigador puede elegir
habitualmente aquella que muestra mejor el valor típico de la variable. La media aritmética
es el más popular, pero puede ofrecer un cuadro equivocado por ejemplo en datos que
incluyen un valor que difieren en gran medida de los otros (véase la imagen de abajo).
Lo mismo ocurre si la distribución está desviada, como en la imagen de la derecha. En el
ejemplo, se relacionan los minutos que los distintos sujetos tardan en llevar a cabo una
tarea. Los más rápidos necesitaron 5 minutos, pero el resultado más común (=la moda)
fue de siete minutos. El valor en el medio, es decir, la mediana, se ha mostrado en rojo en
la imagen. La mediana tenía aquí el valor 11. ¿Qué pasa con la media? Como al sujeto
más lento le llevó el acabar 34 minutos, la media se eleva a 11.98 minutos, lo que no da
un cuadro exacto del resultado medio en este caso. Esto muestra que los datos están
desviados; el tipo de media debe elegirse con cuidado. Una presentación gráfica muchas
veces sería más ilustrativa que calcular una sola estadística.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 306
La distribución mostrada en esta figura está escorada positivamente, porque las
mediciones que han dado valores mayores que la mediana (11) se extieneden en un
amplio rango (de 11 a 34), mientras que las mediciones que han dado valores por debajo
de la mediana se concentran pocos valores (5...11).
Se puede también, si es necesario, acudir a una estadística para describir la cantidad de
desviación. Al elegir la media más apropiada, debemos tener en cuenta la escala que fue
usada en la recolección de los datos. Si la escala era nominal, la única media posible es la
moda. Si la escala fue ordinal, podemos usar la mediana o la moda.
Finalmente, si la media fue calculada a partir de una muestra, debemos examinar su
representatividad estadística, o qué probable es que la misma media sea cierta en la
población de la que la muestra se extrajo. Una comprobación apropiada para esto es la
prueba t.
Indicar la dispersión de los datos Una vez que hemos calculado el valor medio, puede ser a veces interesante describir a
qué distancia en torno a la media están diseminados los valores singulares. Para este fin,
podemos elegir entre diversas estadísticas. La elección depende del tipo de media que
hayamos usado:
• En conexión con la moda la dispersión de valores raramente es interesante.
• En lugar de ello, si hemos calculado una mediana, muchas veces querremos
señalar la diseminación de valores en torno a ella. Una forma adecuada para esto
es la desviación de cuartiles. Un "cuartil más alto" es aquel valor que es
sobrepasado por el 25% del conjunto de todas las mediciones; del mismo, modo el
25% de todos los valores son más bajos que el "cuartil bajo". La desviación media
de los cuartiles a partir de la mediana es llamada desviación de cuartiles y es
calculada con facilidad dividiendo por la mitad la diferencia de los cuartiles.
Una estadística alternativa y muy simple es el rango: la diferencia entre el mayor y
el menor valor.
• En conexión con la media aritmética muchas veces querremos calcular la
desviación estándar. Si los valores se miden a partir de una población, la formula
será,
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 307
Sin embargo, si la desviación estándar sólo se refiere a una muestra, la formula es,
En ambas fórmulas, n es el número de los valores, y los valores de cada variable
sustituirán a x uno tras otro. Raramente un investigador se molestará en realizar por sí
mismo el cálculo, porque el algoritmo necesario para esto existe incluso en calculadoras
de bolsillo.
A la raíz cuadrada de la desviación estándar se llama varianza, y también ésta es usada
con frecuencia para describir y analizar la dispersión.
Si la estadística de dispersión se ha calculado a partir de una muestra, su
representatividad estadística debe también calcularse al final. La prueba t es adecuada
para esto.
3.18.4. ANALIZAR LAS RELACIONES ENTRE VARIABLES Si dos variables evolucionan modo tal que en alguna medida se siguen entre ellas,
podemos decir que existe una asociación entre ellas. Por ejemplo, la altura y peso de la
gente están estadísticamente asociadas: aunque el peso de nadie esté causado por su
altura ni la altura por el peso es, no obstante, habitual que las personas altas pesen más
que las personas bajas. Por otro lado los datos habitualmente incluyen también
excepciones, lo que significa que una asociación estadística es inherentemente
estocástica.
La ciencia de la estadística ofrece numerosos métodos para revelar y presentar las
asociaciones entre dos y hasta más variables. Los medios más simple son los medios de
presentación gráfica y tabulación. La asociación entre las variables puede también
describirse como una estadística especial, como el coeficiente de contingencia y una
correlación para lo que hay varios métodos de análisis disponibles.
Si, al analizar los datos, se descubre alguna asociación entre las variables, esto no
significa que necesariamente alguna de ellas dependa causalmente de la otra. Una fuerte
correlación entre, digamos, A y B, puede deberse a cuatro razones alternativas:
• A es la causa de B.
• B es la causa de A.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 308
• Tanto A como B son causadas por C.
• La asociación de A y B es causada por una pura coincidencia.
El investigador debe elegir deliberadamente una de estas alternativas. No hay medios en
el análisis estadístico para la tarea de descubrir la explicación causal para una asociación
estadística. En muchos casos, la teoría original del investigador puede proporcionar una
explicación; si no, el investigador debe usar su sentido común para clarificar la causa.
A continuación mencionamos algunos métodos usuales de análisis estadístico que pueden
usarse al estudiar la interdependencia entre una o más variables. Los métodos han sido
dispuestos siguiendo a qué escala de medición corresponden la mayor parte de las
variables.
Tabla 10: Analisis de variables por escala
- Escala nominal
escala ordinal
escala de intervalo
escala de proporción
Métodos de presentación
de datos - Tabulación ; Gráficos -
- Coeficiente de contingencia; Chi cuadrado -
- - correlación ordinal -
- - Correlación r de Pearson ; ANOVAMedidas de asociación
- - análisis de regresión ; análisis
factorial
Tabulación La tabulación es una forma habitual de presentar las asociaciones entre dos o más
variables. Una tabla tiene la ventaja de que en ella puede disponerse bien una cantidad
extensa de datos y se conservan las cifras exactas. Una desventaja es que una tabla
grande no es ilustrativa: raras veces revela algo más que las más obvias regularidades o
interdependencias entre datos. Algunas abreviaturas convencionales usadas en tablas se
presentan bajo el encabezado Clasificar.
Presentación gráfica
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 309
Ilustración 7: Presentación grafica diagramica
Ilustración 8: Dispercigrama
Los artefactos, como objetos de estudio, son presentados con frecuencia como imágenes,
que son una forma de presentación gráfica. (Ejemplos de presentaciones gráficas.)
Si el investigador desea resaltar algunos rasgos comunes o patrones generales que ha
encontrado en un grupo de objetos, puede combinar varios objetos en un gráfico, como en
la figura de la izquierda. En el diagrama, Sture Balgård muestra cómo los edificios viejos
en Härnösand siguen proporciones uniformes de anchura y altura (la línea roja) con sólo
algunas excepciones. Al inventar métodos ilustrativos de presentación de los hallazgos del
estudio de artefactos, la más seria restricción es la imaginación del investigador.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 310
Ilustración 9: Diagrama de barras en series
Con frecuencia, no obstante, la apariencia del objeto en sí no es importante y sólo
interesan los valores numéricos de sus mediciones. Si se considera así, lo primero que
debiéramos plantearnos al elegir el tipo de gráficos es cuál es la estructura que queremos
mostrar de los datos. Por supuesto tenemos que no "mentir con ayuda de la estadística",
pero siempre es admisible elegir un estilo de presentación realce los patrones importantes
al eliminar o dejar en segundo plano las relaciones y estructuras que no nos interesan.
Si nuestros datos consisten en solamente unas pocas mediciones, es posible mostrarlos
todos como un diagrama de dispersión. Podemos exhibir los valores de dos variables
sobre los ejes de abscisas y ordenadas, y adicionalmente unas cuantas variables más
utilizando los colores o formas de los puntos. En el diagrama de la derecha, la variable z
tiene dos valores que se indican respectivamente por un cuadrado y un signo +.
Si la variación es demasiado pequeña para que aparezca claramente, podemos darle
énfasis eliminando partes de una o ambas escalas, véanse los ejemplos. Simplemente
eliminamos la parte que no nos interesa, sea por la parte superior o por la inferior. La parte
descartada debe estar vacía de valores medidos empíricamente. Para asegurarnos que el
lector se da cuenta de la operación, es mejor mostrarlo no sólo en las escalas, sino
también en la cuadrícula de fondo del diagrama.
Por otro lado, si el rango de variación de nuestros datos es muy amplio, podemos
plantearnos usar una escala logarítmica en uno o ambos ejes (véase el diagrama de la
izquierda). La escala logarítmica es apropiada solamente en una escala de proporción.
Si tenemos cientos de mediciones, es probable que no queramos mostrarlas todas en
forma de diagrama de dispersión. Una posibilidad en este caso es clasificar los casos y
presentarlos como un histograma.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 311
Ilustración 10: Histograma de medias
El histograma puede adaptarse para presentar hasta cuatro o cinco variables. Podemos
hacer esto variando las anchuras de las columnas, sus colores, sus tramados y por una
representación tridimensional (fig. de la izda.). Todas estas variaciones se crean
fácilmente con un programa de hoja de cálculo como Excel, pero no deben ser usadas
sólo como adorno.
Los patrones que rellenan o marcan las columnas del histograma pueden ser elegidos de
forma que simbolicen una de las variables. Por ejemplo, las columnas que describen el
número de automóviles pueden estar formadas por una pila de automóviles unos sobre
otros. Esto es correcto, con tal de que no variemos el tamaño de los símbolos usados en
un histograma. De otro modo, la interpretación se le haría difícil al lector (¿se vincula el
número de automóviles a la longitud, el área o el volumen de los símbolos de los
automóviles?)
El investigador suele estar interesado en las relaciones de dos o más variables antes que
en las parejas de mediciones tomadas separadamente. La forma normal de presentar dos
o más variables interdependientes es la curva. Esto implica una variable continua (es
decir, en que el número de posibles valores es infinito). (Ejemplos.)
No debemos producir una curva a partir de mediciones que no son valores de la misma
variable. Por ejemplo, los atributos de un objeto son variables diferentes. Ejemplos de ello
son las evaluaciones personales que los investigadores suelen reunir con la ayuda de
escalas semánticas diferenciales del tipo de la mostrada abajo:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 312
Tabla 11: Ejemplo de escala
Estime las características de su dormitorio. Tache un recuadro en cada línea.
Claro _ _ _ _ _ _ _ Oscuro
Ruidoso _ _ _ _ _ _ _ Tranquilo
Limpio _ _ _ _ _ _ _ Sucio
Grande _ _ _ _ _ _ _ Pequeño
Carecería ahora de sentido el presentar las distintas evaluaciones del dormitorio como un
solo "perfil" como en el diagrama de la izquierda (aunque encontremos con frecuencia este
tipo de presentaciones ilógicas en informes de investigación.) Si queremos a toda costa
poner el acento en que las variables han de ir juntas (por ejemplo porque todas son
evaluaciones del mismo objeto), un método apropiado podría ser, por ejemplo, un grupo
de histogramas (como el de la derecha).
Ilustración 11: Ejemplo no adecuado de diagramación
Todos los diagramas mostrados arriba pueden combinarse con mapas y otras
presentaciones topológicas. Por ejemplo, la variación en las diferentes áreas del país
suele mostrarse como un cartograma que distinga los diferentes distritos con distintos
colores o tramas. Otra forma es el cartopictograma en que pequeños diagramas de
sectores ("de tarta" o "queso") o de columnas han sido colocados en el mapa. Las
conexiones entre distintas áreas suele ser con frecuencia mostradas con filas cuyo grosor
indica el número de conexiones. (Ejemplo.)
Una obra útil y concisa en español sobre el uso de diagramas para análisis estadístico es:
Antonio Alaminos, Gráficos, Madrid, Centro de Investigaciones Sociológicas, 1993 (Col.
Cuadernos metodológicos, nº 7)
Contingencia
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 313
Los medios disponibles para el análisis de los vínculos entre las variables dependen de
con qué tipo de escala se han medido las variables. La variable decisiva es aquella cuya
escala es la más rudimentaria.
Ilustración 12: Disoercigrama
El metro más rudimentario y general de la covarianza estadística de las variables es la
contingencia. Puede aplicarse a todo tipo de variables, incluyendo aquellas que se han
medido solo con una escala de clasificación, es decir, una escala de diferencia de
cualidades. La contingencia suele ser analizada haciendo una tabla, pero también hay
disponibles estadísticas especiales para indicar su intensidad:
• Las conexiones entre dos variables que se han medido con una escala de
clasificación escala se describen con un cociente de contingencia o también con la
estadística del Chi cuadrado.
• Si dos variables se han medido con una escala ordinal, su conexión puede
describirse con una correlación ordinal. • Para variables sobre escalas aritméticas, el método usual de contingencia es la
correlación estándar.
Las formulas para calcular las estadísticas de contingencia no se muestran aquí porque
llevar a cabo los cálculos manualmente sería poco práctico y los investigadores
habitualmente los hacen con un ordenador.
Correlación Una forma habitual de expresar la fuerza de la asociación entre dos variables es la
correlación del momento-producto o correlación de Pearson. Suele abreviarse con la
letra r. La fórmula es bastante complicada pero raramente se necesita hoy, pues el
algoritmo es ahora común incluso en las calculadoras de bolsillo. Aunque el algoritmo
presupone que ambas variables deben ser medidas sobre una escala aritmética, en la
práctica los investigadores suelen pasar por alto esta limitación.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 314
A la derecha podemos ver un diagrama de dispersión que muestra los valores de dos
variables y la correlación entre ellas. Se trata de una imagen animada, pero podemos ver
también una vista combinada de los once conjuntos de valores, que puede servirnos
también en el caso de que el programa que estamos utilizando para ver estas páginas
(navegador o browser) no muestre de forma alternativa once conjuntos de valores con sus
respectivas correlaciones.
Si el coeficiente de correlación es bajo, por ejemplo algo entre -0.3 y +0.3, las dos
variables no tienen mucho que ver entre sí. Si es alto, en otras palabras, si su valor se
aproxima ya sea a +1 o a -1, esto significa que la relación entre las dos variables se
aproxima a la ecuación
y = ax + b. El signo del coeficiente de correlación no es importante; el signo siempre es
idéntico al signo del coeficiente a en la ecuación de arriba.
La correlación es una herramienta práctica para el análisis inicial de los datos, cuando no
tenemos una idea clara de las relaciones mutuas entre variables. Es fácil para un
ordenador calcular una matriz de correlación entre un gran número de variables o, más
exactamente, para todos los pares potenciales de variables. Podemos entonces elegir
esos pares que presentan las correlaciones más fuertes, y continuar examinandolos con
otras herramientas, más refinadas, de análisis, por ejemplo el análisis de regresión.
Un aspecto débil del análisis de correlación es que no puede detectar otras relaciones
lineales entre las variables. Por ejemplo, una relación que obedece a la ecuación y = ax2 +
bx + c pasaría inadvertida. Sin embargo, algunos de los nuevos programas de análisis son
capaces de detectar incluso esta y algunas otras asociaciones habituales de variables.
Si la correlación se calcula a partir de una muestra, debemos recordar probar su
representatividad estadística. Una prueba adecuada para esto es la prueba t.
Análisis de varianza El análisis de varianza (en inglés ANOVA, ANalysis Of VAriance) examina dos o más
conjuntos de mediciones, especialmente sus varianzas, e intenta detectar diferencias
estadísticamente representativas entre los conjuntos. Estos conjuntos podrían ser, por
ejemplo, reacciones medidas para dos grupos experimentales, y el investigador quiere
examinar si hay una diferencia en las reacciones, tal vez causada por los distintos
estímulos a los grupos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 315
El método de análisis de varianza se basa en el hecho matemáticamente probado de que
hay una diferencia entre los grupos sólo si la varianza inter-grupos es mayor que la
varianza intra-grupo. El análisis se inicia calculando la varianza intra-grupo para cada
grupo, y la media de todas
estas varianzas de grupo.
El siguiente paso es calcular la media para cada grupo, y entonces la varianza de estas
medias. Esa es la varianza inter-grupos. Entonces calculamos la proporción de las dos
cifras que acabamos de obtener, que es llamada F. En otras palabras, = (varianza de las
medias de grupo) / (media de las varianzas de grupo). Finalmente nos referimos a la tabla
(en manuales estadísticos) que muestra qué valores puede alcanzar el coeficiente F
cuando sólo actúa el azar. Si el F obtenido del ANOVA es mayor que el valor de la tabla,
hay una diferencia entre los grupos que es significativa según muestra la tabla.
Análisis de regresión
El investigador suele tener razones teóricas o prácticas para creer que determinada
variable es causalmente dependiente de una o más variables distintas. Si hay bastantes
datos empíricos sobre estas variables, el análisis de regresión es un método apropiado
para desvelar el patrón exacto de esta asociación. El algoritmo de análisis de regresión
construye una ecuación, que tiene el siguiente patrón. Además, da los parámetros a1, a2
etc. y b valores tales que la ecuación corresponde a los valores empíricos con tanta
precisión como es posible.
y = a1x1 + a2x2 + a3x3 + ... + b
En la ecuación,
y = la variable dependiente
x1 , x2 etc. = variables independentes
a1 , a2 etc. = parámetros
b = coeficiente.
Si tenemos amplios datos con muchas variables, al principio del análisis no estaremos tal
vez seguros de qué variables están mutuamente conectadas y cuales debieran así ser
incluidas en la ecuación. Podríamos primero estudiar esto con el análisis de correlación, o
podemos dejar al programa de análisis de regresión elegir las variables "correctas" (x1, x2
etc.) para la ecuación. "Correctas" son aquellas variables que mejoran la exactitud del
ajuste entre la ecuación y los valores empíricos.
Análisis factorial
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 316
A veces tiene el investigador una gran cantidad de datos sobre numerosas variables
diferentes con correlación entre ellas. Con ayuda del análisis factorial, tales datos suelen
poder comprimirse y las variaciones presentarse a través de sólo unas pocas variables.
Como ejemplo, consideremos los datos de un cuestionario (mostrado en otra parte) donde
a un cierto número de sujetos de un test se les preguntó en qué grado se correspondían
sus dormitorios personales con los adjetivos proporcionados por el investigador
(mostrados en escalas "semánticas diferenciales").
Ilustración 13: Ejemplo de proyecciones
El investigador ahora quiere descubrir si tras las estimaciones de los sujetos, hay algunas
"variables de fondo" cuya medición directa por a través de medios lingüísticos no sería
posible a causa de la carencia de adjetivos apropiados en el lenguaje. La hipótesis del
investigador es que estas variables de fondo "aparecen" a través de los adjetivos usados
en las escalas semánticas, habitualmente no con un adjetivo único, sino mediante un
grupo de adjetivos con correlación entre ellos.
Con la ayuda de un análisis factorial, las variables de combinación o factores ocultos tras
los atributos medidos pueden detectarse y especificarse, y el análisis también dice lo
estrechamente que estos factores están vinculados con las variables originalmente
verificadas.—
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 317
Ilustración 14: Ejemplo de proyecciones
A veces se sitúa también una condición suplementaria sobre los factores, concretamente
que no deben tener correlación alguna entre ellos y estén por lo tanto en "ángulo recto"
uno con respecto a otro (= "rotación ortogonal" de los factores durante el análisis).
Un inconveniente del método del análisis factorial es que es demasiado fácil de usar para
estudios que son formalmente correctos pero en la práctica absurdos, porque siempre
presenta los resultados de una forma elegante y matemáticamente exacta, incluso cuando
los factores obtenidos son tienen ningún contenido empírico sensato.
Analizar una serie temporal
Una serie cronológica es una línea de valores de variables reunidos en un cierto periodo
de tiempo, habitualmente en intervalos regulares. Si cada valor nuevo se añade a los
previos, la serie es acumulativa. La curva es la presentación más usual para la serie cronológica. El tiempo siempre se
presenta en el eje horizontal, x. Si es necesario, pueden situarse varias variables o series
de datos en el mismo diagrama. Esto tiene especial sentido cuando se están investigando
sus conexiones o ha de ponerse énfasis en éstas. Cuando se presentan dos series
cronológicas distintas con distintas escalas en una figura, podemos situar una escala
cuanto al margen izquierdo de la figura y la otra junto al margen derecho.
Si es necesario, tanto los valores medidos como los que se predicen pueden mostrarse en
la misma curva; véanse las figuras de abajo. Si el rango de la variable es muy pequeño,
puede ser resaltado acortando la escala Y, es decir, cortando la parte que no contiene
valores, normalmente a partir de la parte de abajo de la escala. La figura de la derecha
tiene exactamente los mismos contenidos que la de la izquierda, pero la variación se ha
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 318
hecho más visible al recortar la escala por la parte de abajo. - Si, por el contrario, la
variable varía en una escala muy amplia, puede hacerse logarítmica la escala del eje Y.
Toda serie cronológica es intrínsecamente discontinua, es decir, obtiene un valor discreto
para cada periodo de tiempo. Esto es por lo que la presentación elegida para una serie
cronológica suele ser una curva "en escalera", que es en principio lo mismo que un
histograma donde las columnas se dibujan una junto a otra. Véase la figura de la
izquierda.
Si dirigimos una mirada más detenida a la variación de la serie cronológica, ésta suele
revelar componentes, todos los cuales tienen sus regularidades específicas que pueden
ser analizadas. Los más habituales de estos componentes son:
• - tendencia
• - variación periódica
• - variación coyuntural
Una tendencia es una dirección lineal de desarrollo en un periodo de tiempo. Una forma
sencilla de estudiarla es hacer un diagrama de dispersión y entonces situar manualmente
una estimación aproximada de la línea que describe la tendencia en él (la línea roja en el
diagrama de la izquierda).
Ilustración 15: Diagrama de disperción
Un método más refinado y exacto para la tarea arriba mencionada es el análisis de
regresión. Tras haber encontrado la ecuación que se ajusta de forma óptima a la
tendencia, ésta habitualmente es también presentada de forma gráfica, posiblemente junto
con el diagrama de dispersión original.
Una variación periódica es una variación cíclica recurrente en forma similar una y otra
vez. El periodo de variación suele ser una unidad natural de tiempo, como un año o un día.
Por ejemplo, el consumo de energía de un edificio varía simultáneamente con tres
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 319
frecuencias: ritmos anual, semanal y diario. Estos se calculan uno cada vez, por el
siguiente método, básicamente el mismo en los tres casos:
• La variación periódica anual se halla haciendo un grupo de los valores para enero,
otro de los de febrero, etc. Entonces, para cada uno de estos doce grupos se
calcula la media y finalmente las doce medias se presentan como la variación anual
(la curva roja en el diagrama de la derecha).
• Cuando calculan los ritmos semanales, habrá siete grupos, es decir, uno para cada
día de la semana. Se calcula la media para cada uno de los siete grupos, y las siete
medias conforman la variación semanal.
• El ritmo diario de 24 mediciones diarias se calcula de forma tal que todos los
valores se disponen en grupos de 24. Las 24 medias indican entonces la variación
diaria buscada.
Cuando se ha encontrado la variación periódica, ésta se presenta, sea gráficamente como
curva de la longitud de un periodo, o bien numéricamente como un índice. Este índice
habitualmente se hace a partir de una base de 100 (ó 1,00), y sus valores periódicos se
obtienen cuando las medias periódicas (por ejemplo mensuales) se dividen por la media
común del conjunto de los datos.
Una variación de coyuntura tiene lugar repetidamente en la misma manera que una
variación periódica, pero su longitud y forma varían. Para revelar la variación de coyuntura,
la tendencia y las variaciones periódicas de los datos han de ser halladas primero. Tras
esto, la tendencia y las variaciones periódicas se eliminan de los datos. Esto se hace por
ejemplo dividiendo todos los valores individuales por el índice de la variación periódica, y
por la fórmula de la tendencia tal y como se ha hallado por el método de análisis de
regresión.
Tras estas operaciones, los datos sólo incluyen (de forma suplementaria a la variación
aleatoria) la variación de coyuntura. La variación coyuntural se presenta gráficamente
como una curva o numéricamente, como un índice de coyuntura, del mismo modo que el
índice de variación mencionado anteriormente.
La variación aleatoria es habitualmente eliminada mediante la media flexible. Por ejemplo,
en datos que contienen valores mensuales, esto se hace sustituyendo para cada valor
mensual una media que comprende a ese mes y los meses vecinos. La media de cinco o
siete meses puede también usarse, aunque la desventaja de esto es que puede oscurecer
incluso la variación que podría interesar al investigador. La variación aleatoria no es
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 320
necesariamente una perturbación que haya de ser eliminada. Si hay una gran cantidad de
ella, el investigador podría intentar plantearse las razones para esta variación: ¿es
causada por un factor importante o interesante que debiera ser incluido en la hipótesis del
proyecto de investigación?
Todos los análisis de series cronológicas que acaban de mencionarse son hoy realizados
normalmente con un ordenador. Aquí sólo era posible presentar los métodos más
habituales de análisis estadístico. Otras guías sobre metodología son, por ejemplo.:
Friedman, Pisani, Purves, Adhikari: Statistics.
Lugares en el Www sobre métodos de análisis estadístico:
• Electronic Textbook Statsoft
• University of Newcastle: Surfstat
Cuando la información deseada se ha extraído de los datos, la credibilidad de los
resultados debiera ser evaluada, como una fase separada, antes de publicarlos y antes de
aplicarlos en la práctica.
3.18.5. REFERENCIAS o http://usuarios.iponet.es/casinada/arteolog (España)
o http://www.uiah.fi/projects/metodi/ (Finlandia)
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 321
<
4. CAPITULO IV: BASES PARA LA INVESTIGACIÓN CUALITATIVA
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 322
<
4.1. LA NATURALEZA DE LA INVESTIGACIÓN CUALITATIVA
Robert E. Stake,
No existe una única fuente de investigación cualitativa. Su historia es variada, parte de la
evolución de la curiosidad humana a lo largo de los siglos, y etnógrafos, psicólogos
sociales, historiadores y críticos literarios la encauzaron formalmente (Bogdan y Biklin,
1982; Eco, 1994; Hamilton, 1991; Stake, 1978). Hace un siglo, el filósofo Wilhelm Dilthey
sostenía que la ciencias no se movía en un sentido que ayudara a los humanos a
comprenerse a si mismo:
Sólo desde sus acciones, desde sus manifestaciones unmutables, desde el efecto
que produce en otros, puede el hombre aprender sobre si mismo; así que aprende a
conocerse solo por la vía circular de la comprensión. Lo que fuimos, como nos
desarrollamos y nos convertimos en lo que somos, lo aprendemos en la forma en
que actuamos, por los planes que una ves seguimo, por la forma en que nos
sentimos en nuestra voación, por los antiguos y caducos conocimientos, por los
juicios que hace tiempo se nos hicieron...Nos comprendemos, a nosotros mismos y
a los otros, cuando transmitimos nuestras experiencias vividad a todo tipo de
expresión propia y a las vidas d los demás.
(Dilthey, citado en Richman, 1976, pág. 163.)
La ciencia puede ocuparse de estos momentos personales y circunstanciales, pero la
mayoría de los “científicos humanos” prefieren estudiar grupos de población más que la
unicidad de las vidas individuales. Esta distinción entre métodos cuantitastivos y
cualitativos es una cuestión de énfasis – ya que la realidad es la mezcla de unos y otros.
En cualquier estudio estnográfico, naturalista, hermeneutico u holístico (po ej., en
cualquier estudio cualitativo) la enumeración y el reconocimiento de la diferencia
decantidad ocupan un lugar destacado. Y en cualquier estudio estadístico o experimiento
controlado (po ej., en cualquier estudio cuantitativo) son importantes el lenguaje natulra
con que se describen y la interpretación del investigador.
Un experte en métodos de investigación, Philip Runkel (1990), describía la actividad de los
investigadores como la de echar las redes y la de comprobar las muestras. Para averiguar
las realaciones comunes entre los casos, echamos las redes para capturar muchos casos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 323
Para averiguar como funciona un caso concreto, examinamos las muestras particualares.
Runkel llamó a ese echar las redes, es decir, la sumas de mediciones de los diversos
casos, métodos de frecuancias relativas. Los investigadores en estudios de casos, tanto
los de orientación cualitativa como los de orientación cuantitativa, echan las redes cuando
se fijan n las frecuancias del caso, por ejemplo, como cuantos alumnos lucían birretes
blancos en la seremonia de graduación, y cuando hacen análisis transversales de casos.
Runkel llamaba método de muestras cuando el objetivo es aprender sobre la especie
mediante el análisis de una muestra, una gran muestra o una muestra única. Los
investigadores en estudios de casos emplean el método de muestras, como método
promordial, para llegar a conocer un caso en particular de forma extensiva e intensiva. En
el estudio intrinceso de casos, hay poco interéz de generalizar sobre las especies; el
mayor interéz reside en el caso concreto, aunque el investigador estudia también unaprte
del todo, y busca comprender que es la muesta, com fucniona.
Hay que detenerse en tres diferencias importantes entre la orientación cualitativa y
cuantitativa: 1) La distinción entre explicación y comprensión como objeto de investigación;
2) La distinción entre una función personal y una función impersonal de investigador, y 3)
Una distinción entre conocimiento descubierto y uno construido. Por ahora nos
ocuparemos de las otras dos distinciones.
4.1.1. COMPRENSIÓN MEDIANTE LA EXPERIENCIA:
La distinción fundamental entre investigación cuantitativa e investigación cualitativa estriba
en el tipo de conocimiento que se pretende. Aunque parezca extraño, la distinción no está
relacionada diirectamente con la diferencia entre datos cuantitativos y datos cualitativos,
sinó con una dirferencia entre búsqueda de acontecientos. Los investigadores
cuantitativos destacan destacan la explicación y eeel control; los investigadores
cualitativos destacan la comprensión de las complejas realciones entre todo lo que existe.
La distinción entre investigar para ofrecer explicciones e investigar par impulsar la
comprensión ha sido desarrollada muy bien por el filósofo finlandés Georg Henrick Von
Wright en su libro Explanatión and Understanding.
Se puede decir que practicamente cualquier explicación, sea causal teleológica o de
algún otro tipo, incrementa nuestra comprensión de las cosas. Pero la
“comprensión” tiene tambien un aspecto psicológico, quizá quien lo hizo con el
mayor énfasis fue Simmel, que pensaba que la comprensión como método
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 324
característico de las humanidades es una forma d4e empatía o de recreación en la
mente del pensador del clima mental, los pensaimentos, los sentimientos y las
motivaciones de los objetos de estudio...La omprensión está unida también a la
intencionalidad, de una forma que no lo está la explicación. Se comprenden los
objetivos y los propósitos de un agente, el significado de signo o de un símbolo, y la
relevancia de una institución social o de un rito religioso. Esta...dimensión de
intencionalidad ha llegado a desempeñar una fucnión primordial en los estudios
más recientes sobre metodología. (Pag. 6).
Von Wright aseguraba que se requieren las explicaciones para incrementar que se
requieren la comprensión, y que a veces la ocmprensión se expresa en términos de
explicación-pero los dos objetivos son epistemológicamente bastante distintos. Insistía en
una diferencia importante para nosotros, la diferencia entre estudios de casos que tratan
de identificar las realaciones de causa y efecto, y los que tratan de comprender la
experiencia humana.
En el capítulo anterior señalábamos estos dos ejemplos de preguntas temáticas:
• ¿El hecho de que las horas lectivas hayan pasado de antender a cuatro grupos a
tender a cinco grupos afecta a la calidad de enseñanza?.
• ¿Participan menos en el trabajo los profesores que residen fuera de la comunidad?.
La primera constituye un ejemplo de búsqueda de una causa de la calidad de enseñanza
(por ej., busca una explicación), y es el tipo de pregunta más habitual en el estudio
cuantitativo de casos. La segunda es un ejemplo de búsqueda de la comprensión, una
descripción de las cosa que ocurren mas o menos en el mismo momento, sin esperar una
explicación causal. Estas descripciones contigentes no causales, como son el objetivo
habitual de las preguntas temáticas del estudio cualitativo de casos. La descripción de
Harper School del Capítulo X apenas explica poe que las cosas eran como eran; mas bien
describe en profundidad cómo eran las cosas en un determinado lugar y en un
determinado momento. Von Wright tembien hablaba de mpatía, el conocimiento de la
situación de otro mediante la experiencia propia de la misma. La investigación cualitativa
itenta establecer cuna comprensión empática para el lector, mediante la descripción, a
veces la descipción densa, transmientiendo al lector aquello que la experiencia misma
transmite.
Siguiendo las oreintaciones de Dilthey, el investigador en estudios cualitativos de casos
intenta facilitar la comprensión al lector, ayudar a comprender que las acciones humanas
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 325
importantes pocas veces tienen una cuasa simple, y que normalmente no se producen por
motivos que se pueden averiguar. Basta con reconocer algunos de los acontecimientos
simultáneos (por ej., la polémica que se suscitan en las reuniones, el cambio del
tiempo,los mensajes dejados en el correo, una expresión de confianza inesperada-algunos
delos cuales pueden incidir en las desiciones de esa tarde). Estos sucesos complejos se
producen contínuamente, sin que haya oportunida, ni siquiera posibilidad, de sonsacar las
causas. Es posible que el deterioro del sistema escolar o el éxito del cambio n la
enseñanza n un aula no tengan ni causas ni manifestaciones simples. Para el pensador
cualitativo, la ocmprensión de la experiencia es una cuestión de cronología, más que de
causas y efectos.
Los métodos de la investigación cuantitativa han surgido de la búsqueda científica de la
causa y el efecto, expresada en una última instancia por una teoría fundamentada en
hechos (grand theory). Para esteblecer las generalizaciones que sean aplicables a
diversas situaciones, la mayoría de los investigadores de orientación semejante a la de las
ciencias sociales realizan observaciones en situaciones diversas. Intentan eliminar aquello
que sea meramente situacional, y ahcer que los efectos contextuales “se compensen
mútuamente”. Tratan de anular el cotnexto con el fin de averiguar las realciones
explicativas más generales y constantes. Las generalizaciones es un ojetivo importante, y
relevante para otros posibles casos. Para los investigadores cualitativos la unicidad de los
casos y delos contextos individuales es importante para la comprensión. La
partucularización es un bojeto importante, llegar a atender la particualridad del caso.
Permitanme el lector que recurra a mi propia experiencia para señalar que la mayor parte
de l trabajo en evaluación de programas ha estado doinada por la búsqueda de
explicaciones fundamentadas en hechos (grand explanations). El empleó de mediciones
formales y de análisis estadísticos. Porej. De la cuantificación, se debe el deseo de hacer
un estudio simultáneo de un gran número de casos diferentes, para situar el investigador
en posisión de realizar generalizaciones formales sobre el programa. Michael Scriven
(1978) e Lee Cronbach y colaboradores(1980) han señalado lo inadecuado de esta visión
estadística y de ciencia básica para la evaluación de programas, aduciendo la
particularidad del programa, su situacionalidad y su contexto político. Mabos han insistido
en la responsabilidad del avaluador como el autor de descripciones e interpretaciones
específicas del programa.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 326
Estas preocupaciones epistemológicas no devueven a los significados habituales del
estudio cualitativo y cuantitativo. Para perfeccionar la búsqueda de explicación, los
investigadores cuantitativos perciben lo que ocurre en términos de variables decriptivas,
representan los acontecimientos con escalas y mediciones (po ej., números). Para
perfeccionar la búsqueda de comprensión, los investigadores cualitativos perciben lo que
ocurrer en calve de episodios o testimonios, representan los acontecimientos con su
ppropia interpretación directa y con sus historias, por ej., relatos. El investigador cualitativo
emplea los relatos para ofrecer al lector la mejor oportunidad de alcanzar una comprensión
de causa que se base en la experiencia.
4.1.2. LA INTERPRETACIÓN COMO MÉTODO.
Los defensores de los cualitativo, Egon Cuba e Yvonna Lincoln (1982) y Elliot Eisner y
Alam Peshkin (1990) otrgan mayor prioridad a la interpretación directa de los
acontecimientos, y menor a la interpretación de los datos de las mediciones. “En gerra y
Paz” Tolstoy (1869/1978) decía:
Mediante la razón el hombre se observa a si mismo, pero se conoce a si mismo
mediante la conciencia. (Pag. 1427).
Toda la investigación depende de la interpretación, pero en los modelos cuantitativos
habituales se produce un esfuerzo por limitar la función de la interpretación personal del
periodo que media entre el momento en que diseña la investigación y el momento en que
se recogen los datos y se anlizan estadísticamente-un periodo que a veces se considera
“libre de valore”. Los modelos cualitativos habituales requieren que las personas más
responsables de las interpretacines estén en trabajo de campo, haciendo observaciones,
emitiendo juncios subjetivos, analizando y resumiendo a la vez que se dan cuenta de su
propia conciencia.
A diferencias entre lo cualitativo y cuantitativo guarda relación con dos clases de
preguntas de la investigación. En los estudios cuantitativos, esas preguntas buscan una
realción entre un pequeño número de variables. Por ej., “¿Existe una correlación contínua
entre los logros del alumno y la formación del profesor, en una variedad de situaciones
que se producen en el aula y la comunidad?”. Los esfuerzos van dirigidos a acotar la
investigación para que sea operativa, a definir las variables, y a reducir al mínimo la
importancia de la interpretación hasta que los datos etén analizados. En los primeros
momentos, es importante que el investigador cuantitativo interprete de que forma las
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 327
relaciones entre las variables van ha reducir la inconsistencia de la explicación y, al final,
debe incrementar la importancia que otrogue a us generalizaaciones sobre las variables.
Entre ambos momentos, es importante no permitir que las interpretación cambie el curso
del estudio.
Lo característico de los estudios cualitativos es que se dirigen las preguntas de la
investigación a casos o fenómenos, y buscan modelos de relaciones inesperadas o
previstas. Por ej.: “¿qué ocurre con las relaciones personales entre los profesores que
participan en un proyecto de recuperación en lectura, si se les obliga a emplear una
metodología de resolución de problemas?” O si el proyecto hubiera sido puesto en práctica
con antelación, ¿Qué ocurrio con tales realciones personales?. Las variables
dependientes se definen por criterios de experiencia más que por criterios de operatividad.
Las condiciones situacionales no se conocen ni se controlan de antemano. Se prevé que
incluso las variables independientes se desarrollen de forma inesperada. Es esencial que
la capacidad interpretativa del equipo de investigadores no pierda contacto nunca con el
desarrollo de los acontecimientos y con lo que se va revelando, en parte para reoientar las
obaservaciones y proseguir con los temas que afloren. Por eso, la distribución de recursos
es diferente. La dependencia de instrumentos cuidadosamente desarrollados y de
observaciones redundantes controladas, característica de un estudio cuantitativo, se
sustituye por la colocación de los investigadores más capacitados en contacto directo con
los fenómenos, y con juicios muchos mas subjetivos sobre el significado de los datos. Uno
de los grupos requerira la mayor experiencia para el desarrrollo de instrumentos, antes de
la recogida de datos, y el otro grupo la requerira en el lugar de trabajo para realizar
observaciones interpretativa.
En su exelente resumen sobre la naturaleza del estudio cualitativo en el libro de Wittrock,
Handbook of Research on Teaching, Frederick Erickson (1986) sostenía que la piencipal
caracterísica de la investigación cualitativa es el lugar central que ocupa la interpretación.
Decía que los resultados de la investigación no son tanto “decubrimientos” como “acertos”.
Despues de intensa interacción del investigador con las personas, objeto del estudio o no,
despues de una aproximación constructivista en la búsqueda del conocimiento, despues
de considerar la intencionalidad de los participantes y su subejtividad, por lo descriptivo
que sea el informe, en última instancia el investigador termina por dar una visión personal.
Erickson se fijaba en l tradicinal énfasis de los etnógrafos en los temas émico, aquellos
vaores y preocupaciones que se manifiestan en la conducta y en el lenguaje de las
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 328
personas estudiadas. Clifford Geertz (1973) lo llmaba “descripción abierta”. No se refería
con este término a las oncplejidades descritasde forma objetiva; es una descripción que
recoge las percepciones particulares de los actores. ¿Pueden aceptar los lectores una
descripción subjetiva?. A menudo, el objetivo del investigador no es tanto una
representación verídica de la mayores oportunidades de aprendizaje. Deborah Trumbull y
yo (Stake y Tumbulll, 1982) llmábamos “generalización naturalista” al aprendizaje que se
realiza mediante la experiencia y proponían que el investigador cualitativo fuera capaz
deorganizar el estudio de forma que ofreciera las máximas opotunidadees a la
generalización naturalista. De esta forma, es estudio se basaría en el actor y en la
experiencia del lector, un hecho ya común en muchas disciplinas, tales como la
historiografía, la filosofía, la literatura y la música. Claude Debussy, cuando componía La
Mer en su estudio de París y no al mar, decía:
Dispongo de mis recuerdos, que son mejores que los mismos paisajes marinos,
cuya belleza a menudo enturbia el pensamiento. Quienes me escuchan tienen su
proio caudal de recuerdos para que yo los desentierre. (Cox, pág. 26.).
La función de la investigación no es necesariamente la de trazar el mapa y conquistar el
mundo, sinó la de ilustrar su contemplación. De los estudios cualitativos de casos se
esperan “descripciones abiertas”, “comprensión mediante la experiencia” y “realidades
múltiples” (las personas perciben las cosas de forma diferente, debido no solo a las
secillez de sus abservaciones, sinó a que la experiencia determina en parte los
significados). No se puede sencillamente diseñar la búsqueda de significados complejos,
ni alcanzarlos de forma retrospectiva (Denzin y Lincoln, 1994). Parece que se requiere una
atención contínu, una atención que raras veces se puede mantener cuando los
instrumentos principales para la recogida de datos son listas de control o puntos de
encuestas interporetables. En el estudio caulitativo de casos es de gran importancia la
función interpretativa constante del investigador.
4.1.3. OTRAS CARACTERÍSTICAS DE LA INESTIGACIÓN CUALITATIVA.
Además de su orientación alejada de la explicación de causa y efecto, y su propensión a la
interpretación personal, la indagación cualitativa se distingue por su acento n el trato
holístico de los fenómenos (Schwandt, 1994). Ya he señalado que la epistemología del
investigador cualitativo es existencial (no determinista) y constructivista. Estasdosvisiones
van unidas habitualmente a la idea de que los fenómenos gurdan una estrecha realción
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 329
entre si debida a accines fortuitas, y que la comprensión de los mismos requiere la
ocnsideración de una amplia variedad de contextos: temporales y espaciales, históricos,
políticos, económicos, culturales, sociales y personales.
Así pues, se consideran que el caso, la actividad y el suceso son únicos, a la ves que
comunes. La oomprensión de cada uno de ellos exige comprender otros casos, otras
actividades y otrsos sucesos, pero también comprender la unicidad de cada uno. La
unicidad no se establece particularmente comparándola en un número de variables -
podrían existir pocas posibilidades de que se aljara de la norma – sinó que las personas
próximas al caso lo entienden, n muchos sentidos, como algo sin precedentes e
importante en otras palabras, como una unicidad decisiva. Los lectores son dirigidos hacia
este sentido de la unicidad a medida que leen los relatos, los esbozos y las explicaciones
de experiencias (Van Manen, 1988). Se intuye que el conjunto de características, la
secuencias de los acontecimientos, son diferente. Se considera que la unicidad es de
importancia fundamental para la comprensión del caso particular.
En sus intrusiones en los habitats y los auntos personales, los investigadores cualitativos
no son intervensionistas. Intentan ver lo que hubiera ocurrido si ellos no hubieran estado
presentes. Durante el trabajo de campo, tratan de no llamar la atención, ni hacia si mismos
ni hacia su trabajo. Una vez en sus sitios, se esfuerzan por evitar crear situaciones para
comprobar su hipótesis. Intentan observar la corriente, y observarlo lo suficiente que
significa corriente n este caso. Pa ellos, la observación naturalista ha sido el medio
primordial del conocimiento. Cuando no saben ver por si mismos, preguntan a otros que
sepan. Pero la mayoría de ellos favorecen una visión personal de la experiencia con el fin
de que, desde su propia participación (la observación participativa es una técnica
desarrollada por los etnógrafos, para observar a la vez que se desempeña una función
activa en el grupo que se está estudiando), la puden interpretar , reconocer sus contextos,
indagar n los diferentes significados mientras estén presentes, y transmitir un realto
naturalista, basado en la experiencia, para que sus lectores participen en una reflexión
similar.
4.1.4. RECONOCIMIENTO DE CULPAS.
Los detractores del estudio cualitativo le atribuyen un gran número de defectos. La
investigacón cualitativa es subjetiva. Es más frecuente que origine nuevos enigmas que
soluciones para antiguos. Su contrubución a la ciencia disciplinada es lenta y tendenciosa.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 330
Los resultados contribuyen poco al avance de la práctica social. Los riesgos éticos son
sutanciales. Y el coste de timpo es elevado, muy elevado.
Se sabe qe la pretensión de los investigadores cualitativos es realizar una investigación
subjetiva. No se recomienda que la subjetividad sea un fallo que hay que eliminar, sino un
elemento esencial para la comprensión. Y aun más, la comprensión personal a menudo es
una falsa comprensión pora parte de los investigadores y de sus lectores (Philllips, 1990).
La falsa comprensión se produce por que el investigador – intérprete no es consciente de
sus propias limitaciones intelectuales, y como consecuencia de los métodos defectuosos
que no consiguen evitar las falsas interpretaciones. Los investigadores cualitativos tienen
una respetable preocupación por la validación de sus obsevaciones, y procedimientos
habituales de “triangulación” cuyos propósitos se aproximan a los de investigadores
cuantitativos, pero carecen de estrategias ampliamente consensuadas que somentan las
falsas comprensiones subjetivas a una comprensión exhaustiva.
Los fenómenos que investiga el investigador cualitativo suelen ocurrir con lentitud, y
evolucionan en su acontecer. Se suele requerir mucho tiempo para entender lo que ocurre.
Es un trabajo de mucha mano de oabra, y es difícil de recortar sus costes. Muchos
estudios continuan por que son fruto del entusiasmo. Mchos de sus descubrimientos son
esotéricos. El mundo del comercio y de los servicios sociales se benefician muy poco de lo
que se invierten en estudios cualitativos formales. Las recompensas pueden ser mayores
para quienes estudian sus propias cosas, sus negocios y sistemas con estos métodos,
pero el autoestudio muy pocas veces aporta la visión disciplinada del especialista.
Muchos estudios cualitativos son estudios personalistas. Los temas impersonales que se
aplican a seres humanos observados con detenimiento se convierten en temas
personales. La intimidad siempre se encuentra en peligro. La incitación al delito está
siempre presente cuando el investigador, a pesar de ser un convencido no
intervensionista, plantea cuestiones y opciones que quien las debe repsonder no había
considerado previamente. Una cierta fragilidad de conducta que de cerca parece tolerable,
adquiere una categoría ética dudosa cuando aparece en un relato lejano. Algunos “nos
hacemos nativos”, adoptamos las costumbres de estos, y nos acomodamos a los puntos
de vista y al sistema de vaores de las personas del lugar – para después retroceder, con
reacciones menos a su favor, cuando nos encontramos otra ves con nuestros colegas
universitarios. (Stake, 1986).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 331
Optar por lo cualitativo no es una simple cuestión de si lo beneficios previstos justifican los
costes. Los estudios intensivos e interpretativos siempre tienen un atractivo aparente,
como lo tenían incluso cuando muchos centros y facultades de investigación no
consideraban digno de respeto el estudio cualitativo. El ser humano suele ser curioso, y
los investigadores tienen un a obsesión especial por la investigación. En cierta medidad,
están controlados por las reglas de la financiación y us disciplinas, pero unas y otras solo
sólo controlan si se informa o no del uso de los métodos cualitativos – porque todos los
investigadores lo usan. Hay veces en que los investigadores son interpretativos, holísticos,
naturalistas y partes en la causa y, en estos casos, por definción, con indagadores
cualitativos.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 332
4.2. UN INVESTIGADOR PRINCIPIANTE
En este documento se responde con fines didácticos siete preguntas que pudiera
plantearse un investigador principiante durante el planteamiento y desarrollo de su trabajo.
Estas preguntas son: ¿Qué tiene que ver el "paradigma" con la "investigación?". ¿Por qué
se dice que hay "cambio de paradigmas?". ¿Qué es lo que hace que un investigador tenga
un funcionamiento intelectual cualitativo?. ¿Qué aspectos debe cultivar para ser un buen
investigador?. ¿Qué no debe hacer como investigador?. Cómo la investigación puede
aportar a la educación?. ¿Qué tan significativa puede resultar una investigación? ¿Qué
tiene que ver el paradigma con la investigación? Paradigma es el acuerdo o consenso de
una comunidad. Este acuerdo incluye supuestos filosóficos, epistemológicos y
metodológicos que permanecen generalmente de manera oculta (implícitos) en el
quehacer investigativo.
Así como el producto intelectual lleva el sello personal del autor, la investigación tiene
también el sello del investigador. En este sello, el investigador refleja su pensamiento, su
manera de concebir al mundo, su forma de abordar situaciones de la vida. Los paradigmas
de investigación socioeducativa tienen su origen (su raíz) en la manera de concebir la
ciencia y los fenómenos. La forma de indagar en las ciencias naturales se proyecta en el
paradigma de investigación cuantitativo. En este paradigma, el investigador de manera
usual se interesa por las causas del problema independientemente de los estados
subjetivos de los sujetos.
La búsqueda de respuestas para los fenómenos de las ciencias sociales se realiza desde
la perspectiva del protagonista, lo cual se corresponde con el paradigma de investigación
cualitativo. Un tercer paradigma de investigación socioeducativa identificado como
paradigma crítico se corresponde con la perspectiva de investigar la realidad para
transformarla, para emanciparla ¿Por qué se dice que hay cambio de paradigmas? En la
historia de la investigación se vislumbran cambios en el pensamiento o en la visión para
analizar la realidad. La investigación como quehacer científico que da respuestas a los
acontecimientos ha sido abordado desde diferentes perspectivas. Algunos investigadores
que abordan el estado del arte de los temas que constituyen el objeto de investigación
señalan yuxtaposición de paradigmas en el quehacer investigativo. Otros autores se
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 333
pronuncian más bien por interpretar que se ha logrado la sustitución de un paradigma por
otro.
Partiendo de una interpretación personal de la situación y con el convencimiento de la
incompatibilidad de supuestos en el orden filosófico, epistemológico y metodológico entre
los paradigmas de investigación socioeducativa, se sostiene que está planteada
actualmente la sustitución del paradigma cuantitativo por el paradigma cualitativo. En el
marco mundial, se ha manifestado el predominio del paradigma cualitativo desde las
décadas de los setenta y ochenta. Un buen rastreo que se pudiera hacer a través de la
Red Mundial (Internet) demostrará la proliferación de investigaciones desarrolladas en el
contexto del paradigma cualitativo.
Hay una nueva conciencia no-casual sobre la investigación educativa que se está
desarrollando en el mundo que tiene que ver con el grado de madurez investigativo y la
necesidad de dar respuestas a través de los procesos científicos. Cada vez con mayor
fuerza, la circunstancia actual propicia la búsqueda de legitimar el proceso investigativo
cualitativo y en consecuencia de valorarlo. Como la idea de paradigma no implica
compromiso explícito sino implícito, ésta se refleja desde la selección misma del problema
o situación a abordar. De manera usual, el investigador no declara el compromiso. En
investigaciones mexicanas, por ejemplo, no se expresa en el discurso del trabajo el
compromiso cualitativo del investigador sino que el lector lo intuye. De tal manera que el
quehacer investigativo no consiste en clasificarlo y exponer las razones, sino en concebirlo
dentro de una trama de significados cualitativos.
También es cierto que como el paradigma es un acuerdo oculto de hacer investigación, es
difícil en ocasiones precisar en un determinado estudio a cuál de las categorías
(cuantitativa, cualitativa o crítica) corresponde. El problema se hace mayor cuando en el
ejercicio de la investigación se pretende incluir manifestaciones combinadas de supuestos
provenientes de los paradigmas ¿Qué es lo que hace que un investigador tenga un
funcionamiento intelectual cualitativo? En primer lugar, el investigador se muestra
consustancial con los supuestos filosóficos, epistemológicos y metodológicos del
paradigma cualitativo de investigación. Esto quiere decir, un pensamiento que se alimenta
de principios fenomenológicos para concebir al hombre y su mundo, al hombre y su
historia, al hombre y su contexto. Además, una manera de relacionarse con el objeto de
estudio (lo que se investiga) que manifiesta comprenderlo desde adentro (sobre la base de
lo que piensan, sienten y hacen sus protagonistas), una actitud de sujeto de la
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 334
investigación (como investigador) sensible a los elementos contextuales del objeto de
estudio.
Y, por último, un investigador que participa de las técnicas conjuntamente con los otros
protagonistas de la escena y que las utiliza como medio para aproximarse a lo que
investiga. En segundo lugar, la investigación que se desarrolla con el pensamiento
cualitativo muestra la cohesión de supuestos y se manifiesta explícita e implícitamente en
el trabajo de una manera compatible entre lo que se quiere abordar (el problema), lo que
se quiere lograr (los objetivos), cómo se desea abordar (procedimientos) y los resultados
obtenidos (hallazgos) ¿Qué aspectos debe cultivar para ser un buen investigador? Como
primer aspecto, la organización es una de las cualidades que debe reafirmar el
investigador principiante.
La organización le va a permitir hacer más llevadero un trabajo que requiere del
tratamiento de lotes de información. Para ser organizado se requiere de estrategia, cómo
se abordarán las escenas, qué registros se coleccionarán y cómo se recolectarán, de qué
manera se analizarán. Un segundo aspecto tiene que ver con desarrollar una eficiente
expresión escrita.
El éxito de los hallazgos estará en función de las habilidades del investigador para
registrarlos y para divulgarlos mayormente a través de un medio textual. El alcance de dar
a conocer el trabajo del investigador por la vía escrita es impredecible. El tercero de los
aspectos es asumir el rol de detective, de indagar más allá de las acciones de los
protagonistas ¿Por qué actuó de esa manera? ¿Por qué se expresó así?, ¿Qué significa lo
que dijo? La búsqueda de estas respuestas permitirán al investigador comprender la
escena y obtener credibilidad en sus conclusiones al confrontarlas entre las diversas
instancias de análisis de consenso en el estudio. El cuarto aspecto que debe cultivar un
buen investigador es aprender a vivir en la incertidumbre. Constituye un buen aliado
dejarse llevar por la intuición. Hemos nacido y crecido en un sistema en el cual nuestras
acciones están ordenadas en unos pasos racionalizados.
Desprenderse de esquemas tradicionales de investigación constituye un desafío para el
investigador actual. Este desafío también se presenta en otros campos. Recientemente vi
en la televisión la entrevista a un director de películas que construye el libreto de las
escenas con las reacciones propias de los protagonistas. El director planteaba que esta
estrategia, alejada de poder ser interpretada como improvisación, le confiere mayor
naturalidad a sus actores. El quinto aspecto se refiere a la sensibilidad que debe
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 335
desarrollar el investigador con el entorno que le rodea y sus protagonistas. El investigador
será sensible en la medida que logre comprender el verdadero significado de las acciones,
sentimientos, creencias, expresiones, valores, de los participantes en las escenas que
captura ¿Qué no debe hacer como investigador?
La anécdota que relata Schiel (1991) sobre la inserción del etnógrafo en el escenario
ilustra las reacciones intelectuales propias con las cuales deberá debatirse el investigador
en su trabajo, algo así como los demonios del investigador. Estos tienen que ver con la
participación en la escena y con el objeto de la investigación. Uno de ellos consiste en
acometer la tarea con la investidura de un juez, y en las primeras intromisiones en el
ambiente, el investigador principiante se dedica a enjuiciar a los protagonistas y a las
escenas. El investigador se debate intelectualmente entre lo que es y lo que debe ser, lo
cual resta energía a la realización de un trabajo impecable.
El otro tropiezo intelectual que debe afrontar el investigador se refiere a la concepción de
ser investigador es ser un experto en soluciones. En ocasiones, el investigador aborda
situaciones no para resolverlas sino para aproximarse al objeto de estudio. La investidura
de asesor experto homogeniza el papel del investigador y de la investigación. El tercer
obstáculo está en confundir paradigmas con metodología, técnicas, o con variables de
estudio. Expositores en diferentes eventos han tratado de aclararlo. Recientemente, Ruiz
Bolívar (1998, Mayo) en el Foro Enfoque Cuantitativo y Cualitativo de la Investigación
realizado en Rubio, se pronunció acerca de las implicaciones que pudieran presentar
estos errores.
Personalmente, pienso que no es posible mezclar los paradigmas de investigación, ya que
ello puede afectar seriamente la validez de los resultados . La metodología cualitativa, lo
que denomina y da sentido , significa para Taylor y Bogdan (1986) la manera de abordar la
realidad y se convierte en algo más que en un conjunto de técnicas para recoger y
procesar información
¿Cómo la investigación puede aportar a la educación? Los modelos de las ciencias
sociales desde enfoques sociológicos, antropológicos y pedagógicos han permitido la
conformación del paradigma ecológico de investigación didáctico. En la investigación
didáctica ecológica tiene cabida la metodología cualitativa a través de la etnografía,
etnometodología, estudio de casos. Por ejemplo, el paradigma ecológico de investigación
didáctica ha aportado a través de sus hallazgos en el diseño y desarrollo del curriculum en
países como Inglaterra. Por otra parte, el cambio de paradigma en la enseñanza y en la
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 336
investigación no ha sido casual. La conexión investigación- educación se hace cada vez
más necesaria.
La concepción del acto educativo se ha modificado en la teoría y se está cambiando en la
práctica. Aún cuando se reconozca la desigualdad actual existente entre el desarrollo
social y económico con respecto al educativo, en el nuevo entorno de enseñanza y
aprendizaje se ha iniciado la búsqueda de un nuevo papel para el docente y para el
estudiante así como otras metodologías y epistemologías .
La Reforma Curricular Venezolana, por ejemplo, plantea la necesidad de emprender la
búsqueda de vías alternas de enseñanza para la acción del docente. Esta reforma plantea
explícitamente un cambio de paradigma didáctico que implicará la instrumentación de la
metodología cualitativa en la investigación. El docente podrá utilizarla para apropiarse de
su realidad, comprenderla y reconducirla.
Ya hay experiencias en otros países en este sentido. Se puede citar el Manual para la
Escuela Eficaz (Espínola y otros, Chile, 1994) el cual constituye una propuesta de
estrategias pedagógicas eficaces a partir de los resultados obtenidos mediante una
investigación cualitativa. Otra obra Talleres Pedagógicos. Alternativas en Formación
Docente para el Cambio de la Práctica de Aula (Abarzua Palma y otros, UNESCO, 1996)
se deriva de los hallazgos producidos mediante una investigación- acción. El pensamiento
del investigador progresará en la medida en que vea a la investigación didáctica como un
asunto institucional e ideológico, y conciba a la ciencia como una construcción social, con
intereses explícitos e implícitos y con una acción ideológicamente no-neutral sino
intencional.
En la actualidad, el investigador tiene que afrontar desafíos propios de la imposición de la
sociedad de la información. Las nuevas tecnologías de la comunicación y de la
información están modificando silenciosamente hasta nuestra manera de pensar. La
evolución de las tecnologías de la información conformará parte de la cultura de nuestra
sociedad informatizada. Cambiamos nuestra manera de presentar y acceder al
conocimiento, y por lo tanto se modificará nuestro quehacer investigativo (Lyotard, 1987).
Se dice que el conocimiento-saber cambió de status en las sociedades informatizadas, y
por tanto es de esperarse que la investigación también lo haga. Ahora, el investigador
accede fácilmente a lotes de información. El desafío es cómo procesar y darle tratamiento
a esta abundante colección de datos que cambia su estado histórico aceleradamente
¿Qué tan significativa puede resultar una investigación?
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 337
Una investigación será significativa en la medida en que se develan escenas de la
realidad, lo que permanecía oculto, lo hace visible, evidente, comprensible. La
investigación adquiere significado en su objeto de estudio y en cómo se abordó, cuando
los actores se ven reflejados en las escenas tal cual ocurren y exclaman ¡eso lo he vivido
yo! Pero la investigación no debería agotarse en reflejar acertadamente lo que ocurre y en
su interpretación. También el investigador aportará elementos para vislumbrar el alcance
de los hallazgos y su futuro, así como su utilidad para el mejoramiento de la educación y
de la sociedad ¿Se agotan en el estudio todos los elementos del fenómeno? Esto podría
dar pistas para futuras investigaciones
¿Cuáles son las fortalezas teóricas, conceptuales, metodológicas de la investigación en
desarrollo? De la respuesta se podría derivar la utilidad como aporte al conocimiento, a la
técnica, a la práctica, a la experiencia.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 338
4.3. LA OBSERVACIÓN
Se utiliza para recolectar los datos necesarios para un estudio. La observación es un
método clásico de investigación científica; además, es la manera básica por medio de la
cual obtenemos información acerca del mundo que nos rodea.
Principios básicos para realizar una observación:
1. Debe tener un propósito específico.
2. Debe ser planeada cuidadosa y sistemáticamente.
3. Debe llevarse, por escrito, un control cuidadoso de la misma.
4. Debe especificarse su duración y frecuencia.
5. Debe seguir los principios básicos de confiabilidad y validez.
Entre las ventajas de la observación, tenemos que determinada conducta se describe en
el momento exacto en que está ocurriendo. Además, las observaciones se pueden realizar
independientemente de que las personas estén dispuestas a cooperar o no, a diferencia
de otros métodos en los que sí necesitamos de la cooperación de las personas para
obtener la información deseada.
En contraposición, también existen algunas desventajas, tales como la dificultad para
observar un comportamiento específico en el momento de efectuar la observación.
Además, las conductas que se encuentran sujetas a observación, generalmente son
limitadas. es difícil poder observar la interacción familiar, por ejemplo, al acostarse o
levantarse.
La observación, debido a su utilidad, es un método que se puede utilizar, junto con otros,
para recabar información. Por ejemplo, se puede emplear la observación en un estudio
exploratorio, y para el estudio final se pueden usar otros métodos tales como
cuestionarios, entrevistas, etc.
4.3.1. OBSERVACIÓN PARTICIPANTE:
Este tipo de observación está determinado por el hecho de que el observador participa de
manera activa dentro del grupo que se está estudiando; se identifica con él de tal manera
que el grupo lo considera uno más de sus miembros. es decir, el observador tiene una
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 339
participación tanto externa, en cuanto a actividades, como interna, en cuanto a
sentimientos e inquietudes.
Con este tipo de observación, los investigadores pueden influir en la vida del grupo. Un
problema del registro de la observación es que el observador puede perder su objetividad.
Para resolver este problema es conveniente que más de una persona observe el mismo
fenómeno, con el fin de comparar las observaciones realizadas.
4.3.2. OBSERVACIÓN NO PARTICIPANTE:
En este tipo de observación el investigador no participa de manera activa dentro del grupo
que observa. Se limita a mirar y a tomar notas sin relacionarse con los miembros del
grupo.
Dependiendo de los objetivos que persiga la investigación, se empleará uno u otro tipo de
observación. La observación participante nos puede dar una idea más clara acerca de lo
que sucede dentro de un grupo, puesto que si los sujetos ven al observador como un
miembro más del grupo se comportarán normalmente. En cambio, aplicando la
observación no participante, probablemente no se comportarán normalmente. Por otro
lado, es probable que el investigador, al no participar en la vida del grupo observado,
pueda mantener más fácilmente su objetividad.
4.3.3. OBSERVACIÓN LIBRE O NO ESTRUCTURADA:
Generalmente se lleva a cabo en un estudio piloto, cuando no se conoce muy bien la
muestra que se va a estudiar.
Puntos a considerar:
• La población que vamos a estudiar: quiénes son, cómo se relacionan entre sí, edad,
sexo, nivel socioeconómico, etc.
• Las variables que son relevantes para nuestro estudio, así como la frecuencia y
duración de las mismas.
La mejor manera de registrar esta información es haciéndolo en el momento y situación en
que se está manifestando la conducta, puesto que así tendremos menos prejuicios,
seremos menos selectivos y, en general, más objetivos al registrar la información tal y
como se presenta en la realidad. Sin embargo, esto no siempre se puede realizar, puesto
que al estar tomando notas se puede distorsionar la conducta; además, las personas
pueden comportarse de manera poco diferente cuando saben que las están observando, y
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 340
sobre todo si alguien está tomando notas en relación con su comportamiento. Por otro
lado, es difícil tomar notas y observar al mismo tiempo.
Si se trata de guardar todo en la memoria, probablemente la observación no pueda ser
muy exacta. Lo que se puede hacer es escribir solamente palabras claves mientras se
realiza la observación. Cuando se redacten los resultados finales, se debe utilizar una
forma organizada y sistemática, como, por ejemplo, una tabla de frecuencias.
4.3.4. OBSERVACIÓN ESTRUCTURADA:
Es aquella que se lleva a cabo cuando se pretende probar una hipótesis, o cuando se
quiere hacer una descripción sistemática de algún fenómeno. es decir, cuando estamos
realizando un estudio o investigación en el que sabemos exactamente lo que vamos a
investigar y tenemos un diseño de investigación.
Se diferencia de la observación no estructurada en el sentido de que en esta última sólo
poseemos una idea vaga acerca de lo que vamos a observar, mientras que en la
estructurada ya tenemos más claramente definidos los objetivos que nos ayudarán a
clasificar y concretar el fenómeno en cuestión. En este tipo de observación nos basamos
en tablas de frecuencias.
La observación estructurada presenta menos problemas prácticos en cuanto a la forma de
registro y utilizamos formas estandarizadas. Existen menos probabilidades de que los
observadores sean subjetivos.
4.3.5. REFERENCIAS
o TENORIO BAHENA, JORGE - TÉCNICAS DE INVESTIGACIÓN DOCUMENTAL -
3ª edición - ED.MC GRAW HILL - México - 1988
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 341
4.4. LA INVESTIGACIÓN ETNOGRÁFICA:
Lourdes Denis Santana y Lidia Gutiérrez Borobia
4.4.1. ¿QUÉ ES LA ETNOGRAFÍA?
Desde un punto de vista general y conscientes de su relevante aplicación en los campos
antropológico y so-cial, la Etnografía ha sido concebida como la ciencia que estudia,
describe y clasifica las culturas o pueblos. El término Etnografía proviene de la
Antropología en cuyo contexto ha sido definido como la rama de la Antropología que trata
de la descripción científica de culturas indi-viduales. Desde esta perspectiva se distingue a
la etno-grafía como "una teoría de la descripción", concepción ésta que ha conducido a
formar la idea de que la etnogra-fía es sólo un reflejo de la realidad concreta, un dato
empírico, absoluto y relativo de acuerdo a categorías arbitrarias.
En el campo de la investigación socio-educativa la Etnografía constituye una alternativa
metodológica que se diferencia de los métodos tradicionalmente empleados en este
campo y de los métodos convencionales que por mucho tiempo fueron exclusivamente
aceptados y recomendados para la investigación educativa. Por constituir una estrategia
no convencional cuyo proceso metodológico se centra más en "lo cualitativo" que en "lo
cuantitativo", pareciera que la Etnografía no es aún totalmente recono-cida como válida
por algunos investigadores. Con miras a precisar el concepto sobre Etnografía en el
contexto de la investigación socio-educativa podemos decir que el término Etnografía se
ha utilizado para agrupar y etiquetar todos aquellos estudios descriptivos que, dentro de la
metodología cualitativa, proporcionan una imagen de la vida, del quehacer, de las
acciones, de la cultura,... de grupos en escenarios específicos y contextualizados.
Es necesario detenerse aquí para precisar lo que entendemos por escenario y por
contextualizar en el marco de la investigación cualitativa del fenómeno educativo. En el
trabajo de Castillo Lupemar (1984) sobre "Situaciones Sociales y Observación
Participante" se puntualiza acertadamente, a nuestro parecer, lo que es el escenario de
una situación socio-educativa. Escenario representa lo que es el espacio físico, en donde
actores o participantes comparten una actividad, un quehacer, al realizar ciertas acciones.
Estos tres elementos escena-rio, participantes y actividades interrelacionados se ubican
en un determinado contexto. Contextualizar en la investigación etnográfica va mucho más
allá del escena-rio, del ambiente, incluye historia, costumbres, lengua-je, en un ambiente
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 342
de interacción social natural (no- artificial). Podríamos sintetizar lo que es la Etnografía en
térmi-nos de descubrir y describir las acciones de los partici-pantes dentro de su
interacción social contextualizada, en el sentido y significado que dan los mismos
participantes a sus acciones.
El hecho de ser aceptada dentro de una metodología no clásica, naturalista, básicamente
descriptiva, ha contribuido a que exista la tendencia a considerar la Etnogra-fía como
sinónimo de trabajo informal, libre de fundamen-tos y de enlaces teóricos, carente de
experimentación y de cuantificación e incluso generadora de informes "novelescos" y
"anecdóticos". A nuestro juicio, tal percepción sólo refleja un profundo desconocimiento del
verdadero alcance de la Etnografía y de las elaboraciones teóricas que de la misma
pueden derivarse.
4.4.2. ¿CUÁL ES EL ALCANCE DE LA ETNOGRAFÍA?
En relación con el alcance de la investigación etnográfica algunos autores lo limitan
básicamente a la labor des-criptiva (Wiersma, 1986: 238). Desde este punto de vista, el
propósito fundamental del estudio etnográfico puede ser sólo describir una cultura o algún
aspecto de una o más culturas en una organización. No obstante, existe una visión más
amplia, compleja y relevante en cuanto al alcance de la metodología etnográfica. Según
ésta, la Etnografía contempla mucho más que la descripción, inclu-ye también la
comprensión e interpretación de fenómenos hasta llegar a teorizaciones sobre los mismos.
Acerca de su alcance hay que enfatizar entonces que, mucho más que describir, la
Etnografía permite reflexionar constante y profundamente sobre la realidad, asignando
significaciones a lo que se ve, se oye y se hace, desarrollando aproximaciones hipotéticas,
redefiniendo continuamente, hasta llegar a construir e interpretar esa realidad sin
anteponer el sistema de valores del investigador, lo cual conduce a la reconstrucción teóri-
ca. Ello nos permite afirmar que los estudios etnográfi-cos no necesariamente son
estudios limitados y que además la Etnografía puede llegar a utilizarse en problemas
teóricos.
En este orden de ideas, ¿la Etnografía nos garantiza una metodología seria, rigurosa y no
superficial? La concepción exacta acerca de la estrategia etnográfica involucra tanto un
determinado tipo de procedimientos en el trabajo de campo como la fidelidad del producto
final en la labor de investigación. Por ello, el etnógrafo tiene el compromiso de alcanzar
una descripción profunda que le permita interpretar no sólo las conductas sino también sus
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 343
significados en un determinado contexto cultural, descubriendo e interpretando lo
relevante, lo que tiene sentido para el actor, a fin de formular conclusiones realmente
significativas de la realidad abordada.
Para garantizar que así sea es preciso tener presente tanto la realidad cultural como las
acciones concretas de los individuos con miras a articular los significados culturales con la
visión del grupo observado y con la perspectiva del etnógrafo. Esto lleva a considerar el
trabajo etnográfico como una forma particular de cons-truir el objeto de la investigación ("lo
que se investi-ga"), a plena conciencia de que en esta forma particular de construir la
realidad subyacen supuestos teóricos relacionados con una concepción general de la
cultura como totalidad.
4.4.3. ¿CUÁLES SON LAS CARACTERÍSTICAS DE LA ETNOGRAFÍA?
Una característica relevante de la Etnografía es que incorpora las experiencias, creencias,
actitudes, pensa-mientos, reflexiones, de los participantes. La Etnogra-fía considera tales
aspectos en los mismos términos y significados que le dan las personas a sus acciones,
ya que Etnografía supone describir e interpretar los fenóme-nos sociales desde la propia
perspectiva del participan-te: "... tal como son expresadas por ellos mismos y no como uno
los describe" (Watson en Montero, 1982:19).
Podría surgir entonces la interrogante ¿Por qué razón la investigación etnográfica
interpreta las acciones sociales desde la perspectiva del propio actor o partici-pante? La
investigación cualitativa, y por ende la investiga-ción etnográfica, se propone descubrir lo
que está detrás de las acciones sociales basándose en la siguiente con-cepción: En
primer lugar, la persona actúa ante las cosas según el significado que represente para
ella. En segundo lugar, el significado en cada persona se deriva o surge de su interacción
social. En tercer lugar, los significa-dos se manejan y modifican según el proceso de
interpre-tación de las personas.
Si la Etnografía asume que las acciones sociales se producen en los participantes según
su forma de percibir, entender, interpretar, juzgar y organizar su mundo, para investigar
sobre las acciones sociales no hay una vía más propicia que la de preguntar directamente
a los partici-pantes por qué actúan de determinada manera. Esto quiere decir que el
etnógrafo escudriña por qué las personas actúan tal como lo hacen y a qué significados
obedecen. En la Etnografía, entonces, se asume la relevancia del papel del actor y se
insiste en comprender las acciones sociales desde la perspectiva del propio actor.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 344
Por todo lo dicho anteriormente, podemos afirmar que hacer etnografía es tener presente
aspectos explícitos e implícitos, manifiestos y ocultos, objetivos y subjeti-vos, lo
cuantitativo y lo cualitativo. Al hablar de los aspectos subjetivos en la Etnografía, ¿podría
pensarse en que "cualquiera podría decir cual-quier cosa como le parezca o perciba"?
Para aproximarnos a la respuesta, tendríamos que revisar la concepción que tiene la
investigación cualita-tiva acerca de lo subjetivo, de cómo lo subjetivo se convierte en el
término "significado" y de cómo se proce-de a investigar con estos aspectos.
Por una parte, lo subjetivo de la investigación etno-gráfica se manifiesta en tres
dimensiones. Una primera dimensión está conformada por los propósitos, motivos,
significados que definen la acción social propia de la persona. Una segunda dimensión la
conforma el promedio o común del grupo de personas. La tercera dimensión es el
significado que construye el investigador. En este con-texto de la subjetividad etnográfica,
algunos autores se expresan refiriéndose más bien a la intersubjetividad de tal forma que
la Etnografía personaliza el trabajo cien-tífico pues quien investiga participa directamente e
interactúa con las personas involucradas en la situación social que se estudia.
Al desarrollar su trabajo, el etnógrafo genera hipóte-sis o interrogantes que conectan los
estados subjetivos de los individuos y la acción social. Estas hipótesis se van precisando,
modificando y/o profundizando a medida que se avanza en el ciclo metodológico
etnográfico. De esta manera en el proceso de la investigación, cuando se asume un
aspecto subjetivo es porque es producto de un consenso metodológico.
Otro aspecto que caracteriza a la Etnografía es el de estudiar la cultura como unidad
particular. El propósito fundamental de un estudio etnográfico es descubrir una cultura o
una parte de ella dentro de una organización, partiendo de la observación de las
conductas que se evidencian en la interacción de las personas y descu-briendo el
significado cultural de tales conductas desde la óptica de los propios participantes y del
investiga-dor.
Además, la Etnografía utiliza un proceso cíclico de investigación. En dicho proceso, las
actividades pueden ser repetidas de acuerdo con la información que van arro-jando las
observaciones. Es posible avanzar al próximo paso sin haber resuelto todo lo que requiere
el anterior, ya que luego tendrá oportunidad de revisar, reajustar, modificar o completar
informaciones si así lo requiere el proceso. Este carácter cíclico hace que la investigación
no sea totalmente estructurada y preconcebida, por lo que podríamos decir que la
planificación de un estudio etno-gráfico es muy general.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 345
Asimismo, cabe resaltar la flexibilidad inherente a un estudio etnográfico. El investigador
puede emplear di-stintas técnicas de recolección de la información; no se requiere la
formulación de hipótesis prediseñadas, ni esquemas teóricos rígidos antes de iniciar el
estudio de campo. La teoría emerge de la propia realidad en forma espontánea. La
flexibilidad también se refleja en la postura del investigador quien trata de ignorar cualquier
idea preconcebida que pueda influenciar la interpretación de lo que observa. Esta
característica de flexibilidad en los estudios etnográficos ¿puede insinuar que vamos a
iniciar nuestro trabajo de campo sin haber logrado lo que entendemos por una
planificación del estudio? o ¿sugiere más bien que nos podemos permitir algunas
improvisaciones en la investigación?
El etnógrafo planifica su investigación en términos generales sobre el objeto de su estudio
(lo que va a investigar) antes de iniciar su trabajo de campo. Se plantea hipótesis o
interrogantes acerca del fenómeno con la certeza de que tendrá sucesivas oportunidades
para precisar, redefinir, reordenar y hasta reorientar su estudio, lo cual como ya hemos
dicho en párrafos anterio-res sintetiza una actitud distinta ante la investigación. Por lo
tanto, la flexibilidad en los estudios etnográfi-cos no debe entenderse como falta de rigor.
El rigor de los estudios etnográficos está dado por las reconstruc-ciones teóricas, por el
auto-reconocimiento del nivel en que se encuentra el trabajo y por la búsqueda de
coheren-cia entre las interpretaciones y la realidad.
4.4.4. ¿QUÉ ES "LO CIENTÍFICO"?
En relación con esta interrogante quizás resulte para algunos injustificada pues al hablar
de "verdad científi-ca" pareciera que todo el mundo está claro en lo que ello significa. Pero
realmente ¿hay consenso en qué es lo científico hoy en día? Tal vez, para muchos lo
científico se refiere aún a una verdad absoluta, indiscutible y generalizable que se
fundamenta en rigurosos tratamientos matemáticos y estadísticos que garantizan una total
objetividad y neutralidad por parte del investigador. Para quienes así creen no hay duda
posible al respecto. Sin embargo, para muchos otros lo científico no tiene necesariamente
que referirse a esa verdad inmutable. Ya numerosos investigadores están de acuerdo en
que lo científico no tiene por qué estar reñido con la subjeti-vidad humana, con sus
sentimientos y con los significados que la misma persona asigna a sus actitudes y
conductas. Con quienes así opinan nos hemos identificado.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 346
La reflexión sobre lo que es científico también po-dríamos orientarla sobre cómo se ha
venido hablando durante bastante tiempo acerca de "lo que debemos enten-der por
Ciencia", referida en casi todos los textos como la forma particular de descubrir y verificar
fenómenos al estilo de la ciencia positivista. También se nos ha enseñado que el
conocimiento científico es aquél obtenido únicamente por el "Método Científico" y cuando
se habla de este método se está refiriendo al método de la ciencia positivista.
A nivel de la práctica personal en la investigación, este saber adquirido es sometido a
confrontación al descubrir que hay otra manera de concebir la investiga-ción, la ciencia y
el método científico. Esto nos lleva a pensar sobre la legitimidad del conocimiento y de la
información recabada. ¿Es legítimo únicamente el conoci-miento obtenido mediante el
"método científico" antes referido? ¿Hacemos ciencia sólo cuando realizamos inves-
tigaciones bajo la óptica cuantitativa- positivista? Estas son algunas interrogantes que
surgen en este tema. Se trata entonces de reconceptualizar los términos Cien-cia, Método
y Conocimiento Científico tal como han sido definidos convencionalmente.
La experiencia que hemos comenzado a acumular en el ámbito de la estrategia
etnográfica nos ha permitido, por una parte, comparar el proceso emocional vivido en un
patrón de investigación básicamente racionalista que tiene por substrato el paradigma
cuantitativo de investi-gación socio- educativa y el que se vive al abordar el fenómeno
desde una perspectiva fundamentalmente cualita-tiva. Aunque cada caso es de vivencia
particular y muy propia, y por supuesto sin ánimos de pretender hacerla generalizable, en
el primer caso enfrentamos un proceso bajo tensión. Recibimos una serie de
observaciones antes de interactuar con la realidad a estudiar. Observaciones que, nos
atrevemos a asegurar, ha enfrentado cualquier principiante al abordar una investigación.
Esta vivencia podemos ahora compararla con un proceso emocional de menor tensión,
menos agresivo, más fluido, en el cual la identificación con el problema, con la literatura y
con la realidad natural a ser estudiada nos permite vivir una sensación menos conflictiva.
4.4.5. ¿QUÉ ES "LO OCULTO" EN UNA INVESTIGACIÓN?
Un primer aspecto importante a abordar cuando refle-xionamos sobre lo oculto en el
campo de la investigación es el referente a la concepción sobre "metodología".
Metodología designa el modo en que enfocamos los proble-mas y buscamos las
respuestas (Taylor y Bogdan, 1986: 15). (El subrayado es nuestro) En esta manera de
enfrentar los problemas están "ocultos" los elementos personales subyacentes que defi-
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 347
nitivamente afectan la tarea de investigar. Por la plataforma filosófica donde se ubica la
Etno-grafía, que es el caso que nos interesa destacar, podemos decir que desarrollar una
investigación etnográfica involucra algo más que utilizarla como herramienta para describir
íntimamente las acciones sociales.
Una investi-gación de este tipo exige un compromiso con una manera de concebir al
mundo, a los problemas, a los fenómenos sociales, al sujeto (quien investiga) y al objeto
(lo investigado) susceptible de investigación. Este compromi-so que adquiere el
investigador etnográfico lo sumerge en un mundo pleno de interacciones y sentimientos en
el cual interviene con una doble responsabilidad: por un lado participar espontáneamente
sin distorsionar la manera natural de deselvolverse el grupo, y por otra descubrir e
interpretar lo más fielmente posible la dinámica que define significativamente el contexto
de ese grupo en particu-lar. Todo este panorama de interacciones está necesaria-mente
afectado por elementos implícitos, ocultos, no manifiestos.
Subyacente a esta manera comprometida de abordar los problemas está el esfuerzo que
supone asumir y apropiar-nos de una metodología distinta, considerando que hemos sido
formados en una metodología convencional. Este esfuerzo, ya lo hemos dicho, supone
despojarse de un modo de pensar y de abordar la información; supone despojarse de
esquemas que no siempre se adaptan a la situación socio-educativa que se estudia.
Preguntarnos sobre lo oculto en una investigación genera en nosotros otra interrogante.
¿Qué hace que un investigador seleccione una u otra metodología?. Además de razones
técnicas, académicas o de otra índole relacio-nadas con la investigación (como podrían
ser el tipo y alcance del problema, las condiciones apropiadas del escenario) por sobre
todas las razones se destacan los intereses, valores, sentimientos, supuestos y propósitos
personales del investigador. Estos elementos constituyen ese mundo oculto que a veces ni
el propio investigador vislumbra conscientemente. Son estos elementos no visi-bles los
que moldean la intención genuina del investiga-dor al enfrentar una realidad a través de
una determinada metodología.
Puesto que no siempre se da importancia a lo que llamamos "lo oculto" en una
investigación es por lo que deseamos reflexionar al respecto. En cada uno de los
momentos relacionados con el proceso de investigación están implícitos los sentimientos y
valores del investi-gador: desde que seleccionamos el problema y la metodolo-gía hasta
que producimos el informe final. Por supuesto esa dimensión oculta que se revela a través
de intereses, posturas, decisiones y acciones individuales se genera o está en clara
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 348
conexión con un contexto social global en el que intervienen elementos académicos,
económicos, sociales, culturales, políticos, así como valorativos e ideológicos.
Es nuestro interés resaltar que lo importante para nosotros como investigadores es estar
lo más conscientes posible de la existencia y de la influencia de esas fuerzas ocultas o
implícitas, tanto al desarrollar una investigación como al interpretar los trabajos de otros
autores. Estar conscientes de que la neutralidad abogada y requerida en otros tiempos es
poco menos que imposible lograrla en una labor tan impregnada de nosotros mismos
como lo es investigar en el ámbito educativo.
4.4.6. ¿QUÉ ES "LO CUALITATIVO" Y "LO CUANTITATIVO"?
En la actualidad se discute ampliamente el plantea-miento de la existencia de dos
paradigmas de investiga-ción socio-educativa (algunos autores hablan de coexis-tencia,
otros de complementariedad, otros de ruptura entre ambos paradigmas) o de dos
perspectivas distintas "la cuantitativa" y "la cualitativa".
Ciertas expresiones que manejan los autores vienen a sintetizar la caracterización de cada
tendencia... Se habla de una perspectiva "cuantitativa" que se resume en "lo que sucede
es lo que el investigador dice que ocurre", mientras la perspectiva "cualitativa" se sinte-tiza
en "lo que sucede es lo que los participantes dicen que ocurre".
Trasladando estas premisas que definen a cada para-digma al ámbito educativo, se afirma
que las investiga-ciones cuantitativas son estudios realizados "sobre¨ educación, a
diferencia de las investigaciones cualitati-vas que se realizan "en" educación.
Sobre los señalados paradigmas también se ha argumenta-do que la investigación
cuantitativa utiliza una metodo-logía "externa" (el fenómeno es observado desde afuera) y
la investigación cualitativa una metodología "interna" (el fenómeno es observado desde
adentro).
Por otra parte, se asocia el origen de los paradigmas a posiciones filosóficas
contrapuestas. Se afirma que el paradigma cuantitativo emplea los supuestos
mecanicistas y estáticos del modelo positivista de las ciencias natu-rales, fundamentados
en el racionalismo, el realismo y el positivismo lógico. Mientras que el paradigma
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 349
cualitativo posee un fundamento decididamente humanista para entender la realidad social
emanado de la posición idealista según la cual el mundo no es dado sino creado por los
indivi-duos que en él viven (Cook y Reichardt,1986: 62).
En resumen, "lo cuantitativo" se identifica con el número, lo positivo, lo hipotético-
deductivo, lo particu-lar, lo objetivo, la búsqueda de resultados generaliza-bles, lo confiable
y lo válido... Mientras que "lo cuali-tativo" se asocia con la palabra, lo fenomenológico, lo
inductivo, lo holístico, lo subjetivo, la interpretación de casos, lo creíble y lo confirmable.
En el caso particular de la Etnografía (como investi-gación cualitativa) se resaltan los
aspectos subjetivos sin despreciar lo objetivo (lo observable), no interesa generalizar,
tipificar, ni buscar muestras representati-vas sino contextualizar (el fenómeno depende del
contex-to), describir grupos en un escenario particular y natu-ral y en una situación
específica, no se garantizan los resultados en términos de validez ni confiabilidad sino más
bien se reporta en la información: su credibilidad (para hacerla aceptable), su
transferibilidad (relevante para el contexto), su dependencia (estabilidad de la
información) y su confirmabilidad (independiente del investigador la información es
confirmable).
Al ofrecer estas reflexiones sobre "lo cualitativo" y "lo cuantitativo", nuestra intención no es
evaluar cada paradigma. El propósito no es diferenciar cuál de los paradigmas es "el
bueno" y cuál es "el malo"... El plan-teamiento se orienta a que cada investigador tiene
liber-tad para seleccionar un paradigma de acuerdo con criterios técnicos y personales.
Creemos que en la decisión que tome estará reflejando su grado de compromiso el cual
involucra tanto los aspectos "manifiestos" como los "ocultos".
Asimismo, queremos considerar la manera como en la práctica se ha tratado de
diferenciar las investigaciones cualitativas de las cuantitativas. ¿Una investigación
descriptiva con datos cualitativos es una investigación etnográfica? ¿Qué hace que una
investigación se ubique en uno u otro paradigma, los datos, las técnicas, la metodo-
logía...? ¿Es igual la perspectiva para abordar el fenó-meno en uno u otro caso?
4.4.7. ¿QUÉ EXPERIENCIAS TENEMOS EN INVESTIGACIÓN ETNOGRÁFI-CA?
En el campo de la enseñanza de la Matemática en Educación Superior (Lidia Gutiérrez)
Esta experiencia es una inves-tigación etnográfica acerca de la Presentación y Apropia-
ción del contenido matemático en Educación Superior.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 350
4.4.8. ¿QUÉ ME PROPONGO CON ESTA INVESTIGACIÓN?
El estudio, pretende interrogar la realidad (entendiéndose en térmi-nos de la práctica
educativa) acerca de las formas de interacción comunicativa que se dan de manera
cotidiana en el aula de Matemática entre docente y alumnos. Me he planteado
interrogantes como las siguientes: ¿qué ocurre real y naturalmente en el aula de
Matemática?, ¿en qué formas las personas (docente y /o alumnos) presentan el contenido
matemático?, ¿cómo se apropian de este contenido?, ¿cuál es el significado que dan a la
acción de expresar, comunicar, interpretar e incorporar el contenido matemático?, ¿cuál o
cuáles teorías aportarían elementos interpretativos para comprender lo que sucede en la
práctica diaria del aula?
Para dar respuestas a estas interrogantes planteo el estudio de los patrones de
comportamiento individual, grupal y colectivo con respecto a los modos del habla,
repertorios verbales, roles y significados que permitan indagar sobre la estructura de las
interacciones comuni-cativas, de las tareas académicas y de las negociaciones que se
suceden en la práctica del aula universitaria de Matemática.
La manera propuesta para incursionar en la realidad es a través de técnicas de
investigación cualitativa como la observación "in situ" , la entrevista profunda, las
encuestas, los protocolos de análisis de interacción, en tres grupos de docentes y alumnos
aparentemente distin-tos.
4.4.9. ¿CUÁLES SON LAS VIVENCIAS OBTENIDAS?
De la aplicación de la metodología etnográfica reali-zada hasta los momentos, he podido
derivar algunas viven-cias. Una de ellas fue la apropiación gradual, reflexiva, consciente,
acerca de la manera de abordar la metodología en el trabajo de campo. El proceso lento
de asumir una actitud de observar sin descartar información, despojarme - en cierta
medida- de las preconcepciones sobre la enseñanza y el aprendizaje adquiridas durante
mi expe-riencia como docente, sentir apertura hacia lo que puede ocurrir en el escenario y
aceptación de lo que está ocurriendo aunque no haya sido previsto ni esperado. La lucha
interna de querer aplicar el sentido común a mis primeras interpretaciones y al evitar
adoptar una acti-tud evaluativa de lo que sucede en el escenario.
Otra experiencia que obtuve fue el descubrir la evolución que experimenta el observador
en el grupo, cómo afecta al inicio su incorporación en las acciones socia-les, lo importante
de explicar al grupo los propósitos de la investigación en términos muy generales, y cómo
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 351
el grupo va aceptando al observador integrándolo a las actividades hasta demostrar
apertura para iniciar espon-táneamente una conversación. Estos aspectos podríamos
resumirlos en "aprender a vivir durante cierto tiempo en ese espacio ecológico
denominado aula como un observador". En este aspecto, es incalculable la relación de
ayuda que se establece con los actores (especialmente el docente) para poder cumplir con
el cometido.
Mi incursión en el ámbito de la investigación cualita-tiva me ha permitido la posibilidad de
trabajar en el campo educativo, con diversas técnicas de investigación diferentes en su
concepción a las tradicionales, así como ir tomando decisión sobre cuáles aplicar en un
momento determinado y descubrir las razones de tal selección.
En este sentido y en cuanto a la técnica de observa-ción aplicada obtuve una rica e
interesante experiencia al llevar registros ("el diario") y al revivir los even-tos con el fin de
organizarlos. Al mismo tiempo, he tenido la oportunidad de poner en práctica ciertas
mane-ras muy personales para ir llevando los registros de la información.
Una vivencia por demás emocionante ha sido descubrir la trama de las relaciones que se
dan cotidianamente en el aula y de las cuales los actores dentro de su rol quizás no se
percatan, y que yo desde mi perspectiva como observadora puedo apreciar con más
claridad.
Ciertamente, dentro de las cuatro paredes que confor-man el aula de Matemática se da
una variada gama de intercambios entre quienes protagonizan las acciones. Se manejan
significados matemáticos pero también de otra índole, y se manifiestan comportamientos
aprendidos al actuar con el contenido matemático. Al colocarme como observadora me
percato del protagonista complejo llamado docente, con fuertes tradiciones para actuar en
su prác-tica cotidiana del aula y del protagonista complejo llamado alumno que participa
con su silencio o su palabra en la construcción social del conocimiento escolar.
La experiencia etnográfica que aquí presento me ha permitido comenzar a ver el
aprendizaje dependiente del contexto social y no sólo de las ideas previas de los actores y
de su posibilidad de evolucionar en el medio que le rodea. Por otra parte, estoy
confrontando la paradoja educativa según la cual "no hay lugar más artificial para aprender
que el aula". Definitivamente, el escenario del aula resulta un ambiente artificial de vida en
el que domina un contexto escolar con normas establecidas y condiciones de trabajo que
limitan y deforman la puesta en práctica del verdadero aprendizaje.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 352
Aplicar la metodología etnográfica también constituyó para mí un esfuerzo al tratar de
desenvolverme cumpliendo con las expectativas de los actores. Resulta de interés las
posibles interrogantes que surgen entre quienes rodean al investigador, así como las
expectativas de los actores y la forma de manifestarlas. En ocasiones algunos preguntaron
¿Qué es eso de "cualitativo"?, ¿Cómo es esa investigación que usted está haciendo?,
¡Profeso-ra, usted sí escribe! Además, me ha resultado un ejerci-cio interesante aprender
a satisfacer las expectativas de actuación, manejar sugerencias como observadora en el
aula y al mismo tiempo procesar y decidir cuáles recomen-daciones de los manuales de
etnografía se pueden poner en práctica en ese escenario específico.
4.4.10. ¿CUÁLES SON MIS EXPECTATIVAS?
Por supuesto que en este inicio de práctica etnográfi-ca quedan inquietudes, dudas,
aspectos por superar. Una inmediata, en mi caso particular, es superar la incerti-dumbre
de cómo será posible derivar conceptos teóricos del análisis de la información obtenida.
Otra de mis inquietudes, a esta altura del proceso etnográfico que he venido
experimentando tiene relación con la thesis por demostrar en la investigación. Esta
expectativa supone el compromiso de asumir una posición en cuanto a la forma de
abordar la práctica escolar de la Matemática desde la perspectiva de los complejos inter-
cambios socioculturales. Mi principal aspiración es demostrar que cada grupo de
participantes (conformados por docente y alumnos) ubicados en un determinado escena-
rio, de un instituto particular, y reunidos en torno a un quehacer matemático desarrollan
una manera de interacción propia que se traduce en lo que denomino "cultura del aula de
Matemática".
Una última aspiración es llegar a mostrar cómo la Etnografía plantea una metodología
asequible de utilizar en el campo educativo y apropiada para indagar sobre situaciones
socio-educativas que pretendan descubrir, describir, interpretar, los sucesos en un
determinado contexto.
4.4.11. EN EL CAMPO DE LOS VALORES EN EDUCACIÓN SUPERIOR (LOURDES DENIS)
Deseo aclarar que mi inclinación hacia la tarea de investigar siempre ha girado en torno a
un mismo tópico: los Valores y la Educación. Tengo la secreta aspiración de poder
conformar, en un futuro cercano, una línea de investigación sobre dicho tema.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 353
El caso particular que interesa reseñar en este momen-to es él referente a la experiencia
que tuve en ocasión de preparar un trabajo para el Simposio sobre Educación, Ética y
Valores, el cual se desarrolló en el Instituto Pedagógico Rural "El Mácaro" (Turmero) en
mayo de 1991. El referido trabajo se titula ¿Qué valores subyacen en el discurso
universitario? Reflexiones en torno a una experiencia. No se trata de hacer énfasis en el
contenido del mismo, sino más bien referirles qué experimenté yo como investigadora al
utilizar la vía etnográfica para abordar el tema particular de los valores presentes en el
discurso universitario. Para cumplir este propósito debo puntualizar primero cómo fue
estructurado el contenido.
El documento contiene una parte introductoria referida a Supuestos, Premisas y
Conceptos básicos, en la cual se exponen los fundamentos del trabajo. Asimismo, incluye
una parte básicamente teórica en la cual se pretende abordar la dimensión valorativa que
subyace en el discur-so universitario, en términos generales. Por último, una parte de
carácter más práctico en la cual se da a conocer los resultados de un ejercicio de
investigación a nivel micro a partir del cual se realizan algunas reflexiones. La situación
objeto de estudio se centra en el primer proceso de elecciones que se efectuó en la
Universidad Pedagógica Experimental "Libertador”, caso Instituto Pedagógico Rural "El
Mácaro", durante los meses abril-mayo de 1991, con el fin de elegir las autoridades inter-
nas que regirían en los próximos años.
Cabe aclarar que la primera decisión que enfrenté fue seleccionar el escenario y los
actores a considerar en el estudio. Pudo haber sido, y así lo llegué a pensar, el escenario
del aula el cual podría constituir el más natural y expedito para detectar qué valores están
pre-sentes en el discurso universitario. Sin embargo, consi-derando la situación particular
generada en el ambiente macarino al experimentar el primer proceso eleccionario para
elegir a sus propias autoridades, sentí que lo más significativo en ese momento, lo más
importante para los actores (personal del Mácaro), era precisamente ese evento tan
novedoso y trascendente para la vida institu-cional. Focalizar tal proceso podría constituir
una fuente interesante y significativa de la realidad valora-tiva que deseaba abordar, y
efectivamente así fue.
Esta primera decisión que enfrenté al iniciar mi estudio etnográfico, puede ilustrar el hecho
de que el investigador en todo momento debe tomar decisiones, como lo hacemos
también en la vida cotidiana, y que tales decisiones están irremediablemente afectadas
por factores como: intereses, propósitos, sentimientos y valores del propio investigador,
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 354
los cuales son parte de ese mundo oculto, no manifiesto e implícito, presente en toda
investigación y en toda acción humana. Creo que lo más importante, en el caso de la
decisión referida, es tratar de seleccionar lo que el investigador, guiándose por lo que
evidencie la situación, considere como los eventos más trascendentes y más significativos
de la realidad a estudiar. Otro aspecto que también deseo relatarles es cómo me sentí
durante el proceso de recolección de la informa-ción.
Realmente fue una experiencia que podría calificar de emocionante, no sólo por el interés
que generó en mí realizar esa tarea en el poco tiempo disponible, sino además porque
requirió desempeñar un papel que hasta ese momento no había vivido, como lo es el rol
de "detective". Cuando me reunía con uno o varios compañeros de trabajo (en un pasillo,
una oficina, el cafetín, el patio o fuera de la institución) para comentar sobre la situación
de las elecciones en "El Mácaro" trataba de captar sus opiniones y comentarios.
En esos encuentros, que a veces eran formales y otras veces informales, llegué a
conversar con docentes y estudiantes, y con empleados administrativos y obreros. Luego,
hacía anotaciones tratando de ser lo más fiel posible a las expresiones empleadas en la
conversación, incluyendo las mías, a la vez que anotaba algunos comentarios personales
acerca de cómo era la actitud de las personas, qué gestos hacían , en qué lugar nos
encontrábamos, fecha y hora.
Conviene aclarar que debido a la premura que tuve para recabar la información y por las
características del evento observado (proceso de elecciones) no aclaré en un primer
momento mi propósito; nadie sabía que sus comen-tarios yo los registraría en una libreta.
Actitud ésta contraria, debo confesarlo, a la que recomiendan quienes defienden la
investigación cualitativa.
Sabemos que por razones éticas, el investigador debe aclarar en términos generales su
objeto de estudio así como la estrategia de observación que será empleada. No obstante,
la situación tal como se presentó no me permi-tía (así lo experimenté en ese momento)
aclarar el propó-sito de mis notas; las cuales, por supuesto, forman parte de un archivo
estrictamente personal, debidamente res-guardado, en el que los nombres de las
personas aparecen en clave.
Este detalle, aunque parezca intrascendente, creo que es necesario preverlo y cuidarlo
pues la inten-ción de un estudio etnográfico no es comprometer o afec-tar a personas que
simplemente están actuando de manera sincera y espontánea, con toda la carga de
criticidad y confianza que puede generarse en conversaciones entre compañeros de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 355
trabajo. Siento él deber de decirles que me sentí como una espía, en el más sano sentido
del térmi-no, ya que aquello que con disimulo iba observando y escuchando no lo
comunicaba a terceros, sino lo anotaba para luego procesarlo en un contexto global
institucional sin identificar nombres ni situaciones.
A veces en forma simultánea y, en ocasiones, después de esta primera fase que les he
presentado, fui recabando toda la información escrita que se produjo durante el proceso
eleccionario. En este caso sí aclaré que esa información la usaría en un trabajo que
estaba realizan-do. Con la ayuda de algunos compañeros y estudiantes obtuve los
mensajes propagandísticos emitidos en la campaña de los candidatos así como los
comunicados, boletines, anónimos, programas de acción, escritos indi-viduales y grupales,
emanados de diversas instancias dentro de la propia institución. Es bueno recordar que
siempre mi propósito fue descubrir, en toda la informa-ción oral, escrita y "paratextual"
recabada, los mensajes valorativos presentes en el discurso universita-rio.
Durante las dos primeras fases del estudio fui entrevistando a catorce informantes claves.
Esta cantidad parece exagerada si consideramos lo que recomiendan algunos autores. En
realidad conversé con esos informan-tes claves (diez docentes, dos estudiantes, una
secreta-ria y un obrero) sólo en una o dos oportunidades para pedirle aclaratoria de algún
comentario que habían emitido. Esta parte me resultó interesante porque me permitó
confrontar mi percepción con la de esas personas, y debo aclarar que en casi todos los
casos mi interpretación coincidió con el significado de lo que quiso decir la persona
entrevistada. Creo que ello se debió a que son mis compañeros de trabajo con quienes a
diario me comuni-co y conozco de cerca sus maneras de pensar.
Un aspecto que tuve oportunidad de comprobar es el carácter cíclico y flexible de la
investigación cualita-tiva. A la hora de redactar el informe me fui percatando que "sobre la
marcha" había ido de atrás hacia adelante y de adelante hacia atrás. En la práctica no
siempre pude delimitar o diferenciar totalmente una fase de otra, especialmente las fases
2 y 3.
Tengo que reconocer que en ocasiones hubo falta de profundidad en ciertas fases del
proceso, específicamente en lo relativo a comprobar la credibilidad de algunas de las
informaciones recabadas. No realicé rigurosamente el proceso de triangulación sugerido
por la metodología etnográfica. Por todo lo que les he relatado se habrán percatado de la
serie de "dolencias" o "carencias" que tiene ésta mi primera investigación etnográfica, así
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 356
como de las satis-facciones que experimenté al ejecutarla. Me he propuesto introducirle
algunas mejoras y completarla con el objeto de una posterior publicación.
Espero que mi modesto esfuerzo haya servido de ilus-tración a quienes están interesados
en transitar el agradable sendero de la investigación cualitativa a través de la vía
etnográfica. Recordemos que todo estudio etnográfico es cualitativo, más no toda
investigación cualitativa es etnográfica. En efecto, Evelyn Jacob (1987) distingue cinco
tendencias representativas dentro del paradigma cualitativo: a) Psicología ecologista, b)
Etnografía holista, c) Antropología cognitiva, d) Etno-grafía de la comunicación, y e)
Interaccionismo simbóli-co.
Por mi parte, esta experiencia me permitió hacer un primer intento de abordar la realidad
desde una perspec-tiva distinta a la empleada en ocasiones anteriores. Realmente no
resulta fácil enfrentar la realidad para comprenderla e interpretarla tal como se nos
manifiesta, involuntariamente hay la tendencia a evaluar o juzgar la situación analizada
pero éste no ha sido nuestro propósi-to. Además tuve oportunidad de verificar que la
etnografía es una alternativa metodológica válida para enfrentar casos tan particulares
como el proceso de elecciones en una institución educativa. Ya teníamos referencia de
que ha sido empleada, por ejemplo, para descubrir la forma de saludarse de las personas,
las relaciones padre-hijo, las inquietudes de los adolescentes, los problemas emociona-
les, la amistad como situación social, la realidad de un mercado de las pulgas,... Todo ello
nos da una idea del uso multidisciplinario de la Etnografía.
Agradezco la atención que hayan podido prestar a mi relato y espero que para aquellos
que tengan la intención de iniciarse o se estén iniciando en el campo cualitativo esta
exposición les proporcione algunas pistas.
Nos damos por satisfechas si nuestras reflexiones han contribuido a aclarar algunos
conceptos así como a gene-rar inquietudes y estusiasmo hacia la investigación cualitativa
encauzada por la vía etnográfica.
4.4.12. REFERENCIAS
o Castillo, V. (1984). Situaciones sociales y Observación participante. Paradigma, V
(5),7-19
o Cook, T.D. y CH. S. Reichardt (1986). Métodos cualita-tivos y cuantitativos en
Investigación Evaluativa. Madrid: Morata
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 357
o Denis S., L. (1991, Mayo). ¿Qué valores subyacen en el discurso universitario?
Reflexiones en torno a una experiencia. Ponencia presentada en el Simposio sobre
Educación, Ética y Valores, El Mácaro-Turmero
o Gutiérrez, L. y Denis, L. (1989). La Etnografía como metodología de investigación.
Trabajo no publicado, Universidad Nacional Experimental "Simón Rodríguez",
Caracas
o Gutiérrez, L. (1990, Junio). Paradigmas Cuantitativo y Cualitativo en la
Investigación Socio-educativa: Pro-yección y Reflexiones. Charla presentada en el
Curso sobre Diseño de Proyectos de Investigación, Escuela de Aviación Militar,
Maracay. (Incluido en este mismo número de Paradigma).
o Gutiérrez, L. (1990). Presentación y Apropiación del contenido matemático en
Educación Superior. Proyecto de investigación. Trabajo no publicado. Universidad
Nacional Experimental "Simón Rodríguez", Caracas
o Jacob, E. (1987). Qualitative Research Traditions: A review. Review of
Educational Research, 57 (1), 1-50
o Martínez, M. (1990) La investigación cualitativa etnográfica en Educación. Manual
teórico-práctico.
o Montero, M. (1984). La investigación cualitativa en el campo educativo. La
educación, 96, 19-31
o Taylor, S.J. y R. Bogdan (1986) Introducción a los Métodos Cualitativos de
Investigación. La búsqueda de significados. (Jorge Piatigorski, Trad.) Buenos Aires:
Paidós.
o Sitios en el Web de investigación:
o http://investigacion.jumpeducation.co...
o http://www.orbitas.com/mall/store203/...
o http://www.geocities.com/CapeCanavera...
o http://www.orbitas.com/mall/store203/...
o http://asesoria.orbitas.com/investiga...
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 358
4.5. INVESTIGACION-ACCION PARTICIPATIVA
José Luis Moreno Pestaña y Maria Angeles Espadas Alcázar
Las relaciones entre dirigentes y dirigidos en los movimientos de emancipación popular se
han representado de muy diferentes formas. Entre la "sequedad" del Lenin de ¿Qué
hacer?, declarando que la conciencia revolucionaria sólo podría ser introducida desde el
exterior a unos trabajadores instintivamente conciliadores, y la "calidez" de unos
movimientos alternativos que vieron en el establecimiento de una vanguardia dirigente los
fermentos de una nueva relación de dominación, la disputa, en diferentes versiones, nunca
se ha dirimido. Ni el autoproclamado vanguardismo (lejos por otra parte del primer
bolchevismo) ni el espontaneísmo que atribuye potencial suficiente al saber explícito de
los explotados sobre su condición, han resultado jamás satisfactorios.
A mitad de camino entre las exigencias del saber teórico y las enseñanzas de la
movilización popular, la investigación-acción participativa propone una nueva aportación al
problema de cómo el saber puede proporcionar poder a los que carecen de él sin injertar
durante el proceso nuevas relaciones de sojuzgamiento. Lo hace desde ámbitos
específicos, relacionados todos con lo que podríamos abreviar como el problema de una
pedagogía que persiga la destrucción de los roles iniciales entre el enseñante y enseñado
(desde la educación al Trabajo Social, pasando por la acción política). La investigación-
acción participativa persigue el modo de eliminar los privilegios del maestro o el dirigente
sin desperdiciar por el camino el capital de autoridad racional sobre la que hacía
descansar parte de su preeminencia.
Procederemos, primero, a ofrecer algunos rasgos de su amplia base filosófica para ofrecer
a continuación un esbozo de ciertas fases que articulan su metodología. Dado que la
investigación-acción participativa no pretende ofrecer tecnologías que produzcan
resultados automáticos, debido a que somete a una crítica radical las implicaciones
epistemológicas y éticas de la concepción del espacio de intervención como escenario de
un proyecto de amaestramiento, dichas fases destacan por estar sobrecargadas
teóricamente de precauciones. Derivan éstas de un magma filosófico que permite a los
teóricos de la investigación-acción participativa incorporar una notable y nada común
autoconciencia epistémica.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 359
4.5.1. CONCEPTO
No resulta sencillo delimitar el concepto de investigación-acción participativa (IAP). La
investigación-acción en su primitiva delimitación por Kurt Lewin remitía a un proceso
continuo en espiral por el que se analizaban los hechos y conceptualizaban los problemas,
se planificaban y ejecutaban las acciones pertinentes y se pasaba a un nuevo proceso de
conceptualización. La manera en que Lewin concebía ese proceso estaba aún cargada de
supuestos elitistas y de concepciones del cambio social alucinadas con la eficacia de la
acción instrumental (Carr, Kemmis, 1988: 175-177). Por su parte, los profesores Lourdes
Merino y Enrique Raya proponen establecer diferencias entre investigación-acción e
investigación-acción participativa, situando a la primera como una aplicación del método
científico a un problema con voluntad praxeológica y con cierta participación de los
afectados (Merino, Raya, 1993: 5).
La IAP aparecería entonces como un tipo de investigación-acción que, incorporando los
presupuestos de la epistemología crítica, organiza el análisis y la intervención como una
pedagogía constructiva de disolución de los privilegios del proceso de investigación como
punto de partida para un cambio social de alcance indeterminable. Esa búsqueda del
conocimiento se caracteriza por ser colectiva, por proporcionar resultados cuya utilización
y gobierno corresponde a los propios implicados, que deben haber determinado el proceso
de conocimiento a la vez que experimentado en el mismo un proceso de maduración
colectiva (De Miguel, 1993, 97-101). Por otra parte, y esta cuestión es central, los
iniciadores de la IAP se previenen contra su propio poder concibiéndose "como
participantes y aprendices en el proceso, aportando sus conocimientos y convirtiéndose
también en objeto de análisis" (IOE, 1993: 69). Los investigadores entran así en un
proceso en que la objetivación de sí mismos, en una suerte de inagotable sociología del
conocimiento, se convierte en testigo de la calidad emancipatoria de su actuación
(Rahman, 1991: 34).
4.5.2. PRESUPUESTOS EPISTÉMICOS
Los teóricos de la Investigación-acción participativa se reclaman de una múltiple
inspiración teórica: Marx y Freud, Gramsci y Dewey, Habermas y Foucault, Jesús Ibáñez y
T. Kuhn, Edgar Morin y Paulo Freire, Kurt Lewin y Orlando Fals Borda. No podemos
realizar una selección de las aportaciones de éstos, ni sería muy útil en una entrada de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 360
este tipo. En lo que sigue intentaremos delinear los supuestos epistemológicos que nutren
la investigación-acción participativa desde determinados radicales básicos.
4.5.2.1. RELACIÓN SUJETO-OBJETO
La IAP reniega de la separación sujeto-objeto tal como ha sido planteada en la teoría
tradicional del conocimiento por razones tanto epistémicas como ético-políticas. Respecto
a lo primero la mayoría de los teóricos rubrican, sin duda, con la reciente filosofía de la
ciencia, la tesis de que la conciencia del investigador forma parte del sistema
experimental, y, con Sartre (1960: 46-50), que la conciencia únicamente puede adquirir
nuevas perspectivas si es capaz de embarcarse en una praxis diferente. Una realidad
social de opresión no sólo es imposible de captar desde una objetividad pura, sino que el
proceso de aprehensión de la misma se desarrollará en una u otra dirección en función de
la práctica social en que la conciencia se encabalga confirmándola y/o transformándola.
Es imposible, por ejemplo, desvelar el carácter alienante de la educación tradicional sin
embarcarse en una práctica alternativa que pruebe la posibilidad de otros procesos de
aprendizaje por el camino en que se transforma el anterior.
4.5.2.2. TOMA DE CONCIENCIA
Estrictamente relacionado con lo que acabamos de exponer se encuentra el problema de
la toma de conciencia. Toda teoría de la concientización se apoya, de algún modo, en una
teoría marxista de la ideología y, por tanto, en la posibilidad de configurar una
representación del mundo verdadera frente a otra falsificada. La mayoría de los teóricos
de la investigación remiten a la teoría de los intereses del conocimiento establecida por
Jürgen Habermas. Para el autor de Conocimiento e interés existen un tipo de ciencias
dirigidas por un interés de emancipación.
Mientras las ciencias empírico-analíticas construyen el mundo como unidad legaliforme
desde el que organizar su sometimiento y las ciencias histórico-hermenéuticas como un
espacio simbólicamente dotado de sentido dialógicamente asimilable, las ciencias sociales
críticas median ambos paradigmas mediante la utilización de la autorreflexión. Por un lado,
conciben la existencia de determinaciones sociales que actúan con fuerza de ley, por otro,
sitúan en las condiciones iniciales que hacen posibles semejantes regularidades la
conciencia oscurecida como el conductor fundamental del determinismo. Al establecer las
condiciones iniciales de las leyes sociales como espacio de coacción inconsciente,
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 361
Habermas sitúa la autorreflexión sobre lo que nos constituye como previo necesario de un
cambio social, que aún puede abortarse por el miedo derivado de la amenaza directa de
violencia.
Este interés autorreflexivo puede ser interpretado como una nueva rehabilitación del sueño
hegeliano y lukacsiano de un lugar epistemológico absoluto como guía para la IAP.
Semejante peligro ha sido eliminado por alguno de sus más capaces defensores por el
énfasis, no en el sueño de una transparencia completa, sino en el valor formativo de un
proceso autorreflexivo inacabable: "encontrar la belleza de la artesanía popular en la
construcción participada en las ciencias sociales. Es decir, no en el resultado final, pulido y
perfeccionista, sino en la textura y el pulso, que muestran la viveza del proceso, su
práctica"(Villasante, 1993 : 25).
4.5.2.3. PARTICIPACIÓN
La participación ha sido propuesta por teóricos de las ciencias humanas como mecanismo
de prevención y difuminación de los conflictos sociales. Desde la psicología "humanista"
de los 50 a la nueva empresa toyotista, la participación consiste en la incorporación activa
de los implicados a un proyecto cuya dirección estratégica se encuentra definida de
antemano.
Desde la IAP se considera ésto un simulacro de la verdadera participación (Gianoten, de
Wit, 1991: 95). La participación no puede confundirse con una simple preocupación por
encontrar el apoyo reflexivo de los implicados para los objetivos de conocimiento e
intervención delineados por un dispositivo exterior a ellos. La IAP tiene cuidado de
diferenciarse de todas aquellas llamadas a la participación basadas en la asimilación
acrítica de un marco global de partida con el que se propone compromiso. La participación
que reclama la IAP no es simple movilización, sino recapitulación sobre el conjunto de
procesos que condicionan la vida social de un colectivo determinado con el objetivo de
acometer una eventual modificación de los mismos.
Por supuesto, esto supone una específica relación entre los dirigentes y los dirigidos. En la
IAP los dirigentes tienen (a la manera del Estado revolucionario según Lenin) como primer
objetivo su desaparición, por lo que cada una de las fases -como veremos a continuación-
no culmina sin que se haya avanzado en la capacidad de autogestión de los colectivos
sociales implicados. En la IAP, la acción transforma al "enseñante" en facilitador y
catalizador. Con el último concepto se refiere a la inteligencia para provocar una reacción
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 362
reflexiva en la comunidad que se estudia, con el primero a la necesidad de ir
proporcionando elementos de reflexión y análisis a los implicados sin prefigurar
totalitariamente los problemas de reflexión o los objetivos de acción que los mismos elijan
(Rahman, 1991: 27-28).
La concepción de la participación en la IAP debe evitar tanto el peligro elitista como la
apuesta por un diálogo oscurecido ante las desigualdades reales de los sujetos que entran
en comunicación. Frente al sueño vanguardista o el libertario-liberal, la IAP propone
establecerse en el espacio abierto por una contradicción sólo clausurable tendencial y
temporalmente . En palabras de Paulo Freire (1970: 108): "el hombre dialógico tiene fe en
los hombre antes de encontrarse frente a frente con ellos. Esta, sin embargo, no es una fe
ingenua. El hombre dialógico que es crítico sabe que el poder de hacer, de crear, de
transformar, es un poder de los hombres y sabe también que ellos pueden, enajenados en
una situación concreta tener ese poder disminuido. Esta posibilidad, sin embargo, en vez
de matar en el hombre dialógico su fe en los hombres se presenta ante él, por el contario
como un desafío al cual puede responder. Está convencido de que este poder de hacer y
transformar, si bien negado en ciertas situaciones, puede renacer. No gratuitamente sino
en la lucha por su liberación".
La apuesta por una democracia participativa radical podría hacer a la IAP sospechosa de
un idealismo que desconoce las dificultades de concebir una sociedad compleja como un
sujeto que se autorregula a sí mismo. Huyendo de semejantes objetivos desaforados, uno
de los promotores centrales de la IAP, Orlando Fals Borda (1991: 12-13), ha insistido en la
referencia a una utopía realista ("un Estado con menos Locke y más Kropotkin") ajena
tanto al socialismo de Estado y la simplicidad ultraizquierdista como a la democracia de
competencia entre partidos del capitalismo tardío. La IAP parecería conectar, así, con
algunos de los rasgos distintivos del arsenal político configurado durante los años 70 y 80
de nuestro siglo por lo que se denominó como nuevos movimientos sociales (ver entrada Movimientos populares y conciencia social).
4.5.2.4. REDESCUBRIMIENTO DEL SABER POPULAR
La existencia de una diferencia entre los lugares de extracción de conocimiento y los de su
utilización demuestra cómo las ciencias sociales se entreveran en prácticas de opresión.
Las exigencias de una reapropiación del conocimiento deriva de la vocación
participacionista de la IAP. Sin embargo, las llamadas a la rehabilitación del saber popular
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 363
no tienen sólo el sentido de proporcionar a los grupos sociales dominados capacidad para
conocer las claves que rigen sus vidas. Los defensores de la IAP buscan el desarrollo y la
potenciación de los saberes que configuran la vida cotidiana de las gentes. Desde la
certeza, claro está, de que puede rescatarse allí una riqueza sobre el mundo despreciada
y minorada por los supuestos hegemónicos acerca de la producción, la posesión y la
aplicación del saber.
Esta cuestión se presta a confusión. La IAP se ha practicado, a menudo, en sociedades
excluidas de las sociedades capitalistas más desarrolladas, y las apelaciones al saber
popular están cargadas de cierta melancolía ensoñadora de la cultura campesina y del tipo
de estrecha experiencia simbólica característica de las estructuras comunitarias
tradicionales. Por sensato que pueda ser la dignificación de las culturas precapitalistas,
late en todo ese tipo de apelaciones cierto naturalismo ingenuo. Es cierto que la IAP
requiere formas de agregación popular con relaciones vitales distinguibles de la relación
de maximización competitiva que caracteriza nuestra vida cotidiana (Park, 1992: 168),
pero sería un error teóricamente miope y políticamente paralizante desechar a las
sociedades occidentales como lugares donde resulta posible desarrollar la IAP (Gaventa,
1991: 167-169).
Cabe entender la cuestión del saber popular desde ópticas menos proclives a las
idealizaciones de la cultura preindustrial. La primera es utilizar la noción de rescate del
saber popular como forma de discernir los elementos emancipatorios (inevitablemente
compuestos con otros opresivos) que penetran toda manifestación cultural humana, desde
la curandería popular al rap, desde el futbol a la exigencia por parte de los alumnos de
clases magistrales. Redescubrir el saber popular funcionaría así como un referente
heurístico que exigiría a los investigadores buscar las energías a catalizar en la propia
existencia social de los grupos oprimidos, evitando dejarse llevar por ese aristocratismo
epistemológico con el que la izquierda se hace elitista para esconder su miserable (y
culpable) impotencia.
El rescate del saber popular podría revelar una exigencia doble para la IAP inspirable en el
materialismo de Walter Benjamin (Buck-Morss, 1995: 143, 236): la necesidad de partir de
los deseos y los conocimientos (a menudo inconscientes) sociohistóricos existentes para
conceptualizar cualquier proyecto (que si es de transformación, dirige a lo que no existe
aún). Esta necesidad debe acompañarse de otra; la de eliminar el modo en que el deseo
popular queda encapsulado por las formas opresivas y muertas en que se expone
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 364
cotidianamente (la necesidad de solidaridad se transmuta en tribalismo futbolístico o
étnico, la de dignidad en chulería desafiante...). El redescubrimiento del saber popular
tendría entonces que ver con el reencuentro con las capacidades individuales y colectivas,
emotivas y cognitivas, adquiribles en plurales procesos de socialización (también en los
del capitalismo tardío), desde las cuales los sujetos evalúan su experiencia social y a cuyo
fardo cualquier propuesta de cambio social ha de dirigirse para encontrar elementos de
apoyo (Honneth, 1997) si no quiere elevarse sobre el vacío (Sobre este tema consultar las
entradas Ciencia social, conocimiento espontáneo y sentido común, Discurso académico/discurso vulgar).
4.5.2.5. CIENTIFICIDAD
El redescubrimiento del saber popular, las exigencias de un conocimiento ligado a las
personas que configuran su contexto de surgimiento, permite que la literatura de la IAP
rehabilite ciertos tópicos confusos sobre la ciencia popular en una curiosa composición de
posmodernismo y lyssenkismo. Ciertos teóricos de la IAP parecen utilizar la orientación
antipositivista de la filosofía de la ciencia dominante, para reclamarse de una ciencia
alternativa al "monopolio positivista presente (sic), al etnocentrismo de la ciencia
occidental y a la tecnología de destrucción" (Fals Borda, 1991: 197). De ahí se ha inferido
que cada ciencia crea su mundo y sus métodos de validación, con lo cual una ciencia
orientada por un interés emancipatorio podría disponer de estructuras de conocimiento y
de formas de verdad distintas e incompatibles a las de la ciencia positivista (Fals Borda,
1991: 13).
La introducción en la idea de una ciencia social crítica de reverberaciones de los luctuosos
sueños de una ciencia proletaria haría revolverse en su silla a alguien tan sobrio
epistemológicamente como Jürgen Habermas, inspiración básica de la IAP (1994: 178-
180, 1990: 22). El abandono de controles epistemológicos basados en una cierta noción
de objetividad, deja sin valor cualquier práctica cognoscitiva orientada por una crítica de
las ideologías que, de hecho, organiza múltiples aportaciones relacionadas con la
investigación-acción (Kemmis y Mc Taggart, 1988). Esto haría al investigador defender en
la teoría lo contrario de lo que supone en la práctica, siempre conducida por un interés,
implícito o explícito, en la verdad.
Dejando a un lado la discusión sobre la teoría de los intereses del conocimiento, la
solución estriba en cambiar de tercio. El problema está mal planteado metiéndose en un
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 365
terreno que reaviva los peores traumas del movimiento emancipatorio en este siglo
(Moreno, 1997). La IAP necesita de la objetividad para que sus apuestas de
transformación moral de la realidad correspondan a tendencias y potencialidades reales
de un momento histórico determinado. Cuantos más controles ayuden a evitar la
deformación del acercamiento pluridimensional de los interesados a su propia realidad,
tanto mejor para ellos y para sus proyectos emancipatorios.
La IAP no debe pretender ser una "nueva ciencia social", ni presumir de aportar un
presuntuoso conocimiento alternativo, aunque la selección de sus "objetos" (las causas de
la opresión) y la actividad de éstos (gobierno del saber por los propios interesados y
productores del mismo), tenga poco que ver con lo que sucede en los laboratorios
científicos o los gabinetes de investigación social dirigidos por el Estado o el Capital. La
relación entre el "sujeto" y los "objetos" es tan diferente en el ámbito de la IAP porque el
suyo es el ideal de la praxis y no el de la episteme, es decir, no el del control de una
realidad fijada por relaciones causa-efecto, sino el de la organización moral de una
realidad para la que no hay más reglas que el diálogo prudente entre seres humanos libres
(Habermas, 1991: 50-86). Tal es el imprescindible objetivo asintótico de toda actividad
humana que, cuando se quiere emancipatoria, pasa a descansar más sobre la filosofía
moral y política que sobre sobre una epistemología, sin la que, sin embargo, sería una
simple rabieta sin base alguna.
4.5.3. ASPECTOS METODOLÓGICOS
Como hemos visto en el apartado anterior la IAP se articula diferenciadamente del método
científico convencional, ya sea instrumental o interactivo (Park, 1992 : 141-149) En este
sentido, el esquema metodológico o modo de organizar la investigación por el que se
guían tales perspectivas -generalmente lineal, mas o menos rígidamente pero muy
estructurado, diseñado desde arriba por los expertos- no puede ser válido para producir un
tipo de conocimiento que persigue ser crítico, reflexivo, colectivo, participado,
emancipador.
Pero aún mas, la IAP no termina en la producción de conocimientos, sino que pretende
actuar frente a las realidades sociales, transformandolas desde el protagonismo de los
actores: "no es una preocupación principal la obtención de datos o la constatación de
hechos de manera única y excluyente... Lo prioritario es la dialéctica que se establece en
los agentes sociales, entre unos y otros, es decir la interacción continua entre reflexión y
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 366
acción, ... una visión pragmática del mundo social, donde lo fundamental es el diálogo
constante con la realidad para intervenir en su transformación" (Guerra, 1995).
Así pues, el hilo conductor de la IAP debe plantearse como un proceso cíclico de reflexión-
acción-reflexión, en el que se reestructura la relación entre conocer y hacer , entre sujeto y
objeto de manera que se vaya configurando y consolidando con cada paso la capacidad
de autogestión de los implicados. Bajo esta perspectiva es imposible e inconveniente crear
un modelo o esquema metodológico cerrado, a modo de recetario, que nos vaya
marcando el paso de lo que debemos hacer en cada momento. Mas bien debemos
plantear algunos criterios que nos hagan avanzar en la creación de "un contexto
investigativo mas abierto y procesual de modo que los propios resultados de la
investigación se reintroduzcan en el mismo proceso para profundizar en la misma"
(Villasante, 1994 ).
Algunas líneas clarificadoras que pueden orientar acerca de lo que requiere un proceso de
IAP, las encontramos en los diseños de experiencias concretas llevadas a cabo por
distintos investigadores ( Park, Villasante, López de Ceballos, entre otros), de las que
presentamos aquí un intento de síntesis.
4.5.3.1. ETAPA INICIAL
El problema a estudiar surge de la propia población implicada, aunque generalmente es
necesaria la actuación de un grupo promotor (asociación, agencia de desarrollo, equipos
de Trabajo Social ...) alrededor del cual se puedan reunir y tratar el problema. Se puede
comenzar con una reunión amplia de negociación e implicación de los promotores en la
que se lanza la idea del proyecto. Se produce así la toma de contacto de los
investigadores con la comunidad y con miembros significativos que puedan tomar parte
activa.
Es el momento también en el que se debe abrir la investigación hacia sectores mas
amplios para realizar un autodiagnóstico, identificar el problema, delimitar su alcance,
dimensionarlo. Surgirán múltiples dificultades, muy especialmente, las que a menudo
tendrán los propios participantes para la expresión y definición del problema. Esta
situación se puede desbloquear mediante diversas técnicas o actividades facilitadoras
como el teatro popular, audiovisuales, entrevistas grupales, que además van creando
espacios y perspectivas compartidas que producen ya por si mismas reflexión. El
investigador se convierte en un agente facilitador, en un recurso técnico, dejando que
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 367
actúen como organizadores las personas de la comunidad que tienen sus propias formas y
recursos organizativos. Estos se presentan así como investigadores activos, como sujetos
de la investigación, no como meros suministradores de información.
4.5.3.2. ESTRUCTURACIÓN DE LA IAP: NEGOCIAR PARA CONSTRUIR EL PROGRAMA
En esta fase se pretende crear un esquema básico donde se recojan propuestas de
actuación concretas. Este debe responder al menos a tres objetivos (López de Ceballos,
1987: 72): ligar la investigación a la acción; asegurar la coherencia entre lo que se busca y
lo que se quiere hacer; lograr un esquema de IAP sencillo, utilizable por grupos de base.
Hay que definir desde los grupos qué acciones se van a llevar a cabo y de qué manera.
De nuevo recurrimos a las reuniones con los sectores implicados para negociar cuales
serán las estrategias de actuación. Es importante no perder de vista que la finalidad
principal es reforzar las potencialidades del propio colectivo, tanto en el nivel del
conocimiento como de la acción (IOE, 1993). El investigador juega un papel importante en
el sentido de poner a su disposición diferentes técnicas de recogida, producción y análisis
de información; de transmitir herramientas de trabajo operativas de manera que resulten
asequibles y fácilmente manejables por los miembros de la comunidad. Es necesario
entonces llevar a cabo un entrenamiento en cuanto a la elaboración de cuestionarios,
instrumentos, habilidades de quienes recogerán la información, etc.
Asímismo, las técnicas a emplear también van a venir definidas por el tipo de análisis que
vayamos a realizar. Son válidas todas las que incluyan al sujeto y que no se escapen,
como hemos señalado, de los recursos técnicos y materiales de los implicados en la IAP.
Son útiles tanto las técnicas cuantitativas como las cualitativas; desde las encuestas hasta
los grupos de discusión, los documentos personales, bibliográficos, etc. No desdeñaremos
ninguna técnica siempre que esta pueda ser útil, y lo son especialmente todas las que
facilitan la relación, el intercambio, el diálogo, la participación, en definitiva la
comunicación entre iguales. Se hace énfasis en las que faciliten la aparición de los
aspectos intersubjetivos de la relación entre entrevistado y entrevistador. Eso si, hay que
observar que no se utilicen técnicas que requieran análisis estadísticos muy complejos
puesto que entonces necesitaremos expertos externos, generándose resultados
difícilmente comprensibles por todos. Aún habiendo algún experto en el grupo, esto
conllevaría una especialización y una división del trabajo que podría crear situaciones de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 368
dependencia y poder. En palabras de Park (1992:156): "este aspecto de la IAP sirve para
desmitificar la metodología de la investigación, y ponerla en manos de la gente para que la
usen como instrumento de adquisición de poder. Si obtiene éxito, la capacidad de
investigar científicamente los problemas de la comunidad se convierte en una
característica permanente de la misma que puede volver a ser usada una y otra vez sin
necesidad de contar con expertos".
En la IAP entonces, contrariamente a lo que sucede en las investigaciones
convencionales, nos encontramos con que el asunto de la validez depende de la empatía
de los sujetos con el fin de la investigación comprendiendo plenamente la intención de las
preguntas y queriendo dar la información necesaria de la mejor forma posible.
4.5.3.3. DESARROLLAR Y EVALUAR LO REALIZADO
Poner en marcha las técnicas tiene una doble finalidad: por un lado facilitar información
para otros sobre hechos concretos, por otro, producir conocimientos interpersonales y
autoconocimiento (encuentros dialógicos, Park ). Pero para que verdaderamente se pueda
dar la participación es necesario que la información este constantemente circulando y en
todas las direcciones.
El análisis de los resultados de este proceso nos ayudarán a comprender mejor la
naturaleza de los problemas, pero como indicábamos mas arriba, ya están produciendo
por sí mismos acción, están generando temas para la reflexión colectiva (uso colectivo de
los resultados o vuelta de la información a la comunidad), ligando la investigación a la
acción, el conocimiento y la práctica.
En cualquier caso, a pesar de los intentos de sistematización o de captura que queramos
hacer proponiendo formulas, todo este camino se debe dibujar como algo mucho mas
artesanal que tecnológico. Villasante resume con un lema las aportaciones que la
metodología de la IAP debería hacer a las Ciencias Sociales : "sobre cómo los
movimientos populares son analizadores y generadores de metodologías para las ciencias
sociales, y como no deberían dejar que éstas degeneraran en técnicas que se
automitifican, sino que deberían seguir como prácticas que implican una episteme (desde,
por y) para las soluciones operativas que necesitan los sectores populares".(Villasante,
1994: 424).
4.5.4. REFERENCIA
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 369
o Bartolomé, M. (1992) "La investigación cooperativa (praxis)"(copigrafiado), Taller de
iniciación a la investigación-acción(EUTS-Universidad de Granada), 2-IV-1992.
o Bourdieu, P., Chamboredon, J., Paseron, J.P. (1994) El oficio de sociólogo, Madrid,
Siglo XXI.
o Buck-Morss, S. (1995) Dialéctica de la mirada. Walter Benjamin y el proyecto de los
pasajes, Madrid, La balsa de la medusa.
o Carr, W. y Kemmis, S. (1988) Teoría crítica de la educación. La investigación-
acción en la formación del profesorado, Barcelona, Martínez Roca.
o Delgado, J.M. y Gutierrez, J. (1994), Métodos y técnicas cualitativas de
investigación en las Ciencias Sociales. Síntesis. Madrid.
o Fals Borda, O (1991)"Rehaciendo el saber", Fals Borda y otros (1991).
o Fals Borda y otros (1991) Acción y conocimiento. Como romper el monopolio con
investigación-acción participativa, Santafé de Bogotá, Cinep.
o Freire, P. (1970) Pedagogía del oprimido, Madrid, Siglo XXI.
o Gaventa, J. (1991) "Hacia la democracia del conocimiento", Fals Borda y otros
(1991).
o Guerra, C. (1995).; "Investigación-acción participativa en la periferia urbana de
Salamanca", en Cuadernos de la Red, nº 3 (Red CIMS), Madrid
o Habermas, J. (1989) Conocimiento e interés,Madrid, Taurus. ideología, Madrid,
Tecnos. 5, Madrid.
o Kemmis, S. y Mc Taggart, R. (1992) Como planificar la investigación acción, Madrid,
Laertes.
o Lopez de Ceballos, P. (1987) Un Método para la Investigación-acción participativa.
Popular, Madrid.
o Merino, L. y Raya, E. (1993) "El método de la investigación-acción participativa
como mediación entre la teoría y la práctica de la formación del/a trabajador/a social
y en el desarrollo profesional"(copigrafiado), Seminario de integración teoría-
práctica en la formación de los trabajadores sociales (EUTS de Alicante- C.E.B.S.),
2/3-XII-1993.
o Moreno, J. L. (1997) "El voluntarismo epistemológico de las dos ciencias: actualidad
de Lyssenko", Iralka nº 9, Irún.
o Park, P. (1992)"Qué es la investigación-acción participativa. Perspectivas teóricas y
metodológicas", Salazar (1992).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 370
o Rahman, M.A. (1991) "El punto de vista teórico de la IAP", Fals Borda y otros
(1991).
o Salazar, M.C. (1992) La investigación-acción participativa. Inicios y desarrollos,
Madrid, Edit. Popular-OEI.
o Sartre, J.P. (1960) Questions de méthode, Paris, Gallimard.
o Villasante, T.R. (1993) "Aportaciones básicas de la IAP a la Epistemología y a la
Metodología", Documentación Social nº 92, Madrid.
o Villasante, T.R. (1994) "De los movimientos sociales a las metodologías
participativas" en Delgado, J.M. y Gutierrez, J. (1994).
o http://www.ucm.es/info/eurotheo/d-moreno1.htm
El pensamiento es tarea de vagos y maleantes. Hay que saber perderse para trazar un
mapa: vagar por los márgenes y por el desierto, fuera de las fortalezas en las que están
encerrados la verdad, el bien y la belleza. Sólo los nómadas descubren otros mundos. Hay
que saber pervertir la ley --jugar con ella-- y a veces subvertirla --ponerla en cuestión--
para cambiar y/o quitar la ley: provocar malos pensamientos en los bien-pensantes,
asediar las sedes de la verdad, el bien y la belleza. Sólo los malditos mejoran este mundo.
[JESUS IBAÑEZ]
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 371
<
4.6. LA TRIANGULACIÓN
Robert E. Stake,
Durante el desarrollo de estudios de casos nos preguntamos:”¿lo hacemos bien?” No solo:
“¿Estamos generando una descripción comprensiva y exacta?”, sino: “¿estamos
desarrollando las interpretaciones que deseamos?”, el sentido común trabja a nuestro
favor, y nos advierte cuando conviene fijarse de nuevo y donde preguntar para aclarar los
asuntos; pero el sentido común no es suficiente. En nuestra búsqueda de presición y de
explicaciones alternativas, necesitamos disciplina, necesitamos estretegias que no
dependan de la imple intuición y de las buenas intenciones de “hacerlo bien”. En la
investigación cualitativa, esas estretegias se denominan “triangulación”. En nuestras notas
de campo utilizaremos A (delta) para identificar los datos que se deben usar en la
triangulación. Identificaremos con Aquellos datos que puedan requerir una triangulación.
Todo lo que registremos debe recordarnos continuamente la necesidad de la triangulación.
El problema de Aes complejo debido al gran número de investigadores cualitativos que
comparten, poco o mucho, una epistemología llamada “constructivismo”. La última parte
del capítulo anterior estaba dedicada a dicha espistemología. Ahora señalaremos que la
mayoría de los investigadores cualitativos no solo creen que existen múltiples perspectivas
y visiones de que se deben representar, sino que no existen formas de establecer, más
alla de la discusión, cual sea la mejor.
4.6.1. LA VALIDACIÓN
Todos los investigadores reconocen que es necesarios no solo ser exacto en la medición
de las cosas, sino tembién lógico en la iterpretación del significado deesas mediciones.
Las técnicas de pruebas educativas y psicológicas han acertado especialmente al exigir
mediciones que tengan rigurosidad y validez demostrables (Cronbach, 1971). Quienes
utilizn puntuaciones, incluidos los expertos en pruebas, no siempre limitan sus
interpretaciones delas puntuaciones que se obtienen en las pruebas a las que han sido
validadas, sino que hace ya tiempo que la teoría y las técnicas han experimentado una
gran complejidad.
El nivel de exigencia sigue subiendo. Sam Messick (1989), del Educational Testing Service
(Servicio de pruebas educativas), ha insistido repetidamente en la necesidad de que los
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 372
investigadores aseguren la validez de resultados de las mediciones. Esto significa que las
conscuencias de usar esas mediciones deben ser consideradas parte de la
responsabilidad del investigador. Como en el caso de los datos decriptivos, los usuarios
deben advertir la posibilidad de cualquier descripción determinada puede invalidar
injustamente el caso y que esa descripción no es totalmente válida si no se advierte de
tales consecuencias. Esto exige mucho rigor, pero en la historia de todo tipo de
investigación el nivel de exigencia en la validación de la interpretación de las mediciones
ha sido levado, aunque no haya ocurrido lo mismo con el uso de la investigación.
No veo razón por la que debamos contentarnos con menos en el estudio de caso. Es
verdad que nos ocupamos de muchos fenómenos y temas complejos para los que no se
puede alcanzar sconsenso sobre lo que existe realmente – a pesar de ello, tenemos la
obleigación moral de reducir al mínimo las falsas representaciones e interpretaciones.
Necesitamos determinadas estrategias o procedimientos, que esperan tanto los
investigadores cmo los lectores; esfuerzos que van mas alla de la simple repeticiónde la
recogida de datos observados.
Para mi al menos, la palabra triangulación proviene de la navegación celeste. Nuestro
navegante sabía inferir muy bien. Todas las mañanas y todas las tardes en elar infería
nuestra posición, en parte mediante la medición delos ángulos deelvación delas estrellas:
Justo después de la puestea del sol subía al puente con el sextante. “malditas nuves”,
murmuraba, y después:”ah, aquí esta vega”, y seguía con la taresa de “establecer la
posición”. Sus costumbres ya no necesitaban una voz interior que dijera: “...la posición de
nuestra nuve está en un círculo imaginario centrado en el punto de la superficie terrestre
sobre el que, en este momento, se observa directamente Vega, y cuya extensión se
determina por el ángulo de elvación,...”para todos los momentos de todos los días, sus
tablas le indicaban donde se hallaban esos puntos centrales. Para cada uno, calculó el
margen de error de su supuesta posición, para determinar así cuanto había que corregirla.
Naturalmente no bastaba con saber que estábamos situados en un círculo determinado
pero muy extenso sobre la superficie terrestre. Pero cuando dirigía la vista hacia poniente
y alcanzaba el ángulo de Dubhe, obtenía un segundocírculo con dos puntos de
intersección con el primero así:
Normalmente, los dos puntos de intersección se encontraban a miles de millas de
distancia, y asi, en una nave lenta cmo la nuestra, que de hoy para mañana no podía
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 373
pasar de un océano a otro, él podía inferir, con la visión de dos estrellas, donde nos
encontrábamos.
Pero solía observar otra estrella, quiza hacia el norte, la estrella Polar. Los arcos de los
círculos, tan amplios que pudieran parecer líneas rectas, pareian en su mapa tal como los
representamos arriba a la derecha.
Su cronómetro, sus elevaciones y sus cálculos no eran perfectamente precisos, por eso
las líneas (los círculos) no tenían un único punto de intersección. Solía recoger seis
estrellas, si las nuves no se lo permitían, para completar sus deducciones con un punto en
el centro de las intersecciones. En sus tablas se llmaba “triangulación” a este proceso,
pero nunca le oí utilizar esta palabra.
El problema que es nos presenta en el estudio de casos es el de establecer un significado,
no una posición, pero la teoría es la misma. Asumimos que el significado de una
observación es una cosa, pero las observaciones adicionales nos sirven de base para la
revisiónde nuestra interpretación.
4.6.2. OBJETIVOS DE LA TRIANGULACIÓN
Para definir el caso, intentamos presentar un cuerpo sustancial de descripción
incuestionable. Queremos decir sobre el caso aquello que casi cualquiera que hubiera
tenido la misma oportunidad quenosotros de observarlo habria señalado y registrado, en la
misma medida en que lo hicimos nosotros. Por ej., en la graduación de Umea:
1. El director se sento en la primera fila, junto al pasillo central.
2. Los alumnos de especialidades académicas se sentaron en las primeras
filas, y los de especialidades técnicas en las de atrás.
3. algunos de esos últimos alumnos se burlaban del director.
Incluso buscamos registrar información que el lector posiblemente conozca, con el objetivo
de asegurarle que somos capaces de ver y pensar con claridad – o deliberadamente para
indicar nuestras propias inclinaciones o partidismos. Esto da oprtunidad de triangulación a
los lectores.
Tarde o temprano, y aunque en menor medida en la primera parte del informe , ofrecemos
interpretaciones. Algunas son accidentales. Para ahorrar espacio, cuando la descripción
no parece controvertida, saltamos n seguida a la conclusión, y extrapolamos. Por ej.:
4. El director estaba nervioso
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 374
5. intencionadamente o no, la asignación de los asientos reflejaba una visión
institucional/social de que los estudios académicos son superiores a los
técnicos.
Realmente no sabemos que el director estaba nervioso. Quizá un poco de sudor en su
frente y las rápidas miradas por encima del hombro (de lo que informaba Ulla) nos llevaron
a tal conclusión. Pensamos que la descripción de las pruebas no es punto de importancia
suficiente (por ej., hay que ofrecer la oportunidad a los lectores para que tomen sus
propias desiciones). Su forma de comportarse parecía dar esta impresión.
Si se prevé que algún tema importante va ha suscitar controversias, lo presentaremos con
mas detalle. Incluso si el proio director no hubiera confiado que estaba nervioso, lo
presentaríamos como una manifestación suya, y no como un hecho. “el director dijo que
estaba nervioso”. Presentaremos las pruebas como sepamos, a menudo añadiéndoles
nuestra interpretación. En muchos casos, optaremos por expresiones interpretativas que
permitan al lector sentirse cómodo con una visión alternativa. Por ej.:
6. Algunas veces, las ceremonias poco organizadas hace que los directores
se sientan nerviosos.
7. En opinión de muchos, con la graduación se pasa de depender de la familia
y delos profesores, a depender de las otras personas y del sistema social.
Para cualquiera de estas siete afirmaciones descriptivas e interpretativas puede ser
necesaria la triangulación. Ésta agota los recursos, al menos el tiempo, por tanto solo se
triangularán los datos y los supuestos relevantes. La importancia depende de nuestra
intención de ofrecer una comprensión del caso, y del grado en que tal afirmación
contribuye a aclarar la historia o a diferenciasr significados opuestos. Si es esencial para
definir “el caso”, deberíamos estar más que seguros de “estar en lo cierto”.
Lo resumimos eneste cencillo cuadro:
Cuando se tienen dudas sobre la “cuestionabilidad” de la descripción o sobre la
importancia de los asertos, es una buena idea someterlas a la prueba de unos pocos
lectores que se ofrezcan para tal labor.
Situación de los datos: Necesidad de triangulación Descripción incuestionable se requiere poco esfuerzo para confirmarla Descripción dudosa y cuestionada requiere ser confirmada . Datos fundamentales para un acerto se requiere mayor esfuerzo para confirmarlos Interpretaciones clave se requiere mayor esfuerzo para confirmarlas Presuaciones del autor identificadas como tales se requiere poco esfuerzo par confirmarlas
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 375
4.6.3. ESTRETEGIAS DE LA TRIANGULACIÓN
Para conseguir la confirmación necesaria, para aumentar el crédito de la interpretación,
para demostrar lo común de un aserto, el investigador puede utilizar cualquiera de las
diversas estrategias. En 1984, Norman Denzin identificó las siguientes estrategias en su
libro The Research Act.
Para la triangulación de las fuentes de datos observamos si l fenómeno o caso sigue
siendo el mismo en otros momentos, en otrsos espacios o cuando las personas
interactúan de forma diferente. Supongamos que son los arduos esfuerzos de algunos
profesores de Harper por majorar su enseñanza. Si durante la fase preparatoria ya se ha
observado que los profesores apelan a la autoridad de la experiencia profesional, el
siguiente paso puede consistir en ver si el mismo comportamiento ocurre al finalizar el
taller o en casa, o cuando esos profesores participan de alguna actividad de formación.
Nos preguntaríamos: “¿qué cambios en las circunstancias pueden propiciar que los
profesores pongan en práctica métodos alternativos para mejorar su nseñanza, y
favorecer la aparición de esas otras circunstancias. La triangulación de las fuentes de
datos es el esfuerzo por ver si aquello que observamos y de lo que informamos contiene el
mismo significado cuando lo encontramos en otras circunstancias.
Las otras estretegias de Denzin son los cambios que los investigadores introducen en lo
que hacen. Para la triangulación del investigador, hacemos que otros investigadores
observen la misma escena o el mismo fenómeno. Supongamos que estamos
truiangulando una interpretación, según el cual el desarrollo de los niveles del NCTM era
un intento de los profesores de matemáticas por recuperar el control del currículo, que
estaba en manos de las autoridades de l gobierno del Estado. En las ocasiones
importantes, servirá de ayuda contar con un compañer, quizá un segundo miembro del
equipo, para que observe. Normalmente no es posible conseguir que otros investigadores
observen. Pero una buena estretegia, aunque poco utilizada, consiste en presentar las
observaciones (con nuestra interpretación o sin ella) a una comisión de investigadores o
expertos para analizar interpretaciones alternativas. A la vista de los datos, muchos
expertos en matemáticas negarían cualquier propósito político en la elaboración de los
niveles del NCTM. Sus reacciones no solo sirven para confirmar o refutar las interpretación
original, sino también para portar datos adicionales par el estudio de casos.
Al alegir coobseervaciones, una comisión o revisores con puntos de vista teóricos
alternativos, actúan según lo que Denzin (1989) llamó triangulación de la teoría. En
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 376
realidad, dado que nunca dos investigadores interpretan las cosa de una forma
completamente indéntica, siempre que varios investigadores comparan sus datos se
produce algún tipo de triangulación de la teoría. Por ej., un investigador, a propósito o no,
se muestra más conductista, otro más holista. En la medida en que describen el fenómeno
con un detalle similar, la descripción está triangulada. En la medida en que están de
acuerdo sobre su significado, la interpretación está triangulada. (evidentemente no
triangulada por completo.) En cierto modo, se trata de una situación de mútuo beneficio,
ya que el significado alternativo puede ser de gran ayuda a los lectores para comprender
el caso. Pero, según mi experiencia, el investigador tiene prisa por conseguir la
confirmación y no le agrada encontrarse con otra interpretación que requiera ser
desarrollada y que, por tanto, precisen su propia triangulación.
Lacuarta esretegia es en realidad la más aceptada: la triangulación metodológica. Por ej.,
si se trata de afianzar nuestra confianza en nuestra interpreteación, podemos completar la
observación directa con la revisión de registros anteriores. En cierta ocación pregunte a
Donald Campbell, psicólogo y epistemólogo, ucal ha sido en su opinión su mejor logro, lo
que respondio refiriéndose a su trabajo con Donald Fiske sobre diseños de investigación
de características y diseños múltiples (Campbell y Fiske, 1959). Decían:
Para conseguir constructos útiles e hipotéticamente realistas en una ciencia se
requieren métodos múltiples que se centren en el diagnóstico del mismo constructo
desde puntos de observación independiente, mediante uan estrategia de
triangulación. (Pág.81)
Ambos reconocían que muchos descubrimientos de los estudios de las ciencias sociales
está n influidos sutilmente por la forma en que los investigadores abordan su trabajo. Con
enfoques múltiples dentro de un único estudio, es probable que clarifiquemos o que
anulemos algunas influencias externas. Cuando hablamos de métodos en los estudios de
casos, nos referimos una vez más sobre todo a la observación, la entrevista y la revisión
de documentos. Después de un incidente en el patio que yo mismo he haya observado
puedo preguntar a un profesor o a un alumno qué vieron ellos. La entrevista es un método
alternativo, con el que, mediante otro observador, se pretende ver aquello que quizá yo no
haya percibido. Normalmente, sus repuestas confirman mi descripción en alguna medida
y, a menudo, parte de mi interpretación. Pero muchas veces me doy cuenta de que el
incidente no era tan simple como supuse al principio. La triangulación nos obliga una y
otra vez a la revisión.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 377
Cuando más cree uno en la realidad construida, más difícil resulta creer que cualquier
observación o interpretación compleja se puede triangular. Par Denzin y muchos
investigadores cualitativos, las estrategias de la triangulación se han convertido en la
búsqueda deinterpretaiones adicionales, antes que la confirmación de un significado único
(Flick, 1992).
4.6.4. REVISIÓN DE LOS INTERESADOS
En el estudio de casos, los actores desempeñan un papel fundamental, tanto en la
dirección como en la representación. Aunque ellos son el objeto del estudio, hacen
observaciones e interpretaciones muy importantes con regularidad y, en algunos casos,
sugerencias sobre las fuentes de datos. También ayudan a triangular las observaciones e
interpretaciones del investigador. En un proceso llamado “revisión de los interesados”, se pide al actor que examine escritos
en borrador en los que se reflejan actuaciones o palabras suyas, en algunos casos cuando
acaban de ser anotadas, aunque normalmente cuando ya no se le va ha perdir que aporte
más datos. Se le pide que revise la exactitud y la adecuación de material. Se le puede
animar a que sugiera una redacción o una interpretación alternativas, aunque no se le
promete que tal versión vaya a aparecer en el informe final. Normalmente, merece la pena
incluir parte de esta retroalimentación (feedback).
Puede darse el caso en que un actor plantee objeciones a la exposición. Así ocurrio con
una extensa descripción mía de un profesor, en la que se incluia el párrafo que sigue.
Durante varias semanas de estudio había admirado su forma de enseñar y pensé que el
borrador reflejaba de forma favorable. Se opuso enérgicamente, y dijo que mis palabras le
incomodaban, a él y a la escuela. Revisé el apartado correspondiente. Eliminé las
palabras que aparecen tachadas een el párrafo y añadí las que aparecen en negrita:
Lo que he estado viendo en el aula del Sr. Free me recuerda que la ética del
estudio a la que aspira está aliada con los antojos de los adultos por es
consecuente con la importancia generalizada que se otorga a la conducta y a la
socialización. La mayoría de las personas están de acuerdo en que, para que los
niños aprendan sus lecciones, deben evitar aquellas cosas interesantes pero no
académicas de la vida del estudiante: hacer aviones de papel, eliminar los gases,
poner monedas en la masa de la pizza. El profesor intenta reducir el nivel de
distracción. Y no sólo porque padres y administradores piensen en las clases en las
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 378
que se guarda silencio son clases buenas. Evitar la distracción habitual es
necesario para que se puedan estudiar algunas lecciones mas bien aburridas
facilita la atención a los hábitos de la instrucción. Cambié una docena de párrafos, mas o menos. El Sr. Free no repondio a mis repetidas
solicitudes de aprobación, pero cuando me hice con él dijo que no quería que se incluyera
de ningún modo la descripción de su clase. Después de una larga deliberación, guarde el
anonimato en todo el estudio e incluí la descripción de su clase en mi informe.
Después de haber recurrido mucho a la revisión del interesado, lo m´s habitual ha sido
recibir del actor muy pocas cosas – lo cual no es muy satisfactorio, aunque totalmente
necesario. Es frecuente que no disponga de una explicación directa de los hechos, y que
necesite ayuda. Requiero del actor que dedique su tiempo a hacer parte de mi trabajo. La
repuesta más comúnde los actores a quienes he enviado borradores consiste en no
reconocer queles haya enviado cosa alguna. A menudo, lo que les explico es algo
rutinario, que aparentemente no merece una repuesta. Pero a veces consigo que lo lean
por entero, un análisis respetuoso, y sugerencias para mejorarlo. Creo que puedeo afirmar
que todos mis informes han mejorado gracias a la revisión de los interesados.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 379
<
4.7. LA COMPLEMENTARIEDAD COMO POSIBILIDAD EN LA ESTRUCTURACIÓN DE DISEÑOS DE INVESTIGACIÓN CUALITATIVA
Napoleón Murcia Peña y Luis Guillermo Jaramillo Echeverri.
4.7.1. RESUMEN
Uno de los problemas más traumáticos que enfrentamos al asumir un proceso de
investigación tiene que ver con la falta de comprensión de las perspectivas teóricas con
que podemos emprender la solución de un determinado problema.
Existe por ejemplo, la creencia derivada de resolver problemas de investigación a partir de
un solo modelo y diseño enseñado a lo largo de la historia por nuestros padres positivistas
cual es la experimentación, y que por ende; todo aquello que pueda ser verificado,
comprobado, manipulado y controlado es considerado como investigación. Esta creencia
ha hecho además que se considere como válido en el conocimiento científico, todo aquello
que contenga análisis estadístico o matemático, incluso para abordar fenómenos
psicológicos, antropológicos y hasta sociales como lo es la educación.
En este sentido, han surgido diferentes tendencias de investigación de corte cualitativo en
la comprensión de fenómenos sociales como son: La fenomenología, la etnografía , la
teoría fundada y la etnometodología expuestas desde los años treinta por la escuela de
Chicago con un énfasis mas sociológico; la hermenéutica, expuesta por pensadores
filosóficos como Dilthey, Gadamer y Weber; y la teoría crítica expuesta por Habermas
como una forma diferente de asumir las ciencias sociales, en la cual se plantea el enfoque
histórico hermenéutico que considera la explicación del mundo desde las relaciones del
lenguaje, la tradición y la historia; y el principio de etnografía reflexiva expuesto por
Hammersley y Atkinson (1994).
Nuestro interés es presentar una posición mediadora de todas estas teorías cualitativas y
ofrecer una propuesta de diseño metodológico para abordar estudios relacionados con las
ciencias sociales; lo anterior, es con el fin de compartir con los investigadores una
posibilidad mas en el proceso de comprensión de las realidades culturales.
De igual forma, es nuestro deseo dar a conocer las diferentes experiencias que hemos
tenido al abordar este diseño, tras haber desarrollado en primera instancia una
investigación con jóvenes marginados en la ciudad de Manizales (Colombia) y haber
desarrollado otras tantas con los estudiantes de nuestra universidad.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 380
4.7.2. UN DISEÑO DESDE LA COMPLEMENTARIEDAD
Partimos de considerar las investigaciones denominadas cualitativas, como la base de
nuestro propuesta, las cuales le interesan los datos por sus cualidades, por lo que ocurre
en cada uno de ellos y no tanto por sus cantidades. Su fundamento está dado por la visión
holística de las realidades, lo cual implica comprender una realidad desde la relación que
hay en cada uno de sus elementos y no desde la mirada aislada de estos. Como lo asume
Martínez (1993:8.): "Cada parte al formar una nueva realidad, toma en si misma algo de la
sustancia de otras, cede algo de si misma y en definitiva queda modificada."
Si bien, reconocemos que existen diferentes tendencias cualitativas como: La Etnografía,
la Teoría fundada, la Fenomenología, la Hermenéutica, la Investigación Acción
Participativa, la Etnometodología, las Historias Orales o de Vida, e incluso las
investigaciones Históricas, entre otras; todas estas presentan elementos importantes en el
análisis en la comprensión de las realidades culturales; sin embargo, cada una de ellas
desconoce el aporte de las otras, al centrar su análisis de comprensión en fracciones de la
realidad; caso de la etnometodología que centra su análisis en las acciones de los sujetos
y no en su esencia como lo propone la fenomenología; o de la etnografía que busca la
descripción de rasgos culturales, distinto a la Teoría fundada que pretende construir teoría
a parir de la comparación constante (ver Garfinkel 1994,62; Ritzer 1996,287; Sandoval
1997,58 y Murcia y Jaramillo 2000,61).
En un proceso de investigación social, lo que se busca es comprender el fenómeno, lo
más cerca posible a la realidad que viven los sujetos inmersos en este, y esa comprensión
no se logra en su totalidad si se percibe desde pequeñas miradas del investigador.
En consideración a lo anterior, se hace necesario reconocer cada uno de los aportes de
las diferentes tendencias anteriormente expuestas para lograr una mayor y mejor
aproximación a la realidad estudiada, por ello se acudimos al principio de
complementariedad como una posibilidad de articulación respecto a las opciones que nos
brinda cada tendencia. Por tanto, y a manera de síntesis, para estructurar una propuesta desde la
complementariedad, es necesario entre otras, que esta se sustente en:
Las teorías de la complejización de las ciencias propuestas por Edgar Morín y Kern
(1993,189), según las cuales, una ciencia se desarrolla cuando busca su complejización;
esto es, cuando se analiza desde las relaciones internas y externas, o sea, en función de
sus posibilidades de relación con el todo y sus partes. Los autores consideran que una
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 381
ciencia se estanca, cuando se simplifica, es decir, cuando se reduce al fraccionamiento de
cada una de sus partes y se desconoce la relación con el todo y con otras ciencias.
El principio sistémico Ecológico expuesto por Miguel Martínez como una posibilidad de
comprensión de un texto cultural y la consideración de las relaciones que se dan
permanentemente en dicho texto: "Nuestra mente no sigue sólo una vía causal, lineal,
unidireccional; sino también, y a veces sobre todo, un enfoque modular estructural,
dialéctico, gestáltico, donde todo afecta e interactúa con todo, donde cada elemento no
sólo se define por lo que es o representa en sí mismo, sino y especialmente, por su red de
relaciones con todos los demás". (Miguel Martínez 1993, 4). Dicha relación de
interdependencia, es considerada también por Morín (1994,70-72) como una característica
de todo sujeto al ser "auto eco organizado".
En la teoría de la acción comunicativa de Habermas; según la cual, todo acto de habla
implica una acción de comunicarse, y esa comunicación se desarrolla mediante las
señales o emisiones emitidas en un contexto de intencionalidad que desencadena una
acción, la cual es la base en los acuerdos entre varios participantes del proceso
comunicativo (Habermas, 1999 tomo II,14); lo anterior implica que para comprender la
comunicación es necesario reconocer la intencionalidad de los actos de habla.
Si este acto de habla se analiza en el referente de contexto sociocultural donde tuvo
origen y desde el proceso global que implica comunicarse, se puede realizar una
aproximación a la veracidad y validez de la información recolectada. Pues es en el marco
de los procesos comunicativos, que el sujeto expresa ese cúmulo de acciones e
interacciones que determinan su percepción del mundo y de su realidad.
Esto es, que en el acto comunicativo, existen hablantes y oyentes que se refieren a algo
en el mundo, y en esa relación buscan entenderse. Lo anterior, se logra mediante unos
contratos implícitos entre el hablante y oyente, quienes se ponen de acuerdo en las
pretensiones de validez de sus argumentaciones.
De este acuerdo mutuo, puede surgir la acción, la cual es un dominio de situaciones
producto de los contratos de habla. Por lo anterior, una acción comunicativa se basa en
tres aspectos: el primero está dado por la intención de los comunicantes al manifestar sus
actos comunicativos; es decir, el aspecto teleológico de ejecución de un plan de acción. El
segundo es el aspecto comunicativo propiamente dicho, que implica la interpretación de la
situación y el pacto de comunicación; y el tercero es el acuerdo logrado en la interacción
(ver Habermas, op,cit. tomo II, 14 y Mardones 1991,114-118).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 382
Esta perspectiva se apoya también en las propuestas de Wittgestein II (citado por Briones
1988 y Habermas), de Searle, Austin y Grise; que asumen la necesidad de comprender los
actos comunicativos para poder descifrar la verdadera intencionalidad de los mismos.
Garfinkel (1994,23.) considera que "la mayoría de las interacciones que fundamentan la
estructura y el orden social, toman la forma de intercambios y transacciones lingüísticas
entre los miembros de una sociedad".
La posibilidad de conocer el mundo desde la perspectiva de los sujetos, en tanto
este es una representación de las vivencias que se van logrando durante la historia
cultural. Lo anterior recogiendo la posibilidad de emprender miradas del mundo subjetivo a partir de la búsqueda de posibles estructuras que lo configuran, para llegar a la
comprensión de las esencias de esas estructuras; esto, apoyados en las tendencias
flexibles del estructuralismo que asumen la estructura como algo dinámico y que
representan la intencionalidad de los sujetos mediadas por las acciones e interacciones;
como las armazones de Goffman, y el rechazo al funcionalismo estructural que asumen
Peter Blu y las teorías de redes (ver Ritzar,1996).
Considera que la realidad debe ser complementada con las múltiples miradas, lo que
constituye la necesidad de entender que la percepción se da en relación a los sujetos; por
tanto, sería incompleto un estudio que no tuviese en cuenta diferentes miradas sobre el
mismo fenómeno. Mockus (1994) siguiendo a Habermas, considera que es necesario
realizar la "comprensión de los textos culturales desde el análisis e interpretación de los
contratos de habla", los cuales se pueden comprender desde diferentes ángulos de
análisis.
Este elemento de la complementariedad, es denominado por los investigadores
cualitativos como Triangulación, que a decir de Hammersley y Atkinson (1994,216) es la
que "conlleva a la comprobación de información referente a un mismo fenómeno obtenida
en diferentes fases del trabajo de campo, desde diferentes puntos o ciclos temporales
existentes en el lugar, o comparando los relatos de los diferentes participantes". Para
Denzin 1978 y Patton 1980 (citados por Taylor y Bogdan 1996,91) la triangulación se
refiere a la utilización de distintos métodos o fuentes de datos (datos sustantivos y datos
formales).
Sandoval (1997,132) asocia la triangulación con el proceso de verificación de resultados, y
Velazco y Díaz de Rada (1999,223), con la contrastación en diferentes fuentes y
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 383
localización. Mariño (1991a, 77) realiza la triangulación desde la confrontación y
socialización de los diarios de campo (validez interna).
Esta estrategia metodológica facilita el desarrollo del principio de complementariedad, toda
vez que permite ver que tipo de acciones e interacciones forman pautas culturales; es lo
que Velazco y Díaz de Rada (1999,223) denominan "acceder al espacio público de la
cultura, según una multiplicidad de perspectivas y datos multirreferenciales". Desde esta
perspectiva, se considera la cultura como un estructura compleja que sería imposible de
captar desde una sola mirada; por eso, los datos recolectados sobre ella, deben ofrecer
múltiples facetas o matices remitiendo a una gran variedad de aspectos y niveles de la
realidad.
En síntesis, la triangulación que contempla este punto desde las múltiples miradas desde
el principio de complementariedad tiene en cuenta:
1. Los diferentes sujetos informantes que tengan relación con el fenómeno en la
observación de este (validación interna).
2. La observación del fenómeno desde diferentes ángulos geográficos e históricos.
3. Los diferentes contextos internos y externos que intervienen en el fenómeno a estudiar
(políticos, ideológicos, económicos y culturales).
4. Comprender la realidad cultural desde la confrontación entre el sujeto protagonista del
fenómeno, la interpretación del investigador (teoría sustantiva) y las teorías formales
desarrolladas sobre el fenómeno.
Los estudios deben realizarse donde tiene objeto la cotidianidad sin perder de vista lo externo. Esta pretensión trae una doble connotación para un estudio desde el principio
de complementariedad: En primer lugar, la necesidad de tener en cuenta los contextos
interno y externo que están relacionados con el fenómeno de investigación, lo que hace
posible una visión histórica del mismo. Por ejemplo, no es pertinente buscar la
comprensión de lo que sucede en un fenómeno educativo, desde la búsqueda de uno sólo
de sus comportamientos normativos (la relación alumno-maestro) sin tener en cuenta los
otros factores que en él mismo intervienen (el factor económico, el factor social, político, el
criterio ético, afectivo y pedagógico entre otros). En segundo lugar, la necesidad de
realizar los estudios desde dentro; es decir, desde la propia percepción de los sujetos
implicados.
En el proceso de conocimiento social es necesario tener en cuenta que el extraer el sujeto
o fenómeno del medio natural donde se genera el acontecimiento es negativo para la
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 384
comprensión, toda vez que el comportamiento de los sujetos cambia permanentemente y
de acuerdo a las características del contexto donde se están generando.
En la hermenéutica como base en los procesos de comprensión de sentidos y
significados de los escenarios sociales y de los sujetos que intervienen en ellos (tanto del
investigador como del investigado).
Las realidades de los sujetos desde las teorías del lenguaje, no sólo son objetivadas por
medio de los procesos comunicativos, sino que son incorporadas a través de dichos
procesos. Por ello, el lenguaje desde nuestra perspectiva, es asumido como la posibilidad
natural que tiene el individuo para expresar sus acciones y conciencia sobre el mundo. El
investigador y el investigado en un proceso de relación directa con el fenómeno, dejan
entrever mediante el lenguaje (sea hablado, escrito o expresivo) la forma como ellos están
interpretando el mundo. En tal razón, es la hermenéutica del lenguaje, la que propicia ese
acercamiento entre la realidad y el acto comunicativo, entre el dato descrito y la posibilidad
interpretativa, entre el saber lo observado y la comprensión de ese fenómeno. Este
planteamiento es aceptado por Berger y Luckman cuando consideran que "mediante el
lenguaje no sólo se objetiva el mundo subjetivo, sino que a su vez se incorpora el
conocimiento socialmente compartido".
La influencia de los sujetos en la percepción del mundo, pues considera que la mejor
forma para desentrañar una realidad sociocultural es estudiando a los sujetos que son
actores de esa realidad. Desde lo anterior, reconoce los aportes de Husserl (1997) y Prieto
Castillo (1993), en cuanto que la realidad es para los sujetos; pues son ellos quienes
asumen los elementos de una cultura, dándole sentido a cada uno de esos elementos y
proyectando su vida según ese sentido dado.
Searle (citado por Mardones, op.cit, 117) considera a propósito que "el significado de un
texto sólo puede aprehenderse sobre el trasfondo de una precomprensión, que
desarrollamos al crecer en nuestra cultura". En este mismo sentido J. Piaget (citado por
Poso, 1994) en sus estudios sobre psicología considera que el mundo es configurado y re-
configurado por los individuos. Así mismo otras teorías psicológicas como la desarrollada
por Colly Gallart (citado por Pérez y Gallego 1995, 99), consideran que "las competencias
cognoscitivas se hallan fuertemente ligadas al tipo de aprendizaje cognitivo en relación a
las prácticas sociales dominantes".
Precisamente, fundamentados en esta perspectiva, se han desarrollado diversas
investigaciones entre las que se encuentran las de Parra Sandoval (1997) y Francisco
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 385
Cajiao (1993) sobre las realidades educativas en Colombia; y los aportes investigativos de
Martínez, Mariño, Sánchez Parga, Bonilla y Rodríguez, Velasco y Díaz de Rada, De la
Cuesta, entre otros; todos ellos coinciden en que la estructura de un texto cultural, inicia
con los elementos que la propia cultura le otorga al investigador, presentados básicamente
en el lenguaje ordinario y en general en los procesos de comunicación que los sujetos
utilizan.
En la investigación acción participativa como un complemento operativo posterior de
los estudios cualitativos iniciales, tal y como lo propone Mariño (1991b,103). Lo anterior,
por cuanto no descartamos en nuestra perspectiva, el llegar a formular, comprobar o
refinar teorías, hipótesis y conceptos, siempre que ellos sean la resultante de la
comprensión de esa red de sentidos y significados socioculturales. Por lo anterior, el grupo
de investigación se identifica con las propuestas de Hamersley y Atkinson, Taylor y
Bogdan, y Glasser y Strauss (1967) en relación a que, lo mas importante, es la
comprensión y re definición de las acciones e interacciones desde los propios escenarios
donde estas se estén generando.
En las diferentes aportaciones de la investigación cualitativa; entre ellas: La
propuesta de Hoyos y Vargas en relación a la teoría de la acción comunicativa como
nuevo paradigma de investigación en ciencias sociales; los aportes de Mariño, 1991a)
sobre la investigación etnográfica aplicada a la educación (anotación sobre el diario de
campo en la cruzada de alfabetización en Nicaragua); Sandoval, referente a la
investigación cualitativa; Elsie Rockwell, sobre la etnografía y teoría de la investigación
educativa; Restrepo Gómez, en torno a la investigación en educación; Edwads, desde los
sujetos y la construcción social del sujeto escolar en primaria; Velazco y Díaz de Rada,
desde los aportes en la lógica de la investigación etnográfica; Hammersley y Atkinson, con
las aportaciones en etnografía Reflexiva, Taylor y Bogdan, en su texto introducción a los
métodos cualitativos de investigación y las aportaciones de Mardones, en torno al objeto
de las ciencias sociales y humanas.
En síntesis en, en un enfoque desde el principio de complementariedad es necesario tener
en cuenta:
Realizar los estudios sociales en su medio natural, tal y como lo enuncia el naturalismo.
La posibilidad de comprender la esencia de los fenómenos a partir del reconocimiento de
las acciones y experiencias de los sujetos, y su consolidación en estructuras
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 386
socioculturales; propuestas impulsadas por la Fenomenología, la Etnometodología y el
estructuralismo.
La importancia de comprender las redes de sentido y significado socioculturales desde los
procesos comunicativos en un contexto determinado, propias de la hermenéutica.
El apoyo en un paradigma teórico científico que reconozca la trascendencia de la
comunicación, la tradición y la historia, tal y como lo propone la teoría crítica.
La importancia de poder construir teoría a partir de la comparación constante, propuesta
por la teoría fundada.
La necesidad de reconocer los rasgos culturales y poder reflexionar sobre ellos a partir de
la propuesta de la etnografía reflexiva.
La posibilidad de apoyar los análisis de tipo individual y colectivo en historias orales y de
vida.
La posibilidad de utilizar algunos diseños previos de tipo flexible, que se puedan ir
reconfigurando en el proceso mismo de investigación.
La opción de utilizar algunas técnicas estadísticas, siempre que sean un medio en esa
búsqueda teórica para ayudar a comprender mejor la realidad.
La posibilidad de extender las propuestas comprensivas hacia la reflexión y cambio de
estructuras socioculturales mediante la crítica emancipadora de la comunidad, propia de la
Investigación Acción Participativa.
4.7.3. DISEÑO METODOLÓGICO
Desde las consideraciones anteriores se propone un diseño metodológico que tenga en
cuenta los elementos importantes de cada una de las tendencias de investigación
complementándolas entre si.
Asumimos que la forma de percepción del universo por el sujeto se hace manifiesta a
través de las acciones e interacciones que dicho sujeto expresa en una realidad
determinada; en tal sentido, es necesario estudiarlas en el escenario de relaciones
sociales de esa realidad con la menor influencia posible de un marco de inferencias
apriorísticas. Esto es, con un referente conceptual limitado, el cual se utilizaría para una
mejor comprensión de los aspectos a investigar.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 387
4.7.4. ESTRUCTURA DEL DISEÑO DE INVESTIGACIÓN
Preconfiguración de la Realidad< = > Plan de Configuración
\\ //
Reconfiguración de la Realidad
El diseño consta de tres momentos, los cuales interactúan a lo largo de todo el proceso de
investigación y trabajo de campo, con el objetivo de ir configurando la estructura
sociocultural (ver Murcia y Jaramillo 2000).
Con el objeto de clarificar un poco el desarrollo de los tres momentos, estos serán
abordados por separado a continuación:
4.7.4.1. PRIMER MOMENTO (PRECONFIGURACIÓN)
En este momento, se hace una aproximación a la realidad sociocultural desde un
acercamiento a la teoría formal (perspectiva deductiva) y a la teoría sustantiva
(perspectiva inductiva) (1), con el fin de focalizar un interrogante o problema de
investigación respecto a la realidad que se desea comprender, la cual se denomina en
esta propuesta "posible dimensión temática".
Como se delimita la temática desde lo inductivo. Para delimitar y definir la dimensión
temática desde lo inductivo es necesario iniciar el acceso al escenario de investigación; es
decir, comenzar los contactos con los diferentes sujetos involucrados en el fenómeno
social, para posibilitar una negociación de relaciones, esto es la iniciación del trabajo de
campo, teniendo en cuenta la mirada interna y externa de la realidad.
Es como preparar el acceso al trabajo de campo desde una guía de observación inicial la
cual se estructura de acuerdo a la intencionalidad de los investigadores.
Como se precisó anteriormente, este primer momento (preconfiguración), es el que
permite al investigador asumir una dirección inicial en la selección del tema, para irla
condensando y delimitando de forma progresiva; el investigador, apoyado en un plan de
acción inicial, deberá asumir procesos de interacción con el grupo en estudio, del que
surgirán los primeros elementos pre-configuradores de esa realidad, los cuales serán
enriquecidos con procesos de búsqueda teórica que se desarrolla de forma paralela.
Como delimitar el área desde lo deductivo. En la preconfiguración, debe existir una
estrecha relación entre la teoría y la práctica cultural, pues existe la necesidad de
comprender el fenómeno estudiado y en muchas ocasiones la sola descripción de la
realidad no nos permite dicha interpretación.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 388
Por tanto, el proceso deductivo implica la búsqueda teórica de los elementos que
configuran la temática de estudio, la cual debe realizarse en forma paralela a la búsqueda
empírica, para evitar en lo posible, juicios sesgados sobre la estructura que la realidad nos
va mostrando.
Esta práctica complementaria, es importante además por cuanto permite conocer otros
estudios en relación al área o a la temática; y junto con los primeros hallazgos inductivos
ayuda a definir una posible pre- estructura sociocultural.
Pre-Estructura Sociocultural. Una vez clarificado el escenario desde el proceso inductivo
y deductivo, se procede a establecer una Pre-estructura que represente de manera
articulada los elementos encontrados en la realidad.
Recordando que los elementos de una estructura no tienen significado por sí solos, sino
que estos se deben a las relaciones que poseen entre si, es posible representar esa
estructura inicialmente encontrada, en un ideograma o mapa conceptual.
4.7.4.2. SEGUNDO MOMENTO: PLAN DE CONFIGURACIÓN
A partir de la pre-estructura encontrada, se elabora una segunda guía que nos ayuda a
buscar la estructura propiamente dicha de la realidad investigada, mediante un proceso
profundo de trabajo de campo.
Elementos posibles de la segunda guía o guía de configuración: 1. La indagación central a solucionar. (Formulando el problema emergente desde la pre
configuración de la estructura sociocultural).
2. Las preguntas de investigación. (La orientación a partir de otros interrogantes surgidos
desde los elementos de la pre- estructura)
3. La metodología de la investigación (Los procedimientos para llegar a desentrañar la
estructura sociocultural)
3.1 Población e informantes claves: hacia la representatividad sociocultural.
3.2 Métodos de recolección de información :
3.3 Entrevista a profundidad.
3.4 La observación participante
3.5 Otras posibles técnicas
4. Desarrollo de la guía de investigación (trabajo de campo en profundidad).
El trabajo de campo propiamente dicho inicia cuando se pone en marcha el diseño hasta
aquí elaborado. Lo mas importante en este proceso es lograr la saturación total o teórica
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 389
de los datos a través de la relación constante y permanente que se establece con los
informantes claves, a tal punto de alcanzar un alto nivel de empatía y que posibilite la
veracidad de la información recolectada.
Existen muchas formas de acopiar la información, lo importante es que se pueda tener el
dato a la mano en el momento que se necesite y sin perder el contexto en el que se
produjo el relato (relación sentido).
4.7.4.3. EN EL TERCER MOMENTO O RECONFIGURACIÓN
En este momento, se exponen los hallazgos de la investigación, donde se redimensiona la
estructura sociocultural, a partir de la relación : elementos teóricos, interpretación del
investigador y datos culturales; es decir, se inicia la comprensión de sentido a una
estructura sociocultural.
Qué pretende el análisis en un proceso de Complementariedad: Partimos de recordar
que la propuesta, busca la complementariedad entre las tendencias de investigación, por
eso el procesamiento de la información se mueve entre aquellos estudios considerados
descriptivos y aquellos considerados teóricos o conceptuales (Ver Taylor y Bogdan 1996).
Lo importante es que el escenario relatado se presente con gran fidelidad, pero matizado
por las percepciones del investigador y por las teorías sociológicas o disciplinares según
sea el estudio.
Qué es reconfigurar la realidad? La reconfiguración de la estructura ciertamente no es
un momento independiente del momento anterior (configuración), aunque ningún momento
lo es, pero el paso de la configuración a la reconfiguración, podría decirse que es paralelo,
en tanto una vez los elementos de la estructura van emergiendo, estos se van analizando
y articulando con la teoría formal; y desde esta relación se construye la comprensión con
sentido del fenómeno; es decir, se redimensiona la estructura desde la comprensión que la
teoría nos aporta sobre las categorías culturales.
Se asume así mismo el proceso de reconfiguración, como un momento de confrontación,
logrado desde la realidad empírica y contrastada con la realidad conceptual ; pues no se
puede caer aquí en la especulación del racionalismo técnico, que al decir de Tedezco
(1989), no ha podido dar explicación a los fenómenos sociales; ni en el reduccionismo de
la casuística, que no permite visualizar una dimensión histórica del fenómeno.
En términos generales, en una investigación etnográfica cuyo interés está fundamentado
en la comprensión de las acciones e interacciones de un escenario sociocultural, los datos
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 390
deben analizarse permanentemente, para desde ese análisis, poder reorientar el proceso,
e ir comprendiendo esa realidad; por eso, proponemos algunas recomendaciones en la
elaboración de los informes.
Por último un informe escrito debe contener: el modo como se recogieron e interpretaron
los datos, tiempo y extensión del estudio, naturaleza y número de escenarios e
informantes y encuadre mental del investigador; o sea, su ubicación epistemológica en
torno a la investigación en ciencias sociales (ver Hammersley y Atkinson op.cit 1994)
Algunas investigaciones que se han realizado con esta propuesta son las siguientes:
La danza y la promoción ético moral en adolescentes marginados, la cual tuvo por objetivo
desentrañar las acciones e interacciones de los adolescentes por medio de la práctica de
diferentes manifestaciones dancísticas como el rap, el rock and roll y la danza latina.
(Murcia Jaramillo y Castro 1996)
El fútbol femenino. Producto de estigmatización cultural en la mujer de hoy. En este
trabajo se vislumbra claramente como la mujer que practica fútbol es víctima del
machismo y el estigma de brusquedad y homosexualidad por el sólo hecho de realizar
esta práctica deportiva. (Murcia, Arango, Castañeda y Duque 1997)
Nuevos sentidos de los discapacitados visuales con relación a la Educación Física, la
Recreación y del Deporte. En esta investigación, los discapacitados consideran como ellos
viven en una sociedad discapacitante que no comprende sus posibilidades de percibir por
medio de otros sentidos. (Jaramillo, Ortiz, Palacio,1998)
Percepción de los estudiante de I y VIII semestres de la carrera de Educación Física
Recreación y Deporte de la Universidad de Caldas de la Ciudad de Manizales. Donde se
pudo comprender como los estudiantes ven la carrera como una acumulación de
asignaturas aisladas y que brindan poco apoyo en su desempeño profesional. (Jaramillo,
Arroyave, Bedoya, Osorio, Toro, Ospina y Marín, 1998)
La recreación y la producción empresarial en MABE de Colombia, investigación que pudo
comprender como los procesos de producción empresarial se ven afectados positivamente
por la generación de actividades recreativas de la empresa. (Murcia, y estudiantes 1998)
El baile de salón como ejercicio físico en los ancianos que asisten a la Caja de
Compensación Familiar (Confamiliares) de la ciudad de Manizales. (Jaramillo, Gómez y
Zuluaga 1999)
El Sentido de la Recreación encontrado por los Trabajadores de la CHEC de Manizales.
(Murcia y estudiantes 1997)
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 391
Una aproximación al sentir de los Riosuseños frente al carnaval y a su máxima expresión
de ingenio y creatividad: las cuadrillas ( Jaramillo, Mafla, Pérez, Pinzón y Toro 1999).
Esta propuesta de diseño metodológico fue estructurada en el transcurso de nuestra labor
académica, y se ha ido modificando en los constantes encuentros con los escenarios de
búsqueda y los estudiantes investigadores que se han atrevido a compleja tarea de
comprender las realidades socioculturales de nuestro entorno.
4.7.5. REFERENCIAS
o BONILLA C. Elsy, RODRIGUEZ S., Penélope. La investigación en Ciencias
Sociales. Más allá del dilema de los métodos. Bogotá: Universidad de los Andes.
1997. 219p. ISBN: 958-9057-72-1.
o BRIONES, Guillermo. Bogotá: Métodos y técnicas avanzadas de Investigación
aplicadas a la Educación y a las Ciencias sociales. Módulo 1. Metodología y
epistemología de la investigación social. 2ª Ed. Santafé de Bogotá: ICFES, 1988.
150.p.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 392
<
4.8. ANÁLISIS CUALITATIVO
4.8.1. EL PUNTO DE PARTIDA DEL ANÁLISIS CUALITATIVO
Por investigación cualitativa entendemos estudios que proporcionan una descripción
verbal o explicación del fenómeno estudiado, su esencia, naturaleza, comportamiento, en
contraste con la exposición ofrecida en la investigación cuantitativa: cifras. La
investigación cualitativa es corriente en las ciencias humanas, mientras que en las
ciencias naturales la tendencia es a favor del enfoque cuantitativo. No obstante, muchos
fenómenos pueden ser estudiados con cualquiera de ambos métodos, o con ambos, y es
al investigador a quien corresponde elegir.
A veces el análisis puede estar basado en un modelo teórico anterior que tal vez pueda
ser tratado en una hipotésis que pongamos a prueba. La presencia o ausencia de tal
modelo afecta en gran medida al proceso lógico de análisis. A este respecto hay tres
alternativas principales:
• investigación exploratoria,
• investigación con miras a la amplición o depuración de un modelo anterior, y
• investigación para probar hipótesis (escasa en investigación cualitativa).
Investigación exploratoria
Cuando se comienza un proyecto de investigación, tenemos que tener al menos una idea
preliminar de nuestro objeto de estudio y de su contexto. Durante el proyecto de
investigación exploratoria estos conceptos incipientes mejorarán gradualmente. Muchos
objetos pueden ser mirados desde varios puntos de vista diferentes; debemos elegir
nuestro punto de vista y explicar cómo "entendemos" el objeto. Esto no significa que
tengamos que empezar nuestro trabajo por clarificar la esencia de nuestro objeto de
estudio, es decir: lo que el objeto es realmente. En lugar de eso, debemos intentar
contemplar y clarificar cómo vemos el objeto, ya sea posible por ejemplo que sea definido
en un micronivel como resultado de instintos individuales, móviles y experiencias, o quizás
en un macronivel como una expresión de desarrollo en sociedad.
Los investigadores han definido y estudiado, por ejemplo, el concepto de "belleza" de
forma alternativa como un atributo de los objetos, como un atributo de la percepción o
como una propiedad de Dios. (Ejemplos.)
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 393
El progreso de un proyecto de estudio se hace más fácil en cuanto hemos definido nuestro
problema. Tras esto, vamos a necesitar reunir sólo aquel conocimiento empírico
relacionado con el problema; esto nos permitirá minimizar el material que tendremos que
analizar.
Sin embargo, a veces es difícil definir a priori lo que es pertinente; es algo que sólo llega a
serlo de forma manifiesta a través del análisis. Muchas veces necesitaremos reunir gran
cantidad de material antes de definir el objetivo final de nuestro proyecto. En otras
palabras, parte del material tal vez no será usado en el análisis final.
Obstáculos aparte, debiéramos centrarnos en definir el problema tan pronto como sea
posible. La definición nos ayudará a seleccionar los mejores procedimientos y a reducir la
cantidad de material que ha de ser procesado. Raramente será posible dividir el estudio
cualitativo en fases tan claras como las que son comunes en el trabajo cuantitativo. De
acuerdo con Alasuutari (p.22), en un análisis de hallazgos empíricos, se podrían distinguir
dos fases, pero éstas se solapan. Estas fases serían:
simplificación de observaciones
interpretación de resultados (o "resolver el enigma")
En la fase de simplificación, el material es inspeccionado desde el punto de vista teórico
del proyecto de estudio, y sólo los puntos pertinentes desde este ángulo se toman en
cuenta. Los detalles que difieren de un individuo a otro de forma aleatoria se omiten o se
ponen de lado de forma que las líneas generales de los datos puedan ser discernidas más
fácilmente.
La segunda fase consiste en una clasificación de las observaciones: el investigador intenta
ver si hay algún común denominador en los datos y procede a dar forma a una regla que
gobierna todas las observaciones. Esta estructura general pudieran ser los rasgos típicos
de un cierto individuo o la comparación o clasificación de individuos o casos, o tomar nota
de su desarrollo. Todos estas aproximaciones al problema serán explicadas más tarde
bajo los encabezamientos correspondientes. "Resolver el enigma" no siempre significa
contestar exactamente a aquellas preguntas que fueron formuladas en el comienzo del
proyecto. A veces las preguntas más interesantes se encuentran al final de la
investigación, cuando el investigador es un experto en el tema. Se suele decir que "los
datos enseñan al investigador". En todo caso, el propósito final es extraer una invariancia
o una estructura interesante a partir del material fuente.
Investigación sobre la base de una teoría anterior
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 394
Muchos de los problemas de la investigación exploratoria se pueden evitar si el
investigador comienza con un modelo, desarrollado en estudios anteriores, que usa como
"hipótesis de trabajo". Durante el análisis, el investigador intenta ver si el material recogido
es conforme al modelo o si debe corregir el modelo o buscar uno más apropiado.
Estudio basado en hipótesis
En estudios cualitativos raramente es posible formulas una hipótesis tan exacta que pueda
ser rigurosamente verificada y potencialmente rechazada. En lugar de esto, cuando un
investigador de cualidades habla de hipótesis, lo que suele querer indicar es a una
hipótesis de trabajo, o una suposición que irá gradualmente reforzando o corrigiendo
cuando el estudio avance. Si el investigador desea formular y probar apropiadamente una
hipótesis cualitativa, la metodología es la misma que en el estudio basado en hipótesis de
tipo cuantitativo.
4.8.2. ANÁLISIS DESCRIPTIVO CUALITATIVO: UNA REVISIÓN DE LOS MÉTODOS
El método para el análisis descriptivo cualitativo suele poder ser elegido de la tabla de
abajo. Los métodos para estudios exploratorios están marcados con la letra X al final de
cada columna, mientras que la M indica que el estudio debe estar basado en un modelo
teórico existente ya en el punto de partida del estudio.
Tabla 12: Caracteristicas de los estudios
El estudio concierne a un solo caso:
Estudio de caso: - Estudio exploratorio de caso X - - Describir un caso extraordinario X - - Documentar X - - Estudio fenomenológico X - Estudio de caso sobre la base de un modelo previoM
El estudio concierne a dos casos: Estudio comparativo X, M
Estudio transeccional, o investigación sin perspectiva temporal
El estudio concierne un número de casos:
Clasificación: - Clasificaciones autóctonas X - Clasificaciones basadas en propiedadesM - Tipologías M - Clasificaciones difusas X, M
Investigación diacrónica, o Estudio histórico- Historias de Artefactos X - Historias de Diseño y Manufactura M - Biografías X, (M)
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 395
La investigación normativa se trata separadamente en Análisis normativo cualitativo.
Estudio de caso
En el estudio de caso, o monografía, estudiamos sólo un objeto o un caso. En
consecuencia, los resultados que obtendremos permanecerán ciertos sólo en ese caso
singular; es por lo que puede parecer que los resultados no serán muy útiles por no poder
ser aplicados de modo inmediato a otros casos que podrían aparecer y requerir soluciones
prácticas.
A pesar de esto, los estudios de caso se hacen en ocasiones y la razón típica para ello es
que el objeto es tan complicado que el investigador debe centrar todas sus energías en el
estudio del objeto singular para revelar sus múltiples atributos y relaciones complejas con
el contexto.
Objetos típicos de estudios cualitativos de casos son los productos culturales, los artistas
destacados, personas que están usando los artefactos, sus modos de vida y situaciones
sociales típicas. Los puntos de vista relacionados con la selección de nuestro objeto se
tratan bajo el epígrafe Delimitar la población de estudio.
En el estudio de caso, el investigador suele apuntar a adquirir la percepción más completa
posible del objeto, considerándolo como una entidad holística, cuyos atributos podemos
entender en su totalidad solamente en el momento en que examinemos todos
simultáneamente, en otras palabras: el objeto como un todo.
Cuando el investigador comienza ahora a construir la visión descriptiva del objeto de
estudio, la cuestión decisiva es si hay ya modelos que puedan ser usados como una base
o punto de partida. A este respecto, los extremos son los dos siguientes:
Estudio exploratorio de caso, y
Estudio de caso sobre la base de una teoría anterior.
1. Estudio exploratorio de caso. La razón para no basar el estudio en un modelo o teoría
previos puede ser:
No hay modelo teórico previo. El objeto de estudio difiere de todos los objetos anteriores y
el objetivo del estudio es describir su carácter excepcional. El objetivo es documentar el objeto de forma tan completa como sea posible, y no sólo
aquellos temas que fueron documentados en estudios anteriores.
búsqueda fenomenológica de una comprensión profunda y desconfianza en las
anteriores descripciones y explicaciones.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 396
Describir el carácter excepcional del objeto era en otro tiempo un objetivo habitual de los
estudios de caso. Los más tempranos informes publicados de investigaciones describían
obras de arte en la antigua Grecia. Pronto también aparecieron monografías sobre gente
eminente escritas por Plutarco y Suetonio. Realmente las primeras monografías de artistas
fueron las Vite de' piu eccellenti architetti, pittori e scultori escritas por Vasari (1568) y la
autobiografía de Cellini (1569).
Los primeros autores de monografías deseaban describir los rasgos singulares,
dramáticos o divertidos de los objetos, y lo mismo es cierto en muchos de sus sucesores
modernos. Hoy en día, las organizaciones industriales o administrativas a veces encargan
en ocasiones monografías sobre ellas mismas, con el fin implícito de aparecer a una luz
favorable en el libro. Por ello, es esencial la crítica de fuentes, cuando tales obras se usan
por otros investigadores.
Documentar es algo necesario si el objeto está en peligro de desaparición. Tal cosa, por
supuesto, ocurre con frecuencia a artefactos así como a sus creadores. El objetivo de
documentar es reunir tantos hechos como sea posible, y por esta razón esta actividad se
trata bajo el epígrafe Reunir datos.
El análisis fenomenológico significa abordar el objeto de estudio, el fenómeno, como una
experiencia concreta del hombre, tan libres como se pueda de presuposiciones
conceptuales. El objetivo de la investigación fenomenológica es adquirir una comprensión
de las estructuras esenciales de estos fenómenos sobre la base de ejemplos mentales
proporcionados por la experiencia o la imaginación y por una variación sistemática de
estos ejemplos en la imaginación. Esta técnica de recogida de información es descrita en
otro lugar, entre otros métodos para Registrar atributos cualitativos de Objetos.
Zu den Sachen selbst (A las cosas mismas) fue la divisa de Edmund Husserl, el más
eminente autor sobre el método fenomenológico durante los años 1906-1936. El método
básico del análisis fenomenológico es la reducción. Primero, la existencia del objeto de
estudio ha de ser "puesta entre paréntesis", no porque el filósofo deba dudar de ella, sino
porque las condiciones en torno al objeto de estudio están sujetas a varias coincidencias
que pueden oscurecer su esencia real.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 397
Ilustración 16: Metodo fenomenologico
El segundo paso es la reducción eidética. El fin es encontrar la esencia universal e
inmutable o estructura del objeto. Un método adecuado es imaginar variaciones del objeto
de estudio y centrar nuestra atención en lo que permanece sin cambios en estas
variaciones.
El tercer y último paso debe ser la reducción transcendental, a través de la cual el
investigador vuelve a su ego transcendental como la base para la fundación y constitución
(o formación) de todo significado (alemán Sinn). Entonces comprende cómo el significado
está basado en significados, como los estratos en un proceso de sedimentación. Esta
tercera fase del método era, sin embargo, algo que quedaba bastante oscuro en los
escritos de Husserl, aunque él intentase clarificarla hasta el final de su vida. Su
interpretación llevaría más tarde a una división del movimiento fenomenológico.
(Resumido de la Encyclopaedia Britannica.)
Los fenomenologistas creen que su método da una más profunda información sobre el
mundo empírico de la que puedan ofrecer los métodos empíricos usuales. Heidegger dio
una explicación existencialista para esto diciendo que una comprensión fenomenológica
viene de la existencia (das Sein) común al investigador y lo investigado:
"Comprender es lo mismo que el ser existencial relacionado con el propio ser y capacidad
de un ser humano, y tiene lugar en tal modo que este ser refleja el sentido de su propia
existencia a su vez en sí mismo (del libro Sein und Zeit, 1972, 78)... "Cuando nuestra
comprensión se desarrolla, la llamamos interpretación. En la interpretación no adquirimos
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 398
conocimiento sobre lo que entendemos; en lugar de ello, interpretar consiste en ser
consciente de las potencialidadess proyectadas por la comprensión" (ibid., 82, 32).
En lenguaje llano, una de las implicaciones de estas líneas podría ser que todos
encuentran lo más fácil entender los productos de su propia cultura, y la interpretación
parte desde el investigador más que desde los datos.
Se ha incluido una explicación detenida del método fenomenológico porque muchos
investigadores hoy afirman usarlo. Es, de hecho, un método muy apropiado para el
investigador: "Cuando la misma persona hace las preguntas y da las respuestas, no queda
nada cuestionable." Sin embargo, en la práctica, el pretendido "método fenomenológico"
con frecuencia simplemente indica que el escritor ha hecho un esfuerzo especial para
mediar en los atributos simbólicos y asociativos del objeto de estudio.
Direcciones en el WWW sobre fenomenología:
Fenomenología
Martin Heidegger
2. Estudio de caso basado en teoría previa. Hoy en día, todos los temas del mundo han
sido ya estudiados por uno o más campos especiales de la investigación. Toda pregunta
concebible u objeto de estudio de caso pueden ahora en consecuencia haber sido
investigados a la luz de teoría previa.
Las obras de arte, por ejemplo, pueden ser estudiadas sobre la base del análisis
estructural, el análisis de contenido o la semiología. (Véanse ejemplos de los distintos
enfoques de la estética.)
El estudio de los artistas puede obviamente estar basado en cualquiera de las muchas
teorías que interpretan el comportamiento humano como resultado de circunstancias
sociales y culturales. El francés Charles Sainte-Beuve (1804 - 1869) e Hippolyte Taine
(1828 - 1893) fueron pioneros del estudio sociológico del arte.
Wilhelm Scherer fue el primero en presentar un modelo general para las biografías de
artistas. El modelo explica el carácter especial de cada artistas por tres factores, que eran,
das Ererbte (los elementos heredados)
das Erlebte (las experiencias) y
das Erlernte (lo que el artista ha aprendido).
Sobre esta base, el enfoque psicológico ganó gran popularidad en el estudio del arte y los
artistas, especialmente tras la obra de Sigmund Freud.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 399
Salvo las más superficiales, todas las monografías estudian el objeto sucesivamente
desde varios puntos de vista, cada undo de los cuales está basado en una teoría existente
hecha por investigadores anteriores (véase la figura de la derecha). Cada punto de vista
añade algo al cuadro general. Muchas veces, cuanto más conflictivas son las presiones en
varias direcciones, más interesante puede llegar a ser la monografía.
4.8.3. ESTUDIO COMPARATIVO
El método comparativo significa que estudiamos ejemplares que pertenecen al mismo
grupo pero que difieren en algunos aspectos. En un nivel elemental, la comparación puede
ser útil cuando el investigador no está interesado en diferencias sino en un caso singular.
Si el objeto que interesa pertenece al entorno cultural normal del investigador, no siempre
son fáciles de percibir sus características especiales. El caso puede aparece demasiado
obvio y no problemático. "Un pez no puede notar que vive en el agua." Un método para
revelar la naturaleza específica de un objeto demasiado-bien-conocido es compararlo con
otros casos o ejemplares.
Imagen 8: Comparaciones cualitativas
Un ejemplo del empleo arriba mencionado de la comparación puede encontrarse en el
estudio Products as Representations, (Productos como representaciones) de Susann
Vihma. La autora examinó metáforas de equipos domésticos. Entre sus objetos de estudio
estaban doce planchas de vapor, cinco de las cuales se representan en la foto de arriba.
Descubrió que cuando se estudiaba cada ejemplar aisladamente no era fácil captar su
mensaje simbólico; esto se volvía más fácil cuando el objeto se estudiaba junto con otros
objetos similares o cuando dos objetos podían ser comparados entre sí.
El método comparativo suele ser popular en un cierto estadio de la evolución de un campo
de investigación, cuando los científicos intentan salir del nivel inicial de los estudios
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 400
exploratorios de caso a uno nivel más avanzado de estructuras teóricas generales o leyes.
En estos estudios, las diferencias entre varios casos singulares pueden revelar
interesantes estructuras, invariancias, que son válidas en un grupo más amplio de casos u
objetos, o tal vez incluso de forma universal.
Si deseamos obtener resultados que sean válidos en un cierto grupo, debemos definir éste
como una población de objetos, de casos, y a partir de ese momento debemos considerar
qué tamaño ha de tener la muestra de esta población que tenemos que estudiar. Muchas
veces una muestra de solamente dos ejemplares o casos no es bastante para eliminar
perturbaciones y variaciones indeseadas; en ese caso tendríamos que comparar varios
pares, o clases de casos o ejemplares.
En otras palabras, el diseño de nuestra investigación se convierte en una forma de
clasificación. Con frecuencia el material que ha de ser comparado se registra a partir de
los casos o ejemplares existentes en el "campo". La otra alternativa es montar un
experimento en el laboratorio. El trabajo de campos suele significar una buena validez
pero muchas veces una inferior fiabilidad de los resultados: hay mucha variación aleatoria
y perturbaciones que obstruyen el estudio de solamente aquellas diferencias en que el
investigador está interesado.
Clasificación
Cuando va a ser estudiado un gran número de objetos, puede ser útil estructurar la
agrupación material de los objetos en clases. La base de la agrupación es proporcionada
normalmente por el punto de partida teórico, y suele ser uno de los atributos importantes
de los objetos. Todos los miembros en una clase tienen este atributo nombrado, o lo
tienen en mayor grado que otros objetos.
La clasificación de acuerdo con solo un atributo es raras veces muy gratificante. Bien
distinta es la situación cuando tenemos dos o más propiedades que nos interesan de los
objetos o casos: entonces podemos construir una tabulación cruzada que es muy una
herramienta muy efectiva si queremos revelar una asociación entre estos factores.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 401
Tabla 13: Tabulación Cruzada
El ejemplo ficticio de la derecha ilustra una tabulación cruzada, y una fuerte asociación, de
dos atributos de los respondientes: la marca de su aspiradora y su intención de
mantenerse fieles a la vieja marca. De esta fuerte asociación puede ser hecho uso por
ejemplo cuando se planifican futuras campañas de ventas. (La fuerza de una asociación
estadística puede ser medida con una prueba chi.)
Qué atributo es "interesante", es algo que será definido por el problema inicial del estudio
y por el modelo teórico que se usa como punto de partida. Más adelante se explican
algunos principios habituales de clasificación. Las categorías autóctonas son nombres
de grupos tradicionalmente usados, por ejemplo: americanos, Los impresionistas. Las
clasificaciones basadas en propiedades tienen su origen en el modelo teórico que el
investigador tiene como punto de partida. Estas clasificaciones no son, de este modo,
factibles en la investigación exploratoria. Si es posible medir este atributo interesante, el
análisis se convierte en cuantitativo y eso se trata bajo el epígrafe Tabulación. Las
clasificaciones basadas en atributos cualitativos son comunes en la sociología. Los
miembros de una sociedad se disponen sobre la base de la profesión, educación, renta,
atributos demográficos, etc. Las familias son muchas veces clasificadas de acuerdo con la
"fase" de la familia:
La familia posee una aspiradora de la marca ZIP
La familia posee una aspiradora pero no es una ZIP
La familia no posee una aspiradora
La próxima aspiradora de la familia será quizás una ZIP
31 respuestas 20 respuestas 1 respuesta
La próxima aspiradora de la familia no será una ZIP 3 respuestas 36 respuestas 0 respuestas
La pregunta no es pertinente o no hay respuesta
6 respuestas 30 respuestas 1 respuesta
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 402
Tabla 14: Fases de una familia
Comienzo de la fase Fase de Familia Matrimonio, etc. Establecimiento de la familia Nacimiento del primer hijo Crecimiento de la familia Nacimiento del último hijo Periodo estático El primer hijo deja el hogar Contracción de la familia El último hijo deja el hogar Fase postparental El primer progenitor fallece Desintegración de la familia El segundo progenitor fallece -
Los ejemplos de clasificaciones interesantes comercialmente son las segmentaciones de
potenciales clientes.
Toda clasificación trabaja mejor cuando los límites entre las categorías son tajantes y hay
pocos casos intermedios. Podemos siempre añadir una categoría llamada "otros", pero
eso complica el análisis.
Ilustración 17: Clasificación de ornamentación
Una clasificación meticulosa fue hecha por Rostislav Holthoer, en New Kingdom Pharaonic
Sites [Los yacimientos faraónicos del Imperio Nuevo] (1977, 56). Clasificó más de 3000
ejemplares de cerámica antigua de acuerdo con su ornamentación. Definió las clases a
través de las pinturas y también verbalmente:
Ilustración 18: Clasificación de simbolos
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 403
Línea
Línea ondulada
Línea punteada
Líneas cruzadas
Fila de rectángulos
Fila de triángulos
Además, Holthoer hizo otra clasificación sobre la base de las líneas que el artista de la
antigüedad había dibujado sobre los motivos:
Sin línea
Líneas a ambos lados de los motivos
Línea a lo largo del motivo
Líneas a través y a ambos lados
Considerando la variación en los 3000 recipientes de Holthoer, su clasificación era
admirablemente explícita y el número de ejemplares no acorde con alguna de estas clases
era mínimo. Los artefactos modernos y las obras de arte pueden resultar más difíciles de
clasificar.
La tipología es un método de clasificación donde cada clase es formada en torno a un
ejemplar "típico" o "puro" predefinido. Cada objeto de estudio es comparado entonces a
este conjunto de ejemplares, y asignado a la clase más acorde con el ejemplar. La
debilidad de este método es que muchas veces es imposible medir la adecuación de la
concordancia con la clase; con lo que la clasificación final de los objetos resulta más bien
subjetiva. El riesgo es pequeño si el número de casos intermedios es pequeño, como tal
vez sea el caso de los nudos de alfombra. Sólo hay un número limitado de nudos, y cada
nudo es inequívocamente discernible de los otros, como se puede ver en la ilustración
hecha por Geijer en el libro A History of Textile Art. En lo que respecta a la mayor parte de
los demás artefactos, hay un número ilimitado de variaciones y por tanto de posibles
clasificaciones o tipologías.
La subjetividad del método tipológico se intensifica cuando una misma persona, es decir,
el investigador, es quien define los tipos-clases y coloca los objetos en ellos. Se vuelve
entonces muy fácil para él el demostrar la validez de su tipología favorita. Esto es -¡ay!-
bastante común en investigadores que sencillamente desprecian (como "no típicos") todos
los objetos o casos que no son acordes con la clasificación prefabricada, en lugar de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 404
corregir la misma clasificación caduca. La corrección obvia, por supuesto, es que la
clasificación final debiera ser hecha por otra persona neutral.
Clasificaciones difusas. Si el investigador no puede definir ningún atributo único que
determine la clase, puede, en lugar de ello, intentar clasificar los objetos sobre la base de
una semejanza de familia. Esto significa que no hay ningún rasgo único que deba ser
común a todos los miembros de una clase; en lugar de ello, hay una lista de rasgos
potenciales. Cada miembro de la clase tiene la mayor parte de ellos, pero no
necesariamente todos ellos.
Un ejemplo de clasificación difusa es la manera en que se disponen habitualmente las
historias del arte, el estilo. Indica en una obra de arte, el agregado de todas las
características personales del artista. Un estilo es, en cierto grado, común a todos los
artistas pertenecientes a una "escuela" de artistas. De este modo un estilo puede incluir
miles de obras y habrá probablemente muchas que quedarán cerca de las fronteras de la
clase o puedan ser colocadas en cualquiera de ambos lados de la frontera. Esto conlleva
otra vez los riesgos de la subjetividad.
Los problemas de las clasificaciones estilísticas se tratan en:
Semper: Der Stil (1860),
Riegl: Stilfragen (1893),
Wölfflin: Kunstgeschichtliche Grundbegriffe
(1915),
Walker: Design history and the history of
design (1989).
Las clasificaciones sobre la base de
mediciones se tratan en el capítulo
Investigación cuantitativa.
La frecuencia de una clase es una variable aritmética. De este modo se abre un camino
para transformar descripciones cualitativas en variables cuantitativas que en ese momento
pueden ser analizadas con todos los métodos estadísticos (si eso es lo que el investigador
quiere).
Estudio histórico
Cuando definimos nuestro ángulo de visión sobre nuestro objeto de estudio, tenemos que
considerar la dimensión del tiempo. A este respecto tenemos las siguiente opciones,
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 405
La investigación transeccional o sincrónica es una buena elección si nuestro objeto es
relativamente estático, o si deliberadamente deseamos hacer una "imagen congelada" de
una situación inestable; un ejemplo de esto es el censo nacional anual. Sin embargo, si
deseamos estudiar relaciones
causales, la "imagen congelada"
es un vehículo pobre; véase el ejemplo
de arriba donde la intención es
descubrir porqué fue elegido
cierto diseño para la tetera.
El estudio longitudinal o diacrónico
es una herramienta efectiva para revelar influencias y relaciones causales, tanto físicas
como psicológicas. Por este método Penny Sparke fue
capaz de explicar la evolución de las aplicaciones
eléctricas domésticas sobre la base de la evolución de
las convenciones de la vida doméstica y de la industria
(véase el diagrama de la izquierda. El inconveniente es
que necesitamos reunir muchos más datos que en el
método de la "imagen congelada". La variación en el
lapso período de tiempo de la investigación es grande:
algunos procesos físicos pueden durar menos de un
segundo, mientras que un estudio de seguimiento de
las historias personales de individuos puede que
requiera estudiar a las mismas personas durante
décadas.
En el estudio diacrónico de artefactos hay dos líneas
principales que también es posible combinar (para una
explicación más profunda, véase Walker, Design
history and the history of design, 1989).
Los estudios de historias de artefactos (que Walker
llama "Historias de Diseño") tratan la evolución de un cierto tipo de productos o artefactos.
Por ejemplo, en los libros llamados "Historia de la Arquitectura" encontraremos
descripciones de edificios famosos antiguos y recientes. De manera similar, Raymond
Loewy da cuenta en el libro Industrial Design de una larga serie de sus dibujos y explica
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 406
algunas características de la progresión gradual de su apariencia. En la página 74 se
encuentra una ilustración muchas veces citada, "Evolution Chart of Design" parte de la
cual vemos a la derecha. Loewy no da una explicación general o "ley natural" de esta
evolución.
Las historias de diseño están centradas en los artefactos, su apariencia y forma. El estilo
y periodo estilístico son estructuras teóricas capitales. Las fases en el desarrollo de un
estilo de diseño se definen convencionalmente como crecimiento, madurez o florecimiento
y declive o decadencia. En relación con los periodos estilísticos, los artistas individuales se
suelen describir o bien como vanguardia o creadores originales de novedades, o como
seguidores que adaptan y refinan las ideas creadas por la vanguardia.
Las historias de diseño y manufactura (por Walker, "Design Histories"), por ejemplo la
"historia de la construcción" no son algo opuesto al tipo precedente, sino que profundizan
más e intentan encontrar las razones y explicaciones para la evolución de los artefactos.
Los artefactos se ven sólo como ilustraciones, y el objeto principal de estudio es la
actividad del diseño como un proceso social, económico y ecológico. Los factores
explicativos son, por ejemplo, cambios en la demografía de la sociedad, en las
condiciones de la industria o de la economía; por otra parte las consecuencias de
invenciones, educación, cambios políticos, guerras y la adquisición o pérdida de colonias.
En el estudio del arte se puede encontrar un paradigma comparable en la sociología del
arte. Los modelos comunes de investigación también incluyen los procesos de producción
industrial a partir de materias primas hacia el mercado y el uso, desgaste, reparación,
desechado y reciclado de productos.
Hoy, las dos vistas que se
han presentado de la
investigación son
combinadas con bastante
frecuencia. Un ejemplo es el
estudio de Ulla-Kirsti Junttila
de los elementos de
iluminación y otros
equipamientos urbanos
(UIAH, 1986). Junttila describe secuencias de artefactos tal y como los descubre el estudio
empírico, como el de la derecha; y por otro lado explica las razones de esta evolución:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 407
Las regulaciones administrativas,
La estructura organizativa de las obras e instalaciones en calles: que organismos públicos
están implicados y el grado de familiaridad de su cooperación,
la competencia del personal a cargo de las obras e instalaciones en calles,
las actitudes de funcionarios, de concejales y de los ciudadanos.
El "Zeitgeist" (el "espíritu de la época") no debiera darse como un factor influyente. El
Zeitgeist es una etiqueta útil para todos los rasgos simultáneaos de la cultura y de las
distintas artes de una época, pero si acabamos diciendo que es también la razón para
estos rasgos, habremos cometido el error del razonamiento recíproco.
Una vez que el investigador ha descubierto las estructuras inherentes de una evolución
histórica, esto puede también puede ser usado para predecir desarrollos futuros del objeto
de estudio. Los métodos disponibles son:
Las secuencias del tipo de la historia de artefactos pueden prolongarse al futuro por
extrapolación,
Las invariancias encontradas en la modalidad de investigación de historia de diseño y
manufactura pueden ser usadas para predecir sobre la base de un modelo causal.
Por otro lado, una vez que se han clarificado las razones de una evolución pasada, éstas
pueden ser usadas también para cambiar la dirección de futuros progresos. Véase Análisis
cualitativo normativo, Desarrollar un producto, y Desarrollar una actividad.
4.8.4. ANÁLISIS CUALITATIVO NORMATIVO
Antes muchos investigadores querían hacer una distinción tajante entre investigación
descriptiva y normativa. La primera era vista como "objetiva" y "universalmente cierta",
mientras que la segunda era "subjetiva" e influenciada por valores personales, que son
variables. Hoy la opinión general es que ningún investigador puede eliminar totalmente sus
valores y por tanto no hay una división absoluta entre las dos formas de investigación. Por
otra parte, se están haciendo muchas investigaciones que son explícitamente normativas.
Tal es el caso cuando el estudio se pretende que aporte una base para el desarrollo de
nuevos productos industriales. En este tipo de estudio el objeto muchas veces es un
producto anterior del mismo tipo y el objetivo es descubrir:
sus fallos o debilidades potenciales,
si podría ser mejor y en qué aspectos,
las maneras en que estas mejoras se podrían obtener.
Son atributos o propiedades cualitativos típicos del producto que se estudia de este modo:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 408
usabilidad, funcionalidad, efecto, capacidad
durabilidad y mantenimiento fácil
belleza o apariencia agradable
significación simbólica, mensaje, indicación de estatus o prestigio.
4.8.5. HERRAMIENTAS PARA EL ANÁLISIS CUALITATIVO
Dándose el hecho de que la vida humana es infinitamente variada, es comprensible que la
lógica que gobierna la investigación que se hace para entenderla también tome muchas
formas. Hay frecuentemente más lógica en el informe de investigación que en el plan de
investigación, dejado atrás en los pasos que realmente se han dado en el proyecto. Esto
no puede ser evitado en estudios enfocados a entender el comportamiento y la cultura
humanos: ya que el objeto no es muy bien entendido en el comienzo, tampoco es posible,
por adelantado, encontrar las formas efectivas de estudiarlo.
La lógica y el proceso de la investigación cualitativa es raramente tan llana como la del
estilo cuantitativo de investigación. Mientras que ambos tipos comprenden una búsqueda
de información, rara vez ocurre que no se conozca casi nada sobre el asunto en el
momento de comienzo del proyecto. Tenemos entonces que comenzar con una impresión
más bien vaga de lo que tenemos que estudiar
A veces podemos comenzar simplemente un único ejemplar o caso que ilustra el problema
que nos interesa y entonces tal vez continuar estudiando el mismo objeto, o un grupo
progresivamente creciente de objetos hasta que llega a ser evidente que no se puede
profundizar más en el problema. Una indicación de este estado de "saturación" del estudio
es que el análisis de nuevos elementos o casos ya no revela conocimientos interesantes.
El análisis de un campo empírico cualitativo puede ser una tarea bastante exigente. Los
informes pueden incluir cientos o miles de páginas manuscritas, de las que tenemos que
arrancar las pocas páginas de hallazgos significativos. La tarea se hará mucho más fácil
tan pronto como podamos especificar la invariancia que estamos persiguiendo. Tras esa
decisión, podemos omitir todo el material que ya no sea pertinente y comprimir la
información pertinente. La compactación se suele hacer con la ayuda de la codificación
de los elementos frecuentes y típicos, que consiste en asignarles nombres cortos, letras o
símbolos.
Para facilitar el análisis de los datos, debiéramos almacenarlos bien ordenados. Las
herramientas tradicionales para esta tarea eran las fichas de cartulina y las carpetas, pero
hoy lo más probable es que prefiramos un ordenador. Antes de empezar a alimentar a la
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 409
máquina con datos, el investigador debe considerar qué tipo de programa informático le va
a resultar en el futuro más efectivo cuando haya de someter el material a operaciones
analíticas. La elección debe ser hecha dependiendo del carácter de nuestros datos.
el texto se presenta y maneja fácilmente con programas de tratamiento de textos, como
Word o WordPerfect.
los materiales combinados que incluyen imágenes a veces se gestionan mejor con
programas de bases de datos como DBase y Paradox. Por otro lado, algunos programas
de tratamiento de textos son capaces de manejar varios tipos de material. El almacenado
de imágenes, imágenes en movimiento y grabaciones de voz sigue siendo algo
complicado y con sus riesgos.
• las tablas se manejan mejor con programas de hoja de cálculo, como Excel o
QuattroPro. Son ideales para datos numéricos, pero pueden manejar también
textos cortos.
Junto a los programas de funciones más generales que acabamos de mencionar, hay
programas especiales para análisis cualitativo. Una recopilación de ellos puede
encontrarse en Computer Assisted Qualitative Data Analysis Software. Un programa
bastante extendido es, por ejemplo, Atlas.ti, desarrollado originalmente en la Universidad
Técnica de Berlín. Se pretende que facilite muchas de las actividades que implica el
análisis y la interpretación de datos textuales, gráficos y sonoros, particularmente
seleccionando, codificando, anotando y comparando segmentos relevantes. También
ayuda a presentar los resultados en forma de modelos lógicos, como árboles o tablas.
Documentos en el WWW que tratan de forma general los métodos de análisis cualitativo:
• Qualitative Research Resources on the Internet, por Ron Chenail.
• Descriptive Methods
• QualPage! Recursos para investigadores cualitativos
• Comparing Qualitative and Quantitative Methods por William M.K. Trochim
• Concept Maps as Hypermedia Components, por Brian R. Gaines y Mildred L. G.
Shaw, Knowledge Science Institute, University of Calgary.
Una vez terminado el análisis y el material organizado en las estructuras cualitativas
deseadas, debemos proceder al siguiente paso: evaluar los resultados, su factualidad y tal
vez su utilidad.
Sobre lo referido a informar de los resultados de un estudio, se ofrece en este documento
una página aparte.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 410
o http://usuarios.iponet.es/casinada/arteolog (España)
o http://www.uiah.fi/projects/metodi/ (Finlandia)
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 411
<<<<
4.9. LA INVESTIGACIÓN COMO UNA ACTIVIDAD EN EL AULA
José Burgos Tovar
Por lo general, en el quehacer docente vemos con inquietud la gran separación que existe
entre la teoría y la práctica, la cual es producida, quizá, por el desconocimiento de los
docentes sobre la importancia que tiene el relacionarlas; así mismo, desconocen la
importancia de relacionar la teoría y la investigación.
La investigación debe ser reconocida como una actividad que conlleva a la producción de
conocimientos, lo cual permite establecer una mayor objetividad de la realidad educativa.
Asimismo, la investigación educativa, debe ser una práctica constante, dirigida esencialmente, a dar respuesta a los problemas que surgen en el medio educativo y
también dirigida a establecer nuevos cambios y parámetros a los ya establecidos.
Hoy en día, se establecen dos formas en el campo de la investigación educativa en el
aula:
1. La investigación psicométrica o cuantitativa: Su objetivo es comparar los diferentes
métodos, materiales y técnicas de enseñanza, con el propósito de determinar si una
o más de estas variables, produce un mayor aprendizaje en los alumnos.
2. La investigación cualitativa o interpretativa: Su objeto es revelar algunas de las
complejidades que tiene la enseñanza y el aprendizaje, más que el demostrar que
un médico determinado, es mejor que otro. Su foco de atención es la
documentación y análisis de lo que sucede en el aula. (V. Corrales Olga y Jiménez
María, en: Revista de Educación de la Universidad de Costa Rica. p. 41)
En el primer procedimiento, aplicarnos la estadística inferencial, para establecer
comparaciones entre grupos, planteando hipótesis que debemos demostrar
estadísticamente. El segundo procedimiento es más que todo presentar los hechos que
ocurren en el aula, es una investigación que tiende a ser descriptiva, sin embargo, ninguna
excluye a la otra.
Con ambas se puede jugar, una para establecer lo que pasa y la otra para aplicar alguna
solución.
Por esta razón hay quienes utilizan la investigación cualitativa o cuantitativa, mientras que
otros utilizan ambas, en fin, hay que considerar la realidad misma de la acción en el aula y
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 412
de la intencionalidad del investigador, ya partiendo de esto, se determinan los
procedimientos a seguir.
También se identifican otras tradiciones en el campo de la investigación educativa en el
aula:
1. Análisis de la interacción: es donde el investigador emplea sistemas y esquemas
para el estudio de conductas e interacciones.
2. Análisis del discurso: Se describen todas las acciones que ocurren en el aula:
cambio de tema, de participación, de reglas, de actividades. El investigador se
familiariza con toda esta información, sobre lo que se dijo y se llevó a cabo. Todo
esto servirá para hacer una descripción y análisis posterior del proceso de
aprendizaje en el aula.
3. La investigación etnográfica: el investigador observa, describe, escribe e interpreta
eventos en el aula por medio de procedimientos similares a los usados por los
antropólogos, cuando estudian culturas y sociedades desconocidas.
El término etnografía está constituido por dos principios:
1. El étnico: el cual exige al investigador que deje de un lado las ideas
preestablecidas, modelos, esquemas y tipologías y derive su conocimiento por
medio de la observación y estudio de la interacción que se establece entre el
maestro, alumno y materiales didácticos y por medio de ciertos documentos como
lo son las entrevistas, conversaciones, planes de acción, apuntes y otros.
2. El holístico: es la de establecer la relación entre el estudio de aspectos específicos
de determinada cultura, con el conocimiento acerca de otros componentes de dicha
cultura. (Ibid. p. 74).
En muchas ocasiones algunos, educadores sienten el deseo de realizar investigación en el
aula, motivados por la propia actividad docente y de la interacción con sus alumnos y esto
es significativo, puesto que, se estaría ejerciendo un mayor entendimiento de la acción en
el aula, lo cual propicia la productividad de ideas y se estaría dando respuesta a preguntas
surgidas dentro del aula.
Todo lo anterior amerita el planteamiento de las siguientes preguntas:
¿Cuáles son las expectativas que tiene el docente, respecto a la realización de
investigación?
¿Existe interés del profesorado en realizar investigación? ¿Cuáles son las facilidades que
se le brindan al profesorado para realizar investigación? ¿Existe algún plan o programa de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 413
formación metodológico - estadístico, que fomente y facilite la investigación entre el
profesorado?. ¿ Los posgrados, están formando a nivel de investigación? o ¿son meros
repetidores teóricos? si es esto último, necesita una revisión urgente de uno de sus
principales objetivos, como es la de capacitar profesionales con formación en
investigación.
¿Existe aún la creencia de que los que deben investigar son los investigadores, y no todos
los profesores que estamos en ejercicio docente? ¿Exige la universidad investigación a
sus docentes? Si así fuese..., ¿Se respeta el tiempo para investigar, o estamos inmersos
en tantas actividades "curriculares", que no nos resta tiempo para investigar?
Una última idea para reflexionar es que la investigación es importante para toda
universidad, puesto que orienta, con criterios sólidos y válidos, sobre qué o cuáles
actividades, objetivos, métodos, técnicas o procedimientos, podemos establecer, tomando
en cuenta, por supuesto, las diversas tendencias que ocurren en nuestro entorno.
"La cantidad y calidad de la investigación, es un síntoma o señal, de la salud académica
de una institución".
... ¿Cómo está la salud de su institución?
El autor es Doctor en Educación por la Universidad Autónoma de Guadalajara.
Recientemente retornó a Venezuela, su país de origen.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 414
<<
4.10. REFLEXIONES EPISTEMOLÓGICAS SOBRE LA INVESTIGACIÓN CUALITATIVA EN CIENCIAS SOCIALES
Adrián Scribano
4.10.1. INTRODUCCIÓN
En las Ciencias Sociales existe una estrategia metodológica que ha cobrado un especial
auge en los últimos años denominada generalmente como investigación cualitativa.
Particularmente en Argentina, más allá de que el material estrictamente metodológico
publicado es muy poco, existe una especie de consenso académico implícito, al menos en
sociología y politología, sobre dicha estrategia, que puede ser explicitado del siguiente
modo: a) que lo cualitativo es la "alternativa" a una ciencia social positivista y cuantitativa,
y b) que dadas las condiciones de trabajo y formación reinantes, dicha alternativa es más
fácil de enseñar y de aplicar. Si bien estas dos características deberían ser revisadas con
algún detenimiento, desde mi punto de vista ambas parten de y arriban a conclusiones
erróneas. De manera sintética mi argumento tendría la siguiente forma: no tenemos
ninguna seguridad que un abordaje cualitativo no sea positivista, no hay ninguna razón
epistémica que permita oponer aporéticamente cuantitativo a cualitativo, y finalmente los
conocimientos teóricos-metodológicos necesarios para hacer investigación cualitativa no
son ni tan fáciles de transmitir ni muchos menos de ejecutar fácilmente.
En base a este diagnóstico, este trabajo pretende destacar algunos tópicos de la discusión
metodológica respecto a la investigación cualitativa, con especial referencia al lugar de la
informática en la misma, que permitan observar los problemas epistémicos que de ello
emergen. Mi objetivo es mostrar, al menos parcialmente, que la estrategia en cuestión
implica una pluralidad de técnicas y teorías, que, por su peso específico, trascienden los
rasgos propuestos en el diagnóstico realizado y evidencian que su "progreso" implica
discusiones que van más allá de la mera referencia alegórica al subjetivismo. Para lograr
este objetivo seguiré el siguiente camino argumentativo: en primer lugar mostraré
sintéticamente la situación actual de las diversas estrategias cualitativas desde donde se
presenta una suerte de periodización de la relación cualitativo y cuantitativo. En segunda
instancia, señalaré el lugar que hoy ocupa la informática en la investigación cualitativa a
través de la presentación de dos artículos que pueden resumir algunas de las discusiones
en torno a esto y, finalmente, esquematizaré las discusiones epistémicas que afloran de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 415
este contexto, señalando algunos temas para debatir que van más allá de una simplificada
visión sobre lo cualitativo.
4.10.2. ESTRATEGIAS ALTERNATIVAS PARA LA INVESTIGACIÓN CUALITATIVA
Una de las confusiones más comunes entre los investigadores recién iniciados respecto a
la investigación cualitativa, es la asimilación de las técnicas cualitativas con las estrategias
metodológicas. Esta confusión acarrea muchos problemas de diseño para la investigación,
de igual dimensión que los que ocasiona realizar una encuesta creyendo que en la
aplicación del instrumento se agota el estudio cuantitativo de la sociedad.
Sumado a esto, existe un prejuicio teórico muy arraigado sobre las diferencias entre
estrategias cuantitativas y cualitativas tomadas como paradigmas rivales e
inconmensurables. Por lo tanto, he creído conveniente sintetizar muy brevemente cuál es
la situación actual de estas dos temáticas para que la presentación que se hará sobre el
lugar de la informática, pueda ser ubicada a un nivel satisfactorio de discusión.
Si bien una de las características de los enfoques cualitativos de la investigación en
ciencias sociales es la íntima relación existente entre diseño, técnicas, análisis y
construcción teórica, que en la práctica invalida una separación tajante de las etapas de la
misma, es lícito y además conveniente intentar mostrar cómo se puede reagrupar dichas
prácticas según alguna orientación dominante que las asemeje y diferencie.
La siguiente es una síntesis y reelaboración de una lista construida por Renata Tesch,
donde la autora ha esquematizado lo que ella denomina "tipos de investigación",
proveyendo de una definición de lo que entiende son los propósitos de los mismos, con la
particularidad de que estas últimas son tomadas directamente de la literatura más usual en
cada temática, lo que la hace aún más interesante. De esta manera se pueden visualizar
12 enfoques diversos para llevar adelante una investigación cualitativa, que están
agrupados de acuerdo a diversos criterios, entre los cuales predominan el metodológico y
el teórico. Dichos enfoques son:
4.10.2.1. ANÁLISIS DE CONTENIDO (CLÁSICO)
"Realizar inferencias válidas y replicables desde los datos hacia sus contextos"
(Krippendorf 1990:21).
"Descripción objetiva, sistemática y cuantitativa del contenido manifiesto de la
comunicación" (Berelson 1952:489).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 416
"Realizar inferencias mediante una identificación sistemática y objetiva de las
características especificadas dentro del texto"(Stone et al.1966:5).
4.10.2.2. ANÁLISIS DE CONTENIDO (ETNOGRÁFICO)
"Análisis reflexivos de los documentos" (Altheide 1987:65).
"Usar el documento y comprender el sentido de la comunicación, tanto como verificar las
interrelaciones teoréticas" (Altheide 1987:68).
4.10.2.3. ANÁLISIS DEL DISCURSO
"Análisis de lo naturalmente ocurrido conectado por discursos hablados o escritos" (Stubbs
1983:1) proveyendo "una introducción dentro de las formas y mecanismos de la
comunicación humana y de la interacción verbal" (van Dijk 1985:4).
4.10.2.4. ESTUDIOS DE DOCUMENTOS, HISTORIAS DE VIDA E HISTORIA ORAL
Un enfoque "no estructurado y no cuantitativo" usando documentos personales (Bailey
1978:273) que generalmente terminan en tipologías, o "a través del cual se examina y
analiza la experiencia subjetiva de los individuos y de sus construcciones del mundo
social" (Jones 1983:147).
4.10.2.5. ETNOGRAFÍA (CLÁSICA, HOLÍSTICA, REFLEXIVA)
"Describir y analizar toda o parte de cultura o comunidad por la descripción de las
creencias y prácticas del grupo estudiado y mostrar cómo las diversas partes contribuyen
a la cultura como un todo consistente unificado" (Jacob 1987:10).
4.10.2.6. ETNOGRAFÍA (ESTRUCTURAL)
"Clasificar e iluminar la organización y distribución social de las significaciones subjetivas
como campos de la realidad originarios y diversos" (Gumbrium 1988:26), estando "en
relación con ... catalogar sus formas e interrelaciones en el tiempo y en el espacio"
(Gumbrium 1988:26) donde se "piensa la cultura como un mapa cognitivo" (Spradley
1979:7) y donde "a la vez, la cultura tácita y explícita son reveladas a través del habla"
(Spradley 1979:7).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 417
4.10.2.7. ETNOGRAFÍA DE LA COMUNICACIÓN (MICROETNOGRAFÍA)
Consiste en focalizar "los patrones de interacción social entre miembros de un grupo
cultural o entre miembros de grupos culturales diferentes" en orden a "especificar el
proceso de interacción y entender como estos ‘micros’ procesos están relacionados con
unos más amplios ‘macros’ problemas de cultura y organización social" (Jacob 1987:18).
4.10.2.8. ETNOMETODOLOGÍA
Que es definida de las siguientes maneras: "estudiar cómo los miembros de la sociedad,
en el curso de la realización de la interacción social, producen el sentido de expresiones
‘indexicales’. Indexicales son términos cuyo sentido no es universal, pero es dependiente
del contexto" (Bailey 1978:249) o "cómo los miembros de una situación ensamblan
razonablemente comprensiones de las cosas y eventos que les conciernen a ellos y, por lo
tanto, realizan estas como objetos de la vida cotidiana" (Gubrium 1988:27) o finalmente
"cómo la gente en sociedad organiza sus actividades de un modo tal que ellos producen
un sentido mutuo, cómo la gente hace cosas de maneras tales que los otros pueden
reconocerlos por como ellas son" (Sharrock y Anderson 1986:56).
4.10.2.9. ETNOCIENCIA (ANTROPOLOGÍA COGNITIVA)
Que desde una perspectiva se define como: "comprender las categorías culturales de los
participantes e identificar los principios organizativos que fundamentan esas categorías ...
a través del estudio de los sistemas semánticos" (Jacob 1987:22); o también como "definir
sistemáticamente el significado de las palabras, o etiquetas -en síntesis los nombres de
las cosas en el contexto de su uso" (Werner y Schoepfle 1987:38) en orden a "construir los
campos lexicos-semánticos de conexión de las proposiciones" (Werner y Schoepfle
1987:38).
4.10.2.10. ANÁLISIS DE LA ESTRUCTURA DE EVENTOS
Que puede ser conceptualizada como: "examinar y presentar series de eventos como
estructuras lógicas, es decir, como elementos y sus conexiones (incluyendo los supuestos
que gobiernan estas conexiones) que pueden servir como modelos explicativos para
interpretar secuencias de eventos actuales o folklóricos" (Heis and Lewis 1980).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 418
4.10.2.11. "GROUNDED THEORY CONSTRUCTION"
De particular interés para este trabajo, puede ser sintetizada diciendo que consiste en
"descubrir la teoría desde los datos a través de un método general de análisis
comparativos" (Glaser y Strauss 1967:1).
4.10.2.12. INTERACCIONISMO SIMBÓLICO
Cuya conceptualización es: "ver cómo los procesos de designación e interpretación [los
participantes definen e interpretan recíprocamente sus actos] es la sustancia, devalúa, re-
direcciona, y transforma los modos en los cuales los participantes organizan juntos sus
líneas de acción" (Blumer 1969:53); o también "comprender cómo los individuos son
capaces de tomar otra perspectiva y aprender significados y símbolos en instancias
concretas de participación" (Jacob 1987:29).
La pluralidad es innegable. En cada uno de estos enfoques las unidades de registros y de
análisis cambian o son entendidas de otro modo, el lugar de la natural textualidad de lo
cualitativo es diferente, las técnicas pueden o no ser las mismas, pero por lo general unas
se adecuan más que otras y los puntos de partida teóricos son los que se transforman
radicalmente.
Esta enumeración nos autoriza sólo a constatar dos elementos útiles para nuestro objetivo
aquí: por un lado saber que existen diferentes técnicas y diversas formas de hacer
investigación cualitativa y por otro que sólo a través de sus conceptualizaciones se puede
observar que la relación cuantitativo/cualitativo no es aporética como suele pensarse. Para
ilustrar este último punto, parece conveniente resumir lo que Ray Pawson a denominado
"fases de la relación cuantitativo/cualitativo".
La primera fase se caracteriza por permanecer dentro del puritanismo metodológico,
donde la actividad de investigación podía relacionarse dicotómicamente con uno u otro
enfoque. Se relaciona con la así llamada "guerra de los paradigmas" metodológicos y las
discusiones son "métodocentradas".
La segunda fase hace referencia al surgimiento de un pluralismo pragmático como
reacción a la metodolatría, teniendo a las estrategias de "triangulación". Es una fase
centrada en la elaboración y resolución de problemas donde se acepta que existen
diversas vías metodológicas para lograr este objetivo.
La tercera fase, que aún hoy se desarrolla, consiste en la superación de la relación
cualitativo/cuantitativo desde un punto de vista dicotómico diluyendo un tratamiento
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 419
aporético de la misma. Centrada en lo relacional, apunta a que la discusión se desplace
hacia la mejor articulación entre estrategias que puedan dar cuenta de la conexión entre
mecanismos, contextos y agentes.
Finalmente, este apartado nos respalda para introducir, sin malos entendidos, algunas
discusiones sobre el lugar de la informática en la investigación cualitativa.
Fundamentalmente por que ante la pluralidad de enfoques y las nuevas relaciones entre lo
cuantitativo y lo cualitativo dichas discusiones no pueden entenderse como un intento de
cuantificar lo cualitativo, ni tampoco como la idea de disolver la intrínseca pluralidad de la
investigación cualitativa.
El procesamiento y análisis de datos asistido por computadora tiene un lugar especial en
este campo disciplinar y muchos son los avances que se han realizado en su aplicación.
Justamente sobre algunos de los problemas epistemológicos que esto trae aparejado es
sobre lo que se intenta reflexionar en el próximo apartado.
4.10.3. NUEVAS EXPERIENCIAS DE GABINETE Y FORMAS DE RAZONAMIENTO EN LA INVESTIGACIÓN CUALITATIVA
En el contexto reseñado hasta aquí y junto al desarrollo de las estrategias cualitativas
desde finales de la década de los ‘70 y principio de los ‘80 se consolidó la utilización de la
informática en la investigación cualitativa. En principio como una vía más eficiente para
codificar y recuperar la inmensa cantidad de registros acumulados por las diversas
técnicas de observación, la asistencia de la computadora se pensó simplemente como
algo meramente instrumental.
Este puesto para la asistencia de la computadora se fue modificando hasta llegar al nivel
del análisis de esos datos otrora irrecuperables, dada la complejidad de su inserción
sistemática. En este sentido, dando un paso más la informática asistió al investigador en la
delicada tarea de interpretar ayudando en la construcción inductiva de "micro-teorías"
sobre la base de datos que se le había proporcionado. Esta estrategia de análisis
básicamente tomada del enfoque de Glasser y Strauss (al menos de su primer libro) se
popularizó, como así también se amplió la oferta de paquetes estadísticos que podían
asistirla. Los noventa son los años de consolidación de esta relación afianzada por la
popularización de lo multi-mediático en el mercado de las computadoras personales.
En el marco de dicha consolidación se han llevado adelante algunos debates sobre la
posibilidad de que esta "instalación" de la informática en el campo de los estudios
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 420
cualitativos sea el comienzo de una nueva visión paradigmática que pretenda agotar la
pluralidad y narratividad propia del abordaje cualitativo en alguna especie de sobre-
cuantificación de los registros y en la creación de la ilusión de formalización del momento
de análisis de las investigaciones. Un dato curioso de dicho debate, por lo menos desde
los autores a que se hace referencia aquí, es que ninguno pretende descalificar el rol de la
asistencia de la computadora en los trabajos de tratamiento, procesamiento y análisis
cualitativo. Un análisis de la discusión aludida puede ser realizado siguiendo el siguiente
camino.
4.10.3.1. PLURALIDAD DE VOCES Y LA UTILIZACIÓN DE HIPERTEXTOS
En principio se puede partir de la presentación de Coffey, Holbrook y Atkinson llamada
"Qualitative Data Analysis: Technologies and Representations" cuya estructura
argumentativa es la siguiente. La investigación cualitativa se caracteriza por la pluralidad
de interpretaciones que generan una multiplicidad de relatos asociados a la existencia de
una pluralización de mundos. Las dos vías que identifican como predominantes son:
aquellas que separadamente aceptan por un lado la consolidación de lo narrativo-literario
aceptando el "desafío" post-moderno de la diferencia y la multiculturalidad, y por otro,
aquella que construye un texto desde un enfoque que denominan "realismo narrativo"
caracterizado por la construcción de un relato en tercera persona desde donde afluye el
llamado problema de la "crisis de representatividad" que se basa en la eliminación de la
intrínseca pluralidad de voces en la constitución del mundo social. Los autores señalan,
por un lado, la generalización de las técnicas de codificación y recuperación de datos
"cualitativos" asistido por computadora, como el centro de la conformación de una nueva
ortodoxia ligada directamente al "realismo narrativo"; y por otro lado, la estructuración de
una heterodoxia conectada a la retórica y los desafíos post-modernos. En este contexto,
postulan como una posible vía alternativa que permita una síntesis de estas dos
tendencias para el análisis y la representación de la investigación etnográfica, a los
desarrollos generados alrededor del uso de hipertextos e hipermedios. Citando a Nielsen
afirman: "podemos decir que el hipertexto fue concebido en 1945, nació en los ‘60, nutrido
lentamente en los ‘70, y finalmente incorporado al mundo real en los ‘80 especialmente
con un rápido crecimiento en 1985, culminando con el establecimiento de un campo
definitivo durante 1989" (Coffey et al. 8.2).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 421
En esta larga historia de la consolidación del uso del hipertexto se visualiza a la
presentación del texto de un modo no secuencial, como un principio que juega el rol de
hilo conductor en la búsqueda de un tratamiento más eficiente de los textos (Coffey et al.
8.3). Si bien el escritor o lector asistido por un procesador de texto podía desplazarse de
diversas maneras por un documento, dicho desplazamiento era siempre secuencial y este
modo de leer y re-escribir no se condecía con las operaciones que en la vida real se
realizaban. En este sentido es que Coffey y sus colegas sostienen que "el texto mismo
está fijado en forma lineal. De tal modo, trabajar con archivos de textos en la computadora,
implica del mismo modo una estructura lineal" (Coffey et al. 8.3).
El uso de hipertexto involucra la posibilidad de diferentes vías de lectura determinadas por
el lector, dado que el autor provee de distintas alternativas para explorar el texto en
cuestión. Si bien los autores aceptan que ésta no es un idea nueva, señalan una mayor
versatilidad que las referencias cruzadas, por ejemplo. La clave está en la mayor
capacidad de interactividad desde donde aparece una más amplia gama de posibilidades
de relación entre texto y lector. "Los lectores pueden, en un sentido, devenir autores de
sus propias lecturas; ellos no son simple recipientes pasivos de una forma textual
determinada" (Coffey et al. 8.4).
Básicamente, la utilización del hipertexto consiste en la utilización de botones para
establecer links entre referencias cruzadas que apunten a una misma temática o tópicos
relacionados, pudiendo también desplazarse a fuentes de información distinta como los
son bases de datos cuantitativas u otras formas de almacenamiento de datos. "Tales links
constituyen ‘nodos’ y el analista puede crear una red densa de esos links los cuales
pueden ser luego ‘navegados’ en distintas exploraciones de datos" (Coffey et al. 8.6).
Por otro lado, se usan botones de "expansión" que permiten agregar comentarios,
incorporar otro tipos de textos como registros de campo, notas y comentarios. Se abre así
también la posibilidad para el lector de introducirse en el texto. Las limitaciones de estas
posibilidades son justamente las capacidades cognitivas humanas de encontrarse frente a
la creación de un "hiperespacio de lectura y escritura", donde las vías de recorrido y
expansión de la textualidad son prácticamente indefinidas. Para Coffey y sus colegas es
en este marco en que nace una de las particularidades más llamativas de la introducción
de estos medios informáticos para la lectura y escritura etnográfica, que es justamente la
probabilidad que esa diferencia colapse, en tanto procesos separados de leer y escribir. El
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 422
hipertexto conserva el sentido de complejidad, intertextualidad y no linealidad que una
narración sobre el mundo social tiene en sí misma.
Si la utilización del hipertexto abre estas posibilidades, su combinación con las tecnologías
multimedia las potencializa aún más. Con la articulación entre imagen, sonido y otros tipos
de textos para nuestros autores, se puede pensar "la reconstrucción de los mundos
sociales a través de múltiples representaciones" (Coffey et al. 8.11). Citando el trabajo de
Kersenboom, ellos muestran que la aparición de monografías en CD ofrecen la posibilidad
de presentar los registros de palabras, música, escritos y conversaciones en "sus
condiciones existenciales" (Coffey et al. 8.11), lo cual permite a su vez manejar los
contextos interpretativos, también explorar lecturas alternativas y modos complementarios
de representación de los registros originales. Para Coffey y sus colegas, hipermedios e
hipertexto posibilitan un manejo instantáneo y simultáneo de formas distintas de
representar las múltiples voces de la realidad del mundo social.
Estos autores ofrecen como ejemplo su estudio sobre las consecuencias de la genética en
nuestros días, donde aplicaron el etno-drama como medio de reconstruir la toma de
decisiones de los genetistas, junto a las formas de decisiones de las personas respecto a
la reproducción, grabaciones de conferencias científicas, datos contextuales y entrevistas
de familias enteras, usando las posibilidades del hipertexto e hipermedia, conjuntamente
con investigaciones sociológicas más tradicionales. La propuesta de este equipo es
justamente la de articular el realismo narrativo y las posibilidades de representar múltiples
y simultáneas voces, sugiriendo que de este modo se hace innecesario optar por un
enfoque postmoderno o caer en la "nueva ortodoxia" de la investigación cualitativa asistida
por computadora.
4.10.3.2. HACIA UNA LÓGICA DEL RAZONAMIENTO HIPOTÉTICO EN INVESTIGACIÓN CUALITATIVA
En un artículo que intenta responder la caracterización de la "nueva ortodoxia" en la
investigación cualitativa asistida por computadora, realizada, entre otros, por Coffey y sus
colegas en el artículo al que se ha hecho alusión, Udo Kelle señala que dicha
caracterización proviene de interpretar mal algunos puntos metodológicos de la
investigación cualitativa. Kelle, para estructurar su argumentación, se desplaza a la
discusión de las estrategias metodológicas y a sus bases epistémicas. Es en este marco
que propone una interrelación entre uso de la informática y la aplicación de la inducción
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 423
cualitativa y la inferencia abductiva como modo de coordinar una vía alternativa para la
investigación cualitativa.
Kelle plantea el problema desde la base misma de lo que se ha dado en llamar la
"construcción de teoría" en la investigación cualitativa asistida por computadora.
Genéricamente hablando, la discusión sobre dicha base tiene dos facetas: su sustento
teórico-metodológico representado por la "Grounded Theory" y su procedimiento elemental
conocido como "codificar y recuperar". Como lo reconoce el mismo Kelle, dada la
estructura de su artículo, ambas facetas si bien no agotan el lugar de la informática en la
investigación cualitativa, son el punto de partida de una adecuada discusión de la
supuesta instauración de una nueva ortodoxia en investigación cualitativa. Sin hacer
justicia a la complejidad de la grounded theory se puede decir que representa desde 1958
y 1967 una estrategia inductiva de construcción de teoría que ha sufrido diferentes
reformas. En lo sustancial consiste en la idea que se puede obtener una red de conceptos
que emergen de los registros cualitativos a través de un procedimiento de codificación y
"etiquetamiento" de las principales dimensiones de dichos registros.
Este procedimiento se basa en "descubrir" desde los registros grupos analíticos de datos,
conformados por la construcción de lo que Glaser y Strauss llamaron códigos, categorías y
memos. La idea central es que de esta manera se evitaba dar una forma teórica a los
registros, ofreciendo la posibilidad de que justamente el tratamiento analítico de los datos
dieran forma a una teoría particular emergida desde los datos mismos.
Por otro lado, codificar y recuperar es un procedimiento para clasificar datos que parte de
la identificación, sistematización y comparación de segmentos de textos que contienen los
registros. Muy esquemáticamente hablando, una vez establecidas las diferencias y
semejanzas se procede a construir índices de segmentos de textos sobre tópicos
identificados con palabras claves. Por otro lado se construyen referencias cruzadas que
permitan relacionar los segmentos de textos entre sí y con otras fuentes de información.
Estos procedimientos tan antiguos como los de la exégesis textual se ven acelerados y
mejorados por los medios informáticos para su recuperación y tratamiento.
Si bien esta sucinta presentación puede ser muy esquemática, nos ayuda a comprender
por qué Kelle se preocupa en mostrar que no todo proceso de codificación y recuperación
está basado en la grounded theory, por qué codificar puede ser un proceso más creativo
de lo que se piensa y cómo pueden ser pensadas alternativas metodológicas para
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 424
conservar la creatividad en el marco del desarrollo de los paquetes informáticos, sin caer
en un inductivismo ingenuo pero tampoco en una posición excesivamente relativista.
Como es obvio, dada la síntesis realizada entre la grounded theory y el proceso de
codificar y recuperar, hay aires de familia innegables; más allá de la terminología que usen
los diversos programas, las coincidencias entre los códigos de Glaser y Strauss y los
índices de los programas son muy grandes. Por esto, Kelle muestra cómo existen
diferentes paquetes de tratamiento informático de textos que se basan en la
fenomenología, en los tipos ideales de Weber o directamente en las ideas falsacionistas
de Popper, y cita también una revisión realizada de los programas usados que indica que
el 70% de ellos no tienen como base a la grounded theory. Una vez realizada esta tarea
de esclarecimiento, Kelle se concentra en tres temas: las formas de codificar y recuperar
que implican la llamada tercera generación de programas, las confusiones que provienen
de tratar de aplicar una estructura hipotético deductiva en base a la grounded theory y la
propuesta de la abducción como una forma adecuada para evitar el dualismo.
Para mostrar que codificar y recuperar no se basan necesariamente ni en una idea
inductiva ni en las confusiones con la grounded theory, señala los avances producidos a
través de los hiperlinks que no sólo están a disposición en los programas especializados
sino también en las versiones más actuales de Windows. Esto transforma básicamente el
proceso de interrelación entre los textos y otros tipos de materiales, pero especialmente se
abandona la idea de que un segmento de texto debe ser "comprendido" subsumiéndolo en
una categoría creada desde esos mismos registros.
Esto ocasiona varios resultados colaterales entre los cuales se pueden mencionar los
siguientes: se aumenta la capacidad de recuperación selectiva, pueden ser cruzadas
referencias en un "mismo espacio textual" cuya distancia en los registros es considerable,
los segmentos de textos pueden ser conectados sin códigos previos y los códigos pueden
ser subdivididos en varias categorías nuevas. Codificar y recuperar, vista de esta manera,
es una tecnología abierta que brinda un gran número de posibilidades para la
interpretación. Esta idea de codificar Kelle la analiza desde dos dimensiones: desde la
definición del proceso de codificación y desde la noción de testear hipótesis a través de
este procedimiento, cuestiones ambas que nos llevan a su segundo tema.
Por un lado, Kelle señala las diferencias entre la codificación cuantitativa y la cualitativa y
la importancia de preservarse de la ingenua idea de poder partir a codificar sin teoría
previa alguna; pero por otro lado subraya la confusión existente por el uso ambiguo de la
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 425
expresión "testear hipótesis". En el primer caso, es claro que la codificación cuantitativa
funciona bajo una lógica deductiva en base a hipótesis previamente establecidas, mientras
que la cualitativa se basa en un proceso de lectura de los registros una vez efectuados,
actúan como marcas que permiten que una cierta cantidad de información sea agrupada y
manejada constituyéndose en representantes de algunas perspectivas desde donde mirar
los datos por parte del investigador.
En relación a esto es que Kelle plantea el problema sobre el testeo de hipótesis. Para él,
los códigos de la investigación cualitativa "no son muy utilizables para testear
proposiciones empíricas respecto a la exacta relación entre dos variables definidas" (Kelle
1997 3.9), como así tampoco permiten representar claramente eventos empíricos
determinados. Para Kelle en la investigación cualitativa "la aplicación del paradigma de la
codificación o de ‘códigos teoréticos’ sobre datos empíricos se basa en una lógica del
descubrimiento que no es ni inductiva ni deductiva" (Kelle 1997 4.3), por lo que dicha
aplicación representa el uso de una especial lógica del razonamiento, donde "las premisas
son un set de fenómenos empíricos y la conclusión es una hipótesis, la cual puede dar
cuenta de esos fenómenos" (Kelle 1997 4.3). Según él, se puede denominar a esta
operación razonamiento hipotético basado en las dos formas de inferencia lógica que
Peirce llamara inducción cualitativa y abducción. Estos es así, porque en una inducción
cualitativa un fenómeno empírico específico es descripto o explicado subsumiéndolo bajo
una categoría o regla existente y porque la abducción permite encontrar conceptos o
reglas no conocidas en base a un evento sorpresivo o anómalo. Al parecer, la clave para
Kelle consiste en que "la inferencia abductiva combina de una manera creativa nuevos e
interesantes hechos empíricos con conocimiento teorético previo" (Kelle 1997 4.3). Estas
formas de inferencia se condicen de alguna forma con el trabajo de la investigación
cualitativa, en tanto se necesita revisar permanentemente pre-concepciones y prejuicios
teoréticos y además posibilita entender de qué manera se usan en investigación cualitativa
los marcos de referencia heurísticos, que permiten al investigador concentrarse en ciertos
fenómenos de su campo de estudio. Para Kelle con la utilización de la inducción cualitativa
y la abducción se puede dar cuenta del trabajo creativo de la investigación cualitativa
como así también del uso del conocimiento disponible para el área de estudio.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 426
4.10.4. A MODO DE CONCLUSIÓN: PROBLEMAS EPISTEMOLÓGICOS EMERGENTES DE LA INVESTIGACIÓN CUALITATIVA ASISTIDA POR COMPUTADORA.
Aparecen de esta manera dos grupos de problemas o desafíos epistemológicos basados
en las sugerencias sobre el rol de la utilización de hipertextos y multimedios, y en la
propuesta de aplicar el razonamiento hipotético a la investigación cualitativa. Dos temas
centrales parecen emerger de estos desarrollos: en primer lugar podríamos estar en frente
de una nueva noción de experiencia de gabinete en ciencias sociales, y en segundo lugar
se podrían explorar alternativas a las estrategias deductivas e inductivas aplicadas a la
investigación cualitativa.
Sin pensar que se asemeja a un concepto de simulación y sin tomarla como solución
definitiva, en algún sentido, la utilización del hipertexto y la tecnología multimedia crea una
nueva situación de gabinete que al menos necesita ser analizada en los siguientes niveles:
la redefinición de la noción de lo que se podría llamar "experiencia de laboratorio de la
interpretación", el lugar del conocimiento conceptual en relación al sensitivo, como por
ejemplo el visual, la posibilidad de interacción indefinida entre observador y los sujetos
sociales analizados. Esto nos indica una forma de comprensión de lo social que puede ser
reconstruida a través de la computadora en situación de interactividad o aislamiento, el
escritorio del analista no es sólo una computadora y miles de salidas de computadora, es
en algún sentido un mundo social a escala.
La conexión entre hipertexto e hipermedia posibilitaría, dada la potencialidad para
relacionar hipótesis previas, descubrimientos y "realidad virtual", la recreación
multimediática de la pluralidad de voces. Esto es importante porque permitiría redefinir la
noción de generalización empírica extendiendo posiblemente su utilidad y alcance.
También de este modo se presenta la interesante oportunidad para la re-utilización de los
estudios de caso como estrategia de comprensión de la realidad social.
Además, la asistencia de estas tecnologías a la investigación cualitativa permitiría hacer
manejable la complejidad propia de la conformación textual de los registros, pudiéndose
de esta manera disponer de un texto que, si bien presenta mayor variabilidad, dada la
interactividad y la simultaneidad, posibilita explorar con mayor fuerza la búsqueda de una
estructura básica para los análisis.
Esto trae aparejado que además de las tradicionales tareas de registrar, escribir, leer e
interpretar, se agregue la de editar como mecanismo de reconstrucción del mundo social
en la computadora. La confluencia de información cualitativa e información cuantitativa de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 427
diversos orígenes, permite "fijar" con mayor detenimiento las condiciones contextuales de
la interpretación. Por otro lado, si se hace pie en los desarrollos anteriores, no sería para
nada difícil pensar en la propuesta de Kelle, dado que se tendría la oportunidad de
estructurar una forma de razonamiento que permita partir de y crear hipótesis para la
argumentación sobre el nivel de adecuación de la realidad recreada en la computadora.
Para finalizar, sólo resta afirmar que en el campo de la investigación cualitativa, como al
menos se pretende haber insinuado, existen problemas epistémicos que trascienden las
argumentaciones a las que tradicionalmente se las asocia. Lo que llama a salir de un
tratamiento aporético de la relación cualitativo-cuantitativo y sumergirse en la posibilidades
de nuevas racionalidades y narraciones sin perder de vista la construcción científica de
conocimiento sobre el mundo social.
4.10.5. REFERENCIAS
o Ball, W. 1994 "Using Virgil to Analyze Public Policy Arguments: A System Based on
Toulmin´s Informal Logic." En Social Science Computer Review, 12:I, Spring. pp.
26-37.
o Coffey, A., Holbrook, B. y Atkinson, P. 1996. "Qualitative Data Analysis:
Technologies and Representations" en Sociological Research Online, Vol.1 Nº1.
o Coffey, A. y Atkinson, P. 1996. Making Sense of Qualitative Data. Complementary Research Strategies. Sage Publications. London.
o Cook, T. D. y Reichardt, CH. 1986. Métodos Cualitativos y Cuantitativos en Investigación Evaluativa. Introducción, Cap. I y II. Morata. Madrid.
o Gallino, L. 28/3/96 "La Costruzione della Conoscenza Scientifica in Netropolis:
Aspetti Sociali e culturali della ricerca scientifica in rete". Torino Internet. pp. 1 a 5
o Goetz, J.P. y LeCompte, M.D. 1988. Etnografía y Diseño Cualitativo en Investigación Educativa. Cap. II, V, VI, VII. Morata. Madrid.
o Forni, F.; Gallart, M.; Vasilachis de Gialdino, I. 1993. Métodos Cualitativos II. La
práctica de la Investigación. CEAL. Nº 57 Bs. As.
o Holstein, J. y Gubrium, J. 1995. The Active Interview. Sage. California.
o Kelle, U. 1994. Ethnographic Research and Logic of Discovery. Recent
Developments in Analytic Philosophy of Science and their Impact on the Debate on
the Epistemological Foundations of Qualitative Research. Paper presented at the
XIII World Congress of Sociology. Bielefeld. RC 33. Sess. 14.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 428
o Kelle, U. 1997. "Theory Building in Qualitative Research and Computer Programs
for the Management of Textual Date." En Sociological Research Online, vol.2,
Nº2.
o Marshall Magan, J. 1994. "Research Report: Using a Database Management
System to Support Qualitative Research" en Social Science Computer Review,
12:I, Spring. pp. 114-121.
o Marshall, C. y Rossman, G. 1995. Designing Qualitative Research. 2º Edition.
Sage. California.
o Rodriguez-Alamo, E. 1995. "The conflict Between Conceptual and Visual Thought
and the Future of Science" en Social Science Computer Review 13:2 Summer.
pp.: 207-221
o Vasilachis de Gialdino, Irene. 1993. Métodos Cualitativos I. Los problemas teóricos-
epistemológicos. CEAL.Nº 32 Bs. As.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 429
4.11. INVESTIGACIÓN CUALITATIVA Y TEXTUALIDAD LA INTERPRETACIÓN COMO PRÁCTICA SOCIOLÓGICA
Adrián Scribano
4.11.1. RESUMEN
La sociología presenta hoy un panorama de superación de las antiguas "parejas
epistemológicas" cuantitativo/cualitativo (3). En este contexto la lectura y comprensión del
texto sociológico se transforma en un punto nodal para la práctica sociológica. Con lo
anterior se relacionan, al menos, dos prácticas: aquella de leer un texto dentro de un
"horizonte" de comprensión y de precomprensión, y la de construir un "textum" en la
dinamicidad de la investigación como comunicación.
El presente trabajo busca mostrar cómo para lograr una "adecuada epistemología" de lo
cualitativo se deben discutir: a) las cualidades de los textos creados por la actividad
sociológica, b) el proceso de interpretación que la aludida creación implica y c) el papel de
los sujetos que participan en la génesis del "documento sociológico".
4.11.2. ACTIVIDAD SOCIOLÓGICA Y TEXTUALIDAD MÁS ALLÁ DE LA APORÍA CUALITATIVO-CUANTITATIVO
En el campo de la práctica sociológica el enfrentarse a la textualidad no es un fenómeno
novedoso. Desde la escuela de Chicago (solo para datar la discusión en este siglo) la
importancia de las narraciones de los sujetos han tenido un rol central en la comprensión
de la realidad. El auge de la investigación cualitativa muchas veces se ha entendido (y
entiende) como "respuesta" a los enfoques cuantitativos de una sociología positivista (4).
Una de las confusiones más comunes entre los investigadores recién iniciados respecto a
la investigación cualitativa es la asimilación de las técnicas cualitativas con las estrategias
metodológicas. Esta confusión acarrea muchos problemas de diseño para la investigación
de igual dimensión que los que ocasiona realizar una encuesta creyendo que en la
aplicación del instrumento se agota el estudio cuantitativo de la sociedad. Sumado a esto
existe un prejuicio teórico muy arraigado sobre las diferencias entre estrategias
cuantitativas y cualitativas tomadas como paradigmas rivales e inconmensurables. Si bien
una de las características de los enfoques cualitativos de la investigación en ciencias
sociales es la intima relación existente entre diseño, técnicas, análisis y construcción
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 430
teórica, que en la práctica invalida una separación tajante de las etapas de la misma, es
lícito y además conveniente intentar mostrar como se puede reagrupar dichas prácticas
según alguna orientación dominante que las asemeje y diferencie.
Renata Tesch (1991) ha esquematizado lo que ella denomina "tipos de investigación"
proveyendo de una definición de lo que entiende son los propósitos de los mismo, con la
particularidad de que estas últimas son tomadas directamente de la literatura más usual en
cada temática, lo que la hace aún más interesante. De esta manera se pueden visualizar
doce enfoques diversos para llevar adelante una investigación cualitativa que están
agrupados de acuerdo a diversos criterios, entre los cuales predominan el metodológico y
el teórico. Dichos enfoques son: Análisis de Contenido. (Clásico),. Análisis de Contenido.
(Etnográfico), Análisis del Discurso, Estudios de Documento, historias de vida e historia
oral;. Etnografía. (clásica,holistica, reflexiva); Etnografía. (estructural); Etnografía de la
Comunicación. (microetnografía); Etnometodología., Etnociencia. (antropología cognitiva),
Análisis de la Estructura de Eventos, "Grounded theory construction", Interaccionismo
Simbólico.
La pluralidad es innegable. En cada una de estos enfoques las unidades de registros y de
análisis cambian o son entendidas de forma diversa, el lugar de la natural textualidad de lo
cualitativo es diferente, las técnicas pueden o no ser las mismas, pero por lo general unas
se adecuan más que otras y los puntos de partida teóricos o estos son los que se
transforman radicalmente. El significado de las formas de crear, reproducir e interpretar la
acción en tanto narración se modifica y varía, aparecen así desde la correlación
estadística hasta la semiótica como "instrumentos" para la interpretación.
La enumeración realizada arriba, autoriza solo a constatar dos elementos útiles para los
objetivos de este trabajo: por un lado saber que existen diferentes técnicas y diversas
formas de hacer investigación cualitativa y por otro que a través de una simple
enumeración se puede observar que la relación cuantitativo/ cualitativo no es, como suele
pensarse, necesariamente aporética. Para ilustrar este último punto, parece conveniente
resumir lo que Ray Pawson (1993) a denominado "fases de la relación cualitativo/
cualitativo".
La primera fase se caracteriza por permanecer dentro del puritanismo metodológico,
donde la actividad de investigación podía relacionarse dicotómicamente con uno u otro
enfoque. Se relaciona con la así llamada "guerra de los paradigmas" metodológicos y las
discusiones son "metodocentradas".
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 431
La segunda fase hace referencia al surgimiento de un pluralismo pragmático como
reacción a la metodolatría, teniendo a la estrategias de "triangulación" como fundamento
operativo. Es una fase centrada en la elaboración y resolución de problemas donde se
acepta que existen diversas vías metodológicas para lograr este objetivo.
La tercera fase, que aún hoy se desarrolla, consiste en la superación de la relación
cualitativo/ cuantitativo desde un punto de vista dicotómico diluyendo un tratamiento
aporético de la misma. Centrada en lo relacional apunta a que la discusión se desplace
hacia la mejor articulación entre estrategias que puedan dar cuanta de la conexión entre
mecanismos, contextos y agentes.
Finalmente, este apartado respalda la posibilidad de introducirse , sin malos entendidos,
en algunas discusiones sobre el lugar de la "textualidad" en la investigación cualitativa.
Como guía de la discusión se ha optado por ordenar la argumentación de la siguiente
manera: en primer lugar, desde un punto de vista epistemológico se intentará aclarar la
relación entre, datos, narración e interpretación, haciendo especial referencia a la
conexión entre, manifestaciones, proposiciones e interpretación; luego desde la misma
perspectiva se aclara cómo se puede conectar datos y documento sociológico. En
segundo lugar, desde un cruce entre filosofía y sociología se tratará de explicar la
Interpretación como práctica sociológica. Por último, en tercer lugar, se deducirán algunas
conclusiones epistemológicas y metodológicas que permitan re-pensar el lugar de la
interpretación en la investigación cualitativa.
4.11.3. DATOS, NARRACIÓN E INTERPRETACIÓN
Unos de los problemas más interesantes de la aceptación de la estructura narrativa de la
investigación cualitativa es el de redefinir el lugar y la noción de dato que ella implica (5).
En estrecha conexión con esto se puede identificar la tarea de construir un texto como
resultado de las estrategia cualitativa. En lo que sigue se pretende abordar estas dos
temáticas intentado contextualizarlas en marco de la filosofía de las ciencias sociales en la
actualidad (6).
4.11.3.1. MANIFESTACIONES, PROPOSICIONES E INTERPRETACIÓN
La investigación cualitativa enfrenta al investigador con la necesidad de realizar un análisis
detenido de la noción de dato. En este contexto discursivo se encuentran algunos
elementos para aclarar el rol de los datos como garantías de las interpretaciones y su
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 432
conexión con la noción de evidencia. Desde una perspectiva clásica se puede afirmar que
los datos son la manifestación verbal o escrita de la observación que se refiere
simbólicamente a una unidad determinada del fenómeno observado. Lejos de emprender
una crítica sistemática de la mencionada noción, aquí se intenta enfatizar, que es ella
misma la que da pie para comprender como los datos tienen siempre una estructura
relacional. Esto quiere decir que su composición es una conexión explícita entre
afirmación, observación y fenómeno que no se puede reducir a ninguno de estos tres
momentos del conocimiento de lo social.
En la investigación cualitativa se puede ver claramente como la base empírica de la
investigación tiene la forma de una estructura diferenciada en diversos "niveles" de
afirmaciones. Estos niveles contienen como elementos diferentes proposiciones que se
diferencian de acuerdo a: su contenido, su puesto en la lectura (que origina el tipo de
interpretación) y según la distancia con la materialidad de la observación.
De este modo la investigación cualitativa supone el manejo de afirmaciones producidas
por la narración misma del fenómeno, que implican una primera lectura de la realidad y
que tienen una aproximación mayor con lo concreto entendido como materialidad que
responde a la pregunta ¿qué es eso?. Se puede visualizar que la investigación cualitativa
involucra proposiciones descriptivas que se ubican como puente entre observación y
lectura segunda y que comparten en algún modo ambos polos de la relación concreto-
abstracto. Finalmente se pueden identificar afirmaciones interpretativas que constituyen el
comienzo de la segunda lectura y que son más abstractas que los otros niveles.
1) narración--manifestación primera lectura concreto
2) proposición descriptiva
3) afirmación interpretativa lectura segunda abstracto
Es evidente que la relacionalidad de los datos se manifiesta en la estratificación de las
enunciaciones que contienen las observaciones. En esta estratificación es claro que las
posiciones entre los sujetos son intercambiables y que las enunciaciones son efectuadas
siempre en tercera persona desde el punto de vista de la pragmática del lenguaje. En este
sentido, se puede aclarar como la base empírica de la investigación cualitativa aparece
como garantía de la interpretación. En el caso que la pretensión de validez de la
interpretación sea puesta en duda, se responde señalando el nivel de la estratificación que
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 433
ha sido objeto del cuestionamiento y se reconstruye paso a paso los componentes de la
estructura en orden a develar la base que sostiene la enunciación criticada.
Para evitar un circulo que re-envíe la discusión a la afirmación puesta en duda se debe
poder señalar los mecanismos que se han utilizado en el pasaje de la narración a la
proposición descriptiva. Emerge de esta manera que los datos tienen un rol de garantía de
la interpretación entendiendo por esto a la argumentación racional que conecta la
relacionalidad de los datos con la forma estructural que estos tienen y que permite
reconstruir la relación misma como momentos de conexión entre afirmaciones,
observaciones y fenómenos.
4.11.3.2. DATO Y DOCUMENTO SOCIOLÓGICO
Por otro lado, aparece el hecho particular que en la investigación cualitativa los datos no
se cuentan sino se "re-cuentan", y así, emerge el problema de afrontar una teoría del texto
sociológico en tanto documento construido por la "acción sociológica". Los datos
producidos por la investigación cualitativa tienen una dependencia mayor de la narración y
en ello nace la objetivación de la interpretación como documento sociológico.
Una pregunta fundamental nace aquí: ¿Cómo se puede analizar la relación entre registro,
escritura e interpretación de un texto sociológico� En una primera mirada se propone la
utilización del término "documento" para designar el resultado escrito construido
temporalmente entre diálogo efectivo e interpretación segunda. El texto sociológico
proviene de la reconstrucción del documento como manifestación del diálogo. Para llegar
a la construcción del documento la práctica sociológica sigue el camino que va de la
comunicación y se mueve sucesivamente a la narración, el registro, la escritura, la
interpretación y la reflexividad arribando nuevamente a la comunicación (7).
1) comunicación 3) registro 5) interpretación
2) narración 4) escritura 6) reflexividad
En la investigación de las ciencias sociales aparece como primer movimiento de la
comprensión la necesidad de captar el horizonte compartido pre-reflexivo de la acción. El
juego entre experiencia de construcción, documento y sentido de la acción implica un re-
leer el horizonte de sentido compartido partiendo de la diversidad. Por lo tanto, la meta
inmediata de la acción sociológica es tomarse a si misma como acción humana. En esta
dirección aparecen dos momentos de la dialéctica de la comprensión:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 434
a) El momento de autoreconocimiento de aquel que hace la búsqueda como sujeto
inmerso en una intersubjetividad (8),
b) El entender que la acción sociológica es un modo particular de acción sobrepuesta a las
reglas compartidas de la vida cotidiana en tanto acción científica.
En este marco de experiencia (y en un primer momento) la pregunta sociológica no es otra
que la pregunta por una fenomenología de la vida cotidiana que permita iluminar el juego
de comprensión y precomprensión de la relación intersubjetiva. Tal fenomenología puede
entenderse como reconstrucción racional del mundo de la vida donde se encuentran las
raíces de un sujeto-en-el-mundo.
Así, los habitantes de esta región de la experiencia son los productos de la práctica
cotidiana del hombre. El sentido que adviene en la relación pregunta, respuesta e
interpretación, manifiesta la acción humana como co-construcción. Pero no todo es
construido, el lenguaje por el cual los objetos llegan ha ser interpretados se conecta con la
tradición en tanto linaje teórico al cual pertenece quien quiere comprender, y como "forma
de vida" que siempre esta ya presente entre dos personas que se quieren entender. El
movimiento que hay en la actividad de traducir una narración es un movimiento cargado
de sentido en sí mismo. El texto sociológico en su intención de captar el sentido de la
acción encuentra al final su propio punto de partida: la posibilidad de la pluralización de los
mundos. El movimiento de la comprensión no se detienen, solamente puede ser detenido
como objeto de una decisión del lector. La pequeña historia entre sujetos que adviene en
la relación sociológica puede ser narrada de nuevo como otra experiencia y por eso
necesita ser detenida en el diálogo y el acuerdo. En este marco, el documento sociológico
deviene evidencia de un horizonte de sentido como decisión dialógica con la intención de
representar su significatividad. Desde aquí se puede apreciar como emerge la centralidad
de la práctica sociológica en la tarea de construir una narración compartida de la realidad
social.
4.11.4. LA INTERPRETACIÓN COMO PRÁCTICA SOCIOLÓGICA
En conexión con lo que se ha expuesto, se puede relacionar ahora, dos prácticas aquella
de leer un texto dentro de un "horizonte" de comprensión y de precomprensión, y la de
construir un "textum" en la dinamicidad de la investigación como comunicación. Sin duda
esta conexión tiene bastantes presupuestos por develar y aclarar, pero se pueden
considerar como punto de partida, para la reflexión, dos experiencias (9): la de lectura y
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 435
la de comunicación. En este contexto se plantea una pregunta como esquema para la
búsqueda propuesta: ¿Se puede utilizar el enfoque filosófico sobre la lectura de un texto
para iluminar la inscripción, escritura e interpretación de un texto sociológico?
La misma pregunta es ya una interpretación de la actividad de lectura en el contexto de
una hermenéutica (10), en la cual la principal finalidad es la comprensión y construcción
del pensamiento, es el hacer saber el sentido de una relación entre escritura y lectura.
Interpretación que parte de la aceptación de que el leer es proveer de sentido al texto
desde un sujeto que es el lector y desde otro que es un co-lector. Esta perspectiva hace
pensar que una conexión entre la "lectura filosófica" y la práctica sociológica es posible. La
finalidad aquí, será subrayar los aspectos de la práctica sociológica que aparecen como
semejantes a la práctica filosófica de leer un texto. También se intentará, originar en la
práctica interpretativa de la hermenéutica, (que hace de la relación, texto, autor, lector su
medio específico para pensar y pensarse) una reflexión sobre la práctica sociológica.
Desde este punto de vista, la sociología (RE-)TOMA LA ACCION A TRAVES DE LA
PALABRA, haciendo una comparación con la afirmación bien conocida de Ricoeur "La
acción dará qué pensar". La acción es así un símbolo que produce una llamada a la
interpretación. Desde esta perspectiva, la sociología no se puede comprender si no se
acepta que todos sus actos son actos de comunicación e informes inter-subjetivos. La
acción no es el lenguaje, pero solamente se puede comprender en el especial medio que
anida en el lenguaje, por que esa práctica sociológica se piensa como una práctica
comunicativa y toma como punto de partida el diálogo entre dos sujetos produciendo
sentido a esa misma acción. Por consiguiente, interpretar una acción es una práctica de
lectura que pone en relación acciones, lenguaje y vida cotidiana del sujeto.
Fenoménicamente esta práctica aparece como, narración, conciencia discursiva y como
documento sociológico, estos tres elementos aparecen como la primera objetivación del
diálogo sociológico (11). El diálogo sociológico implica la relación entre dos o mas sujetos
donde uno o algunos de ellos entran al intercambio en posición objetivante y tienen la
capacidad en tanto seres humanos de pasar a una actitud reflexiva por la cual el diálogo
mismo se hace posible.
El científico social qua sujeto perteneciente a un mundo de la vida tiene la cualidad de
poder "darse cuenta" de sus acciones en la forma de una narración. Esta capacidad de dar
respuesta, esta "responsabilidad" (accountability) implica el poder de decir e interpretar la
acción misma, así el actor-sujeto se re-presenta en su vivir cotidiano desde el punto de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 436
vista de sí mismo como sujeto de la acción. La capacidad de narrar es un hecho que surge
de la conciencia discursiva como cualidad del hombre de transformar la práctica en
palabra, la actividad en lenguaje. La sociología provee como resultado del diálogo un
documento que como reinterpretación re-construye la narración y cristaliza la conciencia
discursiva del sujeto, por lo tanto, la acción sociológica es una acción interpretativa, y una
segunda lectura hecha por el coautor de un texto. La comprensión sociológica se pone en
marcha como resultado de una interpretación del documento que genera, tomando como
supuestos los rasgos "ontológicos" que hacen comprender el enlace entre constitución del
sí-mismo en el diálogo con otro sí-mismo, transformándose así, en dicho diálogo, la
interpretación misma.
Una hermenéutica de la acción se puede entender como una experiencia de lectura del
espacio que está entre el lenguaje y la acción, espacio que se constituye en el diálogo que
posibilita pensar a la sociedad de modo diferente. La pregunta específica de la Sociología
es aquella que hace de la relación social un hecho de sentido y que está orientado a
comprender este sentido construido. La hermenéutica, entonces parece ser la actividad de
evidenciar el sentido de la relación social en el contexto de un relato entre dos sujetos, el
científico que intenta comprender y otro sujeto que sabe qué cosa es el sentido de su
actividad en el mundo de la vida. Emerge por esta vía el "informe" del diálogo aludido.
Este informe se cristaliza en el escrito que el sociólogo tiene como registro. Dicho escrito
aparentemente sin sentido, parece ser al mismo tiempo una lectura que provee una
primera interpretación, y así, una primera imposición de la relación entre sujeto que quiere
conocer y sujeto que conoce. Se genera de este modo, otra interpretación efectivizada
como necesidad del acto de comprensión.
La interpretación sociológica produce otra acción que se manifiesta como textum, vale
decir, como objeto de una lectura que constituye un contexto de la relación y de la misma
primera interpretación. Así, ve la luz un texto que hace de (co) texto y que necesita de ser
interpretado en el continuo de dos historias, las historias de dos sujetos, que en la propia
relación construyen su interpretación. La construcción de sentido parece ser una co-
construcción de un textum que se manifiesta como red entre pensamiento, historia e
interpretación. La co-construcción es creada como dialéctica entre palabra, ausencia y
silencio. Palabra como pregunta por la acción, ausencia como relación sobre la cual se
necesita el sentido, y silencio como el doble juego de lo no dicho y aquello que es la
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 437
respuesta. Se puede entender como la reconstrucción de la acción es una construcción de
sentido respecto al diálogo suprimido y en el diálogo ahora escrito y re-interpretado.
La interpretación se entrecruza con la traducción en la acción comunicativa, "los otros" que
hablan sobre su mundo de la vida son sujetos de una interpretación que parece ser una
traducción del sentido de la acción en el horizonte comprensivo compartido. Y que al
mismo tiempo necesita de un desplazamiento, de una nueva re-interpretación, ahora sobre
la forma de narración construida como objeto más allá del proceso de pregunta-respuesta.
Por lo que, el moverse entre sujeto-sujeto, (el diálogo) por un objeto (el texto) que
cristaliza pero no finaliza ni agota el sentido, hace aparecer la racionalidad que supone la
comunicación. Por esto, el diálogo se puede entender como proceso de conocimiento y de
interpretación de la acción que se busca comprender.
Finalmente, entonces, el texto es evidencia inter-subjetiva del diálogo como proceso de
conocimiento y de construcción compartida del sentido de la acción, evidencia de una
experiencia de re-lectura entre dos sujetos con dos narraciones que surgen desde un
mismo horizonte de comprensión. El diálogo hace reingresar el sentido en el contexto
intersubjetivo como pensamiento y como racionalidad. Como pensamiento por sus
características en tanto "juego del lenguaje" que hace volver a los sujetos objetos de sí
mismos. Como racionalidad es el resultado conocido del proceso mismo de re-conocer el
texto de un mundo de la vida.
4.11.5. A MODO DE CONCLUSIÓN: LA INTERPRETACIÓN ENTRE LA EPISTEMOLOGÍA Y LA METODOLOGÍA
Entendiendo, del modo arriba expuesto, el lugar de lo textual se pueden deducir algunas
consecuencias de orden metodológico para el diseño y análisis de las investigaciones
cualitativas. En primera instancia se puede pensar algunas "condiciones de entrada" a la
elaboración de diseños cualitativos. De esta manera, para poder ingresar a la ejecución de
un diseño cualitativo se deben tener en cuenta los siguientes supuestos:
1) La asimetría estructural, o mejor las diferencias de posición y condición (sensu
Bourdieu) entre el investigador y los sujetos de la investigación.
2) El rasgo fundamental del científico social que qua sujeto comparte el conocimiento de lo
social con el sujeto que co-construye el documento sociológico con él.
3) La necesaria "descentralización" del investigador, es decir, el abandono consciente y
explícito del centro de las relaciones que genera la actividad de investigación.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 438
4) La importancia de planificar dispositivos de "socio-análisis" de las prácticas involucradas
en la acción sociológica, lo que implica la incorporación de indagaciones tendientes
principalmente a reflexionar sobre la reflexividad de la misma. Por otro lado, si se entiende
la interpretación y construcción del modo que se ha expuesto se puede conocer mejor que
tenemos cuando hacemos análisis en la investigación cualitativa:
Por un lado tenemos REGISTROS PROGRESIVOS de lo observado, vale decir tenemos
objetos que se ubican en algún punto de una espiral compuesta y re-compuesta por
realidad y teoría formando un texto. Si bien, el grado de constructibilidad de estos objetos
depende de nuestro enfoque teórico y de los supuesto ontológicos y epistémicos al cual
este responde, básicamente se puede identificar una estratificación básica que involucra la
relación entre:
1) narración--manifestación primera lectura concreto
2) proposición descriptiva
3) afirmación interpretativa lectura segunda abstracto
Por otro lado, tenemos un JUEGO DE INTERPRETACIONES que proporcionan los
sujetos de la investigación MAS ACA DEL ANALISIS que pretende nuestra teoría. Aquí se
debe tener siempre presente que tanto investigador como investigado son considerados
como sujetos "portantes" de dichas interpretaciones. Esta relación se da en el marco del
movimiento entre:
1) comunicación 3) registro 5) interpretación
2) narración 4) escritura 6) reflexividad
Finalmente, se puede iluminar que hacemos cuando analizamos:
En primer lugar RECONSTRUIMOS lo que VEMOS en un equilibrio entre la pluralidad y la
unicidad a partir de un proceso de comprensión en el marco de una dialéctica de pregunta
respuestas.
En segundo lugar SUBSUMIMOS las reconstrucciones en una red de interpretaciones.
Punto de partida éste del continuo que va de la comunicación a la reflexividad. Luego,
como subsumir incluye una tarea de encastre, procedemos a CORREGIR pero no la
realidad sino las interpretaciones. Este corregir es sugerido por un proceso que incluye a)
un análisis crítico de las condiciones de análisis que hemos puesto, b) de las pre-
condiciones de visibilidad de lo analizado y c) por lo que se ha denominado aquí
construcción del documento sociológico. Por esta vía, a) se refiere a una redefinición de
los modos de "definir" los registros y los datos; b) implica un ajuste de la coherencia entre
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 439
preguntas, técnicas e interpretaciones y c) involucra revisar la relación entre texto, práctica
y sentido.
Por todo esto, RECONSTRUIR, SUBSUMIR Y CORREGIR devienen en ARGUMENTAR,
esto al menos implica:
A) Escribir, es decir construir un TEXTO, sujeto de intersubjetividad; y
B) Dar RAZONES SOBRE la particularidad de nuestras interpretaciones apelando a la
estructura relacional de los datos tal como arriba se ha expuesto. Entendida de esta
manera la tarea sociológica de interpretación parece, al menos de forma provisoria, poder
ligarse con la interpretación del texto que supone la investigación cualitativa. La práctica
sociológica es una interpretación segunda que se configura en un diálogo que
fundamentalmente se objetiva en el documento sociológico. Por esta vía, lo cualitativo del
texto sociológico se presenta como característica primaria del conocimiento sobre lo
social. Es justamente en el corazón de esta urdimbre que pone en movimiento la relación
diálogo, interpretación y práctica sociológica, donde filosofía y sociología se entrecruzan
una vez más. La posición de los sujetos en la co-construcción del documento sociológico
señala en la dirección de recuperar lo que hay de humano en la práctica reflexiva de la
acción sociológica.
4.11.6. REFERENCIAS
o Alexander,J. y Colomy, P. (1992) "Tradition and Competition: Preface to a
Postpositivist Approach to Knowledge Cumulation" en Ritzer, G. Metatheorizing.
Sage. California. USA.
o Coffey, A., Holbrook,B. y Atkinson, P. (1996a) "Qualitative Data Analysis:
Technologies and Representations" en Sociological Research Online, vol.1 nº 1,
o http://www.socresoline.org.uk/socresoline/1/1/4.html
o Coffey, A. y Atkinson, P (1996b) Making Sense of Qualitative Data.
Complementary Research Strategies. Sage Publications. London.
o Coulon, A. (1995) Ethnomethodoly. Sage. London.
o Bohaman, J. (1994) New Philosophy of Social Science. Polity Press. Cambridge.
o Bourdieu, P. (1994) Raisons Pratiques. Seuil. Paris.
o Brown, R. H. (1989) Social Science as Civic Discourse. University Chicago Press.
Chicago.
o Bryant, C.G.A (1995) Practical Sociology. Polity Press. Cambridge.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 440
o Fay, B. (1996) Contemporary Philosophy of Social Science. Blackwell. UK. USA.
o Fine, G. y Sandstrom, K. (1988) Knowing Children Sage London
o Fielding, N. y Lee, R. (1991) Using Computers in Qualitative Research . Sage.
London
o Holstein, J. y Gubrium, J. (1995) The Active Interview. Sage. California.
o Kelle, U. (1994) Ethnographic Research and Logic of Discovery. Recent
Developments in Analytic Philosophy of Science and their Impact on the Debate on
the Epistemological Foundations of Qualitative Research. Paper presented at the
XIII World Congress of Sociology. Bielefeld. RC 33. Sess. 14.
o Kelle, U. (1997) "Theory Building in Qualitative Research and Computer Programs
for the Management of Textual Date." Sociological Research Online, vol.2, nº 2.
http://www.socresoline.org.uk/socresoline/2/2/1.html
o Kritzer, H. (1996) "The Data Puzzle: The Nature of Interpretation in Quantitative
Research" en American Journal of Political Science Vol. 40 No 1 Frebruary Pp. 1-32
o Marsh, D and Stoker, G. (edt.) (1995) Theory and Methods in Political Science.
MacMillan Press. London.
o Marshall Magan, J. (1994) "Research Report: Using a Database Management
System to Support Qualitative Research" en Social Science Computer Review, 12:I,
Spring. P.p. 114-121.
o Marshall, C. y Rossman, G. (1995) Designing Qualitative Research. 2º Edition.
Sage. California.
o Michael M. y McIntyre, L. (1994) Readings in the Philosophy of Social Science.
MIT Press. USA.
o Melucci, A. (1996) Challenging Codes. Collective Action in the Information Age.
Cambridge University Press. Cambridge.
o Myerson, G. (1994) Rhetoric, Reason and Society. Sage. London.
o Outhwaite, W. (1987) New Philosophy of Social Science. St. Martin's Press. New
York.
o Outhwaite, W. (1994) Theoretical Concepts and Real Definition. University of
Sussex. ms.
o Outhwaite, W. (1996) "Introduction" Klassisk og Modern samfundsteorien
Introduktion. de Andersen, H. y Kaspersen, L. Vorlag. Copenhagen. Forthcoming
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 441
o Pawson, R. (1994) "Quality and Quantity, Agency and Structure, Mechanism and
Context, Dons and Cons." Nuffield College 1993/ World Congress of Sociology ISA ,
Bielefeld M/S.
o Ritzer, G. (Eds) (1990) Frontiers of Social Theory. The New Synthesis. Columbia
University Press. New York.
o Root, M. (1994) Philosophy of Social Science Blackwell Publishers. Oxford.
o Rossman, G. (1995) Designing Qualitative Research. 2° Edition. Sage. California.
o Scribano, A. (1994) Teoría Social y Hermenéutica. Centro Editor de América
Latina. Buenos Aires. Colección: Los Fundamentos de las Ciencias del Hombre. Nº
141.
o Scribano, A. (1995) Curso Introductorio al Proceso de Investigación en Ciencias
Sociales. Centro Editor de la Secretaría de Ciencia y Tecnología de la Universidad
Nacional de Catamarca.
o Scribano, A. (1997) "El Problema de la Acumulación de Conocimiento en las
Ciencias Sociales". Estudios Sociológicos Vol. XV, Num, 45, Septiembre-Diciembre.
1997.Pp 857-869 Colegio de México. México, D.F.
o Scribano, A. (1998a) "Texto Sociológico y Metáfora". en Red de Filosofía y Teoría
Social, Tercer Encuentro, Enrique Giménez y Adrián Scribano (Comp.). Centro
Editor de la Secretaría de Ciencia y Tecnología de la Universidad Nacional de
Catamarca. ISBN 950-746-015-2 pp.221-240
o Scribano, A. (1998b) "Complex Society and Social Theory". Social Science
Information. 37 (3) Sept, p.p 493-532 Sage.
o Scribano, A. (1999) Epistemología y Teoría: Un estudio introductorio a Habermas,
Bourdieu y Giddens. Centro Editor de la Secretaría de Ciencia y Tecnología de la
Universidad Nacional de Catamarca., 251 p.p. ISBN Nº 950-746-018-7
o Tesch, R. (1991) "Sofware for Qualitative Researchers: Analysis Needs and
Program Capabilities", en Lee y Fielding Using Computers in Qualitative Research .
Sage. London p.p 16-38.
o Sayer, A. (1992) Method in Social Science. 2nd. edition. Routledge. London.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 442
<
5. CAPITULO V: ELEMENTOS PARA LA ELABORACIÓN DEL INFORME DE INVESTIGACIÓN
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 443
5.1. INVESTIGACION CIENTIFICA Y ESCRITURA CIENTIFICA
Manuel A. Bobenrieth
5.1.1. DESAFIOS PARA EL INVESTIGADOR: 1. ¿COMO ORGANIZAR Y ANALIZAR LA INFORMACION?
Selección de variables a analizar; Arreglos adecuados de la información para cada
variables; Resumen de la información para discernir sobre relaciones y contrastes;
2. ¿CÓMO SACAR CONCLUSIONES?
Conocimiento de antecedentes científicos, estructura de la investigación y magnitud de
relaciones observadas y de contrastes permite uso del juicio científico para decisiones
sobre importancia sustantiva;
Magnitudes observadas y tamaño de los grupos examinados permite inferencia
matemática para decisiones sobre “significación estadística”;
3. ¿CÓMO COMUNICAR LOS RESULTADOS?
Provisión a la comunidad científica de un recuento claro y conciso de qué se hizo, qué se
encontró y qué se concluyó; Recuento debe ser comprensible, evaluable y utilizable por
la comunidad científica y de servicios de salud.
5.1.2. PREGUNTAS CLAVES PARA ANTES DE SENTARSE A ESCRIBIR UN ARTICULO: 1. ¿QUE ES LO QUE TENGO QUE DECIR?
2. VALE EL DOCUMENTO EL ESFUERZO DE ESCRIBIRLO?
3. CUAL ES EL FORMATO (O ESTRUCTURA) ADECUADO
4. ¿CUAL ES LA AUDIENCIA ESPERADA?
5. ¿CUÁL ES LA REVISTA APROPIADA?
5.1.3. COMO ORGANIZAR LOS PENSAMIENTOS PLANIFICACION: PRIMER PASO HACIA LA COMPETENCIA: 1. INCLUIR CADA TEMA QUE REQUIERE LA MATERIA
2. EXCLUIR CADA TEMA QUE NO REQUIERE LA MATERIA
3. DIVIDIR CADA TEMA EN SUS SUBCATEGORIAS PRINCIPALES.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 444
4. ORDENAR CADA GRUPO DE SUBCATEGORIAS ADECUADAMENTE
5.1.4. FORMAS DE ESCRITURA TECNICO-CIENTIFICA: 1. CARTA
2. MEMORANDUM
3. PROPUESTA
4. INFORME TECNICO
5. RESEÑA
6. MONOGRAFIA
7. CAPITULO DE LIBRO
8. LIBRO
9. ARTICULO CIENTIFICO
5.1.5. CRITERIOS PARA ESCRITURA EFECTIVA 1. RIGOR LOGICO
2. REPLICABILIDAD
3. CLARIDAD Y CONCISION DE ESTILO
4. ORIGINALIDAD
5. PRECISION
6. AMPLITUD
7. COMPATIBILIDAD CON ETICA
8. SIGNIFICACION
9. PERTINENCIA
10. APLICABILIDAD
5.1.6. COMO EVITAR LAS FALTAS MAS COMUNES EN LOS INFORMES 1. ESTABLECER CLARAMENTE EL PROPOSITO
2. DAR UN ANTECEDENTE BREVE DEL TEMA
3. TRABAJAR CON UN ESQUEMA CLARO Y EFICAZ
4. DIFERENCIAR HECHOS DE OPINIONES
5. USAR FRECUENTES AYUDAS VISUALES
6. PRODUCIR UN DOCUMENTO ATRACTIVO Y AGRADABLE
7. ASEGURAR CONCLUSIONES CLARAS Y PERTINENTES
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 445
8. UTILIZAR LENGUAJE PRECISO Y CONCISO, NO VAGO NI AMBIGUO EN EL
5.1.7. PROCESO DE ESCRITURA: 1. PREPARACIÓN
- OBJETIVO
- AMPLITUD
- AUDIENCIA
2. INFORMACIÓN
- SISTEMA DE ANOTACIÓN
- INVESTIGACION BIBLIOGRAFICA
3. ENTREVISTAS ENCUESTAS (muestra y cuestionarios)
4. ORGANIZACIÓN:
- METODO DE DESARROLLO
- ESQUEMA
- LUSTRACIONES
5. PRIMER BORRADOR
- TITULO
- INTRODUCCION
- EXPOSICION
- CONCLUSION
6. SEGUNDO BORRADOR (REVISION)
- CLARIDAD
- COHERENCIA
- CONCISION
- LOGICA
- TRANSICION
- UNIDAD
- DEFINICION TERMINOS
5.1.8. COMO CONSTRUIR ORACIONES GRAMATICALES EFECTIVAS: 1. USAR SOLAMENTE PALABRAS NECESARIAS
2. EVITAR CONSTRUCCIONES INCOMPLETAS
3. DAR ENFASIS A LOS PENSAMIENTOS PRINCIPALES
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 446
4. UBICAR CORRECTAMENTE TODOS LOS MODIFICANTES
5. USAR CONSTRUCCIONES SIMILARES PARA EXPRESAR SITUACIONES
SIMILARES
6. EMPLEAR TERMINOS PRECISOS
7. TRATAR DE MEJORAR LA REDACCION EN FORMA HABITUAL
5.1.9. ESTILO EDITORIAL: 1. FORMATO
2. IDENTACION
3. PAGINACION
4. TIPO Y TAMAÑO LETRA
5. NUMERACION
6. TERMINOLOGIA (MECANICA)
7. MAYUSCULAS
8. ABREVIACIONES
9. PALABRAS COMPUESTAS
10. DELETREO
11. SIMBOLOS
12. CONTRACCIONES
13. ACRONIMOS
14. SILABEO
15. CURSIVA
16. BIBLIOGRAFIA
17. NOTAS DE PIE DE PAGINA
18. PUNTUACION
19. PUNTO APARTE
20. PUNTO SEGUIDO
21. COMA
22. PUNTO Y COMA
23. DOS PUNTOS
24. GUION
25. PARENTESIS
26. EXCLAMACION
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 447
27. NTERROGACION
5.1.10. FALTAS FRECUENTES QUE CONSTITUYEN CAUSAS DE RECHAZO DE ARTICULOS TECNICO - CIENTIFICOS. 5.1.10.1. FALTAS RELACIONADAS CON EL CONTENIDO DE LA INVESTIGACION A. Fase conceptual de la investigación
B. Fase empírica de la investigación
C. Fase interpretativa de la investigación
5.1.10.2. FALTAS RELACIONADAS CON EL INFORME DE LA INVESTIGACION A. Estructura del artículo
B. Estilo del artículo.
5.1.11. ASPECTOS PARA UNA LECTURA INTELIGENTE: 5.1.11.1. SELECCIÓN Lo que es nuevo y relevante a mi interés
Lo que me ayuda a resolver un problema en particular o responder a una necesidad
específica de información
Lectura crítica (título, resumen, resultados y resto)
5.1.11.2. EVALUACION DE CALIDAD Confiabilidad de la información
Diseño investigación
Procedimientos estadísticos
Falsedad consciente (fraude, engaño, plagio)
Secreto, reserva (retención de información)
5.1.11.3. ACCESO A LA LITERATURA “BENDITO ES EL HOMBRE QUIEN NO TENIENDO NADA QUE DECIR SE ABSTIENE
DE DAR EN PALABRAS EVIDENCIA DE ESE HECHO” George Eliot (1819-1880)
http://www.unet.edu.ve/~frey/varios/decinv/investigacion/investyescrit.html
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 448
5.2. CÓMO ESCRIBIR UN ARTÍCULO CIENTÍFICO
5.2.1. LA ESTRUCTURA DE UN ARTÍCULO ORIGINAL 5.2.1.1. INTRODUCCIÓN La introducción debe responder a la pregunta de "porqué se ha hecho este trabajo".
Describe el interés que tiene en el contexto científico del momento, los trabajos previos
que se han hecho sobre el tema y qué aspectos no dejan claros. Con la abundancia de
trabajos de revisión existentes actualmente, la Introducción no necesariamente debe ser
muy extensa y puede beneficiarse de lo expuesto en la revisión más reciente sobre el
tema.
La Introducción es pues la presentación de una pregunta, la cual es a su vez como el nexo
de unión que engarza la investigación con el cuerpo de doctrina existente. Y para no
encontrarse al final del esfuerzo con la sorpresa de que la pregunta ya ha sido respondida
por otro investigador más madrugador, es necesario (imperativo, por mucho que cueste),
hacer una revisión bibliográfica previa. Probablemente es la parte más costosa del
trabajo, entre otras cosas porque siempre existe la posibilidad de que de dicha revisión
pueda concluirse que nuestras preguntas ya tienen respuesta y, por lo tanto, no vale la
pena llevar a cabo la investigación.
Es conveniente que el último párrafo de la Introducción se utilice para resumir el objetivo
del estudio.
5.2.1.2. MATERIAL Y MÉTODOS En esta sección se responde a la pregunta de "cómo se ha hecho el estudio". Una vez se
han visto las razones por las que merece la pena acometer el proyecto, hay que pensar en
cómo llevarlo a la práctica, para lo cual es de gran utilidad la ayuda de un epidemiólogo o de un bioestadístico a fin de no malgastar esfuerzos en vano. Un magnífico proyecto
puede resultar inválido o ineficiente si no utiliza la metodología adecuada: no se puede
llevar a cabo un estudio de causalidad con un diseño transversal; es ineficiente hacer un
estudio prospectivo, más largo y costoso, si lo que se busca es simplemente explorar una
hipotética relación causa-efecto, algo que con un estudio retrospectivo, más rápido y
barato, puede resolverse, reservando el estudio prospectivo para probar dicha relación.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 449
Muchos estudios fracasan por defectos en la metodología utilizada. Si un bioestadístico o
epidemiólogo colabora de alguna forma en la investigación, debe ser, o bien retribuido
económicamente, o bien incluido entre los autores.
La sección de material y métodos se organiza en cinco áreas:
• Diseño: se describe el diseño del experimento (aleatorio, controlado, casos y
controles, ensayo clínico, prospectivo, etc.)
• Población sobre la que se ha hecho el estudio. Describe el marco de la muestra y
cómo se ha hecho su selección.
• Entorno: indica dónde se ha hecho el estudio (hospital, asistencia primaria,
escuela, etc).
• Intervenciones: se describen las técnicas, tratamientos (utilizar nombres genéricos
siempre), mediciones y unidades, pruebas piloto, aparatos y tecnología, etc.
• Análisis estadístico: señala los métodos estadísticos utilizados y cómo se han
analizado los datos.
La sección de material y métodos debe ser lo suficientemente detallada como para que
otro autor pueda repetir el estudio y verificar los resultados de forma independiente.
5.2.1.3. RESULTADOS Esta sección debiera ser la más simple de redactar. Incluye las tablas y figuras que, por sí
solas, deben poder expresar claramente los resultados del estudio. Hay editores de
revistas importantes que afirman sin ambages que el mejor texto para esta sección
debiera ser simplemente: "los resultados del estudio se pueden ver en la Tabla 1".
Los resultados deben cumplir dos funciones:
• Expresar los resultados de los experimentos descritos en el Material y Métodos.
• Presentar las pruebas que apoyan tales resultados, sea en forma de figuras,
tablas o en el mismo texto.
Los resultados deben poder ser vistos y entendidos de forma rápida y clara. Es por ello por
lo que la construcción de esta sección debe comenzar por la elaboración de las tablas y
figuras, y sólo posteriormente redactar el texto pertinente en función de ellas. El primer
párrafo de este texto debe ser utilizado para resumir en una frase concisa, clara y directa,
el hallazgo principal del estudio. Esta sección debe ser escrita utilizando los verbos en
pasado. Aunque se utiliza mucho la voz pasiva o el impersonal ("se ha encontrado que...")
como prefieren algunos editores, cada vez se tiende más a utilizar la voz activa en primera
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 450
persona del plural ("hemos visto que... "); al fin y al cabo el mérito es de los autores y no
hay porqué ocultarlo.
Discusión
Esta sección es el corazón del manuscrito, donde la mayoría de los lectores irán después
de leer el resumen (a pesar de que los expertos recomiendan que, tras leer el título, lo
primero que hay que leer es el material y métodos) y la sección más compleja de elaborar
y organizar. Algunas sugerencias pueden ayudar:
• Comience la Discusión con la respuesta a la pregunta de la Introducción, seguida
inmediatamente con las pruebas expuestas en los resultados que la corroboran.
• Escriba esta sección en presente ("estos datos indican que"), porque los hallazgos
del trabajo se consideran ya evidencia científica.
• Saque a la luz y comente claramente, en lugar de ocultarlos, los resultados
anómalos, dándoles una explicación lo más coherente posible o simplemente
diciendo que esto es lo que ha encontrado, aunque por el momento no se vea
explicación. Si no lo hace el autor, a buen seguro lo hará el editor.
• Especule y teorice con imaginación y lógica. Esto puede avivar el interés de los
lectores.
• Incluya las recomendaciones que crea oportunas, si es apropiado.
• Y, por encima de todo, evite sacar más conclusiones de las que sus resultados
permitan, por mucho que esas conclusiones sean menos espectaculares que las
esperadas o deseadas.
5.2.2. OTROS ASPECTOS DEL ARTÍCULO El título debe ser corto, conciso y claro. Los más efectivos tienen menos de 10 palabras y
no deben incluir abreviaturas ni acrónimos. Todos los acrónimos utilizados en el texto
deben ser seguidos, la primera vez que se mencionan, de un paréntesis con su
significado. Es aconsejable que el título sea escrito después de redactar el núcleo del
manuscrito (introducción, material-métodos, resultados y discusión). Los títulos pueden ser
informativos ("Alta incidencia de infartos de miocardio en fumadores") o indicativos
("Incidencia del infarto de miocardio en fumadores").
El resumen da una visión de conjunto del trabajo. Si se trata de trabajos de revisión, el
resumen suele ser descriptivo (describe brevemente cuál es el contenido del trabajo y no
menciona resultados ni conclusiones); si se trata de trabajos originales, el resumen es
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 451
comprehensivo (informa brevemente de todas las secciones del trabajo, incluyendo
resultados y conclusiones). Este resumen comprehensivo puede ser estructurado (con
los apartados de: objetivo, diseño, entorno, sujetos, resultados y conclusiones) o no estructurado, en el que la información se suele dar en dos o tres párrafos. Obsérvese que
en el resumen estructurado, la Introducción es sustituida por Objetivo, la Discusión por
Conclusiones y el Material-Métodos está separado en sus componentes.
Los errores más frecuentes en la redacción del resumen son:
• no plantear claramente la pregunta
• ser demasiado largo
• ser demasiado detallado
Las palabras clave serán de 3 a 10, si su número no está ya especificado en las
"Instrucciones para los Autores", y seleccionadas a ser posible de la lista del MeSH
(Medical Subject Headings), del Index Medicus o del Indice Médico Español.
Los agradecimientos se situarán en el lugar que determine el editor de la revista en las
"Instrucciones para los Autores": puede ser en la primera página o al final de la Discusión.
Se deben incluir en los agradecimientos, pero no entre los autores, a quienes sin ser
autores o coautores en sentido estricto han prestado su ayuda técnica (técnicos de
laboratorio, secretarias, etc.) o han sido de inestimable apoyo moral (el Jefe de un
Departamento, etc.).
La bibliografía se citará según la normativa exigida por la revista elegida. Salvo casos de
publicaciones de gran relevancia histórica, las citas deben ser recientes, no superiores a
los 5 años en caso de un trabajo de revisión. Esta normativa suele seguir de manera
bastante uniforme las normas de Vancouver. • Para la citación de revistas se indica el siguiente orden:
o Nombre de los autores, hasta un máximo de seis, separados por comas, con
su apellido y las iniciales sin puntos (excepto tras la última inicial del último
autor). Si se sobrepasa el número de seis, hay que escribir los seis primeros
y añadir "et al.", abreviación de la expresión latina "et alii" que significa "y
otros". Si el autor es un Comité, poner el nombre del Comité.
o Título del trabajo, terminado con un punto.
o Revista biomédica, en su expresión abreviada según aparece en el Index
Medicus, a la que sigue, sin puntuación alguna intermedia, el
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 452
o Año de publicación, -punto y coma-, Volumen, -abrir paréntesis-, Número o mes del ejemplar (esto puede omitirse si la paginación del Volumen es
consecutiva), -cerrar paréntesis-, -dos puntos-, Páginas del artículo (la
primera y la última, si bien la última página puede indicarse con sólo el último
dígito si los primeros fueran iguales a los de la primera página).
• Si se trata capítulos de libros en los que varios autores han colaborado, se cita de
la siguiente forma:
o Autor/es del capítulo
o Título del capítulo
o Autor/es del libro (denominados "editores" en terminología anglosajona),
o Título del libro
o Ciudad donde se ha impreso
o Editorial que lo ha publicado
o Año de publicación
o páginas (primera y última) del capítulo
He aquí algunos ejemplos:
1-International Committee of Medical Journal Editors. Uniform requirements
for manuscripts submitted to biomedical journals. N Engl J Med 1991; 324:
424-5
2-Weinstein L, Swartz MN. Pathologic properties of invading microorganisms.
En: Sodeman WA, editor. Pathologic physiology: mechanisms of disease.
Philadelphia: Saunders, 1974:457-72.
Además de la normativa de Vancouver, existe la normativa para la citación de
publicaciones en la bibliografía de trabajos científicos, según la American Psychology Association.
5.2.3. COMPROBACIÓN DE ERRORES • ¿Se envía a la revista adecuada?
• ¿Se cumplen todas las instrucciones que el editor de la revista indica?
• ¿Son los autores los que realmente merecen el crédito del trabajo?
• ¿Es el resumen demasiado largo o demasiado complejo?
• ¿Está correctamente estructurado el núcleo del trabajo (introducción, material-
métodos, resultados, discusión?
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 453
• ¿Es la bibliografía reciente y citada según normativa de la propia revista?
• ¿Se corresponden las citas bibliográficas con lugar del texto donde se citan?
• ¿Se responde en la Conclusión a la pregunta formulada en la Introducción?
• ¿Se sacan las conclusiones apropiadas a los resultados obtenidos y no más?
• ¿Son las tablas o figuras fácilmente inteligibles y resumen los resultados?
• ¿Están la Introducción y Conclusiones escritas en presente, y el Material y
Resultados, en pasado?
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 454
5.3. EPISTEMOGRAFÍAS. LA ESCRITURA DE LOS RESULTADOS DE INVESTIGACIÓN
Juan Besse
5.3.1. RESUMEN El presente artículo tiene como objetivo desplegar un conjunto de reflexiones que pueden
ser de utilidad para exponer los resultados de investigación. En ese sentido, podemos
distinguir, en principio, dos tipos de prácticas discursivas: 1) la escritura que va diseñando
los diversos componentes de una investigación y 2) la escritura destinada a elaborar un
producto para ser expuesto públicamente. Y este último es un punto no menor, porque
está asociado a la comunicación y el intercambio de los productos de investigación. A
aquello que podríamos denominar el proceso de su publificación. Un término que resulta
útil ya que agrega al acto material de la publicación, la producción de su resonancia social.
El análisis de las prácticas de escritura de los resultados de investigación se asienta en la
distinción de tres aspectos anudados de manera borromea: lo epistémico, lo metódico y lo
técnico. En el presente trabajo hemos puesto énfasis en los dos primeros.
5.3.2. INTRODUCCIÓN El presente artículo tiene como objetivo desplegar un conjunto de reflexiones que pueden
ser de utilidad para exponer los resultados de investigación.
En ese sentido, podemos distinguir, en principio, dos tipos de prácticas discursivas: 1) La
escritura que va diseñando los diversos componentes de una investigación y 2) la escritura
destinada a elaborar un producto para ser expuesto públicamente. Y este último es un
punto no menor, porque está asociado a la comunicación y el intercambio de los productos
de investigación. A aquello que podríamos denominar el proceso de su publificación. Un
término que resulta útil ya que agrega al acto material de la publicación la producción de
su resonancia social.
Rabotnikof (1998: 5 y ss.) distingue tres "criterios heterogéneos" para el trazado de la
distinción entre lo público y lo privado, o, lo que ella llama "tres sentidos tradicionalmente
adheridos a la distinción público-privado". El primer criterio es el que opone lo colectivo a
lo individual, en esa oposición lo público asumiría el sentido del interés general y se
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 455
deslizaría hacia su asociación sinonímica con lo político, tanto lo público estatal como lo
no estatal. El segundo criterio haría hincapié en la oposición entre lo visible y lo oculto,
entre lo manifiesto y lo secreto. Un criterio que pone en el tapete la dimensión espacial de
lo público y su relación con la mirada. Por último, el tercero, es el que opone apertura a
clausura y define lo público por las condiciones de accesibilidad y como contrapartida
establece las condiciones de apropiación de los objetos culturales. Entre ellos, el
conocimiento.
La distinción entre discurso de investigación y discurso de exposición (Escolar 2000)
puede entonces delinearse sobre la base de estas nociones de lo público, o más
precisamente de las relaciones entre lo público y lo privado que atraviesan la producción
de los ordenamientos sociales. Algo así como distinguir entre la cocina del platillo para la
fiesta y el modo de exponerlo para convertirlo en objeto de consumo.
Es obvio que entre ambos tipos de discurso hay una relación quiasmática. No hay
delikatessen sin cocina, pero difícilmente ese producto sería deseado y consumido sin la
fantasía que soporta su realidad como conocimiento. Los libros los compramos en
librerías, y no en cualquiera, y los informes de investigación deben estar escritos en
"lenguaje científico" y presentados según ciertos formatos discursivos y estéticos que
trasunten familiaridad y den cuenta de su sostén institucional. Lo que equivale a decir que
el informe genere las propias condiciones de su legitimidad haciendo pública su inscripción
social e institucional (1).
Es decir, se espera del conocimiento científico que sea público en alguno de los sentidos
antes mencionados. Por lo menos que sirva al interés general, sus fundamentos sean
visibles y manifiestos y, en tanto bien común, esté garantizada su accesibilidad. Sin
embargo, desde la constitución del campo científico social en el siglo XIX, la "publificación"
del conocimiento ha basculado históricamente entre, por lo menos, dos conjuntos de
imágenes sobre la ciencia cuyos rasgos principales han sido y aún siguen siendo
esquemáticamente:
a) una ciencia independiente de la política -cuyo atributo esencial es la frontera que la
separa del sentido común y las ideologías de turno- capaz de descubrir un mundo, es
decir con acceso a la verdad como correspondencia y/o adecuación, cuya expresión más
ordinaria es el dogma de la neutralidad valorativa de cuño positivista y
b) una ciencia altamente politizada dónde su especificidad como práctica social se ve
desdibujada en provecho de los proyectos político-ideológicos que le otorgan su razón de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 456
ser. De modo tal que la ciencia adquiere un carácter altamente instrumental, ya sea por
servir a proyectos estratégicos estatales o por colaborar en la tarea de sedimentar las
identidades nacionales en función de esos proyectos (2).
Lo más destacable de ambas opciones epistemológicas es el modo en que se traman la
una con la otra, una concepción opera como fantasma de la otra dándole una consistencia
positiva arrolladora. La báscula entre las concepciones antagónicas mencionadas halló
sus momentos de vacilación en lo que podríamos llamar un saber que al reconocer su
ligazón estructural con el poder puede distanciarse del mismo, y de ese modo procurar
fijar en la travesía de la crítica al poder, los límites históricos del acoplamiento.
En ese sentido, el panorama quedaría incompleto si eludiéramos una tercer concepción
que juega sus cartas en los campos del antagonismo entre del saber disyunto del poder y
el saber acoplado al poder. Esa concepción es la del impolítico nietzscheano que
compartiera con Weber el ideal de una ciencia independiente de la filosofía pro estatal, en
definitiva, una práctica científica capaz de distanciarse de los proyectos gubernamentales
dominantes y por lo tanto devenir en ciertos contextos institucionales grupo sujeto en la
construcción de relaciones democratizantes entre la sociedad (civil) y el estado (3). Y es
precisamente en este punto que el conocimiento, en tanto objeto de intercambio puede, y
necesita, ser pensado como factor constituyente de la esfera pública. Es decir, los tres
criterios heterogéneos para definir "lo público" señalados por Rabotnikof más arriba, tienen
que articular los conceptos de estado, mercado y sociedad civil mediante un anudamiento
borromeo que dé cuenta de los modos históricos y de las especificidades institucionales
en que la escritura científica es producida y apropiada.
Ahora bien, pensar el informe de investigación puede ser una tarea vasta, de modo tal que
es pertinente establecer tres aspectos que a grandes trazos constituyen los problemas de
toda escritura pública:
2) El aspecto epistémico de la producción y el consumo de conocimiento, que como
toda epistemología es necesariamente política ya que fija las condiciones de la
eficacia del discurso y regula por tanto los aspectos metodológicos y técnicos que
participan en su construcción. Es decir todo lo atinente a la demanda de
conocimiento, qué se demanda y quién demanda una investigación (Ibáñez 1986).
De modo tal que la demanda sea entendida como parte del dispositivo de validación
del conocimiento. No sería exagerado decir entonces que el deseo de las
instituciones o de quienes las componen, la pregunta por el deseo del otro, es parte
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 457
del aspecto político de toda escritura. Y en esa encrucijada, empezamos a delinear
el contorno de un problema: lo que desean las instituciones no siempre coincide
con lo que anhelan.
3) El aspecto metódico, que en tanto práctica, lo es de un proceso de investigación
particular y da cuenta de las relaciones entre la teoría, el método y la técnica en el
proceso de construcción de un objeto de investigación (Bourdieu 1987). Este
aspecto es el que permite articular el discurso de investigación en un discurso de
exposición mediante estrategias narrativas cuyo objetivo, a nuestro entender, es
producir la unidad en la discontinuidad sin perder el carácter heterogéneo y abierto
de lo social. Aquí se juega la eficacia del montaje que el investigador realiza con
metros de celuloide, dirección y método.
4) Imaginemos que usted ha escrito en varios registros, que ha acopiado información
discrepante y aspira a construir explicaciones coherentes que sin aplanar la
discrepancia permitan captar la lógica fragmentaria en que se expresa lo social y
sus conflictos, sin embargo está obsesionado por la transmisibilidad de sus ideas.
Así, el método es ese camino que construye las ideas. Entre el método y las ideas
hay una relación de anverso y reverso. Antes del método con dificultad estamos
frente a relaciones conceptuales como las que constituyen las explicaciones o las
descripciones. La ideabilidad de las transmisiones es el envés del problema: ¿cómo
nos separamos (se-parere) del otro y engendramos el objeto? A lo que agregamos
un aspecto propiamente epistémico. La construcción de un objeto de investigación,
no es posible sin un efecto de cierre conceptual. Ahora bien, ¿cómo efectuar el
cierre conceptual sin caer en la ausencia de punto de fuga, es decir, en un cierre de
la significación?
5) El aspecto técnico que apela a ciertas figuras de la escritura y de la gráfica que
permiten exponer la información como datos y que ayudan al lector a aproximarse
al informe. El informe es un texto que sometido a una práctica de lectura puede
proveer pistas para reconstruir el objeto de investigación construido por la práctica
de investigación. Como lectores hemos incorporado ciertos hábitos, que suelen
combinar la visión y el tacto.
6) En el caso del libro, y esto presenta apenas una diferencia de grado con los
informes caseros o los documentos institucionales que aspiran a imitar su formato;
el rodeo comienza con la tapa, la contratapa, la solapa, antes o después el índice,
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 458
la bibliografía, las notas al pie que nos indican la adscripción institucional. Una
estrategia que nos evoca el relato mítico o histórico de Atahuallpa oliendo la Biblia,
sometiendo el texto sagrado a la tactilidad profana que no ve más allá del ícono al
ser supremo indiscernible; sencillamente porque no mora dentro de él. Sin
embargo, de alguna manera se lo busca en la pregunta sobre el qué pretende, que
se adosa al ¿quién es y sobre qué habla? Allí se juega la técnica expositiva. Una
delgada línea que separa el ornamento de la estructura y deja al desnudo cierta
inescindible relación de la forma y el contenido. Vemos el libro, el informe, el
producto de investigación en cualquiera de sus formatos, pero siempre desde un
lugar diferente del que el artefacto nos mira.
Los tres aspectos están presentes con diversos grados de predominancia en el derrotero
que traza un proceso de investigación. Entre el 1) establecimiento del encuadre
epistémico, 2) las decisiones de las articulaciones de método que realiza el investigador y
3) las opciones técnicas a las que apela para exponer los resultados que ha obtenido
encontramos nuevamente un anudamiento borromeo. No es posible pensar la escritura
como técnica de exposición más allá de las decisiones metodológicas o de la demanda del
campo profesional para el que y, finalmente, en el que trabajamos.
En tal sentido, suscribir la distinción entre el lenguaje denotativo y el connotativo, nos
arroja al despeñadero de los sobrentendidos que en ocasiones suelen ser más perniciosos
que los malentendidos, porque reemplazan la función de pensar por lo pensado e instalan
la confusión entre la reproducción institucional, a la que cualquier institución aspira, y la
normalización del sentido de la comunicación. Algo así como interpretar que normatividad
y normativismo (4) son términos intercambiables.
A continuación desarrollaremos unos apuntes que tienen como objetivo ampliar los
aspectos epistémico y metódico de la escritura en la investigación social y avanzar en la
conceptualización del aspecto técnico mediante el supuesto de su anudamiento con los
niveles anteriores.
5.3.3. EL ASPECTO EPISTÉMICO: EL ENCUADRE POLÍTICO DE LA ESCRITURA "los informes de investigación esperan la consagración de su lanzamiento
en un volumen de pasta dura, o con más frecuencia desaparecen en el
purgatorio, en la flotilla de la ‘literatura gris’ empantanada en el secreto de los
Ministerios o de los centros de investigación" Michel de Certeau
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 459
¿Qué sentidos soporta la palabra escritura? Si nos desplazamos por el sesgo etimológico
del título se impone la representación de una inscripción. Inscripción de lo circunscripto
mediante una práctica de investigación, es decir, lo que ha podido ser construido como
conjunto mediante un diseño, cuyo proceso de elaboración ha dejado su huella.
En un trabajo anterior (Besse 2000), donde nos propusimos explorar las relaciones entre
la escritura y las prácticas de diseño, hicimos uso de la imagen de la escritura como una
articulación múltiple. La multiplicidad es lo que hace de esa articulación "algo"
problemático. Sin embargo, aquí no nos vamos a detener in extenso en los supuestos
teóricos que permiten problematizar la escritura, sino que, como si se tratara de transitar
un camino inverso, intentaremos dar cuenta de ciertas precauciones de método que
pueden facilitar la producción de un documento institucional, eso que habitualmente
llamamos informe de investigación.
Si pensamos el informe de investigación como un instrumento para la comunicación, es
inevitable desensillar en la comunicabilidad del texto que soporta la letra. En ese punto
podemos acordar en que los discursos de investigación aspiran a ser comunicados (5) y lo
hacen en la medida que hagan signo. Esto es, que la actividad del lector produzca un
efecto de sentido que se aproxime al que quiso imprimirle el escritor. Por supuesto, el
discurso oficiará de lazo y habilitará la comprensión si se inscribe en una formación social
–discursiva e institucional- que oficie de interpretante. Cuestión esta última que rebasa la
suposición de un marco cultural común a investigadores y lectores, y por lo tanto nos invita
a sondear como operan esas formaciones sociales, en tanto creadoras de demanda, en
los procesos de producción de significación en los campos académicos, intelectuales y
profesionales.
¿Qué pasa entre las estrategias de comunicación de los investigadores, mediante actos
de escritura y las apropiaciones plurales, móviles de los lectores? ¿Cómo se transforman
los documentos de investigación mediante las operaciones de los usuarios? (Certeau
1980; Chartier 1997) ¿Cómo se trama la relación entre la comunicabilidad y la
transmisibilidad en una práctica discursiva como es la de producir un texto escrito? Esas
preguntas nos confrontan con los límites de la comunicación -de toda comunicación- y nos
permiten pensar criterios de comunicabilidad relativamente (6) óptimos.
La eficacia relativa de cualquier escritura se asienta en su capacidad de coadyuvar a
producir un acto de subjetivación. Es en la práctica de lectura, que el discurso hace signo
y produce enlace; allí donde se bordean los contornos de un objeto de conocimiento,
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 460
adviene el sujeto. Sujeto y objeto de conocimiento se co-constituyen simultáneamente, a lo
cual agregaría sujeto y sujeto se co-constituyen simultáneamente.
El problema está precisamente en la ciénaga de la simultaneidad. Una perspectiva
"dialéctico-subjetiva", daría cuenta de la compenetración de los opuestos, pensaría al
objeto como acuerdo intersubjetivo, en fin, suturaría la falta, mediante la postulación de la
realidad "hecha" objeto mediante "el colapso del campo mismo de la subjetividad qua
vehículo de la verdad en el capitalismo tardío" y rompería el carácter colectivo de la
construcción de la verdad faccionándola, es decir volviéndola facciosa mediante "su
desintegración en los dos polos del conocimiento experto y la verdad psicótica ‘privada’"
(Zizek 1994:194). O bien cerrando la discusión como un derivado del criterio de autoridad
propio del discurso experto o cayendo en el perspectivismo ingenuo de las verdades
privadas que eleva la experiencia personal a la categoría de absoluto rompiendo,
paradójicamente desde el relativismo que niega toda certidumbre, la construcción misma
de la relatividad que permite formular problemas sobre la base de criterios de verdad pero
sin absolutizarlos.
Entonces no sería abusivo decir que hay escritura científica, cuando se acoplan el escrito
y la lectura produciendo ese efecto de sentido que permite bordear los contornos de un
problema.
Eso es un objeto de investigación, lo que produce un problema, un ob-jectum, algo que se
interpone en el rumor de las murmuraciones conocidas (7).
En las analogías de los itinerarios, el pensamiento científico se asemeja o mejor dicho está
hecho de la misma sustancia que la metáfora o el chiste; que los son –siempre- para un
determinado público, aquel capaz de construir la equivalencia entre un significante y otro
significante. Entre los cuales media una distancia, que como la letra en el papel es la que
marca que esa equivalencia se asienta en una ruptura con el mundo inmediato o la
naturalización de ese mundo por la experiencia cotidiana que, para el caso, es lo mismo
(Le Gaufey 1993: 191 y ss.).
El informe de investigación, al igual que el proyecto de investigación es un documento de
gestión (8). En tal sentido, la eficacia de la gestión dependerá en mucho del discurso de
exposición, es decir de cómo está escrito, una pregunta que comienza a contestarse a
partir de la demanda de investigación: para qué y para quién se escribe.
¿Qué desea el otro de mi escritura? Pregunta incompleta. ¿Quién es el otro de mi
escritura?
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 461
5.3.4. EL ASPECTO METÓDICO: LA CONSTRUCCIÓN DEL OBJETO-LA DECONSTRUCCIÓN DEL SUJETO-LA CONSTRUCCIÓN DEL SUJETO-LA DECONSTRUCCIÓN DEL OBJETO El consumo científico es también una cuestión de estilo, y no en el sentido vulgar que
identifica estilo con distorsión culterana, tal como sucede con aquellos trabajos dónde la
teoría muestra a las claras su distancia respecto de las descripciones, trasuntando de ese
modo lo que podríamos denominar la debilidad metodológica del trabajo. ¿En qué sentido
puede pensarse la debilidad metodológica de una investigación en relación con la escritura
de los resultados? Caben varias posibilidades. Sin embargo, pensemos en dos tipos de
problemas:
Si, como vimos, es inadecuado partir del supuesto de que la escritura es simplemente la
puesta en página de una delgada laminilla llamada lenguaje científico que expresaría uno
a uno el núcleo de la realidad, sino que por el contrario el lenguaje realiza un arduo trabajo
en la reconstrucción siempre inacabada de esa realidad y por lo tanto, aceptamos que
entre la investigación como práctica y su escritura -como práctica de la práctica- hay una
distancia; una de las posibilidades es que se produzcan (9) aquellos obstáculos de los que
hablaba Bachelard: el formalismo y el empirismo. Por un lado, un dispositivo conceptual
dogmático propenso a la sobreteorización y por otro, porciones de realidad que quieren
ser actos descriptivos pero que no logran romper con el conocimiento espontáneo que
replica las representaciones oficiales de lo oficial (Bourdieu 1987).
Afirmar que la práctica científica y el consumo de los productos que manufactura es una
cuestión de estilo vuelve relevante la relación entre el mercado, el estado y la sociedad
civil en la constitución de los sujetos y objetos de consumo. Según Panofsky (1936: 146)
"estilizar previamente la realidad antes de abordarla es lo mismo que eludir el problema. El
problema radica en manipular y filmar la realidad no estilizada de tal modo que el resultado
cree estilo" (el destacado es nuestro). La investigación social no está al margen de ello,
sin embargo la distancia dialéctica respecto de su propia estructura de funcionamiento
debe impulsar su propia economía política y colaborar en el develamiento de las
relaciones sociales que ayuda a producir.
El método crea estilo. Una determinada forma de exponer los resultados que permita leer
a la letra el modo en que la teoría orientó la producción de la información, es decir ver
como permitió un uso satisfactorio de la técnica haciendo de la entrevista o de la encuesta
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 462
un instrumento para apropiarse de un aspecto de lo real y viceversa. Es decir dar cuenta
acerca de como la información preñó la teoría en un sentido correctivo. Todo ese
movimiento hace a la coherencia del producto final.
No se trata entonces de la coherencia interna de una teoría, como la que puede
expresarse en el desarrollo argumental de los supuestos manejamos como investigadores
o a la coherencia de la descripción de una realidad cualquiera, sino de un cierto croché
que teje la teoría (el discurso manipulable) con lo real (los discursos imposibles que se
escapan cada vez que se los quiere manipular) mediante un efecto interpretativo que
posibilita una coherencia en la que el rigor del discurso no pasa ni por la aguja ni por la
hebra.
Ese es el punto en que el método crea realidad como efecto de discurso. Una realidad que
rebasa la mera postulación o el carácter externo cuando el discurso ha mordido las
determinaciones de lo real. El discurso como la mañanita de la abuela no estaba contenido
ni en la materia prima ni en los instrumentos, sino que fue realizado mediante un acto de
construcción que permite partir de un mundo preconstruido para llegar a producir otro
mundo.
Así las cosas, la exposición o las técnicas expositivas son algo más que instrumentos de
una política. Allí se juega la identidad. Es en el juego de las filiaciones dónde la escritura
en su dimensión expositiva desnuda que no hay meta discurso, que lo dicho es el soporte
de lo que quiere decirse. Lo escrito finalmente se dice así mismo en el acto de la
apropiación. Cuando concurren las apropiaciones de los autores con las de los lectores,
estamos frente a la frontera de la comunicación sin cuya línea no habría comunicabilidad.
Simplemente estaríamos allí como un real que no cesa de existir pero que nada sabe de
eso.
El conocimiento tiene que ver con la distancia entre la cosa y la imagen, entre la imagen y
el nombre. Como afirma Agamben (1996: 80) "la exposición es el lugar de la política. Si no
hay, probablemente, una política animal, es sólo porque los animales, que viven
permanentemente en lo abierto, no tratan de apropiarse de sus exposición, moran
sencillamente en ella sin preocuparse. Por eso no les interesan los espejos, las imágenes
en cuanto imágenes. El hombre, por el contrario, al querer reconocerse -es decir
apropiarse de su propia a apariencia- separa las imágenes de las cosas, les da un
nombre. Así transforma lo abierto en un mundo, en el campo de una lucha política sin
cuartel".
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 463
5.3.5. REFERENCIAS o Agamben, Giorgio (1996) Medios sin fin. Notas sobre la política, Valencia, Pre-
Textos, 2001.
o Aguilar Villanueva, Luis (1988) Weber: la idea de ciencia social. Vol. I La tradición,
México, Cuadernos de Humanidades/Miguel Angel Porrúa.
o Besse, Juan (2000) "Las prácticas de escritura y diseño en la investigación social"
en Cora Escolar (comp.) Topografías de la investigación. Métodos, espacios y
prácticas profesionales, Buenos Aires, Eudeba.
o Bourdieu, Pierre (1987) "La práctica de la antropología reflexiva" en Bourdieu,
Pierre y Loïc Wacquant Respuestas por una antropología reflexiva, México,
Grijalbo, 1995.
o Cacciari, Massimo (1978) "Lo impolítico nietzscheano" en Desde Nietzsche.
Tiempo, arte y política, Buenos Aires, Biblos, 1994.
o Certeau, Michel de (1980) La invención de lo cotidiano. I Artes de hacer, México,
UIA Ediciones, 1996.
o Chartier, Roger (1997) Pluma de ganso, libro de letras, ojo viajero, México,
Universidad Iberoamericana-Departamento de Historia.
o Eagleton, Terry (1996) La función de la crítica, Buenos Aires, Paidós, 1999.
o Escolar, Cora (2000) "Palabras introductorias" en Cora Escolar (comp.)
Topografías de la investigación. Métodos, espacios y prácticas profesionales,
Buenos Aires, Eudeba.
o Herf, Jeffrey (1984) El modernismo reaccionario. Tecnología, cultura y política en
Weimar, México/Buenos Aires, FCE, 1993.
o Ibáñez, Jesús (1979) Más allá de la sociología. El grupo de discusión: técnica y
crítica, Madrid, Siglo XXI de España, 1992.
o Le Gaufey, Guy (1993) La evicción del origen, Buenos Aires, Edelp, 1995.
o Legendre, Pierre (1985) El inestimable objeto de la transmisión. Estudio sobre el
principio genealógico en Occidente, México, Siglo XXI, 1996.
o Milner, Jean-Claude (1995) La obra clara, Buenos Aires, Bordes Manantial, 1996.
o Panofsky, Erwin (1936) "El estilo y el medio en la imagen cinematográfica" en
Sobre el estilo. Tres ensayos inéditos, Barcelona, Paidós, 2000.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 464
o Rabotnikof, Nora (1998) "Lo público, lo privado" en Debate Feminista. Público-
Privado, Año 9, Vol. 18, México, octubre.
o Zizek, Slavoj (1994) "En su mirada insolente está escrita mi ruina" en Zizek, Slavoj
(comp.) Todo lo que usted siempre quiso saber sobre Lacan y no se atrevió a
preguntarle a Hitchcock, Buenos Aires, Manantial.
5.3.6. NOTAS 1) Aquí es pertinente producir un abalizamiento teórico que evite la simplificación que
entraña pensar la legitimidad como derivado de los títulos del autor o como algo que se
encuentra en el mensaje, aquella polémica que Ricoeur pensara como un endeble dilema
entre la "falacia intencional" y la "falacia del texto absoluto" (Besse, 2000: 80 y ss.). Terry
Eagleton (1996: 18) señala que "lo que se dice no obtiene su legitimidad [a lo que yo
agregaría exclusivamente] ni de sí mismo como mensaje ni del título social del emisor,
sino de su conformidad como enunciado con un cierto paradigma de razón inscripto en el
propio acto de habla".
2) Una versión de exacerbada de la ciencia politizada es la que sostuvo el vínculo
ontológico entre cultura y técnica durante el proceso modernización reaccionario que se
desarrolló en Alemania teniendo como actores centrales a los campos profesionales e
intelectuales. Un análisis sugerente puede verse en (Herf, 1994).
3) Para ilustrar esa báscula, dos citas dan cuenta del espesor histórico de los problemas
de la escritura científica, terreno en el que escribir pareció siempre el momento ulterior al
armisticio, pero en el que en realidad se funda la investidura del pensamiento mediante el
acto de su publicación. En relación con Weber, Aguilar Villanueva (1988: 22) nos dice que
"La propuesta teórica y la posición política de Weber (…) En parte, son un esfuerzo por
aclarar el entonces confuso entendimiento del que hacer científico histórico y sociológico y
por deslindar los territorios de la ciencia y la política. En parte son un esfuerzo por
transformar la propensión proestatista de la filosofía alemana en sociología crítica del
estado, el Reich en República". Para Cacciari (1978: 70) " ‘Impolítico’ no significa por lo
tanto ‘supra-político’: su concepto atraviesa el total espacio de lo ‘político’, es, en, lo
‘político’, la crítica de su ideología y de su determinación".
4) Para la conceptualización de la diferencia entre normatividad y normativismo puede
verse Legendre (1985).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 465
5) En esta perspectiva el discurso puede ser entendido como un mensaje. Un discurso,
desde el momento que es producido entraña una pretensión de comunicación y se inscribe
por lo tanto en la lógica del intercambio. El acto de habla bajo el signo de lo inmediato y el
acto de escritura bajo el signo de lo diferido ponen en el tapete las discusiones sobre el
tratamiento del discurso como mensaje que posibilita una práctica de intercambio. En el
caso particular de los discursos científicos, es un presupuesto incuestionable que son
producidos para ser comunicados y que dicha comunicación aspira a comunicar un
sentido. Es allí, en esa aspiración donde la escritura de una manera distinta que el habla
interviene como práctica de articulación entre dos impulsos: la intención del escritor por
imponer un sentido y la intención del lector puesta en hallarlo allí donde lo busca. ¿Quién
aspira?. Las aspiraciones son múltiples y en modo alguno lineales.
6) En coincidencia no explícita con el psicoanálisis de Lacan, Agamben (1996: 72) nos
dice que "lo que impide la comunicación es la comunicabilidad misma; los hombres están
separados por lo que los une".
7) Milner (1995: 8) hace referencia al pensamiento, un pensamiento como algo que objeta
en el sentido que se impone, "es decir algo cuya existencia se impone a quien no lo
pensó".
8) Agradezco esta lectura del informe como documento de gestión a Miriam Wlosko.
9) Es decir que produzcamos y nos produzcan como investigadores.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 466
5.4. GUIA PARA LA REDACCION DE ARTICULOS CIENTIFICOS DESTINADOS A LA PUBLICACION
Anders Martinsson
Programa General de Información y UNISIST organización de las Naciones Unidas para la
Educación, la Ciencia y la Cultura. El presente documento es una reproducción
Fotográfica del texto redactado por el autor. Asiento recomendado:
Guía para la redacción de artículos científicos destinados a la publicación/
Preparada para el/ Programa General de Información y UNISIST-Segunda
Edición/revisada y actualizada por Anders Martinsson-París-Unesco, 1983-13 Págs.
30 cm- (PGI-83/WS/10).
Primera edición en París: Unesco, 1968 (SC/MD/5)
I. Anders Martinsson
II. Unesco – Programa General de Información y UNISIST. Unesco 1983.
0.INTRODUCCION ..........................................................................................................1
1.PREAMBULO................................................................................................................2
2.CATEGORIAS DE ARTICULOS ...................................................................................3
3.REGLA CONTRA LA DUPLICACION DE PUBLICACIONES.......................................3
4.ELEMENTOS CONSTITUTIVOS DEL MANUSCRITO.................................................3
5.ESTILO DE PRESENTACION ......................................................................................4
6.CITAS Y REFERENCIAS .............................................................................................5
7.BIBLID (IDENTIFICACION BIBLIOGRAFICA) ..............................................................6
8.PREPARACION DE RESUMENES ANALITICOS ........................................................6
9.TERMINOLOGIA Y NOMENCLATURA ........................................................................8
10.PREPARACION DE CUADROS..................................................................................8
11.PREPARACION DE ILUSTRACIONES ......................................................................9
12.FORMA DE PRESENTACIÓN...................................................................................10
13.RECOMENDACIONES COMPLEMENTARIAS A LOS JEFES DE REDACCION ....10
14.NORMAS RELATIVAS A LAS PUBLICACIONES CIENTIF.......................................11
15.LISTA DE ABREVIATURAS ......................................................................................13
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 467
5.4.1. INTRODUCCION En 1962, la Unesco publicó las Normas que deben aplicarse en materia de publicaciones
científicas (documento UNESCO / NS / 177), preparado por el entonces comité de enlace
FID-CIUC-FIAB- OIUN. Dicho comité había sido creado para examinar los medios de
llevar a cabo una actividad internacional eficaz que permitieran mejorar la situación de la
información científica. El comité consideró que la falta de disciplina libremente aceptada en
materia de redacción y de publicaciones de informaciones científicas era una de las
causas principales del inútil aumento de los documentos publicados, así como de los
gastos que entraña su publicación primaria y el posterior tratamiento de las publicaciones
en los servicios de indizado y de extractos y en las bibliotecas. Por consiguiente, el comité
estableció en las normas, en la forma más concisa posible, las reglas que debieran seguir
los autores de publicaciones científicas y los redactores de revistas científicas. La Unesco
y la Oficina de Resúmenes Analíticos del CIUC difundieron ampliamente las normas en
español, Francés, Ingles y Ruso; asimismo, se publicaron versiones en Alemán,
Esperanto, Polaco y Portugués.
En 1968, fue publicada la nueva Guía para la Redacción de artículos Científicos
Destinados a la Publicación, en la que se tuvieron en cuenta todas las sugerencias y
comentarios recibidos en relación con las Normas y, en particular, un estudio detenido de
las mismas y de su anexo: la “Guía para la preparación y publicación de resúmenes
analíticos” (titulo dado entonces al resumen preparado por el autor) elaborada por la Unión
Internacional de Física Pura y Aplicada (UIFPA). En principio, se conservaron en la Guía
todos los elementos esenciales de las Normas y solo se hicieron algunas adiciones y
ligeras modificaciones a las normas existentes. No obstante, visto retrospectivamente, la
extraordinaria utilidad e impacto del documento mencionado se debió, en gran parte, al
hecho de que aquéllas iban acompañadas de comentarios, detalles y sugerencias
secundarias, generalmente de carácter explicativo, presentado en cursiva, en columna
aparte, para facilitar la lectura del texto.
En presente edición de la Guía, se mantiene y amplía el enfoque de “una norma
explicativa”. La nueva edición refleja, además, la evolución registrada desde 1.968 en el
mundo de las publicaciones científicas, sobre todo dentro de las asociaciones de jefes de
redacción agrupadas en la IFSEA y que cuenta con patrocinio de la Unesco. En primer
lugar, la publicación de trabajo científicos es ahora más profesional, por lo que la
presentación de publicaciones científicas se centran más en el editor y en el usuario que
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 468
en los bibliotecarios y documentalistas. Actualmente, se hace mayor hincapié en la
ergonomía, la economía y las técnicas más recientes de producción de publicaciones,
teniendo muy en cuenta los hábitos de trabajo del lector y, por supuesto, las necesidades
de los servicios auxiliares. En segundo término, las nuevas técnicas de tratamiento de
textos y de la “palabra” han eliminado la clara línea divisoria que existía entre la
producción tipográfica y la de manuscritos.
La presente Guía trata de la preparación técnica del manuscrito para su composición
profesional, y no de las técnicas, más o menos desarrolladas, que utiliza cada autor para
elaborar un texto mecanografiado, listo para reproducirlo en una publicación relativamente
efímera. No obstante, los principios básicos deberían ser similares.
La preparación adecuada de manuscritos e ilustraciones disminuyen radicalmente los
costos de edición. Las publicaciones correctamente preparadas reducen los enormes
gastos que han de sufragar las bibliotecas científicas y los centros de documentación de
todo el mundo. Además del control de calidad editorial del texto en los manuscritos
científicos, una presentación que tenga en cuenta los factores ergonómicos y económicos
contribuirán en gran medida a diminuir los costos de edición y los tiempos de lectura y de
búsqueda del lector.
5.4.2. PREAMBULO La finalidad esencial de un artículo científico (erudito) es comunicar los resultados de
investigaciones, ideas y debates de una manera clara, concisa y fidedigna. Los autores y
los jefes de redacción deben tratar sobre todo de lograr ese objetivo. La mayoría de las
recomendaciones formuladas en la presente Guía están concebidas con ese fin.
La publicación es uno de los métodos inherentes al trabajo científico. Es preciso
establecer estrategias de publicación bien elaboradas y seguir con conocimiento de causa
una serie de normas adecuadas para facilitar el intercambio entre científicos de todos los
países y reducir a proporciones razonables el incremento del volumen de las
publicaciones.
5.4.3. CATEGORIAS DE ARTICULOS 5.4.3.1. MEMORIAS CIENTÍFICAS ORIGINALES En las que se informa sobre los resultados obtenidos, se describen métodos, técnicas y
aparatos, se presentan nuevas ideas, etc. Esta es la principal categoría de colaboraciones
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 469
primarias destinadas a publicaciones periódicas. Además de los artículos completos y la
monografías, las notas preliminares y la exposición subsiguiente en forma de anotación
desempeñan un papel importante en la publicación primaria. Un texto pertenece a la
categoría de “publicaciones originales” cuando contribuye a ampliar considerablemente el
conocimiento o la comprensión de un problema y está redactado de tal manera que un
investigador competente pueda repetir los experimentos, observaciones, cálculos o
razonamientos teóricos del autor y juzgar sus conclusiones y la precisión de su trabajo.
5.4.3.2. PUBLICACIONES SECUNDARIAS Y SERVICIOS DE INFORMACIÓN Por lo general, estos sistemas son administrados por importantes organismos comerciales
o gubernamentales y se ocupan de la elaboración de resúmenes y el indizado de
publicaciones primarias, así como del almacenamiento y recuperación de la información
contenida en ellas. El autor de memorias científicas necesita estos sistemas para obtener
resúmenes analíticos y grupos de palabras clave.
5.4.3.3. ESTUDIOS RECAPITULATIVOS Un estudio recapitulativo es una investigación realizada sobre un tema determinado, en la
que se reúnen, analizan y discuten informaciones ya publicadas. Su alcance depende de
la publicación a la que se destina. El estudio recapitulativo es considerado, a veces, como
una publicación secundaria e, incluso, terciaria; de hecho, los compiladores creativos de
este tipo de estudio a menudo lo complementan con actitudes considerables de
información primaria. El autor de un estudio recapitulativo debe tener en cuenta todos los
trabajos publicados que han hecho avanzar el tema, o que lo habrían hecho avanzar si se
hubiesen tomado en consideración.
5.4.4. REGLA CONTRA LA DUPLICACION DE PUBLICACIONES 3.1. No debe enviarse ningún manuscrito, para su publicación, si este ha sido ya editado o
ha de serlo en algún otro medio. Los manuscritos no deben someterse simultáneamente al
examen de varias revistas o publicaciones periódicas.
Esta regla obedece a consideraciones sobre la economía general de la información
científica, la preocupación por los esfuerzos que deben realizar los jefes de redacción y los
comités de lectura y a problemas de derechos de autor. Excepcionalmente, los autores y
los responsables de la publicación pueden llegar a un acuerdo cuando ésta vaya a
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 470
realizarse en áreas lingüísticas claramente separadas o la reedición del trabajo se deba a
una evidente imposibilidad de obtenerlo.
Las presentaciones subsiguientes de manuscritos deben ir siempre acompañadas de una
declaración sobre consideraciones previamente formuladas acerca de ellos por los jefes
de redacción o los comités de lectura.
5.4.5. ELEMENTOS CONSTITUTIVOS DEL MANUSCRITO 4.1. El título debe ser conciso; su objeto es dar a conocer el lector el contenido esencial
del artículo. No debe sobrecargarse con información expuesta en forma de abreviaturas,
paréntesis, fórmulas o caracteres desconocidos en el idioma utilizado en la revista. Ya no
es necesario sobrecargar el título con elementos indicativos ni añadir un subtítulo, porque
todo ello se suple con el resumen analítico y las palabras clave.
4.2. El resumen analítico es un título más extenso compuesto por oraciones conexas.
Todos los artículos deben incluir un resumen de este tipo, en consideración a los lectores
y a los servicios de información secundaria (para mayores detalles, véase el punto 8.1 y
siguiente).
Más adelante figura una sección especial en la que se da información detallada para la
redacción de resúmenes analíticos. En ella se explica la disposición del título, el resumen
analítico y las palabras clave. Otros elementos del mismo son la identificación bibliográfica
(Biblid) y la identificación (dirección, etc) del autor.
4.3. Una línea de palabras clave colocada a continuación del resumen analítico facilita
grandemente a los servicios secundarios el indizado del artículo. Además, la línea de
palabras clave disminuye la cantidad de elementos indicativos incluidos en el resumen
analítico y permite adoptar un enfoque más informativo. Según la práctica habitual de las
distintas revistas, las palabras clave pueden elegirse libremente o de acuerdo con un
vocabulario autorizado.
4.4. El texto principal debe estar bien integrado, aunque dividido en secciones, mediante
encabezamientos de carácter informativo. Deben evitarse las notas al pie de página y la
separación innecesaria de partes del texto en forma de anexos o apéndices. La notación
aumenta considerablemente los costos de composición del texto y se opone a la
ergonomía de la lectura. La presente Guía no pretende ser un manual de estilo para todo
tipo de manuscritos científicos. Deben consultarse cuidadosamente (y con espíritu crítico)
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 471
las “instrucciones para los autores” que proporcionan las distintas revistas y los manuales
de estilo publicados en relación con las diferentes materias.
4.5. Un resumen redactado en el mismo idioma del artículo o traducido a una lengua de
mayor difusión internacional facilita la asequibilidad del artículo. A diferencia del resumen
analítico, el resumen puede variar considerablemente en extensión, en función de la
longitud del artículo y no está sujeto a muchas de las limitaciones estilísticas impuestas a
aquél. El resumen puede combinarse con conclusiones y presentar información adicional,
en forma de síntesis gráficas, aspectos más amplios del campo de estudio, etc.
4.6. La lista de referencias debe elaborarse con especial cuidado, considerando cada uno
de los elementos y prestando atención a los detalles de puntuación, de acuerdo con las
“instrucciones para los autores” de las respectivas publicaciones.
Las listas de referencias suelen adquirir una magnitud desproporcionada en la publicación
de temas científicos, hasta tal punto que, en ocasiones, requieren un mayor esfuerzo
editorial que la parte estrictamente científica del artículo.
5.4.6. ESTILO DE PRESENTACION 5.1. La introducción debe explicar la finalidad del artículo. Si en un artículo de
investigación primaria se incluye una reseña crítica o histórica de los conocimientos
existentes, ésta debe limitarse estrictamente al tema tratado en el artículo. Las reseñas
más generales deben publicarse, como tales, por separado.
5.2. Debe exponerse el tema de la manera más concisa posible, utilizando un vocabulario
sencillo y directo. La terminología y la nomenclatura, aunque forman parte del lenguaje
científico, han de usarse con sentido crítico y con mesura (véase el punto 9.1). Los
autores deberán procurar que sus artículos contengan todos los datos que contribuyan a
la comprensión del artículo y con ese fin, darán las explicaciones necesarias sobre el
sentido de los símbolos y abreviaturas empleados. Los autores no deben utilizar
demasiadas abreviaturas poco corrientes y sobre todo, las que designen términos de
escasa utilización, ya que esa práctica dificulta considerablemente la lectura de los
artículos. Incluso las abreviaturas normalizadas a nivel nacional o ampliamente
reconocidas resultan harto dificultosas para los lectores cuya lengua materna no es la del
artículo.
5.3. Los autores deben aclarar qué partes del artículo representan contribuciones propias
y cuáles corresponden a aportes de otros investigadores. Deben especificar
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 472
cuidadosamente en el texto las limitaciones del trabajo realizado: el grado de validez de
sus conclusiones, las fuentes de error y los errores probables en los datos presentados.
No deben adoptar una actitud excesivamente optimista respecto de la precisión de su
trabajo, la universalidad de sus conclusiones o la aplicabilidad de los resultados obtenidos.
Evitarán los argumentos “ad hominem” cuando critiquen otros trabajos conexos. Las
críticas sólo se referirán al aspecto científico de esos trabajos.
5.4. Si por consideraciones de propiedad industrial o de seguridad nacional el autor se ve
obligado a limitar sensiblemente la información científica que ha de contener el artículo,
esto debe quedar señalado en el texto, que en cuyo caso suele convertirse en una
“publicación provisional”. Se habrá de indicar si el artículo se publica en forma de resumen
y si los datos primarios están depositados en algún centro de acceso general.
5.5. La mayoría de las revistas, en particular las publicaciones seriadas, han establecido
“instrucciones para los autores” en las que se indica con detalle la presentación que deben
adoptar. Suelen referirse a la presentación general, a la forma de las referencias
bibliográficas, las condiciones establecidas para cuadros e ilustraciones, etc. Dichas
instrucciones están actualizadas, en mayor o menor grado, con arreglo a la evolución
moderna de las publicaciones, pero deben cumplirse siempre para facilitar el rápido
tratamiento de los manuscritos. El estudio de la presentación y del estilo de artículos
análogos publicados sobre temas afines en la revista a que se destina el artículo puede
dar valiosas indicaciones sobre la forma y contenido convenientes. Los autores
experimentados que poseen profundos conocimientos de la evolución técnica y estilística
de la publicación científica no deben vacilar en buscar un acuerdo sobre la modernización
de las “instrucciones para los autores”.
5.4.7. CITAS Y REFERENCIAS 6.1. Los trabajos anteriores publicados sobre el mismo tema deben ser objeto de
referencias bibliográficas explícitas cuando éstas sean necesarias para poner de
manifiesto el progreso que suponen los nuevos trabajos y resultados para el conocimiento
del tema. En esas referencias se expresará el debido reconocimiento de los trabajos que
hayan permitido realizar la nueva aportación.
6.2. En general, sólo hay que mencionar trabajos publicados y en principio, deben
abarcarse todas las fuentes oportunas incluidas en esta categoría. Se hará referencia
también a los trabajos aceptados para su publicación o de dominio público sin han sido
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 473
utilizados por el autor. Debe evitarse, dentro de lo posible, toda referencia a
comunicaciones y documentos privados de difusión limitada (es decir, no universalmente
accesibles). No se trata de prohibir las alusiones a entrevistas o comunicaciones privadas,
pero es ciertamente injustificado apoyar una afirmación o una teoría en una entrevista no
controlada.
6.3. Las referencias deben indicarse en el texto mediante una cita que sea lo más breve
posible y que corresponda a una referencia completa en la lista de referencias que figura
al final del trabajo. Una cita en el texto puede consistir en el nombre del autor (o de los
autores) y el año de publicación, a lo que corresponderá un artículo que comience con los
mismos datos en la lista de referencias, dispuesto en orden alfabético ( y
cronológicamente, si se hace referencia a más de un trabajo del mismo autor). Este
sistema es el más ergonómico, tanto para el autor como para el lector: el elemento
mnemónico de la cita que menciona al autor y el año de publicación permite evitar la
consulta frecuente de la lista de referencias.
En las publicaciones científicas se siguen empleando otros procedimientos, desde las
referencias al pie de página (que, por no ser económicas ni ergonómicas, deben evitarse
totalmente), hasta las notas de referencia al final del texto y las citas numeradas,
correspondientes a listas de referencias no alfabéticas o alfabéticas. Todos estos sistemas
requieren una lectura en dos lugares diferentes.
5.4.8. BIBLID (IDENTIFICACION BIBLIOGRAFICA) 7.1. Para poder identificar cada uno de los componentes de una publicación periódica
(volumen, número, artículo, página, etc) en citas y referencias adecuadas, se ha de
proporcionar una serie de elementos bibliográficos normalizados, agrupados bajo la
denominación de biblid (véase Norma ISO 30 en la lista de Normas adjunta). El biblid del
artículo resulta fundamental, sobre todo, para la circulación de referencias en las
publicaciones científicas (eruditas). Además de esta última función, una condición principal
del biblid es que la identificación debe acompañar, utomáticamente, una separata o un
elemento secundario de la publicación que haya sido reproducido (página, páginas
enfrentadas, resúmenes analíticos, etc.).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 474
5.4.9. PREPARACION DE RESUMENES ANALITICOS 8.1. Ante el creciente volumen del material científico publicado, es indispensable que el
contenido básico de todos los artículos sea fácilmente accesible, en forma concisa. Para
ello, los títulos han de ser adecuados y deben ir seguidos de un resumen analítico, al
comienzo de cada artículo. Al redactar el resumen, los autores no deben olvidar que,
probablemente, será esa la única parte del artículo que leerá la mayoría de los lectores. El
resumen tiene una doble finalidad:
a) Proporcionar a determinados lectores, tanto al especialista en el tema como
al científico que lee (“hojea”) una publicación para obtener más amplia
orientación, una información suficiente que les permita juzgar si les conviene
profundizar en el texto.
b) Acelerar el trabajo de los servicios de resúmenes analíticos de manera que
puedan reproducir inmediatamente el resumen en cuestión. Un resumen bien
formulado, que guarde relación con un título adecuado y con un conjunto de
palabras clave, constituye una gran ayuda para el mejoramiento general de
los servicios de información en el campo científico.
Una ventaja considerable que tienen los resúmenes analíticos redactados por los autores
(antes denominados sinopsis) sobre los resúmenes elaborados por terceros es que los
conocimientos especializados del autor pueden utilizarse para seleccionar y subrayar los
aspectos esenciales del artículo.
8.2. El lugar y extensión del resumen analítico vienen determinados por su carácter de
complemento del título, redactado en forma de oraciones conexas. Por lo tanto, el
resumen debe estar situado entre el título y el texto principal y (al igual que el título) variar
dentro de límites relativamente estrechos; según el tipo de caracteres elegidos, se suele
recomendar un máximo de 200 a 250 palabras (véanse las “instrucciones para los autores”
de las respectivas publicaciones).
Teniendo en cuenta que el resumen analítico (o el título) no es un “sumario” o
“condensado” arbitrario del artículo, no debe extenderse tanto que venga a corresponder a
un largo texto, sino que, por el contrario, habrá de ser cada vez más selectivo e indicativo.
En general, se trata de que, una vez impreso en su forma definitiva el resumen analítico
(agregado, si es posible, el biblid del artículo), ésta pueda ser directamente reproducido o
cortado y pegado, por ejemplo, en fichas de 75 x 125 mm, tamaño correspondiente al de
las hojas especiales de impresión de resúmenes. (Este tamaño, a pesar de no haber sido
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 475
adoptado oficialmente, es uno de los más ampliamente aceptados en el campo de la
información; el formato adecuado para resúmenes analíticos y la reproducción en hojas
listas para ser cortadas y pegadas fueron recomendados, originalmente, por la
Conferencia Internacional sobre Resúmenes Analíticos Científicos).
8.3. Contenido: el resumen debe incluir, de manera detallada pero sucinta, los resultados
y conclusiones del artículo, ajustándose al espacio a ello destinado, e indicar, dentro de
estos límites, todo tipo de información nueva que contenga el artículo. No deberá contener
datos o consideraciones que no figuren en el texto ni detalles de interés secundario.
En la mayoría de las normas e instrucciones se hace una distinción entre resúmenes
informativos (que especifican resultados particulares y reproducen datos de interés directo
para el lector) e indicativos (que indican los resultados por categoría de clasificación, es
decir, los datos de utilidad directa para el indizado), y se reconoce la utilidad de adoptar un
informe mixto. En realidad, estas distinciones suelen ser más bien teóricas: los conjuntos
de palabras clave aligeran el resumen de una excesiva carga de elementos indicativos; a
su vez, los resúmenes de artículos más largos adoptan, automáticamente, un enfoque
más indicativo.
8.4. El resumen analítico debe ser independiente, aunque puede interrelacionarse con el
título. Razones: los servicios secundarios reproducen solamente el resumen analítico,
junto con el título; por eso, deben evitarse las citas del texto “aisladas” o las referencias a
figuras que aparezcan en el mismo (ya que el resumen no incluye referencias ni
ilustraciones). Por razones similares, el texto del resumen no debe estar redactado en
primera persona (lo que, en cambio, está ampliamente permitido y es recomendable en el
estilo moderno de redacción de textos científicos; en el resumen analítico, sin embargo, no
es ya el autor quien habla)
8.5. Conviene calificar la manera en que han sido tratados los diversos aspectos de la
materia con adjetivos como “sucinto”, “detallado”, “teórico”, “experimental”, etc.
8.6. Las informaciones nuevas comprenden hechos observados, las conclusiones de una
experiencia o de un razonamiento, las características principales de un nuevo método o
aparato, etc. Se mencionarán los nuevos materiales (compuestos, etc.) y los nuevos
datos, numéricos o verbales.
8.7. Es aún más importante evitar abreviaturas, símbolos, etc. en el resumen analítico que
en el cuerpo del artículo. Dada la índole independiente del resumen, no cabe explicar
abreviaturas y símbolos en otro espacio que el asignado al mismo.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 476
8.8. Tanto en los resúmenes como en los títulos, debe evitarse el empleo de fórmulas
gráficas, símbolos y caracteres en otros alfabetos. Los dispositivos de almacenamiento y
de impresión de los servicios secundarios solo tienen, por lo general, los caracteres
correspondientes al alfabeto latino (inglés y excepcionalmente, los signos diacríticos
utilizados en las principales lenguas Romance).
8.9. Cualquiera que sea el idioma en que esté redactado el original, se recomienda
publicar los resúmenes analíticos por lo menos en una de las lenguas de mayor difusión
en el mundo científico, para facilitar su difusión internacional.
5.4.10. TERMINOLOGIA Y NOMENCLATURA 9.1. La nueva terminología y nomenclatura debe ir acompañada de una explicación sobre
la derivación y construcción del término o nombre en cuestión. Los nuevos términos deben
introducirse sólo para fenómenos que se mencionan con frecuencia y que no pueden
describirse recurriendo a breves expresiones de uso común. Los términos deben
elaborarse teniendo debidamente en cuenta su etimología, contenido semántico y
características mnemónicas. Explicar la construcción de un término o de un nombre es,
también, un acto de autodisciplina; la introducción de una nueva palabra constituye una
innovación suficientemente importante como para dar lugar a dicho tratamiento. No deben
utilizarse innecesariamente, como términos nuevos, palabras de uso común, ya que ello
restringe la flexibilidad del lenguaje no terminológico.
5.4.11. PREPARACION DE CUADROS 10.1. Los detalles relativos para la preparación de cuadros escapan al alcance de la
presente Guía, ya que suelen variar según los distintos campos científicos. No obstante,
conviene señalar que los cuadros elaborados según la tipografía moderna carecen de
líneas verticales. Los cuadros que contienen elementos gráficos distintos de caracteres
normales y de líneas horizontales (líneas irregulares, fórmulas y símbolos pocos comunes,
etc.) deben dibujarse, preferentemente, para ser reproducidos como “figuras”. Los cuadros
deben ir acompañados de una leyenda explicativa y no un simple título o referencia a una
explicación que figura en el cuerpo del texto.
Los sistemas modernos de procesamiento de textos y los dispositivos correspondientes de
composición tipográfica ofrecen la posibilidad de volver a emplear las líneas verticales
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 477
utilizadas en la época de la artesanía tipográfica, pero éstas resultan anticuadas y poco
prácticas en el mecanografiado de los manuscritos.
5.4.12. PREPARACION DE ILUSTRACIONES 11.1. Las ilustraciones deben planearse de tal forma que abarquen todo el espacio que
ocupa el texto o el de una columna. Si se utiliza un ancho intermedio, debe preverse un
espacio suficiente para colocar la leyenda al lado de la figura dentro del área destinada al
texto. El costo de reproducción de una ilustración se basa en el marco rectangular más
pequeño dentro del cual puede acomodare la figura. No deben dejarse ángulos abiertos o
espacios innecesarios entre los elementos de figuras múltiples.
11.2. Los dibujos lineales deben realizarse con trazados de igual espesor y
ennegrecimiento. Para las partes sombreadas, no deben emplearse tramas dibujadas o
adheridas con líneas demasiado próximas. Las líneas deben interrumpirse, sobre todo,
cuando interfieren con elementos del texto. Las tramas demasiado densas, los ángulos
entre cuadrículas y las partes sobrecargadas de detalles tienden a ennegrecerse
demasiado al utilizarse todos los métodos de reproducción comunes, en particular cuando
se efectúan reducciones. Además, suelen hacerse más visibles las irregularidades y otras
imperfecciones de las líneas.
11.2. Las fotografías destinadas a ilustraciones de medio tono deben revelarse sobre
papel blanco brillante. Deben ser nítidas y bien contrastadas, pero sin zonas demasiado
oscuras o extremadamente claras. Si se emplea luz incidente para fotografías de
laboratorio, la luz debe provenir uniformemente del ángulo superior izquierdo. En una
figura múltiple, todos los elementos deben ser de tono y contraste semejantes. En lo
posible, las figuras múltiples deben estar compuestas por unidades rectangulares. Las
fotografías deben montarse sobre cartulinas, preferentemente del mismo tamaño de las
hojas del texto mecanografiado. Se evitarán las composiciones que exijan una delineación,
porque resultan costosas y el trazado de los objetos queda sujeto al criterio del impresor.
(11.3 ? )
11.4. Para el texto de todo tipo de ilustraciones, debe utilizarse esténcil o rotulado
adhesivo y no el mecanografiado habitual. Se prestará especial atención al espaciamiento
y alineación correctos de las letras. Para una reproducción nítida, se recomienda el
empleo de letras sencillas, por ejemplo, de tipo Letraset. Existen actualmente aparatos de
precio accesible (similar al de una máquina de escribir) para el espaciamiento y alineación
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 478
automáticos, en cintas adhesivas, de textos correspondientes a ilustraciones y sobre el
papel especial; no deben paginarse las láminas.
11.5. Deben numerarse consecutivamente (con números arábigos), las ilustraciones que
forman figuras y son reproducidas en hojas ordinarias (incluso si ocupan una página
entera). Se procederá de la misma forma con las ilustraciones que hayan de reproducirse
en láminas por métodos particulares y sobre el papel especial; no deben paginarse las
láminas.
11.6. Todas las ilustraciones deben ir acompañadas de una leyenda explicativa y no
solamente de títulos o referencias que figuran en el texto. La explicación de los símbolos
se dará inmediatamente después del símbolo correspondiente de la leyenda y no
mediante una llamada incluida en la misma. Las ilustraciones que carecen de leyenda
requieren por lo menos, una lectura en dos lugares distintos y a menudo, una consulta del
texto principal. Las explicaciones de leyendas mediante llamadas numéricas obligan a
una lectura en tres o incluso cuatro lugares diferentes.
5.4.13. FORMA DE PRESENTACIÓN 12.1. Deben presentarse por separado el texto principal (con su resumen analítico y
referencias), las leyendas, los cuadros y las ilustraciones. No deben cortarse y pegarse
figuras originales, leyendas o cuadros originales (numerados), en el lugar del texto
principal que el autor ha destinado a los mismos. Esto se explica por las formas habituales
de composición, que se utilizan en todos los métodos de impresión “profesionales”. La
descomposición y recomposición de manuscritos e ilustraciones originales es la tarea más
tediosa y frustrante que puede abordar un jefe de redacción. Sólo escapan a esta regla
las páginas mecanografiadas listas para la reproducción fotográfica (a condición de que
no incluyan ilustraciones en medio tono).
12.2. Todos los textos deben estar ampliamente espaciados y tener un ancho margen
izquierdo. La posición de las figuras y de los cuadros debe estar indicada en el margen (o
en el de las pruebas de galera, cuando el autor se ocupe de ello). Es necesario dejar
amplias interlíneas para poder introducir modificaciones, dar instrucciones al cajista, etc.
Nótese que las técnicas de composición (en tipografía integral) exigen que las
modificaciones sean indicadas en el mismo lugar donde deben efectuarse , mientras que
en la corrección de pruebas, se señalan en el margen mediante un signo convencional,
que vuelve a encontrarse en el lugar deseado, en la línea correspondiente.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 479
12.3. Todos los textos y figuras deben ser definitivos, por lo que su ortografía y lenguaje
han de ser correctos. Asimismo, deben leerse cuidadosamente para asegurarse de que
son coherentes en todos sus detalles. En las ilustraciones originales se indicará, por lo
menos, el nombre del autor y su número de referencia en el texto.
Una preparación poco cuidadosa de los manuscritos entraña una pérdida de tiempo para
los jefes de redacción (es decir, particularmente del tiempo de investigación de otros
científicos), los críticos y (si el artículo se publica) los lectores. Además hace dudar del
valor científico de los trabajos expuestos.
Cuando el autor redacte su artículo en una lengua que no domina perfectamente, debe
consultar a colegas que la conozcan a fondo para presentar el trabajo en una forma
aceptable. No es razonable esperar que los jefes de redacción o comités de lectura se
encarguen de escribir de nuevo un artículo para corregir las definiciones lingüísticas.
5.4.14. RECOMENDACIONES COMPLEMENTARIAS A LOS JEFES DE REDACCIÓN. 1.3.1. El jefe de redacción es el representante del autor en el campo de la edición
científica. Su tarea consiste en conciliar en una publicación, el contenido científico con los
medios modernos de expresión y encauzar la información que el autor dirige al lector, de
una forma eficaz y conforme a las finalidades buscadas. Esta metodología, inherente al
trabajo científico, justifica la adquisición, por parte del científico, de una verdadera
competencia profesional en esta materia.
13.2. Los jefes de redacción habrán de velar para que las revistas u otras publicaciones
seriadas a su cargo respondan a un programa u orientación claramente definidos y
atenerse a esa estructura para transmitir la información adecuada al lector apropiado.
13.3. Los jefes de redacción deben procurar también que toda publicación seriada a su
cargo vaya acompañada de “instrucciones para los autores”, actualizadas de acuerdo con
las normas modernas y que no se opongan a los principios fundamentales enunciados en
el presente documento.
13.4. Los jefes de redacción deben procurar, en particular, que todas las colaboraciones
incluyan elementos normalizados que faciliten la circulación y precisión de la información
científica en las publicaciones originales y los servicios de referencia, es decir la
identificación bibliográfica, los resúmenes analíticos y los sistemas adecuados de citas y
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 480
referencias. En la revista se debe especificar claramente si se autoriza la reproducción de
resúmenes analíticos.
3.5. Para la evaluación profesional de los manuscritos sobre temas ajenos a su
especialidad, los jefes de redacción deben recurrir al asesoramiento de críticos
especializados. La crítica de los manuscritos de dimensiones de un artículo constituye una
práctica común entre científicos. El número de críticos puede variar en función de las
necesidades del jefe de redacción.
13.6. Considerando que el trabajo del jefe de redacción es, esencialmente, una
prolongación del realizado por el autor, aquel se convierte en el maestro por antonomasia
de los métodos y la metodología de la edición. La enseñanza sobre el tema organizada
por las universidades libera a los jefes de redacción de la pesada tarea de orientar
personalmente a cada autor.
5.4.15. NORMAS RELATIVAS A LAS PUBLICACIONES CIENTÍFICAS. Las publicaciones científicas están sujetas a una serie de normas internacionales (ISO),
principalmente desde el punto de vista de bibliotecarios y documentalistas. En muchos
países existen normas nacionales equivalentes. Las normas propiamente dichas están
complementadas por importantes documentos normativos (guías y manuales para autores
y editores, etc.), la mayoría de los cuales están destinados a un sector científico
determinado. La siguiente lista se refiere, únicamente a normas ISO ya publicadas o en
vías de elaboración (DIS: proyecto de norma internacional; DP: anteproyecto; el asterisco
indica que la norma considerada está siendo revisada; R indica una “Recomendación” ISO
según la antigua terminología):
ISO 4* (1972) Internacional code for the abbreviation of titles of periodicals (Código
internacional para la abreviación de los títulos de las Publicaciones periódicas).
ISO 8 (1977) Presentation of periodicals (Presentación de las publicaciones Periódicas).
ISO 9* (1968) Internacional system for the transliteration of Slavic Cyrillic Characters
(Sistema internacional para la transliteración de los Caracteres cirílicos).
ISO DIS 18 (1980) Short contents lists of peridicals and other documents (sumario de
publicaciones periódicas y de otros documentos).
ISO DP 30 (1982) Bibliographic identification (biblid) of serials (Identificación Bibliográfica
(biblid) de publicaciones seriadas).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 481
ISO 31 comprises 13 separate documents (as of 1982) for quantities, units and symbols of
special fields. (La Norma ISO comprende 13 documentos separados desde 1982 para
cantidades, unidades y símbolos en campos especializados).
ISO 214 (1976) Abstracts for publication and documentation (Resúmenes analíticos para
publicación y documentación.
ISO R 215*(1961) Representation of contributions to pediodicals (presentación de
Artículos de publicaciones periódicas).
ISO DIS 233 (1975) International system for the transliteration of Arabic Characters Into
Latin characters (Sistema internacional para la transliteración de caracteres árabes en
caracteres latinos).
ISO DIS 259 ( 1975) Transliteration of Hebrew characters into Latin characters
(Transliteración de caracteres hebreos en caracteres latinos).
ISO DP 690 (1980) Bibliographic references to monographs and serials, and to
Contributions in monographs and serials ( Referencias bibliográficas para monografías y
publicaciones seriadas y para contribuciones a las mismas).
ISO 710 comprises three separate documents (as of 1982) for graphical symbols on
detailed maps, plans and geological cross-sections. (La Norma ISO 710 comprende 3
documentos separados (desde 1982) sobre símbolos gráficos de mapas, planos y cortes
geológicos detallados).
ISO 832 (1975) Bibliographical references: Abreviations of typical words (Refencias
bibliográficas: abreviaturas de palabras de uso frecuente).
ISO R 843* (1968) International system for the transliteration of Greek characters into
Latin characters (Sistema internacional para la transliteración de caracteres griegos en
caracteres latinos).
ISO 999 (1975) Index of a publication (Indice de una publicación).
ISO 1000 (1973) SI units and recommendations for the use of their multiples and of Their
multiples and of certain other units (Unidades SÍ y recomendaciones para el uso de sus
múltiplos y de otras unidades).
ISO 1086 (1975) Title-leaves of a book (Hojas de título de un libro).
ISO 2014 (1978) Writing calendar dates in all-numeric form (Escritura numérica de
Fechas).
ISO 2108 (1978) International standard book numberinh (ISBN) (Numeración internacional
normalizada de libros (ISBN).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 482
ISO 2384 (1977) Presentation of translation (Presentación de traducciones).
ISO DIS 2805 (1974) Transliteration of the alphabets of non-Slavic languages using
Cyrullic characters (Transliteración de los alfabetos de lenguas no eslavas con caracteres
cirílicos).
ISO 3297 (1975) International standard serial nubering (ISSN) (Numeración normalizada
internacional de publicaciones seriadas (ISSN).
ISO DIS 3602 (1975) Romanization of Japanese (Romanización del japonés).
ISO DIS 5122 (1979) Abstract sheets in serial publications (Sumarios analíticos en
Publicaciones seriadas).
ISO DIS 5966 (1978) Presentation of scientific and technical reports (presentación de
informes científicos y técnicos).
ISO DP 6357 (1981) Spine titles on books other publications (Títulos en tomos de Libros
y en otras publicaciones).
Las normas arriba mencionadas han sido publicadas en “ISO Standard Handbook 1:
Información transfer; 2nd edition, Geneva, 1982” y pueden obtenerse dirigiéndose a la
Sede de la Organización Internacional de Normalización, 1 rue de Varembé, CH-1211
Ginebra 20 (Suiza) o a la correspondiente Organización Nacional de Normalización de los
países miembros de la ISO (los documentos designados con las siglas DP y DIS no son
de disponibilidad universal, pero se espera que sean aceptados como normas durante el
período de vigencia del presente documento).
La UNISIST Guide to standard for information handling (1980), que puede obtenerse
dirigiéndose a la Sección de Promoción de Métodos, Reglas y Normas de la División del
Programa General de Información de la UNESCO, 7 Place de Fontenoy, F-75700 París
(Francia), incluye una amplia selección de referencias o normas nacionales y a
documentos normativos (la mayoría internacionales).
5.4.16. LISTA DE ABREVIATURAS. CIUC Consejo Internacional de Uniones Científicas FID Federación Internacional de
Documentación IFLA Federación Internacional de Asociaciones de Bibliotecarios y de
Bibliotecas IFSEA Federación Internacional de Asociaciones de Editores Científicos
SO Organización Internacional de Normalización.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 483
<
5.5. REFERENCIAS BIBLIOGRAFICAS ELEMENTOS ESENCIALES
5.5.1. ALCANCE Y DEFINICIÓN 1.1. En esta norma se indican los elementos y detalles que se consideren esenciales
en todas las formas de referencias bibliográficas.
1.2. Una referencia bibliográfica es un grupo de datos suficientemente precisos y
detallados para permitir identificar una publicación o parte de una publicación.
5.5.2. FORMAS DE REFERENCIAS Una referencia bibliográfica puede tener cualquiera de las siguientes formas:
a) Una parte de una lista o índice bibliográfico, tanto si es descriptivo como analítico
(Ejemplos 1 a 10 de la Sección 10).
b) El encabezamiento de un sumario o de una revista crítica (Ejemplos de 1 a 10 de la
sección 10).
c) Una nota añadida a un texto (al pie de la página o al final del texto).
d) Incluida en parte en un texto y en parte de una nota (Ejemplo 11 de la Sección 10).
e) Incluida por completo en el texto (Ejemplo 12 de la Sección 10).
5.5.3. INDICADORES QUE HAN DE FIGURAR EN LA REFERENCIA. Una referencia bibliográfica ha de contener las indicaciones siguientes, cuando las haya
en la publicación a que se refiere.
5.5.3.1. LIBROS ( U OTROS TRABAJOS PUBLICADOS SEPARADAMENTE) EJEMPLO: Nombre del autor o autores: Lecuna, Con los nombres propios u otros Vicente.
Elementos secundarios. Título del libro o Trabajo: Crónica Razonada De las guerras de
Bolívar. Número de la edición 1ra. Ed. (3 vol). Número del volumen (en obras De varios
volúmenes). Lugar de publicación New York. Año de publicación (véase aparte 7.1) 1950
Página o primera y última página de la Parte específica a que se refiere.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 484
5.5.3.2. PERIÓDICOS (U OTRAS PUBLICACIONES EN SERIE) Ejemplo:
Título del periódico Teintex
Lugar de publicación París
Fecha (véase aparte 7.2) 1936
3.3. Contribuciones a trabajos colectivos, misceláneas, etc. (véase aparte 6.5)
Ejemplo:
Nombre de autor y autores Ranganathan Con los nombres propios u otros S.R.
Elementos secundarios
Título de la contribución (véase aparte 6.5) Colón clasificación
And its aproach to documentation.
Título del trabajo principal, precedido, si es
Necesario por nombre (s) de autor (es). Shera, Jesse H., And.
Editor (es) o compilador (es) Egan, margaret E., Ed.
Título Bibliographic
Organization.
Número de la edición
Número del volumen (o equivalente)
Lugar de publicación Chicago Año de publicación (véase aparte 7.1)1951
Página de la contribución o parte a la que se p. 94
Refiere, o primera y últimas páginas. p. 94-105 o pp. 94-105
3.4. Artículos en periódicos (u otras publicaciones En serie).
Ejemplo:
Nombre del autor o autores, Navarro
Con nombres propios u otros elementos: Mons.D. Nicolás Secundarios. E.
Título del artículo: Los franciscanos Capuchinos en Venezuela..
Título del periódico: Boletín de la Academia Nacional de la Historia. Número (s) o año (s)
del volumen Tomo XLIII
Número (s) de la edición No. 172 (Véase aparte 4.1).
Fecha (s) de la edición )es) Oct-Dic. 1960. (Véase aparte 4.1)
Página del artículo o parte a que se refiere o primera y última Pp.701-710.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 485
Nota: El orden del número o año del volumen y el número y la fecha de la edición pueden
cambiarse.
5.5.4. ORDEN DE LAS INDICACIONES 4.1. Las indicaciones que constituyen la referencia han de colocarse en el orden indicado
en las listas de la sección 3, excepto para el aparte 3.4 respecto al cual se puede
cambiar el orden de los tres detalles indicados en la nota.
4.2. Cuando una referencia incluida en un texto forma parte de una frase, no puede
prescribirse ningún orden determinado, pero es deseable que se siga lo más posible el
orden que se fija en las listas dadas en la sección 3. Ejemplo: “... on peut se reporter aux
Causseries dulundi de Charles A. SAINTE BEUVE, dont la troisiome edition, tome ler, a
paru á París en 1857...”.
5.5.4.1. AUTORES 5.1. Cuando hay dos autores debe darse el nombre de ambos Ejemplo: Muret, Pierre y
Sagnac, Philippe.
5.2. Cuando hay más de dos autores, basta indicar el nombre del primero, seguida por “et
alii”. Ejemplo: Acevedo, Julio; Ramírez, Tomás; Morales, Gabriel; Rodrigo, Claudio.
Debe indicarse solamente: Acevedo, Julio, Et alii.
5.3. Los nombres propios o elementos secundarios han de darse en la forma en que
aparecen en el libro o trabajo a que se refieren. Ejemplos: Salas, Alberto Romero, J.M.
5.4. El editor o compilador de un trabajo colectivo se considera como su autor. Ejemplo:
Furnas, C.C., Ed. Research in industry.
5.5. Pueden citarse los títulos que indican profesión, cargo o Jerarquía para facilitar la
identificación del autor. Ejemplos: CLARK, William, M.D., M.R.C.P. CLARK, William,
A.R.I.B.A. BALFOUR, Roberto (Cirujano) BALFOUR, Roberto (Reverendo)
5.5.4.2. TÍTULO El título se indica tal como aparece en el libro o trabajo el cual se refiere y
traducido si es necesario.
Un título que se considere demasiado largo puede darse en forma abreviada, pero
las palabras iniciales no han de omitirse nunca, ni alterarse su sentido. Las palabras
omitidas se reemplazan por tres puntos (Véase jemplo 9 de la sección 10).
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 486
Cuando se abrevia el título debe hacerse en la forma prescrita en la Norma
NORVEN 81-1, Código internacional para la abreviación de la totulación de las revistas.
Pueden añadirse al título el nombre del editor, traductor o de cualquier otra persona
como un ilustrador) que hayan colaborado en la preparación del libro o trabajo y que
puedan facilitar su identificación.
En las referencias bibliográficas de contribuciones a trabajos colectivo el título de la
contribución se ha de distinguir de la obra principal por un cambio en el aspecto del tipo
de imprenta o por la inserción de alguna falta.
http://www.unet.edu.ve/~frey/varios/decinv/investigacion/referenbiblio.html
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 487
5.6. CITAS A PIE DE PÁGINA
Cita a pie de página:Indicación que sirve para explicar algún punto que no se incluye en el
cuerpo del texto, a fin de no recargarlo innecesariamente.
5.6.1. IBID Ibidem que significa "en el mismo lugar, lo mismo". Se utiliza para evitar la repetición de
una cita. Cuando la referencia es exactamente igual a la que precede, se usa solamente
Ibid. Si varía el número de páginas, se deberá poner Ibid, más el número de páginas.
EJEMPLO a. GUILFORD, J. Estadística aplicada a la psicología y la educación. México, McGraw-Hill,
1984. p.51
b. Ibid (indica exactamente a la misma referencia)
c. Ibid., p. 72 ( el mismo documento, pero en página distinta)
5.6.2. OP. CIT. Opus citatum, que significa "obra citada". Se usa cuando se desea referir una cita ya
mencionada, pero no consecutiva y cuando corresponda a diferentes páginas del trabajo.
Se debe repetir el apellido del autor y luego Op. cit., más el número de página.
EJEMPLO a. GUILFORD, J. Estadística aplicada a la psicología y la educación. México, McGraw-Hill,
1984. p. 13.
b. HERNANDEZ, Fabio. Metodología del estudio. México, McGraw-Hill, 1996. p. 7.
c. GUILFORD, J. Op.cit., p. 230
d. HERNANDEZ, Fabio. Op.cit., p.48
e. Ibid.
5.6.3. LOC. CIT Locus citatum, significa "lugar citado". Se usa para abreviar la repetición de la cita de un
trabajo ya mencionado con referencias intermedias, y cuando corresponde a las mismas
páginas. Razón por la cual, el número de páginas no sigue a la abreviaturaLoc. cit.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 488
EJEMPLO a. Briones, Guillermo. La investigación social y educativa. Bogotá, SECAB, 1992. p.15.
b. BOLDIRIEV, N. Metodología de la organización del trabajo educativo. La Habana,
Pueblo y Educación, 1990. p.55
c. BRIONES, Guillermo. Loc.Cit.
d. BOLDIRIEV, N. Op.cit. p.43
http://www.umce.cl/biblioteca/gpt_c_ppaginas.html
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 489
<
5.7. FALTAS FRECUENTES DE RECHAZO DE ARTICULOS TECNICO-CIENTIFICOS
Manuel A. Bobenrieth
5.7.1. FALTAS RELACIONADAS CON EL CONTENIDO DE LA INVESTIGACION 5.7.1.1. FASE CONCEPTUAL DE LA INVESTIGACIÓN
1. El tema del documento tiene baja prioridad para los objetivos de la revista.
2. La información contenida es de conocimiento común; no aporta elementos nuevos u
originales al área de interés.
3. El documento muestra que el autor no conoce suficientemente la materia sobre la
cual escribe.
4. El problema general y el problema de investigación no se encuentran claramente
definidos.
5. Los objetivos del estudio (o investigación) no se exponen en forma clara y concreta.
6. No se establecen definiciones precisas para los términos principales (o claves) que
se utilizan a lo largo del texto.
7. Los términos principales se definen pero sin considerar las características y nivel de
los lectores de la revista.
8. La introducción no logra el propósito de proporcionar información y antecedentes
suficientes que permitan al lector entenderla exposición razonada del texto y
comprender y evaluar los resultados del estudio.
9. El marco de referencia conceptual está ausente. La investigación no se basa en un
marco teórico conceptual el cual, al englobar otros estudios en un esquema
sistemático y comparativo, permita una evaluación posterior.
10. El Diseño (procedimientos para abordar el problema de investigación) que se utiliza
es inapropiado para el objetivo de la investigación.
11. El diseño que se utiliza no está de acuerdo con el nivel actual de conocimientos
sobre el problema de investigación.
12. El diseño utilizado no es factible considerando los recursos humanos y materiales
disponibles para el estudio.
13. El diseño utilizado presenta inconvenientes de carácter ético.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 490
14. El diseño que se utiliza tiene poco potencial para un análisis de resultados completo
e integral.
15. El diseño utilizado no proporciona resultados aplicables
16. Las variables (atributos o características) no se definen. No se diferencian variables
independientes de variables dependientes; variables intervinientes y variables de
control.
17. La clasificación de categorías de variables es deficiente, lo cual permite el paso de
un sujeto de un grupo a otro grupo que no le corresponde o deja los grupos mal
definidos. Esta situación implica errores en la interpretación y en la generalización
de los resultados (inferencia).
18. El documento muestra una recolección general de información sin relación con
hipótesis que sirvan de guía.
19. Las hipótesis del estudio están mal formuladas.
20. El estudio falla en formular hipótesis rivales o alternativas que podrían explicar un
número dado de hallazgos y que desafíen las interpretaciones y conclusiones del
investigador.
21. El documento falla en hacer explícitos y claros los supuestos básicos de la
investigación, de manera que los hallazgos puedan ser evaluados en términos de
esas suposiciones.
22. El estudio parece tomar un “paquete de información” que ya existe y pretende hacer
calzar preguntas de investigación significativas.
23. El documento falla en reconocer y explicar las limitaciones del estudio; esto impone
restricciones a las conclusiones y en cómo éstas se aplican a otras situaciones.
24. El examen de la literatura es insuficiente, lo cual impide al lector juzgar la
familiaridad del autor con el conocimiento actual del tema de estudio; además
impide conocer otros enfoques, otros puntos de vista posibles y distintos para la
investigación del problema.
5.7.1.2. FASE EMPÍRICA DE LA INVESTIGACIÓN 25. La sección del material y de los métodos no proporciona información
suficientemente clara y completa para que un lector interesado y competente pueda
repetir la investigación. La falta de reproducibilidad disminuye grandemente el valor
científico del artículo.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 491
26. El texto del documento mezcla y confunde información sobre “material y métodos”
con información sobre “resultados”.
27. El universo (población a la cual se intenta referir los hallazgos) no se define con
claridad.
28. La muestra es atípica, no representativa del universo sobre el cual se pretende
inferir los hallazgos.
29. El tamaño de la muestra es inadecuado y no garantiza la presencia de una parte
aceptable de la población, como requisito mínimo. Tampoco se establece la
precisión con la cual el investigador quiere garantizar sus resultados.
30. Las fuentes de información son inapropiados y/o carecen de idoneidad.
31. Los datos recogidos son de mala calidad; hay deficiencias, vacíos y
contradicciones.
32. La información recolectada está desactualizada, obsoleta.
33. El documento contiene la información preliminar de un estudio, lo cual limita mucho
el valor de los resultados y conclusiones.
34. La metodología tiene problemas de validez y confiabilidad.
35. La metodología tiene problemas de especificidad y sensibilidad.
36. La metodología prescinde de la utilización de grupos testigos.
37. El documento no se basa en observaciones directas, de primera mano, lo cual
aumenta la posibilidad de errores.
38. En el documento se utilizan índices o indicadores arbitrarios, inapropiados e
incorrectos para calificar y evaluar determinados fenómenos.
39. Los resultados contienen información mas bien repetitiva que representativa. Esta
redundancia muestra falta de capacidad selectiva y discriminativa.
40. La presentación de los hallazgos carece de suficiente claridad y objetividad; faltan
detalles de importancia, lo cual impide que el lector los juzgue por sí mismo.
41. Los hallazgos presentados carecen de consistencia interna (totales que no
coinciden, tablas y gráficos con información incompleta, contradicción entre el texto
y la información contenida en las tablas y los gráficos, etc.).
5.7.1.3. FASE INTERPRETATIVA DE LA INVESTIGACIÓN 42. La información recolectada que se presenta no merece análisis estadístico.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 492
43. El análisis de los datos es insuficiente, insatisfactorio; el autor no utiliza
correctamente las técnicas basadas en la lógica y la estadística.
44. El análisis estadístico no es apropiado a la fuente y naturaleza de la información.
45. El análisis no es suficiente para determinar si las diferencias significativas pueden
deberse a falta de comparabilidad de los grupos en lo que respecta a sexo,
distribución por edad, características clínicas u otras variables relevantes.
46. El documento carece de conclusiones.
47. Las conclusiones no se justifican, por cuanto no se apoyan en la evidencia de los
hallazgos (resultados)
48. El autor no mantiene el mismo punto de vista a lo largo del trabajo.
49. Las conclusiones no concuerdan con las preguntas de investigación formuladas por
los investigadores. Las conclusiones no se derivan de la respuesta encontrada al
problema y no cierran el trabajo dejándolo bien terminado.
50. La experiencia descrita es de aplicabilidad mínima o nula a países diferentes del
país donde se originó el estudio o la investigación.
51. La investigación realizada muestra graves transgresiones de las normas de ética
médica. Esto se refiere principalmente a estudios o investigaciones que involucran
experimentación con seres humanos, donde se requiere certificación de que se
explicó la situación y se obtuvo el libre consentimiento de los sujetos.
52. El documento contiene expresiones en forma de declaraciones, referencias y juicios
de valor incompatibles con las normas de respeto a los Gobiernos que rigen el
trabajo de la OPS.
5.7.2. FALTAS RELACIONADAS CON EL INFORME DE LA INVESTIGACION 5.7.2.1. ESTRUCTURA DEL ARTÍCULO
53. La estructura del documento no corresponde a la de un artículo técnico-científico.
54. La estructura del documento podría servir el propósito de una presentación oral,
pero no el de un artículo técnico-científico.
55. El material contenido en el documento se presenta muy pobremente organizado y/o
deficientemente explicado.
56. El material que se presenta es muy extenso, no está suficientemente condensado.
57. El título no refleja en forma específica, clara, exacta y breve el contenido del
artículo.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 493
58. El título desorienta al lector sobre el contenido real del artículo.
59. No se presenta resumen.
60. El resumen no permite a los lectores identificar el contenido básico en forma rápida
y exacta, determinar la relevancia de ese contenido para sus intereses y decidir si
necesita leer el documento en su totalidad.
61. El resumen presenta información o conclusiones que no se relacionan con el resto.
62. Las tablas no se explican por sí mismas y repiten la misma información del texto;
esto plantea problemas de redundancia y desperdicia espacio en la revista.
63. Los gráficos no cumplen los propósitos de evidencia, eficiencia y énfasis.
64. Las ilustraciones que se utilizan carecen de legibilidad y de comprensibilidad.
65. No se presentan referencias bibliográficas.
66. Las referencias bibliográficas son demasiado exiguas.
67. Las referencias bibliográficas son obsoletas y muestran desactualización del autor.
68. Las referencias bibliográficas no están citadas en el texto, o se citan
equivocadamente.
69. Las referencias bibliográficas están incompletas. Estas cinco fallas relativas a la
bibliografía impiden lograr los propósitos de identificar fuentes originales, dar apoyo
a hechos y opiniones y orientar al lector para estudios en mayor profundidad.
5.7.2.2. ESTILO DEL ARTÍCULO 70. El estilo carece de claridad.
71. El estilo carece de concisión
72. El estilo carece de originalidad
73. El estilo carece de fluidez
74. El estilo es verboso y difuso
75. El estilo es pomposo y altisonante
76. El texto contiene falacias y otros errores, probablemente por falta de disciplina y
rigor en el raciocinio y/o en la expresión del pensamiento.
77. El estilo utiliza jerga o jerigonza, en la forma de lenguaje confuso, ininteligible,
extraño; a veces llegar a ser pretencioso y ridículo.
78. El estilo muestra que el autor confunde hechos con opiniones y trata de vestir
ambos con un ropaje de fantasía imaginativa.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 494
79. El estilo utiliza abreviaciones y siglas que no se explican ni definen; esto confunde y
aburre al lector.
80. El estilo no se adapta a los lectores de la revista.
81. El documento no cumple con normas de material inédito y derechos de registro.
5.7.3. CLAVE DE RESPUESTAS 1. Todo artículo científico debe contener: Un título, el nombre del autor o autores y su
filiación, un Resumen, una Introducción, una sección de Materiales y Métodos, una
de Resultados, una Discusión, una lista de Referencias Bibliográficas y una sección
de Agradecimientos.
2. El problema, su naturaleza y relevancia, así como el objetivo del trabajo, deben
plantearse muy claramente en la Introducción del artículo.
3. La población a la que se intenta referir los hallazgos, debe presentarse en la
sección de Materiales y Métodos, incluyendo las especificaciones técnicas exactas,
cantidades, edad, sexo, status genético (en caso de plantas y microorganismos),
etnia y fuentes.
4. El uso de figuras está indicado, cuando los datos experimentales muestran una
tendencia; el uso de tablas se recomienda para la presentación de volumen
considerable de datos experimentales, que no puedan ser presentados en el texto y
que no muestren tendencia evidente.
5. El autor debe evitar ser redundante. La presentación de una figura y una tabla
conteniendo la misma información, no demuestra la destreza e inteligencia del
autor, sino por el contrario, confunde al lector innecesariamente y es causa
frecuente de rechazo para publicación.
6. El problema de investigación es una descripción y discusión lógica de la situación,
idea, concepto o teoría que indica el estudio y provee un marco de referencia para
el propósito del mismo. La hipótesis es una solución provisional a un problema de
investigación, basada en el conocimiento de las características de las variables del
problema y/o investigaciones anteriores.
7. Las características del problema de investigación, del modelo experimental (en
caso de haberlo) y la definición de términos no convencionales necesarios para la
comprensión de dicho problema, deben indicarse en los primeros párrafos de la
Introducción.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 495
8. Bibliografía es el conjunto de asientos bibliográficos, generalmente sistematizados
por tema. La referencia bibliográfica es la unidad más pequeña de información
científica. Ella debe contener los datos indispensable para la localización de la
publicación referida.
9. No más de 15 palabras.
10. No más de 250 palabras.
11. En la Discusión del artículo, se confrontan los resultados del autor con aquellos
resultados ya publicados por otros autores sobre el tema o temas relacionados. La
conclusión es la última palabra del autor y debe justificarse con evidencias.
12. Las consecuencias prácticas del autor deben analizarse en la sección de Discusión,
así como cualquier implicación teórica derivada del estudio.
http://www.unet.edu.ve/~frey/varios/decinv/investigacion/clave.html
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 496
<<
6. CAPITULO VI: ELEMENTOS PARA LA EVALUACIÓN DE RESULTADOS
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 497
6.1. EVALUAR LOS RESULTADOS
Una vez obtenidos los resultados, antes de informar de ellos, el investigador debe dedicar
algún tiempo a una fase especial: la evaluación. Debe evaluar los resultados: ¿son lo que
él quería?, ¿Es posible mejorar algo en el informe? ¿Debe ser dejado fuera algo o merece
el informe publicarse en su totalidad?. Por definición, la evaluación es sólo posible cuando
se haga desde el punto de vista de alguien. El propio punto de vista del investigador es tan
válido como cualquier otro, pero no siempre es el que marcará el resultado y
consecuencias del proyecto de investigación. Más adelante se tratarán otros ángulos de
visión.
6.1.1. FACTUALIDAD Y CREDIBILIDAD En el informe, el investigador presenta los resultados de sus mediciones u observaciones
hechas en el mundo empírico. Son en su mayor parte afirmaciones incondicionales: "Un
86% de los clientes estaban satisfechos"; "El peso del coche era de 1.550 kg". Ahora es
posible que entre las muchas afirmaciones hechas en un informe haya algunas que no son
ciertas, con lo que debe haber modo de evaluar la factualidad de toda la información dada.
El asunto se convierte en algo realmente serio cuando se trata de sopesar la afirmación
central del proyecto, la hipótesis.
¿Qué queremos decir con las palabras "factual" y "verdadero" y cómo determinamos la
factualidad de una afirmación?
En el curso del tiempo, los investigadores han interpretado la palabra "factual" de distintos
modos. Una posibilidad es ver si la afirmación es coherente con otras informaciones que
creemos que son ciertas. Este método era popular en la Edad Media, cuando todas las
ramas de la investigación eran ramificaciones de la teología. De acuerdo con ello, había
un indicador simple y universal para la credibilidad de una afirmación: su acuerdo con la
Biblia.
Hoy la mayor parte de los investigadores están de acuerdo en que, en el mundo empírico,
el criterio correcto de una afirmación es su correspondencia con la realidad, no con las
autoridades. El examen de esta correspondencia es llamado verificación. La dificultad es
que una afirmación reside en el mundo de los conceptos y teorías, no en el mundo de las
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 498
cosas empíricas sobre las que habla; de modo que la correspondencia no siempre es fácil
de definir y registrar. Junto a ello, siempre hay la posibilidad de error en las mediciones.
Como resultado, los investigadores ahora están de acuerdo en que nunca podemos
alcanzar un 100% de certidumbre en la correspondencia con la realidad de ninguna
afirmación empírica.
Las "ciencias formales" tales como las matemáticas son un caso diferente: podemos
probar con absoluta certeza que el área del círculo es pi por el radio al cuadrado. Pero ello
sólo es cierto si no estamos describiendo un círculo empírico, porque, si medimos un
círculo empírico, probablemente encontremos que los últimos decimales de nuestra
medición son incorrectos.
Otra dificultad de verificación surge si la afirmación es de tipo general, como lo son la
mayor parte de las hipótesis. Si la hipótesis dice que todos los objetos en el mundo siguen
una cierta regla, debemos investigar todos los objetos antes de que podamos estar
seguros al 100% -- lo que será casi siempre imposible. En lugar de ello, hay otro modo de
evaluar una hipótesis general: podemos mostrarla como falsa si encontramos un sólo
caso en que la hipótesis sea falsa. Por supuesto, incluso en este caso, tenemos el riesgo
de error. Ni siquiera una serie prolongada de intentos infructuosos de mostrar la falsedad
puede producir una absoluta verificación de la hipótesis.
A causa de las dificultades prácticas arriba mencionadas, la mayor parte de la gente está
de acuerdo en que, hablando en sentido estricto, es imposible verificar afirmaciones
empíricas generales. Debiéramos usar la palabra verificación cuidadosamente y definir a
qué casos nos referimos, como por ejemplo: "La hipótesis fue verificada en todos los
casos examinados."
6.1.1.1. CREDIBILIDAD DE LAS CONCLUSIONES CUALITATIVAS Tenemos que aceptar el hecho de que los estudios empíricos no pueden producir
resultados que sean ciertos con absoluta certeza. Sin embargo, incluso cuando sabemos
que los resultados pueden contener pequeños errores, los resultados pueden seguir
siendo bastante útiles para muchos fines prácticos. Por ejemplo, si creemos que los
resultados de una investigación son ciertos en un 99% de los casos, muy bien podemos
asumir el riesgo de usarlos y aceptar que el 1% de nuestra aplicación será fallido. Los
beneficios con el 99 de productos exitosos pueden compensar las pérdidas con el
producto defectuoso.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 499
En todo caso, cuando se usan los resultados de la investigación con una certidumbre
menos que absoluta, podemos no obstante necesitar métodos para evaluar los resultados
de la investigación. Tendremos suerte si usamos resultados que han sido verdaderos en el
99.9% de los casos estudiados, pero no si se mostraron como ciertos en sólo el 51% de
los casos.
Una evaluación inequívoca de los resultados de la investigación es imposible, por las
mismas razones (véase más arriba) por las que es imposible una verificación absoluta. Sin
embargo, las prácticas convencionales de las comunidades científicas existentes ejecutan
esta evaluación de una forma muy eficaz. La evaluación no es un acontecimiento
separado ni un proceso planificado. Suele alcanzarse gradualmente y participan en el
proceso un gran número de colegas investigadores. Los acontecimientos habituales en la
evaluación son los siguientes;
• Si el informe de investigación es una Tesis, será criticado por los examinadores
oficiales y los oponentes .
• Cuando se presenta un nuevo informe de investigación a los editores de una serie
de publicaciones científicas, el informe será criticado no sólo por los editores, sino
que también lo será por revisores establecidos para la serie, que normalmente son
científicos expertos y reconocidos y por ello son capaces de presentar unas agudas
observaciones críticas.
• Tras la publicación, nuestro informe atraerá muchas veces la atención de nuestros
colegas investigadores, y lo usarán como una base para nuevas hipótesis que
están poniendo a prueba en sus propios proyectos. Si la hipótesis del último
proyecto falla inesperadamente, el investigador respectivo puede volver un ojo
crítico hacia el informe anterior sobre el que se ha apoyado.
• Si nuestros hallazgos son aplicados a problemas prácticos entre los ejercientes de
la profesión o en la producción industrial, pueden fallar al producir los resultados
que habíamos pronosticado. Las investigaciones sobre las razones del fallo
normalmente incluirán una verificación crítica de nuestros procesos y resultados.
Mientras nadie entre las personas arriba mencionadas encuentre todos los fallos en
nuestro informe, nuestros hallazgos ganarán, sin embargo, credibilidad durante el
proceso. Los colegas y profesionales empezarán de forma gradual a ver nuestros
hallazgos como una base fiable para su propio trabajo, del mismo modo que cuando ellos
usan sus propias observaciones, las tablas que se encuentran en los manuales, o todo lo
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 500
que todos aceptan como ajustado a los hechos y verdadero. A este proceso gradual se le
llama en ocasiones método de confirmación por "consenso".
"La ciencia no reposa sobre un fondo de roca. La audaz estructura de sus
teorías se levanta como si lo hicira encima de un pantano. Es como un
edificio erigido sobre pilones. Los pilones se clavan en el fondo del pantano,
pero no en una base "natural" o "estableciada"; y cuando cesamos en
nuestros intentos de hundir nuestros pilones en una capa más profunda, no
es porque hayamos alcanzado una base firme. Simplemente nos detenemos
cuando estamos satisfechos porque son lo bastante firmes como para
aguantar la estructura, al menos por el momento". (Karl R. Popper: The Logic
of Scientific Discovery, 1959, p. 111)
El tipo de proceso de confirmación por "consenso" no puede comenzar antes de que el
informe sea público. Sin embargo, ya antes de la impresión, el investigador puede intentar
valorar algunos componentes de su credibilidad. Durante el proceso de investigación, el
investigador raramente contempla el proyecto o sus resultados desde fuera, pero en la
fase de valoración sería útil desplazar la propia visión desde el ángulo "interno" de visión
al "externo":
• La visión interna del proyecto está confinada a lo que se manifestaba
explícitamente en los objetivos iniciales o las hipótesis. En esta visión son cosas
importantes por ejemplo la claridad de definiciones, la fiabilidad de mediciones y un
bajo nivel de error aleatorio.
• La visión externa lo que intenta revelar es ¿Con qué amplitud son validos los
resultados fuera de la muestra, en la población?. ¿Pueden aplicarse a problemas
prácticos habituales? ¿Pueden aplicarse los resultados en situaciones análogas en
otros sitios, fuera de la población? Por supuesto, al investigador no puede
hacérsele responsable de tales ampliaciones "ilegales"; al público en general, sin
embargo, le gustan, y podría ser sensato estar preparado para contestar a esta
pregunta.
Un examen más detallado de los componentes de credibilidad podría incluir algunas de las
siguientes preguntas.
• ¿Se explican claramente los principios de interpretación de modo que otro
investigador pueda llegar a las mismas conclusiones a partir del material reunido?
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 501
• ¿Hemos estudiado bastante material? Habitualmente podemos contestar que sí
cuando consideramos que nuestro material está "saturado", esto es: el examen de
casos nuevos ya no produce información suplementaria.
• ¿Hay anomalías entre los casos? Éstas son los casos que no obedecen a nuestra
hipótesis. Algunos investigadores dicen que tales casos no deben tolerarse;
algunos otros piensan que es permisible un pequeño porcentaje. Si hay anomalías,
debemos analizarlas; sería demasiado simple una solución que sencillamente las
excluyese de los casos estudiados. Si no podemos encontrar explicaciones a las
anomalías podríamos simplemente enumerarlas como elementos que precisan
estudios ulteriores.
• ¿Es nuestra interpretación la única razonable o es claramente, por lo menos, la más
verosímil entre las alternativas? Debemos pensarlo bien antes de contestar que sí,
porque, en la práctica, una vez que el investigador ha encontrado una interpretación
sostenible, se le hace difícil inventar otras alternativas, incluso aunque una persona
ajena podría pensar fácilmente en otras posibilidades. Podría ser una buena idea
que discutiésemos las alternativas con una persona ajena.
Fiabilidad de una fuente. La fiabilidad de los docuentos escritos o impresos y su
evaluación se trata bajo el encabezado Crítica de fuentes. El método para valorar
documentos es también adecuado para evaluar información factual que recibimos a
través de entrevistas o cuestionarios (no debiéramos, sin embargo, evaluar o censurar las
opiniones de nuestros entrevistados).
El método más eficiente para descartar la información falsa es el análisis cruzado de los datos, obteniendo información de fuentes paralelas. Cuando no existe información
paralela y nuestra única fuentes es una sola declaración, debemos hacernos las siguientes
preguntas:
• ¿Qué quería decir el informante con su declaración? ¿Tiene la declaración un
sentido real distinto de su contenido literal?
• ¿Se hizo la declaración de buena fe?
o ¿Tenía el informante interés en engañar al lector?
o ¿Estaba el informante bajo presión para decir alguna falsedad?
o ¿Estaba influenciado por simpatía o antipatía para decir una falsedad?
o ¿Le influenciaba la vanidad?
o ¿Estaba influenciado por la opinión pública?
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 502
• ¿Era exacta la declaración? o, de manera más particular:
o ¿Era el autor un observador deficiente a causa de algún defecto o
anormalidad mental?
o ¿Estaba el autor mal situado en cuanto al momento o el lugar para observar?
o ¿Contiene la declaración contradicciones internas?
o ¿Era el hecho de tal naturaleza que no podía observarse directamente?
Cuando hemos reunido los resultados de una muestra no aleatoria a partir de una
población, lo normal es que queramos generalizar nuestros resultados. Generalizar
significa que afirmamos que los resultados son ciertos no sólo para la muestra, sino
también respecto a la población. ¿Es posible evaluar la credibilidad de tal declaración?
La cuestión crucial en la evaluación es si la muestra se desvía de la población en aspectos
relevantes. Por relevantes entendemos aquellas cuestiones que medimos o que se
incluyen en nuestra hipótesis o en los objetivos del proyecto. Habitualmente la única
manera de estimas esto sería investigar otra muestra de la misma población, lo que en la
mayor parte de los casos iría más alla de los recursos disponibles.
Como un débil sucedáneo del examen arriba descrito, podríamos plantearnos el estudiar si
nuestra muestra no aleatoria se desvía de la población respecto a aspectos distintos de
los puntos "relevantes" arriba mencionados. Con frecuencia podremos examinar archivos
públicos y descubrir por ejemplo la conformación demográfica, edad o estructura por
sexos de nuestra población y comparar estas cifras con nuestra muestra.
Si encontramos desviaciones, tenemos que plantearnos si éstas nos dan razones para
sospechar sobre desviaciones también en las variables "relevantes" arriba aludidas. Para
ayudarnos a la hora de plantearnos esto, podríamos calcular las correlaciones entre la
variable demográfica que aparece desviada y nuestras variables "relevantes" (si son
numéricas). Por ejemplo, si la distribución por sexos no es igual a la distribución por sexos
de la población, calcularemos las correlaciones entre sexo y nuestras variables
"relevantes" en la muestra. Unas correlaciones altas indican que nuestra muestra estaba
sesgada.
Sin embargo, incluso si las correlaciones mencionadas son bajas, esto no garantizará la
ausencia de sesgo. Así, tal vez sería una buena idea usar el muestreo aleatorio, siempre
que sea posible, para evitar llegar a vernos en la necesidad de realizar las evaluaciones
arriba descritas.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 503
6.1.1.2. CREDIBILIDAD DE LAS CONCLUSIONES CUANTITATIVAS Los procesos de investigación cuantitativa están mejor definidos que los cualitativos, de
modo que es más fácil encontrar criterios de evaluación. Podríamos, por ejemplo,
investigar si los resultados han sido ciertos en un 99% o sólo un 80% de los casos
medidos. Un indicador efectivo es la varianza de las mediciones. Podemos evaluar su
representatividad con la prueba t. Con la misma prueba, podemos calcular el error
probable de la media de nuestras mediciones. No hace falta decir que que cualquiera de
los algoritmos y procesos de análisis numérico pueden estar equivocados y han de ser
comprobados.
Además, puede que el investigador se quiera hacer las siguientes preguntas:
• ¿Hay definiciones para todos los conceptos principales o al menos para aquellas
variables que hemos medido?
¿Nos hemos apartado en algún punto de las definiciones originales?
• ¿Cuál es la población donde queremos que sean válidos nuestros resultados?
¿Esta seleccionada de forma precisa la muestra a partir de esa población?
• Hagamos un repaso detenido a las frases de nuestro texto que incluyen palabras
como todos, ninguno, nunca o siempre; ¿queremos de verdad decir que la
población de la que hablamos es infinita?
Si hemos reunido nuestros resultados empíricos a partir de una muestra aleatoria, vamos
a querer saber hasta que punto es seguro o probable que los resultados sean ciertos no
sólo en la muestra sino también en la población original. Para este examen, hay dos
métodos llamados comprobaciones estadísticas. Estos métodos nos ayudarán a elegir
entre dos explicaciones alternativas para nuestros resultados,
• o bien nuestra hipótesis de investigación es cierta y los resultados medidos a
partir de la muestra son también ciertos en la población,
• o la "hipótesis nula" es cierta y los resultados no son válidos en la población.
Hemos obtenido los resultados de la muestra de manera sencillamente accidental.
Ahora es posible calcular la probabilidad de obtener, por azar sólo, ciertos resultados a
partir de la muestra. Si esta probabilidad es muy pequeña, por ejemplo menos de un 0.1%,
tenemos buenas razones para rechazar la hipótesis nula y creer que los mismos
resultados son ciertos en la población. A tales resultados se les llama estadísticamente
altamente significativos. Sin embargo, si la probabilidad de recibir el resultado por azar es
amplia, digamos que por encima de un 5%, no debemos afirmar que nuestros resultados
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 504
son necesariamente válidos en la población. En este caso, nuestros resultados se llaman
estadísticamente no significativos.
Los niveles de representatividad de los resultados de una investigación usados
habitualmente se detallan abajo. Los porcentajes indican la probabilidad de obtener el
resultado sólamente al azar, incluso cuando el resultado no fuera cierto en la población.
• la probabilidad es mayor que un 5% significa que el resultado no es significativo.
• menos del 5%. el resultado es considerado significativo en el nivel del 5%.
Abreviado *
• menos del 1%. el resultado es considerado significativo en el nivel del 1%.
Abreviado **
• menos del .1%. el resultado es considerado significativo en el nivel del .1%.
Abreviado ***
La abreviatura se usa situando una o más estrellas tras el resultado de la investigación ya
sometido a prueba.
Se usan nombres ligeramente distintos para los niveles de representatividad según el país,
y eso es por lo que, para evitar confusiones, podría por ejemplo afirmarse en el informe de
investigación que "el resultado es significativo en el nivel del 5%", queriendo esto decir que
la probabilidad de que se produjese ese resultado por accidente es inferior al 5 %.
Al mismo tiempo, la representatividad también indica el riesgo para el investigador de
cometer el "error de tipo 1", descartando equivocadamente la hipótesis nula y aceptando la
hipótesis de investigación, a pesar del hecho de que la hipótesis de investigación en
realidad ya no es válida. A pesar del riesgo, el investigador no debe poner el listón de la
representatividad innecesariamente alto, porque entonces hay la amenaza del llamado
"error de tipo 2", en que el investigador acepta la hipótesis nula y descarta
equivocadamente la hipótesis de investigación a pesar de ser en realidad verdadera.
¿Hasta qué grado ha de ser significativo un resultado logrado en un estudio? En la
práctica, la representatividad de un estudio suele depender de qué tipo de datos ha podido
reunir. Un informe de investigación con frecuencia es juzgado adecuado para ser hecho
público si al menos en alguna de las cuestiones estudiadas se alcanza el nivel de
representatividad del 5%.
No hay una fórmula universal para la comprobación estadística. En lugar de ello hay un
cierto número de comprobaciones especiales para cada distinto tipo de estadísticas (para
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 505
la media, la varianza, etc.). Sin embargo, la práctica general en las comprobaciones es
siempre la misma:
1. primero, en el manual de estadística, encontramos la fórmula específica para la
estadística que queremos comprobar,
2. entonces colocamos nuestra estadística en la fórmula, y junto a ella algunos
parámetros (que indican el número de nuestras mediciones, su varianza, etc.). La
fórmula entonces nos da una cantidad especial llamada Chi, t, F, etc., que describe
la "fuerza" de nuestro hallazgo,
3. comparamos esta cantidad con las tablas (en los manuales) que nos dicen cuál es
la probabilidad de obtener nuestro conjunto de datos únicamente por coincidencia.
Si la probabilidad es, pongamos, de menos de un 1%, nuestros resultados son
significativos.
En la siguiente tabla encontraremos algunas comprobaciones estadísticas. Una tabla no
puede dar todos los criterios que deben tenerse en cuenta en la elección; sería
aconsejable consultar a un estadístico si tenemos la posibilidad.
Tabla 15: Comprobaciones estadísticas
DATOS QUE HAN DE SOMETERSE A PRUEBA: PRUEBA ADECUADA:
Distribución: prueba Chi Estadísticas que describen una variable aritmética (por ej.: media): prueba t
Variables medidas sobre una nominal escala: Cochran Q test Variables medidas sobre una escala ordinal: Prueba Wilcoxon Correlaciones (escala aritmética): prueba t
Relaciones entre dos o más variables Resultados a partir del análisis de varianza: prueba F Enlaces en el WWW sobre inferencia estadística y pruebas:
• Surfstat, de la University of Newcastle
• Inferential Statistics, de William M. K. Trochim
6.1.1.2.1. Prueba Chi La prueba Chi (letra griega que se pronuncia como en español "ji") puede usarse para
valorar cómo están distribuidos en clases los objetos o sujetos en una muestra aleatoria.
Un ejemplo inventado:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 506
Un fabricante vende grifos en España. Éstos pueden ser cromados en plateado o dorado.
La empresa empezará pronto a lanzar al mercado estos productos en Portugal y necesita
saber si los clientes portugueses están relativamente más interesados en los dorados que
los clientes españoles.
Se ha enviado un cuestionario a 150 portugueses elegidos al azar y a un número igual de
españoles. 100 cuestionarios no fueron devueltos. Las 200 respuestas obtenidas se
distribuyeron como indican los números marcados con una T:
. Prefiere acabado cromado Prefiere acabado dorado TotalEspañoles T = 50 T = 40 90 Portugueses T = 50 T = 60 110 Total 100 100 200
En este caso (inventado), la mayoría de portugueses preferían grifos dorados, mientras
que la mayoría de españoles los preferían cromados. Ahora surge una pregunta: ¿esta
diferencia es válida en todos los portugueses y españoles o es posible que una
divergencia tal de las muestras esté causada sólo por el azar? Tenemos que plantearnos
el hecho de que recibiéramos sólo 200 respuestas y es bastante posible que
accidentalmente tengamos un grupo tan pequeño, varias personas que no son típicas en
sus opiniones .
La probabilidad de un resultado accidental puede calcularse con la prueba Chi. Para llevar
a cabo la prueba, primero vamos a investigar cómo estas 200 respuestas podrían estar
distribuidas con mayor probabilidad, si no hubiese diferencias entre las dos poblaciones;
en otras palabras, si todos los portugueses y todos los españoles tuviesen idénticas
opiniones sobre los acabados de los grifos. Esta distribución hipotética se llama
distribución esperada. En nuestro ejemplo sería como sigue. (Las frecuencias de clases
en esta distribución van marcadas con la letra V):
. Prefiere acabado cromado Prefiere acabado dorado Total
Españoles V = 45 V = 45 90
Portugueses V = 55 V = 55 110
Total 100 100 200
Ahora necesitamos construir una medida para indicar cuánta discrepancia hay entre la
distribución real y la esperada. Esta medida se llama Chi cuadrado, y se calcula como
sigue:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 507
(siendo x la discrepancia, T el total y V el valor de los que prefieren cromado o dorado y
significando suma). En la fórmula tenemos que sustituir sucesivamente T por cada valor T
en la tabla de "distribución real" y, de la misma manera, a su vez, para V, cada valor de V
en la tabla de "distribución esperada" En nuestro ejemplo, Chi al cuadrado da el siguiente
valor:
= 0,56 + 0,56 + 0,45 + 0,45 = 2,02
El siguiente paso es calcular la probabilidad de obtener, sólo por accidente, los resultados
de arriba (o, lo que es lo mismo, la divergencia mencionada anteriormente entre
portugueses y españoles).
No necesitamos calcular esta probabilidad, ya que se indica para un gran número de
valores en los manuales de estadística. Estas tablas nos dicen, por ejemplo, que hay un
5% de probabilidad de obtener el valor 3.84 para Chi cuadrado en un par de tablas de 4
celdas, cuando sólo actúa el azar y no hay diferencia entre las poblaciones.
En nuestro ejemplo, obtuvimos un valor Chi cuadrado de 2.02, que es menos de 3.84.
Esto significa que la probabilidad de obtener un valor Chi cuadrado así por azar es más
del 5%. En otras palabras, los resultados de nuestro cuestionario son estadísticamente no
significativos. Así, nuestro cuestionario no permite hacer afirmación alguna sobre las
diferencias entre portugueses y españoles.
Cuando la prueba Chi se aplica a distribuciones que consisten en más de cuatro clases, es
probable que Chi cuadrado se haga mayor por la simple razón de que la fórmula Chi
cuadrado incluye más de cuatro términos que han de agregarse. Para neutralizar este
incremento, la prueba Chi requiere que demos una medida de la amplitud de nuestra tabla.
La medida para esto tiene un nombre peculiar, grado de libertad.En nombre indica el
número de las celdas de nuestra tabla que podrían cambiar cuando el número de casos es
constante.
Por ejemplo, si vamos a estudiar distribuciones en que exactamente cien personas están
clasificadas en seis grupos, el grado de libertad en cualquiera de esas distribuciones es
cinco. La explicación para esto es que cinco celdas de las seis están siempre libres para
recibir cualquier número de sujetos (entre 0 y 100); pero después de que las cinco celdas
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 508
han recibido su contenido, la sexta no tiene libertad para cambiar; estará determinada por
el total de 100.
Una tabla de 2 x 2 celdas tiene un grado de libertad de exactamente uno: si todas las
celdas cambiasen, todas las demás celdas tendrían que cambiar de acuerdo con ello;
tienen colectivamente un único grado de libertad.
En la tabla de abajo se dan los grados de libertad de algunas tablas pequeñas.
Tamaño de la tabla Grado de libertad f
2 x 2 1 2 x 3 2 2 x 4 3 2 x 5 4 3 x 3 4 3 x 4 6
La tabla siguiente da los valores que alcanza Chi cuadrado bajo la influencia sólo del azar,
con una probabilidad de 5%, 1% o bien 0.1%. Esta tabla incluye sólo pequeñas
distribuciones con un grado de libertad hasta 6. Encontraremos tablas mayores en los
manuales.
Grado de libertad Probabilidad f 5 % 1 % 0,1 % 1 3,841 6,635 10,8282 5,991 9,210 13,8163 7,815 11,341 16,2664 9,488 13,277 18,4675 11,070 15,086 20,5156 12,592 16,812 22,458
6.1.1.2.2. Prueba Cochran Q La prueba Cochran Q puede usarse para evaluar la relación entre dos variables que se
miden en una escala nominal. Una de las variables puede incluso ser dicotómica, o
consistir en sólo dos valores posibles.
En el ejemplo siguiente se evaluaron por 12 sujetos cuatro combinaciones distintas de
asientos para camión y de cinturones de seguridad. La escala de evaluación era
dicotómica: el cinturón podía molestar al usuario (=1) o no molestarle (=0). (El ejemplo es
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 509
de Raimo Nikkanen: Seat and Seat-Belt Comfort in Heavy Commercial Vehicles in
Finland.) Las evaluaciones por sujetos A...L se dan en las filas 2...5. Además, la tabla
indica las sumas para cada combinación de asiento/cinturón, sumas para cada sujeto,
cuadrados de ambas sumas y sumas de estos cuadrados, que son entonces usados en la
fórmula de la prueba Cochran.
Tabla 16: fórmula de la prueba Cochran
1 Sujeto de la prueba: A B C D E F G H I J K L SV SV2
2 Asiento de tipo I: 1 1 1 1 1 1 1 0 0 1 0 0 8 64
3 Asiento de tipo II: 1 1 1 1 0 1 1 0 1 1 1 1 10 100
4 Asiento de tipo III: 0 0 1 1 0 1 1 0 0 1 0 0 5 25
5 Asiento de tipo IV: 0 1 1 1 0 1 1 0 1 1 1 1 9 81
6 Totales por cada sujeto = SH 2 3 4 4 1 4 4 0 2 4 2 2 Total
S=32
Total
=270
7 Cuadrados de la fila precedente = SH2 4 9 16 16 1 16 16 0 4 16 4 4 Total
=106-
En el siguiente paso, los valores de la tabla se sitúan en la siguiente fórmula, que da
entonces el valor Q:
Todos los parámetros en esta fórmula se encuentran en la tabla, excepto k, que es el
número de alternativas (aquí = 4). El valor de Q se hace mayor si hay asociación
estadística entre las variables. Si no hay asociación y solo actúa el azar, Q alcanza
exactamente el mismo valor que Chi cuadrado. Esto significa que cuando se evalúa el
valor de Q que hemos recibido en una prueba, podemos usar la Tabla Chi cuadrado
mostrada anteriormente.
En una tabla de distribución del tipo de la de arriba, el grado de libertad es igual a k-1; en
el ejemplo de arriba es igual a 3. En el ejemplo de arriba, el valor obtenido para Q fue de
7.63. Consultando la tabla de Chi cuadrado encontramos que el resultado de arriba sería
significativo solo sí Q tuviese un valor de al menos 7.815. La prueba Q Cochran mostró así
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 510
que la diferencia encontrada empíricamente entre las alternativas de asientos no era
estadísticamente significativa.
6.1.1.2.3. Prueba Wilcoxon Con la prueba Wilcoxon podemos comprobar la representatividad de las preferencias entre
dos (o más) alternativas. La escala al dar las preferencias es ordinal.
En su estudio Seat and Seat-Belt Comfort in Heavy Commercial Vehicles in Finland,
Raimo Nikkanen quería comparar dos asientos distintos para camión. Doce sujetos
probaron ambos asientos y evaluaron su comodidad sobre una escala de 7 puntos. Las
valoraciones obtenidas se dan en las columnas 2 y 3 de la siguiente tabla. La fila 5, Orden
de rango de las diferencias (ignorando el signo) significa que la diferencia más pequeña de
esta fila recibe el valor 1, la segunda el valor 2, etc. Los casos en que no hay diferencia se
descartan completamente. El valor 6.5 significa que las diferencias situadas en el sexto y
séptimo lugar eran iguales; con lo que les damos a ambas el mismo rango de 6.5. La fila 6,
Los casos de signo menos frecuente significa que tomamos de la fila 5 aquellos casos
donde el signo de la diferencia era del tipo menos común. En este ejemplo, había una
minoría de diferencias negativas. De aquellos casos únicamente tomamos sus rangos, de
la fila 5. En el ejemplo, el único número que se tomará será el 3.
1 Sujeto de la prueba: A B C D E F G H I J K L
2 Comodidad del asiento estándar: 3 5 5 6 5 5 3 5 4 5 3 3
3 Comodidad del asiento anti-vibración: 2 3 2 2 2 2 2 3 3 2 2 4
4 Diferencia de los valores de arriba: 1 2 3 4 3 3 1 2 1 3 1-
1
5 Orden de rango de las diferencias (ignorando el
signo): 3 6,5 9,5 12 9,5 9,5 3 6,5 3 9,5 3 3
6 Los casos de signo menos frecuente: - - - - - - - - - - - 3
En el siguiente paso, añadimos todos los números a la fila 6, ignorando sus signos.
Llamamos a esto suma T. En el ejemplo será 3. Ahora es momento de mirar en la tabla de
la prueba Wilcoxon en nuestro manual. Las filas de la tabla son para diferentes números
de pares (=N, aquí 12). En la fila correcta, encontramos, encontramos Tmax = valor que T
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 511
no debe exceder, o los resultados no serán significativos en un nivel del 5%. Aquí debajo
tenemos una parte de la tabla.
N= 6 7 8 9 10 11 12 13 14 15 16 17 18
Tmax= 1 2 4 6 8 11 14 17 21 25 30 35 40
En nuestro caso, el valor empírico (3) está claramente bajo el valor permisible, y así
podemos llamar significativos a nuestros resultados. Sería altamente improbable que se
obtuviese una diferencia tan amplia en las preferencias
sólamente por azar.
Arriba hemos comprobado distribuciones y mediciones
en una escala ordinal. Estos tipos de pruebas son bien
explicadas en Sidney Siegel: Nonparametric statistics
for the behavioral sciences.
6.1.1.2.4. La prueba t El efecto del azar hay que considerarlo siempre cuando
calculamos una estadística descriptiva, por ejemplo, una media o una correlación. Estas
estadísticas siempre proceden del algoritmo aparentemente exacto y digno de confianza,
incluso en casos en que el material subyacente es a la vez escaso y poco fiable. Esto
puede ilustrarse por un ejemplo inventado (a la derecha) donde tenemos dos mediciones a
partir de tres estudiantes elegidos al azar en la UIAH.
En el diagrama de dispersión, resulta que podríamos dibujar una línea recta a través de
los tres casos, lo que significa también que la correlación de las dos variables es
exactamente 1.00. ¿Indica una correlación tan inusualmente fuerte que generalmente el
peso (y) de cualquier estudiante en la UIAH puede calcularse a partir de su año de
estudios (x) usando la fórmula y = 5x + 55 ?
Por supuesto que no. La probabilidad de obtener por azar una correlación alta entre tres
pares de mediciones es bastante elevada. Incluso si teníamos 5 pares de mediciones, la
correlación alcanzaría de manera puramente accidental el valor ±0,81en el 10% de casos,
y el valor ±0,96 en el 1% de los casos, cuando las dos variables en realidad son
absolutamente independientes la una de la otra.
Cuantas más mediciones tenemos, la correlación más baja se convierte en significativa.
Esto puede verse en la siguiente tabla:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 512
Numero de mediciones Si la correlación es al menos:
4 pares 0.95 0.99 5 pares 0.88 0.96 7 pares 0.75 0.88 10 pares 0.63 0.77 20 pares 0.44 0.56 40 pares 0.31 0.40 100 pares 0.20 0.26
... ... entonces la correlación es significativa en un nivel del 5%.
... entonces la correlación is significativa en un nivel del 1%.
La tabla de arriba es un simple ejemplo de una prueba t. Además del cociente de
correlación, la prueba t puede usarse para estimar la representatividad de otros muchos
parámetros estadísticos. En la mayor parte de los casos, sin embargo, los valores para el
parámetro t no pueden obtenerse directamente a partir de una tabla como la de arriba,
sino que han de calcularse con fórmulas especiales que son desgraciadamente todas
distintas.
La prueba t puede también usarse para estimar la representatividad de la diferencia entre
los parámetros obtenidos a partir de dos muestras distintas, es decir, lo probable que
también las poblaciones correspondientes difieran entre ellas en una manera similar. El
principio de la prueba es el mismo. Una limitación de la prueba t es que sólo puede usarse
para estimar uno de dos parámetros a la vez.
6.1.2. REFERENCIAS • Surfstat, de la University of Newcastle - Inferential Statistics, por William M. K.
Trochim
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 513
6.2. UTILIDAD DE LOS RESULTADOS Y APLICACIÓN PRÁCTICA
Ilustración 19: Beneficios del proceso de investigación
El investigador siempre desea que su trabajo produzca ventajas para otras personas, y
habitualmente intenta estimar estos beneficios desde el comienzo del proyecto y en las
observaciones de conclusión del informe de investigación.
Esta estimación será subjetiva, por supuesto. Se puede obtener una evaluación más
realista y objetiva si el proyecto de investigación de originó a partir de un problema
práctico experimentado por la gente. Un indicador fiable del valor de los resultados de la
investigación es que si estas personas estén dispuestas a aplicar estos resultados al
problema original (figura de la derecha). Si la aplicación resulta fácil y exitosa, el proyecto
de investigación recibe unas notas altas desde el punto de vista de sus potencialidades a
la hora de ser utilizado.
Se encuentran con frecuencia métodos bien desarrollados para valorar esas
potencialidades de los resultados de la investigación en proyectos de desarrollo de
actividades o desarrollo de productos.
6.2.1. VENTAJAS E INCONVENIENTES PARA LAS PERSONAS DEL EXTERIOR El producto final de un proyecto de investigación es a veces puro conocimiento sin
aplicaciones intrínsecas. En ese caso puede ser difícil pronosticar los resultados de futuras
puestas en práctica y los puntos de vista que otras personas puedan tener sobre ellos.
Un pronóstico así se hace más fácil en proyectos de investigación y desarrollo, donde las
personas que tienen intereses en el proyecto suelen poderse dividir en grupos diferentes.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 514
Guba y Lincoln dan la siguiente lista de grupos de interés en torno a un proyecto de
desarrollo:
• los agentes, o personas implicadas en producir y poner en práctica lo que se
evalúa. Éstas comprenden:
o los desarrolladores de lo evaluado
o los financiadores
o aquellos que toman las decisiones que están decididos a utilizar o desarrollar
localmente lo evaluado
o quienes proporcionan instalaciones y materiales
o el personal comprometido con el proyecto.
• los beneficiarios, aquellas personas que de algún modo se benefician del uso del
proyecto y entre las que están
o los beneficiarios directo, el "grupo-finalidad" las personas para las que el
proyecto se diseñó
o beneficiarios indirectos, quienes están en a relación con las personas
anteriores y reciben desde ellas influencias positivas.
o personas que ganan con la existencia del proyecto, tales como editores de
los materiales, contratistas que proporcionan servicios,
• las víctimas, aquellas personas que se ven afectadas negativamente por el uso del
los resultados del proyecto; entre ellas se incluyen
o grupos sistemáticamente excluidos, como los jóvenes "normales" a quienes
no se ofrece un programa pensado para jóvenes problemáticos
o personas que sufren efectos colaterales negativos
o personas en las que se pensó originalmente como beneficiarios que sufren,
sin embargo, por causa de algún fracaso en el proyecto.
La lista de arriba es una versión abreviada de la de Guba - Lincoln: Fourth Generation
Evaluation, 1989. El libro trata bien el método de evaluación sobre el que se basa un
debate abierto y democrático entre el investigador y todos los beneficiarios, víctimas y
agentes o las personas implicadas en producir y poner en práctica los resultados del
proyecto.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 515
Otros investigadores sostienen una opinión más "positivista" e insisten en que las
discusiones generales son métodos demasiado subjetivos para la evaluación, ya que
normalmente no podemos garantizar que esas personas presentes en los debates
representen a la mayoría de la gente y todos los puntos de vista posibles. En lugar de ello,
el investigador debe asumir un papel "objetivo" y desarrollar métodos de medición y
valoración que simulen el punto de vista general e imparcial. Este paradigma de
evaluación se explica en King et al.: How to Assess Program Implementation (1987) y
otros libros en el Program Evaluation Kit de Sage Publications. Ejemplos de evaluaciones
así pueden encontrarse en la revista Evaluation Review.
Los inconvenientes causados a otras partes y a personas ajenas son un problema habitual
en sociedad, y desde los tiempos de Hammurabi las personas han aprendido a regular por
medio de leyes, "buenas maneras" y otras normas de comportamiento. Normas éticas más
recientes son por ejemplo las del movimiento Pugwash y los "principios de desarrollo
continuo". Un ejemplo de estos principios son las "reglas de economía ética" enumeradas
en el libro Maa (La Tierra) de Eero Paloheimo (1985), de los que presentamos aquí una
muestra:
• las materias primas han de conservarse para las generaciones futuras
• sólo se usa la energía renovable
• no se explotará la aflicción de los países subdesarrollados
• la población debe decrecer
• la polución peligrosa no puede aceptarse
No siempre es tan fácil ver como un proyecto de investigación limitado puede violar esos
principios globales. El investigador puede que ni siquiera adivine todos las zonas a las que
podría afectar su proyecto, por no hablar de estimar las repercusiones que la aplicación de
sus resultados podrían tener para terceras personas, la naturaleza y el entorno.
El investigador debe preferiblemente intentar mantenerse en contacto con al menos
algunas potenciales "victimas del desarrollo". Si el investigador encuentra que le es
imposible entrar en contacto con las personas afectadas, el grupo de gestión del proyecto,
o tal vez un comité compuesto de usuarios de los resultados, podrían ser un foro
adecuado para tratar el asunto.
Si los resultados de la investigación van a ser aplicados en cierta profesión, por ejemplo
dentro de los campos de la enseñanza, la arquitectura o la ingeniería, el investigador
quizás podría atender a las normas tradicionales de la profesión a título de orientación.
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 516
Las asociaciones de algunas profesiones han emitido documentos llamados "Código ético
de la profesión", "Código deontológico", etc. Sitios en el Web sobre evaluación:
• American Evaluation Association
• Evaluation and Performance Measurement (por Government Performance
Information Consultants)
• Performance Measurement in Government (Ciudad de Grande Prairie, Canadá)
• Introduction to Evaluation, por William M. K. Trochim.
15.dic.1998. Versión en español: [email protected]
6.2.2. REFERENCIAS
o http://usuarios.iponet.es/casinada/arteolog (España)
o http://www.uiah.fi/projects/metodi/ (Finlandia)
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 517
<
6.3. EL INFORME DE INVESTIGACIÓN
6.3.1. PARTES DE UN INFORME DE INVESTIGACIÓN El informe es, para el investigador, un medio de transmitir los resultados de su trabajo a
otros. En consecuencia, los resultados tienen que ser presentados de tal modo que los
lectores puedan fácilmente aplicarlo a sus propios fines. Por otra parte, debemos dar al
lector la oportunidad de verificar la fiabilidad de los resultados.
Formalmente, un informe de investigación suele consistir de las siguientes partes:
1. Páginas de título
2. Resumen (Abstract)
3. Indice (también puede estar al final del libro)
4. Prefacio
5. El texto propiamente dicho
6. Lista de fuentes y de bibliografía
7. Posibles índices de personas o un índice general
8. Apéndices
Las páginas de título son las primeras páginas del libro. Habitualmente la primera de
todas sólo indica la serie de publicaciones y el título del libro. La siguiente, propiamente la
página de título contiene la siguiente información, cuyo orden varía de un país a otro y de
un editor a otro:
• La serie de publicaciones, si hay tal, y el número de la publicación dentro de esta
serie.
• El título, a saber: el nombre de la publicación. Un título conciso y expresivo ayudará
a futuros investigadores a que estén elaborando una lista bibliográfica sobre el
mismo tema. Es aconsejable dar al libro un título en que el primer sustantivo
exprese el tema más importante que se ha estudiado; por esta razón no es
prudente comenzar el título con la palabra Investigación, por ejemplo.
• Autor(es) (sin títulos y cargos académicos)
• Editor
• Publicado en ..., hoy en día suele indicar la localización de la casa editora (En otros
tiempos, aquí se solía mencionar el lugar de impresión.)
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 518
La página del título también indica, posiblemente, a su vuelta:
• casa impresora, lugar de impresión, fecha
• ISBN (International Standard Book Number), proporcionado por el editor.
La idea del resumen (abstract) es hacer las ulteriores búsquedas de información más
fáciles. Ayuda a los investigadores posteriores a decidir si le merece la pena buscar ese
trabajo en concreto. El resumen clarifica el título y es una exposición de no más de 250
palabras que tratan de lo que ha sido estudiado y como, y da un esquema de los
resultados, de tal modo que el lector entienda el tema sin haber tenido que leer el trabajo
mismo. Esto se logra mejor si es el investigador quien escribe su propia exposición.
El resumen se escribe en el mismo lenguaje del informe, y con frecuencia también en
inglés. El investigador puede también indicar el número UDK que describa los temas del
estudio. Estos temas deberían preferiblemente ser tomados del thesaurus de ese campo
del conocimiento, si lo hay. En este asunto es aconsejable para el investigador recurrir al
analista de sistemas bibliotecarios.
Si el investigador encuentra que este informe podría también tener algunas aplicaciones
fuera de los lectores del campo científico, puede, además del resumen, preparar también
una exposición de aplicaciones de esta publicación. Esta exposición puede también servir
como anuncio para varias publicaciones periódicas profesionales.
El prefacio ("Al lector") trata de los orígenes de la investigación y acerca de las diferentes
colaboraciones que han contribuido a ello. Es costumbre expresar aquí el agradecimiento
a los patrocinadores y a las personas que han promovido el trabajo. El texto propiamente
dicho cuenta cómo se obtuvieron los resultados. El texto debe también proporcionar al
lector una posibilidad de valorar la fiabilidad de los resultados. Esta es la razón por la que
debe contener al menos lo siguiente:
• la finalidad de la investigación, el problema o la intención
• la naturaleza de los datos analizados y las bases para la selección de los datos
• método de investigación
• resultados obtenidos y conclusiones
• una estimación de la fiabilidad de los resultados y con qué medida pueden ser
aplicados de manera general
Con método de investigación queremos decir la estructura lógica a través de la cual los
resultados se han obtenido a partir de los datos. En las ciencias naturales suele ser fácil
describir este método, pero ¿cómo se hace en un proyecto de investigación humanística
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 519
en el que muchas veces ocurre que el investigador trabaja durante meses en algo que
más tarde se muestra inútil?. Es bastante habitual en investigación cualitativa que la
interpretación del investigador cambie profundamente al mismo tiempo que avanza la
investigación, llevando al hecho de que los resultados de que se informa son producto de
las semanas de investigación más recientes.
En esto los distintos investigadores han seguido diferentes pautas, que Outi Lehtopuro
describe con humor en el prólogo del libro Perinteentutkimuksen perusteita [Introducción a
la investigación del folklore]:
"... la investigación humanística ha tenido aversión a especificar claramente
los procesos por los cuales el investigador tuvo que pasar para obtener los
resultados alcanzados. Los investigadores tratan de parcelar la investigación
acabada en una forma legible, suave y desenvuelta para disimular una pila
entera de esforzada investigación de detalle, intento, error y experimentos
que no ha producido resultados.
Pero gradualmente ha empezado a ganar terreno la demanda de una
exposición clara de los métodos de investigación también en el pensamiento
humanístico. Uno podría notar a primera vista que... algo esencial desde el
punto de vista del lector se ha perdido: la habitual legibilidad a que uno
estaba acostumbrado en la investigación humanística. En un examen más
profundo, se hace patente que eso se ha reemplazado por una experiencia
incluso más enriquecedora que lo que un libro escrito en modo fascinante y
vistoso podría ofrecer. El lector se convierte en parte de un proceso mental
que nos aporta conocimiento enriquecedor a todos."
En alguna medida puede, entonces, ser útil explicar la "comprensión preliminar" del tema
que el investigador tenía al comienzo de la investigación: cómo veía el objeto al principio y
en que teoría ha basado su trabajo. Puede igualmente ser útil indicar las razones por las
que el investigador tuvo que interpretar los datos de un modo nuevo y por qué tuvo que
buscar más datos. Sin embargo, no tendrá sentido, dar cuenta de cada presuposición que
resultó ser falsa, ni nombrar todos los datos que recogió y trató en vano. Tampoco será
necesario mencionar que el investigador cree haber hallado al final la verdad, ni describir
la exaltación que le produce el haberla alcanzado.
Los resultados de la investigación cuantitativa en particular suelen ser generalizaciones
analíticas ("modelos") hechas sobre la base de casos individuales; con frecuencia de
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 520
lectura más bien aburrida. Lo más fácil de leer suelen ser informes cualitativos cuyos
contenidos principales con frecuencia son la descripción de un caso individual, especial
(por ejemplo, monografías); pensemos en obras de gran éxito como el "Origen de las
especies" de Darwin o "Vegas färd" de Nordenskjöld. Un texto de contenido altamente
numérico o monótono puede ser enriquecido con descripciones ocasionales de ejemplos
individuales de los objetos de estudio. Si el estudio trata de obras de artes, conviene darse
cuenta de que la ley permite que se publiquen simples fotografías de artefactos sin
permiso del artista y sin tener que pagar una compensación. Las citas literales de las
personas entrevistadas pueden hacer el papel de especias para aderezar un plato
insípido. Estas citas, sin embargo, requieren el acuerdo del hablante o, en otro caso, que
garanticemos su anonimato, por ejemplo, cambiando los nombres.
El estilo del informe puede no ser crucial si el investigador está en disposición de
proporcionar nuevas informaciones importantes. Pero por supuesto que la información
será entendida más fácilmente si las frases y palabras son cortas y en un lenguaje
estándar, no una jerga interna a una profesión. A veces es imposible evitar conceptos
especiales que han de definirse en el informe de investigación. Véanse también las
consideraciones sobre la organización práctica del escrito.
La conclusión suele tratar de ideas para investigaciones ulteriores que han surgido en el
curso del trabajo.
Las listas bibliográficas pueden contener sólo las fuentes explícitamente citadas o
usadas en la investigación (=lista de fuentes) o, también, se puede añadir bibliografía
potencialmente importante. Cualquiera que sea el tipo de lista de que se trate, la idea es el
ayudar al lector a localizar mayor información. Con este fin, es costumbre proporcionar la
siguiente información sobre los libros (aunque hoy en día sólo los tres primeros elementos
son absolutamente necesarios):
• apellido del autor y nombre propio o inicial
• título del libro
• edición usada por el investigador
• editor
• imprenta (s.l.= sine loco, en caso de que no se haya hecho figurar)
• año de impresión (s.a.= sine anno, si no figura)
En lo que respecta a publicaciones periódicas, es necesaria la siguiente información:
• autor del artículo
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 521
• el título del artículo
• título de la publicación periódica
• volumen de la publicación periódica subrayado, o número de año entre corchetes
• número de la publicación periódica
La lista de bibliografía suele estar al final del informe; alternativamente los libros pueden
ser listados o bien al final de los capítulos o en la parte inferior de la página. Si el informe
está pensado para ser publicado en una serie concreta, hallaremos el patrón para
presentación de las fuentes en volúmenes anteriores de dicha serie.
Los apéndices pueden incluir un índice temático o de otro tipo y también material
relacionado por su tema con la investigación que hubiera sido demasiado extenso para
incluirlo en el texto. Es el caso por ejemplo de los cuestionarios, listas o imágenes de los
objetos, o tablas grandes que resumen los resultados. En ocasiones es posible ahorrar
costes de impresión colocando grandes tablas de imágenes en color en el apéndice o en
un volumen separado con un menor número de ejemplares.
6.3.2. ESCRIBIR EL INFORME El investigador no debe sentirse desanimado si escribir el informe le resulta difícil. Siempre
lo es, por varias razones.
• Antes que nada, el tema es complicado; la investigación es intrínsecamente un
trabajo duro, una labor penosa para arrojar luz sobre asuntos oscuros; se iluminan
hechos de los que nadie sabía nada hasta hace poco.
• En segundo lugar, la forma de presentación es incómoda: las frases en el trabajo
han de aparecer en forma lineal, lo que se corresponde muy pobremente con la
progresión lógica de la investigación y también con la red multidimensional de las
formas de pensar del investigador. Queda por ver si los formatos de hipertexto
pueden eliminar este problema.
• Muchas veces, especialmente en el caso de una Tesis obligatoria, el trabajo de
investigación es para el autor el primero de este tipo, y no siempre se dispone de
modelos y orientación.
El investigador podría comenzar la escritura por hacer un esquema de las cuestiones, los
resultados y las conclusiones lógicas que combinen estas dos en una hoja de papel.
Entonces puede elegir el orden de presentación adecuado para los tres aspectos. No es
necesariamente el mismo orden en que se escribirán los apartados: suele ser mejor
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 522
comenzar por escribir los pasajes se parecen más fáciles, como descripciones de los
métodos de investigación o de los nuevos hallazgos.
Con frecuencia será necesario modificar un informe de investigación repetidas veces. Ha
que procurar que estas revisiones no alteren los pasajes acabados. En esta tarea, un
ordenador personal puede ser de gran ayuda. Los ordenadores personales son máquinas
tan potentes que sería insensato usarlos sólo como máquinas de escribir con memoria.
Los programas para procesamiento de texto tienen numerosas herramientas útiles para
quien escribe un trabajo de investigación, como las siguientes:
• El esquema es preferible planearlo antes de ponerse a escribir el texto. Debe
presentar la estructura lógica del proyecto de un vistazo. Esto puede hacerse
escribiendo el título de cada parte del informe en una línea aparte, y ordenando
primero solamente estos títulos. Una vez que la disposición sea correcta, el escritor
comienza a añadir texto a cada encabezamiento, en el orden que le sea más fácil.
Si el investigador posteriormente encuentra una secuencia mejor para los capítulos,
la revisión puede ser hecha fácilmente moviendo capítulos completos o párrafos
completos con sus títulos y las imágenes y tablas vinculadas a ellos.
• La jerarquía de encabezamientos (encabezamientos principales,
subencabezamientos, etc.) debe crearse con la ayuda de los llamados estilos. En la
escritura asistida por el ordenador, un estilo significa ante todo escoger el tipo y
tamaño de letra, pero puede también incluir, por ejemplo, una numeración
automática de los párrafos o una definición para un índice de materias generado
por el ordenador o para un índice de nombres.
• En las referencias a otras partes del mismo texto, por ejemplo "cf. párrafo 100 en
página 100" o "véase figura 100", es mejor dejar al procesador de textos hacer la
numeración (número 100 en el ejemplo de arriba). El programa de procesamiento
de textos se encarga de actuliazar los números de página y figura si la paginación
cambia posteriormente en el informe.
• Las notas a pie de página y notas finales deben confeccionarse también con la
ayuda de un programa de procesamiento de textos. Así no será necesario ocuparse
de su colocación o renumeración si se añade una nueva nota entre ellas.
• Algunos procesadores de texto incluyen un thesaurus o un diccionario de
sinónimos que puede ayudar al escritor a buscar una palabra más adecuada al
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 523
contexto, o simplemente evitar las tautologías. Esto es especialmente útil para
quienes escriben en una lengua extranjera.
• Pueden utilizarse herramientas o un programa para una corrección lingüística,
especialmente para corrección de pruebas, es decir, corrección de errores
ortográficos. Un programa así recorre un texto y para en cada palabra que no está
incluida en su diccionario.-- Por otro lado, hay programas de corrección (como
Grammatik) para examinar la gramática en textos españoles, ingleses, o en otros
muchos idiomas, capaces de señalar algunos errores habituales, expresiones
torpes, tautologías, defectos de puntuación, etc.
6.3.3. MAQUETADO Y CONFECCIÓN DE ÍNDICES Los informes de investigación no siempre se editan en una imprenta, hoy en día hay con
frecuencia se fotocopian con las máquinas del instituto de investigación. Con cualquiera de
ambos métodos es aconsejable para el escritor dar un aspecto uniforme a todas las
páginas del trabajo, es decir: maquetar la publicación. La ventaja es que el escritor está
mejor equipado para recortar, alargar o cambiar el texto y así hacer de cada página un
conjunto fácilmente legible de texto, imágenes y figuras.
Es habitual hacer una base para la puesta en página, una plantilla que contenga los
rasgos comunes a todas las páginas de la publicación: tamaño de página, márgenes,
fuentes y tamaños de los encabezamientos, texto, leyendas de imágenes, los comienzos
de capítulos y los principios de colocación de las imágenes. En estas cuestiones, parece
que casi cada serie de publicaciones tiene su propio modelo. Si no hay disponible un
modelo, debiéramos comenzar la puesta en página por crearlo. Si el tamaño de página del
informe es A4, el texto debería dividirse en dos o tres columnas, de otro modo sería difícil
de leer. Alinear el margen derecho hace más lenta la lectura; la justificación sólo del
margen izquierdo iría mejor a este respecto. Los tipos de letra que son más fáciles de leer
son los usados por los periódicos, tales como el Times; mientras que uno de los peores es
el Courier, o el que asemeja una máquina de escribir.
Hay programas especiales para publicación tales como Ventura o PageMaker que pueden
servir como herramientas para la puesta en página. Tienen dispositivos cómodos y
semiautomáticos como el disponer en columnas, control de columna viuda y columna
huérfana (las columnas viudas y huérfanas son líneas sueltas en lo alto o en la parte
inferior de la página), y una opción para enlazar ciertas lineas entre sí de modo que nunca
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 524
queden en páginas separadas. De modo similar, la ubicación de las notas a pie de página
en las páginas adecuadas se hace automáticamente.
Los programas de tratamiento de texto suelen tener problemas con las imágenes. Las
imágenes producidas de distintos modos suelen ir vinculadas a textos y serán impresas
con el texto si estamos usando una impresora láser; el único problema es que las
imágenes suelen ocupar una gran cantidad de espacio en la memoria del ordenador, los
procesos se ralentizan y tienen lugar fallos. Una forma probada de solventar el problema
es dejar espacios vacíos para las imágenes grandes y pegar las imágenes en los huecos
antes del fotocopiado.
El tamaño de las imágenes se escogerá de modo tal que los detalles necesarios sean
visibles a la misma distancia de lectura que el texto mismo. El grosor de línea de las
imágenes en el impreso final no debe ser menor de 0.1 mm. Es fácil cambiar la
configuración inicial de puesta en página con un ordenador. Esto es especialmente cierto
para la cambiar la configuración inicial de un maqueta que se ha definido sólo una vez al
comienzo del fichero de texto, tal como tamaño de página, márgenes y número de
columnas. De forma similar, si todas las definiciones de tipos de letra han sido hechas por
referencia a un tipo base definido al principio del texto, basta un comando para ampliar
todos los tipos de letras en el trabajo o incluso cambiar el tipo de letra para la publicación
entera (por ejemplo de Courier a Helvetica). Es igualmente fácil cambiar todo lo definido
en un estilo. Un simple cambio en la definición del estilo tendrá inmediatamente efecto en
todos los lugares en que éste se ha aplicado.
Tras la maquetación, pero antes de la impresión o fotocopiado, es el momento adecuado
para organizar el índice de contenidos, los índices de nombres, etc. e insertar la
numeración correcta en las referencias dentro del texto. Como se anotó anteriormente, es
posible que un índice de contenidos se forme automáticamente. Los otros índices pueden
también generarse de modo automático por el programa de tratamiento de textos, con tal
que el escritor haya marcado aquellas palabras del texto que han de ser incluídos en los
índices. Todas estas tareas son de hecho tan sencillas que pueden ser hechas cada vez
que un informe de investigación es impreso como un borrador preliminar.
Si se desea una impresión de alta calidad, el texto ha de ser compuesto en una imprenta.
El escritor suele enviar el texto a la sala de composición en disquete, después de que el y
los maquetistas se hayan puesto de acuerdo en el programa de tratamiento de texto. Es
aconsejable observar las siguientes pautas en cuanto al trabajo que va a ser impreso:
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 525
• Los retornos de carro "duros", es decir, obligatorios, se hacen sólo entre párrafos,
de modo que cada párrafo forma a los efectos una sola línea.
• Nunca se han de dividir palabras entre dos líneas; en lugar de esto, se pueden dar
indicaciones de separación con guión con un código especial. Suele ser mejor
escribir con la separación de palabras desactivada. El maquetista se ocupará de
eso.
• No debemos poner espacios al comienzo de párrafos; si se quiere resaltar el
comienzo de párrafo, es fácil hacerlo durante la maquetación.
• Suele ser buena idea poner el margen a cero en la fase de manuscrito.
• No debe haber espacios extra entre palabras. A veces tendremos muchos espacios
indeseados si está activada la alineación con el margen derecho en el procesador
de textos. Por ello es mejor escribir sin una alineación al lado derecho.
• Aunque las letras especiales como ñ, á, ü, etc. tengan sus propios códigos, en
ocasiones desaparecen cuando se lee el texto con un programa distinto de aquél
con el que fue escrito. Debemos verificar los signos especiales en la corrección de
pruebas.
• La sangría, los subrayados, las cursivas, las letras grandes de encabezamientos, y
otros efectos especiales deben añadirse en la sala de maquetación; hay que
ponerse de acuerdo sobre cómo se marcarán en el manuscrito.
• Las tablas, especialmente las hechas con hoja de cálculo o programas de bases de
datos, con frecuencia se distorsionan cuando se sitúan en el entorno de otro
programa de tratamiento de textos. Lo más seguro es imprimirlas en papel y
pegarlas en las páginas acabadas del mismo modo que si fueran imágenes.
Después de que el informe se ha imprimido, el investigador sigue teniendo algo pendiente:
debe intentar evitar de que el informe se limite a acumular polvo en una estantería. Debe
tratar de encontrar quiénes son las personas que querrían aplicar el nuevo conocimiento e
informarles.
Si el informe se publica en una serie científica, automáticamente se distribuirá dentro de la
serie entre las bibliotecas del mismo campo de trabajo. La información sobre la publicación
y su resumen irá así a las bases de datos de las bibliotecas científicas.
Sin embargo, vale la pena plantearse si habría otros sectores que podrían necesitar la
información pero no saben dónde buscarla. Los canales habituales para difundir los
DOSSIER DE TEMAS DE INVESTIGACIÓN
COMPILADOR: Lic. Jesús Demis Zuna Aguilar 526
resultados de la investigación son los artículos en revistas profesionales y las conferencias
en seminarios de personas que trabajan en el sector adecuado.
Bibliografía en español sobre el informe de investigación:
• Emilia Currás, "Los resultados de la investigación: su publicación", tema 14 de
Documentación y metodología de la investigación científica. Cuaderno de trabajo,
Madrid, Paraninfo, 1985
Documentos en el WWW sobre el informe de investigación:
• Writing Research Proposal and Reports. Página personal de Mark Mitchell.
• Writer's Guide, Guía de escritura del Depto. de Inglés de la University of Victoria
(Canadá).
6.3.4. REFERENCIAS o http://usuarios.iponet.es/casinada/arteolog (España)
o http://www.uiah.fi/projects/metodi/ (Finlandia)