probabilidad y estadística (george canavos)

667

Click here to load reader

Upload: agenteeee

Post on 15-Jun-2015

18.519 views

Category:

Education


197 download

DESCRIPTION

Libro de Probabilidad y Estadistica George Canavos ♥Subido por Agente♥ (> " "

TRANSCRIPT

  • 1. PROBABILIDAD YESTADISTICAAplicaciones ymetodosGeorgec. CanavosVIRGINIA COMMONWEALTH UNIVERSITYTraducciemEdmundo Gerardo Urbina MedalDepartamento de Ingenieria ElectricaUAM IxtapalapaRevision Tecmca:Gustavo Javier Valencia RamirezDoctor en MatematicasProfesor TitularDepartamento de MatematicasFacultad de CienciasUNAM l! , 1: : , "/~" .;.. ..- "II: __ ManclCO BUENOS AIRES CARACAS GUATEMALALISBOA MADRID. NUEVA YORK PANAMA SAN JUANSANTAF~ DE BOGOTA. SANTIAGO sAo PAULO AUCKLAND. HAMBURGO LONDRES MILAN MONTREALNUEVA DELHI. PARrS SAN FRANCISCO SINGAPUR ST. LOUIS SIDNEY TOKIO TORONTO

2. PROBABILIDAD Y ESTADISTICAApUcacionea y metodosProhibida la reproducciOn totlll 0 parcial de esta obra,por cualquler medio, sin autorizaciem escrita del editor.DERECHOS RESERVADOS 1988, respec:to I la primera edicion en espaftol porMcGRAWHILl!INTERAMERICANA DE MEXICO, s.A. DE C.V.Atlacomulco 499-601, Frace. Industrial San Andras Atoto63500 Neucelpan de Juarez, Edo. de MexicoMiembro de fa camara Nac:ional de fa Industria Editorial, Reg. Hum. 1890 ISBN 968-451-856-0Traducido de la primera edici6n en ingles deAPPLIED PROBABILITY AND STATISTICAL METHODS Copyright @ MCMLXXXIV. by George C. Canavos ISBN 0-316-12778-7 1203456789 P.E.-879076543218 Impreso en MexicoPrinted in Mexico~ Obrl II llInninO dei8lplimir In Enero de 1998 InIIegramu EM8tiYos. S.A.. de C.V., Ic-. CIl8beMO No. 6S-A~ AIluI1u.~ . ~~moc;Au,:. r { .. j_e CPo06850 MUIco. D.F.."..., """" E...... SI C8rtlicadI pot I. : Q. . i > I InslilutoMexil:anode.NormIIizac/6n;r, r Clificeci6n A.C. b8jo la Hme " . . , 150-9002: 1ll94lNMX-cc:-004:1995 - h i ..COIl 8l HUm. de Regislro R5C-048 .Se tiraron 2500 ejemplares 3. A mi madre,y a Athena, Alexis y Costa 4. ContenidoCAPiTULO UNOIntroduceien y estadistica descriptiva1 1.1 Introduccion1 1.2 Descripcion grafica de los datos 3 1.3 Medidas numericas descriptivas11 Referencia22 Ejercicios 22 Apendice: Sumatorias y otras notaciones simbolicas 25CAPiTuLo DOSConceptos en probabilidad28 2.1 Introduccion 28 2.2 La definicion clasica de probabilidad29 2.3 Definicion de probabilidad como frecuencia relativa30 2.4 Interpretacion subjetiva de la probabilidad31 2.5 Desarrollo axiomatico de la probabilidad 32 2.6 Probabilidades conjunta, marginal y condicional 36 2.7 Eventos estadisticamente independientes 41 2.8 EI teorema de Bayes 43 2.9 Permutaciones y combinaciones . 45 Referencias48 Ejercicios48 ix 5. viii ContenidoCAPiTUW TRESVariables aleatorias y distribuciones de probabilidad 52 3.1 EI concepto de variable aleatoria52 3.2 Distribuciooes de probabilidad de variables aleatorias discretas 53 3.3 Distribuciones de probabilidad de variables aleatorias continuas 57 3.4 Valor esperado de una variable aleatoria62 3.5 Mementos de una variable aleatoria 67 3.6 Otras medidas de tendencia central y dispersion75 3.7 Funciones generadoras de momentos 80 Referencias84 Ejercicios 84CAPITUW CUATROAlgunas distribuciones discretas de probabilidad 88 4.1 Introduccibn88 4.2 La distribueion binomial 89 4.3 La distribucion de Poisson100 4.4 La distribucion hipergeometrica 108 4.5 La distribuci6n binomial negativa 115 Referencills121 Ejercidos 122 Apendice: Deduccitm de la funcion ~? p")babilidad de Poisson 126 Apendice: Demostracion del teorema 4.1128CAPITuw CINCOAlguDaS distriltuciones continuas .de probabilidad . ,< 1305.1Introducxi6n1305.2La diStribuci6n normal 1305.3La distn1Jaci6n uniforme. 1435.4La distribuci6n beta 1475.5La distribuci6n gama1525.6La distribuci6n de Weibull159 6. Contenido ix5.7 La distribucion exponencial negativa 1635.8 La distribucion de una funci6n de variable aleatoria 1675.9 Conceptos basicos en la generacion de numeros aleatoriospor computadora 1715.9.1 Distribucion uniforme sobre el intervalo (a, b) 1735.9.2 La distribuci6n de Weibull1735.9.3 La distribuci6n de Erlang 1745.9.4 La distribucion normal 1745.9.5 La distribuci6n binomial 1745.9.6 La distribuci6n de Poisson175 Referencias175 Ejercicios 175 Apendice: Demostracion de que la expresion (5.1) es una funcion dedensidad de probabilidad181 Apendice: Demostracion del teorema 5.1182CAPITUW SEISDistribuciones conjuntas de probabilidad185 6.1 Introducci6n 185 6.2 Distribuciones de probabilidad bivariadas 185 6.3 Distribuciones marginales de probabilidad189 6.4 Valores esperados y momentos para distribuciones bivariadas 191 6.5 Variables aleatorias estadisticamente independientes 194 6.( Distribuciones de probabilidad condicional197 6.7 Analisis bayesiano: las distribuciones a priori y a posteriori200 6.8 La distribuci6n normal bivariada 207 Referencias 210 Ejercicios 210CAPITUW SIETEMnestras aleatonas y distribuciones de muestreo 214 7.1 Introducci6n214 7.2 Muestrasaleatorias214 7.3 Distribuciones de muestreo de estadisticas 218 7.4 La distribuci6n de muestreo de X 209 7.5 La distribuci6n de muestreo de 52 231 7.6 La distribuci6n t de Student 234 7. x Contenido7.7 La distribuci6n de la diferencia entre dos medias muestrales2387.8 La distribucion F 240Referencias 244Ejercicios 244Apendice: Demostracion del teorema central del limite247Apendice: Deduccion de la funcion de densidad de probabilidad t de Student249CAPiTULO OCHOEstimaci6n puntual y por intervalo2518.1 Introducci6n2518.2 Propiedades deseables de los estimadores puntuales251 8.2.1 Estimadores insesgados255 8.2.2 Estimadores consistentes 256 8.2.3 Estimadores insesgados de varianza minima259 8.2.4 Estadisticas suficientes 2618.3 Metodos de estimaci6n puntual2648.3.1 Estimacion por maxima verosimilitud2648.3.2 Metodo de los momentos2688.3.3 Bstimacion por maxima verosimilitud para muestras censuradas2698.4 Estimaci6n por intervalo 2718.4.1Intervalos de confianza para IL cuando se muestrea una distribucion normal con varianza conocida 2748.4.2Intervalos de confianza para IL cuando se muestrea una distribucion normal con varianza desconocida 2778.4.3Intervalos de confianza para la diferencia de medias cuando se muestran dos distribuciones normales independientes2788.4.4Intervalos de confianza para 0.2 cuando se muestrea una distribucion normal con media desconocida2808.4.5Intervalos de confianza para el cociente de dos varianzas cuando se muestran dos distribuciones normales independientes2818.4.6Intervalos de confianza para el parametro de proportion p cuando se muestrea una distribucion binomial2828.S Estimaci6n bayesiana . 2858.5.1 Estimacion puntual bayesiana 2868.5.2 Estimacion bayesiana por intervalo 288 8. Contenido xi8.6 Limites estadisticos de tolerancia2908.6.1 Limites de tolerancia independientes de la distribucion2908.6.2 Limites de tolerancia cuando se muestreauna distribucion normal 293 Rejerencias294 Ejercicios294CAPiTULO NUEVEPrueba de hipotesis estadisticas 303 9.1 Introducci6n303 9.2 Conceptos basicos para la prueba de hipotesis estadisticas303 9.3 Tipos de regiones criticas y la funci6n de potencia 311 9.4 Las mejores pruebas 314 9.5 Principios generales para probar una H o simple contra una HI uni 0 bilateral3219.5.1 Principios generales para el caso 1 3239.5.2 Principios generales para el caso 2 3249.5.3 Principios generales para el caso 3 325 9.6 Prueba de hipotesis con respecto a las medias cuando se muestrean distribuciones normales3269.6.1 Pruebas para una muestra3279.6.2 Pruebas para dos muestras3339.6.3 Retlexi6n sobre las suposiciones y sensitividad3389.6.4 Prueba sobre las medias cuando las observacionesestan pareadas340 9.7 Pruebas de hip6tesis con respecto a las varianzas cuando se muestrean distribuciones normales3469.7.1 Pruebas para una muestra3469.7.2 Pruebas para dos muestras 348 9.8 Inferencias con respecto iit liU prop6rciones de dos . distribuciones binomiales independientes 350 Referencias 353 Ejercicios 353 9. xii ConlenidoCAPiTuLo DIEZPruebas de bondad de ajuste y anafisls de tablas de contingencia 362 10.1 Introducci6n362 10.2 La prueba de bondad de ajuste chi-cuadrada363 10.3 La estadistica de Kolmogorov-Smirnov368 10.4 La prueba chi-cuadrada para el analisis de tablas decontingencia con dos criterios de clasificacion 370Referencias 374Ejercicios374CAPiTuLo ONCEMetodos para el control de caUdad y muestreo para aceptaeien 379 11.1 Introducci6n379 11.2 Tablas de control estadistico37911.2.1Tablas X (media conocida de la poblaci6n) 38111.2.2Tablas S (desviaci6n estandar conocida de la poblaci6n)38311.2.3Tablas X y S (media y varianza desconocidas de la poblaci6n)384 11.3 Procedimientos del muestreo para aceptaci6n38811.3.1 El desarrollo de planes de muestreo sencillos para riesgos estipulados del productor y del consumidor 39211.3.2 Muestreo para aceptaei6n por variables39311.3.3 Sistemas de planes de muestreo 396 Referencias 396 Ejercicios 397CAPiruw DOCEDiseio y anilisis deexperimeates estadistleos ., 1401 . "12.1 Introducci6n 401 12.2 Experimentos estadisticos401 12.3 Disenos estadisticos403 10. Contenido xiii 12.4 Analisis de experimentos unifactoriales en un disenocompletamente aleatorio40412.4.1 Analisis de varianza para un modelo de efectos fijos 40712.4.2 Metodo de Scheffe para comparaciones multiples 41312.4.3 Analisis de residuos y efectos de la violacion de las suposiciones41512.4.4 El caso de efectos aleatorios418 12.5 Analisis de experimentos con solo un factor en un diseno en bloquecompletamente aleatorizado420 12.6 Experimentos factoriales 426Referencias 435Ejercicios 435CAPITuW TRECEAnalisis de regreslon: el modelo lineal simple443 13.1 Introduccion 443 13.2 El significado de la regresi6n y suposiciones basicas 444 13.3 Estimacion por minimos cuadrados para el modelo lineal simple 448 13.4 Estimacion por maxima verosimilitud parael modelo lineal simple455 13.5 Propiedades generales de los estimadores de minimos cuadrados 457 13.6 Inferencia estadistica para el modelo lineal simple 465 13.7 EI uso del analisis de varianza 470 13.8 Correlaci6n lineal477 13.9 Series de tiempo y autocorrelaci6n 47913.9.1 Componentes de una serie de tiempo 47913.9.2 La estadistica de Durbin-Watson48013.9.3 . Eliminaci6n de la autocorrelaci6n mediante la transformaci6n. de datos48513.10 Enfoque matricial para el modelo lineal simple488Referencias491Ejercicios491Apendice: Breve revision del algebra de matrices497 11. Jiv ContenidoCAPiTUW CATORCEAmllisis de regresion: el modelo lineal general 14.1 Introduccion503 14.2 EI modelo lineal general503 14.3 Principio de la suma de cuadrados extra 513 14.4 EI problema de la multicolinealidad 520 14.5 Determinacion del mejor conjunto de variables de prediccion 525 14.6 Analisis de residuos 0 residuales 532 14.7 Regresion polinomial 538 14.8 Minimos cuadrados con factores de peso 547 14.9 Variables indicadoras556Referencias563Ejercicios563CAPITUW QUINCEMetodos no parametricos572 15.1 Introducci6n572 15.2 Pruebas no parametricas para comparar dos poblaciones con base enmuestras aleatorias independientcs57415.1.1 Prueba de Mann-Whitney S7415.1.1 Prueba de tendencias de Wald-WolfowitzSJ7 15.3 Pruebas no parametricas para observaciones por pares 57815.3.1 La prueba del signo S7915.3.1 Prueba de rangos de signos de Wilcoxon S80,15.4 Prueba de Kruskal-Wallis parat muestras aleatorias independientes582 15.5 Prueba de Friedman para k muestras igualadas584 -,"15.6 Coeficientede correlaci6n de ranges de Spearman 586 15.7 Comentarios finales. 588 .. .-... ~,.". ,-.Rejerencills 589fJercici os 589 12. Contenido xvAPENDICE 593TABLA A Valores de la funci6n de distribucion acumulativa binomial 594TABLA B Valores de la funcion de distribucion acumulativa de Poisson 602TABLA CValores de las funciones de probabilidad y de distribucion acumulativa para la distribuci6n hipergeometrica 610TABLA DValores de la funcion de distribucion acumulativanormal estandar 616TABLA EValores de cuantiles de la distribucion chi-cuadrada 619TABLA FValores de cuantiles de la distribuci6n t de Student 621TABLAG Valores de cuantiles de la distribucion F 623TABLA Hk-valores para los limites de tolerancia bilaterales cuando se muestrean distribuciones normales 629TABLA Ik-valores para los limites de tolerancia unilaterales cuando se muestrean distribuciones normales 631TABLA JValores de cuantiles superiores de la distribuci6n de la estadistica D n de Kolmogorov-Smirnov 633TABLA KLimites de la estadistica de Durbin-Watson 635Respuestas a los ejercicios selecciooados de mimero impar 636Iodice 647 13. Prefacio Este libro se plane6 como una introducci6n a la teoria de la probabilidad y a la infe- rencia estadistica, para toda persona interesada en las disciplinas aplicadas;econo- mia y finanzas, ingenieria y ciencias flsicas y de la vida. No es necesario ningun co- nocimiento previa de probabilidad y estadistica, aunque se espera que el lector se encuentre familiarizado con los fundamentos del calculo diferencial e integral. EI libra hace hincapie en las aplicaciones. EI rigor matematico se emplea unicamente con el fin de exponer las bases de la probabilidad y de la estadistica, 10 que, en opi- ni6n del autor, es un ingrediente necesario para la aplicacion efectiva de los meto- dos. EI texto intenta proporcionar al estudiante un conocimiento que vaya mas alia de 10 superficial, sin abrumarlo con teoria excesiva. En este sentido, la obra brinda la oportunidad de reforzar el "porque", ademas de presentarle el "como" de la aplicacion, , A traves del texto, cada concepto 0 metodo se iIustra con ejemplos reales que seexpresan de manera que el lector pueda obtener una cornprension intuitiva del con-cepto. La mayor parte del desarrollo de la inferencia estadistica se fundamenta en elpunto de vista de la teoria del muestreo. Tambien se explora el enfoque bayesiano para dar la perspectiva adecuada. Asimismo, se estudian las suposiciones de los meto-dos estadisticos y se dan respuestas a preguntas del tipo "que pasa si.,;" Ademas, enmuchos ejemplos se emplearon paquetes de programas para computadora y tecnicasde simulacion, con el proposito de iIustrar y reforzar los puntos presentados.EI material que abarca ellibro demuestra ser suficiente para realizar un curso dedos semestres sobre probabilidad y metodos estadisticos. Por otra parte, es posible re-ordenar el material y asi ofrecer variedad de cursos, como un cur so de un semestresobre distribuciones de probabilidad y sus aplicaciones, en el que se empleen los ca-pitulos 1 a 7; un curso de dos trimestres sobre los fundamentos de la probabilidad yde los rnetodos estadisticos, con los capitulos 1 a 10; 0 un curso en analisis de varian-za y metodos de regresion, con los capitulos 9, 12, 13 Y 14. EI alcance de los temasque se tratan es arnplio, extenso y proporcionan al profesorla oportunidad de recal-car ciertos temas u omitir otros. Que el libro pueda ernplearse a nivel licenciatura 0 anivel de graduados, depende tanto de las necesidades particulares como de los cono-cimientos previos de los lectores.Despues de un analisis razonablemente completo sobre la estadistica descrip-tiva (Cap. 1), el libra esta dividido en probabilidad (Caps. 2-7) y metodos esta- 14. disticos (Caps. 8-15). En los capitulos 2 y 3 se presentan los conceptos basicos deprobabilidad, variable aleatoria y distribucion de probabilidad. Los capitulos 4 y 5contienen una exposicion bastante completa de las distribuciones de probabilidaddiscretas y continuas, asi como sus aplicaciones. En estos capitulos se investigan,comparan y contrastan propiedades de distribuciones como la binomial, de Poisson,normal, beta, gama y de Weibull, entre otras, proporcionando areas de aplicacionpara cada una. Dado el creciente papel de las computadoras y las tecnicas de simula-cion, se dedica una seccion del capitulo 5 ala valoracion de varios metodos de gene-racion de valores aleatorios, en cada una de las distribuciones estudiadas. En elcapitulo 6 se exponen las distribuciones de probabilidad conjunta y condicionaI. Eneste contexto, se introducen los conceptos de distribuciones a priori y a posteriori,para el punto de vista bayesiano.El capitulo siete funciona como transicion entre la probabilidad y la inferenciaestadistica. En este se plantean los importantes conceptos de muestra aleatoria y dis-tribucion de muestreo. En el capitulo 8 se presentan los metodos de estimacion,tanto puntual como de intervalo. Tambien se estudian los imites de tolerancia inde-pendientes de la distribucion y aquellos cuyo fundamento es la distribucion normal.En el capitulo 9 se exploran las bases de la inferencia estadistica y se presentanlas pruebas de hipotesis para medias, varianzas y proporciones. El capitulo 10 de-talla el uso de la distribucion chi-cuadrada, tanto para determinar la bondad delajuste, como para tablas de contingencia, mientras que el capitulo Il introduce allector en los conceptos basicos del control de calidad estadistico y a los procedimien-tos para aceptar una muestra. En el capitulo 12 se presentan el diseno de experimentosestadisticos y el analisis de varianza, tanto para experimentosde un solo factorcomo para dos. En los capitulos 13 y 14 se trata, de manera prolija, el analisis deregresion; ademas, se examinan con detalle temas como: errores autocorrelaciona-dos, analisis de residuos, minimos cuadrados con factores de peso, multicolineali-dad y distintas formas para determinar el mejor conjunto de variables de prediccion,Al concluir, el capitulo 15 explora y compara algunos de los procedimientos noparametricos mils utiles,AI final del capitulo 1 y del 13 se encuentra un apendice en que se revisa la no-tacion sumatoria y del algebra matriciaI. Las demostrac.oncs de los teoremas masimportantes se encuentran, para los lectores cuyas inclinaciones son mas hacia lateoria, en los apendices de los capitulos 4, 5 y 7. En el apendice dellibro se encuen-tran once tablas estadisticas. Se intento, hasta donde fue posible, uniformar laestructura de estas; por ejemplo, se encuentran tabulados valores para las distri-buciones binomial, de Poisson, hipergeometrica y normal, adernas de los valo-res cuantiles para las distribuciones chi-cuadrada, t de Student y F. Las tablas paralas distribuciones anteriores, excepto la hipergeometrica, se generaron mediante al-gunas subrutinas del paquete IMSL (l~ternationalMathematical and Statistical Li-braries). La similitud con las tablas estadisticas, ya establecidas, es excelente. Lospaquetes para computadora Minitab y SAS (Statistical Analysis System) se emplea- ,ron con objeto de ilustrar las tecnicasdel analisis de regresion (Caps. 13 y 14). Sesupone que el lector tiene acceso a algunos de estos paquetes 0 a otros similares, ,como el SPSS (Statistical Package for the Social Sciences) y BMDP (BiomedicalPrograms). 15. Prefacio xix Deseo agradecer a todas las personas que por muchos afios, y de una forma y otra, desempenaron un papel directo 0 indirecto para que este libro fuese posible; en particular, al Departamento de Estadistica del Virginia Polytechnic Institute y de laState University, donde aprendi estadistica por primera vez; al NASAs Langley Re- search Center, donde se me dio la oportunidad de continuar mis estudios de estadis- tica, y a la Virginia Commonwealth University, donde generalmente enseiioestadistica. Tambien deseo agradecer la ayuda de John Koutrouvelis, del Departa-mento de Ciencias Matematicas de la Virginia Commonwealth University, pues con sus criticas contribuyo de manera significativa en los capitulos sobre probabilidad.Adernas, extiendo mi gratitud a las siguientes personas, quienes me proporcionaronsugerencias muy utiles durante todas las etapas del desarrollo del manuscrito: ArleneS. Ash, de la Boston University; Bruce K. Blaylock, del Virginia Polytechnic Institutey de la State University; George W. Brown, de la University of California, en Irvine;Donald R. Burleson, del Rivier College; John M. Burt, de la University of NewHampshire; Dean H. Fearn, de la California State University en Hayward; RichardH. Lavoie, del Providence College; Stephen Meeks, de la Boston University; .ChesterPiascik, del Bryant College; Ramona L. Trader, de la University of Maryland, yGeorge D. Weiner, de la Cleveland State University. Extiendo tambien mi aprecio a Carolyn England, K.W. Hall y Jamie Stokes,quienes compartieron la labor de escribir todas las versiones del manuscrito. Gra-cias, de manera especial, al grupo editorial de Little, Brown and Company, yen par-ticular a Elizabeth Schaaf por su valiosa ayuda, Por ultimo deseo agradecer a mifamilia su paciencia, cOrnErensi6n y aliento_dll!ant~el tiempo en que escribi ellibro. George C. Canavos 16. CAPITULO UNOIntroduccion yestadistica descriptiva1.1 Introduccion Para mucha gente, estadistica significa descripciones numericas. Esto puede verifi-carse facilmente al escuchar, un domingo cualquiera, a un comentarista de televisionnarrar un juego de futbol, Sin embargo, en terminos mas precisos, la estadistica es elestudio de los fenomenos aleatorios. En este sentido la ciencia de la estadistica tiene,virtualmente, un alcance ilimitado de aplicaciones en un espectro tan amplio de dis-ciplinas que van desde las ciencias y la ingenieria hasta las leyes y la medicina. El as-pecto mas importante de la estadistica es la obtencion de conclusiones basadas en losdatos experimentales. Este proceso se conoce como inferencia estadistica. Si unaconclusion dada pertenece a un indicador economico importante 0 a una posibleconcentracion peligrosa de cierto contaminante, 0 bien, si se pretende establecer unarelacion entre la incidencia de cancer pulmonar y el fumar, es muy comun que laconclusion este basada en la inferencia estadistica.Para comprender la naturaleza de la inferencia estadistica, es necesario entenderlas nociones de poblacion y muestra. La poblacion es la coleccion de toda la posibleinformacion que caraeteriza aun fenomeno. En estadistica, poblacion es un concep-to mucho mas general del que tiene la acepcion comun de esta palabra. En este senti-do, una poblacion es cualquier coleccion ya sea de un numero finito de mediciones 0una coleccion grande, virtualmente infinita, de datos acerca de algo de interes, Porotro lado, la muestra es un subconjunto representativo seleccionado de una pobla-cion. La palabra representative es laclave de esta idea. Una buena muestra esaquellaque refleja las caraeteristicas esenciales de la poblacion de la cual se obtuvo.En estadistica, el objetivo de las tecnicas de muestreo es asegurar que cada observa-cion en la poblacion,tiene unaoportunidad iguale independiente de ser incluida enla muestra. Tales procesos de muestreo eonducena una.muestra ~eatoria.Lasobservaciones de la muestra aleatoria se usan para.calcular ciertas caraeteristicas de lamuestra denominadas estadisticas, Las.estadisticas se usan como base para hacer in-ferencias acerca de ciertas caracterlsticas de la poblacion..que reciben el nombre de 17. 2 Introduccion y estadfstica descriptiva parametros. Asi, muchas veces se analiza la informacion que contiene una muestraaleatoria con el proposito principal de hacer inferencias sobre la naturaleza de lapoblacion de la cual se obtuvo la muestra. En estadistica la inferencia es inductiva porque se proyecta de 10 especifico (muestra) hacia 10 general (poblacion), En un procedimiento de est a naturaleza siempre existe la posibilidad de error. Nunca podra tenerse el 100070 de seguridad sobre una proposicion que se base en la inferencia estadistica. Sin embargo, 10 que hace que la estadistica sea una ciencia (separandola del arte de adivinar la fortuna) es que, unida a cualquier proposicion, existe una rnedida de la confiabilidad de esta, En estadistica la confiabilidad se mide en terminos de probabilidad. En otras pa- labras, para cada inferencia estadistica se identifica la probabilidad de que la infe- rencia sea correcta. Los problemas estadisticos se caracterizan por los siguientes cuatro elementos:1. La poblacion de interes y el procedimiento cientifico que se empleo para mues- trear la poblacion.2. La muestra y el analisis matematico de su informacion.3. Las inferencias estadisticas que resulten del analisis de la muestra.4. La probabilidad de que las inferencias sean correctas.El enfoque precedente para la inferencia estadistica descansa unicamente enla evidencia muestral. Este es denominado teoria del muestreo 0 enfoque clasico delainferencia estadistica y para la mayor parte de esta, sera el que se tome en este libro.Sin embargo, tambien se tratara de incorporar ocasionalmente otro punta de vistaconocido como inferencia bayesiana. Esta forma de abordar la inferencia estadisticautiliza la combinacion de la evidencia muestral con otra informacion, generalmenteproporcionada por el investigador del problema. Tal informacion descansa de ma-. nera fundamental en la conviccion 0 grado de creencia del investigador con respectoa las incertidumbres del problema, antes de que se encuentre disponible la evidencia muestral. Este grado de creencia puede basarse en consideraciones como los resulta-dos conocidos, que son producto de investigaciones previas. Es importante que ellector comprenda que el objetivo de los procedimientos clasico y bayesiano descansaen la evaluacion de las incertidumbres basadas en la probabilidad.Para comprender la esencia del muestreo aleatorio y de la inferencia estadistica,es necesario entender como primer punto, la naturaleza de una poblacion en el con- texto de la probabilidad y de los modelos probabilisticos. Estos temas se examinanCOD detalle en los capitulos dos a seis.Este capitulo tratara brevemente las estadisticas descriptivas. A pesar de que es-tas son sencillas desde el punto de vista matematico, son valiosas en casos donde..seencuentra disponible la poblacion completa y no existe incertidumbre, 0 wandose tienen a la mana grandes conjuntos de datos que pueden 0 no considerarse comomuestras aleatorias. Si un conjunto grande se considera como muestra aleatoria-de una poblaci6n, la estadistica descriptiva puede ir tan lejos como la distribuci6n gene-ral de valores, al dar una evidencia empirica y otras caracteristicas de la poblacion..Estaevidencia tiene un apreciable valor puesto que afirma ciertas suposiciones quedeben formularse en la aplicacion de la inferencia estadistica, 18. 1.2 Descripcion grdfica de los datos31.2 Descripcion graflca de los datos Una descripcion informativa de cualquier conjunto de datos esta dada por la fre- cuencia de repeticion u arreglo distribucional de las observaciones en el conjunto. Para apreciar 10 necesario de un resumen de datos, considere el ejemplo del Servicio de Hacienda Interno (SHI) que se encarga de recibir y procesar millones de declara- ciones de ingresos durante todo el ano. Es dudoso que el SHI pueda descubrir los patrones ocultos de ingresos e impuestos examinando simplemente la informacion contenida en las declaraciones. Similarmente, el Departamento del Censo no podria avanzar mucho al analizar los datos del censo, si estos no pudiesen visualizarse. Para identificar los patrones en un conjunto de datos es necesario agrupar las observa- ciones en un numero relativamente pequeno de c1ases que no se superpongan entre si,de tal manera que no exista ninguna ambiguedad con respecto a la c1ase a que perte-nece una observacion en particular. EI numero de observaciones en una c1ase recibeel nombre de frecuencia de close, mientras que el cociente de una frecuencia de c1asecon respecto al numero combinado de observaciones en todas las c1ases se conocecomo la frecuencia relativa de esa c1ase. Las fronteras de la c1ase se denominanlimites, y el promedio aritrnetico entre los llrnites superior e inferior recibe el nombrede punto medio de la c1ase. AI graficarse las frecuencia relativas de las c1ases contrasus respectivos intervalos en forma de rectangulos, se produce 10 que comunmentese conoce como histograma defrecuencia relativa 0 distribucion defrecuencla relati-va. Esta ultima es la que puede hacer evidentes los patrones existentes en un conjun-to de datos.Como ilustracion, los datos de la tabla 1.1 representan las frecuencias de unidadesvendidas por ilia de un determinado producto por una compania, EI histograma defrecuencia relativa se construye graficando en el eje verticalla frecuencia relativa yen ef eje horizontal las fronteras inferiores de cada clase, como se i1ustra en la fi-gura 1.1.EI numero de c1ases que se emplea para c1asificar los datos en un conjunto de-pende del total de observaciones en este. Si el numero de observaciones es relativa-mente pequeno, el numero de c1ases a emplear sera cercano a cinco, pero general-TABLA 1.1 Frecuencias para el niunero de unidades vendidas de cierto productoNUmero de unidades Frecuencia devendidas(Close) la close Frecuencia relativa 80-8977/100 = 0.07 90-99 20 20/100 = 0.20100-109 . 55/100 = 0.051l0-1l9II 11/100 = O.ll120-129II ll/IOO = O.ll130-13912 12/100 = 0.12140-149 66/100 = 0.06150-15923 23/100=0.23160-169 55/100 = 0.05 Total1001.00 19. 4 Introduccion y estadistica descriptiva 0.20 i- ItS.:: til"ii ... ItS 0.15 -0cu;:s 0.10-~...~ 0.05 -"" 80 90 100 110120 130140150160 I170Numero de unidades vendidasnGURA 1.1. Histograma de frecuencia relativa para el numero de unidades vendidasmente nunca menor que este valor. Si existe una cantidad sustancial de datos, el nu-mero de clases debe encontrarse entre ocho y doce y generalmente no existiran milsde 15clases. Un numero muy pequeno de clases puede ocultar la distribucion real delconjunto de datos, rnientras que un numero muy grande puede dejar sin observa-ciones a algunas de las clases, limitando de esta forma su uso. Amanera de ilustra-cion, si se reducen las nueve clases a solo tres, en el ejemplo anterior, como se indicaen la tabla 1.2, el histograma de frecuencia relativa resultante (Fig. 2) es muy dife-rente al mostrado en la figura 1.1.Una bucoa practica es la creacion de clases ~u(,. tengan una longitud igual. Estopuede lograrse tomando la diferencia entre los dos valores extremos del conjunto dedatos y dividiendola entre el numero de clases; el resultado sera aproximadamente lalongitud del intervalo para cada clase. Sin embargo, existen casos donde esta regiano puede 0 no debe aplicarse. Por ejemplo, si se tuviera a la mana la lista de impues-tos de SHI pagados por la poblacion en un ano, estas cantidades pueden encontrarseTABLA 1.1, Frecuencia para el numero Cle unidades vendidas de cierto productoNUmero de IIIIidades Frecuencia de vendidos (Close) 10 closePrecuencia relativaJ."80-IC)l)3232/Joo = 0.32 110-1393434/100,= 0.34 140-i693434/100 = 0.34Total 1001.00 20. 1.2 Descripcion grafica de los datos 5" .:: 0.3 ~f- "E " TJ e0.2 l-I):::lu 0.1- J 80 110140170 Numero de unidades vendidasFIGURA 1.2 Histograma modificado para el numero de unidades vendidasen un intervalo de $0 a $1 000 000. Aun a pesar de que se eligiesen 20 clases para ladistribucion de frecuencia relativa, con intervalos de igual longitud, cada clasetendria una cobertura de $50 000. Lo anterior daria origen a una situacion en la quecasi todas las observaciones caerian en la primera clase. Para casos como este es pre-ferible seleccionar una escala mas pequena en el extremo inicial que la utilizada parael extrema superior. Esta eleccion aclarara el patron de la distribucion.Los siguientes ejemplos ilustran estos conceptos.Ejemplo 1.1 De acuerdo con la revista Informes af Consumidor en su numero defebrero de 1980, las cuotas anuales de 40 companias para un seguro de $25 000 parahombre de 35 ail.os de edad son las siguientes:$ 82 8586 878789 89 90 919192 9394 9595 9595 95 979899 99100100 101 101 103 103 103104 105 105 106107 107 107 109110110IIIEstablecer un esquema de agruparniento para este conjunto de datos y determinarlas frecuencias relativas. Dado que la diferencia entre los dos valores extremos del conjunto es de solo$29, puede ser razonable agrupar los datos en clases con intervalos de igual longitud,Sup6ngase que se decide utilizar seis clases; entonces el intervalo de cada claseseraaproximadamente de $5. Para establecer las fronteras de cada clase, es necesarioconsiderar la unidad mas cercana con respecto a la cual se miden las observaciones.En este ejemplo las cuotas se presentan redondeadas al dolar mas cercano.Con todaseguridad el importe de las cuotas es conocido hasta centavos, pero solo se presentan1 " .~ 1__ ....1 ....1....1,.D __:_ _1_ 1 AC1O.., 1"1 : P_P + ,.."".--." 1ft ftlllAI1:a 21. entre $81.50 y $82.49, las seis clases con sus respectivas fronteras son (81.5-86.5),(86.5-91.5), (91.5-95.5), (96.5-101.5), (101.5-106.5) y (106.5-111.5).Estas fronteras tarnbien se conocen como los limites verdaderos debido a quereflejan la unidad mas pequena que se emplea para tomar las observaciones. Dado que las cuotas se presentan redondeadas al dolar mils cercano, se puede tambien elegir los limites de las seis clases como (82-86), (87-91), (92-96), (97-101), (102-106) y (107-111). Estos se conocen como los limites de escritura puesto que reflejan el mismo grado de precision que el de las observaciones presentadas. El intervalo de la clase es la diferencia entre los limites verdaderos de cada clase, mientras que los pun- tos medios pueden determinarse al utilizar los limites verdaderos 0 los de escritura. En la tabla 1.3 se da un resumen de la informacion pertinente para el agrupamiento de este ejemplo.De acuerdo con 10 mencionado al principio de esta seceion, la distribucion de fre- cuencia relativa se determina graficando las frecuencias relativas en el eje vertical contra los limites de escritura inferiores para cada una de las clases en el eje horizon- tal. Para este fin se emplean rectangulos de igual anchura que representen las fre- cuencias relativas. En la figura 1.3 se muestra el histograma del ejemplo 1.1. Notese que es mils facil graficar las frecuencias de cada clase que las correspondientes fre- cuencias relativas; en ambos casos las graficas seran identicas. Si existe alguna prefe- rencia para usar las frecuencias relativas, se debe a que la escala vertical tiene un in- tervalo fijo de cero a uno.El principal objetivo de la representacion grafica de las frecuencias relativas esmostrar el perfil de distribucion de los datos. EI conocimiento de este perfil es util en.varias formas, como sugerian los analisis apropiados que se intentaran mediante lainferencia estadistica, 0 si los datos constituyen una muestra aleatoria de algunapoblacion 0 si se utilizan con el fin de comparar los perfiles de distribucion de dos 0mils conjuntos de datos. En el ejernplo 1.1. es notorio que la distribucion de cuotasanuales en las 40 companias es uniforme a traves de todo el intervalo de valores. Otra caracterizaci6n grafica util, de un conjunto de datos, es la distribucion defrecuencia relativa acumulada u ojiva. La distribucion acumulativa se obtiene grafi-cando, en el eje vertical, la frecuencia relativa acumulativa de una clase contra elTABLA 1.3 Agrupamiento y frecuencias relativas para el ejcmplo 1.1Umites de escritura PuntoFrecuencia de 10 close Frecuencia relativa de 10 closemedio /; /;In82-86 84 33/40 = 0.07587-91 89 77/40 = 0.17592-96 94 88/40 = 0.200 97-101 99 88/40 = 0.200102-10610477/40 = 0.175107-111109 77/40 = 0.175Total. . ,401.000:;.~111-6" --f ~" ~;,..~ j, "~:_,.. . .1 LJ< ";-1 - 22. 0.20 I-.~"t;l 0.15 l-V ...l::Ti" 0.10 -v~ 0.05 - 828792 97 102 107 112Cuotas anualesFlGURA 1.3 Distribucion de frecuencia re1ativa para los datos del ejemplo 1.1 limite inferior de la siguiente sobre el eje horizontal y uniendo con segmentos todoslos puntos consecutivos. La tabla 1.4 lista las frecuencias relativas acumuladas parael ejemplo 1,1. Dado que la frecuencia relativa de una clase refleja la proporcion de las observa-ciones contenidas en esta, la frecuencia relativa acumulativa es la proporcion de ob-servaciones cuyos valores son menores 0 iguales allirnite superior de la clase 0, enforma equivalente, menores que ellirnite inferior de la siguiente clase. En el ejemplo 1.1 y para la tabla 1.4, la proporcion de cuotas menores de $82 es cero. La de cuotasmenores de $87 es de 0.075, la proporcion de menores de $92 es de 0.250. La distri-bucion de frecuencia relativa acumulativa para el ejemplo 1.1 se muestra en la figu-ra 1.4,En este contexto el principal uso de la distribucion acumuiativa es 10que comim-mente se conoce como cuantiles. Con l. especto a una distribucion de frecuencia rela-tiva acumulativa, se define un cuantil como el valor bajo el cual se encuentra una de-terrninada proporcion de los valores de la distribucion, EI valor del cuantil se lee enTABLA 1.4 Distribucion de la frecuencia relativa acumulativaLimites de escritura de FrecuenciaFrecuencia Frecuencia relativa la closede close acumulativa acumulativa 82-86333/40 = 0.075 87-917 10 10/40 = 0.250I 92-968 18 18/40 = 0.450 97-101 8 26 26/40 = 0.650102-106 7 33 33/40 = 0.825107-111 7 40 40/40 = 1.000 23. 1.0 Una medidade tendencia central proporciona informacion acerca de un coniun-0 0datosPerc>no proporcionaninguna idea de lavariabilidad de las observacionesto de c",:.. :_.t. . .. :.,_, ,--",,i._, ,.. ,.. , 30. 1.3 Medidas descriptivas numericas 15en dicho conjunto, Por ejemplo, considere los dos siguientes conjuntos de datos,cada uno de los cuales consiste de cuatro observaciones: 0, 25, 75, 100; 48, 49, 51,52. En ambos casos, media = mediana = 50. Estos dos conjuntos son muy diferen-tes entre si, sin embargo las observaciones en el primero se encuentran mucho milsdispersas que las del segundo. Una de las medidas mils utiles de dispersion 0 va-riacion es la varianza.Defmicion 1.4 La varianza de las observaciones XI XZ, ", x, es, en esencia, el pro-medio del cuadrado de las distancias entre cada observacion y la media del conjuntode observaciones. La varianza se denota porn(1.4) ;=1La varianza es una medida razonablemente buena de la variabilidad debido a quesi muchas de las diferencias son grandes (0 pequenas) entonces el valor de la varian-za S2 sera grande (0 pequeno). EI valor de la varianza puede sufrir un cambio muydesproporcionado, aun mils que la media, por la existencia de algunos valores extre-mos en el conjunto.Definicion 1.5 La raiz cuadrada positiva de la varianza recibe el nombre de des-viacion estdndar y se denota porns = L(X; - x)2/(n - 1). (1.5);= ILa varianza y la desviacion estandar no son medidas de variabilidad distintas,debido a que la Ultima no puede determinarse a menos que se conozca la primera.A menudo se prefiere la desviacion estandar en relacion con la varianza, porque seexpresa en las mismas unidades fisicas de las observaciones.Cuando se ca1cula el valor de la varianza, ya sea a mana 0 mediante el usa de unacslculadora de baia capacidad, y el valor de la media 0 los valores de las observa-ciones no son numeros enteros, el uso de la ecuacion (1.4) puede dar origen a erroresgrandes por redondeo. Con un poco de algebra se obtiene, a partir de (1.4), una formu-la computacional mils exacta para esas condiciones;" nS2 = L(x; - x)2/(n - 1);-1 =~-------n- 1 Para un repaso de la notaci6n de suma vease d apendice de este capitulo. 31. 16 lntroduccion y estadfstica descriptiva 2: x~ - 2X 2: Xi + 1iX2 n-In- x~- (ii=1 X.)2i=1 n(1.6) n-IN6tese que para el numerador de la ecuacion (1.4) primero debe calcularse la media,restarla de cada observaci6n, tomar el cuadrado y entonces sumar. Para el numera-dor de (1.6) se suman todos los cuadrados de los valores observados, y entonces se res-ta el cuadrado de su suma dividido por el numero de observaciones. Con base en laecuaci6n (1.6), la desviaci6n estandar esta dada por s =x~ ( X1=1-,=1i ) 2 /n(1.7)n-IA eontinuacion se ilustran los pasos que se deben seguir para el calculo de la va-rianza y la desviaci6n estaadar, para los datos no agrupados de los ejemplos 1.1 y1 2. Para el ejemplo 1.1,40 2: x, = 82 + 85 + ... + 1II= 3 916 i~I 40. 2: x~ = 822 + 852 + ... + 111 2 = 385 756.i=JSe usa Ia ecuaci6n (1.6),-,-, 385 756 _ (3 916)2 2 40 - " s = ~-40---I---" = 61.0154.De la ecuaci6n (1.7) se sigue que la desviaci6n estandar ess = 161.0154=$7.81. 32. 1.3 Medidas descriptivas numericas 17Para el ejemplo 1.2 se tiene 50 2: Xi = 5 952 + 63 855 + ... + 241= 490 567, i~ I 502: X; =5 9522 + 63 855 2 + ... + 24 f 10000 514273,i=1y 105865 196.8.La desviacion estandar es s = $10289.08. Para datos agrupados, puede calcularse el valor aproximado de la varianza me-diante el uso de la formulak2: h (Xi - X)2S2= ,:-=....:...1_(1.8) n - Iok )2 k ( ~hXi 2:hX;n ---- S2 =:.-.=...:...------ (1.9)n - 1La formula para la desviacion estandar es k s = 2: Lt, - xf/(n - l). (1.10)Para las tres formulas anteriores h Y Xi son, respectivamente, la frecuencia y elpunto medio de la i-esima clase, Yn esla suma de todas las frecuencias. Debe notarseque, en datos agrupados, la aproximacicn a la varianza puede no ser muy coafiable,espeeialmente si las observaciones no se encuentran distribuidas de manera uniformedentro de sus respeetivas clases ...E c8lculo de los valores aproximadosde Ia varianzay la desviaci6n estandar, paralosdatos agrupados del ejemplo .l..l,~~ eneuentra de-tallado en la tabla 1.9; :ot, (, I;"dr": t ipr) ,< ,Ii c.Otra medida uti! de la variabilidad tiene base en el valor.absolute de las,diferen-cias entre las.observaciones x I X2,oAX,/i- la media ola mediana.idependiendode cualde las dos se emplee como medida de tendencia central. 33. 18 Introduccion y estadistica descriptivaTABLA 1.9 Calculo de los valores aproximados de la varianza y la desviaci6n estandar parael ejernplo 1.1 6Punto medio Frecuencia de de /a close /a close2JjXj= 3 910 (de la tabla) 1.8) x, /;x2I i= I 84 3 7056 21 168 89 7 7921 55447 94 8 8836 706886 99 8 9801 78408 75712 2: fx~ = 384 590104 710 816i= I109 7II 88183 1672 384 590 - 382 202.5 Total 40II 881384590 s=40-1= 61.2179s = y61.2179 = $7.82Definicion 1.6 La desviacion media es el promedio de los valores absolutos de lasdiferencias entre cada observacion y la media de las observaciones. La desviacionmedia esta dada porn Llx; - xl ;=1D.M.(1.11)n Para datos agrupados, el valor de la desviacion media se aproxima por L/;Ix; - xlD.M. = :....;=...:..I--;-k--( 1.12) L/;Los terminos empleados en estas expresiones son los mismos definidos anterior-mente.La desviacion media es una medida interesante de la variacion, especialmente en elcontexto de la evidencia empirica, debido a que en muchas ocasiones el interes secentra en las desviaciones y no en los signos de estas. Sin embargo, desde un punto devista te6rico, el empleo de la desviaci6n media como medida de dispersion estaendesventaja dado que, matematicamente, es dificil de obtener. De cualquier manera,la desviaci6n media es menos sensible a los efectos inducidos porlas observaeionesextremas del conjunto de datos que la varianza 0 Ia: desviaci6n estandar, Sin ilnpor~tarla presencia de pocos valores extremes, la desviacien media puede ipropcrcio-naruna medida de dispersion mucho mas real que la obtenida por la desviacion es-tandar,0" 34. 1.3 Medidas descriptivas numericas 19 Para los datos no agrupados del ejemplo 1.1, la desviacion media se calcula apartir de 40 L Ix; - xl =182 - 97.91 + 185 - 97.91 + ... + /111 - 97.91= 264.2 ;= Ipara ser D.M. = 264.2/40= $6.61.De manera similar para el ejemplo 1.2, la desviacion media se calcula a partir de 50L Ix; - xl= 15952 - 9811.341 + 163 855 - 9811.341 + .., + 1241 - 9811.341;=1= 278051.48para serD.M. = 278051.48/50 = $5561.03. Los pasos computacionales para una aproximacion de la desviacion media a losdatos agrupados del ejemplo 1.1, se ilustran en la tabla I. 10.Definicion 1.7 La desviacion mediana es el promedio de los valores absolutos delas diferencias entre cada observacion y la mediana de estas. La desviacion medianaesta dada porn L: Ix; - D.Mdl;=1D.Md.(I.l3) nen donde Md denota a la mediana. Cuando la mediana se emplea como medida de tendencia central con el propositode atenuar los efectos de la existencia de algunos valores extremos en el conjunto,TABLA 1.10 Calculo aproximado de la desviacion de la mediana para el ejemplo 1.1Punta media Frecuencia de de la clase la clase. Xi/;Ix; -xl843 I 84 -97.751 41.256. 89 7I 89 -97.751.61.25 I Lflx;- XI = 26594 8I 94~ 97.751 30.00 ;=199 .8 , 99- 97.751 10.00 D.M. ~265/~O.; :104 7 ~ i" . 1104 - 97.751 43.75 109: .71109:;-97;751 78.75 d:$6.63 ,.I Total40, 265.00 35. JAJ uuroauccion y estaatsuca aescnpuvadebe preferirse a la desviacion de la mediana como medida de dispersion por la mismarazon. Cuando los datos se agrupan, se obtiene el valor aproximado de la desviacionde la mediana al emplear la ecuacion (l.12) y sustituir la mediana por la media. Lasdesviaciones de las medianas para las observaciones de los ejemplos 1.1 y 1.2 calcu-ladas con el mismo procedimiento que para las desviaciones de las medias, son 6.6 y5 060.60 respectivamente. De manera similar el valor aproximado de la desviacionde la mediana para los datos agrupados del ejemplo 1.1 tiene un valor de 6.575.El intervalo en el que se encuentran las observaciones en un conjunto de datos, esotra medida de variabilidad.Definicion 1.8 El recorrido R de las observaciones en un conjunto de datos es la di-ferencia entre el valor mas grande y el mas pequeno del conjunto.Por su simplicidad, el recorrido proporciona una rapida indicacion de la variabi-lidad existente entre las observaciones de un conjunto de datos. Sin embargo, comomedida de dispersion debe usarse con precaucion ya que su valor es una funcion,unicamente, de dos valores extremos pertenecientes al conjunto. Como regla generalse debe evitar el uso del recorrido como medida de variabilidad, cuando el numerode observaciones en un conjunto es grande 0 cuando este contenga algunas observa-clones cuyo valor sea relativamente grande. Este punta puede ilustrarse consideran-do los reeorridos de los ejemplos 1.1 y 1.2, que son R I = III - 82 = $29, y R 2 =63855 - 30 = $63825, respectivamente. Para el ejemplo 1.1, R) parece ser unamedida realista de la variabilidad, debido principalmente a que el conjunto no con-tiene ninguna cuota que se salga de la linea relativa a las otras. Sin embargo, para elejemplo 1.2, R 2 no es una medida realista de la variabilidad, dado que los valores de$30 y $63 855 son, aparentemente, valores extremos con respecto a los ingresos ne-tos por cosecha de gran parte de los otros estados. Para muchos problemas tiene unamayor utilidad determinar el recorrido entre dos valores cuantiles que entre dos va-lores extremos.Definidoa 1.9 La diferencia entre los percentiles 75avo y 25avo recibe er nombre!. de recorrido intercuantil.e"Ddlnidoa 1.10 La diferencia entre los percentiles 9Oavo y decimo recibe el nombrede recorrido interdecil.EI reeorrido intercuantil refleja la variabilidad de las observaciones comprendi-das entre los percentiles 25 y 75 en el conjunto de datos, y el recorrido interdecil indi-ca la dispersion de las observaciones con valores entre los percentiles 90 y 10. EI re-sultado es que ni el rango intercuantil ni el J~terdecil son afectados por la presencia i~ ;de obseivacionesrelativamente grandes.;."".iIParadatosagrupados sepu.eden apro~8r losrecorridos intercuantil e interde-atilf;artirde Ia distribucl6ri :~e frecuencia rel~tiva acumulada. Para ilustrar,empteaDdola figura 1.1, los,~81ores aproximados de.Ios ranges intercuantil e inter-11! decil para el ejemplo 1.1 son Qo,7S - qO.2S = 104.50- 92 = $12.50, y qO.9 - qo.t =109.5.- 87.S = S22,respecti,:arneQte. Para unconjunto de datos no agrupados 36. J.J Meataas aescnpuvas numertcas 21 que contenga n observaciones, los percentiles 75avo y 25avo son los valores de las observaciones cuyos numeros de posicion en la secuencia ordenada de observa- ciones, corresponden a 0.75n + 0.5 y 0.25n + 0.5, respectivamente. De manera si- milar, los percentiles 90 y decimo corresponden a los valores de las observaciones cu- yos numeros de posicion, con respecto a la secuencia ordenada, son 0.9n + 0.5 Y O.ln + 0.5 respectivamente. Para los datos del ejemplo 1.2, los percentiles 25 y 75 son los valores de las observaciones 13 y 38 correspondientes a la secuencia ordenada de las observaciones, respectivamente. De esta manera, qU.~5 = $4 973. q075 = $10 207.siendo el recorrido intercuantil de $5234. Dado que para n = 500.1n + 0.5 =5.5, el decimo percentil es el promedio de los valores 5 y 6, de las observaciones ordenadas, 0 Qo.1 = 2840.5. Similarmente el percentil 9Oavo es el promedio de las observaciones 45 y 46 correspondientes ala secuencia ordenada, 0 QU9 = 16 376.5. Por 10 tanto, el recorrido interdecil para los datos del ejemplo 1.1 es de $13 536. A 10 largo de todo el capitulo se han empleado los ejemplos 1.1 y 1.2 para ilustrar varios conceptos. Es irnportante notar que presentan situaciones contrastantes. El primero presenta un conjunto de datos en el que las observaciones se encuentran distribuidas de manera uniforme a 10 largo del recorrido completo de valores, sin ninguna observacion relativamente grande. El ultimo ejemplifica una situacion en laque existe un agregado rnuy denso de observaciones y algunos valores relativamentegrandes, especialrnente en el extrerno superior. La diferencia innata entre estos dosejemplos, puede discernirse a traves de una comparacion de las rnedidas descriptivasnumericas que se han calculado para cada uno de ellos y que aparecen en la ta-bla 1.11. Notese que en el ejernplo 1.1 los valores de las medidas de tendencia central seencuentran muy cercanos entre si, mientras que para el ejernplo 1.2 se encuentran se-paradas entre si de manera considerable. Se puede decir 10 misrno de las desviacionesestimdar, media y rnediana para los dos ejemplos. En el ejernplo prirnero los valores delas desviaciones de la media y de la mediana se encuentran muy proximos al valorde la desviacion estandar, rnientras que en el ejemplo 1.2 tienen un valor casi similara la rnitad de la desviacion estandar. Ademas, en el ejernplo 1.1 el recorrido interde-cil constituye una proporcion relativamente grande del recorrido (22/29 = 0.76),TABLA 1.11 Resumen de las medidas numericas descriptivas para los ejemplos 1.1 y 1.2Medida Ejemplo 1.1 Ejemplo 1.2 numericaDatos no agrupadosDatos agrupadosDatos no agrupadosMedia97.90 97.75 9811.34Mediana98.50 98.25 7642.00Moda 95.00 96.50Varianza 61.0154 61.2179105865 196.80Desviaci6n estandar 7.817.82 10289.08DesviaciOn media6.616.63 5561.03Desviacion mediana6.606.5755060.60Recorrido29.0063825.00Recorrido intercuantil 12.50 5234.00Recorrido interdecil 22.0013536.00 37. 22 Introduccion y estadistica descriptivay en el ejemplo 1.2 est a medida es una porcion relativamente pequena de este Ultimo(13 536/63 825 = 0.21).Estas comparaciones aclaran 10 que las medidas numericas y las distribuciones defrecuencia pueden hacer para descubrir la naturaleza inherente de un conjuntode datos. Sin embargo, el usuario debe tener cuidado tanto en la eleccion como en la in-terpretacion de estas medidas. A pesar de que la media y la desviacion estandar se hanempleado de manera extensa como medidas de tendencia central y dispersion respec-tivamente, aunque tienen propiedades teoricas muy atractivas existen problemas- como el ejemplo 1.2 - para los cuales no pueden ser las medidas mas deseables. Engeneral, y por ende, las medidas mas deseables para conjuntos de datos relacionadoscon mediciones fisicas como lecturas de instrumentos, especificaciones de partes, pe-sos, etc., son la medida y la desviacion estandar 0 la desviacion de la mediana. Paraconjuntos de datos relacionados con ingresos y otras informaciones de tipo econo-mico y fmanciero, las mejores elecciones para las medidas de tendencia central y dis-persion son la mediana y la desviacion de la mediana respectivamente.Como nota final, las agencias del gobierno y muchos servicios de informacionproporcionan informacion en tablas de frecuencia que no solo contienen clases deamplitud diferente sino tambien clases abiertas como "ingreso anual de $500 000o mas" con el prop6sito de tener mayor cobertura de los datos. Estas clases se presen-tan en los extremos del conjunto y no se especifican las clases terminales. Como re-sultado, el punto medio de las clases abiertas no se encuentra definido y no puedencalcularse valores aproximados para algunas medidas numericas como la media, va-rianza, desviacion estandar y desviacion media, a menos que se encuentren dispo-nibles algunas observaciones individuales contenidas en la clase 0 que sea conocidosu promedio artimetico.Referencia1. N.L. Johnson y F.e. Leone, Statistics and experimental design, Vol. I, segunda edicion, Wi~Y. New York. 1977.Ejercicios 1.1. Los siguientes datos son los lapses, en minutes, necesarios para que 50 clientes de unbanco comercial, lleven a cabo una transaccion bancaria: 2.3 0.2 2.9 0.4 2.8 2.4 4.4 5.8 2.8 3.3 3.3 9.72.5 5.6 9.5 1.8 4.7 "-0.7 6.2 1.2 7.8 0.8 0.9 0.4 1.3 3.t ..3.7 7.2 1.61.9(1" f.., ; 2.4 . 4.6 3.82.71.5.. 0.4 1.3 1.1 5.53.4 4.2 1.2 0.5 6.85.26.37.6 1,4 0.5 1.4 38. Ejercicios 23 0) Construir una distribuci6n de frecuencia relativa. b) Construir una distribucion de frecuencia relativa acumulada. c) Con los resultados de la parte b. determine los recorridos intercuantil e interdecil. d) Con los datos agrupados, calcule la media, mediana, moda, desviaci6n estandar,desviaci6n media y desviacion mediana. e) Verificar los resultados de la parte d calculando las mismas medidas para los datos noagrupados.1.2. La demanda diaria, en unidades de un producto, durante 30 dias de trabajo es: 38 35 76 5848 59 67 63336953 51 28 25 36 3261 57 49 78 48 4272 52 47 66 58 4444 56 0) Construir las distribuciones de frecuencia relativa y de frecuencia acumulada. b) Con la distribuci6n acumulada, determine los tres cuantiles. c) Calcular la media, mediana, moda, desviaci6n estandar, desviaci6n media y des-viaci6n mediana, empleando tanto los datos agrupados como los no agrupados, ycompare los dos conjuntos de resultados. d) Comentar la naturaleza de esta distribuci6n de frecuencia, cuando se compara con ladel ejercicio 1.1.1.3. Aqui se presentan tres conjuntos de datos: I, 2, 3, 4, 5, 6; I, I, 1,6,6,6; - 13, 2, 3, 4, 5,20. Calcular la media y la varianza para cada conjunto de datos. ;,Que se puede concluir?1.4. La siguiente tabla muestra las ventas, en miles de dolares, de ::> vendedores de una compania de computadoras. 40.229.335.6 88.2 42.9 26.928.799.8 35.6 37.8 44.232.355.2 50.6 25.4 31.736.845.2 25.1 39.7 0) Calcular la media, mediana, desviaci6n estandar, desviaci6n mediana, recorrido in-tercuantil y recorrido interdecil. b) ;,Que medidas de tendencia central y dispersi6nse elegman y por que!1.5. Con los datos del ejercicio 1.2, sea x, ,1a demanda del i-esimo dia para i = I, 2 ... 30. Transformar los datos por medio de la relaci6n I. ,., X; - 51.51;;="14.17 .. 39. ~ JnlrOOUCC-IOn y eslOOISlICO aescripuva0) Construir una distribucion de frecuencia relativa para los datos transformados. l.Ha ocurrido algun cambio en la naturaleza de la distribucion de frecuencia cuando esta se compara con la del ejercicio 1.2?b) Con los datos transformados IIi. calcular la media y la desviacion estandar; mostrar que son iguales a cero y uno respectivamente. 1.6. Los siguientes datos agrupados representan los pagos por almacenamiento para los 50 masgrandes detallistas durante el ano 1979:Limites de estructura de fa close Frecuencia1.10-1.86 41.87-2.63142.64-3.40II3.41-4.17 94.18-4.94 74.95-5.71 I5.72-6.48 26.49-7.25 2 0) Graficar la distribucion de frecuencia relativa acumulada. b) Con los resultados de la parte a), determinar los recorridos intercuantil e interdecil. c) Calcular la media, mediana y moda. d) Calcular la varianza, desviaci6n estandar, desviaci6n media y desviaci6n mediana. 1.7. La siguiente informacion agrupada representa el numero de puntos anotados por equipoy por juego en la Liga Nacional de Futbol durante la temporada de 1973:GrupoFrecuencia 0-3 27 4-106611-179118-247025-315732-383439-451646-52 3 0) Graficar la distribucion de frecuencia relativa. b) Calcular la media y la moda, c) Calcular la varianza, desviacion estandar y desviacion media. 1.8. Se seleccionaron de un proceso de fabricaci6n, aleatoriamente, 20 baterias y se llevo acabo una prueba para determinar la duracion de estas, Los siguientes datos representanel tiempo de duracion, en horas, para las 20 baterias: 52.5 62.7 ,58.965.7 49.3 -, 58.9.57.360.459.6 58.1 -, 62.3 64.452.754.9 48.8,,~,i.J ",.:.,,~~I ,. 56.8 53.158.761.6 63.3(i . a) Determinar Ia media y la mediana.II~, b) Determinar la desviaci6n estandar, desviaci6n media y desviaci6n mediana. c) Determinar los recorridos intercuantil e interdecil. 40. Apendice 25APENDICESumatorias y otras notaciones simbolicasEI uso de la notacion simbolica es esencial en estadistica. Por ejernplo, para distin-guir entre los valores de n observaciones se emplea la notacion simbolica x I, X2 ... ,X n Uno de los simbolos mas utiles es la letra griega I (sigma) con que se denota lasuma de terminos en una secuencia. De esta manera la suma de Xl X 2 , X n se desig-na por "2: Xi == XI +X2 + ... + X".i= Iy se lee "Ia suma de las Xi con i variando desde 1 hasta n". La letra i recibe elnombre de indice de suma y toma valores enteros sucesivos hasta e incluyendo an,que es ellirnite superior 0 el valor mas grande de i, Los siguientes son ejemplos deluso de Ina) 2: X; == xi + x~ + ... + x~; i=1n b)L (Xi -a) ==(XI -a)+ (X2 - a) + ... +(r, - a); i=Jnc) L (Xi -a)2 == (XI - af+ (X2 - ai + ... + (r, - a)2; i= Ind) L x.y,==XIYI+ X2Y2 + " + XnYn i=1Las siguientes tres propiedades son importantes cuando se emplea el simbolo ~, Propiedad 1. Si c es cualquier constante, entoncesn nL CXi ==C LXii= Ii=l Propiedad 2. Si c es cualquier constante, entoncesn LC== nco i= IPropiedad 3.nn n L(Xi+ Yi) == LXi + L Yii= Ii=1 i=1 41. 26 Introduccion y estadistica descriptivaLas propiedades anteriores pueden verificarse de la siguiente manera:" I) L ex, = ex,+ eX2 + ... + ex"i=1 " =C LXii= I" 2) L c = c + c + ".. l +c J1=1:r n terminos= (1 + 1 + ... +l)c, LVJ n terminos= ncon 3) L(x;+ Y;) =(x + YI) +(X2 + yz) + ... + (x, + Y,,);= = (XI + X2+ ... + x,,) +(YI + Y2 + ... + Y,,) "" = LX; +Ly; ;=1;=1El simbolo 2 tambien se emplea para denotar la suma sobre dos caracteristicasdiferentes. Por ejemplo, supongase que se tiene la funcion pix, y) de las variables x yy, las que toman imicamente valores enteros. ~n particular x toma los valores ente-ros de 0 y 1, y y valores 1, 2 y 3. Entonces la surna de pix, y) sobre todos los valo-res tanto de x como de y se denota porI 3 2: 2: p(x,y) =p(O, 1) +p(O, 2) + p(O, 3) + p(1, 1) + p(l, 2)+ p(l, 3)... =0,-1N6tese que primero se elige el indice de suma de x igual a cero y entonces se evalua lasuma intema para cada uno de los valores del indice de suma de y. Posteriormente seincrementa el indice de suma de x,en uno y se repite el proceso. El procedimiento an- -terior tambien se aplica a todas aquellas situaciones en las que se emplean subscritosdobles para distinguir entre dos caracteristicas. Por ejemplo, considere la sumade lasecuencia X;j, i = I, 2 ... n, j = I, 2 .. m para todos los valores posibles de ; y de l-Tal suma puede denotarse por If In2: LX;;.i= I j= I 42. Apendice 27En particular, si n =2y m = 3, entonces,2: 2: xii =i= Ij= IXII + Xl2 + Xu + X21 + X22 + X 2,- OtTO simbolo ultil es la letra griega Il (pi). Esta letra se emplea para indicae elproducto de los terminos de una secuencia. Por ejemplo, dada la secuencia de obser-vaciones X I X 2. __ . X", el producto de X IX 2. _ XII se denota porni=1Xi = X IX2 ... X".en donde la letra i tiene el mismo proposito que en la suma.-J J:r, -1 - . 43. CAPITULO DOSConceptos en probabilidad2.1 IntroduccionLa probabilidad es un mecanismo por medio del cual pueden estudiarse sucesos alea-torios, cuando estes se comparan con los fenomenos deterministicos. Por ejemplo,nadie espera predecir con certidumbre el resultado de un experimento tan simplecomo el lanzamiento de una moneda. Sin embargo, cualquier estudiante de primerano de licenciatura en fisica debe ser capaz de calcular el tiempo que transcurrirapara que un objeto, que se deja caer desde una altura conocida, llegue al suelo.La probabilidad tiene un papel crucial en la aplicacion de la inferencia estadisticaporque una decision, cuyo fundamento se encuentra en la informacion contenida enuna muestra aleatoria, puede estar equivocada. Sin una adecuada comprension de lasleyes basicas de la probabilidad, es dificil utilizar la metodologia estadistica de ma-nera efectiva,Para ilustrar el uso de la probabilidad en la toma de decisiones, considerese el si-guiente ejemplo: una compania produce un detergente liquido que se envasa en bo--tellas de SOO ml, las que son llenadas por una maquina, Debido a que las botellas quecontienen uua cantidad mayor de SOO ml representan una perdida para la companiay todas aquellas que contienen una cantidad menor constituyen una perdida para elconsumidor (10 que puede desencadenar una accion legal en contra de la compania),la compaftia realiza todos los esfuerzos necesarios para mantener el volumen netopromedio en un nivel de SOO ml. Para mantener un control apropiado se ideo el si-guiente esquema de muestreo: se seleccionaran 10 botellas del proceso de llenado,cuatro veces durante el transcurso del dia y se determinara su contenido neto prome-dio. Si este se encuentra entre 498 y S02 ml, inclusive, el proceso se considerara"bajo control"; de otra manera, este se encontrara "fuera de control". En este casose detendra d llenado, llevando a cabo todoslos esfuerzos necesarios para determi-nar la causa, si es que esta existe, del problema. Con toda seguridad y para cual-! quiera de las dos situaciones se tienen riesgos. Si el proceso se considera bajocontrol, podrla encontrarse fuera de este, y la compaftia puede estar perdiendo elfi-Jproducto 0 sujetlmdose a una aecion legal por parte de las correspondientes oficinasdel gobierno, Por otro lado si el proceso se considera fuera de control, puede en rea-lidad encontrarse bajo control y la compafUa estara intentando localizar una falla 44. 2.2 La definicion clasica de 10 probabiiidad 29inexistente. La evaluacion de estos riesgos solo puede hacerse de manera efectiva atraves del uso de la probabilidad.En las tres secciones siguientes se exarninaran las interpretaciones clasica, de fre-cuencia relativa y subjetiva, de la probabilidad. Las dos primeras son muy similaresdebido a que se basan en la repeticion de experimentos realizados bajo las mismascondiciones, como ellanzamiento de una moneda. La interpretacion subjetiva 0 per-sonal de la probabilidad representa una medida del grado de creencia con respecto auna proposicion, como podria ser si la creaci6n de una nueva empresa tendra exito.En la seccion 2.5 se establecen algunos axiomas y, con base en estos, se define for-malmente la probabilidad. EI desarrollo axiomatico incluye las tres interpretacionesde la probabilidad.2.2 La definicion clasica de probabilidad EI desarrollo inicial de la probabilidad se asocia con los juegos de azar. Por ejemplo, considerense dos dados que se distingan y que no estan cargados; el interes recae enlos numeros que aparecen cuando se tiran los dados. En la tabla 2.2 se dan los 36 po- sibles pares de numeros. Una caraeteristica clave de este ejemplo, asl como tam bien de muchos otros rela-cionados con los juegos de azar, es que los 36 resultados son mutuamente excluyen-tes debido a que no puede aparecer mas de un par en forma simultanea. Los 36 resul-tados son igualmente probabies puesto que sus frecuencias son practicamente lasrnismas, si se supone que los dados no estan cargados y que el experimento se lleva acabo un numero suficientemente grande de veces. Notese que de los 36 resultadosposibles, seis dan una suma de siete, cinco dan una suma de ocho, etc. Por lo tanto,puede pensarse de manera intuitiva que la probabilidad de obtener un par de nume-ros cuya suma sea siete es la proporcion de resultados que suman siete con respeetoal numero total, en este caso 6/3(j. Es importante que el lector comprenda que laproporcion 6/36 se obtiene unicamente despues de que el experimento se realiza unnumero grande de veces, es decir, despues de efectuar el experimento muchas vecesse observara que, alrededor de la sexta parte de este, la suma de los numeros queaparecen es igual a siete. La proporcion 6/36 no significa que en seis tiradas, forzo-sarnente una dara como resultado un siete, Para situaciones de este tipo es apropiadala siguiente definici6n de probabilidad.Definicion 2.1 Si un experimento que esta sujeto al azar, resulta de n formas igual-mente probables y mutuamente excluyentes, y si nA de estos resultados tienen unatributo A, la probabilidad de A es la proporci6n de nA con respecto a n.TABLA 1.i Posibles resultados que aparecen cuando se lanzan dos dados1.1 1,2 1,31,41,51,62,1 2,2 2,32,42,52,63,1 3.2 3;33.43,53,64,1 4,2 4,34,44,54,65,1 5,2 5,35,45,55,66,1 6.2 6,36.46,56,6 45. 30 Conceptos en probabilidad2.3 Definicion de probabilidad como frecuencia relativaEn muchas situaciones practicas, los posibles resultados de un experimento no sonigualmente probables. Por ejemplo, en una fabrica las oportunidades de observar unarticulo defectuoso normalmente sera mucho mas rara que observar un articulobueno. En este caso, no es correcto estimar la probabilidad de encontrar un articulodefectuoso mediante el empleo de la definicion clasica. En lugar de esta, en muchasocasiones se emplea la interpretacion de la probabilidad como una frecuencia rela-tiva.La interpretacion de una frecuencia relativa descansa en la idea de que un experi-mento se efectua y se repite muchas veces, y practicamente bajo las mismas condi-ciones. Cada vez que un experimento se lleva a cabo, se observa un resultado. Este esimpredecible dada la naturaleza aleatoria del experimento, la probabilidad de la pre-sencia de cierto atributo se aproxima por la frecuencia relativa de los resultados queposee dicho atributo. Conforme aumenta la repeticion del experimento, la frecuen-cia relativa de los resultados favorables se aproxima al verdadero valor de la proba-bilidad para ese atributo. Por ejemplo: supongase que se desea determinar la pro-porcion de articulos defectuosos en un proceso de fabricaci6n. Para llevar a cabo 10anterior, se muestra un determinado numero de articulos; cada observaci6n consti-tuye un experimento. Los resultados pueden clasificarse como defectuosos 0 no defec-tuosos. Si el proceso de fabricaci6n es estable, y asegura asi las condiciones unifor-mes, al aumentar el numero de articulos muestreados, la frecuencia relativa dearticulos defectuosos con respecto al numero de unidades muestreadas se aproxima- "ra cada vez mas a la verdadera proporcion de articulos defectuosos.Para ilustrar la interpretacion de la probabilidad como frecuencia relativa se si-mulo en una computadora un proceso de muestreo de n unidades, suponiendo que elproceso de fabricaci6n producia un SOlo de articulos defectuosos. Para cada n se ob-servo el numero de unidades defectuosas; los resultados se dan en la tabla 2.2 paravalores de n entre 20 y 10 000. A partir de esto es razonable concluir que la frecuen- ,cia relativa tiende a un valor verdadero de 0.05 conforme n crece. De esta manera, sesugiere la siguiente definicion de la probabilidad como frecuencia relativa:TABLA 1.1. Resultados de un experimento simulado en computadoraNumero de unidadesNumero de unidades_ Frecuenciamuestreadas(n) defectuosas observadas relativa20 20.10503 0.06 100 40.04 200 120.Q6500 ,28 .,0.056 1000 54, 0.054, 2000 970.0485-,- 50002440.0488100005040.0504 46. 2.4 Interpretacion subjetiva de la probabilidad 31Definicion 2.2 Si un experimento se repite n veces bajo las mismas condiciones ylin de los resultados son favorables a un atributo B, ellimite de II n/11 con forme n sevuelve grande, se define como la probabilidad del atributo B.2.4 Interpretacion subjetiva de la probabilidad La repeticion de un experimento bajo las mismas condiciones es la base para las in-terpretaciones clasica y de frecuencia relativa de la probabilidad. Sin embargo,muchos fenomenos no se prestan para repeticion, pero a pesar de esto requierende una nocion de probabilidad. Por ejemplo la compania que aseguro los JuegosOlimpicos de 1980 tuvo que determinar, a priori, los riesgos de que los juegos no seefectuasen de la manera en que se habian planeado. 0 cuando se aseguran contrarobo 0 dafio esculturas y pinturas cuyo valor es muy alto, las companias aseguradorasdeben tener idea de los riesgos adquiridos para fijar de manera adecuada, el preciodel seguro. En ninguno de estos ejemplos puede concebirse un experimento suscep-tible de llevarse a cabo bajo condiciones similares. Por otra parte, muchas de lasafirmaciones que suelen formularse las personas de algun modo implican probabili-dad. Por eiemplo, cuando se dice "probablemente el embarque llegara manana", 0cuando un corredor de bolsa asesora a un cliente sobre la posible alza de una accion,se esta sugiriendo alguna idea de la probabilidad de ocurrencia de las afirmacionesanteriores.Para los ejemplos anteriores, la interpretacion de la probabilidad no puede tenersu fundamento en la frecuencia de ocurrencia. La probabilidad se interpreta como elgrade de creencia 0 de conviccion con respecto a la ocurrencia de una afirmacion. Eneste contexto, la probabilidad representa un juicio personal acerca de un fenomenoimpredecible. Esta interpretacion de la probabilidad se conoce como subjetiva 0 per-sonal.Es importante hacer hincapie en que la probabilidad subjetiva tambien puedeaplicarse a experimentos repetirivos. Por ejemplo, un jugador de blackjack puecle, enun momenta dado, decidir tomar otra carta y hacer caso omiso de su experienciaprevia, debido a que cree que esto aumentara sus oportunidades de ganar la mano.EI capitan de un equipo de futbol puede pedir "cara" cuando la moneda se lance alaire, debido a que esa es su creencia con respecto al resultado de arrojarla. Con baseen tales aplicaciones, la probabilidad subjetiva es considerada por muchos comomils general que las otras dos interpretaciones.Para ilustrar la traslacion de un grado de creencia en probabilidad, considere lasiguiente situacion: se pregunta ados ingenieros petroleros, A y B, su opinion acercade la posibilidad de descubrir petroleoen un determinado sitio, La respuesta de A esque el esta seguro, en un 80010, de que se encontrara petroleo mientras que B 10 estaen un 70010. El porcentaje dado por los ingenieros es una medida de la creencia deestos, con respecto al descubrimiento de petroleo. Deesta rnanera se pueden asignardistintas medidas de.creencia ala misma proposicion, Pero l.que significado tienenrealmente el800Jo yiOJo? La interpretacion comun es la siguiente. EI ingeniero.)~ien-,~ Pot implicaci6n, A y B tambien estAn diciendo que se encuentran seguros, en un 2017. y 300ft, respecti-vamente, deque no sera descubierto el petr61eo. ,- , 47. .>1. Conceptos en prooaouiaaa sa apostar ocho ados (por ejemplo $8 contra $2 0 cualquier otra eantidad de d6lares que se encuentre en la misma proporci6n) a que el petr61eo sera descubierto en ese si- tio. De manera similar, B cree que es mejor apostar siete a tres (es decir $7 contra $3) para el mismo resultado. De esta rnanera, las probabilidades subjetivas de A y B se defmen como las proporciones 8/(8 + 2) y 7/(7 + 3) respectivamente. En general si las apuestas en favor de una afirmaci6n son de cad, la probabilidad de esta es cI(c + d). 2.5 Desarrollo axiomatico de la probabilidad Para formalizar la definici6n de probabilidad, a traves de un conjunto de axiomas, se repasaran brevemente los conceptos basicos de la teoria de conjuntos (0 eventos), sobre los cuales se fundamenta la definici6n formal de probabilidad. Esta definici6n es tan general que per mite incorporar las distintas interpretaciones de la probabili- dad, mencionadas anteriormente. La colecci6n de todos los posibles resultados de un experimento aleatorio es im- portante en la definici6n de la probabilidad. Para definir esta coleccion considerense los siguientes experimentos: el numero de reservaciones no canceladas para un vuelo, el numero de llegadas a un servicio 0 la duracion de un determinado compo- nente, Todos son ejemplos de fenomenos impredecibles con un determinado numero de posibles resultados. El numero de reservaciones no canceladas puede ser cual- quier entero positivo no mayor que el numero de asientos del avion: el numero de llegadas puede ser, teoricamente, cualquier entero positivo sin ningun limite, y la du- racion de un componente puede ser cualquier numero real positivo. Lo anterior neva, de manera inmediata, a la siguiente definicion: Definicion 2.3 El coniunto de todos los posibles resultados de un experimento aleatorio recibe el nombre de espacio muestral. El conjunto de todos los posibles resultados puede ser finito, infinito numerable o infinito no numerable. Por ejemolo, el numero de reservaciones sin cancelar cons- tituye un espacio muestral finito, dado que este numero nunea excedera la eapacidad del avion, que es finita. El numero de llegadas al servicio constituye un espacio muestral infinito numerable, dado que es posible colocar ios resultados en una co- rrespondencia uno a uno con los enteros positives, que .constituyen un conjunto infinito pero numerable. La duracion de una componente constituye un espacio muestral infmito innumerable, dado que esta puede ser cualquier numero real positi- vo. En este momento, es conveniente dar las siguientes definiciones. DefiDld6a 1.4 Se dice que un espacio muestral es discreto si su resultado puede ponerse en una eorrespondencia uno a.uno con el conjunto de los enteros positives.1~~ ~~f1-l . ~~ .. ~ .. ..DefiDld6a2.5;a& dice que un espacio muestral es continuo si sus resultados consis- I j teifde UtriDtervilo de numeros reales. l,if11:Con r.especto. a los. resultados de un espacio muestral, se puede estar particular-pi;1 mente interesado en un subconjunto de estes. Por ejemplo.iun gerente de cierta linea 48. 2.5 Desarrollo axiomatico de la probabilidad 33aerea desea saber si el numero de reservaciones sin cancelar es Menor que cinco, 0bien un comprador de baterias desea saber si estas tendran una operaci6n normalmayor de 40 horas. De esta manera, se tiene la siguiente definici6n:Definicion 2.6 Un evento del espacio muestral es un grupo de resultados conten i-dos en este, cuyos miembros tienen una caracteristica comun,Por caraeteristica comun debe entenderse que unicamente un grupo de resulta-dos en particular satisface la caracteristica y los restantes, contenidos en el espaciomuestral, no. Se dice que ha ocurrido un evento si los resultados del experimentoaleatorio incluyen a algunos de los que definen al evento. En este contexto, el espa-cio muestral, evento en si mismo, puede entenderse como un evento seguro, puestoque se tiene un 100070 de certidumbre de que ocurrira un resultado del espaciomuestral cuando el experimento se lleve a cabo. Para completar se dan las siguientesdefiniciones:Definicion 2.7 EI evento que contiene a ningun resultado del espacio muestral re-cibe el nombre de evento nulo 0 vacio. Deberan recordarse algunas definiciones de la teoria de eventos. Sean E, Y E 2cualesquiera dos eventos que se encuentren en un espacio muestral dado denotadoporS.Definicion 2.8 EI evento fonnado por todos los posibles resultados en E 1 0~2 0 enambos, recibe el nombre de la union de 1 YE1 Yse denota por E, U E 2 Definicion 2.9 EI evento fonnado por todos los resultados comunes tanto a 1como a 2 recibe el nombre de interseccion de E, Y E 2 Yse denota por E 1 n E 2 Definicion 2.10 Se dice que los eventos E 1 Y E 2 son mutuamente excluyentes 0 dis-juntos si no tienen resultados en comun; en otras palabras 1 n E 2 = JJ == eventovacio.Definicion 2.11 Si cualquier resultado de E 2 tambien es un resultado de E, .se diceque el evento E 2 esta contenido en E, Yse denota por E 2 C E,.Definicion 2.12 El complemento de un evento E con respecto al espacio muestralS, es aquel que contiene a todos los resultados de S que no se encuentran en E, Yse de-nota por E.Las definiciones anteriores pueden demostrarse demanera grafica mediante eluso de los diagramas de Venn, como se muestra en la figura 2.1. _"Como ejemplo, considerese el experimento de lanzar un dado; el espaciomuestrales S (l, 2, 3, 4, 5; 6). Se definen los-eventos E 1 == (2~ 4;6)~) E{Hii:: (l ~ 3),Y 3 = (2, 4). Es facil verificar que E. U E2 = (l, 2, 3, 4, 6),E."n 3 ee : (2,;-4), E, n 2 =JJ, 3 se encuentra 0,(2.3)Yde manera equivalenteP(BJ./A.) = P(A; n B) P( ) 0(2.4) IP(A;) ,A; > .Para definir las probabilidades conjunta, marginal y condicional se ha empleadoun ejemplo especifico en el que el espacio muestral contiene unicamente un numerofinito de resultados. Sin embargo, las definiciones dadas aqui son completamentegenerales y pueden extenderse para incluir cualquier espacio muestral ya sea discretoo continuo. Con base en 10 anterior se define de la siguiente manera.Definicion 2.14 Sean Ay B cualesquiera dos eventos que se encuentran en un espa-cio muestral S de manera tal que P(B) > O. La probabilidad condicional de A alocurrir el evento B, es el cociente de la probabilidad conjunto de A y B con respectoa la probabilidad marginal de B; de esta manera se tiene p(AIB) = P(~(~)B), P(B) > O. (2.5) La relacion entre (2.5) puede escribirse como un producto, 10que da como resul-tado la regIa de multiplicacion de probabilidades, dada porP(A n B) = P(B)P(AIB).(2.6) 54. 2.6 Probabilidades conjunta, marginal y condicionaJ39Por simetrla, la probabilidad.condicional de B dada la ocorrencia de A,.es"l);l"1 i. .: ;/ . P(BIA) = P(A n B)P(A) > 0. ,.:, :",.:;, .)~: P(A) , , ,: (, .;).~"-." 0(2.8).P(B n C) ,y P(A n Blc) = P(A~(~; C),P(C) > O. (2.9)Los siguientes ejemplos ilustraran los conceptos presentados en esta secci6n.Ejemplo 2.2 Alos habitantes de una gran ciudad se les hizo una encuesta con elproposito de determinar el numero de lectores de Time y Newsweek. Los resultadosde la encuesta fueron los siguientes: 2OOJo de los habitantes leen el Time, e116OJo lee elNewsweek y un lOJo lee ambos semanarios. Si se selecciona at azar a un lector deTime, j,cu{l1 es la probabilidad de que tambien lea el Newsweek? Sean A y Bios eventos que representan el numero de lectores del Time y News-week respectivamente; dado que PtA) ::: 0.2, P(B) ::: 0.16 y PtA n B) = 0.01.P(B/A) ::: 0.01/0.2 = 0.05.Por otra parte, tambien puede determinarse la probabilidad de que un lector delNewsweek lea tambien el Time; esto esP(A/B) ::: 0.01/0.16 = 0.0625,y se verifica la relacion P(A)P(BIA) ::: P(B)P(AIB), 0 (0.2)(0.05) (0.16)(0.0625).Ejemplo 2.3 Muchas instituciones bancarias emplean modelos computarizados decredito con e1 proposito de dar un determinado puntaje a todas las solicitudesde prestamo. Este puntaje se emplea como una ayuda para decidir cuando se otorgael prestamo. Supongase que el 3OJo de todos los prestamos que se otorgan presentanproblemas por incumplimiento de pago y que los modelos de credito son precisos enI 55. 40 Conceptos en probabilidadun 80010 at predecir menos creditos. Si el 85010 de todas las solicitudes reciben pun-tuaciones favorables por los modelos computarizados y se les otorga el prestamo,determinar la probabilidad de que una solicitud que recibe una puntuaci6n favo-rable y a la que se Ie otorga el prestamo, no presente ning(m problema para el pagode este,Sea A el evento incumplimiento de pago y B la puntuacion favorable. Delenunciado del problema se tiene que P(A) = 0.03, P(B) = 0.85 y p(BIA) = 0.8. endonde A es el complemento de A, es decir, el evento cumplimiento de pago, Lo quese busca es la probabilidad condicional de que no exista ningun problema en el pagodel prestamo, dado que la solicitud obtuvo una puntuaci6n favorable, 0 P(AIB).Usando la relaci6n (2.7), se tieneP(B)P(AIB) = P(A)P(BIA),oP(AIB) = P(A)P(BIA)P(B),Y dado que P(A) = 0.97, la probabilidad deseada es P(AIB) = 0.9129.Ejemplo 2.4 Una planta recibe reguladores de voltaje de dos diferentes proveedo-res, B" Y B 2 ; el 75% de los reguladores se compra a B I Y el resto a B 2 El porcentajede reguladores defectuosos que se reciben de B I es 8% y el de B 2 es 10%. Determinarla probabilidad de que funcione un regulador de voltaje de acuerdo con las especifi-caciones (es decir, el regulador no esta defectuoso). Sea A el evento el regulador de voltaje es no defectuoso. Es claro que ningun re-gulador de voltaje puede ser vendido tanto por B. como por B 2 ; por 10 tanto B I y B 2son disjuntos. Esto da como resultado P(A) = P(A n B.) + P(A n B2 ) ,peroyP(A n B2 ) = P(B z)P(AIB 2 ) ,en donde se conocen P(B 1)= 0.75, P(B 2 ) = 0.25, P(AIB,) = 0.92, y P(AIB2 ) =0.9; sustituyendoP(A) = P(BI)P(AIB I) + P(B z)P(AIB2 ) = (0.75)(0.92)+ (0.25)(0.90)=0.915. N6tese que en el ejemplo 2.4 se tienen unicamente dos proveedores, B I y B z . Engeneral, si existen n altemativas disjuntas B .. B; Bn , la probabilidad total de un B,. B 2 ,, B", 56. 2.7 Eventos estadisticamente independientes 41resultado final, por ejemploA.esta dada por nP(A) = L P(B;)P(AIB;).(2.10) i_I 2.7 Eventos estadisticamente independientesAt considerar la probabilidad condicional de algun evento A. dada la ocurrencia deotro evento B, siempre se implica que las probabilidades de A y B son de alguna ma-nera dependientes entre si, En otras palabras, la informacion con respecto a laocurrencia de B afectara la-probabilidad de A. Sup6ngase que la ocurrencia de B notiene ningim efecto sobre la probabilidad de A, en el sentido de que la probabilidadcondicional P(AjB) es igual a la probabilidad marginal P(A), aun a pesar de que ha-ya ocurrido el evento B. Esta situaci6n origina un concepto muy importante que seconoce como independencia estadistica.Definicion 2.15 Sean A y B dos eventos cualesquiera de un espacio muestral S. Sedice que el evento A es estadfsticamente independiente del evento B si p(AIB) = P(A).Algunas consecuencias de la definici6n 2.15 se convierten en evidentes en estemomento, dado que P(AIB)= P(A n B) P(B),si A es independiente de B,P(AIB) = P(A) = P(A n B) P(B)o peA n B) = P(A)P(B).Ademas, puesto quepeA n B) = P(A)P(BIA),entoncesP(A)P(B) = P(A)P(BIA)oPCB) = P(BIA).Por 10 tanto, puede concluirse que si un evento A es estadisticamente independiente 57. 42 Conceptos en proliabilidad"de B, entonces el evento B es independiente de A y se verifican las tres relacionessi-guientes:i.:l",,)l,~ .!d f,ib "~",,;.r::..... -J.~IJ ... ;t~ ~),< .>:>:j;lt--~/ __ I.1 7) == I - P(X~ 7) == I - F(7) == 15/36; P(X == 7) = P(X ~ 7)- P(X ~ 6) == F(7) - F(6) == 6/36; P(5 ~ X ~ 9) == P(X ~ 9) - P(X ~ 4) == F(9) - F(4) == 24/36. 71. 56 Variablesaleatorias y distribuciones de probabilidadEn general, la funci6n de distribuci6n acumulativa F{x) de una variable aleatoriadiscreta es una funcion no decreciente de los valores de X, de tal manera que l. 0 ~F(x)~ I para cualquier x; 2. F(x;)~ F(x) 3. P(X> x) = I - F(x).Ademas, puede establecerse que para variables a1eatorias de valor entero se tiene que: 4. P(X = x) = F(x) - F(x - 1); 5. Pix, ~ X ~ x) = F(x) - Fix, - 1).La grafica de la distribuci6n acumulativa del ejemplo 3.1 se muestra en la figura3.2. En esta figura es evidente que la funci6n de distribuci6n acumulativa de una va-riable aleatoria discreta es una funci6n escalon, que toma un valor superior en cadasaito.).j36/3630/3625/36~ 20/36-[t,15/3610/36 5/36 234 5 6 7 8 9 10 11 12 xFIGURA 3.2 Representancion grafica de la funcion de distribucion acumulativa de la sumade las caras de dos dados, cuando estos se lanzan 72. 3.3 Distribuciones de probabilidad de variables aleatorias continuos 573.3 Distribuciones de probabilidad de variables aleatoriascontinuasEn la seccion.anterior se trataron distribuciones de probabilidad para variables alea- torias discretas, En esta se examinaran conceptos similares para variables aleatoriascontinuas. En el caso discreto, se asignan probabilidades positivas a todos los valo- res puntuales de la variable aleatoria, pero la suma de todas ellas es uno aim a pesarde que el conjunto de valores sea infinitocontable. Para el caso continuo, 10 anteriorno es posible. Por esta razon, la probabilidad de que una variable aleatoria continua X tome unvalor especifico x es cero. Se ilustrara el sentido de este resultado mediante el siguiente ejemplo: sup6ngaseque se observa el intervalo entre dos llegadas consecutivas a un servicio. Si el disposi-tivo de medici6n puede medir el tiempo basta una decirna de segundo, entonces unintervalo de 83.4 seg puede realmente tomarse como la media y el verdadero valorpuede encontrarse entre 83.35 y 83.45 seg, Por 10 tanto, en el caso continuo es milslogico visualizar las probabilidades de intervalos que de puntos en particular. La distribucion de probabilidad de una variable aleatoria continua X esta carac-terizada por una funci6nf(x) que recibe el nombre defuncion de densidad de proba-bilidad. Esta funcion f(x) no es la misma funcion de probabilidad que para el casodiscreto. Como existe la probabilidad de que X tome el valor especifico x es cero, lafuncion de densidad de probabilidad no representa la probabilidad de que X = x.Mils bien, esta proporciona un medio para determinar la probabilidad de un interva-10 a :s; X :s; b. Para ilustrar 10 que se entiende como funcion de densidad de probabilidad, su-pongase que se mid en los tiempos, entre dos llegadas consecutivas, de 100 clientes auna tienda y se agrupan en diez intervalos de un minuto cada uno, como se muestraen la tabla 3.2. En este punto se grafican las frecuencias relativas para cada intervalopor medio de rectangulos, como se muestra en la figura 3.3, para indicae que la fre-cuencia se refiere al intervalo completo mas que a un punta en particular del mismo.N6tese que, puesto que la base tiene una longitud igual a uno, el area de cada rectan-gulo es la frecuencia relativa del correspondiente intervalo y, por 10 tanto, la sumade las areas de todos los rectangulos es igual a uno.TABLA 3.2 Tiempos entre dos llegadas consecutivas, agrupados, de 100 clientes a un servicioIntervalo Numero de llega s Frecuencia relativa0< x~ I22 0.22I < x ~ 2180.182 < x ~ 3170.173 < x ~ 4130.134 < x ~ 5140.145 < x ~ 6 80.086 < x ~ 7 60.067 < x ~ 8 70.Q78 0,f(x) ={ opara cualquier otro valorpara una constante k apropiada. Determinar el valor de k, la funcion de distribucionacumulativa, la probabilidad de que 2 < X < 6, y la probabilidad de que X ~ 8.Debe insistirse en que: f,/(x)dx= I;por 10 tanto, dado que en este ejemplo./{x)= 0 six ~ 0, entonces el valor de k estadeterminado por: k f exp( -xj2)dx =I.Despues de la integracion se tiene que: -2keX P( - Xj 2) [I,yk = 112. Lafuncion de distribucion acumulativa es: F(x) = J:xf(t)dt11x exp( - tj2)dt = f o -xOdt + -2 = I - exp( -xj2) para x > O.yF{x)= opara x ~ O. Ademas DF(x)jdx = 1/2 exp(-x/2), queesloquesees-peraba.La probabilidad de que un intervalo entre dos llegadas consecutivas se encuentreentre dos y seis minutos es: 1 fl>P(2 < X < 6)= -exp( - x/2)dx= F(6) - F(2).2 2= [I - exp(-3)] - [I - exp(-I)] = 0.3181. No se dudara en emplear "exp" en lugar de "e", toda vez que esta notaci6n sea menos oscura. 77. 62Variables aleatorias y distribuciones de probabilidadLa probabilidad de que trans curran menos de ocho minutos entre dos llegadas con-secutivas es: P(X < 8) = F(8) = 1 - exp( -4) = 0.9817.Laprobabilidaddequeestaexcedalosochominutosesl - F(8)= exp(-4) = 0.0183.Ejemplo 3.3 La variable aleatoria que representa la proporci6n de accidentesautomovilisticos fatales en Estados Unidos, tiene la siguiente funci6n de densidad:42X( 1 - X)5 O O. I(x)= { opara cualquier otro valor.Si la perdida de dinero es igual al cuadrado del numero de horas necesarias para lle-var a cabo la reparacion, se debe deterrninar el valor esperado de las perdidas por re-paracion. 80. 3.4 Va/or esperado de una variablea/eatoria 65En estecaso es necesario calcular el valor esperado de una funci6n que se en-cuentra relacionada con la variable aleatoria (el tiempo de reparacion), Esta funci6nes:por 10 tanto;; E[g(X)] =fxg(x)f(x)dx = ~f x 2exp(-xI5)dx.Para evaluar integrales de este tipo en donde el integrando es un producto de una po-tencia por una exponencial negativa sobre la recta de los reales positivos, es mejoremplear la funcion rnatematica:I(n) = fun-Iexp( - u)du, n > 0,(3.4)que se conoce como funcion gama del argumento n. Algunas propiedades de estafuncion son: l. f(n + l)= n!si n es un entero positivo;2. f(n + l) = nf(n), n > 0;3. f(/2)= V;.De acuerdo con 10 anterior, para evaluar la integral I (X E[g(X)]= 5" Jox2exp(-xI5)dx,en (3.4) es u= x15; en otras palabras, x 5u dx=Sdu. Entonces:E[g(X)] I (XI = 5" Jo x 2exp( - xl5)dx = 5" Jor (5U)2exp( - u)5du = 25 f u 2exp( - utdu = 25f(3) = 50,50 es el valor esperado de la perdida por reparacion,Ejemplo 3.7 Un inversionista dispone de $100 000.00 para una inversion de unano. EI inversionista esta considerando dos opciones: colocar el dinero en el merca-do de valores, 10 que le garantiza una ganancia anual fija del 15"70 y un plan de inver-sion cuya ganancia anual puede considerarse como una variable aleatoria cuyosvalores dependen de las condiciones economicas que prevalezcan. Con base en lahistoria pasada del segundo plan, un analista muy confiable ha determinado los po- 81. 66 Variables aleatorias y distribuciones de probabilidad 1sibles valores de la ganancia y calculado sus probabilidades, como se muestra en latabla 3.4. Con base en Ia ganancia esperada i,cuaI de los dos planes debe seleccionarse? 1Si se escoge el primer plan, colocar el dinero en el mercado de valores, la ganan-cia anual que producen SI00 mil sera de SIS mil, dado que esta es fija y su valor es " ~dellSOJo. Para el segundo plan, sea X la variable aleatoria que representa la ganan- tcia. Con la definicion 3.7, se tiene:E(X) = (0.3)(0.2) +(0.25)(0.2) + " + (0.05)(0.05)= 0.205.De acuerdo con 10 anterior, el segundo plan es una eleccion mucho mejor puesto queofrece una ganancia esperada de S20 500. Sin embargo, ellector debe ser cautelosoen este punto, dado que