corso teoria dei fenomeni aleatori di giacinto gelli

268
Giacinto Gelli Probabilit` a e informazione Note per il corso di Teoria dei fenomeni aleatori N APOLI 2002 autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

Upload: mattia-pellegrino

Post on 15-Nov-2015

116 views

Category:

Documents


17 download

DESCRIPTION

Corso Teoria Dei Fenomeni Aleatori Di Giacinto Gelli

TRANSCRIPT

  • Giacinto Gelli

    Probabilita` e informazioneNote per il corso di Teoria dei fenomeni aleatori

    NAPOLI 2002

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • c 20022006 Giacinto Gelli [email protected] consente la riproduzione anche parziale del testo agli studenti del corso. Non e`consentito modificare il testo, diffonderlo, pubblicarlo anche con mezzi telematici senzail consenso scritto dellautore.

    Prima versione: settembre 2001.Seconda versione: febbraio 2002.

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • Indice

    1 Probabilita` elementare 11.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Richiami di teoria degli insiemi . . . . . . . . . . . . . . . . . . . . . . . . . 31.3 Definizioni preliminari di probabilita` . . . . . . . . . . . . . . . . . . . . . . 51.4 Probabilita` assiomatica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

    1.4.1 Campi e -campi (campi di Borel) . . . . . . . . . . . . . . . . . . . 71.4.2 Assiomi di Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . 91.4.3 Proprieta` elementari della probabilita` . . . . . . . . . . . . . . . . . 9

    1.5 Altri approcci alla teoria della probabilita` . . . . . . . . . . . . . . . . . . . 111.5.1 Approccio frequentista . . . . . . . . . . . . . . . . . . . . . . . . . . 121.5.2 Approccio classico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.5.3 Vantaggi dellapproccio assiomatico . . . . . . . . . . . . . . . . . . 13

    1.6 Esempi di spazi di probabilita` . . . . . . . . . . . . . . . . . . . . . . . . . . 141.6.1 Spazi di probabilita` discreti . . . . . . . . . . . . . . . . . . . . . . . 141.6.2 Spazi di probabilita` continui . . . . . . . . . . . . . . . . . . . . . 17

    2 Probabilita` condizionale e indipendenza 232.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232.2 Probabilita` condizionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

    2.2.1 Legge della probabilita` composta . . . . . . . . . . . . . . . . . . . . 262.2.2 Regola della catena . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272.2.3 Teoremi della probabilita` totale e di Bayes . . . . . . . . . . . . . . . 28

    2.3 Indipendenza tra eventi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312.3.1 Indipendenza di tre o piu` eventi . . . . . . . . . . . . . . . . . . . . 332.3.2 Indipendenza condizionale tra eventi . . . . . . . . . . . . . . . . . 34

    2.4 Esperimenti combinati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342.4.1 Esperimenti indipendenti . . . . . . . . . . . . . . . . . . . . . . . . 362.4.2 Prove ripetute . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392.4.3 Teoremi di de Moivre-Laplace . . . . . . . . . . . . . . . . . . . . 432.4.4 Canale binario simmetrico (BSC) . . . . . . . . . . . . . . . . . . . . 47

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • ii INDICE

    3 Variabili aleatorie 533.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

    3.1.1 Definizione di variabile aleatoria . . . . . . . . . . . . . . . . . . . . 563.2 Funzione di distribuzione cumulativa (CDF) . . . . . . . . . . . . . . . . . 57

    3.2.1 Proprieta` della CDF . . . . . . . . . . . . . . . . . . . . . . . . . . . 593.2.2 Variabili aleatorie discrete, continue, miste . . . . . . . . . . . . . . 613.2.3 Percentile e mediana . . . . . . . . . . . . . . . . . . . . . . . . . . 62

    3.3 Funzione densita` di probabilita` (pdf) . . . . . . . . . . . . . . . . . . . . . . 643.3.1 Proprieta` della pdf . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

    3.4 Funzione distribuzione di probabilita` (DF) . . . . . . . . . . . . . . . . . . 673.4.1 Proprieta` della DF . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

    3.5 Esempi di variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . 703.5.1 Variabili aleatorie discrete . . . . . . . . . . . . . . . . . . . . . . . . 703.5.2 Variabili aleatorie continue . . . . . . . . . . . . . . . . . . . . . . . 75

    4 Trasformazioni di una variabile aleatoria 814.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

    4.1.1 Condizioni da imporre alla funzione g(x) . . . . . . . . . . . . . . 824.2 Caratterizzazione statistica di Y = g(X) . . . . . . . . . . . . . . . . . . . . 83

    4.2.1 Calcolo della CDF di Y = g(X) . . . . . . . . . . . . . . . . . . . . . 834.2.2 Calcolo della DF di Y = g(X) . . . . . . . . . . . . . . . . . . . . . . 894.2.3 Calcolo della pdf di Y = g(X) . . . . . . . . . . . . . . . . . . . . . . 90

    4.3 Problema inverso: determinazione di g(x) . . . . . . . . . . . . . . . . . . . 954.3.1 Generazione di una variabile aleatoria con CDF assegnata . . . . . 984.3.2 Generazione automatica di numeri casuali . . . . . . . . . . . . . . 1024.3.3 Algoritmo middle-square (Von Neumann) . . . . . . . . . . . . . 1024.3.4 Algoritmo lineare congruente . . . . . . . . . . . . . . . . . . . . . . 1034.3.5 Test statistici sui generatori . . . . . . . . . . . . . . . . . . . . . . 105

    5 Caratterizzazione sintetica di una variabile aleatoria 1095.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1095.2 Media di una variabile aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . 109

    5.2.1 Teorema fondamentale della media . . . . . . . . . . . . . . . . . . 1135.2.2 Proprieta` della media . . . . . . . . . . . . . . . . . . . . . . . . . . 114

    5.3 Varianza e valor quadratico medio di una variabile aleatoria . . . . . . . . 1145.3.1 Proprieta` della varianza . . . . . . . . . . . . . . . . . . . . . . . . . 117

    5.4 Momenti di una variabile aleatoria . . . . . . . . . . . . . . . . . . . . . . . 1195.4.1 Relazione tra momenti e momenti centrali . . . . . . . . . . . . . . 120

    5.5 Disuguaglianze notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • INDICE iii

    6 Coppie di variabili aleatorie 1276.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1276.2 Funzione di distribuzione cumulativa (CDF) congiunta . . . . . . . . . . . 128

    6.2.1 Proprieta` della CDF congiunta . . . . . . . . . . . . . . . . . . . . . 1296.3 Funzione densita` di probabilita` (pdf) congiunta . . . . . . . . . . . . . . . 130

    6.3.1 Proprieta` della pdf congiunta . . . . . . . . . . . . . . . . . . . . . . 1316.4 Funzione di distribuzione di probabilita` (DF) congiunta . . . . . . . . . . . 1336.5 Statistiche congiunte e marginali . . . . . . . . . . . . . . . . . . . . . . . . 1346.6 Indipendenza per coppie di variabili aleatorie . . . . . . . . . . . . . . . . 1386.7 Trasformazioni di coppie di variabili aleatorie . . . . . . . . . . . . . . . . 141

    6.7.1 Trasformazione 21 . . . . . . . . . . . . . . . . . . . . . . . . . . . 1416.7.2 Trasformazione 22 . . . . . . . . . . . . . . . . . . . . . . . . . . . 1436.7.3 Metodo della variabile ausiliaria . . . . . . . . . . . . . . . . . . . . 147

    6.8 Variabili aleatorie complesse . . . . . . . . . . . . . . . . . . . . . . . . . . 150

    7 Caratterizzazione sintetica di una coppia di variabili aleatorie 1537.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1537.2 Teorema fondamentale della media per una coppia di variabili aleatorie . 1537.3 Momenti congiunti di una coppia di variabili aleatorie . . . . . . . . . . . 1557.4 Misure di correlazione di una coppia di variabili aleatorie . . . . . . . . . . 156

    7.4.1 Correlazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1567.4.2 Spazio vettoriale di variabili aleatorie . . . . . . . . . . . . . . . . . 1567.4.3 Covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1587.4.4 Coefficiente di correlazione . . . . . . . . . . . . . . . . . . . . . . . 1597.4.5 Incorrelazione tra due variabili aleatorie . . . . . . . . . . . . . . . . 161

    7.5 Stima lineare a minimo errore quadratico medio . . . . . . . . . . . . . . 1627.5.1 Principio di ortogonalita` . . . . . . . . . . . . . . . . . . . . . . . . . 164

    8 Vettori di variabili aleatorie 1678.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1678.2 Caratterizzazione statistica di n variabili aleatorie . . . . . . . . . . . . . . 167

    8.2.1 Funzione di distribuzione cumulativa (CDF) . . . . . . . . . . . . . 1688.2.2 Funzione densita` di probabilita` (pdf) . . . . . . . . . . . . . . . . . 1688.2.3 Funzione di distribuzione di probabilita` (DF) . . . . . . . . . . . . . 1698.2.4 Proprieta` delle distribuzioni congiunte di n variabili aleatorie . . . 169

    8.3 Trasformazioni di n variabili aleatorie . . . . . . . . . . . . . . . . . . . . . 1708.4 Indipendenza per n variabili aleatorie . . . . . . . . . . . . . . . . . . . . . 1738.5 Momenti di n variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . 175

    8.5.1 Vettore delle medie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1768.5.2 Matrice di correlazione . . . . . . . . . . . . . . . . . . . . . . . . . . 1778.5.3 Matrice di covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . 1788.5.4 Incorrelazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179

    8.6 Teoremi limite e convergenza di una sequenza di variabili aleatorie . . . 183

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • iv INDICE

    8.6.1 Legge dei grandi numeri . . . . . . . . . . . . . . . . . . . . . . . . . 1838.6.2 Teorema limite fondamentale . . . . . . . . . . . . . . . . . . . . . . 187

    9 Distribuzioni e medie condizionali 1919.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1919.2 Distribuzioni condizionali per una variabile aleatoria . . . . . . . . . . . . 191

    9.2.1 Funzione di distribuzione cumulativa (CDF) condizionale . . . . . 1919.2.2 Funzione densita` di probabilita` (pdf) condizionale . . . . . . . . . . 1939.2.3 Funzione distribuzione di probabilita` (DF) condizionale . . . . . . 1949.2.4 Teorema della probabilita` totale per CDF, pdf, DF . . . . . . . . . . 1979.2.5 Probabilita` a posteriori di un evento . . . . . . . . . . . . . . . . . 1989.2.6 Probabilita` a posteriori dato X = x . . . . . . . . . . . . . . . . . . 1999.2.7 Teorema della probabilita` totale (versione continua) . . . . . . . . 2019.2.8 Teorema di Bayes per le pdf . . . . . . . . . . . . . . . . . . . . . . 202

    9.3 Distribuzioni condizionali per coppie di variabili aleatorie . . . . . . . . . 2029.3.1 Distribuzioni condizionali dato X = x ed Y = y . . . . . . . . . . . 205

    9.4 Distribuzioni condizionali per vettori di variabili aleatorie . . . . . . . . . 2079.4.1 Indipendenza condizionale e regola della catena per le pdf . . . . . 208

    9.5 Media condizionale e momenti condizionali . . . . . . . . . . . . . . . . . . 2099.5.1 Teorema della media condizionale . . . . . . . . . . . . . . . . . . . 211

    10 Elementi di teoria dellinformazione 21710.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21710.2 Misura dellinformazione ed entropia . . . . . . . . . . . . . . . . . . . . . 219

    10.2.1 Autoinformazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22010.2.2 Entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22110.2.3 Proprieta` dellentropia . . . . . . . . . . . . . . . . . . . . . . . . . . 22210.2.4 Entropia congiunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223

    10.3 Sorgenti di informazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22510.3.1 Tasso dentropia di una sorgente . . . . . . . . . . . . . . . . . . . . 22510.3.2 Sorgenti discrete senza memoria (DMS) . . . . . . . . . . . . . . . . 226

    10.4 Codifica di sorgente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22810.5 Codici per la compattazione dati . . . . . . . . . . . . . . . . . . . . . . . . 229

    10.5.1 Codici a lunghezza fissa . . . . . . . . . . . . . . . . . . . . . . . . . 23010.5.2 Codici a lunghezza variabile . . . . . . . . . . . . . . . . . . . . . . 23010.5.3 Codici univocamente decifrabili . . . . . . . . . . . . . . . . . . . . 23110.5.4 Codici a prefisso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23110.5.5 Condizioni per lunivoca decifrabilita` . . . . . . . . . . . . . . . . . 233

    10.6 Efficienza di codifica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23510.6.1 Codici di Shannon . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23610.6.2 Primo teorema di Shannon . . . . . . . . . . . . . . . . . . . . . . . 23910.6.3 Efficienza dei codici a lunghezza fissa . . . . . . . . . . . . . . . . . 240

    10.7 Codici di Huffmann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • INDICE v

    A Fattoriale e coefficiente binomiale 247A.1 Fattoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247A.2 Coefficiente binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247A.3 Espansioni binomiali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248

    B La funzione G(x) 251

    C Limpulso di Dirac 255

    Bibliografia 259

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • vi INDICE

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • Capitolo 1

    Probabilita` elementare

    1.1 Introduzione

    La teoria della probabilita` e` uno strumento matematico utile per lo studio dei cosiddettifenomeni aleatori, che sono fenomeni complessi o di difficile modellizzazione, che tut-tavia presentano una qualche forma di regolarita`, ed il cui comportamento puo` esseredescritto solo attraverso opportune grandezze globali o medie.

    Per esempio, il lancio di una moneta su un tavolo e` un fenomeno fisico che puo` esse-re certamente descritto in termini delle equazioni matematiche tipiche della cinematicae della dinamica; tuttavia e` estremamente difficile, se non praticamente impossibile, pursupponendo di conoscere esattamente la forma, il peso, la quantita` di moto iniziale del-la moneta, le caratteristiche del tavolo, e ogni altro parametro del problema, prevederequale faccia della moneta si manifestera` in un singolo lancio. Nonostante cio`, la nostraintuizione ci dice che se lanciamo la moneta (supposta non truccata) un numero suffi-cientemente elevato di volte, la percentuale di volte che si presentera` la faccia testa o lafaccia croce sara` prossima al 50%. Quindi, pur non essendo possibile prevedere il risul-tato di un singolo lancio, riconosciamo che il fenomeno aleatorio presenta una qualcheforma di regolarita` se si considera un numero elevato di lanci o ripetizioni dellesperimen-to. La teoria della probabilita` si occupa proprio di individuare, studiare e modellare taliregolarita`.1

    Un altro esempio di fenomeno aleatorio e` un fluido gassoso, composto da un nu-mero elevato di particelle in moto casuale. E` praticamente impossibile descrivere ilcomportamento del gas descrivendo il comportamento di ogni particella che lo compo-ne; tuttavia laggregato delle particelle tende ad esibire proprieta` regolari: ad esempio,la pressione del gas stesso e` una quantita` perfettamente definita e misurabile. La disci-

    1Lesempio del lancio di una moneta non e` scelto a caso: per lungo tempo, una delle principali appli-cazioni della teoria della probabilita` e` stato il calcolo delle percentuali di vittoria o di sconfitta per i piu`comuni giochi dazzardo (lancio di dadi, roulette, poker, etc.).

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 2 Probabilita` elementare

    plina che studia il comportamento dei gas con un approccio basato sulla teoria dellaprobabilita` prende il nome di meccanica statistica.

    Altri fenomeni aleatori che possono essere utilmente modellati attraverso la teoriadella probabilita` sono, ad esempio, larrivo di utenti ad uno sportello di una banca,nel quale e` impossibile prevedere con esattezza listante di arrivo di ciascun utente, mail comportamento globale dellinsieme degli utenti (ad esempio, la lunghezza mediadella coda allo sportello) puo` essere modellato con una certa esattezza. In un ambitocompletamente differente, gli arrivi possono essere le telefonate che giungono ad unacentrale telefonica, e la teoria della probabilita` puo` servire a dimensionare opportuna-mente il numero di linee di tale centrale. Lapplicazione della teoria della probabilita`a tali problemi ha determinato la nascita di una disciplina denominata teoria delle code,ampiamente utilizzata nellanalisi e nel progetto delle reti di telecomunicazioni.

    In ambito economico, la teoria della probabilita` e` stata utilizzata con successo permodellare aggregati composti da un gran numero di soggetti economici, quali ad esem-pio i mercati nei quali avvengono le transazioni di borsa. Se infatti e` impossibile pre-vedere con esattezza il comportamento del singolo investitore, tuttavia il comporta-mento globale di un gran numero di investitori tende ad esibire regolarita` che rendonopossibile una descrizione basata sui modelli della teoria della probabilita`.

    Un altro campo nel quale la teoria della probabilita` trova unimportante applicazio-ne e` lelaborazione e la trasmissione dellinformazione; bisogna infatti osservare che, persua natura, il concetto di informazione e` intrinsecamente legato a quello di impredici-bilita`. Ad esempio, laffermazione stanotte fara` buio non convoglia nessuna infor-mazione, semplicemente perche` e` una affermazione certa. Viceversa, una affermazionepoco probabile, quale domani il pianeta Terra sara` invaso dai marziani convoglia unagrande quantita` di informazione, perche poco probabile. La disciplina che studia i pro-blemi associati allinformazione con approccio probabilistico prende il nome di teoriadellinformazione; alcuni aspetti basilari di tale disciplina saranno introdotti e discussinel capitolo 10.

    Abbiamo fornito alcuni esempi, certamente non esaustivi, di applicazione della teo-ria della probabilita`, che dovrebbero evidenziare lampia portata e la rilevanza di taledisciplina. Siamo adesso pronti a porre le basi di tale teoria, che ha un forte contenutomatematico, ma che cercheremo di trattare in modo semplice, e con continuo ricorso adesempi. In particolare, prima di addentrarci nel vivo delle studio della teoria della pro-babilita`, richiamiamo brevemente alcuni concetti della teoria degli insiemi, che peraltrodovrebbero essere gia` noti al lettore, principalmente per familiarizzare con la notazioneche utilizzeremo nel seguito.

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 1.2 Richiami di teoria degli insiemi 3

    A

    B

    Fig. 1.1. Linsieme B e` sottoinsieme dellin-sieme A (B A).

    A

    A

    Fig. 1.2. Il complemento A = A di uninsieme A (in grigio).

    1.2 Richiami di teoria degli insiemi

    Un insieme A e` una collezione di oggetti, chiamati elementi dellinsieme. Un insieme puo`essere definito per enumerazione, vale a dire specificando in dettaglio i suoi elementi,per esempio A = {1, 2, . . . , n} o A = {bianco, rosso,verde}, oppure descrivendoquali proprieta` devono possedere tali elementi, ad esempio 2 A = { R tali che 0}. Per indicare che e` un elemento di A, si usa la notazione A. Linsieme vuoto e` linsieme che non contiene elementi.

    Per agevolare la comprensione delle relazioni che coinvolgono gli insiemi, e` utilericorrere ad un particolare tipo di rappresentazione grafica, denominata diagramma diVenn, nel quale gli insiemi sono rappresentati come porzioni del piano.

    Un sottoinsieme B di A e` un insieme i cui elementi sono anche elementi di A (Fig.1.1). Per indicare che B e` un sottoinsieme di A (ovvero e` incluso in A) si usa la notazioneB A. Se esiste almeno un elemento diA che non appartiene aB, B si dice sottoinsiemeproprio di A, e si indica B A (relazione di inclusione stretta). Si assume che linsiemevuoto sia sottoinsieme di un qualunque insieme. Nella logica formale, la relazione diinclusione corrisponde allimplicazione logica.

    La differenza A B tra due insiemi e` linsieme che contiene gli elementi di A chenon appartengono a B.

    Sia A un sottoinsieme di . Il complemento A di A (rispetto ad ) e` linsieme conte-

    2Qui e nel seguito denotiamo con R linsieme dei numeri reali, con N linsieme dei numeri naturali(interi positivi escluso lo zero), con Z linsieme dei numeri relativi (interi positivi e negativi, zero incluso).

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 4 Probabilita` elementare

    A B

    BA

    Fig. 1.3. Lunione A B di due insiemi (ingrigio).

    A B

    BA

    Fig. 1.4. LintersezioneAB di due insiemi(in grigio)

    nente tutti gli elementi di che non appartengono ad A (Fig. 1.2), ovvero A = A.Nella logica formale, il complemento corrisponde alloperazione di NOT.

    Lunione o somma di due insiemi e` linsieme (Fig. 1.3). che contiene tutti gli elementidi A, di B, o di entrambi. Lunione di due insiemi si denota con A B oppure A +B, e gode delle proprieta` commutativa e associativa. Nella logica formale, lunionecorrisponde alloperazione di OR (non esclusivo).

    Lintersezione o prodotto di due insiemi e` linsieme (Fig. 1.4). che contiene tutti glielementi comuni ad A e B. Lintersezione di due insiemi si denota con A B oppureAB, e gode delle proprieta` commutativa, associativa e distributiva rispetto allunione.Nella logica formale, lintersezione corrisponde alloperazione di AND.

    Le operazioni di unione ed intersezione possono essere estese a piu` di due insiemi,ed anche al caso di infiniti insiemi.

    Due insiemi A e B si dicono mutuamente esclusivi o disgiunti se A B = . Piu`insiemi A1, A2, . . . si dicono mutuamente esclusivi o disgiunti se Ai Aj = per ognii = j. Dati n insiemi A1, A2, . . . , An mutuamente esclusivi, si dice che essi costituisconouna partizione di se nk=1Ak = .

    La cardinalita` card(A) di un insieme A e` il numero degli elementi di A. Se A contieneinfiniti elementi, card(A) = . La cardinalita` di un insieme infinito puo` essere infinitanumerabile o infinita continua; si dice numerabile se comunque gli infiniti elementi diA si possono porre in corrispondenza biunivoca con linsieme N dei numeri naturali,altrimenti si dira` continua. Ad esempio, linsieme A dei numeri non negativi e pari e`un insieme con cardinalita` infinita numerabile; viceversa linsieme A = [0, 1] = {x R tali che 0 x 1} e` un insieme con cardinalita` infinita` continua. E facile verificare

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 1.3 Definizioni preliminari di probabilita` 5

    che la cardinalita` gode delle seguenti proprieta`:

    1. se A,B sono mutuamente esclusivi, allora card(A+B) = card(A) + card(B);

    2. in generale, se A,B non sono mutuamente esclusivi, si ha card(A+B) = card(A)+card(B) card(AB);

    3. se A B, allora card(A) card(B);4. card() = 0;

    Le leggi di de Morgan, utilizzate anche nella logica formale, mettono in relazione tra lorole operazioni di unione, intersezione e complementazione:

    A B = A B , (1.1)A B = A B . (1.2)

    Tali leggi possono essere estese anche allunione e allintersezione di uninfinita` nume-rabile di insiemi.

    1.3 Definizioni preliminari di probabilita`

    Iniziamo introducendo i concetti basilari di esperimento, spazio campione, ed evento.

    Definizione (esperimento). Un esperimento e` una procedura sperimentalecon un ben definito insieme di possibili risultati.

    Esempio 1.1. Un possibile esperimento e` il lancio di una moneta, con risultati con-venzionalmente denominati testa (T ) e croce (C); oppure il lancio di un dado, conpossibili risultati una faccia marcata con un numero intero tra uno e sei; oppure ancoralestrazione di un numero al gioco del lotto, con possibili risultati un numero intero tra1 e 90.

    Definizione (spazio campione). Lo spazio campione = {1, 2, . . . , n, . . . }(finito o infinito) associato ad un esperimento e` linsieme dei possibili risultatidellesperimento.

    Esempio 1.2. Nel lancio di una moneta lo spazio campione e` = {T,C}; nel lancio diun dado, lo spazio campione e` = {1, 2, 3, 4, 5, 6}; nellestrazione di un numero al lotto,lo spazio campione e` = {1, 2, . . . , 89, 90}.

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 6 Probabilita` elementare

    Definizione (evento). Dato uno spazio campione , si dice evento unqualunque sottoinsieme A di .

    Esempio 1.3. Nel lancio di una moneta un possibile evento e` A = {T} (evento ele-mentare, costituito da un solo elemento); nel lancio di un dado, un possibile eventoe` A = {pari} = {2, 4, 6}; nellestrazione di un numero al lotto, un possibile evento e`A = {minore di 10} = {1, 2, 3, . . . , 9}.

    Supponiamo allora di effettuare lesperimento e di ottenere il risultato : diremoallora che si e` verificato levento A se A. Allo stesso modo, diremo che:

    - non si e` verificato levento A, se A o, equivalentemente, se A;

    - si sono verificati gli eventi A e B, se A B;

    - si e` verificato levento A oppure B, se A B (gli eventi A e B potrebberoverificarsi anche entrambi, ovvero lOR non e` esclusivo).

    Ad esempio, poiche` sempre, levento (evento certo) si verifica ad ogni prova,mentre levento (evento impossibile) non si verifica in nessuna prova.

    Possiamo adesso introdurre i concetti di spazio degli eventi ed una prima definizionedi probabilita`. Per spazio degli eventi intendiamo linsieme B di tutti gli eventi di interesse(e` una collezione di insiemi). La probabilita` e` una funzione P definita sullo spazio deglieventi B e a valori in [0, 1]:

    P : A B P (A) [0, 1] .

    A questo punto sorge un problema fondamentale: dato un qualsiasi esperimento, e`abbastanza semplice identificare in maniera non ambigua lo spazio campione , glieventi A, lo spazio dei possibili eventi B. Ma come e` possibile specificare la legge diprobabilita`? Vediamo un semplice esempio.

    Esempio 1.4. Consideriamo il lancio di una moneta, il cui spazio campione denotiamocon = {T,C}. Come spazio degli eventi, consideriamo B = {{T}, {C}, {T,C}, {}},ovvero linsieme contenente tutti i sottoinsiemi di che, per un insieme con n elementi,sono in numero pari a 2n. 3 Possiamo assegnare la probabilita` a tutti gli eventi di B nel

    3Tale risultato si puo` facilmente motivare, se pensiamo che individuare un particolare sottoinsiemedi , che ha n elementi, equivale a costruire una stringa di n bit, nella quale ai simboli 0 si associa lamancanza nel sottoinsieme dellelemento di corrispondente, mentre ai simboli 1 si associa la sua pre-senza. Poiche` e` possibile costruire 2n distinte stringhe di n bit, tale sara` il numero dei distinti sottoinsiemidi .

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 1.4 Probabilita` assiomatica 7

    seguente modo:

    P ({T}) = P ({C}) = 1/2, per simmetria;P ({T,C}) = 1, evento certo;P ({}) = 0, evento impossibile.

    In questo caso, allora, abbiamo assegnato un valore numerico di probabilita` ad unqualunque evento dello spazio degli eventi.

    Nel semplice esempio precedente una plausibile legge di probabilita` si e` ottenuta sullabase di considerazioni intuitive e per motivi di simmetria. Tuttavia, per trattare casi piu`complicati e` necessario ricorrere ad un approccio sistematico. In particolare, e` possibileintrodurre degli assiomi o dei postulati4 a cui deve soddisfare una legge di probabilita`;questa strada e` quella seguita dallapproccio assiomatico, introdotto dal matematico russoA. N. Kolmogorov (19031987), ed e` quella ritenuta piu` soddisfacente dal punto di vistamatematico. Tuttavia, lapproccio assiomatico soffre di una limitazione fondamentale, ecioe` che si tratta di un approccio incompleto, come discuteremo piu` approfonditamentenel seguito.

    1.4 Probabilita` assiomatica

    Per costruire una legge di probabilita` secondo lapproccio assiomatico dobbiamo richie-dere qualche proprieta` particolare allo spazio B degli eventi di interesse. In particolare,dobbiamo richiedere che B possieda la struttura algebrica di campo o, piu` precisamente,di -campo o campo di Borel.

    1.4.1 Campi e -campi (campi di Borel)

    Iniziamo col definire il concetto di campo.

    Definizione (campo). Un campo B di eventi e` una collezione non vuota dieventi che soddisfa le seguenti proprieta`:

    1. A B A B (chiusura rispetto al complemento);2. A,B B A B B (chiusura rispetto allunione).

    Sulla base delle proprieta` 12, e` facile dimostrare che, se B e` un campo, si ha:4Ricordiamo che, in una teoria formale, un assioma o un postulato e` unasserzione che non devessere

    dimostrata. Ad esempio, lassioma fondamentale della geometria euclidea e` il cosiddetto assioma dellerette parallele: per un punto non appartenente ad una retta, passa una ed una sola retta parallela alla rettadata.

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 8 Probabilita` elementare

    1. , B.

    Prova. Infatti, poiche` B e` non vuoto, contiene almeno un elemento A A B (per la proprieta` 1) A A = B (per la proprieta` 2) = B (per la proprieta` 1).

    2. se A,B B, allora A B B.

    Prova. Se A,B B A,B B (per la proprieta` 1) AB B (per la proprieta` 2) A B B(per la proprieta` 1). Ma A B = A B per le leggi di de Morgan.

    Lapplicazione ripetuta delle proprieta` 2 e 2 mostra che ogni insieme che possa essereespresso come unione e/o intersezione di un numero finito di elementi di B appartieneanchesso ad B. Tale proprieta` non rimane valida, tuttavia, se si considera un numeroinfinito di insiemi, che e` un caso di interesse nella teoria della probabilita`. E allora ne-cessario estendere il concetto di campo al caso di infiniti insiemi, definendo il cosiddetto-campo o campo di Borel.

    Definizione (-campo o campo di Borel). Un -campo B o campo di Borel dieventi e` un campo che soddisfa, oltre alle proprieta` 1 e 2, anche la seguente:

    3. {Ai}i=1 B i=1Ai B (chiusura rispetto allunione numerabile).

    Applicando le leggi di de Morgan e` facile verificare che anche i=1Ai appartiene a B(chiusura rispetto allintersezione numerabile).

    Notiamo poi che poiche` e devono necessariamente appartenere ad B, ne segueche B = {,} e` il piu` semplice -campo che posso costruire e prende il nome di campodi Borel banale.

    Osserviamo in conclusione che la distinzione tra campo e -campo e` significativa seil numero di eventi possibili e` infinito, il che puo` accadere solo se lo spazio campione ha infiniti elementi. Viceversa, se lo spazio campione ha un numero n finito dielementi, linsieme B costituito da tutti i 2n sottoinsiemi di B e` sicuramente un campo(e anche un -campo), poiche` contiene tutti i possibili sottoinsiemi di . In generalelinsieme di tutti i possibili sottoinsiemi e` sempre un -campo, tuttavia se e` infinitocontinuo tale -campo potrebbe essere un insieme troppo ampio per definire una validalegge di probabilita` su di esso. Approfondiremo meglio questo concetto nel 1.6.2.

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 1.4 Probabilita` assiomatica 9

    1.4.2 Assiomi di Kolmogorov

    A questo punto abbiamo introdotto le definizioni preliminari e siamo in grado di fornireuna definizione assiomatica di probabilita`.

    Definizione (probabilita` assiomatica). Assegnato uno spazio campione edun -campo B di eventi di , si definisce probabilita` una funzione P defini-ta in B e a valori in [0, 1], tale da soddisfare i seguenti tre assiomi (assiomi diKolmogorov):

    I. P (A) 0 per ogni A B (assioma di non negativita`);II. P () = 1 (assioma di normalizzazione);

    III. Se {Ai}i=1 e` una successione di eventi mutuamente esclusivi (Ai Aj =,i = j) di B, allora P (i=1Ai) =

    i=1 P (Ai) (assioma di numerabile

    additivita`).

    Lintera teoria della probabilita` discende dai precedenti assiomi in maniera deduttiva.

    1.4.3 Proprieta` elementari della probabilita`

    A partire dagli assiomi di Kolmogorov, applicando semplici concetti di teoria degliinsiemi, e` possibile ricavare le seguenti proprieta` elementari della probabilita`.

    1. P () = 0.

    Prova. Scegliendo A1 = e Ai = , i > 1 (tali Ai risultano chiaramente mutuamente esclusivi),risulta i=1Ai = + = . Per lassioma III allora si ha:

    P () = P (i=1Ai) =i=1

    P (Ai) = P () +i=2

    P ()

    da cui risulta necessariamente P () = 0.

    2. A,B B, A B = P (A B) = P (A) + P (B) (finita additivita`).

    Prova. Segue dallassioma III e dalla proprieta` 1, scegliendo A1 = A, A2 = B, Ai = , i > 2.

    3. P (A) = 1 P (A),A B.Prova. Poiche` A A = e A A = , per la proprieta` 2 e per lassioma II si ha:

    P (A A) = P (A) + P (A) = P () = 1 P (A) = 1 P (A) .

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 10 Probabilita` elementare

    4. P (A B) = P (A) + P (B) P (A B).Prova. Utilizzando i diagrammi di Venn (Fig. 1.5) e` facile verificare che:

    A B = A AB

    con A e AB mutuamente esclusivi. Allo stesso modo (Fig. 1.5, si ha:

    B = S B = (A+A) B = AB AB

    con AB e AB mutuamente esclusivi. Applicando la proprieta` 2 si ha:

    P (A B) = P (A) + P (AB) ,P (B) = P (AB) + P (AB) .

    Eliminando P (AB) tra le due equazioni si ottiene il risultato.

    Notiamo che P (AB) P (A) +P (B) perche` P (AB) 0. Si ha uguaglianza see solo se P (A B) = 0 (eventi mutuamente esclusivi).

    5. B A P (B) P (A).Prova. Utilizzando i diagrammi di Venn (Fig. 1.6) e` facile verificare che, se B A, si ha:

    A = B AB

    con B e AB mutuamente esclusivi. Per la proprieta` 2 si ha:

    P (A) = P (B AB) = P (B) + P (AB) P (B) P (A)

    perche` P (AB) 0.

    6. P (A) 1,A B.

    Prova. Segue direttamente dalla proprieta` precedente e dallassioma II scegliendo B = .

    In sostanza, per definire una legge di probabilita`, occorre specificare: 1) uno spaziocampione ; 2) un -campo B di eventi di ; 3) una funzione P definita su B e a va-lori in [0, 1] che soddisfi gli assiomi I-III di Kolmogorov. La terna (,B, P ) prende ilnome di spazio di probabilita`. Si noti che, nellapproccio assiomatico, tutta la teoria dellaprobabilita` viene costruita in maniera deduttiva a partire dagli assiomi di Kolmogorov.

    Esempio 1.5. Riprendiamo lesempio del lancio di una moneta. Abbiamo definito lospazio campione = {T,C} ed il -campo B = {{T}, {C}, {T,C}, {}}. Per definireuna legge di probabilita` bisogna allora assegnare le probabilita` agli eventi. A tale scopoe` sufficiente assegnare le probabilita` ai cosiddetti eventi elementari {T} e {C}. Una sceltaragionevole e`:

    P ({T}) = P ({C}) = 1/2 ,

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 1.5 Altri approcci alla teoria della probabilita` 11

    A

    B

    ABAB

    Fig. 1.5. Diagramma di Venn delle rela-zioni A B = A AB e B = AB AB.

    A

    BA B

    Fig. 1.6. Diagramma di Venn della rela-zione A = B AB (valida se B A).

    tuttavia se assegniamo le probabilita` come:

    P ({T}) = 1/3 , P ({C}) = 2/3 ;e` facile vedere che anche tale assegnazione soddisfa gli assiomi di Kolmogorov. Alloraqual e` la legge di probabilita` corretta?

    Lesempio precedente mette in luce la principale limitazione dellapproccio assiomaticodi Kolmogorov, ovvero il fatto che esso e` un sistema di assiomi incompleto, non consentecioe` di determinare univocamente quali debbano essere le probabilita` degli eventi. Co-me si fa allora a capire quale sia la legge di probabilita` corretta? In pratica una voltadefinita una legge di probabilita` che soddisfa allapproccio assiomatico, si utilizza talelegge per effettuare previsioni sullesperimento (ad esempio, per calcolare probabilita` dieventi piu` complessi a partire da probabilita` di eventi semplici). Se le previsioni sonoaccurate (validazione sperimentale) le probabilita` ipotizzate sono corrette, altrimenti e`necessario modificare la legge (i valori) di probabilita`. Il processo si puo` iterare fino adavere un accordo soddisfacente tra valori teorici e valori sperimentali.

    1.5 Altri approcci alla teoria della probabilita`

    Lapproccio assiomatico e` quello piu` recentemente proposto per la teoria della probabi-lita`. Storicamente, nel corso degli anni, oltre allapproccio assiomatico si sono sviluppatialmeno altri due importanti approcci: lapproccio frequentista e lapproccio classico.5

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 12 Probabilita` elementare

    1.5.1 Approccio frequentista

    Lapproccio frequentista, dovuto a R. E. von Mises (18831953), definisce la probabilita`di un evento nel seguente modo: se un esperimento e` ripetuto n volte e se levento A siverifica nA volte, si definisce probabilita` dellevento A il limite della frequenza di successo:

    P (A) = limn

    nAn

    . (1.3)

    Lapproccio frequentista e` un approccio induttivo, cioe` un approccio che si basa (o vor-rebbe basarsi) sullesperienza, e presenta il vantaggio innegabile di essere vicino al no-stro concetto intuitivo di probabilita`; tuttavia non e` del tutto soddisfacente per fornireuna definizione operativa di probabilita`, perche` non e` possibile ripetere un esperimen-to un numero infinito di volte. Inoltre, dal punto di vista teorico, lesistenza stessa dellimite nella (1.3) puo` essere messa in discussione.

    E` interessante interpretare gli assiomi di Kolmogorov in senso frequentista, visto chela nostra interpretazione intuitiva di probabilita` e` proprio quella frequentista. Infatti, seinterpretiamo la probabilita` come frequenza di successo dellevento A su n prove, cioe`trascuriamo loperazione di limite nella (1.3), ponendo

    P (A) =nAn

    ,

    si ha:

    I. P (A) 0, banalmente perche` nA 0 ed n > 0;

    II. P () = 1, perche` n = n (levento certo si verifica ad ogni prova);

    III. se A B = , allora nA+B = nA + nB perche` non possono verificarsi entrambisimultaneamente. Allora:

    P (A+B) =nA+Bn

    =nAn

    +nBn

    = P (A) + P (B) .

    Si noti che abbiamo scritto il terzo assioma per semplicita` nella forma finita, per evitarelastrazione insita nel considerare infiniti eventi.

    5Non consideriamo qui, perche` poco scientifico, lapproccio soggettivista, secondo il quale la pro-babilita` esprime il grado di aspettativa soggettiva di un individuo relativamente al verificarsi di unevento.

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 1.5 Altri approcci alla teoria della probabilita` 13

    1.5.2 Approccio classico

    Nellapproccio classico, dovuto a P. S. Laplace (17491827), la probabilita` di un eventosi determina a priori come il rapporto

    P (A) =NAN

    ,

    dove N e` il numero dei possibili risultati dellesperimento ed NA e` il numero dei risultatifavorevoli allevento A.

    Esempio 1.6. Consideriamo il lancio di un dado, per il quale = {1, 2, 3, 4, 5, 6}. Siapoi A = {pari} = {2, 4, 6}. Sulla base dellapproccio classico, risulta NA = card(A) = 3,N = card() = 6, per cui P (A) = card(A)

    card()= 1

    2.

    Lapproccio classico e` anchesso, come quello assiomatico, di tipo deduttivo, cioe` si fon-da su postulati. Inoltre e` facile verificare che le leggi di probabilita` costruite a partiredallapproccio classico soddisfano gli assiomi di Kolmogorov. A prima vista, poi, lap-proccio classico pare piu` soddisfacente dellapproccio assiomatico, in quanto medianteesso e` possibile assegnare dei precisi valori alle probabilita`. Tuttavia, i limiti insiti nellu-so di tale approccio appaiono chiari se ragioniamo piu` approfonditamente sullesempioprecedente. Infatti, il valore di probabilita` dellesempio precedente e` corretto a pattoche si assuma che il dado non sia truccato. E se viceversa assumessi il dado trucca-to? Secondo lapproccio classico, otterrei esattamente lo stesso valore di probabilita`, ilche ovviamente non e` il risultato corretto, e rappresenta una grossa limitazione di taleapproccio. Potrei modificare la definizione classica richiedendo che i risultati da consi-derare siano equiprobabili, ma in questo modo userei il concetto di equiprobabilita` perdefinire il concetto di probabilita`, cioe` ricadrei in un circolo vizioso o tautologico.

    1.5.3 Vantaggi dellapproccio assiomatico

    Tra i tre approcci (assiomatico, frequentista, classico) visti, quello assiomatico e` proba-bilmente il meno intuitivo, basandosi su concetti della teoria degli insiemi e sullintro-duzione di una serie di assiomi cui deve soddisfare la definizione di probabilita`. No-nostante il suo carattere poco intuitivo, e` lunico approccio che consente di definire ma-tematicamente la teoria della probabilita` in maniera soddisfacente ed elegante, evitan-do una serie di incongruenze ed inconsistenze tipiche dellapproccio frequentista e diquello classico. In particolare, lintera teoria viene ad assumere un carattere puramentededuttivo, discende cioe` in maniera logica e rigorosa dagli assiomi della probabilita` cos`come, ad esempio, la geometria euclidea discende dal postulato sul numero di rette pa-rallele ad una retta data passanti per un punto. Per questo motivo, quello assiomatico

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 14 Probabilita` elementare

    e` stato riconosciuto dai matematici come lapproccio piu` soddisfacente alla teoria dellaprobabilita`, e sara` quello considerato nella trattazione che segue.

    Tuttavia anche gli approcci frequentista e classico presentano alcuni vantaggi. Insintesi, e` possibile affermare che:

    lapproccio frequentista e` quello piu` vicino al nostro concetto intuitivo di probabi-lita`, e spesso e` daiuto per interpretare intuitivamente i risultati ottenuti;

    lapproccio classico serve ad assegnare i valori di probabilita` in molti casi pra-tici (es. giochi, scommesse, etc.), in cui i risultati possibili si possono ritenereequiprobabili;

    lapproccio assiomatico e` quello piu` soddisfacente dal punto di vista formale (ma-tematico), ma non consente di fissare univocamente i valori numerici delle proba-bilita` da assegnare agli eventi (incompletezza).

    1.6 Esempi di spazi di probabilita`

    Per concludere questo primo capitolo, consideriamo alcuni esempi di spazi di probabi-lita`; per semplicita` di trattazione, considereremo prima il caso piu` semplice di spazi diprobabilita` discreti, e successivamente quello piu` astratto di spazi di probabilita` continui.

    1.6.1 Spazi di probabilita` discreti

    Sia = {1, 2, . . . , n, . . . } un insieme discreto, vale a dire di cardinalita` finita o infinitanumerabile. In tal caso, e` possibile scegliere come -campo linsieme cos` definito:

    B = {tutti i sottoinsiemi di , incluso} .

    Osserviamo che A B si puo` esprimere come unione al piu` numerabile di eventi elemen-tari {ij}, cioe`

    A = j=1{ij} .

    Poiche` gli eventi elementari sono mutuamente esclusivi, allora si ha, per lassioma III,

    P (A) =j=1

    P ({ij}) .

    Pertanto, per assegnare la probabilita` di un qualunque evento A, e` sufficiente assegna-re le probabilita` degli eventi elementari pi P ({i}), i , garantendo che, per

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 1.6 Esempi di spazi di probabilita` 15

    lassioma II,

    P () =i=1

    P ({i}) =i=1

    pi = 1 . (1.4)

    Consideriamo il caso di un insieme di cardinalita` finita (card() = N ): se e` possi-bile assumere gli eventi elementari equiprobabili (per motivi di simmetria o applicandoil cosiddetto principio di ragione insufficiente 6 ) risulta necessariamente, per la (1.4),

    pi =1

    N

    ed inoltre si ha, evidentemente,

    P (A) =card(A)

    card(). (1.5)

    Si osservi, peraltro, che tale risultato e` esattamente equivalente alla definizione di pro-babilita` secondo lapproccio classico, che quindi puo` riguardarsi come lapplicazionedellapproccio assiomatico a spazi campione finiti con eventi elementari equiprobabi-li, un caso tipico della teoria dei giochi e delle scommesse. Osserviamo inoltre esplici-tamente che determinare la probabilita` di un evento A secondo la (1.5) e` equivalente acontare gli elementi di A e quelli di . Evidentemente, se card() = non e` possibileassumere gli eventi equiprobabili, in quanto avrei P () = in tal caso!

    In definitiva, la (1.5) mostra che in molti casi il calcolo delle probabilita` di eventi siriduce ad un problema puramente combinatorio, consistente cioe` nel contare gli elementidi un insieme, problema semplice in linea di principio, ma la cui applicazione a casireali puo` giungere a notevoli livelli di complessita`. Per problemi non troppo difficili, leprincipali formule del calcolo combinatorio sono spesso sufficienti, e sono riportate inTab. 1.1. La definizione di coefficiente binomiale

    (nk

    )e di fattoriale n!, insieme con le

    principali proprieta`, sono riportate in Appendice A.

    Esempio 1.7. Consideriamo il lancio di una moneta. In tal caso lo spazio campionee` = {T,C}, e come -campo B e` possibile scegliere linsieme di tutti i possibili sot-toinsiemi di (pari a 22 = 4). Per assegnare la legge di probabilita`, basta assegnare laprobabilita` degli eventi elementari {T} e {C}. Per simmetria, poniamo:

    P ({T}) = P ({C}) = 1/2

    e le probabilita` di tutti gli altri eventi in B si ricavano da queste. 6Tale principio, noto anche come rasoio di Occam, dal nome del filosofo inglese William of Ockham

    (1280-1349) che lo formulo`, stabilisce che, se si deve scegliere tra diverse ipotesi riguardanti un fenomeno,bisogna scegliere la piu` semplice.

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 16 Probabilita` elementare

    senza sostituzione con sostituzione

    ordinaten!

    (n k)! nk

    non ordinate(n

    k

    ) (n+ k 1

    k

    )

    Tab. 1.1. Numero di possibili disposizioni di n oggetti su k posti.

    Esempio 1.8. Consideriamo il lancio di un dado, per il quale lo spazio campione e` = {1, 2, 3, 4, 5, 6}, e come -campo B e` possibile scegliere linsieme di tutti i possibilisottoinsiemi di (pari a 26 = 64). Per assegnare la legge di probabilita`, basta asse-gnare la probabilita` degli eventi elementari {1}, {2}, {3}, {4}, {5}, {6}. Per simmetria,poniamo:

    P ({1}) = P ({2}) = = P ({6}) = 1/6e le probabilita` di tutti gli altri eventi in B si ricavano da queste.

    Esempio 1.9. Consideriamo il lancio di due monete uguali, o di una moneta due volte.In tal caso, lo spazio campione e` = {TT, TC,CT,CC}, e come -campo B e` possibilescegliere linsieme di tutti i possibili sottoinsiemi di (pari a 24 = 16). Osserviamo chelevento

    A = {esce testa al primo lancio}non e` un evento elementare. Infatti:

    A = {TT} {TC} .Per assegnare la legge di probabilita` basta assegnare la probabilita` degli eventi elemen-tari {TT}, {TC}, {CT}, {CC}. Per simmetria, poniamo:

    P ({TT}) = P ({TC}) = P ({CT}) = P ({CC}) = 1/4e le probabilita` di tutti gli altri eventi in B si ricavano da queste. Ad esempio, perlevento A definito precedentemente, si ha:

    P (A) = P ({TT}) + P ({TC}) = 1/4 + 1/4 = 1/2

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 1.6 Esempi di spazi di probabilita` 17

    perche` {TT} {TC} = (gli eventi elementari sono sempre mutuamente esclusivi) eper lassioma III di Kolmogorov.

    1.6.2 Spazi di probabilita` continui

    Lo spazio 7 campione si dice continuo se ha una cardinalita` infinita non numerabile,ovvero se ha infiniti elementi, che pero` non si possono mettere in relazione biunivocacon linsieme N dei numeri naturali. Esempi di spazi campione continui sono = R, = (a, b), = R2, = R3. In pratica considereremo solo spazi continui che sonosottoinsiemi dello spazio euclideo Rk.

    Se e` continuo,8 non e` conveniente scegliere come -campo B linsieme di tutti isottoinsiemi di . Questultimo e` senzaltro un -campo, anzi e` il -campo piu` grandeche e` possibile concepire, ma si puo` dimostrare che e` impossibile costruire una validalegge di probabilita` (che soddisfi gli assiomi di Kolmogorov) su di esso. Lapprocciocorretto e` invece scegliere B come il piu` piccolo -campo che contiene tutti gli insiemiaperti di .

    Esempio 1.10. Se = R, allora e` possibile definire B come il piu` piccolo -campo checontiene tutti gli intervalli aperti ]a, b[ di . Si puo` facilmente verificare che comple-mentando, unendo ed intersecando uninfinita` numerabile di intervalli di questo tipo, siottengono tutti i tipi di intervalli [a, b], [a, b[, ]a, b], ]a, b[, cos` come i punti isolati {a}, etutti i loro complementi, unioni e intersezioni. Tuttavia e` possibile (anche se non imme-diato) costruire sottoinsiemi di che non stanno in B, e quindi B non contiene tutti isottoinsiemi di .

    Per assegnare la legge di probabilita` su , si considera una funzione reale f(x) 0tale che

    f(x) dx = 1 (1.6)

    e si pone, per ogni A B,

    P (A) = P ({x A}) A

    f(x) dx .

    Si puo` facilmente osservare che una tale legge di probabilita` rispetta gli assiomi diKolmogorov. Infatti, P (A) 0 perche` f(x) 0 (primo assioma); P () = f(x) dx =1 per la (1.6) (secondo assioma); infine, se A e B sono insiemi disgiunti, si ha P (AB) =P (A) + P (B) per ladditivita` dellintegrale (terzo assioma).

    7Le sezioni contrassegnate dal simbolo possono essere saltate ad una prima lettura.8Osserviamo che per definire rigorosamente leggi di probabilita` su spazi continui sono necessari

    concetti di teoria della misura (secondo Lebesgue).

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 18 Probabilita` elementare

    Notiamo che se A = [y, y +y] e se f(x) e` limitata, si ha:

    limy0

    P (A) = limy0

    P ({y x y +y}) = P ({x = y}) = limy0

    y+yy

    f(x) dx = 0 ,

    quindi gli eventi elementari {x = y} hanno probabilita` nulla. Questo risultato, apparen-temente sorprendente, non e` in contrasto con lassioma di normalizzazione (P () = 1)e con lassioma di numerabile additivita` perche` non e` numerabile.

    Daltra parte, se f(x) e` continua, si ha anche:

    P (A) =

    y+yy

    f(x) dx f(y)y

    e si puo` porre allora

    f(y) = limy0

    P (A)

    y,

    per cui la funzione f(y) si puo` interpretare come densita` di probabilita`. Notiamo che taledensita` di probabilita` e` diversa da zero, anche se la probabilita` dellevento {x = y} e`nulla.

    Nellesempio precedente, un punto non completamente chiaro e` la scelta della funzionef(x). Anche qui emerge lincompletezza dellapproccio assiomatico, ovvero ogni fun-zione f(x) 0 che soddisfi la (1.6) definisce una valida legge di probabilita`. Ma, sevogliamo invocare il principio di ragione insufficiente, qual e` la scelta piu` semplice dafare? A prima vista, sembrerebbe che, in mancanza di altre informazioni, scegliere f(x)costante sia la cosa piu` semplice. Tale scelta non e` tuttavia lecita se non e` limitato,perche` una funzione costante e positiva avrebbe integrale infinito su un insieme nonlimitato, e quindi non potrebbe soddisfare la (1.6). La scelta di una funzione costantee` viceversa perfettamente legittima se e` limitato, ad esempio se = [x1, x2], comediscusso nel seguente esempio.

    Esempio 1.11. Si consideri lesperimento consistente nellarrivo a caso di una telefo-nata ad una centrale telefonica nellintervallo [t1, t2]. In tal caso, il risultato dellesperi-mento e` un numero reale x [t1, t2], che rappresenta listante di arrivo della telefonata,per cui lo spazio campione e` = [t1, t2]. Come -campo, tenendo conto dellosser-vazione fatta nel precedente esempio, scegliamo il piu` piccolo -campo che contienetutti gli intervalli aperti ]a, b[ [t1, t2]. Come legge di probabilita`, in mancanza di altreinformazioni, scegliamo una funzione f(x) cos` definita:

    f(x) =

    {, se x [t1, t2];0, altrimenti.

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 1.6 Esempi di spazi di probabilita` 19

    Tale f(x) si dice uniforme in [t1, t2]. Imponiamo ora che la (1.6) sia soddisfatta: t2t1

    f(x) dx = 1 = 1t2 t1 .

    In base a questa definizione, la probabilita` che giunga una telefonata in un intervalloA = [a, b] e`:

    P (A) =1

    t2 t1

    ba

    dx =b at2 t1 .

    Osserviamo che, poiche` b a e` la misura dellintervallo [a, b], e t2 t1 e` la misuradellintervallo = [t1, t2], la probabilita` P (A) si puo` interpretare come una misuranormalizzata:

    P (A) =misura(A)

    misura().

    Tale interpretazione della probabilita` mostra i legami della teoria della probabilita` conla teoria della misura, e prende il nome di probabilita` geometrica.

    Esempio 1.12 (problema dellincontro). Un esempio di spazio di probabilita` continuo suun sottoinsieme di R2 e` il cosiddetto problema dellincontro, una cui possibile formula-zione e` la seguente: due amici, Tizio e Caio, si recano, per caso e indipendentementeluno dallaltro, nello stesso bar nellintervallo [0, T ], e ciascuno si trattiene per t1 e t2secondi.

    Tale esperimento puo` essere descritto in termini probabilistici come segue. Il risul-tato dellesperimento e` una coppia ordinata di numeri (x, y), con x [0, T ] e y [0, T ],dove x ed y rappresentano rispettivamente gli istanti di arrivo del primo e del secon-do amico. Lo spazio campione e` allora il quadrato = [0, T ] [0, T ] R2. Come-campo, potremo scegliere il piu` piccolo -campo che contiene tutti i rettangoli apertiA =]a, b[]c, d[. Come legge di probabilita`, infine, in analogia al precedente esempio,utilizzeremo la misura normalizzata, corrispondente a scegliere una densita` di probabi-lita` uniforme nel quadrato; se cioe` A e` un evento, ovvero e` un sottoinsieme del quadratoappartenente ad B, e se misura(A) rappresenta la sua misura (unarea, in questo caso),allora porremo:

    P (A) =misura(A)

    misura(),

    dove misura() = misura(quadrato) = T 2. Ad esempio, la probabilita` che (x, y) A =[a, b] [c, d] e` data da:

    P (A) =(b a)(d c)

    T 2.

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 20 Probabilita` elementare

    y

    x

    C

    T

    T

    Fig. 1.7. Problema dellincontro: C = {x y} rappresenta levento Tizio arriva primadi Caio.

    y

    x

    D

    T1

    T2

    y=x + t1

    y=x t2t1

    t2

    T

    T

    Fig. 1.8. Problema dellincontro: D = {x t2 y x + t1} rappresenta leventoTizio e Caio si incontrano.

    Una volta individuato un corretto modello probabilistico, possiamo affrontare il cal-colo della probabilita` di un qualsiasi evento, e data la definizione della probabilita` co-me misura normalizzata, il calcolo si puo` effettuare utilizzando semplici considerazionigeometriche.

    Ad esempio, sia C il seguente evento: Tizio arriva prima di Caio. In termini nume-rici, risulta evidentemente C = {x y}, per cui levento C e` il triangolo rappresentatoin Fig. 1.7. Si ha allora:

    P (C) =misura(C)

    misura()=T 2/2

    T 2=

    1

    2.

    Calcoliamo adesso la probabilita` dellevento D definito come segue: Tizio e Caio siincontrano. Evidentemente, cio` si verifica se:

    arriva prima Tizio, e risulta y x+t1;

    arriva prima Caio, e risulta x y +t2.

    Le due disuguaglianze si possono scrivere come lunica disuguaglianza x t2 y x + t1, per cui levento D e` rappresentato in Fig. 1.8. Larea del dominio D si ottienefacilmente per sottrazione, in quanto si ha:

    misura(D) = misura()misura(T1)misura(T2)

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 1.6 Esempi di spazi di probabilita` 21

    e le aree dei triangoli T1 e T2 sono:

    misura(T1) =(T t1)2

    2,

    misura(T2) =(T t2)2

    2,

    da cui sostituendo si ha il risultato finale:

    P (D) =misura(D)

    misura()=

    t1 +t2T

    (t21 +t

    22

    2T 2

    ).

    Ad esempio, se T = 60 (minuti) e t1 = t2 = 5 (minuti), si ha P (D) 0.139.

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 22 Probabilita` elementare

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • Capitolo 2

    Probabilita` condizionale e indipendenza

    2.1 Introduzione

    Nel precedente capitolo abbiamo introdotto le basi della teoria della probabilita`, ed inparticolare abbiamo visto come calcolare la probabilita` di un evento A appartenentead uno spazio di probabilita` (,B, P ), o di unioni, complementazioni e intersezioni dipiu` eventi. Tuttavia, anche nelle relazioni che coinvolgono piu` eventi di uno spazio diprobabilita`, non abbiamo approfondito le relazioni di dipendenza o indipendenza tra talieventi. Approfondiremo tale analisi nel corso di questo capitolo, introducendo dappri-ma il concetto di probabilita` condizionale, che costituisce il punto di partenza delle nostreconsiderazioni.

    2.2 Probabilita` condizionale

    Siano A e B due eventi di uno spazio di probabilita` (,B, P ). Vogliamo mettere in rela-zione, in senso probabilistico, gli eventi A e B, introducendo una misura dellincertezzaresidua suA sapendo cheB si e` verificato. Tale misura e` fornita dalla cosiddetta probabilita`condizionale di A dato B, definita nel modo seguente:

    Definizione (probabilita` condizionale). Sia (,B, P ) uno spazio di probabi-lita`, e siano A,B B due eventi, con P (B) = 0. La probabilita` condizionale (ocondizionata) di A dato B e`:

    P (A|B) = P (AB)P (B)

    . (2.1)

    Ricordiamo che, nella (2.1), AB rappresenta lintersezione A B. Esercizio 2.1. In un lancio di un dado ben equilibrato, calcolare la probabilita` che esca6 sapendo che (dato che) e` uscito un numero pari.

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 24 Probabilita` condizionale e indipendenza

    Svolgimento. Definiamo come al solito lo spazio campione = {1, 2, 3, 4, 5, 6}, e glieventi A = {6}, B = {pari} = {2, 4, 6}. Assumendo gli eventi elementari equiprobabili,si ha:

    P (A) = 1/6 ,

    P (B) = 3/6 = 1/2 ,

    P (AB) = P (A) = 1/6 ,

    P (A|B) = 1/61/2

    = 1/3 .

    Si noti che P (A|B) > P (A), cioe` e` aumentata la probabilita` che esca 6 se sappiamo chee` uscito un numero pari, come e` naturale.

    Il concetto espresso nel precedente esercizio si puo` formalizzare come segue:

    se P (A|B) > P (A), allora A e` attratto da B. se P (A|B) < P (A), allora A e` respinto da B. se P (A|B) = P (A), A e` indifferente a B; in questo caso vedremo nel seguito (cfr. 2.3) che A e B sono statisticamente indipendenti.

    Esempio 2.1. Dati gli eventiA = {oggi piove} eB = {oggi e` estate}, si ha che P (A|B)

    P (A) cioe` aumenta la probabilita` che oggipiova se so che e` inverno.

    Dalla definizione (2.1), il lettore puo` facilmente dimostrare che:

    1. se B A, allora P (A|B) = 1; infatti, poiche` B implica A, se sappiamo che si e`verificato B allora siamo certi che si sia verificato anche A;

    2. se A B, allora P (A|B) = P (A)P (B)

    P (A); in tal caso, e` A ad implicare B (e nonviceversa), e quindi se sappiamo che si e` verificato B non possiamo affermare concertezza che si sia verificato anche A; tuttavia, la probabilita` P (A|B) che A si siaverificato dato B e` non inferiore alla probabilita` P (A) che A si sia verificato se nonabbiamo nessuna informazione su B.

    E interessante notare che, per un fissato B, la probabilita` condizionale definisce unavera e propria legge di probabilita` su B, in quanto gli assiomi di Kolmogorov risulta-no soddisfatti. Pertanto tutti i risultati e le proprieta` validi per le probabilita` valgonougualmente anche per le probabilita` condizionali.Prova. Per provarlo, verifichiamo che, dato B con P (B) = 0, la P (|B) soddisfa gli assiomi di Kolmogo-rov. Si ha:

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 2.2 Probabilita` condizionale 25

    I. P (A|B) 0,A B banalmente;

    II. P (|B) = P ( B)P (B)

    =P (B)P (B)

    = 1;

    III. Se A1 ed A2 sono mutuamente esclusivi:

    P (A1 A2|B) = P [(A1 A2)B]P (B)

    =P (A1B A2B)

    P (B).

    Ma A1B ed A2B sono anchessi mutuamente esclusivi (Fig. 2.1) per cui:

    P (A1 A2|B) = P (A1B) + P (A2B)P (B)

    = P (A1|B) + P (A2|B) .

    Similmente vale per la numerabile additivita`.

    A1

    A2

    A1B

    B

    A2B

    Fig. 2.1. Diagramma di Venn che mostrache se A1 ed A2 sono mutuamente esclu-sivi, anche A1B ed A2B sono mutuamenteesclusivi.

    B

    AA

    E

    E

    Fig. 2.2. Diagramma di Venn della relazio-ne E = B E = A B, con E = A B.

    Una interpretazione leggermente differente e` quella che la probabilita` condizionale de-finisce una legge di probabilita` PB su un nuovo spazio campione = B, con eventi deltipo E = A B (A B).Prova. Consideriamo il nuovo spazio campione B = B, come -campo linsieme BB composto da tuttigli insiemi del tipo E = AB, con A B, e come legge di probabilita` su B la PB definita dalla seguente:

    PB(E) P (AB)P (B)

    .

    Osserviamo preliminarmente che, nel nuovo spazio campione B = B, il complemento di E va intesorispetto a B, cioe` si ha E = B E.

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 26 Probabilita` condizionale e indipendenza

    Il punto centrale e` dimostrare che BB e` effettivamente un -campo. Anzitutto, notiamo che BB none` vuoto, perche` BB . Se poi E BB , allora E = A B, E = B E = B A B = A B (Fig.2.2). Ma A B BB perche` A B. Similmente, se E1, E2 BB , allora E1 = A1 B e E2 = A2 B, percui E1 E2 = (A1 A2) B BB perche` A1 A2 B. Similmente si prova anche la chiusura rispettoallunione numerabile.

    A questo punto e` banale verificare che la PB soddisfa gli assiomi di Kolmogorov:

    I. PB(E) 0,E BB banalmente;

    II. PB(B) =P (B B)P (B)

    =P (B)P (B)

    = 1;

    III. Se E1 ed E2 sono mutuamente esclusivi:

    PB(E1 E2) = P [(A1 A2)B]P (B)

    =P (A1B A2B)

    P (B).

    Ma A1B ed A2B sono mutuamente esclusivi per cui:

    P (E1 E2) = P (A1B) + P (A2B)P (B)

    = PB(E1) + PB(E2) .

    2.2.1 Legge della probabilita` composta

    Una conseguenza banale della definizione di probabilita` condizionale e` la legge dellaprobabilita` composta:

    P (A B) = P (A|B)P (B) = P (B|A)P (A) . (2.2)

    A rigore, per ricavare tale legge dalla definizione (2.1), e` necessario supporre che P (A)e P (B) siano non nulle. Tuttavia, si osservi che essa vale formalmente anche se P (A)e/o P (B) e` zero, e quindi la probabilita` condizionale non e` ben definita. Infatti, in talcaso, dalla relazione AB A e AB B si ricava necessariamente P (AB) = 0. Siosservi, infine, che la probabilita` P (A B) prende il nome di probabilita` congiunta deglieventi A e B.

    Esercizio 2.2. Una scatola contiene 3 palle bianche (w1, w2, w3) e 2 rosse (r1, r2). Si ri-muovono due palle in successione. Qual e` la probabilita` che la prima sia bianca e laseconda rossa?

    Svolgimento. Lo spazio campione e` costituito da tutte le coppie ordinate di palle, chesono esattamente venti:

    = {w1w2, w1w3, w1r1, w1r2, w2w1, w2w3, . . . , r1r2} .

    Infatti, la prima palla puo` essere scelta in 5 modi differenti; fissata la prima palla, laseconda puo` essere scelta in 4 modi differenti, per cui ho un totale di 5 4 = 20 differenti

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 2.2 Probabilita` condizionale 27

    modi. Piu` formalmente, le disposizioni ordinate senza sostituzione di n elementi su kposti sono n!/(n k)! (cfr. Tab. 1.1), e nel caso in questione n = 3+ 2 = 5 e k = 2, da cuiil risultato.

    Levento C = {prima palla bianca, seconda rossa} e` costituito da 6 elementi:

    C = {w1r1, w2r1, w3r1, w1r2, w2r2, w3r2} .

    Se assumiamo gli eventi elementari equiprobabili e con probabilita` pari ad 1/20, alloraP (C) = 6/20 = 3/10.

    Vediamo se possiamo applicare il concetto di probabilita` condizionale per arrivareallo stesso risultato. Definiamo:

    C = {prima palla bianca, seconda rossa} = {prima bianca} A

    {seconda rossa} B

    per cui, applicando la legge della probabilita` composta, si ha:

    P (C) = P (AB) = P (B|A)P (A) .

    Ora:

    P (A) = P ({prima bianca}) = 3/5

    e rimane da calcolare

    P (B|A) = P ({seconda rossa}|{prima bianca}) .

    Se la prima palla estratta e` bianca rimangono nella scatola 4 palle, 2 bianche e 2 rosse P (B|A) = 1/2. Per cui:

    P (C) = P (B|A)P (A) = 35 12=

    3

    10.

    Notiamo che con questo approccio non e` stato necessario determinare (contare) il nu-mero di elementi di .

    2.2.2 Regola della catena

    E` possibile estendere la definizione di probabilita` condizionata anche al caso di piu`eventi condizionanti. Per esempio, si ha:

    P (A|B,C) P (ABC)P (BC)

    , P (BC) = 0 .

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 28 Probabilita` condizionale e indipendenza

    Si noti che P (A|B,C) e` da intendersi come P (A|BC), cioe` si condiziona allevento BC.Riscrivendo la precedente, si trova allora una legge di fattorizzazione analoga alle leggedella probabilita` composta:

    P (ABC) = P (A|B,C)P (BC)e poiche`, per la legge della probabilita` composta, P (BC) = P (B|C)P (C), si ottiene:

    P (ABC) = P (A|B,C)P (B|C)P (C) .Applicando tale relazione iterativamente al caso di n eventi A1, A2, . . . , An, si ha lacosiddetta regola della catena per il calcolo della probabilita` congiunta di n eventi:

    P (A1A2 An) = P (A1)P (A2|A1)P (A3|A1, A2) P (An|A1, A2, . . . , An1) .La regola precedente si applica indipendentemente dallordine in cui si consideranogli eventi. In effetti, poiche` esistono n! permutazioni degli eventi A1, A2, . . . , An, lafattorizzazione secondo la regola della catena puo` avvenire in n! modi distinti.

    2.2.3 Teoremi della probabilita` totale e di Bayes

    Due importanti proprieta` della probabilita` condizionale, che risultano estremamenteutili nelle applicazioni, sono contenute nei due teoremi seguenti.

    Teorema 2.1 (probabilita` totale). SianoA1, A2, . . . , An eventi mutuamente esclusivi (AiAj = , i = j) e sia B ni=1Ai. Si ha:

    P (B) =ni=1

    P (B|Ai)P (Ai) .

    Prova. Si faccia riferimento al diagramma di Venn in Fig. 2.3. Poiche` B ni=1Ai B = B {ni=1Ai} B = ni=1(B Ai). Ma se gli Ai sono mutuamente esclusivi, anche gli eventi B Ai lo sono. Allora peril III assioma si ha:

    P (B) =ni=1

    P (B Ai) .

    Per la legge della probabilita` composta, si ha:

    P (B Ai) = P (B|Ai)P (Ai)

    valida anche se P (Ai) = 0. Sostituendo nella precedente si ha lasserto.

    Nella pratica puo` essere complicato verificare la condizione B ni=1Ai, per cui spessosi assume che gli insiemi A1, A2, . . . , An, mutuamente esclusivi, costituiscano una par-tizione di . In tal caso ni=1Ai = per cui la condizione precedente risulta senzaltroverificata.

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 2.2 Probabilita` condizionale 29

    B

    A1

    A2A3

    A4

    A1BA2B

    A3B

    A4B

    Fig. 2.3. Diagramma di Venn del teorema della probabilita` totale (n = 4).

    Teorema 2.2 (Bayes). Siano A1, A2, . . . , An eventi mutuamente esclusivi (Ai Aj = ,i = j) e sia B ni=1Ai. Si ha:

    P (Ai|B) = P (B|Ai)P (Ai)ni=1 P (B|Ai)P (Ai)

    .

    La probabilita` P (Ai) e` spesso definita probabilita` a priori, mentre la P (Ai|B) e` definitaprobabilita` a posteriori.Prova. Il teorema e` una conseguenza banale della legge della probabilita` composta e del teorema dellaprobabilita` totale. Infatti, per la legge della probabilita` composta, si ha:

    P (B Ai) = P (B|Ai)P (Ai) = P (Ai|B)P (B)per cui:

    P (Ai|B) = P (B|Ai)P (Ai)P (B)

    .

    Sostituendo P (B) come espresso dal teorema della probabilita` totale nella precedente si ha lasserto.

    Il teorema di Bayes vale nelle stesse ipotesi del teorema della probabilita` totale; inoltreentrambi i teoremi possono estendersi al caso in cui gli eventi Ai condizionanti sianouninfinita` numerabile.

    Esercizio 2.3. Si considerino 3 scatole che contengono componenti elettronici:

    nella scatola 1, ci sono 2000 componenti, di cui il 5% (100 componenti) difettosi; nella scatola 2, ci sono 1000 componenti, di cui il 40% (400 componenti) difettosi;

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 30 Probabilita` condizionale e indipendenza

    nella scatola 3, ci sono 1000 componenti, di cui il 10% (100 componenti) difettosi;Si seleziona una scatola a caso, e successivamente si rimuove un componente a casodalla scatola.

    1. Qual e` la probabilita` che il componente scelto sia difettoso?

    2. Sapendo che un componente e` difettoso, qual e` la probabilita` che provenga dallascatola 2?

    Svolgimento. Iniziamo con losservare che se i componenti fossero tutti in ununicascatola, avrei 4000 componenti in totale, di cui 600 difettosi. Quindi la probabilita` diestrarre un componente difettoso sarebbe pari a 600

    4000= 0.15.

    Lesperimento pero` e` condotto in maniera differente. Prima si sceglie la scatola, esuccessivamente il componente allinterno della scatola. Definiamo allora i seguentieventi:

    A1 = {il componente proviene dalla scatola 1} ,A2 = {il componente proviene dalla scatola 2} ,A3 = {il componente proviene dalla scatola 3} ,B = {il componente e` difettoso} .

    Poiche` la scatola e` scelta a caso, allora:

    P (A1) = P (A2) = P (A3) = 1/3 .

    Inoltre, gli eventi A1, A2 e A3 sono mutuamente esclusivi e A1 A2 A3 = . Si ha poi:P (B|A1) = 0.05 ,P (B|A2) = 0.40 ,P (B|A3) = 0.10 .

    Poiche` siamo nelle ipotesi del teorema della probabilita` totale, possiamo scrivere:

    P (B) = P (B|A1)P (A1) + P (B|A2)P (A2) + P (B|A3)P (A3) .Sostituendo i valori numerici si trova P (B) 0.18, che pertanto e` la risposta al primoquesito.

    Per rispondere al secondo, possiamo applicare il teorema di Bayes:

    P (A2|B) = P (B|A2)P (A2)P (B)

    0.73 .

    Notiamo che la probabilita` a posteriori che il componente provenga dalla scatola 2, sa-pendo che e` difettoso, e` molto maggiore della probabilita` a priori che il componenteprovenga dalla stessa scatola, che e` pari ad 1/3.

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 2.3 Indipendenza tra eventi 31

    Esercizio 2.4. Si dispone di un test per individuare una malattia molto rara, che col-pisce 1 persona su 100 000. Il test e` abbastanza affidabile: se la malattia e` presente, laindividua con probabilita` 0.95; se la malattia non e` presente, il test e` falsamente positivocon probabilita` 0.005. Se il test dice che la malattia e` presente, qual e` la probabilita` cheil paziente abbia effettivamente la malattia?

    Svolgimento. Definiamo i tre eventi:

    A1 = {il paziente ha la malattia} ,A2 = {il paziente non ha la malattia} ,B = {il test e` positivo} .

    Dobbiamo allora calcolare la probabilita`:

    P (A1|B) = P (il paziente ha la malattia|il test e` positivo) .

    Poiche` gli eventi A1 ed A2 sono mutuamente esclusivi, e A1 A2 = , possiamo adope-rare il teorema di Bayes, e scrivere:

    P (A1|B) = P (B|A1)P (A1)P (B|A1)P (A1) + P (B|A2)P (A2) .

    Ora, con la notazione introdotta, si ha:

    P (A1) =1

    100 000= 105 ,

    P (A2) = 1 1100 000

    = 1 105 = 0.99999 ,P (B|A1) = 0.95 ,P (B|A2) = 0.005 .

    Sostituendo i valori numerici, si trova P (A1|B) 2 103; nonostante il test sembriabbastanza affidabile, la rarita` della malattia lo rende praticamente inutile. Pertanto,effettuare uno screening di massa per individuare una malattia rara e` economicamentepoco conveniente.

    2.3 Indipendenza tra eventi

    Un concetto fondamentale nella teoria della probabilita` e` quello dellindipendenza traeventi, che puo` intuitivamente ricavarsi dal concetto di probabilita` condizionale. Infatti,si considerino due eventi A e B: in base ad un ragionamento intuitivo, se gli eventi sono

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 32 Probabilita` condizionale e indipendenza

    indipendenti, ci aspettiamo che sapere che B si sia verificato non altera in nessun modola probabilita` che si verifichi A. In formule, deve risultare:

    P (A|B) = P (A) .Si noti che sostituendo tale espressione nella legge di probabilita` composta (2.2) si ha:

    P (AB) = P (A)P (B) (2.3)

    ed inoltre dalla definizione di probabilita` condizionale (2.1) si ha pure

    P (B|A) = P (B)e quindi lindipendenza e` una proprieta` simmetrica (se A e` indipendente da B, anche Be` indipendente da A). Peraltro, la (2.3) implica sia P (A|B) = P (A) che P (B|A) = P (B),per cui, sebbene meno intuitiva, si assume la seguente come definizione di indipenden-za tra due eventi.

    Definizione (indipendenza). Due eventi A e B sono indipendenti se

    P (AB) = P (A)P (B) .

    Tale definizione afferma che la probabilita` congiunta P (AB) si fattorizza nel prodottodelle probabilita` P (A) e P (B), che prendono il nome di probabilita` marginali.

    Esempio 2.2. Consideriamo lesempio, gia` visto, del lancio di due monete uguali, odi una moneta due volte. Lo spazio campione e` = {TT, TC,CT,CC}, e abbiamoassunto gli eventi elementari equiprobabili e con probabilita` pari ad 1/4, per simmetria.Consideriamo ora gli eventi:

    A = {testa al primo lancio} ,B = {testa al secondo lancio} ,

    e verifichiamo che essi sono statisticamente indipendenti. Si ha:

    A = {TT, TC} ,B = {CT, TT} ,

    P (AB) = P ({TT}) = 1/4 ,P (A) = 2/4 = 1/2 ,

    P (B) = 2/4 = 1/2 ,

    per cui P (AB) = P (A)P (B), e quindi gli eventi sono statisticamente indipendenti. Al-lo stesso modo si vede che sono statisticamente indipendenti tutti gli eventi del tipo{T/C al primo lancio} e {T/C al secondo lancio}.

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 2.3 Indipendenza tra eventi 33

    Abbiamo gia` osservato che la definizione di indipendenza implica che P (A|B) = P (A)e P (B|A) = P (B). Inoltre, se A e B sono indipendenti, e` facile provare che risultanoindipendenti anche A e B, A e B, A e B.

    Prova. Infatti, si ha:

    P (AB) = P (B|A)P (A) = [1 P (B|A)]P (A) = [1 P (B)]P (A) = P (B)P (A) .

    P (AB) = P (A|B)P (B) = [1 P (A|B)]P (B) = [1 P (A)]P (B) = P (A)P (B) .

    P (AB) = P (A|B)P (B) = [1 P (B|A)]P (A) = [1 P (B)]P (A) = P (B)P (A) .

    2.3.1 Indipendenza di tre o piu` eventi

    Il concetto di indipendenza si puo` estendere a tre o piu` eventi.

    Definizione (indipendenza di tre eventi). Gli eventi A, B e C si diconoindipendenti se:

    1. sono indipendenti a coppie, cioe` P (AB) = P (A)P (B), P (AC) =P (A)P (C), P (BC) = P (B)P (C);

    2. P (ABC) = P (A)P (B)P (C) .

    Si noti che non e` possibile assumere solo la seconda fattorizzazione come definizionedi indipendenza, in quanto e` possibile costruire esempi per i quali risulta P (ABC) =P (A)P (B)P (C) mentre P (AB) = P (A)P (B) etc.

    Generalizzando al caso di n eventi, definiamo esplicitamente il concetto di indipen-denza e quello di indipendenza a coppie.

    Definizione (indipendenza a coppie). Gli eventi Ai si dicono indipendenti acoppie se

    P (AiAj) = P (Ai)P (Aj), i = j .

    Definizione (indipendenza di n eventi). Gli eventi {Ai} si dicono indipen-denti se

    P (iIAi) =iI

    P (Ai) ,

    per ogni insieme I di indici diversi.

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 34 Probabilita` condizionale e indipendenza

    In pratica, la definizione precedente afferma che qualunque probabilita` congiunta diun numero arbitrario di eventi Ai distinti si fattorizza nel prodotto delle corrispondentiprobabilita` marginali. Va osservato esplicitamente che lindipendenza a coppie non im-plica necessariamente lindipendenza, mentre lindipendenza implica lindipendenza acoppie, a terne, a quaterne, etc.

    Esempio 2.3. Due concetti spesso confusi sono quello di eventi indipendenti e di even-ti mutuamente esclusivi. Mentre lindipendenza implica la fattorizzazione P (AB) =P (A)P (B), due eventi mutuamente esclusivi sono tali che AB = , per cui P (AB) = 0.Inoltre il concetto di eventi mutuamente esclusivi ha una chiara interpretazione sui dia-grammi di Venn (gli insiemi A e B non si sovrappongono), mentre il concetto di eventiindipendenti no. In definitiva, i due concetti non hanno alcuna relazione reciproca,salvo nel caso banale in cui P (A) = 0 oppure P (B) = 0.

    2.3.2 Indipendenza condizionale tra eventi

    E possibile anche definire il concetto di indipendenza condizionale tra due eventi dato unterzo evento.

    Definizione (indipendenza condizionale tra eventi). Due eventi A e B sidicono condizionalmente indipendenti dato un terzo evento C, se

    P (AB|C) = P (A|C)P (B|C) .Si noti che lindipendenza condizionale non implica lindipendenza di A e B, se non nelcaso in cui C = . Allo stesso modo, per quanto meno intuitivamente comprensibile,lindipendenza tra A e B non implica lindipendenza condizionale rispetto ad un terzoevento C.

    2.4 Esperimenti combinati

    In molti casi interessa affrontare il seguente problema: dati piu` esperimenti, ognuno deiquali descritto in termini probabilistici, descrivere lesperimento combinato, risultantedalla combinazione dei singoli esperimenti. Per far questo, e` necessario costruire unnuovo spazio di probabilita`, denominato spazio di probabilita` prodotto, sullesperimentocombinato. Tale concetto e` sviluppato nellesempio seguente.

    Esempio 2.4. Supponiamo di avere due esperimenti, cui siano associati due spazi diprobabilita` (1,B1, P1) e (2,B2, P2). Per fissare le idee, si consideri come primo espe-rimento il lancio di una moneta, con spazio campione 1 = {T,C}, e come secondo

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 2.4 Esperimenti combinati 35

    esperimento il lancio di un dado, con spazio campione 2 = {1, 2, 3, 4, 5, 6}. Gli spazi diprobabilita` associati a ciascuno di tali esperimenti si costruiscono nel modo consueto.

    Consideriamo adesso lesperimento combinato (lancio di una moneta e di un dado),che ha come spazio campione il prodotto cartesiano di 1 ed 2:

    = 1 2 = {(T, 1), (T, 2), . . . , (T, 6), (C, 1), (C, 2), . . . , (C, 6)}

    costituito da 2 6 = 12 coppie ordinate. Poiche` e` un insieme finito, possiamo con-siderare come -campo B linsieme di tutti i 212 sottoinsiemi di . Notiamo che tale-campo B conterra`, tra gli altri, eventi del tipo A B, con A B1 e B B2. Adesempio, se A = {T} e B = {pari}, si avra` A B = {(T, 2), (T, 4), (T, 6)}. Possiamo in-terpretare levento AB nel modo seguente: si verifica levento AB nellesperimentocombinato se si verifica levento A nellesperimento 1 e levento B nellesperimento 2.Tuttavia non tutti gli eventi di B sono del tipo A B: si pensi ad esempio alleventoC = {(T, 1), (C, 2)}, che non puo` essere interpretato come AB.

    A questo punto per completare la descrizione probabilistica dellesperimento com-binato resta da fissare la legge di probabilita` su B. Osserviamo che si ha:

    P (A 2) = P1(A)P (1 B) = P2(B)

    dove P1 e` la legge di probabilita` su 1 e P2 e` la legge di probabilita` su 2. Infatti A2 e`levento dellesperimento combinato corrispondente al fatto che nel primo esperimentosi verifichi levento A e nel secondo si verifichi levento certo 2. Pertanto la probabi-lita` devessere pari a quella relativa al solo esperimento 1, ovvero a P1(A). In manieraanaloga si ragiona per la seconda relazione.

    Dallesempio precedente, abbiamo osservato che non tutti gli eventi di 1 2 sonodel tipo A B, e quindi B non e` semplicemente dato da B1 B2: daltra parte, se 1ed 2 sono insiemi finiti di cardinalita` n1 ed n2, e se B1 e B2 sono linsieme di tutti isottoinsiemi di 1 e 2, rispettivamente, si ha che card(B1) = 2n1 e card(B2) = 2n2 , percui card(B1 B2) = 2n1+n2 mentre card(B) = 2n1n2 . In generale e` possibile costruire il-campo B partendo da B1 B2 e aggiungendo complementi, unioni e intersezioni diun numero finito o infinito numerabile di insiemi. I precedenti concetti possono essereformalizzati dalla seguente definizione:

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 36 Probabilita` condizionale e indipendenza

    Definizione (spazio di probabilita` prodotto). Si considerino due spazi di pro-babilita` (1,B1, P1) e (2,B2, P2). Si definisce spazio di probabilita` prodotto lospazio di probabilita` (,B, P ) dove:

    lo spazio campione e` il prodotto cartesiano 1 2, ovvero i risultati dellesperimento combinato sono del tipo = (1, 2), con 1 1 e2 2;

    il -campo degli eventi B e` il piu` piccolo -campo contenente eventi deltipo AB, con A B1 e B B2;

    la legge di probabilita` P definita su B deve soddisfare le seguentiproprieta` (di consistenza):

    P (A 2) = P1(A), A B1 ; (2.4)P (1 B) = P2(B), B B2 . (2.5)

    La precedente definizione puo` essere facilmente estesa al caso di n > 2 esperimenti.Notiamo che le (2.4) e (2.5) consentono di determinare, a partire dagli spazi di pro-

    babilita` sui singoli esperimenti, solo le probabilita` di eventi del tipo A 2 e 1 B,ma non quelle di un qualsiasi evento di B. Daltra parte, in generale, assegnare solo leleggi di probabilita` P1 e P2 sui due esperimenti componenti non consente di determi-nare la legge di probabilita` dellesperimento combinato: abbiamo bisogno di qualcheinformazione sulla relazione di dipendenza che ce` tra i due esperimenti.

    2.4.1 Esperimenti indipendenti

    Un caso particolarmente semplice e` quello in cui si suppone che gli esperimenti sianoindipendenti.

    Definizione (esperimenti indipendenti). Siano (1,B1, P1) e (2,B2, P2) duespazi di probabilita`, e sia (,B, P ) lo spazio di probabilita` prodotto. Gli espe-rimenti si diranno indipendenti se gli eventi (A 2) e (1 B) dello spazioprodotto sono statisticamente indipendenti per ogni A B1 e B B2.

    In sostanza, dalla definizione di indipendenza 1, si ha che per tutti gli eventi di B chepossono essere espressi come AB, con A B2 e B B2, poiche risulta:

    AB = (A 2) (1 B) ,1Notiamo che tale definizione puo` apparire piu` elaborata della precedente definizione di indipen-

    denza di eventi, vale a dire P (AB) = P (A)P (B), ma non e` sostanzialmente differente: bisogna infattiosservare che per parlare di indipendenza tra due eventi bisogna che i due eventi A e B appartengonoad uno stesso spazio di probabilita`. Pertanto, bisogna prima costruire lo spazio di probabilita` prodotto.

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 2.4 Esperimenti combinati 37

    si ha:

    P (AB) = P [(A 2) (1 B)] = P (A 2)P (1 B) = P1(A)P2(B) .

    In particolare, osserviamo che per gli eventi elementari di si ha (1, 2) = {1}{2},per cui P (1, 2) = P1(1)P2(2).

    E` facile dimostrare che lipotesi di indipendenza consente di calcolare completamen-te le probabilita` dello spazio prodotto in termini delle probabilita` degli spazi componen-ti. Infatti, dalla definizione di -campo costruito sullo spazio di probabilita` prodotto, unqualunque evento di B si potra` esprimere come complemento, unione o intersezione (alpiu` numerabile) di eventi del tipo A B; allora e` possibile completamente specificarela legge di probabilita` P sullo spazio prodotto semplicemente a partire dalle leggi diprobabilita` P1 e P2 definite sugli spazi componenti.

    Esempio 2.5. Torniamo al caso del lancio di una moneta e di un dado. Se supponiamoche gli esperimenti siano indipendenti, e la moneta ed il dado non siano truccati, avro`ad esempio:

    P (T, 1) = P1(T )P2(1) =1

    2 16=

    1

    12.

    Poiche` lo spazio campione dellesperimento combinato e` composto da 12 elementi, e`facile riconoscere che i risultati dellesperimento combinato sono equiprobabili e conprobabilita` 1/12.

    Esempio 2.6. Lancio di una moneta 2 volte (i lanci sono assunti indipendenti):

    1 = {T,C} ,2 = {T,C} , = 1 2 = {TT, TC,CT,CC} .

    Poiche` i due lanci sono assunti indipendenti, allora

    P (TT ) = P1(T )P2(T ) =1

    2 12=

    1

    4

    e similmente per le altre.

    Notiamo che nella pratica lindipendenza statistica tra due o piu` esperimenti si giustificacon considerazioni di natura fisica o intuitiva.

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 38 Probabilita` condizionale e indipendenza

    Esempio 2.7. Consideriamo come primo esperimento il seguente: si sceglie a caso unapersona in un gruppo, il risultato dellesperimento e` la sua altezza h. Come secon-do esperimento, possiamo considerare il seguente: si sceglie a caso una persona in ungruppo, il risultato dellesperimento e` il suo peso p. Lesperimento combinato puo` esse-re descritto nel modo seguente: si sceglie a caso una persona in un gruppo, il risultatodellesperimento e` una coppia (h, p) rappresentante laltezza ed il peso della persona. E`chiaro, da considerazioni intuitive, che i due esperimenti non sono indipendenti, perche`esiste una chiara relazione di dipendenza fisica tra altezza e peso di una persona.

    Consideriamo, invece, un terzo esperimento definito nel modo seguente: si sceglie acaso una persona in un gruppo, il risultato dellesperimento e` il colore dei suoi occhi. E`chiaro adesso che le stesse motivazioni intuitive ci indurranno a ritenere indipendenti ilprimo ed il terzo esperimento, cos` come il secondo ed il terzo, in quanto non esiste nes-suna relazione evidente e dimostrata tra laltezza ed il colore degli occhi di una persona,oppure tra il peso ed il colore degli occhi di una persona.

    Esempio 2.8. Riprendiamo il problema dellincontro (esempio 1.12), per mostrare co-me esso si possa interpretare come esperimento combinato. Possiamo infatti costruiredue spazi di probabilita` (1,B1, P1) e (2,B2, P2) che descrivono, rispettivamente, li-stante x di arrivo di Tizio e listante y si arrivo di Caio. Risulta 1 = 2 = [0, T ],e come legge di probabilita` su 1 ed 2 potremo assumere quella uniforme, cioe` seA = [a, b] 1, si avra`:

    P1(A) =misura(A)

    misura(1)=b aT

    e similmente se B = [c, d] 2 si avra`:

    P2(B) =misura(B)

    misura(2)=d cT

    .

    Lo spazio campione prodotto sara` = 12 = [0, T ] [0, T ], cioe` il quadrato di lato T .Se assumiamo che larrivo di Tizio sia indipendente da quello di Caio, gli esperimentisono indipendenti, per cui possiamo porre:

    P ((x, y) [a, b] [c, d]) = P (AB) = P1(A)P2(A) = (b a)(d c)T 2

    ,

    che e` lo stesso risultato che abbiamo gia` ricavato nellesempio 1.12.

    Esercizio 2.5. Si hanno due scatole:

    la scatola S1 contiene 10 palle bianche e 5 rosse;

    autore prof. Giacinto Gelli - prelevato da www.riccardogalletti.com/appunti_gratis

  • 2.4 Esperimenti combinati 39

    la scatola S2 contiene 20 palle bianche e 20 rosseSi estrae una palla da ogni scatola. Calcolare la probabilita` che la palla estratta dallascatola S1 sia bianca e quella estratta dalla scatola S2 sia rossa.

    Svolgimento. Gli spazi campione e le leggi di probabilita` associate ai singoli esperimentisono i seguenti (si assumono gli eventi elementari equiprobabili):

    1 = {10 bianche, 5 rosse} P1(i) = 1/15 ;2 = {20 bianche, 20 rosse} P2(i) = 1/40 .

    Lo spazio campione dellesperimento combinato = 12 ha 1540 = 600 elementi,ognuno con probabilita` 1/600. Sia:

    A = {si estrae una palla bianca da S1} P1(A) = 1015

    =2