distribuzione normale

50
8.2 - La distribuzione normale 101 8.2 La distribuzione normale La funzione normale (o funzione di Gauss), che esamineremo poi in detta- glio nel prossimo capitolo mettendo l’accento sui suoi legami con le misure ripetute delle grandezze fisiche, è una funzione di frequenza per la x che dipende da due parametri μ e σ (con la condizione σ> 0) definita come Figura 8c - L’andamento della funzione N(x;0, 1) per la variabile normale standardizzata (ossia con media 0 e varianza 1). 0.5 0.4 0.3 0.2 0.1 0 -5 -3 -1 1 3 5 f(x) N(x; μ,σ) = 1 σ 2π e 1 2 ( xμ σ ) 2 . L’andamento della funzione normale è quello delineato nella figura 8c: quando x = μ si ha un punto di massimo, nel quale la funzione ha il valore

Upload: pasriv

Post on 17-Aug-2015

229 views

Category:

Documents


4 download

DESCRIPTION

distribuzione normale

TRANSCRIPT

8.2-Ladistribuzionenormale 1018.2 LadistribuzionenormaleLa funzione normale (o funzione di Gauss), che esamineremo poi in detta-glio nel prossimo capitolo mettendolaccento sui suoi legami con le misureripetutedellegrandezzesiche, unafunzionedifrequenzaperlaxchedipende da due parametri e (con la condizione > 0) denita comeFigura8c-LandamentodellafunzioneN(x; 0, 1)perlavariabilenormalestandardizzata (ossia con media 0 e varianza 1).0.50.40.30.20.10-5 -3 -1 1 3 5f(x)N(x; , ) =12e12(x)2.Landamentodellafunzionenormalequellodelineatonellagura8c:quandox = si ha un punto di massimo, nel quale la funzione ha il valore102 Capitolo 8-Esempididistribuzioniteoriche y =(2)10.4/. Lalarghezzaametaltezza5pariallampiezzadellintervallocheseparaiduepunti x1edx2diascissa 2 ln2ediordinata y1 = y2=y/2:e vale quindi 22 ln2 2.35.Lafunzionegeneratricedei momenti denitaattraversolequazione(6.4) e, nel caso della distribuzione normale, abbiamoMx(t) =_+etx12e12(x)2dx=et2_+et(x)e12(x)2dx=et2_+e_2t22(x2t)222_dx= e_t+2t22__+12e12_x(+2t)_2dx.Riconoscendo nellargomento dellintegrale la funzione N(x; +2t, ),ovverosia la funzione normale relativa ai parametri +2t e , immediatocapire che esso vale 1 in conseguenza della condizione di normalizzazione;quindi la funzione generatrice dei momenti, per la distribuzione normale, data daMx(t)=e_t+2t22_(8.2)e, conpassaggi simili, si potrebbetrovarelafunzionecaratteristicadelladistribuzione normale: che valex(t)=e_it2t22_. (8.3)Sfruttando la (8.2) facile calcolare la speranza matematica delladistri-buzione normale:E(x)=dMx(t)dtt=0=;la funzione generatrice dei momenti rispetto alla media vale alloraMx(t)=etMx(t)=e2t22(8.4)e dalla (8.4) si ricava poi la varianza della x,Var(x)=d2Mx(t)dt2t=0=2.5IngenereindicataconlasiglaFWHM, acronimodi full widthat half maximum; unparametrotalvoltausatonellapraticapercaratterizzareunacurva, perchfaciledamisurare su un oscilloscopio.8.2-Ladistribuzionenormale 103Vista la simmetria dellafunzione,tuttii suoi momentidi ordine disparirispettoallamediasononulli; mentrequellidiordineparisoddisfanoallaformula generale (valida per qualsiasi interok)2k=E__x E(x)_2k_=(2k)!2kk!2k(8.5)con2=E__x E(x)_2_ = 2.Nelcasoparticolarediunavariabilenormaleconvaloremedio =0evarianza2= 1 (variabilenormalestandardizzata),la funzionegeneratricedei momenti diventaMx(t)Mx(t)=et22e la funzione caratteristicax(t)=et22.Dimostriamo ora il seguente importanteTeorema: combinazionilinearidivariabilicasualinormalietut-te statisticamente indipendenti tralorosonoancoradistribuitesecondo lalegge normale.SianoNvariabili normalixk(con k = 1, . . . , N), e sianokek2i loro valorimedi e le loro varianze rispettivamente; consideriamo poi la nuova variabilecasuale ydenita dallay =N_k=1akxk(oveleaksonocoecienti costanti). Lafunzionecaratteristicadi ognunadellexk , dalla (8.3),xk(t) = e_itkk2t22_e quella della variabile ausiliaria k = akxk, dallequazione (6.17),k(t)=xk(akt)=e_iaktkk2ak2t22_.104 Capitolo 8-EsempididistribuzioniteoricheInne, la funzione caratteristica dellayvale, essendoy =N_k=1ke ricordando lequazione (6.11), applicabile perch anche le k sono indipen-denti tra loro, otteniamoy(t) =N

k=1k(t)=N

k=1e_itakk12t2ak2k2_= e_it(

kakk)12t2(

kak2k2)_= e_itt222_ove si posto =N_k=1akke 2=N_k=1ak2k2.Questa appunto la funzione caratteristica di una nuova distribuzione nor-male; e, invirtdi unodei teoremi enunciati nel paragrafo6.4, quantodimostrato prova la tesi.8.3 LadistribuzionediCauchyLadistribuzionediCauchy(odistribuzionedi BreitWigner, nomeconilquale pi nota nel mondo della sica) denita da una densit di probabi-litche corrispondeallafunzione, dipendentedadueparametried(conla condizione d > 0),f(x; , d)=1d11 +_xd_2. (8.6)Anchesela(8.6) integrabile, elasuafunzioneintegrale, ovverosialafunzione di distribuzione dellax, valeF(x; , d) =_xf(t) dt=12 +1arctan_x d_8.3-LadistribuzionediCauchy 105Figura 8d - Landamento della distribuzione di Cauchy, per = 0 e d = 1.0.30.20.10-10 -8 -6 -4 -2 0 2 4 6 8 100.4106 Capitolo 8-Esempididistribuzioniteorichenessuno deimomentiesiste, nemmeno la media. la mediana delladistribuzione ed ne misura la larghezza a met al-tezza, come rilevabile ad esempio dalla gura 8d.La funzione caratteristicadella distribuzione di Cauchy lax(t; , d) = eit|t| d;per la cosiddettavariabilestandardizzata,u =x dfunzionedi frequenza, funzionedi distribuzioneefunzionecaratteristicavalgono rispettivamente___f(u)=1 (1 +u2)F(u)=12 +1arctanuu(t)=e|t|Secondo la funzione (8.6) sono, ad esempio, distribuite le intensit nellerighespettrali di emissioneedi assorbimentodegli atomi(chehannounaampiezzanonnulla); elamassainvariantedellerisonanzenellasicadel-leparticelleelementari. evidentepercomenellasicaladistribuzionedi Cauchy possa descrivere questi fenomeni solo in prima approssimazione:infatti essasiannullasoloperx , edchiaramenteprivadisigni-catosicounaprobabilitnonnulladi emissionespettraleperfrequenzenegative, o di masse invarianti anchesse negative nel caso delle risonanze.Per ladistribuzione diCauchytroncata,ossia quelladescrittadallafun-zione di frequenza (per la variabile standardizzata)f(u| K u K) =___0 |u| > K12 arctanK1(1 +u2)|u| K(discontinua in u = K), esistono invece i momenti: i primi due valgonoE(u| K u K) = 0eVar(u| K u K) =KarctanK 18.3-LadistribuzionediCauchy 107SelexksonoNvariabili casuali indipendenti cheseguonoladistribu-zionedi Cauchyconparametri kedk, unagenericalorocombinazionelinearey =N_k=1akxksegue la stessa distribuzione: infatti la funzione generatrice per le xk xk(t) = eikt|t|dke, denendok = akxk e ricordando la (6.17),k(t)=xk(akt)=eiakkt|t||ak| dk;inne, applicando la (6.11),y(t)=N

k=1k(t)=eiyt|t|dyove si postoy =N_k=1akke dy =N_k=1|ak|dk.Unaconseguenzaimportantecheil valoremediodi uncampionedimisure proveniente da una popolazione che segua la distribuzione di Cauchyconcertiparametried(inquestocasotutteleaksonougualievalgono1/N) distribuitoanchessosecondoCauchyecongli stessi parametri; inaltre parole non si guadagnanessuna informazione accumulando pi di unamisura (e calcolando la media aritmetica del campione)6.8.3.1 IlrapportodiduevariabilinormaliSiano due variabili casualixedyche seguanola distribuzione normalestandardizzataN(0, 1); esiainoltrelaydenitasututtolasserealeadeccezione dellorigine (y = 0).La densit di probabilit congiunta di x e ylaf(x, y) =N(x; 0, 1) N(y; 0, 1)=12e12x2e12y2;6Esistono altre tecniche, basate per sulluso della mediana, che permettono dimigliorare la conoscenza del valore di disponendo di pi di una misura.108 Capitolo 8-Esempididistribuzioniteorichedenendou =xye v = ye ricordando la (7.4), la densit di probabilit (u) della u la(u) =12_+e12u2v2e12v2|v| dv=1_+0e12v2(1+u2)v dv=1 (1 +u2)_+0etdt=1 (1 +u2)_et_+0=1 (1 +u2)Per eseguire lintegrazione si eettuata la sostituzionet =12 v2_1 +u2_ dt =_1 +u2_v dvesiriconosceimmediatamentenella(u)ladensitdiprobabilitdiunavariabile(standardizzata) di Cauchy: il rapportotraduevariabili normalisegue ladistribuzionedi Cauchy.8.4 LadistribuzionediBernoulliConsideriamo un evento casuale ripetibile E, avente probabilit costantep di vericarsi; indichiamo con q = 1p la probabilit del non vericarsi di E(cio la probabilit dellevento complementare E ). Vogliamo ora determinarelaprobabilitP(x; N)cheinNproveripetuteEsiverichiesattamentexvolte (deve necessariamente risultare 0 x N).Leventocasuale costituitodal presentarsidiEperxvolte (e quindidalpresentarsi di E per le restanti N x) un evento complesso che pu veri-carsi in diverse maniere, corrispondenti a tutte le diverse possibili sequenzedisuccessiefallimenti; questesonoovviamentemutuamenteesclusive, edinnumeropariaquellodellepossibilicombinazionidi Noggetti axax,che valeCNx=_Nx_=N!x! (N x)!.8.4-LadistribuzionediBernoulli 109Essendopoi ognunadelleprovestatisticamenteindipendentedalleal-tre(infatti laprobabilitdi Enoncambiadiprovainprova), ognunadellepossibili sequenzedi xsuccessi edN xfallimenti haunaprobabilitdipresentarsi che vale pxqNx; in denitivaP(x; N) =N!x! (N x)! pxqNx. (8.7)Questa distribuzione di probabilitP(x; N) per una variabile casuale di-scretaxsi chiamadistribuzione binomiale odi Bernoulli7; vogliamooradeterminarne alcune costanti caratteristiche.Verichiamo perprima cosa chevalelacondizionedinormalizzazione:sfruttando la formula per lo sviluppo delle potenze del binomio, risultaN_x=0P(x; N)=N_x=0N!x! (N x)! pxqNx=(p +q)N1.Vogliamooracalcolarelasperanzamatematicadellavariabilex(ossiailnumerodisuccessi attesi, inmedia, inNprove): perquestouseremolastessa variabile casuale ausiliaria gi considerata nel paragrafo 5.6.3,y, cherappresenta il numero di successi nella generica delleNprove eseguite.Avevamoasuotempogicalcolato, semprenelparagrafo5.6.3, laspe-ranza matematica dellayE(y)=1 p +0 q=p;e, osservando che anche y2pu assumere i due soli valori 1 e 0, sempre conle probabilit rispettive p e q,E_y2_ =1 p +0 q=pe quindi la varianza dellayesiste e valeVar(y)=E_y2__E(y)_2=p p2=p(1 p)=pq. (8.8)Il numero totalexdi successi nelleNprove legato ai valoriyidellayin ognuna di esse dallax =N_i=1yi7I Bernoulli furonounafamigliaoriginariadi Anversapoi trasferitasi aBasilea, nu-merosi membri dellaqualeebberoimportanzaperlescienzedel diciassettesimoedeldiciottesimo secolo;quellocuivanno attribuitigli studi distatistica ebbe nome Jacob (oJacques), vissedal1654al1705, efuziodelpinotoDaniel(cuisideveilteoremadiBernoulli della dinamica dei uidi).110 Capitolo 8-Esempididistribuzioniteoricheerisultaquindi, per speranzamatematicaevarianzadelladistribuzionebinomiale,E(x)=E__N_i=1yi__=N_i=1E_yi_ =NpVar(x) =x2=Var__N_i=1yi__ =N_i=1Var_yi_=Npq.Figura8e-Ladistribuzionebinomiale, perunnumerodiproveN =50edue dierenti valori della probabilit p.0.150.10.0500 10 20 30 40 50N = 50,p = 0.5N = 50,p = 0.2Come evidente dalla gura 8e, la forma della distribuzione binomiale molto simile a quelladi una curva di Gauss; si pu in eetti dimostrare che8.4-LadistribuzionediBernoulli 111quando N tende allinnito la distribuzione di probabilit dei possibili valoritende ad una distribuzione normale avente la stessa media Np e la stessa va-rianzaNpq. Infatti la funzione generatrice dei momenti della distribuzionedi Bernoulli Mx(t) = E_etx_=N_x=0etx_Nx_pxqNx=N_x=0_Nx__pet_xqNx=_pet+q_No anche, ricordando che q = 1 p,Mx(t) =_1 +p_et1__Ne se, per semplicare i calcoli, ci riferiamo alla variabilestandardizzataz=x E(x)x=x Np_Npq=ax +bove si postoa =1_Npqe b= Np_Npqapplicando la (6.16) si trovaMz(t) = etbMx(at)= eNpNpqt_1 +p_etNpq1__Nda cui, passando ai logaritmi naturali,112 Capitolo 8-EsempididistribuzioniteorichelnMz(t) = Np_Npq t +Nln_1 +p_etNpq1__= Np_Npq t +N_p_etNpq1_p22_etNpq1_2++p33_etNpq1_3+ _= Np_Npq t +N_p_t_Npq + 12t2Npq + 16t3(Npq)32+ _p22_t_Npq + 12t2Npq + 16t3(Npq)32+ _2++p33_t_Npq + 12t2Npq + 16t3(Npq)32+ _3+ ___= N_p_12t2Npq + 16t3(Npq)32+ _p22_t2Npq +t3(Npq)32+ _+p33_t3(Npq)32+ __= N_12t2Npq p(1 p) +t3(Npq)32_p6 p22+p33_+O_t4N2__=12 t2+O_t3N12_ove si sviluppato in serie di McLaurin primaln(1 +x)=x x22+x33+ e poiex=1 +x +x22! +x33! + e si sono svolti i prodotti tenendo solo i termini dei primi ordini.ChiaramentequandoNvienefattotendereallinnitotuttiiterminiec-cetto il primo tendono a zero, per cuilimNMz(t)=et228.4-LadistribuzionediBernoulli 113e Mz(t) tende quindi alla funzione generatrice dei momenti di una distribu-zionenormalestandardizzata; inconseguenzasieettivamenteprovato,visto uno dei teoremi citati nel paragrafo 6.4, che la distribuzione binomialetende ad una distribuzione normale.In pratica, quando il numero di proveN elevato e la probabilitpnontroppovicinaai valoriestremi 0ed1, ladistribuzionebinomialebeneapprossimatadaunadistribuzionenormale; ingeneralesiritienechelap-prossimazionesiaaccettabilequandoentrambi iprodotti NpeNqhannovalore non inferiore a 5.8.4.1 Applicazione: decadimentiradioattiviSe la probabilittper un singolo nucleo instabile di decadere in un in-tervallo di tempo t costante, la probabilit di avere un numero pressato didecadimenti nel tempo t in un insieme di Nnuclei data dalla distribuzionebinomiale; in particolare, il numeromediodidecadimentiinNnucleie neltempot Nt.Sesiammettepoichetsiaproporzionalealtempo8t, indicandoconlaprobabilitdidecadimentonellunitditempoavremot =t; inuntempoinnitesimodt, il numerodi atomi N(t)presenteal tempotvariamediamente didN= N dt .Separando levariabili edintegrando, il numeromediodiatomipresential tempo t, dopo il decadimento di una parte di quelliN0 presenti allistanteiniziale t = 0, dato dallaN(t) =N0et(8.9)ed il numero medio di decadimenti dallaN0N(t) =N0_1 et_.La vita media di una sostanza radioattiva si pu denire come il temponecessario perch il numero originario di nuclei si riduca mediamente di unfattore 1/e; quindi = 1/, e la (8.9) si pu riscrivereN(t)=N0et. (8.10)8Questa ipotesi pu evidentemente essere soddisfatta solo in prima approssimazione:bastapensareal fattochetdeveraggiungerelunitsolodopountempoinnito. Inparticolare, laprobabilitperunnucleodi decadereinuntempo2t vale2t=t +(1 t) t = 2t t2; e lipotesi fatta in eetti valida solo se t innitesimo, o (inpratica) se losservazione riguarda un lasso di tempo trascurabile rispetto alla vita media.114 Capitolo 8-Esempididistribuzioniteoriche8.4.2 Applicazione: ilrapportodiasimmetriaFrequentemente, nellasica, si devonoconsiderareesperimenti incuisicercadimettereinevidenzadelleasimmetrie; ovvero, lanoninvarianzadellafunzionedi frequenzadi unaqualchevariabile casuale perriessionerispettoadunpiano. Supponiamo, comeesempio, diconsiderarelapossi-bilitche undatofenomenoabbia unadiversa probabilit dipresentarsiinavanti oallindietrorispettoadunaopportunasuperciediriferimento; edi raccogliere Neventi sperimentali dividendoli in due sottoinsiemi (mutua-mente esclusivi ed esaurienti) collegati a queste due categorie, indicando conFeB(inizialidelledueparoleinglesi forwardebackward)illoronumero:ovviamente dovr risultare N = F +B.Il cosiddettorapportodi asimmetria,R, si denisce comeR=F BF +B=F BN=2FN1 : (8.11)ovviosiache 1 R 1, siachesoltantoduedeiquattrovaloriN, F, Bed R sono indipendenti; e, volendo, dallultima forma della (8.11) si possonoricavare le espressioni di Fe Bin funzione di Ned R, ovveroF =N(1 +R)2e B =N(1 R)2.Se indichiamo con p la probabilit di un evento in avanti (e con q = 1pquelladi unoallindietro), il trovareesattamenteFeventi inavanti suuntotale di Nha probabilit data dalla distribuzione binomiale: ovveroPr(F) =_NF_pF(1 p)NFcon, inoltre,E(F) = Np e Var(F) = Np(1 p) .Ma,per quantodetto,c unacorrispondenza biunivoca tra i valori diNedFda una parte, e quello di R; cos chePr(R) =_NN(1+R)2_pN(1+R)2(1 p)N(1R)2,E(R) =2NE(F) 1 = 2p 18.4-LadistribuzionediBernoulli 115eVar(R) =4N2Var(F) =4p(1 p)N.Se il numero di eventi nel campione elevato e p lontano dai valori estre-mi, cos da potere sia sfruttare lapprossimazione normale alla distribuzionedi Bernoulli, sia pensare che risultip FNche q BN,comeconseguenzaancheladistribuzionedi Rsarapprossimativamentenormale; e con i primi due momenti dati daE(R) 2FN 1 e Var(R) 4 FBN3.Del rapportodi asimmetriaparleremoancorapiavanti, nel corsodiquesto stesso capitolo:pi esattamente nel paragrafo 8.5.2.8.4.3 LadistribuzionebinomialenegativaConsideriamoancorauneventocasualeEripetibile, aventeprobabilitcostantepdipresentarsi(equindiprobabilitq =1 pdinonpresentar-si)inunasingolaprova;in piprove successiveleventoseguirdunquelastatisticadiBernoulli. Vogliamoora calcolare laprobabilitf(x; N, p)che,primachesi verichi lN-esimosuccesso, si sianoavuti esattamentexin-successi;o, se si preferisce, la probabilit che lN-simo successo si presentinella(N +x)-sima prova.Levento casuale considerato si realizza se e solo se nelle prime N+x1provesi presentataunadellepossibili sequenzedi N 1successi exfallimenti; esepoi, nellaprovasuccessiva, sihaunulterioresuccesso. Laprima condizione, applicando la (8.7), ha probabilit_N +x 1N 1_pN1qx;e, vista lindipendenza statistica delle prove tra loro, risulta dunquef(x; N, p)=_N +x 1N 1_pNqx=_N +x 1x_pNqx. (8.12)(nellultimopassaggiosi sfruttatalaproprietdei coecienti binomiali_NK__NNK_; vedi in proposito il paragrafo A.6).116 Capitolo 8-EsempididistribuzioniteoricheQuesta distribuzione di probabilit prende il nome didistribuzionebino-mialenegativa9; ilmotivoditalenomechelequazione(8.12)puessereriscrittainformacompattasfruttandounaestensionedeicoecientibi-nomiali che permette di denirli anche per valori negativi diN. La funzionegeneratrice dei momenti Mx(t)=E_etx_=_p1 qet_N;da questa si possono poi ricavare la speranza matematicaE(x) =Nqp,e la varianzaVar(x) = Nqp2.La distribuzionebinomiale negativaconN =1 prendeilnomedidistri-buzionegeometrica; la probabilit (8.12) diventaf(x; p) = pqx,edquelladelleventocasualeconsistente nellottenere il primosucces-sodopoesattamente xinsuccessi; ponendoN=1nelleformuleprece-denti, speranzamatematica evarianza delladistribuzionegeometrica sonorispettivamenteE(x) =qpe Var(x) =qp2.8.5 LadistribuzionediPoissonSia E un evento casuale che avvenga rispettando le seguenti ipotesi:1. Laprobabilitdelvericarsi delleventoEinunintervalloditempo10molto piccolo (al limite innitesimo) dt proporzionale alla durata ditale intervallo;9La distribuzione binomiale negativa talvolta chiamata anchedistribuzionediPascalo diPlya.10Sebbeneci si riferisca, peresemplicarelenostreconsiderazioni, adunprocessotemporale (e si faccia poilesempio delnumero didecadimenti inunintervallocostante8.5-LadistribuzionediPoisson 1172. Il vericarsi o meno dellevento in un certo intervallo temporale indi-pendente dal vericarsi o meno dellevento prima o dopo di esso;3. La probabilit che pi di un evento si verichi in un tempo innitesimodt innitesima di ordine superiore rispetto a dt.vogliamooraricavarelaprobabilitP(x; t)cheinunintervallodi temponito, di duratat, si verichi esattamenteun numero pressatoxdi eventiE. Usando questasimbologia, la prima ipotesifatta sul processo casuale inesame si scriveP(1; dt)=dt P(0; dt)=1 dte,viste lealtre ipotesied applicandoin conseguenzaiteoremidelleproba-bilittotaliecomposte, laprobabilitdiaverexeventi inunintervalloditempo lungot +dt data, a meno di innitesimi di ordine superiore, daP(x; t +dt) = P(x 1; t) P(1; dt) +P(x; t) P(0; dt)= P(x 1; t) dt +P(x; t) (1 dt)cioP(x; t +dt) P(x; t)dtddtP(x; t)= P(x; t) +P(x 1; t) .Ora, quandox = 0, essendo chiaramente nulla la probabilit di avere unnumero negativo di eventiE in un tempo qualsiasi, risulta in particolareddtP(0; t) = P(0; t)da cuiP(0; t) = et(lacostantedi integrazionesi determinaimponendocheP(0; 0) =1). Daquestarelazione si pu ricavare P(1; t) e, con una serie di integrazionisuc-cessive,P(x; t):risultaP(x; t) =(t)xx!et. (8.13)di tempoperunasostanzaradioattivacomequellodi unavariabilecasualechesegueladistribuzionedi Poisson), gli stessi ragionamenti naturalmentesi applicanoancheafenomeni sici riferiti ad intervalli di dierente natura, per esempio di spazio.Cos ancheil numerodi urti perunitdi lunghezzadellemolecoledei gassegueladistribuzionediPoisson(sesiammettechelaprobabilitdi unurtonel percorrereunintervalloinnitesimodispaziosiaproporzionaleallasualunghezza, edanalogamenteper le altre ipotesi).118 Capitolo 8-EsempididistribuzioniteoricheIn questa espressionex lunica variabile casuale, etfunge da parame-tro:se introduciamo la nuova grandezza = t, possiamo scrivereP(x; ) =xx!e. (8.14)Questadistribuzionedi probabilitperunavariabilecasuale(discreta)xprendeil nomedi distribuzione di Poisson11; daessasi puottenere,adesempio, laprobabilitdiottenerexdecadimentiinunamassanotadisostanzaradioattivanel tempot: infatti perquestotipodi processi sicirisultano soddisfatte le tre ipotesi di partenza.Piesattamente, laprobabilitdiavere precisamentexdecadimentira-dioattivi nel tempo t data dalla distribuzione binomiale; la distribuzione diPoisson una approssimazione alla distribuzione binomiale che si pu rite-nere valida qualora si considerino eventi casuali di probabilit estremamentepiccola, e che ci possibile vedere solo perch si compiono osservazioni suun numero molto elevato di essi: in formula, quandop2p e p Np N (8.15)(eventirarisu largabase statistica).Ancheseladistribuzionedi Poisson, comenel casodei decadimen-ti radioattivi, unaapprossimazionedi quellabinomiale, si preferiscepersempreusarlanellapraticaalpostodiquestultimaquandole(8.15)sianoapprossimativamente vericate: infatti se N grande i fattoriali e le potenzepresenti nella (8.7) rendono generalmente lespressione dicile da calcolare.Verichiamo ora la condizione di normalizzazione:+_x=0P(x)=e+_x=0xx!=ee1(riconoscendonellasommatorialespressionedi unosviluppoinseriediMcLaurindellafunzioneesponenziale). Calcoliamopoi lasperanzamate-11Simon Denis Poisson visse in Francia dal 1781 al 1840; matematico e sico di valore,si occup della teoria degli integrali e delle serie, di meccanica, elettricit, magnetismo edastronomia. Glistudisulladistribuzionecheportailsuonomecompaiononeltrattatodel 1837 Recherches sur la probabilit des jugements. . . .8.5-LadistribuzionediPoisson 119matica di x:E(x) =+_x=0xxx!e=+_x=1xxx!e= e+_x=1x1(x 1)!= e+_y=0yy!= ee= .Nei passaggi si prima osservato che il primo termine della sommatoria(x = 0) nullo, e si poi introdotta la nuova variabile y = x 1. Troviamoora la speranza matematica di x2: con passaggi analoghi, si ottieneE(x2) =+_x=0x2xx!e= +_x=1xx1(x 1)! e= +_x=1_(x 1) +1_x1(x 1)! e= __+_y=0yyy!e++_y=0yy!e__= __+_y=0y P(y) ++_y=0P(y)__= ( +1)e la varianza di xrisulta allora anchessa data daVar(x)=E_x2__E(x)_2=( +1) 2=.120 Capitolo 8-EsempididistribuzioniteoricheFigura 8f - La distribuzione di Poisson, per tre diversi valori del parametro.0.30.20.100 10 20 30 40 50 60 70 80 = 2 = 25 = 508.5-LadistribuzionediPoisson 121La funzionegeneratrice deimomenti,come si potrebbe facilmenteotte-nere dalla denizione, laMx(t)=eeet=e(et1); (8.16)la funzione caratteristica di variabile realex(t) = e(eit1),e la funzione caratteristica di variabile complessax(z) = e(z1). (8.17)Da esse potrebbero essere ricavati tutti i momenti successivi; i primi quattrovalgono___1E(x)=2E_x2_=( +1)3=_( +1)2+_4=_3+62+7+1____102Var(x) =3=4=(3 +1)Unaltraconseguenzadella(8.16) chelasommaw=x +ydi duevariabilicasuali indipendenti cheseguanoladistribuzionedi Poisson(convalori medi ed ) segue anchessa tale distribuzione (con valore medio paria +):Mw(t)=e(et1)e(et1)=e(+)(et1). (8.18)AncheladistribuzionediPoisson, comesivededaigracidigura8f, beneapprossimata daunadistribuzione normale quando abbastanzaelevato; questonondevestupire, vistolostrettolegamecheesistetraladistribuzionediPoisson e quelladiBernoulli il cuilimite pergrandiNappunto la funzione di Gauss. Volendo, si potrebbe ripetere per la funzionegeneratrice(8.16) unaanalisi analogaaquellaasuotempocompiutaperladistribuzionebinomiale; inquestomodosiproverebberigorosamenteilfattocheancheladistribuzionedi Poisson, pergrandi , tendeaquellanormale.In genere si ritiene che, per valori medi 8, si possa ritenere soddisfa-cente lapprossimazione normale alla distribuzione di Poisson.122 Capitolo 8-Esempididistribuzioniteoriche8.5.1 Applicazione: esperimentinegativiSi osserva un numero N0 di protoni per un tempo t, e non si registra alcundecadimento. Quale il limite inferiore che si pu dare sulla vita media delprotone,, con una probabilit (livellodi condenza) del 95%?Levento casuale consistente nel non avere osservato alcun decadimento somma logica di altri due eventi mutuamente esclusivi:o il protone stabi-le (e non pu quindi decadere); o il protone instabile, e si sono inoltre veri-cati 0 decadimentinel tempodi osservazione (supponiamo persemplicitche ognuno di essi abbia poi probabilit 1 di essere osservato).In questa seconda eventualit,dalla (8.10) si pu ricavare il numero me-dio di decadimenti attesi nel tempot, che =N0_1 et_ N0t(supponendochesia molto maggiore delperiodo diosservazionet); e daesso la probabilit di osservare 0 eventi sempre nel tempo t, che data dallastatistica di Poisson e valeP(0)=00!e=e.Quellochesi domandadi calcolare, assumendocomecertalipotesiche il protone sia instabile, il valore minimo che deve avere la sua vita mediaperchlaprobabilitdi nonosservarenullasiaalmenodel 95%: equestoavviene quandoP(0)=eeN0t0.95N0tln0.95N0tln0.95(abbiamoinvertitoilsegnodelladisuguaglianzanellultimopassaggioper-ch ln0.95 0.0513 un numero negativo).8.5.2 Applicazione: ancorailrapportodiasimmetriaNelparagrafo8.4.2abbiamosuppostocheilnumeroNdiosservazionieettuate sia noto a priori e costante: per questo non in generale corretto;e, nella realt, il numero di volte in cui un certo fenomeno sico si presenter di norma esso stessounavariabile casuale. Continuiamo la nostra analisi8.5-LadistribuzionediPoisson 123supponendo che si tratti di un fenomeno nel quale Nsegua la distribuzionedi Poisson con valore medio .Continuando ad usare gli stessi simboli del paragrafo 8.4.2, la probabilitcongiunta di osservare Neventi dei qualiFin avanti in realtPr(F, N) =NN!eN!F! (N F)! pFqNF=pFqNFF! (N F)! Ne;o anche, cambiando coppia di variabili casuali passando da {F, N} a {F, B}:Pr(F, B) =pFqBF! B!F+Be=(p)F(q)BF! B!e=(p)FF!ep(q)BB!eq.che il prodottodi due funzionidi frequenzadi Poisson.Indenitivaabbiamoscopertochelacomposizionedi unprocessodiPoisson e di un processo di Bernoulliequivale al prodotto di due Poissonia-ne: ilnumeroNdieventiosservatoseguelastatisticadiPoisson; lasceltadello stato nale FoBquella binomiale; ma tutto avviene come se i decadi-menti dei due tipi, in avanti ed allindietro, si vericassero separatamente edindipendentementesecondo la statistica di Poisson.Accettato questofatto appena dimostrato (ancorch inaspettato), e pen-sandosiaadFcheaBcomevariabilicasualistatisticamenteindipendentitra loro e che seguono singolarmente la statistica di Poisson, per il rapportodi asimmetria asintoticamente (ovvero per grandi N) si ricava:Var(F)=E(F)FVar(B)=E(B)Be, per il rapporto di asimmetria R:R =F BF +BE(F) E(B)E(F) +E(B) +RF_F E(F)_+RB_B E(B)_;124 Capitolo 8-Esempididistribuzioniteorichevisto che la speranza matematica degli ultimi due termini nulla,E(R) E(F) E(B)E(F) +E(B)=2FN1;Var(R) _RF_2Var(F) +_RB_2Var(B)=4(F +B)4_B2Var(F) +F2Var(B)_=4FB(F +B)3= 4 FBN3,elecose, difatto, noncambiano(almenonel limitedeigrandi N)rispettoalla precedente analisi del paragrafo 8.4.2.8.5.3 LadistribuzioneesponenzialeAlladistribuzionedi Poissonnestrettamentelegataunaltra, quellaesponenziale: siainfattiunfenomenocasualequalsiasichesegualadistri-buzione di Poisson, ovvero tale che la probabilit di osservarexeventinel-lintervallonitoditempotsiadatadalla(8.13); deniamounanuovava-riabilecasuale, , comelintervallodi tempocheintercorretradueeventisuccessivi.Vistochein untempo nessuneventodevevenire osservato,laproba-bilitcherisultimaggiorediunvalorepredeterminatodcoincideconlaprobabilit di osservare zero eventi nel tempod:Pr( > d) Pr(0; d)=ede quindi lafunzionedi distribuzione di laF(d)=Pr( d)=1 edCome conseguenza, la funzione di frequenza esponenziale:f()=dF()d=e; (8.19)8.5-LadistribuzionediPoisson 125e, volendo, da essa si pu ricavare la funzione caratteristica che vale(t) = it.I momenti successivi della distribuzione esponenziale si possono ottene-re o integrando direttamente la funzione densit di probabilit (moltiplicataperpotenzeopportunedi ) oderivandosuccessivamentelafunzioneca-ratteristica; troviamo i primi due momenti, speranza matematica e varianza,usando questo secondo metodo:d(t)dt=ddt_ it_=i( it)2d(t)dtt=0=ii E()per cui la speranza matematica di valeE() =1;poid2(t)dt2=i 2( it)(i)( it)4=2( it)3d2(t)dt2t=0= 22i2E_2_= E_2_,ed inne la varianza Var() =E_2__E()_2=12.Se unavariabile casualetrappresentailtempotrascorso tradueeventicasuali successivi cheseguonounadistribuzionedi Poisson, tnecessaria-mentehaunadistribuzionedi probabilitdi tipoesponenzialedatadalla(8.19); vogliamo ora calcolare la probabilit chetsia maggiore di una quan-titt0 + t, condizionataperdal sapereinanticipochet sicuramente126 Capitolo 8-Esempididistribuzioniteorichemaggiore di t0.Sfruttando la (3.3), abbiamo:Pr(t> t0+t | t> t0) =Pr(t> t0+t)Pr(t> t0)=_+t0+tetdt_+t0etdt=_et_+t0+t_et_+t0=e(t0+t)et0= et Pr (t> t) .In conclusione, la distribuzione esponenziale(ovvero la cadenza tempo-raledi eventi casuali cheseguonolastatisticadi Poisson) nonricordalastoriaprecedente: il presentarsi o meno di uno di tali eventi in un tempotnon dipende in alcun modo da quello che accaduto nellarbitrario interval-loditempot0precedente; coscomecidovevamoaspettare, vistalipotesinumero 2 formulata a pagina 117.8.5.4 LadistribuzionediErlangLa funzione di frequenza esponenziale (8.19) si pu considerare come uncaso particolare di unaltra funzione di frequenza, dettadi Erlang12.Suppo-niamodivolertrovareladensitdiprobabilitfn(t; )delleventocasualeconsistentenel presentarsi, dopountempot, delln-esimodiunaseriedialtrieventicheseguanolastatisticadiPoissoncon costanteditempo; la(8.19) ovviamente la prima di esse,f1(t; ) = et.Il secondo evento si manifesta dopo un tempo t con densit di probabilit12Agner Krarup Erlang fu un matematico danese vissuto dal 1878 al 1929; si occup dianalisi e di sica oltre che di statistica. Dette notevoli contributi alla tabulazione di variefunzioni, edapplicinparticolarelastatisticaanumerosi problemi relativi al tracotelefonico.8.5-LadistribuzionediPoisson 127data daf2(t; ) =_t0f1(x; ) f1(t x; ) dx= 2_t0exe(tx)dx= 2et_t0dx= 2t et;siinfattisuppostocheilprimodeidueeventi sisiapresentatodopountempox(con 0 < x< t), si sfruttata lindipendenzastatistica degli eventicasualitraloroedinnesisommatosututti ipossibilivaloridi x. Allostesso modof3(t; ) =_t0f2(x; ) f1(t x; ) dx= 3_t0xexe(tx)dx= 3et_t0xdx=t223et;la formula generale (appunto la funzionedi frequenzadi Erlang) lafn(t; ) =tn1(n1)! net,con speranza matematicaE(t) =ne varianzaVar(t) =n2.128 Capitolo 8-Esempididistribuzioniteoriche8.5.5 LadistribuzionecompostadiPoissonLa distribuzionecomposta di Poisson quella seguita da una variabile chesia sommadiunnumerocasualeNdi valori diunaltravariabile casualex,quandosiaNchexseguonosingolarmentedelledistribuzionidi Poisson.Indichiamoconei valori medi dellepopolazioni dellevariabili Nexrispettivamente; lefunzionicaratteristiche(divariabilecomplessa)adesseassociate sono date, come sappiamo, dalla (8.17):N(z) = e(z1)e x(z) = e(z1);ricordando la (6.14), la variabile casualeS =N_i=1xiha funzione caratteristica di variabile complessaS(z)=N_x(z)_=e[e(z1)1]e funzione caratteristica di variabile realeS(t) = e_e(eit1)1_;da questultima poi si ricavadS(t)dt= S(t) e(eit1) eit ied innedS(t)dtt=0= i .La speranzamatematica di una variabile che seguala distribuzione compo-sta di Poisson vale quindiE(S) = ,e, similmente, si potrebbero ottenereVar(S) = (1 +)8.5-LadistribuzionediPoisson 129per la varianza, ePr(S) =_N=0_(N)SS!eNNN!e_per la funzione di frequenza.Questultimaformulanonsorprende: lasomma(sututti i valoriam-missibili) dellaprobabilitdi ottenereundeterminatoN, moltiplicataperlaprobabilitdiottenereilvalorediScondizionatodaquellodiN; infattilasommadiNvariabiliindipendentidistribuitesecondoPoissonconvalo-remedioancora, inbaseaquantodedottodallequazione(8.18), unavariabile distribuita secondo Poisson e con valore medio N.8.5.6 Esempio: losservazionediunquarkisolatoUn esempio classico di applicazione delle formule precedenti la discus-sione di un articolo del 196913in cui veniva annunciata losservazione di unquark isolato; lesperienza ivi descritta consisteva nellanalizzare foto espo-steinunacameraanebbia, attraversatadaunfasciodi particelle(aventicaricaunitaria) chegeneravanotracceconunnumeromediodi gocceperunit di lunghezza = 229:su 55.000 tracce osservate ce ne era una con unnumero di gocce per unit di lunghezzan = 110.Questatracciaappartenevaindiscutibilmenteal fasciodi particelle; laprobabilit che venisse osservato un numero di gocce per unit di lunghezzapari(oinferiore)a110, seilfenomenodescrittodaunadistribuzionediPoisson con media 229, data daPr(n 110)=110_k=0229kk!e2291.6 1018e risulta ben inferiore (per 13 ordini di grandezza!)alla frequenza osservataf = 1/55.000 2 105. Per questo motivo gli autori sostenevano di avereosservatounaparticellaconcarica frazionaria (unquark),echecausavainconseguenza una ionizzazione assai inferiore alle altre.Una prima obiezione14fu che, in ogni urto elementare tra le particelle delfascioelemolecoledigasdellacamera, vengonogenerati inmedia =4prodotti ionizzati indipendenti: e quindi 4 gocce. Il numero medio eettivo13McCusker e Cairns:Evidence of quarks in air-shower cores; Phys. Rev. Lett. 23 (1969),pagg. 658659.14Adair e Kasha: Analysis of some results of quark searches; Phys. Rev. Lett. 23 (1969),pagg. 13551358.130 Capitolo 8-Esempididistribuzioniteorichedi urti per unit di lunghezza era 229/4 = 57.25, mentre la traccia osservataneavevainvece =110/4 =27.5; laprobabilitdi ottenere, permotivipuramentecasuali,unauttuazionealmenopariaquellaosservatadovevaesserequindicalcolata come probabilit diavere menodi28eventidaunadistribuzione di Poisson con valore medio 57.25, che valePr(n 110)=27_k=057.25kk!e57.256.7 106edquindi assai maggioredi quantovenisseipotizzatoalliniziodai dueautori (pur mantenendosi pi di 33 volte superiore alla frequenza osservata).Lanalisi del fenomenoperancorapicomplessa15: il numeroudiurti elementari per unitdi lunghezzasegueladistribuzionedi Poissonconvaloremedio =57.25, edogniurtogeneraunnumerodi goccechenoncostante, masegueanchessoladistribuzionediPoissonconvaloremedio=4; quindi il numerocomplessivodi goccesegueunaleggedidistribuzione che quellacomposta di Poisson.La probabilit di osservare k gocce per unit di lunghezza quindiPr(k)=_u=0_(u)kk!euuu!e_,e la probabilit cercata valePr(k 110)=110_k=0Pr(k)4.7 105(ben compatibile quindi con quanto osservato).8.5.7 Applicazione: segnaleefondoSupponiamodi osservaresperimentalmente unprocessosico, per ilquale il numero di eventische potrebbero presentarsi in un intervallo tem-porale pressato (eventidisegnale) seguauna distribuzione di Poisson convalore medio S, e che indicheremo col simbolo P(s; S);Pr(s)=P(s; S) =Sss!eS:ingeneraleSignoto, eci si proponeappuntodi determinarlodallespe-rimento. Questoproblemaverrpoi trattatoanchenel paragrafo11.2.1a15Eadie, Drijard, James, RooseSadoulet: StatisticalMethodsinExperimentalPhysics;North-Holland Publishing Co. (1971), pag. 53.8.5-LadistribuzionediPoisson 131pagina173, usandoaltrimetodi; quivogliamosolovederecome, partendodal dato di fatto consistente nellosservazione eettiva di N eventi in un sin-golo esperimento, si possa ricavare unlimitesuperiore sui possibili valori diS.Fissatoarbitrariamente unvalore dellaprobabilit,sitrattaditrovareil valoreSuper il quale la probabilit di osservare un numero di eventinonsuperiore ad Nvale proprio :vale a dire, risolvere rispetto a Su lequazioneN_s=0P(s; Su) = ;ediremopoidipoteraermarecheS Suconunlivellodi condenza.Il signicato esattodellafrase che,se risultasse realmenteS Su, in unafrazionepari almenoaddi esperimenti analoghi aquelloi cui risultatistiamo esaminando ci aspetteremmo di ottenere al massimoNeventicomein esso.Le cose si complicano in presenza di processi sici che possono produrrerisultati chesimulanoilsegnale: processisicicheindicheremocolnomecomplessivodi fondo. Seilfondopresente, seinoltreindipendentedalsegnaleesesegueladistribuzionediPoissoncon valore medionotoF,gisappiamo che la probabilit di osservare N eventi in tutto tra fondo e segnalesegue ancora la distribuzione di Poisson, con valore medio F +S:Pr(N) P(N; F +S) =(F +S)NN!e(F+S).Se sono stati realmente osservati Neventi, si pu ancora determinare unlimitesuperioreperS; questocalcolandoilvaloreSuperilqualelaproba-bilitdiosservareunnumerodieventi(trafondoesegnale)nonsuperioreaNecondizionatoallavereottenutounnumerodi eventi di fondochenonpusuperareNvaleunaquantitpredeterminata. Insomma, sitrattadirisolvere, rispetto a Su, lequazioneN

n=0P(n; F +Su)N

f=0P(f; F)= ; (8.20)e, conlostesosignicatodellafraseprimaevidenziato, potremoalloraaf-fermare che risulta S Sucon un libello di condenza .Nella gura 8g, che tratta dal libretto pubblicato annualmente dal Par-ticleDataGroup(vedi labibliograa), si possonotrovaregicalcolateerappresentatedacurvecontinuelesoluzioni dellequazione(8.20) relativead un livello di condenza sso del 90%.132 Capitolo 8-EsempididistribuzioniteoricheFigura8g-Ilimiti superiori sulsegnale, adunlivellodi condenzasso = 90%, in presenza di fondo noto.Fondo atteso (eventi)Limitesuperioresulsegnaleallivellodicondenzadel90%1510500 5 10 15 20987654321010 eventi osservati8.6 Ladistribuzionelog-normaleSia unavariabile casualeyaventedistribuzionenormale con mediaevarianza 2:la sua densit di probabilit sia insomma data dalla funzioneg(y)=N(y; , )=12e122(y)2;deniamo poi una nuova variabile casuale xattraverso la relazionex = ey y = lnx(lacorrispondenzatraxedyovviamentebiunivoca). Ildominiodide-nizionedellaxilsemiassex>0e, inbasealla(6.15), lasuadensitdiprobabilit f(x) sar data daf(x) =121xe122(lnx)2.Questa funzione di frequenza si chiama log-normale; sfruttando lidenti-8.6-Ladistribuzionelog-normale 133t_y k2_222k 12k22=122_y2+2+k242y2k2y +2k22k2k24_=122__y22y +2_2k2y_=_y _222kyse ne possono facilmente calcolare i momenti rispetto allorigine, che valgo-nok =_+0xkf(x) dx=_+ekyg(y) dy=_+12e_(y)222ky_dy= e_k+12k22__+12e(yk2)222dy= e_k+12k22_(infatti lintegrale quello di una distribuzione normale avente +k2comevalore medio e come varianza e vale dunque uno).In particolareE(x) 1=e_+22_E(x2) 2=e(2+22)Var(x) = 212=e(2+2)_e21_Nella gura 8h ci sono i graci di alcune distribuzioni log-normali corri-spondenti a vari valori dei parametri e della funzione normale di parten-za (non della funzione di frequenza esaminata); per nire notiamo che, ana-logamenteaquantoricavatonelteoremadipagina103perquantoattienealle somme, si pu dimostrare che il prodotto di variabili casuali log-normaliedindipendenti debba seguireuna distribuzionelog-normale.134 Capitolo 8-EsempididistribuzioniteoricheFigura 8h - La distribuzione log-normale,per vari valori deiparametri (e) della funzione normale di partenza.0.80.70.60.40.30.20.100 1 2 3 4 5 6 7 8 9 1010 9 8 7 6 5 4 3 2 1 000.10.20.30.40.50.60.70.80.5 = 0.2 = 0.3 = 0.5 = 1 = 1 = 0 = 1 = 28.7-Ladistribuzionenormaleinpidimensioni 1358.7 Ladistribuzionenormale inpidimensioniFigura8i-Lafunzionenormaleinduedimensioni, nelpiano {u, v}dellevariabili standardizzate e per un coeciente di correlazione r = 0.8.0.750.50.2503210-1-2-3-3-2-10123Accenniamosolobrevementeallacosiddettadistribuzionenormalebidi-mensionale: per essa la densit di probabilit congiunta delle due variabili xed y, nel caso generale, data dallaf(x, y) =e_12(1r2)__xxx_22r(xx)(yy)x y+_yyy_2__2 xy1 r2136 Capitolo 8-EsempididistribuzioniteoricheFigura 8j - La sole curve di livello della stessa funzione rappresentata nellagura 8i.3r = 0.8210-1-2-3 -2 -1 0 1 2 3-38.7-Ladistribuzionenormaleinpidimensioni 137o, espressa in funzione dellevariabilistandardizzateu =x E(x)xe v =y E(y)y,dallaf(u, v) =e12u22ruv+v21r221 r2;un esempio dato dalle gure 8i e 8j.Figura8k- Lesezioni dellagura8i conduepiani di equazioney=1ey =2rispettivamente: ovvero(apartelanormalizzazione)ledensitdiprobabilit condizionate (x|y = 1) e (x|y = 2).0.50.250-5 -4 -3 -2 -1 0 1 2 3 4 50.50.250-5 -4 -3 -2 -1 0 1 2 3 4 5Sezione a y = 1 f(x, 1) N(0.8, 0.6)Sezione a y = 2 f(x, 2) N(1.6, 0.6)138 Capitolo 8-Esempididistribuzioniteoricher il coecientedi correlazione lineare traxedy; r = 0 condizionenecessaria e suciente perch le due variabili siano statisticamente indipen-denti tra loro.Le due distribuzioni marginali g(x) e h(y) sono due funzioninormali, aventisperanzamatematicaevarianzaxex2laprima, eyey2la seconda:g(x) = N(x; x, x) e h(y) = N(y; y, y) .Le densit di probabilit condizionate sono anchesse sempre delle funzioninormali; comeesempio, nellagura8ksimostranoduediquestefunzioniper la stessa distribuzione di gura 8i.Nel casopigenerale, ladensitdi probabilitdi unadistribuzionediGaussN-dimensionale del tipof(x1, x2, . . . , xN) = Ke12H(x1,x2,...,xN), (8.21)ove H unaforma quadratica nelle variabili standardizzateti =xiE(xi)inellaqualepericoecienti dei terminiquadraticisonotutti uguali; letinonsonogeneralmenteindipendenti traloro, equindi Hcontieneancheitermini rettangolari del tipo ti tj.K, nella (8.21), un fattore di normalizzazione che valeK =(2)N;asuavolta, il determinantedellamatrice(simmetrica) dei coecientidellaformaquadraticaH. Lacondizione, poi, chelafdiequazione(8.21)debba essere integrabile implica che le ipersuperci di equazioneH = cost.siano tutte al nito, e siano quindi iperellissi nello spazio N-dimensionale deiparametri; le funzioni di distribuzione marginali e condizionate diqualsiasisottoinsieme delle variabili sono ancora sempre normali.Si puinoltredimostrarecheesistesempreuncambiamentodi varia-bili xiykchemutaHnellacosiddettaformacanonica(senzaterminirettangolari); in tal caso =__N

k=1Var(yk)__18.7-Ladistribuzionenormaleinpidimensioni 139ef(y1, . . . , yk) =1N

k=1_2 Var(yk)_ e12N

k=1[ykE(yk)]2Var(yk):e le yk sono quindi tuttestatisticamenteindipendenti (oltre che normali).140 Capitolo 8-EsempididistribuzioniteoricheCapitolo9LaleggediGaussVogliamo ora investigare sulla distribuzione dei risultati delle misure ri-petutediunagrandezzasica, nellipotesi cheessesianoaettedaerroriesclusivamente casuali1.9.1 LafunzionediGaussDallesamedi moltedistribuzionisperimentalidi valori ottenutipermi-sureripetuteincondizioni omogenee, si possonoastrarredueproprietgenerali degli errori casuali:Laprobabilitdiottenereuncertoscartodalvaloreverodeveesserefunzionedel modulodi talescartoenondel suosegno, sevaloriindifettoedineccessorispettoaquelloverosi presentanoconugua-leprobabilit; indenitivaladistribuzionedegli scarti deveesseresimmetrica rispettoallozero.Laprobabilitdiottenereuncertoscartodalvalorevero(inmodulo)deve essere decrescente al crescere di tale scarto e tendere a zero quan-do esso tende allinnito; questo perch deve essere pi probabile com-mettereerroripiccolicheerrorigrandi, edinnitamenteimprobabilecommettere errori innitamente grandi.1Il primo ad intuire la forma e lequazione della distribuzione normale fu Abraham deMoivrenel1733, cheladerivdalladistribuzionebinomialefacendousodellaformuladiStirlingperilfattoriale; fupoistudiatadaLaplace,malateoriacompletadovutaaGauss.141142 Capitolo 9-LaleggediGaussAquestedueipotesi sulladistribuzionedellemisureaettedaerroripuramente casuali se ne pu aggiungere una terza, valida pertutte le distri-buzionidiprobabilit; lacondizionedinormalizzazione, ossialequazione(6.1) di cui abbiamo gi parlato prima:Larea compresa tra la curva densit di probabilit dello scarto e lassedelle ascisse, da a +, deve valere 1.Da queste tre ipotesi e dal principio della media aritmetica, Gauss2dimo-str in modo euristico che la distribuzione degli scarti z delle misure aetteda errori casuali data dalla funzionef(z) =heh2z2(9.1)che da lui prese il nome (funzionedi Gauss olegge normale di distribuzionedeglierrori). SideveoriginalmenteaLaplaceunaprovapirigorosaedin-dipendente dallassunto della media aritmetica; una versione semplicata diquesta dimostrazione data nellappendice D.La funzione di Gauss ha una caratteristica forma a campana:simmetricarispettoallasse delleordinate (di equazionez = 0), decrescenteman manoche ci si allontana da esso sia nel sensodellezpositive che negative, e ten-dente a 0 per z che tende a ; cos come richiesto dalle ipotesi di partenza.Essadipendedaunparametroh>0cheprendeilnomedi modulodiprecisionedellamisura: infatti quandohpiccololafunzionesensibil-mentediversadazeroinunazonaestesadellassedelleascisse; mentrealcresceredi hlampiezzaditaleintervallodiminuisce, elacurvasistringesullasse delle ordinate (come si pu vedere nella gura 9a).9.2 ProprietdellaleggenormalePossiamo ora, come gi anticipato nei paragra 4.2.6 e 6.2, determinare ilvalore medio di una qualsiasi grandezzaW(z) legata alle misure, nel limite2Karl Friedrich Gauss fu senza dubbio la maggiore personalit del primo 800 nel campodella sica e della matematica; si occup di teoria dei numeri, analisi, geometria analitica edierenziale, statistica e teoria dei giochi, geodesia, elettricit e magnetismo, astronomiae ottica.Visse a Gttingen dal 1777 al 1855 e, nel campo di cui ci stiamo occupando, teo-rizz (tra le altre cose) la funzione normale ed il metodo dei minimi quadrati, questultimo(studiato anche da Laplace) allet di soli 18 anni.9.2-Proprietdellaleggenormale 143Figura 9a - La funzione di Gauss per tre diversi valori di h.1.210.80.60.40.20-4 -3 -2 -1 0 1 2 3 4h = 0.5h = 1h = 2144 Capitolo 9-LaleggediGaussdi unnumeroinnitodi misureeettuate; questovaloremediosappiamodallequazione (6.2) che si dovr ricavare calcolando lintegrale_+W(z) f(z) dzdoveperf(z)siintendelafunzionedensitdiprobabilit delloscartodalvalore vero, che supporremo qui essere la distribuzione normale (9.1).Se vogliamo ad esempio calcolare il valore medio dello scarto z, questo dato dallaE(z)=h_+z eh2z2dz=0.Ilrisultatoimmediatoconsiderandochef(z)unafunzionesimme-tricamentrezantisimmetrica: indenitiva, adogniintervallinocentratosu un dato valore z> 0 possiamo associarne uno uguale centrato sul puntoz, in cui il prodottoz f(z) dz assume valori uguali in modulo ma di segnoopposto; cos che la loro somma sia zero. Essendo poiE(z)=E (x x)=E(x) xabbiamo cos dimostrato quanto assunto nel paragrafo 5.2, ossia cheIl valoremediodellapopolazionedellemisuredi unagrandezzasicaaettesolodaerrori casuali esiste, ecoincideconil valorevero dellagrandezzamisurata.Cerchiamo ora il valore medio del modulo dello scarto E_|z|_:E_|z|_=_+|z| f(z) dz= 2_+0z f(z) dz=2h_+0z eh2z2dz=h_+0eh2tdt= 1h_eh2t_+0=1hdove si eseguito il cambio di variabile t = z2.9.2-Proprietdellaleggenormale 145Ilvalore mediodelmodulodegliscarti quellagrandezzache abbiamodenitocome errore medio: qui abbiamo ricavato la relazione tra lerroremedio di misure aette solo da errori casuali ed il modulo di precisione dellamisura h.Il rapporto invece tra lerrore quadratico medio edh si trova calcolandoil valore medio del quadrato degli scarti:E_z2_=h_+z2eh2z2dz=1h2_+t2et2dt= 12h2_+t d_et2_= 12h2__tet2_+ _+et2dt_=12h2.Per giungere al risultato, per prima cosa si eettuata la sostituzione divariabilet =hz; poisi integratoperparti;ed innesi tenutocontodelfatto che_+et2dt =come si pu ricavare dalla condizione di normalizzazione della funzione diGauss per il particolare valore h = 1.Concludendo: Permisureaettedaerroridistribuiti secondolaleggenor-male, il rapportotralerrorequadraticomedioelerroremedio avalea=_2=1.2533. . . . Permisureaettedaerroridistribuiti secondolaleggenor-male,lerrorequadraticomedioedilmodulodiprecisionehsono legatidalla =1h2. Lerroremedioedil modulodiprecisionesonoinvecelegatidallaa =1h.146 Capitolo 9-LaleggediGaussSostituendo nella (9.1) il valore di h in funzione di , la legge di Gauss sipu quindi anche scrivere nella forma equivalentef(z) =12ez222(9.2)9.3 LoscartonormalizzatoIntroduciamoinluogodelloscartozilrisultatodellamisurax; questolegatoazdallaz =x x(relazionecheimplicaanchedz =dx). Inluogo del modulo di precisione h usiamo poi lerrore quadratico medio ; lafunzione di Gauss (9.2) si pu allora scrivere nella formaf(x) =12e12_xx_2Deniamo ora una nuova variabile t, legata alla xdalla relazionet =x x dt =dx.Essa prendeilnomediscartonormalizzatodellax;vogliamotrovare lafunzionedifrequenza(t) dellatnellipotesiche laxabbia distribuzionenormale.Siano x1 ed x2 due qualunque valori della variabile x (con x1< x2);sappiamo chePr_x [x1, x2]_ =_x2x1f(x) dx=12_x2x1e12_xx_2dx. (9.3)Siano poi t1 e t2 i valori per la tche corrispondono a x1 e x2; sarPr_t [t1, t2]_ =_t2t1(t) dt . (9.4)Quando lax compresa nellintervallo[x1, x2], allora (e soltanto allora)la t compresa nellintervallo[t1, t2]; pertanto la probabilit che x sia com-presa in[x1, x2] deve essere identicamente uguale alla probabilit chetsiacompresa in [t1, t2].Eseguiamo sullespressione (9.3) della probabilit per x un cambiamentodi variabile, sostituendovi la t:Pr_x [x1, x2]_=12_t2t1e12t2dt . (9.5)9.3-Loscartonormalizzato 147Confrontandoledueespressioni (9.4) e(9.5) (che, ricordiamo, devonoassumere lostessovalore perqualunque coppia di valorix1ex2), si ricavaimmediatamente che deve essere(t) =12e12t2(9.6)Lacosaimportantecheinquestaespressionenoncompaiononler-rore quadratico medion alcuna altra grandezza dipendente dal modo incui la misura stata eettuata, ma solo costanti:in altre parole lo scarto nor-malizzatohaunadistribuzionedi probabilitindipendentedallaprecisionedellamisura.Di questa propriet si fa uso, ad esempio, per comporre in un unico gra-co campionidimisure aventiprecisionediversa: sedueosservatori misu-ranolastessagrandezzacommettendosoloerroricasuali, ledistribuzionidelleloromisuresarannonormali; maseglierroricommessisonodiversi,raggruppandoidueinsiemi di osservazioniinunsoloistogrammalanda-mento di questultimo non gaussiano.Per gli scarti normalizzati hanno lastessaleggedidistribuzioneperentrambii misuratori,indipendentementedallentit dei loro errori, e possono essere cumulati in un unico istogramma.Altraconseguenzadellindipendenzadadellafunzionedi frequenza(9.6) di t, chelaprobabilitper unamisuradi averescartonormaliz-zatocompresotraduevalori costanti pressati risultaindipendentedallaprecisione della misura stessa; ad esempio si haPr_t [1, +1]_=12_+11et22dt = 0.6827 . . .Pr_t [2, +2]_=12_+22et22dt = 0.9545 . . .Pr_t [3, +3]_=12_+33et22dt = 0.9973 . . .e, ricordando la relazione che intercorre traz et, questo implica che risultianchePr_z [, +]_ Pr_t [1, +1]_ 0.6827Pr_z [2, +2]_ Pr_t [2, +2]_ 0.9545Pr_z [3, +3]_ Pr_t [3, +3]_ 0.9973 .148 Capitolo 9-LaleggediGaussFigura 9b - Gli istogrammi relativi a due campioni di misure aventidierente precisione, e quello relativo ai dati di entrambi i campioni.500040003000200010000-4 -3 -2 -1 0 1 2 3 4Misuratore A20000150001000050000-4 -3 -2 -1 0Misuratore B1 2 3 42500020000150001000050000-4 -3 -2 -1Somma di A e di B0 1 2 3 49.4-Ilsignificatogeometricodi 149Possiamo quindi far uso di una qualsiasi di queste relazioni per dare unainterpretazioneprobabilistica dellerrore quadratico medio: Lemisureaettedaerroricasuali(equindinormali)hannouna probabilitdel 68% di cadere allinternodi un intervallodi semiampiezza centratosul valorevero dellagrandezzamisurata. Lintervallodi semiampiezzacentratosudi unamisuraqualsiasi di uncampione hapertantounaprobabilitdel68%di contenereil valorevero, semprechgli errori sianocasuali e normali.9.4 Ilsignicatogeometricodi Calcoliamo ora la derivata prima della funzione di Gauss, nella sua forma(9.2):dfdz = z2 3ez222.La funzione f(z) crescente (f(z) > 0) quando z negativa, e viceversa;ha quindi un massimo per z = 0, come daltronde richiesto dalle ipotesi fattenel paragrafo 9.1 per ricavarne la forma analitica.La derivata seconda invecevaled2fdz2 = 12 3ez222z2 3ez222_z2_=12 3ez222_z22 1_e si annulla quandoz = .Da qui sipuallora ricavare ilsignicatogeometricodellerrore quadra-tico medio in relazione alla distribuzione normale:Lerrorequadraticomediopuessereinterpretatogeometrica-mentecomevaloreassolutodelleascissedei duepunti di essodellacurva diGauss.9.5 LacurvadiGaussnellapraticaUncampionedi Nmisuredi unagrandezzasicaconvaloreverox,aettedasoli errori casuali normali conerrorequadraticomedio, avr150 Capitolo 9-LaleggediGaussmedia xprossimaax(sappiamoinfatti chelavarianzadellamediavale2/Ne tende a zero al crescere di N), e varianza s2prossima a 2(anche lavarianza di s2tende a zero al crescere di N:vedi in proposito lappendice B).Per N abbastanza grande3si pu dunque assumere s ed interpretarelostessoscartoquadraticomediodel campiones, inluogodi (peraltroignoto), come semiampiezza dellintervallo di condenza corrispondente aduna probabilit del 68%.Purtroppo non generalmente possibile capire, dallandamento di un in-siemedi osservazioni, sefosseroomenopresenti nellamisuraerrori si-stematici; uncampionedi misureripetute, eettuateconfrontandolalun-ghezza di un oggetto con un regolo graduato mal tarato, avr distribuzioneancora normale: solo centrata attorno ad una media che non corrisponde alvalore vero.Al contrario, se la distribuzione delle misure non normale sicuramentec qualcosa di sospetto nei dati che stiamo esaminando; sorge quindi il pro-blema distimare se un insiemedi dati hao non ha distribuzione conformeallafunzionediGauss(omeglio, distimareconqualelivellodiprobabilitpossa provenire da una distribuzione normale).Perfarquestosi puricorrereadalcuneproprietmatematichedellacurva: ad esempio, si possono calcolare lerrore medio e lerrore quadraticomedio per vericare se il loro rapporto ha un valore vicino a quelloteorico;oppuresi pucalcolarelafrazionedi dati checadonotra x se x + seconfrontare il numero ottenuto con il valore teorico di 0.68.Ilmodomiglioredieseguireilconfrontoperquellocheconsisteneldisegnareassiemeallistogrammadei dati anchelacurvateoricarelativa;aquestolivelloil confrontopuesseresoltantovisuale, maesistonome-todi matematici (metododel chi quadro; si vedainpropositoil paragrafo12.2.1)chepermettonodistimarecon esattezzalaprobabilit cheidatidiun istogramma provengano da una data distribuzione, nel nostro caso quellanormale.PersovraimporrelacurvadiGaussadunistogramma, occorrecomun-que moltiplicarne in ogni punto lordinata per un fattore costante. Laltezzadellistogramma infatti in ogni intervallo data dayi =niAxidove ni il numero di valori osservati nellintervallo di centro xi ed ampiez-za xi, mentre A larea del rettangolo corrispondente ad una osservazione.3Cosasi debbaintendereesattamenteperabbastanzagranderisulterchiarodal-lanalisi dellappendice B;normalmente sirichiedono almeno30misure,dimensione delcampione che corrisponde per sad un errore relativo di poco superiore al 10%.