manzino lezioni di topografia - 02 trattamento statistico misure

Upload: leirbag88

Post on 04-Apr-2018

233 views

Category:

Documents


2 download

TRANSCRIPT

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    1/89

    progettodidattica in rete

    g

    etto

    did

    att

    ica

    inre

    Dipartimento di Georisorse e TerritorioPolitecnico di Torino, dicembre 2000

    Lezioni di TopografiaParte II - Il trattamento statistico delle misure

    A. Manzino

    otto editore

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    2/89

    DISPENSE DI TOPOGRAFIA

    PARTE II ILTRATTAMENTOSTATISTICO

    DELLEMISURE

    A. MANZINO

    Otto Editore P.zza Vittorio Veneto 14 10123 Torino

    www.otto.to.it

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    3/89

    i

    INDICE

    PARTE SECONDA IL TRATTAMENTOSTATISTICO DELLE MISURE

    6. STATISTICA DI BASE...................................................................1

    6.1 PRIMITEOREMIDELLEDISTRIBUZIONIDIPROBABILIT......................3a. Teorema della probabilit totale ..........................................................3b. Definizione di probabilit condizionata..............................................4c. Definizione di indipendenza stocastica................................................4

    6.2 V ARIABILICASUALI ..................................................................................4Esempio di variabile casuale continua.....................................................5Funzione densit di probabilit ...............................................................6Dalla variabile casuale alla variabile statistica...........................................7La costruzione di istogrammi ..................................................................8La media...................................................................................................9

    La varianza ............................................................................................ 10

    6.3 TEOREMADI TCHEBYCHEFF............................................................... 11Teorema................................................................................................ 11Il teorema nel caso di variabili statistiche.............................................. 12

    6.4 LAVARIABILECASUALEFUNZIONEDIUNAVARIABILECASUALE....... 13Esempio 1 ............................................................................................. 15Esempio 2 ............................................................................................ 16

    6.5 TEOREMADELLAMEDIA

    ...................................................................... 16

    Corollario 1

    ............................................................................................ 16

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    4/89

    ii

    Corollario 2

    ............................................................................................ 17Esempio................................................................................................. 18

    6.6 L

    EGGE

    DI

    PROPAGAZIONE

    DELLA

    VARIANZA

    ...................................... 18

    Osservazioni al teorema di propagazione della varianza....................... 18Esempio di applicazione del teorema di propagazione della varianza.. 19

    6.7 A

    LCUNE

    IMPORTANTI

    VARIABILI

    CASUALI

    .......................................... 19Distribuzione di Bernoulli o binomiale................................................ 19Distribuzione normale o di Gauss........................................................ 21La distribuzione

    2 (chi quadro).......................................................... 22Distribuzione t

    di Student .................................................................... 24La distribuzione F

    di Fisher .................................................................. 25

    7. LA VARIABILE CASUALE An

    DIMENSIONI.......................27

    Esempio 1 ............................................................................................. 28Esempio 2 ............................................................................................. 29

    7.1 D

    ISTRIBUZIONI

    MARGINALI

    ................................................................. 30

    7.2 D

    ISTRIBUZIONI

    CONDIZIONATE

    ......................................................... 31

    7.3

    INDIPENDENZA

    STOCASTICA

    ............................................................... 32Leggi relative alle distribuzioni.............................................................. 32

    7.4 V

    ARIABILI

    CASUALI

    FUNZIONI

    DI

    ALTRE

    VARIABILI

    CASUALI

    ............. 33Trasformazione di variabili ................................................................... 33

    Esempio di applicazione della trasformazione ad un caso lineare........ 34

    7.5 M

    OMENTI

    DI

    VARIABILI

    n

    -

    DIMENSIONALI

    ......................................... 36Teorema della media per variabili casuali n

    -dimensionali ..................37

    Corollario 1

    ............................................................................................ 37

    Corollario 2

    ............................................................................................ 37Momenti di ordine di una variabile casuale n

    - di-mensionale............................................................................... 37La propagazione della varianza nel caso lineare ad n

    -dimensioni ....... 39Esercizio 1 ............................................................................................ 40Esercizio 2 ............................................................................................ 41

    7.6 L

    A

    LEGGE

    DI

    PROPAGAZIONE

    DELLA

    VARIANZA

    NEL

    CASO

    DI

    FUNZIONI

    NON

    LINEARI

    ....................................................................................... 42Esercizio 3 ............................................................................................ 43La propagazione della varianza dan

    dimensioni ad una dimensione . 45Esercizio 1 ............................................................................................ 45Esercizio 2 ............................................................................................ 45Esercizio 3 ............................................................................................ 46Esercizio 4 ............................................................................................ 46Esercizio 5 ............................................................................................ 46

    7.7 I

    NDICE

    DI

    CORRELAZIONE

    LINEARE

    .................................................. 47

    n1 n2 nk,,,( )

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    5/89

    iii

    7.8 P

    ROPRIET

    DELLE

    VARIABILI

    NORMALI

    AD

    n

    -

    DIMENSIONI

    .............. 48

    7.9 S

    UCCESSIONI

    DI

    VARIABILI

    CASUALI

    ................................................... 52

    7.10 C

    ONVERGENZA

    IN

    L

    EGGE

    ............................................................... 53

    7.11 T

    EOREMA

    CENTRALE

    DELLA

    STATISTICA

    ........................................... 53Teorema ............................................................................................... 53Prima osservazione al teorema centrale della statistica ........................ 53Seconda osservazione al teorema centrale della statistica ..................... 54

    7.12 L

    E

    STATISTICHE

    CAMPIONARIE

    E

    I

    CAMPIONI

    B

    ERNOULLIANI

    ........ 55Osservazione ........................................................................................ 55Definizione di statistica campionaria

    .................................................... 55

    7.13 L

    E

    STATISTICHE

    CAMPIONARIE

    COME

    STIME

    DELLE

    CORRISPONDENTI

    QUANTIT

    TEORICHE

    DELLE

    VARIABILI

    CASUALI

    56Stima corretta o non deviata ................................................................ 56Stima consistente ................................................................................. 56Stima efficiente ..................................................................................... 56Stima di massima verosimiglianza ....................................................... 56

    7.14 F

    UNZIONE

    DI

    VEROSIMIGLIANZA

    EPRINCIPIODIMASSIMAVEROSIMIGLIANZA ............................................................................... 58

    7.15 LAMEDIAPONDERATA(OPESATA)..................................................... 60

    8. APPLICAZIONI DEL PRINCIPIO DEI MINIMI QUADRATIAL TRATTAMENTO DELLE OSSERVAZIONI ...................62

    8.1 I MINIMIQUADRATIAPPLICATIADEQUAZIONIDICONDIZIONECONMODELLOLINEARE .............................................................................. 64Esempio applicativo: anello di livellazione .......................................... 65

    8.2 MINIMIQUADRATI, FORMULERISOLUTIVENELCASODELL'UTILIZZODIPARAMETRIAGGIUNTIVI ................................................................. 67Esempio applicativo ............................................................................. 70

    8.3 MINIMIQUADRATI : EQUAZIONIDICONDIZIONEEPARAMETRI

    AGGIUNTIVI ......................................................................................... 728.4 PROPRIETDELLESTIME ED , LORODISPERSIONE ................... 74

    Pure equazioni di condizione .............................................................. 75Pure equazioni parametriche ............................................................... 75

    8.5 IL PRINCIPIODEIMINIMIQUADRATIINCASINONLINEARI.............. 76

    8.6 ESERCIZIO............................................................................................. 78Modello geometrico............................................................................. 79Modello stocastico e soluzione ai minimi quadrati .............................. 80

    y x

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    6/89

    1

    PARTE II IL TRATTAMENTO STATISTICO

    DELLE MISURE

    6. STATISTICA DI BASE1

    In questo capitolo ci doteremo di alcuni strumenti statistici per il trattamento dellemisure.

    Vediamo come si inserisce la statistica nella tecnica di misura e, per iniziare, comepossiamo definire una misura. Conosciamo tre tipi di operazioni di misura:

    Misure dirette: vengono eseguite contando il numero di unit campione conte-nute in una quantit precostituita. Concettualmente funziona cos ad esempiouna bilancia a piatti, cos quando si misura col metro un oggetto ecc

    Misure indirette: sono definite da un legame funzionale a misure dirette; adesempio la misura indiretta della superficie del triangolo noti due lati el'angolo compreso misurati direttamente. Il legame nell'esempio

    .

    Misure dirette condizionate: sono delle misure dirette, ma fra loro sonolegate da un legame funzionale interno. Ad esempio la misura diretta di treangoli di un triangolo piano deve verificare la legge:

    Nel capitolo 6 tratteremo prevalentemente le misure dirette, nel capitolo 7 quelleindirette (teorema della propagazione della varianza); infine le misure dirette condi-zionate saranno maggiormente trattate al capitolo 8 (minimi quadrati).

    1 Questa parte prende molti spunti, che liberamente interpreta, da Fernando Sans: Il trattamento

    statistico delle misure. - Clup 1990. Da questo testo sono tratte inoltre dimostrazioni ed esempi.

    S 1 2 ab sin=

    + + =

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    7/89

    STATISTICADIBASE

    2

    L'operazione di misura, diretta o meno, ha in comune il fatto, che sotto opportuneipotesi, pu essere considerata un'estrazione da una variabile casuale: vediamoinfatti tre esempi che ci porteranno a giustificare questo paragone.

    a. Dato un corpo rigido di lunghezza poco maggiore di 3 m ed un metrocampione suddiviso in mm, si desidera misurare il corpo con il metodo delriporto (o delle alzate).

    b. Il lancio di dadi non truccati.

    c. Si misurano le coordinatex, ydel punto ove cade un proiettile su un bersa-glio rettangolare sparato da uno stesso tiratore.

    Questi esperimenti hanno in comune il fatto che, a priori, impossibile predire inmodo deterministico il risultato dell'esperimento: se si ripete infatti, si otterrannodiversi risultati.

    Nell'esempio a. il fatto che ripetendo l'operazione di misura si ottengano diversi

    risultati, porta a dire che in questa operazione si commettono degli errori, neglialtri casi il diverso risultato dovuto alle variazioni non note dell'ambiente esternoe dell'oggetto di misura (e di come questi interagiscono), o ad una sua scarsa cono-scenza globale e puntuale del fenomeno.

    Questi errori possono classificarsi in:

    Errori grossolani: sono i pi banali anche se spesso i pi difficili a indivi-duare. Possono essere ad esempio il mancato conteggio di una alzata, la tra-scrizione errata di una misura, la codifica errata di un punto, ecc.

    I rimedi per evitarli sono l'acquisizione e il trattamento automatici, il con-trollo e la ripetizione delle misure possibilmente indipendenti ed ancoraautomatici. Non sono questi gli errori a cui intendiamo riferircinellesempio a.

    Errori sistematici: sono dovuti ad esempio all'imperfetta taratura dello stru-mento di misura o legati ad errori di modello (ad es. la misura indiretta diun angolo di un triangolo piano quando questo sia in realt megliomodellabile sulla superficie ellissoidica), hanno la caratteristica di conser-vare valore e segno: nellesempio a. la misura con pi alzate tra due punti Ae B, sar sempre superiore alla reale, se i punti intermedi non sono esatta-mente sull'allineamento AB.

    Sono eliminabili con tarature, con opportune procedure operative, o ren-dendoli di segno alterno (cio pseudo accidentali): si pu usare nel casodella bilancia non rettificata, ad esempio, il metodo della doppia pesata.

    Anche questi errori non sono quelli che giustificano i diversi risultatidegli esperimenti a. b. e c.

    Fluttuazioni accidentali: sono a priori imprevedibili, sono di segno alterno edipendono in senso lato dall'ambiente.

    La fluttuazione accidentale della misura un fenomeno aleatorio (casuale,probabilistico). Sono questi gli errori commessi negli esperimentidescritti. La scienza che studia questi fenomeni la statistica matematica,perci ne forniremo i concetti di base utili al trattamento delle misure geo-

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    8/89

    STATISTICADIBASE

    3

    detiche e topografiche. Ora cerchiamo di capire meglio in che ambito sicala la statistica nel trattamento delle misure. Potremmo definire la stati-stica la scienza che tenta di descrivere con certezza l'incertezza.

    Nell'esempio del metro, notiamo che, se avessimo preteso di stimare la lun-ghezza del corpo al mm, avremmo ottenuto numeri apparentemente pivariabili, mentre, chiedendo la misura al cm, il risultato sarebbe stato sem-pre uguale. Ne segue che, per la misura di una grandezza, l'indetermina-zione si presenta solo con procedure di misura che spingono l'approssimazione aiconfini delle capacit di misura dell'apparato usato.

    Data per scontata questa indeterminazione, dobbiamo tuttavia dire che ci aspet-tiamo un risultato poco disperso, o meglio una gamma di possibili valori ed unordine di priorit tra di essi.

    Questa priorit, espressa come numero reale compreso tra zero e uno si chiamaprobabi-

    lit. Ne diamo ora la pi usata definizione dettaassiomatica che consiste nel definire ladistribuzione di probabilit in base alle propriet (assiomatiche) che deve soddisfare:una distribuzione di probabilit P

    su un insieme

    S

    di valori argomentali, unamisura su una famiglia di sottoinsiemi di S

    (che include S

    stesso e l'insieme vuoto

    ) che, oltre agli assiomi della misura:

    soddisfa alla:6.4

    Vediamo un esempio pratico: il lancio della moneta. S costituito da 2 valori argo-mentali che possiamo rendere numerici associando ad esempiox

    = 0 a testa edx

    = 1a croce. S l'insieme dei valori argomentali {0,1} dei punti di coordinatex

    =0,

    x

    =1 sull'assex

    .

    I sottoinsiemi di S sono {

    }, {0}, {1}, {0,1}.

    Si ha P({

    }) = 0; P({0}) = 1/2; P({1}) = 1/2; P({0,1}) = 1.

    6.1 P

    RIMI

    TEOREMI

    DELLE

    DISTRIBUZIONI

    DI

    PROBABILIT

    a. Teorema della probabilit totale

    Dati due eventiA

    e B

    , sottoinsiemi disgiunti di S

    , la probabilit che si verifichiA

    o B

    , cio :

    6.5

    SeA

    e B

    non sono disgiunti:

    6.6

    6.1

    6.2

    6.3

    P A( ) 0P ( ) 0=P A B( ) P A( ) P B( )+=

    P S( ) 1=

    P A B( )

    P A B( ) P A( ) P B( )+= se A B =

    P A B( ) P A B( ) P B( )+= P A( ) P B( ) P AB( )+=

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    9/89

    STATISTICA

    DI

    BASE

    4

    b. Definizione di probabilit condizionata

    Si presenta quando si desidera esaminare la distribuzione solo su di una parte deivalori argomentali, restringendo S

    ad un sottoinsieme. Isolando una parte dei valoriargomentali si genera un'altra distribuzione di probabilit.Ad esempio in una popolazione di 100 persone caratterizzata dai possibili valoriargomentali: capelli chiari o scuri, occhi chiari o scuri (vedi tabella 6.1), si desideraconoscere qual la probabilit di estrarre una persona con occhi chiari fra quellecon i capelli chiari. Questa probabilit condizionata si indica P(A|B)

    (probabilitdiA

    condizionata a B)

    e vale:

    6.7

    Nell'esempio P(B)

    =

    50/100, P(AB)

    =

    40/100, P(A|B

    )

    =

    0.8

    c. Definizione di indipendenza stocastica

    DiciamoA

    e B stocasticamente indipendenti se:

    6.8

    Per la 6.7 si ha:

    cio:

    6.9

    Dunque due eventiA

    e B

    sono stocasticamente indipendenti se e solo se la proba-bilit composta P(AB)

    si scinde nel prodotto delle singole probabilit. Questaaffermazione ilteorema della probabilit composta

    .

    6.2 V

    ARIABILI

    CASUALI

    Definizione

    : una variabile casuale (vc) a una dimensione una distribuzione di probabi-lit il cui insieme di valori argomentali S

    sia rappresentabile in , tale che sia definita laprobabilit per qualunque insieme (ordinabile conx

    0

    ) del tipo:

    Tab. 6.1

    C

    APELLI

    C S

    Occhi C 40 10

    S 10 40

    P A|B( ) P AB( )P B( )

    ----------------=

    P A|B( ) P A( )=

    P A|B( ) P AB( )P A( )

    ---------------- P B( )= =

    P AB( ) P A( )P B( )=

    lR

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    10/89

    STATISTICA

    DI

    BASE

    5

    6.10

    In questo modo sar perci caratterizzata dalla funzione dix

    0

    :

    6.11

    F prende il nome di funzione di distribuzione e gode delle propriet:

    6.12

    6.13

    6.14

    Una vc si dice discreta

    se l'insieme S formato da un numero discreto di punti suiquali concentrata

    una probabilit; se viceversa la probabilit chex

    assuma un sin-golo

    valore sempre uguale a zero allora la vc continua.

    Nel primo caso avremo una funzione di distribuzione discontinua, nel secondocontinua. Ad esempio il lancio di una moneta rappresentato da una vc discreta:

    i valori argomentali sono ; la variabile casualexpu rappresentarsiattraverso la tabella:

    6.15

    Per ; per e per e la suafunzione di distribuzione disegnata in figura6.1.

    Fig. 6.1

    Esempio di variabile casuale continua

    Consideriamo una distribuzione di probabilit definita in

    6.16

    Siamo nel caso di distribuzione uniforme, la sua funzione di distribuzione F, riportatain figura6.2, sar:

    I x0( ) x x0{ } S=

    F x0( ) P x I x0( )[ ]=

    F x0( ) definita su x0 lR

    0 F x( ) 1

    F x( )x0

    lim 0;= F x( )x0 lim 1=

    F x2( ) F x1( ) x2 x1

    x1 0 x2 1=;=

    x1 0= x2 1=

    p 1 2= p 1 2=

    x 0 F x( ) 0= 0 x< 1 F x( ) 1 2= x 1 F x( ) 1>>

    P

    X0 1

    0,5

    1

    S 0 1,[ ]= lR

    P a x b ( ) b a cost= =

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    11/89

    STATISTICADIBASE

    6

    Fig. 6.2

    Funzione densit di probabilit

    Una qualunque variabile casuale pu caratterizzarsi attraverso la sua funzione didistribuzione F. Se la vc continua ci si chiede quale sar la probabilit P che xsiacompresa tra due valori . Si avr:

    6.17

    Se x piccolo ed F differenziabile:

    dove f (x) vien dettadensitdi probabilited funzione dix, si ha:

    6.18

    che, per le caratteristiche di F, (monotona e crescente) sar:

    La funzione di distribuzione si ottiene allora come funzione integrale della densit

    di probabilit:

    6.19

    con l'ipotesi di normalizzazione (o standardizzazione, vedi 6.4):

    6.20

    F x( ) 0= x 0F x( ) x= 0 x 1

    F x( ) 1= x 1>

    F

    X0 1

    1

    x0 x0 x+,[ ]

    P x0 x x0 x+ ( ) F x0 x+( )=

    P x0 x x0 x+ ( ) dF x0( ) F ' x0( )x f x0( )x= = =

    f x0( ) F ' x0( )P x0 x x0 x+ ( )

    x----------------------------------------------

    x 0lim= =

    f x0( ) 0 x

    F x( ) f t( ) td

    x

    =

    f t( ) td

    1=

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    12/89

    STATISTICADIBASE

    7

    Si noti che:

    Si abbia ad esempio la variabile casualexdefinita cos:

    (vedi figura6.2), la funzione densit di probabilit relativa uniforme e vale:

    Fig. 6.3 Funzione di densit di probabilit costante e uniforme.

    Dalla variabile casuale alla variabile statistica

    Se, per mezzo della variabile casuale si vuole rappresentare l'insieme dei possibilirisultati di un esperimento non deterministico, si possono organizzare i dati in unatabella a doppia entratain base ai risultati delle ripetizioni dell'esperimento.

    Ad esempio:

    Definiamo variabile statistica (vs) ad una dimensione latabella di due sequenze dinumeri che specifica come un dato si distribuisce fra la popolazione N:

    6.21

    f x( ) xda

    b

    F b( ) F a( ) P a x b ( )= =

    F0 x 0

    x 0 x 1 1 x 1>

    =

    f x( ) 1 0 x 1 0 x 0 x 1>;

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    13/89

    STATISTICADIBASE

    8

    xisono i valori argomentali, Fi le frequenze assolute ed fi= Fi/Nle frequenze rela-tive. Si ha:

    6.22

    Confrontando la6.21 e la6.22 si vede che la prima definisce unavariabile casualecon distribuzione di probabilit concentrata sui valori , sufficiente porre:

    6.23

    Con ci, ogni definizione data e ogni propriet mostrata per le variabili casuali devevalere anche per le variabili statistiche, poich formalmente identificabili con levariabili casuali attraverso la6.23.

    La sostanziale differenza di contenuto: sulla variabile casuale i numeripiassociatiai valoriximisurano un grado di possibilit che il risultato dell'esperimento abbiavalorepij; nel caso della variabile statistica il numero firegistraa posteriori sola-mente il fatto che su Nripetizioni si sono ottenuti Firisultati di valore xi.

    La probabilit, legata alla variabile casuale, un ente aprioristico assiomatico, la fre-quenza, legata alla variabile statistica un indice che misura a posteriori risultatiempirici.

    Per mezzo di questa identit formale, la funzione di distribuzione F(x) delle varia-bili casuali, prende il nome, per le variabili statistiche, di funzione cumulativa di fre-quenza F(x) e rappresenta la percentuale di elementi della popolazione il cui valoreargomentalexirisulta minore o uguale ax.

    6.24

    La costruzione di istogrammi

    Il concetto di densit di probabilit non applicabile ad una variabile discreta per-ch la sua funzione di distribuzione in ogni punto discontinua o costante.

    Questo implica, per l'analogia tra variabili casuali e variabili statistiche che non sipu definire un concetto analogo alla densit di probabilit per la variabile stati-stica.

    tuttavia importante poter confrontare la variabile statistica con particolari varia-bili casuali ben conosciute attraverso la funzione densit di probabilit, ci si faattraverso la costruzione di istogrammi.

    Il confronto vien fatto tra probabilit (nella variabile casuale) e frequenza (dellavariabile statistica) in questo modo: si fissa un intervallo e si esamina la percentualedei risultati che cadono nello stesso intervallo:

    6.25

    Fi1

    n

    N ;= fi1

    n

    N=

    x1xnP x xi=( ) fi=

    F x( ) fii

    NiN

    ------------= = xi x

    F x0( )N x0 x,( )

    N-----------------------=

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    14/89

    STATISTICADIBASE

    9

    dove il numeratore rappresenta il numero di elementi che cadono in detto inter-vallo. Il confronto valido per Ngrande (ad esempio N>200).

    Si abbiano ad esempio una serie di valori nell'intervallo I = (ba).

    Si riporta sull'assexl'intervallo (a,b) e si divide in n parti (con n< m valori dati),non necessariamente uguali .

    Per ogni intervallo si contano il numero di risultati che cadono in I i= N(Ii) e sisommano le frequenze relative a detto intervallo .

    Si disegna sopra Iiun rettangolo di altezza .

    Abbiamo costruito cos una tabella:

    6.26

    dovexisono le ascisse dei valori medi degli intervalli Ii.Si pu verificare infine che:

    6.27

    La media

    La descrizione completa di una variabile casuale deriva dalla conoscenza della suafunzione di distribuzione o della densit di probabilit od altro di equivalente. Permolti usi pratici la vc ben localizzata, cio distribuita in una ristretta zona di valoriammissibili. Ad esempio, nella misura con distanziometri elettronici di distanze,una distanza di 1 km pu avere ripetizioni che al pi differiscono di 2-3 mm; pertutte queste variabili le informazioni pi importanti da conoscere sono dove loca-lizzata la distribuzione e quanto dispersa. Allo scopo, sono utili due indici: mediae varianza.

    Definizione: si chiama media della vcx, quando esista, il numero:

    6.28

    Si noti l'analogia col momento statico di f(x).Nel caso di una vc discreta:

    6.29

    e, per analogia per una variabile statistica, la media, che si indica con m vale:

    6.30

    I1 I2 , I, n,( )

    fK fi=fK Ii

    x1 x2xnf1 f2fn

    fifKI i---- I i

    K

    i

    1= =

    M x[ ] xf x( ) dx

    = =

    M x[ ] xipi=

    m M x[ ] x xi= = = fixiNi

    N-----------=

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    15/89

    STATISTICADIBASE

    10

    Dove con si intende l'operazione matematica (l'operatore) che, da unadistribuzione, sia essa a priori vc o a posteriori vs, calcola un numero che la mediadella distribuzione.

    La6.30 evidenzia in Ni il numero di volte che il valore argomentale xi statoestratto, presupponendo la costruzione di una tabella ordinata allo scopo, se invececonxjindichiamo il singolo valore estratto si ha:

    6.31

    Si pu dimostrare che la media un operatore lineare cio gode delle propriet:

    6.32

    6.33

    La varianza

    un indice che misura il grado di dispersione di una vc xattorno alla media.

    Per definizione, se esiste vale

    6.34

    Si definisce la variabile scarto

    6.35

    La varianza si ottiene cio applicando l'operatore media al quadrato della variabilescarto, in altri termini il momento del secondo ordine della variabile scarto e siindica con , o solo .

    Per la variabile statistica, per analogia, la varianza si indica con , o solo. La radice quadrata della varianza si chiamascarto quadratico medio e si indica

    con sqm o con , tale valore pi usato della varianza, in quanto dimensional-mente omogeneo ax. Si ha dunque:

    6.36

    e, per una vc discreta:

    6.37

    Con la solita analogia tra variabile casuale e variabile statistica, per quest'ultima siha:

    6.38

    M [ ]

    m x1N---- xi= = j 1 N,,=

    M x y+[ ] M x[ ] M y[ ]+=

    M kx[ ] kM x[ ]=

    2 x[ ] M x x( )2[ ]=

    x x( )=

    2 x[ ] x2 2

    S2 x( ) Sx2S2

    x2 X x( )2 f X( ) dx

    =

    x2 Xi x( )2pi

    i

    =

    S2 Xi Mx( )2NiN-----

    i

    1N---- Xj Mx( )2

    j

    j

    2j

    N

    --------------= = =

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    16/89

    STATISTICADIBASE

    11

    Le ultime due espressioni valgono per una vc non ordinata: per questo si sostitu-ito l'indicejall'indice i.

    Dalla definizione di varianza, tenendo conto della linearit dell'operatore media e

    sviluppando si ha:6.39

    che permette di calcolare senza passare dalla variabile scarto. Per una vs nonordinata la6.39 si trasforma:

    6.40

    Nella6.39 rappresenta il momento del 2 ordine della vc che dato dalla sommadella varianza e del quadrato del valor medio.

    6.3 TEOREMADI TCHEBYCHEFF

    Nell'analogia meccanica in cui la probabilit viene considerata come una distribu-zione di massa concentrata o distribuita sull'assex, la media esprime (a parte unacostante di standardizzazione), la posizione del baricentro (il momento statico) e lavarianza ha il senso di momento di inerzia rispetto al baricentro.

    Pi le masse sono disperse e pi alto il momento di inerzia, cio la varianza. Que-sta nozione qualitativa espressa in termini probabilistici quantitativi dal teoremadi Tchebycheff che vale per qualsiasi tipo di distribuzione.

    Teorema

    Preso , e variabile casualex, vale la disuguaglianza:

    6.41

    Il teorema ci dice qual la dimensione dell'intervallo attorno alla media entrocui, per qualunque distribuzione dix, siamo sicuri di racchiudere una probabilitminima di (1 1/2).

    Dimostrazione

    Partiamo dalla definizione di , cio:

    restringendo l'intervallo di integrazione sar sempre vero che:

    6.42

    x2 M X2 2X 2+[ ] M X2[ ] 2M X[ ] 2+ M X2[ ] 2= = =

    2

    S2 X( ) 1N---- Xj

    2

    j

    m2=

    1>

    P x x x( ) 112-----

    x2

    x2 2 X x( )2 f x( ) dx

    = =

    2 x ( )2 f x( ) dxx

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    17/89

    STATISTICADIBASE

    12

    Il primo termine all'interno dell'integrale varr, per lo meno nell'intervallo di inte-grazione:

    dunque l'espressione 6.42 varr a maggior ragione sostituendo a lacostante :

    e, dividendo per :

    cio:

    c.v.d.

    Il teorema nel caso di variabili statistiche

    Consideriamo la variabile:

    e facciamo lipotesi che sia stata ordinata nel senso crescente

    per definizione:

    Anche gli scarti i saranno allora crescenti. Possiamo dividere in tre parti la somma-

    toria di cui sopra:

    s2 sar sempre maggiore od uguale alle prime due sommatorie, cio:

    A maggior ragione, essendo nella sommatoria:

    x ( )2 ( )2

    x ( )2( )2

    2 22

    2

    12----- f x( ) dx

    x

    12----- P x x ( )

    x1xn

    f1fn

    x1 x2< xn( ) f h( ) hd

    02

    =

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    29/89

    STATISTICADIBASE

    24

    Questi valori sono in genere tabulati in funzione di e di n. Tale variabile siindica spesso anche con per evidenziare il numero di gradi di libert.

    Distribuzione tdi Student

    Siazuna normale standardizzata e zialtre variabili normali standardizzate i= 1ne sia:

    6.72

    una seconda variabile casuale cos costruita ed indipendente daz.

    Si definisce la variabile tcome:

    6.73

    Si dimostra che la funzione densitdi probabilitf(t) vale:

    6.74

    La6.74 simmetrica rispetto all'origine, dunque:

    6.75

    Si prova che:

    6.76

    Per grandi valori di n , t molto simile alla variabile z.

    Per un certo valore del grado di libertn i valori della funzione di distribuzione diquesta variabile casuale si trovano tabulati in funzione delle probabilit ; adesempio per = 5% si trova tabulato:

    6.77

    02

    n2

    y z12 z2

    2 zn2

    + + + n2

    = =

    t tnz n

    n2

    ----------z n

    z12 z2

    2 zn2

    + + +

    --------------------------------------------= = =

    f t( ) 1 t2

    n----+

    n 1+

    2------------

    n 1+2

    ------------

    n n 2( )------------------------------=

    t( ) 0=

    2 t( ) nn 2------------= per n 2>

    t1 n,

    P t t

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    30/89

    STATISTICADIBASE

    25

    Fig. 6.9 Distribuzione tdi Student.

    La distribuzione Fdi Fisher

    Siano date due vc2 ad n ed m gradi di liberted indipendenti tra loro; allora ilrapporto

    6.78

    una vc dettaFdi Fisher ad (n,m ) gradi di libert.

    Si pu dimostrare che:

    6.79

    e che:

    6.80

    6.81

    -4 -3 -2 -1 0 1 2 3 4

    0.08

    0.16

    0.24

    0.32

    0.40

    Distribuzione di "Student"

    (N=4 G. di lib.=3)

    Distribuzione normale standard (G. di lib.= )

    Fn

    2 1n---

    m2 1

    m

    ------------------- Fn m,= =

    f F( ) Fn 2( ) 2

    nF m+( ) n m+( ) 2---------------------------------------

    nn 2 mm 2 n m+2

    -------------

    n 2( ) m 2( )------------------------------------------------= per F 0

    M F[ ] n

    n 2------------= n 2>( )

    2 F( ) 2n2 m n 2+( )

    m n 2( )2 n 4( )-----------------------------------------=

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    31/89

    STATISTICADIBASE

    26

    Fig. 6.10 Variabile Fdi Fisher.

    Anche qui le tabelle riportano per (n,m ) gradi di libert.

    Generalmente impiegata la variabile F detta di Fisher modificata che risulta esseresempre maggiore di 1 essendo cos definita:

    6.82

    0 1 2 3 4 F0

    0,5

    1,0

    1 GL ; 5 GL

    10 GL ; 10 GL

    P F F0( )

    FF con F 1

    1 F con F 1

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    32/89

    27

    7. LA VARIABILE CASUALE An DIMENSIONI

    Partiamo col definire una variabile casuale discreta an dimensioni cio quella varia-bile per cui ogni valore argomentale pu essere indicato come un vettore ,

    cio un punto nello spazio :

    7.1

    L'insieme dei valori argomentali S sar dunque un insieme in cui definitala nostra distribuzione di probabilit.

    La vc si dice discreta se la distribuzione di probabilit concentrata solo su kpuntixi , i = 1,,kcon la condizione:

    7.2

    In caso opposto la vc si dice continua. Analogamente alla vc discreta ad una dimen-sione si potr rappresentare una vc discreta ad n dimensioni con una tabellan-dimensionale.

    Nel caso di vc doppia ad esempio si pu costruire la tabella:

    x lRn

    lR

    n

    x

    x1

    x2

    .

    .

    .

    xn

    =

    SlR

    n

    P x xi=( )i 1=

    k

    1=

    x x11 x1

    2 x1k

    x21

    x22

    x2h

    p11 p1

    2 p1k

    p21 p2

    2 p2k

    ph1 p

    h2 p

    hk

    Pij P x1 x1i

    = ,x2 x2i

    =( )=

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    33/89

    LA

    VARIABILE

    CASUALE

    A

    n

    DIMENSIONI

    28

    La vc discreta sempre assimilabile alla variabile statistica, sostituendo allep

    ij

    le fre-quenze relativef

    ij

    :

    Una distribuzione di probabilit viene chiamata variabile casuale quando definitala probabilitper ogni

    insieme del tipo:

    Anche in questo caso possiamo definire la funzione densit di probabilit dellavariabile casualex

    se esiste, attraverso il limite:

    7.3

    dove

    (A) la misura dell'insieme A e

    il suo diametro che tende a zero inattorno al puntox

    .

    La7.3

    pu essere riscritta con:

    7.4

    dove d

    V

    (

    x

    ) un elemento di volume in attorno ax

    . Dalla definizione prece-dente si ha:

    7.5

    e la funzione di distribuzione

    7.6

    derivando la7.6

    si ricava:

    7.7

    Esempio 1

    In un urna sono contenute due palline bianche (

    b, B

    ) e due nere (

    n, N

    ). La varia-bile casuale discreta che descrive l'estrazione in blocco delle due palline e la relativaprobabilit sono

    1

    :

    1 Si ricorda che gli esempi sono tratti dal gi citato testo di F. Sans.

    ij

    Nij

    N-------=

    x1 x01; xn x0n

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    34/89

    LAVARIABILECASUALEAnDIMENSIONI

    29

    Nell'ipotesi di due estrazioni successive con sostituzione (reintegrazione) invece lavc sar:

    Esempio 2

    Osservando un gran numero di tiri al bersaglio possiamo dire quanto segue:

    a. in ogni zona del bersaglio i colpi tendono a distribuirsi uniformemente aparit di distanza dal centro

    b. contando i punteggi si visto che, indicando con r la distanza dal centro

    7.8

    Fig. 7.1 Distribuzione bidimensionale.

    La costante 2 un parametro di bravura del tiratore.

    Si vuole trovare la distribuzione bidimensionale dei tiri (figura7.1).

    Notiamo che la7.8 fornisce la probabilit che P[, ] dCcon dCelemento dicorona circolare attorno ad r0.

    b B n N 1AESTRAZIONE

    b / bB bn bN

    0 1/12 1/12 1/12 2A

    estrazioneBn Bb / Bn BN 1/12 0 1/12 1/12N nb nB / nN 1/12 1/12 0 1/12

    / Nb NB NB / 1/12 1/12 1/12 0

    b B n N 1AESTRAZIONE

    b bb bB bn bN

    1/16 1/16 1/16 1/16 2AestrazioneBn Bb BB Bn BN 1/16 1/16 1/16 1/16

    N nb nB nn nN 1/16 1/16 1/16 1/16

    / Nb NB NB NN 1/16 1/16 1/16 1/16

    P r dr r0( )[ ] r02------ e

    r02

    22---------- dr=

    dC

    d

    dr

    ro0

    d

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    35/89

    LAVARIABILECASUALEAnDIMENSIONI

    30

    Siccome in dC la probabilit uniformemente distribuita, allora:

    Per la definizione di densitdi probabilit:

    7.9

    La7.9 rappresenta l'equazione della distribuzione normale a due dimensioni.

    7.1 DISTRIBUZIONIMARGINALI

    Lo scopo dell'introduzione delle distribuzioni marginali e delle distribuzioni condi-zionate , ai nostri fini, capire se e quando due variabili casuali sono fra loro indi-pendenti.

    Consideriamo l'evento A:

    facile intuire che la classe di questi eventi dipende solo dalla variabile casuale x1 e,nel cercare la probabilitdell'evento Ai, domandiamo qual la probabilitche x1stia in dx1qualunque valore assunto perx2xn. Da una distribuzione n-dimensio-nale si genera cio una distribuzione mono-dimensionale ed una corrispondente vc x1tale che:

    Questa vc dettamarginale dellax ed ha densitdi probabilit:

    ricordando la definizione di densitdi probabilit6.23 come derivata dalla fun-zione F si ha:

    7.10

    Una vc n -dimensionale avrn marginali mono-dimensionali.

    P ,( ) d[ ] P x dC[ ] ddC-------- P x dC[ ] d

    2-------

    1

    2------ e

    r0

    2

    22---------

    rdrd2-------= = =

    f ,( ) P ,( ) d[ ]d

    ------------------------------------P ,( ) d[ ]

    rdr d------------------------------------= =

    f ,( ) 122-------------- e

    r2

    22--------- 1

    22-------------- e

    2 2+

    22-----------------

    = =

    A x1 dx1 x01( ); x2 ; xn <

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    36/89

    LAVARIABILECASUALEAnDIMENSIONI

    31

    Oltre alle distribuzioni marginali ad una componente si possono anche introdurredistribuzioni marginali di insiemi di componenti: (x1,x2), (x1,x3) ecc. Ad esempio:

    che, integrata, fornisce la probabilitche un certo gruppo di componenti (x1,x2)appartengano ad un certo elemento di volume dV2per qualunque valore assunto dallealtre componenti.

    7.2 DISTRIBUZIONICONDIZIONATE

    Ci si chiede qual la probabilitche m variabili, ad esempio (x1xm) stiano in unelemento di volume dVm, mentre le altre (xm+1xn) sono certamente vincolate adun elemento di volume dVm-n.

    I due eventi A e B sono:

    Si desidera calcolare che vale secondo la6.7:

    Tale distribuzione di probabilitgenera una densitdi probabilitper le variabili(x1xm) per qualunque valore delle rimanenti variabili (xm+1xn) che vale:

    7.11

    fx1x2 x1, x2( ) dx3 dxn f x01,x02,xn( )

    =

    A x1xm( ) dVm{ }; B xm 1+ xn( ) dVn m{ }P A B[ ]

    P A B[ ] P AB[ ]P B[ ]

    ----------------f

    xx( )dV

    mdV

    n m

    dVn m fx x1xm, xm 1+ xn( )dVm

    Rm

    ---------------------------------------------------------------------------------------- = =

    P A B[ ]f

    x x1xm, xm 1+ xn( )dx1dxm

    dx1 dxm fx x1xm, xm 1+ xn( )

    ---------------------------------------------------------------------------------------------=

    fx1xm xm 1+ xn x1xm xm 1+ xn( ) fxx

    1x

    m,x

    m 1+ x

    n( )

    dx1 dxm fx x1xm, xm 1+ xn( )

    ------------------------------------------------------------------------------------------- =

    fx1xm xm 1+ xn

    x1xm xm 1+ xn( )f

    xx1xm, xm 1+ xn( )

    fx

    m 1+ xnx

    m 1+ xn( )-------------------------------------------------------=

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    37/89

    LAVARIABILECASUALEAnDIMENSIONI

    32

    7.3 INDIPENDENZASTOCASTICA

    Leggi relative alle distribuzioni

    Ricordando le 6.8 due eventi si definiscono stocasticamente indipendenti se:6.8

    Se ci limitiamo ad esaminare un elemento di volume dVm:

    si ha allora che, nel caso di eventi indipendenti, la7.11 deve essere uguale anche a, cio a dire:

    7.12

    Se ci verificato le variabili casuali sono stocasticamente indipendentidalle rimanenti .

    Se, al contrario, la densit di probabilit totale pu essere fattorizzata nelprodotto:

    7.13

    le prime variabili sono indipendenti dalle seconde.

    Si nota che i termini al secondo membro sono proporzionali alle marginali. Siarriva cos al teorema:

    Condizione necessaria e sufficiente affinch siano stocasticamente

    indipendenti da e viceversa, che la densit di probabilit con-

    giunta si spacchi nel prodotto delle due marginali:

    7.14

    Ne segue un facile corollario:Condizione necessaria e sufficiente affinch le n componenti di una vc n-dimensio-nale siano tutte tra loro indipendenti che la densit di probabilit congiunta si

    spacchi nel prodotto delle n-marginali:

    7.15

    Si noti, a proposito, che la7.9 che rappresenta la variabile di Gauss a due dimen-sioni pu rappresentarsi anchessa dal prodotto:

    P A B[ ] P A[ ]=

    P A[ ] P x1xm( ) dVm[ ] fx1xm x1xm( )dVm= =

    fx1xm x1xm( )

    f x1xm xm 1+ xn( ) fx x( ) fx1xm x1xm( ) fxm 1+ xn xm 1+ xn( )= =

    x1xm( )xm 1+ xn( )

    fx x( )

    fx x( ) x1xm( ) xm 1+ xn( )=

    x1xm( )xm 1+ xn( )

    fx x( ) fx1xm x1xm( ) fxm 1+ xn xm 1+ xn( )=

    fx x( ) fx1 x1( ) fx2 x2( ) fxn xn( )=

    f ( ) f ( ) f ( ) 12

    ------------------ e12---

    -------

    2 1

    2 ------------------ e

    12---

    -------

    2

    = =

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    38/89

    LA

    VARIABILE

    CASUALE

    A

    n

    DIMENSIONI

    33

    7.4 V

    ARIABILI

    CASUALI

    FUNZIONI

    DI

    ALTRE

    VARIABILI

    CASUALI

    Trasformazione di variabili

    Supponiamo che sia data una funzione g che trasformi variabili da

    a

    :

    7.16

    ( g un vettore di funzioni).

    Si pu dimostrare che, a partire da una distribuzione di probabilit in possiamocostruirne una in cos fatta:

    Sia dVm(Y0) un'elemento di volume di in un intorno di Y0, e siaA(Y0)l'immagine inversa di dVm(Y0), vale a dire l'insieme di:

    Si pone:

    7.17

    ammesso che il secondo termine sia misurabile.

    Dunque da una variabile casuale (a destra dell'uguale) possiamo costruirne unaseconda (a sinistra dell'uguale).

    Ci si chiede: conoscendo la distribuzione di come sar distribuita la variabile ?

    I casi da prendere in considerazione sono tre:

    Escludiamo subito il caso m>n, infatti, se g(x) differenziabile l'insieme dei valoriargomentali un insieme in , ma avrebbe misura nulla: nonci interessa per il trattamento delle misure analizzare distribuzioni singolari.

    Nel caso in cui n=m, se lo jacobiano J della funzione non nullo, si ha una cosid-dettatrasformazione regolare:

    ci ci permette di dire che esiste anche la relazione inversa che porta da a .

    Sia allora dVn( y) un elemento di volume attorno ad e dVn( x) l'elemento divolume corrispondente attorno ad .

    Il primo intorno lo otteniamo applicando ad la trasformazione g, cio l'intorno:

    lRn

    lRn

    y g x( )=

    lRn

    lRn

    lRn

    x lRn g x( ) dVm Y0( )

    P Y dVm Y0( )[ ] P x A Y0( )( )=

    x

    x y

    m n;

    Y g x( ) x lRn= lRn

    J g( ) gx------ det.

    g1x1--------

    g1xn-------

    gnx1--------

    gnxn---------

    0= = x lRn

    y x

    yx

    x

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    39/89

    LAVARIABILECASUALEAnDIMENSIONI

    34

    7.18

    Per la definizione della probabilit ad n-dimensioni si ha poi l'equazione:

    7.19

    e, per la definizione di densit di probabilit:

    cio:

    7.20

    Ma la derivata al denominatore qualcosa di gi noto, infatti lo Jacobiano di ,:

    7.21

    e allora la7.20 si trasforma in:

    7.22a

    dove:

    7.22b

    Esempio di applicazione della trasformazione ad un caso lineare

    Sia data una trasformazionelineare e regolare da a 1

    7.23

    con:

    1 Qui di seguito indicheremo di tanto in tanto con doppia sottolineatura le matrici e con singola ivettori. Questa notazione usata per rendere pi chiaro il discorso all'inizio di un problema ed tralasciata se il senso della formula univoco, od in genere, per brevit, all'interno di una

    dimostrazione gi avviata.

    dVn y( ) g dVn x( )( )=

    P Y dVn y( )[ ] P X dVn x( )[ ]=

    fy y( ) dVn y( ) fx x( ) dVn x( )=

    fy y( )fx x( )

    dVn y( )

    dVn x( )

    -------------------

    ------------------------=

    gJ g( )

    det. g

    x------ g

    x-----

    dVn y( )

    dVn x( )------------------= =

    fy y( )fx x( )

    gx-------

    -------------=

    x g 1 y( )=

    lRn

    lRm

    y Ax b+=

    A det.A gx----- 0==

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    40/89

    LAVARIABILECASUALEAnDIMENSIONI

    35

    Si ha:

    7.24

    7.25

    Sia la funzione di distribuzione , ad esempio, il prodotto di n normali stan-dardizzate, tali che:

    7.26a

    che pu essere anche scritta come:

    7.26b

    Dalla7.24 ricaviamo:

    Si ottiene infine dalla7.25:

    7.27

    Esaminiamo l'esponente della7.27.Definita A2 una matrice reale, simmetrica e positiva, si dimostra che sempre pos-sibile scomporla nel prodotto:

    7.28

    di modo che la7.27 diviene:

    7.29

    La7.29 rappresenta la forma nella quale possibile scrivere la funzione densit di pro-

    babilit di una qualsiasi variabile normale n-dimensionale non standardizzata e rappre-senta anche, con la 7.23 e la 7.28 la via da seguire per la standardizzazione. Questiconcetti saranno ripresi ed estesi in seguito.

    Esaminiamo infine il caso di una trasformazione da a con m < n, cio:

    7.30

    Ad un elemento di volume pu corrispondere un insieme diche non ha misura finita:

    x A 1 y b( )=

    fy y( )fx A 1 y b( )( )

    A------------------------------------=

    fx x( )

    fx x( )1

    2-----------e x 1

    2 2 12

    -----------e x n2 2 1

    2( )n 2-------------------e

    x12 2= =

    fx x( ) 12( )n 2-------------------e

    xTx( )2--------------=

    xT A 1 y b( )[ ]T y b( )T A 1( )T= =

    fy y( )1

    2( )n 2 A--------------------------e

    12--- y b( )T A 1( )TA 1 y b( )

    =

    A2 ATA AAT= =

    fy y( )1

    2( )n 2 A------------------------- e

    12--- y b( )T A2( ) 1 y b( )

    =

    lRn

    lRm

    y1 g1 x1xn( )=

    ym gm x1xn( )=

    dVm y( )x AX dVm( )=

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    41/89

    LAVARIABILECASUALEAnDIMENSIONI

    36

    Ponendo:

    si ha:

    7.31

    Oltre alla7.31, se non intervengono ulteriori ipotesi, non si pu in questo caso dire altro.

    7.5 MOMENTIDIVARIABILIn-DIMENSIONALI

    Anche per le variabili casuali n-dimensionali possono generalizzarsi i concetti vistiad una dimensione.

    Se esiste la media della variabile casuale n-dimensionale questa per definizioneun vettore n-dimensionale x dato da:

    7.32

    dove il simbolo sta per prodotto scalare. La componente i-esima di x vale:

    7.33

    dalla7.32 si nota che per calcolare basta conoscere la distribuzione marginaledixi, infatti:

    7.34

    cio la componente i-esima della media di uguale alla media della compo-nente i-esima.

    Nel caso ad esempio di una variabile statistica doppia , rappresentata al

    solito dalla tabella:

    dVm y( ) g AX dVm( )[ ]=

    P Y dVm Y0( )[ ] P x AX0[ ]=

    fY y( )1

    dVm y( )------------------ fx x( ) dVn x( )

    AX dVm( )

    =

    x

    x

    M x[ ] dVn x( )fx x( )

    Rn x= =

    xiM xi[ ] dVn x( )xifx x( )

    Rn

    = =xi

    xi dxidVn 1 xifx x( )

    ndxi xi dx1dxi 1 dxi 1+ dxn fx x( )

    = =

    xidxi xifxi xi( )

    =x

    x y,[ ]

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    42/89

    LAVARIABILECASUALEAnDIMENSIONI

    37

    possiamo, sfruttando la solita analogia, ricavare:

    Teorema della media per variabili casuali n-dimensionali

    Sia una trasformazione da a , con variabile casuale e

    variabile per definizione di media, se esiste, si ha:

    7.35

    In questo caso il teorema della media afferma che:

    7.36

    Corollario 1

    Nel caso in cui la funzione vettoriale gsia lineare, nel caso cio in cui:

    7.37

    Corollario 2

    se la variabile ben concentrata in una zona di attorno alla media x e,

    nella stessa zona la funzione che lega le due variabili casuali: lenta-

    mente variabile allora:

    7.38

    in analogia a quanto visto per vc ad una dimensione.

    Momenti di ordine di una variabile casuale n-dimensionale

    Si definiscono momenti di ordine di una variabile casuale n-dimen-sionale gli scalari:

    7.39

    x x1,x2, xr,=

    y y1,y2, ys,=

    M x[ ] x 1r--- xi= =

    M y[ ] y 1s--- yj= =

    lRn

    lRm

    x x lRn y

    y lRn

    M y[ ] My g x( )[ ] g x( )fx x( ) xd

    lRn

    = =

    MY y[ ] Mx g x( )[ ]=

    y Ax b+=

    y

    Ax

    b+=

    x lRn

    y g x( )=

    y g x( )=

    n1 n2 nk,,,( )

    n1 n2 nk,,,( )

    i1,i2 , ,ikn1,n2 ,,nk M xi1

    n1 ,xi2n2, , xik

    nk[ ]=

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    43/89

    LAVARIABILECASUALEAnDIMENSIONI

    38

    Si definiscono momenti centrali i corrispondenti momenti della variabile scarto:

    Molto spesso tuttavia i momenti pi usati sono quelli del secondo ordine che, perdefinizione indichiamo con:

    7.40

    Notiamo che per i=k si ha:

    7.41

    cio i momenti centrali del secondo ordine per i=k sono le varianze della compo-nente i-esima di .

    I coefficienti per si indicano anche con e sono detti coefficienti di

    covarianza delle componenti e .Come evidente dalla7.40 ,la7.40 e la7.41 espresse in forma matricialedivengono:

    7.42

    La detta per ovvi motivi matrice di varianza covarianza o matrice di dispersioneed simmetrica.

    Si pu dimostrare, analogamente al caso mono-dimensionale, che:

    7.43

    Cerchiamo ora un'altra espressione della7.42 nel caso particolare in cui le compo-nenti dixsiano fra loro indipendenti.

    In questo caso pu essere scritta come prodotto delle marginali 7.15:

    e, osservando che ogni marginale normalizzata per suo conto, cio che:

    si trova, per , ricordando la7.40,

    7.44

    x x

    =

    cik M xi xi( ) xk xk( )[ ] M ik[ ]= =

    cii i2 M xi xi( )2[ ]= =

    x

    cik i k ikxi xk

    cik cki=

    Cxx cik[ ] M xi xi( ) xk xk( )[ ] Cxx M x x( ) x x( )T[ ]= = = =

    Cxx

    Cxx M xxT[ ] xxT=

    f x( )

    f x( ) fx1 x1( ) fxn xn( )=

    fxjxj( ) xjd

    1=

    i k

    M xixk[ ] xixkfx x( ) x1d xnd=fx1 x1( ) x1d

    fx2 x2( ) x2d

    xi fxixi( ) xid

    xkfxkxk( ) xkd

    =

    M xi

    xk

    [ ] xi

    xk

    =

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    44/89

    LAVARIABILECASUALEAnDIMENSIONI

    39

    ma, ricordando la7.43:

    ne deriva che:7.45

    cio, per componenti di indipendenti, la matrice diagonale e assume laforma:

    7.46

    Si pu verificare in molti casi che non vero viceversa, cio la forma diagonale dinon significa necessariamente che le n-componenti siano fra loro indipendenti.

    La propagazione della varianza nel caso lineare adn-dimensioni

    Come nel caso mono-dimensionale ci domandiamo cosa vale la matrice divarianza covarianza di una variabile casuale funzione di una secondavariabile .

    L'ipotesi che la relazione g sia lineare, cio e che .

    Per il teorema della media:

    dunque:

    7.47

    ma per definizione di :

    sfruttando la linearit dell'operatore media, M[], si ha:

    7.48

    questa la legge di propagazione della varianza nel caso lineare.

    cik M xixk[ ] xikk=

    cik ik 0= = i k

    x Cxx

    Cxx1

    20

    0n2

    =

    Cxx

    y lRm

    x lRn

    y Ax b+= m n

    y

    A x

    b+=

    y y

    ( ) A x x

    ( )=

    Cyy

    Cyy M y y( ) y y( )T[ ] M A x x( ) x x( )TAT[ ]= =

    Cyy A M x x( ) x x( )T[ ]AT A CxxAT= =

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    45/89

    LAVARIABILECASUALEAnDIMENSIONI

    40

    Esercizio 1

    Con un teodolite si misurano le direzioni che ipotizziamo estratte da

    una vc a tre dimensioni con media , indipendenti fra di loro e con

    varianze:

    Si determini, valor medio, varianza e covarianza degli angoli azimutali 1 e 2cos definiti:

    Fig. 7.2

    L'esercizio lasciato allo svolgimento del lettore con questo suggerimento: data lamatrice

    si applichi il teorema della media e la propagazione della varianza da a .

    1 2 3,,

    1 2 3,,( )

    12

    310 10 4 gon = = = =

    1 1 2=

    2 2 3=

    OP C

    B

    A

    P

    2

    1

    3

    2

    1

    C

    2

    0

    0

    0

    2

    0

    0

    0

    2

    =

    lR3 lR2

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    46/89

    LAVARIABILECASUALEAnDIMENSIONI

    41

    Esercizio 2

    Si calcoli la covarianza fraxeye le rispettive varianze per la seguente variabilestatistica doppia:

    Si ricavano dapprima le frequenzepie qjdelle marginali; i valori medi sono ricavatiattraverso le frequenze marginali:

    Per definizione:

    Al secondo membro il secondo termine vale ed il terzo vale ,

    infine il quarto vale essendo:

    Si ha infine:

    7.49

    y=

    x= 4 5 9 pi

    1 0.1 0.2 0.1 0.4

    2 0.1 0.2 0 0.3

    3 0 0.1 0.1 0.2

    4 0 0 0.1 0.1

    qj 0.2 0.5 0.3 1

    Mx xipi1

    n 4=

    1 0.4 2 0.3 3 0.2+ + 4 0.1+ 2= = =

    My yjqj1

    m 3=

    4 0.2 5 0.5 9 0.3+ + 6= = =

    xy i 1=

    n

    xi Mx( )j 1=

    m

    yj My( )fij=

    xy i 1=

    n

    xiyjfijj 1=

    m

    i 1=

    n

    xiMyfijj 1=

    m

    j 1=

    m

    yjMxfiji 1=

    n

    i 1=

    n

    MxMyfijj 1=

    m

    +=

    MyMx MxMy

    MxMy

    fijj 1=

    m

    i 1=

    n

    1=

    xy i 1=

    n

    xiyj fijj 1=

    m

    MxMy=

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    47/89

    LAVARIABILECASUALEAnDIMENSIONI

    42

    che rappresenta l'estensione della7.43. Sostituendo infattixadyo viceversa sitrova:

    Applicando tutto ci ai dati dell'esercizio si ricava:

    Si ha allora che:

    7.6 LALEGGEDIPROPAGAZIONEDELLAVARIANZANELCASODIFUNZIONINONLINEARI

    Poniamoci ancora nel caso (n, m ) dimensionale in cui e sia:

    7.50

    una funzione non pi lineare della variabile casuale .

    Nell'ipotesi che sia ben concentrato attorno alla sua mediaxed sia pocovariabile attorno a si pu operare la linearizzazione:

    7.51

    ora possibile utilizzare le 7.47 e 7.48ricavate per il caso lineare con le seguentisostituzioni:

    7.52

    x2

    i 1=

    n

    xi

    2

    i 1=

    n

    Mx

    2

    =

    x2 xi

    2pii 1=

    4

    Mx2 1 0.4 4 0.3 9 0.2 16 0.1+ + +( ) 4 1== =

    y2 y

    j2 qj

    j 1=

    3

    My2 16 0.2 25 0.5 81 0.3++( ) 36 4== =

    xy xi1

    4

    yj fij1

    3

    MxMy = =

    1 4 0.1 5 0.2 9 0.1+ +( ) 2 4 0.1 5 0.2+( )++=3 5 0.1 9 0.1+( ) 4 9 0.1( ) 12++

    xy 2.3 2.8 4.2 3.6 12+ + + 0.9= =

    Cxy1 0.9

    0.9 4 =

    m n

    y g x( )=

    x

    x yg x

    ( )

    y g x

    ( )gx-----

    x x

    ( )+

    b g x

    ( )=

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    48/89

    LAVARIABILECASUALEAnDIMENSIONI

    43

    7.53

    La matrice A dettamatrice disegno. La7.48 diviene allora:

    7.54

    Le matrici e sono sempre strettamente definite positive, cio (definizione):

    7.55

    Si fissi infatti e si consideri , conyvariabile casuale mono-dimensio-nale; si avr come logico e sexnon ha distribuzioni singolari comenell'ipotesi di trasformazioni regolari.

    Se regolare (invertibile ) e simmetrica, sempre poi possibile questascomposizione:

    7.56

    Con matrice diagonale degliautovalori di ed U matrice ortogonaleche contiene gli autovettori di . facile dopo questa ipo-

    tesi dimostrare che:

    7.57

    La radice quadrata di una matrice diagonale la matrice i cui elementi val-

    gono .

    Esercizio 3

    Di un punto P si sono misurate la distanza dall'origine re l'anomalia , rappresen-tate dalle variabili casuali e con media e sqm seguenti:

    Calcolare media e covarianza delle coordinate (x,y) del punto P e media e varianzadell'areaAdel rettangolo che ha OP per diagonale.

    La trasformazione g permette di ricavare (x, y) in funzione delle misuredirette .

    (x,y) sono misurabili cio indirettamente.

    A gx-----=

    Cyygx----- Cxx

    gx-----

    T

    =

    Cxx Cyy

    Cxx 0: a lRn> aT Cxx a 0>

    a y aTx=y

    2 0 y2 0>

    Cxx

    Cxx K2 UUT= =

    CxxUTU UUT I= = Cxx

    K U1 2 UT=

    i

    1 km= 1mm= 106 mm=( )

    6= 2 10 6 rad( )=

    ,( )

    x

    y ;=

    ;= C

    2 0

    0 2

    1mm2 0

    0 4 10 12 = =

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    49/89

    LAVARIABILECASUALEAnDIMENSIONI

    44

    Fig. 7.3

    Applicando il teorema della media si ricavano i valori medi:

    Si ricava ora la matrice disegno, calcolandola nell'intorno dei valori medi:

    Si verifica poi se la trasformazione regolare.

    Si applica infine il teorema di propagazione della varianza:

    Per rispondere alle ultime due domande applichiamo ancora il teorema della mediaalla misura indiretta superficieA funzione delle due misure dirette e :

    Ed applicando il principio di propagazione della varianza si ricava:

    A

    Y

    P

    X0

    g ( ) cos

    sin = =

    x 866.025 mm=

    y 500.000 mm=

    g------

    cos sin

    sin cos ;=

    g------

    3 2 10 6 2 m

    1 2 106 3

    2

    --------------- m=

    det.g-----

    cos2 sin2+( ) 0>= =

    C

    3 2

    1 2

    10 6 2

    106 32

    --------------- 1

    0

    0

    4 10 12

    3 2

    10 6 2

    1 2

    106 32

    --------------- 1.75

    1.30

    1.30

    3.25 = =

    A 2 cossin= A 0.433 106 m2=

    A2

    22

    -------sin

    2

    2 2 2cos( )2

    2+ 1012

    34--- 1

    1 1024+4

    -------------------14--- 4 10 12 = =

    A 1.323m2

    =

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    50/89

    LAVARIABILECASUALEAnDIMENSIONI

    45

    Si lascia come esercizio ricavare quest'ultimo risultato a partire dalla relazioneA =x y, con ricavata come sopra.

    La propagazione della varianza dan dimensioni ad una dimensione

    L'esercizio precedente un caso particolare nel quale possibile ricavare una for-mula semplificata rispetto alle 7.48 e 7.54.

    Nel caso di trasformazione dan-dimensioni ad una dimensione, l'unica incognita lavarianza .

    Partendo dalla relazione:

    7.58

    con matrice di varianza covarianza di . La7.54 diviene:

    7.59

    A conclusione di questa prima parte del trattamento statistico delle misure si pro-pongono questi esercizi.

    Esercizio 1

    Sia data una v.s.x

    Calcolare: - l'istogramma

    - la funzione di distribuzione

    - la media, la mediana ( l'ascissa per cui P = 1/2)- la varianza

    -verificare il teorema di Tchebjcheff tra ( 10) e ( +10).

    Esercizio 2

    Sia di una v. casuale f (x) = k.Calcolare:

    - k--

    - verificare il Teorema di Tchebjcheff

    Fig.7.4

    C

    y2

    y f x1,x2, xn,( )=

    Cxx x

    y2 f

    x1--------

    2

    x12f

    x2-------

    2

    x22 2f

    x1-------f

    x2-------- 12 2fxi------

    fxk-------- ik+ + + +=

    x 10 12 12 15 15 20 20 30 30 500.04 0.18 0.40 0.20 0.18

    =

    xx

    2

    Y

    0a b x

    f(x)=k

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    51/89

    LAVARIABILECASUALEAnDIMENSIONI

    46

    Esercizio 3

    Sia di una v. casuale f (x) = kx.Calcolare:

    - k--

    - verificare il Teorema di Tchebjcheff

    Fig.7.5

    Esercizio 4

    Trasformazioni di variabili casuali. Sia:

    trovare:

    - k

    -

    - e- verificare il Teorema di Tchebjcheff

    Fare lo stesso esercizio per: ; verificare se .

    Esercizio 5

    Di un triangolo si sono misurati direttamente a,b e langolo compreso .Dati , calcolare la superficie media Sed il suo sigma.

    Fig.7.6

    xx

    2

    Y

    0a b x

    f(x)=k x

    fx x( ) cost=

    y x2=

    fy y( )

    M y[ ] 2 y( )

    y log x( )= M y[ ] g M x[ ]( )=

    a b ,,

    S

    B

    A

    b

    a

    C

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    52/89

    LAVARIABILECASUALEAnDIMENSIONI

    47

    7.7 INDICEDICORRELAZIONELINEARE

    Supponiamo che e siano variabili casuali ad n-dimensioni e che siano fra loroindipendenti. Si avr allora:

    7.60

    Ipotizziamo ora invece chey sia funzionalmente dipendente dax, e che lo sia inol-tre in modo lineare:

    Ne deriva che, come gi visto:

    Cerchiamo ora le covarianze traxedy:

    cio:

    7.61

    Ora poniamoci nel caso dixedyad una componente; nell'ipotesi di indipendenzadella7.59 si avr che , mentre nell'ipotesi che ha portato alla7.61

    ; inoltre, siccome , applicando la propagazione dellavarianza si ricava , cio .

    Definiamoindice di correlazione lineare di

    xed

    y lo scalare :

    7.62

    Nella seconda ipotesi di dipendenza lineare si ha:

    Nella prima ipotesi 7.60 di indipendenza si pu facilmente verificare che:

    Questo parametro varia dunque nell'intervallo 1 e vale zero per variabili casualifra loro indipendenti.

    Si osservi che, viceversa, se le due variabili casuali si dicono incorrelate manon detto che siano indipendenti.

    La figura7.7 mostra un caso di distribuzione di densit di probabilit di variabilidipendenti ma incorrelate.

    un parametro molto utilizzato grazie a queste sue propriet:

    x y

    xy M xy[ ] xy 0= =

    y Ax b+=

    y y( ) A x x( )=

    Cxy x y M x x( )T y y( )[ ] M x x( )TA x x( )[ ]= =

    Cxy x y ACxx=

    xy 0=xy a

    2 x2= y ax b+=

    y2 a2 x

    2= y a x=

    xy

    xy def.( )xy

    xy-----------= =

    xyax

    2

    x ay---------------- 1= =

    xy0

    xy---------- 0= =

    xy 0=

    xy

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    53/89

    LAVARIABILECASUALEAnDIMENSIONI

    48

    invariante in modulo per trasformazioni lineari, cio non cambia se cam-biano linearmente le unit di misura dixey.

    se xe y sono variabili indipendenti ; se al contrario sono linear-

    mente dipendenti, assume valore ; +1 per a> 0, e 1 per a< 0, siha cio .

    Fig. 7.7 Variabili incorrelate ma non indipendenti.

    Si pu dimostrare che per una variabile doppia non ordinata vale:

    7.63

    7.8 PROPRIETDELLEVARIABILINORMALIADn-DIMENSIONI

    Ricordiamo l'espressione 7.26b della variabile normale n-dimensionale con:

    7.64

    cio:

    7.65

    Supponiamo ancora di eseguire una trasformazione lineare del tipo 7.23:y= Ax+ bma ora ipotizziamo che la matrice A possa essere scritta in questo modo:

    7.66

    con U matrice ortogonale e 1/2 matrice diagonale. Ricordando la7.29 si ha:

    7.67

    xy 0=

    xy 1=xy x y=

    Y

    0 X

    xy=0

    xyN xiyi xi yi

    N xi2 xi

    2

    N yi2 yi

    2

    ---------------------------------------------------------------------------------------------------------=

    M x[ ] 0=Cxixi diag xi

    2( ) 1= =

    Cxixk 0=

    Cxx I=

    A 1 2 U=

    fy y( )1

    2n 2 U--------------------------- e

    12---- y b( )T U U T( ) 1 y b( )

    =

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    54/89

    LAVARIABILECASUALEAnDIMENSIONI

    49

    Ora, ricordando la7.56 che esprime la forma di una qualsiasi matrice regolare simme-trica possiamo sfruttare il risultato a ritroso per standardizzare la variabile casualey.

    La trasformazione inversa sar dunque:

    7.68

    Questa operazione si chiama appunto standardizzazione della variabile casualey, laquale ha media e matrice di varianza covarianza

    Per dichiarare chey appartiene ad una distribuzione normale con tali medie evarianze si scrive:

    Vediamo due propriet delle variabili casuali normali:

    1. Il concetto di correlazione ed indipendenza stocastica si equivalgono.

    2. Tutte le trasformazioni lineari trasformano variabili normali in variabilinormali; cio se:

    e se:

    allora, ammesso che e che il rango di A sia pieno, :

    .

    Si osserva che la variabile:

    7.69

    una variabile casuale an gradi di libert; ci consente di trovare attorno al vet-tore media una regione simmetrica nella quale sia contenuta una prefissataprobabilit cio:

    I valori pi usati sonop = 50 %,p = 90 %.La regione:

    7.70

    risulta essere un iper-ellissoide. Per n = m = 2 ad esempio, si noti che:

    e dunque:

    x 1 2 UT y b( ) Cyy1 2 y b( )= =

    y b= Cyy

    y N b,Cyy[ ]=

    x N x,Cxx[ ]=

    y Ax b+=

    m n rA( ) m=

    y N Ax b; ACxxAT+[ ]=

    x ( )T Cx x1 x ( ) zTz zi2

    i 1=

    n

    n2= = =

    n2

    x lRn

    P p=

    P x ( )T Cxx1 x ( ) n2[ ] p=

    x ( )T Cxx1 x ( ) n2

    det Cxx( ) x2y2 xy x2y2 2x2y2 x2y2 1 2( )= = =

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    55/89

    LAVARIABILECASUALEAnDIMENSIONI

    50

    essendo:

    Fig. 7.8 Uso della variabile .

    7.71

    Si nota con facilit che la7.71 un'ellisse, nel caso in cui = 0 e x y= 0 ed ha cen-tro in .

    Dalla7.71 si nota pure che per una opportuna rotazione di assi l'ellisse ha equa-zione del tipo:

    in tal caso xy= 0. Cerchiamo dunque questa rotazione.

    Sia (u,v) una variabile normale doppia con matrice di dispersione Cuv = C:

    Vogliamo trovare, se possibile, dopo una rotazione degli assi nel piano (u,v), unanuova variabile normale doppia le cui componenti siano incorrelate (x y= 0).

    La trasformazione sar in genere la rotazione del tipo:

    Cxx1 1

    1 2--------------

    1x

    2------

    xy

    x2y

    2-------------

    xy

    x2y

    2-------------

    1y

    2------

    =

    xy xy=

    f

    0

    p

    f ( )2

    22n

    2

    P n2

    n2( ) p=

    x x( )2

    x2--------------------

    2 x x( ) y y( )xy

    x2y2------------------------------------------------

    y y( )2

    y2---------------------+ 2 1 2( )=

    x y,( )

    t( )2a2

    ----------------- u( )2

    b 2-------------------+ 2

    2=

    Cu

    2 uv

    uv v2

    =

    x

    y cos sin

    sin cos u

    v ;=

    x

    y R

    u

    v =

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    56/89

    LAVARIABILECASUALEAnDIMENSIONI

    51

    Si avr, applicando la legge della propagazione della varianza:

    e, sviluppando i prodotti si ottiene:

    7.72

    7.73

    imponendo x y= 0, e utilizzando le formule:

    ricaviamo:

    7.74

    Ricavata la rotazione si sostituisce nelle 7.72 e 7.73 e si ricavano i valori x,y.

    Si dimostra che questi valori sono rispettivamente i valori di massimo e di

    minimo 2

    , e si indicano perci rispettivamente con I,II.Tali valori si chiamano semiassi principali dell'ellisse d'errore, o dell'ellissoide od iper-ellissoide nel caso in cui fossimo nello spazio a pi di due dimensioni.

    Estendendo il risultato ad n-dimensioni si pu infatti ancora dimostrare che pos-sibile trovare una matrice di rotazione U tale che attraverso il cambiamento divariabile dovuto alla matrice U:

    Per ulteriori approfondimenti si veda lappendice A. Per una variabile bidimensio-

    nale, nellipotesi semplificativax=y=0 la 7.70 diviene:

    Anche questa curva rappresenta unellisse. I semiassi principali sono rappresentatidagli autovalori della matrice Cxx (non di ) che ricaviamo da:

    Cxyx

    2 0

    0 y2

    RCuvRT= =

    x2 u

    2 cos2 2uv sincos v2 sin2+=

    y2 u

    2 sin2 2uv cossin v2 cos2+ +=

    xy u2 v

    2( ) sincos uv cos2 sin2( )+=

    sincos 2sin2--------------=

    2cos cos2 sin2( )=

    tg22uv

    v2 u

    2------------------

    =

    y Ux=

    Cyy diag cii( )=

    x y( )x

    2 xy

    xy y2

    x

    y cost=

    Cxx1

    C I 0=

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    57/89

    LAVARIABILECASUALEAnDIMENSIONI

    52

    cio:

    ricaviamo 1 e 2 (IeII):

    7.75a

    cio:

    7.75b

    In alternativa, ricavando in funzione di ricavato con la7.74 si ottiene:

    7.75c

    Linclinazione data dagli autovettori che rappresentano i coseni direttori degli assiprincipali. Basta sostituire i valori di e normalizzare:

    7.9 SUCCESSIONIDIVARIABILICASUALI

    Sia una successione di variabili casuali. Si dice che tende stocastica-mente a zero per se:

    Ci significa che tende alla variabile casuale x concentrata nell'origine(P(x=0)=1).

    Usando il teorema di Tchebjcheff si pu cos dimostrare che:Condizione sufficiente affinch converga stocasticamente a zero che:

    7.76

    7.77

    x2 xy

    xy y2

    0=

    x2 ( ) y2 ( ) xy2 0= x2y2 2 x2 y2+( ) xy2+ 0=

    I II, 1 2,x

    2 y2+

    2------------------

    12--- x

    2 y2+( )2 4 x2y2 xy2( )= =

    I II, 1 2,x

    2 y2+

    2------------------

    12--- x

    2 y2( )2 4xy2+= =

    2sin tg2

    I II, 1 2,12--- x

    2 y2+( ) xy 2sin= =

    vx

    2 1; xy

    xy ; y2 1= =

    xy2 y

    2 2( )2+[ ]1 2 1=

    xn{ } xn{ }n

    P xn

    xn{ }

    xn{ }

    M xn

    [ ]n lim 0=

    2 xn

    [ ]n lim 0=

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    58/89

    LAVARIABILECASUALEAnDIMENSIONI

    53

    Diremo poi che converge stocasticamente a se converge stocasti-camente a zero.

    7.10 CONVERGENZAIN LEGGE

    Oltre alla convergenza stocastica della successione di vc ad si pu definireuna convergenza in legge:

    Si dice che tende ad in legge se, essendo la successionedelle funzioni di distribuzione di ed la funzione di distribuzione di

    si ha:

    7.78

    Questo tipo di convergenza serve per studiare il comportamento asintotico disomme di variabili casuali del tipo:

    7.79

    Si pu dimostrare infatti che sotto opportune ipotesi sulla successione delle lasuccessione tende asintoticamente in legge ad unadistribuzione normale.

    7.11 TEOREMACENTRALEDELLASTATISTICA

    Teorema

    Sia una successione di variabili casuali indipendenti, tutte con la stessa

    distribuzione e con:

    Allora la successione:

    tende asintoticamente in legge (si indica con il simbolo ~) alla normale del tipo:

    7.80

    distribuzione delle .

    Prima osservazione al teorema centrale della statistica

    Il teorema interpreta un fatto riconosciuto sperimentalmente gli errori di misuratendono a distribuirsi normalmente quando il procedimento di misura usato allimite della sua precisione massima.

    Gli errori di misura cio dipendono da una serie di fattori ambientali, strumentali e

    xn{ } x xn{ }

    xn{ } x

    xn{ } x Fn x( ){ }xn{ } F x( )

    x

    Fn x( )n lim F x( )=

    Sn xi per n i 1=

    n

    =

    xi{ }Sn{ }

    xi{ }

    M xi[ ] ;= 2 xi( ) 2=

    Sn xii 1=

    n

    =

    Sn N n, n2[ ]

    xi{ }

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    59/89

    LAVARIABILECASUALEAnDIMENSIONI

    54

    soggettivi che hanno, ciascuno isolatamente, influenza impercettibile sul procedi-mento di misura ( ), ciascuno di questi fattori assume anche percil'aspetto di una vc indipendente dalle altre (umidit, pressione, temperatura,luminosit ecc.).

    Tutti questi fattori assieme producono tuttavia un effetto sensibile: l'errore dimisura, che sar descritto dalla vc somma di molte altre. Per il teorema centralel'errore di misura tende ad essere distribuito normalmente .

    Seconda osservazione al teorema centrale della statistica

    Il teorema meno teorico di quanto possa apparire perch permette di usare la nor-male Ncome distribuzione approssimata di quantit importanti come il valoremedio m (media campionaria).

    Siaxuna vc comunque distribuita e sia la vc n-dimensionale gene-

    rata pensando di ripetere n estrazioni dalla vcx. La descrive i cam-pioni di numerositn dellax. La media campionaria vale:

    Nell'ipotesi che, per ciascunxi:

    sar dunque:

    Se supponiamo che il campione sia numeroso (n grande) possiamo applicare ad mil teorema centrale e dire che distribuzione iniziale dix, m tender asintotica-mente in legge a:

    7.81

    Si noti che, se si volesse ricavare la distribuzione esatta di m cio di , si

    dovrebbero calcolare n integrali di convoluzione seguenti (infatti lexi sono indi-pendenti):

    nel caso particolare, siccome si dovrebbero calcolare nintegrali di convoluzione di f (x) con se stessa.

    0 2, 0

    N n n2,[ ]

    x1 x2 xn, , ,{ }

    x1 x2 xn, , ,{ }

    m1n--- xi

    i 1=

    n

    xin---- con

    xin--- v.c. indipendenti

    i 1=

    n

    = =

    M xi[ ] ;= 2 xi( ) 2=

    M xin---

    n---;= 2 xin

    --- 2

    n2-----=

    m N nn---, n

    2

    n2------ N ,

    2

    n 2-------=

    1

    n

    --- xii 1=

    n

    f m( ) fx1 x1( ) fx2 x2( ) fxn xn( ) x1d xnd

    =fxi xi( ) fxj xj( ) f x( )= =

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    60/89

    LAVARIABILECASUALEAnDIMENSIONI

    55

    anche matematicamente possibile dimostrare il teorema, infatti, presa unaqualsi-asi f (x) di partenza, l'integrale di convoluzione di f (x) con se stessa tende, per ngrande, alla funzione di Gauss.

    Si noti che la7.81 giustifica il fatto che come valore rappresentativo della popola-zione si scelga la media campionaria: rispetto ad una qualsiasi xi ha varianzanvolte minore.

    7.12 LESTATISTICHECAMPIONARIEEICAMPIONI BERNOULLIANI

    Definiamo campione Bernoulliano, tratto da una vcx (che descrive l'esperimentostocastico ), l'insieme dei risultati ottenuti dalla ripetizione per n volte in manieraindipendente dello stesso esperimento (esempio: l'estrazione da un'urna con sos-tituzione).

    Osservazione

    Lo stesso campione Bernoulliano, per l'indipendenza, pu essere visto alternativa-

    mente o come risultato di n estrazioni dalla vcxo come estrazione da una vc a n-dimensioni (x1xn)tutte indipendenti e tutte distribuite comex. (Esempio: illancio di una moneta n volte e il lancio di n monete una sola volta).Se x ha densit di probabilit la ha densit:

    7.82

    per l'ipotesi di indipendenza.

    Definizione di statistica campionaria

    La statistica campionaria t un () operatore statistico applicato a una variabilecampionaria.

    Ad esempio:

    7.83

    tpu essere lamedia campionaria, lavarianza campionaria, il momento di ordine m cam-pionario, lacorrelazione campionaria, ecc.

    Tutto ci significa che tsar a sua volta una vc (a una dimensione) funzione della vcn-dimensionale .

    Ad esempio se t l'operatore mediam:

    t0 rappresenta l'estrazione dallastatistica campionariat.

    fx x( ) xn

    fxn fxn x1xn( ) fx x1( ) fx x2( )fx xn( )= =

    t t x1 ,x2, xn,( );=

    xn

    m1n--- xi

    i 1=

    n

    t0= =

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    61/89

    LAVARIABILECASUALEAnDIMENSIONI

    56

    7.13 LESTATISTICHE CAMPIONARIE COME STIME DELLECORRISPONDENTIQUANTITTEORICHEDELLEVARIABILICASUALI

    Qual il rapporto tra la vc statistica campionariat, di cui disponiamo di una estra-

    zione t0 ed il valore teorico () del parametro corrispondente at? Ad esempio amxcorrisponde x, ad corrisponde ; quale rapporto esiste fra questi valori? Ilrapporto viene detto stima.

    Ad esempio si dice che m stima di , od anche stima di se corretta econsistente. Vediamo che significano questi aggettivi.

    Stima corretta o non deviata

    Si dice che la stima corretta quando la variabile casuale tammette come mediateorica:

    7.84

    Stima consistente

    Si ha quando per la corrispondente successione di variabili casuali tn tendestocasticamente a, cio:

    7.85

    Per il teorema centrale della statistica ci verificato se:

    Stima efficiente

    In molti casi esiste pi di una stima corretta e consistente di , allora si cerca quellastimatpi concentrata attorno acio unastima efficiente, definita come la stimatdi di minima varianza.

    Stima di massima verosimiglianza

    Vi infine la stima di massima verosimiglianza che consiste nel trovare quell'opera-tore tche rende massima una funzione L detta di verosimiglianza.

    Come esempio ed esercizio vediamo se la media campionariam pu essere presacome stima della quantit teorica.

    La media campionariam una stima corretta e consistente della media teoricadella vc , infatti soddisfa a:

    correttezza

    s2 2

    s2 2

    M t[ ] M t x1x

    n( )[ ] = =

    n

    tn =n lim

    7.86

    7.87

    M tn[ ] =n

    lim

    2 tn[ ] 0=n lim

    x

    M m[ ] M 1n--- xi 1n--- M xi[ ]

    1n---n = = = = i 1n=( )

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    62/89

    LAVARIABILECASUALEAnDIMENSIONI

    57

    consistenza: per quanto visto la7.86 facilmente provata,

    7.88

    Per provare la7.87 si pu scrivere:

    Per la propagazione della varianza ricaviamo:

    ed allora facile vedere che:

    7.89

    Si pu verificare che tutte le stime lineari tali che sonostime corrette di mam quella di minima varianza (cio efficiente).

    Cerchiamo infatti il minimo della quantit:

    con la condizione:

    Questo un problema di minimo condizionato che si risolve con i moltiplicatori diLagrange minimizzando la funzione:

    Il differenziale totale di dovr annullarsi:

    Dunque si sceglie come valore rappresentativo di tutta la popolazione di misure lamedia campionaria non solo perch ha varianzan volte minore rispetto allavarianza di ciascun campione, ma anche perch ha laminima varianza.

    Come ulteriore esempio vediamo se la varianza campionaria una stima di :

    dove m la media campionaria.

    M m[ ] =n lim

    mxin---=

    2 m( ) 1n2-----2 xi( ) n

    2

    n2---------

    2

    n------= = =

    2 m( ) 0=n

    lim C.V.D.

    m' ixi= i 1=

    2 m '( ) i22=

    i 1=

    i22 i( ) 1( ) k+ min= =

    i-------- 0= 22i k+ 0= i

    k22---------=

    i nk22--------- 1 k22

    n---------= = =

    i1n---= m' m= C.V.D.

    s2 2

    s21n--- xi m( )2

    v i2

    n------------= =

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    63/89

    LAVARIABILECASUALEAnDIMENSIONI

    58

    Verifichiamo la correttezza, se cio:

    scriviamo in questo modo:

    7.90

    Applichiamo alla7.89 l'operatore media:

    per definizione:

    inoltre:

    7.91

    Cio la stimanon corretta. Si dimostra che invece corretta la stima delloperatore( ) definita da:

    7.92

    ed consistente; infatti facile verificare che:

    7.14 FUNZIONEDIVEROSIMIGLIANZAEPRINCIPIODIMASSIMAVEROSIMIGLIANZA

    Partiamo al solito dalla vc n -dimensionale xdescritta dalla funzionesecondo la forma7.82 ma ora anche in funzione di operatori statistici , ad esem-pio , cio esprimiamo la funzione f attraverso:

    M s2[ ] 2=

    s2

    s21n--- xi ( ) m( )+[ ]2 = =

    1n--- xi ( )2 2n--- xi ( ) m( ) m( )

    2[ ] =+ +=

    1n--- xi ( )2 2 m ( ) m( ) m( )2+ +=

    s21n--- xi ( )2 m ( )2=

    M s2[ ] 1n--- M xi ( )2[ ] M m ( )2[ ]=

    M xi ( )2[ ] 2=

    M m ( )2[ ] 2 m( ) 2

    n

    -----= =

    M s2[ ] 1n---//n 2

    2

    n-----

    n 1n

    ------------2 2= =

    s2 M s2[ ] 2=

    s2xi m( )2n 1( )

    ----------------------------=

    2 s2( ) nn 1------------

    2

    2 s2( )=n lim 0=

    fx x1xn( )

    2,[ ]T=

    fx xi, ( )

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    64/89

    LAVARIABILECASUALEAnDIMENSIONI

    59

    per le ipotesi di indipendenza delle n variabilixi, ricordando ancora la7.82:

    7.93

    Il secondo uguale definisce la funzione L detta di verosimiglianza (likely hood).

    evidente che nulla abbiamo detto sul generico ; un criterio di scelta prendereun valore generico te cercare di rendere massimaL(xi,) verificando che sia mas-sima per =t, cio cercare:

    7.94

    cio, per la7.93:

    7.95

    Ad esempio per la variabile normale standardizzatazn:

    7.96

    si ha in questo caso:

    Il valore massimo di L si ha cercando il minimo dell'esponente:

    7.97

    con , variabile scarto. In questo caso il principio di massima verosimiglianza portaalla stima di minima varianza e cio alla ricerca di uno stimatore efficiente.

    Per variabili normali non standardizzate, ricordando la7.67 e la7.69 occorre ren-dere minima la quantit:

    7.98

    La7.98 spesso viene scritta utilizzando un'altra matrice definita matrice dei pesi P,( una costante positiva):

    7.99

    questo il principio dei minimi quadrati che, nel caso in cui P sia una matrice diago-nale, pu essere scritto nella forma:

    7.100

    fx xi, ( ) fx xi, ( )

    i 1=

    n

    L xi, ( )= =

    t / maxL xi, ( ) t=

    L------- 0 L( )log

    ------------------ 0= =

    f xi, ( )---------------------

    i 1=

    n

    0=

    L fx fx xi( ) 12 2( )n 2------------------------- exi i( )

    222

    --------------------------------

    = = =

    ,2[ ]T=

    122---------+ xi i( )2

    i 1=

    n

    122---------vTv min= =

    n

    2 x ( )

    TCxx

    1 x ( )

    vTCxx

    1 v min= = =

    02

    P Cxx1 0

    2=

    piv i2

    i 1=

    n

    min 02n2= =

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    65/89

    LAVARIABILECASUALEAnDIMENSIONI

    60

    Dobbiamo tuttavia affermare che la stima di minima varianza, che coincide conquella di massima verosimiglianza per variabili normali e che porta al principio deiminimi quadrati, prescinde da ipotesi sulla distribuzione delle misure.

    7.15 LAMEDIAPONDERATA(OPESATA)

    Poniamo di eseguire n misure di una v.cx, fatte con diversa precisione ma indipen-denti tra loro; ciascunaxi pu considerarsi come estrazione da popolazioni condiverse varianze ma con la stessa mediax. Ci si chiede quale lastima pi attendibile del valore medio dix. Avevamo verificato per la media cam-pionaria che tutte le stime del tipo:

    7.101

    sono corrette, d'altra parte non possiamo usare i valori perch il risul-tato non sar stima di minima varianza; dovremmo, intuitivamente, pesare di pi lexi con i minore.

    Anche qui cerchiamo uno stimatore che sia stima efficiente, e troviamo ilminimo condizionato attraverso i moltiplicatori di Lagrange:

    7.102

    e minimizziamo la funzione:

    ricaviamo:

    7.103

    Come per la7.99, presa una seconda costante positiva, , viene definito peso ilvalore:

    7.104

    cosicch la7.103 pu scriversi:

    ma, imponendo la seconda delle 7.102, si ricavak:

    2 xi( ) i2=

    x ixi=

    i 1 n=

    x

    2 x( ) i2i

    2 min= =i 1=

    i2i2 k i 1[ ]=i-------- 0 2ii

    2 k 0==

    ik2---

    1i

    2-------=

    02

    p i0

    2

    i2-------=

    ik2---

    p i0

    2-------=

    k

    202

    p i-----------=

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    66/89

    LAVARIABILECASUALEAnDIMENSIONI

    61

    per cui la7.103 pu essere riscritta:

    7.105

    dunque la7.101 diviene:

    7.106

    Si nota pure che il minimo cercato nella stima di vale:

    7.107

    Se non si conoscono i valori ma si conoscono solo i pesipie (dalla7.106), la7.107 non direttamente utilizzabile. Dopo il calcolo di , si dimostra che:

    7.108

    7.109

    i0

    2

    p i

    -----------p i0

    2------p ip i

    -----------= =

    xp ixip i

    ----------------=

    2 x( )

    2 x( ) min ii2

    pi2i

    2p i( )2

    ------------------= = =

    i2

    xx

    02 1

    n 1------------ p

    ixi x( )2

    piv i

    2n 1

    -----------------= =

    2 x( ) 021pi

    ------------p

    iv i

    2n 1( ) pi

    -----------------------------= =

  • 7/29/2019 Manzino Lezioni Di Topografia - 02 Trattamento Statistico Misure

    67/89

    62

    8. APPLICAZIONI DEL PRINCIPIO DEI MINIMI QUADRATI

    AL TRATTAMENTO DELLE