curs + seminar

62
Bazele teoriei riscului Mircea Crˆ sm˘ areanu

Upload: hoangkhanh

Post on 01-Feb-2017

268 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Curs + Seminar

Bazele teoriei riscului

Mircea Crasmareanu

Page 2: Curs + Seminar

ii

Page 3: Curs + Seminar

Contents

1 Multimi si functii 3

2 Probabilitati: abordare clasica 5

3 Probabilitati: abordare moderna 11

4 Functia de repartitie a unei variabile aleatoare 19

5 Valori medii. Momente, dispersie, corelatie 25

6 Teoria deciziilor 31

7 Invarianta ın teoria deciziilor 41

8 Utilitate si pierdere 45

9 Teoria credibilitatii 47

10 Variabile fuzzy pe spatii de credibilitate 51

11 Entropia, energia si corelatia surselor de informatie 53

Index 57

iii

Page 4: Curs + Seminar

iv CONTENTS

Page 5: Curs + Seminar

CONTENTS 1

MOTTO

Fie actiunea ”a” avand consecintele ci cu i = 1, ..., n pentru care consideram:1) pi probabilitatea de producere a lui ci2) Pierd(ci) ”pierderea” cauzata de ci.

Atunci riscul actiunii ”a” este:

R(a) =∑n

i=1 pi · Pierd(ci).

Cursul contine 30 de desene repartizate astfel:

Curs Desene

I 0

II 5

III 8

IV 5

V 0

VI 12

VII 0

VIII 0

IX 0

X 0

XI 0

XII 0

Examen mai multe

Page 6: Curs + Seminar

2 CONTENTS

Page 7: Curs + Seminar

Chapter 1

Multimi si functii

Notiunea de multime este una din notiunile fundamentale al matematicii. Incercarea de a odefini ıntr-un sens precis este sortita esecului deoarece ıncadrarea acestei notiuni ca un acazparticular al unei alte notiuni mai generale este imposibila, notiunea de multime fiind, ın fapt,cea mai generala notiune matematica.

Fondatorul teoriei (moderne a) multimilor, matematicianul german Georg Cantor (1845-1918), spunea ca prin multime se ıntelege, la modul intuitiv, totalitatea unor obiecte distincte,bine determinate individual.

Vom utiliza o serie de simboluri grafice pentru usurinta exprimarii:-semnul ∀ va desemna expresia pentru orice sau oricare ar fi,-semnul ∃ va desemna cuvantul exista,-semnul ⇒ va desemna o implicatie, adica va fi echivalentul cuvintelor rezulta ca sau deci sauatunci.

Obiectele ce compun o multime le vom numi elemente iar acestea, de regula, le vom notacu litere mici iar multimile cu litere mari. Astfel, a ∈ A va desemna apartenenta elementuluia la multimea A; avem negatia a /∈ A.

Exista doua metode de a indica (sau da) o multime A:I) prin ınsiruirea completa a elementelor sale, metoda preferabila atunci cand A are un numarfinit de elemente; spunem ca A este multime finita. Deci notam A = a, b, c, ....II) prin indicarea unei proprietati cracteristice P ; scriem A = x;x satisface P.

Multimile numerice utilizate ın acest Curs sunt cele clasice:i) multimea numerelor naturale: N = 0, 1, 2, ..., n, ...; avem submultimea N∗ = 1, ..., n, ....ii) multimea numerelor ıntregi: Z = N− ∪ N = ...,−n, ...,−2,−1, 0, 1, 2, ..., n, ....iii) multimea numerelor rationale: Q = m

n ;m,n ∈ Z, n = 0.iv) multimea numerelor irationale este multimea I a numerelor ce nu se pot exprima ca fractii;spre exemplu

√2, 3

√2, π, ...

v) multimea numerelor reale: R = Q ∪ I = (−∞,+∞). Submultimi remarcabile sunt:R+ = [0,+∞)=numerele reale nenegative, R∗

+ = (0,+∞)=numerele reale pozitive, R =(−∞, 0]=numerele reale nepozitive, R∗ = (−∞, 0)=numerele reale negative.

Semnul ∪ reprezinta reuniunea a doua multimi; astfel date multimile A si B avem ca A∪Bcuprinde toate elementele din A si B (evident, luate o singura data):

A ∪B = x;x ∈ A sau x ∈ B. (1.1)

3

Page 8: Curs + Seminar

4 M. Crasmareanu

Simbolul ∩ reprezinta intersectia; astfel A ∩B contine elementele comune lui A si B:

A ∩B = x;x ∈ A si x ∈ B. (1.2)

Daca B este submultime ın A notam B ⊂ A si definim complementara lui B ın A prin:

CAB = cB = B = x ∈ A;x /∈ B. (1.3)

Submultimii B ⊂ A ıi asociem functia caracteristica 1B : A → 0, 1:

1B(x) =

1, x ∈ B0, x /∈ B.

(1.4)

Reciproc, orice functie caracteristica defineste ın mod unic submultimea B si deci existao corespondenta biunivoca ıntre multimea Γ : A → 0, 1 si multimea P(A) a tuturorsubmultimilor lui A.

Definitia 1.1 Fixam doua multimi. Numim relatie de la X la Y un triplet r = (X,Y,G)cu G submultime ın produsul cartezian X × Y . Domeniul de definitie al lui r este Er = x ∈X;∃y ∈ Y (x, y) ∈ G iar multimea valorilor lui r este Fr = y ∈ Y ;∃x ∈ X(x, y) ∈ G. Daca(x, y) ∈ G mai notam xry. Daca X = Y spunem ca avem o relatie pe X.

Definitia 1.2 O relatie f = (X,Y,G) se numeste functie daca ındeplineste urmatoareledoua conditii:Fc1) X este domeniul de definitie al lui f i.e. X = Ef ;Fc2) daca (x, y1) ∈ G si (x, y2) ∈ G atunci y1 = y2.Notam f : X → Y .

Definitia 1.3 Relatia r pe X se numeste de ordine daca este:O1) reflexiva: avem xrx pentru orice x ∈ X.O2) antisimetrica: daca avem xry si yrx atunci x = y.O3) tranzitiva: daca avem xry si yrz atunci xrz.Daca pastram O1 si O3 si ınlocuim antisimetria cu:E) simetrica: daca xry atunci yrxobtinem notiunea de relatie de echivalenta. Daca r este o relatie de echivalenta atunci pentrux ∈ X fixat, multimea [x] = y ∈ X;xry se numeste clasa de echivalenta a lui X

Multimea tuturor claselor de echivalenta se numeste multimea factor sau multimea cata lui X ın raport cu r. Deoarece doua clase de echiavlenta sau coincid sau sunt disjuncte,obtinem prin factorizare o partitie a lui X ın clase de echivalenta.

Page 9: Curs + Seminar

Chapter 2

Probabilitati: abordare clasica

Fixam ın acest Curs multimea nevida si finita Ω = ω1, ..., ωn; deci Ω are cardinalul n ∈N∗ = 1, 2, ... si notam acest fapt prin cardΩ = n sau |Ω| = n.

Definitia 2.1 i) Ω se numete spatiul evenimentelor (probelor) iar ωi ∈ Ω ıl numim eveni-ment elementar.ii) Multimea P(Ω) o numim campul evenimentelor iar A ∈ P(Ω) o numim eveniment.

Exemplul 2.2 Aruncam o moneda: avem doua evenimente elementare 0=a cazut stema,1=a cazut moneda (banul). Deci n = 2 si Ω = 0, 1.

Exemplul 2.3 Aruncam un zar. Avem sase evenimente elementare i=a cazut fata i,i = 1, ..., 6. Deci Ω = 1, ..., 6 si un eveniment compus este, spre exemplu, ”a cazut o fatapara/impara”, eveniment modelat de A = 2, 4, 6 respectiv B = 1, 3, 5.

Definitia 2.4 i) Ω ∈ P(Ω) ıl numim evenimentul sigur iar multimea vida ∅ ∈ P(Ω) senumeste evenimentul imposibil.ii) Fie A si B din P(Ω). Daca A ∩ B = ∅ atunci spunem ca evenimentele A si B suntincompatibile iar daca B ⊂ A atunci spunem ca evenimentul B implica evenimentul A.

Exemplul 2.5 La aruncarea zarului evenimentul B=a cazut fata 4 implica evenimentulA=a cazut o fata para, care este independent de evenimentul C=a cazut o fata impara.

Notiunea principala a acestui Curs este data de:

Definitia 2.6 Se numeste probabilitate pe Ω o functie p : P(Ω) → R satisfacand axiomele:p1) p(A) ≥ 0 pentru orice A ∈ P(Ω)p2) p(Ω) = 1p3) daca A si B sunt evenimente incompatibile atunci:

p(A ∪B) = p(A) + p(B). (2.1)

Perechea (Ω, p) o numim camp de probabilitate.

Propozitia 2.7 (Regula de adunare a probabilitatilor) Fie A1, . . . , Ar evenimente incom-patibile doua cate doua i.e. Ai ∩Aj = ∅ pentru i = j ın multimea 1, ..., r. Atunci:

p(A1 ∪ ... ∪Ar) = p(A1) + ...+ p(Ar)(=

r∑i=1

p(Ai)). (2.2)

5

Page 10: Curs + Seminar

6 M. Crasmareanu

Demonstratie Vom arata prin inductie dupa r ≥ 2. Pentru r = 2 avem formula (1.5).Presupunem adevarata relatia (1.6) pentru (r−1) si s-o demonstram pentru r. EvenimenteleA = A1 ∪ ... ∪Ar−1 si B = Ar sunt evident incompatibile si aplicam (1.5):

p((A1 ∪ ... ∪Ar−1) ∪Ar) = p(A1 ∪ ... ∪Ar−1) + p(Ar)

ceea ce da concluzia ın baza ipotezei inductive. 2

Fie A = ωi1 , ..., ωir oarecare din P(Ω). Evident evenimentele elementare ωij , j = 1, ..., r

sunt incompatibile si deci p(A) =∑r

j=1 p(ωij). In concluzie a da/sti probabilitatea p peP(Ω) este echivalent cu a da/sti p = (pi) cu i ∈ 1, ..., n. Rezulta ca functia p apare ca unvector n-dimensional p = (p1, ..., pn) ∈ Rn iar proprietatile din Definitia 1.6 se traduc ın: p1)p ∈ Rn

+ i.e. pi ≥ 0 pentru 1 ≤ i ≤ np2)

∑ni=1 pi = 1.

Rezulta ca pi ∈ [0, 1] pentru toti i ∈ 1, ..., n.

Exemplul 2.8 i) Evenimentele echiprobabile sunt caracterizate de vectorul pn = ( 1n , ...,1n)

ceea ce corespunde la functia probabilitate clasica:

p(A) =cardA

cardΩ(2.3)

care da definitia clasica (sau traditionala) a probabilitatii unui eveniment E:

p(E) =numarul cazurilor favorabile producerii luiE

numarul total de cazuri posibile. (2.4)

ii) In particular, moneda este data de p2 iar zarul de p6.

Propozitia 2.9 Date evenimentele A,B ∈ P(Ω) avem:

p(B ∩ A) = p(B)− p(A ∩B). (2.5)

Demonstratie Evenimentele X = B∩A si Y = B∩A sunt evident incompatibile datoritaprezentei lui A si A. Aplicam (1.5) pentru X si Y si folosim faptul ca:

(B ∩A) ∪ (B ∩A) = B (2.6)

care se dovedeste imediat. 2

Corolarul 2.10 Pentru orice A,B ∈ P(Ω) avem:

p(A) = 1− p(A) (2.7)

p(A ∪B) = p(A) + p(B)− p(A ∩B) (2.8)

A ⊂ B ⇒ p(A) ≤ p(B). (2.9)

Din (1.10) avem ın particular ca p(∅) = 0.

Demonstratie Pentru (2.7) punem B = Ω ın (2.5). Pentru (2.8) sa observam ca: -evenimentele A si B ∩ A sunt incompatibile,-avem A ∪ (B ∩ A) = (A ∪B) ∩ (A ∪ A) = (A ∪B) ∩ Ω = A ∪B,

Page 11: Curs + Seminar

Cursul 2 7

si utilizam (2.6) Pentru ultima relatie, din A ⊂ B avem A ∩ B = A si din (2.5) rezulta0 ≤ p(B ∩ A) = p(B)− p(A) ceea ce da concluzia. 2

Seminar 2

Cardinalul lui P(Ω) este 2n. Acest cardinal creste foarte repede odata cu n mai precisexponential.

S2.1 Sa se calculeze cu MATLAB puterea 2n pentru n = 0, ..., 10.

Solutie

>> for n=1:10; x(n)=2^n; end;

>> x (+ Enter)

Ans:

x=2 4 8 16 32 64 128 256 512 1024

Observatie: MATLAB nu stie de conventia x0 = 1 ıntr-un sir. 2

O alta functie ce creste foarte rapid este factorialul: n! = 1 · ... · n cu conventia 0! = 1.S2.2 Se cere n! pentru n ∈ 1, ..., 8.

Solutie 1! = 1, 2! = 2, 3! = 6, 4! = 24, 5! = 120, 6! = 720, 8! =???.In MATLAB folosim urmatoarele simboluri pentru operatii numerice:

1) + pentru adunare; − pentru scadere2) ∗ pentru ınmultire3) / pentru ımpartire4) ˆ pentru ridicarea la putere.

Deci pentru 8! tastam:

>> 2*3*4*5*6*7*8 (+Enter)

Ans:

40320

Avem ın Matlab functia factorial cu sintaxa:

>> factorial(n)

pentru n ≤ 21 ! O alta varianta este prod(1 : n).Pe Wikipedia (engleza) avem un tabel foarte amplu:

http://en.wikipedia.org/wiki/FactorialAtentie: ın MATLAB avem functia factor care factorizeaza un numar natural ın produs

de numere prime. Exemplu:

>> factor(2009)

are ca rezultat 7 7 41 deoarece 2009 = 72 · 41. Analog:

>> factor(2010)

da rezultatul 2 3 5 67. Cele doua functii nu trebuie confundate! 2

O functie importanta ın calculul unor scheme probabilistice este combinari de n obiecteluate cate k, 0 ≤ k ≤ n:

Ckn =

n!

k!(n− k)!. (2.10)

Page 12: Curs + Seminar

8 M. Crasmareanu

De altfel, numarul submultimilor cu k elemente ale lui Ω este Ckn si deci:

n∑k=0

Ckn = 2n. (2.11)

O alta proprietate importanta combinarilor este complementaritatea:

Ckn = Cn−k

n . (2.12)

A se vedea http://en.wikipedia.org/wiki/Binomial coefficient.

In Matlab avem comanda: C = nchoosek(n, k) eficienta pentru n ≤ 15.

S2.3 Sa se figureze ın MATLAB vectorii de probabilitate doi dimensionali.Cu programul:

>> x=linspace(0, 1, 1000);

>> plot(x, 1-x) (+Enter)

avem graficul urmator:

0 0.2 0.4 0.6 0.8 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1Mul\c timea vectorilor de probabilitate \^\in dimensiune 2

Figura 2.1: Distributia ın plan a vectorilor de probabilitate

Cu programul:

>> x=linspace(0, 1, 1000);

>> plot(x, 1-x, 1/2, 1/2, ’o’) (+Enter)

avem graficul urmator ce pozitioneaza vectorul p2 al monedei:

0 0.2 0.4 0.6 0.8 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1Moneda printre vectorii de probababilitate 2D

Figura 2.2: Distributia monedei printre vectorii de probabilitate 2D

Page 13: Curs + Seminar

Cursul 2 9

Cu programul:

>> x=linspace(0, 1, 1000);

>> plot(x, 1-x); grid on (+Enter)

avem graficul urmator:

0 0.2 0.4 0.6 0.8 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1Vectorii de probabilitate 2D cu grid

Figura 2.3: Distributia ın plan a vectorilor de probabilitate cu grid

Cu:

>> x=linspace(0, 1, 1000);

>> plot(x, 1-x); axis equal (+Enter)

obtinem:

0 0.2 0.4 0.6 0.8 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

Figura 2.4: Distributia ın plan a vectorilor de probabilitate cu ”axis equal”

S2.4 Sa se figureze ın MATLAB vectorii de probabilitate trei dimensionali.

Urmatorul program a fost sugerat de colegul Marian Ioan Munteanu si ıi multumim peaceasta cale:

>>u=0:pi/25:pi/2;

>>v=0:pi/25:pi/2;

>>for i=1:length(u); for j=1:length(v); x(i, j)=(cos(u(i)))^2*(cos(v(j)))^2;

y(i, j)=(cos(u(i)))^2*(sin(v(j)))^2; z(i, j)=(sin(u(i)))^2; end; end; %un singur rand !

>>mesh(x, y, z)

Page 14: Curs + Seminar

10 M. Crasmareanu

0

0.5

1 0 0.2 0.4 0.6 0.8 1

0

0.2

0.4

0.6

0.8

1

Vectorii de probabilitate 3D

Figura 2.5: Distributia ın spatiu a vectorilor de probabilitate

Aceasta parametrizare a fost aleasa pentru p = (x, y, z) ∈ R3 cu:x ∈ [0, 1], y ∈ [0, 1], z ∈ [0, 1]x+ y + z = 1.

Page 15: Curs + Seminar

Chapter 3

Probabilitati: abordare moderna

In cursul precedent am introdus probabilitatea pe o multime finita Ω. Evident, exista situatii,foarte importante pentru practica, cand suntem nevoiti sa lucram cu o multime infinita. Dinacest motiv introducem ın acest Curs o alta abordare a notiunii de probabilitate.

Fixam o multime nevida Ω de cardinal finit sau infinit; daca Ω este ın bijectie cu N atuncispunem ca este (infinit) numarabila. Un element ω ∈ Ω va fi numit, ca si anterior, evenimentelementar. Nu toate evenimentele din Ω, considerate ca submultimi, sunt interesante pentruexperimentul avut ın vedere si de aceea vom selecta o clasa speciala de astfel de evenimente:

Definitia 3.1 Familia F de elemente din P(Ω) o numim σ-algebra daca:a1) ∅ ∈ Fa2) daca A ∈ F atunci si A = Ω \A ∈ Fa3) daca Ai ∈ F cu i ∈ N atunci ∪i∈N ∈ F .Perechea (Ω,F ) o numim spatiu masurabil iar A ∈ F o numim F -masurabila sau pe scurtmasurabila atunci cand F este specificata.

Observatii 3.2 i) Daca C este o familie oarecare de submultimi ın Ω atunci exista o ceamai mica (ın sensul incluziunii) σ-algebra ce contine pe C . Aceasta se noteaza σ(C ) si senumeste σ-algebra generata de C .ii) Din a1) si a2) rezulta ca Ω ∈ F pentru orice σ-algebra F .

Definitia 3.3 Fie n ∈ N∗ si spatiul Rn al vectorilor n-dimensionali notati x = (x1, ..., xn).Pe acest spatiu introducem:PS) produsul scalar Euclidian <,>: Rn × Rn → R dat de:

< x, y >= x1y1 + ...+ xnyn =n∑

i=1

xiyi. (3.1)

N) norma Euclidiana ∥, ∥ : Rn → R+ data de:

∥x∥ =√< x, x >. (3.2)

D) distanta Euclidiana d : Rn × Rn → R+:

d(x, y) = ∥x− y∥. (3.3)

Perechea (Rn, <,>) o numim spatiul Euclidian n-dimensional.

11

Page 16: Curs + Seminar

12 M. Crasmareanu

Definitia 3.4 Fie A ⊂ Rn. Spunem ca A este deschisa daca pentru orice x ∈ A existar > 0 asa ıncat orice y ∈ Rn cu d(x, y) < r este element din A. Deoarece multimea B(x, r) =y ∈ Rn; d(x, y) < r se numeste bila deschisa de centru x si raza r avem ca A este deschisadaca orice punct din A este centrul unei bile deschise continute ın A.

Definitia 3.5 Fie D(n) familia multimilor deschise din Rn. Atunci σ-algebra generata deD(n) se noteaza B(n) iar un element din aceasta σ-algebra se numeste multime boreliena.

Definitia 3.6 Se numeste masura probabilistica sau masura de probabilitate pe spatiulmasurabil (Ω,F ) o functie Pr : F → R satisfacand axiomele:P1) Pr(A) ≥ 0 pentru orice A ∈ FP2) Pr(Ω) = 1P3) daca Aii∈N ∈ F este un sir disjunct i.e. Ai ∩Aj = ∅ pentru i = j atunci:

Pr(∪i∈NAi) =∑i∈N

Pr(Ai). (3.4)

Tripletul (Ω,F , P r) se numeste spatiu de probabilitate.

Exemplul 3.7 Avem ca P(Ω) este o σ-algebra pe Ω; chiar cea mai mare ın sensulincluziunii. Astfel, definitia 2.6 din Cursul 2 este un caz particular al precedentei definitii sideci pentru Ω finita avem un exemplu de masura de probabilitate dat de relatia (2.3).

Definitia 3.8 Fixam din nou spatiul masurabil (Ω,F ). Aplicatia X : Ω → R se numestevariabila aleatoare daca pentru orice r ∈ R avem:

X < r := ω ∈ Ω;X(ω) < x ∈ F . (3.5)

Daca multimea valorilor lui X este finita sau numarabila spunem ca X este o variabilaaleatoare discreta iar ın caz contrar o numim variabila aleatoare continua; ın particular dacaX ia un numar finit de valori spunem ca este o variabila aleatoare simpla.

Observatia 3.9 Se poate arata ca urmatoarele afirmatii sunt echivalente pentru X :(Ω,F ) → R:1) X < r ∈ F pentru orice r ∈ R2) a ≤ X ≤ b ∈ F pentru orice a si b din R.In particular, luand a = b = x ∈ R avem ca pentru o variabila aleatoare X = x ∈ F ceeace permite introducerea urmatoarei notiuni:

Definitia 3.10 Fie X o variabila aleatoare discreta pe spatiul de probabilitate (Ω,F , P r).Se numeste distributia lui X tabloul:

X :

(x1 x2 x3 ...p1 p2 p3 ...

)(3.6)

unde xi sunt valorile lui X iar pi = Pr(ω ∈ Ω;X(ω) = xi).

In particular, distributia unei variabile aleatoare simple este:

X :

(x1 x2 x3 ... xnp1 p2 p3 ... pn

)(3.7)

unde n este numarul valorilor lui X.

Page 17: Curs + Seminar

Cursul 3 13

Exemplul 3.11 (Urna cu bile de doua culori) O urna contine a bile albe si b bile negre.Fie A evenimentul extragerii unei bile albe si B evenimentul extragerii unei bile negre. Fieprobabilitatile asociate:

p := p(A) =a

a+ bq = p(B) =

b

a+ b. (3.8)

Avem deci Ω = 1, ..., a + b si fie X : Ω → R ce ia valoarea 1 cand apare o bila alba si 0pentru o bila neagra. Avem ca X este o variabila aleatoare ın raport cu σ-algebra generatade C = A,B. Distributia lui X este:

X :

(1 0p q

). (3.9)

O astfel de variabila aleatoare se cheama de tip Bernoulli.

Seminar 3

S3.1 Sa se studieze urna cu numar egal de bile.

Solutie Avem aceeasi variabila aleatoare ca ın cazul monedei:

X :

(1 012

12

). (3.10)

Putem desena ın Matlab aceasta distributie:

>> x=[0 1];

>> y=[0.5 0.5];

>> plot (x, y, ’ok’, ’markerfacecolor’, ’k’, ’markersize’, 10) (+Enter)

0 0.2 0.4 0.6 0.8 1−0.5

0

0.5

1

1.5Urna cu num\u ar egal de bile

Figura 3.1: Schema bilei ıntoarse

Daca realocam valorile variabilei aleatoare asa ıncat sa ınceapa de la 1 si nu de la zero:

X :

(1 212

12

). (3.11)

putem reprezenta in Matlab astfel:

>> y=[0.5 0.5];

>> plot(y, ’ok’, ’markerfacecolor’, ’k’) (+Enter)

Page 18: Curs + Seminar

14 M. Crasmareanu

1 1.2 1.4 1.6 1.8 2−0.5

0

0.5

1

1.5Urna cu num\u ar egal de bile; varianta cu redefinirea valorilor

Figura 3.2: Varianta distributiei Bernoulli

S3.2 Sa se reprezinte ın MATLAB zarul.

Solutie Avem:

X :

(1 2 3 4 5 616

16

16

16

16

16

). (3.12)

si programul MATLAB:

>> x=[1 2 3 4 5 6]; sau x=[1:6];

>> y=[1/6 1/6 1/6 1/6 1/6 1/6];

>> plot(x, y, ’o’) (+Enter)

1 2 3 4 5 6−1

−0.5

0

0.5

1

1.5Zarul

Figura 3.3: Zarul

Am utilizat comanda plot(x, y, string) unde string poate combina cel mult trei elemente:culoare, marker pentru punctul y si stilul liniei.

Culorile sunt:r Red

g Green

b Blue

c Cyan

m Magenta

y Yellow

k Black

w White

Page 19: Curs + Seminar

Cursul 3 15

Markerele ın MATLAB

o Circle

* Asterisk

. Point

+ Plus

x Cross

s Square

d Diamond

ˆ Upward triangle

v Downward triangle

> Right triangle

< Left triangle

p Five-point star

h Six-point star

Am ales ’o’ pentru ca altfel punctele de pe linia orizontala nu s-ar fi distins. Astfel, programulsimplu:

>>x=[1:6];

>>y=[1/6 1/6 1/6 1/6 1/6 1/6];

plot(x, y) (+Enter)

da figura urmatoare:

1 2 3 4 5 6−1

−0.5

0

0.5

1

1.5

Figura 3.4: Zarul cu plot(x, y)

Stiluri de linie MATLAB

- Solid line (default)

– Dashed line

: Dotted line

-. Dash-dot line

Exemple:

1) plot(x, y,′ r ∗−−′) pune un asterix rosu ın punctul M(x, y) si uneste punctele cu o ”reddashed line”.

Page 20: Curs + Seminar

16 M. Crasmareanu

1 2 3 4 5 6−1

−0.5

0

0.5

1

1.5Zarul: alta varianta

Figura 3.5

2) plot(x, y,′ y+′) pune o cruciulita galbena ın puncte si nu le uneste.

1 2 3 4 5 6−1

−0.5

0

0.5

1

1.5Zarul: alt\u a variant\u a

Figura 3.6

3) plot(x, y,′ kd :′) uneste cu o linie punctata punctele marcate cu diamante.

1 2 3 4 5 6−1

−0.5

0

0.5

1

1.5Zarul: variant\u a

Figura 3.7

Cele trei elemente din ’string’ pot apare ın orice ordine; astfel: plot(x, y,′ms − −′) siplot(x, y,′ s−−m′) sunt echivalente.

S3.3 Sa se reprezinte ın MATLAB variabila aleatoare:

X :

(1 2 3 418

14

18

12

).

Solutie Programul:

Page 21: Curs + Seminar

Cursul 3 17

>>x=[1:4];

>>y=[1/8 1/4 1/8 1/2];

>>plot(x, y) (+Enter)

da:

1 1.5 2 2.5 3 3.5 40.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

0.5

Figura 3.8

3.4 Sa se calculeze cu MATLAB produsul scalar dintre vectorii x = (1, 3, 5, 7) si y =(2, 4, 6, 8) si normele lor.

Solutie Avem:

< x, y >= x · yt = (x1, ..., xn) ·

y1

...yn

(3.13)

unde indicele superior t semnifica transpusa matricii respective.

In MATLAB transpusa se noteaza cu ′ iar produsul matricilor cu ∗. Pentru norma avemcomanda norm(x).

Deci programul cerut este:

>>x=[1 3 5 7];

>>y=[2 4 6 8];

>>x*y’ (+Enter)

>>norm(x) (+Enter)

>>norm(y) (+Enter)

Avem < x, y >= 2 + 12 + 30 + 56 = 100, ∥x∥ =√1 + 9 + 25 + 49 =

√84 = 2

√21 si

∥y∥ =√4 + 16 + 36 + 64 =

√120 = 2

√30. Cu programul anterior obtinem:

>>ans =

100

>>ans =

9.1652

>>ans =

10.9545

Definitia 3.11 Vectorii x, y ∈ Rn se numesc ortogonali sau perpendiculari daca < x, y >=0.

Page 22: Curs + Seminar

18 M. Crasmareanu

Mai general avem notiunea de unghi:

Definitia 3.12 Dati vectorii nenuli x, y ∈ Rn unghiul dintre ei este dat de:

cosϕ =< x, y >

∥x|∥y∥. (3.14)

Deci unghiul dintre vectorii ortogonali este ϕ = π2 .

S3.5 Sa se verifice ca urmatorii vectori sunt ortogonali: x = (1, 2,−3), y = (4, 4, 4).

Definitia 3.13 Un set de n vectori ortogonali doi cate doi si de norma 1 spunem caformeaza o baza ortonormata ın Rn. Un vector de norma 1 se numeste versor sau vectorunitar.

S3.6 Sa se verifice ca urmatorul set de vectori este o baza ortonormata ın spatiu:e1 = (1, 0, 0)e2 = (0, 1, 0)e3 = (0, 0, 1).

(3.15)

Aceasta baza se numeste baza canonica din R3 si se extinde natural la orice Rn.

S3.7 Sa se arate ca urmatorii vectori constituie o baza ortonormata ın spatiu:x = 1

3(−1, 2, 2)y = 1

3(2,−1, 2)z = 1

3(2, 2,−1).

Solutie O metoda de arata ca n vectori constituie o baza ortonormata este urmatoarea:formam o matrice patratica de ordin n cu acesti vectori scrisi pe coloana. Atunci avemconcluzia dorita doar daca:

A ·At = In (2.15)

unde In este matricea unitate de ordin n:

In =

1 ... 00 ... 00 ... 1

(2.16)

adica matricea ce are 1 pe diagonala pricipala si ın rest 0. O matrice ce satisface (2.15) senumeste matrice ortogonala de ordin n.

Observatia 3.8 Produsul a doua matrici patratice se efectueaza cu .∗ nu cu ∗ simplu !Liniile unei matrici se separa cu ;.

Exemplu: Matricea corespunzatoare exercitiului dat este:

>>A=[-1/3 2/3 2/3; 2/3 -1/3 2/3; 2/3 2/3 -1/3]

Page 23: Curs + Seminar

Chapter 4

Functia de repartitie a uneivariabile aleatoare

Fie (Ω,F , P r) un spatiu de probabilitate si X : Ω → R o variabila aleatoare pe spatiul suportΩ.

Definitia 4.1 Functia F : R → [0, 1]:

F (x) = Pr(X < x) (4.1)

se numeste functia de repartitie a lui X.

Avem o exprimare concreta a acestei functii pentru cazul discret prin:

Propozitia 4.2 Functia de repartitie a unei variabile aleatoare discrete este un functie ınscara.

Demonstratie Presupunem:

X :

(x1 x2 x3 ...p1 p2 p3 ...

).

Atunci:

F (x) =

0, x ∈ (−∞, x1]∑n

i=1 pi, x ∈ (xn, xn+1), n ≥ 1(4.2)

ceea ce da concluzia. 2

Proprietatile de baza ale functiei de repartitie sunt date de:

Propozitia 4.3 Functia de repartitie a unei variabile aleatoare oarecare satisface urmatoareleproprietati:FR1) este monoton crescatoare.FR2) limx→−∞ F (x) = 0, limx→+∞ F (x) = 1.FR3) F este continua la stanga ın orice punct x ∈ R.Reciproc, o functie F : R → R ce satisface aceste trei proprietati este functia de repartitie aunei variabile aleatoare

Avem de asemenea o utilizare a functiei de repartitie ın determinarea de probabilitati (ıncontinuare, pentru simplificarea scrierii vom nota P ın loc de Pr):

19

Page 24: Curs + Seminar

20 M. Crasmareanu

Propozitia 4.4 Functia de repartitie are urmatoarele proprietati:FR4) F (x + 0) = F (x) + P (X = x) pentru orice x ∈ R; deci F este continua ın punctul xdaca si numai daca P (X = x) = 0.FR5) pentru intervale marginite arbitrare avem:

P (a ≤ X < b) = F (b)− F (a)P (a < X < b) = F (b)− F (a+ 0)P (a ≤ X ≤ b) = F (b+ 0)− F (a)P (a < X ≤ b) = F (b+ 0)− F (a+ 0).

(4.3)

O alta notiune foarte importanta ın teoria variabilelor aleatoare este:

Definitia 4.5 Fie X o variabila aleatoare (continua) si F functia sa de repartitie. Dacaexista o functie ρ : R → [0,+∞) asa ıncat pentru orice x ∈ R avem:

F (x) =

∫ x

−∞ρ(t)dt (4.4)

atunci ρ se numeste densitatea de repartitie sau densitatea de probabilitate a lui X.

Proprietatile acestei noi functii sunt date de:

Propozitia 4.6 Fie X o variabila aleatoare ce admite densitatea ρ. Atunci:D1) P (a ≤ X ≤ b) =

∫ ba ρ(x)dx.

D2)∫ +∞−∞ ρ(x) = +1.

D3) F este derivabila ın orice punct x ∈ R ın care ρ este continua si atunci:

F ′(x) = ρ(x). (4.5)

Exemple de variabile aleatoare remarcabile

I) Discrete

1) variabila aleatoare binomiala

X :

(k

Cknp

kqn−k

)(4.6)

cu k ∈ 0, 1, ..., n iar p, q ∈ [0, 1] satisfac p+ q = 1. Se mai numeste si schema bilei revenitedeoarece modeleaza urmatorul experiment: avem o urna cu a bile albe si b bile negre siefectuam n extrageri, de fiecare data punand bila extrasa ınapoi ın urna. Vrem probabilitateaca sa apara de k ori o bila alba.

Acelasi experiment se poate modela si altfel: avem n urne cu un continut identic debile, ca mai sus. Din fiecare urna extragem o singura bila. Denumirea de binomiala se da-toreaza faptului ca probabilitatile respective sunt exact coeficientii din dezvoltarea binomuluilui Newton:

(q + p)n =

n∑k=0

Cknp

kqn−k. (4.7)

Exista si o generalizare numita variabila aleatoare multinomiala pentru care trimitem lapagina 32 din:I. Gh. Sabac si altii, Matematici speciale, vol. II, EDP, Bucuresti, 1983.

Page 25: Curs + Seminar

Cursul 4 21

2) Variabila aleatoare X este de tip Poisson cu parametrul λ ∈ (0,+∞) daca are odistributie de forma:

X :

(k ∈ Nλk

k! e−λ

). (4.8)

O lege de tip Poisson se mai numeste lege a evenimentelor rare si se poate obtine ca uncaz limita al legii binomiale pentru p foarte mic si n foarte mare dar astfel ıncat produsulnp = λ este constant.

II) Continue

3) Fie numerele reale µ, σ cu σ > 0. Variabila aleatoare X se numeste de tip Gauss sauspunem ca X satisface legea normala N(µ, σ) daca X admite o densitate de repartitie:

ρ(x) =1

σ√2π

exp[−(x− µ)2

2σ2]. (4.9)

−4 −3 −2 −1 0 1 2 3 40

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4Clopotul lui Gauss: µ =0, σ =1

Figura 4.1: Curba clopot

4) Variabila aleatoare X are repartitie uniforma pe [a, b] ⊂ R cu a, b finite daca admite:

ρ(x) =

1

b−a , x ∈ [a, b]

0, x ∈ R \ [a, b]. (4.10)

Seminar 4

S4.1 Sa se studieze variabila aleatoare:

X :

(−1 0 112

13

16

).

Solutie X determina pe multimea Ω a evenimentelor elementare partitia A1, A2, A3 cuPr(A1) =

12 , Pr(A2) =

13 , Pr(A3) =

16 si avem:

X < x =

∅, x ∈ (−∞,−1]A1, x ∈ (−1, 0]A1 ∩A2, x ∈ (0, 1]Ω, x ∈ (1,+∞).

Page 26: Curs + Seminar

22 M. Crasmareanu

Functia de repartitie a lui X este:

F (x) =

0, x ∈ (−∞,−1]12 , x ∈ (−1, 0]56 , x ∈ (0, 1]1, x ∈ (1,+∞).

Putem desena ın Matlab aceasta distributie:

>>x=[-1 0 1];

>>y=[1/2 1/3 1/6];

>>plot (x, y) (+Enter)

sau:

>>plot (x, y, ’ok’, ’markerfacecolor’, ’k’, ’markersize’, 10) (+Enter)

De asemeni, putem reprezenta grafic functia de repartitie obtnuta:

>>x1=-3:.01:-1; y1=0;

>>x2=-0.99:.01:0; y2=1/2;

>>x3=0.01:.01:1; y3=5/6;

>>x4=1.01:.01:3; y4=1;

>>plot(x1, y1, x2, y2, x3, y3, x4, y4); axis equal

−3 −2 −1 0 1 2 3

−1.5

−1

−0.5

0

0.5

1

1.5

2

2.5

Figura 4.2

De asemeni, pentru o mai buna vizualizare putem folosi culori; ultima linie:

>>plot(x1, y1, ’r’, x2, y2, ’g’, x3, y3, ’b’, x4, y4, ’m’); axis equal

da:

−3 −2 −1 0 1 2 3

−1.5

−1

−0.5

0

0.5

1

1.5

2

2.5

Figura 4.3

Page 27: Curs + Seminar

Cursul 4 23

S4.2 Se cer repartitiile variabilelor aleatoare: Xi=numarul de aparitii ale banului la iaruncari ale monezii pentru i = 1, 2.

Solutie Avem:

X1 :

(0 112

12

)(4.11)

respectiv:

X2 :

(0 1 214

12

14

)(4.12)

Reprezentarea cu bare a acestor variabile aleatoare este data de:

>>x=[0 1];

>>y=[1/2 1/2];

>>bar(x, y); axis equal (+Enter)

0 1

−0.4

−0.2

0

0.2

0.4

0.6

0.8

Aruncarea monedei

Figura 4.4

respectiv:

>>x=[0 1 2];

>>y=[1/4 1/2 1/4];

>>bar(x, y); axis equal (+Enter)

0 1 2

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1

1.2

Aruncarea de dou\u a ori a monedei

Figura 4.5

S4.3 Se da variabila aleatoare:

X :

(0 1 2 3

p2 7p4

13

16

).

Page 28: Curs + Seminar

24 M. Crasmareanu

Se cere probabilitatea ca X sa ia o valoare cel mult egala cu 2.

Solutie Mai ıntai aflam valoarea lui p punand conditia ca suma elementelor inferioare safie 1. Avem:

p2 +7

4p− 1

2= 0

Discriminantul acestei ecuatii de gradul doi este:

∆ =49

16+

4

2=

49

16+

32

16=

81

16= (

9

4)2.

Avem atunci solutiile:

p1 =−7

4 − 94

2= −4

2= −2

o solutie imposibila deoarece termenii inferiori trebuie sa fie pozitivi respectiv solutia:

p2 =−7

4 + 94

2=

1

4.

Deci X are distributia:

X :

(0 1 2 3116

716

13

16

).

Evenimentul X ≤ 2 se poate scrie:

X ≤ 2 = X = 0 ∪ X = 1 ∪ X = 2

si deci:

P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2) = 1

16+

7

16+

1

3=

1

2+

1

3=

5

6.

Evident, pentru problema pusa puteam rationa si astfel:

X ≤ 2 = CX = 3

ceea ce da:

P (X ≤ 2) = 1− P (X = 3) = 1− 1

6=

5

6.

In termeni de functia de repartitie avem ca probabilitatea ceruta este exactF (2) + P (X = 2). Rezulta ca:

F (2) =5

6− 1

3=

1

2.

Page 29: Curs + Seminar

Chapter 5

Valori medii. Momente, dispersie,corelatie

Definitia 5.1 Fie X o variabila aleatoare.i) Daca X este discreta cu expresia:

X :

(xipi

)i∈I⊂N

atunci numarul real:x = M(X) :=

∑i∈I

pixi (5.1)

se numeste media lui X.ii) Daca X este continua si admite densitatea de repartitie ρ atunci definim media lui X prin:

x = M(X) :=

∫ +∞

−∞xρ(x)dx. (5.2)

iii) Fie n ∈ N∗. Valoarea medie a variabilei aleatoare Xn:

Mn(X) := M(Xn) (5.3)

se numeste momentul de ordin n al lui X.

Exemplul 5.2 Daca X este discreta atunci:

Mn(X) =∑i∈I

pixni (5.4)

iar daca X este continua si admite densitatea de repartitie ρ atunci:

Mn(X) =

∫ +∞

−∞xnρ(x)dx. (5.5)

Propozitia 5.3 Fie variabilele aleatoare X, Y si numarul real a. Avem:M1) M(a+X) = a+M(X)M2) M(aX) = aM(X).

25

Page 30: Curs + Seminar

26 M. Crasmareanu

M3) infX ≤ M(X) ≤ supX.M4) M(X + Y ) = M(X) +M(Y ).

Demonstratie Vom face demonstratia pentru v. a. simple.M1) Avem:

a+X :

(a+ x0 a+ x1 ... a+ xnp0 p1 ... pn

)(5.6)

si:

aX :

(ax0 ax1 ... axnp0 p1 ... pn

). (5.7)

Rezulta:M(a+X) =

∑pi(a+ xi) = a

∑pi +M(X) = a+M(X)

M2)

M(aX) =∑

pi(axi) = a∑

pixi.

M3) Inmultim cu pi relatia:infX ≤ xi ≤ supX

si ınsumam dupa i.M3) X + Y are distributia:

X + Y :

(xi + yjrij

)(5.8)

cu rij = Pr(Ai ∩Bj); a se vedea si Exemplul 5.7 de mai jos. Avem imediat: ∑j∈J rij = pi∑i∈I rij = qj

(5.9)

Prin urmare:

M(X + Y ) =∑i∈I

(∑j∈J

rij)xi +∑j∈J

(∑i∈I

rij)yj =∑i∈I

pixi +∑j∈J

qjyj

ceea ce da concluzia. 2

Definitia 5.4 Momentul centrat de ordinul doi:

D(X) = M2(X − x) (5.10)

se numeste dispersia sau varianta lui X.

Observatia 5.5 Dispersia, asa cum ıi arata numele, este un indicator al ımprastieriivalorilor lui X fata de valoarea sa medie x si o formula utila de calcul este:

D(X) = M2(X)− x2. (5.11)

Motivatia pentru introducere acestui indicator de ımprastiere este aceea ca valoarea medieeste, ın general, insufucienta pentru determinarea unei variabile aleatoare. Astfel, doua v. a.simple pot lua acelasi numar de valori si pot avea aceeasi medie, dar, ın timp ce una ia valoriapropiate mediei, cealalta ia valori foarte ındepartate. Avem exemplul urmator:

X1 :

(−1 112

12

)

Page 31: Curs + Seminar

Cursul 5 27

X2 :

(−1000 1000

12

12

)ambele cu media nula.Demonstratia formulei (4.9) este imediata:

D(X) = M((X − x)2) = M(X2 − 2xX + x2) = M(X2)− 2xM(X) + x2 = M(X2)− 2x2 + x2

ceea ce da concluzia.

Definitia 5.6 FieX si Y doua variabile aleatoare. Definim produsul lor prinXY : F → R:

(XY )(ω) = X(ω) · Y (ω) (5.12)

unde, ın membrul drept consideram produsul numerelor reale X(ω) si Y (ω).

Exemplul 5.7 Presupunem ca X si Y sunt discrete cu:

X :

(xipi

)i∈I⊂N

, Y :

(yjqj

)j∈J⊂N

.

Deci pi = Pr(Ai) cu Ai = X = xi si qj = Pr(Bj) cu Bj = Y = yj. Atunci:

XY :

(xiyjrij

)(i∈I,j∈J)

(5.13)

cu rij = Pr(Ai ∩Bj).

Definitia 5.8 i) Variabilele aleatoare X, Y se numesc independente daca pentru oricex, y ∈ R avem:

P (X < x ∩ Y < y) = P (X < x) · P (Y < y). (5.14)

ii) Date variabilele aleatoare X, Y numerele reale:

CXY = M(XY )−M(X)M(Y ) (5.15)

ρXY =CXY√

D(X)D(Y )(5.16)

se numesc covarianta (sau corelatia) respectiv coeficientul de corelatie al lor. Daca CXY = 0spunem ca X si Y sunt necorelate iar daca CXY = 0 atunci spunem ca X si Y sunt corelate.

Propozitia 5.9 Daca X si Y sunt v. a. independente atunci:

M(XY ) = M(X) ·M(Y ). (5.17)

Seminarul 5

S5.1 Se cere media si dispersia variabilei aleatoare binomiale.

Solutie Sa derivam ın raport cu x formula binomului lui Newton:

(q + px)n =n∑

k=0

Cknq

n−kpkxk. (5.18)

Page 32: Curs + Seminar

28 M. Crasmareanu

Obtinem:

np(q + px)n−1 =n∑

k=0

Cknq

n−kpkkxk−1. (5.19)

Facem x = 1 ın ultima relatie si obtinem:

np =∑k=0

k · Cknq

n−kpk (5.20)

care este exact media variabilei aleatoare binomiale. Deci:

M(X) = np. (5.21)

Inmultim (5.19) cu x:

np(q + px)n−1x =

n∑k=0

Cknq

n−kkxk (5.22)

si derivam ultima relatie:

n(n− 1)p2(q + px)n−2x+ np(q + px)n−1 =

n∑k=0

Cknq

n−kk2pkxk−1. (5.23)

Inlocuim din nou x = 1 si avem:

n(n− 1)p2 + np =n∑

k=0

k2 · Cknq

n−kpk (5.24)

care este exact M2(X).Pentru dispersie folosim formula (5.10):

D(X) = n(n− 1)p2 + np− n2p2 = −np2 + np = np(1− p) = npq. (5.25)

S5.2 Se arunca 4 zaruri si se cere valoarea medie a numarului de puncte obtinute.

Solutie Deoarece:

M(zar) =1

6(1 + 2 + ...+ 6) =

1

6· 6 · 7

2=

7

2(5.26)

rezulta ca pentru n zaruri avem:

M(n zaruri) =7n

2. (5.27)

In cazul n = 4 obtinem: M = 14. 2

S5.3 Se arunca 4 zaruri si se cere valoarea medie a produsului numarului de puncte ceapar.

Solutie Fie Xi numarul de puncte de la zarul i ∈ 1, 2, 3, 4. Aceste v. a. sunt indepen-dente si deci:

M(X1X2X3X4) = M(X1)M(X2)M(X3)M(X4) =

(7

2

)4

=2401

16.

Page 33: Curs + Seminar

Cursul 5 29

S5.4 Se cere media si dispersia variabilei aleatoare de tip Poisson cu parametrulλ ∈ (0,+∞).

Solutie Avem:

M(X) =∑k≥0

kλk

k!e−λ = λe−λ

∑k≥1

λk−1

(k − 1)!= λe−λ · eλ = λ. (5.28)

M2(X) =∑k≥0

k2λk

k!e−λ = λe−λ

∑k≥1

kλk−1

(k − 1)!= λe−λ

∑p≥0

(p+ 1)λp

p!.

Deci:

M2(X) = λe−λ(∑p≥1

λp

(p− 1)!+∑p≥0

λp

p!) = λe−λ · (λeλ + eλ) = λ(λ+ 1). (5.29)

Rezulta:D(X) = λ2 + λ− λ2 = λ. (5.30)

S5.5 Se cere media si dispersia variabilei aleatoare de tip normal N(µ, σ).

Solutie Valoare medie este:

M(X) =

∫ +∞

−∞xρ(x)dx =

1

σ√2π

∫ +∞

−∞x exp[−(x− µ)2

2σ2]dx =

=1

σ√2π

∫ +∞

−∞(x−m) exp[−(x− µ)2

2σ2]dx+

m

σ√2π

∫ +∞

−∞exp[−(x− µ)2

2σ2]dx.

In prima integrala facem schimbarea de variabila x−m = t si obtinem:

I1 =1

σ√2π

∫ +∞

−∞t exp[− t2

2σ2]dt = 0

deoarece functia de sub integrala este impara: F (−t) = −F (t). Pentru a doua integrala facemschimbarea de variabila: x−m = σ

√2π · t si avem:

I2 =µ

σ√2π

∫ +∞

−∞σ√2e−t2dt = µ

deoarece: ∫ +∞

−∞e−t2dt =

√π. (5.31)

In concluzie:M(X) = µ. (5.32)

Sa observam ca:1

σ√2π

∫ +∞

−∞ρ(x)dx =

σ√2π

σ√2π

= 1 (5.32)

ceea ce confirma buna definire a variabilei aleatoare normale.

Page 34: Curs + Seminar

30 M. Crasmareanu

Pentru calculul dispersiei:

D(X) =

∫ +∞

−∞(x− µ)2ρ(x)dx

vom integra prin parti:

D(X) =1

σ√2π

[−σ2(x− µ) exp(−(x− µ)2

2σ2)|+∞−∞ + σ2

∫ +∞

−∞exp(−(x−m)2

2σ2)dx].

Primul termen este nul din nou din motive de (im)paritate iar integrala a fost calculata deja.In concluzie:

D(X) = σ2. (5.32)

Vedem astfel motivatia pentru notatia N(µ, σ). 2

Daca X si Y sunt independente atunci ele sunt necorelate. Reciproca nu este adevaratadupa cum o arata exercitiul urmator:

S5.6 Se cere covarianta urmatoarelor v. a.:

X :

(−2 −1 1 214

14

14

14

)Y :

(−1 112

12

).

Solutie Avem M(X) = M(Y ) = 0. Produsul XY ia valorile zij = x1yj cu:z11 = 2, z21 = 1, z31 = −1, z41 = −2z12 = −2, z22 = −1, z32 = 1, z42 = 2.

Avem probabilitatile: r11 = 0, r21 =

14 , r31 =

14 , r41 = 0

r12 =14 , r22 = 0, r32 = 0, r42 =

14 .

Deci:

XY :

(−2 −1 1 214

14

14

14

).

Rezulta ca M(XY ) = 0 = M(X)M(Y ) si deci CXY = 0. Avem si piqj = 18 = rij pentru

unele valori ale indicilor i, j. Deci cele doua variabile aleatoare sunt necorelate dar nu suntindependente. 2

Page 35: Curs + Seminar

Chapter 6

Teoria deciziilor

Fixam A o multime nevida ale carei elemente ”a” le numim actiuni si Ω o alta multime nevidanumita spatiul parametrilor. Fie FΩ o σ-algebra pe Ω.

Definitia 6.1 Aplicatia X : Ω → R o numim F -masurabila daca pentru orice r ∈ Ravem:

X < r : ω ∈ Ω : X(ω) < r ∈ FΩ. (6.1)

Observatia 6.2 Comparand relatia anterioara cu relatia (3.5) din Cursul 3 observam casunt identice. Deci o variabila aleatoare este exact o functie FΩ-masurabila.

Definitia 6.3 Numim functie pierdere o functie Pierd : Ω×A → R+.

In exemplele care urmeaza Ω ⊆ Rm si atunci FΩ = B(m) ∩ Ω.

Exemple 6.41) pierdere eroare-patratica: A = Ω ⊆ R

Pierd(ω, a) = ρ(ω − a)2 (6.2)

cu ρ ∈ R∗+ fixat.

2) pierdere eroare-patratica ponderata: A = Ω ⊆ R

Pierd(ω, a) = ρ(ω)(ω − a)2 (6.3)

cu ρ : Ω → R∗+, FΩ-masurabila.

3) pierdere liniara A = Ω ⊆ R

Pierd(ω, a) =

ρ1(ω − a), ω ≥ aρ2(a− ω), ω < a

(6.4)

cu ρ1, ρ2 numere reale pozitive.4) pierdere liniara ponderata ca mai sus dar cu ρ1, ρ2 : Ω → (0,+∞), Fω-masurabila.5) pierdere eroare-absoluta: A = Ω ⊆ R

Pierd(ω, a) = ρ|ω − a| (6.5)

31

Page 36: Curs + Seminar

32 M. Crasmareanu

cu ρ > 0.6) pierderea c1 − c2: A = a1, a2, Ω = Ω1 ∪ Ω2 cu Ω1 ∩ Ω2 = ∅

Pierd(ω, ai) =

c1, ω ∈ Ωi

c2, ω ∈ Ωj(6.6)

cu i = j.

Fie X ⊆ Rn o multime nevida numita spatiul de selectie si σ-algebra FX = B(n) ∩ X .

Definitia 6.5 Numim problema de decizie un ansamblu (A,Ω,X , X) cu X : Ω×X → Xasa ıncat pentru orice ω ∈ Ω aplicatia X(ω, ·) : X → X este FX -masurabila i.e. pentruorice F ∈ FX avem:

x ∈ X : X(x) ∈ F ∈ FX . (6.7)

Fie g : X → R ce este FX -masurabila si ω ∈ Ω fixat. Putem defini media g-ponderata alui X(ω, .) la fel ca ın Cursul precedent:

M(g(X(ω, ·))) := ∑

x∈X g(x)X(ω, x) X(ω, ·) este discreta∫X g(x)ρ(ω, x)dx X(ω, ·) este continua cu densitatea de repartitie ρ(ω, ·).

(6.8)

Definitia 6.6 O functie d : X → A ce este FX -masurabila o numim functie de deciziesau regula de decizie. Fie D multimea regulilor de decizie pentru problema de decizie data.

Am ajuns astfel la notiunea centrala ıntregului Curs si anume riscul unei decizii:

Definitia 6.7 Functia risc a problemei de decizie (A,Ω,X , X) este R : Ω× D → R:

R(ω, d) = M(Pierd(ω, d X(ω, ·))) (6.9)

Deci riscul este o medie a pierderilor asociatei unei perechi (parametru ω, decizie a),parametrul ω fiind luat ın cosiderare pentru adoptarea deciziei a din multimea A a tuturordeciziilor.

Exemplul 6.8 (Acceptarea unui lot de produse)O firma produce un tip de produse si vrem sa decidem daca acceptam sau nu un lot de astfelde n produse. Fie ω probabilitatea de a gasi un produs defect. Exista ω0 ∈ (0, 1], numit pragde acceptare-respingere, astfel ıncat:-daca ω ≤ ω0 facem actiunea a1=acceptam,-daca ω > ω0 facem actiunea a2=respingem.In practica ω0 = 0, 05 adica acceptam cel mult 5 produse defecte. Avem A = a1, a2,X = 0, ..., n si X = X(ω, x) va da numarul de produse defecte din lotul de x ∈ X cuprobabilitatea ω. Avem ca X(ω, ·) este continua cu densitatea de tip binomial:

ρ(ω, x) = Cxnω

x(1− ω)n−x. (6.10)

Fixam ρ > 0 un coeficient de calibrare iar functia pierdere va fi:

Pierd(ω, a1) =

0 ω ≤ ω0

ρ(ω − ω0) ω > ω0(6.11)

Page 37: Curs + Seminar

Cursul 6 33

Pierd(ω, a2) =

ρ(ω0 − ω) ω ≤ ω0

0ω > ω0.(6.12)

Functia decizie este d : X = 0, ..., n → A = a1, a2:

d(x) =

a1

xn ≤ ω0

a2xn > ω0.

(6.13)

Atunci functia risc devine:

R(ω, d) =

n∑x=0

Pierd(ω, d(x))ρ(ω, x) (6.14)

si are expresia finala:

R(ω, d) =

∑x∈X ,nω0≤x≤n ρ(ω0 − ω)Cx

nωx(1− ω)n−x ω ≤ ω0∑

x∈X ,1≤x≤nω0ρ(ω0 − ω)Cx

nωx(1− ω)n−x ω > ω0.

(6.15)

Exemplul 6.9 O firma doreste sa-si modernizeze fluxul tehnologic si epntru aceasta estenecesara achizitionarea a 10 dispozitive automate de prelucrare a unor piese. Dintre acestea,un numar de ω vor avea o durata de functionare de 10.000 de ore fara reparatii majore, duratace aduce un beneficiu de k1 lei. Pentru celelalte 10 − ω dispozitive ce au suferit defectiuniimportante pe durata functionarii de 10.000, firma va suporta cheltuieli de k2 lei.

Pentru achizitionarea acestor 10 dispozitive firma are la dispozitie un timp pentru a testaunul singur. Daca acest dispozitiv functioneaza la anumiti parametri atunci testul este con-siderat satisfacator si dispozitivele sunt achizitionate. In caz contrar, nu se accepta acestedispozitive. Cheltuielile pentru acest test sunt de k3 lei.

Avem din nou A = a1, a2 cu a1= acceptare iar a2= respingere; avem Ω = 0, ..., 10.Fie X = x1, x2 cu:-x1 corespunde unui rezultat satisfacator la test,-x2 corespunde unui rezultat nesatisfacator la test.X are densitatea:

ρ(ω, x1) =ω10

ρ(ω, x2) = 1− ω10 .

(6.16)

Functia pierdere are expresia:Pierd(ω, a1) = k3 − ωk1 + (10− ω)k2Pierd(ω, a2) = k3.

(6.17)

Functiile de decizie d : X = x1, x2 → a1, a2 sunt ın numar de patru:

d1(x) = a1,∀x ∈ X

d2(x) =

a1 x = x1a2 x = x2

d3(x) =

a2 x = x1a1 x = x2

d4(x) = a2,∀x ∈ X . (6.18)

Page 38: Curs + Seminar

34 M. Crasmareanu

Observam ca d1 si d4 ignora rezultatul testului; astfel d1 accepta lotul ın orice conditii iar d4 ılrespinge indiferent de rezultatul testului. O astfel de situatie este posibila; spre exemplu firmeii se ofera un contract mai avantajos, prin care se acopera si cheltuielile efectuarii testului.

Pentru un parametru ω dat, riscul asociat functiilor de decizie considerate este:

R(ω, d) = Pierd(ω, d(x1))ρ(ω, x1) + Pierd(ω, d(x2))ρ(ω, x2) (6.19)

care devine, ın fiecare din cele patru cazuri particulare:

R(ω, d1) = k3 − ωk1 + (10− ω)k2

R(ω, d2) =ω

10[k3 − ωk1 + (10− ω)k2] +

(1− ω

10

)k3

R(ω, d3) =ω

10k3 +

(1 +

ω

10

)[k3 − ωk1 + (10− ω)k3]

R(ω, d4) = k3. (6.19)

Seminar 6 Diagrama pie afiseaza procentul cu care fiecare element al unui vector (saumatrice) contribuie la suma elementelor structurii.

S6.1 Sa se figureze fenomenele echiprobabile pn = ( 1n , ...,1n) (vezi Cursul 1) pentru n ∈

2, 3, 4, 5, 6.

Solutie Programul MATLAB:

>>x=[1 1];

>>pie(x) (+Enter)

da:

50% 50%

Moneda

Figura 6.1

Analog avem:

>>x=[1 1 1];

>>pie(x) (+Enter)

Page 39: Curs + Seminar

Cursul 6 35

33%

33%

33%

Figura 6.2

>>x=[1 1 1 1];

>>pie(x) (+Enter)

25%

25% 25%

25%

Figura 6.3

>>x=[1 1 1 1 1];

>>pie(x) (+Enter)

20%

20%

20%

20%

20%

Figura 6.4

>>x=[1 1 1 1 1 1];

>>pie(x) (+Enter)

Page 40: Curs + Seminar

36 M. Crasmareanu

17%

17%

17% 17%

17%

17%

Zarul

Figura 6.5

Putem utiliza si pie3(.) pentru o reprezentare spatiala:

>>x=[1 1];

>>pie3(x) (+Enter)

50%

Zarul

50%

Figura 6.6

>>x=[1 1 1];

>>pie3(x) (+Enter)

33%

33%

33%

Figura 6.7

>>x=[1 1 1 1];

>>pie3(x) (+Enter)

Page 41: Curs + Seminar

Cursul 6 37

25%

25%

25%

25%

Figura 6.8

>>x=[1 1 1 1 1];

>>pie3(x) (+Enter)

20%

20%

20%

20%

20%

Figura 6.9

>>x=[1 1 1 1 1 1];

>>pie3(x) (+Enter)

17%

17%

17%

Zarul

17%

17%

17%

Figura 6.10

S6.2 Sa se figureze cu pie variabila aleatoare data de Exercitiul 3.3

Solutie Inmultim cu 8 ultima linie pentru a norma aceasta variabila aleatoare si avem:x = (1, 2, 1, 4).

>>x=[1 2 1 4];

>>pie(x) (+Enter)

Page 42: Curs + Seminar

38 M. Crasmareanu

13%

25%

13%

50%

Figura 6.11

>>x=[1 2 1 4];

>>pie3(x) (+Enter)

50%

13%

25%

13%

Figura 6.12

S6.3 Se dau variabilele aleatoare independente:

X :

(−1 0 1

p+ 16 q + 1

313

)

Y :

(−1 0 113 2p− q 12p2

).

Se cere distributia lui XY .

Solutie Sa determinam mai ıntai p si q punand conditia ca suma elemetelor din liniainferioara sa fie 1:

p+ 16 + q + 1

3 + 13 = 1

13 + 2p− q + 12p2 = 1.

Avem deci sistemul: p+ q = 1

62p− q + 12p2 = 2

3

si prin adunarea celor doua ecuatii avem:

3p+ 12p2 =5

6.

Putem scrie:

p2 +1

4p− 5

72= 0

Page 43: Curs + Seminar

Cursul 6 39

care are discriminantul:

∆ =1

16+

5

18=

18 + 80

16 · 18=

98

16 · 18=

49

16 · 9=

(7

12

)2

.

Rezulta solutiile:

p1 =1

2(−1

4− 7

12)

impsibila respectiv:

p2 = p =1

2(−1

4+

7

12) =

4

12 · 2=

1

6

la care corespunde q = 0. Deci:

X :

(−1 0 113

13

13

)Y :

(−1 0 113

13

13

.

)V. a. XY ia valorile −1, 0 si 1. Avem: XY = −1 = X = 1;Y = −1 ∪ X = −1;Y = 1si deci:

P (XY = −1) = P (X = 1;Y = −1) + P (X = −1;Y = 1) =

= P (X = 1) · P (Y = −1) + P (X = −1) · P (Y = 1) =1

3· 13+

1

3· 13=

2

9.

Analog:

P (XY = 1) =2

9

si deci:

P (XY = 0) = 1− 4

9=

5

9.

In concluzie:

XY :

(−1 0 129

59

29

).

S6.4 Se dau v. a. independente de la exercitiul anterior. Se cere X2 + Y 2.

Solutie Avem:

X2 = Y 2 :

(0 113

23

)si deci v. a. ia valorile 0, 1 si 2. Deoarece X2 si Y 2 sunt independente avem:

X2 + Y 2 :

(0 1 219

49

49

).

S6.5 Se cer numerele reale a, b, c asa ıncat urmatoarea functie sa fie o functie de repartitiecontinua:

F (x) =

a x ∈ (−∞, 0])bx2 x ∈ (0, 1]c x ∈ (1,+∞).

Solutie Din FR2), Cursul 4, avem: 0 = limx→−∞ F (x) = a si 1 = limx→+∞ F (x) = c.Din continuitatea ın x = 1 avem: F (1) = b = limx1F (x) = c = 1. 2

Page 44: Curs + Seminar

40 M. Crasmareanu

Page 45: Curs + Seminar

Chapter 7

Invarianta ın teoria deciziilor

Fie problema de decizie (A,Ω,X , X) si S(X ) multimea functiilor bijective pe X i.e. ele-mentele lui S(X ) sunt functii g : X → X bijective.

Propozitia 7.1 S(X ) este grup relativ la compunerea functiilor.

Definitia 7.2 S(X ) se numeste grupul bijectiilor lui X sau ınca grupul simetric al luiX . O functie g ∈ S(X ) o numim transformare a lui X sau pe X .

Fixam G ⊂ S(X ) un subgrup; deci G este submultime nevida (contine macar functiaidentica 1X ) cu proprietatile:sg1) daca g1 ∈ G si g2 ∈ G atunci g2 g1 ∈ G.sg2) daca g ∈ G atunci si inversa g−1 apartine lui G.Vom mai presupune ca orice g ∈ G este transformare bimasurabila ın sensul ca pentru oriceB ∈ FX avem g(B) ∈ FX si g−1(B) ∈ FX . Cum compunerea de aplicatii masurabile estemasurabila rezulta capentru orice ω ∈ Ω aplicatia g(X(ω, .)) : X → X este FX -masurabila.

Definitia 7.3 Aplicatia X : Ω×X → X o numim G-invarianta daca pentru orice g ∈ Gsi orice ω ∈ Ω exista si este unic ¯omega ∈ Ω astfel ıncat daca X(ω, .) are distributia deprobabilitate P (ω) atunci g(X(ω, .)) are distributia P (ω).

In limbajul densitatilor de probabilitate avem ca daca X(ω, x) are distributia ρ(ω, x)atunci g(X(ω, x)) are distributia ρ(ω, y = gx). Notam ω = g(ω). Rezulta invarianta mediei:

M(h g(X(ω, .))) = M(h X(g(ω), .))

si faptul ca pentru g ∈ G fixam avem ca g(ω) este o functie de ω. Putem deci considereG = g; g ∈ G ca submultime ın F (Ω) = f : Ω → Ω=multimea tuturor functiilor de la Ωla Ω.

Propozitia 7.4 G este subgrup ın S(Ω).

Elementul neutru din G este e = 1Ω : ωΩ → ω corespunzator elementului neutru e = 1X :x ∈ X → x.

Presupunem ca functia pierdere satisface proprietatea: Pierd(ω, a1) = Pierd(ω, a2) pen-tru orice ω ∈ Ω implica a1 = a2. Aceasta presupunere este naturala ın sensul ca avandaceleasi pierderi pentru orice parametru ω e clar ca cele doua actiuni a1, a2 sunt echivalente.

41

Page 46: Curs + Seminar

42 M. Crasmareanu

Definitia 7.5 i) Functia pierdere este G-invarianta daca pentru orice g ∈ G si orice a ∈ Aexista si este unic a ∈ A astfel ca: Pierd(ω, a) = Pierd(ω, g(ω), a) pentru orice ω ∈ Ω.ii) Problema de decizie data este G-invarianta daca X si Pierd sunt G-invariante.

Mai notam a = g(a) si obtinem G = g; g ∈ G ca submultiem ın F (A). Avem ca maisus:

Propozitia 7.5 G este subgrup ın S(A).

O observatie importanta este ca pentru o problema de decizie G-invarianta avem:

Pierd(ω, a) = Pierd(g(ω), g(ω)) (7.1)

pentru orice ω ∈ Ω. Relativ la functii de decizie avem urmatoarea notiune de invarianta:

Definitia 7.6 Consideram ca problema de decizie data este G-invarianta si fie d ∈ D oregula de decizie. Spunem atunci ca d este G-invarianta daca pentru orice x ∈ X si oriceg ∈ G avem:

d(g(x)) = g(d(x)). (7.2)

Vom nota cu D(G) multimea functiilor de decizie G-invariante.

Definitia 7.7 Consideram ca problema de decizie data este G-invarianta si fie parametriiω1, ω2 ∈ Ω. Spunem ca ω1 si ω2 sunt echivalenti daca exista g ∈ G asa ıncat ω2 = g(ω1).

Obtinem astfel o relatie de echivalenta pe spatiul Ω al parametrilor. O clasa de echivalentase va numi orbita. Urmatorul rezultat este central ın acest Curs si spune ın esenta ca pentrufunctiile de decizie G-invariante functia rsic este invarianta pe orbita:

Teorema 7.8 Consideram ca problema de decizie data este G-invarianta si fie d ∈ D(G).Atunci pentru orice ω ∈ Ω avem:

R(ω, d) = R(g(ω), d). (7.3)

Cazul particular de constanta totala a riscului merita mentionat.

Definitia 7.9 Grupul G se numeste tranzitiv daca exista ω0 ∈ Ω astfel ıncat ıntreg Ω esteorbita lui ω0.

Prin urmare, ın cazul G tranzitiv, avem o singura orbita iar din Teorema avem ca risculasociat la orice functie de decizie este acelasi indiferent de parametrii din Ω. O functie dedecizie invarianta care minimizeaza acest risc constant se numeste cea mai buna functie dedecizie invarianta.

Exemplul 7.10 Fie A = Ω = (0,+∞) si P (ω);ω ∈ Ω familia distributiilor exponentialede parametru ω. Fie functia pierdere”

Pierd(ω, a) = (a− aω)2. (7.4)

Fie G = gc; c ∈ (0,+∞) grupul transformarilor de scala ale dreptei reale i.e. gc : (0,+∞) →(0,+∞), gc(x) = cx. Se observa ca G este tranzitiv.

Avem ca aceasta problema de decizie este invarianta iar o functie de decizie va fi invariantadaca d(cx) = cd(x) pentru orice x ∈ (0,+∞). Ultima egalitate este o ecuatie functionala adicao ecuatie avand ca necunoscuta o functie.

Page 47: Curs + Seminar

Cursul 7 43

Solutia acestei ecuatii functionale este: d(x) = λx cu λ > 0. Functia risc pentru aceastadecizie este:

R(ω, d) = M(1− ωd(X(ω, .))2) = M(1− λωX(ω))2 = 1− 2λ+ 2λ2. (7.5)

Derivam aceasta functie risc si egalam cu zero derivata pentru a-i afla minimul.

dR

dλ= 4λ− 2 = 0

si prin urmare cea mai buna decizie invarianta este d0(x) =x2 iar riscul corespunzator este:

R(ω, d0) = 1− 1 + 24 = 1

2 .

Seminar 7

S7.1 (Exemplu de v. a. numarabila) Se arunca un zar si fie X numarul de aruncariefectuate pana apare cifra 1. Se cere distributia lui X.

Solutie X poate lua orice valoare 1, 2, 3, ... Sa calculam probabilitatea pk = P (X = k).Avem p1 = P (X = 1) = 1

6 . p2 = P (X = 2) este probabilitatea ca la prima aruncare sa nuiasa fata 1 combinata cu probabilitatea ca la aruncarea a doua sa iasa fata 1. Avem decip2 =

56 · 1

6 . Analog p3 =56 · 5

6 · 16 . Rezulta ca pentru cazul general avem:

pk =

(5

6

)k−1

· 16

iar distributia este:

X :

(k ∈ N∗(56

)k−1 · 16

).

Cazul general: v. a. a primei realizari Fie o experienta si un eveniment A legat deaceasta experienta si care se realizeaza cu probabilitatea p. Fie X numarul de efectuari aleexperientei pana la prima realizare a lui A. Avem:

X :

(k ∈ N∗

qk−1p

)(7.5)

cu q = 1− p.Avem ca:

1 + q + ...+ qn =1− qn+1

1− q(7.6)

si deci suma elementelor din linia inferioara a lui (6.5) este: p· 11−q = 1 deoarece limn→+∞qn =

0, q fiind un numar subunitar.

S7.2 Se cer numerele reale a, b, c asa ıncat urmatoarea functie sa fie o functie de repartitiecontinua:

F (x) =

(a−2b)x3

x3+1x ≤ 0

c sinx 0 < x ≤ π2

(a+b−2)x2−1x2−1

x > π2 .

Solutie Din FR2), Cursul 4, avem: 0 = limx→−∞ F (x) = a − b si 1 = limx→+∞ F (x) =a+ b− 2. Avem un sistem ın necunoscutele a si b cu solutia: a = 1, b = 1, obtinuta ınlocuind

Page 48: Curs + Seminar

44 M. Crasmareanu

a = 2b ın a doua ecuatie.Din continuitatea ın x = π

2 avem: F (π2 ) = c = limx1F (x) = 1. 2

S7.3 Se cere a ∈ R astfel ca functia urmatoare sa fie o densitate de repartitie:

ρ(x) =

0 x /∈ [0, 1]2ax x ∈ [0, 1].

Solutie Folosim D2) din Cursul 4:

1 =

∫ +∞

−∞ρ(x)dx =

∫ 1

0ρ(x)dx = ax2|10 = a.

S7.4 Se da v. a. X cu densitatea:

ρ(x) =

0 x ≤ 0λe−2x x > 0.

Se cere P (X > 3).

Solutie Determinam λ din aceeasi conditie D2):

1 =

∫ +∞

−∞ρ(x)dx =

∫ +∞

0λe−2xdx =

λ

−2e−2x|+∞

0 =λ

−2(e−infty − e0) =

λ

2

de unde rezulta λ = 2.Avem atunci:

P (X > 3) = P (3 < X < +∞) =

∫ +∞

32e−2xdx = −e−2x|+∞

3 = e−6 − 0 =1

e6.

Page 49: Curs + Seminar

Chapter 8

Utilitate si pierdere

Reamintim ca am notat cu D multimea deciziilor asociate unei probleme de decizie.

Definitia 8.1 Fie deciziile d1, d2 ∈ D . Spunem ca:1) d1 domina d2 sau ca d1 este mai buna decat d2 si notam d1 > d2 daca: R(ω, d1) ≤ R(ω, d2)pentru orice ω ∈ Ω cu inegalitate stricta pentru cel putin un parametru ω.2) d1 este cel putin tot asa de buna ca si d2 si notam d1 ≥ d2 daca: R(ω, d1) ≤ R(ω, d2)pentru orice ω ∈ Ω.3) d1 si d2 sunt echivalente si notam d1 d2 daca: R(ω, d1) = R(ω, d2) pentru orice ω ∈ Ω.

Relatiile 1) si 2) sunt de ordine iar 3) este o relatie de echivalenta.

Fie C multimea consecintelor unei decizii luate. Fie u : C → R o functie de ”cuantificare”a acestor consecinte. Daca avem o probabilitate P pe C atunci ”valoarea” unei consecinteeste media M(u(c)), care pentru orice P defineste o functie utilitate.

Fie deci P(C) multimea tuturor distributiilor de probabilitate simple pe C. Pentru oconsecinta fixata c ∈ C notam cu < c > distributia de probabilitate care asociaza valoarea 1multimii c si 0 ın rest.

Definitia 8.2 Fie p1, p2 ∈ P(C). Spunem ca:u1) p2 este preferat fata de p1 si notam p1 < p2 daca: Mp1(u(c)) < Mp2(u(c)) unde Mp

ınseamna media ın raport cu probabilitatea p.u2) Notam p1 ≤ p2 daca p1 nu este preferat facta de p2.u3) Notam p1 p2 daca p1 si p2 sunt echivalente.

Sa observam ca P(C) este o multime convexa: daca p1, p2 ∈ P(C) si α ∈ [0, 1] atunciavem urmatorul element p = αp1 + (1 − α)p2 ın P(C) definit de: p(C ′) = αp1(C

′) + (1 −α)p2(C

′) pentru orice C ′ ⊆ C. In particular, daca c1, c2 ∈ C atunci α < c1 > +(1−α) < c2 >este o distributie de probabilitate.

Fixam o multime nevida M .

Definitia 8.3 Numim mixtura o pereche (M,m) cu m : [0, 1]×M ×M → M satisfacand:M1) m(1, P,Q) = P ,M2) m(α, P,Q) = m(1− α,Q, P ),M3) m(α,m(β, P,Q), Q) = m(αβ, P,Q).

Vom mai nota m(α, P,Q) prin αP + (1− α)Q. Avem atunci:m1) 1P + 0Q = P ,

45

Page 50: Curs + Seminar

46 M. Crasmareanu

m2) αP + (1− α)Q = (1− α)Q+ αP ,m3) α[βP + (1− β)Q] + (1− α)Q = αβP + (1− αβ)Q.

Propozitia 8.4 Fie (M,m) o mixtura. Atunci:m4) αP + (1− α)P = P ,m5) α[βQ+(1−β)R]+(1−α)[γQ+(1−γ)R] = [αβ+(1−α)γ]Q+[α(1−β)+(1−α)(1−γ)]R.

Demonstratie m4)αP +(1−α)P = α[1P +0P ]+(1−α)P = α[0P +1P ]+(1−α)P = 0P +1P = 1P +0P = P .m5) Presupunem ca β ≤ γ.[αβ+(1−α)γ]Q+ [α(1−β)+ (1−α)(1− γ)]R = [αβγ +(1−α)γ]Q+1− [αβγ + (1− α)]γR =

= [αβγ + (1− α)][γQ+ (1− γ)R] + [1− αβγ − (1− α)]R =

= α(1− βγ )R+[1−α(1− β

γ )][γQ+(1−γ)R] = αβγ [γQ+ (1− γ)R] + (1− β

γ )R+(1−α)[γQ+(1− γ)R] = α[βQ+ (1− β)R] + (1− α)[γQ+ (1− γ)R].Demonstratia a fost realizata ın ipoteza γ = 0. Daca γ = 0 atunci relatia ceruta este imediata.2

Definitia 8.5 Fie ≤ o relatie binara pe M . Pentru P,Q ∈ M definim P < Q daca P ≤ Qdar nu avem Q ≤ P . Definim P Q daca P ≤ Q si Q ≤ P .

Vom considera urmatoarele axiome:a1) ≤ este o ordine slaba i.e. este tranzitiva si completa.a2) Daca α ∈ (0, 1] si P < Q atunci αP + (1− α)R < αQ+ (1− α)R.a3) Daca P < Q < R atunci exista α, β ∈ (0, 1) asa ıncat: αP+(1−α)R < Q < βP+(1−β)R.

Propozitia 8.6 Daca avem a1, a2 si a3 atunci:i1) daca P < Q si 0 ≤ α < β ≤ 1 atunci βP + (1− β)Q < αP + (1− α)Q.i2) daca P ≤ Q, Q ≤ R si P < R atunci exista α ∈ [0, 1] unic asa ıncat Q αP + (1− α)R.i3) daca P < Q, R < S si α ∈ [0, 1] atunci αP + (1− α)R < αQ+ (1− α)S.i4) daca P Q si α ∈ [0, 1] atunci αP + (1− α)Q P .i5) daca P Q si α ∈ [0, 1] atunci αP + (1− α)R αQ+ (1− α)R.

Propozitia 8.7 Fie (M,m) o mixtura cu axiomele a1, a2, a3. Atunci exista u : M → Rastfel ıncat:(1) P < Q daca si numai daca u(P ) < u(Q).(2) u[αP + (1− α)Q] = αu(P ) + (1− α)u(Q).Sa presupunem ca u satisface aceste doua conditii. Atunci v : M → R satisface (1)-(2) dacasi numai daca exista a > 0 si b ∈ R astfel ıncat: v = au + b i.e. v(P ) = au(P ) + b pentruorice P ∈ M .

Materialul acestui Curs a fost prelucrat dupa: Vasile Preda, Teoria deciziilor statistice,Ed. Academiei Romane, 1992.

Page 51: Curs + Seminar

Chapter 9

Teoria credibilitatii

Fixam multimea nevida Ω, nu neaparat finita.

Definitia 9.1 Numim msura de credibilitate pe Ω o aplicatie Cr : P(Ω) → R satisfacandaxiomele:cr1) (normalitate) Cr(Ω) = 1.cr2) (monotonia) daca A ⊂ B atunci Cr(A) ≤ Cr(B).cr3) (autodualitate) pentru orice eveniment A avem Cr(A) + Cr(A) = 1.cr4) (maximalitate) pentru orice sir Aii∈I cu supi∈I Cr(Ai) < 0.5 avem:

Cr(∪i∈IAi) = supi∈I

Cr(Ai) (9.1)

Perechea (Ω, Cr) o numim spatiu de credibilitate.

Exemplul 9.2 Fie Ω = ω1, ω2 si functia Cr data astfel:

Cr(ω1) = 0, 7, Cr(ω2) = 0, 3

iar Cr(Ω) = 1 = 1− Cr(∅). Atunci Cr este o masura de credibilitate pe Ω.

Exemplul 9.3 Fie Ω ⊆ R si µ : Ω → [0,+∞) asa ıncat:

supx∈Ω

µ(x) = 1.

Atunci urmatoarea functie este o masura de credibilitate pe Ω:

Cr(A) =1

2

(supx∈A

µ(x) + supx∈A

µ(x)

). (9.2)

Exemplul 9.4 Fie Ω o multime nevida oarecare si pentru orice A ∈ P(Ω) diferita de ∅si Ω definim:

Cr(A) = 0, 5 (9.3)

iar Cr(Ω) = 1 = 1− Cr(∅). Atunci Cr este o masura de credibilitate pe Ω.

Propozitia 9.5 Fie Ω nevida si A ∈ P(Ω) oarecare. Daca Cr este o masura de credibi-litate pe Ω atunci:

47

Page 52: Curs + Seminar

48 M. Crasmareanu

cr5) Cr(∅) = 0.cr6) Cr(A) ∈ [0, 1].

Demonstratie cr5 rezulta imediat din cr1 si cr3. cr6 rezulta din cr2 aplicata incluziunii:∅ ⊆ A ⊆ Ω. 2

O serie de proprietati ale credibilitati sunt date de:

Propozitia 9.6 Fie (Ω, Cr) un spatiu de credibilitate si A,B ∈ P(Ω). Avem:cr7) daca Cr(A ∪B) ≤ 0, 5 atunci: Cr(A ∪B) = maxCr(A), Cr(B).cr8) daca Cr(A ∩B) ≥ 0, 5 atunci: Cr(A ∩B) = minCr(A), Cr(B).cr9) Cr(A ∪B) ≤ Cr(A) + Cr(B).

Demonstratie i) Daca Cr(A∪B) < 0, 5 atunci din cr2 avem maxCr(A), Cr(B) < 0, 5si obtinem cr7 din cr4. Sa presupunem acum ca Cr(A ∪ B) = 0, 5 si cr7 nu are loc; rezultaca maxCr(A), Cr(B) < 0, 5. Putem atunci aplica axioma cr4:

Cr(A ∪B)(= 0, 5) = maxCr(A), Cr(B) < 0, 5

ceea ce este o contradictie.ii) Deoarece Cr(A) ∩ Cr(B) ≥ 0, 5 aplicand c3 avem: Cr(A ∪ B) ≤ 0, 5 si deci:

Cr(A ∩B) = 1− Cr(A ∪ B) = 1−maxCr(A), Cr(B) = minCr(A), Cr(B)

ceea ce da cr8.iii) Avem trei cazuri posibile.Cazul I) maxCr(A), Cr(B) < 0, 5. Avem, conform cr4:

Cr(A ∪B) = maxCr(A), Cr(B) ≤ Cr(A) + Cr(B).

Cazul II) Cr(A) ≥ 0, 5. Din cr2 si cr3 avem: Cr(A) ≤ 0, 5 si Cr(A ∪B) ≥ Cr(A) ≥ 0, 5 ceeace implica:

Cr(A) = maxCr(A ∩B), Cr(A ∩ B) ≤ Cr(A ∩B) + Cr(A ∩ B) ≤ Cr(B) + Cr(A ∩ B).

Rezulta atunci:

Cr(A)+Cr(B) = 1−Cr(A)+Cr(B) ≥ 1−Cr(B)−Cr(A∩B)+Cr(B) = 1−Cr(A∩B) = Cr(A∪B)

adica concluzia.Cazul III) Cr(B) ≥ 0, 5. Se aplica acelasi argument ca mai sus cu A schimbat cu B. 2

Observatii 9.7 i) O masura de credibilitate nu este doar finit-subaditiva ci chiar numarabilsubaditiva adica:

Cr(∪i∈NAi) ≤∑i∈N

Cr(Ai). (9.4)

ii) Din demonstratia de la cr9 rezulta ca o masura de credibilitate este nul-aditiva adica:Cr(A ∪B) = Cr(A) + Cr(B) daca Cr(A) = 0 sau Cr(B) = 0.

Propozitia 9.8 Fie (Ω, Cr) un spatiu de credibilitate si Bii∈N un sir descrescator deevenimente cu: limi→∞Cr(Bi) = 0. Atunci pentru orice eveniment A avem:

limi→∞

Cr(A ∪Bi) = limi→∞

Cr(A \Bi) = Cr(A). (9.5)

Page 53: Curs + Seminar

Cursul 9 49

Demonstratie Avem, din cr2 si cr9, pentru orice i:

Cr(A) ≤ Cr(A ∪Bi) ≤ Cr(A) + Cr(Bi)

si deci, cum Cr(Bi) → 0 avem Cr(A ∪ Bi) → Cr(A). Deoarece A \ Bi ⊂ A ⊂ (A \ Bi) ∪ Bi

avem:Cr(A \Bi) ≤ Cr(A) ≤ Cr(A \Bi) + Cr(Bi)

si avem a doua egalitate cand trecem la limita. 2

Prezentam fara demonstratie si alte proprietati ale masurilor de credibilitate:

Propozitia 9.9 O masura de credibilitate este aditiva daca si numai daca exista cel multdoua elemente din Ω ce au credibilitatea nenula.

Propozitia 9.10 (Legea semicontinuitatii credibilitatii) Fie Aii∈N un sir de evenimente.Atunci are loc relatia:

limi→∞

Cr(Ai) = Cr( limi→∞

Ai) (9.6)

daca si numai daca una din urmatoarele identitati este satisfacuta:1. Ai ↑ A cu Cr(A) ≤ 0, 5.2. Ai ↓ A cu Cr(A) ≥ 0, 5.3. Ai ↑ A cu Cr(A) < 0, 5.4. Ai ↓ A cu Cr(A) > 0, 5.

Seminar 9

S9.1 Fie Ω = ω1, ω2, ω3 si:

Cr(ω1) = 0, 6, Cr(ω2) = 0, 3, Cr(ω3) = 0, 2

Cr(ω1, ω2) = 0, 8, Cr(ω1, ω3) = 0, 7, Cr(ω2, ω3) = 0, 4

iar Cr(Ω) = 1 = 1− Cr(∅). Este Cr o masura de credibilitate pe Ω?

Page 54: Curs + Seminar

50 M. Crasmareanu

Page 55: Curs + Seminar

Chapter 10

Variabile fuzzy pe spatii decredibilitate

Fie (Ω, Cr) un spatiu de credibilitate.

Definitia 10.1 i) O aplicatie ξ : Ω → R se numeste variabila fuzzy.ii) O functie ξ : Ω → R se numeste vector fuzzy n-dimensional.iii) Se numeste functia de apartenenta (sau membership) a variabilei fuzzy ξ, functia µ = µξ :R → [0, 1]:

µξ = min2Cr(ξ = x), 1. (10.1)

Functia membership reprezinta gradul de posibilitate ca un numar real sa fie valoare avariabilei fuzzy respective. Astfel, µξ(x) = 0 daca x este o valoare ”imposibila” respectivµξ(x) = 1 daca x este cea mai posibila valoare a lui ξ.

Este evident ca unei variabile fuzzy i se asociaza o unica functie m,embership dar esteposibil ca o aplicatie de la R la R sa fie funtia membership pentru mai multe variabile fuzzy.Spre exemplu, fie Ω = ω1, ω2 si definim Cr(ω1) = Cr(ω2) = 0, 5. Avem atunci ca (Ω, Cr)este un spatiu de credibilitate pentru care definim varibilele fuzzy:

ξ1(ω) =

0, ω = ω1

1, ω = ω2.

ξ2(ω) =

1, ω = ω1

0, ω = ω2

Aceste doua variabile fuzzy au acceasi functie memebership:

µ(x) =

1, x ∈ 0, 10, x /∈ 0, 1.

Un rezultat important ın teoria credibilitatii este urmatoarea teorema ce afirma ca stiindfunctia membership a unei variabile aleatoare date putem determina credibilitatea unui eveni-ment:

Teorema 10.2 (Teorema inversa a crdibilitatii) Fie ξ o variabila fuzzy pe spatiul decredibilitate (Ω, Cr) avand functia membership µ. Atunci, pentru orice submultime B a lui

51

Page 56: Curs + Seminar

52 M. Crasmareanu

R, avem:

Cr(ξ ∈ B) =1

2

(supx∈B

µ(x) + 1− supx∈B

µ(x)

). (10.2)

Drept consecinte avem:

Cr(ξ = x) =1

2

(µ(x) + 1− sup

y =xµ(y)

)(10.3)

Cr(ξ ≤ x) =1

2

(supy≤x

µ(y) + 1− supy<x

µ(y)

)(10.4)

Cr(ξ ≥ x) =1

2

(supy≥x

µ(y) + 1− supy<x

µ(y)

). (10.5)

Daca functia µ este continua atunci pentru orice x ∈ R avem:

Cr(ξ = x) =µ(x)

2. (10.6)

Propozitia 10.3 (Caracterizarea functiilor membership) Functia µ : R → [0, 1] estefunctia membership a unei variabile fuzzy daca si numai daca supµ(x) = 1.

Definitia 10.4 Se numete distributia credibila a variabilei fuzzy ξ, functia Φ : R → [0, 1]:

Φ(x) = Cr(ω ∈ Ω : ξ(ω) < x). (10.7)

Folosind teorema inversa a crdibilitatii avem:

Propozitia 10.4 Fie varibila fuzzy ξ cu functia memebership µ. Atunci pentru oricex ∈ R avem:

Φ(x) =1

2

(supy≤x

µ(y) + 1− supy>x

µ(y)

). (10.8)

Page 57: Curs + Seminar

Chapter 11

Entropia, energia si corelatiasurselor de informatie

Definitia 11.1 Numim sursa de informatie o pereche S = (Σ, π) cu Σ alfabet si π o distributiede probabilitate pe Σ adica o aplicatie π : Σ → R+ sastisfacand

∑s∈Σ π(s) = 1. Distributia π

o numim pozitiva daca π(s) > 0 pentru orice s ∈ Σ.

Observatii 11.2 i) Avem ca π(s) ∈ [0, 1] pentru orice s ∈ Σ.ii) O sursa de informatie poate fi gandita ca un dispozitiv ”black-box” care emite simboluridin Σ fiecare astfel de simbol s fiind emis cu probabilitatea π(s).iii) Fixam |Σ| = n si notam S = (Σ = (si), π = (πi)), 1 ≤ i ≤ n cu conventia p1 ≥ ... ≥ pn.Vom nota tabelar:

S s1 . . . snπ p1 . . . pn

Exemplul 11.3 πu(s) =1n pentru orice s ∈ Σ este o distributie pozitiva de probabilitate

numita distributia uniforma.

Putem extinde π la monoidul cuvintelor obtinandu-se un morfism de la Σ∗ la monoidulmultiplicativ al lui [0, 1], π : Σ∗ → ([0, 1], ·, 1) considerand:i) π(ε) = 0,ii) π(w) = π(w(1))...π(w(k)) pentru orice w ∈ Σk, k ≥ 2.Proprietatea de morfism o interpretam astfel: probabilitatea emiterii unui simbol este inde-pendenta de simbolurile emise anterior; din acest motiv, sursele de informatii astfel definitemai sunt numite fara memorie, cele cu memorie mai fiind numite surse Markov. Obtinemastfel o extindere a lui π la limbaje peste Σ:iii) π(∅) = 0,iv) π(L) =

∑w∈L π(w) daca L este submultime nevida a lui Σ∗.

Numarul real nenegativ π(L) ıl numim π-masura lui L. Astfel, πu-masura lui L o numimindicatorul de cod al lui L.

Definitia 11.4 Limbajul produs L1L2 se numeste neambiguu daca pentru orice w ∈ L1L2

exista cuvintele unice u ∈ L1 si v ∈ L2 asa ıncat w = uv.

Propozitia 11.5 1) π(Σk) = 1 pentru orice k ≥ 1.2) π(∪i∈ILi) ≤

∑i∈I π(Li) pentru orice familie Li, i ∈ I cel mult numrabila de submultimi ale

lui Σ∗ cu urmatorea conventie: daca exista i ∈ I asa ıncat π(Li) = ∞ atunci π(∪i∈I) = ∞.

53

Page 58: Curs + Seminar

54 M. Crasmareanu

Daca familia Li are multimile disjuncte atunci avem egalitate.3) π(L1L2) ≤ π(L1)π(L2). Daca produsul L1L2 este neambiguu atunci avem egalitate.4) π(L∗) ≤

∑i≥0 π(L

n) ≤∑

i≥0(π(L))n cu conventia: π(L) = ∞ implica π(L∗) = ∞.

Conceptul de entropie ca masura a informatiei si a gradului de incertitudine, a fost introdusın 1948 de catre Claude Shannon. Aceasta notiune este profund analoaga conceputului similardin termodinamica unde a fost introdus de catre Clausius ın 1864 ca masura a gradului dedezordine al unui sistem fizic.

Deoarece din punct de vedere matematic, informatia furnizata de simbolul sk ∈ Σ esteIk = − log pk rezulta ca media ponderata a informatiilor furnizate de sursa data este:

Definitia 11.6 Se numeste entropie a sursei S numarul real nenegativ:

H(π) = −n∑

i=1

pi log pi (11.1)

unde logaritmul este ın baza 2 si avem conventia 0 · log 0 = 0. Unitatea de masura a entropieieste ”biti/simbol”.

Alegerea bazei 2 se poate considera ca fiind neimportanta matematic datorita proprietatiide schimbare a bazei logaritmilor si este impusa din punct de vedere tehnic de utilizareacalculului binar ın procesarea datelor de catre calculatoare.

Lema 11.7 Daca b > 0 si x > 0 atunci logb x ≤ x− 1 cu egalitate doar pentru x = 1.

Propozitia 11.8 Inegalitatea Gibbs Fie numerele reale (pi, qi), 1 ≤ i ≤ n satisfacand:i) 0 ≤ pi, qi ≤ 1,ii)∑n

i=1 qi ≤ 1 =∑n

i=1 pi.Atunci: −

∑ni=1 pi log pi ≤ −

∑ni=1 pi log qi. Avem egalitate daca si numai dacaa pi = qi

pentru totti i ∈ Nn.

Corolar 11.9 Pentru orice sursa de n informatii avem: 0 ≤ H(π) ≤ log n = H(πu).

Demonstratie Avem H(πu) = −∑n

i=11n log 1

n = − log 1n = log n. Deoarece pi ∈ [0, 1]

avem −pi log pi ≥ 0 si rezulta membrul stang. Pentru membrul drept aplicam inegalitateaGibbs cu qi =

1n , 1 ≤ i ≤ n. 2

Cazurile de egalitate pentru inegalitatea precedenta sunt precizate de:

Propozitia 11.10 i) H(π) = 0 daca si numai daca p1 = 1.ii) H(π) = logn daca si numai daca π = πu.

Demonstratie i) H(π) = 0 daca si numai pentru orice i ∈ Nn avem pi log pi = 0. Cumnu putem avea ca toti pi sunt nuli deoarece suma lor este 1 rezulta ca trebuie sa existe macarun indice i asa ıncat pi = 1. Din ordonarea probabilitatilor pi rezulta p1 = 1.ii) rezulta din cazul de egalitate al Inegalitatii Gibbs. 2

Observatia 11.11 In termodinamica unui sistem fizic izolat, o stare de echilibru estecaracterizata de entropie maxima. Prin analogie, am putea numi distributia uniforma cafiind starea de echilibru ”informational” al sursei date, toate cele n simboluri (stari) fiind lafel de probabile.

Definitia 11.12 Se dau sursele de informatie S1 = (Σ1, pi, i ∈ I), S2 = (Σ2, qj, j ∈ J).Numim produsul lor sursa S1S2 = (Σ1 × Σ2, piqj). (Avem imediat

∑i,j piqj = 1.)

Page 59: Curs + Seminar

Cursul 13 55

Putem spune ca sursa produs S2 genereaza grupe de cate doua mesaje ale sursei S. Analogpentru o putere k ≥ 2 oarecare.

Propozitia 11.13 H(S1S2) = H(S1) +H(S2). In consecinta H(Sk) = kH(S).

Demosntratie −∑

i,j piqj log(piqj) = −∑

i,j piqj log pi−∑

i,j piqj log qj =∑

j qjH(S1)+∑i piH(S2). 2

Definitia 11.14 Pentru sursa data initial definim:1) redundanta R = log n−H(π),

2) eficienta η = H(π)logn .

Exemplul 11.15 (n=2) Notand p1 = p avem:

S s1 s2π p 1− p

i) H(p, 1− p) = η = −p log p− (1− p) log(1− p),ii) R = 1 + p log p+ (1− p) log(1− p).

Inspirat de expresia energiei cinetice care este suma patratelor vitezelor, matematicianulroman Octav Onicescu a introdus ın 1964 conceptul urmator:

Definitia 11.16 Numim energia sursei date numarul real strict pozitiv:

E(π) =n∑

i=1

p2i . (11.2)

Propozitia 11.17 i) E(πu) =1n ≤ E(π) ≤ 1.

ii) E(π) = 1n daca si numai daca π = πu.

iii) E(π) = 1 daca si numai daca p1 = 1.iv) E(S1S2) = E(S1)E(S2).

Demonstratie i) Faptul ca E(πu) =1n este imediat ca si inegalitatea din dreapta deoarece

pi fiind subunitare avem E(π) ≤∑n

i=1 p1. Pentru a arata inegalitatea din stanga fie xi =pi − 1

n ; rezulta∑n

i=1 xi = 0. Avem E(π) = 1n +

∑ni=1 x

2i .

ii) Avem egalitate ın stanga daca si numai daca toti xi sunt nuli.iii) Avem egalitate ın dreapta daca si numai daca p2i = pi ceea ce revine la p1 = 1 si p2 =... = pn = 0.iv)∑

i,j(piqj)2 = (

∑p2i )(

∑q2j ) din independenta celor doua surse. 2

Definitia 11.18 Date sursele S1 si S2 de aceeasi dimensiune n numim:i) corelatia lor numarul real nenegativ C(π1, π2) =

∑ni=1 piqi.

ii) coeficientul de corelatie numarul real nenegativ CC(π1, π2) =C(π1,π2)√Eπ1)E(π2)

.

Propozitia 11.19 CC(π1, π2) ≤ 1 = CC(π, π) cu egalitate daca si numai daca π1 = π2.

Demonstratie Faptul ca CC(π, π) = 1 este imediat iar inegalitatea este exact inegal-itatea Cauchy-Buniakowski-Schartz (CBS) din teoria produselor scalar. Avem egalitate ıninegalitatea CBS daca si numai daca vectorii n-dimensionali π1, π2 sunt coliniari adica existanumarul real λ asa ıncat π2 = λπ1. Dar din

∑p1i =

∑p2i = 1 rezulta λ = 1. 2

Page 60: Curs + Seminar

56 M. Crasmareanu

SEMINAR 11

S11.1 Se da o sursa cu n = 5 si p1 = 12 , p2 = 1

4 , p3 = 18 , p4 = p5 = 1

16 . Se cere entropia,redundanta, eficienta si energia acestei surse.

Rezolvare H = 12 · 1 + 1

4 · 2 + 18 · 3 + 1

16 · 4 · 2 = 158 = 1.875 biti/simbol.

R = log 5−H = 2.3219− 1.8750 = 0.4469, η = 1.8752.3219 = 0.8075,

E = 14 + 1

16 + 164 + 2

256 = 0.25 + 0.0625 + 0.0156 + 0.0078 = 0.3359

Page 61: Curs + Seminar

Index

π-masura unui limbaj, 53σ-algebra, 11σ-algebra generata de o familie, 11

acceptarea unui lot de produse, 32apartenenta la o multime, 3aplicatie G-invarianta, 41aplicatie masurabila, 31

baza ortornormata, 18bila deschisa, 12binomul lui Newton, 20

camp de probabilitate, 5campul evenimentelor, 5caracterizarea functiilor membership, 52cea mai buna functie de decizie invarianta, 42clasa de echivalenta, 4coeficientul de corelatie a doua surse, 55coeficientul de corelatie a doua v. a., 27combinari, 8complementara unei submultimi, 4corelatia a doua surse, 55corelatia a doua v. a., 27covarianta a doua v. a., 27culori MATLAB, 14

decizie ce domina pe o alta, 45decizie cel putin la fel de buna ca o alta, 45decizii echivalente, 45definitia clasica a probabilitatii, 6densitatea de repartitie a unei v. a., 20dispersia unei v. a., 26dispersia variabilei aleatoare normale, 30dispersia variabilei binomiale, 28dispersia variabilei Poisson, 29distanta Euclidiana, 11distributia credibila a unei variabile fuzzy, 52distributia unei variabile aleatoare, 12distributia uniforma de probabilitate, 53

distributie de probabilitate, 53domeniu de definitie al unei relatii, 4

ecuatie functionala, 42eficienta unei surse de informatie, 55element ıntr-o multime, 3energia unei surse de informatie, 55entropie, 54eveniment, 5eveniment elementar, 5eveniment imposibil, 5eveniment sigur, 5evenimente echiprobabile, 6

factorialul, 7functia caracteristica a unei submultimi, 4functia de apartenenc ta a unei variabile fuzzy,

51functia de repartitie a unei v.a., 19functia risc a unei probleme de decizie, 32functie, 4functie de decizie, 32functie de decizie G-invarianta, 42functie masurabila, 31

grup tranzitiv, 42grupul bijectiilor, 41grupul simetric, 41grupul transformarilor de scala, 42

indicatorul de cod al unui limbaj, 53inegalitatea Gibbs, 54intersectia multimilor, 4

lege a evenimentelor rare, 21lege normala, 21limbaj produs neambiguu, 53linii MATLAB, 15

masura de credibilitate, 47masura de probabilitate, 12

57

Page 62: Curs + Seminar

58 Index

masura nul-aditiva, 48markere MATLAB, 15matrice ortogonala, 18matricea unitate, 18media a n zaruri, 28media unei variabile aleatoare, 25media unui zar, 28media variabilei aleatoare normale, 29media variabilei binomiale, 28media variabilei Poisson, 29mixtura, 45momentele unei v. a., 25multime, 3multime boreliana, 12multime deschisa, 12multime finita, 3multime masurabila, 11multime numarabila, 11multimea numerelor ıntregi, 3multimea numerelor irationale, 3multimea numerelor naturale, 3multimea numerelor rationale, 3multimea numerelor reale, 3multimea valorilor unei relatii, 4

norma, 11

parametri echivalenti ıntr-o relatie de decizie,42

partitie a unei multimi, 4pierdere G-invarianta, 42probabilitate, 5problema de decizie, 32problema de decizie G-invarianta, 42produsul a doua v. a., 27produsul a doua v. a. discrete, 27produsul scalar, 11

redundanta unei surse de informatie, 55regula de decizie, 32regula de adunare a probabilitatilor, 5relatie, 4relatie de echivalenta, 4relatie de ordine, 4reuniunea multimilor, 4

schema bilei revenite, 20spatiu de credibilitate, 47

spatiu de probabilitate, 12spatiu masurabil, 11spatiul Euclidian, 11spatiul evenimentelor, 5sursa de informatie, 53sursa produs de informatii, 54

teorema de invarianta a rsicului, 42teorema inversa a credibilitatii, 52transformare bimasurabila, 41transformare pe o multime, 41

unghiul dintre doi vectori nenuli, 18urna cu bile de doua culori, 13

v. a. a primei realizari, 43v. a. cu repartitie uniforma, 21v. a. de tip Bernoulli, 13v. a. de tip Poisson, 21variabila aleatoare, 12variabila aleatoare binomiala, 20variabila aleatoare continua, 12variabila aleatoare de tip Gauss, 21variabila aleatoare discreta, 12variabila aleatoare simpla, 12variabila fuzzy, 51variabile aleatoare corelate, 27variabile aleatoare independente, 27variabile aleatoare necorelate, 27vector fuzzy n-dimensional, 51vector unitar, 18vectori ortogonali, 17vectori perpendiculari, 17versor, 18