prof. alvaro vannuccifap01.if.usp.br/~vannucci/termoestatistica_21a aula_probabilidade e... · •...
Post on 17-Oct-2020
4 Views
Preview:
TRANSCRIPT
Prof. Alvaro Vannucci
• Consideramos cada deslocamento (passo dado pela pessoa)
como tendo sempre o mesmo comprimento L.
• Lembremos o problema dos ‘sucessivos deslocamentos
aleatórios’ (random - DRUNK - walk)
Chamamos de p a probabilidade de passo para a direita e de
q = 1-p a probabilidade de passo para a esquerda (em 1D) que
podem – ou não (rua inclinada, por ex.) – serem iguais (1/2).
• Na figura abaixo, em 1D, vemos que a posição final será
x = mL; sendo m = n1 - n2 .
• Desejamos a probabilidade do deslocamento (posição) final
sendo dado por x = mL após N passos, tendo-se n1 para a
direita e n2 passos para a esquerda (n1 + n2 = N).
• Note: m = n1 - n2 ; e como n2 = N - n1 → m = n1 – N + n1 =
= 2n1 – N .
(p ∙ p ∙ p ..... p) ∙ (q ∙ q ∙ q ..... q)
• Lembrando, sendo p a probabilidade de um passo para a
direita e de q = 1- p a probabilidade de um passo para a
esquerda, a probabilidade de serem dado n1 passos para a
direita e n2 passos para a esquerda será:
• Há muitas maneiras possíveis para que os passos sejam
dados. Note, porém, que estes n1 e n2 passos, por se tratarem
de grandezas indistinguíveis, o número de possibilidades será:
\\\ ///
(n1 termos) (n2 termos)
= pn1 qn2
!!
!
21 nn
N
)!(!
!
11 nNn
N
; como no caso das bolas de bilhar
• Desta forma, a probabilidade de que aconteça uma certa
sequência de passos (p passos para a direita e q = 1- p passos
para a esquerda), será fornecida multiplicando-se a
probabilidade desta sequência (p n1 ∙ q n2 ) pelo número de
combinações possíveis, ou seja:
q p)!(!
!11
1
n-Nn
11
,nNn
NP nN
• Determinação do ‘valor esperado’ através do cálculo do
‘valor médio’.
• Lembrando: dado uma grandeza u que pode assumir valores
u1, u2, u3, ... , uM , com probabilidades específicas: p1, p2, p3,
... , pM , o valor médio de u é dado por:
M
MM
pppp
upupupupuu
...
...
321
332211
M
i
i
M
i
ii
p
up
1
1
• O valor médio de qualquer função de u: (f(u) = u f(u) = u2,
f(u) = u1/2, etc.) pode ser calculado fazendo:
• Sendo que, usualmente: (normalização)
• Desta forma:
M
i
i
M
i
ii
p
ufp
uf
1
1
)(
)(
11
M
i
ip
M
i
ii ufpuf1
)()(
• Retornando ao problema do random – drunk – walk, supor
que no ponto de partida a luz do poste esteja acesa.
• Vamos ver agora como estes conceitos estão relacionados
com a Entropia.
• Pergunta: é razoável supor que haverá uma probabilidade
maior de encontrar a pessoa, em torno de x = 0, quando a luz
está acesa do que quando ela está apagada?
• E se a luz estiver apagada e, ainda por cima, existir uma
colmeia de abelhas no poste?
• Ou seja, haveria um maior ‘ordenamento do problema’ na
situação de luz acesa do que apagada (e com abelhas)?
• Resumindo, será que poderíamos associar um certo grau de
ordem/desordem a esta ‘maior probabilidade’ de encontrar a
pessoa não longe do poste?
• Para responder esta última pergunta, vamos imaginar um
ensamble composto de vários arranjos idênticos a este
anteriormente discutido (random – drunk – walk).
• Se fizermos uma medida de posição da pessoa, em qual
situação, na média, teremos maior probabilidade de encontra-
la perto do poste?
• E a esta situação de maior probabilidade, ela corresponderia
a uma condição de maior ou menor entropia?
• Uma condição que devemos ter em mente, para nos guiar
nesta empreitada, é que entropia trata-se de uma grandeza
extensível, i. e., se um sistema C tem componentes A e B,
então SC = SA + SB (por ex., ΔSuniverso = Δ Ssistema + Δ Svizinhança).
• Responder esta pergunta seria muito fácil se conseguíssemos
obter alguma equação que relacionasse cálculo de
probabilidade com a própria entropia.
• A questão, agora, é descobrir como relacionar a entropia S
(que mede grau de ordem/desordem) com a distribuição de
probabilidade pi .
• Note que o produto das probabilidades, (p1 ∙ p2 ∙ . . . ∙ pn)
apenas não serve, porque basta uma das probabilidades pi = 0
que o produto todo se anula, em qualquer situação!
• E que tal tentarmos relacionar Entropia com cálculo da
Probabilidade Média?
• Agora, a soma das probabilidades (p1 + p2 + . . . + pn)
também não serve porque o resultado será sempre 1
(sistemas normalizados)
• Pelo que já discutimos no problema do random-walk, esta
pode ser uma boa alternativa .
• Aplicando o resultado ao qual chegamos anteriormente:
M
i
ii ufpuf1
)()( i
i
i
ii pppp 2→
• Vamos agora verificar a questão da ‘extensibilidade’,
supondo um sistema C composto de sub-sistemas A (com m
estados possíveis ) e B (com n estados possíveis), uns
independentes dos outros, de forma que os estados possíveis
de C resultarão de uma combinação dos estados de A e de B.
• Ou seja, se os estados de A são numerados (de i = 1 a n) ; e
de B (de j = 1 a m), os estados possíveis de C serão
determinados por pares específicos de i, j.
• Por exemplo, se a chance do estado n=2 (de A) existir for
0,2 e a do estado m=6 (de B) for 0,3, então haverá 0,06 de
chance dos dois estados existirem ao mesmo tempo
• Agora, se pi corresponde à probabilidade do i-ésimo estado
de A, e pj do j-ésimo estado de B, então o produto pi ∙ pj = pij
será a probabilidade de ocorrência do estado i,j de C.
• E para C:
n
i
iA pp1
2
n
i
m
j
ij
n
i
m
j
jiC pppp1 1
2
1 1
2)(
m
j
jB pp1
2
; ou seja,
a probabilidade do estado (2,6) de C existir será 0,06 ou 6%:
• Agora, em termos dos valores médios:
→
e
• Ou seja, <p>C ≠ <p>A + <p>B ; de forma que a probabilidade
média Não É extensiva e, portanto, não pode representar a
Entropia do sistema.
e tentar descobrir a
função f adequada
i
ii pfpfS )(
n
i
BABi
n
i
m
j
jiC ppppppp1
2
1 1
22
• Mantendo a idéia de que o cálculo da ‘alguma média’ parece
ser representativo da ordem/desordem, vamos calcular:
→
• Mas, como descobrir então a função que estamos pocurando
para a entropia S?
• De forma que:
• E esta igualdade deve valer para quaisquer valores de pi e pj.
• Assim:
• Mas, como desejamos que SA + SB = SC (extensível), então
vamos impor:
n
i
iiA pfpS1
)(
m
j
jjB pfpS1
)(
)()()(1 11 1
ij
n
i
m
j
jiij
n
i
m
j
ijC pfpppfpS
)()()()()()(1 111
ij
n
i
m
j
jij
m
j
ji
n
i
i pfpppfppfp
Lembrando que ln a + ln b = ln (a∙b) e escolhendo f ( ) = ln ( ):
)ln()()(1 11 1
ij
n
i
m
j
jiij
n
i
m
j
jiC ppppfppS
)ln()(ln1 11 1
j
n
i
m
j
jii
n
i
m
j
ji pppppp
])(ln[])(ln[1 11 1
m
j
n
i
ijj
n
i
m
j
jii pppppp
1 1
m
j
jj
n
i
ii pppp11
lnlnBA SS
• Ou seja, podemos definir Entropia como sendo uma medida
da ordem/desordem das partes de um sistema (sub-sistemas),
que apresentam valores de probabilidades pi , como:
• Na particular situação em que a distribuição de probabilidade
envolve um número de estados que possuem a mesma
probabilidade de ocorrência (energia), ou seja, pi = 1/, então:
i
i
ii ppkS ln (definição de Entropia
de Gibbs)
• Sendo que a constante k (de Boltzmann; k = 1,38∙10-23 J/K)
foi introduzida para deixar o resultado mais geral; e o sinal (-),
para manter a Entropia uma grandeza positiva (uma vez que pi
é sempre menor que a unidade).
• Ex. Supor sistema que envolve 3 possibilidades (estados) de
ser encontrado (por ex., bola jogada em uma caixa com 3 furos
de tamanhos diferentes), com as seguintes probabilidades:
(i) p1 = 0,0; p2 = 1,0; p3 = 0,0 ; (ii) p1 = 0,2; p2 = 0,8; p3= 0,0
(iii) p1 = 0,1; p2 = 0,8; p3 = 0,1 e (iv) p1 = p2 = p3 = 1/3. a) Em
qual situação teríamos uma maior ‘desordem’ do sistema?
b) Calcule a entropia do sistema em cada caso.
1ln
1
1i
kS
• Finalmente:
)1
ln1
(
k
1
lnk
lnkS(definição de Entropia
de Boltzmann)
(aplicável apenas quando os estados
possuem mesma probabilidade)
• Ou seja, a situação de ‘menor certeza’ (“maior desordem”)
seria na situação (iv), que envolve um maior número de
possibilidades (curva de distribuição mais larga).
a) Se após uma ‘jogada’ (uma medida) ‘chutássemos’ que a
bola passou pelo buraco 2, nossa chance de acerto seria de
100% em (i) 80% de certeza em (ii) ou (iii) e 33,3% em (iv).
0
0,2
0,4
0,6
0,8
1
1,2
caso (i) caso (ii) caso(iii) caso(iv)
p1
p2
p3
b) Cálculo de Entropia:
• caso (i): note que a fórmula de Gibbs deve ser utilizada, já
que as probabilidades dos vários estados são diferentes:
i
i
ii ppkS ln )0ln01ln10ln0( k 0
0 0
• caso (ii): k501,0
-0,322 -0,179
)0ln08,0ln8,02,0ln2,0( kSii
0
• caso (iii): k639,0
-0,230 -0,179
)1,0ln1,08,0ln8,01,0ln1,0( kSiii
-0,230
0
• caso (iv):
i
i
i ppkS ln
Observe que neste caso, poderíamos ter optado por utilizar a
fórmula de Boltzmann, sendo que = 3, já que o sistema
possui três estados possíveis, igualmente prováveis:
)3/1ln3/13/1ln3/13/1ln3/1( k k099,1
-0,366 -0,366 -0,366
lnkS )3ln(k k099,1
top related