física-médio matéria

52
SECRETARIA DE ESTADO DE EDUCAÇÃO DE MINAS GERAIS CONTEÚDO BÁSICO COMUM (CBC) DE FÍSICA - ENSINO MÉDIO – 2007 CARGAS ESTÁTICAS Processos de Eletrização A- Existem três tipos de Eletrização de corpos: por atrito; por contato; por inducão. 1- ELETRIZAÇÃO POR ATRITO Tem-se a eletrização por atrito quando atrita-se dois corpos . Ex.: pegando-se um canudinho de refrigerante e atritando-o com um pedaço de papel (pode ser higiênico); observa-se através de experimentos que ambos ficam carregados com a mesma quantidade de cargas , porem de sinais contrários. 2- ELETRIZAÇÃO POR CONTATO Quando dois corpos condutores entram em contato, sendo um neutro e outro carregado, observa-se que ambos ficam carregados com cargas de mesmo sinal. Ex.: tendo-se um bastão carregado e uma esfera neutra inicialmente, ao tocar-se as esfera com este bastão verifica-se que a esfera adquire a carga de mesmo sinal daquela presente no bastão. 3- ELETRIZACAO POR INDUÇÃO A indução ocorre quando se tem um corpo que esta inicialmente eletrizado e é colocado próximo a um corpo neutro. Com isso, a configuração das cargas do corpo neutro se modifica de forma que as cargas de sinal contrario a do bastão tendem a se aproximar do mesmo. Porém, as de sinais contrários tendem a ficar o mais afastadas possível. Ou seja, na indução ocorre a separação entre algumas cargas positivas e negativas do corpo neutro ou corpo induzido. FLUXO DO CAMPO ELÉTRICO Vamos iniciar por uma idéia simples e intuitiva. Quem ouve rádio no verão em Porto Alegre está a todo momento sendo informado que passam tantos carros por minuto no posto da Polícia Federal da auto-estrada. Quanto maior o número de carros por minuto, maior o fluxo. Pronto, já introduzimos o conceito de fluxo. Da mesma forma, o proprietário de uma loja mede a sua clientela pela quantidade de gente que passa pela porta de entrada, em determinado intervalo de tempo. Qualquer que seja o caso, veremos facilmente que o fluxo depende da quantidade daquilo que flui e da área através da qual passa o "fluido". Portanto, quanto maior o número de clientes ou quanto maior a porta de entrada, maior será o fluxo de clientes para o interior da loja. Essa noção intuitiva está na origem daquilo que podemos denominar fluxo do campo elétrico (E). Numa primeira abordagem, podemos dizer que Fluxo de campo elétrico = intensidade de campo elétrico X área perpendicular ao campo Logo veremos que essa definição é muito simplificada, e tem pouco valor operacional, porque em geral o valor de E varia ao longo da superfície, e nem sempre esta é perpendicular ao campo. Podemos melhorar a definição, dividindo a superfície em elementos tão pequenos quanto possível, de modo que E seja constante nessa área infinitesimal. A esta área associamos um vetor , cuja direção é perpendicular à área e cujo módulo é igual à área. Podemos manter a idéia intuitiva definindo fluxo infinitesimal, (3.1) Assim, o fluxo através de determinada área S é dado pela integral de superfície (3.2) No caso de uma superfície fechada, o vetor área é convencionalmente dirigido de dentro para fora. O fluxo através de uma superfície fechada é assim representado (3.3) A Lei de Gauss Seja uma carga Q. Imagine uma superfície qualquer, fechada, envolvendo esta carga. A lei de Gauss estabelece que 1

Upload: sereialu

Post on 07-Jun-2015

6.997 views

Category:

Documents


31 download

TRANSCRIPT

Page 1: Física-Médio Matéria

SECRETARIA DE ESTADO DE EDUCAÇÃO DE MINAS GERAIS CONTEÚDO BÁSICO COMUM (CBC) DE FÍSICA - ENSINO MÉDIO – 2007

CARGAS ESTÁTICAS

Processos de EletrizaçãoA- Existem três tipos de Eletrização de corpos:por atrito;por contato;por inducão.

1- ELETRIZAÇÃO POR ATRITOTem-se a eletrização por atrito quando atrita-se dois corpos . Ex.: pegando-se um canudinho de refrigerante e atritando-o com um pedaço de papel (pode ser higiênico); observa-se através de experimentos que ambos ficam carregados com a mesma quantidade de cargas , porem de sinais contrários.

2- ELETRIZAÇÃO POR CONTATOQuando dois corpos condutores entram em contato, sendo um neutro e outro carregado, observa-se que ambos ficam carregados com cargas de mesmo sinal. Ex.: tendo-se um bastão carregado e uma esfera neutra inicialmente, ao tocar-se as esfera com este bastão verifica-se que a esfera adquire a carga de mesmo sinal daquela presente no bastão.

3- ELETRIZACAO POR INDUÇÃOA indução ocorre quando se tem um corpo que esta inicialmente eletrizado e é colocado próximo a um corpo neutro. Com isso, a configuração das cargas do corpo neutro se modifica de forma que as cargas de sinal contrario a do bastão tendem a se aproximar do mesmo. Porém, as de sinais contrários tendem a ficar o mais afastadas possível. Ou seja, na indução ocorre a separação entre algumas cargas positivas e negativas do corpo neutro ou corpo induzido.

FLUXO DO CAMPO ELÉTRICOVamos iniciar por uma idéia simples e intuitiva. Quem ouve rádio no verão em Porto Alegre está a todo momento sendo informado que passam tantos carros por minuto no posto da Polícia Federal da auto-estrada. Quanto maior o número de carros por minuto, maior o fluxo. Pronto, já introduzimos o conceito de fluxo. Da mesma forma, o proprietário de uma loja mede a sua clientela pela quantidade de gente que passa pela porta de entrada, em determinado intervalo de tempo. Qualquer que seja o caso, veremos facilmente que o fluxo depende da quantidade daquilo que flui e da área através da qual passa o "fluido". Portanto, quanto maior o número de clientes ou quanto maior a porta de entrada, maior será o fluxo de clientes para o interior da loja. Essa noção intuitiva está na origem daquilo que podemos denominar fluxo do campo elétrico (E). Numa primeira abordagem, podemos dizer que Fluxo de campo elétrico = intensidade de campo elétrico X área perpendicular ao campo Logo veremos que essa definição é muito simplificada, e tem pouco valor operacional, porque em geral o valor de E varia ao longo da superfície, e nem sempre esta é perpendicular ao campo. Podemos melhorar a definição, dividindo a superfície em elementos tão pequenos quanto possível, de modo que E

seja constante nessa área infinitesimal. A esta área associamos um vetor , cuja direção é perpendicular à área e cujo módulo é igual à área. Podemos manter a idéia intuitiva definindo fluxo infinitesimal,

(3.1) Assim, o fluxo através de determinada área S é dado pela integral de superfície

(3.2) No caso de uma superfície fechada, o vetor área é convencionalmente dirigido de dentro para fora. O fluxo através de uma superfície fechada é assim representado

(3.3) A Lei de Gauss Seja uma carga Q. Imagine uma superfície qualquer, fechada, envolvendo esta carga. A lei de Gauss estabelece que

(3.4) A lei de Gauss é válida para qualquer situação, com campo uniforme, ou não, e para qualquer tipo de superfície fechada, também denominada superfície Gaussiana. Todavia, para ser operacionalmente útil ela deve ser usada apenas em determinadas circunstâncias. Uma circunstância favorável ocorre quando a superfície Gaussiana é tal que o produto escalar entre o campo e o vetor superfície é facilmente obtido Isso é sempre possível quando a distribuição de cargas apresenta alta simetria. Existem três tipos de simetrias que facilitam o uso da lei de Gauss Simetria planar; Simetria cilíndrica ou axial; Simetria esférica A simetria planar aplica-se no caso de uma distribuição de cargas num plano infinito, ou no caso em que se possa fazer a aproximação de plano infinito. Por exemplo, um plano finito pode ser considerado infinito, se o campo elétrico for calculado num ponto muito próximo do plano. Isto é, se a distância do plano ao ponto for muito menor do que as dimensões do plano A simetria cilíndrica, ou axial, aplica-se no caso de uma distribuição linear infinita. Existem dois casos clássicos: Linha infinita de cargas; Cargas distribuídas num cilindro infinito. De modo análogo ao caso anterior, um cilindro finito pode ser considerado infinito em determinadas circunstâncias. Existem dois casos típicos de simetria esférica: Carga puntiforme; Distribuição esférica de cargas.

LEI DE GAUSS & LEI DE COULOMB. A lei de Gauss e a lei de Coulomb são formas diferentes de abordar o mesmo problema. Portanto, o cálculo do campo elétrico para determinada distribuição de carga fornece o mesmo resultado, quer seja realizado através de uma ou outra lei. Então, quando e por que usar uma ou outra lei? Como regra, o uso de uma ou outra lei é determinado pelas seguintes circunstâncias:

1

Page 2: Física-Médio Matéria

Distribuição de cargas com alta simetria ... Lei de Gauss Distribuição de cargas com baixa simetria ...Lei de Coulomb.

CAMPO DE UMA CARGA PUNTIFORMEPor argumentos de simetria, é fácil chegar à conclusão de que o campo de uma carga puntiforme deve ter simetria esférica. Isto é, o valor do campo é o mesmo para qualquer ponto sobre uma esfera. Mais do que isso, o campo deve ser normal a esta esfera. Portanto, a melhor Gaussiana para calcular o campo a uma distância r de uma carga puntiforme é uma esfera de raio r. Em qualquer ponto sobre a Gaussiana, o produto escalar será simplesmente EdS. Então, tendo em conta que E é constante, teremos

A integral fechada sobre a superfície corresponde à área da esfera, 4pr2. Portanto, o campo de uma carga puntiforme, q, a uma distância r, é dado por

(3.5)Como era de se esperar, a expressão (3.5) é igual à expressão (2.3), obtida com o uso da lei de Coulomb.

DISTRIBUIÇÃO ESFERICAMENTE SIMÉTRICA No caso de uma distribuição de cargas com simetria esférica, convém distinguir algumas situações. Em primeiro lugar, dependendo do material o tratamento será bem diferente. Material condutor - Já sabemos que quando uma certa quantidade de carga elétrica é colocada num material condutor, ela se distribuirá de modo a manter o campo nulo no interior do material. Numa esfera a carga ficará uniformemente distribuída na sua superfície. Portanto, para um material condutor não há diferença entre uma esfera e uma casca esférica. Em ambos os casos, a carga elétrica se distribuirá uniformemente na superfície externa. Material dielétrico - Quando o material é não-condutor, a situação é bem diferente. A carga não se distribui como no caso do condutor; grosso modo, ela fica onde a colocamos. Para esse tipo de material não é suficiente conhecermos a quantidade de carga, há que se saber a forma como ela está sendo distribuída. Isto é, necessitamos conhecer a densidade de carga no interior do material. Portanto, em termos de cálculo de campo elétrico e uso da lei de Gauss, uma esfera dielétrica pode ser bastante diferente de uma casca esférica.

ESFERA CONDUTORA Já vimos acima que no caso de material condutor, pouco importa se temos uma esfera maciça, oca ou se temos uma simples casca esférica; qualquer que seja o objeto, o campo interno sempre será nulo. De modo análogo ao caso da carga puntiforme, argumentos de simetria nos levam à conclusão de que o campo de uma esfera condutora tem simetria esférica, de modo que a melhor Gaussiana será uma esfera concêntrica com a distribuição de cargas. O campo é igual ao de uma carga puntiforme, dado na eq. (3.5). Portanto, uma esfera condutora de raio R comporta-se, para pontos externos,r>R, como se toda sua carga estivesse concentrada no seu centro.

ESFERA DIELÉTRICA Vamos considerar o caso em que a distribuição de cargas é uniforme. Isto é, a densidade r, dada em C/m3, é constante. Poderíamos ter uma distribuição mais complexa, na qual a densidade variasse com a distância ao centro. Região I - r > Raio da distribuição (R) O cálculo é análogo ao do campo de uma carga puntiforme. O resultado tem a mesma forma apresentada na eq. (3.5). Se a carga total, Q, for conhecida, basta colocá-la no lugar de q. Se ao invés disso, conhecermos a densidade, r, então a carga será dada pelo produto da densidade pelo volume da esfera, Q=4pR3r/3, resultando

(3.6)Portanto, uma esfera condutora de raio R comporta-se, para pontos externos,r>R, como se toda sua carga estivesse concentrada no seu centro. Região II - r < R A carga que aparece na lei de Gauss;

é aquela envolvida pela superfície Gaussiana, isto é, a carga no interior do volume 4pr3/3. Se conhecemos a densidade de carga, teremos Q=4prr3/3. O campo no interior da esfera será dado por

(3.7) O variação do campo, em função do raio, é representada na figura abaixo.

DISTRIBUIÇÃO LINEAR INFINITA Vamos considerar o caso em que a distribuição de cargas é uniforme. Isto é, a densidade r, dada em C/m3, é constante. Poderíamos ter uma distribuição mais complexa, na qual a densidade variasse com a distância ao centro. Argumentos de simetria permitem concluir que o campo apresenta simetria cilíndrica. Isto é, a intensidade é a mesma em qualquer ponto da superfície lateral de um cilindro, cujo eixo coincide com o eixo da distribuição da cargas, e a direção é perpendicular a esta superfície lateral. É óbvio que a superfície Gaussiana mais apropriada é o cilindro indicado na figura ao lado. A integral fechada da lei de Gauss pode ser desdobrada, transformando-se numa soma de integrais de superfície, ao longo das bases do cilindro e ao longo da superfície lateral.

Em qualquer ponto das bases, os vetores E e dS são perpendiculares entre si, de modo que as duas primeiras integrais são nulas. Na superfície lateral, o campo é constante e tem a mesma direção do vetor dS. Portanto,

2

Page 3: Física-Médio Matéria

Portanto, uma esfera condutora de raio R comporta-se, para pontos externos,r>R, como se toda sua carga estivesse concentrada no seu centro. A carga no interior da Gaussiana é q=lh. Portanto, o campo criado por uma distribuição linear infinita, a uma distância r do eixo da distribuição, é dado por

A LEI DE GAUSSPLANO INFINITO DE CARGAS Vamos considerar uma distribuição infinita de cargas, com densidade uniforme +s Por simetria conclui-se que o campo é perpendicular ao plano de cargas, e que sua intensidade é constante ao longo de qualquer plano paralelo ao plano de cargas. Portanto, o cilindro da figura acima é uma boa escolha como superfície Gaussiana. De modo análogo ao procedimento adotado no caso da simetria cilíndrica, a integral fechada pode ser desdobrada em integrais abertas, ao longo das bases e da superfície lateral da Gaussiana

Em qualquer ponto da superfície lateral, os vetores E e dS são mutuamente perpendiculares, de modo que o produto escalar é nulo. Por outro lado, tanto na base1, quanto na base2, E é constante e paralelo a dS, de modo que

A carga no interior da superfície Gaussiana é q=sA, resultando

(3.9)

FORÇA ELÉTRICAA força elétrica se estabelece entre dois corpos que têm cargas elétricas, ou seja, que estão eletrizados. Essa força é dada pela seguinte fórmula:

- Q1 é a carga do corpo 1;- Q2 é a carga do corpo 2;- D é a distância entre o centro de gravidade dos dois corpos;- Ko é a constante dielétrica do vácuo, sendo:

De acordo com a Física, a força elétrica é mediada pelo fóton. Para "Deduções Lógicas", o fóton é mediador somente da luz visível; portanto, outra partícula, que não seja o fóton, faz a mediação da força elétrica, de maneira análoga ao fóton e ao energétron, sofrendo os mesmos efeitos daqueles relacionados com a luz e a Gravidade Lógica, a saber:- a influência com a velocidade da sua fonte;- aberração;- e outros.Essa força é a responsável pelo equilíbrio dinâmico entre o elétron e o núcleo dentro do átomo, e também pelo ordenamento dos átomos e moléculas, o que, na Química, se conhece como forças intramoleculares.

ELETRICIDADE POSTA A TRABALHAR(Parte 4)

3

Page 4: Física-Médio Matéria

Prof. Luiz Ferraz [email protected] elétricosA idéia de um campo de 'força' elétrico existente em torno de uma carga elétrica desenvolveu-se gradualmente através dos anos. Sabia-se perfeitamente, no tempo de Franklin, por exemplo, que um campo elétrico pode exercer forças de atração ou de repulsão sobre corpos carregados que estejam nas proximidades. Mas, exatamente como nos campos magnéticos, o mecanismo pelo qual era exercida a força elétrica ainda não tinha sido descoberto. Pensava-se, a princípio, que alguma coisa --- talvez "emanações elétricas" --- emergisse dos corpos carregados para exercer a "força misteriosa". Mas, experiências após experiências, provaram que as forças elétricas podiam ser exercidas através dos melhores isolantes --- vidro, ar seco, enxofre --- isolantes que bloqueavam efetivamente o movimento da carga. Franklin mostrou, também, que o campo elétrico nas vizinhanças de um corpo carregado não é removido quando o ar adjacente é retirado. Tais observações forçaram Franklin e seus contemporâneos a abandonar a idéia das "emanações elétricas" como agente produtor da força. Nenhuma explicação mecânica satisfatória dos campos elétricos e magnéticos jamais tinha sido imaginada para substitui-la. Nosso conceito moderno de campo elétrico foi desenvolvido por Michael Faraday em 1837. Ele vinha estudando a decomposição das soluções químicas colocadas entre dois elétrodos ligados a uma fonte de tensão elétrica. Começou a imaginar se alguma coisa aconteceria se ele colocasse isolantes sólidos entre os dois elétrodos de placa, em vez de um eletrólito condutor.O diagrama, a seguir, mostra duas placas ligadas a uma bateria. Na primeira ilustração, o espaço entre as placas está cheio de ar, e na segunda ilustração, com um material isolante, tal como o vidro. Ambos são ilustrações de capacitores, idênticos em princípio, ao frasco de Leyden.Um capacitor pode aceitar uma carga maior, da mesma bate-ria, quando o ar entre as placas for substituído por um isola-dor sólido (vidro, mica etc.)Faraday sabia que a quantidade de carga elétrica que pode ser colocada nas placas dos dois capacitores (ilustração acima) é bastante diferente. Se ambas as tensões forem iguais, o mesmo acontecendo com as áreas das placas e as distâncias entre elas, a quantidade de carga que entra nas placas depende da natureza do isolante elétrico. Suponhamos que uma quantidade de carga Q entra nas placas do primeiro capacitor, sendo + Q na placa superior, e - Q na placa inferior. Faraday sabia que uma quantidade maior de carga, + kQ e - kQ entraria nas placas do segundo capacitor. A letra k representa um número qualquer, como dois ou sete. Ela nos diz que a adição de uma substância isolante entre as placas aumenta a carga por um fator k.Para qualquer isolador em particular, a carga tem uma magnitude k vezes a magnitude que teria, se o espaço entre as placas estivesse vazio (vácuo). Assim, k é uma medida da influência do isolador sobre as propriedades eletrostáticas do capacitor. Faraday chamou a isto de "capacidade indutiva especifica" do isolador; o termo moderno correspondente é constante dielétrica de um material. Similarmente, o isolador colocado entre as placas --- através do qual agem as forças eletrostáticas --- é chamado de dielétrico.As constantes dielétricas de alguns dielétricos são as dadas abaixo:

Dielétrico Constante dielétricavácuoarpapelparafinaborrachavidromicaágua

1,01,0006222,25 a 106 a 781

LINHAS DE FORÇA ELÉTRICASFaraday percebeu a analogia existente entre o dielétrico de um capacitor e o núcleo de ferro de um eletroímã. O primeiro aumenta a carga que o capacitor aceitará, e o último aumenta o magnetismo que uma bobina pode produzir. Ele achou que podia explicar o efeito dos dielétricos, introduzindo o conceito de "linhas de força elétricas", semelhantes às 'linhas de força magnéticas' que tinha usado com tanto sucesso em suas pesquisas sobre magnetismo.Faraday definiu uma linha de força elétrica como a trajetória retilínea seguida por uma pequena carga positiva abandonada nas vizinhanças de um pequeno corpo carregado eletricamente. Conforme se vê na ilustração abaixo, em (a), as linhas de força elétricas em torno de uma esfera carregada propagam-se radialmente, partindo da esfera.Linhas de força elétrica de Faraday, (a) em torno de uma esfera carregada,(b) entre esferas carregadas com cargas de sinais opostos, e(c) entre placas carregadas com cargas de sinais opostosSomente umas poucas linhas estão traçadas no diagrama acima, mas todo o espaço deve ser considerado como repleto de tais linhas de força. As setas sobre as linhas de força indicam que uma carga positiva é repelida pela esfera carregada positivamente. O diagrama (b) ilustra as linhas de força entre duas esferas carregadas com cargas de sinais opostos. Uma vez mais, uma pequena carga positiva seguiria uma trajetória reta indicada pela linha de força horizontal. O diagrama (c) apresenta as linhas de força entre duas placas paralelas de um capacitor, no qual é mantida uma tensão elétrica fixa. Cada linha de força pode ser considerada como originando-se em uma carga positiva unitária e terminando em uma carga negativa unitária. Também a intensidade do campo magnético entre as placas depende do número de linhas de força existentes entre as placas.Faraday introduziu então a idéia de carga elétrica induzida em um dielétrico. Considerou um dielétrico como consistindo de um grande número de "pequenos condutores isolados". Nós os chamaríamos de moléculas. Cada uma dessas moléculas está inicialmente 'descarregada'. Elas contêm a mesma quantidade de carga positiva e negativa, e são eletricamente neutras. As cargas são fixas nas moléculas, e não podem ser transferidas de uma para outra (como no caso de condutores metálicos), mas podem ser deslocadas ligeiramente dentro das moléculas.A ilustração abaixo mostra várias moléculas representativas de um dielétrico colocado entre as placas de um capacitor.As cargas elétricas das placas produzem um campo elétrico (eletrostático) na região situada entre as placas. Cada molécula é eletricamente polarizada pelo campo elétrico, ficando com iguais cargas elétricas positivas e negativas induzidas nas extremidades opostas.Importante: Nos limites entre o dielétrico e cada placa, as cargas moleculares adjacentes neutralizam o campo elétrico de uma parte da carga da placa. Isto tende a reduzir o número de linhas de força que se estendem entre as placas, e a bateria pode, por isso, enviar carga adicional para as placas. As cargas moleculares não podem deixar o dielétrico e entrar na placa adjacente. Diz-se que elas constituem uma 'carga confinada à superfície'.

A RELAÇÃO ENTRE OS CAMPOS ELÉTRICO E MAGNÉTICOOs campos elétrico e magnético tornaram-se conceitos indispensáveis em muitas áreas científicas. Eles constituem o meio intermediário pelo qual as forças elétricas e magnéticas podem ser exercidas no espaço vazio. Os cientistas os consideram como conceitos fundamentais porque não podem ser explicados em termos de idéias ainda mais simples. A despeito do fato de que nossos sentidos não podem percebê-los, eles são tão reais para os cientistas como o ar que respiram.Uma revisão de nossos conhecimentos sobre eletricidade e magnetismo revela uma importante relação entre os campos elétrico e magnético. Uma corrente elétrica é meramente um movimento ordenado de cargas elétricas. Estas (as cargas) têm, cada uma, um campo elétrico associado com ela. Uma "corrente de cargas", portanto, carrega com ela um campo elétrico móvel. Mas Oersted provou que uma "corrente de cargas elétricas" produz um campo magnético. Devemos concluir, portanto, que um campo elétrico móvel dá origem a um campo magnético.

4

Page 5: Física-Médio Matéria

Imaginemos agora um ímã deslocando-se ao lado de um condutor como um pedaço de fio de cobre. O campo magnético móvel induz uma força eletromotriz no fio. Isto significa que uma extremidade do fio obtém uma carga positiva, e o outro, uma carga negativa. Mas essas cargas produzem um campo elétrico. Portanto, um campo elétrico móvel dá origem a um campo elétrico. Como veremos, Maxwell incorporou mais tarde essas idéias gerais em sua teoria eletromagnética --- uma teoria que ligou a eletricidade com a luz e previu também a existência das ondas de rádio.A rotação de Faraday A descoberta de que a luz era de certo modo relacionada com a eletricidade e o magnetismo foi obra de Faraday, em 1845. Após revelar as relações até então ocultas entre a eletricidade e o magnetiSmo, ele começou a procurar uma interação entre o magnetismo e a luz. O aparelho que utilizou foi simplesmente um pedaço de vidro grosso e um eletroímã em forma de ferradura. Colocou o pedaço de vidro em contato com os pólos magnéticos, conforme se vê abaixo. Em seguida, passou um feixe de luz polarizada pelo vidro, de maneira que ele se deslocasse essencialmente na mesma direção que as linhas magnéticas de força entre os pólos. Quando ele estudou a luz que emergiu do vidro, verificou que ainda estava polarizada, mas que seu plano de polarização havia sido modificado pelo campo magnético. Aparelho de Faraday para mostrar que a luz é relacionada com a eletricidade e o magnetismo. A luz polarizada penetrando no vidro passa por uma transformação em seu plano de polarização, enquanto estiver presente um campo magnéticoPara ilustrar, suponhamos que a luz que penetra no vidro seja polarizada assim //// - as vibrações de luz ocorrendo somente na direção (/); a que passa através do vidro torna-se polarizada assim = e que a luz que emerge do vidro estaria então vibrando em um plano diferente, assim \\\\ - fazendo um ângulo com o plano horizontal.Este "efeito de Faraday", como é chamado, ocorre sempre que uma luz polarizada passa através de uma substância transparente, ao longo das linhas de força de um forte campo magnético.O efeito de Faraday demonstrou a íntima relação entre as ondas de luz e o eletromagnetismo. Sabemos hoje que o efeito é causado por pequeninas correntes elétricas dentro de átomos individuais. Quando colocadas em um forte campo magnético, essas correntes são ligeiramente modificadas dentro do átomo. Mais tarde, foi demonstrado que essas modificações produzem a rotação do plano de polarização, observada por Faraday.

ENERGIA ELÉTRICAEm 1843, ainda perdurava a batalha sobre o principio da pilha voltaica. Um grupo argumentava que a eletricidade provinha do contato de metais dessemelhantes, enquanto o outro retrucava que a eletricidade era produzida pelas reações químicas ocorridas dentro da pilha. Faraday salientou que uma corrente elétrica pode produzir trabalho útil, como no caso da deflexão da agulha de uma bússola. Esse trabalho deve ser executado a expensas da energia química armazenada na pilha. Ele ainda foi um passo além, mostrando que a quantidade de corrente enviada a percorrer um circuito é proporcional à quantidade das substâncias químicas gastas.A conexão entre a eletricidade e outras formas de energia foi esclarecida por James Prescot Joule. Ele sabia que o calor e o trabalho mecânico eram meramente duas formas diferentes de energia. Em 1843, provou que a eletricidade também era uma forma de energia, conversível nas outras formas em uma proporção de troca bem definida.Joule passou uma corrente de intensidade conhecida por um fio e mediu a quantidade de calor produzida pelo fio na unidade de tempo. A quantidade de energia calorífica por unidade de tempo foi proporcional à resistência do fio multiplicada pelo quadrado da intensidade da corrente. Em unidades modernas, a energia térmica (antes, se dizia 'calorífica') é medida em joules, a corrente em ampères, e a resistência em ohms. Empregando estas unidades, a descoberta de Joule pode ser expressa como uma equação:Energia térmica por unidade de tempo = Resistência x(Corrente )2E/Dt = R.I2onde o intervalo de tempo Dt é medido em segundos. O lado esquerdo da equação E/Dt, é definido como potência elétrica do fio resistor, ou seja, é a razão (ou rapidez) com que nesse dispositivo a energia elétrica é convertida em térmica. A potência é medida em unidades chamadas watt, em homenagem a James Watt.Um watt, é equivalente a um consumo de 1 joule de energia a cada segundo. Se P representar a potência, a equação pode ser escrita da seguinte forma:P = R.I2Para ilustrar o seu uso, suponhamos que uma corrente de intensidade 7 ampères passa através um elemento aquecedor de resistência de 10 ohms. A relação de Joule diz-nos que a energia elétrica é transformada em energia calorífica (térmica) nesse aquecedor, a uma razão de P = 10 x 72 = 490 watts.Utilizando sua nova descoberta, Joule pôde mostrar uma relação numérica entre a energia química de uma bateria, a energia elétrica de um circuito e a energia mecânica ou trabalho executado por um motor. Ele dissolveu um peso previamente medido de zinco em um ácido, e verificou que uma quantidade definida de calor foi despendida (Q1). Em seguida, fabricou uma pilha voltaica utilizando o mesmo peso de zinco, e descobriu que foi transmitida uma quantidade de calor consideravelmente menor para a pilha (Q2), quando o zinco se dissolveu. Ele enviou por um fio a corrente produzida pela pilha e mediu o calor produzido pelo fio (Q3). Demonstrou que essa quantidade de calor correspondia à diferença entre o calor produzido pela simples dissolução do zinco no ácido, e o que é produzido quando o zinco é dissolvido como um elemento de uma pilha voltaica (Q3 = Q1 - Q2). Ali estava uma prova evidente de que a energia elétrica de uma bateria provém da energia química contida em seus componentes.Joule também demonstrou que a energia elétrica é convertida em trabalho mecânico por um motor elétrico. Passou por um motor a corrente de uma bateria e verificou que a energia química despendida na bateria era igual à soma de duas quantidades: o aquecimento R.I2 dos fios condutores, e o trabalho mecânico executado pelo motor.Joule publicou suas idéias revolucionárias em um documento histórico datado de 1843, On the calorific effects of Magneto-Electricíty and on the mechanical value of Heat.Nos anos seguintes, outros cientistas desenvolveram suas idéias. As contribuições de William Thompson (Lorde Kelvin) para a termodinâmica já foram descritas anteriormente. Em 1847, Hermann Helmholtz (1821-1894) publicou um importante panfleto, Erhaltung der Kraft ("Conservação da Energia"), que havia sido recusado para publicação por um jornal científico importante, Annalen der Physik. Suas idéias eram demasiado revolucionárias para os cientistas da época. Helmholtz assegurava que a conservação da energia é uma lei básica da natureza; que a energia cinética dos corpos em movimento, ou a energia potencial da água represada por trás de uma barragem, podem ser convertidas em calor de acordo com leis definidas, como ensinara Joule; e que qualquer dessas formas de energia pode ser convertida nas formas química, eletrostática, magnética ou voltaica.A energia passara a ser um denominador comum que unia a química, o calor, a mecânica, a eletricidade e o magnetismo. Como uma forma de energia, a eletricidade apresentava grandes promessas para o futuro. Ela podia ser gerada em grandes quantidades em usinas de força centrais, e transmitida por fios até os utilizadores. Uma vez ali, ela podia ser convertida em outras formas de energia, para realizar trabalhos específicos. Homens como Davy, Ohm, Faraday e Joule, tinham descoberto as leis básicas da eletricidade e do magnetismo. Agora, outros assumiam a tarefa de utilizar a eletricidade a serviço do homem.

ELETRODINÂMICA

CORRENTE ELÉTRICANa Física, corrente elétrica é o fluxo ordenado de partículas portadoras de carga elétrica. Sabe-se que, microscópicamente, as cargas livres estão em movimento aleatório devido a agitação térmica. Apesar desse movimento desordenado, ao estabelecermos um campo elétrico na região das cargas, verifica-se um movimento ordenado que se apresenta superposto ao primeiro. Esse movimento recebe o nome de movimento de deriva das cargas livres.Raios são exemplos de corrente elétrica, bem como o vento solar, porém a mais conhecida, provavelmente, é a do fluxo de elétrons através de um condutor elétrico, geralmente metálico.

5

Page 6: Física-Médio Matéria

O símbolo convencional para representar a intensidade de corrente elétrica (ou seja, a quantidade de carga Q que flui por unidade de tempo t) é o I, original do alemão Intensität, que significa intensidade.

A unidade padrão no SI para medida de intensidade de corrente é o ampère. A corrente elétrica é também chamada informalmente de amperagem. Embora seja um termo válido, alguns engenheiros repudiam o seu uso.A corrente elétrica consiste no movimento ordenado de cargas elétricas, através de um condutor elétrico. A corrente elétrica é definida como corrente elétrica real (sentido do movimento dos elétrons) e corrente elétrica convencional (consiste no movimento de cargas positivas). Condutor é todo material que permite a mobilidade fácil dos elétrons, sendo os melhores condutores os metais. Quando o material não permite essa mobilidade dos elétrons , ele é dito isolante, por exemplo madeira. Há dois tipos de corrente elétrica: corrente contínua - gerada por pilhas e baterias e corrente alternada - gerada por usinas que transformam qualquer tipo de energia em elétrica, a qual chega até nossas casas. A corrente elétrica que circula através dos resistores, pode transformar energia elétrica em energia térmica, sob efeito joule.

ENERGIA POTENCIAL ELÉTRICAPOTENCIAL ELÉTRICODesejando-se que os portadores de carga fluam através de um resistor, devemos estabelecer uma diferença de potencial entre suas extremidades. Um modo de fazê-lo seria ligar cada extremidade do resistor a uma esfera condutora independente, uma esfera carregada negativamente e a outra positivamente, como na figura 1. O problema com esse arranjo é o fato de que o fluxo de carga atua no sentido de descarregar as esferas, levando-as rapidamente ao mesmo potencial. Quando isso acontece, o fluxo de carga cessa. Para mantermos um fluxo constante de refrigeração no sistema refrigerador de um carro, necessitamos de uma bomba d'água, um dispositivo que - realizando trabalho sobre o fluido - mantém uma diferença de pressão entre suas extremidades de entrada e de saída. No caso elétrico, necessitamos de uma bomba de carga, um dispositivo que - realizando trabalho sobre os portadores de carga - mantém uma diferença de potencial entre seus terminais.

Chamamos tal dispositivo um dispositivo de fem e dizemos que ele fornece uma fem significando que trabalha sobre os portadores de carga. Um dispositivo de fem é às vezes chamado de sede de fem. O termo fem vem da antiga denominação força eletromotriz, adotada antes que os cientistas entendessem claramente a função de um dispositivo de fem. Um dispositivo comum de fem é a bateria, usada para prover de energia mecanismos desde os de relógios de pulso até submarinos. Entretanto, o dispositivo de fem que mais influencia nossas vidas diárias é o gerador elétrico, cuja produção de diferença de potencial é trazida geralmente de usinas distantes até as nossas casas e locais de trabalho. Os dispositivos de fem conhecidos como células solares, muito usadas em painéis de veículos espaciais, também proporcionam aplicações domésticas no meio rural. Os dispositivos de fem menos familiares são as células de combustível que provêm de energia as espaçonaves e as termopilhas, que fornecem energia elétrica a bordo de algumas espaçonaves e estações remotas na Antártica e outras regiões. Outro exemplo, é o gerador de Van de Graaff, em que a diferença de potencial é mantida pelo movimento mecânico da carga sobre uma correia isolante. Um dispositivo de fem não precisa ser um instrumento: sistemas vivos, abrangendo desde enguias elétricas e seres humanos até plantas, possuem dispositivos fisiológicos de fem. Uma corrente constante não pode existir neste dispositivo porque não há um mecanismo capaz de manter uma diferença de potencial constante através do resistor. Quando o fluxo de carga tiver descarregado as esferas inicialmente carregadas, a corrente cessa. Embora os dispositivos que citamos difiram amplamente no modo de operação, todos eles desempenham a mesma função básica: realizam trabalho sobre os portadores de carga e, assim, mantêm uma diferença de potencial entre seus terminais. TRABALHO, ENERGIA E FORÇA ELETROMOTRIX A figura 2 mostra um dispositivo de fem (vamos considerá-lo uma bateria) que é parte de um circuito simples. O dispositivo mantém seu terminal superior carregado positivamente ("terminal positivo'') e seu terminal inferior carregado negativamente ("terminal negativo") como é mostrado pelos sinais + e -. Representamos sua fem por uma seta que aponta do terminal negativo para o terminal positivo. E neste sentido que o dispositivo faz com que os portadores de carga positiva se movam através dele. O dispositivo também faz com que esta corrente se mova ao redor do circuito no mesmo sentido (horário na Fig. 3). A seta da fem inclui um pequeno círculo para distingui-la das setas que indicam o sentido da corrente.

Figura 2. Um circuito elétrico simples, em que um dispositivo de fem trabalha sobre os portadores de carga e mantém uma corrente constante através do resistor. Dentro do dispositivo de fem, os portadores de carga positiva se movem de uma região de baixo potencial elétrico e assim de baixa energia potencial elétrica (no terminal negativo) para uma região de potencial elétrico mais alto e energia potencial elétrica mais alta (no terminal positivo). Este movimento é justamente oposto àquele que os portadores de carga teriam, entre os terminais, sob ação do campo elétrico (que aponta do terminal positivo para o terminal negativo).Desse modo, deve haver alguma fonte de energia dentro do dispositivo que lhe permita realizar trabalho sobre as cargas e assim forçá-las a se moverem no sentido da seta da fem. A fonte de energia pode ser química, como numa bateria ou numa célula de combustível. Ela pode envolver forças mecânicas, como num gerador convencional ou um gerador de Van de Graaff. Diferenças de temperatura podem suprir a energia, como numa termopilha; ou a energia solar pode supri-la, como numa célula solar.Vamos analisar o circuito da Fig. 2 do ponto de vista de trabalho e transferência de energia. Em qualquer intervalo de tempo dt, uma carga dq passa através de qualquer seção transversal deste circuito, tal como aa' na Fig. 3. Esta mesma quantidade de carga deve entrar no dispositivo de fem pela extremidade de baixo potencial e deve sair dele pela extremidade de alto potencial. O dispositivo deve realizar uma quantidade de trabalho dW sobre o elemento de carga dq para forçá-lo a mover-se deste modo. Definimos a fem de um dispositivo de fem em termos desse trabalho:

(1)Resumindo, a fem de um dispositivo de fem é o trabalho por unidade de carga que o dispositivo realiza ao mover a carga de seu terminal de baixo potencial para o seu terminal de alto potencial. A unidade SI para a fem é o joule por coulomb; esta unidade é definida como sendo o volt. Um dispositivo ideal de fem é aquele que não oferece qualquer resistência interna ao movimento da carga de um terminal para o outro. A diferença de

6

Page 7: Física-Médio Matéria

potencial entre os terminais de um dispositivo ideal de fem é igual à fem do dispositivo. Por exemplo, uma bateria ideal com uma fem de 12,0 V tem uma diferença de potencial de 12,0 V entre seus terminais. Um dispositivo real de fem, tal como uma bateria real, oferece resistência interna ao movimento da carga. Quando um dispositivo real de fem não está ligado num circuito, e assim não há corrente através dele, a diferença de potencial entre seus terminais é igual a sua fem. Entretanto, quando a corrente através deste dispositivo, a diferença de potencial entre seus terminais difere de sua fem. Já discutimos as baterias reais e suas resistências internas mais adiante apresentamos a teoria que envolve estes circuitos.

Fig. 3. Análogo gravitacional do circuito apresentado na figura 2. O trabalho realizado pela pessoa mantém um fluxo constante de bolas de boliche através de um meio viscoso. A Fig. 3 mostra um análogo gravitacional do circuito da Fig. 2. Na Fig. 2, o dispositivo de fem - que podemos considerar uma bateria - realiza trabalho sobre os portadores de carga, diminuindo seu estoque de energia química. Tal energia aparece como energia térmica no resistor, que esquenta enquanto a carga flui através dele. Na Fig. 3, a pessoa, ao levantar as bolas do chão até a prateleira, realiza trabalho sobre esses "portadores de massa". As bolas rolam lentamente ao longo da prateleira, caindo na sua extremidade direita dentro de um cilindro cheio de óleo viscoso. Elas atingem o fundo com velocidade escalar essencialmente constante, são retiradas por um mecanismo de alçapão, não mostrado na figura, e rolam de volta ao longo do piso para suas posições iniciais. O trabalho realizado pela pessoa, à custa da sua energia bioquímica armazenada, aparece como energia térmica no fluido viscoso, cuja temperatura aumenta ligeiramente. A circulação de cargas na Fig. 2 cessará finalmente se não for reabastecido o estoque de energia química da bateria, ou seja, se a bateria não for recarregada. A circulação das bolas no circuito da Fig. 3 também cessará se a pessoa não reabastecer seu estoque de energia bioquímica, alimentando-se. A Fig. 4 mostra um circuito contendo duas baterias (ideais), A e B, um resistor R e um motor elétrico (ideal) M empregado para levantar um peso. As baterias são ligadas de modo que tendam a enviar cargas ao longo do circuito em sentidos opostos. O sentido efetivo da corrente no circuito é determinado pela bateria de maior fem, que é a bateria B. Uma vez que tal corrente vai do terminal positivo para o terminal negativo no interior da bateria A, a bateria B está carregando a bateria A. A energia química de B está sendo exaurida e aparece em três formas, mostradas na Fig. 5.

Fig. 4. de modo que a bateria B determina o sentido da enfrente neste circuito de malha única. LEI DE OHM

A Primeira Lei de Ohm, assim designada em homenagem ao seu formulador Georg Simon Ohm, indica que a diferença de potencial (V) entre dois pontos de um condutor é proporcional à corrente eléctrica (I) que o percorre:

onde:V é a diferença de potencial elétrico (ou tensão, ou "voltagem") medida em Volts R é a resistência elétrica do circuito medida em Ohms I é a intensidade da corrente elétrica medida em Ampères Porém, nem sempre essa lei é válida, dependendo do material usado para fazer o resistor (ou 'resistência'). Quando essa lei é verdadeira num determinado material, o resistor em questão denomina-se resistor ôhmico ou linear. Na prática não existe um resistor ôhmico ou linear 'exacto', mas muitos materiais (como a pasta de carbono) permitem fabricar dispositivos aproximadamente lineares.Um exemplo de resistor (ou resistência) não linear, que não obedece à Lei de Ohm é o díodo.Conhecendo-se duas das grandezas envolvidas na Lei de Ohm, é fácil calcular a terceira:

A potência P, em Watts, dissipada num resistor, na presunção de que os sentidos da corrente e da tensão são aqueles assinalados na figura, é dada por

Logo, a tensão ou a corrente podem ser calculadas a partir de uma potência conhecida:

Outras relações, envolvendo resistência e potência, são obtidas por substituição algébrica:

7

Page 8: Física-Médio Matéria

DIFERENÇA DE POTENCIAL

Energia potencial elétricaImagine dois objetos eletrizados, com cargas de mesmo sinal, inicialmente afastados. Para aproximá-los, é necessária a ação de uma força externa, capaz de vencer a repulsão elétrica entre eles. O trabalho realizado por esta força externa mede a energia transferida ao sistema, na forma de energia potencial de interação elétrica. Eliminada a força externa, os objetos afastam-se novamente, transformando a energia potencial de interação elétrica em energia cinética à medida que aumentam de velocidade. O aumento da energia cinética corresponde exatamente à diminuição da energia potencial de interação elétrica.Potencial elétricoCom relação a um campo elétrico, interessa-nos a capacidade de realizar trabalho, associada ao campo em si, independentemente do valor da carga q colocada num ponto desse campo. Para medir essa capacidade, utiliza-se a grandeza potencial elétrico.Para obter o potencial elétrico de um ponto, coloca-se nele uma carga de prova q e mede-se a energia potencial adquirida por ela. Essa energia potencial é proporcional ao valor de q. Portanto, o quociente entre a energia potencial e a carga é constante. Esse quociente chama-se potencial elétrico do ponto.Diferença de potencialA diferença de potencial entre dois pontos, em uma região sujeita a um campo elétrico, depende apenas da posição dos pontos. Assim, podemos atribuir a cada ponto um potencial elétrico, de tal maneira que a diferença de potencial entre eles corresponda exatamente à diferença entre seus potenciais, como o próprio nome indica. Físicamente, é a diferença de potencial que interessa, pois corresponde ao trabalho da força elétrica por unidade de carga.

EFEITO JOULEUm condutor metálico, ao ser percorrido por uma corrente elétrica, se aquece. Assim, um ebulidor, um chuveiro, um ferro elétrico, um forno elétrico etc, consistem essencialmente em uma resistência que é aquecida ao ser percorrida por uma corrente elétrica. Este fenômeno foi estudado pelo famoso cientista James P. Joule e, em homenagem a ele, é denominado efeito Joule.Para um certo aparelho, a tensão é sempre a mesma durante o seu funcionamento. O chuveiro é um exemplo disso. Mas mesmo assim, pode-se obter diferentes potências (verão e inverno) sem variarmos a tensão. Isso vai acontecer se a corrente no resistor for diferente, já que a tensão da fonte é sempre a mesma. A relação entre a potência, a corrente e a tensão pode ser expressa pela equação: P=i.U (Potência = corrente x tensão).O controle do aquecimento nos chuveiros, lâmpadas e outros aparelhos resistivos é realizado através do valor da corrente elétrica que passa no resistor. Ao dificultar a passagem da corrente no resistor (resistência maior), diminuímos a corrente, e vice versa. Para se obter diferentes graduações no aquecimento de um certo tipo de aparelho resistivo, o fabricante ou muda a espessura ou muda o comprimento do resistor.Quanto calor produzirá uma corrente?Joule mostrou que o aquecimento depende de três coisas: o quadrado da corrente, a resistência do fio e o tempo durante o qual a corrente passa. Ele achou que uma corrente de 1 ampère passando através de uma resistência de 1 ohm, durante 1 segundo, produz 0,24 calorias de calor (P=R.i2).

Lei de JouleLei de Joule (também conhecida como efeito Joule) é uma lei física que expressa a relação entre o calor gerado e a corrente elétrica que percorre um condutor em determinado tempo. O nome é devido a James Prescott Joule (1818-1889) que estudou o fenômeno em 1840.Ela pode ser expressa por:

onde:Q é o calor gerado por uma corrente constante percorrendo uma determinada resistência elétrica por determinado tempo. I é a corrente elétrica que percorre o condutor com determinada resistência R. R é a resistência elétrica do condutor. t é a duração ou espaço de tempo em que a corrente elétrica percorreu ao condutor. Se a corrente não for constante em relação ao tempo:

TermodinâmicaQuando uma corrente eléctrica atravessa um material condutor, há produção de calor. Essa produção de calor é devida ao trabalho realizado para transportar as cargas através do material em determinado tempo.Unidade jouleA lei de Joule está relacionada com a definição de joule onde:Um joule é o trabalho realizado para transportar um coulomb (unidade de medida da carga elétrica) de um ponto para outro, estando os dois pontos a uma diferença de potencial de um volt (unidade de medida da diferença de potencial). O trabalho é dado por:

onde:W é o trabalho eléctrico (em joule). Q é a carga (em coulomb). U é a diferença de potencial (em volt). Teoria cinéticaA nível molecular o aquecimento acontece por causa da colisão dos elétrons com os átomos do condutor, em que momento é transferido ao átomo, aumentando a sua energia cinética (ver calor).Potência dissipadaNos resistores elétricos pode-se calcular a potência dissipada utilizando a lei de Joule:

AplicaçõesDiferentes tensões no transporte da energia elétrica É, principalmente, por causa do efeito Joule que a energia elétrica é transportada em longas distâncias em tensões mais altas (geralmente 13.200 V) e também a tensão das zonas rurais é 220V e nas urbanas 110V. A maior tensão permite que a corrente seja menor (para uma mesma potência , P = V.i) e

8

Page 9: Física-Médio Matéria

assim menos energia desperdiçada no efeito Joule (o outro motivo é o uso de cabos mais finos em secção reta com a economia do material condutor e estrutura de sustentação).Em aquecedores, lâmpadas e fusíveis é a lei de joule (juntamente com outras de transferência de calor) que permite calcular as dimensões adequadas para o correto funcionamento destes dispositivos. Por que um fio se esquenta quando é percorrido por uma corrente elétrica. O que exatamente produz este calor? Vejamos como nossa teoria da corrente elétrica pode explicar isso.Sabemos que a corrente elétrica é gerada por força que “puxa” os elétrons, e é essa força que fornece energia (cinética) aos elétrons, ou seja, além do movimento original eles adquirem uma energia adicional fornecida pela força.Quando os elétrons, agora mais velozes se chocam com os átomos do metal , tranferem a eles uma parte desta energia, fazendo-os vibrar mais intensamente. Esse aumento das vibrações é percebido fora do fio como um aquecimento. Quer dizer, uma parte da energia fornecida aos elétrons se transforma em calor pelo efeito dos choques intensos entre os elétrons e os átomos. Ao se chocar com os átomos os elétrons fazem-nos vibrar mais intensamente.Esse efeito recebe o nome de efeito Joule e é a base do funcionamento de todos os aparelhos resistivos, como aquecedores e chuveiros e explica o aquecimento dos fios elétricos por efeito da corrente. Uma outra parte da energia fornecida pelo campo elétrico pode ser “perdida” se transformando em movimento (ventiladores, furadeiras), luz (televisor), etc. Essas transformações não serão discutidas aqui com detalhes. Quando a corrente é alternada, há momentos em que a energia fornecida aos elétrons é nula; isso ocorre no instante em que a corrente inverte o seu sentido. Conforme a corrente aumenta, em um sentido ou outro, a potência também aumenta e atinge o máximo junto com o máximo da corrente. Isso significa que a potência fornecida ao aparelho (e gasta por ele) varia o tempo todo, indo de zero até um valor máximo 120 vezes por segundo. (uma para a ida e uma para a volta)Mas então... Se a potência varia o tempo todo, o que significa o valor que vem registrado nos aparelhos? Na verdade, esse valor é uma média calculada entre os valores que a potência assume durante o tempo. No liqüidificador de 300W, por exemplo, a potência varia entre zero e 600W e o valor 300W é a média dos valores da potência.

CIRCUITOS EM SÉRIE E EM PARALELO

[] NÃO ENCONTREI REFERÊNCIAS

CIRCUITOS MISTOS

[] NÃO ENCONTREI REFERÊNCIAS

ELETROMAGNETISMO

ÍMÃS NATURAIS E ARTIFICIAISA magnetita é o ímã que se encontra na natureza: é o ímã natural. Mas, podemos fazer com que os corpos que normalmente não são ímãs se tornem ímãs. Os ímãs obtidos desse modo são chamados ímãs artificiais. Chamamos corpo neutro àquele que não tem propriedade magnética: corpo imantado àquele que se tornou ímã. Chamamos imantação ao processo pelo qual um corpo neutro se torna imantado. Teoricamente, qualquer corpo pode se tornar um ímã. Mas a maioria dos corpos oferece uma resistência muito grande à imantação. Os corpos que se imantam com grande facilidade são o ferro e certas ligas de ferro usadas na fabricação de ímãs permanentes. Uma dessa ligas é o ALNICO, composta de ferro, alumínio, níquel, cobre e cobalto. Os principais processos de imantação são: a. Por indução magnética - É o fenômeno pelo qual uma barra de ferro se imanta quando fica próxima de um ímã. b. Por atrito - Quando uma barra de ferro neutra é atritada com um ímã, ela se imanta. É necessário que sejam atritados sempre no mesmo sentido, porque o atrito num sentido desfaz a ímantação obtida no outro. c. Por corrente elétrica - Suponhamos que um condutor seja enrolado em uma barra de ferro e percorrido por uma corrente elétrica; a barra de ferro se torna um ímã. Como a imantação foi obtida por meio de uma corrente elétrica, esse ímã é chamado eletroímã (fig. 223). Os eletroímãs são bastante comodos por dois motivos: 1o) conseguimos obter eletroímãs muito mais possantes do que os ímãs naturais; 2o) podemos fazer um verdadeiro controle do eletroímã, controlando a corrente que passa por ele; assim, aumentando a intensidade da corrente, o eletroímã se torna mais possante; suprimindo-se a corrente, ele deixa de funcionar, etc..

MAGNETISMO - PROPRIEDADES GERAIS DOS ÍMAS1: Ímãs - Há muito tempo se observou que certos corpos tem a propriedade de atrair o ferro. Esses corpos foram chamados ímãs. Essa propriedade dos ímãs foi observada pela primeira vez com o tetróxido de triferro , numa região da Ásia, chamada Magnésia. Por causa desse fato esse minério de ferro é chamado magnetita, e os ímãs também são chamados magnetos. 2: Ímãs naturais e artificiais - A magnetita é o ímã que se encontra na natureza: é o ímã natural. Chamamos corpo neutro àquele que não tem propriedade magnética: corpo imantado àquele que se tornou ímã. Os corpos que se imantam com grande facilidade são o ferro e certas ligas de ferro usadas na fabricação de ímãs permanentes. Uma dessa ligas é o ALNICO, composta de ferro, alumínio, níquel, cobre e cobalto. 3: Ímãs permanentes e temporais - De acordo com a constituição química do ímã artificial, ele pode manter a propriedade magnética por muito tempo, até por muitos anos, ou perdê-la logo depois que cesse a causa da imantação. No primeiro caso o ímã é chamado permanente; no segundo, ímã temporal, ou transitório. Os eletroímãs são sempre ímãs temporais. Os ímãs naturais são permanentes. 4: Regiões polares - Um ímã não apresenta propriedades magnéticas em toda a sua extensão, mas só em certas regiões, chamadas regiões polares. 5: Atração e repulsão - Consideremos dois ímãs suspensos pelos centros de gravidade. Aproximando as suas regiões polares de todas as maneiras possíveis, concluímos o seguinte princípio, demonstrado exclusivamente pela experiência: “duas regiões polares de mesmo nome se repelem, e de nomes contrários se atraem” 6: Massa magnética - Assim como em Eletrostática introduzimos o conceito de carga elétrica para podermos medir a força entre corpos eletrizados, em magnetismo introduzimos o conceito de massa magnética para que possamos medir a força entre corpos imantados. 7: Leis de atração e repulsão entre massas magnéticas puntiformes - “A intensidade da força de atração ou repulsão entre duas massas magnéticas puntiformes é proporcional ao produto das massas magnéticas.”

8: Fórmula de Coulomb – As duas leis podem ser expressas por uma fórmula única. Pela primeira lei, é proporcional ao produto . Pela

segunda lei, é inversamente proporcional a , isto é, diretamente proporcional a . Logo, é proporcional ao produto

.

9

Page 10: Física-Médio Matéria

Significa que: (constante) ou

A constante depende das unidades escolhidas e do meio em que estão colocadas as massas magnéticas. É chamada permeabilidade magnética do meio. A força entre cargas elétricas é inversamente proporcional à constante dielétrica; e a força entre massas magnéticas é inversamente proporcional à permeabilidade magnética.

Levando em consideração os sinais de e , a fórmula de Coulomb passa a ser escrita, como no caso da Eletrostática:

9: Pólo de um ímã - Já vimos que um ímã só possui propriedades magnéticas em certas regiões, que chamamos regiões polares norte e sul, que elas possuem massas magnéticas de iguais valores absolutos. Essas regiões polares de um ímã não são pontos, mas são superfícies. 10: Inseparabilidade dos pólos - Os polos de um ímã são inseparáveis. Se cortamos um ímã, os polos norte e sul não ficam isolados. Na parte correspondente ao polo norte aparece um novo polo sul; e na parte correspondente ao polo sul primitivo aparece um novo polo norte. 11: Sistemas de unidades em magnetismo e eletromagnetismo - Vimos, no tópico "Unidades de Carga Elétrica" , que o sistema MKS contém unidades em toda a Eletricidade, isto é, em Eletrostática, Eletrodinâmica, Magnetismo e Eletromagnetismo. E que o sistema CGSES contém unidades só em Eletrostática e Eletrodinâmica. 12: Momento magnético de um imã - Chama-se momento magnético do ímã ao produto do vetor pelo valor absoluto da massa magnética de um dos polos. Pela própria definição vemos que é uma grandeza vetorial. 13: Imantação ou intensidade de imantação ou intensidade de magnetização - Chama-se imantação, ou intensidade de imantação ou intensidade de magnetização do ímã à grandeza vetorial obtida pelo quociente do momento magnético pelo volume do ímã. 14: Densidade magnética - Chama-se densidade magnética de uma região polar ao quociente da massa Fator de potênciaO fator de potência (FP) de um sistema elétrico qualquer, que está operando em corrente alternada (CA), é definido pela razão da potência real ou potência ativa pela potência total ou potência aparente.

TEORIAOndas de tensão (V) e corrente (I) em fase. A carga possui característica resistiva (FP=1). Ângulo de fase φ=0°Em circuitos de corrente alternada (CA) puramente resistivos, as ondas de tensão e de corrente elétrica estão em fase, ou seja, mudando a sua polaridade no mesmo instante em cada ciclo. Quando cargas reativas estão presentes, tais como capacitores ou condensadores e indutores, o armazenamento de energia nessas cargas resulta em uma diferença de fase entre as ondas de tensão e corrente. Uma vez que essa energia armazenada retorna para a fonte e não produz trabalho útil, um circuito com baixo fator de potência terá correntes elétricas maiores para realizar o mesmo trabalho do que um circuito com alto fator de potência.A potência ativa é a capacidade do circuito em produzir trabalho em um determinado período de tempo. Devido aos elementos reativos da carga, a potência aparente, que é o produto da tensão pela corrente do circuito, será igual ou maior do que a potência ativa. A potência reativa é a medida da energia armazenada que é devolvida para a fonte durante cada ciclo de corrente alternada.O fluxo de potência em circuitos de corrente alternada tem três componentes: potência ativa (P), medida em watts (W); potência aparente (S), medida em volt-amperes (VA); e potência reativa (Q), medida em volt-amperes reativos (VAr).O fator de potência pode ser expresso como:

No caso de formas de onda perfeitamente senoidais, P, Q e S podem ser representados por vetores que formam um triângulo retângulo, também conhecido como triângulo de potências, sendo que:Triângulo retângulo que representa a relação entre as potências aparente (S), ativa (P) e reativa (Q)

Se φ é o ângulo de fase entre as de ondas de corrente e tensão, então o fator de potência é igual a , e:

Por definição, o fator de potência é um número adimensional entre 0 e 1. Quando o fator de potência é igual a zero (0), o fluxo de energia é inteiramente reativo, e a energia armazenada é devolvida totalmente à fonte em cada ciclo. Quando o fator de potência é 1, toda a energia fornecida pela fonte é consumida pela carga. Normalmente o fator de potência é assinalado como atrasado ou adiantado para identificar o sinal do ângulo de fase entre as ondas de corrente e tensão elétricas.O fator de potência é determinado pelo tipo de carga ligada ao sistema elétrico, que pode ser:Resistiva Indutiva Capacitiva Onda de corrente (I) atrasada em relação à onda de tensão (V). A carga possui característica indutiva. FP<1 (atrasado)Onda de corrente (I) adiantada em relação à onda de tensão (V). A carga possui característica capacitiva. FP<1 (adiantado)Se uma carga puramente resistiva é conectada ao sistema, a corrente e a tensão mudarão de polaridade em fase, nesse caso o fator de potência será unitário (1), e a energia elétrica flui numa mesma direção através do sistema em cada ciclo. Cargas indutivas tais como motores e transformadores (equipamentos com bobinas) produzem potência reativa com a onda de corrente atrasada em relação à tensão. Cargas capacitivas tais como bancos de capacitores ou cabos elétricos enterrados produzem potência reativa com corrente adiantada em relação à tensão. Ambos os tipos de carga absorverão energia durante parte do ciclo de corrente alternada, apenas para devolver essa energia novamente para a fonte durante o resto do ciclo.Por exemplo, para se obter 1 kW de potência ativa quando o fator de potência é unitário (igual a 1), 1 kVA de potência aparente será necessariamente transferida (1 kVA = 1 kW ÷ 1). Sob baixos valores de fator de potência, será necessária a transferência de uma maior quantidade de potência aparente para se obter a mesma potência ativa. Para se obter 1 kW de potência ativa com fator de potência 0,2 será necessário transferir 5 kVA de potência aparente (1 kW = 5 kVA × 0,2).Freqüentemente é possível corrigir o fator de potência para um valor próximo ao unitário. Essa prática é conhecida como correção do fator de potência e é conseguida mediante o acoplamento de bancos de indutores ou capacitores, com uma potência reativa Q contrário ao da carga, tentando ao máximo anular essa componente. Por exemplo, o efeito indutivo de motores pode ser anulado com a conexão em paralelo de um capacitor (ou banco) junto ao equipamento.

10

Page 11: Física-Médio Matéria

As perdas de energia aumentam com o aumento da corrente elétrica transmitida. Quando a carga tem fator de potência menor do que 1, mais corrente é requerida para suprir a mesma quantidade de potência útil. As concessionárias de energia estabelecem que os consumidores, especialmente os que possuem cargas maiores, mantenham os fatores de potência de suas instalações elétricas dentro de um limite mínimo, caso contrário serão penalizados com cobranças adicionais. Engenheiros freqüentemente analisam o fator de potência de uma carga como um dos indicadores que afetam a eficiência da transmissão e geração de energia elétrica.

COMPONENTES NÃO-SENOIDAISEm circuitos que têm apenas tensão e corrente alternadas, o efeito do fator de potência cresce somente com a diferença de fase entre ambas. Isso é conhecido como "fator de potência de deslocamento". Este conceito pode ser generalizado para fatores de potência reais onde a potência aparente inclui componentes de distorção harmônica. Isso possui uma importância prática em sistemas de potência que contém cargas não-lineares tais como retificadores, algumas formas de iluminação elétrica, fornos à arco, equipamentos de solda, fontes chaveadas, entre outros.Um exemplo particularmente importante são os milhões de computadores pessoais que possuem fontes chaveadas com potência variando entre 150 W a 500 W. Historicamente, essas fontes de baixo custo incorporam um retificador simples de onda completa que conduzem apenas quando a tensão instantânea excede a tensão no capacitor de entrada. Isso produz altos picos de corrente de entrada, que, por sua vez, produzem distorções no fator de potência e problemas de carregamento, tanto dos condutores fase como neutro das instalações e dos sistemas elétricos.Um multímetro típico fará leituras incorretas de correntes que possuam componentes harmônicas. Será necessário um multímetro que meça o valor true RMS para se medir o valor real das correntes e tensões (e a potência aparente por conseqüência). Para medir a potência ativa ou reativa será necessário escolher adequadamente o wattímetro, para que faça medições de correntes não-senoidais.

TRABALHOEm física, trabalho (normalmente representado por W, do inglês work, ou pela letra grega tau) é uma medida da energia transferida pela aplicação de uma força ao longo de um deslocamento.O trabalho de uma força F pode calcular-se de forma geral através da seguinte integral de linha:

onde: F é o vector força. s é o vector posição ou deslocamento. O trabalho é um número real, que pode ser positivo ou negativo. Quando a força actua na direcção do deslocamento, o trabalho é positivo, isto, é existe energia sendo acrescentada ao corpo ou sistema. O contrário também é verdadeiro. Uma força na direção oposta ao deslocamento retira energia do corpo ou sistema. Qual tipo de energia, se energia cinética ou energia potencial, depende do sistema em consideração.Como mostra a equação acima, a existência de uma força não é sinónimo de realização de trabalho. Para que tal aconteça, é necessário que haja deslocamento do ponto de aplicação da força e que haja uma componente não nula da força na direcção do deslocamento. É por esta razão que aparece um produto interno entre F e s. Por exemplo, um corpo em movimento circular uniforme (velocidade angular constante) está sujeito a uma força centrípeta. No entanto, esta força não realiza trabalho, visto que é perpendicular à trajectória.Esta definição é válida para qualquer tipo de força independentemente da sua origem. Assim, pode tratar-se de uma força de atrito, gravítica (gravitacional), eléctrica, magnética, etc.Se uma força F é aplicada a um corpo que realiza um deslocamento dr, o trabalho realizado pela força é uma grandeza escalar de valor:

Se a massa do corpo for suposta constante, e obtivermos dWtotal como o trabalho total realizado sobre o corpo (obtido pela soma do trabalho realizado por cada uma das forças que atua sobre o mesmo), então, aplicando a segunda lei de Newton pode-se demonstrar que:dWtotal = dEc onde Ec é a energia cinética. Para um ponto material, Ec é definida como:

Para objectos extensos compostos por muitos pontos, a energia cinética é a soma das energias cinéticas das partículas que o constituem.Um tipo particular de forças, conhecidas como forças conservativas, pode ser expresso como o gradiente de uma função escalar, a energia potencial, V:

Se supusermos que todas as forças que atuam sobre um corpo são conservativas, e V é a energia potencial do corpo (obtida pela soma das energias potenciais de cada ponto, devidas a cada força), então:

logo, − dV = dEc e d(Ec + V) = 0 Este resultado é conhecido como a lei de conservação da energia, indicando que a energia total Et = Ec + V é constante (não é função do tempo).A unidade SI de trabalho é o joule (J), que se define como o trabalho realizado por uma força de um newton (N) actuando ao longo de um metro (m) na direcção do deslocamento. O trabalho pode igualmente exprimir-se em N.m, como se depreende desta definição. Estas são as unidades mais correntes, no entanto, na medida em que o trabalho é uma forma de energia, outras unidades são por vezes empregadas.Para o caso simples em que o corpo se desloca em movimento rectilíneo e a força é paralela à direcção do movimento, o trabalho é dado pela fórmula:

onde F é a força e s é a distância percorrida pelo corpo. Caso a força se oponha ao movimento, o trabalho é negativo. De forma mais geral, a força e o deslocamento podem ser tomados como grandezas vectoriais e combinados através do produto interno:

Esta fórmula é válida para situações em que a força forma uma ângulo com a direcção do movimento, mas pressupõe que a magnitude da força e direcção do deslocamento sejam constantes. A generalização desta fórmula para situações em que a força e a direcção variam ao longo da trajectória (ou do tempo) pode ser feita recorrendo ao uso de diferenciais. O trabalho infinitesimal dW realizado pela força F ao longo do deslocamento infinitesimal ds é então dado por:

A integração de ambos os lados desta equação ao longo da trajectória resulta na equação geral inicialmente apresentada.

CORRENTE ALTERNADAA corrente alternada, ou CA (em inglês AC - alternating current) é uma corrente elétrica cuja magnitude e direção da corrente varia ciclicamente, ao contrário da corrente contínua cuja direção permanece constante e que possui pólos positivo e negativo definidos. A forma de onda usual em um circuito

11

Page 12: Física-Médio Matéria

de potência CA é senoidal por ser a forma de transmissão de energia mais eficiente. Entretanto, em certas aplicações, diferentes formas de ondas são utilizadas tais como triangular ou ondas quadradas.A corrente alternada surgiu quando Nikola Tesla foi contratado por J. Westinghouse para construir uma linha de transmissão entre Niágara e Búfalo, em NY. Thomas Edison fez o possível para desacreditar Tesla, mas o sistema polifásico de Tesla foi adotado. A Corrente Alternada é a forma mais eficaz de se transmitir uma corrente elétrica por longas distâncias. Nela os elétrons invertem o seu sentido várias vezes por segundo.Na primeira metade do século XX havia sistemas de Corrente Alternada de 25 Hz no Canadá (Ontário) e no norte dos EUA. Em alguns casos alguns destes sistemas (por exemplo, nas quedas de Niágara) perduram até hoje por conveniência das fabricas industriais que não tinham interesse em trocar o equipamento para que operasse a 60 Hz. As baixas freqüências facilitam construção de motores de baixa rotação.Há também sistemas de 16,67 Hz em ferrovias da Europa (Suíça e Suécia).Sistemas AC de 400 Hz são usados na indústria têxtil, aviões, navios, espaçonaves e em grandes computadores.No Brasil a variação (freqüência) da rede elétrica é de 60 Hz. Na América do Sul, além do Brasil, também usam 60 Hz o Equador e a Colômbia. Em outros países, por exemplo, a Argentina, a Bolívia, o Chile, o Paraguai e o Peru, bem como na Europa é usada a freqüência de 50Hz.A Corrente Alternada foi adotada para transmissão de energia elétrica a longas distâncias devido à facilidade relativa que esta apresenta para ter o valor de sua tensão alterada por intermédio de transformadores. No entanto as primeiras experiências e transmissões foram feitas com Corrente contínua (CC ou, em inglês, DC).Correntes alternadas são usualmente associadas com tensões alternadas. Uma tensão CA senoidal v pode ser descrita matematicamente como uma função do tempo, pela seguinte equação:

Onde A é a amplitude em volts (também chamada de tensão de pico), ω é a freqüência angular em radianos por segundo, e t é o tempo em segundos. Como freqüência angular é mais interessante para matemáticos do que engenheiros, esta fórmula é comumente reescrita assim:

Onde f é a freqüência em hertz. O valor de pico-a-pico de uma tensão alternada é definida como a diferença entre seu pico positivo e seu pico negativo. Desde o valor máximo de seno (x) que é +1 e o valor mínimo que é -1, uma tensão CA oscila entre +A e −A. A tensão de pico-a-pico, escrita como VP-P, é, portanto (+A) − (−A) = 2 × A.Geralmente a tensão CA é dada quase sempre em seu valor eficaz, que é o valor quadrático médio desse sinal elétrico (em inglês é chamado de root mean square, ou rms), sendo escrita como Vef (ou Vrms). Para uma tensão senoidal:

Vef é útil no cálculo da potência consumida por uma carga. Se a tensão CC de VCC transfere certa potência P para a carga dada, então uma tensão CA de Vef irá entregar a mesma potência média P para a mesma carga se Vef = VCC. Por este motivo, rms é o modo normal de medição de tensão em sistemas de potência.Para ilustrar estes conceitos, considere a tensão de 220 V AC usada em alguns estados brasileiros. Ela é assim chamada porque seu valor eficaz (rms) é, em condições normais, de 220 V. Isto quer dizer que ela tem o mesmo efeito joule, para uma carga resistiva, que uma tensão de 220V CC. Para encontrar a tensão de pico (amplitude), podemos modificar a equação acima para:

Para 220 V CA, a tensão de pico VP ou A é, portanto, 220 V × √2 = 311 V (aprox.). O valor de pico-a-pico VP-P de 220V CA é ainda mais alta: 2 × 220 V × √2 = 622V (aprox.)Note que para tensões não senoidais, temos diferentes relações entre seu pico de magnitude valor eficaz. Isso é de fundamental importância ao se trabalhar com elementos do circuito não lineares que produzem correntes harmônicas, como retificadores.Movimento retilíneoOrigem: Wikipédia, a enciclopédia livre.Ir para: navegação, pesquisaMovimento retilíneo, em Mecânica, é aquele movimento em que o corpo ou ponto material se desloca apenas em trajetórias retas. Para tanto, ou a velocidade se mantém constante ou a variação da velocidade dá-se somente em módulo, nunca em direção. A aceleração, se variar, também variará apenas em módulo e nunca em direção, e deverá orientar-se sempre em paralelo com a velocidade.

TIPOS DE MOVIMENTO RETILÍNEOOs movimentos retilíneos mais comumente estudados são o movimento retilíneo uniforme e o movimento retilíneo uniformemente variado

MOVIMENTO RETILÍNEO UNIFORME (MRU)No movimento retilíneo uniforme (MRU), o vetor velocidade é constante no decorrer do tempo (não varia em módulo, sentido ou direção), e portanto a aceleração é nula. O corpo ou ponto material se desloca distâncias iguais em intervalos de tempo iguais, vale lembrar que, uma vez que não se tem aceleração, sobre qualquer corpo ou ponto material em MRU a resultante das forças aplicadas é nula (primeira lei de Newton - Lei da Inércia). Uma das características dele é que sua velocidade em qualquer instante é igual à velocidade média.

MOVIMENTO RETILÍNEO UNIFORMEMENTE VARIADO (MRUV)Já o movimento retilíneo uniformemente variado (MRUV), também encontrado como movimento uniformemente variado (MUV), é aquele em que o corpo sofre aceleração constante, mudando de velocidade num dado incremento ou decremento conhecido. Para que o movimento ainda seja retilíneo, a aceleração deve ter a mesma direção da velocidade. Caso a aceleração tenha o mesmo sentido da velocidade, o movimento pode ser chamado de Movimento Retilíneo Uniformemente Acelerado. Caso a aceleração tenha sentido contrário do velocidade, o movimento pode ser chamado de Movimento Retilíneo Uniformemente Retardado.A queda livre dos corpos, em regiões próxima à Terra, é (ignorando-se os efeitos de arrasto) um movimento retilíneo uniformemente variado. Uma vez que nas proximidades da Terra o campo gravitacional pode ser considerado uniforme. O movimento retilíneo pode ainda variar sem uma ordem muito clara, quando a aceleração não for constante.É importante salientar que no MCU (movimento circular uniforme) a força resultante não é nula. A força centrípeta dá a aceleração necessária para que o móvel mude sua direção sem mudar o módulo de sua velocidade. Porém, o vetor velocidade está constantemente mudando.

Lembrando que e , as equações do movimento retilíneo uniformemente variado são:Equação horária de posição para o MRU:

12

Page 13: Física-Médio Matéria

, então

, temos:

Equação ou função horária de posição para o MRUV (permite determinar a posição do móvel após um intervalo de tempo :

, onde e são a posição e a velocidade do móvel no instante inicial, respectivamente.

velocidade no MRUV após um intervalo de tempo :

velocidade no MRUV após um deslocamento qualquer (Equação de Torricelli): OBS.: Escrita as equações desta forma, vale a pena salientar que a velocidade inicial ou a posição inicial não se refere ao início da contagem do tempo (t0=0s) e sim à posição e à velocidade no início do intervalo de tempo considerado.CinemáticaOrigem: Wikipédia, a enciclopédia livre.Ir para: navegação, pesquisaA cinemática (do grego kinema, movimento) é o ramo da física que procura descrever os movimentos sem se preocupar com as forças que originam estes movimentos. A análise desta forças é deixada para a dinâmica. Para isso, organiza informação sobre a posição, o deslocamento, o espaço percorrido, a velocidade, a rapidez e a aceleração dos corpos.Definimos posição como um vetor r, com relação a uma origem fixa no espaço. Se r é uma função do tempo t, definimos r(t), e tomamos o tempo t a partir de um instante inicial arbitrário. Então temos que forma mais singela. Definimos primeiro o tempo inicial como t0, que é, por assim dizer, o momento em que disparamos um cronômetro do nosso experimento; e definimos o tempo final simplesmente como t ou tfinal. Se definirmos a posição inicial como r0, então definimos a posição final com o símbolo r ou rfinal. Agora, tendo já definidas as quantidades fundamentais, podemos expressar as quantidades físicas em termos aproximados do seguinte modo:A velocidade do objeto é definida por:

Ou ainda com a expressão:

A aceleração define-se por:

MOVIMENTO PERIÓDICOMovimento periódico é todo aquele que se repete identicamente em intervalos de tempo iguais. O intervalo de tempo correspondente a um movimento completo é o período do movimento e o número de movimentos completos realizados em um unidade de tempo é a freqüência. O movimento circular e uniforme (MCU) é um movimento periódico, o mesmo vale para o movimento pendular. Por sinal, o movimento do pêndulo pode ser aproveitado para fornecer a cadência certa para um relógio. E os ponteiros de um relógio também realizam um movimento periódico. O ponteiro dos minutos por exemplo tem período de 1 hora, ou 60 minutos ou 3.600 segundos. A freqüência desse ponteiro pode ser 24 rotações por dia. O movimento de rotação da Terra ao redor de seu próprio eixo é um movimento periódico com período de 0,99727 dia ou 23,9345 horas.

MOVIMENTO CIRCULARNa Mecânica clássica, movimento circular é aquele em que o objecto ou ponto material se desloca em uma trajetória circular. Uma força centrípeta muda de direção do vector velocidade, sendo, continuamente, aplicada para o centro do círculo. Esta força é responsável pela chamada aceleração centrípeta, orientada para o centro da circunferência-trajectória. Pode haver ainda uma aceleração tangencial, que obviamente deve ser compensada por um incremento na intensidade da aceleração centrípeta a fim de que não deixe de ser circular a trajectória.O movimento circular classifica-se, de acordo com a ausência ou a presença de aceleração tangencial, em movimento circular uniforme (MCU) e movimento circular uniformemente variado (MCUV).Uma vez que é preciso analisar propriedades angulares mais do que lineares, no movimento circular são introduzidas propriedades angulares como o deslocamento angular, a velocidade angular e a aceleração angular. No caso do MCU existe ainda o período, que é propriedade também utilizada no estudo dos movimentos periódicos.

O deslocamento angular (indicado por ) se define de modo similar ao deslocamento linear. Porém, ao invés de considerarmos um vector deslocamento, consideramos um ângulo de deslocamento. Há um ângulo de referência, adotado de acordo como problema. O deslocamento angular não

precisa se limitar a uma medida de circunferência ( ); para quantificar as outras propriedades do movimento circular, será preciso muitas vezes um dado sobre o deslocamento completo do móvel, independentemente de quantas vezes ele deu voltas em uma circunferência. Se for expresso em radianos, temos a relação

, onde é o raio da circunferência e é o deslocamento linear. Pegue-se a velocidade angular (indicada por ), por exemplo, que é a derivada do deslocamento angular pelo intervalo de tempo que dura esse deslocamento:

A unidade é o radiano por segundo. Novamente há uma relação entre propriedades lineares e angulares:

13

Page 14: Física-Médio Matéria

, onde é a velocidade linear.

Por fim a aceleração angular (indicada por ), somente no MCUV, é definida como a derivada da velocidade angular pelo intervalo tempo em que a velocidade varia:

A unidade é o radiano por segundo por segundo, ou radiano por segundo ao quadrado. A aceleração angular guarda relação somente com a aceleração tangencial α e não com a aceleração centrípeta:

, onde é a aceleração tangencial. Como fica evidente pelas conversões, esses valores angulares não são mais do que maneiras de se expressar as propriedades lineares de forma conveniente ao movimento circular. Uma vez que a direção dos vectores deslocamento, velocidade e aceleração modifica-se a cada instante, é mais fácil trabalhar com ângulos. Tal não é o caso da aceleração centrípeta, que não encontra nenhum correspondente no movimento linear.Surge a necessidade de uma força que produza essa aceleração centrípeta, força que é chamada analogamente de força centrípeta, dirigida também ao centro da trajectória. A força centrípeta é aquela que mantém o objecto em movimento circular, provocando a constante mudança da direcção do vector velocidade.A aceleração centrípeta é proporcional ao quadrado da velocidade angular e ao raio da trajectória:

(A demonstração desta fórmula encontra-se no artigo aceleração centrípeta.)A função horária de posição para movimentos circulares, e usando propriedades angulares, assume a forma:

, onde é o deslocamento angular no início do movimento. É possível obter a velocidade angular a qualquer instante , no MCUV, a partir da fórmula:

Para o MCU define-se período T como o intervalo de tempo gasto para que o móvel complete um deslocamento angular em volta de uma circunferência

completa ( ). Também define-se frequência (indicada por f) como o número de vezes que essa volta é completada em determinado intervalo de tempo (geralmente 1 segundo, o que leva a definir a unidade de frequência como ciclos por segundo ou hertz). Assim, o período é o inverso da frequência:

Por exemplo, um objecto que tenha velocidade angular de 3,14 radianos por segundo tem período aproximadamente igual a 2 segundos, e frequência igual a 0,5 hertz.Muitos mecanismos utilizam a transmissão de um cilindro ou anel em movimento circular uniforme para outro cilindro ou anel. É o caso típico de engrenagens e correias acopladas a polias.Nessa transmissão é mantida sempre a velocidade linear, mas nem sempre a velocidade angular. A velocidade do elemento movido em relação ao motor cresce em proporção inversa a seu tamanho. Se os dois elementos tiverem o mesmo diâmetro, a velocidade angular será igual; no entanto, se o elemento movido for menor que o motor, vai ter velocidade angular maior.

Como a velocidade linear é mantida, e , então:

O movimento circular ocorre quando em diversas situações que podem ser tomadas como exemplo:Satélites artificiais descrevem uma trajetória aproximadamente circular em volta do nosso planeta. Uma pedra fixada a um barbante e colocada a girar por uma pessoa descreverá um movimento circular uniforme. Discos de vinil rodam nas vitrolas a uma frequência de 33 ou 45 rotações por minuto, em MCU. Engrenagens de um relógio de ponteiros devem rodar em MCU com grande precisão, a fim de que não se atrase ou adiante o horário mostrado. Dizemos que uma partícula está em movimento circular quando sua trajetória é uma circunferência como, por exemplo, a trajetória descrita por uma válvula do pneu de uma bicicleta em movimento igual a da imagem. Se, além disso, o valor da velocidade permanecer constante, o movimento é denominado circular uniforme. Então, neste movimento, o vetor velocidade tem módulo constante, mas a direção deste vetor varia continuamente. O tempo que a partícula gasta para efetuar uma volta completa é denominada período do movimento e é representado por T. O espaço percorrido pela partícula, durante um período, é o comprimento da circunferência que, vale 2pR ( R é o raio da trajetória). Como o movimento é uniforme, o valor da

velocidade será dado por: logo, v = 2pR/T Freqüência do movimento circular – suponha que observando a válvula mostrada na imagem, verificássemos que ela efetua 30 voltas completas em um tempo igual a 10 segundos. A freqüência, F desse movimento é, por definição, o quociente entre o número de voltas e o tempo gasto para efetua-las. Logo, a freqüência da válvula será:

Observe que esse resultado significa que a válvula efetuou 3.0 voltas em cada 1 seg. A unidade de freqüência,1 volta/seg, é denominada 1 hertz, em homenagem ao cientista alemão H.Hertz ( 1857 – 1894). Portanto, podemos destacar:

O conceito de freqüência pode ser aplicada em outros tipos de movimentos, que não serão discutidos aqui.

14

Page 15: Física-Médio Matéria

A freqüência e o período de um movimento estão relacionados. Para relacionar F e T, basta perceber que essas grandezas são inversamente proporcionais e, assim podeos estabelecer a seguinte proporção: No tempo T (um período) é efetuada uma volta Na unidade de tempo serão efetuadas F voltas ( freqüência) Ou, esquematicamente

Portanto, a freqüência é igual ao inverso do período e reciprocamente. Por exemplo: se o período de um movimento circular é T = 0,5 s, sua freqüência será:

Velocidade Angular – Consideremos a válvula do pneu de bicicleta em movimento circular, passando pela posição P1 representada na figura abaixo. Após um intervalo de tempo Dt, a válvula estará passando pela posição P2. Neste intervalo de tempo Dt, o raio que acompanha a válvula em seu movimento descreve um ângulo DqA relação entre o ângulo descrito pela válvula e o intervalo de tempo gasto para descreve-lo é denominado velocidade angular da partícula.Representando a velocidade angular por w temos w = Dq/DtA velocidade definida pela relação V = Dd/Dt, que já conhecemos, costuma ser denominada velocidade linear, para distingui-la da velocidade angular que acabamos de definir. Observe que as definições de V e w são semelhantes: a velocidade linear se refere à distância percorrida na unidade de tempo, enquanto a velocidade angular se refere ao ângulo descrito na unidade de tempo. A velocidade angular nos fornece uma informação sobre a rapidez com que a válvula está girando. De fato, quanto maior for a velocidade angular de um corpo, maior será o ângulo que ele descreve por unidade de tempo,isto é , ele estará girando mais rapidamente. Lembrando que os ângulos podem ser medidos em graus ou em radianos, concluímos que w poderá ser medida em grau/s ou em rad/s. Uma maneira de calcular a velocidade angular é considerar a válvula ( ou uma partícula qualquer) efetuando uma volta completa. Neste caso, o ângulo descrito será Dq =2prad e o intervalo de tempo será um período, Istoé, Dt = T. Logo, w = 2p/T Relação entre V e w - Sabemos que, no movimento circular uniforme, a velocidade linear pode ser obtida pela relação

Como 2p/T é a velocidade angular, concluímos que

Esta equação nos permite calcular a velocidade linear V, quando conhecemos a velocidade angular w e o raio R da trajetória.Observe que ela só é válida se os ângulos estiverem medidos em radianos. Aceleração centrípeta – No movimento circular uniforme, o módulo da velocidade da válvula permanece constante e, então, a válvula não possui uma aceleração tangencial. Entretanto, como a direção do vetor velocidade varia continuamente, a válvula (ou uma partícula qualquer nas mesmas condições)

possui uma aceleração centrípeta Na figura abaixo estão representados os vetores e em quatro posições diferentes da válvula do pneu de

bicicleta. Observe que o vetor tem a direção do raio e aponta sempre para o centro da circunferência. Podemos deduzir, matematicamente, que o valor da aceleração centrípeta no movimento circular é dado por:

Observe que o valor de é proporcional ao quadrado da velocidade e inversamente proporcional ao raio da circunferência. Portanto, se um automóvel faz uma curva “fechada” (R pequeno) com grande velocidade, ele terá uma grande aceleração centrípeta. Estes fatos estão relacionados com a possibilidade de o automóvel conseguir ou não fazer a curva.Se, em um movimento circular, conseguimos medir o ângulo e o tempo, poderemos calcular a velocidade angular do movimento. Através deste cálculo poderemos resolver inúmeros problemas. Com o auxílio do programa de computador foi possível realizar os cálculos com bastante precisão.

DIAGRAMAS OU LINHAS DE ESTADOSão o estudo gráfico dos esforços simples. Esses gráficos retratam os valores dos esforços simples ao longo da estrutura, permitindo a visualização das variações desses esforços de uma seção para outra.Diagrama de Força Normal: retrata os esforços nomais (tração e compressão) ao longo da estrutura. Diagrama de Força Cortante: retrata os esforços cortantes (cisalhamento) ao longo da estrutura. Diagrama de Momento: retrata os esforços de flexão ao longo da estrutura. Linha de Influência: retrata os esforços de uma seção da estrutura, em relação a variação de uma força na estrutura.

LEIS DE NEWTONLeis de Newton, em latim, na edição original, de 1687. As leis de Newton são as leis que modelam o comportamento de corpos em movimento, criadas por Isaac Newton.Isaac Newton publicou essas leis em 1687, no seu trabalho de três volumes intitulado Philosophiae Naturalis Principia Mathematica. As leis explicavam vários dos resultados observados quanto ao movimento de objetos físicos.Newton também demonstrou em seu trabalho como as três leis, combinadas com a sua lei da gravitação universal, conseguiam explicar as consagradas Leis de Kepler sobre o movimento planetário. Essa demonstração foi a maior evidência a favor de sua teoria.Lex I: Corpus omne perseverare in statu suo quiescendi vel movendi uniformiter in directum, nisi quatenus a viribus impressis cogitur statum illum mutare.

15

Page 16: Física-Médio Matéria

(Todo corpo continua em seu estado de repouso ou de movimento uniforme em uma linha reta, a menos que seja forçado a mudar aquele estado por forças imprimidas sobre ele.)Lex II: Mutationem motis proportionalem esse vi motrici impressae, etfieri secundum lineam rectam qua vis illa imprimitur.(A mudança de movimento é proporcional à força motora imprimida, e é produzida na direção da linha reta na qual aquela força é imprimida.)Lex III Actioni contrariam semper et aequalem esse reactionem: sine corporum duorum actiones in se mutuo semper esse aequales et in partes contrarias dirigi. (A toda ação há sempre oposta uma reação igual, ou, as ações mútuas de dois corpos um sobre o outro são sempre iguais e dirigidas a partes opostas.)

PRIMEIRA LEI DE NEWTONUm corpo que está em movimento, tende a continuar em seu estado de movimento em linha reta e velocidade constante. E um corpo que está em repouso tende a continuar em repouso.Primeira Lei de Newton ou Princípio da Inércia A partir das ideias de inércia de Galileu, Isaac Newton enunciou sua Primeira Lei com as palavras:"Todo corpo permanece em seu estado de repouso ou de movimento uniforme em linha reta, a menos que seja obrigado a mudar seu estado por forças impressas a ele."A primeira lei de Newton pode parecer perda de tempo, uma vez que esse enunciado pode ser deduzido da Segunda Lei:

Se , existem duas opções: Ou a massa do corpo é zero ou sua aceleração. Obviamente como o corpo existe, ele tem massa, logo sua aceleração é que é zero, e consequentemente, sua velocidade é constante.No entanto, o verdadeiro potencial da primeira lei aparece quando se envolve o problema dos referenciais. Numa reformulação mais precisa:"Se um corpo está em equilíbrio, isto é, a resultante das forças que agem sobre ele é nula, é possível encontrar ao menos um referencial, denominado inercial, para o qual este corpo está em repouso ou em movimento retilíneo uniforme."Essa reformulação melhora muito a utilidade da primeira lei de Newton. Para exemplificar tomemos um carro. Enquanto o carro faz uma curva, os passageiros têm a impressão de estarem sendo "jogados" para fora da curva. É o que chamamos de força centrífuga. Se os passageiros possuírem algum conhecimento de Física tentarão explicar o fenomeno com uma força. No entanto, se pararem para refletir, verão que tal força é muito suspeita. Primeiro: ela produz acelerações iguais em corpos de massas diferentes. Segundo: não existe lugar nenhum onde a reação dessa força esteja aplicada, contrariando a 3ª Lei de Newton. Como explicar a misteriosa força?O erro dos passageiros foi simples. Eles não escolheram um referencial inercial. Logo, obviamente as leis de Newton falhariam, pois estas só valem nestes referenciais. Se um referencial inercial fosse escolhido, como um observador do lado de fora do carro, nada de anormal seria visto, apenas os passageiros tentando manter sua trajetória em linha reta e o carro forçando-os a virar. Quem estava sob ação de forças era o carro.Muitos outros exemplos existem de forças misteriosas que ocorrem por tomarmos referenciais não-inerciais, podemos citar, além da força centrífuga, as forças denominadas de Einstein, e a força de Coriolis.Então é importante lembrar: A principal utilidade da primeira lei de Newton é estabelecer um referencial com o qual possamos trabalhar.Princípio da física (dinâmica) enunciado pela primeira vez por Galileu Galilei e desenvolvido mais tarde por Isaac Newton, que descreve o movimento dos corpos desprezando o efeito do atrito. Pode ser formulado da seguinte forma:Se um corpo se deslocar em linha reta com uma certa velocidade, continuará indefinidamente em movimento na mesma direção e com a mesma velocidade se nenhuma força agir sobre ele. A grande novidade deste princípio foi reconhecer pela primeira vez que o atrito é uma força a que todos os corpos estão sujeitos, exceto se, se deslocam no vácuo, contrariando frontalmente as teorias de Aristóteles.O principio da inércia explica o que acontece para que os copos e pratos sobre uma toalha possam continuar sobre a mesa se a toalha for puxada abruptamente. Entendemos que os pratos copos e talheres estejam em repouso sobre a mesa, estes vão permanecer eternamente em repouso até que algo aconteça para movê-los de lá. Com o puxão da toalha de maneira correta, não se consegue imprimir força suficiente para que os corpos entrem em movimento, então eles permanecem em seus lugares. O mesmo efeito pode ser observado quando estamos em pé dentro de um transporte coletivo (comboio, metrô ou autocarro) e este começa a se mover. Nosso corpo tende a "ir para trás" em relação ao autocarro, mas em relação ao chão, nosso corpo simplesmente tentará permanecer parado.O princípio da inércia nasceu em experiências com bolas metálicas descendo por um plano inclinado, passando depois por uma superfície horizontal e finalmente subindo um outro plano inclinado. Ao diminuir a inclinação deste último, sucessivamente, Galileu notou que a esfera percorria distâncias cada vez maiores, atingindo quase a mesma altura. Inferiu então que, na ausência de atrito, se a inclinação do último plano fosse nula, ou seja, ele fosse horizontal, a esfera rolaria infinitamente. Dessa forma Galileu mostrou a necessidade de se ir além da experiência, para buscar as leis mais gerais do movimento.

SEGUNDA LEI DE NEWTON(Lei Fundamental do Movimento) De acordo com o princípio da inércia, se a resultante das forças actuantes num corpo for nula, o corpo mantém, por inércia, a sua velocidade constante, ou seja não sofre aceleração. Logo a força consiste num agente físico capaz de produzir aceleração, alterando o estado de repouso ou de movimento dos corpos.Quando uma força resultante actua sobre uma partícula, esta adquire uma aceleração na mesma direcção e sentido da força, segundo um referencial inercial. A relação, neste caso, entre a causa (força resultante) e o efeito (aceleração) constitui o objectivo principal da Segunda Lei de Newton, cujo enunciado pode ser simplificado assim:"A resultante das forças que agem num corpo é igual a taxa de variação do momento linear (quantidade de movimento) do mesmo."

Matematicamente, a definição de força é expressada da seguinte forma:

Quando a massa do corpo é constante temos e por conseguinte Isso significa que, sendo a massa do corpo constante, a força resultante e aceleração produzida possuem intensidades directamente proporcionais.Resumindo: O segundo princípio consiste em que todo corpo em repouso precisa de uma força para se movimentar e todo corpo em movimento precisa de uma força para parar. O corpo adquire a velocidade e sentido de acordo com a força aplicada. Ou seja, quanto mais intensa for a força resultante, maior será a aceleração adquirida pelo corpo.A força resultante aplicada a um corpo é directamente proporcional ao produto entre a sua massa inercial e a aceleração adquirida pelo mesmo

.Se a força resultante for nula ( F = 0 ) o corpo estará em repouso (equilíbrio estático) ou em movimento rectilíneo uniforme (equilíbrio dinâmico). A força poderá ser medida em Newton se a massa for medida em kg e a aceleração em m/s² pelo Sistema Internacional de Unidades de medidas ( S.I ).

TERCEIRA LEI DE NEWTONA Terceira Lei de Newton também é conhecida como Lei da Ação e Reação. Se um corpo A aplicar uma força sobre um corpo B, receberá deste uma força de mesma intensidade, mesma direção e sentido oposto à força que A aplicou em B. As forças de ação e reação têm as seguintes características:

16

Page 17: Física-Médio Matéria

estão associadas a uma unica interação, ou seja, correspondem às forças trocadas entre apenas dois corpos; têm sempre a mesma natureza (ambas de contato ou ambas de campo), logo, possuem o mesmo nome ("de contato" ou "de campo"); É indiferente atribuir a ação a cada uma das forças e a reação à outra. Estas forças são caracterizadas por terem:Sentidos diferentes Direções iguais Intensidade igual aplicadas em corpos diferentes, logo não se anulam "Para cada ação há sempre uma reação oposta e de igual intensidade."

O CONCEITO DE FORÇASabemos que a que a Mecânica é, fundamentalmente, o estudo de dois problemas básicos para a quase totalidade dos demais ramos da Física, tais problemas sendo, precisamente, os seguintes:1) conhecendo-se o movimento de uma dada partícula, caracterizar as forças que atuam sobre ela;2) conhecendo-se as forças que atuam sobre uma dada partícula, caracterizar o seu movimento.Ainda mais esquematicamente podemos dizer que a Mecânica é o ramo da Física onde são estudadas as relações porventura existentes entre forças e movimentos. Ora, de acordo com o que sabemos em Cinemática é possível caracterizar o movimento de uma partícula se conhecermos, para cada instante t, ou a posição, ou a velocidade, ou a aceleração, da partícula considerada. Portanto, o problema de relacionar movimentos e forças ficará resolvido se conseguirmos descobrir quais as relações existentes entre posição e força, ou entre velocidade e força, ou entre aceleração e força, ou então se conseguirmos provar que não existe relação alguma entre movimentos e forças. Não se conseguiu até hoje deduzir quais as relações existentes entre movimentos e forças, nem também provar que tais relações não existem. A solução do problema foi encontrada experimentalmente por Galileo, o qual descobriu que aceleração é função de força, enquanto que nem posição nem velocidade o são. (Foi o próprio Galileo, aliás, quem criou o conceito de aceleração).Mais adiante apresentaremos situações muito simples que nos permitirão verO conceito cientifico de força foi introduzido nos quadros do pensamento humano por Johannes Kepler (1571 -1630), o astrônomo alemão que se tornou famoso principalmente por ter descoberto as leis do movimento dos planetas em torno do Sol. O conceito dominante de força, antes de Kepler, era o dos aristotélicos: força podendo ser apenas empurrão ou puxão. O conceito de força que vamos apresentar a seguir, e que adotamos por julgar o mais conveniente para as nossas finalidades, é o conceito clássico, construído por Galileo e Newton. Imagine que o piso de uma certa sala seja plano e horizontal e que sobre ele exista uma camada de areja, de espessura uniforme. Se jogarmos, sobre um tal piso, uma bola de bilhar, imprimindo-lhe uma certa velocidade inicial, observaremos que ela rolará, com movimento retilíneo, percorrendo uma certa distância ao cabo da qual parará. Imagine, a seguir, que a areia seja retirada do piso da sala. Se jogarmos sobre ele a mesma bola, imprimindo-lhe a mesma velocidade inicial do caso anterior,observaremos que ela ainda parará, mas que percorrerá uma distância maior do que quando o piso estava coberto de areia. Se polirmos o piso da sala e retirarmos o ar ambiente, e se jogarmos a mesma bola, imprimindo-lhe velocidades iniciais iguais às dos casos anteriores, observaremos que ela alcançará distâncias tanto, maiores quanto menos áspero estiver o piso e quanto menos imperfeito for o vácuo obtido. Admitimos então, por extrapolação, que se fosse possível obter um piso plano e horizontal, perfeitamente polido e situado numa região onde o vácuo fosse perfeito, se lançássemos uma bola de bilhar sobre ele, ela ficaria se movendo indefinidamente, com movimente retilíneo e uniforme, pois que não existiria coisa alguma quepudéssemos responsabilizar por variações na sua velocidade.Imagine uma bola de bilhar rolando sobre o piso de uma certa sala, plano e horizontal. Acreditamos não ser possível a bola "resolver", num determinado instante, fazer uma curva para a esquerda, ou para a direita, ou aumentar a sua velocidade, ou parar num certo ponto e começar a pular, etc, isto é, acreditamos que a velocidade da bola só poderá ser alterada se alguma coisa agir sobre ela. Essa alguma coisa capaz de alterar a velocidade da bola é precisamente o ente ao qual Newton chamou força, e a Incapacidade da bola alterar a sua própria velocidade é uma propriedade multo importante e que é chamada inércia. Todos os sistemas materiais conhecidos possuem inércia.

A DEFINIÇÃO DE FORÇAAs situações apresentadas acima são, em traços gerais, as que foram imaginadas por Galileo e sobre as quais Newton se apoiou para definir o ente que chamamos força. Elas fundamentam, essencialmente, a nossa crença de que: 1) se um corpo estiver em repouso, para pô-lo em movimento é necessário fazer agir alguma coisa sobre ele; 2) se a velocidade de um corpo aumenta, é porque alguma coisa' age sobre ele; 3) se a velocidade de um corpo diminui, é porque alguma coisa age sobre ele; 4) se a velocidade de um corpo muda de direção, é porque alguma coisa age sobre ele. A essa alguma coisa capaz de pôr em movimento um corpo que está.em repouso, ou capaz de modificar 'de alguma forma a sua velocidade, é que Newton denominou força, sendo a seguinte a definição por ele apresentada:Chama-se força atuante sobre um corpo a qualquer agente capaz de modificar o seu estado de repouso ou de movimento retilíneo e uniforme.Analisando esta definição de força observamos essencialmente o seguinte:constatado, de alguma forma, que os diversos corpos que integram o nosso Universo não estão sempre em repouso, ou sempre em movimento retilíneo e uniforme; mas sim que as suas velocidades sofrem, ou podem sofrer, alterações, achou-se conveniente pensar que as variações de velocidade de um corpo qualquer são conseqüência da ação de algum ente. Introduziu-se, portanto, no quadro dos elementos por meio dos quais estudamos os fenômenos observáveis no nosso Universo, uma entidade considerada responsável por variações de velocidades. Tal entidade foi denominada força. 0 peso de um corpo, por exemplo, é uma força; quando queremos abrir ou fechar uma porta, aplicamos-lhe uma força, etc. É extremamente importante observar que repouso e movimento são sempre relativo a um bem determinado referencial. Conseqüentemente podemos dizer que as forças atuantes sobre um corpo dependem estreitamente do referencial que se considere.Esta observação é fundamental para a compreensão da Mecânica, e muitas discussões estéreis serão evitadas se procedermos corretamente, especificando, sem ambigüidade, qual o referencial que está sendo utilizado. (É muito importantediscutirmos o problema fundamental do referencial).É importante chamar a atenção para o fato experimental de que uma força só ficará completamente caracterizada se conhecermos não só o seu valor numérico, isto é, o seu módulo, mas também a sua direção e o seu sentido. Conseqüentemente uma força pode ser adequadamente representada por um segmento de reta orientado, se tal segmento for traçado de uma forma tal que: 1) o seu comprimento indique, numa escala previamente convencionada, o módulo da força; 2) a direção e o sentido do segmento Indiquem a direção e o sentido da força. Diz ainda a experiência que forças se somam de acordo com a regra do polígono.Conseqüentemente força é vetor.Velocidade não é função de forçaJulgamos conveniente, antes de avançar mais, mostrar, de forma simples, que a velocidade de um corpo, num instante qualquer, não depende das forças que no instante considerado estejam agindo sobre ele, ou seja: que a velocidade de um corpo não é função das forças que atuam sobre ele.

17

Page 18: Física-Médio Matéria

Imaginemos, para isto, que de um certo ponto, A, situado verticalmente acima de um outro, B, se deixe cair uma pedra. Quando ela passar pelo ponto B a sua velocidade terá um certo valor v. A seguir deixemos cair a mesma pedra, de um outro ponto, A', situado verticalmente acima do A. Quando ela passar pelo ponto B a sua velocidade terá um valor v'>v, Isto é, um valor diferente de v. Ora, em ambos os casos, quando a pedra passa pelo ponto B a única força atuante sobre ela é o seupróprio peso (estamos supondo desprezíveis a resistência e o empuxo exercidos pelo ar), o qual é o mesmo nas duas situações, uma vez que em cada ponto é invariável o peso de um mesmo corpo. Se velocidade fosse função de força, deveríamos ter quequalquer que fosse a altura de onde largássemos a pedra ela passaria pelo ponto B sempre com uma mesma velocidade, pois que a uma mesma força, agindo sobre um mesmo corpo, deveria -corresponder uma mesma velocidade. Como Isto não ocorre,concluímos, definitivamente, que velocidade não é função de força.Uma pedra largada de um ponto A terá uma velocidade igual a v no momento em que passar pelo ponta B. Amesma pedra sendo largada de um outro ponto, A', situado verticalmente acima do ponto A, ao passar pelo ponto B terá uma velocidade v'>v. Ora, em ambos os casos a força atuante sobre a pedra, no momento da passagem peloponto B, é apenas o seu próprio peso (supondo-se desprezíveis a empuxo e a resistência exercidos pelo ar).Este exemplo nos mostra que á mesma força, agindo sobre o mesmo corpo, não corresponde uma só velocidade, ousela: que a velocidade de um corpo não é função das forças atuantes sobre ele. (A nosso ver, a principal fonte dasdificuldades que o principiante encontra em Mecânica tem a sua origem precisamente no desacordo entre a intuição, que o faz pensar ser velocidade função de força, e o fato experimental de que velocidade não é função de força).

MOMENTO DE UMA FORÇA Arquimedes (287 - 212 a.C.)Se um corpo suspenso por um fio for afastado de sua posição de equilíbrio e depois abandonado a si mesmo, seu peso provocará uma rotação no sentido de fazer o corpo voltar à posição de equilíbrio.Quando estamos apertando ou desapertando um parafuso, conseguimos produzir uma rotação, aplicando uma força ao cabo de uma chave.Batendo com o dedo na extremidade de uma das pás de um ventilador desligado consegue-se faze-la girar rapidamente.Verifica-se assim que uma força, atuando sobre um corpo que tenha a possibilidade de girar em torno de um ponto fixo, pode produzir rotação. A medida da eficiência de uma força no que se refere à tendência de fazer um corpo girar em relação a um ponto fixo chama-se momento da força em relação a esse ponto.O momento depende somente da intensidade da força e do seu braço de alavanca. Obtém-se o momento de uma força em relação a um ponto multiplicando-se a intensidade da força pela distância do ponto à linha de ação da força.O conceito de momento (ou torque) é usado, mesmo intuitivamente, com grande freqüência em nossa vida diária. É o caso, por exemplo, de uma pessoa que fecha uma porta aplicando a força no meio da porta; obterá um efeito de rotação maior se aplicar a mesma força na extremidade da porta. Nessa última situação, a distância da força ao eixo de rotação é maior e, portanto, maior será o momento dessa força, isto é, maior será o efeito de rotação que ela produz.

HIDROSTÁTICA: Pressão

Consideremos uma força aplicada perpendicularmente a uma superfície com área A. Definimos a pressão (p) aplicada pela força sobre a área pela seguinte relação:

No SI , a unidade de pressão é o pascal (Pa) que corresponde a N/m2 . A seguir apresenta outras unidades de pressão e suas relações com a unidade do SI :1 dyn/cm2 (bária) = 0,1 Pa1 kgf/cm2 = 1 Pa1 atm = 1,1013x105 Pa1 lb/pol2 = 6,9x103 PaO conceito de pressão nos permite entender muitos dos fenômenos físicos que nos rodeiam. Por exemplo, para cortar um pedaço de pão, utilizamos o lado afiado da faca (menor área), pois, para uma mesma força, quanto menor a área, maior a pressão produzida.

Princípio de ArquimedesOrigem: Wikipédia, a enciclopédia livre."Todo corpo mergulhado num fluido em repouso sofre, por parte do fluido, uma força vertical para cima, cuja intensidade é igual ao peso do fluido deslocado pelo corpo."Contam os livros que o sábio grego Arquimedes descobriu enquanto tomava banho, que um corpo imerso na água se torna mais leve devido a uma força, exercida pelo líquido sobre o corpo, vertical e para cima, que alivia o peso do corpo. Essa força do líquido sobre o corpo, é denominada impulsão.Portanto, num corpo que se encontra imerso em um líquido em repouso, actuam duas forças, ambas com mesmo centro de acção:peso (devida à interação com o campo gravitacional terrestre) impulsão (devida a sua interação com o líquido) Isto quer dizer que, para o objeto flutuar, o peso do líquido deslocado pelo objeto tem de ser maior que o próprio peso do objeto.Arquimedes teria descoberto isso quando procurava responder a Hierão, rei de Siracusa, se sua coroa era realmente de ouro puro.Conta Vitrúvio, que o rei mandou fazer uma coroa de ouro. Para isso, contratou um artesão, que consoante uma boa quantia de dinheiro e a entrega do ouro necessário, aceitou o trabalho.

18

Page 19: Física-Médio Matéria

Na data prevista o artesão entregou a coroa executada na perfeição, porém, o rei estava desconfiado que o artesão pudesse ter trocado o ouro por prata, pediu a Arquimedes que investigasse o que se passava uma vez que este era muito inteligente.Um dia, enquanto tomava banho, Arquimedes observou que, à medida que seu corpo mergulhava na banheira, a água transbordava. Concluiu, então, como poderia resolver o problema da coroa e de tão contente que estava saiu da banheira e foi para a rua gritando: "EURECA, EURECA!", que em grego quer dizer descobri, achei, encontrei.Assim, pegou um vasilhame com água e mergulhou um pedaço de ouro, do mesmo peso da coroa, registou quanto a água tinha subido. Fez o mesmo com um pedaço de prata e também registou. Pode comprovar que o ouro não fez a água subir tanto como a prata.Por fim inseriu a coroa que por sua vez elevou o nível da água acima do que havia observado no ouro e abaixo da prata, constatando então que a coroa havia sido feito com uma mistura de ouro e prata. Pode-se assim desvendar o mistério da coroa e desmascarar o artesão.

O Princípio de ArquimedesQuando um corpo está totalmente imerso num líquido, podemos ter as seguintes condições:se ele permanece parado no ponto em que foi colocado, a intensidade da força de impulsão é igual a intensidade da força peso; se ele afundar, a intensidade da força de impulsão é menor que a intensidade da força peso; se ele for levado para a superfície, a intensidade da força de impulsão é maior do que a intensidade da força peso. Para saber qual das três situações irá ocorrer, devemos enunciar o princípio de Arquimedes:"Todo corpo mergulhado num fluido sofre, por parte do fluido, uma força vertical para cima, cuja intensidade é igual ao peso do fluido deslocado pelo corpo."Se denotarmos por:m a massa do corpo imerso, V o volume do corpo imerso, ρ a densidade ou massa específica do fluido, g a aceleração da gravidade, I a força de impulsão. O princípio de Arquimedes se resume a:

Como a força peso do corpo é dada pela produto da massa pela aceleração da gravidade mg. Podemos enunciar o seguinte critério:Vρ < m O corpo afunda, Vρ = m o corpo fica em equilíbrio metaestável, Vρ > m o corpo sobe à tona. Quando um corpo mais denso que um líquido é totalmente imerso nesse líquido, observamos que o valor do seu peso, dentro desse líquido, é aparentemente menor que no ar. A diferença entre o valor do peso real e do peso aparente corresponde à impulsão exercida pelo líquido:Peso Aparente = Peso real - Impulsão Se a massa do corpo imerso for expressa como o produto de sua densidade média ρcpor seu volume V, então o critério de Arquimedes assume a seguinte forma:ρ < ρc O corpo afunda, ρ = ρc o corpo fica em equilíbrio metaestável, ρ > ρc o corpo sobe à tona. Flutuação de corposQuando um corpo é composto de material menos denso que o fluido onde está imerso, pode encontrar uma posição de equilíbrio flutuando na superfície. Este é o caso dos icebergs que ficam estáveis flutuando na água quando a porção de volume imersa gera impuxo suficiente para sustentar seu peso. Ou seja, denotando por Vi o volume imerso do iceberg, VT, seu volume total e ρg a densidade do gelo, a condição de equilíbrio se torna:

Resolvendo para Vi, Assim, obtemos que o volume imerso de um iceberg equivale a 92% de seu volume total, ficando apenas 8% visível fora d'água, dando origem à expressão "a ponta do iceberg".

PRINCÍPIO DE PASCALO princípio de Pascal diz que quando um ponto de um líquido em equilíbrio sofre uma variação de pressão, todos os outros pontos também sofrem a mesma variação. Uma aplicação importante desse princípio é a prensa hidráulica, que consiste em dois vasos comunicantes, com êmbolos de áreas diferentes (A 1 e A 2 ) sobre as superfícies livres do líquido contido nos vasos. Aplicando-se uma força F 1 sobre o êmbolo de área A 1 , a pressão exercida é propagada pelo líquido até o êmbolo de área A 2 . Portanto teremos que:

A prensa hidráulica é um dispositivo que multiplica a intensidade de forças. obs. Apesar da verificação do aumento ou da diminuição na intensidade de forças, a prensa hidráulica não pode modificar a quantidade de energia envolvida, pois deve obedecer ao princípio da conservação de energia. O Princípio de Pascal é um princípio físico que se aplica entre outros ao sistema de travões e amortecedores e aos elevadores hidráulicos e deve-se ao físico e matemático francês Blaise Pascal (1623-1662). Seu enunciado é:O acréscimo de pressão produzido num líquido em equilíbrio transmite-se integralmente a todos os pontos do líquido e às paredes do recipiente.

19

Page 20: Física-Médio Matéria

GRAVITAÇÃO UNIVERSAL1 Introdução: Até o século XV, o homem concebia o Universo como um conjunto de esferas de cristal, com a Terra no centro. Essa concepção do Universo, denominada Geocentrismo, dominou toda a Antigüidade e Idade Média. Foi derrubada por pensadores como Nicolau Copérnico (1473 - 1543) e Galileu Galilei (1564 - 1642), que mostraram que nosso planeta gira em torno do Sol.

2- Leis de Kepler: As leis de Kepler descrevem o movimento dos planetas ao redor do Sol. Primeira lei de Kepler O raio - vetor - linha imaginária que une o Sol ao planeta, varre áreas iguais em intervalos de tempos iguais. a = Raio médio da órbita Periélio = ponto mais próximo do Sol. Afélio = ponto mais afastado do Sol.

Segunda lei de Kepler O raio-vetor varre a mesma área no mesmo intervalo de tempo, porque nos pontos mais próximos do Sol o planeta se move mais rapidamente e, nos pontos mais afastados, mais lentamente. A velocidade dos planetas é máxima no periélio e mínima no afélio. Obs. A razão entre a área varrida pelo raio-vetor e o tempo, é denominada de velocidade areolar. Cada planeta tem sua velocidade areolar bem definida. Esta velocidade areolar é constante para um determinado planeta, ou satélite. Observe também que do periélio para o afélio o planeta terá um movimento retardado e do afélio para o periélio o movimento é acelerado.

Terceira lei de Kepler O quadrado do período de qualquer planeta é proporcional ao cubo de sua distância média ao Sol.

Matematicamente temos: T 2 = k . a 3 onde: Curiosidade: O valor de k para o sistema sola é k = 3.10 -19 s² /m³ A tabela a seguir mostra os valores das distâncias médias ao Sol de cada um dos planetas do sistema solar e os seus respectivos períodos. A unidade de medida das distâncias é a distância média da Terra ao Sol (1,49 . 10 8 km ), chamada unidade astronômica (u.a). A unidade de medida dos períodos é o ano terrestre. PLANETA DISTÂNCIA MÉDIA AO SOL (u.a.) Período (ano terrestre) Mercúrio 0,387 0,241 Vênus 0,713 0,615 Terra 1 1 Marte 1,524 1,881 Júpiter 5,203 11,86 Saturno 9,540 29,46 Urano 19,18 84,01 Netuno 30,07 164,8 Plutão 39,44 248,4

3 - LEI DA GRAVITAÇÃO UNIVERSAL A lei da gravitação, estabelecida por Newton, tem o seguinte enunciado: Entre dois pontos materiais de massas m1 e m2, separados pela distância r, existe uma força de atração F, proporcional às massas m1 e m2 e inversamente proporcional ao quadrado da distância r. Matematicamente, a lei da gravitação universal pode ser escrita da seguinte forma:

onde a constante G é denominada constante universal da gravitação e vale, em unidades do SI: G = 6,7 . 10 -11 N.m 2 /kg 2 GravidadeA gravidade é a força de atração mútua que os corpos materiais exercem uns sobre os outros. Classicamente, é descrita pela lei de Newton da gravitação universal. Mais recentemente, Albert Einstein descreveu-a como conseqüência da estrutura geométrica do espaço-tempo.Do ponto de vista prático, a atração gravitacional da Terra confere peso aos objetos e faz com que caiam ao chão quando são soltos no ar (como a atração é mútua, a Terra também se move em direção aos objetos, mas apenas por uma ínfima fração). Ademais, a gravitação é o motivo pelo qual a Terra, o Sol e outros corpos celestiais existem: sem ela, a matéria não se teria aglutinado para formar aqueles corpos e a vida como a entendemos não teria surgido. A

20

Page 21: Física-Médio Matéria

gravidade também é responsável por manter a Terra e os outros planetas em suas respectivas órbitas em torno do Sol e a Lua em órbita em volta da Terra, bem como pela formação das marés e por muitos outros fenômenos naturais.Em sentido não-científico, "gravidade" significa seriedade ou austeridade.Depois que a anedótica maçã caiu ao lado do jovem Isaac Newton, levando-o a formular a Lei da Gravitação Universal, este descobrimento alterou radicalmente a concepção humana do universo e a palavra "gravidade", cuja origem remonta a tempos pré-históricos, adquiriu nova importância."Gravidade" provém do latim ´gravitas´, formado a partir do adjetivo ´gravis´ (pesado, importante). Ambos os vocábulos trazem a raiz ´gru-´, do antigo tronco pré-histórico indo-europeu, de onde se deriva também a voz grega ´barus´ (pesado) que, entre outros vocábulos, deu lugar a barítono (de voz grave). Em sânscrito – a milenária língua sagrada dos brâmanes – formou-se a palavra guru (grave, solene), também a partir da raiz indo-européia ´gru-´, para designar os respeitados mestres espirituais e chefes religiosos do hinduismo.GravitaçãoGravitação é a força de atração que existe entre todas as partículas com massa no universo.A gravitação é responsável por prender objectos à superfície de planetas e, de acordo com as lei da inércia de Newton, é responsável por manter objectos em órbita em torno uns dos outros."A gravidade é a força que nos puxa para baixo" – Merlin, no filme da Disney A Espada Era A Lei(filme) Merlin tinha razão, claro, mas a gravidade faz muito mais do que simplesmente segurar-nos às nossas cadeiras. Foi Isaac Newton que o reconheceu. Newton escreveu numa das suas memórias que na altura em que estava a tentar compreender o que mantinha a Lua no céu viu uma maçã cair no seu pomar, e compreendeu que a Lua não estava suspensa no céu mas sim que caía continuamente, como se fosse uma bola de canhão que fosse disparada com tanta velocidade que nunca atinge o chão por este também "cair" devido à curvatura da Terra.Se quisermos ser precisos, devemos distinguir entre a gravitação, que é a força de atracção universal, e a gravidade, que é a resultante, à superfície da Terra, da atracção da massa da Terra e da pseudo-força centrífuga causada pela rotação do planeta. Nas discussões casuais, gravidade e gravitação usam-se como sinónimos.Segundo a terceira lei de Newton, quaisquer dois objectos exercem uma atracção gravitacional um sobre o outro de igual valor e direcção oposta.

Lei de Newton de Gravitação UniversalPouco se sabia sobre gravitação até o século XVII, pois acreditava-se que leis diferentes governavam os céus e a Terra. A força que mantinha a Lua presa à Terra nada tinha que ver com a força que nos mantém presos a esta. Sir Isaac Newton foi o primeiro a pensar na hipótese das duas forças possuírem as mesmas naturezas.Newton explica, "Todos os objectos no Universo atraem todos os outros objectos com uma força direccionada ao longo da linha que passa pelos centros dos dois objectos, e que é proporcional ao produto das suas massas e inversamente proporcional ao quadrado da separação entre os dois objectos."Newton acabou por publicar a sua, ainda hoje famosa, lei da gravitação universal, no seu Principia Mathematica, como:

onde:F = força gravitacional entre dois objectos m1 = massa do primeiro objecto m2 = massa do segundo objecto r = distância entre os centros objectos G = constante universal da gravitação A força de atração entre dois objetos é chamada de peso. Rigorosamente falando, esta lei aplica-se apenas a objectos semelhantes a pontos. Se os objectos possuírem extensão espacial, a verdadeira força terá de ser encontrada pela integração das forças entre os vários pontos. Por outro lado, pode provar-se que para um objecto com uma distribuição de massa esfericamente simétrica, a integral resulta na mesma atracção gravitacional que teria se fosse uma massa pontual.Forma Vectorial é uma versão simplificada. Ela é expressa mais propriamente pela forma que segue, a qual é vetorialmente completa. (Todas as grandezas em negrito representam grandezas vetoriais)

onde:

é a força exercida em m1 por m2 m1 e m2 são as massas e

são os vectores posição das duas massas respectivas G é a constante gravitacional Para a força na massa dois, simplesmente tome o oposto do vetor

A principal diferença entre as duas formulações é que a segunda forma usa a diferença na posição para construir um vetor que aponta de uma massa para a outra, e de seguida divide o vetor pelo seu módulo para evitar que mude a magnitude da força.Aceleração da gravidadePara saber a aceleração da gravidade de um astro ou corpo, a fórmula matemática é parecida:

onde:A = aceleração da gravidade m = massa do astro r = distância do centro do objecto G = constante universal da gravitação

COMPARAÇÃO COM A FORÇA ELETROMAGNÉTICAA atração gravitacional dos prótons é aproximadamente um fator 10 36 mais fraco que a repulsão electromagnetica. Este fator é independente de distância, porque ambas as forças são inversamente proporcionais ao quadrado da distância. Isso significa que, numa balança atômica, a gravidade mútua é desprezável. Porém, a força principal entre os objetos comuns e a Terra e entre corpos celestiais é a gravidade, quando pelo menos um deles é eletricamente neutro, ou quase. Contudo se em ambos os corpos houvesse um excesso ou déficit de único elétron para cada 10 18 prótons isto já seria suficiente para cancelar a gravidade (ou no caso de um excesso num e um déficit no outro: duplicar a atração).

21

Page 22: Física-Médio Matéria

A relativa fraqueza da gravidade pode ser demonstrada com um pequeno ímã, que vai atraindo para cima pedaços de ferro pousados no chão. O minúsculo ímã consegue anular a força gravitacional da Terra inteira.A gravidade é pequena, a menos que um dos dois corpos seja grande, mas a pequena força gravitacional exercida por corpos de tamanho ordinário pode ser demonstrada com razoável facilidade por experiências como a da barra de torção de Cavendish.

SISTEMA AUTO-GRAVITACIONALUm sistema auto-gravitacional é um sistema de massas mantidas juntas pela sua gravidade mútua. Um exemplo de tal é uma estrela.Ninguém tem certeza se o conto sobre Newton e a maçã é verídico, mas o raciocínio, com certeza, tem seu valor. Ninguém antes dele ousou contrariar Aristóteles e dizer que a mesma força que atrai uma maçã para o chão mantém a Lua, a Terra, e todos os planetas em suas órbitas.Newton não foi o único a fazer contribuições significativas para o entendimento da gravidade. Antes dele, Galileu Galilei corrigiu uma noção comum, partida do mesmo Aristóteles, de que objetos de massas diferentes caem com velocidades diferentes. Para Aristóteles, simplesmente fazia sentido que objetos de massas diferentes demorassem tempos diferentes a cair da mesma altura e isso era o bastante para ele. Galileu, no entanto, tentou de fato lançar objetos de massas diferentes ao mesmo tempo e da mesma altura. Desprezando as diferenças devido ao arraste do ar, Galileu observou que todas as massas aceleravam igualmente. Podemos deduzir isso usando a Segunda Lei de Newton, F = ma. Se considerarmos dois corpos com massas m1 e m2 muito menores do que massa da terra MT, obtemos as equações:

Dividindo a primeira equação por m1 e a segunda por m2 obtemos:

ou seja, a1 = a2.A teoria geral da gravidade de EinsteinA formulação da gravidade por Newton é bastante precisa para a maioria dos propósitos práticos. Existem, no entanto, alguns problemas:Assume que alterações na força gravitacional são transmitidas instantaneamente quando a posição dos corpos gravitantes muda. Porém, isto contradiz o fato que existe uma velocidade limite a que podem ser transmitidos os sinais (velocidade da luz no vácuo). O pressuposto de espaço e tempo absolutos contradiz a teoria de relatividade especial de Einstein. Prediz que a luz é desviada pela gravidade apenas metade do que é efectivamente observado. Não explica ondas gravitacionais ou buracos negros, que no entanto também nunca foram observados diretamente. De acordo com a gravidade newtoniana (com transmissão instantânea de força gravitacional), se o Universo é euclidiano, estático, de densidade uniforme em média positiva e infinito, a força gravitacional total num ponto é uma série divergente. Por outras palavras, a gravidade newtoniana é incompatível com um Universo com estas propriedades. Para o primeiro destes problemas, Einstein e Hilbert desenvolveram uma nova teoria da gravidade chamada relatividade geral, publicada em 1915. Esta teoria prediz que a presença de matéria "distorce" o ambiente de espaço-tempo local, fazendo com que linhas aparentemente "rectas" no espaço e no tempo tenham características que são normalmente associadas a linha "curvas".Embora a relatividade geral seja, enquanto teoria, mais precisa que a lei de Newton, requer também um formalismo matemático significativamente mais complexo. Em vez de descrever o efeito de gravitação como uma "força", Einstein introduziu o conceito de espaço-tempo curvo, onde os corpos se movem ao longo de trajetórias curvas.A teoria da relatividade de Einstein prediz que a velocidade da gravidade (definida como a velocidade a que mudanças na localização de uma massa são propagadas a outras massas) deve ser consistente com a velocidade da luz. Em 2002, a experiência de Fomalont-Kopeikin produziu medições da velocidade da gravidade que corresponderam a esta predição. No entanto, esta experiência ainda não sofreu um processo amplo de revisão pelos pares, e está a encontrar cepticismo por parte dos que afirmam que Fomalont-Kopeikin não fez mais do que medir a velocidade da luz de uma forma intrincada.

Mecânica quânticaA força da gravidade é, das quatro forças da natureza, a única que obstinadamente se recusa a ser quantizada (as outras três - o eletromagnetismo, a força forte e a força fraca podem ser quantizadas). Quantização significa que a força pode ser medida em partes discretas que não podem ser diminuídas em tamanho, não importando o que aconteça; alternativamente, essa interação gravitacional é transmitida por partículas chamadas gravitons. Cientistas têm estudado sobre o graviton por anos, mas têm tido apenas frustrações nas suas buscas para encontrar uma consistente teoria quântica sobre isso. Muitos acreditam que a Teoria de cordas alcançará o grande objetivo de unir Relatividade Geral e Mecânica Quântica, mas essa promessa ainda não se realizou.

APLICAÇÕES ESPECIAIS DE GRAVIDADEUma diferença de altura pode possibilitar uma útil pressão num líquido, como no caso do gotejamento intravenoso (Intravenous Drip) e a Torre de Água.A massa suspensa por um cabo através de uma polia possibilita uma tensão constante no cabo, incluindo no outro lado da polia.[editar] Comparação da força da gravidade em diferentes planetasA aceleração devido à gravidade à superfície da Terra é, por convenção, igual a 9.80665 metros por segundo quadrado (o valor real varia ligeiramente ao longo da superfície da Terra; ver g para mais detalhes). Esta medida é conhecida como gn, ge, g0, ou simplesmente g. A lista que se segue apresenta a força da gravidade (em múltiplos de g) na superfície dos diversos planetas do Sistema Solar:

Mercúrio 0.376Vénus 0.903Terra = 1Marte 0.38Júpiter1 2.34Saturno1 1.16Urano1 1.15Netuno1 1.19

Nota: (1) No caso dos gigantes gasosos (Júpiter, Saturno, Urano e Netuno), diz-se que a "superfície" é a distância ao centro do planeta, cuja pressão atmosférica é de 1 atm, igual à pressão atmosférica ao nível do mar aqui na Terra.

22

Page 23: Física-Médio Matéria

Nota: para efeito de comparação, em Plutão, a força da gravidade é 0.066.Nos corpos esféricos, a gravidade superficial em m/s2 é 2.8 × 10−10 vezes o raio em m vezes a densidade média em kg/m3.Em química, gravidade é a densidade de um fluido, particularmente um combustível. Expressa-se em graus, com os valores mais baixos a indicar líquidos mais pesados e numerosos, mais elevados indicando liquidos mais leves (ver Grau API).

LUZ E CORA natureza da luz– Os antigos pitagóricos acreditavam que a visão se devia exclusivamente a algo que saía dos nossos olhos, ou seja, a luz estava em nós. Hoje já não se discute mais, como nos séculos XVII e XVIII, se a luz é formada por feixes de minúsculas partículas ou se é uma propagação ondulatória. A luz não é onde nem partícula. Ela se constitui de fótons, partículas cujo comportamento tem natureza ondulatória. Apesar de ser uma visão muito simplificada da compreensão atual que a física tem da natureza da luz, basta saber que grande parte dos fenômenos luminosos podem ser estudados admitindo- se que a luz seja uma propagação ondulatória com todas as propriedades características desse fenômeno. A origem da luz é, de certa forma, semelhante à origem do som. Enquanto o som é produzido a partir de oscilações mecânicas, pode-se dizer que a luz se origina de oscilações eletromagnéticas ou da oscilação de cargas elétricas. Outra semelhança seria que, assim como nossos ouvidos só conseguem detectar uma pequena faixa do espectro das ondas sonoras (20Hz – 20kHz), o que nossos olhos detectam como luz, é apenas uma estreita faixa do espectro das ondas eletromagnéticas. Em física, a única diferença entre todas as formas de radiação do espectro eletromagnético é o valor da freqüência (ou do comprimento de onda, já que c = λ . f ). Ondas de rádio, microondas, calor ou radiações infravermelhas, luz, radiações ultravioletas e raios X são radiações eletromagnéticas fisicamente idênticas. O valor da freqüência, única diferença entre elas, se deve à fonte que as originou: quanto maior a energia, maior a freqüência e mais próximo do interior do átomo está sua origem. - As freqüências mais baixas provêm da oscilação de elétrons em fios condutores. É o caso das radiações emitidas por condutores percorridos por corrente alternada, geralmente com freqüência de 60Hz. São elas que produzem um ronco característico quando o rádio do carro, sintonizado em alguma estação em AM, passa sob ou perto dos fios das redes de alta tensão. - No intervalo de 104 a 1010Hz, as fontes são circuitos oscilantes ou transmissores de estações de rádio e televisão. – De 1010 a 1012Hz estão as microondas, geradas por válvulas eletrônicas especiais. – De 1011a 4.1014Hz estão as radiações de calor, ou infravermelhas, geradas pela vibração ou oscilação dos elétrons exteriores a átomos e moléculas. – No curto intervalo de 4.1014a 8.1014Hz , correspondente à luz visível até a freqüência de 1017Hz, onde estão compreendidas as radiações ultravioletas, as fontes são oscilações ou transições dos elétrons entre as camadas mais externas dos átomos. – Entre 1015a 1020Hz estão os raios X, originados das transições de elétrons mais internos do átomo ou da desaceleração muito rápida de partículas de alta energia, carregadas eletricamente. – De 1019a 1024Hz estão os raios gama, originados em transições de partículas em camadas do interior do núcleo atômico.

FONTES DE LUZNuma primeira abordagem, mais superficial, pode-se dizer que a reflexão é a causa mais comum da emissão de luz (a grande maioria dos corpos que vemos reflete a luz que recebe) são corpos iluminados. Mas há muitas outras causas: por exemplo, qualquer corpo aquecido a partir de certa temperatura torna-se luminoso. A termodinâmica diz que qualquer corpo, a qualquer temperatura, emite radiação eletromagnética. O corpo humano, por exemplo emite radiação infravermelha suficiente para ser detectada por equipamentos apropriados (binóculos, câmaras fotográficas e de vídeo que permitem “ver” no escuro). Em outras palavras, se nossa retina fosse sensível à radiação infravermelha, como esses aparelhos especiais, o corpo humano seria considerado luminoso e não iluminado! Se as dimensões da fonte luminosa forem desprezíveis, isto é, se puder ser representada por um ponto, a fonte é considerada pontual. Se isso não for possível, a fonte é extensa. Esse conceito é relativo, a mesma fonte pode ser considerada extensa ou pontual, dependendo das dimensões envolvidas na situação.

As sete cores do arco-íris– Em 1665, quando Isaac Newton tinha 23 anos, a peste se espalhou pela Europa. Para fugir do contágio na cidade grande, Newton passou um ano e meio no campo, na casa de sua mãe. Durante essas férias forçadas dedicou-se ao estudo e à pesquisapor conta própria e fez surpreendentes descobertas que só publicou vários anos depois em seu livro Óptica. Newton dispunha apenas de alguns prismas, lentes e da luz do sol. Fazendo um pequeno furo em uma cortina obteve um feixe estreito de luz que fez incidir sobre o prisma. A luz, depois de passar pelo prisma, projetava sobre a parede oposta uma mancha alongada, com as cores distribuídas do vermelho ao violeta. Esse belo fenômeno acontece quando o sol está relativamente baixo, em um lado do céu, e no outro lado existem nuvens escuras de chuva. "Foi muito agradável", escreveu ele, "observar as cores vivas e intensas, mas logo tratei de examiná-las com cuidado". De cara, ele chegou à idéia de que a luz branca do sol é composta

23

Page 24: Física-Médio Matéria

de luzes de todas as cores visíveis. O que o prisma faz é, simplesmente, separar essas componentes. A componente violeta é a mais desviada e a vermelha, a menos desviada. As outras têm desvios intermediários. Tanto se pode dizer que as cores do arco-íris são sete, como cinco, seis, oito, milhares ou infinitas. Para testar essa idéia, fez a luz espalhada pelo prisma incidir sobre outro prisma, colocado na posição invertida. O segundoprisma juntou de novo as luzes componentes e a luz branca ressurgiu no outro lado. Alguns texto relacionam apenas seis cores: vermelho, alaranjado, amarelo, verde, azul e violeta. É muito difícil distinguir mais cores do que essas no arco-íris. A faixa colorida obtida por Newton quando separou as cores da luz do Sol com um prisma é chamada de "espectro da luz solar".Essa separação, ou dispersão, pode ser obtida com um prisma ou com outro dispositivo chamado rede de difração.Recombinação da luz dispersadaPara ter certeza de sua interpretação, Newton fez uma experiência crucial: incidiu a luz dispersada sobre um cartãocom um pequeno furo. Ajustando a posição do furo deixou passar só uma componente (a vermelha, por exemplo). Fez esse feixe incidir sobre o segundo prisma e não observou nenhuma decomposição a mais. O feixe se desviava mas continuava da mesma cor. A luz vermelha não se dispersa.Com essas e outras observações, Newton demonstrou que a luz branca do sol é uma mistura de luzes com as cores visíveis. Cada cor sofre um desvio diferente pelo prisma. Tecnicamente, dizemos que a luz violeta é mais refringente que a vermelha, pois se desvia mais. Ou, em outros termos, o índice de refração da componente violeta é maior que o índice de refração da componente vermelha. O espectro da luz do Sol, dita "branca", é um contínuo com todas as cores visíveis. Hoje sabemos que essas componentes têm comprimentos de onda que vão desde 4000 Ångstroms (violeta) até 7500 Ångstroms (vermelho). Os elementos ou compostos químicos podem ser induzidos a emitir luz, tanto na chama de uma fogueira como no bucólico pisca-pisca dos vaga-lumes ou em animais de profundidade oceânica que emitem luz como atrativo de suas presas, enquanto reações nucleares geram a fantástica luz do Sol e das estrelas O físico alemão Gustav Kirchhoff descobriu que cada elemento químico emite luz com um espectro distinto e bem característico. Isto é, o espectro pode ser usado para detectar a presença do elemento na fonte de luz. Por exemplo, as lâmpadas azuladas que vemos nas grandes avenidas são ampolas com vapor de mercúrio (Hg). Quando uma corrente elétrica passa por esse vapor a lâmpada "acende", emitindo a luz característica do elemento mercúrio. Veja, na figura abaixo, os espectros do hidrogênio (H) e do mercúrio (Hg). Os números são os comprimentos de onda das raias, em Ångstroms.Em 1815, Joseph von Fraunhoffer, observando o espectro solar, notou a presença de uma série de linhas escuras sobrepostas sobre as cores contínuas do espectro. Com habilidade, Fraunhoffer contou mais de 500 dessas linhas pretas. Comparando as posições dessas linhas pretas com as posições das linhas já catalogadas dos elementos, Fraunhoffer notou uma perfeita coincidência. Por exemplo, exatamente onde se situam as linhas do hidrogênio, apareciam linhas escuras bem definidas no espectro solar. A explicação para essa linhas escuras é a seguinte. O Sol emite luz com todas as cores, como já vimos. Mas, essa luz passa por gases relativamente frios na superfície do próprio Sol. Esses gases absorvem a luz do Sol exatamente nas cores que gostam de emitir. As linhas escuras de Fraunhoffer são linhas de absorção de luz. A fonte de luz pode ser uma estrela distante, cuja luz é focalizada no espectrógrafo por um telescópio. Examinando o espectro da luz da estrela o astrofísico obtéminformações sobre os elementos e compostos químicos presentes na estrela. Em outras palavras, pode fazer uma análise química da estrela. Um exemplo espetacular desse tipo de análise deu-se quando os cientistas descobriram linhas escuras no espectro solar que não correspondiam a nenhum elemento conhecido. Eles chamaram esse elemento de hélio, nome do deus do Sol da mitologia. Só 17 anos depois, oelemento hélio foi encontrado na Terra. A figura abaixo mostra o espectro de emissão do hélio e as linhas de absorção que ele impõe sobre o espectro solar.

Somando e subtraindo cores. As cores da televisão - O vermelho das rosas é uma propriedade intrínseca das rosas ou será devido apenas à luz que incide sobre elas? A cor de um objeto depende tanto da luz que ilumina esse objeto quanto de propriedades específicas de sua superfície e textura. Se as mesmas rosas forem iluminadas porluz verde esta será fortemente absorvida pelas pétalas das rosas e elas tornam-se quase pretas.A cor das rosas depende, portanto, das substâncias de suas pétalas, da luz ambiente e da interação entre elas. Conforme a cor das folhas de uma planta a fotossíntese é diferente, ou seja, a captação de energia para produção de energia é de diferentes comprimentos de onda. Para entender melhor esse fato vamos ver como as cores podem ser somadas e subtraídas. Não é necessário usar todas as cores visíveis para obter o branco. Basta usar três cores, ditas primárias: o vermelho, o azul e o verde. Projetando, sobre uma tela branca, feixes de luz com essas três cores primárias, observamos que a soma delas, no centro, é branca. A SOMA do vermelho com o verde é o amarelo e assim por diante. Qualquer cor visível pode ser obtida somando essa três cores, variando adequadamente a intensidade de cada uma delas. Na verdade, com essas três cores conseguimos cores que nem estão no espectro solar, como o marrom. Isso é usado na tela da televisão. Se você olhar bem de perto verá que a tela é coberta de pontos com apenas essas três cores. Vistos de longe, os pontos se mesclam e vemos toda a gama multi-colorida. Aliás, neste exato momento, todas as cores que você vê em seu monitor são a SOMA dessas três: vermelho, verde e azul (Red, Green e Blue, RGB).

Somando as cores primárias. SUBTRAIR cores consiste em eliminar uma ou mais das componentes da luz. Por exemplo, misturar tintas equivale a subtrair cores. Desde crianças, sabemos que tinta azul misturada com tinta amarela dá tinta verde. O que acontece é que os pigmentos da tinta azul absorvem as componentes do lado vermelho e os pigmentos da tinta amarela absorvem as componentes do lado azul. Sobram as componentes intermediárias, isto é, o verde.Subtraindo cores do branco.

A NATUREZA DA LUZ: ONDA OU PARTÍCULA Na antiga Grécia já eram conhecidos e estudados alguns fenômenos ópticos, tais como, reflexão, refração, decomposição da luz em prismas e havia também alguns grupos que definiam a natureza da luz conforme o preceito básico que defendiam. O filósofo grego Aristóteles (384-322 a.C.) foi a primeira pessoa, que se tem notícia, a adotar a natureza ondulatória da luz, pois para ele a luz era uma espécie de fluído imaterial que chegava aos nossos olhos, vindo dos objetos visíveis, através de ondas. Empédocles (492-432) considerava que a luz era parte de um dos quatro elementos, o fogo, sem contudo se confundir com este. Contrariamente a Pitágoras (582-500), que pensava ser a visão causada exclusivamente por algo emitido pelo olho, Empédocles acreditava que os corpos luminosos emitiam algo que encontrava os raios emanados dos olhos. Alguns filósofos antigos, adeptos do atomismo, consideravam a luz um fogo visual composto de partículas, diferentes, no entanto, das que compunham o restante dos objetos por serem bem menores. Tal concepção foi adotada por Epicuro (342-270), mas anteriormente havia sido modificada por Anaxágoras (500-428) que substituiu as partículas, semelhantes aos objetos, por partículas com propriedades individuais, tal como a cor, por exemplo. Euclides (330-270) foi partidário e grande defensor da teoria pitagórica que dizia ser a luz proveniente do olho, demonstrou, baseado na idéia de raio luminoso e da propagação retilínea, as leis da reflexão. Ptolomeu (90-147 ou 168?) tinha as mesmas concepções sobre a luz que Euclides, pensava que a cor era uma propriedade inerente aos corpos e fez estudos sobre campo visual e refração da luz demonstrando que uma moeda oculta no fundo de um copo poderia ser vista caso este fosse preenchido com água. Não foram somente os gregos que estudaram a luz e seu comportamento, há indícios de que tanto os árabes como os chineses conheciam alguns princípios básicos da Óptica. Os chineses utilizavam espelhos côncavos como queimadores na vida prática e o árabe Ibn Al-Haytham (965-1039), conhecido como Alhazen, fez vários estudos nessa área.

24

Page 25: Física-Médio Matéria

Al-Haytham rejeitava o princípio grego de que a luz emanava do olho, para ele a luz era emitida por uma força autoluminosa que constituía uma fonte primária, no entanto, a luz também poderia ser emitida por uma fonte secundária, caso das partículas de poeira que compõem um facho de luz solar, em ``forma de esfera'' (ver o princípio da ondas secundárias de Huygens). Al-Haytham descreveu as cores como sendo independentes dos objetos, mas presentes na luz, ou seja, misturadas a ela e nunca visíveis sem ela. É a Al-Haytham que devemos a introdução do conceito de ``raio de luz'' graças às suas explicações coerentes sobre alguns fenômenos ópticos. Robert Grosseteste (1168-1253) concebia a luz como a primeira forma de matéria-prima a ser criada, uma substância física que se propagava a partir de sua fonte, de onde surgiam as três dimensões do espaço. Inspirado nos trabalhos de Al-Haytham estudou a Óptica, que considerava uma ciência física básica, e muito contribuiu para o avanço da ciência. Leonardo da Vinci (1452-1519) também se interessou pela luz, mais do ponto de vista científico do que artístico, o que o levou a estudar fenômenos ópticos e a conhecer a câmara escura, precursora da máquina fotográfica e filmadora. René Descartes (1596-1650) foi outro grande cientista que se interessou em desvendar a natureza da luz. Sua opinião era a de que a luz era uma emissão de caráter corpuscular ligada a uma emissão vibratória. Para ele a luz não possuía caráter material, mas sim o meio através do qual a luz se propagava - o

éter. Embora Descartes tenha esclarecido a atual da Lei da Refração da luz ( ), ele se equivocou em relação à velocidade da luz ao dizer que esta aumentaria em meios mais densos do que menos densos. Numa época em que fervilhavam idéias, em 1665 um fenômeno interessante surge dos experimentos do padre Francesco Grimaldi (1618-1663) quando este examinava a sombra de um objeto delgado em uma câmara escura provocada por uma luz forte ao atravessar um pequeno orifício. Ao invés de uma imagem nítida o padre observou a formação de uma sombra mais larga e composta de partes claras e escuras, sobre isso afirmou, ``um corpo luminoso pode tornar-se obscuro quando se acrescente luz à luz que recebe''. O fenômeno descrito é o de difração e levou Grimaldi a uma concepção vibratória da luz. Através dessa concepção ele explicou que a formação de cores quando a luz atravessa o prisma é decorrente da ``mudança de velocidade do movimento vibratório, que essas diferenças de cor são produzidas pelas vibrações de um fluído que atua sobre o olho com velocidades diferentes, assim como a diversidade dos sons é devido à vibração do ar de rapidez desigual''.1 A relação das cores com o movimento vibratório levou Robert Hooke (1635-1703) a afirmar que o movimento da luz é produzido por ondas perpendiculares à linha de propagação. Temos aqui uma referência à transversalidade do movimento ondulatório que não foi aceita na época nem pelos defensores da teoria ondulatória da luz, dentre os quais podemos destacar Christiaan Huygens que publicou no ``Tratado sobre a luz'' em 1690, uma explicação para o fenômeno da reflexão e refração baseado no conceito de frente de ondas, atualmente conhecido como Princípio de Huygens. Este princípio diz que na propagação destas ondas, cada partícula do éter não só transmite o seu movimento à partícula seguinte, ao longo da reta que parte do ponto luminoso, mas também a todas as partículas que a rodeiam e que se opõem ao movimento. O resultado é uma onda em torno de cada partícula e que a tem como centro.2 Como vemos, a luz, para este cientista, constitui-se num movimento ondulatório que se propaga pelo éter semelhantemente ao som que se propaga pelo ar. Huygens tentou explicar também no Tratado um fenômeno bastante intrigante observado pelo dinamarquês Erasmo Bartolim (1625-1698) em 1669, a dupla refração produzida no cristal da Islândia. Ele dizia que o raio ``extraordinário'' característico do fenômeno, corresponderia à uma onda elipsoidal que se sobrepunha à onda esférica, correspondente ao raio ordinário. Huygens, além de não conseguir explicar a cor através de seu modelo ondulatório, afirmou que a velocidade da luz era mais lenta em meios mais densos, o que provocou a contestação por parte de alguns físicos. Edmond Halley (1656-1742), por exemplo, questionou de que forma a luz poderia voltar à velocidade anterior depois de atravessar um meio mais denso, mas ninguém o fez de forma tão presunçosa como Isaac Newton, que queria saber por que, já que a luz era onda, ela não se curvava ao redor dos objetos, quer dizer, queria saber por que existia a sombra se a luz, como onda, poderia contornar o objeto e iluminar o que estivesse por trás deste. Newton apresentou à Royal Society, em 1672, um estudo sobre a dispersão da luz, baseado em experimentos que fazia com prismas. Tais experimentos motivaram controvérsias no meio científico, pois naquela época a experimentação deveria ser utilizada para confirmar ou negar algum tipo de teoria. Impulsionado por esta controvérsia, pela ausência de explicação plausível para existência da sombra geométrica e também pelo fato de ser um atomista, propôs um modelo corpuscular para explicar a natureza da luz. (Credita-se a Heron de Alexandria (século II a.C.) a Lei da Reflexão, pois este percebeu que um raio de luz, ao incidir num espelho, é refletido com ângulo igual ao raio incidente. É possível que Newton tenha se posicionado a favor da teoria corpuscular ao relacionar o fenômeno descrito anteriormente com o fato de que uma bola, correndo num plano horizontal, ao bater num obstáculo, retorna formando com o obstáculo o mesmo ângulo que tinha ao chocar-se.) Newton declarou que a luz branca era composta de uma mistura de várias cores, tal afirmação foi decorrente dos vários experimentos realizados com o prisma, conforme já citamos. Essas cores correspondiam a uma variedade de partículas, cada tipo correspondente a uma cor. Sobre a reflexão e a refração, Newton propôs um engenhoso sistema de ``ajustes de fácil reflexão e de fácil refração'' que eram provocados por ``forças'' que atuavam sobre os corpúsculos e foi dessa forma que ele também explicou o fenômeno de difração da luz, descoberto por Grimaldi, as bordas dos objetos atuavam sobre os corpúsculos da luz fazendo com que houvesse a inflexão da mesma. Embora hoje saibamos que estava errado, estas explicações foram bem articuladas, diferentemente das relacionadas com o fenômeno da dupla refração no cristal da Islândia. Newton também não foi bem sucedido ao afirmar que a velocidade da luz aumenta quando esta passa de um meio menos denso para um meio mais denso. Estava montado o grande palco onde ocorreu a mais célebre discussão a respeito da natureza da luz, de um lado Huygens e seu modelo ondulatório, de outro Isaac Newton e seu modelo corpuscular. O conceito de corpúsculo, ou partícula, é completamente diferente do conceito de onda; uma partícula transporta matéria, uma onda não, uma partícula pode se locomover no vácuo, uma onda necessita de um meio para se propagar (nesse período era o que se pensava), uma onda atravessa obstáculos menores que seu comprimento, uma partícula não, enfim, para a Física Clássica ou a luz era uma coisa ou outra, consequentemente, ou aceitava-se o modelo ondulatório ou aceitava-se o modelo corpuscular, um descartava o outro e foi o que aconteceu por um certo período. O modelo de Newton prevaleceu sobre o de Huygens porque, além de sua explicação para as cores da luz ser bem coerente, sua fama pesou muito na escolha do ``melhor'' modelo, tanto que pode ser percebido através dos seguintes versos, escritos em 1860: Você pensa que Newton disse uma mentira, Aonde você espera ir quando morrer?3 Derrubar um mito nunca foi fácil, por isso aceitar o modelo contrário ao de Newton foi um trabalho bastante árduo enfrentado por alguns cientistas tendo à frente Thomas Young (1773-1829). Motivado pelo estudo da visão, Young questionou várias afirmações da teoria corpuscular de Newton. Ele não via nexo na explicação newtoniana quando pensava no fato de que a luz tinha a mesma velocidade mesmo sendo emitida por corpos diferentes e porque certos corpúsculos eram refletidos e outros refratados, pensava que uma teoria ondulatória explicaria bem melhor esses fenômenos. Young considerou que se a luz fosse ondas, elas poderiam, assim como as ondas do mar, anularem-se umas às outras ou intensificarem-se e foi nesse sentido que trabalhou para explicar o fenômeno da interferência, estudado por ele através do experimento da dupla fenda. Além da explicação sobre interferência luminosa, explicou, de forma bem simples, como eram formados os conhecidos ``anéis de Newton'' supondo que cada cor correspondia a um determinado comprimento de onda próprio. Interessante que Young utilizou dados do próprio Newton em seus trabalhos, como pode ser observado nos originais. Quanto ao fenômeno da difração e da dupla refração, as explicações de Young deixaram a desejar, por isso foi feito um desafio para que se apresentasse à Acadèmie des Sciences uma teoria matemática para explicar os fenômenos. Na época, muitos cientistas ainda aclamavam a teoria corpuscular de Newton como a correta para explicar a natureza da luz e foi através desta teoria que Étienne-Louis Malus (1775-1812) ganhou um prêmio ao explicar o fenômeno da reflexão da luz ocorrida em determinados ângulos em certas superfícies polidas, semelhante ao observado na dupla refração, apelidando-o de ``polarização'' (observar no original de Newton uma relação com este nome), Malus levou um prêmio da Acadèmie. O prêmio para a explicação matemática do fenômeno da difração foi para Augunstin Fresnel (1788-1827), defensor da teoria ondulatória da luz. Fresnel, utilizando raciocínios matemáticos, explicou a propagação retilínea da luz, as leis de Descartes (refração) e a difração. Um episódio interessante ocorreu durante uma demonstração de Fresnel, o matemático Denis Poisson (1781-1840), partidário da teoria corpuscular, previu uma coisa absurda caso a teoria

25

Page 26: Física-Médio Matéria

de Fresnel estivesse correta, um ponto brilhante deveria aparecer no centro da sombra projetada de um disco circular. Para verificar tal ocorrência, montou-se um dispositivo experimental e, para surpresa de muitos, verificou-se o fato. Esses acontecimentos quase (quase) sepultaram a teoria corpuscular da luz, mas faltava ainda uma explicação para a dupla refração, ou polarização, a partir da teoria ondulatória e uma comprovação da alteração da velocidade da luz em meios de diferentes densidades. A explicação do fenômeno da polarização da luz baseado no modelo ondulatório tropeçava no próprio modelo, pois acreditava-se que as ondas da luz eram longitudinais, no entanto, uma mudança de conceito estava por vir quando François Arago (1786-1853) juntou-se a Fresnel e, juntos, observaram um fato estranho: dois feixes polarizados não interferiam um com o outro, como se esperava. Arago noticiou o fato a Young que não tardou em presumir que, ao invés de longitudinais, as ondas da luz eram transversais. Arago e Fresnel continuaram o estudo e, pelas palavras de Arago, chegaram à seguinte conclusão: ...(estas propriedades da luz) conduzem diretamente à solução da seguinte questão: como se efetuam as ondulações da luz? No sentido da linha segundo a qual se popagam, ou perpendicularmente a essa linha? Este último modo de propagação parece resultar das nossas experiência; contudo julguei tão difícil admiti-lo que resolvi deixar ao meu colaborador sozinho o ``atrevimento'' dessa dedução.4 Podemos perceber, por estas palavras, o quanto a mudança de ondas longitudinais para transversais era difícil. Tal dificuldade decorria da existência de um meio através do qual as ondas luminosas deveriam se propagar -- o éter, mas isso é uma outra história. Bem, esses acontecimentos se deram por volta de 1819, foi preciso esperar até 1862 para que Léon Foucault realizasse o experimento para verificar a velocidade da luz na água. O resultado mostrou que, na água, a velocidade da luz era menor do que no ar, veredicto totalmente contrário à previsões do grande Isaac Newton. Deu-se então o sepultamento da teoria corpuscular da luz. (Vamos ver, mais para frente, que o cadáver corpuscular não estava completamente morto!) Michael Faraday (1791-1862), um cientista bastante dedicado à experimentação, demonstrou que um campo magnético podia inverter os planos de polarização da luz (Efeito Faraday) e alertou James Clerk Maxwell (1831-1879) sobre a relação entre a luz e os fenômenos eletromagnéticos. Este, aproveitando-se dos trabalhos matemáticos de Fresnell, chegou a certas equações que expressavam o comportamento de uma corrente elétrica e de seu campo magnético associado, tal qual as já determinadas para expressar o comportamento ondulatório da luz. Em 1864, ele chegou à conclusão de que ``luz e magnetismo são resultados de uma mesma substância, (...) a luz é um distúrbio eletromagnético propagado através do campo de acordo com as leis do eletromagnetismo.''5 A novidade do trabalho de Maxwell foi demonstrar que a luz era uma onda eletromagnética e que, portanto, com as ondas eletromagnéticas deveriam ocorrer os fenômenos de reflexão, refração, enfim, todos os que ocorrem com a luz. Embora estes conhecimentos fossem de real importância, faltava-lhes ainda o aval da comprovação experimental, realizada por Henrich Hertz (1857-1894). Hertz montou um oscilador constituído de quatro esferas metálicas unidas duas a duas por uma haste ligada aos terminais de uma bobina de Ruhmkorff (Figura 1), de onde conseguiu produzir ondas eletromagnéticas e provar que estas possuíam a mesma velocidade da luz e podiam sofrer reflexão, refração, polarização, difração e interferência. Além disso, Hertz também descobriu que outros tipos de ondas poderiam ser produzidas e, com isso, descobriu as ondas de rádio e as microondas. Sua contribuição foi crucial para a compreensão dos trabalhos de Maxwell e inaugurou a era do eletromagnetismo, uma era de grande desenvolvimento tecnológico e sócio-econômico. Um fenômeno assaz interessante foi percebido por Hertz por ocasião de suas atividades experimentais, ele notou que faíscas no transmissor aumentavam a sensibilidade do detector. Com a morte prematura de Hertz, seu auxiliar Philip Lenard (1862-1947) identificou a incidência de radiação ultravioleta juntamente com as faíscas, montou então um experimento para verificar o fenômeno e, através deste, percebeu que a luz arrancava cargas elétricas (ainda não fora descoberto o elétron) de uma placa emissora. Lenard chegou às seguintes conclusões: as cargas elétricas possuem velocidades iniciais finitas, mesmo num campo nulo e não dependem da temperatura; a intensidade da luz não influi na velocidade das cargas, mas sim sua freqüência; o efeito é observado a partir de uma determinada freqüência; o número de cargas emitidas depende da intensidade da luz. Era inviável explicar o fenômeno a partir da teoria ondulatória da luz, principalmente no tocante à relação entre a freqüência da luz e a velocidade das cargas.

Espectro EletromagnéticoO que têm em comum a luz, os raios X e as ondas de rádio? À primeira vista, nada, pois são fenômenos que apresentam propriedades muito diferentes. A luz ilumina os objetos, os raios X permitem ver o interior de nosso corpo e as ondas de rádio permitem a recepção de vozes, música e imagens.De outro ponto de vista, porém, essas radiações são semelhantes: qualquer uma delas é uma vibração de campos elétricos e magnéticos que se propagam no espaço com a velocidade da luz.Luz, raios X e ondas de rádio são ondas eletromagnéticas. O que as diferencia é o comprimento de onda. O conjunto de todas as ondas eletromagnéticas recebe o nome de espectro eletromagnético.

O ESPECTRO ELETROMAGNÉTICOO espectro eletromagnético é a distribuição da intensidade da radiação eletromagnética com relação ao seu comprimento de onda ou frequência. Regiões do Espectro EletromagnéticoA Tabela abaixo dá os valores aproximados em comprimento de onda, frequência e energia para regiões selecionadas do espectro eletromagnético.

Espectro de Radiação Eletromagnética

Região Comp. Onda(Angstroms)

Comp. Onda(centímetros)

Frequência (Hz)

Energia (eV)

Rádio > 109 > 10 < 3 x 109 < 10-5

Micro-ondas 109 - 106 10 - 0.01 3 x 109 - 3 x 1012 10-5 - 0.01

Infra-vermelho 106 - 7000 0.01 - 7 x 10-5 3 x 1012 - 4.3 x 1014 0.01 - 2

Visível 7000 - 4000 7 x 10-5 - 4 x 10-5 4.3 x 1014 - 7.5 x 1014 2 - 3

Ultravioleta 4000 - 10 4 x 10-5 - 10-7 7.5 x 1014 - 3 x 1017 3 - 103

Raios-X 10 - 0.1 10-7 - 10-9 3 x 1017 - 3 x 1019 103 - 105

Raios Gama < 0.1 < 10-9 > 3 x 1019 > 105

26

Page 27: Física-Médio Matéria

A representação gráfica do espectro eletromagnético é mostrada na figura abaixo. Notamos que a luz visível, os raios gamas e as microondas são todas manifestação do mesmo fenômeno de radiação eletromagnética, apenas possuem diferentes comprimentos de onda.

O Espectro da luz visívelO espectro visível pode ser subdividido de acordo com a cor, com vermelho nos comprimentos de onda longos e violeta para os comprimentos de onda mais curtos

Transferência de calorCondução O fluxo de calor por condução ocorre via as colisões entre átomos e moléculas de uma substância e a subsequente transferência de energia cinética. Vamos considerar duas substâncias a diferentes temperaturas separadas por uma barreira que é removida subitamente, como mostra a figura abaixo. Quando a barreira é removida, os átomos "quentes" colidem com os átomos "frios". Em tais colisões os átomos rápidos perdem alguma velocidade e os mais lentos ganham velocidade. Logo, os mais rápidos transferem alguma de sua energia para os mais lentos. Esta transferência de energia do lado quente para o lado frio é chamada de fluxo de calor por condução. Materiais diferentes transferem calor por condução com diferentes velocidades. Esta é uma medida da condutividade térmica. Condutividade térmica Se envolvermos um objeto a uma temperatura T2 com uma camada de um material, de modo a isolá-lo do ambiente externo a uma temperatura T1, então a condutividade térmica do material isolante determina a rapidez com que o calor fluirá através dele. A condutividade térmica k é definida através da equação Q/t = - k A T/x [6.1]Q/t é a taxa com que o calor flui através da área A, em Joules por segundo, ou Watts. T/x é a mudança de temperatura por unidade de distância x em graus Kelvin, ou Celsius, por metro. A condutividade térmica k é uma propriedade do material. Suponha que coloquemos um material entre dois reservatórios a diferentes temperaturas, como mostra a figura abaixo. Vamos agora medir o fluxo de calor, Q/t , através do material por unidade de tempo. Conhecendo a área transversa, A, e o comprimento, L, e a condutividade térmica do material, k, Q/t = - k(A/L) onde é a diferença de temperatura entre os reservatórios. O sinal menos significa que Q = Q2 - Q1 é positivo quando for negativo. Isto é, o fluxo de calor é da parte mais quente para a parte mais fria. Logo, para uma dada diferença de temperatura entre os reservatórios, os materiais com condutividade térmica maior irão transferir maiores quantidades de calor por unidade de tempo - tais materias, como cobre, são bons condutores térmicos. Ao contrário, materiais com pequenas condutividades térmicas irão transferir pequenas quantidades de calor por unidade de tempo - estes materais , como concreto, são condutores térmicos pobres. Esta é a razão porque se você põe um pedaço de cobre e um pedaço de concreto no fogo, o cobre irá aquecer muito mais rapidamente do que o concreto. Também é a razão porque o isolamento de fibra de vidro, e com penas de aves ou couro, possuem buracos com ar dentro do material - o ar parado é um condutor pobre de calor, e com isso ajuda a diminuir a perda de calor através do material. Os isolamentos de casas em países frios também são condutores de calor pobres, que mantêm o calor no interior. Ao contrário da condutividade térmica, o isolamento é usualmente descrito em termos de resistência térmica, Rt, que é definida por Rt = 1/k [6.2]Logo, materiais que possuem uma alta condutividade térmica são resistores térmicos pobres - ou seja, isolantes ruins. Por outro lado, materiais com pequena condutividade térmica possuem grande resistência térmica - são bons isolantes. Condutividades térmicas: (kcal/s)/ (oC m)

Alumínio 4,9 10-2

Cobre 9,2 10-2

Aço 1,1 10-2

Ar 5,7 10-6

Gelo 4 10-4

Madeira 2 10-5

Vidro 2 10-4

Amianto 2 10-5

1 kcal = 4184 JConvecção Este mecanismo não envolve transferência microscópica de calor, por átomos ou moléculas, como descrito acima. Convecção é o fluxo de calor devido a um movimento macroscópico, carregando partes da substância de uma região quente para uma região fria. Este mecanismo possui dois aspectos, um ligado ao princípio de Arquimedes e outro ligado à pressão. Suponha que tenhamos uma região de ar que se aquece. À medida que o ar se aquece as moléculas de ar se espalham, fazendo com que esta região se torne menos densa que o ambiente em torno, o ar não aquecido. Sendo menos denso ele se elevará - este movimento de ar quente para uma região mais fria é chamada de transferência de calor por convecção. Um bom exemplo de convecção é o aquecimento de uma panela de água. Quando a chama é ligada o calor é transferido primeiro por condução a partir do fundo da panela. Em um certo momento, a água começa a fazer bolhas - estas bolhas são de fato regiões locais de água quente subindo para a superfície, levando calor da parte quente para a parte mais fria no topo, por convecção. Ao mesmo tempo, a água mais fria, mais densa, do topo afundará, e será subsequentemente aquecida. Estas correntes de convecção são ilustradas na figura abaixo. Considere duas regiões separadas por uma barreira, uma a temperatura maior do que a outra, e suponha que a barreira seja removida em um certo instante. As correntes de convecção são ilustradas na figura abaixo. Quando a barreira é removida, o material na região de alta pressão (alta densidade) fluirá para a região de baixa pressão (baixa densidade). Se considerarmos que a regiào de baixa pressão é criada por uma fonte aquecedora, vemos que o movimento do material é equivalente à transferência de calor por convecção. Um outro exemplo de correntes de convecção que pode ser interpretado dessa maneira, envolve a criação de brisa para a costa próxima a grandes quantidades de água (ex., o mar). A água possui um grande calor específico, e subsequentemente mantém mais o calor. Logo, durante o dia o ar sobre a

27

Page 28: Física-Médio Matéria

água será mais frio do que sobre a terra. Isto cria região de baixa pressão sobre a terra, relativa à alta pressão sobre a água. Como consequência, uma brisa sopra da água para a terra. Por outro lado, durante a noite o ar sobre a água é um pouco mais quente do que sobre a terra, criando uma baixa pressão sobre a água relativa à alta pressão sobre a terra, e uma brisa sopra da terra para a água. Veja a ilustração abaixo.

RADIAÇÃO A terceira forma de transferência de calor é por radiação, que frequentemente chamamos de luz, visível ou não. Esta é a maneira, por exemplo, do sol transferir energia para a terra através do espaço vazio. Tal transferência não pode ocorrer por convecção ou condução, ambos os quais implicam em um movimento de material através do espaço de um lugar para outro. Frequentemente, a energia de calor pode ser utilizada para fazer luz, tal como aquela proveniente de uma fogueira. A luz, sendo uma onda, carrega energia, e pode mover-se de um lugar para outro sem a necessiade de um meio material. Ela pode estar na forma de luz visível quando ela nos alcança e a vemos, mas também pode estar na forma de infravermelho de um comprimento de onda maior, que é observada somente com detetores especiais de infra-vermelho. Transmissão de calor é a denominação dada à passagem da energia térmica ( que durante a transferência recebe o nome de calor) de um corpo para outro ou de uma parte para outra de um mesmo corpo. Essa transmissão pode se processar de três maneiras diferentes: condução, convecção e irradiação.

2. CONDUÇÃO É o processo de transmissão de calor em que a energia térmica passa de um local para outro através das partículas do meio que os separa. Na condução a passagem da energia de uma região para outra se faz da seguinte maneira: na região mais quente, as partículas têm mais energia, vibrando com mais intensidade; com esta vibração cada partícula transmite energia para a partícula vizinha, que passa a vibrar mais intensamente; esta transmite energia para a seguinte e assim sucessivamente. A condução de calor é um processo que exige a presença de um meio material e que, portanto, não ocorre no vácuo.

Verifica-se experimentalmente, que o fluxo de calor através de uma placa é proporcional à área da placa A, à diferença de temperatura entre os meios (1) e (2) que ela separa e é inversamente proporcional à espessura da placa L. onde C é o coeficiente de condutibilidade térmica do material da placa. Os metais são muito bons condutores de calor, logo, têm C "grande".A madeira é péssima condutora de calor, logo, tem C "pequeno". 3. CONVECÇÃO Consideremos uma sala na qual se liga um aquecedor elétrico em sua parte inferior.O ar em torno do aquecedor se aquece, tornando-se menos denso que o restante. Com isto ele sobe e o ar frio desce, havendo uma troca de posição do ar quente que sobe e o ar frio que desce. A esse movimento de massas de fluido chamamos convecção e as correntes de ar formadas são correntes de convecção. Portanto, convecção é um movimento de massas de fluido, trocando de posição entre si. Notemos que não tem significado falar em convecção no vácuo ou em um sólido, isto é, convecção só ocorre nos fluidos. Exemplos ilustrativos: 1) No verão, deve-se introduzir o ar refrigerado nas salas pela parte superior, para que, devido à sua maior densidade, ele desça, provocando a circulação de ar. No inverno, o ar quente deve ser introduzido pela parte inferior da sala. 2) À beira-mar, a areia, tendo calor específico sensível muito menor que o da água, se aquece mais rapidamente que a água durante o dia e se resfria mais rapidamente durante a noite. DURANTE O DIA: O ar próximo da areia fica mais quente que o restante e sobe, dando lugar a uma corrente de ar da água para a terra. É o vento que, durante o dia, sopra do mar para a terra. DURANTE A NOITE: O ar próximo da superfície da água se resfria menos. Com isto ele fica mais quente que o restante e sobe, dando lugar a uma corrente de ar da terra para a água. É o vento que, durante a noite, sopra da terra para o mar. Nas geladeiras o congelador é sempre colocado na parte superior, para que o ar se resfrie na sua presença e desça, dando lugar ao ar mais quente que sobe.As prateleiras são feitas em grades (e não inteiriças) para permitir a convecção do ar dentro da geladeira. 4. IRRADIAÇÃO É o processo de transmissão de calor através de ondas eletromagnéticas (ondas de calor). A energia emitida por um corpo (energia radiante) se propaga até o outro, através do espaço que os separa. Sendo uma transmissão de calor através de ondas eletromagnéticas, a radiação não exige a presença do meio material para ocorrer, isto é, a radiação ocorre no vácuo e também em meios materiais. Entretanto, não são todos os meios materiais que permitem a propagação das ondas de calor através deles. Toda energia radiante, transportada por onda de rádio, infravermelha, ultravioleta, luz visível, raio X, raio gama, etc., pode converter-se em energia térmica por absorção. Porém, só as radiações infravermelhas são chamadas de ondas de calor. ATENÇÃO: Um corpo bom absorvente de calor é um mau refletor. Um corpo bom refletor de calor é um mau absorvente. TODO BOM ABSORVENTE É BOM EMISSOR DE CALOR. TODO BOM REFLETOR É MAU EMISSOR. Exemplo: Corpos negros são bons absorventes e corpos claros são bons refletores de calor.

FONTES DE ENERGIAAs fontes de energia podem ser convencionais ou alternativas. Energia convencional é caracterizada pelo baixo custo, grande impacto ambiental e tecnologia difundida. Já a energia alternativa é aquela originada como solução para diminuir o impacto ambiental. Com essas duas fontes de energia, surgem também duas distinções: renováveis e não-renováveis.Renovável: é a energia que é extraída de fontes naturais capaz de se regenerar, consequentemente inesgotável. Ex: energia solar, energia eólica, etc. Não-renovável: é a energia que se encontra na natureza em quantidades limitadas, que com sua utilização se extingue. Ex: petróleo, carvão mineral, etc.BiocombustivéisAs vantagens da utilização dos biocombustivéis.Carvão MineralA poluição causada pelo carvão mineral.Energia HidrelétricaA utilização e a crise da energia hidrelétrica.Energia NuclearComo é produzida a energia nuclear.Energia SolarAs formas de captação da energia solar.

28

Page 29: Física-Médio Matéria

Gás NaturalA produção e distribuição do gás natural.Carvão VegetalA utilização do carvão vegetal.

RADIOATIVIDADEA radioatividade ou radiatividade (em Portugal: radioactividade) é um fenômeno natural ou artificial, pelo qual algumas substâncias ou elementos químicos, chamados radioativos, são capazes de emitir radiações, as quais têm a propriedade de impressionar placas fotográficas, ionizar gases, produzir fluorescência, atravessar corpos opacos à luz ordinária, etc. As radiações emitidas pelas substâncias radioativas são principalmente partículas alfa, partículas beta e raios gama. A radioatividade é uma forma de energia nuclear, usada em medicina (radioterapia), e consiste no fato de alguns átomos como os do urânio, rádio e tório serem “instáveis”, perdendo constantemente partículas alfa, beta e gama (raios-X). O urânio, por exemplo, tem 92 prótons, porém através dos séculos vai perdendo-os na forma de radiações, até terminar em chumbo, com 82 prótons estáveis.A radioatividade pode ser:Radioatividade natural: É a que se manifesta nos elementos radioativos e nos isótopos que se encontram na natureza e polui o meio ambiente. Radioatividade artificial ou induzida: É aquela que é provocada por transformações nucleares artificiais. Produz-se a radioatividade induzida quando se bombardeiam certos núcleos com partículas apropriadas. Se a energia destas partículas tem um valor adequado, elas penetram no núcleo bombardeado formando um novo núcleo que, no caso de ser instável, se desintegra posteriormente. Foi descoberta pelo casal “Joliot-Curie” (Frédéric Joliot e Irène Joliot-Curie), bombardeando núcleos de boro e alumínio com partículas alfa. Observaram que as substâncias bombardeadas emitiam radiações após retirar o corpo radioativo emissor das partículas alfa. O estudo da radioatividade permitiu um maior conhecimento da estrutura dos núcleos atômicos e das partículas subatômicas. Abriu-se a possibilidade da transmutação dos elementos, ou seja, a transformação de elementos em elementos diferentes. Inclusive o sonho dos alquimistas de transformar outros elementos em ouro se tornou realidade, mesmo que o processo economicamente não seja rentável.Comprovou-se que a radiação pode ser de três classes diferentes:Radiação alfa São fluxos de partículas carregadas positivamente, compostas por 2 nêutrons e 2 prótons (núcleo de hélio). São desviadas por campos elétricos e magnéticos. São muito ionizantes porém pouco penetrantes. Quando um radioisótopo ( que possui núcleo instável ) emite uma partícula alfa, seu número de massa (A) diminui 4 unidades e o seu nº atômico diminui 2 unidades.Radiação beta São fluxos de elétrons resultantes da desintegração de neutrons do núcleo (ver "Leis de Soddy e Fajans" abaixo para uma melhor interpretação de "desintegração"). É desviada por campos elétricos e magnéticos. É mais penetrante porém menos ionizante que a radiação alfa.Radiação gama São ondas eletromagnéticas. É o tipo mais penetrante de radiação. Não apresenta carga elétrica e não é afetada pelos campos elétricos e magnéticos. É uma radiação muito perigosa aos organismos vivos. Com o recebimento da Radiação Gama, pode-se alterar o material genético da pessoa, fazendo com que seus filhos tenham alta possibilidade de nascerem cegos, surdos, mudos ou com alguma deficiência.Leis de Soddy e FajansAs leis da desintegração radioativa, descritas por Soddy e Fajans, são:Quando um átomo radioativo emite uma partícula alfa, o número de massa do átomo resultante diminui em 4 unidades e o número atômico em 2 unidades. Quando o átomo radioativo emite uma partícula beta, o número de massa do átomo resultante não varia e o seu número atômico aumenta em 1 unidade. Quando um núcleo "excitado" emite uma radiação gama não ocorre variação no seu número de massa e número atômico, porém ocorre uma perda de uma quantidade de energia "hv". As duas primeiras leis nos indicam que, quando um átomo emite uma radiação alfa ou beta, transforma-se em outro átomo de elemento químico diferente. Este novo elemento pode ser radioativo, transformando-se em outro, e assim sucessivamente, dando lugar às chamadas "séries radioativas".Desse modo, a emissão de partículas alfa e beta pelos átomos instáveis muda seu número atômico, transformando-os em outros elementos. O processo de desintegração nuclear só termina com a formação de átomos estáveis. O urânio-238, por exemplo, vai sofrendo decaimento até formar o elemento chumbo-206.

O QUE É RADIOATIVIDADE? Existem na Natureza alguns elementos fisicamente instáveis, cujos átomos, ao se desintegrarem, emitem energia sob forma de radiação. Dá-se o nome radioatividade justamente a essa propriedade que tais átomos têm de emitir radiação.O urânio-235, o césio-137, o cobalto-60, o tório-232 são exemplos de elementos fisicamente instáveis ou radioativos. Eles estão em constante e lenta desintegração, liberando energia através de ondas eletromagnéticas (raios gamas) ou partículas subatômicas com altas velocidades (partículas alfa, beta e nêutrons). Esses elementos, portanto, emitem radiação constantemente.A radioatividade foi descoberta pelos cientistas no final do século passado. Até aquela época predominava a idéia de que os átomos eram as menores partículas de qualquer matéria e semelhantes a esferas sólidas. A descoberta da radiação revelou a existência de partículas menores que o átomo: os prótons e os nêutrons, que compõem o núcleo do átomo, e os elétron, que giram em torno do núcleo. Essas partículas, chamadas de subatômicas, movimentam-se com altíssimas velocidades. Descobriu-se também que os átomos não são todos iguais. O átomo de hidrogênio, por exemplo, o mais simples de todos, possui 1 próton e 1 elétron (e nenhum nêutron). já o átomo de urânio-235 conta com 92 prótons e 143 nêutrons.

O lado útil e o lado destrutivo da radioatividade. Os elementos radioativos, quando bem manipulados, podem ser úteis ao seres humanos. O césio-137, por exemplo, é muito utilizado em tratamento de tumores cancerosos. A humanidade convive no seu dia-a-dia com a radioatividade, seja através de fontes naturais de radiação (os elementos radioativos que existem na superfície da Terra ou os raios cósmicos que vêm do espaço), seja pelas fontes artificiais, criadas pelo próprio homem: o uso de raios X na medicina, as chuvas de partículas radioativas produzidas pelos testes de armas nucleares, etc. Os efeitos da radioatividade no ser humano dependem da quantidade acumulada no organismo e do tipo de radiação. A radioatividade é inofensiva para a vida humana em pequenas doses, mas, se a dose for excessiva, pode provocar lesões no sistema nervoso, no aparelho gastrintestinal, na medula óssea, etc., ocasionando por vezes a morte (em poucos dias ou num espaço de dez a quarenta anos, através de leucemia ou outro tipo de câncer). Existem vários tipos de radiação; alguns exemplos: partículas alfa, partículas beta, nêutrons, raios X e raios gama. As partículas alfa, por terem massa e carga elétrica relativamente maior que as outras citadas, podem ser facilmente detidas, até mesmo por uma folha de papel; elas em geral não conseguem ultrapassar as camadas externas de células mortas da pele de uma pessoa, sendo assim praticamente inofensivas. Entretanto, podem ocasionalmente penetrar no organismo através de um ferimento ou por aspiração, provocando lesões graves. Sua constituição é de núcleos de Hélio, dois prótons e dois nêutrons, podendo ser representadas por 42 a Possuem as seguintes características: > Velocidade inicial variando de 3000 a 30 000 km/s (velocidade média em torno de 20 000 km/s ou 5% da velocidade da luz) > Pequeno poder de penetração. São detidas por uma camada de 7 cm de ar, uma folha de papel ou uma chapa de alumínio, com 0,06 milímetros de espessura. ao incidir sobre o corpo humano, são detidas pela camada de células mortas da pele, podendo, no máximo, causar queimaduras.Já as partículas beta são capazes de penetrar cerca de um centímetro nos tecidos, ocasionalmente danos à pele, mas não aos órgãos internos, a não ser que sejam engolidas ou aspiradas. As partículas beta são semelhantes aos elétrons, possuem massa desprezível e carga elétrica (relativa) igual a -1. São portanto, representados por 0-1 b

29

Page 30: Física-Médio Matéria

Possuem as seguintes características: > Velocidade inicial variando entre 100 000 e 290 000 km/s, ou seja, até 95% da velocidade da luz. > Médio poder de penetração. São de 50 e 100 vezes mais penetrantes que as partículas alfa. Atravessam alguns metros de ar e até 16 mm de madeira. São detidas por lâminas de alumínio com 1cm de espessura ou por lâminas de chumbo com espessura maior que 2mm. Ao incidirem sobre o corpo humano, podem penetrar até 2cm e causar sérios danos.Os raios gama e os raios X são extremamente penetrantes, podendo atravessar o corpo humano, sendo detidos somente por uma parede grossa de concreto ou metal.As radiações gama são semelhantes ao Raios X. Não possuem massa e nem carga elétrica, são portanto representados por 00 gPossuem as seguintes características: > Velocidade igual à velocidade da luz, ou aproximadamente 300 000 km/s. > Alto poder de penetração. os raios gama são mais penetrantes que os raios X, pois possuem comprimentos de onda bem menores, variando entre 0,1e 0,001 angstrons. Atravessam milhares de metros de ar, até 25 cm de madeira ou 15 cm de espessura de aço. São detidos por placas de chumbo com mais de 5cm de espessura ou por grossas paredes de concreto. Podem atravessar completamente o corpo humano causando danos irreparáveis.Os efeitos da radiação Ser atingido por radiação é algo sutil e impossível de ser percebido imediatamente, já que no momento do impacto não ocorre dor ou lesão visível. Bem diferente de ser atingido por uma bala de revólver, por exemplo, cujo efeito destrutivo é sentido e contatado na hora. A radiação ataca as células do corpo individualmente, fazendo com que os átomos que compõem as células sofram alterações em sua estrutura. As ligações químicas podem ser alteradas, afetando o funcionamento das células. Isso, por sua vez, provoca com o tempo conseqüências biológicas no funcionamento do organismo como um todo; algumas conseqüências podem ser percebidas a curto prazo, outras a longo prazo.; às vezes vão apresentar problemas somente os descendentes (filhos, netos) da pessoa que sofreu alguma alteração genética induzida pela radioatividade.Emiliano [email protected] CONSERVAÇÃO DA MASSAA Lei da Conservação das Massas foi publicada pela primeira vez 1760, em um ensaio de Mikhail Lomonosov. No entanto, a obra não repercutiu na Europa Ocidental, cabendo ao francês Antoine Lavoisier o papel de tornar mundialmente conhecido o que hoje se chama Lei de Lavoisier.Preocupado em utilizar métodos quantitativos, Lavoisier tinha a balança como um de seus principais instrumentos em atividades experimentais.Por volta de 1774, o químico francês realizava experiências sobre a combustão e a calcinação de substâncias. Observou que, dessas reações, sempre resultavam óxidos cujo peso era maior que o das substâncias originalmente usadas.Informado sobre as características do gás que ativava a queima de outras substâncias (que mais tarde foi denominado pelo próprio Lavoisier como oxigênio, que quer dizer gerador de ácidos), passou a fazer experiências com o mesmo e acabou por deduzir que a combustão e a calcinação nada mais eram que o resultado da combinação desse gás com as outras substâncias. E que a massa aumentada dos compostos resultantes correspondia à massa da substância inicialmente empregada, mais a massa do gás a ela incorporado através da reação.

Lei de LavoisierOs estudos experimentais realizados por Lavoisier levaram-no a concluir que, numa reação química que se processe num sistema fechado, a massa permanece constante, ou seja, a soma das massas dos reagentes é igual à soma das massas dos produtos:m(reagentes) = m(produtos)Assim, por exemplo, quando 2 gramas de hidrogênio reagem com 16 gramas de oxigênio verifica-se a formação de 18 gramas de água; do mesmo modo, quando 12 gramas de carbono reagem com 32 gramas de oxigênio ocorre a formação de 44 gramas de gás carbônico.Através de seus trabalhos, pôde enunciar uma lei que ficou conhecida como Lei da Conservação das Massas ou Lei de Lavoisier:"Numa reação química que ocorre em sistema fechado, a massa total antes da reação é igual à massa total após a reação". ou,"Numa reação química a massa se conserva porque não ocorre criação nem destruição de átomos. Os átomos são conservados, eles apenas se rearranjam. Os agregados atômicos dos reagentes são desfeitos e novos agregados atômicos são formados". Ou ainda, filosoficamente falando,"Na natureza nada se cria, nada se perde, tudo se transforma". O que hoje pode parecer evidente, nem sempre o foi. Queimando-se magnésio, cientistas anteriores a Lavoisier observavam um aumento de massa, enquanto que, queimando enxofre, notavam uma perda de massa. Coube a Lavoisier, percebendo que esses ensaios deveriam ser feitos em sistemas fechados, esclarecer que as diferenças de massas eram devidas à absorção ou liberação de gases durante as reações.Atualmente sabemos que a lei de Lavoisier como inicialmente foi proposta nem se verifica. É possível a perda de massa no decurso de uma reacção libertando-se energia (fenómeno explicável pela teoria da relatividade). O que se deverá verificar sempre é a primeira lei da termodinâmica.

CONSERVAÇÃO DA MASSAA equação da conservação da massa expressa um cálculo para a adição e remoção da massa de uma região definida de fluído. Considere um volume de fluído fixo, não deformável, chamado de volume controle (vc) que possui um contorno de superfície definido, chamado desuperfície controle (sc). A conservação da massa exige que a taxa temporal de variação de massa dentro do volume controle seja igual à taxa na qual a massa adentra no volume controle mais a taxa na qual a massa é obtida ou perdida dentro do volume controle em virtude das fontes e consumo. Uma expressão matemática dessa lei está descrita abaixo.Dentro do volume controle existe a distribuição de algumas espécies definidas pelo campo de concentração, C(x, y, z). A massa total dentro do volume controle é M pode mudar durante o tempo em virtude de fontes e consumo localizados dentro do volume, ou em virtude fluxos de massa através dos contornos do volume controle. Em um sistema de fluído existem duas formas de fluxo de massa: advecção e difusão. O fluxo líquido da massa para fora do volume controle em virtude da advecção é descrito pela integral Aqui, é o vetor de velocidade e ñ é a normal de direção externa para o segmento de superfície dA. representa o componente de velocidade perpendicular ao segmento de área dA. A definição de ñ como a normal de direção externa torna (2) o fluxo líquido para fora de . Isso é, o fluxo para fora de (mesma direção de ñ) contribui de forma positiva para a integral e o fluxo para (em oposição a ñ) contribui de forma negativa. O fluxo líquido do volume controle em virtude da difusão é definido através da Lei de Fick.Observe que os gradientes de concentração são definidos ao longo do eixo ñ, i.e. em todos os locais perpendiculares à superfície e posição em direção externa. Chamando D n de coeficientes de difusão ao longo do eixo ñ permite a anisotropia em D. No caso de difusão molecular e/ou turbulência isotrópica, D não é uma função de direção e o subscrito pode ser cancelado. A expressão matemática final para a conservação da massa combina (1), (2) e (3).Conservação da Massa em Forma Integral (Volume Controle) (4) taxa de tempo de variação de massa dentro do vc fluxo Advectivo para dentro do volume controle fluxo difuso para dentro do volume controle Fonte consumidorProblemas-exemplo usando a forma integral da Conservação da Massa (abrir a partir da página principal para visualizar em uma nova janela) Forma Diferencial da Conservação da Massa A forma diferencial da conservação da massa é derivada avaliando (4) para um volume cúbico infinitamente pequeno. O volume é pequeno o suficiente para assumirmos que a concentração dentro do volume é essencialmente uniforme. O volume é rígido, de

30

Page 31: Física-Médio Matéria

forma que as dimensões , e são constantes. As duas integrais de superfície (termos 2 e 3 em (4)) são reduzidas a uma soma de fluxos através de cada uma das seis faces do cubo.Como exemplo, considere fluxos na direção x através das faces numeradas 1 e 2 e localizadas em x=x1e x2 , respectivamente.Na face 1, ñ aponta para a direção negativa n, de forma que e .A avaliação da integral da superfície para a face 1 é então, (6) Fluxo através de Semelhantemente para a face 2, mas observando que ñ aponta para direção positiva x, (7) Fluxo através de O fluxo líquido de direção x para dentro do volume controle é a soma de (6) e (7). (8) O fluxo líquido em Se assumirmos que C, u, e Dxsão funções contínuas de x, pode-se usar a expansão de Taylor para expressar cada parâmetro em x2como uma função do mesmo parâmetro em x 1 .termos de ordem superiorSe cancelarmos os termos de ordem superior e substituirmos (uC)2e em (8) com as expressões em (9) e (10), então (8) será (11) Fluxo líquido em Expressões semelhantes podem ser encontradas para o fluxo através das outras quatro faces.Combinando essas em (5) e observando que , Conservação da Massa em Forma Diferencial Essa expressão pode ser simplificada sob as seguintes condições.Primeiro, considere a expansão dos fluxos advectivos em (12), Se o campo do fluxo for incompressível, então de continuidadeIsso elimina os termos em colchetes em (13). Dessa forma, a conservação da massa para fluxo incompressível pode ser expressa como se segue. Por convenção, os termos advectivos são trazidos para a esquerda.Conservação da Massa para Fluxo IncompressívelAlém disso, quando os coeficientes de difusão são homogêneos, DiI [ \ RX ] Se os coeficientes de difusão forem adicionalmente isotrópicos, Dx= Dy= Dz, entãoA difusão molecular do fluxo laminar controla o fluxo difusivo. De forma geral, a difusão molecular é homogênea e isotrópica, de forma que (14b) é adequada para o fluxo laminar. O transporte turbulento do fluxo turbulento domina o fluxo difusivo. Comumente, o campo de turbulência é heterogêneo e anisotrópico, o que também acontece com os coeficientes de difusão.

2.1 Derivada MaterialO movimento do fluído e qualquer constituinte (temperatura, concentração) transportados pela movimentação dos fluídos podem ser descritos a partir de duas estruturas de referência, uma estacionária e uma que se move ao longo do fluxo. Na perspectiva Euleriana, o fluxo e seus constituintes escalares são descritos em relação à posições espaciais fixas, = (x, y, z) e com relação ao tempo (t) e são expressos por exemplo. e . A perspectiva Lagrangiana considera o movimento com o fluxo e traça o histórico das partículas individuais do fluído. Diferentemente da perspectiva Euleriana, na qual a posição espacial é uma referência fixa, na perspectiva Lagrangiana, a posição espacial é outra variável da partícula. As variáveis do fluxo são expressas em relação ao tempo (t) e em relação à uma única posição inicial de referência, por exemplo da posição da partícula em t=0 de tal forma que as variáveis são registradas como e . A representação da perspectiva Euleriana é geralmente mais fácil e, por esse motivo, mais comum na análise e descrição do fluxo. No entanto, a física e transporte do fluxo são mais fundamentais em relação à perspectiva Lagrangiana. Por exemplo, as equações de Navier-Stokes representam essencialmente a segunda lei de Newton aplicada às partículas do fluído. Para problemas de transporte, por exemplo ao acompanharmos a evolução do trajeto do fitoplâncton à medida em que ele cresce (fonte) e serve de alimento (consumo) e espalha-se por difusão, é possível observar novamente a vantagem conceitual da perspectiva Lagrangiana: prever a concentração através do acompanhamento do trajeto. Uma vez que ambas asperspectivas são importantes, é essencial compreender sua correlação.Considere F (x, y, z, t) como qualquer variável no fluxo descrito em termos de coordenada Euleriana fixa (x, y, z). Queremos relacionar essa descrição a uma perspectiva Lagrangiana, especificamente para descrever a taxa de variação em F observada durante o acompanhamento de uma única partícula através do fluxo. Primeiro podemos descrever uma variação em F, chamada dF, em virtude de uma pequena variação na posição espacial e/ou tempo (dt), como Depois, restringimos os aumentos dt e d[x] de forma que eles sigam a trajetória de uma partícula individual, especificamente, dx = u, dt, dy = v e dz = w dt. Então (15) torna-se Dividindo por dt resulta em uma derivada que representa a taxa de variação em F observada durante o acompanhamento da trajetória de uma partícula do fluído. Para enfatizar essa definição especial, a derivada é chamada de DF/Dt, i.e. A notação DF/Dt é chamada derivada material (também a derivada da partículas, derivada substancial e derivada total) para enfatizar que ela foi calculada durante o acompanhamento de uma partícula de fluído. A derivada material possui duas partes. Primeira, , chamada de derivada local, representa a taxa de variação em qualquer ponto fixo. Para um fluxo estável, . Os termos restantes, , são chamados de derivada advectiva porque seu registro muda em F, que surge quando o elemento fluido surge poradvecção através de um gradiente espacial em F. As animações ajudam a demonstrar a derivada material.Campo de Temperatura Estável: Essa animação mostra um sistema unidimensional com um gradiente espacial de temperatura, T(x). Uma sonda de temperatura (ponto branco) move-se com o fluxo, fazendo uma observação Lagrangiana. A sonda registra a derivada material (total), que unidimensionalmente é Sondas localizadas em posições fixas A, B e C fazem observações Eulerianas. Elas mostram campos de temperatura estáveis, , de forma que a derivada material é igual à derivada advectiva, . Isso é quantificado no canto inferior direito da animação. O campo de temperatura mostrado aqui poderia ser resultante de um fluxo uniforme e estável através de um elemento de aquecimento. A temperatura do fluído aumenta à medida que o calor é adicionado ao longo do trajeto do fluxo.

Campo de Temperatura Instável: Essa animação mostra um sistema unidimensional com um campo de temperatura instável, T(x,t). Uma sonda de temperatura move-se com o fluxo (ponto branco) a uma velocidade (u), e registra a derivada material dada em (18). Três sondas adicionais estão localizadas em posições fixas A, B e C. Essas sondas registram a derivada

31

Page 32: Física-Médio Matéria

local, , que é diferente de zero (instável), mas que é a mesma em cada posição. O valor de cada derivada é dado no canto inferior direito. Fluxo Estável e Acelerado Espacialmente em um Cano: Nessa animação, um fluxo através deum cano é acelerado corrente abaixo à medida que a secção transversal do cano diminui, . Três sondas medindo o fluxo em posições fixas A, B e C mostram que o fluxo é estável em cada posição. Outra sonda de velocidade está movendo-se com o fluxo (ponto azul) e registra a derivada material (total), Du/Dt. Dentro de cada secção do cano, Du/Dt=0, como mostrado pelo traço azul no gráfico Velocidade vs. Tempo. Nas variações de etapa na área da secção transversal, o fluído é acelerado localmente, e nessas posições .Qual é a velocidade média nesse sistema? Da perspectiva de transporte, a melhor definição da velocidade média é a definição Lagrangiana, i.e. a velocidade média experienciada pela sonda movendo-se através do fluxo. São necessários 109 segundos para a sonda atravessar o cano de 90 metros de extensão. Isso resulta em uma velocidade média de 90/109 = 0,83 ms-1. é possível definir uma velocidade Euleriana média com base na média espacial de velocidade dentro das três secções. Uma vez que a extensão dos segmentos é igual dentro desse sistema unidimensional, a média é direta (0,50 + 0,89 + 2,0) = 1,13 m/s. Esse valor não é significativo, entretanto, a perspectiva de transporte, porque ela não prevê o tempo de viagem através dosistema, .

32