Gripe, HPV, vírus marinhos

Gripe

Influenza vírus

Algumas doenças causadas por vírus são antigas conhecidas da humanidade. A gripe, por exemplo, é provocada em sua maior parte pelo rinovírus, o vírus sincicial respiratório (VSR) e o vírus influenza. São esses os causadores mais frequentes da gripe comum e infecções do trato respiratório. Biólogos e médicos estimam que 30% dos casos deste tipo de doença podem estar associados a vírus ainda desconhecidos.

A gripe afeta aves e mamíferos causando os sintomas conhecidos: calafrios, febre, corrimento nasal, dor de garganta e musculares, dores de cabeça, tosse, fadiga e sensação geral de desconforto. Muito se especulou sobre a causa dessa doença. No passado se sugeriu que ela fosse provocada no indivíduo que passa de um ambiente quente para um gelado. Também foram procuradas, sem sucesso, bactérias causadoras de gripe. Em 1914 Walter Kruse, um microbiólogo alemão, mostrou que a gripe é causada por um vírus. Ele preparou uma mistura com muco do nariz de um assistente gripado, filtrada para eliminar quaisquer possíveis bactérias e aplicou a solução nas narinas de 12 outros auxiliares. Destes 6 ficaram gripados. Depois ele repetiu a experiência com 36 estudantes dos quais 15 adoeceram. Comparando com uma amostra de pessoas não expostas à sua solução ele concluiu que um agente muito pequeno (pois havia atravessado o filtro) causara a gripe.

Quase sempre a gripe é transmitida por aerosóis, a nuvem de material líquido expelido no ar por tosse ou espirro carregando gotículas que contêm o vírus. Mas ela também pode ser adquirida por contato direto com superfícies contaminadas. Neste último caso a mão levada ao rosto, em particular ao nariz, transporta o vírus até a região onde ele pode se instalar e multiplicar. Daí a necessidade de lavar as mãos adequadamente e com frequência. O vírus da gripe pode ser destruído pela luz solar, desinfetantes e detergentes, que desmancham a sua capa protetora de proteína.

Os tratamentos caseiros usuais contra a gripe podem ser um paliativo para os seus sintomas mas não afetam o vírus e seu ciclo. Alguns tratamentos, além de não resolver o problema, podem trazer efeitos colaterais perigosos. Xaropes para tosse são um exemplo. Ainda existem pessoas que buscam auxílio se automedicando com antibióticos que podem ser eficazes contra bactérias mas são inúteis no combate aos vírus. Antibióticos podem ser perigosos para o organismo e contribuem para agravar o problema das bactérias resistentes à drogas que evoluem em nosso corpo e no meio ambiente.

Hoje estão sendo desenvolvidos os chamados antivirais, que são medicamentos que agem para impedir a replicação viral. Também existem as vacinas que são um meio eficaz e bastante seguro de impedir que o vírus se instale. Vacinas servem para produzir no organismo do paciente as defesas necessárias no combate aos invasores virais antes que se instalem. Elas, no entanto, têm uma séria limitação dada a capacidade do vírus de evoluir rapidamente. A vacina produzida em um ano pode perder sua eficácia no próximo ano.

A gripe se propaga com mais eficiência nas estações frias e, por isso, ela aparece em ciclos sazonais que podem ser bastante graves. Gripes provocam anualmente entre 3 e 5 milhões de casos graves, dos quais entre 250 a 500 mil evoluem para a morte. Esse número pode chegar a milhões em casos de pandemias. Somente no século 20 três cepas diferentes do vírus da gripe provocaram pandemias em humanos causando a morte de dezenas de milhões de pessoas. Apesar dos vírus serem especializados em sua capacidade de invadir uma célula, já se observou casos em que uma cepa que aflige uma espécie animal sofre mutações e se habilitam a infectar humanos. Também pode ocorrer que um vírus adaptado ao organismo humano, com o qual já estamos acostumados, anexe partes de DNA de outro vírus que antes só infectava animais.

Rinovírus https://commons.wikimedia.org/w/index.php?curid=1867087

Rinovírus e influenza vírus se reproduzem rapidamente, produzindo novos vírus até que a célula hospedeira fique repleta de vírus e se rompa, morrendo. No entanto, um número baixo de células, se comparado a outras infecções por vírus, são afetadas nesses casos. De fato eles não causam um dano tão grande antes de ser impedido pelas defesas do organismo. Ocorre que as células infectadas emitem um sinal que atrai as defesas do organismo que, em seu empenho para se livrarem do problema, e acabam provocando parte dos sintomas que sentimos. Elas criam a inflamação que gera a garganta irritada e provocam o muco na região da infecção.

Enquanto o Rinovírus se derivou de outras cepas de vírus já adaptadas ao organismo humano, o Influenza era, originalmente, um vírus especializado em pássaros. Os pássaros carregam todas as espécies de influenza vírus que afligem os humanos, além de outros que não podem nos afetar. Nem todos os pássaros infectados adoecem, mas o vírus se aloja em seus intestinos e são espalhados por suas fezes.

O vírus da influenza em aves está bem adaptado ao hospedeiro e se multiplica rapidamente. Como vírus sofrem mutações rápidas ocorre que algumas delas os habilitam para fazer o salto entre espécies, se tornando vírus humanos. Foi o que ocorreu em 2005 no sudeste da Ásia quando o H5N1 infectou centenas de pessoas. Esse vírus é muito mais agressivo do que cepas usuais de gripe e exigiu a tomada de ações drásticas para o controle de sua difusão. Por enquanto o H5N1, diferente de outras cepas, só pode se movimentar de pássaros para humanos. A contaminação entre humanos não foi observada.

Assim como ocorre com humanos, outros mamíferos, como cavalos e cachorros, também podem ser contaminados com o influenza vírus dos pássaros. No início de 2009 se descobriu, no México, uma transferência de vírus para porcos. Os suínos possuem, em seus organismos, células com receptores para o vírus humano, mas também células que recebem o vírus dos pássaros. Dentro de seus corpos pode ocorrer a mistura genética de cepas diversas que se tornam aptas a infectar humanos. Foi o que ocorreu no México com o surgimento da gripe conhecida como H1N1 ou gripe suína, que mais tarde se espalhou para todo o planeta. O H1N1 combinou genes da gripe humana, aviária e suína. Essa gripe foi declarada uma pandemia pela OMS em 2009 e causou mais de 18 mil mortes confirmadas em laboratório dentre um total estimado de até 575 mil casos.

A movimentação constante de genes entre vírus de mesma cepa, ou de cepas diversas, tem uma função importante na manutenção e evolução do vírus. Quanto mais um tipo de vírus se espalha mais o corpo de seu hospedeiro aprende a combatê-lo. As mutações servem para que novas estruturas genéticas sejam criadas, com tipos ainda não reconhecidos por hospedeiros. Assim como ocorre com todos os demais seres vivos as mutações são aleatórias e não seguem nenhum plano de aperfeiçoamento do vírus. Mutações que geram estruturas mais eficientes para se autoconservar e se multiplicar prosperam gerando muitos outros elementos com sua mesma genética. A maioria das mutações, no entanto, são irrelevantes ou trazem alterações desfavoráveis que são simplesmente destruídas.

Papilomavírus Humano, HPV (human papiloma virus)

Outra espécie que traz grande sofrimento para humanos são os papilomavírus. O cientista Richard Shope ouviu contar a lenda dos coelhos chifrudos (os jackalopes) no Wyoming, EUA. Ele recebeu de um colega uma amostra de tecido de um coelho com uma deformação na cabeça em forma de chifre que era, na verdade, um tumor. Para testar a hipótese de que aqueles tumores eram causados por vírus ele realizou o procedimento clássico de produzir um líquido com esse tecido e passá-lo por filtros de porcelana com poros diminutos, capazes de eliminar as bactérias conhecidas. A solução filtrada foi aplicada na cabeça de coelhos saudáveis que também desenvolveram chifres e tumores. Com isso Shope mostrou que o agente infeccioso era um vírus e, além disso, que vírus podiam causar tumores.

Francis Rous, um dos colegas de Shope, recebeu uma amostra do líquido peneirado e o aplicou no corpo dos coelhos que, dessa vez, não desenvolveram chifres e sim tumores cancerosos agressivos que os matavam. Esse trabalho solidificou o entendimento de que vírus causam câncer e deu o Nobel de medicina para Rous em 1966.

Muitos outros pesquisadores continuaram o estudo de como vírus podem provocar câncer em animais. Grandes verrugas podem surgir na pele de mamíferos, incluindo o gado, tigres, golfinhos e humanos, chegando a encobrir completamente seus membros ou rosto. O vírus responsável por isso foi denominado papilomavírus. Nos humanos ele é chamado de papilomavírus humano ou HPV (human papilomavirus). Aos poucos se verificou que esse vírus gera danos muito mais graves que meras verrugas.

Tumores cervicais em mulheres é um exemplo disso. Já era notado que a ocorrência de câncer cervical em mulheres satisfazia critérios similares aos de doenças sexualmente transmissíveis. Grupos com comportamento sexual mais restrito, como freiras por exemplo, contraiam câncer cervical com menor frequência que outras mulheres. A hipótese de que esse tipo de câncer era causado por um vírus espalhado pela relação sexual foi testada por Harald zur Hausen, prêmio Nobel em Medicina em 2008. Analisando o tecido extraído de tumores ele encontrou diversas cepas diferentes de HPV, número mais tarde ampliado para pelo menos uma centena delas. Essa modalidade de câncer é a terceira maior causa de mortes entre mulheres, superada apenas por cânceres de seio e pulmão.

O HPV é especializado na infecção de células epiteliais, aquelas que revestem a superfície externa das cavidades internas e externas do organismo formando a pele e membranas mucosas. Quando inserido no organismo ele encontra o tecido apropriado, o único que consegue infectar, e injeta seu DNA dentro das células hospedeiras. Os genes virais se espalham pelo interior da célula e alcançam seu núcleo, onde reside o DNA da hospedeira. O mecanismo de reprodução celular é usado para replicação dos genes virais e construção das proteínas do vírus que, por sua vez, alteram a célula hospedeira. Diferente dos vírus gripais o HPV se reproduz com muita rapidez mas não causam a morte da hospedeira.

Usando apenas 8 genes o HPV consegue capturar o mecanismo da célula e acelerar o mecanismo de divisão celular. Normalmente uma célula se divide por meio de um processo complexo. Seu conteúdo interno é reorganizado e dividido em duas partes que são, cada uma, arrastada para um extremo da célula. Depois uma parede é construída no meio formando 2 células, cada uma carregando uma cópia exata do DNA original com 3,5 bilhões de letras (C, T, G, A) que se organizam em 46 grupos de cromossomos. Algumas das moléculas internas à célula monitoram todo o processo, interrompendo a divisão e forçando a célula a provocar sua própria morte caso algum defeito grave tenha sido inserido durante a divisão. O HPV, no entanto, manipula esse processo e causando uma aceleração sem que a célula alterada morra.

As células epiteliais crescem durante toda a vida do indivíduo. Em situação normal, sem infecção, elas começam a se multiplicar em regiões mais profundas da pele empurrando para fora as camadas mais antigas. Lentamente as células mais externas se alteram formando uma camada mais dura de queratina, o mesmo material que forma as nossas unhas e nos protegem de agressões externas. Novas camadas são produzidas na medida em que as células externas vão morrendo. Quando infectadas por HPV as células que escaparam das defesas internas do organismo, ao se aproximar da superfície, começam a produzir rapidamente novos vírus que são liberados em outro hospedeiro através do contato direto das peles.

Quando a ação do vírus é mais intensa que a regulação interna da célula ocorre o câncer. Cada vez que uma célula infectada se divide existe uma chance pequena de que um dos genes que governam a própria função reguladora seja alterado por mutações. Desta forma as células não conseguem limitar a reprodução dos vírus que continuam sendo empurrados para fora junto com a queratina. Em ritmo rápido de reprodução eles não são eliminados eficazmente pelo desgaste externo da pele, formando chifres, verrugas e tumores.

Agentes infecciosos que matam rapidamente seu hospedeiro perdem a oportunidade de se espalhar. Não é esse o caso do papilomavírus que existe há centenas de milhões de anos em equilíbrio com os humanos. Os cientistas conseguem traçar a história do vírus comparando as sequências genéticas de cepas diferentes encontradas em humanos e animais. Eles são encontrados em inúmeros vertebrados, inclusive pássaros e répteis. Existe a hipótese de que esses vírus já existiam nos primeiros vertebrados (que eram ovíparos) que abandonaram o mar para caminhar sobre a terra, há 3 milhões de anos. Na medida em que esse animal evoluiu e se ramificou em um diversidade de novas espécies os vírus foram se ajustando, através de mutações e seleção natural, para cada linhagem desses novos animais.

Apesar da evolução especializada do vírus para se conectar a células específicas de uma determinada espécie, as rápidas mutações podem fazer com que ele ultrapasse a fronteira entre espécies, infectando um hospedeiro diferente do seu original. O contato próximo entre estas espécies favorece o salto. É conhecido que o papiloma vírus que infecta humanos é mais próximo daquele que infecta cavalos do que os de macacos. O contato doméstico com cavalos é, nesse caso, o responsável. Com a devastação das florestas, populações humanas estão cada vez mais próximas dos animais selvagens, o que implica em maior risco de contaminações vindas destes animais. Junte-se a isso o consumo como alimento de espécies não domésticas e a proximidade entre pessoas e seus animais domésticos que se observa em algumas populações.

Êxodo humano a partir da África

Exôdo do Homo Sapiens da África.

Há que se lembrar que um número muito pequeno de humanos saiu da África para colonizar a Europa, a Ásia e, mais tarde, as Américas. Existe hoje uma diversidade genética muito maior entre africanos do que em todo o restante do planeta, uma vez que esse segundo grupo é inteiramente descendente dos poucos que saíram da África.Além disso a diversidade genética entre todos os humanos do planeta é bem baixa. Pode-se encontrar mais variações genéticas em uma tribo de chimpanzés de que em toda a população humana da Terra.

Quando nossos ancestrais humanos surgiram na África, em torno de 200 mil anos atrás, eles provavelmente já carregavam em seus corpos muitas cepas de HPV. Esses vírus, modificados em alguma extensão, podem ser encontrados em todo o mundo. Mas apenas uma pequena parte deles abandonou a África (há 50 mil anos, aproximadamente) e os vírus que eles portavam continuaram a evoluir. Por isso a distribuição atual do HPV guarda uma relação com a próprio povoamento do planeta pelos humanos. Na África as variantes de HPV hoje existentes são modificações das mais antigas cepas, enquanto na Europa, Ásia e América encontramos cepas derivadas daquelas transportadas pelo pequeno grupo colonizador inicial.

Na modernidade, com a extensão da longevidade, um número cada vez maior de pessoas morrem por câncer. Isso leva a uma corrida entre pesquisadores e laboratórios farmacêuticos para o desenvolvimento de curas para o câncer. Apesar de grande sucesso na cura de alguns tipos, a melhor estratégia contra o câncer ainda é a prevenção: deve-se adquirir hábitos que reduzam todas as chances de produzir mutações deletérias em nosso corpo. Para isso devemos evitar o fumo e outras substâncias reconhecidamente cancerígenas, promover estilo de vida saudável, incluindo boa alimentação. No caso do câncer cervical temos o recurso das vacinas contra o HPV. Todas as variantes dessa vacina contém proteínas da capa externa do vírus, com a intenção de ensinar ao organismo como produzir anticorpos que reconheçam o vírus e o combatam. Mas a vacina também levanta questionamentos. Há quem argumente que não se passou tempo suficiente, desde sua invenção, para saber se ela é efetiva. Além disso a vacina hoje existente bloqueia apenas duas cepas do vírus, que são responsáveis por 70% das ocorrências de câncer cervical. Mas humanos abrigam mais de uma centena de cepas diferentes de HPV e todas elas estão em constante mutação. Alguns médicos temem que a extinção das duas principais cepas promova a evolução de outras que ocuparão seus lugares.

Toda essa discussão mostra que o combate aos vírus, assim como a outras doenças que hoje nos afligem, dependem de muita pesquisa científica.

Vírus no mar

Até bem recentemente se acreditou que poucos vírus existissem na água do mar. As poucas cepas até então encontradas eram atribuídas à contaminação por esgoto ou outras fontes terrestres. Em 1980 Lita Proctor coletou água em vários pontos do oceano, preparando amostras para o microscópio eletrônico. Com surpresa ela verificou que havia muitos tipos de vírus nas amostras, alguns flutuando livremente na água, outros infectando bactérias. Ela estimou que cada litro de água continha 100 bilhões de vírus. Após vários outros estudos hoje se estima que existam algo em torno de 1030 (1 seguido de 30 zeros) vírus no oceano. Desses apenas uma pequena fração pode infectar
humanos. Os demais infectam peixes, baleias e outros micróbios invisíveis a olho nu.

10 milhões de vírus em uma gota de água do mar

Por mais que nos pareçam ameaçadores esses bacteriófagos assumem papel importante na ecologia terrestre, controlando a população de bactérias danosas. A cólera, por exemplo, é causada por uma bactéria chamada Vibrio que, por sua vez, hospeda alguns fagos. Quando a população dos Vibrios cresce demais temos uma epidemia de cólera. Os fagos são os responsáveis pelo controle dessa população. Algumas cepas de vírus matam a bactéria Vibrio, outras fornecem genes que habilitam a bactéria a produzir toxinas usadas para produzir diarreia.

Vírus marinhos também afetam a atmosfera da Terra controlando populações de bactérias e algas que geram e absorvem oxigênio, dióxido de carbono e outros gases que contribuem para o efeito estufa. Organismos mortos por vírus se decompõem liberando parte de seu carbono na atmosfera, parte nas águas do mar. O carbono estimula o crescimento de outros organismos microscópicos, em um ciclo complexo e não totalmente compreendido.

Vírus oceânicos exibem uma grande diversidade genética, bem mais variada que aquela encontrada em organismos terrestres. Parte dessa diversidade é explicada pela multidão de espécies marinhas que eles infectam. Existem aqueles que se misturam aos genes do hospedeiro apenas se reproduzindo quando o hospedeiro se multiplica, sem o matar. Na maioria das vezes o vírus pode se destacar do hospedeiro continuando sua existência em separado. Mas ocorrem também situações em que a mistura se torna permanente e a parcela da DNA do vírus se torna parte integrante da genética do hospedeiro. Também ocorrem as situações em que parte do DNA do hospedeiro é incorporada ao do vírus, mesmo que ele ainda possa se destacar e partir para infectar outro organismo.

Em alguns casos o hospedeiro, que teve sua genética alterada por efeito de um vírus, se torna mais apto na luta por sua sobrevivência e reprodução. Essa alteração é benéfica também para o vírus na medida em que o hospedeiro se torna um difusor mais eficiente de sua infecção.

A bactéria Synechococcus, muito abundante nos oceanos, é responsável por quase 25% da fotossíntese no planeta. A análise do DNA dessas bactérias revela a existência de proteína de vírus. Eles também encontram vírus livres, fora de organismos, portando a informação genética para a realização da fotossíntese. Há uma estimativa aproximada de que 10% de toda a fotossíntese terrestre é realizada com o auxílio de genes de um vírus.

Essa reciclagem de genes entre organismos hospedeiros e vírus representa uma parte relevante na evolução da própria vida terrestre. Como são pequenos e frágeis eles não deixam registros fósseis mas sua ação pode ser capturada no genoma dos hospedeiros. Dessa forma sabemos que eles estiveram atuando desde bilhões de anos no passado (lembrando que o fóssil mais antigo tem 2 bilhões de anos). É possível, por exemplo, saber que um determinado tipo de vírus estava presente em um ancestral comum de duas espécies vivas hoje, pois os vírus que elas carregam são parentes modificados do vírus de seu ancestral. Por outro lado se estima que o vírus do sarampo foi formado há pouco tempo, estando em circulação por não mais que 200 anos.

A análise das mutações em um genoma indica que elas ocorrem em uma taxa constante para cada geração para um gene específico. Isso levou à sugestão, na década de 1960, de usar essas alterações como um relógio molecular. O conceito é válido, e de fato usado, para qualquer outro organismo e não apenas para os vírus. Verificando as permutações genéticas é possível encontrar um vírus ancestral de um moderno, e medir quanto tempo se passou entre a existência deles. Duas amostras do mesmo tipo de vírus isoladas pelo mesmo tempo terão evoluído e se distanciado igualmente de seu ancestral comum. Na ausência de registros fósseis virais o relógio molecular é usado para estimar o tempo de origem do vírus e para traçar árvores evolutivas ( filogenéticas) que exibe o grau de relação com outros vírus. A técnica foi usada para revelar a história do sarampo e mostrar que o vírus da varíola humano é muito próximo do vírus da varíola de camelos e jerboas, um roedor que vive no Deserto de Gobi, na Mongólia e na China. Um ancestral comum deve ter existido entre 5 mil a 10 mil anos atrás.


Outros tipos de vírus

O que é um vírus?

Geralmente pensamos nos vírus como agentes causadores de doenças, algo a ser combatido. Isso não é totalmente incorreto se considerarmos que milhares de pessoas morrem por ação direta de um deles. Um exemplo é o vírus da varíola, o campeão de mortes humanas, agora totalmente erradicado. Além de afetar humanos eles agem em todas as demais espécies, sejam micróbios, plantas ou animais.

O último caso de varíola foi registrado em 1977. Em 1980 a Organização Mundial da Saúde certificou a erradicação global dessa doença, obtida através do uso de vacinas.

Novos vírus estão constantemente sendo identificados. Entre eles estão o HIV, que causa a AIDS e até hoje representa um desafio de tratamento, e o novo Coronavírus, causador da COVID-19, que tanto está impactando a saúde e a economia do planeta.

Mas vírus também são partes importantes na ecologia terrestre. Eles contribuem na formação do oxigênio na atmosfera, no controle da temperatura, agem na regulação da população de organismos e fornecem um mecanismo de movimentação de material genético entre as espécies. Assim como animais, plantas e outros microrganismos eles foram moldados por um longo processo evolucionário, através do processo da evolução natural, que consiste de mutações aleatórias e seleção dos mais aptos, até atingir os estados de maior eficiência para sua preservação e espalhamento. Eles estão por toda parte, incluindo o genoma humano onde se encontram diversas partes de vírus que infectaram nossos ancestrais no passado. Eles podem inclusive ter contribuído na formação dos organismos vivos, há bilhões de anos.

Microbiologia, um breve histórico

Apesar da longa luta da humanidade contra as doenças, apenas no século 19 começamos a entender que muitas são causadas por microrganismos. Com a invenção dos microscópios (instrumentos óticos para visualização de pequenas estruturas) foi possível reconhecer que muitos microrganismos são responsáveis por doenças entre humanos ou animais domésticos. Antonie van Leeuwenhoek, um holandês fabricante de lentes no século 16, foi o primeiro a visualizar micróbios. Somente no século 19 Louis Pasteur e Robert Koch associaram microrganismos com doenças e, por isso, são considerados os fundadores da microbiologia. Entre esses seres minúsculos estão as bactérias, organismos unicelulares que habitam praticamente todos os lugares do planeta, vivendo em relações de parasitismo ou simbiose com plantas e animais. O antrax (ou carbúnculo), tuberculose, cólera, difteria, tétano e sífilis, todas elas foram associadas às infecções causadas por bactérias. Elas possuem uma estrutura similar a células de mamíferos. Em geral as bactérias são autônomas, podendo fabricar as proteínas necessárias de que necessita, ingerir e metabolizar alimentos e se dividir sem a ajuda de outros organismos.

O que são células?


Células são as unidades básicas de todos os organismos vivos. Elas são formadas por uma membrana que envolve uma mistura de água com diversas substâncias químicas onde se encontram dispersos organelos (pequenos orgãos, com diversas funções). Dentro dela existe uma molécula longa armazenada em forma de uma espiral circular formada pelo DNA, a codificação contendo toda a informação necessária para a construção de novas células. Em células de mamíferos existe um mecanismo de proteção que verifica o processo da duplicação celular em vários pontos. Se cópias de DNA são danificadas (por meio de excessivas mutações, por exemplo) seu mecanismo interno de verificação fazem com que a célula se autodestrua.

Martinus Beijerinck

Apesar do sucesso em atribuir doenças a bactérias patogênicas, muitas outras doenças infecciosas continuaram inexplicadas e seus agentes causadores desconhecidos. Algumas são corriqueiras e comuns, outras podem levar à morte. Entre elas estão a varíola, sarampo, caxumba, rubéola e gripe. Estes agentes eram, como se concluiu na época, muito pequenos pois passavam por filtros cujos poros diminutos conseguiam impedir a passagem de bactérias. Por algum tempo foram chamados de “agentes filtráveis” e considerados como pequenas bactérias.

Em 1879 agricultores holandeses se depararam com uma grave praga que assolava a plantação de fumo. Adolph Mayer, um químico agrícola, estudou o problema que ele chamou de doença mosaica do tabaco. Ele verificou que não havia diferença entre os ambientes onde estavam as plantas doentes e as saudáveis e também não encontrou fungos ou parasitas. Então ele descobriu que plantas saudáveis adoeciam quando se injetava gotas de líquido extraído de fumo doente. Ele fez uma cultura de bactérias encontradas na seiva do fumo e depois aplicou essas bactérias em plantas saudáveis, sem que elas adoecessem. Isso mostrou que bactérias não causavam a doença.

Mais tarde outro holandês, Martinus Beijerinck, mostrou que, qualquer que fosse o agente de infecção, ele seria minúsculo. Ele fez diversas filtragens da seiva de plantas doentes, a expôs a temperaturas altas e ressecou esse material sem que ele perdesse seu poder de contaminação. Sem saber do que se tratava ele chamou o agente de “líquido vivo contagiante”, mais tarde de vírus, uma palavra derivada do latim significando veneno.

Na década de 1930 os vírus mosaicos do tabaco foram ressacados e armazenados sob forma cristalina, uma indicação de que eram compostos por proteína pura. Logo depois seu componente de ácido nucléico foi descoberto e identificado como responsável pela ação infecciosa. No entanto os vírus e suas estruturas só foram visualizados com o desenvolvimento dos microscópicos eletrônicos, em 1939. Só então se compreendeu que eram uma classe própria de microrganismos.

O que é a vida?


De um modo geral, considera-se tradicionalmente que uma entidade é um ser vivo se, exibe todos os seguintes fenômenos pelo menos uma vez durante a sua existência:

  • Desenvolvimento: passagem por várias etapas distintas e sequenciais, que vão da concepção à morte.
  • Crescimento: absorção e reorganização cumulativa de matéria oriunda do meio; com excreção dos excessos e dos produtos “indesejados”.
  • Movimento: em meio interno (dinâmica celular), acompanhada ou não de locomoção no ambiente.
  • Reprodução: capacidade de gerar entidades semelhantes a si própria.
  • Resposta a estímulos: capacidade de “sentir” e avaliar as propriedades do ambiente e de agir seletivamente em resposta às possíveis mudanças em tais condições.
  • Evolução: capacidade das sucessivas gerações transformarem-se gradualmente e de adaptarem-se ao meio.

Se nos limitarmos aos organismos “convencionais”, poder-se-ia considerar alguns critérios adicionais em busca de uma definição mais precisa:

  • Presença de componentes moleculares como hidratos de carbono, lipídios, proteínas e ácidos nucléicos.
  • Composição por uma ou mais células.
  • Manutenção de homeostase.
  • Capacidade de especiação.

(Wikipedia)

1 nm = 1 nanômetro = 10-9m, ou seja, um bilionésimo de um metro.

Embora certamente formados por matéria orgânica os vírus são agentes infecciosos microscópicos que estão no limiar entre seres vivos e partículas inertes. Geralmente carregam poucos genes, de 2 até 200 (em casos raros), armazenados em forma de RNA ou DNA, e tem diâmetro entre 20 e 300 nm. Apenas os maiores podem ser vistos em microscópios óticos enquanto os demais exigem microscópios eletrônicos para serem observados. A forma do vírus depende do tamanho e volume de seu conteúdo, podendo ter a forma de um filamento, de esferas, hexahedros ou mesmo formas bem mais complexas. O vírus da varíola têm o formato de tijolos, o da herpes são icosaedros (aproximadamente esférica, com 20 lados planos) , o da raiva tem formato de uma bala e o vírus mosaico de um tubo ou haste. Alguns deles são revestidos por uma camada externa de proteína. Os vírus podem possuir seu código genético codificado no DNA, com um hélice dupla, ou em sua versão de fita única, o RNA.

A discussão sobre se são ou não organismos vivos continua em aberto pois não satisfazem os critérios básicos de definição de vida. Quando não estão dentro de um organismo hospedeiro eles se apresentam como partículas inertes chamadas de vírions. Eles são formados por: material genético, ou seja, longas moléculas de DNA ou RNA que contém as instruções de formação do próprio vírus; uma capa protetora de proteína chamada capsídeo, que envolve o material genético; um envelope externo de lipídeos (existentes em alguns tipos de vírus, somente).

Como são incapazes de se multiplicar sozinhas estas partículas precisam infectar o organismo a que estão ajustadas, penetrando suas células para usar delas o mecanismo reprodutor. Vírus que infectam plantas entram em suas células através de algum rompimento em suas paredes externas ou são injetadas através da picada de algum inseto vetor que suga sua seiva. Depois eles se espalham para outras células através das plasmodesmata, que são poros por onde passam moléculas entre células na planta saudável. Já os vírus de animal infectam suas células se ligando a receptores específicos na superfície da célula. Esses receptores são como trancas que apenas podem ser abertas pelos vírus que possuem a chave própria. Células receptoras são diferentes em vírus diversos. Algumas são encontradas em muitas células, outras são restritas a apenas um tipo de célula. O HIV, por exemplo, possui a chave que abre especificamente a molécula CD4, e apenas células com moléculas CD4 em sua superfície podem ser infectadas por ele. Por isso os vírus são especializados em infectar uma determinada espécie ou mesmo um tipo específico de célula e é provável que exista um vírus associado a cada uma das espécies existente, inclusive bactérias.

Hélice dupla de DNA e sua replicação

Após se ligar em sua molécula receptora o capsídeo do vírus penetra no interior da célula e seu genoma (DNA ou RNA) é liberado junto do citoplasma da célula, jogando dentro dela a sua informação genética. Dentro do núcleo celular o vírus encontra os mecanismos necessários para fabricar suas próprias proteínas. Apenas alguns vírus maiores e mais complexos, como os da família Poxviridae (da qual faz parte o vírus da varíola), carregam os genes necessários para a elaboração das proteínas de que necessitam e, por isso, podem completar todo o seu ciclo dentro do citoplasma. Dentro da célula o DNA do vírus é tratado como parte da célula hospedeira e são por ela duplicados. O código de DNA é transcrito em mensagens de RNA que são lidos e traduzidos em forma de proteínas. Depois os componentes gerados do vírus são remontados como milhares de novos vírus que. Em geral um grande número de cópias são produzidas, fazendo com que a célula se rompa e jogue os novos vírus de volta no organismo hospedeiro onde eles infectarão novas células. Existem também aqueles vírus que conseguem sair pela membrana celular sem matar a célula mas, provavelmente, deixando-a infectada. Muitos vírus carregam sua informação genética sob forma de RNA, o que dispensa o processo de transcrição (de DNA para RNA, que só pode ser feita com os mecanismos da célula). O RNA é traduzido diretamente em proteínas o que torna esses vírus menos dependentes das enzimas do hospedeiro, permitindo que terminem seu ciclo sem destruir a célula. Os retrovírus são uma família de vírus de RNA, entre eles o HIV que desenvolveu a habilidade de infectar células por muito tempo enquanto se escondem do ataque dos mecanismos de imunidade. Eles transportam uma enzima chamada transcriptase reversa, capaz de converter seu RNA em DNA. Este DNA viral pode ser integrado no DNA celular. Esses segmentos genéticos adicionados à célula hospedeira, chamados de provírus, ficam arquivados e passam a ser copiados e passados para os descendentes do organismo hospedeiro. O provírus pode ainda, sob certas circunstâncias, fabricar novos vírus que abandonam a célula e provocam sua morte.

Células humanas sofrem mutações genéticas em uma taxa baixa, de uma a cada milhão de nucleotídeos (os blocos básicos do RNA e DNA) em cada geração. Nos vírus essa mutações são muito mais rápidas. Além de conseguirem se replicar (gerar novas cópias de si mesmos) mais rapidamente que nós, eles não possuem um mecanismo de regulação dessa replicação, que ocorre na taxa de aproximada de uma a cada mil nucleotídeos. Portanto, a cada infecção, um vírus produz milhares de cópias que carregam muitas mutações. Pode ocorrer que algumas cópias carreguem alterações genéticas pouco viáveis na continuidade de seu processo de expansão e terminem se extinguindo. Outras introduzem alterações inócuas. Aquelas que recebem alterações benéficas (para o vírus), úteis para derrotar ou se esconder dos mecanismos de defesa do organismo infectado, para resistir à drogas antivirais ou para se propagar mais rapidamente, prosperam. Pela seleção natural esses últimos vírus logo se tornam a maioria da população.

Vírus estão por toda parte

Os vírus estão por toda parte, seja em escavações profundas no solo, grãos de areia do deserto ou sob camadas de gelo antártico com quilômetros de espessuras. Quando novos lugares são investigados, novos vírus são encontrados.

Caverna dos Cristais (Cueva de los Cristales) é uma caverna situada na Mina de Naica no estado mexicano de Chihuahua. Esta caverna tem dimensões aproximadas de 10 por 30 metros, contendo no seu interior cristais gigantes de selenite, alguns dos maiores cristais naturais já encontrados no mundo.

Em 2009 um cientista conseguiu permissão para visitar a Caverna dos Cristais no México, um ambiente fechado, sem vida e isolado do mundo exterior por milhões de anos. Lá ele coletou água das câmaras internas para análise. Em cada gota de água da caverna ele encontrou duzentos milhões de vírus.

A bióloga americana Dana Willner, em 2009, fez um estudo para identificar vírus no corpo humano. Seus colaboradores coletaram muco resultado de tosse e escarro de dez pessoas, metade saudável e as demais doentes com fibrose cística. Do fluido Willner e sua equipe separaram fragmentos de DNA e os compararam em um bancos de dados com dezenas de milhões de genes conhecidos. Embora não esperassem encontrar vírus nas pessoas saudáveis eles descobriram que todas as pessoas carregam muitos tipos de vírus em seus pulmões, em média 174 espécies. Destas espécies 90% eram de vírus nunca antes detectados. Estima-se que apenas uma parte muito pequena dos vírus existentes no planeta foram encontrados.


Gripe, HPV, vírus marinhos

História dos Símbolos Matemáticos

Já em 1489 os sinais \( + \mbox{ e } –\) aparecem em uma obra sobre aritmética comercial de João Widman d’Eger, publicada em Leipzig, Alemanha. Eles não se referiam, no entanto, às representações de soma e subtração, ou à números positivos ou negativos, mas a excessos e déficit em problemas sobre operações comerciais. Os símbolos para positivos e negativos só se difundiram na Inglaterra com o uso feito por Robert Recorde em 1557. Os mesmos sinais já eram usados anteriormente, como exemplifica o pintura destes sinais em barris para indicar se estavam ou não cheios. Os gregos antigos, como Diofanto, por exemplo, indicavam a soma por justaposição das parcelas, assim como ainda é feito no caso de frações, \(1^{1/2}\), por exemplo. Os algebristas italianos usavam a palavra latina plus, ou sua letra \(p\) inicial, para indicar a operação de soma.

O sinal \(\times\), indicador de um produto, é relativamente moderno. Oughtred foi o primeiro a usá-lo em seu livro Clavis Matematicae, publicado em 1631. No mesmo ano, Harriot usou um ponto entre os fatores. Em 1637 Descartes usou a pura justaposição dos termos para indicar seu produto. Nos textos mais antigos de Leibniz encontra-se o sinal \(\cap\) para indicar multiplicação e \(\cup\) para a divisão. Mais tarde ele introduziu o ponto como um símbolo para a multiplicação e dois pontos (\(:\)) para a divisão. O sinal \(\div\), segundo Rouse Ball, resultou de uma combinação de dois sinais existentes “-” e “:”. As formas \(a/b\) ou \(\frac{a}{b}\) são atribuídas aos árabes.

Na Idade Média a igualdade entre dois termos é indicada literalmente por aequalis, do latim, ou através da abreviatura est. Xulander, matemático alemão do século XVI indicava a igualdade por dois pequenos traços paralelos verticais, ||,

“bicauſe noe .2. thynges, can be moare equalle”.
Em seu primeiro livro, publicado em 1540, Record colocava o símbolo \(\psi\) entre duas expressões iguais. Mais tarde, em 1557, ele foi o primeiro a empregar os dois pequenos traços paralelos, o sinal \(=\) para indicar a igualdade. Os sinais \(\gt\) (maior que) e \(\lt\) (menor que) são devidos a Thomaz Harriot, que muito contribuiu com seus trabalhos para o desenvolvimento da análise algébrica.

O símbolo \(\infty\) para o infinito foi introduzido por John Wallis (1616-1703) em seu livro De sectionibus conicis (Sobre as seções cônicas, 1655 ). Wallis era um estudioso clássico com grande erudição e é possível que tenha se inspirado no sinal romano para o número 1000, escrito CD ou M. Também se cogita que ele tenha tido esta idéia a partir da última letra do alfabeto grego, o ômega grego minúsculo, \(\omega\), como uma metáfora para o limite superior, o fim.

Os símbolos para a operação de derivação, \(dx,\, dy\) e \(dx/dy\) foram propostos por Leibniz em um manuscrito de novembro de 1675. Newton usava a notação de fluxos \(\dot x, \dot y, \dot x /\dot y\). Esta notação é ainda usada amplamente em textos de mecânica quando a trajetória de uma partícula aparece sob forma paramétrica. Por exemplo, se descrevemos a trajetória de uma partícula por meio de sua posição vetorial \(\vec{r}(t)= \left(x(t), y(t), z(t)\right)\) então sua velocidade será escrita como \(\vec{v}(t)= \left(\dot x(t), \dot y(t), \dot z(t)\right)\).

Os símbolos \(f'(x)\) e \(f”(x)\) para as derivadas de primeira e segunda ordem respectivamente foram usados primeiro por Lagrange. Em Théorie des Fonctions Analytiques, 1797, se lê simplesmente \(f’x\) e \(f”x\), símbolos revisados mais tarde para incluir os parênteses que envolvem o argumento da função. Em 1770 Lagrange empregou \(\phi’=d\phi/dx\), omitindo por completo o argumento quando ele estava claro pelo contexto e, em 1772, \(u’=du/dx\) e \(du=u’dx\). O símbolo \(D_x y\) foi usado por Louis François Antoine Arbogast (1759-1803) em De Calcul des dérivations et ses usages dans la théorie des suites et dans le calcul différentiel.

Um delta grego maiúsculo, \(\Delta\), para indicar uma quantidade pequena ou a diferença entre funções foi usado em 1706 por Johann Bernoulli. O símbolo \(\partial\), “d curvo ”, apareceu em 1770 por sugestão de Antoine Nicolas Caritat (1743-1794) em um livro sobre equações diferenciais parciais para representar diferenciais parciais \(\partial f\), em oposição às diferencias totais \(df\). A forma \(\frac{\partial u}{\partial x}\) só foi empregada em 1786 por Legendre em um texto sobre máximos e mínimos associados ao cálculo das variações. Legendre abandonou o uso deste símbolo, só recuperado mais tarde por Jacobi em 1841. O símbolo \(\partial\) corresponde à letra dey cursiva no alfabeto Cirílico.

Para representar a integração Leibniz escrevia, no início de seu desenvolvimento, a palavra latina omnia (tudo) em frente à quantidade a ser integrada. Depois passou a escrever \(dx\) após a integração e, em carta de 1675 para Oldenburg, secretário da Royal Society, ele sugeriu o uso de \(\int\), uma degeneração de um S longo significando summa (soma). Em Quadratura curvarum, 1704, Newton usou uma pequena barra vertical \(\overline x\) para representar \(\int x dx\). Duas barras verticais paralelas, \(\overline {\overline x}\) indicava a integração dupla. Em outras ocasiões ele escrevia o termo a ser integrado dentro de um retângulo. As convenções de Newton, como se pode imaginar, davam margem a erros de interpretação e nunca se tornaram populares, nem mesmo entre seus seguidores diretos na Inglaterra.

Os limites de integração eram inicialmente indicados por palavras, não existindo um simbolismo para os designar. Euler foi o primeiro a sugerir o uso de uma notação específica, escrevendo os limites entre colchetes e escrevendo as palavras latinas ab e ad. Fourier deu a forma atual, escrevendo \(\int_a ^b f(x)dx\) para representar a integral definida, com \(x\) variando de \(a\) até \(b\). Este símbolo apareceu em um artigo da Memórias da Academia Francesa, 1819-20, reimpresso em Théorie analytique de la chaleur, 1822. O símbolo \(\oint\) para representar a integração sobre um caminho fechado parece ter sido usado pela primeira vez em 1917 por Arnold Sommerfeld (1868-1951) no periódico Annalen der Physik.

A notação de limites foi apresentada em 1786 por Simon Antoine Jean L’Huilier (1750-1840). Em seu Exposition élémentaire des principles des calculs superieurs ele escreveu: “… para resumir e facilitar o cálculo por meio de uma notação mais cômoda é conveniente escrever
$$\lim . \frac{\nabla P}{\nabla x}$$
o limite das variações simultâneas de \(P\) e de \(x\) em lugar de
$$\lim . \frac{dP}{dx},$$

de forma que as duas expressões significavam a mesma coisa. Observe que L’Huilier escrevia \(\lim\)., usando um ponto após o limite. Karl Weierstrass (1815-1897) adotou esta notação, abandonando o ponto.

Cauchy usou a letra grega epsilon, \(\epsilon\) ou \(\varepsilon\) em 1821 em Cours d’analyse, embora também usasse às vezes a letra delta, \(\delta\). Alguns autores sugerem que delta significa “ différence ” (diferença) enquanto epsilon significa ” erreur ” (erro). A primeira prova de Cauchy usando epsilons e deltas é basicamente o teorema do valor intermediário para as derivadas. Na demonstração ele traduz sua definição de que a derivada é um limite do quociente das diferenças, quando este limite existe, em linguagem algébrica usando epsilons e deltas. No entanto ele não estabelece uma relação entre \(\epsilon\) e \(\delta\), não fazendo portanto distinção entre convergência uniforme ou pontual.

O operador diferencial \(\nabla\) (nabla ou del) foi introduzido por William Rowan Hamilton (1805-1865). Inicialmente Hamilton usou este símbolo para representar uma função arbitrária, depois como o operador de permutações. Em 1846 Hamilton usou nabla, desenhado horizontalmente, como o operador diferencial vetorial. Maxwell e Riemann usavam a abreviatura grad para representar o gradiente. William Clifford (1845-1879) incorporou o termo divergência que denotava por \(\mbox{div }u\) ou \(\mbox{dv }u\). O símbolo \(\nabla ^2\) para representar o operador laplaciano foi proposto por Robert Murphy em 1883.

Devemos observar, como conclusão, que a notação usada para descrever um conceito em matemática é completamente arbitrária, não passando de convenções que podem, em princípio, ser totalmente alteradas. No entanto, temos que aprender com Leibniz que o estabelecimento de uma notação compacta, simples e de fácil leitura e manipulação é essencial para o desenvolvimento e uso de uma teoria. Além disto a padronização é essencial para que os conceitos sejam facilmente transmitidos e o ensino da disciplina seja simplificado. Com frequência, na história da matemática, uma nova teoria ou a demonstração de uma conjectura é proposta de forma obscura e de difícil leitura, sendo acessível apenas a um círculo restrito de especialistas na área. Mais tarde, dependendo da generalidade e aplicabilidade da inovação ela passa por uma série de alterações, encontrando formas mais didáticas e claras de exposição e reunindo argumentações de mais fácil acesso para a comunidade mais geral. Eventualmente, em geral após a depuração e aprimoramento teórico, a novidade surge nos livros textos e é incorporada nos currículos de ensino.


História do Cálculo

Matéria Escura (Dark Matter)

No início da década de 1930 o astrônomo suíço Fritz Zwicky estava usando um novo tipo de telescópio no topo do Monte Palomar, Califórnia, para fotografar grandes áreas do céu em tomadas rápidas e com pouca distorção. Ele construiu um grande mapa com centenas de milhares de galáxias, o Catálogo Zwicky de Galáxias. Fazendo isso ele e seus colegas descobriram que as galáxias tendem a se juntar em aglomerados. Estudando o Aglomerado de Galáxias de Coma, sob a luz das descobertas de Hubble, ele notou uma anomalia no movimentos das galáxias dentro de aglomerados.

De acordo com as leis de Newton objetos que se movem mais afastados do centro de massa a que estão ligados devem se mover mais lentamente. Este princípio se reflete em uma das leis de Kepler para o movimento dos planetas no sistema solar. No entanto Zwicky percebeu que mesmo as galáxias mais afastadas mantinham velocidades altas demais em relação à massa observada do aglomerado.

ZwickyFritz Zwicky (1898 — 1974) foi um astrônomo suíço que trabalhou a maior parte de sua vida nos EUA. Zwicky foi o primeiro astrónomo a usar o teorema do virial para fazer inferências sobre a existência da não-observada matéria escura, descrevendo-a como dunkle Materie (dark matter ou matéria escura). Ele foi também o primeiro a observar estrelas super brilhantes, que ele denominou supernovas, que se formam quando as estrelas estão em sua fase final de evolução, depois de usar a maior parte de seu combustível nuclear. Supernovas são a fonte de grande parte dos raios cósmicos que chegam a Terra e marcam a transição entre estrelas comuns e as estrelas de neutrons. Zwicky propôs a existência das lentes gravitacionais, uma consequência da teoria da gravitação de Einstein.

Mais especificamente, Zicky aplicou o Teorema do Virial que relaciona a energia potencial gravitacional com o movimento das partes de um sistema. Nas velocidades observadas as galáxias deveriam romper com a atração gravitacional exercida pelo grupo e partir em voo livre pelo espaço. Em resumo, a massa do aglomerado, deduzida à partir da observação da luz por elas emitidas, era insuficiente para explicar por que as galáxias mais afastadas do centro permaneciam ligadas ao aglomerado.

Para resolver esta anomalia Zwicky apresentou a hipótese de que grande parte da massa no aglomerado era constituída por um novo tipo de matéria, que já havia sido cogitado por outros astrônomos, denominado Dark Matter ou matéria escura. Esta matéria deveria ser diferente da usual, exercendo atração gravitacional sobre outros corpos mas não interagindo com eles de nenhuma outra forma. Naturalmente, dada a exoticidade da sugestão, algum tempo se passou até que outras evidências foram encontradas para dar suporte à hipótese e a matéria escura fosse amplamente aceita pelas astrônomos e cosmólogos.

O mesmo princípio foi usado pelo astrônomo francês Le Verrier. Percebendo anomalias no movimento de Urano ele postulou a existência de outro corpo em órbita depois deste planeta. Seus cálculos foram precisos o suficiente para que ele anunciasse a existência de Plutão, que foi observado por astrônomos na posição prevista com erro de apenas um grau. O mesmo Le Verrier também notou variações inesperadas no movimento de Mercúrio e sugeriu a existência do planeta Vulcano órbita próxima ao Sol. Nesse caso ele estava errado e o fenômeno só foi explicado mais tarde pela teoria de Einstein.
Vera Rubin foi uma astrônoma dos EUA, uma das primeiras pessoas a estudar as curvas de rotação de galáxias espirais. Ela mostrou que a velocidade de rotação das estrelas afastadas do centro galático é muito maior do que o esperado se considerarmos apenas a matéria visível. Considera-se que a discrepância pode ser explicada pela existência da matéria escura.

Em 1965 a astrofísica americana Vera Rubin estava trabalhando com amplificadores eletrônicos de luz que permitiam a coleta rápida de espectros de emissão de galáxias. Ela estudava a rotação de galáxias como Andrômeda, nossa vizinha, e descobriu coisas interessantes e inesperadas. Com esses aparelhos sensíveis ela obteve as curvas de rotação para objetos dentro da galáxia.

Galáxias espirais possuem longos braços que giram em torno do centro galático. A densidade de massa luminosa decai quando de afasta do centro em direção às bordas. Estrelas (e outros objetos) mais afastadas deveriam ter velocidades cada vez menores, de acordo com a segunda lei de Kepler, da mesma forma que acontece com os planetas no sistema solar. Mas, como observou Rubin, isso não ocorre. Surpreendentemente as velocidades ficam quase inalteradas com o distanciamento do centro. Esse efeito pode ser explicado postulando a existência de um halo, algo como uma bola oca gigante envolvendo a galáxia, feito de algum material com atração gravitacional. O problema está em que esse halo não aparece nas fotos dos telescópios nem nas imagens geradas pelos radiotelescópios.

Intrigados com a observação, Rubin e vários outros pesquisadores começaram a coletar dados sobre outras galáxias e, em todos os casos, o mesmo fenômeno foi verificado. Mais uma vez se levantou a hipóteses de que existe um agente de atração não detectado dentro do conjunto estudado. Rubin estimou que deveria existir em torno de 6 vezes mais massa do que a observada por meios luminosos.

Curvas de rotação na galáxia
Curvas de rotação de estrelas dentro da galáxia Messier 33. A linhas tracejada mostra as velocidades em função da distância do centro para a galáxia constituída apenas por matéria visível. A curva superior, contínua, mostra as velocidades de fato observadas. Os primeiros pontos são obtidos na faixa de luz visível, os demais na radiação de 21cm do hidrogênio.
Dark Matter (artístico)
Imagem artística da possível densidade de matéria escura na Via Láctea.

Hoje pelo menos três tipos de observações independentes confirmam a existência da matéria escura. A velocidade das galáxias em aglomerados ou de estrelas dentro das galáxias, a emissão de raios-X pelo gases que permeiam os aglomerados e as lentes gravitacionais. Por todos esses meios se constata que em torno de 80% da massa dos aglomerados, em média, é formada por um tipo de matéria exótica que não emite luz nem nenhuma outra forma de radiação eletromagnética detectável.

Lentes Gravitacionais

De acordo com a Teoria da Relatividade Geral (TRG) de Einstein a presença da matéria deforma o espaço em torno dela. Um feixe de luz, emitido por uma estrela distante, passando perto do Sol, por exemplo, se desvia fazendo com que a estrela pareça estar em outro ponto no céu. Esse efeito foi usado em 1919, Sobral, nordeste do Brasil, para prover a primeira verificação observacional da TRG. Aproveitando-se de um eclipse solar astrônomos ingleses puderam mostrar que o desvio da luz era compatível com aquele previsto na teoria de Einstein.

Cinco imagens com aparência de estrelas aparecem quando a luz de um único quasar passa por uma lente gravitacional. Telescópio Hubble, NASA.

Zwicky já havia proposto que seria possível usar um aglomerado de matéria no espaço como lente gravitacional, uma vez que o espaço deforma a luz que foi emitida por trás. Essas lentes são observadas através de efeitos peculiares, tais como a formação de imagens múltiplas de um mesmo objeto ou arcos e anéis formados por deformação da imagem. Através das medidas de distorção é possível se calcular a massa da lente, o objeto que causou essa distorção. Desta forma é possível confirmar que existe uma deformação maior do que aquela que seria causada apenas pelos objetos luminosos, o que vem a fortalecer a hipótese de que existe matéria escura presente nesse objeto.

Evidência Cosmológica

Edwin Hubble observou que a maioria das galáxias estão se afastando de nós e que quanto mais distantes elas estão maiores suas velocidades. O afastamento é percebido pelo desvio para o vermelho da luz por elas emitidas.

Outra indicação importante de que a matéria escura realmente existe é dada pela cosmologia. A Teoria do Big Bang, a mais amplamente aceita na atualidade, é uma aplicação direta da TRG sob a hipótese de que o universo é bastante uniforme, em grandes escalas. Dependendo da densidade de massa nesse modelo a geometria universal assume uma das três formas possíveis de espaços homogêneos (igual em todos os pontos) e isotrópicos (igual em todas as direções). Se a densidade de massa no universo (massa dividida pelo volume) for acima de um certo número crítico o universo seria formado por seções esféricas (ou seja, a cada momento ele seria uma hiper-esfera de 3 dimensões, de curvatura positiva). Se a densidade for abaixo do número crítico o universo teria seções como selas (de curvatura negativa). Mas a observação não mostra curvatura mensurável indicando que estamos exatamente sobre o caso crítico de um universo com densidade tal que o espaço contém seções planas, de curvatura nula. No entanto a massa visível, observada em estrelas e galáxias e todos os demais corpos luminosos, é bem inferior a essa massa crítica, o que leva a crer, mais uma vez, que grande parte dela está sob a forma de matéria escura.

No modelo padrão das partículas elementares a matéria bariônica é toda aquela composta por prótons, neutrons e elétrons, como a matéria ordinária que conhecemos. No modelo cosmológico do Big Bang a maior parte da matéria bariônica foi formada por hidrogênio e um pouco de hélio. Os elementos mais pesadas foram formados mais tarde, no interior das estrelas e nas explosões de supernovas. Uma hipótese é a de que a matéria escura seja não bariônica, como veremos.

Outra consequência observada do Big Bang é a chamada radiação cósmica de fundo, um resíduo deixado pela radiação inicial de alta temperatura. Com a expansão essa radiação se encontra hoje muito mais fria, aproximadamente de 3ºC, com vibração na faixa de micro-ondas. Ela pode ser mapeada com precisão, sendo uniforme o bastante para embasar o modelo cosmológico padrão, mas possuindo granulação suficiente para a geração das estruturas formadas mais tarde, como galáxias, aglomerados e filamentos. A matéria escura e a ordinária não se comportam da mesma forma com a expansão do espaço. Embora as duas interajam gravitacionalmente, a matéria bariônica (ordinária) passou por um período de interação forte com a radiação nos momentos primordiais da evolução. Essas interações alteram a forma como a granulação inicial evoluiu mais tarde formando estruturas. A observação do universo hoje, comparado com as granulações da radiação de fundo, corrobora a hipótese de que grande porção da massa hoje existente é formada por matéria escura.

Penzias e Wilson descobriram a radiação cósmica de fundo.

Boa parte da pesquisa moderna em astronomia se concentra na busca dessa matéria e sua natureza permanece em debate. Inicialmente se considerava que essa matéria fosse formada por estrelas frias e pouco brilhantes, por planetas escuros e errantes, por gases ou por corpos macroscópicos ou não, espalhados no meio intergalático. Houve a sugestão de que buracos negros poderiam ser abundantes a ponto de fornecer essa massa oculta. Mas, se esse fosse o caso, os atuais buracos negros seriam feitos de matéria ordinária antes que estas estrelas colapsassem. Toda essa matéria ordinária estaria presente nos primeiros momentos do universo, o que estaria em discordância com a quantidade de matéria escura esperada pela análise da radiação cósmica de fundo.

Buracos negros são formados por estrelas de grande massas, quando seu combustível nuclear é esgotado. O gás estelar é comprimido para volumes pequenos até que a densidade seja tão alta que nem a luz pode escapar de sua atração gravitacional.

Teoricamente um tipo diferente de buraco negro pode existir e estas entidades hipotéticas foram consideradas como partes de matéria escura. Buracos negros primordiais podem ter sido criados no início do universo quando a própria matéria comum estava se formando. Eles poderiam ter se originado de flutuações do espaço-tempo logo após o Big Bang, fortes o bastante para aglomerar blocos de massa em um volume muito pequeno, formando buracos negros diminutos. A modelagem computacional sugere que eles poderiam ter massas bem pequenas e poderiam ser responsáveis por parte do efeito atribuído à matéria escura. Em 2018 foi realizada uma pesquisa em 740 supernovas em busca de efeitos de lentes gravitacionais causadas por esses objetos e o resultado indica que eles não podem explicar mais que 40% do efeito da matéria escura. Pelo contrário, surgiram indicações de que esta não é uma boa hipóteses e que buracos negros primordiais não contribuem nessa questão. Além disso não existem evidências de eles existam de fato.

Portanto a hipótese da matéria escura como constituída por matéria ordinária entra em conflito com o que é observado e nenhum dos modelos propostos foi capaz de explicar as anomalias observadas. A teoria mais aceita é a de que esta matéria é não bariônica, o que significa que não é composta de prótons e nêutrons como a matéria ordinária que conhecemos. A primeira possibilidade consiste em explorar os neutrinos.

Neutrinos

Primeira observação de um neutrino colidindo com um próton em uma câmara de bolhas (colisão ocorre no ponto onde os três riscos à direita da foto).

A existência dos neutrinos foi proposta em 1930, 26 anos anos de sua detecção experimental. Durante o decaimento beta a força nuclear fraca, dentro do núcleo atômico, quebra um nêutron em um próton mais um elétron, que é ejetado do átomo. Apesar de que a carga criada no próton (+) fica balanceada pelo elétron (-), Wolfgang Pauli notou que seria necessária a criação de outra partícula para equilibrar a energia, o momento linear e o momento angular do átomo inicial.

Curiosamente o neutrino foi proposto 2 anos antes da descoberta do nêutron, por James Chadwick. Neutrinos possuem massa, portanto tem efeito gravitacional, mas não interagem por meio da força eletromagnética.Neutrinos são difíceis de serem detectados.

Hoje, com o avanço da tecnologia, é possível saber se um neutrino foi emitido pelo Sol, por outros objetos no sistema solar ou na Via Láctea, ou mesmo por fontes fora de nossa galáxia.

Uma das hipóteses feitas para solucionar o mistério da matéria escura consiste em apelar para o Modelo Padrão de Partículas da física. Neste modelo, que é muito bem sucedido na explicação das partículas conhecidas, existem os neutrinos, partículas estáveis (de longa vida) que não interagem com outras partículas por meio do eletromagnetismo nem das interações nucleares fortes. Neutrinos atravessam grandes amontoados de matéria (como o planeta Terra, por exemplo) sem sofrer alterações. O modelo dos WIMPs (weakly interacting massive particles, partículas massivas de interação fraca) inicialmente considerou neutrinos formados no início do universo, deixados como resíduos da grande explosão inicial, como os responsáveis pela atração da matéria não luminosa.

Na década de 1980 as simulações numéricas realizadas em computador começaram a ganhar importância no estudo da evolução do universo e da formações de estruturas, como galáxias, aglomerados e grandes filamentos cósmicos. No modelo padrão é predito que os neutrinos foram formados com altíssimas velocidades, comparáveis (mas inferiores) à velocidade da luz. De acordo com as simulações estas partículas quentes (por que muito velozes) favoreceriam a formação inicial de estruturas muito grandes que apenas mais tarde se quebrariam em blocos menores, formando coisas tais como as galáxias.

Em contraste, partículas mais frias (lentas) estimulariam a formação de pequenos aglomerados de matéria, que bem mais tarde se fundiriam formando estruturas maiores. Comparando estes resultados teóricos com as estruturas observadas se descartou a predominância de neutrinos super velozes na composição da matéria escura. As simulações deixaram claro que pelo menos uma partícula desconhecida, não presente no modelo padrão de partículas, deveria existir.

Uma outra partícula proposta para explicar efeitos da matéria escura são os áxions, partículas ainda não detectadas, por enquanto apenas uma conjectura teórica proposta para resolver outro problema existente na cromodinâmica quântica. Se existirem eles interagiriam pouco com a matéria comum e radiação, teriam massa bem pequena. Eles poderiam, no entanto, existir em quantidade suficiente para explicar os efeitos da massa desaparecida.

Gravitação Alternativa

Em 1983 o astrofísico Mordehai Milgrom sugeriu um mecanismo alternativo para explicar as anomalias observadas nos movimentos galáticos. Ou invés de buscar fontes desconhecidas de atração gravitacional ele optou por sugerir alterações na teoria gravitacional. Sua hipótese foi denominada Dinâmica Newtoniana Modificada (Modified Newtonian Dynamics) ou MOND.

A gravitação Newtoniana está muito bem verificada na escala de experiência cotidiana, em experimentos feitos na Terra. Não há garantia absoluta de que ela continua funcionando da mesma forma em escalas galáticas. Assim como a Gravitação de Einstein se reduz à Newtoniana para a escala cotidiana, Milgrom propôs uma teoria alternativa que age um pouco diferente em grandes escalas.

Algumas galáxias parecem se movimentar em bom acordo com a teoria MOND mas ela não resolve todos os problemas. Resta, no entanto, explorar outros modelos, com novas descrições da gravitação, até que todas as anomalias fiquem bem explicadas.

Conclusão

Imagem 3D da distribuição de matéria escura pelo universo observável. O mapeamento foi feito por meio de lentes gravitacionais, pelo Telescópio Espacial Hubble.
Existe também o problema não resolvido da energia escura que causa efeito contrário ao da matéria escura, impulsionando galáxias e aglomerados para que se acelerem no movimento de expansão. Esse assunto será tratado em outro artigo neste site.

A questão da natureza da matéria escura e da energia escura permanece em aberto, juntamente com muitos outros problemas importantes ainda não foram resolvidos pela ciência. Pela própria natureza da investigação científica cada resposta obtida abre um leque de dúvidas e caminhos para futuras pesquisas. O tema é de grande interesse porque, entre outras coisas, ele pode levar a uma expansão da física para novos domínios, da mesma forma que a mecânica quântica e a relatividade expandiram a física clássica. Se existem partículas fora do modelo padrão de partículas então uma nova física tem que ser desenvolvida para acomodá-las.

Observatório de Ondas Gravitacionais por Interferômetro Laser (em inglês: Laser Interferometer Gravitational-Wave Observatory – LIGO) é um projeto que busca detectar ondas gravitacionais de origem cósmica.

Novos detetores e novas táticas de busca são desenvolvidos a todo momento para tentar verificar ou descartar alguma hipótese. Em outubro de 2017 o Observatório LIGO conseguiu detetar ondas gravitacionais geradas pela interação de duas estrelas de nêutrons girando em órbitas muito próximas e espiralando para seu centro de massa. A observação dessas ondas abre uma nova página na investigação do cosmos e deverá ser usada também para testar hipóteses sobre a matéria escura, em particular a existência de buracos negros primordiais.

É possível que a anomalia observada (o problema da matéria escura) seja devida a erros nos pressupostos cosmológicos, sendo o principal deles considerar que o universo é uniforme, aproximadamente igual em todas as direções e em todas as partes. No estado atual do conhecimento é impossível descartar que nossa posição no universo seja de alguma forma incomum, nos dando uma falsa visão de como seria o todo. Também é possível que uma nova forma da interação gravitacional seja válida para escalas cósmicas, ou que existam forças desconhecidas, além das quatro forças fundamentais. Também devemos nos lembrar que os dados obtidos nessa área são difíceis de se obter e analisar. Mesmo assim grande parte dos cosmólogos e astrofísicos defende que existe a matéria escura. Aqueles que acreditam em coisas diferentes estão propondo teorias alternativas, nenhuma delas ainda com sucesso.

A própria existência de um problema tão importante sem solução até o momento torna a pesquisa ainda mais interessante. A ciência é uma aventura com desdobramentos inesperados. Pessoas no mundo inteiro se unem e trabalham na solução desses problemas. Infelizmente, o processo científico se torna cada vez mais especializado e inacessível para pessoas sem treinamento específico. Para isso servem artigos (como este) e livros de divulgação. A aventura é coletiva e deve ser partilhada com todos.

Bibliografia

Clegg, Brian: Dark Matter & Dark Energy, Icon Books, Agosto 2019.

Bertone, Gianfranco; Hooper, Dan: A History of Dark Matter https://arxiv.org/abs/1605.04909 (16 May 2016).

Panek, Richard: The 4% Universe, Dark Matter, Dark Energy, and The Race to Discover the Rest of Reality, HMH Books & Media, New York, 2011.

Science History: Fritz Zwicky and the whole Dark Matter thing
https://cosmosmagazine.com/physics/science-history-fritz-zwicky-and-the-whole-dark-matter-thing

Dinâmica relativística


Até o momento discutimos o movimento de partículas livres e a transformação de seu movimento entre dois referenciais inerciais. Partículas livres descrevem retas em \(M_4\) e estas retas são levadas em outras retas por meio de transformações de Lorentz, já que elas são transformações lineares. Concluímos que, assim como acontece na mecânica clássica sob transformações de Galileu, a inércia não fica alterada de um referencial para outro. Qualquer desvio na linearidade do movimento de uma partícula deve ser atribuído à presença de alguma interação, uma força agindo sobre ela.

Para construir uma dinâmica devemos definir massa e momento sobre esta teoria. Na teoria Newtoniana a massa é uma constante de proporcionalidade entre a aceleração e a força. Na TRE tentamos seguir de perto, tanto quanto possível, as definições e conceitos da mecânica clássica, principalmente tendo em mente que a teoria relativística deve se reduzir à clássica no caso limite de baixas velocidades, em particular no que se refere às leis de conservação.

Construímos, na seção anterior, os quadrivetores
$$
u^{\mu} = \frac{dx^{\mu}}{d \tau} = \left( \gamma c, \gamma v \right), \text{} p^{\mu} = mu^{\mu} = \left( \gamma mc, \gamma mv \right) .
$$

Vimos que as partes espaciais destes quadrivetores se relacionam com a velocidade e o momento linear ordinários em 3 dimensões de forma simples,
$$
u_{\left( 4 \right)}^i = \gamma v_{\left( 3 \right)}^i ; p_{\left( 4
\right)}^i = \gamma p_{\left( 3 \right)}^i .
$$

Gostaríamos agora de explorar um pouco mais o significado do componente temporal \(p^0\) do quadrivetor momento, o que faremos na próxima seção, juntamente com o conceito de força generalizada.

Além dos vetores \(u^{\mu}\) e \(p^{\mu}\) , contruídos à partir da linha mundo \(x^{\mu} \left( \tau \right)\) , podemos definir um terceiro vetor
interessante
$$
K^{\mu} = m \frac{d^2 x^{\mu}}{d \tau} = \frac{dp^{\mu}}{d \tau} =
\frac{d}{d \tau} \left( \gamma mc, \gamma mv \right) .
$$

a chamada força generalizada de Minkowsky.\(\mathbb{}\) Denotaremos o componente espacial desta força de \(\vec{F}\) e portanto \(K = \left( K^0, \vec{F} \right)\). Em particular estamos interessados em descobrir as quantidades que se conservam nesta teoria.

Contraindo a força generalizada e a 4-velocidade podemos obter um esclarecimento sobre \ natureza do componente \(p^0\) do momento. Começamos
por notar que
$$
u^{\mu} K_{\mu} = mu^{\mu} \frac{du_{\mu}}{d \tau} = 0.
$$

A expressão acima se anula pois
$$
0 = \frac{d}{d \tau} \left( u_{\mu} u^{\mu} \right) = u_{\mu}
\frac{du^{\mu}}{d \tau} = \left( \frac{du_{\mu}}{d \tau} \right) u^{\mu} =
2 u_{\mu} \frac{du^{\mu}}{d \tau},
$$

já que \(u_{\mu} u^{\mu} = – c^2\) é uma constante. Observe também que usamos neste cálculo o fato de que \(\eta_{\mu \nu}\) é formado por constantes e portanto
$$
u^{\mu} \frac{du_{\mu}}{d \tau} = u^{\mu} \frac{d \left( \eta_{\mu \nu}
u^{\nu} \right)}{d \tau} = \eta_{\mu \nu} u^{\mu} \frac{du^{\nu}}{d \tau}
= u_{\mu} \frac{du^{\mu}}{d \tau} .
$$

Por outro lado
$$
0 = u^{\mu} K_{\mu} = – \left( u^0 K^0 \right) + u^i K_i = – \gamma cK^0 +
\gamma v^i K_i,
$$

de onde tiramos uma expressão para \(K^0\) ,
$$
K^0 = \frac{1}{c} v^i K_i = \frac{1}{c} \vec{v} . \vec{F} .
$$

Prosseguindo na analogia com o caso clássico relembramos a equação 2. Se \(T\) é a energia cinética de uma partícula então
$$
\frac{dT}{dt} = \vec{F} . \vec{v},
$$

o que sugere a adoção da seguinte notação: fazemos
$$
P^0 = \gamma mc = \frac{E}{c}
$$

e, por conseguinte,
$$
K^0 = \frac{1}{c} \frac{dE}{d \tau},
$$

onde \(E\) é a energia total da partícula, cujo sentido exploraremos em seguida. Usando estas definições temos

(7)

$$
E = \gamma mc^2 \text{e} \vec{p} = \gamma m \vec{v}, \label{emc2}
$$
generalizações da energia e do momento ordinário, podemos escrever o vetor quadri-momento como

(8)

$$
p^{\mu} = \left( \frac{E}{c}, \vec{p} \right) . \label{pmu}
$$
A norma deste vetor é invariante,
$$
p^{\mu} p_{\mu} = – \left( \frac{E}{c} \right)^2 + p^2 = – m^2 c^2,
$$

sendo \(p = \left| \vec{p} \right|\). Uma expressão útil pode ser obtida daí,
$$
E^2 = m^2 c^4 + p^2 c^2,
$$

uma expressão que associa a energia total da partícula com sua massa e velocidade. No referencial comóvel, onde \(\gamma = 1\) e \(p = 0\) temos a famosa equação de Einstein
$$
E = mc^2,
$$

válida, como já indicado, apenas no referencial da partícula. Outra relação interessante pode ser obtida para o caso de baixas velocidades, \(\beta \ll 1\). Neste caso usamos a expansão em séries de potências mantendo apenas os termos mais relevantes para escrever \(\gamma \approx \left( 1 + \beta^2 / 2 \right)\) e a equação 7 para a energia se torna
$$
E = \gamma mc^2 \approx \left( 1 + \frac{\beta^2}{2} \right) mc^2 = mc^2 +
\frac{1}{2} mv^2 .
$$

Para baixas velocidades a energia definida na equação 7 é a energia cinética ordinária mais um termo constante que denominaremos energia de repouso da partícula.

Diversos fenômenos observados confirmam a correção destas expressões. Um exemplo interessante é o da aniquilação de um elétron e um pósitron que resulta na completa aniquilação da massa de repouso das partículas iniciais resultando na emissão de fótons com massa de repouso nula que transportam toda a energia inicial do sistema. Reações atômicas que ocorrem dentro de reatores nucleares ou bombas atômicas se utilizam da fissão nuclear, a quebra de núcleos, para a liberação de grandes quantidades de energia. Os núcleos partidos possuem massa menor que a massa inicial, a diferença sendo liberada sob forma de energia transportada por radiação eletromagnética. Um processo análogo, porém inverso, ocorre no interior das estrelas onde núcleos leves, basicamente hidrogênio e hélio, são fundidos em núcleos mais pesados, resultando na liberação de energia.

Leis de conservação

Na Mecânica Clássica as simetrias do sistema considerado levam às leis de conservação. Um sistema homogêneo por translações de coordenadas exibe conservação do momento linear enquanto sistemas isotrópicos apresentam conservação do momento angular. Se um sistema é homogêneo por translaçãoes temporais então ele possue a energia total conservada.

Na Teoria da Relatividade Especial os escalares são as quantidades conservadas. Escalares são invariantes quando se troca de um sistema de coordenada estabelecido em um referencial inercial para outro sistema inercial. Em um referencial comóvel uma partícula tem o 4-momento
$$
p^{\mu} = \left( m_0 c, \vec{0} \right),
$$

onde \(m_0\) é a chamada massa de repouso da partícula, a massa medida por um observador no referencial comóvel. Calculamos \(p^{\prime \mu}\) obtido por meio de uma transformação de Lorentz sobre o momento anterior
$$
p^{\prime \mu} = \Lambda_{\hspace{0.75em} \alpha}^{\mu} p^{\alpha} = \left[
\begin{array}{cccc}
\gamma & \gamma v / c & \hspace{0.75em} 0 & \hspace{0.75em} 0\\
\gamma v / c & \gamma & \hspace{0.75em} 0 & \hspace{0.75em} 0\\
0 & 0 & \hspace{0.75em} 1 & \hspace{0.75em} 0\\
0 & 0 & \hspace{0.75em} 0 & \hspace{0.75em} 1
\end{array} \right] \left[ \begin{array}{c}
m_0 c\\
0\\
0\\
0
\end{array} \right] = \left[ \begin{array}{c}
\gamma m_0 c\\
\gamma m_0 v\\
0\\
0
\end{array} \right],
$$

ou seja,
$$
p^{\prime \mu} = \gamma \left( m_0 c, \hspace{0.25em} m_0 v
\hspace{0.25em}, 0 \hspace{0.25em}, 0 \right) .
$$

Se pretendemos manter a expressão para o momento como composto por energia e momento, \(p^{\mu} = \left( \frac{E}{C}, \hspace{0.75em} m \mathbf{v} \right)\) teremos então que definir
$$
m = \gamma m_0 = \frac{m_0}{\sqrt{1 – \beta^2}}
$$

que mostra a dilatação da massa para partículas em altas velocidades. Nenhum objeto com massa de repouso não nula pode ser acelerado até uma velocidade igual ou superior à velocidade da luz.

Podemos mostrar que, na TRE, o quadrivetor momento-energia é uma entidade conservada em um sistema de partículas. Definindo a variação total de momento-energia em um referencial como
$$
\Delta p^{\mu} = \left( \sum^n_a p_a^{\mu} \right)_{final} – \left(
\sum^n_a p_a^{\mu} \right)_{inicial}
$$

onde a soma é realizada sobre todas as partículas do sistema. Em outro referencial os momentos são transformados, para cada partícula, da seguinte forma
$$
p_a^{\prime \mu} = \Lambda_{\nu}^{\mu} p_a^{\nu}
$$

e, portanto, a variação total do momento-energia é
$$
\Delta p^{\prime \mu} = \left( \sum^n_a \Lambda_{\nu}^{\mu} p_a^{\nu}
\right)_{final} – \left( \sum^n_a \Lambda_{\nu}^{\mu} p_a^{\nu}
\right)_{inicial} = \Lambda_{\nu}^{\mu} \Delta p^{\nu} = \Delta p^{\mu} .
$$

Isto significa que se a variação total é nula em um referencial então ela será nula em qualquer referencial inercial. Observe que, para concluir isto, seria suficiente afirmar que a variação total, sendo composta por somas de vetores, é também um vetor. Se transformarmos este vetor para o referencial comóvel os componentes de \(\mathbf{p}\) são, como vimos na equação 8, a energia e o momento ordinário, ambos quantidades conservadas em qualquer reação ou interação de forma que a variação total do sistema será \(\Delta p^{\prime \mu} = 0\). Concluimos assim que
$$
\Delta p^{\mu} = 0
$$

em qualquer referencial inercial. Note, no entanto, que o momento e a energia não se conservam isoladamente.

Convenções e notação

O espaço-tempo é denominado \(M_4\) , o espaço de Minkowsky, cujos pontos são os eventos
$$
\mathbf{x =} \left( x^0, x^1, x^2, x^3 \right) \text{ ou, resumidamente, }
\mathbf{x =} \left\{ x^{\mu} \right\} .
$$

Vetores de \(M_4\) são representados por letras em negrito, \(\mathbf{x, u, p}\) enquanto vetores de \(I \hspace{-4pt} R^3\) são representados por meio de setas \(\vec{x} = \left( x, y, z \right)\) ou \(\vec{x} = \left\{ x^i \right\}\).Algumas vêzes é interessante separar o vetor em suas partes temporal e espacial fazendo, por exemplo,
$$
\mathbf{p} = \left( p^0, \vec{p} \right)
$$

Usamos índices gregos como índices do espaço-tempo,
$$
\alpha, \beta, \mu, \nu = 0, 1, 2, 3,
$$

enquanto índices latinos são puramente espaciais:
$$
i, j, k = 1, 2, 3.
$$

\(\left\{ \mathbf{\hat{e}}_{\mu} \right\}\) é a base canônica de \(M_4\), onde \(\mathbf{\hat{e}}_0\) é um vetor unitário puramente temporal e \(\mathbf{\hat{e}}_1 = \hat{\imath}, \mathbf{\hat{e}}_2 = \hat{\jmath}, \mathbf{\hat{e}}_3 = \hat{k}\).A métrica de Minkowsky é \(\eta_{\mu \nu} = \textit{diag} \left( -, +, +, + \right)\). A base canônica \(\left\{ \mathbf{\hat{e}}_{\mu} \right\}\) é ortonormal em relação à métrica de Minkowsky, ou seja

$$
\mathbf{\eta} \left( \mathbf{\hat{e}}_0, \mathbf{\hat{e}}_0 \right) = – 1,
$$

$$
\mathbf{\eta} \left( \mathbf{\hat{e}}_i, \mathbf{\hat{e}}_j \right) = \delta_{ij} .
$$

A convenção de Einstein para o somatório, onde índices repetidos são somados, é adotada em quase todo o texto. Com ela podemos escrever, por exemplo,

$$
ds^2 = \sum^3_{\mu, \nu = 0} dx^{\mu} dx^{\nu} \eta_{\mu \nu} = dx^{\mu}
dx^{\nu} \eta_{\mu \nu} .
$$

Bibliografia

  • Carrol, Sean, M.: Lecture Notes in General Relativity, gr-qc/9712019, Santa Barbara, 1997.
  • Lopes, J. L.: A Estrutura Quântica da Matéria, Editora UFRJ, Rio e Janeiro, 1993.
  • Misner, C., Thorne, K., Wheeler, A.: Gravitation, W. H. Freeman and Co., San Francisco, 1970.
  • Ohanian, H., Ruffini: Gravitation and Spacetime, W. W. Norton & Company, New York, 1994.
  • Ramond, P.: Field Theory, A Modern Primer, Addison-Wesley, New York, 1990.
  • Weinberg, S.: Gravitation and Cosmology, Principles and Applications of General Theory of Relativity, John Wiley and Sons, New York, 1971.

 

Início: TRE

A estrutura do espaço-tempo

Um evento

O espaço onde os fenômenos ocorrem, segundo a TRE, é um espaço vetorial de quatro dimensões que denotaremos por \(M_4\), o espaço de Minkowsky (que é similar ao \(R^4\), mas não euclidiano, como veremos). Cada ponto deste espaço é denominado um evento e será marcado com as coordenadas \((ct, \hspace{0.25em} x, \hspace{0.25em} y, \hspace{0.25em} z)\) que descrevem quando e onde o evento ocorreu. Cada ponto, portanto, pode ser associado a um quadrivetor \(\mathbf{x} = \left\{ x^{\mu} \right\} = \left( ct, \hspace{0.25em} x, \hspace{0.25em} y, \hspace{0.25em} z \right)\).

Com esta definição podemos reescrever a separação infinitesimal na forma
$$
ds^2 = – c^2 dt^2 + dx^2 + dy^2 + dz^2 = – \left( dx^0 \right)^2 + \left(
dx^1 \right)^2 + \left( dx^2 \right)^2 + \left( dx^3 \right)^2 = \eta_{\mu
\nu} dx^{\mu} dx^{\nu}
$$

onde escrevemos

(6)

$$
\eta_{\mu \nu} = \left( \begin{array}{cccc}
– 1 & 0 & 0 & 0\\
\hspace{0.75em} 0 & 1 & 0 & 0\\
\hspace{0.75em} 0 & 0 & 1 & 0\\
\hspace{0.75em} 0 & 0 & 0 & 1
\end{array} \right) . \label{etaMikowsky}
$$
Por construção as transformações de Lorentz deixam invariante este intervalo. Estas transformações, dadas pelas equações 5, podem ser escrita da seguinte forma:
$$
x^{\prime 0} = \gamma \left( x^0 – \frac{v}{c} x^1 \right),
\hspace{1.5em} x^{\prime 2} = x^2
$$

$$
x^{\prime 1} = \gamma \left( x^1 – \frac{v}{c} x^0 \right), \hspace{1.5em} x^{\prime 3} = x^3 .
$$

Em forma matricial temos
$$
\left[ \begin{array}{c}
x^{\prime 0}\\
x^{\prime 1}\\
x^{\prime 2}\\
x^{\prime 3}
\end{array} \right] = \left[ \begin{array}{cccc}
\gamma & – \gamma v / c & \hspace{0.75em} 0 & \hspace{0.75em} 0\\
– \gamma v / c & \gamma & \hspace{0.75em} 0 & \hspace{0.75em} 0\\
0 & 0 & \hspace{0.75em} 1 & \hspace{0.75em} 0\\
0 & 0 & \hspace{0.75em} 0 & \hspace{0.75em} 1
\end{array} \right] \left[ \begin{array}{c}
x^0\\
x^1\\
x^2\\
x^3
\end{array} \right]
$$

ou ainda, em forma compacta,
$$
x^{\prime \mu} = \Lambda_{\nu}^{\mu} x^{\nu}, \hspace{0.75em} \mu = 0, 1, 2, 3;
$$

onde a soma sob o índice \(\nu\) está subentendida. A invariância do intervalo, \(ds^{\prime 2} = ds^2\) , implica em
$$
\eta_{\mu \nu} dx^{\prime \mu} dx^{\prime \nu} = \eta_{\mu \nu}
\Lambda_{\hspace{0.3em} \alpha}^{\mu} dx^{\alpha} \Lambda_{\hspace{0.3em}
\beta}^{\nu} dx^{\beta} = \eta_{\mu \nu} dx^{\mu} dx^{\nu}
$$

e, por conseguinte, vale
$$
\eta_{\mu \nu} \Lambda_{\hspace{0.3em} \alpha}^{\mu}
\Lambda_{\hspace{0.3em} \beta}^{\nu} = \eta_{\alpha \beta} .
$$

A exigência da invariância entre separações de eventos define uma métrica \(\eta\) no espaço-tempo, a chamada métrica de Minkowsky. Tomando \(\mathbf{x}\) e \(\mathbf{y}\) como vetores de \(M_4\) definimos uma aplicação bilinear e simétrica satisfazendo

  • \(\mathbf{\eta} \left( \mathbf{x}, \mathbf{x} \right) = \left|
    \mathbf{x} \right|^2\) , onde \(\left| \mathbf{x} \right|\) é a norma ou comprimento de \(\mathbf{x}\)
  • \(\mathbf{\eta} \left( \mathbf{x}, \mathbf{y} \right) = \mathbf{\eta}
    \left( \mathbf{y, x} \right)\)
  • \(\eta \left( \mathbf{x}, \mathbf{x} \right) \hspace{0.75em} \left\{
    \begin{array}{c}
    = 0\\
    > 0\\
    < 0
    \end{array} \right. \begin{array}{c}
    \hspace{0.75em} \text{separação tipo luz,}\\
    \hspace{0.75em} \text{separação tipo espaço,}\\
    \hspace{0.75em} \text{separação tipo tempo.}
    \end{array}\)
Tipo de vetores

Observe, no entanto, que ela não é positiva como a métrica euclidiana, definida pelo produto interno ou produto escalar. Dizemos que \(M_4\) é um espaço pseudo-euclidiano.

Usando como base de \(M_4\) os vetores \(\left\{ \mathbf{\hat{e}}_{\mu} \right\} = \left\{ \hat{t}, \hat{\imath}, \hat{\jmath},
\hat{k} \right\}\) podemos obter os componentes da métrica
$$
\eta_{\mu \nu} = \mathbf{\eta} \left( \mathbf{\hat{e}}_{\mu} \mathbf{,
\hat{e}_{\nu}} \right) = \left\{
\begin{array}{cl}
\mathbf{\eta} \left( \mathbf{\hat{e}}_0 \mathbf{, \hat{e}_0} \right) & =
– 1\\
\mathbf{\eta} \left( \mathbf{\hat{e}}_i \mathbf{, \hat{e}}_j \right) & =
\delta_{ij}\\
\mathbf{\eta} \left( \mathbf{\hat{e}}_0 \mathbf{, \hat{e}}_i \right) & =
0.
\end{array} \right. .
$$

São estes os componentes já exibidos na equação (5).

Observe que dois eventos ligados por um feixe de luz, como a emissão e captação de um fóton, por exemplo, estão separados por uma distância nula, ou seja, um vetor não nulo pode ter comprimento zero. Para ver isto fazemos
$$
ds^2 = – c^2 dt^2 + dx^2 + dy^2 + dz^2 =
$$

$$
= dt^2 \left[ – c^2 + \frac{dx^2}{dt^2} + \frac{dy^2}{dt^2} +
\frac{dz^2}{dt^2} \right] = dt^2 \left[ – c^2 + v^2 \right] = 0
$$

já que para o fóton \(v = c. \hspace{0.75em}\) Observe ainda que um vetor pode ter norma negativa ou, ainda, um vetor não nulo pode ter norma nula.
Este é o caso de vetores sobre o cone de luz
$$
– c^2 t^2 + x^2 + y^2 + z^2 = 0,
$$

Figura 6: Cone de luz

ilustrado na figura 6. A partir de um evento colocado na origem \(O\), o espaço fica dividido em três regiões distintas: o futuro e o passado de \(O\) , dentro do cone, e uma região sem conexão causal com \(O\).

O passado é composto por pontos onde ocorreram eventos que podem influenciar o evento em \(O\) por meio de alguma interação causal. Por outro lado \(O\) pode influenciar todos os eventos dentro do cone do futuro. Nenhum evento fora do cone pode afetar \(O\) nem ser por ele afetado pois não podem estar conectados por nenhuma interação com velocidade menor ou igual à da luz. A velocidade da luz é uma velocidade limite para a transmissão de qualquer informação dentro do panorama de Relatividade Especial.

Vetores e tensores de M4

(8) Com frequência usaremos um abuso de linguagem, comum na literatura, dizendo que o vetor \(\mathbf{x}\) é simplesmente \(x^{\mu}\).

O espaço-tempo é um espaço vetorial de quatro dimensões onde a métrica ou produto interno foi definido de modo a manter invariante a separação entre eventos. Se \(\mathbf{x} \in M_4\) então \(\mathbf{x =} x^{\mu} \mathbf{\hat{e}}_{\mu}\). Usaremos a notação(8)
$$
\mathbf{x =} \left( x^0, x^1, x^2, x^3 \right) \text{ ou, abreviadamente, } \mathbf{x =} \left\{ x^{\mu} \right\} .
$$

Observe que \(\mathbf{x}\) é um objeto geométrico que nada tem a ver com o sistema de coordenadas escolhido enquanto enquanto os componentes \(x^{\mu}\) dependem da escolha da base \(\left\{ \mathbf{\hat{e}}_{\mu} \right\}\) e, portanto, do sistema de coordenadas utilzado. De acordo com a definição da norma temos
$$
\left| \mathbf{x} \right|^2 = \mathbf{\eta} \left( \mathbf{x}, \mathbf{x}
\right) = \mathbf{\eta} \left( x^{\mu} \mathbf{\hat{e}}_{\mu}, x^{\nu}
\mathbf{\hat{e}}_{\nu} \right) = x^{\mu} x^{\nu} \mathbf{\eta} \left(
\mathbf{\hat{e}}_{\mu}, \mathbf{\hat{e}}_{\nu} \right) = x^{\mu} x^{\nu}
\eta_{\mu \nu}
$$

e, portanto, \(\mathbf{x}\) tem comprimento invariante sob transformações de Lorentz. Diremos que \(x^{\mu}\) são os componentes contravariantes do vetor enquanto
$$
x_{\mu} = \eta_{\mu \nu} x^{\nu}
$$

são os componentes covariantes. Observe que \(x_0 = \eta_{0 \nu} x^{\nu} = – x^0\) e que, com esta notação,
$$
\left| \mathbf{x} \right|^2 = x^{\mu} x_{\mu} = – \left( x^0 \right)^2 +
x^i x_i = – \left( x^0 \right)^2 + \vec{x} \cdot \vec{x} .
$$

Se definirmos como \(\eta^{\mu \nu}\) como os componentes da matriz inversa de \(\mathbf{\eta,}\) de forma que
$$
\mathbf{\eta}^{- 1} \mathbf{\eta = I} \Rightarrow \eta^{\mu \alpha}
\eta_{\alpha \nu} = \delta_{\nu}^{\mu}
$$

então podemos retornar aos componentes contravariantes fazendo
$$
x^{\mu} = \eta^{\mu \nu} x_{\nu} .
$$

Definiremos como vetores de \(M_4\) todas as quantidades que se transformam da mesma forma que \(\mathbf{x.}\) O comprimento de todos os vetores, assim como o produto interno de dois vetores
$$
\mathbf{\eta} \left( \mathbf{u}, \mathbf{v} \right) = \mathbf{\eta} \left(
u^{\mu} \mathbf{\hat{e}}_{\mu}, v^{\nu} \mathbf{\hat{e}}_{\nu} \right) =
u^{\mu} v^{\nu} \mathbf{\eta} \left( \mathbf{\hat{e}}_{\mu},
\mathbf{\hat{e}}_{\nu} \right) = u^{\mu} v^{\nu} \eta_{\mu \nu} = u^{\mu}
v_{\mu},
$$

denominado a contração de \(\mathbf{u}\) e\(\mathbf{v,}\) são escalares, independentes do sistema de referência. Em particular será útil definir os vetores velocidade e momento, o que faremos a seguir.

Uma trajetória em \(M_4\) é uma curva parametrizada também chamada de linha mundo da partícula,
$$
P \left( \tau \right) = \mathbf{x} \left( \tau \right) = x^{\mu} \left(
\tau \right) \mathbf{\hat{e}}_{\mu},
$$

onde \(\tau\) é um parâmetro qualquer embora, com frequência, seja conveniente usar o tempo próprio. Como \(\mathbf{x}\) é um vetor de \(M_4\) então
$$
\mathbf{u =} \frac{d \mathbf{x}}{d \tau} = \frac{dx^{\mu}}{d \tau}
\mathbf{\hat{e}}_{\mu} = u^{\mu} \mathbf{\hat{e}}_{\mu}
$$

onde definimos
$$
u^{\mu} = \frac{dx^{\mu}}{d \tau} .
$$

\(\mathbf{u,}\) a quadri-velocidade, é também um vetor, tangente à linha mundo. Seus componentes são
$$
u^0 = \frac{dx^0}{d \tau} = \frac{cdt}{d \tau} = \frac{c}{\sqrt{1 –
\beta^2}},
$$

$$
u^i = \frac{dx^i}{d \tau} = \frac{dt}{d \tau} \frac{dx^i}{dt} =
\frac{v^i}{\sqrt{1 – \beta^2}} .
$$

Portanto
$$
\mathbf{u} = \left( \frac{c}{\sqrt{1 – \beta^2}}, \frac{v_x}{\sqrt{1 –
\beta^2}}, \frac{v_y}{\sqrt{1 – \beta^2}}, \frac{v_z}{\sqrt{1 – \beta^2}}
\right) = \gamma \left( c, \hspace{0.75em} \vec{v} \right) .
$$

A partir desta velocidade construimos outro vetor paralelo à 4-velocidade, o 4-momento
$$
\mathbf{p =} m \mathbf{u} = mu^{\mu} \mathbf{\hat{e}}_{\mu},
$$

onde \(m\) é a massa da partícula. Seus componentes são
$$
\mathbf{p} = \left( \frac{mc}{\sqrt{1 – \beta^2}}, \frac{m \vec{v}}{\sqrt{1
– \beta^2}} \right) = m \gamma \left( c, \sim \vec{v} \right) .
$$

No referencial comóvel \(\vec{v} = 0\) e \(\gamma = 1\) e, portanto, estes vetores assumem as formas particulares
$$
u^{\mu} = \left( c, \vec{0} \right) \hspace{1.5em} \text{ e } \hspace{1.5em} p^{\mu} = \left( mc, \vec{0}
\right) .
$$

Como se verá \(\mathbf{p}\) é uma constante do movimento enquanto o momento linear tridimensional \(\vec{p} = m \vec{v} \mathbf{,}\) que é uma quantidade conservada classicamente, não se conserva na TRE. As normas de \(\mathbf{u}\) e\(\mathbf{p,}\) em qualquer referencial inercial, são
$$
\left| \mathbf{u} \right|^2 \mathbf{=} u^{\mu} u_{\mu} = – \left( u^0
\right)^2 + u^i u_i = \gamma^2 \left( – c^2 + v^2 \right) = \frac{- c^2 +
v^2}{1 – \beta^2} = – c^2 ;
$$

$$
\left| \mathbf{p} \right|^2 = p^{\mu} p_{\mu} = m^2 u^{\mu} u_{\mu} = – m^2
c^2 .
$$

Tensores do espaço-tempo O mais simples dos tensores é um escalar, um tensor de ordem zero. Escalares são invariantes sob transformações de Lorentz, como ocorre com a separação de eventos \(ds^2\) , com o tempo próprio \(\tau\) , ou com a norma do vetor quadrivelocidade, \(\left| \mathbf{u} \right|^2 = – c^2\).

Um vetor é um tensor de ordem um, um objeto de quatro componentes que se transforme como \(x^{\mu}\) :
$$
A^{\prime \mu} = \Lambda_{\nu}^{\mu} A^{\nu} .
$$

O vetor quadri-velocidade e o quadri-momento são exemplos. Um tensor mais geral, de ordem \(r\) é um objeto com \(4^r\) componentes que se transforma deacordo com
$$
A^{\prime \alpha \beta \ldots \gamma} = \Lambda_{\mu}^{\alpha}
\Lambda_{\nu}^{\beta} \ldots \Lambda_{\rho}^{\gamma} A^{\mu \nu \ldots
\rho} .
$$

Um exemplo é o tensor formada pelo produto externo \(x^{\mu} x^{\nu}\).

 

Dinâmica Relativística

As Transformações de Lorentz


A teoria da relatividade afirma que observadores em movimento relativo concordam quanto à forma das equações que descrevem os fenômenos observados. é necessário então descobrir a lei de transformação que leva à descrição feita em um referencial para o outro. Matematicamente esta é uma transformação particular de coordenadas, que passamos a explorar.

Suponhamos que dois observadores em movimento relativo analisam um pulso de luz. Cada observador está em repouso nos referenciais \(S\) e \(S^{\prime}\) com origens respectivamente em \(O\) e \(O^{\prime} . \hspace{0.75em} S^{\prime}\) se move com velocidade \(v\) no direção do eixo \(Ox\) em relação a \(S\). Como a velocidade da luz é a mesma em todos os referenciais inerciais, o que foi demonstrado pelo experimento de Michelson-Morley, os observadores devem ver o pulso de luz se afastando de forma esférica. Se isto não fosse verdade um dos observadores seria capaz de determinar seu movimento relativo em relação ao outro, o que contradiz o princípio da relatividade. Consideremos ainda dois eventos infinitesimalmente próximos ligados por este raio de luz. Para os observadores em \(S\) e \(S^{\prime}\) estes eventos estarão separados por \(ds^{\prime}\) e \(ds^{\prime,}\) respectivamente dados por
$$
ds^2 = – dt^2 + dx^2 + dy^2 + dz^2,
$$

$$
ds^{\prime 2} = – dt^{\prime 2} + dx^{\prime 2} + dy^{\prime 2} +
dz^{\prime 2} .
$$

(5) Na verdade esta conclusão é uma inferência. Experimentalmente não é possível
observar o movimento de uma partícula em um ambiente totalmente livre de campos de força.

(6) Transformação lineares levam retas em retas.

Devido à invariância da velocidade da luz estas separação deverão ser iguais, \(ds^{\prime 2} = ds^2\). Observamos que a transformação de Galileu não deixa invariante uma frente de onda de luz que satisfaz, no referencial em repouso com relação à fonte, a equação \(x^2 + y^2 + z^2 = c^2 t^2\). Sabemos da observação(5) que partículas livres seguem trajetórias que são linhas retas e isto deve ser preservado em qualquer referencial inercial. Procuramos então uma transformação linear(6) na forma de
$$
\begin{array}{cl}
x^{\prime} & = \alpha x + \mu t\\
y^{\prime} & = y\\
z^{\prime} & = z\\
t^{\prime} & = \lambda x + \delta t,
\end{array}
$$

onde \(\alpha, \hspace{0.75em} \beta, \hspace{0.75em} \gamma \hspace{0.75em} \text{e} \hspace{0.75em} \delta \hspace{0.75em} \) são constantes a determinar. Sem perda de generalidade podemos colocar o observador fixo na origem de \(S^{\prime}\) e, portanto, sua coordenada \(x^{\prime} = 0\) enquanto \(x\) será sua coordenada do ponto de vista do observador em \(S\). Como consequência
$$
x^{\prime} = \alpha x + \mu t = 0 \Rightarrow \frac{x}{t} = v = –
\frac{\mu}{\alpha} .
$$

Já um observador fixo na origem de \(S\) \(\left( x = 0 \right)\) terá em \( S^{\prime} \) as coordenadas
$$
x^{\prime} = – \alpha vt ; \hspace{0.75em} t^{\prime} = \delta t.
$$

O referencial \(S\) se afasta de \(S^{\prime}\) com velocidade \(– v\) e
$$
\frac{x^{\prime}}{t^{\prime}} = – v = – \frac{\alpha}{\delta} v
$$

e, portanto \(\alpha = \delta\). Resta descobrir \(\alpha\) e \(\gamma\) na transformação
$$
\begin{array}{cl}
x^{\prime} & = \alpha \left( x – vt \right)\\
t^{\prime} & = \lambda x + \alpha t.
\end{array}
$$

Para o observador em \(S^{\prime}\) a frente de onda será vista como
$$
x^{\prime 2} + y^{\prime 2} + z^{\prime 2} = c^2 t^{\prime 2} \Rightarrow
\alpha^2 \left( x – vt \right)^2 + y^2 + z^2 = c^2 \left( \lambda x +
\alpha t \right)^2 \Rightarrow
$$

$$
x^2 \left( \alpha^2 – \lambda^2 c^2 \right) + y^2 + z^2 – 2 xt \left(
\alpha^2 v + c^2 \alpha \lambda \right) = c^2 t^2 \left( \alpha^2 –
\alpha^2 v^2 / c^2 \right) .
$$

Para igualarmos esta expressão à \(x^2 + y^2 + z^2 = c^2 t^2\) devemos ter
$$
\alpha^2 – \lambda^2 c^2 = 1 ; \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \alpha^2 – \alpha^2 v^2 / c^2 ;
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \alpha^2 v
+ c^2 \alpha \lambda = 0,
$$

cuja solução é
$$
\alpha = \frac{1}{\sqrt{1 – \left( v / c \right)^2}}, \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \lambda = \frac{- v /
c^2}{\sqrt{1 – \left( v / c \right)^2}} .
$$

As transformações de coordenadas que deixam invariante a frente de onda luminosa são as chamadas transformações de Lorentz e são dadas por

(5)

$$
x^{\prime} = \frac{x – vt}{\sqrt{1 – \left( v / c \right)^2}},
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} y^{\prime} = y
$$

$$
t^{\prime} = \frac{t – vx / c^2}{\sqrt{1 – \left( v / c \right)^2}},
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em} z^{\prime} =
z. \label{TransfLorentz}
$$
As transformações inversas, para se transformar a descrição do referencial \(S^{\prime}\) para \(S\) , pode ser obtida simplesmente lembrando que \(S\) se move com velocidade \(– v\) em relação a \(S^{\prime}\). Portanto
$$
x = \frac{x^{\prime} + vt^{\prime}}{\sqrt{1 – \left( v / c \right)^2}},
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} y = y^{\prime}
$$

$$
t = \frac{t^{\prime} + vx^{\prime} / c^2}{\sqrt{1 – \left( v / c
\right)^2}}, \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} z = z^{\prime} .
$$

Revisando a contração espacial e dilatação temporal

Uma vez obtidas as transformações de Lorentz os efeitos da contração espacial e dilatação \ temporal se tornam mais fáceis de serem verificados. Suponha por exemplo, que queremos medir o comprimento de uma régua que tem uma ponta em \(x_1\) e a outra em \(x_2\). No referencial de repouso seu comprimento será
$$
L_0 = x_2 – x_1 .
$$

Para um observador em movimento, com velocidade \(v\) ao longo do comprimento da régua, seu comprimento será
$$
L = x_2^{\prime} \left( t^{\prime} \right) – x_1^{\prime} \left( t^{\prime}
\right) .
$$

Observe que as medidas de cada ponto devem ser feitas no mesmo instante, \(t^{\prime}\). De acordo com a transformação de Lorentz temos
$$
x^{\prime} = \gamma \left( x – vt \right) \Rightarrow x = \gamma \left(
x^{\prime} + vt^{\prime} \right)
$$

e, portanto,
$$
\begin{array}{cl}
x_2 = & \gamma \left( x_2^{\prime} + vt^{\prime} \right)\\
x_1 = & \gamma \left( x_1^{\prime} + vt^{\prime} \right)
\end{array} .
$$

Dai podemos concluir que o observador em movimento mede um comprimento \(L\) para a régua menor que o medido no referencial de repouso:
$$
L_0 = x_2 – x_1 = \gamma \left( x_2^{\prime} – x_1^{\prime} \right) =
\gamma L.
$$

Invariância da equação de onda

Um exercício interessante pode ser feito para mostrar que a equação a equação de onda para a luz é invariante sob a transformação de Lorentz. Das equações de Maxwell se pode deduzir que a luz obedece a equação
$$
\left[ \frac{\partial^2}{\partial x^2} + \frac{\partial^2}{\partial y^2} +
\frac{\partial^2}{\partial z^2} – \frac{1}{c^2} \frac{\partial^2}{\partial
t^2} \right] \Phi \left( x, y, z, t \right) = 0,
$$

que é a equação de onda se propagando com velocidade \(c\). Em um referencial em movimento \(S^{\prime}\) teremos
$$
\left[ \frac{\partial^2}{\partial x^{\prime 2}} +
\frac{\partial^2}{\partial y^{\prime 2}} + \frac{\partial^2}{\partial
z^{\prime 2}} – \frac{1}{c^2} \frac{\partial^2}{\partial t^{\prime 2}}
\right] \Phi \left( x^{\prime}, y^{\prime}, z^{\prime}, t^{\prime} \right)
= 0
$$

sendo que \(\Phi\) é um escalar, satisfazendo portanto \(\Phi \left( x, y, z, t \right) = \Phi \left( x^{\prime}, y^{\prime}, z^{\prime}, t^{\prime} \right)\). Para simplificar as operações vamos considerar o caso de uma onda plana, com propagação na direção de \(x\) apenas, descrita por \(\Phi \left(x, t \right)\). Para relacionar as derivadas temos
$$
x^{\prime} = \gamma \left( x – vt \right) ; \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} t^{\prime} = \gamma \left( t – vx / c^2
\right),
$$

e, portanto, as derivadas espaciais e temporal em termos das novas
variáveis:
$$
\frac{\partial \Phi}{\partial x} = \frac{\partial \Phi}{\partial
x^{\prime}} \frac{\partial x^{\prime}}{\partial x} + \frac{\partial
\Phi}{\partial t^{\prime}} \frac{\partial t^{\prime}}{\partial x} = \gamma
\frac{\partial \Phi}{\partial x^{\prime}} – \frac{\gamma v}{c^2}
\frac{\partial \Phi}{\partial t^{\prime}},
$$

$$
\frac{\partial \Phi}{\partial t} = \frac{\partial \Phi}{\partial
x^{\prime}} \frac{\partial x^{\prime}}{\partial t} + \frac{\partial
\Phi}{\partial t^{\prime}} \frac{\partial t^{\prime}}{\partial t} = –
\gamma v \frac{\partial \Phi}{\partial x^{\prime}} + \gamma \frac{\partial
\Phi}{\partial t^{\prime}} .
$$

Os operadores derivadas se relacionam, nos dois sistemas de coordenadas, da seguinte forma:
$$
\frac{\partial}{\partial x} = \gamma \frac{\partial}{\partial x^{\prime}} –
\frac{\gamma v}{c^2} \frac{\partial}{\partial t^{\prime}} ;
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \frac{\partial}{\partial t}
= – \gamma v \frac{\partial}{\partial x^{\prime}} + \gamma
\frac{\partial}{\partial t^{\prime}} .
$$

Podemos construir a regra de transformação para as derivadas segundas,
$$
\frac{\partial^2}{\partial x^2} = \frac{\partial}{\partial x} \left(
\frac{\partial}{\partial x} \right) = \left( \gamma
\frac{\partial}{\partial x^{\prime}} – \gamma \frac{v}{c^2}
\frac{\partial}{\partial t^{\prime}} \right) \left( \gamma
\frac{\partial}{\partial x^{\prime}} – \gamma \frac{v}{c^2}
\frac{\partial}{\partial t^{\prime}} \right) =
$$

$$
= \gamma^2 \left( \frac{\partial^2}{\partial x^{\prime 2}} – \frac{2
v}{c^2} \frac{\partial^2}{\partial x^{\prime} \partial t^{\prime}} +
\frac{v^2}{c^4} \frac{\partial^2}{\partial t^{\prime 2}} \right) ;
$$

$$
\frac{\partial^2}{\partial t^2} = \frac{\partial}{\partial t} \left(
\frac{\partial}{\partial t} \right) = \left( – \gamma v
\frac{\partial}{\partial x^{\prime}} + \gamma \frac{\partial}{\partial
t^{\prime}} \right) \left( – \gamma v \frac{\partial}{\partial x^{\prime}}
+ \gamma \frac{\partial}{\partial t^{\prime}} \right) =
$$

$$
= \gamma^2 \left( v^2 \frac{\partial^2}{\partial x^{\prime 2}} – 2 v
\frac{\partial^2}{\partial x^{\prime} \partial t^{\prime}} +
\frac{\partial^2}{\partial t^{\prime 2}} \right) .
$$

Escrevendo a equação de onda no referencial em movimento temos
$$
\left[ \frac{\partial^2}{\partial x^2} – \frac{1}{c^2}
\frac{\partial^2}{\partial t^2} \right] \Phi = 0 \Rightarrow
$$

$$
\gamma^2 \left[ \frac{\partial^2 \Phi}{\partial x^{\prime 2}} \left( 1 –
\frac{v^2}{c^2} \right) – \frac{1}{c^2} \frac{\partial^2 \Phi}{\partial
t^{\prime 2}} \left( 1 – \frac{v^2}{c^2} \right) \right] = 0,
$$

ou, simplesmente,
$$
\frac{\partial^2 \Phi}{\partial x^{\prime 2}} – \frac{1}{c^2}
\frac{\partial^2 \Phi}{\partial t^{\prime 2}} = 0,
$$

o que mostra a invariância da equação de onda sob transformações de Lorentz. De fato se pode mostrar que as equações de Maxwell são invariantes sob estas transformações. Lorentz deduziu corretamente a formas destas transformações à partir das equações do eletromagnetismo, mas não foi capaz de aplicá-las ao uso da mecânica, como fez Einstein.

Transformação de velocidades

A partir das transformações de Lorentz
$$
x^{\prime} = \gamma \left( x – vt \right), \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} y^{\prime} = y, \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} z^{\prime} = z,
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em} t^{\prime}
= \gamma \left( t – vx / c^2 \right),
$$

podemos obter uma expressão para a relação entre velocidades nos dois referenciais inerciais. Denotamos por
$$
u_x = dx / dt \text{e} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
u_x^{\prime} = dx^{\prime} / dt^{\prime}
$$

as velocidades em \(S\) e \(S^{\prime}\) respectivamente e calculamos as diferenciais
$$
dx^{\prime} = \gamma \left( dx – vdt \right), \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} dy^{\prime} = dy,
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em} dz^{\prime}
= dz, \hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
dt^{\prime} = \gamma \left( dt – v / c^2 dx \right) .
$$

O componente em \(x\) da velocidade é
$$
u_x^{\prime} = \frac{dx^{\prime}}{dt^{\prime}} = \frac{dx – vdt}{dt – v /
c^2 dx} = \frac{u_x – v}{1 – v / c^2 u_x} .
$$

Na última igualdade dividimos numerador e denominador por \(dt\). Da mesma forma podemos encontrar o componente \(y\) ,
$$
u_y^{\prime} = \frac{dy^{\prime}}{dt^{\prime}} = \frac{dy}{\gamma \left( dt
– v / c^2 dx \right)} = \frac{u_y}{\gamma \left( 1 – v / c^2 u_x \right)},
$$

e o componente \(z\) ,
$$
u_z^{\prime} = \frac{dz^{\prime}}{dt^{\prime}} = \frac{dz}{\gamma \left( dt
– v / c^2 dx \right)} = \frac{u_z}{\gamma \left( 1 – v / c^2 u_x \right)} .
$$

Isto mostra que os vetores velocidades não se somam da mesma forma que na mecânica de Newton.

Exemplo: Uma partícula A se move com velocidade \(v_A = 0, 5 c\) no referencial do laboratório, e emite uma partícula B com velocidade \(v_B = 0, 5 c\) em relação à sua própria velocidade. Qual a velocidade \(W\) da partícula B no laboratório? O laboratorio tem velocidade \(– v_A\) em relação a partícula:
$$
W = \frac{v_A + v_B}{1 + v_A v_B / c^2} = \frac{c}{1 + \left( 0, 5
\right)^2} = 0, 8 c.
$$

Tempo Próprio

Vimos que as medidas do tempo variam com a velocidade do observador que analisa o fenômeno sob consideração. O tempo próprio \(\tau\) de uma partícula é definido como o tempo medido por um observador que se move junto com a partícula, no chamado referencial comóvel. Neste caso \(dx = dy = dz = 0\) para o este observador. Como a separação em \(M_4\) é invariante temos, em comparação com um outro observador qualquer, temos que
$$
ds^2 = – c^2 d \tau^2 = – c^2 dt^2 + dx^2 + dy^2 + dz^2,
$$

ou seja,
$$
d \tau^2 = dt^2 – \frac{1}{c^2} \left( dx^2 – dy^2 – dz^2 \right) = \left(
1 – \frac{v^2}{c^2} \right) dt^2,
$$

onde foi feita a substituição
$$
v^2 = \left( \frac{dx}{dt} \right)^2 + \left( \frac{dy}{dt} \right)^2 +
\left( \frac{dz}{dt} \right)^2,
$$

sendo \(v\) a velocidade relativa entre os dois referenciais e, por conseguinte, a velocida da partícula estudada pelo observador não comóvel. Podemos ainda escrever
$$
d \tau = dt \sqrt{1 – \left( v / c \right)^2} = dt \sqrt{1 – \beta^2}
$$

e, como consequência
$$
\frac{dt}{d \tau} = \frac{1}{\sqrt{1 – \beta^2}} .
$$

O tempo próprio é um escalar
$$
d \tau^2 = \frac{- 1}{c^2} ds^2
$$

e portanto invariante sob mudanças de coordenadas que satisfazem as transformações de Lorentz. Por este motivo é um bom candidato a ser usado como parâmetro nas equações do movimento.

 

A estrutura do espaço-tempo

Consequências da invariância da velocidade da luz


Como veremos, a simples exigência de que a velocidade da luz seja a mesma quando medida por um observador em um referencial inercial qualquer implica em profundas consequências tanto para o entendimento da mecânica quanto da estrutura do espaço-tempo.

Simultaneidade

Considere a situação ilustrada na figura 2. Dois eventos ocorrem em \(P\) e \(P^{\prime}\) igualmente distantes do observador \(O\) que está em repouso. Está observador poderá, por exemplo, coletar luz emitida pelos eventos e concluirá que os eventos foram simultâneos.

Figura 2

Outro observador \(O^{\prime}\) está em movimento na direção da separação entre os eventos. Como os sinais de luz levam algum tempo para alcançá-lo ele terá se deslocado de \(\Delta x\) na direção de \( P^{\prime}\) e, portanto, afirmará que \(P^{\prime}\) ocorreu antes que \(P\). Isto mostra que a simultaneidade não é um conceito absoluto. No entanto um observador em movimento transversal com relação à separação \(PP^{\prime}\), com qualquer velocidade, afirmará que os eventos ocorreram ao mesmo tempo.

Dilatação temporal

Na apresentação da TRE Einstein muitas vezes considerou necessário descrever uma forma operacional para se medir uma determinada quantidade. Para medir um intervalo de tempo, por exemplo, nada melhor que construir um relógio de luz, dada a constância de sua velocidade para todos os referenciais inerciais. Considere que dois observadores medem um intervalo de tempo, um deles no referencial \(O\) que se move com velocidade v em relação a \(O^{\prime}\). Um sinal de luz é emitido do ponto \(P_1\) , refletido por um espelho e coletado de volta em \(P_2\) ,como ilustrado na figura 3.

Figura 3

O observador \(O\) carrega consigo o relógio de luz e verifica que o tempo completo de ida e volta do sinal de luz é \(T = 2 \Delta t\) onde
$$ \Delta t = \frac{L}{c} . $$

O observador \(O^{\prime}\) , por sua vez, vê o relógio passar com velocidade \(v\) e medirá um intervalo de tempo \(T^{\prime} = 2 \Delta t^{\prime}\). Observe na figura que, pelo teorema de Pitágoras, temos
$$
L^{\prime 2} + \left( v \Delta t^{\prime} \right)^2 = \left( c \Delta
t^{\prime} \right)^2
$$

e, portanto,
$$
L^{\prime 2} = \Delta t^{\prime 2} \left( c^2 – v^2 \right) .
$$

Concluimos dai que
$$
\Delta t^{\prime} = \frac{L^{\prime}}{\sqrt{c^2 – v^2}} =
\frac{L^{\prime}}{c} \frac{1}{\sqrt{1 – \left( v / c \right)^2}} .
$$

Observe que \(L^{\prime} = L\) , pois não há ambiguidade no comprimento de distâncias perpendiculares à direção do movimento, logo
$$
T = \frac{2 L}{c}, \hspace{0.75em} T^{\prime} = \frac{2 L}{c}
\frac{1}{\sqrt{1 – \left( v / c \right)^2}} .
$$

Concluimos que
$$
T^{\prime} = \frac{T}{\sqrt{1 – \left( v / c \right)^2}},
$$
ou seja, o observador \(O^{\prime}\) mede intervalos de tempo maiores para o relógio em movimento, se comparado com as medidas do observador \(O\) , que está em repouso em relação ao relógio.

Contração espacial

Colocamos agora uma régua para medir a distância entre \(P_1\) e \(P_2\) nos dois referenciais. No primeiro caso ilustrado na figura 4, um observador \(O^{\prime}\) em repouso em relaçao à régua vê o feixe de luz ser emitido em \(P_1\) e recoletado em \(P_2\).

Figura 4

Como, para este observador, o intervalo de tempo gasto pela luz para percorrer o trajeto de ida é volta é \(T^{\prime}\), dado pela equação 3, a distância medida é \(R_0 =\) \(\overline{P_1 P_2} = vT^{\prime}\). Do ponto de vista do observador em \(O\) o relógio está fixo enquanto régua se move com velocidade \(– v\) e o tempo envolvido é \(T\). Portanto a distância percorrida é \( R = vT. \) Como conclusão os dois observadores medem uma distância diferente, relacionadas por
$$
\frac{R_0}{R} = \frac{T^{\prime}}{T} = \frac{1}{\sqrt{1 – \left( v / c
\right)^2}},
$$

o que representa uma contração espacial no sentido do movimento. O observador em movimento em relação à régua, vê seu comprimento como
$$
R = \sqrt{1 – \left( v / c \right)^2} R_0,
$$

onde \(R_0\) é o comprimento obtido por um observador parado em relação à régua.

é costume se definir os seguintes termos para o uso no contexto da TRE. A velocidade relativa do referencial ou objeto em estudo é
$$
\beta = \frac{v}{c},
$$

enquando

(4)

$$
\gamma = \frac{1}{\sqrt{1 – \left( \frac{v}{c} \right)^2}} =
\frac{1}{\sqrt{1 – \beta^2}} . \label{Gamma}
$$
Com estas definições podemos escrever
$$
T^{\prime} = \gamma T^{\prime}, \text{} R^{\prime} = R \sqrt{1 – \beta^2} .
$$

Concluímos que dois observadores em movimento relativo obtém diferentes resultados para medidas de intervalos de tempo e de distância ao longo do movimento. Cada observador verá as réguas do outro com menores comprimentos e seus relógios batendo mais devagar. Este fenômeno é irrelevante para os objetos da experiência diária, que têm velocidades pequenas se comparadas à da luz. No entanto dentro de aceleradores de partículas é possível acelerar partículas até velocidades muito próximas de \(c\) e, nesta situação, os efeitos relativísticos se tornam importantes.

(4) Como veremos mais tarde, a velocidade da luz não pode ser atingida por uma partícula com massa não nula.

Inúmeros exemplos podem ser citados como comprovação experimental destes resultados. Dentro dos aceladores de partículas são produzidas partículas \(\tau\) (tau), que têm meia-vida aproximada de \(3, 05 \times 10^{- 13}\) s quando observadas por um observador em repouso no referencial do laboratório. Elas se apresentam com velocidades muito altas, bem próximas da velocidade da luz(4). Portanto, estas partículas não pode viajar em média uma distância superior a
$$
d = 3 \times 10^8 \hspace{0.25em} \text{m.s}^{- 1} \times 3, 05 \times
10^{- 13} \hspace{0.25em} \text{s} = 9, 15 \times 10^{- 5} \hspace{0.25em}
\text{m},
$$

antes que decaiam sob a forma de outras partículas. No entanto se observa que elas viajam por distâncias muito superiores a esta! A solução para o aparente paradoxo está na TRE. No referencial do laboratório as partículas estão em altas velocidades e por isto seus relógios internos batem mais devagar, permitindo uma viagem mais longa antes do decaimento. Para um referencial colocado sobre as partículas, o chamado referencial comóvel, o tempo flui inalterado mas as distâncias ao longo do movimento ficam contraídas e o resultado final é o mesmo.

Ambos os fenômenos dependem do fator \(\gamma\) definido acima. Partículas \(\tau\) geradas no SLAC, Stanford Linear Accelerator Collider atingem tipicamente \(\gamma = 20\) e as partículas viajam por uma distância média de
$$
20 \times (9, 15 \times 10^{- 5} \hspace{0.25em} \text{m}) = 1, 8 \times
10^{- 2} \hspace{0.25em} \text{m} \approx 1, 8 \hspace{0.25em}
\text{mm}.
$$

Na prática, em um laboratório, a medida do alcance média das partículas é usada para se calcular a meia-vida do \(\tau\).

 

As transformações de Lorentz

Fundamentos Históricos da TRE

Issac Newton

Até o final do século XIX a física se baseava sobre dois pilares: a mecânica de Newton e a sua teoria da gravitação universal e o eletromagnetismo propostos por Faraday e resumidos nas equações de Maxwell. Logo ficou claro, no entanto, que as equações do eletromagnetismo não eram invariantes sob as mesmas leis de transformação que deixavam inalteradas as equações de Newton, as transformações de Galileu. Em outras palavras os processos eletromagnéticos, tais como interação entre cargas e correntes ou a propagação das ondas eletromagnéticas, não são igualmente observados em todos os referenciais inerciais. Além disto Maxwell mostrou sem ambiguidade que a luz é uma onda que se propaga mesmo no vácuo. Deveria haver, portanto, um meio responsável por esta propagação. Formulou-se então o conceito de um sistema de referencial privilegiado que correspondia a este meio, em relação ao qual se poderia determinar o movimento absoluto de todos os corpos. A esse sistema ideal se chamou éter cósmico.

Diversas tentativas foram feitas para resolver a contradição. A primeira possibilidade consistia em considerar que o princípio da relatividade não era aplicável aos fenômenos electromagnéticos, ponto de vista defendido por G. Lorentz, o fundador da teoria eletrônica. Segundo esta visão um sistema inercial parado em relação ao éter é um sistema privilegiado, onde valem as leis de Maxwell. Somente neste sistema a velocidade da luz no vácuo é igual em todas as direções. A segunda possibilidade era a de alterar as equações de Maxwell para que se tornassem invariantes sob as transformações de Galileu, mantendo intactos os conceitos de espaço e tempo clássicos. Esta foi a abordagem adotada por G. Hertz, entre outros. Segundo ele o éter é arrastado pelos corpos em movimento de forma que os fenômenos eletromagnéticos ocorrem da mesma para observadores parados ou em movimento. O princípio da relatividade de Galileu fica assim preservado.

(3) A velocidade da luz, no vácuo, é de aproximadamente \(c = 3 \times 10^{10} cms^{-1}\).


De acordo com as leis da eletrodinâmica a luz é uma onda que se progaga no vácuo com velocidade igual(3) em todas as direções. Por outro lado, de acordo com a composição de velocidades da mecânica de Newton, a velocidade seria diferente se observada por observadores em movimento relativo à fonte. Diversos experimentos foram propostos para detectar este meio. Em 1881 os cientistas americanos Michelson e Morley, entre outros pesquisadores, construiram um aparato com o objetivo de descobrir a velocidade com que a Terra supostamente se desloca através do éter cósmico. O aparelho, representado esquematicamente na figura 1, consistia em uma fonte de luz em \(F\) , refletida por uma placa semi-espelhada \(M\) que divide o feixe de luz. Os espelhos \(M_1\) e \(M_2\) refletem de volta o feixe que é coletado pelo detetor em \(O\). Inicialmente um dos braços do instrumento foi alinhado com a direção de movimento da Terra, ficando o outro na perpendicular.

Experimento de Michelson e Morley

Qualquer atraso na coleta de um os feixes de luz causaria figuras de interferência formadas em \(F\) , observadas por meio do interferômetro de Michelson, o que dotava a montagem de alto grau de precisão. A experiência foi tentada para diversas orientações dos braços, em diferentes horas do dia e épocas do ano, sempre com resultado nulo. Esta é provalvelmente a mais famosa experiência a se tornar importante por seu resultado negativo! Não foi possível observar o movimento da Terra em relação ao éter e a hipótese da existência de um sistema de referência privilegiado foi rejeitada experimentalmente.

Uma terceira possibilidade para a solução do confito entre a teoria eletromagnética e a mecânica clássica consiste na rejeição das noções clássicas sobre o espaço e tempo, a reconstrução das equações do movimento e a manutenção das equações de Maxwell. Esta foi, como veremos, a atitude adotada por Einstein e que deu origem à TRE.

A teoria de Einstein foi construída sobre dois postulados:

  • A velocidade da luz é a mesma para todos os observadores, independentemente de seu movimento relativo.
  • As leis da física são as mesmas em qualquer referencial inercial.

O primeiro postulado estabelece que a velocidade da luz, que denotaremos por \(c\), é uma constante universal da natureza. Um feixe de luz disparado por uma fonte em alta velocidade terá a mesma velocidade que um feixe disparado por uma fonte em repouso, em relação ao observador. O segundo representa um conceito importante, mesmo para a física clássica, embora não tenha sido justamente discutido e considerado no contexto clássico, antes da apresentação da Relatividade. Ele se baseia no conceito de que as leis da natureza devem ser válidas para quaisquer observadores postados em diferentes referenciais referenciais. Em outras palavras a forma matemática sob que estas leis estão expresas deve ser invariante para os diversos observadores.

Einstein desenvolveu uma teoria do movimento consistente com a invariância da velocidade da luz e com as propriedades de transformação da teoria de Maxwell. Ela é denominada Teoria da Relatividade Especial para se diferenciar da Teoria da Relatividade Geral, que generaliza a teoria especial com leis que são invariantes sob transformações gerais de coordenadas.

Página manuscrita de Einstein sobre a Teoria da Relatividade Geral, publicada em Annalen der Physik in 1916.

A Teoria da Relatividade Geral (TRG) é uma generalização da TRE. Na primeira Einstein estudou a invariância das leis da mecânica sob todas as transformações entre referenciais inerciais, o que significa dizer que elas tem a mesma forma para todos os observadores inerciais. Na TRG ele levou adiante esse princípio para valer para todos os observadores, inerciais ou acelerados. O resultado dessa busca terminou por exigir um formalismo matemático já proposto pelo matemático Bernhard Riemann. A geometria Rimannaniana é uma generalização de espaços que não necessariamente satisfazem os postulados de Euclides.

A TRG leva a diversas conclusões surpreendentes como a de que relógios próximos de grandes massas batem mais devagar pois ali e espaço-tempo é curvo. Ela é a melhor descrição conhecida para a interação gravitacional, que é uma consequência da curvatura do espaço-tempo, causada pela matéria.

Como a gravitação é a força predominante em largas escalas, a TRG é o fundamento da Cosmologia Moderna. Ela também é importante na descrição da evoluções das estrelas e da formação de buracos negros.

 

    Equações de campo da Teoria da Relatividade Geral

Relatividade de Galileu

Relatividade de Galileu


O ponto de partida para a descrição matemática de uma lei da natureza é a definição de um sistema de referencial e de coordenadas. Na mecânica os referenciais inerciais são particularmente importantes pois neles as equações do movimento tomam sua forma mais simples. Referenciais inerciais são aqueles em que os observadores não estão sujeitos à ação de forças externas e, portanto, estão em repouso ou se deslocam em movimento retilíneo uniforme.

Pode parecer irrelevante incluir a coordenada tempo, t, nessa transformação, uma vez que ela fica inalterada em qualquer referencial. Não será esse o caso quando considerarmos a relatividade.

Estabeleceremos um sistema de coordenadas em um destes referenciais marcando cada “ponto”, que chamaremos de evento, com os números \((t, \hspace{0.25em} x, \hspace{0.25em} y, \hspace{0.25em} z)\) descrevendo quando e onde o evento ocorreu.

Suponha que um observador no referencial \(S\) associa a um evento as coordenadas \((t, \hspace{0.25em} x, \hspace{0.25em} y, \hspace{0.25em} z)\) enquanto outro, no referencial \(S \acute{}\) associa a um evento as coordenadas \((t^{\prime}, \hspace{0.25em} x^{\prime}, \hspace{0.25em} y^{\prime}, \hspace{0.25em} z^{\prime})\). Se o referencial \(S \acute{}\) se move em relação a \(S\) com velocidade \(v\) constante, por exemplo na direção do eixo \(x\), então os dois sistemas de coordenadas se relacionam da seguinte forma:

$$
\left\{ \begin{array}{cl}
t^{\prime} = & t\\
x^{\prime} = & x – vt\\
y^{\prime} = & y\\
z^{\prime} = & z.
\end{array} \right.
$$

No caso mais geral do referencial \(S^{\prime}\) com velocidade \(v = \left( v_x, \hspace{0.25em} v_y, \hspace{0.25em} v_z \right)\) em relação a \(S\) a regra de transformação de coordenadas e sua inversa são dadas respectivamente por
$$
\left\{ \begin{array}{cl}
t^{\prime} = & t\\
x^{\prime} = & x – v_x t\\
y^{\prime} = & y – v_y t\\
z^{\prime} = & z – v_z t.
\end{array} \right. \hspace{0.75em} \hspace{0.75em} \text{ e } \hspace{0.75em} \left\{
\begin{array}{cl}
t = & t^{\prime}\\
x = & x^{\prime} + v_x t\\
y = & y^{\prime} + v_y t\\
z = & z^{\prime} + v_z t.
\end{array} \right.
$$

Espaço-tempo clássico

Uma nota sobre o espaço onde a mecânica clássica atua pode ser interessante como uma preparação para o estudo da relatividade. Suponhamos que dois eventos \(P\) e \(P^{\prime}\) ocorrem respectivamente sob as coordenadas
$$
P = (t,\;x,\;y,\;z)\hspace{2.0em} \text{e}\hspace{2.0em} P^{\prime} = (t^{\prime},\;x^{\prime}, \;y^{\prime}, \;z^{\prime}).
$$

Podemos calcular as distâncias
$$
\begin{array}{cl}
\Delta t = & t^{\prime} – t\\
& \\
\Delta s = & \sqrt{\left( x^{\prime} – x \right)^2 + \left( y^{\prime} –
y \right)^2 + \left( z^{\prime} – z \right)^2}
\end{array}
$$

que são as mesmas para qualquer observador que as observe. Na mecânica de Newton tempo é universal e independe do movimento do observador. O afastamento espacial entre os eventos, \(\Delta s\), é um objeto geométrico, invariante para qualquer sistema de coordenada que possamos usar. Dizemos que esta distância é invariante sob reparametrizações do espaço. Podemos escrever sob forma matricial
$$
\Delta s^2 = \Delta x^2 + \Delta y^2 + \Delta z^2 = \left( \Delta x
\hspace{0.75em} \Delta y \hspace{0.75em} \Delta z \right) \left(
\begin{array}{ccc}
1 & 0 & 0\\
0 & 1 & 0\\
0 & 0 & 1
\end{array} \right) \left( \begin{array}{c}
\Delta x\\
\Delta y\\
\Delta z
\end{array} \right)
$$

ou, alternativamente \(\Delta s^2 = \sum_{i, j} \Delta x^i \Delta x^j \delta_{ij} = \Delta x^i \Delta x^j \delta_{ij}\), onde \(\delta_{ij}\) são os componentes da métrica de Euclides,
$$
\delta_{ij} = \left( \begin{array}{ccc}
1 & 0 & 0\\
0 & 1 & 0\\
0 & 0 & 1
\end{array} \right) \hspace{4pt}\text{ ou } \hspace{4pt} \delta_{ij} = \left\{
\begin{array}{cl}
1 & \hspace{4pt}\text{ se } \hspace{4pt} i = j\\
0 & \hspace{4pt}\text{ se } \hspace{4pt} i \neq j
\end{array} \right.
$$

e a convenção de Einstein foi usada para indicar a soma sobre as quantidades com índices repetidos. Isto mostra que o espaço onde ocorrem os fenômenos clássicos é o produto cartesiano de \(I \hspace{-4pt} R^3\), um espaço euclidiano de três dimensões mais uma dimensão temporal.

Uma revisão adicional pode tornar mais fácil o estudo a seguir. Sendo \(I \hspace{-4pt} R^3\) um espaço vetorial escolhemos nele a base ortonormal canônica
$$
\left\{ \mathbf{\hat{e}}_i \right\} = \left\{ \hat{\imath}, \hat{\jmath}, \hat{k} \right\}.
$$

Qualquer vetor de \(I \hspace{-4pt} R^3\) pode ser escrito como uma combinação linear dos vetores da base
$$
\vec{v} = \sum^3_{i = 1} v^i \mathbf{\hat{e}}_i = v^i \mathbf{\hat{e}}_i.
$$

Neste espaço definimos o produto interno ou produto escalar, uma aplicação bilinear, simétrica e positiva definida, com o seguinte efeito sobre os vetores da base ortonormal,
$$
\left\langle \mathbf{\hat{e}}_i, \mathbf{\hat{e}}_j \right\rangle = \delta_{ij}.
$$

Então, se \(\vec{u} = u^i \mathbf{\hat{e}}_i\) é outro vetor temos
$$
\left\langle \vec{u}, \vec{v} \right\rangle = \left\langle u^i
\mathbf{\hat{e}}_i, v^j \mathbf{\hat{e}}_j \right\rangle = u^i v^j
\left\langle \mathbf{\hat{e}}_i, \mathbf{\hat{e}}_j \right\rangle = u^i v^j
\delta_{ij},
$$

que é o produto escalar usual \(\left\langle \vec{u}, \vec{v} \right\rangle = u^1 v^1 + u^2 v^2 + u^3 v^3\). A norma ou comprimento de um vetor é
$$
\left| \vec{u} \right| = \sqrt{\left\langle \vec{u}, \vec{u} \right\rangle}
= \sqrt{\left( u^1 \right)^2 + \left( u^2 \right)^2 + \left( u^3 \right)^2}.
$$

As equações do movimento

Vamos denotar por \(\vec{r} = \left( x, y, z \right)\) o vetor posição de um ponto em \(I \hspace{-4pt} R^3\). Uma trajetória neste espaço, percorrida por uma partícula, pode ser representada por uma curva parametrizada sob a forma
$$
\vec{r} \left( t \right) = \left( x \left( t \right), y \left( t \right), z \left( t \right) \right),
$$

sendo que o parâmetro \(t\) é o tempo. Sua velocidade é definida como a variação instantânea da posição com o tempo, ou seja
$$
\vec{v} (t) = \frac{d}{dt} \vec{r} \left( t \right) = \left( \dot{x}
\left( t \right), \dot{y} \left( t \right), \dot{z} \left( t \right) \right)
$$

onde a notação \(\mathbf{\dot{x}}\) foi introduzida para indicar a derivada com relação ao tempo. A aceleração de uma partícula é a derivada segunda
$$
\vec{a} (t) = \frac{d^2}{dt^2} \vec{r} \left( t \right) = \left( \ddot{x}
\left( t \right), \ddot{y} \left( t \right), \ddot{z} \left( t \right) \right).
$$

A equação de Newton uma equação diferencial
$$
\vec{F} = m \vec{a} (t),
$$

cuja solução é a trajetória da partícula.

Exemplo: Na teoria de Newton as trajetórias de partículas livres, i.e., não submetidas a nenhuma força, são retas de \(I \hspace{-4pt} R^3\). Temos
$$
\vec{F} = 0 \Rightarrow \vec{a} = 0,
$$

o que representa três equações diferenciais
$$
\ddot{x} \left( t \right) = 0, \hspace{0.75em} \ddot{y} \left( t \right) = 0, \hspace{0.75em} \ddot{z} \left( t \right) = 0,
$$

com soluções
$$
x \left( t \right) = at + b, \hspace{0.75em} y \left( t \right) = ct + d, \hspace{0.75em} z \left( t \right) = et + f,
$$

onde \(a, \hspace{0.3em} b, \hspace{0.3em}c, \hspace{0.3em}d, \hspace{0.3em}e, \hspace{0.3em}f \)
são constantes que podem ser determinadas pelas condições iniciais. Observe que
$$
\vec{r} \left( 0 \right) = \vec{r}_0 = \left( b, \hspace{0.25em} d,
\hspace{0.25em} f \right) \hspace{0.8em} \text{e} \hspace{0.8em} \vec{v} \left( 0 \right) = \vec{v}_0 =
\left( a, \hspace{0.25em} c, \hspace{0.25em} e \right)
$$

são, respectivamente, a posição e a velocidade inicial da partícula.

Para calcular a distância percorrida podemos usar a fórmula do comprimento de arco \(s\), obtida da seguinte forma: para variações infinitesimais do parâmetro \(t\) o arco tem o comprimento infinitesimal
$$
ds^2 = dx^2 + dy^2 + dz^2 = \left[ \left( \frac{dx}{dt} \right)^2 + \left(
\frac{dy}{dt} \right)^2 + \left( \frac{dy}{dt} \right)^2 \right] dt^2
$$

pois cada função coordenada é função de \(t\) apenas e \(dx = \left( dx / dt \right) dt\) , e análogos para \(y\) e \(z\). Para uma varição finita do parâmetro encontramos o comprimento de arco por meio da integral definida
$$
s = \int_{t_1}^{t_2} \sqrt{\dot{x}^2 + \dot{y}^2 + \dot{z}^2} dt,
$$

que é a distância total percorrida pela partícula.

A energia cinética de uma partícula é um escalar, definido como
$$
T = \frac{1}{2} mv^2
$$

onde \(v = \left| \vec{v} \right| = \sqrt{\dot{x}^2 + \dot{y}^2 + \dot{z}^2}\) , enquanto o momento linear de uma partícula é o vetor
$$
\vec{p} = m \vec{v} \mathbf{=} m \left( \dot{x}, \dot{y}, \dot{z} \right) .
$$

Podemos portanto escrever a equação de movimento de Newton como
$$
\vec{F} = \frac{d \vec{p}}{dt},
$$

válida mesmo que a massa não seja uma constante. Para uma partícula de massa constante temos uma relação entre a energia cinética e o
momento que será útil futuramente. Lembrando que \(v^2 =\) \(\vec{v} \mathbf{.} \vec{v} \mathbf{}\) temos que a taxa de variação de \(T\) com o tempo é

$$
\frac{dT}{dt} = \frac{1}{2} m \frac{d}{dt} \left( \vec{v} \mathbf{.}
\vec{v} \right) = m \vec{v} \mathbf{.} \frac{d \vec{v}}{dt} = \vec{v} .
\vec{F} . \label{energiacinetica}
$$
Para um sistema de \(N\) partículas temos que a energia cinética e o momento são as somas
$$
T = \sum_{i = 1}^N \frac{1}{2} m_i v_i^2, \vec{p} = \sum_{i = 1}^N m_i
\vec{v}_i .
$$

Estas definições de energia e momento são motivadas pelo fato experimental de que a soma das energias, cinética e potencial, e o momento são quantidades que se conservam durante a trajetória de uma partícula ou de um sistema de partículas.

Exercícios

  • Faça um esboço da trajetória em \(I \hspace{-4pt} R^2\) descrita em forma paramétrica por
    $$
    \mathbf{x} \left( t \right) = \left( R \cos \omega t, R \textit{sen} \omega t \right)
    $$
    Mostre que a aceleração, neste caso, é sempre perpendicular á velocidade.
  • Faça um esboço da trajetória em \(I \hspace{-4pt} R^3\) descrita em forma paramétrica por
    $$
    \mathbf{x} \left( t \right) = \left( \cos \omega t, \textit{sen} \omega t,
    t \right) .
    $$
  • Encontre o comprimento da trajetória acima de \(t = 0\) até \(t = 1\).

 

Consequências da invariância da velocidade da luz